JP7519354B2 - Using Optical Code in Augmented Reality Displays - Google Patents
Using Optical Code in Augmented Reality Displays Download PDFInfo
- Publication number
- JP7519354B2 JP7519354B2 JP2021526746A JP2021526746A JP7519354B2 JP 7519354 B2 JP7519354 B2 JP 7519354B2 JP 2021526746 A JP2021526746 A JP 2021526746A JP 2021526746 A JP2021526746 A JP 2021526746A JP 7519354 B2 JP7519354 B2 JP 7519354B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- person
- medical
- patient
- orientation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003287 optical effect Effects 0.000 title claims description 205
- 230000003190 augmentative effect Effects 0.000 title claims description 41
- 238000000034 method Methods 0.000 claims description 138
- 238000002594 fluoroscopy Methods 0.000 claims description 70
- 238000002604 ultrasonography Methods 0.000 claims description 56
- 230000000007 visual effect Effects 0.000 claims description 29
- 239000003550 marker Substances 0.000 claims description 18
- 238000003384 imaging method Methods 0.000 claims description 15
- 239000007943 implant Substances 0.000 claims description 15
- 230000003902 lesion Effects 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 4
- 230000000399 orthopedic effect Effects 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 2
- 238000002591 computed tomography Methods 0.000 description 20
- 210000003484 anatomy Anatomy 0.000 description 19
- 238000002595 magnetic resonance imaging Methods 0.000 description 17
- 238000005516 engineering process Methods 0.000 description 16
- 210000001519 tissue Anatomy 0.000 description 16
- 238000004891 communication Methods 0.000 description 14
- 230000015654 memory Effects 0.000 description 10
- 239000002184 metal Substances 0.000 description 10
- 238000012634 optical imaging Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 10
- 210000000988 bone and bone Anatomy 0.000 description 9
- 239000000463 material Substances 0.000 description 9
- 210000000056 organ Anatomy 0.000 description 9
- 230000008859 change Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 239000010410 layer Substances 0.000 description 5
- 230000005291 magnetic effect Effects 0.000 description 5
- 230000006855 networking Effects 0.000 description 5
- 210000004872 soft tissue Anatomy 0.000 description 5
- 239000004033 plastic Substances 0.000 description 4
- 229920003023 plastic Polymers 0.000 description 4
- 239000012530 fluid Substances 0.000 description 3
- 230000037431 insertion Effects 0.000 description 3
- 210000004185 liver Anatomy 0.000 description 3
- 238000002600 positron emission tomography Methods 0.000 description 3
- 238000002360 preparation method Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 239000000523 sample Substances 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 210000004204 blood vessel Anatomy 0.000 description 2
- 238000013481 data capture Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000002059 diagnostic imaging Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000003205 muscle Anatomy 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- BXNJHAXVSOCGBA-UHFFFAOYSA-N Harmine Chemical compound N1=CC=C2C3=CC=C(OC)C=C3NC2=C1C BXNJHAXVSOCGBA-UHFFFAOYSA-N 0.000 description 1
- 238000002583 angiography Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 210000001367 artery Anatomy 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 239000011324 bead Substances 0.000 description 1
- 238000001574 biopsy Methods 0.000 description 1
- 210000000481 breast Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000008045 co-localization Effects 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000002405 diagnostic procedure Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000002592 echocardiography Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 239000011888 foil Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000009607 mammography Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 239000000123 paper Substances 0.000 description 1
- 239000002907 paramagnetic material Substances 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 238000002603 single-photon emission computed tomography Methods 0.000 description 1
- 239000007779 soft material Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 239000003826 tablet Substances 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/90—Identification means for patients or instruments, e.g. tags
- A61B90/94—Identification means for patients or instruments, e.g. tags coded with symbols, e.g. text
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/90—Identification means for patients or instruments, e.g. tags
- A61B90/94—Identification means for patients or instruments, e.g. tags coded with symbols, e.g. text
- A61B90/96—Identification means for patients or instruments, e.g. tags coded with symbols, e.g. text using barcodes
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/4405—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving video stream decryption
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/102—Modelling of surgical devices, implants or prosthesis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/107—Visualisation of planned trajectories or target regions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
- A61B2034/256—User interfaces for surgical systems having a database of accessory information, e.g. including context sensitive help or scientific articles
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/366—Correlation of different images or relation of image positions in respect to the body using projection of images directly onto the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/372—Details of monitor hardware
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/376—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/378—Surgical systems with images on a monitor during operation using ultrasound
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3925—Markers, e.g. radio-opaque or breast lesions markers ultrasonic
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3937—Visible markers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3954—Markers, e.g. radio-opaque or breast lesions markers magnetic, e.g. NMR or MRI
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3966—Radiopaque markers visible in an X-ray image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/50—Supports for surgical instruments, e.g. articulated arms
- A61B2090/502—Headgear, e.g. helmet, spectacles
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B2027/0192—Supplementary details
- G02B2027/0198—System for aligning or maintaining alignment of an image in a predetermined direction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Pathology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Robotics (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Hardware Design (AREA)
- Optics & Photonics (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Radiology & Medical Imaging (AREA)
- Gynecology & Obstetrics (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Instructional Devices (AREA)
- Processing Or Creating Images (AREA)
Description
複合現実又は拡張現実は、物理世界及び仮想コンピューティング世界からの画像を複合現実世界に組み合わせてもよいコンピューティング技術の領域である。複合現実では、物理世界及び仮想世界からの人々、場所、及びオブジェクトは、複合環境になる。VR(仮想現実)又はAR(拡張現実)ヘッドセットの使用と共に、既存の商用又はカスタムソフトウェアを介して複合現実体験が提供されてもよい。 Mixed reality or augmented reality is an area of computing technology that may combine images from the physical and virtual computing worlds into a mixed reality world. In mixed reality, people, places, and objects from the physical and virtual worlds become a composite environment. Mixed reality experiences may be delivered through existing commercial or custom software along with the use of VR (virtual reality) or AR (augmented reality) headsets.
拡張現実(AR)は、物理的な現実世界の環境のライブの直接ビュー又は間接ビューが、音声、ビデオ、グラフィック又は他のデータなどのコンピュータ生成の感覚入力によって拡張又は補足される複合現実の例である。拡張は、現実世界の場所が見られ、環境要素と関連して実行される。高度なAR技術(例えば、コンピュータビジョン及びオブジェクト認識の追加)の支援により、ユーザの周囲の現実世界に関する情報はインタラクティブになり、デジタル的に修正されてもよい。 Augmented reality (AR) is an example of mixed reality in which a live direct or indirect view of a physical, real-world environment is augmented or supplemented by computer-generated sensory input, such as audio, video, graphics, or other data. Augmentation is performed in which real-world locations are viewed and associated with environmental elements. With the aid of advanced AR techniques (e.g., the addition of computer vision and object recognition), information about the real world around the user becomes interactive and may be digitally modified.
ARシステム又はARヘッドセットが直面する問題は、オブジェクトの位置及び向きを高精度で識別することである。同様に、仮想要素の位置を現実世界環境のライブビューと位置合わせすることは困難であり得る。ARヘッドセットの位置合わせ解像度は、仮想オブジェクトを、見ている物理オブジェクトに位置合わせしてもよいが、位置合わせ解像度は、数センチメートル以内にしか位置合わせされないことがある。数センチメートル以内に位置合わせを提供することは、娯楽及びそれほど要求の厳しくない用途に有用であり得るが、ARシステムの位置決め及び位置合わせの解像度を高めることは、科学、工学、及び医学の分野において望ましいことがある。その結果、位置決め及び位置合わせプロセスは手動で行われてもよく、これは時間がかかり、煩雑であり、不正確であり得る。 A problem faced by AR systems or AR headsets is identifying the position and orientation of objects with high accuracy. Similarly, aligning the position of virtual elements with a live view of the real-world environment can be difficult. The alignment resolution of an AR headset may align virtual objects to the physical objects being viewed, but the alignment resolution may only be to within a few centimeters. While providing alignment to within a few centimeters may be useful for entertainment and less demanding applications, increasing the positioning and alignment resolution of AR systems may be desirable in the fields of science, engineering, and medicine. As a result, the positioning and alignment process may be performed manually, which can be time-consuming, cumbersome, and inaccurate.
拡張現実(AR)ヘッドセットを使用して、医療処置中にARヘッドセットのカメラの視野内にある医療用具上で1つ又は複数の光学コードを識別できるようにする技術が提供される。医療用具は、1つ又は複数の光学コード及び人の身体上の画像可視マーカを使用して、人の身体と位置合わせされた画像データセットを参照することができる。画像データセットは、非光学撮像モダリティ(例えば、MRI(磁気共鳴画像法)、CT(コンピュータ断層撮影)スキャン、X線などを使用する)を使用する人の身体の一部分の以前に取得された画像であってもよい。画像データセットは、人の身体上に位置する少なくとも1つの光学コードからの固定距離である画像可視マーカを使用して、人の身体に位置合わせすることができる。例えば、画像可視マーカ及び光学コード(例えば、AprilTag又は2D光バーコード)の両方を1つの材料片(例えば、互いに同じ場所に配置されているか、又は互いに固定されて近接している)に取り付けて、画像データセットと人の身体との位置合わせを容易にしてもよい。画像可視マーカは、ARヘッドセットにとって光学的に可視ではない場合がある、取り込まれた放射線画像又は画像データセットなどの非可視撮像モダリティで見ることができるマーカである。画像データセットは、非光学撮像モダリティで人体の構造を取り込む機械によって取り込まれた画像を使用して、画像可視マーカの表現で取り込まれてもよい。画像データセット内の画像可視マーカの表現は、(後に更に詳細に説明するように)人の身体に貼付された1つ又は複数の光学コードに対する画像可視マーカの既知の固定位置を使用して、患者の身体と位置合わせすることができる。例えば、画像可視マーカは、放射線不透過性マーカ、MRIビーズ、超音波用のエコー源性構造などであってもよい。 Techniques are provided that allow an augmented reality (AR) headset to be used to identify one or more optical codes on a medical implement that is within the field of view of the AR headset's camera during a medical procedure. The medical implement can reference an image dataset that is aligned with the person's body using one or more optical codes and image visible markers on the person's body. The image dataset may be a previously acquired image of a portion of the person's body using a non-optical imaging modality (e.g., using MRI (magnetic resonance imaging), CT (computed tomography) scan, X-ray, etc.). The image dataset can be aligned with the person's body using image visible markers that are a fixed distance from at least one optical code located on the person's body. For example, both the image visible markers and the optical code (e.g., AprilTag or 2D optical barcode) may be attached to a piece of material (e.g., co-located with each other or fixed and close to each other) to facilitate alignment of the image dataset with the person's body. Image visible markers are markers that can be seen in a non-visible imaging modality, such as a captured radiographic image or image dataset, that may not be optically visible to the AR headset. The image dataset may be captured with a representation of the image visible markers using images captured by a machine that captures the structure of the human body in a non-optical imaging modality. The representation of the image visible markers in the image dataset can be aligned with the patient's body using a known fixed position of the image visible markers relative to one or more optical codes affixed to the person's body (as described in more detail below). For example, the image visible markers may be radiopaque markers, MRI beads, echogenic structures for ultrasound, etc.
医療用具を画像データセットに参照することはまた、人の身体及び画像データセットに対する医療用具の位置及び向きを識別することを含んでもよい。したがって、医療専門家は、ARヘッドセットを介して実際の患者を見ながら、医療用具上の光学コードを使用して医療用具を参照するような画像データセットを使用して、患者の仮想内部を見る。医療用具を含む視覚画像データは、ARヘッドセットの可視光カメラを使用して取り込むことができる。医療用具に視認可能に表示される1つ又は複数の光学コードもまた走査されてもよい。例えば、医療用具の位置及び向きは、1つ又は複数の光学コード(例えば、APRILコード又は2D(2次元)バーコード)を走査することによって決定されてもよい。医療用具は、医療器具、トロカール、カテーテル、整形外科用ハードウェア、外科用インプラント、クランプ、電気焼灼ブレード又はシステム、手術室オブジェクト、機器オブジェクト、治療オブジェクト、医療処置オブジェクト、治療オブジェクト、挿入可能な用具、植込み可能なオブジェクト、医療デバイスなどであり得る。 Referencing the medical implement to the image dataset may also include identifying the position and orientation of the medical implement relative to the person's body and the image dataset. Thus, the medical professional views the virtual interior of the patient using the image dataset, while viewing the actual patient through the AR headset, and references the medical implement using an optical code on the medical implement. Visual image data including the medical implement may be captured using a visible light camera in the AR headset. One or more optical codes visibly displayed on the medical implement may also be scanned. For example, the position and orientation of the medical implement may be determined by scanning one or more optical codes (e.g., an APRIL code or a 2D (two-dimensional) bar code). The medical implement may be a medical instrument, a trocar, a catheter, an orthopedic hardware, a surgical implant, a clamp, an electrocautery blade or system, an operating room object, an equipment object, a treatment object, a medical procedure object, a treatment object, an insertable implement, an implantable object, a medical device, etc.
ARヘッドセットを使用して、患者の身体及び画像データセットに対する医療用具の位置決め及び向きを案内するために、画像データセットに視覚的インジケータ、注釈、又は仮想ツールが統合されてもよい。医療用具又は仮想ツールはまた、医療用具又は仮想ツールを強調表示するためにARヘッドセットを使用して医療用具又は仮想ツールに近接して又はオーバーレイとして表示されるグラフィックインジケータ(例えば、コンピュータ生成されたグラフィック又はシンボル)を有してもよく、又はグラフィックインジケータは、医療用具が医療処置に関連付けられているかどうかを表すことができる。医療処置における医療用具の使用を説明する指示情報である医療情報も取得することができる。更に、医療用具の輪郭は、開始点として、医療用具上の1つ又は複数の光学コードを使用して検出することができる。自動検出及び位置合わせの使用は、医療用具及び画像データセットと患者の実際のビューとの時間がかかり面倒な手動位置合わせを回避又は低減してもよい。 Using the AR headset, visual indicators, annotations, or virtual tools may be integrated into the image dataset to guide the positioning and orientation of the medical tool relative to the patient's body and the image dataset. The medical tool or virtual tool may also have a graphic indicator (e.g., a computer-generated graphic or symbol) that is displayed in proximity to or as an overlay on the medical tool or virtual tool using the AR headset to highlight the medical tool or virtual tool, or the graphic indicator may indicate whether the medical tool is associated with a medical procedure. Medical information, which is instructional information describing the use of the medical tool in a medical procedure, may also be obtained. Furthermore, the contour of the medical tool may be detected using one or more optical codes on the medical tool as a starting point. The use of automatic detection and alignment may avoid or reduce time-consuming and tedious manual alignment of the medical tool and image dataset with the actual view of the patient.
本技術の別の構成では、拡張現実(AR)ヘッドセット又はARディスプレイは、人の身体に対して画像データセットからの透視画像及び画像投影を位置合わせして表示することができる。画像投影としての透視画像の位置及び向きは、人の身体に対して移動可能な透視デバイスの位置及び向きによって定義されてもよい。これに関連して、人の身体に対して移動可能な撮像デバイスの説明は、撮像装置の向きを変更するか、又はエミッタ、検出器、トランスデューサ、及び/又は撮像装置の撮像構成要素を人の身体に対して移動させる、撮像装置の移動度を含む。透視デバイス上の1つ又は複数の光学コードを使用して、人又は患者の身体に対する透視デバイスの位置及び向きを決定することができる。透視画像及び画像投影は、人の身体の一部分を透視撮像した状態で表示されてもよい。この位置合わせ及び表示は、人の身体上の1つ又は複数の光学コード及び画像可視マーカ、並びに透視デバイス上の1つ又は複数の光学コードを使用することができる。人の身体上の光学コード及び透視デバイス上の光学コードは、ARヘッドセットのカメラによって取り込まれた視覚画像データで識別することができる。 In another configuration of the present technology, an augmented reality (AR) headset or AR display can align and display fluoroscopic images and image projections from an image dataset with respect to the person's body. The position and orientation of the fluoroscopic images as image projections may be defined by the position and orientation of a movable fluoroscopic device with respect to the person's body. In this context, the description of an imaging device that is movable with respect to the person's body includes mobility of the imaging device that changes the orientation of the imaging device or moves the emitter, detector, transducer, and/or imaging components of the imaging device with respect to the person's body. One or more optical codes on the fluoroscopic device can be used to determine the position and orientation of the fluoroscopic device with respect to the person's or patient's body. The fluoroscopic images and image projections may be displayed with a fluoroscopic image of a portion of the person's body. This alignment and display can use one or more optical codes and image visible markers on the person's body and one or more optical codes on the fluoroscopic device. The optical codes on the person's body and the optical codes on the fluoroscopic device can be identified in visual image data captured by the camera of the AR headset.
人の身体上の光学コードのうちの少なくとも1つは、画像可視マーカに対して固定位置を有し得る。これにより、ARディスプレイ(例えば、ARヘッドセット)を通して見たときに、画像可視マーカと人の身体上の1つ又は複数の光学コードとの間の固定距離を使用して、画像データセット(例えば、放射線画像)を人の身体に位置合わせすることができる。画像投影は、透視デバイスの位置及び向きに基づいて画像データセットから作成されてもよい。透視デバイスからの透視画像は、画像可視マーカ(例えば、放射線不透過性オブジェクト)及び/又は透視デバイスの位置及び向きを定義する1つ又は複数の光学コードに基づいて、人の身体及び画像投影と位置合わせされてもよい。更に、透視画像は、X線ビームが人の身体を通過している人の身体に対する位置にARヘッドセットで仮想的に表示されてもよく、透視画像は、X線ビームで撮像されている人の身体の一部分を重ね合わせるように位置合わせされてもよい。画像投影は、透視画像と平行に配向されてもよく、X線ビームの経路の少なくとも一部に仮想的にあるようにARヘッドセットに表示されてもよい。位置合わせされた画像は、患者の現実世界又は現実のビューと共に、ARヘッドセットを使用して表示されてもよく、又は位置合わせされた画像は、別個のARディスプレイ(例えば、別個のディスプレイ画面)に表示されてもよい。このプロセスは、ライブ透視画像、画像データセット(例えば、拡張現実画像又は画像投影)、及び人の実際のビューを結合、配置、及び配向して、それにより、透視画像(例えば、人の体内の放射線不透過性オブジェクトの誘導)及び画像データセット(例えば、より良好な組織コントラストなど)の有用な態様が医療処置中に組み合わされることを可能にする。 At least one of the optical codes on the person's body may have a fixed position relative to the image visible markers. This allows the image data set (e.g., radiographic image) to be registered to the person's body when viewed through an AR display (e.g., an AR headset) using a fixed distance between the image visible markers and one or more optical codes on the person's body. The image projection may be created from the image data set based on the position and orientation of the fluoroscopy device. The fluoroscopic image from the fluoroscopy device may be registered with the person's body and the image projection based on the image visible markers (e.g., radiopaque objects) and/or one or more optical codes that define the position and orientation of the fluoroscopy device. Furthermore, the fluoroscopic image may be virtually displayed in the AR headset at a position relative to the person's body where the x-ray beam is passing through the person's body, and the fluoroscopic image may be registered to overlay a portion of the person's body being imaged with the x-ray beam. The image projection may be oriented parallel to the fluoroscopic image and may be displayed in the AR headset as being virtually in at least a portion of the path of the x-ray beam. The registered image may be displayed using an AR headset along with the real-world or actual view of the patient, or the registered image may be displayed on a separate AR display (e.g., a separate display screen). This process combines, aligns, and orients the live fluoroscopic image, the image dataset (e.g., augmented reality image or image projection), and the actual view of the person, thereby allowing useful aspects of the fluoroscopic image (e.g., navigation of radiopaque objects within the person's body) and the image dataset (e.g., better tissue contrast, etc.) to be combined during a medical procedure.
透視画像を使用する別の構成では、透視デバイスの1つ又は複数の光学コードを使用して、人の身体に対する透視デバイスの位置及び向きの変化を検出することができる。次いで、透視デバイスの位置及び向きの変化によって定義されるように、画像投影及び透視画像位置及び向きが修正されてもよい。例えば、画像データセットの投影の動きは、透視デバイスの向き及び位置の変化に基づいて、透視画像と一致するように共局在化又は同期されてもよい。透視デバイスのズームはまた、人の身体上の放射線不透過性オブジェクトを使用して検出されてもよく、放射線不透過性オブジェクトのサイズは、ARディスプレイ上で見たときの画像投影のサイズを調整するために使用されてもよい。グラフィックインジケータ、仮想ツール、又は仮想標的システムもまた、画像データセットに含まれ、ARディスプレイを使用して人の身体及び画像データセットに対する透視可能なオブジェクト(例えば、トロカール又は針)の位置決め及び向きを案内するために蛍光透視画像に共局在化され得る。 In another configuration using fluoroscopic images, one or more optical codes of the fluoroscopic device can be used to detect changes in the position and orientation of the fluoroscopic device relative to the person's body. The image projection and fluoroscopic image position and orientation may then be modified as defined by the changes in the position and orientation of the fluoroscopic device. For example, the movement of the projection of the image data set may be co-localized or synchronized to match the fluoroscopic image based on the changes in the orientation and position of the fluoroscopic device. The zoom of the fluoroscopic device may also be detected using a radiopaque object on the person's body, and the size of the radiopaque object may be used to adjust the size of the image projection when viewed on the AR display. Graphic indicators, virtual tools, or virtual target systems may also be included in the image data set and co-localized to the fluoroscopic image to guide the positioning and orientation of a fluoroscopic object (e.g., a trocar or needle) relative to the person's body and the image data set using the AR display.
別の構成では、カメラ又はARヘッドセットによって検出又は取り込まれた光学コードを使用して、正しい医療処置が正しい患者に対して実行されていることを確認することができる。更に、医療処置における人又は患者に関連する情報もまた、光学コードを使用して取得されてもよく、ARシステムを使用して医療専門家に表示され得る。光学コードはまた、患者の識別情報を確認するのに役立つことができる。確認はまた、身体及び医療用具の1つ又は複数の光学コードを使用して、身体の正しい部分及び正しい医療用具が医療処置内にあることを判定するために実行されてもよい。 In another configuration, an optical code detected or captured by a camera or AR headset can be used to verify that the correct medical procedure is being performed on the correct patient. Additionally, information related to the person or patient in the medical procedure may also be obtained using the optical code and displayed to the medical professional using the AR system. The optical code can also help verify the patient's identity. Verification may also be performed using one or more optical codes on the body and medical implement to determine that the correct part of the body and the correct medical implement are in the medical procedure.
図1は、患者106又は人の画像データセットが、患者106に貼付された光学コード200を使用して、患者106の実際のビューと位置合わせされ得る例示的な拡張現実(AR)環境100を示す。環境100は、物理的空間102(例えば、手術室、実験室など)、ユーザ104、患者106、患者上の複数の光学コード200、光学コード198を有する医療用具118、及びコンピュータネットワーク110を介してサーバ112と通信するARヘッドセット108を含むことができる。仮想ユーザインタフェース114及び仮想カーソル122も破線で示されており、これらの仮想要素がARヘッドセット108によって生成され、ARヘッドセット108を介してユーザ104が見ることができることを示している。
1 illustrates an exemplary augmented reality (AR)
ARヘッドセット108は、画像データセットを用いて患者106の実際のビューを拡張することができるARコンピューティングシステムとすることができる。例えば、ARヘッドセット108はユーザ104によって使用され、骨106b(図1に示す)、筋肉、臓器、又は流体を含むがこれらに限定されない患者106の1つ又は複数の3D画像データセットのビュー又は放射線画像で患者106の実際のビューを拡張してもよい。ARヘッドセット108は、画像データセット(又は画像データセットの投影)を動的に再構築することを可能にすることができる。したがって、ユーザ104が患者106の周りを移動するとき、ARヘッドセット108のセンサは、患者106に対するユーザ104の位置を決定し、画像データセットを使用して表示される患者の内部解剖学的組織は、ユーザが患者に対して異なる向きを選択するときに動的に再構築することができる。例えば、ユーザ104は、患者106の周りを歩いてもよい。次いで、ARヘッドセット108は、患者106の1つ又は複数の取得された放射線画像又は画像データセット(MRI、CTスキャンなど)によって患者106の実際のビューを拡張してもよく、その結果、患者106及び患者106の画像データセットの両方が、任意の角度(例えば、投影された画像又は画像データセットからのスライスも表示することができる。)からユーザ104によって見ることができる。ARヘッドセット108は、Microsoft HOLOLENS、Meta Company META 2、Epson MOVERIO、Garmin VARIA VISION、又は他のARヘッドセットの修正バージョンであってもよい。
The
光学コード200は、患者106の画像データの生成(例えば、MRI、CTスキャン、X線などの取り込み)に先立って患者106に貼り付けられ、その後、患者106がARヘッドセット108を介してユーザ104によって見られている間、患者106に貼り付けられたままであり得る。次いで、光学コード200及び画像可視マーカをARヘッドセット108によって使用して、患者106の画像データセットを患者106の実際のビューと自動的に位置合わせすることができる。更に、画像データを自動的に取得するために画像データの取り込み中に使用されるのと同じ光学コード200を使用することにより、ARヘッドセット108によって取得される画像データが、ARヘッドセット108を通して見られている実際の患者106と一致することを保証することができる。
The
ARヘッドセット108は、患者の表面をマッピング又は検出することができ、同様に医療用具118の表面をマッピングすることができるセンサ技術を有し、この検出された表面マッピングデータは、画像データセットに共登録することができる。医療用具118は、環境100内で頻繁に移動することができ、医療用具118のリアルタイム位置は、光学コードを使用して3D空間102内で追跡することができ、医療用具118は、画像データセット116又は患者106の身体に参照されてもよい。ユーザ104が医療用具118の一部を患者106の体内に挿入すると、ARヘッドセット108は、画像データセット116に投影された医療用具118の仮想挿入部分を表示して、患者106の内側の解剖学的組織に医療用具118を描写することができる。このようにして、医療用具118の実際の挿入部分がユーザ104の実際のビューから隠されている場合でも、医療用具118の仮想挿入部分は、ユーザ104の実際のビューに投影され、画像データセットに参照されてもよい。医療用具118は、医療用具118に取り付けられた1つ又は複数の光学コードを使用して追跡することができ、次いで、画像データセット116及び人又は患者106の身体を参照して医療用具118の継続的に更新される位置を確立するために、ARヘッドセットによって1つ又は複数の光学コードを検出することができる。いくつかの実施形態では、医療用具118は、ユーザ104が患者106に挿入したい任意のものであってもよい。例えば、医療用具118は、針、トロカール、メス(図1に示す)、スコープ、ドリル、プローブ、クランプ、インプラント、別の医療器具を含むことができるが、これらに限定されない。
The
仮想ユーザインタフェース114は、ARヘッドセット108によって生成することができ、患者106の画像データセット116から患者106の投影された内側解剖学的組織の表示を変更するためのオプションを含むことができる。仮想ユーザインタフェース114は、ユーザ104にとって有用であり得る他の情報を含むことができる。例えば、仮想ユーザインタフェース114は、光学コードで識別されている患者又は医療用具118(例えば、医療器具、インプラントなど)に関する情報を含んでもよい。別の例では、仮想ユーザインタフェース114は、患者106の医療チャート又は他の医療データを含むことができる。いくつかの構成では、画像データ116又は取り込まれた人の放射線データは、画像データ116のボリュームを使用してARヘッドセット108によって表示され、画像データから患者106の放射線学的に取り込まれた解剖学的組織(例えば、骨106b、組織、血管、流体など)を表示することができる。この画像データは、画像データの軸方向スライス、冠状スライス、矢状スライス、又は傾斜スライスを含むことができる。スライスは、深さ並びに高さ及び幅(例えば、ボクセルの1つ又は複数の層)を有する2次元(2D)スライス、3次元(3D)スライス、及び/又は4次元(4D)スライス(画像の時系列を有する3D画像)であってもよい。ユーザ104は、ハンドジェスチャ、音声コマンド、眼球運動、リモコン(例えば、finger clicker)、3Dマウス、VR棒(VR wand)、指センサ、触覚技術、又は他の制御方法を使用して仮想ユーザインタフェース114を制御することができる。
The
一構成例では、ARヘッドセット108をそれぞれ装着している複数のユーザが同時に存在して、患者106の画像データを用いて拡張された患者106を見ることができる。例えば、医療処置中に使用される複数のARヘッドセット108が存在し得る。一方のARヘッドセット108は、ARヘッドセットの両方に表示されている放射線画像を調整及び操作するために第1の医療専門家によって使用されてもよく、第2のヘッドセットは、患者に対する医療処置の実行を支援するために第2の医療専門家によって使用されてもよい。加えて、1人の医療専門家は、他の医療専門家の要求で放射線画像をオン又はオフにすることができる場合がある。
In one configuration, multiple users may be present at the same time, each wearing an
図2は、図1の患者106に固定された図1の光学コード200を示す。図1及び図2の両方を参照すると、光学コード200は、ARヘッドセット108に組み込まれた光学センサなどの光学センサに知覚可能であり得る。いくつかの実施形態では、光学コード200は、AprilTag、線形バーコード、マトリックス2次元(2D)バーコード、クイックレスポンス(QR)コード、又はそれらの何らかの組み合わせであってもよい。AprilTagは、拡張現実及びカメラ較正に有用な視覚的基準システムであり得る2次元バーコードの一種である。AprilTagsは、カメラ、センサ、又はARヘッドセットに対するタグの3D位置、向き、及び識別情報を計算するために使用され得る。
2 illustrates the
光学コード200は、患者106の医療データに光学コード200でアクセスできるように、患者106の医療データにリンクされてもよい。例えば、光学コード200を使用して、ARシステムを使用する患者の医療処置で使用される画像データセットを自動的に検索することができる。
The
光学コード200は、非光学撮像モダリティに知覚可能なマーカ206又は画像可視マーカに更に関連付けられてもよい。非光学撮像モダリティの例としては、MRIモダリティ、コンピュータ断層撮影(CT)スキャンモダリティ、X線モダリティ、陽電子放出断層撮影(PET)モダリティ、超音波モダリティ、蛍光モダリティ、赤外線サーモグラフィ(IRT)モダリティ、3Dマンモグラフィ、又は単光子放出コンピュータ断層撮影(SPECT)スキャンモダリティを挙げることができるが、これらに限定されない。別の例では、非光学画像又は画像データセットは、上に列挙した2つ以上の形態の非光学撮像モダリティの組み合わせを含む画像又は画像データセットであってもよい(例えば、互いに組み合わされた2つ以上の画像、2つ以上の非光学画像の組み合わされたセグメント、MRI画像と融合されたCT画像など)。別個のモダリティ内の各画像データセットは、個々の画像データセット内に画像可視コードを有することができ、これにより、PET画像、CT画像、MRI画像、透視画像などを、ARシステムビュー内の人の身体上の光学コードと共に位置合わせ及び参照することができる。非光学撮像モダリティに知覚可能な材料からマーカ206を形成することにより、非光学撮像モダリティを使用して取り込まれた患者106の画像データセットにマーカ206又は画像可視マーカを表示することができる。マーカ206の例には、金属球、液体球、放射線不透過性プラスチック、金属含浸ゴム、金属ストリップ、常磁性材料、及び金属インクの部分が含まれるが、これらに限定されない。
The
マーカ206又は画像可視マーカは、パターンで配置されてもよく、光学コード200の位置に対して固定位置を有してもよい。例えば、図2に開示された実施形態では、光学コード200は、材料202(例えば、絆創膏、紙、プラスチック、金属箔など)上に印刷されてもよく、マーカ206は、材料202(例えば、材料202に埋め込まれており、包帯のいずれの表面上にも見えない)に貼り付けられてもよい。この実施形態では、マーカ206は、包帯202内に固定パターンで配置されることによって、光学コード200の位置に対して固定位置を有するパターンで配置されてもよい。あるいは、マーカ206は、光学コード200自体の中に埋め込まれてもよく、例えば、マーカ206は、光学コード200が材料202上に少なくとも一部が印刷されるインクの中に埋め込まれ、インクは、放射線不透過性であり、X線に対して透明ではないインク粒子など、非光学撮像モダリティに対して知覚可能な材料を含む。これらの実施形態では、光学コード200自体は、光学コード及びマーカのパターンの両方として機能することができる。更に、マーカ206は、光学コード200を患者106の皮膚106aに直接(少なくとも一時的に)貼り付けるか又は印刷することによって配置することができる。マーカ206を、光学コード200の位置に対して固定位置を有するパターンに配置することによって、この固定位置を使用して、マーカ206自体がARヘッドセット108のセンサに見えないか又は知覚できない場合であっても、光学コード200の可視位置に対するマーカ206又は画像可視マーカのパターンの位置を計算し、又は可視マーカを撮像することができる。
The
光学コード200及びマーカ206が固定パターンで患者106に取り付けられると、(マーカ206が知覚可能である)非光学撮像モダリティを使用して、患者106及びマーカ206の画像データを取り込むことができる。特に、画像データは、患者106の内部解剖学的組織(例えば、骨106b、筋肉、器官、又は流体など)を含むと共に、患者106の内部解剖学的組織の位置に対して固定位置にマーカ206のパターンを含むことができる。言い換えれば、患者106の内部解剖学的組織が患者106の画像データに現れるだけでなく、マーカ206もまた固定パターンで患者106の画像データセットに現れ、マーカ206のこの固定パターンの位置は、患者106の内部解剖学的組織の位置に対して固定位置で画像データセットに現れる。一例では、非光学撮像モダリティがCTスキャンモダリティである場合、CTスキャン画像は、患者106の骨106b、臓器、及び軟部組織、並びに患者106の骨106b、臓器、及び軟部組織の位置に対して固定位置に配置されたマーカ206を表示することができる。
Once the
更に、患者106は、例えば、病院の医療撮像室から病院の手術室に移動されてもよい。次いで、ユーザ104(医療専門家など)は、ARヘッドセット108を使用して、人又は患者の身体上の光学コード200の位置を判断することができる。次に、ARヘッドセット108は、光学コードに基づいて患者106の画像データを自動的に取り出すことができる。
Furthermore, the
3D空間102内の光学コード200を検出した後、ARヘッドセット108は、3D空間102内かつ互いに対するマーカ206のパターンの位置を自動的に計算することができる。この自動計算は、3D空間102内の光学コード200の検知された位置に基づくことができ、光学コード200の位置に対するマーカ206のパターンの既知の固定位置に基づくこともできる。(例えば、マーカ206が材料の中又は下に埋め込まれていることに起因して)マーカ206がARヘッドセット108に知覚できない場合であっても、ARヘッドセット108は、光学コード200の位置と、光学コード200の位置に対するマーカ206のパターンの固定位置とに基づいて、マーカ206のパターンの位置を自動的に計算することができる。この例では、これらの固定位置は、ARヘッドセット108がマーカ206の位置を直接感知していない場合であっても、ARヘッドセット108が互いに対して3D空間102内のマーカ206のパターンの位置を自動的に計算することを可能にすることができる。
After detecting the
3D空間102内のマーカ206又は画像可視マーカのパターンの位置を計算した後、ARヘッドセット108は、3D空間102内のマーカ206のパターンの計算された位置を画像データセット内のマーカ206のパターンの位置と位置合わせすることによって、3D空間102内の患者106の内部解剖学的組織の位置を位置合わせすることができる。位置合わせは、3D空間102内のマーカ206のパターンの計算された位置と、患者106の内部解剖学的組織の位置に対するマーカ206に設定された画像データセットの固定位置とに基づいて実行することができる。次いで、この位置合わせは、ARヘッドセット108が、患者106の実際のビューに投影された画像データから患者106の内部解剖学的組織をリアルタイムで表示することを可能にすることができる。
After calculating the position of the
したがって、光学コード200、及びマーカ206の関連するパターンは、患者106の画像データを患者106の実際のビューと自動的に位置合わせするためにARヘッドセット108によって使用され得る。更に、画像データの取り込み中に取得された画像データを自動的に読み出すために、1つ又は複数の光学コード200(例えば、AprilTag及び2Dバーコード、又は光学コードの別の組み合わせ)を用いることができ、ARヘッドセット108によって読み出された画像データが、ARヘッドセット108を通して見ている実際の患者106と一致することを保証することができる。
Thus, the
更なる例では、患者106の画像データと3D空間102内の患者106の実際のビューとの正確な位置合わせを更に確実にするために、複数の光学コード200を患者106に同時に取り付けることができる。また、図2に開示された5つのマーカ206のパターンは、3つのマーカのパターン又は7つのマーカのパターンなどの別のパターンに置き換えられてもよく、各光学コードは異なるパターンを有してもよい。更に、マーカ206は患者106の外層に固定されているので、マーカ206はすべてが一平面内にあるとは限らず、代わりに患者106の外層の任意の曲率に適合することができる。これらの実施形態では、光学コード200の位置に対するマーカ206のパターンの固定位置は、患者106の外層上の任意の曲率を説明するために、光学コード200及びマーカ206を患者106に固定した後に確立されてもよい。
In a further example, multiple
図3は、ARヘッドセット又はARシステムのカメラによって取り込まれ得る視覚画像を示す。視覚画像は、患者300の身体及び医療用具314を含むことができ、それぞれに光学コードが貼付される。光学コードを使用して、視覚画像内の医療用具312の位置及び向きを識別することができ、光学コードを開始点として使用して、医療用具312の輪郭又は形状を識別することができる。更に、人300の身体上の光学コード310を使用して、オーバーレイ又は表示用の追加の仮想オブジェクトとして使用される患者(例えば、患者データベース内の患者記録)又は(例えば、オブジェクトデータベース内の)仮想オブジェクトの追加情報にアクセスすることができる。
FIG. 3 shows a visual image that may be captured by a camera of an AR headset or AR system. The visual image may include a patient 300's body and a medical implement 314, each with an optical code affixed to it. The optical code may be used to identify the location and orientation of the medical implement 312 in the visual image, and the optical code may be used as a starting point to identify the contour or shape of the medical implement 312. Additionally, the
一構成では、医療用具312上で複数の光学コード314を使用して、医療用具の位置及び向きを決定することができる。例えば、光学コード314は、医療用具の複数の別個の面又は表面に貼り付けられてもよい。これらの複数の光学コードの各々は、医療用具の特定の面、態様、又は向きを識別するように符号化されてもよい。複数の光学コードはまた、医療用具と関連付ける所望の3D(3次元)仮想画像を識別する際に使用されてもよい。例えば、強調表示グラフィック又は仮想オブジェクト(例えば、仮想医療器具)を医療用具のオーバーレイとして選択することができる。
In one configuration, multiple
患者300及び医療用具314に取り付けられた光学コード310、314が、視覚画像内の患者の身体及び医療用具314の位置及び向きを識別するために使用されると、この位置及び向き情報は、各光学コードについて追跡され、処置における医療用具及び患者の位置及び向きを判断するときに使用され得る。光学コード310は、処置中に患者の視覚画像を取り込むプロセス中に取り込むことができる。結果として、光学コード310を使用して、(例えば、ARヘッドセットなどにおける)拡張現実ディスプレイ内の患者の以前に取り込まれた放射線画像に対して医療用具314を参照することができる。
When the
更に、医療用具の光学コード314を使用して、特定の種類の医療用具312(例えば、医療器具又は整形外科用インプラント)を識別することができる。医療用具の位置及び向きが識別されると314、医療用具の位置は、上述した画像データセット及び患者の身体に対して決定され得る。医療用具314の位置をよりよく説明するために、ARシステムは、医療用具のサイズ、形状、及び輪郭を記述する情報、並びに任意の他の関連情報にアクセスすることができる。
Additionally, the
一例では、医療用具312に関連する追加情報も取得することができる。例えば、医療器具の使用に関する情報が取得され、ARヘッドセットに表示されてもよい。これは、医療器具を患者の身体と最適に位置合わせする方法に関する情報、インプラントを骨に挿入するためのチップ、電子医療センサの設定、又は医療用具の他の案内情報を含むことができる。
In one example, additional information related to the
更に、ARシステムは、どの医療用具312が特定の医療処置に関連付けられているかを識別する記録を有することができる。この情報を光学コードと組み合わせて使用することにより、拡張現実システムは、特定の医療用具312が現在の医療処置に正しく関連付けられているか、又は現在の医療処置で正しく使用されているかどうかを判定することができる。例えば、医療用具312が患者に埋め込まれる医療処置では、拡張現実システムに関連するデータストアにアクセスして、正しいインプラントが患者に埋め込まれ、正しいツールが使用されていることを保証することができる。光学コード、処置データ、及び患者データのこの組み合わせを使用して、正しい患者が手術されているかどうか、正しい身体部分が手術されているかどうか、身体の正しい側のためのインプラントが使用されているかどうか、又は正しいインプラントサイズが使用されているかどうかをチェックすることができる。処置の前に医療用具312に光学コードを使用することにより、正しい医療用具312が手術室にあるという信頼性を高めることができる。別の例では、ARシステムは、所与の医療用具312が処置において認可されていることを確認する、又は誤った医療用具312若しくは器具が存在することをユーザに警告する光学インジケータを表示することができる。
Additionally, the AR system may have records identifying which
図4は、医療処置中に医療用具312に関連する追加情報を識別することを示す。上述したように、ARシステムは、患者300、医療用具312、及び/又は実行されている医療処置に関連する情報にアクセスするために光学コード314を使用することができる。ARシステムは、処置中にユーザを支援するために、ARヘッドセットを介して医療用具の使用に関連する情報を表示することができる。一例では、この情報は、医療器具の適切な使用を説明することができる。例えば、ARシステムが医療器具312上の光学コード314を取り込む場合、光学コード314内の値は、データベースからその機器の情報を取得するための検索値として使用することができる。そのような情報は、ARヘッドセットに表示することができる医療器具312を使用するための計画された医療処置ステップを更に含むことができる。
4 illustrates identifying additional information related to the medical implement 312 during a medical procedure. As discussed above, the AR system can use the
医療専門家は、医療処置の特定の態様を事前に計画することができる。例えば、切開部又は組織を切断する経路の位置及び向きは、注釈を使用して事前に計画することができる。これらの計画は、拡張現実システムに関連付けられたデータベースに入力することができる。必要に応じて、ユーザは、ARヘッドセット内のユーザに関連する事前に計画された医療処置情報を表示するように拡張現実システムに命令することができる。この場合、ユーザ又はシステムは、医療器具612の位置決めを記述するための所定の注釈400、402を有することができる。医療処置のための医療器具のための事前に計画された経路又は位置合わせ点、線若しくは平面を示すために、仮想誘導システムがARヘッドセットによって表示され得る。結果として、拡張現実ディスプレイは、医療用具312を円形釈400、402に移動させる指示と共に、ガイダンス注釈404を表示することができる。医療専門家がARヘッドセット内のグラフィックを使用して視覚的に描写された適切な位置及び向き(例えば、3次元内)に医療器具の位置及び向きを移動させると、適切な位置及び向きが満たされたことを示すために、グラフィックインジケータ、仮想ツール、又は仮想標的システムが表示され得る。医療用具312の位置決め及び向きは、3次元又は2次元で案内されてもよい。一例では、医療器具が位置合わせされていないときに赤色インジケータが表示されてもよく、医療器具が位置合わせされているときに緑色インジケータがARヘッドセットを介して表示されてもよい。したがって、注釈は、医療用具が定義された位置、ターゲット、エントリポイント、又は標的オブジェクトの近くに移動すると、修正、アニメーション化、及び/又は色を変更することができる。
The medical professional can pre-plan certain aspects of the medical procedure. For example, the location and orientation of the incision or the path to cut the tissue can be pre-planned using annotations. These plans can be entered into a database associated with the augmented reality system. If desired, the user can instruct the augmented reality system to display pre-planned medical procedure information relevant to the user in the AR headset. In this case, the user or system can have
同様に、仮想器具又は仮想ツールを表示して、可視器具と仮想器具との位置合わせを可能にすることができる。例えば、グラフィック又は仮想器具は、ARヘッドセットを使用して表示又は投影されてもよい。可視器具又は現実世界の器具が仮想器具又は仮想ツールと位置合わせされると、ARシステムは、可視器具が仮想器具と位置合わせされることを示すメッセージ又はグラフィックを表示することができる。更に、仮想器具のこの位置合わせはまた、以前に取得された画像データセット又は処置中に取得された画像データセット(例えば、処置中に得られたCTスキャン又はMRI画像)内の見ることができる解剖学的構造との位置合わせを可能にし得る。 Similarly, a virtual instrument or tool may be displayed to allow alignment of the visible instrument with the virtual instrument. For example, a graphic or virtual instrument may be displayed or projected using an AR headset. Once the visible instrument or real-world instrument is aligned with the virtual instrument or tool, the AR system may display a message or graphic indicating that the visible instrument is aligned with the virtual instrument. Furthermore, this alignment of the virtual instrument may also allow alignment with visible anatomical structures in a previously acquired image dataset or an image dataset acquired during a procedure (e.g., a CT scan or MRI images obtained during a procedure).
図5は、切開点504が患者の身体の特定の部分上のオーバーレイ又は仮想オブジェクトとしてARディスプレイに表示されることを示している。ユーザは、この仮想切開点を使用して、人300の身体に対する医療器具の初期配置及び/又は手術開始時の画像データセットを案内することができる。同様に、医療器具の位置及び向きを検出する能力はまた、切開の深さ又は角度、クランプの適切な配置などを誘導することによって医療専門家を支援する能力を含むことができる。更に、システムは、所与の医療用具を保持するための正しい角度又は向きの命令を表示することができる。例えば、ARディスプレイは、患者の身体の一部分の位置及び向きに基づいて、現在の医療処置における器具の正しい動きのためのグラフィックインジケータ、仮想ツール、又は仮想標的システムをARディスプレイに提示することができる。例えば、システムは、線の視覚的表示を表示することができ、それに沿って、人の個々の身体に合わせてカスタマイズされた切開が行われる。同様に、システムは、器具の現在の深さを推定し、医療器具が患者の身体及び/又は画像データセットに対して移動されることを示すことができる。処置中、拡張現実システムは、1つ又は複数の光学コード(例えば、患者310又は医療用具312のいずれかの光学コード)を使用して、医療専門家を案内するためにARディスプレイ内の計画情報にアクセスし、位置合わせし、表示することができる。
5 shows that the
医療準備構成では、本開示に記載されているように、光学コードの使用は、医療処置のために患者を準備している医療専門家が、患者の身体又は解剖学的組織の、皮膚を準備すべき一部分、又は医療処置の前に他の医療準備を行うべき一部分を識別するようにグラフィカルに指示されることを可能にし得る。例えば、ARヘッドセットが患者の身体上の1つ又は複数の光学コードを識別した後、医療専門家が医療準備を行うのを支援するために、グラフィック線、グラフィック形状、又は仮想ツールをARヘッドセットに表示することができる。これにより、医療専門家は、患者を正しい解剖学的位置に位置決め、向き、及び準備し、正しい切開点を準備し、及び/又は患者の解剖学的組織の正しい部分に準備するように導かれ得る。例えば、患者の正しい椎骨又は股関節の位置を特定することは困難な場合があり、この技術はそのようなガイダンスを提供する。このガイダンスは、外科手術室における外科技術者の全体的なスループットを改善することができる。 In the medical preparation configuration, the use of optical codes, as described in this disclosure, may enable a medical professional preparing a patient for a medical procedure to be graphically instructed to identify portions of the patient's body or anatomical tissue where skin should be prepped or other medical preparation should be performed prior to the medical procedure. For example, after the AR headset identifies one or more optical codes on the patient's body, graphic lines, shapes, or virtual tools may be displayed in the AR headset to assist the medical professional in performing the medical preparation. This may guide the medical professional to position, orient, and prepare the patient in the correct anatomical location, prepare the correct incision points, and/or prepare the correct portion of the patient's anatomical tissue. For example, it may be difficult to identify the correct vertebrae or hip location of a patient, and this technology provides such guidance. This guidance may improve the overall throughput of surgical technicians in a surgical suite.
図6は、拡張現実(AR)システムを使用して、人606aの身体に対して位置合わせされた画像データセットからの透視画像654及び画像投影656を表示するための技術602を示す。透視デバイス660は、患者を通してX線ビーム(例えば、連続X線)を送信して、医療専門家が見ることができる患者の透視撮像の一連の透視画像又はライブビデオを取得することができる。透視デバイス660はまた、人の身体に対して移動可能であってもよい。透視画像654及び画像投影656aは、透視デバイス660及び/又は画像可視マーカによって定義された位置及び/又は向きを有することができる。ARシステム又はARヘッドセット608にリンクされたカメラ又は光学センサ(例えば、可視光センサ又はIRセンサ)は、手術台603上の人の身体の一部の視覚画像データ、及び人の身体に対して移動可能な透視デバイス660を取り込むことができる。人606aの身体上の1つ又は複数の光学コード及び透視デバイス652、658上の1つ又は複数の光学コードは、光学コード認識及び走査技術又は他の光学コード認識技術を使用して視覚画像データから識別及び走査することができる。
6 illustrates a
画像投影656は、透視画像654に(例えば、平行、斜め、又は別の固定された向きに)関連付けられた画像データセットが取り込まれている部分を表示するように選択され得る。画像投影はまた、静脈、神経又は骨などの人の身体の特定の解剖学的組織タイプを表示することができる。透視画像654は、単層投影(例えば、2次元(2D)投影)であってもよい。位置合わせ、位置決め、及び向きは、人の身体上の光学コード620及び画像可視マーカ、画像投影上の画像可視マーカの表現、透視画像654に取り込まれた画像可視マーカ、及び透視デバイス(例えば、Cアーム装置、カテーテル検査室、血管造影検査室、又は可動エミッタ及び検出器を備えた透視デバイス)上の光学コード652、658を使用して実行することができる。
The
人の身体上の光学コード620のうちの少なくとも1つは、(先に詳述したように)画像可視マーカに対して固定位置を有することができる。これにより、画像データセット(例えば、取り込まれた放射線画像)を、人の身体上の1つ又は複数の光学コードを参照して、画像可視マーカの固定位置を使用して人606の身体と位置合わせすることができる。人の身体は布607で覆われてもよいが、身体の内部解剖学的組織650は、画像データセットを使用して仮想的に見ることができる。
At least one of the
画像投影656は、透視デバイス660の位置及び向きに基づいて画像データセットから作成されてもよい。画像投影656は、冠状投影、傾斜投影、又は透視デバイス660の向きと一致する別の投影の向きであってもよい。画像投影は、画像データセットの多平面再構築(MPR)である単一の平面図又は「スラブ」を定義するために画像データセットから投影される(例えば、多層投影)。画像投影は、任意の選択された厚さであってもよく、適切なビューにおける組織のMIP(最大値投影)であってもよい。
人606aの身体に対する透視デバイス660の位置及び向きは、透視デバイス660上の1つ又は複数の光学コード652、658を使用して決定することができる。透視デバイス660からの透視画像654は、人の身体、及び画像可視マーカ及び/又は人606aの身体上の光学コードに基づいて設定された画像データセットと位置合わせされ得る。更に、透視画像654は、人606の身体に対する透視デバイス660の位置及び向きを使用して位置決め及び配向することができる。
The position and orientation of the
放射線不透過性マーカを画像可視マーカとして使用して、透視画像654を患者606aの身体と整列させることができる。いくつかの状況では、放射線不透過性マーカは、画像データセットを位置合わせするために使用される同じ画像可視マーカであってもよく、又は放射線不透過性マーカは、別個の光学コードを有し得る完全に別個の放射線不透過性マーカ(例えば、リード矩形(lead rectangle))であってもよい。例えば、放射線不透過性マーカは、透視画像654を人の身体と位置合わせするために使用される第1のタイプの撮像モダリティマーカであってもよく、第2の撮像モダリティマーカ(例えば、MRI型マーカ又は超音波マーカ)は、画像データセットを人の身体と位置合わせするために使用されてもよい。位置合わせされたデータセット画像、画像投影、及び透視画像はまた、ARヘッドセット608を使用して、又は患者の現実世界のビューと共に別個のARディスプレイ662上に表示されてもよい。したがって、拡張現実画像は、人606aの身体に対して実行されるライブ透視介入又は診断手順に組み合わせることができる。
The radiopaque markers can be used as image visible markers to align the
前述したように、複数の有用なビューを、透視デバイス及びARシステムを使用している医療専門家に提供することができる。1つのビューは、透視画像が光学コードを使用して患者の実際のビュー上に解剖学的に位置合わせされるように、部分的に透明な透視画像を撮影し、透視画像をオーバーレイする能力を含むことができる。別のビューは、画像データセットを透視画像と合成し、光学コードを使用して患者の身体と位置合わせすることを可能にすることができる。更に、画像データセットからの投影は、ARシステム又はARヘッドセットを介した医療専門家の変化する身体の実際のビューに合わせて移動又は再構築することができる。更に別のビューは、透視画像と、患者(例えば、医療専門家がX線ビーム自体と同じ視点にある場合に医療専門家が見るであろうもの)と位置合わせされて重ねられた透視画像に平行な画像データセット(例えば、2D矩形スライス)の投影との組み合わせビューを表示するARシステムで提供され得る。この構成では、投影は、透視デバイスが移動するにつれて移動又は再構築することができる。 As previously mentioned, multiple useful views can be provided to the medical professional using the fluoroscopy device and AR system. One view can include the ability to take a partially transparent fluoroscopic image and overlay the fluoroscopic image such that the fluoroscopic image is anatomically aligned on the actual view of the patient using an optical code. Another view can allow the image dataset to be composited with the fluoroscopic image and aligned with the patient's body using an optical code. Furthermore, the projections from the image dataset can be moved or reconstructed to match the medical professional's changing actual view of the body through the AR system or AR headset. Yet another view can be provided with an AR system that displays a combined view of the fluoroscopic image and a projection of the image dataset (e.g., a 2D rectangular slice) parallel to the fluoroscopic image overlaid in alignment with the patient (e.g., what the medical professional would see if he or she were in the same perspective as the x-ray beam itself). In this configuration, the projections can be moved or reconstructed as the fluoroscopy device moves.
光学コードを有する医療用具618はまた、前述したように、画像データセット及び画像投影656に関して参照することができる。これにより、医療専門家は、画像データセット又は画像投影656及び透視画像654を同時に参照して医療用具618を見ることができる。透視画像654は、医療専門家又はユーザが所望する任意のレベルの透明度に設定されてもよい。
The
図7は、医療専門家604が異なる視点から透視画像660を取得することを可能にするために、人又は患者の身体606aに対して透視デバイス654の位置が変化し得ることを示している。人の身体に対する透視デバイスの位置及び向きの変化は、ARヘッドセット608又はARシステムに関連付けられたカメラによって取り込まれた1つ又は複数の光学コード652、658を使用して検出及び定量化することができる。透視デバイス660の位置及び向きの変化により、画像投影656及び透視画像654の位置及び向きを変更することができる。例えば、画像投影656の位置及び/又は向きは、ARヘッドセットによって見られるように、患者606aの身体と比較して、1つ又は複数の光学コード652、658を使用して透視デバイス660の位置及び向きの検出された変化に基づいて移動され得る。画像データセットからの画像投影656は、透視デバイス660の修正された位置及び向きを使用して再構築されてもよく、又は新しい投影が作成されてもよい。
7 illustrates that the position of the
例えば、透視デバイス660は、一軸で45度回転してもよい。その結果、画像投影656をその新しい向きに再作成することができ、透視画像654及び画像投影656の向きをARヘッドセットを通して見たときに人606aの身体に対して適切な向きに位置合わせすることを可能にするために、ARディスプレイで見たときに回転した向きで透視画像654を表示することができる。透視画像654は、身体上の光学コード、画像可視マーカによって定義されるように、及び/又は透視デバイス660の修正された位置及び/又は向きによって定義されるように、人の身体に対して3D空間で修正された向きを有することができる。したがって、X線ビームの位置及び向きが変化すると、画像投影656及び透視画像654の位置及び向きが変化する。
For example, the
患者に対する透視デバイス660の位置及び向きを決定することにより、ARシステムは、画像投影656が透視検出器から得られた透視画像654と平行になるように画像投影を再構築することも可能になる。更に、透視画像654は、身体から透視画像654が取り込まれている位置(例えば、X線ビームを使用して、)に基づいて、人606aの身体に対して位置決めすることができる。したがって、透視画像654、画像投影656、及び患者の身体606aは、医療専門家が画像投影656を透視画像654へのオーバーレイとして使用して人又は患者の解剖学的構造を見ることができるように位置合わせされてもよい。画像投影656及び透視画像654の位置決め及び向きは、(医療専門家の視点とは対照的に)X線ビームが通過している人の身体の一部分に基づいてAR(拡張現実)ビューを表すことができる。
Determining the position and orientation of the
ARシステムは、透視デバイス654の位置及び向きに一致する任意の角度からの投影を提供するように3D画像データセットを再構成することができる。例えば、透視デバイス660が側方ビューを取り込むように配置されている場合、画像データセットの側方投影を側方透視画像ビューと共に提供することができる。人の身体の現実世界のビュー、画像データセットからの画像投影、及び透視画像を組み合わせて位置合わせすることにより、医療専門家は、患者の体内の解剖学的組織をよりよく見てナビゲートすることができる。3D(3次元)画像データセットは、より良好な軟組織コントラスト(例えば、臓器及び血管は、内部の解剖学的組織に見ることができる)及び透視画像が提供し得ない3D基準環境を提供する。
The AR system can reconstruct the 3D image dataset to provide projections from any angle consistent with the position and orientation of the
一構成では、透視画像654を取り込みながら、人606aの身体に対して透視デバイス660をズームすることができる。その結果、画像投影656に対する調整は、画像投影656が透視画像654のズームに一致することを可能にするために、透視画像654に取り込まれた画像可視マーカ(すなわち、放射線不透過性マーカ830)のサイズの変化に基づいて実行することができる。例えば、透視画像654がズームインされたときに既知のサイズの画像可視マーカが取り込まれる(例えば、所定のサイズ又は長さのリードマーカ)場合、画像投影がズームインされる量は、透視画像内の画像可視マーカのサイズの視覚的増加(又はズームアウトの場合の減少)によって決定され得る。あるいは、ズーム値は、透視デバイス660によって電子的に報告されてもよく、又はズーム値は、透視画像654内又はそれと共に提供されてもよく、画像投影654は、透視デバイスによって電子的に報告されるように、透視ズームに一致するように修正されてもよい。
In one configuration, the
更に、拡大が透視デバイスに適用され得るので、直接測定することが困難であり得る拡大効果の変動があり得る。例えば、X線検出器と対象との距離が変化すると、倍率変動が発生する可能性がある。したがって、放射線不透過性マーカをズーム調整に使用することができる。したがって、放射線不透過性マーカ(例えば、L字形状)が拡大表示で識別され、放射線不透過性マーカが既知の物理的サイズの2倍である場合、画像データセットは、放射線不透過性マーカの2倍のサイズに一致するようにスケーリングすることができる。画像データセットがズームアウト又はズームインされると、画像データセットは、人の身体の実際のビューとうまく整列する可能性が低い。その結果、ズームされた画像データセット及び透視画像は、ARヘッドセットとは別個のARディスプレイ662に位置合わせされて表示されるか、又は人の身体に直接オーバーレイされないARヘッドセット視野の一部分(例えば、ARヘッドセットの視野の中心の側から)に表示され得る。
Furthermore, because magnification may be applied to a fluoroscopy device, there may be variations in the magnification effect that may be difficult to measure directly. For example, magnification variations may occur as the distance between the x-ray detector and the object changes. Thus, radiopaque markers may be used for zoom adjustments. Thus, if a radiopaque marker (e.g., L-shaped) is identified in the magnified display and the radiopaque marker is twice the known physical size, the image dataset may be scaled to match twice the size of the radiopaque marker. When the image dataset is zoomed out or in, it is unlikely that the image dataset will align well with the actual view of the person's body. As a result, the zoomed image dataset and the fluoroscopy image may be displayed in registration on an
X線源又はX線検出器からの患者の解剖学的組織の距離に起因する拡大効果を減少させるために、丸い放射線不透過性球体を患者のアイソセンタに配置することができる。透視デバイスに倍率を用いる場合、X線ビーム源からの身体部分の距離に応じて倍率を変えることができる。例えば、X線ビーム源により近い身体部分の倍率は、より大きくてもよい。これらの倍率の差を補正するために、使用される放射線不透過性マーカは、既知のサイズ(例えば、1cm)の金属球であってもよい。金属球を関心のある身体部分(例えば、画像のアイソセンタ)の近くに配置し、次いで、画像データセットのズームを金属球に一致するように設定することができる。したがって、金属球が透視画像内でより小さく又はより大きく見える場合、そのサイズに基づいて画像データセットをズームすることができる。金属球もまた、あらゆる角度から同じように見える。この外観の一貫性により、金属球は、画像データセットに適用される透視画像のズームを検出するための効果的なマーカになることが可能になる。 To reduce magnification effects due to the distance of the patient's anatomy from the x-ray source or x-ray detector, a round radiopaque sphere can be placed at the isocenter of the patient. If magnification is used in the fluoroscopy device, the magnification can vary depending on the distance of the body part from the x-ray beam source. For example, the magnification of body parts closer to the x-ray beam source may be greater. To correct for these magnification differences, the radiopaque marker used can be a metal sphere of known size (e.g., 1 cm). The metal sphere can be placed near the body part of interest (e.g., the isocenter of the image) and then the zoom of the image data set can be set to match the metal sphere. Thus, if the metal sphere appears smaller or larger in the fluoroscopic image, the image data set can be zoomed based on its size. The metal sphere also appears the same from all angles. This consistency of appearance allows the metal sphere to be an effective marker for detecting fluoroscopic image zoom applied to the image data set.
ARディスプレイ662の使用はまた、医療専門家によって直接見られる患者の実際のビューの位置及び向きによりよく一致するように仮想患者を表示するために、ARディスプレイに位置合わせされて表示されるように透視画像及び画像投影のビューを変更する能力を提供することができる。透視デバイスによって取り込まれた透視画像の向きに関係なく、位置合わせされた透視画像及び画像投影の表示は、医師を支援し、及び/又は患者の位置及び/又は向きの実際のビューに一致するようにARディスプレイ内で配向することができる。例えば、透視画像は、実際に見られている患者の身体と比較して、何らかの他の方法で水平、垂直、又は異方向に反転されてもよい。困難な視野方向は、透視デバイス660の取り込み方向に起因し得る。したがって、位置合わせされた透視画像654及び画像投影656を有する画像は、医療専門家が見るために反転又は再配向(例えば、水平方向に反転され、特定の角度だけ反転され、不揃いの向きを反転させるように移動される)することができ、医療処置をより実行しやすくするか、又は医療専門家が実際のビューで見ているものとより密接に一致させることができる。画像の向きを変更するこの能力は、患者に対して処置を実行するときのより直感的な対話を可能にする。例えば、すべてが後方にある場合、透視画像ガイダンスで医療処置を実行することは非常に困難であり得る。
The use of the
グラフィックインジケータ、仮想ツール、又は仮想標的システムを画像データセット又は画像投影に使用して、ARディスプレイを使用して見たときの人の身体及び画像データセットに対する透視可視なオブジェクト(例えば、針又はカテーテル)の位置及び向きを案内することもできる。同様に、医療処置中に透視可能なオブジェクトを誘導するのを助けるために、グラフィックインジケータを透視画像654上に配置することができる。あるいは、グラフィックインジケータは、透視処置で使用される任意の医療用具618を案内するために使用されてもよい。
Graphic indicators, virtual tools, or virtual target systems may also be used in the image data set or image projection to guide the location and orientation of a fluoroscopically visible object (e.g., a needle or catheter) relative to the person's body and image data set when viewed using the AR display. Similarly, graphic indicators may be placed on the
図8Aは、人806の身体の断面図、位置合わせされた画像データセット820からの画像投影804、位置合わせされた透視画像802、及び透視デバイス814の組み合わせの側面図を示し、医療専門家が人の身体806内の可視アイテム810を透視法で案内することを可能にすることができる。透視可能なオブジェクト810(例えば、針)は、画像データセット820及び/又は人の身体と位置合わせされた画像投影804に対して、透視画像802内で医療専門家によって観察及び誘導され得る。画像投影804は、ARヘッドセット又はARディスプレイにおいて、透視画像802上に重ねられて見える場合がある。あるいは、画像投影804は、画像投影804の上にオーバーレイされた透視画像802を有するように見えてもよく、又は画像投影804は、位置合わせされた画像データセット820内にあるように見えてもよい。先に論じたように、画像データセット又は画像投影上にグラフィックインジケータ、仮想ツール、又は仮想標的システムを設けて、人806の身体及び画像データセット820に対する透視可視なオブジェクト810の位置及び向きを案内することができる。
8A shows a side view of a cross-sectional view of a body of a
画像データセットと位置合わせされた透視画像802の透明度は、医療専門家が見たいと望む人806の画像投影804又は現実世界の身体の量に応じて変更することができる。透視可視なオブジェクト810又は医療用具はまた、透視可視なオブジェクト810を画像投影804に対して参照するために使用される透視可能なオブジェクト810上の1つ又は複数の光学コードを有することができる。更に、人の身体に対する医療用具の位置及び画像投影804又は画像データセット820は、医療用具上の光学コード及び人808の身体上の1つ又は複数の光学コードを使用して決定することができ、ARディスプレイを通して見たときに医療用具が画像データ及び透視画像に参照されることを可能にする。
The transparency of the
画像データセット820からの画像投影804は、コンピュータ断層撮影(CT)画像又は磁気共鳴画像(MRI)を使用して取り込まれていてもよい。次いで、画像投影804をライブ透視画像802上に重ねることができる。透視画像802はライブ画像であるが、透視画像は、MRI(磁気共鳴画像)又はCT(コンピュータ断層撮影)画像の3D品質又は軟組織コントラスト分解能を有さない。透視画像802が(例えば、AprilTag)1つ又は複数の光学コードを有する患者の身体を参照し、以前に取得された3D画像データセットの投影804が患者の身体上の画像可視タグを参照した場合、医療専門家は、ARヘッドセット又はARディスプレイを使用して患者806の体内で先端が移動するときに針の仮想端を見ることができる。これは、仮想画像、透視画像、及び患者の実際のビューの貴重な態様を組み合わせる。針、カテーテル先端又は同様の放射線不透過性オブジェクトは、透視下で見ることができるが、医療専門家は、透視画像内の特定の軟組織を見ることができない。したがって、患者の実際のビュー、画像データセット、透視画像、透視デバイス上の光学タグ、画像可視タグ、医療用具、及び医療用具上の光学タグの組み合わせは、医療専門家が画像データセット及び/又は透視画像を参照して医療用具を見ることを可能にすることができる。
The
別の構成では、図8Bに示すように、医療専門家によって医療処置が行われている間に、超音波プローブ又は超音波トランスデューサ862を使用して患者850の身体の一部分の超音波画像860を取得することができる。超音波トランスデューサ862は、移動可能であってもよいし、人の身体に対して移動可能であってもよい。超音波画像860又はソノグラムは、身体組織から跳ね返るか又は反響する音波によって生成される2D、3D又は4D(例えば、時系列を含む)超音波画像であってもよい。エコーは、超音波画像又はソノグラムを作成するためにコンピュータによって処理される。
In another configuration, as shown in FIG. 8B, an ultrasound probe or
これらの超音波画像860は、医療処置の間に得るために比較的高速かつ安価であってもよいが、超音波画像の解像度、精度、及び局所化は、CTスキャン、MRI、及び他の撮像モダリティなどの他のタイプの撮像ほど高度でなくてもよい。この技術は、超音波画像860を他の画像モダリティと組み合わせて、医療専門家が医療処置を実行するのを支援する能力を提供する。
These
したがって、1つ又は複数の光学コード864は、超音波プローブ又は超音波トランスデューサ862(例えば、外側ハウジング上)に配置又は取り付けられてもよい。超音波トランスデューサ862上の光学コードは、ARヘッドセット内のセンサによって検出することができる。結果として、超音波トランスデューサ862の位置及び向きを検出することができ、超音波トランスデューサ862の位置及び向きに基づいて超音波ビーム及び超音波画像の位置及び向きを決定することができる。更に、患者又は人の身体上の1つ又は複数の光学コード852を検出して、患者850の位置及び向きを決定することができる。患者850及び超音波画像860の位置及び向きを知ることにより、超音波画像860を位置合わせし、ARヘッドセットを使用して患者の正しい位置に投影することが可能になる。ARヘッドセット内の患者に投影された超音波画像860は、部分的に透明(例えば、医療専門家によって設定された透明度値を使用する)であってもよく、又は超音波画像は不透明であってもよい。
Thus, one or more
超音波画像860又はソノグラムはまた、超音波画像860と比較して、より正確で、より明確で、より高い解像度で、より大きく、より良好な組織コントラスト情報を有することができる画像データセット866(例えば、MRI)と組み合わせることができる。前述したように、光学コード864は、画像可視マーカ856に取り付けられてもよい。この画像可視マーカ856は、(詳細に前述したように)患者から以前に取得された画像データセット866を患者の身体と位置合わせすることを可能にすることができる。したがって、医療専門家は、高解像度画像データセット866と組み合わされた超音波画像860を、ARヘッドセット又はARシステムを介して患者の身体の正しい位置に位置合わせされ投影されるようにして見ることができる。例えば、医療専門家が超音波装置を使用して患者の肝臓に対して医療処置を実行している場合、患者の肝臓の限られた部分は、超音波画像を使用していつでも見ることができるが、肝臓全体は、超音波画像と共に取得された画像データセットを使用して見ることができる。超音波画像及び画像データセットは、ARヘッドセットによって見られている3D空間内で共局在化することができる。
The
典型的には、超音波画像860は、患者に対して基準点に固定されない。上述のように光学コードを使用することにより、ARヘッドセットによって見られている3D空間内に基準点が提供される。更に、基準点(すなわち、光学コード)を使用して、超音波画像860を1つ又は複数の画像データセット866と位置合わせすることができる。
Typically, the
超音波トランスデューサは、電子的に誘導されるファンビーム又は線形ビームを使用することができる。超音波ビームが機械的又は電子的に移動又は誘導される場合、この誘導は、超音波画像の位置を決定するときに考慮に入れることができる。 Ultrasound transducers can use electronically guided fan beams or linear beams. If the ultrasound beam is moved or guided mechanically or electronically, this guidance can be taken into account when determining the position of the ultrasound image.
医療専門家が乳房生検などの医療処置を行おうとする場合、医療専門家は超音波機器を使用することがあるが、超音波画像内の実際の病変を見ることは困難であり得る。しかしながら、病変は、CT、MRI、PET、原子力、又は超音波画像と組み合わせて又は共局在して表示される他の画像データセットで見ることができる。したがって、超音波画像は、処置中に取り込まれた画像(例えば、リアルタイムで)を提供するために使用され得るが、以前に取り込まれた詳細な解剖学的組織は、より高い空間解像度又はコントラスト解像度の画像データセットを使用して同時に参照され得る。 When a medical professional is attempting to perform a medical procedure such as a breast biopsy, the medical professional may use ultrasound equipment, but it may be difficult to see the actual lesion in the ultrasound image. However, the lesion may be visible in a CT, MRI, PET, nuclear, or other image dataset that is displayed in combination or co-localization with the ultrasound image. Thus, ultrasound images may be used to provide images captured during the procedure (e.g., in real time), while previously captured detailed anatomy may be simultaneously referenced using an image dataset of higher spatial or contrast resolution.
トランスデューサは、身体の表面を通過してもよく、又は身体の開口部に挿入されてもよい。これにより、超音波画像及び画像データセットの融合又は合成ビューは、患者の身体の多くの様々な合成ビューを提供することができる。 The transducer may pass through the surface of the body or may be inserted into an orifice in the body, so that fusion or synthetic views of the ultrasound images and image data sets can provide many different synthetic views of the patient's body.
図8Bに記載されるように、リアルタイム画像と患者の身体及び画像データセットとの位置合わせは、リアルタイム画像の位置及び向きが撮像デバイスのトランスデューサ、エミッタ又は検出器から取得され得る任意のタイプのリアルタイム医療画像に適用され得る。超音波画像の代わりに使用できるそのようなリアルタイム撮像の追加の例は、CT透視画像である。 As described in FIG. 8B, the registration of the real-time image with the patient's body and image dataset may be applied to any type of real-time medical imaging where the position and orientation of the real-time image may be obtained from a transducer, emitter or detector of an imaging device. An additional example of such real-time imaging that may be used instead of an ultrasound image is a CT fluoroscopic image.
図9aは、医療処置中に、画像データセット及び患者の身体に関して医療用具を共局在化するために拡張現実ヘッドセットを使用する例示的な方法のフローチャートである。これら及び他の実施形態では、方法900は、1つ又は複数の非一時的コンピュータ可読媒体に格納された1つ又は複数のコンピュータ可読命令に基づいて、1つ又は複数のプロセッサによって実行されてもよい。 FIG. 9a is a flow chart of an exemplary method of using an augmented reality headset to co-localize a medical tool with respect to an image dataset and a patient's body during a medical procedure. In these and other embodiments, the method 900 may be executed by one or more processors based on one or more computer-readable instructions stored on one or more non-transitory computer-readable media.
方法は、ブロック902のように、ARヘッドセットの光学センサを使用して、人又は患者の身体の一部分及び医療用具の視覚画像データを取り込むことができる。例えば、光学コードを有する可視患者は、医療専門家によって使用されるARヘッドセットのカメラによって登録又は検出される。ブロック904のように、人の身体及び医療用具に関連する1つ又は複数の光学コードを視覚画像データ内で識別することができる。前述したように、人の身体上の光学コードは、画像可視マーカに対して固定位置に配置されてもよい。
The method may capture visual image data of a portion of a person's or patient's body and a medical implement using an optical sensor in an AR headset, as in
ブロック906のように、画像データセットは、人の身体上の1つ又は複数の光学コードと、画像データセット内の画像可視マーカの表現を参照したときの光学コードに対する画像可視マーカの固定位置とを使用して、人の身体と位置合わせされ得る。更に、ブロック908のように、医療用具が人の身体及び画像データセットに対して参照されることを可能にするために、人の身体に対する医療用具の位置及び/又は向きは、医療用具及び人の身体上の1つ又は複数の光学コードを使用して決定することができる。これらの複数の画像態様の位置合わせ及び合成は、ARヘッドセットを通して見ることができる。一例では、放射線画像の画像データセットは、ユーザ又は医療専門家のニーズに応じて異なるレベルの不透明度で提示することができる。また、この不透明度は随時調整されてもよい。
As per
一構成では、本方法は、ARヘッドセットを使用して患者の身体に対するオブジェクトの位置決め及び向きを案内するために、視覚的インジケータ、仮想誘導システム、仮想ツール、仮想強調表示、又は画像データセット上の注釈を提供することを含むことができる。例えば、仮想ツール又は視覚的インジケータは、(例えば、体内の器官又は塊を強調表示するために)グラフィック強調表示、3D配色、3D手術路又は仮想処置トラック、標的解剖学的組織のグラフィック強調表示、病変のグラフィック強調表示、回避すべき重要な構造のグラフィック強調表示、又は解剖学的構造内又はその周りの3D視覚コード及びグラフィック構造(例えば、線、平面、円柱、体積、境界、又は3D形状)のうちの1つ又は複数を含むことができる。本方法は、開始基準点として光学コードを使用して医療用具の輪郭又は3D輪郭をマッピングすることを更に含むことができる。更に、医療用具の位置及び向きは既知であるため、患者の身体に部分的に挿入された医療用具(例えば、器具又はインプラント)は、依然としてシステムによって監視されて、画像データセット、最終的には人の身体に対する正しい配置及び位置決めを保証することができる。 In one configuration, the method can include providing visual indicators, virtual guidance systems, virtual tools, virtual highlights, or annotations on the image dataset to guide the positioning and orientation of the object relative to the patient's body using an AR headset. For example, the virtual tools or visual indicators can include one or more of: graphic highlighting (e.g., to highlight organs or masses within the body), 3D color schemes, 3D surgical paths or virtual treatment tracks, graphic highlighting of the target anatomical tissue, graphic highlighting of lesions, graphic highlighting of important structures to avoid, or 3D visual codes and graphic structures (e.g., lines, planes, cylinders, volumes, boundaries, or 3D shapes) in or around the anatomical structures. The method can further include mapping the contour or 3D contour of the medical tool using the optical code as a starting reference point. Additionally, because the position and orientation of the medical tool is known, a medical tool (e.g., an instrument or implant) that is partially inserted into the patient's body can still be monitored by the system to ensure correct placement and positioning relative to the image dataset and ultimately the person's body.
本方法は、利用又は検出された医療用具が医療処置で使用されるように割り当てられているかどうかを判定するためにデータベースに問い合わせることを含むことができる。一例では、ARシステムは、どの患者が特定の医療処置を受けているかを示す医療処置記録を格納することができる。これらの記録は、個々の処置に関連する特定の医療用具(例えば、医療器具、インプラントなど)のリストを含むことができる。医療用具が光学コードを使用して一意に識別される場合、その光学コードはシステムに送信され、医療用具の所定のリスト(それぞれが別個の光学コードに関連付けられ得る)と照合され得る。したがって、識別されたオブジェクトが現在の医療処置に関連付けられていると判定された場合、医療用具が医療処置に関連付けられていることを表すグラフィックインジケータを表示することができる。例えば、可視緑色インジケータ(例えば、チェックマーク又は緑色医療用具強調表示)は、処置の一致を示すことができる。別の例では、処置に関連付けられていると識別された医療用具は、常に強調表示されてもよい(例えば、ARディスプレイ内で緑色インジケータによって囲まれている)。一方、医療用具が現在の処置に関連付けられていないと判定された場合、否定的な視覚的指示も表示され得る。例えば、点滅する赤色「X」又は赤色ハイライト輪郭は、負のインジケータであってもよい。 The method may include querying a database to determine whether the utilized or detected medical implement is assigned for use in the medical procedure. In one example, the AR system may store medical procedure records indicating which patients are undergoing a particular medical procedure. These records may include a list of specific medical implements (e.g., medical instruments, implants, etc.) associated with each procedure. If the medical implement is uniquely identified using an optical code, the optical code may be transmitted to the system and matched against a predefined list of medical implements (each of which may be associated with a separate optical code). Thus, if it is determined that the identified object is associated with the current medical procedure, a graphical indicator may be displayed that represents the medical implement being associated with the medical procedure. For example, a visible green indicator (e.g., a check mark or a green medical implement highlight) may indicate a match of the procedure. In another example, a medical implement identified as associated with the procedure may always be highlighted (e.g., surrounded by a green indicator in the AR display). On the other hand, if it is determined that the medical implement is not associated with the current procedure, a negative visual indication may also be displayed. For example, a flashing red "X" or a red highlight outline may be a negative indicator.
本方法は、拡張現実ディスプレイに、医療用具に関連する医療情報を表示することを含むことができる。医療用具に関連する情報は、医療処置における医療用具の使用を記述する指示情報を含むことができる。 The method can include displaying, on the augmented reality display, medical information related to the medical implement. The information related to the medical implement can include instructional information describing use of the medical implement in a medical procedure.
患者に対して処置を実行するときに医師及び他の医療専門家が直面する1つの問題は、正しい医療用具が正しい患者の解剖学的組織で使用されていることを確実にすることである。誤った人、誤った付属物、誤った位置、誤ったインプラントが操作されているか、又は誤ったインプラント、誤った器具サイズ、又は誤った医療器具が利用されている場合、悪い医学的結果が結果として生じ得る。本技術は、医療用具に取り付けられた光学コードを利用することによって、改善された医療結果を提供することができる。 One problem faced by physicians and other medical professionals when performing procedures on patients is ensuring that the correct medical tool is used on the correct patient anatomy. If the wrong person, wrong appendage, wrong location, wrong implant is operated on, or the wrong implant, wrong tool size, or wrong medical tool is utilized, poor medical outcomes can result. The present technology can provide improved medical outcomes by utilizing an optical code attached to the medical tool.
更なる構成では、本技術は、医療処置のシミュレーションに使用することができる。患者の身体又は患者の解剖学的組織は、シミュレーション構造を使用してシミュレートすることができる。シミュレーション構造は、軟質材料(組織、動脈などを表すプラスチック及びゴム)又は他のシミュレーション材料で覆われたプラスチック又は死体の骨であってもよい。シミュレートされた解剖学的組織は、光学コード及び画像可視コードを含むことができる。次いで、将来処置が実行される患者の画像データセットを、シミュレートされた解剖学的組織と位置合わせすることができる。 In a further configuration, the technique can be used to simulate medical procedures. A patient's body or patient anatomy can be simulated using a simulated structure. The simulated structure can be plastic or cadaveric bone covered with soft materials (plastics and rubber representing tissue, arteries, etc.) or other simulated materials. The simulated anatomy can include optical codes and image visibility codes. An image dataset of a patient on which a future procedure will be performed can then be aligned with the simulated anatomy.
処置で使用される実際の医療用具はまた、シミュレーションに含まれてもよく、ARヘッドセットの視野内にあってもよい。同様に、医療用具の限られた部分(例えば、トロカールのハンドルのみ)を使用することができ、シミュレートされた患者内の仮想ツールを見ることができる。リアルタイムで取り込まれた透視、超音波、又は他の医療画像を使用する追加のオーバーレイも使用することができる。したがって、医療専門家は、計画されている実際の処置で発生し得る課題、問題、又は他の問題をよりよく理解するために、前述と同じ機能をシミュレーションとして実行することができる。このシミュレーションは、訓練目的にも使用することができる。 The actual medical tools used in the procedure may also be included in the simulation and may be within the field of view of the AR headset. Similarly, a limited portion of the medical tool may be used (e.g., only the handle of a trocar) and the virtual tool may be viewed within the simulated patient. Additional overlays using fluoroscopy, ultrasound, or other medical images captured in real time may also be used. Thus, the medical professional may perform the same functions as described above as a simulation to better understand challenges, issues, or other problems that may arise in the actual procedure being planned. This simulation may also be used for training purposes.
同様に、医療訓練者又は超音波撮影者は、(上述したように)訓練目的のためにリアルタイムで撮影されている実際の超音波画像と共に、以前に撮影された画像データセット(例えば、MRI又はCT画像)を組み合わせることができる。超音波画像の空間及びコントラストの解像度が低いため、超音波画像に表示されるものを明確に見ることは困難な場合がある。これにより、医療技術者は、より良好な空間解像度及びコントラスト解像度(例えば、MRI、CTなど)を有する画像を使用することによって、超音波観察下でどのような器官、骨、血管及び他の組織が見えるかについて訓練されることが可能になる。 Similarly, a medical trainer or sonographer can combine previously captured image data sets (e.g., MRI or CT images) with actual ultrasound images being captured in real time for training purposes (as described above). Due to the poor spatial and contrast resolution of ultrasound images, it can be difficult to clearly see what is displayed in the ultrasound image. This allows medical technicians to be trained on what organs, bones, blood vessels, and other tissues appear under ultrasound by using images with better spatial and contrast resolution (e.g., MRI, CT, etc.).
図9bは、光学コードを使用して医療処置を検証するための方法を示す。方法は、ブロック920のように、ARヘッドセットの光学センサを使用して、患者の身体の一部分及び医療用具の視覚画像データを検出する動作を含むことができる。
FIG. 9b illustrates a method for verifying a medical procedure using an optical code. The method may include, as in
ブロック922のように、患者の身体及び医療用具に視認可能に表示された1つ又は複数の光学コードを識別することができる。患者の身体上の1つ又は複数の光学コードは、(前述のように)画像可視マーカに対して固定位置にある。ブロック924のように、患者の身体上の1つ又は複数の光学コードを参照して画像可視マーカの既知の固定位置を使用して、画像データセットを患者の身体と位置合わせしてもよい。
As per
ブロック926のように、光学コード及び画像可視マーカは、画像データセットの表面と位置合わせする患者の身体の表面の正しい位置合わせに基づいて、正しい患者が医療処置中であることを確認するために使用されてもよい。患者の身体の表面及び画像データセットの表面は、多角形メッシュ、スプライン、又は表面の別の数学的モデルを使用して作成することができる。表面(例えば、メッシュ)が類似又は一致する場合、正しい患者が認識される。これは、すべての個々の身体が固有であるため、身体の「指紋」の輪郭タイプと類推することができる。更に、医療処置における人又は患者の識別情報は、1つ又は複数の光学コードを使用して確認することもできる。この検証の追加の機能又は態様は、ブロック928のように、1つ又は複数の光学コードを使用して、身体の正しい部分及び正しい医療用具が医療処置で使用されていることを確認することである。
As in
更なる構成では、画像データを位置合わせする間に使用されるのと同じ光学コードを使用して、画像データセットを自動的に取得し、ARヘッドセットによって取得された画像データが、時間がかかり、面倒で、不正確な画像データの手動検索なしに、ARヘッドセットを通して見ている患者と一致することを保証することができる。 In a further configuration, the same optical code used during registration of the image data can be used to automatically acquire the image dataset, ensuring that the image data acquired by the AR headset matches the patient viewing through the AR headset without time-consuming, tedious, and inaccurate manual searching of the image data.
図10は、ARヘッドセットを通して見たときに、光学コードを使用して医療用具を画像データセット及び患者の身体に参照するために使用することができる例示的なシステムを示す。システム1000は、カメラデバイス1002、拡張現実システム1020、ディスプレイデバイス1030、及び複数のデータベースを含むことができる。システム1000はまた、共に通信可能に結合することができる、1つ又は複数のプロセッサ、メモリ、ファイルシステム、通信ユニット、オペレーティングシステム、及びユーザインタフェースを含むことができる。いくつかの実施形態では、システム1000は、例えば、デスクトップコンピュータ、サーバコンピュータ、ラップトップコンピュータ、スマートフォン、タブレットコンピュータ、組み込みコンピュータ、ARヘッドセット、VRヘッドセットなどであってもよい。
FIG. 10 illustrates an exemplary system that can be used to reference a medical implement to an image dataset and a patient's body using an optical code when viewed through an AR headset. The
カメラデバイス1002は、可視データを取り込むように構成することができる。一例では、カメラデバイス1002は、医療処置中に可視データを取り込むために使用され得る。カメラデバイス1002によって取り込まれた可視データは、人の身体(又は身体の一部分)及び1つ又は複数の医療用具(例えば、医療器具、インプラントなど)の画像を含むことができる。カメラデバイス1002は、取り込まれた光学データを拡張現実システム1020に送信することができる。システムはまた、表面センサ、光学センサ、赤外線センサ、Lidarセンサ、又はARシステムによって検出された実際のビュー又は実際のビューのマッピングを検出及び支援するための他のセンサを含むことができる。任意のオブジェクト又は表面を、手術室、患者、部屋、物理的形状、医療用具、又は任意の他の物理的な周囲又はオブジェクトについて検出することができる。
The
拡張現実システム1020は、画像処理エンジン1022、基準位置合わせモジュール1024、画像生成モジュール1026、及び拡張表示バッファ1028を含むことができる。例えば、画像処理エンジン1022は、カメラデバイス1002から取り込まれた可視画像データを受信し、可視画像データを分析して、可視画像データ内の1つ又は複数の光学コード、オブジェクト、又は人を識別する。複数の異なる技術を使用して、限定はしないが、特徴抽出、セグメント化、及び/又はオブジェクト検出を含む可視画像データ内の医療用具を識別することができる。
The augmented reality system 1020 may include an
画像処理エンジン1022はまた、画像内の患者及び可視画像データ内の医療用具の両方の身体に貼り付けられ得る光学コードを識別する。画像処理エンジン1022が光学コード(例えば、AprilTag、バーコード、QRコードなど)を識別すると、画像処理ユニット1022は光学コードデータベース1046にアクセスして、光学コードに関連する情報を取り出す。いくつかの例では、光学コードは、特定の患者、特定の処置、又は特定のオブジェクトに関連付けられる。光学コードは、医療用具、身体又は透視デバイスの位置及び向きをより正確に識別するために使用することができる。
The
いくつかの実施形態では、基準及び位置合わせモジュール1024は、画像処理エンジン1022と係合して、任意の識別された医療用具、人の身体、及び互いに対する画像データセットを参照する。更に、基準及び位置合わせモジュール1024は、医療用具データベース1044内の光学コード情報を使用して、医療用具のサイズ及び形状を適切に識別することができる。医療用具及び患者の身体の位置及び向きが互いに対して決定されると、基準位置合わせコントローラ1026は、放射線画像データ1042内の任意の関連する放射線画像を患者の両方の身体と位置合わせすることができる。いくつかの例では、放射線画像は、患者記録データベース1040内の患者記録に基づいて放射線画像データベース1042から受信される。
In some embodiments, the fiducials and registration module 1024 engages the
画像生成モジュール1026は、患者の身体又は医療用具の上部に積層されたディスプレイデバイス1030に表示するために、グラフィックデータ、仮想ツール、3D手術路、腫瘤若しくは器官の3D配色若しくは陰影付け、又は腫瘤、器官若しくは標的の強調表示を生成することができる。いくつかの例では、この情報は拡張表示バッファ1028にロードすることができる。次いで、この情報は、ユーザに表示するためにディスプレイデバイス1030に送信されてもよい。
The image generation module 1026 can generate graphical data, virtual tools, 3D surgical paths, 3D coloring or shading of masses or organs, or highlighting of masses, organs or targets for display on a display device 1030 layered on top of the patient's body or medical tool. In some examples, this information can be loaded into an expanded
一例では、患者データベース1040は、複数の患者レコードを含む。各患者記録は、患者に対して実行される1つ又は複数の医療処置を含むことができる。患者記録はまた、医療処置のためのメモ、指示又は計画を含むことができる。患者レコードはまた、放射線画像データベース1042内の1つ又は複数の放射線画像に関連付けることができる。いくつかの例では、放射線画像は、画像可視マーカに対する光学コードの固定位置を使用して、基準及び位置合わせモジュール1026が画像データセットを患者の身体と適切に位置合わせすることを可能にする画像可視マーカの表現を含む。いくつかの例では、医療用具データ1044は、医療器具、インプラント、及び他のオブジェクトを含む医療用具を記述する情報を含む。
In one example, the
いくつかの実施形態では、拡張現実システムは、サーバ上に配置されてもよく、ARヘッドセット又はディスプレイデバイス1030に関連して機能することができる任意のコンピュータシステムであってもよい。いくつかの実施形態では、サーバは、画像データをARヘッドセットに伝達するために、又はARヘッドセットからデータを受信するために、コンピュータネットワークを介してARヘッドセットと通信するように構成され得る。 In some embodiments, the augmented reality system may be located on a server, which may be any computer system capable of functioning in conjunction with the AR headset or the display device 1030. In some embodiments, the server may be configured to communicate with the AR headset over a computer network to communicate image data to the AR headset or to receive data from the AR headset.
図11は、本技術のモジュールが実行され得るコンピューティングデバイス1110を図示する。本技術の高レベルの例を実行することができるコンピューティングデバイス1110が示されている。コンピューティングデバイス1110は、メモリデバイス1112と通信する1つ又は複数のプロセッサ1112を含み得る。コンピューティングデバイスは、コンピューティングデバイス内の構成要素のためのローカル通信インタフェース1118を含み得る。例えば、ローカル通信インタフェースは、ローカルデータバス及び/又は所望に応じて任意の関連するアドレス若しくは制御バスであってもよい。
FIG. 11 illustrates a computing device 1110 on which modules of the present technology may be executed. A computing device 1110 on which a high level example of the present technology may be executed is shown. The computing device 1110 may include one or
メモリデバイス1112は、プロセッサ(複数可)1112によって実行可能なモジュール1124、及びモジュール1124のためのデータを含み得る。モジュール1124は、先に記述された機能を実行し得る。データストア1122もまた、プロセッサ(複数可)1112によって実行可能であるオペレーティングシステムと共に、モジュール1124及び他のアプリケーションに関連するデータを記憶するためにメモリデバイス1112内に位置付けられてもよい。
The
他のアプリケーションもまた、メモリデバイス1112に記憶され、プロセッサ(複数可)1112によって実行可能であってもよい。本説明において考察される構成要素又はモジュールは、ハイブリッドの方法を使用してコンパイル、解釈又は実行される高水準プログラミング言語を使用してソフトウェアの形で実装され得る。
Other applications may also be stored in
コンピューティング装置はまた、コンピューティング装置によって使用可能であるI/O(入力/出力)装置1114へのアクセスを有し得る。I/Oデバイスの一例は、コンピューティングデバイスからの出力を表示できるディスプレイ画面である。所望に応じて、他の既知なI/Oデバイスが、コンピューティングデバイスと共に使用され得る。ネットワーキング装置1116及び類似の通信装置が、コンピューティングデバイスに含まれてもよい。ネットワーキング装置1116は、インターネット、LAN、WAN、又は他のコンピューティングネットワークに接続する有線又は無線ネットワーキング装置であってよい。
A computing device may also have access to I/O (input/output)
メモリデバイス1112に記憶されているとして示されている構成要素又はモジュールは、プロセッサ(複数可)1112によって実行されてもよい。「実行可能」という用語は、プロセッサ1112によって実行され得る形式のプログラムファイルを意味し得る。例えば、高水準言語のプログラムは、メモリデバイス1112のランダムアクセス部分にロードされプロセッサ1112によって実行され得るフォーマットで機械コードにコンパイルされ得、又はソースコードは、別の実行可能プログラムによってロードされ、プロセッサによって実行されるべきメモリのランダムアクセス部分に命令を生成するように解釈され得る。実行可能プログラムは、メモリデバイス1112の任意の部分又は構成要素に記憶され得る。例えば、メモリデバイス1112は、ランダムアクセスメモリ(RAM)、読出し専用メモリ(ROM)、フラッシュメモリ、ソリッドステートドライブ、メモリカード、ハードドライブ、光ディスク、フロッピーディスク、磁気テープ、又は任意の他のメモリ構成要素であり得る。
The components or modules shown as being stored in the
プロセッサ1112は、複数のプロセッサを表してもよく、メモリ1112は、処理回路と並列に動作する複数のメモリユニットを表してもよい。これは、システム内の処理及びデータのために並列処理チャネルを提供し得る。ローカルインタフェース1118は、複数のプロセッサのいずれかと複数のメモリとの間の通信を容易にするためのネットワークとして使用されてもよい。ローカルインタフェース1118は、負荷分散、大量データ転送、及び類似のシステムなどの通信を連携するために設計された追加のシステムを使用してもよい。
本明細書に記載されている機能ユニットのいくつかは、それらの実施の独立性をより特に強調するために、モジュールとしてラベル付けされている。例えば、モジュールは、カスタムVLSI回路又はゲートアレイ、論理チップなどの既製の半導体、トランジスタ、又は他のディスクリート部品を含むハードウェア回路として実装されてもよい。モジュールはまた、フィールドプログラマブルゲートアレイ、プログラマブルアレイロジック、プログラマブルロジック装置等のようなプログラマブルハードウェア装置に実装されてもよい。 Some of the functional units described herein have been labeled as modules to more particularly emphasize their implementation independence. For example, a module may be implemented as a hardware circuit comprising custom VLSI circuits or gate arrays, off-the-shelf semiconductors such as logic chips, transistors, or other discrete components. A module may also be implemented in a programmable hardware device such as a field programmable gate array, programmable array logic, programmable logic device, or the like.
モジュールはまた、様々な種類のプロセッサによる実行のためのソフトウェアに実装されてもよい。実行可能コードの識別されたモジュールは、例えば、オブジェクト、手順、又は機能として編成され得るコンピュータ命令の1つ以上のブロックを含んでもよい。それにもかかわらず、識別されたモジュールの実行ファイルは、物理的に一緒に位置する必要はなく、モジュールを構成し、論理的に一緒に結合されたときにモジュールについて述べられた目的を達成する異なる場所に記憶された異種の命令を含んでもよい。 Modules may also be implemented in software for execution by various types of processors. An identified module of executable code may include one or more blocks of computer instructions that may be organized as, for example, an object, a procedure, or a function. Nevertheless, the executable files of an identified module need not be physically located together, but may include heterogeneous instructions stored in different locations that constitute a module and that, when logically combined together, accomplish the purpose stated for the module.
実際、実行可能コードのモジュールは、単一の命令、又は多くの命令であってもよく、異なるプログラムの間で、及びいくつかのメモリデバイスにまたがって、いくつかの異なるコードセグメントにわたって分散することさえあってもよい。同様に、動作データは、本明細書ではモジュール内で識別され及び例示され得、任意の適切な形式で具現化され、任意の適切なタイプのデータ構造内に編成されてもよい。動作データは、単一のデータセットとして収集されてもよく、又は異なる記憶装置にわたることを含めて異なる場所にわたって分散されてもよい。モジュールは、所望の機能を行うように動作可能なエージェントを含めて、受動的であっても又は能動的であってもよい。 In fact, a module of executable code may be a single instruction, or many instructions, and may even be distributed across several different code segments, among different programs, and across several memory devices. Similarly, operational data may be identified and illustrated herein in modules, and may be embodied in any suitable form and organized within any suitable type of data structure. Operational data may be collected as a single data set or may be distributed across different locations, including across different storage devices. Modules may be passive or active, including agents operable to perform a desired function.
本明細書に記載の技術は、コンピュータ可読命令、データ構造、プログラムモジュール、又はその他のデータなどの情報を記憶するための任意の技術で実装された揮発性及び不揮発性、取り外し可能及び非取り外し可能媒体を含むコンピュータ可読記憶媒体に記憶されてもよい。コンピュータ可読記憶媒体としては、RAM、ROM、EEPROM、フラッシュメモリ若しくは他のメモリ技術、CD-ROM、デジタル多用途ディスク(DVD)若しくは他の光学記憶デバイス、磁気カセット、磁気テープ、磁気ディスク記憶デバイス若しくは他の磁気記憶デバイス、又は所望の情報及び記載された技術を記憶するために使用され得る任意の他のコンピュータ記憶媒体が挙げられるが、これらに限定されない。 The techniques described herein may be stored on computer-readable storage media, including volatile and non-volatile, removable and non-removable media implemented in any technology for storing information, such as computer-readable instructions, data structures, program modules, or other data. Computer-readable storage media include, but are not limited to, RAM, ROM, EEPROM, flash memory or other memory technology, CD-ROM, digital versatile disks (DVDs) or other optical storage devices, magnetic cassettes, magnetic tapes, magnetic disk storage devices or other magnetic storage devices, or any other computer storage medium that may be used to store the desired information and the techniques described.
本明細書に記載の装置はまた、装置が他の装置と通信することを可能にする通信接続又はネットワーキング装置及びネットワーキング接続を含むことができる。通信接続は、通信媒体の一例である。通信媒体は、典型的には、コンピュータ可読命令、データ構造、プログラムモジュール、及び搬送波又は他の移送機構などの変調データ信号内の他のデータを具現化し、任意の情報配信媒体を含む。「変調データ信号」は、信号内の情報を符号化するような様態で設定又は変更されたその特性のうちの1つ又は複数を有する信号を意味する。限定ではなく例として、通信媒体には、有線ネットワーク又は直接配線接続などの有線媒体、及び音響、無線周波数、赤外線などの無線媒体並びに他の無線媒体が含まれる。本明細書で使用されるコンピュータ可読媒体という用語は、通信媒体を含む。 The devices described herein may also include communications connections or networking devices and networking connections that enable the devices to communicate with other devices. A communications connection is an example of a communication medium. Communication media typically embodies computer-readable instructions, data structures, program modules, and other data in a modulated data signal, such as a carrier wave or other transport mechanism, and includes any information delivery media. A "modulated data signal" means a signal that has one or more of its characteristics set or changed in such a manner as to encode information in the signal. By way of example, and not limitation, communication media include wired media, such as a wired network or direct-wired connection, and wireless media, such as acoustic, radio frequency, infrared, and other wireless media. As used herein, the term computer-readable media includes communication media.
図面に図示された例を参照し、本明細書では同じことを説明するために特定言語を使用した。それでもなお、それにより本技術の範囲の限定が意図されない、と理解されるであろう。本明細書に示されている特徴の変更及び更なる修正、並びに本開示を所有する当業者が想到するであろう、本明細書に示されている例の更なる適用は、説明の範囲内であると考えられるべきである。 With reference to the examples illustrated in the drawings, specific language has been used herein to describe the same. It will nevertheless be understood that no limitation of the scope of the technology is intended thereby. Changes and further modifications of the features shown herein, as well as further applications of the examples shown herein that may occur to those skilled in the art having this disclosure in hand, should be considered within the scope of the description.
更に、説明された特徴、構造、又は特性は、1つ以上の実施例において、任意の好適な様態で組み合されてもよい。先行する説明において、説明される技術の実施例の完全な理解を提供するために、種々の構成の実施例等の多数の具体的な詳細を提供した。しかし、当業者は、本技術が、具体的な詳細のうち1つ又は複数を伴わずに、又は他の方法、構成要素、装置等を伴って実践され得ることを認識するであろう。その他の場合、本技術の態様を不明瞭にすることを回避するために、周知の構造又は動作は、詳細には図示又は説明されていない。 Furthermore, the described features, structures, or characteristics may be combined in any suitable manner in one or more embodiments. In the preceding description, numerous specific details, such as embodiments of various configurations, have been provided to provide a thorough understanding of embodiments of the described technology. However, one of ordinary skill in the art will recognize that the technology can be practiced without one or more of the specific details, or with other methods, components, devices, etc. In other cases, well-known structures or operations have not been shown or described in detail to avoid obscuring aspects of the technology.
主題は、構造的特徴及び/又は動作に特有の言語で説明されてきたが、添付の特許請求の範囲で定義される主題は、必ずしも上記の特定の特徴及び動作に限定されないことを理解されたい。むしろ、上記の特定の特徴及び作用は、特許請求の範囲を実施する例示的な形態として開示されている。記載された技術の精神及び範囲から逸脱することなく、多数の改変及び代替の構成が考案され得る。 Although the subject matter has been described in language specific to structural features and/or operations, it is to be understood that the subject matter defined in the appended claims is not necessarily limited to the specific features and operations described above. Rather, the specific features and operations described above are disclosed as exemplary forms of implementing the claims. Numerous modifications and alternative configurations may be devised without departing from the spirit and scope of the described technology.
Claims (29)
前記ARヘッドセットの光学センサを使用して、人の身体の一部分及び前記医療用具の視覚画像データを検出することと、
前記人の前記身体及び前記医療用具に関連付けられた1つ又は複数の光学コードを識別することであって、前記人の身体上の光学コードが、前記人の前記身体上に設けられた画像可視マーカに対して固定位置に位置する、ことと、
前記ARヘッドセットを通して見るときの前記人の前記身体上の1つ又は複数の光学コードを使用し、前記画像データセット内の前記画像可視マーカの表現を参照するときの前記光学コードに対する前記画像可視マーカの前記固定位置を使用して、前記画像データセットを前記人の前記身体と位置合わせすることと、
前記ARヘッドセットを介して見たときに、前記医療用具が前記画像データセット及び前記人の前記身体に参照されることを可能にするために、前記医療用具及び前記人の前記身体上の1つ又は複数の光学コードを使用して、前記人の前記身体に対する前記医療用具の位置を決定することと、
を含む、方法。 1. A method for using an augmented reality (AR) headset to co-localize an image dataset and a medical tool having one or more optical codes, the method comprising:
detecting visual image data of a portion of a human body and the medical tool using an optical sensor of the AR headset;
identifying one or more optical codes associated with the body of the person and the medical implement, the optical codes on the body of the person being located in a fixed position relative to an image visible marker provided on the body of the person ;
aligning the image dataset with the body of the person using one or more optical codes on the body of the person when viewed through the AR headset and using the fixed positions of the image visible markers relative to the optical codes when referencing a representation of the image visible markers in the image dataset;
determining a position of the medical tool relative to the body of the person using one or more optical codes on the medical tool and the body of the person to enable the medical tool to be referenced to the image dataset and the body of the person when viewed through the AR headset;
A method comprising:
正しい患者及び正しい身体部分が医療処置を受けていることを確認するために、前記ARヘッドセットを介して前記患者の情報を表示することと、
を更に含む、請求項1に記載の方法。 acquiring patient information using the optical code associated with the portion of the body of the person;
displaying the patient's information via the AR headset to verify that the correct patient and the correct body part are receiving the medical procedure;
The method of claim 1 further comprising:
前記医療用具が前記医療処置に関連付けられているかどうかを表すグラフィックインジケータを医療専門家に表示することと、
を更に含む、請求項1に記載の方法。 querying a database to determine if the medical device is allocated for use in a medical procedure;
displaying a graphical indicator to a medical professional representing whether the medical implement is associated with the medical procedure; and
The method of claim 1 further comprising:
前記ARディスプレイの光学センサを使用して、人の前記身体の一部分の視覚画像データと、前記人の前記身体に対して移動可能な透視デバイスとを検出することと、
前記人の前記身体上及び前記透視デバイス上の1つ又は複数の光学コードを識別することであって、前記人の前記身体上の1つ又は複数の光学コードは、前記人の前記身体上に設けられた画像可視マーカに対して固定位置を有する、ことと、
前記ARディスプレイを通して見たときに、前記人の前記身体上の前記1つ又は複数の光学コードに対する前記画像可視マーカの前記固定位置を使用して、前記人の前記身体の画像データセットを位置合わせすることと、
前記透視デバイス上の前記1つ又は複数の光学コードを使用して、前記人の前記身体に対する前記透視デバイスの位置及び向きを決定することと、
前記透視デバイスの前記位置及び向きに部分的に基づいて、前記画像データセットの画像投影を生成することと、
前記ARディスプレイを通して前記画像投影を表示することと、
前記ARディスプレイを使用して、前記画像可視マーカ又は前記透視デバイスの前記位置及び向きに基づいて、前記人の前記身体と位置合わせされた前記透視デバイスからの透視画像と、前記画像投影とを表示することと、
を含む、方法。 1. A method for registering a perspective image to a human body and an image projection from an image dataset using an augmented reality (AR) display, comprising:
detecting visual image data of a portion of the body of the person using an optical sensor of the AR display and a see-through device movable relative to the body of the person;
identifying one or more optical codes on the body of the person and on the imaging device, the one or more optical codes on the body of the person having fixed positions relative to image visible markers provided on the body of the person ;
registering an image dataset of the body of the person using the fixed positions of the image visible markers relative to the one or more optical codes on the body of the person when viewed through the AR display;
determining a position and orientation of the fluoroscopy device relative to the body of the person using the one or more optical codes on the fluoroscopy device;
generating an image projection of the image data set based in part on the position and orientation of the fluoroscopy device;
Displaying the image projection through the AR display; and
using the AR display to display a perspective image from the perspective device aligned with the body of the person based on the position and orientation of the image visible markers or the perspective device, and the image projection;
A method comprising:
前記透視デバイスの位置及び向きの変化によって定義されるように、前記画像投影及び透視画像位置及び向きを修正することと、
を更に含む、請求項10に記載の方法。 detecting changes in the position and orientation of a fluoroscopy device relative to the body of the person;
modifying the image projection and fluoroscopic image position and orientation as defined by changes in position and orientation of the fluoroscopy device;
The method of claim 10 further comprising:
前記透視デバイスのズーム値によって定義されるように前記画像データセットを調整することと、
を更に含む、請求項10に記載の方法。 receiving a zoom value from the fluoroscopy device zoomed in on the body of the person;
adjusting the image data set as defined by a zoom value of the fluoroscopy device;
The method of claim 10 further comprising:
前記ARディスプレイを通して見たときに、前記医療用具が前記画像データを参照することを可能にするために、前記医療用具上の1つ又は複数の追加の光学コードと、前記人の前記身体上の1つ又は複数の光学コードとを使用して、前記人の前記身体及び前記画像投影に対する前記医療用具の位置を決定することと、を更に含む、請求項10に記載の方法。 identifying one or more additional optical codes visibly displayed on the medical device;
11. The method of claim 10, further comprising: determining a position of the medical tool relative to the body of the person and the image projection using one or more additional optical codes on the medical tool and one or more optical codes on the body of the person to enable the medical tool to see the image data when viewed through the AR display.
前記ARディスプレイの光学センサを使用して、前記人の前記身体上の及び前記人の前記身体に対して移動可能な前記透視デバイス上の前記1つ又は複数の光学コードを識別することと、
前記透視デバイス上の前記1つ又は複数の光学コードを使用して、前記透視デバイスの前記身体に対する前記透視デバイスの前記位置及び向きを決定することと、
前記ARディスプレイを使用して、前記人の前記身体上の前記光学コードと、前記透視デバイスの前記位置及び向きとを参照することによって、前記人の前記身体と位置合わせされた前記透視デバイスからの透視画像を表示することとを含む、方法。 1. A method for using an augmented reality (AR) display to align a fluoroscopic image with a human body having one or more optical codes by using a position and orientation of a fluoroscopic device having one or more optical codes, the method comprising:
identifying the one or more optical codes on the body of the person and on the vision device movable relative to the body of the person using an optical sensor of the AR display;
determining the position and orientation of the fluoroscopy device relative to the body using the one or more optical codes on the fluoroscopy device;
and using the AR display to display a fluoroscopic image from the fluoroscopic device aligned with the body of the person by referencing the optical code on the body of the person and the position and orientation of the fluoroscopic device.
前記ARディスプレイを通して見たときに、前記人の前記身体上の前記1つ又は複数の光学コードに対する前記画像可視マーカの前記固定位置を使用して、前記人の前記身体の画像データセットを位置合わせすることと、
前記画像データセットを、前記ARディスプレイを介して、前記人の前記身体と、前記透視画像と位置合わせされて表示することと、
を更に含む、請求項21に記載の方法。 identifying one or more optical codes on the body of the person having fixed positions relative to image visible markers provided on the body of the person ;
registering an image dataset of the body of the person using the fixed positions of the image visible markers relative to the one or more optical codes on the body of the person when viewed through the AR display;
displaying the image dataset via the AR display in registration with the body of the person and with the perspective image;
22. The method of claim 21 further comprising:
前記透視画像と共に、前記人の前記身体と位置合わせされて、前記ARディスプレイを介して、前記画像投影を表示することと、
を更に含む、請求項22に記載の方法。 generating an image projection of the image data set based on the position and orientation of the fluoroscopy device;
displaying the image projection via the AR display in registration with the body of the person along with the perspective image;
23. The method of claim 22, further comprising:
前記ARディスプレイの光学センサを使用して、人の前記身体の一部分及び超音波トランスデューサの視覚画像データを検出することと、
前記人の前記身体上及び前記超音波トランスデューサ上の1つ又は複数の光学コードを識別することと、
前記超音波トランスデューサ上の前記1つ又は複数の光学コードを使用して、前記人の前記身体に対する前記超音波トランスデューサの位置及び向きを決定することと、
前記ARディスプレイを使用して、前記人の前記身体上の前記光学コードと、前記超音波トランスデューサの前記位置及び向きとを参照することによって、前記人の前記身体と位置合わせされた前記超音波トランスデューサからの超音波画像を表示することとを含む、方法。 1. A method of aligning an ultrasound image with respect to a human body using an augmented reality (AR) display, comprising:
detecting visual image data of a portion of the body of a person and an ultrasound transducer using an optical sensor of the AR display;
identifying one or more optical codes on the body of the person and on the ultrasound transducer;
determining a position and orientation of the ultrasound transducer relative to the body of the person using the one or more optical codes on the ultrasound transducer;
and using the AR display to display an ultrasound image from the ultrasound transducer aligned with the body of the person by referencing the optical code on the body of the person and the position and orientation of the ultrasound transducer.
ARヘッドセットの光学センサを使用して、患者の身体の一部分及び医療用具の視覚画像データを検出することと、
前記患者の前記身体上及び前記医療用具上に視認可能に表示された1つ又は複数の光学コードを識別することであって、前記患者の前記身体上の1つ又は複数の光学コードは、前記患者の前記身体上に設けられた画像可視マーカに対して固定位置にある、ことと、
前記患者の前記身体上の前記1つ又は複数の光学コードを参照して前記画像可視マーカの既知の固定位置を使用して、画像データセットを前記患者の前記身体と位置合わせすることと、
前記画像データセットの表面と位置合わせする前記患者の前記身体の表面の正しい位置合わせに基づいて、正しい患者が前記医療処置中であることを確認することと、
前記1つ又は複数の光学コードを使用して、前記身体の正しい部分及び正しい医療用具が前記医療処置内にあることを確認することと、
を含む、方法。 1. A method for verifying a medical procedure using an optical code, comprising:
Detecting visual image data of a patient's body part and a medical tool using an optical sensor of the AR headset;
identifying one or more optical codes visibly displayed on the patient's body and on the medical implement, the one or more optical codes on the patient's body being in a fixed position relative to an image visible marker provided on the patient's body ;
registering an image dataset with the patient's body using known fixed positions of the image visible markers with reference to the one or more optical codes on the patient's body;
verifying that the correct patient is undergoing the medical procedure based on a correct registration of a surface of the body of the patient with a surface of the image data set;
using the one or more optical codes to verify that the correct part of the body and the correct medical implement are in the medical procedure;
A method comprising:
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/194,333 US11287874B2 (en) | 2018-11-17 | 2018-11-17 | Using optical codes with augmented reality displays |
US16/194,333 | 2018-11-17 | ||
PCT/US2019/061864 WO2020102761A1 (en) | 2018-11-17 | 2019-11-15 | Using optical codes with augmented reality displays |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022507622A JP2022507622A (en) | 2022-01-18 |
JP7519354B2 true JP7519354B2 (en) | 2024-07-19 |
Family
ID=70727564
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021526746A Active JP7519354B2 (en) | 2018-11-17 | 2019-11-15 | Using Optical Code in Augmented Reality Displays |
Country Status (5)
Country | Link |
---|---|
US (3) | US11287874B2 (en) |
EP (2) | EP4461254A2 (en) |
JP (1) | JP7519354B2 (en) |
KR (1) | KR20210104715A (en) |
WO (1) | WO2020102761A1 (en) |
Families Citing this family (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2955481B1 (en) | 2010-01-27 | 2013-06-14 | Tornier Sa | DEVICE AND METHOD FOR GLENOIDAL CHARACTERIZATION OF PROSTHETIC OR RESURFACING OMOPLATE |
AU2014333516B2 (en) | 2013-10-10 | 2019-07-18 | Stryker European Operations Limited | Methods, systems and devices for pre-operatively planned shoulder surgery guides and implants |
US11227509B2 (en) * | 2014-12-29 | 2022-01-18 | Help Me See Inc. | Surgical simulator systems and methods |
GB2536650A (en) | 2015-03-24 | 2016-09-28 | Augmedics Ltd | Method and system for combining video-based and optic-based augmented reality in a near eye display |
US10010379B1 (en) * | 2017-02-21 | 2018-07-03 | Novarad Corporation | Augmented reality viewing and tagging for medical procedures |
US9892564B1 (en) | 2017-03-30 | 2018-02-13 | Novarad Corporation | Augmenting real-time views of a patient with three-dimensional data |
US11980507B2 (en) | 2018-05-02 | 2024-05-14 | Augmedics Ltd. | Registration of a fiducial marker for an augmented reality system |
CN112566578B (en) | 2018-06-19 | 2024-09-20 | 豪迈帝凯奥斯泰纳克公司 | Mixed reality assisted teaching using virtual models or virtual representations for orthopedic surgery |
US11950823B2 (en) | 2018-09-07 | 2024-04-09 | Cilag Gmbh International | Regional location tracking of components of a modular energy system |
US12035956B2 (en) | 2018-09-07 | 2024-07-16 | Cilag Gmbh International | Instrument tracking arrangement based on real time clock information |
US11923084B2 (en) | 2018-09-07 | 2024-03-05 | Cilag Gmbh International | First and second communication protocol arrangement for driving primary and secondary devices through a single port |
US11804679B2 (en) | 2018-09-07 | 2023-10-31 | Cilag Gmbh International | Flexible hand-switch circuit |
US11287874B2 (en) | 2018-11-17 | 2022-03-29 | Novarad Corporation | Using optical codes with augmented reality displays |
US11766296B2 (en) | 2018-11-26 | 2023-09-26 | Augmedics Ltd. | Tracking system for image-guided surgery |
US11532132B2 (en) * | 2019-03-08 | 2022-12-20 | Mubayiwa Cornelious MUSARA | Adaptive interactive medical training program with virtual patients |
US11980506B2 (en) | 2019-07-29 | 2024-05-14 | Augmedics Ltd. | Fiducial marker |
USD939545S1 (en) | 2019-09-05 | 2021-12-28 | Cilag Gmbh International | Display panel or portion thereof with graphical user interface for energy module |
WO2021058087A1 (en) * | 2019-09-24 | 2021-04-01 | Brainlab Ag | Method and system for projecting an incision marker onto a patient |
US11382712B2 (en) | 2019-12-22 | 2022-07-12 | Augmedics Ltd. | Mirroring in image guided surgery |
US11237627B2 (en) | 2020-01-16 | 2022-02-01 | Novarad Corporation | Alignment of medical images in augmented reality displays |
DE102020126029A1 (en) * | 2020-10-05 | 2022-04-07 | B. Braun New Ventures GmbH | Surgical assistance system and display method |
DE102020134898A1 (en) | 2020-12-23 | 2022-06-23 | Sensopart Industriesensorik Gmbh | Target for determining a three-dimensional pose of an object |
US12016633B2 (en) * | 2020-12-30 | 2024-06-25 | Novarad Corporation | Alignment of medical images in augmented reality displays |
US11645819B2 (en) | 2021-03-11 | 2023-05-09 | Quintar, Inc. | Augmented reality system for viewing an event with mode based on crowd sourced images |
US11527047B2 (en) | 2021-03-11 | 2022-12-13 | Quintar, Inc. | Augmented reality system for viewing an event with distributed computing |
US12028507B2 (en) | 2021-03-11 | 2024-07-02 | Quintar, Inc. | Augmented reality system with remote presentation including 3D graphics extending beyond frame |
US12003806B2 (en) | 2021-03-11 | 2024-06-04 | Quintar, Inc. | Augmented reality system for viewing an event with multiple coordinate systems and automatically generated model |
US11657578B2 (en) * | 2021-03-11 | 2023-05-23 | Quintar, Inc. | Registration for augmented reality system for viewing an event |
US11963727B2 (en) | 2021-03-30 | 2024-04-23 | Cilag Gmbh International | Method for system architecture for modular energy system |
US11978554B2 (en) | 2021-03-30 | 2024-05-07 | Cilag Gmbh International | Radio frequency identification token for wireless surgical instruments |
US11968776B2 (en) | 2021-03-30 | 2024-04-23 | Cilag Gmbh International | Method for mechanical packaging for modular energy system |
US12040749B2 (en) | 2021-03-30 | 2024-07-16 | Cilag Gmbh International | Modular energy system with dual amplifiers and techniques for updating parameters thereof |
US12004824B2 (en) | 2021-03-30 | 2024-06-11 | Cilag Gmbh International | Architecture for modular energy system |
US11980411B2 (en) | 2021-03-30 | 2024-05-14 | Cilag Gmbh International | Header for modular energy system |
US11857252B2 (en) | 2021-03-30 | 2024-01-02 | Cilag Gmbh International | Bezel with light blocking features for modular energy system |
US11950860B2 (en) | 2021-03-30 | 2024-04-09 | Cilag Gmbh International | User interface mitigation techniques for modular energy systems |
US20220331054A1 (en) * | 2021-04-14 | 2022-10-20 | Cilag Gmbh International | Adaptation and adjustability or overlaid instrument information for surgical systems |
CN113313760A (en) * | 2021-06-29 | 2021-08-27 | 同济大学 | Corrosion detection method, device and system for array type metal connecting piece |
US11896445B2 (en) | 2021-07-07 | 2024-02-13 | Augmedics Ltd. | Iliac pin and adapter |
US20230169696A1 (en) * | 2021-11-27 | 2023-06-01 | Novarad Corporation | Transfer of Alignment Accuracy Between Visible Markers Used with Augmented Reality Displays |
US11948265B2 (en) * | 2021-11-27 | 2024-04-02 | Novarad Corporation | Image data set alignment for an AR headset using anatomic structures and data fitting |
CN114177544B (en) * | 2022-01-17 | 2023-08-11 | 中国科学院合肥物质科学研究院 | CT and optical co-positioning auxiliary device for radiotherapy planning |
US20230240790A1 (en) * | 2022-02-03 | 2023-08-03 | Medtronic Navigation, Inc. | Systems, methods, and devices for providing an augmented display |
WO2023192395A1 (en) * | 2022-03-29 | 2023-10-05 | Project Moray, Inc. | Registration of medical robot and/or image data for robotic catheters and other uses |
US12079460B2 (en) | 2022-06-28 | 2024-09-03 | Cilag Gmbh International | Profiles for modular energy system |
WO2024025850A1 (en) * | 2022-07-26 | 2024-02-01 | Becton, Dickinson And Company | System and method for vascular access management |
US20240046555A1 (en) * | 2022-08-08 | 2024-02-08 | Gustav Lo | Arcuate Imaging for Altered Reality Visualization |
WO2024057210A1 (en) | 2022-09-13 | 2024-03-21 | Augmedics Ltd. | Augmented reality eyewear for image-guided medical intervention |
US20240144497A1 (en) * | 2022-11-01 | 2024-05-02 | Novarad Corporation | 3D Spatial Mapping in a 3D Coordinate System of an AR Headset Using 2D Images |
KR102673626B1 (en) * | 2022-12-20 | 2024-06-12 | 주식회사 심시스글로벌 | System and method for support remote medical service |
WO2024154647A1 (en) * | 2023-01-18 | 2024-07-25 | 学校法人久留米大学 | Learning method and learning system |
WO2024214057A1 (en) * | 2023-04-13 | 2024-10-17 | Medtronic Navigation, Inc. | System and method for illustrating a pose of an object |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017146758A (en) | 2016-02-17 | 2017-08-24 | 株式会社菊池製作所 | Overlapping image display system |
WO2018063528A1 (en) | 2016-08-16 | 2018-04-05 | Insight Medical Systems, Inc. | Systems for sensory augmentation in medical procedures |
US20180247128A1 (en) | 2017-02-28 | 2018-08-30 | Digital Surgery Limited | Surgical tracking and procedural map analysis tool |
Family Cites Families (118)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8496474B2 (en) | 1997-06-20 | 2013-07-30 | Align Technology, Inc. | Computer automated development of an orthodontic treatment plan and appliance |
US6147678A (en) | 1998-12-09 | 2000-11-14 | Lucent Technologies Inc. | Video hand image-three-dimensional computer interface with multiple degrees of freedom |
US6470207B1 (en) * | 1999-03-23 | 2002-10-22 | Surgical Navigation Technologies, Inc. | Navigational guidance via computer-assisted fluoroscopic imaging |
US6919867B2 (en) | 2001-03-29 | 2005-07-19 | Siemens Corporate Research, Inc. | Method and apparatus for augmented reality visualization |
US20030100830A1 (en) | 2001-11-27 | 2003-05-29 | Sheng-Ping Zhong | Implantable or insertable medical devices visible under magnetic resonance imaging |
US7369101B2 (en) | 2003-06-12 | 2008-05-06 | Siemens Medical Solutions Usa, Inc. | Calibrating real and virtual views |
US7467119B2 (en) | 2003-07-21 | 2008-12-16 | Aureon Laboratories, Inc. | Systems and methods for treating, diagnosing and predicting the occurrence of a medical condition |
CN1957373A (en) | 2004-03-12 | 2007-05-02 | 布拉科成像S.P.A.公司 | Accuracy evaluation of video-based augmented reality enhanced surgical navigation systems |
US9681925B2 (en) | 2004-04-21 | 2017-06-20 | Siemens Medical Solutions Usa, Inc. | Method for augmented reality instrument placement using an image based navigation system |
US7394946B2 (en) | 2004-05-18 | 2008-07-01 | Agfa Healthcare | Method for automatically mapping of geometric objects in digital medical images |
EP1861158A2 (en) | 2005-01-18 | 2007-12-05 | Koninklijke Philips Electronics N.V. | System for controlling traversal of an ingested capsule |
US20070066881A1 (en) | 2005-09-13 | 2007-03-22 | Edwards Jerome R | Apparatus and method for image guided accuracy verification |
JP4665710B2 (en) | 2005-10-21 | 2011-04-06 | 株式会社デンソーウェーブ | Information code carrier |
US7546950B2 (en) | 2006-03-28 | 2009-06-16 | Seiko Epson Corporation | Method and apparatus for locating and decoding a two-dimensional machine-readable symbol |
BRPI0709421A2 (en) | 2006-03-30 | 2011-07-12 | Activiews Ltd | hand tool position measurement system, method for guiding the distl end of a tool and bandage |
WO2008076079A1 (en) | 2006-12-19 | 2008-06-26 | Bracco Imaging S.P.A. | Methods and apparatuses for cursor control in image guided surgery |
AU2008209331B2 (en) * | 2007-01-22 | 2013-12-19 | Avent, Inc. | Positioning tool for positioning an instrument at a treatment site |
WO2008090676A1 (en) | 2007-01-25 | 2008-07-31 | Konica Minolta Medical & Graphic, Inc. | Medical image system, electronic medical record terminal, and program |
US8798339B2 (en) * | 2007-05-10 | 2014-08-05 | Koninklijke Philips N.V. | Targeting method, targeting device, computer readable medium and program element |
US7886978B2 (en) | 2007-09-20 | 2011-02-15 | Microsoft Corporation | Techniques for decoding images of barcodes |
US7853558B2 (en) | 2007-11-09 | 2010-12-14 | Vibrant Media, Inc. | Intelligent augmentation of media content |
JP2011525283A (en) | 2008-06-18 | 2011-09-15 | オブロング・インダストリーズ・インコーポレーテッド | Gesture reference control system for vehicle interface |
WO2010110560A2 (en) | 2009-03-24 | 2010-09-30 | 주식회사 래보 | Surgical robot system using augmented reality, and method for controlling same |
US20110105895A1 (en) | 2009-10-01 | 2011-05-05 | Giora Kornblau | Guided surgery |
EP2642371A1 (en) | 2010-01-14 | 2013-09-25 | BrainLAB AG | Controlling a surgical navigation system |
US8657809B2 (en) | 2010-09-29 | 2014-02-25 | Stryker Leibinger Gmbh & Co., Kg | Surgical navigation system |
US9119655B2 (en) | 2012-08-03 | 2015-09-01 | Stryker Corporation | Surgical manipulator capable of controlling a surgical instrument in multiple modes |
DE112012000752A5 (en) | 2011-02-11 | 2013-11-21 | Olaf Christiansen | Endoscopic image processing system with means which generate geometric survey information in the detection area of an optical digital camera |
US8401343B2 (en) | 2011-03-27 | 2013-03-19 | Edwin Braun | System and method for defining an augmented reality character in computer generated virtual reality using coded stickers |
JP6021353B2 (en) | 2011-08-04 | 2016-11-09 | オリンパス株式会社 | Surgery support device |
US9123155B2 (en) | 2011-08-09 | 2015-09-01 | Covidien Lp | Apparatus and method for using augmented reality vision system in surgical procedures |
US20130197354A1 (en) * | 2012-01-30 | 2013-08-01 | Siemens Aktiengesellschaft | Minimally invasive treatment of mitral regurgitation |
WO2013173810A2 (en) | 2012-05-17 | 2013-11-21 | Schwartz Alan N | Localization of the parathyroid |
JP2015528713A (en) | 2012-06-21 | 2015-10-01 | グローバス メディカル インコーポレイティッド | Surgical robot platform |
US9594877B2 (en) * | 2012-08-31 | 2017-03-14 | Nuvectra Corporation | Virtual reality representation of medical devices |
US9817440B2 (en) | 2012-09-11 | 2017-11-14 | L.I.F.E. Corporation S.A. | Garments having stretchable and conductive ink |
US8945328B2 (en) | 2012-09-11 | 2015-02-03 | L.I.F.E. Corporation S.A. | Methods of making garments having stretchable and conductive ink |
US9323057B2 (en) | 2012-12-07 | 2016-04-26 | Blackberry Limited | Mobile device, system and method for controlling a heads-up display |
JP2014131552A (en) | 2013-01-07 | 2014-07-17 | Akira Takebayashi | Medical support device |
US9336629B2 (en) | 2013-01-30 | 2016-05-10 | F3 & Associates, Inc. | Coordinate geometry augmented reality process |
KR20140112207A (en) | 2013-03-13 | 2014-09-23 | 삼성전자주식회사 | Augmented reality imaging display system and surgical robot system comprising the same |
US9898866B2 (en) | 2013-03-13 | 2018-02-20 | The University Of North Carolina At Chapel Hill | Low latency stabilization for head-worn displays |
US9047664B2 (en) | 2013-05-31 | 2015-06-02 | Kathryn Pearson Peyton | Apparatus and method for utilizing mammogram images for verification |
US10070929B2 (en) | 2013-06-11 | 2018-09-11 | Atsushi Tanji | Surgical operation support system, surgical operation support apparatus, surgical operation support method, surgical operation support program, and information processing apparatus |
US9572516B1 (en) | 2013-08-06 | 2017-02-21 | Babak Sheikh | Application and method for producing images of moving joints |
US10433911B2 (en) | 2013-09-18 | 2019-10-08 | iMIRGE Medical INC. | Optical targeting and visualization of trajectories |
EP2870941A1 (en) | 2013-11-08 | 2015-05-13 | Orthotaxy | Method for planning a surgical intervention |
JP6264014B2 (en) | 2013-12-17 | 2018-01-24 | セイコーエプソン株式会社 | Head-mounted display device |
US10231704B2 (en) | 2013-12-20 | 2019-03-19 | Raghu Raghavan | Method for acquiring ultrasonic data |
EP3110331B1 (en) | 2014-02-26 | 2018-10-10 | Brainlab AG | Tracking soft tissue in medical images |
JP6445784B2 (en) | 2014-05-16 | 2018-12-26 | キヤノン株式会社 | Image diagnosis support apparatus, processing method thereof, and program |
EP3146729B1 (en) | 2014-05-21 | 2024-10-16 | Millennium Three Technologies Inc. | System comprising a helmet, a multi-camera array and an ad hoc arrangement of fiducial marker patterns and their automatic detection in images |
US20210186355A1 (en) | 2014-11-30 | 2021-06-24 | Elbit Systems Ltd. | Model registration system and method |
US20160180441A1 (en) | 2014-12-22 | 2016-06-23 | Amazon Technologies, Inc. | Item preview image generation |
US9830488B2 (en) | 2014-12-30 | 2017-11-28 | Hand Held Products, Inc. | Real-time adjustable window feature for barcode scanning and process of scanning barcode with adjustable window feature |
US10154239B2 (en) | 2014-12-30 | 2018-12-11 | Onpoint Medical, Inc. | Image-guided surgery with surface reconstruction and augmented reality visualization |
US10004610B2 (en) | 2015-02-04 | 2018-06-26 | DePuy Synthes Products, Inc. | Non-invasive methods for modifying tissue to facilitate treatment |
CN107847289A (en) | 2015-03-01 | 2018-03-27 | 阿里斯医疗诊断公司 | The morphology operation of reality enhancing |
TWI553508B (en) | 2015-03-03 | 2016-10-11 | 緯創資通股份有限公司 | Apparatus and method for object sensing |
WO2016162789A2 (en) | 2015-04-07 | 2016-10-13 | King Abdullah University Of Science And Technology | Method, apparatus, and system for utilizing augmented reality to improve surgery |
US9436993B1 (en) * | 2015-04-17 | 2016-09-06 | Clear Guide Medical, Inc | System and method for fused image based navigation with late marker placement |
GB2569114B (en) | 2015-05-08 | 2020-12-16 | Synaptive Medical Barbados Inc | Magnetic resonance visible labels and markers for encoding information |
US10431008B2 (en) | 2015-10-29 | 2019-10-01 | Koninklijke Philips N.V. | Remote assistance workstation, method and system with a user interface for remote assistance with spatial placement tasks via augmented reality glasses |
US10328283B2 (en) | 2015-12-01 | 2019-06-25 | Brainlab Ag | Method and apparatus for determining or predicting the position of a target |
EP3389544A4 (en) * | 2015-12-14 | 2019-08-28 | Nuvasive, Inc. | 3d visualization during surgery with reduced radiation exposure |
US20170178540A1 (en) | 2015-12-22 | 2017-06-22 | Truinject Medical Corp. | Injection training with modeled behavior |
CN105769232B (en) | 2016-02-22 | 2018-01-12 | 上海联影医疗科技有限公司 | The X-ray tube filament pre-heating method of CT equipment and pre- heater circuit |
EP3426179B1 (en) | 2016-03-12 | 2023-03-22 | Philipp K. Lang | Devices for surgery |
JP6780948B2 (en) | 2016-03-28 | 2020-11-04 | キヤノンメディカルシステムズ株式会社 | X-ray CT device |
US20170296292A1 (en) * | 2016-04-16 | 2017-10-19 | Eitezaz MAHMOOD | Systems and Methods for Surgical Imaging |
IL245339A (en) | 2016-04-21 | 2017-10-31 | Rani Ben Yishai | Method and system for registration verification |
US9589348B1 (en) | 2016-05-31 | 2017-03-07 | Oculus Vr, Llc | Camera calibration system |
CA3022448A1 (en) | 2016-08-05 | 2018-02-08 | Brainlab Ag | Automatic image registration of scans for image-guided surgery |
US11071596B2 (en) | 2016-08-16 | 2021-07-27 | Insight Medical Systems, Inc. | Systems and methods for sensory augmentation in medical procedures |
US10687901B2 (en) | 2016-08-17 | 2020-06-23 | Synaptive Medical (Barbados) Inc. | Methods and systems for registration of virtual space with real space in an augmented reality system |
US20180092698A1 (en) | 2016-10-04 | 2018-04-05 | WortheeMed, Inc. | Enhanced Reality Medical Guidance Systems and Methods of Use |
US10888228B2 (en) | 2016-11-10 | 2021-01-12 | SK Commercial Construction, Inc. | Method and system for correlating anatomy using an electronic mobile device transparent display screen |
CA3049662A1 (en) * | 2017-01-16 | 2018-07-19 | Philipp K. Lang | Optical guidance for surgical, medical, and dental procedures |
US11551380B2 (en) * | 2017-01-17 | 2023-01-10 | Koninklijke Philips N.V. | Augmented reality interventional system providing contextual overlays |
IL250432A0 (en) | 2017-02-02 | 2017-06-29 | Elbit Systems Ltd | Magnified high resolution imaging and tracking for medical use |
WO2018148379A1 (en) | 2017-02-08 | 2018-08-16 | Duke University | Augmented reality-based navigation for use in surgical and non-surgical procedures |
US10478149B2 (en) | 2017-02-21 | 2019-11-19 | Siemens Healthcare Gmbh | Method of automatically positioning an X-ray source of an X-ray system and an X-ray system |
US10010379B1 (en) * | 2017-02-21 | 2018-07-03 | Novarad Corporation | Augmented reality viewing and tagging for medical procedures |
US10871934B2 (en) | 2017-05-04 | 2020-12-22 | Microsoft Technology Licensing, Llc | Virtual content displayed with shared anchor |
US20180373327A1 (en) | 2017-06-26 | 2018-12-27 | Hand Held Products, Inc. | System and method for selective scanning on a binocular augmented reality device |
EP3646535A4 (en) | 2017-06-28 | 2021-03-10 | Commscope Technologies LLC | Systems and methods for managed connectivity wall outlets using low energy wireless communication |
US20200405395A1 (en) | 2017-07-03 | 2020-12-31 | Spine Align, Llc | Intraoperative alignment assessment system and method |
US11540767B2 (en) | 2017-07-03 | 2023-01-03 | Globus Medical Inc. | Intraoperative alignment assessment system and method |
EP3470006B1 (en) | 2017-10-10 | 2020-06-10 | Holo Surgical Inc. | Automated segmentation of three dimensional bony structure images |
EP3445048A1 (en) | 2017-08-15 | 2019-02-20 | Holo Surgical Inc. | A graphical user interface for a surgical navigation system for providing an augmented reality image during operation |
ES2945711T3 (en) | 2017-08-15 | 2023-07-06 | Holo Surgical Inc | Surgical navigation system to provide an augmented reality image during the operation |
US11432879B2 (en) | 2017-08-18 | 2022-09-06 | Siemens Healthcare Gmbh | Method and apparatus for wide area multi-body 6D pose tracking system |
US20190075456A1 (en) | 2017-09-07 | 2019-03-07 | Bae Systems Information And Electronic Systems Integration Inc. | Secure wireless pairing of master slave devices withqr codes |
WO2019051464A1 (en) | 2017-09-11 | 2019-03-14 | Lang Philipp K | Augmented reality display for vascular and other interventions, compensation for cardiac and respiratory motion |
JP7020490B2 (en) | 2017-09-20 | 2022-02-16 | 日本電気株式会社 | Information processing equipment, control methods, and programs |
US10504250B2 (en) | 2018-01-27 | 2019-12-10 | Uih America, Inc. | Systems and methods for correcting mismatch induced by respiratory motion in positron emission tomography image reconstruction |
GB201804383D0 (en) | 2018-03-19 | 2018-05-02 | Microsoft Technology Licensing Llc | Multi-endpoint mixed reality meetings |
US20190310819A1 (en) | 2018-04-10 | 2019-10-10 | Carto Technologies, LLC | Augmented reality image display systems and methods |
US10809958B2 (en) | 2018-04-16 | 2020-10-20 | Microsoft Technology Licensing, Llc | Setting up multiple displays via user input |
US11145123B1 (en) | 2018-04-27 | 2021-10-12 | Splunk Inc. | Generating extended reality overlays in an industrial environment |
TWI678181B (en) | 2018-04-30 | 2019-12-01 | 長庚大學 | Surgical guidance system |
EP3790491B1 (en) | 2018-05-10 | 2024-08-07 | Memorial Sloan Kettering Cancer Center | Systems for augmented reality surgical and clinical visualization |
US10825563B2 (en) | 2018-05-14 | 2020-11-03 | Novarad Corporation | Aligning image data of a patient with actual views of the patient using an optical code affixed to the patient |
WO2019238209A1 (en) | 2018-06-11 | 2019-12-19 | Brainlab Ag | Gesture control of medical displays |
CN112566578B (en) | 2018-06-19 | 2024-09-20 | 豪迈帝凯奥斯泰纳克公司 | Mixed reality assisted teaching using virtual models or virtual representations for orthopedic surgery |
US10803761B2 (en) | 2018-08-13 | 2020-10-13 | University Of Central Florida Research Foundation, Inc. | Multisensory wound simulation |
US11244509B2 (en) | 2018-08-20 | 2022-02-08 | Fisher-Rosemount Systems, Inc. | Drift correction for industrial augmented reality applications |
US11287874B2 (en) | 2018-11-17 | 2022-03-29 | Novarad Corporation | Using optical codes with augmented reality displays |
US20200186786A1 (en) | 2018-12-06 | 2020-06-11 | Novarad Corporation | Calibration for Augmented Reality |
US20220039868A1 (en) | 2018-12-12 | 2022-02-10 | Howmedica Osteonics Corp. | Orthopedic surgical planning based on soft tissue and bone density modeling |
EP3939030A4 (en) | 2019-03-12 | 2022-11-30 | Magic Leap, Inc. | Registration of local content between first and second augmented reality viewers |
CN113473940A (en) | 2019-03-13 | 2021-10-01 | 史密夫和内修有限公司 | Augmented reality assisted surgical tool alignment |
US11638613B2 (en) | 2019-05-29 | 2023-05-02 | Stephen B. Murphy | Systems and methods for augmented reality based surgical navigation |
US10929670B1 (en) | 2019-10-21 | 2021-02-23 | The Boeing Company | Marker-to-model location pairing and registration for augmented reality applications |
US12016633B2 (en) | 2020-12-30 | 2024-06-25 | Novarad Corporation | Alignment of medical images in augmented reality displays |
US11172996B1 (en) | 2021-01-13 | 2021-11-16 | MediVis, Inc. | Instrument-based registration and alignment for augmented reality environments |
US11786206B2 (en) | 2021-03-10 | 2023-10-17 | Onpoint Medical, Inc. | Augmented reality guidance for imaging systems |
US11948265B2 (en) | 2021-11-27 | 2024-04-02 | Novarad Corporation | Image data set alignment for an AR headset using anatomic structures and data fitting |
-
2018
- 2018-11-17 US US16/194,333 patent/US11287874B2/en active Active
-
2019
- 2019-11-15 EP EP24203296.9A patent/EP4461254A2/en active Pending
- 2019-11-15 WO PCT/US2019/061864 patent/WO2020102761A1/en active Application Filing
- 2019-11-15 EP EP19884630.5A patent/EP3880110A4/en active Pending
- 2019-11-15 KR KR1020217018532A patent/KR20210104715A/en unknown
- 2019-11-15 JP JP2021526746A patent/JP7519354B2/en active Active
-
2022
- 2022-03-28 US US17/706,462 patent/US11989338B2/en active Active
-
2024
- 2024-03-11 US US18/602,003 patent/US20240248530A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017146758A (en) | 2016-02-17 | 2017-08-24 | 株式会社菊池製作所 | Overlapping image display system |
WO2018063528A1 (en) | 2016-08-16 | 2018-04-05 | Insight Medical Systems, Inc. | Systems for sensory augmentation in medical procedures |
US20180247128A1 (en) | 2017-02-28 | 2018-08-30 | Digital Surgery Limited | Surgical tracking and procedural map analysis tool |
Also Published As
Publication number | Publication date |
---|---|
WO2020102761A1 (en) | 2020-05-22 |
US20200159313A1 (en) | 2020-05-21 |
US20240248530A1 (en) | 2024-07-25 |
US20220291741A1 (en) | 2022-09-15 |
JP2022507622A (en) | 2022-01-18 |
US11989338B2 (en) | 2024-05-21 |
KR20210104715A (en) | 2021-08-25 |
EP3880110A4 (en) | 2023-01-11 |
EP3880110A1 (en) | 2021-09-22 |
EP4461254A2 (en) | 2024-11-13 |
US11287874B2 (en) | 2022-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7519354B2 (en) | Using Optical Code in Augmented Reality Displays | |
CN109419524B (en) | Control of medical imaging system | |
JP6400793B2 (en) | Generating image display | |
US11989341B2 (en) | Alignment of medical images in augmented reality displays | |
US12016633B2 (en) | Alignment of medical images in augmented reality displays | |
EP2951779B1 (en) | Three-dimensional image segmentation based on a two-dimensional image information | |
WO2019221908A1 (en) | Aligning image data of a patient with actual views of the patient using an optical code affixed to the patient | |
US11948265B2 (en) | Image data set alignment for an AR headset using anatomic structures and data fitting | |
EP1787594A2 (en) | System and method for improved ablation of tumors | |
JP6548110B2 (en) | Medical observation support system and 3D model of organ | |
WO2023097067A1 (en) | Transfer of alignment accuracy between visible markers used with augmented reality displays | |
US11941765B2 (en) | Representation apparatus for displaying a graphical representation of an augmented reality | |
US20240144497A1 (en) | 3D Spatial Mapping in a 3D Coordinate System of an AR Headset Using 2D Images | |
CN117677358A (en) | Augmented reality system and method for stereoscopic projection and cross-referencing of intra-operative field X-ray fluoroscopy and C-arm computed tomography imaging |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221110 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230831 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230919 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20231218 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240215 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240311 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240625 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240708 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7519354 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |