JP2020508828A - 医療処置のための拡張現実表示とタグ付け - Google Patents

医療処置のための拡張現実表示とタグ付け Download PDF

Info

Publication number
JP2020508828A
JP2020508828A JP2019566058A JP2019566058A JP2020508828A JP 2020508828 A JP2020508828 A JP 2020508828A JP 2019566058 A JP2019566058 A JP 2019566058A JP 2019566058 A JP2019566058 A JP 2019566058A JP 2020508828 A JP2020508828 A JP 2020508828A
Authority
JP
Japan
Prior art keywords
patient
anatomy
medical image
image
acquired medical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019566058A
Other languages
English (en)
Other versions
JP7068348B2 (ja
Inventor
ウェンデル アーレン ギビー
ウェンデル アーレン ギビー
スティーブン トッド クヴェトコ
スティーブン トッド クヴェトコ
Original Assignee
ノバラッド コーポレーション
ノバラッド コーポレーション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=62684441&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2020508828(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by ノバラッド コーポレーション, ノバラッド コーポレーション filed Critical ノバラッド コーポレーション
Publication of JP2020508828A publication Critical patent/JP2020508828A/ja
Priority to JP2022074245A priority Critical patent/JP2022103224A/ja
Application granted granted Critical
Publication of JP7068348B2 publication Critical patent/JP7068348B2/ja
Priority to JP2024003332A priority patent/JP2024024126A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/065Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
    • A61B5/066Superposing sensor position on an image of the patient, e.g. obtained by ultrasound or x-ray imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1072Measuring physical dimensions, e.g. size of the entire body or parts thereof measuring distances on the body, e.g. measuring length, height or thickness
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1075Measuring physical dimensions, e.g. size of the entire body or parts thereof for measuring dimensions by non-invasive methods, e.g. for determining thickness of tissue layer
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/90Identification means for patients or instruments, e.g. tags
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/90Identification means for patients or instruments, e.g. tags
    • A61B90/94Identification means for patients or instruments, e.g. tags coded with symbols, e.g. text
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/90Identification means for patients or instruments, e.g. tags
    • A61B90/94Identification means for patients or instruments, e.g. tags coded with symbols, e.g. text
    • A61B90/96Identification means for patients or instruments, e.g. tags coded with symbols, e.g. text using barcodes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/90Identification means for patients or instruments, e.g. tags
    • A61B90/98Identification means for patients or instruments, e.g. tags using electromagnetic means, e.g. transponders
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00207Electrical control of surgical instruments with hand gesture control or hand gesture recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00216Electrical control of surgical instruments with eye tracking or head position tracking control
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/363Use of fiducial points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/372Details of monitor hardware
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/374NMR or MRI
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Dentistry (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Electromagnetism (AREA)
  • Gynecology & Obstetrics (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Endoscopes (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

【課題】 医療処置で使用される医療画像を拡張する技術を説明する。【解決手段】 方法は、医療処置中に仮想画像カメラによって撮影された患者の解剖学的組織の画像を受信する操作を含む。その後、患者の解剖学的組織と関連する取得された医療画像を検索することができる。別の操作では取得された医療画像を患者の解剖学的組織に関連づけることができる。取得された医療画像の1つの層にある位置と関連する拡張タグを検索することができる。さらなる操作では、2D、3D、またはホログラムの形式で、患者の解剖学的組織へのオーバーレイとして単一のグラフィックビューを形成するために、拡張現実ヘッドセットを使用して、取得された医療画像と拡張タグを投射することができる。【選択図】 図1A

Description

複合または拡張現実とは、物理的世界と仮想コンピューティングの世界からの画像を複合現実世界に結合する、コンピューティング技術の振興分野である。複合現実は、以前は物理的現実のみまたは仮想現実のみとみなされていた、幅広い技術的組み合わせを含む。複合現実には、物理的および仮想世界からの人物、場所、オブジェクトが混合された環境で融合する。複合現実体験は、既存の商用オペレーティングシステムまたはカスタムのオペレーティングシステムを通じ、互換性のあるVR(仮想現実)またはAR(拡張現実)ヘッドセットを使用により可能となる。
拡張現実(AR)は、物理的な現実世界の環境のライブの直接的なビューまたは間接的なビューが、音声、ビデオ、グラフィックス、さらには全地球測位データなどのコンピュータ生成の感覚入力によって拡張または補完される複合現実の一例である。その結果、テクノロジーは視聴者の現在の現実認識を高めることができる。従来、現実世界の場所が表示されており、環境要素との意味的文脈において、拡張が実行される。高度なARテクノロジー(例.コンピュータビジョンとオブジェクト認識の追加)の助けを借りて、ユーザの周囲の現実世界に関する情報は、インタラクティブになり、デジタル操作が可能である。環境とそのオブジェクトに関する情報を現実世界にオーバーレイする。現実世界にオーバーレイされ田中この情報は仮想画像、または現実の情報である。拡張現実は、デジタル世界のコンポーネントを人が知覚する現実世界にもたらす。
米国公開公報2014/0275760号公報
本技術は、複合現実または拡張現実装置を使用して、外科的、侵襲的放射線、心臓または他の医療処置を改善するシステムおよび方法を提供する。拡張現実(AR)ヘッドセットなどの拡張現実装置は、一部が透明のレンズまたはスクリーンに投射された画像を使用して、取得された医療画像または仮想画像を現実世界の場面(例.現実世界でユーザが見ているもの)にオーバーレイするために使用される。外科的処置の場合は、既に取得された医療画像は、表示可能な患者の解剖学的組織のオーバーレイ画像として使用される。取得された医療画像は、MRI(磁気共鳴画像法)、蛍光透視法、CT(コンピュータ断層撮影)、超音波検査、核医学、コンピュータ生成画像(CGI)、写真、ビデオまたは他の種類の取得されたまたは合成された医療画像である。合成された医療画像の例は、手術をガイドするための患者の解剖学的組織上の解剖学的アトラスオーバーレイである。取得された医療画像は、治療されている患者の解剖学的組織の適切な部分に取得された医療画像を向ける位置にあるARヘッドセットのレンズに投射することができる。
取得された医療画像のオーバーレイは、より正確に患者の解剖学的組織に治療または手術を行う外科医、医師、または他の医療専門家を支援する。患者に手術を行っている医師や他の医療専門家が直面する1つの課題は、正しい患者の解剖学的組織が手術されているのを保証することである。間違った人、間違った四肢、または間違った場所に手術されている場合、結果が悪い可能性がある。本テクノロジーは、患者の解剖学的組織をより正確に特定する拡張現実タグを提供する。患者に取り付けた患者識別子(例.物理的識別子)もまた撮影され、患者識別子を使用して、患者の処置のために関連する取得された医療画像および拡張現実タグを読み込む。例は、バーコード、QRコード、患者ID、物理的タグなどである。形態測定データもまた現実世界で患者の解剖学的組織の表示から取得でき、その後、形態測定データを治療する四肢または解剖学的組織の格納された形態測定データと比較する。形態測定データが一致すると、続いて治療に進む。さもなければ、形態測定データに基づきエラーがフラグ付けされる。これらの方法(例.患者識別子または形態測定データ)のいずれかを使用して、患者、および治療する解剖学的組織の領域を特定する。
取得された医療画像で医療処置を拡大する、拡大現実ヘッドセットの使用例である。 脾臓用の三次元拡大タグの説明である。 複数の拡張タグの使用例の説明である。 自動的に三次元拡張タグに変換される二次元拡張タグの説明である。 腎臓用二次元拡張タグを図示する。 腎臓用三次元拡張タグを図示する。 腫瘍用三次元拡張タグを図示する。 画像化された皮膚で覆われた、腫瘍用三次元拡張タグを図示する。 結腸内の解剖学的組織用の三次元拡張タグを図示する。 結腸内の解剖学的組織用の三次元拡張タグを図示する。 虫垂用オーバーレイとして使用される、取得された医療画像内の拡張タグを図示する。 虫垂用オーバーレイとして使用される、取得された医療画像内の拡張タグを図示する。 虫垂用オーバーレイとして使用される、取得された医療画像内の拡張タグを図示する。 虫垂用オーバーレイとして使用される、取得された医療画像内の拡張タグを図示する。 患者の頭部にオーバーレイされ、患者の頸部の断面を描写する、取得された医療画像を図示する。 患者の頭部にオーバーレイされる取得された医療画像、および拡張現実ヘッドセットを制御するために手の身振りが使用されることを図示する。 物理的な患者識別子を使用して医療処置を拡張する、拡張現実ヘッドセットの使用例の説明である。 データストレージから引いたデータを使用する医療処置のビューを拡張するためのシステム例を説明するブロック図である。 医療処置のビューを拡大する方法を説明するフローチャートである。 医療処置のビューを拡大する方法を説明するフローチャートである。 現在のテクノロジーで採用されるコンピューティング装置の例示を提供するブロック図である。
図1Aは、ARヘッドセット112を使用している医師または医療専門家110を図示する。一例では、ARヘッドセット112により医療専門家は拡張現実画像または取得された医療画像を半透明のレンズに投射するレンズを通して見ることができる。より詳しい例として、MRI画像を手術が行われる領域にオーバーレイする。オーバーレイされた画像は、半透明のレンズまたは半透明の光学イメージング領域を通じて見ている現実世界のシーンとのビューの合成をもたらす。画像をオーバーレイするこの機能の側面は、患者が横たわる空間の文脈的マップを作成するために拡張現実ヘッドセット内に存在し、手術前に取得された画像のホログラムなどの3D患者データを現実世界の患者の解剖学的組織への融合を可能にするカメラである。
拡張医療画像で医療処置または手術を拡張するために、医師または他の医療専門家は手術領域102にARヘッドセット112を設置する。ARヘッドセット112と関連するプロセッサはARヘッドセット112の視覚画像カメラを使用して患者の解剖学的組織116の画像を受信する。続いて患者の解剖学的組織と関連する取得された医療画像114を検索する。この取得された医療画像は、無線接続を介してARヘッドセットのプロセッサとメモリに供給されるMRIまたはCT画像である。
その後、取得された医療画像114を、ARヘッドセット112によって現実世界の場面または空間で特定されている患者の解剖学的組織に関連付け、またはアンカリングする。アンカリングは、取得された医療画像または他の関連する仮想画像(拡張制御を含む)を、ARヘッドセット112によって登録されている視認可能な現実世界内の固定点へと固定するまたはアンカリングすることを含む。後に、医師が視点位置を動かす場合、取得された医療画像114は患者の解剖学的組織に対して正しいスポットに固定されたまま残り、医師の視界で動き回らない。
また、取得された医療画像114または放射線画像の1つの層の場所と関連する拡張タグ118も検索することができる。拡張タグは、行われる医療処置と関連する解剖学的構造を特定するために、取得された医療画像114または放射線画像の三次元(3D)構造に適合するように構成される。拡張タグは、円、正方形、三角形などの単純な幾何学的形状、または問題の解剖学的組織の輪郭などの二次元または三次元のより複雑な形状である。
図1Bは、拡張タグが取得された医療画像に事前にラベルを付けるために使用することを図示する。医師が患者の脾臓170の手術を行う場合、医師は病状(例.脾臓摘出または他の脾臓の状態)の診断中に、患者の脾臓に拡張タグを適用する。拡張タグは、医師によって緩くマークされた患者の解剖学的組織の一部を覆う。続いて拡張プロセッサは解剖学的組織の端部を検出し、または機械パターン認識を使用して拡張タグが解剖学的構造に適合するように、拡張タグを拡張または収縮する。後に、医療処置、診断または手術が行われる際に、医師は解剖学的構造(例.脾臓)にある拡張タグを見て、治療のために構造の明確な特定をより確実にすることができる。
図1Cは、拡張タグまたは取得された医療画像の複数の解剖学的組織層に提供されることを図示する。例えば、拡張タグは、取得された医療画像の各層の異なる構造と、患者の解剖学的組織のこれらの別々の層で起こる様々な処置を特定することができる。さらに、外科医をガイドするタググループ130a−eを形成するために、拡張タグを関連付ける。より詳しい例として、手術が必要な病気の解剖学的構造のグループがあり、これらの構造は順序付けられたグループで一緒に連携でき、外科医を1つの拡張タグから次へとガイドことができる。これにより、手術の必要がある解剖学的組織を見逃し、また重要な処置をスキップすること等がなくなる。同様に、外科医が通常ではない順序を記憶するのを支援するために、選択された順序で異なる構造に対処するために順序を提供する。
別の例として、拡張タグは、繊細で、構造が破損されると問題を引き起こす動脈120などの構造を避ける安全な経路を通して外科医をガイドする。このようにして、外科医は手術が始まる前に、手術のマッピングされた経路を持つことができる。一緒に連携された複数の拡張タグを使用し、患者の解剖学的組織を通る手術経路を示す。例えば、タグを使用し、外科医が複数の層を通過する時に切断を計画している箇所を外科医に示す。拡張タグはまた外科医に、横方向に切断する箇所、内視鏡と共に移動する箇所を示す。これにより、拡張タグと取得された医療画像を使用する際の手術中、外科医はあらかじめ手術のルートをより正確に計画することができる。これにより、手術のリスクを低減し、全体的な患者結果を改善する。
いくつかの場合において、取得された医療画像および放射線画像を、横断する1つの解剖学的構造を表すために複数の拡張タグを合わせて連携する。したがって、各タグはその解剖学的構造を別の層で特定する。
図1Aに戻り、取得された医療画像114および拡張タグ118をその後、拡張現実ヘッドセット112のレンズに投射され、ARヘッドセット112を装着している医療専門家向けに単一のグラフィックビューを形成する。その結果、取得された医療画像114および拡張タグ118はあたかも画像が患者の解剖学的組織に直接オーバーレイされているように見える。
代替の構成では、拡張タグには拡張タグから離れて伸びる幾何学的形状のタグ拡張子122(図1B)を有する。幾何学的形状の例は、旗、多角形、長方形の箱型、ピラミッド、または外科医に情報を表示する他の拡張子である。タグ拡張子に表示される情報は解剖学的組織に行われる処置を特定し、患者を特定し、既存の患者リスクを特定し、薬物アレルギーを特定し、患者の解剖学的組織に直接関連していないが、患者または医療処置に関連している既知の合併症、または他のデータを特定する。
今、図1Dを参照し、拡張タグの1つのさらなる構成において、医師は、取得された医療画像の複数の1つにそれぞれ位置する1つ以上の2D(二次元)の拡張タグ150a−bを作成する。複数の2D(二次元)の拡張タグは、アプリケーションによって自動的に結合されて、取得された医療画像の複数の層を通って伸びる3D拡張タグまたは3D形状を形成する。例えば、1つの方法は、2Dタグから3D形状160を形成するように構成される。同様に、2D画像または取得された医療画像の1片に、1つ以上の2D画像で注釈をつけることができ、そして、線、長方形、正方形、球体、正多角形、不規則な多角形、またはメニューから選択可能な他の形状などの既知の3D形状を使用して、3D形状へと拡張させることができる。3D取得された医療画像にマークを付けることは、そのような画像には多くの層があるために困難な場合があるが、自動的に3D画像に変換できる2Dマーキングを有効にすると、医療専門家にとって取得された医療画像のマーキングが容易になる。また、対象の患者の解剖学的組織内の構造の患者輪郭を描画し、その後、アプリケーションは端部と特徴の検出を使用して、解剖学的構造の残りの部分を特定する。この自動オブジェクト検出により、アプリケーションで検出された完全な輪郭または完全な形状を使用して、治療する患者の解剖学的組織を特定する。例えば、切除される臓器は、手技、解剖学的端部検出、または臓器を見つけるようにシステムが訓練されているニューラルネットワークのいずれかで強調表示する。
取得された医療画像は、MRI(磁気共鳴画像)、磁気共鳴血管造影(MRA)、fMRI(機能磁気共鳴イメージング)、マンモグラフィー、CT(コンピュータ断層撮影)、蛍光透視法、X線、核医学(例.骨スキャン、甲状腺スキャンなど)、PET(ポジトロン放出断層撮影)、超音波画像またはその他の医療イメージング技術を使用して取得される放射線画像である。取得された医療画像は、大腸内視鏡検査、仮想大腸内視鏡検査、または関節鏡検査など、人体の内部写真画像を使用して作成された画像である。さらに、取得された画像には、仮想3D空間でグラフィカルにレンダリングされ、取得された医療画像に追加された、完全に仮想的な要素が含まれる。これには、レンダリングされたタグ、レンダリングされた解剖学的組織(例.レンダリングされた骨、神経、腱など)、レンダリングされる整形外科用ハードウェア、または他の同様の仮想レンダリングが含まれる。
図1Eは、腎臓用二次元(2D)拡張タグを図示する。この場合、医療専門家は取得された医療画像の2D片または層に注釈をつけて拡張タグ172を作成する。医療専門家は、腎臓の輪郭を慎重に描くか、腎臓組織の中心質量の中の1つのポイントを選択し、腎臓の境界を見つけるようにアプリケーション尿球することによって画像を表記する。この2D拡張タグは、本開示で説明される三次元(3D)拡張タグへと変換することができる。代替の構成では、図1Eは、3D拡張タグの2D断面ビューを図示する。
図1Fはさらに、腎臓174用三次元(3D)拡張タグを図示する。3D拡張タグは、医療専門家が2Dタグを取得し、取得された医療画像で医療専門家が選択した腎臓組織に類似した組織を特定することによって作成する。アプリケーションが腎臓と考えているものを特定したら、医療専門家は、医療処置で対処する必要があるものを正確に特定するために腎臓の形状を変更する。これは、アプリケーションによって正しく取得されなかった突起や領域を特定するために拡張タグを調整し、拡張タグに入れたくない部分を除外することを含む。あるいは、必要に応じて医療専門家は完全に3Dの腎臓に注釈をつける。医療専門家が解剖学的構造の大きさを判断するのを支援するために、3D拡張タグを計算する。
図1Gは、腫瘍176の三次元(3D)拡張タグを図示し、3D拡張タグは患者の腸構造及び骨構造を描く取得された医療画像と共に示され、腫瘍は腸構造の下にある。取得された医療画像内で、医療専門家が様々な状況で(例えば、腸の有無にかかわらず)拡張タグを見ることができるように、腸構造はオンまたはオフにされる。図1Hはさらに、画像化された皮膚で覆われた腫瘍の3D拡張タグを図示する。画像化された皮膚を使用するこのビューは、医療処置を実行する必要がある医療専門家に異なる文脈を提供する。前述のように、拡張タグ付きのこれらの医療画像を、ARヘッドセットを使用してオーバーレイとして使用する。
図1Iおよび1Jは、結腸の解剖学的構造(例.ポリープまたは腫瘍)の3D拡張タグを図示する。結腸の画像は、ニューラルネットワークの機械学習方法を使用して作成される。結腸内のポリープまたは可能性のある癌性構造は、ニューラルネットワークの機械学習技術を使用して特定する。ニューラルネットワークは、ポリープを検出または分類できるように、多数の医療トレーニングデータケースを使用してトレーニングされている。あるいは、より容易にポリープをマークするために、医療専門家は渇区長タグでポリープをマークするか、アプリケーションの自動支援を使用する。
図2Aは、虫垂に関連する医療処置のために、ARヘッドセットとオーバーレイとして使用する拡張タグ210および取得された医療画像212を図示する。拡張タグ210および取得された医療画像212は患者の右側から見られた。また、取得された医療画像212は骨格構造や他の患者の臓器を図示する。この図では、拡張タグは暗い半球構造として(またはいくつかの関連図では明るい構造として)図示されている一方、色付き(例.緑、赤、青など)または手触り(例.けば、縞模様または他の手触りなどの特殊グラフィックの手触り)である他の拡張タグが使用される。図2Bは、患者の左側で見られる同じ拡張タグ210および取得された医療画像を図示する。図2Cは、患者の右側から見られた虫垂の拡張タグ210と、取得された医療画像からの部分矢状面の断面図である、取得された医療画像のオーバーレイを図示する。図3Dは、拡張タグ210、および取得された医療画像の横断面における断面図である、取得された医療画像を図示する。
図3Aは、拡張現実ヘッドセットの使用を図示し、患者の頭部と脳の取得された医療画像は患者の頭部の現実世界のビューにアンカリングされている。画像で分かるように、患者の脳の断面は患者の頭部や首のオーバーレイで見ることができ、医療従事者は、医療専門家による侵襲的行為の前に、患者の解剖学的構造を見ることができる。
図3Bは、ARヘッドセットを制御するために、手の身振りがARヘッドセットの前にあることを図示する。例えば、手を開いたり閉じたりすることで、ズームや縮小のモーションを行うことができる。同様に、取得された医療画像の両側をつまみ、両手を上下に動かすことによって、取得された医療画像の複数の層を動かすことができる。
この技術は、拡張現実(AR)ヘッドセット、仮想現実VRヘッドセット、頭部に装着していない透明なオーバーレイシステム、または利用可能あるいは利用可能になる他のタイプの複合現実システムを使用する。この技術の説明をさらに支援するために、ARヘッドセットの一例を今、説明する。ただし、この技術の使用はARヘッドセットだけに限らず、他の種類の拡張現実または複合現実システムを使用する。ARヘッドセットの一例には、医療専門家の頭部を包む厚いバイザーのようなバンドがある。バイザーは軽量で、異なる頭部のサイズに合うように調節可能である。いくつかの構成では、ARヘッドセットは無線でネットワーク接続され、音声出力を提供する。あるいは、医療専門家は矯正眼鏡のようにARヘッドセットを装着し、ARヘッドセットのプロセッサ部分は人の腰回りに装着され、または別の処理ステーションに接続する。
ARヘッドセットは、ホログラフィックレンズや深度カメラ、耳の上のスピーカ、および少なくとも1つのGPU(グラフィック処理ユニット)を備えた搭載型プロセッサを含む。また、ヘッドセットは、ヘッドセットの過熱を防ぐための通気孔を含む。無線接続は、Bluetooth(登録商標)、Wi−Fi(登録商標)、ZigBee(登録商標)、セルラーまたは他の種類の無線接続である。
ARヘッドセットには、周囲光センサや、深度センサーカメラと組み合わせて動作して拡張現実環境を作成できる作業空間を特定する複数の環境センサーカメラなど、追加のサポートセンサが含まれる。
また、写真を撮って複合現実ビデオを記録するために、高解像度カメラもARヘッドセットに含まれる。ローカルの音声を取得するために、複数のマイクロフォンが含まれる。ARヘッドセットは充電式電池システムを含み、またはARヘッドセットはラップトップのようにアダプターから電力を受け取る。
いくつかのARヘッドセットは、手の身振り、声、またはリモートコントローラによって制御され、そのような制御はARヘッドセットのオブジェクトを制御するために使用される。手の身振りもまたARヘッドセットの前で行われ、1つ以上の正面カメラによって撮影される。さらに、マウス、スタイラス、クリッカーなどのポインター装置、または他のポインター装置がARヘッドセットを制御するために使用される。
深度カメラは低電力で、例えば、X軸で60度、Y軸で60度の視野がある。深度カメラの他の視野も使用することができる。ヘッドレストの周りに複数のカメラがある場合がある(すなわち正面と側部)。これらのカメラは、物理的な周囲のビデオを撮影し、身振りを識別するためにユーザの手を追跡し、ARヘッドセットのモーションセンサと共に頭の動きを追跡するのに役立つ。
取得された医療画像、仮想モデル、および拡張タグをライブ環境に複合する能力とは、レンズが透明であることを意味する。それぞれの目用に1つのレンズで2つのレンズがある1つの構成において、レンズはガラスの三層構造(青、緑、赤)で構成されている。レンズの上の投射エンジンまたは光エンジンは、ヘッドセット内に光を投射し、ガラスの各層にある小さな波形の溝がこれらの光粒子を回折し、光が跳ね返って、仮想物体を仮想距離で知覚する錯覚を高める。これらの画像は、ホログラムと呼ばれるものとして表示される。ARヘッドセットが部屋をマッピングすると、画像は半透明レンズを通して実際の環境へと複合させることができる。
ARヘッドセットは、現実環境または部屋に対して仮想画像またはオブジェクトをアンカリング、または「ピン留め」することができる。仮想オブジェクトまたは仮想画像が表示可能な環境または現実環境の所定の場所にロックされると、ユーザはそのオブジェクトまたはオーバーレイ画像を動かすことなく、仮想オブジェクトを見るために、仮想オブジェクトまたは仮想画像の周りを動くことができる。
図4は、ARヘッドセット412を使用する医療専門家410の医療処置402のビューの拡張を図示する。患者の解剖学的組織や周囲環境または部屋のライブ画像は、ARヘッドセット412のライブ画像カメラを使用して入手する。患者マーカ420は、患者に配置され、ARヘッドセットによって取得される患者の解剖学的組織の画像またはビデオ内で特定する。患者マーカ420は、患者識別情報、手術する解剖学的組織、患者方位マーカ422、および/または画像反転防止タグ422を含む。患者方位マーカ422および画像反転防止タグ422は、それぞれ別々にしてもよく、又は患者マーカ420と組み合わせて1つのマーカまたはタグとしてもよい。
患者に取り付けたバーコードなどの視覚的にスキャン可能なシンボルは、患者の身分(identity)を検索し、1つの関連する取得された医療画像414または複数の関連する取得された画像を検索するために、情報を提供する。患者方位マーカ422は、取得された医療画像が患者の解剖学的組織に対して向けられているのを保証するために使用される。放射線画像内の患者マーカ420および画像方位マーカ422を取得された医療画像と一致させて、患者の解剖学的組織上の患者方位マーカ422と取得された医療画像の方向を一致させる。これにより、取得された医療画像414を患者の解剖学的組織と位置を合わせる際の、方位または較正エラーを回避することができる。画像反転タグ422を使用して位置合わせが行われる時に、画像が反転や、裏返らないようにする。
技術の1つの構成において、バーコード、QRコード、または特殊マーカを使用して医療処置のために正しい患者にマークし、患者の右側にマークし、または医療処置を行う正しい四肢にマークする。患者の解剖学的組織上の光学的にスキャン可能なコードまたはマーカもまた、患者の取得された医療画像および/または解剖学的組織が提供された患者マーカ420と一致するかを見るために、取得された医療画像と関連する患者データと比較する。
取得された医療画像414は患者マーカ420に基づいて患者の解剖学的組織416に関連づけることができる。これは、事前に特定されたように、患者の身分および手術対象の解剖学的組織に基づいて、正しく取得された医療画像414を検索できることを意味する。取得された医療画像414は、患者方位マーカ422または画像判定防止タグ422に部分的に基づいて、患者の解剖学的組織にアンカリングまたは固定することができる。または、患者の解剖学亭組織416のトポロジー構造を特定することによって、取得される医療画像414を患者の解剖学的組織にオーバーレイさせることができる。このプロセスを自動化させることで、エラーを減らし、高価な手術室時間を大幅に低減することができる。
また、患者マーカ420と関連する拡張タグ418、および取得された医療画像または放射線画像の位置も検索することができ、患者の解剖学的組織416にオーバーレイした拡張タグ418の閲覧を可能にする。取得された医療画像414および拡張タグ418は拡張現実ヘッドセット412のレンズに投射することができ、表示されている患者の解剖学的組織の上に仮想的にオーバーレイする単一のグラフィックビューを形成する。
1つの構成において、内視鏡ビデオフィードを単一のグラフィックビューに組み合わせる。拡張タグも使用して、内視鏡ビデオフィード内の3D構造の大きさや形状を特定し、内視鏡が患者の解剖学的組織のどこにあるかの推定を特定する。
図5は、外科的処置等の医療処置の視野を拡張するためのシステムを図示する。システムはARヘッドセット542内のカメラ、またはシステムと関連するカメラを含み、カメラは患者の解剖学的組織510のライブ画像を取得するように構成される。カメラは、ARヘッドセット542により分析のために、視認可能な患者の解剖学的組織のライブビデオフィードを提供する。ビデオを分析し、四肢の位置、端部の検出、深度の検出または撮影したビデオ画像内の特徴などの環境の方位の手がかりを特定する。さらに、ライブビデオを録画し、あるいは別の位置へとストリーミングする。
システム内の拡張プロセッサ520は、カメラが撮影した患者の解剖学的組織510の形態測定値を測定または定義するように構成される。形態測定値とは、四肢または患者の解剖学的組織の形状、幅、高さ、深度、および輪郭についてのメトリックである。これらの形態測定値は、参照オブジェクトまたは測定キーが提供される相対測定または絶対測定である。拡張現実システムは、深度カメラまたは距離測定カメラを使用して患者の外部輪郭をマッピングし、イメージング技術で取得された患者の3Dデータの表面層と比較できる、多角形のメッシュを作成する。したがって、3Dでの指紋のように、「仮想」と「現実」の両方のデータを比較することができる。
拡張プロセッサ520は、ライブビデオまたは画像から測定された形態測定値が、患者マーカ530を使用して検索された患者の解剖学的組織と関連する事前測定の形態測定値と一致するかどうかを決定する。例えば、人の中に表される患者の脚には、長さ、幅、高さ、形状、または他の事前測定された形態測定値と一致させることができる、形態測定値のための特定の測定値がある。
その後、患者の解剖学的組織と関連する取得された医療画像524は、患者マーカ530および患者の解剖学的組織510によって画定されるものとして検索される。取得された医療画像540は、形態測定値および確認された形態測定値を使用して患者の解剖学的組織510と位置を合わせる。
システムは、取得された医療画像522や拡張タグ524をARヘッドセットの半透明レンズに投射し、ARヘッドセットを使用しているユーザまたは医療専門家に表示されている患者の解剖学的組織にオーバーレイされている、単一のグラフィックビュー540を形成するように構成されるARヘッドセット542を含む。例えば、同様の画像をそれぞれの目の中に投射し、それによって3D(三次元)の表示効果が得られる。
また、取得された医療画像が形態測定値によって画定されたとして、患者の解剖学的組織と一致するという通知を医師や医療専門家に提供する。この方法により、正しい患者および正しい身体構造(正しい脚または腕等)が正しく取得された医療画像522で操作されているのを医師に保証する。患者マーカによって患者の身分をチェックするだけではなく、検索された情報または画像を、以前に行われた形態測定値と比較して、現実世界で見られる現実の患者の解剖学的組織の比較を使用して確認する。一致が確認されると、医療処置が正確または正しくなる可能性が高くなる。
医療処置中の患者からの形態測定値が、以前収集された患者識別子と関連する形態測定値と一致しない場合、その後、医師または医療専門家に警告またはエラーを提示する。一致エラーが起こる場合は、医師はどの情報をさらに確認する必要があるか、そしてその医療処置を進めるか、あるいは医療処置を終了するかを決定する。この確認は、患者が鎮静状態にあり、処置にあたっている医療専門家と通信できない場合に特に重要である。
医療問題を特定するために撮影中の形態測定値を分析し、または患者の解剖学的組織を撮影し、その後問題の治療にその形態測定値データを確認することは、より正確な患者の治療をもたらし、可能性があるエラーを回避することができる。その結果、この技術は、患者の、または記録が望まれる患者の解剖学的側面の形態測定値の記録を実行する。その後、事前に取得された解剖学的構造と、医療処置中にARヘッドセットを使用して現在見られている解剖学的構造の形態測定値の比較が一致しない場合、医療専門家にグラフィック警告を提供する。
例えば、医師が患者の頭蓋骨を手術する場合、医師は頭蓋骨に穿頭孔をあける必要があり、その後、医師は、拡張現実手術システムに患者をチェックさせて、医療処置におけるその患者の頭蓋骨の形状が、診断段階で以前に撮影された取得された医療画像の情報として同じ形状と一致するのを確認する。頭蓋骨の形状が同一でない場合、医師または医療専門家に対して警告が点滅される。大きさ、形状、脂肪量、顔の詳細、および同様の頭蓋骨の詳細等、解剖学的構造の特定のメトリックを、患者のこれらの詳細を以前測定して記憶した形態測定値データと照合して確認する。
形態測定値分析の文脈において、バーコードによるマーキングシステムをスキャンして患者を特定することができる。例えば、IDバンドをスキャンし、バーコードによりID情報は患者の取得された医療画像と形態測定値データのダウンロードを始動する。その後、取得された医療画像と関連する形態測定値のデータがある取得された医療画像の取得を、ライブ画像から計算された形態測定値データ、またはARヘッドセットを使用して患者から撮影された医療処置に対して確認することができる。形態測定値を使用して患者の身分が確認されると、その後、拡張タグを配置し、取得された医療画像と組み合わせる。最後に、患者の身分、取得された医療画像、形態測定値および手術の同様の側面が検証されているため、外科医は医療処置を開始する。
上で説明されたように、患者マーカ530は患者の解剖学的組織510の画像内で特定され、患者マーカ530は患者を特定する情報、およびデータベースに格納された事前測定された形態測定値の測定526を含む。患者マーカ530は、1D(一次元)バーコード、2D(二次元)バーコード、写真画像、カスタム生成された幾何学的形状、またはRFID(無線周波数ID)の少なくとも1つを含むスキャン可能なシンボルで、患者マーカ530からの情報を使用して患者の身分、患者情報528を検索し、そして取得された医療画像522を検索する。より具体的な例で、患者マーカ530には、別のデータベースに格納された事前測定された形態測定値526の検索または問い合わせに使用されるデータベースキーまたは値がある。仮想スキャン、ブレスレット、RFIDまたは形態測定を使用して患者の身分が取得されると、その後、患者の身分および他の患者情報と一致する取得された医療画像522を、身分および取得された医療画像と一致する拡張タグに沿って配置する。これらの拡張タグは、識別タグおよび/または形態測定で決定された患者の身分に基づきロードされ、指向される。
システムはまた、患者方位マーカ532および取得された医療画像または放射線画像内の位置(例.取得された医療画像内のデカルト座標または他の相対座標)と関連する拡張タグを検索する。取得された医療画像の画像および拡張タグは、患者マーカおよび位置を使用して単一のビューへと合成される。さらに、患者方位マーカ532を使用し、または取得された医療画像あるいは放射線画像内の画像方位タグと一致させて、患者の解剖学的組織上で取得された医療画像を正確に指向させる。
拡張プロセッサを含むシステムは画像反転タグ532を特定する操作も行う。取得された医療画像および患者の解剖学的組織は、画像反転タグを使用して位置を合わせることができ(例.回転させる、裏返しまたは反転させる)、取得された医療画像が患者の解剖学的組織に対して正しく指向されるようにする。
本発明のシステムの別の例では、ヘッドセットは仮想現実(VR)ヘッドセットで、その中に患者および手術室のビデオフィードが供給され、そのビデオフィードと共に取得された医療画像を合成する。この場合、VRヘッドセットは透明ではなく、VRヘッドセットにより合税画像を診断または他の治療目的に使用することができる。
1つの例において、形態測定を使用して内視鏡検査、関節鏡検査、腹腔鏡検査などの医療処置中に、処置のロードマーカを特定する。例えば大腸内視鏡検査では、医療処置の前に特定のユニークな形状の解剖学的構造をマークする。これらの解剖学的組織は拡張タグを使用してマークされる。1つの特定例では、医療処置で5つの構造をロードマーカまたはマイルストーンとしてマークする。実際の医療処置が進むにつれて、システムはカメラ画像を通して見た5つの構造の1つに一致し、形態測定値を使用して記録済である物理的オブジェクトを見ることに基づいて、外科医の内視鏡が患者の解剖学的組織内のどこに位置するのかを外科医に示す。この位置は患者の解剖学的組織へのオーバーレイとして、または取得された医療画像との組み合わせとして表示される。このマッチングは、処置中に5つの構造の全てが特定されるまで進む。
大腸内視鏡検査では、多くの反復する構造が存在するため、異常な構造が事前にタグ付けされている場合、大腸内視鏡検査からのビデオフィードと以前にタグ付けされた解剖学的構造とに一致があると、システムは内視鏡が結腸内にある推定位置を、大腸内視鏡検査を行っている外科医または医療専門家に提供する。このタイプの推定は、腹部、関節、肺、他の胃腸系部分(例.小腸または胃)、生殖器官、尿管、呼吸器系等で発生する可能性のある、他のタイプの内視鏡スタイルの手術にも同様に適用することができる。この技術は、取得された医療画像(MRI、CTスキャン)、または取得された医療画像内の移動距離または一致した解剖学的構造に基づいた仮想画像の内視鏡または関連処置器具の位置を示す。
システムはまたマルチフィード表示も提供する。医療専門家向けの視覚的な出力は、1)可視皮膚の画像(可視光カメラによって撮影)、2)内視鏡からの画像または映像、3)仮想レンダリング画像(CGIまたはコンピュータ生成画像)、4)拡張タグおよび/または5)取得された医療画像(例.X線、MRIまたはCT画像)を表示する。これにより、医療従事者は複数の画面(例.MRI用、内視鏡装置用、医療チャート用等)の代わりに単一の画面で複数の画像を見ることができる。また、これにより、医療専門家は異なるデータビューを切り替えることができる。
本明細書で言及される「医療専門家」は、医師、医師助手、看護師医療専門家、医療専門家、そして他の様々なタイプの医療専門家を含む。
本明細書で言及される「医療処置」は、病気の診断、治療、予防の科学または実践を含む。医療処置は、人間の病気の予防や治療によって、健康を維持および/または回復することを目的としたさまざまな医療行為を含む。医療処置は、薬物療法や手術などの他、心理療法、牽引、人工装具、生物製剤、イオン化などの治療を通じて、怪我や病気を診断し治療するための、健康科学、生物医学研究、および医療技術に関連するタスクにも適用される。
本発明の技術は医学に関連して説明されているが、あるいは、技術は、タスクの完了に関係する時間、労力、スキルなどを示す単位のタイプにより、生産性が測定される技術、科学などの他の分野にも適用される。
図.6は、医療処置で使用するために医療画像を拡張する方法を示すフロー図である。方法は、ブロック610で、仮想画像カメラを使用して患者の解剖学的組織の画像を受信することを含む。患者が医療処置を受けている時に患者の解剖学的組織の画像を収集する。その後、ブロック620で、患者の解剖学的組織と関連する取得された医療画像を検索する。取得された医療画像の一例は、MRI、fMRIまたはCTスキャンである。
その後、ブロック630で、取得された医療画像を患者の解剖学的組織に関連づける。この関連付けとは、取得された医療画像の同じ解剖学的組織のポイントと一致する患者の解剖学的組織の参照ポイントに、取得された医療画像をアンカリングまたは固定することである。その後、ブロック640で、取得された医療画像内の1つの層の位置と関連する拡張タグを検索する。この拡張タグは、解剖学的構造、切開を行うポイント、または医療処置用の他のマッピングやマーキングを表す。ブロック650で、取得された医療画像および拡張タグを拡張現実ヘッドセットのレンズに投射し、単一のグラフィックビューを形成する。
図7は、医療処置のビューを拡張する方法を示すフロー図である。ブロック710で、方法はライブ画像カメラを使用して患者の解剖学的組織の画像を受信することを含む。これは、医療処置が進行中の患者の画像である。ブロック720で、対象の画像内の患者マーカを特定する。患者マーカは、患者を識別する情報、手術を行う解剖学的組織、患者方位マーカまたは画像反転防止タグを含む。
ブロック730で、患者の解剖学的組織と関連する取得された医療画像は、患者マーカの一部に基づいて検索される。取得された医療画像は、放射線医療画像、コンピュータレンダリング画像、または別のタイプの視覚光画像である。ブロック740で、取得された医療画像を患者方位マーカの一部に基づいて患者の解剖学的組織にアンカリングすることができる。
ブロック750で、患者マーカと関連する拡張タグおよび放射線画像内の位置を検索する。ブロック760で、取得された医療画像および拡張タグを拡張現実ヘッドセットのレンズに投射して、見ている患者の解剖学的組織にオーバーレイする単一のグラフィックビューを形成する。
図8は、本技術のモジュールが実行するコンピューティング装置810を説明する。技術の高レベルの例を実行するコンピューティング装置810を図示する。コンピューティング装置810は、メモリ装置820と通信している1つ以上のプロセッサ812を含む。コンピューティング装置は、コンピューティング装置内のコンポーネント用ローカル通知ンインターフェース818を含む。例えば、ローカル通信インターフェースはローカルのデータバスおよび/または関連アドレス、または必要に応じて制御バスである。
メモリ装置820は、プロセッサ812によって実行可能なモジュール824およびモジュール824用データを含む。モジュール824は前述の機能を実行する。また、モジュール824や他のアプリケーションに関連するデータを、プロセッサ812によって実行可能なオペレーティングシステムと共に記憶するために、データストア822がメモリ装置820内に位置する。
他のアプリケーションもメモリ装置820に格納され、プロセッサ812によって実行可能である。この説明で説明されるコンポーネントまたはモジュールは、ハイブリッド方法を使用してコンパイルされ、解釈され、または実行される高プログラミングレベル言語を使用するソフトウェアの形式で実装される。
またコンピューティング装置には、コンピューティング装置によって使用可能なI/O(入力/出力)装置814へのアクセスを有する。I/O装置の一例は、コンピューティング装置からのアウトプットを表示するために利用可能な表示画面である。他の既知のI/O装置は、必要に応じてコンピューティング装置と共に使用される。コンピューティング装置にはネットワーキング装置816や同様の通信装置が含まれる。ネットワーキング装置816は、インターネット、LAN、WAN、または他のコンピューティングネットワークと接続する、有線または無線ネットワーキング装置である。
メモリ装置820に格納されているとして示されるコンポーネントまたはモジュールをプロセッサ812によって実行する。「実行可能」の用語は、プロセッサ812によって実行される形式のプログラムファイルを意味する。例えば、より高いレベル言語のプログラムは、メモリ装置820のランダムアクセス部分にロードされてプロセッサ812によって実行される機械コードへとコンパイルされ、またはソースコードが別の実行可能なプログラムによってロードされ、プロセッサによって実行されるメモリのランダムアクセス部分内の指示を生成すると解釈される。実行可能なプログラムはメモリ装置820の任意の部分またはコンポーネントに格納される。例えば、メモリ装置820は、ランダムアクセスメモリ(RAM),、読取専用メモリ(ROM)、フラッシュメモリ、ソリッドステートドライブ、メモリカード、ハードドライブ、光ディスク、フロッピーディスク、磁気テープ、またはその他のメモリーコンポーネントである。
プロセッサ812は複数のプロセッサを表し、メモリ820は処理回路と平行して動作する複数のメモリユニットを表す。これによりプロセスおよびシステム内のデータに平行する処理チャンネルを提供する。ローカルインターフェース818をネットワークとして使用し、複数のプロセッサと複数のメモリ間の通信を容易にする。ローカルインターフェース818は、ロードバランシング、大量データ転送などの通信を調整するために設置された追加のシステム、および同様のシステムを使用する。
本明細書で説明されるいくつかの機能的ユニットは、実装の独立性をより強調するためにモジュールとしてラベル付けされている。例えば、モジュールは、カスタムVLSI回路またはゲートアレイ、ロジックチップ、トランジスタ、その他の離散的コンポーネントなどの既成の半導体を含むハードウェア回路として実装される。またモジュールは、フィールドプログラマブルゲートアレイ、プログラマブルアレイロジック、プログラマブルロジック装置などのプログラマブルハードウェア装置でも実装される。
またモジュールは、様々な種類のプロセッサによって実行されるソフトウェアでも実装される。実行可能なコードの識別されたモジュールは、例えばコンピュータ指示の1つ以上のブロックを含み、それらはオブジェクト、プロシージャ、または関数として編成される。それでも、識別されたモジュールの実行ファイルは物理的に一緒に配置する必要はなく、モジュールを構成する異なる位置に格納された異なる指示を含み、論理的に結合された時、モジュールの言及された目的を達成する。
実際、実行可能なコードのモジュールは単一の指示、または複数の指示であり、そして複数の異なるコードセグメント、異なるプログラム間、そしていくつかのメモリ装置に分散される。同様に、操作データを識別し、本明細書ではモジュール内に図示され、そして任意の適切な形式で具現化され、任意の適切なタイプのデータ構造内で編成される。操作データは、単一のデータセットして収集され、または異なるストレージ装置を含む異なる位置に分散される。モジュールは、所望の機能を実行するために操作可能なエージェントを含み、受動的または能動的である。
本明細書で説明される技術はまた、コンピュータ可読媒体、データ構造、プログラムモジュールまたは他のデータなどの情報を格納するための任意の技術で実装される、揮発性および不揮発性、リムーバブルおよび非リムーバブルメディアを含むコンピュータ可読記憶媒体に格納する。制限はされないが、コンピュータ可読記憶媒体は、RAM、ROM、EEPROM、フラッシュメモリ、または他のメモリ技術、CD−ROM、デジタル汎用ディスク(DVD)または他の光ストレージ、磁気カセット、磁気テープ、磁気ディスクストレージまたは他の磁気ストレージ装置、あるいは所望の情報や説明された技術を格納するために使用される他のコンピュータ記憶媒体である。
本明細書で説明される装置はまた、通信接続またはネットワーク装置、および装置と他の装置との通信を可能にするネットワーク接続を含む。通信接続は通信媒体の一例である。通信媒体は通常、搬送波や他の搬送メカニズムなどの変調データ信号内のコンピュータ可読指示、データ構造、プログラムモジュール、その他のデータを具現化した任意の情報配信媒体を含む。「変調データ信号」とは、1つ以上の特徴セットを有する、または信号内に情報をエンコードするような方法で変更された信号を意味する。限定ではなく例として、通信媒体は、有線ネットワークや直接有線接続などの有線媒体、および音響、無線周波数、赤外線などの無線媒体、および他の無線媒体を含む。本明細書で使用されるコンピュータ可読媒体の用語は通信媒体を含む。
図面に示された例を参照し、本明細書は同じものを説明するために特定言語を使用した。それでも、それによる技術の範囲の制限を意図したものではないことが理解される。本明細書で説明された特徴の変更およびさらなる修正、本明細書で説明された例の追加の応用は、関連技術の当事者に思い浮かび、本開示を所有しているが、説明の範囲内であると考えられる。
さらに、説明された機能、構造、特徴は、あらゆる適切な方法で1つ以上の例へと組み合わされる。前述の説明では、説明された技術の完全な理解を提供するために、様々な構成例など、多くの特定の詳細が提供された。ただし、関連技術の当事者は、1つ以上の特定な詳細無しで、または他の方法、コンポーネント、装置などを用いて技術を実施できることを認識する。他の例では、技術の側面を不明瞭にするのを避けるために、良く知られている構造や操作は詳細に表示、説明されない。
主題は、構造的特徴および/または操作専用の言語で説明されてきたが、添付の請求項で画定される主題は、上記の特定の特徴および操作に限定されないことが理解される。むしろ、上記の特定の特徴および技術は、請求項を実装する例示的な形式として開示されている。記載された技術の精神および範囲から逸脱することなく、多数の修正および代替の構成を考案することができる。

Claims (20)

  1. 医療処置で使用する医療画像を拡張する方法であって、
    医療処置中に視覚的画像カメラによって撮影された患者の解剖学的組織の画像を受信し、
    前記患者の解剖学的組織と関連する取得された医療画像を検索し、
    前記取得された医療画像を患者の解剖学的組織に関連付けし、
    前記取得された医療画像の1つの層の中の1つの位置と関連する拡張タグを検索し、
    前記患者の解剖学的組織にオーバーレイとしての単一のグラフィックビューを形成するために、拡張現実ヘッドセットを使用して前記取得された医療画像と前記拡張タグとを投射する
    ことを備える、医療画像を拡張する方法。
  2. 前記拡張タグは前記取得された医療画像の三次元(3D)構造に適合し、行われる医療処置と関連する解剖学的特徴を特定する請求項1に記載の方法。
  3. 前記取得された医療画像の複数の層に複数の拡張タグが提供され、前記複数の拡張タグを関連づけ、外科医をガイドするためタググループを形成する請求項1に記載の方法。
  4. さらに、
    前記取得された医療画像の複数の層の1つにそれぞれ複数の二次元(2D)拡張タグを作成し、
    前記複数の2D拡張タグを連結して前記取得された医療画像の複数の層を通って伸びる三次元(3D)の拡張タグを形成する、ことを備える、請求項1に記載の方法。
  5. 前記拡張タグを検索することはさらに、
    前記取得された医療画像の独立した層の解剖学的構造を表すために、連結された複数の拡張タグを検索することを含む請求項1に記載の方法。
  6. 前記拡張タグを検索することはさらに、
    前記患者の解剖学的組織を通して手術経路を示すために、連結された複数の拡張タグを検索することを含む請求項1に記載の方法。
  7. さらに、
    MRI、CTスキャン、X線、超音波、もしくは人体の内部写真画像を使用して、前記取得された医療画像を撮影する、ことを備える請求項1に記載の方法。
  8. 指示を有する読み取り可能な記憶媒体であって、
    ARヘッドセットを使用して医療処置用の医療画像を拡張するため、プロセッサに前記指示が実行されると、
    医療処置中にライブ画像カメラを使用して患者の解剖学的組織の画像を受信させ、
    前記患者の解剖学的組織の画像内の、患者、手術する解剖学的組織、患者方位マーカまたは画像反転防止タグを特定する情報を含む患者マーカを特定させ、
    前記患者マーカの一部に基づき前記患者の解剖学的組織と関連する取得された医療画像を検索させ、
    前記患者方位マーカの一部に基づいて前記取得された医療画像を患者の解剖学的組織にアンカリングさせ、
    前記患者マーカおよび前記取得された医療画像内の位置と関連する拡張タグを検索させ、
    見られている前記患者の解剖学的組織にオーバーレイする単一のグラフィックビューを形成するために、前記取得された医療画像と前記拡張タグとを拡張現実ヘッドセット内のレンズに投射させる、ことを備える記憶媒体。
  9. さらに、
    前記取得された医療画像の方向を患者の解剖学的組織上の患者方位マーカと一致させるため、前記患者方位マーカを取得された医療画像内の画像方位マーカに一致させる、
    ことを備える請求項8に記載の記憶媒体。
  10. さらに、
    患者の身分を検索し、視覚的にスキャン可能なシンボルと関連する取得された医療画像の検索を可能にするために、患者に取り付けた前記視覚的にスキャン可能なシンボルを使用する、
    ことを備える請求項8に記載の記憶媒体。
  11. さらに、
    前記取得された医療画像が前記患者の解剖学的組織に対して反転しないようにするために、画像反転防止タグを使用する、
    ことを備える請求項8に記載の記憶媒体。
  12. さらに、
    内視鏡ビデオフィードを単一のグラフィックビューに組み合わせ、
    前記内視鏡ビデオフィードの3D構造のサイズと形状とを識別するため拡張タグを使用し、前記拡張タグを使用して内視鏡が前記患者の解剖学的組織内のどこにあると推定されるかを一致させる、
    ことを備える請求項8に記載の記憶媒体。
  13. 医療処置中に患者の解剖学的組織の画像を取得するカメラと、拡張プロセッサと、拡張現実ヘッドセットと、を備え、
    前記拡張プロセッサは、
    前記画像から患者の解剖学的組織の形態測定値を取得し、
    前記患者の解剖学的組織の画像内で、事前測定された形態測定値を検索するために患者を特定する情報を含む患者マーカを特定し、
    前記画像からの前記形態測定値が、前記患者マーカを使用して検索した前記患者の解剖学的組織に関連する事前測定された前記形態測定値と一致するかどうかを決定し、
    前記患者マーカおよび一致した前記形態測定値によって画定されたものとして、前記患者の解剖学的組織と関連する取得された医療画像を検索し、
    形態測定値測定を使用して前記患者の解剖学的組織と前記取得された医療画像の位置を合わせ、
    前記拡張現実ヘッドセットは、
    見ている前記患者の解剖学的組織にオーバーレイする単一のグラフィックビューを形成するために、前記取得された医療画像および前記拡張タグを拡張現実ヘッドセットのレンズに投射し、
    前記患者の解剖学的組織と一致する前記取得された医療画像の通知を提供する
    医療処置のビューを拡張するためのシステム。
  14. 前記形態測定値は、四肢または前記患者の解剖学的組織の形状、幅、高さ、深度および輪郭である、請求項13に記載のシステム。
  15. 前記取得された医療画像は、MRI、CTスキャン、X線、超音波、または人体の内部写真画像である、請求項13に記載のシステム。
  16. 前記カメラは視認可能な患者の解剖学的組織のライブビデオフィードを提供する、請求項13に記載のシステム。
  17. 前記取得された医療画像は、前記拡張現実ヘッドセットを使用して、半透明の光学イメージング領域に投射された取得された医療画像と共に表示される、請求項13に記載のシステム。
  18. さらに、
    前記取得された医療画像を前記患者の解剖学的組織と正しく方向を合わせることができるように、前記患者方位マーカを取得された医療画像内の前記画像方位タグを一致させる、
    ことを備える請求項13に記載のシステム。
  19. 前記患者マーカは、前記患者の身分を検索し且つ前記取得された医療画像を検索するために使用する、1D(一次元)バーコード、2D(二次元)バーコード、写真、カスタム生成幾何学的形状、もしくはRFIDを少なくとも1つ含んでいる、スキャン可能なシンボルである、請求項13に記載のシステム。
  20. 前記拡張プロセッサは、前記画像反転タグの特定と、前記取得された医療画像が患者の解剖学的組織に対して反転しないようにするために前記反転防止タグを使用した前記取得された医療画像と前記患者の解剖学的組織の整列とを行う
    請求項13に記載のシステム。
JP2019566058A 2017-02-21 2018-02-21 医療処置のための拡張現実表示とタグ付け Active JP7068348B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022074245A JP2022103224A (ja) 2017-02-21 2022-04-28 医療処置のための拡張現実表示とタグ付け
JP2024003332A JP2024024126A (ja) 2017-02-21 2024-01-12 医療処置のための拡張現実表示とタグ付け

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/438,715 US10010379B1 (en) 2017-02-21 2017-02-21 Augmented reality viewing and tagging for medical procedures
US15/438,715 2017-02-21
PCT/US2018/019024 WO2018156633A1 (en) 2017-02-21 2018-02-21 Augmented reality viewing and tagging for medical procedures

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022074245A Division JP2022103224A (ja) 2017-02-21 2022-04-28 医療処置のための拡張現実表示とタグ付け

Publications (2)

Publication Number Publication Date
JP2020508828A true JP2020508828A (ja) 2020-03-26
JP7068348B2 JP7068348B2 (ja) 2022-05-16

Family

ID=62684441

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2019566058A Active JP7068348B2 (ja) 2017-02-21 2018-02-21 医療処置のための拡張現実表示とタグ付け
JP2022074245A Pending JP2022103224A (ja) 2017-02-21 2022-04-28 医療処置のための拡張現実表示とタグ付け
JP2024003332A Pending JP2024024126A (ja) 2017-02-21 2024-01-12 医療処置のための拡張現実表示とタグ付け

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2022074245A Pending JP2022103224A (ja) 2017-02-21 2022-04-28 医療処置のための拡張現実表示とタグ付け
JP2024003332A Pending JP2024024126A (ja) 2017-02-21 2024-01-12 医療処置のための拡張現実表示とタグ付け

Country Status (4)

Country Link
US (4) US10010379B1 (ja)
EP (1) EP3585299A4 (ja)
JP (3) JP7068348B2 (ja)
WO (1) WO2018156633A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220083477A (ko) * 2020-12-11 2022-06-20 가천대학교 산학협력단 의료 영상 기반 홀로그램 제공 장치 및 방법
WO2024034995A1 (ko) * 2022-08-12 2024-02-15 아주대학교산학협력단 수술 영상데이터를 녹화하는 방법 및 장치
US11941765B2 (en) 2021-06-24 2024-03-26 Siemens Healthcare Gmbh Representation apparatus for displaying a graphical representation of an augmented reality

Families Citing this family (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2955481B1 (fr) 2010-01-27 2013-06-14 Tornier Sa Dispositif et procede de caracterisation glenoidienne d'une omoplate a protheser ou a resurfacer
JP6138566B2 (ja) * 2013-04-24 2017-05-31 川崎重工業株式会社 部品取付作業支援システムおよび部品取付方法
US10013808B2 (en) 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
US11056022B1 (en) * 2016-11-29 2021-07-06 Sproutel, Inc. System, apparatus, and method for creating an interactive augmented reality experience to simulate medical procedures for pediatric disease education
US10748450B1 (en) * 2016-11-29 2020-08-18 Sproutel, Inc. System, apparatus, and method for creating an interactive augmented reality experience to simulate medical procedures for pediatric disease education
US10010379B1 (en) * 2017-02-21 2018-07-03 Novarad Corporation Augmented reality viewing and tagging for medical procedures
WO2018156804A1 (en) 2017-02-24 2018-08-30 Masimo Corporation System for displaying medical monitoring data
WO2018156809A1 (en) 2017-02-24 2018-08-30 Masimo Corporation Augmented reality system for displaying patient data
US11250947B2 (en) * 2017-02-24 2022-02-15 General Electric Company Providing auxiliary information regarding healthcare procedure and system performance using augmented reality
EP3592273B1 (en) 2017-03-10 2023-10-04 Biomet Manufacturing, LLC Augmented reality supported knee surgery
EP4131165A1 (en) * 2017-03-22 2023-02-08 Brainlab AG Augmented reality patient positioning using an atlas
US9892564B1 (en) 2017-03-30 2018-02-13 Novarad Corporation Augmenting real-time views of a patient with three-dimensional data
JP7159208B2 (ja) 2017-05-08 2022-10-24 マシモ・コーポレイション ドングルを使用することによって医療システムをネットワークコントローラとペアリングするためのシステム
US10470645B2 (en) 2017-05-22 2019-11-12 Gustav Lo Imaging system and method
US10607420B2 (en) * 2017-08-30 2020-03-31 Dermagenesis, Llc Methods of using an imaging apparatus in augmented reality, in medical imaging and nonmedical imaging
US20190254753A1 (en) 2018-02-19 2019-08-22 Globus Medical, Inc. Augmented reality navigation systems for use with robotic surgical systems and methods of their use
US20190310819A1 (en) * 2018-04-10 2019-10-10 Carto Technologies, LLC Augmented reality image display systems and methods
EP3787543A4 (en) 2018-05-02 2022-01-19 Augmedics Ltd. REGISTRATION OF A REFERENCE MARK FOR AN AUGMENTED REALITY SYSTEM
WO2020044523A1 (ja) * 2018-08-30 2020-03-05 オリンパス株式会社 記録装置、画像観察装置、観察システム、観察システムの制御方法、及び観察システムの作動プログラム
US11191609B2 (en) * 2018-10-08 2021-12-07 The University Of Wyoming Augmented reality based real-time ultrasonography image rendering for surgical assistance
US20210343088A1 (en) * 2018-10-26 2021-11-04 Intuitive Surgical Operations, Inc. Mixed reality systems and methods for indicating an extent of a field of view of an imaging device
US10898151B2 (en) * 2018-10-31 2021-01-26 Medtronic Inc. Real-time rendering and referencing for medical procedures
CA3118897A1 (en) 2018-11-07 2020-05-14 Andrey Konchenko Data structures for augmented reality planning of geographic locations
US11287874B2 (en) * 2018-11-17 2022-03-29 Novarad Corporation Using optical codes with augmented reality displays
US11766296B2 (en) 2018-11-26 2023-09-26 Augmedics Ltd. Tracking system for image-guided surgery
US11031128B2 (en) 2019-01-25 2021-06-08 Fresenius Medical Care Holdings, Inc. Augmented reality-based training and troubleshooting for medical devices
EP3922163A4 (en) * 2019-02-08 2022-04-06 FUJIFILM Corporation MEDICAL IMAGE PROCESSING DEVICE, ENDOSCOPE SYSTEM AND MEDICAL IMAGE PROCESSING METHOD
EP3716201A1 (en) * 2019-03-25 2020-09-30 Siemens Healthcare GmbH Medical image enhancement
DE102019110185A1 (de) * 2019-04-17 2020-10-22 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und System zum Registrieren eines Konstruktionsdatenmodells in einem Raum
US11024096B2 (en) 2019-04-29 2021-06-01 The Board Of Trustees Of The Leland Stanford Junior University 3D-perceptually accurate manual alignment of virtual content with the real world with an augmented reality device
US10881353B2 (en) * 2019-06-03 2021-01-05 General Electric Company Machine-guided imaging techniques
US11288802B2 (en) 2019-07-17 2022-03-29 Gustav Lo Systems and methods for displaying augmented anatomical features
US10832486B1 (en) * 2019-07-17 2020-11-10 Gustav Lo Systems and methods for displaying augmented anatomical features
US11980506B2 (en) 2019-07-29 2024-05-14 Augmedics Ltd. Fiducial marker
US11696671B2 (en) 2019-08-19 2023-07-11 Covidien Ag Steerable endoscope with motion alignment
EP3789965B1 (en) * 2019-09-09 2021-12-01 apoQlar GmbH Method for controlling a display, computer program and mixed reality display device
US11871904B2 (en) 2019-11-08 2024-01-16 Covidien Ag Steerable endoscope system with augmented view
JP2023504266A (ja) * 2019-12-02 2023-02-02 エスジー・デバイシーズ・インコーポレイテッド 外科用イメージングの拡張現実ディスプレイ
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
US11237627B2 (en) * 2020-01-16 2022-02-01 Novarad Corporation Alignment of medical images in augmented reality displays
US11464581B2 (en) 2020-01-28 2022-10-11 Globus Medical, Inc. Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums
US11382699B2 (en) 2020-02-10 2022-07-12 Globus Medical Inc. Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery
US11207150B2 (en) 2020-02-19 2021-12-28 Globus Medical, Inc. Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment
US11475997B2 (en) * 2020-02-21 2022-10-18 Shanghai United Imaging Intelligence Co., Ltd. Systems and methods for automated healthcare services
US11393202B2 (en) * 2020-02-28 2022-07-19 CareAR Holdings LLC Augmented reality support platform
US11564767B2 (en) 2020-04-22 2023-01-31 Warsaw Orthopedic, Inc. Clinical diagnosis and treatment planning system and methods of use
US11607277B2 (en) 2020-04-29 2023-03-21 Globus Medical, Inc. Registration of surgical tool with reference array tracked by cameras of an extended reality headset for assisted navigation during surgery
US11382700B2 (en) 2020-05-08 2022-07-12 Globus Medical Inc. Extended reality headset tool tracking and control
US11510750B2 (en) 2020-05-08 2022-11-29 Globus Medical, Inc. Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications
US11153555B1 (en) 2020-05-08 2021-10-19 Globus Medical Inc. Extended reality headset camera system for computer assisted navigation in surgery
CN111544115A (zh) * 2020-05-16 2020-08-18 中国人民解放军陆军军医大学第二附属医院 一种增强现实导航追踪显示器以及校准方法
US11389252B2 (en) 2020-06-15 2022-07-19 Augmedics Ltd. Rotating marker for image guided surgery
US11737831B2 (en) 2020-09-02 2023-08-29 Globus Medical Inc. Surgical object tracking template generation for computer assisted navigation during surgical procedure
EP4222697A1 (en) * 2020-10-02 2023-08-09 Gustav Lo Systems and methods for displaying augmented anatomical features
WO2022154847A1 (en) 2021-01-12 2022-07-21 Emed Labs, Llc Health testing and diagnostics platform
US20220246281A1 (en) * 2021-01-29 2022-08-04 Avicenna.Ai Methods and systems for improving radiology workflow
US11164391B1 (en) 2021-02-12 2021-11-02 Optum Technology, Inc. Mixed reality object detection
US11210793B1 (en) 2021-02-12 2021-12-28 Optum Technology, Inc. Mixed reality object detection
US11373756B1 (en) 2021-05-24 2022-06-28 Emed Labs, Llc Systems, devices, and methods for diagnostic aid kit apparatus
US11615888B2 (en) 2021-03-23 2023-03-28 Emed Labs, Llc Remote diagnostic testing and treatment
US11929168B2 (en) 2021-05-24 2024-03-12 Emed Labs, Llc Systems, devices, and methods for diagnostic aid kit apparatus
KR20220155828A (ko) 2021-05-17 2022-11-24 주식회사 코어라인소프트 의료 영상 분석 장치 및 방법, 의료 영상 시각화 장치 및 방법
WO2022261528A1 (en) * 2021-06-11 2022-12-15 The Regents Of The University Of California Using machine learning and 3d projection to guide medical procedures
US11610682B2 (en) 2021-06-22 2023-03-21 Emed Labs, Llc Systems, methods, and devices for non-human readable diagnostic tests
US11896445B2 (en) 2021-07-07 2024-02-13 Augmedics Ltd. Iliac pin and adapter
WO2023070144A1 (en) * 2021-10-28 2023-05-04 Akunah Medical Technology Pty Ltd Method and system of visualization during orthopaedic surgery
CN114224508A (zh) * 2021-11-12 2022-03-25 苏州微创畅行机器人有限公司 医学图像处理方法、系统、计算机设备和存储介质
CN115363751B (zh) * 2022-08-12 2023-05-16 华平祥晟(上海)医疗科技有限公司 术中解剖结构指示方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014200016A1 (ja) * 2013-06-11 2014-12-18 Tanji Atsushi 外科手術支援システム、外科手術支援装置、外科手術支援方法、外科手術支援プログラムおよび情報処理装置
US20150161802A1 (en) * 2011-02-11 2015-06-11 Olaf Christiansen Endoscopic image processing system having means which generate geometric measurement information in the detection range of an optical digital camera

Family Cites Families (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8496474B2 (en) * 1997-06-20 2013-07-30 Align Technology, Inc. Computer automated development of an orthodontic treatment plan and appliance
US6470207B1 (en) 1999-03-23 2002-10-22 Surgical Navigation Technologies, Inc. Navigational guidance via computer-assisted fluoroscopic imaging
US6919867B2 (en) 2001-03-29 2005-07-19 Siemens Corporate Research, Inc. Method and apparatus for augmented reality visualization
US20030100830A1 (en) 2001-11-27 2003-05-29 Sheng-Ping Zhong Implantable or insertable medical devices visible under magnetic resonance imaging
US7467119B2 (en) * 2003-07-21 2008-12-16 Aureon Laboratories, Inc. Systems and methods for treating, diagnosing and predicting the occurrence of a medical condition
US20050215879A1 (en) 2004-03-12 2005-09-29 Bracco Imaging, S.P.A. Accuracy evaluation of video-based augmented reality enhanced surgical navigation systems
US9681925B2 (en) 2004-04-21 2017-06-20 Siemens Medical Solutions Usa, Inc. Method for augmented reality instrument placement using an image based navigation system
US7394946B2 (en) * 2004-05-18 2008-07-01 Agfa Healthcare Method for automatically mapping of geometric objects in digital medical images
CN101237903A (zh) 2005-01-18 2008-08-06 皇家飞利浦电子股份有限公司 用于控制所摄入胶囊通过的系统和方法
US20070066881A1 (en) 2005-09-13 2007-03-22 Edwards Jerome R Apparatus and method for image guided accuracy verification
JP4665710B2 (ja) 2005-10-21 2011-04-06 株式会社デンソーウェーブ 情報コード担体
US9782229B2 (en) * 2007-02-16 2017-10-10 Globus Medical, Inc. Surgical robot platform
EP3032456B1 (en) * 2006-03-30 2018-04-25 Stryker European Holdings I, LLC System and method for optical position measurement and guidance of a rigid or semi-flexible tool to a target
WO2008076079A1 (en) 2006-12-19 2008-06-26 Bracco Imaging S.P.A. Methods and apparatuses for cursor control in image guided surgery
EP2109410B1 (en) 2007-01-22 2015-07-01 Avent, Inc. Positioning tool for positioning an instrument at a treatment site
JPWO2008090676A1 (ja) * 2007-01-25 2010-05-13 コニカミノルタエムジー株式会社 医用画像システム、電子カルテ端末及びプログラム
US7886978B2 (en) 2007-09-20 2011-02-15 Microsoft Corporation Techniques for decoding images of barcodes
US7853558B2 (en) * 2007-11-09 2010-12-14 Vibrant Media, Inc. Intelligent augmentation of media content
US20110306986A1 (en) 2009-03-24 2011-12-15 Min Kyu Lee Surgical robot system using augmented reality, and method for controlling same
EP2329786A2 (en) * 2009-10-01 2011-06-08 Navotek Medical Ltd. Guided surgery
US8657809B2 (en) * 2010-09-29 2014-02-25 Stryker Leibinger Gmbh & Co., Kg Surgical navigation system
US9119655B2 (en) * 2012-08-03 2015-09-01 Stryker Corporation Surgical manipulator capable of controlling a surgical instrument in multiple modes
US9521966B2 (en) 2012-05-17 2016-12-20 Alan N. Schwartz Localization of the parathyroid
JP6021353B2 (ja) * 2011-08-04 2016-11-09 オリンパス株式会社 手術支援装置
US9123155B2 (en) 2011-08-09 2015-09-01 Covidien Lp Apparatus and method for using augmented reality vision system in surgical procedures
US8945328B2 (en) 2012-09-11 2015-02-03 L.I.F.E. Corporation S.A. Methods of making garments having stretchable and conductive ink
JP2014131552A (ja) * 2013-01-07 2014-07-17 Akira Takebayashi 医療支援装置
US9336629B2 (en) 2013-01-30 2016-05-10 F3 & Associates, Inc. Coordinate geometry augmented reality process
KR20140112207A (ko) * 2013-03-13 2014-09-23 삼성전자주식회사 증강현실 영상 표시 시스템 및 이를 포함하는 수술 로봇 시스템
US9898866B2 (en) * 2013-03-13 2018-02-20 The University Of North Carolina At Chapel Hill Low latency stabilization for head-worn displays
US9047664B2 (en) * 2013-05-31 2015-06-02 Kathryn Pearson Peyton Apparatus and method for utilizing mammogram images for verification
EP2870941A1 (en) * 2013-11-08 2015-05-13 Orthotaxy Method for planning a surgical intervention
US10231704B2 (en) * 2013-12-20 2019-03-19 Raghu Raghavan Method for acquiring ultrasonic data
EP3110331B1 (en) 2014-02-26 2018-10-10 Brainlab AG Tracking soft tissue in medical images
JP6445784B2 (ja) * 2014-05-16 2018-12-26 キヤノン株式会社 画像診断支援装置、その処理方法及びプログラム
US20160180441A1 (en) * 2014-12-22 2016-06-23 Amazon Technologies, Inc. Item preview image generation
US10154239B2 (en) 2014-12-30 2018-12-11 Onpoint Medical, Inc. Image-guided surgery with surface reconstruction and augmented reality visualization
US10004610B2 (en) * 2015-02-04 2018-06-26 DePuy Synthes Products, Inc. Non-invasive methods for modifying tissue to facilitate treatment
AU2016226388A1 (en) * 2015-03-01 2017-10-19 ARIS MD, Inc. Reality-augmented morphological procedure
US20180140362A1 (en) * 2015-04-07 2018-05-24 King Abdullah University Of Science And Technology Method, apparatus, and system for utilizing augmented reality to improve surgery
US9436993B1 (en) 2015-04-17 2016-09-06 Clear Guide Medical, Inc System and method for fused image based navigation with late marker placement
WO2016181182A1 (en) 2015-05-08 2016-11-17 Synaptive Medical (Barbados) Inc. Magnetic resonance visible labels and markers for encoding information
WO2017093034A1 (en) 2015-12-01 2017-06-08 Brainlab Ag Method and apparatus for determining or predicting the position of a target
US20170178540A1 (en) * 2015-12-22 2017-06-22 Truinject Medical Corp. Injection training with modeled behavior
CN111329553B (zh) 2016-03-12 2021-05-04 P·K·朗 用于手术的装置与方法
US20170296292A1 (en) 2016-04-16 2017-10-19 Eitezaz MAHMOOD Systems and Methods for Surgical Imaging
US10888228B2 (en) 2016-11-10 2021-01-12 SK Commercial Construction, Inc. Method and system for correlating anatomy using an electronic mobile device transparent display screen
US20200188030A1 (en) 2017-02-08 2020-06-18 Duke University Augmented Reality-Based Navigation for Use in Surgical and Non-Surgical Procedures
US10010379B1 (en) * 2017-02-21 2018-07-03 Novarad Corporation Augmented reality viewing and tagging for medical procedures
US9922172B1 (en) 2017-02-28 2018-03-20 Digital Surgery Limited Surgical guidance system based on a pre-coded surgical procedural map
US11388240B2 (en) 2017-06-28 2022-07-12 Commscope Technologies Llc Systems and methods for managed connectivity wall outlets using low energy wireless communication
US10504250B2 (en) 2018-01-27 2019-12-10 Uih America, Inc. Systems and methods for correcting mismatch induced by respiratory motion in positron emission tomography image reconstruction
US11287874B2 (en) * 2018-11-17 2022-03-29 Novarad Corporation Using optical codes with augmented reality displays
US20200186786A1 (en) 2018-12-06 2020-06-11 Novarad Corporation Calibration for Augmented Reality
US10929670B1 (en) 2019-10-21 2021-02-23 The Boeing Company Marker-to-model location pairing and registration for augmented reality applications

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150161802A1 (en) * 2011-02-11 2015-06-11 Olaf Christiansen Endoscopic image processing system having means which generate geometric measurement information in the detection range of an optical digital camera
WO2014200016A1 (ja) * 2013-06-11 2014-12-18 Tanji Atsushi 外科手術支援システム、外科手術支援装置、外科手術支援方法、外科手術支援プログラムおよび情報処理装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220083477A (ko) * 2020-12-11 2022-06-20 가천대학교 산학협력단 의료 영상 기반 홀로그램 제공 장치 및 방법
KR102476957B1 (ko) 2020-12-11 2022-12-12 가천대학교 산학협력단 의료 영상 기반 홀로그램 제공 장치 및 방법
US11941765B2 (en) 2021-06-24 2024-03-26 Siemens Healthcare Gmbh Representation apparatus for displaying a graphical representation of an augmented reality
WO2024034995A1 (ko) * 2022-08-12 2024-02-15 아주대학교산학협력단 수술 영상데이터를 녹화하는 방법 및 장치

Also Published As

Publication number Publication date
EP3585299A1 (en) 2020-01-01
WO2018156633A1 (en) 2018-08-30
JP7068348B2 (ja) 2022-05-16
US20220192776A1 (en) 2022-06-23
US11266480B2 (en) 2022-03-08
JP2024024126A (ja) 2024-02-21
EP3585299A4 (en) 2021-05-05
US10945807B2 (en) 2021-03-16
US10010379B1 (en) 2018-07-03
JP2022103224A (ja) 2022-07-07
US20210298866A1 (en) 2021-09-30
US20190365498A1 (en) 2019-12-05

Similar Documents

Publication Publication Date Title
US11266480B2 (en) Augmented reality viewing and tagging for medical procedures
US11652971B2 (en) Image-guided surgery with surface reconstruction and augmented reality visualization
WO2016140989A9 (en) Reality-augmented morphological procedure
Wang et al. Augmented Reality for Digital Orthopedic Applications

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200127

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220428

R150 Certificate of patent or registration of utility model

Ref document number: 7068348

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150