JP2020516003A - 三次元データによる患者のリアルタイムビューの拡張 - Google Patents

三次元データによる患者のリアルタイムビューの拡張 Download PDF

Info

Publication number
JP2020516003A
JP2020516003A JP2020503249A JP2020503249A JP2020516003A JP 2020516003 A JP2020516003 A JP 2020516003A JP 2020503249 A JP2020503249 A JP 2020503249A JP 2020503249 A JP2020503249 A JP 2020503249A JP 2020516003 A JP2020516003 A JP 2020516003A
Authority
JP
Japan
Prior art keywords
patient
data
headset
real
outer layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020503249A
Other languages
English (en)
Inventor
ツベトコ、スティーブン
アーレン ギビー、ウェンデル
アーレン ギビー、ウェンデル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Novarad Corp
Original Assignee
Novarad Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=61147999&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2020516003(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Novarad Corp filed Critical Novarad Corp
Publication of JP2020516003A publication Critical patent/JP2020516003A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0071Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by measuring fluorescence emission
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B7/00Instruments for auscultation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/366Correlation of different images or relation of image positions in respect to the body using projection of images directly onto the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0223Magnetic field sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10108Single photon emission computed tomography [SPECT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/008Cut plane or projection plane definition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes

Abstract

三次元(3D)データにより患者のリアルタイムビューを拡張すること。一実施形態において、方法は、外層および複数の内層を含む3Dデータによって患者の3Dデータを特定することと、3Dデータからの外層の仮想形態計測測定値を決定することと、3D空間内における患者の外層のリアルタイム位置を登録することと、患者の外層のリアルタイム形態計測測定値を決定することと、仮想形態計測測定値を用いて、かつリアルタイム形態計測測定値を用いて、3Dデータからの外層の位置を自動的に登録して、登録された3D空間内における患者の外層のリアルタイム位置と位置合わせすることと、拡張現実(AR)ヘッドセットにおいて、患者の外層のリアルタイムビュー上に投影された3Dデータからの患者の内層のうちの1つを表示することとを含む。

Description

本願は、三次元データによる患者のリアルタイムビューの拡張に関する。
拡張現実(augmented reality:AR)システムは、一般にユーザの実世界環境のライブビューを取り込み、映像、音声、または図形のようなコンピュータで生成した仮想要素によってそのビューを拡張する。結果として、ARシステムはユーザの現状における現実の知覚を増強するように機能する。
ARシステムが直面する1つの共通の問題は、仮想要素の位置を実世界環境のライブビューと正確に位置合わせすること(aligning)である。この位置合わせプロセスは大抵の場合に手動で行われるか、または非解剖学的基準を手動で配置した後のみに自動的に行われる。いずれの場合も、手動プロセスは時間がかかり、煩雑であり、かつ不正確になる可能性がある。
ARシステムが直面する別の共通の問題は、仮想要素を管理するための仮想コントロールの適切な配置である。仮想コントロールは、仮想要素と相互作用する際にユーザを支援するように意図されているが、多くの場合、ライブビュー内においてそれらをユーザに対する助けというよりはむしろ障害物にしてしまう位置に配置されている。
本願において権利請求される主題は、上述したもののような何らかの不都合を解決するか、または上述したもののような環境においてのみ動作する実施形態に限定されるものではない。むしろ、この背景は本願に記載するいくつかの実施形態が実施され得る技術領域の一例を示すために提供されているに過ぎない。
一実施形態において、患者のリアルタイムビューを三次元(3D)データによって拡張する方法は、様々な動作を含み得る。例えば、本方法は、患者の外層および患者の複数の内層を含む3Dデータによって患者の3Dデータを特定することを含み得る。本方法はまた、3Dデータから患者の外層の仮想形態計測測定値(virtual morphometric measurements)を決定することを含み得る。本方法は、3D空間内における患者の外層のリアルタイム位置を登録すること(registering)を含む。本方法はまた、患者の外層のリアルタイム形態計測測定値を決定することも含み得る。本方法は、仮想形態計測測定値を用いて、かつリアルタイム形態計測測定値を用いて、3Dデータからの患者の外層の位置を自動的に登録して、登録された3D空間内における患者の外層のリアルタイム位置と位置合わせすることをさらに含み得る。本方法はまた、拡張現実ヘッドセットにおいて、患者の外層のリアルタイムビュー上に投影された3Dデータからの患者の内層のうちの1つを表示することを含み得る。
別の実施形態において、3Dデータにより患者のリアルタイムビューを拡張する方法は、様々な動作を含み得る。例えば、本方法は、患者の外層および患者の複数の内層を含む3Dデータによって患者の3Dデータを特定することを含み得る。本方法はまた、拡張現実ヘッドセットにおいて、患者の外層のリアルタイムビュー上に投影された3Dデータからの患者の内層のうちの1つを表示することを含み得る。本方法は、拡張現実ヘッドセットにおいて、投影された3Dデータからの患者の内層の表示を変更するための選択肢を含む仮想ユーザインタフェースを生成することをさらに含み得る。本方法はまた、拡張現実ヘッドセットにおいて、拡張現実ヘッドセットの焦点の向きが患者にフォーカスしていないことから、リアルタイムビュー上に投影された仮想ユーザインタフェースを表示することも含み得る。本方法は、拡張現実ヘッドセットにおいて、拡張現実ヘッドセットの焦点の向きが患者にフォーカスしていることから、仮想ユーザインタフェースを非表示にすることをさらに含み得る。
前述の概要および以下の詳細な説明の双方は説明のためのものであり、権利請求される本発明を限定するものではないことが理解されるべきである。
添付図面の使用により、実施形態について付加的な特異性および詳細とともに記載し、説明する。
患者のリアルタイムビューが三次元(3D)データによって拡張され得る例示的な拡張現実(AR)環境を示す図。 第1患者を含む図1のAR環境の写真。 第1患者を含む図1のAR環境の写真。 第1患者を含む図1のAR環境の写真。 第1患者を含む図1のAR環境の写真。 第1患者を含む図1のAR環境の写真。 第1患者を含む図1のAR環境の写真。 第2の患者を含む図1のAR環境の写真。 第3患者を含む図1のAR環境の写真。 第3患者を含む図1のAR環境の写真。 3Dデータにより患者のリアルタイムビューを拡張する際に用いられ得る例示的なコンピュータシステムを示す図。 3Dデータにより患者のリアルタイムビューを拡張する例示的な方法のフローチャート。 3Dデータにより患者のリアルタイムビューを拡張する例示的な方法のフローチャート。 3Dデータにより患者のリアルタイムビューを拡張する例示的な方法のフローチャート。 3Dデータにより患者のリアルタイムビューを拡張する例示的な方法のフローチャート。 3Dデータにより患者のリアルタイムビューを拡張する例示的な方法のフローチャート。
医用イメージングは患者の内部の視覚表示を作成するために用いられ得る。より具体的には、医用イメージングは、訓練、研究、診断および治療のような様々な目的で皮膚のような患者の外層によって隠された内部構造を明らかにするために用いられ得る。
従来の医用シメージングシステムは、患者の三次元(3D)データを作成し、次にその3Dデータを1つ以上の画像としてコンピュータディスプレイ上に表示し得る。実際の患者とは切り離されたコンピュータディスプレイ上において患者の画像を観察することは、訓練、研究、診断および治療に有用なこともあるが、そのような切り離された観察により、いくつかの問題が生じる場合もある。
例えば、外科医が患者の脳から腫瘍を除去する必要がある場合、外科医は、コンピュータディスプレイ上の患者の脳の画像を観察し得る。コンピュータディスプレイ上において腫瘍の位置を観察した後、次に、外科医はその視界をコンピュータディスプレイから手術台上の実際の患者へ移し、患者の脳内部の腫瘍の実際の患者におけるおおよその位置を特定しようと試み得る。腫瘍のおおよその位置を特定するこの方法は困難であり、過誤を生じ易い可能性がある。例えば、外科医は、実際には腫瘍が脳の右側に存在する場合に、偶発的に画像中の脳の左側が腫瘍を有していると特定してしまうことがある。この過誤は、外科医が誤って患者の頭蓋の左側において不必要な切開を行うことにつながる場合がある。
別の例では、医師が患者に対して膝の手術を実施する必要がある場合に、医師はコンピュータディスプレイ上の患者の膝の画像を観察し得る。コンピュータディスプレイ上の膝の問題領域を観察した後、次に医師はその視界をコンピュータディスプレイから手術台上の実際の患者へ移して、手術のために実際の患者の膝の問題領域を特定しようと試み得る。膝の問題領域を特定するこの方法は困難であり、過誤を生じ易い可能性がある。例えば、医師が、手術台上の患者がコンピュータディスプレイ上の画像と一致しないことに気付かずに、偶発的に誤った患者の画像をコンピュータディスプレイ上に引き出してしまうことがある。この過誤は、膝の問題領域は患者によって自然と異なることから、外科医が誤って不適切な位置において切開を行うことにつながる場合がある。
本願に開示する実施形態は、従来の画像診断システムに対して様々な利点を提供し得る。具体的には、本願に開示する実施形態は、例えば、3Dデータにより患者のリアルタイムビューを拡張し得る。いくつかの実施形態において、患者の3Dデータは実際の患者のリアルタイムビューと自動的に位置合わせされるか、または登録され、次に3Dデータから導出された画像は患者のリアルタイムビュー上に投影され得る。よって、これらの実施形態は、時間がかかり、煩雑であり、かつ不正確な手動の位置合わせを行うことなく、かつ/または時間がかかり、煩雑であり、かつ不正確な非解剖学的基準の手動の配置を行うことなく、医療専門家が実際の患者を見ながら、その患者の仮想内部を観察することを可能にする。訓練、研究、診断または治療において用いられる場合、これらの実施形態は、医療専門家が患者内の目標位置をより容易かつ正確に見つけることを可能にし得る。
例えば、上記で検討した脳外科手術の例において用いられる場合には、これらの実施形態は、外科医が腫瘍の位置について脳の右側と左側との間で混乱するのを回避し、それにより腫瘍を除去するための外科手術中に外科医が頭蓋の不適切な側において不要な切開を行うことを回避し得る。同様に上記で検討した膝手術の例において用いられる場合には、これらの実施形態は、自動位置合わせが失敗するか、または自動位置合わせは正しかったという信頼度が低いことを示すことがあり、よって患者データが現在手術台上にいる患者のものではない可能性があることを医師に警告するので、医師が誤った患者の3Dデータを使用することを回避し得る。
さらに、いくつかの実施形態において、3Dデータによる患者のリアルタイムビューの拡張は、患者のリアルタイムビュー上に投影される画像を変更するための仮想ユーザインタフェースおよび他の仮想コントロールの表示を含み得る。この仮想ユーザインタフェースおよびこれらの他の仮想コントロールは、患者を観察するときに医療専門家の視野を遮らないようにし、医療専門家に対する比較的一定な焦点長を維持し、かつ/または医療専門家に対面する仮想ユーザインタフェースの向きを維持するように投影され得る。このように、これらの実施形態は、医療専門家が患者のリアルタイムビューに投影された画像を迅速かつ容易に変更することを可能にし得る。
図面に移ると、図1は例示的な拡張現実(AR)環境100を示している。いくつかの実施形態において、環境100は、3D空間102、ユーザ104、患者106、およびネットワーク110上のサーバ112と通信し得るARヘッドセット108を含み得る。いくつかの実施形態において、環境100はまた、仮想ユーザインタフェース114、仮想空間的差異ボックス(virtual spatial difference box)116、対象物118の仮想挿入部118a、および仮想カーソル122も含んでいてもよく、これらはすべて、ARヘッドセット108によって生成され、ARヘッドセット108を介してユーザ104のみに見えることを示すために破線で示されている。
いくつかの実施形態において、3D空間102は、(図1に示すような)手術台103を備えた手術室、オフィス、教室または研究室を含むが、これらに限定されない、いかなる3D空間であってもよい。いくつかの実施形態において、3D空間102は、ユーザ104がARヘッドセット108を着用しながら、患者106を観察し得る空間であり得る。
いくつかの実施形態において、ユーザ104は、(図1に示すような)医療専門家、インストラクター、研究者、患者、または患者の介護者を含むが、これらに限定されないARヘッドセット108のいかなるユーザであってもよい。例えば、医療専門家は、患者106に医療処置を実施するためにARヘッドセット108を使用してもよい。同様に、研究者またはインストラクターが、医学研究を行っているとき、または医学生を指導しているときに、ARヘッドセット108を使用してもよい。さらに、医療専門家が患者106のための提案された医療処置について説明しようと試みているときに、患者106の介護者または患者106自身がARヘッドセット108を使用してもよい。
いくつかの実施形態において、患者106は、意識があるか、または無意識である、生きているか、または死んでいる、完全体であるか、または1つ以上の体の部分が欠損している、任意の動物であってもよい。例えば、患者106は、ユーザ104によって医療処置を受けるために無意識にされた(図1に示すような)生きているヒト成人であってもよい。別の例では、患者106は、研究または訓練の目的のための解剖を受けるヒト成人の遺体であってもよい。別の例では、患者106は、医学的状態を診断するために獣医によって診断されている意識のある動物であってもよい。別の例では、患者106は死亡したヒトの一肢または単一器官であってもよい。
いくつかの実施形態において、ARヘッドセット108は、3Dデータにより患者106のリアルタイムビューを拡張することができるARヘッドセットの形態にある任意のコンピュータシステムであり得る。例えば、ARヘッドセット108は、(図1に示すような)骨106b、筋肉、器官、または流体を含むが、これらに限定されない患者106の1つ以上の内層により、患者106のリアルタイムビューを拡張するために、ユーザ104によって用いられ得る。いくつかの実施形態において、ARヘッドセット108は、3D空間102内におけるユーザ104の現在位置にかかわらず、患者106のリアルタイムビューのこの拡張を実施し得る。例えば、ユーザ104は手術台103のまわりを歩き回って、3D空間102内の任意の角度から患者106を観察することがあり、その間じゅう、ARヘッドセット108は、患者106および患者106の3Dデータの双方がユーザ104によって3D空間102内の任意の角度から観察され得るように、患者106のリアルタイムビューを患者106の1つ以上の内層によって連続的に拡張し得る。ARヘッドセット108は、図6A〜図6Eに関連して本願に開示される方法600に従って、この3Dデータによる患者106のリアルタイムビューの拡張を実施し得る。いくつかの実施形態において、ARヘッドセット108はマイクロソフト ホロレンズ(Microsoft HoloLens(商標))の修正版であってもよい。
いくつかの実施形態において、ネットワーク110は、ARヘッドセット108、サーバ112、または他のコンピュータシステムを通信可能に接続するように構成され得る。いくつかの実施形態において、ネットワーク110は、システムと装置との間の通信を送受信するように構成された任意の有線もしくは無線ネットワーク、または複数のネットワークの組み合わせであってもよい。いくつかの実施形態において、ネットワーク110としては、ブルートゥース(Bluetooth)(登録商標)ネットワークのようなパーソナルエリアネットワーク(PAN)、WiFiネットワークのようなローカルエリアネットワーク(LAN)、メトロポリタンエリアネットワーク(MAN)、ワイドエリアネットワーク(WAN)、またはストレージエリアネットワーク(SUN)が挙げられる。いくつかの実施形態において、ネットワーク110はまた、セルラーネットワークのような、様々な異なる通信プロトコルでデータを送信するための電気通信ネットワークの一部に接続されていてもよいし、またはそのような電気通信ネットワークの一部を含んでいてもよい。
いくつかの実施形態において、サーバ112は、ARヘッドセット108と接続して機能することができる任意のコンピュータシステムであってもよい。いくつかの実施形態において、サーバ112は、3DデータをARヘッドセット108に伝送するか、またはARヘッドセット108からデータを受信するために、ARヘッドセット108とリアルタイムで通信するように構成され得る。加えて、サーバ112は、ARヘッドセット108によって所望されるデータ記憶または処理のうちの一部またはすべてをオフロードするために用いられてもよい。
いくつかの実施形態において、仮想ユーザインタフェース114は、患者106の3Dデータからの患者106の投影された内層の表示を変更するための選択肢を含む、ARヘッドセット108によって生成された任意の仮想ユーザインタフェースであり得る。例えば、仮想ユーザインタフェース114に含まれる選択肢としては、ARヘッドセット108に、
(1)患者106の拡張されたビューの観察を停止させる選択肢、
(2)ARヘッドセット108の能力のデモを表示させる選択肢、
(3)投影された3Dデータの輝度および色のような患者106に投影されている3Dデータの特性を調整させる選択肢、
(4)患者106との3Dデータの位置合わせを調整させる選択肢、
(5)仮想空間的差異ボックス116を表示させる選択肢、
(6)所定体積の3Dデータの代わりに3Dデータのスライスを表示させる選択肢、
(7)3Dデータのスライスを再配置する際などに、3Dデータをユーザ104の方向にドラッグさせる選択肢、
(8)軸方向スライス(axial slices)、冠状スライス(coronal slices)、矢状スライス(sagittal slices)、および斜めスライス(oblique slices)を含むが、これらに限定されない3Dデータの異なるスライスを表示させる選択肢、
(9)ARヘッドセット108の他の高度な機能を実施させる選択肢
が挙げられるが、これらに限定されるものではない。仮想ユーザインタフェース114は、ユーザ104にとって有用であり得る他の情報をさらに含んでいてもよい。例えば、仮想ユーザインタフェース114は、心拍数、血圧および呼吸数のような患者106のリアルタイムバイタルサインを含んでいてもよい。別の例では、仮想ユーザインタフェース114は、患者106が無意識であった時間量を示すストップウォッチを含んでいてもよい。
いくつかの実施形態において、ARヘッドセット108は、仮想ユーザインタフェース114をユーザ104から快適な距離に、かつ/またはユーザ104に対して快適な向きに、表示するように構成され得る。例えば、ARヘッドセット108は、仮想ユーザインタフェース114をARヘッドセット108から患者106までのリアルタイム距離D1にほぼ等しいARヘッドセット108からの焦点距離D2において表示するように構成され得る。この距離は、ユーザが3D空間102を動き回っても、またユーザが患者106に近づいたり、患者106から遠ざかったりしても、ユーザ104が患者106と仮想ユーザインタフェース114との間でユーザの焦点を移すときにユーザの眼の焦点を再び合わせなければならないことを回避し得るので、ユーザにとって快適であり得る。別の例では、ARヘッドセット108は、仮想ユーザインタフェース114をARヘッドセット108の焦点の向き120に直交するように配向された焦点の向きに表示するように構成されてもよい。この配向は、ARヘッドセット108の現在の焦点の向き120にかかわらず、ユーザが3D空間102を動き回っても、またユーザが概して患者106の方に向いていたり、または患者106から離反した方に向いていたりしても、仮想ユーザインタフェース114を常にユーザ104に対して正面に対面させ得るので、ユーザ104にとって快適であり得る。
いくつかの実施形態において、仮想空間的差異ボックス116は、投影された3Dデータからの患者106の内層を所定体積の仮想空間的差異ボックス116内に限定するために、ARヘッドセット108によって生成され得る。例えば、図1において、患者106の投影された骨106bは、仮想空間的差異ボックス116内に限定され得る。いくつかの実施形態において、仮想空間的差異ボックス116はまた、ユーザ104に基準枠を提供することにより、投影された3Dデータを操作する場合にユーザを支援し得る。例えば、この基準枠は、仮想空間的差異ボックス116内において3Dデータの軸方向スライス、冠状スライス、矢状スライスまたは斜めスライスを移動させる場合にユーザを支援し得る。スライスは二次元(2D)スライスであってもよいし、かつ/または3Dスライスであってもよい。3Dスライスとしては、解剖学的特徴の自然な曲線に従った湾曲スライスのような湾曲スライス、または高さおよび幅だけでなく深さも有するスライスが挙げられる。ユーザ104は、ユーザ104が概して仮想空間的差異ボックス116の線の方向にユーザの手を動かすことを求める手振りを用いて、これらのスライスを移動させてもよく、したがって仮想空間的差異ボックス116の表示は、これらの手の動作をユーザ104にとってより容易にし得る。
いくつかの実施形態において、対象物118の仮想挿入部118aは、ユーザ104が患者106の外層を介して患者106に挿入したいと思う対象物118の任意の部分に対応し得る。例えば、対象物118としては、(図1に示すような)メス、スコープ、ドリル、プローブ、別の医療器具、またはユーザ104の手が挙げられる。患者106の外層のリアルタイム位置の登録と同様に、対象物118の外層の位置も登録され得る。しかしながら、環境100内において比較的静止したままであり得る患者106とは異なり、対象物118は環境100内において頻繁に動かされる可能性があり、そのため対象物118のリアルタイム位置は、患者106の外層の登録された位置に対して3D空間102内において自動的に追跡され得る。次に、ユーザ104が対象物118のいくつかの部分を患者106の外層内に挿入する場合、ARヘッドセット108は、3Dデータからの患者106の投影された内層内に投影された対象物118の仮想挿入部118aを表示し得る。このように、対象物118の仮想挿入部118aは、対象物118の実際の挿入部分がユーザ104のリアルタイムビューから隠れている場合であっても、ユーザ104のリアルタイムビューに投影され得る。
いくつかの実施形態において、対象物118は、ARヘッドセット108による対象物118のより正確な追跡を可能にするように特別に設計されていてもよい。例えば、対象物118が針を有する注射器のような比較的小さな医療器具である場合、対象物118はARヘッドセット108のセンサによってより容易に感知されるように改良されていてもよい。例えば、これらの医療器具は、(例えば視覚センサによって)より容易に感知されるように、より大きな寸法にされてもよく、より容易に感知されるために(例えば、針を取り付ける注射器の先端部を球として形成することにより)特定の形状を与えられていてもよく、より容易に感知されるために(例えば、反射ストリップまたはライトストリップの追加によって)より見やすくされていてもよく、または(例えば、金属検知センサによってより容易に感知される金属から製造されることにより)より容易に感知される材料から製造されていてもよい。
さらに、いくつかの実施形態では、ARヘッドセット108による対象物118のより正確な追跡を可能にするために、対象物118のハンドルのような付属部品を対象物118に追加してもよい。例えば、付属部品は、付属部品がARヘッドセット108のセンサによってより容易に感知されるようにするために、上述した改良のうちのいずれを含んでいてもよく、また付属部品が対象物118に取り付けられることにより、対象物118がARヘッドセット108のセンサによってより容易に感知されるようにする。さらに、付属部品は、対象物118の先端部のような患者106に挿入することを意図した対象物118の部分に取り付けられるように設計されていてもよく、その結果、ARヘッドセット108のセンサは患者106の内部の付属部品を実際に感知することができる。例えば、小さな磁界を放射する付属部品が対象物118の先端部に取り付けられ、次にARヘッドセット108の磁気センサが患者106内の付属部品の正確な位置を感知することができ、それによりユーザ104に対して表示される仮想挿入部118aの精度の向上を助け得る。
いくつかの実施形態において、仮想カーソル122は、仮想ユーザインタフェース114上、別の仮想コントロール上、または3D空間102内の他の位置において、ARヘッドセット108によって生成される仮想カーソルであり得る。いくつかの実施形態において、仮想カーソル122の位置は、ユーザ104の頭部の向きに対応し得るARヘッドセット108の焦点の向き120に対応し得る。仮想カーソル122は、仮想ユーザインタフェース114の1つ以上の選択肢を選択するために、時にユーザの眼の瞬きのようなユーザ104による1つ以上の他の動作、またはARヘッドセット108の視野内で2本の指を打ち合わせるなどのユーザ104の1つ以上の手振りと関連付けられて、ユーザ104によって用いられ得る。
環境100に対して、本開示の範囲から逸脱することなく、変更、追加または省略がなされてもよい。例えば、いくつかの実施形態において、ARヘッドセット108をそれぞれ着用した複数のユーザが、患者106の3Dデータにより拡張された患者106を同時に観察するために、3D空間102内に同時に存在していてもよい。別の例では、ARヘッドセット108を着用したユーザ104が患者の3Dデータによって拡張された複数の患者を同時に観察することを可能にするために、複数の患者が3D空間102内に同時に存在していてもよい。別の例では、ARヘッドセット108をそれぞれ着用した複数のユーザおよび複数の患者が3D空間内に同時に存在していてもよい。別の例では、ARヘッドセット108からのビューの映像がARヘッドセット108によって捕捉され、次いでネットワーク110上のサーバ112、または別のユーザによる観察のための遠隔ARヘッドセットもしくは仮想現実(VR)ヘッドセットなどの遠隔地へ送信され得る。この例は、遠隔ユーザが患者106に対する医療処置の間にローカルユーザ104を誘導することを可能にする。さらに環境100は、概してユーザ104が患者106を観察している状況にあると開示されているが、環境100は、ユーザが樹木、岩、油田、または惑星のような任意の対象物の1つ以上の内層を観察したいと思う任意の環境としてより広く定義され得ることが理解される。
別の例では、ARヘッドセット108は、加えて、または代わりに、音声コマンドを用いてユーザ104によって制御されてもよい。例えば、ユーザの手は患者106の手術または他の医療処置に従事しており、よって手振りを用いてARヘッドセット108ヘッドセットを制御するのは不都合であるため、ユーザ104は音声コマンドを用いてもよい。この例では、音声コマンドは、仮想ユーザインタフェース114を制御するため(例えば仮想ユーザインタフェース114の選択肢を選択するため)、仮想空間的差異ボックス116を制御するため(例えば仮想空間的差異ボックス116を表示と非表示との間で切り替えるため、または仮想空間的差異ボックス116に表示された3Dデータのスライスを再配置するため)、または仮想カーソル122を制御するため(例えば患者106上に投影された仮想カーソル122を表示と非表示との間で切り替えるため)、またはいくつかのそれらの組み合わせを制御するために用いられ得る。さらに、この例において、音声コマンドは他の仮想コントロールとは独立して用いられてもよい。例えば、音声コマンドは、患者106上に投影された3Dデータの表示と非表示とを切り替えるか、またはそのような3Dデータの透明度のレベルを調整するために用いられてもよい。これらは、ユーザ104が患者106に対して手術を実施している間に有用であり、ユーザ104が投影された3Dデータを必要な場合のみに観察し、3Dデータが邪魔になる場合には投影された3Dデータを観察しないようにするか、または3Dデータをより透明にすることを可能にし得る。別の例では、仮想ユーザインタフェース114のようなARヘッドセット108の制御は、ユーザ104に対して、選択肢を少なくとも一部は聴覚的に提示してもよい。選択肢の可聴表示は、ユーザ104が、実際に音声コマンドを発声する前に、最初に音声選択肢(例えば可能な音声コマンド)を聞くことができるようにし得る。選択肢の可聴表示はまた、ユーザ104が、現在ユーザの視野内に存在しない、かつ/または現在ARヘッドセット108によって非表示にされている仮想コントロールと依然として相互作用できると同時に、患者106に対するARヘッドセット108の焦点の向き120および/またはユーザ104の視覚焦点を維持することを可能にし得る。
図2A〜図2Fは、第1患者を含む図1のAR環境100の写真である。図2Aに開示するように、ユーザは第1患者の3Dデータにより第1患者のリアルタイムビューを拡張するARヘッドセットを着用し得る。また図2Aには、ユーザがARヘッドセットの仮想コントロールを操作するために手振りを用いてもよいことも開示されている。図2B〜図2Fは、ARヘッドセットを着用しているユーザの視点(perspective)からの実景(actual view)を開示している。図2Bに開示するように、ユーザは、第1患者のリアルタイムビュー上に投影された患者の脳のCT画像を表す3Dデータの軸方向スライスを得るために、手振りを用いてもよい。図2C開示するように、仮想空間的差異ボックスは、ユーザによって、第1患者の脳のCT画像を表す3Dデータの同一の軸方向スライスを観察するために用いられ得る。図2Dに開示するように、ARヘッドセットを着用しているユーザが第1患者のまわりを反時計回りに歩くにつれて、第1患者の脳のCT画像を表す3Dデータの同一の軸方向スライスは3D空間内の異なる角度から観察され得る。図2Eおよび図2Fに開示するように、ユーザは軸方向スライスの観察から矢状スライスの観察へ、次に矢状スライスの観察から冠状スライスの観察にそれぞれ変更するために、仮想ユーザインタフェースの1つ以上の選択肢をそれぞれ操作し得る。
図3は第2患者を含む図1のAR環境の写真である。特に、図3はARヘッドセットを着用しているユーザの視点からの実景を開示している。図3に開示するように、ARヘッドセットは、仮想ユーザインタフェースがARヘッドセットから第2患者までのリアルタイム距離にほぼ等しいARヘッドセットからの焦点距離に常に配置されるようにするために、仮想ユーザインタフェースの表示をリアルタイムで更新し得る。さらに、ARヘッドセットは、仮想ユーザインタフェースがARヘッドセットの焦点の向きに常に直交して配向されるようにするために、仮想ユーザインタフェースの表示をリアルタイムで更新し得る。
図4A〜図4Bは、第3患者を含む図1のAR環境の写真である。具体的には、図4A〜図4Bは、ARヘッドセットを着用しているユーザの視点からの実景を開示している。図4Aと図4Bとを比較して開示しているように、ARヘッドセットは、ARヘッドセットの焦点の向きが第3患者にフォーカスしていない間はリアルタイムビュー上に投影された仮想ユーザインタフェースを表示するが(図4Bに開示)、ARヘッドセットの焦点の向きが第3患者にフォーカスしている間は仮想ユーザインタフェースを非表示にするように構成され得る。このように、ARヘッドセットは、仮想ユーザインタフェースが第3患者のビューを遮ることを回避し得る。いくつかの実施形態では、第3患者は一般に水平方向の視界よりも下方に配置されているため、ARヘッドセットは、ARヘッドセットの焦点の向きが水平よりも上方である場合には仮想ユーザインタフェースを表示し、ARヘッドセットの焦点の向きが水平であるか、または水平よりも下方である場合には仮想ユーザインタフェースを非表示にすることによって、仮想ユーザインタフェースが第3患者のビューを遮ることを回避してもよい。これらの実施形態では、ユーザは、ARヘッドセットを着用している間はいつでも単に見上げることにより、仮想ユーザインタフェースを見ることができる。
図2A〜図4Bの写真に開示したように、3人の患者の3Dデータの投影された内層は、組織特性を表す色勾配を用いて着色されていてもよく、その色勾配は3人の患者の外層のリアルタイムビュー上に投影されたときに見えるように標準的な色勾配から変更されている。例えば、3DデータがCTスキャン画像およびX線像のうちの1つ以上を含んでいるいくつかの実施形態では、色勾配によって表される組織特性としては、最も軟質な組織から最も硬質な組織にわたる組織硬度が挙げられる。他の実施形態では、色勾配によって表される組織特性としては、緩和能(relaxivity)、エコー輝度(echogenicity)、エンハンスメント量(enhancement amount)、エンハンスメント速度(enhancement speed)、密度、放射活性および水分含量のうちの1つ以上が挙げられるが、これらに限定されるものではない。ARヘッドセットを着用しているユーザが色勾配をより容易に見ることができるようにするためには、より暗い色勾配は患者上に投影されたときに患者のビューに溶け込んでしまうことがあるので、色勾配はコンピュータディスプレイ上で用いられる標準的な色勾配よりも明るい色に変更され得る。
図5は、3Dデータにより患者のビューを拡張する際に用いられ得る例示的なコンピュータシステム500を示している。いくつかの実施形態において、コンピュータシステム500は、この開示に記載するシステムまたは装置のうちのいずれかの一部であってもよい。例えば、コンピュータシステム500は、ARヘッドセット108または図1のサーバ112のうちのいずれかの一部であってもよい。
コンピュータシステム500は、プロセッサ502、メモリ504、ファイルシステム506、通信ユニット508、オペレーティングシステム510、ユーザインタフェース512、およびARモジュール514を備え、これらはすべて通信可能に接続され得る。いくつかの実施形態では、コンピュータシステム500は、例えばデスクトップコンピュータ、クライアントコンピュータ、サーバコンピュータ、携帯電話、ラップトップコンピュータ、スマートフォン、スマートウォッチ、タブレットコンピュータ、携帯音楽プレーヤ、組込み型コンピュータ、ARヘッドセット、VRヘッドセット、または他のコンピュータシステムであってもよい。
一般に、プロセッサ502は、様々なコンピュータハードウェアまたはソフトウェアモジュールを含む任意の適切な専用もしくは汎用コンピュータ、計算主体(computing entity)、または処理デバイスを含んでもよく、任意の適用可能なコンピュータ可読記憶媒体上に記憶された命令を実行するように構成され得る。例えば、プロセッサ502としては、マイクロプロセッサ、マイクロコントローラ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、またはプログラム命令を解釈および/もしくは実行し、かつ/またはデータを処理するように構成された他のデジタルもしくはアナログ回路、または任意のそれらの組み合わせが挙げられる。いくつかの実施形態において、プロセッサ502は、メモリ504および/またはファイルシステム506に記憶されたプログラム命令を解釈および/もしくは実行し、かつ/またはメモリ504および/またはファイルシステム506に記憶されたデータを処理し得る。いくつかの実施形態において、プロセッサ502はファイルシステム506からプログラム命令を読み込んで(fetch)、そのプログラム命令をメモリ504にロードし得る。プログラム命令がメモリ504にロードされた後、プロセッサ502はプログラム命令を実行し得る。いくつかの実施形態では、命令は、プロセッサ502が図6A〜図6Eの方法600のうちの1つ以上のブロックを実施することを含み得る。
メモリ504およびファイルシステム506は、コンピュータ実行可能命令またはデータ構造を保持または記憶するためのコンピュータ可読記憶媒体を含み得る。そのようなコンピュータ可読記憶媒体は、プロセッサ502のような汎用または専用コンピュータによってアクセスされ得る任意の入手可能な非一時的媒体であってもよい。一例として、これに限定されるものではないが、そのようなコンピュータ可読な記憶媒体としては、読み出し専用メモリ(ROM)、電気的消去書込み可能な読み出し専用メモリ(EEPROM)、コンパクトディスクを使った読み出し専用メモリ(CD−ROM)もしくは他の光学ディスク記憶装置、磁気ディスク記憶装置もしくは他の磁気記憶装置、フラッシュメモリデバイス(例えばソリッドステートメモリデバイス)、または所望のプログラムコードをコンピュータ実行可能命令もしくはデータ構造の形で保持もしくは記憶するために用いられ、かつ汎用もしくは専用コンピュータによってアクセスされ得る他の記憶媒体を含む、非一時的コンピュータ可読記憶媒体が挙げられる。上記の組み合わせもコンピュータ可読記憶媒体の範囲内に含まれてもよい。コンピュータ実行可能命令としては、例えば、図6A〜図6Eの方法600の1つ以上のブロックのような特定の動作または動作の群をプロセッサ502に実施させるように構成された命令およびデータが挙げられる。これらのコンピュータ実行可能命令は、例えば、オペレーティングシステム510内、ARモジュール514のような1つ以上のアプリケーション内、またはそれらのいくつかの組み合わせの中に含まれていてもよい。
通信ユニット508は、図1のネットワーク110のようなネットワーク上において情報を送信または受信するように構成された任意の構成要素、装置、システム、またはそれらの組み合わせを含み得る。いくつかの実施形態において、通信ユニット508は、他の位置にある他の装置、同一の位置にある他の装置、または同一システム内の他の構成要素とさえ通信し得る。例えば、通信ユニット508としては、モデム、ネットワークカード(無線または有線)、赤外線通信装置、無線通信装置(アンテナなど)、および/またはチップセット(ブルートゥース装置、802.6装置(例えばメトロポリタンエリアネットワーク(MAN))、WiFi装置、WiMax装置、セルラー通信装置など)、および/または同種のものが挙げられる。通信ユニット508は、本開示に記載したもののようなネットワークおよび/または他の装置もしくはシステムとデータが交換されることを可能にし得る。
オペレーティングシステム510は、コンピュータシステム500のハードウェアおよびソフトウェア資源を管理するように構成されてもよく、またコンピュータシステム500に共通サービスを提供するように構成されてもよい。
ユーザインタフェース512は、ユーザがコンピュータシステム500と相互作用することを可能にするように構成された任意の装置を含み得る。例えば、ユーザインタフェース512は、映像、テキスト、アプリケーションユーザインタフェース、およびプロセッサ502によって指示されるような他のデータを示すように構成されたLCD、LED、またはARレンズのような他の表示装置などの表示装置を含んでもよい。ユーザインタフェース512はさらに、マウス、トラックパッド、キーボード、タッチスクリーン、音量調節器、他のボタン、スピーカ、マイクロホン、カメラ、任意の周辺機器、または他の入力装置もしくは出力装置を含んでいてもよい。ユーザインタフェース512は、ユーザから入力を受信し、その入力をプロセッサ502に提供し得る。同様に、ユーザインタフェース512はユーザに出力を提示し得る。
ARモジュール514は、プロセッサ502によって実行された場合に図6A〜図6Eの方法600の1つ以上のブロックのような1つ以上の方法を実施するように構成された、メモリ504またはファイルシステム506のような1つ以上の非一時的コンピュータ可読な媒体上に記憶された1つ以上のコンピュータ可読命令であってもよい。いくつかの実施形態において、ARモジュール514は、オペレーティングシステム510の一部であってもよいし、またはコンピュータシステム500のアプリケーションの一部であってもよいし、またはそれらのいくつかの組み合わせであってもよい。
コンピュータシステム500に対して、本開示の範囲から逸脱することなく、変更、追加または省略がなされてもよい。例えば、コンピュータシステム500の構成要素502〜514のうちのいずれも、図5では各々が単一の構成要素として示されているが、共同して機能し、通信可能に接続された複数の類似した構成要素を含んでいてもよい。さらに、コンピュータシステム500は、単一のコンピュータシステムとして示されているが、例えばクラウドコンピューティング環境、マルチテナンシー環境、または仮想化環境などにおいて、ともにネットワーク化された複数の物理的または仮想コンピュータシステムを含んでもよいことが理解される。
図6A〜図6Eは、3Dデータにより患者のビューを拡張する例示的な方法のフローチャートである。方法600は、いくつかの実施形態において、装置またはシステムによって、例えば図1のARヘッドセット108上および/またはサーバ112上で実行する図5のARモジュール514によって、実施され得る。これらおよび他の実施形態において、方法600は、1つ以上の非一時的コンピュータ可読媒体上に記憶された1つ以上のコンピュータ可読命令に基づいて、1つ以上のプロセッサによって実施され得る。これより方法600について、図1、図2A〜図2F、図3、図4A〜図4B、図5、および図6A〜図6Eに関連して説明する。方法600は、以下ではARヘッドセットによって実施されると記載されているが、方法600は代わりに別のコンピュータシステムまたはコンピュータシステムの組み合わせによって実施されてもよいことが理解される。
ブロック602において、ARヘッドセットは患者の3Dデータを特定し得る。例えば、図1のARヘッドセット108は、ブロック602において、患者106の3Dデータを特定し得る。
いくつかの実施形態において、図1の患者106の3Dデータは、1つ以上の方法を用いて、患者106が環境100内に存在している間にリアルタイムで、かつ/または患者106が環境100に進入する前のいずれかにおいて捕捉または生成され得る。例えば、3Dデータのうちの一部は、患者106が環境100に進入する前に得られてもよく、次にその3Dデータは患者106が環境100内に存在している間にリアルタイムで得られる付加的な3Dデータによって拡張されてもよい。例えば、患者106の3Dデータとしては、MRI画像、コンピュータ断層撮影(CT)スキャン画像、X線画像、陽電子放出断層撮影(PET)画像、超音波画像、蛍光画像、赤外線サーモグラフィ(IRT)画像、または単光子放出断層撮影(SPECT)スキャン画像、またはそれらのいくつかの組み合わせが挙げられるが、これらに限定されるものではない。これらの画像のいずれも、静止画像の形態であってもよいし、またはビデオ画像の形態であってもよい。例えば、方法600は、(図1に示したように)患者106の骨格系の静止X線画像を用いてもよい。別の例において、方法600は、患者106の拍動心の超音波のビデオ画像を用いてもよい。別の例において、方法600は、心臓の静止画像と拍動している心臓のリアルタイムビデオとの間で切り替えることができてもよい。
患者の3Dデータは、様々な異なる方法を用いて得られるが、いくつかの実施形態では、患者の外層および患者の複数の内層を含み得る。例えば、図1の患者106の外層は、図1の患者106の皮膚106aおよび/または患者106が着用している衣服107を含み得る。別の例では、皮膚が遺体から除去されている場合には、遺体の外層は筋肉または脂肪の層のような皮膚以外の組織層であることがある。患者106の内層は、患者106の内部の骨106b(図1に図示)、筋肉、器官、または流体を含み得るが、これらに限定されるものではない。2D画像が3D空間に投影されると2D画像は3Dの意味(3D significance)を有するので、3DデータはX線画像のような2D画像を含み得る。例えば、患者106の3Dデータは、皮膚106aまたは患者106の衣服107上に投影され得る2DのX線画像を含んでいてもよい。3Dデータはまた時間要素を含んでいてもよく、これは時に4次元(4D)データと称される。例えば、3Dデータは、3D画像だけでなく、経時的に変化する3D画像も含むビデオを含んでいてもよい。複数の内層は、患者106全体に及ぶ層であってもよいし、患者106内に特定の部分的深さだけ及ぶ層であってよい。例えば、ミリ波パッシブ撮像装置(millimeter wave scanner)から導出された3Dデータのようないくつかの形態の3Dデータは、単に患者の外衣と皮膚との間に備えられた物を明らかにするように構成されていてもよい。加えて、または代わりに、3Dデータは、患者106に特定的に対応する代わりに、事前設定解剖アトラスから導出された3Dデータのような、単に一般的に患者106に対応するデータであってもよい。3Dデータはまた様々な種類の3Dデータの組み合わせであってもよい。
いくつかの実施形態では、3Dデータが捕捉されたときに患者106が存在したのと同じ相対位置および/または向きで、図1の患者106を手術台103上に配置するように注意が払われ得る。代わりに、3Dデータが捕捉または生成されたときに患者106が存在したのとは異なる手術台103上の位置および/または向きに患者106が配置されている場合には、ARヘッドセット108は、患者106の異なる位置および/または向きと一致するように3Dデータを変形させ得る。
ブロック604において、ARヘッドセットは、3Dデータから患者の外層の仮想形態計測測定値を決定し得る。例えば、図1のARヘッドセット108は、ブロック604において、3Dデータから患者106の外層の仮想形態計測測定値を決定し得る。これらの仮想形態計測測定値の決定は、ARヘッドセット108が3Dデータから患者の外層の寸法および形状を決定するために3Dデータを分析することを含み得る。いくつかの実施形態において、外層の仮想形態計測測定値は、外層の寸法および形状を表す外層の点群を生成することを伴い得る。例えば、外層が三角形または他の多角形形状によって表される場合、点群は多角形状の頂点のうちの一部またはすべてを含み得る。
ブロック606では、ARヘッドセットは、3D空間内における患者の外層のリアルタイム位置を登録し得る。例えば、図1のARヘッドセット108は、ブロック606において、3D空間102内における患者106の皮膚106aおよび衣服107のリアルタイム位置を登録し得る。いくつかの実施形態において、ARヘッドセット108は、3D空間102をマップし、3D空間102内における患者106の外層のリアルタイム位置をマップするように構成された1つ以上のセンサを含み得る。これらのセンサとしては、赤外線センサ、サウンドセンサ、撮影センサ(photographic sensors)、透視センサ(fluoroscopy sensors)、加速度計、ジャイロスコープまたは磁力計が挙げられるが、これらに限定されるものではない。
ブロック608において、ARヘッドセットは、患者の外層のリアルタイム形態計測測定値を決定し得る。例えば、図1のARヘッドセット108は、ブロック608において、患者106の皮膚106aおよび衣服107のリアルタイム形態計測測定値を決定し得る。いくつかの実施形態において、ブロック606における登録に用いられたセンサはまた、患者106の皮膚106aおよび衣服107のリアルタイムの寸法および形状を決定するためにも用いられ得る。いくつかの実施形態において、これは、患者106の皮膚106aおよび衣服107の寸法および形状を表す皮膚106aおよび衣服107の点群を生成することを含み得る。
ブロック610において、ARヘッドセットは、3Dデータからの患者の外層の位置を自動的に登録し、登録された3D空間内における患者の外層のリアルタイム位置と位置合わせし得る。例えば、図1のARヘッドセット108は、ブロック610において、3Dデータからの患者106の外層の位置を自動的に登録して、登録された3D空間102内における患者106の皮膚106aおよび衣服107のリアルタイム位置と位置合わせし得る。いくつかの実施形態において、この自動登録(automatic registration)は、点群レジストレーション(point set registration)を用いて、ブロック604において生成された点群をブロック608において生成された点群と自動的に位置合わせすることを含み得る。ブロック610の自動登録は、3Dデータからの患者の外層を患者のリアルタイム外層と位置合わせする手動の方法よりも時間がかからず、煩雑ではなく、誤りを生じ難いことがある。さらに、いくつかの実施形態において、ブロック610は任意の非解剖学的基準を用いることなく実施され得る。これは、時間がかかり、煩雑であり、不正確な非解剖学的基準の配置を回避し得る。
ブロック612において、ARヘッドセットは、患者の外層のリアルタイムビュー上に投影された3Dデータからの患者の内層のうちの1つを表示し得る。例えば、図1のARヘッドセット108は、ブロック612において、患者106の皮膚106aおよび衣服107のリアルタイムビュー上に投影された3Dデータからの患者106の骨106bを表示し得る。別の例において、患者の脳のCTスキャン画像が、図2Bおよび図2Cでは患者の頭部の頂部上に投影されており、または図2Eでは患者の頭部の側面上に投影されている。
ブロック614において、ARヘッドセットは自動登録が正しいという信頼度スコアを生成し、ブロック616では、ARヘッドセットは信頼度スコアをユーザに提示し得る。例えば、図1のARヘッドセット108は、ブロック614において、ブロック612で実施した自動登録が正しいという信頼度スコアを生成し、その信頼度スコアをユーザ104に対して、視覚的に、聴覚的に、またはいくつかの他の提示形式で提示し得る。いくつかの実施形態において、ARヘッドセット108は、ブロック612において実施された点群レジストレーションの一部として、この信頼度スコアを生成してもよい。例えば、信頼度スコアは、3Dデータの外層が患者106外層と一致する信頼度を示す0%〜100%の間のスコアであってもよい。信頼度スコアが相対的に高い場合には、ユーザ104は、患者106上に投影されている3Dデータが実際に患者106に対応するという自信をもって、ARヘッドセット108を用いた患者106に対する訓練、研究、診断または治療を進め得る。他方で、信頼度スコアが相対的に低い場合には、患者106上に投影されている3Dデータが実際に患者106に対応するかどうかについて当然の疑問が存在するため、ユーザ104は、ARヘッドセット108を用いた患者106の任意の訓練、研究、診断または治療を中止し得る。
ブロック618において、ARヘッドセットは、患者の外層を介して患者に対象物を挿入する前に、対象物のリアルタイム形態計測測定値を決定し得る。例えば、図1のARヘッドセット108は、ブロック618において、患者106の外層を介して患者106に対象物118を挿入する前に、対象物118のリアルタイム形態計測測定値を決定し得る。いくつかの実施形態において、ブロック618における決定はブロック608における決定に類似した方法で実施され得る。他の実施形態において、特に標準的な医療器具のような標準対象物については、ブロック618の決定は、標準対象物の設計資料中に見られる標準対象物の形態計測測定値にアクセスすることにより実施されてもよい。
ブロック622において、ARヘッドセットは、登録された3D空間内における患者の外層の位置に対して、および登録された3Dデータからの患者の外層の位置に対して、3D空間内における対象物のリアルタイム位置を追跡し得る。例えば、図1のARヘッドセット108は、ブロック622において、3D空間102内における患者106の皮膚106aおよび衣服107の登録された位置に対して、および3Dデータからの患者106の外層の登録された位置に対して、3D空間102内における対象物118のリアルタイム位置を追跡し得る。
ブロック624において、対象物の一部が患者の外層を介して患者に挿入されている間、ARヘッドセットは、投影された3Dデータからの患者の内層内に投影された対象物の仮想部分を表示し得る。例えば、図1の対象物118の一部が患者106の衣服107を介して患者106に挿入されている間、ARヘッドセット108は、投影された3Dデータからの患者106の骨106bに投影された対象物118の仮想挿入部118bを表示し得る。
ブロック626において、ARヘッドセットは、患者のリアルタイムビュー上に投影された仮想空間的差異ボックスを表示し得る。例えば、図1のARヘッドセット108は、ブロック626において、患者106のリアルタイムビュー上に投影された仮想空間的差異ボックス116を表示し得る。いくつかの実施形態において、仮想空間的差異ボックス116は、図1の投影された骨106bのような投影された3Dデータからの患者106の内層を所定体積の仮想空間的差異ボックス116内に限定し得る。
ブロック628において、ARヘッドセットは、投影された3Dデータからの患者の内層の表示を変更するための選択肢を含む仮想ユーザインタフェースを生成し得る。例えば、図1のARヘッドセット108は、ブロック628で、投影された3Dデータからの患者106の骨106bの表示を変更するための選択肢を含む仮想ユーザインタフェース114を生成し得る。
ブロック630において、ARヘッドセットは、ARヘッドセットの焦点の向きが患者にフォーカスしていない間に、リアルタイムビュー上に投影された仮想ユーザインタフェースを表示し得る。例えば、図1のARヘッドセット108は、ブロック630で、ARヘッドセット108の焦点の向きが患者106にフォーカスしていない間に、リアルタイムビュー上に投影された仮想ユーザインタフェース114を表示し得る。
ブロック632において、ARヘッドセットは、ARヘッドセットの焦点の向きが患者にフォーカスしている間に、仮想ユーザインタフェースを非表示にし得る。例えば、図1のARヘッドセット108は、ブロック632で、ARヘッドセット108の焦点の向き120が患者106にフォーカスしている間に、仮想ユーザインタフェース114を非表示にし得る。いくつかの実施形態において、ブロック630およびブロック632は、仮想ユーザインタフェース114が患者106の任意のビューを遮ることを回避し得る。
ブロック634において、ARヘッドセットは、ARヘッドセットから患者までのリアルタイム距離を決定し得る。例えば、図1のARヘッドセット108は、ブロック634で、ヘッドセット108から患者106までのリアルタイム距離D1を決定し得る。このリアルタイム距離D1は、例えば、患者106の中心まで、患者106の焦点領域の中心まで、患者106上で現在観察されている3Dデータのスライスまで、または患者106上の他のいくつかの点または全般領域までのリアルタイム距離であり得る。
ブロック636において、ARヘッドセットは、仮想ユーザインタフェースがARヘッドセットから患者までのリアルタイム距離にほぼ等しいARヘッドセットからの焦点距離に常に配置されるようにするために、仮想ユーザインタフェースの表示をリアルタイムで更新し得る。例えば、図1のARヘッドセット108は、仮想ユーザインタフェース114がARヘッドセット108から患者106までのリアルタイム距離D1にほぼ等しいARヘッドセット108からの焦点距離D2に常に配置されるようにするために、仮想ユーザインタフェース114の表示をリアルタイムで更新し得る。この焦点距離D2は、ユーザ104が患者106と仮想ユーザインタフェース114との間でユーザの焦点を移すときにユーザの眼の焦点を変更しなければならないことを回避し得るので、ユーザ104にとって快適であり得る。
ブロック638において、ARヘッドセットは、仮想ユーザインタフェースがARヘッドセットの焦点の向きに常に直交して配向されるようにするために、仮想ユーザインタフェースの表示をリアルタイムで更新し得る。例えば、図1のARヘッドセット108は、仮想ユーザインタフェース114がARヘッドセット108の焦点の向き120に常に直交して配向されるようにするために、仮想ユーザインタフェース114の表示をリアルタイムで更新し得る。仮想ユーザインタフェース114がARヘッドセット108より上方に配置されている場合には、図1に開示するように、仮想ユーザインタフェース114をARヘッドセット108に直交させて配向することにより、仮想ユーザインタフェース114の頂部は図1に開示するようにARヘッドセット108に向かって若干下方に傾けられ得る。この配向は、ARヘッドセット108の現在の焦点の向き120に関わらず、またユーザ104が3D空間102内のどこに立っているかに関わらず、仮想ユーザインタフェース114を常にユーザ104に対して正面に対面させるので、ユーザ104にとって快適であり得る。
ブロック640において、ARヘッドセットは、ARヘッドセットの焦点の向きが患者にフォーカスしていない間に、リアルタイムビュー上および/または仮想ユーザインタフェース上に投影される仮想カーソルを表示し得る。例えば、図1のARヘッドセット108は、ブロック640で、ARヘッドセット108の焦点の向きが患者106にフォーカスしていない間に、リアルタイムビュー上および/またはユーザインタフェース114上に投影される仮想カーソル122を表示し得る。
ブロック642において、ARヘッドセットは、ARヘッドセットの焦点の向きが患者にフォーカスしている間に、仮想カーソルを非表示にし得る。例えば、図1のARヘッドセット108は、ブロック642で、ARヘッドセット108の焦点の向き120が患者106にフォーカスしている間に、仮想カーソル122を非表示にし得る。いくつかの実施形態において、ブロック640,642は、仮想カーソル122が患者106の任意のビューを遮ることを回避し得る。いくつかの実施形態において、図1のARヘッドセット108は、ブロック642で、ARヘッドセット108の焦点の向き120が患者106にフォーカスしている間に、仮想カーソル122を選択的にのみ非表示にし得る。これらの実施形態において、ARヘッドセット108の焦点の向き120が患者106にフォーカスしている間にユーザ104が仮想カーソル122の使用を所望し得る状況、例えば、ユーザ104が、患者106のビューに注釈を付けるため、および/または投影された3Dデータに注釈を付けるためにアノテーションツール(annotation tool)を用いている場合(例えば手術中に目的の位置を追跡し続けるのを支援するために、他の3Dデータが非表示にされている場合であっても患者106上に投影されたままとなり得る、例えば十字線注釈)、またはユーザ104が患者106のビューの測定を行うため、および/または投影された3Dデータを測定するために測定ツールを用いている場合などが存在することがある。
いくつかの実施形態において、方法600は、患者の3Dデータと実際の患者との間の自動位置合わせ(automatic alignment)を行ってもよい。さらに、この自動位置合わせは、非解剖学的基準を手動で位置合わせおよび/または手動で配置することなく行われ、よって従来型の手動位置合わせよりも容易かつ正確に自動位置合わせを成し遂げ得る。
方法600のブロックは図6A〜図6Eでは個別のブロックとして示されているが、様々なブロックは、所望の実施に応じて、付加的なブロックに分割されてもよく、より少数のブロックに組み合わせられてもよく、並べ替えられてもよく、拡張されてもよく、または排除されてもよい。例えば、いくつかの実施形態では、ブロック602〜612は、ブロック614〜642のうちの任意のものを実施することなく、実施されてもよい。さらに、いくつかの実施形態において、ブロック614〜616、ブロック618〜624、ブロック626、またはブロック628〜642のうちの任意のものに関連して、患者と3Dデータとの間の登録および位置合わせが自動的にではなく手動で実施される場合のように、ブロック604〜610を伴うことなく、ブロック602,612のみが実施されてもよい。さらに、いくつかの実施形態において、ブロック628〜632はブロック634〜642を伴うことなく実施されてもよい。また、いくつかの実施形態において、ブロック628〜636はブロック638〜642を伴うことなく実施されてもよく、ブロック628〜632およびブロック638はブロック634〜636およびブロック640〜642を伴うことなく実施されてもよく、またはブロック628〜632およびブロック640〜642はブロック634〜638を伴うことなく実施されてもよい。さらに、いくつかの実施形態において、ブロック614〜642のうちの任意のものが並行して実施されてもよい。
別の例において、方法600はさらに、患者が手術用覆布に覆われる前後のいずれかにおいて自動登録の問題に対処することを含んでいてもよい。例えば、ブロック610は患者を手術用覆布内に覆う前に実施されてもよく、次いでブロック612において3Dデータが手術用覆布上に投影されてもよい。しかしながら、患者が手術用覆布内に覆われた後にブロック610が実施される場合には、方法600は、患者の適切な外層を不明瞭にする手術用覆布の問題に対処するように変更され得る。方法600に対するそのような変更の1つは、ARヘッドセットが手術用覆布を見通す(penetrate)ことができ、患者のより適切な外層を見つけることができるほど十分に透明な手術用覆布を用いることを含み得る。別のそのような変更は、手術用覆布で覆った後でも見え続け、かつブロック612中に気付くことができる位置に(例えば特定パターンで)患者の外層上に視覚的マーカを配置することを含み得る。その場合には、患者の大部分が比較的不透明な手術用覆布内に覆われている場合であっても、視覚的マーカが依然として目に見える限り、基準点として視覚的マーカを用いて自動再登録(automatic re−registration)を実施することができる。別のそのような変更は、視覚外マーカ(extra−visual markers)を外層上もしくは患者上、あるいは患者の内部において、手術用覆布で覆った後には見え続けないが、それらのマーカがブロック612中には見えるため、またはそれらのマーカがブロック612中にセンサによって感知されるために、ブロック612中に気付くことができる位置に(例えば特定パターンで)配置することを含む。これらの視覚外マーカは、たとえ視覚外マーカがARヘッドセットに対して見えなくても、ARヘッドセット内のセンサによって手術用覆布下において検知することができる材料から製造され得る。例えば、金属検知器センサが金属視覚外マーカ(例えば皮下または体腔内に挿入された金属メッシュマーカまたは金属マーカなど)を検知してもよいし、赤外線センサが赤外線検知可能な視覚外マーカを検知してもよいし、磁気検出器センサが磁界発生視覚外マーカを検知してもよいし、またはラジオ周波検出器がラジオ周波発生視覚外マーカを検知してもよい。その場合には、患者の大部分が比較的不透明な手術用覆布中に覆われている場合であっても、ARヘッドセット内のセンサが手術用覆布下の視覚外マーカの位置を検知することができる限り、基準点として視覚外マーカを用いて自動再登録を実施することができる。
さらに、方法600は、ARシステム自体の機能を向上し、またARの分野を改善し得ることが理解される。例えば、図1のARヘッドセット108の機能は、それ自体、方法600により、仮想形態計測測定値を用いて、かつリアルタイム形態計測測定値を用いて、また一部の場合には任意の非解剖学的基準を用いることなく、3Dデータからの患者106の外層の仮想位置を、登録された3D空間102内における患者106の外層(例えば皮膚106aおよび衣服107)のリアルタイム位置と位置合わせするために、自動的に登録することによって向上され得る。この自動登録は、手動登録または非解剖学的基準の手動配置を用いた登録を使用する従来のARシステムよりも容易かつ正確に実施され得る。
上記に示したように、本願に記載する実施形態は、以下でより詳細に検討するような様々なコンピュータハードウェアまたはソフトウェアモジュールを含む専用または汎用コンピュータ(例えば図5のプロセッサ502)の使用を含み得る。さらに上記に示したように、本願に記載する実施形態は、記憶されたコンピュータ実行可能命令またはデータ構造を保持するか、または有するためのコンピュータ可読媒体(例えば図5のメモリ504またはファイルシステム506)を用いて実施されてもよい。
いくつかの実施形態において、本願に記載する異なる構成要素およびモジュールは、コンピューティングシステム上で実行するオブジェクトまたはプロセスとして(例えば別々のスレッドとして)実施されてもよい。本願に記載する方法のうちのいくつかは、概して、(汎用ハードウェア上に記憶され、かつ/またはた汎用ハードウェアによって実行される)ソフトウェア内において実施されると記載されているが、特定ハードウェア実施またはソフトウェア実施と特定ハードウェア実施との組み合わせも可能であり、企図される。
慣例に従って、図面に示した様々な特徴は、一定の縮尺で描かれていない場合がある。本開示に示した実例は、任意の特定の装置(例えば装置、システムなど)または方法の実景であることを意図するものではなく、しかしながら単に本開示の様々な実施形態を説明するために用いられている表現の例にすぎない。従って、様々な特徴の寸法は、明瞭にするために任意で拡大または縮小されていることがある。加えて、図面のうちのいくつかは明瞭にするために単純化されていることがある。よって、図面は、所与の装置(例えばデバイス)の構成要素のすべて、または特定の方法のすべての操作を示しているとは限らない。
本願および特に添付の特許請求の範囲(例えば、添付の特許請求の範囲の本文)において使用される用語は、一般に「オープン」タームとして意図される(例えば「〜を含む(including)」という語は「〜を含むが、これ(ら)に限定されるものではない(including, but not limited to)」と解釈されるべきであり、「〜を有する(having)」という語は「〜を少なくとも有する(having at least)」と解釈されるべきであり、「〜を含む(includes)」という語は「〜を含むが、これ(ら)に限定されるものではない(includes, but is not limited to)」と解釈されるべきである、など)。
更に、導入された請求項の記載事項において特定の数が意図される場合には、そのような意図は当該請求項中に明示的に記載されており、またそのような記載がない場合には、そのような意図は存在しない。例えば、理解を助けるものとして、以下の添付の特許請求の範囲は請求項の記載を導入するために「少なくとも1つの(at least one)」および「1つ以上の(one or more)」という導入句の使用を含むことがある。しかしながら、そのような句の使用は、「a」または「an」という不定冠詞による請求項の記載事項の導入が、たとえ同一の請求項内に「1つ以上の」または「少なくとも1つの」という導入句と「a」または「an」のような不定冠詞とが含まれる場合であっても、そのように導入された請求項の記載事項を含むいかなる特定の請求項も、そのような記載事項を1つしか含まない実施形態に限定されることを意味すると解釈されるべきではない(例えば、「a」および/または「an」は「少なくとも1つの」または「1つ以上の」を意味するものと解釈されるべきである)。請求項の記載事項を導入するために用いられる定冠詞の使用についても同様のことが当てはまる。
加えて、導入された請求項の記載事項において特定の数が明示的に記載されている場合であっても、そのような記載は、少なくとも記載された数を意味するものと解釈されるべきであることが理解される(例えば、他に修飾語のない「2つの記載事項」という単なる記載は、少なくとも2つの記載事項、または2つ以上の記載事項を意味する)。更に、「A、B、およびCなどのうちの少なくとも1つ」または「A、B、およびCなどのうちの1つ以上」に類する表現が用いられる場合、一般に、そのような構文は、Aのみ、Bのみ、Cのみ、AおよびBの両方、AおよびCの両方、BおよびCの両方、および/またはA、BおよびCのすべて、などを含むことが意図される。例えば、「および/または」という用語の使用は、このように解釈されることが意図される。
更に、2つ以上の選択的な用語を表す任意の離接語および/または離接句は、要約書、詳細な説明、特許請求の範囲、または図面のいずれの中であろうと、それら用語のうちの1つ、それらの用語のうちのいずれか、またはそれらの用語の双方を含む可能性を意図すると理解されるべきである。例えば、「AまたはB」という句は、「A」もしくは「B」、または「AおよびB」の可能性を含むものと理解されるべきである。
加えて、「第1」、「第2」、「第3」などの用語の使用は、本願では、必ずしも要素の特定の順位または数を意味するために用いられているとは限らない。一般に、「第1」、「第2」、「第3」などの用語は、共通識別子として異なる要素を区別するために用いられる。「第1」、「第2」、「第3」などの用語が特定の順序を意味することが示されていない場合には、これらの用語は特定の順序を意味すると理解されるべきではない。更に、「第1」「第2」、「第3」などの用語が要素の特定の数を意味することが示されていない場合、これらの用語は要素の特定の数を意味すると理解されるべきではない。例えば、第1部品は第1側面を有すると記載され、かつ第2部品は第2側面を有すると記載されてもよい。第2部品に関して「第2側面」という用語を使用するのは、第2部品のそのような側面を第1部品の「第1側面」と区別するためであり、第2部品が2つの側面を有することを示すためではない。
説明を目的とした前記の記載は、特定の実施形態に関連して記載されている。しかしながら、上記の例示的な検討が、網羅的であること、または本発明を開示されたまさにその形態に権利要求されるように限定することは意図されていない。上記の教示を考慮して、多くの変更および変形例が可能である。実施形態は実際の応用について説明するために選択され記載されており、それにより他の当業者が企図される特定の用途に適し得るような様々な変更を伴った請求項に記載の本発明および様々な実施形態を用いることが可能となる。

Claims (27)

  1. 三次元(3D)データにより患者のリアルタイム非画像実景を拡張する方法であって、前記方法は、
    患者のリアルタイム3Dビデオデータをリアルタイムで捕捉することと、前記リアルタイム3Dビデオデータは患者の外層および患者の複数の内層を含むことと、
    拡張現実(AR)ヘッドセットにおいて、リアルタイムで、前記患者の外層のリアルタイム非画像実景上に投影された前記リアルタイム3Dビデオデータからの前記患者の内層のうちの1つを表示することとを含む、方法。
  2. 投影された前記リアルタイム3Dビデオデータの内層は、前記患者の外層内で活動している内臓を示す、請求項1に記載の方法。
  3. 実行時に請求項1に記載の方法を1つ以上のプロセッサに実施させるように構成された1つ以上のプログラムを記憶した1つ以上の非一時的コンピュータ可読媒体。
  4. 三次元(3D)データにより患者のリアルタイム非画像実景を拡張する方法であって、前記方法は、
    患者の3Dデータを特定することと、前記3Dデータは患者の外層および患者の複数の内層を含むことと、
    前記患者の3Dデータが捕捉されたときに前記患者が存在したのとは異なる位置に前記患者を配置することと、
    前記3Dデータを前記患者の異なる位置に合致するように変形させることと、
    拡張現実(AR)ヘッドセットにおいて、前記患者の外層のリアルタイム非画像実景上に投影された前記変形された3Dデータからの前記患者の内層のうちの1つを表示することとを含む、方法。
  5. 前記配置することは、前記患者の3Dデータが捕捉されたときに前記患者が存在したのとは異なる向きに前記患者を配置することを含み、
    前記変形させることは、前記3Dデータを前記患者の異なる向きに合致するように変形させることを含む、請求項4に記載の方法。
  6. 実行時に請求項4に記載の方法を1つ以上のプロセッサに実施させるように構成された1つ以上のプログラムを記憶した1つ以上の非一時的コンピュータ可読媒体。
  7. 三次元(3D)データにより患者のリアルタイム非画像実景を拡張する方法であって、前記方法は、
    患者の3Dデータを特定することと、前記3Dデータは患者の外層および患者の複数の内層を含むことと、前記患者の複数の内層は元の色勾配を有することと、
    前記患者の外層のリアルタイム非画像実景上に投影された場合により良好に見えるようにするために、前記複数の内層の色勾配を前記元の色勾配よりも明るくなるように変更することと、
    拡張現実(AR)ヘッドセットにおいて、前記患者の外層のリアルタイム非画像実景上に投影された前記3Dデータからの患者の内層のうちの1つを表示することと、前記投影された前記3Dデータからの患者の内層は変更された色勾配を有することとを含む、方法。
  8. 前記変更された色勾配は、前記患者の複数の内層の組織特性を表しており、前記組織特性は、組織硬度、緩和度、エコー輝度、エンハンスメント量、エンハンスメント速度、密度、放射活性および水分含量のうちの1つ以上を含む、請求項7に記載の方法。
  9. 実行時に請求項7に記載の方法を1つ以上のプロセッサに実施させるように構成された1つ以上のプログラムを記憶した1つ以上の非一時的コンピュータ可読媒体。
  10. 三次元(3D)データにより患者のリアルタイム非画像実景を拡張する方法であって、前記方法は、
    患者の3Dデータを特定することと、前記3Dデータは患者の外層および患者の複数の内層を含むことと、
    拡張現実(AR)ヘッドセットにおいて、前記患者の外層のリアルタイム非画像実景上に投影された前記3Dデータからの患者の内層のうちの1つを表示することと、前記投影された前記3Dデータからの患者の内層は所定体積の仮想空間的差異ボックス内に限定されていることとを含む、方法。
  11. 前記仮想空間的差異ボックスは、頂面、底面、左側面、右側面、前面および後面を備える、請求項10に記載の方法。
  12. 実行時に請求項10に記載の方法を1つ以上のプロセッサに実施させるように構成された1つ以上のプログラムを記憶した1つ以上の非一時的コンピュータ可読媒体。
  13. 三次元(3D)データにより患者のリアルタイム非画像実景を拡張する方法であって、前記方法は、
    患者の3Dデータを特定することと、前記3Dデータは患者の外層および患者の複数の内層を含むことと、
    前記3Dデータからの患者の外層の仮想位置を自動的に登録して、前記患者の外層のリアルタイム位置と位置合わせすることと、
    拡張現実(AR)ヘッドセットにおいて、前記患者の外層のリアルタイム非画像実景上に投影された前記3Dデータからの患者の内層のうちの1つを表示することと、
    前記自動登録が正しいという数値的信頼度スコアを生成することと、
    前記ARヘッドセットにおいて、前記数値的信頼度スコアをユーザに対して表示することとを含む、方法。
  14. 前記数値的信頼度スコアは、前記3Dデータの外層が前記患者の外層に合致する信頼度を示す1〜100の数字である、請求項13に記載の方法。
  15. 実行時に請求項13に記載の方法を1つ以上のプロセッサに実施させるように構成された1つ以上のプログラムを記憶した1つ以上の非一時的コンピュータ可読媒体。
  16. 三次元(3D)データにより患者のリアルタイム非画像実景を拡張する方法であって、前記方法は、
    患者の3Dデータを特定することと、前記3Dデータは患者の外層および患者の複数の内層を含むことと、
    拡張現実(AR)ヘッドセットにおいて、前記患者の外層のリアルタイム非画像実景上に投影された前記3Dデータからの患者の内層のうちの1つを表示することと、
    前記患者の外層のリアルタイム位置に対する対象物のリアルタイム位置を自動的に追跡することと、
    前記対象物の一部が前記患者の外層を介して患者に挿入されている間に、前記ARヘッドセットにおいて、前記投影された患者の内層に投影された前記対象物の仮想部分を表示することとを含む、方法。
  17. 前記対象物は、前記対象物が前記患者の外層を介して前記患者内に挿入された後であっても前記ARヘッドセットのセンサが感知することができる材料から形成されており、
    前記自動的に追跡することは、前記ARヘッドセットのセンサが前記患者の外層のリアルタイム位置に対する前記対象物のリアルタイム位置を自動的に追跡することを含む、請求項16に記載の方法。
  18. 実行時に請求項16に記載の方法を1つ以上のプロセッサに実施させるように構成された1つ以上のプログラムを記憶した1つ以上の非一時的コンピュータ可読媒体。
  19. 三次元(3D)データにより患者のリアルタイム非画像実景を拡張する方法であって、前記方法は、
    患者の3Dデータを特定することと、前記3Dデータは患者の外層および患者の複数の内層を含むことと、
    拡張現実(AR)ヘッドセットにおいて、前記患者の外層のリアルタイム非画像実景上に投影された前記3Dデータからの患者の内層のうちの1つを表示することと、
    前記ARヘッドセットにおいて、前記投影された前記3Dデータからの患者の内層の表示を変更するための選択肢を含む仮想カーソルおよび/または仮想ユーザインタフェースを生成することと、
    前記ARヘッドセットの焦点の向きが前記患者以外の他の場所にフォーカスしていると判定された場合には、前記ARヘッドセットにおいて、リアルタイム非画像実景上に投影された前記仮想カーソルおよび/または仮想ユーザインタフェースを表示することと、
    前記ARヘッドセットの焦点の向きが患者にフォーカスしていると判定された場合には、前記ARヘッドセットにおいて、前記仮想カーソルおよび/または仮想ユーザインタフェースを非表示にすることとを含む、方法。
  20. 前記ARヘッドセットが水平よりも上方にある場合には、前記ARヘッドセットの焦点の向きは前記患者以外の他の場所にフォーカスしていると判定され、かつ
    前記ARヘッドセットが水平よりも下方にある場合には、前記ARヘッドセットの焦点の向きは前記患者上にフォーカスしていると判定される、請求項19に記載の方法。
  21. 実行時に請求項19に記載の方法を1つ以上のプロセッサに実施させるように構成された1つ以上のプログラムを記憶した1つ以上の非一時的コンピュータ可読媒体。
  22. 三次元(3D)データにより患者のリアルタイム非画像実景を拡張する方法であって、前記方法は、
    患者の3Dデータを特定することと、前記3Dデータは患者の外層および患者の複数の内層を含むことと、
    拡張現実(AR)ヘッドセットにおいて、前記患者の外層のリアルタイム非画像実景上に投影された前記3Dデータからの患者の内層のうちの1つを表示することと、
    前記ARヘッドセットにおいて、前記投影された前記3Dデータからの患者の内層の表示を変更するための選択肢を含む仮想ユーザインタフェースを生成することと、
    前記ARヘッドセットにおいて、リアルタイム非画像実景上に投影された前記仮想ユーザインタフェースを表示することと、
    リアルタイムで、前記ARヘッドセットから前記患者までの距離を決定することと、
    前記仮想ユーザインタフェースが前記ARヘッドセットから前記患者までのリアルタイム距離にほぼ等しい前記ARヘッドセットからの焦点距離に常に配置されるようにするために、前記ARヘッドセットにおいて前記仮想ユーザインタフェースの表示をリアルタイムで更新することとを含む、方法。
  23. 前記ARヘッドセットから前記患者までのリアルタイム距離は、前記患者の中心まで、前記患者の焦点領域の中心まで、または前記患者上において現在観察されている3Dデータのスライスまでのリアルタイム距離である、請求項22に記載の方法。
  24. 実行時に請求項22に記載の方法を1つ以上のプロセッサに実施させるように構成された1つ以上のプログラムを記憶した1つ以上の非一時的コンピュータ可読媒体。
  25. 三次元(3D)データにより患者のリアルタイム非画像実景を拡張する方法であって、前記方法は、
    患者の3Dデータを特定することと、前記3Dデータは患者の外層および患者の複数の内層を含むことと、
    拡張現実(AR)ヘッドセットにおいて、前記患者の外層のリアルタイム非画像実景上に投影された前記3Dデータからの患者の内層のうちの1つを表示することと、
    前記ARヘッドセットにおいて、前記投影された前記3Dデータからの患者の内層の表示を変更するための選択肢を含む仮想ユーザインタフェースを生成することと、
    前記ARヘッドセットにおいて、リアルタイム非画像実景上に投影された前記仮想ユーザインタフェースを表示することと、
    前記仮想ユーザインタフェースが常に前記ARヘッドセットの焦点の向きに直交して配向されるようにするために、前記ARヘッドセットにおいて前記仮想ユーザインタフェースの表示をリアルタイムで更新することを含む、方法。
  26. 前記ARヘッドセットの焦点の向きに対する前記仮想ユーザインタフェースの直交した配向は、前記ユーザが前記患者の方に向いているか、または前記患者から離反した方に向いているときでも、前記ARヘッドセットの現在の焦点の向きにかかわらず、前記仮想ユーザインタフェースを常に前記ARヘッドセットを装着しているユーザに対して正面に対面させる、請求項25に記載の方法。
  27. 実行時に請求項25に記載の方法を1つ以上のプロセッサに実施させるように構成された1つ以上のプログラムを記憶した1つ以上の非一時的コンピュータ可読媒体。
JP2020503249A 2017-03-30 2018-03-16 三次元データによる患者のリアルタイムビューの拡張 Pending JP2020516003A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US15/474,702 US9892564B1 (en) 2017-03-30 2017-03-30 Augmenting real-time views of a patient with three-dimensional data
US15/474,702 2017-03-30
US15/894,595 US10475244B2 (en) 2017-03-30 2018-02-12 Augmenting real-time views of a patient with three-dimensional data
US15/894,595 2018-02-12
PCT/US2018/022921 WO2018183001A1 (en) 2017-03-30 2018-03-16 Augmenting real-time views of a patent with three-dimensional data

Publications (1)

Publication Number Publication Date
JP2020516003A true JP2020516003A (ja) 2020-05-28

Family

ID=61147999

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020503249A Pending JP2020516003A (ja) 2017-03-30 2018-03-16 三次元データによる患者のリアルタイムビューの拡張

Country Status (6)

Country Link
US (5) US9892564B1 (ja)
EP (1) EP3602180A4 (ja)
JP (1) JP2020516003A (ja)
KR (1) KR102327527B1 (ja)
CN (1) CN110494921B (ja)
WO (1) WO2018183001A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021523784A (ja) * 2018-05-14 2021-09-09 ノバラッド コーポレイションNovarad Corporation 患者に貼付される光学コードを用いた患者の画像データと患者の実景との位置合わせ
US11481987B2 (en) 2017-03-30 2022-10-25 Novarad Corporation Augmenting real-time views of a patient with three-dimensional data
JP2022552459A (ja) * 2019-10-24 2022-12-16 ジョナサン・ロス・ヴァンフーザー X線検査用位置決め誘導システム

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10013808B2 (en) 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
WO2018052966A1 (en) * 2016-09-16 2018-03-22 Zimmer, Inc. Augmented reality surgical technique guidance
US10867445B1 (en) * 2016-11-16 2020-12-15 Amazon Technologies, Inc. Content segmentation and navigation
US10412377B2 (en) * 2017-01-11 2019-09-10 Koninklijke Philips N.V. Augmented display device for use in a medical imaging laboratory
US20180247712A1 (en) 2017-02-24 2018-08-30 Masimo Corporation System for displaying medical monitoring data
US11024064B2 (en) * 2017-02-24 2021-06-01 Masimo Corporation Augmented reality system for displaying patient data
US11103311B2 (en) 2017-03-10 2021-08-31 Biomet Manufacturing, Llc Augmented reality supported knee surgery
WO2018169891A1 (en) 2017-03-13 2018-09-20 Zimmer, Inc. Augmented reality diagnosis guidance
KR102559598B1 (ko) 2017-05-08 2023-07-25 마시모 코오퍼레이션 동글을 이용하여 의료 시스템을 네트워크 제어기에 페어링하기 위한 시스템
WO2018206086A1 (en) * 2017-05-09 2018-11-15 Brainlab Ag Generation of augmented reality image of a medical device
EP3621548A1 (en) * 2017-06-08 2020-03-18 Medos International Sàrl User interface systems for sterile fields and other working environments
US11432877B2 (en) 2017-08-02 2022-09-06 Medtech S.A. Surgical field camera system that only uses images from cameras with an unobstructed sight line for tracking
US11861898B2 (en) * 2017-10-23 2024-01-02 Koninklijke Philips N.V. Self-expanding augmented reality-based service instructions library
US20190254753A1 (en) 2018-02-19 2019-08-22 Globus Medical, Inc. Augmented reality navigation systems for use with robotic surgical systems and methods of their use
US20190385372A1 (en) * 2018-06-15 2019-12-19 Microsoft Technology Licensing, Llc Positioning a virtual reality passthrough region at a known distance
WO2020025110A1 (en) * 2018-07-31 2020-02-06 Brainlab Ag Medical imaging apparatus providing artificial reality support
US11804679B2 (en) 2018-09-07 2023-10-31 Cilag Gmbh International Flexible hand-switch circuit
US11696791B2 (en) 2018-09-07 2023-07-11 Cilag Gmbh International Surgical instrument utilizing drive signal to power secondary function
US11923084B2 (en) 2018-09-07 2024-03-05 Cilag Gmbh International First and second communication protocol arrangement for driving primary and secondary devices through a single port
US20200078071A1 (en) 2018-09-07 2020-03-12 Ethicon Llc Instrument tracking arrangement based on real time clock information
US11191609B2 (en) * 2018-10-08 2021-12-07 The University Of Wyoming Augmented reality based real-time ultrasonography image rendering for surgical assistance
US11288733B2 (en) * 2018-11-14 2022-03-29 Mastercard International Incorporated Interactive 3D image projection systems and methods
US11766296B2 (en) 2018-11-26 2023-09-26 Augmedics Ltd. Tracking system for image-guided surgery
US11139071B2 (en) 2018-12-31 2021-10-05 Cerner Innovation, Inc. Virtual augmentation of clinical care environments
US11532132B2 (en) * 2019-03-08 2022-12-20 Mubayiwa Cornelious MUSARA Adaptive interactive medical training program with virtual patients
US11218822B2 (en) 2019-03-29 2022-01-04 Cilag Gmbh International Audio tone construction for an energy module of a modular energy system
WO2020210972A1 (zh) * 2019-04-16 2020-10-22 孙永年 手术用穿戴式影像显示装置及手术资讯即时呈现系统
EP3726834A1 (en) * 2019-04-17 2020-10-21 Medneo GmbH Telepresence system and method
DE102020001882A1 (de) * 2019-04-26 2020-11-12 Mitutoyo Corporation Visualisierungsvorrichtung und Programm
KR20220048973A (ko) 2019-05-29 2022-04-20 스티븐 비. 머피 수술에서 증강 현실을 이용하기 위한 시스템들 및 방법들
ES2908588T3 (es) * 2019-09-09 2022-05-03 apoQlar GmbH Método para controlar una pantalla de presentación visual, programa informático y dispositivo de presentación visual de realidad mixta
EP4069074A4 (en) * 2019-12-03 2023-12-06 Mediview XR, Inc. HOLOGRAPHIC AUGMENTED REALITY ULTRASONIC NEEDLE GUIDE FOR INSERTION IN PERCUTANEOUS SURGICAL PROCEDURES
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
US11464581B2 (en) 2020-01-28 2022-10-11 Globus Medical, Inc. Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums
US11382699B2 (en) 2020-02-10 2022-07-12 Globus Medical Inc. Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery
US11207150B2 (en) 2020-02-19 2021-12-28 Globus Medical, Inc. Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment
US11564767B2 (en) 2020-04-22 2023-01-31 Warsaw Orthopedic, Inc. Clinical diagnosis and treatment planning system and methods of use
US11832883B2 (en) 2020-04-23 2023-12-05 Johnson & Johnson Surgical Vision, Inc. Using real-time images for augmented-reality visualization of an ophthalmology surgical tool
US11607277B2 (en) 2020-04-29 2023-03-21 Globus Medical, Inc. Registration of surgical tool with reference array tracked by cameras of an extended reality headset for assisted navigation during surgery
US11153555B1 (en) 2020-05-08 2021-10-19 Globus Medical Inc. Extended reality headset camera system for computer assisted navigation in surgery
US11510750B2 (en) 2020-05-08 2022-11-29 Globus Medical, Inc. Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications
US11382700B2 (en) 2020-05-08 2022-07-12 Globus Medical Inc. Extended reality headset tool tracking and control
CN115697233A (zh) * 2020-05-29 2023-02-03 柯惠Lp公司 用于通过外科机器人系统对3d可视化进行集成控制的系统和方法
US11389252B2 (en) 2020-06-15 2022-07-19 Augmedics Ltd. Rotating marker for image guided surgery
US11571225B2 (en) 2020-08-17 2023-02-07 Russell Todd Nevins System and method for location determination using movement between optical labels and a 3D spatial mapping camera
US11737831B2 (en) 2020-09-02 2023-08-29 Globus Medical Inc. Surgical object tracking template generation for computer assisted navigation during surgical procedure
CN112076400A (zh) * 2020-10-15 2020-12-15 上海市肺科医院 一种重复定位方法及系统
CN112635073B (zh) * 2020-12-18 2022-02-08 四川省疾病预防控制中心 一种密切接触者排查方法、装置、计算机设备及存储介质
US11289196B1 (en) 2021-01-12 2022-03-29 Emed Labs, Llc Health testing and diagnostics platform
CN113057604A (zh) * 2021-02-04 2021-07-02 应急管理部上海消防研究所 一种埋压人员救援平台
US11164391B1 (en) 2021-02-12 2021-11-02 Optum Technology, Inc. Mixed reality object detection
US11210793B1 (en) 2021-02-12 2021-12-28 Optum Technology, Inc. Mixed reality object detection
US11929168B2 (en) 2021-05-24 2024-03-12 Emed Labs, Llc Systems, devices, and methods for diagnostic aid kit apparatus
US11615888B2 (en) 2021-03-23 2023-03-28 Emed Labs, Llc Remote diagnostic testing and treatment
US11950860B2 (en) 2021-03-30 2024-04-09 Cilag Gmbh International User interface mitigation techniques for modular energy systems
US11857252B2 (en) 2021-03-30 2024-01-02 Cilag Gmbh International Bezel with light blocking features for modular energy system
US20220331008A1 (en) 2021-04-02 2022-10-20 Russell Todd Nevins System and method for location determination using movement of an optical label fixed to a bone using a spatial mapping camera
US20220331053A1 (en) * 2021-04-14 2022-10-20 Cilag Gmbh International Intraoperative display for surgical systems
WO2022225132A1 (ko) * 2021-04-22 2022-10-27 서울대학교병원 랜드마크를 이용한 증강현실 기반의 의료정보 시각화 시스템 및 그 방법
US11369454B1 (en) 2021-05-24 2022-06-28 Emed Labs, Llc Systems, devices, and methods for diagnostic aid kit apparatus
GB2623461A (en) 2021-06-22 2024-04-17 Emed Labs Llc Systems, methods, and devices for non-human readable diagnostic tests
US11896445B2 (en) 2021-07-07 2024-02-13 Augmedics Ltd. Iliac pin and adapter
WO2023021450A1 (en) * 2021-08-18 2023-02-23 Augmedics Ltd. Stereoscopic display and digital loupe for augmented-reality near-eye display
US11600053B1 (en) 2021-10-04 2023-03-07 Russell Todd Nevins System and method for location determination using a mixed reality device and multiple imaging cameras

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004178554A (ja) * 2002-09-30 2004-06-24 Canon Inc 映像合成装置及び映像合成方法
JP2005500096A (ja) * 2001-06-13 2005-01-06 ヴォリューム・インタラクションズ・プライヴェート・リミテッド ガイドシステム
WO2009116663A1 (ja) * 2008-03-21 2009-09-24 Takahashi Atsushi 三次元デジタル拡大鏡手術支援システム
WO2011010644A1 (ja) * 2009-07-24 2011-01-27 株式会社 日立メディコ 医用画像表示装置及び医用画像表示方法
JP2015019678A (ja) * 2013-07-16 2015-02-02 セイコーエプソン株式会社 情報処理装置、情報処理方法、および、情報処理システム
US20160225192A1 (en) * 2015-02-03 2016-08-04 Thales USA, Inc. Surgeon head-mounted display apparatuses

Family Cites Families (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010055748A1 (en) * 2000-05-15 2001-12-27 Bailey Bradford E. System for training persons to perform minimally invasive surgical procedures
US6753828B2 (en) * 2000-09-25 2004-06-22 Siemens Corporated Research, Inc. System and method for calibrating a stereo optical see-through head-mounted display system for augmented reality
EP1356413A2 (en) * 2000-10-05 2003-10-29 Siemens Corporate Research, Inc. Intra-operative image-guided neurosurgery with augmented reality visualization
FR2852226B1 (fr) * 2003-03-10 2005-07-15 Univ Grenoble 1 Instrument medical localise a ecran orientable
DE10315242B4 (de) * 2003-04-03 2006-02-23 Siemens Ag Verfahren und Vorrichtung zur realitätsnahen dreidimensionalen Bildgebung
CN1957373A (zh) * 2004-03-12 2007-05-02 布拉科成像S.P.A.公司 基于视频的扩增实境增强型外科手术导航系统的精度评估
US20050285844A1 (en) * 2004-06-29 2005-12-29 Ge Medical Systems Information Technologies, Inc. 3D display system and method
US7376903B2 (en) * 2004-06-29 2008-05-20 Ge Medical Systems Information Technologies 3D display system and method
CN101170961A (zh) * 2005-03-11 2008-04-30 布拉科成像S.P.A.公司 利用显微镜的用于外科手术导航及可视化的方法及设备
US20070236514A1 (en) * 2006-03-29 2007-10-11 Bracco Imaging Spa Methods and Apparatuses for Stereoscopic Image Guided Surgical Navigation
US8384771B1 (en) * 2006-12-28 2013-02-26 David Byron Douglas Method and apparatus for three dimensional viewing of images
US9473766B2 (en) * 2006-12-28 2016-10-18 David Byron Douglas Method and apparatus for three dimensional viewing of images
JP2010525444A (ja) * 2007-04-18 2010-07-22 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 医療患者に対して私的な逸話を与える装置及び方法
EP2165215B1 (de) * 2007-05-24 2014-05-07 SurgicEye GmbH Bilderzeugungsapparat und -methode zur nuklearbildgebung
WO2009094646A2 (en) * 2008-01-24 2009-07-30 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for image guided ablation
EP2153794B1 (en) * 2008-08-15 2016-11-09 Stryker European Holdings I, LLC System for and method of visualizing an interior of a body
EP2179703B1 (de) * 2008-10-21 2012-03-28 BrainLAB AG Integration von chirurgischem Instrument und Anzeigevorrichtung zur Unterstützung der bildgeführten Chirurgie
US8641621B2 (en) * 2009-02-17 2014-02-04 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures
US8819591B2 (en) * 2009-10-30 2014-08-26 Accuray Incorporated Treatment planning in a virtual environment
US9524579B2 (en) * 2010-04-15 2016-12-20 Roger Lin Orientating an oblique plane in a 3D representation
CA2797302C (en) * 2010-04-28 2019-01-15 Ryerson University System and methods for intraoperative guidance feedback
CN103118600B (zh) * 2010-09-21 2015-04-22 株式会社日立医疗器械 超声波诊断装置以及超声波图像的显示方法
US8657809B2 (en) 2010-09-29 2014-02-25 Stryker Leibinger Gmbh & Co., Kg Surgical navigation system
EP2452649A1 (en) * 2010-11-12 2012-05-16 Deutsches Krebsforschungszentrum Stiftung des Öffentlichen Rechts Visualization of anatomical data by augmented reality
JP5984235B2 (ja) * 2011-07-19 2016-09-06 東芝メディカルシステムズ株式会社 画像処理システム、装置、方法及び医用画像診断装置
US8670816B2 (en) * 2012-01-30 2014-03-11 Inneroptic Technology, Inc. Multiple medical device guidance
CN103445863B (zh) * 2012-06-02 2015-10-07 复旦大学 基于平板电脑的手术导航和增强现实系统
JP6239529B2 (ja) * 2012-12-06 2017-11-29 株式会社日立製作所 超音波診断装置及び超音波画像表示方法
DE102012025374A1 (de) 2012-12-27 2014-07-17 Mehran Mahvash Mohammadi Augmented-Reality-System (Erweiterte Realität) durch direkte Bildprojektion für computergestützte und bildgeführte Neurochirurgie
US20140222462A1 (en) * 2013-02-07 2014-08-07 Ian Shakil System and Method for Augmenting Healthcare Provider Performance
EP2961325A2 (en) * 2013-02-26 2016-01-06 Butterfly Network Inc. Transmissive imaging and related apparatus and methods
KR20140112207A (ko) * 2013-03-13 2014-09-23 삼성전자주식회사 증강현실 영상 표시 시스템 및 이를 포함하는 수술 로봇 시스템
US20140276001A1 (en) * 2013-03-15 2014-09-18 Queen's University At Kingston Device and Method for Image-Guided Surgery
US8922589B2 (en) * 2013-04-07 2014-12-30 Laor Consulting Llc Augmented reality apparatus
US11020016B2 (en) * 2013-05-30 2021-06-01 Auris Health, Inc. System and method for displaying anatomy and devices on a movable display
EP3022672A2 (en) * 2013-07-16 2016-05-25 Seiko Epson Corporation Information processing apparatus, information processing method, and information processing system
EP3035884B1 (en) * 2013-08-13 2022-11-23 Regents of the University of Minnesota Computer visualization of anatomical items
EP3046518A4 (en) * 2013-09-18 2017-07-05 Richard Awdeh Surgical navigation system and method
KR20150074348A (ko) * 2013-12-24 2015-07-02 삼성전자주식회사 디스플레이 장치 및 이를 이용한 영상표시방법
US9743896B2 (en) * 2014-01-06 2017-08-29 Body Vision Medical Surgical devices and methods of use thereof
CN109893098A (zh) * 2014-01-29 2019-06-18 贝克顿·迪金森公司 用于介入式设备的插入期间增强可视化的可佩戴电子设备
US9606584B1 (en) * 2014-07-01 2017-03-28 D.R. Systems, Inc. Systems and user interfaces for dynamic interaction with two- and three-dimensional medical image data using hand gestures
FR3027506B1 (fr) * 2014-10-27 2021-12-17 H 42 Procede de controle de la dentition
GB201501157D0 (en) * 2015-01-23 2015-03-11 Scopis Gmbh Instrument guidance system for sinus surgery
US10154239B2 (en) 2014-12-30 2018-12-11 Onpoint Medical, Inc. Image-guided surgery with surface reconstruction and augmented reality visualization
US9538962B1 (en) * 2014-12-31 2017-01-10 Verily Life Sciences Llc Heads-up displays for augmented reality network in a medical environment
US10111658B2 (en) * 2015-02-12 2018-10-30 Covidien Lp Display screens for medical devices
WO2016133847A1 (en) * 2015-02-16 2016-08-25 Dimensions And Shapes, Llc Systems and methods for medical visualization
US10908681B2 (en) * 2015-02-20 2021-02-02 Covidien Lp Operating room and surgical site awareness
EP3280344A2 (en) * 2015-04-07 2018-02-14 King Abdullah University Of Science And Technology Method, apparatus, and system for utilizing augmented reality to improve surgery
US9436993B1 (en) * 2015-04-17 2016-09-06 Clear Guide Medical, Inc System and method for fused image based navigation with late marker placement
US10052170B2 (en) * 2015-12-18 2018-08-21 MediLux Capitol Holdings, S.A.R.L. Mixed reality imaging system, apparatus and surgical suite
US9675319B1 (en) * 2016-02-17 2017-06-13 Inneroptic Technology, Inc. Loupe display
EP4327769A2 (en) 2016-03-12 2024-02-28 Philipp K. Lang Devices and methods for surgery
CN105788390A (zh) * 2016-04-29 2016-07-20 吉林医药学院 基于增强现实的医学解剖辅助教学系统
GB2568426B (en) * 2016-08-17 2021-12-15 Synaptive Medical Inc Methods and systems for registration of virtual space with real space in an augmented reality system
US10010379B1 (en) 2017-02-21 2018-07-03 Novarad Corporation Augmented reality viewing and tagging for medical procedures
US9892564B1 (en) 2017-03-30 2018-02-13 Novarad Corporation Augmenting real-time views of a patient with three-dimensional data
US11287874B2 (en) 2018-11-17 2022-03-29 Novarad Corporation Using optical codes with augmented reality displays
US20200186786A1 (en) 2018-12-06 2020-06-11 Novarad Corporation Calibration for Augmented Reality
CN110393921B (zh) 2019-08-08 2022-08-26 腾讯科技(深圳)有限公司 云游戏的处理方法、装置、终端、服务器及存储介质
EP4013030A4 (en) * 2019-08-27 2022-08-31 Guangdong Oppo Mobile Telecommunications Corp., Ltd. IMAGE PROCESSING METHOD AND DEVICE, AND ELECTRONIC DEVICE AND COMPUTER READABLE STORAGE MEDIUM

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005500096A (ja) * 2001-06-13 2005-01-06 ヴォリューム・インタラクションズ・プライヴェート・リミテッド ガイドシステム
JP2004178554A (ja) * 2002-09-30 2004-06-24 Canon Inc 映像合成装置及び映像合成方法
WO2009116663A1 (ja) * 2008-03-21 2009-09-24 Takahashi Atsushi 三次元デジタル拡大鏡手術支援システム
WO2011010644A1 (ja) * 2009-07-24 2011-01-27 株式会社 日立メディコ 医用画像表示装置及び医用画像表示方法
JP2015019678A (ja) * 2013-07-16 2015-02-02 セイコーエプソン株式会社 情報処理装置、情報処理方法、および、情報処理システム
US20160225192A1 (en) * 2015-02-03 2016-08-04 Thales USA, Inc. Surgeon head-mounted display apparatuses

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11481987B2 (en) 2017-03-30 2022-10-25 Novarad Corporation Augmenting real-time views of a patient with three-dimensional data
JP2021523784A (ja) * 2018-05-14 2021-09-09 ノバラッド コーポレイションNovarad Corporation 患者に貼付される光学コードを用いた患者の画像データと患者の実景との位置合わせ
JP7190145B2 (ja) 2018-05-14 2022-12-15 ノバラッド コーポレイション 患者に貼付される光学コードを用いた患者の画像データと患者の実景との位置合わせ
JP2022552459A (ja) * 2019-10-24 2022-12-16 ジョナサン・ロス・ヴァンフーザー X線検査用位置決め誘導システム
JP7379674B2 (ja) 2019-10-24 2023-11-14 ジョナサン・ロス・ヴァンフーザー X線検査用位置決め誘導システム

Also Published As

Publication number Publication date
US20180286132A1 (en) 2018-10-04
US10475244B2 (en) 2019-11-12
US11004271B2 (en) 2021-05-11
WO2018183001A1 (en) 2018-10-04
KR102327527B1 (ko) 2021-11-17
US20230038130A1 (en) 2023-02-09
US9892564B1 (en) 2018-02-13
EP3602180A4 (en) 2021-04-14
US20200013224A1 (en) 2020-01-09
EP3602180A1 (en) 2020-02-05
US11481987B2 (en) 2022-10-25
CN110494921A (zh) 2019-11-22
CN110494921B (zh) 2023-11-28
US20210264680A1 (en) 2021-08-26
KR20190138799A (ko) 2019-12-16

Similar Documents

Publication Publication Date Title
US11481987B2 (en) Augmenting real-time views of a patient with three-dimensional data
KR102562252B1 (ko) 환자에게 부착된 광학 코드를 사용하여 환자의 이미지 데이터를 환자의 실제 시야와 정렬하는 방법
US11652971B2 (en) Image-guided surgery with surface reconstruction and augmented reality visualization
US20220405935A1 (en) Augmented reality patient positioning using an atlas
KR102582154B1 (ko) 깊이 카메라를 이용한 증강현실 의료영상을 제공하기 위한 사용자 단말기 및 증강현실 의료영상 제공 방법
US11340708B2 (en) Gesture control of medical displays
Kalavakonda Isosurface Visualization Using Augmented Reality for Improving Tumor Resection Outcomes
KR101529659B1 (ko) 수술전 호흡 레벨과 수술장 호흡 레벨을 비교하는 방법
KR101513229B1 (ko) 수술전 호흡 레벨과 수술장 호흡 레벨을 비교하는 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191030

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191030

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210405

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210629

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20211028

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20211028

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220510

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220614

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20221004

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20221101

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20221101