JP2017524281A - 媒介現実の外科用視覚化のためのシステム及び方法 - Google Patents

媒介現実の外科用視覚化のためのシステム及び方法 Download PDF

Info

Publication number
JP2017524281A
JP2017524281A JP2016568921A JP2016568921A JP2017524281A JP 2017524281 A JP2017524281 A JP 2017524281A JP 2016568921 A JP2016568921 A JP 2016568921A JP 2016568921 A JP2016568921 A JP 2016568921A JP 2017524281 A JP2017524281 A JP 2017524281A
Authority
JP
Japan
Prior art keywords
display
image data
image
visualization system
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016568921A
Other languages
English (en)
Inventor
アール.ブラウンド サミュエル
アール.ブラウンド サミュエル
アール.スミス ジョシュア
アール.スミス ジョシュア
グリフィン ニコル ルトフス
グリフィン ニコル ルトフス
Original Assignee
ユニヴァーシティ オブ ワシントン
ユニヴァーシティ オブ ワシントン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ユニヴァーシティ オブ ワシントン, ユニヴァーシティ オブ ワシントン filed Critical ユニヴァーシティ オブ ワシントン
Publication of JP2017524281A publication Critical patent/JP2017524281A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00039Operational features of endoscopes provided with input arrangements for the user
    • A61B1/00042Operational features of endoscopes provided with input arrangements for the user for mechanical operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00174Optical arrangements characterised by the viewing angles
    • A61B1/00181Optical arrangements characterised by the viewing angles for multiple fixed viewing angles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00188Optical arrangements with focusing or zooming features
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00193Optical arrangements adapted for stereoscopic vision
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/957Light-field or plenoptic cameras or camera modules
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00203Electrical control of surgical instruments with speech control or speech recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00216Electrical control of surgical instruments with eye tracking or head position tracking control
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • A61B2090/309Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure using white LEDs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/363Use of fiducial points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/372Details of monitor hardware
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Mechanical Engineering (AREA)
  • Gynecology & Obstetrics (AREA)
  • Robotics (AREA)
  • Computing Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Endoscopes (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

本技術は、全般的に、媒介現実の外科用視覚化のためのシステム及び方法に関する。媒介現実の外科用視覚化システムは、ユーザの頭部に載置するように構成されるフレームを備える不透明なヘッドマウントディスプレイアセンブリと、フレームに連結される画像取り込みデバイスと、フレームに連結される表示デバイスと、ユーザに向かって画像を表示するように構成される、表示デバイスとを含む。表示デバイス及び画像取り込みデバイスと通信しているコンピューティングデバイスは、画像取り込みデバイスから画像データを受信し、表示デバイスを介して画像データから画像を提示するように構成される。

Description

関連出願の相互参照
本出願は、2014年5月20日に出願された米国仮特許出願第62/000,900号の利益を主張するものであり、参照によりその全体が本明細書に組み込まれる。
本技術は、全般的に、媒介現実の外科用視覚化及び関連するシステム及び方法に関する。具体的には、いくつかの実施形態は、外科用応用において使用するための、着用者に出力される媒介現実を提供するように構成されるヘッドマウントディスプレイを対象とする。
外科用ルーペの歴史は、1876年までさかのぼる。外科用ルーペは、神経外科、形成外科、心臓外科、整形外科、及び微小血管外科において共通して使用される。外科医と患者との間の相互作用の実質的にあらゆる点での革命的な変化にもかかわらず、外科用の視覚的支援は、その始まりから殆ど変わらないままである。例えば、従来の外科用ルーペは、眼鏡のレンズの中に載置され、また、外科医の矯正視力、瞳孔間の距離、及び所望の焦点距離を考慮して、個々の外科医に対してカスタムメイドされる。従来の外科用ルーペの最も重要な機能は、手術野を拡大する能力、及び別の場合に起こり得るよりも高いレベルの精度での操作を外科医が行えるようにする能力である。
従来の外科用ルーペは、数多くの欠点を有する。この外科用ルーペは、外科医の矯正視力要件及び瞳孔間距離に基づいて、個々の外科医に対してカスタマイズされるので、外科医の間で共有することができない。従来の外科用ルーペはまた、単一の拡大レベルに制限され、外科医が、自分の行動の全てをその拡大レベルに適応することを、またはしばしばルーペの「外側」に目を向けることを強制し、その場合は、拡大が役に立たないか、または有害になることさえある。従来のルーペは、非常に浅い被写界深度の範囲内でだけしか鮮明な画像を提供せず、更には、提供する視野も比較的狭い。別の問題は、従来の外科用ルーペのかさばった構造による死角である。
統合された撮像デバイスを有するヘッドマウントディスプレイアセンブリの正面斜視図である。 図1Aのヘッドマウントディスプレイの背面斜視図である。 本技術の一実施形態に従って構成される媒介現実の外科用視覚化システムの概略図である。 手術中の媒介現実の外科用視覚化システムを例示する図である。 本技術の一実施形態に従って媒介現実の外科用視覚化システムにおいて使用するように構成される、プレノプティックカメラの概略図である。 本技術の一実施形態に従って媒介現実の外科用視覚化システムにおいて使用するように構成される、プレノプティックカメラの概略図である。 本技術の一実施形態に従って媒介現実の外科用視覚化システムにおいて使用するように構成される、プレノプティックカメラの概略図である。 本技術の一実施形態に従って媒介現実の外科用視覚化システムにおいて使用するように構成される、プレノプティックカメラの概略図である。 本技術の一実施形態に従って媒介現実の外科用視覚化システムにおいて使用するように構成される、プレノプティックカメラの概略図である。 本技術の一実施形態に従って媒介現実の外科用視覚化システムにおいて使用するように構成される、プレノプティックカメラの概略図である。 本技術の一実施形態に従って媒介現実の外科用視覚化システムにおいて使用するように構成される、プレノプティックカメラの概略図である。 本技術の一実施形態に従って媒介現実の外科用視覚化システムにおいて使用するように構成される、プレノプティックカメラの概略図である。 本技術の一実施形態に従って媒介現実の外科用視覚化システムにおいて使用するように構成される、プレノプティックカメラの概略図である。 本技術の一実施形態による、外科用視覚化のための媒介現実ディスプレイを提供するための方法のブロック図である。
本技術は、媒介現実の外科用視覚化を提供するためのシステム及び方法を対象とする。一実施形態において、例えば、ヘッドマウントディスプレイアセンブリは、該アセンブリを着用しているユーザに3次元画像を表示するように構成される、立体表示デバイスを含むことができる。撮像デバイスを、ヘッドマウントディスプレイアセンブリに連結し、ユーザに表示するべき画像を取り込むように構成することができる。他の撮像装置からの追加的な画像データを、ディスプレイに組み込むか、または合成することができる。本明細書で使用するとき、「媒介現実」という用語は、着用可能なディスプレイの使用を通して現実の知覚を加える、減じる、または別様には操作する能力を指す。「媒介現実」の表示は、少なくとも「仮想現実」、並びに「拡張現実」タイプの表示を含む。
本技術のいくつかの実施形態の特定の詳細は、図1A〜図5を参照して下で説明される。実施形態の多くは、複数の媒介現実の外科用視覚化を管理するためのデバイス、システム、及び方法に関して下で説明されるが、他の実施形態は、本技術の範囲内である。加えて、本技術の他の実施形態は、本明細書で説明される実施形態とは異なる構成、構成要素、及び/または手順を有することができる。例えば、他の実施形態は、本明細書で説明される要素及び特徴を超えて追加的な要素及び特徴を含むことができ、または他の実施形態は、本明細書で示され、説明される要素及び特徴のうちのいくつかを含まない場合がある。一実施例として、下で説明されるいくつかの実施形態は、プレノプティックカメラを使用して画像を取り込む。例えば、多数の従来のCCDまたは他のデジタルカメラを使用する、他の手法が考えられる。
参照し易くするために、この開示の全体を通して、同様のまたは類似する構成要素または特徴を識別するために同じ参照番号が使用されるが、同じ参照番号の使用は、その部品が同一であると解釈しなければならないことを意味するものではない。実際に、本明細書で説明される多くの実施例において、同じ番号が付された部品は、構造及び/または機能が異なる。
媒介現実の外科的視覚化システムの選択された実施形態
図1A及び1Bは、それぞれ、統合された撮像デバイス101を有するヘッドマウントディスプレイアセンブリ100の、正面斜視図及び背面斜視図である。アセンブリ100は、前方表面105及び前方表面105に対向する後方表面107を有する、フレーム103を備える。撮像デバイス101は、前方表面105の上に配置され、前方に面している。表示デバイス109は、後方表面107の上に配置され、後方表面107から離れて外方に(及び撮像デバイス101に対向する方向に)配置される。アセンブリ100は、全般的に、ユーザの頭部(図示せず)の上に、特にユーザの眼の上に着用するように構成され、よって、表示デバイス109は、ユーザの眼に向かって画像を表示する。
例示される実施形態において、フレーム103は、全般的に、標準的な眼鏡に類似するように形成され、ブリッジ部及び着用者の耳まで後方に延在するつる部によって接合される。他の実施形態において、フレーム103は、他の形態とすることができ、例えば、つるをストラップと置き換えることができ、または、いくつかの実施形態では、アセンブリ100を着用者の頭部に載置するために部分的なヘルメットを使用することができる。フレーム103は、右眼部分104a及び左眼部分104bを含む。ユーザが着用したときに、右眼部分104aは、全般的に、ユーザの右眼の上に位置付けられるように構成され、一方で、左眼部分104bは、全般的に、ユーザの左眼の上に位置付けられるように構成される。アセンブリ100は、全般的に、不透明とすることができ、よって、アセンブリ100を着用しているユーザは、フレーム103を通して見ることができない。しかしながら、他の実施形態において、アセンブリ100は、透明または半透明とすることができ、よって、ユーザは、アセンブリ100を着用している間、フレーム103を通して見ることができる。アセンブリ100は、ユーザの標準的な眼鏡の上に着用するように構成することができる。アセンブリ100は、外科手術室において眼を保護するためのOSHA規制を満たすように、強化ガラスまたは他の十分頑丈な材料を含むことができる。
撮像デバイス101は、第1の撮像装置113a及び第2の撮像装置113bを含む。第1の撮像装置113a及び第2の撮像装置113bは、例えば、CCDまたはCMOS画像センサ及び関連する光学系などの、デジタルビデオカメラとすることができる。いくつかの実施形態において、各撮像装置113a〜bは、異なる光学系(例えば、異なる拡大率)を有するカメラのアレイを含むことができる。ユーザの所望の視聴パラメータに基づくアクティブな視聴のために、特定のカメラのアレイを選択することができる。いくつかの実施形態において、別個のカメラ自体によって提供されるズームレベルの間の中間的なズームレベルを計算することができる。例えば、4.0のズームレベルが所望される場合は、このレベルの倍率を有する新しくより小さい画像を提供するために、倍率4.6のカメラから取り込まれる画像をダウンサンプリングすることができる。しかしながら、この時点で、この画像は、カメラの視野全体を埋めない場合がある。より低い倍率のカメラからの画像(例えば、倍率3.3の画像)は、より幅の広い視野を有し、また、所望の倍率4.0の画像の外側部分を埋めるために、アップサンプリングすることができる。別の実施形態において、第1のカメラ(倍率3.3のカメラなど)からの特徴は、第2のカメラ(例えば、倍率4.6のカメラ)からの特徴とマッチングさせることができる。マッチングを行うために、SIFTまたはSURFなどの特徴を使用することができる。マッチングさせた異なる画像からの特徴によって、異なるレベルの倍率で取り込まれる異なる画像を、より効果的に、かつ歪み及び誤差の導入がより少ない様式で組み合わせることができる。別の実施形態において、各カメラは、画像センサと主レンズとの間にレンズレットアレイを装備することができる。このレンズレットアレイは、異なる焦点平面及び異なる視点(視差)を有する画像を計算することができる、「光照射野」を取り込むことを可能にする。光照射野の視差調整技法を使用することで、様々なカメラの間の画像の視点を補償することができ、よって、ズームレベルが変化したときに、視点は変化しない。別の実施形態では、低い重量及び容積で高い倍率を提供するために、いわゆる「折り紙レンズ」または環状折り畳み光学系を使用することができる。
いくつかの実施形態において、第1の撮像装置113a及び第2の撮像装置113bは、1つ以上のプレノプティックカメラ(光照射野カメラとも称される)を含むことができる。例えば、倍率の大きさが異なる複数のレンズの代わりに、プレノプティックカメラを単独で各撮像装置に対して使用することができる。第1の撮像装置113a及び第2の撮像装置113bは、それぞれ、単一のプレノプティックカメラ、レンズ、レンズレットアレイ、及び画像センサを含むことができる。光照射野を適切にサンプリングすることによって、様々な倍率の大きさを有する画像を抽出することができる。いくつかの実施形態では、プレノプティックカメラ内から2つの別個の撮像装置をシミュレーションするために、単一のプレノプティックカメラを利用することができる。プレノプティックカメラの使用は、図4A〜Iに関して下で更に詳細に説明される。
第1の撮像装置113aは、フレーム103の右眼部分104aの上に配置され、一方で、第2の撮像装置113bは、フレーム103の左眼部分104bの上に配置される。第1の撮像装置113a及び第2の撮像装置113bは、前方へ配向され、よって、アセンブリ100をユーザが着用したときに、第1の撮像装置113a及び第2の撮像装置113bは、ユーザの自然な視野で映像を取り込むことができる。例えば、アセンブリ100を着用したときのユーザの頭部の位置を想定すると、該ユーザは、自分の眼がまっすぐ前方を見ているときに、自然とある特定の視野を有することになる。第1の撮像装置113a及び第2の撮像装置113bは、ユーザがアセンブリ100を装着したときに、この視野または類似する視野を取り込むように配向することができる。他の実施形態において、第1の撮像装置113a及び第2の撮像装置113bは、修正した視野を取り込むように配向することができる。例えば、アセンブリ100を着用しているユーザが中立位置で静止しているときに、撮像装置113a〜bは、下方に配向された視野を取り込むように構成することができる。
第1の撮像装置113a及び第2の撮像装置113bは、それぞれ、第1の制御電子部品115a及び第2の制御電子回路115bに電気的に連結することができる。制御電子部品115a〜bは、例えば、第1の撮像装置113a及び第2の撮像装置113bからデータ出力を受信し、該撮像装置に制御入力を提供するためのマイクロプロセッサチップまたは他の適切な電子部品を含むことができる。制御電子部品115a〜bはまた、図2に関して下でより詳細に説明されるように、他の構成要素とのネットワークを通じた有線または無線通信を提供するようにも構成することができる。例示される実施形態において、制御電子部品115a〜bは、フレーム103に連結される。しかしながら、他の実施形態において、制御電子部品115a〜bは、単一の構成要素またはチップに統合することができ、いくつかの実施形態において、制御電子部品115a〜bは、フレーム103に物理的に取り付けられない。制御電子部品115a〜bは、それぞれの撮像装置113a〜bからデータ出力を受信するように構成することができ、また、(例えば、撮像を開始するために、物理的ズームを制御するために、自動焦点のために、及び/または統合した光源を動作させるために)撮像装置113a〜bの動作を制御するようにも構成することができる。いくつかの実施形態において、制御電子部品115a〜bは、例えば、デジタルズームを提供するために、自動焦点のために、及び飽和度、ブライトネスなどの画像パラメータを調整するために、撮像装置113a〜bからのデータ出力を処理するように構成することができる。他の実施形態において、画像処理は、外部デバイス上で行い、有線または無線通信リンクを介して制御電子部品115a〜に通信することができる。下でより詳細に説明されるように、撮像装置113a〜bからの出力は、既存の画像(例えば、X線画像、蛍光透視、MRIまたはCTスキャン、解剖学図データなど)、同時に取り込まれる他の画像(例えば、外科部位の周りに配置される内視鏡によって、または他の画像)、患者のバイタルデータなどの、追加的なデータを統合するために処理することができる。加えて、撮像装置113a〜bがプレノプティック撮像装置である実施形態では、図4A〜Iに関して下でより詳細に説明されるように、更なる操作によって、視野内の領域の選択的な拡大を可能にすることができる。
基準マーカー117は、フレーム103の前方表面105の上に配置することができる。基準マーカー117は、アセンブリ100の運動を追跡するために使用することができる。いくつかの実施形態において、例えば、基準マーカー117は、赤外光カメラシステムによって検出される、1つ以上の赤外光源とすることができる。他の実施形態において、基準マーカー117は、磁気若しくは電磁プローブ、反射要素、または空間の中のアセンブリ100の位置を追跡するために使用することができる任意の他の構成要素とすることができる。基準マーカー117は、アセンブリ100の移動及び配向を追跡するための内部コンパス及び/または加速度計を含むこと、またはそれに連結することができる。
フレーム103の後方表面107には、表示デバイス109が配置され、後方に面する。図1Bで最も良く分かるように、表示デバイス109は、第1のディスプレイ119a及び第2のディスプレイ119bを含む。ディスプレイ119a〜bとしては、例えば、LCD画面、ホログラフィックディスプレイ、プラズマ画面、投影式ディスプレイ、またはヘッドアップディスプレイ環境で使用することができる比較的薄い形状因子を有する任意の他の種類のディスプレイを挙げることができる。第1のディスプレイ119aは、フレーム103の右眼部分104a内に配置され、一方で、第2のディスプレイ119bは、フレーム103の左眼部分104b内に配置される。第1のディスプレイ119a及び第2のディスプレイ119bは、後方に配向され、よって、アセンブリ100をユーザが着用したときに、第1のディスプレイ119a及び第2のディスプレイ119bは、それぞれ、ユーザの右眼及び左眼によってユーザが視認することができる。各眼について別個のディスプレイを使用することで、立体表示を可能にする。立体表示は、左眼及び右眼に対して僅かに異なる2次元画像を別々に提示することを含む。2つの画像の間のオフセットのため、ユーザは、3次元の深度を知覚する。
第1のディスプレイ119a及び第2のディスプレイ119bは、それぞれ、第1の制御電子部品115a及び第2の制御電子部品bに電気的に連結することができる。制御電子部品115a〜bは、ディスプレイ119a〜bに入力を提供し、該ディスプレイの動作を制御するように構成することができる。制御電子部品115a〜bは、表示入力、例えば撮像装置113a〜bから取得した処理された画像データを、ディスプレイ119a〜bに提供するように構成することができる。例えば、一実施形態において、第1の撮像装置113aからの画像データは、第1の制御電子部品115aを介して、第1のディスプレイ119aに通信され、同様に、第2の撮像装置113bからの画像データは、第2の制御電子部品115bを介して、第2のディスプレイ119bに通信される。撮像装置113a〜b及びディスプレイ119a〜bの位置及び構成に応じて、ユーザには、ユーザがアセンブリ100を着用せずに見えるものを模倣する立体画像を提示することができる。いくつかの実施形態において、撮像装置113a〜bから取得される画像データは、処理すること、例えば、デジタル的にズームすることができ、よって、ユーザには、ディスプレイ119a〜bを介して、ズームされたビューが提示される。
第1の眼追跡装置121a及び第2の眼追跡装置bは、フレーム103の後方表面107の上に、第1のディスプレイ119a及び第2のディスプレイbに隣接して配置される。第1の眼追跡装置121aは、フレーム103の右眼部分104a内に位置付けることができ、また、ユーザがアセンブリ100を着用している間、ユーザの右眼の移動を追跡するように配向し、構成することができる。同様に、第2の眼追跡装置121bは、フレーム103の左眼部分104b内に位置付けることができ、また、ユーザがアセンブリ100を着用している間、ユーザの左眼の移動を追跡するように配向し、構成することができる。第1の眼追跡装置121a及び第2の眼追跡装置121bは、ユーザの眼の移動を決定するように構成することができ、また、制御電子部品115a〜bと電子的に通信することができる。いくつかの実施形態において、ユーザの眼の移動は、制御電子部品115a〜bに入力制御を提供するために使用することができる。例えば、ディスプレイ119a〜bを介してユーザに表示される画像の一部分の上に視覚メニューをオーバーレイすることができる。ユーザは、自分の眼の焦点をその項目に合わせることによって、メニューからの項目の選択を示すことができる。眼追跡装置121a〜bは、ユーザが焦点を合わせている項目を決定することができ、制御電子部品115a〜bにこの項目選択の指示を提供することができる。例えば、この特徴は、ユーザが、特定の画像に適用するズームのレベルを制御することを可能にする。いくつかの実施形態において、マイクロホンまたは物理的ボタン(複数可)をアセンブリ100に提供することができ、音声指示またはボタンとの物理的接触を介して、ユーザ入力を受信することができる。他の実施形態において、撮像装置113a〜bを介したジェスチャー認識、アシスタント制御などの、他の入力の形態を使用することができる。
本明細書で説明される技術は、内視鏡システムに適用することができる。例えば、複数のカメラ(異なる視野/倍率の組み合わせを有する)をユーザの額の上に載置するのではなく、複数のカメラを内視鏡器具の先端部に載置することができる。代替的に、単一の主レンズにレンズレットアレイを加えたものを、内視鏡器具の先端部に載置することができる。その場合、再合焦、2つの異なる遠近感からの立体画像のレンダリング、またはズーミングなどの、光照射野のレンダリング技法を適用することができる。そのような事例において、収集した画像は、着用可能なヘッドマウントディスプレイアセンブリ100を通して表示することができる。
図2は、本技術の一実施形態に従って構成される媒介現実の外科用視覚化システムの概略図である。本システムは、例えばパブリックインターネット、イントラネットなどのプライベートネットワーク、または他のネットワークとすることができる通信リンク201を介して互いに通信している、多数の構成要素を含む。各構成要素と通信リンク201との間の接続は、無線(例えば、WiFi、Bluetooth(登録商標)、NFC、GSM(登録商標)、CDMA、3G、または4Gなどのセルラー通信)、または有線(例えば、Ethernet、FireWireケーブル、USBケーブルなど)とすることができる。ヘッドマウントディスプレイアセンブリ100は、通信リンク201に連結される。いくつかの実施形態において、アセンブリ100は、撮像デバイス101を介して画像を取り込み、統合された表示デバイス109を介して、アセンブリを着用しているユーザに画像を表示するように構成することができる。アセンブリ100は、追加的に、追跡装置203によって追跡することができる、基準マーカー117を含む。追跡装置203は、光追跡、音波若しくは電磁検出、または位置を追跡するための任意の他の適切な手法を介して、基準マーカー117の位置及び移動を決定することができる。いくつかの実施形態において、追跡装置203は、外科中に、患者及びある特定の解剖学的特徴の位置を追跡するために使用するように構成することができる。例えば、追跡装置203は、Medtronic製のStealthStation(登録商標)外科用ナビゲーションシステムなどの、外科用ナビゲーションシステムの一部とすることができる。このようなシステムは、外科部位の周りのプローブの位置を識別することができ、更には、MRI、CT、蛍光透視などの他の術中撮像システムとインターフェースすることもできる。追跡装置203はまた、追加的な撮像装置205、例えば、外科部位の周りの関節アーム上の他のカメラ、内視鏡、開創器に載置されるカメラなども追跡することができる。例えば、追加的な撮像装置205は、同様に、追跡装置203が位置及び配向を検出することを可能にするために、プローブまたは基準マーカーを装備することができる。追跡装置203によって取得される位置情報は、アセンブリ100に対する、及び外科部位に対する、追加的な撮像装置205の位置及び配向を決定するために使用することができる。いくつかの実施形態において、追加的な撮像装置205は、ヘッドマウントディスプレイアセンブリ100の位置及び/または動作に応じて選択的に起動させることができる。例えば、アセンブリ100を着用しているユーザが追加的な撮像装置205の視野内にある特定の領域に注目しているときに、その追加的な撮像装置205を起動させて、アセンブリ100からの画像データと合成するためにデータを記録することができる。いくつかの実施形態において、追加的な撮像装置205は、アセンブリ100の視野と重複する視野を取り込むために、例えば追加的な撮像装置205を回転させることによって、ヘッドマウントディスプレイアセンブリ100の位置及び/または動作に応じて、該追加的な撮像装置の位置及び/または配向を変化させるように制御することができる。
コンピュータ構成要素207は、通信リンク201を介して他の構成要素と相互作用するための複数のモジュールを含む。コンピュータ構成要素207は、例えば、ディスプレイのモジュール209と、運動追跡モジュール211と、登録モジュール213と、画像取り込みモジュール215とを含む。いくつかの実施形態において、コンピュータ構成要素207は、コンピュータ読み出し可能な媒体に記憶されるコンピュータ実行可能命令に従って動作を行うことができる、CPUなどのプロセッサを含むことができる。いくつかの実施形態において、ディスプレイモジュール、運動追跡モジュール、登録モジュール、及び画像取り込みモジュールは、それぞれ、動作を行うように構成されるプロセッサをそれぞれが有する別個のコンピューティングデバイスに実現することができる。いくつかの実施形態では、これらのモジュールのうちの2つ以上を単一のコンピューティングデバイスに含むことができる。コンピュータ構成要素207はまた、データベース217とも通信している。
ディスプレイのモジュール209は、表示デバイス109を介してユーザに提示するためのディスプレイ出力情報をアセンブリ100に提供するように構成することができる。上で述べられるように、これは立体表示を含むことができ、該立体表示では、第1の表示デバイス119a及び第2の表示デバイス119b(図1B)を介して、異なる画像が各眼に提供される。アセンブリ100に提供されるディスプレイ出力は、アセンブリ100の撮像デバイス101によって取り込まれる映像のリアルタイムの、またはほぼリアルタイムのフィードを含むことができる。いくつかの実施形態において、ディスプレイ出力は、他のデータ、例えば、術前画像データ(例えば、CT、MRI、X線、蛍光透視)、標準的な解剖学的画像(例えば、教科書の解剖学図または死体由来の画像)、または現在の患者のバイタルサイン(例えば、EKG、EEG、SSEP、MEP)を統合したものを含むことができる。この追加的なデータは、例えば、コンピューティング構成要素207がアクセスするために、データベース217に記憶されることができる。いくつかの実施形態では、追加的なリアルタイム画像データ(例えば、外科部位の周りの関節アーム上の他のカメラ、内視鏡、開創器に載置されたカメラなどからのリアルタイム画像データ)を、追加的な撮像装置205から取得し、アセンブリ100の表示デバイス109を介して、ユーザに提示することができる。このような追加的なデータは、表示するために統合することができ、例えば、該追加的なデータは、撮像デバイス101からのリアルタイム画像の表示の上にピクチャインピクチャまたは他のオーバーレイとして提供することができる。いくつかの実施形態において、追加的なデータは、撮像デバイス101からのリアルタイム画像の表示の中へ統合することができ、例えば、X線データを表示の中へ統合することができ、よって、ユーザは、一体化された画像として撮像デバイス101aからのリアルタイム画像及びX線データの双方をともに視認する。追加的な画像データ(例えば、X線、MRIなど)を撮像デバイス101からリアルタイムフィードでコヒーレントに提示するために、追加的な画像データを、アセンブリ100の位置及び配向に基づいて処理し、操作することができる。同様に、いくつかの実施形態では、教科書の解剖学図または他の参照画像(例えば、死体に由来するラベル付けした画像)を、取り込まれた画像の上へ正しく配向されるように操作し、歪ませることができる。これは、外科医が、手術中に、リアルタイム画像データの上に重畳される既存の画像から解剖学的ラベルを視覚化することを可能にする。いくつかの実施形態において、ユーザは、音声コマンド、メニュー項目を選択するための眼の移動、アシスタント制御、または他の入力を介して、異なるビューの間でトグルすることができる。例えば、ユーザは、撮像デバイス101からの画像のリアルタイムフィードと1つ以上の追加的な撮像装置205から取り込まれる画像のリアルタイムフィードとの間でトグルすることができる。
運動追跡モジュール211は、外科部位に対するアセンブリ100並びに任意の追加的な撮像装置205の位置及び配向を決定するように構成することができる。上で述べられるように、追跡装置203は、光学的に、または他の技法を介して、アセンブリ100及び追加的な撮像装置205の位置を追跡することができる。この位置及び配向データは、ディスプレイモジュール209を介して適切なディスプレイ出力を提供するために使用することができる。
登録モジュール213は、外科用フレームに全ての画像データを登録するように構成することができる。例えば、アセンブリ100及び追加的な撮像装置205のための位置及び配向データは、運動追跡モジュール211から受信することができる。追加的な画像データ、例えば術前画像は、データベース217から、または別のソースから受信することができる。追加的な画像データ(例えば、X線、MRI、CT、蛍光透視、解剖学図など)は、典型的に、アセンブリ100の、または追加的な撮像装置205のいずれの観点からも記録されていなかった。その結果、補足的な画像データを処理し、操作して、適切な遠近感でアセンブリ100の表示デバイス109を介してユーザに提示しなければならない。登録モジュール213は、術前画像において検出されるような解剖学的または人工基準マーカーと、外科用ナビゲーションシステム、アセンブリ100、または他の追加的な撮像装置205によって検出されるものと同じ解剖学的または人工基準マーカーとを比較することによって、参照の外科用フレームに補足的な画像データを登録することができる。
画像取り込みモジュール215は、アセンブリ100の撮像デバイス101から、更には任意の追加的な撮像装置205から画像データを取り込むように構成することができる。取り込まれる画像は、連続ストリーミング映像及び/または静止画像を含むことができる。いくつかの実施形態において、撮像デバイス101及び/または追加的な撮像装置205のうちの1つ以上は、プレノプティックカメラとすることができ、その事例において、画像取り込みモジュール215は、光照射野データを受信し、該データを処理して特定の画像をレンダリングするように構成することができる。プレノプティックカメラのためのこのような画像処理は、図4A〜Iに関して下で更に詳細に説明される。
図3は、手術中の媒介現実の外科用視覚化システムを例示する。外科医301は、患者の外科部位303に対する手術中に、ヘッドマウントディスプレイアセンブリ100を着用する。追跡装置203は、アセンブリ100の移動及び位置に追従する。上で述べられるように、追跡装置203は、光追跡、音波若しくは電磁検出、または位置を追跡するための任意の他の適切な手法を介して、アセンブリ100に対する基準マーカーの位置及び移動を決定することができる。いくつかの実施形態において、追跡装置203は、Medtronic製のStealthStation(登録商標)外科用ナビゲーションシステムなどの、外科用ナビゲーションシステムの一部とすることができる。追跡装置203はまた、追加的な撮像装置、例えば、外科部位の周りの関節アーム上の他のカメラ、内視鏡、開創器に載置されるカメラなども追跡することができる。
外科医301が手術している間、アセンブリ100の撮像デバイス101を介して取り込まれる画像は、処理されて、アセンブリ100内の統合された表示デバイス109(図1B)を介して、外科医に立体視的に表示される。結果として、外科医の視野の媒介現実の表現がもたらされる。上で述べられるように、追加的な画像データまたは他のデータは、同様に、統合して、外科医に表示することができる。外科医301に提示されている表示データは、リアルタイムで同時にまたは時間遅延で遠隔ユーザ305にストリーミングすることができる。遠隔ユーザ305は、同様に、統合された立体表示を伴って構成されるヘッドマウントディスプレイアセンブリ307を装着することができ、または外部ディスプレイを介して遠隔ユーザ305に提示することができる。いくつかの実施形態において、遠隔ユーザ305は、外科用ロボットをリモートに制御することができ、遠隔手術を行い、一方で、外科用視覚化を向上させるために遠隔ユーザ305に臨場感及び遠近感を提供することを可能にする。いくつかの実施形態において、複数の遠隔ユーザは、複数の異なるプレノプティックカメラ及び外科部位の周りに配置される他の撮像デバイスからレンダリングされたときに、異なる視点から、外科部位を同時に視認することができる。
アセンブリ100は、音声コマンドに応答するか、更には外科医の眼を追跡することができ、したがって、外科医301が、用いられている倍率のレベルをフィードの間に切り替えて、微調整することを可能にする。ヘッドアップディスプレイは、患者のバイタルサイン(EKG、EEG、SSEP、MEP)、撮像(CT、MRIなど)、及び外科医が所望する任意の他の情報とともに、外科医の要求に応じてスクロールさせることができ、外部モニタを評価する、または麻酔チームへの問い合わせを行うために手術の流れを中断する必要性を排除する。無線ネットワークは、アセンブリ100がプロセッサ(例えば、コンピューティング構成要素207)と通信する能力を与えることができ、これは、自動焦点のような簡単なツールから、血管造影法及び腫瘍の「塗装」まであらゆるものを伴う外科医の視覚的作業環境を増強することができる。アセンブリ100は、高価な外科用顕微鏡、更には近い将来のリモートロボットワークステーションに対する必要性を置き換えることができ、顕微鏡及び内視鏡と連動して使用される「特注の」眼鏡ルーペの経済的な代替例を提示する。
ヘッドマウントディスプレイアセンブリ100は、視覚情報の複数のストリームを集めて、それを、単に視覚化のために外科医に送信するだけでなく、リアルタイムの分析及び修正のためにリモート処理能力(例えば、コンピューティング構成要素207(図2))にも送信することができる。いくつかの実施形態において、本システムは、注意を必要とする解剖学的構造及び出血源の識別を支援するために、パターン認識を利用することができ、したがって、デジタル外科用アシスタントとして作用する。教科書のまたは順応性解剖学のリアルタイムオーバレイは、構造の識別を支援することができ、及び/または常駐の医師及び他の学習者に対する補助教材として作用することができる。いくつかの実施形態において、本システムは、術野と相互作用するための追加的な技術を装備することができ、例えば、アセンブリ100は、組織特性の分析または術野のマッピングをリアルタイムで支援することができるLiDARを含み、したがって、切除の範囲などを決定する際に外科医を支援する。いくつかの実施形態において、アセンブリ100は、高輝度LEDヘッドランプと統合することができ、該ヘッドランプは、(例えば、機械学習技法を介して)ある特定の手術状況をどのように最良に照明するかを「教示する」こと、またはバイオ蛍光剤と相互作用させるために異なる波長の光を提供することができる。
いくつかの実施形態において、撮像デバイス101及び他の撮像装置から記録されるデータは、後で、外科部位の異なる視点及び視覚化を生成するために使用することができる。例えば、記録したデータを後で再生するために、異なる倍率、追加的な画像データの異なる統合、及び/または異なる視点を有する画像を生成することができる。これは、手順をレビューする際に、または訓練の目的に特に有用であり得る。
図4A〜4Iは、本技術の実施形態に従って媒介現実の外科用視覚化システムで使用するように構成される、プレノプティックカメラの概略図である。上で説明されるように、様々な実施形態において、ヘッドマウントディスプレイアセンブリ100に連結される第1の撮像装置113a及び第2の撮像装置113bとして、1つ以上のプレノプティックカメラを使用することができる。プレノプティックカメラ(複数可)で取り込まれる光照射野を処理することによって、異なる焦点平面及び異なる視点を有する画像を計算することができる。
最初に図4Aを参照すると、プレノプティックカメラ401は、主レンズ403と、画像センサ405と、それらの間に配置されるマイクロレンズまたはレンズレット407のアレイとを含む。主レンズ403によって合焦させた光は、画像平面を横切り、レンズレット407に渡り、そこで、センサ405のある点に合焦される。その結果、レンズレット407のアレイは、僅かに異なる位置から、したがって、異なる遠近感で多数の異なる画像を取り込む。これらの複数の画像を処理することによって、ある特定の被写界深度に到達するように、様々な視点及び焦点距離による合成画像を抽出することができる。いくつかの実施形態において、レンズレット407のアレイ及び関連するセンサ405は、個々の別個のカメラのアレイと置き換えることができる。
図4Bは、プレノプティックカメラを使用して仮想カメラをレンダリングする概略図である。センサ要素405のアレイ(センサ要素405a〜dとして4つが示される)が、異なるレンズレット407(図4A)から光を受けるセンサ405の異なる部分に対応する。仮想カメラ409は、プレノプティックカメラを介して取り込まれる画像データを処理することによってレンダリングされる視点を示す。ここで、仮想カメラ409は、センサ要素405a〜dの前方に「位置付けられる」。仮想カメラ409をレンダリングするには、結果として生じる画像を生成するために、その位置を通過したであろう光だけを使用する。例示されるように、仮想カメラ409は、センサ要素405aの「視野」の外側にあり、故に、センサ要素405aからのデータは、仮想カメラ409から画像をレンダリングするために使用されない。仮想カメラ409は、他のセンサ要素405b〜dの「視野」内に入り、故に、これらのセンサ要素405b〜dからのデータは、組み合わせられて、レンダリングされた仮想カメラから画像を生成する。4つのセンサ要素405a〜dだけが示されているが、アレイは、異なる数のセンサ要素405を含み得ることが認識されるであろう。
図4Cは、類似する仮想カメラのレンダリングを例示するが、仮想カメラの「位置」がセンサ要素405a〜dの後方にある。ここで、センサ要素405a、c、及びdは、仮想カメラ409の「視野」の外側にあり、よって、これらのセンサ要素からのデータは、仮想カメラ409から画像をレンダリングするために使用されない。図4Dに関しては、2つの別個の仮想カメラ409a及び409bが、センサ要素405a〜dからのデータを使用してレンダリングされる。この構成は、ヘッドマウントディスプレイアセンブリ100を着用したときに、ユーザの眼の位置に対応する2つの「仮想カメラ」を生成するために使用することができる。例えば、アセンブリ100を着用しているユーザは、自分の眼の前方に配置される撮像デバイス101を有する。また、センサ要素405a〜d(撮像デバイス101の一部として)も、ユーザの眼の前方に配置されている。センサ要素405a〜dの後方のある位置で仮想カメラ409a〜bをレンダリングすることによって、仮想カメラ409a〜bをユーザの左眼及び右眼に対応する位置にレンダリングすることができる。眼追跡装置121a〜b(図1B)の使用は、ユーザの眼の横方向の位置及び瞳孔間距離を決定するために使用することができる。これは、様々な異なるユーザの様々な異なる瞳孔間距離に対して、ソフトウェアを介して、単一のハードウェアの構成をカスタマイズすることを可能にする。いくつかの実施形態において、瞳孔間距離は、眼追跡装置121a〜bによって検出するのではなく、ユーザによって入力することができる。
プレノプティックカメラの使用はまた、アセンブリが移動し、新しい視野を取り込むときに、システムが、知覚される待ち時間を低減させることも可能にする。プレノプティックカメラは、情報を取り込み、伝送して、各仮想カメラの周りに空間バッファを形成することができる。移動中に、ローカル仮想カメラは、コマンドを受信するためにリモート感知を待つことなく空間バッファ領域の中へ移動し、所望の場所まで移動し、そして、新しい画像データを送信することができる。その結果、移動した仮想カメラによって取り込まれる物理的なシーンオブジェクトは、いくらかの待ち時間を有することになるが、視点の待ち時間は、大幅に低減させることができる。
図4Eは、プレノプティックカメラを使用した拡大の概略図である。領域411aは、画像空間内の拡大領域411bによって示されるように拡大される、対象領域を示す。対象領域411aを通過する光線は、拡大領域411bに反射するように再方向付けされるが、一方で、実際の拡大領域411bを通過するが対象領域411aを通過しない光線、例えば光線413は、再方向付けされない。光線413からなどの光は、透過的にレンダリングすることができるか、あるいは全くレンダリングされない。
この同じ拡大技法は、図4F及び4Gにおいて、領域411aにより近い仮想カメラ409のレンダリングとして例示される。近い仮想カメラ409をレンダリングすることによって、領域411aは、領域411bの範囲を包含するように拡大される。図4Gは、この拡大(光線415によって示される)及び従来のズーム(光線417によって示される)の双方を例示する。図4Gに示されるように、拡大及びズームは、焦点面419で同じであるが、ズームされたオブジェクトは、不正確な短縮を有する。
拡大容積は、ビューの特定の角度領域ではなく、空間の中の位置に固定することができる。例えば、外科部位の腫瘍または他の部分を拡大することができ、ユーザがヘッドマウントディスプレイアセンブリ100を着用している間に自分の頭部を移動させたときに、画像を操作することができ、よって、拡大の領域は、腫瘍の物理的場所に対応して固定された状態を維持する。いくつかの実施形態において、拡大領域「の後方の」領域は、透過的にレンダリングすることができ、よって、ユーザは、依然として、対象領域の拡大によって不明瞭である領域を知覚することができる。
いくつかの実施形態において、拡大容積は、その物理的な場所でレンダリングする必要はなく、むしろ、取り込まれた容積から独立して位置付けることができる。例えば、拡大ビューは、外科医に対してより近くに、かつ異なる角度でレンダリングすることができる。いくつかの実施形態において、外部ツールの位置は、入力のために追跡することができる。例えば、外科用メスまたは他の外科用ツールの先端部を(例えば、追跡装置203を使用して)追跡することができ、拡大容積を外科用メスまたは他の外科用ツールの先端部に位置付けることができる。いくつかの実施形態において、外科用ツールは、システムまたは他の外科用システムのための触覚フィードバックまたは物理的制御を含むことができる。外科用ツールが電子的または電気機械的に制御される状況において(例えば、ツールが外科用ロボットによって制御される遠隔手術中に)、そのようなツールに対する制御は、視覚化モードに応じて修正することができる。例えば、ツールが視覚的に変換される(例えば、拡大される)物理容積の内側に配置されたときに、視覚的スケーリング、回転などを補償するために、ツールに対する制御を修正することができる。これは、制御が視覚的に変換されたビュー及び周囲のビューの内側を同じ状態に維持することを可能にする。このツール制御の修正は、遠隔手術中に、ツールの視覚化及び外科部位が修正されているときに、外科医が、ツールをより良好に制御することを可能にする。
対象点の近くに位置する環境の中の追加的なカメラからの情報は、ヘッドマウントディスプレイに連結される撮像装置からの画像と融合させることができ、それによって、対象領域を拡大する能力が向上する。深度情報は、深度センサから生成する、または得ることができ、また、焦点面とシーンの物理的幾何学的形状とを並置することによって、シーンの全体を合焦させるために使用することができる。他の媒介現実と同様に、データは、環境においてレンダリングし、視覚化することができる。光照射野の使用は、オクルージョンの周りを視認することを可能にし、また、鏡面反射を除去することができる。いくつかの実施形態において、光照射野の処理はまた、組織型の間の対比を増加させるためにも使用することができる。
レンダリングされている仮想カメラ409に応じて、図4Hは、センサ要素405nの選択的な起動を例示する。例示されるように、仮想カメラ409をレンダリングするためには、センサ要素のアレイのセンサ要素405a〜cだけが必要である。故に、他のセンサ要素を起動させないことができる。これは、未使用の情報を取り込み、伝送しないことによって、必要とされる電力及びデータを低減させる。
図4Iは、プレノプティックカメラのためのレンズレットアレイ421の代替の構成を例示する。例示されるように、第1の複数のレンズレット423は、第1の湾曲を有し、画像センサから第1の距離で離間配置され、第2の複数のレンズレット425は、第2の湾曲を有し、画像センサから第2の距離で離間配置される。この実施形態では、第1の複数のレンズレット423及び第2の複数のレンズレット425を散在させている。他の実施形態では、第1の複数のレンズレット423をともに配置することができ、第2の複数のレンズレット425も、ともに配置することができるが、第1の複数のレンズレットから分離される。アレイにおけるレンズレットの配設及びタイプを変化させることによって、角度及び空間分解能を変化させることができる。
図5は、本技術の一実施形態による、外科用視覚化のための媒介現実の表示を提供するための方法のブロック図である。ルーチン600は、ブロック601から開始する。ブロック603で、第1の画像データを第1の撮像装置113aから受信し、ブロック605で、第2の画像データを第2の撮像装置113bから受信する。例えば、第1の撮像装置113aは、ヘッドマウントディスプレイアセンブリを着用したときに、ユーザの右眼の上に位置付けることができ、第2の撮像装置113bは、ヘッドマウントディスプレイアセンブリ100を着用したときに、ユーザの左眼の上に位置付けることができる。ルーチン600は、ブロック607に進み、第1の画像データ及び第2の画像データを処理する。この処理は、ヘッドマウントディスプレイアセンブリ100と有線または無線で通信しているリモート電子部品(例えば、コンピューティング構成要素207)によって行うことができる。または、いくつかの実施形態において、この処理は、アセンブリ100によって担持される制御電子部品115a〜bを介して行うことができる。ブロック609で、第1の処理された画像を第1のディスプレイ119aに表示し、ブロック611で、第2の処理された画像を第2のディスプレイ119bに表示する。第1のディスプレイ119aは、アセンブリ100を着用したときに、第1の処理された画像をユーザの右眼に表示するように構成することができ、第2のディスプレイ119bは、アセンブリ100を着用したときに、第2の処理された画像をユーザの右眼に表示するように構成することができる。第1及び第2の処理された画像は、立体感のために提示することができ、よって、ユーザは、双方の処理された画像を同時に視認したときに、3次元の深度を知覚する。
本明細書で説明されるいくつかの実施形態は、外科的な応用のための媒介現実の仮想化システムを対象としているが、このようなシステムの他の用途も考えられる。例えば、統合された表示デバイス及び統合された画像取り込みデバイスを有するヘッドマウントディスプレイアセンブリを含む、媒介現実の視覚化システムは、建築、製造、サービス産業、ゲーミング、娯楽、及び様々な他の状況において使用することができる。
実施例
1.媒介現実の外科用視覚化システムであって、
不透明なヘッドマウントディスプレイアセンブリであって、
第1の方向に面する正面側と、
正面側に対向し、第1と反対の第2の方向に面する背面側であって、ユーザが着用したときにユーザの顔面に面するように構成される、背面側と、
第2の方向に面する立体表示デバイスであって、第1のディスプレイ及び第2のディスプレイを備え、ヘッドマウントディスプレイをユーザが着用したときに、第1のディスプレイが、右眼に画像を表示するように構成され、第2のディスプレイが、左眼に画像を表示するように構成される、立体表示デバイスと、
第1の方向に面する画像取り込みデバイスであって、第1の撮像装置及び第1の撮像装置から離間された第2の撮像装置を備える、画像取り込みデバイスと、を備える、不透明なヘッドマウントディスプレイアセンブリと、
立体表示デバイス及び画像取り込みデバイスと通信しているコンピューティングデバイスであって、
第1の撮像装置から第1の画像データを受信し、
第2の撮像装置から第2の画像データを受信し、
第1の画像データ及び第2の画像データを処理し、そして、
第1の画像データから第1の処理された画像を第1のディスプレイに表示し、第2の画像データから第2の処理された画像を第2のディスプレイに表示することによって、立体表示デバイスを介して、リアルタイムの立体画像を提示するように構成される、コンピューティングデバイスと、を備える、媒介現実の外科用視覚化システム。
2.ヘッドマウントディスプレイアセンブリが、右眼部分及び左眼部分を有するフレームを備え、第1のディスプレイが、右眼部分内に配置され、第2のディスプレイが、左眼部分内に配置される、実施例1に記載の媒介現実の外科用視覚化システム。
3.ヘッドマウントディスプレイアセンブリが、右眼部分及び左眼部分を有するフレームを備え、第1の撮像装置が、右眼部分の上に配置され、及び第2の撮像装置が、左眼部分の上に配置される、実施例1〜2のうちのいずれか1例に記載の媒介現実の外科用視覚化システム。
4.第1及び第2の撮像装置が、プレノプティックカメラを備える、実施例1〜3のうちのいずれか1例の実施例に記載の媒介現実の外科用視覚化システム。
5.第1及び第2の撮像装置が、単一のプレノプティックカメラの別個の領域を備える、実施例1〜4のうちのいずれか1例に記載の媒介現実の外科用視覚化システム。
6.第3の撮像装置を更に備える、実施例1〜5のうちのいずれか1例に記載の媒介現実の外科用視覚化システム。
7.第3の撮像装置が、ヘッドマウントディスプレイとは別個の、術野の周りに配置されるように構成される、カメラを備える、実施例6に記載の媒介現実の外科用視覚化システム。
8.運動追跡構成要素を更に備える、実施例1〜7のうちのいずれか1例に記載の媒介現実の外科用視覚化システム。
9.運動追跡構成要素が、ヘッドマウントディスプレイに連結される基準マーカー、及び基準マーカーの移動を監視し、記録するように構成される運動追跡装置を備える、実施例8に記載の媒介現実の外科用視覚化システム。
10.コンピューティングデバイスが、
第3の画像データを受信し、
第3の画像データを処理し、そして、
第3の画像データから処理された第3の画像を第1のディスプレイ及び/または第2のディスプレイに提示するように更に構成される、実施例1〜9のうちのいずれか1例に記載の媒介現実の外科用視覚化システム。
11.第3の画像データが、蛍光画像データ、磁気共鳴撮像データ、コンピュータ断層撮影画像データ、X線画像データ、解剖学図データ、及びバイタルサインデータのうちの少なくとも1つを含む、実施例10に記載の媒介現実の外科用視覚化システム。
12.処理された第3の画像が、立体画像と統合される、実施例10〜11のうちのいずれか1例に記載の媒介現実の外科用視覚化システム。
13.処理された第3の画像が、立体画像の一部分の上にピクチャインピクチャとして提示される、実施例10〜12のうちのいずれか1例に記載の媒介現実の外科用視覚化システム。
14.コンピューティングデバイスが、
第2のヘッドマウントディスプレイアセンブリに立体画像を提示するように更に構成される、実施例1〜13のうちのいずれか1例に記載の媒介現実の外科用視覚化システム。
15.媒介現実の視覚化システムであって、
ヘッドマウントディスプレイアセンブリであって、
ユーザの頭部に着用するように構成されるフレームと、
フレームに連結される画像取り込みデバイスと、
フレームに連結される表示デバイスであって、ユーザの眼に向かって画像を表示するように構成される、表示デバイスと、を備える、ヘッドマウントディスプレイと、
表示デバイス及び画像取り込みデバイスと通信しているコンピューティングデバイスであって、
画像取り込みデバイスから画像データを受信し、そして、
表示デバイスを介して画像データから画像を提示するように構成される、コンピューティングデバイスと、を備える、媒介現実の視覚化システム。
16.画像取り込みデバイスが、第1の撮像装置及び第2の撮像装置を有する画像取り込みデバイスを備える、実施例15に記載の媒介現実の視覚化システム。
17.表示デバイスが、第1のディスプレイ及び第2のディスプレイを有する立体表示デバイスを備える、実施例15〜16のうちのいずれか1例に記載の媒介現実の視覚化システム。
18.コンピューティングデバイスが、リアルタイムで画像を提示するように構成される、実施例15〜17のうちのいずれか1例に記載の媒介現実の視覚化システム。
19.フレームが、ユーザの頭部に着用され、画像取り込みデバイスが、ユーザから離れて面している、実施例15〜18のうちのいずれか1例に記載の媒介現実の視覚化システム。
20.画像取り込みデバイスが、少なくとも1つのプレノプティックカメラを備える、実施例15〜19のうちのいずれか1例に記載の媒介現実の視覚化システム。
21.コンピューティングデバイスが、
プレノプティックカメラから受信する画像データを処理し、
画像データから少なくとも1つの仮想カメラをレンダリングし、そして、
表示デバイスを介して仮想カメラに対応する画像を提示するように更に構成される、実施例20に記載の媒介現実の視覚化システム。
22.コンピューティングデバイスが、フレームをユーザが着用したときに、ユーザの眼の位置に対応する場所に少なくとも1つの仮想カメラをレンダリングするように構成される、実施例21に記載の媒介現実の視覚化システム。
23.少なくとも1つの仮想カメラをレンダリングすることが、取り込まれた光照射野の拡大ビューをレンダリングすることを含む、実施例21〜22のうちのいずれか1例に記載の媒介現実の視覚化システム。
24.表示デバイスが、第1及び第2のディスプレイを備える、実施例21〜23のうちのいずれか1例に記載の媒介現実の視覚化システム。
25.表示デバイスが、第1のディスプレイ及び第2のディスプレイを有する立体表示デバイスを備え、
画像取り込みデバイスが、少なくとも1つのプレノプティックカメラを備え、
コンピューティングデバイスが、
少なくとも1つのプレノプティックカメラから受信される画像データを処理し、
画像データから第1の仮想カメラをレンダリングし、
画像データから第2の仮想カメラをレンダリングし、
第1のディスプレイを介して、第1の仮想カメラに対応する画像を提示し、そして、
第2のディスプレイを介して、第2の仮想カメラに対応する画像を提示するように更に構成される、実施例15〜25のうちのいずれか1例に記載の媒介現実の視覚化システム。
26.ヘッドマウントディスプレイアセンブリが、不透明である、実施例15〜25のうちのいずれか1例に記載の媒介現実の視覚化システム。
27.ヘッドマウントディスプレイアセンブリが、透明または半透明である、実施例15〜25のうちのいずれか1例に記載の媒介現実の視覚化システム。
28.媒介現実の外科用視覚化を提供するための方法であって、
ユーザの頭部に載置するように構成されるフレームと、フレームに連結される第1及び第2の撮像装置と、フレームに連結される第1及び第2のディスプレイとを備えるヘッドマウントディスプレイを提供することと、
第1の撮像装置から第1の画像データを受信することと、
第2の撮像装置から第2の画像データを受信することと、
第1の画像データ及び第2の画像データを処理することと、
第1の処理された画像データを第1のディスプレイに示すことと、
第2の処理された画像データを第2のディスプレイに示すことと、を含む、媒介現実の外科用視覚化を提供するための方法。
29.第1及び第2の処理された画像データが、第1及び第2の2ディスプレイにリアルタイムで示される、実施例28に記載の方法。
30.
第3の画像データを受信することと、
第3の画像データを処理することと、
処理された第3の画像データを第1のディスプレイ及び/または第2のディスプレイに表示することと、を更に含む、実施例28〜29のうちのいずれか1例に記載の方法。
31.第3の画像データが、蛍光画像データ、磁気共鳴撮像データ、コンピュータ断層撮影画像データ、X線画像データ、解剖学図データ、及びバイタルサインデータのうちの少なくとも1つを含む、実施例30に記載の方法。
32.第3の画像データが、ヘッドマウントディスプレイから離間される第3の撮像装置から受信される、実施例28〜31のうちのいずれか1例に記載の方法。
33.ヘッドマウントディスプレイの移動を追跡することを更に含む、実施例28〜32のうちのいずれか1例に記載の方法。
34.ヘッドマウントディスプレイの移動を追跡することが、ヘッドマウントディスプレイに連結される基準マーカーの移動を追跡することを含む、実施例33に記載の方法。
35.
ヘッドマウントディスプレイから離れた第2の表示デバイスを提供することであって、第2の表示デバイスが、第3の及び更なるディスプレイを備える、提供することと、
第1の処理された画像データを第3のディスプレイに表示することと、
第2の処理された画像データを第4のディスプレイに表示することと、を更に含む、実施例28〜34のうちのいずれか1例に記載の方法。
36.第1及び第2の撮像装置が、少なくとも1つのプレノプティックカメラを備える、実施例28〜35のうちのいずれか1例に記載の方法。
37.
プレノプティックカメラから受信される画像データを処理することと、
画像データから少なくとも1つの仮想カメラをレンダリングすることと、
第1のディスプレイを介して、仮想カメラに対応する画像を提示することと、を更に含む、実施例28〜36のうちのいずれか1例に記載の方法。
38.少なくとも1つの仮想カメラをレンダリングすることが、ディスプレイがユーザの頭部に載置されたときに、ユーザの位置に対応する場所に少なくとも1つの仮想カメラをレンダリングすることを含む、実施例37に記載の方法。
39.少なくとも1つの仮想カメラをレンダリングすることが、取り込まれた光照射野の一部分の拡大ビューをレンダリングすることを含む、実施例37〜38のうちのいずれか1例に記載の方法。
結論
本技術の実施形態の上の詳細な説明は、上で開示された正確な形態に本技術を網羅すること、またはこれを限定することを意図したものではない。本技術の具体的な実施形態及び本技術のための実施例は、例示を目的として上で説明されるが、当業者が認識するように、本技術の範囲内で様々な同等の修正が可能である。例えば、工程は、所与の順序で提示されているが、代替の実施形態は、異なる順序で工程を行うことができる。また、本明細書で説明される様々な実施形態は、更なる実施形態を提供するために組み合わせることもできる。
上述のことから、本発明の具体的な実施形態は、例示の目的で本明細書において説明されているが、よく知られている構造及び機能は、本技術の実施形態の説明を不必要に不明瞭にすることを避けるために、詳細に示されていない、または説明されていないことを認識するであろう。文脈が許可する場合、単数形または複数形の用語はまた、それぞれ、複数形または単数形の用語も含み得る。
そのうえ、「または」という単語が、2つ以上の項目のリストを参照して他の項目から排他的に単一の項目だけを意味するように明示的に限定されない限り、そのようなリストにおける「または」の使用は、(a)リストの中の任意の単一の項目、(b)リストの中の全ての項目、または(c)リストの中の項目の任意の組み合わせを含むものとして解釈されたい。加えて、「備える」という用語は、任意のより多くの同じ特徴及び/または追加的なタイプの他の特徴が排除されないように、少なくとも列挙された特徴(複数可)を含むことを意味するように全体を通して使用される。また、具体的な実施形態が例示の目的で本明細書において説明されているが、本技術の範囲から逸脱することなく、様々な修正を行うことができることも認識するであろう。更に、本技術の特定の実施形態と関連付けられる利点は、それらの実施形態の文脈で説明されているが、他の実施形態もまたこのような利点を呈することができ、全ての実施形態が、本技術の範囲内にあるこのような利点を必ずしも示す必要があるとは限らない。故に、本開示及び関連する技術は、本明細書において明示的に示されない、またはこれに記載されない他の実施形態を包含することができる。

Claims (39)

  1. 媒介現実の外科用視覚化システムであって、
    不透明なヘッドマウントディスプレイアセンブリであって、
    第1の方向に面する正面側と、
    前記正面側に対向し、前記第1と反対の第2の方向に面する背面側であって、ユーザが着用したときに前記ユーザの顔面に面するように構成される、背面側と、
    前記第2の方向に面する立体表示デバイスであって、第1のディスプレイ及び第2のディスプレイを備え、前記ヘッドマウントディスプレイを前記ユーザが着用したときに、前記第1のディスプレイが、右眼に画像を表示するように構成され、前記第2のディスプレイが、左眼に画像を表示するように構成される、立体表示デバイスと、
    前記第1の方向に面する画像取り込みデバイスであって、第1の撮像装置及び前記第1の撮像装置から離間された第2の撮像装置を備える、画像取り込みデバイスと、を備える、不透明なヘッドマウントディスプレイアセンブリと、
    前記立体表示デバイス及び前記画像取り込みデバイスと通信しているコンピューティングデバイスであって、
    前記第1の撮像装置から第1の画像データを受信し、
    前記第2の撮像装置から第2の画像データを受信し、
    前記第1の画像データ及び前記第2の画像データを処理し、そして、
    前記第1の画像データから第1の処理された画像を前記第1のディスプレイに表示し、前記第2の画像データから第2の処理された画像を前記第2のディスプレイに表示することによって、前記立体表示デバイスを介して、リアルタイムの立体画像を提示するように構成される、コンピューティングデバイスと、を備える、媒介現実の外科用視覚化システム。
  2. 前記ヘッドマウントディスプレイアセンブリが、右眼部分及び左眼部分を有するフレームを備え、前記第1のディスプレイが、前記右眼部分内に配置され、前記第2のディスプレイが、左眼部分内に配置される、請求項1に記載の媒介現実の外科用視覚化システム。
  3. 前記ヘッドマウントディスプレイアセンブリが、右眼部分及び左眼部分を有するフレームを備え、前記第1の撮像装置が、前記右眼部分の上に配置され、及び前記第2の撮像装置が、前記左眼部分の上に配置される、請求項1に記載の媒介現実の外科用視覚化システム。
  4. 前記第1及び第2の撮像装置が、プレノプティックカメラを備える、請求項1に記載の媒介現実の外科用視覚化システム。
  5. 前記第1及び第2の撮像装置が、単一のプレノプティックカメラの別個の視野を備える、請求項1に記載の媒介現実の外科用視覚化システム。
  6. 第3の撮像装置を更に備える、請求項1に記載の媒介現実の外科用視覚化システム。
  7. 前記第3の撮像装置が、前記ヘッドマウントディスプレイとは別個の、術野の周りに配置されるように構成される、カメラを備える、請求項6に記載の媒介現実の外科用視覚化システム。
  8. 運動追跡構成要素を更に備える、請求項1に記載の媒介現実の外科用視覚化システム。
  9. 前記運動追跡構成要素が、前記ヘッドマウントディスプレイに連結される基準マーカー、及び前記基準マーカーの移動を監視し、記録するように構成される運動追跡装置を備える、請求項8に記載の媒介現実の外科用視覚化システム。
  10. 前記コンピューティングデバイスが、
    第3の画像データを受信し、
    前記第3の画像データを処理し、そして、
    前記第3の画像データから処理された第3の画像を前記第1のディスプレイ及び/または前記第2のディスプレイに提示するように更に構成される、請求項1に記載の媒介現実の外科用視覚化システム。
  11. 前記第3の画像データが、蛍光画像データ、磁気共鳴撮像データ、コンピュータ断層撮影画像データ、X線画像データ、解剖学図データ、及びバイタルサインデータのうちの少なくとも1つを含む、請求項10に記載の媒介現実の外科用視覚化システム。
  12. 前記処理された第3の画像が、前記立体画像と統合される、請求項10に記載の媒介現実の外科用視覚化システム。
  13. 前記処理された第3の画像が、前記立体画像の一部分の上にピクチャインピクチャとして提示される、請求項10に記載の媒介現実の外科用視覚化システム。
  14. 前記コンピューティングデバイスが、
    第2のヘッドマウントディスプレイアセンブリに前記立体画像を提示するように更に構成される、請求項1に記載の媒介現実の外科用視覚化システム。
  15. 媒介現実の視覚化システムであって、
    ヘッドマウントディスプレイアセンブリであって、
    ユーザの頭部に着用されるように構成されるフレームと、
    前記フレームに連結される画像取り込みデバイスと、
    前記フレームに連結される表示デバイスであって、前記ユーザの眼に向かって画像を表示するように構成される、表示デバイスと、を備える、ヘッドマウントディスプレイと、
    前記表示デバイス及び前記画像取り込みデバイスと通信しているコンピューティングデバイスであって、
    前記画像取り込みデバイスから画像データを受信し、そして、
    前記表示デバイスを介して前記画像データから画像を提示するように構成される、コンピューティングデバイスと、を備える、媒介現実の視覚化システム。
  16. 前記画像取り込みデバイスが、第1の撮像装置及び第2の撮像装置を有する画像取り込みデバイスを備える、請求項15に記載の媒介現実の視覚化システム。
  17. 前記表示デバイスが、第1のディスプレイ及び第2のディスプレイを有する立体表示デバイスを備える、請求項15に記載の媒介現実の視覚化システム。
  18. 前記コンピューティングデバイスが、リアルタイムで前記画像を提示するように構成される、請求項15に記載の媒介現実の視覚化システム。
  19. 前記フレームが、前記ユーザの頭部に着用され、前記画像取り込みデバイスが、前記ユーザから離れて面している、請求項15に記載の媒介現実の視覚化システム。
  20. 前記画像取り込みデバイスが、少なくとも1つのプレノプティックカメラを備える、請求項15に記載の媒介現実の視覚化システム。
  21. 前記コンピューティングデバイスが、
    前記プレノプティックカメラから受信する画像データを処理し、
    前記画像データから少なくとも1つの仮想カメラをレンダリングし、そして、
    前記表示デバイスを介して前記仮想カメラに対応する画像を提示するように更に構成される、請求項20に記載の媒介現実の視覚化システム。
  22. 前記コンピューティングデバイスが、前記フレームをユーザが着用したときに、前記ユーザの眼の位置に対応する場所に前記少なくとも1つの仮想カメラをレンダリングするように構成される、請求項21に記載の媒介現実の視覚化システム。
  23. 前記少なくとも1つの仮想カメラをレンダリングすることが、取り込まれた光照射野の拡大ビューをレンダリングすることを含む、請求項21に記載の媒介現実の視覚化システム。
  24. 前記表示デバイスが、第1及び第2のディスプレイを備える、請求項21に記載の媒介現実の視覚化システム。
  25. 前記表示デバイスが、第1のディスプレイ及び第2のディスプレイを有する立体表示デバイスを備え、
    前記画像取り込みデバイスが、少なくとも1つのプレノプティックカメラを備え、
    前記コンピューティングデバイスが、
    前記少なくとも1つのプレノプティックカメラから受信される画像データを処理し、
    前記画像データから第1の仮想カメラをレンダリングし、
    前記画像データから第2の仮想カメラをレンダリングし、
    前記第1のディスプレイを介して、前記第1の仮想カメラに対応する画像を提示し、そして、
    前記第2のディスプレイを介して、前記第2の仮想カメラに対応する画像を提示するように更に構成される、請求項15に記載の媒介現実の視覚化システム。
  26. 前記ヘッドマウントディスプレイアセンブリが、不透明である、請求項15に記載の媒介現実の視覚化システム。
  27. 前記ヘッドマウントディスプレイアセンブリが、透明または半透明である、請求項15に記載の媒介現実の視覚化システム。
  28. 媒介現実の外科用視覚化を提供するための方法であって、
    ユーザの頭部に載置するように構成されるフレームと、前記フレームに連結される第1及び第2の撮像装置と、前記フレームに連結される第1及び第2のディスプレイとを備えるヘッドマウントディスプレイを提供することと、
    前記第1の撮像装置から第1の画像データを受信することと、
    前記第2の撮像装置から第2の画像データを受信することと、
    前記第1の画像データ及び前記第2の画像データを処理することと、
    前記第1の処理された画像データを前記第1のディスプレイに表示することと、
    前記第2の処理された画像データを前記第2のディスプレイに表示することと、を含む、媒介現実の外科用視覚化を提供するための方法。
  29. 前記第1及び第2の処理された画像データが、前記第1及び第2のディスプレイにリアルタイムで示される、請求項28に記載の方法。
  30. 第3の画像データを受信することと、
    前記第3の画像データを処理することと、
    前記処理された第3の画像データを前記第1のディスプレイ及び/または第2のディスプレイに表示することと、を更に含む、請求項28に記載の方法。
  31. 前記第3の画像データが、蛍光画像データ、磁気共鳴撮像データ、コンピュータ断層撮影画像データ、X線画像データ、解剖学図データ、及びバイタルサインデータのうちの少なくとも1つを含む、請求項30に記載の方法。
  32. 前記第3の画像データが、前記ヘッドマウントディスプレイから離間される第3の撮像装置から受信される、請求項30に記載の方法。
  33. 前記ヘッドマウントディスプレイの移動を追跡することを更に含む、請求項28に記載の方法。
  34. 前記ヘッドマウントディスプレイの移動を追跡することが、前記ヘッドマウントディスプレイに連結される基準マーカーの移動を追跡することを含む、請求項33に記載の方法。
  35. 前記ヘッドマウントディスプレイから離れた第2の表示デバイスを提供することであって、前記第2の表示デバイスが、第3の及び更なるディスプレイを備える、提供することと、
    前記第1の処理された画像データを前記第3のディスプレイに表示することと、
    前記第2の処理された画像データを前記第4のディスプレイに表示することと、を更に含む、請求項28に記載の方法。
  36. 第1及び第2の撮像装置が、少なくとも1つのプレノプティックカメラを備える、請求項28に記載の方法。
  37. 前記プレノプティックカメラから受信される画像データを処理することと、
    前記画像データから少なくとも1つの仮想カメラをレンダリングすることと、
    前記第1のディスプレイを介して、前記仮想カメラに対応する画像を提示することと、を更に含む、請求項28に記載の方法。
  38. 前記少なくとも1つの仮想カメラをレンダリングすることが、前記ディスプレイがユーザの頭部に載置されたときに、前記ユーザの眼の位置に対応する場所に前記少なくとも1つの仮想カメラをレンダリングすることを含む、請求項37に記載の方法。
  39. 前記少なくとも1つの仮想カメラをレンダリングすることが、取り込まれた光照射野の一部分の拡大ビューをレンダリングすることを含む、請求項37に記載の方法。
JP2016568921A 2014-05-20 2015-05-19 媒介現実の外科用視覚化のためのシステム及び方法 Pending JP2017524281A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201462000900P 2014-05-20 2014-05-20
US62/000,900 2014-05-20
PCT/US2015/031637 WO2015179446A1 (en) 2014-05-20 2015-05-19 Systems and methods for mediated-reality surgical visualization

Publications (1)

Publication Number Publication Date
JP2017524281A true JP2017524281A (ja) 2017-08-24

Family

ID=54554655

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016568921A Pending JP2017524281A (ja) 2014-05-20 2015-05-19 媒介現実の外科用視覚化のためのシステム及び方法

Country Status (5)

Country Link
US (3) US20170099479A1 (ja)
EP (1) EP3146715B1 (ja)
JP (1) JP2017524281A (ja)
CA (1) CA2949241A1 (ja)
WO (1) WO2015179446A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190115483A (ko) * 2018-03-12 2019-10-14 한국기계연구원 증강현실을 이용한 착용형 로봇 제어시스템 및 이를 이용한 착용형 로봇 제어방법
JP2020016869A (ja) * 2018-07-27 2020-01-30 伸也 佐藤 デジタル式望遠メガネ
US11977228B2 (en) 2020-01-28 2024-05-07 Canon Kabushiki Kaisha Image display apparatus
US12136176B2 (en) 2019-11-05 2024-11-05 Arspectra Sarl Augmented reality headset for medical imaging

Families Citing this family (99)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008017051A2 (en) 2006-08-02 2008-02-07 Inneroptic Technology Inc. System and method of providing real-time dynamic imagery of a medical procedure site using multiple modalities
US8641621B2 (en) 2009-02-17 2014-02-04 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures
US11464578B2 (en) 2009-02-17 2022-10-11 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures
US8690776B2 (en) 2009-02-17 2014-04-08 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image guided surgery
US10064552B1 (en) * 2009-06-04 2018-09-04 Masoud Vaziri Method and apparatus for a compact and high resolution mind-view communicator
US11450113B1 (en) 2009-06-04 2022-09-20 Masoud Vaziri Method and apparatus for a wearable computer
CN105992996B (zh) 2014-04-04 2019-11-26 外科手术室公司 外科手术环境中的动态和交互式导航
JP6574939B2 (ja) * 2014-09-16 2019-09-18 ソニー株式会社 表示制御装置、表示制御方法、表示制御システムおよび頭部装着ディスプレイ
US9901406B2 (en) 2014-10-02 2018-02-27 Inneroptic Technology, Inc. Affected region display associated with a medical device
US10188467B2 (en) 2014-12-12 2019-01-29 Inneroptic Technology, Inc. Surgical guidance intersection display
US10013808B2 (en) 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
US10473942B2 (en) * 2015-06-05 2019-11-12 Marc Lemchen Apparatus and method for image capture of medical or dental images using a head mounted camera and computer system
DE102015219859B4 (de) * 2015-10-13 2017-07-27 Carl Zeiss Vision International Gmbh Vorrichtung und Verfahren für die AR-Darstellung
EP3361979A4 (en) * 2015-10-14 2019-06-26 Surgical Theater LLC SURGICAL NAVIGATION WITH EXTENDED REALITY
EP3165153A1 (en) * 2015-11-05 2017-05-10 Deutsches Krebsforschungszentrum Stiftung des Öffentlichen Rechts System for fluorescence aided surgery
US9675319B1 (en) 2016-02-17 2017-06-13 Inneroptic Technology, Inc. Loupe display
US10278778B2 (en) 2016-10-27 2019-05-07 Inneroptic Technology, Inc. Medical device navigation using a virtual 3D space
CN110192390A (zh) * 2016-11-24 2019-08-30 华盛顿大学 头戴式显示器的光场捕获和渲染
US10806334B2 (en) * 2017-02-28 2020-10-20 Verily Life Sciences Llc System and method for multiclass classification of images using a programmable light source
US11589927B2 (en) 2017-05-05 2023-02-28 Stryker European Operations Limited Surgical navigation system and method
US10973391B1 (en) 2017-05-22 2021-04-13 James X. Liu Mixed reality viewing of a surgical procedure
CA3006939A1 (en) * 2017-06-01 2018-12-01 Monroe Solutions Group Inc. Systems and methods for establishing telepresence of a remote user
US10877262B1 (en) * 2017-06-21 2020-12-29 Itzhak Luxembourg Magnification glasses with multiple cameras
WO2019014205A1 (en) 2017-07-10 2019-01-17 University Of Kentucky Research Foundation PEROPERATIVE FLUORESCENCE IMAGING DEVICE BASED ON MAGNIFIER FOR GUIDING A TUMOR RESECTION
US11259879B2 (en) 2017-08-01 2022-03-01 Inneroptic Technology, Inc. Selective transparency to assist medical device navigation
US10564111B2 (en) * 2017-08-23 2020-02-18 The Boeing Company Borescope for generating an image with adjustable depth of field and associated inspection system and method
US10987016B2 (en) * 2017-08-23 2021-04-27 The Boeing Company Visualization system for deep brain stimulation
US10861236B2 (en) 2017-09-08 2020-12-08 Surgical Theater, Inc. Dual mode augmented reality surgical system and method
WO2019060298A1 (en) 2017-09-19 2019-03-28 Neuroenhancement Lab, LLC METHOD AND APPARATUS FOR NEURO-ACTIVATION
US10930709B2 (en) 2017-10-03 2021-02-23 Lockheed Martin Corporation Stacked transparent pixel structures for image sensors
US11310481B2 (en) * 2017-10-26 2022-04-19 Sony Corporation Imaging device, system, method and program for converting a first image into a plurality of second images
US10510812B2 (en) 2017-11-09 2019-12-17 Lockheed Martin Corporation Display-integrated infrared emitter and sensor structures
US10772488B2 (en) 2017-11-10 2020-09-15 Endoluxe Inc. System and methods for endoscopic imaging
CN107811706B (zh) * 2017-11-27 2019-02-26 东北大学 一种基于传像光纤的手术导航系统
US11717686B2 (en) 2017-12-04 2023-08-08 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement to facilitate learning and performance
JP6369706B1 (ja) * 2017-12-27 2018-08-08 株式会社Medi Plus 医療動画処理システム
EP3731749A4 (en) 2017-12-31 2022-07-27 Neuroenhancement Lab, LLC NEURO-ACTIVATION SYSTEM AND METHOD FOR ENHANCING EMOTIONAL RESPONSE
US11484365B2 (en) 2018-01-23 2022-11-01 Inneroptic Technology, Inc. Medical image guidance
US11616941B2 (en) 2018-02-07 2023-03-28 Lockheed Martin Corporation Direct camera-to-display system
US10979699B2 (en) 2018-02-07 2021-04-13 Lockheed Martin Corporation Plenoptic cellular imaging system
US10838250B2 (en) 2018-02-07 2020-11-17 Lockheed Martin Corporation Display assemblies with electronically emulated transparency
US10951883B2 (en) 2018-02-07 2021-03-16 Lockheed Martin Corporation Distributed multi-screen array for high density display
US10652529B2 (en) 2018-02-07 2020-05-12 Lockheed Martin Corporation In-layer Signal processing
US10594951B2 (en) 2018-02-07 2020-03-17 Lockheed Martin Corporation Distributed multi-aperture camera array
US10690910B2 (en) 2018-02-07 2020-06-23 Lockheed Martin Corporation Plenoptic cellular vision correction
US20190254753A1 (en) 2018-02-19 2019-08-22 Globus Medical, Inc. Augmented reality navigation systems for use with robotic surgical systems and methods of their use
US11364361B2 (en) 2018-04-20 2022-06-21 Neuroenhancement Lab, LLC System and method for inducing sleep by transplanting mental states
US11666411B2 (en) 2018-05-10 2023-06-06 Memorial Sloan Kettering Cancer Center Systems for augmented reality surgical and clinical visualization
US10667366B2 (en) * 2018-06-29 2020-05-26 Osram Sylvania Inc. Lighting devices with automatic lighting adjustment
US10895757B2 (en) * 2018-07-03 2021-01-19 Verb Surgical Inc. Systems and methods for three-dimensional visualization during robotic surgery
US20200015924A1 (en) 2018-07-16 2020-01-16 Ethicon Llc Robotic light projection tools
US11030724B2 (en) 2018-09-13 2021-06-08 Samsung Electronics Co., Ltd. Method and apparatus for restoring image
WO2020056418A1 (en) 2018-09-14 2020-03-19 Neuroenhancement Lab, LLC System and method of improving sleep
US10623660B1 (en) * 2018-09-27 2020-04-14 Eloupes, Inc. Camera array for a mediated-reality system
WO2020069420A2 (en) * 2018-09-28 2020-04-02 Ocelot Laboratories Llc Camera system
EP3870021B1 (en) * 2018-10-26 2022-05-25 Intuitive Surgical Operations, Inc. Mixed reality systems and methods for indicating an extent of a field of view of an imaging device
US10866413B2 (en) 2018-12-03 2020-12-15 Lockheed Martin Corporation Eccentric incident luminance pupil tracking
WO2020154448A1 (en) * 2019-01-23 2020-07-30 Eloupes, Inc. Aligning pre-operative scan images to real-time operative images for a mediated-reality view of a surgical site
US11857378B1 (en) * 2019-02-14 2024-01-02 Onpoint Medical, Inc. Systems for adjusting and tracking head mounted displays during surgery including with surgical helmets
US10698201B1 (en) 2019-04-02 2020-06-30 Lockheed Martin Corporation Plenoptic cellular axis redirection
US11786694B2 (en) 2019-05-24 2023-10-17 NeuroLight, Inc. Device, method, and app for facilitating sleep
US11029755B2 (en) 2019-08-30 2021-06-08 Shopify Inc. Using prediction information with light fields
US11430175B2 (en) 2019-08-30 2022-08-30 Shopify Inc. Virtual object areas using light fields
GB2588774B (en) * 2019-11-05 2024-05-15 Arspectra Sarl Augmented reality headset for medical imaging
US11992373B2 (en) 2019-12-10 2024-05-28 Globus Medical, Inc Augmented reality headset with varied opacity for navigated robotic surgery
EP4072426A1 (en) * 2019-12-13 2022-10-19 Smith&Nephew, Inc. Anatomical feature extraction and presentation using augmented reality
US11759283B2 (en) 2019-12-30 2023-09-19 Cilag Gmbh International Surgical systems for generating three dimensional constructs of anatomical organs and coupling identified anatomical structures thereto
US11776144B2 (en) 2019-12-30 2023-10-03 Cilag Gmbh International System and method for determining, adjusting, and managing resection margin about a subject tissue
US11896442B2 (en) 2019-12-30 2024-02-13 Cilag Gmbh International Surgical systems for proposing and corroborating organ portion removals
US12002571B2 (en) 2019-12-30 2024-06-04 Cilag Gmbh International Dynamic surgical visualization systems
US11744667B2 (en) 2019-12-30 2023-09-05 Cilag Gmbh International Adaptive visualization by a surgical system
US11832996B2 (en) 2019-12-30 2023-12-05 Cilag Gmbh International Analyzing surgical trends by a surgical system
US11284963B2 (en) 2019-12-30 2022-03-29 Cilag Gmbh International Method of using imaging devices in surgery
US12053223B2 (en) 2019-12-30 2024-08-06 Cilag Gmbh International Adaptive surgical system control according to surgical smoke particulate characteristics
EP3851896A1 (en) * 2020-01-20 2021-07-21 Leica Instruments (Singapore) Pte. Ltd. Apparatuses, methods and computer programs for controlling a microscope system
US11166006B2 (en) * 2020-01-22 2021-11-02 Photonic Medical Inc. Open view, multi-modal, calibrated digital loupe with depth sensing
US11464581B2 (en) 2020-01-28 2022-10-11 Globus Medical, Inc. Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums
US11382699B2 (en) 2020-02-10 2022-07-12 Globus Medical Inc. Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery
US11207150B2 (en) 2020-02-19 2021-12-28 Globus Medical, Inc. Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment
US11607277B2 (en) 2020-04-29 2023-03-21 Globus Medical, Inc. Registration of surgical tool with reference array tracked by cameras of an extended reality headset for assisted navigation during surgery
US11382700B2 (en) 2020-05-08 2022-07-12 Globus Medical Inc. Extended reality headset tool tracking and control
US11153555B1 (en) 2020-05-08 2021-10-19 Globus Medical Inc. Extended reality headset camera system for computer assisted navigation in surgery
US11510750B2 (en) 2020-05-08 2022-11-29 Globus Medical, Inc. Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications
US10949986B1 (en) 2020-05-12 2021-03-16 Proprio, Inc. Methods and systems for imaging a scene, such as a medical scene, and tracking objects within the scene
US11087557B1 (en) 2020-06-03 2021-08-10 Tovy Kamine Methods and systems for remote augmented reality communication for guided surgery
US11737831B2 (en) 2020-09-02 2023-08-29 Globus Medical Inc. Surgical object tracking template generation for computer assisted navigation during surgical procedure
US12034904B2 (en) 2020-09-23 2024-07-09 Proprio, Inc. Endoscopic imaging systems for generating three dimensional images, and associated systems and methods
US12023106B2 (en) * 2020-10-12 2024-07-02 Johnson & Johnson Surgical Vision, Inc. Virtual reality 3D eye-inspection by combining images from position-tracked optical visualization modalities
US12045957B2 (en) 2020-10-21 2024-07-23 Johnson & Johnson Surgical Vision, Inc. Visualizing an organ using multiple imaging modalities combined and displayed in virtual reality
FR3116135B1 (fr) * 2020-11-10 2023-12-08 Inst Mines Telecom Système de capture et du suivi du champ visuel attentionnel et/ou du pilotage du regard d’un individu et/ou la désignation visuelle de cibles.
DE102020214824A1 (de) * 2020-11-25 2022-05-25 Carl Zeiss Meditec Ag Verfahren zum Betreiben eines Visualisierungssystems bei einer chirurgischen Anwendung und Visualisierungssystem für eine chirurgische Anwendung
US11295460B1 (en) 2021-01-04 2022-04-05 Proprio, Inc. Methods and systems for registering preoperative image data to intraoperative image data of a scene, such as a surgical scene
CN112890744A (zh) * 2021-01-25 2021-06-04 汉斯夫(杭州)医学科技有限公司 头戴式放大镜面罩
CN114882976A (zh) * 2021-02-05 2022-08-09 中强光电股份有限公司 医疗用影像辅助系统及医疗用影像辅助方法
JP2022142763A (ja) * 2021-03-16 2022-09-30 ロレックス・ソシエテ・アノニム 時計職人用ルーペ
CN113520619A (zh) * 2021-08-26 2021-10-22 重庆市妇幼保健院 用于三维医疗影像系统与双目视觉系统配准的标记元件及其装配方法
US20230147711A1 (en) * 2021-11-08 2023-05-11 Proprio, Inc. Methods for generating stereoscopic views in multicamera systems, and associated devices and systems
US20230218146A1 (en) 2022-01-10 2023-07-13 Endoluxe Inc. Systems, apparatuses, and methods for endoscopy
US12003709B1 (en) * 2022-11-16 2024-06-04 International Business Machines Corporation Visual data transmission by an air-gapped system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002207832A (ja) * 2000-12-28 2002-07-26 Atsushi Takahashi インターネット技術指導教育配信システム、及び通信網を利用した指導システム
JP2004538538A (ja) * 2000-10-05 2004-12-24 シーメンス コーポレイト リサーチ インコーポレイテツド 強化現実可視化付きの、手術中にイメージガイドされる神経外科手術法及び手術用装置
WO2005093687A1 (ja) * 2004-03-26 2005-10-06 Atsushi Takahashi 三次元視覚指示機能を備えた三次元実体デジタル拡大鏡システム
JP2007528631A (ja) * 2004-02-20 2007-10-11 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド 3次元テレビシステム及び3次元テレビを提供する方法
JP2011248723A (ja) * 2010-05-28 2011-12-08 Sony Corp 画像処理装置および方法、並びにプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1027627B1 (en) * 1997-10-30 2009-02-11 MYVU Corporation Eyeglass interface system
AU5703400A (en) * 1999-07-13 2001-01-30 Surgivision Ltd. Stereoscopic video observation and image magnification system
US20040238732A1 (en) * 2001-10-19 2004-12-02 Andrei State Methods and systems for dynamic virtual convergence and head mountable display
AU2002222543A1 (en) * 2001-11-27 2003-06-10 Freni Brembo S.P.A. Duo-servo drum brake inside shoes adjusting device
US20070121423A1 (en) * 2001-12-20 2007-05-31 Daniel Rioux Head-mounted display apparatus for profiling system
US7411611B2 (en) * 2003-08-25 2008-08-12 Barco N. V. Device and method for performing multiple view imaging by means of a plurality of video processing devices
US7774044B2 (en) * 2004-02-17 2010-08-10 Siemens Medical Solutions Usa, Inc. System and method for augmented reality navigation in a medical intervention procedure
JP4717728B2 (ja) * 2005-08-29 2011-07-06 キヤノン株式会社 ステレオ表示装置及びその制御方法
US20070236514A1 (en) * 2006-03-29 2007-10-11 Bracco Imaging Spa Methods and Apparatuses for Stereoscopic Image Guided Surgical Navigation
KR20130112541A (ko) * 2012-04-04 2013-10-14 삼성전자주식회사 플레놉틱 카메라 장치
IL221863A (en) * 2012-09-10 2014-01-30 Elbit Systems Ltd Digital video photography system when analyzing and displaying
US10664903B1 (en) * 2017-04-27 2020-05-26 Amazon Technologies, Inc. Assessing clothing style and fit using 3D models of customers

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004538538A (ja) * 2000-10-05 2004-12-24 シーメンス コーポレイト リサーチ インコーポレイテツド 強化現実可視化付きの、手術中にイメージガイドされる神経外科手術法及び手術用装置
JP2002207832A (ja) * 2000-12-28 2002-07-26 Atsushi Takahashi インターネット技術指導教育配信システム、及び通信網を利用した指導システム
JP2007528631A (ja) * 2004-02-20 2007-10-11 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド 3次元テレビシステム及び3次元テレビを提供する方法
WO2005093687A1 (ja) * 2004-03-26 2005-10-06 Atsushi Takahashi 三次元視覚指示機能を備えた三次元実体デジタル拡大鏡システム
JP2011248723A (ja) * 2010-05-28 2011-12-08 Sony Corp 画像処理装置および方法、並びにプログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190115483A (ko) * 2018-03-12 2019-10-14 한국기계연구원 증강현실을 이용한 착용형 로봇 제어시스템 및 이를 이용한 착용형 로봇 제어방법
KR102046351B1 (ko) * 2018-03-12 2019-12-02 한국기계연구원 증강현실을 이용한 착용형 로봇 제어시스템 및 이를 이용한 착용형 로봇 제어방법
JP2020016869A (ja) * 2018-07-27 2020-01-30 伸也 佐藤 デジタル式望遠メガネ
US12136176B2 (en) 2019-11-05 2024-11-05 Arspectra Sarl Augmented reality headset for medical imaging
US11977228B2 (en) 2020-01-28 2024-05-07 Canon Kabushiki Kaisha Image display apparatus

Also Published As

Publication number Publication date
EP3146715A1 (en) 2017-03-29
US20170099479A1 (en) 2017-04-06
EP3146715A4 (en) 2018-01-10
WO2015179446A1 (en) 2015-11-26
EP3146715B1 (en) 2022-03-23
US20240080433A1 (en) 2024-03-07
US20200059640A1 (en) 2020-02-20
CA2949241A1 (en) 2015-11-26

Similar Documents

Publication Publication Date Title
US20240080433A1 (en) Systems and methods for mediated-reality surgical visualization
US20230122367A1 (en) Surgical visualization systems and displays
US20230255446A1 (en) Surgical visualization systems and displays
US11336804B2 (en) Stereoscopic visualization camera and integrated robotics platform
US20220054223A1 (en) Surgical visualization systems and displays
US20240000295A1 (en) Light field capture and rendering for head-mounted displays
EP2903551B1 (en) Digital system for surgical video capturing and display
US11154378B2 (en) Surgical visualization systems and displays
AU2024219905A1 (en) Stereoscopic visualization camera and integrated robotics platform
US20060176242A1 (en) Augmented reality device and method
JP2022514635A (ja) デュアル画像センサを有する内視鏡
US11094283B2 (en) Head-wearable presentation apparatus, method for operating the same, and medical-optical observation system
US11822089B2 (en) Head wearable virtual image module for superimposing virtual image on real-time image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180518

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190730

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20191024

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200324