JP2020516090A - ヘッドマウントディスプレイのための光照射野キャプチャおよびレンダリング - Google Patents

ヘッドマウントディスプレイのための光照射野キャプチャおよびレンダリング Download PDF

Info

Publication number
JP2020516090A
JP2020516090A JP2019528032A JP2019528032A JP2020516090A JP 2020516090 A JP2020516090 A JP 2020516090A JP 2019528032 A JP2019528032 A JP 2019528032A JP 2019528032 A JP2019528032 A JP 2019528032A JP 2020516090 A JP2020516090 A JP 2020516090A
Authority
JP
Japan
Prior art keywords
display
assembly
image
user
virtual camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019528032A
Other languages
English (en)
Other versions
JP7076447B2 (ja
Inventor
アール.スミス ジョシュア
アール.スミス ジョシュア
アール.ブラウド サミュエル
アール.ブラウド サミュエル
グリフィン ニコル ルフス
グリフィン ニコル ルフス
アンドリュー ヤングクイスト ジェームズ
アンドリュー ヤングクイスト ジェームズ
Original Assignee
ユニヴァーシティ オブ ワシントン
ユニヴァーシティ オブ ワシントン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ユニヴァーシティ オブ ワシントン, ユニヴァーシティ オブ ワシントン filed Critical ユニヴァーシティ オブ ワシントン
Publication of JP2020516090A publication Critical patent/JP2020516090A/ja
Application granted granted Critical
Publication of JP7076447B2 publication Critical patent/JP7076447B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00193Optical arrangements adapted for stereoscopic vision
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/00048Constructional features of the display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00071Insertion part of the endoscope body
    • A61B1/0008Insertion part of the endoscope body characterised by distal tip features
    • A61B1/00101Insertion part of the endoscope body characterised by distal tip features the distal tip features being detachable
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00174Optical arrangements characterised by the viewing angles
    • A61B1/00181Optical arrangements characterised by the viewing angles for multiple fixed viewing angles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00194Optical arrangements adapted for three-dimensional imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/957Light-field or plenoptic cameras or camera modules
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00216Electrical control of surgical instruments with eye tracking or head position tracking control
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2063Acoustic tracking systems, e.g. using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/372Details of monitor hardware
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing

Abstract

ヘッドマウントディスプレイのために光照射野をキャプチャしレンダリングするためのシステムおよび方法が開示される。媒介現実視覚化システムは、ユーザの頭部に取り付けられるように構成されたフレームと、フレームに結合されたディスプレイデバイスとを備えるヘッドマウントディスプレイアセンブリを含む。ヘッドマウントディスプレイアセンブリとは別個でそれから離間されたイメージングアセンブリは、光照射野データをキャプチャするように構成される。イメージングアセンブリおよびディスプレイデバイスと通信しているコンピューティングデバイスは、イメージングアセンブリから光照射野データを受信し、1つまたは複数の仮想カメラをレンダリングするように構成される。1つまたは複数の仮想カメラからの画像は、ディスプレイデバイスを介してユーザに提示される。

Description

本技術は、一般に、ヘッドマウントディスプレイのために光照射野をキャプチャしレンダリングすることに関する。詳細には、いくつかの実施形態は、拡張された媒介現実視覚化を提供するためのカメラのアレイおよび関連するヘッドマウントディスプレイなどの光照射野キャプチャシステムを対象とする。
従来のルーペ(たとえば、外科ルーペ)はいくつかの欠点がある。たとえば、従来のルーペは、ユーザの矯正視力要件および瞳孔間距離に基づいて、個人ごとにカスタマイズされ、したがって、ユーザ間で共有されることが不可能である。従来のルーペはまた、単一のレベル倍率に制限され、ユーザは、自身の行為のすべてをその倍率レベルに適応させることを強制されるか、または行為を実施するためにルーペの「外側」を変則的な角度で頻繁に見ることを強制され、ここでは、拡大は役に立たないかまたは不利益でさえある。従来のルーペは、極めて浅い被写界深度内でのみシャープな画像を供給し、その一方で、比較的狭い視野をも提供する。ブラインドスポットは、従来の外科ルーペのかさばる構成に起因する別の問題である。
国際公開第2015/179446号パンフレット
1つの解決策は、2つのカメラから取得された生ビデオをヘッドマウントディスプレイ(HMD)にストリーミングすることを伴う。しかしながら、画像キャプチャと画像表示が密接に結合されるので、HMDを介して表示されることが可能な画像データにはいくつかの制約がある。したがって、ヘッドマウントディスプレイを介して立体視画像データをキャプチャしユーザにレンダリングするための改善されたシステムおよび方法が必要である。
本技術は、拡張された媒介現実視覚化のために光照射野をキャプチャしレンダリングするためのシステムおよび方法を対象とする。一実施形態では、たとえば、ユーザから離間された光照射野キャプチャデバイスが、画像データを取得し、次いで、その画像データは処理され、ヘッドマウントディスプレイを介してユーザに立体的に提示される。本明細書で使用されるとき、「媒介現実」という用語は、ウェアラブルディスプレイの使用によって現実の知覚を増すか、減じるか、またはさもなければ操作する能力を指す。「媒介現実」ディスプレイは、少なくとも「仮想現実」タイプディスプレイならびに「拡張現実」タイプディスプレイを含む。
上部、下部、前、後、上方、下方、上、下、直立、上向き、下向きなどのような相対方向性文言の使用は、相対的であり、地球の表面に関して定義された絶対方向または配向に制限されない。
本技術の一実施形態に従って構成されたイメージングアセンブリの斜視図である。 本技術の一実施形態に従って構成されたヘッドマウントディスプレイアセンブリの前面斜視図である。 本技術の一実施形態に従って構成されたヘッドマウントディスプレイアセンブリの後面斜視図である。 本技術の一実施形態に従って構成された媒介現実視覚化システムの概略図である。 外科的手技の間の使用中の媒介現実視覚化システムの図である。 本技術の一実施形態による媒介現実視覚化を提供するために光照射野をキャプチャしレンダリングするための方法のブロック図である。 2つの実カメラからのデータを使用して仮想カメラをレンダリングする概略図である。
本技術のいくつかの実施形態の特定の詳細について、図1〜図6を参照しながら以下で説明される。本実施形態の多くについて、以下では、拡張された媒介現実視覚化を提供するために光照射野をキャプチャしレンダリングするためのデバイス、システム、および方法に関して説明されるが、他の実施形態は本技術の範囲内である。加えて、本技術の他の実施形態は、本明細書で説明されるものとは異なる構成、構成要素、および/または手順を有することができる。たとえば、他の実施形態は、本明細書で説明されるもの以外の追加の要素および特徴を含むことができるか、または他の実施形態は、本明細書で図示および説明される要素および特徴のいくつかを含まないことがある。本技術のいくつかの実施形態は、その全体が参照により本明細書に組み込まれる、「Systems and Methods for Mediated−Reality Surgical Visualization」と題する、特許文献1において開示された技術の態様と組み合わされることが可能であるかまたはそれを組み込むことができる。
参照しやすいように、本開示全体にわたって、同様または類似の構成要素または特徴を識別するために同一の参照番号が使用されるが、同じ参照番号の使用は、それらの部分が同一であるべきことを暗示しない。実際、本明細書で説明される多くの例では、同一の番号を付された部分は、構造および/または機能が別個である。
媒介現実視覚化システムの選ばれた実施形態
図1は、イメージングアセンブリ100の斜視図である。イメージングアセンブリ100は、フレーム103に取り付けられた複数のイメージングデバイス101a〜j(まとめて「イメージングデバイス101」)を含む。使用中に、イメージングアセンブリ100は、注目する対象(たとえば、拡大またはさもなければ拡張視覚化を必要とする手術部位、加工物、または他のエリア)の近くに位置決めされ得る。イメージングアセンブリ100は、フレーム103の一部として取付けアーマチュアを含むことができ、これらの取付けアーマチュアは、いくつかの実施形態では、個々のイメージングデバイス101の間隔および配向を変更するための機構を含み得る。イメージングアセンブリ100はまた、測光キャプチャおよび処理を可能にするために選択的にアクティブにされることが可能である複数の光源104a〜f(まとめて「光源104」)を含む。イメージングアセンブリ100はまた、マルチビューステレオおよび関係する技法を使用して、シーンのジオメトリを推定するのを支援するためにテクスチャパターンを投影することができる少なくとも1つのプロジェクタ107を含む。イメージングアセンブリ100は、正確な位置決めおよび制御のために複数のジョイント、モーター、およびエンコーダとともに関節アーム(図示せず)上に取り付けられ得る。シーンのジオメトリを検出することによって、イメージングアセンブリ100は、イメージングアセンブリ100と表面に沿った様々な点との間の距離が表面位相により変動する場合でも、イメージングされている表面全体の焦点が合っているように非平面焦点面をレンダリングするために使用されることが可能である。
以下でより詳細に説明されるように、イメージングアセンブリ100によって収集された情報は、ヘッドマウントディスプレイアセンブリ200(図2Aおよび図2B)において表示されることが可能であり、イメージングアセンブリ100のいくつかの特徴および方法は、このヘッドマウントディスプレイ適用例のためにカスタマイズされ得る。たとえば、いくつかの実施形態では、いくつかの技法は、個々のイメージングデバイス101を選択的に読み取ること、またはイメージングデバイス101の各々内のピクセルを選択的に読み取ることを含めて、システムのデータ通信要件を低減するために使用されることが可能である。
個々のイメージングデバイス101は、たとえば、CCDまたはCMOSイメージセンサーおよび関連する光学素子などのデジタルビデオカメラであることが可能である。イメージングデバイス101は、フレーム103に取り付けられ、イメージングデバイス101が共通点のほうへ向けられそれに焦点を合わされた半球状アレイに配置される。しかしながら、他の実施形態では、イメージングデバイス101は、異なる構成で配置されること、たとえば、デバイスが焦点のほうへ収束しないか、または互いに発散さえする、平面アレイに配置されることが可能である。
複数の光源105は、フレーム103の周りに配設され、イメージングアセンブリ100の視野を照明するように構成される。光源105は、たとえば、LED、蛍光ランプ、または任意の他の好適な照明源であることが可能である。以下でより詳細に説明されるように、光源105は、測光幾何学推定および鏡面度分析のために使用されることが可能である。
プロジェクタ107はまた、フレーム103に取り付けられ、イメージングアセンブリ100の視野に画像を投影するように構成されることが可能である。一実施形態では、プロジェクタ107は、1280×800の解像度をもつ標準の市販されているプロジェクタである。他の実施形態では、プロジェクタ107は、所望の解像度でイメージングアセンブリ100の視野に画像を投影することが可能な任意の好適なデバイスであることが可能である。以下でより詳細に説明されるように、プロジェクタ107は、シーンジオメトリ情報を捕捉するために使用されることが可能である。いくつかの実施形態では、プロジェクタ107は、固定テクスチャパターンを投影するように構成された1つまたは複数の光源およびマスク光学素子と交換されることが可能であり、固定テクスチャパターンは、プロジェクタ107によって提供される完全に動的なパターンよりも少ないコストがかかることがある。
10個のイメージングデバイス101が示されているが、使用されるデバイスの数は広範囲に変化することができる。いくつかの実施形態では、イメージングデバイス101のアレイの代わりに単一のプレノプティックカメラが使用されることが可能である。たとえば、イメージングアセンブリ100は、画像センサーと主レンズとの間にレンズレットアレイをもつ単一の画像センサーを含むことができる。このレンズレットアレイは光照射野のキャプチャを可能にし、それから、異なる焦点面および異なる視点(パララックス)をもつ画像が計算されることが可能である。光照射野パララックス調整技法を使用して、様々なカメラ間の画像視点の差が補償されることが可能であり、それにより、ズームレベルが変化するとき、視点は変化しない。イメージングデバイス101は、それらが生成する高い帯域幅のデータをサポートするためにUSB3または他のそのようなコネクタフォーマットを介して接続されることが可能である。1つの特定の実施形態では、各イメージングデバイス101は、最高30フレーム毎秒で、964×964ピクセルで画像をキャプチャするように構成される。
以下でより詳細に説明されるように、イメージングアセンブリ100からキャプチャされた光照射野データは、たとえばヘッドマウントディスプレイを介して、ユーザに立体的にレンダリングされることが可能である。いくつかの実施形態では、イメージングアセンブリ100からキャプチャされたデータは、2つの「仮想カメラ」をレンダリングするために使用され、1つの仮想カメラがユーザの各眼に位置決めされる。これらの仮想カメラは、ユーザの観点から、ユーザがまったくディスプレイデバイスを着用していないように、ヘッドマウントディスプレイアセンブリの追跡に基づいてユーザのポーズに従って位置決めされることが可能である。
イメージングデバイス101のアレイは、イメージングアセンブリ100がプレノプティックカメラとして機能することができるように、光照射野データのキャプチャを可能にする。イメージングアセンブリ100を介して光照射野データをキャプチャし、キャプチャされた光照射野を処理することは、従来のカメラを介した直接ビデオまたは画像キャプチャのストリーミングに勝るいくつかの利益を提供することが予想される。たとえば、光照射野レンダリングは、複数の焦点面(非平面焦点表面さえも)、合成開口、および部分的遮蔽(obscuration)を「通して見ること」など、物理的カメラを用いて不可能な視覚的効果を可能にする。および、物理的カメラについて不可能ではないが、光照射野レンダリングは、射影幾何学におけるスケール曖昧性を利用する、仮想瞳孔間距離とシーンからの仮想カメラの距離を同時に変化させることによってユーザを見かけ上縮小または増大することなど、他の有用な効果を容易に可能にする。ズーム機能が実装されることが可能であるのは、動的スケール変更を通してである。しかしながら、ただ画像を拡大する代わりに、この効果は、同じシーンを見てまわるが、より近いバンテージポイントで見てまわる能力を用いて、ユーザが実際に縮小している(または世界がより大きく増大している)かのようになることが可能である。
図2Aおよび図2Bは、それぞれ、ヘッドマウントディスプレイアセンブリ200の前面斜視図および後面斜視図である。ディスプレイアセンブリ200は、前方表面205と、前方表面205の反対の後方表面207とを有するフレーム203を備える。ディスプレイデバイス209は、後方表面207にわたって、後方表面207から離れて外側に配設される。ディスプレイアセンブリ200は、概して、ユーザの頭部(図示せず)にわたって着用され、特にディスプレイデバイス209がユーザの眼のほうへ画像を表示するようにユーザの眼にわたって着用されるように構成される。
図示の実施形態では、フレーム203は、標準のアイウェアと概して同様に形成され、眼窩はブリッジによって接合され、テンプルアームは、着用者の耳に係合するために後方に延びる。しかしながら、他の実施形態では、フレーム203は他の形態をとることができ、たとえば、着用者の頭部にディスプレイアセンブリ200を取り付けるために、ストラップがテンプルアームと交換されることが可能であるか、または、いくつかの実施形態では、部分的ヘルメットが使用されることが可能である。
フレーム203は、右眼部分204aおよび左眼部分204bを含む。ユーザによって着用されたとき、右眼部分204aは、概してユーザの右眼にわたって位置決めされるように構成されるが、左眼部分204bは、概してユーザの左眼にわたって位置決めされるように構成される。ディスプレイアセンブリ200は、ディスプレイアセンブリ200を着用しているユーザがフレーム203を通して見ることができないように、概して不透明であることが可能である。しかしながら、他の実施形態では、ディスプレイアセンブリ200は、ユーザがディスプレイアセンブリ200を着用しながらフレーム203を通して見ることができるように、透明または半透明であることが可能である。ディスプレイアセンブリ200は、ユーザの標準のめがねにわたって着用されるように構成されることが可能である。ディスプレイアセンブリ200は、たとえば、外科手術室において眼の保護のためのOSHA規定を満たすために強化ガラスまたは他の十分に丈夫な材料を含むことができる。
ディスプレイアセンブリ200は、それぞれ、第1および第2の制御電子回路215a〜bを含むことができる。制御電子回路215a〜bは、図3に関して以下でより詳細に説明されるように、イメージングアセンブリ100などの他の構成要素とのネットワークを介した有線または無線通信を提供するように構成されることが可能である。図示の実施形態では、制御電子回路215a〜bはフレーム203に結合される。しかしながら、いくつかの実施形態では、制御電子回路215a〜bはイメージングアセンブリ100に結合され、ディスプレイアセンブリ200とワイヤレス通信する。他の実施形態では、制御電子回路215a〜bは、単一の構成要素またはチップに組み込まれることが可能であり、いくつかの実施形態では、制御電子回路215a〜bは、フレーム203に物理的に取り付けられていない。制御電子回路215a〜bは、イメージングアセンブリ100から出力されたデータを受信するように構成されることが可能であり、また、イメージングアセンブリ100の動作を制御する(たとえば、イメージングを開始する、物理的ズームを制御する、オートフォーカスする、および/または組み込まれた照明源を動作させる)ように構成されることが可能である。いくつかの実施形態では、制御電子回路215a〜bは、イメージングアセンブリ100から出力されたデータを処理する、たとえば、デジタルズームを提供する、オートフォーカスする、および飽和度、輝度などの画像パラメータを調整するように構成されることが可能である。他の実施形態では、画像処理は外部デバイス上で実施され、有線または無線通信リンクを介して制御電子回路215a〜bに通信されることが可能である。以下でより詳細に説明されるように、イメージングアセンブリ100からの出力は、既存の画像(たとえば、X線画像、透視法、MRIまたはCTスキャン、解剖図データなど)、同時にキャプチャされている他の画像(たとえば、内視鏡によってキャプチャされているか、または手術部位の周りで処置された他の画像)、患者のバイタルデータなど、追加のデータを組み込むように処理されることが可能である。加えて、さらなる操作が、視野内の領域の選択的拡大を可能にすることができる。
フレーム203の前方表面205にわたって基準マーカー217が配設されることが可能である。基準マーカー217は、ディスプレイアセンブリ200の動き追跡のために使用されることが可能である。いくつかの実施形態では、たとえば、基準マーカー217は、赤外光カメラシステムによって検出される1つまたは複数の赤外光源であることが可能である。他の実施形態では、基準マーカー217は、磁気もしくは電磁プローブ、反射要素、または空間中でディスプレイアセンブリ200の位置を追跡するために使用されることが可能である任意の他の構成要素であることが可能である。基準マーカー217は、ディスプレイアセンブリ200の移動および配向を追跡するために内蔵コンパスおよび/または加速度計を含むかまたはそれらに結合されることが可能である。
フレーム203の後方表面207上に、ディスプレイデバイス209が配設され、後方に面する。図2Bにおいて最も良くわかるように、ディスプレイデバイス209は、第1および第2のディスプレイ219a〜bを含む。ディスプレイ219a〜bは、たとえば、LCDスクリーン、ホログラフィックディスプレイ、プラズマスクリーン、プロジェクションディスプレイ、またはヘッドアップディスプレイ環境において使用されることが可能である比較的薄いフォームファクタを有する任意の他の種類のディスプレイを含むことができる。第1のディスプレイ219aはフレーム203の右眼部分204a内に配設されるが、第2のディスプレイ219bはフレーム203の左眼部分204b内に配設される。ディスプレイアセンブリ200がユーザによって着用されたとき、第1および第2のディスプレイ219a〜bがそれぞれユーザによってユーザの右眼および左眼で閲覧可能であるように、第1および第2のディスプレイ219a〜bは後方に配向される。各眼について別個のディスプレイを使用することは、立体視ディスプレイを可能にする。立体視ディスプレイは、わずかに異なる2次元画像を左眼および右眼に別々に提示することを伴う。2つの画像間のオフセットのために、ユーザは3次元深度を知覚する。
第1および第2のディスプレイ219a〜bは、それぞれ、第1および第2の制御電子回路215a〜bに電気的に結合されることが可能である。制御電子回路215a〜bは、ディスプレイ219a〜bへの入力を提供し、それらの動作を制御するように構成されることが可能である。制御電子回路215a〜bは、ディスプレイ219a〜bへのディスプレイ入力、たとえば、イメージングアセンブリ100から取得された処理済み画像データを提供するように構成されることが可能である。たとえば、一実施形態では、イメージングアセンブリ100からの画像データは、第1の制御電子回路215aを介して第1のディスプレイ219aに通信され、同様に、イメージングアセンブリ100からの画像データは、第2の制御電子回路215bを介して第2のディスプレイ219bに通信される。イメージングアセンブリ100およびディスプレイ219a〜bの位置および構成に応じて、ユーザは、ディスプレイアセンブリ200を着用することなしに、ユーザが見るはずの観点を模倣する立体視画像を提示されることが可能である。いくつかの実施形態では、イメージングアセンブリ100から取得された画像データは、処理され、たとえば、ユーザがディスプレイ219a〜bを介してズームされたビューを提示されるように、デジタル的にズームされることが可能である。
第1および第2のアイトラッカー221a〜bは、第1および第2のディスプレイ219a〜bに隣接する、フレーム203の後方表面にわたって配設される。第1のアイトラッカー221aは、フレーム203の右眼部分204a内に位置決めされることが可能であり、ユーザがディスプレイアセンブリ200を着用している間、ユーザの右眼の移動を追跡するように配向および構成されることが可能である。同様に、第2のアイトラッカー221bは、フレーム203の左眼部分204b内に位置決めされることが可能であり、ユーザがディスプレイアセンブリ200を着用している間、ユーザの左眼の移動を追跡するように配向および構成されることが可能である。第1および第2のアイトラッカー221a〜bは、ユーザの眼の移動を判定するように構成されることが可能であり、制御電子回路215a〜bと電子的に通信することができる。いくつかの実施形態では、ユーザの眼の移動は、制御電子回路215a〜bへの入力制御を提供するために使用されることが可能である。たとえば、ディスプレイ219a〜bを介してユーザに表示される画像の一部分にわたって視覚的メニューがオーバーレイされることが可能である。ユーザは、自身の眼の焦点をメニューからの項目の上に合わせることによって、その項目の選択を示すことができる。アイトラッカー221a〜bは、ユーザが焦点を合わせている項目を判定することができ、項目選択のこの指示を制御電子回路215a〜bに提供することができる。たとえば、この特徴は、ユーザが、特定の画像に適用されるズームのレベルを制御することを可能にする。いくつかの実施形態では、マイクロフォンまたは物理的ボタンがディスプレイアセンブリ200上に存在することができ、話されたコマンドまたはボタンとの物理的接触のいずれかを介してユーザ入力を受信することができる。他の実施形態では、イメージングアセンブリ100を介したジェスチャー認識、アシスタントコントロールなど、他の形態の入力が使用されることが可能である。
本明細書で説明される技術は内視鏡システムに適用され得る。たとえば、(異なる視野またはビュー/倍率の組合せをもつ)複数のカメラをイメージングアセンブリ100上に取り付けるのではなく、複数のカメラは内視鏡の先端に取り付けられ得る。代替として、単一の主レンズにレンズレットアレイを加えたものが内視鏡の先端に取り付けられ得る。次いで、再焦点合わせ、2つの異なる観点からのステレオ画像をレンダリングすること、またはズーミングなどの光照射野レンダリング技法が適用され得る。そのような場合、収集された画像は、ウェアラブルヘッドマウントディスプレイアセンブリ200を通して表示され得る。
図3は、本技術の一実施形態に従って構成された媒介現実視覚化システムの概略図である。本システムは、たとえば、公衆インターネット、イントラネットなどのプライベートネットワーク、または他のネットワークであることが可能である、通信リンク301を介して互いに通信しているいくつかの構成要素を含む。各構成要素と通信リンク301との間の接続は、無線(たとえば、WiFi、Bluetooth、NFC、GSM、CDMA、3G、もしくは4Gなどのセルラー通信など)または有線(たとえば、イーサネット、FireWireケーブル、USBケーブルなど)であることが可能である。ヘッドマウントディスプレイアセンブリ200およびイメージングアセンブリ100は、それぞれ通信リンク301に結合される。いくつかの実施形態では、イメージングアセンブリ100は、画像データをキャプチャするように構成されることが可能であり、ヘッドマウントディスプレイアセンブリ200は、一体型ディスプレイデバイス209を介して、ディスプレイアセンブリ200を着用しているユーザに画像を表示するように構成されることが可能である。ディスプレイアセンブリ200は、トラッカー303によって追跡されることが可能である基準マーカー217をさらに含む。トラッカー303は、光学追跡、音響もしくは電磁検出、または位置追跡に対する任意の他の好適な手法を介して基準マーカー217の位置および移動を判定することができる。イメージングアセンブリ100は、トラッカー303によって追跡される1つまたは複数の基準マーカーを同様に含むことができる。いくつかの実施形態では、トラッカー303は、患者の位置およびいくつかの解剖学的特徴を追跡するために手術中に使用するように構成されることが可能である。たとえば、トラッカー303は、MedtronicのStealthStation(登録商標)手術ナビゲーションシステムなどの手術ナビゲーションシステムの一部であることが可能である。そのようなシステムは、手術部位の周りのプローブの位置を識別することができ、また、MRI、CT、透視法などの他の術中イメージングシステムとインターフェースすることができる。トラッカー303はまた、たとえば、手術部位の周りの関節アーム上の他のカメラ、内視鏡、リトラクタ上に取り付けられたカメラなど、追加のイメージャ305の位置を追跡することができる。たとえば、追加のイメージャ305は、トラッカー303が位置および配向を検出することを可能にするために、プローブまたは基準マーカーを同様に装備されることが可能である。トラッカー303によって取得された位置情報は、ディスプレイアセンブリ200に対しておよび手術部位に対して追加のイメージャ305の位置および配向を判定するために使用されることが可能である。いくつかの実施形態では、追加のイメージャ305は、ヘッドマウントディスプレイアセンブリ200の位置および/または動作に応じて選択的にアクティブにされることが可能である。たとえば、ディスプレイアセンブリ200を着用しているユーザが、追加のイメージャ305の視野内にある特定のエリアを見ているとき、その追加のイメージャ305はアクティブにされることが可能であり、データが記録されて、ディスプレイアセンブリ200からの画像データと合成されることが可能である。いくつかの実施形態では、追加のイメージャ305は、たとえば追加のイメージャ305を回転してディスプレイアセンブリ200の視野と重複する視野をキャプチャすることによって、ヘッドマウントディスプレイアセンブリ200の位置および/または動作に応じてそれらの位置および/または配向を変更するように制御されることが可能である。
計算構成要素307は、通信リンク301を介して他の構成要素と対話するための複数のモジュールを含む。計算構成要素307は、たとえば、ディスプレイモジュール309、動き追跡モジュール311、登録モジュール313、および画像キャプチャモジュール315を含む。いくつかの実施形態では、計算構成要素307は、コンピュータ可読媒体に記憶されたコンピュータ実行可能命令に従って演算を実施することができるCPUなどのプロセッサを含むことができる。いくつかの実施形態では、ディスプレイモジュール、動き追跡モジュール、登録モジュール、および画像キャプチャモジュールは、演算を実施するように構成されたプロセッサをそれぞれ有する別個のコンピューティングデバイスにおいてそれぞれ実装され得る。いくつかの実施形態では、これらのモジュールの2つ以上が単一のコンピューティングデバイス中に含まれていることが可能である。計算構成要素307はまた、データベース317と通信している。
ディスプレイモジュール309は、ディスプレイデバイス209を介したユーザへの提示のためにディスプレイアセンブリ200にディスプレイ出力情報を提供するように構成されることが可能である。上述されたように、これは、異なる画像が第1および第2のディスプレイデバイス219a〜b(図2B)を介して各眼に提供される、立体視ディスプレイを含むことができる。ディスプレイアセンブリ200に提供されるディスプレイ出力は、イメージングアセンブリ100によってキャプチャされたリアルタイムまたはほぼリアルタイムのビデオフィードを含むことができる。いくつかの実施形態では、ディスプレイ出力は、他のデータ、たとえば、術前画像データ(たとえば、CT、MRI、X線、透視法)、標準の解剖学的画像(たとえば、教科書の解剖図もしくは死体から導出された画像)、または現在の患者バイタルサイン(たとえば、EKG、EEG、SSEP、MEP)の統合を含むことができる。この追加のデータは、たとえば、計算構成要素307によるアクセスのためにデータベース317に記憶されることが可能である。いくつかの実施形態では、追加のリアルタイム画像データが、追加のイメージャ305から取得され、ディスプレイアセンブリ200のディスプレイデバイス209を介してユーザに提示されることが可能である(たとえば、手術部位の周りの関節アーム上の他のカメラからのリアルタイム画像データ、内視鏡、リトラクタ上に取り付けられたカメラなど)。そのような追加のデータは、表示のために統合されることが可能であり、たとえば、それは、ピクチャインピクチャ、またはイメージングアセンブリ100からのリアルタイム画像の表示にわたる他のオーバーレイとして提供されることが可能である。いくつかの実施形態では、追加のデータは、イメージングアセンブリ100からのリアルタイム画像の表示に統合されることが可能であり、たとえば、X線データは、ユーザがイメージングアセンブリ100からのリアルタイム画像とX線データの両方を、統合された画像として一緒に閲覧するように、表示に統合されることが可能である。追加の画像データ(たとえば、X線、MRIなど)が、イメージングアセンブリ100からのリアルタイムフィードとコヒーレントに提示されるために、追加の画像データは、ディスプレイアセンブリ200の位置および配向に基づいて処理および操作されることが可能である。同様に、いくつかの実施形態では、教科書の解剖図または他の参照画像(たとえば、死体から導出されたラベル付き画像)が、キャプチャされた画像へと正しく配向されるように操作およびワーピングされることが可能である。これは、外科医が、手術中に、リアルタイム画像データの上に重ね合わされた既存の画像からの解剖学的ラベルを視覚化することを可能にすることができる。いくつかの実施形態では、ユーザは、音声コマンド、メニュー項目を選択するための眼の移動、アシスタントコントロール、または他の入力を介して、異なるビュー間でトグルすることができる。たとえば、ユーザは、イメージングアセンブリ100からの画像のリアルタイムフィードと、1つまたは複数の追加のイメージャ305からキャプチャされた画像のリアルタイムフィードとの間でトグルすることができる。
動き追跡モジュール311は、手術部位に対して、ディスプレイアセンブリ200およびイメージングアセンブリ100ならびに何らかの追加のイメージャ305の位置および配向を判定するように構成されることが可能である。上述されたように、トラッカー303は、光学的にまたは他の技法を介して、ディスプレイアセンブリ200、イメージングアセンブリ100、および何らかの追加のイメージャ305の位置を追跡することができる。この位置および配向データは、ディスプレイモジュール309を介した適切なディスプレイ出力を提供するために使用されることが可能である。
登録モジュール313は、外科的フレーム中のすべての画像データを登録するように構成されることが可能である。たとえば、ディスプレイアセンブリ200、プレノプティックイメージングアセンブリ100、および何らかの追加のイメージャ305の位置および配向データが、動き追跡モジュール311から受信されることが可能である。追加の画像データ、たとえば、術前画像が、データベース317からまたは別のソースから受信されることが可能である。この追加の画像データ(たとえば、X線、MRI、CT、透視法、解剖図など)は、典型的には、ディスプレイアセンブリ200、イメージングアセンブリ100、または追加のイメージャ305のいずれかのいずれの観点からも記録されることがない。その結果、補足の画像データが処理および操作されて、適切な観点でディスプレイアセンブリ200のディスプレイデバイス209を介してユーザに提示されなければならない。登録モジュール313は、術前画像中に検出された解剖学的または人工基準マーカーと、手術ナビゲーションシステム、ディスプレイアセンブリ200、イメージングアセンブリ100、または他の追加のイメージャ305によって検出されたそれらの同じ解剖学的または人工基準マーカーとを比較することによって、外科的基準系において補足の画像データを登録することができる。
画像キャプチャモジュール315は、イメージングアセンブリ100からの、また何らかの追加のイメージャ305からの画像データをキャプチャするように構成されることが可能である。キャプチャされた画像は、連続ストリーミングビデオおよび/または静止画像を含むことができる。いくつかの実施形態では、追加のイメージャ305の1つまたは複数はプレノプティックカメラであることが可能であり、その場合、画像キャプチャモジュール315は、光照射野データを受信し、そのデータを処理して特定の画像をレンダリングするように構成されることが可能である。
図4は、外科的手技の間の操作中の媒介現実視覚化システムを示す。外科医401は、患者の手術部位403への手術中にヘッドマウントディスプレイアセンブリ200を着用する。イメージングアセンブリ100は、手術部位403にわたって位置決めされるべき関節アームに取り付けられる。トラッカー303は、ディスプレイアセンブリ200およびイメージングアセンブリ100の移動および位置に追従する。上述されたように、トラッカー303は、光学追跡、音響もしくは電磁検出、または位置追跡に対する任意の他の好適な手法を介して、ディスプレイアセンブリ200およびイメージングアセンブリ100上の基準マーカーの位置および移動を判定することができる。いくつかの実施形態では、トラッカー303は、MedtronicのStealthStation(登録商標)手術ナビゲーションシステムなどの手術ナビゲーションシステムの一部であることが可能である。トラッカー303はまた、たとえば、手術部位の周りの関節アーム上の他のカメラ、内視鏡、リトラクタ上に取り付けられたカメラなど、追加のイメージャの位置を追跡することができる。
外科医401が手術している間、イメージングアセンブリ100を介してキャプチャされた画像は、処理され、ディスプレイアセンブリ200内の組み込まれたディスプレイデバイス209(図2B)を介して外科医に立体的に表示される。その結果は、イメージングアセンブリ100によってキャプチャされたデータから生成された外科医の視野または任意の他の所望のビューの媒介現実表現である。上述されたように、追加の画像データまたは他のデータが統合され、外科医に表示されることも可能である。外科医401に提示されているディスプレイデータは、リアルタイムで同時にまたはある時間遅延で、遠隔ユーザ405にストリームされることが可能である。遠隔ユーザ405は、一体型立体視ディスプレイとともに構成されたヘッドマウントディスプレイアセンブリ407を同様に装着することができるか、またはディスプレイデータは、外部ディスプレイを介して遠隔ユーザ405に提示されることが可能である。いくつかの実施形態では、遠隔ユーザ405は外科ロボットを遠隔的に制御することができ、それにより、外科的視覚化を改善するための臨場感および遠近感を遠隔ユーザ405に提供しながら遠隔手術が実施されることが可能になる。いくつかの実施形態では、複数の遠隔ユーザが、手術部位の周りに配設された複数の異なるプレノプティックカメラおよび他のイメージングデバイスからレンダリングされた異なる視点から手術部位を同時に見ることができる。
イメージングアセンブリ100および/またはディスプレイアセンブリ200は、音声コマンドに応答するかまたは外科医の眼を追跡することさえしてよく、このようにして、外科医401がフィードを切り替え、採用されている倍率のレベルを微調整することが可能になる。患者のバイタルサイン(EKG、EEG、SSEP、MEP)、イメージング(CT、MRIなど)、および外科医が所望する任意の他の情報を用いたヘッドアップディスプレイは、外科医の要求でスクロールしてよく、それにより、外部モニタを評価するかまたは麻酔チームに問い合わせるために操作のフローを中断する必要がなくなる。無線ネットワーキングは、プロセッサ(たとえば、計算構成要素307)と通信する能力をイメージングアセンブリ100および/またはディスプレイアセンブリ200に吹き込むことがあり、この能力は、オートフォーカスのような単純なツールから蛍光ビデオ血管造影法および腫瘍「ペイント」まであらゆるもので外科医の視覚的作業環境を増強することができる。イメージングアセンブリ100およびディスプレイアセンブリ200は、高価な外科用顕微鏡、および近い将来の遠隔ロボットワークステーションさえの必要に取ってかわることができ、顕微鏡および内視鏡と併せて使用される「注文仕立て」のガラスルーペの現行のシステムへの経済的代替を提示する。
ヘッドマウントディスプレイアセンブリ200は、視覚情報の複数のストリームを統合し、それを視覚化のために外科医に送るだけでなく、リアルタイム分析および修正のために遠隔処理パワー(たとえば、計算構成要素307(図3))にも送ることができる。いくつかの実施形態では、本システムは、パターン認識を利用して、注意を要する出血の解剖学的構造およびソースの識別を支援し、このようにして、デジタル外科アシスタントとして働くことができる。教科書または適応解剖学のリアルタイムオーバーレイは、構造を識別するのを支援し、ならびに/または常駐医師および他の学習者への教示援助として働き得る。いくつかの実施形態では、本システムは、外科フィールドと相互作用するための追加の技術を装備されることが可能であり、たとえば、イメージングアセンブリ100は、リアルタイムに組織特性を分析するかまたは外科フィールドをマッピングするのを支援し、したがって、外科医が切除の程度に関する決定を行うことなどを支援し得る、LiDARを含むことができる。いくつかの実施形態では、イメージングアセンブリ100に組み込まれた光源105は、最も良くいくつかの手術状況を照明するかまたは光の異なる波長を提供してバイオ蛍光薬剤と相互作用するためにどのようにすべきかを(たとえば、機械学習技法を介して)「教示」されることが可能である。
いくつかの実施形態では、イメージングアセンブリ100および他のイメージャから記録されたデータは、手術部位の異なる視点および視覚化を後で生成するために使用されることが可能である。たとえば、記録されたデータの後の再生のために、異なる倍率、追加の画像データの異なる統合、および/または異なる視点を有する画像が生成されることが可能である。これは、手技のレビューのためにまたはトレーニング目的のために特に有用であり得る。
いくつかの実施形態では、外部ツールの位置は、入力について追跡されることが可能である。たとえば、メスまたは他の外科ツールの先端が(たとえばトラッカー303を使用して)追跡されることが可能であり、拡大されたボリュームが、メスまたは他の外科ツールの先端において位置特定されることが可能である。いくつかの実施形態では、外科ツールは、本システムまたは他の外科システムのためのハプティックフィードバックまたは物理的制御を含むことができる。外科ツールが電子的または電気機械的に制御される状況では(たとえば、ツールが外科ロボットで制御される遠隔手術中に)、それらのツールの制御は、視覚化モードに応じて修正されることが可能である。たとえば、ツールが、視覚的に変換(たとえば、拡大)されるべき物理的ボリューム内に配設されたとき、ツールの制御は、視覚的スケーリング、回転などを補償するように修正されることが可能である。これは、制御が、視覚的に変換されたビューと、周囲のビューとの内部で同じままであることを可能にする。ツール制御のこの修正は、遠隔手術中の外科医が、ツールおよび手術部位の視覚化が修正されるときでさえ、ツールをより良く制御するのを助けることができる。
注目するポイントの近くに位置特定された環境中の追加のカメラからの情報は、ヘッドマウントディスプレイに結合されたイメージャからの画像と融合されて、それにより、注目する領域を拡大する能力が改善されることが可能である。深度情報は、深度センサーから生成または獲得され、焦点面をシーンの物理的ジオメトリとコロケートすることによってシーン全体を合焦状態にもたらすために使用されることが可能である。他の媒介現実の場合と同様に、データは、環境中でレンダリングおよび視覚化されることが可能である。光照射野キャプチャおよびレンダリングの使用は、オクルージョンの周りの閲覧を可能にすることができ、鏡面反射を除去することができる。いくつかの実施形態では、光照射野の処理はまた、組織タイプ間のコントラストを増加させるために使用されることが可能である。
図4に示されている例は手術に関与するが、本技術の実施形態は、様々な分野において有用に適用されることが可能である。たとえば、プレノプティックイメージングアセンブリおよびヘッドマウントディスプレイアセンブリを含む媒介現実視覚化システムは、建設、製造、サービス産業、ゲーミング、エンターテインメント、および拡張された視覚化が有益である様々な他のコンテキストにおいて使用されることが可能である。
図5は、本技術の一実施形態による拡張された視覚化のために光照射野をキャプチャしレンダリングするための方法のブロック図である。ルーチン500はブロック501において開始する。ブロック503において、イメージングアセンブリ100が較正される。較正は、イメージングアセンブリ100および/またはヘッドマウントディスプレイアセンブリ200と有線または無線通信している遠隔電子回路(たとえば、計算構成要素307)によって実施されることが可能である。またはいくつかの実施形態では、処理は、ヘッドマウントディスプレイアセンブリ200によって担持される制御電子回路215a〜bを介して実施されることが可能である。いくつかの実施形態では、較正および画像処理ステップは、イメージングアセンブリ100によって担持される制御電子回路によって実施されることが可能である。イメージングアセンブリ100を較正することは、各イメージングデバイス101の内因性パラメータ(すなわち、レンズモデル)を推定すること、ならびに各イメージングデバイス101の外因性パラメータ(すなわち、本明細書ではデバイスの「ポーズ」と呼ばれる、グローバル基準系におけるロケーションおよび回転)を推定することを含むことができる。推定された内因性パラメータは、イメージングデバイス101からの生の入力画像を、完全なピンホール投射モデルから同等に生成されたデータに変換するために使用され、以下で説明される技法において使用可能であり得る。
イメージングアセンブリ100のアレイ中のイメージングデバイス101ごとに、以下の内因性パラメータが推定され得る。
(f)、ピクセルで表された、レンズの焦点距離、
(cx)、画像中心からのレンズ焦点中心のxオフセット、および
(cy)、画像中心からのレンズ焦点中心のyオフセット
レンズひずみ効果を補正するためのパラメータのセットが推定されることも可能である。レンズひずみは、その透視投影が画像中では直線として投影される、世界の中の直線が、湾曲して見えること、たとえば、フィッシュアイ効果を引き起こす。
カメラポーズと組み合わされたときに、上記のパラメータは、レンズひずみをもつピンホールカメラモデルについて十分な情報を提供する。ピンホールモデルは、世界の中の点をカメラの画像センサー上のピクセル上に投影し、同様に画像ピクセルを世界の中の光線として投影するために使用されることが可能である。入力画像中のノイズおよび非線形最適化基準は、許容できる較正精度を達成するために複数の画像が必要とされることを意味することがある。デジタルカメラでは、画像ノイズは、以下のいくつかのソースから来る可能性がある。
センサーノイズ:カメラセンサー自体が、熱効果および量子効果(スミアリング、ブルーミング、拡散、伝達効率、ダイナミックレンジ)に起因して「真」の値からのランダムオフセットを追加する。
量子化:連続信号が空間と値の両方において量子化されているということが、画像特徴の正確な位置特定を妨げる。
光学:不完全な焦点、ならびに色収差などの光学効果が、ピクセル単位レベルで画像中の特徴を正確に識別するのを混乱させる。
イメージングアセンブリ100中のイメージングデバイス101ごとに較正パラメータを取得した後に、ポーズが互いに対して推定されることが可能であり、ポーズは、基準座標フレームに対するロケーション情報と回転情報の両方を含む。正確なポーズ情報は、次いで、以下でより詳細に説明されるように、ジオメトリ捕捉および光照射野レンダリングのために使用されることが可能である。ポーズ情報およびイメージングデバイス較正は、光照射野レンダリングでは、レンダラが、アレイ中のイメージングデバイス101によってキャプチャされた光線ごとに正確な空間座標および方向を有することを仮定するので、特に有用である可能性がある。デバイスの較正およびポーズ推定がピクセルによってさえもオフである場合、最終画像は、隣接する空間領域からの画像を取り入れることがあり、ぼけ効果につながる。したがって、正確な較正およびポスト情報は、シャープな画像を達成するのに有益である可能性がある。
いくつかの実施形態では、既知の基準マーカーが、イメージングアセンブリ100によってイメージングされ、各イメージングデバイスのポーズを推定するために使用されることが可能である。たとえば、ArUcoライブラリは、OpenCVにおいて実装されているように、正方形基準マーカーの検出のために使用されることが可能である。既知の物理的サイズのマーカー、および所与の正確なデバイス較正パラメータを検出したとき、ArUcoは、基準マーカーに対するデバイスのポーズを提供する。ここでも、イメージングデバイス中のセンサーノイズにより、計算されたポーズにはある程度の不確実性があり得る。いくつかの実施形態では、基準マーカーの既知のアレイは、ポーズ推定の精度を高めるために使用されることが可能である。計算されたポーズ中のノイズは、たとえば非線形ポーズ推定を使用して、いくつかの別個のポーズ推定にわたって平均化することによってさらに低減されることが可能である。
ポーズおよびデバイス較正パラメータが推定されると、ルーチン500は、ブロック505において、シーンジオメトリ情報を捕捉することに続く。上述されたように、スパースなイメージングデバイスアレイを使用した光照射野レンダリングは、シーンジオメトリの適度に良好な推定から恩恵を受ける。いくつかの実施形態では、シーンジオメトリは、構造光技法、たとえばOpenCVにおいて実装されている3DUNDERWORLD−SLS方法のバージョンに基づくものを使用して推定されることが可能である。ステレオイメージングデバイスペアを使用したジオメトリ再構成の基本原理は、三角測量である。イメージングデバイスが較正され、それらのポーズが何らかの座標システムに対して既知である場合、画像中のピクセルごとに、光線は世界の中に投影され、イメージングデバイスの中心において開始し、そのピクセルを通過することが可能である。両方のイメージングデバイスによって同じ世界点が見られ、その点がそれによってイメージングされる対応するピクセルが既知である場合、光線の交差を発見して世界の中の点を位置特定することは、単純な事である。
そのような三角測量を実装する厄介な問題は、現実の世界において起こる。第1の問題は、イメージングデバイスB中のどのピクセルが、イメージングデバイスA中の特定のピクセルと同じ世界点を表すのかを判定することに関する。第2の問題は、センサーノイズおよび量子化効果からの不確実性に起因する。サブピクセル精度の場合でも、センサーノイズは、異なるイメージングデバイスのピクセル間の完全なマッピングを妨げることがある。したがって、点対応からの投影された光線は、実際には交差しないことがある。
構造光は、シーン中に既知のパターンを投影することによって対応問題を解決する。たとえば、イメージングアセンブリ100に組み込まれたプロジェクタ107は、イメージングデバイス101の視野に既知のパターンを投影するために使用されることが可能である。一実施形態では、投影された光は、最初に水平方向に、次いで垂直方向に、1次元バイナリグレイコードを形成する。このようにして、各イメージングデバイス画像ピクセルは、プロジェクタ107のソースピクセルに一意に関連付けられることが可能である。いくつかの実施形態では、このルーチンは、ジオメトリキャプチャのために2 log2(プロジェクタ解像度)に対応するいくつかの画像+2つの画像を収集すること、たとえば1280×800解像度をもつプロジェクタの場合は44個の画像を収集することを含む。
構成光対応は、完全なジオメトリキャプチャを依然として達成しないことがある。各イメージングデバイス101の解像度は、プロジェクタ107の実効イメージング解像度よりも高くなることが可能なので、各プロジェクタピクセルは、各イメージングデバイス101の複数のピクセルを満たす。以下で説明される(再)投影ステップでは、イメージングデバイス101によってキャプチャされた画像中の平均サブピクセル座標が使用されることが可能である。しかしながら、シーンジオメトリが十分に傾斜しているかまたは反射性であって、復号のための十分な光がイメージングデバイス101に到達しない場合、すべてのイメージングデバイス101およびプロジェクタ107のフルビュー中にある、消失した情報の領域があり得る。
近接しているが交差しない問題は、2乗された距離の和に関してすべての投影された光線に最も近い点を発見することによって解決されることが可能である。いくつかの実施形態では、光照射野レンダリングは、構成光システムの出力が、消失した情報をもつ点クラウドである間、ホールなしの連続的メッシュを必要とする。そのような実施形態では、消失した情報は、以下のように満たされることが可能である。三角測量は、2つ以上のイメージングデバイス101によって見られ、プロジェクタ107によって照明された世界点についてのみ実施されることが可能であるので、各イメージングデバイス101は、それから覆い隠された非凸ジオメトリの領域から「シャドー(shadow)」をキャプチャする。ブランクの中を満たすための1つの方法は、シーンに対してイメージングデバイス101およびプロジェクタ107を回転させることであるが、これはキャプチャ時間を延ばし、余分の点クラウド登録ステップを必要とする。代替として、仮想シャドーを仮想的に「照明する」ような方法で(さもなければ冗長情報を提供する)別のイメージングデバイス101が配置されることが可能であり、真のシャドーのみが残される。同様に、第2のプロジェクタが、真のシャドーエリア中の情報を提供することができる。アレイ中の複数のイメージングデバイス101を使用すること(たとえば、10個のイメージングデバイス101を使用すること)によって、イメージングアセンブリ100は、いくつかの閲覧角にわたって冗長情報をキャプチャし、プロジェクタ107によってキャストされた何らかの本当のシャドーのみが残される。
点クラウドから高密度メッシュを作成するために、ルーチンは以下のステップを実施することができる。
1.プロジェクタを較正する:復号されたグレイコードは、各世界点をプロジェクタピクセルに直接関連付ける。その相関は、イメージングデバイスを較正するのと同じ方法で、プロジェクタの内因性の粗い較正を推定するために使用される。
2.スパースな深度マップを作成する:あたかもプロジェクタが、点クラウドを閲覧しているカメラであったかのように、ステップ1からの較正パラメータを使用して点クラウドを平面上に投影する。
3.高密度の深度マップを作成する:較正推定とグランドトゥルースとの間の、ならびに適切に復号されなかった領域上のわずかな不整合により、投影中にホールが存在することになる。これらのホールは、良好なデータを有する近くの領域から単に補間することによって満たされることが可能である。不完全であるが、この技法は、光照射野レンダリング適用例では十分な可能性がある。消失したデータをもつ領域が依然としてあり得るが、高密度の深度情報の連結成分が存在することになる。
4.メッシュを作成する:高密度の深度マップからの各有効ピクセルは、メッシュ中の頂点である。ピクセルを外に投影して頂点座標を取得するためにステップ1からの較正パラメータが使用されることが可能である。面は、隣接するピクセルの頂点からの三角形として定義されることが可能である。
シーンジオメトリ情報がメッシュとしてキャプチャされると、ルーチン500はブロック507において続き、ヘッドマウントディスプレイアセンブリ200が、位置および仮想カメラパラメータについて照会される。上述されたように、ヘッドマウントディスプレイアセンブリ200のロケーションは、トラッカー303を介して追跡されることが可能である。第1および第2のアイトラッカー221a〜bは、ユーザの瞳孔間距離(IPD)を判定するために使用されることが可能であり、それに応じて仮想カメラが位置決めされることが可能である。ブロック509において、ヘッドマウントディスプレイアセンブリ200を介して、仮想カメラからの立体視ビューがレンダリングされる。仮想カメラからのビューは、以下でより詳細に説明されるように、イメージングアセンブリ100のイメージングデバイス101の重み付きブレンドを使用することができる。
図6は、2つの異なる物理的イメージングデバイス(C1およびC2)から収集された光照射野データに基づいて仮想カメラ(CV)をレンダリングする概略図である。光照射野レンダリングは、たとえばイメージングアセンブリ100を介してキャプチャされた、サンプリングされた光照射野から新規の観点ビューを合成することを含む。各カメラC1およびC2に関連付けられるのは、回転、並進、および内因性パラメータ(焦点距離、ひずみなど)の値である。一方が連続的光照射野へのアクセスを有した場合、仮想カメラCVから新しいビューをレンダリングすることは、仮想ピクセルごとに、CVのカメラモデルを使用してそのピクセルを通して投影されるであろう光線をサンプリングすることを含むはずである。その結果は、どこでも完全に焦点が合っている画像、完全なピンホールレンダリングである。しかしながら、イメージングデバイスのスパースなアレイでは、この手法は可能でない。
Vのイメージング平面上の単一のピクセルpVを考察する。レンズひずみを無視すると、光線rVは、ピクセルpVを通過する仮想カメラCVのピンホールから世界に投影されることが可能である。rVに沿った第1の対象物は、仮想カメラCVが実物であったならば、ピクセルpVによってイメージングされるはずものである。イメージングされるべき何か(たとえば、表面上の点)が、光線rVに沿った点ωに存在すると仮定すると、何らかの実カメラ(たとえば、カメラC1またはC2)は、それらがピクセル値piについて、それらの視野中に点ωを有した場合、照会されることが可能である。たとえば、実カメラC1のピクセルp1は、光線r1に沿った点ωをイメージングし、実カメラC2のピクセルp2も、光線r2に沿った点ωをイメージングする。各仮想ピクセルについてのすべての点ωのセットは、CVの観点からの高さマップである、焦点表面を形成する。
N個の実カメラが点wをイメージングした場合、N個の実カメラから収集されたデータに基づいて点ωをイメージングする仮想ピクセルpVの値を割り当てるための方式が必要とされる。いくつかの実施形態では、ルーチンは、ピクセル値piの重み付きブレンドを使用することができ、所与のピクセルpiの重みは、仮想光線rVと対応する実カメラの光線riとの間の角距離、および点ωにおける表面法線と仮想光線rVとの間の角距離の関数である。仮想カメラCVの焦点表面は、ブロック505において以前に捕捉されたシーンジオメトリと密接に一致すると仮定されることが可能である。次いで、感度解析に基づいて重みが割り当てられることが可能である。一実施形態では、感度解析は以下のステップを含むことができる。
1.仮想ピクセルpVについて、局所的に近似された平面P上にある、それの光線rVと、点ωにおける焦点表面との交差を発見する(各ピクセルは、それ自体の焦点面を用いて別々に扱われる)。
2.実カメラCiごとに、対応する光線riに沿った点ωを実ピクセルpiに逆投影する。
3.本当のジオメトリが位置特定される場所の推定の不確実性を表す量μだけ、焦点表面をそれの法線に沿って摂動させる。
4.riとP+δμとの交差ω’iを発見する。
5.サブピクセルロケーションp’viにおけるCVにω’iを投影する。
6.di=||pV−p’vi||2がCiの感度ディスパリティであるとする。
7.重みが合計1になるように、何らかの関数f1(d)および正規化ファクタνのためのpiの重みとしてIi=vf1(di)を選定する。
仮想ピクセルpVごとにステップ1〜7を繰り返す。図6に示されている例では、光線r2は、光線r1よりも表面法線に近いので、実ピクセルp2は、実ピクセルp1よりも大きい重みを受け取るはずである(d2<d1)。
関数f1(d)は、放射基底関数と同様であることが可能であり、正規化された重みが急速に低下して、最も低いディスパリティをもつ光線を圧倒的に選好するように選定されることが可能である。たとえば、長い一定のテールをもつ放射エルミートスプラインが使用されることが可能であり、表面の背後の光線のためのクランプ重みは0になる。長いテールは、最も良い実光線が仮想光線に対して極めて大きい角距離を有するときでも、少なくとも何らかのレンダリングされたデータがあることを保証する。スプラインが終了し、テールが開始する場合、信頼性しきい値は、様々なカメラジオメトリに適応するように設定されることが可能である調整可能パラメータであり、より高密度なアレイはより低い信頼性しきい値をもたらす。いくつかの実施形態では、レンダリングされた画像の選択領域が人工的に暗くされることが可能であり、すべての重みの和は、しきい値を下回って高レベルの不確実性を視覚的に示すが、仮想カメラが何を見るはずであるかの最も良い推測をなお提供する。
重みを計算するためのこの方法は、シーン中の光路の確率的取扱いへの近似である。これは、予想される不確実性があるとすれば、pVに実際に投影されるという良好な見込みを有するピクセルpiに高い重みを割り当てることができる。ピクセルは、単一の点ではなく、代わりに有限エリアにわたる入射光を統合する。より完全なモデルは、各ピクセルの立体角を、それが光を統合する領域にわたる何らかの分布でシーンに投影することを考慮することができる。重みは、これらの投影された確率分布を反映するはずである。いくつかの実施形態では、近似は計算上の便宜のために使用されることが可能である。
ルーチンはブロック511において終了する。ブロック503〜509において概説された処理は繰り返されることが可能である。ブロック503およびブロック505は、光照射野キャプチャと画像ディスプレイとの間の分離により、ブロック507およびブロック509と比較して異なるフレームレートで独立しておよび並列に実施されることが可能である。
いくつかの実施形態では、鏡面度は、光照射野レンダリング技法を使用して評価および減算されることが可能である。鏡面度は、光沢のある物体上に現れる直接反射された光の輝点である。鏡面度について適応が行われない場合、仮想カメラが動き回るとき、実カメラによってキャプチャされる鏡面度は、予想されるように表面にわたって追跡するのではなく、ピクセル重みに従ってフェードインおよびフェードアウトするように見えることになる。信頼できる鏡面応答をシミュレートするためには、1)表面の拡散(つや消し)色特性、2)表面ジオメトリ、および3)シーン中の光のロケーションを判定することが有益である。上述されたように、表面ジオメトリは、ブロック505に関して説明されたように計算されることが可能である。また、イメージングアセンブリ100は、イメージングデバイス101に対して既知のロケーションに位置決めされた光源105を装備されることが可能である。したがって、判定されるべき残りの特性は、表面の拡散(つや消し)色特性である。いくつかの実施形態では、これらの特性は、符号分割多元接続方式において取られる手法と同様に、一連のエクスポージャにわたって相互直交バイナリコードで光源105のオンオフ値を変調することによって判定されることが可能である。コードの直交性は、後処理ステップが、各光源105ならびに周辺光の寄与を分離することを可能にし、スタック(たとえば、8つの光源をもつアセンブリの場合は9つの画像のスタック)を生成し、各々はただ1つの光源がアクティブにされる(周辺状態に加えて8つの光源)。
ピクセル単位のベースで強度の分布を検査することによって、中央値が拡散値として割り当てられることが可能であり、最も明るい値は、鏡面ハイライトの可能性がある存在を表し、最も暗い値は、そのピクセルがシャドー中にあるときの状態を表す。中央強度値にわたって平均化することによって、得られた画像は、ほぼすべての鏡面ハイライトを除去することができる。ピクセルの強度の分散は、そのピクセルによって見られる表面がどのくらい光沢があるかの良好な指示を与える。推定されたジオメトリおよび表面法線と組み合わされると、この情報は、イメージングされる表面に対して仮想カメラ位置が移動されるとき、鏡面ハイライトを移動させるシミュレーションを可能にする。

1.媒介現実視覚化システムであって、
ヘッドマウントディスプレイアセンブリであって、
第1の方向に面している前面と、
前面の反対にあり、第1の方向の反対の第2の方向に面している後面であって、後面は、ユーザによって着用されたときにユーザの顔に面するように構成された、後面と、
第2の方向に面している立体視ディスプレイデバイスであって、立体視ディスプレイデバイスは、第1のディスプレイおよび第2のディスプレイを備え、ヘッドマウントディスプレイアセンブリがユーザによって着用されたとき、第1のディスプレイは、ユーザの右眼に画像を表示するように構成され、第2のディスプレイは、ユーザの左眼に画像を表示するように構成された、立体視ディスプレイデバイスと
を備える、ヘッドマウントディスプレイアセンブリと、
ヘッドマウントディスプレイアセンブリとは別個でそれから離間されたイメージングアセンブリであって、イメージングアセンブリは、光照射野データをキャプチャするように構成された、イメージングアセンブリと、
立体視ディスプレイデバイスおよびイメージングアセンブリと通信しているコンピューティングデバイスであって、
イメージングアセンブリから光照射野データを受信し、
光照射野データを処理して第1の仮想カメラおよび第2の仮想カメラをレンダリングし、
第1のディスプレイにおいて第1の仮想カメラから画像を表示することおよび第2のディスプレイにおいて第2の仮想カメラから画像を表示することによって立体視ディスプレイデバイスを介してリアルタイム立体視画像を提示する
ように構成された、コンピューティングデバイスと
を備える媒介現実視覚化システム。
2.イメージングアセンブリは、少なくとも8つのイメージングデバイスを備える例1に記載の媒介現実視覚化システム。
3.イメージングアセンブリはプレノプティックカメラを備える例1または2に記載の媒介現実視覚化システム。
4.イメージングアセンブリは、作業部位にわたって位置決め可能な関節アームに結合された例1〜3のいずれか一つに記載の媒介現実視覚化システム。
5.第1の仮想カメラおよび第2の仮想カメラは、ヘッドマウントディスプレイアセンブリのユーザの眼の位置に対応する位置にレンダリングされる例1〜4のいずれか一つに記載の媒介現実視覚化システム。
6.仮想カメラは、ヘッドマウントディスプレイアセンブリのユーザの眼の位置とは異なる位置にレンダリングされる例1〜4のいずれか一つに記載の媒介現実視覚化システム。
7.第1の仮想カメラからの画像および第2の仮想カメラからの画像は、非平面焦点表面をそれぞれ備える例1〜6のいずれか一つに記載の媒介現実視覚化システム。
8.焦点表面は、イメージングされたシーンの推定された表面ジオメトリに対応する例7に記載の媒介現実視覚化システム。
9.コンピューティングデバイスは、
補助画像データを受信し、
補助画像データを処理し、
第1のディスプレイおよび/または第2のディスプレイにおいて補助画像データからの処理された補助画像を提示する
ようにさらに構成された例1〜8のいずれか一つに記載の媒介現実視覚化システム。
10.補助画像データは、蛍光画像データ、磁気共鳴イメージングデータ、コンピュータ断層撮影画像データ、X線画像データ、解剖図データ、およびバイタルサインデータのうちの少なくとも1つを備える例9に記載の媒介現実視覚化システム。
11.コンピューティングデバイスは、第2のヘッドマウントディスプレイアセンブリにリアルタイム立体視画像を提示するようにさらに構成された例1〜10のいずれか一つに記載の媒介現実視覚化システム。
12.イメージングアセンブリは、
イメージングされるべきシーンを照明するように構成された複数の別々に制御可能な光源と、
イメージングされるべきシーンに画像を投影するように構成されたプロジェクタと
をさらに備える例1〜11の例示的いずれか一つに記載の媒介現実視覚化システム。
13.媒介現実視覚化システムであって、
光照射野データをキャプチャするように構成されたイメージングアセンブリと、
イメージングアセンブリとは別個でそれから離間されたヘッドマウントディスプレイアセンブリであって、
ユーザの頭部上に着用されるように構成されたフレームと、
フレームに結合されたディスプレイデバイスであって、ユーザの眼のほうへ画像を表示するように構成された、ディスプレイデバイスと
を備える、ヘッドマウントディスプレイアセンブリと、
ディスプレイデバイスおよび1つまたは複数のイメージングデバイスと通信しているコンピューティングデバイスであって、
イメージングアセンブリから光照射野データを受信し、
光照射野データから少なくとも1つの仮想カメラをレンダリングし、
ディスプレイデバイスを介して少なくとも1つの仮想カメラから画像を提示する
ように構成された、コンピューティングデバイスと
を備える媒介現実視覚化システム。
14.イメージングアセンブリは、プレノプティックカメラまたは少なくとも8つのカメラを備える例13に記載の媒介現実視覚化システム。
15.コンピューティングデバイスは、フレームがユーザによって着用されたとき、ユーザの眼の位置に対応するロケーションにおいて少なくとも1つの仮想カメラをレンダリングするように構成された例13または14に記載の媒介現実視覚化システム。
16.コンピューティングデバイスは、リアルタイムで画像を提示するように構成された例13〜15のいずれか一つに記載の媒介現実視覚化システム。
17.コンピューティングデバイスは、キャプチャされた光照射野の一部分の拡大ビューをレンダリングすることによって少なくとも1つの仮想カメラをレンダリングするように構成された例13〜16のいずれか一つに記載の媒介現実視覚化システム。
18.媒介現実視覚化を提供するための方法であって、
イメージングアセンブリを介して光照射野データをキャプチャするステップと、
光照射野データを処理して少なくとも1つの仮想カメラをレンダリングするステップと、
ヘッドマウントディスプレイを介して仮想カメラから画像を表示するステップであって、ヘッドマウントディスプレイは、イメージングアセンブリとは別個でそれから離間された、ステップと
を備える、方法。
19.光照射野データを処理して2つの仮想カメラをレンダリングするステップと、
ヘッドマウントディスプレイを介して2つの仮想カメラから画像を立体的に表示するステップと
をさらに備える例18に記載の方法。
20.少なくとも1つの仮想カメラをレンダリングするステップは、ディスプレイがユーザの頭部に取り付けられたとき、ユーザの眼の位置に対応するロケーションにおいて少なくとも1つの仮想カメラをレンダリングするステップを備える例18または19に記載の方法。
21.補助画像データを受信するステップと、
補助画像データを処理するステップと、
ヘッドマウントディスプレイを介して補助画像データを表示するステップと
をさらに備える例18〜20のいずれか一つに記載の方法。
22.少なくとも1つの仮想カメラをレンダリングするステップは、キャプチャされた光照射野の一部分の拡大ビューをレンダリングするステップを備える例18〜21のいずれか一つに記載の方法。
結論
本技術の実施形態についての上記の詳細な説明は、網羅的であることを、または本技術を上記で開示された正確な形態に限定することを意図されたものではない。上記では説明の目的で、本技術の特定の実施形態およびその例について説明されたが、様々な等価な変更は、当業者が認識するように、本技術の範囲内において可能である。たとえば、ステップは所与の順序で提示されたが、代替的実施形態はステップを異なる順序で実施してよい。本明細書で説明される様々な実施形態はまた、さらなる実施形態を提供するために組み合わされてよい。
上記からは、説明の目的で本発明の特定の実施形態について本明細書で説明されたが、本技術の実施形態についての説明を不必要に不明瞭にするのを避けるために、よく知られている構造および機能については詳細に図示または説明されていないことが諒解されよう。文脈が許す場合、単数形または複数形の用語は、それぞれ、複数形または単数形の用語をも含み得る。
その上、「または」という単語は、2つ以上の項目のリストへの参照において他の項目とは排他的な単一の項目のみを意味するように明確に限定されるのでない限り、そのようなリストにおける「または」の使用は、(a)リスト中のいずれかの単一の項目、(b)リスト中の項目のすべて、または(c)リスト中の項目の任意の組合せを含むものとして解釈されたい。加えて、「備える」という用語は、少なくとも具陳された特徴を含むことを意味するように全体を通して使用され、したがって、任意のより大きい数の同じ特徴および/または追加のタイプの他の特徴は排除されない。また、説明の目的で本明細書では特定の実施形態について説明されたが、本技術から逸脱することなくその様々な変更が行われ得ることが諒解されよう。さらに、本技術のいくつかの実施形態に関連する利点について、それらの実施形態の文脈で説明されたが、他の実施形態もそのような利点を発揮することがあり、本技術の範囲内に入るために、必ずしもすべての実施形態がそのような利点を発揮する必要はない。したがって、本開示および関連する技術は、本明細書で明確に図示または説明されていない他の実施形態を包含することができる。

Claims (22)

  1. 媒介現実視覚化システムであって、
    ヘッドマウントディスプレイアセンブリであって、
    第1の方向に面している前面と、
    前記前面の反対にあり、前記第1の方向の反対の第2の方向に面している後面であって、前記後面は、ユーザによって着用されたときに前記ユーザの顔に面するように構成された、後面と、
    前記第2の方向に面している立体視ディスプレイデバイスであって、第1のディスプレイおよび第2のディスプレイを備え、前記ヘッドマウントディスプレイアセンブリが前記ユーザによって着用されたとき、前記第1のディスプレイは、前記ユーザの右眼に画像を表示するように構成され、前記第2のディスプレイは、前記ユーザの左眼に画像を表示するように構成された、立体視ディスプレイデバイスと
    を備える、ヘッドマウントディスプレイアセンブリと、
    前記ヘッドマウントディスプレイアセンブリとは別個でそれから離間されたイメージングアセンブリであって、光照射野データをキャプチャするように構成された、イメージングアセンブリと、
    前記立体視ディスプレイデバイスおよび前記イメージングアセンブリと通信しているコンピューティングデバイスであって、
    前記イメージングアセンブリから前記光照射野データを受信し、
    前記光照射野データを処理して第1の仮想カメラおよび第2の仮想カメラをレンダリングし、
    前記第1のディスプレイにおいて前記第1の仮想カメラから画像を表示することおよび前記第2のディスプレイにおいて前記第2の仮想カメラから画像を表示することによって前記立体視ディスプレイデバイスを介してリアルタイム立体視画像を提示する
    ように構成された、コンピューティングデバイスと
    を備える媒介現実視覚化システム。
  2. 前記イメージングアセンブリは、少なくとも8つのイメージングデバイスを備える請求項1に記載の媒介現実視覚化システム。
  3. 前記イメージングアセンブリはプレノプティックカメラを備える請求項1に記載の媒介現実視覚化システム。
  4. 前記イメージングアセンブリは、作業部位にわたって位置決め可能な関節アームに結合された請求項1に記載の媒介現実視覚化システム。
  5. 前記第1の仮想カメラおよび前記第2の仮想カメラは、前記ヘッドマウントディスプレイアセンブリのユーザの眼の位置に対応する位置にレンダリングされる請求項1に記載の媒介現実視覚化システム。
  6. 前記仮想カメラは、前記ヘッドマウントディスプレイアセンブリのユーザの前記眼の位置とは異なる位置にレンダリングされる請求項1に記載の媒介現実視覚化システム。
  7. 前記第1の仮想カメラからの前記画像および前記第2の仮想カメラからの前記画像は、非平面焦点表面をそれぞれ備える請求項1に記載の媒介現実視覚化システム。
  8. 焦点表面は、イメージングされたシーンの推定された表面ジオメトリに対応する請求項7に記載の媒介現実視覚化システム。
  9. 前記コンピューティングデバイスは、
    補助画像データを受信し、
    前記補助画像データを処理し、
    前記第1のディスプレイおよび/または前記第2のディスプレイにおいて前記補助画像データからの処理された補助画像を提示する
    ようにさらに構成された請求項1に記載の媒介現実視覚化システム。
  10. 前記補助画像データは、蛍光画像データ、磁気共鳴イメージングデータ、コンピュータ断層撮影画像データ、X線画像データ、解剖図データ、およびバイタルサインデータのうちの少なくとも1つを備える請求項9に記載の媒介現実視覚化システム。
  11. 前記コンピューティングデバイスは、第2のヘッドマウントディスプレイアセンブリに前記リアルタイム立体視画像を提示するようにさらに構成された請求項1に記載の媒介現実視覚化システム。
  12. 前記イメージングアセンブリは、
    イメージングされるべきシーンを照明するように構成された複数の別々に制御可能な光源と、
    イメージングされるべき前記シーンに画像を投影するように構成されたプロジェクタと
    をさらに備える請求項1に記載の媒介現実視覚化システム。
  13. 媒介現実視覚化システムであって、
    光照射野データをキャプチャするように構成されたイメージングアセンブリと、
    前記イメージングアセンブリとは別個でそれから離間されたヘッドマウントディスプレイアセンブリであって、
    ユーザの頭部上に着用されるように構成されたフレームと、
    前記フレームに結合されたディスプレイデバイスであって、前記ユーザの眼のほうへ画像を表示するように構成された、ディスプレイデバイスと
    を備える、ヘッドマウントディスプレイアセンブリと、
    前記ディスプレイデバイスおよび前記1つまたは複数のイメージングデバイスと通信しているコンピューティングデバイスであって、
    前記イメージングアセンブリから前記光照射野データを受信し、
    前記光照射野データから少なくとも1つの仮想カメラをレンダリングし、
    前記ディスプレイデバイスを介して前記少なくとも1つの仮想カメラから画像を提示する
    ように構成された、コンピューティングデバイスと
    を備える媒介現実視覚化システム。
  14. 前記イメージングアセンブリは、プレノプティックカメラまたは少なくとも8つのカメラを備える請求項13に記載の媒介現実視覚化システム。
  15. 前記コンピューティングデバイスは、前記フレームが前記ユーザによって着用されたとき、ユーザの眼の位置に対応するロケーションにおいて前記少なくとも1つの仮想カメラをレンダリングするように構成された請求項13に記載の媒介現実視覚化システム。
  16. 前記コンピューティングデバイスは、リアルタイムで前記画像を提示するように構成された請求項13に記載の媒介現実視覚化システム。
  17. 前記コンピューティングデバイスは、キャプチャされた光照射野の一部分の拡大ビューをレンダリングすることによって前記少なくとも1つの仮想カメラをレンダリングするように構成された請求項13に記載の媒介現実視覚化システム。
  18. 媒介現実視覚化を提供するための方法であって、
    イメージングアセンブリを介して光照射野データをキャプチャするステップと、
    前記光照射野データを処理して少なくとも1つの仮想カメラをレンダリングするステップと、
    ヘッドマウントディスプレイを介して前記仮想カメラから画像を表示するステップであって、前記ヘッドマウントディスプレイは、前記イメージングアセンブリとは別個でそれから離間された、ステップと
    を備える方法。
  19. 前記光照射野データを処理して2つの仮想カメラをレンダリングするステップと、
    前記ヘッドマウントディスプレイを介して前記2つの仮想カメラから画像を立体的に表示するステップと
    をさらに備える請求項18に記載の方法。
  20. 前記少なくとも1つの仮想カメラをレンダリングするステップは、前記ディスプレイがユーザの頭部に取り付けられたとき、前記ユーザの眼の位置に対応するロケーションにおいて前記少なくとも1つの仮想カメラをレンダリングするステップを備える請求項18に記載の方法。
  21. 補助画像データを受信するステップと、
    前記補助画像データを処理するステップと、
    前記ヘッドマウントディスプレイを介して前記補助画像データを表示するステップと
    をさらに備える請求項18に記載の方法。
  22. 前記少なくとも1つの仮想カメラをレンダリングするステップは、キャプチャされた光照射野の一部分の拡大ビューをレンダリングするステップを備える請求項18に記載の方法。
JP2019528032A 2016-11-24 2016-11-24 ヘッドマウントディスプレイのための光照射野キャプチャおよびレンダリング Active JP7076447B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2016/063676 WO2018097831A1 (en) 2016-11-24 2016-11-24 Light field capture and rendering for head-mounted displays

Publications (2)

Publication Number Publication Date
JP2020516090A true JP2020516090A (ja) 2020-05-28
JP7076447B2 JP7076447B2 (ja) 2022-05-27

Family

ID=62195551

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019528032A Active JP7076447B2 (ja) 2016-11-24 2016-11-24 ヘッドマウントディスプレイのための光照射野キャプチャおよびレンダリング

Country Status (5)

Country Link
US (2) US11612307B2 (ja)
EP (1) EP3545675A4 (ja)
JP (1) JP7076447B2 (ja)
CN (1) CN110192390A (ja)
WO (1) WO2018097831A1 (ja)

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3062142B1 (en) 2015-02-26 2018-10-03 Nokia Technologies OY Apparatus for a near-eye display
EP3165153A1 (en) * 2015-11-05 2017-05-10 Deutsches Krebsforschungszentrum Stiftung des Öffentlichen Rechts System for fluorescence aided surgery
CN108348305A (zh) * 2015-11-16 2018-07-31 思想外科有限公司 用于确认被追踪骨骼的配准的方法
US10650552B2 (en) 2016-12-29 2020-05-12 Magic Leap, Inc. Systems and methods for augmented reality
EP4300160A2 (en) 2016-12-30 2024-01-03 Magic Leap, Inc. Polychromatic light out-coupling apparatus, near-eye displays comprising the same, and method of out-coupling polychromatic light
JP7000050B2 (ja) * 2017-06-29 2022-01-19 キヤノン株式会社 撮像制御装置及びその制御方法
US11754843B2 (en) 2017-07-03 2023-09-12 Holovisions LLC Augmented reality eyewear with “ghost buster” technology
US11307420B2 (en) 2017-07-03 2022-04-19 Holovisions LLC Augmented reality eyewear with “ghost buster” technology
US11163163B2 (en) 2017-07-03 2021-11-02 Holovisions Augmented reality (AR) eyewear with at least one quasi Fresnel reflector (QFR)
US10578870B2 (en) 2017-07-26 2020-03-03 Magic Leap, Inc. Exit pupil expander
US10437065B2 (en) * 2017-10-03 2019-10-08 Microsoft Technology Licensing, Llc IPD correction and reprojection for accurate mixed reality object placement
CN114777681A (zh) * 2017-10-06 2022-07-22 先进扫描仪公司 生成一个或多个亮度边缘以形成物体的三维模型
US11280937B2 (en) 2017-12-10 2022-03-22 Magic Leap, Inc. Anti-reflective coatings on optical waveguides
WO2019126331A1 (en) 2017-12-20 2019-06-27 Magic Leap, Inc. Insert for augmented reality viewing device
US10755676B2 (en) 2018-03-15 2020-08-25 Magic Leap, Inc. Image correction due to deformation of components of a viewing device
JP7319303B2 (ja) 2018-05-31 2023-08-01 マジック リープ, インコーポレイテッド レーダ頭部姿勢位置特定
US11579441B2 (en) 2018-07-02 2023-02-14 Magic Leap, Inc. Pixel intensity modulation using modifying gain values
WO2020010226A1 (en) 2018-07-03 2020-01-09 Magic Leap, Inc. Systems and methods for virtual and augmented reality
US11856479B2 (en) 2018-07-03 2023-12-26 Magic Leap, Inc. Systems and methods for virtual and augmented reality along a route with markers
US11896195B2 (en) * 2018-07-24 2024-02-13 Sony Corporation Distributed image processing system in operating theater
WO2020023543A1 (en) 2018-07-24 2020-01-30 Magic Leap, Inc. Viewing device with dust seal integration
JP7426982B2 (ja) 2018-07-24 2024-02-02 マジック リープ, インコーポレイテッド 移動検出デバイスの温度依存較正
CN112740665A (zh) 2018-08-02 2021-04-30 奇跃公司 基于头部运动的瞳孔间距离补偿的观察系统
CN116820239A (zh) 2018-08-03 2023-09-29 奇跃公司 图腾在用户交互系统中的融合姿势的基于未融合姿势的漂移校正
JP2021533919A (ja) * 2018-08-22 2021-12-09 マジック リープ, インコーポレイテッドMagic Leap, Inc. 患者視認システム
US10623660B1 (en) * 2018-09-27 2020-04-14 Eloupes, Inc. Camera array for a mediated-reality system
US11138800B1 (en) 2018-10-31 2021-10-05 Facebook Technologies, Llc Optimizations to reduce multi-channel ray casting for color sampling
US10914949B2 (en) 2018-11-16 2021-02-09 Magic Leap, Inc. Image size triggered clarification to maintain image sharpness
JP7138802B2 (ja) * 2019-01-23 2022-09-16 プロプリオ インコーポレイテッド 手術部位のメディエイテッドリアリティビューに対するリアルタイム手術画像への術前スキャン画像のアライメント
EP3921720A4 (en) 2019-02-06 2022-06-29 Magic Leap, Inc. Target intent-based clock speed determination and adjustment to limit total heat generated by multiple processors
EP3939030A4 (en) 2019-03-12 2022-11-30 Magic Leap, Inc. REGISTRATION OF LOCAL CONTENT BETWEEN FIRST AND SECOND VIEWERS OF AUGMENTED REALITY
CN114127837A (zh) 2019-05-01 2022-03-01 奇跃公司 内容提供系统和方法
CN114174895A (zh) 2019-07-26 2022-03-11 奇跃公司 用于增强现实的系统和方法
GB2588774A (en) * 2019-11-05 2021-05-12 Arspectra Sarl Augmented reality headset for medical imaging
US11030817B2 (en) * 2019-11-05 2021-06-08 Varjo Technologies Oy Display system and method of using environment map to generate extended-reality images
JP2023502927A (ja) 2019-11-15 2023-01-26 マジック リープ, インコーポレイテッド 外科手術環境において使用するための視認システム
EP4072458A4 (en) * 2019-12-10 2023-12-13 Mediview XR, Inc. SYSTEM AND METHODS FOR PLANNING AND EXECUTING THREE-DIMENSIONAL HOLOGRAPHIC RESPONSE PROCEDURES
CN111127365B (zh) * 2019-12-26 2023-08-29 重庆矢崎仪表有限公司 基于三次样条曲线拟合的hud畸变矫正方法
WO2021150921A1 (en) 2020-01-22 2021-07-29 Photonic Medical Inc Open view, multi-modal, calibrated digital loupe with depth sensing
US11153555B1 (en) * 2020-05-08 2021-10-19 Globus Medical Inc. Extended reality headset camera system for computer assisted navigation in surgery
US10949986B1 (en) 2020-05-12 2021-03-16 Proprio, Inc. Methods and systems for imaging a scene, such as a medical scene, and tracking objects within the scene
EP4013048A1 (en) * 2020-12-08 2022-06-15 Koninklijke Philips N.V. Object visualization
IL279338A (en) * 2020-12-09 2022-07-01 Point 2 Point Medical Ltd System and method for remote medical supervision
JP7224559B2 (ja) * 2020-12-10 2023-02-17 三菱電機株式会社 遠隔制御マニピュレータシステムおよび遠隔制御支援システム
US11295460B1 (en) 2021-01-04 2022-04-05 Proprio, Inc. Methods and systems for registering preoperative image data to intraoperative image data of a scene, such as a surgical scene
US20220240909A1 (en) * 2021-01-29 2022-08-04 Proprio, Inc. Clamp device for use with a tool, such as a rotatable medical tool
US20230095002A1 (en) * 2021-09-29 2023-03-30 Cilag Gmbh International Surgical methods using fiducial identification and tracking
CN114157851B (zh) * 2021-11-26 2024-03-15 长沙海润生物技术有限公司 一种穿戴式创面感染成像设备及成像方法
CN114189668B (zh) * 2021-11-26 2024-03-15 长沙海润生物技术有限公司 一种穿戴式创面成像设备及成像方法
US20230319254A1 (en) * 2022-04-02 2023-10-05 Mantis Health, Inc. Stereoscopic camera adapter for enabling down-hole data capture and transmission

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007528631A (ja) * 2004-02-20 2007-10-11 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド 3次元テレビシステム及び3次元テレビを提供する方法
JP2011248723A (ja) * 2010-05-28 2011-12-08 Sony Corp 画像処理装置および方法、並びにプログラム
JP2015524202A (ja) * 2012-06-01 2015-08-20 オステンド・テクノロジーズ・インコーポレーテッド 時空間ライトフィールドカメラ
WO2015179446A1 (en) * 2014-05-20 2015-11-26 BROWND, Samuel, R. Systems and methods for mediated-reality surgical visualization
US20160253809A1 (en) * 2015-03-01 2016-09-01 Nextvr Inc. Methods and apparatus for requesting, receiving and/or playing back content corresponding to an environment

Family Cites Families (144)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5672575A (en) 1979-11-19 1981-06-16 Toshiba Corp Picture input unit
US4694185A (en) 1986-04-18 1987-09-15 Eastman Kodak Company Light sensing devices with lenticular pixels
US6675040B1 (en) 1991-01-28 2004-01-06 Sherwood Services Ag Optical object tracking system
US6405072B1 (en) 1991-01-28 2002-06-11 Sherwood Services Ag Apparatus and method for determining a location of an anatomical target with reference to a medical apparatus
US5603318A (en) 1992-04-21 1997-02-18 University Of Utah Research Foundation Apparatus and method for photogrammetric surgical localization
US5757423A (en) 1993-10-22 1998-05-26 Canon Kabushiki Kaisha Image taking apparatus
US5999840A (en) 1994-09-01 1999-12-07 Massachusetts Institute Of Technology System and method of registration of three-dimensional data sets
US6577342B1 (en) 1998-09-25 2003-06-10 Intel Corporation Image sensor with microlens material structure
US6483535B1 (en) 1999-12-23 2002-11-19 Welch Allyn, Inc. Wide angle lens system for electronic imagers having long exit pupil distances
US6496557B2 (en) * 2000-02-09 2002-12-17 Hologic, Inc. Two-dimensional slot x-ray bone densitometry, radiography and tomography
US6711283B1 (en) * 2000-05-03 2004-03-23 Aperio Technologies, Inc. Fully automatic rapid microscope slide scanner
US6891518B2 (en) * 2000-10-05 2005-05-10 Siemens Corporate Research, Inc. Augmented reality visualization device
JP3960092B2 (ja) * 2001-07-12 2007-08-15 日産自動車株式会社 車両用画像処理装置
US20070121423A1 (en) * 2001-12-20 2007-05-31 Daniel Rioux Head-mounted display apparatus for profiling system
JP3905393B2 (ja) 2002-02-07 2007-04-18 オリンパス株式会社 手術装置
US20030210812A1 (en) 2002-02-26 2003-11-13 Ali Khamene Apparatus and method for surgical navigation
US7190331B2 (en) * 2002-06-06 2007-03-13 Siemens Corporate Research, Inc. System and method for measuring the registration accuracy of an augmented reality system
WO2004002289A2 (en) 2002-06-26 2004-01-08 Joseph Aferzon System and method for guiding surgical tools during surgical procedures
US20040044295A1 (en) 2002-08-19 2004-03-04 Orthosoft Inc. Graphical user interface for computer-assisted surgery
US7697972B2 (en) 2002-11-19 2010-04-13 Medtronic Navigation, Inc. Navigation system for cardiac therapies
KR101134208B1 (ko) * 2004-10-01 2012-04-09 더 보드 어브 트러스티스 어브 더 리랜드 스탠포드 주니어 유니버시티 촬상 장치 및 그 방법
WO2007011306A2 (en) * 2005-07-20 2007-01-25 Bracco Imaging S.P.A. A method of and apparatus for mapping a virtual model of an object to the object
CN100401972C (zh) 2005-04-28 2008-07-16 重庆金山科技(集团)有限公司 立体成像的智能胶囊式消化道内窥镜
US8295909B2 (en) 2005-06-16 2012-10-23 Brainlab Ag Medical tracking system with infrared data transfer
US9661991B2 (en) 2005-08-24 2017-05-30 Koninklijke Philips N.V. System, method and devices for navigated flexible endoscopy
WO2007115825A1 (en) 2006-04-12 2007-10-18 Nassir Navab Registration-free augmentation device and method
US20080004533A1 (en) * 2006-06-30 2008-01-03 General Electric Company Optical imaging systems and methods
EP1925256A1 (de) 2006-11-24 2008-05-28 BrainLAB AG Verfahren und Vorrichtung zur Registrierung einer anatomischen Struktur mit Markern
US8253797B1 (en) * 2007-03-05 2012-08-28 PureTech Systems Inc. Camera image georeferencing systems
US8150494B2 (en) 2007-03-29 2012-04-03 Medtronic Navigation, Inc. Apparatus for registering a physical space to image space
US8010177B2 (en) 2007-04-24 2011-08-30 Medtronic, Inc. Intraoperative image registration
WO2008130355A1 (en) 2007-04-24 2008-10-30 Medtronic, Inc. Method for performing multiple registrations in a navigated procedure
WO2008130354A1 (en) 2007-04-24 2008-10-30 Medtronic, Inc. Intraoperative image registration
US8885177B2 (en) 2007-09-26 2014-11-11 Elbit Systems Ltd. Medical wide field of view optical tracking system
WO2009040792A1 (en) 2007-09-26 2009-04-02 Elbit Systems Ltd. Wide field of view optical tracking system
US20100076306A1 (en) 2008-09-25 2010-03-25 Daigneault Emmanuel Optical camera calibration for cas navigation
US20100099981A1 (en) 2008-10-21 2010-04-22 Fishel Robert S Trans-Septal Catheterization Device And Method
WO2010067267A1 (en) 2008-12-09 2010-06-17 Philips Intellectual Property & Standards Gmbh Head-mounted wireless camera and display unit
EP2244484B1 (en) * 2009-04-22 2012-03-28 Raytrix GmbH Digital imaging method for synthesizing an image using data recorded with a plenoptic camera
JP5247590B2 (ja) * 2009-05-21 2013-07-24 キヤノン株式会社 情報処理装置及びキャリブレーション処理方法
US9648346B2 (en) 2009-06-25 2017-05-09 Microsoft Technology Licensing, Llc Multi-view video compression and streaming based on viewpoints of remote viewer
US20110098553A1 (en) 2009-10-28 2011-04-28 Steven Robbins Automatic registration of images for image guided surgery
US8643701B2 (en) 2009-11-18 2014-02-04 University Of Illinois At Urbana-Champaign System for executing 3D propagation for depth image-based rendering
CN101742347B (zh) 2010-01-04 2013-01-23 中国电信股份有限公司 实现立体显示的方法、显示装置及显示系统
WO2011134083A1 (en) 2010-04-28 2011-11-03 Ryerson University System and methods for intraoperative guidance feedback
TW201205431A (en) * 2010-07-29 2012-02-01 Hon Hai Prec Ind Co Ltd Head wearable display system with interactive function and display method thereof
US8941559B2 (en) * 2010-09-21 2015-01-27 Microsoft Corporation Opacity filter for display device
US8657809B2 (en) 2010-09-29 2014-02-25 Stryker Leibinger Gmbh & Co., Kg Surgical navigation system
WO2012149548A2 (en) 2011-04-29 2012-11-01 The Johns Hopkins University System and method for tracking and navigation
KR20130003135A (ko) 2011-06-30 2013-01-09 삼성전자주식회사 다시점 카메라를 이용한 라이트 필드 형상 캡처링 방법 및 장치
US9323325B2 (en) * 2011-08-30 2016-04-26 Microsoft Technology Licensing, Llc Enhancing an object of interest in a see-through, mixed reality display device
JP5968107B2 (ja) 2011-09-01 2016-08-10 キヤノン株式会社 画像処理方法、画像処理装置およびプログラム
CA2794898C (en) 2011-11-10 2019-10-29 Victor Yang Method of rendering and manipulating anatomical images on mobile computing device
CN104641399B (zh) * 2012-02-23 2018-11-23 查尔斯·D·休斯顿 用于创建环境并用于共享环境中基于位置的体验的系统和方法
US20190282307A1 (en) 2012-04-16 2019-09-19 Children's National Medical Center Dual-mode imaging system for tracking and control during medical procedures
WO2013158636A1 (en) 2012-04-16 2013-10-24 Azizian Mahdi Dual-mode stereo imaging system for tracking and control in surgical and interventional procedures
US20130307855A1 (en) * 2012-05-16 2013-11-21 Mathew J. Lamb Holographic story telling
EP2852326B1 (en) 2012-05-22 2018-12-05 Mazor Robotics Ltd. On-site verification of implant positioning
US9001427B2 (en) * 2012-05-30 2015-04-07 Microsoft Technology Licensing, Llc Customized head-mounted display device
US9629523B2 (en) * 2012-06-27 2017-04-25 Camplex, Inc. Binocular viewing assembly for a surgical visualization system
US9220570B2 (en) 2012-06-29 2015-12-29 Children's National Medical Center Automated surgical and interventional procedures
IL221863A (en) 2012-09-10 2014-01-30 Elbit Systems Ltd Digital video photography system when analyzing and displaying
US9008757B2 (en) 2012-09-26 2015-04-14 Stryker Corporation Navigation system including optical and non-optical sensors
EP2901671A4 (en) 2012-09-28 2016-08-24 Pelican Imaging Corp CREATING IMAGES FROM LIGHT FIELDS USING VIRTUAL POINTS OF VIEW
EP2912405B1 (en) 2012-10-29 2017-10-18 7D Surgical Inc. Integrated illumination and optical surface topology detection system and methods of use thereof
US20140192187A1 (en) * 2013-01-08 2014-07-10 Faro Technologies, Inc. Non-contact measurement device
US9916691B2 (en) 2013-02-14 2018-03-13 Seiko Epson Corporation Head mounted display and control method for head mounted display
US9462164B2 (en) 2013-02-21 2016-10-04 Pelican Imaging Corporation Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information
EP2973476A4 (en) 2013-03-15 2017-01-18 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
AU2014231341B2 (en) 2013-03-15 2019-06-06 Synaptive Medical Inc. System and method for dynamic validation, correction of registration for surgical navigation
US10426345B2 (en) 2013-04-04 2019-10-01 Children's National Medical Center System for generating composite images for endoscopic surgery of moving and deformable anatomy
US20140375772A1 (en) * 2013-06-19 2014-12-25 Thaddeus Gabara Method and Apparatus for an SR and LR 3-D Visual Images and Sharing
US11019258B2 (en) * 2013-08-21 2021-05-25 Verizon Patent And Licensing Inc. Aggregating images and audio data to generate content
IL229563A (en) 2013-11-21 2016-10-31 Elbit Systems Ltd Compact optical tracker
IL229527A (en) 2013-11-21 2015-06-30 Elbit Systems Ltd A wide-field medical tracking system
EP3073894B1 (en) 2013-11-27 2022-03-30 Children's National Medical Center Corrected 3d imaging
KR102317478B1 (ko) 2013-12-03 2021-10-25 칠드런스 내셔널 메디컬 센터 상처의 평가 및 관리를 위한 방법 및 시스템
JP6268303B2 (ja) * 2014-02-04 2018-01-24 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン 2d画像分析装置
EP3102141B1 (en) 2014-02-04 2019-08-14 Koninklijke Philips N.V. A system for visualising an anatomical target
CA2939345C (en) 2014-02-17 2022-05-31 Children's National Medical Center Method and system for providing recommendation for optimal execution of surgical procedures
JP2015192697A (ja) * 2014-03-31 2015-11-05 ソニー株式会社 制御装置および制御方法、並びに撮影制御システム
US9948911B2 (en) 2014-09-05 2018-04-17 Qualcomm Incorporated Method and apparatus for efficient depth image transformation
CA2961079A1 (en) 2014-09-24 2016-03-31 7D Surgical Inc. Tracking marker support structure and surface registration methods employing the same for performing navigated surgical procedures
IL235073A (en) 2014-10-07 2016-02-29 Elbit Systems Ltd Head-mounted view of enlarged images that are locked on an object of interest
GB2549023B (en) 2014-11-27 2020-06-17 Synaptive Medical Barbados Inc Method, system and apparatus for quantitative surgical image registration
US20210186355A1 (en) 2014-11-30 2021-06-24 Elbit Systems Ltd. Model registration system and method
IL236420A (en) 2014-12-23 2016-06-30 Ron Schneider Methods and systems for producing an enlarged 3D image
US10154239B2 (en) 2014-12-30 2018-12-11 Onpoint Medical, Inc. Image-guided surgery with surface reconstruction and augmented reality visualization
US10013808B2 (en) 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
CA2962652C (en) 2015-03-17 2019-12-03 Synaptive Medical (Barbados) Inc. Method and device for registering surgical images
US9779554B2 (en) * 2015-04-10 2017-10-03 Sony Interactive Entertainment Inc. Filtering and parental control methods for restricting visual activity on a head mounted display
WO2017011892A1 (en) 2015-07-21 2017-01-26 Synaptive Medical (Barbados) Inc. System and method for mapping navigation space to patient space in a medical procedure
US10353219B1 (en) * 2015-08-20 2019-07-16 Verily Life Sciences Llc Device, method and system to provide accommodation during a stereoscopic display
WO2017042171A1 (en) 2015-09-10 2017-03-16 Koninklijke Philips N.V. Apparatus for imaging in a medical treatment
WO2017058710A1 (en) 2015-09-28 2017-04-06 Montefiore Medical Center Methods and devices for intraoperative viewing of patient 3d surface images
US11754267B2 (en) 2015-12-10 2023-09-12 7D Surgical Inc. Optical alignment system
CN108369639B (zh) 2015-12-11 2022-06-21 虞晶怡 使用多相机和深度相机阵列的基于图像的图像渲染方法和系统
US11484363B2 (en) 2015-12-28 2022-11-01 Elbit Systems Ltd. System and method for determining the position and orientation of a tool tip relative to eye tissue of interest
IL243384A (en) 2015-12-28 2017-05-29 Schneider Ron A method and system for determining the position and orientation of an instrument's tip relative to eye tissue
CN113925610A (zh) 2015-12-31 2022-01-14 史赛克公司 用于在由虚拟对象限定的目标部位处对患者执行手术的系统和方法
DE102016200225B4 (de) 2016-01-12 2017-10-19 Siemens Healthcare Gmbh Perspektivisches Darstellen eines virtuellen Szenebestandteils
US11369436B2 (en) 2016-01-15 2022-06-28 7D Surgical Ulc Systems and methods for displaying guidance images with spatial annotations during a guided medical procedure
IL245560B1 (en) 2016-05-09 2024-01-01 Elbit Systems Ltd Optical coherence tomography (OCT) images are localized for surgical procedures in ophthalmology
SE542045C2 (en) 2016-05-15 2020-02-18 Ortoma Ab Calibration object, system, and method calibrating location of instrument in a navigation system
US20170344121A1 (en) * 2016-05-26 2017-11-30 Motorola Solutions, Inc System and method for completing a call utilizing a head-mounted display and a communication device
WO2017214735A1 (en) 2016-06-17 2017-12-21 7D Surgical Inc. Systems and methods for obtaining a structured light reconstruction of a 3d surface
EP3471646B1 (en) 2016-06-17 2023-07-05 Zimmer, Inc. System for intraoperative surgical planning
US10682188B2 (en) 2016-06-23 2020-06-16 7D Surgical Inc. Systems and methods for intraoperative spinal level verification
WO2018006167A1 (en) 2016-07-04 2018-01-11 7D Surgical Inc. Systems and methods for determining intraoperative spinal orientation
EP3481319A4 (en) 2016-07-05 2020-02-12 7D Surgical Inc. SYSTEMS AND METHODS FOR CARRYING OUT AN INTRAOPERATIVE IMAGE REGISTER
US10799315B2 (en) 2016-07-26 2020-10-13 7D Surgical Inc. Systems and methods for verification of fiducial correspondence during image-guided surgical procedures
US10398514B2 (en) 2016-08-16 2019-09-03 Insight Medical Systems, Inc. Systems and methods for sensory augmentation in medical procedures
WO2018049196A1 (en) 2016-09-09 2018-03-15 GYS Tech, LLC d/b/a Cardan Robotics Methods and systems for display of patient data in computer-assisted surgery
US11839433B2 (en) 2016-09-22 2023-12-12 Medtronic Navigation, Inc. System for guided procedures
US20180082482A1 (en) * 2016-09-22 2018-03-22 Apple Inc. Display system having world and user sensors
US10127728B2 (en) * 2016-09-30 2018-11-13 Sony Interactive Entertainment Inc. Facial feature views of user viewing into virtual reality scenes and integration of facial features into virtual reality views into scenes
US10828114B2 (en) 2016-10-18 2020-11-10 Synaptive Medical (Barbados) Inc. Methods and systems for providing depth information
IL250432A0 (en) 2017-02-02 2017-06-29 Elbit Systems Ltd Magnified imaging with high resolution and traceability for medical use
CA2960528C (en) 2017-03-08 2018-03-20 Synaptive Medical (Barbados) Inc. A depth-encoded fiducial marker for intraoperative surgical registration
CA3063693A1 (en) 2017-05-25 2018-11-29 Covidien Lp Systems and methods for detection of objects within a field of view of an image capture device
US11712304B2 (en) 2017-06-23 2023-08-01 7D Surgical ULC. Systems and methods for performing intraoperative surface-based registration and navigation
US11540767B2 (en) 2017-07-03 2023-01-03 Globus Medical Inc. Intraoperative alignment assessment system and method
US11633235B2 (en) 2017-07-31 2023-04-25 Children's National Medical Center Hybrid hardware and computer vision-based tracking system and method
US11432877B2 (en) 2017-08-02 2022-09-06 Medtech S.A. Surgical field camera system that only uses images from cameras with an unobstructed sight line for tracking
EP3664737A1 (en) 2017-08-11 2020-06-17 Brainlab AG Video based patient registration and tracking
WO2019083805A1 (en) 2017-10-23 2019-05-02 Intuitive Surgical Operations, Inc. SYSTEMS AND METHODS FOR PRESENTING ENHANCED REALITY ON A SCREEN OF A TELEOPERATION SYSTEM
US10832408B2 (en) 2017-10-26 2020-11-10 Synaptive Medical (Barbados) Inc. Patient registration systems, devices, and methods for a medical procedure
WO2019102473A1 (en) 2017-11-22 2019-05-31 Mazor Robotics Ltd. A method for verifying hard tissue location using implant imaging
GB2572594A (en) 2018-04-04 2019-10-09 Corin Ltd Implant alignment system
WO2019213103A1 (en) 2018-04-30 2019-11-07 Aih Llc System and method for real image view and tracking guided positioning for a mobile radiology or medical device
US20210077195A1 (en) 2018-05-16 2021-03-18 University Of Maryland, College Park Confidence-based robotically-assisted surgery system
CN112740666A (zh) 2018-07-19 2021-04-30 艾科缇弗外科公司 自动手术机器人视觉系统中多模态感测深度的系统和方法
US20210382559A1 (en) 2018-10-25 2021-12-09 Beyeonics Surgical Ltd Ui for head mounted display system
IL262619B (en) 2018-10-25 2020-05-31 Beyeonics Surgical Ltd System and method to automatically adjust illumination during a microsurgical procedure
WO2020140044A1 (en) 2018-12-28 2020-07-02 Activ Surgical, Inc. Generation of synthetic three-dimensional imaging from partial depth maps
CA3125166A1 (en) 2018-12-28 2020-07-02 Activ Surgical, Inc. User interface elements for orientation of remote camera during surgery
EP3920825A1 (en) 2019-02-05 2021-12-15 Smith&Nephew, Inc. Algorithm-based optimization, tool and selectable simulation data for total hip arthroplasty
US20200297426A1 (en) 2019-03-22 2020-09-24 Globus Medical, Inc. System for neuronavigation registration and robotic trajectory guidance, and related methods and devices
JP2022526626A (ja) 2019-04-08 2022-05-25 アクティブ サージカル, インコーポレイテッド 医療撮像のためのシステムおよび方法
JP7356523B2 (ja) 2019-07-03 2023-10-04 ストライカー・コーポレイション 手術ナビゲーションのための障害物回避技法
US11672607B2 (en) 2019-08-14 2023-06-13 Warsaw Orthopedic, Inc. Systems, devices, and methods for surgical navigation with anatomical tracking
US11944265B2 (en) 2019-08-16 2024-04-02 Intuitive Surgical Operations, Inc. Medical imaging systems and methods
US11710249B2 (en) 2019-12-20 2023-07-25 Unify Medical, Inc. Generation of three-dimensional scans for intraoperative imaging
US11759283B2 (en) 2019-12-30 2023-09-19 Cilag Gmbh International Surgical systems for generating three dimensional constructs of anatomical organs and coupling identified anatomical structures thereto

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007528631A (ja) * 2004-02-20 2007-10-11 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド 3次元テレビシステム及び3次元テレビを提供する方法
JP2011248723A (ja) * 2010-05-28 2011-12-08 Sony Corp 画像処理装置および方法、並びにプログラム
JP2015524202A (ja) * 2012-06-01 2015-08-20 オステンド・テクノロジーズ・インコーポレーテッド 時空間ライトフィールドカメラ
WO2015179446A1 (en) * 2014-05-20 2015-11-26 BROWND, Samuel, R. Systems and methods for mediated-reality surgical visualization
US20160253809A1 (en) * 2015-03-01 2016-09-01 Nextvr Inc. Methods and apparatus for requesting, receiving and/or playing back content corresponding to an environment

Also Published As

Publication number Publication date
US20190289284A1 (en) 2019-09-19
JP7076447B2 (ja) 2022-05-27
EP3545675A4 (en) 2020-07-01
US20240000295A1 (en) 2024-01-04
US11612307B2 (en) 2023-03-28
CN110192390A (zh) 2019-08-30
WO2018097831A1 (en) 2018-05-31
EP3545675A1 (en) 2019-10-02

Similar Documents

Publication Publication Date Title
US20240000295A1 (en) Light field capture and rendering for head-mounted displays
US20240080433A1 (en) Systems and methods for mediated-reality surgical visualization
US6891518B2 (en) Augmented reality visualization device
US10382699B2 (en) Imaging system and method of producing images for display apparatus
US9330477B2 (en) Surgical stereo vision systems and methods for microsurgery
KR20180101496A (ko) 인사이드-아웃 위치, 사용자 신체 및 환경 추적을 갖는 가상 및 혼합 현실을 위한 머리 장착 디스플레이
US11109916B2 (en) Personalized hand-eye coordinated digital stereo microscopic systems and methods
JP2016018213A (ja) 直接幾何学的モデル化によるhmdのキャリブレーション
WO2004113991A2 (en) Calibrating real and virtual views
CA3105356A1 (en) Synthesizing an image from a virtual perspective using pixels from a physical imager array
JP2023526239A (ja) 医療シーンなどのシーンを撮像してシーン内の物体を追跡する方法及びシステム
JP2023511670A (ja) 多視点カメラシステムからのデータを用いるなどで深度センサからの深度データを増強する方法及びシステム
US20230239457A1 (en) System and method for corrected video-see-through for head mounted displays
JP2005312605A (ja) 注視点位置表示装置
JP2018500690A (ja) 拡大3d画像を生成するための方法およびシステム
US10122990B2 (en) Imaging system and method of producing context and focus images
US20230147711A1 (en) Methods for generating stereoscopic views in multicamera systems, and associated devices and systems
EP4322114A1 (en) Projective bisector mirror
US20230355319A1 (en) Methods and systems for calibrating instruments within an imaging system, such as a surgical imaging system
JP2003101690A (ja) 画像処理方法及びデジタルカメラ並びに記録媒体
JP2013047875A (ja) 立体感提示装置および方法ならびにぼけ画像生成処理装置,方法およびプログラム
EP3306373A1 (en) Method and device to render 3d content on a head-up display

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201222

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220517

R150 Certificate of patent or registration of utility model

Ref document number: 7076447

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150