JP2023539962A - リアルタイム画像上に仮想画像を重ね合わせるためのシステムおよび方法 - Google Patents

リアルタイム画像上に仮想画像を重ね合わせるためのシステムおよび方法 Download PDF

Info

Publication number
JP2023539962A
JP2023539962A JP2022503559A JP2022503559A JP2023539962A JP 2023539962 A JP2023539962 A JP 2023539962A JP 2022503559 A JP2022503559 A JP 2022503559A JP 2022503559 A JP2022503559 A JP 2022503559A JP 2023539962 A JP2023539962 A JP 2023539962A
Authority
JP
Japan
Prior art keywords
real
virtual image
image
viewer
light signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022503559A
Other languages
English (en)
Inventor
フォンチュン、イエ
イン、チャン
ゴシュエン、チェン
チュンホン、チョウ
Original Assignee
ヒーズ アイピー ホールディングス エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヒーズ アイピー ホールディングス エルエルシー filed Critical ヒーズ アイピー ホールディングス エルエルシー
Publication of JP2023539962A publication Critical patent/JP2023539962A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • G02B26/0816Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light by means of one or more reflecting elements
    • G02B26/0833Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light by means of one or more reflecting elements the reflecting element being a micromechanical device, e.g. a MEMS mirror, DMD
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0693Calibration of display systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/08Biomedical applications

Abstract

開示されているのは、リアルタイム画像上に仮想画像を重ね合わせるためのシステムおよび方法である。リアルタイム画像上に仮想画像を重ね合わせるためのシステムは、リアルタイム画像モジュールおよび仮想画像モジュールを備える。リアルタイム画像モジュールは、所定の倍率で第1の場所および第1の深度に対象物のリアルタイム画像を生成する拡大組立体を備える。仮想画像モジュールは、見る人の右眼に右光信号を、見る人の左眼に対応する左光信号をそれぞれ投影することにより仮想画像を生成する。右光信号および対応する左光信号は、第2の場所および第2の深度に仮想画像を表示するように見る人により知覚される。第2の深度は、見る人の眼に投影される右光信号と対応する左光信号の間の角度に関係がある。第2の深度は第1の深度とほぼ同じである。【選択図】図1A

Description

本開示は、一般にリアルタイム画像上に仮想画像を重ね合わせるための方法およびシステムに関し、詳細には見る人の眼に多数の右光信号および対応する左光信号をリアルタイム画像上に投影することにより生成される、深度を伴う仮想画像を重ね合わせるための方法およびシステムに関する。
健康診断中、または眼科手術を含む外科手術中に医療従事者を手助けするための多くの可視化補助システムおよび方法が近年開発されてきた。医療手技中、可視化補助システムは、診療記録、写真などの手術パラメータ、磁気共鳴画像法(magnetic resonance imaging、MRI)、X線写真、コンピュータ断層撮影(computed tomography、CT)、または光干渉断層法(optical coherence tomography、OCT)などのような患者の付加的視覚情報を提供できる。場合によっては、付加的視覚情報は、印がいくつか付いたCT画像など、患者の処理された画像である。可視化補助システムは多くの場合、患者のリアルタイム画像を提供できる他の医療機器と一緒に使用される。
医療従事者は、可視化補助システムにより提供される、リアルタイム画像から分離された付加的情報を受け取ってよい。たとえば、付加的情報は、患者のリアルタイム画像を観察できる外科用顕微鏡からではなく、モニタにより別々に表示される。モニタは通常、2次元画像だけを提供できる。しかしながら、医療処置中、医療従事者は、患者のリアルタイム画像と重なった付加的視覚情報(たとえば、患者のすでに処理された画像)を観察することを望む。それに加えて、従来の可視化補助システムは、付加的視覚情報を2D画像でしか提供できない。
この結果、患者のリアルタイム画像と重なった付加的視覚情報に関する3次元画像を作り出す能力が、医療産業の主要な関心事になっている。たとえば眼科の検査および手術では、医療従事者は、眼科顕微鏡の接眼レンズを通して見て、その結果、患者の眼のリアルタイム光学画像を見ることにより手術する。しかしながら、外科医は、手技中に顕微鏡を通して患者の眼の処理された網膜画像を同時に観察できず、別個のモニタの方に自分の頭を向けて観察し、次いで顕微鏡に戻らなければならない。したがって、医療従事者が見るリアルタイム光学画像と共に可視化補助システムにより与えられる患者の付加的視覚情報を組み入れる必要が依然として存在する。
国際公開第PCT/US20/59317号
本開示の目的は、リアルタイム画像上に仮想画像を重ね合わせるためのシステムおよび方法を提供することである。リアルタイム画像上に仮想画像を重ね合わせるためのシステムは、リアルタイム画像モジュールおよび仮想画像モジュールを備える。リアルタイム画像モジュールは、所定の倍率で第1の場所および第1の深度に対象物のリアルタイム画像を生成する拡大組立体を備える。
仮想画像モジュールは、見る人の右眼に右光信号を、見る人の左眼に対応する左光信号をそれぞれ投影することにより仮想画像を生成する。右光信号および対応する左光信号は、見る人により知覚されて、第2の場所および第2の深度に仮想画像を表示する。第2の深度は、見る人の眼に投影された右光信号と対応する左光信号の間の角度に関係がある。一実施形態では、第2の深度は第1の深度とほぼ同じである。仮想画像は、リアルタイム画像上に重ね合わされて、見る人に、より多くの情報を提供する。その結果、一実施形態では、仮想画像は対象物の処理された画像である。
リアルタイム画像の倍率は調節可能である。リアルタイム画像が拡大された後、仮想画像は手作業でまたは自動的に拡大されて、仮想画像とリアルタイム画像の間の最初の重ね合わせを維持してよい。重ね合わせのための自動モードが選択されてよい。
リアルタイム画像上に仮想画像を重ね合わせるために、システムは最初に、見る人に関して較正されなければならない。あらゆる見る人の眼は、瞳孔間距離を含む異なる物理的特性を有するので、システムは、見る人の眼の中に投影された右光信号および左光信号を用いて、見る人が第2の場所および第2の深度に表示された仮想画像を知覚することを確実にするために、見る人に関して具体的に較正されなければならない。
リアルタイム画像上に仮想画像を重ね合わせる処理は、(a)第1の目印としてリアルタイム画像上の第1の点を選択するステップ、(b)所定の倍率で第1の場所および第1の深度にリアルタイム画像を表示するステップ、ならびに(c)仮想画像上の対応する第1の目印がリアルタイム画像上の第1の目印と重なるように、見る人が第2の場所および第2の深度に仮想画像を知覚するように、見る人の右眼に右光信号を、見る人の左眼に対応する左光信号をそれぞれ投影することにより仮想画像を投影するステップを含む。一実施形態では、リアルタイム画像上の第1の目印の深度は、仮想画像上の対応する第1の目印の深度とほぼ同じである。より正確な重ね合わせをするために、類似の手法で第2の目印および第3の目印を使用してよい。
本開示の付加的な特徴および利点について以下の記述に示されており、一部は記述から明らかになる、または本開示を実践することによって学ばれてよい。本開示の目的および他の有利な利点は、それらの書面による記述および特許請求の範囲だけではなく添付図面で詳細に指摘される構造および方法により実現および達成される。前述の一般的説明も以下の詳細な説明も代表的なものであり、説明のためであり、特許請求される本発明の説明をさらに提供することが意図されることを理解されたい。
本発明による、システムの実施形態を例示する概略図である。 本発明による、システムの別の実施形態を例示する概略図である。 本発明による、システムの仮想画像モジュール内のコリメータを例示する概略図である。 本発明による、さまざまなモジュールを伴うシステムの実施形態を提示する構造図である。 本発明による、システムの可能な実施形態を例示する概略図である。 本発明による、システムの可能な実施形態を例示する概略図である。 本発明による、対象物とリアルタイム画像と仮想画像との間の関係の実施形態を例示する概略図である。 本発明による、リアルタイム画像上での網膜の仮想画像重ね合わせを例示する写真である。 本発明による、リアルタイム画像上に仮想画像を重ね合わせるための処理の実施形態を例示する流れ図である。 本発明による、リアルタイム画像上に仮想画像を重ね合わせるための処理の別の実施形態を例示する流れ図である。 本発明による、仮想画像モジュールの実施形態を例示する概略図である。 本発明による、仮想両眼画素と右画素および左画素の対応する対との間の関係を例示する概略図である。 本発明による、光信号発生器からビームスプリッタおよび見る人の網膜に至る光路を例示する概略図である。 本発明による、右光信号および左光信号により形成される仮想両眼画素を例示する概略図である。 本発明による、ルック・アップ・テーブルの実施形態を例示するテーブルである。
以下で提示する記述で使用する専門用語は、技術のある種の特有の実施形態の詳細な記述に関連して使用されるとしても、その用語の最も広い合理的な手法で解釈されることが意図される。ある種の用語は以下で強調される場合さえあるが、しかしながら、任意の制限された手法で解釈されることを意図されるどんな専門用語も、この「発明を実施するための形態」の節でそのようなものとして具体的に規定される。
本開示は、リアルタイム画像上に仮想画像を重ね合わせるためのシステムおよび方法に関する。深度を伴う仮想画像は、リアルタイム画像の上に重ね合わされて手術のガイダンス、指示、ナビゲーションなどのような、リアルタイム画像に関連するより多くの情報を見る人に提供してよい。リアルタイム画像は、対象物の変化をリアルタイムで反映する画像である。
リアルタイム画像は、2次元(2D)画像であっても、3次元(3D)画像であってもよい。一実施形態では、リアルタイム画像は、対象物から、たとえば顕微鏡または望遠鏡により観察される画像から反射または放出される光により生成される。別の実施形態では、リアルタイム画像は、おそらくはカメラによりリアルタイムの手法で撮られる対象物の画像を、たとえば内視鏡から得られる表示装置上の画像を受信する表示装置により生成される。これに加えて、リアルタイム画像は、現実の画像であっても、仮想画像であってもよい。深度を伴う仮想画像は、見る人の両眼に光信号を投影することにより生成される。仮想画像の深度は、見る人の眼に投影される右光信号と対応する左光信号の間の角度に関係がある。仮想画像は2D画像であっても、3D画像であってもよい。仮想画像がリアルタイム画像の上に重ね合わされたとき、仮想画像の一部分はリアルタイム画像と重なる。
リアルタイム画像上に仮想画像を重ね合わせるためのシステムは、リアルタイム画像モジュールおよび仮想画像モジュールを備える。リアルタイム画像モジュールは、所定の倍率で第1の場所および第1の深度に対象物のリアルタイム画像を生成する拡大組立体を備える。倍率は、対象物の物理的サイズではなく見かけのサイズを増大する処理である。この拡張は、対象物の(リアルタイム画像の)見かけのサイズと倍率なしの対象物の観察されたサイズの間の比である「倍率」とも呼ばれる計算値により定量化される。倍率は調節可能であり、0.5、1、および10などの任意の正値であってよい。倍率が1未満であるとき、サイズ低減と呼ばれ、場合によっては縮小(minification)または脱拡大(de-magnification)と呼ばれることがある。
仮想画像モジュールは、見る人の右眼に右光信号を、見る人の左眼に対応する左光信号をそれぞれ投影することにより仮想画像を生成する。右光信号および対応する左光信号は、第2の場所および第2の深度に仮想画像を表示するように見る人により知覚される。第2の深度は、見る人の眼に投影された右光信号と対応する左光信号の間の角度に関係がある。一実施形態では、第2の深度は第1の深度とほぼ同じである。
仮想画像は、リアルタイム画像上に重ね合わされて、見る人に、より多くの情報を提供する。たとえば、一実施形態では、仮想画像は対象物の処理された画像である。たとえば、対象物は脳であってよく、リアルタイム画像は、外科用顕微鏡によりリアルタイムに生成された脳画像である。仮想画像は、外科手術前に撮られた脳のCT画像またはMRI画像であってよく、外科手術で取り除かれる脳腫瘍の場所に印が付けられる。印の付いた仮想画像は、外科手術中に脳のリアルタイム画像の上に重ね合わされて、取り除かれる脳腫瘍の場所を外科医が識別するのを補助する。この状況では、外科手術の場所に関して正確であるために、仮想画像(印の付いたCT画像またはMRI画像)の第2の深度は、リアルタイム画像、すなわち外科用顕微鏡から得られる実際の脳画像の第1の深度とほぼ同じである。
仮想画像は、診断および処置を補助するためのガイダンスおよび説明のための何らかのテキスト情報、印、およびポインタをさらに含んでよい。それに加えて、画像重ね合わせにより、見る人は、仮想画像により提示された対象物の以前の画像とリアルタイム画像により提示される対象物の現在の状態を比較し、その結果、疾患進行および処置結果を推定できるようになってよい。
リアルタイム画像の倍率は調節可能である。一実施形態では、そのような調節は、ノブを回転させること、対物レンズを変更すること、仮想スイッチを制御すること、または口頭による指示を与えることにより、手作業で達成できる。リアルタイム画像が拡大された後、仮想画像は手作業でまたは自動的に拡大されて、仮想画像とリアルタイム画像の間の最初の重ね合わせを維持してよい。重ね合わせのための自動モードを選択してよい。
リアルタイム画像上に仮想画像を重ね合わせるために、システムは最初に、見る人に関して較正されなければならない。あらゆる見る人の眼は、瞳孔間距離(interpupillary distance、IPD)を含む、異なる物理的特性を有するので、システムは、見る人の眼の中に投影された右光信号および左光信号を用いて見る人が第2の場所および第2の深度に表示される仮想画像を知覚することを確実にするために、見る人に関して具体的に較正されなければならない。たとえば、顕微鏡の右接眼レンズと左接眼レンズの間の距離は、見る人の瞳孔間距離に適合するように調節される必要があり、右光信号と対応する左光信号の間の角度は、見る人により、正確に第2の深度に仮想画像が知覚されるように調節される必要がある。
リアルタイム画像上に仮想画像を重ね合わせる処理は、(a)第1の目印としてリアルタイム画像の第1の点を選択するステップ、(b)所定の倍率で第1の場所および第1の深度にリアルタイム画像を表示するステップ、ならびに(c)仮想画像上の対応する第1の目印がリアルタイム画像上の第1の目印に重なるように、見る人が第2の場所および第2の深度に仮想画像を知覚するように、見る人の右眼に右光信号を、見る人の左眼に対応する左光信号をそれぞれ投影することにより仮想画像を投影するステップを含む。上記で論じるように、第2の深度は、見る人の眼に投影された右光信号と対応する左光信号の間の角度に関係がある。一実施形態では、リアルタイム画像上の第1の目印の深度は、仮想画像上の対応する第1の目印の深度とほぼ同じである。より正確な重ね合わせを行うために、類似の手法で第2の目印および第3の目印を使用してよい。
図1Aおよび図1Bに示すように、リアルタイム画像115上に仮想画像165を置くためのシステム100は、リアルタイム画像モジュール110および仮想画像モジュール160を含む。リアルタイム画像モジュール110は、見る人の両眼のために脳などの対象物105の拡大リアルタイム画像を生成する拡大組立体120を含んでよい。拡大組立体120は、対物レンズ113を含むさまざまなタイプのレンズなど、多数の光学ユニットおよび組立体を含んでよい。別の実施形態では、拡大組立体120は、対象物105のリアルタイム画像を処理および拡大する電子回路を使用してよい。リアルタイム画像モジュールの倍率は、観察前に決定されてよく、観察中に調節可能であってよい。倍率は1/2、1、3、10、100などであってよい。倍率調節は、リアルタイム画像モジュールと通信状態にあるユーザインタフェースを介して遂行されてよい。
リアルタイム画像モジュールは、見る人の両眼用にリアルタイム画像を生成する1組の光学ユニットおよび組立体を、または見る人の右眼および左眼用にリアルタイム画像をそれぞれ生成する別個の2組の光学ユニットおよび組立体を有してよい。リアルタイム画像モジュール110は、光の方向を変えるプリズム組立体130、光を分裂させるビームスプリッタ140、145、光を誘導する観察筒150、および画像をさらに拡大する接眼レンズ152、154をさらに含んでよい。さらにまた、リアルタイム画像は、外科用顕微鏡を含む顕微鏡により生成されたリアルタイム画像など、対象物105から反射または放出される光から生成されてよい。別の実施形態では、リアルタイム画像は、内視鏡およびその関連する表示装置などの画像取込機器および表示機器により生成されてよい。画像のサイズおよび解像度に応じて、リアルタイム画像は、実際にまたは概念上1280×720のアレイ内に921,600画素を包含してよい。各画素は、その近接する画素とわずかに異なる場所および深度を有してよい。
リアルタイム画像に関して第1の目印などの代表的画素を選択してよい。第1の目印および第2の目印などの目印は通常、中心点、2つの特有の血管の交差点など、リアルタイム画像内で、見る人により、容易に認識されてよい識別可能な特徴を伴う固有の点である。目印は画素であっても、互いに近接する多数の画素を備えてもよい。一実施形態では、代表的画素の場所および深度は、リアルタイム画像の場所および深度として、すなわち、第1の場所および第1の深度として使用されてよい。
リアルタイム画像モジュール110と接続されるように構成された仮想画像モジュール160は、右光信号発生器170および左光信号発生器175を含む。右光信号発生器170は、仮想画像に関する多数の右光信号を生成し、リアルタイム画像モジュールの右側部分の近くに位置する可能性が高い。同様に、左光信号発生器175は、仮想画像に関する多数の左光信号を生成し、リアルタイム画像モジュールの左側部分の近くに位置する可能性が高い。右光信号は、次いで右ビームスプリッタ140により、見る人の一方の眼に向けて向きを変えられる。同様に、左光信号は、次いで左ビームスプリッタ145により、見る人の他方の眼に向けて向きを変えられる。向きを変えられた右光信号および向きを変えられた対応する左光信号は、見る人により知覚されて、第2の深度に仮想画像を表示する。
画像のサイズおよび解像度に応じて仮想画像は、実際に1280×720のアレイ内に921,600の仮想両眼画素を包含してよい。各仮想両眼画素は、その近接する画素とわずかに異なる場所および深度を有してよい。仮想画像に関して、第1の目印などの代表的仮想両眼画素が選択されてよい。一実施形態では、仮想画像に関して代表的仮想両眼画素の場所および深度を、すなわち第2の場所および第2の深度を使用してよい。見る人の眼が代表的仮想両眼画素の、向きを変えられた右光信号および向きを変えられた対応する左光信号を受け取った後、見る人は、そのような向きを変えられた右光信号と向きを変えられた対応する左光信号の間の角度に関係がある第2の深度に代表的仮想両眼画素を知覚する。
リアルタイム画像の光ビームはまた、右ビームスプリッタ140および左ビームスプリッタ145を通して、見る人の眼に向けて進んでよい。その結果、ある程度まで、右ビームスプリッタ140および左ビームスプリッタ145は、リアルタイム画像モジュールと仮想画像モジュールの両方により共用される。一実施形態では、リアルタイム画像を他の見る人と共用するために当初リアルタイム画像モジュール内に設置されたビームスプリッタは、仮想画像モジュールから生成された光信号を、見る人の眼に向けて向きを変えるために、適切な角度だけ回転させることができる。
図1Bおよび図1Cに示すように、仮想画像モジュール160は、見る人のために仮想画像の明瞭性を改善するために、右光信号発生器170(または利用可能である場合には右コリメータ180)と右ビームスプリッタ140の間に右焦点調節ユニット182を、左光信号発生器175(利用可能である場合には右光コリメータ185)と左ビームスプリッタ145の間に左焦点調節ユニット187をさらに含んでよい。右/左焦点調節ユニットは、凸レンズを含むさまざまなタイプのレンズなどの光学ユニットを含んでよい。
焦点調節ユニットとして凸レンズを使用する一実施形態では、光信号発生器とビームスプリッタの間の距離が同じままであると仮定して、光信号発生器と凸レンズの距離を調節することにより光ビームの焦点の場所は変化する。光ビームの焦点の場所が網膜に近いほど、それだけ見る人にとって仮想画像は明瞭になる。見る人の眼の眼軸長は変動することがあるので、それに応じて光ビームの好ましい焦点の場所、およびその結果、光信号発生器と焦点調節ユニットの間の距離は変動する。換言すれば、より長い眼軸長を有する見る人にとって、焦点調節ユニットは、光ビームの焦点の場所が見る人の網膜により近くなるように光信号発生器からより遠く離れている必要がある。コリメータが利用可能であるとき、焦点調節ユニットは、コリメータとビームスプリッタの間に位置決めされる。コリメータを通過した後、光信号発生器からの光ビームは実質的に平行になり、次いで焦点調節ユニットを通過した後に集光する。それに加えて、焦点調節ユニットは光ビームの入射角を変えないので、仮想画像の深度は影響を受けない。
図1Cに部分的に示すように、仮想画像モジュール160は、多数の光信号の光ビームを狭めるため、たとえば、動く方向を特有の方向にもっと整列するようにするため、または光ビームの空間横断面がより狭くなるようにするために、右コリメータ180および左コリメータ185をさらに含んでよい。右コリメータ180は、右光信号発生器170と右ビームスプリッタ140の間に位置決めされてよく、左コリメータ185は、左光信号発生器175と左ビームスプリッタ145の間に位置決めされてよい。コリメータは、湾曲した鏡またはレンズであってよい。
これに加えて、仮想画像モジュール160は、右光信号発生器175および左光信号発生器175に関する仮想画像信号を制御する制御モジュール190を含んでよい。制御モジュール190は、リアルタイム画像の変動に基づきリアルタイム画像の上に仮想画像を重ね合わせるために、仮想画像が自動的に修正されてよいように仮想画像モジュール160に通信可能に連結されて、右光信号および対応する左光信号を調節する。
リアルタイム画像の変動は、視野角、倍率、または場所の変動を含む。たとえば、リアルタイム画像の倍率が3倍から10倍などに調節されたとき、制御モジュール190は、画像信号を処理して、仮想画像を同じサイズまで拡大して、少なくとも第1の目印を使用して、仮想画像がリアルタイム画像の上に重ね合わされ続けているようにする。制御モジュール190は、1つまたは複数のプロセッサを含むが、複雑な信号処理のために計算用外部サーバ250を使用してよい。
仮想画像はメモリモジュール195に記憶されてよい。一実施形態では、仮想画像は、関心のある領域にいくつかの目印またはハイライトを伴う、対象物のX線画像、超音波画像、CT画像、およびMRI画像など、対象物の処理された画像である。仮想画像は、ガイダンスまたは説明用にいくつかのテキスト情報およびポインタをさらに含んでよい。たとえば、仮想画像は、レーザによりふさがれる出血血管上に印を伴う、患者の以前に撮られ処理された網膜画像であってよい。システム100は、そのような仮想画像を細隙灯顕微鏡から得られる、同じ網膜のリアルタイム画像上に重ね合わせてよい。制御モジュール190は、必要なときはいつでも、メモリモジュール195に記憶された仮想画像を取り出し、次いで右光信号発生器170および左光信号発生器175に関する仮想画像を生成してよい。
図2に示すように、リアルタイム画像モジュール110および仮想画像モジュール160に加えて、システム100は、リアルタイム画像および仮想画像のいずれかまたは両方を記録する記録モジュール210、対象物の場所および深度を測定する対象物測定モジュール220、対象物105に対して外科手術を物理的に遂行する外科手術モジュール230、および見る人がシステム100のさまざまなモジュールと通信して、システム100のさまざまな機能を制御するユーザインタフェース240をさらに含んでよい。
システム100のモジュールはすべて、有線または無線の手法を介した互いの電子通信を有してよい。無線の手法は、Wi-Fi(登録商標)、Bluetooth(登録商標)、近距離無線通信(near field communication、NFC)、インターネット、電気通信、無線周波数(radio frequency、RF)などを含んでよい。リアルタイム画像モジュール110、仮想画像モジュール160、および記録モジュール210は、光ビームおよび光信号を介した互いの光通信を有してよい。見る人は、システム100を通してリアルタイム画像および仮想画像を観察し、次いでユーザインタフェース240との物理的相互作用を介してシステム100を制御してよい。システム100は、対象物から反射または放出される光ビームを受信する、および対象物の上に光ビームを投影するなど、対象物105との光通信を有してよい。システム100は、対象物に対してレーザ手術を遂行するなど、対象物との物理的相互作用を有してよい。
上記で記述するように、システム100は、リアルタイム画像および仮想画像のいずれかまたは両方を記録する記録モジュール210をさらに含んでよい。一実施形態では、記録モジュール210は、リアルタイム画像、すなわち、外科手術中にそれぞれ右ビームスプリッタおよび左ビームススプリッタにより反射された、対象物から得られる光ビームを記録するために、右ビームスプリッタ140と左ビームスプリッタ145の間に位置決めされてよい。
記録モジュール210は、画像を取り込むデジタルカメラまたは電荷結合素子(charge-coupled device、CCD)を含んでよい。別の実施形態では、記録モジュール210は、リアルタイム画像および仮想画像を形成する両方のビームを含む、接眼レンズを通過するが見る人の眼に到達する前の光ビームを記録するために、接眼レンズに近接して位置決めされてよい。記録モジュール210は、制御ユニットに接続されて、仮想画像信号、および関連情報、およびさらに表示するためのパラメータを直接記録してよい。
上記で記述するように、システム100は、対象物の場所および深度を測定する対象物測定モジュール220をさらに含んでよい。システムに接続されるように構成された対象物測定モジュール220は、対象物測定モジュール(または見る人)を基準にして対象物の場所および深度を連続的または周期的に測定し、仮想画像を調節するために仮想画像モジュールに関連情報を伝達してよい。そのような情報を受信すると、制御モジュール190は、対象物測定モジュールおよび見る人を基準として更新された対象物の場所および深度に基づき仮想画像信号を処理してよい。その結果、仮想画像は、リアルタイム画像の上に重ね合わされたままであってよい。
対象物105と対象物測定モジュール220(または見る人の眼)の間の距離または相対的場所は、時間を通して変化してよい。ある状況では、眼球のような人体の一部分などの対象物105は、外科手術中に動くことがある。別の状況では、システム100は、外科医などの見る人により装着されてよく、見る人は、外科手術中に自分の頭を動かしてよい。その結果、対象物105と見る人の眼の間の相対的な場所および距離は測定されて、リアルタイム画像上への仮想画像重ね合わせを維持するために計算される必要がある。対象物測定モジュール220は、ジャイロスコープ、室内/室外全地球測位システム(global positioning system、GPS)、および対象物105のそのような相対的な場所および深度の変動に正確に追従する距離測定構成要素(たとえば、放射体およびセンサ)を含んでよい。
上記で記述するように、システム100は、対象物105に対して外科手術を物理的に遂行する外科手術モジュール230をさらに含んでよい。外科手術モジュール230は、組織を除去する、もしくは出血血管をふさぐレーザ、および/または組織を切断するメスを含んでよい。外科手術モジュール230は、リアルタイム画像に示すように、リアルタイム画像モジュール110と連係して、見る人、たとえば外科医により識別された関心のある地点に向けてレーザおよび/またはメスを位置決めしてよい。
上記で記述するように、システム100は、見る人がシステム100のさまざまな機能、たとえばリアルタイム画像の拡大、仮想画像の第2の場所および第2の深度、焦点調節ユニット、記録モジュール210、対象物測定モジュール220などを制御するユーザインタフェース240をさらに含んでよい。ユーザインタフェース240は音声、手ぶり、指/足の動きにより、およびペダル、キーボード、マウス、ノブ、スイッチ、スタイラス(登録商標)、ボタン、スティック、タッチ画面の形で動作させられてよい。
ユーザインタフェース240は、有線または無線の手法を介してシステム100の(リアルタイム画像モジュール110、仮想モジュール160、記録モジュール210、対象物測定モジュール220、および外科手術モジュール230を含む)他のモジュールと通信してよい。無線の手法は、Wi-Fi、Bluetooth、近距離無線通信(NFC)、インターネット、電気通信、無線周波数(RF)などを含んでよい。見る人は、スティックを制御するなど、ユーザインタフェース240を使用して、リアルタイム画像上で関心のある地点にカーソルを動かし、次いでペダルを踏むなど、ユーザインタフェース240を使用して組織を除去する、または出血血管をふさぐために、対象物105上で関心のある対応する地点に向けてレーザビームを起動してよい。
一実施形態では、システム100は、AR検眼鏡およびAR細隙灯顕微鏡などの、外科手術および/または診断のためのAR顕微鏡であってよい。図3Aは、ユーザインタフェースペダル320を含む固定AR外科用顕微鏡310の例を示す。図3Bは、携帯型AR外科用顕微鏡350、すなわちリアルタイム画像モジュール370および仮想画像モジュール360を含む頭部装着可能機器の例を示す。リアルタイム画像モジュール370は、仮想画像モジュール360に取り付けられるが、仮想画像モジュール360と分離可能である。
図4に示すように、対象物105、リアルタイム画像モジュール110により生成されたリアルタイム画像115、および仮想画像モジュール160により生成された仮想画像165は、異なる場所および深度を有してよい。この実施形態では、仮想画像165は、対象物105の処理された部分的画像である。仮想画像モジュール160は、対象物の関心のある視野または領域に関する仮想画像165だけを生成してよい。対象物の画像は、1秒などの非常に短い時間間隔の範囲内に仮想画像を生成するために、たとえば人工知能(artificial intelligence、AI)モジュールにより取り込まれ、処理されてよい。
すでに記述したように、解像度に応じて、対象物105、リアルタイム画像115、および仮想画像165は、1280×720のアレイ内の921,600画素など、多数の画素を概念的にまたは実際に備えてよい。この実施形態では、対象物105、リアルタイム画像115、および仮想画像165の場所および深度は、それぞれそれらの対応する第1の目印の場所および深度により表される。深度は、接眼レンズ152と対象物105、またはリアルタイム画像115、または仮想画像165との間の距離に基づき測定される。これに応じて、図4に示すように、対象物105は、対象物位置L(o)および対象物深度D(o)に位置し、リアルタイム画像115、すなわち対象物105の拡大された画像は、第1の場所L(r)および第1の深度D(r)に位置し、仮想画像165は、第2の場所L(v)および第2の深度D(v)に位置する。
リアルタイム画像モジュールの光学的特徴に応じて、リアルタイム画像115の深度は、見る人の眼により近くなっても、より遠くなってもよい。この実施形態では、リアルタイム画像の深度D(r)は、対象物の深度D(o)よりも大きい。しかしながら、他の実施形態では、リアルタイム画像の深度D(r)は、対象物の深度D(o)よりも小さくても、ほとんど同じであってもよい。この場合、仮想画像165は、仮想画像モジュール160によりリアルタイム画像115よりも接眼レンズにより近い深度D(v)に生成される。
L(r)およびD(r)の情報を用いて、図4に示すように、システム100の仮想画像モジュール160は、リアルタイム画像上の第1の目印LM1(r)と仮想画像上の対応する第1の目印LM1(v)を重ねることにより、リアルタイム画像上に仮想画像を重ね合わせてよい。より高度の重ね合わせのために、システム100の仮想画像モジュール160はさらに、リアルタイム画像上の第2の目印LM2(r)と仮想画像上の対応する第2の目印LM2(v)を重ねてよい。
重ね合わせが、目印の場所に関して、目印を重ねること以上に及ぶ別の実施形態では、仮想画像上の対応する第1の目印の深度は、リアルタイム画像上の第1の目印の深度とほぼ同じであってよい。同様に、仮想画像上の対応する第2の目印の深度は、リアルタイム画像上の第2の目印の深度とほぼ同じであってよい。3Dリアルタイム画像上に3D仮想画像を正確かつ完全に重ね合わせるために、第1の目印および第2の目印に加えて、リアルタイム画像上の第3の目印が選択される。この場合、仮想画像モジュールは、仮想画像上の対応する第3の目印の場所および深度が、リアルタイム画像上の第3の目印の場所および深度とほぼ同じになるようにする。
図5は、3つの画像、すなわち、患者の網膜のリアルタイム画像、網膜の処理された仮想画像、および両方を重ね合わせた画像を例証する。一実施形態では、患者の網膜の血管造影画像は、おそらくは細隙灯顕微鏡により取り込まれ処理される。この場合、仮想画像モジュール160は、そのような処理された画像を使用して、重ね合わされた仮想画像を外科手術中に患者の網膜のリアルタイム画像の上に投影して、脈絡膜新生血管膜の縁部の識別および可視化に役立つことがある。AR/MR顕微鏡は、さまざまな眼科の障害および疾患の診断および治療を大いに容易にすることがある。
図6に示すように、リアルタイム画像上に仮想画像を重ね合わせる処理は4つのステップを含む。
ステップ610で、見る人、専門科、コンピュータ、またはシステム100により第1の目印としてリアルタイム画像上の第1の点が選択される。たとえば、見る人は、マウスまたはスティックを制御して、接眼レンズから見ることができるカーソルまたはポインタを動かして、リアルタイム画像上で第1の目印を選択する。上記で記述するように、第1の目印、第2の目印、および第3の目印を含む目印は、通常は中心点、2つの特有の血管の交差点など、見る人によりリアルタイム画像内で容易に認識されてよい識別可能な特徴を伴う固有の点である。目印は、専門科により手作業で、またはコンピュータ・プログラムにより自動的に規定されてよい。3つの基本的タイプの目印が、すなわち解剖学的目印、数学的目印、および擬似目印が存在する。解剖学的目印は、生体内の生物学的に意味のある点である。どの解剖学的特徴も、すなわち、ひだ、隆起、管、血管などは、特有の構造または位置を示すのに役立つ組織内に常に存在する。解剖学的目印は、検体配向のために外科病理医により使用されてよい。数学的目印は、何らかの数学的または幾何学的特性により配置された形状内の点、実例では大きな湾曲点、極限点である。コンピュータ・プログラムは、自動パターン認識のために使用される数学的目印を決定してよい。擬似目印は、解剖学的目印または数学的目印の間に位置する構造化された点である。典型的な例は、形状からより多くのサンプル点を得るために、2つの解剖学的目印の間に等間隔に配置された1組の点である。擬似目印は、照合処理が多数の点を必要とするとき、形状照合中に有用である。目印は画素であってよい、または互いに近接する多数の画素を備えてよい。
ステップ620で、対象物のリアルタイム画像は、所定の倍率で第1の場所および第1の深度に表示される。上記で記述するように、少なくとも2つのタイプのリアルタイム画像が存在する。第1のタイプのリアルタイム画像は、対象物、たとえば顕微鏡または望遠鏡により観察される画像から反射または放出される光により生成される。この状況では、第1の場所および第1の深度は、リアルタイム画像モジュールの光学的特徴により決定されてよい。見る人は、接眼レンズを通してリアルタイム画像を観察してよい。第2のタイプのリアルタイム画像は、おそらくはカメラによりリアルタイムの手法で撮られる対象物の画像を、たとえば胃内視鏡、大腸内視鏡、または直腸鏡を含む内視鏡から得られる表示装置上の画像を受信する表示装置により生成される。内視鏡は、3D画像を得る、および3D画像を生成するために別個に位置決めされた2つの画像取込機器を有してよい。リアルタイム画像は、2次元(2D)画像であっても、3次元(3D)画像であってもよい。ステップ610およびステップ620は交換可能である。
ステップ630で、仮想画像モジュールは、特定の見る人に関して較正される。すでに記述したように、瞳孔間距離など、見る人それぞれの何らかの物理的特性は、見る人が同じ右光信号および対応する左光信号で知覚する仮想画像の場所および深度に影響を及ぼすことがある。一実施形態では、制御モジュールは、右光信号発生器170および左光信号発生器175が適切な場所および角度に光信号を投影して、見る人が正確に第2の場所および第2の深度に仮想画像を知覚するのを確実にするために、見る人のIPDに基づき仮想画像信号を調節してよい。
ステップ640で、仮想画像モジュールは、仮想画像上の対応する第1の目印がリアルタイム画像上の第1の目印に重なるように、見る人が第2の場所および第2の深度に仮想画像を認識するように、見る人の右眼に右光信号を、見る人の左眼に対応する左光信号をそれぞれ投影することにより仮想画像を投影する。換言すれば、仮想画像モジュールは、仮想画像を投影して、リアルタイム画像上に重ね合わせる。
仮想画像上の対応する第1の目印の少なくとも場所(第2の場所)は、リアルタイム画像上の第1の目印の場所(第1の場所)とほぼ同じである。一般に仮想画像は、解像度に応じて多数の仮想両眼画像、たとえば1280×720のアレイ内の921,600の仮想両眼画素に分割される。見る人の網膜の上に投影される右光信号およびその対応する左光信号ごとに、見る人は、特有の場所および深度に仮想両眼画素を知覚する。深度は、見る人の眼の中に投影された右光信号と対応する左光信号の角度に関係がある。リアルタイム画像上の第1の目印が第1の場所および第1の深度にあるとき、仮想画像上の対応する第1の目印の仮想両眼画素は、見る人により第2の場所および第2の深度に知覚されるように投影される。最初の重ね合わせについては、仮想画像上の対応する第1の目印の場所(第2の場所)は、リアルタイム画像上の第1の目印の場所(第1の場所)とほぼ同じになるように設定されるが、一方では、2つの場所の深度は異なってよい。この重ね合わせは、見る人により手作業で、または人工知能(AI)アルゴリズムを含む形状認識技術を使用してシステム100により自動的に達成できる。
重ね合わせをさらに改善するために、第2の深度は、第1の深度とほぼ同じになるように設定される。それに加えて、リアルタイム画像が対象物の実際のサイズから拡大された場合、仮想画像は、重ね合わせのために同じ程度まで拡大される必要がある。さらに、重ね合わせをさらに改善するために、仮想画像の視野角は、リアルタイム画像の視野角に整合する必要がある。光信号発生器により生成される光信号と見る人により知覚される深度の間の関係について以下で詳細に記述する。
ステップ650で、リアルタイム画像の場所、倍率、または視野角が変動する場合、仮想画像モジュールは、仮想画像を修正して、仮想画像とリアルタイム画像の間の重ね合わせを維持する。リアルタイム画像の場所、倍率、および視野角の変動は、見る人の操作、または対象物もしくは見る人の動きにより引き起こされることがある。システム100は、リアルタイム画像の第1の場所および第1の深度、ならびに仮想画像の第2の場所および第2の深度を常に監視する。リアルタイム画像に何か変動が発生すると、仮想画像モジュールは、仮想画像信号を修正して、仮想画像とリアルタイム画像の間の重ね合わせを維持する。
図7に示すように、リアルタイム画像上に仮想画像を重ね合わせる代替処理は、6つのステップを含む。いくつかのステップは、図6に示す先行する実施形態で記述されるステップと同じ、またはそれらに類似する。いくつかのステップは任意選択であり、さらに変えることができる。
ステップ710で、リアルタイム画像上の第1の点、第2の点、および第3の点は、見る人、専門科、コンピュータ、またはシステム100によりそれぞれ第1の目印、第2の目印、および第3の目印として選択される。最も正確な重ね合わせのために、この場合3つの目印が使用される。脳神経外科手術などのいくつかの外科手術は、非常に高いレベルの精度を必要とし、その結果、仮想画像がリアルタイム画像の上に完全に重ね合わせられることを確実にするために、3つの目印が必要とされることがある。しかしながら、必要に応じて処理は2つの目印を含んでよい。ステップ720はステップ620と同じあってよく、ステップ730はステップ630と同じであってよい。
ステップ740は、ステップ640に関して記述された同じ原理に従う。しかしながら、仮想画像上の対応する第1の目印、第2の目印、および第3の目印の場所および深度は、それぞれリアルタイム画像上の第1の目印、第2の目印、および第3の目印の場所および深度とほぼ同じである。ステップ750で、第1の場所および第1の深度は、反復して監視され、測定される。第1の場所および第1の深度は、対象物測定モジュールにより測定された、対象物測定モジュール(または見る人)を基準にした対象物の場所および深度に基づき計算されてよい。その結果、仮想画像は、リアルタイム画像上に重ね合わされたままでいることができる。ステップ760で、見る人、たとえば外科医は、見る人により識別された関心のある地点でレーザまたはメスにより対象物に対して手術を遂行する。
仮想画像モジュール160、ならびに第2の場所および第2の深度に仮想画像165を生成する方法だけではなく、望むように仮想画像を動かす方法についても、以下で詳細に論じる。2020年11月6日に提出された、「SYSTEM AND METHOD FOR DISPLAYING AN OBJECT WITH DEPTHS(深度を有する対象物を表示するためのシステムおよび方法)」と題する国際公開第PCT/US20/59317号は、全体が本明細書に援用される。
図8に示すように、仮想画像モジュール160は、RLS_1に関する12、RLS_1に関する14、およびRLS_3に関する16など、多数の右光信号を生成する右光信号発生器170,多数の右光信号を受信して、見る人の右網膜54に向けて向きを変える右ビームスプリッタ140、LLS_1に関する32、LLS_2に関する34、およびLLS_3に関する36など、多数の左光信号を生成する左光信号発生器175、ならびに多数の左光信号を受信して、見る人の左網膜64に向けて向きを変える左ビームスプリッタ145を含む。見る人は、右瞳孔52および右網膜54を包含する右眼50、ならびに左瞳孔62および左網膜64を包含する左眼60を有する。人間の瞳孔の直径は一般に、部分的に環境光に応じて2mm~8mmの範囲にわたることがある。成人の正常な瞳孔サイズは、明るい光の中で直径が2mmから4mmまで、暗闇の中で4mmから8mmまで変動する。多数の右光信号は、右ビームスプリッタ140により向きを変えられ、右瞳孔52を通り、最終的に右網膜54により受信される。右光信号RLS_1は、見る人の右眼が特有の水平面上で見ることができる右側に最も遠い光信号である。右光信号RLS_2は、見る人の右眼が同じ水平面上で見ることができる左側に最も遠い光信号である。向きを変えられた右光信号を受信すると、見る人は、向きを変えられた右光信号RLS_1およびRLS_2の範囲により境界を定められる領域A内に対象物105に関する多数の右画素を知覚する。領域Aは、右眼50に関する視界(field of view、FOV)と呼ばれる。同様に多数の左光信号は、左ビームスプリッタ145により向きを変えられ、左瞳孔62の中心を通り、最終的に左網膜64により受信される。左光信号LLS_1は、見る人の左眼が特有の水平面上で見ることができる右側に最も遠い光信号である。左光信号LLS_2は、見る人の左眼が同じ水平面上で見ることができる左側に最も遠い光信号である。
向きを変えられた左光信号を受信すると、見る人は、向きを変えられた左光信号LLS_1およびLLS_2の範囲により境界を定められる領域B内に対象物105に関する多数の左画素を知覚する。領域Bは、左眼60に関する視界(FOV)と呼ばれる。
多数の右画素と多数の左画素の両方が領域Aおよび領域Bにより重なった領域C内に表示されるとき、1つの右画素を表示する少なくとも1つの右光信号および1つの左画素を表示する対応する左光信号は融合されて、特有の深度を伴う仮想両眼画素を領域C内に表示する。深度は、見る人の網膜の中に投影される、向きを変えられた右光信号と向きを変えられた左光信号の角度に関係がある。そのような角度はまた輻湊角と呼ばれる。
図8および図9に示すように、見る人は、自身の前方で領域C内に多数の深度を伴う脳対象物105の仮想画像を知覚する。脳対象物105の画像は、第1の深度D1に表示された第1の仮想両眼画素72および第2の深度D2に表示された第2の仮想両眼画素74を含む。第1の向きを変えられた右光信号16’と対応する第1の向きを変えられた左光信号26’の間の第1の角度はθ1である。第1の深度D1は第1の角度θ1に関係がある。詳細には、対象物105の第1の仮想両眼画素の第1の深度は、第1の向きを変えられた右光信号と対応する第1の向きを変えられた左光信号の光路の広がりの間の第1の角度θ1により決定できる。その結果、第1の仮想両眼画素72の第1の深度D1は、次式によりほぼ計算できる。
Figure 2023539962000002
右瞳孔52と左瞳孔62の間の距離は瞳孔間距離(interpupillary distance、IPD)である。同様に、第2の向きを変えられた右光信号18’と対応する第2の方向を変えられた左光信号38’の間の角度はθ2である。第2の深度D2は第2の角度θ2に関係がある。詳細には、対象物105の第2の仮想両眼画素の第2の深度D2は、同じ式により第2の向きを変えられた右光信号と対応する第2の向きを変えられた左光信号の光路の広がりの間の第2の角度θ2によりほぼ決定できる。第2の仮想両眼画素74は、第1の仮想両眼画素72よりも見る人から遠く離れている(すなわち、より大きな深度にある)ように見る人により知覚されるので、第2の角度θ2は第1の角度θ1よりも小さい。
さらに、そうはいっても、RLG_2に関する向きを変えられた右光信号16’およびLLS_2に関する対応する向きを変えられた左光信号36’は一緒に、第1の深度D1に第1の仮想両眼画素72を表示する。RLG_2に関する向きを変えられた右光信号16’は、LLS_2に関する対応する向きを変えられた左光信号36’と同じまたは異なる視野角を有してよい。換言すれば、第1の角度θ1は、第1の仮想両眼画素の深度を決定するが、RLG_2に関する向きを変えられた右光信号16’は、LLS_2に関する対応する向きを変えられた左光信号36’の視差であっても、そうではなくてもよい。その結果、右光信号および左光信号の赤、青、および緑(red、blue and green、RBG)の色の強度および/または輝度は、いくつかの3D効果をよりよく提示する影、視野角などのためにほぼ同じであっても、わずかに異なってもよい。
上記で記述するように、多数の右光信号は右光信号発生器により生成され、右ビームスプリッタにより向きを変えられ、次いで右網膜の上で直接スキャンされて、右網膜上に右網膜画像を形成する。同様に、多数の左光信号は左光信号発生器により生成され、左ビームスプリッタにより向きを変えられ、次いで左網膜の上でスキャンされて、左網膜上に左網膜画像を形成する。
図9に示す実施形態では、右網膜画像80は、6×6のアレイ内に36の右画素を包含し、左網膜画像90はまた、6×6のアレイ内に36の左画素を包含する。別の実施形態では、右網膜画像80は、1280×720のアレイ内に921,600の右画素を包含し、左網膜画像90はまた、1280×720のアレイ内に921,600の左画素を包含する。仮想画像モジュール160は、右網膜上に右網膜画像を、左網膜上に左網膜画像それぞれ形成する多数の右光信号および対応する多数の左光信号を生成するように構成される。その結果、見る人は、画像融合のために、領域C内で特有の深度に仮想画像を知覚する。
図9を参照する。右光信号発生器170からの第1の右光信号16は、右ビームスプリッタ140により受信および反射される。第1の向きを変えられた右光信号16’は、右瞳孔52を通して、見る人の右網膜に到達して右画素R43を表示する。左光信号発生器175からの対応する左光信号36は、左ビームスプリッタ145により受信および反射される。第1の向きを変えられた光信号36’は、左瞳孔62を通して、見る人の左網膜に到達して左網膜画素L33を表示する。画像融合の結果として、見る人は、多数の向きを変えられた右光信号と対応する多数の向きを変えられた左光信号の角度により深度が決定される多数の深度を伴う仮想画像を知覚する。向きを変えられた右光信号と対応する左光信号の間の角度は、右画素と左画素の相対的水平距離により決定される。その結果、仮想両眼画素の深度は、仮想両眼画素を形成する右画素と対応する左画素の間の相対的水平距離と逆相関関係がある。換言すれば、そのような仮想両眼画素を形成する右画素と左画素の間のX軸での相対的水平距離が短いほど、仮想両眼画素は見る人により、より深く知覚される。
たとえば、図9に示すように、第2の仮想両眼画素74は、第1の仮想両眼画素72よりも大きな深度を有する(すなわち、見る人から遠く離れている)ように見る人により知覚される。その結果、第2の右画素と第2の左画素の間の水平距離は、網膜画像上で第1の右画素と第1の左画素の間の水平距離よりも小さくなる。具体的には、第2の仮想両眼画素を形成する第2の右画素R41と第2の左画素L51の間の水平距離は4画素の長さである。しかしながら、第1の仮想両眼画素を形成する第1の右画素R43と第1の左画素L33の間の距離は6画素の長さである。
図10に示す一実施形態では、光信号発生器から網膜に至る多数の右光信号および多数の左光信号の光路が例示されている。右光信号発生器170から生成された多数の右光信号は、右ビームスプリッタ140の上に投影されて、右スプリッタ画像(right splitter image、RSI)82を形成する。これらの多数の右光信号は、右ビームスプリッタ140により向きを変えられ、小さな右瞳孔画像(right pupil image、RPI)84の中に集光して右瞳孔52を通過し、次いで最終的に右網膜54に到達して右網膜画像(right retina image、RRI)86を形成する。RSI、RPI、およびRRIの各々はi×j画素を備える。各右光信号RLS(i,j)は、同じ対応する画素を通してRSI(i,j)からRPI(i,j)に、次いでRRI(x,y)に移動する。たとえば、RLS(5,3)は、RSI(5,3)からRPI(5,3)に、次いでRRI(2,4)に移動する。同様に、左光信号発生器175から生成された多数の左光信号は、左ビームスプリッタ145の上に投影されて、左スプリッタ画像(left splitter image、LSI)92を形成する。これらの多数の左光信号は、左ビームスプリッタ145により向きを変えられ、小さな左瞳孔画像(left pupil image、LPI)94の中に集光して左瞳孔62を通過し、次いで最終的に左網膜64に到達し右網膜画像(right retina image、LRI)96を形成する。
LSI、LPI、およびLRIの各々はi×j画素を備える。各左光信号LLS(i,j)は、同じ対応する画素を通してLCI(i,j)からLPI(i,j)に、次いでLRI(x,y)に移動する。たとえば、LLS(3,1)は、LCI(3,1)からLPI(3,1)に、次いでLRI(4,6)に移動する。(0,0)画素は、各画像の左上端にある画素である。網膜画像内の画素は、スプリッタ画像内の対応する画素に対して右左が反転され、上下が反転されている。光信号発生器およびビームスプリッタの相対的な位置および角度の適切な配列に基づき、各光信号は、光信号発生器から網膜に至るそれ自体の光路を有する。右網膜上に1つの右画素を表示する1つの右光信号と左網膜上に1つの左画素を表示する1つの対応する左光信号の組合せは、見る人により知覚される特有の深度に仮想両眼画素を形成する。その結果、空間内の仮想両眼画素は、右網膜画素および左網膜画素の対、または右スプリッタ画素および左スプリッタ画素の対により表すことができる。
見る人により領域C内で知覚される仮想画像は、多数の仮想両眼画素を含む。空間内の仮想両眼画素の場所を正確に記述するために、空間内の各場所は3次元(3D)座標、たとえばXYZ座標を提供される。別の実施形態では、他の3D座標系を使用できる。その結果、各仮想両眼画素は3D座標、すなわち水平方向、垂直方向、および深度方向を有する。水平方向(またはX軸方向)は、瞳孔間線の方向に沿っている。垂直方向(またはY軸方向)は、顔の中心線に沿って水平方向に垂直である。深度方向(またはZ軸方向)は、前額面に垂直であり、水平方向と垂直方向の両方に垂直である。水平方向座標および垂直方向座標は、本発明では集合的に場所と呼ばれる。
図11は、右スプリッタ画像内の画素と左スプリッタ画像内の画素と仮想両眼画素との間の関係を例示する。上記で記述するように、右スプリッタ画像内の画素は、右網膜画像内の画素(右画素)と1対1対応である。左スプリッタ画像内の画素は、左網膜画像内の画素(左画素)と1対1対応である。しかしながら、網膜画像内の画素は、結合器画像内の対応する画素に対して右左が反転され、上下が反転されている。しかしながら、システム100で接眼レンズ152、154が利用可能である場合、スプリッタ画像内の画素と網膜画像内の対応する画素の間の関係は、接眼レンズの光学的特徴によりさらに修正されることがある。
36(6×6)の右画素を備える右網膜画像および36(6×6)の右画素を備える左網膜画像については、見る人の両眼のFOVの範囲内にすべての光信号があると仮定して、領域C内に216(6×6×6)の(ドットとして示す)仮想両眼画素が存在する。1つの向きを変えられた右光信号の光路の広がりは、画像の同じ行で向きを変えられた各左光信号の光路の広がりと交差する。同様に、1つの向きを変えられた左光信号の光路の広がりは、画像の同じ行で向きを変えられた各右光信号の光路の広がりと交差する。その結果、空間内の1つの層および6つの層上に36(6×6)の仮想両眼画素が存在する。通常、交差して仮想両眼画素を形成する光路の広がりを表す2つの近接する線は、図11で平行線として示されるが、これらの線間には小さな角度が存在する。各網膜のほぼ同じ高さ(すなわち、右網膜画像および左網膜画像の同じ行)にある右画素および対応する左画素は、より早く融合する傾向にある。その結果、右画素は、網膜画像の同じ行にある左画素と対を成して、仮想両眼画素を形成する。
図12に示すように、仮想両眼画素ごとに右画素および左画素を識別するのを容易にするためにルック・アップ・テーブルを作成する。たとえば、36(6×6)の右画素および36(6×6)の左画素により、1から216まで番号を付けられた216の仮想両眼画素を形成する。第1の(1番目の)仮想両眼画素VBP(1)は、右画素RRI(1,1)と左画素LRI(1,1)の対を表す。第2の(2番目の)仮想両眼画素VBP(2)は、右画素RRI(2,1)と左画素LRI(1,1)の対を表す。第7の(7番目の)仮想両眼画素VBP(7)は、右画素RRI(1,1)と左画素LRI(2,1)の対を表す。第37の(37番目の)仮想両眼画素VBP(37)は、右画素RRI(1,2)と左画素LRI(1,2)の対を表す。第216の(216番目の)仮想両眼画素VBP(216)は、右画素RRI(6,6)と左画素LRI(6,6)の対を表す。その結果、見る人のために空間内に仮想画像の特有の両眼画素を表示するために、対応する右光信号および左光信号を生成するために右画素および左画素のどの対を使用できるかが決定される。それに加えて、ルック・アップ・テーブル上の仮想両眼画素の各行は、知覚されるVBPの深度(z)および知覚されるVBPの位置(x、y)を記憶するメモリアドレスにつながるポインタを含む。
サイズのスケール、重なっている対象物の数、およびシーケンス深度内の深度などのような追加情報もまた、VBPに関して記憶できる。サイズのスケールは、標準的VBPと比較した特有のVBPの相対的サイズ情報であってよい。たとえば、サイズのスケールは、見る人の前方1mにある標準VBPに仮想画像が表示されたとき、1に設定されてよい。その結果、サイズのスケールは、見る人の前方90cmにある特有のVBPに関して1.2に設定されてよい。同様に、見る人の前方1.5mにある特有のVBPに関してサイズのスケールは0.8に設定されてよい。サイズのスケールを使用して、仮想画像が第1の深度から第2の深度に動かされたとき、表示するための仮想画像のサイズを決定できる。サイズのスケールは、本発明では倍率であってよい。
重なっている対象物の数は、一方の対象物が別の対象物の背後に完全にまたは部分的に隠れるように互いに重なった対象物の数である。シーケンス内の深度は、重なっているさまざまな画像の深度のシーケンスに関する情報を提供する。たとえば3つの画像が互いに重なっている。前面にある第1の画像のシーケンス内の深度は1に設定されてよく、第1の画像の背後に隠れた第2の画像のシーケンス内の深度は2に設定されてよい。重なっている画像の数およびシーケンス内の深度を使用して、重なっているさまざまな画像が動いている状態にあるとき、表示するために画像のどちらのどの部分を使用する必要があるかを決定してよい。
ルック・アップ・テーブルは以下の処理により作成されてよい。第1のステップで、右網膜画像と左網膜画像を融合したために深度を伴う仮想画像を見る人が知覚できる領域Cの境界を指定する、開始または較正の間に仮想画像モジュールにより作成される、見る人のIPDに基づく個々の仮想マップを得る。第2のステップで、Z軸方向での深度(Z座標での各点)ごとにX座標およびY座標の場所とは無関係に、それぞれ右網膜画像および左網各画像上に右画素と左画素の対を識別する輻湊角を計算する。第3のステップで、X軸方向に沿って右画素と左画素の対を動かして、Y座標の場所とは無関係に特有の深度に右画素と左画素の各対のX座標およびZ座標を指定する。第4のステップで、Y軸方向に沿って右画素と左画素の対を動かして、右画素と左画素の各対のY座標を決定する。その結果、それぞれ右網膜画像および左網膜画像上で右画素と左画素の各対のXYZなどの3D座標系を決定して、ルック・アップ・テーブルを作成できる。それに加えて、第3のステップと第4のステップは交換可能である。
光信号発生器170および175は、その光源としてレーザ、またはミニおよびマイクロ発光ダイオード(light emitting diode、「LED」)、有機発光ダイオード(organic light emitting diode、「OLED」)、もしくはスーパールミネッセントダイオード(superluminescent diode、「SLD」)を含む発光ダイオード(「LED」)、またはLCoS(Liquid Crystal on Silicon)、または液晶表示装置(liquid crystal display、「LCD」)、またはそれらの任意の組合せを使用してよい。
一実施形態では、光信号発生器170および175は、赤色光レーザ、緑色光レーザ、青色光レーザを含む光源を備えてよいレーザ・ビーム・スキャニング・プロジェクタ(LBSプロジェクタ)、二色性結合器および偏光結合器などの光の色の修正器、ならびに2次元(2D)電気機械システム(「MEMS」)鏡などの2D調節可能反射器である。2D調節可能反射器は、2つの1次元(1D)MEMS鏡などの2つの1D反射器と置換できる。LBSプロジェクタは、光信号を1つずつ順次生成およびスキャンして、所定の解像度で、たとえばフレームあたり1280×720画素で2D画像を形成する。その結果、1画素のために1光信号が生成され、ビームスプリッタ140、145に向けて一度に投影される。見る人がそのような2D画像を片方の眼から見るために、LBSプロジェクタは、視覚の存続する期間の範囲内で、たとえば1/18秒の範囲内で画素ごとに光信号を、たとえば1280×720の光信号を順次生成しなければならない。その結果、各光信号の継続時間は約60.28ナノ秒である。
別の実施形態では、光信号発生器170および175は、2Dカラー画像を一度に生成できるデジタル光処理プロジェクタ(digital light processing projector、「DLPプロジェクタ」)であってよい。Texas Instrument社のDLP技術は、DLPプロジェクタを製造するために使用できるいくつかの技術のうちの1つである。たとえば1280×720画素を備えてよい2D単色画像フレームは、スプリッタ140および145に向けて同時に投影される。
ビームスプリッタ140、145は、光信号発生器170、175により生成された多数の光信号を受信し、向きを変える。一実施形態では、ビームスプリッタ140、145は、ビームスプリッタ140、145に関して、向きを変えられた光信号が入射光信号と同じ側にあるように多数の光信号を反射させる。別の実施形態では、ビームスプリッタ140、145は、ビームスプリッタ140、145に関して、向きを変えられた光信号が入射光信号と異なる側にあるように多数の光信号を屈折させる。そのとき、ビームスプリッタ140、145は屈折器として機能する。反射率は、一部は光信号発生器の電力に応じて20%~80%など、広範囲に変動する可能性がある。当業者は、光信号発生器およびスプリッタの特性に基づき適切な反射率を決定する方法を知っている。その上、一実施形態では、ビームスプリッタ140、145は、見る人がリアルタイム画像を同時に観察できるように、入射光信号の反対側からの周囲の(環境)光に対して光学的に透明である。透明度は用途に応じて広範に変動する可能性がある。AR/MRの用途では、透明性は、一実施形態では約75%など、50%よりも大きくなることが好ましい。光信号の向きを変えることに加えて、焦点調節ユニット182、187は、多数の光信号が瞳孔を通過して、見る人の両眼に到達できるように多数の光信号を集光してよい。
ビームスプリッタ140、145は、部分的に透明に、部分的に反射性にする金属などのある種の材料でコートされたレンズのようなガラスまたはプラスチック材料から作られてよい。見る人の眼に光信号を誘導するために従来技術の導波管の代わりに反射性スプリッタを使用する1つの有利な点は、多数の影、色ずれなどのような望ましくない回折効果の問題をなくすることである。
実施形態についての上記の説明は、当業者が主題を製作および使用可能にするために提供される。これらの実施形態のさまざまな修正形態は当業者に容易に明らかになり、本明細書で開示される新規な原理および主題は、革新的能力を使用することなく他の実施形態に適用されてよい。特許請求の範囲に示す特許請求される主題は、本明細書で示す実施形態に限定することを意図するのではなく、本明細書で開示する原理および新規な特徴と整合性のある最も広い範囲に従うべきである。追加の実施形態は、開示する主題の精神および真の範囲に入ることが企図される。したがって、本発明は、添付の特許請求の範囲およびそれらの均等物の範囲に入る修正形態および変形形態を範囲に含むことが意図される。

Claims (28)

  1. リアルタイム画像上に仮想画像を重ね合わせるためのシステムであって、
    所定の倍率で第1の場所および第1の深度に対象物のリアルタイム画像を生成するように構成された拡大組立体を備えるリアルタイム画像モジュールと、
    見る人の右眼に右光信号を、見る人の左眼に対応する左光信号をそれぞれ投影することにより前記仮想画像を生成するように構成された仮想画像モジュールであって、前記右光信号および前記対応する左光信号は、第2の場所および第2の深度に前記仮想画像を表示するように前記見る人により知覚され、前記仮想画像は前記リアルタイム画像上に重ね合わせられる仮想画像モジュールと、を備えるシステムにおいて、
    前記第2の深度は、前記見る人の眼の中に投影される前記右光信号と前記対応する左光信号の間の角度に関係があることを特徴とする、
    システム。
  2. 前記第2の深度は前記第1の深度とほぼ同じであることを特徴とする、請求項1に記載のシステム。
  3. 前記リアルタイム画像は、前記対象物から反射または放出される光により生成されることを特徴とする、請求項1に記載のシステム。
  4. 前記仮想画像は前記対象物の処理された画像であることを特徴とする、請求項1に記載のシステム。
  5. 前記倍率は調節可能であることを特徴とする、請求項1に記載のシステム。
  6. 前記倍率を調節するとき、前記仮想画像のサイズはそれに応じて調節されることを特徴とする、請求項1に記載のシステム。
  7. 前記リアルタイム画像上の第1の点は、前記リアルタイム画像上の第1の目印上に前記仮想画像上の対応する第1の目印を重ねることにより前記リアルタイム画像上に前記仮想画像を重ね合わせるための前記第1の目印として選択されることを特徴とする、請求項1に記載のシステム。
  8. 前記リアルタイム画像上の第2の点は、前記リアルタイム画像上の第2の目印上に前記仮想画像上の対応する第2の目印を重ねることにより前記リアルタイム画像上に前記仮想画像を重ね合わせるための前記第2の目印として選択されることを特徴とする、請求項7に記載のシステム。
  9. 前記仮想画像モジュールは、前記見る人が前記第2の場所および前記第2の深度に表示された前記仮想画像を知覚するように、前記見る人に関して較正されることを特徴とする、請求項1に記載のシステム。
  10. 前記仮想画像モジュールは、前記仮想画像が前記リアルタイム画像の変動に基づき前記リアルタイム画像上に重なり合うように修正されるように、前記右光信号および前記対応する左光信号を処理する制御モジュールをさらに備えることを特徴とする、請求項1に記載のシステム。
  11. 前記リアルタイム画像の前記変動は、視野角、前記倍率、または場所の変動を含むことを特徴とする、請求項10に記載のシステム。
  12. 前記見る人が前記仮想画像の前記第2の場所および前記第2の深度を制御するように構成されたユーザインタフェースをさらに備える、請求項1に記載のシステム。
  13. 前記対象物の場所および深度を測定するように構成された対象物測定モジュールをさらに備える、請求項1に記載のシステム。
  14. 前記仮想画像モジュールは、前記見る人のために前記仮想画像の明瞭度を改善する焦点調節ユニットをさらに備えることを特徴とする、請求項1に記載のシステム。
  15. 前記リアルタイム画像および前記仮想画像のいずれかまたは両方を記録する記録モジュールをさらに備える、請求項1に記載のシステム。
  16. 前記対象物に対して手術を遂行する外科手術モジュールをさらに備える、請求項1に記載のシステム。
  17. 前記仮想画像モジュールは、前記見る人が前記仮想画像を知覚するために、多数の前記右光信号を生成するための右光信号発生器、および多数の前記左光信号を発生させるための左光信号発生器をさらに備えることを特徴とする、請求項1に記載のシステム。
  18. 前記仮想画像モジュールは、前記見る人の一方の網膜に向けて前記多数の右光信号の向きを変える右ビームスプリッタ、および前記見る人の他方の網膜に向けて前記多数の左光信号の向きを変える左ビームスプリッタをさらに備えることを特徴とする、請求項17に記載のシステム。
  19. 前記右ビームスプリッタおよび前記左ビームスプリッタは、前記リアルタイム画像モジュールおよび前記仮想画像モジュールにより共用されることを特徴とする、請求項18に記載のシステム。
  20. 前記仮想画像モジュールは、前記見る人の頭部に装着可能な支持構造をさらに備え、前記右光信号発生器および前記左光信号発生器は前記支持構造により保持され、前記右ビームスプリッタおよび前記左ビームスプリッタは前記支持構造により保持され、前記見る人の視界の範囲内に位置決めされることを特徴とする、請求項1に記載のシステム。
  21. 前記リアルタイム画像モジュールは、前記仮想画像モジュールに取り付けられ、前記仮想画像モジュールから分離可能であることを特徴とする、請求項20に記載のシステム。
  22. 深度を伴う仮想画像を生成するための仮想画像モジュールであって、
    見る人の一方の網膜に向けてリアルタイム画像モジュールの右ビームスプリッタにより向きを変えられる多数の右光信号を生成するために前記リアルタイム画像モジュールの右側部分の近くに位置する右光信号発生器と、
    前記見る人の他方の網膜に向けて前記リアルタイムモジュールの左ビームスプリッタにより向きを変えられる多数の左光信号を生成するために前記リアルタイム画像モジュールの左側部分の近くに位置する左光信号発生器と、を備える仮想画像モジュールにおいて、
    第1の向きを変えられた右光信号および対応する第1の向きを変えられた左光信号は、前記第1の向きを変えられた右光信号と前記対応する第1の向きを変えられた左光信号の間の角度に関係がある深度に前記仮想画像を表示するように前記見る人により知覚されることを特徴とする、
    仮想画像モジュール。
  23. リアルタイム画像上に仮想画像を重ね合わせるための方法であって、
    第1の目印として前記リアルタイム画像上の第1の点を選択するステップと、
    所定の倍率で第1の場所および第1の深度に前記リアルタイム画像を表示するステップと、
    見る人の右眼に右光信号を、見る人の左眼に対応する左光信号をそれぞれ投影することにより仮想画像を投影するステップであって、前記右光信号および前記対応する左光信号は、第2の場所および第2の深度に前記仮想画像を表示するように前記見る人により知覚されるステップと、を備える方法において、
    前記仮想画像は前記対象物の処理された画像であり、
    前記第2の深度は、前記見る人の眼に投影された前記右光信号と前記対応する左光信号の間の角度に関係があり、
    前記仮想画像は、前記リアルタイム画像上の第1の目印上に前記仮想画像上の対応する第1の目印を重ねることによりリアルタイム画像上に重なり合うことを特徴とする、
    方法。
  24. 前記第2の深度は前記第1の深度と実質的に同じであることを特徴とする、請求項23に記載の方法。
  25. 第2の目印として前記リアルタイム画像上の第2の点を選択するステップをさらに備え、前記仮想画像は、前記リアルタイム画像上の第2の目印上に前記仮想画像上の対応する第2の目印を重ねることによりリアルタイム画像の上に重なり合うことを特徴とする、請求項23に記載の方法。
  26. 前記リアルタイム画像と前記仮想画像の両方は拡大され、かつ前記仮想画像上の前記対応する第1の目印は、同じ深度に前記リアルタイム画像上の前記第1の目印上に重ね合わされたままでいるように前記倍率を調節するステップをさらに備える、請求項23に記載の方法。
  27. 前記リアルタイム画像上に重ね合わされたままでいるように前記仮想画像に関する前記第1の場所および第1の深度を反復して監視するステップをさらに備える、請求項23に記載の方法。
  28. 前記対象物に対して手術を遂行するステップをさらに備える、請求項23に記載の方法。
JP2022503559A 2020-08-14 2021-08-16 リアルタイム画像上に仮想画像を重ね合わせるためのシステムおよび方法 Pending JP2023539962A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202063065506P 2020-08-14 2020-08-14
US63/065,506 2020-08-14
US202063085172P 2020-09-30 2020-09-30
US63/085,172 2020-09-30
PCT/US2021/046078 WO2022036302A1 (en) 2020-08-14 2021-08-16 Systems and methods for superimposing virtual image on real-time image

Publications (1)

Publication Number Publication Date
JP2023539962A true JP2023539962A (ja) 2023-09-21

Family

ID=80247408

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022503559A Pending JP2023539962A (ja) 2020-08-14 2021-08-16 リアルタイム画像上に仮想画像を重ね合わせるためのシステムおよび方法

Country Status (6)

Country Link
US (2) US11698535B2 (ja)
EP (1) EP3984016A4 (ja)
JP (1) JP2023539962A (ja)
CN (1) CN114365214A (ja)
TW (1) TW202215370A (ja)
WO (1) WO2022036302A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022036302A1 (en) 2020-08-14 2022-02-17 Hes Ip Holdings, Llc Systems and methods for superimposing virtual image on real-time image
JP2023541495A (ja) 2020-09-03 2023-10-03 ヒーズ アイピー ホールディングス エルエルシー 両眼視を改善するためのシステムおよび方法
WO2022072565A1 (en) 2020-09-30 2022-04-07 Hes Ip Holdings, Llc Virtual image display system for virtual reality and augmented reality devices

Family Cites Families (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4953961A (en) 1989-01-31 1990-09-04 Trw Inc. Light beam positioner
US20120056799A1 (en) 2001-02-24 2012-03-08 Dennis Solomon Performance Audience Display System
WO1999038149A1 (en) 1998-01-26 1999-07-29 Wayne Westerman Method and apparatus for integrating manual input
US6433907B1 (en) 1999-08-05 2002-08-13 Microvision, Inc. Scanned display with plurality of scanning assemblies
US7423787B2 (en) 2001-03-01 2008-09-09 Ricoh Company, Ltd. Optical scanning module, device, and method, and imaging apparatus
WO2004084560A1 (ja) 2003-03-20 2004-09-30 Seijiro Tomita 立体映像撮影表示システム
EP1784988A1 (en) 2004-08-06 2007-05-16 University of Washington Variable fixation viewing distance scanned light displays
ES2452037T3 (es) 2007-09-26 2014-03-31 Elbit Systems Ltd. Sistema de seguimiento óptico de amplio campo de visión
JP4395802B2 (ja) 2007-11-29 2010-01-13 ソニー株式会社 画像表示装置
US9952673B2 (en) 2009-04-02 2018-04-24 Oblong Industries, Inc. Operating environment comprising multiple client devices, multiple displays, multiple users, and gestural control
US8964298B2 (en) 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
US8684526B2 (en) 2010-07-02 2014-04-01 Amo Wavefront Sciences, Llc Compact binocular adaptive optics phoropter
JP2012047995A (ja) 2010-08-27 2012-03-08 Fujitsu Ltd 情報表示装置
JP6195893B2 (ja) 2013-02-19 2017-09-13 ミラマ サービス インク 形状認識装置、形状認識プログラム、および形状認識方法
WO2015132775A1 (en) * 2014-03-03 2015-09-11 Eyeway Vision Ltd. Eye projection system
US20150324568A1 (en) 2014-05-09 2015-11-12 Eyefluence, Inc. Systems and methods for using eye signals with secure mobile communications
JP2016038889A (ja) 2014-08-08 2016-03-22 リープ モーション, インコーポレーテッドLeap Motion, Inc. モーション感知を伴う拡張現実
TWI688789B (zh) 2014-11-20 2020-03-21 美商英特爾股份有限公司 虛擬影像產生器及投影虛擬影像的方法
AU2016220134A1 (en) 2015-02-17 2017-08-31 Thalmic Labs Inc. Systems, devices, and methods for eyebox expansion in wearable heads-up displays
US20160324580A1 (en) * 2015-03-23 2016-11-10 Justin Esterberg Systems and methods for assisted surgical navigation
US10162412B2 (en) * 2015-03-27 2018-12-25 Seiko Epson Corporation Display, control method of display, and program
EP3289406A4 (en) 2015-04-30 2018-10-24 Oakley, Inc. Wearable devices such as eyewear customized to individual wearer parameters
US10136856B2 (en) 2016-06-27 2018-11-27 Facense Ltd. Wearable respiration measurements system
IL241033B (en) 2015-09-02 2021-12-01 Eyeway Vision Ltd Projector system and method for ocular projection
US10757399B2 (en) 2015-09-10 2020-08-25 Google Llc Stereo rendering system
JP6703747B2 (ja) 2015-09-18 2020-06-03 株式会社リコー 情報表示装置、情報提供システム、移動体装置、情報表示方法及びプログラム
KR102121134B1 (ko) 2015-09-24 2020-06-09 토비 에이비 눈 추적 가능한 웨어러블 디바이스들
CN105527710B (zh) 2016-01-08 2018-11-20 北京乐驾科技有限公司 一种智能抬头显示系统
US10850116B2 (en) 2016-12-30 2020-12-01 Mentor Acquisition One, Llc Head-worn therapy device
WO2017177188A1 (en) 2016-04-08 2017-10-12 Vizzario, Inc. Methods and systems for obtaining, aggregating, and analyzing vision data to assess a person's vision performance
EP3443407B1 (en) 2016-04-10 2023-05-17 Everysight Ltd. Binocular wide field of view (wfov) wearable optical display system
CN109644261B (zh) 2016-08-04 2021-06-01 杜比实验室特许公司 单一深度追踪调节-聚散解决方案
DE102016215481A1 (de) 2016-08-18 2018-02-22 Technische Universität Dresden System und Verfahren zur haptischen Interaktion mit virtuellen Objekten
WO2018057660A2 (en) 2016-09-20 2018-03-29 Apple Inc. Augmented reality system
TWI619967B (zh) 2016-09-26 2018-04-01 緯創資通股份有限公司 可調整顯示模組之可調式虛擬實境裝置
JP6852355B2 (ja) 2016-11-09 2021-03-31 セイコーエプソン株式会社 プログラム、頭部装着型表示装置
CA3042460C (en) 2016-11-15 2024-04-02 Creal3D Sa Near-eye sequential light-field projector with correct monocular depth cues
US10685492B2 (en) 2016-12-22 2020-06-16 Choi Enterprise, LLC Switchable virtual reality and augmented/mixed reality display device, and light field methods
CA3049662A1 (en) 2017-01-16 2018-07-19 Philipp K. Lang Optical guidance for surgical, medical, and dental procedures
CN108427498A (zh) 2017-02-14 2018-08-21 深圳梦境视觉智能科技有限公司 一种基于增强现实的交互方法和装置
US20180262758A1 (en) * 2017-03-08 2018-09-13 Ostendo Technologies, Inc. Compression Methods and Systems for Near-Eye Displays
JP6774367B2 (ja) * 2017-04-11 2020-10-21 富士フイルム株式会社 ヘッドマウントディスプレイの制御装置とその作動方法および作動プログラム、並びに画像表示システム
JP6342038B1 (ja) 2017-05-26 2018-06-13 株式会社コロプラ 仮想空間を提供するためのプログラム、当該プログラムを実行するための情報処理装置、および仮想空間を提供するための方法
EP4123425A1 (en) 2017-05-31 2023-01-25 Magic Leap, Inc. Eye tracking calibration techniques
JP2019105777A (ja) 2017-12-14 2019-06-27 セイコーエプソン株式会社 頭部装着型表示装置、及び頭部装着型表示装置の制御方法
US11112613B2 (en) 2017-12-18 2021-09-07 Facebook Technologies, Llc Integrated augmented reality head-mounted display for pupil steering
US10510137B1 (en) * 2017-12-20 2019-12-17 Lockheed Martin Corporation Head mounted display (HMD) apparatus with a synthetic targeting system and method of use
JP7291708B2 (ja) 2018-01-17 2023-06-15 マジック リープ, インコーポレイテッド ディスプレイとユーザの眼との間の位置合わせを決定するためのディスプレイシステムおよび方法
KR20200127023A (ko) 2018-03-01 2020-11-09 에이치이에스 아이피 홀딩스, 엘엘씨 다중 피사계 심도 촬영이 가능한 근안 디스플레이 방법
US10706600B1 (en) * 2018-03-30 2020-07-07 Facebook Technologies, Llc Head-mounted display devices with transparent display panels for color deficient user
CN110376734B (zh) 2018-04-12 2021-11-19 肥鲨技术 单面板头戴式显示器
US10936051B2 (en) 2018-09-20 2021-03-02 Dell Products, L.P. Power management for gesture recognition in virtual, augmented, and mixed reality (xR) applications
US10890768B2 (en) 2018-10-15 2021-01-12 Microsoft Technology Licensing, Llc Polarization-based dynamic focuser
CN113614783A (zh) 2019-01-25 2021-11-05 奇跃公司 使用具有不同曝光时间的图像的眼睛跟踪
TW202109134A (zh) 2019-06-04 2021-03-01 以色列商魯姆斯有限公司 具有能調節瞳距的機構的雙目型頭戴式顯示系統
WO2021002641A1 (en) 2019-07-04 2021-01-07 Samsung Electronics Co., Ltd. Electronic device and method for displaying augmented reality
EP4055437A4 (en) 2019-11-06 2023-12-20 HES IP Holdings, LLC SYSTEM AND METHOD FOR DISPLAYING AN OBJECT WITH DEPTHS
TW202141120A (zh) 2020-02-19 2021-11-01 美商海思智財控股有限公司 具可調整影像感測模組的頭戴式裝置及其系統
EP4136496A1 (en) 2020-06-19 2023-02-22 HES IP Holdings, LLC Image display systems for eyebox expansion and methods of making the same
WO2022036302A1 (en) 2020-08-14 2022-02-17 Hes Ip Holdings, Llc Systems and methods for superimposing virtual image on real-time image

Also Published As

Publication number Publication date
US20220413293A1 (en) 2022-12-29
US11822089B2 (en) 2023-11-21
CN114365214A (zh) 2022-04-15
TW202215370A (zh) 2022-04-16
EP3984016A1 (en) 2022-04-20
US20230333389A1 (en) 2023-10-19
US11698535B2 (en) 2023-07-11
WO2022036302A1 (en) 2022-02-17
EP3984016A4 (en) 2023-09-06

Similar Documents

Publication Publication Date Title
US20230255446A1 (en) Surgical visualization systems and displays
US11529210B2 (en) Stereoscopic visualization camera and platform
US20230122367A1 (en) Surgical visualization systems and displays
TWI734106B (zh) 立體視覺化攝影機及整合機器人平台
JP6930915B2 (ja) 眼科処置における拡大とそれに関わる装置、システム、および方法
US10966798B2 (en) Surgical visualization systems and displays
US20190043238A1 (en) Combining video-based and optic-based augmented reality in a near eye display
US11698535B2 (en) Systems and methods for superimposing virtual image on real-time image
US6678090B2 (en) Microscope
US20220008158A1 (en) Stereoscopic camera with fluorescence visualization
KR101640536B1 (ko) 안과용 시스템들을 위한 이미지-프로세서-제어된 오정렬 감소
JP2017524281A (ja) 媒介現実の外科用視覚化のためのシステム及び方法
CN110638527A (zh) 基于光学相干层析增强现实的手术显微成像系统
JP6922358B2 (ja) 生体観察システムおよび生体観察制御プログラム
TWI825891B (zh) 用於真實空間導航的擴增實境系統以及使用該系統的手術系統
JP6030423B2 (ja) 眼底撮影装置
JP6159446B2 (ja) 眼底撮影装置
JP2000338412A (ja) 立体視顕微鏡
JP6159445B2 (ja) 眼底撮影装置
JP2000083965A (ja) 手術用顕微鏡
JP2019062981A (ja) 眼科装置及び検眼システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230630

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20230630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240221