JP2021515278A - ホログラフィック実空間屈折システム - Google Patents

ホログラフィック実空間屈折システム Download PDF

Info

Publication number
JP2021515278A
JP2021515278A JP2020567445A JP2020567445A JP2021515278A JP 2021515278 A JP2021515278 A JP 2021515278A JP 2020567445 A JP2020567445 A JP 2020567445A JP 2020567445 A JP2020567445 A JP 2020567445A JP 2021515278 A JP2021515278 A JP 2021515278A
Authority
JP
Japan
Prior art keywords
virtual
objects
user
display device
rendering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020567445A
Other languages
English (en)
Inventor
パドゥラ,ウィリアム,ブイ.
ディンスモア,テディ,アール.
Original Assignee
ヴェイェゼル,エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヴェイェゼル,エルエルシー filed Critical ヴェイェゼル,エルエルシー
Publication of JP2021515278A publication Critical patent/JP2021515278A/ja
Priority to JP2023077005A priority Critical patent/JP2023113632A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • A61B3/005Constructional features of the display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0033Operational features thereof characterised by user input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • A61B3/0058Operational features thereof characterised by display arrangements for multiple images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
    • A61B3/032Devices for presenting test symbols or characters, e.g. test chart projectors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/103Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining refraction, e.g. refractometers, skiascopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
    • A61B3/036Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters for testing astigmatism
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/08Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing binocular or stereoscopic vision, e.g. strabismus

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Ophthalmology & Optometry (AREA)
  • Software Systems (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Eye Examination Apparatus (AREA)
  • Holo Graphy (AREA)

Abstract

ホログラフィック屈折眼検査装置のためのシステム及び方法が開示される。システムは、ホログラフィックディスプレイデバイス内に1つ以上の3次元オブジェクトをレンダリングする。システムは、深度レベル内の1つ以上の3次元オブジェクトの仮想移動によって、ホログラフィックディスプレイデバイス内の1つ以上の3次元オブジェクトのレンダリングを更新する。システムは、仮想移動後の1つまたは複数の3次元オブジェクトの位置合わせを示す入力をユーザから受け取る。システムは入力を受け取った瞬間の1つまたは複数の3次元オブジェクトの相対仮想位置と最適仮想位置との間の差分を決定し、その差分に基づいて処方を生成する。【選択図】図2

Description

<関連出願の相互参照>
本出願は、2018年2月26日に出願された米国特許出願第15/904,995号の利益を主張する。同先願は、その全体が参照により本明細書に組み込まれる。
ホログラフィー投影を用いた視覚的な検査を実空間および時間で提供するためのシステムおよび方法を提供する。
100年以上にわたり、医師は患者の屈折状態および双眼性を決定するために、レンズおよびプリズムを使用することによる屈折を含む眼の検査を提供してきた。屈折とは、光を曲げることを意味する。近視(近眼)、遠視(老眼)および乱視(2つの異なる屈折力曲線)を有する人は、物理的レンズおよびプリズムを使用することによって屈折を実施して、患者の屈折状態およびぼやけた視力を矯正した。19世紀においては、画像をより明確にするために、各眼の前に個々のレンズを保持することによって、主に試行フレームで屈折が実施されたが、20世紀にはフォロプター(「多数のレンズ」を意味する)が開発された。この器具を物理的スタンドのアーム上に延ばし、器具を患者の顔の前に配置した。次いで臨床医は、人の目の前で異なるレンズを動かすようにダイヤルを回して、遠見視力を改善するための最良の屈折を見つける。次いで、画像を分離するかまたは画像の位置を変化させるために使用可能なプリズムを含むように器具を前進させ、臨床医が筋肉範囲を評価するとともに眼の整列および双眼性を維持することを可能にした。それはまた、近距離に適応またはフォーカスする能力の評価を可能にした。これは、遠距離および近距離の両方の視力を改善するための眼鏡を設計するとともに、双眼性に影響を及ぼす目のアライメントの不均衡を補正するためにプリズムを処方するためのものであった。
フォロプターは効果的な器具であり、今日でも使用されているが、周辺視野を制限し、第1眼位または真っ直ぐ前方を見ること以外の任意の他の経線における双眼性を評価することができない。両眼の不均衡は、時には第1眼位位置の外側の凝視でしか表すことができない。したがって、この器具は、これらの目的のために限られた価値しか有さず、および/または、臨床医が眼の1つの位置に対してレンズおよびプリズムを処方することしかできないようにする。さらに、大きなフォロプターは周辺視力を遮断し、異常な環境および側方視力の制限をもたらし、これは、注意視覚プロセスの強度にしばしば影響を及ぼし、屈折矯正を強すぎるかまたは不均衡にさせる。
既存の機器および技術のこれらおよび他の問題および制限事項は、本開示のシステムおよび方法によって対処され、克服される。
ここで説明するのは、各眼に対してホログラフィック投影を用いることにより、眼の屈折状態と視覚プロセスを評価するとともに、実空間での9個の主要注視眼位における双眼性を評価するシステムである。屈折状態評価は、患者の眼が3次元ターゲットに焦点を合わせて、屈折不均衡が明瞭な視力を維持するように焦点を合わせることを可能にするように設計されている。例えば、ターゲットは3次元で提示される。近視眼は、ターゲットの手前側に焦点を合わせ、それを明確に見る。次に、ターゲットの寸法および位置を移動させて、ターゲットの遠い側の焦点を合わせ直し、無限遠での最良の視力に目を再焦点合わせするのに必要な目の屈折力およびレンズの屈折力に関して較正を決定する。遠視眼についても同じことが起こり、3次元ターゲットの遠い部分のみが初期焦点にある。
患者は、手の動きおよび/または音声コマンドを使用して、屈折力の主観的測定値を伝達し、視力を最良の視力に矯正する。これらの対物レンズは、現実空間におけるターゲットの操作によって達成される。より具体的には、本開示の例示的な実施形態において、乱視を有する眼は、垂直線によって、線の一方が透明であり他方がぼやけていることを患者が観察することを可能にする3次元オブジェクトを提示される。ターゲットは乱視の軸を決定するために回転され、次いで、ターゲットの反対側またはぼやけた側はそれを焦点にもってくるために空間内で実質的にシフトされる。この一連の動作は、この眼において測定された乱視の量、すなわち、明瞭さをもたらすために必要とされる円筒状の矯正の予測される量を提供する。患者が近視または遠視と乱視の両方を有する場合、ターゲットを同時に操作して近視または遠視を決定し、同時に乱視の屈折力を評価する。
開示されたシステムおよび方法のさらなる特徴、機能、および利点は以下の詳細な説明から、特に添付の図面と併せて読むことにより、明らかになるであろう。
例示的な実施形態は例として添付の図面に示されており、本開示の限定とみなされるべきではない:
例示的な1実施形態によるホログラフィック屈折眼検査装置のシステムを示すブロック図である。 例示的な1実施形態による、ホログラフィック屈折眼検査装置を用いた水平フォリアの検査を示すブロック図である。 例示的な1実施形態によるホログラフィック屈折眼検査装置を利用する垂直フォリアの検査を示すブロック図である。 例示的な1実施形態による、ホログラフィック屈折眼検査装置を利用する乱視に関する検査を示すブロック図である。 例示的な1実施形態による、図4Aに示される仮想3Dオブジェクトのユーザの視点を示すブロック図である。 例示的な1実施形態による、ホログラフィック屈折眼検査装置を利用する乱視に関する検査を示すブロック図である。 例示的な1実施形態による、図5Aに示される仮想3Dオブジェクトのユーザの視点を示すブロック図である。 例示的な1実施形態による、図5Aに示される仮想3Dオブジェクトの別の斜視図を示すブロック図である。 例示的な1実施形態による例示的なコンピューティングデバイスのブロック図を示す。 例示的な1実施形態によるホログラフィック屈折眼検査装置を利用するためのプロセスを示すブロック図である。
ホログラフィック屈折眼検査装置のための装置、方法、および非一時的コンピュータ可読媒体が記載される。例示的な実施形態は、ホログラフィック仮想投影を利用して、眼の検査、診断、および処方を実行するためのデバイスを提供する。
いくつかの実施形態では、開示されたホログラフィック眼検査装置は、ヘッド搭載装置上に、ホログラフィックディスプレイデバイス内の1つまたは複数の3次元オブジェクトをレンダリングする。レンダリングは、ユーザが見ることができる深さの仮想レベルに対応する。ホログラフィックディスプレイデバイスは1つまたは複数の3次元オブジェクトのレンダリングを更新し、この更新は、仮想深度レベル内の1つまたは複数の3次元オブジェクトの仮想移動を含む。ホログラフィックディスプレイデバイスはユーザから入力を受け取り、この入力は、仮想移動に基づく1つまたは複数の3次元オブジェクトの位置合わせの指示を含む。位置合わせの指示は、1つまたは複数の3次元オブジェクト間の相対位置を含む。ホログラフィックディスプレイデバイスは、1つ以上の3次元オブジェクト間の相対仮想位置と最適仮想位置との間の差分を決定する。ホログラフィックディスプレイデバイスは、差分に基づいて処方を生成する。
図1は、例示的な1実施形態によるホログラフィック屈折眼検査装置のシステムを示すブロック図である。1実施形態では、ホログラフィック屈折眼検査装置はヘッドマウントディスプレイ(HMD)102を含むことができる。HMD102は、ユーザの視野(FOV)内に3次元(3D)画像をレンダリングするための1対のコンバイナレンズ104A、104Bを含むことができる。コンバイナレンズ104A、104Bは、ユーザの眼106A、106Bからの瞳孔間距離に対して較正することができる。コンピューティングシステム108は、コンバイナレンズ104A、104Bに接続することができる。ホログラフィック屈折眼検査装置は、必要に応じて、9つの主要注視眼位のいずれかに再配置することができる。これらの検査は、有線または無線ヘッドセットによって提供される視野内に3Dホログラフィック画像を投影することができる技術的プラットフォーム上で実行するように構築される。HMD102は調整可能なクッション性のある内側ヘッドバンドに接続することができ、これにより、コンバイナレンズ104A、104Bを上下に、また前後に傾けることができる。ユニットを装着するには、ユーザがHMD102を頭部に装着する。ヘッドバンドの背面にある調整ホイールを使用して、頭部の周囲に固定し、快適性を確保するためにユニットの重量を均等に支えて分散させてから、バイザーおよびコンバイナレンズ104A、104Bを目の前方に傾ける。
コンピューティングシステム108はHMD102を含むことができ、ホログラフィック屈折眼検査装置は、自給式装置である。自給式装置内のコンピューティングシステム108は、コンピューティングシステム108の部分に電流を供給するために、追加の電力回路を含むことができる。あるいは、コンピューティングシステム108はHMD102の外部にあってもよく、有線または無線通信チャネルを介してHMD102に通信可能に結合されてもよい。有線通信チャネルは、デジタルビデオ伝送フォーマットを含むことができる。このフォーマットは、高精細度マルチメディアインタフェース(HDMI(登録商標))、DisplayPort(商標)(DisplayPortは米国サンノゼCAのVESAの商標である)、またはコンピューティングシステム108からコンバイナレンズ104A、104Bに対してビデオ信号を伝搬することができる任意のその他伝送フォーマットを含む。さらにHMD102は、ホログラフィック屈折眼検査中に、ユーザに指示音声を提示するためのスピーカまたはヘッドフォンを含むことができる。無線通信の実施形態において、HMD102は低レイテンシの高帯域幅アプリケーションを実現可能な無線コネクタを含むことができる。これはIEEE 802.11adを含むが、これに限定されない。無線アダプタは、コンバイナレンズ104、104B上に表示される低レイテンシビデオの伝送のために、コンピューティングシステム108と対話することができる。
さらに、コンピューティングシステム108は、仮想空間内の3Dオブジェクトの操作およびレンダリングのためのソフトウェアを含むことができる。このソフトウェアは、動き追跡および入力機能など、HMD102の任意の基本的な機能をサポートするためのプラットフォームソフトウェアの両方を含むことができる。プラットフォームソフトウェアは、仮想現実(VR)フレームワーク、拡張現実(AR)フレームワーク、または混合現実(MR)フレームワークで実装することができる。基本機能をサポートするプラットフォームソフトウェアは例えば、SteamVR(登録商標)(SteamVRは米国ワシントン州シアトルのValve Corporationの登録商標)ソフトウェア開発キット(SDK)、Oculus(登録商標)VR SDK(Oculusは米国カリフォルニア州アーバインのOculus VR LLCの登録商標)、OSVR(Open source VR)(OSVRはシンガポールRazer Asia Pacific Pte.Ltdの登録商標)SDK、およびMicrosoft Windows Mixed Reality Computing Platformを含むが、これに限らない。基盤プラットフォームソフトウェアを有するコンピューティングシステム108上で実行されるアプリケーションソフトウェアは、カスタマイズされたレンダリングエンジン、またはUnity(登録商標)ソフトウェアなどの既製の3Dレンダリングフレームワークとすることができる(Unity softwareは米国カリフォルニア州サンフランシスコのUnity Technologiesの登録商標)。レンダリングフレームワークは、3Dオブジェクトの外観を変更するための3Dオブジェクトおよび操作技法を含む、ホログラフィック屈折眼検査のための仮想化環境の基本ビルディングブロックを提供することができる。レンダリングフレームワークは、3Dオブジェクトのインスタンス化のためのアプリケーションプログラミングインタフェース(API)と、フレームワーク内の3Dオブジェクトの操作のための明確に定義されたインターフェースを提供できる。レンダリングフレームワークの一般的なソフトウェアプログラミング言語バインディングにはC++、Java、およびC#が含まれるが、これらに限定されない。さらに、アプリケーションソフトウェアは検査管理者がホログラフィックオブジェクトの速度やオブジェクトの色など、検査内のアクションを調整するための設定を提供できる。
図2は、例示的な実施形態による、ホログラフィック屈折眼検査装置を用いた水平フォリアの検査を示すブロック図である。1実施形態では、2つの仮想3Dオブジェクト202A、202Bを、ユーザの視野(FOV)204A、204B内で操作することができる。仮想3Dオブジェクト202A、202Bは、収束するまで同じ水平面内で平行移動することができる。仮想3Dオブジェクト202A、202Bは、FOVの中間点から同じ水平面内で等距離にあるユーザのFOV 204A、204B内の開始点を有することができる。アプリケーションソフトウェアを利用して、仮想3Dオブジェクト202A、202Bは、コンバイナレンズ104A、104B上で平行移動および投影され、これにより、仮想3Dオブジェクトがユーザの目106A、106Bの視野から設定された距離にあるという外観を与える。アプリケーションソフトウェアは、仮想3Dオブジェクトがユーザの目106A、106Bから異なる距離にあるように見えるように、コンバイナレンズ104A、104Bを介して仮想3Dオブジェクト202A、202Bを提示することができる。いくつかの実施形態では、仮想3Dオブジェクト202A、202Bの提示は、ユーザの目106A、106Bの前の16インチ〜20フィートの距離における仮想3Dオブジェクトの投影に対応する。この距離の範囲によって、収束結果におけるより良い信頼性を得るために、フォリアを異なる深さの間隔で測定することが可能となる。仮想3Dオブジェクト202A、202BがユーザのFOVの中間点に近づくと、ユーザは、アプリケーションソフトウェアまたはプラットフォームソフトウェアに入力を提供することができる。入力は音声命令、ジェスチャ、または「クリッカー」からの入力の形式をとることができる。仮想3Dオブジェクト202Aと202Bが互いに近づくにつれて、重複し始め、単一の仮想3Dオブジェクトに収束し始める。収束がユーザに明らかになる時点で、ユーザは、仮想3Dオブジェクト202A、202Bの任意の動きまたは並進を停止するための入力を提供することができる。アプリケーションソフトウェアは、ユーザのFOV204A、204Bの中間点と、ユーザがモーションまたは並進を停止するための入力を提供したときに仮想3Dオブジェクト202A、202Bが配置された点との間の差分を評価する。差分は、被検者からの仮想3Dオブジェクト202A、202Bの仮想距離に対する偏差として表すことができる。ディオプトリは、特定の仮想距離(1プリズムディオプトリ=1仮想メートル距離における画像の1仮想cm偏差)における画像の偏差によって測定される。
図3は、例示的な実施形態によるホログラフィック屈折眼検査装置を利用する垂直フォリアの検査を示すブロック図である。1実施形態では、2つの仮想3Dオブジェクト304A、304BをユーザのFOV302内で操作することができる。仮想3Dオブジェクト304A、304Bは、収束するまで同じ垂直面内で平行移動させることができる。仮想3Dオブジェクト304A、304Bは、FOVの中間点から同じ垂直面内で等距離にあるユーザのFOV302内の開始点を有することができる。アプリケーションソフトウェアを利用して、仮想3Dオブジェクト304A、304Bは、コンバイナレンズ104A、104B上で平行移動および投影され、これにより、仮想3Dオブジェクトがユーザの目106A、106Bの視野から設定された距離にあるという外観を与える。アプリケーションソフトウェアはコンバイナレンズ104A、104Bを介して仮想3Dオブジェクト304A、304Bを提示することができ、その結果、仮想3Dオブジェクトは、ユーザの目106A、106Bから異なる距離にあるように見えることができる。いくつかの実施形態では、仮想3Dオブジェクト304A、304Bの提示は、ユーザの目106A、106Bの前の16インチ〜20フィートの距離における仮想3Dオブジェクトの投影に対応する。この距離の範囲によって、収束結果におけるより良い信頼性を得るために、フォリアを異なる深さの間隔で測定することが可能となる。仮想3Dオブジェクト304A、304BがユーザのFOV302の中間点に近づくと、ユーザはアプリケーションソフトまたはプラットフォームソフトに入力を提供することができる。入力は音声命令、ジェスチャ、または「クリッカー」からの入力の形式をとることができる。仮想3Dオブジェクト304A、304Bが互いに近づくと、重複し始め、単一の可視仮想3Dオブジェクトに収束する。収束がユーザにとって明らかになる時点で、ユーザは、仮想3Dオブジェクト304A、304Bの任意の動きまたは並進を停止するための入力を提供することができる。アプリケーションソフトウェアは、ユーザのFOV302の中間点と、ユーザが動作または並進を停止させるための入力を提供したときにおける仮想3Dオブジェクト304A、304Bが配置された点との間の差分を評価する。上述のように、差分は、患者からの仮想3Dオブジェクト304A、304Bの仮想距離に対する偏差として表すことができる。ディオプトリは、特定の仮想距離(1 プリズムディオプトリ=1仮想メートル距離における画像の1仮想センチメートル偏差)における画像の偏差によって測定される。
図4Aは、例示的な1実施形態による、ホログラフィック屈折眼検査装置を利用する乱視に関する検査を示すブロック図である。1実施形態では、複数の仮想3Dオブジェクト404A、406A、406BをユーザのFOV402内で操作することができる。仮想3Dオブジェクト404A、406A、406Bは、コンバイナレンズ408Cの平面に対して平行な異なる平面408A、408Bで始まる。1実施形態では、仮想3Dオブジェクト404Aは、平面408A内に存在する(ユーザの目106A、106Bに対する)1組の垂直線とすることができる。追加の仮想3Dオブジェクト406A、406Bは、平面408B内に存在する(ユーザの目106A、106Bに対する)1組の水平線とすることができる。FOV402内のコンバイナレンズ104A、104Bを通して見ると、仮想3Dオブジェクト404A、406A、406Bは、仮想3Dオブジェクトが交差するように見えるハッシュマーク(#)として現れるが、それらは異なる平面408A、408B内にあるので、実際には交差しない。
1実施形態では、ユーザがコンピューティングシステム108に入力を提供することによって検査を開始することができる。入力は、検査の開始、ジェスチャを示すキーワードを言うこと、または「クリッカー」からの入力を提供することを含む音声コマンドの形態をとることができる。1実施形態では、ユーザが単語「開始」を発話して検査を開始する。検査の制御は、「前方」および「後方」を含む音声コマンドの形態をとることができる。「前方」の音声コマンドは、平面408Aおよび関連する仮想3Dオブジェクト404Aをコンバイナレンズ104A、104Bに向かって平行移動させる。「後方」の音声コマンドは、平面408Aおよび関連する仮想3Dオブジェクト404Aをコンバイナレンズ104A、104Bから離れるように平行移動させる。音声コマンドおよび関連する平行移動を使用して、ユーザは仮想3Dオブジェクト404Aを操作することができ、ユーザはそれぞれの平面408A、408Bおよび関連する仮想3Dオブジェクト404A、406A、406Bが一致していると考える。ユーザは検査の操作部分を完了するために単語「停止」を述べるなどのような音声コマンドをコンピューティングシステム108に提供することができる。「停止」コマンドを受信すると、 コンピューティングシステム108は「前方」および「後方」などの後続の入力コマンドを許可せず、平面408A、408Bの最終位置間の差分距離を決定する。ユーザが平面408A、408Bを一致するように操作した場合、差分はゼロになる。
図4Bは、図4Aに示される仮想3Dオブジェクトのユーザの視点を示すブロック図である。仮想3Dオブジェクト406A、406Bは、同じ平面408Bに存在する平行線として実装することができる。仮想3Dオブジェクト404A、404Bは、同じ平面408A内に存在する平行線として実装することができる。
図5Aは、例示的な1実施形態による、ホログラフィック屈折眼検査装置を利用する乱視に関する検査を示すブロック図である。図5Bは、図5Aに示される仮想3Dオブジェクトのユーザの視点を示すブロック図である。1実施形態では、複数の仮想3Dオブジェクト504A、504BをユーザのFOV402内で操作することができる。仮想3Dオブジェクト504A、504Bは不可視球体510の表面を横切る同心不透明リングに対応し、同心不透明リングは、コンバイナレンズ104A、104Bの平面に対して垂直な球体の表面を横切る。仮想3Dオブジェクト504A、504Bは、同軸平面506、508に沿って方向付けることができる。他の実施形態では、仮想3Dオブジェクト504A、504Bは不可視球510の表面を横切る同心不透明リングの遠位部分または近位部分である。
1実施形態では、ユーザがコンピューティングシステム108に入力を提供することによって検査を開始することができる。入力は、検査の開始を示すキーワードを言うことを含む音声コマンド、ジェスチャ、または「クリッカー」からの入力を提供すること、の形態をとることができる。ユーザは検査を開始するために単語「開始」を述べる。検査が開始すると、不可視球510および付随する仮想3Dオブジェクトはコンバイナレンズ104A、104Bに向かって平行移動され、これにより、仮想3Dオブジェクトがユーザの目106Aに直接来るという外観をユーザに与える。ユーザが仮想3Dオブジェクト504A、504Bを明確に見ることができるとき、ユーザは「停止」という音声コマンドの形態で検査を停止するための入力を提供することができる。コンピューティングシステム108は不可視球510の平行移動を停止し、不可視球の開始点から不可視球が検査の終了時に存在する点までの差分距離を計算する。不可視球体510上の一定の基準点を利用して、一貫した位置を決定し、差分距離を決定することができる。
別の実施形態では、ユーザがコンピューティングシステム108に入力を提供することによって検査を開始することができる。入力は、検査の開始を示すキーワードを含む音声コマンド、ジェスチャ、または「クリッカー」からの入力を提供すること、の形態をとることができる。ユーザは、検査を開始するために「開始」という単語を述べる。仮想3Dオブジェクト504A、504Bは、開始平面506と平行または一致する平面内の検査である。検査が開始されると、不可視球510および付随する仮想3Dオブジェクトは、ユーザの視点から時計回りの動き512で回転される。不可視球510および付随する仮想3Dオブジェクトが元の開始位置(水平面508に平行または一致)から90度回転したように見えるとき、ユーザは、「停止」という音声コマンドの形態で検査を停止するための入力を提供することができる コンピューティングシステム108は不可視球体510の回転を停止し、不可視球体の出発点から検査終了時の不可視球体の向きへの回転に基づいて、度単位の差分を計算する。角度の差分は、乱視の軸を決定するために使用することができる。これは、この眼において測定された乱視の量を提供し、したがって、明瞭さをもたらすために必要とされる円筒補正の予測される量を提供する。
図5Cは、図5Aに示される仮想3Dオブジェクトの別のユーザの視点を示すブロック図である。別の実施形態では、仮想3Dオブジェクト504A、504Bは、不可視球510の表面を横切る同心の不透明リングの遠位部分とすることができる。仮想3Dオブジェクト514A、514Bは、不可視球510の表面を横切る同心の不透明リングの近位部分とすることができる。同心の不透明リングの遠位部分はグループを形成し、近位部分はグループを形成する。グループは、一斉にFOV402内で回転され、平行移動される。遠位部分は、45度の回転によって近位部分からオフセットされる。ユーザは、コンピューティングシステム108に入力を提供することによって、検査を開始することができる。入力は、検査を開始することを示すキーワードを言うことを含む音声コマンド、ジェスチャ、または「クリッカー」から入力を提供すること、の形態をとることができる。ユーザは単語「開始」を述べて検査を開始する。コンピューティングシステム108は、近位部分に対応する仮想3Dオブジェクト514A、514Bをコンバイナレンズ104A、104Bに向けて平行移動し、仮想3Dオブジェクト514A、514Bはユーザの目102A、102Bに向かって来るように見える。仮想3Dオブジェクト514A、514Bが明瞭であり遠位仮想3Dオブジェクト504A、504Bとは別のものであるとユーザが判断すると、ユーザは「停止」という音声コマンドの形態で検査を停止するための入力を提供することができる。コンピューティングシステム108は近位部分に対応する仮想3Dオブジェクト514A、514Bの並進を停止し、検査の開始点から終了時の位置への並進に基づいて距離の差分を計算する。
図6は、例示的な実施形態による例示的なコンピューティングデバイスのブロック図を示す。
ステップ602において、ホログラフィックディスプレイデバイスは、1つまたは複数の3次元オブジェクトをレンダリングする。レンダリングは、ユーザが見ることができる深度の仮想レベルに対応する。
ステップ604において、ホログラフィックディスプレイデバイスは、ホログラフィックディスプレイデバイス内の1つ以上の3次元オブジェクトのレンダリングを更新する。更新されたレンダリングは、仮想深度レベル内の1つまたは複数の3次元オブジェクトの仮想移動を含む。仮想移動は、1つまたは複数の3次元オブジェクトをユーザの視野内で横方向に移動させることを含む。代替として、仮想移動は、ユーザの視野内で1つまたは複数の3次元オブジェクトを垂直に移動させることを含む。さらに、仮想移動は、ユーザの視野内の遠位位置から近位位置に1つまたは複数の3次元オブジェクトを移動させることを含む。奥行きの仮想レベルは、ユーザからのシミュレートされた距離に対応する。シミュレーションされた距離は、ユーザから16インチ〜20フィートの範囲になる。
ステップ606において、ホログラフィックディスプレイデバイスは、ユーザから入力を受け取る。入力は、仮想移動に基づく1つまたは複数の3次元オブジェクトの位置合わせの指示を含むことができる。位置合わせの指示は、1つまたは複数の3次元オブジェクト間の相対仮想位置を含むことができる。ユーザからの入力は、手のジェスチャと音声コマンドを含むことができる。
ステップ608において、ホログラフィックディスプレイデバイスは、1つ以上の3次元オブジェクトの相対仮想位置と最適仮想位置との間の差分を決定する。
ステップ610において、ホログラフィックディスプレイデバイスは、1つ以上の3次元オブジェクトの相対仮想位置と最適仮想位置との間の差分に基づいて処方を生成する。
図7は、例示的な実施形態による例示的なコンピューティングデバイスのブロック図を示す。コンピューティングデバイス700の実施形態は、ホログラフィック屈折目検査装置を含むシステムの実施形態を実施することができる。例えば、コンピューティングデバイスは、ホログラフィック屈折眼検査装置の一部として具現化され、コンピューティングデバイスをサポートすることができる。コンピューティングデバイス700は、例示的な実施形態を実施するための1つ以上のコンピュータ実行可能命令またはソフトウェアを記憶するための1つ以上の非一時的コンピュータ読み取り可能媒体を含む。非一時的コンピュータ可読媒体は、1つ以上のタイプのハードウェアメモリ、非一時的有形媒体(例えば、1つ以上の磁気記憶ディスク、1つ以上の光ディスク、1つ以上のフラッシュドライブ、1つ以上のソリッドステートディスク)などを含むが、これらに限定されない。例えば、コンピューティングシステム108に含まれるメモリ706は、コンピューティングデバイス700の例示的な動作を実現するためのコンピュータ読み取り可能命令およびコンピュータ実行可能命令またはソフトウェア(例えば、レンダリングアプリケーションなどのアプリケーション730)を記憶することができる。コンピューティングシステム108はまた、メモリ706に格納されたコンピュータ可読およびコンピュータ実行可能命令またはソフトウェア、ならびに本開示の例示的な実施形態を実装するための他のプログラムを実行するための、構成可能および/またはプログラマブルプロセッサ702および関連するコア704’(例えば、複数のプロセッサ/コアを有するコンピュータシステムの場合)、ならびに任意的に、1つまたは複数の追加の構成可能および/またはプログラマブルプロセッサ702’および関連するコア704’(複数のプロセッサ/コアを有するコンピュータシステムの場合)を含む。プロセッサ702およびプロセッサ702’は、それぞれ、単一コアプロセッサまたは複数コア(704および704’)プロセッサであってもよい。プロセッサ702およびプロセッサ702’のいずれかまたは両方は、コンピューティングシステム108に関連して説明される1つまたは複数の命令を実行するように構成することができる。
コンピューティングシステム108内のインフラストラクチャおよびリソースを動的に共有することができるように、コンピューティングシステム108において仮想化を採用することができる。仮想マシン712は複数のプロセッサ上で実行されるプロセスを処理するために提供されてもよく、その結果、プロセスは複数のコンピューティングリソースではなく、1つのコンピューティングリソースのみを使用しているように見える。1つのプロセッサで複数の仮想マシンを使用することもできる。
メモリ706は、DRAM、SRAM、EDO RAMなどのコンピュータシステムメモリまたはランダムアクセスメモリを含むことができる。メモリ706は、同様に他のタイプのメモリ、またはそれらの組合せを含むことができる。コンピューティングシステム108は、入出力装置からデータを受信することができる。ユーザはコンバイナレンズ716のような視覚表示装置714を介してコンピューティングシステム108と対話することができ、コンバイナレンズは、1つ以上の仮想グラフィカルユーザインターフェース、マイクロホン720、および1つ以上のカメラ718を表示することができる。
コンピューティングシステム108はまた、本開示の例示的な実施形態を実施するデータおよびコンピュータ読み取り可能な命令および/またはソフトウェアを記憶するための、ハードドライブ、CD−ROM、または他のコンピュータ読み取り可能媒体などの1つ以上の記憶装置726を含んでもよい。例えば、例示的な記憶装置726は、プラットフォームソフトウェアおよびアプリケーションソフトウェアに関連する情報を記憶することを含むことができる。
コンピューティングシステム108は例えば、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、またはインターネットと、1つ以上のネットワーク装置724を介して様々な接続経由でインターフェースするように構成されたネットワークインターフェース708を含むことができる。接続の例としては、標準電話回線、LANまたはWANリンク(例えば、802.11、T1、T3、56kb、X.25)、ブロードバンド接続(例えば、ISDN、フレームリレー、ATM)、無線接続、コントローラエリアネットワーク(CAN)、または上記のいずれかまたはすべての組み合わせを含むが、これらに限定されない。例示的な実施形態では、コンピューティングシステムは、コンピューティングシステム108とネットワークとの間、および/またはコンピューティングシステム108と他のコンピューティングデバイスとの間の(例えば、ネットワークインターフェースを介した)ワイヤレス通信を容易にするために、1つまたは複数のアンテナ722を含むことができる。ネットワークインターフェース708は、内蔵ネットワークアダプター、ネットワークインターフェースカード、PCMCIAネットワークカード、カードバスネットワークアダプター、ワイヤレスネットワークアダプター、USBネットワークアダプター、モデム、またはコンピューティングシステム108を通信可能な任意のタイプのネットワークにインターフェースし、本明細書に記載する動作を実行するのに適した他の任意の装置を含んでもよい。
コンピューティングシステム108は、Microsoft(登録商標) Windows(登録商標)オペレーティングシステムのいずれかのバージョン、UnixおよびLinux(登録商標)オペレーティングシステムの異なるリリース、Macintoshコンピュータ用の任意のバージョンのMacOS(登録商標)、任意の組み込みオペレーティングシステム、任意のリアルタイムオペレーティングシステム、任意のオープンソースオペレーティングシステム、任意の専有オペレーティングシステム、またはコンピューティングシステム108上で実行し、本明細書に記載する操作を実行することができる他の任意のオペレーティングシステムなど、任意のオペレーティングシステム710を実行することができる。例示的な実施形態では、オペレーティングシステム710はネイティブモードまたはエミュレートモードで実行することができる。例示的な実施形態では、オペレーティングシステム710は1つまたは複数のクラウドマシンインスタンス上で実行することができる。
例示的な実施形態を説明する際に、明確にするために特定の用語が使用される。説明の目的のために、各特定の用語は、類似の目的を達成するために類似の方法で動作するすべての技術的および機能的等価物を少なくとも含むことが意図される。さらに、特定の例示的な実施形態が複数のシステム要素、デバイス構成要素、または方法ステップを含むいくつかの例においては、これらの要素、構成要素、またはステップは単一の要素、構成要素、またはステップと置き換えることができる。同様に、単一の要素、構成要素、またはステップは、同じ目的を果たす複数の要素、構成要素、またはステップと置き換えることができる。さらに、例示的な実施形態がその特定の実施形態を参照して示され、説明されてきたが、当業者は本開示の範囲から逸脱することなく、形態および詳細における様々な置換および変更がその中で行われ得ることを理解するであろう。さらに、他の態様、機能、および利点もまた、本開示の範囲内である。
例示的なフローチャートは、例示の目的で本明細書に提供され、方法の非限定的な例である。当業者であれば、例示的な方法は例示的なフローチャートに示されるステップよりも多いまたは少ないステップを含むことができ、例示的なフローチャートのステップは、例示的なフローチャートに示される順序とは異なる順序で実行することができることを理解するであろう。

Claims (20)

  1. 視覚障害のための治療の診断および処方のための装置であって、
    頭部装着型ホログラフィックディスプレイデバイス;
    前記頭部装着型ホログラフィックディスプレイデバイスに通信可能に接続されたコンピューティングデバイス;
    前記コンピューティングデバイス上で実行するように構成された診断モジュール、
    を備え、
    前記診断モジュールは、
    前記ホログラフィックディスプレイデバイス内の1つ以上の3次元オブジェクトをレンダリングするステップであって、前記レンダリングは、ユーザが見ることができる仮想深度レベルに対応する、ステップ;
    前記ホログラフィックディスプレイデバイス内の前記1つ以上の3次元オブジェクトの前記レンダリングを更新するステップであって、前記更新は、前記仮想深度レベル内の前記1つ以上の3次元オブジェクトの仮想移動を含む、ステップ;
    ユーザからの入力を受け取るステップであって、前記入力は、前記仮想移動に基づいて前記1つ以上3次元オブジェクトの位置合わせの指示を含み、前記位置合わせの指示は、前記1つ以上の3次元オブジェクト間の相対仮想位置を含む、ステップ;
    前記1つ以上の3次元オブジェクトの前記相対仮想位置と最適仮想位置との間の差分を決定するステップ;
    前記1つ以上の3次元オブジェクトの前記相対仮想位置と前記最適仮想位置との間の前記差分に基づいて処方を生成するステップ;
    を実行する、
    装置。
  2. 前記仮想移動は、前記ユーザの視野内で前記1つ以上の3次元オブジェクトを横方向に移動させることを含む、請求項1記載のシステム。
  3. 前記仮想移動は、前記ユーザの視野内で前記1つ以上の3次元オブジェクトを垂直に移動させることを含む、請求項1記載のシステム。
  4. 前記仮想移動は、前記ユーザの視野内の遠位位置から近位位置へ前記1つ以上の3次元オブジェクトを移動させることを含む、請求項1記載のシステム。
  5. 前記仮想深度レベルは、前記ユーザからのシミュレートされた距離に対応する、請求項1記載のシステム。
  6. 前記ユーザからの前記入力は、ハンドジェスチャおよび音声コマンドを含む、請求項1記載のシステム。
  7. 前記頭部装着型ディスプレイデバイスは、瞳孔間距離に対して較正された1対の透明なコンバイナレンズを含む、請求項1記載のシステム。
  8. 視覚障害のための治療の診断および処方のための方法であって、
    頭部装着型ホログラフィックディスプレイデバイス上に、前記ホログラフィックディスプレイデバイス内の1つ以上の3次元オブジェクトをレンダリングするステップであって、前記レンダリングは、ユーザによって見ることができる仮想深度レベルに対応する、ステップ;
    前記ホログラフィックディスプレイデバイス内の前記1つ以上の3次元オブジェクトの前記レンダリングを更新するステップであって、前記更新、前記仮想深度レベル内の前記1つ以上の3次元オブジェクトの仮想移動を含む、ステップ;
    ユーザからの入力を受信するステップであって、前記入力は、前記仮想移動に基づいた前記1つ以上の3次元オブジェクトの位置合わせの指示を含み、前記位置合わせの指示は、前記1つ以上の3次元オブジェクト間の相対仮想位置を含む、ステップ;
    前記1つ以上の3次元オブジェクトの前記相対仮想位置と最適仮想位置との間の差分を決定するステップ;
    前記1つ以上の3次元オブジェクトの前記相対仮想位置と前記最適仮想位置との間の前記差分に基づいて処方を生成するステップ;
    を有する方法。
  9. 前記仮想移動は、前記ユーザの視野内で前記1つ以上の3次元オブジェクトを横方向に移動させることを含む、請求項8記載の方法。
  10. 前記仮想移動は、前記ユーザの視野内で前記1つ以上の3次元オブジェクトを垂直に移動させることを含む、請求項8記載の方法。
  11. 前記仮想移動は、前記ユーザの視野内の遠位位置から近位位置へ前記1つ以上の3次元オブジェクトを移動させることを含む、請求項8記載の方法。
  12. 前記仮想深度レベルは、前記ユーザからのシミュレートされた距離に対応する、請求項8記載の方法。
  13. 前記ユーザからの前記入力は、ハンドジェスチャおよび音声コマンドを含む、請求項8記載の方法。
  14. 前記頭部装着型ディスプレイデバイスは、瞳孔間距離に対して較正された1対の透明なコンバイナレンズを含む、請求項8記載の方法。
  15. 視覚障害の治療の診断および処方のための非一時的コンピュータ可読媒体であって、前記媒体は、コンピューティングシステムで実行されたときに、コンピューティングシステムに動作を実行させる命令を記憶しており、前記動作は、
    頭部装着型ホログラフィックディスプレイデバイス上に、前記ホログラフィックディスプレイデバイス内の1つ以上の3次元オブジェクトをレンダリングするステップであって、前記レンダリングは、ユーザによって見ることができる仮想深度レベルに対応する、ステップ;
    前記ホログラフィックディスプレイデバイス内の前記1つ以上の3次元オブジェクトの前記レンダリングを更新するステップであって、前記更新、前記仮想深度レベル内の前記1つ以上の3次元オブジェクトの仮想移動を含む、ステップ;
    ユーザからの入力を受信するステップであって、前記入力は、前記仮想移動に基づいた前記1つ以上の3次元オブジェクトの位置合わせの指示を含み、前記位置合わせの指示は、前記1つ以上の3次元オブジェクト間の相対仮想位置を含む、ステップ;
    前記1つ以上の3次元オブジェクト間の前記相対仮想位置と最適仮想位置との間の差分を決定するステップ;
    前記差分に基づいて処方を生成するステップ;
    を有する、
    コンピュータ可読媒体。
  16. 前記仮想移動は、前記ユーザの視野内で前記1つ以上の3次元オブジェクトを横方向に移動させることを含む、請求項15記載のコンピュータ可読媒体。
  17. 前記仮想移動は、前記ユーザの視野内で前記1つ以上の3次元オブジェクトを垂直に移動させることを含む、請求項15記載のコンピュータ可読媒体。
  18. 前記仮想移動は、前記ユーザの視野内の遠位位置から近位位置へ前記1つ以上の3次元オブジェクトを移動させることを含む、請求項15記載のコンピュータ可読媒体。
  19. 前記仮想深度レベルは、前記ユーザからのシミュレートされた距離に対応する、請求項15記載のコンピュータ可読媒体。
  20. 前記頭部装着型ディスプレイデバイスは、瞳孔間距離に対して較正された1対の透明なコンバイナレンズを含む、請求項15記載のコンピュータ可読媒体。
JP2020567445A 2018-02-26 2019-02-22 ホログラフィック実空間屈折システム Pending JP2021515278A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023077005A JP2023113632A (ja) 2018-02-26 2023-05-09 ホログラフィック実空間屈折システム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/904,995 US10441161B2 (en) 2018-02-26 2018-02-26 Holographic real space refractive sequence
US15/904,995 2018-02-26
PCT/US2019/019251 WO2019165280A1 (en) 2018-02-26 2019-02-22 Holographic real space refractive sequence

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023077005A Division JP2023113632A (ja) 2018-02-26 2023-05-09 ホログラフィック実空間屈折システム

Publications (1)

Publication Number Publication Date
JP2021515278A true JP2021515278A (ja) 2021-06-17

Family

ID=67685391

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020567445A Pending JP2021515278A (ja) 2018-02-26 2019-02-22 ホログラフィック実空間屈折システム
JP2023077005A Pending JP2023113632A (ja) 2018-02-26 2023-05-09 ホログラフィック実空間屈折システム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023077005A Pending JP2023113632A (ja) 2018-02-26 2023-05-09 ホログラフィック実空間屈折システム

Country Status (9)

Country Link
US (1) US10441161B2 (ja)
EP (1) EP3758577A4 (ja)
JP (2) JP2021515278A (ja)
CN (1) CN112153934A (ja)
AU (1) AU2019224109A1 (ja)
BR (1) BR112020017405A2 (ja)
CA (1) CA3092363A1 (ja)
MX (1) MX2020008827A (ja)
WO (1) WO2019165280A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11614623B2 (en) 2018-02-26 2023-03-28 Veyezer, Llc Holographic real space refractive system
US11253149B2 (en) 2018-02-26 2022-02-22 Veyezer, Llc Holographic real space refractive sequence
US11747617B2 (en) * 2020-07-24 2023-09-05 Padula Rehabilitation Technologies, Llc Systems and methods for a parallactic ambient visual-field enhancer
WO2022066744A1 (en) * 2020-09-25 2022-03-31 Veyezer, Llc Holographic real space refractive system
CN112866679B (zh) * 2021-04-23 2021-08-10 广东视明科技发展有限公司 在运动状态下的多位点立体视检测方法
WO2023049086A2 (en) * 2021-09-22 2023-03-30 Veyezer, Llc Holographic real space refractive system
WO2024006251A1 (en) * 2022-06-27 2024-01-04 Padula William V On-line eye pattern frequency modulation methods and systems

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08286275A (ja) * 1995-01-10 1996-11-01 He Holdings Inc Dba Hughes Electron 像投影ディスプレイ
JPH09166955A (ja) * 1995-12-18 1997-06-24 Matsushita Electric Ind Co Ltd 画像表示装置
JPH11197108A (ja) * 1998-01-13 1999-07-27 Nikon Corp 視機能検査装置
JP2015006425A (ja) * 2014-09-05 2015-01-15 株式会社クリュートメディカルシステムズ 視覚検査装置及び視覚検査プログラム
JP2016535872A (ja) * 2013-09-04 2016-11-17 エシロール アンテルナシオナル (コンパニー ジェネラル ドプティック) 拡張現実感のための方法とシステム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3405778C2 (de) 1984-02-17 1986-01-16 ESG Elektronik-System-GmbH, 8000 München Vorrichtung zur Augenuntersuchung, insbesondere der Stereosehschärfe
US5293187A (en) 1992-02-05 1994-03-08 Biocontrol Systems, Inc. Method and apparatus for eye tracking for convergence and strabismus measurement
AUPS196802A0 (en) * 2002-04-26 2002-06-06 Queensland University Of Technology Optometry measurement device
GB201008338D0 (en) * 2010-05-19 2010-07-07 Sec Dep For Innovation Univers Infinity image hologram
US20130194389A1 (en) * 2012-01-31 2013-08-01 Ben Vaught Head-mounted display device to measure attentiveness
US9101312B2 (en) 2012-04-18 2015-08-11 TBI Diagnostics LLC System for the physiological evaluation of brain function
KR102564748B1 (ko) * 2015-03-16 2023-08-07 매직 립, 인코포레이티드 건강 질환 진단과 치료를 위한 방법 및 시스템
DE102015207911B3 (de) * 2015-04-29 2016-09-15 Sigmund Scigalla Verfahren und Vorrichtung zur Bestimmung der Korrekturwerte der Augen einer Person
EP3288439B1 (de) 2015-04-30 2021-06-23 Oculocare Medical AG Verfahren und datenverarbeitungsprogramm zur bestimmung des sehvermögens eines benutzers
CN105662334B (zh) 2016-01-18 2017-07-11 北京国承万通信息科技有限公司 眼睛光学参数检测设备及头戴式显示器

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08286275A (ja) * 1995-01-10 1996-11-01 He Holdings Inc Dba Hughes Electron 像投影ディスプレイ
JPH09166955A (ja) * 1995-12-18 1997-06-24 Matsushita Electric Ind Co Ltd 画像表示装置
JPH11197108A (ja) * 1998-01-13 1999-07-27 Nikon Corp 視機能検査装置
JP2016535872A (ja) * 2013-09-04 2016-11-17 エシロール アンテルナシオナル (コンパニー ジェネラル ドプティック) 拡張現実感のための方法とシステム
JP2015006425A (ja) * 2014-09-05 2015-01-15 株式会社クリュートメディカルシステムズ 視覚検査装置及び視覚検査プログラム

Also Published As

Publication number Publication date
CN112153934A (zh) 2020-12-29
BR112020017405A2 (pt) 2020-12-15
EP3758577A1 (en) 2021-01-06
MX2020008827A (es) 2020-12-11
US10441161B2 (en) 2019-10-15
AU2019224109A1 (en) 2020-10-01
US20190261847A1 (en) 2019-08-29
EP3758577A4 (en) 2021-12-01
JP2023113632A (ja) 2023-08-16
WO2019165280A1 (en) 2019-08-29
CA3092363A1 (en) 2019-08-29

Similar Documents

Publication Publication Date Title
US10441161B2 (en) Holographic real space refractive sequence
JP7078540B2 (ja) 画像作成装置、画像作成方法、画像作成プログラム、眼鏡レンズの設計方法および眼鏡レンズの製造方法
CN109964167B (zh) 用于确定显示装置的使用者的眼睛参数的方法
US10567731B1 (en) Real-time multifocal displays with gaze-contingent rendering and optimization
US11253149B2 (en) Holographic real space refractive sequence
Sauer et al. Assessment of consumer VR-headsets’ objective and subjective field of view (FoV) and its feasibility for visual field testing
WO2017177425A1 (zh) 一种虚拟现实设备中的图像处理方法和装置
Wong et al. Visualisation ergonomics and robotic surgery
US11614623B2 (en) Holographic real space refractive system
US11256110B2 (en) System and method of utilizing computer-aided optics
WO2023049086A2 (en) Holographic real space refractive system
AU2021305095A1 (en) Holographic real space refractive system
US20240176418A1 (en) Method and system for improving perfomance of an eye tracking system
Solyman et al. An All-Digital, Binocular, Indirect Virtual Video Ophthalmoscope: A Novel Approach to Retinal Examination and Photography
JP2023543822A (ja) ホログラフィック実空間屈折システム
CN117338574A (zh) 一种基于裸眼3d的视觉防护训练方法及其系统
Plopski Improving Optical-See-Through Experience
Simmons Emmetropic eyeglasses: Methods, early development and extended applications

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200929

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20201117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20201117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220819

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230110