JP7748751B2 - 弱視および斜視を有する人の両眼視を改善するためのシステムおよび方法 - Google Patents
弱視および斜視を有する人の両眼視を改善するためのシステムおよび方法Info
- Publication number
- JP7748751B2 JP7748751B2 JP2024095148A JP2024095148A JP7748751B2 JP 7748751 B2 JP7748751 B2 JP 7748751B2 JP 2024095148 A JP2024095148 A JP 2024095148A JP 2024095148 A JP2024095148 A JP 2024095148A JP 7748751 B2 JP7748751 B2 JP 7748751B2
- Authority
- JP
- Japan
- Prior art keywords
- eye
- viewer
- virtual object
- normal
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0008—Apparatus for testing the eyes; Instruments for examining the eyes provided with illuminating means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/02—Subjective types, i.e. testing apparatus requiring the active assistance of the patient
- A61B3/08—Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing binocular or stereoscopic vision, e.g. strabismus
- A61B3/085—Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing binocular or stereoscopic vision, e.g. strabismus for testing strabismus
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H5/00—Exercisers for the eyes
- A61H5/005—Exercisers for training the stereoscopic view
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/01—Constructive details
- A61H2201/0188—Illumination related features
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/16—Physical interface with patient
- A61H2201/1602—Physical interface with patient kind of interface, e.g. head rest, knee support or lumbar support
- A61H2201/1604—Head
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/16—Physical interface with patient
- A61H2201/1602—Physical interface with patient kind of interface, e.g. head rest, knee support or lumbar support
- A61H2201/165—Wearable interfaces
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5007—Control means thereof computer controlled
- A61H2201/501—Control means thereof computer controlled connected to external computer devices or networks
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5023—Interfaces to the user
- A61H2201/5043—Displays
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5058—Sensors or detectors
- A61H2201/5092—Optical sensor
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0132—Head-up displays characterised by optical features comprising binocular systems
- G02B2027/0134—Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0185—Displaying image at variable distance
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
Landscapes
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Animal Behavior & Ethology (AREA)
- Signal Processing (AREA)
- Biomedical Technology (AREA)
- Surgery (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Heart & Thoracic Surgery (AREA)
- Biophysics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physical Education & Sports Medicine (AREA)
- Epidemiology (AREA)
- Pain & Pain Management (AREA)
- Rehabilitation Therapy (AREA)
- Eye Examination Apparatus (AREA)
- Rehabilitation Tools (AREA)
- Controls And Circuits For Display Device (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Description
弱視および斜視のために診断および処置のための数多くの方法が提案されてきた。弱視については、視覚が弱い眼は、通常はメガネもしくはコンタクトレンズ、またはパッチング治療(patching therapy)を用いて補正され、いくつかの他の事例では、周波数コントラスト対象物または色コントラスト対象物を使用する刺激は、弱視の眼の視覚を改善することがある。いくつかのタイプの刺激の組合せがより効果的であることが証明されている。斜視については多くの場合、2つの眼の間の誤整列を補正するように眼の運動を使用して眼筋相関関係を改善する。
近年、弱視および斜視を治療する医療機器の使用法がいくらか進歩した。しかしながら、これらの従来の機器は、異なる深度の間で両眼凝視を訓練するための手段を提供できない。両眼視を改善するための革新的なシステムおよび方法が必要とされる。
正常な眼は、見る人の右眼であっても左眼であってもよい第1の眼50を指す。視力の弱い方の眼または異常な眼(集合的に「弱い眼」)は、見る人の右眼であっても左眼であってもよい第2の眼60(正常な眼以外の残りの眼)を指す。本開示は、見る人の眼の情報に基づき、2つの異なる深度の間で動いている仮想画像を生成して見る人の視力の弱い眼を刺激し、次いで強化/治療して最終的に、見る人の両眼視を改善する、またはさらには回復させるシステムおよび方法について記述する。
仮想画像モジュール120は、正常光信号発生器10、正常結合器20、調節光信号発生器30、および調節結合器40を含む。正常光信号発生器10は、正常結合器20により向きを変えられて、見る人の第1の眼の中に投影して正常画像を形成する多数の正常光信号を生成する。調節光信号発生器30は、調節結合器40により向きを変えられて、見る人の第2の眼の中に投影して調節画像を形成する多数の調節光信号を生成する。仮想画像モジュール120は、データを処理および記憶する制御ユニット125をさらに含んでよい。
ユーザインタフェース140は、見る人または訓練者がシステム100のさまざまな機能を制御できるようにする。ユーザインタフェース140は音声、手ぶり、指/足の動きによりペダル、キーボード、マウス、ノブ、スイッチ、スタイラス(登録商標)、ボタン、スティック、タッチ画面などの形で動作させられてよい。実対象物測定モジュール150は、第1の仮想対象物と相互作用する実対象物の場所および深度を測定する。実対象物測定モジュール150はまた、環境の画像およびビデオを取り込んでよい。フィードバックモジュール160は、所定の条件を満たす場合、見る人に音響および振動などのフィードバックを提供する。外部サーバ170は、システム100の一部ではなく、より複雑な計算のために追加の計算能力を提供できる。これらのモジュールの各々および外部サーバは、有線または無線の手法で互いに通信してよい。無線の手法は、Wi-Fi(登録商標)、Bluetooth(登録商標)、近距離無線通信(near field communication、NFC)、インターネット、電気通信、無線周波数(radio frequency、RF)などを含んでよい。
この状況では、支持構造は、1個のメガネのレンズありまたはなしのフレームであってよい。レンズは近視、遠視などを補正するために使用する処方レンズであってよい。それに加えて、第1のカメラ112および第2のカメラ114を含む視標追跡モジュールは、見る人の両眼を追跡する支持構造により保持される。実対象物測定モジュール150はまた、実対象物の場所および深度を測定する支持構造により保持されてよい。
第1の仮想対象物70は、第1の目標場所および第1の目標深度(集合的に「第1の目標位置」または「T1」)に表示される。仮想画像モジュール120は、NLS_1に関する12、NLS_1に関する14、およびNLS_3に関する16など、多数の正常光信号を生成する正常光信号発生器10、見る人の正常網膜54に向けて多数の正常光信号の向きを変える正常結合器20、ALS_1に関する32、ALS_2に関する34、およびALS_3に関する36など、多数の調節光信号を生成する調節光信号発生器30、ならびに見る人の調節網膜64に向けて多数の調節光信号の向きを変える調節結合器40を含む。見る人は、正常瞳孔52および正常網膜54を包含する正常な眼50、ならびに調節瞳孔62および調節網膜64を包含する視力の弱い眼60を有する。人間の瞳孔の直径は一般に、一部は環境光に応じて2mm~8mmの範囲にわたることがある。成人の正常な瞳孔サイズは、明るい光の中で直径が2mmから4mmまで、暗闇の中で4mmから8mmまで変動する。
多数の正常光信号は、正常結合器20により向きを変えられ、正常瞳孔52を通り、最終的に正常網膜54により受信される。正常光信号NLS_1は、見る人の正常な眼が特有の水平面上で見ることができる右側に最も遠い光信号である。正常光信号NLS_2は、見る人の正常な眼が同じ水平面上で見ることができる左側に最も遠い光信号である。向きを変えられた正常光信号を受信すると、見る人は、向きを変えられた正常光信号NLS_1およびNLS_2の広がりにより境界を定められる領域A内の第1の目標位置T1に第1の仮想対象物70に関する(正常画像を形成する)多数の正常画素を知覚する。領域Aは、正常な眼50に関する視界(field of view、FOV)と呼ばれる。同様に多数の調節光信号は、調節結合器40により向きを変えられ、調節瞳孔62の中心を通り、最終的に調節網膜64により受信される。調節光信号ALS_1は、見る人の視力の弱い眼が特有の水平面上で見ることができる右側に最も遠い光信号である。調節光信号ALS_2は、見る人の視力の弱い眼が同じ水平面上で見ることができる左側に最も遠い光信号である。向きを変えられた調節光信号を受信すると、見る人は、向きを変えられた調節光信号ALS_1およびALS_2の広がりにより境界を定められる領域B内に仮想対象物70に関する(調節画像を形成する)多数の調節画素を知覚する。
領域Bは、弱い眼60に関する視界(FOV)と呼ばれる。領域Aおよび領域Bと重なった領域C内に多数の正常画素と調節画素の両方が表示されるとき、1つの正常画素を表示する少なくとも1つの正常光信号、および1つの調節画素を表示する対応する調節光信号を融合して領域C内に特有の深度に仮想両眼画素を表示する。第1の目標深度D1は、見る人の網膜の中に投影される向きを変えられた正常光信号16’と向きを変えられた調節光信号36’の角度Θ1に関係がある。そのような角度はまた輻輳角と呼ばれる。
仮想画像モジュール120が、第1の目標位置T1に第1の仮想対象物70を表示後、視覚が存続する期間、たとえば1/8秒の範囲内で第2の目標位置T2に第1の仮想対象物70を表示するとき、見る人の眼は、第1の目標位置T1から第2の目標位置T2に動いている第1の仮想対象物70を知覚し、その動きに追従する。その結果、2つの視覚深度平面の間で第1の仮想対象物70が動くことにより、円滑性追跡眼球運動および輻輳眼球運動(vergence eye movement)を含む視力の弱い眼の動きが高まり、より多くの刺激が視力の弱い眼に提供される。その結果、視力の弱い眼の視覚は改善され、その上、画像融合機能を含む両眼視は、最終的に再確立されてよい。
図5A~図5Cに示す別の実施形態では、見る人の第1の眼50に投影される正常光信号は、仮想画像モジュール120が第1の目標位置T1から第2の目標位置T2に動いている仮想対象物70を表示するとき、光の方向を変えない。この状況では、見る人の第1の眼50は、まったく動く必要がなく、一方、見る人の第2の眼は、より多く動いて第1の仮想対象物の動きに追従しなければならない。上記で記述する理由に基づき、視力の弱い眼は、すべての動きを行うよう強制されるので、斜視の状態は、より効率的に治療されることがある。
図7A~図7Dは下斜視(眼が下方に向く)、上斜視(眼が上方に向く)、外斜視(眼が外を向く)、および内斜視(眼が中を向く)という4つの状態それぞれを示し、4つの状態では、視力の弱い眼60の瞳孔は、正常な眼50の瞳孔と協調するためにランダムに向きを変えることができない。図8に示すように、一例として外斜視を使用すると、仮想画像モジュール120は、弱い眼60が調節画像を知覚できるように正常光信号および調節光信号の方向および角度をそれぞれ調節してよい。
人間の脳には、両眼の輻輳調節(vergence accommodation)を自動的に遂行して、対象物の明瞭な画像を得る傾向および能力がある。その結果、見る人は、自分の視力の弱い眼の向きをわずかに変えて、明瞭な画像を再び得ようと、または複視を回避しようと試みることがある。見る人が成功するとき、フィードバックモジュール160は、見る人に音響または振動などのフィードバックを提供してよい。仮想画像モジュール120は、見る人の2つの眼の誤整列を低減してよいように、調節画像を反復して前後に動かして視力の弱い眼を訓練して、適切な方向に眼を向けてよい。
それぞれの眼は、図9に例を示すそれ自身のコントラスト感度関数を有する。仮想画像モジュール120は、正常な眼50がより少なく刺激を受け取って、より低いコントラストおよび高い空間周波数で正常画像122を知覚するように正常画像122のコントラストおよび/または空間周波数を調節してよい。その結果、弱い眼60を運動させ、より多く訓練して、見る人の視覚に寄与する。両眼視を改善するためのシステム100がなければ、見る人は、明瞭な画像を提供できない自分の視力の弱い眼を運動させることを避け、その結果、視力の弱い眼60はさらに視力が弱くなり、またさらには盲目にさえなる。
見る人は、正弦波格子として公知の、幅およびコントラストが変動する平行な格子を順次見て曲線をプロットする。格子の幅および離れた格子の距離は、1度あたりのサイクルで測定した角周波数を表す。低レベルおよび高レベルの角周波数と比較して1度あたりおよそ5~7サイクルの中レベルの角周波数は、大部分の個人により最適に検出されることを研究は実証している。コントラストしきい値は、患者が分解できる最小コントラストとして規定できる。
より高いコントラストについては、調節画像124は、正常画像122よりも高い輝度を有し、調節画像124は、色彩に富んでおり、一方、正常画像122は(階調を伴う)白黒であり、調節画像124は緑色であり、一方、正常画像122は赤色である。より低い空間周波数については、調節画像124は、画像の前景図であり、一方、正常画像122は、同じ画像の背景図である。仮想画像モジュール120は、最初に画像を分割してより低い空間周波数部分およびより高い空間画像部分にし、次いで視力の弱い眼60に前景図など、より低い空間周波数部分を、正常な眼50に背景図など、より高い空間周波数部分を投影する。この状況では、調節画像124および正常画像122は、異なるパターンおよび空間周波数が原因で異なって見えるが、同じ画像から得られるので、調節画像124(より低い空間周波数部分)は、両眼視のために正常画像122(より高い空間周波数部分)に十分に関係づけられる。
見る人の視力の弱い眼が調節画像の明瞭な知覚を維持するために、仮想画像モジュールは、調節画像と正常画像の両方を含む第1の仮想対象物の空間周波数を調節してよい。その結果、第1の仮想対象物は、より大きな深度で表示されるときに、より低い空間周波数を有する。図10に示すように、より大きな深度を伴う位置に、たとえば第1の目標位置T1から第2の目標位置T2に、次いで第3の目標位置T3に第1の仮想対象物70を動かすとき、第1の仮想対象物70の空間周波数を低減して、上記の問題を克服する。
VEPを使用して視神経、眼から脳の視覚野への視覚路、および後頭葉皮質の機能的統合性を定量化する。その結果、VEPは、仮想画像モジュールのための重要な情報を提供して、第1の仮想対象物70を動かす速度および方向を含む、第1の仮想対象物を表示する手法、ならびに調節画像124のコントラストおよび空間周波数を調節する。
VEPはまた、見る人の眼が、詳細には視力の弱い眼が、ある期間の間に凝視するかどうかを反映してよい。たとえば、見る人の視力の弱い眼が凝視を失っていくらか動くとき、視力の弱い眼のVEPは変動してよい。それにもかかわらず、見る人の視力の弱い眼が凝視を維持するとき、視力の弱い眼のVEPは、ほぼ同じのままであってよい。したがって、仮想画像モジュールは、見る人のいずれかの眼または両眼のVEPに基づき、適切なコントラストおよび空間周波数、ならびに第1の仮想対象物の動きの方向および速度を選択することを含み、第1の仮想対象物を表示してよい。
見る人が凝視を実施できるとき、仮想画像モジュールは、視標追跡モジュールが提供する見る人の凝視場所および凝視深度(集合的に「凝視位置」)に第1の仮想対象物を表示してよい。見る人が第1の凝視場所および第1の凝視深度(集合的に「第1の凝視位置」または「F1」)から第2の凝視場所および第2の凝視深度(集合的に「第2の凝視位置」または「F2」)に自分の凝視を動かすとき、仮想画像モジュールは、見る人の凝視に従って第1の仮想画像を動かす。
図11Aおよび図11Bに示す第1の例では、第1の仮想対象物70は、見る人の凝視に従ってF1からF2に、さらにF3に動かされる照準カーソルであり、第2の仮想対象物75は、空中戦闘機などの射撃の標的である。第1の仮想対象物70、たとえば照準カーソルを動かして第2の仮想対象物75、たとえば空中戦闘機に重ね合わせるとき、第2の仮想対象物75は、爆発を表示して、第2の仮想対象物75が命中して破壊されたというフィードバックを見る人に提供するように改変される。
第2の例では、第1の仮想対象物は、ボーリングボールであり、第2の仮想対象物は、1組のボーリングピンである。そのとき、見る人が自分の凝視を動かしてボーリングボールを1組のボーリングピンに重ね合わせる(1組のボーリングピンに命中する)。仮想画像モジュールは、全ボーリングピンの中の一部が倒れることを表示して命中に応答し、見る人にフィードバックを提供する。
第3の例では、第1の仮想対象物は、第2の仮想対象物である追加ブロックを「食べる」ように見る人の凝視により動かされる複数のブロックを備える「スネーク(snake)」である。これらのブロックは、異なるコントラストおよび空間周波数でさまざまなパターンを組み合わせることにより形成されてよい。その結果、「スネーク」を動かすことにより、見る人の視覚野の刺激は強化され、より良好なトレーニング結果が助長される。
第1の向きを変えられた正常光信号16’(第1の正常光信号)と、対応する第1の向きを変えられた調節光信号(第1の調節光信号)36’の間の第1の角度はΘ1である。第1の深度D1は第1の角度Θ1に関係がある。詳細には、第1の仮想対象物70の第1の仮想両眼画素の第1の深度は、第1の向きを変えられた正常光信号の光路の広がりと、対応する第1の向きを変えられた調節光信号の間の第1の角度Θ1により決定できる。その結果、第1の仮想両眼画素72の第1の深度D1は、次式によりおよそ計算できる。
正常瞳孔52と調節瞳孔62の間の距離は、瞳孔間距離(IPD)である。同様に、第2の向きを変えられた正常光信号(第2の正常光信号)18’と、対応する第2の向きを変えられた調節光信号(第2の調節光信号)38’の間の第2の角度はΘ2である。第2の深度D2は、第2の角度Θ2に関係がある。詳細には、T2での仮想対象物70の第2の仮想両眼画素74の第2の深度D2は、同じ式により、第2の向きを変えられた正常光信号の光路の広がりと、対応する第2の向きを変えられた調節光信号の間の第2の角度Θ2によりおよそ決定できる。第2の仮想両眼画素74は、第1の仮想両眼画素72よりも見る人から遠く離れている(すなわち、より大きな深度を伴う)ように、見る人により知覚されるので、第2の角度Θ2は第1の角度Θ1よりも小さい。
図12に示す実施形態では、正常画像122は、6×6のアレイ内に36の正常画素を包含し、調整画像124は、同じく6×6のアレイ内に36の調節画素を包含する。別の実施形態では、正常画像122は、1280×720のアレイ内に921,600の正常画素を包含してよく、調節画像124は,同じく1280×720のアレイ内に921,600の調節画素を包含してよい。仮想画像モジュール120は、正常網膜上に正常画像122を、調節網膜上に調節画像124をそれぞれ形成し、多数の正常光信号および対応する多数の調節光信号を生成するように構成される。その結果、見る人は、画像融合が原因で領域C内に特有の深度を伴う仮想対象物を知覚する。
画像融合の結果、見る人は、第1の向きを変えられた正常光信号と、対応する調節光信号の第1の角度により決定される第1の深度D1に第1の仮想対象物70を知覚する。向きを変えられた正常光信号と、対応する調節光信号の間の角度は、正常画素と調節画素の相対的水平距離により決定される。その結果、仮想両眼画素の深度は、仮想両眼画素を形成する正常画素と、対応する調節画素の間の相対的水平距離と逆相関関係がある。換言すれば、見る人が仮想両眼画素をより深く知覚するほど、それだけそのような仮想両眼画素を形成する正常画素と調節画素間のX軸での相対的水平距離は小さくなる。
たとえば、図12に示すように、第2の仮想両眼画素74は、第1の仮想両眼画素72よりも大きな深度を有する(すなわち、見る人から遠く離れている)ように見る人により知覚される。その結果、第2の正常画素と第2の調節画素の間の水平距離は、網膜画像122、124上の第1の正常画素と第1の調節画素の間の水平距離よりも小さい。具体的には第2の仮想両眼画素74を形成する第2の正常画素R41と第2の調節画素L51の間の水平距離は、4画素の長さである。しかしながら、第1の仮想両眼画素72を形成する第1の正常画素R43と第1の調節画素L33の間の距離は、6画素の長さである。
各正常光信号NLS(i,j)は、同じ対応する画素を通してRSI(i,j)からRPI(i,j)に、次いでRRI(x,y)に移動する。たとえば、NLS(5,3)は、RSI(5,3)からRPI(5,3)に、次いでRRI(2,4)に移動する。同様に、調節光信号発生器30から生成された多数の調節光信号は、調節結合器40の上に投影されて、調節結合器画像(LSI)92を形成する。これらの多数の調節光信号は、調節結合器40により向きを変えられ,小さな調節瞳孔画像(LPI)94の中に集光して調節瞳孔62を通過し、次いで最終的に調節網膜64に到達して、調節網膜画像(LRI)96(調節画像124)を形成する。LSI、LPI、およびLRIの各々は、i×j画素を備える。各調節光信号ALS(i,j)は、同じ対応する画素を通してLCI(i,j)からLPI(i,j)に、次いでLRI(x,y)に移動する。たとえば、ALS(3,1)は、LCI(3,1)からLPI(3,1)に、次いでLRI(4,6)に移動する。(0,0)画素は、各画像の左上端にある画素である。
網膜画像内の画素は、結合器画像内の対応する画素に対して右左が反転され、上下が反転される。光信号発生器および結合器の相対的な位置および角度の適切な配列に基づき、各光信号は、光信号発生器から網膜に至るそれ自体の光路を有する。正常網膜上に1つの正常画素を表示する1つの正常光信号と調節網膜上に1つの調節画素を表示する1つの対応する調節光信号の組合せは、見る人により知覚される、特有の深度を伴う仮想両眼画素を形成する。その結果、空間内の仮想両眼画素は、正常網膜画素および調節網膜画素の対、または正常結合器画素および調節結合器画素の対により表すことができる。
36(6×6)の正常画素を備える正常網膜画像および36(6×6)の調節画素を備える調節網膜画像については、見る人の両眼のFOVの範囲内にすべての光信号があると仮定して、領域C内に216(6×6×6)の(ドットとして示す)仮想両眼画素が存在する。1つの向きを変えられた正常光信号の光路の広がりは、画像の同じ行で、向きを変えられた各調節光信号の光路の広がりと交差する。同様に、1つの向きを変えられた調節光信号の光路の広がりは、画像の同じ行で、向きを変えられた各正常光信号の光路の広がりと交差する。その結果、空間内の1つの層および6つの層上に36(6×6)の仮想両眼画素が存在する。
通常、交差して仮想両眼画素を形成する光路の広がりを表す2つの近接する線は、図14で平行線として示されるが、これらの線間には小さな角度が存在する。各網膜のおよそ同じ高さ(すなわち、正常網膜画像および調節網膜画像の同じ行)にある正常画素および対応する調節画素は、より早く融合する傾向にある。その結果、正常画素は、網膜画像の同じ行にある調節画素と対を成して仮想両眼画素を形成する。
その結果、見る人のために空間内に仮想対象物の特有の仮想両眼画素を表示するために、対応する正常光信号および調節光信号を生成するために正常画素および調節画素のどの対を使用できるかを決定する。それに加えて、ルック・アップ・テーブル上の仮想両眼画素の各行は、知覚されるVBPの深度(z)および知覚されるVBPの位置(x、y)を記憶するメモリアドレスにつながるポインタを含む。サイズのスケール、重なっている対象物の数、およびシーケンス深度内の深度などのような追加情報もまた、VBPに関して記憶できる。サイズのスケールは、標準的VBPと比較した特有のVBPの相対的サイズ情報であってよい。たとえば、サイズのスケールは、見る人の前方1mにある標準VBPに仮想対象物が表示されたとき、1に設定されてよい。その結果、サイズのスケールは、見る人の前方90cmにある特有のVBPに関して1.2に設定されてよい。同様にそのとき、見る人の前方1.5mにある特有のVBPに関してサイズのスケールは0.8に設定されてよい。
サイズのスケールを使用して、仮想対象物が第1の深度から第2の深度に動くときに表示するための仮想対象物のサイズを決定できる。サイズのスケールは、本発明では倍率であってよい。重なっている対象物の数は、一方の対象物が別の対象物の背後に完全にまたは部分的に隠れるように互いに重なった対象物の数である。シーケンス内深度は、重なっているさまざまな画像の深度のシーケンスに関する情報を提供する。たとえば3つの画像が互いに重なっている。前面にある第1の画像のシーケンス内深度は1に設定されてよく、第1の画像の背後に隠れた第2の画像のシーケンス内深度は2に設定されてよい。重なっている画像の数およびシーケンス内深度を使用して、重なっているさまざまな画像が動いている状態にあるとき、画像のどちらのどの部分を表示する必要があるかを決定してよい。
2D調節可能反射器は、2つの1次元(1D)MEMS鏡などの2つの1D反射器と置換できる。LBSプロジェクタは、光信号を1つずつ順次に生成およびスキャンして、所定の解像度で、たとえばフレームあたり1280×720画素で2D画像を形成する。その結果、1画素のために1光信号が生成され、結合器20、40に向けて一度に投影される。見る人がそのような2D画像を一方の眼から見るために、LBSプロジェクタは、視覚の存続する期間の範囲内で、たとえば1/18秒の範囲内で画素ごとに光信号を、たとえば1280×720の光信号を順次に生成しなければならない。その結果、各光信号の継続時間は約60.28ナノ秒である。
特許請求の範囲に示す特許請求される主題は、本明細書で示す実施形態に限定することを意図するのではなく、本明細書で開示する原理および新規な特徴と整合性のある最も広い範囲に従うべきである。追加の実施形態は、開示する主題の精神および真の範囲に入ることが企図される。したがって、本発明は、添付の特許請求の範囲およびそれらの均等物の範囲に入る修正形態および変形形態を範囲に含むことが意図される。
Claims (22)
- 一方の眼が他方の眼と比べて異常な、または視力の弱い見る人の両眼視を改善するためのシステムであって、
視標追跡モジュールから得られる見る人の眼の情報に基づき、前記見る人の第1の眼に多数の正常光信号を投影して正常画像を形成し、かつ前記見る人の異常な眼または弱い眼である第2の眼に、対応する多数の調節光信号を投影して調節画像を形成することにより、第1の仮想対象物を表示するように構成された仮想画像モジュールを備え、
前記仮想画像モジュールは、第1の目標場所および第1の目標深度から第2の目標場所および第2の目標深度に動いている前記第1の仮想対象物を表示し、
前記第1の目標深度は、第1の前記正常光信号と、対応する第1の前記調節光信号の間の第1の角度に関係があり、前記第2の目標深度は、第2の前記正常光信号と、対応する第2の前記調節光信号の間の第2の角度に関係があり、前記第1の目標深度は、前記第2の目標深度と異なり、
前記仮想画像モジュールは、前記第2の眼の眼の情報に基づいて、前記調節画像の空間周波数、色、場所、または深度を反復して調節し、
前記仮想画像モジュールが前記第1の目標場所および前記第1の目標深度から前記第2の目標場所および前記第2の目標深度に動いている前記第1の仮想対象物を表示するとき、前記見る人の前記第2の眼に投影される前記調節光信号は、前記見る人の前記第1の眼に投影される前記正常光信号よりも多く光の方向が変化し、
前記仮想画像モジュールが前記第1の目標場所および前記第1の目標深度から前記第2の目標場所および前記第2の目標深度に動いている前記第1の仮想対象物を表示するとき、前記見る人の前記第1の眼に投影される前記正常光信号は、前記光の方向を変えず、
前記視標追跡モジュールは、前記仮想画像モジュールに前記見る人の眼の前記凝視場所および前記凝視深度を提供し、前記第1の目標場所および前記第1の目標深度は、それぞれ第1の前記凝視場所および第1の前記凝視深度であり、前記第2の目標場所および前記第2の目標深度は、それぞれ第2の前記凝視場所および第2の前記凝視深度であり、
前記仮想画像モジュールは、第2の仮想対象物を表示し、前記第2の仮想対象物は、前記第1の仮想対象物と相互作用するように改変されることを特徴とする、
システム。 - 前記仮想画像モジュールは、前記第2の目標場所および前記第2の目標深度から第3の目標場所および第3の目標深度に動いている前記第1の仮想対象物を表示し、一方、前記見る人の前記第2の眼に投影される前記調節光信号は、前記見る人の前記第1の眼に投影される前記正常光信号よりも多く光の方向が変化し、前記第3の目標深度は、第3の前記正常光信号と対応する第3の前記調節光信号の間の第3の角度に関係があり、前記第3の目標深度は、前記第2の目標深度と異なることを特徴とする、請求項1に記載のシステム。
- 前記仮想画像モジュールは、前記第1の仮想対象物が、前記第1の目標深度から前記第2の目標深度に動いたとき、より大きな深度で表示されるときにより低い空間周波数を有するように、前記第1の仮想対象物の前記空間周波数を調節することを特徴とする、請求項1に記載のシステム。
- 見る人の眼の情報を提供するように構成された視標追跡モジュールを更に備え、
前記視標追跡モジュールは瞳孔の場所、瞳孔サイズ、凝視角、輻輳角、凝視場所、および凝視深度のうち少なくとも1つを含む、前記見る人の両眼の眼の情報を提供することを特徴とする、請求項1に記載のシステム。 - 前記視標追跡モジュールは、前記第1の眼のための第1のカメラおよび前記第2の眼のための第2のカメラを備えることを特徴とする、請求項1に記載のシステム。
- 前記仮想画像モジュールは、前記第1の眼が前記正常画像を知覚し、かつ前記第2の眼が調節画像を同時に知覚するように、前記視標追跡モジュールが提供する前記見る人の前記瞳孔の場所に基づき前記第1の仮想対象物を表示することを特徴とする、請求項1に記載のシステム。
- 前記見る人の眼の視覚誘発電位(visual evoked potential、VEP)を測定するVEP測定モジュールをさらに備えるシステムにおいて、前記仮想画像モジュールは、前記VEP測定モジュールから得られる前記VEPに基づき前記第1の仮想対象物を表示することを特徴とする、請求項1に記載のシステム。
- 前記仮想画像モジュールは、前記見る人の前記VEPまたは前記見る人の前記瞳孔の場所に基づき前記第1の仮想対象物を動かすことを特徴とする、請求項7に記載のシステム。
- 前記調節画像は、対応する前記正常画像よりも高いコントラストまたは低い前記空間周波数を有することを特徴とする、請求項1に記載のシステム。
- 前記仮想画像モジュールは、前記見る人の眼の前記視覚誘発電位(VEP)に基づき前記調節画像に関する前記コントラストおよび前記空間周波数を選択することを特徴とする、請求項1に記載のシステム。
- 前記調節画像は、両眼融合のための前記正常画像と異なるが、両眼融合のための前記正常画像に十分に関係づけられることを特徴とする、請求項1に記載のシステム。
- 前記第2の仮想対象物は、前記第1の仮想対象物が前記第2の仮想対象物の上に重なるように動かされるときに前記第1の仮想対象物と相互作用するように改変されることを特徴とする、請求項1に記載のシステム。
- 実対象物の場所および深度を測定するように構成された実対象物測定モジュールをさらに備える、請求項1に記載のシステム。
- 前記第1の仮想対象物が動かされるときに前記見る人にフィードバックを与えることを特徴とする、請求項13に記載のシステム。
- 前記第1の仮想対象物は、照準カーソルであり、前記第2の仮想対象物は、前記第1の仮想対象物が前記第2の仮想対象物に重なったときに爆発を表示するように改変されることを特徴とする、請求項1に記載のシステム。
- 前記第1の仮想対象物は、ボーリングボールであり、前記第2の仮想対象物は、前記第1の仮想対象物が前記第2の仮想対象物に重なったときにボーリングボールと相互作用する1組のボーリングピンであることを特徴とする、請求項1に記載のシステム。
- 前記仮想画像モジュールは、前記見る人が前記凝視場所および前記凝視深度に表示される前記第1の仮想対象物を知覚するように、前記見る人に関して較正されることを特徴とする、請求項1に記載のシステム。
- 前記仮想画像モジュールは、前記正常光信号および対応する前記調節光信号を処理する制御ユニットをさらに備えることを特徴とする、請求項1に記載のシステム。
- 前記仮想画像モジュールは、前記第1の仮想対象物の前記正常画像に関する多数の前記正常光信号を生成する正常光信号発生器と、前記見る人の前記第1の眼の網膜に向けて前記多数の正常光信号の向きを変える正常結合器と、前記第1の仮想対象物の前記調節画像に関する多数の前記調節光信号を生成する調節光信号発生器と、前記見る人の前記第2の眼の網膜に向けて前記多数の調節光信号の向きを変える調節結合器とをさらに備えることを特徴とする、請求項1に記載のシステム。
- 前記見る人の頭部に装着可能な支持構造をさらに備えるシステムにおいて、前記視標追跡モジュールは、前記支持構造により支持され、前記正常光信号発生器および前記調節光信号発生器は、前記支持構造により支持され、前記正常結合器および前記調節結合器は、前記支持構造により支持されることを特徴とする、請求項19に記載のシステム。
- 人が前記視標追跡モジュールおよび仮想画像モジュールを制御するように構成されたユーザインタフェースをさらに備える、請求項1に記載のシステム。
- 前記見る人にフィードバックを提供するように構成されたフィードバックモジュールをさらに備える、請求項1に記載のシステム。
Applications Claiming Priority (8)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US202063074444P | 2020-09-03 | 2020-09-03 | |
| US63/074,444 | 2020-09-03 | ||
| US202063085161P | 2020-09-30 | 2020-09-30 | |
| US202063085172P | 2020-09-30 | 2020-09-30 | |
| US63/085,172 | 2020-09-30 | ||
| US63/085,161 | 2020-09-30 | ||
| JP2022521209A JP7556582B2 (ja) | 2020-09-03 | 2021-09-03 | 両眼視を改善するためのシステムおよび方法 |
| PCT/US2021/049171 WO2022051688A1 (en) | 2020-09-03 | 2021-09-03 | Systems and methods for improving binocular vision |
Related Parent Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022521209A Division JP7556582B2 (ja) | 2020-09-03 | 2021-09-03 | 両眼視を改善するためのシステムおよび方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2024119940A JP2024119940A (ja) | 2024-09-03 |
| JP7748751B2 true JP7748751B2 (ja) | 2025-10-03 |
Family
ID=80491523
Family Applications (2)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022521209A Active JP7556582B2 (ja) | 2020-09-03 | 2021-09-03 | 両眼視を改善するためのシステムおよび方法 |
| JP2024095148A Active JP7748751B2 (ja) | 2020-09-03 | 2024-06-12 | 弱視および斜視を有する人の両眼視を改善するためのシステムおよび方法 |
Family Applications Before (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022521209A Active JP7556582B2 (ja) | 2020-09-03 | 2021-09-03 | 両眼視を改善するためのシステムおよび方法 |
Country Status (6)
| Country | Link |
|---|---|
| US (2) | US11774759B2 (ja) |
| EP (2) | EP4570162A3 (ja) |
| JP (2) | JP7556582B2 (ja) |
| CN (1) | CN114616511B (ja) |
| TW (1) | TWI838640B (ja) |
| WO (1) | WO2022051688A1 (ja) |
Families Citing this family (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN110613590A (zh) * | 2018-06-19 | 2019-12-27 | 刘葳 | 眼睛训练装置及方法 |
| KR20220030641A (ko) * | 2020-09-03 | 2022-03-11 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 동작 방법 |
| TWI838640B (zh) | 2020-09-03 | 2024-04-11 | 美商海思智財控股有限公司 | 改善雙眼視覺的系統與方法 |
| CN116420104A (zh) | 2020-09-30 | 2023-07-11 | 海思智财控股有限公司 | 用于虚拟实境及扩增实境装置的虚拟影像显示系统 |
| TWI776758B (zh) * | 2021-12-21 | 2022-09-01 | 中華醫事科技大學 | 眼睛訓練設備與訓練系統 |
| US12468159B2 (en) * | 2022-07-15 | 2025-11-11 | Oomii Inc. | Computing system with head wearable display |
| TWI885344B (zh) * | 2022-08-29 | 2025-06-01 | 英屬開曼群島商沃彌股份有限公司 | 頭戴式顯示器視覺景深校正的方法及系統 |
| CN116469085B (zh) * | 2023-03-30 | 2024-04-02 | 万联易达物流科技有限公司 | 一种风险驾驶行为的监控方法及系统 |
| CN116807849B (zh) * | 2023-06-20 | 2024-05-03 | 广州视景医疗软件有限公司 | 一种基于眼动追踪的视觉训练方法及装置 |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2014057557A1 (ja) | 2012-10-11 | 2014-04-17 | Tahara Hirofumi | 映像観察システム |
| JP2018512900A (ja) | 2015-03-01 | 2018-05-24 | ノバサイト リミテッド | 眼球運動を測定するためのシステム及び方法 |
| JP2020509790A (ja) | 2016-09-23 | 2020-04-02 | ノバサイト リミテッド | スクリーニング装置及び方法 |
Family Cites Families (91)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| FR2555437A1 (fr) * | 1983-11-30 | 1985-05-31 | Rossler Hermann | Appareil d'entrainement optique pour st rabiques |
| US4953961A (en) | 1989-01-31 | 1990-09-04 | Trw Inc. | Light beam positioner |
| WO1991004508A2 (en) | 1989-09-14 | 1991-04-04 | General Electric Company | Helmet mounted display |
| US20120056799A1 (en) | 2001-02-24 | 2012-03-08 | Dennis Solomon | Performance Audience Display System |
| JP3623265B2 (ja) | 1994-12-13 | 2005-02-23 | オリンパス株式会社 | 映像表示装置 |
| JP3759187B2 (ja) * | 1995-02-03 | 2006-03-22 | ソニー株式会社 | 両眼視機能訓練装置 |
| JPH09105885A (ja) | 1995-10-12 | 1997-04-22 | Canon Inc | 頭部搭載型の立体画像表示装置 |
| JP3802630B2 (ja) * | 1996-12-28 | 2006-07-26 | オリンパス株式会社 | 立体画像生成装置および立体画像生成方法 |
| KR100595922B1 (ko) | 1998-01-26 | 2006-07-05 | 웨인 웨스터만 | 수동 입력 통합 방법 및 장치 |
| US6454411B1 (en) | 1998-11-17 | 2002-09-24 | Entertainment Design Workshop Llc | Method and apparatus for direct projection of an image onto a human retina |
| US6433907B1 (en) | 1999-08-05 | 2002-08-13 | Microvision, Inc. | Scanned display with plurality of scanning assemblies |
| US6515781B2 (en) | 1999-08-05 | 2003-02-04 | Microvision, Inc. | Scanned imaging apparatus with switched feeds |
| US7423787B2 (en) | 2001-03-01 | 2008-09-09 | Ricoh Company, Ltd. | Optical scanning module, device, and method, and imaging apparatus |
| GB0210288D0 (en) * | 2002-05-04 | 2002-06-12 | Univ Nottingham | Ocular display apparatus for assessment and measurement of and for treatment of ocular disorders, and methods therefor |
| US7417664B2 (en) | 2003-03-20 | 2008-08-26 | Seijiro Tomita | Stereoscopic image picking up and display system based upon optical axes cross-point information |
| JP2005270451A (ja) * | 2004-03-25 | 2005-10-06 | Konica Minolta Photo Imaging Inc | 斜視訓練用虚像表示装置 |
| KR20070064319A (ko) * | 2004-08-06 | 2007-06-20 | 유니버시티 오브 워싱톤 | 가변 응시 시거리 주사 광 디스플레이 |
| JP2007121581A (ja) | 2005-10-27 | 2007-05-17 | Canon Inc | 走査型画像表示装置、撮像装置および画像表示システム |
| WO2009040792A1 (en) | 2007-09-26 | 2009-04-02 | Elbit Systems Ltd. | Wide field of view optical tracking system |
| JP4395802B2 (ja) | 2007-11-29 | 2010-01-13 | ソニー株式会社 | 画像表示装置 |
| US9952673B2 (en) | 2009-04-02 | 2018-04-24 | Oblong Industries, Inc. | Operating environment comprising multiple client devices, multiple displays, multiple users, and gestural control |
| JP2010117542A (ja) | 2008-11-13 | 2010-05-27 | Panasonic Corp | ビーム走査型表示装置 |
| US8964298B2 (en) | 2010-02-28 | 2015-02-24 | Microsoft Corporation | Video display modification based on sensor input for a see-through near-to-eye display |
| JP5869770B2 (ja) * | 2010-03-16 | 2016-02-24 | 国立大学法人 東京大学 | 視覚認知検査システム、訓練システムおよび支援システム |
| US8684526B2 (en) | 2010-07-02 | 2014-04-01 | Amo Wavefront Sciences, Llc | Compact binocular adaptive optics phoropter |
| JP5131331B2 (ja) | 2010-08-27 | 2013-01-30 | カシオ計算機株式会社 | 液晶表示装置 |
| JP2012047995A (ja) | 2010-08-27 | 2012-03-08 | Fujitsu Ltd | 情報表示装置 |
| DE102011054833A1 (de) * | 2010-10-29 | 2012-05-03 | Hoya Corp. | Verfahren zum Messen der binokularen Sehleistung, Programm zum Messen der binokularen Sehleistung, Verfahren zum Entwerfen von Brillengläsern und Verfahren zur Herstellung von Brillengläsern |
| KR20120069133A (ko) | 2010-12-20 | 2012-06-28 | 엘지디스플레이 주식회사 | 입체영상 표시장치와 그 구동방법 |
| US10231614B2 (en) | 2014-07-08 | 2019-03-19 | Wesley W. O. Krueger | Systems and methods for using virtual reality, augmented reality, and/or a synthetic 3-dimensional information for the measurement of human ocular performance |
| WO2014128749A1 (ja) | 2013-02-19 | 2014-08-28 | 株式会社ブリリアントサービス | 形状認識装置、形状認識プログラム、および形状認識方法 |
| DE102013214700B4 (de) | 2013-07-26 | 2020-08-06 | tooz technologies GmbH | Brillenglas sowie Anzeigevorrichtung mit einem solchen Brillenglas |
| US20150169070A1 (en) | 2013-12-17 | 2015-06-18 | Google Inc. | Visual Display of Interactive, Gesture-Controlled, Three-Dimensional (3D) Models for Head-Mountable Displays (HMDs) |
| EP3114525A4 (en) * | 2014-03-03 | 2018-03-07 | Eyeway Vision Ltd. | Eye projection system |
| EP3140780B1 (en) | 2014-05-09 | 2020-11-04 | Google LLC | Systems and methods for discerning eye signals and continuous biometric identification |
| CN204480228U (zh) | 2014-08-08 | 2015-07-15 | 厉动公司 | 运动感测和成像设备 |
| US10397539B2 (en) * | 2014-08-25 | 2019-08-27 | Schepens Eye Research Institute | Compensating 3D stereoscopic imagery |
| TWI688789B (zh) | 2014-11-20 | 2020-03-21 | 美商英特爾股份有限公司 | 虛擬影像產生器及投影虛擬影像的方法 |
| CN107438796B (zh) | 2014-12-26 | 2020-07-03 | Cy视觉公司 | 头戴式显示装置、近眼显示装置和方法 |
| US10031338B2 (en) | 2015-02-17 | 2018-07-24 | Thalmic Labs Inc. | Systems, devices, and methods for eyebox expansion in wearable heads-up displays |
| US11956414B2 (en) | 2015-03-17 | 2024-04-09 | Raytrx, Llc | Wearable image manipulation and control system with correction for vision defects and augmentation of vision and sensing |
| US20160324580A1 (en) | 2015-03-23 | 2016-11-10 | Justin Esterberg | Systems and methods for assisted surgical navigation |
| JP2016180939A (ja) | 2015-03-25 | 2016-10-13 | セイコーエプソン株式会社 | 頭部搭載型ディスプレイ |
| WO2016176630A1 (en) | 2015-04-30 | 2016-11-03 | Oakley, Inc. | Wearable devices such as eyewear customized to individual wearer parameters |
| US10136856B2 (en) | 2016-06-27 | 2018-11-27 | Facense Ltd. | Wearable respiration measurements system |
| IL241033B (en) | 2015-09-02 | 2021-12-01 | Eyeway Vision Ltd | Projector system and method for ocular projection |
| US10757399B2 (en) | 2015-09-10 | 2020-08-25 | Google Llc | Stereo rendering system |
| JP6703747B2 (ja) | 2015-09-18 | 2020-06-03 | 株式会社リコー | 情報表示装置、情報提供システム、移動体装置、情報表示方法及びプログラム |
| EP3353631A1 (en) | 2015-09-24 | 2018-08-01 | Tobii AB | Eye-tracking enabled wearable devices |
| US20180284441A1 (en) | 2015-10-08 | 2018-10-04 | Corning Incorporated | Wide field head mounted display |
| CN105527710B (zh) | 2016-01-08 | 2018-11-20 | 北京乐驾科技有限公司 | 一种智能抬头显示系统 |
| US10850116B2 (en) | 2016-12-30 | 2020-12-01 | Mentor Acquisition One, Llc | Head-worn therapy device |
| KR20190027354A (ko) * | 2016-04-08 | 2019-03-14 | 비짜리오 인코포레이티드 | 비전 성능 데이터를 획득, 분석 및 생성하고 비전 성능 데이터에 기반하여 미디어를 수정하기 위한 방법 및 시스템 |
| US11256092B2 (en) | 2016-04-10 | 2022-02-22 | Everysight Ltd. | Binocular wide field of view (WFOV) wearable optical display system |
| CN114296175A (zh) | 2016-07-15 | 2022-04-08 | 光场实验室公司 | 利用二维、光场和全息中继器的能量传播和横向安德森局域化 |
| EP3494695B1 (en) * | 2016-08-04 | 2023-09-27 | Dolby Laboratories Licensing Corporation | Single depth tracked accommodation-vergence solutions |
| DE102016215481A1 (de) | 2016-08-18 | 2018-02-22 | Technische Universität Dresden | System und Verfahren zur haptischen Interaktion mit virtuellen Objekten |
| US10108144B2 (en) | 2016-09-16 | 2018-10-23 | Microsoft Technology Licensing, Llc | Holographic wide field of view display |
| WO2018057660A2 (en) | 2016-09-20 | 2018-03-29 | Apple Inc. | Augmented reality system |
| TWI619967B (zh) | 2016-09-26 | 2018-04-01 | 緯創資通股份有限公司 | 可調整顯示模組之可調式虛擬實境裝置 |
| US10928638B2 (en) * | 2016-10-31 | 2021-02-23 | Dolby Laboratories Licensing Corporation | Eyewear devices with focus tunable lenses |
| JP6852355B2 (ja) | 2016-11-09 | 2021-03-31 | セイコーエプソン株式会社 | プログラム、頭部装着型表示装置 |
| AU2017360746B2 (en) | 2016-11-15 | 2022-07-28 | Creal Sa | Near-eye sequential light-field projector with correct monocular depth cues |
| US10685492B2 (en) | 2016-12-22 | 2020-06-16 | Choi Enterprise, LLC | Switchable virtual reality and augmented/mixed reality display device, and light field methods |
| WO2018132804A1 (en) | 2017-01-16 | 2018-07-19 | Lang Philipp K | Optical guidance for surgical, medical, and dental procedures |
| CN108427498A (zh) | 2017-02-14 | 2018-08-21 | 深圳梦境视觉智能科技有限公司 | 一种基于增强现实的交互方法和装置 |
| JP2018132756A (ja) | 2017-02-15 | 2018-08-23 | パナソニックIpマネジメント株式会社 | 表示装置 |
| US20180262758A1 (en) * | 2017-03-08 | 2018-09-13 | Ostendo Technologies, Inc. | Compression Methods and Systems for Near-Eye Displays |
| IL300511A (en) * | 2017-03-22 | 2023-04-01 | Magic Leap Inc | Depth-based rendering for display systems |
| WO2018190007A1 (ja) * | 2017-04-13 | 2018-10-18 | ソニー株式会社 | 画像表示装置 |
| US10990175B2 (en) * | 2018-10-29 | 2021-04-27 | Cognixion | Brain computer interface for augmented reality |
| JP6342038B1 (ja) | 2017-05-26 | 2018-06-13 | 株式会社コロプラ | 仮想空間を提供するためのプログラム、当該プログラムを実行するための情報処理装置、および仮想空間を提供するための方法 |
| KR102670987B1 (ko) | 2017-05-31 | 2024-05-30 | 매직 립, 인코포레이티드 | 눈 추적 교정 기술들 |
| JP2019105777A (ja) | 2017-12-14 | 2019-06-27 | セイコーエプソン株式会社 | 頭部装着型表示装置、及び頭部装着型表示装置の制御方法 |
| US11112613B2 (en) | 2017-12-18 | 2021-09-07 | Facebook Technologies, Llc | Integrated augmented reality head-mounted display for pupil steering |
| IL275824B2 (en) | 2018-01-17 | 2024-08-01 | Magic Leap Inc | Display systems and methods for determining registration between a display and a user's eyes |
| CN111837068A (zh) | 2018-03-01 | 2020-10-27 | 海思智财控股有限公司 | 具有多重景深显像的近眼显示方法 |
| KR102029423B1 (ko) * | 2018-03-16 | 2019-10-07 | 김선호 | 시각장애 예방 및 치료장치 |
| CN110376734B (zh) * | 2018-04-12 | 2021-11-19 | 肥鲨技术 | 单面板头戴式显示器 |
| US10936051B2 (en) | 2018-09-20 | 2021-03-02 | Dell Products, L.P. | Power management for gesture recognition in virtual, augmented, and mixed reality (xR) applications |
| US10890768B2 (en) | 2018-10-15 | 2021-01-12 | Microsoft Technology Licensing, Llc | Polarization-based dynamic focuser |
| TWI688254B (zh) * | 2018-12-11 | 2020-03-11 | 宏碁股份有限公司 | 立體顯示裝置及其參數校正方法 |
| TWI683136B (zh) * | 2019-01-03 | 2020-01-21 | 宏碁股份有限公司 | 視訊穿透式頭戴顯示器及其控制方法 |
| EP3914997A4 (en) | 2019-01-25 | 2022-10-12 | Magic Leap, Inc. | Eye-tracking using images having different exposure times |
| TWI870411B (zh) | 2019-06-04 | 2025-01-21 | 以色列商魯姆斯有限公司 | 具有能調節瞳距的機構的雙目型頭戴式顯示系統 |
| CN113892050B (zh) | 2019-07-04 | 2025-01-14 | 三星电子株式会社 | 用于显示增强现实的电子设备和方法 |
| KR20220093041A (ko) | 2019-11-06 | 2022-07-05 | 에이치이에스 아이피 홀딩스, 엘엘씨 | 깊이를 갖는 오브젝트를 디스플레이하기 위한 시스템 및 방법 |
| TW202141120A (zh) | 2020-02-19 | 2021-11-01 | 美商海思智財控股有限公司 | 具可調整影像感測模組的頭戴式裝置及其系統 |
| WO2021258078A1 (en) | 2020-06-19 | 2021-12-23 | Hes Ip Holdings, Llc | Image display systems for eyebox expansion and methods of making the same |
| CN114365214B (zh) | 2020-08-14 | 2024-12-17 | 海思智财控股有限公司 | 叠合虚拟影像于即时影像的系统与方法 |
| TWI838640B (zh) | 2020-09-03 | 2024-04-11 | 美商海思智財控股有限公司 | 改善雙眼視覺的系統與方法 |
-
2021
- 2021-09-03 TW TW110132945A patent/TWI838640B/zh active
- 2021-09-03 EP EP25174096.5A patent/EP4570162A3/en active Pending
- 2021-09-03 US US17/637,808 patent/US11774759B2/en active Active
- 2021-09-03 WO PCT/US2021/049171 patent/WO2022051688A1/en not_active Ceased
- 2021-09-03 EP EP21865240.2A patent/EP4073572A4/en active Pending
- 2021-09-03 JP JP2022521209A patent/JP7556582B2/ja active Active
- 2021-09-03 CN CN202180005450.8A patent/CN114616511B/zh active Active
-
2023
- 2023-08-15 US US18/450,032 patent/US12105294B2/en active Active
-
2024
- 2024-06-12 JP JP2024095148A patent/JP7748751B2/ja active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2014057557A1 (ja) | 2012-10-11 | 2014-04-17 | Tahara Hirofumi | 映像観察システム |
| JP2018512900A (ja) | 2015-03-01 | 2018-05-24 | ノバサイト リミテッド | 眼球運動を測定するためのシステム及び方法 |
| JP2020509790A (ja) | 2016-09-23 | 2020-04-02 | ノバサイト リミテッド | スクリーニング装置及び方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| EP4073572A1 (en) | 2022-10-19 |
| WO2022051688A1 (en) | 2022-03-10 |
| JP2023541495A (ja) | 2023-10-03 |
| JP7556582B2 (ja) | 2024-09-26 |
| EP4570162A2 (en) | 2025-06-18 |
| EP4570162A3 (en) | 2025-09-03 |
| TW202216103A (zh) | 2022-05-01 |
| US12105294B2 (en) | 2024-10-01 |
| EP4073572A4 (en) | 2024-09-04 |
| CN114616511A (zh) | 2022-06-10 |
| US11774759B2 (en) | 2023-10-03 |
| CN114616511B (zh) | 2026-02-10 |
| TWI838640B (zh) | 2024-04-11 |
| US20220413294A1 (en) | 2022-12-29 |
| JP2024119940A (ja) | 2024-09-03 |
| US20230384602A1 (en) | 2023-11-30 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7748751B2 (ja) | 弱視および斜視を有する人の両眼視を改善するためのシステムおよび方法 | |
| US10231614B2 (en) | Systems and methods for using virtual reality, augmented reality, and/or a synthetic 3-dimensional information for the measurement of human ocular performance | |
| JP7596436B2 (ja) | 深度平面間の低減された切り替えを伴う多深度平面ディスプレイシステム | |
| US9788714B2 (en) | Systems and methods using virtual reality or augmented reality environments for the measurement and/or improvement of human vestibulo-ocular performance | |
| US9370302B2 (en) | System and method for the measurement of vestibulo-ocular reflex to improve human performance in an occupational environment | |
| CN115280219B (zh) | 强化视力的系统与方法 | |
| TWI819654B (zh) | 改善視網膜損傷患者視力的系統 | |
| CN118632653A (zh) | 用于控制扩展现实显示系统的性能的方法 | |
| US20250277980A1 (en) | Head wearable display system for enhancing visual acuity |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240618 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20241126 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250214 |
|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20250228 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250403 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20250430 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250723 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250826 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250912 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7748751 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |