JP7470164B2 - 双方向性拡張または仮想現実装置 - Google Patents
双方向性拡張または仮想現実装置 Download PDFInfo
- Publication number
- JP7470164B2 JP7470164B2 JP2022157574A JP2022157574A JP7470164B2 JP 7470164 B2 JP7470164 B2 JP 7470164B2 JP 2022157574 A JP2022157574 A JP 2022157574A JP 2022157574 A JP2022157574 A JP 2022157574A JP 7470164 B2 JP7470164 B2 JP 7470164B2
- Authority
- JP
- Japan
- Prior art keywords
- displays
- lens
- eye tracking
- interpupillary distance
- external computer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003190 augmentative effect Effects 0.000 title claims description 52
- 230000002452 interceptive effect Effects 0.000 title description 3
- 210000001508 eye Anatomy 0.000 claims description 174
- 238000012800 visualization Methods 0.000 claims description 95
- 230000007246 mechanism Effects 0.000 claims description 39
- 238000012545 processing Methods 0.000 claims description 33
- 230000003287 optical effect Effects 0.000 claims description 32
- 210000001747 pupil Anatomy 0.000 claims description 24
- 238000005452 bending Methods 0.000 claims description 13
- 230000003278 mimic effect Effects 0.000 claims description 13
- 238000004891 communication Methods 0.000 claims description 10
- 238000005259 measurement Methods 0.000 description 27
- 230000033001 locomotion Effects 0.000 description 17
- 238000000034 method Methods 0.000 description 16
- 238000006243 chemical reaction Methods 0.000 description 15
- 230000003068 static effect Effects 0.000 description 13
- 238000005516 engineering process Methods 0.000 description 11
- 208000029257 vision disease Diseases 0.000 description 11
- 230000004393 visual impairment Effects 0.000 description 11
- 238000007654 immersion Methods 0.000 description 9
- 238000012937 correction Methods 0.000 description 8
- 238000012546 transfer Methods 0.000 description 8
- 238000013459 approach Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 210000001331 nose Anatomy 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000004075 alteration Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 6
- 230000004927 fusion Effects 0.000 description 6
- 230000000670 limiting effect Effects 0.000 description 6
- 238000012549 training Methods 0.000 description 6
- 210000005252 bulbus oculi Anatomy 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000035943 smell Effects 0.000 description 5
- 206010047571 Visual impairment Diseases 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 230000002441 reversible effect Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000002159 abnormal effect Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000004438 eyesight Effects 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 210000001525 retina Anatomy 0.000 description 3
- 235000019640 taste Nutrition 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 206010028813 Nausea Diseases 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 230000002688 persistence Effects 0.000 description 2
- 230000001179 pupillary effect Effects 0.000 description 2
- APTZNLHMIGJTEW-UHFFFAOYSA-N pyraflufen-ethyl Chemical compound C1=C(Cl)C(OCC(=O)OCC)=CC(C=2C(=C(OC(F)F)N(C)N=2)Cl)=C1F APTZNLHMIGJTEW-UHFFFAOYSA-N 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- QSLFDILMORXPKP-UHFFFAOYSA-N (3-methylimidazol-3-ium-1-yl)-methylsulfanylphosphinate Chemical compound CSP([O-])(=O)N1C=C[N+](C)=C1 QSLFDILMORXPKP-UHFFFAOYSA-N 0.000 description 1
- 241000208140 Acer Species 0.000 description 1
- 101000603420 Homo sapiens Nuclear pore complex-interacting protein family member A1 Proteins 0.000 description 1
- 102100038845 Nuclear pore complex-interacting protein family member A1 Human genes 0.000 description 1
- 206010045178 Tunnel vision Diseases 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 238000000576 coating method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000005043 peripheral vision Effects 0.000 description 1
- 208000019899 phobic disease Diseases 0.000 description 1
- 208000020016 psychiatric disease Diseases 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 235000019615 sensations Nutrition 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 102000055046 tissue-factor-pathway inhibitor 2 Human genes 0.000 description 1
- 108010016054 tissue-factor-pathway inhibitor 2 Proteins 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/09—Beam shaping, e.g. changing the cross-sectional area, not otherwise provided for
- G02B27/0938—Using specific optical elements
- G02B27/095—Refractive optical elements
- G02B27/0955—Lenses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0181—Adaptation to the pilot/driver
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B5/00—Optical elements other than lenses
- G02B5/20—Filters
- G02B5/208—Filters for use with infrared or ultraviolet radiation, e.g. for separating visible light from infrared and/or ultraviolet radiation
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
Description
「光学」。他のものよりも高価であり、高い計算能力を必要とし、かつ遅くなる傾向がある。また、トラッキングされた物体から複数のカメラへの直接の視野方向も必要である。b)無線信号の信号強度表示を受信するある程度正確な位置トラッキングシステムである「受信信号強度表示(RSSI)」。その方向トラッキングは精度が低いため問題があり、反射や干渉の影響を受けやすい。c)「飛行時間」は、RSSIよりも正確な位置トラッキングであり、無線信号を使用する。反射に対しては弾性であるが、金属物体によって覆われうる。d)「慣性計測(IMU)」は、外部センサーを必要としない。その方向トラッキングは高速かつかなり正確である。しかしながら、その統合性により、時間の経過とともにエラーを蓄積する傾向がある。位置トラッキングは、一般的なセンサーでは実際には使用できない。e)「全地球測位システム(GPS)」は、位置のある程度正確な測定である。しかしながら、これは時間がかかりかつ屋外での使用が必要である。
左ディスプレイ120と右ディスプレイ130との間の焦点距離140、150は静的である。人間は鼻と眼との間の距離が異なるため、調整可能な瞳孔間距離110が必要である。
他の実施形態
1. 仮想または拡張現実装置であって、
少なくとも1つの視覚化装置;
少なくとも1つの外部コンピュータ;
少なくとも2つのディスプレイ、
を備え、
少なくとも1つの外部コンピュータが、少なくとも1つの視覚化装置に通信可能にリンクされ、
前記外部コンピュータがさらに、中央処理ユニットおよびビデオアダプタを備え、
前記ビデオアダプタが、前記視覚化装置に複数のデータストリームを供給し、
前記少なくとも2つのディスプレイが、前記少なくとも1つの視覚化装置に接続される、
仮想または拡張現実装置。
2. 前記少なくとも1つの視覚化装置がさらに、少なくとも1つの専用ビデオスプリッタを備えることを特徴とする、実施形態1に記載の仮想または拡張現実装置。
3. 前記少なくとも1つの視覚化装置がさらに、少なくとも1つの直接外部ビデオ接続、少なくとも1つのグラフィカルアダプター、および少なくとも1つの処理ユニットを備えることを特徴とする、実施形態1に記載の仮想または拡張現実装置。
4. 前記少なくとも1つの外部コンピュータが、少なくとも1つのビデオ信号を提供することを特徴とする、実施形態1に記載の仮想または拡張現実装置。
5. 前記視覚化装置が、少なくとも2つのビデオ信号の間で切り替わることを特徴とする、実施形態2に記載の仮想または拡張現実装置。
6. 少なくとも2つのアイトラッキングシステムをさらに備えることを特徴とする、実施形態1に記載の仮想または拡張現実装置。
7. 前記少なくとも2つのアイトラッキングシステムがさらに、ミラーとして少なくとも1つの視覚化装置のディスプレイを使用する少なくとも2つのアイトラッキングカメラを備えることを特徴とする、実施形態6に記載の仮想または拡張現実装置。
8. 前記少なくとも2つのディスプレイの位置を調整する少なくとも2つのアクチュエータをさらに備えることを特徴とする、実施形態1に記載の仮想または拡張現実装置。
9. 少なくとも1つのレンズをさらに備えることを特徴とする、実施形態1に記載の仮想または拡張現実装置。
10. 少なくとも1つのコンタクトレンズをさらに備えることを特徴とする、実施形態1に記載の仮想または拡張現実装置。
11. 異なる軸上に配置された少なくとも3つのIMUをさらに備えることを特徴とする、実施形態1に記載の仮想または拡張現実装置。
12. 少なくとも1つの感知できるアクチュエータをさらに備えることを特徴とする、実施形態1に記載の仮想または拡張現実装置。
13. 少なくとも1つの感知できるセンサーをさらに備えることを特徴とする、実施形態12に記載の仮想または拡張現実装置。
14. 前記感知できるアクチュエータおよび前記感知できるセンサーが、少なくとも1つの感覚を仮想環境から実環境へまたはその逆に転送することを特徴とする、実施形態13に記載の仮想または拡張現実装置。
15. 仮想または拡張現実装置であって、
少なくとも1つの視覚化装置;および
少なくとも1つのXR/ARモジュール、
を備え、
少なくとも1つのXR/ARモジュールがさらに、調整可能に配置できる2つの正面カメラを備える、
仮想または拡張現実装置。
16. 前記正面カメラが、広角カメラであることを特徴とする、実施形態15に記載の仮想または拡張現実装置。
17. 仮想または拡張現実装置であって、
少なくとも1つの視覚化装置;および
少なくとも1つの外部コンピュータ;
少なくとも2つのディスプレイ、
を備え、
少なくとも1つの外部コンピュータが、少なくとも1つの視覚化装置に通信可能にリンクされ、
前記外部コンピューターがさらに、中央処理ユニットおよびビデオアダプタを備え、
前記ビデオアダプタが、前記視覚化装置に複数のデータストリームを供給し、
前記少なくとも2つのディスプレイが、前記少なくとも1つの視覚化装置に接続され、
前記少なくとも2つのディスプレイが可撓性である、
仮想または拡張現実装置。
18. さらにレンズを備えることを特徴とする、実施形態17に記載の仮想または拡張現実装置。
19. 前記レンズが、前記ディスプレイの屈曲を実質的に模倣することを特徴とする、実施形態18に記載の仮想または拡張現実装置。
20. 前記レンズが、一端において前記ディスプレイの各々に接続されることを特徴とする、実施形態19に記載の仮想または拡張現実装置。
Claims (12)
- 仮想または拡張現実システムであって、
少なくとも1つの視覚化装置;
少なくとも1つの第1の外部コンピュータ;
半透過性赤外線反射層でコーティングされた少なくとも2つのディスプレイ;
自動調整可能な焦点;
前記少なくとも2つのディスプレイの前に配置された、少なくとも1つの左レンズおよび少なくとも1つの右レンズ;
少なくとも2つのアイトラッキングシステム、
を備え、
前記少なくとも1つの第1の外部コンピュータが、前記少なくとも1つの視覚化装置に通信可能にリンクされ、
前記少なくとも1つの第1の外部コンピュータがさらに、中央処理ユニットおよびビデオアダプタを備え、
前記ビデオアダプタが、前記少なくとも1つの視覚化装置に複数のデータストリームを供給し、
前記少なくとも2つのディスプレイが、前記少なくとも1つの視覚化装置に接続され、
前記少なくとも1つの左レンズおよび少なくとも1つの右レンズが、レンズの位置のフィードバックを提供する瞳孔間距離測定センサーに接続された調節可能な瞳孔間距離機構に接続され、前記調節可能な瞳孔間距離機構がレンズアクチュエータに接続され、
前記少なくとも2つのアイトラッキングシステムが、前記レンズアクチュエータに接続され、
前記少なくとも2つのアイトラッキングシステムがさらに、ミラーとして前記少なくとも2つのディスプレイを用いる少なくとも2つのアイトラッキングカメラを備え、瞳孔の中心に関する情報を提供し、
前記瞳孔間距離測定センサーおよび前記少なくとも2つのアイトラッキングシステムが、前記少なくとも1つの第1の外部コンピュータ、および、瞳孔の中心の前に前記少なくとも1つの左レンズおよび少なくとも1つの右レンズの中心を設定する第2のコンピュータの少なくとも1つと接続され、
前記少なくとも1つの第1の外部コンピュータ、および、前記少なくとも1つの左レンズおよび少なくとも1つの右レンズの中心を設定する前記第2のコンピュータの少なくとも1つが、調節可能な瞳孔間距離機構にさらに接続され、
前記少なくとも2つのディスプレイが、該ディスプレイの光軸の輻輳方向を目よりも鼻方向に向けて配置され、
前記少なくとも2つのディスプレイが可撓性であり、前記少なくとも1つの左レンズおよび少なくとも1つの右レンズが、前記少なくとも2つのディスプレイの屈曲を実質的に模倣し、
前記少なくとも1つの視覚化装置がさらに、少なくとも1つの専用ビデオスプリッタを備える
ことを特徴とする、仮想または拡張現実システム。 - 仮想または拡張現実システムであって、
少なくとも1つの視覚化装置;
少なくとも1つの第1の外部コンピュータ;
半透過性赤外線反射層でコーティングされた少なくとも2つのディスプレイ;
自動調整可能な焦点;
前記少なくとも2つのディスプレイの前に配置された、少なくとも1つの左レンズおよび少なくとも1つの右レンズ;
少なくとも2つのアイトラッキングシステム、
を備え、
前記少なくとも1つの第1の外部コンピュータが、前記少なくとも1つの視覚化装置に通信可能にリンクされ、
前記少なくとも1つの第1の外部コンピュータがさらに、中央処理ユニットおよびビデオアダプタを備え、
前記ビデオアダプタが、前記少なくとも1つの視覚化装置に複数のデータストリームを供給し、
前記少なくとも2つのディスプレイが、前記少なくとも1つの視覚化装置に接続され、
前記少なくとも1つの左レンズおよび少なくとも1つの右レンズが、レンズの位置のフィードバックを提供する瞳孔間距離測定センサーに接続された調節可能な瞳孔間距離機構に接続され、前記調節可能な瞳孔間距離機構がレンズアクチュエータに接続され、
前記少なくとも2つのアイトラッキングシステムが、前記レンズアクチュエータに接続され、
前記少なくとも2つのアイトラッキングシステムがさらに、ミラーとして前記少なくとも2つのディスプレイを用いる少なくとも2つのアイトラッキングカメラを備え、瞳孔の中心に関する情報を提供し、
前記瞳孔間距離測定センサーおよび前記少なくとも2つのアイトラッキングシステムが、前記少なくとも1つの第1の外部コンピュータ、および、瞳孔の中心の前に前記少なくとも1つの左レンズおよび少なくとも1つの右レンズの中心を設定する第2のコンピュータの少なくとも1つと接続され、
前記少なくとも1つの第1の外部コンピュータ、および、前記少なくとも1つの左レンズおよび少なくとも1つの右レンズの中心を設定する前記第2のコンピュータの少なくとも1つが、調節可能な瞳孔間距離機構にさらに接続され、
前記少なくとも2つのディスプレイが、該ディスプレイの光軸の輻輳方向を目よりも鼻方向に向けて配置され、
前記少なくとも2つのディスプレイが可撓性であり、前記少なくとも1つの左レンズおよび少なくとも1つの右レンズが、前記少なくとも2つのディスプレイの屈曲を実質的に模倣し、
前記少なくとも1つの視覚化装置がさらに、少なくとも1つの直接外部ビデオ接続、少なくとも1つのグラフィカルアダプター、および少なくとも1つの処理ユニットを備えることを特徴とする、仮想または拡張現実システム。 - 仮想または拡張現実システムであって、
少なくとも1つの視覚化装置;
少なくとも1つの第1の外部コンピュータ;
半透過性赤外線反射層でコーティングされた少なくとも2つのディスプレイ;
自動調整可能な焦点;
前記少なくとも2つのディスプレイの前に配置された、少なくとも1つの左レンズおよび少なくとも1つの右レンズ;
少なくとも2つのアイトラッキングシステム、
を備え、
前記少なくとも1つの第1の外部コンピュータが、前記少なくとも1つの視覚化装置に通信可能にリンクされ、
前記少なくとも1つの第1の外部コンピュータがさらに、中央処理ユニットおよびビデオアダプタを備え、
前記ビデオアダプタが、前記少なくとも1つの視覚化装置に複数のデータストリームを供給し、
前記少なくとも2つのディスプレイが、前記少なくとも1つの視覚化装置に接続され、
前記少なくとも1つの左レンズおよび少なくとも1つの右レンズが、レンズの位置のフィードバックを提供する瞳孔間距離測定センサーに接続された調節可能な瞳孔間距離機構に接続され、前記調節可能な瞳孔間距離機構がレンズアクチュエータに接続され、
前記少なくとも2つのアイトラッキングシステムが、前記レンズアクチュエータに接続され、
前記少なくとも2つのアイトラッキングシステムがさらに、ミラーとして前記少なくとも2つのディスプレイを用いる少なくとも2つのアイトラッキングカメラを備え、瞳孔の中心に関する情報を提供し、
前記瞳孔間距離測定センサーおよび前記少なくとも2つのアイトラッキングシステムが、前記少なくとも1つの第1の外部コンピュータ、および、瞳孔の中心の前に前記少なくとも1つの左レンズおよび少なくとも1つの右レンズの中心を設定する第2のコンピュータの少なくとも1つと接続され、
前記少なくとも1つの第1の外部コンピュータ、および、前記少なくとも1つの左レンズおよび少なくとも1つの右レンズの中心を設定する前記第2のコンピュータの少なくとも1つが、調節可能な瞳孔間距離機構にさらに接続され、
前記少なくとも2つのディスプレイが、該ディスプレイの光軸の輻輳方向を目よりも鼻方向に向けて配置され、
前記少なくとも2つのディスプレイが可撓性であり、前記少なくとも1つの左レンズおよび少なくとも1つの右レンズが、前記少なくとも2つのディスプレイの屈曲を実質的に模倣し、
前記少なくとも1つの第1の外部コンピュータが、少なくとも1つのビデオ信号を生成することを特徴とする、仮想または拡張現実システム。 - 前記少なくとも1つの視覚化装置が、少なくとも2つのビデオ信号の間で切り替わることを特徴とする、請求項1~3のいずれか一項に記載の仮想または拡張現実システム。
- 仮想または拡張現実システムであって、
少なくとも1つの視覚化装置;
少なくとも1つの第1の外部コンピュータ;
半透過性赤外線反射層でコーティングされた少なくとも2つのディスプレイ;
自動調整可能な焦点;
前記少なくとも2つのディスプレイの前に配置された、少なくとも1つの左レンズおよび少なくとも1つの右レンズ;
少なくとも2つのアイトラッキングシステム、
を備え、
前記少なくとも1つの第1の外部コンピュータが、前記少なくとも1つの視覚化装置に通信可能にリンクされ、
前記少なくとも1つの第1の外部コンピュータがさらに、中央処理ユニットおよびビデオアダプタを備え、
前記ビデオアダプタが、前記少なくとも1つの視覚化装置に複数のデータストリームを供給し、
前記少なくとも2つのディスプレイが、前記少なくとも1つの視覚化装置に接続され、
前記少なくとも1つの左レンズおよび少なくとも1つの右レンズが、レンズの位置のフィードバックを提供する瞳孔間距離測定センサーに接続された調節可能な瞳孔間距離機構に接続され、前記調節可能な瞳孔間距離機構がレンズアクチュエータに接続され、
前記少なくとも2つのアイトラッキングシステムが、前記レンズアクチュエータに接続され、
前記少なくとも2つのアイトラッキングシステムがさらに、ミラーとして前記少なくとも2つのディスプレイを用いる少なくとも2つのアイトラッキングカメラを備え、瞳孔の中心に関する情報を提供し、
前記瞳孔間距離測定センサーおよび前記少なくとも2つのアイトラッキングシステムが、前記少なくとも1つの第1の外部コンピュータ、および、瞳孔の中心の前に前記少なくとも1つの左レンズおよび少なくとも1つの右レンズの中心を設定する第2のコンピュータの少なくとも1つと接続され、
前記少なくとも1つの第1の外部コンピュータ、および、前記少なくとも1つの左レンズおよび少なくとも1つの右レンズの中心を設定する前記第2のコンピュータの少なくとも1つが、調節可能な瞳孔間距離機構にさらに接続され、
前記少なくとも2つのディスプレイが、該ディスプレイの光軸の輻輳方向を目よりも鼻方向に向けて配置され、
前記少なくとも2つのディスプレイが可撓性であり、前記少なくとも1つの左レンズおよび少なくとも1つの右レンズが、前記少なくとも2つのディスプレイの屈曲を実質的に模倣し、
前記レンズアクチュエータが、前記少なくとも2つのディスプレイの位置を調整することを特徴とする、仮想または拡張現実システム。 - 仮想または拡張現実システムであって、
少なくとも1つの視覚化装置;
少なくとも1つの第1の外部コンピュータ;
半透過性赤外線反射層でコーティングされた少なくとも2つのディスプレイ;
自動調整可能な焦点;
前記少なくとも2つのディスプレイの前に配置された、少なくとも1つの左レンズおよび少なくとも1つの右レンズ;
少なくとも2つのアイトラッキングシステム、
を備え、
前記少なくとも1つの第1の外部コンピュータが、前記少なくとも1つの視覚化装置に通信可能にリンクされ、
前記少なくとも1つの第1の外部コンピュータがさらに、中央処理ユニットおよびビデオアダプタを備え、
前記ビデオアダプタが、前記少なくとも1つの視覚化装置に複数のデータストリームを供給し、
前記少なくとも2つのディスプレイが、前記少なくとも1つの視覚化装置に接続され、
前記少なくとも1つの左レンズおよび少なくとも1つの右レンズが、レンズの位置のフィードバックを提供する瞳孔間距離測定センサーに接続された調節可能な瞳孔間距離機構に接続され、前記調節可能な瞳孔間距離機構がレンズアクチュエータに接続され、
前記少なくとも2つのアイトラッキングシステムが、前記レンズアクチュエータに接続され、
前記少なくとも2つのアイトラッキングシステムがさらに、ミラーとして前記少なくとも2つのディスプレイを用いる少なくとも2つのアイトラッキングカメラを備え、瞳孔の中心に関する情報を提供し、
前記瞳孔間距離測定センサーおよび前記少なくとも2つのアイトラッキングシステムが、前記少なくとも1つの第1の外部コンピュータ、および、瞳孔の中心の前に前記少なくとも1つの左レンズおよび少なくとも1つの右レンズの中心を設定する第2のコンピュータの少なくとも1つと接続され、
前記少なくとも1つの第1の外部コンピュータ、および、前記少なくとも1つの左レンズおよび少なくとも1つの右レンズの中心を設定する前記第2のコンピュータの少なくとも1つが、調節可能な瞳孔間距離機構にさらに接続され、
前記少なくとも2つのディスプレイが、該ディスプレイの光軸の輻輳方向を目よりも鼻方向に向けて配置され、
前記少なくとも2つのディスプレイが可撓性であり、前記少なくとも1つの左レンズおよび少なくとも1つの右レンズが、前記少なくとも2つのディスプレイの屈曲を実質的に模倣し、
少なくとも1つのコンタクトレンズをさらに備えることを特徴とする、仮想または拡張現実システム。 - 仮想または拡張現実システムであって、
少なくとも1つの視覚化装置;
少なくとも1つの第1の外部コンピュータ;
半透過性赤外線反射層でコーティングされた少なくとも2つのディスプレイ;
自動調整可能な焦点;
前記少なくとも2つのディスプレイの前に配置された、少なくとも1つの左レンズおよび少なくとも1つの右レンズ;
少なくとも2つのアイトラッキングシステム、
を備え、
前記少なくとも1つの第1の外部コンピュータが、前記少なくとも1つの視覚化装置に通信可能にリンクされ、
前記少なくとも1つの第1の外部コンピュータがさらに、中央処理ユニットおよびビデオアダプタを備え、
前記ビデオアダプタが、前記少なくとも1つの視覚化装置に複数のデータストリームを供給し、
前記少なくとも2つのディスプレイが、前記少なくとも1つの視覚化装置に接続され、
前記少なくとも1つの左レンズおよび少なくとも1つの右レンズが、レンズの位置のフィードバックを提供する瞳孔間距離測定センサーに接続された調節可能な瞳孔間距離機構に接続され、前記調節可能な瞳孔間距離機構がレンズアクチュエータに接続され、
前記少なくとも2つのアイトラッキングシステムが、前記レンズアクチュエータに接続され、
前記少なくとも2つのアイトラッキングシステムがさらに、ミラーとして前記少なくとも2つのディスプレイを用いる少なくとも2つのアイトラッキングカメラを備え、瞳孔の中心に関する情報を提供し、
前記瞳孔間距離測定センサーおよび前記少なくとも2つのアイトラッキングシステムが、前記少なくとも1つの第1の外部コンピュータ、および、瞳孔の中心の前に前記少なくとも1つの左レンズおよび少なくとも1つの右レンズの中心を設定する第2のコンピュータの少なくとも1つと接続され、
前記少なくとも1つの第1の外部コンピュータ、および、前記少なくとも1つの左レンズおよび少なくとも1つの右レンズの中心を設定する前記第2のコンピュータの少なくとも1つが、調節可能な瞳孔間距離機構にさらに接続され、
前記少なくとも2つのディスプレイが、該ディスプレイの光軸の輻輳方向を目よりも鼻方向に向けて配置され、
前記少なくとも2つのディスプレイが可撓性であり、前記少なくとも1つの左レンズおよび少なくとも1つの右レンズが、前記少なくとも2つのディスプレイの屈曲を実質的に模倣し、
少なくとも1つのXR/ARモジュール、
をさらに備え、
前記少なくとも1つのXR/ARモジュールがさらに、調整可能に配置される2つの正面カメラを備え、該2つの正面カメラが、前記少なくとも2つのアイトラッキングカメラとは別個であり、前記2つの正面カメラが、データを収集して該データを他の通信プロトコルに変換する、
仮想または拡張現実システム。 - 前記正面カメラが、広角カメラであることを特徴とする、請求項7に記載の仮想または拡張現実システム。
- 仮想または拡張現実システムであって、
少なくとも1つの視覚化装置;
少なくとも1つの第1の外部コンピュータ;
半透過性赤外線反射層でコーティングされた少なくとも2つのディスプレイ;
自動調整可能な焦点;
前記少なくとも2つのディスプレイの前に配置された、少なくとも1つの左レンズおよび少なくとも1つの右レンズ;
少なくとも2つのアイトラッキングシステム、
を備え、
前記少なくとも1つの第1の外部コンピュータが、前記少なくとも1つの視覚化装置に通信可能にリンクされ、
前記少なくとも1つの第1の外部コンピュータがさらに、中央処理ユニットおよびビデオアダプタを備え、
前記ビデオアダプタが、前記少なくとも1つの視覚化装置に複数のデータストリームを供給し、
前記少なくとも2つのディスプレイが、前記少なくとも1つの視覚化装置に接続され、
前記少なくとも1つの左レンズおよび少なくとも1つの右レンズが、レンズの位置のフィードバックを提供する瞳孔間距離測定センサーに接続された調節可能な瞳孔間距離機構に接続され、前記調節可能な瞳孔間距離機構がレンズアクチュエータに接続され、
前記少なくとも2つのアイトラッキングシステムが、前記レンズアクチュエータに接続され、
前記少なくとも2つのアイトラッキングシステムがさらに、ミラーとして前記少なくとも2つのディスプレイを用いる少なくとも2つのアイトラッキングカメラを備え、瞳孔の中心に関する情報を提供し、
前記瞳孔間距離測定センサーおよび前記少なくとも2つのアイトラッキングシステムが、前記少なくとも1つの第1の外部コンピュータ、および、瞳孔の中心の前に前記少なくとも1つの左レンズおよび少なくとも1つの右レンズの中心を設定する第2のコンピュータの少なくとも1つと接続され、
前記少なくとも1つの第1の外部コンピュータ、および、前記少なくとも1つの左レンズおよび少なくとも1つの右レンズの中心を設定する前記第2のコンピュータの少なくとも1つが、調節可能な瞳孔間距離機構にさらに接続され、
前記少なくとも2つのディスプレイが、該ディスプレイの光軸の輻輳方向を目よりも鼻方向に向けて配置され、
前記少なくとも2つのディスプレイが可撓性であり、前記少なくとも1つの左レンズおよび少なくとも1つの右レンズが、前記少なくとも2つのディスプレイの屈曲を実質的に模倣し、
前記少なくとも1つの左レンズおよび少なくとも1つの右レンズが、一端において前記少なくとも2つのディスプレイの各々に接続されることを特徴とする、仮想または拡張現実システム。 - 仮想または拡張現実システムであって、
少なくとも1つの視覚化装置;
少なくとも1つの第1の外部コンピュータ;
半透過性赤外線反射層でコーティングされた少なくとも2つのディスプレイ;
自動調整可能な焦点;
前記少なくとも2つのディスプレイの前に配置された、少なくとも1つの左レンズおよび少なくとも1つの右レンズ;
少なくとも2つのアイトラッキングシステム、
を備え、
前記少なくとも1つの第1の外部コンピュータが、前記少なくとも1つの視覚化装置に通信可能にリンクされ、
前記少なくとも1つの第1の外部コンピュータがさらに、中央処理ユニットおよびビデオアダプタを備え、
前記ビデオアダプタが、前記少なくとも1つの視覚化装置に複数のデータストリームを供給し、
前記少なくとも2つのディスプレイが、前記少なくとも1つの視覚化装置に接続され、
前記少なくとも1つの左レンズおよび少なくとも1つの右レンズが、レンズの位置のフィードバックを提供する瞳孔間距離測定センサーに接続された調節可能な瞳孔間距離機構に接続され、前記調節可能な瞳孔間距離機構がレンズアクチュエータに接続され、
前記少なくとも2つのアイトラッキングシステムが、前記レンズアクチュエータに接続され、
前記少なくとも2つのアイトラッキングシステムがさらに、ミラーとして前記少なくとも2つのディスプレイを用いる少なくとも2つのアイトラッキングカメラを備え、瞳孔の中心に関する情報を提供し、
前記瞳孔間距離測定センサーおよび前記少なくとも2つのアイトラッキングシステムが、前記少なくとも1つの第1の外部コンピュータ、および、瞳孔の中心の前に前記少なくとも1つの左レンズおよび少なくとも1つの右レンズの中心を設定する第2のコンピュータの少なくとも1つと接続され、
前記少なくとも1つの第1の外部コンピュータ、および、前記少なくとも1つの左レンズおよび少なくとも1つの右レンズの中心を設定する前記第2のコンピュータの少なくとも1つが、調節可能な瞳孔間距離機構にさらに接続され、
前記少なくとも2つのディスプレイが、該ディスプレイの光軸の輻輳方向を目よりも鼻方向に向けて配置され、
前記少なくとも2つのディスプレイが可撓性であり、前記少なくとも1つの左レンズおよび少なくとも1つの右レンズが、前記少なくとも2つのディスプレイの屈曲を実質的に模倣し、
前記自動調整可能な焦点が、サーボモーターを用いて機能することを特徴とする、仮想または拡張現実システム。 - 仮想または拡張現実システムであって、
少なくとも1つの視覚化装置;
少なくとも1つの第1の外部コンピュータ;
半透過性赤外線反射層でコーティングされた少なくとも2つのディスプレイ;
自動調整可能な焦点;
前記少なくとも2つのディスプレイの前に配置された、少なくとも1つの左レンズおよび少なくとも1つの右レンズ;
少なくとも2つのアイトラッキングシステム、
を備え、
前記少なくとも1つの第1の外部コンピュータが、前記少なくとも1つの視覚化装置に通信可能にリンクされ、
前記少なくとも1つの第1の外部コンピュータがさらに、中央処理ユニットおよびビデオアダプタを備え、
前記ビデオアダプタが、前記少なくとも1つの視覚化装置に複数のデータストリームを供給し、
前記少なくとも2つのディスプレイが、前記少なくとも1つの視覚化装置に接続され、
前記少なくとも1つの左レンズおよび少なくとも1つの右レンズが、レンズの位置のフィードバックを提供する瞳孔間距離測定センサーに接続された調節可能な瞳孔間距離機構に接続され、前記調節可能な瞳孔間距離機構がレンズアクチュエータに接続され、
前記少なくとも2つのアイトラッキングシステムが、前記レンズアクチュエータに接続され、
前記少なくとも2つのアイトラッキングシステムがさらに、ミラーとして前記少なくとも2つのディスプレイを用いる少なくとも2つのアイトラッキングカメラを備え、瞳孔の中心に関する情報を提供し、
前記瞳孔間距離測定センサーおよび前記少なくとも2つのアイトラッキングシステムが、前記少なくとも1つの第1の外部コンピュータ、および、瞳孔の中心の前に前記少なくとも1つの左レンズおよび少なくとも1つの右レンズの中心を設定する第2のコンピュータの少なくとも1つと接続され、
前記少なくとも1つの第1の外部コンピュータ、および、前記少なくとも1つの左レンズおよび少なくとも1つの右レンズの中心を設定する前記第2のコンピュータの少なくとも1つが、調節可能な瞳孔間距離機構にさらに接続され、
前記少なくとも2つのディスプレイが、該ディスプレイの光軸の輻輳方向を目よりも鼻方向に向けて配置され、
前記少なくとも2つのディスプレイが可撓性であり、前記少なくとも1つの左レンズおよび少なくとも1つの右レンズが、前記少なくとも2つのディスプレイの屈曲を実質的に模倣し、
前記少なくとも2つのアイトラッキングシステムが、ディスプレイのアクチュエータに接続されることを特徴とする、仮想または拡張現実システム。 - 仮想または拡張現実システムであって、
少なくとも1つの視覚化装置;
少なくとも1つの第1の外部コンピュータ;
半透過性赤外線反射層でコーティングされた少なくとも2つのディスプレイ;
自動調整可能な焦点;
前記少なくとも2つのディスプレイの前に配置された、少なくとも1つの左レンズおよび少なくとも1つの右レンズ;
少なくとも2つのアイトラッキングシステム、
を備え、
前記少なくとも1つの第1の外部コンピュータが、前記少なくとも1つの視覚化装置に通信可能にリンクされ、
前記少なくとも1つの第1の外部コンピュータがさらに、中央処理ユニットおよびビデオアダプタを備え、
前記ビデオアダプタが、前記少なくとも1つの視覚化装置に複数のデータストリームを供給し、
前記少なくとも2つのディスプレイが、前記少なくとも1つの視覚化装置に接続され、
前記少なくとも1つの左レンズおよび少なくとも1つの右レンズが、レンズの位置のフィードバックを提供する瞳孔間距離測定センサーに接続された調節可能な瞳孔間距離機構に接続され、前記調節可能な瞳孔間距離機構がレンズアクチュエータに接続され、
前記少なくとも2つのアイトラッキングシステムが、前記レンズアクチュエータに接続され、
前記少なくとも2つのアイトラッキングシステムがさらに、ミラーとして前記少なくとも2つのディスプレイを用いる少なくとも2つのアイトラッキングカメラを備え、瞳孔の中心に関する情報を提供し、
前記瞳孔間距離測定センサーおよび前記少なくとも2つのアイトラッキングシステムが、前記少なくとも1つの第1の外部コンピュータ、および、瞳孔の中心の前に前記少なくとも1つの左レンズおよび少なくとも1つの右レンズの中心を設定する第2のコンピュータの少なくとも1つと接続され、
前記少なくとも1つの第1の外部コンピュータ、および、前記少なくとも1つの左レンズおよび少なくとも1つの右レンズの中心を設定する前記第2のコンピュータの少なくとも1つが、調節可能な瞳孔間距離機構にさらに接続され、
前記少なくとも2つのディスプレイが、該ディスプレイの光軸の輻輳方向を目よりも鼻方向に向けて配置され、
前記少なくとも2つのディスプレイが可撓性であり、前記少なくとも1つの左レンズおよび少なくとも1つの右レンズが、前記少なくとも2つのディスプレイの屈曲を実質的に模倣し、
レンズの位置を調整するために、前記少なくとも1つの左レンズおよび少なくとも1つの右レンズの左レンズが少なくとも1つの左アクチュエータに接続され、前記少なくとも1つの左レンズおよび少なくとも1つの右レンズの右レンズが少なくとも1つの右アクチュエータに接続されることを特徴とする、仮想または拡張現実システム。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762580203P | 2017-11-01 | 2017-11-01 | |
US62/580,203 | 2017-11-01 | ||
PCT/US2018/058533 WO2019089811A1 (en) | 2017-11-01 | 2018-10-31 | Interactive augmented or virtual reality devices |
JP2020544355A JP7170736B2 (ja) | 2017-11-01 | 2018-10-31 | 双方向性拡張または仮想現実装置 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020544355A Division JP7170736B2 (ja) | 2017-11-01 | 2018-10-31 | 双方向性拡張または仮想現実装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022191313A JP2022191313A (ja) | 2022-12-27 |
JP7470164B2 true JP7470164B2 (ja) | 2024-04-17 |
Family
ID=66244854
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020544355A Active JP7170736B2 (ja) | 2017-11-01 | 2018-10-31 | 双方向性拡張または仮想現実装置 |
JP2022157574A Active JP7470164B2 (ja) | 2017-11-01 | 2022-09-30 | 双方向性拡張または仮想現実装置 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020544355A Active JP7170736B2 (ja) | 2017-11-01 | 2018-10-31 | 双方向性拡張または仮想現実装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10816807B2 (ja) |
EP (1) | EP3740809A4 (ja) |
JP (2) | JP7170736B2 (ja) |
IL (1) | IL274294B (ja) |
WO (1) | WO2019089811A1 (ja) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11506897B2 (en) * | 2017-12-21 | 2022-11-22 | Nokia Technologies Oy | Display apparatus and method |
US11012682B2 (en) * | 2018-03-02 | 2021-05-18 | Texas Instruments Incorporated | Linearly actuated display |
US10823970B2 (en) | 2018-08-23 | 2020-11-03 | Apple Inc. | Head-mounted electronic display device with lens position sensing |
CN209690628U (zh) | 2018-08-23 | 2019-11-26 | 苹果公司 | 系统和头戴式设备 |
US11982809B2 (en) | 2018-09-17 | 2024-05-14 | Apple Inc. | Electronic device with inner display and externally accessible input-output device |
CN113196139B (zh) * | 2018-12-20 | 2023-08-11 | 美国斯耐普公司 | 用于生成立体图像的具有双摄像头的柔性眼戴设备 |
JP2022515266A (ja) | 2018-12-24 | 2022-02-17 | ディーティーエス・インコーポレイテッド | 深層学習画像解析を用いた室内音響シミュレーション |
US11740742B2 (en) * | 2019-09-23 | 2023-08-29 | Apple Inc. | Electronic devices with finger sensors |
US11048483B2 (en) | 2019-09-24 | 2021-06-29 | Rockwell Automation Technologies, Inc. | Industrial programming development with an extensible integrated development environment (IDE) platform |
US11392112B2 (en) * | 2019-09-26 | 2022-07-19 | Rockwell Automation Technologies, Inc. | Virtual design environment |
US11163536B2 (en) | 2019-09-26 | 2021-11-02 | Rockwell Automation Technologies, Inc. | Maintenance and commissioning |
US11042362B2 (en) | 2019-09-26 | 2021-06-22 | Rockwell Automation Technologies, Inc. | Industrial programming development with a trained analytic model |
ES2831385A1 (es) * | 2019-12-05 | 2021-06-08 | Ar Vr Meifus Eng S L | Casco y sistema de realidad mixta, virtual y aumentada |
US10965931B1 (en) | 2019-12-06 | 2021-03-30 | Snap Inc. | Sensor misalignment compensation |
US11860444B2 (en) * | 2020-04-15 | 2024-01-02 | Apple Inc. | Electronic devices with covering structures |
CN111596763B (zh) * | 2020-05-15 | 2023-12-26 | 京东方科技集团股份有限公司 | 虚拟现实设备的控制方法及装置 |
US11719937B2 (en) * | 2020-05-21 | 2023-08-08 | Apple Inc. | Head-mounted electronic device with self-mixing sensors |
US11831665B2 (en) | 2021-01-04 | 2023-11-28 | Bank Of America Corporation | Device for monitoring a simulated environment |
US12001020B2 (en) * | 2021-08-26 | 2024-06-04 | Canon Kabushiki Kaisha | Display device capable of interpupillary distance adjustment and diopter adjustment, and control method thereof |
US20230328494A1 (en) * | 2022-04-08 | 2023-10-12 | Shreyas Sen | Distributed body area network computing system, method and computer program products |
US20240192462A1 (en) * | 2022-12-09 | 2024-06-13 | Apple Inc. | Electronic Devices With Movable Optical Assemblies |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006108868A (ja) | 2004-10-01 | 2006-04-20 | Canon Inc | 画像表示装置および画像表示システム |
WO2015198477A1 (ja) | 2014-06-27 | 2015-12-30 | 株式会社Fove | 視線検知装置 |
JP2016033551A (ja) | 2014-07-31 | 2016-03-10 | セイコーエプソン株式会社 | 表示装置、表示装置の制御方法、および、プログラム |
Family Cites Families (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06347731A (ja) * | 1993-06-08 | 1994-12-22 | Menicon Co Ltd | 近点観察用コンタクトレンズ |
JPH0795622A (ja) * | 1993-09-21 | 1995-04-07 | Olympus Optical Co Ltd | 立体画像撮影装置、立体画像表示装置および立体画像記録および/または再生装置 |
JPH08234141A (ja) * | 1994-12-01 | 1996-09-13 | Olympus Optical Co Ltd | 頭部装着型映像表示装置 |
JPH1062712A (ja) * | 1996-08-22 | 1998-03-06 | Nikon Corp | 観察光学系および観察方法 |
EP1683063A1 (de) * | 2003-11-10 | 2006-07-26 | Siemens Aktiengesellschaft | System und verfahren zur durchführung und visualisierung von simulationen in einer erweiterten realität |
US8965460B1 (en) * | 2004-01-30 | 2015-02-24 | Ip Holdings, Inc. | Image and augmented reality based networks using mobile devices and intelligent electronic glasses |
DE102004016331B4 (de) * | 2004-04-02 | 2007-07-05 | Siemens Ag | Vorrichtung und Verfahren zur gleichzeitigen Darstellung virtueller und realer Umgebungsinformationen |
WO2006019657A2 (en) | 2004-07-23 | 2006-02-23 | Wms Gaming Inc. | System, method, and apparatus for presenting media in a wagering game machine |
US8130260B2 (en) | 2005-11-09 | 2012-03-06 | Johns Hopkins University | System and method for 3-dimensional display of image data |
US9823737B2 (en) * | 2008-04-07 | 2017-11-21 | Mohammad A Mazed | Augmented reality personal assistant apparatus |
US20090262074A1 (en) * | 2007-01-05 | 2009-10-22 | Invensense Inc. | Controlling and accessing content using motion processing on mobile devices |
US8786675B2 (en) | 2008-01-23 | 2014-07-22 | Michael F. Deering | Systems using eye mounted displays |
WO2011084895A1 (en) * | 2010-01-08 | 2011-07-14 | Kopin Corporation | Video eyewear for smart phone games |
JP2012203114A (ja) * | 2011-03-24 | 2012-10-22 | Olympus Corp | 頭部装着型表示装置 |
US8998414B2 (en) | 2011-09-26 | 2015-04-07 | Microsoft Technology Licensing, Llc | Integrated eye tracking and display system |
US9152226B2 (en) * | 2012-06-15 | 2015-10-06 | Qualcomm Incorporated | Input method designed for augmented reality goggles |
US20160292924A1 (en) * | 2012-10-31 | 2016-10-06 | Sulon Technologies Inc. | System and method for augmented reality and virtual reality applications |
JP6094190B2 (ja) * | 2012-12-10 | 2017-03-15 | ソニー株式会社 | 情報処理装置および記録媒体 |
KR20230173231A (ko) | 2013-03-11 | 2023-12-26 | 매직 립, 인코포레이티드 | 증강 및 가상 현실을 위한 시스템 및 방법 |
US9836122B2 (en) | 2014-01-21 | 2017-12-05 | Osterhout Group, Inc. | Eye glint imaging in see-through computer display systems |
KR102292192B1 (ko) * | 2014-02-17 | 2021-08-23 | 엘지전자 주식회사 | 증강 현실 이미지를 디스플레이 하는 디스플레이 시스템 및 그 제어 방법 |
US9691181B2 (en) * | 2014-02-24 | 2017-06-27 | Sony Interactive Entertainment Inc. | Methods and systems for social sharing head mounted display (HMD) content with a second screen |
US9681804B2 (en) * | 2015-01-12 | 2017-06-20 | X Development Llc | Hybrid lens system for head wearable display |
US10593028B2 (en) * | 2015-12-03 | 2020-03-17 | Samsung Electronics Co., Ltd. | Method and apparatus for view-dependent tone mapping of virtual reality images |
US10241569B2 (en) | 2015-12-08 | 2019-03-26 | Facebook Technologies, Llc | Focus adjustment method for a virtual reality headset |
US10445860B2 (en) * | 2015-12-08 | 2019-10-15 | Facebook Technologies, Llc | Autofocus virtual reality headset |
US20180359463A1 (en) * | 2015-12-28 | 2018-12-13 | Sony Corporation | Information processing device, information processing method, and program |
CN105700140A (zh) * | 2016-01-15 | 2016-06-22 | 北京星辰万有科技有限公司 | 瞳距可调的沉浸式视频系统 |
US20170236330A1 (en) * | 2016-02-15 | 2017-08-17 | Julie Maria Seif | Novel dual hmd and vr device with novel control methods and software |
BR112018016726B1 (pt) * | 2016-02-18 | 2023-03-14 | Apple Inc | Método de processamento de imagem para realidade mista e dispositivo usado na cabeça |
US10192528B2 (en) | 2016-03-31 | 2019-01-29 | Sony Interactive Entertainment Inc. | Real-time user adaptive foveated rendering |
US10169919B2 (en) * | 2016-09-09 | 2019-01-01 | Oath Inc. | Headset visual displacement for motion correction |
US10394040B2 (en) * | 2016-10-12 | 2019-08-27 | Facebook Technologies, Llc | Head mounted display including pancake lens block |
US10877556B2 (en) * | 2016-10-21 | 2020-12-29 | Apple Inc. | Eye tracking system |
US10545347B2 (en) | 2017-02-23 | 2020-01-28 | Google Llc | Compact eye tracking using folded display optics |
US10424082B2 (en) * | 2017-04-24 | 2019-09-24 | Intel Corporation | Mixed reality coding with overlays |
-
2018
- 2018-10-31 WO PCT/US2018/058533 patent/WO2019089811A1/en unknown
- 2018-10-31 US US16/177,111 patent/US10816807B2/en active Active
- 2018-10-31 EP EP18874899.0A patent/EP3740809A4/en active Pending
- 2018-10-31 JP JP2020544355A patent/JP7170736B2/ja active Active
-
2020
- 2020-04-27 IL IL274294A patent/IL274294B/en unknown
-
2022
- 2022-09-30 JP JP2022157574A patent/JP7470164B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006108868A (ja) | 2004-10-01 | 2006-04-20 | Canon Inc | 画像表示装置および画像表示システム |
WO2015198477A1 (ja) | 2014-06-27 | 2015-12-30 | 株式会社Fove | 視線検知装置 |
JP2016033551A (ja) | 2014-07-31 | 2016-03-10 | セイコーエプソン株式会社 | 表示装置、表示装置の制御方法、および、プログラム |
Also Published As
Publication number | Publication date |
---|---|
IL274294B (en) | 2021-08-31 |
JP2021508426A (ja) | 2021-03-04 |
US10816807B2 (en) | 2020-10-27 |
EP3740809A1 (en) | 2020-11-25 |
WO2019089811A1 (en) | 2019-05-09 |
US20190129181A1 (en) | 2019-05-02 |
EP3740809A4 (en) | 2021-12-15 |
IL274294A (en) | 2020-06-30 |
JP7170736B2 (ja) | 2022-11-14 |
JP2022191313A (ja) | 2022-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7470164B2 (ja) | 双方向性拡張または仮想現実装置 | |
US10410562B2 (en) | Image generating device and image generating method | |
EP3008548B1 (en) | Head-mountable apparatus and systems | |
EP3029550A1 (en) | Virtual reality system | |
US10681276B2 (en) | Virtual reality video processing to compensate for movement of a camera during capture | |
KR20160147735A (ko) | 헤드부 위치 검출 장치 및 헤드부 위치 검출 방법, 화상 처리 장치 및 화상 처리 방법, 표시 장치, 및 컴퓨터 프로그램 | |
US11647354B2 (en) | Method and apparatus for providing audio content in immersive reality | |
US11069137B2 (en) | Rendering captions for media content | |
US12028419B1 (en) | Systems and methods for predictively downloading volumetric data | |
US10831443B2 (en) | Content discovery | |
EP3264228A1 (en) | Mediated reality | |
KR100917100B1 (ko) | 입체 영상 디스플레이 장치 및 그 입체 영상 디스플레이장치에서의 표시부 위치 조절 방법 | |
WO2019063962A1 (en) | GENERATION OF MOTION SIGNALS | |
GB2558279A (en) | Head mountable display system | |
US12093448B2 (en) | Input generation system and method | |
EP4325476A1 (en) | Video display system, information processing method, and program | |
WO2018105223A1 (ja) | 撮像装置 | |
KR20180050126A (ko) | 양안식 증강현실 뷰어에서 증강현실 제공방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221031 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240206 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240305 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240315 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240321 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240405 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7470164 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |