JP2023505230A - 仮想、拡張、および複合現実システムおよび方法 - Google Patents
仮想、拡張、および複合現実システムおよび方法 Download PDFInfo
- Publication number
- JP2023505230A JP2023505230A JP2022533463A JP2022533463A JP2023505230A JP 2023505230 A JP2023505230 A JP 2023505230A JP 2022533463 A JP2022533463 A JP 2022533463A JP 2022533463 A JP2022533463 A JP 2022533463A JP 2023505230 A JP2023505230 A JP 2023505230A
- Authority
- JP
- Japan
- Prior art keywords
- user
- depth
- focus
- display
- viewer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 82
- 230000003190 augmentative effect Effects 0.000 title description 5
- 230000033001 locomotion Effects 0.000 claims description 26
- 230000011218 segmentation Effects 0.000 claims description 5
- 238000004458 analytical method Methods 0.000 claims description 4
- 210000001508 eye Anatomy 0.000 description 55
- 238000012545 processing Methods 0.000 description 36
- 230000003287 optical effect Effects 0.000 description 24
- 230000004308 accommodation Effects 0.000 description 16
- 238000004891 communication Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 12
- 238000009877 rendering Methods 0.000 description 11
- 230000008901 benefit Effects 0.000 description 7
- 210000004556 brain Anatomy 0.000 description 7
- 239000000203 mixture Substances 0.000 description 7
- 238000013459 approach Methods 0.000 description 6
- 210000003128 head Anatomy 0.000 description 5
- 230000008447 perception Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000002350 accommodative effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 3
- 239000000872 buffer Substances 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000000670 limiting effect Effects 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 206010019233 Headaches Diseases 0.000 description 2
- 230000002411 adverse Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 210000000695 crystalline len Anatomy 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 231100000869 headache Toxicity 0.000 description 2
- 230000020169 heat generation Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000002156 mixing Methods 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 241000256837 Apidae Species 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 208000003464 asthenopia Diseases 0.000 description 1
- 230000031018 biological processes and functions Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000013021 overheating Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 210000000857 visual cortex Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本特許文書の開示の一部は、著作権保護を受けるべき資料を含有する。本著作権所有者は、本特許文書または本特許開示を誰が複写しても、それが特許商標局の特許ファイルまたは記録に現れる通りである限りでは異議はないが、その他の場合には、いかなる著作権も全て保有する。
本開示の種々の実施形態は、単一実施形態または複数の実施形態における、仮想現実(VR)/拡張現実(AR)/複合現実(MR)のためのシステム、方法、および製造品を対象とする。本開示の他の目的、特徴、および利点は、発明を実施するための形態、図、および請求項に説明される。
問題の概要およびソリューション
例証的VR、AR、および/またはMRシステム
例証的ユーザ/視認者焦点深度決定システムおよび方法
システムアーキテクチャ概要
Claims (10)
- 3次元(「3D」)ディスプレイデバイスのユーザの焦点深度を決定するための方法であって、
前記ユーザの第1の視線経路を追跡することと、
前記ユーザの前記第1の視線経路に沿って、1つまたはそれを上回る仮想オブジェクトを識別するために3Dデータを分析することと、
1つのみの仮想オブジェクトが、前記ユーザの前記第1の視線経路と交差するとき、前記1つのみの仮想オブジェクトの深度を前記ユーザの焦点深度として識別することと
を含む、方法。 - 前記1つまたはそれを上回る仮想オブジェクトはそれぞれ、前記ユーザから個別の深度において表示される、請求項1に記載の方法。
- 前記複数の3Dデータを分析することは、3Dデータに対応する深度セグメント化データを分析することを含む、請求項1に記載の方法。
- 1つを上回る仮想オブジェクトが、前記ユーザの第1の視線経路と交差するとき、
前記ユーザの第2の視線経路を追跡することと、
前記ユーザの第2の視線経路に沿って、前記1つまたはそれを上回る仮想オブジェクトを識別するために3Dデータを分析することと、
1つのみの仮想オブジェクトが、前記ユーザの第1の視線経路および第2の視線経路の両方と交差するとき、1つのみの2D画像フレームの深度を前記ユーザの焦点深度として識別することと
をさらに含む、請求項1に記載の方法。 - 前記ユーザの輻輳・開散運動焦点深度を生成するために、輻輳・開散運動分析を前記ユーザに実施することと、
前記ユーザの焦点深度の正確度を改良するために、前記ユーザの輻輳・開散運動焦点深度を使用することと
をさらに含む、請求項1に記載の方法。 - 3次元(「3D」)ディスプレイデバイスのユーザの焦点深度を決定するための方法であって、
前記ユーザの第1の視線経路を追跡することと、
前記ユーザの前記第1の視線経路に沿って、1つまたはそれを上回る仮想オブジェクトを識別するために、前記ディスプレイデバイスによって表示される複数の2次元(「2D」)画像フレームを分析することと、
前記複数の2D画像フレームの1つのみが、前記ユーザの第1の視線経路に沿って、仮想オブジェクトを含むとき、前記1つのみの2D画像フレームの深度を前記ユーザの焦点深度として識別することと
を含む、方法。 - 前記複数の2D画像フレームはそれぞれ、前記ユーザから個別の深度において表示される、請求項6に記載の方法。
- 前記複数の2D画像フレームを分析することは、前記複数の2D画像フレームに対応する深度セグメント化データを分析することを含む、請求項6に記載の方法。
- 前記複数の2D画像フレームの1つを上回るものが、前記ユーザの第1の視線経路に沿って、仮想オブジェクトを含むとき、
前記ユーザの第2の視線経路を追跡することと、
前記ユーザの第2の視線経路に沿って、1つまたはそれを上回る仮想オブジェクトを識別するために、前記ディスプレイデバイスによって表示される前記複数の2D画像フレームを分析することと、
前記複数の2D画像フレームの1つのみが、前記ユーザの第1の視線経路および第2の視線経路の両方に沿って、仮想オブジェクトを含むとき、前記1つのみの2D画像フレームの深度を前記ユーザの焦点深度として識別することと
をさらに含む、請求項6に記載の方法。 - 前記ユーザの輻輳・開散運動焦点深度を生成するために、輻輳・開散運動分析を前記ユーザに実施することと、
前記ユーザの焦点深度の正確度を改良するために、前記ユーザの輻輳・開散運動焦点深度を使用することと
をさらに含む、請求項6に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962945027P | 2019-12-06 | 2019-12-06 | |
US62/945,027 | 2019-12-06 | ||
PCT/US2020/063155 WO2021113540A1 (en) | 2019-12-06 | 2020-12-03 | Virtual, augmented, and mixed reality systems and methods |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023505230A true JP2023505230A (ja) | 2023-02-08 |
JPWO2021113540A5 JPWO2021113540A5 (ja) | 2023-11-09 |
Family
ID=76210464
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022533463A Pending JP2023505230A (ja) | 2019-12-06 | 2020-12-03 | 仮想、拡張、および複合現実システムおよび方法 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11662808B2 (ja) |
EP (1) | EP4070153A4 (ja) |
JP (1) | JP2023505230A (ja) |
CN (1) | CN114830011A (ja) |
WO (1) | WO2021113540A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115562496B (zh) * | 2022-11-04 | 2023-12-15 | 浙江舜为科技有限公司 | Xr设备及基于xr设备的字符输入方法和字符修改方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9292973B2 (en) * | 2010-11-08 | 2016-03-22 | Microsoft Technology Licensing, Llc | Automatic variable virtual focus for augmented reality displays |
US10203762B2 (en) * | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US11138793B2 (en) * | 2014-03-14 | 2021-10-05 | Magic Leap, Inc. | Multi-depth plane display system with reduced switching between depth planes |
KR101844883B1 (ko) * | 2014-12-23 | 2018-04-03 | 메타 컴퍼니 | 관심 객체의 임의의 깊이에 있는 동일한 평면으로 시각적 조절과 시각적 수렴을 결합시키는 장치, 방법 및 시스템 |
US10241569B2 (en) * | 2015-12-08 | 2019-03-26 | Facebook Technologies, Llc | Focus adjustment method for a virtual reality headset |
US10025060B2 (en) * | 2015-12-08 | 2018-07-17 | Oculus Vr, Llc | Focus adjusting virtual reality headset |
EP3249497A1 (en) * | 2016-05-24 | 2017-11-29 | Harman Becker Automotive Systems GmbH | Eye tracking |
PL3494695T3 (pl) * | 2016-08-04 | 2024-02-19 | Dolby Laboratories Licensing Corporation | Rozwiązania akomodacji-wergencji ze śledzeniem pojedynczej głębi |
US10928638B2 (en) * | 2016-10-31 | 2021-02-23 | Dolby Laboratories Licensing Corporation | Eyewear devices with focus tunable lenses |
KR20240046291A (ko) * | 2017-03-22 | 2024-04-08 | 매직 립, 인코포레이티드 | 디스플레이 시스템들을 위한 깊이 기반 포비티드 렌더링 |
GB2569574B (en) * | 2017-12-20 | 2021-10-06 | Sony Interactive Entertainment Inc | Head-mountable apparatus and methods |
CN112753037A (zh) * | 2018-09-28 | 2021-05-04 | 苹果公司 | 传感器融合眼睛跟踪 |
CN109491508B (zh) | 2018-11-27 | 2022-08-26 | 北京七鑫易维信息技术有限公司 | 一种确定注视对象的方法和装置 |
US11132056B2 (en) * | 2019-12-04 | 2021-09-28 | Facebook Technologies, Llc | Predictive eye tracking systems and methods for foveated rendering for electronic displays |
-
2020
- 2020-12-03 CN CN202080084086.4A patent/CN114830011A/zh active Pending
- 2020-12-03 EP EP20897135.8A patent/EP4070153A4/en active Pending
- 2020-12-03 WO PCT/US2020/063155 patent/WO2021113540A1/en unknown
- 2020-12-03 US US17/110,670 patent/US11662808B2/en active Active
- 2020-12-03 JP JP2022533463A patent/JP2023505230A/ja active Pending
-
2023
- 2023-04-20 US US18/304,311 patent/US20230251710A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
EP4070153A1 (en) | 2022-10-12 |
US20230251710A1 (en) | 2023-08-10 |
EP4070153A4 (en) | 2023-01-18 |
US20210173478A1 (en) | 2021-06-10 |
US11662808B2 (en) | 2023-05-30 |
CN114830011A (zh) | 2022-07-29 |
WO2021113540A1 (en) | 2021-06-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11451882B2 (en) | Cinematic mastering for virtual reality and augmented reality | |
CN110402425B (zh) | 具有彩色虚拟内容扭曲的混合现实系统及使用该系统生成虚拟内容的方法 | |
CN108369457B (zh) | 用于混合现实的现实混合器 | |
US20190122442A1 (en) | Augmented Reality | |
CN110419061B (zh) | 混合现实系统及使用该系统生成虚拟内容的方法 | |
CN107710284B (zh) | 用于在虚拟图像生成系统中更有效地显示文本的技术 | |
JP7201869B1 (ja) | 前の目線からのレンダリングされたコンテンツおよびレンダリングされなかったコンテンツを使用した新しいフレームの生成 | |
US20240169489A1 (en) | Virtual, augmented, and mixed reality systems and methods | |
US20230251710A1 (en) | Virtual, augmented, and mixed reality systems and methods | |
US11818325B2 (en) | Blended mode three dimensional display systems and methods | |
CN115512087A (zh) | 使用在预定距离处的遮挡表面生成和修改人工现实环境 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231030 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231030 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20231030 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240513 |