JP7431157B2 - ディスプレイデバイスのための向上された姿勢決定 - Google Patents
ディスプレイデバイスのための向上された姿勢決定 Download PDFInfo
- Publication number
- JP7431157B2 JP7431157B2 JP2020529704A JP2020529704A JP7431157B2 JP 7431157 B2 JP7431157 B2 JP 7431157B2 JP 2020529704 A JP2020529704 A JP 2020529704A JP 2020529704 A JP2020529704 A JP 2020529704A JP 7431157 B2 JP7431157 B2 JP 7431157B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- current image
- patch
- salient points
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 101
- 238000005259 measurement Methods 0.000 claims description 55
- 238000012545 processing Methods 0.000 claims description 53
- 238000003384 imaging method Methods 0.000 claims description 51
- 230000000007 visual effect Effects 0.000 claims description 32
- 230000003190 augmentative effect Effects 0.000 claims description 25
- 238000003860 storage Methods 0.000 claims description 8
- 210000001508 eye Anatomy 0.000 description 125
- 230000003287 optical effect Effects 0.000 description 98
- 230000033001 locomotion Effects 0.000 description 55
- 238000010168 coupling process Methods 0.000 description 43
- 238000005859 coupling reaction Methods 0.000 description 43
- 210000003128 head Anatomy 0.000 description 43
- 230000008878 coupling Effects 0.000 description 37
- 210000000695 crystalline len Anatomy 0.000 description 36
- 230000008569 process Effects 0.000 description 36
- 238000004422 calculation algorithm Methods 0.000 description 29
- 230000004308 accommodation Effects 0.000 description 25
- 210000001747 pupil Anatomy 0.000 description 15
- 210000001525 retina Anatomy 0.000 description 15
- 239000000463 material Substances 0.000 description 14
- 230000006870 function Effects 0.000 description 13
- 239000003086 colorant Substances 0.000 description 12
- 238000001514 detection method Methods 0.000 description 11
- 239000000284 extract Substances 0.000 description 10
- 239000000835 fiber Substances 0.000 description 9
- 230000002350 accommodative effect Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 8
- 238000002347 injection Methods 0.000 description 8
- 239000007924 injection Substances 0.000 description 8
- 230000036544 posture Effects 0.000 description 8
- 241000153282 Theope Species 0.000 description 7
- 230000007613 environmental effect Effects 0.000 description 7
- 238000010801 machine learning Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 239000006185 dispersion Substances 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 230000004438 eyesight Effects 0.000 description 6
- 230000008447 perception Effects 0.000 description 6
- 238000000605 extraction Methods 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 230000002207 retinal effect Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 210000004556 brain Anatomy 0.000 description 4
- 238000005253 cladding Methods 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 230000001902 propagating effect Effects 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000000712 assembly Effects 0.000 description 2
- 238000000429 assembly Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000007670 refining Methods 0.000 description 2
- 230000011514 reflex Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241000256837 Apidae Species 0.000 description 1
- 241000473391 Archosargus rhomboidalis Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 239000004983 Polymer Dispersed Liquid Crystal Substances 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001886 ciliary effect Effects 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 210000004087 cornea Anatomy 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 210000003041 ligament Anatomy 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000012634 optical imaging Methods 0.000 description 1
- 238000013488 ordinary least square regression Methods 0.000 description 1
- 230000004962 physiological condition Effects 0.000 description 1
- 230000035790 physiological processes and functions Effects 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
- 125000006850 spacer group Chemical group 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000004304 visual acuity Effects 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0112—Head-up displays characterised by optical features comprising device for genereting colour display
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
- G02B2027/0174—Head mounted characterised by optical features holographic
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Hardware Design (AREA)
- Optics & Photonics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Analysis (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Description
本願は、2017年12月15日に出願された、米国仮出願第62/599,620号、および2018年1月30日に出願された、米国仮出願第62/623,606号の優先権を主張する。これらの出願はそれぞれ、参照することによって全体として本明細書に組み込まれる。
本開示は、ディスプレイシステムに関し、より具体的には、拡張現実ディスプレイシステムに関する。
現代のコンピューティングおよびディスプレイ技術は、いわゆる「仮想現実」または「拡張現実」体験のためのシステムの開発を促進しており、デジタル的に再現された画像またはその一部が、現実であるように見える、またはそのように知覚され得る様式でユーザに提示される。仮想現実、すなわち、「VR」シナリオは、典型的には、他の実際の実世界の視覚的入力に対する透過性を伴わずに、デジタルまたは仮想画像情報の提示を伴い、拡張現実または「AR」シナリオは、典型的には、ユーザの周囲の実際の世界の可視化に対する拡張としてのデジタルまたは仮想画像情報の提示を伴う。複合現実または「MR」シナリオは、一種のARシナリオであって、典型的には、自然世界の中に統合され、それに応答する、仮想オブジェクトを伴う。例えば、MRシナリオでは、AR画像コンテンツは実世界内のオブジェクトによってブロックされて見える、または別様にそれと相互作用するように知覚されてもよい。
本発明は、例えば、以下を提供する。
(項目1)
システムであって、
1つ以上の結像デバイスと、
1つ以上のプロセッサと、
1つ以上のコンピュータ記憶媒体であって、前記1つ以上のコンピュータ記憶媒体は、命令を記憶しており、前記命令は、前記1つ以上のプロセッサによって実行されると、前記1つ以上のプロセッサに、
前記1つ以上の結像デバイスを介して、実世界環境の現在の画像を取得することであって、前記現在の画像は、姿勢を決定するための複数の点を含む、ことと、
前の画像からのパッチベースの第1の顕著な点を前記現在の画像内の前記複数の点のうちの対応するもの上に投影させることと、
第2の顕著な点を前記現在の画像から抽出することと、
前記顕著な点に関する個別の記述子を提供することと、
前記現在の画像と関連付けられた顕著な点と前記実世界環境の記述子ベースのマップ内に規定された実世界場所を合致させることと、
前記合致に基づいて、前記システムと関連付けられた姿勢を決定することであって、前記姿勢は、少なくとも、前記実世界環境内の前記1つ以上の結像デバイスの配向を示す、ことと
を含む動作を実施させる、1つ以上のコンピュータ記憶媒体と
を備える、システム。
(項目2)
前記動作はさらに、前記現在の画像上の前記パッチベースの第1の顕著な点の位置を調節することを含み、前記位置を調節することは、
前記第1の顕著な点と関連付けられた第1のパッチを取得することであって、前記第1のパッチは、前記第1の顕著な点を包含する前記前の画像の一部と、前記第1の顕著な点の周囲の前記前の画像のエリアとを含む、ことと、
前記第1のパッチに類似する前記現在の画像内の第2のパッチを位置特定することであって、前記第1の顕著な点は、前記第2のパッチ内の前記第1のパッチと類似する場所に位置付けられる、ことと
を含む、項目1に記載のシステム。
(項目3)
前記第2のパッチを位置特定することは、前記前の画像内の前記第1のパッチと前記現在の画像内の前記第2のパッチとの間の差異を最小限にすることを含む、項目2に記載のシステム。
(項目4)
前記パッチベースの第1の顕著な点を前記現在の画像上に投影させることは、少なくとも部分的に、前記システムの慣性測定ユニットからの情報に基づく、項目2に記載のシステム。
(項目5)
前記第2の顕著な点を抽出することは、
前記現在の画像の画像エリアが、前記前の画像から投影された閾値数未満の顕著な点を有することを決定することと、
1つ以上の記述子ベースの顕著な点を前記画像エリアから抽出することであって、前記抽出された顕著な点は、前記第2の顕著な点を含む、ことと
を含む、項目1に記載のシステム。
(項目6)
前記画像エリアは、前記現在の画像の全体を備える、または、前記画像は、前記現在の画像のサブセットを備える、項目5に記載のシステム。
(項目7)
前記画像エリアは、前記現在の画像のサブセットを備え、前記システムは、処理制約または1つ以上の以前の決定された姿勢間の差異のうちの1つ以上のものに基づいて、前記サブセットと関連付けられたサイズを調節するように構成される、項目5に記載のシステム。
(項目8)
前記現在の画像と関連付けられた顕著な点と前記実世界環境のマップ内に規定された実世界場所を合致することは、
マップ情報にアクセスすることであって、前記マップ情報は、顕著な点の実世界場所と、関連付けられた記述子とを備える、ことと、
前記現在の画像の顕著な点に関する記述子と実世界場所における顕著な点に関する記述子とを合致させることと
を含む、項目1に記載のシステム。
(項目9)
前記動作はさらに、
前記マップ情報内に提供される顕著な点を前記現在の画像上に投影させることであって、前記投影は、慣性測定ユニット、拡張カルマンフィルタ、または視覚的慣性オドメトリのうちの1つ以上のものに基づく、こと
を含む、項目7に記載のシステム。
(項目10)
前記システムは、少なくとも、前記1つ以上の結像デバイスを使用して、前記マップを生成するように構成される、項目1に記載のシステム。
(項目11)
前記姿勢を決定することは、前記現在の画像内で捕捉されたビュー内の前記顕著な点の実世界場所および前記顕著な点の相対的位置に基づく、項目1に記載のシステム。
(項目12)
前記動作はさらに、
前記現在の画像の後続画像に関して、前記パッチが、前記後続画像上に投影されるために利用可能な顕著な点を備えるように、前記現在の画像から抽出された個別の顕著な点と関連付けられたパッチを生成すること
を含む、項目1に記載のシステム。
(項目13)
記述子を提供することは、前記顕著な点毎に記述子を生成することを含む、項目1に記載のシステム。
(項目14)
拡張現実ディスプレイシステムであって、
1つ以上の結像デバイスと、
1つ以上のプロセッサであって、前記プロセッサは、
実世界環境の現在の画像を取得することと、
前の画像内に含まれるパッチベースの顕著な点が、前記現在の画像上に投影されるように、フレーム/フレーム追跡を前記現在の画像上で実施することと、
マップデータベース内に含まれる記述子ベースの顕著な点が、前記現在の画像の顕著な点と合致されるように、マップ/フレーム追跡を前記現在の画像上で実施することと、
前記ディスプレイデバイスと関連付けられた姿勢を決定することと
を行うように構成される、1つ以上のプロセッサと
を備える、拡張現実ディスプレイシステム。
(項目15)
方法であって、
1つ以上の結像デバイスを介して、実世界環境の現在の画像を取得することであって、前記現在の画像は、姿勢を決定するための複数の点を含む、ことと、
前の画像からのパッチベースの第1の顕著な点を前記現在の画像内の前記複数の点のうちの対応するもの上に投影させることと、
第2の顕著な点を前記現在の画像から抽出することと、
前記顕著な点に関する個別の記述子を提供することと、
前記現在の画像と関連付けられた顕著な点と前記実世界環境の記述子ベースのマップ内に規定された実世界場所を合致させることと、
前記合致に基づいて、ディスプレイデバイスと関連付けられた姿勢を決定することであって、前記姿勢は、少なくとも、前記実世界環境内の前記1つ以上の結像デバイスの配向を示す、ことと
を含む、方法。
(項目16)
前記現在の画像上の前記パッチベースの第1の顕著な点の位置を調節することをさらに含み、前記位置を調節することは、
前記第1の顕著な点と関連付けられた第1のパッチを取得することであって、前記第1のパッチは、前記第1の顕著な点を包含する前記前の画像の一部と、前記第1の顕著な点の周囲の前記前の画像のエリアとを含む、ことと、
前記第1のパッチに類似する前記現在の画像内の第2のパッチを位置特定することであって、前記第1の顕著な点は、前記第2のパッチ内の前記第1のパッチと類似する場所に位置付けられる、ことと
を含む、項目15に記載の方法。
(項目17)
前記第2のパッチを位置特定することは、前記第1のパッチとの最小差異を伴う前記現在の画像内のパッチを決定することを含む、項目16に記載の方法。
(項目18)
前記パッチベースの第1の顕著な点を前記現在の画像上に投影させることは、少なくとも部分的に、前記ディスプレイデバイスの慣性測定ユニットからの情報に基づく、項目16に記載の方法。
(項目19)
前記第2の顕著な点を抽出することは、
前記現在の画像の画像エリアが、前記前の画像から投影された閾値数未満の顕著な点を有することを決定することと、
1つ以上の記述子ベースの顕著な点を前記画像エリアから抽出することであって、前記抽出された顕著な点は、前記第2の顕著な点を含む、ことと
を含む、項目15に記載の方法。
(項目20)
前記画像エリアは、前記現在の画像の全体を備える、または、前記画像は、前記現在の画像のサブセットを備える、項目19に記載の方法。
(項目21)
前記画像エリアは、前記現在の画像のサブセットを備え、前記プロセッサは、処理制約または1つ以上の以前の決定された姿勢間の差異のうちの1つ以上のものに基づいて、前記サブセットと関連付けられたサイズを調節するように構成される、項目19に記載の方法。
(項目22)
前記現在の画像と関連付けられた顕著な点と前記実世界環境のマップ内に規定された実世界場所を合致することは、
マップ情報にアクセスすることであって、前記マップ情報は、顕著な点の実世界場所と、関連付けられた記述子とを備える、ことと、
前記現在の画像の顕著な点に関する記述子と実世界場所における顕著な点に関する記述子とを合致させることと
を含む、項目15に記載の方法。
(項目23)
前記マップ情報内に提供される顕著な点を前記現在の画像上に投影させることであって、前記投影は、慣性測定ユニット、拡張カルマンフィルタ、または視覚的慣性オドメトリのうちの1つ以上のものに基づく、こと
をさらに含む、項目22に記載の方法。
(項目24)
前記姿勢を決定することは、前記現在の画像内で捕捉されたビュー内の前記顕著な点の実世界場所および前記顕著な点の相対的位置に基づく、項目15に記載の方法。
(項目25)
前記現在の画像の後続画像に関して、前記パッチが、前記後続画像上に投影されるために利用可能な顕著な点を備えるように、前記現在の画像から抽出された個別の顕著な点と関連付けられたパッチを生成すること
をさらに含む、項目15に記載の方法。
(項目26)
記述子を提供することは、前記顕著な点毎に記述子を生成することを含む、項目15に記載の方法。
(項目27)
少なくとも、前記1つ以上の結像デバイスを使用して、前記マップを生成することをさらに含む、項目15に記載の方法。
本明細書に説明されるように、ディスプレイデバイス(例えば、図9Dに説明される、ディスプレイシステム60)は、仮想コンテンツをユーザ(例えば、フレーム80に結合される、ディスプレイ70を装着している等、ディスプレイデバイスを装着しているユーザ)に提示することができる。仮想コンテンツの提示の間、ディスプレイデバイスは、ディスプレイデバイスおよびユーザの頭部の姿勢を決定することができる。姿勢は、上記に説明されるように、ディスプレイデバイスおよび/またはユーザの頭部の配向、随意に、ディスプレイデバイスおよび/またはユーザの頭部の位置を識別することができる。例えば、ディスプレイデバイスは、仮想ドキュメントを実世界机上に備える、仮想コンテンツを提示することができる。ユーザが、その頭部をドキュメントを中心として回転させる、またはドキュメントにより近くにまたはそこからより離れるように移動するにつれて、ディスプレイデバイスは、その頭部姿勢を決定することができる。このように、ディスプレイデバイスは、仮想ドキュメントが現実的ドキュメントとして実世界机上に現れるように、提示される仮想コンテンツを調節することができる。本説明は、拡張現実等の仮想コンテンツを参照するが、ディスプレイデバイスは、仮想現実ディスプレイシステムであって、本明細書に説明される技法を利用してもよい。
上記に議論されるように、ディスプレイシステムは、ユーザを囲繞する環境内のオブジェクトまたはその性質を検出するように構成されてもよい。検出は、本明細書に議論されるように、種々の環境センサ(例えば、カメラ、オーディオセンサ、温度センサ等)を含む、種々の技法を使用して、遂行されてもよい。例えば、オブジェクトは、顕著な点(例えば、角)を表してもよい。
種々の機械学習アルゴリズムが、周囲環境内のオブジェクトの存在を識別するように学習するために使用されてもよい。いったん訓練されると、機械学習アルゴリズムは、ディスプレイシステムによって記憶されてもよい。機械学習アルゴリズムのいくつかの実施例は、教師ありまたは教師なし機械学習アルゴリズムを含むことができ、回帰アルゴリズム(例えば、通常の最小2乗回帰等)、インスタンスベースのアルゴリズム(例えば、学習ベクトル量子化等)、決定ツリーアルゴリズム(例えば、分類および回帰ツリー等)、ベイズアルゴリズム(例えば、単純ベイズ等)、クラスタリングアルゴリズム(例えば、k-平均クラスタリング等)、関連付けルール学習アルゴリズム(例えば、アプリオリアルゴリズム等)、人工ニューラルネットワークアルゴリズム(例えば、Perceptron等)、深層学習アルゴリズム(例えば、Deep Boltzmann Machine、すなわち、深層ニューラルネットワーク等)、次元削減アルゴリズム(例えば、主成分分析等)、アンサンブルアルゴリズム(例えば、Stacked Generalization等)、および/または他の機械学習アルゴリズムを含む。いくつかの実施形態では、個々のモデルは、個々のデータセットのためにカスタマイズされてもよい。例えば、ウェアラブルデバイスは、ベースモデルを生成または記憶してもよい。ベースモデルは、開始点として使用され、データタイプ(例えば、特定のユーザ)、データセット(例えば、取得される付加的画像のセット)、条件付き状況、または他の変形例に特有の付加的モデルを生成してもよい。いくつかの実施形態では、ディスプレイシステムは、複数の技法を利用して、集約されたデータの分析のためのモデルを生成するように構成されてもよい。他の技法は、事前に定義された閾値またはデータ値を使用することを含んでもよい。
Claims (14)
- 拡張現実ディスプレイシステムであって、前記拡張現実ディスプレイシステムは、
1つ以上の結像デバイスと、
1つ以上のプロセッサと
を備え、
前記1つ以上のプロセッサは、
実世界環境の現在の画像を取得することと、
過去の画像内に含まれるパッチベースの顕著な点が前記現在の画像上に投影されるように、フレーム/フレーム追跡を前記現在の画像上で実行することと、
前記現在の画像のサブセットが、前記過去の画像から投影された閾値数未満の数のパッチベースの顕著な点を含む場合には、前記現在の画像の前記サブセットを含む画像エリアから1つ以上の新しい顕著な点を抽出することであって、前記現在の画像の前記サブセットのサイズは、前記拡張現実ディスプレイシステムによって、または、前記拡張現実ディスプレイシステムの動作中にユーザによって調節可能である、ことと、
マップデータベース内に含まれる記述子ベースの顕著な点が前記現在の画像の顕著な点と合致されるように、マップ/フレーム追跡を前記現在の画像上で実行することであって、前記マップデータベース内に含まれる前記記述子ベースの顕著な点は、前記1つ以上の新しい顕著な点を含む、ことと、
前記拡張現実ディスプレイシステムに関連付けられた姿勢を決定することと
を行うように構成されている、拡張現実ディスプレイシステム。 - 方法であって、前記方法は、
1つ以上の結像デバイスを介して、実世界環境の現在の画像を取得することであって、前記現在の画像は、姿勢を決定するための複数の点を含む、ことと、
過去の画像からのパッチベースの第1の顕著な点を前記現在の画像内の前記複数の点のうちの対応する1つの点の上に投影することと、
前記現在の画像から第2の顕著な点を抽出することと、
前記パッチベースの第1の顕著な点および前記第2の顕著な点に対してそれぞれの記述子を提供することと、
前記現在の画像に関連付けられた顕著な点と前記実世界環境の記述子ベースのマップ内に規定された実世界場所とを合致させることと、
前記合致に基づいて、ディスプレイデバイスに関連付けられた姿勢を決定することであって、前記姿勢は、少なくとも、前記実世界環境内の前記1つ以上の結像デバイスの配向を示す、ことと
を含み、
前記第2の顕著な点を抽出することは、
前記現在の画像の画像エリアのサブセットが、前記過去の画像から投影された閾値数未満の数の顕著な点を含むことを決定することと、
前記画像エリアの前記サブセットから1つ以上の記述子ベースの顕著な点を抽出することであって、前記抽出された1つ以上の記述子ベースの顕著な点は、前記第2の顕著な点を含み、前記現在の画像の前記画像エリアの前記サブセットのサイズは、前記ディスプレイデバイスによって、または、前記ディスプレイデバイスの動作中にユーザによって調節可能である、ことと
を含む、方法。 - 前記方法は、前記現在の画像上の前記パッチベースの第1の顕著な点の位置を調節することをさらに含み、
前記位置を調節することは、
前記パッチベースの第1の顕著な点に関連付けられた第1のパッチを取得することであって、前記第1のパッチは、前記パッチベースの第1の顕著な点を包含する前記過去の画像の一部と、前記パッチベースの第1の顕著な点の周囲の前記過去の画像のエリアとを含む、ことと、
前記第1のパッチに類似する前記現在の画像内の第2のパッチを位置特定することであって、前記パッチベースの第1の顕著な点は、前記第2のパッチ内の前記第1のパッチと類似する場所に位置付けられる、ことと
を含む、請求項2に記載の方法。 - 前記第2のパッチを位置特定することは、前記第1のパッチとの最小差異を伴う前記現在の画像内のパッチを決定することを含む、請求項3に記載の方法。
- 前記パッチベースの第1の顕著な点を前記現在の画像上に投影することは、前記ディスプレイデバイスの慣性測定ユニットからの情報に少なくとも部分的に基づく、請求項3に記載の方法。
- 前記方法は、処理制約または1つ以上の以前の決定された姿勢間の差異のうちの1つ以上のものに基づいて、前記サブセットに関連付けられたサイズを調節することをさらに含む、請求項2に記載の方法。
- 前記現在の画像に関連付けられた顕著な点と前記実世界環境の記述子ベースのマップ内に規定された実世界場所とを合致することは、
マップ情報にアクセスすることであって、前記マップ情報は、顕著な点の実世界場所と、関連付けられた記述子とを備える、ことと、
前記現在の画像の顕著な点に関する記述子と実世界場所における顕著な点に関する記述子とを合致させることと
を含む、請求項2に記載の方法。 - 前記方法は、前記マップ情報内に提供される顕著な点を前記現在の画像上に投影することをさらに含み、
前記投影することは、慣性測定ユニット、拡張カルマンフィルタ、または、視覚的慣性オドメトリのうちの1つ以上のものに基づく、請求項7に記載の方法。 - 前記姿勢を決定することは、前記現在の画像内で捕捉されたビュー内の前記顕著な点の実世界場所および前記顕著な点の相対的位置に基づく、請求項2に記載の方法。
- 前記方法は、前記現在の画像から抽出されたそれぞれの顕著な点に関連付けられたパッチを生成することをさらに含み、
前記現在の画像の後続画像に対して、前記パッチは、前記後続画像上に投影されるために利用可能な顕著な点を含む、請求項2に記載の方法。 - 記述子を提供することは、前記顕著な点毎に記述子を生成することを含む、請求項2に記載の方法。
- 前記方法は、少なくとも前記1つ以上の結像デバイスを使用して、前記記述子ベースのマップを生成することをさらに含む、請求項2に記載の方法。
- 命令を記憶する非一過性のコンピュータ記憶媒体であって、前記命令は、1つ以上のプロセッサによって実行されると、請求項2~請求項12のいずれかに記載の方法を実行することを前記1つ以上のプロセッサに行わせる、非一過性のコンピュータ記憶媒体。
- 前記1つ以上のプロセッサは、処理制約または1つ以上の以前の決定された姿勢間の差異のうちの1つ以上のものに基づいて、前記サブセットに関連付けられたサイズを調節するように構成されている、請求項1に記載の拡張現実ディスプレイシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023206824A JP2024025804A (ja) | 2017-12-15 | 2023-12-07 | ディスプレイデバイスのための向上された姿勢決定 |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762599620P | 2017-12-15 | 2017-12-15 | |
US62/599,620 | 2017-12-15 | ||
US201862623606P | 2018-01-30 | 2018-01-30 | |
US62/623,606 | 2018-01-30 | ||
PCT/US2018/065771 WO2019118886A1 (en) | 2017-12-15 | 2018-12-14 | Enhanced pose determination for display device |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023206824A Division JP2024025804A (ja) | 2017-12-15 | 2023-12-07 | ディスプレイデバイスのための向上された姿勢決定 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021509495A JP2021509495A (ja) | 2021-03-25 |
JP7431157B2 true JP7431157B2 (ja) | 2024-02-14 |
Family
ID=66814528
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020529704A Active JP7431157B2 (ja) | 2017-12-15 | 2018-12-14 | ディスプレイデバイスのための向上された姿勢決定 |
JP2023206824A Pending JP2024025804A (ja) | 2017-12-15 | 2023-12-07 | ディスプレイデバイスのための向上された姿勢決定 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023206824A Pending JP2024025804A (ja) | 2017-12-15 | 2023-12-07 | ディスプレイデバイスのための向上された姿勢決定 |
Country Status (9)
Country | Link |
---|---|
US (3) | US10943120B2 (ja) |
EP (1) | EP3724713A4 (ja) |
JP (2) | JP7431157B2 (ja) |
KR (1) | KR20200097292A (ja) |
CN (1) | CN111630435A (ja) |
AU (1) | AU2018385695B2 (ja) |
CA (1) | CA3084057A1 (ja) |
IL (2) | IL274976B2 (ja) |
WO (1) | WO2019118886A1 (ja) |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IL274976B2 (en) | 2017-12-15 | 2024-05-01 | Magic Leap Inc | Improved positioning for a display device |
US11227435B2 (en) | 2018-08-13 | 2022-01-18 | Magic Leap, Inc. | Cross reality system |
WO2020036898A1 (en) | 2018-08-13 | 2020-02-20 | Magic Leap, Inc. | A cross reality system |
US11232635B2 (en) | 2018-10-05 | 2022-01-25 | Magic Leap, Inc. | Rendering location specific virtual content in any location |
US11463443B2 (en) * | 2019-09-19 | 2022-10-04 | Bank Of America Corporation | Real-time management of access controls |
CN110751691B (zh) * | 2019-09-24 | 2022-09-20 | 同济大学 | 一种基于双目视觉的管件自动抓取方法 |
CN114616534A (zh) | 2019-10-15 | 2022-06-10 | 奇跃公司 | 具有无线指纹的交叉现实系统 |
US11568605B2 (en) | 2019-10-15 | 2023-01-31 | Magic Leap, Inc. | Cross reality system with localization service |
EP4046070A4 (en) | 2019-10-15 | 2023-10-18 | Magic Leap, Inc. | CROSS-REALLY SYSTEM THAT SUPPORTS MULTIPLE DEVICE TYPES |
US11443455B2 (en) * | 2019-10-24 | 2022-09-13 | Microsoft Technology Licensing, Llc | Prior informed pose and scale estimation |
WO2021096931A1 (en) | 2019-11-12 | 2021-05-20 | Magic Leap, Inc. | Cross reality system with localization service and shared location-based content |
US11562542B2 (en) | 2019-12-09 | 2023-01-24 | Magic Leap, Inc. | Cross reality system with simplified programming of virtual content |
WO2021154656A1 (en) | 2020-01-27 | 2021-08-05 | Magic Leap, Inc. | Enhanced state control for anchor-based cross reality applications |
JP2023514205A (ja) | 2020-02-13 | 2023-04-05 | マジック リープ, インコーポレイテッド | 正確な共有マップを伴うクロスリアリティシステム |
WO2021163295A1 (en) | 2020-02-13 | 2021-08-19 | Magic Leap, Inc. | Cross reality system with prioritization of geolocation information for localization |
WO2021163300A1 (en) | 2020-02-13 | 2021-08-19 | Magic Leap, Inc. | Cross reality system with map processing using multi-resolution frame descriptors |
CN115461787A (zh) | 2020-02-26 | 2022-12-09 | 奇跃公司 | 具有快速定位的交叉现实系统 |
CN115349140A (zh) | 2020-03-03 | 2022-11-15 | 奇跃公司 | 基于多种特征类型的有效定位 |
JP2023524446A (ja) | 2020-04-29 | 2023-06-12 | マジック リープ, インコーポレイテッド | 大規模環境のためのクロスリアリティシステム |
US11508085B2 (en) * | 2020-05-08 | 2022-11-22 | Varjo Technologies Oy | Display systems and methods for aligning different tracking means |
US11789266B1 (en) * | 2020-06-29 | 2023-10-17 | Snap Inc. | Dynamic sensor selection for visual inertial odometry systems |
KR20220099210A (ko) * | 2021-01-05 | 2022-07-13 | 삼성디스플레이 주식회사 | 표시 장치, 이를 포함하는 가상 현실 표시 시스템 및 이를 이용한 입력 영상 기반 사용자 움직임 추정 방법 |
US11644890B2 (en) * | 2021-02-11 | 2023-05-09 | Qualcomm Incorporated | Image capturing in extended reality environments |
KR20220151420A (ko) * | 2021-05-06 | 2022-11-15 | 삼성전자주식회사 | 웨어러블 전자 장치 및 3d 이미지 출력 방법 |
US12003697B2 (en) | 2021-05-06 | 2024-06-04 | Samsung Electronics Co., Ltd. | Wearable electronic device and method of outputting three-dimensional image |
CN115291729A (zh) * | 2022-08-10 | 2022-11-04 | 立讯精密科技(南京)有限公司 | 头戴式设备的提醒方法及头戴式设备 |
CN115326656B (zh) * | 2022-10-14 | 2022-12-23 | 西南交通大学 | 交通土建用颗粒材料松铺层颗粒粒径及级配无损测量方法 |
CN117635506B (zh) * | 2024-01-24 | 2024-04-05 | 成都航天凯特机电科技有限公司 | 一种基于AI赋能Mean Shift算法的图像增强方法及装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140010407A1 (en) | 2012-07-09 | 2014-01-09 | Microsoft Corporation | Image-based localization |
Family Cites Families (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6222525B1 (en) | 1992-03-05 | 2001-04-24 | Brad A. Armstrong | Image controllers with sheet connected sensors |
US5670988A (en) | 1995-09-05 | 1997-09-23 | Interlink Electronics, Inc. | Trigger operated electronic device |
JPH0995194A (ja) * | 1995-09-29 | 1997-04-08 | Aisin Seiki Co Ltd | 車両前方の物体検出装置 |
US8696113B2 (en) | 2005-10-07 | 2014-04-15 | Percept Technologies Inc. | Enhanced optical and perceptual digital eyewear |
US11428937B2 (en) | 2005-10-07 | 2022-08-30 | Percept Technologies | Enhanced optical and perceptual digital eyewear |
US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
KR100780057B1 (ko) * | 2006-04-25 | 2007-11-29 | 삼성전자주식회사 | 동영상 그레쥬얼 샷 변환 장치 및 그 방법 |
US8781162B2 (en) * | 2011-01-05 | 2014-07-15 | Ailive Inc. | Method and system for head tracking and pose estimation |
US9304319B2 (en) | 2010-11-18 | 2016-04-05 | Microsoft Technology Licensing, Llc | Automatic focus improvement for augmented reality displays |
US10156722B2 (en) | 2010-12-24 | 2018-12-18 | Magic Leap, Inc. | Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality |
AU2011348122A1 (en) | 2010-12-24 | 2013-07-11 | Magic Leap Inc. | An ergonomic head mounted display device and optical system |
CA3035118C (en) | 2011-05-06 | 2022-01-04 | Magic Leap, Inc. | Massive simultaneous remote digital presence world |
WO2013049861A1 (en) | 2011-09-29 | 2013-04-04 | Magic Leap, Inc. | Tactile glove for human-computer interaction |
RU2621633C2 (ru) | 2011-10-28 | 2017-06-06 | Мэджик Лип, Инк. | Система и способ для дополненной и виртуальной реальности |
KR102022719B1 (ko) | 2012-04-05 | 2019-11-05 | 매직 립, 인코포레이티드 | 능동 포비에이션 능력을 갖는 와이드-fov(field of view) 이미지 디바이스들 |
US9671566B2 (en) * | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
US9111135B2 (en) * | 2012-06-25 | 2015-08-18 | Aquifi, Inc. | Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera |
CN104813218A (zh) | 2012-09-11 | 2015-07-29 | 奇跃公司 | 人机工程学的头戴显示设备和光学系统 |
KR102274413B1 (ko) | 2013-01-15 | 2021-07-07 | 매직 립, 인코포레이티드 | 초고해상도 스캐닝 섬유 디스플레이 |
IL298018B2 (en) | 2013-03-11 | 2024-04-01 | Magic Leap Inc | System and method for augmentation and virtual reality |
EP2973532A4 (en) | 2013-03-15 | 2017-01-18 | Magic Leap, Inc. | Display system and method |
US9874749B2 (en) | 2013-11-27 | 2018-01-23 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
US10262462B2 (en) * | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
US9406137B2 (en) * | 2013-06-14 | 2016-08-02 | Qualcomm Incorporated | Robust tracking using point and line features |
IL295157B2 (en) | 2013-10-16 | 2023-10-01 | Magic Leap Inc | An augmented or virtual reality head device with intrapupillary distance adjustment |
US9857591B2 (en) | 2014-05-30 | 2018-01-02 | Magic Leap, Inc. | Methods and system for creating focal planes in virtual and augmented reality |
AU2014354673B2 (en) * | 2013-11-27 | 2019-04-11 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
US20150286873A1 (en) * | 2014-04-03 | 2015-10-08 | Bruce L. Davis | Smartphone-based methods and systems |
CA3089749A1 (en) | 2014-01-31 | 2015-08-06 | Magic Leap, Inc. | Multi-focal display system and method |
JP6509883B2 (ja) | 2014-01-31 | 2019-05-08 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 多焦点表示システムおよび方法 |
US10203762B2 (en) | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
KR102173699B1 (ko) | 2014-05-09 | 2020-11-03 | 아이플루언스, 인크. | 안구 신호들의 인식 및 지속적인 생체 인증을 위한 시스템과 방법들 |
WO2015184413A1 (en) | 2014-05-30 | 2015-12-03 | Magic Leap, Inc. | Methods and systems for generating virtual content display with a virtual or augmented reality apparatus |
IL274976B2 (en) | 2017-12-15 | 2024-05-01 | Magic Leap Inc | Improved positioning for a display device |
-
2018
- 2018-12-14 IL IL274976A patent/IL274976B2/en unknown
- 2018-12-14 IL IL308780A patent/IL308780A/en unknown
- 2018-12-14 AU AU2018385695A patent/AU2018385695B2/en active Active
- 2018-12-14 KR KR1020207019367A patent/KR20200097292A/ko active IP Right Grant
- 2018-12-14 US US16/221,065 patent/US10943120B2/en active Active
- 2018-12-14 CA CA3084057A patent/CA3084057A1/en active Pending
- 2018-12-14 CN CN201880086666.XA patent/CN111630435A/zh active Pending
- 2018-12-14 WO PCT/US2018/065771 patent/WO2019118886A1/en unknown
- 2018-12-14 JP JP2020529704A patent/JP7431157B2/ja active Active
- 2018-12-14 EP EP18889714.4A patent/EP3724713A4/en active Pending
-
2021
- 2021-03-05 US US17/193,568 patent/US11501529B2/en active Active
-
2022
- 2022-10-14 US US17/966,585 patent/US11823450B2/en active Active
-
2023
- 2023-12-07 JP JP2023206824A patent/JP2024025804A/ja active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140010407A1 (en) | 2012-07-09 | 2014-01-09 | Microsoft Corporation | Image-based localization |
Also Published As
Publication number | Publication date |
---|---|
JP2021509495A (ja) | 2021-03-25 |
CN111630435A (zh) | 2020-09-04 |
IL308780A (en) | 2024-01-01 |
US20240135707A1 (en) | 2024-04-25 |
US20190188474A1 (en) | 2019-06-20 |
IL274976B2 (en) | 2024-05-01 |
JP2024025804A (ja) | 2024-02-26 |
US20230034363A1 (en) | 2023-02-02 |
KR20200097292A (ko) | 2020-08-18 |
IL274976B1 (en) | 2024-01-01 |
US20210334537A1 (en) | 2021-10-28 |
AU2018385695B2 (en) | 2023-11-02 |
US11501529B2 (en) | 2022-11-15 |
CA3084057A1 (en) | 2019-06-20 |
AU2018385695A1 (en) | 2020-06-18 |
US11823450B2 (en) | 2023-11-21 |
IL274976A (en) | 2020-07-30 |
WO2019118886A1 (en) | 2019-06-20 |
US10943120B2 (en) | 2021-03-09 |
EP3724713A1 (en) | 2020-10-21 |
EP3724713A4 (en) | 2021-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7431157B2 (ja) | ディスプレイデバイスのための向上された姿勢決定 | |
JP7186844B2 (ja) | ウェアラブルデバイスによる顔モデル捕捉 | |
US20220066553A1 (en) | Eye image selection | |
JP7378431B2 (ja) | フレーム変調機能性を伴う拡張現実ディスプレイ | |
JP7443332B2 (ja) | ユーザカテゴリ化による多深度平面ディスプレイシステムのための深度平面選択 | |
JP7090601B2 (ja) | 複合現実較正のための眼球周囲試験 | |
US11138793B2 (en) | Multi-depth plane display system with reduced switching between depth planes | |
US11860359B2 (en) | Display system with low-latency pupil tracker | |
US20240027794A1 (en) | Virtual object movement speed curve for virtual and augmented reality display systems | |
US11681362B2 (en) | Enhanced eye tracking for augmented or virtual reality display systems | |
US20240233372A9 (en) | Enhanced pose determination for display device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211213 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211213 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221227 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230324 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230529 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230807 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231207 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20231218 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240111 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240201 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7431157 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |