JP7378431B2 - フレーム変調機能性を伴う拡張現実ディスプレイ - Google Patents
フレーム変調機能性を伴う拡張現実ディスプレイ Download PDFInfo
- Publication number
- JP7378431B2 JP7378431B2 JP2020570198A JP2020570198A JP7378431B2 JP 7378431 B2 JP7378431 B2 JP 7378431B2 JP 2020570198 A JP2020570198 A JP 2020570198A JP 2020570198 A JP2020570198 A JP 2020570198A JP 7378431 B2 JP7378431 B2 JP 7378431B2
- Authority
- JP
- Japan
- Prior art keywords
- camera
- user
- environment
- hmd
- frame rate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003190 augmentative effect Effects 0.000 title description 36
- 230000033001 locomotion Effects 0.000 claims description 581
- 210000001508 eye Anatomy 0.000 claims description 380
- 238000012545 processing Methods 0.000 claims description 282
- 238000000034 method Methods 0.000 claims description 180
- 230000002829 reductive effect Effects 0.000 claims description 144
- 230000003565 oculomotor Effects 0.000 claims description 86
- 238000005259 measurement Methods 0.000 claims description 70
- 210000003128 head Anatomy 0.000 claims description 67
- 230000008569 process Effects 0.000 claims description 58
- 230000001133 acceleration Effects 0.000 claims description 46
- 230000009467 reduction Effects 0.000 claims description 23
- 238000004891 communication Methods 0.000 claims description 21
- 230000003466 anti-cipated effect Effects 0.000 claims description 19
- 238000003384 imaging method Methods 0.000 description 93
- 238000004422 calculation algorithm Methods 0.000 description 87
- 238000009877 rendering Methods 0.000 description 53
- 210000001747 pupil Anatomy 0.000 description 43
- 230000003287 optical effect Effects 0.000 description 42
- 238000010801 machine learning Methods 0.000 description 39
- 238000013507 mapping Methods 0.000 description 38
- 238000013442 quality metrics Methods 0.000 description 37
- 230000007704 transition Effects 0.000 description 36
- 230000008859 change Effects 0.000 description 31
- 230000001815 facial effect Effects 0.000 description 25
- 238000005070 sampling Methods 0.000 description 23
- 230000000007 visual effect Effects 0.000 description 23
- 210000000695 crystalline len Anatomy 0.000 description 22
- 230000004886 head movement Effects 0.000 description 20
- 238000013528 artificial neural network Methods 0.000 description 18
- 210000001331 nose Anatomy 0.000 description 18
- 238000000605 extraction Methods 0.000 description 15
- 230000001419 dependent effect Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 14
- 230000004044 response Effects 0.000 description 14
- 230000004308 accommodation Effects 0.000 description 13
- 210000004709 eyebrow Anatomy 0.000 description 11
- 238000013459 approach Methods 0.000 description 9
- 230000007423 decrease Effects 0.000 description 9
- 230000004424 eye movement Effects 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 8
- 230000003247 decreasing effect Effects 0.000 description 7
- 238000001514 detection method Methods 0.000 description 7
- 238000006073 displacement reaction Methods 0.000 description 7
- 239000000835 fiber Substances 0.000 description 7
- 239000000463 material Substances 0.000 description 7
- 230000008447 perception Effects 0.000 description 7
- 230000000284 resting effect Effects 0.000 description 7
- 238000000926 separation method Methods 0.000 description 7
- 230000002350 accommodative effect Effects 0.000 description 6
- 230000009471 action Effects 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 6
- 238000003860 storage Methods 0.000 description 6
- 210000003467 cheek Anatomy 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 210000004279 orbit Anatomy 0.000 description 5
- 230000035807 sensation Effects 0.000 description 5
- 230000003068 static effect Effects 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 210000004556 brain Anatomy 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 4
- 238000010168 coupling process Methods 0.000 description 4
- 238000005859 coupling reaction Methods 0.000 description 4
- 230000004438 eyesight Effects 0.000 description 4
- 210000001061 forehead Anatomy 0.000 description 4
- 239000011521 glass Substances 0.000 description 4
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 4
- 238000010191 image analysis Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 239000013307 optical fiber Substances 0.000 description 4
- 230000001953 sensory effect Effects 0.000 description 4
- 239000007787 solid Substances 0.000 description 4
- 238000013519 translation Methods 0.000 description 4
- 230000014616 translation Effects 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000003066 decision tree Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000001976 improved effect Effects 0.000 description 3
- 238000002347 injection Methods 0.000 description 3
- 239000007924 injection Substances 0.000 description 3
- 230000004807 localization Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000000513 principal component analysis Methods 0.000 description 3
- 238000013139 quantization Methods 0.000 description 3
- 210000003786 sclera Anatomy 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 210000003813 thumb Anatomy 0.000 description 3
- VCGRFBXVSFAGGA-UHFFFAOYSA-N (1,1-dioxo-1,4-thiazinan-4-yl)-[6-[[3-(4-fluorophenyl)-5-methyl-1,2-oxazol-4-yl]methoxy]pyridin-3-yl]methanone Chemical compound CC=1ON=C(C=2C=CC(F)=CC=2)C=1COC(N=C1)=CC=C1C(=O)N1CCS(=O)(=O)CC1 VCGRFBXVSFAGGA-UHFFFAOYSA-N 0.000 description 2
- MOWXJLUYGFNTAL-DEOSSOPVSA-N (s)-[2-chloro-4-fluoro-5-(7-morpholin-4-ylquinazolin-4-yl)phenyl]-(6-methoxypyridazin-3-yl)methanol Chemical compound N1=NC(OC)=CC=C1[C@@H](O)C1=CC(C=2C3=CC=C(C=C3N=CN=2)N2CCOCC2)=C(F)C=C1Cl MOWXJLUYGFNTAL-DEOSSOPVSA-N 0.000 description 2
- ABDDQTDRAHXHOC-QMMMGPOBSA-N 1-[(7s)-5,7-dihydro-4h-thieno[2,3-c]pyran-7-yl]-n-methylmethanamine Chemical compound CNC[C@@H]1OCCC2=C1SC=C2 ABDDQTDRAHXHOC-QMMMGPOBSA-N 0.000 description 2
- HCDMJFOHIXMBOV-UHFFFAOYSA-N 3-(2,6-difluoro-3,5-dimethoxyphenyl)-1-ethyl-8-(morpholin-4-ylmethyl)-4,7-dihydropyrrolo[4,5]pyrido[1,2-d]pyrimidin-2-one Chemical compound C=1C2=C3N(CC)C(=O)N(C=4C(=C(OC)C=C(OC)C=4F)F)CC3=CN=C2NC=1CN1CCOCC1 HCDMJFOHIXMBOV-UHFFFAOYSA-N 0.000 description 2
- WNEODWDFDXWOLU-QHCPKHFHSA-N 3-[3-(hydroxymethyl)-4-[1-methyl-5-[[5-[(2s)-2-methyl-4-(oxetan-3-yl)piperazin-1-yl]pyridin-2-yl]amino]-6-oxopyridin-3-yl]pyridin-2-yl]-7,7-dimethyl-1,2,6,8-tetrahydrocyclopenta[3,4]pyrrolo[3,5-b]pyrazin-4-one Chemical compound C([C@@H](N(CC1)C=2C=NC(NC=3C(N(C)C=C(C=3)C=3C(=C(N4C(C5=CC=6CC(C)(C)CC=6N5CC4)=O)N=CC=3)CO)=O)=CC=2)C)N1C1COC1 WNEODWDFDXWOLU-QHCPKHFHSA-N 0.000 description 2
- KVCQTKNUUQOELD-UHFFFAOYSA-N 4-amino-n-[1-(3-chloro-2-fluoroanilino)-6-methylisoquinolin-5-yl]thieno[3,2-d]pyrimidine-7-carboxamide Chemical compound N=1C=CC2=C(NC(=O)C=3C4=NC=NC(N)=C4SC=3)C(C)=CC=C2C=1NC1=CC=CC(Cl)=C1F KVCQTKNUUQOELD-UHFFFAOYSA-N 0.000 description 2
- CYJRNFFLTBEQSQ-UHFFFAOYSA-N 8-(3-methyl-1-benzothiophen-5-yl)-N-(4-methylsulfonylpyridin-3-yl)quinoxalin-6-amine Chemical compound CS(=O)(=O)C1=C(C=NC=C1)NC=1C=C2N=CC=NC2=C(C=1)C=1C=CC2=C(C(=CS2)C)C=1 CYJRNFFLTBEQSQ-UHFFFAOYSA-N 0.000 description 2
- AYCPARAPKDAOEN-LJQANCHMSA-N N-[(1S)-2-(dimethylamino)-1-phenylethyl]-6,6-dimethyl-3-[(2-methyl-4-thieno[3,2-d]pyrimidinyl)amino]-1,4-dihydropyrrolo[3,4-c]pyrazole-5-carboxamide Chemical compound C1([C@H](NC(=O)N2C(C=3NN=C(NC=4C=5SC=CC=5N=C(C)N=4)C=3C2)(C)C)CN(C)C)=CC=CC=C1 AYCPARAPKDAOEN-LJQANCHMSA-N 0.000 description 2
- LXRZVMYMQHNYJB-UNXOBOICSA-N [(1R,2S,4R)-4-[[5-[4-[(1R)-7-chloro-1,2,3,4-tetrahydroisoquinolin-1-yl]-5-methylthiophene-2-carbonyl]pyrimidin-4-yl]amino]-2-hydroxycyclopentyl]methyl sulfamate Chemical compound CC1=C(C=C(S1)C(=O)C1=C(N[C@H]2C[C@H](O)[C@@H](COS(N)(=O)=O)C2)N=CN=C1)[C@@H]1NCCC2=C1C=C(Cl)C=C2 LXRZVMYMQHNYJB-UNXOBOICSA-N 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 210000000744 eyelid Anatomy 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 210000003811 finger Anatomy 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 238000010438 heat treatment Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000003064 k means clustering Methods 0.000 description 2
- 238000013488 ordinary least square regression Methods 0.000 description 2
- 239000000047 product Substances 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000002207 retinal effect Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- XGVXKJKTISMIOW-ZDUSSCGKSA-N simurosertib Chemical compound N1N=CC(C=2SC=3C(=O)NC(=NC=3C=2)[C@H]2N3CCC(CC3)C2)=C1C XGVXKJKTISMIOW-ZDUSSCGKSA-N 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 241000256837 Apidae Species 0.000 description 1
- 206010019233 Headaches Diseases 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 208000006550 Mydriasis Diseases 0.000 description 1
- 239000004983 Polymer Dispersed Liquid Crystal Substances 0.000 description 1
- 208000037656 Respiratory Sounds Diseases 0.000 description 1
- 208000036366 Sensation of pressure Diseases 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 229910052782 aluminium Inorganic materials 0.000 description 1
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 1
- 208000003464 asthenopia Diseases 0.000 description 1
- 239000003181 biological factor Substances 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000005253 cladding Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 230000036461 convulsion Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000001627 detrimental effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 210000000720 eyelash Anatomy 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 231100000869 headache Toxicity 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000013021 overheating Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000001179 pupillary effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000036555 skin type Effects 0.000 description 1
- 125000006850 spacer group Chemical group 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 230000004936 stimulating effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/667—Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1686—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3234—Power saving characterised by the action undertaken
- G06F1/325—Power saving in peripheral device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3234—Power saving characterised by the action undertaken
- G06F1/325—Power saving in peripheral device
- G06F1/3265—Power saving in display device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/003—Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
- H04N13/279—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/02—Improving the quality of display appearance
- G09G2320/0261—Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2330/00—Aspects of power supply; Aspects of display protection and defect management
- G09G2330/02—Details of power systems and of start or stop of display operation
- G09G2330/021—Power management, e.g. power saving
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/0407—Resolution change, inclusive of the use of different resolutions for different screen areas
- G09G2340/0435—Change or adaptation of the frame rate of the video stream
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Processing Or Creating Images (AREA)
- Studio Devices (AREA)
Description
本願は、それぞれ、参照することによってその全体として本明細書に組み込まれる、35U.S.C.§119(e)下、2018年6月18日に出願され、「AUGMENTED REALITY DISPLAY WITH FRAME MODULATION FUNCTIONALITY」と題された、米国仮出願第62/686,644号、および2018年6月24日に出願され、「AUGMENTED REALITY DISPLAY WITH FRAME MODULATION FUNCTIONALITY」と題された、62/702,817号の優先権の利益を主張する。2016年10月5日に出願され、「PERIOCULAR TEST FOR GLASSES REMOVAL」と題された、米国仮出願第62/404,419号、2016年10月5日に出願され、「PERIOCULAR TEST FOR GLASSES FIT」と題された、米国仮出願第62/404,493号、2016年11月2日に出願され、「DYNAMIC DISPLAY CORRECTION BASED ON DISPLAY POSITION TRACKING」と題された、米国仮出願第62/416,341号、2017年9月27日に出願され、「PERIOCULAR TEST FOR MIXED REALITY CALIBRATION」と題された、米国特許出願第15/717,747号、および2017年3月2日に出願され、「CURRENT DRAIN REDUCTION IN AR/VR DISPLAY SYSTEMS」と題された、米国特許出願第15/448,402号の開示もまた、それぞれ、参照することによってその全体として本明細書に組み込まれる。加えて、2014年11月27日に出願され、2017年10月17日に発行された、現米国特許第9,791,700号である、米国特許出願第14/555,585号、2015年4月18日に出願され、2019年4月16日に発行された、現米国特許第10,262,462号である、米国特許出願第14/690,401号、2014年3月14日に出願され、2016年8月16日に発行された、現米国特許第9,417,452号である、米国特許出願第14/212,961号、および2014年7月14日に出願された、2017年6月6日に発行された、現米国特許第9,671,566号である、米国特許出願第14/331,218号の開示も同様に、それぞれ、参照することによってその全体として本明細書に組み込まれる。
本発明は、例えば、以下を提供する。
(項目1)
頭部搭載型ディスプレイシステムであって、
前記ユーザの頭部上に支持されるように構成されるフレームと、
前記フレーム上に配置されるディスプレイであって、前記ディスプレイは、仮想画像と関連付けられる光を前記ユーザの眼の中に投影し、仮想画像コンテンツをユーザに表示するように構成され、さらに、前記環境からの光をユーザの眼に透過させ、前記環境の一部のビューをユーザに提供するように構成される、ディスプレイと、
前記環境の画像をあるフレームレートで取得するように構成されるカメラであって、前記カメラは、ある視野および第1のフレームレートを有する、カメラと、
前記カメラによって取得された画像を受信および処理するように構成される処理電子機器であって、前記画像処理は、
前記頭部搭載型ディスプレイと前記環境内の1つ以上の特徴との間の相対的運動を査定することであって、前記相対的運動の査定は、前記頭部搭載型ディスプレイが、前記環境内の1つ以上の特徴に対して、移動したか、移動中であるか、または移動することが予期されるかを決定すること、および/または前記環境内の1つ以上の特徴が、前記頭部搭載型ディスプレイに対して、移動したか、移動中であるか、または移動することが予期されるかを決定することを含む、ことと、
前記場所が前記ディスプレイ内に現れるときに、レンダリング可能仮想画像コンテンツがユーザに現れる場所に対応する前記環境内の1つ以上の仮想画像コンテンツ場所を決定することと、
前記環境内の1つ以上の仮想画像コンテンツ場所と、前記カメラの視野の少なくとも一部を含む視認ゾーンとを比較することと、
(i)前記頭部搭載型ディスプレイと前記環境内の1つ以上の特徴との間の相対的運動の前記査定と、(ii)前記環境内の1つ以上の仮想画像コンテンツ場所と前記視認ゾーンとの比較とに基づいて、前記カメラのフレームレートを第1のフレームレートから第2のフレームレートに改変すること、および/または処理される前記カメラによって取得された前記フレーム上の処理の量を調節することと
を含む、処理電子機器と
を備える、システム。
(項目2)
前記処理電子機器と通信する、運動センサをさらに備え、前記運動センサは、前記相対的運動の査定のための測定を実施するように構成される、項目1に記載のシステム。
(項目3)
前記運動センサは、慣性測定ユニット(IMU)を備える、項目2に記載のシステム。
(項目4)
前記相対的運動の査定は、少なくとも部分的に、角度または線形加速の測定に基づく、前記項目のいずれかに記載のシステム。
(項目5)
前記相対的運動の査定は、少なくとも部分的に、角度または線形速度の測定に基づく、前記項目のいずれかに記載のシステム。
(項目6)
前記相対的運動の査定は、少なくとも部分的に、前記頭部搭載型ディスプレイの角度または線形加速の測定に基づく、前記項目のいずれかに記載のシステム。
(項目7)
前記相対的運動の査定は、少なくとも部分的に、前記頭部搭載型ディスプレイの角度または線形速度の測定に基づく、前記項目のいずれかに記載のシステム。
(項目8)
前記相対的運動の査定は、少なくとも部分的に、前記環境内の1つ以上の特徴の角度または線形加速の測定に基づく、前記項目のいずれかに記載のシステム。
(項目9)
前記相対的運動の査定は、少なくとも部分的に、前記環境内の1つ以上の特徴の角度または線形速度の測定に基づく、前記項目のいずれかに記載のシステム。
(項目10)
前記相対的運動の査定は、前記頭部搭載型ディスプレイの運動または予期される運動が閾値を超えることを決定することを含む、前記項目のいずれかに記載のシステム。
(項目11)
前記相対的運動の査定は、前記環境内の1つ以上の特徴の運動または予期される運動が閾値を超えることを決定することを含む、前記項目のいずれかに記載のシステム。
(項目12)
前記第2のフレームレートは、前記カメラが、前記相対的運動の査定に基づいて、低減されたフレームレートで動作するように構成されるように、前記第1のフレームレートより低い、前記項目のいずれかに記載のシステム。
(項目13)
前記カメラのフレームレートおよび/または前記カメラによって取得された前記フレーム上の処理の量は、(i)前記頭部搭載型ディスプレイが、前記環境内の1つ以上の特徴に対して、移動した、移動中である、または移動することが予期されること、または前記環境内の1つ以上の特徴が、前記頭部搭載型ディスプレイに対して、移動した、移動中である、または移動することが予期されること、および(ii)前記環境内の1つ以上の仮想画像コンテンツ場所が、前記視認ゾーン内の場所を含むことの決定に基づいて低減される、前記項目のいずれかに記載のシステム。
(項目14)
前記カメラのフレームレートおよび/または前記カメラによって取得された前記フレーム上の処理の量はさらに、(iii)前記環境内の1つ以上の仮想画像コンテンツ場所が、前記近距離動眼視野内の場所を含まないことの決定に基づいて低減される、項目13に記載のシステム。
(項目15)
前記カメラのフレームレートおよび/または前記カメラによって取得された前記フレーム上の処理の量は、前記環境内の1つ以上の仮想画像コンテンツ場所が、近距離動眼視野領域内の場所を含む場合、低減されない、前記項目のいずれかに記載のシステム。
(項目16)
前記カメラのフレームレートおよび/または前記カメラによって取得された前記フレーム上の処理の量は、(i)前記頭部搭載型ディスプレイが、前記環境内の1つ以上の特徴に対して、移動したか、移動中であるか、または移動することが予期されるか、または前記環境内の1つ以上の特徴が、前記頭部搭載型ディスプレイに対して、移動したか、移動中であるか、または移動することが予期されるか、および(ii)前記環境内の1つ以上の仮想画像コンテンツ場所が、(i)前記視認ゾーンを越え、かつ(ii)近距離動眼視野領域を越える遠距離動眼視野内の場所を含むことの決定に基づいて低減される、前記項目のいずれかに記載のシステム。
(項目17)
前記カメラのフレームレートおよび/または前記カメラによって取得された前記フレーム上の処理の量はさらに、(iii)前記環境内の1つ以上の仮想画像コンテンツ場所が、前記近距離動眼視野内の場所を含まないことの決定に基づいて低減される、項目16に記載のシステム。
(項目18)
前記視認ゾーンは、前記カメラの視野を含む、前記項目のいずれかに記載のシステム。
(項目19)
前記カメラの視野は、約45 o ~135 o である、項目18に記載のシステム。
(項目20)
前記視認ゾーンは、前記カメラの視野に対応し、前記1つ以上の仮想画像コンテンツ場所と前記視認ゾーンを比較することは、前記環境内の1つ以上の仮想画像コンテンツ場所が、前記カメラの視野内にあるかどうかを決定することを含む、項目18または19のいずれかに記載のシステム。
(項目21)
前記第2のフレームレートは、前記第1のフレームレートより低い、前記項目のいずれかに記載のシステム。
(項目22)
前記第1のフレームレートは、約30fps~60fpsである、前記項目のいずれかに記載のシステム。
(項目23)
前記第2のフレームレートは、約5fps~20fpsである、前記項目のいずれかに記載のシステム。
(項目24)
前記システムは、(i)前記頭部搭載型ディスプレイと前記環境内の1つ以上の特徴との間の相対的運動の前記査定と、(ii)前記1つ以上の仮想画像コンテンツ場所と前記視認ゾーンとの比較とに基づいて、前記カメラの第2のフレームレートを設定するように構成される、前記項目のいずれかに記載のシステム。
(項目25)
前記システムは、(i)前記頭部搭載型ディスプレイと前記環境内の1つ以上の特徴との間の相対的運動の前記査定と、(ii)前記1つ以上の仮想画像コンテンツ場所と前記視認ゾーンとの比較とに基づいて、前記カメラによって取得された前記フレーム上の処理の量を低減させるように構成される、前記項目のいずれかに記載のシステム。
(項目26)
前記システムは、(i)前記頭部搭載型ディスプレイと前記環境内の1つ以上の特徴との間の相対的運動の前記査定と、(ii)前記1つ以上の仮想画像コンテンツ場所と前記視認ゾーンとの比較とに基づいて、前記カメラによって取得されたより少ないフレームからのデータを処理するように構成される、前記項目のいずれかに記載のシステム。
(項目27)
前記システムはさらに、前記システムの運動についての情報をあるサンプリングレートで受信する運動センサを備える、前記項目のいずれかに記載のシステム。
(項目28)
前記システムは、(i)前記頭部搭載型ディスプレイが、移動したか、移動中であるか、または移動することが予期されるかの決定と、(ii)前記1つ以上の仮想画像コンテンツ場所と前記視認ゾーンとの比較とに基づいて、前記カメラのフレームレートを低減させるが、前記運動センサのサンプリングレートを維持するように構成される、項目27に記載のシステム。
(項目29)
前記運動センサのサンプリングレートは、前記カメラのフレームレートの低減後、前記カメラのフレームレートより高速である、項目27に記載のシステム。
(項目30)
前記運動センサは、慣性センサまたは加速度計を備える、項目27-29のいずれかに記載のシステム。
(項目31)
前記頭部搭載型ディスプレイと前記環境内の1つ以上の特徴との間の相対的運動の前記査定は、前記環境内の1つ以上の特徴が、前記頭部搭載型ディスプレイに対して、移動した、移動中である、または移動することが予期されることを決定することを含む、前記項目のいずれかに記載のシステム。
(項目32)
前記頭部搭載型ディスプレイと前記環境内の1つ以上の特徴との間の相対的運動の前記査定は、カメラを使用して、前記環境の1つ以上の特徴を検出することを含む、前記項目のいずれかに記載のシステム。
(項目33)
前記環境の1つ以上の特徴は、前記環境内のオブジェクトの縁または角のうちの少なくとも1つを含む、項目32に記載のシステム。
(項目34)
前記カメラを使用して、前記環境の1つ以上の特徴を検出することは、Kalmanフィルタ、Sobolアルゴリズム、またはHarrisアルゴリズムのうちの少なくとも1つを使用することを含む、項目32または33に記載のシステム。
(項目35)
少なくとも1つの第2のカメラを備える、前記項目のいずれかに記載のシステム。
(項目36)
前記カメラおよび前記第2のカメラは、前記環境の非同一部分を検出するように構成される、項目35に記載のシステム。
(項目37)
前記カメラは、前記環境の第1の部分を検出するように構成され、前記第2のカメラは、前記環境の第2の部分を検出するように構成され、前記環境の第1の部分は、前記環境の第2の部分と部分的に重複する、項目35または36に記載のシステム。
(項目38)
前記カメラおよび前記第2のカメラは、前記ユーザの左眼に対応する前記フレームの左側上に配置される、項目35-37のいずれかに記載のシステム。
(項目39)
前記カメラおよび前記第2のカメラは、前記ユーザの右眼に対応する前記フレームの右側上に配置される、項目35-37のいずれかに記載のシステム。
(項目40)
(i)前記頭部搭載型ディスプレイと前記環境内の1つ以上の特徴との間の相対的運動の前記査定と、(ii)前記仮想画像コンテンツ場所と前記視認ゾーンとの比較とに基づいて、前記複数のカメラのうちの前記第2のカメラのフレームレートおよび/または前記第2のカメラによって取得された前記フレーム上の処理の量を減少させることをさらに含む、項目35-39のいずれかに記載のシステム。
(項目41)
前記第2のカメラのフレームレートおよび/または前記第2のカメラによって取得された前記フレーム上の処理の量は、(i)前記頭部搭載型ディスプレイが、前記環境内の1つ以上の特徴に対して、移動したか、移動中であるか、または移動することが予期されるか、または前記環境内の1つ以上の特徴が、前記頭部搭載型ディスプレイに対して、移動したか、移動中であるか、または移動することが予期されるか、および(ii)前記環境内の1つ以上の仮想画像コンテンツ場所が、前記視認ゾーン内の場所を含むことの決定に基づいて低減される、項目35-40のいずれかに記載のシステム。
(項目42)
前記第2のカメラのフレームレートおよび/または前記第2のカメラによって取得された前記フレーム上の処理の量はさらに、(iii)前記環境内の1つ以上の仮想画像コンテンツ場所が、前記近距離動眼視野内を含まないことの決定に基づいて低減される、項目41に記載のシステム。
(項目43)
前記第2のカメラのフレームレートおよび/または前記第2のカメラによって取得された前記フレーム上の処理の量は、前記環境内の1つ以上の仮想画像コンテンツ場所が、近距離動眼視野領域内の場所を含む場合、低減されない、項目35-40のいずれかに記載のシステム。
(項目44)
前記第2のカメラのフレームレートおよび/または前記第2のカメラによって取得された前記フレーム上の処理の量は、(i)前記頭部搭載型ディスプレイが、前記環境内の1つ以上の特徴に対して、移動したか、移動中であるか、または移動することが予期されるか、または前記環境内の1つ以上の特徴が、前記頭部搭載型ディスプレイに対して、移動したか、移動中であるか、または移動することが予期されるか、および(ii)前記環境内の1つ以上の仮想画像コンテンツ場所が、(i)前記視認ゾーンを越え、(ii)近距離動眼視野領域を越える遠距離動眼視野領域内の場所を含むことの決定に基づいて低減される、項目35-40のいずれかに記載のシステム。
(項目45)
前記第2のカメラのフレームレートおよび/または前記第2のカメラによって取得された前記フレーム上の処理の量はさらに、(iii)前記環境内の1つ以上の仮想画像コンテンツ場所が、前記近距離動眼視野内の場所を含まないことの決定に基づいて低減される、項目44に記載のシステム。
(項目46)
前記カメラは、前記第2のカメラよりこめかみ側寄りである、項目35-39のいずれかに記載のシステム。
(項目47)
前記カメラは、前記第2のカメラより鼻側寄りである、項目35-39のいずれかに記載のシステム。
(項目48)
前記カメラのフレームレートは、(i)前記頭部搭載型ディスプレイと前記環境内の1つ以上の特徴との間の相対的運動の前記査定と、(ii)前記環境内の1つ以上の仮想画像コンテンツ場所と前記視認ゾーンとの比較とに基づいて、前記第2のカメラのフレームレートより低く設定される、項目46または47に記載のシステム。
(項目49)
前記カメラ上の処理の量は、(i)前記頭部搭載型ディスプレイと前記環境内の1つ以上の特徴との間の相対的運動の前記査定と、(ii)前記環境内の1つ以上の仮想画像コンテンツ場所と前記視認ゾーンとの比較とに基づいて、前記第2のカメラによって取得された前記フレーム上の処理の量より低く設定される、項目46または48のいずれかに記載のシステム。
(項目50)
前記カメラのフレームレートおよび/または前記カメラによって取得された前記フレーム上の処理の量は、(i)前記頭部搭載型ディスプレイが、前記環境内の1つ以上の特徴に対して、移動したか、移動中であるか、または移動することが予期されるか、または前記環境内の1つ以上の特徴が、前記頭部搭載型ディスプレイに対して、移動したか、移動中であるか、または移動することが予期されるか、および(ii)前記環境内の1つ以上の仮想画像コンテンツ場所が、前記視認ゾーン外の場所を含まないことの決定に基づいて低減される、前記項目のいずれかに記載のシステム。
(項目51)
前記第2のカメラのフレームレートおよび/または前記第2のカメラによって取得された前記フレーム上の処理の量は、(i)前記頭部搭載型ディスプレイが、前記環境内の1つ以上の特徴に対して、移動したか、移動中であるか、または移動することが予期されるか、または前記環境内の1つ以上の特徴が、前記頭部搭載型ディスプレイに対して、移動したか、移動中であるか、または移動することが予期されるか、および(ii)前記環境内の1つ以上の仮想画像コンテンツ場所が、前記視認ゾーン外の場所を含まないことの決定に基づいて低減される、項目35-40のいずれかに記載のシステム。
(項目52)
前記カメラのフレームレートおよび/または前記カメラによって取得された前記フレーム上の処理の量は、前記環境内の1つ以上の特徴に対する前記頭部搭載型ディスプレイの限定された移動または予期される移動、または前記頭部搭載型ディスプレイに対する前記環境内の1つ以上の特徴の限定された移動または予期される移動の決定に基づいて低減される、前記項目のいずれかに記載のシステム。
(項目53)
前記カメラのフレームレートおよび/または前記カメラによって取得された前記フレーム上の処理の量は、前記頭部搭載型ディスプレイの運動または予期される運動が閾値を超えないことの決定に基づいて低減される、前記項目のいずれかに記載のシステム。
(項目54)
前記カメラのフレームレートおよび/または前記カメラによって取得された前記フレーム上の処理の量は、前記環境内の1つ以上の特徴の運動または予期される運動が閾値を超えないことの決定に基づいて低減される、前記項目のいずれかに記載のシステム。
(項目55)
前記カメラのフレームレートおよび/または前記カメラによって取得された前記フレーム上の処理の量は、前記頭部搭載型ディスプレイの運動または予期される運動がある持続時間にわたって閾値を超えないことの決定に基づいて低減される、前記項目のいずれかに記載のシステム。
(項目56)
前記カメラのフレームレートおよび/または前記カメラによって取得された前記フレーム上の処理の量は、前記環境内の1つ以上の特徴の運動または予期される運動がある持続時間にわたって閾値を超えないことの決定に基づいて低減される、前記項目のいずれかに記載のシステム。
(項目57)
前記カメラのフレームレートおよび/または前記カメラによって取得された前記フレーム上の処理の量は、(i)前記環境内の1つ以上の特徴に対する前記頭部搭載型ディスプレイの限定された移動または限定された予期される移動、または前記頭部搭載型ディスプレイに対する前記環境内の1つ以上の特徴の限定された移動または限定された予期される移動、および(ii)前記環境内の1つ以上の仮想画像コンテンツ場所が、前記視認ゾーン内の場所を含むことの決定に基づいて低減される、前記項目のいずれかに記載のシステム。
(項目58)
前記カメラのフレームレートおよび/または前記カメラによって取得された前記フレーム上の処理の量は、(i)前記環境内の1つ以上の特徴に対する前記頭部搭載型ディスプレイの限定された移動または限定された予期される移動、または前記頭部搭載型ディスプレイに対する前記環境内の1つ以上の特徴の限定された移動または限定された予期される移動、および(ii)前記環境内の1つ以上の仮想画像コンテンツ場所が、(a)前記視認ゾーンを越え、かつ(b)近距離動眼視野領域を越える遠距離動眼視野領域内の場所を含むことの決定に基づいて低減される、前記項目のいずれかに記載のシステム。
(項目59)
前記第2のカメラのフレームレートおよび/または前記第2のカメラによって取得された前記フレーム上の処理の量は、(i)前記環境内の1つ以上の特徴に対する前記頭部搭載型ディスプレイの限定された移動または限定された予期される移動、または前記頭部搭載型ディスプレイに対する前記環境内の1つ以上の特徴の限定された移動または限定された予期される移動、および(ii)前記環境内の1つ以上の仮想画像コンテンツ場所が、前記視認ゾーン内の場所を含むことの決定に基づいて低減される、項目35-40のいずれかに記載のシステム。
(項目60)
前記第2のカメラのフレームレートおよび/または前記第2のカメラによって取得された前記フレーム上の処理の量は、(i)前記環境内の1つ以上の特徴に対する前記頭部搭載型ディスプレイの限定された移動または限定された予期される移動、または前記頭部搭載型ディスプレイに対する前記環境内の1つ以上の特徴の限定された移動または限定された予期される移動、および(ii)前記環境内の1つ以上の仮想画像コンテンツ場所が、(a)前記視認ゾーンを越え、かつ(b)近距離動眼視野領域を越える遠距離動眼視野領域内の場所を含むことの決定に基づいて低減される、項目35-40のいずれかに記載のシステム。
(項目61)
前記カメラのフレームレートおよび/または前記カメラによって取得された前記フレーム上の処理の量は、(i)前記環境内の1つ以上の特徴に対する前記頭部搭載型ディスプレイの限定された移動または限定された予期される移動、または前記頭部搭載型ディスプレイに対する前記環境内の1つ以上の特徴の限定された移動または限定された予期される移動、および(ii)前記環境内の1つ以上の仮想画像コンテンツ場所が、前記視認ゾーン外の場所を含まないことの決定に基づいて低減される、前記項目のいずれかに記載のシステム。
(項目62)
前記第2のカメラのフレームレートおよび/または前記第2のカメラによって取得された前記フレーム上の処理の量は、(i)前記環境内の1つ以上の特徴に対する前記頭部搭載型ディスプレイの限定された移動または限定された予期される移動、または前記頭部搭載型ディスプレイに対する前記環境内の1つ以上の特徴の限定された移動または限定された予期される移動、および(ii)前記環境内の1つ以上の仮想画像コンテンツ場所が、前記視認ゾーン外の場所を含まないことの決定に基づいて低減される、項目35-40のいずれかに記載のシステム。
(項目63)
前記カメラからの前記フレームの処理の量を低減させることは、処理される前記カメラによって捕捉されたフレームの数を低減させることを含む、前記項目のいずれかに記載のシステム。
(項目64)
前記カメラからの前記フレームの処理の量を低減させることは、前記カメラによって捕捉されたフレームの第2の部分未満の前記カメラによって捕捉されたフレームの第1の部分を処理することを含む、前記項目のいずれかに記載のシステム。
ウェアラブルシステム(本明細書では、拡張現実(AR)システムとも称される)は、2Dまたは3D仮想画像をユーザに提示するために構成されることができる。画像は、組み合わせまたは同等物における、静止画像、ビデオのフレーム、またはビデオであってもよい。ウェアラブルシステムの少なくとも一部は、ユーザ相互作用のために、単独で、または組み合わせて、VR、AR、またはMR環境を提示し得る、ウェアラブルデバイス上に実装されることができる。ウェアラブルデバイスは、頭部搭載型デバイス(HMD)であることができ、これは、頭部搭載型ディスプレイ(HMD)またはARデバイス(ARD)と同義的に使用される。さらに、本開示の目的のために、用語「AR」は、用語「MR」と同義的に使用される。
図4は、画像情報をユーザに出力するための導波管スタックの実施例を図示する。ウェアラブルシステム400は、複数の導波管432b、434b、436b、438b、4400bを使用して、3次元知覚を眼/脳に提供するために利用され得る、導波管のスタックまたはスタックされた導波管アセンブリ480を含む。いくつかの実施形態では、ウェアラブルシステム400は、図2のウェアラブルシステム200に対応してもよく、図4は、そのウェアラブルシステム200のいくつかの部分をより詳細に図式的に示す。例えば、いくつかの実施形態では、導波管アセンブリ480は、図2のディスプレイ220の中に統合されてもよい。
多くの実装では、ウェアラブルシステムは、上記に説明されるウェアラブルシステムのコンポーネントに加えて、またはその代替として、他のコンポーネントを含んでもよい。ウェアラブルシステムは、例えば、1つ以上の触知デバイスまたはコンポーネントを含んでもよい。触知デバイスまたはコンポーネントは、触覚をユーザに提供するように動作可能であってもよい。例えば、触知デバイスまたはコンポーネントは、仮想コンテンツ(例えば、仮想オブジェクト、仮想ツール、他の仮想構造)に触れると、圧力またはテクスチャの感覚を提供してもよい。触覚は、仮想オブジェクトが表す物理的オブジェクトの感覚を再現してもよい、または仮想コンテンツが表す想像上のオブジェクトまたはキャラクタ(例えば、ドラゴン)の感覚を再現してもよい。いくつかの実装では、触知デバイスまたはコンポーネントは、ユーザによって装着されてもよい(例えば、ユーザウェアラブルグローブ)。いくつかの実装では、触知デバイスまたはコンポーネントは、ユーザによって保持されてもよい。
ウェアラブルシステムは、高被写界深度をレンダリングされたライトフィールド内で達成するために、種々のマッピング関連技法を採用してもよい。仮想世界をマッピングする際、実世界内の全ての特徴および点を把握し、仮想オブジェクトを実世界に関連して正確に描くことが有利である。この目的を達成するために、ウェアラブルシステムのユーザから捕捉されたFOV画像が、実世界の種々の点および特徴についての情報を伝達する新しい写真を含むことによって、世界モデルに追加されることができる。例えば、ウェアラブルシステムは、マップ点(2D点または3D点等)のセットを収集し、新しいマップ点を見出し、世界モデルのより正確なバージョンをレンダリングすることができる。第1のユーザの世界モデルは、第2のユーザが第1のユーザを囲繞する世界を体験し得るように、(例えば、クラウドネットワーク等のネットワークを経由して)第2のユーザに通信されることができる。
図11は、例示的ウェアラブルデバイスを図示し、これは、ユーザの顔の画像を入手することができる。ウェアラブルデバイス1150は、図2を参照して説明される、例示的頭部搭載型デバイス(HMD)であることができる。ウェアラブルデバイス1150は、SARデバイスであってもよく、これは、仮想オブジェクトをユーザの眼の視点からレンダリングするための頭部搭載型ディスプレイを含んでもよい。ウェアラブルデバイスによって入手された画像は、静止画像、動画、ビデオからの個々のフレーム、またはビデオを含むことができる。
図11を参照して説明されるように、結像システム1160によって入手された画像は、ユーザの眼球周囲領域の一部を含んでもよい。眼球周囲領域は、1つ以上の眼球周囲特徴または眼球周囲特徴の一部を含むことができる。眼球周囲特徴は、例えば、眼、眼窩、眉毛、鼻、頬、または前額を含んでもよい。顔の他の特徴またはユーザ特有の詳細もまた、眼球周囲特徴と見なされ得る。
図12Bは、眼球周囲領域1270の例示的画像を図示し、画像内の眼球周囲領域の一部は、ウェアラブルデバイスによってマスクされる。本実施例では、眼カメラは、眼球周囲領域1270の画像1200bを入手する。画像1200bは、眼球周囲領域1270が、眉毛1220b、眼1210b、および鼻1230b、頬1240b、および前額1250bの部分を含み得ることを示す。
ウェアラブルデバイスは、眼カメラによって入手された画像を使用して、機械学習モデルを訓練し、眼球周囲領域内の眼球周囲特徴を識別することができる。ウェアラブルデバイスはまた、オブジェクト認識装置708(図7に説明される)を使用して、識別を実施してもよい。オブジェクト認識装置708は、眼カメラによって入手された画像から訓練された機械学習モデルを実装してもよい。眼球周囲領域は、片眼または両眼と関連付けられてもよい。機械学習モデルは、あるグループの人々に一般的または個人に特有の眼球周囲特徴または眼球周囲特徴と関連付けられた特性を使用して訓練されてもよい。例えば、ウェアラブルデバイスは、ユーザの眉毛および眼窩等の眼球周囲特徴の特性に基づいて、機械学習モデルを訓練することができる。別の実施例として、ウェアラブルデバイスは、ユーザと同一または類似民族性および性別を有する他の人々の眼球周囲特徴および/または眼球周囲特徴の関連付けられた特性を使用して、機械学習モデルを訓練することができる。
ウェアラブルデバイスは、ウェアラブルデバイス上のカメラによって捕捉された画像内の眼球周囲領域内の眼球周囲特徴を識別することができ、識別された眼球周囲特徴およびその特性を使用して、ウェアラブルデバイスとユーザの顔との間の相対的位置を決定してもよい。ある実施形態では、ウェアラブルデバイスは、ウェアラブルデバイスとユーザとの間の相対的位置を眼毎に別個に計算することができる。例えば、ウェアラブルデバイスが、それぞれ、ユーザの片方の眼球周囲領域を結像するように構成される、2つの眼カメラを有するとき、ウェアラブルデバイスは、左眼と左眼カメラとの間の1つの相対的位置と、右眼と右眼カメラとの間の別の相対的位置とを計算してもよい。左眼とウェアラブルデバイスとの間および右眼とウェアラブルデバイスとの間の相対的位置が、次いで、計算されてもよい。いくつかの実施形態では、眼とウェアラブルデバイスとの間の距離の計算はまた、視野、焦点距離等のカメラ自体についての既知の技術的詳細に加え、ウェアラブルデバイス上の眼カメラの位置についての既知の幾何学的情報に依存し得る。
HMDとユーザの顔との間の相対的位置またはHMDの姿勢は、仮想オブジェクトのレンダリング場所に対する調節を算出するために使用されてもよい。
図16は、仮想オブジェクトのレンダリング場所を調節するための例示的プロセスを図示する。図16におけるプロセス1600は、ウェアラブルデバイスによって実施されてもよく、これは、仮想オブジェクトを物理的オブジェクトの中にユーザの眼の視点から提示し、ユーザの眼球周囲領域を結像するように構成される、内向きに向いた結像システムを含み得る、HMDを含んでもよい。
HMDは、種々の要因を使用して、HMDがユーザにフィットしている程度を決定することができる。一実施例として、HMDは、機械学習技法を介して学習されたマッピングを適用することによって、眼カメラによって取得される画像を分析することができる。眼カメラによって入手された画像は、機械学習モデルを使用して訓練され、眼球周囲特徴を識別することができる。機械学習モデルは、HMDに関するフィット感空間に対する画像空間のマッピングを含むことができる。マッピングは、眼画像に適用され、眼球周囲領域が眼画像内に存在するかどうか(例えば、HMDがユーザの顔上にあるかどうかを決定するために)またはユーザの顔上のHMDのフィット感の品質を決定することができる。いくつかの実装では、1つのマッピングは、ウェアラブルデバイスのフィット感を分類するためと、眼球周囲領域が存在するかどうかを決定するための両方に使用されてもよい、または異なるマッピングが、フィット感およびHMDがユーザの顔上にあるかどうかのために使用されてもよい。
図15Aは、ウェアラブルデバイスのフィット感を決定するための例示的方法を図示する。プロセス1500aは、図2および4を参照して説明されるHMD等のウェアラブルデバイスによって実施されてもよい。HMDは、ユーザの眼球周囲領域を結像するように構成される、内向きに向いた結像システムを有してもよい。
図13A、13B、および13Cを参照して説明されるように、ウェアラブルデバイスは、内向きに向いた結像システムによって入手された画像を分析し、種々の要因を使用して、ウェアラブルデバイスが側方または前方に傾斜しているかどうか等、ユーザとウェアラブルデバイスとの間の相対的位置を決定することができる。
図15Bは、ウェアラブルデバイスの除去を決定するための例示的方法を図示する。図15Bにおけるプロセス1500bは、図2および4を参照して説明されるHMD等のウェアラブルデバイスによって実施されてもよい。HMDは、ユーザの眼球周囲領域を結像するように構成される、内向きに向いた結像システムを有してもよい。
図15Cは、機械学習技法を適用し、フィット感の良好度に関するマッピングまたはHMDがユーザ上にあるかどうかを提供するための方法1500cの実施例である。ブロック1552では、眼画像が、アクセスされ、これは、教師ありまたは教師なし学習において訓練画像として使用され、マッピングを生成するために使用され得る。ブロック1554では、機械学習技法(例えば、深層ニューラルネットワーク)が、眼画像を分析し、ユーザ上のHMDのフィット感の品質またはHMD除去カテゴリ化(例えば、ユーザの頭部上にあるまたはない)のために使用され得る、マッピングを展開するために使用される。ブロック1556では、マッピングが、出力され(例えば、訓練されたニューラルネットワークから出力される)、特定のHMD(例えば、ローカルデータモジュール260または遠隔データリポジトリ280)と関連付けられたメモリ内に記憶されることができる。ブロック1562では、付加的眼画像が、アクセスされることができ、これは、ユーザに特定のものであってもよい。例えば、ユーザは、鏡の正面に立ち、HMDをユーザの顔上で移動させ、結果として生じるフィット感の品質のユーザの主観的印象を注釈することができる。ブロック1564では、機械学習技法は、例えば、ニューラルネットワークをさらに訓練することによって、マッピングを更新し、ユーザの個々の選好を反映させる。
頭部搭載型ディスプレイ(HMD)は、上記に説明される特徴のうちの1つ以上のものに加え、電力節約機能性を装備することができる。電力節約機能性は、ハードウェア、ソフトウェア、またはハードウェアおよびソフトウェアの組み合わせとして含まれてもよい。
上記に議論されるように、頭部搭載型ディスプレイシステム上の1つ以上の外向きに向いたカメラは、ユーザの周囲についての情報を取得するために使用されることができる。そのようなカメラは、仮想コンテンツが実世界内に存在するかのように、仮想コンテンツの後続挿入のための環境をマッピングする際に有用であり得る。
(実施例1)
光をユーザの眼に投影し、拡張現実画像コンテンツを該ユーザの視野内に表示し、頭部搭載型ディスプレイシステムを装着しているユーザの正面の環境の少なくとも一部を結像するように構成される、頭部搭載型ディスプレイシステムであって、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、頭部搭載型ディスプレイであって、該ディスプレイは、光を該ユーザの眼の中に投影し、拡張現実画像コンテンツをユーザの視野に表示するように構成され、該ディスプレイの少なくとも一部は、透明であって、ユーザがフレームを装着すると、該透明部分が、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部からの光をユーザの眼に透過させ、ユーザおよび該頭部搭載型ディスプレイの正面の環境の該部分のビューを提供するように、ユーザの眼の正面の場所に配置される、頭部搭載型ディスプレイと、
画像を複数のフレームレートで取得するように構成される、カメラと、
コンピュータ実行可能命令を記憶する、非一過性コンピュータ可読媒体と、
カメラおよびコンピュータ可読媒体と通信する、ハードウェアプロセッサであって、
頭部搭載型ディスプレイと環境内の1つ以上の特徴との間の相対的運動の性質を決定し、
相対的運動の性質に基づいて、カメラのフレームレートを設定する、
ために、コンピュータ実行可能命令を実行するように構成される、ハードウェアプロセッサと、
を備える、頭部搭載型ディスプレイシステム。
(実施例2)
運動の性質は、角加速を含む、実施例1に記載のシステム。
(実施例3)
運動の性質は、線形加速を含む、実施例1または2に記載のシステム。
(実施例4)
運動の性質は、頭部搭載型ディスプレイの運動性質を含む、実施例1-3のいずれかに記載のシステム。
(実施例5)
運動の性質は、環境内の1つ以上の特徴の運動性質を含む、実施例1-4のいずれかに記載のシステム。
(実施例6)
該カメラは、検出器アレイと、結像光学系とを備える、実施例1-5のいずれかに記載のシステム。
(実施例7)
カメラのフレームレートを設定するステップは、少なくとも部分的に、頭部搭載型システム内の電気電流の周波数に基づく、実施例1-6のいずれかに記載のシステム。
(実施例8)
カメラのフレームレートを設定するステップは、少なくとも部分的に、頭部搭載型ディスプレイが装着されていることの決定に基づく、実施例1-7のいずれかに記載のシステム。
(実施例9)
相対的運動の性質は、角速度を含む、実施例1-8のいずれかに記載のシステム。
(実施例10)
相対的運動の性質は、線形速度を含む、実施例1-9のいずれかに記載のシステム。
(実施例11)
頭部搭載型ディスプレイおよび環境内の1つ以上の特徴の相対的運動の性質を決定するステップは、相対的運動の性質が閾値を超えることを決定するステップを含む、実施例1-10のいずれかに記載のシステム。
(実施例12)
頭部搭載型ディスプレイおよび環境内の1つ以上の特徴の相対的運動の性質を決定するステップは、カメラを使用して、環境の1つ以上の特徴を検出するステップを含む、実施例1-11のいずれかに記載のシステム。
(実施例13)
環境の1つ以上の特徴は、環境内のオブジェクトの縁または角のうちの少なくとも1つを含む、実施例12に記載のシステム。
(実施例14)
カメラを使用して、環境の1つ以上の特徴を検出するステップは、Kalmanフィルタ、Sobolアルゴリズム、またはHarrisアルゴリズムのうちの少なくとも1つを使用するステップを含む、実施例12-13のいずれかに記載のシステム。
(実施例15)
フレームレートは、約20fps~45fpsである、実施例1-14のいずれかに記載のシステム。
(実施例16)
フレームレートは、約45fps~75fpsである、実施例1-14のいずれかに記載のシステム。
(実施例17)
ハードウェアプロセッサはさらに、条件が満たされるまで、カメラに画像をそのフレームレートで取得させるために、コンピュータ実行可能命令を実行するように構成される、実施例1-16のいずれかに記載のシステム。
(実施例18)
条件は、時間長を含む、実施例17に記載のシステム。
(実施例19)
時間長は、相対的運動の性質が変化したことの決定後のある時間長を含む、実施例18に記載のシステム。
(実施例20)
条件は、ハードウェアプロセッサによる、より高い値の相対的運動の性質の決定を含み、より高い値は、相対的運動の性質のある値を上回る、実施例18-19のいずれかに記載のシステム。
(実施例21)
ハードウェアプロセッサはさらに、
頭部搭載型ディスプレイおよび環境内の1つ以上の特徴の相対的運動の第2の性質を決定し、
相対的運動の第2の性質に基づいて、カメラの第2のフレームレートを設定し、第2のフレームレートは、該フレームレートと異なる、
ために、コンピュータ実行可能命令を実行するように構成される、実施例1-20のいずれかに記載のシステム。
(実施例22)
相対的運動の第2の性質は、角速度または角加速を含む、実施例21に記載のシステム。
(実施例23)
相対的運動の第2の性質は、線形速度または線形加速を含む、実施例21-22のいずれかに記載のシステム。
(実施例24)
頭部搭載型ディスプレイおよび環境内の1つ以上の特徴の相対的運動の第2の性質を決定するステップは、相対的運動の第2の性質が最小閾値を超えることを決定するステップを含む、実施例23-24のいずれかに記載のシステム。
(実施例25)
頭部搭載型ディスプレイおよび環境内の1つ以上の特徴の相対的運動の第2の性質を決定するステップは、相対的運動の第2の性質が最大閾値を下回ることを決定するステップを含む、実施例21-24のいずれかに記載のシステム。
(実施例26)
頭部搭載型ディスプレイおよび環境内の1つ以上の特徴の相対的運動の第2の性質を決定するステップは、カメラを使用して、環境の1つ以上の特徴を検出するステップを含む、実施例21-25のいずれかに記載のシステム。
(実施例27)
第2のフレームレートは、該フレームレートを上回る、実施例21-26のいずれかに記載のシステム。
(実施例28)
第2のフレームレートは、該フレームレートより低い、実施例21-27のいずれかに記載のシステム。
(実施例29)
ハードウェアプロセッサはさらに、カメラに、第2の条件が満たされるまで、画像を第2のフレームレートで取得し続けさせるために、コンピュータ実行可能命令を実行するように構成される、実施例21-28のいずれかに記載のシステム。
(実施例30)
第2の条件は、時間長を含む、実施例29に記載のシステム。
(実施例31)
第2の条件の時間長は、相対的運動の第2の性質が変化したことの決定後のある時間長を含む、実施例30に記載のシステム。
(実施例32)
第2の条件は、ハードウェアプロセッサによる、相対的運動の第2の性質の第2のより高い値の決定を含み、第2のより高い値は、相対的運動の第2の性質のある値を上回る、実施例29-31のいずれかに記載のシステム。
(実施例33)
ハードウェアプロセッサはさらに、
頭部搭載型ディスプレイおよび環境内の1つ以上の特徴の相対的運動の第3の性質を決定し、
相対的運動の第3の性質に基づいて、カメラの第3のフレームレートを設定し、第3のフレームレートは、該フレームレートまたは第2のフレームレートのいずれとも異なる、
ために、コンピュータ実行可能命令を実行するように構成される、実施例1-32のいずれかに記載のシステム。
(実施例34)
第3のフレームレートは、第1のフレームレートおよび第2のフレームレートを上回る、実施例1に記載のシステム。
(実施例35)
慣性センサをさらに備える、実施例1-34のいずれかに記載のシステム。
(実施例36)
頭部搭載型ディスプレイおよび環境内の1つ以上の特徴の相対的運動の性質を決定するステップは、信号を慣性センサから受信するステップを含む、実施例1-35のいずれかに記載のシステム。
(実施例37)
相対的運動の性質は、約80度/秒未満の角速度を含む、実施例1-36のいずれかに記載のシステム。
(実施例38)
相対的運動の第2の性質は、約80度/秒~180度/秒の角速度を含む、実施例21-37のいずれかに記載のシステム。
(実施例39)
相対的運動の第3の性質は、約180度/秒を上回る角速度を含む、実施例33-38のいずれかに記載のシステム。
(実施例40)
システムはさらに、環境の1つ以上の特徴のうちの少なくとも1つの品質メトリックを決定するように構成される、実施例12-39のいずれかに記載のシステム。
(実施例41)
品質メトリックは、カメラの視野またはその領域内の特徴の数に関する特徴計数の決定に基づく、実施例40に記載のシステム。
(実施例42)
品質メトリックは、少なくとも部分的に、その中で1つ以上の特徴のうちの少なくとも1つが検出されたフレームの数に基づく、実施例40-41のいずれかに記載のシステム。
(実施例43)
品質メトリックは、少なくとも部分的に、以下、すなわち、オブジェクトの見掛けサイズ、オブジェクトの見掛け明度、またはオブジェクトとその周囲との間のコントラストの程度のうちの任意の1つまたはそれらの組み合わせに基づく、実施例40-42のいずれかに記載のシステム。
(実施例44)
システムはさらに、少なくとも部分的に、1つ以上の特徴の速度に基づいて、1つ以上の特徴の品質メトリックを決定するように構成される、実施例12-43のいずれかに記載のシステム。
(実施例45)
品質メトリックは、少なくとも部分的に、1つ以上の特徴の速度に基づく、実施例44に記載のシステム。
(実施例46)
システムはさらに、ユーザの眼の視線を追跡するように構成される、内向きカメラを備え、品質メトリックは、少なくとも部分的に、ユーザがその視線をオブジェクトに指向したことの決定に基づく、実施例44に記載のシステム。
(実施例47)
品質メトリックは、少なくとも部分的に、オブジェクトの特性の見掛け変化に基づく、実施例44に記載のシステム。
(実施例48)
深度センサをさらに備える、実施例1-47のいずれかに記載のシステム。
(実施例49)
頭部搭載型ディスプレイおよび環境内の1つ以上の特徴の相対的運動の性質を決定するステップは、信号を深度センサから受信するステップを含む、実施例48に記載のシステム。
(実施例50)
近接度センサをさらに備える、実施例1-49のいずれかに記載のシステム。
(実施例51)
頭部搭載型ディスプレイおよび環境内の1つ以上の特徴の相対的運動の性質を決定するステップは、信号を近接度センサから受信するステップを含む、実施例50に記載のシステム。
(実施例52)
システムはさらに、カメラの視野内の1つ以上の特徴の場所における傾向を予測するように構成される、実施例12-51のいずれかに記載のシステム。
(実施例53)
カメラの視野内の1つ以上の特徴の場所における傾向を予測するステップは、信号を慣性センサまたは深度センサのうちの少なくとも1つから受信するステップを含む、実施例52に記載のシステム。
(実施例54)
システムはさらに、カメラによって取得された画像の検索領域を決定するように構成される、実施例52-53のいずれかに記載のシステム。
(実施例55)
カメラによって取得された画像の検索領域を決定するステップは、角速度に伴って増加する、検索領域サイズを設定するステップを含む、実施例54に記載のシステム。
(実施例56)
カメラの視野内の1つ以上の特徴の場所における傾向を予測するステップは、少なくとも部分的に、フレームレートに基づいて、カメラによって取得された画像の検索領域を決定するステップを含む、実施例52-55のいずれかに記載のシステム。
(実施例57)
少なくとも部分的に、フレームレートに基づいて、カメラによって取得された画像の検索領域を決定するステップは、フレームレートの減少に伴って増加する、検索領域サイズを設定するステップを含む、実施例56に記載のシステム。
(実施例58)
複数のカメラを備える、実施例1-57のいずれかに記載のシステム。
(実施例59)
複数のカメラはそれぞれ、環境の非同一部分を検出するように構成される、実施例58に記載のシステム。
(実施例60)
ハードウェアプロセッサは、複数のカメラと通信し、カメラから受信された画像データに基づいて、複数のカメラのうちの第2のカメラのフレームレートを決定するために、コンピュータ実行可能命令を実行するように構成される、実施例58-59のいずれかに記載のシステム。
(実施例61)
画像データは、環境の特徴の移動方向を含む、実施例60に記載のシステム。
(実施例62)
画像データは、環境の特徴の速度を含む、実施例60-61のいずれかに記載のシステム。
(実施例63)
カメラから受信された画像データに基づいて、複数のカメラのうちの第2のカメラのフレームレートを決定するステップは、該カメラから受信された画像内の特徴が第2のカメラによって受信された画像によって検出される傾向を予測するステップを含む、実施例60-62のいずれかに記載のシステム。
(実施例64)
カメラの視野内の1つ以上の特徴の場所における傾向を予測するステップは、少なくとも部分的に、1つ以上の特徴が複数のカメラのうちの少なくとも1つによって捕捉されたかどうかに基づいて、カメラによって取得された画像の検索領域を決定するステップを含む、実施例63に記載のシステム。
(実施例65)
少なくとも部分的に、1つ以上の特徴が複数のカメラのうちの少なくとも1つによって捕捉されたかどうかに基づいて、カメラによって取得された画像の検索領域を決定するステップは、1つ以上の特徴が複数のカメラのうちの少なくとも1つによって捕捉されていないことの決定に応答して、1つ以上の特徴が複数のカメラのうちの少なくとも1つによって捕捉されたことの決定に応答して設定されるであろう検索領域サイズより大きい検索領域サイズを設定するステップを含む、実施例64に記載のシステム。
(実施例66)
ハードウェアプロセッサはさらに、カメラから受信された画像に基づいて、複数のカメラのうちの第2のカメラのフレームレートを調節するために、コンピュータ実行可能命令を実行するように構成される、実施例60-65のいずれかに記載のシステム。
(実施例67)
カメラから受信された画像に基づいて、複数のカメラのうちの第2のカメラのフレームレートを調節するステップは、複数のカメラのうちの第2のカメラのフレームレートを増加させるステップを含む、実施例66に記載のシステム。
(実施例68)
カメラから受信された画像に基づいて、複数のカメラのうちの第2のカメラのフレームレートを調節するステップは、複数のカメラのうちの第2のカメラのフレームレートを減少させるステップを含む、実施例66に記載のシステム。
(実施例69)
カメラから受信された画像に基づいて、複数のカメラのうちの第2のカメラのフレームレートを調節するステップは、少なくとも部分的に、頭部搭載型システム内の電気電流の周波数に基づく、実施例68に記載のシステム。
(実施例70)
カメラは、環境の第1の部分を検出するように構成され、第2のカメラは、環境の第2の部分を検出するように構成され、環境の第1の部分は、少なくとも部分的に、環境の第2の部分と重複する、実施例60-69のいずれかに記載のシステム。
(実施例71)
頭部搭載型ディスプレイおよび環境内の1つ以上の特徴の相対的運動の性質を決定するステップは、頭部搭載型ディスプレイの相対的運動の性質を決定するステップを含む、実施例1-70のいずれかに記載のシステム。
(実施例72)
光をユーザの眼に投影し、拡張現実画像コンテンツを該ユーザの視野内に表示し、頭部搭載型ディスプレイシステムを装着しているユーザの正面の環境の少なくとも一部を結像するように構成される、頭部搭載型ディスプレイシステムであって、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、頭部搭載型ディスプレイであって、該ディスプレイは、光を該ユーザの眼の中に投影し、拡張現実画像コンテンツをユーザの視野に表示するように構成され、該ディスプレイの少なくとも一部は、透明であって、ユーザがフレームを装着すると、該透明部分が、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部からの光をユーザの眼に透過させ、ユーザおよび該頭部搭載型ディスプレイの正面の環境の該部分のビューを提供するように、ユーザの眼の正面の場所に配置される、頭部搭載型ディスプレイと、
画像を第1のフレームレートで取得するように構成される、第1のカメラと、
画像を第1のフレームレートと異なる第2のフレームレートで取得するように構成される、第2のカメラと、
を備える、頭部搭載型ディスプレイシステム。
(実施例73)
第1のカメラは、左にあって、第2のカメラは、右にあって、頭部搭載型ディスプレイの左への回転に応答して、第1のレートは、第2のフレームレートより高く設定される、実施例72に記載のシステム。
(実施例74)
第1のカメラは、左にあって、第2のカメラは、右にあって、頭部搭載型ディスプレイの右への回転に応答して、第2のフレームレートは、第1のフレームレートより高くなる、実施例72-73のいずれかに記載のシステム。
(実施例75)
コンピュータ実行可能命令を記憶する、非一過性コンピュータ可読媒体と、
第1および第2のカメラおよびコンピュータ可読媒体と通信する、ハードウェアプロセッサであって、
頭部搭載型ディスプレイと環境内の1つ以上の特徴との間の相対的運動の性質を決定し、
相対的運動の性質に基づいて、第1のフレームレートが第2のフレームレートと異なるように、カメラの第1のフレームレートを設定する、
ために、コンピュータ実行可能命令を実行するように構成される、ハードウェアプロセッサと、
をさらに備える、実施例72-74のいずれかに記載のシステム。
(実施例76)
ハードウェアプロセッサはさらに、
頭部搭載型ディスプレイと環境内の1つ以上の特徴との間の相対的運動の第2の性質を決定し、
相対的運動の第2の性質に基づいて、第2のカメラのフレームレートを設定する、
ために、コンピュータ実行可能命令を実行するように構成される、実施例75に記載のシステム。
(実施例77)
第1および第2のカメラはそれぞれ、環境の非同一部分を検出するように構成される、実施例72-76のいずれかに記載のシステム。
(実施例78)
ハードウェアプロセッサは、複数のカメラと通信し、第1のカメラから受信された画像に基づいて、第2のカメラのフレームレートを決定するために、コンピュータ実行可能命令を実行するように構成される、実施例72-77のいずれかに記載のシステム。
(実施例79)
画像は、環境の特徴の方向を含む、実施例78に記載のシステム。
(実施例80)
画像は、環境の特徴の速度を含む、実施例78-79のいずれかに記載のシステム。
(実施例81)
第1のカメラから受信された画像に基づいて、第2のカメラのフレームレートを決定するステップは、第1のカメラから受信された画像内の特徴が第2のカメラによって受信された画像によって検出される傾向を予測するステップを含む、実施例78-80のいずれかに記載のシステム。
(実施例82)
ハードウェアプロセッサはさらに、第1のカメラから受信された画像に基づいて、第2のカメラのフレームレートを調節するために、コンピュータ実行可能命令を実行するように構成される、実施例78-81のいずれかに記載のシステム。
(実施例83)
第1のカメラから受信された画像に基づいて、第2のカメラのフレームレートを調節するステップは、第2のカメラのフレームレートを増加させるステップを含む、実施例82に記載のシステム。
(実施例84)
第1のカメラから受信された画像に基づいて、第2のカメラのフレームレートを調節するステップは、第2のカメラのフレームレートを減少させるステップを含む、実施例82に記載のシステム。
(実施例85)
第1のカメラから受信された画像に基づいて、第2のカメラのフレームレートを調節するステップは、少なくとも部分的に、頭部搭載型システム内の電気電流の周波数に基づく、実施例78-84のいずれかに記載のシステム。
(実施例86)
第1のカメラは、環境の第1の部分を検出するように構成され、第2のカメラは、環境の第2の部分を検出するように構成され、環境の第1の部分は、少なくとも部分的に、環境の第2の部分と重複する、実施例78-85のいずれかに記載のシステム。
(実施例87)
頭部搭載型ディスプレイおよび環境内の1つ以上の特徴の相対的運動の性質を決定するステップは、頭部搭載型ディスプレイの相対的運動の性質を決定するステップを含む、実施例78-86のいずれかに記載のシステム。
(実施例88)
カメラのフレームレートを設定するステップは、頭部搭載型ディスプレイ内の電気電流の周波数またはその整数倍数と異なるフレームレートを設定するステップを含む、実施例1-87のいずれかに記載のシステム。
(実施例89)
ハードウェアプロセッサはさらに、条件が満たされたことの決定に応答して、フレームレートを変化させるために、コンピュータ実行可能命令を実行するように構成される、実施例17-88のいずれかに記載のシステム。
(実施例90)
運動の性質および第2の運動の性質はそれぞれ、共通タイプの運動の性質の異なる測定値に対応するステップを含む、実施例21-89のいずれかに記載のシステム。
(実施例91)
運動の性質および第3の運動の性質はそれぞれ、共通タイプの運動の性質の異なる測定値に対応するステップを含む、実施例31-90のいずれかに記載のシステム。
(実施例92)
カメラによって取得された画像の検索領域を決定するステップは、少なくとも部分的に、角速度に基づく、実施例54-91に記載のシステム。
(実施例93)
相対的運動の第2の性質は、時間における第2の測定値を含む、実施例76-92のいずれかに記載のシステム。
(実施例94)
光をユーザの眼に投影し、拡張現実画像コンテンツを該ユーザの視野内に表示し、頭部搭載型ディスプレイシステムを装着しているユーザの正面の環境の少なくとも一部を結像するように構成される、頭部搭載型ディスプレイシステムであって、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、頭部搭載型ディスプレイであって、該ディスプレイは、光を該ユーザの眼の中に投影し、拡張現実画像コンテンツをユーザの視野に表示するように構成され、該ディスプレイの少なくとも一部は、透明であって、ユーザがフレームを装着すると、該透明部分が、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部からの光をユーザの眼に透過させ、ユーザおよび該頭部搭載型ディスプレイの正面の環境の該部分のビューを提供するように、ユーザの眼の正面の場所に配置される、頭部搭載型ディスプレイと、
画像を複数のフレームレートで取得するように構成される、カメラと、
コンピュータ実行可能命令を記憶する、非一過性コンピュータ可読媒体と、
カメラおよびコンピュータ可読媒体と通信する、ハードウェアプロセッサであって、
カメラの第1のフレームレートを設定し、
第1のフレームレートと異なるカメラの第2のフレームレートを設定する、
ために、コンピュータ実行可能命令を実行するように構成される、ハードウェアプロセッサと、
を備える、頭部搭載型ディスプレイシステム。
(実施例95)
カメラの第2のフレームレートを設定するステップは、環境内の1つ以上の特徴のうちのある特徴の性質を決定するステップを含む、実施例94に記載のシステム。
(実施例96)
カメラの第2のフレームレートを設定するステップは、少なくとも部分的に、特徴の性質に基づく、実施例95に記載のシステム。
(実施例97)
光をユーザの眼に投影し、拡張現実画像コンテンツを該ユーザの視野内に表示し、頭部搭載型ディスプレイシステムを装着しているユーザの正面の環境の少なくとも一部を結像するように構成される、頭部搭載型ディスプレイシステムであって、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、頭部搭載型ディスプレイであって、該ディスプレイは、光を該ユーザの眼の中に投影し、拡張現実画像コンテンツをユーザの視野に表示するように構成され、該ディスプレイの少なくとも一部は、透明であって、ユーザがフレームを装着すると、該透明部分が、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部からの光をユーザの眼に透過させ、ユーザおよび該頭部搭載型ディスプレイの正面の環境の該部分のビューを提供するように、ユーザの眼の正面の場所に配置される、頭部搭載型ディスプレイと、
画像を取得するように構成される、カメラと、
コンピュータ実行可能命令を記憶する、非一過性コンピュータ可読媒体と、
カメラおよびコンピュータ可読媒体と通信する、ハードウェアプロセッサであって、
カメラの視野内の検索領域を決定し、
検索領域内の1つ以上の特徴を識別する、
ために、コンピュータ実行可能命令を実行するように構成される、ハードウェアプロセッサと、
を備える、頭部搭載型ディスプレイシステム。
(実施例98)
カメラの視野内の検索領域を決定するステップは、頭部搭載型ディスプレイと環境内の1つ以上の特徴との間の相対的運動の性質を決定するステップを含む、実施例97に記載のシステム。
(実施例99)
相対的運動の性質は、以下、すなわち、速度、加速、時間のうちの少なくとも1つを含む、実施例98に記載のシステム。
(実施例100)
システムは、相対的運動の性質に正比例する検索領域のサイズを設定するように構成される、実施例98-99のいずれかに記載のシステム。
(実施例101)
カメラの視野内の検索領域を決定するステップは、カメラのフレームレートを決定するステップを含む、実施例97-99のいずれかに記載のシステム。
(実施例102)
システムは、フレームレートに反比例する検索領域のサイズを設定するように構成される、実施例100に記載のシステム。
(実施例103)
本システムはさらに、第2のカメラを備える、実施例97-102のいずれかに記載のシステム。
(実施例104)
カメラの視野内の検索領域を決定するステップは、少なくとも部分的に、第2のカメラによって受信された画像に基づく、実施例103に記載のシステム。
(実施例105)
カメラの視野内の検索領域を決定するステップは、少なくとも部分的に、第2のカメラの視野に基づく、実施例103に記載のシステム。
(実施例106)
カメラの視野内の検索領域を決定するステップは、少なくとも部分的に、1つ以上の特徴に対する頭部搭載型デバイスの回転の相対的方向に基づく、実施例104-105のいずれかに記載のシステム。
(実施例107)
カメラによって取得された画像の検索領域を決定するステップは、角速度に正比例する、検索領域サイズを設定するステップを含む、実施例54-71のいずれかに記載のシステム。
(実施例108)
カメラによって取得された画像の検索領域を決定するステップは、フレームレートに反比例する、検索領域サイズを設定するステップを含む、実施例56-71または107に記載のシステム。
(実施例109)
検索領域は、カメラの視野より小さい、実施例97-108に記載のシステム。
(実施例110)
カメラの視野内の検索領域を決定するステップは、検索領域を変化させるステップを含む、実施例97-109に記載のシステム。
(実施例111)
カメラの視野内の検索領域を決定するステップは、検索領域のサイズを変化させるステップを含む、実施例97-110に記載のシステム。
(実施例112)
カメラの視野内の検索領域を決定するステップは、検索領域の位置を変化させるステップを含む、実施例97-111に記載のシステム。
(実施例113)
システムはさらに、環境の1つ以上の特徴のうちの少なくとも1つの品質メトリックを決定するように構成される、実施例94-96のいずれかに記載のシステム。
(実施例114)
品質メトリックは、カメラの視野またはその領域内の特徴の数に関する特徴計数の決定に基づく、実施例113に記載のシステム。
(実施例115)
品質メトリックは、少なくとも部分的に、その中で1つ以上の特徴のうちの少なくとも1つが検出されたフレームの数に基づく、実施例113-114のいずれかに記載のシステム。
(実施例116)
品質メトリックは、少なくとも部分的に、以下、すなわち、オブジェクトの見掛けサイズ、オブジェクトの見掛け明度、またはオブジェクトとその周囲との間のコントラストの程度のうちの任意の1つまたはそれらの組み合わせに基づく、実施例113-115のいずれかに記載のシステム。
(実施例117)
システムはさらに、少なくとも部分的に、1つ以上の特徴の速度に基づいて、1つ以上の特徴の品質メトリックを決定するように構成される、実施例113-116のいずれかに記載のシステム。
(実施例118)
品質メトリックは、少なくとも部分的に、1つ以上の特徴の速度に基づく、実施例113-117のいずれかに記載のシステム。
(実施例119)
システムはさらに、ユーザの眼の視線を追跡するように構成される、内向きカメラを備え、品質メトリックは、少なくとも部分的に、ユーザがその視線をオブジェクトに指向したことの決定に基づく、実施例113-118のいずれかに記載のシステム。
(実施例120)
品質メトリックは、少なくとも部分的に、オブジェクトの特性の見掛け変化に基づく、実施例113-119のいずれかに記載のシステム。
(実施例121)
頭部搭載型ディスプレイと環境内の1つ以上の特徴との間の相対的運動の性質を決定するステップは、相対的運動の性質が閾値を超えないことを決定するステップを含む、実施例1-71または75-93のいずれかに記載のシステム。
(実施例122)
カメラのフレームレートを設定するステップは、カメラのフレームレートを修正するステップを含む、実施例1-71または75-93または121のいずれかに記載のシステム。
(実施例123)
カメラのフレームレートを設定するステップは、カメラのフレームレートを低減させるステップを含む、実施例1-71または75-93または121-122のいずれかに記載のシステム。
(実施例124)
システムは、第1および第2のカメラのうちの少なくとも1つのフレームレートを修正するように構成される、実施例72-93のいずれかに記載のシステム。
(実施例125)
システムは、第1および第2のカメラのうちの少なくとも1つのフレームレートを低減させるように構成される、実施例72-93または124-125のいずれかに記載のシステム。
(実施例126)
第1のフレームレートと異なるカメラの第2のフレームレートを設定するステップは、カメラのフレームレートを低減させるステップを含む、実施例94-96のいずれかに記載のシステム。
(実施例127)
カメラのフレームレートを決定するステップは、カメラのフレームレートを修正するステップを含む、実施例101-120のいずれかに記載のシステム。
(実施例128)
カメラのフレームレートを決定するステップは、カメラのフレームレートを低減させるステップを含む、実施例101-120または127のいずれかに記載のシステム。
(実施例129)
システムは、システムによって検出された環境に対する頭部搭載型ディスプレイの減少された相対的移動の結果として、カメラのフレームレートを低減させるように構成される、上記実施例のいずれかに記載のシステム。
(実施例130)
システムは、システムによって検出された頭部搭載型ディスプレイの減少された移動の結果として、カメラのフレームレートを低減させるように構成される、上記実施例のいずれかに記載のシステム。
(実施例131)
システムは、システムによって検出された環境内のオブジェクトの減少された移動の結果として、カメラのフレームレートを低減させるように構成される、上記実施例のいずれかに記載のシステム。
(実施例132)
システムは、システムによって検出された環境に対する頭部搭載型ディスプレイの限定された相対的移動の結果として、カメラのフレームレートを低減させるように構成される、上記実施例のいずれかに記載のシステム。
(実施例133)
システムは、システムによって検出された頭部搭載型ディスプレイの限定された移動の結果として、カメラのフレームレートを低減させるように構成される、上記実施例のいずれかに記載のシステム。
(実施例134)
システムは、システムによって検出された環境内のオブジェクトの限定された移動の結果として、カメラのフレームレートを低減させるように構成される、上記実施例のいずれかに記載のシステム。
(実施例135)
システムは、システムによって検出された環境に対する頭部搭載型ディスプレイの増加された相対的移動の結果として、カメラのフレームレートを増加させるように構成される、上記実施例のいずれかに記載のシステム。
(実施例136)
システムは、システムによって検出された頭部搭載型ディスプレイの増加された移動の結果として、カメラのフレームレートを増加させるように構成される、上記実施例のいずれかに記載のシステム。
(実施例137)
システムは、システムによって検出された環境内のオブジェクトの増加された移動の結果として、カメラのフレームレートを増加させるように構成される、上記実施例のいずれかに記載のシステム。
実施例セットII
(実施例1)
光をユーザの眼に投影し、拡張現実画像コンテンツを該ユーザの視野内に表示し、頭部搭載型ディスプレイシステムを装着しているユーザの正面の環境の少なくとも一部を結像するように構成される、頭部搭載型ディスプレイシステムであって、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、頭部搭載型ディスプレイであって、該ディスプレイは、光を該ユーザの眼の中に投影し、拡張現実画像コンテンツをユーザの視野に表示するように構成され、該ディスプレイの少なくとも一部は、透明であって、ユーザがフレームを装着すると、該透明部分が、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部からの光をユーザの眼に透過させ、ユーザおよび該頭部搭載型ディスプレイの正面の環境の該部分のビューを提供するように、ユーザの眼の正面の場所に配置される、頭部搭載型ディスプレイと、
画像を複数のフレームレートで取得するように構成される、カメラと、
頭部搭載型ディスプレイと環境内の1つ以上の特徴との間の相対的運動の性質を決定し、
相対的運動の性質に基づいて、カメラのフレームレートを設定する、
ように構成される、処理電子機器と、
を備える、頭部搭載型ディスプレイシステム。
(実施例2)
運動の性質は、角加速を含む、実施例1に記載のシステム。
(実施例3)
運動の性質は、線形加速を含む、実施例1または2に記載のシステム。
(実施例4)
運動の性質は、頭部搭載型ディスプレイの運動性質を含む、実施例1-3のいずれかに記載のシステム。
(実施例5)
運動の性質は、環境内の1つ以上の特徴の運動性質を含む、実施例1-4のいずれかに記載のシステム。
(実施例6)
該カメラは、検出器アレイと、結像光学系とを備える、実施例1-5のいずれかに記載のシステム。
(実施例7)
カメラのフレームレートを設定するステップは、少なくとも部分的に、頭部搭載型システム内の電気電流の周波数に基づく、実施例1-6のいずれかに記載のシステム。
(実施例8)
カメラのフレームレートを設定するステップは、少なくとも部分的に、頭部搭載型ディスプレイが装着されていることの決定に基づく、実施例1-7のいずれかに記載のシステム。
(実施例9)
相対的運動の性質は、角速度を含む、実施例1-8のいずれかに記載のシステム。
(実施例10)
相対的運動の性質は、線形速度を含む、実施例1-9のいずれかに記載のシステム。
(実施例11)
頭部搭載型ディスプレイおよび環境内の1つ以上の特徴の相対的運動の性質を決定するステップは、相対的運動の性質が閾値を超えることを決定するステップを含む、実施例1-10のいずれかに記載のシステム。
(実施例12)
頭部搭載型ディスプレイおよび環境内の1つ以上の特徴の相対的運動の性質を決定するステップは、カメラを使用して、環境の1つ以上の特徴を検出するステップを含む、実施例1-11のいずれかに記載のシステム。
(実施例13)
環境の1つ以上の特徴は、環境内のオブジェクトの縁または角のうちの少なくとも1つを含む、実施例12に記載のシステム。
(実施例14)
カメラを使用して、環境の1つ以上の特徴を検出するステップは、Kalmanフィルタ、Sobolアルゴリズム、またはHarrisアルゴリズムのうちの少なくとも1つを使用するステップを含む、実施例12-13のいずれかに記載のシステム。
(実施例15)
フレームレートは、約20fps~45fpsである、実施例1-14のいずれかに記載のシステム。
(実施例16)
フレームレートは、約45fps~75fpsである、実施例1-14のいずれかに記載のシステム。
(実施例17)
処理電子機器は、カメラに、条件が満たされるまで、画像をそのフレームレートで取得させるように構成される、実施例1-16のいずれかに記載のシステム。
(実施例18)
条件は、時間長を含む、実施例17に記載のシステム。
(実施例19)
時間長は、相対的運動の性質が変化したことの決定後のある時間長を含む、実施例18に記載のシステム。
(実施例20)
条件は、ハードウェアプロセッサによる、より高い値の相対的運動の性質の決定を含み、より高い値は、相対的運動の性質のある値を上回る、実施例18-19のいずれかに記載のシステム。
(実施例21)
処理電子機器は、
頭部搭載型ディスプレイおよび環境内の1つ以上の特徴の相対的運動の第2の性質を決定し、
相対的運動の第2の性質に基づいて、カメラの第2のフレームレートを設定し、第2のフレームレートは、該フレームレートと異なる、
ように構成される、実施例1-20のいずれかに記載のシステム。
(実施例22)
相対的運動の第2の性質は、角速度または角加速を含む、実施例21に記載のシステム。
(実施例23)
相対的運動の第2の性質は、線形速度または線形加速を含む、実施例21-22のいずれかに記載のシステム。
(実施例24)
頭部搭載型ディスプレイおよび環境内の1つ以上の特徴の相対的運動の第2の性質を決定するステップは、相対的運動の第2の性質が最小閾値を超えることを決定するステップを含む、実施例23-24のいずれかに記載のシステム。
(実施例25)
頭部搭載型ディスプレイおよび環境内の1つ以上の特徴の相対的運動の第2の性質を決定するステップは、相対的運動の第2の性質が最大閾値を下回ることを決定するステップを含む、実施例21-24のいずれかに記載のシステム。
(実施例26)
頭部搭載型ディスプレイおよび環境内の1つ以上の特徴の相対的運動の第2の性質を決定するステップは、カメラを使用して、環境の1つ以上の特徴を検出するステップを含む、実施例21-25のいずれかに記載のシステム。
(実施例27)
第2のフレームレートは、該フレームレートを上回る、実施例21-26のいずれかに記載のシステム。
(実施例28)
第2のフレームレートは、該フレームレートより低い、実施例21-27のいずれかに記載のシステム。
(実施例29)
処理電子機器は、カメラに、第2の条件が満たされるまで、画像を第2のフレームレートで取得させ続けるように構成される、実施例21-28のいずれかに記載のシステム。
(実施例30)
第2の条件は、時間長を含む、実施例29に記載のシステム。
(実施例31)
第2の条件の時間長は、相対的運動の第2の性質が変化したことの決定後のある時間長を含む、実施例30に記載のシステム。
(実施例32)
第2の条件は、ハードウェアプロセッサによる、相対的運動の第2の性質の第2のより高い値の決定を含み、第2のより高い値は、相対的運動の第2の性質のある値を上回る、実施例29-31のいずれかに記載のシステム。
(実施例33)
処理電子機器は、
頭部搭載型ディスプレイおよび環境内の1つ以上の特徴の相対的運動の第3の性質を決定し、
相対的運動の第3の性質に基づいて、カメラの第3のフレームレートを設定し、第3のフレームレートは、該フレームレートまたは第2のフレームレートのいずれとも異なる、
ように構成される、実施例1-32のいずれかに記載のシステム。
(実施例34)
第3のフレームレートは、第1のフレームレートおよび第2のフレームレートを上回る、実施例1に記載のシステム。
(実施例35)
慣性センサをさらに備える、実施例1-34のいずれかに記載のシステム。
(実施例36)
頭部搭載型ディスプレイおよび環境内の1つ以上の特徴の相対的運動の性質を決定するステップは、信号を慣性センサから受信するステップを含む、実施例1-35のいずれかに記載のシステム。
(実施例37)
相対的運動の性質は、約80度/秒未満の角速度を含む、実施例1-36のいずれかに記載のシステム。
(実施例38)
相対的運動の第2の性質は、約80度/秒~180度/秒の角速度を含む、実施例21-37のいずれかに記載のシステム。
(実施例39)
相対的運動の第3の性質は、約180度/秒を上回る角速度を含む、実施例33-38のいずれかに記載のシステム。
(実施例40)
システムはさらに、環境の1つ以上の特徴のうちの少なくとも1つの品質メトリックを決定するように構成される、実施例12-39のいずれかに記載のシステム。
(実施例41)
品質メトリックは、カメラの視野またはその領域内の特徴の数に関する特徴計数の決定に基づく、実施例40に記載のシステム。
(実施例42)
品質メトリックは、少なくとも部分的に、その中で1つ以上の特徴のうちの少なくとも1つが検出されたフレームの数に基づく、実施例40-41のいずれかに記載のシステム。
(実施例43)
品質メトリックは、少なくとも部分的に、以下、すなわち、オブジェクトの見掛けサイズ、オブジェクトの見掛け明度、またはオブジェクトとその周囲との間のコントラストの程度のうちの任意の1つまたはそれらの組み合わせに基づく、実施例40-42のいずれかに記載のシステム。
(実施例44)
システムはさらに、少なくとも部分的に、1つ以上の特徴の速度に基づいて、1つ以上の特徴の品質メトリックを決定するように構成される、実施例12-43のいずれかに記載のシステム。
(実施例45)
品質メトリックは、少なくとも部分的に、1つ以上の特徴の速度に基づく、実施例44に記載のシステム。
(実施例46)
システムはさらに、ユーザの眼の視線を追跡するように構成される、内向きカメラを備え、品質メトリックは、少なくとも部分的に、ユーザがその視線をオブジェクトに指向したことの決定に基づく、実施例44に記載のシステム。
(実施例47)
品質メトリックは、少なくとも部分的に、オブジェクトの特性の見掛け変化に基づく、実施例44に記載のシステム。
(実施例48)
深度センサをさらに備える、実施例1-47のいずれかに記載のシステム。
(実施例49)
頭部搭載型ディスプレイおよび環境内の1つ以上の特徴の相対的運動の性質を決定するステップは、信号を深度センサから受信するステップを含む、実施例48に記載のシステム。
(実施例50)
近接度センサをさらに備える、実施例1-49のいずれかに記載のシステム。
(実施例51)
頭部搭載型ディスプレイおよび環境内の1つ以上の特徴の相対的運動の性質を決定するステップは、信号を近接度センサから受信するステップを含む、実施例50に記載のシステム。
(実施例52)
システムはさらに、カメラの視野内の1つ以上の特徴の場所における傾向を予測するように構成される、実施例12-51のいずれかに記載のシステム。
(実施例53)
カメラの視野内の1つ以上の特徴の場所における傾向を予測するステップは、信号を慣性センサまたは深度センサのうちの少なくとも1つから受信するステップを含む、実施例52に記載のシステム。
(実施例54)
システムはさらに、カメラによって取得された画像の検索領域を決定するように構成される、実施例52-53のいずれかに記載のシステム。
(実施例55)
カメラによって取得された画像の検索領域を決定するステップは、角速度に伴って増加する、検索領域サイズを設定するステップを含む、実施例54に記載のシステム。
(実施例56)
カメラの視野内の1つ以上の特徴の場所における傾向を予測するステップは、少なくとも部分的に、フレームレートに基づいて、カメラによって取得された画像の検索領域を決定するステップを含む、実施例52-55のいずれかに記載のシステム。
(実施例57)
少なくとも部分的に、フレームレートに基づいて、カメラによって取得された画像の検索領域を決定するステップは、フレームレートの減少に伴って増加する、検索領域サイズを設定するステップを含む、実施例56に記載のシステム。
(実施例58)
複数のカメラを備える、実施例1-57のいずれかに記載のシステム。
(実施例59)
複数のカメラはそれぞれ、環境の非同一部分を検出するように構成される、実施例58に記載のシステム。
(実施例60)
処理電子機器は、複数のカメラと通信し、カメラから受信された画像データに基づいて、複数のカメラのうちの第2のカメラのフレームレートを決定するように構成される、実施例58-59のいずれかに記載のシステム。
(実施例61)
画像データは、環境の特徴の移動方向を含む、実施例60に記載のシステム。
(実施例62)
画像データは、環境の特徴の速度を含む、実施例60-61のいずれかに記載のシステム。
(実施例63)
カメラから受信された画像データに基づいて、複数のカメラのうちの第2のカメラのフレームレートを決定するステップは、該カメラから受信された画像内の特徴が第2のカメラによって受信された画像によって検出される傾向を予測するステップを含む、実施例60-62のいずれかに記載のシステム。
(実施例64)
カメラの視野内の1つ以上の特徴の場所における傾向を予測するステップは、少なくとも部分的に、1つ以上の特徴が複数のカメラのうちの少なくとも1つによって捕捉されたかどうかに基づいて、カメラによって取得された画像の検索領域を決定するステップを含む、実施例63に記載のシステム。
(実施例65)
少なくとも部分的に、1つ以上の特徴が複数のカメラのうちの少なくとも1つによって捕捉されたかどうかに基づいて、カメラによって取得された画像の検索領域を決定するステップは、1つ以上の特徴が複数のカメラのうちの少なくとも1つによって捕捉されていないことの決定に応答して、1つ以上の特徴が複数のカメラのうちの少なくとも1つによって捕捉されたことの決定に応答して設定されるであろう検索領域サイズより大きい検索領域サイズを設定するステップを含む、実施例64に記載のシステム。
(実施例66)
処理電子機器は、カメラから受信された画像に基づいて、複数のカメラのうちの第2のカメラのフレームレートを調節するように構成される、実施例60-65のいずれかに記載のシステム。
(実施例67)
カメラから受信された画像に基づいて、複数のカメラのうちの第2のカメラのフレームレートを調節するステップは、複数のカメラのうちの第2のカメラのフレームレートを増加させるステップを含む、実施例66に記載のシステム。
(実施例68)
カメラから受信された画像に基づいて、複数のカメラのうちの第2のカメラのフレームレートを調節するステップは、複数のカメラのうちの第2のカメラのフレームレートを減少させるステップを含む、実施例66に記載のシステム。
(実施例69)
カメラから受信された画像に基づいて、複数のカメラのうちの第2のカメラのフレームレートを調節するステップは、少なくとも部分的に、頭部搭載型システム内の電気電流の周波数に基づく、実施例68に記載のシステム。
(実施例70)
カメラは、環境の第1の部分を検出するように構成され、第2のカメラは、環境の第2の部分を検出するように構成され、環境の第1の部分は、少なくとも部分的に、環境の第2の部分と重複する、実施例60-69のいずれかに記載のシステム。
(実施例71)
頭部搭載型ディスプレイおよび環境内の1つ以上の特徴の相対的運動の性質を決定するステップは、頭部搭載型ディスプレイの相対的運動の性質を決定するステップを含む、実施例1-70のいずれかに記載のシステム。
(実施例72)
光をユーザの眼に投影し、拡張現実画像コンテンツを該ユーザの視野内に表示し、頭部搭載型ディスプレイシステムを装着しているユーザの正面の環境の少なくとも一部を結像するように構成される、頭部搭載型ディスプレイシステムであって、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、頭部搭載型ディスプレイであって、該ディスプレイは、光を該ユーザの眼の中に投影し、拡張現実画像コンテンツをユーザの視野に表示するように構成され、該ディスプレイの少なくとも一部は、透明であって、ユーザがフレームを装着すると、該透明部分が、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部からの光をユーザの眼に透過させ、ユーザおよび該頭部搭載型ディスプレイの正面の環境の該部分のビューを提供するように、ユーザの眼の正面の場所に配置される、頭部搭載型ディスプレイと、
画像を第1のフレームレートで取得するように構成される、第1のカメラと、
画像を第1のフレームレートと異なる第2のフレームレートで取得するように構成される、第2のカメラと、
を備える、頭部搭載型ディスプレイシステム。
(実施例73)
第1のカメラは、左にあって、第2のカメラは、右にあって、頭部搭載型ディスプレイの左への回転に応答して、第1のレートは、第2のフレームレートより高く設定される、実施例72に記載のシステム。
(実施例74)
第1のカメラは、左にあって、第2のカメラは、右にあって、頭部搭載型ディスプレイの右への回転に応答して、第2のフレームレートは、第1のフレームレートより高くなる、実施例72-73のいずれかに記載のシステム。
(実施例75)
頭部搭載型ディスプレイと環境内の1つ以上の特徴との間の相対的運動の性質を決定し、
相対的運動の性質に基づいて、第1のフレームレートが第2のフレームレートと異なるように、カメラの第1のフレームレートを設定する、
ように構成される、処理電子機器をさらに備える、実施例72-74のいずれかに記載のシステム。
(実施例76)
処理電子機器は、
頭部搭載型ディスプレイと環境内の1つ以上の特徴との間の相対的運動の第2の性質を決定し、
相対的運動の第2の性質に基づいて、第2のカメラのフレームレートを設定する、
ように構成される、実施例75に記載のシステム。
(実施例77)
第1および第2のカメラはそれぞれ、環境の非同一部分を検出するように構成される、実施例72-76のいずれかに記載のシステム。
(実施例78)
処理電子機器は、複数のカメラと通信し、第1のカメラから受信された画像に基づいて、第2のカメラのフレームレートを決定するように構成される、実施例72-77のいずれかに記載のシステム。
(実施例79)
画像は、環境の特徴の方向を含む、実施例78に記載のシステム。
(実施例80)
画像は、環境の特徴の速度を含む、実施例78-79のいずれかに記載のシステム。
(実施例81)
第1のカメラから受信された画像に基づいて、第2のカメラのフレームレートを決定するステップは、第1のカメラから受信された画像内の特徴が第2のカメラによって受信された画像によって検出される傾向を予測するステップを含む、実施例78-80のいずれかに記載のシステム。
(実施例82)
処理電子機器は、第1のカメラから受信された画像に基づいて、第2のカメラのフレームレートを調節するように構成される、実施例78-81のいずれかに記載のシステム。
(実施例83)
第1のカメラから受信された画像に基づいて、第2のカメラのフレームレートを調節するステップは、第2のカメラのフレームレートを増加させるステップを含む、実施例82に記載のシステム。
(実施例84)
第1のカメラから受信された画像に基づいて、第2のカメラのフレームレートを調節するステップは、第2のカメラのフレームレートを減少させるステップを含む、実施例82に記載のシステム。
(実施例85)
第1のカメラから受信された画像に基づいて、第2のカメラのフレームレートを調節するステップは、少なくとも部分的に、頭部搭載型システム内の電気電流の周波数に基づく、実施例78-84のいずれかに記載のシステム。
(実施例86)
第1のカメラは、環境の第1の部分を検出するように構成され、第2のカメラは、環境の第2の部分を検出するように構成され、環境の第1の部分は、少なくとも部分的に、環境の第2の部分と重複する、実施例78-85のいずれかに記載のシステム。
(実施例87)
頭部搭載型ディスプレイおよび環境内の1つ以上の特徴の相対的運動の性質を決定するステップは、頭部搭載型ディスプレイの相対的運動の性質を決定するステップを含む、実施例78-86のいずれかに記載のシステム。
(実施例88)
カメラのフレームレートを設定するステップは、頭部搭載型ディスプレイ内の電気電流の周波数またはその整数倍数と異なるフレームレートを設定するステップを含む、実施例1-87のいずれかに記載のシステム。
(実施例89)
処理電子機器は、条件が満たされたことの決定に応答して、フレームレートを変化させるように構成される、実施例17-88のいずれかに記載のシステム。
(実施例90)
運動の性質および第2の運動の性質はそれぞれ、共通タイプの運動の性質の異なる測定値に対応するステップを含む、実施例21-89のいずれかに記載のシステム。
(実施例91)
運動の性質および第3の運動の性質はそれぞれ、共通タイプの運動の性質の異なる測定値に対応するステップを含む、実施例31-90のいずれかに記載のシステム。
(実施例92)
カメラによって取得された画像の検索領域を決定するステップは、少なくとも部分的に、角速度に基づく、実施例54-91に記載のシステム。
(実施例93)
相対的運動の第2の性質は、時間における第2の測定値を含む、実施例76-92のいずれかに記載のシステム。
(実施例94)
光をユーザの眼に投影し、拡張現実画像コンテンツを該ユーザの視野内に表示し、頭部搭載型ディスプレイシステムを装着しているユーザの正面の環境の少なくとも一部を結像するように構成される、頭部搭載型ディスプレイシステムであって、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、頭部搭載型ディスプレイであって、該ディスプレイは、光を該ユーザの眼の中に投影し、拡張現実画像コンテンツをユーザの視野に表示するように構成され、該ディスプレイの少なくとも一部は、透明であって、ユーザがフレームを装着すると、該透明部分が、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部からの光をユーザの眼に透過させ、ユーザおよび該頭部搭載型ディスプレイの正面の環境の該部分のビューを提供するように、ユーザの眼の正面の場所に配置される、頭部搭載型ディスプレイと、
画像を複数のフレームレートで取得するように構成される、カメラと、
カメラの第1のフレームレートを設定し、
第1のフレームレートと異なるカメラの第2のフレームレートを設定する、
ように構成される、処理電子機器と、
を備える、頭部搭載型ディスプレイシステム。
(実施例95)
カメラの第2のフレームレートを設定するステップは、環境内の1つ以上の特徴のうちのある特徴の性質を決定するステップを含む、実施例94に記載のシステム。
(実施例96)
カメラの第2のフレームレートを設定するステップは、少なくとも部分的に、特徴の性質に基づく、実施例95に記載のシステム。
(実施例97)
光をユーザの眼に投影し、拡張現実画像コンテンツを該ユーザの視野内に表示し、頭部搭載型ディスプレイシステムを装着しているユーザの正面の環境の少なくとも一部を結像するように構成される、頭部搭載型ディスプレイシステムであって、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、頭部搭載型ディスプレイであって、該ディスプレイは、光を該ユーザの眼の中に投影し、拡張現実画像コンテンツをユーザの視野に表示するように構成され、該ディスプレイの少なくとも一部は、透明であって、ユーザがフレームを装着すると、該透明部分が、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部からの光をユーザの眼に透過させ、ユーザおよび該頭部搭載型ディスプレイの正面の環境の該部分のビューを提供するように、ユーザの眼の正面の場所に配置される、頭部搭載型ディスプレイと、
画像を複数のフレームレートで取得するように構成される、カメラと、
カメラの視野内の検索領域を決定し、
検索領域内の1つ以上の特徴を識別する、
ように構成される、処理電子機器と、
を備える、頭部搭載型ディスプレイシステム。
(実施例98)
カメラの視野内の検索領域を決定するステップは、頭部搭載型ディスプレイと環境内の1つ以上の特徴との間の相対的運動の性質を決定するステップを含む、実施例97に記載のシステム。
(実施例99)
相対的運動の性質は、以下、すなわち、速度、加速、時間のうちの少なくとも1つを含む、実施例98に記載のシステム。
(実施例100)
システムは、相対的運動の性質に正比例する検索領域のサイズを設定するように構成される、実施例98-99のいずれかに記載のシステム。
(実施例101)
カメラの視野内の検索領域を決定するステップは、カメラのフレームレートを決定するステップを含む、実施例97-99のいずれかに記載のシステム。
(実施例102)
システムは、フレームレートに反比例する検索領域のサイズを設定するように構成される、実施例100に記載のシステム。
(実施例103)
本システムはさらに、第2のカメラを備える、実施例97-102のいずれかに記載のシステム。
(実施例104)
カメラの視野内の検索領域を決定するステップは、少なくとも部分的に、第2のカメラによって受信された画像に基づく、実施例103に記載のシステム。
(実施例105)
カメラの視野内の検索領域を決定するステップは、少なくとも部分的に、第2のカメラの視野に基づく、実施例103に記載のシステム。
(実施例106)
カメラの視野内の検索領域を決定するステップは、少なくとも部分的に、1つ以上の特徴に対する頭部搭載型デバイスの回転の相対的方向に基づく、実施例104-105のいずれかに記載のシステム。
(実施例107)
カメラによって取得された画像の検索領域を決定するステップは、角速度に正比例する、検索領域サイズを設定するステップを含む、実施例54-71のいずれかに記載のシステム。
(実施例108)
カメラによって取得された画像の検索領域を決定するステップは、フレームレートに反比例する、検索領域サイズを設定するステップを含む、実施例56-71または107に記載のシステム。
(実施例109)
検索領域は、カメラの視野より小さい、実施例97-108に記載のシステム。
(実施例110)
カメラの視野内の検索領域を決定するステップは、検索領域を変化させるステップを含む、実施例97-109に記載のシステム。
(実施例111)
カメラの視野内の検索領域を決定するステップは、検索領域のサイズを変化させるステップを含む、実施例97-110に記載のシステム。
(実施例112)
カメラの視野内の検索領域を決定するステップは、検索領域の位置を変化させるステップを含む、実施例97-111に記載のシステム。
(実施例113)
システムはさらに、環境の1つ以上の特徴のうちの少なくとも1つの品質メトリックを決定するように構成される、実施例94-96のいずれかに記載のシステム。
(実施例114)
品質メトリックは、カメラの視野またはその領域内の特徴の数に関する特徴計数の決定に基づく、実施例113に記載のシステム。
(実施例115)
品質メトリックは、少なくとも部分的に、その中で1つ以上の特徴のうちの少なくとも1つが検出されたフレームの数に基づく、実施例113-114のいずれかに記載のシステム。
(実施例116)
品質メトリックは、少なくとも部分的に、以下、すなわち、オブジェクトの見掛けサイズ、オブジェクトの見掛け明度、またはオブジェクトとその周囲との間のコントラストの程度のうちの任意の1つまたはそれらの組み合わせに基づく、実施例113-115のいずれかに記載のシステム。
(実施例117)
システムはさらに、少なくとも部分的に、1つ以上の特徴の速度に基づいて、1つ以上の特徴の品質メトリックを決定するように構成される、実施例113-116のいずれかに記載のシステム。
(実施例118)
品質メトリックは、少なくとも部分的に、1つ以上の特徴の速度に基づく、実施例113-117のいずれかに記載のシステム。
(実施例119)
システムはさらに、ユーザの眼の視線を追跡するように構成される、内向きカメラを備え、品質メトリックは、少なくとも部分的に、ユーザがその視線をオブジェクトに指向したことの決定に基づく、実施例113-118のいずれかに記載のシステム。
(実施例120)
品質メトリックは、少なくとも部分的に、オブジェクトの特性の見掛け変化に基づく、実施例113-119のいずれかに記載のシステム。
(実施例121)
頭部搭載型ディスプレイと環境内の1つ以上の特徴との間の相対的運動の性質を決定するステップは、相対的運動の性質が閾値を超えないことを決定するステップを含む、実施例1-71または75-93のいずれかに記載のシステム。
(実施例122)
カメラのフレームレートを設定するステップは、カメラのフレームレートを修正するステップを含む、実施例1-71または75-93または121のいずれかに記載のシステム。
(実施例123)
カメラのフレームレートを設定するステップは、カメラのフレームレートを低減させるステップを含む、実施例1-71または75-93または121-122のいずれかに記載のシステム。
(実施例124)
システムは、第1および第2のカメラのうちの少なくとも1つのフレームレートを修正するように構成される、実施例72-93のいずれかに記載のシステム。
(実施例125)
システムは、第1および第2のカメラのうちの少なくとも1つのフレームレートを低減させるように構成される、実施例72-93または124-125のいずれかに記載のシステム。
(実施例126)
第1のフレームレートと異なるカメラの第2のフレームレートを設定するステップは、カメラのフレームレートを低減させるステップを含む、実施例94-96のいずれかに記載のシステム。
(実施例127)
カメラのフレームレートを決定するステップは、カメラのフレームレートを修正するステップを含む、実施例101-120のいずれかに記載のシステム。
(実施例128)
カメラのフレームレートを決定するステップは、カメラのフレームレートを低減させるステップを含む、実施例101-120または127のいずれかに記載のシステム。
(実施例129)
システムは、システムによって検出された環境に対する頭部搭載型ディスプレイの減少された相対的移動の結果として、カメラのフレームレートを低減させるように構成される、上記実施例のいずれかに記載のシステム。
(実施例130)
システムは、システムによって検出された頭部搭載型ディスプレイの減少された移動の結果として、カメラのフレームレートを低減させるように構成される、上記実施例のいずれかに記載のシステム。
(実施例131)
システムは、システムによって検出された環境内のオブジェクトの減少された移動の結果として、カメラのフレームレートを低減させるように構成される、上記実施例のいずれかに記載のシステム。
(実施例132)
システムは、システムによって検出された環境に対する頭部搭載型ディスプレイの限定された相対的移動の結果として、カメラのフレームレートを低減させるように構成される、上記実施例のいずれかに記載のシステム。
(実施例133)
システムは、システムによって検出された頭部搭載型ディスプレイの限定された移動の結果として、カメラのフレームレートを低減させるように構成される、上記実施例のいずれかに記載のシステム。
(実施例134)
システムは、システムによって検出された環境内のオブジェクトの限定された移動の結果として、カメラのフレームレートを低減させるように構成される、上記実施例のいずれかに記載のシステム。
(実施例135)
システムは、システムによって検出された環境に対する頭部搭載型ディスプレイの増加された相対的移動の結果として、カメラのフレームレートを増加させるように構成される、上記実施例のいずれかに記載のシステム。
(実施例136)
システムは、システムによって検出された頭部搭載型ディスプレイの増加された移動の結果として、カメラのフレームレートを増加させるように構成される、上記実施例のいずれかに記載のシステム。
(実施例137)
システムは、システムによって検出された環境内のオブジェクトの増加された移動の結果として、カメラのフレームレートを増加させるように構成される、上記実施例のいずれかに記載のシステム。
(実施例セットIII)
(実施例1)
光をユーザの眼に投影し、拡張現実画像コンテンツを該ユーザの視野内に表示し、頭部搭載型ディスプレイシステムを装着しているユーザの正面の環境の少なくとも一部を結像するように構成される、頭部搭載型ディスプレイシステムであって、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、頭部搭載型ディスプレイであって、該ディスプレイは、光を該ユーザの眼の中に投影し、仮想画像コンテンツをユーザの視野に表示するように構成され、該ディスプレイの少なくとも一部は、透明であって、ユーザがフレームを装着すると、該透明部分が、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部からの光をユーザの眼に透過させ、ユーザおよび該頭部搭載型ディスプレイの正面の環境の該部分のビューを提供するように、ユーザの眼の正面の場所に配置される、頭部搭載型ディスプレイと、
画像をあるフレームレートで取得するように構成される、カメラであって、ある視野および第1のフレームレートを有する、カメラと、
コンピュータ実行可能命令を記憶する、非一過性コンピュータ可読媒体と、
カメラおよびコンピュータ可読媒体と通信する、電子機器であって、カメラによって取得されたフレームを処理するように構成され、
該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動を査定し、該相対的運動の査定は、頭部搭載型ディスプレイが、環境内の1つ以上の特徴に対して、移動したか、移動中であるか、または移動することが予期されるかを決定するステップ、および/または環境内の1つ以上の特徴が、頭部搭載型ディスプレイに対して、移動したか、移動中であるか、または移動することが予期されるかを決定するステップを含み、
該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定に基づいて、カメラのフレームレートを第1のフレームレートから第2のフレームレートに改変し、および/または処理されるカメラによって取得されたフレーム上の処理の量を調節する、
ために、コンピュータ実行可能命令を実行するように構成される、電子機器と、
を備える、頭部搭載型ディスプレイシステム。
(実施例2)
相対的運動の査定のための測定を実施するために該電子機器と通信する、運動センサをさらに備える、実施例1に記載のシステム。
(実施例3)
該運動センサは、慣性測定ユニット(IMU)を備える、実施例2に記載のシステム。
(実施例4)
該相対的運動の査定は、少なくとも部分的に、角度または線形加速の測定に基づく、上記実施例のいずれかに記載のシステム。
(実施例5)
該相対的運動の査定は、少なくとも部分的に、角度または線形速度の測定に基づく、上記実施例のいずれかに記載のシステム。
(実施例6)
該相対的運動の査定は、少なくとも部分的に、該頭部搭載型ディスプレイの角度または線形加速の測定に基づく、上記実施例のいずれかに記載のシステム。
(実施例7)
該相対的運動の査定は、少なくとも部分的に、該頭部搭載型ディスプレイの角度または線形速度の測定に基づく、上記実施例のいずれかに記載のシステム。
(実施例8)
該相対的運動の査定は、少なくとも部分的に、該環境内の1つ以上の特徴の角度または線形加速の測定に基づく、上記実施例のいずれかに記載のシステム。
(実施例9)
該相対的運動の査定は、少なくとも部分的に、該環境内の1つ以上の特徴の角度または線形速度の測定に基づく、上記実施例のいずれかに記載のシステム。
(実施例10)
該相対的運動の査定は、頭部搭載型ディスプレイの運動または予期される運動が閾値を超えることを決定するステップを含む、上記実施例のいずれかに記載のシステム。
(実施例11)
該相対的運動の査定は、該環境内の1つ以上の特徴の運動または予期される運動が閾値を超えることを決定するステップを含む、上記実施例のいずれかに記載のシステム。
(実施例12)
第2のフレームレートは、カメラのフレームレートが該相対的運動の査定に基づいて低減されるように、第1のフレームレートより低い、上記実施例のいずれかに記載のシステム。
(実施例13)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、頭部搭載型ディスプレイが、環境内の1つ以上の特徴に対して、移動したか、移動中であるか、または移動することが予期されるか、または環境内の1つ以上の特徴が、頭部搭載型ディスプレイに対して、移動したか、移動中であるか、または移動することが予期されるかの決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例14)
第2のフレームレートは、第1のフレームレートより低い、上記実施例のいずれかに記載のシステム。
(実施例15)
第1のフレームレートは、約30fps~60fpsである、上記実施例のいずれかに記載のシステム。
(実施例16)
第2のフレームレートは、約5fps~20fpsである、上記実施例のいずれかに記載のシステム。
(実施例17)
システムは、該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定に基づいて、カメラの第2のフレームレートを設定するように構成される、上記実施例のいずれかに記載のシステム。
(実施例18)
システムは、該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定に基づいて、カメラによって取得されたフレーム上の処理の量を低減させるように構成される、上記実施例のいずれかに記載のシステム。
(実施例19)
システムは、該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定に基づいて、カメラによって取得されたより少ないフレームからのデータを処理するように構成される、上記実施例のいずれかに記載のシステム。
(実施例20)
システムはさらに、システムの運動についての情報をあるサンプリングレートで受信する、運動センサを備える、上記実施例のいずれかに記載のシステム。
(実施例21)
システムは、頭部搭載型ディスプレイが、移動したか、移動中であるか、または移動することが予期されるかの決定に基づいて、該カメラのフレームレートを低減させるが、運動センサのサンプリングレートを維持するように構成される、実施例20に記載のシステム。
(実施例22)
運動センサのサンプリングレートは、該カメラのフレームレートの低減後、カメラのフレームレートより高速である、実施例20に記載のシステム。
(実施例23)
運動センサは、慣性センサまたは加速度計を備える、実施例20-22のいずれかに記載のシステム。
(実施例24)
該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定は、環境内の1つ以上の特徴が、頭部搭載型ディスプレイに対して、移動した、移動中である、または移動することが予期されることを決定するステップを含む、上記実施例のいずれかに記載のシステム。
(実施例25)
該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定は、カメラを使用して、環境の1つ以上の特徴を検出するステップを含む、上記実施例のいずれかに記載のシステム。
(実施例26)
環境の1つ以上の特徴は、環境内のオブジェクトの縁または角のうちの少なくとも1つを含む、実施例25に記載のシステム。
(実施例27)
カメラを使用して、環境の1つ以上の特徴を検出するステップは、Kalmanフィルタ、Sobolアルゴリズム、またはHarrisアルゴリズムのうちの少なくとも1つを使用するステップを含む、実施例25または26に記載のシステム。
(実施例28)
少なくとも1つの第2のカメラを備える、上記実施例のいずれかに記載のシステム。
(実施例29)
該カメラおよび該第2のカメラは、環境の非同一部分を検出するように構成される、実施例28に記載のシステム。
(実施例30)
カメラは、環境の第1の部分を検出するように構成され、第2のカメラは、環境の第2の部分を検出するように構成され、環境の第1の部分は、環境の第2の部分と部分的に重複する、実施例28または29に記載のシステム。
(実施例31)
該カメラおよび該第2のカメラは、ユーザの左眼に対応する、該フレームの左側上に配置される、実施例28-30のいずれかに記載のシステム。
(実施例32)
該カメラおよび該第2のカメラは、ユーザの右眼に対応する、該フレームの右側上に配置される、実施例28-30のいずれかに記載のシステム。
(実施例33)
該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定に基づいて、複数のカメラのうちの第2のカメラのフレームレートおよび/または第2のカメラによって取得されたフレーム上の処理の量を減少させるステップをさらに含む、実施例28-32のいずれかに記載のシステム。
(実施例34)
該カメラは、該第2のカメラよりこめかみ側寄りである、実施例28-33のいずれかに記載のシステム。
(実施例35)
該カメラは、該第2のカメラより鼻側寄りである、実施例28-33のいずれかに記載のシステム。
(実施例36)
該カメラのフレームレートは、該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定に基づいて、第2のカメラのフレームレートより低く設定される、実施例34または35に記載のシステム。
(実施例37)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、環境内の1つ以上の特徴に対する頭部搭載型ディスプレイの限定された移動または限定された予期される移動、または頭部搭載型ディスプレイに対する環境内の1つ以上の特徴の限定された移動または限定された予期される移動の決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例38)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、頭部搭載型ディスプレイの運動または予期される運動が閾値を超えないことの決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例39)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、該環境内の1つ以上の特徴の運動または予期される運動が閾値を超えないことの決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例40)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、頭部搭載型ディスプレイの運動または予期される運動がある持続時間にわたって閾値を超えないことの決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例41)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、該環境内の1つ以上の特徴の運動または予期される運動がある持続時間にわたって閾値を超えないことの決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例42)
カメラからのフレームの処理の量を低減させるステップは、処理されるカメラによって捕捉されたフレームの数を低減させるステップを含む、上記の実施例のいずれかに記載のシステム。
(実施例43)
カメラからのフレームの処理の量を低減させるステップは、カメラによって捕捉されたフレームの第2の部分未満のカメラによって捕捉されたフレームの第1の部分を処理するステップを含む、上記の実施例のいずれかに記載のシステム。
(実施例セットIV)
(実施例1)
光をユーザの眼に投影し、拡張現実画像コンテンツを該ユーザの視野内に表示し、頭部搭載型ディスプレイシステムを装着しているユーザの正面の環境の少なくとも一部を結像するように構成される、頭部搭載型ディスプレイシステムであって、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、頭部搭載型ディスプレイであって、該ディスプレイは、光を該ユーザの眼の中に投影し、仮想画像コンテンツをユーザの視野に表示するように構成され、該ディスプレイの少なくとも一部は、透明であって、ユーザがフレームを装着すると、該透明部分が、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部からの光をユーザの眼に透過させ、ユーザおよび該頭部搭載型ディスプレイの正面の環境の該部分のビューを提供するように、ユーザの眼の正面の場所に配置される、頭部搭載型ディスプレイと、
画像をあるフレームレートで取得するように構成される、カメラであって、ある視野および第1のフレームレートを有する、カメラと、
カメラと通信する、処理電子機器であって、該カメラによって取得されたフレームを処理するように構成され、
該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動を査定し、該相対的運動の査定は、頭部搭載型ディスプレイが、環境内の1つ以上の特徴に対して、移動したか、移動中であるか、または移動することが予期されるかを決定するステップ、および/または環境内の1つ以上の特徴が、頭部搭載型ディスプレイに対して、移動したか、移動中であるか、または移動することが予期されるかを決定するステップを含み、
該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定に基づいて、カメラのフレームレートを第1のフレームレートから第2のフレームレートに改変するステップ、および/または処理されるカメラによって取得されたフレーム上の処理の量を調節する、
ように構成される、処理電子機器と、
を備える、頭部搭載型ディスプレイシステム。
(実施例2)
相対的運動の査定のための測定を実施するために該電子機器と通信する、運動センサをさらに備える、実施例1に記載のシステム。
(実施例3)
該運動センサは、慣性測定ユニット(IMU)を備える、実施例2に記載のシステム。
(実施例4)
該相対的運動の査定は、少なくとも部分的に、角度または線形加速の測定に基づく、上記実施例のいずれかに記載のシステム。
(実施例5)
該相対的運動の査定は、少なくとも部分的に、角度または線形速度の測定に基づく、上記実施例のいずれかに記載のシステム。
(実施例6)
該相対的運動の査定は、少なくとも部分的に、該頭部搭載型ディスプレイの角度または線形加速の測定に基づく、上記実施例のいずれかに記載のシステム。
(実施例7)
該相対的運動の査定は、少なくとも部分的に、該頭部搭載型ディスプレイの角度または線形速度の測定に基づく、上記実施例のいずれかに記載のシステム。
(実施例8)
該相対的運動の査定は、少なくとも部分的に、該環境内の1つ以上の特徴の角度または線形加速の測定に基づく、上記実施例のいずれかに記載のシステム。
(実施例9)
該相対的運動の査定は、少なくとも部分的に、該環境内の1つ以上の特徴の角度または線形速度の測定に基づく、上記実施例のいずれかに記載のシステム。
(実施例10)
該相対的運動の査定は、頭部搭載型ディスプレイの運動または予期される運動が閾値を超えることを決定するステップを含む、上記実施例のいずれかに記載のシステム。
(実施例11)
該相対的運動の査定は、該環境内の1つ以上の特徴の運動または予期される運動が閾値を超えることを決定するステップを含む、上記実施例のいずれかに記載のシステム。
(実施例12)
第2のフレームレートは、カメラのフレームレートが該相対的運動の査定に基づいて低減されるように、第1のフレームレートより低い、上記実施例のいずれかに記載のシステム。
(実施例13)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、頭部搭載型ディスプレイが、環境内の1つ以上の特徴に対して、移動したか、移動中であるか、または移動することが予期されるか、または環境内の1つ以上の特徴が、頭部搭載型ディスプレイに対して、移動したか、移動中であるか、または移動することが予期されるかの決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例14)
第2のフレームレートは、第1のフレームレートより低い、上記実施例のいずれかに記載のシステム。
(実施例15)
第1のフレームレートは、約30fps~60fpsである、上記実施例のいずれかに記載のシステム。
(実施例16)
第2のフレームレートは、約5fps~20fpsである、上記実施例のいずれかに記載のシステム。
(実施例17)
システムは、該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定に基づいて、カメラの第2のフレームレートを設定するように構成される、上記実施例のいずれかに記載のシステム。
(実施例18)
システムは、該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定に基づいて、カメラによって取得されたフレーム上の処理の量を低減させるように構成される、上記実施例のいずれかに記載のシステム。
(実施例19)
システムは、該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定に基づいて、カメラによって取得されたより少ないフレームからのデータを処理するように構成される、上記実施例のいずれかに記載のシステム。
(実施例20)
システムはさらに、システムの運動についての情報をあるサンプリングレートで受信する、運動センサを備える、上記実施例のいずれかに記載のシステム。
(実施例21)
システムは、頭部搭載型ディスプレイが、移動したか、移動中であるか、または移動することが予期されるかの決定に基づいて、該カメラのフレームレートを低減させるが、運動センサのサンプリングレートを維持するように構成される、実施例20に記載のシステム。
(実施例22)
運動センサのサンプリングレートは、該カメラのフレームレートの低減後、カメラのフレームレートより高速である、実施例20に記載のシステム。
(実施例23)
運動センサは、慣性センサまたは加速度計を備える、実施例20-22のいずれかに記載のシステム。
(実施例24)
該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定は、環境内の1つ以上の特徴が、頭部搭載型ディスプレイに対して、移動した、移動中である、または移動することが予期されることを決定するステップを含む、上記実施例のいずれかに記載のシステム。
(実施例25)
該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定は、カメラを使用して、環境の1つ以上の特徴を検出するステップを含む、上記実施例のいずれかに記載のシステム。
(実施例26)
環境の1つ以上の特徴は、環境内のオブジェクトの縁または角のうちの少なくとも1つを含む、実施例25に記載のシステム。
(実施例27)
カメラを使用して、環境の1つ以上の特徴を検出するステップは、Kalmanフィルタ、Sobolアルゴリズム、またはHarrisアルゴリズムのうちの少なくとも1つを使用するステップを含む、実施例25または26に記載のシステム。
(実施例28)
少なくとも1つの第2のカメラを備える、上記実施例のいずれかに記載のシステム。
(実施例29)
該カメラおよび該第2のカメラは、環境の非同一部分を検出するように構成される、実施例28に記載のシステム。
(実施例30)
カメラは、環境の第1の部分を検出するように構成され、第2のカメラは、環境の第2の部分を検出するように構成され、環境の第1の部分は、環境の第2の部分と部分的に重複する、実施例28または29に記載のシステム。
(実施例31)
該カメラおよび該第2のカメラは、ユーザの左眼に対応する、該フレームの左側上に配置される、実施例28-30のいずれかに記載のシステム。
(実施例32)
該カメラおよび該第2のカメラは、ユーザの右眼に対応する、該フレームの右側上に配置される、実施例28-30のいずれかに記載のシステム。
(実施例33)
該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定に基づいて、複数のカメラのうちの第2のカメラのフレームレートおよび/または第2のカメラによって取得されたフレーム上の処理の量を減少させるステップをさらに含む、実施例28-32のいずれかに記載のシステム。
(実施例34)
該カメラは、該第2のカメラよりこめかみ側寄りである、実施例28-33のいずれかに記載のシステム。
(実施例35)
該カメラは、該第2のカメラより鼻側寄りである、実施例28-33のいずれかに記載のシステム。
(実施例36)
該カメラのフレームレートは、該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定に基づいて、第2のカメラのフレームレートより低く設定される、実施例34または35に記載のシステム。
(実施例37)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、環境内の1つ以上の特徴に対する頭部搭載型ディスプレイの限定された移動または限定された予期される移動、または頭部搭載型ディスプレイに対する環境内の1つ以上の特徴の限定された移動または限定された予期される移動の決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例38)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、頭部搭載型ディスプレイの運動または予期される運動が閾値を超えないことの決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例39)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、該環境内の1つ以上の特徴の運動または予期される運動が閾値を超えないことの決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例40)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、頭部搭載型ディスプレイの運動または予期される運動がある持続時間にわたって閾値を超えないことの決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例41)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、該環境内の1つ以上の特徴の運動または予期される運動がある持続時間にわたって閾値を超えないことの決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例42)
カメラからのフレームの処理の量を低減させるステップは、処理されるカメラによって捕捉されたフレームの数を低減させるステップを含む、上記の実施例のいずれかに記載のシステム。
(実施例43)
カメラからのフレームの処理の量を低減させるステップは、カメラによって捕捉されたフレームの第2の部分未満のカメラによって捕捉されたフレームの第1の部分を処理するステップを含む、上記の実施例のいずれかに記載のシステム。
(実施例セットV)
(実施例1)
光をユーザの眼に投影し、拡張現実画像コンテンツを該ユーザの視野内に表示し、頭部搭載型ディスプレイシステムを装着しているユーザの正面の環境の少なくとも一部を結像するように構成される、頭部搭載型ディスプレイシステムであって、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、頭部搭載型ディスプレイであって、該ディスプレイは、光を該ユーザの眼の中に投影し、仮想画像コンテンツをユーザの視野に表示するように構成され、該ディスプレイの少なくとも一部は、透明であって、ユーザがフレームを装着すると、該透明部分が、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部からの光をユーザの眼に透過させ、ユーザおよび該頭部搭載型ディスプレイの正面の環境の該部分のビューを提供するように、ユーザの眼の正面の場所に配置される、頭部搭載型ディスプレイと、
画像をあるフレームレートで取得するように構成される、カメラであって、ある視野および第1のフレームレートを有する、カメラと、
コンピュータ実行可能命令を記憶する、非一過性コンピュータ可読媒体と、
カメラおよびコンピュータ可読媒体と通信する、電子機器であって、カメラによって取得されたフレームを処理するように構成され、
該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動を査定し、該相対的運動の査定は、頭部搭載型ディスプレイが、環境内の1つ以上の特徴に対して、移動したか、移動中であるか、または移動することが予期されるかを決定するステップ、および/または環境内の1つ以上の特徴が、頭部搭載型ディスプレイに対して、移動したか、移動中であるか、または移動することが予期されるかを決定するステップを含み、
その場所がディスプレイ内に現れた場合、レンダリング可能仮想画像コンテンツがユーザに現れるであろう場所に対応する、環境内の1つ以上の場所を決定し、
環境内の1つ以上の仮想画像コンテンツ場所と、該カメラの視野の少なくとも一部を含む、視認ゾーンを比較し、
(i)該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定、および(ii)環境内の1つ以上の仮想画像コンテンツ場所と視認ゾーンの比較に基づいて、カメラのフレームレートを第1のフレームレートから第2のフレームレートに改変し、および/または処理されるカメラによって取得されたフレーム上の処理の量を調節する、
ために、コンピュータ実行可能命令を実行するように構成される、電子機器と、
を備える、頭部搭載型ディスプレイシステム。
(実施例2)
相対的運動の査定のための測定を実施するために該電子機器と通信する、運動センサをさらに備える、実施例1に記載のシステム。
(実施例3)
該運動センサは、慣性測定ユニット(IMU)を備える、実施例2に記載のシステム。
(実施例4)
該相対的運動の査定は、少なくとも部分的に、角度または線形加速の測定に基づく、上記実施例のいずれかに記載のシステム。
(実施例5)
該相対的運動の査定は、少なくとも部分的に、角度または線形速度の測定に基づく、上記実施例のいずれかに記載のシステム。
(実施例6)
該相対的運動の査定は、少なくとも部分的に、該頭部搭載型ディスプレイの角度または線形加速の測定に基づく、上記実施例のいずれかに記載のシステム。
(実施例7)
該相対的運動の査定は、少なくとも部分的に、該頭部搭載型ディスプレイの角度または線形速度の測定に基づく、上記実施例のいずれかに記載のシステム。
(実施例8)
該相対的運動の査定は、少なくとも部分的に、該環境内の1つ以上の特徴の角度または線形加速の測定に基づく、上記実施例のいずれかに記載のシステム。
(実施例9)
該相対的運動の査定は、少なくとも部分的に、該環境内の1つ以上の特徴の角度または線形速度の測定に基づく、上記実施例のいずれかに記載のシステム。
(実施例10)
該相対的運動の査定は、頭部搭載型ディスプレイの運動または予期される運動が閾値を超えることを決定するステップを含む、上記実施例のいずれかに記載のシステム。
(実施例11)
該相対的運動の査定は、該環境内の1つ以上の特徴の運動または予期される運動が閾値を超えることを決定するステップを含む、上記実施例のいずれかに記載のシステム。
(実施例12)
第2のフレームレートは、カメラのフレームレートが該相対的運動の査定に基づいて低減されるように、第1のフレームレートより低い、上記実施例のいずれかに記載のシステム。
(実施例13)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、(i)頭部搭載型ディスプレイが、環境内の1つ以上の特徴に対して、移動したか、移動中であるか、または移動することが予期されるか、または環境内の1つ以上の特徴が、頭部搭載型ディスプレイに対して、移動したか、移動中であるか、または移動することが予期されるか、および(ii)環境内の1つ以上の仮想画像コンテンツ場所が、視認ゾーン内の場所を含むことの決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例14)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量はさらに、(iii)環境内の1つ以上の仮想画像コンテンツ場所が、近距離動眼視野内の場所を含まないことの決定に基づいて低減される、実施例13に記載のシステム。
(実施例15)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、環境内の1つ以上の仮想画像コンテンツ場所が、近距離動眼視野領域内の場所を含む場合、低減されない、上記実施例のいずれかに記載のシステム。
(実施例16)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、(i)頭部搭載型ディスプレイが、環境内の1つ以上の特徴に対して、移動したか、移動中であるか、または移動することが予期されるか、または環境内の1つ以上の特徴が、頭部搭載型ディスプレイに対して、移動したか、移動中であるか、または移動することが予期されるか、および(ii)環境内の1つ以上の仮想画像コンテンツ場所が、(i)視認ゾーンを越え、(ii)近距離動眼視野領域を越える、遠距離動眼視野領域内の場所を含むことの決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例17)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量はさらに、(iii)環境内の1つ以上の仮想画像コンテンツ場所が、近距離動眼視野内の場所を含まないことの決定に基づいて低減される、実施例16に記載のシステム。
(実施例18)
視認ゾーンは、カメラの視野を含む、上記実施例のいずれかに記載のシステム。
(実施例19)
カメラの視野は、約45o~135oである、実施例18に記載のシステム。
(実施例20)
視認ゾーンは、カメラの視野に対応し、該1つ以上の仮想画像コンテンツ場所と視認ゾーンを比較するステップは、環境内の1つ以上の仮想画像コンテンツ場所が、カメラの視野内にあるかどうかを決定するステップを含む、実施例18または19のいずれかに記載のシステム。
(実施例21)
第2のフレームレートは、第1のフレームレートより低い、上記実施例のいずれかに記載のシステム。
(実施例22)
第1のフレームレートは、約30fps~60fpsである、上記実施例のいずれかに記載のシステム。
(実施例23)
第2のフレームレートは、約5fps~20fpsである、上記実施例のいずれかに記載のシステム。
(実施例24)
システムは、(i)該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定、および(ii)該1つ以上の仮想画像コンテンツ場所と該視認ゾーンの比較に基づいて、カメラの第2のフレームレートを設定するように構成される、上記実施例のいずれかに記載のシステム。
(実施例25)
システムは、(i)該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定、および(ii)該1つ以上の仮想画像コンテンツ場所と該視認ゾーンの比較に基づいて、カメラによって取得されたフレーム上の処理の量を低減させるように構成される、上記実施例のいずれかに記載のシステム。
(実施例26)
システムは、(i)該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定、および(ii)該1つ以上の仮想画像コンテンツ場所と該視認ゾーンの比較に基づいて、カメラによって取得されたより少ないフレームからのデータを処理するように構成される、上記実施例のいずれかに記載のシステム。
(実施例27)
システムはさらに、システムの運動についての情報をあるサンプリングレートで受信する、運動センサを備える、上記実施例のいずれかに記載のシステム。
(実施例28)
システムは、(i)頭部搭載型ディスプレイが、移動したか、移動中であるか、または移動することが予期されるかの決定、および(ii)該1つ以上の仮想画像コンテンツ場所と該視認ゾーンの比較に基づいて、該カメラのフレームレートを低減させるが、運動センサのサンプリングレートを維持するように構成される、実施例27に記載のシステム。
(実施例29)
運動センサのサンプリングレートは、該カメラのフレームレートの低減後、カメラのフレームレートより高速である、実施例27に記載のシステム。
(実施例30)
運動センサは、慣性センサまたは加速度計を備える、実施例27-29のいずれかに記載のシステム。
(実施例31)
該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定は、環境内の1つ以上の特徴が、頭部搭載型ディスプレイに対して、移動した、移動中である、または移動することが予期されることを決定するステップを含む、上記実施例のいずれかに記載のシステム。
(実施例32)
該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定は、カメラを使用して、環境の1つ以上の特徴を検出するステップを含む、上記実施例のいずれかに記載のシステム。
(実施例33)
環境の1つ以上の特徴は、環境内のオブジェクトの縁または角のうちの少なくとも1つを含む、実施例32に記載のシステム。
(実施例34)
カメラを使用して、環境の1つ以上の特徴を検出するステップは、Kalmanフィルタ、Sobolアルゴリズム、またはHarrisアルゴリズムのうちの少なくとも1つを使用するステップを含む、実施例32または33に記載のシステム。
(実施例35)
少なくとも1つの第2のカメラを備える、上記実施例のいずれかに記載のシステム。
(実施例36)
該カメラおよび該第2のカメラは、環境の非同一部分を検出するように構成される、実施例35に記載のシステム。
(実施例37)
カメラは、環境の第1の部分を検出するように構成され、第2のカメラは、環境の第2の部分を検出するように構成され、環境の第1の部分は、環境の第2の部分と部分的に重複する、実施例35または36に記載のシステム。
(実施例38)
該カメラおよび該第2のカメラは、ユーザの左眼に対応する、該フレームの左側上に配置される、実施例35-37のいずれかに記載のシステム。
(実施例39)
該カメラおよび該第2のカメラは、ユーザの右眼に対応する、該フレームの右側上に配置される、実施例35-37のいずれかに記載のシステム。
(実施例40)
(i)該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定、および(ii)仮想画像コンテンツ場所と該視認ゾーンの比較に基づいて、複数のカメラのうちの第2のカメラのフレームレートおよび/または第2のカメラによって取得されたフレーム上の処理の量を減少させるステップをさらに含む、実施例35-39のいずれかに記載のシステム。
(実施例41)
第2のカメラのフレームレートおよび/または第2のカメラによって取得されたフレーム上の処理の量は、(i)頭部搭載型ディスプレイが、環境内の1つ以上の特徴に対して、移動したか、移動中であるか、または移動することが予期されるか、または環境内の1つ以上の特徴が、頭部搭載型ディスプレイに対して、移動したか、移動中であるか、または移動することが予期されるか、および(ii)環境内の1つ以上の仮想画像コンテンツ場所が、視認ゾーン内の場所を含むことの決定に基づいて低減される、実施例35-40のいずれかに記載のシステム。
(実施例42)
第2のカメラのフレームレートおよび/または第2のカメラによって取得されたフレーム上の処理の量はさらに、(iii)環境内の1つ以上の仮想画像コンテンツ場所が、近距離動眼視野内を含まないことの決定に基づいて低減される、実施例41に記載のシステム。
(実施例43)
第2のカメラのフレームレートおよび/または第2のカメラによって取得されたフレーム上の処理の量は、環境内の1つ以上の仮想画像コンテンツ場所が、近距離動眼視野領域内の場所を含む場合、低減されない、実施例35-40のいずれかに記載のシステム。
(実施例44)
第2のカメラのフレームレートおよび/または第2のカメラによって取得されたフレーム上の処理の量は、(i)頭部搭載型ディスプレイが、環境内の1つ以上の特徴に対して、移動したか、移動中であるか、または移動することが予期されるか、または環境内の1つ以上の特徴が、頭部搭載型ディスプレイに対して、移動したか、移動中であるか、または移動することが予期されるか、および(ii)環境内の1つ以上の仮想画像コンテンツ場所が、(i)視認ゾーンを越え、(ii)近距離動眼視野領域を越える、遠距離動眼視野領域内の場所を含むことの決定に基づいて低減される、実施例35-40のいずれかに記載のシステム。
(実施例45)
第2のカメラのフレームレートおよび/または第2のカメラによって取得されたフレーム上の処理の量はさらに、(iii)環境内の1つ以上の仮想画像コンテンツ場所が、近距離動眼視野内の場所を含まないことの決定に基づいて低減される、実施例44に記載のシステム。
(実施例46)
該カメラは、該第2のカメラよりこめかみ側寄りである、実施例35-39のいずれかに記載のシステム。
(実施例47)
該カメラは、該第2のカメラより鼻側寄りである、実施例35-39のいずれかに記載のシステム。
(実施例48)
該カメラのフレームレートは、(i)該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定、および(ii)環境内の1つ以上の仮想画像コンテンツ場所と視認ゾーンの比較に基づいて、第2のカメラのフレームレートより低く設定される、実施例46または47に記載のシステム。
(実施例49)
該カメラ上の処理の量は、(i)該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定、および(ii)環境内の1つ以上の仮想画像コンテンツ場所と視認ゾーンの比較に基づいて、第2のカメラによって取得されたフレーム上の処理の量より低く設定される、実施例46または48のいずれかに記載のシステム。
(実施例50)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、(i)頭部搭載型ディスプレイが、環境内の1つ以上の特徴に対して、移動したか、移動中であるか、または移動することが予期されるか、または環境内の1つ以上の特徴が、頭部搭載型ディスプレイに対して、移動したか、移動中であるか、または移動することが予期されるか、および(ii)環境内の1つ以上の仮想画像コンテンツ場所が、視認ゾーン外の場所を含まないことの決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例51)
第2のカメラのフレームレートおよび/または第2のカメラによって取得されたフレーム上の処理の量は、(i)頭部搭載型ディスプレイが、環境内の1つ以上の特徴に対して、移動したか、移動中であるか、または移動することが予期されるか、または環境内の1つ以上の特徴が、頭部搭載型ディスプレイに対して、移動したか、移動中であるか、または移動することが予期されるか、および(ii)環境内の1つ以上の仮想画像コンテンツ場所が、視認ゾーン外の場所を含まないことの決定に基づいて低減される、実施例35-40のいずれかに記載のシステム。
(実施例52)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、環境内の1つ以上の特徴に対する頭部搭載型ディスプレイの限定された移動または予期される移動、または頭部搭載型ディスプレイに対する環境内の1つ以上の特徴の限定された移動または予期される移動の決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例53)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、頭部搭載型ディスプレイの運動または予期される運動が閾値を超えないことの決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例54)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、該環境内の1つ以上の特徴の運動または予期される運動が閾値を超えないことの決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例55)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、頭部搭載型ディスプレイの運動または予期される運動がある持続時間にわたって閾値を超えないことの決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例56)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、該環境内の1つ以上の特徴の運動または予期される運動がある持続時間にわたって閾値を超えないことの決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例57)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、(i)環境内の1つ以上の特徴に対する頭部搭載型ディスプレイの限定された移動または限定された予期される移動、または頭部搭載型ディスプレイに対する環境内の1つ以上の特徴の限定された移動または限定された予期される移動、および(ii)環境内の1つ以上の仮想画像コンテンツ場所が、視認ゾーン内の場所を含むことの決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例58)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、(i)環境内の1つ以上の特徴に対する頭部搭載型ディスプレイの限定された移動または限定された予期される移動、または頭部搭載型ディスプレイに対する環境内の1つ以上の特徴の限定された移動または限定された予期される移動、および(ii)環境内の1つ以上の仮想画像コンテンツ場所が、(a)視認ゾーンを越え、かつ(b)近距離動眼視野領域を越える、遠距離動眼視野領域内の場所を含むことの決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例59)
第2のカメラのフレームレートおよび/または第2のカメラによって取得されたフレーム上の処理の量は、(i)環境内の1つ以上の特徴に対する頭部搭載型ディスプレイの限定された移動または限定された予期される移動、または頭部搭載型ディスプレイに対する環境内の1つ以上の特徴の限定された移動または限定された予期される移動、および(ii)環境内の1つ以上の仮想画像コンテンツ場所が、視認ゾーン内の場所を含むことの決定に基づいて低減される、実施例35-40のいずれかに記載のシステム。
(実施例60)
第2のカメラのフレームレートおよび/または第2のカメラによって取得されたフレーム上の処理の量は(i)環境内の1つ以上の特徴に対する頭部搭載型ディスプレイの限定された移動または限定された予期される移動、または頭部搭載型ディスプレイに対する環境内の1つ以上の特徴の限定された移動または限定された予期される移動、および(ii)環境内の1つ以上の仮想画像コンテンツ場所が、(a)視認ゾーンを越え、かつ(b)近距離動眼視野領域を越える、遠距離動眼視野領域内の場所を含む、ことの決定に基づいて低減される、実施例35-40のいずれかに記載のシステム。
(実施例61)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、(i)環境内の1つ以上の特徴に対する頭部搭載型ディスプレイの限定された移動または限定された予期される移動、または頭部搭載型ディスプレイに対する環境内の1つ以上の特徴の限定された移動または限定された予期される移動、および(ii)環境内の1つ以上の仮想画像コンテンツ場所が、視認ゾーン外の場所を含まないことの決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例62)
第2のカメラのフレームレートおよび/または第2のカメラによって取得されたフレーム上の処理の量は、(i)環境内の1つ以上の特徴に対する頭部搭載型ディスプレイの限定された移動または限定された予期される移動、または頭部搭載型ディスプレイに対する環境内の1つ以上の特徴の限定された移動または限定された予期される移動、および(ii)環境内の1つ以上の仮想画像コンテンツ場所が、視認ゾーン外の場所を含まないことの決定に基づいて低減される、実施例35-40のいずれかに記載のシステム。
(実施例63)
カメラからのフレームの処理の量を低減させるステップは、処理されるカメラによって捕捉されたフレームの数を低減させるステップを含む、上記の実施例のいずれかに記載のシステム。
(実施例64)
カメラからのフレームの処理の量を低減させるステップは、カメラによって捕捉されたフレームの第2の部分未満のカメラによって捕捉されたフレームの第1の部分を処理するステップを含む、上記の実施例のいずれかに記載のシステム。
(実施例セットVI)
(実施例1)
光をユーザの眼に投影し、拡張現実画像コンテンツを該ユーザの視野内に表示し、頭部搭載型ディスプレイシステムを装着しているユーザの正面の環境の少なくとも一部を結像するように構成される、頭部搭載型ディスプレイシステムであって、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、頭部搭載型ディスプレイであって、該ディスプレイは、光を該ユーザの眼の中に投影し、仮想画像コンテンツをユーザの視野に表示するように構成され、該ディスプレイの少なくとも一部は、透明であって、ユーザがフレームを装着すると、該透明部分が、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部からの光をユーザの眼に透過させ、ユーザおよび該頭部搭載型ディスプレイの正面の環境の該部分のビューを提供するように、ユーザの眼の正面の場所に配置される、頭部搭載型ディスプレイと、
画像をあるフレームレートで取得するように構成される、カメラであって、ある視野および第1のフレームレートを有する、カメラと、
カメラによって取得されたフレームを処理するように構成される、処理電子機器であって、
該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動を査定し、該相対的運動の査定は、頭部搭載型ディスプレイが、環境内の1つ以上の特徴に対して、移動したか、移動中であるか、または移動することが予期されるかを決定するステップ、および/または環境内の1つ以上の特徴が、頭部搭載型ディスプレイに対して、移動したか、移動中であるか、または移動することが予期されるかを決定するステップを含み、
その場所がディスプレイ内に現れた場合、レンダリング可能仮想画像コンテンツがユーザに現れるであろう場所に対応する、環境内の1つ以上の場所を決定し、
環境内の1つ以上の仮想画像コンテンツ場所と、該カメラの視野の少なくとも一部を含む、視認ゾーンを比較し、
(i)該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定、および(ii)環境内の1つ以上の仮想画像コンテンツ場所と視認ゾーンの比較に基づいて、カメラのフレームレートを第1のフレームレートから第2のフレームレートに改変するステップ、および/または処理されるカメラによって取得されたフレーム上の処理の量を調節する、
ように構成される、処理電子機器と、
を備える、頭部搭載型ディスプレイシステム。
(実施例2)
相対的運動の査定のための測定を実施するために該処理電子機器と通信する、運動センサをさらに備える、実施例1に記載のシステム。
(実施例3)
該運動センサは、慣性測定ユニット(IMU)を備える、実施例2に記載のシステム。
(実施例4)
該相対的運動の査定は、少なくとも部分的に、角度または線形加速の測定に基づく、上記実施例のいずれかに記載のシステム。
(実施例5)
該相対的運動の査定は、少なくとも部分的に、角度または線形速度の測定に基づく、上記実施例のいずれかに記載のシステム。
(実施例6)
該相対的運動の査定は、少なくとも部分的に、該頭部搭載型ディスプレイの角度または線形加速の測定に基づく、上記実施例のいずれかに記載のシステム。
(実施例7)
該相対的運動の査定は、少なくとも部分的に、該頭部搭載型ディスプレイの角度または線形速度の測定に基づく、上記実施例のいずれかに記載のシステム。
(実施例8)
該相対的運動の査定は、少なくとも部分的に、該環境内の1つ以上の特徴の角度または線形加速の測定に基づく、上記実施例のいずれかに記載のシステム。
(実施例9)
該相対的運動の査定は、少なくとも部分的に、該環境内の1つ以上の特徴の角度または線形速度の測定に基づく、上記実施例のいずれかに記載のシステム。
(実施例10)
該相対的運動の査定は、頭部搭載型ディスプレイの運動または予期される運動が閾値を超えることを決定するステップを含む、上記実施例のいずれかに記載のシステム。
(実施例11)
該相対的運動の査定は、該環境内の1つ以上の特徴の運動または予期される運動が閾値を超えることを決定するステップを含む、上記実施例のいずれかに記載のシステム。
(実施例12)
第2のフレームレートは、カメラのフレームレートが該相対的運動の査定に基づいて低減されるように、第1のフレームレートより低い、上記実施例のいずれかに記載のシステム。
(実施例13)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、(i)頭部搭載型ディスプレイが、環境内の1つ以上の特徴に対して、移動したか、移動中であるか、または移動することが予期されるか、または環境内の1つ以上の特徴が、頭部搭載型ディスプレイに対して、移動したか、移動中であるか、または移動することが予期されるか、および(ii)環境内の1つ以上の仮想画像コンテンツ場所が、視認ゾーン内の場所を含むことの決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例14)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量はさらに、(iii)環境内の1つ以上の仮想画像コンテンツ場所が、近距離動眼視野内の場所を含まないことの決定に基づいて低減される、実施例13に記載のシステム。
(実施例15)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、環境内の1つ以上の仮想画像コンテンツ場所が、近距離動眼視野領域内の場所を含む場合、低減されない、上記実施例のいずれかに記載のシステム。
(実施例16)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、(i)頭部搭載型ディスプレイが、環境内の1つ以上の特徴に対して、移動したか、移動中であるか、または移動することが予期されるか、または環境内の1つ以上の特徴が、頭部搭載型ディスプレイに対して、移動したか、移動中であるか、または移動することが予期されるか、および(ii)環境内の1つ以上の仮想画像コンテンツ場所が、(i)視認ゾーンを越え、(ii)近距離動眼視野領域を越える、遠距離動眼視野領域内の場所を含むことの決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例17)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量はさらに、(iii)環境内の1つ以上の仮想画像コンテンツ場所が、近距離動眼視野内の場所を含まないことの決定に基づいて低減される、実施例16に記載のシステム。
(実施例18)
視認ゾーンは、カメラの視野を含む、上記実施例のいずれかに記載のシステム。
(実施例19)
カメラの視野は、約45o~135oである、実施例18に記載のシステム。
(実施例20)
視認ゾーンは、カメラの視野に対応し、該1つ以上の仮想画像コンテンツ場所と視認ゾーンを比較するステップは、環境内の1つ以上の仮想画像コンテンツ場所が、カメラの視野内にあるかどうかを決定するステップを含む、実施例18または19のいずれかに記載のシステム。
(実施例21)
第2のフレームレートは、第1のフレームレートより低い、上記実施例のいずれかに記載のシステム。
(実施例22)
第1のフレームレートは、約30fps~60fpsである、上記実施例のいずれかに記載のシステム。
(実施例23)
第2のフレームレートは、約5fps~20fpsである、上記実施例のいずれかに記載のシステム。
(実施例24)
システムは、(i)該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定、および(ii)該1つ以上の仮想画像コンテンツ場所と該視認ゾーンの比較に基づいて、カメラの第2のフレームレートを設定するように構成される、上記実施例のいずれかに記載のシステム。
(実施例25)
システムは、(i)該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定、および(ii)該1つ以上の仮想画像コンテンツ場所と該視認ゾーンの比較に基づいて、カメラによって取得されたフレーム上の処理の量を低減させるように構成される、上記実施例のいずれかに記載のシステム。
(実施例26)
システムは、(i)該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定、および(ii)該1つ以上の仮想画像コンテンツ場所と該視認ゾーンの比較に基づいて、カメラによって取得されたより少ないフレームからのデータを処理するように構成される、上記実施例のいずれかに記載のシステム。
(実施例27)
システムはさらに、システムの運動についての情報をあるサンプリングレートで受信する、運動センサを備える、上記実施例のいずれかに記載のシステム。
(実施例28)
システムは、(i)頭部搭載型ディスプレイが、移動したか、移動中であるか、または移動することが予期されるかの決定、および(ii)該1つ以上の仮想画像コンテンツ場所と該視認ゾーンの比較に基づいて、該カメラのフレームレートを低減させるが、運動センサのサンプリングレートを維持するように構成される、実施例27に記載のシステム。
(実施例29)
運動センサのサンプリングレートは、該カメラのフレームレートの低減後、カメラのフレームレートより高速である、実施例27に記載のシステム。
(実施例30)
運動センサは、慣性センサまたは加速度計を備える、実施例27-29のいずれかに記載のシステム。
(実施例31)
該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定は、環境内の1つ以上の特徴が、頭部搭載型ディスプレイに対して、移動した、移動中である、または移動することが予期されることを決定するステップを含む、上記実施例のいずれかに記載のシステム。
(実施例32)
該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定は、カメラを使用して、環境の1つ以上の特徴を検出するステップを含む、上記実施例のいずれかに記載のシステム。
(実施例33)
環境の1つ以上の特徴は、環境内のオブジェクトの縁または角のうちの少なくとも1つを含む、実施例32に記載のシステム。
(実施例34)
カメラを使用して、環境の1つ以上の特徴を検出するステップは、Kalmanフィルタ、Sobolアルゴリズム、またはHarrisアルゴリズムのうちの少なくとも1つを使用するステップを含む、実施例32または33に記載のシステム。
(実施例35)
少なくとも1つの第2のカメラを備える、上記実施例のいずれかに記載のシステム。
(実施例36)
該カメラおよび該第2のカメラは、環境の非同一部分を検出するように構成される、実施例35に記載のシステム。
(実施例37)
カメラは、環境の第1の部分を検出するように構成され、第2のカメラは、環境の第2の部分を検出するように構成され、環境の第1の部分は、環境の第2の部分と部分的に重複する、実施例35または36に記載のシステム。
(実施例38)
該カメラおよび該第2のカメラは、ユーザの左眼に対応する、該フレームの左側上に配置される、実施例35-37のいずれかに記載のシステム。
(実施例39)
該カメラおよび該第2のカメラは、ユーザの右眼に対応する、該フレームの右側上に配置される、実施例35-37のいずれかに記載のシステム。
(実施例40)
(i)該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定、および(ii)仮想画像コンテンツ場所と該視認ゾーンの比較に基づいて、複数のカメラのうちの第2のカメラのフレームレートおよび/または第2のカメラによって取得されたフレーム上の処理の量を減少させるステップをさらに含む、実施例35-39のいずれかに記載のシステム。
(実施例41)
第2のカメラのフレームレートおよび/または第2のカメラによって取得されたフレーム上の処理の量は、(i)頭部搭載型ディスプレイが、環境内の1つ以上の特徴に対して、移動したか、移動中であるか、または移動することが予期されるか、または環境内の1つ以上の特徴が、頭部搭載型ディスプレイに対して、移動したか、移動中であるか、または移動することが予期されるか、および(ii)環境内の1つ以上の仮想画像コンテンツ場所が、視認ゾーン内の場所を含むことの決定に基づいて低減される、実施例35-40のいずれかに記載のシステム。
(実施例42)
第2のカメラのフレームレートおよび/または第2のカメラによって取得されたフレーム上の処理の量はさらに、(iii)環境内の1つ以上の仮想画像コンテンツ場所が、近距離動眼視野内を含まないことの決定に基づいて低減される、実施例41に記載のシステム。
(実施例43)
第2のカメラのフレームレートおよび/または第2のカメラによって取得されたフレーム上の処理の量は、環境内の1つ以上の仮想画像コンテンツ場所が、近距離動眼視野領域内の場所を含む場合、低減されない、実施例35-40のいずれかに記載のシステム。
(実施例44)
第2のカメラのフレームレートおよび/または第2のカメラによって取得されたフレーム上の処理の量は、(i)頭部搭載型ディスプレイが、環境内の1つ以上の特徴に対して、移動したか、移動中であるか、または移動することが予期されるか、または環境内の1つ以上の特徴が、頭部搭載型ディスプレイに対して、移動したか、移動中であるか、または移動することが予期されるか、および(ii)環境内の1つ以上の仮想画像コンテンツ場所が、(i)視認ゾーンを越え、(ii)近距離動眼視野領域を越える、遠距離動眼視野領域内の場所を含むことの決定に基づいて低減される、実施例35-40のいずれかに記載のシステム。
(実施例45)
第2のカメラのフレームレートおよび/または第2のカメラによって取得されたフレーム上の処理の量はさらに、(iii)環境内の1つ以上の仮想画像コンテンツ場所が、近距離動眼視野内の場所を含まないことの決定に基づいて低減される、実施例44に記載のシステム。
(実施例46)
該カメラは、該第2のカメラよりこめかみ側寄りである、実施例35-39のいずれかに記載のシステム。
(実施例47)
該カメラは、該第2のカメラより鼻側寄りである、実施例35-39のいずれかに記載のシステム。
(実施例48)
該カメラのフレームレートは、(i)該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定、および(ii)環境内の1つ以上の仮想画像コンテンツ場所と視認ゾーンの比較に基づいて、第2のカメラのフレームレートより低く設定される、実施例46または47に記載のシステム。
(実施例49)
該カメラ上の処理の量は、(i)該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定、および(ii)環境内の1つ以上の仮想画像コンテンツ場所と視認ゾーンの比較に基づいて、第2のカメラによって取得されたフレーム上の処理の量より低く設定される、実施例46または48のいずれかに記載のシステム。
(実施例50)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、(i)頭部搭載型ディスプレイが、環境内の1つ以上の特徴に対して、移動したか、移動中であるか、または移動することが予期されるか、または環境内の1つ以上の特徴が、頭部搭載型ディスプレイに対して、移動したか、移動中であるか、または移動することが予期されるか、および(ii)環境内の1つ以上の仮想画像コンテンツ場所が、視認ゾーン外の場所を含まないことの決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例51)
第2のカメラのフレームレートおよび/または第2のカメラによって取得されたフレーム上の処理の量は、(i)頭部搭載型ディスプレイが、環境内の1つ以上の特徴に対して、移動したか、移動中であるか、または移動することが予期されるか、または環境内の1つ以上の特徴が、頭部搭載型ディスプレイに対して、移動したか、移動中であるか、または移動することが予期されるか、および(ii)環境内の1つ以上の仮想画像コンテンツ場所が、視認ゾーン外の場所を含まないことの決定に基づいて低減される、実施例35-40のいずれかに記載のシステム。
(実施例52)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、環境内の1つ以上の特徴に対する頭部搭載型ディスプレイの限定された移動または予期される移動、または頭部搭載型ディスプレイに対する環境内の1つ以上の特徴の限定された移動または予期される移動の決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例53)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、頭部搭載型ディスプレイの運動または予期される運動が閾値を超えないことの決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例54)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、該環境内の1つ以上の特徴の運動または予期される運動が閾値を超えないことの決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例55)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、頭部搭載型ディスプレイの運動または予期される運動がある持続時間にわたって閾値を超えないことの決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例56)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、該環境内の1つ以上の特徴の運動または予期される運動がある持続時間にわたって閾値を超えないことの決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例57)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、(i)環境内の1つ以上の特徴に対する頭部搭載型ディスプレイの限定された移動または限定された予期される移動、または頭部搭載型ディスプレイに対する環境内の1つ以上の特徴の限定された移動または限定された予期される移動、および(ii)環境内の1つ以上の仮想画像コンテンツ場所が、視認ゾーン内の場所を含むことの決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例58)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、(i)環境内の1つ以上の特徴に対する頭部搭載型ディスプレイの限定された移動または限定された予期される移動、または頭部搭載型ディスプレイに対する環境内の1つ以上の特徴の限定された移動または限定された予期される移動、および(ii)環境内の1つ以上の仮想画像コンテンツ場所が、(a)視認ゾーンを越え、かつ(b)近距離動眼視野領域を越える、遠距離動眼視野領域内の場所を含むことの決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例59)
第2のカメラのフレームレートおよび/または第2のカメラによって取得されたフレーム上の処理の量は、(i)環境内の1つ以上の特徴に対する頭部搭載型ディスプレイの限定された移動または限定された予期される移動、または頭部搭載型ディスプレイに対する環境内の1つ以上の特徴の限定された移動または限定された予期される移動、および(ii)環境内の1つ以上の仮想画像コンテンツ場所が、視認ゾーン内の場所を含むことの決定に基づいて低減される、実施例35-40のいずれかに記載のシステム。
(実施例60)
第2のカメラのフレームレートおよび/または第2のカメラによって取得されたフレーム上の処理の量は、(i)環境内の1つ以上の特徴に対する頭部搭載型ディスプレイの限定された移動または限定された予期される移動、または頭部搭載型ディスプレイに対する環境内の1つ以上の特徴の限定された移動または限定された予期される移動、および(ii)環境内の1つ以上の仮想画像コンテンツ場所が、(a)視認ゾーンを越え、かつ(b)近距離動眼視野領域を越える、遠距離動眼視野領域内の場所を含むことの決定に基づいて低減される、実施例35-40のいずれかに記載のシステム。
(実施例61)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、(i)環境内の1つ以上の特徴に対する頭部搭載型ディスプレイの限定された移動または限定された予期される移動、または頭部搭載型ディスプレイに対する環境内の1つ以上の特徴の限定された移動または限定された予期される移動、および(ii)環境内の1つ以上の仮想画像コンテンツ場所が、視認ゾーン外の場所を含まないことの決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例62)
第2のカメラのフレームレートおよび/または第2のカメラによって取得されたフレーム上の処理の量は、(i)環境内の1つ以上の特徴に対する頭部搭載型ディスプレイの限定された移動または限定された予期される移動、または頭部搭載型ディスプレイに対する環境内の1つ以上の特徴の限定された移動または限定された予期される移動、および(ii)環境内の1つ以上の仮想画像コンテンツ場所が、視認ゾーン外の場所を含まないことの決定に基づいて低減される、実施例35-40のいずれかに記載のシステム。
(実施例63)
カメラからのフレームの処理の量を低減させるステップは、処理されるカメラによって捕捉されたフレームの数を低減させるステップを含む、上記の実施例のいずれかに記載のシステム。
(実施例64)
カメラからのフレームの処理の量を低減させるステップは、カメラによって捕捉されたフレームの第2の部分未満のカメラによって捕捉されたフレームの第1の部分を処理するステップを含む、上記の実施例のいずれかに記載のシステム。
(実施例セットVII)
(実施例1)
頭部搭載型ディスプレイシステムであって、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、ディスプレイであって、仮想画像と関連付けられる光を該ユーザの眼の中に投影し、仮想画像コンテンツをユーザに表示するように構成され、さらに、環境からの光をユーザの眼に透過させ、環境の一部のビューをユーザに提供するように構成される、ディスプレイと、
環境の画像をあるフレームレートで取得するように構成される、カメラであって、ある視野および第1のフレームレートを有する、カメラと、
カメラによって取得された画像を受信および処理するように構成される、処理電子機器であって、該画像処理は、
該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動を査定するステップであって、該相対的運動の査定は、頭部搭載型ディスプレイが、環境内の1つ以上の特徴に対して、移動したか、移動中であるか、または移動することが予期されるかを決定するステップ、および/または環境内の1つ以上の特徴が、頭部搭載型ディスプレイに対して、移動したか、移動中であるか、または移動することが予期されるかを決定するステップを含む、ステップと、
場所がディスプレイ内に現れるときに、レンダリング可能仮想画像コンテンツがユーザに現れる場所に対応する、環境内の1つ以上の仮想画像コンテンツ場所を決定するステップと、
環境内の1つ以上の仮想画像コンテンツ場所と、該カメラの視野の少なくとも一部を含む、視認ゾーンを比較するステップと、
(i)該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定、および(ii)環境内の1つ以上の仮想画像コンテンツ場所と視認ゾーンの比較に基づいて、カメラのフレームレートを第1のフレームレートから第2のフレームレートに改変するステップ、および/または処理されるカメラによって取得されたフレーム上の処理の量を調節するステップと、
を含む、処理電子機器と、
を備える、システム。
(実施例2)
該処理電子機器と通信する、運動センサをさらに備え、運動センサは、相対的運動の査定のための測定を実施するように構成される、実施例1に記載のシステム。
(実施例3)
該運動センサは、慣性測定ユニット(IMU)を備える、実施例2に記載のシステム。
(実施例4)
該相対的運動の査定は、少なくとも部分的に、角度または線形加速の測定に基づく、上記実施例のいずれかに記載のシステム。
(実施例5)
該相対的運動の査定は、少なくとも部分的に、角度または線形速度の測定に基づく、上記実施例のいずれかに記載のシステム。
(実施例6)
該相対的運動の査定は、少なくとも部分的に、該頭部搭載型ディスプレイの角度または線形加速の測定に基づく、上記実施例のいずれかに記載のシステム。
(実施例7)
該相対的運動の査定は、少なくとも部分的に、該頭部搭載型ディスプレイの角度または線形速度の測定に基づく、上記実施例のいずれかに記載のシステム。
(実施例8)
該相対的運動の査定は、少なくとも部分的に、該環境内の1つ以上の特徴の角度または線形加速の測定に基づく、上記実施例のいずれかに記載のシステム。
(実施例9)
該相対的運動の査定は、少なくとも部分的に、該環境内の1つ以上の特徴の角度または線形速度の測定に基づく、上記実施例のいずれかに記載のシステム。
(実施例10)
該相対的運動の査定は、頭部搭載型ディスプレイの運動または予期される運動が閾値を超えることを決定するステップを含む、上記実施例のいずれかに記載のシステム。
(実施例11)
該相対的運動の査定は、該環境内の1つ以上の特徴の運動または予期される運動が閾値を超えることを決定するステップを含む、上記実施例のいずれかに記載のシステム。
(実施例12)
第2のフレームレートは、カメラが、該相対的運動の査定に基づいて、低減されたフレームレートで動作するように構成されるように、第1のフレームレートより低い、上記実施例のいずれかに記載のシステム。
(実施例13)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、(i)頭部搭載型ディスプレイが、環境内の1つ以上の特徴に対して、移動した、移動中である、または移動することが予期されること、または環境内の1つ以上の特徴が、頭部搭載型ディスプレイに対して、移動した、移動中である、または移動することが予期されること、および(ii)環境内の1つ以上の仮想画像コンテンツ場所が、視認ゾーン内の場所を含むことの決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例14)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量はさらに、(iii)環境内の1つ以上の仮想画像コンテンツ場所が、近距離動眼視野内の場所を含まないことの決定に基づいて低減される、実施例13に記載のシステム。
(実施例15)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、環境内の1つ以上の仮想画像コンテンツ場所が、近距離動眼視野領域内の場所を含む場合、低減されない、上記実施例のいずれかに記載のシステム。
(実施例16)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、(i)頭部搭載型ディスプレイが、環境内の1つ以上の特徴に対して、移動した、移動中である、または移動することが予期されること、または環境内の1つ以上の特徴が、頭部搭載型ディスプレイに対して、移動した、移動中である、または移動することが予期されること、および(ii)環境内の1つ以上の仮想画像コンテンツ場所が、(i)視認ゾーンを越え、かつ(ii)近距離動眼視野領域を越える、遠距離動眼視野内の場所を含むことの決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例17)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量はさらに、(iii)環境内の1つ以上の仮想画像コンテンツ場所が、近距離動眼視野内の場所を含まないことの決定に基づいて低減される、実施例16に記載のシステム。
(実施例18)
視認ゾーンは、カメラの視野を含む、上記実施例のいずれかに記載のシステム。
(実施例19)
カメラの視野は、約45o~135oである、実施例18に記載のシステム。
(実施例20)
視認ゾーンは、カメラの視野に対応し、該1つ以上の仮想画像コンテンツ場所と視認ゾーンを比較するステップは、環境内の1つ以上の仮想画像コンテンツ場所が、カメラの視野内にあるかどうかを決定するステップを含む、実施例18または19のいずれかに記載のシステム。
(実施例21)
第2のフレームレートは、第1のフレームレートより低い、上記実施例のいずれかに記載のシステム。
(実施例22)
第1のフレームレートは、約30fps~60fpsである、上記実施例のいずれかに記載のシステム。
(実施例23)
第2のフレームレートは、約5fps~20fpsである、上記実施例のいずれかに記載のシステム。
(実施例24)
システムは、(i)該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定、および(ii)該1つ以上の仮想画像コンテンツ場所と該視認ゾーンの比較に基づいて、カメラの第2のフレームレートを設定するように構成される、上記実施例のいずれかに記載のシステム。
(実施例25)
システムは、(i)該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定、および(ii)該1つ以上の仮想画像コンテンツ場所と該視認ゾーンの比較に基づいて、カメラによって取得されたフレーム上の処理の量を低減させるように構成される、上記実施例のいずれかに記載のシステム。
(実施例26)
システムは、(i)該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定、および(ii)該1つ以上の仮想画像コンテンツ場所と該視認ゾーンの比較に基づいて、カメラによって取得されたより少ないフレームからのデータを処理するように構成される、上記実施例のいずれかに記載のシステム。
(実施例27)
システムはさらに、システムの運動についての情報をあるサンプリングレートで受信する、運動センサを備える、上記実施例のいずれかに記載のシステム。
(実施例28)
システムは、(i)頭部搭載型ディスプレイが、移動したか、移動中であるか、または移動することが予期されるかの決定、および(ii)該1つ以上の仮想画像コンテンツ場所と該視認ゾーンの比較に基づいて、該カメラのフレームレートを低減させるが、運動センサのサンプリングレートを維持するように構成される、実施例27に記載のシステム。
(実施例29)
運動センサのサンプリングレートは、該カメラのフレームレートの低減後、カメラのフレームレートより高速である、実施例27に記載のシステム。
(実施例30)
運動センサは、慣性センサまたは加速度計を備える、実施例27-29のいずれかに記載のシステム。
(実施例31)
該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定は、環境内の1つ以上の特徴が、頭部搭載型ディスプレイに対して、移動した、移動中である、または移動することが予期されることを決定するステップを含む、上記実施例のいずれかに記載のシステム。
(実施例32)
該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定は、カメラを使用して、環境の1つ以上の特徴を検出するステップを含む、上記実施例のいずれかに記載のシステム。
(実施例33)
環境の1つ以上の特徴は、環境内のオブジェクトの縁または角のうちの少なくとも1つを含む、実施例32に記載のシステム。
(実施例34)
カメラを使用して、環境の1つ以上の特徴を検出するステップは、Kalmanフィルタ、Sobolアルゴリズム、またはHarrisアルゴリズムのうちの少なくとも1つを使用するステップを含む、実施例32または33に記載のシステム。
(実施例35)
少なくとも1つの第2のカメラを備える、上記実施例のいずれかに記載のシステム。
(実施例36)
該カメラおよび該第2のカメラは、環境の非同一部分を検出するように構成される、実施例35に記載のシステム。
(実施例37)
カメラは、環境の第1の部分を検出するように構成され、第2のカメラは、環境の第2の部分を検出するように構成され、環境の第1の部分は、環境の第2の部分と部分的に重複する、実施例35または36に記載のシステム。
(実施例38)
該カメラおよび該第2のカメラは、ユーザの左眼に対応する、該フレームの左側上に配置される、実施例35-37のいずれかに記載のシステム。
(実施例39)
該カメラおよび該第2のカメラは、ユーザの右眼に対応する、該フレームの右側上に配置される、実施例35-37のいずれかに記載のシステム。
(実施例40)
(i)該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定、および(ii)仮想画像コンテンツ場所と該視認ゾーンの比較に基づいて、複数のカメラのうちの第2のカメラのフレームレートおよび/または第2のカメラによって取得されたフレーム上の処理の量を減少させるステップをさらに含む、実施例35-39のいずれかに記載のシステム。
(実施例41)
第2のカメラのフレームレートおよび/または第2のカメラによって取得されたフレーム上の処理の量は、(i)頭部搭載型ディスプレイが、環境内の1つ以上の特徴に対して、移動した、移動中である、または移動することが予期されること、または環境内の1つ以上の特徴が、頭部搭載型ディスプレイに対して、移動した、移動中である、または移動することが予期されること、および(ii)環境内の1つ以上の仮想画像コンテンツ場所が、視認ゾーン内の場所を含むことの決定に基づいて低減される、実施例35-40のいずれかに記載のシステム。
(実施例42)
第2のカメラのフレームレートおよび/または第2のカメラによって取得されたフレーム上の処理の量はさらに、(iii)環境内の1つ以上の仮想画像コンテンツ場所が、近距離動眼視野内を含まないことの決定に基づいて低減される、実施例41に記載のシステム。
(実施例43)
第2のカメラのフレームレートおよび/または第2のカメラによって取得されたフレーム上の処理の量は、環境内の1つ以上の仮想画像コンテンツ場所が、近距離動眼視野領域内の場所を含む場合、低減されない、実施例35-40のいずれかに記載のシステム。
(実施例44)
第2のカメラのフレームレートおよび/または第2のカメラによって取得されたフレーム上の処理の量は、(i)頭部搭載型ディスプレイが、環境内の1つ以上の特徴に対して、移動した、移動中である、または移動することが予期されること、または環境内の1つ以上の特徴が、頭部搭載型ディスプレイに対して、移動した、移動中である、または移動することが予期されること、および(ii)環境内の1つ以上の仮想画像コンテンツ場所が、(i)視認ゾーンを越え、(ii)近距離動眼視野領域を越える、遠距離動眼視野領域内の場所を含むことの決定に基づいて低減される、実施例35-40のいずれかに記載のシステム。
(実施例45)
第2のカメラのフレームレートおよび/または第2のカメラによって取得されたフレーム上の処理の量はさらに、(iii)環境内の1つ以上の仮想画像コンテンツ場所が、近距離動眼視野内の場所を含まないことの決定に基づいて低減される、実施例44に記載のシステム。
(実施例46)
該カメラは、該第2のカメラよりこめかみ側寄りである、実施例35-39のいずれかに記載のシステム。
(実施例47)
該カメラは、該第2のカメラより鼻側寄りである、実施例35-39のいずれかに記載のシステム。
(実施例48)
該カメラのフレームレートは、(i)該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定、および(ii)環境内の1つ以上の仮想画像コンテンツ場所と視認ゾーンの比較に基づいて、第2のカメラのフレームレートより低く設定される、実施例46または47に記載のシステム。
(実施例49)
該カメラ上の処理の量は、(i)該頭部搭載型ディスプレイと該環境内の1つ以上の特徴との間の相対的運動の該査定、および(ii)環境内の1つ以上の仮想画像コンテンツ場所と視認ゾーンの比較に基づいて、第2のカメラによって取得されたフレーム上の処理の量より低く設定される、実施例46または48のいずれかに記載のシステム。
(実施例50)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、(i)頭部搭載型ディスプレイが、環境内の1つ以上の特徴に対して、移動した、移動中である、または移動することが予期されること、または環境内の1つ以上の特徴が、頭部搭載型ディスプレイに対して、移動した、移動中である、または移動することが予期されること、および(ii)環境内の1つ以上の仮想画像コンテンツ場所が、視認ゾーン外の場所を含まないことの決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例51)
第2のカメラのフレームレートおよび/または第2のカメラによって取得されたフレーム上の処理の量は、(i)頭部搭載型ディスプレイが、環境内の1つ以上の特徴に対して、移動した、移動中である、または移動することが予期されること、または環境内の1つ以上の特徴が、頭部搭載型ディスプレイに対して、移動した、移動中である、または移動することが予期されること、および(ii)環境内の1つ以上の仮想画像コンテンツ場所が、視認ゾーン外の場所を含まないことの決定に基づいて低減される、実施例35-40のいずれかに記載のシステム。
(実施例52)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、環境内の1つ以上の特徴に対する頭部搭載型ディスプレイの限定された移動または予期される移動、または頭部搭載型ディスプレイに対する環境内の1つ以上の特徴の限定された移動または予期される移動の決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例53)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、頭部搭載型ディスプレイの運動または予期される運動が閾値を超えないことの決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例54)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、該環境内の1つ以上の特徴の運動または予期される運動が閾値を超えないことの決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例55)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、頭部搭載型ディスプレイの運動または予期される運動がある持続時間にわたって閾値を超えないことの決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例56)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、該環境内の1つ以上の特徴の運動または予期される運動がある持続時間にわたって閾値を超えないことの決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例57)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、(i)環境内の1つ以上の特徴に対する頭部搭載型ディスプレイの限定された移動または限定された予期される移動、または頭部搭載型ディスプレイに対する環境内の1つ以上の特徴の限定された移動または限定された予期される移動、および(ii)環境内の1つ以上の仮想画像コンテンツ場所が、視認ゾーン内の場所を含むことの決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例58)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、(i)環境内の1つ以上の特徴に対する頭部搭載型ディスプレイの限定された移動または限定された予期される移動、または頭部搭載型ディスプレイに対する環境内の1つ以上の特徴の限定された移動または限定された予期される移動、および(ii)環境内の1つ以上の仮想画像コンテンツ場所が、(a)視認ゾーンを越え、かつ(b)近距離動眼視野領域を越える、遠距離動眼視野領域内の場所を含むことの決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例59)
第2のカメラのフレームレートおよび/または第2のカメラによって取得されたフレーム上の処理の量は、(i)環境内の1つ以上の特徴に対する頭部搭載型ディスプレイの限定された移動または限定された予期される移動、または頭部搭載型ディスプレイに対する環境内の1つ以上の特徴の限定された移動または限定された予期される移動、および(ii)環境内の1つ以上の仮想画像コンテンツ場所が、視認ゾーン内の場所を含むことの決定に基づいて低減される、実施例35-40のいずれかに記載のシステム。
(実施例60)
第2のカメラのフレームレートおよび/または第2のカメラによって取得されたフレーム上の処理の量は、(i)環境内の1つ以上の特徴に対する頭部搭載型ディスプレイの限定された移動または限定された予期される移動、または頭部搭載型ディスプレイに対する環境内の1つ以上の特徴の限定された移動または限定された予期される移動、および(ii)環境内の1つ以上の仮想画像コンテンツ場所が、(a)視認ゾーンを越え、かつ(b)近距離動眼視野領域を越える、遠距離動眼視野領域内の場所を含むことの決定に基づいて低減される、実施例35-40のいずれかに記載のシステム。
(実施例61)
カメラのフレームレートおよび/またはカメラによって取得されたフレーム上の処理の量は、(i)環境内の1つ以上の特徴に対する頭部搭載型ディスプレイの限定された移動または限定された予期される移動、または頭部搭載型ディスプレイに対する環境内の1つ以上の特徴の限定された移動または限定された予期される移動、および(ii)環境内の1つ以上の仮想画像コンテンツ場所が、視認ゾーン外の場所を含まないことの決定に基づいて低減される、上記実施例のいずれかに記載のシステム。
(実施例62)
第2のカメラのフレームレートおよび/または第2のカメラによって取得されたフレーム上の処理の量は、(i)環境内の1つ以上の特徴に対する頭部搭載型ディスプレイの限定された移動または限定された予期される移動、または頭部搭載型ディスプレイに対する環境内の1つ以上の特徴の限定された移動または限定された予期される移動、および(ii)環境内の1つ以上の仮想画像コンテンツ場所が、視認ゾーン外の場所を含まないことの決定に基づいて低減される、実施例35-40のいずれかに記載のシステム。
(実施例63)
カメラからのフレームの処理の量を低減させるステップは、処理されるカメラによって捕捉されたフレームの数を低減させるステップを含む、上記の実施例のいずれかに記載のシステム。
(実施例64)
カメラからのフレームの処理の量を低減させるステップは、カメラによって捕捉されたフレームの第2の部分未満のカメラによって捕捉されたフレームの第1の部分を処理するステップを含む、上記の実施例のいずれかに記載のシステム。
本明細書に説明される実施例のいずれかでは、カメラのフレームレートは、カメラおよび/または頭部搭載型ディスプレイをオフにすることなく、低減され、および/またはフレームレートをゼロに低減させることができる。同様に、処理されるカメラによって取得されたフレーム上の処理の量は、カメラおよび/またはフレームの処理を実施する処理電子機器をオフにすることなく、および/または頭部搭載型ディスプレイをオフにすることなく、低減されることができる。同様に、処理されるカメラによって捕捉されたフレームの数は、カメラおよび/またはフレームの処理を実施する処理電子機器をオフにすることなく、および/または頭部搭載型ディスプレイをオフにすることなく、低減されることができる。
Claims (21)
- 頭部搭載型ディスプレイシステムであって、
ユーザの頭部上に支持されるように構成されるフレームと、
前記フレーム上に配置されるディスプレイであって、前記ディスプレイは、仮想画像と関連付けられる光を前記ユーザの眼の中に投影し、仮想画像コンテンツを前記ユーザに表示するように構成され、環境からの光を前記ユーザの眼に透過させ、前記環境の一部のビューを前記ユーザに提供するようにさらに構成される、ディスプレイと、
前記環境の画像をあるフレームレートで取得するように構成されるカメラであって、前記カメラは、ある視野および第1のフレームレートを有する、カメラと、
前記カメラによって取得されたフレームを受信および処理するように構成される処理電子機器であって、前記フレームを処理することは、
前記頭部搭載型ディスプレイと前記環境内の1つ以上の特徴との間の相対的運動を査定することであって、前記相対的運動の査定は、前記頭部搭載型ディスプレイが、前記環境内の1つ以上の特徴に対して、移動したか、移動中であるか、または移動することが予期されるかを決定すること、および/または前記環境内の1つ以上の特徴が、前記頭部搭載型ディスプレイに対して、移動したか、移動中であるか、または移動することが予期されるかを決定することを含む、ことと、
前記環境内の1つ以上の仮想画像コンテンツ場所を決定することであって、前記環境内の前記1つ以上の仮想画像コンテンツ場所は、場所に対応し、前記場所は、前記ディスプレイによって提供される前記環境の前記一部のビュー内に前記場所があるときにレンダリング可能仮想画像コンテンツが前記ユーザに表示される場所である、ことと、
前記環境内の前記1つ以上の仮想画像コンテンツ場所と、前記カメラの前記視野の少なくとも一部を含む視認ゾーンとを比較することと、
(i)前記頭部搭載型ディスプレイと前記環境内の1つ以上の特徴との間の相対的運動の前記査定と、(ii)前記環境内の前記1つ以上の仮想画像コンテンツ場所と前記視認ゾーンとの前記比較とに基づいて、前記カメラのフレームレートを第1のフレームレートから第2のフレームレートに改変すること、および/または処理される前記カメラによって取得された前記フレーム上の処理の量を調節することと
を含む、処理電子機器と
を備える、システム。 - 前記処理電子機器と通信する運動センサをさらに備え、前記運動センサは、前記相対的運動の査定のための測定を実施するように構成される、請求項1に記載のシステム。
- 前記運動センサは、慣性測定ユニット(IMU)を備える、請求項2に記載のシステム。
- 前記相対的運動の査定は、前記頭部搭載型ディスプレイの角度または線形加速の測定に少なくとも部分的に基づく、請求項1~3のいずれかに記載のシステム。
- 前記相対的運動の査定は、前記頭部搭載型ディスプレイの角度または線形速度の測定に少なくとも部分的に基づく、請求項1~4のいずれかに記載のシステム。
- 前記相対的運動の査定は、前記環境内の前記1つ以上の特徴の角度または線形加速の測定に少なくとも部分的に基づく、請求項1~5のいずれかに記載のシステム。
- 前記相対的運動の査定は、前記環境内の前記1つ以上の特徴の角度または線形速度の測定に少なくとも部分的に基づく、請求項1~6のいずれかに記載のシステム。
- 前記相対的運動の査定は、前記頭部搭載型ディスプレイの運動または予期される運動が閾値を超えることを決定することを含む、請求項1~7のいずれかに記載のシステム。
- 前記相対的運動の査定は、前記環境内の前記1つ以上の特徴の運動または予期される運動が閾値を超えることを決定することを含む、請求項1~8のいずれかに記載のシステム。
- 前記第2のフレームレートは、前記カメラが、前記相対的運動の査定に基づいて、低減されたフレームレートで動作するように構成されるように、前記第1のフレームレートより低い、請求項1~9のいずれかに記載のシステム。
- 前記カメラのフレームレートおよび/または前記カメラによって取得された前記フレーム上の処理の量は、(i)前記頭部搭載型ディスプレイが、前記環境内の1つ以上の特徴に対して、移動した、移動中である、または移動することが予期されること、または前記環境内の前記1つ以上の特徴が、前記頭部搭載型ディスプレイに対して、移動した、移動中である、または移動することが予期されること、および(ii)前記環境内の前記1つ以上の仮想画像コンテンツ場所が、前記視認ゾーン内の場所を含むことの決定に基づいて低減される、請求項1~10のいずれかに記載のシステム。
- 前記カメラのフレームレートおよび/または前記カメラによって取得された前記フレーム上の処理の量は、(iii)前記環境内の1つ以上の仮想画像コンテンツ場所が、近距離動眼視野内の場所を含まないことの決定にさらに基づいて低減される、請求項11に記載のシステム。
- 前記カメラのフレームレートおよび/または前記カメラによって取得された前記フレーム上の処理の量は、前記環境内の前記1つ以上の仮想画像コンテンツ場所が、近距離動眼視野領域内の場所を含む場合、低減されない、請求項1~12のいずれかに記載のシステム。
- 前記カメラのフレームレートおよび/または前記カメラによって取得された前記フレーム上の処理の量は、(i)前記頭部搭載型ディスプレイが、前記環境内の1つ以上の特徴に対して、移動したか、移動中であるか、または移動することが予期されるか、または前記環境内の前記1つ以上の特徴が、前記頭部搭載型ディスプレイに対して、移動したか、移動中であるか、または移動することが予期されるか、および(ii)前記環境内の前記1つ以上の仮想画像コンテンツ場所が、(i)前記視認ゾーンを越え、かつ(ii)近距離動眼視野領域を越える遠距離動眼視野内の場所を含むことの決定に基づいて低減される、請求項1~13のいずれかに記載のシステム。
- 前記カメラのフレームレートおよび/または前記カメラによって取得された前記フレーム上の処理の量は、(iii)前記環境内の前記1つ以上の仮想画像コンテンツ場所が、近距離動眼視野内の場所を含まないことの決定にさらに基づいて低減される、請求項14に記載のシステム。
- 前記第2のフレームレートは、前記第1のフレームレートより低い、請求項1~15のいずれかに記載のシステム。
- 前記システムは、(i)前記頭部搭載型ディスプレイと前記環境内の1つ以上の特徴との間の相対的運動の前記査定と、(ii)前記1つ以上の仮想画像コンテンツ場所と前記視認ゾーンとの前記比較とに基づいて、前記カメラによって取得されたより少ないフレームからのデータを処理するように構成される、請求項1~16のいずれかに記載のシステム。
- 前記カメラのフレームレートおよび/または前記カメラによって取得された前記フレーム上の処理の量は、(i)前記頭部搭載型ディスプレイが、前記環境内の1つ以上の特徴に対して、移動したか、移動中であるか、または移動することが予期されるか、または前記環境内の前記1つ以上の特徴が、前記頭部搭載型ディスプレイに対して、移動したか、移動中であるか、または移動することが予期されるか、および(ii)前記環境内の前記1つ以上の仮想画像コンテンツ場所が、前記視認ゾーン外の場所を含まないことの決定に基づいて低減される、請求項1~17のいずれかに記載のシステム。
- 前記カメラのフレームレートおよび/または前記カメラによって取得された前記フレーム上の処理の量は、前記環境内の1つ以上の特徴に対する前記頭部搭載型ディスプレイの限定された移動または予期される移動、または前記頭部搭載型ディスプレイに対する前記環境内の1つ以上の特徴の限定された移動または予期される移動の決定に基づいて低減される、請求項1~18のいずれかに記載のシステム。
- 前記カメラのフレームレートおよび/または前記カメラによって取得された前記フレーム上の処理の量は、前記頭部搭載型ディスプレイの運動または予期される運動が閾値を超えないことの決定に基づいて低減される、請求項1~19のいずれかに記載のシステム。
- 前記カメラからの前記フレーム上の処理の量を低減させることは、処理される前記カメラによって捕捉されたフレームの数を低減させることを含む、請求項1~20のいずれかに記載のシステム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862686644P | 2018-06-18 | 2018-06-18 | |
US62/686,644 | 2018-06-18 | ||
US201862702817P | 2018-07-24 | 2018-07-24 | |
US62/702,817 | 2018-07-24 | ||
PCT/US2019/037773 WO2019246129A2 (en) | 2018-06-18 | 2019-06-18 | Augmented reality display with frame modulation functionality |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021527998A JP2021527998A (ja) | 2021-10-14 |
JPWO2019246129A5 JPWO2019246129A5 (ja) | 2022-06-27 |
JP7378431B2 true JP7378431B2 (ja) | 2023-11-13 |
Family
ID=68838824
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020570198A Active JP7378431B2 (ja) | 2018-06-18 | 2019-06-18 | フレーム変調機能性を伴う拡張現実ディスプレイ |
Country Status (5)
Country | Link |
---|---|
US (2) | US10986270B2 (ja) |
EP (1) | EP3807710B1 (ja) |
JP (1) | JP7378431B2 (ja) |
CN (1) | CN112567287A (ja) |
WO (1) | WO2019246129A2 (ja) |
Families Citing this family (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019246044A1 (en) | 2018-06-18 | 2019-12-26 | Magic Leap, Inc. | Head-mounted display systems with power saving functionality |
WO2019246129A2 (en) | 2018-06-18 | 2019-12-26 | Magic Leap, Inc. | Augmented reality display with frame modulation functionality |
US10867164B2 (en) * | 2018-06-29 | 2020-12-15 | Intel Corporation | Methods and apparatus for real-time interactive anamorphosis projection via face detection and tracking |
GB2575509A (en) | 2018-07-13 | 2020-01-15 | Nokia Technologies Oy | Spatial audio capture, transmission and reproduction |
US10937191B2 (en) * | 2018-10-23 | 2021-03-02 | Dell Products, Lp | Predictive simultaneous localization and mapping system using prior user session positional information |
CN109756723B (zh) * | 2018-12-14 | 2021-06-11 | 深圳前海达闼云端智能科技有限公司 | 获取影像的方法和装置,存储介质和电子设备 |
US11315354B2 (en) * | 2018-12-24 | 2022-04-26 | Samsung Electronics Co., Ltd. | Method and apparatus that controls augmented reality (AR) apparatus based on action prediction |
DE102019135676A1 (de) * | 2018-12-26 | 2020-07-02 | Htc Corporation | Objektverfolgungssystem und objektverfolgungsverfahren |
US12003846B2 (en) * | 2019-02-12 | 2024-06-04 | Telefonaktiebolaget Lm Ericsson (Publ) | Method, computer program, and devices for image acquisition |
US11070778B2 (en) * | 2019-02-14 | 2021-07-20 | Facebook Technologies, Llc | Multi-projector display architecture |
CN110287764B (zh) * | 2019-05-06 | 2022-01-11 | 深圳大学 | 姿势预测方法、装置、计算机设备和存储介质 |
US11265487B2 (en) | 2019-06-05 | 2022-03-01 | Mediatek Inc. | Camera view synthesis on head-mounted display for virtual reality and augmented reality |
FR3098605B1 (fr) * | 2019-07-10 | 2021-07-23 | Photonis France | Appareil de vision nocturne de type numerique avec vitesse d’acquisition d’image ajustable. |
US10916062B1 (en) * | 2019-07-15 | 2021-02-09 | Google Llc | 6-DoF tracking using visual cues |
US11048091B1 (en) * | 2019-09-13 | 2021-06-29 | Facebook Technologies, Llc | Wide-field image light and inset image light for head mounted displays |
US11023041B1 (en) * | 2019-11-07 | 2021-06-01 | Varjo Technologies Oy | System and method for producing images based on gaze direction and field of view |
US11381791B2 (en) * | 2019-12-04 | 2022-07-05 | Magic Leap, Inc. | Variable-pitch color emitting display |
US11687778B2 (en) | 2020-01-06 | 2023-06-27 | The Research Foundation For The State University Of New York | Fakecatcher: detection of synthetic portrait videos using biological signals |
JP2021168436A (ja) * | 2020-04-09 | 2021-10-21 | キヤノン株式会社 | 撮像装置及びその制御方法、プログラム、記憶媒体 |
CN115515491A (zh) * | 2020-04-20 | 2022-12-23 | 奇跃公司 | 使用基于图像运动度量的表情预测 |
US11763779B1 (en) | 2020-04-23 | 2023-09-19 | Apple Inc. | Head-mounted display systems with alignment monitoring |
JP6935545B1 (ja) * | 2020-06-18 | 2021-09-15 | 三菱電機ビルテクノサービス株式会社 | 人物追跡支援装置および人物追跡支援システム |
US11436742B2 (en) | 2020-07-22 | 2022-09-06 | Microsoft Technology Licensing, Llc | Systems and methods for reducing a search area for identifying correspondences between images |
CN111914730B (zh) * | 2020-07-28 | 2023-11-24 | 上海工程技术大学 | 一种基于联合时空采样的无监督视频序列行人再识别方法 |
US11321838B2 (en) * | 2020-08-31 | 2022-05-03 | Facebook Technologies, Llc. | Distributed sensor module for eye-tracking |
US11385992B2 (en) * | 2020-09-17 | 2022-07-12 | International Business Machines Corporation | Wearable device test case execution |
EP4226237A1 (en) * | 2020-09-25 | 2023-08-16 | Apple Inc. | Structured display shutdown for video pass-through electronic devices |
WO2022072097A1 (en) * | 2020-09-30 | 2022-04-07 | Snap Inc. | Multi-purpose cameras for augmented reality and computer vision applications |
CN112527102B (zh) * | 2020-11-16 | 2022-11-08 | 青岛小鸟看看科技有限公司 | 头戴式一体机系统及其6DoF追踪方法和装置 |
US20220236782A1 (en) * | 2021-01-28 | 2022-07-28 | Dell Products, Lp | System and method for intelligent multi-application and power management for multimedia collaboration applications |
US11221493B1 (en) * | 2021-02-03 | 2022-01-11 | Jamaul Baker | Virtual reality body suit assembly |
US12008157B2 (en) * | 2021-03-01 | 2024-06-11 | Qualcomm Incorporated | Movement detection of a head mounted device |
WO2022212916A1 (en) * | 2021-04-01 | 2022-10-06 | Giant.Ai, Inc. | Hybrid computing architectures with specialized processors to encode/decode latent representations for controlling dynamic mechanical systems |
US20220319014A1 (en) * | 2021-04-05 | 2022-10-06 | Facebook Technologies, Llc | Systems and methods for dynamic image processing and segmentation |
US11490338B1 (en) * | 2021-05-25 | 2022-11-01 | Microsoft Technology Licensing, Llc | Motion-responsive transmission power management |
JP2023028300A (ja) * | 2021-08-19 | 2023-03-03 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
US11889200B2 (en) * | 2021-12-07 | 2024-01-30 | Thales Defense & Security, Inc. | Methods and systems for generating a high-rate video for a camera in motion |
US20230222625A1 (en) * | 2022-01-12 | 2023-07-13 | Htc Corporation | Method for adjusting virtual object, host, and computer readable storage medium |
US11720168B1 (en) | 2022-05-25 | 2023-08-08 | Microsoft Technology Licensing, Llc | Inferred body movement using wearable RF antennas |
US11775057B1 (en) | 2022-05-25 | 2023-10-03 | Microsoft Technology Licensing, Llc | Head-mounted display operation based on face tracking |
WO2024043438A1 (ko) * | 2022-08-24 | 2024-02-29 | 삼성전자주식회사 | 카메라 모듈을 제어하는 웨어러블 전자 장치 및 그 동작 방법 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120062445A1 (en) | 2010-02-28 | 2012-03-15 | Osterhout Group, Inc. | Adjustable wrap around extendable arm for a head-mounted display |
US20130293447A1 (en) | 2012-05-04 | 2013-11-07 | Sony Computer Entertainment Europe Limited | Head-mountable display system |
US20130335301A1 (en) | 2011-10-07 | 2013-12-19 | Google Inc. | Wearable Computer with Nearby Object Response |
US20150277121A1 (en) | 2014-03-29 | 2015-10-01 | Ron Fridental | Method and apparatus for displaying video data |
US20160270656A1 (en) | 2015-03-16 | 2016-09-22 | Magic Leap, Inc. | Methods and systems for diagnosing and treating health ailments |
JP2017102946A (ja) | 2011-10-28 | 2017-06-08 | マジック リープ, インコーポレイテッド | 拡張現実および仮想現実のためのシステムおよび方法 |
WO2017153772A1 (en) | 2016-03-11 | 2017-09-14 | Sony Interactive Entertainment Europe Limited | Virtual reality |
US20180005034A1 (en) | 2016-06-30 | 2018-01-04 | Magic Leap, Inc. | Estimating pose in 3d space |
WO2018104732A1 (en) | 2016-12-09 | 2018-06-14 | Sony Interactive Entertainment Inc. | Head mounted display with user head rotation guidance |
Family Cites Families (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6222525B1 (en) | 1992-03-05 | 2001-04-24 | Brad A. Armstrong | Image controllers with sheet connected sensors |
US5670988A (en) | 1995-09-05 | 1997-09-23 | Interlink Electronics, Inc. | Trigger operated electronic device |
USD514570S1 (en) | 2004-06-24 | 2006-02-07 | Microsoft Corporation | Region of a fingerprint scanning device with an illuminated ring |
US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
US8696113B2 (en) | 2005-10-07 | 2014-04-15 | Percept Technologies Inc. | Enhanced optical and perceptual digital eyewear |
US11428937B2 (en) | 2005-10-07 | 2022-08-30 | Percept Technologies | Enhanced optical and perceptual digital eyewear |
EP2175640A1 (en) * | 2007-08-09 | 2010-04-14 | Panasonic Corporation | Recorder |
US9304319B2 (en) | 2010-11-18 | 2016-04-05 | Microsoft Technology Licensing, Llc | Automatic focus improvement for augmented reality displays |
US10156722B2 (en) | 2010-12-24 | 2018-12-18 | Magic Leap, Inc. | Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality |
WO2012088478A1 (en) | 2010-12-24 | 2012-06-28 | Chunyu Gao | An ergonomic head mounted display device and optical system |
RU2621644C2 (ru) | 2011-05-06 | 2017-06-06 | Мэджик Лип, Инк. | Мир массового одновременного удаленного цифрового присутствия |
WO2013049861A1 (en) | 2011-09-29 | 2013-04-04 | Magic Leap, Inc. | Tactile glove for human-computer interaction |
EP3608717B1 (en) | 2012-04-05 | 2023-09-27 | Magic Leap, Inc. | Wide-field of view (fov) imaging devices with active foveation capability |
US9979884B2 (en) * | 2012-06-11 | 2018-05-22 | Sony Interactive Entertainment Inc. | Image capturing device, and image capturing method |
US9671566B2 (en) | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
JP2015534108A (ja) | 2012-09-11 | 2015-11-26 | マジック リープ, インコーポレイテッド | 人間工学的な頭部搭載型ディスプレイデバイスおよび光学システム |
WO2014113506A1 (en) | 2013-01-15 | 2014-07-24 | Magic Leap, Inc. | Ultra-high resolution scanning fiber display |
IL308285B1 (en) | 2013-03-11 | 2024-07-01 | Magic Leap Inc | System and method for augmentation and virtual reality |
CN108628446B (zh) * | 2013-03-15 | 2021-10-26 | 奇跃公司 | 显示系统和方法 |
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
US9874749B2 (en) | 2013-11-27 | 2018-01-23 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
CA2927818C (en) | 2013-10-16 | 2021-11-30 | Magic Leap, Inc. | Virtual or augmented reality headsets having adjustable interpupillary distance |
US9857591B2 (en) | 2014-05-30 | 2018-01-02 | Magic Leap, Inc. | Methods and system for creating focal planes in virtual and augmented reality |
CN105934902B (zh) | 2013-11-27 | 2018-11-23 | 奇跃公司 | 虚拟和增强现实系统与方法 |
CA2938264C (en) | 2014-01-31 | 2020-09-22 | Magic Leap, Inc. | Multi-focal display system and method |
JP2015163947A (ja) | 2014-02-03 | 2015-09-10 | キヤノン株式会社 | 光源光学系およびこれを用いた光源装置、画像表示装置 |
US10203762B2 (en) * | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
EP3140780B1 (en) | 2014-05-09 | 2020-11-04 | Google LLC | Systems and methods for discerning eye signals and continuous biometric identification |
USD759657S1 (en) | 2014-05-19 | 2016-06-21 | Microsoft Corporation | Connector with illumination region |
EP3149539A4 (en) | 2014-05-30 | 2018-02-07 | Magic Leap, Inc. | Methods and systems for generating virtual content display with a virtual or augmented reality apparatus |
USD752529S1 (en) | 2014-06-09 | 2016-03-29 | Comcast Cable Communications, Llc | Electronic housing with illuminated region |
GB2533788A (en) * | 2014-12-30 | 2016-07-06 | Nokia Technologies Oy | Method for determining the position of a portable device |
NZ752336A (en) * | 2015-08-18 | 2023-06-30 | Magic Leap Inc | Virtual and augmented reality systems and methods |
US10306187B2 (en) * | 2015-10-16 | 2019-05-28 | Vivint, Inc. | Adjustable movement detection doorbell |
US10638047B2 (en) * | 2015-12-16 | 2020-04-28 | Gopro, Inc. | Dynamic synchronization of frame rate to a detected cadence in a time lapse image sequence |
USD805734S1 (en) | 2016-03-04 | 2017-12-26 | Nike, Inc. | Shirt |
USD794288S1 (en) | 2016-03-11 | 2017-08-15 | Nike, Inc. | Shoe with illuminable sole light sequence |
US10212428B2 (en) * | 2017-01-11 | 2019-02-19 | Microsoft Technology Licensing, Llc | Reprojecting holographic video to enhance streaming bandwidth/quality |
US10187607B1 (en) * | 2017-04-04 | 2019-01-22 | Gopro, Inc. | Systems and methods for using a variable capture frame rate for video capture |
US10769438B2 (en) * | 2017-05-23 | 2020-09-08 | Samsung Electronics Company, Ltd. | Augmented reality |
GB201709199D0 (en) * | 2017-06-09 | 2017-07-26 | Delamont Dean Lindsay | IR mixed reality and augmented reality gaming system |
US10338400B2 (en) * | 2017-07-03 | 2019-07-02 | Holovisions LLC | Augmented reality eyewear with VAPE or wear technology |
US10726627B2 (en) * | 2017-07-25 | 2020-07-28 | Facebook Technologies, Llc | Sensor system based on stacked sensor layers |
WO2019079790A1 (en) * | 2017-10-21 | 2019-04-25 | Eyecam, Inc | ADAPTIVE GRAPHIC USER INTERFACE SYSTEM |
WO2019246129A2 (en) | 2018-06-18 | 2019-12-26 | Magic Leap, Inc. | Augmented reality display with frame modulation functionality |
-
2019
- 2019-06-18 WO PCT/US2019/037773 patent/WO2019246129A2/en unknown
- 2019-06-18 CN CN201980053296.4A patent/CN112567287A/zh active Pending
- 2019-06-18 JP JP2020570198A patent/JP7378431B2/ja active Active
- 2019-06-18 EP EP19822291.1A patent/EP3807710B1/en active Active
- 2019-06-18 US US16/445,060 patent/US10986270B2/en active Active
-
2021
- 2021-04-20 US US17/235,820 patent/US20210385379A1/en active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120062445A1 (en) | 2010-02-28 | 2012-03-15 | Osterhout Group, Inc. | Adjustable wrap around extendable arm for a head-mounted display |
US20130335301A1 (en) | 2011-10-07 | 2013-12-19 | Google Inc. | Wearable Computer with Nearby Object Response |
JP2017102946A (ja) | 2011-10-28 | 2017-06-08 | マジック リープ, インコーポレイテッド | 拡張現実および仮想現実のためのシステムおよび方法 |
US20130293447A1 (en) | 2012-05-04 | 2013-11-07 | Sony Computer Entertainment Europe Limited | Head-mountable display system |
US20150277121A1 (en) | 2014-03-29 | 2015-10-01 | Ron Fridental | Method and apparatus for displaying video data |
US20160270656A1 (en) | 2015-03-16 | 2016-09-22 | Magic Leap, Inc. | Methods and systems for diagnosing and treating health ailments |
WO2017153772A1 (en) | 2016-03-11 | 2017-09-14 | Sony Interactive Entertainment Europe Limited | Virtual reality |
US20180005034A1 (en) | 2016-06-30 | 2018-01-04 | Magic Leap, Inc. | Estimating pose in 3d space |
WO2018104732A1 (en) | 2016-12-09 | 2018-06-14 | Sony Interactive Entertainment Inc. | Head mounted display with user head rotation guidance |
Also Published As
Publication number | Publication date |
---|---|
EP3807710A2 (en) | 2021-04-21 |
WO2019246129A3 (en) | 2020-08-13 |
WO2019246129A2 (en) | 2019-12-26 |
US10986270B2 (en) | 2021-04-20 |
CN112567287A (zh) | 2021-03-26 |
EP3807710A4 (en) | 2022-03-09 |
EP3807710B1 (en) | 2024-01-17 |
US20210385379A1 (en) | 2021-12-09 |
JP2021527998A (ja) | 2021-10-14 |
US20190387168A1 (en) | 2019-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7378431B2 (ja) | フレーム変調機能性を伴う拡張現実ディスプレイ | |
JP7529710B2 (ja) | 複合現実較正のための眼球周囲試験 | |
JP7186844B2 (ja) | ウェアラブルデバイスによる顔モデル捕捉 | |
JP7502292B2 (ja) | アバタ移動のためのマルチモードの手の場所および配向 | |
US11906732B2 (en) | Head-mounted display systems with power saving functionality | |
CN112106066A (zh) | 根据眼睛跟踪相机的面部表情 | |
US20230281988A1 (en) | Systems and methods for temporarily disabling user control interfaces during attachment of an electronic device | |
US20240027794A1 (en) | Virtual object movement speed curve for virtual and augmented reality display systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220617 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220617 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230424 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230721 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230925 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231003 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231031 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7378431 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |