CN107003733A - 用于共享增强现实呈现的技术 - Google Patents
用于共享增强现实呈现的技术 Download PDFInfo
- Publication number
- CN107003733A CN107003733A CN201580064724.5A CN201580064724A CN107003733A CN 107003733 A CN107003733 A CN 107003733A CN 201580064724 A CN201580064724 A CN 201580064724A CN 107003733 A CN107003733 A CN 107003733A
- Authority
- CN
- China
- Prior art keywords
- augmented reality
- presented
- marshalling
- computing device
- wearable computing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 399
- 238000005516 engineering process Methods 0.000 title description 8
- 238000000034 method Methods 0.000 claims abstract description 29
- 238000004891 communication Methods 0.000 claims description 22
- 230000002708 enhancing effect Effects 0.000 claims description 19
- 238000006243 chemical reaction Methods 0.000 claims description 11
- 230000001965 increasing effect Effects 0.000 claims description 6
- 230000005540 biological transmission Effects 0.000 claims description 5
- 230000004044 response Effects 0.000 claims description 5
- 238000007726 management method Methods 0.000 description 9
- 238000013500 data storage Methods 0.000 description 8
- 230000000007 visual effect Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000009434 installation Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 238000007654 immersion Methods 0.000 description 3
- 210000000697 sensory organ Anatomy 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000000712 assembly Effects 0.000 description 2
- 238000000429 assembly Methods 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 210000003127 knee Anatomy 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000035479 physiological effects, processes and functions Effects 0.000 description 2
- 230000001052 transient effect Effects 0.000 description 2
- YIWGJFPJRAEKMK-UHFFFAOYSA-N 1-(2H-benzotriazol-5-yl)-3-methyl-8-[2-[[3-(trifluoromethoxy)phenyl]methylamino]pyrimidine-5-carbonyl]-1,3,8-triazaspiro[4.5]decane-2,4-dione Chemical compound CN1C(=O)N(c2ccc3n[nH]nc3c2)C2(CCN(CC2)C(=O)c2cnc(NCc3cccc(OC(F)(F)F)c3)nc2)C1=O YIWGJFPJRAEKMK-UHFFFAOYSA-N 0.000 description 1
- 206010067484 Adverse reaction Diseases 0.000 description 1
- MKYBYDHXWVHEJW-UHFFFAOYSA-N N-[1-oxo-1-(2,4,6,7-tetrahydrotriazolo[4,5-c]pyridin-5-yl)propan-2-yl]-2-[[3-(trifluoromethoxy)phenyl]methylamino]pyrimidine-5-carboxamide Chemical compound O=C(C(C)NC(=O)C=1C=NC(=NC=1)NCC1=CC(=CC=C1)OC(F)(F)F)N1CC2=C(CC1)NN=N2 MKYBYDHXWVHEJW-UHFFFAOYSA-N 0.000 description 1
- NIPNSKYNPDTRPC-UHFFFAOYSA-N N-[2-oxo-2-(2,4,6,7-tetrahydrotriazolo[4,5-c]pyridin-5-yl)ethyl]-2-[[3-(trifluoromethoxy)phenyl]methylamino]pyrimidine-5-carboxamide Chemical compound O=C(CNC(=O)C=1C=NC(=NC=1)NCC1=CC(=CC=C1)OC(F)(F)F)N1CC2=C(CC1)NN=N2 NIPNSKYNPDTRPC-UHFFFAOYSA-N 0.000 description 1
- VCUFZILGIRCDQQ-KRWDZBQOSA-N N-[[(5S)-2-oxo-3-(2-oxo-3H-1,3-benzoxazol-6-yl)-1,3-oxazolidin-5-yl]methyl]-2-[[3-(trifluoromethoxy)phenyl]methylamino]pyrimidine-5-carboxamide Chemical compound O=C1O[C@H](CN1C1=CC2=C(NC(O2)=O)C=C1)CNC(=O)C=1C=NC(=NC=1)NCC1=CC(=CC=C1)OC(F)(F)F VCUFZILGIRCDQQ-KRWDZBQOSA-N 0.000 description 1
- VYPSYNLAJGMNEJ-UHFFFAOYSA-N Silicium dioxide Chemical compound O=[Si]=O VYPSYNLAJGMNEJ-UHFFFAOYSA-N 0.000 description 1
- JAWMENYCRQKKJY-UHFFFAOYSA-N [3-(2,4,6,7-tetrahydrotriazolo[4,5-c]pyridin-5-ylmethyl)-1-oxa-2,8-diazaspiro[4.5]dec-2-en-8-yl]-[2-[[3-(trifluoromethoxy)phenyl]methylamino]pyrimidin-5-yl]methanone Chemical compound N1N=NC=2CN(CCC=21)CC1=NOC2(C1)CCN(CC2)C(=O)C=1C=NC(=NC=1)NCC1=CC(=CC=C1)OC(F)(F)F JAWMENYCRQKKJY-UHFFFAOYSA-N 0.000 description 1
- 230000006838 adverse reaction Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000007177 brain activity Effects 0.000 description 1
- 210000003477 cochlea Anatomy 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 210000001508 eye Anatomy 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000002513 implantation Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- SFMJNHNUOVADRW-UHFFFAOYSA-N n-[5-[9-[4-(methanesulfonamido)phenyl]-2-oxobenzo[h][1,6]naphthyridin-1-yl]-2-methylphenyl]prop-2-enamide Chemical compound C1=C(NC(=O)C=C)C(C)=CC=C1N1C(=O)C=CC2=C1C1=CC(C=3C=CC(NS(C)(=O)=O)=CC=3)=CC=C1N=C2 SFMJNHNUOVADRW-UHFFFAOYSA-N 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 230000036387 respiratory rate Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/51—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/02—Details
- H04L12/16—Arrangements for providing special services to substations
- H04L12/18—Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
- H04L12/1813—Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
- H04L12/1827—Network arrangements for conference optimisation or adaptation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/349—Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
- H04N13/351—Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking for displaying simultaneously
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Optics & Photonics (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
公开了用于提供共享增强现实呈现的系统和方法。编组呈现服务器与一个或更多可穿戴计算装置进行通信。编组呈现服务器协调各种可穿戴计算装置的输出以向编组的成员呈现共享增强现实呈现,其中编组的每个成员体验到呈现上的独特视角。
Description
对相关美国专利申请的交叉引用
本申请要求对2014年12月27日提交的题为“TECHNOLOGIES FOR SHARED AUGMENTEDREALITY PRESENTATIONS”的美国实用专利申请(序号14/583,659)的优先权。
背景技术
典型的增强现实系统将虚拟角色和对象投射到物理位置中,从而允许实现浸入式体验和新颖的交互模型。增强现实呈现给真实世界环境补充了计算机生成的感官刺激,诸如声音或视觉数据。增强现实向用户给予物理世界的直接视图,同时通过诸如声音、视频、图形或GPS数据的计算机生成的感官输入来增强真实世界视图。增强现实系统经常使用头戴式计算装置来输出计算机生成的感官输入。增强现实呈现经常也能够是单人体验,其中每人观看增强现实呈现的单独例示。在某些环境中,诸如引导浏览或编组事件,编组呈现可比单独单人呈现更有益或合乎需要。
附图说明
本文中描述的概念在附图中是作为示例而非作为限制被示出。为了说明的简明和清晰起见,图中所示元件不一定按比例画出。在认为适当之处,参考标记已在图中重复以指示对应或相似元件。
图1是用于生成共享增强现实呈现的共享增强现实呈现系统的至少一个实施例的简化框图;
图2是图1的系统的共享增强服务器的至少一个实施例的简化框图;
图3是图1的系统的可穿戴计算装置的至少一个实施例的简化框图;
图4是可由图2的共享呈现服务器建立的环境的至少一个实施例的简化框图;
图5是可由图3的可穿戴计算装置建立的环境的至少一个实施例的简化框图;
图6A-6B是可由图2的共享呈现服务器执行,用于生成共享增强现实体验的方法的至少一个实施例的简化流程图;以及
图7是可由图3的可穿戴计算装置执行,用于输出共享增强现实体验的方法的至少一个实施例的简化流程图。
具体实施方式
虽然本公开的概念易受各种修改和备选形式的影响,但其特定实施例已通过图中的示例被示出并将在本文中详细地被描述。然而,应理解的是,不存在有意地将本公开的概念限制为公开的特定形式,而是与此相反,本发明将涵盖与本公开内容和附带权利要求一致的所有修改、等同体和备选。
说明书中对“一个实施例”、“一实施例”、“一说明性实施例”等的引用指示所描述的实施例可包括特定特征、结构或特性,但每个实施例可以或可以不一定包括该特定特征、结构或特性。另外,此类短语不一定指相同实施例。此外,在联系一实施例描述特定特征、结构或特性时,所被主张的是联系其它实施例(无论是否明确被描述)来实践此类特征、结构或特性是在本领域中的技术人员的知识范围之内的。另外,应领会到的是,在“至少一个A、B和C”形式的列表中所包括的项目能够意味:(A);(B);(C);(A和B);(A和C);(B和C);或(A、B和C)。类似地,“A、B或C至少之一”形式中所列的项目能够意味:(A);(B);(C);(A和B);(A和C);(B和C);或(A、B和C)。
公开的实施例可在一些情况下以硬件、固件、软件或其任何组合的形式被实施。公开的实施例也可实现为可由一个或多个处理器进行读和执行的暂态或非暂态机器可读(例如,计算机可读)存储媒体所携带或在其上存储的指令。机器可读存储媒体可实施为用于以机器可读的形式存储或传送信息的任何存储装置、机制或其它物理结构(例如,易失性或非易失性存储器、媒体盘或其它媒体装置)。
在图中,一些结构或方法特征可以特定布置和/或顺序示出。然而,应领会到的是,此类特定布置和/或顺序可不被要求。反而,在一些实施例中,此类特征可以与说明性图中所示的不同的方式和/或顺序被布置。另外,特定图中包括的结构或方法特征不意在暗示在所有实施例中要求此类特征,并且在一些实施例中,此类特征可不被包括或者可与其它特征组合。
现在参照图1,示出了用于呈现共享增强现实呈现的说明性系统100。系统100包括连接到多个呈现系统的共享呈现服务器102,每个系统位于关联呈现现场104。虽然说明性实施例包括三个呈现现场,但应领会到的是,任何数量的呈现现场能够连接到共享呈现服务器102。用户108也通过一个或更多可穿戴计算装置110链接到共享呈现服务器102。一个或更多用户108组织成编组112,并且每个单独编组112能够包括任何数量的用户108。如下面更详细所讨论的,共享呈现服务器102将各个用户108链接成编组112,并且然后通过呈现系统106和可穿戴计算装置110向编组112中的用户108呈现共享增强现实呈现。
在当前增强现实系统中,在相同编组的成员之间体验的关联性能够是不存在的。相反,如下面更详细地描述的,共享呈现服务器102配置成协调呈现系统106的传感器和致动器以及可穿戴计算装置110的传感器和致动器,以向编组112的一个或更多用户108提供共享编组体验。系统100所呈现的增强现实体验仅针对编组112的成员。在编组112的成员108移动通过一个或更多呈现现场104时,它们的增强现实呈现被同步,使得每个用户108尽管视角不同,但看到和听到相同增强现实元素。例如,如果编组112处在呈现King Tut和古埃及的呈现现场104,则被同步的编组增强现实呈现能够包括用户108看到King Tut在四处走动,好像他存在于呈现现场104一样;然而,依赖于用户108的位置,每个用户108将从不同视角看到King Tut。另外,在相同呈现现场104存在的用户108的另一编组122可看到不同版本的King Tut、来自King Tut的不同交互、呈现的不同时间点、和/或诸如此类。
图2中示出共享呈现服务器102的一说明性实施例。用于向用户的编组呈现共享增强现实呈现的共享呈现服务器102包括处理器220、I/O子系统222、存储器224、以及数据存储装置226。服务器102可实施为能够执行本文中描述的功能的任何类型的计算或计算机装置,包括但不限于计算机、多处理器系统、服务器、机架安装式服务器、刀片服务器、膝上型计算机、笔记本计算机、网络设备、web设备、分布式计算系统、基于处理器的系统、和/或消费者电子装置。如图2中所示,服务器102说明性地包括处理器220、输入/输出子系统222、存储器224、以及数据存储装置226。当然,在其它实施例中,服务器102可包括其它或另外的组件,诸如通常在服务器装置中发现的那些组件(例如,各种输入/输出装置)。另外,在一些实施例中,一个或更多说明性组件可结合在另一组件中,或者以其他方式形成该另一组件的部分。例如,在一些实施例中,存储器224或其部分可结合在处理器220中。
处理器220可实施为能够执行本文中描述的功能的任何类型的处理器。例如,处理器220可实施为单或多核处理器、数字信号处理器、微控制器或其它处理器或处理/控制电路。类似地,存储器224可实施为能够执行本文中描述的功能的任何类型的易失性或非易失性存储器或数据存储装置。在操作中,存储器224可存储在服务器102的操作期间使用的各种数据和软件,诸如操作系统、应用、程序、库、以及驱动器。存储器224经由I/O子系统222通信耦合到处理器220,该子系统可实施为电路和/或组件以有利于与服务器102的处理器220、存储器224、以及其它组件进行输入/输出操作。例如,I/O子系统222可实施为或者以其他方式包括存储器控制器集线器、输入/输出控制集线器、固件装置、通信链路(即,点到点链路、总线链路、导线、线缆、光导、印刷电路板迹线等)和/或其他组件和子系统以有利于输入/输出操作。在一些实施例中,I/O子系统222可形成芯片上系统(SoC)的部分,并且连同服务器102的处理器220、存储器224和其它组件一起被结合在单个集成电路芯片上。
数据存储装置226可实施为配置成用于数据的短期或长期存储的任何类型的装置,诸如例如存储器装置和电路、存储器卡、硬盘驱动、固态驱动或其它数据存储装置。数据存储装置226可存储由服务器102处理的压缩和/或解压缩的数据。
服务器102也可包括通信子系统228,该子系统可实施为能够通过计算机网络(未示出)能够实现在服务器102与其它远程装置之间的通信的任何通信电路、装置或其集合。通信子系统228可配置成使用任何一个或更多通信技术(例如,有线或无线通信)以及关联协议(例如,以太网、Bluetooth®、Wi-Fi®、WiMAX等)以实践此类通信。服务器计算装置能够包括执行服务器的功能可必需的其它外围装置,诸如显示器、键盘、其它输入/输出装置、以及其它外围装置。
共享呈现服务器102连接到位于一个或更多呈现现场104的一个或更多呈现系统106。呈现系统106可实施为能够执行本文中描述的功能的任何类型的计算或计算机装置,包括但不限于计算机、多处理器系统、服务器、机架安装式服务器、刀片服务器、膝上型计算机、笔记本计算机、网络设备、web设备、分布式计算系统、基于处理器的系统、和/或消费者电子装置。呈现系统106与以上描述的服务器102包括许多相同的组件和系统,并且那些描述在此不重复进行;然而,将领会到的是,呈现系统106以类似于服务器102的方式实施。呈现系统106还包括增强现实输出系统232和传感器234。增强实现输出系统232包括用于向用户108的编组112在呈现现场104呈现共享增强现实呈现的输出装置的集合。在一些实施例中,增强现实输出系统232包括触摸屏图形用户接口、视频显示器、一个或更多扬声器、投影仪、激光显示器、某一类型的物理显示器、或一些其它输出部件。传感器234配置成检测在特定呈现现场用户的存在,并且检测对于正在呈现的增强现实呈现的用户反应。在一些实施例中,传感器234包括摄像机、运动传感器、热传感器、麦克风、以及其它传感装置。
图3中示出可穿戴计算装置110的一说明性实施例。可穿戴计算装置110能够向编组112中的用户108输出共享增强现实呈现,并且说明性地包括处理器320、存储器322、I/O子系统324、数据存储装置348、以及通信子系统350。计算装置110可实施为能够执行本文中描述的功能的任何类型的可穿戴计算或计算机装置,包括但不限于头安装式计算机系统、智能眼镜、虚拟现实眼镜或头盔、智能目镜(smart ocular)或耳蜗植入、智能电话、智能手表、智能服饰、计算机、移动计算装置、平板计算机、笔记本计算机、膝上型计算机、智能设备或工具、和/或其它可穿戴或可移动计算装置。通常,计算装置110的组件与上面描述的服务器102的组件具有相同或类似名称并且可以类似的方式实施。照此,那些类似组件的讨论在此处不重复进行。
可穿戴计算装置110的说明性实施例也包括配置成向可穿戴计算装置110的用户108呈现共享增强现实呈现的多个增强现实输出装置326。增强现实输出装置326可包括用户接口328、显示器330、扬声器332、触觉输出334、以及嗅觉输出336。增强现实输出装置326的目的是要向可穿戴计算装置110的用户108提供浸入式增强现实体验。在一些实施例中,用户接口328能够包括允许用户从增强现实选项中进行各种选择,并且控制用户的增强现实体验的图形触摸屏。显示器330能够包括任何类型的显示器,但在一些实施例中,它包括头安装式显示器或另一类型的可穿戴显示器,诸如Google Glass™。扬声器332向用户108提供有声输出,并且能够包括调整声音的算法以提供更加具浸入性的体验。例如,扬声器332能够配置成使得可穿戴计算装置110的用户108将感知到正来自特定方向的声音。如果扬声器能够使用户108感知到来自特定方向或位置的声音,则可穿戴计算装置110能够连同共享呈现服务器102创建更具浸入性的增强现实体验。可穿戴计算装置110也能够包括对于增强现实体验所必需的任何触觉334或嗅觉336输出。例如,可穿戴计算装置110能够包括人造气味分发器以使用户108在增强现实呈现期间的特定时间体验到特定气味。
可穿戴计算装置110也包括配置成捕获与可穿戴计算装置110的用户108所感知到的内容和用户对此类刺激的反应(例如,用户的情绪或所处状态)有关的上下文数据的传感器338。在一些实施例中,一个或更多摄像机340能够耦合到可穿戴计算装置110以捕获在共享增强现实体验期间用户108所感知到的内容。一个或更多摄像机340也能够耦合到可穿戴计算装置以监视用户108。例如,摄像机340能够用作凝视检测器以确定在增强现实呈现期间用户108在看的地方。在另一示例中,所述一个或更多摄像机340能够捕获用户108在其(他或她)体验增强现实呈现时的面部表情。捕获用户108的面部表情使得增强现实系统100能够确定用户108对共享增强现实呈现的反应。麦克风342也能够被包括在可穿戴计算装置110中以捕获用户108发出的声音,例如,对共享增强现实体验的语音命令或惊叹声音反应。可穿戴计算装置的输入装置能够包括触摸板或按钮、兼容计算装置(例如,智能电话或控制单元)、言语识别、姿势识别、眼睛跟踪或大脑-计算机接口。
可穿戴计算装置110说明性地包括用来确定可穿戴计算装置110的位置的位置传感器344。在一些实施例中,共享增强现实体验的呈现与一个或更多呈现现场104有关。共享呈现服务器102使用由位置传感器344测量的位置数据来确定何时应为用户发起或终止增强现实呈现。事实上,在一些实施例中,共享呈现服务器102使用来自位置传感器344的数据,以自动确定呈现请求是否已被共享呈现服务器102所接收。计量生物传感器346也能够耦合到可穿戴计算装置110,并且配置成测量用户108对共享增强现实体验的多个不同生理和认知响应。例如,可穿戴计算装置110能够包括用来测量用户108的心率的心率监视器。在其它实施例中,计量生物传感器346能够包括测量用户108的运动的加速计(例如,呼吸监视器)、用来测量大脑活动的监视器、或用来测量用户108的温度的监视器。计量生物传感器346能够用于收集有关用户108的上下文数据,例如,笑声或高心率,并且然后共享呈现服务器102能够使用该数据来调整共享增强现实呈现,或者推荐其它增强现实呈现。计量生物传感器346能够用于评估编组112对增强现实呈现的反应,并且如果检测到无趣(例如,在编组112的成员之间的谈话或用户108的打呵欠),便实时调整呈现。
现在参照图4,在说明性实施例中,共享呈现服务器102在操作期间建立环境400。说明性实施例400包括编组建立模块402、增强现实呈现计划模块408、增强现实呈现模块416、传感器管理模块428及观后呈现模块432。在使用中,服务器102配置成生成共享增强现实呈现,确定用于每个单独可穿戴计算装置110和每个呈现系统106的单独呈现数据,以及通过每个可穿戴计算装置110和呈现系统106来呈现共享增强现实体验。环境400的各种模块可实施为硬件、固件、软件或其的组合。例如,环境400的各种模块、逻辑和其它组件可形成服务器102的处理器220或其它硬件组件的部分,或者以其他方式由服务器102的处理器220或其它硬件组件建立。
编组建立模块402配置成将一个或更多可穿戴计算装置110建立到编组网络中,以向在参观谈论中的所述位置的人的编组提供共享增强现实呈现。在该说明性实施例中,共享呈现服务器102专用于特定位置,诸如例如博物馆或动物园。比如,在带领学生到博物馆实地旅游时,教师可具有其想要班级体验的特定展览,而参观博物馆的其它编组可具有不同的目标。编组建立模块402将在该位置(例如,博物馆)存在的总的可穿戴计算装置110的子集链接到编组网络中。编组网络对应于希望在呈现现场104具有共享体验的用户108的编组112。
照此,编组建立模块402包括全局用户概况模块404。全局用户概况模块404配置成接收编组概况和单独概况,以建立用于编组112的增强现实计划。在一些实施例中,编组112中的用户108输入有关单独用户108可具有的各种偏好的信息。在其它实施例中,用户108能够从用户108想要体验的预定概况池中进行选择。用户概况被存储在由编组建立模块402访问的用户概况数据库406上。在编组建立模块402建立可穿戴计算装置110的编组网络时,编组概况和单独用户概况被加载到编组网络中的可穿戴计算装置110上。编组建立模块402还链接在编组网络中的可穿戴计算装置110,使得编组网络中的各个可穿戴计算装置110能够相互直接进行通信。在将编组112的可穿戴计算装置110组织成编组网络后,共享呈现服务器102能够将编组112设为共享增强现实呈现的目标,使得仅编组112体验到目标共享增强现实呈现。例如,创建编组网络允许共享呈现服务器102产生只能由编组112的成员体验到的三维增强现实。在一些实施例中,共享呈现服务器102使用编组112的每个用户108的位置,以计算要输出到编组网络中每个可穿戴计算装置110的单独呈现数据。例如,通过分析多个数据点,诸如信号强度、麦克风输入或基于使用与传感器338关联的加速计或陀螺仪进行的测量的方位,可推导出可穿戴计算装置110的位置。单独呈现数据允许编组网络中每个可穿戴计算装置110显示共享增强现实呈现的独特视角。在使用中,在某个班级去博物馆实地旅游时,教师可具有其想要学生参观的地方或学生应避免的区域的列表。在编组112到达该位置时,此信息能够被输入系统100中。在其它实施例中,教师的偏好能够在班级达到位置前被输入。例如,在到博物馆前班级的教师和学生能够设定用户概况在线。作为输入用户概况的部分,教师和学生能够体验虚拟现实预览,这将允许不同选项被选择并存储在用户概况中。
增强现实呈现计划模块408配置成基于与特定编组112关联的用户概况数据库406中的所述一个或更多用户概况,生成呈现计划。增强现实呈现计划模块408包括内容确定模块410和序列确定模块412。内容确定模块410分析编组的用户概况以及各个编组成员的用户概况,并且确定什么样的呈现现场104应是编组呈现计划的部分。在做出呈现计划时,增强现实呈现计划模块408访问呈现现场数据库414中的可用增强现实呈现的池,其包括在与共享呈现服务器102关联的所有呈现现场104可用的所有不同增强现实呈现有关的信息。在一些实施例中,这通过基于用户概况数据,指派置信度分数给数据库114中的每个可用增强现实呈现来完成。用户概况数据库406和呈现现场数据库414均能够实施为共享呈现服务器102的部分,或者数据库406、414均能够在服务器102外部,并且通过一个或更多计算机网络连接到服务器102。
序列确定模块412确定用于编组112的共享增强现实呈现的序列。增强现实呈现的序列能够基于编组的特定偏好,例如,教师想要以特定顺序教导特定课程,或者它能够基于最有效的方式在呈现现场104之间行进,例如,最小化在博物馆展览之间的行走距离。在一些实施例中,增强呈现计划模块能够响应编组112偏离原来制作的呈现计划而调整呈现计划。诸如位置数据和测量用户对共享增强现实呈现的反应的上下文数据的信息能够用来调整呈现计划,以最好地适应编组112的需要。
增强现实呈现模块416配置成通过编组网络中的每个可穿戴计算装置110和与呈现现场104关联的呈现系统106,来提供共享编组增强现实呈现。增强现实呈现模块416接收编组呈现计划,并且接收一个或更多呈现请求以确定呈现模块416是否应向编组呈现特定增强现实呈现。例如,在一些实施例中,在编组112到达呈现计划中所包括的呈现现场104后,呈现请求被发送到共享呈现服务器102,以开始特定增强现实呈现。在其它实施例中,呈现请求能够包括用户输入一些指示以开始增强现实呈现,诸如例如用户按在呈现现场104存在的增强现实呈现按钮。
增强现实呈现模块416生成要向编组112呈现的共享增强现实呈现。增强现实呈现模块416使用总体编组增强现实呈现来开发要由编组网络的各个可穿戴计算装置110显示的单独呈现数据。例如,编组增强现实呈现能够指示King Tut增强现实元素应被用户108在位于呈现现场104的特定位点所感知。增强现实呈现模块416接收每个可穿戴计算装置110的位置,生成用于每个可穿戴计算装置110的单独呈现数据,并且该单独呈现数据允许可穿戴计算装置110从其独特视角来呈现King Tut。在一些实施例中,增强现实呈现模块416能够使其显得好像编组112中的其它用户108正穿戴通常与在呈现的共享增强现实呈现有关的不同服饰,例如,在编组处在古埃及呈现现场104时,用户108能够看到编组112的其它成员像古埃及人一样穿着。
增强现实呈现模块416包括跟踪/路由模块418、推荐模块420、通知模块424、以及目标跟踪模块426。跟踪/路由模块418配置成跟踪编组网络中每个可穿戴计算装置110的位置。每个可穿戴计算装置的位置能够对浸入式增强现实体验是关键的。例如,仅在用户108位于与古埃及关联的呈现现场104时,有关古埃及的共享编组现实体验才将有意义。此外,在一些实施例中,增强现实体验包括编组112的用户108体验相同的增强现实元素,但从不同视角体验。例如,编组112的成员可能在观看有关King Tut的展览,增强现实呈现的元素可包括呈现King Tut,如同他在世时可能显现的样子。能够使用各个可穿戴计算装置110的位置来为编组网络中的每个单独可穿戴计算装置110确定King Tut增强现实元素的不同观看视角。跟踪/路由模块418还配置成管理在与共享呈现服务器102关联的位置的业务流。例如,某些呈现现场104可比其它呈现现场104更受用户108欢迎,并且因此,人群能够缩小(diminish)用户108体验的共享增强现实呈现。跟踪/路由模块418能够通过推荐模块420提供建议,以确保某些呈现现场104不会变得过于拥挤。此外,在一些实施例中,跟踪/路由模块418能够通过通知模块424发送通知到编组网络的可穿戴计算装置110的至少之一,其标识编组中至少另一可穿戴计算装置110的位置。例如,诸如教师或导游的编组112的监管者成员的可穿戴计算装置110能够配置成显示编组网络中每个其它可穿戴计算装置110的位置。
推荐模块420配置成基于用户概况、呈现现场104和编组112的位置、以及通过该位置流动的业务,向编组112提供有关体验哪些共享增强现实呈现的推荐。推荐模块420包括配置成基于在该位置存在的非编组112中的其它用户108,来向编组112提供推荐的用户标识模块422。例如,如果编组112在参观第二次世界大战呈现现场,则用户标识模块422能够提醒编组112是否第二次世界大战老兵存在于该相同位置。在一些实施例中,用户标识模块422使用用户概况数据来确定特定用户108是否为与在该位置的一个或更多增强现实呈现有关的关注人员。
通知模块424配置成向可穿戴计算装置110的用户108呈现在与共享呈现服务器102关联的位置的各种发生的事情有关的通知。例如,通知可包括在该位置、或者在该位置的呈现现场104将出现的要暂时避免的由于过于拥挤和拥塞而引起的事件。通知模块424也配置成在相同编组网络中的各个可穿戴计算装置之间发送和接收通知。通过这种方式,能够在相同编组112中的用户108之间发送消息。
目标跟踪模块426配置成比较呈现计划与编组112实际体验的增强现实呈现,并且基于呈现计划中还尚未被体验的呈现,做出另外的推荐。在一些实施例中,目标跟踪模块426通过通知模块424将目标跟踪报告周期地发送到编组网络中可穿戴计算装置110的至少之一。例如,教师可能具有为各个班级成员概述的特定目标集,并且通知模块424能够使教师保持对关于学生通过其相应目标的进度的更新。
传感器管理模块428配置成记录从与可穿戴计算装置110和呈现系统106关联的传感器所接收的所有信息。那些传感器能够包括摄像机、麦克风、计量生物传感器、运动传感器、位置确定传感器及其它传感器。传感器管理模块428接收所有传感器数据,并且通过用户上下文确定模块430来确定用户108在体验的各种反应。用户上下文确定模块430确定有关用户的上下文数据。上下文数据能够是描述用户108的环境和周围事物的任何类型的数据。例如,上下文数据能够包括用户的位置、用户行进的方向、用户是在笑还是处在不同情绪状态、以及有关用户的其它信息。用户上下文确定模块430接收来自传感器234、338的上下文数据,并且确定有关用户108的信息。在一些实施例中,用户上下文确定模块430确定用户108对在呈现的增强现实呈现是具有不良反应还是有利反应。如果用户108反应不良,则用户上下文确定模块430可调整在呈现的增强现实呈现以更好地适应用户108的品味。
观后呈现模块432配置成创建观后呈现以在对例如博物馆的位置的参观已终止后向编组112示出。增强现实呈现传感器捕获模块434记录向编组112呈现的所有增强现实呈现。增强现实呈现传感器捕获模块434还记录由与可穿戴计算装置110或呈现系统106关联的一个或更多摄像机所捕获的所有视频,并且模块434记录由共享呈现服务器102接收的所有上下文数据。观后呈现模块432基于接收的上下文数据,选择呈现元素以变成观后呈现的部分。例如,观后呈现模块432能够基于传感器234、338检测到的笑声,判定包括增强现实呈现的特定部分以包括在观后呈现中。在一些实施例中,观后呈现包括由与可穿戴计算装置110或呈现系统106关联的一个或更多摄像机所捕获的视频的集合,例如参观的视频剪辑(montage)。基于如通过上下文数据测量的用户108对增强现实呈现的反应,能够选择特定连续镜头以用于包括在观后呈现中。在其它实施例中,观后呈现是在对该位置的参观已终止后使用可穿戴计算装置110所呈现的增强现实呈现。
现在参照图5,在说明性实施例中,可穿戴计算装置110在操作期间建立环境500。说明性实施例500包括本地用户概况模块502、增强现实输出模块508、传感器管理模块512及通信模块514。在使用中,可穿戴计算装置110配置成向可穿戴计算装置110的用户108输出增强现实呈现,感测有关用户108的上下文数据,并且与共享呈现服务器102进行通信。环境500的各种模块可实施为硬件、固件、软件或其组合。例如,环境500的各种模块、逻辑和其它组件可形成计算装置110的处理器320或其它硬件组件的部分,或者以其他方式由计算装置110的处理器320或其它硬件组件建立。
本地用户概况模块502配置成将单独可穿戴计算装置110链接到单独用户概况。在参与增强现实呈现前,用户108创建呈现计划从其中生成的用户概况。在该说明性实施例中,用户概况包括诸如用户108作为其的部分的编组112的信息和有关用户的其它信息(例如包括用户108想要体验的增强现实呈现的偏好)。本地用户概况模块502包括编组链接模块504和目标跟踪模块506。编组链路模块504配置成将与特定编组112关联的所有可穿戴计算装置链接到编组网络中。一旦编组网络建立,共享呈现服务器102便能够协调在作为编组网络的部分的所有可穿戴计算装置110之间的共享增强现实呈现。目标跟踪模块506跟踪各个用户目标和编组目标两者的完成。目标跟踪模块506也能够向用户108提供有关用户108可能感兴趣的增强现实呈现的通知。
增强现实输出模块508配置成将从编组呈现服务器接收到的增强现实呈现输出到用户108。在共享呈现服务器102生成用于每个可穿戴计算装置110的单独呈现数据后,共享呈现服务器102将该信息传送到对应可穿戴计算装置110。增强现实输出模块508使用个性化呈现数据创建用户特定的增强现实呈现。为达成此目的,增强现实输出模块508与作为可穿戴计算装置110的部分的增强现实输出装置326交互。例如,增强现实输出模块508能够与显示器330交互,以示出由站在房中的King Tut组成的增强现实呈现元素,或者模块508能够与扬声器332交互,以使用户108在特定时间听到特定声音。
增强现实输出模块508还包括增强现实共享模块510,其配置成允许编组112的成员通过可穿戴计算装置110与编组112的其它成员共享不同视角。在一些实施例中,增强现实共享模块510允许用户108与编组112的另一成员经由该另一成员的可穿戴计算装置110共享用户108正看到,听到,闻到或感觉到的事物。例如,用户108能够通过输出用户108的摄像机340的输出到另一成员的可穿戴计算装置110的显示器330,与编组112的该另一成员共享用户108正看到的事物。在一些实施例中,增强现实共享模块510通过共享呈现服务器102,在作为编组网络的部分的各个可穿戴计算装置110之间共享信息;在其它实施例中,增强现实共享模块510与相同编组网络中的其它可穿戴计算装置110直接共享信息。
即使编组112不是全部位于相同位置,增强现实共享模块510允许编组112体验编组增强现实体验。实际上,编组112的成员有时将被允许在位置(例如博物馆)漫步,并且独立参观呈现现场104。在自由漫步期间,编组112中的用户108将可能位于多个呈现现场104,例如,编组的一些成员可能在参观古埃及展览,而编组的其它成员在参观古罗马展览。在自由漫步期间,可穿戴计算装置110配置成允许在编组网络中可穿戴计算装置110之间的各种类型的通信。例如,增强现实共享模块510能够允许用户108使用其相应可穿戴计算装置110相互进行通信。在另一示例中,可穿戴计算装置110能够配置成与编组网络中的其它可穿戴计算装置110共享其位置。系统100能够跟踪编组的所有成员已到过的地方,并且基于该信息,向编组112的其它成员做出建议。如以上所讨论的,在另一示例中,编组112的成员能够与其它可穿戴计算装置110共享视角。在一些实施例中,如果上下文数据指示某个行为阈值已满足,例如,编组的某些成员在笑,则增强现实视角自动地与编组网络中的其它可穿戴计算装置110被共享。在一些实施例中,增强现实共享模块500与目标跟踪模块506协作以与编组112的另一成员共享用户108的目标进度。例如,教师能够规定某些学生参观某些呈现现场104。教师能够在各个学生的用户概况中包括此信息。通过增强现实共享模块510,教师能够接收有关学生通过计划的呈现现场104的进度的通知。例如,教师将在学生未遵循单独的呈现计划时接收到通知。
传感器管理模块512配置成管理与可穿戴计算装置110集成的传感器。传感器管理模块512记录传感器338收集的包括上下文数据的所有数据,并且通过通信模块514将上下文数据传送到共享呈现服务器102。
通信模块514配置成允许可穿戴计算装置110与共享呈现服务器102和其它可穿戴计算装置110进行通信。通信模块514配置成处理可穿戴计算装置110并且对应于通信子系统350的所有不同类型的数据。通信模块514可配置成使用任何一个或更多通信技术(例如,有线或无线通信)以及关联协议(例如,以太网、Bluetooth®、Wi-Fi®、WiMAX等)以实践此类通信。
现在参照图6A,在使用中,共享呈现服务器102可执行用于呈现共享增强现实呈现的方法600。在框602,共享呈现服务器102等待接收编组呈现请求。在一些实施例中,在编组概况被做出并且存储在用户概况数据库406中时编组呈现请求到来;在其它实施例中,在编组到达与共享呈现传感器102关联的位置时,编组呈现请求出现。例如,在用户108的编组112来到博物馆,并且想参与共享增强现实体验时,编组112将请求他们接收链接在一起为编组网络的可穿戴计算装置110。在框604,共享呈现服务器102通过将至少两个可穿戴计算装置110链接在一起,建立编组网络。建立编组网络包括在框606接收用户概况数据。接收用户概况数据能够包括用户输入数据以形成完全独特的用户概况,或者它能够包括用户从预定义的一般用户概况的池中选择。用户概况被加载到可穿戴计算装置110的数据存储装置上。在框608,与编组112的用户108关联的可穿戴计算装置110被链接以形成编组网络。编组网络是与特定编组112关联的可穿戴计算装置110的独特网络。编组网络允许共享呈现服务器102与编组网络中可穿戴计算装置110协调共享增强现实呈现,并且允许编组网络中的可穿戴计算装置110相互进行通信。在框610,共享呈现服务器102验证编组网络中的可穿戴计算装置110在工作,确保所有用户108能够完全参与到共享增强现实呈现中。
在框612,编组呈现服务器生成增强现实呈现计划。通过比较用户概况数据和在各种呈现现场104可用的可用增强现实呈现的池,做出呈现计划。在框614,共享呈现服务器102基于共享呈现服务器102接收的编组用户概况和各个用户概况,通过选择各种增强现实呈现来确定向编组112示出的呈现计划的呈现内容。在一些实施例中,根据置信度分数,对呈现计划中包括的增强现实呈现进行评级。置信度分数对应于共享呈现服务器102基于用户概况,认为编组112对特定增强现实呈现感兴趣的可能性有多大。在将所有可用增强现实呈现评级后,共享呈现服务器102选择在编组呈现计划中要包括的最相关呈现。在框616,共享呈现服务器102确定用于向编组112示出选择的增强现实呈现的呈现序列。在一些实施例中,根据位置的布局,确定呈现的序列,例如,选择序列以最小化编组的行走距离。在其它实施例中,根据编组112的用户108概述的特定目标,确定呈现的序列。例如,如果某个班级的学生来到博物馆,则教师可具有其想以特定顺序向班级示出的特定事物。在框618,呈现计划包括编组112可能感兴趣的另外增强现实呈现的列表。在一些实施例中,另外增强现实呈现的列表的受欢迎是通过确定在呈现计划中未包括的哪些增强现实呈现具有最高置信度分数进行的。
在框620,共享呈现服务器102在用户108行进通过该位置时跟踪他们。用户108的跟踪能够包括跟踪以确定编组112何时已到达呈现计划中的呈现现场104。用户108的跟踪也能够包括在用户108在该位置周围从事自由漫步时进行跟踪。在一些实施例中,这两种不同情形要求共享呈现服务器102执行不同跟踪任务。例如,如果编组112在遵循呈现计划,并且未在自由漫步,则在框622,如果编组112中的另一用户108与编组112分开,则共享呈现服务器102将立即通知监管者用户。然而,如果编组112在该位置漫步,则在用户108去了该位置的另一区域时,无需立即通知监管者。相反,共享呈现服务器102将只被动地通知监管者其它用户108的位置(例如,仅在监管者输入编组112位置请求时)。在框624,共享呈现服务器102引导用户108到特定用户108可能感兴趣的特定呈现现场。例如,如果编组112在遵循呈现计划,则共享呈现服务器102将引导编组112到呈现计划上的下一增强现实呈现。在另一示例中,如果编组的用户108在该位置漫步,则共享呈现服务器102能够引导用户108到用户108可能单独感兴趣的呈现现场104。
在框626,共享呈现服务器102确定编组112的用户108是否存在于呈现现场104。在一些实施例中,如果用户108处在呈现现场104,则共享呈现服务器102将立即开始在该特定现场104的增强现实呈现。在其它实施例中,共享呈现服务器102可在增强现实呈现之前等待一个或更多用户输入呈现请求(例如,用户108通过诸如按下按钮来输入命令从而发送呈现请求)。如果用户108不处在呈现现场104,则如在框620中所讨论的,共享呈现服务器102继续跟踪用户108。
现在参照图6B,方法600继续框630,其中共享呈现服务器102生成在呈现现场104的共享增强现实呈现。在框630,在共享呈现服务器102接收呈现请求后,增强现实呈现开始。在一些实施例中,呈现请求涉及用户108提供输入,例如,用户108按下与呈现现场104关联的开始按钮,或者供给用户108的可穿戴计算装置能够解释的命令(例如,由麦克风342检测到的语音命令)。在其它实施例中,在用户108到达呈现现场时,呈现请求被自动发送到共享呈现服务器102。
在开始增强现实呈现前,在框632,共享呈现服务器102查询呈现计划以确定呈现计划是否要求共享呈现服务器102调节适应增强现实呈现,以满足编组112的特定需要。例如,增强现实呈现可包括在共享增强现实呈现中能够使用的多个备选元素。备选元素的使用允许共享呈现服务器102调节适应呈现以满足编组112的需要。例如,在古埃及呈现现场104向一年级学生供给的增强现实呈现将包括与向高中高年级学生供给的增强现实呈现不同的元素。在框634,共享呈现服务器102从传感器234、338接收上下文数据,并且基于接收的上下文数据,调整增强现实呈现。例如,上下文数据可能指示编组112在笑,并且享受该呈现,因此,共享呈现服务器102可能示出比原计划更多的增强呈现。在框638,共享呈现服务器102记录编组增强现实呈现以便在观后呈现中使用。记录包括记录从与呈现现场104和可穿戴计算装置110关联的传感器234、338接收的所有输入。
在框640,共享呈现服务器102确定当前在体验的增强现实呈现是否已终止。如果增强现实呈现尚未终止,则共享呈现服务器102继续执行在框628中讨论的步骤。否则,如果增强现实呈现已终止,则在框642,共享呈现服务器102确定对该位置的参观是否已完成。如果对该位置的参观尚未完成,则共享呈现服务器102再次跟踪用户108(如在框620中所讨论的),并且等待接收另一呈现请求。
如果参观完成,则在框644,共享呈现服务器102生成编组112对该位置的参观的观后增强现实呈现。在一些实施例中,观后呈现包括使用摄像机340和作为在呈现现场104的呈现系统106的部分的摄像机所捕获的视频创建的视频剪辑。在框646,共享呈现服务器102分析从传感器234、338接收的上下文数据,并且基于上下文数据,确定在观后呈现中要包括哪些呈现元素。例如,如果上下文数据指示在增强现实呈现期间的特定点出现的笑声,则共享呈现服务器102将在观后呈现中包括来自激励该笑声的事件的视频。
现在参照图7,在使用中,可穿戴计算装置110可执行用于呈现共享增强现实呈现的方法700。在框702,激活可穿戴计算装置110。在一些实施例中,可穿戴计算装置110在从编组呈现服务器接收到激活信号后被激活,激活信号包括可穿戴计算装置110变成编组网络的部分的命令。在框704,可穿戴计算装置110与共享呈现服务器102进行通信,以加入由编组呈现服务器建立的编组网络。随同编组网络的建立,可穿戴计算装置被链接到特定用户108。在框706,可穿戴计算装置110在其存储器中存储用户概况数据。在一些实施例中,从共享呈现服务器102下载用户概况数据;在其它实施例中,用户108使用可穿戴计算装置110创建用户概况。
在框708,可穿戴计算装置110确定是否已从共享呈现服务器102接收到增强现实呈现数据。增强现实呈现数据是用于可穿戴计算装置110的个性化呈现数据,其供给可穿戴计算装置110的用户108在共享增强现实呈现上独特的视角。在一些实施例中,仅在呈现请求已被编组呈现服务器接收和处理后,才将呈现数据传送到可穿戴计算装置110。
在框710,可穿戴计算装置110采用传感器338感测用户上下文数据。感测的上下文数据能够包括可穿戴计算装置的位置、可穿戴计算装置110的用户108对增强现实呈现的反应、或用户造成的声音,诸如笑声或交谈。比如,传感器338能够用于检测用户108的生理响应,诸如心率、呼吸速率、以及诸如笑声的声音。在框712,在获得上下文数据的那些测量后,可穿戴计算装置110将上下文数据传送到共享呈现服务器102。
在框714,可穿戴计算装置110使用增强现实输出装置326生成增强现实输出。通过使用显示器、扬声器、触觉致动器和嗅觉致动器的组合,可穿戴计算装置110向用户108输出增强现实呈现。在框716,可穿戴计算装置确定用户108是否想要与编组网络中的另一可穿戴计算装置110共享增强现实呈现。如果用户108尚未输入共享增强现实呈现的命令,则可穿戴计算装置110继续感测上下文数据和生成增强现实输出的过程。如果用户108想要共享增强现实呈现,则在框718,可穿戴计算装置110将增强现实呈现数据传达到选择的用户108的可穿戴计算装置110。
示例
下面提供了本文中公开的技术的说明性示例。技术的一实施例可包括任何一个或更多下面所描述的示例及其任何组合。
示例1包括用于生成编组增强现实体验的编组呈现服务器,编组呈现服务器包括:具有其中存储有可用增强现实呈现的池的数据库;用来建立可穿戴计算装置的编组网络的编组建立模块;用来基于从用户接收的呈现请求和可用增强现实呈现的池,生成增强现实呈现计划的增强现实呈现计划模块;以及用来通过将单独的增强现实呈现数据传送到每个可穿戴计算装置,生成用于编组网络的共享增强现实呈现的增强现实呈现模块,其中每个增强现实呈现数据基于增强现实呈现计划,并且被定制用于每个可穿戴计算装置。
示例2包括示例1的主题,并且其中编组建立模块将接收包括编组信息的用户概况数据;以及基于来自与每个可穿戴计算装置关联的用户概况数据的编组信息,建立可穿戴计算装置的编组网络。
示例3包括示例1和2任一项的主题,并且其中编组建立模块将验证编组网络中每个可穿戴计算装置的操作。
示例4包括示例1-3任一项的主题,并且其中增强现实呈现计划模块将基于呈现请求和增强现实呈现,确定在增强现实呈现中要包括的呈现内容。
示例5包括示例1-4任一项的主题,并且其中增强现实呈现计划模块将基于呈现请求,从增强现实呈现的池中选择增强现实呈现,以及将所选择的增强现实呈现添加到增强现实呈现计划。
示例6包括示例1-5任一项的主题,并且其中增强现实呈现计划模块将确定增强现实呈现计划的每个增强现实呈现的呈现序列。
示例7包括示例1-6任一项的主题,并且其中增强现实呈现模块将接收对于编组的每个成员的编组概况和各个用户概况;以及基于编组概况、各个用户概况、呈现请求、以及可用增强现实呈现的池,生成增强现实呈现计划。
示例8包括示例1-7任一项的主题,并且其中增强现实呈现模块将基于共享增强现实呈现,生成用于编组网络的每个可穿戴计算装置的单独增强现实呈现;生成用于各个增强现实呈现中的每个的单独增强现实呈现数据;以及将单独增强现实呈现数据传送到编组网络的每个对应可穿戴计算装置。
示例9包括示例1-8任一项的主题,并且其中增强现实呈现模块将从每个可穿戴计算装置接收指示在生成共享增强现实呈现所处的呈现现场内的对应可穿戴计算装置的用户的位置的位置数据;以及基于与对应可穿戴计算装置关联的位置数据和共享增强现实呈现,生成用于编组网络的每个可穿戴计算装置的单独增强现实呈现。
示例10包括示例1-9任一项的主题,并且其中增强现实呈现模块将从编组网络中每个可穿戴计算装置接收上下文数据;以及基于上下文数据,调整共享增强现实呈现。
示例11包括示例1-10任一项的主题,并且其中增强现实呈现模块将向可穿戴计算装置的编组网络传送在增强现实呈现计划中当前未包括的另外增强现实呈现的推荐。
示例12包括示例1-11任一项的主题,并且其中增强现实呈现模块将记录共享增强现实呈现。
示例13包括示例1-12任一项的主题,并且其中增强现实呈现模块将记录单独增强现实呈现数据。
示例14包括示例1-13任一项的主题,并且其中增强现实呈现模块将接收指示可穿戴计算装置的上下文或对应可穿戴计算装置的用户的上下文的上下文数据;以及将每个可穿戴计算装置的上下文数据与传送到对应可穿戴计算装置的单独增强现实呈现数据关联存储。
示例15包括示例1-14任一项的主题,并且其中增强现实呈现模块将跟踪编组网络的每个可穿戴计算装置的位置。
示例16包括示例1-15任一项的主题,并且其中增强现实呈现模块将传送通知到编组网络的至少一个可穿戴计算装置,该通知标识编组网络的至少另一可穿戴计算装置的位置。
示例17包括示例1-16任一项的主题,并且其中增强现实呈现模块将向编组网络的可穿戴计算装置传送在增强现实呈现计划中当前未包括的至少一个另外增强现实呈现的推荐。
示例18包括示例1-17任一项的主题,并且还包括基于共享增强现实呈现,用来生成观后呈现的观后呈现模块。
示例19包括示例1-18任一项的主题,并且其中观后呈现模块将记录共享增强现实呈现;在共享增强现实呈现的呈现期间接收指示可穿戴计算装置的上下文或对应可穿戴计算装置的用户的上下文的上下文数据;以及基于上下文数据,选择共享增强现实呈现的呈现元素以生成观后呈现。
示例20包括示例1-19任一项的主题,并且其中呈现元素包括在共享增强现实呈现期间生成的视频或音频至少之一。
示例21包括用于生成增强现实体验的可穿戴计算装置,可穿戴计算装置包括:至少一个增强现实输出装置;与编组呈现服务器进行通信以便与至少一个另外的可穿戴计算装置建立编组网络的本地用户概况模块;用来接收来自编组呈现服务器的增强现实呈现数据的通信模块,其中增强现实呈现数据被定制用于可穿戴计算装置,并且定义与所述至少一个另外的可穿戴计算装置共享的共享增强现实呈现;以及基于增强现实呈现数据,用来控制所述至少一个增强现实输出装置来生成增强现实呈现的增强现实输出模块。
示例22包括示例21的主题,并且其中通信模块将传送或接收与可穿戴计算装置的用户有关的用户概况数据。
示例23包括示例21和22任一项的主题,并且还包括:可穿戴计算装置的一个或更多传感器;以及传感器管理模块,其用来检测指示可穿戴计算装置的用户对增强现实呈现的反应的上下文数据,以及将上下文数据传送到编组呈现服务器。
示例24包括示例21-23任一项的主题,并且其中通信模块将向至少一个另外的可穿戴计算装置传达增强现实呈现数据。
示例25,生成编组增强现实体验的方法,该方法包括:由编组呈现服务器建立可穿戴计算装置的编组网络;由编组呈现服务器基于从用户接收的呈现请求和可用增强现实呈现的池,生成增强现实呈现计划;以及通过将单独增强现实呈现数据传送到每个可穿戴计算装置,由编组呈现服务器生成用于编组网络的共享增强现实呈现,其中每个增强现实呈现数据基于增强现实呈现计划,并且被定制用于每个可穿戴计算装置。
示例26包括示例25的主题,并且其中建立编组网络包括由编组呈现服务器接收用户概况数据,并且由编组呈现服务器基于用户概况数据,建立可穿戴计算装置的编组网络。
示例27包括示例25和26任一项的主题,并且其中建立编组网络还包括由编组呈现服务器验证编组网络中每个可穿戴计算装置的操作。
示例28包括示例25-27任一项的主题,并且其中生成增强现实呈现计划包括由编组呈现服务器基于呈现请求和增强现实呈现,确定在增强现实呈现中要包括的呈现内容。
示例29包括示例25-28任一项的主题,并且其中确定呈现内容包括由编组呈现服务器基于呈现请求,从增强现实呈现的池中选择增强现实呈现;以及由编组呈现服务器将所选择的增强现实呈现添加到增强现实呈现计划。
示例30包括示例25-29任一项的主题,并且其中生成增强现实呈现计划包括由编组呈现服务器确定增强现实呈现计划的每个增强现实呈现的呈现序列。
示例31包括示例25-30任一项的主题,并且其中生成增强现实呈现计划包括由编组呈现服务器接收对于编组的每个成员的编组概况和各个用户概况;以及基于编组概况、各个用户概况、呈现请求、以及可用增强现实呈现的池,生成增强现实呈现计划。
示例32包括示例25-31任一项的主题,并且其中生成用于编组网络的共享增强现实呈现包括:由编组呈现服务器基于共享增强现实呈现,生成用于编组网络的每个可穿戴计算装置的单独增强现实呈现;由编组呈现服务器生成用于每个单独增强现实呈现的单独增强现实呈现数据;以及由编组呈现服务器将单独增强现实呈现数据传送到编组网络的每个对应可穿戴计算装置。
示例33包括示例25-32任一项的主题,并且其中生成单独增强现实呈现包括:由编组呈现服务器并且从每个可穿戴计算装置接收指示在生成共享增强现实呈现所处的呈现现场内的对应可穿戴计算装置的用户的位置的位置数据;以及由编组呈现服务器基于与对应可穿戴计算装置关联的位置数据和共享增强现实呈现,生成用于编组网络的每个可穿戴计算装置的单独增强现实呈现。
示例34包括示例25-33任一项的主题,并且其中生成共享增强现实呈现包括由编组呈现服务器从编组网络中每个可穿戴计算装置接收上下文数据;以及由编组呈现服务器基于上下文数据,调整共享增强现实呈现。
示例35包括示例25-34任一项的主题,并且其中生成共享增强现实呈现包括由编组呈现服务器并且向可穿戴计算装置的编组网络传送在增强现实呈现计划中当前未包括的另外增强现实呈现的推荐。
示例36包括示例25-35任一项的主题,并且其中生成共享增强现实呈现包括由编组呈现服务器记录共享增强现实呈现。
示例37包括示例25-36任一项的主题,并且其中记录共享增强现实呈现包括由编组呈现服务器记录单独增强现实呈现数据。
示例38包括示例25-37任一项的主题,并且其中记录共享增强现实呈现包括由编组呈现服务器接收指示对应可穿戴计算装置的上下文或对应可穿戴计算装置的用户的上下文的上下文数据,以及由编组呈现服务器将每个可穿戴计算装置的上下文数据与传送到对应可穿戴计算装置的单独增强现实呈现数据关联存储。
示例39包括示例25-38任一项的主题,并且还包括由编组呈现服务器跟踪编组网络的每个可穿戴计算装置的位置。
示例40包括示例25-39任一项的主题,并且其中跟踪每个可穿戴计算装置的位置包括由编组呈现服务器向编组网络的至少一个可穿戴计算装置传送通知,该通知标识编组网络的至少另一可穿戴计算装置的位置。
示例41包括示例25-40任一项的主题,并且其中跟踪每个可穿戴计算装置的位置包括由编组呈现服务器并且向编组网络的可穿戴计算装置传送在增强现实呈现计划中当前未包括的至少一个另外增强现实呈现的推荐。
示例42包括示例25-41任一项的主题,并且还包括由编组呈现服务器基于共享增强现实呈现,生成观后呈现。
示例43包括示例25-42任一项的主题,并且其中生成观后呈现包括:由编组呈现服务器记录共享增强现实呈现;由编组呈现服务器并且在共享增强现实呈现的呈现期间接收指示可穿戴计算装置的上下文或对应可穿戴计算装置的用户的上下文的上下文数据;以及由编组呈现服务器基于上下文数据,选择共享增强现实呈现的呈现元素来生成观后呈现。
示例44包括示例25-43任一项的主题,并且其中呈现元素包括在共享增强现实呈现期间生成的视频或音频至少之一。
示例45包括生成增强现实体验的方法,该方法包括:由可穿戴计算装置与编组呈现服务器进行通信以便与至少一个另外可穿戴计算装置建立编组网络;由可穿戴计算装置接收来自编组呈现服务器的增强现实呈现数据,其中增强现实呈现数据被定制用于可穿戴计算装置,并且定义与至少一个另外的可穿戴计算装置共享的共享增强现实呈现;以及使用增强现实呈现数据,由可穿戴计算装置生成增强现实呈现。
示例46包括示例45的主题,并且其中与编组呈现服务器的通信包括传送或接收与可穿戴计算装置的用户有关的用户概况数据。
示例47包括示例45和46任一项的主题,并且还包括由可穿戴计算装置的一个或更多传感器来感测指示可穿戴计算装置的用户对增强现实呈现的反应的上下文数据,以及由可穿戴计算装置将上下文数据传送到编组呈现服务器。
示例48包括示例45-47任一项的主题,并且还包括由可穿戴计算装置将增强现实呈现数据传达到所述至少一个另外的可穿戴计算装置。
示例49包括一个或更多机器可读存储媒体(在其上包括被存储的多个指令),所述指令响应被执行,导致计算装置执行示例25-48任一项所述的方法。
示例50包括生成编组增强现实体验的编组呈现服务器。编组呈现服务器包括:用于建立可穿戴计算装置的编组网络的部件;用于基于从用户接收的呈现请求和可用增强现实呈现的池,生成增强现实呈现计划的部件;以及用于通过将单独增强现实呈现数据传送到每个可穿戴计算装置,生成用于编组网络的共享增强现实呈现的部件,其中每个增强现实呈现数据基于增强现实呈现计划,并且被定制用于每个可穿戴计算装置。
示例51包括示例50的主题,并且其中用于建立编组网络的部件包括用于接收用户概况数据的部件,以及用于基于用户概况数据,建立可穿戴计算装置的编组网络的部件。
示例52包括示例50和51任一项的主题,并且其中用于建立编组网络的部件还包括用于验证编组网络中每个可穿戴计算装置的操作的部件。
示例53包括示例50-52任一项的主题,并且其中用于生成增强现实呈现计划的部件包括用于基于呈现请求和增强现实呈现,确定在增强现实呈现中要包括的呈现内容的部件。
示例54包括示例50-53任一项的主题,并且其中用于确定呈现内容的部件包括用于基于呈现请求,从增强现实呈现的池中选择增强现实呈现的部件;以及用于将所选择的增强现实呈现添加到增强现实呈现计划的部件。
示例55包括示例50-54任一项的主题,并且其中用于生成增强现实呈现计划的部件包括用于确定增强现实呈现计划的每个增强现实呈现的呈现序列的部件。
示例56包括示例50-55任一项的主题,并且其中用于生成增强现实呈现计划的部件包括用于接收用于编组的每个成员的编组概况和各个用户概况的部件;以及用于基于编组概况、各个用户概况、呈现请求、以及可用增强现实呈现的池,生成增强现实呈现计划的部件。
示例57包括示例50-56任一项的主题,并且其中用于生成用于编组网络的共享增强现实呈现的部件包括:用于基于共享增强现实呈现,生成用于编组网络的每个可穿戴计算装置的单独增强现实呈现的部件;用于生成用于各个增强现实呈现中的每个的单独增强现实呈现数据的部件;以及用于将单独增强现实呈现数据传送到编组网络的每个对应可穿戴计算装置的部件。
示例58包括示例50-57任一项的主题,并且其中用于生成单独增强现实呈现的部件包括用于接收指示在生成共享增强现实呈现所处的呈现现场内的对应可穿戴计算装置的用户的位置的位置数据的部件;以及用于基于与对应可穿戴计算装置关联的位置数据和共享增强现实呈现,生成用于编组网络的每个可穿戴计算装置的单独增强现实呈现的部件。
示例59包括示例50-58任一项的主题,并且其中用于生成共享增强现实呈现的部件包括:用于接收来自编组网络中每个可穿戴计算装置的上下文数据的部件;以及用于基于上下文数据,调整共享增强现实呈现的部件。
示例60包括示例50-59任一项的主题,并且其中用于生成共享增强现实呈现的部件包括用于传送对在增强现实呈现计划中当前未包括的另外增强现实呈现的推荐的部件。
示例61包括示例50-60任一项的主题,并且其中用于生成共享增强现实呈现的部件包括用于记录共享增强现实呈现的部件。
示例62包括示例50-61任一项的主题,并且其中用于记录共享增强现实呈现的部件包括用于记录单独增强现实呈现数据的部件。
示例63包括示例50-62任一项的主题,并且其中用于记录共享增强现实呈现的部件包括用于接收指示对应可穿戴计算装置的上下文或对应可穿戴计算装置的用户的上下文的上下文数据的部件,以及用于将每个可穿戴计算装置的上下文数据与传送到对应可穿戴计算装置的单独增强现实呈现数据关联存储的部件。
示例64包括示例50-63任一项的主题,并且还包括用于跟踪编组网络的每个可穿戴计算装置的位置的部件。
示例65包括示例50-64任一项的主题,并且其中用于跟踪每个可穿戴计算装置的位置的部件包括用于向编组网络的至少一个可穿戴计算装置传送通知的部件,该通知标识编组网络的至少另一可穿戴计算装置的位置。
示例66包括示例50-65任一项的主题,并且其中用于跟踪每个可穿戴计算装置的位置的部件包括用于传送对在增强现实呈现计划中当前未包括的至少一个另外增强现实呈现的推荐的部件。
示例67包括示例50-66任一项的主题,并且还包括用于基于共享增强现实呈现,生成观后呈现的部件。
示例68包括示例50-67任一项的主题,并且其中用于生成观后呈现的部件包括:用于记录共享增强现实呈现的部件;用于接收并且在共享增强现实呈现的呈现期间的,指示可穿戴计算装置的上下文或对应可穿戴计算装置的用户的上下文的上下文数据的部件;以及用于基于上下文数据,选择共享增强现实呈现的呈现元素以生成观后呈现的部件。
示例69包括示例50-68任一项的主题,并且其中呈现元素包括在共享增强现实呈现期间生成的视频或音频至少之一。
示例70包括用于生成增强现实体验的可穿戴计算装置。可穿戴计算装置包括:用于与编组呈现服务器进行通信以便与至少一个另外的可穿戴计算装置建立编组网络的部件;用于接收来自编组呈现服务器的增强现实呈现数据的部件,其中增强现实呈现数据被定制用于可穿戴计算装置,并且定义与所述至少一个另外的可穿戴计算装置共享的共享增强现实呈现;以及用于使用增强现实呈现数据,生成增强现实呈现的部件。
示例71包括示例70的主题,并且其中用于与编组呈现服务器进行通信的部件包括用于传送或接收与可穿戴计算装置的用户有关的用户概况数据的部件。
示例72包括示例70或71任一项的主题,并且还包括用于感测指示可穿戴计算装置的用户对增强现实呈现的反应的上下文数据的部件,以及用于将上下文数据传送到编组呈现服务器的部件。
示例73包括示例70-72任一项的主题,并且还包括用于将增强现实呈现数据传达到所述至少一个另外的可穿戴计算装置的部件。
示例74包括用于生成共享增强现实体验的增强现实系统。增强现实系统包括用来通过将单独增强现实呈现数据传送到每个可穿戴计算装置,生成用于可穿戴计算装置的编组网络的共享增强现实呈现的共享呈现服务器,其中每个增强现实呈现数据基于共享增强现实呈现,并且被定制用于每个可穿戴计算装置。
Claims (25)
1.一种用于生成编组增强现实体验的编组呈现服务器,所述编组呈现服务器包括:
数据库,其中存储有可用增强现实呈现的池;
编组建立模块,用来建立可穿戴计算装置的编组网络;
增强现实呈现计划模块,用来基于从用户接收的呈现请求和可用增强现实呈现的所述池,生成增强现实呈现计划;以及
增强现实呈现模块,用来通过将单独增强现实呈现数据传送到每个可穿戴计算装置,生成用于所述编组网络的共享增强现实呈现,其中每个增强现实呈现数据基于所述增强现实呈现计划,并且被定制用于每个可穿戴计算装置。
2. 如权利要求1所述的编组呈现服务器,其中所述编组建立模块将:
接收包括编组信息的用户概况数据;以及
基于来自与每个可穿戴计算装置关联的所述用户概况数据的所述编组信息,建立可穿戴计算装置的编组网络。
3. 如权利要求1所述的编组呈现服务器,其中所述增强现实呈现模块将:
接收用于编组的每个成员的编组概况和各个用户概况;以及
基于所述编组概况、所述各个用户概况、所述呈现请求、以及可用增强现实呈现的所述池,生成所述增强现实呈现计划。
4.如权利要求1所述的编组呈现服务器,其中所述增强现实呈现模块将:
基于所述共享增强现实呈现,生成用于所述编组网络的每个可穿戴计算装置的单独增强现实呈现;
生成用于各个增强现实呈现中的每个的单独增强现实呈现数据;以及
将各个增强现实呈现数据传送到所述编组网络的每个对应可穿戴计算装置。
5. 如权利要求4所述的编组呈现服务器,其中所述增强现实呈现模块将:
从每个可穿戴计算装置接收指示在生成所述共享增强现实呈现所处的呈现现场内的对应可穿戴计算装置的用户的位置的位置数据;以及
基于与所述对应可穿戴计算装置关联的所述位置数据和所述共享增强现实呈现,生成用于所述编组网络的每个可穿戴计算装置的单独增强现实呈现。
6. 如权利要求1-5任一项所述的编组呈现服务器,其中所述增强现实呈现模块将:
从所述编组网络中每个所述可穿戴计算装置接收上下文数据;以及
基于所述上下文数据,调整所述共享增强现实呈现。
7.如权利要求1所述的编组呈现服务器,其中所述增强现实呈现模块将记录所述共享增强现实呈现。
8.如权利要求1-5任一项所述的编组呈现服务器,其中所述增强现实呈现模块将跟踪所述编组网络的每个可穿戴计算装置的位置。
9.如权利要求8所述的编组呈现服务器,其中所述增强现实呈现模块将向所述编组网络的至少一个可穿戴计算装置传送通知,所述通知标识所述编组网络的至少另一可穿戴计算装置的位置。
10.如权利要求1-5任一项所述的编组呈现服务器,还包括用来基于所述共享增强现实呈现,生成观后呈现的观后呈现模块。
11.一种用于生成增强现实体验的可穿戴计算装置,所述可穿戴计算装置包括:
至少一个增强现实输出装置;
本地用户概况模块,用来与编组呈现服务器进行通信以便与至少一个另外的可穿戴计算装置建立编组网络;
通信模块,用来从所述编组呈现服务器接收增强现实呈现数据,其中所述增强现实呈现数据被定制用于所述可穿戴计算装置,并且定义与所述至少一个另外的可穿戴计算装置共享的共享增强现实呈现;以及
增强现实输出模块,用来基于所述增强现实呈现数据,控制所述至少一个增强现实输出装置来生成增强现实呈现。
12. 如权利要求11所述的可穿戴计算装置,还包括:
所述可穿戴计算装置的一个或更多传感器;以及
传感器管理模块,用来检测指示所述可穿戴计算装置的用户对所述增强现实呈现的反应的上下文数据,以及将所述上下文数据传送到所述编组呈现服务器。
13.一种生成编组增强现实体验的方法,所述方法包括:
由编组呈现服务器建立可穿戴计算装置的编组网络;
由所述编组呈现服务器基于从用户接收的呈现请求和可用增强现实呈现的池,生成增强现实呈现计划;以及
通过将单独增强现实呈现数据传送到每个可穿戴计算装置,由所述编组呈现服务器生成用于所述编组网络的共享增强现实呈现,其中每个增强现实呈现数据基于所述增强现实呈现计划,并且被定制用于每个可穿戴计算装置。
14. 如权利要求13所述的方法,其中建立编组网络包括:
由所述编组呈现服务器接收用户概况数据,以及
由所述编组呈现服务器基于用户概况数据,建立可穿戴计算装置的编组网络。
15. 如权利要求13所述的方法,其中生成所述增强现实呈现计划包括:
由所述编组呈现服务器接收用于编组的每个成员的编组概况和各个用户概况;以及
基于所述编组概况、所述各个用户概况、所述呈现请求以及可用增强现实呈现的所述池,生成所述增强现实呈现计划。
16.如权利要求13所述的方法,其中生成用于所述编组网络的所述共享增强现实呈现包括:
由所述编组呈现服务器基于所述共享增强现实呈现,生成用于所述编组网络的每个可穿戴计算装置的单独增强现实呈现,
由所述编组呈现服务器生成用于各个增强现实呈现中的每个的单独增强现实呈现数据;以及
由所述编组呈现服务器将所述单独增强现实呈现数据传送到所述编组网络的每个对应可穿戴计算装置。
17. 如权利要求16所述的方法,其中生成单独增强现实呈现包括:
由所述编组呈现服务器且从每个可穿戴计算装置接收指示在生成所述共享增强现实呈现所处的呈现现场内的对应可穿戴计算装置的用户的位置的位置数据;以及
由所述编组呈现服务器基于与所述对应可穿戴计算装置关联的所述位置数据和所述共享增强现实呈现,生成用于所述编组网络的每个可穿戴计算装置的单独增强现实呈现。
18. 如权利要求13所述的方法,其中生成共享增强现实呈现包括:
由所述编组呈现服务器从所述编组网络中每个所述可穿戴计算装置接收上下文数据;以及
由所述编组呈现服务器基于所述上下文数据,调整所述共享增强现实呈现。
19.如权利要求13所述的方法,其中生成共享增强现实呈现包括由所述编组呈现服务器记录所述共享增强现实呈现。
20.如权利要求13所述的方法,还包括由所述编组呈现服务器跟踪所述编组网络的每个可穿戴计算装置的位置。
21.如权利要求20所述的方法,其中跟踪每个可穿戴计算装置的所述位置包括由所述编组呈现服务器传送通知到所述编组网络的至少一个可穿戴计算装置,所述通知标识所述编组网络的至少另一可穿戴计算装置的位置。
22.如权利要求13所述的方法,还包括由所述编组呈现服务器基于所述共享增强现实呈现,生成观后呈现。
23.一种生成增强现实体验的方法,所述方法包括:
由可穿戴计算装置与编组呈现服务器进行通信以便与至少一个另外的可穿戴计算装置建立编组网络;
由所述可穿戴计算装置从所述编组呈现服务器接收增强现实呈现数据,其中所述增强现实呈现数据被定制用于所述可穿戴计算装置,并且定义与所述至少一个另外的可穿戴计算装置共享的共享增强现实呈现;以及
由所述可穿戴计算装置使用所述增强现实呈现数据,生成增强现实呈现。
24.如权利要求23所述的方法,还包括由所述可穿戴计算装置的一个或更多传感器感测指示所述可穿戴计算装置的用户对所述增强现实呈现的反应的上下文数据,以及
由所述可穿戴计算装置将所述上下文数据传送到所述编组呈现服务器。
25.一个或更多机器可读存储媒体,包括在其上存储的多个指令,所述指令响应被执行,导致计算装置执行如权利要求13-24任一项的方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/583659 | 2014-12-27 | ||
US14/583,659 US20160188585A1 (en) | 2014-12-27 | 2014-12-27 | Technologies for shared augmented reality presentations |
PCT/US2015/062690 WO2016105839A1 (en) | 2014-12-27 | 2015-11-25 | Technologies for shared augmented reality presentations |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107003733A true CN107003733A (zh) | 2017-08-01 |
CN107003733B CN107003733B (zh) | 2024-06-11 |
Family
ID=56151362
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201580064724.5A Active CN107003733B (zh) | 2014-12-27 | 2015-11-25 | 用于共享增强现实呈现的技术 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20160188585A1 (zh) |
EP (1) | EP3238165A4 (zh) |
CN (1) | CN107003733B (zh) |
WO (1) | WO2016105839A1 (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107632705A (zh) * | 2017-09-07 | 2018-01-26 | 歌尔科技有限公司 | 沉浸式交互方法、设备、系统及虚拟现实设备 |
CN107943282A (zh) * | 2017-11-06 | 2018-04-20 | 上海念通智能科技有限公司 | 一种基于增强现实和可穿戴设备的人机交互系统及方法 |
CN113168282A (zh) * | 2018-12-04 | 2021-07-23 | 三星电子株式会社 | 用于生成增强现实表情符号的电子装置及其方法 |
CN113178089A (zh) * | 2020-01-27 | 2021-07-27 | 丰田自动车株式会社 | 显示控制装置、显示控制方法以及计算机可读存储介质 |
CN113660347A (zh) * | 2021-08-31 | 2021-11-16 | Oppo广东移动通信有限公司 | 数据处理方法、装置、电子设备和可读存储介质 |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10345768B2 (en) * | 2014-09-29 | 2019-07-09 | Microsoft Technology Licensing, Llc | Environmental control via wearable computing system |
WO2017201568A1 (en) | 2016-05-23 | 2017-11-30 | tagSpace Pty Ltd | Media tags location-anchored digital media for augmented reality and virtual reality environments |
US10403044B2 (en) * | 2016-07-26 | 2019-09-03 | tagSpace Pty Ltd | Telelocation: location sharing for users in augmented and virtual reality environments |
US10297085B2 (en) | 2016-09-28 | 2019-05-21 | Intel Corporation | Augmented reality creations with interactive behavior and modality assignments |
US10484643B2 (en) * | 2016-11-10 | 2019-11-19 | Avaya Inc. | Intelligent contact recording in a virtual reality contact center |
US10963964B1 (en) | 2016-12-28 | 2021-03-30 | Wells Fargo Bank, N.A. | Measuring risk tolerance using virtual or augmented reality view of simulated outcome |
US10282909B2 (en) * | 2017-03-23 | 2019-05-07 | Htc Corporation | Virtual reality system, operating method for mobile device, and non-transitory computer readable storage medium |
IT201700058961A1 (it) | 2017-05-30 | 2018-11-30 | Artglass S R L | Metodo e sistema di fruizione di un contenuto editoriale in un sito preferibilmente culturale o artistico o paesaggistico o naturalistico o fieristico o espositivo |
US10694311B2 (en) * | 2018-03-15 | 2020-06-23 | Microsoft Technology Licensing, Llc | Synchronized spatial audio presentation |
US10810782B1 (en) * | 2019-04-01 | 2020-10-20 | Snap Inc. | Semantic texture mapping system |
US11120700B2 (en) * | 2019-04-11 | 2021-09-14 | International Business Machines Corporation | Live personalization of mass classroom education using augmented reality |
CN110908504B (zh) * | 2019-10-10 | 2021-03-23 | 浙江大学 | 一种增强现实博物馆协作交互方法与系统 |
US11315326B2 (en) * | 2019-10-15 | 2022-04-26 | At&T Intellectual Property I, L.P. | Extended reality anchor caching based on viewport prediction |
US11206365B2 (en) * | 2020-01-13 | 2021-12-21 | Charter Communications Operating, Llc | Method and apparatus for overlaying themed imagery onto real-world objects in a head-mounted display device |
LU102082B1 (en) * | 2020-09-25 | 2022-03-29 | Microsoft Technology Licensing Llc | Image security using segmentation |
US11455486B2 (en) * | 2020-12-11 | 2022-09-27 | International Business Machines Corporation | Cohort experience orchestrator |
EP4260492A4 (en) * | 2020-12-14 | 2024-01-10 | Funai Electric Co., Ltd. | REAL-TIME MULTIPLE USER MERSION |
IT202100017351A1 (it) * | 2021-07-01 | 2023-01-01 | Artisti Riuniti S R L | Sistema e dispositivo di condivisione di contenuti artistico-teatrali in formato digitale tra account geolocalizzati |
KR20230057494A (ko) * | 2021-10-21 | 2023-05-02 | 삼성디스플레이 주식회사 | 증강 현실 제공 장치 및 이를 이용한 증강 현실 제공 시스템 |
US11949527B2 (en) | 2022-04-25 | 2024-04-02 | Snap Inc. | Shared augmented reality experience in video chat |
CN114785752B (zh) * | 2022-05-17 | 2023-12-15 | 北京蜂巢世纪科技有限公司 | 基于头戴式显示设备的加群方法、设备及介质 |
US20240071004A1 (en) * | 2022-08-31 | 2024-02-29 | Snap Inc. | Social memory re-experiencing system |
US11861030B1 (en) * | 2023-08-17 | 2024-01-02 | Datchat, Inc. | Technology platform for providing secure group-based access to sets of digital assets |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1609858A (zh) * | 2003-10-24 | 2005-04-27 | 微软公司 | 对等组共享空间中进行文件共享的系统和方法 |
CN103781522A (zh) * | 2011-04-13 | 2014-05-07 | 奥托诺尼有限公司 | 用于生成并加入经验共享的方法和系统 |
US20140347265A1 (en) * | 2013-03-15 | 2014-11-27 | Interaxon Inc. | Wearable computing apparatus and method |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004012141A2 (en) * | 2002-07-26 | 2004-02-05 | Zaxel Systems, Inc. | Virtual reality immersion system |
US20060230073A1 (en) * | 2004-08-31 | 2006-10-12 | Gopalakrishnan Kumar C | Information Services for Real World Augmentation |
US20140188990A1 (en) * | 2012-12-27 | 2014-07-03 | Nokia Corporation | Method and apparatus for establishing user group network sessions using location parameters in an augmented reality display |
US8933967B2 (en) * | 2005-07-14 | 2015-01-13 | Charles D. Huston | System and method for creating and sharing an event using a social network |
US20080252637A1 (en) * | 2007-04-14 | 2008-10-16 | Philipp Christian Berndt | Virtual reality-based teleconferencing |
US20120242698A1 (en) * | 2010-02-28 | 2012-09-27 | Osterhout Group, Inc. | See-through near-eye display glasses with a multi-segment processor-controlled optical layer |
EP2817785B1 (en) * | 2012-02-23 | 2019-05-15 | Charles D. Huston | System and method for creating an environment and for sharing a location based experience in an environment |
US9569552B2 (en) * | 2012-07-31 | 2017-02-14 | D2L Corporation | Code based configuration of mobile devices |
US9342929B2 (en) * | 2013-01-22 | 2016-05-17 | Microsoft Technology Licensing, Llc | Mixed reality experience sharing |
US20140375684A1 (en) * | 2013-02-17 | 2014-12-25 | Cherif Atia Algreatly | Augmented Reality Technology |
US10319145B2 (en) * | 2013-03-14 | 2019-06-11 | Intel Corporation | Asynchronous representation of alternate reality characters |
-
2014
- 2014-12-27 US US14/583,659 patent/US20160188585A1/en not_active Abandoned
-
2015
- 2015-11-25 EP EP15874041.5A patent/EP3238165A4/en not_active Ceased
- 2015-11-25 WO PCT/US2015/062690 patent/WO2016105839A1/en active Application Filing
- 2015-11-25 CN CN201580064724.5A patent/CN107003733B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1609858A (zh) * | 2003-10-24 | 2005-04-27 | 微软公司 | 对等组共享空间中进行文件共享的系统和方法 |
CN103781522A (zh) * | 2011-04-13 | 2014-05-07 | 奥托诺尼有限公司 | 用于生成并加入经验共享的方法和系统 |
US20140347265A1 (en) * | 2013-03-15 | 2014-11-27 | Interaxon Inc. | Wearable computing apparatus and method |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107632705A (zh) * | 2017-09-07 | 2018-01-26 | 歌尔科技有限公司 | 沉浸式交互方法、设备、系统及虚拟现实设备 |
CN107943282A (zh) * | 2017-11-06 | 2018-04-20 | 上海念通智能科技有限公司 | 一种基于增强现实和可穿戴设备的人机交互系统及方法 |
CN113168282A (zh) * | 2018-12-04 | 2021-07-23 | 三星电子株式会社 | 用于生成增强现实表情符号的电子装置及其方法 |
CN113178089A (zh) * | 2020-01-27 | 2021-07-27 | 丰田自动车株式会社 | 显示控制装置、显示控制方法以及计算机可读存储介质 |
CN113660347A (zh) * | 2021-08-31 | 2021-11-16 | Oppo广东移动通信有限公司 | 数据处理方法、装置、电子设备和可读存储介质 |
CN113660347B (zh) * | 2021-08-31 | 2024-05-07 | Oppo广东移动通信有限公司 | 数据处理方法、装置、电子设备和可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US20160188585A1 (en) | 2016-06-30 |
CN107003733B (zh) | 2024-06-11 |
WO2016105839A1 (en) | 2016-06-30 |
EP3238165A1 (en) | 2017-11-01 |
EP3238165A4 (en) | 2018-09-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107003733A (zh) | 用于共享增强现实呈现的技术 | |
Borrego et al. | Feasibility of a walking virtual reality system for rehabilitation: objective and subjective parameters | |
KR102504245B1 (ko) | 생체 인증 정보를 교환하도록 구성된 머리 장착 디스플레이 시스템 | |
US10083363B2 (en) | System and method for customizing content for a user | |
CA2956508C (en) | Method and system for reconstructing obstructed face portions for virtual reality environment | |
CN105359062B (zh) | 眼动追踪数据分析系统及方法 | |
Chatzidimitris et al. | SoundPacman: Audio augmented reality in location-based games | |
US20150362733A1 (en) | Wearable head-mounted display and camera system with multiple modes | |
CN114586071A (zh) | 支持多设备类型的交叉现实系统 | |
CN109475774A (zh) | 虚拟现实环境中的视图位置处的观众管理 | |
KR20190088545A (ko) | 상호작용적 증강 현실 프리젠테이션들을 표시하기 위한 시스템들, 방법들 및 매체들 | |
KR20190006553A (ko) | 사용자 거동에 관한 눈 추적 기반 정보를 제공하기 위한 방법 및 시스템, 클라이언트 디바이스, 서버 및 컴퓨터 프로그램 제품 | |
CN106255916A (zh) | 跟踪头戴式显示器(hmd)的方法和系统以及用于hmd头带调整的校准 | |
CN107427722A (zh) | 晕动病监测和补充声音对抗晕动病的应用 | |
CA2886948A1 (en) | Method relating to presence granularity with augmented reality | |
WO2016014233A1 (en) | Real-time immersive mediated reality experiences | |
US12007561B2 (en) | Methods and devices related to extended reality | |
KR20180008632A (ko) | 생체 인증 데이터를 추적하기 위한 증강 현실 시스템들 및 방법들 | |
US10909405B1 (en) | Virtual interest segmentation | |
CN103365657A (zh) | 显示控制方法、装置及包括该装置的显示设备 | |
CN107409131A (zh) | 用于无缝数据流送体验的技术 | |
Barile et al. | ICT solutions for the OR. C. HE. STRA project: From personalized selection to enhanced fruition of cultural heritage data | |
JP2024091779A (ja) | 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム | |
CN110178159A (zh) | 具有集成式投影仪的音频/视频可穿戴式计算机系统 | |
EP3965369A1 (en) | Information processing apparatus, program, and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |