CN113474063A - 用于游乐园系统的扩展现实乘坐设施测试组件 - Google Patents
用于游乐园系统的扩展现实乘坐设施测试组件 Download PDFInfo
- Publication number
- CN113474063A CN113474063A CN202080018679.0A CN202080018679A CN113474063A CN 113474063 A CN113474063 A CN 113474063A CN 202080018679 A CN202080018679 A CN 202080018679A CN 113474063 A CN113474063 A CN 113474063A
- Authority
- CN
- China
- Prior art keywords
- head
- amusement park
- attraction
- ride vehicle
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003190 augmentative effect Effects 0.000 title description 14
- 238000012360 testing method Methods 0.000 title description 12
- 230000004044 response Effects 0.000 claims description 9
- 230000001133 acceleration Effects 0.000 claims description 3
- 210000003128 head Anatomy 0.000 description 145
- 230000000007 visual effect Effects 0.000 description 26
- 230000001815 facial effect Effects 0.000 description 15
- 230000000694 effects Effects 0.000 description 13
- 230000006399 behavior Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 210000004209 hair Anatomy 0.000 description 9
- 238000004519 manufacturing process Methods 0.000 description 8
- 230000002452 interceptive effect Effects 0.000 description 7
- 238000000034 method Methods 0.000 description 7
- 230000000712 assembly Effects 0.000 description 5
- 238000000429 assembly Methods 0.000 description 5
- 230000008878 coupling Effects 0.000 description 5
- 238000010168 coupling process Methods 0.000 description 5
- 238000005859 coupling reaction Methods 0.000 description 5
- 238000011161 development Methods 0.000 description 5
- 239000000463 material Substances 0.000 description 5
- 238000004088 simulation Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 239000002131 composite material Substances 0.000 description 3
- 229920000642 polymer Polymers 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000035807 sensation Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 230000004424 eye movement Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
- 239000011810 insulating material Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000003562 lightweight material Substances 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 210000005010 torso Anatomy 0.000 description 2
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001125 extrusion Methods 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000000720 eyelash Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000010348 incorporation Methods 0.000 description 1
- 238000001746 injection moulding Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 238000000465 moulding Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000001179 pupillary effect Effects 0.000 description 1
- 230000003362 replicative effect Effects 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63G—MERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
- A63G31/00—Amusement arrangements
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63G—MERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
- A63G31/00—Amusement arrangements
- A63G31/02—Amusement arrangements with moving substructures
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63G—MERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
- A63G31/00—Amusement arrangements
- A63G31/16—Amusement arrangements creating illusions of travel
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63J—DEVICES FOR THEATRES, CIRCUSES, OR THE LIKE; CONJURING APPLIANCES OR THE LIKE
- A63J5/00—Auxiliaries for producing special effects on stages, or in circuses or arenas
- A63J5/02—Arrangements for making stage effects; Auxiliary stage appliances
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/003—Manipulators for entertainment
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/1633—Programme controls characterised by the control loop compliant, force, torque control, e.g. combined with position control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1692—Calibration of manipulator
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/54—Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/57—Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Toys (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
一种游乐园景点包括配置为沿着游乐园景点的路径(152)行进的乘坐载运器(150)、配置为生成虚拟元素的景点控制器(107)、以及设置在乘坐载运器(150)上的机器人组件(108)。机器人组件(108)的头部(170)被配置为调整相对于乘坐载运器(150)的定位。游乐园景点还包括通信地耦合到景点控制器(107)的头戴装置(106)和设置在机器人组件(108)的头部(170)中的相机(122)。头戴装置(106)被配置为设置在机器人组件(108)的头部(170)上。头戴装置(106)还被配置为基于游乐园景点中的头戴装置定位来显示由景点控制器(107)生成的虚拟元素。相机(122)被配置为获取指示由头戴装置(106)显示的虚拟元素的数据。
Description
相关申请的交叉引用
本申请要求2019年1月4日提交的题为“EXTENDED REALITY RIDE TEST ASSEMBLYFOR AMUSEMENT PARK SYSTEM”的美国临时申请序列号62/788,228的优先权和权益,该申请通过引用特此并入。
背景技术
本公开总体上涉及游乐园娱乐领域。更具体地,本公开的实施例涉及用于模拟景点的系统。
本部分旨在向读者介绍可能与本公开的各个方面相关的技术的各个方面,所述方面在下面进行描述。该讨论被相信有助于为读者提供背景信息以促进更好地理解本公开的各个方面。因此,应当理解,这些陈述应从这个角度来阅读,而不是作为对现有技术的承认。
游乐园包括各种特征,从而为每个公园客人提供独特的体验。例如,游乐园可以包括结合扩展现实特征的景点。也就是说,景点可以生成并显示在景点操作时景点的每个客人可以观察到的虚拟元素。在一些情况下,每个客人观察到不同的虚拟元素。可能难以以大规模确定由每个客人观察到的虚拟元素。也就是说,生成和显示虚拟元素以模拟景点的每个客人的体验就以受控方式再现而言可能是复杂的。因此,开发具有扩展现实特征的景点可能是困难和/或繁琐的。
发明内容
下面阐述了本文中公开的某些实施例的概述。应当理解,呈现这些方面仅仅是为了向读者提供这些特定实施例的简要概述,并且这些方面并非旨在限制本公开的范围。实际上,本公开可涵盖下面可能未阐述的各种方面。
在实施例中,游乐园景点包括配置为沿着游乐园景点的路径行进的乘坐载运器、配置为生成虚拟元素的景点控制器以及设置在乘坐载运器上的机器人组件。机器人组件的头部被配置为调整相对于乘坐载运器的定位。游乐园景点还包括通信地耦合到景点控制器的头戴装置(headset)和设置在机器人组件的头部中的相机。头戴装置被配置为设置在机器人组件的头部上。头戴装置还被配置为基于游乐园景点中的头戴装置定位显示由景点控制器生成的虚拟元素。相机被配置为获取指示由头戴装置显示的虚拟元素的数据。
在实施例中,游乐园景点包括配置为沿着游乐园景点的路径行进的乘坐载运器、配置为生成虚拟元素的景点控制器、设置在乘坐载运器上的头戴装置和设置在乘坐载运器上的机器人组件。头戴装置被配置为基于头戴装置在游乐园景点中的定位显示由景点控制器生成的虚拟元素,以及机器人组件包括头部和设置在头部中的相机,在头部中相机被配置为当游乐园景点操作时获取指示由头戴装置显示的虚拟元素的数据;。此外,游乐园景点包括被配置为检测游乐园景点的操作参数的传感器和通信地耦合到机器人组件的控制器,在机器人组件中控制器被配置为基于操作参数来控制头部的定位的调整。
在实施例中,游乐园景点的机器人组件包括头部、设置在头部的腔体中的相机、以及被配置为耦合到游乐园景点的乘坐载运器的调整器。头部被配置为耦合到游乐园景点的头戴装置,相机被配置为获取指示经由头戴装置显示的虚拟元素的数据,并且调整器被配置为相对于乘坐载运器调整头部的定位。
附图说明
当参考附图阅读以下详细描述时,本公开的这些和其他特征、方面和优点将变得更好理解,其中贯穿附图,相同的字符代表相同的部分,其中:
图1是根据本公开的方面的包括用于捕获生成的虚拟元素的机器人组件的景点的实施例的示意性视图;
图2是根据本公开的方面的包括乘坐载运器和设置在乘坐载运器中的机器人组件的景点的实施例的示意性视图;
图3是根据本公开的方面的被实现以捕获生成的虚拟元素的机器人组件的实施例的透视图;
图4是根据本公开的方面的被配置为捕获具有生成的虚拟元素的乘坐设施的各方面的机器人组件的头部的实施例的透视图;
图5是根据本公开的方面的包含在图4的机器人组件的头部内的内部部件的头顶透视图;
图6是根据本公开的方面的没有内部部件的图5的头部的顶视图;
图7是根据本公开的方面的集成在机器人组件的头部中的托盘的实施例的顶部局部视图;
图8是根据本公开的方面的耦合到乘坐系统的机器人组件的实施例的侧透视图;
图9是根据本公开的方面的在景点中并入和使用机器人组件并经由机器人组件获取和评估数据的方法的实施例的框图;
图10是根据本公开的方面的用于选择机器人组件的特征的方法的实施例的框图;
图11是根据本公开的方面的用于在景点中设置机器人组件的方法的实施例的框图;
图12是根据本公开的方面的用于经由机器人组件获取数据的方法的实施例的框图;以及
图13是根据本公开的方面的用于处理经由机器人组件获取的数据的方法的实施例的框图。
具体实施方式
以下将描述一个或多个特定实施例。在致力于提供这些实施例的简要描述的过程中,不在说明书中描述实际实施方式的所有特征。应当理解,在任何这样的实际实施方式的开发中,如在任何工程或设计项目中,必须做出许多特定于实施方式的决策,以实现开发者的特定目标,诸如依照与系统相关和与业务相关的约束,其可能因实施方式而变化。此外,应当理解,这样的开发工作可能是复杂且耗时的,但是对于受益于本公开的普通技术人员而言,这仍然会是设计、制作和制造的例行任务。
本公开的实施例涉及一种招待游乐园的客人的游乐园景点。景点可能包括现场演出、轨道乘坐设施、静止乘坐设施和其他类型的景点,来为游乐园提供多种招待客人的方式。每个景点还可以使用不同的效果来为客人提供特定的体验。例如,景点可能使用恐惧、幽默、兴奋等来引起客人的某种情绪。越来越多地,游乐园正在实施增强客人的体验的不同方式。例如,景点可以利用扩展现实特征补充客人的体验。扩展现实特征可以使得景点能够提供灵活且有效的方式来招待每个客人。
如本文中所使用的,扩展现实是指将诸如投影图像之类的虚拟元素结合到现实环境中。扩展现实可以包括虚拟现实、增强现实和/或混合现实。如本文中所使用,虚拟现实是指利用虚拟环境代替整个或几乎整个现实环境。也就是说,虚拟现实可以生成图像、声音和其他元素来复制沉浸的虚拟环境。如本文中所使用的,增强现实是指在现实环境之上叠加虚拟元素。增强现实可以投影图像、生成声音、操纵触觉感官等等,其补充现实环境。然而,与虚拟元素的交互可能被限制。如本文中所使用的,混合现实是指将虚拟元素投影到现实环境中,其中虚拟元素可以是交互式的。例如,混合现实可以投影虚拟元素,该虚拟元素可以基于客人的移动而移动。通过实施扩展现实,可以为每个客人投影虚拟图像来观看,从而限制了原本会在景点上制造、安装或以其他方式提供的物理对象的数量。
如将在本公开中讨论的,可以经由景点上的由每个客人佩戴的头戴装置在景点处创建扩展现实。如本文中所使用的,头戴装置是指可以由客人佩戴并且可以被实现为显示可以由景点的景点控制器生成并由客人体验的虚拟元素的设备。尽管本公开主要讨论显示要由客人看到的虚拟图像和要由客人听到的声音的头戴装置,但是应当理解,头戴装置可以附加地或可替代地投出虚拟气味、触觉等。通常,可以生成虚拟元素以增强客人体验。例如,虚拟元素可以将特定情绪传递给客人,这如果经由物理对象执行可能被限制。具体地,头戴装置可能显示在现实世界中可能低效或难以复制的元素。例如,头戴装置可以显示由佩戴头戴装置的客人可观看的各种角色和/或环境。头戴装置还可以投出与角色和环境相关联的声音。以此方式,生成了许多可以代替物理对象的元素,诸如电子动画、机器人、演出表演者等,以增强景点上的客人体验。可以比现实元素更高效地控制虚拟元素。作为示例,可以经由头戴装置的编程而不是经由现实元素的物理定位来添加、移除和以其他方式操纵虚拟元素。此外,虚拟元素可以不限于景点的参数,包括景点的承重能力、位置和/或尺寸。因此,虚拟元素可以提供比物理对象更多增强客人体验的机会。
景点控制器可以基于景点的某些参数生成虚拟元素。在一个示例中,某些虚拟元素可以基于景点的操作生成,诸如以景点的特定时间间隔生成。此外,头戴装置可以基于客人的交互来显示虚拟元素,交互诸如客人的移动、位置和/或定位。例如,基于客人所处的地方、客人面对的地方等,不同的客人可能看到不同的虚拟元素和/或不同的客人可能以不同视角看到相同的虚拟元素。
如应当理解,生成的虚拟元素的识别和查看可以促进测试和/或开发景点。具体地,模拟客人在景点上的行为可以允许经由头戴装置对如将由客人体验的虚拟元素的显示。此外,记录所显示的虚拟元素可以允许确定客人体验。如本文中所使用的,客人体验的模拟包括客人行为的模拟和所显示的虚拟元素的后续记录。客人体验的模拟可以促进确定是否可以包括附加元素(例如,虚拟元素),是否可以移除或修改现有元素,和/或是否可以在景点中进行其他修改以增强客人体验。确定由客人经由头戴装置所体验的视觉元素可以在模拟客人行为(例如,生成类似于客人在景点中可能如何移动的移动)的同时通过佩戴头戴装置的个人来实现。以此方式,个人可以体验客人在景点上可能遇到的视觉元素。然而,经由景点的个人体验来模拟客人体验可能是繁琐和低效的。例如,佩戴头戴装置的个人的观看可能不被记录,并且可能只有当个人在景点上佩戴头戴装置时对于个人而言才是可观看的。因此,重复个人的观看可以包括重复景点的体验。此外,在一些情况下,通过个人经由体验景点来模拟客人体验可能不容易获得,并且可能取决于个人的可用性和景点容纳个人的准备情况。
因此,根据本公开的某些实施例,实现对由客人经由头戴装置可观看的虚拟元素的确定的系统可以促进某些景点的开发和/或测试。特别地,该系统可以实现对由头戴装置显示的虚拟元素的记录和/或投影,这可以导致模拟的客人体验的更大可访问性。此外,该系统可以在不使个人物理地存在于景点上的情况下操作。因此,客人体验的模拟可能不受个人限制或景点容纳个人的能力的限制约束。在一个实施例中,该系统可以包括机器人组件。机器人组件可以被实现为佩戴头戴装置并且可以包括用于记录、处理和/或传输表示由头戴装置显示的虚拟图像的数据的相机。机器人组件也可以被实现为在景点内移动以模拟客人的移动,这可以操纵由头戴装置显示的虚拟图像。以此方式,机器人组件可用于模拟景点中的客人体验。
现在转向附图,图1是用于游乐园的景点系统100的实施例的示意性视图。景点系统100可以包括客人104可以定位于其中的客人区域102。也就是说,在景点系统100操作的至少一段持续时间期间,客人104可以位于(例如,坐在或站在)客人区域102中。在一个实施例中,客人区域102可能不是静止的。例如,客人区域102可以是被实施为在景点系统100的指定区域周围(诸如沿着景点系统100的路径)移动的乘坐载运器。另外,应当理解,景点系统100的实施例可以包括多个客人区域102,每个客人区域102可以容纳景点系统100的客人。景点系统100可以包括增强客人104的体验的若干效果。效果可以包括客人104可能能够观看的物理对象、客人104可能听到的音频元素以及客人104可能能够从客人区域102与之交互的其他元素。
除了效果之外,景点系统100可以经由头戴装置106实现扩展现实特征。客人104可以佩戴对应的头戴装置106。景点系统100还可以包括一个或多个景点控制器107,其通信地耦合到每个头戴装置106。景点控制器107可以被配置为为每个头戴装置106生成虚拟元素以进行显示。因此,在景点系统100的操作期间,每个客人104可以观看由相应头戴装置106生成的虚拟元素。每个头戴装置106可以被实现为诸如根据景点系统100的主题为每个客人104显示基本相同类型的虚拟视觉元素。然而,每个客人104可观看的虚拟视觉元素可能不同。在一个实施例中,客人104可以在客人区域102和/或景点系统100的不同位置处观看不同的虚拟视觉元素。客人104还可以基于客人104面对的方向观看不同的虚拟视觉元素。实际上,每个头戴装置106可以基于客人104的视角来更新虚拟视觉元素的显示以使得客人104能够观看虚拟视觉元素,好像虚拟视觉元素是现实环境中的物理对象。例如,每个头戴装置106可以包括检测每个客人104的定位、施加在头戴装置106上的力、施加在头戴装置106上的力的方向、另一个合适的参数或其任何组合的传感器,以确定要显示的虚拟视觉元素。以此方式,虚拟视觉元素以逼真和交互式的方式显示。
此外,景点控制器107可以为头戴装置106生成虚拟音频元素来投出以供每个客人104听到。类似于虚拟视觉元素,可以基于特定参数生成音频输出。实际上,生成的音频输出可以与显示的视觉虚拟元素相关联,这可以进一步增加元素的逼真呈现。例如,音频输出可能与位于客人的视野中的某定位处的虚拟视觉元素相关联。音频输出可以定向地生成,好像由来自该定位的虚拟视觉元素产生。此外,景点系统100的其他部件可以发出音频输出。作为示例,乘坐载运器、演出元素、轨道等可以发出音频输出,诸如基于客人104和/或机器人组件108在景点系统100内的定位。
此外,在某个实施例中,景点控制器107可以被配置为控制景点系统100的其他元素。例如,景点控制器107可以控制演出效果(例如,照明)、景点系统100的操作(例如,景点系统100的乘坐载运器的速度)和/或景点系统100的其他操作参数。虽然图1图示了如定位于客人区域102内的景点控制器107,景点控制器107可以定位于景点系统100的任何合适区域中,或者可以通信地耦合到景点系统100并且从远程位置控制景点系统100。
客人区域102还可容纳可模拟客人104的行为的机器人组件108。特别地,与用户头戴装置基本相同的头戴装置106的实施例可以放置在机器人组件108上并且显示虚拟元素,好像机器人组件是客人104。机器人组件108可模拟客人104的移动并在景点系统100中描绘客人104的行为以便引起头戴装置106显示虚拟元素,好像机器人组件108是客人104。例如,机器人组件108可以包括主体110,该主体110被实施为以客人104将移动的方式移动。主体110可以包括调整器112,其被实施为提供机器人组件108的移动以模拟客人104的移动。在一个实施例中,调整器112还可以使机器人组件108能够被调整到期望的定位。例如,调整器112可以使机器人组件108的高度能够被调整和/或机器人组件在客人区域102中的定位能够被调整。因此,机器人组件108的定位和移动可以更紧密地匹配景点系统100的客人104的定位和移动。
在一个实施例中,与景点控制器107分开的控制系统114可以通信地耦合到机器人组件108以允许控制系统114监视和控制机器人组件108。控制系统114可以包括存储器116和处理器118。存储器116可以是大容量储存设备、闪速存储设备、可移动存储器或包括关于机器人组件108的控制的指令的任何其他非暂时性计算机可读介质。指令可以包括算法、模型(例如,逆运动学模型)、数据储存等。存储器116还可以包括易失性存储器,诸如随机存取存储器(RAM)和/或非易失性存储器,诸如硬盘存储器、闪速存储器和/或其他合适的存储器格式。处理器118可以执行存储在存储器116中的指令。控制系统114可以通信地耦合到被实施以检测某些参数的传感器120。例如,传感器120可以设置在机器人组件108上并且可以检测机器人组件108在景点系统100内的定位、机器人组件108的移动、施加在机器人组件108上的力、施加在机器人组件108上的力的方向、机器人组件108的另一个参数或其任何组合。传感器120可以附加地或可替代地设置在景点系统100中的别处并且可以检测诸如景点系统100已经操作的持续时间之类的参数、景点系统100的效果的发生、另一个参数或其任何组合。传感器120可以被实施为将指示检测到的参数的信号发送到控制系统114,并且基于该信号,控制系统114可以移动机器人组件108。以此方式,控制系统114可以响应于景点系统100的操作来移动机器人组件108,这可以逼真地模拟客人104在景点系统100中的移动。
基于机器人组件108的移动,头戴装置106可以显示某些虚拟元素。机器人组件108可以包括相机122以感测由头戴装置106显示的虚拟视觉元素和景点系统100的其他元素(例如,照明、演出元素)。在特定实施方式中,机器人组件108还可以被配置为记录由头戴装置106投出的虚拟音频元素。例如,机器人组件108可以包括麦克风(未示出),诸如在相机122上,其可以记录虚拟音频元素。相机122可以将由头戴装置106显示的视觉元素记录为数据,其中数据可以从相机122传输走。在一个实施例中,相机122可以通信地耦合到网络124并且可以将记录的数据传输到网络124。其他设备也可以通信地耦合到网络124并且可以接收记录的数据。例如,计算设备126可以通信地耦合到网络124并且可以接收记录的数据。计算设备126然后可以输出记录的数据。作为示例,计算设备126可以包括诸如屏幕之类的显示器128以输出所记录的虚拟视觉元素;以及诸如扬声器之类的音频设备130以输出所记录的音频输出;并且将虚拟元素呈现给计算设备的用户。输出的记录数据可用于调整机器人组件108的移动,诸如通过基于记录的虚拟视觉元素配置控制系统114。
在一个实施例中,计算设备126可以在相机122记录视觉元素时实时输出视觉元素(例如,流式传输)。在另一个实施例中,计算设备126包括或通信地耦合到数据库,该数据库被实现为存储由相机122记录的数据,在相机中,记录的数据可以被检索和回放。因此,计算设备126的用户可以在期望的时间访问数据库以检索虚拟元素。在进一步的实施例中,还可以检测由传感器120检测到的信息。例如,与机器人组件108和/或景点系统100的某些操作参数相关联的信息可以被记录并传输到网络124。以此方式,除了呈现虚拟元素之外,计算设备126还可检索关于机器人组件108和/或景点系统100的数据。
机器人组件108还可以包括或耦合到电源132,该电源132为机器人组件108提供电力并使机器人组件108能够操作。在示例实施例中,电源132可以是包括在机器人组件108内的电池(例如,可再充电电池)。然而,电源132也可以是机器人组件108诸如经由插头可以耦合到的外部电源。例如,电源132可以设置在机器人组件108可以耦合到的客人区域102中。
出于讨论的目的,本公开主要聚焦于机器人组件108用于景点系统100的应用,其中乘坐载运器沿着路径行进。特别地,客人104可以坐在乘坐载运器上并佩戴头戴装置106以增强客人104的体验,诸如通过在乘坐载运器行进时为客人104提供虚拟环境。然而,应当理解,机器人组件108也可以在其他类型的景点100中实施,诸如客人104可以在其中漫游并与景点系统100的某些元素交互的交互式区域。
图2是包括机器人组件108的景点系统100的实施例的示意性视图,在其中机器人组件108被实施为耦合到景点系统100的乘坐载运器150。乘坐载运器150可以被实施为沿着景点系统100的路径152行进。例如,乘坐载运器150可以耦合到轨道的扶手,轨道的扶手沿着路径152引导乘坐载运器150。路径152可以包括路径变化,诸如转弯、海拔改变(例如,倾斜、下降),以及可以在客人104中引起感觉以增强他们的体验的其他路径变化(例如,环路、螺旋线)。景点系统100还可包括用于增强客人体验的效果154。效果154可以由乘坐载运器150产生和/或可以在乘坐载运器150的外部,并且可以包括诸如音乐、水、照明等之类的元素。
景点系统100的所图示实施例的每个客人104还可以佩戴通信地耦合到景点控制器107的头戴装置106中的对应的一个。基于效果154和/或路径152,客人104可以移动并且头戴装置106可以相应地显示虚拟元素。例如,当乘坐载运器150沿着路径152行进时,可以基于乘坐载运器150的移动来显示虚拟元素。换言之,虚拟元素可以被显示为好像客人104将与现实世界中的虚拟元素一起行进。此外,沿着路径152行进的乘坐载运器150可以引起由客人104(例如,由于惯性)作出的物理移动,这可以基于客人104的物理移动进一步调整虚拟元素的显示。此外,可以例如使用效果154鼓励客人104在景点系统100的持续时间期间在某个方向上看,并且可以相应地显示虚拟元素。通常,可以基于客人104和/或景点系统100的移动来显示虚拟元素以呈现虚拟元素的逼真表示,好像客人104感知现实世界中的虚拟元素。
机器人组件108可以固定或耦合到乘坐载运器150以使得机器人组件108的相机122能够在景点系统100被操作时记录所显示的虚拟元素。例如,当乘坐载运器150沿着路径152行进时,相机122可以记录显示的虚拟元素。此外,调整器112可以在由沿着路径152行进的乘坐载运器150引起时移动机器人组件108,并且可以在其中景点系统100正在操作的时间间隔期间和/或针对其中景点系统100正在操作以模拟客人104的行为的某个持续时间来面向特定方向。
还应当理解,机器人组件108可以类似于客人104定位在乘坐载运器150中。也就是说,机器人组件108可以像客人104会做的那样坐在乘坐载运器150中和/或(例如,利用座位约束件)受到约束。在一个实施例中,乘坐载运器150包括电源132,诸如定位于乘坐载运器150的每个座位上或附近的电源插座,并且机器人组件108可以耦合到电源132以定位在乘坐载运器150中。以此方式,机器人组件108可通过耦合到对应的电源132而定位在乘坐载运器150的任何座位处。当定位于乘坐载运器150中时,头戴装置106也可以附接到机器人组件108,因为头戴装置106将由客人104佩戴。也就是说,头戴装置106可以围绕机器人组件108的形状类似于客人104的头部的一部分配合和固定。通常,机器人组件108可以被实施为类似于客人104来移动、表现和定位,使得虚拟元素被显示为好像客人104之一正佩戴头戴装置106。
图3是可类似于客人104移动的机器人组件108的实施例的透视图。机器人组件108可以包括被实施为佩戴头戴装置106的头部170和被实施为移动头部170的调整器112。通常,调整器112可以经由与客人104在景点100上的定位和移动基本上类似的特定移动来将头部170移动到某个定位。例如,机器人组件108可以被配置为将头部170设置在具有原点参考点(例如,x-y-z坐标系的[0, 0, 0]的坐标点)的起始定位。调整器112可以被配置为将头部170移动到相对于原点参考点的不同定位(例如,到x-y-z坐标系的其他坐标点)以模拟客人104之一的头部的定位。尽管图3的头部170基本上包括人类特征,但在附加或可替代实施例中,头部170可以包括其他特征,诸如具有用于接收传感器和/或头戴装置106的安装部的其他形状。在图示的实施例中,调整器112可以包括可旋转地耦合到第二段176的第一段174和可旋转地耦合到第二段176的第三段178。第三段178可以耦合到耦合到头部170的头部段180。此外,第一段174可以耦合到基部段182,基部段182将第一段174可旋转地耦合到基部(未示出)。段174、176、178、180、182可以在可移动的接头处彼此耦合以实现对应的移动,其中各个段174、176、178、180、182围绕彼此的移动可以移动头部170。在一个实施例中,多个其他段可以耦合到基部段182。因此,单个基部段182可以支承彼此独立移动的多个机器人组件108。
例如,基部段182可以在第一旋转方向184上移动,第一段174可以在第二旋转方向186上围绕基部段180移动,第二段176可以在第三旋转方向188上围绕第一段174移动,第三段178可以在第四旋转方向190上围绕第二段176移动,头部段180可以在第五旋转方向192上围绕头部段180移动,和/或头部170可以在第六旋转方向194上围绕头部段180移动。相应段174、176、178、180、182的移动也可以在第一线性方向196、第二线性方向198和/或第三线性方向200上移动头部170。作为示例,第一段174和第二段176的同时旋转可以在第二线性方向198上移动头部,第二线性方向198可以是基本上竖直的方向。通常,段174、176、178、180和182的移动可以移动头部170的定位以模拟乘坐载运器150中的客人104之一的头部的移动,诸如通过模拟乘客104的躯干移动。例如,段174、176、178、180和182可以共同移动以模拟客人104之一的倾斜移动。
控制系统114可以通信地耦合到段174、176、178、180、182和/或头部170中的每个以移动机器人组件108。作为示例,段174、176、178、180、182和/或头部170中的每个包括致动器,使得当致动器经由控制系统114的指令被激活时,机器人组件108可以移动。在一个实施例中,由段174、176、178、180、182和/或头部170的致动器产生的移动量可以被校准以更紧密地与乘坐载运器150中的客人104的移动对齐。特别地,机器人组件108的传感器120可用于检测诸如乘坐载运器150的速度、乘坐载运器150的加速度、乘坐载运器150的重量变换之类的参数,可引起在客人104中的移动的另一参数,或其任何组合,并且可以响应于检测到的参数激活致动器。应当理解,基于检测到的参数由每个致动器产生的移动量可以彼此不同并且可以经由实验测试来设置,或者基于从历史数据集合接收的数据的特定实例来设置。此外,可以调整由每个致动器产生的设定移动量,使得模拟以不同量移动的客人104。因此,捕获各种客人行为的大量记录数据可以是可获得的。
在另一个实施例中,除了上述移动的旋转方向之外,每个段174、176、178、180、182和/或头部170也可以延伸和缩回以增加移动机器人组件108的附加方式。此外,每个段174、176、178、180、182和/或头部170可以以不同于旋转方向184、186、188、190、192、194的方式相对于彼此移动。在进一步的实施例中,机器人组件108可以包括不同数量的段174、176、178、180、182,诸如更多段以增加机器人组件108可以以其移动的多个方式。更进一步,每个段174、176、178、180、182的尺寸可以与图3中描绘的不同。实际上,在某个实施例中,可以通过选择不同尺寸的段174、176、178、180、182来产生特定尺度的调整器112。
图4是机器人组件108的头部170的实施例的展开的透视图。在图示的实施例中,头部170包括具有与客人104的面部特征和尺度(例如,周长)类似的面部特征和尺度的面部部分248。具体地,头部170可以包括鼻子250和眼腔252。在一个实施例中,头部170还可包括耳朵。虽然图4图示了面部特征与头部170一起形成,但是应当理解,在一个实施例中,面部特征可以与面部部分248的其余部分分开形成。例如,鼻子250可以单独形成并且可以耦合到面部部分248。因此,面部特征可以实现更大的灵活性以配置具有不同特征的头部170来匹配客人104。在附加或可替代实施例中,可以有具有不同尺度的面部部分248,其中可以为机器人组件108选择特定尺寸的面部部分248以匹配特定尺度的头部。因此,面部特征可以准许头戴装置106配合到头部170上,因为头戴装置106可以配合到客人104的头部(例如,皮肤、毛发)上。此外,面部特征可以准许头戴装置106围绕头部170的移动,因为在景点系统100的操作期间头戴装置106可以在客人104的头部上移动。换言之,响应于机器人组件108围绕乘坐载运器150的移动,头戴装置106也可以围绕头部170移动。为此,头部170可由具有类似于客人104的纹理的纹理的材料制成。此外,头部170可以由轻重量的材料制成,以免增加可能影响头部170的移动的不期望的重量,并且头部170可以由绝缘材料制成,以避免影响由相机122记录的数据。例如,头部170可由橡胶、聚合物、复合物、另一种合适的材料或其任何组合制成。
相机122可以定位在头部170内以允许从机器人组件108的角度的图像捕获。在图示的实施例中,眼腔252可以包括开口254以准许相机122从面部部分248突出并且具有阻碍的视野。具体地,相机122之一的镜头256可以通过开口254之一突出以使相机122能够记录经由头戴装置106生成的虚拟图像。在一个实施例中,镜头256可以被实施为在相机122内移动以模拟由客人104作出的眼睛移动,由此改变相机122的视角来观看不同的虚拟视觉元素而无需移动头部170的其余部分。在附加或可替代实施例中,透镜256可以是具有比客人104的典型视场更宽的视场的鱼眼镜头。因此,当用户观看记录时,用户可以观看比通常通过客人104的视野范围可观看的更多的虚拟视觉元素。以此方式,记录包括客人104经由眼睛的移动将可观看的虚拟视觉元素。也就是说,宽的视场涵盖多个视角,其原本会经由客人104的眼睛移动实现。
如图4中所图示,头部170包括设置在面部部分248顶上的盖258。具体地,盖258可以覆盖相机122可以插入其中的头部170的腔体。然而,在另一个实施例中,相机122可以以另一种方式插入到腔体中,诸如从面部部分248的一侧,以及因此,盖258可以以不同的布置耦合到面部部分248。在另一个实例实施例中,盖258可以耦合到面部部分248,但是可以是(例如,经由铰链)可调整的来露出面部部分248的腔体以将相机122插入其中。
如前所述,头部170可由不同材料制成,诸如橡胶、聚合物和/或复合材料。头部170也可以经由不同的制造工艺制造。例如,头部170可以经由模制(例如,注射模制)、增材制造、挤出、另一种合适的制造工艺或其任何组合形成。应当理解,面部部分248和盖258可以由基本上相同的材料和/或制造工艺制成。此外,不同的头部170可以被产生为具有不同的重量以匹配客人104的不同头部的重量并且准确地模拟客人104的移动和行为(例如,惯性移动)。
在一个实施例中,头部170可以包括其他修改以与客人104的特征匹配。在一个示例中,不同颜色的覆盖物可以设置在头部170上以匹配客人104的不同肤色色调。作为另一个示例,不同的头饰、配饰(例如,珠宝)和其他特征(例如,面部毛发)可以设置在头部170上以匹配客人104的不同特性。因此,头部170可以描绘各种头部属性以从代表可以佩戴头戴装置106的各种客人104的头戴装置106获得数据。
图5是头部170的实施例的俯视透视图,其图示了其中可以定位相机122的腔体280。在图示的实施例中,两个分开的相机122可以设置在腔体280内的托盘282上。托盘282可以将相机122固定在腔体280内并且还可以将相机122的相应镜头256以特定距离284彼此分开。每个相机122的镜头256可以代表客人104的单个眼睛并且距离284代表瞳孔距离,或客人104的眼睛的瞳孔之间的距离。
实际上,不同的托盘282可以包括不同的距离284。例如,距离284可以在从30毫米(mm)到80毫米(mm)的范围内。因此,不同的托盘282可以包括不同的距离284,其中每个相应的距离284在50 mm和80 mm之间。因此,可以基于距离284选择某个托盘282并将其定位在面部部分248内。为此,托盘282可以诸如经由紧固件和/或夹子可移除地耦合到腔体280,以使得不同的托盘282能够耦合到腔体280以及从腔体280移除。每个托盘282可以被实施为放置在面部部分基部286顶上以及腔体280的腔体壁288内。在一个实施例中,每个相机122可以定位在托盘282的托盘基部290顶上,其中托盘基部290的尺度与腔体壁288的尺度基本上对齐。换言之,托盘基部290的侧可邻接腔体壁288,由此限制托盘282在腔体280内的移动。在实例实施例中,具有不同距离284的不同托盘282可具有基本上相同尺度的托盘基部290。此外,不同的头部170可以包括相同尺度的腔体280。以此方式,任何托盘282可以配合到任何头部170的腔体280中。因此,可以基于期望的特征来选择特定的头部170,并且可以选择任何托盘282并将其配合到所选择的头部170中以复制客人104的特定面部特征。
在某个实施例中,托盘282还可包括把手292以促进托盘282相对于腔体280的放置和移除。把手292可以形成从基部的面294横向延伸的拱形形状,由此使个人能够抓住把手292以将托盘282放置在腔体280内和/或从腔体280移除托盘282。在某个实施例中,腔体280可以在头部170内延伸特定深度,使得当托盘282放置在腔体280内时,把手292不延伸超过头部170的表面296。
设置在托盘282上的每个相机122可以与对应的线缆298相关联(例如,耦合到对应的线缆298)。线缆298可以将相机122设置为与某些设备通信,诸如以使每个相机122能够传输捕获或记录的数据和/或控制相机122。例如,设备可以使相机122能够将记录的数据传输到网络124和/或可以实现相机122的远程控制以开始或停止记录数据。如图5中所图示,每个线缆298可以从腔体280内的相机122延伸穿过设置在面部部分基部286的侧面302处的相应孔口300。孔口300使线缆298能够从头部170延伸而没有碰撞(impingement),以促进耦合到定位在腔体280外部的设备。虽然图5图示了面部部分248包括两个孔口300,但是面部部分248可以包括任何合适数量的孔口300,其可以使得线缆298能够相应地从腔体280向外延伸。
图6是头部170的实施例的顶视图,其中托盘282不设置在腔体280内。所图示的腔体280还包括凹部320以促进将托盘282定位在腔体280中。例如,托盘282的一部分可配合在凹部320内以将托盘282定位在腔体280内。因此,除了腔体壁288之外,托盘282可邻接凹部320的凹部壁322,从而进一步限制定位在腔体280内的托盘282的移动。另外,当托盘282配合在凹部320内时,托盘282的表面可以与面部部分基部286基本上齐平。虽然图6将腔体280和凹部320描绘为具有特定形状,但是应当理解,在另一个实施例中,腔体280和/或凹部320可以具有用于将托盘282设置在其中的另一种合适的形状。
腔体280可以包括设置在每个凹部320内和/或穿过面部部分基部286以促进托盘282与面部部分基部286的耦合的孔324。例如,每个孔324可以是螺纹孔,其使得螺钉或其他紧固件能够穿过其凸出以将托盘282固定到面部部分基部286上。类似地,面部部分248的表面296也可以包括孔326。孔326可以使盖258能够与面部部分248耦合,诸如经由紧固件。
图7是托盘282的实施例的顶部局部视图。在图示的实施例中,托盘282包括用于定位相机122的腔体340。腔体340被描绘为具有基本上矩形的形状,但是腔体340可以包括用于将相机122定位在其中的任何合适的形状。在实施例中,相同类型和/或型号的相机122可以用于每个头部170,并且因此,每个腔体340可以具有基本上相同的形状。然而,在附加或可替代实施例中,可以实现不同类型和/或型号的相机122,其中每个相机122可以具有彼此不同的形状。因此,可以形成具有不同形状的腔体340的托盘282以容纳不同的相机122。如前所述,相应相机122的镜头256彼此分开距离284。每个腔体340可以形成在托盘282内以定位相机122,使得相应的镜头256分开距离284。腔体340可以具有一致的形状和尺寸,并且可以提供用于不同相机型号和/或不同距离284的适配器。
腔体340也可以各自具有邻近侧面302设置的空间342。空间342可促进将线缆298插入到设置在相应腔体340内的相机122中。此外,托盘282可以包括设置在腔体340内和/或穿过表面346的孔344。托盘282的每个孔344可以与面部部分248的孔(例如,图6的孔324)对齐。因此,紧固件348可插入穿过孔344和孔324并将托盘282固定到面部部分基部286上。
类似于头部170,托盘282可由轻重量且绝缘的材料制成,包括橡胶、聚合物、复合物、另一种材料或其任何组合。托盘282的制造工艺还可包括与上述头部170类似的制造工艺。在一个实施例中,把手292可与托盘282的基部290一起制造,但另外或可替代地,把手292可与基部290分开制造,其中把手292与基部290在形成后可以彼此耦合。另外,在某个实施例中,托盘282可以被制造成具有不同于图7中描绘的形状,以配合在其中的腔体280内。例如,腔体280可以具有大致圆形的形状并且因此,托盘282(例如,托盘282的基部290)可以包括大致圆形的形状。
图8是定位在乘坐载运器150的座位370上的机器人组件108的实施例的透视图。在实施例中,多个机器人组件108可以定位在乘坐载运器150上,每个机器人组件108耦合到不同的座位370。虽然图8图示了机器人组件108耦合到座位370,但是在附加或可替代实施例中,机器人组件108可以耦合到景点系统100的另一部分,诸如地板、轨道等。如图8中所图示,机器人组件108的调整器112可以耦合到设置在乘坐载运器150的座位370中的支架372。作为示例,支架372可以包括被实施为耦合到座位370(例如,座位370的靠背和/或头枕)的第一板374和调整器112的基部段182可以耦合到的第二板376。在一个实施例中,支架372可以耦合到座位370,使得支架372相对于座位370的移动被限制以减少头部170的不想要的移动。此外,第二板376可以基本上是水平的并且邻近于座位370的座位板面378。因此,调整器112可以从座位板面378延伸来以类似于坐在乘坐载运器150上的客人104的方式定位。
调整器112可以以使得调整器112的移动能够模拟定位于乘坐载运器150中的客人104的移动的方式耦合到支架372。例如,基部182可以经由球窝式接头耦合到第二板376以使得基部182能够围绕多个轴线旋转。附加地或可替代地,基部182可以以使得基部182能够沿着第二板376平移移动的方式耦合到第二板376,诸如以模拟客人104沿着座位板面378在座位370中滑动。如所提及的,调整器112的移动可以经由诸如沿着路径152的乘坐载运器150的移动来引起。例如,乘坐载运器150的移动可以调整座位370的定位,诸如座位370的旋转,并且段174、176、178、180、182和/或头部170也可以响应地移动。具体地,段174、176、178、180、182和/或头部170的移动可以模拟客人104的移动。
调整器112可以被校准以描绘客人104相对于调整器112的某些操作参数的逼真移动。也就是说,响应于乘坐载运器150的移动程度、另一个合适的参数或其任何组合,调整器112可以以类似于客人104可以移动得那样快的速度移动到与客人104可以移动的定位类似的定位。实际上,不同机器人组件108的相应调整器112可以被校准来以不同方式移动并模拟不同客人104的移动。例如,在座位370的小移动(诸如振动)期间,调整器112可以维持头部170的定位。然而,在座位370的大移动期间,诸如在转弯期间,调整器112可以被实现为将头部170以特定速度并且经由某个移动来移动到特定定位。
在某个实施例中,除了模拟客人104的移动之外,调整器112可以被实现为定位头部170以表示客人104的头部定位。例如,在景点系统100的操作之前,调整器112可以调整头部170相对于座位370的高度以复制客人104的某个高度。作为示例,头部170可以被定位以模拟不同性情的客人。作为示例,可以通过在景点系统100的显著持续时间期间使头部170倚靠在座位370的头枕上来模拟放松的客人。然而,可以通过抬起头部170并将头部170定位为远离座位370的头枕来模拟兴奋的客人。调整器112的移动也可以相应地被校准以模拟不同性情的客人104的移动。
在进一步的实施例中,机器人组件108可以在乘坐景点系统100的单个操作期间代表多个客人定位。换句话说,当乘坐景点系统100操作时,机器人组件108可以被配置为代表定位在客人区域102中的第一位置处(例如,在第一座位370中)的第一客人,并且也可以被配置为代表定位在客人区域102中的第二位置处(例如,在第二座位370中)的第二客人。例如,控制系统114可用于选择性地代表景点系统100中的不同客人。
如上所阐述,电源132(图8中未示出)可以被包括在每个座位370中以向耦合到座位370的机器人组件提供电力。例如,支架372可以耦合到电源132并且将电源132放置成与机器人组件108通信以使电源132能够向机器人组件108提供电力。在附加或可替代实施例中,电源132可以被包括在每个支架372中。因此,当机器人组件108耦合到支架372时,电源132可以向机器人组件108提供电力。
在某些乘坐配置中,每个座位370可以具有头戴装置106中的相关联的一个。以此方式,机器人组件108可以以使得头戴装置106能够耦合到头部170的方式定位在座位370内。然而,还可以理解,头戴装置106可以与每个座位370分开。实际上,头戴装置106可以附接到支架372、附接到头部170、或者可以与头部170、支架372和座位370分开。因此,乘坐座位370可以包括将头戴装置106对接或固定到乘坐载运器150所需的特征。
如上所述,头部170的定位可以经由传感器120确定。例如,传感器120可以是设置在头部170和/或头戴装置106上或内的惯性测量单元(IMU),在所述头部170和/或头戴装置106中IMU被配置为检测头部170的移动和定位。附加地或可替代地,传感器120可以是发射器和接收器,其可以各自设置在乘坐载运器150上,诸如在每个座位370、头部170和/或头戴装置106上。发射器可被实施为发射远离座位370行进的信号,并且当头部170被定位以阻挡行进信号时,信号可被反射,其中接收器可被实施为检测反射信号。基于接收器如何检测反射信号,可以确定头部170的定位。
图9是图示在操作景点系统100时在景点系统100上集成和使用机器人组件108以用于获取和处理指示虚拟元素的数据的方法400的实施例的框图。应该注意,图9的每个步骤在下面关于图10-13进一步详细地描述。因此,图9呈现了机器人组件108可以如何配置在景点系统100上的简要概述。
在框402处,选择机器人组件108的特征。也就是说,可以选择机器人组件108的特定尺度和头部170的面部特征。选择机器人组件108的特征可以确定如何经由头戴装置106生成虚拟元素。例如,机器人组件108的不同特征可以确定机器人组件108如何在座位370内移动、头戴装置106如何相对于机器人组件108的头部170移动等等。因此,可以选择机器人组件108的不同特征来模拟客人104的不同移动。
在框404处,机器人组件108被设置在景点系统100上。设置机器人组件108可包括将机器人组件108定位在景点系统100内并使机器人组件108能够准确地记录数据。在如期望的那样在景点系统100中设置机器人组件108之后,可以操作景点系统100。
当景点系统100正在操作时,可以获取数据,如由框406所指示。例如,指示虚拟元素的数据可以由相机122记录,在相机中数据可以包括由头戴装置106生成的图像和/或声音。数据也可以由传感器120获取,在传感器中数据可以包括由传感器120检测到的参数。获取的数据可以被发送到网络124和/或存储在每个相应的相机122上。此外,在某个实施例中,可以视情况而定(例如,在每次运行的基础上、在时间的基础上)连续地获取和分割数据。
在框408处,诸如经由计算设备126评估获取的数据。评估数据可以包括使用获取的数据来调整景点系统100的某些参数。例如,获取的数据可用于调整头戴装置106、机器人组件108和/或乘坐载运器150的参数。通常,评估数据包括使用获取的数据来如期望的那样调整景点系统100的性能。
图10是图示用于选择机器人组件108的特征的与图9的框402相关联的某些动作的实施例的框图。在框430处,选择机器人组件108的尺度。如前所述,机器人组件108的某些部件(诸如头部170、托盘282、调整器112的段174、176、178、180、182等)可以被不同地定尺寸。可以选择这样的部件来组装可以以特定方式移动的机器人组件108,诸如来以特定方式模拟客人104。也就是说,可以通过为机器人组件108选择特定尺寸的部件来模拟不同尺寸和/或不同行为的客人104。例如,特定尺度的调整器112可以通过选择特定尺度的段174、176、178、180、182来组装,其中调整器112可以模拟不同客人104的相应躯干。同样,特定尺度的头部170可以通过选择特定尺度的托盘282、面部部分248和/或鼻子250来被组装,其中头部170可以模拟不同客人104的相应头部。在附加或可替代实施例中,可以选择控制系统114的某些参数来代表不同的客人。例如,可以选择参数使得机器人组件108的起始定位代表特定高度的客人。
在框432处,可以在头部170上设置覆盖物。如前所提及,覆盖物可以调整头部170的各个方面以匹配不同客人104的不同皮肤属性。附加地或可替代地,覆盖物可以调整头部170的纹理以复制客人104可能具有的某些纹理,诸如毛发。例如,覆盖物可以包括更粗糙的纹理以模仿可能具有面部毛发的客人104。覆盖物的某个实施例可以基本上覆盖整个头部170。也就是说,覆盖物可以基本上覆盖面部部分248和盖258的所有表面。覆盖物的附加或可替代实施例可覆盖头部170的一部分,诸如面部部分248的表面,但不覆盖盖258。以此方式,覆盖物可以类似于面罩那样设置在头部170上方,并且可以基于头部170的尺度来收紧或松开,如在框430处可以已经选择的那样。覆盖物可以放置在头部170上,使得覆盖物相对于头部170的移动可以被限制,因此限制了头戴装置106的不想要的移动,该移动可以调整由头戴装置106生成的虚拟元素。
在特定实施例中,覆盖物还可包括用于复制毛发特征(诸如头部毛发和/或面部毛发)的元素。然而,还应当理解,可以在头部170上设置单独的覆盖物以复制毛发特征。实际上,可以选择可以包括不同发型的单独的覆盖物来复制具有不同发型的客人104。
在框434处,附加配件被设置在头部170上。附加配件可以包括诸如头饰、珠宝和/或可能不包括在覆盖物中的其他面部特征的特征。例如,帽子、头巾和眼镜可以设置在头部170上。在实施例中,较小的面部毛发(诸如睫毛、胡须和眉毛)也可以设置在头部170上。
图11是图示在景点系统100上设置机器人组件108的框404的步骤的实施例的框图。在框460处,机器人组件108耦合到景点系统100。例如,在图8中所图示的实施例(其中景点系统100包括乘坐载运器150)中,机器人组件108可以耦合到座位370。然而,应当理解,对于不包括乘坐载运器150的景点100,诸如交互式区域,机器人组件108可以耦合到运输设备,该运输设备被实现为在交互式区域周围运输机器人组件108。在任何情况下,机器人组件108可以牢固地耦合到景点系统100的特征以限制机器人组件108的不想要的移动。
在框462处,当景点系统100不操作时,可以设置头部170诸如相对于座位370的起始定位。在一个示例中,头部170的高度可以设置为复制客人104的特定高度。在另一个示例中,可以设置头部170相对于座位370的另一部分(诸如座位370的头枕)的定位。在进一步的示例中,还可以设置头部170面向的方向。头部170的起始定位可以(例如,经由操作者)被手动设置和/或可以经由控制系统114相对于原点参考点被设置或校准。
在框464处,可以校准机器人组件108的移动。也就是说,可以校准机器人组件108响应于某些元素的移动。例如,由景点系统100的移动引起的调整器112的移动可以被校准,包括移动速度、移动量、调整器112的某些段174、176、178、180、182的致动器的致动等等。还可以校准由诸如景点系统100的特殊效果(例如,音乐)之类的其他效果引起的机器人组件108的移动。实际上,可以校准机器人组件108的移动行为来表示不同客人104的某些身体移动,诸如来相对于原点参考点移动头部170。
可以经由控制系统114并通过测试来执行对机器人组件108的移动的校准。例如,控制系统114可以设置段174、176、178、180、182和/或头部170的致动器的某些参数以控制机器人组件108的移动性质。当参数被设置时,可以执行测试以确定设置的参数是否是期望的。测试的实施例可以包括在机器人组件108上施加某些力并且确定机器人组件108是否如期望的那样响应地移动。作为示例,经由测试,可以确定机器人组件108移动得太快和/或机器人组件108没有将头部170移动到期望定位。因此,可以调整控制系统114的参数以相应地调整机器人组件108的移动。在一个实施例中,控制系统114的参数可在景点系统100的操作期间被调整。例如,机器人组件108的参数可以基于机器人组件108的移动而动态调整。附加地或可替代地,机器人组件108的移动可以被预编程。也就是说,机器人组件108可以被预编程以在特定时间(例如,在景点系统100发起操作之后的某个时间)执行某种移动。以此方式,测试可包括确定机器人组件108在特定时间期间是否已如期望的那样移动。
在机器人组件108被校准并且机器人组件108如期望的那样移动之后,可以操作景点系统100,如框466处所指示。对于图2中所图示的实施例,乘坐载运器150可以在路径152上被设置为处于运动。在交互式区域的实施例中,操作景点系统100可以包括将运输设备初始化为沿着交互式区域的路径行进。此外,操作景点466包括记录数据,诸如经由相机122和/或传感器120。因此,当景点系统100正操作时,机器人组件108提供景点系统100的模拟,因为客人104可能体验景点系统100。
图12是图示与框406相关联的来获取数据的某些动作的实施例的框图。在框480处,当景点系统100处于操作时,可以连续地捕获(例如,记录和/或检测)数据。捕获的数据可以包括由头戴装置106生成并由相机122记录的虚拟元素。数据还可以包括由头戴装置106、由传感器120和/或由控制系统114检测到的某些操作参数。例如,操作参数可以包括由头部170施加到头戴装置106上的力或重量、由机器人组件105(例如调整器112)施加到座位370上的力或重量、景点系统100的操作的持续时间、头部170的定位、乘坐载运器150的定位、乘坐载运器150的速度、另一操作参数或其任何组合。通常,数据可以包括影响由头戴装置106生成的虚拟元素的因素,包括直接影响生成的虚拟元素的因素,诸如头部170的移动;以及间接影响生成的虚拟元素的因素,诸如引起头部170的移动的因素。
在已经记录和/或检测到数据之后,可以存储数据,如框482中所指示。例如,可以将数据存储到诸如数据库之类的存储器,其中可以在不同时间检索和/或访问数据。在一个实施例中,捕获的数据可以初始地存储在位于传感器120和/或相机122中的存储器中。换言之,当传感器120和/或相机122分别捕获数据时,数据可以直接存储在传感器120和/或相机122中。以此方式,可以从传感器120和/或相机122检索数据,诸如通过将传感器120和/或相机122设置为与计算设备126通信。然而,在附加或可替代实施例中,捕获的数据可以直接从传感器120和/或相机122传输。例如,传感器120和/或相机122可以通信地耦合到网络124并且可以在捕获数据时连续地将数据传输到网络124。以此方式,可以从通信地耦合到网络124的任何设备(例如,计算设备126)检索捕获的数据。
附加地或可替代地,可以显示捕获的数据,如框484中所述。捕获的数据可以实时显示,或者可以回放(例如,通过从储存装置中检索)。在一个实例中,生成的虚拟图像可以显示在计算设备126上,诸如经由屏幕和/或扬声器,以使用户能够看到和/或听到虚拟元素,因为虚拟元素是由头戴装置106生成的。以此方式,用户可以利用所显示的数据实时模拟客人104的体验。在附加或可替代实施例中,捕获的数据可以显示在不同的头戴装置106上,诸如不是景点系统100的一部分的远程头戴装置106。此外,还可以显示由传感器120捕获的数据,诸如关于操作参数的数据。以此方式,可以将生成的虚拟图像与景点系统100的操作参数进行比较。例如,用户可以确定在景点系统100的特定持续时间是否已经正确地生成了某些虚拟图像。
图13是图示与框408的相关联的来评估数据的动作的实施例的框图。在框500处,检索捕获的数据。如所提及的,在一个实施例中,可以将捕获的数据保存到存储器。因此,可以访问存储器以便检索捕获的数据。在示例中,计算设备126可以通信地耦合到存储器以便将数据传输到计算设备126。捕获的数据可以附加地或可替代地传输到网络124,使得计算设备126可以在通信地耦合到网络124时检索数据。此外,计算设备126可以通信地耦合到传感器120和/或相机122以使得数据能够在被捕获时立即传输到计算设备126。
在检索数据之后,在框502处,计算设备126的用户可以分析数据以确定机器人组件108是否正如期望的那样移动、头戴装置106是否正如期望的那样生成虚拟元素、和/或景点系统100的其他部分是否正如期望的那样运行。关于机器人组件108的移动,用户可以将指示头部170的定位的数据例如与指示在机器人组件108上引起的力的数据进行比较以确定机器人组件108是否正如期望的那样移动。此外,用户可以将由头戴装置106生成的虚拟视觉元素的图像与指示头部170的定位的数据进行比较以确定虚拟元素是否如期望的那样生成。此外,用户可以将指示在机器人组件108上引起的力的数据和/或由头戴装置106生成的虚拟视觉元素的图像与景点系统100正在操作的特定持续时间进行比较,以确定景点系统100的其他方面(例如,演出效果)是否正如期望的那样执行。通常,用户可以比较不同的捕获的数据以调整机器人组件108、头戴装置106和/或景点系统100的参数。
在框504处,可以调整机器人组件108的参数,其可以在景点系统100操作时调整机器人组件108移动的方式。例如,可以调整机器人组件108的参数以使得机器人组件108能够以不同的方式和/或以不同的速度将头部170移动到不同的定位。这样的参数可以经由控制系统114来调整,该控制系统114被实现为控制机器人组件108的移动,例如包括调整控制系统114调整可以移动调整器112的致动器的方式。附加地或可替代地,可以选择机器人组件108的不同部分(例如,托盘282、调整器112),诸如不同尺寸的部分。以此方式,当景点系统100再次操作时,可以响应于机器人组件的调整的参数来捕获不同的数据集合。
在框506处,可以调整景点系统100的某些元素的参数,包括头戴装置106的参数。调整头戴装置106的参数可以使虚拟元素能够被不同地生成。作为示例,在景点系统100的操作期间可以生成不同的虚拟元素。附加地或可替代地,可以调整虚拟元素的移动,诸如以响应于头戴装置106的移动而更逼真地移动。也可以调整景点系统100的其他部分。作为示例,可以调整增强客人104的体验的景点系统100的演出效果的参数(例如,音乐、动画角色)、乘坐载运器150的参数(例如,座位370)、路径152的参数(例如,转弯)以及任何其他部分的参数。
图9-13中描述的步骤可以使景点系统100的调整能够高效和/或有效地被执行。在一个方面,基于分析数据调整某些参数可以提供精确的方法来确定景点系统100是否为客人104提供了合意的体验。在另一个方面,可以在景点系统100开发时、诸如在景点系统100适合人类乘客之前获取数据。例如,适合容纳人类乘客的乘坐载运器150可能仍在开发中。然而,可能比更复杂的乘坐载运器150更容易获得的机器人组件108可以被开发用于测试目的和数据收集。在另一方面,可以在任何时间或任何地理位置处访问和/或分析捕获的数据。换句话说,数据可以容易地被多个不同的用户以及在多个不同的计算设备126上传输和查看。因此,数据可容易地用于分析以调整机器人组件108和/或景点系统100。
此外,虽然图9-13描述了以特定顺序执行的不同步骤,但是在附加或可替代实施例中,所描述的步骤可以以不同方式执行。作为示例,某些步骤可以彼此同时执行。例如,框430的用于选择机器人组件108的尺度的步骤可以与在机器人组件108的头部170上设置覆盖物同时执行。此外,框402的用于选择机器人组件108的特征的某些步骤可以与框404的某些步骤同时执行以在景点系统100上设置机器人组件108,诸如选择机器人组件108的尺度同时将机器人组件108耦合到景点系统100。此外,在操作景点系统100之前的多个循环中(如框466处所述),可以重复某些步骤,诸如校准机器人组件108(如框464处所述)。更进一步地,可以以与所描述的那样不同的顺序执行步骤。例如,在框460处描述的用于将机器人组件108耦合到景点系统100的步骤可以在框432和/或框434处描述的步骤之前执行以将覆盖物和/或配件设置在头部170上。还应该理解,图9-13中描述的某些步骤除了由用户执行之外或替代由用户执行,可以至少部分地由控制系统114执行。也就是说,某些步骤可被实现为基于控制系统114的预编程而自动执行。
虽然本文中已经图示和描述了本公开的仅某些特征,但本领域技术人员将想到许多修改和改变。因此,要理解的是,所附权利要求旨在覆盖如落入本公开的真实精神内的所有这样的修改和改变。
本文中呈现和要求保护的技术被引用和应用于实际性质的实质性对象和具体示例,其确然地改进了本技术领域,并且因此不是抽象的、无形的或纯粹理论的。此外,如果附到本说明书末尾的任何权利要求包含一个或多个被指定为“用于[执行]……[功能]的装置”或者“用于[执行]……[功能]的步骤”的元素,则旨在要根据35 U.S.C.112(f)来解释这样的元素。然而,对于包含以任何其他方式指定的元素的任何权利要求,旨在不要根据35U.S.C.112(f)来解释这样的元素。
Claims (20)
1.一种游乐园景点,包括:
乘坐载运器,其配置为沿着所述游乐园景点的路径行进;
景点控制器,其配置为生成虚拟元素;
机器人组件,其设置在所述乘坐载运器上,其中所述机器人组件的头部被配置为调整相对于所述乘坐载运器的定位;
头戴装置,其通信地耦合到所述景点控制器,其中所述头戴装置被配置为设置在所述机器人组件的所述头部上,其中所述头戴装置被配置为基于所述游乐园景点中的头戴装置定位来显示由所述景点控制器生成的所述虚拟元素;以及
相机,其设置在所述机器人组件的所述头部中,其中所述相机被配置为获取指示所述头戴装置显示的所述虚拟元素的数据。
2.根据权利要求1所述的游乐园景点,其中所述机器人组件包括调整器,所述调整器被配置为调整所述头部相对于所述乘坐载运器的所述定位。
3.根据权利要求2所述的游乐园景点,其中所述调整器被配置为响应于施加在所述机器人组件上的力、施加在所述乘坐载运器上的力、所述乘坐载运器的速度、所述乘坐载运器的加速度、所述乘坐载运器在所述游乐园景点中的位置、所述游乐园景点操作的时间、或其任何组合来调整所述头部的所述定位。
4.根据权利要求1所述的游乐园景点,其中所述头戴装置被配置为基于所述乘坐载运器的速度、所述乘坐载运器在所述游乐园景点中的定位、施加到所述头戴装置上的力、所述游乐园景点操作的时间、或其任何组合来显示所述虚拟元素。
5.根据权利要求1所述的游乐园景点,其中所述头部包括腔体和设置在所述腔体内的托盘,并且其中所述相机耦合到所述托盘。
6.根据权利要求1所述的游乐园景点,其中所述相机被配置为记录由所述头戴装置显示的所述虚拟图像、所述游乐园景点的演出元素、或两者。
7.根据权利要求1所述的游乐园景点,其中所述乘坐载运器包括被配置为耦合到所述机器人组件的电源,并且其中所述电源被配置为当所述机器人组件耦合到所述电源时向所述机器人组件供应电力。
8.一种游乐园景点,包括:
乘坐载运器,其配置为沿着所述游乐园景点的路径行进;
景点控制器,其配置为生成虚拟元素;
头戴装置,其设置在所述乘坐载运器上,其中所述头戴装置被配置为基于所述头戴装置在所述游乐园景点中的定位显示由所述景点控制器生成的所述虚拟元素;
机器人组件,其设置在所述乘坐载运器上,其中所述机器人组件包括头部和设置在所述头部中的相机,其中所述相机被配置为当所述游乐园景点操作时获取指示由所述头戴装置显示的所述虚拟元素的数据;
传感器,其配置为检测所述游乐园景点的操作参数;以及
控制器,其通信地耦合到所述机器人组件,其中所述控制器被配置为基于所述操作参数来控制所述头部的定位的调整。
9.根据权利要求8所述的游乐园景点,其中所述操作参数包括施加在所述机器人组件上的力、施加在所述乘坐载运器上的力、所述乘坐载运器的速度、所述乘坐载运器的加速度、所述乘坐载运器在所述游乐园景点中的位置、所述游乐园景点操作的时间、或其任何组合。
10.根据权利要求8所述的游乐园景点,其中所述控制器被配置为以特定速度、经由特定移动或两者来调整所述头部的所述定位。
11.根据权利要求8所述的游乐园景点,包括通信地耦合到所述相机的计算设备,其中所述相机被配置为将所述数据传输到所述计算设备,并且其中所述计算设备被配置为基于所述数据显示所述虚拟元素。
12.根据权利要求11所述的游乐园景点,其中所述计算设备被配置为使所述头戴装置显示所述虚拟元素,并且同时显示与所述虚拟元素相关联的所述操作参数的值。
13.根据权利要求8所述的游乐园景点,其中所述机器人组件被配置为耦合到所述乘坐载运器的座位、所述乘坐载运器的底板、或两者。
14.根据权利要求13所述的游乐园景点,其中当所述游乐园景点不操作时所述头部被配置为设置在相对于所述座位的起始定位处。
15.一种游乐园景点的机器人系统,包括:
机器人组件的头部,其中所述头部被配置为耦合到所述游乐园景点的头戴装置;
相机,其设置在所述机器人组件的所述头部的腔体中,其中所述相机被配置为获取指示经由所述头戴装置显示的虚拟元素的数据;以及
所述机器人组件的调整器,其中所述调整器被配置为耦合到所述游乐园景点的乘坐载运器,其中所述调整器被配置为相对于所述乘坐载运器调整所述头部的定位。
16.根据权利要求15所述的机器人系统,其中所述相机是第一相机,其中所述机器人系统包括第二相机,其中所述机器人系统包括多个托盘,其中所述多个托盘中的每个托盘被配置为一次一个单独地耦合到所述机器人组件的所述头部,其中所述第一相机和所述第二相机被配置为耦合到所述多个托盘中的每个相应托盘,并且其中所述多个托盘中的每个托盘包括相应的距离以分开所述第一相机和所述第二相机。
17.根据权利要求16所述的机器人系统,其中所述多个托盘中的每个托盘的所述相应距离彼此基本上不同,其中所述多个托盘中的每个托盘包括被配置为耦合到所述头部的基部,其中所述相应基部各自包括近似相同的尺度,其中所述多个托盘中的每个托盘包括第一托盘腔体和第二托盘腔体,其中所述第一相机被配置为设置在所述第一托盘腔体中并且所述第二相机被配置为设置在所述多个托盘中的每个托盘的每个第二托盘腔体中,并且其中所述多个托盘中的每个托盘的相应第一托盘腔体和相应第二托盘腔体分开所述相应距离。
18.根据权利要求15所述的机器人系统,其中所述机器人系统包括多个覆盖物,其中所述多个覆盖物中的每个覆盖物被配置为一次一个单独地配合在所述机器人组件的所述头部上方,并且其中所述多个覆盖物中的每个覆盖物包括相应的颜色和纹理。
19.根据权利要求15所述的机器人系统,其中所述调整器被配置为相对于所述乘坐载运器旋转所述头部、相对于所述乘坐载运器平移所述头部、或两者。
20.根据权利要求15所述的机器人系统,其中所述调整器包括多个段,并且其中所述多个段中的每个段被配置为相对于所述多个段中的至少一个其他段移动。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962788228P | 2019-01-04 | 2019-01-04 | |
US62/788228 | 2019-01-04 | ||
US16/358,688 US11318607B2 (en) | 2019-01-04 | 2019-03-19 | Extended reality ride test assembly for amusement park system |
US16/358688 | 2019-03-19 | ||
PCT/US2020/012018 WO2020142584A1 (en) | 2019-01-04 | 2020-01-02 | Extended reality ride test assembly for amusement park system |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113474063A true CN113474063A (zh) | 2021-10-01 |
CN113474063B CN113474063B (zh) | 2024-01-02 |
Family
ID=71404162
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080018679.0A Active CN113474063B (zh) | 2019-01-04 | 2020-01-02 | 用于游乐园系统的扩展现实乘坐设施测试组件 |
Country Status (9)
Country | Link |
---|---|
US (1) | US11318607B2 (zh) |
EP (1) | EP3906102B1 (zh) |
JP (1) | JP7445668B2 (zh) |
KR (1) | KR20210108463A (zh) |
CN (1) | CN113474063B (zh) |
CA (1) | CA3123880A1 (zh) |
ES (1) | ES2961173T3 (zh) |
SG (1) | SG11202106456TA (zh) |
WO (1) | WO2020142584A1 (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113490048B (zh) * | 2021-07-28 | 2023-06-27 | 广东金马游乐股份有限公司 | 一种动感影视系统 |
WO2023163958A1 (en) * | 2022-02-22 | 2023-08-31 | Universal City Studios Llc | Head-mounted display testing system and method |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07264632A (ja) * | 1994-03-18 | 1995-10-13 | Kageisa Noro | ヘッド型映像・音響同時立体収録システム |
US20130079167A1 (en) * | 2011-09-28 | 2013-03-28 | Kuka Laboratories Gmbh | Carnival Ride And Method For Operating the Carnival Ride |
CN105090698A (zh) * | 2015-09-16 | 2015-11-25 | 北京雅昌文化发展有限公司 | 360度全景采集机器人装置 |
CN108211365A (zh) * | 2018-01-18 | 2018-06-29 | 安徽三弟电子科技有限责任公司 | 一种基于vr虚拟体验的过山车系统 |
CN108697936A (zh) * | 2016-03-09 | 2018-10-23 | Vr考斯特有限及两合公司 | 虚拟现实头戴设备的位置确定和定向以及具有虚拟现实头戴设备的游乐设施 |
CN109069935A (zh) * | 2016-05-05 | 2018-12-21 | 环球城市电影有限责任公司 | 用于生成立体的、增强的和虚拟现实图像的系统和方法 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06176131A (ja) * | 1992-12-03 | 1994-06-24 | Namco Ltd | 画像合成装置及びこれを用いた仮想体験装置 |
DE102006010110A1 (de) * | 2006-02-28 | 2007-08-30 | Verl, Alexander, Prof., Dr.-Ing. | Prüfvorrichtung für Gleise von Achterbahnen |
US9285871B2 (en) * | 2011-09-30 | 2016-03-15 | Microsoft Technology Licensing, Llc | Personal audio/visual system for providing an adaptable augmented reality environment |
US20130083018A1 (en) * | 2011-09-30 | 2013-04-04 | Kevin A. Geisner | Personal audio/visual system with holographic objects |
US8971821B2 (en) | 2012-11-20 | 2015-03-03 | Apple Inc. | Robotic wireless test system |
KR101526424B1 (ko) | 2013-12-18 | 2015-06-05 | 현대자동차 주식회사 | 차량용 헤드 업 디스플레이 검사장치 및 그 방법 |
US20160225191A1 (en) | 2015-02-02 | 2016-08-04 | Daqri, Llc | Head mounted display calibration |
WO2017070426A1 (en) * | 2015-10-23 | 2017-04-27 | Sri International | Robot and robot control system |
US9889860B2 (en) * | 2015-12-15 | 2018-02-13 | Universal City Studios Llc | Multi-passenger ride vehicle |
CN105487678A (zh) * | 2016-01-26 | 2016-04-13 | 京东方科技集团股份有限公司 | 一种虚拟现实系统及其实现方法、心理治疗系统 |
US11449061B2 (en) * | 2016-02-29 | 2022-09-20 | AI Incorporated | Obstacle recognition method for autonomous robots |
US9933624B1 (en) * | 2016-03-01 | 2018-04-03 | Daryl White | System and method for providing individualized virtual reality for an amusement attraction |
KR101748401B1 (ko) * | 2016-08-22 | 2017-06-16 | 강두환 | 가상현실 어트랙션 제어 방법 및 시스템 |
US20190321735A1 (en) * | 2016-11-11 | 2019-10-24 | Antonio Zamperla S.P.A. | Trackless amusement ride |
US20180255285A1 (en) * | 2017-03-06 | 2018-09-06 | Universal City Studios Llc | Systems and methods for layered virtual features in an amusement park environment |
CN206583860U (zh) | 2017-03-30 | 2017-10-24 | 上海量明科技发展有限公司 | 车辆的性能评测机器人及系统 |
US10838216B2 (en) * | 2018-01-19 | 2020-11-17 | Universal City Studios Llc | Virtual reality/augmented reality rapid deployment system |
-
2019
- 2019-03-19 US US16/358,688 patent/US11318607B2/en active Active
-
2020
- 2020-01-02 JP JP2021539382A patent/JP7445668B2/ja active Active
- 2020-01-02 WO PCT/US2020/012018 patent/WO2020142584A1/en unknown
- 2020-01-02 ES ES20703098T patent/ES2961173T3/es active Active
- 2020-01-02 CA CA3123880A patent/CA3123880A1/en active Pending
- 2020-01-02 SG SG11202106456TA patent/SG11202106456TA/en unknown
- 2020-01-02 CN CN202080018679.0A patent/CN113474063B/zh active Active
- 2020-01-02 KR KR1020217024057A patent/KR20210108463A/ko unknown
- 2020-01-02 EP EP20703098.2A patent/EP3906102B1/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07264632A (ja) * | 1994-03-18 | 1995-10-13 | Kageisa Noro | ヘッド型映像・音響同時立体収録システム |
US20130079167A1 (en) * | 2011-09-28 | 2013-03-28 | Kuka Laboratories Gmbh | Carnival Ride And Method For Operating the Carnival Ride |
CN105090698A (zh) * | 2015-09-16 | 2015-11-25 | 北京雅昌文化发展有限公司 | 360度全景采集机器人装置 |
CN108697936A (zh) * | 2016-03-09 | 2018-10-23 | Vr考斯特有限及两合公司 | 虚拟现实头戴设备的位置确定和定向以及具有虚拟现实头戴设备的游乐设施 |
CN109069935A (zh) * | 2016-05-05 | 2018-12-21 | 环球城市电影有限责任公司 | 用于生成立体的、增强的和虚拟现实图像的系统和方法 |
CN108211365A (zh) * | 2018-01-18 | 2018-06-29 | 安徽三弟电子科技有限责任公司 | 一种基于vr虚拟体验的过山车系统 |
Also Published As
Publication number | Publication date |
---|---|
JP2022517759A (ja) | 2022-03-10 |
US11318607B2 (en) | 2022-05-03 |
US20200215687A1 (en) | 2020-07-09 |
KR20210108463A (ko) | 2021-09-02 |
WO2020142584A1 (en) | 2020-07-09 |
JP7445668B2 (ja) | 2024-03-07 |
CN113474063B (zh) | 2024-01-02 |
EP3906102B1 (en) | 2023-08-02 |
CA3123880A1 (en) | 2020-07-09 |
ES2961173T3 (es) | 2024-03-08 |
SG11202106456TA (en) | 2021-07-29 |
EP3906102A1 (en) | 2021-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11977670B2 (en) | Mixed reality system for context-aware virtual object rendering | |
US11863845B2 (en) | Geometry matching in virtual reality and augmented reality | |
CN105094310B (zh) | 虚拟现实驾乘系统中减少晕车的方法和系统 | |
DE112016004640T5 (de) | Filmische bearbeitung für virtuelle realität und erweiterte realität | |
CN113474063B (zh) | 用于游乐园系统的扩展现实乘坐设施测试组件 | |
GB2587280A (en) | Production and packaging of entertainment data for virtual reality | |
KR20190112799A (ko) | 가상 현실에서 확장 비디오의 렌더링 | |
CN105764581A (zh) | 可变音频参数设置 | |
CN107046663A (zh) | 一种立体声效的播放方法、装置及vr设备 | |
JP2017199017A (ja) | 模擬地震被害の仮想現実体験システム、模擬地震被害の仮想現実体験方法 | |
JP6218197B1 (ja) | 模擬地震被害の実現象データ生成システム、模擬地震被害の実現象データ生成方法 | |
KR20150121001A (ko) | 햅틱 액추에이터 제어 파라미터들을 갖고 있는 시청각 콘텐츠의 아이템을 재생하기 위한 방법과 그 방법을 구현하는 장치 | |
KR101739485B1 (ko) | 가상 현실 체험 시스템 | |
CN118450313A (zh) | 用于合成现实布景的声音处理的方法和设备 | |
US11323662B2 (en) | Special effects communication techniques | |
WO2020241299A1 (ja) | 制御装置、制御方法、制御プログラム及び制御システム | |
CN117546610A (zh) | 对用于人工现实场景的对象进行光照的系统和方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40060858 Country of ref document: HK |
|
GR01 | Patent grant | ||
GR01 | Patent grant |