CN112703044B - 用于游乐乘坐设施的增强现实系统 - Google Patents
用于游乐乘坐设施的增强现实系统 Download PDFInfo
- Publication number
- CN112703044B CN112703044B CN201980062577.6A CN201980062577A CN112703044B CN 112703044 B CN112703044 B CN 112703044B CN 201980062577 A CN201980062577 A CN 201980062577A CN 112703044 B CN112703044 B CN 112703044B
- Authority
- CN
- China
- Prior art keywords
- ride
- occupant
- animation
- controller
- guest
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003190 augmentative effect Effects 0.000 title abstract description 155
- 230000004044 response Effects 0.000 claims abstract description 9
- 238000000034 method Methods 0.000 claims description 13
- 230000003278 mimic effect Effects 0.000 claims description 3
- 230000000694 effects Effects 0.000 claims 1
- 210000000988 bone and bone Anatomy 0.000 abstract description 37
- 230000001815 facial effect Effects 0.000 description 41
- 210000003128 head Anatomy 0.000 description 14
- 238000004891 communication Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 210000000887 face Anatomy 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63G—MERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
- A63G31/00—Amusement arrangements
- A63G31/16—Amusement arrangements creating illusions of travel
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/176—Dynamic expression
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
一种用于游乐乘坐设施(10)的增强现实系统(22),其包括:检测客人的面部的面部识别传感器(24)、检测客人的身体的骨骼识别传感器(26)、检测客人的存在的存在传感器(28)以及控制器(40)。控制器(40)包括处理器(42)和存储器(44)。控制器(40)被配置成基于从存在传感器(28)接收的指示客人的存在的第一信号来生成增强现实动画。响应于从骨骼识别传感器(26)接收到指示客人的身体的第二信号,控制器(40)被配置成基于客人的身体来更新增强现实动画。此外,响应于从面部识别传感器(24)接收到指示客人的面部的第三信号,控制器(40)被配置成基于客人的面部来更新增强现实动画。
Description
相关申请的交叉引用
本申请要求来自2018年9月24日提交的并且标题为“Augmented Reality SystemFor An Amusement Ride”的美国临时申请(序列号62/735,754)的优先权以及其权益,所述申请的公开出于所有目的通过引用并入本文中。
技术领域
本公开一般涉及增强现实系统,并且更特别地涉及用于游乐乘坐设施的增强现实系统。
背景技术
通常,游乐乘坐设施可以包括乘坐载运器和乘坐路径。乘坐载运器可以沿着乘坐路径移动并且可以运载客人。游乐乘坐设施还可以包括显示器,其可以提供要由客人观看的沿着乘坐路径的某些图像。例如,显示器可以提供某些动画、视频、增强现实图像和其它图像。对于某些乘坐设施,客人可以与显示器交互以控制图像。然而,由于一些游乐乘坐设施的复杂性,显示器可能不被配置成贯穿游乐乘坐设施向客人提供图像。附加地,客人在某些游乐乘坐设施上与所显示的图像交互的能力可能是有限的。
发明内容
下面概述了在范围上与所公开的主题相称的某些实施例。这些实施例不旨在限制本公开的范围,而是这些实施例旨在仅提供某些公开的实施例的简要概述。实际上,本公开可以涵盖可以与下面阐述的实施例类似或不同的多种形式。
在某些实施例中,用于游乐乘坐设施的增强现实系统包括检测客人的面部的面部识别传感器、检测客人的身体的骨骼识别传感器、检测客人的存在的存在传感器以及控制器。控制器包括处理器和存储器。控制器被配置成基于从存在传感器接收的指示客人的存在的第一信号来生成增强现实动画。响应于从骨骼识别传感器接收到指示客人的身体的第二信号,控制器被配置成基于客人的身体来更新增强现实动画。此外,响应于从面部识别传感器接收到指示客人的面部的第三信号,控制器被配置成基于客人的面部来更新增强现实动画。
附图说明
当参考附图阅读以下具体实施方式时,本公开的这些和其它特征、方面以及优点将变得更好地被理解,在附图中,贯穿附图,相同的字符表示相同的部分,其中:
图1是根据本公开的一方面的游乐乘坐系统的实施例的顶视图;
图2是根据本公开的一方面的包括具有增强现实动画的显示组件的图1的游乐乘坐系统的增强现实系统的实施例的侧视图;
图3是根据本公开的一方面的包括具有单独增强现实动画的多个显示组件的图1的游乐乘坐系统的增强现实系统的实施例的侧视图;以及
图4是根据本公开的一方面的用于生成、更新和提供用于图2的增强现实系统的增强现实动画的过程的实施例的流程图。
具体实施方式
将在下面描述本公开的一个或多个具体实施例。为了提供对这些实施例的简明描述,可能不在说明书中描述实际实施方式的所有特征。应当意识到,在任何这样的实际实施方式的开发中,如在任何工程或设计项目中,必须作出许多特定于实施方式的决策以实现开发者的可能因实施方式而异的具体目标,诸如对与系统相关的约束和与商业相关的约束的依从。此外,应当意识到,这样的开发努力可能复杂并且耗时,尽管如此,但对于得益于本公开的普通技术人员而言,这样的开发努力会是设计、制作以及制造的常规任务。
当介绍本公开的各种实施例的元件时,冠词“一”、“一个”、“该”和“所述”旨在意指存在一个或多个元件。术语“包含”、“包括”、和“具有”旨在是包含性的,并且意指可以存在除了所列出的元件之外的附加元件。操作参数和/或环境条件的任何示例不排除所公开的实施例的其它参数/条件。
本公开的某些实施例包括具有增强现实系统的游乐乘坐系统。在某些实施例中,游乐乘坐系统和/或增强现实系统包括传感器,其被配置成在客人乘坐在游乐乘坐系统的乘坐载运器中时检测客人的面部、身体、存在或其组合。例如,面部识别传感器可以检测客人的面部和/或身体,骨骼识别传感器可以检测客人的身体,并且存在传感器可以检测乘坐载运器中的客人的存在。每个传感器可以向增强现实系统的控制器输出信号。基于从传感器接收的信号,增强现实系统可以生成增强现实动画,并且可以将增强现实动画提供给布置成邻近乘坐载运器和/或在乘坐载运器上的显示组件。例如,显示组件可以包括可由客人观看的屏幕。因此,增强现实系统和/或游乐乘坐系统可以检测客人的面部、身体、存在或其组合、生成增强现实动画、以及显示增强现实动画以用于由客人观看。在某些实施例中,增强现实系统可以连续地检测客人的面部、身体、存在或其任何组合,并且可以基于客人的面部、身体、存在或其组合来生成并提供增强现实动画,以允许客人贯穿游乐乘坐系统的至少一部分来与增强现实动画交互和/或控制增强现实动画。
考虑到前述内容,与增强现实系统相关的本实施例可以用于任何游乐乘坐系统中。例如,图1是游乐乘坐系统10的实施例的顶视图。如所图示的,游乐乘坐系统10包括具有一个或多个座椅13的乘坐载运器12。乘坐载运器12通常可以在方向15上沿着乘坐路径14行进,并且可以将客人16运载穿过游乐乘坐系统10。例如,在乘坐载运器12穿过游乐乘坐系统10行进时,客人16可以落座在座椅13中并且可以被座椅约束件18约束。座椅约束件18可以是膝部杆、座椅安全带、过顶约束件、另一类型的座椅约束件或其组合。在所图示的实施例中,乘坐载运器12包括四个座椅13,尽管乘坐载运器12可以在其它配置中包括不同数量的座椅。附加地,在某些实施例中,游乐乘坐系统10可以包括附加乘坐载运器12(例如,两个乘坐载运器12、三个乘坐载运器12、四个乘坐载运器12)。
如所图示的,乘坐路径14是具有限定乘坐载运器12的运动的轨迹的轨道系统。然而,在其它实施例中,乘坐路径14可以是沿着游乐乘坐系统10的底板的路径或者可以是被配置成运载和/或引导乘坐载运器12的另一系统。例如,乘坐载运器12可以是汽车,并且乘坐路径14可以是被配置成引导乘坐载运器12的通道。附加地,图示了乘坐载运器12,其中客人16面向朝向显示组件20并且通常与方向15交叉(例如,垂直)的小径。在某些实施例中,客人16可以被定位成面向沿着方向15,使得显示组件20在客人16的一侧处。在某些实施例中,在沿着乘坐路径14移动时和/或在乘坐路径14上静止时,客人16可以改变位置。例如,客人16可以从所图示的面向侧面的位置改变到面向前方的位置和/或到另一位置。
显示组件20可以耦合和/或安装到乘坐载运器12的侧面,使得当乘坐载运器12沿着乘坐路径14移动时,显示组件20随着乘坐载运器12移动。附加地或可替代地,显示组件20可以耦合和/或安装到乘坐路径14,使得当乘坐载运器12沿着乘坐路径14在方向15上移动时,乘坐载运器12可以绕过显示组件20。在一些实施例中,显示组件20可以通常沿着方向15定位在乘坐载运器12的前方,使得沿着方向15面向朝前的客人16可以观看他们的前方的显示组件20。
游乐乘坐系统10包括增强现实系统22。如所图示的,增强现实系统22包括四个显示组件20、四个面部识别传感器24、四个骨骼识别传感器26以及四个存在传感器28。然而,在某些实施例中,增强现实系统22可以包括更多或更少的显示组件20、面部识别传感器24、骨骼识别传感器26和/或存在传感器28。附加地或可替代地,增强现实系统22可以包括可以检测客人的头部、身体、存在、客人的周围环境或其组合的其它类型的传感器和/或装备。在某些实施例中,增强现实系统22可以包括乘坐载运器12和/或乘坐路径14的全部或部分。例如,增强现实系统22可以包括在乘坐载运器12的每个座椅13中的存在传感器28。
如下面更详细地解释的,增强现实系统22可以提供增强现实图像和动画以用于由客人16观看和/或交互。增强现实动画可以包括覆盖在客人16的捕获的图像或动画上的图形或动画,使得图形或动画似乎是增强现实动画内的客人16的一部分。这样的图形或动画可以包括利用动画的面部特征代替客人的面部特征(例如,利用动物的鼻子和眼睛代替客人的鼻子和眼睛)、利用动画的头部代替客人的头部、利用动画的身体代替客人的身体、对客人16的捕获的图像或动画的其它修改。在某些实施例中,可以在整个显示组件20上显示动画。例如,在这样的实施例中,整个增强现实动画是动画的,并且不包括客人16和/或客人的周围环境的捕获的图像。
面部识别传感器24被配置成检测客人16的面部特征。例如,面部识别传感器24中的一个可以定位在特定客人16的前方并且可以检测该客人16的面部特征。面部识别传感器24还可以检测客人16的骨骼特征。在某些实施例中,面部识别传感器24可以是被配置成检测面部和/或骨骼特征的相机(例如,红/蓝/绿(RGB)检测相机或具有类似检测能力的相机)。面部识别传感器24可以设置于显示组件20上方和/或可以耦合到显示组件20。面部识别传感器24可以准确地检测客人的面部特征,并且可以允许客人16与增强现实系统22和/或游乐乘坐系统10交互。例如,在客人16正在观看显示组件20上的增强现实动画时,面部识别传感器24可以继续监视和检测客人的面部特征并且可以基于客人的移动面部特征更新显示组件20上的增强现实动画。增强现实动画可以包括利用动画的面部特征来代替客人的面部特征的部分或全部(例如,利用动画的鼻子代替客人的鼻子)。因此,客人16可以通过移动他们的面部特征和/或头部来经由面部识别传感器24与增强现实动画交互和/或控制增强现实动画。在某些实施例中,面部识别传感器24可以安装到乘坐载运器12或安装到游乐乘坐系统10的另一部分。
骨骼识别传感器26被配置成检测客人16的骨骼特征。例如,骨骼识别传感器26可以是设置在特定客人16的前方的深度传感器,其可以检测客人的头部和/或身体。骨骼识别传感器26可以是通常设置在显示组件20上方的第二相机,或者可以是被配置成检测客人的头部和/或身体的另一类型的传感器。骨骼识别传感器26可以设置在显示组件20上方和/或可以耦合到显示组件20,使得骨骼识别传感器26可以准确地检测客人的头部和/或身体,并且可以允许客人16通过移动他们的头部和/或身体与增强现实系统22和/或游乐乘坐系统10交互。例如,在客人16正在观看显示组件20上的增强现实动画时,骨骼识别传感器26可以继续监视和检测客人的头部和/或身体,并且可以基于客人的移动头部和/或身体来更新显示组件20上的增强现实动画。增强现实动画可以包括利用动画的面部特征来代替客人的面部特征的部分或全部(例如,利用动画的鼻子代替客人的鼻子)。因此,客人16可以通过移动他们的头部和/或身体来经由骨骼识别传感器26与增强现实动画交互和/或控制增强现实动画。在某些实施例中,骨骼识别传感器26可以被安装到乘坐载运器12或者安装到游乐乘坐系统10的另一部分。
存在传感器28被配置成检测乘坐载运器12中的客人16的存在。例如,乘坐载运器12可以包括用于每个座椅13的对应的存在传感器28。存在传感器28可以检测客人16在座椅13中的存在。例如,存在传感器28可以是被配置成检测座椅13中的客人16的重量的压力传感器。在某些实施例中,存在传感器28可以是用于座椅13的座椅约束件18。例如,在客人16被定位在座椅13中之后,座椅约束件18可以以指示客人16在座椅13中的存在的方式被固定。在存在传感器28检测到客人16的存在之后,显示组件20可以提供用于由客人16观看的增强现实动画。增强现实动画可以包括似乎是落座在如显示组件20上所示出的座椅13中的动画,或者可以包括占据显示组件20的整个屏幕的动画(例如,不显示客人的周围环境和/或乘坐载运器12的一部分)。
附加地或可替代地,在某些实施例中,游乐乘坐系统10和/或增强现实系统22可以包括代替显示组件20或除了显示组件20之外的动画形象(例如,电子动画)。这样的动画形象可以是可以被控制以模仿客人的移动的机器人形象。例如,增强现实系统22可以基于从面部识别传感器24、骨骼识别传感器26和/或存在传感器28接收的(一个或多个)信号来控制动画形象,以允许客人与动画形象和增强现实系统22交互。在一些实施例中,游乐乘坐系统10和/或增强现实系统22可以基于从传感器接收的信号和/或基于乘坐载运器12沿着乘坐路径14的位置来利用动画形象代替显示组件20。
游乐乘坐系统10和/或增强现实系统22可以包括控制器40。如所图示的,控制器40包括处理器42和存储器44。在某些实施例中,游乐乘坐系统10和/或增强现实系统22可以包括附加的控制器、处理器、存储器或其组合,以执行各种功能。例如,每个显示组件20可以包括控制器,其被配置成从各种传感器接收信号、控制显示组件20上的动画、与控制器40通信或其组合。在一些实施例中,游乐乘坐系统10的存储器44和其它存储器可以包括存储可由处理器42执行的指令和/或要由处理器42处理的数据的一个或多个有形的、非暂时性的计算机可读介质。例如,存储器44可以包括随机存取存储器(RAM)、只读存储器(ROM)、可重写非易失性存储器(诸如闪速存储器)、硬盘驱动器、光学盘、其它类型的存储器或其组合。附加地,游乐乘坐系统10的处理器42和其它处理器可以包括一个或多个通用微处理器、一个或多个专用集成电路(ASIC)、一个或多个现场可编程门阵列(FPGA)或其任何组合。
控制器40可以还包括用户界面46,其可以促进控制器40与用户(例如,操作者)之间的通信。用户界面46可以设置成邻近游乐乘坐系统10或者在远程控制或自主操作的游乐乘坐系统的情况下可以设置在远程位置处。例如,用户界面46可以包括按钮、键盘、鼠标、轨迹板和/或类似物中的一个或多个以允许与控制器40的用户交互。附加地,用户界面46可以包括电子显示器,以例如经由图形用户界面(GUI)、应用界面、文本、静态图像、视频内容或其组合来提供信息的视觉表示。用户界面46可以被配置成从用户(例如,游乐乘坐系统10和/或增强现实系统22的操作者)接收输入。
在操作中,控制器40可以经由处理器42从贯穿游乐乘坐系统10和/或增强现实系统22的传感器接收各种输入信号。例如,面部识别传感器24、骨骼识别传感器26和存在传感器28中的每个可以向控制器40输出指示它们的检测到的特征(例如,客人的检测到的面部特征、头部、身体、存在)的信号。由面部识别传感器24、骨骼识别传感器26和存在传感器28输出的信号可以在控制器40的处理器42处被接收。在某些实施例中,每个显示组件20可以包括显示控制器,其从面部识别传感器24、骨骼识别传感器26以及存在传感器28接收信号。显示控制器可以还与控制器40通信和/或可以生成并提供要显示的动画以用于由客人16观看。
如所图示的,每个显示组件20经由有线连接48(例如,以太网、通用串行总线(USB)、can总线(canbus)、ISO总线(ISObus))连接到控制器40并与控制器40通信。例如,每个显示组件20可以经由有线连接48向控制器40输出信号以及从控制器40接收信号。附加地或可替代地,每个显示组件20可以经由无线连接与控制器40通信。例如,每个显示组件20可以包括向控制器40的控制器收发器输出信号以及从控制器40的控制器收发器接收信号的显示收发器。显示收发器和控制器收发器中的每个可以利用任何合适的无线通信协议,诸如标准协议(例如,Wi-Fi、蓝牙)或专有协议。
图2是增强现实系统22的实施例的正视图。如所图示的,增强现实系统22包括显示组件20、面部识别传感器24、骨骼识别传感器26以及存在传感器28。面部识别传感器24被配置成检测客人的面部并且将指示客人的面部的信号输出到控制器40,骨骼识别传感器26被配置成检测客人的身体并且将指示客人的身体的信号输出到控制器40,并且存在传感器28被配置成检测客人的存在并且将指示客人的存在的信号输出到控制器40。在某些实施例中,增强现实系统22可以包括附加显示组件20、面部识别传感器24、骨骼识别传感器26以及存在传感器28。此外,客人16可以落座在乘坐载运器12的座椅13中或者可以站立在乘坐载运器12中。
所图示的显示组件20的实施例包括屏幕50,其提供用于由客人16观看的增强现实动画52。如所图示的,增强现实动画52包括可以基于客人的移动由客人16来控制的小丑54。在某些实施例中,增强现实动画52可以包括除了小丑54之外或替代小丑54的其它图像和动画(例如,谷仓动物、卡通、角色)。
在某些实施例中,控制器40可以包括用于基于从面部识别传感器24、骨骼识别传感器26、存在传感器28或其组合接收的(一个或多个)信号来生成并提供要在屏幕50上显示的增强现实动画52的指令。例如,基于从存在传感器28接收的指示客人的存在的第一信号,控制器40可以生成增强现实动画52并且可以将增强现实动画52提供给显示组件20以用于由客人16观看。增强现实动画52可以定位在通常对应于客人16的位置的位置处的屏幕50上。然而,在某些实施例中,指示客人的存在的第一信号本身不允许客人16与某些或全部增强现实动画之间的交互。
响应于从骨骼识别传感器26接收到指示客人的身体的第二信号,控制器40可以基于客人的身体来更新增强现实动画52。例如,如果控制器40初始接收到如上所述的指示客人的存在的第一信号,并且随后接收到指示客人的身体的第二信号,则控制器40可以更新增强现实动画52以模仿客人的身体的移动。在某些实施例中,如果控制器40同时接收到来自存在传感器28的指示客人的存在的第一信号以及来自骨骼识别传感器26的指示客人的身体的第二信号两者,则控制器40可以基于客人的身体来生成增强现实动画52。例如,增强现实动画52可以是模仿客人16的移动的动画。以这种方式,控制器40可以允许客人16控制增强现实动画52的身体。
响应于从面部识别传感器24接收到指示客人的面部和/或身体的第三信号,控制器40可以基于客人的面部和/或身体来生成或更新增强现实动画52。例如,如果控制器40接收到来自存在传感器28的指示客人的存在的第一信号、来自骨骼识别传感器26的指示客人的身体的第二信号以及来自面部识别传感器24的指示客人的面部和/或身体的第三信号,则控制器40可以基于客人的面部和/或身体来生成增强现实动画52。增强现实动画52可以包括视频馈送的部分,诸如客人16的、乘坐载运器12和/或客人的周围环境的捕获的图像/视频(例如,由面部识别传感器24捕获的视频馈送)。增强现实动画52还可以包括覆盖在视频馈送上的动画,使得动画似乎是客人16的部分和/或视频馈送的部分。例如,增强现实动画52可以包括定位在乘坐载运器12内的客人16的捕获的视频(例如,实时视频馈送)的部分以及似乎是客人16的部分和/或客人的周围环境的部分的动画。动画可以包括代替客人的面部特征、身体部分、整个客人的身体中的一些或其组合。以这种方式,控制器40可以允许客人16控制增强现实动画52的面部特征和/或头部。在某些实施例中,控制器40可以基于指示客人的身体的第二信号和指示客人的面部和/或身体的第三信号两者来生成和提供增强现实动画52,以允许客人16与增强现实动画52交互并控制增强现实动画52的身体和面部特征两者。附加地,控制器40可以更新基于客人的存在和/或身体的先前生成的增强现实动画52,以包括对面部特征的控制。面部识别传感器24连同骨骼识别传感器26和存在传感器28可以继续检测并输出信号至控制器40。当控制器40接收到每个信号时,控制器40基于接收的信号生成和/或更新增强现实动画52。
在某些实施例中,游乐乘坐系统10可以包括防止某些传感器检测到客人的特征(例如,面部和身体)的元件。例如,当乘坐载运器12沿着乘坐路径14行进时,游乐乘坐系统10的元件可以防止面部识别传感器24和骨骼识别传感器26的某些传感器检测和/或跟踪客人的相应特征(例如,面部和身体)。如果给定传感器(例如,面部识别传感器24或骨骼识别传感器26)不能检测到客人16,则控制器40可以基于从另一传感器(例如,骨骼识别传感器26或存在传感器28)接收的信号来生成并提供增强现实动画。
例如,如果控制器40首先从骨骼识别传感器26接收到指示客人的身体的信号并且没有从面部识别传感器24接收到指示客人的面部的信号,则控制器40可以基于客人的身体来生成增强现实动画52并且将增强现实动画52提供给显示组件20。此外,如果控制器40从存在传感器28接收到指示客人的存在的信号并且没有接收到指示客人的面部的信号或者指示客人的身体的信号,则控制器40可以基于客人的存在来生成增强现实动画52并且将增强现实动画52提供给显示组件20。然而,在从存在传感器28接收到指示客人的存在的信号之后,如果控制器40从面部识别传感器24接收到指示客人的面部的信号,或者从骨骼识别传感器26接收到指示客人的身体的信号,则控制器40然后将基于新接收的信号(例如,来自面部识别传感器24的指示客人的面部和/或身体的信号或来自骨骼识别传感器26的指示客人的身体的信号)生成更新的增强现实动画52。以这种方式,增强现实动画52或控制增强现实动画52的客人的能力可以基于由控制器40从各种传感器接收的信号而改变。
图3是增强现实系统22的实施例的正视图。如所图示的,增强现实系统22包括四个显示组件20、四个面部识别传感器24、四个骨骼识别传感器26以及四个存在传感器28。在某些实施例中,增强现实系统22可以包括更多或更少的显示组件20、面部识别传感器24、骨骼识别传感器26、存在传感器28或其组合。附加地,每个显示组件20可以由独立控制器(例如,图1和2的控制器40)来控制,所述控制器被配置成提供要在显示组件20上显示的增强现实动画52。例如,控制器40可以从对应的面部识别传感器24、对应的骨骼识别传感器26、对应的存在传感器28或其组合来接收信号,并且可以基于接收的信号生成增强现实动画52。在某些实施例中,单个控制器可以从增强现实系统22的所有传感器接收信号,并且可以控制所有显示组件20。
在某些实施例中,游乐乘坐系统10和/或增强现实系统22可以包括显示多个增强现实动画的显示组件。例如,单个显示组件可以由多个客人16观看,并且可以为每个客人16显示增强现实动画52。控制器可以针对每个客人16生成多个增强现实动画52并且向单个显示组件提供多个增强现实动画52。
每个显示组件20的控制器可以为每个显示组件20提供变化的增强现实动画52。例如,在每个屏幕50上显示的增强现实动画52在图3的所图示的实施例中是不同的。观看显示组件20和/或与显示组件20交互的客人可以对在其相应的显示组件20上显示的增强现实动画52具有变化的控制水平。例如,定位成邻近第一显示组件20A的第一客人可以能够基于能够检测第一客人的面部特征和/或身体的面部识别传感器24中的对应的一个来控制在第一显示组件20A上显示的增强现实动画52的面部特征和/或身体移动。定位成邻近第二显示组件20B的第二客人可以能够基于能够检测第二客人的身体的骨骼识别传感器26中的对应的一个来控制在第二显示组件20B上显示的增强现实动画52的身体移动。定位成邻近第三显示组件20C的第三客人可以基于能够检测第三客人的面部特征和/或身体的面部识别传感器24以及基于能够检测第三客人的身体的骨骼识别传感器26来控制在第三显示组件20C上显示的增强现实动画52的身体移动和面部特征两者。定位成邻近第四显示组件20D的第四客人可以能够基于能够检测(例如,乘坐载运器12中的)第四客人的存在的存在传感器28来观看在第四显示组件20D上显示的增强现实动画52。在一些实施例中,如本文中所描述的,屏幕50中的一些或全部可以利用通常模仿客人的移动的动画形象(例如,电子动画)来代替。
图4是用于生成和/或更新图2和3的增强现实动画52的方法60的实施例的流程图。尽管以特定序列示出,但是应当注意的是,关于方法60所描述的操作可以以与所示出和所描述的那样不同的顺序来执行,并且实际上,方法60的这样的排列被本公开所涵盖。方法60可以由增强现实系统22来执行,例如由控制器40执行。如由框62所指示,控制器40可以首先接收图1的乘坐载运器12已经到达显示组件20前方的位置和/或邻近显示组件20的位置的指示。例如,控制器40可以接收来自游乐乘坐系统10的第二控制器的指示。第二控制器可以被配置成跟踪乘坐载运器12沿着乘坐路径14的位置并且向控制器40输出指示乘坐载运器12的位置的信号。
在某些实施例中,控制器40可以接收乘坐序列已经开始的指示。控制器40的存储器44可以存储乘坐路径数据,其包括作为时间和/或其它因素的函数的关于沿着乘坐路径14的乘坐载运器的位置的信息。基于经过的时间的量和/或基于其它因素,控制器40可以确定乘坐载运器12已经到达显示组件20前方的位置和/或邻近显示组件20的位置。在某些实施例中,方法60的框62可以被省略,使得乘坐序列已经开始的指示和/或乘坐载运器12已经到达邻近显示组件20的位置的指示不一定被使用。
接下来,控制器40可以从面部识别传感器24、骨骼识别传感器26和存在传感器28中的任何接收对客人16的指示。例如,在框64处,控制器40可以从存在传感器28接收对客人的存在的指示。在框66处,控制器40可以从骨骼识别传感器26接收对客人的身体的指示。在框68处,控制器40可以从面部识别传感器24接收对客人的面部和/或身体的指示。
基于接收的对客人16的指示,控制器40可以生成和/或更新增强现实动画52并且将生成的和/或更新的增强现实动画52提供给相应的显示组件20。例如,在框70处,基于对客人的存在的指示,控制器40可以生成/更新增强现实动画52并且将增强现实动画52提供给显示组件20。显示组件20可以将增强现实动画52显示在与乘坐载运器12中的客人的存在对应的位置中以用于由客人16观看。
在框72处,基于对客人的身体的指示,控制器40可以生成/更新增强现实动画52并且将增强现实动画52提供给显示器,并且允许客人16观看在显示组件20上显示的增强现实动画52并与之交互。客人16可以移动他们的身体(例如,头部、手臂、躯干),并且控制器40可以更新增强现实动画52以大体上匹配客人的身体的移动以用于由客人16观看。在框74处,基于对客人的面部和/或身体的指示,控制器40可以生成/更新并提供增强现实动画52,以允许客人16观看在显示组件20上显示的增强现实动画52并与之交互。客人16可以移动他们的面部特征(例如,眼睛、眉毛、鼻子、嘴)和/或身体,并且控制器40可以更新增强现实动画52以大体上匹配客人的面部特征和/或身体的移动(例如,增强现实动画52的高兴的面部、悲伤的面部、大笑的面部、眼睛的移动、嘴的移动、以及其它面部特征的移动)以用于由客人16观看。
控制器40可以基于指示和对应的增强现实动画52将允许客人16进行的交互的量来确定使用哪个指示来生成和/或更新增强现实动画52。例如,如果控制器40接收到来自存在传感器28的对客人的存在的指示(例如,来自存在传感器28的指示客人的存在的信号)和来自面部识别传感器24的客人的面部和/或身体的指示两者,则控制器40可以基于客人的面部和/或身体来生成和/或更新增强现实动画52。这将通过允许客人16移动他们的面部特征以及利用类似的移动来观看增强现实动画52来允许客人16与游乐乘坐系统10进行更大的交互。
作为另一示例,如果控制器40接收到来自存在传感器28的对客人的存在的指示和来自骨骼识别传感器26的对客人的身体的指示两者,则控制器40可以基于客人的身体来生成和/或更新增强现实动画52。此外,如果控制器40接收到来自骨骼识别传感器26的对客人的身体的指示和来自面部识别传感器24的对客人的面部和/或身体的指示两者,则控制器40可以基于客人的面部和/或身体来生成和/或更新增强现实动画52。在某些实施例中,控制器40可以基于从骨骼识别传感器26接收的对客人的身体的指示以及从面部识别传感器24接收的对客人的面部和/或身体的指示来生成和/或更新增强现实动画,以允许客人16与增强现实动画52的身体和面部两者交互。
在生成和/或更新增强现实动画52之后,方法60可以进行到询问76。在询问76处,控制器40可以确定乘坐载运器是否仍然处于显示组件20前方和/或邻近显示组件20的位置。例如,控制器40可以从第二控制器接收乘坐载运器12仍然处于该位置的信号,或者可以基于存储在控制器40的存储器44中的信息来确定乘坐载运器12仍然处于该位置。基于乘坐载运器12仍然处于显示组件20前方和/或邻近显示组件20的位置的确定,方法60可以返回到框64、66或68中的任何。因此,控制器40可以继续接收对客人16的(一个或多个)指示,并且可以通过基于(一个或多个)指示来更新增强现实动画52。
基于乘坐载运器12不处于显示组件20前方和/或邻近显示组件20的位置的确定,控制器40可以停止向显示组件20提供增强现实动画52,如由框78所指示。例如,控制器40可以停止向显示组件20输出指示更新的增强现实动画52的信号。作为响应,显示组件20可以停止显示增强现实动画52。在这种情况下,控制器40可以使得显示组件20示出存储的动画、空白屏幕或另一特征。
控制器40可以重复地执行块和询问64、66、68、70、72、74和76中的每个,以生成和提供增强现实动画52以用于由客人16观看。例如,在初始地生成和提供增强现实动画52之后,控制器40可以从面部识别传感器24、骨骼识别传感器26、存在传感器28或其组合接收(一个或多个)附加信号,并且可以更新增强现实动画52以及将更新的增强现实动画52提供给显示组件20。因此,控制器40可以基于客人对他们的身体和/或面部特征的移动来更新增强现实动画52。客人16可以观看增强现实动画52的每个版本,并且可以继续移动他们的身体和/或面部特征以使得增强现实动画52移动。以这种方式,客人16可以与增强现实动画52交互和/或控制增强现实动画52。因此,增强现实系统22可以提供为客人16提供娱乐的交互式环境。
虽然本文中已经图示和描述了本公开的仅某些特征,但本领域技术人员将想到许多修改和改变。因此,要理解的是,所附权利要求旨在覆盖如落入本公开的真实精神内的所有这样的修改和改变。
本文中所呈现并且要求保护的技术被引用并且应用于实际性质的实质对象和具体示例,所述实质对象和具体示例可证明地改进本技术领域并且因此不是抽象的、无形的或纯理论的。此外,如果本说明书的末尾所附的任何权利要求包含指定为“用于[执行]……[功能]的装置”或“用于[执行]……[功能]的步骤”的一个或多个元素,则旨在这样的元素将根据35 U.S.C. 112(f)来解释。然而,对于包含以任何其它方式指定的元素的任何权利要求,旨在这样的元素将不根据35 U.S.C. 112(f)来解释。
Claims (17)
1.一种游乐乘坐设施系统,包括:
乘坐载运器,其配置成运载乘客并且沿着乘坐路径行进;
一个或多个传感器,其配置成:当所述乘客在所述乘坐载运器中时检测所述乘客的面部和所述乘客的主体;
显示组件,其被配置成:当所述乘客在所述乘坐载运器中时能由所述乘客观看;以及
控制器,其配置成:
基于从所述一个或多个传感器接收的信号并且基于所述乘坐载运器沿着所述乘坐路径的定位来生成模仿所述乘客的所述面部和所述乘客的所述主体的移动的动画,其中所述信号指示所述乘客的所述面部和所述乘客的所述主体的所述移动;以及
基于所述乘坐载运器沿着所述乘坐路径的定位来指示所述显示组件上的所述动画的显示。
2.根据权利要求1所述的游乐乘坐设施系统,其中所述一个或多个传感器被配置成:检测所述乘客的所述面部和所述乘客的所述主体的所述移动;以及向所述控制器提供指示所述乘客的所述面部和所述乘客的所述主体的所述移动的所述信号,并且其中指示所述乘客的所述面部的所述移动的所述信号包括指示所述乘客的嘴的移动、所述乘客的眼睛的移动或两者的相应信号。
3.根据权利要求1所述的游乐乘坐设施系统,其中所述控制器被配置成:接收所述乘坐载运器内的所述乘客的图像;以及指示所述显示组件上的结合所述图像的至少第一部分的所述动画的所述显示。
4.根据权利要求3所述的游乐乘坐设施系统,其中所述动画叠加到所述图像上,以代替所述图像的第二部分,所述第二部分对应于所述乘坐载运器内的所述乘客的至少相应部分。
5.根据权利要求1所述的游乐乘坐设施系统,其中所述控制器被配置成:接收所述乘客周围的环境的图像;以及指示所述显示组件上的叠加到所述图像上的所述动画的所述显示。
6.根据权利要求1所述的游乐乘坐设施系统,其中所述一个或多个传感器被配置成检测所述乘坐载运器内的所述乘客的存在。
7.根据权利要求6所述的游乐乘坐设施系统,其中所述一个或多个传感器包括所述乘坐载运器的座椅中的压力传感器,并且所述压力传感器被配置成检测所述乘坐载运器的所述座椅内的所述乘客的所述存在。
8.根据权利要求1所述的游乐乘坐设施系统,其中所述显示组件与所述乘坐载运器在物理上分离。
9.根据权利要求1所述的游乐乘坐设施系统,其中所述控制器配置成:接收所述乘坐载运器沿着所述乘坐路径的位置的指示;以及响应于与所述显示组件相邻的所述乘坐载运器而生成所述动画并指示所述动画的所述显示。
10.根据权利要求1所述的游乐乘坐设施系统,包括机械动画形象,所述机械动画形象被配置成当所述乘客在所述乘坐载运器中时能由所述乘客观看,其中所述控制器被配置成基于从所述一个或多个传感器接收的所述信号来控制所述机械动画形象,使得所述机械动画形象的相应移动模仿所述乘客的所述面部和所述乘客的所述主体的所述相应移动。
11.一种游乐园乘坐设施系统,包括:
显示组件,其被配置成当运载乘客的乘坐载运器与所述显示组件相邻时能由所述乘客观看;一个或多个传感器,其被配置成当运载所述乘客的所述乘坐载运器与所述显示组件相邻时连续监视所述乘客的面部和主体的移动;以及
控制器,其配置成:
接收运载所述乘客的所述乘坐载运器与所述显示组件相邻的指示;
响应于运载所述乘客的所述乘坐载运器与所述显示组件相邻的所述指示,生成动画并指示所述显示组件上的所述动画的显示;
接收来自所述一个或多个传感器的信号,其中所述信号指示所述乘客的所述面部和所述主体的所述移动;以及
当运载所述乘客的所述乘坐载运器与所述显示组件相邻时,更新所述动画并指示所述显示组件上的更新的动画的显示,使得所述更新的动画模仿所述乘客的所述面部和所述主体的所述移动。
12.根据权利要求11所述的游乐园乘坐设施系统,包括定位在所述乘坐载运器上的附加显示器。
13.一种提供作为游乐乘坐设施的部分的效果的方法,包括:
在乘坐载运器中运载乘客;
当所述乘客在所述乘坐载运器中时,利用一个或多个传感器检测所述乘客的面部和所述乘客的主体;
在控制器处接收来自所述一个或多个传感器的信号,其中所述信号指示所述乘客的所述面部和所述乘客的所述主体的移动;
利用所述控制器,基于所述乘坐载运器的定位并且基于在所述控制器处从所述一个或多个传感器接收的所述信号来生成模仿所述乘客的所述面部和所述乘客的所述主体的所述移动的动画;以及
利用所述控制器指示被配置成当所述乘客在所述乘坐载运器中时能由所述乘客观看的显示组件来显示所述动画。
14.根据权利要求13所述的方法,包括:
在所述控制器处接收所述乘坐载运器内的所述乘客的图像;以及
利用所述控制器指示所述显示组件上的叠加到所述图像上的所述动画的所述显示。
15.根据权利要求13所述的方法,包括:
在所述控制器处接收所述乘坐载运器沿着乘坐路径的位置的指示;以及
利用所述控制器指示所述显示组件来基于所述乘坐载运器沿着所述乘坐路径的所述位置显示所述动画。
16.根据权利要求13所述的方法,其中生成所述动画包括基于在所述控制器处随时间从所述一个或多个传感器接收的所述信号随时间更新所述动画,使得所述动画模仿所述乘客的所述面部和所述乘客的所述主体的所述移动。
17.一种游乐乘坐设施系统,包括:
乘坐载运器,其配置成运载乘客;
一个或多个传感器,其配置成当所述乘客在所述乘坐载运器中时检测所述乘客的面部和主体;
显示组件,其被配置成当所述乘客在所述乘坐载运器中时能由所述乘客观看;以及
控制器,其配置成:
接收所述乘坐载运器内的所述乘客的图像;
基于所述乘坐载运器的定位并且基于从所述一个或多个传感器接收的信号来生成模仿所述乘客的所述面部和所述乘客的所述主体的移动的动画,其中所述信号指示所述乘客的所述面部和所述主体的移动;以及
指示所述显示组件上的结合所述图像的至少第一部分的所述动画的显示,其中所述动画叠加到所述图像上以代替所述图像的第二部分,所述第二部分对应于所述乘坐载运器内的所述乘客的至少相应部分。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311143979.3A CN117270684A (zh) | 2018-09-24 | 2019-08-29 | 用于游乐乘坐设施的增强现实系统 |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862735754P | 2018-09-24 | 2018-09-24 | |
US62/735754 | 2018-09-24 | ||
US16/212,412 US10636218B2 (en) | 2018-09-24 | 2018-12-06 | Augmented reality for an amusement ride |
US16/212412 | 2018-12-06 | ||
PCT/US2019/048877 WO2020068358A1 (en) | 2018-09-24 | 2019-08-29 | Augmented reality system for an amusement ride |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311143979.3A Division CN117270684A (zh) | 2018-09-24 | 2019-08-29 | 用于游乐乘坐设施的增强现实系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112703044A CN112703044A (zh) | 2021-04-23 |
CN112703044B true CN112703044B (zh) | 2023-09-29 |
Family
ID=69884954
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980062577.6A Active CN112703044B (zh) | 2018-09-24 | 2019-08-29 | 用于游乐乘坐设施的增强现实系统 |
CN202311143979.3A Pending CN117270684A (zh) | 2018-09-24 | 2019-08-29 | 用于游乐乘坐设施的增强现实系统 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311143979.3A Pending CN117270684A (zh) | 2018-09-24 | 2019-08-29 | 用于游乐乘坐设施的增强现实系统 |
Country Status (9)
Country | Link |
---|---|
US (4) | US10636218B2 (zh) |
EP (2) | EP3856378B1 (zh) |
JP (2) | JP7429226B2 (zh) |
KR (1) | KR20210060600A (zh) |
CN (2) | CN112703044B (zh) |
CA (1) | CA3111596A1 (zh) |
ES (1) | ES2967027T3 (zh) |
SG (1) | SG11202101784QA (zh) |
WO (1) | WO2020068358A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11908234B2 (en) * | 2018-11-30 | 2024-02-20 | Interdigital Vc Holdings, Inc. | Method and apparatus to estimate scene illuminant based on skin reflectance database |
US11964214B2 (en) * | 2020-08-19 | 2024-04-23 | Universal City Studios Llc | Systems and methods for adjusting an operation of an attraction system |
CN114004922B (zh) * | 2021-10-29 | 2023-11-24 | 腾讯科技(深圳)有限公司 | 骨骼动画显示方法、装置、设备、介质及计算机程序产品 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101316638A (zh) * | 2005-11-29 | 2008-12-03 | 环球城市制片公司 | 具有乘客选择的集成音频的游乐乘坐装置 |
CN101868284A (zh) * | 2008-03-11 | 2010-10-20 | 迪斯尼实业公司 | 用于基于传感器测量来提供交互性的方法及系统 |
CN106029190A (zh) * | 2014-08-11 | 2016-10-12 | 马克里德斯有限及两合公司 | 操作装置,尤其为游乐设施、运输工具、健身设备等的方法 |
CN107077209A (zh) * | 2014-08-18 | 2017-08-18 | 环球城市电影有限责任公司 | 用于生成增强和虚拟现实图像的系统和方法 |
CN108431736A (zh) * | 2015-10-30 | 2018-08-21 | 奥斯坦多科技公司 | 用于身体上姿势接口以及投影显示的系统和方法 |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6064749A (en) | 1996-08-02 | 2000-05-16 | Hirota; Gentaro | Hybrid tracking for augmented reality using both camera motion detection and landmark tracking |
US6400374B2 (en) | 1996-09-18 | 2002-06-04 | Eyematic Interfaces, Inc. | Video superposition system and method |
US6661418B1 (en) | 2001-01-22 | 2003-12-09 | Digital Animations Limited | Character animation system |
US20030012410A1 (en) | 2001-07-10 | 2003-01-16 | Nassir Navab | Tracking and pose estimation for augmented reality using real features |
KR100474848B1 (ko) | 2002-07-19 | 2005-03-10 | 삼성전자주식회사 | 영상시각 정보를 결합하여 실시간으로 복수의 얼굴을검출하고 추적하는 얼굴 검출 및 추적 시스템 및 방법 |
CA2579903C (en) | 2004-09-17 | 2012-03-13 | Cyberextruder.Com, Inc. | System, method, and apparatus for generating a three-dimensional representation from one or more two-dimensional images |
US7955168B2 (en) * | 2005-06-24 | 2011-06-07 | Disney Enterprises, Inc. | Amusement ride and video game |
AU2006352758A1 (en) | 2006-04-10 | 2008-12-24 | Avaworks Incorporated | Talking Head Creation System and Method |
WO2007130693A2 (en) | 2006-05-07 | 2007-11-15 | Sony Computer Entertainment Inc. | Methods and systems for processing an interchange of real time effects during video communication |
US7806054B2 (en) * | 2008-05-05 | 2010-10-05 | Disney Enterprises, Inc. | Amusement park ride with vehicles pivoting about a common chassis to provide racing and other effects |
US8016434B2 (en) * | 2008-06-05 | 2011-09-13 | Disney Enterprises, Inc. | Method and system for projecting an animated object and concurrently moving the object's projection area through an animation pattern |
US8390680B2 (en) | 2009-07-09 | 2013-03-05 | Microsoft Corporation | Visual representation expression based on player expression |
US9159151B2 (en) * | 2009-07-13 | 2015-10-13 | Microsoft Technology Licensing, Llc | Bringing a visual representation to life via learned input from the user |
US8137205B2 (en) * | 2009-12-04 | 2012-03-20 | Universal City Studios Llc | Motion-based attraction |
US9038543B2 (en) * | 2010-01-21 | 2015-05-26 | Maurer Soehne Gmbh & Co. Kg | Amusement ride comprising a facial expression recognition system |
US8405680B1 (en) | 2010-04-19 | 2013-03-26 | YDreams S.A., A Public Limited Liability Company | Various methods and apparatuses for achieving augmented reality |
US20110304629A1 (en) | 2010-06-09 | 2011-12-15 | Microsoft Corporation | Real-time animation of facial expressions |
US9582707B2 (en) | 2011-05-17 | 2017-02-28 | Qualcomm Incorporated | Head pose estimation using RGBD camera |
US9120021B2 (en) * | 2013-04-10 | 2015-09-01 | Disney Enterprises, Inc. | Interactive lean sensor for controlling a vehicle motion system and navigating virtual environments |
US9378576B2 (en) | 2013-06-07 | 2016-06-28 | Faceshift Ag | Online modeling for real-time facial animation |
US9630631B2 (en) * | 2013-10-03 | 2017-04-25 | Honda Motor Co., Ltd. | System and method for dynamic in-vehicle virtual reality |
GB201320319D0 (en) * | 2013-11-18 | 2014-01-01 | Robocoaster Ltd | Movable screen |
WO2015144209A1 (en) | 2014-03-25 | 2015-10-01 | Metaio Gmbh | Method and system for representing a virtual object in a view of a real environment |
KR101808598B1 (ko) * | 2014-05-12 | 2018-01-18 | 한국전자통신연구원 | 다중 화면 실감미디어 서비스를 위한 체험형 라이드 재현장치 및 그 방법 |
WO2016101131A1 (en) * | 2014-12-23 | 2016-06-30 | Intel Corporation | Augmented facial animation |
US10724874B2 (en) * | 2015-10-13 | 2020-07-28 | Here Global B.V. | Virtual reality environment responsive to predictive route navigation |
JP6186423B2 (ja) * | 2015-12-24 | 2017-08-23 | サノヤス・ライド株式会社 | 観覧車 |
US20180255285A1 (en) | 2017-03-06 | 2018-09-06 | Universal City Studios Llc | Systems and methods for layered virtual features in an amusement park environment |
US10861267B2 (en) * | 2017-08-04 | 2020-12-08 | James Andrew Aman | Theme park gamification, guest tracking and access control system |
-
2018
- 2018-12-06 US US16/212,412 patent/US10636218B2/en active Active
-
2019
- 2019-08-29 EP EP19766443.6A patent/EP3856378B1/en active Active
- 2019-08-29 CA CA3111596A patent/CA3111596A1/en active Pending
- 2019-08-29 JP JP2021516605A patent/JP7429226B2/ja active Active
- 2019-08-29 CN CN201980062577.6A patent/CN112703044B/zh active Active
- 2019-08-29 EP EP23201488.6A patent/EP4296828A3/en active Pending
- 2019-08-29 SG SG11202101784QA patent/SG11202101784QA/en unknown
- 2019-08-29 ES ES19766443T patent/ES2967027T3/es active Active
- 2019-08-29 WO PCT/US2019/048877 patent/WO2020068358A1/en unknown
- 2019-08-29 CN CN202311143979.3A patent/CN117270684A/zh active Pending
- 2019-08-29 KR KR1020217011967A patent/KR20210060600A/ko active Search and Examination
-
2020
- 2020-03-26 US US16/831,454 patent/US10943408B2/en active Active
-
2021
- 2021-03-01 US US17/188,224 patent/US11468649B2/en active Active
-
2022
- 2022-10-10 US US17/962,987 patent/US20230177783A1/en active Pending
-
2024
- 2024-01-26 JP JP2024010268A patent/JP2024045334A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101316638A (zh) * | 2005-11-29 | 2008-12-03 | 环球城市制片公司 | 具有乘客选择的集成音频的游乐乘坐装置 |
CN101868284A (zh) * | 2008-03-11 | 2010-10-20 | 迪斯尼实业公司 | 用于基于传感器测量来提供交互性的方法及系统 |
CN106029190A (zh) * | 2014-08-11 | 2016-10-12 | 马克里德斯有限及两合公司 | 操作装置,尤其为游乐设施、运输工具、健身设备等的方法 |
CN107077209A (zh) * | 2014-08-18 | 2017-08-18 | 环球城市电影有限责任公司 | 用于生成增强和虚拟现实图像的系统和方法 |
CN108431736A (zh) * | 2015-10-30 | 2018-08-21 | 奥斯坦多科技公司 | 用于身体上姿势接口以及投影显示的系统和方法 |
Also Published As
Publication number | Publication date |
---|---|
US20200098182A1 (en) | 2020-03-26 |
KR20210060600A (ko) | 2021-05-26 |
EP4296828A3 (en) | 2024-04-03 |
ES2967027T3 (es) | 2024-04-25 |
EP3856378B1 (en) | 2023-10-04 |
SG11202101784QA (en) | 2021-03-30 |
JP7429226B2 (ja) | 2024-02-07 |
CN112703044A (zh) | 2021-04-23 |
US10943408B2 (en) | 2021-03-09 |
EP4296828A2 (en) | 2023-12-27 |
US11468649B2 (en) | 2022-10-11 |
WO2020068358A1 (en) | 2020-04-02 |
CN117270684A (zh) | 2023-12-22 |
CA3111596A1 (en) | 2020-04-02 |
US20210327147A1 (en) | 2021-10-21 |
JP2022502141A (ja) | 2022-01-11 |
EP3856378A1 (en) | 2021-08-04 |
US10636218B2 (en) | 2020-04-28 |
JP2024045334A (ja) | 2024-04-02 |
US20230177783A1 (en) | 2023-06-08 |
US20200226841A1 (en) | 2020-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112703044B (zh) | 用于游乐乘坐设施的增强现实系统 | |
US20210094180A1 (en) | Augmented Reality Coordination Of Human-Robot Interaction | |
US10671240B2 (en) | Systems, devices, articles, and methods for creating and using trained robots with augmented reality | |
KR20190082310A (ko) | 놀이 공원 놀이물 제어 관리 시스템 및 방법 | |
US10970563B2 (en) | System and method for remapping surface areas of a vehicle environment | |
Krückel et al. | Intuitive visual teleoperation for UGVs using free-look augmented reality displays | |
EP3213539B1 (en) | Apparatuses, methods and computer programs for providing vehicle feedback | |
DE102016224122A1 (de) | Verfahren zum Betreiben einer VR-Brille in einem Innenraum eines Kraftfahrzeugs sowie Steuervorrichtung und Kraftfahrzeug | |
CN114286762B (zh) | 用于在交通工具中操作虚拟现实头戴设备的方法和控制设备 | |
US20190381406A1 (en) | Game system using vehicle driving information and method of providing game service in vehicle | |
US20150269450A1 (en) | Mobile body operation support device, mobile body operation support method, and computer readable non-transitory storage medium comprising mobile body operation support program | |
KR102679727B1 (ko) | 이미지 처리 장치, 시스템, 이미지 처리 방법, 및 이미지 처리 프로그램 | |
US20200184030A1 (en) | Evaluation of a simulated vehicle functionality feature | |
CN114008684A (zh) | 车辆显示单元上的附加信息的位置正确的显现 | |
Martínez-Carranza et al. | On combining wearable sensors and visual SLAM for remote controlling of low-cost micro aerial vehicles | |
Srinivasan et al. | Augmented Reality Exocentric Navigation Paradigm for Time Delayed Teleoperation | |
JPWO2020068358A5 (zh) | ||
CN117136541A (zh) | 用于动画形象显示的系统和方法 | |
KR20200047149A (ko) | 실시간으로 작동하는 체험 유닛 | |
KR20200047148A (ko) | 실시간으로 작동하는 체험 유닛 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40052980 Country of ref document: HK |
|
GR01 | Patent grant | ||
GR01 | Patent grant |