CN113711162A - 用于混合现实应用中机器人交互的系统和方法 - Google Patents

用于混合现实应用中机器人交互的系统和方法 Download PDF

Info

Publication number
CN113711162A
CN113711162A CN202080011999.3A CN202080011999A CN113711162A CN 113711162 A CN113711162 A CN 113711162A CN 202080011999 A CN202080011999 A CN 202080011999A CN 113711162 A CN113711162 A CN 113711162A
Authority
CN
China
Prior art keywords
virtual
robot
world
real
mixed reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080011999.3A
Other languages
English (en)
Inventor
文森特·里高
艾蒂安·休伯特
尼古拉斯·马钱德
约翰-贾罗·马丁内斯-莫利纳
凯文·西兰
布鲁诺·博伊索
乔纳森·杜蒙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Centre National de la Recherche Scientifique CNRS
Institut Polytechnique de Grenoble
Universite Grenoble Alpes
Original Assignee
Centre National de la Recherche Scientifique CNRS
Institut Polytechnique de Grenoble
Universite Grenoble Alpes
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Centre National de la Recherche Scientifique CNRS, Institut Polytechnique de Grenoble, Universite Grenoble Alpes filed Critical Centre National de la Recherche Scientifique CNRS
Publication of CN113711162A publication Critical patent/CN113711162A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0044Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/98Accessories, i.e. detachable arrangements optional for the use of the video game device, e.g. grip supports of game controllers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0038Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/803Driving vehicles or craft, e.g. cars, airplanes, ships, robots or tanks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/05UAVs specially adapted for particular uses or applications for sports or gaming, e.g. drone racing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U30/00Means for producing lift; Empennages; Arrangements thereof
    • B64U30/20Rotors; Rotor supports

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Human Computer Interaction (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Manipulator (AREA)

Abstract

本公开涉及一种用于实现混合现实系统的处理装置,该处理装置包括:一个或多个处理核心;以及一个或多个存储指令的指令存储器,当所述指令由所述一个或多个处理核心执行时,使得所述一个或多个处理核心:维持一个虚拟世界,该虚拟世界至少包括与现实世界中的第一机器人对应的第一虚拟副本;生成一个或多个影响所述虚拟世界中的所述第一虚拟副本的虚拟事件;响应所述一个或多个虚拟事件生成用于控制所述第一机器人的控制信号(CTRL);并将所述控制信号(CTRL)传输至所述第一机器人,以修改所述第一机器人的行为,并提供对所述一个或多个虚拟事件的现实世界的响应。

Description

用于混合现实应用中机器人交互的系统和方法
本专利申请要求于2019年1月31日提交的法国专利申请的优先权,并分配了申请号FR19/00974,其内容在此引入作为参考。
技术领域
本公开涉及机器人控制系统领域,尤其涉及一种允许增强现实和混合现实应用的系统。
背景技术
有人提议提供允许增强现实和混合现实应用的系统。
“增强现实”对应于物理现实世界环境的直接或间接的实时视图,其元素由叠加在实时视图上的计算机生成的信息(例如视觉和音频信息)“增强”。
“混合现实”,也被称为混合现实,是将现实世界和虚拟世界融合,以产生新的环境和可视化,其中,物理和数字对象可以共存并实时交互。混合现实的名称来源于这样一个事实,即,世界既不是完全物理的,也不是完全虚拟的,而是两个世界的混合体。
然而,在提供混合现实环境中存在技术上的困难,在混合现实环境中,虚拟世界中涉及虚拟元素的事件可以与物理世界中真实对象的动态行为同步。
发明内容
本说明书的实施例的目的是至少部分地解决现有技术中的一个或多个困难。
根据一个方面,提供了一种用于实现混合现实系统的处理装置,该处理装置包括:一个或多个处理核心;以及存储指令的一个或多个指令存储器,当所述指令由一个或多个处理核心执行时,使得所述一个或多个处理核心:维持一个虚拟世界,所述虚拟世界至少包括与现实世界中的第一机器人相对应的第一虚拟副本;生成影响所述虚拟世界中的所述第一虚拟副本的一个或多个虚拟事件;响应所述一个或多个虚拟事件生成用于控制所述第一机器人的控制信号;以及将所述控制信号传输至所述第一机器人,以修改所述第一机器人的行为,并对所述一个或多个虚拟事件提供现实世界的响应。
根据一个实施例,所述指令进一步使得所述一个或多个处理核心在生成所述控制信号之前接收旨在控制所述第一机器人的用户或计算机生成的命令,其中,所述生成控制信号包括根据所述一个或多个虚拟事件修改用户或计算机生成的命令。
根据一个实施例,所述指令进一步使得所述一个或多个处理核心将在没有虚拟事件的情况下由用户或计算机生成的命令生成的控制信号限制在第一范围,其中,向所述一个或多个虚拟事件提供现实世界的响应的所述控制信号超过所述第一范围。
根据一个实施例,所述指令进一步使得所述一个或多个处理核心生成混合现实视频流,以被转发到显示接口,所述混合现实视频流包括来自在时间和空间上同步,并与由相机捕捉的原始视频流合并的所述虚拟世界的一个或多个虚拟特征。
根据一个实施例,所述指令使得所述一个或多个处理核心在所述混合现实视频流中生成表示由所述现实世界中的所述第一机器人的行为触发的虚拟事件的虚拟特征。
根据一个实施例,所述指令进一步使得所述一个或多个处理核心基于由跟踪系统提供的跟踪数据,连续跟踪所述第一机器人与其位置和方向相对应的六自由度坐标。
根据一个实施例,所述指令进一步使得所述一个或多个处理核心至少基于所述第一机器人的所述跟踪数据和所述一个或多个真实静态或移动对象或其他机器人的六自由度坐标,生成所述控制信号,以确保所述第一机器人与一个或多个真实的静态或移动对象或其他机器人的非接触式交互。
一种混合现实系统,包括:上述处理装置;活动区,包括所述第一机器人和在所述处理装置控制下的一个或多个其他的机器人的;跟踪系统,其被配置为跟踪所述第一机器人和所述一个或多个其他的机器人的相对位置和方向。
根据一个实施例,所述第一机器人是无人机或陆基机器人。
根据一个实施例,所述混合现实系统还包括一个或多个用户控制接口,用于生成用户命令的。
根据另一方面,提供了一种在混合现实系统中控制一个或多个机器人的方法,该方法包括:在由一个或多个指令存储器存储的指令的控制下,由一个或多个处理核心维持一个虚拟世界,所述虚拟世界至少包括与所述现实世界中的第一机器人相对应的第一虚拟副本;生成影响虚拟世界中的所述第一虚拟副本的一个或多个虚拟事件;响应所述一个或多个虚拟事件生成用于控制第一机器人的控制信号;以及将所述控制信号传输至所述第一机器人,以修改所述第一机器人的行为,并为所述一个或多个虚拟事件提供现实世界的响应。
附图说明
上述特征和优点以及其他特征和优点将在以下通过举例而非限制的方式给出的具体实施例的描述中参照附图进行详细描述,其中:
图1是根据本公开的示例实施例的混合现实系统的透视图;
图2根据示例实施例更详细的示意性示出了图1的混合现实系统的计算系统;
图3根据示例实施例更详细的示意性示出了图2的处理装置;
图4表示根据本公开的示例实施例的现实世界;
图5表示对应于图4的现实世界的虚拟世界;
图6示出了在生成混合现实视频图像期间的视频图像;
图7示意性地示出了根据示例实施例的用于根据命令控制机器人的控制回路;
图8示出了根据本公开的示例实施例的具有现实世界效果的虚拟世界特征的示例;
图9示出了根据本公开的示例实施例的虚拟围栏功能;以及
图10示出了根据本公开的示例实施例的机器人之间的模拟非接触碰撞功能。
具体实施方式
在本公开的内容中,术语“耦合”用于指定系统元件之间的连接,该连接可以是直接的,也可以通过一个或多个中间元件,例如缓冲器、通信接口、中间网络等。
此外,在整个本说明书中,以下术语将被视为具有以下定义:
“机器人”—在某种程度上自动操作并在某种程度上受用户控制的任何机器或机械装置。例如,如下文将更详细地描述的那样,机器人在某种程度上是通过基于用户命令的无线控制接口被远程控制的。
“混合现实应用”—一种在现实世界和虚拟世界之间存在交互的应用。例如,在现实世界发生的事件被跟踪并应用到虚拟世界,而在虚拟世界中发生的事件会导致现实世界的效果。互联网网站www.drone-interactive.com提供了一些混合现实交互式视频游戏的例子。“Drone Interactive”这一名称可能对应一个或多个注册商标。虽然在下面的描述中,混合现实系统的实施方案是根据互动游戏的应用实例来描述的,但是对于本领域技术人员来说显而易见的是,本文描述的系统可以具有其他的应用,例如,用于机器的维护或建筑;用于探索,包括空间探索;用于制造业,例如在制造链中;用于搜索和救援,或用于培训,包括在上述任何应用的背景下的飞行员或驾驶员培训。
“虚拟副本”—虚拟世界中的虚拟元素,其与现实世界中的真实元素相对应。例如,一堵墙、一座山、一棵树或其他类型的元素可能存在于现实世界中,并且也是基于其至少一些现实世界的属性,特别是对应于其相对位置和方向的六个自由度(DoF)坐标,其3D模型或其在移动元素情况下的动态行为在虚拟世界中被定义。一些虚拟副本可能对应于移动元素,例如机器人,甚至对应于在下面更详细描述的某些特定情况下的用户。虽然静态元素的六个自由度坐标,例如,对于给定的应用来说只存储一次,但移动元素(例如机器人)的六自由度坐标则被跟踪并应用于其在虚拟世界中的虚拟副本,这将在下文中详细描述。最后,每个虚拟副本的行为模仿现实世界中相应的移动元素的行为。
图1是根据本公开的一个示例实施例的混合现实系统100的透视图。图1仅示出了该系统的现实世界元素,虚拟世界由下面更详细描述的计算系统120维持。
系统100,例如,包括任何形状和尺寸的活动区102。活动区102,例如,定义了混合现实系统可以在其中运行的体积,特别是多个机器人可以在其中运行,并且在其中可以跟踪机器人的6个DoF坐标(位置和方向)。虽然在图1的示例中,活动区102限定了一个基本上是圆柱形的体积,但在其他可选的实施例中,也可以有其他的形状。活动区102的大小和形状将取决于各种因素,诸如机器人的数量和大小,机器人执行的活动类型以及来自现实世界的任何约束。
一个或多个机器人,例如,存在于活动区102内,并且可以彼此交互,与活动区中的其他移动或静态真实对象以及与虚拟世界中的虚拟元素交互。例如,活动区102定义了游戏区,其中使用了构成混合现实游戏一部分的机器人。在图1的示例中,机器人包括无人机108和模型车辆110形式的陆基机器人,尽管机器人的特定类型将取决于游戏或应用。事实上,机器人可以是能够远程控制的任何类型。机器人的数量可以是从一个到几十个不等。
活动区102内的每个机器人,例如,是至少部分可通过无线接口控制的远程控制的机器人。然而,一个或多个机器人也有可能包括有线控制线。
在此假设,活动区102内的每个机器人包括电源,例如电池,以及一个或多个致动器、马达等,用于使每个机器人的部件根据用户命令和/或在一个或多个自动控制回路的控制下移动。例如:无人机包括一个或多个可产生向前、向后、横向和/或垂直的平移的螺旋桨;模型车辆形式的陆基机器人包括用于驱动车辆的一个或多个车轮的电机和用于操纵车辆的某些车轮的一个或多个致动器。当然,用于移动机器人的具体类型的电机或致动器将取决于机器人的类型及其被设计所执行的操作类型。
计算系统120,例如,被配置为跟踪现实世界中(在活动区102内)的活动,同时还维持虚拟世界,并且合并现实世界和虚拟世界,以便为一个或多个用户和/或观众提供混合现实体验,这一点现在将被更详细地描述。
混合现实系统100,例如,包括跟踪系统112,其能够跟踪机器人的相对位置和方向(六自由度坐标),并且在某些情况下还跟踪活动区102内的其他移动或静态对象。例如,以相对较高的精度跟踪位置信息,例如,精度为1cm或更小,而方向的测量精度为1度或更低。事实上,该系统用于准确同步现实世界和虚拟世界并在它们之间建立互动的整体性能将在一定程度上取决于跟踪数据的准确性。在一些实施例中,机器人具有六个自由度,三个是平移分量,三个是旋转分量,并且跟踪系统112能够跟踪它们中的每一个相对于这六个自由度的位置和方向。
在一些实施例中,每个机器人可以包括多个主动或被动标记(未示出),这些标记可以被跟踪系统112检测到。跟踪系统112的发射器,例如发射红外光,以及可以集成在光发射器中的照相机,例如,根据这些标记反射的光检测机器人的六自由度坐标。例如,每个被跟踪的对象(包括机器人)都有一个独特的标记图案,该图案允许它在其他被跟踪的对象中被识别,并确定其方向。此外,跟踪系统112可以包括一个或多个发射器,其以不可见光的波长向活动区102发射光线。有许多不同的跟踪系统是基于这种类型的跟踪技术,一个例子是以“Optitrack”(名称“Optitrack”可能对应于注册商标)的名称销售的跟踪系统。
在进一步的实施例中,光是以光束的形式出现的,并且机器人包括光捕获元件(未示出),该元件在机器人穿过光束时进行检测,通过识别光束,可以估计出机器人的六自由度坐标。这样的系统,例如,是由HTC公司以Lighthouse的名称销售的(HTC和Lighthouse可能对应于注册商标)。
机器人也有可能包括机载跟踪系统,例如,基于惯性测量单元或任何其他定位装置,允许机器人检测它们的六自由度坐标(位置和方向),并将该信息传递给计算系统120。
在进一步的实施例中,可以使用不同类型的跟踪系统,例如,基于UWB(超宽带)模块的系统,或基于可视相机的系统,其中,图像处理被用于执行对象识别和检测机器人的六自由度坐标(位置和方向)。
计算系统120,例如,从跟踪系统112接收信息,实时指示活动区102中每个被跟踪对象(包括机器人)的六自由度坐标(位置和方向)。根据跟踪系统的类型,该信息可以通过有线连接和/或无线接口接收。
混合现实系统100包括用于捕获活动区的实时(流)视频图像的摄像机,这些图像被处理以创建混合现实视频流,以显示给用户和/或观众。例如,混合现实系统100包括位于活动区102内部或外部的一个或多个固定摄像机114和/或安装在一些或所有机器人上的一个或多个摄像机116。一个或多个固定摄像机114或机器人摄像机116,例如,是平移和倾斜摄像机,或平移变焦(PTZ)摄像机。在活动区102外部的相机114的情况下,它可以被布置为捕获整个区域102,提供混合现实场景的全局视图。
由摄像机114和/或116捕获的视频流,例如,可以无线传输到计算系统120,尽管对于某些摄像机,例如固定摄像机114,可以使用有线连接。
计算系统120,例如,能够与活动区102内的机器人进行无线通信。例如,计算系统120包括,对于每个机器人,机器人控制接口,其具有一根或多根天线122,以允许向机器人无线传输控制信号;和机器人视频接口,其具有一根或多根天线123,以允许无线接收机器人摄像机116的视频流。虽然图1中示出了单根天线122和单根天线123,但是,例如,每个天线的数量等于机器人的数量。
计算系统120,例如,是一个中央系统,通过该系统可以控制活动区102中的所有机器人,管理现实世界和虚拟世界之间的所有交互,并且执行所有视频处理,以创建混合现实视频流。或者,计算系统120可以由分布在不同位置的若干单元组成。
用户接口例如,允许用户控制一个或多个机器人和/或允许用户或观众通过观看活动区102的混合现实图像沉浸在混合现实游戏或应用中。例如,提供一个或多个控制接口125,包括,例如,操纵杆126、手持游戏控制器128,和/或方向盘130,尽管可以使用任何类型的控制接口。控制接口125,例如,通过有线连接连接到计算机系统120,尽管在替代实施例中可以使用无线连接。此外,为了允许用户和/或观众通过观看活动区102的混合现实图像而沉浸在混合现实游戏或应用中,提供了一个或多个显示接口132,例如虚拟现实(VR)眼镜或视频眼镜136,和/或显示屏138,和/或透视增强现实(AR)眼镜134,尽管可以使用任何类型的显示器。在一些实施例中,向每个用户提供音频流。例如,头戴式眼镜134和136配备有耳机。此外或替代地,扬声器140可以向用户和/或观众提供音频。显示接口132,例如,通过有线连接连接到计算机系统120,尽管在替代的实施例中可以使用无线连接。
活动区102,例如,包括,除了机器人之外,一个或多个在虚拟世界中具有虚拟副本的另外的静态或移动对象。例如,在图1中,墙142和气球143分别是在虚拟世界中被复制的静态和移动对象。也可以有任何其他对象,例如,静态或移动的场景特征、装饰物、球、钟摆、门、摆动的门/窗等。这些对象的六自由度坐标(位置和方向)可以被跟踪系统112跟踪。如下文所述,机器人与墙142和/或气球143和/或任何其他对象之间可能存在交互,这可能导致计算系统120在虚拟世界中生成虚拟事件,也可能在现实世界中产生物理反应。当然,任何类型的固定或移动对象都可以出现在活动区102中并复制到虚拟世界中。在一些实施例中,活动区102内的所有真实元素,无论是移动的还是固定的,都具有虚拟副本。这允许计算系统120存储或跟踪这些真实元素的六自由度坐标(位置和方向),从而允许,例如,避免机器人与这些对象的碰撞。
在一些实施例中,用户可以与活动区102中的机器人直接交互。例如,图1示出了活动区102中的用户佩戴着透明的增强现实(AR)眼镜134,其允许直接查看的活动区102的混合现实图像。跟踪系统112,例如,能够跟踪AR眼镜134的六自由度坐标(位置和方向),例如,基于固定在AR眼镜134的标记。从而可以生成适当的混合现实图像,并将其提供给AR眼镜134的显示屏。
在一些情况下,一个或多个用户可以以不同于使用上述控制接口125之一(游戏控制器、操纵杆等)的方式与一个或多个机器人进行交互。例如,活动区102中的用户可以使用棒144或任何其他实体对象直接与机器人交互。跟踪系统112,例如,跟踪棒144的运动,而计算系统120,例如,作为这些运动的函数控制机器人。例如,一个或多个无人机可以被棒144击退,或者被引导到棒144所指示的区域,尽管可以设想任何类型的交互。
图2更详细的示意性地说明了图1的混合现实系统的计算系统120的架构的示例。
系统120,例如,包括由一台或多台联网计算机实现的处理装置(处理装置)202。处理装置202,例如,包括指令存储器(指令存储器)204和一个或多个处理核心(一个或多个处理核心)206。处理装置202,例如,还包括存储存储器(存储存储器)208,存储由处理核心206处理的数据,这将在下文中详细描述。
处理装置202,例如,从一个或多个控制接口(一个或多个控制接口)125接收用户命令(CMD)。用户命令对应于用户对机器人的期望控制,例如,指示机器人的期望位移和/或其他期望行为。此外,用户命令还可以对应于任何用户在混合现实游戏或应用中的任何期望的触发动作。在一些实施例中,处理装置202生成反馈信号FB,该信号被送回控制接口125。这些反馈信号,例如,使用户接口125响应于混合现实游戏或应用中的事件而振动,或提供其他形式的反馈响应(触觉反馈或其他)。
计算系统120,例如,包括机器人摄像机接口(机器人摄像机接口)210,该接口无线的接收来自一个或多个机器人的机器人相机116的原始视频流(原始视频流),并将这些原始视频流传输到处理装置202。此外,计算系统120,例如,包括机器人控制接口(机器人控制接口)212,其从处理装置202接收机器人控制信号(CTRL)并将这些控制信号无线传输到一个或多个机器人。计算系统120,例如,包括固定摄像机接口(固定摄像机接口)214,其通过无线或有线接口接收来自固定摄像机114的原始视频流,并将这些原始视频流传输到处理装置202。虽然在图2中未示出,但处理装置202也可生成控制信号,用于控制固定摄像机114和/或机器人摄像机116的平移、倾斜和/或变焦。
处理装置202,例如,修改从固定摄像机114和/或机器人摄像机116接收的原始视频流,以生成混合现实视频流(混合现实视频流),并且在某些情况下(未示出)生成音频流,其被传输到显示接口(显示接口)132。
处理装置202,例如,还从跟踪系统(跟踪系统)112接收对应于所有被跟踪对象(机器人和静态/移动对象)的六自由度坐标(位置和方向)的跟踪数据(跟踪数据)。
图3更详细的示意性地示出了图2中的处理装置202的功能,并且特别是表示了在处理装置202中通过软件加载到指令存储器204,并由处理核心206执行来实现软件模块的例子。当然,处理装置202可以有多种实现方式,一些功能可以通过硬件实现,也可以通过软件和硬件混合实现。
处理装置202,例如,实现混合现实模块(混合现实模块)302,包括显示模块(显示模块)304和真实-虚拟交互引擎(真实-虚拟交互引擎)305。处理装置202,例如,还包括:存储在存储存储器208中的数据库(数据库)306、机器人控制模块(机器人控制模块)310以及在一些情况下的人工智能模块(人工智能模块)309。
混合现实模块302从用户接口(用户接口)的控制接口(控制接口)125接收用于控制相应机器人的用户命令(CMD),并且在一些实施例中生成反馈信号FB发送回至这些控制接口125。此外或替代地,一个或多个机器人可由人工智能模块309生成并由混合现实模块302接收的命令(CMD_AI)控制。
数据库306,例如,存储以下一项或多项:
-机器人数据,至少包括每个机器人的3D模型和动态模型,分别表示机器人的3D形状和动态行为;
-真实对象数据,至少包括活动区102中每个静态/移动真实对象的3D模型,以及静态对象的永久六自由度坐标(位置和方向);
-混合现实应用数据,包括,例如,虚拟世界中包含的每个虚拟元素的3D模型、平视显示器(HUD)数据、特效(FX)数据、取决于应用的一些特定规则,以及在视频游戏的情况下的游戏数据;
-摄像机数据,至少,包括每个摄像机(固定摄像机114和机器人摄像机116)的内在和外在参数,以及对于固定摄像机,它们的永久六自由度坐标(位置和方向)。
混合现实模块302构建和维持虚拟世界,该虚拟世界由所有虚拟元素组成,包括机器人的虚拟副本和活动区102中的静态/移动真实对象。特别是,真实-虚拟交互引擎305从跟踪系统112接收跟踪数据(跟踪数据),并使用存储在数据库306中的数据来确保真实元素(机器人和活动区102中的静态/移动真实对象)和它们在虚拟世界中的相应虚拟副本之间的六自由度坐标(位置和方向)同步。
引擎305,例如,还基于初始用户命令(CMD)或人工智能生成的命令(CMD_AI)以及与一个或多个机器人相关的真实虚拟交互来生成用于控制一个或多个机器人的修改的命令信号CMD'。例如,这些真实-虚拟交互是根据混合现实应用中发生的事件和/或取决于应用,根据数据库306中的其他特定规则,作为机器人被跟踪的六自由度坐标(位置和方向)、来自数据库306的机器人数据(包括机器人动态模型)的函数生成的。在视频游戏的情况下,这些规则可以在游戏玩法数据中定义。引擎305,例如,还实施了防碰撞程序,以防止机器人本身之间和/或任何机器人与活动区102中的另一个真实对象之间的碰撞,以及在某些情况下任何机器人与虚拟世界中的虚拟元素之间的碰撞。下面将参考图8、图9和图10描述真实-虚拟交互的一些示例。
显示模块304,例如,基于来自固定摄像机114和/或机器人摄像机116的原始视频流生成混合现实视频流,并在合并由真实-虚拟交互引擎305生成的虚拟特征(例如,一个或多个虚拟元素的视图、平视显示数据、视觉特效等)之后,将其传送到相应的显示接口132。例如,由真实-虚拟交互引擎305产生的虚拟特征在时间和空间上是同步的,并与原始视频流合并。例如,混合现实应用中一个或多个虚拟元素的视图被呈现在显示界面上,其位置和方向取决于相应的固定或机器人摄像机114/116的视场和六自由度坐标(位置和方向)。
机器人控制模块310,例如,接收由真实-虚拟交互引擎305生成的修改的命令信号CMD',并基于这些命令信号生成一个或多个控制信号CTRL,以控制多个机器人中的一个(机器人控制接口),下面将结合图7更详细地描述。
现在将参考图4、图5和图6(A)至图6(E)更详细地描述混合现实模块302的操作。
图4是活动区400的透视现实世界视图。在图4的示例中,活动区400包括静态墙402和两个机器人,它们是两个无人机404和406。此外,活动区400的背景包括带有印刷图形的背景墙409。无人机404具有,例如,具有视场407的摄像机116。在该示例中,摄像机116刚性附接在无人机上,但是在替代实施例中,摄像机116可以是平移和倾斜的摄像机或PTZ摄像机。
图5是对应于图4的活动区400的虚拟世界500的透视图,同时也是图4的实例。该虚拟世界包括虚拟副本402'、404'和406,分别对应于真实墙402和真实无人机404和406。虚拟副本402'、404'和406'在虚拟世界中的位置和方向与真实墙402和真实无人机404和406在现实世界中的位置和方向相同,并且,例如,可以由混合现实模块302根据由跟踪系统112提供的无人机404和406的六自由度坐标以及存储在数据库306中的真实墙402的六自由度坐标来确定。以同样的方式,无人机404的虚拟副本404'具有虚拟摄像机116',其具有与真实无人机404的视场407相对应的虚拟视场407'。在图5的示例中,虚拟世界中没有背景。虚拟世界500还包括一些纯粹的虚拟元素,特别是飞龙408'、在无人机404的虚拟副本404'和龙尾之间的虚拟爆炸410',以及在龙尾和墙402的虚拟复制品402'的边缘之间的虚拟爆炸412'。
显示模块304通过将由真实无人机404的摄像机116捕获的现实世界的原始视频流与对应于无人机404的虚拟副本404'的虚拟摄像机116'的视点的虚拟世界的虚拟图像合并而生成混合现实视频流,现在将参考图6(A)至6(E)更详细地描述。
图6(A)是从无人机404的摄像机116在与图4和5相同的时间实例中捕获的原始视频流中提取的真实图像。通过对应于视场407,该图像包括无人机406、墙402的一部分和活动区的背景409的一部分。该图像,例如,由混合现实模块302的显示模块304通过图2的机器人摄像机接口210从无人机404的摄像机116接收。
图6(B)示出了与图4和图5相同的时间实例中,对应于无人机404的虚拟副本的虚拟摄像机116'的视点的计算机生成的图像。该图像包括龙408'的一部分、爆炸410'的一部分以及墙402和无人机406的虚拟副本402'和406'的一部分。该图像,例如,还包括,在前景中的平视显示器(HUD)602'根据混合现实应用指示,例如,玩家的得分和/或其他信息。在本实施例中,图像由以下平面构成:
-第一平面:HUD602';
-第二平面:爆炸410';
-第三平面:龙408'的尾部;
-第四平面:墙的虚拟副本402';
-第五平面:龙408'的翼;
-第六平面:无人机的虚拟副本406';
-第七平面:龙408'的首;
-背景平面:空的,如图6B中的点划线所示。
图6(C)示出了由显示模块304从图6(B)的图像生成的图像掩码的示例,其中,图6(A)的真实图像中要在最终图像中保持的区域(背景和虚拟副本的可见部分)用对角线条纹表示,而要被图6(B)的纯虚拟元素的可见部分替换的区域则用白色表示。
图6(D)显示了图6(A)的图像在应用了图6(C)的图像遮罩后的情况。将添加虚拟元素的区域的轮廓用虚线表示。
图6(E)表示构成混合现实视频流一部分的最终图像,并与图6(D)的图像相对应,图6(B)的虚拟元素已经被合并在该图像上。在该示例中,最终图像包括无人机406、墙402和背景409的原始视频图像与纯虚拟元素408'、410'和602'的合并。这种合并是在考虑到图像的各个平面之间可能出现的遮挡的情况下进行的。
在一些实施例中,显示模块304为正在被处理的原始视频流的每个图像生成类似于图6(C)的图像掩码,其被应用于原始视频流的相应图像。真实-虚拟交互引擎305,例如,还向显示模块304提供包括要与真实图像合并的虚拟元素的图像,类似于图6(B)的示例,并且显示模块304,例如,合并这些图像以生成类似于图6(E)的最终图像。
显示模块304,例如,以类似于图6(A)至6(E)的示例的方式处理从机器人/固定摄像机116/114接收的每个原始视频流,以便生成相应的混合现实视频流到每个显示接口。
图6被用于说明可用于生成混合现实图像的原理,对于本领域技术人员来说显而易见的是,这些原理的实现可以采用各种形式。
图7示意性地示出了用于控制机器人的控制回路700,例如,图1的无人机108,根据一个示例性实施方案,使用图3的真实-虚拟交互引擎(真实-虚拟交互引擎)305和机器人来控制模块310。
如图7所示,用户命令(CMD)或人工智能生成的命令(CMD_AI)由真实-虚拟交互引擎305接收,并通过考虑在混合现实应用中发生的事件和/或其他特定规则,例如防碰撞例程,进行处理,以生成修改的命令CMD',该命令被提供给机器人控制模块310。
机器人控制模块310,例如,包括传递函数模块701,其将每个修改的命令CMD'转换成期望的机器人状态(期望状态),包括机器人的期望的六自由度坐标(位置和方向)。该模块310还包括减法模块702,该减法模块702基于由跟踪系统112提供的跟踪数据(跟踪数据)连续地计算错误状态值(错误状态值)作为期望机器人状态和由另一传递函数模块703产生的测量机器人状态(测量状态)之间的差错误状态值被提供给控制器(控制器)704,其,例如,使用来自数据库306的机器人动态模型(机器人动态模型),并旨在生成使该错差状态值最小的控制信号CTRL。生成的控制信号CTRL,例如,通过机器人控制接口以无线方式传输给机器人108。
现在将通过参考图8至图10的几个示例更详细地描述真实-虚拟交互引擎305对命令信号CMD的修改。这些图例示出了控制无人机802的示例。然而,对于本领域技术人员来说显而易见的是,这些原理可以应用于其他类型的机器人。
图8(A)说明了第一个示例,其中,无人机802飞向虚拟的助推区804',例如,该区域仅作为虚拟世界中的虚拟元素存在。推力计806'与无人机802相关联地示出,并以阴影条表示在给定时间内应用于无人机的推力水平。该推力计806'是为了帮助理解真实-虚拟交互引擎305的操作而呈现的,这种虚拟推力计取决于在混合现实应用可以或可以不显示给用户,例如,作为HUD的一部分。
图8(A)的顶部显示了推力计806'的放大版本。可以看出,这个量具分为四个部分。中心点对应于零推力(0),其左侧的区域对应于施加给无人机802的反向推力,而其右侧的区域对应于施加给无人机802的正向推力。部分808涵盖了从零到用户命令的极限CMD_MAX的向前推力范围,部分810涵盖了从零到用户命令的极限-CMD_MAX的反向推力范围。部分812涵盖了从CMD_MAX到更高水平CMD_MAX'的向前推力范围,而部分814涵盖从-CMD_MAX到水平-CMD_MAX'的反向推力范围。例如,水平CMD_MAX'和–CMD_MAX'对应于无人机在推力方面的实际极限。因此,部分812和部分814为真实-虚拟交互引擎305增加了灵活性,使其能够超过正常的用户命令限制,以增加现实世界的效果来响应虚拟事件,这将在下文中详细描述。在一些实施例中,在机器人内应用于产生由命令CMD_MAX'产生的推力的功率比在机器人内应用于产生由命令CMD_MAX产生的推力的功率至少大50%。
在图8(A)的示例中,推力计806'指示低于水平CMD_MAX的向前推力,该推力,例如,仅由用户命令CMD对无人机802产生。因此,无人机以中等速度向区域804'移动,如箭头816所示。
图8(B)示出了稍后到达虚拟助推区804'时的无人机802。真实-虚拟交互引擎305检测到无人机802在该区域804'中的存在,并因此将推力增加到CMD_MAX和CMD_MAX'之间的提升水平,如推力计806'所指示的。如箭头818所示,无人机802的速度,例如,因此增加到高水平。例如,真实-虚拟交互引擎305根据用户命令CMD确定新的推力,增加一定的百分比,例如100%。
图9说明了基于虚拟墙902'的虚拟围栏功能的示例。
图9(A)对应于第一时间实例,其中,无人机802正朝着虚拟墙902'移动,例如,以用户命令的最大推力CMD_MAX,导致相对较高的速度。
图9(B)说明了刚刚发生碰撞后的情况。当无人机802到达距墙902'给定距离的点时,真实-虚拟交互引擎305,例如,通过向无人机802施加最大反推力-CMD_MAX'模拟碰撞,以模拟从墙壁902'的反弹。作为响应,无人机802,例如,快速减速至停止,然后开始倒车,例如,从未经过虚拟墙902'。同时,在虚拟世界中可以生成虚拟爆炸904',以便向用户/观众提供一些虚拟碰撞的视觉反馈。
虽然在图9的示例中,墙902'是纯虚拟的,但可以使用相同的方法来避免与活动区102中的真实物体发生碰撞。
图10说明了两个无人机之间模拟的非接触式碰撞的示例。
图10(A)对应于第一时间实例,其中,无人机802在前进方向上以相对较低的速度移动,而另一个无人机1002以最大推力CMD_MAX,并因此以相对较高的速度朝无人机802的同一方向移动。
图10(B)说明了无人机802和1002之间模拟的非接触碰撞之后的情况。例如,当无人机1002到达距无人机802一定距离时,真实-虚拟交互引擎305通过向无人机1002施加高的反向推力来模拟碰撞,如推力计1004'所表示的,例如,在极限CMD_MAX和-CMD-MAX'之间,以模拟碰撞后的反弹。真实-虚拟交互引擎305,例如,还增加了无人机802的推力,例如,增加到最大向前推力CMD_MAX',以模拟无人机802被从后面强力推动。同时,可以在虚拟世界中生成虚拟爆炸1006',以便向用户/观众提供一些非接触式碰撞的视觉反馈。
在一些情况下,真实-虚拟交互引擎305也可以模拟碰撞后对机器人的损坏,例如,通过将任何用户命令CMD减少一定百分比来模拟推力的损失。
本文描述的实施例的一个优点是,它们允许实现混合现实系统,其中,虚拟世界中的事件可用于在现实世界中生成响应。这是通过由真实-虚拟交互引擎305生成修改过的机器人命令来实现的,以在现实世界中创建特定机器人行为。例如,这允许在现实世界中相对密切地模拟虚拟事件,从而带来特别逼真的用户体验。
这样描述了至少一个说明性的实施例后,本领域技术人员将容易想到各种改变、修改和改进。例如,对于本领域技术人员显而易见的是,本文所述的计算系统的各种功能可以完全以软件或至少部分以硬件来实现。
此外,对于本领域技术人员来说显而易见的是,在替代性的实施例中,与各种实施例有关的各种特征可以以任何方式组合。

Claims (14)

1.一种用于实现混合现实系统的处理装置,该处理装置包括:
一个或多个处理核心(206);和
一个或多个存储指令的指令存储器(204),当所述指令由所述一个或多个处理核心执行时,使得所述一个或多个处理核心:
-维持一个虚拟世界,所述虚拟世界至少包括与现实世界中的第一机器人相对应的第一虚拟副本;
-生成影响所述虚拟世界中的所述第一虚拟副本的一个或多个虚拟事件;
-响应所述一个或多个虚拟事件生成用于控制所述第一机器人的控制信号(CTRL);以及
-将所述控制信号(CTRL)传输至所述第一机器人,以修改所述第一机器人的行为,并为所述一个或多个虚拟事件提供现实世界的响应。
2.根据权利要求1所述的处理装置,其中,所述指令进一步使得所述一个或多个处理核心(206)在生成所述控制信号(CTRL)之前接收旨在控制所述第一机器人的用户命令,其中,生成所述控制信号(CTRL)包括基于所述一个或多个虚拟事件修改所述用户命令。
3.根据权利要求2所述的处理装置,其中,所述虚拟世界进一步包括与所述现实世界中的第二机器人相对应的第二虚拟副本,并且,其中所述指令还使得所述一个或多个处理核心(206):
-生成影响所述虚拟世界中的第二虚拟副本的一个或多个进一步的虚拟事件;
-接收计算机生成的旨在控制所述第二机器人的命令;
-基于所述一个或多个进一步的虚拟事件,通过修改所述计算机生成的命令来生成进一步的控制信号(CTRL);以及
-将所述进一步的控制信号(CTRL)传输至所述第二机器人,以修改所述第二机器人的行为,并提供对所述一个或多个进一步的虚拟事件的现实世界的响应。
4.根据权利要求2或3所述的处理装置,其中,所述指令进一步使得所述一个或多个处理核心(206)在没有虚拟事件的情况下将由用户或计算机生成的命令生成的控制信号限制在第一范围(-CMD_MAX,CMD_MAX),其中,向所述一个或多个虚拟事件提供现实世界的响应的所述控制信号超过所述第一范围。
5.根据权利要求1至3中任一项所述的处理装置,其中,所述指令进一步使得所述一个或多个处理核心(206)生成混合现实视频流,以被转发到显示接口(132),所述混合现实视频流包括来自在时间和空间上同步,并与由相机(114、116)捕捉的原始视频流合并的所述虚拟世界的一个或多个虚拟特征。
6.根据权利要求4所述的处理装置,其中,所述指令使得所述一个或多个处理核心(206)在所述混合现实视频流中生成表示由所述现实世界中的所述第一机器人的行为触发的虚拟事件的虚拟特征(410'、904'、1006')。
7.根据权利要求1至5中任一项所述的处理装置,其中,所述指令进一步使得所述一个或多个处理核心(206)基于由跟踪系统(112)提供的跟踪数据,连续跟踪所述第一机器人与其位置和方向相对应的六自由度坐标。
8.根据权利要求6所述的处理装置,其中,所述指令进一步使所述一个或多个处理核心(206)至少基于所述第一机器人的所述跟踪数据和所述一个或多个真实静态或移动对象或其他机器人的六自由度坐标,生成所述控制信号(CTRL),以确保所述第一机器人与一个或多个真实的静态或移动对象或其他机器人的非接触式交互。
9.一种混合现实系统,包括:
-权利要求1至7中任一项所述的处理装置;
-活动区(102),包括所述第一机器人和在所述处理装置控制下的一个或多个其他的机器人;以及
-跟踪系统(112),其被配置为跟踪所述第一机器人和所述一个或多个其他的机器人的相对位置和方向。
10.根据权利要求8所述的混合现实系统,其中,所述第一机器人是无人机(108)或陆基机器人(110)。
11.根据权利要求8或9所述的混合现实系统,还包括一个或多个用户控制接口(125),用于生成用户命令(CMD)。
12.一种在混合现实系统中控制一个或多个机器人的方法,该方法包括:
-在由一个或多个指令存储器(204)存储的指令的控制下,由一个或多个处理核心(206)维持一个虚拟世界,所述虚拟世界至少包括与所述现实世界中的第一机器人相对应的第一虚拟副本;
-生成影响虚拟世界中的所述第一虚拟副本的一个或多个虚拟事件;
-响应所述一个或多个虚拟事件生成用于控制第一机器人的控制信号(CTRL);以及
-将所述控制信号(CTRL)传输至所述第一机器人,以修改所述第一机器人的行为,并为所述一个或多个虚拟事件提供现实世界的响应。
13.根据权利要求12所述的方法,还包括:
-在生成所述控制信号(CTRL)之前,由所述一个或多个处理核心(206)接收旨在控制所述第一机器人的用户命令,其中,生成所述控制信号(CTRL)包括基于所述一个或多个虚拟事件修改所述用户命令。
14.根据权利要求13所述的方法,其中,所述虚拟世界进一步包括与所述现实世界中的第二机器人相对应的第二虚拟副本,该方法进一步包括:
-生成影响所述虚拟世界中的第二虚拟副本的一个或多个进一步的虚拟事件;
-接收计算机生成的旨在控制所述第二机器人的命令;
-基于影响所述第二虚拟副本的一个或多个进一步的虚拟事件,通过修改所述计算机生成的命令来生成进一步的控制信号(CTRL);以及
-将所述进一步的控制信号(CTRL)传输至所述第二机器人,以修改所述第二机器人的行为,并提供对所述一个或多个进一步的虚拟事件的现实世界的响应。
CN202080011999.3A 2019-01-31 2020-01-30 用于混合现实应用中机器人交互的系统和方法 Pending CN113711162A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1900974 2019-01-31
FR1900974A FR3092416B1 (fr) 2019-01-31 2019-01-31 Système et procédé d’interaction avec des robots dans des applications de réalité mixte
PCT/EP2020/052321 WO2020157215A1 (en) 2019-01-31 2020-01-30 System and method for robot interactions in mixed reality applications

Publications (1)

Publication Number Publication Date
CN113711162A true CN113711162A (zh) 2021-11-26

Family

ID=67660182

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080011999.3A Pending CN113711162A (zh) 2019-01-31 2020-01-30 用于混合现实应用中机器人交互的系统和方法

Country Status (5)

Country Link
US (1) US20220083055A1 (zh)
EP (1) EP3918447A1 (zh)
CN (1) CN113711162A (zh)
FR (1) FR3092416B1 (zh)
WO (1) WO2020157215A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113485392B (zh) * 2021-06-17 2022-04-08 广东工业大学 基于数字孪生的虚拟现实交互方法
CN114180040B (zh) * 2021-12-09 2023-01-06 华南理工大学 一种仿龙形飞行器

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105188516A (zh) * 2013-03-11 2015-12-23 奇跃公司 用于增强和虚拟现实的系统与方法
US20160054837A1 (en) * 2014-08-19 2016-02-25 Sony Computer Entertainment America Inc. Systems and methods for providing feedback to a user while interacting with content
US20160349835A1 (en) * 2015-05-28 2016-12-01 Microsoft Technology Licensing, Llc Autonomous drones for tactile feedback in immersive virtual reality

Family Cites Families (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7343232B2 (en) * 2003-06-20 2008-03-11 Geneva Aerospace Vehicle control system including related methods and components
US20160267720A1 (en) * 2004-01-30 2016-09-15 Electronic Scripting Products, Inc. Pleasant and Realistic Virtual/Augmented/Mixed Reality Experience
US8139108B2 (en) * 2007-01-31 2012-03-20 Caterpillar Inc. Simulation system implementing real-time machine data
US8831780B2 (en) * 2012-07-05 2014-09-09 Stanislav Zelivinski System and method for creating virtual presence
US9798322B2 (en) * 2014-06-19 2017-10-24 Skydio, Inc. Virtual camera interface and other user interaction paradigms for a flying digital assistant
US10896543B2 (en) * 2014-08-25 2021-01-19 X Development Llc Methods and systems for augmented reality to display virtual representations of robotic device actions
US20170243403A1 (en) * 2014-11-11 2017-08-24 Bent Image Lab, Llc Real-time shared augmented reality experience
US10546424B2 (en) * 2015-04-15 2020-01-28 Google Llc Layered content delivery for virtual and augmented reality experiences
US10399225B2 (en) * 2015-07-08 2019-09-03 Stephen Favis Biomimetic humanoid robotic model, control system, and simulation process
JP6877341B2 (ja) * 2015-07-08 2021-05-26 ソニーグループ株式会社 情報処理装置、表示装置、情報処理方法及びプログラム
US20170250930A1 (en) * 2016-02-29 2017-08-31 Outbrain Inc. Interactive content recommendation personalization assistant
US10325610B2 (en) * 2016-03-30 2019-06-18 Microsoft Technology Licensing, Llc Adaptive audio rendering
US20170289202A1 (en) * 2016-03-31 2017-10-05 Microsoft Technology Licensing, Llc Interactive online music experience
US20170286572A1 (en) * 2016-03-31 2017-10-05 General Electric Company Digital twin of twinned physical system
US11577159B2 (en) * 2016-05-26 2023-02-14 Electronic Scripting Products Inc. Realistic virtual/augmented/mixed reality viewing and interactions
WO2017218384A1 (en) * 2016-06-13 2017-12-21 Wal-Mart Stores, Inc. Virtual reality shopping systems and methods
WO2018026959A1 (en) * 2016-08-04 2018-02-08 Fairwayiq, Inc. System and method for managing and interacting with spectators at an activity venue
US20180047093A1 (en) * 2016-08-09 2018-02-15 Wal-Mart Stores, Inc. Self-service virtual store system
WO2018039437A1 (en) * 2016-08-24 2018-03-01 Wal-Mart Stores, Inc. Apparatus and method for providing a virtual shopping environment
US10416669B2 (en) * 2016-09-30 2019-09-17 Sony Interactive Entertainment Inc. Mechanical effects by way of software or real world engagement
US20180101984A1 (en) * 2016-10-06 2018-04-12 Google Inc. Headset removal in virtual, augmented, and mixed reality using an eye gaze database
US10332317B2 (en) * 2016-10-25 2019-06-25 Microsoft Technology Licensing, Llc Virtual reality and cross-device experiences
US20180151000A1 (en) * 2016-11-27 2018-05-31 Cix Liv Deployable mixed and virtual reality environment system and method
CN110419018B (zh) * 2016-12-29 2023-08-04 奇跃公司 基于外部条件的可穿戴显示装置的自动控制
US20200098185A1 (en) * 2017-01-17 2020-03-26 Pravaedi Llc Virtual reality training device
US20180210442A1 (en) * 2017-01-23 2018-07-26 Qualcomm Incorporated Systems and methods for controlling a vehicle using a mobile device
US10877470B2 (en) * 2017-01-26 2020-12-29 Honeywell International Inc. Integrated digital twin for an industrial facility
WO2018151908A1 (en) * 2017-02-16 2018-08-23 Walmart Apollo, Llc Systems and methods for a virtual reality showroom with autonomous storage and retrieval
CN108664037B (zh) * 2017-03-28 2023-04-07 精工爱普生株式会社 头部佩戴型显示装置以及无人机的操纵方法
US10967255B2 (en) * 2017-05-26 2021-04-06 Brandon Rosado Virtual reality system for facilitating participation in events
WO2018226621A1 (en) * 2017-06-05 2018-12-13 Umajin Inc. Methods and systems for an application system
US10639557B2 (en) * 2017-06-22 2020-05-05 Jntvr Llc Synchronized motion simulation for virtual reality
US10803663B2 (en) * 2017-08-02 2020-10-13 Google Llc Depth sensor aided estimation of virtual reality environment boundaries
US20190065028A1 (en) * 2017-08-31 2019-02-28 Jedium Inc. Agent-based platform for the development of multi-user virtual reality environments
US20190102494A1 (en) * 2017-10-03 2019-04-04 Endurica, LLC System for tracking incremental damage accumulation
US20190102709A1 (en) * 2017-10-03 2019-04-04 Invight, Inc. Systems and methods for coordinating venue systems and messaging control
US10678238B2 (en) * 2017-12-20 2020-06-09 Intel IP Corporation Modified-reality device and method for operating a modified-reality device
US10751877B2 (en) * 2017-12-31 2020-08-25 Abb Schweiz Ag Industrial robot training using mixed reality
US11487350B2 (en) * 2018-01-02 2022-11-01 General Electric Company Dynamically representing a changing environment over a communications channel
US10679412B2 (en) * 2018-01-17 2020-06-09 Unchartedvr Inc. Virtual experience monitoring mechanism
US10565764B2 (en) * 2018-04-09 2020-02-18 At&T Intellectual Property I, L.P. Collaborative augmented reality system
US10755007B2 (en) * 2018-05-17 2020-08-25 Toyota Jidosha Kabushiki Kaisha Mixed reality simulation system for testing vehicle control system designs
US20190354099A1 (en) * 2018-05-18 2019-11-21 Qualcomm Incorporated Augmenting a robotic vehicle with virtual features
US11307968B2 (en) * 2018-05-24 2022-04-19 The Calany Holding S. À R.L. System and method for developing, testing and deploying digital reality applications into the real world via a virtual world
KR102275520B1 (ko) * 2018-05-24 2021-07-12 티엠알더블유 파운데이션 아이피 앤드 홀딩 에스에이알엘 현실 세계를 대표하는 실시간 3d 가상 세계 내에서 실시간 3d 가상 객체의 양방향 실시간 대화형 오퍼레이션
US10890921B2 (en) * 2018-05-31 2021-01-12 Carla R. Gillett Robot and drone array
US20190049950A1 (en) * 2018-09-17 2019-02-14 Intel Corporation Driving environment based mixed reality for computer assisted or autonomous driving vehicles
US10921878B2 (en) * 2018-12-27 2021-02-16 Facebook, Inc. Virtual spaces, mixed reality spaces, and combined mixed reality spaces for improved interaction and collaboration
US11024074B2 (en) * 2018-12-27 2021-06-01 Facebook Technologies, Llc Virtual spaces, mixed reality spaces, and combined mixed reality spaces for improved interaction and collaboration
US20200210137A1 (en) * 2018-12-27 2020-07-02 Facebook Technologies, Llc Virtual spaces, mixed reality spaces, and combined mixed reality spaces for improved interaction and collaboration
KR20220018760A (ko) * 2020-08-07 2022-02-15 삼성전자주식회사 단말에 3d 캐릭터 이미지를 제공하는 엣지 데이터 네트워크 및 그 동작 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105188516A (zh) * 2013-03-11 2015-12-23 奇跃公司 用于增强和虚拟现实的系统与方法
US20160054837A1 (en) * 2014-08-19 2016-02-25 Sony Computer Entertainment America Inc. Systems and methods for providing feedback to a user while interacting with content
US20160349835A1 (en) * 2015-05-28 2016-12-01 Microsoft Technology Licensing, Llc Autonomous drones for tactile feedback in immersive virtual reality

Also Published As

Publication number Publication date
US20220083055A1 (en) 2022-03-17
FR3092416A1 (fr) 2020-08-07
FR3092416B1 (fr) 2022-02-25
WO2020157215A1 (en) 2020-08-06
EP3918447A1 (en) 2021-12-08

Similar Documents

Publication Publication Date Title
KR102275520B1 (ko) 현실 세계를 대표하는 실시간 3d 가상 세계 내에서 실시간 3d 가상 객체의 양방향 실시간 대화형 오퍼레이션
CN110199325B (zh) 仿真系统、处理方法以及信息存储介质
US20200254353A1 (en) Synchronized motion simulation for virtual reality
CN109478345B (zh) 模拟系统、处理方法及信息存储介质
US10067736B2 (en) Proximity based noise and chat
US10197998B2 (en) Remotely controlled motile device system
WO2018224847A2 (en) Mixed reality gaming system
Saakes et al. A teleoperating interface for ground vehicles using autonomous flying cameras
CN111716365B (zh) 基于自然行走的沉浸式远程交互系统及方法
KR102282117B1 (ko) 인공지능 디스플레이 장치
KR101505411B1 (ko) 무선 조종 비행체를 이용한 배틀 게임 중계 시스템
US20220083055A1 (en) System and method for robot interactions in mixed reality applications
WO2017188224A1 (ja) シミュレーションシステム
Ghandeharizadeh Holodeck: Immersive 3D Displays Using Swarms of Flying Light Specks
US20180033328A1 (en) Immersive vehicle simulator apparatus and method
Ai et al. Real-time unmanned aerial vehicle 3D environment exploration in a mixed reality environment
WO2016145946A1 (zh) 一种实景交互式操控系统
GB2535729A (en) Immersive vehicle simulator apparatus and method
KR101881227B1 (ko) 무인 비행체를 이용한 비행 체험 방법 및 장치
CN108333956A (zh) 用于运动仿真平台的反解联动算法
JP2020201980A (ja) シミュレーションシステム及びプログラム
US11776206B1 (en) Extended reality system and extended reality method with two-way digital interactive digital twins
STELLA An educational experience in virtual and augmented reality to raise awareness about space debris
EP3136372A1 (en) Immersive vehicle simulator apparatus and method
Vince et al. VR Hardware

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination