CN111973979A - 经由持久性虚拟世界系统对现实世界进行实况管理 - Google Patents
经由持久性虚拟世界系统对现实世界进行实况管理 Download PDFInfo
- Publication number
- CN111973979A CN111973979A CN202010440497.4A CN202010440497A CN111973979A CN 111973979 A CN111973979 A CN 111973979A CN 202010440497 A CN202010440497 A CN 202010440497A CN 111973979 A CN111973979 A CN 111973979A
- Authority
- CN
- China
- Prior art keywords
- event
- data
- world
- real
- real world
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000002085 persistent effect Effects 0.000 title claims abstract description 80
- 238000000034 method Methods 0.000 claims abstract description 49
- 238000004458 analytical method Methods 0.000 claims abstract description 38
- 230000007246 mechanism Effects 0.000 claims abstract description 36
- 230000000694 effects Effects 0.000 claims abstract description 29
- 230000015654 memory Effects 0.000 claims abstract description 25
- 238000012544 monitoring process Methods 0.000 claims abstract description 16
- 230000001360 synchronised effect Effects 0.000 claims abstract description 11
- 238000004891 communication Methods 0.000 claims description 18
- 238000013473 artificial intelligence Methods 0.000 claims description 15
- 230000003068 static effect Effects 0.000 claims description 13
- 230000003993 interaction Effects 0.000 claims description 12
- 230000002159 abnormal effect Effects 0.000 claims description 11
- 230000006399 behavior Effects 0.000 claims description 10
- 230000009471 action Effects 0.000 claims description 4
- 230000008859 change Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 6
- 238000004519 manufacturing process Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000004088 simulation Methods 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 206010039203 Road traffic accident Diseases 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 239000000779 smoke Substances 0.000 description 3
- 239000000126 substance Substances 0.000 description 3
- 239000002699 waste material Substances 0.000 description 3
- 230000010267 cellular communication Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000011109 contamination Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000001939 inductive effect Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 230000002688 persistence Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000004566 building material Substances 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000005672 electromagnetic field Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- APTZNLHMIGJTEW-UHFFFAOYSA-N pyraflufen-ethyl Chemical compound C1=C(Cl)C(OCC(=O)OCC)=CC(C=2C(=C(OC(F)F)N(C)N=2)Cl)=C1F APTZNLHMIGJTEW-UHFFFAOYSA-N 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007306 turnover Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1095—Replication or mirroring of data, e.g. scheduling or transport for data synchronisation between network nodes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/211—Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/218—Input arrangements for video game devices characterised by their sensors, purposes or types using pressure sensors, e.g. generating a signal proportional to the pressure applied by the player
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/30—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
- A63F13/35—Details of game servers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/27—Replication, distribution or synchronisation of data between databases or within a distributed database system; Distributed database system architectures therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/27—Replication, distribution or synchronisation of data between databases or within a distributed database system; Distributed database system architectures therefor
- G06F16/275—Synchronous replication
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/12—Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/131—Protocols for games, networked simulations or virtual reality
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1056—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals involving pressure sensitive buttons
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1087—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
- A63F2300/1093—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/50—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
- A63F2300/51—Server architecture
Abstract
一种通过持久性虚拟世界系统对现实世界中的事件进行实况管理的方法,包括在服务器的存储器中提供具有结构化数据的数据库,数据库存储持久性虚拟世界系统,该持久性虚拟世界系统包括现实世界元素的虚拟副本;通过使用经由网络连接到服务器的多个连接元素,使虚拟副本与相应的现实世界元素同步,连接元素包括感测机构,感测机构被配置成从现实世界元素捕获数据;通过同步的持久性虚拟世界系统来管理现实世界中的事件。事件管理包括通过持久性虚拟世界系统对现实世界中的活动进行监测;检测事件;检查事件是否属于一个或多个预定分析要求参数;限定事件的时间范围;将事件存储在存储器中;重新创建事件;分析事件。
Description
技术领域
本公开一般地涉及计算机系统,并且更具体地涉及一种能够经由持久性虚拟世界系统来实现对现实世界的实况管理的系统和方法。
背景技术
虚拟世界是提供现实或假想世界的图形和物理表示的模拟环境,其中用户可以通过化身彼此交互或与其他元素交互。虚拟世界被用于例如创建视频游戏,动画电影或在飞行模拟中训练飞行员。在所有这些应用中,程序用于基于用户输入或被编程/学习的行为来渲染进行交互,移动和改变的特征。
虚拟世界中的物体可以遵循与重力,地形,运动,物理和运动学相关的规则,这些规则可以基于或不基于现实世界元素。因此,存在用于创建现实世界项目的虚拟副本的当前技术。然而,这些虚拟副本通常不包含现实世界元素的所有数据和它们周围的情境。此外,副本通常不与它们的现实世界对应物同步,以反映在现实世界中做出的改变。这限制了将虚拟世界用于诸如建筑物,工厂和城市的管理的重要应用以及用于识别那些环境中的异常的能力。例如,为了跟踪可能在道路,工厂,家庭等地发生的事故,通常需要翻阅数小时的录像(footage),才能确定发生事故的正确时刻。
因此,需要在生成和同步现实世界元素的虚拟副本的方式上进行改进。
发明内容
提供该概述是为了以简化的形式介绍将在以下详细描述中进一步描述的一些概念。本概述并不打算确定权利要求所要求保护的主题的关键特征,也不打算被用来帮助确定权利要求所要求保护的主题的范围。
背景技术中描述的一个或多个缺点通过本公开的系统和方法来解决,该系统和方法使得能够经由存储在服务器的存储器中的持久性虚拟世界系统来管理在现实世界中发生的事件。在本公开中,术“事件”是指在现实世界中发生的活动,其可以经由持久性虚拟世界系统被实时地模拟。事件可由计算机逻辑在可以限定在值阈值内的多个标准下被确定。事件可以被分类为普通事件和异常事件。普通事件涉及落入预定标准参数值内的活动,而异常事件是指落在预定参数值之外的事件。
本公开的系统包括服务器系统,服务器系统包括一个或多个服务器计算机,每个服务器计算机包括存储器和至少一个处理器,服务器系统包括具有结构化数据的数据库,所述数据库存储包括现实世界元素的虚拟副本的持久性虚拟世界系统;以及经由网络连接到所述服务器的多个连接元素,每个连接元素包括通信电路和一个或多个感测机构,一个或多个感测机构被配置成从一个或多个现实世界元素捕获数据,从而能够实现现实世界和持久性虚拟世界系统同步。服务器系统被配置为使用连接元素捕获的动态数据和静态数据使持久性虚拟世界系统和现实世界元素同步,并且通过经同步的持久性虚拟世界系统,能够实现对所述现实世界中的事件的实况管理。
根据实施例,连接元素是一个或多个移动电话,膝上型计算机,可佩戴计算机,移动游戏控制台,头戴式显示器,透视设备,智能接触透镜,监测摄像机,车辆,交通灯,建筑物,街道,火车轨道,家用电器或可连接到网络的任何其它设备。根据一个实施例,安装在连接元素上的多个感测机构包括一个或多个温度传感器,接近传感器,惯性传感器,红外传感器,污染传感器(例如,气体传感器),压力传感器,光传感器,超声波传感器,烟雾传感器,触摸传感器,色度传感器,湿度传感器,水传感器,电传感器或其组合。
在一些实施例中,对现实世界中的事件的管理包括以下一个或多个步骤:通过所述持久性虚拟世界系统来监测所述现实世界中的活动;检测所述事件,其中,所述事件被限定在与所述现实世界中的活动的实际值相比较的预定参数值内;检查所述事件是否落入一个或多个预定分析要求参数内;其中,所述检查包括,在事件落在所述一个或多个预定分析要求参数之外的否定情况下,继续监测所述现实世界中的活动,并且在所述事件落在所述一个或多个预定分析要求参数之内的肯定情况下,继续以下处理:限定所述事件的时间范围;将所述事件存储在所述存储器中;重新创建所述事件;和分析所述事件。
在各种实施例中,可以通过在经由网络连接到服务器的多个连接元素上的多个感测机构来执行事件的监测,并且可以包括在现实世界中发生的活动的被动观察。
可以通过将在现实世界中发生的活动的实际值与和事件关联的预定标准值范围进行比较来执行检测事件。在其它实施例中,检测事件还包括将事件分类为普通或异常事件。
通过产生包括在事件的持续时间内收集的数据的事件数据点、产生对应于事件的持续时间的模拟数据、或其组合,可以执行重新创建事件。在一些实施例中,事件的重建还包括重放与数字现实(例如,增强现实,或虚拟现实,或其组合)中的事件相关的事件和体验。
可以通过应用统计和/或逻辑算法来描述,压缩和评估事件来执行对事件的分析。事件的分析可以通过人工智能算法自动执行,或者可以涉及人的交互。
根据一个实施例,在数字现实中重新创建事件可以向事件分析器提供事件的情境丰富的3D图像和体验,这在事件分析期间可能是有帮助的。在一些实施例中,可以从不同的视角来查阅和分析事件。在其它实施例中,重新创建事件还可以提供在事件数据点的生成期间创建的其它类型的体验,包括音频数据,触觉数据,运动数据,连接的元素或系统数据(如车辆遥测,无人机遥测)文本数据(例如,字幕,评论,注释等)的模拟。
根据一个实施例,事件的管理还包括通过人工智能算法或用户输入来操作事件。作为对事件的分析的结果,可以执行事件的操作。事件的操作可以通过持久性虚拟世界系统中的一个或多个现实世界元素的相应虚拟副本来触发对一个或多个现实世界元素的一个或多个动作。在一些实施例中,事件的操作可能受到事件是普通事件还是异常事件的影响。
根据一个实施例,事件的管理包括通过网络通过服务器系统或一个或多个其它服务器与一个或多个用户共享所存储的事件。可以执行事件的共享,以便执行事件的进一步分析,进一步的操作或其组合。
根据一个实施例,事件的发生对事件周围的情境具有影响,通过持久性虚拟世界系统触发现实世界中的其他事件包括受影响的情境内的一个或多个现实世界元素之间的交互。这种对事件的情境的影响可以触发现实世界元素的进一步操作,这可以提供用于分析事件的进一步数据。
在一些实施例中,持久性虚拟世界系统包括虚拟3D基础设施,该虚拟3D基础设施包括一个或多个虚拟副本,纯虚拟对象,虚拟通道和数字现实应用,或其组合,使得能够通过现实世界的元素的相应的虚拟副本在彼此之间以及与现实世界的元素之间进行空间组织,行为,计算和逻辑交互。虚拟3D基础设施的虚拟通道可用于限定和界定通过其虚拟副本、纯虚拟对象或数字现实应用的现实对象的路径。
根据一个实施例,用于使虚拟副本与相应的现实世界元素同步的数据包括现实世界元素的可捕获数据。数据包括例如3D图像数据,3D几何形状,3D实体,3D感知数据,3D动态对象,视频数据,音频数据,优先级数据,化学成分,废物生产数据,文本数据,时间数据,位置数据,取向数据,速度数据,温度数据,湿度数据,污染数据,照明数据,体积数据,流量数据,色度数据,功耗数据,带宽数据和海量数据等中的一个或多个。在一些实施例中,静态数据包括不太可能改变的数据,例如静态对象的地点,位置和取向,例如建筑物和内部元素,纪念馆,公园,自然结构等。在其它实施例中,动态数据包括周期性更新的数据,这意味着随着新信息变得可用,它可以随时间异步地改变。例如,动态数据可以包括运动物体(例如车辆)的位置和取向,或者随时间变化的其它数据,例如温度,压力,湿度等。
在一些实施例中,用于使虚拟副本同步的数据还包括情境数据,该情境数据可以被分类成直接影响现实世界元素的微观情境,以及从多个微观情境导出的宏观情境。在进一步的实施例中,微观情境还包括3D图像数据,3D几何形状,3D实体,3D动态对象,视频数据,音频数据,文本数据,时间数据,元数据,优先级数据,安全数据,位置数据,照明数据,温度数据,服务质量(QOS),以及直接围绕并影响目标现实世界元素的环境的服务情境。在进一步的实施例中,宏观情境还包括系统的整体信息,包括制造厂的当前效率,空气质量,气候变化水平,公司效率,城市效率,国家效率和全球效率。
在一些实施例中,持久性虚拟世界系统由层构成,其中外层包括内层。外层可以代表较高级别的实体,内层可以代表较低级别的层,更深入的实体。例如,外层可以代表国家,该国家可以由几个城市组成,每个城市代表该国家的内层。另一方面,每个城市可以包括几个区,每个区代表城市的内层。区可以包括几个街区,每个街区表示区的内层。每个街区可以包括几个房屋,商店和工厂,例如,这些元素中的每一个代表街区的内层。最后,街区的这些内层元素中的每一个还可以包括具有感测机构的连接元素,感测机构被配置为获得丰富和更新虚拟副本的实时数据。
在一些实施例中,事件管理可以由层来实现。例如,区级别的人或人工智能管理员可以负责监测区,并且可以负责分析其中的事件以便生成从事件分析导出的一个或多个操作指令。在其它示例中,城市级别的人或人工智能管理员可以负责监测城市,并且可以负责分析其中的事件以生成从事件分析导出的一个或多个操作指令。
根据实施例,一种通过持久性虚拟世界系统实现对现实世界中的事件的实况管理的方法包括以下步骤:在服务器系统的存储器中提供具有结构化数据的数据库,数据库存储持久性虚拟世界系统,持久性虚拟世界系统包括现实世界元素的虚拟副本;使用来自经由网络连接到服务器的多个连接元素的动态数据和静态数据,使虚拟副本与相应的现实世界元素同步,连接元素包括感测机构,所述感测机构被配置成从现实世界元素捕获动态数据;通过同步的持久性虚拟世界系统管理现实世界中的事件。
根据实施例,一种用于事件的现场管理的方法,包括以下一个或多个步骤:通过持久性虚拟世界系统来监测现实世界中的活动的步骤;检测事件,其中,事件被限定在与现实世界中的活动的实际值相比较的预定参数值内;检查事件是否落入一个或多个预定的分析要求参数;其中检查包括,在事件落在一个或多个预定分析要求参数之外的否定情况下,继续监测现实世界中的活动,并且在事件落在所述一个或多个预定分析要求参数之内的肯定情况下,继续以下处理:限定事件的时间范围;将事件存储在存储器中;重新创建事件;分析事件。
根据一个实施例,一种存储程序的非暂时性计算机可读介质,程序被配置为使得一个或多个处理器执行以下步骤,包括:提供具有结构化数据的数据库,所述数据库存储包括现实世界元素的虚拟副本的持久性虚拟世界系统;使用从经由网络连接到服务器的多个连接元素获得的动态和静态数据,使所述虚拟副本与相应的现实世界元素同步,所述连接元素包括感测机构,所述感测机构被配置成从所述现实世界元素捕获动态数据;以及通过同步的持久性虚拟世界系统来管理所述现实世界中的事件。
根据一个实施例,记录在非暂时性计算机可读介质中的使得能够管理事件的指令使得处理器执行处理,包括:通过持久性虚拟世界系统监测现实世界中的活动;检测事件,其中,事件被限定在与现实世界中的活动的实际值相比较的预定参数值内;检查事件是否落入一个或多个预定的分析要求参数;其中检查步骤包括,在事件落在所述一个或多个预定分析要求参数之外的否定情况下,继续监测现实世界中的活动,并且在所述事件落在所述一个或多个预定分析要求参数之内的肯定情况下,继续以下处理:限定事件的时间范围;将事件存储在存储器中;重新创建事件;分析事件。
以上概述不包括本公开的所有方面的详尽列表。预期本公开包括可以从以上概述的各个方面的所有合适的组合来实践的所有系统和方法,以及在以下详细描述中公开的那些以及在随本申请提交的权利要求书中具体指出的那些。这样的组合具有在以上概述中未具体陈述的特定优点。由附图和下面的详细描述,其它特征和优点将变得显而易见。
附图说明
前述方面和许多伴随的优点将更加容易理解,因为当结合附图,参考下述详细说明时,它们会变得更好理解。
图1描绘了根据实施例的能够通过持久性虚拟世界对现实世界中的事件进行实况管理的系统的示意性表示;
图2描绘了根据实施例的详细描述用于丰富和同步持久性虚拟世界系统的数据的捕获的示意性表示;
图3描绘了根据实施例的持久性虚拟世界系统的层的示意性表示;
图4描述了系统的示意性表示,该系统详细描述了服务器与现实世界的连接元素的关系;
图5描绘了根据实施例的连接元素的示意性表示;
图6描绘了根据实施例的能够通过持久性虚拟世界对现实世界中的事件进行实况管理的方法的框图;
图7描绘了详细描述根据实施例的方法的进一步步骤的框图,该方法能够通过持久性虚拟世界系统来管理现实世界中的事件。
具体实施方式
在以下描述中,参考通过示例方式示出各种实施例的附图。此外,下面将通过参考几个示例来描述各种实施例。应当理解,在不脱离所要求保护的主题的范围的情况下,实施例可以包括设计和结构上的改变。
图1描绘了根据实施例的系统100的示意性表示,该系统100能够通过持久性虚拟世界对现实世界中的事件进行实况管理。系统100包括静态数据102和动态数据104,它们可以通过在连接元素106上实现的感测机构,从现实世界的元素中捕获。连接元素106经由网络108,例如实时地将静态数据102和动态数据104发送到存储持久性虚拟世界系统112的服务器110。尽管此处提及的是单一的服务器,但应当理解的是,此处描述的持久性虚拟世界系统112或其他特征可以在由包括一个或多个服务器计算机的服务器系统中实现或由其执行。
在本公开中,术语“持久性”用于表征在没有连续执行处理或网络连接的情况下可以继续存在的系统的状态。例如,术语“持久性”可用于表征虚拟世界系统,其中虚拟世界系统和其中包括的所有虚拟副本、纯虚拟对象和数字现实应用在用于创建虚拟副本、纯虚拟对象和数字现实应用的处理停止之后继续存在,而不依赖于用户与虚拟世界系统的连接。因此,虚拟世界系统被保存在例如服务器110中的非易失性存储位置中。以这种方式,即使用户没有连接到服务器,虚拟副本、纯虚拟对象和数字现实应用在被配置用于实现特定目标时也可以彼此进行交互和协作。
在本公开中,术语“事件”是指在现实世界中发生的活动,其可以经由持久性虚拟世界系统被实时地模拟。可由计算机逻辑在可以限定在值阈值内的多个标准下确定事件。事件可以被分类为普通事件和异常事件。普通事件是指落入预定标准参数值内的活动,而异常事件是指超出预定参数值的事件。例如,普通事件可以是移动交通,支付交易或运动,而异常事件可以是指汽车事故,支付交易期间的潜在ID/货币盗窃,或游戏期间的犯规/事故。由于现实世界元素与它们各自的虚拟副本的同步,可以在持久性虚拟世界系统中实时地更新事件,该持久性虚拟世界系统可以在事件管理期间服务。在一些实施例中,通过人工智能算法,用户输入或其组合来生成事件。在其它实施例中,事件可以进一步受到自然事件的影响,例如受到天气,不可抗力事件(例如,地震,闪电,洪水等)等的影响。
根据实施例,从连接元素获得的数据包括每个现实世界元素的可捕获数据,包括3D图像数据,3D几何形状,3D实体,3D动态对象,视频数据,音频数据,优先级数据,化学成分,废物生产数据,文本数据,时间数据,位置数据,取向数据,速度数据,温度数据,湿度数据,污染数据,照明数据,体积数据,流量数据,色度数据,功耗数据,带宽数据,遥测数据(例如,车辆遥测数据和设备遥测数据)和海量数据等中的一个或多个。
在一些实施例中,静态数据102包括不太可能改变的数据,例如静态对象的地点,位置和取向,例如建筑物和内部元素,纪念馆,公园,自然结构等。在其它实施例中,动态数据104包括周期性更新的数据,这意味着随着新信息变得可用,它可以随时间异步地改变。例如,动态数据104可以包括移动物体(例如车辆)的位置和取向,或者可以随时间变化的其它数据,例如温度,压力,湿度等。
在一些实施例中,网络108可以是例如蜂窝网络,并且可以采用各种技术,包括增强的全球演化数据率(EDGE),通用分组无线业务(GPRS),全球移动通信系统(GSM),因特网协议多媒体子系统(IMS),通用移动电信系统(UMTS)等,以及任何其它合适的无线介质,例如微波接入(WiMAX),长期演进(LTE)网络,码分多址(CDMA),宽带码分多址(WCDMA)和无线保真(WiFi),卫星,移动自组织网络(MANET)等。
在实施例中,为了减少硬件和网络需求,有助于减少网络延迟,并改善一般的数字现实体验,系统可以通过包括毫米波(mmW)或mmW和Sub 6GHz通信系统的组合的网络而连接,例如通过第五代无线系统通信(5G)。在其它实施例中,系统可以通过无线局域网(Wi-Fi)连接,提供例如60GHz的数据。所提供的通信系统可以允许低(例如,大约1到大约5毫秒)的端到端(E2E)延迟和高的(例如,1-10)Gbps下行链路速度到该领域中的端点,符合执行典型的高度交互式数字现实应用所必需的参数。这导致高质量,低延迟,实时数字应用内容流。在其它实施例中,系统可以通过第四代无线系统通信(4G)通信连接,可以由4G通信系统支持,或者可以包括其它有线或无线通信系统。
在其它实施例中,全球导航卫星系统(GNSS)(其统称为多个基于卫星的导航系统,例如GPS,BDS,Glonass,QZSS,Galileo和IRNSS)可用于实现设备的定位。使用来自足够数量的卫星和诸如三角测量和三边测量的技术的信号,GNSS可以计算设备的位置,速度,高度和时间。在优选实施例中,外部定位系统由辅助GNSS(AGNSS)通过现有蜂窝通信网络的体系结构来增强,其中现有体系结构包括5G。在其它实施例中,AGNSS跟踪系统还由4G蜂窝通信网络支持。在室内实施例中,通过诸如Wi-Fi的无线电无线局域网进一步增强GNSS,优选地,但不限于,提供60GHz的数据。在替代实施例中,通过本领域已知的其它技术来增强GNSS,例如通过差分GPS(DGPS),基于卫星的增强系统(SBAS),实时运动学(RTK)系统。在一些实施例中,通过设备中的AGNSS和惯性传感器的组合来实现设备的跟踪。
图2示出了根据实施例的系统200的示意性表示,该系统200详细描述了用于丰富和同步持久性虚拟世界系统的数据的捕获。图2的一些元素可以与图1的元素相似,因此可以使用相似或相同的附图标记来描述那些元素。
系统200包括服务器110,该服务器110经由网络108连接到多个连接元素106,多个连接元素106经由各种感测机构捕获数据202。安装在连接元素106上的多个感测机构从其自身以及从与每个连接元素106(包括任何现实世界的元素)相关的情境捕获感知数据202。因此,每个现实世界元素可以是或可以不是连接元素106。例如,建筑物可以是连接元素106和现实世界元素,而树可以仅表示现实世界元素,而不表示连接元素106,因为例如没有被配置为捕获或传送数据202的设备可以连接到树。数据202被(例如,实时地)传送到存储在服务器110中的持久性虚拟世界系统112。
多个连接元素106可以包括一个或多个移动电话,膝上型计算机,可佩戴计算机,个人计算机,移动游戏控制台,头戴式显示器,透视设备,监测摄像机,车辆,交通灯,建筑物和其它结构,街道,火车轨道,家用电器,或可以通过网络108连接的任何其它设备。根据实施例,安装在连接元素106上的多个感测机构包括一个或多个温度传感器,接近传感器,惯性传感器,红外传感器,污染传感器(例如,气体传感器),压力传感器,光传感器,超声波传感器,烟雾传感器,触摸传感器,色度传感器,湿度传感器,水传感器,电传感器或其组合。
尽管图2示出了一个服务器110,但是可以理解,可以使用在一个或多个地点的大于一个的服务器110来服务于包括位于不同位置中的多个连接元素106的复杂系统。因此,多个连接元素106可以根据连接元素106在特定时间点的地点而被连接到一个或多个服务器110。此外,如图2所示,多个连接元素106可以连接到服务器110,并且同时也可以经由网络108彼此连接。
感知数据202包括每个现实世界元素的可捕获数据,包括3D图像数据,3D几何形状,3D实体,3D动态对象,用户、对象和建筑物的3D化身,视频数据,音频数据,优先级数据,化学成分,废物产生数据,文本数据,时间数据,位置数据,取向数据,速度数据,温度数据,湿度数据,污染数据,照明数据,体积数据,流量数据,颜色数据,功耗数据,带宽数据,海量数据,或可以由感测机构捕获的任何其它数据。除了直接对应于每个现实世界元素的数据之外,多个感测机构还捕获来自周围环境的情境数据,该情境数据可以被分类为微观情境204和宏观情境206。
如本公开中所使用的,术语“现实世界元素”是指在现实世界中找到的具有可由感测机构感测的物理特性的元素。现实世界元素可以是在现实世界中找到的移动的或静态的实体,包括人类,车辆,建筑物,物体,游艺场所,自然地层,街道,以及可以在现实世界中找到的任何其它元素。可以从3D图像数据,3D几何形状,视频数据,音频数据,温度数据,海量数据,辐射数据,触觉数据,运动数据或可以通过感测机构获得的任何其它可捕获数据中提取由连接元素106的感测机构所捕获的现实世界元素数据。这样,现实世界元素本身可以包括感测机构,并且本身可以捕获数据202。因此,对于其它连接元素106的感知,其它连接元素106也可以被分类为现实世界的元素。
本公开中使用的术语“情境”或“情境数据”是指与特定现实世界元素的直接或间接环境相关的数据,其可以被分类为“微观情境”和“宏观情境”。
术语“微观情境”是指直接围绕现实世界元素的情境,例如人,物体或可直接影响现实世界元素的条件。微观情境204可以包括直接围绕目标现实世界元素并影响目标现实世界元素的环境的数据,诸如3D图像数据,3D几何结构,3D实体,3D动态对象,视频数据,音频数据,文本数据,时间数据,元数据,优先级数据,安全数据,位置数据,照明数据,温度数据和服务质量(QOS)等。在实施例中,微观情境204还包括服务情境,这是指由附近的一个或多个用户使用的实际应用。当每个应用消耗带宽时,服务情境可以向系统200提供评估向每个连接元素106提供网络信号所需的有价值的情境信息。
术语“宏观情境”是指围绕现实世界元素的间接或更远的情境。宏观情境可以由服务器110从多个微观情境204导出,从而产生系统的更全面的信息,例如制造厂的当前效率,空气质量,气候变化水平,公司效率,城市效率,国家效率等。可以在包括本地级别(例如,办公室或制造厂),附近级别,城市级别,国家级别或甚至行星级别的不同级别上考虑和计算宏观情境。因此,相同的现实世界元素数据和微观情境数据可以导出不同类型的宏观情境206。
图3示出了根据实施例的持久性虚拟世界系统112的层的示意性表示。图3的一些元素可以与图1-2的元素相似,因此可以使用相似或相同的附图标记来描述那些元素。
在一些实施例中,存储在服务器110中的持久性虚拟世界系统112由层302构成,其中外层限定了广泛的地理区域,内层限定了外层内较小的地理区域,并且其中事件管理由层实现。外层可以代表较高级别实体,内层可以代表较低级别实体。例如,外层可以表示国家304,其可以由几个城市306组成,每个城市306表示国家304的内层。另一方面,每个城市306可以包括几个区308,每个区308代表城市306的内层。这些区可以包括几个街区310,每个街区310表示区308的内层。每个街区可以包括几个房屋312,商店314,工厂316和其他318,这些元素中的每一个都表示街区310的内层。最后,街区310的这些内层元素中的每一个还可以包括具有感测机构的连接元素106,该感测机构被配置为获得丰富和更新持久性虚拟世界系统112的虚拟副本的实时数据。
图4描绘了系统400的示意性表示,其详细描述了服务器与现实世界的连接元素的关系。图4的一些元素可以与图1-3的元素相似,因此可以使用相似或相同的附图标记来描述那些元素。
本公开的系统400包括至少一个服务器110和经由网络108连接到至少一个服务器110的多个连接元素106。服务器110包括存储器402和至少一个处理器404。存储器402存储数据库,该数据库具有结构化数据,该数据库存储持久性虚拟世界系统112,持久性虚拟世界系统112包括对应于各个现实世界元素的多个虚拟副本406,例如虚拟副本406A,B和C。虚拟副本406通过附接到多个设备的感测机构通信地连接到现实世界元素,该多个设备经由网络108连接到服务器110。感测机构向虚拟副本406提供数据202,使得能够实现现实世界和持久性虚拟世界系统112的同步。至少一个处理器404经配置以启用通过经同步的持久性虚拟世界系统112对现实世界中的事件的实况管理。
一些虚拟副本406,即不包括任何感测机构的现实世界元素的虚拟副本406(即,自然构造,不能连接到网络的车辆,未连接到网络的建筑物,尚未连接到至少一个服务器110的新元素等),可以仅在持久性虚拟世界系统112中以图形方式出现,并且可以仅通过附接到其它连接元素106的光学传感器(例如照相机或扫描仪)来可视地更新。
在一些实施例中,虚拟副本包括可以用于为数字现实应用3D结构进行建模的3D世界和建筑物数据(例如基于SLAM或派生映射的数据);3D几何数据;3D点云数据;或者表示现实世界结构特性的地理信息系统数据中的一个或多个。
在一些实施例中,持久性虚拟世界系统112包括虚拟3D基础设施,该虚拟3D基础设施包括一个或多个虚拟副本406,纯虚拟对象,虚拟通道和数字现实应用,或它们的组合,使得能够通过它们相应的虚拟副本在彼此之间以及与现实世界的元素之间进行空间组织,行为,计算和逻辑交互。虚拟3D基础设施的虚拟通道可用于限定和界定通过其虚拟副本,纯虚拟对象或数字现实应用的现实对象的路径。例如,虚拟通道可以用于通过将飞行路径作为虚拟通道服务来界定无人机或飞机的飞行路径,该虚拟通道可以通过相应的虚拟副本来访问和处理。
至少一个服务器110可以提供足以执行重负载应用的计算资源,重负载应用例如服务,分发,计算,流传输和/或渲染来自一个或多个数字现实应用的数字内容,以便与用户交互。在优选实施例中,服务器110的计算环境在抽象的,虚拟化的基础设施上运行,该基础设施在诸如在云服务器中的应用之间共享诸如CPU,内存和存储器的资源。使用云计算网络,可以根据需要将对计算能力,计算机基础设施(例如,通过所谓的基础设施作为服务,或IaaS),应用和业务过程的访问作为服务传递给用户。
根据实施例,存储器402还包括副本编辑器408,该副本编辑器408可以包括被配置成使用户能够对现实世界实体的虚拟副本406进行建模和编辑的软件和硬件。副本编辑器408可以是例如计算机辅助绘图(CAD)软件,其可以存储输入和编辑虚拟复制406所必需的数据和指令。副本编辑器408可以使得能够输入与每个数字副本有关的显式数据和指令410,其涉及描述形状,地点,位置和取向,或其它属性的数据和指令,以及每个虚拟副本406和永久虚拟世界系统112作为整体的预期功能和影响。
“显式数据”在这里指的是可能不是由感测机构获得的数据,而是可能需要通过副本编辑器408数字地输入的数据,例如优先级数据,建筑材料,壁厚,电气设备和电路,水管,灭火器,紧急出口,窗口位置,机器性能参数,机器传感器和阀位置等。这里使用的“优先级数据”是指现实世界实体的分层分类。例如,某些车辆(例如,救护车)或人(例如,总统,政府官员,警察等)可以具有更高的优先级,其可以影响基于数据推断而进行的决策。这里使用的术语“指令”是指被配置为由处理器执行的代码(例如,二进制代码)。在虚拟副本406的情境中,指令可指代表示现实世界元素的行为的代码。
用于利用显式数据和指令410将现实世界实体转换成虚拟副本406并使其在持久性虚拟世界系统112中可用的建模技术可以基于现实世界实体的容易获得的CAD模型。例如,机器所有者可以提供持久性虚拟世界系统112的管理员,或者可以自己输入其机器的已存在的数字CAD模型。类似地,建筑物所有者可以向建筑物信息模型(BIM)提供将被存储在持久性虚拟世界系统112中的建筑物细节,持久性虚拟世界系统112可以包括经由感测机构可能不可见或可容易获得的信息。在这些实施例中,这些现实世界实体的所有者可以负责将虚拟副本添加到持久性虚拟世界系统112中,这可以例如通过激励制度或通过法律要求来实现。在一些实施例中,持久性虚拟世界系统112的管理员,甚至政府官员,可以与现实世界实体的所有者协作,用于将现实世界实体输入持久性虚拟世界系统112,并因此实现持久性虚拟世界系统112的更快和更彻底的创建。
在其它实施例中,雷达成像,例如合成孔径雷达,现实孔径雷达,光检测和测距(LIDAR),逆孔径雷达,单脉冲雷达和其它类型的成像技术,可以用于在将现实世界实体集成到持久性虚拟世界系统112中之前对现实世界实体进行映射和建模。利用这些更多的技术方案尤其可以在结构的原始模型不可用的情况下执行,或者在存在丢失的信息或者需要向CAD模型不提供的虚拟世界实体添加附加信息的情况下执行。
独立于用于创建虚拟副本406的建模技术,每个虚拟副本406的信息应当提供关于每个对应的现实世界元素的足够的细节,使得每个现实世界元素的高度精确的虚拟副本406是可用的。然后通过数据202来丰富和更新虚拟副本406。因此,虚拟副本406包括用于描述每个现实世界元素的现实外观和行为的数据412和指令414,除非涉及非连接元素的虚拟副本406,该非连接元素可以仅提供它们各自的现实外观,并且没有关于它们的功能的数据和指令。
如关于图2所描述的,数据202还可以包括情境数据,诸如包括微观情境A,B和C的微观情境204,以及宏观情境206。然后,该相同的数据被传送到持久性虚拟世界系统112,以分别变成包括虚拟微环境A,B和C的虚拟微环境416,以及虚拟宏环境418,它们基于通过连接元素106的感测机构所获得的数据202被实时更新。虚拟微观情境416和虚拟宏观情境418还包括数据412和指令414,其用于描述相应的现实世界外观和行为。
图5描绘了根据实施例的系统500的示意性表示,其描绘了连接元素的示意性表示。图5的一些元素可以与图1-4的元素相似,因此可以使用相似或相同的附图标记来描述那些元素。
连接元素106可以包括诸如输入/输出(I/O)模块502的操作组件;电源504;存储器506;形成跟踪模块512的感测机构508和收发器510;以及例如网络接口514的通信电路,全部可操作地连接到处理器516。
I/O模块502被实现为被配置为与用户交互并向一个或多个其它系统组件提供用户输入数据的计算硬件和软件。例如,I/O模块502可以被配置为与用户交互,基于交互生成用户输入数据,并且在经由网络传送到其他处理系统(例如服务器)之前将用户输入数据提供给处理器516。在另一示例中,I/O模块502被实现为外部计算指向设备(例如,触摸屏,鼠标,3D控件,操纵杆,游戏垫等)和/或文本输入设备(例如,键盘,听写工具等),其被配置为与其它连接元素106交互。在其它实施例中,I/O模块502可提供与上述功能不同的、额外的、或较少的功能。
电源504被实现为被配置为向连接元素106提供电力的计算硬件和软件。在一个实施例中,电源504可以是电池。电源504可以内置到设备中或者可以从设备中移除,并且可以是可再充电的或不可再充电的。在一个实施例中,可以通过用另一个电源504替换一个电源504来对设备重新供电。在另一个实施例中,电源504可以通过附接到充电源的电缆进行再充电,例如附件到个人计算机的通用串行总线("USB")火线,以太网,雷电接口或耳机电缆。在又一个实施例中,电源504可以通过感应充电进行再充电,其中,当感应充电器和电源504两者非常接近时,电磁场用于将能量从感应充电器传递到电源504,但不需要通过电缆彼此插入。在另一个实施例中,可以使用扩展坞来促进充电。
存储器506可以被实现为适于存储应用程序指令和存储由多个感测机构捕获的数据的计算硬件和软件。存储器506可以是能够存储处理器516可访问的信息的任何合适的类型,包括计算机可读介质,或存储可以借助于电子设备读取的数据的其它介质,该电子设备例如是硬盘驱动器,存储卡,闪存驱动器,ROM,RAM,DVD或其它光盘,以及其它可写和只读存储器。除了永久存储器之外,存储器506还可以包括临时存储器。
感测机构可以被实现为适于从现实世界获得各种数据并确定/跟踪连接元素106的位置和取向的计算硬件和软件。感测机构可以包括但不限于一个或多个温度传感器,接近传感器,惯性传感器,红外传感器,污染传感器(例如,气体传感器),压力传感器,光传感器,超声波传感器,烟雾传感器,触摸传感器,色度传感器,湿度传感器,水传感器,电传感器或其组合。特别地,感测机构包括一个或多个惯性测量单元(IMU),加速度计和陀螺仪。IMU被配置为通过使用加速度计和陀螺仪的组合来测量和报告连接元素106的速度,加速度,角动量,平移速度,旋转速度和其它遥测元数据。IMU内的加速度计和/或与IMU分开配置的加速度计可以被配置为测量交互设备的加速度,包括由于地球重力场引起的加速度。在一个实施例中,加速度计包括能够在三个正交方向上测量加速度的三轴加速度计。
收发器510可以被实现为计算硬件和软件,其被配置为使设备能够从天线接收无线电波并将数据发送回天线。在一些实施例中,可以使用mmW收发器,其可以被配置为从天线接收mmW波信号,并且当与沉浸式内容交互时将数据发送回天线。收发器510可以是双向通信收发器510。
根据实施例,收发器510能够实现经由连接到网络的基于分布式账本的通信流水线(distributed ledger-based communications pipeline)在计算设备之间进行直接通信。基于分布式账本的通信流水线可以通过使用密码术、采样密码“密钥”和密码签名而允许以安全和准确的方式存储信息,从而能够通过分散网络在连接元素106之间进行直接通信。可能需要在连接元素106之间直接通信的情况,以及由此由服务器进行的旁路处理的情况,可能包括紧急情况,其中可能需要在非常短的时间段内作出决定。例如,在两辆车辆即将碰撞的自主驾驶的情况下,可能需要能够实现两辆车辆之间的直接通信,以产生可防止碰撞的更快的响应。在其它实施例中,分布式账本也可以在服务器与连接元素106之间使用,其中服务器可以在将数据分发到每个连接元素106之前,负责验证数据。在进一步的实施例中,分布式账本可以利用更靠近服务器,更靠近天线或两者的某些连接元素106,以便将这些连接元素106分配为中央结构来验证和分发数据。
在实施例中,跟踪模块512可以通过将IMU,加速度计和陀螺仪的能力与由收发器510提供的位置跟踪相结合来实现,并且由基于mmW的天线提供的精确跟踪、低延迟和高QOS功能可以实现亚厘米或亚毫米的位置和定向跟踪,这可以在跟踪连接元素106的实时位置和取向时提高精度。在替代实施例中,感测机构和收发器510可在单个跟踪模块设备中耦合在一起。
网络接口514可以被实现为计算软件和硬件,以通信地连接到网络,从网络接收由服务器或由其它连接元素106发送的计算机可读程序指令,并且转发计算机可读程序指令以便存储在存储器506中,供处理器516执行。
处理器516可以被实现为被配置成接收和处理数据的计算硬件和软件。举例来说,处理器516可经配置以提供成像请求,接收成像数据,将成像数据处理成环境或其它数据,处理用户输入数据和/或成像数据以产生用户交互数据,执行基于边缘(设备上)的机器学习训练和推断,提供服务器请求,接收服务器响应,和/或将用户交互数据,环境数据和内容对象数据提供到一个或多个其它系统组件。例如,处理器516可以从I/O模块502接收用户输入数据,并且可以分别实现存储在存储器506中的应用程序。在其它示例中,处理器516可以从感测机构接收从现实世界捕获的数据,或者可以通过跟踪模块512接收连接元素106的准确位置和取向,并且可以在将数据发送到服务器之前准备一些数据以供进一步处理。作为示例,处理器516可以实现在数据准备期间所需的一些步骤,包括模拟或数字信号处理算法,诸如在将数据发送到服务器之前对数据进行原始数据减少或过滤。
图6示出了根据实施例的方法600的框图,该方法600使得能够通过持久性虚拟世界对现实世界中的事件进行实况管理。方法600可以由系统来实现,例如关于图1-5所示的系统。
方法600开始于框602和604,在服务器的存储器中提供具有结构化数据的数据库,该数据库存储包括现实世界元素的虚拟副本的持久性虚拟世界系统。方法600在步骤606中继续,通过使用经由网络连接到服务器的多个连接元素来使虚拟副本与相应的现实世界元素同步,连接元素包括感测机构,该感测机构被配置成从现实世界元素捕获数据。该方法在步骤608继续,通过同步的持久性虚拟世界系统来管理现实世界中的事件,在步骤610结束该过程。
图7示出了根据图6所述的实施例的方法700的框图,该方法700详细描述了方法600的其它步骤,该方法600能够通过持久性虚拟世界系统来管理现实世界中的事件。方法700可以由系统来实现,例如关于图1-5所示的系统。
在步骤702和704中,通过持久性虚拟世界系统监测现实世界中的活动来开始对现实世界中的事件的管理。可以通过在经由网络连接到至少一个服务器的多个连接元素(例如,经由网络108连接到至少一个服务器110的图1的连接元素106)上的多个感测机构来执行对事件的监测,并且可以包括对在现实世界中发生的所有活动的被动观察。例如,事件的监测可以指特定高速公路中的交通行为。例如,可以通过安装在高速公路的各个区域中的摄像机,高速公路侧面上的速度传感器,运动传感器的组合,以及通过每个车辆的地理位置和定向跟踪来执行监测。
方法700可以继续到框706,检测事件,其中事件被限定在与现实世界中的活动的实际值相比较的预定参数值内。在又一个实施例中,检测事件还包括将事件分类为普通事件或异常事件。例如,实际值可以指高速公路中的每辆车的实际速度或高速公路中的所有交通的平均速度,并且预定标准值范围可以指高速公路中的每个车辆的预期速度范围或交通的预期平均速度范围。如果比较的实际值落在预定标准值范围内,则事件可以被分类为普通事件。另一方面,如果比较的实际值落在预定标准值范围之外,则事件可以被分类为异常事件,例如当车辆以极高速度行驶时,或者当已经发生汽车事故时。
方法700在步骤708中继续,检查事件是否落入一个或多个预定分析要求参数中。检查事件是否落入一个或多个预定分析要求参数是指将检测到的事件的实际值与预定分析要求参数值的范围进行比较,该预定分析要求参数值被限定为触发对事件的分析。在一些实施例中,取决于可能与事件相关联的风险因素,诸如对其他人的安全或完整性的风险,污染的风险,材料损坏风险的风险等,来确定事件是值得分析。因此,值得分析的事件可以被链接到与被监测的一个或多个活动有关的关键控制点。值得分析的事件的示例可以是,例如,金融卡支付,用于关键过程的机器操作,或拥挤的高速公路中的一个或多个车辆的行为;航空器,水上交通工具或陆地车辆的行为;工厂操作;以及娱乐活动,例如视频游戏,电影制作,体育活动,电视,剧场或音乐表演等。
如果方法700确定事件不值得分析,则方法700可以循环回到步骤704,继续监测现实世界。如果方法700确定事件值得分析,则方法700继续到步骤710,限定事件的时间范围,以便识别事件的初始和结束时间,以便进一步将事件存储在至少一个服务器的存储器中,如步骤712所示。
在步骤714中,方法700继续,重新创建事件。重新创建事件可以通过生成事件数据点来执行,该事件数据点包括在值得分析的事件的持续时间内收集的数据。在一些实施例中,重新创建事件还包括生成与事件的持续时间相对应的模拟数据。在一些实施例中,事件的重新创建还包括重放与数字现实(例如,增强现实,或虚拟现实,或其组合)中的事件相关的事件和体验。
在步骤716中,该方法可以通过分析事件来继续,这可以通过应用统计和/或逻辑算法来描述,压缩和评估事件来执行。事件的分析也可以通过人工智能算法自动执行,或者可以涉及人的交互。方法700可以在步骤718结束。
根据实施例,在数字现实中重新创建事件可以向事件分析器提供情境丰富的事件的3D图像和体验,这在事件分析期间可能是有帮助的。在一些实施例中,可以从不同的角度来查阅和分析事件。例如,可以从用于司法调查的两个或更多个所涉及的车辆中的任何一个的角度,在虚拟现实中查阅和分析汽车事故事件,以便确定每个所涉及的当事人的责任级别。在其它实施例中,重新创建事件还可以提供在事件数据点的生成期间创建的其它类型的体验,包括利用音频数据,触觉数据,运动数据,连接元素或系统数据(如车辆遥测,无人机遥测)文本数据(例如,字幕,评论,注释等)的模拟等。
根据一个实施例,事件的管理还包括通过人工智能算法或用户输入来操作事件。作为对事件的分析的结果,可以执行事件的操作。事件的操作可以通过持久性虚拟世界系统中的一个或多个现实世界元素的相应虚拟副本来触发对一个或多个现实世界元素的一个或多个动作。在一些实施例中,事件的操作可能受到事件是普通事件还是异常事件的影响。优选地,对于高风险事件,通过人工智能算法自动执行分析,人工智能算法可以相对高的速度确定纠正事件或降低事件风险可能需要的操作类型。例如,在汽车事故的情况下,人工智能算法可以确定事故周围区域中的所有汽车应当减慢或停止以防止进一步的损害。
根据实施例,事件的管理还包括通过一个或多个其它服务器与其它用户共享所存储的事件。可以执行事件的共享,以便执行事件的进一步分析,进一步的操作或其组合。
根据实施例,事件的发生对事件周围的情境具有影响,通过持久性虚拟世界系统触发现实世界中的其他事件,该持久性虚拟世界系统包括受影响的情境内的一个或多个现实世界元素之间的交互。这种对事件情境的影响可以触发现实世界元素的进一步操作,这可以提供用于分析事件的进一步数据。
根据实施例,在事件的持续时间内生成事件数据点是指识别对应于事件的数据。在进一步的实施例中,事件数据点还包括情境信息。例如,在汽车事故期间,相应的数据点可以指实际的录像(footage),该实际的录像可以转换成媒体流,以被重放到事件分析器,用于随后的分析。数据点还可以包括关于车辆行驶的速度,位置和取向以及路线的信息。此外,在当前示例中,可以包括在数据点中的情境信息可以包括事故发生的天气状况,交通灯的情况,区域中的其它车辆,行人或动物行走,或可能对事故产生影响的任何其它因素。事件数据点还可以包括在事件分析期间可能有帮助的其它数据点,诸如音频数据,触觉数据,运动数据,文本数据等。所有这些数据点可用于提供事件的情境丰富的重放,其可随后由事件分析器分析。
在一些实施例中,事件可以作为数字现实体验被重放给用户,其中数字现实包括增强现实,虚拟现实,混合现实或其组合中的一个或多个。因此,为了查阅事件,事件分析器能够通过用户设备查看数字现实中的事件的情境丰富的3D重放,其可以向事件分析器提供在分析期间可以帮助的进一步信息。该事件可以从不同的视角来查阅,例如两个或更多所涉及的车辆中的任何一个的视角。例如,调查汽车事故的原因通常是非常耗时的。警察不得不从不同的角度分析录像,从证人那里获得大量的证明等。然而,能够查看和体验数字现实中的事件,例如虚拟现实,可能有助于加快调查的效率。在其它实施例中,事件的重放还可以提供其它类型的体验,包括音频数据,触觉数据,运动数据,文本数据(例如,字幕,评论,注释等)的模拟等。可以在事件数据点的创建期间产生进一步的感知体验。
在一些实施例中,管理可以通过层来实现,例如参考图3描述的层302。例如,区级别的人或人工智能管理员可以负责监测区,并且可以负责分析其中的事件。在其它示例中,城市级别的人或人工智能管理员可以负责监测城市,并且可以负责分析其中的事件。
虽然已经在附图中描述和示出了某些实施例,但是应当理解,这样的实施例仅仅是说明性的,而不是限制性的,并且本发明不限于所示出和描述的具体结构和布置,因为本领域的普通技术人员可以想到各种其他修改。因此,本说明书应被认为是示例性的而不是为了限制本发明。
Claims (20)
1.一种系统,其特征在于,包括:
服务器系统,所述服务器系统包括一个或多个服务器计算机,每个服务器计算机包括存储器和至少一个处理器,所述服务器系统包括具有结构化数据的数据库,所述数据库存储包括现实世界元素的虚拟副本的持久性虚拟世界系统;和
多个连接元素,所述多个连接元素经由网络连接到所述服务器,每个连接元素包括通信电路和一个或多个感测机构,所述一个或多个感测机构被配置成从一个或多个所述现实世界元素捕获数据,
其中,所述服务器系统被配置为使用静态数据和由所述连接元素捕获的动态数据使所述持久性虚拟世界系统和所述现实世界元素同步,并通过经同步的持久性虚拟世界系统,能够实现对所述现实世界中的事件的实况管理。
2.如权利要求1所述的系统,其特征在于,所述事件的管理包括以下中的一个或多个:
通过所述持久性虚拟世界系统来监测所述现实世界中的活动;
检测所述事件,其中,所述事件被限定在与所述现实世界中的活动的实际值相比较的预定参数值内;
检查所述事件是否落在一个或多个预定分析要求参数内;
其中,所述检查包括,在事件落在所述一个或多个预定分析要求参数之外的否定情况下,继续监测所述现实世界中的活动,并且在所述事件落在所述一个或多个预定分析要求参数之内的肯定情况下,继续以下处理:
限定所述事件的时间范围;
将所述事件存储在所述存储器中;
重新创建所述事件;和
分析所述事件。
3.如权利要求2所述的系统,其特征在于,检测所述事件还包括将所述事件分类成普通事件或异常事件。
4.如权利要求2所述的系统,其特征在于,重新创建所述事件包括生成包括在所述事件的持续时间内收集的数据的事件数据点、或生成对应于所述事件的持续时间的模拟数据、或其组合。
5.如权利要求1所述的系统,其特征在于,所述事件的所述管理还包括通过人工智能算法或用户输入来操作所述事件,并且其中,所述事件的所述操作通过所述持久性虚拟世界系统中的相应虚拟副本来触发对所述一个或多个现实世界元素的一个或多个动作。
6.如权利要求1所述的系统,其特征在于,所述事件的所述管理包括与一个或多个用户共享所存储的事件。
7.如权利要求1所述的系统,其特征在于,所述事件对所述事件周围的情境具有影响,通过所述持久性虚拟世界系统触发所述现实世界中的其它事件包括受影响的所述情境内的一个或多个现实世界元素之间的交互。
8.根据权利要求1所述的系统,其中所述事件由人工智能算法、用户输入或其组合产生,且其中,所述事件可进一步受到自然事件的影响。
9.如权利要求1所述的系统,其特征在于,所述持久性虚拟世界系统由包括外层和内层的层构成,其中外层限定了宽广的地理区域,并且内层限定了所述外层内的较小的地理区域,并且其中所述事件的所述管理由所述层实现。
10.如权利要求1所述的系统,其特征在于,所述事件涉及在金融交易期间生成的数据;航空器,水上交通工具或陆地车辆的行为;机器或工厂操作;或娱乐活动;或其组合。
11.一种方法,其特征在于,包括:
在服务器系统的存储器中提供具有结构化数据的数据库,所述数据库存储包括现实世界元素的虚拟副本的持久性虚拟世界系统;
使用来自多个连接元素的动态数据和静态数据的,使所述虚拟副本与相应的现实世界元素同步,所述多个连接元素经由网络连接到所述服务器系统,所述连接元素包括感测机构,所述感测机构被配置成从所述现实世界元素捕获所述动态数据;和
通过同步的持久性虚拟世界系统来管理所述现实世界中的事件。
12.根据权利要求11所述的方法,其特征在于,管理所述现实世界中的所述事件包括以下中的一个或多个:
通过所述持久性虚拟世界系统来监测所述现实世界中的活动;
检测所述事件,其中,所述事件被限定在与所述现实世界中的活动的实际值相比较的预定参数值内;
检查所述事件是否落在一个或多个预定分析要求参数内;
其中所述检查包括,在事件落在所述一个或多个预定分析要求参数之外的否定情况下,继续监测所述现实世界中的活动,并且在所述事件落在所述一个或多个预定分析要求参数之内的肯定情况下,继续以下处理:
限定所述事件的时间范围;
将所述事件存储在所述存储器中;
重新创建所述事件;和
分析所述事件。
13.如权利要求12所述的方法,其特征在于,检测所述事件还包括将所述事件分类成普通事件或异常事件。
14.如权利要求12所述的方法,其特征在于,重新创建所述事件包括生成包括在所述事件的持续时间内收集的数据的事件数据点、或生成对应于所述事件的持续时间的模拟数据、或其组合。
15.如权利要求11所述的方法,其特征在于,所述事件的管理还包括通过人工智能算法或用户输入来操作所述事件,并且其中,所述事件的所述操作通过所述持久性虚拟世界系统中的相应虚拟副本来触发对所述一个或多个现实世界元素的一个或多个动作。
16.如权利要求11所述的方法,其特征在于,所述事件的管理包括与一个或多个用户共享所存储的事件。
17.如权利要求11所述的方法,其特征在于,所述事件对所述事件周围的情境具有影响,通过所述持久性虚拟世界系统触发所述现实世界中的其它事件包括受影响的所述情境内的一个或多个现实世界元素之间的交互。
18.如权利要求11所述的方法,其中所述事件由人工智能算法、用户输入或其组合产生,且其中,所述事件可进一步受到自然事件的影响。
19.如权利要求11所述的方法,其特征在于,所述持久性虚拟世界系统由包括外层和内层的层构成,其中外层限定了宽广的地理区域,并且内层限定了所述外层内的较小的地理区域,并且其中所述事件的所述管理由所述层实现。
20.一种存储程序的非暂时性计算机可读介质,其特征在于,所述程序被配置为使一个或多个处理器进行步骤,所述步骤包括:
提供具有结构化数据的数据库,所述数据库存储包括现实世界元素的虚拟副本的持久性虚拟世界系统;
使用来自多个连接元素的动态数据和静态数据,使所述虚拟副本与相应的现实世界元素同步,所述多个连接元素经由网络连接到服务器,所述连接元素包括感测机构,所述感测机构被配置成从所述现实世界元素捕获所述动态数据;
以及通过同步的持久性虚拟世界系统来管理所述现实世界中的事件。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962852197P | 2019-05-23 | 2019-05-23 | |
US62/852,197 | 2019-05-23 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111973979A true CN111973979A (zh) | 2020-11-24 |
Family
ID=71096486
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010440497.4A Pending CN111973979A (zh) | 2019-05-23 | 2020-05-22 | 经由持久性虚拟世界系统对现实世界进行实况管理 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11115468B2 (zh) |
EP (1) | EP3742360A1 (zh) |
CN (1) | CN111973979A (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3951673A1 (en) * | 2020-08-04 | 2022-02-09 | Aptiv Technologies Limited | Method and system of collecting training data suitable for training an autonomous driving system of a vehicle |
US20230347923A1 (en) * | 2022-04-27 | 2023-11-02 | Tmrw Foundation Ip S. À R.L. | Location-based autonomous navigation using a virtual world system |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101573734A (zh) * | 2006-09-04 | 2009-11-04 | N·I·帕申科 | 用于模拟和操作单一虚拟空间的方法和系统 |
CN103635891A (zh) * | 2011-05-06 | 2014-03-12 | 奇跃公司 | 大量同时远程数字呈现世界 |
CN104011788A (zh) * | 2011-10-28 | 2014-08-27 | 奇跃公司 | 用于增强和虚拟现实的系统和方法 |
CN105934775A (zh) * | 2013-11-26 | 2016-09-07 | 约阿夫·谢斐 | 用于构建锚定在真实世界物体上的虚拟图像的方法和系统 |
CN109246195A (zh) * | 2018-08-13 | 2019-01-18 | 孙琤 | 一种融合增强现实、虚拟现实的管网智能管控方法及系统 |
US20190102494A1 (en) * | 2017-10-03 | 2019-04-04 | Endurica, LLC | System for tracking incremental damage accumulation |
Family Cites Families (85)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5883817A (en) | 1996-07-08 | 1999-03-16 | Trimble Navigation Limited | Method and apparatus for precise positioning of large structures |
US5956039A (en) | 1997-07-25 | 1999-09-21 | Platinum Technology Ip, Inc. | System and method for increasing performance by efficient use of limited resources via incremental fetching, loading and unloading of data assets of three-dimensional worlds based on transient asset priorities |
US6278479B1 (en) | 1998-02-24 | 2001-08-21 | Wilson, Hewitt & Associates, Inc. | Dual reality system |
EP1087323A1 (en) | 1999-09-24 | 2001-03-28 | Nokia Corporation | A wireless system for interacting with a virtual space |
US6556206B1 (en) | 1999-12-09 | 2003-04-29 | Siemens Corporate Research, Inc. | Automated viewpoint selection for 3D scenes |
US20060184886A1 (en) | 1999-12-22 | 2006-08-17 | Urbanpixel Inc. | Spatial chat in a multiple browser environment |
DE10127396A1 (de) | 2000-06-13 | 2001-12-20 | Volkswagen Ag | Verfahren zum Verwerten eines Altfahrzeugs |
US20060122917A1 (en) | 2000-08-14 | 2006-06-08 | Urbanpixel Inc | Real-time collaborative commerce in a multiple browser environment |
US7168051B2 (en) | 2000-10-10 | 2007-01-23 | Addnclick, Inc. | System and method to configure and provide a network-enabled three-dimensional computing environment |
US20020107679A1 (en) | 2001-02-05 | 2002-08-08 | Koninklijke Philips Electronics N. V. | Virtual model generation via physical components |
EP1366451A4 (en) | 2001-02-07 | 2007-05-23 | Universal City Studios Inc | RESERVATION SYSTEM AND METHOD FOR LEISURE PARKS |
US20030030658A1 (en) | 2001-08-10 | 2003-02-13 | Simon Gibbs | System and method for mixed reality broadcast |
US8909729B2 (en) | 2001-11-20 | 2014-12-09 | Portulim Foundation Llc | System and method for sharing digital media content |
WO2004018158A2 (en) | 2002-08-21 | 2004-03-04 | Neal Solomon | Organizing groups of self-configurable mobile robotic agents |
US7680694B2 (en) | 2004-03-11 | 2010-03-16 | American Express Travel Related Services Company, Inc. | Method and apparatus for a user to shop online in a three dimensional virtual reality setting |
US7529690B2 (en) | 2004-05-22 | 2009-05-05 | Altaf Hadi | System and method for delivering real time remote buying, selling, meeting, and interacting in a virtual reality environment |
DE102005011126A1 (de) | 2005-03-10 | 2006-09-14 | Siemens Ag | Generierung virtueller Welten auf Basis einer realen Umgebung |
CN100484726C (zh) | 2006-05-12 | 2009-05-06 | 上海大学 | 基于虚拟现实机器人灵巧手遥操作平台 |
HUP0600879A2 (en) | 2006-11-28 | 2008-06-30 | Adam Dalnoki | System and method for moving real objects through operations performed in a virtual environment |
US20080263460A1 (en) | 2007-04-20 | 2008-10-23 | Utbk, Inc. | Methods and Systems to Connect People for Virtual Meeting in Virtual Reality |
US8909370B2 (en) | 2007-05-08 | 2014-12-09 | Massachusetts Institute Of Technology | Interactive systems employing robotic companions |
US9111285B2 (en) | 2007-08-27 | 2015-08-18 | Qurio Holdings, Inc. | System and method for representing content, user presence and interaction within virtual world advertising environments |
US20090244059A1 (en) | 2008-03-26 | 2009-10-01 | Kulkarni Gaurav N | System and method for automatically generating virtual world environments based upon existing physical environments |
JP5215740B2 (ja) | 2008-06-09 | 2013-06-19 | 株式会社日立製作所 | 移動ロボットシステム |
US20100131947A1 (en) * | 2008-11-24 | 2010-05-27 | Disney Enterprises, Inc. | System and method for enabling a local user of a real-life simulation environment to interact with a remote user of a corresponding virtual environment |
US20100131865A1 (en) * | 2008-11-24 | 2010-05-27 | Disney Enterprises, Inc. | Method and system for providing a multi-mode interactive experience |
DE102009039834A1 (de) | 2009-09-03 | 2011-03-10 | Deutsche Telekom Ag | Automatisches Sprach-Chat-System in Mobilfunknetzen mit Ortsbezug |
US8660670B2 (en) | 2009-09-10 | 2014-02-25 | Sam FREED | Controller with artificial intelligence based on selection from episodic memory and corresponding methods |
CN102120325B (zh) | 2010-01-08 | 2012-12-12 | 哈尔滨理工大学 | 新型遥操作远端机器人控制平台及方法 |
US8564621B2 (en) * | 2010-08-11 | 2013-10-22 | International Business Machines Corporation | Replicating changes between corresponding objects |
US8698843B2 (en) | 2010-11-02 | 2014-04-15 | Google Inc. | Range of focus in an augmented reality application |
US9511291B2 (en) | 2010-11-15 | 2016-12-06 | Bally Gaming, Inc. | System and method for enhanced augmented reality tracking |
US9384587B2 (en) | 2010-11-29 | 2016-07-05 | Verizon Patent And Licensing Inc. | Virtual event viewing |
US9721386B1 (en) | 2010-12-27 | 2017-08-01 | Amazon Technologies, Inc. | Integrated augmented reality environment |
WO2012118507A1 (en) | 2011-03-03 | 2012-09-07 | Research In Motion Limited | Methods and apparatus to generate virtual-world environments |
CA2845730A1 (en) | 2011-08-18 | 2013-02-21 | Utherverse Digital, Inc. | Systems and methods of virtual world interaction |
US20140063061A1 (en) | 2011-08-26 | 2014-03-06 | Reincloud Corporation | Determining a position of an item in a virtual augmented space |
ES2656868T3 (es) | 2011-10-05 | 2018-02-28 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Dispositivo portátil, sistema y método de realidad virtual |
WO2013104820A1 (en) | 2012-01-09 | 2013-07-18 | Nokia Corporation | Method and apparatus for providing an architecture for delivering mixed reality content |
US9281727B1 (en) | 2012-11-01 | 2016-03-08 | Amazon Technologies, Inc. | User device-based control of system functionality |
US20140214504A1 (en) | 2013-01-31 | 2014-07-31 | Sony Corporation | Virtual meeting lobby for waiting for online event |
US20140282220A1 (en) | 2013-03-14 | 2014-09-18 | Tim Wantland | Presenting object models in augmented reality images |
US9264479B2 (en) | 2013-12-30 | 2016-02-16 | Daqri, Llc | Offloading augmented reality processing |
US10225506B2 (en) | 2014-08-01 | 2019-03-05 | Sony Corporation | Information processing apparatus and information processing method |
US20160133230A1 (en) | 2014-11-11 | 2016-05-12 | Bent Image Lab, Llc | Real-time shared augmented reality experience |
US20170243403A1 (en) * | 2014-11-11 | 2017-08-24 | Bent Image Lab, Llc | Real-time shared augmented reality experience |
JP2016110245A (ja) | 2014-12-03 | 2016-06-20 | 株式会社T.J.Promotion | 表示システム、表示方法、コンピュータプログラム、コンピュータが読み取り可能な記憶媒体 |
US9643314B2 (en) | 2015-03-04 | 2017-05-09 | The Johns Hopkins University | Robot control, training and collaboration in an immersive virtual reality environment |
US20160300392A1 (en) | 2015-04-10 | 2016-10-13 | VR Global, Inc. | Systems, media, and methods for providing improved virtual reality tours and associated analytics |
US10775878B2 (en) | 2015-04-10 | 2020-09-15 | Sony Interactive Entertainment Inc. | Control of personal space content presented via head mounted display |
US10546424B2 (en) | 2015-04-15 | 2020-01-28 | Google Llc | Layered content delivery for virtual and augmented reality experiences |
JP6676286B2 (ja) | 2015-05-12 | 2020-04-08 | キヤノン株式会社 | 情報処理方法、および情報処理装置 |
WO2016187477A1 (en) | 2015-05-20 | 2016-11-24 | Daqri, Llc | Virtual personification for augmented reality system |
US9704298B2 (en) | 2015-06-23 | 2017-07-11 | Paofit Holdings Pte Ltd. | Systems and methods for generating 360 degree mixed reality environments |
US10399225B2 (en) | 2015-07-08 | 2019-09-03 | Stephen Favis | Biomimetic humanoid robotic model, control system, and simulation process |
JP6877341B2 (ja) | 2015-07-08 | 2021-05-26 | ソニーグループ株式会社 | 情報処理装置、表示装置、情報処理方法及びプログラム |
GB2542434A (en) * | 2015-09-21 | 2017-03-22 | Figment Productions Ltd | A System for Providing a Virtual Reality Experience |
FR3041804B1 (fr) * | 2015-09-24 | 2021-11-12 | Dassault Aviat | Systeme de simulation tridimensionnelle virtuelle propre a engendrer un environnement virtuel reunissant une pluralite d'utilisateurs et procede associe |
WO2017141391A1 (ja) | 2016-02-18 | 2017-08-24 | ガンホー・オンライン・エンターテイメント株式会社 | サーバー装置 |
US20170250930A1 (en) | 2016-02-29 | 2017-08-31 | Outbrain Inc. | Interactive content recommendation personalization assistant |
US10325610B2 (en) | 2016-03-30 | 2019-06-18 | Microsoft Technology Licensing, Llc | Adaptive audio rendering |
US20170289202A1 (en) | 2016-03-31 | 2017-10-05 | Microsoft Technology Licensing, Llc | Interactive online music experience |
US20170286572A1 (en) | 2016-03-31 | 2017-10-05 | General Electric Company | Digital twin of twinned physical system |
WO2017218384A1 (en) | 2016-06-13 | 2017-12-21 | Wal-Mart Stores, Inc. | Virtual reality shopping systems and methods |
WO2018026959A1 (en) | 2016-08-04 | 2018-02-08 | Fairwayiq, Inc. | System and method for managing and interacting with spectators at an activity venue |
US20180047093A1 (en) | 2016-08-09 | 2018-02-15 | Wal-Mart Stores, Inc. | Self-service virtual store system |
KR101940720B1 (ko) | 2016-08-19 | 2019-04-17 | 한국전자통신연구원 | 공간 기반 증강현실을 위한 콘텐츠 저작 장치 및 그 방법 |
WO2018039437A1 (en) | 2016-08-24 | 2018-03-01 | Wal-Mart Stores, Inc. | Apparatus and method for providing a virtual shopping environment |
JPWO2018074000A1 (ja) | 2016-10-20 | 2019-06-24 | 株式会社リアルアンリアル | 位置情報ゲームのロケーション評価方法 |
US10877470B2 (en) | 2017-01-26 | 2020-12-29 | Honeywell International Inc. | Integrated digital twin for an industrial facility |
WO2018151908A1 (en) | 2017-02-16 | 2018-08-23 | Walmart Apollo, Llc | Systems and methods for a virtual reality showroom with autonomous storage and retrieval |
US10967255B2 (en) | 2017-05-26 | 2021-04-06 | Brandon Rosado | Virtual reality system for facilitating participation in events |
WO2018226621A1 (en) | 2017-06-05 | 2018-12-13 | Umajin Inc. | Methods and systems for an application system |
US20190065028A1 (en) | 2017-08-31 | 2019-02-28 | Jedium Inc. | Agent-based platform for the development of multi-user virtual reality environments |
US20190102709A1 (en) | 2017-10-03 | 2019-04-04 | Invight, Inc. | Systems and methods for coordinating venue systems and messaging control |
WO2019079826A1 (en) | 2017-10-22 | 2019-04-25 | Magical Technologies, Llc | DIGITAL ASSISTANT SYSTEMS, METHODS AND APPARATUSES IN AN INCREASED REALITY ENVIRONMENT AND LOCAL DETERMINATION OF VIRTUAL OBJECT PLACEMENT AND SINGLE OR MULTIDIRECTIONAL OBJECTIVES AS GATEWAYS BETWEEN A PHYSICAL WORLD AND A DIGITAL WORLD COMPONENT OF THE SAME ENVIRONMENT OF INCREASED REALITY |
US10679412B2 (en) | 2018-01-17 | 2020-06-09 | Unchartedvr Inc. | Virtual experience monitoring mechanism |
US10565764B2 (en) | 2018-04-09 | 2020-02-18 | At&T Intellectual Property I, L.P. | Collaborative augmented reality system |
US11307968B2 (en) | 2018-05-24 | 2022-04-19 | The Calany Holding S. À R.L. | System and method for developing, testing and deploying digital reality applications into the real world via a virtual world |
KR102275520B1 (ko) | 2018-05-24 | 2021-07-12 | 티엠알더블유 파운데이션 아이피 앤드 홀딩 에스에이알엘 | 현실 세계를 대표하는 실시간 3d 가상 세계 내에서 실시간 3d 가상 객체의 양방향 실시간 대화형 오퍼레이션 |
US10867444B2 (en) | 2018-11-29 | 2020-12-15 | Adobe Inc. | Synthetic data generation for training a machine learning model for dynamic object compositing in scenes |
US10921878B2 (en) * | 2018-12-27 | 2021-02-16 | Facebook, Inc. | Virtual spaces, mixed reality spaces, and combined mixed reality spaces for improved interaction and collaboration |
US11024074B2 (en) * | 2018-12-27 | 2021-06-01 | Facebook Technologies, Llc | Virtual spaces, mixed reality spaces, and combined mixed reality spaces for improved interaction and collaboration |
US20200210137A1 (en) * | 2018-12-27 | 2020-07-02 | Facebook Technologies, Llc | Virtual spaces, mixed reality spaces, and combined mixed reality spaces for improved interaction and collaboration |
US10748302B1 (en) | 2019-05-02 | 2020-08-18 | Apple Inc. | Multiple user simultaneous localization and mapping (SLAM) |
-
2020
- 2020-05-22 US US16/882,080 patent/US11115468B2/en active Active
- 2020-05-22 CN CN202010440497.4A patent/CN111973979A/zh active Pending
- 2020-05-25 EP EP20176245.7A patent/EP3742360A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101573734A (zh) * | 2006-09-04 | 2009-11-04 | N·I·帕申科 | 用于模拟和操作单一虚拟空间的方法和系统 |
CN103635891A (zh) * | 2011-05-06 | 2014-03-12 | 奇跃公司 | 大量同时远程数字呈现世界 |
CN104011788A (zh) * | 2011-10-28 | 2014-08-27 | 奇跃公司 | 用于增强和虚拟现实的系统和方法 |
CN105934775A (zh) * | 2013-11-26 | 2016-09-07 | 约阿夫·谢斐 | 用于构建锚定在真实世界物体上的虚拟图像的方法和系统 |
US20190102494A1 (en) * | 2017-10-03 | 2019-04-04 | Endurica, LLC | System for tracking incremental damage accumulation |
CN109246195A (zh) * | 2018-08-13 | 2019-01-18 | 孙琤 | 一种融合增强现实、虚拟现实的管网智能管控方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
EP3742360A1 (en) | 2020-11-25 |
US20200374345A1 (en) | 2020-11-26 |
US11115468B2 (en) | 2021-09-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11202036B2 (en) | Merged reality system and method | |
US11663685B2 (en) | System and method for providing digital reality experiences and decentralized transactions of real estate projects | |
EP3846058A1 (en) | Multi-dimensional 3d engine computing and virtualization-based dynamic load balancing of virtual or real worlds | |
US20240037844A1 (en) | 3d structure engine-based computation platform | |
JP7054255B2 (ja) | マルチソースのリアルタイムかつコンテキストアウェアな実世界データによる仮想知能および最適化 | |
US11115468B2 (en) | Live management of real world via a persistent virtual world system | |
US11516296B2 (en) | Location-based application stream activation | |
US11651562B2 (en) | Method and system for enabling enhanced user-to-user communication in digital realities | |
US11546721B2 (en) | Location-based application activation | |
US11270513B2 (en) | System and method for attaching applications and interactions to static objects | |
US20230259255A1 (en) | Virtual creation of real-world projects | |
US11471772B2 (en) | System and method for deploying virtual replicas of real-world elements into a persistent virtual world system | |
Stoor et al. | Urban simulation environment | |
Peng | A framework for Level-of-Detail tracking and surveillance in wireless sensor networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: 54 Montorf Road, Betangburg, Luxembourg Applicant after: Karan Holdings Ltd. Address before: 54 Montorf Road, Betangburg, Luxembourg Applicant before: TMRW Foundation IP & Holding S.A.R.L. |
|
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: 14-16 Pasteur Avenue, Luxembourg Applicant after: Karan Holdings Ltd. Address before: 54 Montorf Road, Betangburg, Luxembourg Applicant before: Karan Holdings Ltd. |