CN113253840B - 多参与模式的人工现实系统 - Google Patents
多参与模式的人工现实系统 Download PDFInfo
- Publication number
- CN113253840B CN113253840B CN202110491564.XA CN202110491564A CN113253840B CN 113253840 B CN113253840 B CN 113253840B CN 202110491564 A CN202110491564 A CN 202110491564A CN 113253840 B CN113253840 B CN 113253840B
- Authority
- CN
- China
- Prior art keywords
- tracking
- dimensional
- headset
- participation
- localizable
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提供一种多参与模式的人工现实系统,包括可定位追踪头戴和服务器,并且可定位追踪头戴和服务器构成至少两种参与模式,参与模式包括第一参与模式和第二参与模式,即同一设备可应用在不同参与模式下,实现设备‑用户的非对称用户体验,提高设备的利用率,且通过多种参与模式生成三维环境地图能够使三维环境地图更加精准无误,使该三维环境地图和实际三维空间环境的地图信息进行精准对应,渲染出和实际三维空间环境地图1:1对应的虚拟场景内容。
Description
技术领域
本发明涉及虚拟现实技术领域,更为具体地,涉及一种多参与模式的人工现实系统。
背景技术
随着计算机游戏、健康与安全、工业和教育等领域的应用,人工现实系统正变得越来越普遍。比如,人工现实系统正被整合到移动设备、游戏机、个人电脑、电影院和主题公园中。一般而言,人工现实是在呈现给用户之前以某种方式调整的现实的一种形式,其可包括例如虚拟现实(VR)、增强现实(AR)、混合现实(MR)、混合现实或其某些组合和/或衍生物。
典型的人工现实系统使用一个或多个设备与系统交互,并向一个或多个用户呈现和显示内容,但在现有技术中,仅能够实现用户-设备对称体验,即由用户佩戴的单一头戴式显示器(HMD)向用户输出人工现实内容,该种方式由于设备单一,使得仅能够以单一设备采集的现实世界中的数据为准,即使存在建模误差也不易被发现,因而整体人工现实精度不佳,影响用户体验。
因此,亟需一种能够实现非对称的用户体验,可以通过不同参与模式进行人工现实系统交互的多参与模式的人工现实系统。
发明内容
鉴于上述问题,本发明的目的是提供一种多参与模式的人工现实系统,以解决典型的人工现实系统使用一个或多个设备与系统交互,并向一个或多个用户呈现和显示内容,但在现有技术中,仅能够实现用户-设备对称体验,即由用户佩戴的单一头戴式显示器(HMD),向用户输出人工现实内容,该种方式由于设备单一,故仅以单一设备采集的现实世界中的数据为准,即使存在建模误差也不易被发现,因而整体人工现实精度不佳,影响用户体验的问题。
本发明提供的一种多参与模式的人工现实系统,包括可定位追踪头戴和服务器,所述可定位追踪头戴和所述服务器构成至少两种参与模式,所述参与模式包括第一参与模式和第二参与模式,其中,
所述服务器包括平板计算机和超级计算机;
在所述第一参与模式中,所述可定位追踪头戴与所述超级计算机相连;其中,所述可定位追踪头戴用于对三维空间环境进行扫描和建模生成三维地图数据;所述超级计算机用于接收所述三维地图数据,并根据所述三维地图数据生成三维环境地图;
在所述第二参与模式中,所述平板计算机、所述可定位追踪头戴分别与所述超级计算机相连接;其中,所述可定位追踪头戴用于扫描所述三维空间环境生成扫描图像,并获取自身的位置坐标;所述平板计算机用于在预设位置捕获所述三维空间环境中的图像数据;所述超级计算机用于根据所述图像数据对比所述位置坐标与所述预设位置的偏差,并针对所述偏差进行定位优化形成应用坐标,以基于所述应用坐标与所述扫描图像生成三维环境图。
优选地,还包括非可定位追踪头戴,
所述非可定位追踪头戴用于对所述三维空间环境进行扫描。
优选地,所述参与模式还包括第三参与模式,
在所述第三参与模式中,所述非可定位追踪头戴与所述平板计算机相同步,所述平板计算机、所述非可定位追踪头戴与所述超级计算机相连接。
优选地,所述平板计算机用于通过定位服务提供所述非可定位追踪头戴的跟踪数据,以使所述超级计算机根据所述跟踪数据获取所述非可定位追踪头戴与所述三维空间环境的位置映射,并根据所述位置映射生成三维环境图。
优选地,还包括网络装置,
所述网络装置与所述超级计算机相连接,所述超级计算机用于配置所述网络装置,以使所述可定位追踪头戴、所述非可定位追踪头戴、所述平板计算机和所述超级计算机处于同一局域网中。
优选地,在所述第一参与模式中,所述超级计算机采用分布式处理机制。
优选地,在所述第一参与模式中,所述三维环境地图由所述可定位追踪头戴展示;
在所述第二参与模式中,所述三维环境地图由所述平板计算机展示;
在所述第三参与模式中,所述三维环境地图由所述非可定位追踪头戴展示。
优选地,还包括校准模块,
所述校准模块用于对所述可定位追踪头戴进行参数校准,以使所述可定位追踪头戴根据所述校准参数对三维空间环境进行扫描和建模。
从上面的技术方案可知,本发明提供的多参与模式的人工现实系统包括可定位追踪头戴和服务器,并且可定位追踪头戴和服务器构成至少两种参与模式,参与模式包括第一参与模式和第二参与模式,即同一设备可应用在不同参与模式下,实现设备-用户的非对称用户体验,提高设备的利用率,且通过多种参与模式生成三维环境地图能够使三维环境地图更加精准无误,使该三维环境地图和实际三维空间环境的地图信息进行精准对应,渲染出和实际三维空间环境地图1:1对应的虚拟场景内容。
附图说明
通过参考以下结合附图的说明书内容,并且随着对本发明的更全面理解,本发明的其它目的及结果将更加明白及易于理解。在附图中:
图1为根据本发明实施例的多参与模式的人工现实系统的示意图。
具体实施方式
典型的人工现实系统使用一个或多个设备与系统交互,并向一个或多个用户呈现和显示内容,但在现有技术中,仅能够实现用户-设备对称体验,即由用户佩戴的单一头戴式显示器(HMD),向用户输出人工现实内容,该种方式由于设备单一,故仅以单一设备采集的现实世界中的数据为准,即使存在建模误差也不易被发现,因而整体人工现实精度不佳,影响用户体验。
针对上述问题,本发明提供一种多参与模式的人工现实系统,以下将结合附图对本发明的具体实施例进行详细描述。
为了说明本发明提供的多参与模式的人工现实系统,图1对本发明实施例的多参与模式的人工现实系统进行了示例性标示。
以下示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。对于相关领域普通技术人员已知的技术和设备可能不作详细讨论,但在适当情况下,所述技术和设备应当被视为说明书的一部分。
如图1所示,本发明实施例的多参与模式的人工现实系统100,包括可定位追踪头戴A和服务器,该可定位追踪头戴A和服务器110构成至少两种参与模式,该参与模式包括第一参与模式110和第二参与模式120,其中,
该服务器110包括平板计算机B和超级计算机D;
在第一参与模式110中,该可定位追踪头戴A与超级计算机D相连;该可定位追踪头戴A用于对三维空间环境进行扫描和建模生成三维地图数据;该超级计算机D用于接收该三维地图数据,并根据该三维地图数据生成三维环境地图;
在一个具体实施例中,该第一参与模式即一些用户的头戴式显示器有三维空间环境的定位追踪模块,也就是拥有该可定位追踪头戴A的用户,该类用户称为A类用户,根据A类用户设备的特点,结合A类用户头戴显示器内置的三维空间环境的定位追踪模块可以对三维空间环境进行扫描和建模,建模事件结束后,A类用户的每一个可定位追踪头戴A都具有一套三维空间环境模型地图数据(三维地图数据),然后把A类用户的每一个可定位追踪头戴A生成的三维空间环境模型地图数据发给超级计算机D进行处理,根据提前对A类用户的设备之间的校准参数,在超级计算机D上可以转换获取一个比较完整和丰富的三维空间环境地图,该校准参数的具体获取方式不做限制,在本实施例中,该多参与模式的人工现实系统100还包括校准模块,该校准模块用于对可定位追踪头戴A进行参数校准获取校准参数,以使可定位追踪头戴A根据该校准参数对三维空间环境进行扫描和建模;并且,在本实施例中,该超级计算机D可以采用分布式处理机制,即每一台超级计算机D可以处理整个生成三维环境地图任务的一部分,以提高整体处理效率。
在第二参与模式120中,该平板计算机B、可定位追踪头戴A与超级计算机D相连接;该可定位追踪头戴A用于扫描三维空间环境生成扫描图像,并获取自身的位置坐标;该平板计算机B用于在预设位置捕获三维空间环境中的图像数据;该超级计算机D用于根据图像数据对比位置坐标与预设位置的偏差,并针对该偏差进行定位优化形成应用坐标,以基于应用坐标与扫描图像生成三维环境图,在本实施例中,该第二参与模式即一些用户仅具有相机和有限资源的平板计算机B无法获取跟踪信息,在本实施例中将该类用户成为B类用户,虽然该B类用户仅拥有相机和平板计算机B,但可以通过借助上述A类用户的可定位追踪头戴A获取跟踪信息,即A类用户也在进行人工现实交互时,其可通过远程连接A类用户的可定位追踪头戴A来获取可定位追踪头戴A扫描三维空间环境所生成扫描图像,和可定位追踪头戴A自身的位置坐标,从而通过超级计算机D可以根据平板计算机B和可定位追踪头戴A的实际距离推算出图像数据的位置坐标与预设位置的偏差,并针对偏差进行定位优化形成应用坐标,以基于应用坐标与扫描图像生成三维环境图。
在图1所示的实施例中,还包括非可定位追踪头戴C,该非可定位追踪头戴C用于对该三维空间环境进行扫描,即除了A类用户、B类用户,还可以存在C类用户,C类用户即是仅拥有非可定位追踪头戴C的用户,换句话说,该C类用户拥有的头戴显示器并没有内置关于三维空间环境的定位追踪模块,即该非可定位追踪模块头戴C并没有定位追踪的功能,此时可以增加一种新的参与模式,即在本实施例中,该多参与模式的人工现实系统还包括第三参与模式130,在该第三参与模式130中,该非可定位追踪头戴C与平板计算机B相同步,该平板计算机B、该非可定位追踪头戴C与超级计算机D相连接,此时,该平板计算机B用于通过定位服务提供非可定位追踪头戴C的跟踪数据,以使超级计算机D根据跟踪数据获取非可定位追踪头戴C与三维空间环境的位置映射,并根据位置映射生成三维环境图。
此外,在图1所示的实施例中,关于可定位追踪头戴A、平板计算机B、非可定位追踪头戴C和超级计算机D的连接关系不作具体限制,在本实施例中,该多参与模式的人工现实系统100还包括网络装置,该网络装置与超级计算机D相连接,该超级计算机D用于配置该网络装置,以使该可定位追踪头戴A、非可定位追踪头戴C、平板计算机B和超级计算机D处于同一局域网中,实现无线连接。
如图1所示的实施例,在第一参与模式中,三维环境地图由可定位追踪头戴A展示,即A类用户通过其拥有的可定位追踪头戴A获取特定应用场景下超级计算机D所渲染的应用场景内容;在第二参与模式中,三维环境地图由平板计算机展示,即B类用户通过其拥有的平板计算机B获取特定应用场景下超级计算机D所渲染的应用场景内容;在第三参与模式中,该三维环境地图由非可定位追踪头戴C展示,即C类用户通过其拥有的非可定位追踪头戴C(虽不能定位但可以显示)获取特定应用场景下超级计算机D所渲染的应用场景内容。
通过上述实施方式可以看出,本发明提供的多参与模式的人工现实系统100包括可定位追踪头戴和服务器,并且可定位追踪头戴和服务器构成至少两种参与模式,该参与模式包括第一参与模式、第二参与模式和第三参与模式,即同一设备可应用在不同参与模式下,实现设备-用户的非对称用户体验,提高设备的利用率,且通过多种参与模式生成三维环境地图能够使三维环境地图更加精准无误,使该三维环境地图和实际三维空间环境的地图信息进行精准对应,渲染出和实际三维空间环境地图1:1对应的虚拟场景内容。
如上参照附图以示例的方式描述了根据本发明提出的多参与模式的人工现实系统。但是,本领域技术人员应当理解,对于上述本发明所提出的多参与模式的人工现实系统,还可以在不脱离本发明内容的基础上做出各种改进。因此,本发明的保护范围应当由所附的权利要求书的内容确定。
Claims (5)
1.一种多参与模式的人工现实系统,其特征在于,包括可定位追踪头戴、非可定位追踪头戴和服务器,所述可定位追踪头戴和所述服务器构成至少两种参与模式,所述参与模式包括第一参与模式和第二参与模式,其中,
所述服务器包括平板计算机和超级计算机;
在所述第一参与模式中,所述可定位追踪头戴与所述超级计算机相连;其中,所述可定位追踪头戴用于对三维空间环境进行扫描和建模生成三维地图数据;所述超级计算机用于接收所述三维地图数据,并根据所述三维地图数据生成三维环境地图;
在所述第二参与模式中,所述平板计算机、所述可定位追踪头戴分别与所述超级计算机相连接;其中,所述可定位追踪头戴用于扫描所述三维空间环境生成扫描图像,并获取自身的位置坐标;所述平板计算机用于在预设位置捕获所述三维空间环境中的图像数据;所述超级计算机用于根据所述图像数据对比所述位置坐标与所述预设位置的偏差,并针对所述偏差进行定位优化形成应用坐标,以基于所述应用坐标与所述扫描图像生成三维环境图;
所述非可定位追踪头戴用于对所述三维空间环境进行扫描;
还包括第三参与模式,在所述第三参与模式中,所述非可定位追踪头戴与所述平板计算机相同步,所述平板计算机、所述非可定位追踪头戴与所述超级计算机相连接;所述平板计算机用于通过定位服务提供所述非可定位追踪头戴的跟踪数据,以使所述超级计算机根据所述跟踪数据获取所述非可定位追踪头戴与所述三维空间环境的位置映射,并根据所述位置映射生成三维环境图。
2.如权利要求1所述的多参与模式的人工现实系统,其特征在于,还包括网络装置,
所述网络装置与所述超级计算机相连接,所述超级计算机用于配置所述网络装置,以使所述可定位追踪头戴、所述非可定位追踪头戴、所述平板计算机和所述超级计算机处于同一局域网中。
3.如权利要求2所述的多参与模式的人工现实系统,其特征在于,
在所述第一参与模式中,所述超级计算机采用分布式处理机制。
4.如权利要求3所述的多参与模式的人工现实系统,其特征在于,
在所述第一参与模式中,所述三维环境地图由所述可定位追踪头戴展示;
在所述第二参与模式中,所述三维环境地图由所述平板计算机展示;
在所述第三参与模式中,所述三维环境地图由所述非可定位追踪头戴展示。
5.如权利要求1所述的多参与模式的人工现实系统,其特征在于,还包括校准模块,
所述校准模块用于对所述可定位追踪头戴进行参数校准,以使所述可定位追踪头戴根据所述校准参数对三维空间环境进行扫描和建模。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110491564.XA CN113253840B (zh) | 2021-05-06 | 2021-05-06 | 多参与模式的人工现实系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110491564.XA CN113253840B (zh) | 2021-05-06 | 2021-05-06 | 多参与模式的人工现实系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113253840A CN113253840A (zh) | 2021-08-13 |
CN113253840B true CN113253840B (zh) | 2023-03-10 |
Family
ID=77223739
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110491564.XA Active CN113253840B (zh) | 2021-05-06 | 2021-05-06 | 多参与模式的人工现实系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113253840B (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109643014A (zh) * | 2016-03-30 | 2019-04-16 | 索尼互动娱乐股份有限公司 | 头戴式显示器追踪 |
CN111930223A (zh) * | 2019-05-13 | 2020-11-13 | 阿萨诺斯股份有限公司 | 用于观看计算机生成的环境并与其互动的可移动显示器 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10466953B2 (en) * | 2017-03-30 | 2019-11-05 | Microsoft Technology Licensing, Llc | Sharing neighboring map data across devices |
US10685456B2 (en) * | 2017-10-12 | 2020-06-16 | Microsoft Technology Licensing, Llc | Peer to peer remote localization for devices |
WO2019120488A1 (en) * | 2017-12-19 | 2019-06-27 | Telefonaktiebolaget Lm Ericsson (Publ) | Head-mounted display device and method thereof |
US10802579B2 (en) * | 2019-02-01 | 2020-10-13 | Facebook Technologies, Llc | Artificial reality system having multiple modes of engagement |
-
2021
- 2021-05-06 CN CN202110491564.XA patent/CN113253840B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109643014A (zh) * | 2016-03-30 | 2019-04-16 | 索尼互动娱乐股份有限公司 | 头戴式显示器追踪 |
CN111930223A (zh) * | 2019-05-13 | 2020-11-13 | 阿萨诺斯股份有限公司 | 用于观看计算机生成的环境并与其互动的可移动显示器 |
Also Published As
Publication number | Publication date |
---|---|
CN113253840A (zh) | 2021-08-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109584295A (zh) | 对图像内目标物体进行自动标注的方法、装置及系统 | |
JP4739002B2 (ja) | 画像処理方法、画像処理装置 | |
JP4059513B2 (ja) | 没入型仮想環境において注視を伝達する方法およびシステム | |
US11508128B2 (en) | Shared room scale virtual and mixed reality storytelling for a multi-person audience that may be physically co-located | |
Bajana et al. | Mobile tracking system and optical tracking integration for mobile mixed reality | |
CN106201259A (zh) | 一种虚拟现实系统中分享全景影像的方法和装置 | |
US20130257686A1 (en) | Distributed virtual reality | |
JP2019509540A (ja) | マルチメディア情報を処理する方法及び装置 | |
Hess | Head-tracking techniques for virtual acoustics applications | |
Blach | Virtual reality technology-an overview | |
CN113253840B (zh) | 多参与模式的人工现实系统 | |
KR102176805B1 (ko) | 뷰 방향이 표시되는 vr 컨텐츠 제공 시스템 및 방법 | |
WO2022176720A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
CN113256773B (zh) | 表面网格扫描及显示方法、系统及装置 | |
Makled et al. | Investigating user embodiment of inverse-kinematic avatars in smartphone augmented reality | |
CN109427093B (zh) | 一种混合现实系统 | |
WO2020166352A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
Chippendale et al. | VENTURI–immersiVe ENhancemenT of User-woRld Interactions | |
US20230316659A1 (en) | Traveling in time and space continuum | |
US12020667B2 (en) | Systems, methods, and media for displaying interactive augmented reality presentations | |
State et al. | The A-Desk: A Unified Workspace of the Future | |
Chiday | Developing a Kinect based Holoportation System | |
US20210312887A1 (en) | Systems, methods, and media for displaying interactive augmented reality presentations | |
EP4099275A1 (en) | Information processing device, information processing system, and information processing method | |
Pensyl et al. | Large area robust hybrid tracking with life-size avatar in mixed reality environment: for cultural and historical installation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |