CN108693953A - 一种增强现实ar投影方法及云端服务器 - Google Patents

一种增强现实ar投影方法及云端服务器 Download PDF

Info

Publication number
CN108693953A
CN108693953A CN201710115441.XA CN201710115441A CN108693953A CN 108693953 A CN108693953 A CN 108693953A CN 201710115441 A CN201710115441 A CN 201710115441A CN 108693953 A CN108693953 A CN 108693953A
Authority
CN
China
Prior art keywords
terminals
cloud server
object profile
target
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710115441.XA
Other languages
English (en)
Inventor
张立斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Priority to CN201710115441.XA priority Critical patent/CN108693953A/zh
Publication of CN108693953A publication Critical patent/CN108693953A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets

Abstract

本申请实施例公开了一种增强现实AR投影方法及云端服务器,用于节省传输带宽。本申请实施例方法包括:云端服务器确定位置关系,位置关系为第一AR终端与目标3D影像在空间位置坐标系中的坐标关系,空间位置坐标系为根据空间位置信息建立的坐标系,空间位置信息由第二AR终端当前所处物理空间的空间数据得到,第二AR终端的数量为至少一个,第一AR终端为第二AR终端中的至少一个AR终端;云端服务器根据位置关系确定目标剖面的画面内容,目标剖面为将要在第一AR终端上进行投影的,目标3D影像的剖面;云端服务器将目标剖面的画面内容传输至第一AR终端,以使得第一AR终端利用目标剖面的画面内容对目标3D影像进行投影。

Description

一种增强现实AR投影方法及云端服务器
技术领域
本申请涉及增强现实技术领域,尤其涉及一种增强现实AR投影方法及云端服务器。
背景技术
增强现实(英文全称:Augmented Reality,英文简称:AR)技术就是将计算机生成的虚拟场景呈现在现实场景上,实现虚拟场景与现实场景的融合;在AR系统中,利用AR终端如AR眼镜采集场景对应的空间位置信息,然后采用跟踪定位方法如即时定位与地图构建(英文全称:Simultaneous LocalizationAnd Mapping,英文简称:SLAM)根据AR眼镜采集的空间位置信息完成对场景的构建和跟踪;利用激光原理和摄影测量原理得到场景中的每个采样点的空间坐标,得到每一采样点对应的点云(英文全称:Point Cloud,英文简称:PC)并合成3D影像构成的虚拟场景将其投影在AR眼镜上,通过AR眼镜中的光学系统将3D影像放大后进入人的眼睛,最后虚拟场景与现实场景汇聚在视网膜上,从而形成虚实融合的成像效果。
现有技术中,当AR眼镜在投影当前3D影像时,当前3D影像的全部剖面的视频码流都会被传输至AR眼镜上,因此,不在当前AR眼镜视角范围内的3D影像的剖面的视频码流也会被传输至AR眼镜上。
在现有技术中,将不需要投影的视频码流如在AR眼镜视角范围内但AR眼镜看不到的3D影像的剖面的视频码流和不在AR眼镜视角范围内的3D影像的剖面的视频码流,传输至AR眼镜上导致浪费了大量的传输带宽。
发明内容
本申请实施例提供了一种增强现实AR投影方法及云端服务器,用于节省传输带宽。
第一方面,本申请实施例提供了一种增强现实AR投影方法,包括:
首先,云端服务器确定第一AR终端与目标3D影像在空间位置坐标系中的位置关系,空间位置坐标系是根据第二AR终端采集其自身当前所处物理空间中的空间位置信息建立的,第二AR终端的数量为至少一个,第一AR终端为第二AR终端中的至少一个AR终端;
然后,云端服务器根据位置关系确定目标剖面的画面内容,目标剖面是将要在第一AR终端上进行投影的,目标3D影像的剖面;
最后,云端服务器将目标剖面的画面内容传输至第一AR终端,以使得第一AR终端利用目标剖面的画面内容对目标3D影像进行AR投影。
从以上技术方案可以看出,本申请实施例具有以下优点:
云端服务器传输的画面内容为将要在第一AR终端上进行投影的目标剖面的画面内容,可以理解的是目标剖面仅仅是目标3D影像中的一部分剖面,从而,云端服务器将目标3D影像中的目标剖面的画面内容传输至第一AR终端,因此本申请实施例AR投影方法中需要传输的目标3D影像的数据量变得更少,节省了大量的传输带宽,可以更快速地将目标剖面信息传输至第一AR终端。
在一种可能的设计中,在本申请实施例的第一方面的第一种可能的实现方式中,云端服务器将目标剖面的画面内容传输至第一AR终端包括:
第二AR终端的数量可以是一个,也可以是多个,当只有一个第二AR终端时,第一AR终端即为此唯一的一个第二AR终端,此种情况下,云端服务器将目标剖面的内容传输至第一AR终端即第二AR终端;当有多个第二AR终端时,第一AR终端为向云端服务器请求发送3D影像的画面内容的AR终端,此种情况下,云端服务器将目标3D影像对应的目标剖面的画面内容,传输至第一AR终端。
在此种可能的实现方式中,目标剖面的画面内容的传输对象是那些请求发送3D影像的画面内容的AR终端,并不是所有的第二AR终端都需要传输目标剖面的画面内容。
在一种可能的设计中,在本申请实施例的第一方面的第二种可能的实现方式中,云端服务器将目标剖面的画面内容传输至第一AR终端包括:
目标3D影像可以为多种数据形态的方式存储于云端服务器上,但均存在质量高低之分,若目标3D影像的数据形态为点云时,云端服务器将高密度点云对应的目标剖面的画面内容发送至第一AR终端,点云密度对应空间分辨率,密度越高,空间分辨率越高,将其编解码得到的目标剖面的画面内容越清晰;同理,密度越低,空间分辨率也就越低,将其编解码得到的目标剖面的画面内容越不清晰。
还需要说明的是,对于目标3D影像的非目标剖面的画面内容,云端服务器可以将低密度点云对应的画面内容传输至第一AR终端,或者云端服务器不传输非目标剖面的画面内容至第一AR终端。
云端服务器只传输高密度点云对应的目标剖面的画面内容,或,传输高密度点云对应目标剖面的画面内容和低密度点云对应的非目标剖面的画面内容,至第一AR终端,这样可以大量的节省传输带宽。
在一种可能的设计中,在本申请实施例的第一方面的第三种可能的实现方式中,云端服务器将目标剖面的画面内容传输至第一AR终端包括:
若目标3D影像对应的数据形态为视频,云端服务器将高质量对应的目标剖面的画面内容传输至第一AR终端,对于,目标3D影像的非目标剖面而言,云端服务器可以将低质量对应的画面内容传输至第一AR终端,或者,云端服务器不传输其画面内容至第一AR终端。
需要说明的是,高质量和低质量是相对的,从分辨率角度看,可以用4K甚至8K等超高清分辨率来作为高质量视频传输;而1080P等高清作为低质量传输;还可以用1080P等高清作为高质量传输,而用720P以下分辨率的标清作为低质量传输;从帧频角度看,可以用120帧频等刷新率较高的帧率来进行高质量视频传输,而90帧频等刷新率相对低的帧率来进行相对低质量视频传输;还可以用90帧频来进行高质量视频传输,而用60帧频来进行低质量视频传输;此外,还需要说明的是,在实际使用时,一般有三种实际的使用方式:一、分辨率相同,帧频高表示高质量,帧频低表示低质量;二、帧频相同,分辨率高表示高质量,分辨率低表示低质量;三、帧频和分辨率都高表示高质量,帧频和分辨率都低表示低质量。
在一种可能的设计中,在本申请实施例的第一方面的第四种可能的实现方式中,云端服务器将目标剖面的画面内容传输至第一AR终端包括:
当目标剖面对应的数据形态是视频,并且视频是通过分层编解码技术得到的时,云端服务器对目标剖面的3D视频图像按照“核心层+增强层”的方式发送视频码流给第一AR眼镜;对于非目标剖面的画面内容而言,云端服务器可以将非当前剖面的3D视频图像采用“核心层”或者“核心层+部分增强层”的方式发送视频码流给第一AR眼镜,或者,也可以不发送。
当目标剖面对应的数据形态是视频时,上述两种可能的实现方式,都使得传输至第一AR终端的数据量大量减少,从而在一定程度上节省了大量的传输带宽,可以更加快速的将目标剖面的画面内容传输至第一AR终端,以使得第一AR终端使用目标剖面的画面内容对目标3D影像进行AR投影。
在一种可能的设计中,在本申请实施例的第一方面的第五种可能的实现方式中,在云端服务器确定位置关系之前还包括:
云端服务器根据空间位置信息建立空间位置坐标系。
空间位置坐标系由云端服务器建立,当有多个AR终端时,与空间位置坐标系由各自AR终端建立相比较而言,上述实现方式可以有效地减少由于空间位置坐标系不统一而导致的各AR终端的空间位置坐标之间的误差。
在一种可能的设计中,在本申请实施例的第一方面的第六种可能的实现方式中,云端服务器确定为位置关系包括:
首先,云端服务器先根据已建立的空间位置坐标系得到第一AR终端和目标3D影像的空间位置坐标,然后,云端服务器使用上述两个空间位置坐标进行计算得到第一AR终端和目标3D影像的位置关系。
该实现方式中云端服务器自己获取两个空间位置坐标,并由云端服务器进行计算得到第一AR终端和目标3D影像的位置关系,提供了一种位置关系的确定方法。
在一种可能的设计中,在本申请实施例的第一方面的第七种可能的实现方式中,云端服务器确定为位置关系包括:
首先,云端服务器先从已建立的空间位置坐标系中确定第一AR终端和目标3D影像的空间位置坐标,然后,云端服务器将上述两个坐标信息发送至对应的第一AR终端,第一AR终端接收到上述两个位置坐标信息之后,第一AR终端对上述两个位置坐标进行计算得到第一AR终端与目标3D影像之间的位置关系,最后第一终端将计算得到的上述位置关系发送至云端服务器,以使得云端服务器获知第一AR终端与目标3D影像之间的位置关系。
该实现方式中云端服务器自己获取两个空间位置坐标,并发送至第一AR终端,并由第一AR终端进行计算得到第一AR终端和目标3D影像的位置关系,并发送至云端服务器,提供了一种位置关系的确定方法。
在一种可能的设计中,在本申请实施例的第一方面的第八种可能的实现方式中,当第二AR终端的数量为一个时,第一AR终端为第二AR终端,此时,云端服务器确定位置关系包括:
首先,第一AR终端根据空间位置信息建立空间位置坐标系,其次,第一AR终端可以根据已建立的空间位置坐标系进行计算得到第一AR终端与目标3D影像之间的位置关系,并将上述位置关系发送至云端服务器,或,云端服务器根据第一AR终端建立的空间位置坐标系进行计算得到上述位置关系。
该种可能的实现方式中,在AR终端的数量只有一个的情况下,在AR终端建立空间位置坐标系的基础之上,AR终端与目标3D影像之间的位置关系既可以有第一AR终端进行计算得到,也可以由云端服务器进行计算得到。
在一种可能的设计中,在本申请实施例的第一方面的第九种可能的实现方式中,云端服务器根据位置关系确定目标剖面的画面内容之前,还包括:
云端服务器基于第一AR终端的运动速度来改变目标剖面的剖面面积大小,另外,本文中的刨面面积实际对应的是剖面的剖面画面范围,刨面面积大,指的是剖面的范围大,如下文所述的当前视角观察不到的剖面也可以纳入当前剖面范围,以适应某些情况的处理。
在一种可能的设计中,在本申请实施例的第一方面的第十种可能的实现方式中,云端服务器基于第一AR终端的运动速度来改变目标剖面的剖面面积大小包括:
云端服务器预先设置一个阈值即第一预设阈值,第一预设阈值为运动速度值,当第一AR终端的运动速度大于第一预设阈值时,云端服务器可以适当增加目标剖面的剖面面积,以使得云端服务器传输更多的画面内容至第一AR终端。
在该种实现方式中,云端服务器可以根据第一AR终端的运动速度大小来改变目标剖面的画面内容,当其运动速度大于第一预设阈值时,云端服务器适当增加目标剖面的剖面面积,因此,当AR眼镜用户快速移动时,仍然不会影响AR眼镜用户对目标剖面的画面内容的观感,有效地提高了用户体验。
在一种可能的设计中,在本申请实施例的第一方面的第十一种可能的实现方式中,云端服务器根据位置关系确定目标剖面的画面内容之前,还包括:
基于网络状况来改变目标剖面的面积大小。
在一种可能的设计中,在申请实施例的第一方面的第十二种可能的实现方式中,网络状况包括网络时延或网络传输带宽;云端服务器基于网络状况来改变目标剖面的面积大小包括:
首先,当网络状况对应网络传输时延时,云端服务器预先设置一个第二预设阈值,若网络传输时延大于第二预设阈值,则云端服务器增加目标剖面的剖面面积;或,当网络状况对应网络传输带宽时,云端服务器预先设置一个第三预设阈值,若网络传输带宽小于第三预设阈值,则云端服务器减少目标剖面的剖面面积。
与本申请实施例的第一方面的第十种可能的实现方式类似,该种可能的实现方式同样有效地提高了用户体验。
在一种可能的设计中,在本申请实施例的第一方面的第十三种可能的实现方式中,云端服务器根据位置关系确定目标剖面的画面内容之前,还包括:
云端服务器基于目标3D影像的变化程度来改变所述目标剖面的面积大小。
在一种可能的设计中,在本申请实施例的第一方面的第十四种可能的实现方式中,云端服务器基于目标3D影像的变化程度来改变所述目标剖面的面积大小包括:
云端服务器预先设置一个3D影像的变化程度对应的第四预设阈值,当目标3D影像的变化程度大于第四预设阈值时,云端服务器增加目标剖面的剖面面积,目标3D影像的变化程度越大,增加的目标剖面的面积也就越大。
与本申请实施例的第一方面的第十种可能的实现方式类似,该种可能的实现方式同样有效地提高了用户体验。
第二方面,本申请实施例提供一种云端服务器,该云端服务器具有实现上述方法实施例中云端服务器行为的功能。该功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。该硬件或软件包括一个或多个与上述功能相对应的模块。
第三方面,本申请实施例提供一种云端服务器,包括:处理器、存储器、总线和通信接口;该存储器用于存储计算机执行指令,该处理器与该存储器通过该总线连接,当该云端服务器运行时,该处理器执行该存储器存储的该计算机执行指令,以使该云端服务器执行如上述第一方面任意一项的传输网络中业务QOS的控制方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,用于储存为上述云端服务器所用的计算机软件指令,当其在计算机上运行时,使得计算机可以执行上述第一方面中任意一项的传输网络中业务QOS的控制方法。
第五方面,本申请实施例提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机可以执行上述第一方面中任意一项的传输网络中业务QOS的控制方法。
另外,第二方面至第五方面中任一种设计方式所带来的技术效果可参见第一方面中不同设计方式所带来的技术效果,此处不再赘述。
附图说明
图1为本申请实施例中一个AR投影系统示意图;
图2为本申请实施例中AR投影方法的一个实施例示意图;
图3为本申请实施例中AR投影方法的另一个实施例示意图;
图4为本申请实施例中AR投影方法的另一个实施例示意图;
图5为本申请实施例中另一个AR投影示意图;
图6为本申请实施例中云端服务器的一个实施例示意图;
图7为本申请实施例中云端服务器的另一个实施例示意图;
图8为本申请实施例中云端服务器的另一个实施例示意图。
具体实施方式
本申请实施例提供了一种增强现实AR投影方法及云端服务器,用于节省传输带宽。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
本申请实施例提供了一种增强现实AR投影方法及云端服务器,对于以下实施例中的AR终端均以AR眼镜为例来进行说明,当然也可以是其他形式的AR终端,本申请不做限制。请参阅图1对本申请实施例进行说明,包括:至少两个AR眼镜(AR眼镜实体一和AR眼镜实体二)和云端服务器。
首先,云端服务器确定AR眼镜实体一与目标3D影像之间的位置关系。具体来说,云端服务器分别接收来自AR眼镜实体一和AR眼镜实体二所采集的物理空间中的空间数据,并由云端服务器从由上述空间数据构成的空间位置坐标系中,分别确定AR眼镜实体一和AR眼镜实体二的空间位置坐标,可以理解的是,云端服务器可由AR眼镜实体一和AR眼镜实体二的空间位置坐标可以获知两个AR眼镜之间的空间位置关系,同理,当其中AR眼镜实体一需要投影在上述空间位置坐标系中的影像时,该影像也会有对应的一个空间位置坐标,云端服务器同样可以获知AR眼镜实体一与该影像之间的位置关系。
其次,云端服务器根据上述位置关系确定目标剖面的画面内容。具体来说,假设AR眼镜实体一需要投影AR眼镜实体二正前方的三维物体(以一个显示器为例,显示器正面是AR眼镜实体二佩戴者可以看到的,显示器的背面是AR眼镜实体二佩戴者看不到的),那么云端服务器便将该显示屏的正面确定为目标剖面,而不是将整个显示屏(包括正面和背面),可以理解的是,显示屏的背面对于AR眼镜实体二佩戴者来说是不可见的。
最后,云端服务器将目标剖面的画面内容传输至AR眼镜实体一。当云端服务器确定目标剖面的画面内容之后,云端服务器便将目标剖面对应的画面内容传输至AR眼镜实体一,以上述显示器为了来进行具体说明,云端服务器将显示屏正面的画面内容传输至AR眼镜实体一,可以理解的是,至于显示屏背面的画面内容对应的数据流由于对于AR眼镜实体一佩戴者来说是也是不可见的,可以传输至AR眼镜实体一,也可以不传输至AR眼镜实体一。
AR眼镜实体一接收到云端服务器发送的目标剖面的换面内容之后,AR眼镜实体一将其投影出来。可以理解的是,AR眼镜实体一将上述显示屏正面的画面内容进行投影之后,AR眼镜实体一佩戴者就可以看到AR眼镜实体二佩戴者正前方的显示屏,从而只是需要传输显示屏正面的画面内容就可以达到相应的技术效果。
由上述实施例的实现过程来说,可以理解的是,云端服务器只将目标剖面的画面内容(如上述显示屏正面的画面内容)传输至第一AR终端,便可以达到使得第一AR眼镜佩戴者看到第二AR眼镜佩戴者正前方的显示屏的效果,而不需要将整个显示屏(包括显示屏正面和显示屏背面),因此,本申请实施例可以有效地节省大量的网络传输带宽。
为了便于理解本申请实施例中一种增强现实AR投影方法,请参阅图2对本申请实施例中一种增强现实AR投影方法进行详细说明,包括:
201、云端服务器根据空间位置信息建立空间位置坐标系。
本实施例中,第二AR眼镜采集当前所处物理空间中的空间数据,并将上述空间数据传输至云端服务器。
其中,第二AR眼镜的数量是任意的,可以是一个AR眼镜,也可以是多个AR眼镜,可以理解的是,第二AR眼镜将采集到的空间数据传输至云端服务器;在云端服务器接收到第二AR眼镜上传的空间数据之后,云端服务器便可根据上述空间数据进行SLAM建模得到空间位置坐标系。
可以理解的是,随着第二AR眼镜数量的增多,采集到的空间位置信息也就越多,从而,SLAM建模得到的空间位置坐标系的精准度也会随之提高;空间位置坐标系中包括第二AR眼镜的位置信息和第二AR眼镜周边的3D影像的位置信息。
还需要说明的是,当只有一个第二AR眼镜时,第二AR眼镜也可以根据自身采集到的空间数据进行SLAM建模得到空间位置坐标系,对此此处不做限定。
202、云端服务器根据空间位置坐标系确定位置关系。
本实施例中,当空间位置坐标系建立之后,云端服务器从空间位置坐标系中获取第一AR眼镜的空间位置坐标,第一AR眼镜为第二AR眼镜中向云端服务器请求发送画面内容的AR眼镜。
云端服务器获取目标3D影像的空间位置坐标,目标3D影像为第一AR眼镜要进行AR投影的3D影像,目标3D影像的空间位置坐标的确定方式有很多,对此此处不做限定。
一种可能的确定方式中,如目标3D影像为一个机械臂,一种可能的实现方式是在机械臂上放置一个二维码,第一AR眼镜可以基于自带的摄像头采集到上述二维码,第一AR眼镜将扫描的二维码信息(不仅仅是二维码本身,还包括二维码的深度传感器信息),这样云端服务器就可以基于二维码的深度传感器信息来确定机械臂的空间位置坐标。最后,云端服务器通过对第一AR眼镜的空间位置坐标和目标3D影像的空间位置坐标进行计算便可以得到第一AR眼镜和目标3D影像的位置关系。
需要说明的是,对于第一AR眼镜和目标3D影像的位置关系的计算还可以有第一AR眼镜来进行,对此此处不做限定。
另一种可能的确定方式中,云端服务器获取目标3D影像和第一AR眼镜的空间位置坐标,并将上述两个空间位置坐标发送至第一AR眼镜。第一AR眼镜根据云端服务器发送的上述两个空间位置坐标进行坐标计算,得到第一AR眼镜与目标3D影像之间的位置关系之后,第一AR终端将上述位置关系发送至云端服务器。
203、云端服务器根据位置关系确定目标剖面的画面内容。
本实施例中,在云端服务器确定第一AR眼镜和目标3D影像的位置关系之后,云端服务器根据上述位置关系确定第一AR眼镜可以看到目标3D影像的剖面为目标剖面,进一步确定目标剖面对应的画面内容。
此外,云端服务器还可以基于第一AR眼镜运动速度改变目标剖面的面积大小。不同的AR眼镜佩戴者在当前业务场景下的移动习惯是不一样的,有些人习惯慢慢移动,有些人习惯快速移动。
在这种体验场景下,可以考虑基于AR眼镜的移动速度确定目标剖面的面积大小。如:首先,云端服务器确定人的移动速度,该移动速度可以用cm/s来表示,假如为a cm/s。比如当前为50cm/秒,即每秒钟移动了50cm(空间移动,其他方向性的移动不做具体展开,实际效果类似)。特别的该当前移动速度可以基于当前某一时间段内的平均速度来表示;然后,云端服务器确定3D剖面到AR眼镜的传输时间,假如为b秒。
其次,云端服务器确定在传输时间内第一AR眼镜相对目标3D影像的空间位置变化为:c=a*b cm,即基于此位置变化可以估计第一AR眼镜新的空间坐标范围(X,Y,Z)。
最后,云端服务器基于此位置变化(即新的空间坐标范围),第一AR眼镜算出下一次第一AR眼镜有可能的剖面的画面内容C,则将画面内容C与当前所请求的剖面的画面内容C0一起作为目标剖面的画面内容(C+C0),需要说明的是,上述参数是基于第一AR眼镜采集并上传的空间数据实时计算得到。
可选的,云端服务器还可以基于目标3D影像的变化程度改变目标剖面的面积大小,如果当前目标3D影像本身的变化程度较为剧烈,那么意味着呈现给第一AR眼镜佩戴者的目标剖面可能快速发生变化,那么需要增加一些剖面范围以适应这些变化。
目标3D影像的变化情况由云端服务器监控并确定,一种可能的监控方法是:云端服务器判断同一剖面上相邻帧内容的变化幅度,可以设置一个阈值,如果两帧之间相似度低于90%,则认为该3D影像变化较快,类似的,可以将变化幅度分级,每一级别都可以对应不同的剖面确定方法,原则就是内容变化越剧烈,对应的目标剖面范围越大。
云端服务器还可以基于网络状况改变目标剖面的面积大小,如果第一AR眼镜和云端服务器之间的网络时延较大且超过预设的阈值(带宽非瓶颈时),则可以适当增大目标剖面的范围,以抵消网络时延导致的目标剖面传输不及时;如果第一AR眼镜和云端服务器之间的网络传输条件差,如带宽不足,网络带宽小于预设的阈值,则云端服务器可以缩小目标剖面范围,避免进一步恶化目标剖面呈现效果。
204、云端服务器将目标剖面的画面内容传输至第一AR眼镜。
本实施例中,在云端服务器确定目标剖面的画面内容之后,云端服务器将高质量的目标剖面的画面内容传输至第一AR眼镜进行AR投影,同时,云端服务器将低质量的目标3D影像其他非目标剖面传输至第一AR眼镜或者不传输。云端服务器将目标剖面的画面内容传输至第一AR眼镜具体可能的传输方式有如下几种:
一种可能的传输方式,当目标剖面对应的数据形态为点云时,目标剖面对应的点云密度高表示高质量,点云密度低表示低质量。低密度点云可以基于高密度点云做采样得到。密度对应空间分辨率,密度高对应高空间分辨率,反之密度低对应低空间分辨率,因此,云端服务器可以将高密度点云对应的目标剖面的画面内容传输至第一AR眼镜,同时就,低密度点云对应的非目标剖面的画面内容传输至第一AR眼镜,或者,不传输非目标剖面的画面内容。
一种可能的传输方式,当目标剖面对应的数据形态为视频时,从分辨率角度看,可以用4K甚至8K等超高清分辨率来作为高质量视频传输;而1080P等高清作为低质量传输;还可以用1080P等高清作为高质量传输,而用720P以下分辨率的标清作为低质量传输;从帧频角度看,可以用120帧频等刷新率较高的帧率来进行高质量视频传输,而90帧频等刷新率相对低的帧率来进行相对低质量视频传输;还可以用90帧频来进行高质量视频传输,而用60帧频来进行低质量视频传输;此外,还需要说明的是,在实际使用时,一般有三种实际的使用方式:一、分辨率相同,帧频高表示高质量,帧频低表示低质量;二、帧频相同,分辨率高表示高质量,分辨率低表示低质量;三、帧频和分辨率都高表示高质量,帧频和分辨率都低表示低质量。
一种可能的传输方式,当目标剖面对应的数据形态为视频时,并且视频是通过分层编码得到时,云端服务器对目标剖面的3D视频图像按照“核心层+增强层”的方式发送视频码流给第一AR眼镜;云端服务器对非当前剖面的3D视频图像采用“核心层”或者“核心层+部分增强层”的方式发送视频码流给第一AR眼镜,或者,也可以不发送;需要说明的是,目标剖面所需传输的“核心层+增强层”码流可以是“核心层+所有增强层”也可以是“核心层+部分增强层”,如果是后者,那么也要保证目标剖面的“核心层+部分增强层”码流解码出来的视频图像质量不差于非目标剖面“核心层+部分增强层”码流解码出来的视频图像质量,最后,还需要说明的是,引用视频分层编解码,其中设置各层编解码质量可以如下(增强层可能有多个,这里不再穷尽描述):“核心层”编解码质量为标清;“核心层+增强层1”编解码质量为高清;“核心层+增强层1+增强层2”编解码质量为超高清。
本实施例中,云端服务器传输的画面内容为将要在AR眼镜上进行投影的目标剖面的画面内容,可以理解的是目标剖面仅仅是目标3D影像中的一部分剖面,从而,云端服务器不将低质量的非目标剖面的画面内容传输至AR眼镜或不传输非目标剖面的画面内容至第一AR眼镜,因此本申请实施例AR投影方法中需要传输的目标3D影像的数据量变得更少,节省了大量的传输带宽,可以更快速地将目标剖面的画面内容传输至第一AR眼镜。
图2对应的实施例从云端服务器建立空间位置坐标系的角度对本申请实施例进行了详细说明,下面对从当只有一个AR眼镜时,其中,空间位置坐标系可以由云端服务器建立之外,还可以有AR眼镜去计算构建。
请参阅图3对本申请实施例中一种增强现实AR投影方法进行详细说明,包括:
301、AR眼镜根据空间位置信息建立空间位置坐标系。
本实施例中,当第二AR眼镜的数量只有一个时,AR眼镜采集当前所处物理空间中的空间数据,并根据采集到的空间数据进行SLAM建模得到空间位置坐标系,该步骤与上述步骤201类似,可参阅上述步骤201。
还需要说明的是,在AR眼镜采集到当前物理空间中的空间数据之后,AR眼镜还可以将上述空间数据发送至云端服务器,以使得云端服务器根据上述空间数据建立空间位置坐标系,对此此处不做限定。
302、AR眼镜根据空间位置坐标系确定位置关系。
本实施例中,在AR眼镜建立空间位置坐标系之后,AR眼镜从空间位置坐标系中获取自身的空间位置坐标和目标3D影像的空间位置坐标,目标3D影像为AR眼镜要进行AR投影的3D影像,目标3D影像的空间位置坐标的确定方式有很多,对此此处不做限定。
一种可能的实现方式中,第一AR终端获取目标3D影像和第一AR眼镜的空间位置坐标,并将上述两个空间位置坐标发送至云端服务器。云端服务器根据第一AR终端发送的上述两个空间位置坐标进行坐标计算,得到第一AR眼镜与目标3D影像之间的位置关系之后,云端服务器将上述位置关系发送至第一AR终端。
303、AR眼镜根据位置关系向云端服务器请求目标剖面的画面内容。
本实施例中,当AR眼镜获知自身与目标3D影像之间的位置关系时,AR眼镜便可以从上述位置关系中确定自身可以看到的目标3D影像的剖面即目标剖面,AR眼镜通过自身计算得到目标剖面,然后AR眼镜向云端服务器发送请求,用于请求获取目标剖面的画面内容。
此外,还需要说明的是,AR眼镜也可以类似上述步骤203中改变目标剖面的面积大小的方式一样改变目标剖面的面积大小,对此此处不做限定。
304、云端服务器将目标剖面的画面内容传输至AR眼镜。
本实施例中,在云端服务器接收到AR眼镜发送的用于请求目标剖面的画面内容的请求消息之后,云端服务器根据上述请求消息确定目标剖面的画面内容,并将目标剖面的画面内容传输至AR眼镜。
另外,需要说明的是,云端服务器可以根据画面内容的不同数据形态,如点云,或视频,云端服务器将目标剖面的画面内容传输至AR眼镜,具体的传输方法与上述步骤204中描述的传输方法类似,对此此处不做限定。
本实施例中,当只有一个AR眼镜时,空间位置坐标系可以有AR眼镜建立,对于AR眼镜与目标3D影像的位置关系的计算既可以由AR眼镜进行计算得到,也可以由云端服务器进行计算得到,因此,本申请实施例中AR投影方法的实现方式更加灵活,多变,同时降低了在点对点模式下,目标剖面的画面内容对应的网络传输带宽。
图3对应的实施例对只有一个AR眼镜的场景,提出了一种可能的实现方式,不难理解,AR眼镜会有一个视野范围,对于AR眼镜佩戴者而言,AR眼镜佩戴者只能看到AR眼镜视野范围内的影像,因此,对于AR眼镜而言,AR眼镜只需对在其视野范围内的影像进行投影即可,下面将结合AR眼镜佩戴者或者AR眼镜的视野范围,对本申请实施例中的AR投影方法进行详细说明。
请参阅图4对本申请实施例中一种增强现实AR投影方法进行详细说明,包括:
401、云端服务器根据空间位置信息建立空间位置坐标系。
本实施例中,该步骤与上述步骤201类似,对此此处不再赘述。
402、云端服务器根据空间位置坐标系计算AR眼镜的可视视角范围。
本实施例中,AR眼镜所采集的空间数据中还包括AR眼镜的姿态信息即AR眼镜的当前视角,当前视角可以是以AR眼镜的空间位置坐标为原点的另外一个空间位置坐标。
403、云端服务器根据可视视角范围确定目标剖面的画面内容。
本实施例中,AR眼镜基于上述可视视角获得3D影像是否在AR眼镜的当前视野范围内,将位于当前视野范围内的3D影像确定为目标3D影像,进而根据上述可视视角确定AR眼镜可以看见目标3D影像的目标剖面,进而确定目标剖面的画面内容。
404、云端服务器将目标剖面的画面内容传输至AR眼镜。
本实施例中,云端服务器将目标剖面的画面内容传输至AR眼镜,具体传输方法类似上述步骤204,此处不再赘述。
本实施例中,还需要说明的是,如图5所示,2为云端服务器,4为AR眼镜佩戴者,1表示AR眼镜将其采集到的空间数据传输至云端服务器,3表示云端服务器将目标剖面的画面内容传输至AR眼镜,i,ii,iii分别为三个不同的画面内容。
其中,在AR眼镜显示目标剖面的画面内容时,i在AR眼镜的可视视角范围内,并且是主要注视点的内容,等同于目标剖面的画面内容,因此采用高质量呈现(3中传输时就是高质量的画面内容);ii在AR眼镜的可视视角范围内,但不是主要注视点的内容,等同于非目标剖面的画面内容,可以采用低质量呈现(3中传输时就是低质量的画面内容);iii完全不在AR眼镜的可视视角范围内的内容,等同于非目标剖面的画面内容,可以采用低质量呈现(3中传输时就是低质量)也可以不传输。
本实施例中,基于当前AR眼镜的可视视角范围进行AR投影,进一步降低了目标剖面的网络传输带宽。
其中,上述步骤101至步骤104,和步骤201至步骤204,和步骤301至步骤304中策略实体的动作可以由图8所示的云端服务器8中的处理器801调用存储器803中存储的应用程序代码来执行,本申请实施例对此不作任何限制。
在上面的实施例中,对本申请实施中AR投影方法进行了说明,下面将对本申请实施例中云端服务器进行详细说明。
请参阅图6,对本申请实施例中云端服务器进行详细说明,包括:
第一确定单元601,用于确定位置关系,该位置关系为第一AR终端与目标3D影像在空间位置坐标系中的坐标关系,该空间位置坐标系为根据空间位置信息建立的坐标系,该空间位置信息由第二AR终端当前所处物理空间的空间数据得到,该第二AR终端的数量为至少一个,该第一AR终端为该第二AR终端中的至少一个AR终端;
第二确定单元602,用于根据该位置关系确定目标剖面的画面内容,该目标剖面为将要在该第一AR终端上进行投影的,该目标3D影像的剖面;
第一传输单元603,用于将该目标剖面的画面内容传输至该第一AR终端,以使得该第一AR终端利用该目标剖面的画面内容对该目标3D影像进行投影。
可选的,第一传输单元603具体用于:当该第二AR终端的数量为一个时,将该目标剖面的画面内容传输至该第一AR终端,该第二AR终端为该第一AR终端;或,
当该第二AR终端的数量为至少两个时,将该目标剖面的画面内容传输至该第一AR终端,该第一AR终端为该第二AR终端中向该云端服务器发送请求消息的至少一个AR终端,该请求消息用于请求该云端服务器向该第一AR终端发送该3D影像的画面内容。
本实施例中,第一传输单元603传输的画面内容为将要在第一AR终端上进行投影的目标剖面的画面内容,可以理解的是目标剖面仅仅是目标3D影像中的一部分剖面,从而,第一传输单元将目标3D影像中的目标剖面的画面内容传输至第一AR终端,因此本申请实施例AR投影方法中需要传输的目标3D影像的数据量变得更少,节省了大量的传输带宽,可以更快速地将目标剖面信息传输至第一AR终端。
图6对应的实施例对云端服务器的一种可能的实施方式作了详细说明,此外,对于不同数据形态的画面内容,云端服务器在具体传输目标剖面的画面内容时,可能存在多种传输方式,下面结合可能存在的数据形态,对传输目标剖面的画面内容中可能的实施方式进行说明。
可选的,第一传输单元603包括:第一传输模块6031;其中,第一传输模块6031,用于当该目标3D影像为点云数据形态时,将高密度点云对应的该目标剖面的画面内容传输至该第一AR终端,该高密度点云为空间分辨率较高的点云。
本实施例中,第一传输模块6031只传输高密度点云对应的目标剖面的画面内容,或,传输高密度点云对应目标剖面的画面内容和低密度点云对应的非目标剖面的画面内容,至第一AR终端,这样可以大量的节省传输带宽。
点云是一种目标剖面的画面内容可能存在的一种数据形态,点云密度的高低决定了画面内容质量的相对高低。
可选的,第一传输单元603包括:第二传输模块6032;其中,第二传输模块6032,用于当该目标3D影像为视频数据形态时,将高质量的该目标剖面的画面内容传输至该第一AR终端,该高质量的该目标剖面的画面内容为分辨率较高和/或帧率较高的视频码流。
可选的,第一传输单元603包括:第三传输模块6033;其中,第三传输模块6033,用于当该目标3D影像为视频数据形态时,将基本层视频码流和全部的增强层对应的该目标剖面的画面内容,传输至该第一AR终端,该基本层视频码流和该增强层视频码流为将该目标剖面的画面内容进行分层编码得到的视频码流。
在上述可选的实施方法中,当目标剖面对应的数据形态是视频时,上述两种可能的实现方式,都使得传输至第一AR终端的数据量大量减少,从而在一定程度上节省了大量的传输带宽,可以更加快速的将目标剖面的画面内容传输至第一AR终端,以使得第一AR终端使用目标剖面的画面内容对目标3D影像进行AR投影。
本实施例中,目标剖面的画面内容的传输对象是那些请求发送3D影像的画面内容的AR终端,并不是所有的第二AR终端都需要传输目标剖面的画面内容。
上述实施例中,对两种可能存在的数据形态时,云端服务器传输目标剖面的画面内容以使得AR眼镜可以达到更好的投影效果,进行了说明;另外,在一种可能的实现方式中,空间位置坐标系可以由云端服务器进行创建,具体如下:
如图7所示,云端服务器还包括:第一创建单元701;
第一创建单元701,用于根据该空间位置信息建立该空间位置坐标系;
第一确定单元702,用于执行与该第一确定单元601类似的功能,对此此处不再赘述;
第二确定单元703,用于执行与该第二确定单元602类似的功能,对此此处不再赘述;
第一传输单元704,用于执行与该第一传输单元603类似的功能,对此此处不再赘述。
在一种可选的方式中,第一确定单元702具体用于从该空间位置坐标系中确定该第一AR终端的空间位置坐标和该目标3D影像的空间位置坐标;利用该第一AR终端的空间位置坐标和该目标3D影像的空间位置坐标进行计算得到该位置关系。
在另一种可选的方式中,第一确定单元702具体还用于将从该空间位置坐标系中确定的该第一AR终端的空间位置坐标和该目标3D影像的空间位置坐标发送至该第一AR终端;接收该第一AR终端发送的该位置关系,该位置关系由该第一AR终端对该第一AR终端的空间位置坐标和该目标3D影像的空间位置坐标进行计算得到。
在另一种可选的方式中,第一确定单元702具体还用于基于该空间位置坐标系中的该第一AR终端的空间位置坐标和该目标3D影像的空间位置坐标进行计算得到该位置关系,其中,该空间位置坐标系由该第一AR终端根据该空间位置信息建立;或,接收该第一AR终端发送的该位置关系,该位置关系由该第一AR终端基于该空间位置坐标系中的该第一AR终端的空间位置坐标和该目标3D影像的空间位置坐标进行计算得到,其中,该空间位置坐标系由该第一AR终端根据该空间位置信息建立。
本实施例中,空间位置坐标系由第一创建单元701建立,当有多个AR终端时,与空间位置坐标系由各自AR终端建立相比较而言,上述实现方式可以有效地减少由于空间位置坐标系不统一而导致的各AR终端的空间位置坐标之间的误差。
在另一种可能的实现方式中,除空间位置坐标系可以有云端服务器创建之外,云端服务器还可以根据实际情况对目标剖面的剖面面积大小进行合理的改变,以适应不同的特殊情况之下AR终端依然能达到最佳的投影效果,具体如下可能的实施方式:
一、云端服务器基于AR终端的云端速度改变目标剖面的面积大小。
云端服务器还可以包括:第一改变单元705;其中,第一改变单元705,用于基于该第一AR终端的运动速度改变该目标剖面的面积大小;
一种可选的实现方式中,第一改变单元705具体用于当该第一AR终端的运动速度大于第一预设阈值时,增加该目标剖面的剖面面积。
本实施例中,第一改变单元1104可以根据第一AR终端的运动速度大小来改变目标剖面的画面内容,当其运动速度大于第一预设阈值时,云端服务器适当增加目标剖面的剖面面积,因此,当AR眼镜用户快速移动时,仍然不会影响AR眼镜用户对目标剖面的画面内容的观感,有效地提高了用户体验。
二、云端服务器基于网络状况来改变目标剖面的面积大小。
云端服务器还可以包括:第二改变单元706;其中,第二改变单元706,用于基于网络状况来改变该目标剖面的面积大小;
一种可选的方式中,第二改变单元706具体用于:当网络传输时延大于第二预设阈值时,增加该目标剖面的剖面面积;或,当网络传输带宽小于第三预设阈值时,减少该目标剖面的剖面面积。
三、云端服务器基于目标3D影像的变化程度来改变目标剖面的面积大小。
云端服务器还可以包括:第三改变单元707;其中,第三改变单元707,用于基于该目标3D影像的变化程度来改变该目标剖面的面积大小;
第三改变单元707具体用于当该目标3D影像的变化程度大于第四预设阈值时,增加该目标剖面的剖面面积。
其中,云端服务器的具体处理,以及与其他网元的具体交互,可以参考方法实施例,这里不再赘述。
上述实施例对本申请实施例中云端服务器的功能实体进行了详细说明,下面从云端服务器的硬件方面对对本申请实施例中云端服务器进行说明,具体如下:
如图8中所示的云端服务器8中的处理器可以通过调用存储器803中存储的应用程序代码来执行上述步骤步骤101至步骤104,和步骤201至步骤204,和步骤30l至步骤304中策略实体的动作,对此本申请实施例例不做任何限制。
如图8所示,为本申请实施例提供的一种云端服务器8的硬件结构示意图,该包括至少一个处理器801,通信总线802,存储器803以及至少一个通信接口804。
处理器801可以是一个通用中央处理器(Central Processing Unit,CPU),微处理器,特定应用集成电路(Application-Specific Integrated Circuit,ASIC),或一个或多个用于控制本申请方案程序执行的集成电路。
通信总线802可包括一通路,在上述组件之间传送信息。
通信接口804,使用任何收发器一类的装置,用于与其他设备或通信网络通信,如以太网,无线接入网(Radio Access Network,RAN),无线局域网(Wireless Local AreaNetworks,WLAN)等。
存储器803可以是只读存储器(Read-Only Memory,ROM)或可存储静态信息和指令的其他类型的静态存储设备,随机存取存储器(Random Access Memory,RAM)或者可存储信息和指令的其他类型的动态存储设备,也可以是电可擦可编程只读存储器(ElectricallyErasable Programmable Read-Only Memory,EEPROM)、只读光盘(Compact Disc Read-Only Memory,CD-ROM)或其他光盘存储、光碟存储(包括压缩光碟、激光碟、光碟、数字通用光碟、蓝光光碟等)、磁盘存储介质或者其他磁存储设备、或者能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。存储器可以是独立存在,通过总线与处理器相连接。存储器也可以和处理器集成在一起。
其中,存储器803用于存储执行本申请方案的应用程序代码,并由处理器801来控制执行。处理器801用于执行存储器803中存储的应用程序代码,从而实现上述实施例中的AR投影方法。
在具体实现中,作为一种实施例,处理器801可以包括一个或多个CPU,例如图8中的CPU0和CPU1。
在具体实现中,作为一种实施例,云端服务器8可以包括多个处理器,例如图8中的处理器801和处理器808。这些处理器中的每一个可以是一个单核(single-CPU)处理器,也可以是一个多核(multi-CPU)处理器。这里的处理器可以指一个或多个设备、电路、和/或用于处理数据(例如计算机程序指令)的处理核。
在具体实现中,作为一种实施例,云端服务器8还可以包括输出设备805和输入设备806。输出设备805和处理器801通信,可以以多种方式来显示信息。例如,输出设备805可以是液晶显示器(Liquid Crystal Display,LCD),发光二级管(Light Emitting Diode,LED)显示设备,阴极射线管(Cathode Ray Tube,CRT)显示设备,或投影仪(projector)等。输入设备806和处理器801通信,可以以多种方式接受用户的输入。例如,输入设备806可以是鼠标、键盘、触摸屏设备或传感设备等。
上述的云端服务器8可以是一个通用云端服务器或者是一个专用云端服务器。在具体实现中,云端服务器8可以是台式机、便携式电脑、网络服务器、掌上电脑(PersonalDigital Assistant,PDA)、移动手机、平板电脑、无线终端设备、嵌入式设备或有图8中类似结构的设备。本申请实施例不限定云端服务器8的类型。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,该描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。该集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。

Claims (31)

1.一种增强现实AR投影方法,其特征在于,包括:
云端服务器确定位置关系,所述位置关系为第一AR终端与目标3D影像在空间位置坐标系中的坐标关系,所述空间位置坐标系为根据空间位置信息建立的坐标系,所述空间位置信息由第二AR终端当前所处物理空间的空间数据得到,所述第二AR终端的数量为至少一个,所述第一AR终端为所述第二AR终端中的至少一个AR终端;
所述云端服务器根据所述位置关系确定目标剖面的画面内容,所述目标剖面为将要在所述第一AR终端上进行投影的,所述目标3D影像的剖面;
所述云端服务器将所述目标剖面的画面内容传输至所述第一AR终端,以使得所述第一AR终端利用所述目标剖面的画面内容对所述目标3D影像进行投影。
2.根据权利要求1所述的AR投影方法,其特征在于,所述云端服务器将所述目标剖面的画面内容传输至所述第一AR终端包括:
当所述第二AR终端的数量为一个时,所述云端服务器将所述目标剖面的画面内容传输至所述第一AR终端,所述第二AR终端为所述第一AR终端;或,
当所述第二AR终端的数量为至少两个时,所述云端服务器将所述目标剖面的画面内容传输至所述第一AR终端,所述第一AR终端为所述第二AR终端中向所述云端服务器发送请求消息的至少一个AR终端,所述请求消息用于请求所述云端服务器向所述第一AR终端发送所述3D影像的画面内容。
3.根据权利要求1或2所述的AR投影方法,其特征在于,所述云端服务器将所述目标剖面的画面内容传输至所述第一AR终端包括:
当所述目标3D影像为点云数据形态时,所述云端服务器将高密度点云对应的所述目标剖面的画面内容传输至所述第一AR终端,所述高密度点云为空间分辨率较高的点云。
4.根据权利要求1或2所述的AR投影方法,其特征在于,所述云端服务器将所述目标剖面的画面内容传输至所述第一AR终端包括:
当所述目标3D影像为视频数据形态时,所述云端服务器将高质量的所述目标剖面的画面内容传输至所述第一AR终端,所述高质量的所述目标剖面的画面内容为分辨率较高和/或帧率较高的视频码流。
5.根据权利要求1或2所述的AR投影方法,其特征在于,所述云端服务器将所述目标剖面的画面内容传输至所述第一AR终端包括:
当所述目标3D影像为视频数据形态时,所述云端服务器将基本层视频码流和增强层对应的所述目标剖面的画面内容,传输至所述第一AR终端,所述基本层视频码流和所述增强层视频码流为将所述目标剖面的画面内容进行分层编码得到的视频码流。
6.根据权利要求1至5中任一项所述的AR投影方法,其特征在于,在所述云端服务器确定位置关系之前还包括:
所述云端服务器根据所述空间位置信息建立所述空间位置坐标系。
7.根据权利要求1至6中任一项所述的AR投影方法,其特征在于,所述云端服务器确定位置关系包括:
所述云端服务器从所述空间位置坐标系中确定所述第一AR终端的空间位置坐标和所述目标3D影像的空间位置坐标;
所述云端服务器利用所述第一AR终端的空间位置坐标和所述目标3D影像的空间位置坐标进行计算得到所述位置关系。
8.根据权利要求1至6中任一项所述的AR投影方法,其特征在于,所述云端服务器确定位置关系包括:
所述云端服务器将从所述空间位置坐标系中确定的所述第一AR终端的空间位置坐标和所述目标3D影像的空间位置坐标发送至所述第一AR终端;
所述云端服务器接收所述第一AR终端发送的所述位置关系,所述位置关系由所述第一AR终端对所述第一AR终端的空间位置坐标和所述目标3D影像的空间位置坐标进行计算得到。
9.根据权利要求1至5中任一项所述的AR投影方法,其特征在于,当所述第二AR终端的数量为一个时,所述第一AR终端为所述第二AR终端,所述云端服务器确定位置关系包括:
所述云端服务器基于所述空间位置坐标系中的所述第一AR终端的空间位置坐标和所述目标3D影像的空间位置坐标进行计算得到所述位置关系,所述空间位置坐标系由所述第一AR终端根据所述空间位置信息建立;或,
所述云端服务器接收所述第一AR终端发送的所述位置关系,所述位置关系由所述第一AR终端基于所述空间位置坐标系中的所述第一AR终端的空间位置坐标和所述目标3D影像的空间位置坐标进行计算得到,所述空间位置坐标系由所述第一AR终端根据所述空间位置信息建立。
10.根据权利要求1至5,或7至8中任一项中所述的AR投影方法,其特征在于,在所述云端服务器确定位置关系之后,在所述云端服务器根据所述位置关系确定目标剖面的画面内容之前,还包括:
所述云端服务器基于所述第一AR终端的运动速度改变所述目标剖面的面积大小。
11.根据权利要求10所述的AR投影方法,其特征在于,所述云端服务器基于所述第一AR终端的运动速度改变所述目标剖面的面积大小,包括:
当所述第一AR终端的运动速度大于第一预设阈值时,所述云端服务器增加所述目标剖面的剖面面积。
12.根据权利要求1至5,或7至8中任一项所述的AR投影方法,其特征在于,在所述云端服务器确定位置关系之后,所述云端服务器根据所述位置关系确定目标剖面的视频码流之前,还包括:
所述云端服务器基于网络状况来改变所述目标剖面的面积大小。
13.根据权利要求12所述的AR投影方法,其特征在于,所述网络状况包括网络时延或网络传输带宽;所述云端服务器基于网络状况来改变所述目标剖面的面积大小包括:
当网络传输时延大于第二预设阈值时,所述云端服务器增加所述目标剖面的剖面面积;或,
当网络传输带宽小于第三预设阈值时,所述云端服务器减少所述目标剖面的剖面面积。
14.根据权利要求1至5,或7至8中任一项所述的AR投影方法,其特征在于,在所述云端服务器确定位置关系之后,所述云端服务器根据所述位置关系确定目标剖面的视频码流之前,还包括:
所述云端服务器基于所述目标3D影像的变化程度来改变所述目标剖面的面积大小。
15.根据权利要求14所述的AR投影方法,其特征在于,所述云端服务器基于所述目标3D影像的变化程度来改变所述目标剖面的面积大小包括:
当所述目标3D影像的变化程度大于第四预设阈值时,所述云端服务器增加所述目标剖面的剖面面积。
16.一种云端服务器,其特征在于,包括:
第一确定单元,用于确定位置关系,所述位置关系为第一AR终端与目标3D影像在空间位置坐标系中的坐标关系,所述空间位置坐标系为根据空间位置信息建立的坐标系,所述空间位置信息由第二AR终端当前所处物理空间的空间数据得到,所述第二AR终端的数量为至少一个,所述第一AR终端为所述第二AR终端中的至少一个AR终端;
第二确定单元,用于根据所述位置关系确定目标剖面的画面内容,所述目标剖面为将要在所述第一AR终端上进行投影的,所述目标3D影像的剖面;
第一传输单元,用于将所述目标剖面的画面内容传输至所述第一AR终端,以使得所述第一AR终端利用所述目标剖面的画面内容对所述目标3D影像进行投影。
17.根据权利要求16所述的云端服务器,其特征在于,所述第一传输单元具体用于:
当所述第二AR终端的数量为一个时,将所述目标剖面的画面内容传输至所述第一AR终端,所述第二AR终端为所述第一AR终端;或,
当所述第二AR终端的数量为至少两个时,将所述目标剖面的画面内容传输至所述第一AR终端,所述第一AR终端为所述第二AR终端中向所述云端服务器发送请求消息的至少一个AR终端,所述请求消息用于请求所述云端服务器向所述第一AR终端发送所述3D影像的画面内容。
18.根据权利要求16或17所述的云端服务器,其特征在于,所述第一传输单元包括:
第一传输模块,用于当所述目标3D影像为点云数据形态时,将高密度点云对应的所述目标剖面的画面内容传输至所述第一AR终端,所述高密度点云为空间分辨率较高的点云。
19.根据权利要求16或17所述的云端服务器,其特征在于,所述第一传输单元包括:
第二传输模块,用于当所述目标3D影像为视频数据形态时,将高质量的所述目标剖面的画面内容传输至所述第一AR终端,所述高质量的所述目标剖面的画面内容为分辨率较高和/或帧率较高的视频码流。
20.根据权利要求16或17所述的云端服务器,其特征在于,所述第一传输单元包括:
第三传输模块,用于当所述目标3D影像为视频数据形态时,将基本层视频码流和增强层对应的所述目标剖面的画面内容,传输至所述第一AR终端,所述基本层视频码流和所述增强层视频码流为将所述目标剖面的画面内容进行分层编码得到的视频码流。
21.根据权利要求16至20中任一项所述的云端服务器,其特征在于,所述云端服务器还包括:
第一创建单元,用于根据所述空间位置信息建立所述空间位置坐标系。
22.根据权利要求16至21中任一项所述的云端服务器,其特征在于,所述第一确定单元具体用于:
从所述空间位置坐标系中确定所述第一AR终端的空间位置坐标和所述目标3D影像的空间位置坐标;
利用所述第一AR终端的空间位置坐标和所述目标3D影像的空间位置坐标进行计算得到所述位置关系。
23.根据权利要求16至21中任一项所述的云端服务器,其特征在于,所述第一确定单元具体用于:
将从所述空间位置坐标系中确定的所述第一AR终端的空间位置坐标和所述目标3D影像的空间位置坐标发送至所述第一AR终端;
接收所述第一AR终端发送的所述位置关系,所述位置关系由所述第一AR终端对所述第一AR终端的空间位置坐标和所述目标3D影像的空间位置坐标进行计算得到。
24.根据权利要求16至20中任一项所述的云端服务器,其特征在于,当所述第二AR终端的数量为一个时,所述第一AR终端为所述第二AR终端,所述第一确定单元具体用于:
基于所述空间位置坐标系中的所述第一AR终端的空间位置坐标和所述目标3D影像的空间位置坐标进行计算得到所述位置关系,所述空间位置坐标系由所述第一AR终端根据所述空间位置信息建立;或,
接收所述第一AR终端发送的所述位置关系,所述位置关系由所述第一AR终端基于所述空间位置坐标系中的所述第一AR终端的空间位置坐标和所述目标3D影像的空间位置坐标进行计算得到,所述空间位置坐标系由所述第一AR终端根据所述空间位置信息建立。
25.根据权利要求16至20,或22至23中任一项中所述的云端服务器,其特征在于,所述云端服务器还包括:
第一改变单元,用于基于所述第一AR终端的运动速度改变所述目标剖面的面积大小。
26.根据权利要求25所述的云端服务器,其特征在于,所述第一改变单元具体用于:
当所述第一AR终端的运动速度大于第一预设阈值时,增加所述目标剖面的剖面面积。
27.根据权利要求16至20,或22至23中任一项中所述的云端服务器,其特征在于,所述云端服务器还包括:
第二改变单元,用于基于网络状况来改变所述目标剖面的面积大小。
28.根据权利要求27所述的云端服务器,其特征在于,所述网络状况包括网络时延或网络传输带宽;所述第二改变单元具体用于:
当网络传输时延大于第二预设阈值时,增加所述目标剖面的剖面面积;或,
当网络传输带宽小于第三预设阈值时,减少所述目标剖面的剖面面积。
29.根据权利要求16至20,或22至23中任一项中所述的云端服务器,其特征在于,所述云端服务器还包括:
第三改变单元,用于基于所述目标3D影像的变化程度来改变所述目标剖面的面积大小。
30.根据权利要求29所述的云端服务器,其特征在于,所述第三改变单元具体用于:
当所述目标3D影像的变化程度大于第四预设阈值时,增加所述目标剖面的剖面面积。
31.一种云端服务器,其特征在于,包括:
输入设备、输出设备、处理器和存储设备;
所述存储设备用于存储操作指令;
所述处理器通过调用所述操作指令,执行权利要求1至15中的步骤。
CN201710115441.XA 2017-02-28 2017-02-28 一种增强现实ar投影方法及云端服务器 Pending CN108693953A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710115441.XA CN108693953A (zh) 2017-02-28 2017-02-28 一种增强现实ar投影方法及云端服务器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710115441.XA CN108693953A (zh) 2017-02-28 2017-02-28 一种增强现实ar投影方法及云端服务器

Publications (1)

Publication Number Publication Date
CN108693953A true CN108693953A (zh) 2018-10-23

Family

ID=63842584

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710115441.XA Pending CN108693953A (zh) 2017-02-28 2017-02-28 一种增强现实ar投影方法及云端服务器

Country Status (1)

Country Link
CN (1) CN108693953A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111158554A (zh) * 2019-12-31 2020-05-15 联想(北京)有限公司 一种图像显示方法、电子设备和图像显示系统
CN114581513A (zh) * 2022-03-07 2022-06-03 清华大学 一种空间坐标定位方法、装置及电子设备

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1781311A (zh) * 2003-11-03 2006-05-31 三星电子株式会社 使用注视检测来处理视频数据的设备和方法
CN104301769A (zh) * 2014-09-24 2015-01-21 华为技术有限公司 呈现图像的方法、终端设备和服务器
CN104735464A (zh) * 2015-03-31 2015-06-24 华为技术有限公司 一种全景视频交互传输方法、服务器和客户端
CN105323552A (zh) * 2015-10-26 2016-02-10 北京时代拓灵科技有限公司 一种全景视频播放方法及系统
CN105847850A (zh) * 2016-03-28 2016-08-10 乐视控股(北京)有限公司 全景视频的实时播放方法及装置
CN105872496A (zh) * 2016-07-01 2016-08-17 黄岩 一种超高清视频融合方法
CN105915937A (zh) * 2016-05-10 2016-08-31 上海乐相科技有限公司 一种全景视频播放方法及设备
CN106060515A (zh) * 2016-07-14 2016-10-26 腾讯科技(深圳)有限公司 全景媒体文件推送方法及装置
CN106101847A (zh) * 2016-07-12 2016-11-09 三星电子(中国)研发中心 全景视频交互传输的方法和系统

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1781311A (zh) * 2003-11-03 2006-05-31 三星电子株式会社 使用注视检测来处理视频数据的设备和方法
CN104301769A (zh) * 2014-09-24 2015-01-21 华为技术有限公司 呈现图像的方法、终端设备和服务器
CN104735464A (zh) * 2015-03-31 2015-06-24 华为技术有限公司 一种全景视频交互传输方法、服务器和客户端
CN105323552A (zh) * 2015-10-26 2016-02-10 北京时代拓灵科技有限公司 一种全景视频播放方法及系统
CN105847850A (zh) * 2016-03-28 2016-08-10 乐视控股(北京)有限公司 全景视频的实时播放方法及装置
CN105915937A (zh) * 2016-05-10 2016-08-31 上海乐相科技有限公司 一种全景视频播放方法及设备
CN105872496A (zh) * 2016-07-01 2016-08-17 黄岩 一种超高清视频融合方法
CN106101847A (zh) * 2016-07-12 2016-11-09 三星电子(中国)研发中心 全景视频交互传输的方法和系统
CN106060515A (zh) * 2016-07-14 2016-10-26 腾讯科技(深圳)有限公司 全景媒体文件推送方法及装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111158554A (zh) * 2019-12-31 2020-05-15 联想(北京)有限公司 一种图像显示方法、电子设备和图像显示系统
CN114581513A (zh) * 2022-03-07 2022-06-03 清华大学 一种空间坐标定位方法、装置及电子设备
CN114581513B (zh) * 2022-03-07 2024-04-19 清华大学 一种空间坐标定位方法、装置及电子设备

Similar Documents

Publication Publication Date Title
CN111052750B (zh) 用于点云流传输的方法和装置
US11024083B2 (en) Server, user terminal device, and control method therefor
US11410331B2 (en) Systems and methods for video communication using a virtual camera
US11195332B2 (en) Information interaction method based on virtual space scene, computer equipment and computer-readable storage medium
US11477509B2 (en) Immersive cognitive reality system with real time surrounding media
US9948887B2 (en) Hybrid visual communication
EP3337158A1 (en) Method and device for determining points of interest in an immersive content
CN103905761A (zh) 图像处理系统和图像处理方法
US20220076373A1 (en) Foveated rendering using eye motion
CN105204347A (zh) 基于增强现实技术的智能家居交互方法、装置和系统
CN109074152B (zh) 一种虚拟现实图像发送方法及装置
CN112468796A (zh) 注视点生成方法、系统及设备
CN108693953A (zh) 一种增强现实ar投影方法及云端服务器
CN111698497A (zh) 全景显示系统在ar眼镜上的实时传输与监控的方法
US10482671B2 (en) System and method of providing a virtual environment
US11272171B1 (en) Systems and methods for fallback tracking based on real-time tracking performance
EP3564905A1 (en) Conversion of a volumetric object in a 3d scene into a simpler representation model
CN116700997B (zh) 边缘云设备的扩容方法、装置、设备及可读存储介质
US20240070958A1 (en) 3d stream processing
WO2024032165A1 (zh) 3d模型生成方法、系统及电子设备
KR102262019B1 (ko) 네트워크 속도 반응형 확장현실(xr) 커뮤니케이션 방법 및 시스템
WO2022224964A1 (ja) 情報処理装置及び情報処理方法
RU2771957C2 (ru) Устройство и способ для генерации мозаичного представления трехмерного изображения сцены
WO2023232267A1 (en) Supporting an immersive communication session between communication devices

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20181023