CN106101683A - 远程全景图像全方位实时传输和显示方法 - Google Patents
远程全景图像全方位实时传输和显示方法 Download PDFInfo
- Publication number
- CN106101683A CN106101683A CN201610498173.XA CN201610498173A CN106101683A CN 106101683 A CN106101683 A CN 106101683A CN 201610498173 A CN201610498173 A CN 201610498173A CN 106101683 A CN106101683 A CN 106101683A
- Authority
- CN
- China
- Prior art keywords
- transmission
- axis
- region
- image
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000005540 biological transmission Effects 0.000 title claims abstract description 112
- 238000012856 packing Methods 0.000 title claims abstract description 23
- 238000012545 processing Methods 0.000 claims abstract description 33
- 230000033001 locomotion Effects 0.000 claims abstract description 32
- 238000001514 detection method Methods 0.000 claims abstract description 31
- 230000007613 environmental effect Effects 0.000 claims abstract description 17
- 238000004088 simulation Methods 0.000 claims abstract description 17
- 238000012360 testing method Methods 0.000 claims abstract description 16
- 230000003139 buffering effect Effects 0.000 claims abstract description 4
- 238000000034 method Methods 0.000 claims description 15
- 239000011159 matrix material Substances 0.000 claims description 13
- 230000001133 acceleration Effects 0.000 claims description 8
- 239000000872 buffer Substances 0.000 claims description 6
- 238000000205 computational method Methods 0.000 claims description 6
- 230000003190 augmentative effect Effects 0.000 claims description 4
- 239000011521 glass Substances 0.000 claims description 3
- 238000007654 immersion Methods 0.000 abstract description 12
- 238000010586 diagram Methods 0.000 description 4
- 230000007423 decrease Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 238000005276 aerator Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000002386 leaching Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000005507 spraying Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/16—Spatio-temporal transformations, e.g. video cubism
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/189—Recording image signals; Reproducing recorded image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/194—Transmission of image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提供一种远程全景图像全方位实时传输和显示方法,包括服务器,传输系统和终端,所述终端包括处理单元、运动检测单元和显示单元,所述处理单元分别与所述运动检测单元和所述显示单元电性连接。与现有技术相比,本发明采用根据运动检测单元检测结果对应传输图像数据的方案,节省了很多的网络带宽,使远程全景图像实时传输和显示得以实现。通过截取视窗图像区域和缓冲图像区域的方式,不仅减少了数据传输量,而且避免了黑边出现和延迟感的产生。环境模拟单元可以模拟环境,对虚拟现实的沉浸感有一定意义。
Description
技术领域
本发明涉及全景图像传输领域,更具体地说,涉及一种远程全景图像全方位实时传输和显示方法。
背景技术
全景显示目前一般采用曲面屏或近眼显示装置营造一个虚拟的三维场景,让使用者不管朝向哪个方向都可以看到虚拟世界中的图像,有较强的沉浸感。全景视频或游戏目前一般是在主机中提前下载好整个文件再播放,很难实现远程实时传输,这是由于目前的网络传输速度存在较大的限制,而全景视频或游戏的传输需要很大的实时数据传输量,这是目前大多数的网络条件难以满足的。一些实时传输的方案采用了降低传输图像画质来节省数据传输量,但这样会造成传输图像质量下降,晶格感严重,严重影响沉浸感。
发明内容
为了解决当前远程全景图像无法实时传输和影响沉浸感的缺陷,本发明提供一种可实时传输而且沉浸感强的远程全景图像全方位实时传输和显示方法。
本发明解决其技术问题所采用的技术方案是:提供一种远程全景图像全方位实时传输和显示方法,包括服务器,传输系统和终端,所述终端包括处理单元、运动检测单元和显示单元,所述处理单元分别与所述运动检测单元和所述显示单元电性连接,所述运动检测单元包括位置检测装置、姿态检测装置、速度检测装置和角速度检测装置,远程全景图像实时传输和显示的方法包括以下步骤:
S1:所述运动检测单元检测使用者的运动状态,并将检测结果传输至所述处理单元;
S2:所述处理单元根据所述运动检测单元提供的坐标信息得出使用者的视窗图像区域,在所述视窗图像的周围增加缓冲图像区域,构成传输图像区域,并向服务器请求所述传输图像区域信息;
S3:所述服务器传输所述传输图像区域数据至所述终端。
优选地,所述缓冲图像区域和所述视窗图像区域的集合为传输图像区域,所述传输图像区域的计算方法是:
S2.11所述处理单元记录所述运动检测单元提供的使用者坐标信息(X0,Y0,Z0,α0,β0,γ0);
S2.12所述处理单元计算出使用者坐标的正向最大偏移量(ΔX1,ΔY1,ΔZ1,Δα1,Δβ1,Δγ1)和反向最大偏移量(ΔX2,ΔY2,ΔZ2,Δα2,Δβ2,Δγ2),整理使用者可能出现的坐标集合Ф={(X0-ΔX2<X<X0+ΔX1),(Y0-ΔY2<Y<Y0+ΔY1),(Z0-ΔZ2<Z<Z0+ΔZ1),(α0-Δα2<α<α0+Δα1),(β0-Δβ2<β<β0+Δβ1),(γ0-Δγ2<γ<γ0+Δγ1),|X,Y,Z,α,β,γ};
S2.13集合Ф对应的视窗图像区域的集合即为所述传输图像区域。
优选地,所述传输图像区域的计算方法是:
S2.21所述运动检测单元记录使用者20沿x轴、y轴和z轴各个方向转动的角速度为ωα、ωβ、ωγ,沿x轴、y轴和z轴各个方向的线速度为vx、vy、vz,记延迟时间为t10,所述处理单元记录使用者20沿x轴、y轴和z轴各个方向转动的最大角加速度为αα、αβ、αγ,沿x轴、y轴和z轴各个方向的最大速度为ax、ay、az;
S2.22所述处理单元计算出延迟时间t10内使用者可能出现的角度坐标集合Ф1={(((x0-(vxt10+axt10 2/2))≤x≤(x0+(vxt10+axt10 2/2))),(((y0-(vyt10+ayt10 2/2))≤y≤(y0+(vyt10+ayt10 2/2))),(((z0-(vzt10+azt10 2/2))≤z≤(z0+(vzt10+azt10 2/2))),(((α0-(ωαt10+ααt10 2/2))≤α≤(α0+(ωαt10+ααt10 2/2))),(((β0-(ωβt10+αβt10 2/2))≤β≤(β0+(ωβt10+αβt10 2/2))),(((γ0-(ωγt10+αγt10 2/2))≤γ≤(γ0+(ωγt10+αγt10 2/2)))|x,y,z,α,β,γ},集合Ф1对应的视窗图像区域的集合即为所述传输图像区域。
优选地,所述延迟时间为使用者被检测到运动状态的时间点到服务器对应下行数据传输完毕所用的时间。
优选地,所述传输图像区域的计算方法是:
S2.31在所述处理单元中记录延迟时间内使用者沿x轴、y轴和z轴各个方向转动的最大角速度为ωα’、ωβ’、ωγ’,沿x轴、y轴和z轴各个方向的最大线速度为vx’、vy’、vz’;
S2.32所述处理计算集合Ф2={((x0-vx’t10)≤x≤(x0+vx’t10)),((y0-vy’t10)≤y≤(y0+vy’t10)),((z0-vz’t10)≤z≤(z0+vz’t10)),((α0-ωα’t10)≤α≤(α0+ωα’t10)),((β0-ωβ’t10)≤β≤(β0+ωβ’t10)),((γ0-ωγ’t10)≤γ≤(γ0+ωγ’t10))|x,y,z,α,β,γ};
S2.33令集合Ф3=(Ф1∩Ф2),则Ф3对应的视窗图像区域的集合即为所述传输图像区域。
优选地,将使用者所处三维空间用相邻间隔为b的点阵覆盖,集合Ф内点阵对应的视窗图像区域的集合即为所述传输图像区域。
优选地,重新测量使用者的坐标后,取点阵中最接近使用者坐标的点的视窗图像区域作为显示内容。
优选地,所述终端进一步包括响应测试装置,所述响应测试装置可以测试响应时间,所述响应时间为终端向服务器发出信号到终端接收到对应返回信号所用的时间。
优选地,所述终端进一步包括环境模拟单元,所述环境模拟单元与所述处理单元电性连接,所述服务器传输环境信息到所述终端,所述终端传输对应信息至所述环境模拟单元,所述环境模拟单元可以根据所述终端传输的信息模拟对应环境场景。
优选地,所述终端为虚拟现实头盔、增强现实眼镜或全景曲面屏。
与现有技术相比,本发明采用根据运动检测单元检测结果对应传输图像数据的方案,节省了很多的网络带宽,使远程全景图像实时传输和显示得以实现。通过截取视窗图像区域和缓冲图像区域的方式,不仅减少了数据传输量,而且避免了黑边出现和延迟感的产生。环境模拟单元可以模拟环境,对虚拟现实的沉浸感有一定意义。固定传输图像区域与延迟时间一一对应可以很方便地确定传输图像区域的范围。通过确定使用者延迟时间内坐标的最大偏移量可以更精确传输图像区域的范围,进一步减少数据传输量。在使用者周围设置点阵使传输的数据量被量化,进一步节省了带宽。设置响应测试装置可以测量使用者的网速情况,同时方便得出延迟时间。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1是目前远程图像实时传输和显示方法;
图2是全景图像显示示意图;
图3是本发明远程全景图像全方位实时传输和显示方法结构示意图;
图4是本发明远程全景图像全方位实时传输和显示方法原理示意图;
图5是本发明远程全景图像全方位实时传输和显示方法传输图像区域示意图;
图6是本发明远程全景图像全方位实时传输和显示方法点阵结构示意图。
具体实施方式
为了解决当前远程全景图像无法实时传输和影响沉浸感的缺陷,本发明提供一种可实时传输而且沉浸感强的远程全景图像全方位实时传输和显示方法。
为了对本发明的技术特征、目的和效果有更加清楚的理解,现对照附图详细说明本发明的具体实施方式。
请参阅图1。图1是目前远程图像实时传输和显示方法,终端13包括显示单元131,通过终端13向服务器11请求数据,服务器11根据终端13请求的数据传输对应的图像数据到终端13,终端13经过处理后将图像信号传输至显示单元131。这种传输对终端13和服务器11的处理速度以及传输数据的速度都有一定的要求,如果这些速度无法达到要求,视频就会出现卡顿,严重影响使用体验。在目前的远程音像实时传输和显示中,服务器11性能、终端13性能和网络带宽及稳定性成为了制约音像传输的关键因素。因此,在目前高清视频的传输和大型游戏中,性能卓越的终端13和稳定高速的网络配置是不能缺少的。
请参阅图2。图2是全景图像显示示意图。全景图像多通过虚拟现实头盔、增强现实眼镜和全景曲面屏来呈现,需要保证使用者20不管朝向什么方向,如何运动,都可以感受到如同现实般的图像,因此在非远程虚拟现实显示中,需要制作全方位360度的图像,存储在终端13,待使用者20的运动和位置状态被确定后,终端13传输对应的图像信息到显示单元131中。而在远程实时传输中,无法提前制作全方位360度的图像,只能依靠实时传输360度的图像来保证使用者20沉浸感的营造。但是同时传输如此多的信息需要很大的网络带宽支持,目前的技术无法达到要求,这就使得远程全景图像实时传输和播放遇到很大的难题。一个解决方案是降低图像的画质,当图像的画质降低到一定的标准时,实时传输数据量大为减少,网络带宽可以满足,但这会导致图像非常模糊,晶格感严重,严重影响虚拟现实的沉浸感和体验。在目前网络带宽的条件下,实时传输的情况下增强虚拟现实沉浸感必须寻找其他解决方案。
请参阅图3—图5,在本发明中,完成远程全景音像实时传输和播放需要服务器11、传输系统12和终端13,服务器11和终端13之间通过传输系统12连接并相互传递信息。终端13包括处理单元137、显示单元131、环境模拟单元139和运动检测单元135,处理单元137分别与显示单元131、环境模拟单元139和运动检测单元135电性连接。环境模拟单元139可以根据处理单元137的相关命令模拟环境场景,服务器11可以传输环境信息到终端13,并由处理单元137命令环境模拟单元139进行表达。环境模拟单元139可以配备鼓风机(图未示)模拟风向和配备喷水装置(图未示)模拟喷水、下雨等环境变化。运动检测单元135包括姿态检测装置1353、速度检测单元1355、位置检测单元1357和角速度检测装置1359。处理单元137包括响应测试装置1371,响应测试装置1371可以测量网络响应速度。
由于人的视角限制,现实中人不能同时看到360度全景空间的图像,呈现在人面前的是一个“视窗”,图示视窗图像区域31。我们这里以虚拟现实显示为例讲述全景图像显示的原理,全景曲面屏和增强现实显示方法与其类似,此处不再赘述。在非远程虚拟现实显示中,由于设备响应速度较快,在使用者20的角度信息和位置信息被探测到后,终端13传输对应的视窗图像区域31到显示单元131中,整个过程可以控制到11ms以下,而在这低于11ms的时间内,使用者20的运动状态不会发生太大改变,这部分时间延迟可以忽略。使用者20在显示单元131中看到11ms之前的图像大脑生理上不会产生延迟感,这是非远程虚拟现实显示的基本原理。在这种传输中,每个坐标对应唯一的视窗图像区域31。但是在远程虚拟现实显示中,由于网络响应速度远大于11ms,再使用这种方式来传播图像就会产生很大的延迟感。因此我们必须传输大于视窗图像区域31的图像存储在终端13中,再重新测量使用者20的角度坐标和位置坐标,在存储的图像中抓取对应的视窗图像区域31到显示单元131中。这其中,大于视窗图像区域31的图像我们称为缓冲图像区域33,缓冲图像区域33和视窗图像区域31共同构成传输图像区域30。
从使用者20的运动状态和位置信息被探测到,到图像信息传递给使用者,需要一个传递和处理的时间周期。令这个时间周期的起始时刻为T0,则该时间周期需要:使用者20的运动状态被探测到并传递到处理单元137的时间为探测时间t1、处理单元137处理的时间为t2、处理单元137传输数据到服务器11所需时间t3、服务器11处理时间t4、服务器11向处理单元137传输对应图像数据的时间t5。(t1+t2+t3+t4+t5)这段时间我们称为延迟时间,记延迟时间为t10。延迟时间t10根据服务器11、终端13的性能以及网络传输速度的不同各有不同。可以很容易得出,响应测试装置1371测量的响应时间为(t3+t4+t5),由于t1和t2对于特定的终端来说是基本是固定不变的,因此延迟时间t10就可以通过响应时间(t3+t4+t5)和固定的时间t1、t2计算出来。
本发明远程全景图像全方位实时传输和显示方法的传输和显示过程是:在T0时刻,使用者20的角度坐标信息和位置坐标信息被运动检测单元135检测到,经过t1的时间该信息传递到处理单元137,处理单元137经过t2时间的处理向服务器11请求传输图像区域30的数据,经过t3时间数据请求信息传输到服务器11,服务器11经过t4时间的处理将传输图像区域30对应数据下行传输到终端13,经过t5的时间到达终端并接收完成,此时记为T1时刻。同时,运动检测单元135检测使用者20在T1时刻的角度坐标信息和位置坐标信息,并将该信息传输至处理单元137,处理单元137经过处理后,在传回的传输图像区域30中抓取对应T1时刻角度坐标信息和位置坐标信息的视窗图像区域31并传输至显示单元131。
本发明中,传输图像区域30的范围是比较重要的。传输图像区域30如果过小,使用者20在缓冲时间内的运动可能造成视窗图像区域31超出传输图像区域30的范围,造成黑边的出现;传输图像区域30如果过大,会造成网络传输数据量的增多,在网络不稳定的情况下有可能影响到沉浸感。
本发明第一实施例采用计算使用者20最大坐标偏移量的方式确定传输图像区域30。我们建立虚拟的直角坐标系,使用者20此时沿x轴、y轴和z轴的角度坐标为α0、β0、γ0,位置坐标为(X0,Y0,Z0),因此使用者20此时的坐标信息为(X0,Y0,Z0,α0,β0,γ0)。处理单元137通过计算的方式计算出延迟时间t10内使用者20角度坐标的正向最大偏移量(ΔX1,ΔY1,ΔZ1,Δα1,Δβ1,Δγ1)和反向最大偏移量(ΔX2,ΔY2,ΔZ2,Δα2,Δβ2,Δγ2),整理使用者20可能出现的坐标集合:
Ф={(X0-ΔX2<X<X0+ΔX1),(Y0-ΔY2<Y<Y0+ΔY1),(Z0-ΔZ2<Z<Z0+ΔZ1),(α0-Δα2<α<α0+Δα1),(β0-Δβ2<β<β0+Δβ1),(γ0-Δγ2<γ<γ0+Δγ1),|X,Y,Z,α,β,γ};
集合Ф内所有坐标对应的视窗图像区域31围成的图像区域的集合即为传输图像区域30。对应的坐标可以由运动检测单元135检测得到。
坐标的最大偏移量有很多算法,其中一种就是利用使用者20的最大运动角加速度和线加速度来计算。这里,我们令使用者20的最大运动角加速度是α,最大运动线加速度为a,则使用者20沿x轴、y轴和z轴各个方向转动的最大角加速度为αα、αβ、αγ,线加速度为ax、ay、az,使用者20沿x轴、y轴和z轴各个方向转动的角速度为ωα、ωβ、ωγ,线速度为vx、vy、vz,vx、vy、vz、ωα、ωβ、ωγ可以利用运动检测单元135检测得到,在延迟时间t10内使用者沿x轴、y轴和z轴各个方向转动的最大角度为(ωαt10+ααt10 2/2)、(ωβt10+αβt10 2/2)、(ωγt10+αγt10 2/2),最大位移为(vxt10+axt10 2/2)、(vyt10+ayt10 2/2、(vzt10+azt10 2/2),坐标的变化范围为:
{(((x0-(vxt10+axt10 2/2))≤x≤(x0+(vxt10+axt10 2/2))),(((y0-(vyt10+ayt10 2/2))≤y≤(y0+(vyt10+ayt10 2/2))),(((z0-(vzt10+azt10 2/2))≤z≤(z0+(vzt10+azt10 2/2))),(((α0-(ωαt10+ααt10 2/2))≤α≤(α0+(ωαt10+ααt10 2/2))),(((β0-(ωβt10+αβt10 2/2))≤β≤(β0+(ωβt10+αβt10 2/2))),(((γ0-(ωγt10+αγt10 2/2))≤γ≤(γ0+(ωγt10+αγt10 2/2)))}
此时,坐标的集合为:
Ф1={(((x0-(vxt10+axt10 2/2))≤x≤(x0+(vxt10+axt10 2/2))),(((y0-(vyt10+ayt10 2/2))≤y≤(y0+(vyt10+ayt10 2/2))),(((z0-(vzt10+azt10 2/2))≤z≤(z0+(vzt10+azt10 2/2))),(((α0-(ωαt10+ααt10 2/2))≤α≤(α0+(ωαt10+ααt10 2/2))),(((β0-(ωβt10+αβt10 2/2))≤β≤(β0+(ωβt10+αβt10 2/2))),(((γ0-(ωγt10+αγt10 2/2))≤γ≤(γ0+(ωγt10+αγt10 2/2)))|x,y,z,α,β,γ}。
利用该方法计算坐标的集合可以很大程度上减少传输图像区域30,较好地节省了资源。
本发明第二实施例在第一实施例的基础上进一步节省传输图像区域30。由于人的头部在转动过程中存在极限角速度,当转动达到极限角速度后就不会继续加速转动。因此,我们令使用者20的最大运动角速度是ω,最大运动速度为v,则使用者20沿x轴、y轴和z轴各个方向转动的最大角速度为ωα’、ωβ’、ωγ’,沿x轴、y轴和z轴各个方向的最大速度为vx’、vy’、vz’,在延迟时间t10内使用者20沿x轴、y轴和z轴各个方向转动的最大角度为ωα’t10、ωβ’t10、ωγ’t10,沿x轴、y轴和z轴各个方向运动的最大速度为:vx’t10、vy’t10、vz’t10,坐标的变化范围为:
{((x0-vx’t10)≤x≤(x0+vx’t10)),((y0-vy’t10)≤y≤(y0+vy’t10)),((z0-vz’t10)≤z≤(z0+vz’t10)),((α0-ωα’t10)≤α≤(α0+ωα’t10)),((β0-ωβ’t10)≤β≤(β0+ωβ’t10)),((γ0-ωγ’t10)≤γ≤(γ0+ωγ’t10))},
此时,坐标的集合为:
Ф2={((x0-vx’t10)≤x≤(x0+vx’t10)),((y0-vy’t10)≤y≤(y0+vy’t10)),((z0-vz’t10)≤z≤(z0+vz’t10)),((α0-ωα’t10)≤α≤(α0+ωα’t10)),((β0-ωβ’t10)≤β≤(β0+ωβ’t10)),((γ0-ωγ’t10)≤γ≤(γ0+ωγ’t10))|x,y,z,α,β,γ}。
使用者20不管怎样加速转动头部,都不会超过集合Ф2的坐标范围,我们令集合Ф3=(Ф1∩Ф2),则Ф3即为使用者可能出现的角度坐标集合。这个结果使传输图像区域30进一步减小,减少了大量的传输数据。
请参阅图6,本发明第三实施例将使用者20周围的空间用点阵覆盖,点阵内相邻点之间的距离是b。点阵内不同的点对应不同的视窗图像区域31,相同的点的不同角度对应不同的视窗图像区域31,这样我们就得到了多个独立的视窗图像区域31。我们将计算得出的集合Ф3和集合Ф1对应的区域放入点阵中,被集合Ф3或集合Ф1涵盖的点对应的视窗图像区域31即为我们需要的传输图像区域30的集合。在T1时刻重新测量使用者20的坐标后,取点阵中最接近使用者坐标的点的视窗图像区域31作为显示内容。距离b的大小可以根据终端13的性能和延迟时间t10的长短来决定,对于终端13性能强,延迟时间t10时间短的系统可以减小距离b,以求更精确地表达相关图像使感觉更加舒适;反之则可以适当增大距离b,保证图像的连贯性。
与现有技术相比,本发明采用根据运动检测单元135检测结果对应传输图像数据的方案,节省了很多的网络带宽,使远程全景图像实时传输和显示得以实现。通过截取视窗图像区域31和缓冲图像区域33的方式,不仅减少了数据传输量,而且避免了黑边出现和延迟感的产生。环境模拟单元139可以模拟环境,对虚拟现实的沉浸感有一定意义。固定传输图像区域30与延迟时间一一对应可以很方便地确定传输图像区域30的范围。通过确定使用者20延迟时间内坐标的最大偏移量可以更精确传输图像区域30的范围,进一步减少数据传输量。在使用者20周围设置点阵使传输的数据量被量化,进一步节省了带宽。设置响应测试装置1371可以测量使用者20的网速情况,同时方便得出延迟时间t10。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护之内。
Claims (10)
1.远程全景图像全方位实时传输和显示方法,其特征在于,包括服务器,传输系统和终端,所述终端包括处理单元、运动检测单元和显示单元,所述处理单元分别与所述运动检测单元和所述显示单元电性连接,所述运动检测单元包括位置检测装置、姿态检测装置、速度检测装置和角速度检测装置,远程全景图像实时传输和显示的方法包括以下步骤:
S1:所述运动检测单元检测使用者的运动状态,并将检测结果传输至所述处理单元;
S2:所述处理单元根据所述运动检测单元提供的坐标信息得出使用者的视窗图像区域,在所述视窗图像的周围增加缓冲图像区域,构成传输图像区域,并向服务器请求所述传输图像区域信息;
S3:所述服务器传输所述传输图像区域数据至所述终端。
2.根据权利要求1所述的远程全景音像实时传输和播放的方法,其特征在于,所述缓冲图像区域和所述视窗图像区域的集合为传输图像区域,所述传输图像区域的计算方法是:
S2.11所述处理单元记录所述运动检测单元提供的使用者坐标信息(X0,Y0,Z0,α0,β0,γ0);
S2.12所述处理单元计算出使用者坐标的正向最大偏移量(ΔX1,ΔY1,ΔZ1,Δα1,Δβ1,Δγ1)和反向最大偏移量(ΔX2,ΔY2,ΔZ2,Δα2,Δβ2,Δγ2),整理使用者可能出现的坐标集合Ф={(X0-ΔX2<X<X0+ΔX1),(Y0-ΔY2<Y<Y0+ΔY1),(Z0-ΔZ2<Z<Z0+ΔZ1),(α0-Δα2<α<α0+Δα1),(β0-Δβ2<β<β0+Δβ1),(γ0-Δγ2<γ<γ0+Δγ1),|X,Y,Z,α,β,γ};
S2.13集合Ф对应的视窗图像区域的集合即为所述传输图像区域。
3.根据权利要求2所述的远程全景图像全方位实时传输和显示方法,其特征在于,所述传输图像区域的计算方法是:
S2.21所述运动检测单元记录使用者20沿x轴、y轴和z轴各个方向转动的角速度为ωα、ωβ、ωγ,沿x轴、y轴和z轴各个方向的线速度为vx、vy、vz,记延迟时间为t10,所述处理单元记录使用者20沿x轴、y轴和z轴各个方向转动的最大角加速度为αα、αβ、αγ,沿x轴、y轴和z轴各个方向的最大速度为ax、ay、az;
S2.22所述处理单元计算出延迟时间t10内使用者可能出现的角度坐标集合Ф1={(((x0-(vxt10+axt10 2/2))≤x≤(x0+(vxt10+axt10 2/2))),(((y0-(vyt10+ayt10 2/2))≤y≤(y0+(vyt10+ayt10 2/2))),(((z0-(vzt10+azt10 2/2))≤z≤(z0+(vzt10+azt10 2/2))),(((α0-(ωαt10+ααt10 2/2))≤α≤(α0+(ωαt10+ααt10 2/2))),(((β0-(ωβt10+αβt10 2/2))≤β≤(β0+(ωβt10+αβt10 2/2))),(((γ0-(ωγt10+αγt10 2/2))≤γ≤(γ0+(ωγt10+αγt10 2/2)))|x,y,z,α,β,γ},集合Ф1对应的视窗图像区域的集合即为所述传输图像区域。
4.根据权利要求3所述的远程全景图像全方位实时传输和显示方法,其特征在于,所述延迟时间为使用者被检测到运动状态的时间点到服务器对应下行数据传输完毕所用的时间。
5.根据权利要求3所述的远程全景音像实时传输和播放方法,其特征在于,所述传输图像区域的计算方法是:
S2.31在所述处理单元中记录延迟时间内使用者沿x轴、y轴和z轴各个方向转动的最大角速度为ωα’、ωβ’、ωγ’,沿x轴、y轴和z轴各个方向的最大线速度为vx’、vy’、vz’;
S2.32所述处理计算集合Ф2={((x0-vx’t10)≤x≤(x0+vx’t10)),((y0-vy’t10)≤y≤(y0+vy’t10)),((z0-vz’t10)≤z≤(z0+vz’t10)),((α0-ωα’t10)≤α≤(α0+ωα’t10)),((β0-ωβ’t10)≤β≤(β0+ωβ’t10)),((γ0-ωγ’t10)≤γ≤(γ0+ωγ’t10))|x,y,z,α,β,γ};
S2.33令集合Ф3=(Ф1∩Ф2),则Ф3对应的视窗图像区域的集合即为所述传输图像区域。
6.根据权利要求3所述的远程全景图像全方位实时传输和显示方法,其特征在于,将使用者所处三维空间用相邻间隔为b的点阵覆盖,集合Ф内点阵对应的视窗图像区域的集合即为所述传输图像区域。
7.根据权利要求6所述的远程全景图像全方位实时传输和显示方法,其特征在于,重新测量使用者的坐标后,取点阵中最接近使用者坐标的点的视窗图像区域作为显示内容。
8.根据权利要求1所述的远程全景图像全方位实时传输和显示方法,其特征在于,所述终端进一步包括响应测试装置,所述响应测试装置可以测试响应时间,所述响应时间为终端向服务器发出信号到终端接收到对应返回信号所用的时间。
9.根据权利要求1所述的远程全景图像全方位实时传输和显示方法,其特征在于,所述终端进一步包括环境模拟单元,所述环境模拟单元与所述处理单元电性连接,所述服务器传输环境信息到所述终端,所述终端传输对应信息至所述环境模拟单元,所述环境模拟单元可以根据所述终端传输的信息模拟对应环境场景。
10.根据权利要求1—9任一项所述的远程全景图像全方位实时传输和显示方法,其特征在于,所述终端为虚拟现实头盔、增强现实眼镜或全景曲面屏。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610498173.XA CN106101683A (zh) | 2016-06-30 | 2016-06-30 | 远程全景图像全方位实时传输和显示方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610498173.XA CN106101683A (zh) | 2016-06-30 | 2016-06-30 | 远程全景图像全方位实时传输和显示方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106101683A true CN106101683A (zh) | 2016-11-09 |
Family
ID=57214573
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610498173.XA Pending CN106101683A (zh) | 2016-06-30 | 2016-06-30 | 远程全景图像全方位实时传输和显示方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106101683A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106791886A (zh) * | 2016-11-16 | 2017-05-31 | 深圳百科信息技术有限公司 | 一种基于视觉特性的全景视频分发方法和系统 |
CN106909221A (zh) * | 2017-02-21 | 2017-06-30 | 北京小米移动软件有限公司 | 基于vr系统的图像处理方法及装置 |
CN108845198A (zh) * | 2018-04-28 | 2018-11-20 | 歌尔科技有限公司 | 设备响应时间的测量系统 |
CN108900893A (zh) * | 2018-08-16 | 2018-11-27 | 科大讯飞股份有限公司 | 一种图片处理方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102014280A (zh) * | 2010-12-22 | 2011-04-13 | Tcl集团股份有限公司 | 一种多视点视频节目传输方法及系统 |
CN102438141A (zh) * | 2011-10-25 | 2012-05-02 | 中国科学技术大学 | 一种立体视频码流处理方法及装置 |
CN105080134A (zh) * | 2014-05-07 | 2015-11-25 | 陈旭 | 真实感的遥控体验游戏系统 |
CN105323552A (zh) * | 2015-10-26 | 2016-02-10 | 北京时代拓灵科技有限公司 | 一种全景视频播放方法及系统 |
-
2016
- 2016-06-30 CN CN201610498173.XA patent/CN106101683A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102014280A (zh) * | 2010-12-22 | 2011-04-13 | Tcl集团股份有限公司 | 一种多视点视频节目传输方法及系统 |
CN102438141A (zh) * | 2011-10-25 | 2012-05-02 | 中国科学技术大学 | 一种立体视频码流处理方法及装置 |
CN105080134A (zh) * | 2014-05-07 | 2015-11-25 | 陈旭 | 真实感的遥控体验游戏系统 |
CN105323552A (zh) * | 2015-10-26 | 2016-02-10 | 北京时代拓灵科技有限公司 | 一种全景视频播放方法及系统 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106791886A (zh) * | 2016-11-16 | 2017-05-31 | 深圳百科信息技术有限公司 | 一种基于视觉特性的全景视频分发方法和系统 |
CN106791886B (zh) * | 2016-11-16 | 2020-03-17 | 深圳市梦网百科信息技术有限公司 | 一种基于视觉特性的全景视频分发方法和系统 |
CN106909221A (zh) * | 2017-02-21 | 2017-06-30 | 北京小米移动软件有限公司 | 基于vr系统的图像处理方法及装置 |
CN106909221B (zh) * | 2017-02-21 | 2020-06-02 | 北京小米移动软件有限公司 | 基于vr系统的图像处理方法及装置 |
CN108845198A (zh) * | 2018-04-28 | 2018-11-20 | 歌尔科技有限公司 | 设备响应时间的测量系统 |
CN108900893A (zh) * | 2018-08-16 | 2018-11-27 | 科大讯飞股份有限公司 | 一种图片处理方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106210692A (zh) | 基于瞳孔检测的远程全景图像实时传输和显示方法 | |
WO2018012888A1 (en) | Method and system for interactive transmission of panoramic video | |
CN106101684A (zh) | 远程全景图像实时传输和流畅显示的方法 | |
CN106101683A (zh) | 远程全景图像全方位实时传输和显示方法 | |
CN106464854B (zh) | 图像编码和显示 | |
CN107340870B (zh) | 一种融合vr和ar的虚拟现实展示系统及其实现方法 | |
CN105678693B (zh) | 全景视频浏览播放方法 | |
CN106775528A (zh) | 一种虚拟现实的旅游系统 | |
US11290573B2 (en) | Method and apparatus for synchronizing viewing angles in virtual reality live streaming | |
CN204465755U (zh) | 可交互立体混合现实的装置及应用该装置的虚拟现实头盔 | |
CN105869215B (zh) | 一种虚拟现实成像系统 | |
CN205754617U (zh) | 一种虚拟现实旅游系统 | |
CN106453913A (zh) | 预览全景内容的方法及装置 | |
CN110488981B (zh) | 基于云渲染的手机端vr场景交互式显示方法 | |
CN104216533B (zh) | 一种基于DirectX9的头戴式虚拟现实显示器 | |
US20210344736A1 (en) | MEASURING QUALITY-OF-EXPERIENCE (QoE) FOR VIRTUAL REALITY (VR) STREAMING CONTENT | |
KR20190132434A (ko) | 가상 현실 이미지를 송신하는 방법 및 장치 | |
CN106170082A (zh) | 远程全景图像实时全方位传输和显示方法 | |
CN109766006A (zh) | 虚拟现实场景的显示方法、装置及设备 | |
CN109003336A (zh) | 虚拟现实影像的处理方法、系统及计算机可读存储介质 | |
CN106686389A (zh) | 远程全景图像实时传输和显示方法 | |
Hirose et al. | Transmission of realistic sensation: Development of a virtual dome | |
CN109302640B (zh) | 在虚拟现实视频中显示弹幕的方法和装置 | |
CN106445139A (zh) | 一种数据显示方法、装置及系统 | |
CN205007570U (zh) | 一种3d视角的遥控玩具坦克 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20161109 |
|
WD01 | Invention patent application deemed withdrawn after publication |