CN117911629B - 一种虚拟屏幕的显示方法和显示系统 - Google Patents
一种虚拟屏幕的显示方法和显示系统 Download PDFInfo
- Publication number
- CN117911629B CN117911629B CN202410298857.XA CN202410298857A CN117911629B CN 117911629 B CN117911629 B CN 117911629B CN 202410298857 A CN202410298857 A CN 202410298857A CN 117911629 B CN117911629 B CN 117911629B
- Authority
- CN
- China
- Prior art keywords
- data
- speed
- coordinates
- prediction function
- equipment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 23
- 238000006073 displacement reaction Methods 0.000 claims abstract description 190
- 238000009877 rendering Methods 0.000 claims abstract description 15
- 238000004364 calculation method Methods 0.000 claims description 13
- 238000005070 sampling Methods 0.000 claims description 10
- 238000010276 construction Methods 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 4
- 230000006870 function Effects 0.000 description 161
- 210000003128 head Anatomy 0.000 description 13
- 230000008859 change Effects 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 6
- 230000009471 action Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 2
- 238000013075 data extraction Methods 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 238000012886 linear function Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012887 quadratic function Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Abstract
本发明适用于VR显示技术领域,尤其涉及一种虚拟屏幕的显示方法和显示系统,所述方法包括:构建三维场景模型,构建三维坐标系,并确定取景器的起始位置;获取设备位移数据,构建位移预测函数,通过位移预测函数计算设备的预测轨迹坐标;基于设备的预测轨迹坐标生成移动速度预测函数,基于移动速度预测函数计算设备速度预测数据;获取设备角度转动数据,基于设备角度转动数据构建角度预测函数,根据预测轨迹坐标、设备速度预测数据和角度预测函数进行场景预渲染。本发明根据穿戴设备的实际位置选择对应的预渲染结果进行显示,大大提升了渲染效率,无需实时渲染却具有实时渲染的结果,对穿戴设备的性能要求大幅降低。
Description
技术领域
本发明属于VR显示技术领域,尤其涉及一种虚拟屏幕的显示方法和显示系统。
背景技术
在VR(虚拟现实)和AR(增强现实)应用中,虚拟屏幕是用户透过头戴设备看到的数字显示屏,它并非真实存在的物理屏幕,而是由计算机生成并通过光学系统投射至用户视网膜上的图像。
在当前的体感交互过程中,用于虚拟屏幕显示的图像源均来自实时计算得到的,虚拟显示设备为了能够快速进行渲染,需要配备高性能的图像处理器(GPU),尽管如此,对于模型精度较高的场景,进行渲染还是需要花费大量的算力,现有技术中为了解决这一技术问题,常采用帧预测的方式为动作预测和异步时间扭曲,动作预测为游戏引擎可以基于玩家输入设备的历史行为模式预测接下来可能发生的动作,并提前渲染与之对应的画面,异步时间扭曲是对上一帧已渲染的画面进行几何变形,从而快速适应用户头部的新位置,对于动作预测而言,其是根据玩家的历史行为模式进行预测,但对于自由度更大的场景,其无法适用,异步时间扭曲是根据上一帧画面进行扭曲,其并非是实时渲染的结果,因此显示的画面会出现失真的情况,无论是上面哪一种帧预测方式,其无法实现全场景化的实时渲染,影响了用户的观看体验。
发明内容
本发明的目的在于提供一种虚拟屏幕的显示方法,旨在解决现有技术无法提供全场景的实时渲染,影响用户观看体验的问题。
本发明是这样实现的,一种虚拟屏幕的显示方法,所述方法包括:
构建三维场景模型,基于三维场景模型构建三维坐标系,并确定取景器的起始位置;
获取设备位移数据,基于设备位移数据构建位移预测函数,通过位移预测函数计算设备的预测轨迹坐标;
基于设备的预测轨迹坐标生成移动速度预测函数,基于移动速度预测函数计算设备速度预测数据;
获取设备角度转动数据,基于设备角度转动数据构建角度预测函数,根据预测轨迹坐标、设备速度预测数据和角度预测函数进行场景预渲染。
优选的,所述获取设备位移数据,基于设备位移数据构建位移预测函数,通过位移预测函数计算设备的预测轨迹坐标的步骤,具体包括:
获取设备位移数据,将设备位移数据拆解为坐标轴位移数据,所述坐标轴位移数据包括X轴位移数据、Y轴位移数据和Z轴位移数据;
基于坐标轴位移数据进行函数拟合,得到位移预测函数,所述位移预测函数的自变量为时间值;
按照预设的数据采样率确定轨迹坐标生成间隔,通过位移预测函数计算预测轨迹坐标。
优选的,所述基于设备的预测轨迹坐标生成移动速度预测函数,基于移动速度预测函数计算设备速度预测数据的步骤,具体包括:
根据预测轨迹坐标计算取景器在各个预测轨迹坐标上的移动速度,得到多组速度坐标,所述速度坐标的横坐标为时间值,速度坐标的纵坐标为速度值;
对速度坐标进行函数拟合,得到移动速度预测函数,所述移动速度预测函数的自变量为时间值;
提取预测轨迹坐标对应的时间值,将其代入移动速度预测函数,生成设备速度预测数据。
优选的,所述获取设备角度转动数据,基于设备角度转动数据构建角度预测函数,根据预测轨迹坐标、设备速度预测数据和角度预测函数进行场景预渲染的步骤,具体包括:
根据预测轨迹坐标匹配对应的设备速度预测数据,获取设备角度转动数据,构建角度预测函数,基于角度预测函数计算角度偏转值;
提取设备速度预测数据,根据取景器在该预测轨迹坐标处的速度值,确定偏转角度切片间隔;
根据预测轨迹坐标确定取景器的位置,根据偏转角度切片间隔从该取景器所在的位置选择多个图像采集方向,并进行场景预渲染。
优选的,通过虚拟屏幕进行显示时,实时读取取景器的实际位置坐标,基于实际位置坐标调取经过场景预渲染的画面数据,根据该画面数据进行显示。
本发明的另一目的在于提供一种虚拟屏幕的显示系统,所述系统包括:
场景构建模块,用于构建三维场景模型,基于三维场景模型构建三维坐标系,并确定取景器的起始位置;
轨迹预测模块,用于获取设备位移数据,基于设备位移数据构建位移预测函数,通过位移预测函数计算设备的预测轨迹坐标;
设备速度预测模块,用于基于设备的预测轨迹坐标生成移动速度预测函数,基于移动速度预测函数计算设备速度预测数据;
场景预渲染模块,用于获取设备角度转动数据,基于设备角度转动数据构建角度预测函数,根据预测轨迹坐标、设备速度预测数据和角度预测函数进行场景预渲染。
优选的,所述轨迹预测模块包括:
数据拆解单元,用于获取设备位移数据,将设备位移数据拆解为坐标轴位移数据,所述坐标轴位移数据包括X轴位移数据、Y轴位移数据和Z轴位移数据;
位移函数拟合单元,用于基于坐标轴位移数据进行函数拟合,得到位移预测函数,所述位移预测函数的自变量为时间值;
轨迹计算单元,用于按照预设的数据采样率确定轨迹坐标生成间隔,通过位移预测函数计算预测轨迹坐标。
优选的,所述设备速度预测模块包括:
速度坐标提取单元,用于根据预测轨迹坐标计算取景器在各个预测轨迹坐标上的移动速度,得到多组速度坐标,所述速度坐标的横坐标为时间值,速度坐标的纵坐标为速度值;
速度函数拟合单元,用于对速度坐标进行函数拟合,得到移动速度预测函数,所述移动速度预测函数的自变量为时间值;
速度预测计算单元,用于提取预测轨迹坐标对应的时间值,将其代入移动速度预测函数,生成设备速度预测数据。
优选的,所述场景预渲染模块包括:
角度计算单元,用于根据预测轨迹坐标匹配对应的设备速度预测数据,获取设备角度转动数据,构建角度预测函数,基于角度预测函数计算角度偏转值;
偏转间隔计算单元,用于提取设备速度预测数据,根据取景器在该预测轨迹坐标处的速度值,确定偏转角度切片间隔;
动态渲染单元,用于根据预测轨迹坐标确定取景器的位置,根据偏转角度切片间隔从该取景器所在的位置选择多个图像采集方向,并进行场景预渲染。
优选的,通过虚拟屏幕进行显示时,实时读取取景器的实际位置坐标,基于实际位置坐标调取经过场景预渲染的画面数据,根据该画面数据进行显示。
本发明提供的一种虚拟屏幕的显示方法,对穿戴设备的移动轨迹进行分析,基于多个自由度拟合穿戴设备的轨迹函数,基于轨迹函数来对穿戴设备的移动方向进行预测,基于预测结果对场景进行预渲染,根据穿戴设备的实际位置选择对应的预渲染结果进行显示,大大提升了渲染效率,无需实时渲染却具有实时渲染的结果,对穿戴设备的性能要求大幅降低。
附图说明
图1为本发明实施例提供的一种虚拟屏幕的显示方法的流程图;
图2为本发明实施例提供的获取设备位移数据,基于设备位移数据构建位移预测函数,通过位移预测函数计算设备的预测轨迹坐标的步骤的流程图;
图3为本发明实施例提供的基于设备的预测轨迹坐标生成移动速度预测函数,基于移动速度预测函数计算设备速度预测数据的步骤的流程图;
图4为本发明实施例提供的获取设备角度转动数据,基于设备角度转动数据构建角度预测函数,根据预测轨迹坐标、设备速度预测数据和角度预测函数进行场景预渲染的步骤的流程图;
图5为本发明实施例提供的一种虚拟屏幕的显示系统的架构图;
图6为本发明实施例提供的一种轨迹预测模块的架构图;
图7为本发明实施例提供的一种设备速度预测模块的架构图;
图8为本发明实施例提供的一种场景预渲染模块的架构图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
可以理解,本申请所使用的术语“第一”、“第二”等可在本文中用于描述各种元件,但除非特别说明,这些元件不受这些术语限制。这些术语仅用于将第一个元件与另一个元件区分。举例来说,在不脱离本申请的范围的情况下,可以将第一xx脚本称为第二xx脚本,且类似地,可将第二xx脚本称为第一xx脚本。
如图1所示,为本发明实施例提供的一种虚拟屏幕的显示方法的流程图,所述方法包括:
S100,构建三维场景模型,基于三维场景模型构建三维坐标系,并确定取景器的起始位置。
在本步骤中,构建三维场景模型,进行虚拟屏幕显示的过程中,先构建三维场景模型,使用时,先加载三维场景模型,基于三维场景模型构建一个三维坐标系,在三维坐标系中,每一个点都具有一个坐标,确定取景器的起始位置,在确定起始位置时,用户需要先佩戴穿戴设备,随后根据提示进行移动,用户可以自行选择取景器(即穿戴设备在虚拟场景中观测点,相当于虚拟相机)的起始位置,确定起始位置的过程中,对穿戴设备的位移数据进行记录,包括三轴加速度传感器产生的数据以及霍尔元件产生的数据,其中,三轴加速度传感器产生的数据可以确定穿戴设备的平移数据,霍尔元件产生的数据用于确定穿戴设备的转动数据,两者结合,即可确定取景器在各个时刻所在的位置,以及取景器的观测角度。
S200,获取设备位移数据,基于设备位移数据构建位移预测函数,通过位移预测函数计算设备的预测轨迹坐标。
在本步骤中,获取设备位移数据,在正式进行屏幕数据投送之前,对用户佩戴穿戴设备移动时的数据进行记录,即为设备位移数据,上述设备位移数据来自三轴加速度传感器产生的数据,根据上述设备位置数据即可确定取景器已经产生的移动轨迹,对该移动轨迹进行拆解,将其分解为三个自由度的单独数据,从而拟合得到位移预测函数,位移预测函数至少包括X轴位移预测函数、Y轴位移预测函数和Z轴位移预测函数,那么根据上述三组位移预测函数就可以对取景器沿着三个自由度方向上的移动轨迹,根据位移预测函数即可预测取景器在各个自由度上的移动趋势,根据三个自由度上的预测结果,即可合成得到取景器在短时间内的空间坐标,即为预测轨迹坐标。
S300,基于设备的预测轨迹坐标生成移动速度预测函数,基于移动速度预测函数计算设备速度预测数据。
在本步骤中,基于设备的预测轨迹坐标生成移动速度预测函数,用户佩戴穿戴设备时,其移动轨迹是无法出现突变的,如VR头戴式设备,其固定在用户的头部,用户在移动身体或者转动头部,将会分别带动头戴式设备平移和改变头戴式设备的观测角度,用户移动时基本上属于直线运动或者规则的曲线运动,如椭圆运动轨迹、圆形运动轨迹或者抛物线运动轨迹,而且由于存在惯性,用户需要完成一个动作,才能完成下一个动作,那么其运动轨迹也可以据此划分为多段,每一个动作即对应一个运动轨迹,那么在该运动轨迹内,其运动速度必然呈现出先加速,最后减速的现象,根据计算得到的预测轨迹坐标对应的时间值,即可计算得到用户在该轨迹上个点的移动速度,即为设备速度预测数据。
S400,获取设备角度转动数据,基于设备角度转动数据构建角度预测函数,根据预测轨迹坐标、设备速度预测数据和角度预测函数进行场景预渲染。
在本步骤中,获取设备角度转动数据,对于用户而言,其角度改变主要依赖于用户转动头部,当用户头部转动的越快时,那么取景器所对应的采集方向改变越快,根据预测轨迹坐标可以确定取景器的位置,而通过获取设备角度转动数据,就可以拟合得到角度预测函数,根据角度预测函数可以对用户的头部转动角度进行预测,得到角度偏转值,根据预测轨迹坐标可以确定取景器在三维坐标系中的预测位置,根据角度偏转值可以确定在该位置取景器的取景角度,提取设备速度预测数据,确定取景器在该点的运动速度,基于运动速度确定在该处渲染画面的采样数量,这是由于对于用户而言,其佩戴穿戴设备移动时,其移动的速度越快,则说明经过该位置的速度越快,那么用户在该处转动头部的角度也就越小,为了能够保证刷新率,那么在该位置以更小的观测角度范围进行取景,根据取景角度进行场景预渲染,将场景预渲染得到的画面暂存起来;通过虚拟屏幕进行显示时,实时读取取景器的实际位置坐标,基于实际位置坐标调取经过场景预渲染的画面数据,根据该画面数据进行显示,每一组场景预渲染的画面数据都标记有对应的空间坐标值以及观测角度值,根据用户的实时位置从画面数据中提取对应的画面进行显示即可。
如图2所示,作为本发明的一个优选实施例,所述获取设备位移数据,基于设备位移数据构建位移预测函数,通过位移预测函数计算设备的预测轨迹坐标的步骤,具体包括:
S201,获取设备位移数据,将设备位移数据拆解为坐标轴位移数据,所述坐标轴位移数据包括X轴位移数据、Y轴位移数据和Z轴位移数据。
在本步骤中,获取设备位移数据,在用户刚开始佩戴穿戴设备时,记录了部分数据,即为设备位移数据,将其拆解为三个自由度方向上的位移数据,即为X轴位移数据、Y轴位移数据和Z轴位移数据,上述设备位移数据中记录的数据为设备的坐标,即为(X,Y,Z),不同时刻值t,对应了不同的设备坐标(X,Y,Z),换言之,设备坐标的三个元素均随着时刻值t变动,那么坐标轴位移数据即记录了各个时刻对应的不同轴上的坐标数据,对于X轴位移数据,其记录的数据即为(t,X),同理,Y轴位移数据,其记录的数据即为(t,Y),Z轴位移数据,其记录的数据即为(t,Z)。
S202,基于坐标轴位移数据进行函数拟合,得到位移预测函数,所述位移预测函数的自变量为时间值。
在本步骤中,基于坐标轴位移数据进行函数拟合,在提取设备位移数据时,按照预设的时间间隔提取预设数量的设备位移数据,即设备坐标,那么经过分解后,得到的坐标轴位移数据也是固定数量的,以X轴位移数据为例,若设备位移数据提取的数量为10组,那么X轴位移数据的数量也为10,X轴位移数据表示为(Xi,ti),其中i为1-10之间的自然数,基于预设的函数类型,基于上述X轴位移数据(Xi,ti)进行拟合,得到位移预测函数,位移预测函数即为X(t),Y(t)以及Z(t),函数类型可以为多种,如线性函数、二次函数、高次多项式函数、指数函数、对数函数、三角函数、反比例函数和幂函数等,通过进行拟合,只要满足预设的拟合精度要求,即可将其作为位移预测函数,但是位移预测函数的自变量均为时间值,也就是说位移预测函数可以为多个。
S203,按照预设的数据采样率确定轨迹坐标生成间隔,通过位移预测函数计算预测轨迹坐标。
在本步骤中,按照预设的数据采样率确定轨迹坐标生成间隔,轨迹坐标生成间隔即为自变量的取值间隔,以时间t0为例,t0为当前时刻,tn为预测时间值,tn=t0+nT,其中T即为轨迹坐标生成间隔,在进行轨迹预测时,根据需求设置需要预测的时间区域,如预测一秒钟以内的轨迹,那么预测轨迹坐标的数量即为1/T,将预测时间值逐个代入到位移预测函数中,分别得到Xi、Yi和Zi,得到对应数量的预测轨迹坐标(Xi,Yi,Zi),该预测轨迹坐标对应时间值ti。
如图3所示,作为本发明的一个优选实施例,所述基于设备的预测轨迹坐标生成移动速度预测函数,基于移动速度预测函数计算设备速度预测数据的步骤,具体包括:
S301,根据预测轨迹坐标计算取景器在各个预测轨迹坐标上的移动速度,得到多组速度坐标,所述速度坐标的横坐标为时间值,速度坐标的纵坐标为速度值。
在本步骤中,根据预测轨迹坐标计算取景器在各个预测轨迹坐标上的移动速度,计算与当前预测轨迹坐标相邻的两个预测轨迹坐标之间的距离和,并计算两个相邻预测轨迹坐标之间的时间差,从计算得到平均值,即为在当前预测轨迹坐标上的移动速度,每一个预测轨迹坐标即对应一个速度坐标,所述速度坐标的横坐标为时间值,速度坐标的纵坐标为速度值。
S302,对速度坐标进行函数拟合,得到移动速度预测函数,所述移动速度预测函数的自变量为时间值。
S303,提取预测轨迹坐标对应的时间值,将其代入移动速度预测函数,生成设备速度预测数据。
在本步骤中,对速度坐标进行函数拟合,以同样的方式进行函数拟合,采用多种函数类型进行拟合,得到移动速度预测函数,即V(t),保留满足拟合精度要求的移动速度预测函数,同样的,移动速度预测函数的自变量为时间值,基于上述移动速度预测函数可以确定在预测得到的移动轨迹上的任何一个点的预测速度值。
如图4所示,作为本发明的一个优选实施例,所述获取设备角度转动数据,基于设备角度转动数据构建角度预测函数,根据预测轨迹坐标、设备速度预测数据和角度预测函数进行场景预渲染的步骤,具体包括:
S401,根据预测轨迹坐标匹配对应的设备速度预测数据,获取设备角度转动数据,构建角度预测函数,基于角度预测函数计算角度偏转值。
在本步骤中,根据预测轨迹坐标匹配对应的设备速度预测数据,无论是位移预测函数,移动速度预测函数还是角度预测函数,其自变量都是统一的,均为时间值t,那么根据时间值,即可将预测轨迹坐标与设备的移动速度进行匹配,对于设备角度转动数据而言,其采用欧拉角的表达方式,将其拆解为以X轴旋转、以Y轴旋转和以Z轴旋转的三组数据,为(θX,t),(θY,t)和(θZ,t),基于上述三组数据分别进行拟合,即得到三组角度预测函数,即为θX(t),θY(t)和θZ(t),那么根据预测轨迹坐标的时间值,即可计算得到角度偏转值θX(ti),θY(ti)和θZ(ti)。
S402,提取设备速度预测数据,根据取景器在该预测轨迹坐标处的速度值,确定偏转角度切片间隔。
在本步骤中,提取设备速度预测数据对应的时间值,根据上述时间值即可确定取景器在该预测轨迹坐标处的速度值,用户的移动速度越快,那么穿戴设备在该处出现的角度变化范围就越小,读取预设的移动速度与偏转角度范围映射表,查询当前设备移动速度下的偏转角度范围,如A速度下,偏转范围为±0.1θ(ti),B小于A,B速度下,偏转范围为±0.2θ(ti),θ(ti)表示θX(ti),θY(ti)和θZ(ti),在每个预测轨迹座标处渲染的画面数量相同,以保证虚拟屏幕显示的帧率,画面数量P为预设值,偏转角度切片间隔即为2θm/P,其中,θm为偏转范围。
S403,根据预测轨迹坐标确定取景器的位置,根据偏转角度切片间隔从该取景器所在的位置选择多个图像采集方向,并进行场景预渲染。
在本步骤中,根据预测轨迹坐标确定取景器的位置,根据确定的偏转角度切片间隔可以确定每一个偏转方向上的转动间隔,如以X轴为轴线转动为例,划分得到P个偏转角度,同样的Y轴对应P个偏转角度,那么三个旋转轴上的偏转角度合成得到P3个欧拉角,在上述P3个欧拉角的画面上各渲染一组图片,将其作为该点的场景预渲染数据。
如图5所示,为本发明实施例提供的一种虚拟屏幕的显示系统,所述系统包括:
场景构建模块100,用于构建三维场景模型,基于三维场景模型构建三维坐标系,并确定取景器的起始位置。
在本系统中,场景构建模块100构建三维场景模型,进行虚拟屏幕显示的过程中,先构建三维场景模型,使用时,先加载三维场景模型,基于三维场景模型构建一个三维坐标系,在三维坐标系中,每一个点都具有一个坐标,确定取景器的起始位置,在确定起始位置时,用户需要先佩戴穿戴设备,随后根据提示进行移动,用户可以自行选择取景器(即穿戴设备在虚拟场景中观测点,相当于虚拟相机)的起始位置,确定起始位置的过程中,对穿戴设备的位移数据进行记录,包括三轴加速度传感器产生的数据以及霍尔元件产生的数据,其中,三轴加速度传感器产生的数据可以确定穿戴设备的平移数据,霍尔元件产生的数据用于确定穿戴设备的转动数据,两者结合,即可确定取景器在各个时刻所在的位置,以及取景器的观测角度。
轨迹预测模块200,用于获取设备位移数据,基于设备位移数据构建位移预测函数,通过位移预测函数计算设备的预测轨迹坐标。
在本系统中,轨迹预测模块200获取设备位移数据,在正式进行屏幕数据投送之前,对用户佩戴穿戴设备移动时的数据进行记录,即为设备位移数据,上述设备位移数据来自三轴加速度传感器产生的数据,根据上述设备位置数据即可确定取景器已经产生的移动轨迹,对该移动轨迹进行拆解,将其分解为三个自由度的单独数据,从而拟合得到位移预测函数,位移预测函数至少包括X轴位移预测函数、Y轴位移预测函数和Z轴位移预测函数,那么根据上述三组位移预测函数就可以对取景器沿着三个自由度方向上的移动轨迹,根据位移预测函数即可预测取景器在各个自由度上的移动趋势,根据三个自由度上的预测结果,即可合成得到取景器在短时间内的空间坐标,即为预测轨迹坐标。
设备速度预测模块300,用于基于设备的预测轨迹坐标生成移动速度预测函数,基于移动速度预测函数计算设备速度预测数据。
在本系统中,设备速度预测模块300基于设备的预测轨迹坐标生成移动速度预测函数,用户佩戴穿戴设备时,其移动轨迹是无法出现突变的,如VR头戴式设备,其固定在用户的头部,用户在移动身体或者转动头部,将会分别带动头戴式设备平移和改变头戴式设备的观测角度,用户移动时基本上属于直线运动或者规则的曲线运动,如椭圆运动轨迹、圆形运动轨迹或者抛物线运动轨迹,而且由于存在惯性,用户需要完成一个动作,才能完成下一个动作,那么其运动轨迹也可以据此划分为多段,每一个动作即对应一个运动轨迹,那么在该运动轨迹内,其运动速度必然呈现出先加速,最后减速的现象,根据计算得到的预测轨迹坐标对应的时间值,即可计算得到用户在该轨迹上个点的移动速度,即为设备速度预测数据。
场景预渲染模块400,用于获取设备角度转动数据,基于设备角度转动数据构建角度预测函数,根据预测轨迹坐标、设备速度预测数据和角度预测函数进行场景预渲染。
在本系统中,场景预渲染模块400获取设备角度转动数据,对于用户而言,其角度改变主要依赖于用户转动头部,当用户头部转动的越快时,那么取景器所对应的采集方向改变越快,根据预测轨迹坐标可以确定取景器的位置,而通过获取设备角度转动数据,就可以拟合得到角度预测函数,根据角度预测函数可以对用户的头部转动角度进行预测,得到角度偏转值,根据预测轨迹坐标可以确定取景器在三维坐标系中的预测位置,根据角度偏转值可以确定在该位置取景器的取景角度,提取设备速度预测数据,确定取景器在该点的运动速度,基于运动速度确定在该处渲染画面的采样数量,这是由于对于用户而言,其佩戴穿戴设备移动时,其移动的速度越快,则说明经过该位置的速度越快,那么用户在该处转动头部的角度也就越小,为了能够保证刷新率,那么在该位置以更小的观测角度范围进行取景,根据取景角度进行场景预渲染,将场景预渲染得到的画面暂存起来;通过虚拟屏幕进行显示时,实时读取取景器的实际位置坐标,基于实际位置坐标调取经过场景预渲染的画面数据,根据该画面数据进行显示,每一组场景预渲染的画面数据都标记有对应的空间坐标值以及观测角度值,根据用户的实时位置从画面数据中提取对应的画面进行显示即可。
如图6所示,作为本发明的一个优选实施例,所述轨迹预测模块200包括:
数据拆解单元201,用于获取设备位移数据,将设备位移数据拆解为坐标轴位移数据,所述坐标轴位移数据包括X轴位移数据、Y轴位移数据和Z轴位移数据。
在本模块中,数据拆解单元201获取设备位移数据,在用户刚开始佩戴穿戴设备时,记录了部分数据,即为设备位移数据,将其拆解为三个自由度方向上的位移数据,即为X轴位移数据、Y轴位移数据和Z轴位移数据,上述设备位移数据中记录的数据为设备的坐标,即为(X,Y,Z),不同时刻值t,对应了不同的设备坐标(X,Y,Z),换言之,设备坐标的三个元素均随着时刻值t变动,那么坐标轴位移数据即记录了各个时刻对应的不同轴上的坐标数据,对于X轴位移数据,其记录的数据即为(t,X),同理,Y轴位移数据,其记录的数据即为(t,Y),Z轴位移数据,其记录的数据即为(t,Z)。
位移函数拟合单元202,用于基于坐标轴位移数据进行函数拟合,得到位移预测函数,所述位移预测函数的自变量为时间值。
在本模块中,位移函数拟合单元202基于坐标轴位移数据进行函数拟合,在提取设备位移数据时,按照预设的时间间隔提取预设数量的设备位移数据,即设备坐标,那么经过分解后,得到的坐标轴位移数据也是固定数量的,以X轴位移数据为例,若设备位移数据提取的数量为10组,那么X轴位移数据的数量也为10,X轴位移数据表示为(Xi,ti),其中i为1-10之间的自然数,基于预设的函数类型,基于上述X轴位移数据(Xi,ti)进行拟合,得到位移预测函数,位移预测函数即为X(t),Y(t)以及Z(t),函数类型可以为多种,如线性函数、二次函数、高次多项式函数、指数函数、对数函数、三角函数、反比例函数和幂函数等,通过进行拟合,只要满足预设的拟合精度要求,即可将其作为位移预测函数,但是位移预测函数的自变量均为时间值,也就是说位移预测函数可以为多个。
轨迹计算单元203,用于按照预设的数据采样率确定轨迹坐标生成间隔,通过位移预测函数计算预测轨迹坐标。
在本模块中,轨迹计算单元203按照预设的数据采样率确定轨迹坐标生成间隔,轨迹坐标生成间隔即为自变量的取值间隔,以时间t0为例,t0为当前时刻,tn为预测时间值,tn=t0+nT,其中T即为轨迹坐标生成间隔,在进行轨迹预测时,根据需求设置需要预测的时间区域,如预测一秒钟以内的轨迹,那么预测轨迹坐标的数量即为1/T,将预测时间值逐个代入到位移预测函数中,分别得到Xi、Yi和Zi,得到对应数量的预测轨迹坐标(Xi,Yi,Zi),该预测轨迹坐标对应时间值ti。
如图7所示,作为本发明的一个优选实施例,所述设备速度预测模块300包括:
速度坐标提取单元301,用于根据预测轨迹坐标计算取景器在各个预测轨迹坐标上的移动速度,得到多组速度坐标,所述速度坐标的横坐标为时间值,速度坐标的纵坐标为速度值。
在本模块中,速度坐标提取单元301根据预测轨迹坐标计算取景器在各个预测轨迹坐标上的移动速度,计算与当前预测轨迹坐标相邻的两个预测轨迹坐标之间的距离和,并计算两个相邻预测轨迹坐标之间的时间差,从计算得到平均值,即为在当前预测轨迹坐标上的移动速度,每一个预测轨迹坐标即对应一个速度坐标,所述速度坐标的横坐标为时间值,速度坐标的纵坐标为速度值。
速度函数拟合单元302,用于对速度坐标进行函数拟合,得到移动速度预测函数,所述移动速度预测函数的自变量为时间值。
速度预测计算单元303,用于提取预测轨迹坐标对应的时间值,将其代入移动速度预测函数,生成设备速度预测数据。
在本模块中,对速度坐标进行函数拟合,以同样的方式进行函数拟合,采用多种函数类型进行拟合,得到移动速度预测函数,即V(t),保留满足拟合精度要求的移动速度预测函数,同样的,移动速度预测函数的自变量为时间值,基于上述移动速度预测函数可以确定在预测得到的移动轨迹上的任何一个点的预测速度值。
如图8所示,作为本发明的一个优选实施例,所述场景预渲染模块400包括:
角度计算单元401,用于根据预测轨迹坐标匹配对应的设备速度预测数据,获取设备角度转动数据,构建角度预测函数,基于角度预测函数计算角度偏转值。
在本模块中,角度计算单元401根据预测轨迹坐标匹配对应的设备速度预测数据,无论是位移预测函数,移动速度预测函数还是角度预测函数,其自变量都是统一的,均为时间值t,那么根据时间值,即可将预测轨迹坐标与设备的移动速度进行匹配,对于设备角度转动数据而言,其采用欧拉角的表达方式,将其拆解为以X轴旋转、以Y轴旋转和以Z轴旋转的三组数据,为(θX,t),(θY,t)和(θZ,t),基于上述三组数据分别进行拟合,即得到三组角度预测函数,即为θX(t),θY(t)和θZ(t),那么根据预测轨迹坐标的时间值,即可计算得到角度偏转值θX(ti),θY(ti)和θZ(ti)。
偏转间隔计算单元402,用于提取设备速度预测数据,根据取景器在该预测轨迹坐标处的速度值,确定偏转角度切片间隔。
在本模块中,偏转间隔计算单元402提取设备速度预测数据对应的时间值,根据上述时间值即可确定取景器在该预测轨迹坐标处的速度值,用户的移动速度越快,那么穿戴设备在该处出现的角度变化范围就越小,读取预设的移动速度与偏转角度范围映射表,查询当前设备移动速度下的偏转角度范围,如A速度下,偏转范围为±0.1θ(ti),B小于A,B速度下,偏转范围为±0.2θ(ti),θ(ti)表示θX(ti),θY(ti)和θZ(ti),在每个预测轨迹座标处渲染的画面数量相同,以保证虚拟屏幕显示的帧率,画面数量P为预设值,偏转角度切片间隔即为2θm/P,其中,θm为偏转范围。
动态渲染单元403,用于根据预测轨迹坐标确定取景器的位置,根据偏转角度切片间隔从该取景器所在的位置选择多个图像采集方向,并进行场景预渲染。
在本模块中,动态渲染单元403根据预测轨迹坐标确定取景器的位置,根据确定的偏转角度切片间隔可以确定每一个偏转方向上的转动间隔,如以X轴为轴线转动为例,划分得到P个偏转角度,同样的Y轴对应P个偏转角度,那么三个旋转轴上的偏转角度合成得到P3个欧拉角,在上述P3个欧拉角的画面上各渲染一组图片,将其作为该点的场景预渲染数据。
应该理解的是,虽然本发明各实施例的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,各实施例中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink) DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种虚拟屏幕的显示方法,其特征在于,所述方法包括:
构建三维场景模型,基于三维场景模型构建三维坐标系,并确定取景器的起始位置;
获取设备位移数据,基于设备位移数据构建位移预测函数,通过位移预测函数计算设备的预测轨迹坐标;
基于设备的预测轨迹坐标生成移动速度预测函数,基于移动速度预测函数计算设备速度预测数据;
获取设备角度转动数据,基于设备角度转动数据构建角度预测函数,根据预测轨迹坐标、设备速度预测数据和角度预测函数进行场景预渲染;
所述获取设备角度转动数据,基于设备角度转动数据构建角度预测函数,根据预测轨迹坐标、设备速度预测数据和角度预测函数进行场景预渲染的步骤,具体包括:
根据预测轨迹坐标匹配对应的设备速度预测数据,获取设备角度转动数据,构建角度预测函数,基于角度预测函数计算角度偏转值;
提取设备速度预测数据,根据取景器在该预测轨迹坐标处的速度值,确定偏转角度切片间隔;
根据预测轨迹坐标确定取景器的位置,根据偏转角度切片间隔从该取景器所在的位置选择多个图像采集方向,并进行场景预渲染。
2.根据权利要求1所述的虚拟屏幕的显示方法,其特征在于,所述获取设备位移数据,基于设备位移数据构建位移预测函数,通过位移预测函数计算设备的预测轨迹坐标的步骤,具体包括:
获取设备位移数据,将设备位移数据拆解为坐标轴位移数据,所述坐标轴位移数据包括X轴位移数据、Y轴位移数据和Z轴位移数据;
基于坐标轴位移数据进行函数拟合,得到位移预测函数,所述位移预测函数的自变量为时间值;
按照预设的数据采样率确定轨迹坐标生成间隔,通过位移预测函数计算预测轨迹坐标。
3.根据权利要求1所述的虚拟屏幕的显示方法,其特征在于,所述基于设备的预测轨迹坐标生成移动速度预测函数,基于移动速度预测函数计算设备速度预测数据的步骤,具体包括:
根据预测轨迹坐标计算取景器在各个预测轨迹坐标上的移动速度,得到多组速度坐标,所述速度坐标的横坐标为时间值,速度坐标的纵坐标为速度值;
对速度坐标进行函数拟合,得到移动速度预测函数,所述移动速度预测函数的自变量为时间值;
提取预测轨迹坐标对应的时间值,将其代入移动速度预测函数,生成设备速度预测数据。
4.根据权利要求1所述的虚拟屏幕的显示方法,其特征在于,通过虚拟屏幕进行显示时,实时读取取景器的实际位置坐标,基于实际位置坐标调取经过场景预渲染的画面数据,根据该画面数据进行显示。
5.一种虚拟屏幕的显示系统,其特征在于,所述系统包括:
场景构建模块,用于构建三维场景模型,基于三维场景模型构建三维坐标系,并确定取景器的起始位置;
轨迹预测模块,用于获取设备位移数据,基于设备位移数据构建位移预测函数,通过位移预测函数计算设备的预测轨迹坐标;
设备速度预测模块,用于基于设备的预测轨迹坐标生成移动速度预测函数,基于移动速度预测函数计算设备速度预测数据;
场景预渲染模块,用于获取设备角度转动数据,基于设备角度转动数据构建角度预测函数,根据预测轨迹坐标、设备速度预测数据和角度预测函数进行场景预渲染;
所述场景预渲染模块包括:
角度计算单元,用于根据预测轨迹坐标匹配对应的设备速度预测数据,获取设备角度转动数据,构建角度预测函数,基于角度预测函数计算角度偏转值;
偏转间隔计算单元,用于提取设备速度预测数据,根据取景器在该预测轨迹坐标处的速度值,确定偏转角度切片间隔;
动态渲染单元,用于根据预测轨迹坐标确定取景器的位置,根据偏转角度切片间隔从该取景器所在的位置选择多个图像采集方向,并进行场景预渲染。
6.根据权利要求5所述的虚拟屏幕的显示系统,其特征在于,所述轨迹预测模块包括:
数据拆解单元,用于获取设备位移数据,将设备位移数据拆解为坐标轴位移数据,所述坐标轴位移数据包括X轴位移数据、Y轴位移数据和Z轴位移数据;
位移函数拟合单元,用于基于坐标轴位移数据进行函数拟合,得到位移预测函数,所述位移预测函数的自变量为时间值;
轨迹计算单元,用于按照预设的数据采样率确定轨迹坐标生成间隔,通过位移预测函数计算预测轨迹坐标。
7.根据权利要求5所述的虚拟屏幕的显示系统,其特征在于,所述设备速度预测模块包括:
速度坐标提取单元,用于根据预测轨迹坐标计算取景器在各个预测轨迹坐标上的移动速度,得到多组速度坐标,所述速度坐标的横坐标为时间值,速度坐标的纵坐标为速度值;
速度函数拟合单元,用于对速度坐标进行函数拟合,得到移动速度预测函数,所述移动速度预测函数的自变量为时间值;
速度预测计算单元,用于提取预测轨迹坐标对应的时间值,将其代入移动速度预测函数,生成设备速度预测数据。
8.根据权利要求5所述的虚拟屏幕的显示系统,其特征在于,通过虚拟屏幕进行显示时,实时读取取景器的实际位置坐标,基于实际位置坐标调取经过场景预渲染的画面数据,根据该画面数据进行显示。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410298857.XA CN117911629B (zh) | 2024-03-15 | 一种虚拟屏幕的显示方法和显示系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410298857.XA CN117911629B (zh) | 2024-03-15 | 一种虚拟屏幕的显示方法和显示系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117911629A CN117911629A (zh) | 2024-04-19 |
CN117911629B true CN117911629B (zh) | 2024-07-05 |
Family
ID=
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106095103A (zh) * | 2016-06-16 | 2016-11-09 | 世源科技工程有限公司 | 虚拟现实的显示控制方法、装置及相关设备 |
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106095103A (zh) * | 2016-06-16 | 2016-11-09 | 世源科技工程有限公司 | 虚拟现实的显示控制方法、装置及相关设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2019154013A1 (zh) | 表情动画数据处理方法、计算机设备和存储介质 | |
CN109840500B (zh) | 一种三维人体姿态信息检测方法及装置 | |
Galvane et al. | Camera-on-rails: automated computation of constrained camera paths | |
KR20170007102A (ko) | 3차원 지도 생성 및 표시 장치 및 방법 | |
JP4285422B2 (ja) | 動画像生成システム、動画像生成装置、動画像生成方法、プログラム、及び記録媒体 | |
KR102322354B1 (ko) | 자동으로 카메라워크를 생성하는 영상 처리 방법 및 장치 | |
CN104252712A (zh) | 图像生成装置及图像生成方法 | |
JP2015079502A (ja) | オブジェクト追跡方法、オブジェクト追跡装置、及び追跡特徴選択方法 | |
JP6609112B2 (ja) | 多視点映像表現装置及びそのプログラム | |
Stoev et al. | A case study on automatic camera placement and motion for visualizing historical data | |
CN117911629B (zh) | 一种虚拟屏幕的显示方法和显示系统 | |
CN116385603A (zh) | 一种基于稀疏视图的语音驱动人脸合成方法 | |
CN109587572B (zh) | 一种展示产品的方法、装置、存储介质及电子设备 | |
CN117911629A (zh) | 一种虚拟屏幕的显示方法和显示系统 | |
US7969442B2 (en) | Method and system of producing cartoon animation using character animation and mesh deformation | |
Ponto et al. | Effective replays and summarization of virtual experiences | |
US20220383586A1 (en) | Image processing apparatus, method for controlling the same, and non-transitory computer-readable storage medium | |
Tilmanne et al. | Expressive gait synthesis using PCA and Gaussian modeling | |
Amamra | Smooth head tracking for virtual reality applications | |
CN116309990A (zh) | 人脸视频生成方法、装置、设备及存储介质 | |
JP2003305275A (ja) | ゲームプログラム | |
KR20230017745A (ko) | 화상 처리장치, 화상 처리방법, 및 기억매체 | |
JP6381092B2 (ja) | 摂動因子存在下で入力の値を推定する方法及び装置 | |
Didier et al. | A time delay compensation method improving registration for augmented reality | |
EP3936978B1 (en) | Object display |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |