基于增强现实的空间定位方法及装置
技术领域
本发明涉及空间定位领域,特别涉及一种基于增强现实的空间定位方法及装置。
背景技术
AR(AR是Augmented Reality的简称,中文释义为增强现实技术或增强现实)是一种实时地计算摄影机影像的位置及角度并加上相应图像、视频、3D模型的技术,这种技术的目标是在屏幕上把虚拟世界套在现实世界并进行互动。随着随身电子产品CPU(CPU是CentralProcessingUnit的简称,中文释义为中央处理器)运算能力的提升,预期增强现实的用途将会越来越广。
现有技术中用户使用的AR头戴设备,通常会采用Inside-Out方案对虚拟物体进行定位。但是,Inside-Out定位方案应用在AR场景中时,需要通过双摄像头设备和定位光球来实现虚拟物体和现实物体的定位。
但是,本申请的发明人在实现本发明的过程中发现,现有技术中还存在以下技术缺陷:在双摄像头设备相对于定位光球会发生位移或者旋转时,虚拟场景中的物体无法与定位光球的位置重合,进而导致虚拟场景中的物体无法与现实场景中的物体紧密结合。
发明内容
本发明实施例的目的在于提供一种基于增强现实的空间定位方法及装置,可以保证虚拟场景中的虚拟物体能够与定位光球的位置重合,避免因虚拟物体无法与定位光球的位置重合而导致虚拟物体无法与现实场景中的真实物体紧密结合的现象,从而,可以保证在虚拟场景中虚拟物体与真实物体紧密结合,有助于匹配用户的需求。
为解决上述技术问题,本发明实施例提供了一种基于增强现实的空间定位方法,包括:获取双摄像头坐标系相对于世界坐标系的偏移角度;其中,所述世界坐标系为预先以定位光球的已知目标位置为基准坐标建立的坐标系;获取所述定位光球在所述世界坐标系的实际位置;根据所述偏移角度、所述定位光球的实际位置和所述目标位置,计算所述双摄像头在所述世界坐标系的坐标值;根据所述双摄像头在所述世界坐标系的坐标值,确定虚拟空间内虚拟物体在所述世界坐标系中的位置。
本发明实施例还提供了一种基于增强现实的空间定位装置,包括:第一获取模块,用于获取双摄像头坐标系相对于世界坐标系的偏移角度;其中,所述世界坐标系为预先以定位光球的已知目标位置为基准坐标建立的坐标系;第二获取模块,用于获取所述定位光球在所述世界坐标系的实际位置;计算模块,用于根据所述偏移角度、所述定位光球的实际位置和所述目标位置,计算所述双摄像头在所述世界坐标系的坐标值;定位模块,用于根据所述双摄像头在所述世界坐标系的坐标值,确定虚拟空间内虚拟物体在所述世界坐标系中的位置。
本发明实施例相对于现有技术而言,通过获取双摄像头坐标系相对于世界坐标系的偏移角度;获取所述定位光球在所述世界坐标系的实际位置;根据所述偏移角度、所述定位光球的实际位置和所述目标位置,计算所述双摄像头在所述世界坐标系的坐标值;根据所述双摄像头在所述世界坐标系的坐标值,确定虚拟空间内虚拟物体在所述世界坐标系中的位置,使得可以保证虚拟场景中的虚拟物体能够与定位光球的位置重合,避免因虚拟物体无法与定位光球的位置重合而导致虚拟物体无法与现实场景中的真实物体紧密结合的现象,从而,可以保证在虚拟场景中虚拟物体与真实物体紧密结合,有助于匹配用户的需求。
另外,根据偏移角度、定位光球的实际位置和目标位置,计算双摄像头在世界坐标系的坐标值,具体包括:根据所述偏移角度、所述定位光球的实际位置和所述目标位置,建立几何位置关系;以所述双摄像头在所述世界坐标系各坐标轴的坐标值为未知变量,根据所述几何位置关系建立数学方程组;对所述数学方程组进行解析,得到所述双摄像头在所述世界坐标系各坐标轴的坐标值。通过这种方式提供了计算双摄像头在世界坐标系的坐标值的一种具体实现方法,有助于保证本发明的进一步可行性。
另外,所述根据偏移角度、所述定位光球的实际位置和所述目标位置,建立几何位置关系,具体包括:所述目标位置S在所述世界坐标系XY平面的投影点B、过所述定位光球的实际位置C1平行于所述双摄像头自身坐标系的Y轴且与所述C1相距长度为所述Y1的点A、做C1A与所述世界坐标系XY平面的交点N,其中,所述定位光球的实际位置C1相对于所述目标位置S在所述世界坐标系上的偏移坐标(X1,Y1,Z1);所述双摄像头自身坐标系中的Y轴与所述世界坐标系XY平面的交点P;过所述双摄像头的位置C做所述世界坐标系XY平面的垂线,且与所述世界坐标系XY平面的交点H;过所述S做NB的平行线与C1N的交点为T,ST与一预设面的交点E,所述预设面为过CH与所述世界坐标系的YZ面平行的面;所述S在所述预设面的投影G,过所述C1做所述CH的垂线且与所述CH交于J,过所述S做与所述世界坐标系的XY平面与所述CH交于C2,过所述C2向SE做垂线交于所述SE于F。通过这种方式提供了一种建立几何位置关系具体实现方法,有助于保证本发明的进一步可行性。
另外,所述根据几何位置关系建立数学方程组,具体包括:根据所述几何位置关系在所述双摄像头自身坐标系的Z轴正方向上的几何图形投影,列第一方程组:QB=Y0*Sinγ+X1;NA=(Y0*Sinγ+X1)*Tanγ+Y0*Cosγ;其中,所述Y0为所述定位光球的基准坐标值,角度γ为所述双摄像头坐标系相对于所述世界坐标系下绕Z轴的旋转角度;根据所述几何位置关系在所述双摄像头自身坐标系的X轴负方向上的几何图形投影,列第二方程组:N C1=(Y0*Cosγ+(X1+Y0*Sinγ)*Tanγ)/Cosα+Y1;CP=Z1*Tanα+(Y0*Cosγ+(X1+Y0*Sinγ)*Tanγ)/Cosα+Y1;其中,所述α为所述双摄像头坐标系相对于所述世界坐标系下绕X轴的旋转角度;根据所述几何位置关系在所述世界坐标系的Z轴负反向上的几何图形投影,列第三方程:CH=(Z1*Tanα+(Y0*Cosγ+(X1+Y0*Sinγ)*Tanγ)/Cosα+Y1)*Cosγ;根据所述第一方程组、所述第二方程组以及所述第三方程,解析出所述双摄像头在所述世界坐标系中的Y轴的坐标值CH;根据所述几何位置关系在所述双摄像头自身坐标系的Z轴正方向上的几何图形投影,列第四方程组:AT=X1*Tanγ;TF=(Y1+X1*Tanγ)*Sinγ;SF=X1/Cosγ–(Y1+X1*Tanγ)*Sinγ;根据所述几何位置关系在所述世界坐标系的X轴负方向上的几何图形投影,列第五方程:C2F=Z1*Cosα;根据所述几何位置关系在所述双摄像头自身坐标系的Y轴正方向上的几何图形投影,列第六方程组:FE=Z1*Cosα*Tanβ;KF=(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ)*Tanβ;SE=X1/Cosγ–(Y1+X1*Tanγ)*Sinγ+Z1*Cosα*Tanβ;SG=(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ+Z1*Cosα*Tanβ)*Cosβ;C2K=Z1*Cosα–(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ)*Tanβ;C2G=(Z1*Cosα-(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ)*Tanβ)*Cosβ;根据所述第四方程组、所述第五方程以及所述第六方程组,分别解析出所述双摄像头在所述世界坐标系中的X轴的坐标值SG,Z轴的坐标值C2G。通过这种方式提供了一种根据几何位置关系建立数学方程组的具体实现方法,有助于保证本发明的进一步可行性。并且根据建立的数学方程组解析得到双摄像头分别在世界坐标系中的X轴、Y轴以及Z轴的坐标值,使得解析的结果更加精确。
附图说明
一个或多个实施例通过与之对应的附图中的图片进行示例性说明,这些示例性说明并不构成对实施例的限定,附图中具有相同参考数字标号的元件表示为类似的元件,除非有特别申明,附图中的图不构成比例限制。
图1是根据本发明第一实施方式中基于增强现实的空间定位方法的流程图;
图2是根据本发明第二实施方式中基于增强现实的空间定位方法的流程图;
图3是根据本发明第二实施方式中建立的几何位置关系结构示意图;
图4是根据本发明第二实施方式中建立的几何位置关系在另一方向上的结构示意图;
图5是根据本发明第二实施方式中建立的几何位置关系结构示意图在双摄像头自身坐标系的Z轴正方向上的几何图形投影图;
图6是根据本发明第二实施方式中建立的几何位置关系结构示意图在双摄像头自身坐标系的X轴负方向上的几何图形投影图;
图7是根据本发明第二实施方式中建立的几何位置关系结构示意图在世界坐标系的Z轴负反向上的几何图形投影图;
图8是根据本发明第二实施方式中建立的几何位置关系结构示意图在双摄像头自身坐标系的Z轴正方向上的几何图形投影图;
图9是根据本发明第二实施方式中建立的几何位置关系结构示意图在世界坐标系的X轴负方向上的几何图形投影图;
图10是根据本发明第二实施方式中建立的几何位置关系结构示意图在双摄像头自身坐标系的Y轴正方向上的几何图形投影图;
图11是根据本发明第三实施方式中基于增强现实的空间定位装置的方框图;
图12是根据本发明第四实施方式中基于增强现实的空间定位装置的方框图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明的各实施方式进行详细的阐述。然而,本领域的普通技术人员可以理解,在本发明各实施方式中,为了使读者更好地理解本申请而提出了许多技术细节。但是,即使没有这些技术细节和基于以下各实施方式的种种变化和修改,也可以实现本申请所要求保护的技术方案。
本发明的第一实施方式涉及一种基于增强现实的空间定位方法,应用于AR头戴设备,其中AR是Augmented Reality的简称,中文释义为增强现实技术或增强现实。
具体流程如图1所示,基于增强现实的空间定位方法包括:
步骤101,AR头戴设备获取双摄像头坐标系相对于世界坐标系的偏移角度。
具体地说,双摄像头通常设置于AR头戴设备中。并且AR头戴设备可以获取双摄像头坐标系相对于世界坐标系下分别绕世界坐标系的X轴、Y轴以及Z轴的各偏移角度。值得一提的是,AR头戴设备中可以但不限于安装有陀螺仪,并通过陀螺仪获取上述偏移角度。
其中,世界坐标系为预先以定位光球的已知目标位置为基准坐标建立的坐标系。具体而言,在实际的应用中,可以将定位光球的已知目标位置的坐标值定义为(0,Y0,0),并以此建立世界坐标系。值得一提的是,Y0的值可以根据实际的设计需求设计为任意值,本实施方式对Y0的具体值不作限制。
步骤102,AR头戴设备获取定位光球在世界坐标系的实际位置。
具体地说,AR头戴设备可以获取定位光球在世界坐标系中的实际坐标值。
步骤103,AR头戴设备根据偏移角度、定位光球的实际位置和目标位置,计算双摄像头在世界坐标系的坐标值。
步骤104,AR头戴设备根据双摄像头在世界坐标系的坐标值,确定虚拟空间内虚拟物体在世界坐标系中的位置。
具体地说,在实际的应用中,由于双摄像头设备相对于定位光球会发生位移或者旋转,导致虚拟场景中的物体无法与定位光球的位置重合,进而导致虚拟场景中的物体无法与现实场景中的物体紧密结合。因此,在AR头戴设备根据双摄像头在世界坐标系的坐标值,确定虚拟空间内虚拟物体在世界坐标系中的位置时,可以使虚拟物体能够与定位光球的位置重合,避免因虚拟物体无法与定位光球的位置重合而导致虚拟物体无法与现实场景中的真实物体紧密结合的现象。
通过上述内容,不难发现,本实施方式可以保证虚拟场景中的虚拟物体能够与定位光球的位置重合,避免因虚拟物体无法与定位光球的位置重合而导致虚拟物体无法与现实场景中的真实物体紧密结合的现象,从而,可以保证在虚拟场景中虚拟物体与真实物体紧密结合,有助于匹配用户的需求。
本发明的第二实施方式涉及一种基于增强现实的空间定位方法。第二实施方式是在第一实施方式的基础上做的改进。
具体流程如图2所示,基于增强现实的空间定位方法包括:
步骤201,AR头戴设备获取双摄像头坐标系相对于世界坐标系的偏移角度。
具体地说,双摄像头通常设置于AR头戴设备中。并且AR头戴设备可以获取双摄像头坐标系相对于世界坐标系下分别绕世界坐标系的X轴、Y轴以及Z轴的各偏移角度α、β以及γ。值得一提的是,AR头戴设备中可以但不限于安装有陀螺仪,并通过陀螺仪获取上述偏移角度。
其中,世界坐标系为预先以定位光球的已知目标位置为基准坐标建立的坐标系。具体而言,在实际的应用中,可以将定位光球的已知目标位置的坐标值定义为(0,Y0,0),并以此建立世界坐标系。值得一提的是,Y0的值可以根据实际的设计需求设计为任意值,本实施方式对Y0的具体值不作限制。
步骤202,AR头戴设备获取定位光球在世界坐标系的实际位置。
具体地说,AR头戴设备可以获取定位光球在世界坐标系中的实际坐标值(X1,Y1,Z1)。
步骤203,AR头戴设备根据偏移角度、定位光球的实际位置和目标位置,建立几何位置关系。
具体地说,如图3所示,做目标位置S在世界坐标系XY平面的投影点B、做过定位光球的实际位置C1平行于双摄像头自身坐标系的Y轴且与C1相距长度为Y1的点A、做C1A与世界坐标系XY平面的交点N,其中,定位光球的实际位置C1相对于目标位置S在世界坐标系上的偏移坐标(X1,Y1,Z1);做双摄像头自身坐标系中的Y轴与世界坐标系XY平面的交点P;过双摄像头的位置C做世界坐标系XY平面的垂线,且与世界坐标系XY平面的交点H。如图4所示,过S做NB的平行线与C1N的交点为T,ST与一预设面的交点E,预设面为过CH与世界坐标系的YZ面平行的面;S在预设面的投影G,过C1做CH的垂线且与CH交于J(图3和图4中均未标示出J),过S做与世界坐标系的XY平面与CH交于C2,过C2向SE做垂线交于SE于F(图3和图4中均未标示出F)。通过这种方式提供了一种建立几何位置关系具体实现方法,有助于保证本发明的进一步可行性。
步骤204,AR头戴设备以双摄像头在世界坐标系各坐标轴的坐标值为未知变量,根据几何位置关系建立数学方程组。
具体地说,如图5所示,根据几何位置关系在双摄像头自身坐标系的Z轴正方向上的几何图形投影,列第一方程组:
QB=Y0*Sinγ+X1;
NA=(Y0*Sinγ+X1)*Tanγ+Y0*Cosγ;
不难发现,AS的长度为X1,其中IS垂直于BQ,BQ垂直于AN,SB与IS的夹角为为γ,SB的长度为Y0。由此可以推算出:QB=BI+IQ=SB*Sinγ+AS=Y0*Sinγ+X1;NA=NQ+QA=QB*Tanγ+SI=(Y0*Sinγ+X1)*Tanγ+Y0*Cosγ。其中,Y0为定位光球的基准坐标值,角度γ为双摄像头坐标系相对于世界坐标系下绕Z轴的旋转角度。
如图6所示,根据几何位置关系在双摄像头自身坐标系的X轴负方向上的几何图形投影,列第二方程组,其中,图6中BN与CM的交点为O;
N C1=(Y0*Cosγ+(X1+Y0*Sinγ)*Tanγ)/Cosα+Y1;
CP=Z1*Tanα+(Y0*Cosγ+(X1+Y0*Sinγ)*Tanγ)/Cosα+Y1;其中,α为双摄像头坐标系相对于世界坐标系下绕X轴的旋转角度。具体而言,N C1=NA+A C1=NA/Cosα+Y1=(Y0*Cosγ+(X1+Y0*Sinγ)*Tanγ)/Cosα+Y1;CP=PB+BC=BN*Tanα+BC=C C1*Tanα+N C1=Z1*Tanα+(Y0*Cosγ+(X1+Y0*Sinγ)*Tanγ)/Cosα+Y1。
如图7所示,根据几何位置关系在世界坐标系的Z轴负反向上的几何图形投影,列第三方程:CH=(Z1*Tanα+(Y0*Cosγ+(X1+Y0*Sinγ)*Tanγ)/Cosα+Y1)*Cosγ。具体而言,CH=CP*Cosγ=(Z1*Tanα+(Y0*Cosγ+(X1+Y0*Sinγ)*Tanγ)/Cosα+Y1)*Cosγ。
如图8所示,根据几何位置关系在双摄像头自身坐标系的Z轴正方向上的几何图形投影,列第四方程组:
AT=X1*Tanγ;
TF=(Y1+X1*Tanγ)*Sinγ;
SF=X1/Cosγ–(Y1+X1*Tanγ)*Sinγ。不难发现,SA的长度为X1,C1A的长度为Y1。具体而言,AT=SA*Tanγ=X1*Tanγ;TF=C1T*Sinγ=(C1A+AT)*Sinγ=(Y1+X1*Tanγ)*Sinγ;SF=ST–TF=SA/Cosγ–TF=X1/Cosγ–(Y1+X1*Tanγ)*Sinγ。
如图9所示,根据几何位置关系在世界坐标系的X轴负方向上的几何图形投影,列第五方程:C2F=Z1*Cosα。不难发现,图9中C1J垂直于CH且交CH于点J,C1J与C C1之间的角度为α,C2F平行于C1J,C C1的长度为Z1。由此可以推算出:C2F=J C1=C C1*Cosα=Z1*Cosα。
如图10所示,根据几何位置关系在双摄像头自身坐标系的Y轴正方向上的几何图形投影,列第六方程组:
FE=Z1*Cosα*Tanβ;
KF=(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ)*Tanβ;
SE=X1/Cosγ–(Y1+X1*Tanγ)*Sinγ+Z1*Cosα*Tanβ;
SG=(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ+Z1*Cosα*Tanβ)*Cosβ;
C2K=Z1*Cosα–(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ)*Tanβ;
C2G=(Z1*Cosα-(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ)*Tanβ)*Cosβ。具体而言,FE=C2F*Tanβ=Z1*Cosα*Tanβ;KF=SF*Tanβ=(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ)*Tanβ;SE=SF+FE=X1/Cosγ–(Y1+X1*Tanγ)*Sinγ+Z1*Cosα*Tanβ;SG=SE*Cosβ=(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ+Z1*Cosα*Tanβ)*Cosβ;C2K=C2F–KF=Z1*Cosα–(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ)*Tanβ;C2G=C2K*Cosβ=(Z1*Cosα-(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ)*Tanβ)*Cosβ。
步骤205,根据第一方程组、第二方程组以及第三方程,解析出双摄像头在世界坐标系中的Y轴的坐标值CH。
具体而言,CH=(Z1*Tanα+(Y0*Cosγ+(X1+Y0*Sinγ)*Tanγ)/Cosα+Y1)*Cosγ。
步骤206,根据第四方程组、第五方程以及第六方程组,分别解析出双摄像头在世界坐标系中的X轴的坐标值SG,Z轴的坐标值C2G。
具体而言,SG=(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ+Z1*Cosα*Tanβ)*Cosβ。C2G=(Z1*Cosα–(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ)*Tanβ)*Cosβ。
通过这种方式提供了一种根据几何位置关系建立数学方程组的具体实现方法,有助于保证本发明的进一步可行性。并且根据建立的数学方程组解析得到双摄像头分别在世界坐标系中的X轴、Y轴以及Z轴的坐标值,使得解析的结果更加精确。
值得一提的是,步骤205不限于在步骤206之前执行,也可以先解析出SG、C2G再解析出CH。
步骤207,AR头戴设备根据双摄像头在世界坐标系的坐标值,确定虚拟空间内虚拟物体在世界坐标系中的位置。
具体而言,根据双摄像头在世界坐标系的坐标值(SG,CH,C2G),确定虚拟空间内虚拟物体在世界坐标系中的位置。值得一提的是,在实际的应用中,由于双摄像头设备相对于定位光球会发生位移或者旋转,导致虚拟场景中的物体无法与定位光球的位置重合,进而导致虚拟场景中的物体无法与现实场景中的物体紧密结合。因此,在AR头戴设备根据双摄像头在世界坐标系的坐标值,确定虚拟空间内虚拟物体在世界坐标系中的位置时,可以使虚拟物体能够与定位光球的位置重合,避免因虚拟物体无法与定位光球的位置重合而导致虚拟物体无法与现实场景中的真实物体紧密结合的现象。
通过上述内容,不难发现,本实施方式可以保证虚拟场景中的虚拟物体能够与定位光球的位置重合,避免因虚拟物体无法与定位光球的位置重合而导致虚拟物体无法与现实场景中的真实物体紧密结合的现象,从而,可以保证在虚拟场景中虚拟物体与真实物体紧密结合,有助于匹配用户的需求。
上面各种方法的步骤划分,只是为了描述清楚,实现时可以合并为一个步骤或者对某些步骤进行拆分,分解为多个步骤,只要包括相同的逻辑关系,都在本专利的保护范围内;对算法中或者流程中添加无关紧要的修改或者引入无关紧要的设计,但不改变其算法和流程的核心设计都在该专利的保护范围内。
本发明第三实施方式涉及一种基于增强现实的空间定位装置,如图11所示,基于增强现实的空间定位装置包括:第一获取模块111,用于获取双摄像头坐标系相对于世界坐标系的偏移角度;其中,所述世界坐标系为预先以定位光球的已知目标位置为基准坐标建立的坐标系;第二获取模块112,用于获取所述定位光球在所述世界坐标系的实际位置;计算模块113,用于根据所述偏移角度、所述定位光球的实际位置和所述目标位置,计算所述双摄像头在所述世界坐标系的坐标值;定位模块114,用于根据所述双摄像头在所述世界坐标系的坐标值,确定虚拟空间内虚拟物体在所述世界坐标系中的位置。
不难发现,本实施方式为与第一实施方式相对应的装置实施例,本实施方式可与第一实施方式互相配合实施。第一实施方式中提到的相关技术细节在本实施方式中依然有效,为了减少重复,这里不再赘述。相应地,本实施方式中提到的相关技术细节也可应用在第一实施方式中。
通过上述内容,不难发现,本实施方式可以保证虚拟场景中的虚拟物体能够与定位光球的位置重合,避免因虚拟物体无法与定位光球的位置重合而导致虚拟物体无法与现实场景中的真实物体紧密结合的现象,从而,可以保证在虚拟场景中虚拟物体与真实物体紧密结合,有助于匹配用户的需求。
值得一提的是,本实施方式中所涉及到的各模块均为逻辑模块,在实际应用中,一个逻辑单元可以是一个物理单元,也可以是一个物理单元的一部分,还可以以多个物理单元的组合实现。此外,为了突出本发明的创新部分,本实施方式中并没有将与解决本发明所提出的技术问题关系不太密切的单元引入,但这并不表明本实施方式中不存在其它的单元。
本发明第四实施方式涉及一种基于增强现实的空间定位装置。第四实施方式是在第三实施方式的基础上做的改进。
如图12所示,基于增强现实的空间定位装置包括:第一获取模块111,用于获取双摄像头坐标系相对于世界坐标系的偏移角度;其中,所述世界坐标系为预先以定位光球的已知目标位置为基准坐标建立的坐标系;第二获取模块112,用于获取所述定位光球在所述世界坐标系的实际位置;计算模块113,用于根据所述偏移角度、所述定位光球的实际位置和所述目标位置,计算所述双摄像头在所述世界坐标系的坐标值;定位模块114,用于根据所述双摄像头在所述世界坐标系的坐标值,确定虚拟空间内虚拟物体在所述世界坐标系中的位置。
另外,所述计算模块113包括:第一建立子模块1131,根据所述偏移角度、所述定位光球的实际位置和所述目标位置,建立几何位置关系;第二建立子模块1132,以所述双摄像头在所述世界坐标系各坐标轴的坐标值为未知变量,根据所述几何位置关系建立数学方程组;解析子模块1133,对所述数学方程组进行解析,得到所述双摄像头在所述世界坐标系各坐标轴的坐标值。
另外,所述第一建立子模块具体用于:做所述目标位置S在所述世界坐标系XY平面的投影点B、做过所述定位光球的实际位置C1平行于所述双摄像头自身坐标系的Y轴且与所述C1相距长度为所述Y1的点A、做C1A与所述世界坐标系XY平面的交点N,其中,所述定位光球的实际位置C1相对于所述目标位置S在所述世界坐标系上的偏移坐标(X1,Y1,Z1);做所述双摄像头自身坐标系中的Y轴与所述世界坐标系XY平面的交点P;过所述双摄像头DE的位置C做所述世界坐标系XY平面的垂线,且与所述世界坐标系XY平面的交点H;过所述S做NB的平行线与C1N的交点为T,ST与一预设面的交点E,所述预设面为过CH与所述世界坐标系的YZ面平行的面;做所述S在所述预设面的投影G,过所述C1做所述CH的垂线且与所述CH交于J,过所述S做与所述世界坐标系的XY平面与所述CH交于C2,过所述C2向SE做垂线交于所述SE于F。
另外,所述第二建立子模块包括:第一列方程模块,用于根据所述几何位置关系在所述双摄像头自身坐标系的Z轴正方向上的几何图形投影,列第一方程组:QB=Y0*Sinγ+X1;NA=(Y0*Sinγ+X1)*Tanγ+Y0*Cosγ;其中,所述Y0为所述定位光球的基准坐标值,角度γ为所述双摄像头坐标系相对于所述世界坐标系下绕Z轴的旋转角度;第二列方程模块,用于根据所述几何位置关系在所述双摄像头自身坐标系的X轴负方向上的几何图形投影,列第二方程组:N C1=(Y0*Cosγ+(X1+Y0*Sinγ)*Tanγ)/Cosα+Y1;CP=Z1*Tanα+(Y0*Cosγ+(X1+Y0*Sinγ)*Tanγ)/Cosα+Y1;其中,所述α为所述双摄像头坐标系相对于所述世界坐标系下绕X轴的旋转角度;第三列方程模块,用于根据所述几何位置关系在所述世界坐标系的Z轴负反向上的几何图形投影,列第三方程:CH=(Z1*Tanα+(Y0*Cosγ+(X1+Y0*Sinγ)*Tanγ)/Cosα+Y1)*Cosγ;所述解析子模块,具体用于:根据所述第一方程组、所述第二方程组以及所述第三方程,解析出所述双摄像头在所述世界坐标系中的Y轴的坐标值CH;所述第二建立子模块还包括:第四列方程模块,用于根据所述几何位置关系在所述双摄像头自身坐标系的Z轴正方向上的几何图形投影,列第四方程组:AT=X1*Tanγ;TF=(Y1+X1*Tanγ)*Sinγ;SF=X1/Cosγ–(Y1+X1*Tanγ)*Sinγ;第五列方程模块,用于根据所述几何位置关系在所述世界坐标系的X轴负方向上的几何图形投影,列第五方程:C2F=Z1*Cosα;第六列方程模块,用于根据所述几何位置关系在所述双摄像头自身坐标系的Y轴正方向上的几何图形投影,列第六方程组:FE=Z1*Cosα*Tanβ;KF=(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ)*Tanβ;SE=X1/Cosγ–(Y1+X1*Tanγ)*Sinγ+Z1*Cosα*Tanβ;SG=(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ+Z1*Cosα*Tanβ)*Cosβ;C2K=Z1*Cosα–(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ)*Tanβ;C2G=(Z1*Cosα-(X1/Cosγ–(Y1+X1*Tanγ)*Sinγ)*Tanβ)*Cosβ;所述解析子模块,具体还用于:根据所述第四方程组、所述第五方程以及所述第六方程组,分别解析出所述双摄像头在所述世界坐标系中的X轴的坐标值SG,Z轴的坐标值C2G。
由于第二实施方式与本实施方式相互对应,因此本实施方式可与第二实施方式互相配合实施。第二实施方式中提到的相关技术细节在本实施方式中依然有效,在第二实施方式中所能达到的技术效果在本实施方式中也同样可以实现,为了减少重复,这里不再赘述。相应地,本实施方式中提到的相关技术细节也可应用在第二实施方式中。
通过上述内容,不难发现,本实施方式可以保证虚拟场景中的虚拟物体能够与定位光球的位置重合,避免因虚拟物体无法与定位光球的位置重合而导致虚拟物体无法与现实场景中的真实物体紧密结合的现象,从而,可以保证在虚拟场景中虚拟物体与真实物体紧密结合,有助于匹配用户的需求。
本领域技术人员可以理解实现上述实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序存储在一个存储介质中,包括若干指令用以使得一个设备(可以是单片机,芯片等)或处理器(processor)执行本申请各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本领域的普通技术人员可以理解,上述各实施方式是实现本发明的具体实施例,而在实际应用中,可以在形式上和细节上对其作各种改变,而不偏离本发明的精神和范围。