CN110047039A - 一种面向虚拟现实交互的冗余视场全景影像构建方法 - Google Patents

一种面向虚拟现实交互的冗余视场全景影像构建方法 Download PDF

Info

Publication number
CN110047039A
CN110047039A CN201910151414.7A CN201910151414A CN110047039A CN 110047039 A CN110047039 A CN 110047039A CN 201910151414 A CN201910151414 A CN 201910151414A CN 110047039 A CN110047039 A CN 110047039A
Authority
CN
China
Prior art keywords
visual field
camera
virtual reality
angle
redundancy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910151414.7A
Other languages
English (en)
Other versions
CN110047039B (zh
Inventor
李靖
邓宝松
张周
郄志鹏
鹿迎
闫野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Defense Technology Innovation Institute PLA Academy of Military Science
Original Assignee
National Defense Technology Innovation Institute PLA Academy of Military Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Defense Technology Innovation Institute PLA Academy of Military Science filed Critical National Defense Technology Innovation Institute PLA Academy of Military Science
Priority to CN201910151414.7A priority Critical patent/CN110047039B/zh
Publication of CN110047039A publication Critical patent/CN110047039A/zh
Application granted granted Critical
Publication of CN110047039B publication Critical patent/CN110047039B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

本发明提出一种面向虚拟现实交互的冗余视场全景影像构建方法。不同于现有方法先拼接后投影变换的技术路线,本发明所提方法并不显式地生成全景影像,而是通过对影像采集装置以及相应交互算法的设计,在多图像配准等初始化操作基础上,直接将投影变换后的原始影像呈现给用户,当用户视线方向变化或视场角增大以致视野范围超出当前原始影像时,平滑地将当前呈现的影像内容来源切换为相应方向的另一原始影像,避免了全景拼接过程中视觉异常现象的出现,改善了虚拟现实交互的用户体验。

Description

一种面向虚拟现实交互的冗余视场全景影像构建方法
技术领域
本发明属于计算机视觉领域,涉及全景影像构建方法,尤其涉及一种面向虚拟现实交互的冗余视场全景影像构建方法。
背景技术
随着计算机视觉基础理论和处理器性能的不断进步,以虚拟现实(VirtualReality,VR)为代表的新型人机交互模式在近年得到了快速发展。全景影像支持大角度范围内视线方向的自由变换,能够给用户提供良好的沉浸式体验,因此广泛应用于各种虚拟现实系统,是实现虚拟现实交互的重要途径之一。全景影像的呈现效果成为影响虚拟现实交互体验的重要因素。
现有的全景影像构建方法可分为折反射全景、鱼眼全景与拼接式全景三类。其中,折反射全景与鱼眼全景都难以完全覆盖360×180度的全立体角,并且存在局部虚焦和分辨率不均匀的问题。而拼接式全景兼具高分辨率和高成像质量的优点,通过合理的分镜头布局能够覆盖全立体角,逐渐成为目前主流的全景影像构建方法。
拼接式全景成像首先采用拼接融合的方式将多路影像合成为一路更大视场角(Field-Of-View,FOV)、更高分辨率的全景影像,然后根据用户的视线方向和视场角大小,将全景影像的部分内容经投影变换后呈现给用户。在多路影像采集过程中,由于光学结构的限制,多路相机的光心并不能完全重合,导致图像重叠区域的物体形状和大小不一致,即存在结构偏差,进而造成拼接所得全景影像中存在模糊、扭曲、断裂等视觉异常现象。近年来,大量基于不同数学原理的局部自适应全景拼接方法被提出,以消除结构偏差对全景影像质量的影响。但由于拍摄过程中大量不可控因素的存在以及自然场景本身的复杂性,这一难题并未得到完善的解决。
发明内容
本发明的目的是通过以下技术方案实现的。
本发明提出一种面向虚拟现实交互的冗余视场全景影像构建方法。不同于现有方法先拼接后投影变换的技术路线,所提方法并不显式地生成全景影像,而是通过对影像采集装置以及相应交互算法的设计,在多图像配准等初始化操作基础上,直接将投影变换后的原始影像呈现给用户,当用户视线方向变化或视场角增大以致视野范围超出当前原始影像时,平滑地将当前呈现的影像内容来源切换为相应方向的另一原始影像,避免了全景拼接过程中视觉异常现象的出现,改善了虚拟现实交互的用户体验。
具体地,本发明采用的技术方案是:
一种面向虚拟现实交互的冗余视场全景影像构建方法,包括以下步骤:
S1.设计并搭建冗余视场的多路影像采集装置,确保在视场角不超过一定阈值的情况下,任意视线方向的整个视野范围都同时被至少两路原始影像覆盖;
S2.在S1中搭建得到的多路影像采集装置的基础上,采用光束平差法配准得到多路原始影像、全景成像平面以及呈现给用户的观察图像平面之间的投影变换关系;
S3.在S1中搭建得到的多路影像采集装置与S2中配准所得投影变换关系的基础上,基于视线方向与视场角的变化,建立用户视野中所呈现影像内容来源的平滑切换策略,以实现高质量的虚拟现实交互。
进一步地,所述步骤S1的具体方法包括:
为实现任意实现方向的冗余视场,相邻两路相机的重叠视场要大于常规情况下的人眼视场。本发明采用环形分布于水平圆周支架上的四路超广角鱼眼相机进行原始影像的采集。记单路鱼眼相机的水平方向视场角为θf,各路相机均匀地分布于圆周支架上,因此相邻两相机的光轴夹角为θr=90°,则相邻两路相机水平方向的重叠视场角为θa=θfr=θf-90°。
人眼在放松状态下左右扫一眼的横向视场角为120度,极限状态可接近180度。虚拟现实头显所呈现的画面要符合人体构造和行为习惯才能保证沉浸感的实现,因此,对于头戴式显示器,最佳视场角是120度。对于借助手机等移动设备显示屏的VR眼镜,由于设备体积的限制,沉浸感最好的视场角则通常在80到90度之间。
若采用θf=220°的超广角鱼眼相机进行原始影像采集,则重叠视场角θa=130°,大于常规情况下人眼120度的水平视场角,能够满足一般情况下虚拟现实交互的需求。
不同相机之间采用外触发的形式进行帧间同步,以确保各路影像之间的时间一致性。
进一步地,所述步骤S2的具体方法包括:
鱼眼镜头能够比普通镜头拍摄到更大试场的图像,但会造成图像中被拍摄物体的形变,原因在于鱼眼镜头的成像过程是非线性的,其映射函数(Mapping Function)不同于普通镜头,通常可写为:
r=fθ
其中,θ为进入镜头的入射光线与光轴的夹角,f为相机的等效焦距,r为入射光线成像点与主点(光轴与图像平面的交点)的距离。
记空间中一点P在相机Ci的相机坐标系中的坐标为xCi=(xCi,yCi,zCi)T,将xCi映射到单位球面上得xni=(xni,yni,zni)T=xCi/|xCi|,则入射角
θi=arccos(zni)
考虑畸变的影响,实际入射角可表示为
θdi=θi(1+ki1θi 2+ki2θi 4+ki3θi 6+ki4θi 8)
其中,ki=(ki1,ki2,ki3,ki4)为鱼眼透镜的径向畸变参数。进一步计算沿x轴与y轴方向的入射角
上述变换过程可简化表示为
其中,fi(·)是参数为k的可逆非线性函数。
最终,根据映射函数,可得入射光线成像点的图像坐标为
其中,为成像点的齐次图像坐标,Ki为相机Ci的内参数矩阵,具体形式为
记点P在相机Ci与Cj的相机坐标系中的坐标分别为xCi与xCj,二者之间的变换关系可表示为
xCj=RijxCi+tij
其中,Rij与tij分别为Ci相机坐标系到Cj相机坐标系的旋转矩阵与平移向量,属于多相机成像系统的外参数。通常情况下,被拍摄场景到相机的距离远大于相机之间的基线长度,即|xCj|≈|xCi|>>tij,因此,可近似地认为xCj=RijxCi
通过特征提取与匹配,得到相机Ci与Cj同步采集所得图像中的匹配特征点{(xi,l,xj,l)l=1,…,nij}。其中,nij为匹配特征点数量。则应有如下关系成立:
上式可简化表示为
xj,l=Qij(xi,l;Ki,Kj,ki,kj,Rij)
其中,Qij(·)表示根据相机Ci与Cj的内外参数确定的投影变换关系,将相机Ci中成像点坐标映射到相机Cj图像平面的投影函数。
调用光束平差法(Bundle Adjustment),将所有成像参数(相机内外参数与畸变参数)作为一个整体进行估计,其代价函数为
其中,m为相机数量。最小化代价函数E(·)可得相机内参数Ki,i=1,…,m,畸变参数ki,i=1,…,m与外参数Rij,i,j=1,…,m。
记Ri1=(ri1x,ri1y,ri1z),在C1的相机坐标系中,相机Ci的光轴方向(即Ci相机坐标系z轴方向)可由Ri1的第三列ri1z表示。设置用于生成全景影像的虚拟相机CP,则CP的y轴方向rPy取为
其中,Z=(r11z,r21z,…rm1z)。上式可通过奇异值分解求解,rPy的取值为ZT最小特征值对应的右奇异向量(least significant right singular vector)。
CP的x轴方向rPx取为
rPx=rPy×r11z=rPy×(0,0,1)T
CP的z轴方向rPx取为
rPz=rPx×rPy
则CP到C1相机坐标系的旋转矩阵可表示为RP1=(rPx,rPy,rPz)。进一步地,可计算CP到任意实体相机Ci的相机坐标系的旋转矩阵为RPi=R1iRP1。则Ci相机坐标系下的空间点xCi在CP相机坐标系下的坐标可表示为xCP=RPi TxCi
根据虚拟现实交互的需求设置虚拟相机CP的的等效焦距fP,通常取以等距矩形投影(Equirectangular Projection)作为全景影像的投影模型,则覆盖360×180度全立体角全景影像的分辨率为(2πfP)×(πfP),CP的内参数矩阵为
将xCP映射到单位球面上xnP=(xnP,ynP,znP)T=xCP/|xCP|,则等距矩形投影所对应球面坐标可计算如下:
上述变换过程可简化表示为
其中,gi(·)为可逆非线性函数
进一步可得到空间点xCP在全景影像中的成像点xP=(xP,yP)T
其中,为xP的齐次坐标表示。
全景影像与实体相机Ci拍摄所得影像之间的投影关系可表示为
上式可简化表示为
其中,QPi(·)为可逆非线性函数。
设置虚拟现实交互过程中用于生成第一人称透视影像的虚拟相机CV,则CV的光轴方向(即CV相机坐标系z轴方向)平行于用户视线方向。设CV相对于CP的欧拉角为(β,α,γ),其中β为偏航角,α为俯仰角和γ为滚转角(旋转依此围绕y轴、x轴、z轴,即先偏航,再俯仰,再滚转,顺时针为正),则可得CP到CV相机坐标系的旋转矩阵为
则CP相机坐标系下的空间点xCP在CV相机坐标系下的坐标可表示为xCV=RPVxCP
虚拟相机CV的内参数矩阵为
其中,fV为CV的等效焦距,θVx与θVy分别为CV在x方向与y方向的视场角。进一步可得到空间点xCV在第一人称透视影像中的成像点xV=(xV,yV)T
其中,为xV的齐次坐标表示。
第一人称透视影像与全景影像之间的投影关系可表示为
上式可简化表示为
xP=QVP(xV;KP,KV,RPi,RPV)
其中,QVP(·)为可逆非线性函数。
第一人称透视影像与实体相机Ci拍摄所得影像之间的投影关系可表示为
上式可简化表示为
xi=QVi(xV;Ki,ki,KV,RPi,RPV)
其中,QVi(·)为可逆非线性函数。
进一步地,所述步骤S3的具体方法包括:
在虚拟现实交互过程中,用户可以自主的选择视线方向(即相机CV的光轴方向,也是CV相机坐标系z轴方向)与绕视线方向的画面倾斜。据此可以确定CV相对于CP的欧拉角,进而得到CP到CV相机坐标系的旋转矩阵RPV。本发明直接由实体相机拍摄所得原始影像通过投影变换生成第一人称画面。通常情况下,交互过程中欧拉角的变化是连续的,并且不会高速旋转视线方向(高速旋转视线方向会造成眩晕)。因此,用户视野中所呈现影像内容来源的切换不会过于频繁。为得到高质量的虚拟现实交互,首先要确定影像内容来源的切换时机。
根据多路影像采集装置结构可知,除视线方向指向正上方或正下方附近的极限情况外,用户的整个视野范围都被当前影像内容来源相机Ci所采集原始影像覆盖的条件为
θVfi<(θfV)/2
其中,θf为Ci的水平视场角,θV为虚拟相机CV沿水平方向的视场角,由于CV是透视的,则θV可计算如下
虚拟相机CV视场角θVx与θVy通常固定为某一特定值或由用户自由设定。θVfi为当视线方向与相机Ci光轴的在水平方向的夹角,可计算如下
θVfi=β-βPi
其中,βPi分别为相机Ci光轴相对于相机CP光轴的偏航角。记
则βPi可计算如下
当用户的整个视野范围即将无法被当前影像内容来源相机Ci所采集原始影像覆盖时,由于任意视线方向的整个视野范围都同时被至少两路原始影像覆盖,将影像内容来源切换为相邻的另一路原始影像即可。
为得到高质量的虚拟现实交互,本发明采用短时间内蒙太奇(Montage)渐变的方式进行影像内容来源的切换。给定以帧数表示的时间窗口tM,则在切换过程中,第一人称影像的画面I(x,y;t)随时间t由当前时刻t0到t0+tM的渐变过程可表示为
其中,Iinit(x,y;t)与Inext(x,y;t)分别为切换前后原始影像来源经投影变换所得第一人称影像画面。
对于视场角θVa或视线方向指向正上方或正下方附近等较少出现的极限情况,采用多路原始影像经投影变换后羽化融合的方式生成用户第一视角影像,此时可能出现由拼接引起的视觉异常现象。
本发明提出一种面向虚拟现实交互的冗余视场全景影像构建方法。不同于现有方法先拼接后投影变换的技术路线,所提方法并不显式地生成全景影像,而是通过对影像采集装置以及相应交互算法的设计,在多图像配准等初始化操作基础上,直接将投影变换后的原始影像呈现给用户,当用户视线方向变化或视场角增大以致视野范围超出当前原始影像时,平滑地将当前呈现的影像内容来源切换为相应方向的另一原始影像,避免了全景拼接过程中视觉异常现象的出现,改善了虚拟现实交互的用户体验。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1为本发明的总体流程图。
图2为多路影像采集装置示意图。
图3为影像内容来源切换示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施方式。虽然附图中显示了本公开的示例性实施方式,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施方式所限制。相反,提供这些实施方式是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
本发明提出一种面向虚拟现实交互的冗余视场全景影像构建方法。首先,设计并搭建冗余视场的多路影像采集装置,确保在视场角不超过一定阈值的情况下,任意视线方向的整个视野范围都同时被至少两路原始影像覆盖。然后,采用光束平差法配准得到多路原始影像、全景成像平面以及呈现给用户的观察图像平面之间的投影变换关系。最后,基于视线方向与视场角的变化,建立用户视野中所呈现影像内容来源的平滑切换策略,以实现高质量的虚拟现实交互。总体流程图如图1所示。
本发明提供的面向多人增强现实交互的空间一致性保持方法通过以下步骤实现:
S1.设计并搭建冗余视场的多路影像采集装置,确保在视场角不超过一定阈值的情况下,任意视线方向的整个视野范围都同时被至少两路原始影像覆盖;
为实现任意实现方向的冗余视场,相邻两路相机的重叠视场要大于常规情况下的人眼视场。如图2所示,本发明采用环形分布于水平圆周支架上的四路超广角鱼眼相机进行原始影像的采集。记单路鱼眼相机的水平方向视场角为θf,各路相机均匀地分布于圆周支架上,因此相邻两相机的光轴夹角为θr=90°,则相邻两路相机水平方向的重叠视场角为θa=θfr=θf-90°。
人眼在放松状态下左右扫一眼的横向视场角为120度,极限状态可接近180度。虚拟现实头显所呈现的画面要符合人体构造和行为习惯才能保证沉浸感的实现,因此,对于头戴式显示器,最佳视场角是120度。对于借助手机等移动设备显示屏的VR眼镜,由于设备体积的限制,沉浸感最好的视场角则通常在80到90度之间。
若采用θf=220°的超广角鱼眼相机进行原始影像采集,则重叠视场角θa=130°,大于常规情况下人眼120度的水平视场角,能够满足一般情况下虚拟现实交互的需求。
不同相机之间采用外触发的形式进行帧间同步,以确保各路影像之间的时间一致性。
S2.在S1中搭建得到的多路影像采集装置的基础上,采用光束平差法配准得到多路原始影像、全景成像平面以及呈现给用户的观察图像平面之间的投影变换关系;
鱼眼镜头能够比普通镜头拍摄到更大试场的图像,但会造成图像中被拍摄物体的形变,原因在于鱼眼镜头的成像过程是非线性的,其映射函数(Mapping Function)不同于普通镜头,通常可写为:
r=fθ
其中,θ为进入镜头的入射光线与光轴的夹角,f为相机的等效焦距,r为入射光线成像点与主点(光轴与图像平面的交点)的距离。
记空间中一点P在相机Ci的相机坐标系中的坐标为xCi=(xCi,yCi,zCi)T,将xCi映射到单位球面上得xni=(xni,yni,zni)T=xCi/|xCi|,则入射角
θi=arccos(zni)
考虑畸变的影响,实际入射角可表示为
θdi=θi(1+ki1θi 2+ki2θi 4+ki3θi 6+ki4θi 8)
其中,ki=(ki1,ki2,ki3,ki4)为鱼眼透镜的径向畸变参数。进一步计算沿x轴与y轴方向的入射角
上述变换过程可简化表示为
其中,fi(·)是参数为k的可逆非线性函数。
最终,根据映射函数,可得入射光线成像点的图像坐标为
其中,为成像点的齐次图像坐标,Ki为相机Ci的内参数矩阵,具体形式为
记点P在相机Ci与Cj的相机坐标系中的坐标分别为xCi与xCj,二者之间的变换关系可表示为
xCj=RijxCi+tij
其中,Rij与tij分别为Ci相机坐标系到Cj相机坐标系的旋转矩阵与平移向量,属于多相机成像系统的外参数。通常情况下,被拍摄场景到相机的距离远大于相机之间的基线长度,即|xCj|≈|xCi|>>tij,因此,可近似地认为xCj=RijxCi
通过特征提取与匹配,得到相机Ci与Cj同步采集所得图像中的匹配特征点{(xi,l,xj,l)|l=1,…,nij}。其中,nij为匹配特征点数量。则应有如下关系成立:
上式可简化表示为
xj,l=Qij(xi,l;Ki,Kj,ki,kj,Rij)
其中,Qij(·)表示根据相机Ci与Cj的内外参数确定的投影变换关系,将相机Ci中成像点坐标映射到相机Cj图像平面的投影函数。
调用光束平差法(Bundle Adjustment),将所有成像参数(相机内外参数与畸变参数)作为一个整体进行估计,其代价函数为
其中,m为相机数量。最小化代价函数E(·)可得相机内参数Ki,i=1,…,m,畸变参数ki,i=1,…,m与外参数Rij,i,j=1,…,m。
记Ri1=(ri1x,ri1y,ri1z),在C1的相机坐标系中,相机Ci的光轴方向(即Ci相机坐标系z轴方向)可由Ri1的第三列ri1z表示。设置用于生成全景影像的虚拟相机CP,则CP的y轴方向rPy取为
其中,Z=(r11z,r21z,…rm1z)。上式可通过奇异值分解求解,rPy的取值为ZT最小特征值对应的右奇异向量(least significant right singular vector)。
CP的x轴方向rPx取为
rPx=rPy×r11z=rPy×(0,0,1)T
CP的z轴方向rPx取为
rPz=rPx×rPy
则CP到C1相机坐标系的旋转矩阵可表示为RP1=(rPx,rPy,rPz)。进一步地,可计算CP到任意实体相机Ci的相机坐标系的旋转矩阵为RPi=R1iRP1。则Ci相机坐标系下的空间点xCi在CP相机坐标系下的坐标可表示为xCP=RPi TxCi
根据虚拟现实交互的需求设置虚拟相机CP的的等效焦距fP,通常取fP=miax(fi)。以等距矩形投影(Equirectangular Projection)作为全景影像的投影模型,则覆盖360×180度全立体角全景影像的分辨率为(2πfP)×(πfP),CP的内参数矩阵为
将xCP映射到单位球面上xnP=(xnP,ynP,znP)T=xCP/|xCP|,则等距矩形投影所对应球面坐标可计算如下:
上述变换过程可简化表示为
其中,gi(·)为可逆非线性函数
进一步可得到空间点xCP在全景影像中的成像点xP=(xP,yP)T
其中,为xP的齐次坐标表示。
全景影像与实体相机Ci拍摄所得影像之间的投影关系可表示为
上式可简化表示为
其中,QPi(·)为可逆非线性函数。
设置虚拟现实交互过程中用于生成第一人称透视影像的虚拟相机CV,则CV的光轴方向(即CV相机坐标系z轴方向)平行于用户视线方向。设CV相对于CP的欧拉角为(β,α,γ),其中β为偏航角,α为俯仰角和γ为滚转角(旋转依此围绕y轴、x轴、z轴,即先偏航,再俯仰,再滚转,顺时针为正),则可得CP到CV相机坐标系的旋转矩阵为
则CP相机坐标系下的空间点xCP在CV相机坐标系下的坐标可表示为xCV=RPVxCP
虚拟相机CV的内参数矩阵为
其中,fV为CV的等效焦距,θVx与θVy分别为CV在x方向与y方向的视场角。进一步可得到空间点xCV在第一人称透视影像中的成像点xV=(xV,yV)T
其中,为xV的齐次坐标表示。
第一人称透视影像与全景影像之间的投影关系可表示为
上式可简化表示为
xP=QVP(xV;KP,KV,RPi,RPV)
其中,QVP(·)为可逆非线性函数。
第一人称透视影像与实体相机Ci拍摄所得影像之间的投影关系可表示为
上式可简化表示为
xi=QVi(xV;Ki,ki,KV,RPi,RPV)
其中,QVi(·)为可逆非线性函数。
S3.在S1中搭建得到的多路影像采集装置与S2中配准所得投影变换关系的基础上,基于视线方向与视场角的变化,建立用户视野中所呈现影像内容来源的平滑切换策略,以实现高质量的虚拟现实交互。
在虚拟现实交互过程中,用户可以自主的选择视线方向(即相机CV的光轴方向,也是CV相机坐标系z轴方向)与绕视线方向的画面倾斜。据此可以确定CV相对于CP的欧拉角,进而得到CP到CV相机坐标系的旋转矩阵RPV。本发明直接由实体相机拍摄所得原始影像通过投影变换生成第一人称画面。通常情况下,交互过程中欧拉角的变化是连续的,并且不会高速旋转视线方向(高速旋转视线方向会造成眩晕)。因此,用户视野中所呈现影像内容来源的切换不会过于频繁。为得到高质量的虚拟现实交互,首先要确定影像内容来源的切换时机。
如图3所示,根据多路影像采集装置结构可知,除视线方向指向正上方或正下方附近的极限情况外,用户的整个视野范围都被当前影像内容来源相机Ci所采集原始影像覆盖的条件为
θVfi<(θfV)/2
其中,θf为Ci的水平视场角,θV为虚拟相机CV沿水平方向的视场角,由于CV是透视的,则θV可计算如下
虚拟相机CV视场角θVx与θVy通常固定为某一特定值或由用户自由设定。θVfi为当视线方向与相机Ci光轴的在水平方向的夹角,可计算如下
θVfi=β-βPi
其中,βPi分别为相机Ci光轴相对于相机CP光轴的偏航角。记
则βPi可计算如下
当用户的整个视野范围即将无法被当前影像内容来源相机Ci所采集原始影像覆盖时,由于任意视线方向的整个视野范围都同时被至少两路原始影像覆盖,将影像内容来源切换为相邻的另一路原始影像即可。
为得到高质量的虚拟现实交互,本发明采用短时间内蒙太奇(Montage)渐变的方式进行影像内容来源的切换。给定以帧数表示的时间窗口tM,则在切换过程中,第一人称影像的画面I(x,y;t)随时间t由当前时刻t0到t0+tM的渐变过程可表示为
其中,Iinit(x,y;t)与Inext(x,y;t)分别为切换前后原始影像来源经投影变换所得第一人称影像画面。
对于视场角θVa或视线方向指向正上方或正下方附近等较少出现的极限情况,采用多路原始影像经投影变换后羽化融合的方式生成用户第一视角影像,此时可能出现由拼接引起的视觉异常现象。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。

Claims (10)

1.一种面向虚拟现实交互的冗余视场全景影像构建方法,其特征在于包括以下步骤:
搭建冗余视场的多路影像采集装置,使得在视场角不超过阈值的情况下,任意视线方向的整个视野范围都同时被至少两路原始影像覆盖;
基于所述多路影像采集装置,采用光束平差法配准得到多路原始影像、全景成像平面以及呈现给用户的观察图像平面之间的投影变换关系;
基于所述多路影像采集装置与所述配准所得投影变换关系,基于视线方向与视场角的变化,建立用户视野中所呈现影像内容来源的平滑切换策略,以实现虚拟现实交互。
2.根据权利要求1所述的面向虚拟现实交互的冗余视场全景影像构建方法,其特征在于:
所述搭建冗余视场的多路影像采集装置,使得在视场角不超过阈值的情况下,任意视线方向的整个视野范围都同时被至少两路原始影像覆盖,包括:
采用环形分布于水平圆周支架上的四路超广角鱼眼相机进行原始影像的采集;
不同相机之间采用外触发的形式进行帧间同步,确保各路影像之间的时间一致性。
3.根据权利要求2所述的面向虚拟现实交互的冗余视场全景影像构建方法,其特征在于:
所述视场角为130度。
4.根据权利要求2或3所述的面向虚拟现实交互的冗余视场全景影像构建方法,其特征在于:
所述采用光束平差法配准得到多路原始影像、全景成像平面以及呈现给用户的观察图像平面之间的投影变换关系,包括:
调用光束平差法,将所有成像参数作为一个整体进行估计。
5.根据权利要求4所述的面向虚拟现实交互的冗余视场全景影像构建方法,其特征在于:
所述成像参数包括相机内外参数与畸变参数。
6.根据权利要求5所述的面向虚拟现实交互的冗余视场全景影像构建方法,其特征在于:
所述任意视线方向的整个视野范围都同时被至少两路原始影像覆盖的条件为:
θVfi<(θfV)/2
其中,θf为实体相机的水平视场角,θV为虚拟相机沿水平方向的视场角,θVfi为视线方向与实体相机光轴的在水平方向的夹角。
7.根据权利要求6所述的面向虚拟现实交互的冗余视场全景影像构建方法,其特征在于:
设用于生成第一人称透视影像的虚拟相机相对于用于生成全景影像的虚拟相机的欧拉角为(β,α,γ),其中β为偏航角,α为俯仰角和γ为滚转角,则所述θV计算如下
其中,θVx与θVy为用于生成第一人称透视影像的虚拟相机的视场角。
8.根据权利要求7所述的面向虚拟现实交互的冗余视场全景影像构建方法,其特征在于:
所述θVfi计算如下
θVfi=β-βPi
其中,βPi为实体相机光轴相对于用于生成全景影像的虚拟相机光轴的偏航角。
9.根据权利要求8所述的面向虚拟现实交互的冗余视场全景影像构建方法,其特征在于:
当用户的整个视野范围无法被当前影像内容来源相机所采集原始影像覆盖时,将影像内容来源切换为相邻的另一路原始影像。
10.根据权利要求9所述的面向虚拟现实交互的冗余视场全景影像构建方法,其特征在于:
采用短时间内蒙太奇渐变的方式进行所述影像内容来源切换;给定以帧数表示的时间窗口tM,在切换过程中,第一人称影像的画面I(x,y;t)随时间t由当前时刻t0到t0+tM的渐变过程表示为
其中,Iinit(x,y;t)与Inext(x,y;t)分别为切换前后原始影像来源经投影变换所得第一人称影像画面。
CN201910151414.7A 2019-02-28 2019-02-28 一种面向虚拟现实交互的冗余视场全景影像构建方法 Active CN110047039B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910151414.7A CN110047039B (zh) 2019-02-28 2019-02-28 一种面向虚拟现实交互的冗余视场全景影像构建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910151414.7A CN110047039B (zh) 2019-02-28 2019-02-28 一种面向虚拟现实交互的冗余视场全景影像构建方法

Publications (2)

Publication Number Publication Date
CN110047039A true CN110047039A (zh) 2019-07-23
CN110047039B CN110047039B (zh) 2023-04-28

Family

ID=67274332

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910151414.7A Active CN110047039B (zh) 2019-02-28 2019-02-28 一种面向虚拟现实交互的冗余视场全景影像构建方法

Country Status (1)

Country Link
CN (1) CN110047039B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111263178A (zh) * 2020-02-20 2020-06-09 广州虎牙科技有限公司 直播方法、装置、用户端及存储介质
CN112132909A (zh) * 2020-09-23 2020-12-25 字节跳动有限公司 参数获取方法及装置、媒体数据处理方法和存储介质
CN112286355A (zh) * 2020-10-28 2021-01-29 杭州如雷科技有限公司 一种用于沉浸式内容的交互方法和系统
CN114760458A (zh) * 2022-04-28 2022-07-15 中南大学 高真实感增强现实演播室虚拟与现实相机轨迹同步的方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110164044A1 (en) * 2009-12-30 2011-07-07 Jung-Tang Huang Preparation method for the virtual reality of high fidelity sports and fitness equipment and interactive system and method based on the virtual reality
CN105959665A (zh) * 2016-05-05 2016-09-21 清华大学深圳研究生院 一种针对于虚拟现实设备的全景3d视频生成方法
CN106249918A (zh) * 2016-08-18 2016-12-21 南京几墨网络科技有限公司 虚拟现实图像显示方法、装置及应用其的终端设备

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110164044A1 (en) * 2009-12-30 2011-07-07 Jung-Tang Huang Preparation method for the virtual reality of high fidelity sports and fitness equipment and interactive system and method based on the virtual reality
CN105959665A (zh) * 2016-05-05 2016-09-21 清华大学深圳研究生院 一种针对于虚拟现实设备的全景3d视频生成方法
CN106249918A (zh) * 2016-08-18 2016-12-21 南京几墨网络科技有限公司 虚拟现实图像显示方法、装置及应用其的终端设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
祝清瑞: "基于增强现实的动态红外场景仿真系统的设计研究", 《中国博士学位论文全文数据库》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111263178A (zh) * 2020-02-20 2020-06-09 广州虎牙科技有限公司 直播方法、装置、用户端及存储介质
CN112132909A (zh) * 2020-09-23 2020-12-25 字节跳动有限公司 参数获取方法及装置、媒体数据处理方法和存储介质
CN112132909B (zh) * 2020-09-23 2023-12-22 字节跳动有限公司 参数获取方法及装置、媒体数据处理方法和存储介质
CN112286355A (zh) * 2020-10-28 2021-01-29 杭州如雷科技有限公司 一种用于沉浸式内容的交互方法和系统
CN114760458A (zh) * 2022-04-28 2022-07-15 中南大学 高真实感增强现实演播室虚拟与现实相机轨迹同步的方法
CN114760458B (zh) * 2022-04-28 2023-02-24 中南大学 高真实感增强现实演播室虚拟与现实相机轨迹同步的方法

Also Published As

Publication number Publication date
CN110047039B (zh) 2023-04-28

Similar Documents

Publication Publication Date Title
CN110047039A (zh) 一种面向虚拟现实交互的冗余视场全景影像构建方法
CA3017827C (en) Efficient canvas view generation from intermediate views
WO2021093584A1 (zh) 基于深度卷积神经网络的自由视点视频生成及交互方法
WO2019041614A1 (zh) 沉浸式虚拟现实头戴显示装置和沉浸式虚拟现实显示方法
CN106570938A (zh) 基于opengl 的全景监控方法及系统
CN110764613A (zh) 基于头戴式眼动模组的眼动追踪校准方法
CN112085659A (zh) 一种基于球幕相机的全景拼接融合方法、系统及存储介质
CN107580203B (zh) 沉浸式主动立体投影透视变换矩阵求解方法
CN110771140A (zh) 云台系统及其图像处理方法、无人机
CN106296589A (zh) 全景图像的处理方法及装置
CN107197135B (zh) 一种视频生成方法及视频生成装置
CN109428987A (zh) 一种头戴式全景360度立体摄像装置及摄像处理方法
CN113286138A (zh) 一种全景视频显示方法及显示设备
KR101233948B1 (ko) 회전 대칭형의 광각 렌즈를 이용하여 디지털 팬·틸트 영상을 얻는 방법 및 그 영상 시스템
CN204168378U (zh) 一种全景摄像系统
CN114287126A (zh) 视频处理方法和装置、存储介质和电子设备
CN117542253A (zh) 一种飞行员驾驶舱训练系统
CN111915739A (zh) 一种实时三维全景信息互动影息系统
CN110958444A (zh) 一种720度视场环境态势感知方法及态势感知系统
CN113066011B (zh) 一种图像处理方法、装置、系统、介质和电子设备
CN104777700B (zh) 高沉浸投影多投影机优化部署方法
CN113920011A (zh) 一种多目全景视频拼接方法及系统
CN115002442A (zh) 一种图像展示方法、装置、电子设备及存储介质
Syawaludin et al. Hybrid camera system for telepresence with foveated imaging
JP7006912B2 (ja) 画像処理装置、画像表示装置及び画像処理プログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant