CN107105333A - 一种基于视线追踪技术的vr视频直播交互方法与装置 - Google Patents
一种基于视线追踪技术的vr视频直播交互方法与装置 Download PDFInfo
- Publication number
- CN107105333A CN107105333A CN201710283942.9A CN201710283942A CN107105333A CN 107105333 A CN107105333 A CN 107105333A CN 201710283942 A CN201710283942 A CN 201710283942A CN 107105333 A CN107105333 A CN 107105333A
- Authority
- CN
- China
- Prior art keywords
- module
- video
- videos
- spherical
- eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/426—Internal components of the client ; Characteristics thereof
- H04N21/42653—Internal components of the client ; Characteristics thereof for processing graphics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/47205—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/485—End-user interface for client configuration
- H04N21/4854—End-user interface for client configuration for modifying image parameters, e.g. image brightness, contrast
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
Abstract
本发明提供一种基于视线追踪技术的VR视频直播交互方法及装置,涉及视线交互技术、语音交互技术与VR视频压缩编码技术领域,通过眼球追踪技术判断人眼注视点,就可以在画面压缩编码过程中以高分辨率传输注视点区域,即感兴趣区域(ROI,region of interest),这样既保证了看到的画面足够清晰,又大幅度降低了传输的数据量,从而降低VR设备对硬件的要求。同时利用语音识别技术,可随时切换控制方式,增加了交互方式的多样性。
Description
技术领域
本发明涉及视线交互技术、语音交互技术与VR视频压缩编码技术领域,特别涉及一种基于视线追踪技术的VR视频直播交互方法与装置。该技术可用于虚拟现实视频直播和游戏应用、军事瞄准辅助、人机交互、智能家居、医学研究以及心理分析等领域。
背景技术:
人机交互(Human-Computer Interaction,简称HCI),顾名思义,是一门研究系统和用户之间交互关系的学问。从最初的纸带打孔,到后来键盘输入、鼠标输入的发展,再到当下的触摸操作,语音识别,以及有待进一步发展的3D手势、眼动识别。每一次的技术革新及产品升级,将会带来人机交互方式的重大变化。当下,世界各大公司均开始投入虚拟现实(VR,virtual reality)领域的研制,民用级VR的时代正式到来。VR技术的应用场景很多,除当下最大的热点VR游戏和VR影视外,包括在医疗模拟教学,军事模拟实战训练,工业仿真,虚拟课堂等都有极广泛的应用场景。而VR视频直播则是当下VR视频的一个热点。
目前,随着VR技术的发展,在VR领域,交互方式大致分为以下几种:动作捕捉、触觉反馈、眼球追踪、肌电模拟、手势追踪、方向追踪、语音交互等。VR视频与普通视频相比,视野大,分辨率高,这就导致数据量大,带宽需求量大,这将大大阻挠VR视频的大规模应用。因此,解决VR系统中VR视频的编码,存储,码流传输的问题,实现低延迟是十分关键的。
发明内容
本发明的目的在于:为解决VR视频的数据量大,带宽需求量大导致的延迟高的问题,从而提供一种基于视线追踪技术VR视频直播交互方法及装置。
本发明的技术方案如下:
一种基于视线追踪技术的VR视频直播交互方法,包括如下步骤:
S1:VR视频预处理
S11:利用多个相机得到多路视频源,对多路视频源进行拼接后得到融合后的球形VR视频;
S12:对球形VR视频进行一次编码处理;
S2:VR视频深度处理
S21:一次解码重新得到球形VR视频;
S22:对球形VR视频进行映射处理得到平面VR视频;
S23:根据终端反馈的控制信号对平面VR视频进行ROI处理;
S24:进行ROI处理后的平面VR视频进行二次编码处理,得到VR视频流;
S3:再将VR视频传输到终端,终端对VR视频流进行二次解码后,将平面VR视频反映射成球形视频,在显示设备中对球形视频进行播放;播放过程中,终端根据用户注视点的变化即视线追踪技术向用于ROI处理的模块发送控制信息;
S4:重复S23、S3、S4步骤直到VR视频直播结束;
S23中,ROI处理过程中根据终端发送的控制信息来控制平面VR视频的ROI区域,从而即时更新显示设备的数据;
在上述过程中,仅在第一次进行S2、S3、S4步骤时,S2中不含S23,S21后直接进入S24。
进一步地,在S3中,终端具有语音交互功能,在捕捉用户注视点时,通过语音交互,用户自由选择眼动模式或头动模式、控制头显的菜单选择。
具体地,S11中,对多路视频源进行拼接的方法采用基于图像不变特征的拼接方法,具体步骤包括:
S111:特征提取,包括建立尺度空间、极值点检测、极值点的精确定位、生成特征向量;
S112:特征匹配,通过一定的搜索策略,基于BBF算法及RANSAC算法,找出待配准的两幅图像中正确的特征点对,然后计算变换矩阵;
S113:参数模型求解:根据匹配点对求解8-参数透视变换矩阵,实现图像变换最终完成匹配工作。
优选地,对球形VR视频经过映射处理得到平面VR视频的方法为经纬度映射法、正六面体映射法或圆柱体映射法。
进一步地,S3中,视线追踪的具体过程为:
S31:对图像进行预处理得到人眼图像,对人眼图像进行平滑处理得到改善后的图像;
S32:在改善后的图像上找到瞳孔所在区,获取光斑坐标,计算注视点的位置;
S33:提取角膜反射中心,确定瞳孔的位置和大小;
S34:采用算法提取瞳孔轮廓特征点,拟合瞳孔轮廓;
S35:进行自适应视点校准。
另一方面,本发明提供一种基于视线追踪技术的VR视频直播交互装置,包括依次连接的视频预处理模块,数据中心模块和终端模块;视频预处理模块包括用于将多路视频源进行拼接得到球形VR视频的VR视频初始获取模块,和用于将初始获取模块获得的球形VR视频进行一次编码的一次编码模块;数据中心模块包括依次连接的一次解码模块、用于将球形VR视频进行映射处理的映射模块、ROI处理模块和二次编码模块;终端模块包括用于解码的二次解码模块、显示视频的显示模块、用于控制显示模块显示的视频的控制模块;控制模块包括用于用户对终端实现语音交互的语音交互模块、用于用户视线追踪的视线追踪模块;眼球追踪模块与ROI处理模块连接,并向ROI处理模块反馈控制信号。
采用本发明提供的技术方案后,具有如下的有益效果:
(1)本发明利用视线追踪技术,获取用户的感兴趣区域(ROI),将感兴趣区域与非感兴趣区域以不同的分辨率传输,同时通过眼球追踪模块获取ROI数据的变动,压缩编码模块可即时作出处理并反馈至终端,这样既保证了看到的画面的质量,又大幅度降低了传输过程中带宽需求量,从而降低VR设备对硬件的要求。
(2)本发明利用眼球追踪代替头部运动感知控制,改革VR设备交互的方式,解决了基于陀螺仪的头部运动感知方式来锁定目标的繁琐、不自然及延迟高等问题。
(3)因为人的瞳距不同,佩戴头显方式不同,注视点不同都会导致人的瞳孔偏离出瞳位置,造成实时观看中畸变形状不同,影响用户体验,硬件方面对于畸变和色散的修正并不完善,大部分是基于图形算法层面进行补偿,这只是一定程度的减少了畸变和色差。本发明中通过眼球追踪技术获得人眼的注视点,人眼和镜片的相对位置,能够实时矫正。
(4)目前市场上主流的VR头盔主要通过用户头部移动、陀螺仪等设备来进行交互控制,具体来说,当用户戴着虚拟现实头盔进入一个虚拟时空中,用户在这个虚拟世界所体验到的视角,主要取决于头部转动所及之处;然而,通过头部控制来决定视角,用户往往很不适应,这种较为传统的交互方式与人类的天性习惯有所违背,容易造成眩晕,因为在现实生活中,人们习惯于用眼控、头控结合的方式来感知这个世界,头动控制视野、眼动锁定目标,这就造成了体验不佳,而在本发明的VR视频直播交互方法中,它对于人眼位置的检测,能够为当前所处视角提供最佳的3D效果,使VR头显呈现出的图像更自然,延迟更小,同时,由于眼球追踪技术可以获知人眼的真实注视点,从而得到虚拟物体上视点位置的景深。
附图说明
图1为本发明的流程原理图;
图2为VR视频拼接流程;
图3为本发明S2中的经纬图采样示意图;
图4为本发明S2中的正六面体采样示意图;
图5为本发明S2中的圆柱体采样示意图;
图6为本发明S2中ROI处理过程中的全景画面划分图;
图7为本发明S2中ROI处理过程中的区域分割图;
图8为本发明S4中的眼球追踪模块的整体流程图;
图9为本发明S4中的眼球追踪模块的工作流程图;
图10为本发明的装置模块图。
具体实施方式
本说明书中公开的所有特征,除了互相排斥的特征和/或步骤以外,均可以以任何方式组合。
下面结合附图对本发明作详细说明。
一种基于视线追踪技术的VR视频直播交互方法,如图1所示,包括如下步骤:
S1:VR视频预处理
S11:利用多个相机得到多路视频源,对多路视频源进行拼接后得到融合后的球形VR视频;视频拼接的方法采用不变特征匹配的拼接方法,如图2所示分为以下几步:
S11:特征提取,包括建立尺度空间、极值点检测、极值点的精确定位、生成特征向量;
S12:特征匹配,通过一定的搜索策略,基于BBF算法及RANSAC算法,找出待配准的两幅图像中正确的特征点对,然后计算变换矩阵;
S13:参数模型求解:根据匹配点对求解8-参数透视变换矩阵,实现图像变换最终完成匹配工作,具体地,8-参数透视变换矩阵的过程如下:
针对图像的全局变换,通过齐次坐标的性质,将待匹配图像变换到参考图像的坐标系中以实现几何变换:
可选取4对匹配点对可利用线性方程组求的矩阵的各参数。
S12:对球形VR视频进行一次编码处理;
S2:VR视频深度处理
S21:一次解码重新得到球形VR视频;
S22:对球形VR视频进行映射处理得到平面VR视频;
S23:根据终端反馈的控制信号对平面VR视频进行ROI处理;
S24:进行ROI处理后的平面VR视频进行二次编码处理,得到VR视频流;
对于S21,现有的视频编码都是针对2D视频,所以需要将拼接好的VR视频进行映射处理后进行传输,映射处理的方法分为经纬图映射法和正六面体映射法,下面,将分别阐述这两种方法的详细过程:
A.经纬度映射法
平面视频是从一个完整或部分的球面经过对方位角θ和俯仰角φ进行均匀采样得到的,如图3所示。对于一个完整的球面,θ的取值范围是[-π,π],φ的取值范围是[-π/2,π/2];
平面视频帧对应的球面的水平视角范围为[-hFOV/2,hFOV/2],垂直视角范围为[-vFOV/2,vFOV/2],平面视频帧中像素的平面坐标(x,y)与球面坐标(θ,φ)的对应关系为:
θ=2×(hFOV÷360×π×(x-W÷2+0.5)÷W
φ=(vFOV÷180)×π×(H÷2-y-0.5)÷H
B.正六面体映射法
平面视频是将一个完整的球面映射为正六面体,并将正六面体的六个面按某种方式排列得到的。如图4所示,首先确定球面的外切正六面体,六个面与球面的切点的球面坐标分别为(-π/2,0)、(0,0)、(π/2,0)、(π,0)、(0,π/2)和(0,-π/2),将这六个切点所在的正方形切面分别记为左面、前面、右面、背面、顶面和底面。
连接某个切面内的所有点和球面中心,与球面的所有交点构成的区域就是该切面对应的球面区域。将某个切面内像素的局部坐标记为(xLocal,yLocal)。将每个正方形切面的边长用nCubic表示,定义中间变量xNormal和yNormal的值为:
xNormal=(2×xLocal+1-nCubic)÷nCubic
yNormal=(2×yLocal+1-nCubic)÷nCubic
各切面中像素的局部坐标(xLocal,yLocal)和球面坐标(θ,φ)的对应关系如下:
①左面:
θ=arctg(xNormal)-π÷2
φ=arctg(yNormal÷sqrt(1+xNormal2))
②前面:
θ=arctg(xNormal)
φ=arctg(yNormal÷sqrt(1+xNormal2))
③右面:
θ=arctg(xNormal)+π÷2
φ=arctg(yNormal÷sqrt(1+xNormal2))
④背面:
φ=arctg(yNormal÷sqrt(1+xNormal2))
当xNormal<0时,
θ=arctg(xNormal)+π
当xNormal>=0时,
θ=arctg(xNormal)-π
⑤顶面:
φ=π÷2-arctg(sqrt(xNormal2+yNormal2))
当xNormal>=0时,
θ=arccos(yNormal÷sqrt(xNormal2+yNormal2))
当xNormal<0时,
θ=-arccos(yNormal÷sqrt(xNormal2+yNormal2))
⑥底面:
φ=arctg(sqrt(xNormal2+yNormal2))-π÷2
当xNormal>=0时,
θ=arccos(-yNormal÷sqrt(xNormal2+yNormal2))
当xNormal<0时,
θ=-arccos(-yNormal÷sqrt(xNormal2+yNormal2))
C.圆柱体映射法
平面视频是从一个球面上按照圆柱体采样得到的,如图5所示。平面视频帧对应的球面的水平视角范围为[-hFOV/2,hFOV/2],垂直视角范围为[-vFOV/2,vFOV/2]。平面视频帧中像素的平面坐标(x,y)和球面坐标(θ,φ)的对应关系为:
θ=(hFOV÷360)×2×π×(x-W÷2+0.5)÷W
φ=-arctg(tan(vFOV÷360×π)×(H-2×y+1)÷H)
基于终端反馈的控制信号对平面VR视频进行ROI处理的过程具体如下:首先,将一幅全景画面均匀划成9个区域,如图6所示,区域5即为ROI区域。
设映射后画面的大小为W×H,则每块区域的大小为我们用以下方法将区域下采样:
如图7所示,我们将区域4和6分割成宽度不等的区域,再取其中心部分的一列像素,第一列的宽度设为a0,最后一列的宽度为a0+np,则有同理,在区域2和区域8,我们将其分割成高度不等的区域,再取其中心的一行像素,第一行的高度设为b0,最后一行的宽度为b0+mq,则有而在区域1、3、7和9,将其分成m×n个不同大小的矩形,取其中心的一个像素。综上,将W×H的全景画面下采样成了大小,减少了传输数据量,而ROI区域的清晰度未变。
S3:再将VR视频传输到终端,终端对VR视频流进行二次解码后,将平面VR视频反映射成球形视频,在显示设备中对球形视频进行播放;播放过程中,终端根据用户注视点的变化即视线追踪技术向用于ROI处理的模块发送控制信息;具体地,播放过程中,当眼球追踪识别到人的关注区域产生变化(如从5区域变到了4区域),则通过显示设备经由数据中心给压缩编码模块传送一个反馈信号,则视频在ROI区域处理的时候变换ROI区域重新下采样,再经由数据中心传到终端,而此时显示设备的画面产生了变化,原来4区域的图像变到了画面中央,确保ROI区域始终处在画面中央,即捕捉到的眼球的动作用来控制画面切换,保证用户的观看舒适度。
同时,S4中,终端具有语音交互功能,在捕捉用户注视点时,通过语音交互,用户自由选择眼动模式或头动模式,通过语音交互还能控制头显的菜单选择,比如:音量,亮度,选择哪个视频源。
眼球追踪模块的整体流程图如图8所示,终端显示器为头盔显示器,简称头显,头显设备上内置低功耗红外光源、光学传感器、眼球追踪传感器、图像处理器,并拥有视点计算核心。在眼球追踪过程中,采用瞳孔—角膜反射技术,通过图像分析计算角膜中心与瞳孔中心的位置信息,得到瞳孔角膜矢量,再结合眼睛光学估计模型可以较为精确地计算出观测者视线方向和关注点位置。
当头显开启,红外光源开始工作,照射眼球,此时眼球追踪传感器模块运行,进行定位和标定,标定分为静态初始化标定和后期头发发生改变后的自适应标定,静态初始化标定指在头部保持基本不动的状态下完成瞳孔中心到参考平面上关注点的映射,标定时眼睛先后注视屏幕上若干个标记点,同时记录下相应的瞳孔中心、场景信息以及屏幕标定点位置利用多项式、神经网络或区域映射的方法建立映射模型。然后对标定的数据进行分析,寻找并获得用户眼球的关注点,即感兴趣区域ROI,发送控制信号到压缩编码模块,当用户头部发生运动时,模块会进行自适应的标定修复,通过补偿算法重新计算确定ROI。
眼球追踪器的工作流程如图9所示:
S31:对图像进行预处理得到人眼图像,对人眼图像进行平滑处理得到改善后的图像;同时进行场景定位,场景定位即实时检测出显示设备上若干个红外灯的在场景摄像机图像中的位置,它在标定和视线跟踪的时候起着重要作用,是用来克服头部运动影响的关键。
S32:在改善后的图像上找到瞳孔所在区,获取光斑坐标,计算注视点的位置。
S33:提取角膜反射中心,确定瞳孔的位置和大小,瞳孔的位置为眼部摄像机拍摄的图像中提取的瞳孔中心的位置。
S34:采用算法提取瞳孔轮廓特征点,拟合瞳孔轮廓。
S35:进行自适应视点校准。
上述的基于视线追踪技术的VR视频直播交互方法对应的装置,包括依次连接的视频预处理模块,数据中心模块和终端模块。
视频预处理模块包括用于将多路视频源进行拼接得到球形VR视频的VR视频初始获取模块,和用于将初始获取模块获得的球形VR视频进行一次编码的一次编码模块。
数据中心模块包括依次连接的一次解码模块、用于将球形VR视频进行映射处理的映射模块、ROI处理模块和二次编码模块。
终端模块包括用于解码的二次解码模块、显示视频的显示模块、用于控制显示模块显示的视频的控制模块。
控制模块包括用于用户对终端实现语音交互的语音交互模块、用于用户视线追踪的视线追踪模块。
眼球追踪模块与ROI处理模块连接,并向ROI处理模块反馈控制信号。
本发明不局限于上述具体实施例,应当理解,本领域的普通技术人员无需创造性劳动就可以根据本发明的构思做出诸多修改和变化。总之,凡本技术领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。
Claims (6)
1.一种基于视线追踪技术的VR视频直播交互方法,其特征在于,包括如下步骤:
S1:VR视频预处理
S11:利用多个相机得到多路视频源,对多路视频源进行拼接后得到融合后的球形VR视频;
S12:对球形VR视频进行一次编码处理;
S2:VR视频深度处理
S21:一次解码重新得到球形VR视频;
S22:对球形VR视频进行映射处理得到平面VR视频;
S23:根据终端反馈的控制信号对平面VR视频进行ROI处理;
S24:进行ROI处理后的平面VR视频进行二次编码处理,得到VR视频流;
S3:再将VR视频传输到终端,终端对VR视频流进行二次解码后,将平面VR视频反映射成球形视频,在显示设备中对球形视频进行播放;播放过程中,终端根据用户注视点的变化即视线追踪技术向用于进行ROI处理的模块发送控制信息;
S4:重复S23、S3、S4步骤直到VR视频直播结束;
S23中,ROI处理过程中根据终端发送的控制信息来控制平面VR视频的ROI区域,从而即时更新显示设备的数据;
在上述过程中,仅在第一次进行S2、S3、S4步骤时,S2中不含S23,S21后直接进入S24。
2.根据权利要求1所述的一种基于视线追踪技术的VR视频直播交互方法,其特征在于,在S3中,终端具有语音交互功能,在捕捉用户注视点时,通过语音交互,用户自由选择眼动模式或头动模式、控制头显的菜单选择。
3.根据权利要求1所述的一种基于视线追踪技术的VR视频直播交互方法,其特征在于,S11中,对多路视频源进行拼接的方法采用基于图像不变特征的拼接方法,具体步骤包括:
S111:特征提取,包括建立尺度空间、极值点检测、极值点的精确定位、生成特征向量;
S112:特征匹配,通过一定的搜索策略,基于BBF算法及RANSAC算法,找出待配准的两幅图像中正确的特征点对,然后计算变换矩阵;
S113:参数模型求解:根据匹配点对求解8-参数透视变换矩阵,实现图像变换最终完成匹配工作。
4.根据权利要求1所述的一种基于视线追踪技术的VR视频直播交互方法,其特征在于,对球形VR视频经过映射处理得到平面VR视频的方法为经纬度映射法、正六面体映射法或圆柱体映射法。
5.根据权利要求1所述的一种基于视线追踪技术的VR视频直播交互方法,其特征在于,S3中,视线追踪的具体过程为:
S31:对图像进行预处理得到人眼图像,对人眼图像进行平滑处理得到改善后的图像;
S32:在改善后的图像上找到瞳孔所在区,获取光斑坐标,计算注视点的位置;
S33:提取角膜反射中心,确定瞳孔的位置和大小;
S34:采用算法提取瞳孔轮廓特征点,拟合瞳孔轮廓;
S35:进行自适应视点校准。
6.一种基于视线追踪技术的VR视频直播交互装置,其特征在于,包括依次连接的视频预处理模块,数据中心模块和终端模块;
视频预处理模块包括用于将多路视频源进行拼接得到球形VR视频的VR视频初始获取模块,和用于将初始获取模块获得的球形VR视频进行一次编码的一次编码模块;
数据中心模块包括依次连接的一次解码模块、用于将球形VR视频进行映射处理的映射模块、ROI处理模块和二次编码模块;
终端模块包括用于解码的二次解码模块、显示视频的显示模块、用于控制显示模块显示的视频的控制模块;
控制模块包括用于用户对终端实现语音交互的语音交互模块、用于用户视线追踪的视线追踪模块;
眼球追踪模块与ROI处理模块连接,并向ROI处理模块反馈控制信号。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710283942.9A CN107105333A (zh) | 2017-04-26 | 2017-04-26 | 一种基于视线追踪技术的vr视频直播交互方法与装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710283942.9A CN107105333A (zh) | 2017-04-26 | 2017-04-26 | 一种基于视线追踪技术的vr视频直播交互方法与装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107105333A true CN107105333A (zh) | 2017-08-29 |
Family
ID=59657290
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710283942.9A Pending CN107105333A (zh) | 2017-04-26 | 2017-04-26 | 一种基于视线追踪技术的vr视频直播交互方法与装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107105333A (zh) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107742512A (zh) * | 2017-11-07 | 2018-02-27 | 北京京东方光电科技有限公司 | 一种显示驱动电路、其驱动方法及显示装置 |
CN107770561A (zh) * | 2017-10-30 | 2018-03-06 | 河海大学 | 一种利用眼动跟踪数据的多分辨率虚拟现实设备屏幕内容编码算法 |
CN107894666A (zh) * | 2017-10-27 | 2018-04-10 | 杭州光粒科技有限公司 | 一种头戴式多深度立体图像显示系统及显示方法 |
CN109240510A (zh) * | 2018-10-30 | 2019-01-18 | 东北大学 | 基于视线追踪的增强现实人机交互设备及控制方法 |
CN109646784A (zh) * | 2018-12-21 | 2019-04-19 | 华东计算技术研究所(中国电子科技集团公司第三十二研究所) | 基于沉浸式vr的失眠障碍心理治疗系统和方法 |
CN110072121A (zh) * | 2018-01-23 | 2019-07-30 | 南京大学 | 一种适应人眼感知情况的沉浸式媒体数据传输方法 |
CN110275304A (zh) * | 2019-06-17 | 2019-09-24 | 上海宇极文化传播有限公司 | 一种xr头显及调整xr头显中播放图像的视场的方法 |
CN110324648A (zh) * | 2019-07-17 | 2019-10-11 | 咪咕文化科技有限公司 | 直播展现方法和系统 |
CN111202663A (zh) * | 2019-12-31 | 2020-05-29 | 浙江工业大学 | 一种基于vr技术的视觉训练学习系统 |
CN111698564A (zh) * | 2020-07-27 | 2020-09-22 | 腾讯科技(深圳)有限公司 | 信息推荐方法、装置、设备及存储介质 |
CN111698497A (zh) * | 2020-06-15 | 2020-09-22 | 中航华东光电有限公司 | 全景显示系统在ar眼镜上的实时传输与监控的方法 |
CN111726642A (zh) * | 2019-03-19 | 2020-09-29 | 北京京东尚科信息技术有限公司 | 直播方法、装置和计算机可读存储介质 |
CN112040212A (zh) * | 2020-09-09 | 2020-12-04 | 青岛黄海学院 | 一种全景视频制作系统及方法 |
WO2021139195A1 (en) * | 2020-01-06 | 2021-07-15 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Computer-implemented methods for simulating deformation in real-world scene, electronic devices, and computer-readable storage media |
CN113724176A (zh) * | 2021-08-23 | 2021-11-30 | 广州市城市规划勘测设计研究院 | 一种多摄像头动作捕捉无缝衔接方法、装置、终端及介质 |
CN114244884A (zh) * | 2021-12-21 | 2022-03-25 | 北京蔚领时代科技有限公司 | 应用于云游戏的基于眼球跟踪的视频编码方法 |
CN116033189A (zh) * | 2023-03-31 | 2023-04-28 | 卓望数码技术(深圳)有限公司 | 基于云边协同的直播互动视频分区智能控制方法和系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101002471A (zh) * | 2004-08-13 | 2007-07-18 | 庆熙大学校产学协力团 | 对图像编码的方法和设备及对图像数据解码的方法和设备 |
CN103761519A (zh) * | 2013-12-20 | 2014-04-30 | 哈尔滨工业大学深圳研究生院 | 一种基于自适应校准的非接触式视线追踪方法 |
CN103930817A (zh) * | 2011-06-20 | 2014-07-16 | 谷歌公司 | 用于数据的自适应传送的系统和方法 |
CN106131615A (zh) * | 2016-07-25 | 2016-11-16 | 北京小米移动软件有限公司 | 视频播放方法及装置 |
WO2016208939A1 (en) * | 2015-06-26 | 2016-12-29 | Samsung Electronics Co., Ltd. | Method and apparatus for generating and transmitting metadata for virtual reality |
-
2017
- 2017-04-26 CN CN201710283942.9A patent/CN107105333A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101002471A (zh) * | 2004-08-13 | 2007-07-18 | 庆熙大学校产学协力团 | 对图像编码的方法和设备及对图像数据解码的方法和设备 |
CN103930817A (zh) * | 2011-06-20 | 2014-07-16 | 谷歌公司 | 用于数据的自适应传送的系统和方法 |
CN103761519A (zh) * | 2013-12-20 | 2014-04-30 | 哈尔滨工业大学深圳研究生院 | 一种基于自适应校准的非接触式视线追踪方法 |
WO2016208939A1 (en) * | 2015-06-26 | 2016-12-29 | Samsung Electronics Co., Ltd. | Method and apparatus for generating and transmitting metadata for virtual reality |
CN106131615A (zh) * | 2016-07-25 | 2016-11-16 | 北京小米移动软件有限公司 | 视频播放方法及装置 |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107894666A (zh) * | 2017-10-27 | 2018-04-10 | 杭州光粒科技有限公司 | 一种头戴式多深度立体图像显示系统及显示方法 |
CN107770561A (zh) * | 2017-10-30 | 2018-03-06 | 河海大学 | 一种利用眼动跟踪数据的多分辨率虚拟现实设备屏幕内容编码算法 |
CN107742512A (zh) * | 2017-11-07 | 2018-02-27 | 北京京东方光电科技有限公司 | 一种显示驱动电路、其驱动方法及显示装置 |
US10613624B2 (en) | 2017-11-07 | 2020-04-07 | Boe Technology Group Co., Ltd. | Display driving circuit, driving method thereof and display device |
CN110072121A (zh) * | 2018-01-23 | 2019-07-30 | 南京大学 | 一种适应人眼感知情况的沉浸式媒体数据传输方法 |
CN109240510A (zh) * | 2018-10-30 | 2019-01-18 | 东北大学 | 基于视线追踪的增强现实人机交互设备及控制方法 |
CN109240510B (zh) * | 2018-10-30 | 2023-12-26 | 东北大学 | 基于视线追踪的增强现实人机交互设备及控制方法 |
CN109646784A (zh) * | 2018-12-21 | 2019-04-19 | 华东计算技术研究所(中国电子科技集团公司第三十二研究所) | 基于沉浸式vr的失眠障碍心理治疗系统和方法 |
CN111726642A (zh) * | 2019-03-19 | 2020-09-29 | 北京京东尚科信息技术有限公司 | 直播方法、装置和计算机可读存储介质 |
CN110275304A (zh) * | 2019-06-17 | 2019-09-24 | 上海宇极文化传播有限公司 | 一种xr头显及调整xr头显中播放图像的视场的方法 |
CN110324648A (zh) * | 2019-07-17 | 2019-10-11 | 咪咕文化科技有限公司 | 直播展现方法和系统 |
CN111202663A (zh) * | 2019-12-31 | 2020-05-29 | 浙江工业大学 | 一种基于vr技术的视觉训练学习系统 |
WO2021139195A1 (en) * | 2020-01-06 | 2021-07-15 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Computer-implemented methods for simulating deformation in real-world scene, electronic devices, and computer-readable storage media |
CN111698497A (zh) * | 2020-06-15 | 2020-09-22 | 中航华东光电有限公司 | 全景显示系统在ar眼镜上的实时传输与监控的方法 |
CN111698564A (zh) * | 2020-07-27 | 2020-09-22 | 腾讯科技(深圳)有限公司 | 信息推荐方法、装置、设备及存储介质 |
CN112040212A (zh) * | 2020-09-09 | 2020-12-04 | 青岛黄海学院 | 一种全景视频制作系统及方法 |
CN113724176A (zh) * | 2021-08-23 | 2021-11-30 | 广州市城市规划勘测设计研究院 | 一种多摄像头动作捕捉无缝衔接方法、装置、终端及介质 |
CN114244884A (zh) * | 2021-12-21 | 2022-03-25 | 北京蔚领时代科技有限公司 | 应用于云游戏的基于眼球跟踪的视频编码方法 |
CN114244884B (zh) * | 2021-12-21 | 2024-01-30 | 北京蔚领时代科技有限公司 | 应用于云游戏的基于眼球跟踪的视频编码方法 |
CN116033189A (zh) * | 2023-03-31 | 2023-04-28 | 卓望数码技术(深圳)有限公司 | 基于云边协同的直播互动视频分区智能控制方法和系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107105333A (zh) | 一种基于视线追踪技术的vr视频直播交互方法与装置 | |
US11796309B2 (en) | Information processing apparatus, information processing method, and recording medium | |
US11838518B2 (en) | Reprojecting holographic video to enhance streaming bandwidth/quality | |
US11632537B2 (en) | Method and apparatus for obtaining binocular panoramic image, and storage medium | |
KR102417177B1 (ko) | 인사이드-아웃 위치, 사용자 신체 및 환경 추적을 갖는 가상 및 혼합 현실을 위한 머리 장착 디스플레이 | |
US10181222B2 (en) | Method and device for augmented reality display of real physical model | |
US20170098331A1 (en) | System and method for reproducing objects in 3d scene | |
KR20150090183A (ko) | 3-d 플레놉틱 비디오 이미지들을 생성하는 시스템 및 방법 | |
US11727238B2 (en) | Augmented camera for improved spatial localization and spatial orientation determination | |
CN110544302A (zh) | 基于多目视觉的人体动作重建系统、方法和动作训练系统 | |
US20130265331A1 (en) | Virtual Reality Telescopic Observation System of Intelligent Electronic Device and Method Thereof | |
CN106095106A (zh) | 虚拟现实终端及其显示光心距的调整方法及装置 | |
JPWO2016158014A1 (ja) | 情報処理装置、通信システム、情報処理方法及びプログラム | |
US10296098B2 (en) | Input/output device, input/output program, and input/output method | |
CN106919246A (zh) | 一种应用界面的显示方法和装置 | |
CN112288876A (zh) | 远距离ar识别服务器及系统 | |
CN112954313A (zh) | 一种对全景图像感知质量的计算方法 | |
CN117274383A (zh) | 视点预测方法及装置、电子设备和存储介质 | |
CN111881807A (zh) | 基于人脸建模及表情追踪的vr会议控制系统及方法 | |
CN108616736A (zh) | 用于立体显示的跟踪定位方法及装置 | |
CN114758381A (zh) | 一种基于图像识别的虚拟数字人视线控制方法 | |
CN113965550A (zh) | 智能交互式远程辅助视频系统 | |
US20170302904A1 (en) | Input/output device, input/output program, and input/output method | |
JP2023551864A (ja) | 自動立体テレプレゼンスシステムのための3次元(3d)顔特徴追跡 | |
KR102658303B1 (ko) | 인사이드-아웃 위치, 사용자 신체 및 환경 추적을 갖는 가상 및 혼합 현실을 위한 머리 장착 디스플레이 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170829 |
|
RJ01 | Rejection of invention patent application after publication |