CN115268650A - 画面截屏方法、装置、头戴式虚拟现实设备和存储介质 - Google Patents
画面截屏方法、装置、头戴式虚拟现实设备和存储介质 Download PDFInfo
- Publication number
- CN115268650A CN115268650A CN202210948775.6A CN202210948775A CN115268650A CN 115268650 A CN115268650 A CN 115268650A CN 202210948775 A CN202210948775 A CN 202210948775A CN 115268650 A CN115268650 A CN 115268650A
- Authority
- CN
- China
- Prior art keywords
- image
- angle value
- virtual reality
- value
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 83
- 230000001960 triggered effect Effects 0.000 claims abstract description 13
- 210000001747 pupil Anatomy 0.000 claims description 18
- 230000006870 function Effects 0.000 claims description 13
- 230000000007 visual effect Effects 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 abstract description 6
- 238000010586 diagram Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 13
- 230000000694 effects Effects 0.000 description 6
- 101000603761 Homo sapiens Peptide-N(4)-(N-acetyl-beta-glucosaminyl)asparagine amidase Proteins 0.000 description 3
- 102100038551 Peptide-N(4)-(N-acetyl-beta-glucosaminyl)asparagine amidase Human genes 0.000 description 3
- 101100508790 Schizosaccharomyces pombe (strain 972 / ATCC 24843) png2 gene Proteins 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请公开了一种画面截屏方法、装置、头戴式虚拟现实设备和存储介质,用于保证截屏的精确且保证截屏画面不偏移。本申请响应用户触发的截屏操作,基于头戴式虚拟现实设备的旋转角度值确定采集角度值,并调整;基于调整后的采集角度值采集第一图像和第二图像;对第一图像和第二图像进行图像识别,得到共视区域;基于共视区域对第一图像和/或第二图像进行裁剪处理;基于裁剪后的第一图像和/或第二图像得到截屏图。对采集角度值进行调整,使得采集到的第一图像、第二图像不会存在偏移,减少了用户操作,提升了用户体验;其次,本申请中通过对第一图像、第二图像进行裁剪拼接,进而确定截屏图像,使得截出的画面不会存在偏左或偏右的问题。
Description
技术领域
本申请涉及虚拟现实技术领域,尤其涉及一种画面截屏方法、装置、头戴式虚拟现实设备和存储介质。
背景技术
随着虚拟现实设备的普及,在社交中,对新型产品的体验及分享也成为了观影、游戏等功能爱好者们的共同话题,截屏画面分享便是一种常用功能,截屏在现有的虚拟现实产品中作为不可或缺的功能而存在,相关技术中的虚拟现实设备都会配有惯性测量单元(Inertial Measurement Unit,IMU),以便虚拟现实设备可以具备比较精确的旋转移动功能,而IMU本身精度比较高,且虚拟现实设备主要是进行佩戴的设备,所以用户在通过截屏按键或者头戴组合键进行截屏操作时,很难保持设备完全不倾斜并同时触发截屏,因此导致用户截出的图片都会有一定程度的偏移。
其次,头戴式虚拟现实设备为了模拟人眼的成像效果,通过左右两个虚拟相机模拟人眼效果,左右相机分别渲染左右两张不完全相同的图像,相关技术中大多采用创建虚拟显示屏幕并向显示屏幕中实时传输左眼(或右眼)画面,且在截屏操作触发后截取显示屏幕中的单目画面作为截屏画面,此时截出的画面存在偏左(或偏右)的问题。
发明内容
本申请的目的是提供一种画面截屏方法、装置、终端设备和存储介质,用于保证头戴式虚拟现实设备在截屏时的精确,且保证截屏画面不偏移。
第一方面,本申请实施例提供了一种画面截屏方法,应用于头戴式虚拟现实设备,所述方法包括:
响应于用户触发的截屏操作,基于所述头戴式虚拟现实设备的旋转角度值确定采集图像使用的采集角度值,并对所述采集角度值进行调整;
基于调整后的采集角度值采集第一视线范围内显示屏幕显示的画面,得到第一图像,以及基于调整后的采集角度值采集第二视线范围内所述显示屏幕显示的画面,得到第二图像;其中,所述第一视线范围与所述第二视线范围存在重合;
对所述第一图像和所述第二图像进行图像识别,得到所述第一图像和所述第二图像的共视区域;
基于所述共视区域对所述第一图像和/或所述第二图像进行裁剪处理,得到裁剪后的第一图像和/或第二图像;
基于所述裁剪后的第一图像和/或第二图像得到截屏图像。
在本申请中,通过对采集角度值进行调整,使得采集到的第一图像以及第二图像不会存在偏移,解决了用户手动保持设备不倾斜的问题,提升了用户体验;其次,本申请中通过对第一图像、第二图像进行裁剪拼接,进而确定截屏图像,使得截出的画面不会存在偏左或偏右的问题。
在一些可能的实施例中,所述基于所述头戴式虚拟现实设备的旋转角度值确定采集图像使用的采集角度值,包括:
若确定所述旋转角度值大于所述预设角度阈值,且确定用户设置了角度值,则将所述用户设置的角度值作为所述采集角度值;
若确定所述旋转角度值大于所述预设角度值,且用户未设置角度值,则将初始角度值作为所述采集角度值;
若确定所述旋转角度值小于所述预设角度阈值,则将所述初始角度值作为所述采集角度值。
在本申请中,用户可根据自己的需求设置角度值,以使头戴式虚拟现实设备可以根据用户的需求截屏任意角度的画面;用户也可不设置角度值,则采用初始角度值作为采集角度值,使得到的截屏画面不会存在偏移的问题。
在一些可能的实施例中,所述对所述第一图像和所述第二图像进行图像识别,得到所述第一图像和所述第二图像的共视区域,包括:
获取用户的瞳距数值以及视场角数值;
基于所述用户与显示屏幕的距离、所述视场角数值以及三角函数,得到第一视线范围和第二视线范围;
根据所述第一视线范围与所述瞳距数值的差值,以及所述第二视线范围与所述瞳距数值的差值,确定所述共视区域。
在本申请中,根据用户的瞳距值以及视场角来确定共视区域,使得到的共视区域更加准确。
在一些可能的实施例中,所述基于调整后的采集角度值采集第一视线范围内显示屏幕显示的画面,得到第一图像,以及基于调整后的采集角度值采集第二视线范围内所述显示屏幕显示的画面,得到第二图像,包括:
获取所述头戴式虚拟现实设备在所述采集角度值下采集的第一视线范围对应的第一图像数据以及第二视线范围对应的第二图像数据;
将所述第一图像数据存储至第一比特数组中,将所述第一比特数组保存为第一便携式网络图形文件;并将所述第二图像数据存储至第二比特数组中,将所述第二比特数组保存为第二便携式网络图像文件;
基于所述第一便携式网络图形文件生成所述第一图像,并基于所述第二便携式网络图像文件生成所述第二图像。
在本申请中,通过在采集角度值下采集第一图像数据和第二图像数据,并分别根据第一图像数据、第二图像数据生成第一图像和第二图像,使得到的第一图像、第二图像更加准确。
在一些可能的实施例中,所述基于所述裁剪后的第一图像和/或第二图像得到截屏图像之后,所述方法还包括:
根据边缘识别算法确定所述截屏图像的边缘;
基于所述截屏图像的边缘采用图像识别算法对所述截屏图像进行微调操作,得到调整后的截屏图像。
在本申请中,通过图像识别算法对截屏图像的边缘进行微调操作,使得调整后的截屏图像更加的精确。
在一些可能的实施例中,所述基于所述裁剪后的第一图像和/或第二图像得到截屏图像,包括:
若对所述第一图像进行裁剪,则对所述裁剪后的第一图像以及所述第二图像进行拼接处理得到截屏图像;
若对所述第二图像进行裁剪,则对所述裁剪后的第二图像以及所述第一图像进行拼接处理,得到截屏图像;
若对所述第一图像和所述第二图像进行裁剪,则对所述裁剪后的第一图像、所述裁剪后的第二图像以及所述共视区域进行拼接处理,得到所述截屏图像。
在本申请中,对具体的裁剪以及拼接方式不作限定,使得本申请更具普适性。
第二方面,本申请还提供了一种画面截屏装置,所述装置包括:
角度调整模块,用于响应于用户触发的截屏操作,基于所述头戴式虚拟现实设备的旋转角度值确定采集图像使用的采集角度值,并对所述采集角度值进行调整;
图像采集模块,用于基于调整后的采集角度值采集第一视线范围内显示屏幕显示的画面,得到第一图像,以及基于调整后的采集角度值采集第二视线范围内所述显示屏幕显示的画面,得到第二图像;其中,所述第一视线范围与所述第二视线范围存在重合;
图像识别模块,用于对所述第一图像和所述第二图像进行图像识别,得到所述第一图像和所述第二图像的共视区域;
图像裁剪模块,用于基于所述共视区域对所述第一图像和/或所述第二图像进行裁剪处理,得到裁剪后的第一图像和/或第二图像;
拼接模块,用于基于所述裁剪后的第一图像和/或第二图像得到截屏图像。
在一些可能的实施例中,所述角度调整模块执行所述基于所述头戴式虚拟现实设备的旋转角度值确定采集图像使用的采集角度值,包括:
若确定所述旋转角度值大于所述预设角度阈值,且确定用户设置了角度值,则将所述用户设置的角度值作为所述采集角度值;
若确定所述旋转角度值大于所述预设角度值,且用户未设置角度值,则将初始角度值作为所述采集角度值;
若确定所述旋转角度值小于所述预设角度阈值,则将所述初始角度值作为所述采集角度值。
在一些可能的实施例中,所述图像识别模块执行对所述第一图像和所述第二图像进行图像识别,得到所述第一图像和所述第二图像的共视区域时,被配置为:
获取用户的瞳距数值以及视场角数值;
基于所述用户与显示屏幕的距离、所述视场角数值以及三角函数,得到第一视线范围和第二视线范围;
根据所述第一视线范围与所述瞳距数值的差值,以及所述第二视线范围与所述瞳距数值的差值,确定所述共视区域。
在一些可能的实施例中,所述图像采集模块执行基于调整后的采集角度值采集第一视线范围内显示屏幕显示的画面,得到第一图像,以及基于调整后的采集角度值采集第二视线范围内所述显示屏幕显示的画面,得到第二图像,包括:
获取所述头戴式虚拟现实设备在所述采集角度值下采集的第一视线范围对应的第一图像数据以及第二视线范围对应的第二图像数据;
将所述第一图像数据存储至第一比特数组中,将所述第一比特数组保存为第一便携式网络图形文件;并将所述第二图像数据存储至第二比特数组中,将所述第二比特数组保存为第二便携式网络图像文件;
基于所述第一便携式网络图形文件生成所述第一图像,并基于所述第二便携式网络图像文件生成所述第二图像。
在一些可能的实施例中,所述拼接模块执行基于所述裁剪后的第一图像和/或第二图像得到截屏图像之后,还被配置为:
根据边缘识别算法确定所述截屏图像的边缘;
基于所述截屏图像的边缘采用图像识别算法对所述截屏图像进行微调操作,得到调整后的截屏图像。
在一些可能的实施例中,所述图像裁剪模块执行基于所述裁剪后的第一图像和/或第二图像得到截屏图像时,被配置为:
若对所述第一图像进行裁剪,则对所述裁剪后的第一图像以及所述第二图像进行拼接处理得到截屏图像;
若对所述第二图像进行裁剪,则对所述裁剪后的第二图像以及所述第一图像进行拼接处理,得到截屏图像;
若对所述第一图像和所述第二图像进行裁剪,则对所述裁剪后的第一图像、所述裁剪后的第二图像以及所述共视区域进行拼接处理,得到所述截屏图像。
第三方面,本申请另一实施例还提供了一种头戴式虚拟现实设备,包括至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本申请第一方面实施例提供的任一方法。
第四方面,本申请另一实施例还提供了一种计算机可读存储介质,其中,所述计算机可读存储介质存储有计算机程序,所述计算机程序用于使计算机执行本申请第一方面实施例提供的任一方法。
本申请的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本申请而了解。本申请的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图作简单地介绍,显而易见地,下面所介绍的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种画面截屏方法的应用场景图;
图2为本申请实施例提供的一种画面截屏方法的另一应用场景图;
图3为本申请实施例提供的一种画面截屏方法的整体流程示意图;
图4为本申请实施例提供的一种画面截屏方法的角度调整提示框示意图;
图5为本申请实施例提供的一种画面截屏方法的采集角度输入界面示意图;
图6为本申请实施例提供的一种画面截屏方法的人眼视线范围示意图;
图7为本申请实施例提供的一种画面截屏方法的第一视线范围与第二视线范围示意图;
图8为本申请实施例提供的一种画面截屏方法的采集的第一图像与第二图像的示意图;
图9为本申请实施例提供的一种画面截屏方法的采集第一图像的流程示意图;
图10为本申请实施例提供的一种画面截屏方法的采集第二图像的流程示意图;
图11为本申请实施例提供的一种画面截屏方法的微调操作的流程示意图;
图12为本申请实施例提供的一种画面截屏方法的第一图像示意图;
图13为本申请实施例提供的一种画面截屏方法的确定共视区域的流程示意图;
图14为本申请实施例提供的一种画面截屏方法的确定共视区域的示意图;
图15为本申请实施例提供的一种画面截屏方法的确定左视区域的示意图;
图16为本申请实施例提供的一种画面截屏方法的左视区域与第二图像拼接示意图;
图17为本申请实施例提供的一种画面截屏方法的右视区域示意图;
图18为本申请实施例提供的一种画面截屏方法的右视区域与第一图像进行拼接示意图;
图19为本申请实施例提供的一种画面截屏方法的左视区域、右视区域示意图;
图20为本申请实施例提供的一种画面截屏方法的左视区域、右视区域、共视区域拼接示意图;
图21为本申请实施例提供的一种画面截屏方法的局部调整的流程示意图;
图22为本申请实施例提供的一种画面截屏方法的装置示意图;
图23为本申请实施例提供的一种画面截屏方法的头戴式虚拟现实设备的示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚明白,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互任意组合。并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以按不同于此处的顺序执行所示出或描述的步骤。
本申请的说明书和权利要求书及上述附图中的术语“第一”和“第二”是用于区别不同对象,而非用于描述特定顺序。此外,术语“包括”以及它们任何变形,意图在于覆盖不排他的保护。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。本申请中的“多个”可以表示至少两个,例如可以是两个、三个或者更多,本申请实施例不做限制。
发明人研究发现,随着虚拟现实设备的普及以及运用,在社交活动中,对新型产品的体验以及分享也成为了观影、游戏、音乐等功能爱好者们的共同话题,对画面进行截屏,并将得到的截屏画面进行分享便是一种常用功能,截屏在现有的虚拟现实产品中作为不可或缺的功能存在,相关技术中的虚拟现实设备都会配有IMU,以便虚拟现实设备可以具备比较精确的旋转移动功能,而IMU本身精度比较高,且虚拟现实设备主要是进行佩戴的设备,所以用户在通过截屏按键或者头戴组合键进行截屏操作时,很难保持设备完全不倾斜并同时触发截屏,因此导致用户截出的图片都会有一定程度的偏移。
其次,头戴式虚拟现实设备为了模拟人眼的成像效果,通过左右两个虚拟相机模拟人眼效果,左右相机分别渲染左右两张不完全相同的图像,相关技术中大多采用创建虚拟显示屏幕并向显示屏幕中实时传输左眼(或右眼)画面,且在截屏操作触发后截取显示屏幕中的单目画面作为截屏画面,此时截出的画面存在偏左(或偏右)的问题。
有鉴于此,本申请提出了一种画面截屏方法、装置、终端设备和存储介质,用于解决上述问题。本申请的发明构思可概括为:响应于用户触发的截屏操作,基于头戴式虚拟现实设备的旋转角度值确定采集图像使用的采集角度值,并调整;基于调整后的采集角度值采集第一视线范围内显示屏幕显示的画面,得到第一图像,以及基于调整后的采集角度值采集第二视线范围内显示屏幕显示的画面,得到第二图像;其中,第一视线范围与第二视线范围存在重合;对第一图像和第二图像进行图像识别,得到第一图像和第二图像的共视区域;基于共视区域对第一图像和/或第二图像进行裁剪处理,得到裁剪后的第一图像和/或第二图像;基于裁剪后的第一图像和/或第二图像得到截屏图像。
为了便于理解,下面结合附图对本申请实施例提供的一种画面截屏方法进行详细说明,其中:
如图1所示,为本申请实施例中的画面截屏方法的应用场景图。图中包括:服务器10、存储器20、头戴式虚拟现实设备30;其中:
服务器10响应于用户基于虚拟现实设备30触发的截屏操作,基于头戴式虚拟现实设备30的旋转角度值确定采集图像使用的采集角度值,并对采集角度值进行调整;服务器10控制头戴式虚拟现实设备30基于调整后的采集角度值采集第一视线范围内显示屏幕显示的画面,得到第一图像,以及基于调整后的采集角度值采集第二视线范围内显示屏幕显示的画面,得到第二图像;并将第一图像以及第二图像存储至存储器20中,其中,第一视线范围与第二视线范围存在重合;对第一图像和第二图像进行图像识别,得到第一图像和第二图像的共视区域;基于共视区域对第一图像和/或第二图像进行裁剪处理,得到裁剪后的第一图像和/或第二图像;基于裁剪后的第一图像和/或第二图像得到截屏图像。
在另一些实施例中,上述由服务器10执行的操作也可以由头戴式虚拟现实设备30执行,如图2所示,图中包括:存储器20,头戴式虚拟现实设备30,其中:头戴式虚拟现实设备30响应于用户触发的截屏操作,基于头戴式虚拟现实设备30的旋转角度值确定采集图像使用的采集角度值,并对采集角度值进行调整;基于调整后的采集角度值采集第一视线范围内显示屏幕显示的画面,得到第一图像,以及基于调整后的采集角度值采集第二视线范围内显示屏幕显示的画面,得到第二图像;并将第一图像以及第二图像存储至存储器20中,其中,第一视线范围与第二视线范围存在重合;对第一图像和第二图像进行图像识别,得到第一图像和第二图像的共视区域;基于共视区域对第一图像和/或第二图像进行裁剪处理,得到裁剪后的第一图像和/或第二图像;基于裁剪后的第一图像和/或第二图像得到截屏图像。
本申请中的描述中仅就单个服务器、存储器、头戴式虚拟现实设备加以详述,但是本领域技术人员应当理解的是,示出的服务器、存储器、头戴式虚拟现实设备旨在表示本申请的技术方案涉及的服务器、存储器、头戴式虚拟现实设备的操作。而非暗示对服务器、存储器的数量、类型或是位置等具有限制。应当注意,如果向图1或图2示环境中添加附加模块或从其中去除个别模块,不会改变本申请的示例实施例的底层概念。另外,虽然为了方便说明而在图1、与2中示出了从存储器20到服务器10的双向箭头,但本领域技术人员可以理解的是,上述数据的收发也是需要通过网络实现的。
需要说明的是,本申请实施例中的存储器例如可以是缓存系统、也可以是硬盘存储、内存存储等等。此外,本申请提出的画面截屏方法不仅适用于图1、图2所示的应用场景,还适用于任何有画面截屏需求的装置。
其次,本申请中的头戴式虚拟现实设备包括但不限于:虚拟现实设备(VirtualReality,VR)、增强现实设备(Augmented Reality,AR)、混合现实设备(Mixed Reality,MR)。
如图3所示,为本申请实施例提供的一种画面截屏方法的整体流程图,其中:
步骤301中:响应于用户触发的截屏操作,基于头戴式虚拟现实设备的旋转角度值确定采集图像使用的采集角度值,并对采集角度值进行调整;
步骤302中:基于调整后的采集角度值采集第一视线范围内显示屏幕显示的画面,得到第一图像,以及基于调整后的采集角度值采集第二视线范围内显示屏幕显示的画面,得到第二图像;其中,第一视线范围与第二视线范围存在重合;
步骤303中:对第一图像和第二图像进行图像识别,得到第一图像和第二图像的共视区域;
步骤304中:基于共视区域对第一图像和/或第二图像进行裁剪处理,得到裁剪后的第一图像和/或第二图像;
步骤305中:基于裁剪后的第一图像和/或第二图像得到截屏图像。
在本申请中,通过头戴式虚拟现实设备的旋转角度值确来对采集角度值进行调整,使得采集到的第一图像以及第二图像不会存在偏移,解决了用户手动保持设备不倾斜再进行截屏的问题,简化了用户的操作,提升了用户体验;其次,本申请中通过对第一图像、第二图像进行裁剪并进行拼接,进而确定截屏图像,使得截出的画面不会存在偏左或偏右的问题,保证了用户的观感。
为了便于理解,下面分三部分对本申请实施例中提出的画面截屏方法中的步骤进行详细说明:
1、采集图像
在本申请实施例中,为了保证采集的图像不偏移,因此在采集图像之前,需要对头戴式虚拟现实设备的采集角度值进行调整。下面首先对调整虚拟现实设备的采集角度值的过程进行详细说明:
在本申请实施例中,在用户触发截屏操作后,为了保证截取的图像是用户预期的角度,因此在本申请中设置了三种采集角度值调整方法。下面分别进行说明:
在一些实施例中,若确定旋转角度值小于预设角度阈值,则说明此时用户存在轻微偏移,从而可以确定用户并没有采集指定角度图像的需求,因此在该情况下,直接将初始角度值作为采集角度值。
在另一些实施例中,若确定旋转角度值大于预设角度阈值,则无法确定用户是否想要采集指定角度图像的需求,因此,此时可以由用户自行设定采集角度值,若用户未设置角度值,则说明用户没有采集指定角度图像的需求,因此可以将初始角度值作为采集角度值。
例如:在检测到用户触发截屏操作后,确定此时头戴式虚拟现实设备的旋转角度值大于预设角度阈值,则在虚拟现实屏幕中弹出角度调整提示框,如图4所示,用户选择提示框中的自动校正或设置角度,若用户选择了设置角度,则跳转至如图5所示的界面,提示用户输入采集角度值,并将采集角度值调整为用户输入的角度值。若用户在该提示框中选择的为自动校正,则将采集角度值调整至初始角度值。
需要知道的是,图4示出的提示框的提示方法仅为一个实施例,再具体实施时,可采用其他提示形式,例如:采用语音播报的方式。本申请对具体的提示方式不做限定,技术人员可根据需求自行设定。
在另一些可能的实施例中,为了保证用户使用头戴式虚拟现实设备的体验感,因此可以在用户使用头戴式虚拟现实设备之前,由技术人员直接将采集角度值调整方法设置为自动校正,则在用户使用头戴式虚拟现实设备时,触发了截屏操作,则可直接将采集角度值设置为初始角度值然后进行图像的采集。
需要知道的是,除上述两种调整采集角度值的时机外,在采集图像之前的其他任意时机调整采集角度值也均适用于本申请,本申请对调整采集角度值的时机不作限定,技术人员可根据需求自行设定。
综上所述,采用本申请实施例提出的界面截屏方法无需用户保证头戴式虚拟现实设备不倾斜,在本申请中通过调整采集角度值实现了采集到的图像的不倾斜,保证了用户的体验感,简化了用户的操作。
由于头戴式虚拟现实设备是模拟的人眼的成像效果,人眼的视线范围如图6所示,因此头戴式虚拟现实设备中设置有两个虚拟相机(camera),即左camera和右camera,用于采集图像。因此头戴式虚拟现实设备在采集图像时会采集两张图像。如图7所示,基于调整后的采集角度值采集第一视线范围内显示屏幕显示的画面,得到第一图像,以及基于调整后的采集角度值采集第二视线范围内显示屏幕显示的画面,得到第二图像;其中,第一视线范围与第二视线范围存在重合。
例如:如图8所示为左camera采集的第一图像为和右camera采集的第二图像的示意图,其中第一图像和第二图像中具有相同的部分,第一图像和第二图像中还存在各自可视部分。
下面对本申请实施例中的,采集第一图像和采集第二图像的流程分别进行说明,如图9所示,为本申请实施例中基于调整后的角度值采集第一视线范围对应的第一图像的流程示意图,其中:
步骤901中:获取头戴式虚拟现实设备在采集角度值下采集的第一视线范围对应的第一图像数据;
在一些可能的实施例中,用户触发截屏操作后,左camera会在调整后的采集角度下获取需要渲染的网络纹理图像信息Texture1即第一图像数据。
步骤902中:将第一图像数据存储至第一比特数组中,并将第一比特数组保存为第一便携式网络图形文件;
在一些可能的实施例中,将第一图像数据Texture1保存到第一比特数组Byte1中;并将Byte1保存为第一便携式网络图形文件(Portable Network Graphics,PNG)即PNG1。
步骤903中:基于第一便携式网络图形文件生成第一图像。
在本申请中,在得到PNG1后,基于PNG1生成第一图像。
在另一些可能的实施例中,如图10所示,为基于调整后的角度值采集第二视线范围对应的第二图像的流程示意图,其中:
步骤1001中:获取头戴式虚拟现实设备在采集角度值下采集的第二视线范围对应的第二图像数据;
在一些实施例中,在用户触发截屏操作后,右camera会在调整后的采集角度下获取需要渲染的网络纹理图像信息Texture2即第二图像数据。
步骤1002中:将第二图像数据存储至第二比特数组中,并将第二比特数组保存为第二便携式网络图像文件;
将第二图像数据Texture2保存到第二比特数组Byte2中,并将Byte2保存为第二便携式网络图形文件即PNG2。
步骤1003中:基于第二便携式网络图像文件生成第二图像。
在本申请中,在得到PNG2后,基于PNG2生成第二图像。
在一些可能的实施例中,为了保证第一图像与第二图像的完整以及清晰,因此在本申请中,在得到第一图像与第二图像后,可以对第一图像以及第二图像进行微调操作,下面以对第一图像进行微调操作为例进行说明,其中微调操作的流程如图11所示:
步骤1101中:根据边缘识别算法确定所述第一图像的边缘;
步骤1102中:基于第一图像的边缘采用图像识别算法对第一图像进行调整操作,得到调整后的第一图像。
例如:如图12所示,其中A为左camera采集的第一视线范围的第一图像的示意图,B为该第一图像进行边缘识别算法得到的该第一图像的边缘,基于该第一图像的边缘对A进行调整操作。
2、图像识别
在本申请实施例中,在采集到第一视线范围内的第一图像和第二视线范围内的第二图像后,为了保证后续得到的截屏图像不存在偏左或者偏右的问题,因此需要对第一图像和第二图像进行图像识别,得到第一图像和第二图像的共视区域,以及各自的非共视区域,在本申请中为了便于区分,下面将第一图像中的非共视区域命名为左视区域,将第二图像中的非共视区域命名为右视区域。
在一些可能的实施例中,对第一图像和第二图像进行图像识别,得到第一图像和第二图像的共视区域的流程如图13所示,其中:
步骤1301中:获取用户的瞳距数值以及视场角数值;
步骤1302中:基于用户与显示屏幕的距离、视场角数值以及三角函数,得到第一视线范围和第二视线范围;
步骤1303中:根据第一视线范围与瞳距数值的差值,以及第二视线范围与瞳距数值的差值,确定共视区域。
如图14所示,其中用户的瞳距数值为T,横向视场角数值为α,用户与显示屏幕的距离为h,用户与显示屏幕的距离h会随着用户的移动而改变,用户向靠近显示屏幕的方向移动,则会使得h减小;用户向远离显示屏幕的方向移动,则会使得h增大。其中,左视区域为MD,右视区域为ND,其中共视区域为ABCD,在本申请中,计算共视区域的BD与CD的过程相同,仅采用的视场角的角度不同,其中计算BD采用的视场角为横向视场角,计算CD时采用的视场角数值为纵向视场角,下面以计算BD的过程为例,进行详细说明:
其中,共视区域为矩形区域,因此AB=CD、AC=BD,从图中可看出BD=MD-MB,且由于ML与BR平行,因此可以确定MB与用户的瞳距数值一致,且用户的瞳距数值已知为T,因此MB=T,且根据三角函数定理可知,MD=2*(h*tanβ),且β=1/2α。综上可得,BD=MD-MB=2*(h*tan(1/2α))-T;由此可得第一图像与第二图像的共视区域。
在本申请实施例中,为了保证得到的共视区域的完整清晰,因此在得到共视区域后,可以对该共视区域进行微调操作,其中微调操作的方法与对第一图像进行微调操作的过程相同,在此不再进行赘述。
需要知道的是,本申请给出图14所示的确定共视区域的方法仅为一个实施例,其他可以确定出两张图像的共视区域的方法也适用于本申请,例如:采用相似度识别法确定共视区域,本申请对此不作限定。
3、图像裁剪、拼接
在本申请实施例中,在得到第一图像、第二图像以及共视区域后,为了保证得到的截屏图像不存在偏左或偏右的问题,因此在本申请中需要对第一图像和/或第二图像进行裁剪拼接。下面分三种情况进行说明:
1)对第一图像进行裁剪
在本申请中,若对第一图像进行裁剪,则需要根据共视区域,从第一图像中将共视区域裁剪掉,得到剩余部分,即左视区域。
例如:如图15所示,第一图像中包括左视区域和共视区域,从该第一图像中裁剪掉共视区域,得到左视区域。
对左视区域以及第二图像进行拼接处理,得到截屏图像,例如:如图16所示,对图15中得到的左视区域和第二图像进行拼接处理,得到截屏图像。
2)对第二图像进行裁剪
本申请中,若对第二图像进行裁剪,则需要根据共视区域,从第二图像中将共视区域裁剪掉,得到剩余部分,即右视区域。
例如:如图17所示,第二图像中包括右视区域和共视区域,从该第二图像中裁剪掉共视区域,得到右视区域。
对右视区域以及第一图像进行拼接处理,得到截屏图像,例如:如图18所示,对图17中得到的右视区域和第一图像进行拼接处理,得到截屏图像。
3)对第一图像和第二图像进行裁剪
本申请中,若对第一图像和第二图像进行裁剪,则需要根据共视区域,从第一图像中将共视区域裁剪掉,得到剩余部分,即左视区域;并从第二图像中将共视区域裁剪掉,得到剩余部分,即右视区域。
例如:如图19所示,第一图像中包括左视区域和共视区域,第二图像中包括右视区域和共视区域,则从该第一图像中裁剪掉共视区域,得到左视区域,并从该第二图像中裁剪掉共视区域,得到右视区域。
对左视区域、右视区域以及共视区域进行拼接处理,得到截屏图像,例如:如图20所示,对图19中得到的左视区域、右视区域和共视区域进行拼接处理,得到截屏图像。
在本申请实施例中,为了保证得到的截屏图像的清晰以及准确性,因此,需要依据虚拟世界中的光照以及线条的变化趋势,对共视区域以及非共视区域(左视区域和/或右视区域)拼接的边界处进行局部调整以及轻微模糊处理。
下面对共视区域和非共视区域进行局部调整的流程进行说明,如图21所示:
步骤2101中:根据边缘识别算法确定所述共视区域和非共视区域的边缘;
步骤2102中:基于共视区域的边缘采用图像识别算法对共视区域进行调整操作,得到调整后的共视区域;并,基于非共视区域的边缘采用图像识别算法对非共视区域进行调整操作,得到调整后的非共视区域。
在得到调整后的共视区域和调整后的非共视区域后,需要对共视区域以及非共视区域的拼缝处进行轻微模糊处理,得到最终的截屏图像。
综上所述,在本申请实施例中,通过对采集角度值进行调整,使得采集到的第一图像以及第二图像不会存在偏移,解决了用户手动保持设备不倾斜的问题,提升了用户体验;其次,本申请中通过对第一图像、第二图像进行裁剪拼接,进而确定截屏图像,使得截出的画面不会存在偏左或偏右的问题。
如图22所示,基于相同的发明构思,提出一种画面截屏装置2200,所述装置包括:
角度调整模块22001,用于响应于用户触发的截屏操作,基于所述头戴式虚拟现实设备的旋转角度值确定采集图像使用的采集角度值,并对所述采集角度值进行调整;
图像采集模块22002,用于基于调整后的采集角度值采集第一视线范围内显示屏幕显示的画面,得到第一图像,以及基于调整后的采集角度值采集第二视线范围内所述显示屏幕显示的画面,得到第二图像;其中,所述第一视线范围与所述第二视线范围存在重合;
图像识别模块22003,用于对所述第一图像和所述第二图像进行图像识别,得到所述第一图像和所述第二图像的共视区域;
图像裁剪模块22004,用于基于所述共视区域对所述第一图像和/或所述第二图像进行裁剪处理,得到裁剪后的第一图像和/或第二图像;
拼接模块22005,用于基于所述裁剪后的第一图像和/或第二图像得到截屏图像。
在一些可能的实施例中,所述角度调整模块执行所述基于所述头戴式虚拟现实设备的旋转角度值确定采集图像使用的采集角度值,包括:
若确定所述旋转角度值大于所述预设角度阈值,且确定用户设置了角度值,则将所述用户设置的角度值作为所述采集角度值;
若确定所述旋转角度值大于所述预设角度值,且用户未设置角度值,则将初始角度值作为所述采集角度值;
若确定所述旋转角度值小于所述预设角度阈值,则将所述初始角度值作为所述采集角度值。
在一些可能的实施例中,所述图像识别模块执行对所述第一图像和所述第二图像进行图像识别,得到所述第一图像和所述第二图像的共视区域时,被配置为:
获取用户的瞳距数值以及视场角数值;
基于所述用户与显示屏幕的距离、所述视场角数值以及三角函数,得到第一视线范围和第二视线范围;
根据所述第一视线范围与所述瞳距数值的差值,以及所述第二视线范围与所述瞳距数值的差值,确定所述共视区域。
在一些可能的实施例中,所述图像采集模块执行基于调整后的采集角度值采集第一视线范围内显示屏幕显示的画面,得到第一图像,以及基于调整后的采集角度值采集第二视线范围内所述显示屏幕显示的画面,得到第二图像,包括:
获取所述头戴式虚拟现实设备在所述采集角度值下采集的第一视线范围对应的第一图像数据以及第二视线范围对应的第二图像数据;
将所述第一图像数据存储至第一比特数组中,将所述第一比特数组保存为第一便携式网络图形文件;并将所述第二图像数据存储至第二比特数组中,将所述第二比特数组保存为第二便携式网络图像文件;
基于所述第一便携式网络图形文件生成所述第一图像,并基于所述第二便携式网络图像文件生成所述第二图像。
在一些可能的实施例中,所述拼接模块执行基于所述裁剪后的第一图像和/或第二图像得到截屏图像之后,还被配置为:
根据边缘识别算法确定所述截屏图像的边缘;
基于所述截屏图像的边缘采用图像识别算法对所述截屏图像进行微调操作,得到调整后的截屏图像。
在一些可能的实施例中,所述图像裁剪模块执行基于所述裁剪后的第一图像和/或第二图像得到截屏图像时,被配置为:
若对所述第一图像进行裁剪,则对所述裁剪后的第一图像以及所述第二图像进行拼接处理得到截屏图像;
若对所述第二图像进行裁剪,则对所述裁剪后的第二图像以及所述第一图像进行拼接处理,得到截屏图像;
若对所述第一图像和所述第二图像进行裁剪,则对所述裁剪后的第一图像、所述裁剪后的第二图像以及所述共视区域进行拼接处理,得到所述截屏图像。
在介绍了本申请示例性实施方式的画面截屏方法和装置之后,接下来,介绍根据本申请的另一示例性实施方式的头戴式虚拟现实设备。
所属技术领域的技术人员能够理解,本申请的各个方面可以实现为系统、方法或程序产品。因此,本申请的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
在一些可能的实施方式中,根据本申请的头戴式虚拟现实设备可以至少包括至少一个处理器、以及至少一个存储器。其中,存储器存储有程序代码,当程序代码被处理器执行时,使得处理器执行本说明书上述描述的根据本申请各种示例性实施方式的画面截屏方法中的步骤。
下面参照图23来描述根据本申请的这种实施方式的头戴式虚拟现实设备130。图23显示的头戴式虚拟现实设备130仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图23所示,头戴式虚拟现实设备130以通用头戴式虚拟现实设备的形式表现。头戴式虚拟现实设备130的组件可以包括但不限于:上述至少一个处理器131、上述至少一个存储器132、连接不同系统组件(包括存储器132和处理器131)的总线133。
总线133表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器、外围总线、处理器或者使用多种总线结构中的任意总线结构的局域总线。
存储器132可以包括易失性存储器形式的可读介质,例如随机存取存储器(RAM)1321和/或高速缓存存储器1322,还可以进一步包括只读存储器(ROM)1323。
存储器132还可以包括具有一组(至少一个)程序模块1324的程序/实用工具1325,这样的程序模块1324包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
头戴式虚拟现实设备130也可以与一个或多个外部设备134(例如键盘、指向设备等)通信,还可与一个或者多个使得用户能与头戴式虚拟现实设备130交互的设备通信,和/或与使得该头戴式虚拟现实设备130能与一个或多个其它头戴式虚拟现实设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口135进行。并且,头戴式虚拟现实设备130还可以通过网络适配器136与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器136通过总线133与用于头戴式虚拟现实设备130的其它模块通信。应当理解,尽管图中未示出,可以结合头戴式虚拟现实设备130使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理器、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
在一些可能的实施方式中,本申请提供的方法的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在计算机设备上运行时,程序代码用于使计算机设备执行本说明书上述描述的根据本申请各种示例性实施方式的方法中的步骤,例如,计算机设备可以执行本申请实施例所记载的交易信息处理方法。程序产品可以采用一个或多个可读介质的任意组合。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
Claims (10)
1.一种画面截屏方法,其特征在于,应用于头戴式虚拟现实设备,所述方法包括:
响应于用户触发的截屏操作,基于所述头戴式虚拟现实设备的旋转角度值确定采集图像使用的采集角度值,并对所述采集角度值进行调整;
基于调整后的采集角度值采集第一视线范围内显示屏幕显示的画面,得到第一图像,以及基于调整后的采集角度值采集第二视线范围内所述显示屏幕显示的画面,得到第二图像;其中,所述第一视线范围与所述第二视线范围存在重合;
对所述第一图像和所述第二图像进行图像识别,得到所述第一图像和所述第二图像的共视区域;
基于所述共视区域对所述第一图像和/或所述第二图像进行裁剪处理,得到裁剪后的第一图像和/或第二图像;
基于所述裁剪后的第一图像和/或第二图像得到截屏图像。
2.根据权利要求1所述的方法,其特征在于,所述基于所述头戴式虚拟现实设备的旋转角度值确定采集图像使用的采集角度值,包括:
若确定所述旋转角度值大于所述预设角度阈值,且确定用户设置了角度值,则将所述用户设置的角度值作为所述采集角度值;
若确定所述旋转角度值大于所述预设角度值,且用户未设置角度值,则将初始角度值作为所述采集角度值;
若确定所述旋转角度值小于所述预设角度阈值,则将所述初始角度值作为所述采集角度值。
3.根据权利要求1所述的方法,其特征在于,所述对所述第一图像和所述第二图像进行图像识别,得到所述第一图像和所述第二图像的共视区域,包括:
获取用户的瞳距数值以及视场角数值;
基于所述用户与显示屏幕的距离、所述视场角数值以及三角函数,得到第一视线范围和第二视线范围;
根据所述第一视线范围与所述瞳距数值的差值,以及所述第二视线范围与所述瞳距数值的差值,确定所述共视区域。
4.根据权利要求1所述的方法,其特征在于,所述基于调整后的采集角度值采集第一视线范围内显示屏幕显示的画面,得到第一图像,以及基于调整后的采集角度值采集第二视线范围内所述显示屏幕显示的画面,得到第二图像,包括:
获取所述头戴式虚拟现实设备在所述采集角度值下采集的第一视线范围对应的第一图像数据以及第二视线范围对应的第二图像数据;
将所述第一图像数据存储至第一比特数组中,将所述第一比特数组保存为第一便携式网络图形文件;并将所述第二图像数据存储至第二比特数组中,将所述第二比特数组保存为第二便携式网络图像文件;
基于所述第一便携式网络图形文件生成所述第一图像,并基于所述第二便携式网络图像文件生成所述第二图像。
5.根据权利要求1所述的方法,其特征在于,所述基于所述裁剪后的第一图像和/或第二图像得到截屏图像之后,所述方法还包括:
根据边缘识别算法确定所述截屏图像的边缘;
基于所述截屏图像的边缘采用图像识别算法对所述截屏图像进行微调操作,得到调整后的截屏图像。
6.根据权利要求1所述的方法,其特征在于,所述基于所述裁剪后的第一图像和/或第二图像得到截屏图像,包括:
若对所述第一图像进行裁剪,则对所述裁剪后的第一图像以及所述第二图像进行拼接处理得到截屏图像;
若对所述第二图像进行裁剪,则对所述裁剪后的第二图像以及所述第一图像进行拼接处理,得到截屏图像;
若对所述第一图像和所述第二图像进行裁剪,则对所述裁剪后的第一图像、所述裁剪后的第二图像以及所述共视区域进行拼接处理,得到所述截屏图像。
7.一种画面截屏装置,其特征在于,应用于头戴式虚拟现实设备,所述装置包括:
角度调整模块,用于响应于用户触发的截屏操作,基于所述头戴式虚拟现实设备的旋转角度值确定采集图像使用的采集角度值,并对所述采集角度值进行调整;
图像采集模块,用于基于调整后的采集角度值采集第一视线范围内显示屏幕显示的画面,得到第一图像,以及基于调整后的采集角度值采集第二视线范围内所述显示屏幕显示的画面,得到第二图像;其中,所述第一视线范围与所述第二视线范围存在重合;
图像识别模块,用于对所述第一图像和所述第二图像进行图像识别,得到所述第一图像和所述第二图像的共视区域;
图像裁剪模块,用于基于所述共视区域对所述第一图像和/或所述第二图像进行裁剪处理,得到裁剪后的第一图像和/或第二图像;
拼接模块,用于基于所述裁剪后的第一图像和/或第二图像得到截屏图像。
8.根据权利要求7所述的装置,其特征在于,所述角度调整模块执行基于所述头戴式虚拟现实设备的旋转角度值确定采集图像使用的采集角度值时,被配置为:
若确定所述旋转角度值大于所述预设角度阈值,且确定用户设置了角度值,则将所述用户设置的角度值作为所述采集角度值;
若确定所述旋转角度值大于所述预设角度值,且用户未设置角度值,则将初始角度值作为所述采集角度值;
若确定所述旋转角度值小于所述预设角度阈值,则将所述初始角度值作为所述采集角度值。
9.一种头戴式虚拟现实设备,其特征在于,包括至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以实现如权利要求1至6中任一项所述的方法。
10.一种计算机存储介质,其特征在于,所述计算机存储介质存储有计算机程序,所述计算机程序用于使计算机能够执行如权利要求1至6任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210948775.6A CN115268650A (zh) | 2022-08-09 | 2022-08-09 | 画面截屏方法、装置、头戴式虚拟现实设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210948775.6A CN115268650A (zh) | 2022-08-09 | 2022-08-09 | 画面截屏方法、装置、头戴式虚拟现实设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115268650A true CN115268650A (zh) | 2022-11-01 |
Family
ID=83748953
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210948775.6A Pending CN115268650A (zh) | 2022-08-09 | 2022-08-09 | 画面截屏方法、装置、头戴式虚拟现实设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115268650A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117492573A (zh) * | 2024-01-03 | 2024-02-02 | 广东工业大学 | 基于眼动数据的自动冻屏方法、装置、设备及存储介质 |
-
2022
- 2022-08-09 CN CN202210948775.6A patent/CN115268650A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117492573A (zh) * | 2024-01-03 | 2024-02-02 | 广东工业大学 | 基于眼动数据的自动冻屏方法、装置、设备及存储介质 |
CN117492573B (zh) * | 2024-01-03 | 2024-05-03 | 广东工业大学 | 基于眼动数据的自动冻屏方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2328125B1 (en) | Image splicing method and device | |
US20170366758A1 (en) | System and method for acquiring virtual and augmented reality scenes by a user | |
US8675048B2 (en) | Image processing apparatus, image processing method, recording method, and recording medium | |
CN109901710B (zh) | 媒体文件的处理方法和装置、存储介质及终端 | |
JP2020061137A (ja) | 両眼視野/単眼視野間の移行 | |
US9696798B2 (en) | Eye gaze direction indicator | |
CN106569769A (zh) | 基于ar技术的机器操作指导信息展示方法及装置 | |
JP3749227B2 (ja) | 立体画像処理方法および装置 | |
JP3857988B2 (ja) | 立体画像処理方法および装置 | |
CN110168615B (zh) | 信息处理设备、信息处理方法和存储介质 | |
WO2017032336A1 (en) | System and method for capturing and displaying images | |
CN108416832B (zh) | 媒体信息的显示方法、装置和存储介质 | |
US9918066B2 (en) | Methods and systems for producing a magnified 3D image | |
US10885651B2 (en) | Information processing method, wearable electronic device, and processing apparatus and system | |
CN113382224B (zh) | 一种基于全息沙盘的交互手柄展示方法及装置 | |
CN114746903B (zh) | 虚拟、增强和混合现实系统和方法 | |
CN106228530A (zh) | 一种立体摄影方法、装置及立体摄影设备 | |
US20230239457A1 (en) | System and method for corrected video-see-through for head mounted displays | |
CN113438464A (zh) | 一种裸眼3d显示模式的切换控制方法、介质和系统 | |
CN115268650A (zh) | 画面截屏方法、装置、头戴式虚拟现实设备和存储介质 | |
CN115486091B (zh) | 使用虚拟现实设备进行视频处理的系统和方法 | |
CN110249290A (zh) | 信息处理设备、信息处理方法和程序 | |
JP4118146B2 (ja) | 立体画像処理装置 | |
CN111242107B (zh) | 用于设置空间中的虚拟对象的方法和电子设备 | |
Pourazar et al. | A comprehensive framework for evaluation of stereo correspondence solutions in immersive augmented and virtual realities |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |