CN113763473B - 一种视点宽度的确定方法、装置及存储介质 - Google Patents

一种视点宽度的确定方法、装置及存储介质 Download PDF

Info

Publication number
CN113763473B
CN113763473B CN202111049332.5A CN202111049332A CN113763473B CN 113763473 B CN113763473 B CN 113763473B CN 202111049332 A CN202111049332 A CN 202111049332A CN 113763473 B CN113763473 B CN 113763473B
Authority
CN
China
Prior art keywords
width
detector
viewpoint
determining
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111049332.5A
Other languages
English (en)
Other versions
CN113763473A (zh
Inventor
贺曙
徐万良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Future Technology Xiang Yang Co ltd
Original Assignee
Future Technology Xiang Yang Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Future Technology Xiang Yang Co ltd filed Critical Future Technology Xiang Yang Co ltd
Priority to CN202111049332.5A priority Critical patent/CN113763473B/zh
Publication of CN113763473A publication Critical patent/CN113763473A/zh
Application granted granted Critical
Publication of CN113763473B publication Critical patent/CN113763473B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Abstract

本申请提供一种视点宽度的确定方法及相关设备,可以在设备屏幕的光学参数未知的情况下,快速的确定视点的宽度。该方法包括:当目标设备以立体模式运行,且检测到有检测者出现时,发出第一提示信息,第一提示信息用于指示检测者变换姿态;当接收到第一坐标记录指令时,记录检测者的第一人眼坐标;发出第二提示信息,第二提示信息用于指示检测者再次变换姿态;当接收到第二坐标记录指令时,记录检测者的第二人眼坐标;获取目标设备所对应光栅的贴合角度;根据贴合角度、第一人眼坐标和第二人眼坐标确定目标设备所对应视点的宽度。

Description

一种视点宽度的确定方法、装置及存储介质
【技术领域】
本申请属于裸眼3D领域,特别涉及一种视点宽度的确定方法、装置及存储介质。
【背景技术】
裸眼3D,Autostereoscopy的简称,裸眼3D是对不借助偏振光眼镜等外部工具,实现立体视觉效果的技术的统称。
在带有人眼追踪的裸眼3D系统中,设备通过前置相机采集图像并追踪到人眼的位置,然后计算出人眼当前位置对应的视点,在通过设置的前置相机采集图像并追踪人眼位置的过程中需要确定裸眼3D系统中每一个视点的宽度。
目前来说,主要通过光学设计推导出视点的宽度,但在实际使用中往往是一款光栅用在多款第三方设备上,无法确切的获取到该设备的屏幕光学参数,比如玻璃厚度、光学胶厚度、装配缝隙大小等,进而导致无法准确的确定出视点的宽度。
【发明内容】
本申请的目的在于提供一种视点宽度的确定方法、装置及存储介质,用于快速确定视点宽度,进而通过视点宽度对设备显示的3D图像或3D视频进行调整,提高用户的观看体验。
本申请第一方面提供了一种视点宽度的确定方法,包括:
当目标设备以立体模式运行,且检测到所述目标设备的屏幕前方有检测者出现时,发出第一提示信息,所述第一提示信息用于指示所述检测者变换姿态;
当接收到第一坐标记录指令时,记录所述检测者的第一人眼坐标,所述第一坐标记录指令为所述检测者观测到所述目标设备显示的全屏立体效果时发出的指令;
发出第二提示信息,所述第二提示信息用于指示所述检测者再次变换姿态;
当接收到第二坐标记录指令时,记录所述检测者的第二人眼坐标,所述第二坐标记录指令为所述检测者再次观测到所述目标设备显示的全屏立体效果时发出的指令;
获取所述目标设备所对应光栅的贴合角度;
根据所述贴合角度、所述第一人眼坐标和所述第二人眼坐标确定所述目标设备所对应视点的宽度。
一种可能的设计中,所述根据所述贴合角度、所述第一人眼坐标和所述第二人眼坐标确定所述目标设备所对应视点的宽度包括:
根据所述贴合角度和所述第一人眼坐标确定接收到所述第一坐标记录指令时所述检测者所对应的第一位置;
根据所述贴合角度和所述第二人眼坐标确定接收到所述第二坐标记录指令时所述检测者所对应的第二位置;
根据所述第一位置和所述第二位置确定所述目标设备所对应视点的宽度。
一种可能的设计中,所述根据所述贴合角度和所述第一人眼坐标确定接收到所述第一坐标记录指令时所述检测者所对应的第一位置包括:
通过如下公式计算所述第一位置:
X0′=x0+(y0-y)*tan(a);
其中,X0′为所述第一位置,所述第一人眼坐标为(x0,y0),y为预设的常量,a为所述贴合角度;
所述根据所述贴合角度和所述第二人眼坐标确定接收到所述第二坐标记录指令时所述检测者所对应的第二位置包括:
通过如下公式计算所述第二位置:
X1′=x1+(y1-y)*tan(a);
其中,X1′为所述第二位置,所述第二人眼坐标为(x1,y1);
所述根据所述第一位置和所述第二位置确定所述视点的宽度包括:
通过如下公式计算所述视点的宽度:
VW=abs(X0′-X1′);
其中,VW为所述视点的宽度,abs为绝对值函数。
一种可能的设计中,所述方法还包括:
基于所述视点的宽度对所述目标设备在所述立体模式运行时显示的立体图像进行调整。
一种可能的设计中,所述基于所述视点的宽度对所述目标设备在所述立体模式运行时显示的立体图像进行调整包括:
获取所述光栅的宽度;
根据所述光栅的宽度和所述视点的宽度确定所述目标设备所对应的视点的排列布局;
根据所述视点的排列布局以及所述检测者的人眼位置变化对所述目标设备在所述立体模式下运行时显示的立体图像进行调整。
一种可能的设计中,所述姿态包括:所述检测者在所述目标设备的屏幕前相对于所述目标设备的屏幕向左、向右、向前或向后移动。
一种可能的设计中,所述方法还包括:
接收模式设置指令;
响应于所述模式设置指令,并根据所述模式设置指令将所述目标设备设置为立体显示模式,并设置所述目标设备不执行立体显示追踪。
本申请第二方面提供了一种视点宽度确定装置,包括:
提示单元,用于当目标设备以立体模式运行,且检测到所述目标设备的屏幕前方有检测者出现时,发出第一提示信息,所述第一提示信息用于指示所述检测者变换姿态;
记录单元,用于当接收到第一坐标记录指令时,记录所述检测者的第一人眼坐标,所述第一坐标记录指令为所述检测者观测到所述目标设备显示的全屏立体效果时发出的指令;
所述提示单元,还用于发出第二提示信息,所述第二提示信息用于指示所述检测者再次变换姿态;
所述记录单元,还用于当接收到第二坐标记录指令时,记录所述检测者的第二人眼坐标,所述第二坐标记录指令为所述检测者再次观测到所述目标设备显示的全屏立体效果时发出的指令;
获取单元,用于获取所述目标设备所对应光栅的贴合角度;
确定单元,用于根据所述贴合角度、所述第一人眼坐标和所述第二人眼坐标确定所述目标设备所对应视点的宽度。
一种可能的设计中,所述确定单元具体用于:
根据所述贴合角度和所述第一人眼坐标确定接收到所述第一坐标记录指令时所述检测者所对应的第一位置;
根据所述贴合角度和所述第二人眼坐标确定接收到所述第二坐标记录指令时所述检测者所对应的第二位置;
根据所述第一位置和所述第二位置确定所述目标设备所对应视点的宽度。
一种可能的设计中,所述确定单元根据所述贴合角度和所述第一人眼坐标确定接收到所述第一坐标记录指令时所述检测者所对应的第一位置包括:
通过如下公式计算所述第一位置:
X0′=x0+(y0-y)*tan(a);
其中,X0′为所述第一位置,所述第一人眼坐标为(x0,y0),y为预设的常量,a为所述贴合角度;
所述确定单元根据所述贴合角度和所述第二人眼坐标确定接收到所述第二坐标记录指令时所述检测者所对应的第二位置包括:
通过如下公式计算所述第二位置:
X1′=x1+(y1-y)*tan(a);
其中,X1′为所述第二位置,所述第二人眼坐标为(x1,y1);
所述确定单元根据所述第一位置和所述第二位置确定所述视点的宽度包括:
通过如下公式计算所述视点的宽度:
VW=abs(X0′-X1′);
其中,VW为所述视点的宽度,abs为绝对值函数。
一种可能的设计中,所述确定单元还用于:
基于所述视点的宽度对所述目标设备在所述立体模式运行时显示的立体图像进行调整。
一种可能的设计中,所述确定单元基于所述视点的宽度对所述目标设备在所述立体模式运行时显示的立体图像进行调整包括:
获取所述光栅的宽度;
根据所述光栅的宽度和所述视点的宽度确定所述目标设备所对应的视点的排列布局;
根据所述视点的排列布局以及所述检测者的人眼位置变化对所述目标设备在所述立体模式下运行时显示的立体图像进行调整。
一种可能的设计中,所述姿态包括:所述检测者在所述目标设备的屏幕前相对于所述目标设备的屏幕向左、向右、向前或向后移动。
一种可能的设计中,所述提示单元还用于:
接收模式设置指令;
响应于所述模式设置指令,并根据所述模式设置指令将所述目标设备设置为立体显示模式,并设置所述目标设备不执行立体显示追踪。
本申请第三方面提供了一种计算机设备,其包括至少一个连接的处理器、存储器和收发器,其中,所述存储器用于存储程序代码,所述处理器用于调用所述存储器中的程序代码来执行上述第一方面所述的视点宽度的确定方法的步骤。
本申请第四方面提供了一种计算机存储介质,其包括指令,当其在计算机上运行时,使得计算机执行上述第一方面所述的视点宽度的确定方法的步骤。
相对于相关技术,本申请提供的实施例中,在确定目标设备的视点宽度时,可以通过目标设备发出提示信息,提示检测者变换位置,进而可以记录检测者观测到目标设备以3D模式显示的3D图片或播放的3D视频的全屏3D效果时的人眼坐标,进而根据人眼坐标和光栅的贴合角度来计算目标设备所对应的视点的宽度,由此可以在设备的屏幕光学参数未知的情况下快速确定视点宽度,进而通过视点宽度对设备显示的3D图像或3D视频进行调整,提高用户的观看体验。
【附图说明】
图1为本申请实施例提供的视点宽度的确定方法的一个实施例示意图;
图2为本申请实施例提供的视点宽度的确定方法的另一实施例示意图;
图3为本申请实施例提供的视点宽度的确定方法的应用场景示意图;
图4为本申请实施例提供的视点宽度确定装置的虚拟结构示意图;
图5为本申请实施例提供的终端设备的硬件结构示意图。
【具体实施方式】
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或模块的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或模块,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或模块,本申请中所出现的模块的划分,仅仅是一种逻辑上的划分,实际应用中实现时可以有另外的划分方式,例如多个模块可以结合成或集成在另一个系统中,或一些特征向量可以忽略,或不执行,另外,所显示的或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,模块之间的间接耦合或通信连接可以是电性或其他类似的形式,本申请中均不作限定。并且,作为分离部件说明的模块或子模块可以是也可以不是物理上的分离,可以是也可以不是物理模块,或者可以分布到多个电路模块中,可以根据实际的需要选择其中的部分或全部模块来实现本申请方案的目的。
下面从视点宽度确定装置的角度对视点宽度的确定方法进行说明,请结合参阅图1,图1为本申请实施例提供的视点宽度的确定方法的流程示意图,包括:
101、当目标设备以立体模式运行时,且检测到目标设备的屏幕前方有检测者出现时,发出第一提示信息。
本实施例中,在需要确定视点宽度时,目标设备以立体模式运行,且检测到目标设备的屏幕前方有检测者出现时,视点宽度确定装置发出第一提示信息,其中,该第一提示信息用于指示检测者变换姿态。也即在需要确定覆盖于目标设备所对应的视点的宽度时(也即在目标设备的屏幕上覆盖的3D膜的视点宽度),目标设备以3D模式显示3D图片或者播放3D视频,之后检测者立于目标设备的摄像头可以捕捉到的范围内,目标设备的摄像头捕捉到屏幕前方有检测者出现时,发出第一提示信息。可以理解的是,此处并不是在目标设备以立体模式运行时,任何人从目标设备的屏幕前方经过都会发出提示信息,而是可以为目标设备设置一个检测模式,只有当目标设备在检测模式下,以立体模式运行3D图片或播放3D视频时,检测到屏幕前有检测者出现时,才会执行发出提示信息的操作。
需要说明的是,该第一提示信息可以提示检测者在目标设备的屏幕前相对于目标设备的屏幕向左、向右、向前或者向后移动,当然也还可以提示检测者具体的移动方位信息,例如提示检测者向8点钟方向,或者西南方向移动,直至检测者观测到目标设备显示的3D图像或播放的3D视频的全屏3D效果,当然在该第一提示信息为具体的移动方位的时,可以提前设置一个参照物。
需要说明的是,视点宽度确定装置在确定目标设备所对应的视点的宽度之前,还可以设置目标设备的3D显示模式,具体的,可以接收模式设置指令,并根据该模式设置指令将目标设备设置为立体显示模式,并设置目标设备不执行立体显示追踪。也就是说,视点宽度确定装置在需要目标设备所对应的视点的宽度之前,可以将目标设备以3D模式显示3D图片或者以3D模式播放3D视频,开启人眼检测,但不开启3D显示追踪功能,也即人眼位置发生变化时,目标设备的显示算法不作图像调整,同时还可以在目标设备的屏幕上显示当前的人眼位置的坐标。
102、当接收到第一坐标记录指令时,记录检测者的第一人眼坐标。
本实施例中,在目标设备发出第一提示信息之后,检测者根据该第一提示信息变换姿态,也即检测者在目标设备的屏幕前调整自身所处的位置直至能观测到目标设备的屏幕上显示的3D图片或播放的3D视频的全屏3D效果,之后视点宽度确定装置接收到第一坐标记录指令,并记录检测者的第一人眼坐标,该第一坐标记录指令于检测者具有关联关系,也即该第一坐标记录指令是由该检测者在根据第一提示信息调整位置,观测到目标设备显示的全屏3D效果时发出的,提示视点宽度确定装置记录检测者当前的人眼坐标。
一个实施例中,视点宽度确定装置生成第一坐标记录指令的操作至少包括手势操作、滑动操作、点击操作以及声控操作中的一种,例如检测者在目标设备的显示界面进行点击操作时,视点宽度确定装置可以接收到该点击操作,此时,该点击操作即生成该第一坐标记录指令,也就是说,可以提前定义操作指令,例如提前定义滑动操作为视点宽度确定装置记录检测者的第一人眼坐标的操作(如左滑操作、右滑操作、上滑操作以及下滑操作等等),或者定义点击操作为视点宽度确定装置记录检测者的第一人眼坐标的操作(如双击操作、鼠标滑动操作、长按操作、单击操作、鼠标左右键同时按操作以及滚轮鼠标中键等等),或者定义手势操作为视点宽度确定装置记录检测者的第一人眼坐标的操作(如向左摆动手腕或手臂,向右摆动手腕或手臂,如四根手指收缩操作或者三根手指上滑操作等等),或者定义声控操作为视点宽度确定装置记录检测者的第一人眼坐标的操作(如收到记录检测者的第一人眼坐标所对应的声音),上述仅为举例说明,并不代表对生成第一坐标记录指令的操作进行限定。当然该第一坐标记录指令还可以通过在输入设备上设置对应的快捷键进行生成,例如该输入设备为键盘,通过设置键盘上的“CTRL+A键”作为视点宽度确定装置记录检测者的第一人眼坐标的操作,具体不限定。
103、发出第二提示信息。
本实施例中,当视点宽度确定装置记录检测者的第一人眼坐标之后,可以发出第二提示信息,该第二提示信息用于指示检测者再次变换姿态。也就是说,当视点宽度确定装置记录到检测者的第一人眼坐标后,可以再次发出提示信息,提示检测者再次变换姿态,例如当记录检测者的第一人眼坐标时,检测者处于8点钟方向,该第二提示信息提示检测者从8点钟方向开始移动直至检测者再次观测到目标设备显示的全屏3D效果。
可以理解的是,该第一提示信息和第二提示信息可以为音频,也可以视频,也可以为文字,当然也还可以是其他的提示方式,例如在目标设备上设置指示灯,通过指示灯的变化进行提示,具体不做限定。
104、当接收到第二坐标记录指令时,记录检测者的第二人眼坐标。
本实施例中,当目标设备发出第二提示信息时,检测者在目标设备的屏幕前调整自身所处的位置直至检测者再次观测到目标设备显示的全屏3D效果,之后视点宽度确定装置接收到第二坐标记录指令,并记录检测者的第二人眼坐标,该第二坐标记录指令为检测者再次观测到目标设备显示的全屏3D效果时发出的指令,也即视点宽度确定装置可以实时进行监测,以判断是否收到该检测者在根据第二提示信息调整位置,观测到目标设备显示的全屏3D效果时发出的坐标记录指令。
需要说明的是,生成第二坐标记录指令的方式与生成第一坐标记录指令的方式类似,上述已经对生成第一坐标记录指令的方式进行详细说明,具体此处不再赘述。
还需要说明的是,上述以目标设备位置不变,检测者变换自身所处的位置,并通过目标设备对检测者的人眼坐标进行追踪,并记录检测者观测到目标设备显示的全屏3D效果时的人眼坐标,当然也还可以是其他的方式,例如检测者位置不变,目标设备变换位置来记录检测者的人眼坐标,具体不做限定,只要能获取检测者观测到目标设备显示的全屏3D效果时的人眼坐标即可。可以理解的是,当检测者位置不变,通过目标设备变换位置来记录检测者的人眼坐标时,具体的执行过程如下:
当目标设备以立体模式运行,且检测到目标设备的屏幕前方有检测者出现时,目标设备调整位置直至接收到坐标记录指令,并记录当前位置检测者的人眼坐标,之后继续调整位置直至再次接收到坐标记录指令,并记录当前位置检测者的人眼坐标,该坐标记录指令由检测者发出的,且是在目标设备调整位置的过程中,检测者观测到目标设备显示的全屏3D效果时发出的坐标记录指令。
105、获取目标设备所对应光栅的贴合角度。
本实施例中,视点宽度确定装置可以获取目标设备所对应光栅的贴合角度,也即该目标设备上贴的3D膜的光栅的贴合角度,此处具体并不限定获取目标设备所对应光栅的贴合角度的方式,只要能获取到光栅的贴合角度即可。
需要说明的是,通过步骤101至步骤104可以记录检测者的第一人眼坐标和第二人眼坐标,通过步骤105可以获取目标设备所对应光栅的贴合角度,然而步骤101至步骤104与步骤105之间并没有先后执行顺序的限制,可以先执行步骤101至步骤104,也可以先执行步骤105,或者同时执行,具体不做限定。
106、根据贴合角度、第一人眼坐标和第二人眼坐标确定目标设备所对应视点的宽度。
本实施例中,视点宽度确定装置在获取到贴合角度、记录得到检测者观测到目标设备显示的全屏3D效果时两个不同位置的人眼坐标之后,可以根据贴合角度、第一人眼坐标和第二人眼坐标确定视点的宽度,其中,该视点与目标设备具有关联关系。
一个实施例中,视点宽度确定装置所述根据所述贴合角度、所述第一人眼坐标和所述第二人眼坐标确定目标设备所对应视点的宽度包括:
根据贴合角度和第一人眼坐标确定接收到所述第一坐标记录指令时检测者所对应的第一位置;
根据贴合角度和第二人眼坐标确定接收到第二坐标记录指令时所述检测者所对应的第二位置;
根据第一位置和第二位置确定目标设备所对应视点的宽度。
本实施例中,视点宽度确定装置可以基于贴合角度和第一人眼坐标通过如下公式计算第一位置,该第一位置为检测者观测到目标设备显示的全屏3D效果时所处的位置:
X0′=x0+(y0-y)*tan(a);
其中,X0′为第一位置,第一人眼坐标为(x0,y0),y为预设的常量,a为贴合角度;
之后视点宽度确定装置可以基于贴合角度和第二人眼坐标通过如下公式计算第二位置,该第二位置为检测者再次观测到目标设备显示的全屏3D效果时所处的位置:
X1′=x1+(y1-y)*tan(a);
其中,X1′为第二位置,第二人眼坐标为(x1,y1);
视点宽度确定装置在根据公式计算得到第一位置和第二位置之后,可以基于第一位置和第二位置通过如下公式计算视点的宽度:
VW=abs(X0′-X1′);
其中,VW为视点的宽度,abs为绝对值函数。
下面结合图2对视点的宽度计算进行说明,图2为本申请实施例提供的视点的宽度计算示意图,其中,201为第一人眼坐标(x0,y0),202为第二人眼坐标(x1,y1),203为预设的常量y在坐标系中的坐标(该预设的常量y可以为设备的显示屏幕的一半,当然也还可以根据实际情况进行设置,具体不限定),以计算第一位置X0′为例进行说明,在计算第一位置X0′时,光栅的贴合角度a为已知的,在得到第一人眼坐标(x0,y0)之后,将预设的常量203换算至与第一人眼坐标的Y轴方向相同的方向,之后即可以通过公式X0′=x0+(y0-y)*tan(a)计算第一位置,同理可以计算得到第二位置,之后通过公式VW=abs(X0′-X1′)计算得到第一位置和第二位置的差值绝对值,也即目标设备所对应视点的宽度。
需要说明的是,视点宽度确定装置在确定目标设备的视点的宽度之后,可以基于该视点的宽度对目标设备以3D模式运行时显示的3D图像或播放的3D视频进行调整,具体的,可以获取目标设备所对应光栅的宽度,之后,根据光栅的宽度和视点的宽度确定目标设备所对应的视点的排列布局,并根据视点的排列布局以及检测者的人眼位置变化对目标设备在立体模式下运行时显示的立体图像进行调整。也就是说,在得到视点的宽度之后,由于该目标设备的光栅的宽度是已知的,由此即可以推算出该目标设备屏幕上贴的3D膜的光栅的排列布局,之后即可以根据人眼位置变化对目标设备在立体模式下运行时显示的3D图像或播放的3D视频进行调整,为用户提供更好的3D显示效果。
综上所述,可以看出,本申请提供的实施例中,在确定目标设备的视点宽度时,可以通过目标设备发出提示信息,提示检测者变换位置,进而可以记录检测者观测到目标设备以3D模式显示的3D图片或播放的3D视频的全屏3D效果时的人眼坐标,进而根据人眼坐标和光栅的贴合角度来计算目标设备所对应的视点的宽度,由此可以在设备的屏幕光学参数未知的情况下快速确定视点宽度,进而通过视点宽度对设备显示的3D图像或3D视频进行调整,提高用户的观看体验。
请参阅图3,图3为本申请实施例提供的应用场景示意图,图3以目标设备的位置固定不变,检测者位置变化,并由目标设备记录检测者观测到目标设备在立体模式下运行时显示的3D图像或播放的3D视频的全屏3D效果时的人眼坐标,如图3所示,当需要确定目标设备301上设置的3D膜的视点宽度时,目标设备301以3D模式显示3D图片或播放3D视频,且目标设备301进入检测模式时,发出第一提示信息,提示检测者调整位置,当检测者调整位置直至观测到目标设备301显示的全屏3D效果时,可以发出坐标记录指令,此时目标设备301可以记录检测者的人眼坐标,如图3中检测者处于302位置时,可以观测到目标设备301显示的全屏3D效果,此时目标设备301可以记录检测者处于302位置时的人眼坐标,之后发出第二提示信息,提示检测者再次变换位置,当检测者再次观测到目标设备301显示的全屏3D效果时,可以再次发出坐标记录指令,此时目标设备301可以记录检测者的人眼坐标,如图3中检测者处于303位置时,可以观测到目标设备301显示的全屏3D效果,此时目标设备301可以记录检测者处于303位置时的人眼坐标,并根据302位置时的人眼坐标、303位置时的人眼坐标和目标设备301所对应光栅的贴合角度计算视点宽度,进而根据视点宽度对目标设备301在3D模式下显示的3D图像或3D视频进行调整。由此,可以在目标设备的屏幕光学参数未知的情况下,快速确定目标设备所对应视点的宽度,进而通过视点的宽度对目标设备显示的3D图像或3D视频进行调整,提高用户的观看体验。
上面从视点宽度的确定方法的角度对本申请实施例进行说明,下面从视点宽度确定装置的角度对本申请实施例进行说明。
请参阅图4,图4为本申请实施例提供的视点宽度确定装置的虚拟结构示意图,所述视点宽度确定装置400包括:
提示单元401,用于当目标设备以立体模式运行,且检测到所述目标设备的屏幕前方有检测者出现时,发出第一提示信息,所述第一提示信息用于指示所述检测者变换姿态;
记录单元402,用于当接收到第一坐标记录指令时,记录所述检测者的第一人眼坐标,所述第一坐标记录指令为所述检测者观测到所述目标设备显示的全屏立体效果时发出的指令;
所述提示单元401,还用于发出第二提示信息,所述第二提示信息用于指示所述检测者再次变换姿态;
所述记录单元402,还用于当接收到第二坐标记录指令时,记录所述检测者的第二人眼坐标,所述第二坐标记录指令为所述检测者再次观测到所述目标设备显示的全屏立体效果时发出的指令;
获取单元403,用于获取所述目标设备所对应光栅的贴合角度;
确定单元404,用于根据所述贴合角度、所述第一人眼坐标和所述第二人眼坐标确定所述目标设备所对应视点的宽度。
一种可能的设计中,所述确定单元404具体用于:
根据所述贴合角度和所述第一人眼坐标确定接收到所述第一坐标记录指令时所述检测者所对应的第一位置;
根据所述贴合角度和所述第二人眼坐标确定接收到所述第二坐标记录指令时所述检测者所对应的第二位置;
根据所述第一位置和所述第二位置确定所述目标设备所对应视点的宽度。
一种可能的设计中,所述确定单元404根据所述贴合角度和所述第一人眼坐标确定接收到所述第一坐标记录指令时所述检测者所对应的第一位置包括:
通过如下公式计算所述第一位置:
X0′=x0+(y0-y)*tan(a);
其中,X0′为所述第一位置,所述第一人眼坐标为(x0,y0),y为预设的常量,a为所述贴合角度;
所述确定单元404根据所述贴合角度和所述第二人眼坐标确定接收到所述第二坐标记录指令时所述检测者所对应的第二位置包括:
通过如下公式计算所述第二位置:
X1′=x1+(y1-y)*tan(a);
其中,X1′为所述第二位置,所述第二人眼坐标为(x1,y1);
所述确定单元404根据所述第一位置和所述第二位置确定所述视点的宽度包括:
通过如下公式计算所述视点的宽度:
VW=abs(X0′-X1′);
其中,VW为所述视点的宽度,abs为绝对值函数。
一种可能的设计中,所述确定单元404还用于:
基于所述视点的宽度对所述目标设备在所述立体模式运行时显示的立体图像进行调整。
一种可能的设计中,所述确定单元404基于所述视点的宽度对所述目标设备在所述立体模式运行时显示的立体图像进行调整包括:
获取所述光栅的宽度;
根据所述光栅的宽度和所述视点的宽度确定所述目标设备所对应的视点的排列布局;
根据所述视点的排列布局以及所述检测者的人眼位置变化对所述目标设备在所述立体模式下运行时显示的立体图像进行调整。
一种可能的设计中,所述姿态包括:所述检测者在所述目标设备的屏幕前相对于所述目标设备的屏幕向左、向右、向前或向后移动。
一种可能的设计中,所述提示单元404还用于:
接收模式设置指令;
响应于所述模式设置指令,并根据所述模式设置指令将所述目标设备设置为立体显示模式,并设置所述目标设备不执行立体显示追踪。
接下来介绍本申请提供的另一种视频宽度确定装置,该视频宽度确定装置可以为终端设备,请参阅图5所示,终端设备500包括:
接收器501、发射器502、处理器503和存储器504(其中终端设备500中的处理器503的数量可以一个或多个,图5中以一个处理器为例)。在本申请的一些实施例中,接收器501、发射器502、处理器503和存储器504可通过总线或其它方式连接,其中,图5中以通过总线连接为例。
存储器504可以包括只读存储器和随机存取存储器,并向处理器503提供指令和数据。存储器504的一部分还可以包括NVRAM。存储器504存储有操作系统和操作指令、可执行模块或者数据结构,或者它们的子集,或者它们的扩展集,其中,操作指令可包括各种操作指令,用于实现各种操作。操作系统可包括各种系统程序,用于实现各种基础业务以及处理基于硬件的任务。
处理器503控制终端设备的操作,处理器503还可以称为CPU。具体的应用中,终端设备的各个组件通过总线系统耦合在一起,其中总线系统除包括数据总线之外,还可以包括电源总线、控制总线和状态信号总线等。但是为了清楚说明起见,在图中将各种总线都称为总线系统。
上述本申请实施例揭示的所述视点宽度的方法可以应用于处理器503中,或者由处理器503实现。处理器503可以是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述图1所示的方法的各步骤可以通过处理器503中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器503可以是通用处理器、DSP、ASIC、FPGA或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器504,处理器503读取存储器504中的信息,结合其硬件完成上述方法的步骤。
本申请实施例中,处理器503,用于执行前述的视点宽度的确定方法。
本申请实施例还提供一种计算机可读介质,包含计算机执行指令,计算机执行指令能够使服务器执行上述实施例描述的视点宽度的确定方法,其实现原理和技术效果类似,此处不再赘述。
另外需说明的是,以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。另外,本申请提供的装置实施例附图中,模块之间的连接关系表示它们之间具有通信连接,具体可以实现为一条或多条通信总线或信号线。
通过以上的实施方式的描述,所属领域的技术人员可以清楚地了解到本申请可借助软件加必需的通用硬件的方式来实现,当然也可以通过专用硬件包括专用集成电路、专用CPU、专用存储器、专用元器件等来实现。一般情况下,凡由计算机程序完成的功能都可以很容易地用相应的硬件来实现,而且,用来实现同一功能的具体硬件结构也可以是多种多样的,例如模拟电路、数字电路或专用电路等。但是,对本申请而言更多情况下软件程序实现是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在可读取的存储介质中,如计算机的软盘、U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述的方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。
所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存储的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
最后应说明的是:以上各实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述各实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离。

Claims (10)

1.一种视点宽度的确定方法,其特征在于,包括:
当目标设备以立体模式运行,且检测到所述目标设备的屏幕前方有检测者出现时,发出第一提示信息,所述第一提示信息用于指示所述检测者变换姿态;
当接收到第一坐标记录指令时,记录所述检测者的第一人眼坐标,所述第一坐标记录指令为所述检测者观测到所述目标设备显示的全屏立体效果时发出的指令;
发出第二提示信息,所述第二提示信息用于指示所述检测者再次变换姿态;
当接收到第二坐标记录指令时,记录所述检测者的第二人眼坐标,所述第二坐标记录指令为所述检测者再次观测到所述目标设备显示的全屏立体效果时发出的指令;
获取所述目标设备所对应光栅的贴合角度;
根据所述贴合角度、所述第一人眼坐标和所述第二人眼坐标确定所述目标设备所对应视点的宽度。
2.根据权利要求1所述的方法,其特征在于,所述根据所述贴合角度、所述第一人眼坐标和所述第二人眼坐标确定所述目标设备所对应视点的宽度包括:
根据所述贴合角度和所述第一人眼坐标确定接收到所述第一坐标记录指令时所述检测者所对应的第一位置;
根据所述贴合角度和所述第二人眼坐标确定接收到所述第二坐标记录指令时所述检测者所对应的第二位置;
根据所述第一位置和所述第二位置确定所述目标设备所对应视点的宽度。
3.根据权利要求2所述的方法,其特征在于,所述根据所述贴合角度和所述第一人眼坐标确定接收到所述第一坐标记录指令时所述检测者所对应的第一位置包括:
通过如下公式计算所述第一位置:
X0′=x0+(y0-y)*tan(a);
其中,X0′为所述第一位置,所述第一人眼坐标为(x0,y0),y为预设的常量,a为所述贴合角度;
所述根据所述贴合角度和所述第二人眼坐标确定接收到所述第二坐标记录指令时所述检测者所对应的第二位置包括:
通过如下公式计算所述第二位置:
X1′=x1+(y1-y)*tan(a);
其中,X1′为所述第二位置,所述第二人眼坐标为(x1,y1);
所述根据所述第一位置和所述第二位置确定所述视点的宽度包括:
通过如下公式计算所述视点的宽度:
VW=abs(X0′-X1′);
其中,VW为所述视点的宽度,abs为绝对值函数。
4.根据权利要求1至3中任一项所述的方法,其特征在于,所述方法还包括:
基于所述视点的宽度对所述目标设备在所述立体模式运行时显示的立体图像进行调整。
5.根据权利要求4所述的方法,其特征在于,所述基于所述视点的宽度对所述目标设备在所述立体模式运行时显示的立体图像进行调整包括:
获取所述光栅的宽度;
根据所述光栅的宽度和所述视点的宽度确定所述目标设备所对应的视点的排列布局;
根据所述视点的排列布局以及所述检测者的人眼位置变化对所述目标设备在所述立体模式下运行时显示的立体图像进行调整。
6.根据权利要求1至3、或5中任一项所述的方法,其特征在于,所述姿态包括:所述检测者在所述目标设备的屏幕前相对于所述目标设备的屏幕向左、向右、向前或向后移动。
7.根据权利要求1至3,或5中任一项所述的方法,其特征在于,所述方法还包括:
接收模式设置指令;
响应于所述模式设置指令,并根据所述模式设置指令将所述目标设备设置为立体显示模式,并设置所述目标设备不执行立体显示追踪。
8.一种视点宽度确定装置,其特征在于,包括:
提示单元,用于当目标设备以立体模式运行,且检测到所述目标设备的屏幕前方有检测者出现时,发出第一提示信息,所述第一提示信息用于指示所述检测者变换姿态;
记录单元,用于当接收到第一坐标记录指令时,记录所述检测者的第一人眼坐标,所述第一坐标记录指令为所述检测者观测到所述目标设备显示的全屏立体效果时发出的指令;
所述提示单元,还用于发出第二提示信息,所述第二提示信息用于指示所述检测者再次变换姿态;
所述记录单元,还用于当接收到第二坐标记录指令时,记录所述检测者的第二人眼坐标,所述第二坐标记录指令为所述检测者再次观测到所述目标设备显示的全屏立体效果时发出的指令;
获取单元,用于获取所述目标设备所对应光栅的贴合角度;
确定单元,用于根据所述贴合角度、所述第一人眼坐标和所述第二人眼坐标确定所述目标设备所对应视点的宽度。
9.一种计算机设备,其特征在于,包括:
至少一个连接的处理器、存储器和收发器,其中,所述存储器用于存储程序代码,所述处理器用于调用所述存储器中的程序代码来执行上述权利要求1至7中任一项所述的视点宽度的确定方法。
10.一种计算机存储介质,其特征在于,包括:
指令,当所述指令在计算机上运行时,使得计算机执行权利要求1至7中任一项所述的视点宽度的确定方法。
CN202111049332.5A 2021-09-08 2021-09-08 一种视点宽度的确定方法、装置及存储介质 Active CN113763473B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111049332.5A CN113763473B (zh) 2021-09-08 2021-09-08 一种视点宽度的确定方法、装置及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111049332.5A CN113763473B (zh) 2021-09-08 2021-09-08 一种视点宽度的确定方法、装置及存储介质

Publications (2)

Publication Number Publication Date
CN113763473A CN113763473A (zh) 2021-12-07
CN113763473B true CN113763473B (zh) 2024-03-29

Family

ID=78793911

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111049332.5A Active CN113763473B (zh) 2021-09-08 2021-09-08 一种视点宽度的确定方法、装置及存储介质

Country Status (1)

Country Link
CN (1) CN113763473B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN204044385U (zh) * 2014-08-21 2014-12-24 李应樵 一种3d成像光栅组件及3d显示装置
WO2018094932A1 (zh) * 2016-11-23 2018-05-31 北京清影机器视觉技术有限公司 用于立体视觉呈现的人眼观察图像的生成方法和装置
CN112399168A (zh) * 2020-11-17 2021-02-23 京东方科技集团股份有限公司 一种多视点图像生成方法、存储介质、显示装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102099728A (zh) * 2008-07-15 2011-06-15 株式会社Ip舍路信 裸眼立体画面显示系统、裸眼立体画面显示装置、游戏机、视差屏障薄片

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN204044385U (zh) * 2014-08-21 2014-12-24 李应樵 一种3d成像光栅组件及3d显示装置
WO2018094932A1 (zh) * 2016-11-23 2018-05-31 北京清影机器视觉技术有限公司 用于立体视觉呈现的人眼观察图像的生成方法和装置
CN112399168A (zh) * 2020-11-17 2021-02-23 京东方科技集团股份有限公司 一种多视点图像生成方法、存储介质、显示装置

Also Published As

Publication number Publication date
CN113763473A (zh) 2021-12-07

Similar Documents

Publication Publication Date Title
RU2715797C1 (ru) Способ и устройство для синтеза объектов виртуальной реальности
CN108450058B (zh) 实时自动车载相机校准
EP2927634B1 (en) Single-camera ranging method and system
US9521362B2 (en) View rendering for the provision of virtual eye contact using special geometric constraints in combination with eye-tracking
CN107911737B (zh) 媒体内容的展示方法、装置、计算设备及存储介质
CN103139463B (zh) 扩增实境的方法、系统及移动装置
US9256986B2 (en) Automated guidance when taking a photograph, using virtual objects overlaid on an image
US9348422B2 (en) Method for recognizing gestures and gesture detector
JP6882868B2 (ja) 画像処理装置、画像処理方法、システム
CN110412765B (zh) 增强现实图像拍摄方法、装置、存储介质及增强现实设备
US20190130193A1 (en) Virtual Reality Causal Summary Content
CN112783700A (zh) 用于基于网络的远程辅助系统的计算机可读介质
KR20170040222A (ko) 반사 기반 제어 활성화 기법
CN110782532B (zh) 图像生成方法、生成装置、电子设备及存储介质
CN110276794B (zh) 信息处理方法、信息处理装置、终端设备及服务器
GB2582657A (en) Tracking system and method
CN113763473B (zh) 一种视点宽度的确定方法、装置及存储介质
US9779328B2 (en) Range image generation
CN113763472B (zh) 一种视点宽度的确定方法、装置及存储介质
CN116095254B (zh) 音频处理方法和装置
US10345595B2 (en) Head mounted device with eye tracking and control method thereof
CN113781560B (zh) 视点宽度的确定方法、装置及存储介质
CN109842738B (zh) 用于拍摄图像的方法和装置
CN114093020A (zh) 动作捕捉方法、装置、电子设备及存储介质
CN111766947A (zh) 一种显示方法、装置、可穿戴设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant