CN108616736A - 用于立体显示的跟踪定位方法及装置 - Google Patents
用于立体显示的跟踪定位方法及装置 Download PDFInfo
- Publication number
- CN108616736A CN108616736A CN201611243404.9A CN201611243404A CN108616736A CN 108616736 A CN108616736 A CN 108616736A CN 201611243404 A CN201611243404 A CN 201611243404A CN 108616736 A CN108616736 A CN 108616736A
- Authority
- CN
- China
- Prior art keywords
- point
- auxiliary positioning
- viewer
- positioning point
- eyes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
本发明属于立体显示技术领域,提供一种用于立体显示的跟踪定位方法及装置。该用于立体显示的跟踪定位方法包括以下步骤:S1对应观看者双眼的位置至少设置第一辅助定位点和第二辅助定位点;S2实时获取该第一辅助定位点的位置信息和该第二辅助定位点的位置信息;S3依据该第一辅助定位点的位置信息和该第二辅助定位点的位置信息获取该观看者的双眼中心点的位置信息,其中,该双眼中心点为该观看者的左眼与右眼的中心对称点,以该双眼中心点的位置信息作为该观看者双眼观看立体显示时的跟踪定位信息。本发明的用于立体显示的跟踪定位方法及装置能准确获取观看者偏头观看立体显示图像时的定位信息,有效改善观看者偏头观看立体显示图像过程中的串扰现象,优化了立体显示效果。
Description
技术领域
本发明涉及立体显示技术领域,具体而言,涉及一种用于立体显示的跟踪定位方法及装置。
背景技术
近几年,立体显示技术发展迅速,成为人们研究的热点。立体显示技术已经越来越广泛应用于医疗、广告、军事、展览、游戏及车载显示等各个领域。立体显示技术包括佩戴眼镜式立体显示技术和无需眼镜的裸眼立体显示技术。其中,佩戴眼镜式立体显示技术发展很早,目前已经技术比较成熟,在很多领域中仍在使用;而裸眼立体显示技术起步较晚,其技术难度比佩戴眼镜式的难度要高,目前虽在相关领域有运用,但显示效果还不能满足人们的需求。
在目前的裸眼立体显示系统中,通常采用摄像头等人眼跟踪设备捕捉人眼的位置,然后依据人的左右眼的位置自适应的调节分光单元或对显示面板的像素进行排列,使得观看者在一定范围内自由移动,同时还不会影响到观看立体图像的显示效果。然而,现有的摄像头等人眼跟踪设备需要对拍摄到的含有人眼位置的二维图像进行特征分析,以获取人眼位置信息。然而在很多情况下,采用人眼跟踪设备捕捉人眼位置的技术虽然能解决移动时出现串扰的问题,却不能改善偏头时的串扰问题。存在这种问题的原因在于:第一,观看者头部经常移动,会出现偏头的情况,而在进行显示面板的像素排图处理时无法识别出观看者的偏头动作;第二,图像像素排列算法的输入是空间一个单点,而人眼睛是两个点,如何对应起来,确定跟踪单点和人的双眼的相对位置关系也是需要研究的问题。很多时候不同的人眼跟踪方法,对人眼的定位结果都不尽相同,因而确定的最终输入图像像素排列算法的点坐标数据也不相同,容易出现串扰问题。
因此,如何克服观看者在观看立体显示图像的过程中头部偏移导致跟踪定位不准确而出现串扰现象的问题,成为目前业界亟待解决的课题。
发明内容
本发明的目的在于提供一种用于立体显示的跟踪定位方法及装置,旨在解决现有技术中观看者偏头观看立体显示图像时跟踪定位不准确而出现串扰现象的问题。
本发明提供一种用于立体显示的跟踪定位方法,包括以下步骤:S1对应观看者双眼的位置至少设置第一辅助定位点和第二辅助定位点;S2实时获取该第一辅助定位点的位置信息和该第二辅助定位点的位置信息;S3依据该第一辅助定位点的位置信息和该第二辅助定位点的位置信息获取该观看者的双眼中心点的位置信息,其中,该双眼中心点为该观看者的左眼与右眼的中心对称点,以该双眼中心点的位置信息作为该观看者双眼观看立体显示时的跟踪定位信息。
本发明还提供一种用于立体显示的跟踪定位装置。所述用于立体显示的跟踪定位装置包括:辅助定位点设置单元,用于对应观看者双眼的位置至少设置第一辅助定位点和第二辅助定位点;辅助定位点位置获取单元,用于实时获取所述第一辅助定位点的位置信息和所述第二辅助定位点的位置信息;双眼中心点获取单元,用于依据所述第一辅助定位点的位置信息和所述第二辅助定位点的位置信息获取所述观看者的双眼中心点的位置信息,其中,所述双眼中心点为所述观看者的左眼与右眼的中心对称点,以所述双眼中心点的位置信息作为所述观看者双眼观看立体显示时的跟踪定位信息。
本发明进一步提供一种用于立体显示的跟踪定位装置。所述用于立体显示的跟踪定位装置包括:辅助定位单元、处理器以及存储器,其中,所述辅助定位单元,至少包括对应观看者双眼位置设置的第一辅助定位点和第二辅助定位点;所述存储器存储有程序指令,所述程序指令用于实现对观看者双眼的实时跟踪定位;所述处理器用于调用所述存储器中存储的所述程序指令,执行以下操作:实时获取所述第一辅助定位点的位置信息和所述第二辅助定位点的位置信息;依据所述第一辅助定位点的位置信息和所述第二辅助定位点的位置信息获取所述观看者的双眼中心点的位置信息,其中,所述双眼中心点为所述观看者的左眼与右眼的中心对称点,以所述双眼中心点的位置信息作为所述观看者双眼观看立体显示时的跟踪定位信息。
本发明还提供一种计算机可读存储介质,包括与立体显示装置的跟踪单元结合使用的计算机程序,所述计算机程序可被处理器执行以完成以下步骤:位置信息获取步骤,实时获取分别对应观看者双眼的第一辅助定位点的位置信息和第二辅助定位点的位置信息;依据所述第一辅助定位点的位置信息和所述第二辅助定位点的位置信息获取所述观看者的双眼中心点的位置信息,其中,所述双眼中心点为所述观看者的左眼与右眼的中心对称点,以所述双眼中心点的位置信息作为所述观看者双眼观看立体显示时的跟踪定位信息。
本发明的用于立体显示的跟踪定位方法、装置及计算机可读存储介质能准确获取观看者偏头观看立体显示图像时的定位信息,有效改善观看者偏头观看立体显示图像过程中的串扰现象,优化了立体显示效果。
附图说明
图1示出了本发明实施方式一的用于立体显示的跟踪定位方法的流程示意图。
图2示出了本发明实施方式一中观看者头部右偏时双眼与光栅的关系示意图。
图3示出了本发明实施方式一中观看者头部左偏时双眼与光栅的关系示意图。
图4示出了本发明实施方式一中利用简单的三角关系计算双眼中心点坐标的示意图。
图5示出了本发明实施方式一中另一种计算双眼中心点坐标的示意图。
图6示出了从观看者面部选取4个两两相对双眼中心对称的特征点计算双眼中心点的示意图。
图7示出了图1中步骤S2的具体流程图。
图8示出了本发明实施方式二的用于立体显示的跟踪定位装置的结构示意图。
图9示出了本发明实施方式三的用于立体显示的跟踪定位装置的结构示意图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行进一步的详细描述。需要说明的是,在不冲突的情况下,本申请的实施方式及实施方式中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述的其他方式来实施,因此,本发明的保护范围并不受下面公开的具体实施方式的限制。
本发明主要发明思想是:改善基于跟踪的裸眼3D显示在观看者偏头时出现的串扰现象。人在偏头时,双眼实际上是围绕着双眼中心点(鼻根点)位置旋转的,目前,不管是基于人脸识别来跟踪,还是其他辅助跟踪的方法来跟踪人脸,最终输入到排图算法的坐标参数大多都偏离人双眼中心位置,即鼻根点位置。这样就造成了人在偏头时,跟踪坐标的变化呈现剧烈震荡,因此观看裸眼3D时串扰剧烈变化,极大地影响了观看者的观看体验。
实施方式一
请参见图1,图1示出了本发明实施方式一的用于立体显示的跟踪定位方法的流程示意图。本发明实施方式一的用于立体显示的跟踪定位方法,其特征在于,所述用于立体显示的跟踪定位方法包括以下步骤:
S1对应观看者双眼的位置至少设置第一辅助定位点和第二辅助定位点;
S2实时获取所述第一辅助定位点的位置信息和所述第二辅助定位点的位置信息;
S3依据所述第一辅助定位点的位置信息和所述第二辅助定位点的位置信息获取所述观看者的双眼中心点的位置信息,其中,所述双眼中心点为所述观看者的左眼与右眼的中心对称点,以所述双眼中心点的位置信息作为所述观看者双眼观看立体显示时的跟踪定位信息。
本发明的用于立体显示的跟踪定位方法通过获取双眼中心点的位置信息作为所述观看者双眼观看立体显示时的跟踪定位信息,能准确获取观看者偏头观看立体显示图像时的定位信息,有效改善观看者偏头观看立体显示图像过程中的串扰现象,优化了立体显示效果。
实施例1
当所述第一辅助定位点和所述第二辅助定位点为设于所述观看者头部的红外信号发射单元时,所述步骤S2具体包括:
S21实时接收所述第一辅助定位点与所述第二辅助定位点同时发送的第一红外信号和第二红外信号;
S22依据所述第一红外信号和所述第二红外信号获得所述第一辅助定位点的空间坐标信息与所述第二辅助定位点的空间坐标信息。
若将双眼中心点位置作为排图算法的输入,需要将已有计算跟踪位置的坐标转化为双眼中心(鼻根点)的坐标。
请参见图2和图3,图2示出了本发明实施方式一中观看者头部右偏时双眼与光栅的关系示意图,图3示出了本发明实施方式一中观看者头部左偏时双眼与光栅的关系示意图。如图2所示,当观看者头部右偏时,对应观看者的左眼53和右眼52分别设置有第一辅助定位点55和第二辅助定位点54,光栅51向右倾斜,此时显示效果改善更好,允许观看者头部右偏转角度范围大。如图3所示,当观看者头部左偏时,对应观看者的左眼63和右眼62分别设置有第一辅助定位点65和第二辅助定位点64,光栅51向右倾斜,头部左偏时,双眼与光栅之间的夹角较小,较易出现串扰,允许观看者头部左偏转角度范围较小。因而采用本发明的用于立体显示的跟踪定位方法,针对观看者头部顺着光栅倾斜方向偏转还是逆着光栅倾斜方向偏转均可确定出准确的双目中心点,可有效改善观看者偏头观看立体显示图像过程中的串扰现象,优化了立体显示效果。
具体来说,图2和图3中,通过戴在人额头上的红外发箍(两个红外圆点)进行定位,通过三角关系计算即可出人双眼中心位置(鼻根点)的坐标。假设在偏头时,绕双眼中心旋转,两个红外点的空间坐标发生变化,但实际上人眼中心点的空间坐标是没有变化的,所以排图算法输入不变,不重新排图,从而不会导致串扰。
从两红外点实时计算出双眼中心坐标方法,如图4所示,通过红外点A(x1,y1,z1)、B(x2,y2,z2)坐标计算双眼中心P(x3,y3,z3)点坐标。我们假设只有偏头情况,ABP面平行于显示屏幕,三角形ABP为等腰三角形,简单取z3=(z1+z2)/2,垂直于AB,OP取值M(实际测量)。那么根据三角关系,计算得:
实施例2
当所述第一辅助定位点和所述第二辅助定位点为所述观看者面部的特征点时,所述步骤S2具体包括:
S210实时识别所述观看者面部,提取所述观看者面部的至少两个特征点,获取各特征点与所述观看者双眼的位置关系,任意选取两个特征点作为所述第一辅助定位点和所述第二辅助定位点;
S220分别对作为所述第一辅助定位点的特征点和作为所述第二辅助定位点的特征点进行定位,获得所述第一辅助定位点的空间坐标信息与所述第二辅助定位点的空间坐标信息。
具体来说,一般人脸识别算法所提取特征点主要是从人的面部轮廓中提取,以识别人脸特征。对于裸眼立体显示装置的像素排图而言,采用观看者双眼中心点P作为排图算法输入坐标,即使在偏头情况下,像素排图算法根据该坐标也能准确识别到人眼位置,并重新排图,减少串扰,改善立体显示的观看效果。这里列举一种计算P点坐标的方法:
如图5所示,我们可以将双眼眼角P1(x1,y1,z1),P2(x2,y2,z2)作为两个人脸特征点,待识别人脸并定位后,取该两个特征点的中心点坐标作为所求P点。坐标公式如下:
实施例3
在一个较佳实施例中,所述步骤S2具体包括:实时识别所述观看者面部,提取所述观看者面部的四个特征点,其中两个特征点分别对应所述第一辅助定位点和所述第二辅助定位点;分别对所述四个特征点进行定位,获得所述四个特征点各自的空间坐标信息;所述步骤S3具体包括:依据所述四个特征点各自的空间坐标信息及所述双眼中心点与所述四个特征点之间的相对位置关系计算出双眼中心点的空间坐标信息,以所述双眼中心点的空间坐标信息作为所述观看者双眼观看立体显示时的跟踪定位信息。
具体来说,不改变观看者的面部特征点,当识别并定位观看者面部后,按照双眼中心点与特征点集合之间的相对位置关系(例如几何比例关系)来计算双眼中心点的空间坐标。如图6所示,在观看者面部选取A、B、C、D四个特征点,经过实际测量和计算,得出AD连线和BC连线的交点P无限接近人眼中心点。那么我们就可以取点P作为排图算法输入坐标。
实施例4
请参见图7,图7是图1中步骤S2的具体流程示意图。如图7所示,当所述第一辅助定位点和所述第二辅助定位点通过深度摄像设备定位时,所述步骤S2具体包括:
S23实时拍摄所述观看者的面部,提取所述观看者的面部轮廓图像,并选取任意两个特征点作为第一辅助定位点和第二辅助定位点;
S24获取所述观看者面部轮廓图像的深度分布信息;
S25分别对作为所述第一辅助定位点的特征点和作为所述第二辅助定位点的特征点进行二维平面定位,并结合所述深度分布信息中作为所述第一辅助定位点的特征点的深度值和作为所述第二辅助定位点的特征点的深度值,获得所述第一辅助定位点的空间坐标信息与所述第二辅助定位点的空间坐标信息。
所述步骤S3具体包括:
S31建立所述第一辅助定位点、所述第二辅助定位点与所述双眼中心点之间的几何关系;这里,设置第一辅助定位点对应所述观看者的左眼,所述第二辅助定位点对应所述观看者的右眼。当然还可以设置第一辅助定位点对应所述观看者的右眼,第二辅助定位点对应所述观看者的左眼。
S32根据所述几何关系,利用所述第一辅助定位点的空间坐标信息和所述第二辅助定位点的空间坐标信息计算所述双眼中心点的空间坐标信息,以所述双眼中心点的空间坐标信息作为所述观看者双眼观看立体显示时的跟踪定位信息。
具体来说,深度摄像设备为一个深度相机,通过深度相机来进行人脸定位。上述深度相机包括双摄像头,其中一个摄像头为普通拍照、摄像的摄像头C1,而另一个摄像头为深度定位的黑白摄像头C2,黑白摄像头C2在拍到观看者的面部图像后,每帧图像会被即时计算出每一个像素的深度信息。也就是说,我们通过摄像头C2计算出z轴值,C1通过人脸识别的方式,定位特征点和人脸轮廓,得出x轴值与y轴值,结合黑白摄像头C2计算的深度信息,再计算出图像坐标点的x、y轴及z轴值。对摄像头C1的处理类似于前面实施例所述的人脸识别定位方式,由此可以获得人眼中心点坐标。
实施方式二
请参见图8,图8示出了本发明实施方式二的用于立体显示的跟踪定位装置的结构示意图。如图8所示,本发明实施方式二提供一种用于立体显示的跟踪定位装置,其特征在于,所述用于立体显示的跟踪定位装置包括:
辅助定位点设置单元10,用于对应观看者双眼的位置至少设置第一辅助定位点和第二辅助定位点;
辅助定位点位置获取单元20,用于实时获取所述第一辅助定位点的位置信息和所述第二辅助定位点的位置信息;
双眼中心点获取单元30,用于依据所述第一辅助定位点的位置信息和所述第二辅助定位点的位置信息获取所述观看者的双眼中心点的位置信息,其中,所述双眼中心点为所述观看者的左眼与右眼的中心对称点,以所述双眼中心点的位置信息作为所述观看者双眼观看立体显示时的跟踪定位信息。
当所述第一辅助定位点和所述第二辅助定位点为设于所述观看者头部的红外信号发射单元时,所述辅助定位点位置获取单元具体包括:
红外接收模块,用于实时接收所述第一辅助定位点与所述第二辅助定位点同时发送的第一红外信号和第二红外信号;
第一辅助定位点位置获取模块,用于依据所述第一红外信号和所述第二红外信号获得所述第一辅助定位点的空间坐标信息与所述第二辅助定位点的空间坐标信息。
当所述第一辅助定位点和所述第二辅助定位点为所述观看者面部的特征点时,所述辅助定位点位置获取单元具体包括:
面部特征点获取模块,用于实时识别所述观看者面部,提取所述观看者面部的至少两个特征点,获取各特征点与所述观看者双眼的位置关系,任意选取两个特征点作为所述第一辅助定位点和所述第二辅助定位点;
第二辅助定位点位置获取模块,用于分别对作为所述第一辅助定位点的特征点和作为所述第二辅助定位点的特征点进行定位,获得所述第一辅助定位点的空间坐标信息与所述第二辅助定位点的空间坐标信息。
当所述第一辅助定位点和所述第二辅助定位点通过深度摄像设备定位时,所述辅助定位点位置获取单元具体包括:
面部轮廓图像获取模块,用于实时拍摄所述观看者的面部,提取所述观看者的面部轮廓图像,并选取任意两个特征点作为第一辅助定位点和第二辅助定位点;
深度分布信息获取模块,用于获取所述观看者面部轮廓图像的深度分布信息;
第三辅助定位点位置获取模块,用于分别对作为所述第一辅助定位点的特征点和作为所述第二辅助定位点的特征点进行二维平面定位,并结合所述深度分布信息中作为所述第一辅助定位点的特征点的深度值和作为所述第二辅助定位点的特征点的深度值,获得所述第一辅助定位点的空间坐标信息与所述第二辅助定位点的空间坐标信息。
所述双眼中心点获取单元具体包括:
几何关系建立模块,用于建立所述第一辅助定位点、所述第二辅助定位点与所述双眼中心点之间的几何关系;
跟踪定位信息获取模块,用于根据所述几何关系,利用所述第一辅助定位点的空间坐标信息和所述第二辅助定位点的空间坐标信息计算所述双眼中心点的空间坐标信息,以所述双眼中心点的空间坐标信息作为所述观看者双眼观看立体显示时的跟踪定位信息。
所述辅助定位点位置获取单元具体用于实时识别所述观看者面部,提取所述观看者面部的四个特征点,其中两个特征点分别对应所述第一辅助定位点和所述第二辅助定位点;分别对所述四个特征点进行定位,获得所述四个特征点各自的空间坐标信息;所述双眼中心点获取单元具体用于依据所述四个特征点各自的空间坐标信息及所述双眼中心点与所述四个特征点之间的相对位置关系计算出双眼中心点的空间坐标信息,以所述双眼中心点的空间坐标信息作为所述观看者双眼观看立体显示时的跟踪定位信息。
实施方式三
请参见图9,图9示出了本发明实施方式三的用于立体显示的跟踪定位装置的结构示意图。如图9所示,本发明实施方式三提供一种用于立体显示的跟踪定位装置,所述用于立体显示的跟踪定位装置包括:辅助定位单元200、处理器100以及存储器300,其中,
所述辅助定位单元200,至少包括对应观看者双眼位置设置的第一辅助定位点和第二辅助定位点;
所述存储器300存储有程序指令,所述程序指令用于实现对观看者双眼的实时跟踪定位;
所述处理器100用于调用所述存储器300中存储的所述程序指令,执行以下操作:实时获取所述第一辅助定位点的位置信息和所述第二辅助定位点的位置信息;依据所述第一辅助定位点的位置信息和所述第二辅助定位点的位置信息获取所述观看者的双眼中心点的位置信息,其中,所述双眼中心点为所述观看者的左眼与右眼的中心对称点,以所述双眼中心点的位置信息作为所述观看者双眼观看立体显示时的跟踪定位信息。
本发明的用于立体显示的跟踪定位装置通过获取双眼中心点的位置信息作为所述观看者双眼观看立体显示时的跟踪定位信息,能准确获取观看者偏头观看立体显示图像时的定位信息,有效改善观看者偏头观看立体显示图像过程中的串扰现象,优化了立体显示效果。
此外,本发明还提供一种计算机可读存储介质,包括与立体显示装置的跟踪单元结合使用的计算机程序,所述计算机程序可被处理器执行以完成以下步骤:
位置信息获取步骤,实时获取分别对应观看者双眼的第一辅助定位点的位置信息和第二辅助定位点的位置信息;
依据所述第一辅助定位点的位置信息和所述第二辅助定位点的位置信息获取所述观看者的双眼中心点的位置信息,其中,所述双眼中心点为所述观看者的左眼与右眼的中心对称点,以所述双眼中心点的位置信息作为所述观看者双眼观看立体显示时的跟踪定位信息。
以上所述仅为本发明的优选实施方式而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (15)
1.一种用于立体显示的跟踪定位方法,其特征在于,所述用于立体显示的跟踪定位方法包括以下步骤:
S1对应观看者双眼的位置至少设置第一辅助定位点和第二辅助定位点;
S2实时获取所述第一辅助定位点的位置信息和所述第二辅助定位点的位置信息;
S3依据所述第一辅助定位点的位置信息和所述第二辅助定位点的位置信息获取所述观看者的双眼中心点的位置信息,其中,所述双眼中心点为所述观看者的左眼与右眼的中心对称点,以所述双眼中心点的位置信息作为所述观看者双眼观看立体显示时的跟踪定位信息。
2.如权利要求1所述的用于立体显示的跟踪定位方法,其特征在于,当所述第一辅助定位点和所述第二辅助定位点为设于所述观看者头部的红外信号发射单元时,所述步骤S2具体包括:
S21实时接收所述第一辅助定位点与所述第二辅助定位点同时发送的第一红外信号和第二红外信号;
S22依据所述第一红外信号和所述第二红外信号获得所述第一辅助定位点的空间坐标信息与所述第二辅助定位点的空间坐标信息。
3.如权利要求1所述的用于立体显示的跟踪定位方法,其特征在于,当所述第一辅助定位点和所述第二辅助定位点为所述观看者面部的特征点时,所述步骤S2具体包括:
S210实时识别所述观看者面部,提取所述观看者面部的至少两个特征点,获取各特征点与所述观看者双眼的位置关系,任意选取两个所述特征点作为所述第一辅助定位点和所述第二辅助定位点;
S220分别对作为所述第一辅助定位点的特征点和作为所述第二辅助定位点的特征点进行定位,获得所述第一辅助定位点的空间坐标信息与所述第二辅助定位点的空间坐标信息。
4.如权利要求1所述的用于立体显示的跟踪定位方法,其特征在于,当所述第一辅助定位点和所述第二辅助定位点通过深度摄像设备定位时,所述步骤S2具体包括:
S23实时拍摄所述观看者的面部,提取所述观看者的面部轮廓图像,并选取任意两个特征点作为第一辅助定位点和第二辅助定位点;
S24获取所述观看者面部轮廓图像的深度分布信息;
S25分别对作为所述第一辅助定位点的特征点和作为所述第二辅助定位点的特征点进行二维平面定位,并结合所述深度分布信息中作为所述第一辅助定位点的特征点的深度值和作为所述第二辅助定位点的特征点的深度值,获得所述第一辅助定位点的空间坐标信息与所述第二辅助定位点的空间坐标信息。
5.如权利要求2至4任一项所述的用于立体显示的跟踪定位方法,其特征在于,所述步骤S3具体包括:
S31建立所述第一辅助定位点、所述第二辅助定位点与所述双眼中心点之间的几何关系;
S32根据所述几何关系,利用所述第一辅助定位点的空间坐标信息和所述第二辅助定位点的空间坐标信息计算所述双眼中心点的空间坐标信息,以所述双眼中心点的空间坐标信息作为所述观看者双眼观看立体显示时的跟踪定位信息。
6.如权利要求1所述的用于立体显示的跟踪定位方法,其特征在于,所述步骤S2具体包括:实时识别所述观看者面部,围绕所述双眼中心从所述观看者面部的特征点中选取四个两两对称的特征点,其中两个所述特征点分别对应所述第一辅助定位点和所述第二辅助定位点;分别对所述四个特征点进行定位,获得所述四个特征点各自的空间坐标信息;所述步骤S3具体包括:依据所述四个特征点各自的空间坐标信息及所述双眼中心点与所述四个特征点之间的相对位置关系计算出双眼中心点的空间坐标信息,以所述双眼中心点的空间坐标信息作为所述观看者双眼观看立体显示时的跟踪定位信息。
7.如权利要求1所述的用于立体显示的跟踪定位方法,其特征在于,在所述步骤S1中,所述第一辅助定位点对应所述观看者左眼设置,所述第二辅助定位点对应所述观看者右眼设置。
8.一种用于立体显示的跟踪定位装置,其特征在于,所述用于立体显示的跟踪定位装置包括:
辅助定位点设置单元,用于对应观看者双眼的位置至少设置第一辅助定位点和第二辅助定位点;
辅助定位点位置获取单元,用于实时获取所述第一辅助定位点的位置信息和所述第二辅助定位点的位置信息;
双眼中心点获取单元,用于依据所述第一辅助定位点的位置信息和所述第二辅助定位点的位置信息获取所述观看者的双眼中心点的位置信息,其中,所述双眼中心点为所述观看者的左眼与右眼的中心对称点,以所述双眼中心点的位置信息作为所述观看者双眼观看立体显示时的跟踪定位信息。
9.如权利要求8所述的用于立体显示的跟踪定位装置,其特征在于,当所述第一辅助定位点和所述第二辅助定位点为设于所述观看者头部的红外信号发射单元时,所述辅助定位点位置获取单元具体包括:
红外接收模块,用于实时接收所述第一辅助定位点与所述第二辅助定位点分别发送的第一红外信号和第二红外信号;
第一辅助定位点位置获取模块,用于依据所述第一红外信号和所述第二红外信号获得所述第一辅助定位点的空间坐标信息与所述第二辅助定位点的空间坐标信息。
10.如权利要求8所述的用于立体显示的跟踪定位装置,其特征在于,当所述第一辅助定位点和所述第二辅助定位点为所述观看者面部的特征点时,所述辅助定位点位置获取单元具体包括:
面部特征点获取模块,用于实时识别所述观看者面部,提取所述观看者面部的至少两个特征点,获取各特征点与所述观看者双眼的位置关系,任意选取两个特征点作为所述第一辅助定位点和所述第二辅助定位点;
第二辅助定位点位置获取模块,用于分别对作为所述第一辅助定位点的特征点和作为所述第二辅助定位点的特征点进行定位,获得所述第一辅助定位点的空间坐标信息与所述第二辅助定位点的空间坐标信息。
11.如权利要求8所述的用于立体显示的跟踪定位装置,其特征在于,当所述第一辅助定位点和所述第二辅助定位点通过深度摄像设备定位时,所述辅助定位点位置获取单元具体包括:
面部轮廓图像获取模块,用于实时拍摄所述观看者的面部,提取所述观看者的面部轮廓图像,并选取任意两个特征点作为第一辅助定位点和第二辅助定位点;
深度分布信息获取模块,用于获取所述观看者面部轮廓图像的深度分布信息;
第三辅助定位点位置获取模块,用于分别对作为所述第一辅助定位点的特征点和作为所述第二辅助定位点的特征点进行二维平面定位,并结合所述深度分布信息中作为所述第一辅助定位点的特征点的深度值和作为所述第二辅助定位点的特征点的深度值,获得所述第一辅助定位点的空间坐标信息与所述第二辅助定位点的空间坐标信息。
12.如权利要求9至11任一项所述的用于立体显示的跟踪定位装置,其特征在于,所述双眼中心点获取单元具体包括:
几何关系建立模块,用于建立所述第一辅助定位点、所述第二辅助定位点与所述双眼中心点之间的几何关系;
跟踪定位信息获取模块,用于根据所述几何关系,利用所述第一辅助定位点的空间坐标信息和所述第二辅助定位点的空间坐标信息计算所述双眼中心点的空间坐标信息,以所述双眼中心点的空间坐标信息作为所述观看者双眼观看立体显示时的跟踪定位信息。
13.如权利要求8所述的用于立体显示的跟踪定位装置,其特征在于,所述辅助定位点位置获取单元具体用于实时识别所述观看者面部,提取所述观看者面部的四个特征点,其中两个特征点分别对应所述第一辅助定位点和所述第二辅助定位点;分别对所述四个特征点进行定位,获得所述四个特征点各自的空间坐标信息;所述双眼中心点获取单元具体用于依据所述四个特征点各自的空间坐标信息及所述双眼中心点与所述四个特征点之间的相对位置关系计算出双眼中心点的空间坐标信息,以所述双眼中心点的空间坐标信息作为所述观看者双眼观看立体显示时的跟踪定位信息。
14.一种用于立体显示的跟踪定位装置,其特征在于,所述用于立体显示的跟踪定位装置包括:辅助定位单元、处理器以及存储器,其中,
所述辅助定位单元,至少包括对应观看者双眼位置设置的第一辅助定位点和第二辅助定位点;
所述存储器存储有程序指令,所述程序指令用于实现对观看者双眼的实时跟踪定位;
所述处理器用于调用所述存储器中存储的所述程序指令,执行以下操作:实时获取所述第一辅助定位点的位置信息和所述第二辅助定位点的位置信息;依据所述第一辅助定位点的位置信息和所述第二辅助定位点的位置信息获取所述观看者的双眼中心点的位置信息,其中,所述双眼中心点为所述观看者的左眼与右眼的中心对称点,以所述双眼中心点的位置信息作为所述观看者双眼观看立体显示时的跟踪定位信息。
15.一种计算机可读存储介质,包括与立体显示装置的跟踪单元结合使用的计算机程序,所述计算机程序可被处理器执行以完成以下步骤:
位置信息获取步骤,实时获取分别对应观看者双眼的第一辅助定位点的位置信息和第二辅助定位点的位置信息;
依据所述第一辅助定位点的位置信息和所述第二辅助定位点的位置信息获取所述观看者的双眼中心点的位置信息,其中,所述双眼中心点为所述观看者的左眼与右眼的中心对称点,以所述双眼中心点的位置信息作为所述观看者双眼观看立体显示时的跟踪定位信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611243404.9A CN108616736A (zh) | 2016-12-29 | 2016-12-29 | 用于立体显示的跟踪定位方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611243404.9A CN108616736A (zh) | 2016-12-29 | 2016-12-29 | 用于立体显示的跟踪定位方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108616736A true CN108616736A (zh) | 2018-10-02 |
Family
ID=63658426
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611243404.9A Withdrawn CN108616736A (zh) | 2016-12-29 | 2016-12-29 | 用于立体显示的跟踪定位方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108616736A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110263691A (zh) * | 2019-06-12 | 2019-09-20 | 合肥中科奔巴科技有限公司 | 基于安卓系统的头部运动检测方法 |
CN112748796A (zh) * | 2019-10-30 | 2021-05-04 | 京东方科技集团股份有限公司 | 显示方法及显示装置 |
CN112929639A (zh) * | 2019-12-05 | 2021-06-08 | 北京芯海视界三维科技有限公司 | 人眼追踪装置、方法及3d显示设备、方法和终端 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104683786A (zh) * | 2015-02-28 | 2015-06-03 | 上海玮舟微电子科技有限公司 | 裸眼3d设备的人眼跟踪方法及装置 |
CN105072431A (zh) * | 2015-07-28 | 2015-11-18 | 上海玮舟微电子科技有限公司 | 一种基于人眼跟踪的裸眼3d播放方法及系统 |
CN205378133U (zh) * | 2015-12-25 | 2016-07-06 | 深圳超多维光电子有限公司 | 立体显示系统 |
CN105809654A (zh) * | 2014-12-29 | 2016-07-27 | 深圳超多维光电子有限公司 | 目标对象跟踪方法、装置和立体显示设备及方法 |
US20160219258A1 (en) * | 2014-12-24 | 2016-07-28 | Reald Inc. | Adjustment Of Perceived Roundness In Stereoscopic Image Of A Head |
-
2016
- 2016-12-29 CN CN201611243404.9A patent/CN108616736A/zh not_active Withdrawn
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160219258A1 (en) * | 2014-12-24 | 2016-07-28 | Reald Inc. | Adjustment Of Perceived Roundness In Stereoscopic Image Of A Head |
CN105809654A (zh) * | 2014-12-29 | 2016-07-27 | 深圳超多维光电子有限公司 | 目标对象跟踪方法、装置和立体显示设备及方法 |
CN104683786A (zh) * | 2015-02-28 | 2015-06-03 | 上海玮舟微电子科技有限公司 | 裸眼3d设备的人眼跟踪方法及装置 |
CN105072431A (zh) * | 2015-07-28 | 2015-11-18 | 上海玮舟微电子科技有限公司 | 一种基于人眼跟踪的裸眼3d播放方法及系统 |
CN205378133U (zh) * | 2015-12-25 | 2016-07-06 | 深圳超多维光电子有限公司 | 立体显示系统 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110263691A (zh) * | 2019-06-12 | 2019-09-20 | 合肥中科奔巴科技有限公司 | 基于安卓系统的头部运动检测方法 |
CN112748796A (zh) * | 2019-10-30 | 2021-05-04 | 京东方科技集团股份有限公司 | 显示方法及显示装置 |
CN112748796B (zh) * | 2019-10-30 | 2024-02-20 | 京东方科技集团股份有限公司 | 显示方法及显示装置 |
CN112929639A (zh) * | 2019-12-05 | 2021-06-08 | 北京芯海视界三维科技有限公司 | 人眼追踪装置、方法及3d显示设备、方法和终端 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230273676A1 (en) | Methods and apparatuses for determining and/or evaluating localizing maps of image display devices | |
KR101761751B1 (ko) | 직접적인 기하학적 모델링이 행해지는 hmd 보정 | |
Hiris et al. | Direction repulsion in motion transparency | |
CN105072431A (zh) | 一种基于人眼跟踪的裸眼3d播放方法及系统 | |
CN108600733A (zh) | 一种基于人眼跟踪的裸眼3d显示方法 | |
CN106507096B (zh) | 一种具有超大视角的追踪式地面光场3d显示方法及系统 | |
CN105809654A (zh) | 目标对象跟踪方法、装置和立体显示设备及方法 | |
Axholt et al. | Parameter estimation variance of the single point active alignment method in optical see-through head mounted display calibration | |
CN108616736A (zh) | 用于立体显示的跟踪定位方法及装置 | |
CN106154566A (zh) | 一种三维光场显示系统及显示参数确定方法 | |
CN105898287B (zh) | 基于裸眼立体显示的机器视觉分析装置及方法 | |
WO2020069201A1 (en) | Reduced bandwidth stereo distortion correction for fisheye lenses of head-mounted displays | |
CN108282650A (zh) | 一种裸眼立体显示方法、装置、系统及存储介质 | |
CN113438465A (zh) | 一种显示调节方法、装置、设备及介质 | |
CN109640073B (zh) | 一种裸眼3d显示装置的检测方法及装置 | |
KR100903490B1 (ko) | 인간친화형 컴퓨터입출력 시스템 | |
JP2014155635A (ja) | 視線計測装置、注視領域の表示方法および注視点のガウス分布の表示方法 | |
US20170302904A1 (en) | Input/output device, input/output program, and input/output method | |
CN105357508A (zh) | 多视点裸眼立体视窗检查方法与系统 | |
Kwon et al. | Selective attentional point-tracking through a head-mounted stereo gaze tracker based on trinocular epipolar geometry | |
US20240236288A9 (en) | Method And Apparatus For Generating Stereoscopic Display Contents | |
CN104717488B (zh) | 显示设备和显示方法 | |
CN109996044A (zh) | 基于瞳孔追踪技术的人像识别眼镜、识别方法及可读存储介质 | |
CN109544611A (zh) | 一种基于bit特征的双目视觉立体匹配方法及系统 | |
Siddiqui et al. | 3d stereoscopic aid for visually impaired |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20181002 |
|
WW01 | Invention patent application withdrawn after publication |