CN108282650A - 一种裸眼立体显示方法、装置、系统及存储介质 - Google Patents

一种裸眼立体显示方法、装置、系统及存储介质 Download PDF

Info

Publication number
CN108282650A
CN108282650A CN201810147368.9A CN201810147368A CN108282650A CN 108282650 A CN108282650 A CN 108282650A CN 201810147368 A CN201810147368 A CN 201810147368A CN 108282650 A CN108282650 A CN 108282650A
Authority
CN
China
Prior art keywords
user
face
feature point
camera
pixel coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810147368.9A
Other languages
English (en)
Other versions
CN108282650B (zh
Inventor
李晓鸣
简培云
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SuperD Co Ltd
Shenzhen Super Technology Co Ltd
Original Assignee
Shenzhen Super Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Super Technology Co Ltd filed Critical Shenzhen Super Technology Co Ltd
Priority to CN201810147368.9A priority Critical patent/CN108282650B/zh
Publication of CN108282650A publication Critical patent/CN108282650A/zh
Application granted granted Critical
Publication of CN108282650B publication Critical patent/CN108282650B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

本发明涉及一种裸眼立体显示方法,该方法包括:获取用户脸部的第一特征点和第二特征点之间的空间距离;根据空间距离对预先设定的人脸3D网格进行变形处理,得到与用户匹配的人脸3D网格;获取用户的定位图像;根据用户的定位图像和与用户匹配的人脸3D网格,确定用户脸部的空间位置;根据用户脸部的空间位置,确定用户的空间观看位置,根据空间观看位置,进行裸眼立体显示,以使用户观看到的显示内容与空间观看位置相适配。本发明实施例通过获取用户脸部特征点之间的空间距离,并根据的空间距离对预设的3D网格进行变形处理,以使其与用户脸部相匹配,通过该3D网格确认用户脸部的空间位置,由此得到了精确的观看位置,保证3D显示效果。

Description

一种裸眼立体显示方法、装置、系统及存储介质
技术领域
本发明涉及立体显示技术领域,尤其涉及一种裸眼立体显示方法、装置、系统及存储介质。
背景技术
近年来,三维立体显示作为最热门的新型显示技术,受到了广泛的关注。目前,已经可以在大屏幕、液晶显示屏上显示了三维立体画面,而裸眼3D显示作为一种热点的立体显示技术的应用,其原理是在显示面板前面设计与之相配合使用的光栅等分光光学器件,改变显示面板发出的光线的传播方向,从而使得适合左眼观看的图像进入观看者的左眼,并使得适合右眼观看的图像进入观看者的右眼,进而使观看者产生立体显示的观感。
为了有效提升用户的观看体验,在现有的裸眼3D(三维)显示技术中,为了给用户提供良好的3D视觉效果,避免出现串扰、反视等影响3D显示效果的问题,通常采用人脸跟踪显示方案,跟踪用户脸部的空间位置,即跟踪用户的观看位置,基于该空间位置进行显示排图,从而使得用户在合理范围内都能看到正确的3D视觉效果。
但是,目前,在现有的裸眼立体显示中,往往都是采用单目摄像头拍摄人脸的图像,基于该人脸图像,通过人脸跟踪算法找到人脸的几个主要的特征点在该人脸图像中的位置,再通过人脸3D网格对齐的算法计算人脸大概的空间三维坐标。但是上述人脸定位方案中使用单目摄像头采集的2D(2维)图像,理论上是可能无法得到精确的人脸空间三维坐标,例如,两个五官差不多的人,一个脸比较大站在远一点的位置,一个脸比较小站在比较近的地方,在拍照后得到的2D图像中,他们的人脸特征点的坐标是相类似的。也就是说通过人脸特征点去计算空间位置会存在多解,无法区别脸大小的情况的,由于无法获取到准确的人脸三维空间坐标,会导致立体显示效果的偏差,他们所观看到的3D效果会受到极大的影响,带给用户不良的观看体验。
发明内容
为了解决现有技术存在的问题,本发明实施例提供了一种裸眼立体显示方法、装置、系统及存储介质,能够有效提高人脸空间定位的准确性,有效保证良好的3D显示效果。
第一方面,本发明实施例提供了一种人脸的裸眼立体显示方法,包括:
获取用户脸部的第一特征点和第二特征点之间的空间距离;
根据所述空间距离对预先设定的人脸3D网格进行变形处理,得到与所述用户匹配的人脸3D网格;
获取所述用户的定位图像;
根据所述用户的定位图像和所述与所述用户匹配的人脸3D网格,确定所述用户脸部的空间位置;
根据所述用户脸部的空间位置,确定所述用户的空间观看位置,根据所述空间观看位置,进行裸眼立体显示,以使所述用户观看到的显示内容与所述空间观看位置相适配。
基于上述技术方案,本发明还可以做出如下改进。
结合第一方面,在第一方面的第一种实施方式中:
所述方法应用于裸眼立体显示设备,所述裸眼立体显示设备配置有多目摄像头;
所述获取用户脸部的第一特征点和第二特征点之间的空间距离具体包括:
获取通过多目摄像头采集的多幅用户图像;
分别获取所述用户脸部的第一特征点和第二特征点在每幅所述用户图像中的像素坐标;
根据所述多目摄像头的参数、所述获取的所述用户脸部的第一特征点和第二特征点在每幅所述用户图像中的像素坐标,确定所述用户脸部的第一特征点和第二特征点的世界坐标;
根据所述用户脸部的第一特征点和第二特征点的世界坐标,确定所述用户脸部的第一特征点和第二特征点之间的空间距离。
结合第一方面的第一种实施方式,在第一方面的第二种实施方式中,所述分别获取所述用户脸部的第一特征点和第二特征点在每幅所述用户图像中的像素坐标具体包括:
确定所述用户图像中的用户脸部区域;
检测所述用户脸部区域中的人脸特征点以获取所述人脸特征点在所述用户图像中的像素坐标,所述人脸特征点包括:所述第一特征点和所述第二特征点,或者,
检测所述用户脸部区域中的人脸特征点以获取所述人脸特征点在所述用户图像中的像素坐标,根据所述人脸特征点在所述用户图像中的像素坐标,计算所述第一特征点和第二特征点在所述用户图像中的像素坐标。
结合第一方面的第二种实施方式,在第一方面的第三种实施方式中,所述第一特征点为左眼瞳孔,所述第二特征点为右眼瞳孔;
所述人脸特征点包括左眼轮廓点和右眼轮廓点;
所述根据所述人脸特征点在所述用户图像中的像素坐标,计算所述第一特征点和第二特征点在所述用户图像中的像素坐标包括:
将所述右眼轮廓点在所述用户图像的像素坐标取平均值,得到所述右眼瞳孔在所述用户图像中的像素坐标;以及,
将所述左眼轮廓点在所述用户图像的像素坐标取平均值,得到所述左眼瞳孔在所述用户图像中的像素坐标。
结合第一方面的第一种实施方式,在第一方面的第四种实施方式中,所述多目摄像头包括:第一摄像头和第二摄像头;
所述多幅用户图像包括所述第一摄像头采集的第一图像和所述第二摄像头采集的第二图像;
所述根据所述多目摄像头的参数、所述获取的所述用户脸部的第一特征点和第二特征点在每幅所述用户图像中的像素坐标,确定所述用户脸部的第一特征点和第二特征点的世界坐标具体包括:
根据如下公式进行第一迭代运算处理,以获取所述用户脸部的第一特征点的世界坐标:
其中:
n表示迭代次数,初始值为0,XL表示世界坐标;
为预先设定的所述用户脸部的第一特征点的初始世界坐标;
当所述第一迭代运算处理满足预设收敛条件时,将确定为所述用户脸部的第一特征点的世界坐标:
fx1、fy1、px1、py1、R1、T1为所述第一摄像头的参数,其中,
(fx1,fy1,px1,py1)为所述第一摄像头的内参,(R1,T1)为所述第一摄像头的外参;
fx2、fy2、px2、py2、R1、T1为所述第二摄像头的参数,其中,(fx2,fy2,px2,py2)为所述第二摄像头的内参,(R2,T2)为所述第二摄像头的外参;
s1和s2为缩放因子;
(u′L1,v′L1)为所述获取的所述用户脸部的第一特征点在所述第一图像中的像素坐标,(u′L2,v′L2)为所述获取的所述用户脸部的第一特征点在所述第二图像中的像素坐标;
为世界坐标变换到所述第一图像中的像素坐标,为世界坐标变换到所述第二图像中的像素坐标;
和/或,
根据如下公式进行第二迭代运算处理,以获取所述用户脸部的第二特征点的世界坐标:
其中:
m表示迭代次数,初始值为0,XR表示世界坐标;
为预先设定的所述用户脸部的第二特征点的初始世界坐标;
当所述第二迭代运算处理满足预设收敛条件时,将确定为所述用户脸部的第二特征点的世界坐标:
fx1、fy1、px1、py1、R1、T1为所述第一摄像头的参数,其中,(fx1,fy1,px1,py1)为所述第一摄像头的内参,(R1,T1)为所述第一摄像头的外参;
fx2、fy2、px2、py2、R1、T1为所述第二摄像头的参数,其中,(fx2,fy2,px2,py2)为所述第二摄像头的内参,(R2,T2)为所述第二摄像头的外参;
s1和s2为缩放因子;
(u′R1,v′R1)为所述获取的所述用户脸部的第二特征点在所述第一图像中的像素坐标,(u′R2,v′R2)为所述获取的所述用户脸部的第二特征点在所述第二图像中的像素坐标;
为世界坐标变换到所述第一图像中的像素坐标,为世界坐标变换到所述第二图像中的像素坐标。
结合第一方面,在第一方面的第五种实施方式中,所述根据所述空间距离对预先设定的人脸3D网格进行变形处理,得到与所述用户匹配的人脸3D网格具体包括:
根据如下公式,对所述预先设定的人脸3D网格进行变形处理,从而得到与所述用户匹配的人脸3D网格:
其中,S′为变形处理后人脸3D网格坐标,S为预先设定的人脸3D网格坐标,A为所述获取的用户脸部的第一特征点和第二特征点之间的空间距离,A0为所述预先设定的人脸3D网格对应的、人脸的第一特征点和第二特征点之间的空间距离。
结合第一方面,在第一方面的第六种实施方式中,所述根据所述用户的定位图像和所述与所述用户匹配的人脸3D网格,确定所述用户脸部的空间位置具体包括:
确定所述定位图像中的用户脸部区域,并检测所述用户脸部区域中的人脸特征点以获取所述人脸特征点在所述定位图像上的像素坐标;
根据所述人脸特征点在所述定位图像上的像素坐标和所述与所述用户匹配的人脸3D网格,利用如下公式进行第三迭代运算处理,以获取所述用户脸部的空间位置:
其中:
k表示迭代次数,初始值为0,RT表示人脸3D网格相对于采集所述定位图像的摄像头的旋转平移参数,RT0为预先设定的、人脸3D网格相对于采集所述定位图像的摄像头的初始旋转平移参数;
当所述第三迭代运算处理满足预设收敛条件时,从RTk+1分离出所述用户脸部的三维空间坐标,作为所述用户脸部的空间位置;
(fx1,fy1,px1,py1)为所述采集所述定位图像的摄像头的内参;
s1为缩放因子;
(u′1,v′1)、(u′2,v′2)、…为所述获取的定位图像中人脸特征点的像素坐标,S1、S2、…为所述与所述用户匹配的人脸3D网格中与所述人脸特征点对应的特征点三维坐标;
…为所述与所述用户匹配的人脸3D网格由RTk变换到所述定位图像中的像素坐标。
结合第一方面或者第一方面的第一、第二、第四、第五、第六种实施方式中的任一种实施方式,在第一方面的第七种实施方式中,所述第一特征点为左眼瞳孔,所述第二特征点为右眼瞳孔,所述第一特征点与所述第二特征点的空间距离为瞳距。
结合第一方面的第一种实施方式,在第一方面的第八种实施方式中,所述多目摄像头为双目摄像头。
结合第一方面的第八种实施方式,在第一方面的第九种实施方式中,所述获取所述用户的定位图像包括:
获取所述双目摄像头中的一个摄像头所采集的用户图像,作为所述定位图像。
第二方面,本发明实施例提供了一种裸眼立体显示装置,包括:
第一数据处理单元、第二数据处理单元、第三数据处理单元和显示单元;
所述第一数据处理单元,用于获取用户脸部的第一特征点和第二特征点之间的空间距离;
所述第二数据处理单元,用于根据所述空间距离对预先设定的人脸3D网格进行变形处理,得到与所述用户匹配的人脸3D网格;
所述第三数据处理单元,用于获取所述用户的定位图像,并根据所述用户的定位图像和所述与所述用户匹配的人脸3D网格,确定所述用户脸部的空间位置;
所述显示单元,用于根据所述用户脸部的空间位置,确定所述用户的空间观看位置,根据所述空间观看位置,进行裸眼立体显示,以使所述用户观看到的显示内容与所述空间观看位置相适配。
结合第二方面,在第二方面的第一种实施方式中:
所述装置应用于裸眼立体显示设备,所述裸眼立体显示设备配置有多目摄像头;
所述第一数据处理单元,包括:
第一获取模块,用于获取所述多目摄像头采集的多幅用户图像;
第二获取模块,用于分别获取所述用户脸部的第一特征点和第二特征点在每幅所述用户图像中的像素坐标;
第一确定模块,用于根据所述多目摄像头的参数、所述获取的所述用户脸部的第一特征点和第二特征点在每幅所述用户图像中的像素坐标,确定所述用户脸部的第一特征点和第二特征点的世界坐标;
第二确定模块,用于根据所述用户脸部的第一特征点和第二特征点的世界坐标,确定所述用户脸部的第一特征点和第二特征点之间的空间距离。
结合第二方面的第一种实施方式,在本发明的第二种实施方式中,所述第二获取模块,具体包括:
第一确定子模块,用于确定所述用户图像中的用户脸部区域;
获取子模块,用于检测所述用户脸部区域中的人脸特征点以获取所述人脸特征点在所述用户图像中的像素坐标点,所述人脸特征点包括:所述第一特征点和所述第二特征点,或者,检测所述用户脸部区域中的人脸特征点以获取所述人脸特征点在所述用户图像中的像素坐标,根据所述人脸特征点在所述用户图像中的像素坐标,计算所述第一特征点和第二特征点在所述用户图像中的像素坐标。
结合第二方面的第二种实施方式,在第二方面的第三种实施方式中,所述第一特征点为左眼瞳孔,所述第二特征点为右眼瞳孔,
所述人脸特征点包括:左眼轮廓点和右眼轮廓点;
所述获取子模块具体用于:将所述左眼轮廓点在所述用户图像的像素坐标取平均值,得到所述左眼瞳孔在所述用户图像中的像素坐标;以及,将所述右眼轮廓点在所述用户图像的像素坐标去平均值,得到所述右眼瞳孔在所述用户图像中的像素坐标。
结合第二方面的第一种实施方式,在第二方面的第四种实施方式中,所述多目摄像头包括:第一摄像头和第二摄像头;
所述多目摄像头采集的所述多幅用户图像包括:所述第一摄像头采集的第一图像和所述第二摄像头采集的第二图像;
所述第一确定模块具体用于:
根据如下公式进行第一迭代运算处理,以获取所述用户脸部的第一特征点的世界坐标:
其中:
n表示迭代次数,初始值为0,XL表示世界坐标;
为预先设定的所述用户脸部的第一特征点的初始世界坐标;
当所述第一迭代运算处理满足预设收敛条件时,将确定为所述用户脸部的第一特征点的世界坐标:
fx1、fy1、px1、py1、R1、T1为所述第一摄像头的参数,其中,
(fx1,fy1,px1,py1)为所述第一摄像头的内参,(R1,T1)为所述第一摄像头的外参;
fx2、fy2、px2、py2、R1、T1为所述第二摄像头的参数,其中,(fx2,fy2,px2,py2)为所述第二摄像头的内参,(R2,T2)为所述第二摄像头的外参;
s1和s2为缩放因子;
(u′L1,v′L1)为所述获取的所述用户脸部的第一特征点在所述第一图像中的像素坐标,(u′L2,v′L2)为所述获取的所述用户脸部的第一特征点在所述第二图像中的像素坐标;
为世界坐标变换到所述第一图像中的像素坐标,为世界坐标变换到所述第二图像中的像素坐标;
和/或,
根据如下公式进行第二迭代运算处理,以获取所述用户脸部的第二特征点的世界坐标:
其中:
m表示迭代次数,初始值为0,XR表示世界坐标;
为预先设定的所述用户脸部的第二特征点的初始世界坐标;
当所述第二迭代运算处理满足预设收敛条件时,将确定为所述用户脸部的第二特征点的世界坐标:
fx1、fy1、px1、py1、R1、T1为所述第一摄像头的参数,其中,
(fx1,fy1,px1,py1)为所述第一摄像头的内参,(R1,T1)为所述第一摄像头的外参;
fx2、fy2、px2、py2、R1、T1为所述第二摄像头的参数,其中,(fx2,fy2,px2,py2)为所述第二摄像头的内参,(R2,T2)为所述第二摄像头的外参;
s1和s2为缩放因子;
(u′R1,v′R1)为所述获取的所述用户脸部的第二特征点在所述第一图像中的像素坐标,(u′R2,v′R2)为所述获取的所述用户脸部的第二特征点在所述第二图像中的像素坐标;
为世界坐标变换到所述第一图像中的像素坐标,为世界坐标变换到所述第二图像中的像素坐标。
结合第二方面,在第二方面的第五种实施方式中,所述第二数据处理单元,具体用于:根据如下公式,对所述预先设定的人脸3D网格进行变形处理,从而得到与所述用户匹配的人脸3D网格:
其中,S′为变形处理后人脸3D网格坐标,S为预先设定的人脸3D网格坐标,A为所述获取的用户脸部的第一特征点和第二特征点之间的空间距离,A0为所述预先设定的人脸3D网格对应的、人脸的第一特征点和第二特征点之间的空间距离。
结合第二方面,在第二方面的第六种实施方式中,所述第三数据处理单元包括:
检测模块,用于确定所述定位图像中的用户脸部区域,并检测所述用户脸部区域中的人脸特征点以获取所述人脸特征点在所述定位图像上的像素坐标;
运算模块,用于根据所述人脸特征点在所述定位图像上的像素坐标和所述与所述用户匹配的人脸3D网格,利用如下公式进行第三迭代运算处理,以获取所述用户脸部的空间位置:
其中:
k表示迭代次数,初始值为0,RT表示人脸3D网格相对于采集所述定位图像的摄像头的旋转平移参数,RT0为预先设定的、人脸3D网格相对于采集所述定位图像的摄像头的初始旋转平移参数;
当所述第三迭代运算处理满足预设收敛条件时,从RTk+1分离出所述用户脸部的三维空间坐标,作为所述用户脸部的空间位置;
(fx1,fy1,px1,py1)为所述采集所述定位图像的摄像头的内参;
s1为缩放因子;
(u′1,v′1)、(u′2,v′2)、…为所述获取的定位图像中人脸特征点的像素坐标,S1、S2、…为所述与所述用户匹配的人脸3D网格中与所述人脸特征点对应的特征点三维坐标;
…为所述用户匹配的人脸3D网格由RTk变换到所述定位图像中的像素坐标。
结合第二方面或者第二方面的第一、第二、第四、第五、第六种实施方式中的任一种实施方式,在第二方面的第七种实施方式中,所述第一特征点为左眼瞳孔,所述第二特征点为右眼瞳孔,所述第一特征点与所述第二特征点的空间距离为瞳距。
结合第二方面的第一种实施方式,在第二方面的第八种实施方式中,所述多目摄像头为双目摄像头。
结合第二方面的第八种实施方式,在第二方面的第九种实施方式中,所述第三数据处理单元,用于获取所述双目摄像头中的一个摄像头所采集的用户图像,作为所述定位图像。
第三发明,本发明实施例还提供一种空间定位系统,包括存储器、处理器和至少一个被存储在所述存储器中并被配置为由所述处理器执行的计算机程序,所述计算机程序被配置为用于前述第二方面所提供的裸眼立体显示方法。
第四方面,本发明实施例还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有应用程序,所述计算机程序可被处理器执行以实现前述第二方面所提供的裸眼立体显示方法。
本发明的上述技术方案与现有技术相比具有如下优点:本发明实施例通过获取用户脸部特征点之间的空间距离,并根据特征点之间的空间距离对预设的3D网格进行变形处理,以使预设的3D网格与用户脸部相匹配,通过用户定位图像和该3D网格确认用户脸部的空间位置,由此得到了精确的人脸空间三维坐标,进而,基于该精确的人脸三维空间坐标进行裸眼立体显示,有效避免出现反视、串扰等问题,保证用户所观看到的3D视觉效果,提升观看体验。
附图说明
图1是本发明实施例提供的一种裸眼立体显示方法流程示意图;
图2是本发明又一实施例提供的一种裸眼立体显示方法流程示意图;
图3是本发明另一实施例提供的一种裸眼立体显示方法流程示意图;
图4是本发明另一实施例提供的一种裸眼立体显示方法流程示意图其一;
图5是本发明另一实施例提供的一种裸眼立体显示方法流程示意图其二;
图6是本发明另一实施例提供的一种裸眼立体显示装置结构示意图;
图7是本发明另一实施例提供的一种裸眼立体显示系统结构示意图。
图8为本发明实施例中的人脸3D网格的示例性示意图。
图9为本发明实施例中所检测的人脸特征点的示例性示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明实施例提供的一种裸眼立体显示方法,包括:
S11、获取用户脸部的第一特征点和第二特征点之间的空间距离。
具体的,空间距离表示三维空间中点、线、面之间的距离,亦表示真实空间中点、线、面之间的距离。本步骤中获取用户脸部的第一特征点和第二特征点之间的空间距离,当然,该空间距离也可以采用第一特征点和第二特征点在三维空间的某一方向上的距离,例如两个特征点在水平方向上的距离。
对于用户而言,其脸部第一特征点和第二特征点之间的空间距离是固定不变的。对于不同的用户,该第一特征点和第二特征点之间的空间距离可能相同,也可能不同。
其中,第一特征点和第二特征点不限,即其具体所处的脸部位置不限,本领域技术人员可以合理选择,例如可从人脸的标志性部位选择特征点。
举例而言,第一特征点可以为左眼瞳孔,第二特征点可以为右眼瞳孔,这两个特征点之间的空间距离为瞳距,不同的用户瞳距可能相同也可能不同。
本步骤中,可以采取任何可行方式获取用户脸部的第一特征点和第二特征点之间的空间距离,本发明对此不做限定。举例而言,该空间距离可以是预先存储的,本步骤中可以读取预先存储的空间距离即可,该空间距离也可以是用户或其他人员输入的,本步骤中,通过接收用户输入而获取到空间距离。当然,该空间距离也可以是实时通过运算等方式获取的。
S12、根据空间距离对预先设定的人脸3D网格进行变形处理,得到与用户匹配的人脸3D网格。
人脸3D网格亦可称为人脸3D模型,是模拟真实人脸而设计,用于确定人脸的三维空间坐标。本发明实施例中,人脸3D网格可参见图8。人脸3D网格与真实人脸相对应,通常来讲,使用固定参数设计人脸3D网格,即在人脸3D网格中人脸第一特征点和第二特征点之间的空间距离是固定的。举例而言,一般采用的人脸3D网格,对应真实瞳距68毫米,即人脸3D网格是按照瞳距68毫米设计的,亦即人脸3D网格的瞳距是68毫米。
如果针对不同用户的人脸进行定位都采用同样的人脸3D网格,而不同用户脸部第一特征点和第二特征点的空间距离即真实距离可能是不同的,使用同样的人脸3D网格对用户脸部来进行定位将出现定位不准确的问题。因此,本发明实施例中,利用用户脸部第一特征点和第二特征点的空间距离对预先设定的人脸3D网格进行变形处理,从而得到与用户匹配到的人脸3D网格,进一步根据该与用户匹配的人脸3D网格对用户脸部进行定位,有效提高了定位的准确性。
具体的,得到用户脸部特征点之间的空间距离,即得到了第一特征点和第二特征点之间的真实距离,此时,通过该空间距离对预先设定的人脸3D网格进行变形处理,使该人脸3D网格与用户脸部相匹配,即该人脸3D网格与用户脸部的大小相匹配。
其中,变形处理的方式不限,例如,变形处理的结果使得人脸3D网格与用户的人脸相匹配,即使得人脸3D网格对应的第一特征点和第二特征点之间的空间距离等于或者接近用户脸部的第一特征点和第二特征点之间的真实距离。
例如,对预先设定的人脸3D网格进行变形处理的方式包括:根据如下公式,对预先设定的人脸3D网格进行变形处理,从而得到与用户匹配的人脸3D网格:
其中,S′为变形处理后人脸3D网格坐标,S为预先设定的人脸3D网格坐标,A为获取的用户脸部的第一特征点和第二特征点之间的空间距离,A0为预先设定的人脸3D网格对应的、人脸的第一特征点和第二特征点之间的空间距离。
S13、获取用户的定位图像。
在进行裸眼立体显示时,为实现人脸跟踪显示,会设置用于实时抓取用户(即观看者)的脸部视频图像的人脸跟踪摄像头,该摄像头可以与裸眼立体显示屏幕一体化设置,例如,裸眼立体显示设备为手机、手机壳体上设置有裸眼立体显示屏幕和前置摄像头,该前置摄像头作为人脸跟踪摄像头,该摄像头可以与裸眼立体显示屏幕各自独立的分立设置,例如,裸眼立体显示设备为台式机或笔记本,包括裸眼立体显示屏和设置在立体显示屏上方的摄像头,该摄像头作为人脸跟踪摄像头。本发明实施方式中,人脸跟踪摄像头实时抓取其前方的图像,即抓取用户面部的图像(即定位图像),进而可以根据人脸跟踪摄像头实时抓取的视频图像序列,跟踪图像中人脸特征点的位置,进而跟踪用户的观看位置,基于观看位置进行裸眼立体显示,有效保证正确的立体显示效果,从而带给用户良好的观看体验。
具体的,该人脸跟踪摄像头可以为单目摄像头或者多目摄像头来采集用户的定位图像。该定位图像包括至少一张。该定位图像中包含用用户的脸部图像。
需要强调的是,由于步骤13和前述两个步骤S11和S12并没有逻辑上的必要关联,因此,步骤13和前述两个步骤S11和S12执行顺序不限,可以先后执行,也可以并行执行。
S14、根据用户的定位图像和与用户匹配的人脸3D网格,确定用户脸部的空间位置。
即,获取到用户脸部的三维空间坐标。可以理解的是,所确定的脸部的空间位置包括至少一个人脸特征点的空间位置。
本发明实施例通过获取用户脸部特征点之间的空间距离,并根据特征点之间的空间距离对预设的3D网格进行变形处理,以使预设的3D网格与用户脸部相匹配,通过用户定位图像和该3D网格确认用户脸部的空间位置,由此得到了精确的人脸空间三维坐标。
可选的,如图2所示,在本实施例中,S14步骤中,根据用户的定位图像和与用户匹配的人脸3D网格,确定用户脸部的空间位置的方式包括:
S21、确定定位图像中的用户脸部区域,并检测用户脸部区域中的人脸特征点以获取人脸特征点在定位图像上的像素坐标。
所检测到的人脸特征点可参见图9,包括眉毛、眼部、脸部轮廓、鼻子和嘴巴等部位的特征点。当然,人脸特征点不限于此,例如,所检测的人脸特征点可以仅包括上述特征点中的部分特征点。
本步骤可参见现有技术,这里不再赘述。
S22、根据人脸特征点在定位图像上的像素坐标和与用户匹配的人脸3D网格,利用如下公式进行第三迭代运算处理,以获取用户脸部的空间位置:
其中:
k表示迭代次数,初始值为0,RT表示人脸3D网格相对于采集定位图像的摄像头的旋转平移参数,RT0为预先设定的、人脸3D网格相对于采集定位图像的摄像头的初始旋转平移参数;
(fx1,fy1,px1,py1)为采集定位图像的摄像头的内参;
s1为缩放因子;
(u′1,v′1)、(u′2,v′2)、…为获取的定位图像中人脸特征点的像素坐标,S1、S2、…为与用户匹配的人脸3D网格中与人脸特征点对应的特征点三维坐标;
…为用户匹配的人脸3D网格由RTk变换到定位图像中的像素坐标。
S23、当第三迭代运算处理满足预设收敛条件时,从RTk+1分离出用户脸部的三维空间坐标,作为用户脸部的空间位置。
具体的,通过将与用户脸部匹配的人脸3D网格对应用户的2D图像进行旋转和平移,直到与用户脸部匹配的人脸3D网格在定位图像上的投影与该用户的2D图像相匹配,此时的平移参数即为用户脸部的空间位置。
本领域技术人员所公知的,在采集定位图像的摄像头坐标系下,人脸3D网格和定位图像具有如下投影关系:
其中,s为缩放因子,S表示人脸3D网格,(u,v)为定位图像上的图像位置(即像素坐标),(fx1,fy1,px1,py1)为摄像头的内参,RT为人脸3D网格相对于摄像头的旋转平移参数,RT为未知量。
当人脸3D网格经过多次的旋转平移后,投影到定位图像的图像位置为所获取的定位图像中人脸的位置,则,此时的人脸3D网格就与空间中的人脸基本重合,即可从当前的RT中分离出T,此时的T即为人脸的空间三维坐标。
基于上述原理,按照非线性最优好的思路,将所有的人脸特征点和人脸3D网格中与人脸特征点对应的特征点列在一起:
对R,T求偏导得到偏导矩阵J,之后利用泰勒一阶展开可得:
U′=Uk+J(RTk+1-RTk)
RTk+1=RTk+(JTJ)-1JT(U′-Uk)
其中,k表示迭代次数,初始值为0,U′是检测出来的像素坐标,RT0是预先设定的初始旋转平移参数,从k=0开始进行迭代运算,每次迭代求出一个新的旋转平移参数RTk+1,RTk+1作为新的参数,进行下一次迭代,直到达到收敛条件,最后可以从RTk+1分离出较为精确的人脸三维空间坐标T。其中,收敛条件不限,例如,可以是迭代次数达到阈值,或者,RTk+1与RTk的差值小于预设阈值,或者RTk+1与RTk的差值连续小于预设阈值的次数达到预设次数等。
S15,根据用户脸部的空间位置,确定用户的空间观看位置,根据空间观看位置,进行裸眼立体显示,以使所述用户观看到的显示内容与所述空间观看位置相适配。
在确定用户脸部的空间位置后,可以进一步确定用户的空间观看位置,例如,将用户脸部的空间位置直接作为用户的空间观看位置,或者,通过进一步的运算,例如,利用两者预先设定的函数关系,根据脸部的空间位置确定用户的空间观看位置。举例而言,可将用户脸部的双眼连线的中心点的空间位置确定为用户的空间观看位置。
在确定了用户的空间观看位置之后,将根据空间观看位置进行立体显示,使得显示内容与用户的相适配,保证正确的立体显示效果,有效避免出现反视、串扰、重影等问题。
需要说明的是,裸眼立体显示器通常包括显示面板和与显示面板相对设置的分光器件,显示面板和分光器件相对设置,例如分光器件可以是光栅,该光栅可以为狭缝光栅或透镜光栅等现有技术中裸眼立体显示器所能够采用的任意一种光栅,本发明对此不做限定。
在进行裸眼立体显示时,将左眼画面和右眼画面排列显示在显示面板上(即排图),配合分光器件的分光作用,做到将左眼画面送入用户(即用户)的左眼,将右眼画面送入用户的右眼,从而使用户观看到立体影像。
为了使用户观看的显示内容与用户的观看位置相适配,将基于获取到的空间观看位置进行立体图像,即左眼图像和右眼图像的排图显示。具体可以根据该空间观看位置确定排图参数,例如排图周期等,根据排图参数进行左右立体图像的排图等流程,从而进行立体显示。可以在用户脸部移动,即观看位置发生变化时,根据跟踪到的空间观看位置适应性的进行显示调整,达到跟踪用户的观看位置进行显示的目的。
其中,具体排图过程可参见现有技术,可采用任意公知的方式,根据所确定的双眼空间位置来确定跟踪排图参数,例如,预先设定空间位置与跟踪排图参数的对应函数关系,在确定双眼空间位置后,将双眼空间位置代入函数关系,从而确定排图参数。当然,根据用户的双眼空间位置信息进行立体化显示的方法不限,本领域技术人员可以任意选择,这里不再赘述。
上述实施例中,通过获取用户脸部的特征点之间的空间距离,对预设的人脸3D网格进行变形,使人脸3D网格与用户脸部相匹配,而后获取用户的定位图像,将人脸3D网格对应该定位图像进行旋转和平移,由此得到用户脸部的空间位置,实现了对用户脸部的真实三维坐标的确定,有效提高了定位的准确性,进而,由于获得了准确的人脸三维空间坐标,使得裸眼立体显示过程能够基于该人脸三维空间坐标进行,有效避免立体显示效果的偏差,保证用户所观看到的3D效果,带给用户满意的观看体验。
如图3所示,本发明实施例提供了一种上述S11步骤的具体实现方式,即,获取第一特征点和第二特征点的空间距离的方式。
本实施例中,裸眼立体显示方法应用于裸眼立体显示设备,即由裸眼立体显示设备所执行,该裸眼立体显示设备配置有多目摄像头;则,S11步骤包括:
S31、获取通过多目摄像头采集的多幅用户图像。
其中,每幅用户图像与多目摄像头中的一个摄像头相对应,即多目摄像头中的每个摄像头采集一副用户图像。多目摄像头中摄像头的数量可根据设备规模以及具体需求等合理进行配置,本发明对此不做限定。
具体的,该多目摄像头例如为双目摄像头,通过双目摄像头中的任一摄像头均分别采集一副用户图像。
S32、分别获取用户脸部的第一特征点和第二特征点在每幅用户图像中的像素坐标。
第一特征点和第二特征点请参见前述实施例,这里不再赘述。
本实施例中,根据多目摄像头所拍摄的多幅用户图像来获取第一特征点和第二特征点的空间距离。具体的,为计算用户脸部第一特征点和第二特征点之间的空间距离,本步骤中,获取用户脸部的第一特征点和第二特征点在每幅用户图像中的像素坐标,用以后续数据处理。
其中,如图4所示,具体的像素坐标获取方式包括:
S41、确定用户图像中的用户脸部区域;
S42、检测用户脸部区域中的人脸特征点以获取人脸特征点在用户图像中的像素坐标,人脸特征点包括:第一特征点和第二特征点。
人脸特征点同样可参见图9。
也就是说,当第一特征点和第二特征点包括在所检测到的人脸特征点中,例如,第一特征点和第二特征点分别为左眼左眼角点和右眼右眼角点,即通过检测人脸特征点,即可获取到第一和第二特征点在用户图像中的像素坐标,亦即,直接对用户图像中的用户脸部区域的第一特征点和第二特这个点的像素坐标进行检测;
或者,在第一特征点和第二特征点不包括在所检测到的人脸特征点中时,可以根据所检测的人脸特征点的像素坐标,来计算出第一特征点的像素坐标,具体的,如图5所示,包括:
S51、确定用户图像中的用户脸部区域;S52、检测用户脸部区域中的人脸特征点以获取人脸特征点在用户图像中的像素坐标,S53、根据人脸特征点在用户图像中的像素坐标,计算第一特征点和第二特征点在用户图像中的像素坐标。
举例说明,在一个具体实施例中,第一特征点为左眼瞳孔,第二特征点为右眼瞳孔;人脸特征点包括左眼轮廓点和右眼轮廓点;可将右眼轮廓点在用户图像的像素坐标取平均值,得到右眼瞳孔在用户图像中的像素坐标;以及将左眼轮廓点在用户图像的像素坐标取平均值,得到左眼瞳孔在用户图像中的像素坐标。即,检测用户脸部区域中的左右眼轮廓点的像素坐标,通过左、右眼轮廓点的像素坐标取平均值对应的作为左、右眼瞳孔的像素坐标,实现对用户脸部的第一特征点和第二特征点在每幅用户图像中的像素坐标的获取。
S33、根据多目摄像头的参数、获取的用户脸部的第一特征点和第二特征点在每幅用户图像中的像素坐标,确定用户脸部的第一特征点和第二特征点的世界坐标,即世界坐标系下的三维坐标。
具体的,根据多目摄像头的参数,将第一特征点在每幅用户图像中的像素坐标变换为相应的世界坐标,将第二特征点在每幅用户图像中的像素坐标变换为相应的世界坐标,由此计算出用户脸部的第一特征点和第二特征点的世界坐标。
以下对对具体的世界坐标确定过程进行举例详细说明。本示例中:多目摄像头包括:第一摄像头和第二摄像头;多幅用户图像包括第一摄像头采集的第一图像和第二摄像头采集的第二图像;针对第一特征点,具体的世界坐标确定过程包括:
根据如下公式进行第一迭代运算处理,以获取用户脸部的第一特征点的世界坐标:
其中:
n表示迭代次数,初始值为0,XL表示世界坐标;
为预先设定的用户脸部的第一特征点的初始世界坐标;
fx1、fy1、px1、py1、R1、T1为第一摄像头的参数,其中,(fx1,fy1,px1,py1)为第一摄像头的内参,(R1,T1)为第一摄像头的外参;
fx2、fy2、px2、py2、R1、T1为第二摄像头的参数,其中,(fx2,fy2,px2,py2)为第二摄像头的内参,(R2,T2)为第二摄像头的外参;
s1和s2为缩放因子;
(u′L1,v′L1)为获取的用户脸部的第一特征点在第一图像中的像素坐标,(u′L2,v′L2)为获取的用户脸部的第一特征点在第二图像中的像素坐标;
为世界坐标变换到第一图像中的像素坐标,为世界坐标变换到第二图像中的像素坐标。
当第一迭代运算处理满足预设收敛条件时,例如,迭代次数达到预设次数,或者,本次获取的世界坐标和前次获取的世界坐标的差接近为0或者接近一个预设值等,将确定为用户脸部的第一特征点的世界坐标。
本领域技术人员所公知的,第一特征点在第一摄像头的投影成像过程可表示如下:
而第一特征点在第二摄像头的投影成像过程如下:
其中,fx1、fy1、px1、py1、R1、T1为第一摄像头的参数,其中,(fx1,fy1,px1,py1)为第一摄像头的内参,(R1,T1)为第一摄像头的外参;
fx2、fy2、px2、py2、R1、T1为第二摄像头的参数,其中,(fx2,fy2,px2,py2)为第二摄像头的内参,(R2,T2)为第二摄像头的外参;
s1和s2为缩放因子;XL表示第一特征点的世界坐标,而(uL1,vL1),(uL2,vL2)分别为第一特征点在第一摄像头拍摄的图像中的像素坐标。
因为投影成像是一个非线性的过程,需要多次迭代才能求解出世界坐标坐标,因此,按照非线性最优化的思路,定义如下函数:
对XL求偏导得到偏导矩阵J,之后利用泰勒一阶展开可得:
其中,n表示迭代次数,初始值为0,U′L是检测出来的像素坐标,是预先设定的初始旋转平移参数,从n=0开始进行迭代运算,每次迭代求出一个新的旋转平移参数作为新的参数,进行下一次迭代,直到达到收敛条件,最后可得到较为精确的世界坐标XL,其中,收敛条件不限,例如,可以是迭代次数达到阈值,或者,的差值小于预设阈值,或者的差值连续小于预设阈值的次数达到预设次数等。
针对第二特征点,可采用与前述第一特征点完全相同的方法,获取其世界坐标,但可以理解的是,本发明不限于此,第一特征点和第二特征点的世界坐标可以分别采用相同或者不同的方式获取。
第二特征点具体的世界坐标确定过程如下,原理请参见前述第一特征点的说明,以下不再详述:
根据如下公式进行第二迭代运算处理,以获取用户脸部的第二特征点的世界坐标:
其中:
m表示迭代次数,初始值为0,XR表示世界坐标;
为预先设定的用户脸部的第二特征点的初始世界坐标;
fx1、fy1、px1、py1、R1、T1为第一摄像头的参数,其中,(fx1,fy1,px1,py1)为第一摄像头的内参,(R1,T1)为第一摄像头的外参;
fx2、fy2、px2、py2、R1、T1为第二摄像头的参数,其中,(fx2,fy2,px2,py2)为第二摄像头的内参,(R2,T2)为第二摄像头的外参;
s1和s2为缩放因子;
(u′R1,v′R1)为获取的用户脸部的第二特征点在第一图像中的像素坐标,(u′R2,v′R2)为获取的用户脸部的第二特征点在第二图像中的像素坐标;
为世界坐标变换到第一图像中的像素坐标,为世界坐标变换到第二图像中的像素坐标。
当第二迭代运算处理满足预设收敛条件时,例如,迭代次数达到预设次数,或者,本次获取的世界坐标和前次获取的世界坐标的差接近为0,接近一个预设值,将确定为用户脸部的第二特征点的世界坐标。
S34、根据用户脸部的第一特征点和第二特征点的世界坐标,确定用户脸部的第一特征点和第二特征点之间的空间距离。
具体的,通过用户脸部的特征点的世界坐标,计算得到相应的用户脸部特征点之间的空间距离,以此确定用户脸部特征点之间的真实距离。计算公式例如如下:
其中,A表示第一特征点和第二特征点的空间距离,XL和XR分别表示第一特征点和第二特征点的世界坐标。
但是这样算出来的空间距离,往往非常依赖人眼检测/人脸检测的像素坐标的精度,检测算法收到环境的影响难免会出现抖动、偏移,所以优选的,可以利用各摄像头采集的一段图像序列持续的计算空间距离,并使用kalman等滤波算法,降低计算的噪声,最后输出一个相对稳定的空间距离。
举例而言,第一特征点与第二特征点可以分别为左右眼瞳孔,而第一特征点与第二特征点的空间距离为瞳距。
上述实施例中,根据拍摄用户脸部图像的多目摄像头的参数,对用户脸部图像中第一特征点和第二特征点的像素坐标进行转换,得到用户脸部图像中第一特征点和第二特征点的世界坐标,并由此计算得到用户脸部第一特征点和第二特征点之间的空间距离,提供了用户脸部第一特征点和第二特征点之间的真实距离,以此来完成对预设的人脸3D网格的变形,保证空间定位的精准性。即,在获取到空间距离后,即可利用空间距离调整预先设定的人脸3D网格,利用调整后的人脸3D网格进行人脸空间定位,有效提高了定位的准确性。
本发明实施例中,多目摄像头可采用双目摄像头,而在后续获取定位图像时,可关闭双目摄像头中的一个摄像头,而仅采用双目摄像头中的一个摄像头采集的定位图像,可以有效节省功耗,因此,从硬件配置来看,仅需双目摄像头即可达准确定位的目的。
在本发明实施例提供的裸眼立体显示方法的一个具体实施中,该方法由裸眼立体显示设备执行,该设备可以为手机、平板电脑等任意具有裸眼立体显示功能的电子设备。该设备配置有双目摄像头。裸眼立体显示包括两个过程:
1.初始化过程,开启双目摄像头,利用双目摄像头采集用户的图像,获取到第一特征点和第二特征点的空间距离,例如瞳距,然后,利用空间距离对预定人脸3D网格进行变形。
2.跟踪显示过程,进行人眼跟踪式的常规裸眼立体显示,关闭双目摄像头中的一个摄像头,利用一个摄像头采集用户的定位图像,利用变形后的人脸3D网格和定位图像确定用户的脸部空间位置即观看位置,基于观看位置进行排图显示,有效保证观看位置定位的准确性,并提供了正确良好的3D视觉效果。
初始化过程使用双目摄像头,而跟踪显示过程仅需要采用一个摄像头,可以有效减小功耗。
如图6所示,本发明实施例还提供了一种人脸的裸眼立体显示装置,包括:第一数据处理单元、第二数据处理单元、第三数据处理单元和显示单元;
在本实施例中,第一数据处理单元,用于获取用户脸部的第一特征点和第二特征点之间的空间距离;
第二数据处理单元,用于根据空间距离对预先设定的人脸3D网格进行变形处理,得到与用户匹配的人脸3D网格;
第三数据处理单元,用于获取用户的定位图像,并根据用户的定位图像和与用户匹配的人脸3D网格,确定用户脸部的空间位置。
显示单元,用于根据用户脸部的空间位置,确定用户的空间观看位置,根据所述空间观看位置,进行裸眼立体显示,以使用户观看到的显示内容与所述空间观看位置相适配。
具体的,该装置可应用于设置有多目摄像头的裸眼立体显示设备,则第一数据处理单元可包括:
第一获取模块,用于获取多目摄像头采集的多幅用户图像。
第二获取模块,用于分别获取用户脸部的第一特征点和第二特征点在每幅用户图像中的像素坐标;
第一确定模块,用于根据多目摄像头的参数、获取的用户脸部的第一特征点和第二特征点在每幅用户图像中的像素坐标,确定用户脸部的第一特征点和第二特征点的世界坐标;
第二确定模块,用于根据用户脸部的第一特征点和第二特征点的世界坐标,确定用户脸部的第一特征点和第二特征点之间的空间距离。
在本实施例中,获取特征点在用户图像中的像素坐标的第一方案,即第二获取模块,具体包括:
第一确定子模块,用于确定用户图像中的用户脸部区域,获取子模块,用于:检测用户脸部区域中的人脸特征点以获取人脸特征点在用户图像中的像素坐标点,人脸特征点包括:第一特征点和第二特征点,通过检测人脸坐标点直接得到第一特征点和第二特征点的像素坐标;
或者,获取特征点在用户图像中的像素坐标的第二方案,即所述第二获取模块,具体包括:
第一确定子模块,用于确定用户图像中的用户脸部区域;
获取子模块,用于:检测用户脸部区域中的人脸特征点以获取人脸特征点在用户图像中的像素坐标,根据人脸特征点在用户图像中的像素坐标,计算第一特征点和第二特征点在用户图像中的像素坐标。例如,求平均值的方式。
相比较于直接检测第一特征点和第二特征点的像素坐标,该方案具有较强的容错率,直接检测第一特征点和第二特征点的像素坐标可以得到真实的特征点的像素坐标,但是出现检测错误对结果的影响较大,通过例如平均等方式计算特征点的像素坐标可以降低检测错误对结果的影响,两种方案可根据具体应用的情况进行选择。
其中,第二方案具体包括:
用户脸部的第一特征点为左眼通孔,用户脸部的第二特征点为右眼瞳孔,用户脸部的第一特征点与第二特征点的空间距离为瞳距,人脸特征点包括:左眼轮廓点和右眼轮廓点,获取子模块具体用于将左眼轮廓点在用户图像的像素坐标取平均值,得到左眼瞳孔在用户图像中的像素坐标;以及,将右眼轮廓点在用户图像的像素坐标去平均值,得到右眼瞳孔在用户图像中的像素坐标。
在本实施例中,第一数据处理单元还可包括:
第一确定模块,用于根据多目摄像头的参数、获取的用户脸部的第一特征点和第二特征点在每幅用户图像中的像素坐标,确定用户脸部的第一特征点和第二特征点的世界坐标;
第二确定模块,用于用户脸部的第一特征点和第二特征点的世界坐标,确定用户脸部的第一特征点和第二特征点之间的空间距离。
举例而言,在本实施例中,多目摄像头包括:第一摄像头和第二摄像头;多目摄像头采集的多幅用户图像包括:第一摄像头采集的第一图像和第二摄像头采集的第二图像;
在本实施例中,第一确定模块具体用于:
根据如下公式进行第一迭代运算处理,以获取用户脸部的第一特征点的世界坐标:
其中:
n表示迭代次数,初始值为0,XL表示世界坐标;
为预先设定的用户脸部的第一特征点的初始世界坐标;
当第一迭代运算处理满足预设收敛条件时,将确定为用户脸部的第一特征点的世界坐标:
fx1、fy1、px1、py1、R1、T1为第一摄像头的参数,其中,
(fx1,fy1,px1,py1)为第一摄像头的内参,(R1,T1)为第一摄像头的外参;
fx2、fy2、px2、py2、R1、T1为第二摄像头的参数,其中,(fx2,fy2,px2,py2)为第二摄像头的内参,(R2,T2)为第二摄像头的外参;
s1和s2为缩放因子;
(u′L1,v′L1)为获取的用户脸部的第一特征点在第一图像中的像素坐标,(u′L2,v′L2)为获取的用户脸部的第一特征点在第二图像中的像素坐标;
为世界坐标变换到第一图像中的像素坐标,为世界坐标变换到第二图像中的像素坐标;
在本实施例中,第一确定模块可具体用于:
根据如下公式进行第二迭代运算处理,以获取用户脸部的第二特征点的世界坐标:
其中:
m表示迭代次数,初始值为0,XR表示世界坐标;
为预先设定的用户脸部的第二特征点的初始世界坐标;
当第二迭代运算处理满足预设收敛条件时,将确定为用户脸部的第二特征点的世界坐标:
fx1、fy1、px1、py1、R1、T1为第一摄像头的参数,其中,
(fx1,fy1,px1,py1)为第一摄像头的内参,(R1,T1)为第一摄像头的外参;
fx2、fy2、px2、py2、R1、T1为第二摄像头的参数,其中,(fx2,fy2,px2,py2)为第二摄像头的内参,(R2,T2)为第二摄像头的外参;
s1和s2为缩放因子;
(u′R1,v′R1)为获取的用户脸部的第二特征点在第一图像中的像素坐标,(u′R2,v′R2)为获取的用户脸部的第二特征点在第二图像中的像素坐标;
为世界坐标变换到第一图像中的像素坐标,为世界坐标变换到第二图像中的像素坐标。
第二数据处理单元,用于根据空间距离对预先设定的人脸3D网格进行变形处理,得到与用户匹配的人脸3D网格;
在本实施例中,第二数据处理单元可根据如下公式,对预先设定的人脸3D网格进行变形处理,从而得到与用户匹配的人脸3D网格:
其中,S′为变形处理后人脸3D网格坐标,S为预先设定的人脸3D网格坐标,A为获取的用户脸部的第一特征点和第二特征点之间的空间距离,A0为预先设定的人脸3D网格对应的、人脸的第一特征点和第二特征点之间的空间距离。
第三数据处理单元,用于获取图像获取单元采集的用户的定位图像,并根据用户的定位图像和与用户匹配的人脸3D网格,确定用户脸部的空间位置;
在本实施例中,第三数据处理单元单元可包括:
检测模块,用于确定定位图像中的用户脸部区域,并检测用户脸部区域中的人脸特征点以获取人脸特征点在定位图像上的像素坐标;
运算模块,用于根据人脸特征点在定位图像上的像素坐标和与用户匹配的人脸3D网格,利用如下公式进行第三迭代运算处理,以获取用户脸部的空间位置:
其中:
k表示迭代次数,初始值为0,RT表示人脸3D网格相对于采集定位图像的摄像头的旋转平移参数,RT0为预先设定的、人脸3D网格相对于采集定位图像的摄像头的初始旋转平移参数;
当第三迭代运算处理满足预设收敛条件时,从RTk+1分离出用户脸部的三维空间坐标,作为用户脸部的空间位置;
(fx1,fy1,px1,py1)为采集定位图像的摄像头的内参;
s1为缩放因子;
(u′1,v′1)、(u′2,v′2)、…为获取的定位图像中人脸特征点的像素坐标,S1、S2、…为与用户匹配的人脸3D网格中与人脸特征点对应的特征点三维坐标;
…为用户匹配的人脸3D网格由RTk变换到定位图像中的像素坐标。
在本实施例中,举例而言,所述第一特征点为左眼瞳孔,所述第二特征点为右眼瞳孔,所述第一特征点与所述第二特征点的空间距离为瞳距。
在本实施例中,举例而言,多目摄像头可以为为双目摄像头;而第三数据处理单元可获取双目摄像头中的一个摄像头所采集的用户图像,作为定位图像。
如图7所示,本发明实施例还提供了一种裸眼立体显示装置,包括:处理器和存储器,在本实施例中,存储器用于存储至少一条指令,指令用于由处理器加载并执行。在本实施例中,处理器,用于加载并执行指令以实现上述任一裸眼立体显示方法。
对上述实施例中的系统或装置提供用于记录可以实现上述实施例的功能的软件程序的程序代码的存储介质,并通过系统或装置的计算机(或CPU或MPU)读取并执行存储在存储介质中的程序代码。
在这种情况下,从存储介质读出的程序代码本身执行上述实施例的功能,而存储程序代码的存储介质构成本发明实施例。
作为用于提供程序代码的存储介质,例如软盘、硬盘、光盘、磁光盘、CD-ROM、CD-R、磁带、非易失存储卡、ROM、以及类似物都可以使用。
上述实施例的功能不仅可以通过由计算机执行读出的程序代码来实现,而且也可以通过在计算机上运行的OS(操作系统)根据程序代码的指令执行的一些或全部的实际处理操作来实现。
此外,本发明实施例还包括这样一种情况,即在从存储介质读出的程序代码被写入被插入计算机的功能扩展卡之后,或者被写入和计算机相连的功能扩展单元内提供的存储器之后,在功能扩展卡或功能扩展单元中包括的CPU或类似物按照程序代码的命令执行部分处理或全部处理,从而实现上述实施例的功能。
本发明实施例还提供了一种计算机可读存储介质,其中存储有多条指令,指令用于由处理器加载并执行,指令被处理器加载并执行时实现上述任一项裸眼立体显示方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (22)

1.一种裸眼立体显示方法,其特征在于,包括:
获取用户脸部的第一特征点和第二特征点之间的空间距离;
根据所述空间距离对预先设定的人脸3D网格进行变形处理,得到与所述用户匹配的人脸3D网格;
获取所述用户的定位图像;
根据所述用户的定位图像和所述与所述用户匹配的人脸3D网格,确定所述用户脸部的空间位置;
根据所述用户脸部的空间位置,确定所述用户的空间观看位置,根据所述空间观看位置,进行裸眼立体显示,以使所述用户观看到的显示内容与所述空间观看位置相适配。
2.根据权利要求1所述的裸眼立体显示方法,其特征在于,
所述方法应用于裸眼立体显示设备,所述裸眼立体显示设备配置有多目摄像头;
所述获取用户脸部的第一特征点和第二特征点之间的空间距离具体包括:
获取通过所述多目摄像头采集的多幅用户图像;
分别获取所述用户脸部的第一特征点和第二特征点在每幅所述用户图像中的像素坐标;
根据所述多目摄像头的参数、所述获取的所述用户脸部的第一特征点和第二特征点在每幅所述用户图像中的像素坐标,确定所述用户脸部的第一特征点和第二特征点的世界坐标;
根据所述用户脸部的第一特征点和第二特征点的世界坐标,确定所述用户脸部的第一特征点和第二特征点之间的空间距离。
3.根据权利要求2所述的裸眼立体显示方法,其特征在于,
所述分别获取所述用户脸部的第一特征点和第二特征点在每幅所述用户图像中的像素坐标具体包括:
确定所述用户图像中的用户脸部区域;
检测所述用户脸部区域中的人脸特征点以获取所述人脸特征点在所述用户图像中的像素坐标,所述人脸特征点包括:所述第一特征点和所述第二特征点,或者,
检测所述用户脸部区域中的人脸特征点以获取所述人脸特征点在所述用户图像中的像素坐标,根据所述人脸特征点在所述用户图像中的像素坐标,计算所述第一特征点和第二特征点在所述用户图像中的像素坐标。
4.根据权利要求3所述的裸眼立体显示方法,其特征在于,
所述第一特征点为左眼瞳孔,所述第二特征点为右眼瞳孔;
所述人脸特征点包括左眼轮廓点和右眼轮廓点;
所述根据所述人脸特征点在所述用户图像中的像素坐标,计算所述第一特征点和第二特征点在所述用户图像中的像素坐标包括:
将所述右眼轮廓点在所述用户图像的像素坐标取平均值,得到所述右眼瞳孔在所述用户图像中的像素坐标;以及,
将所述左眼轮廓点在所述用户图像的像素坐标取平均值,得到所述左眼瞳孔在所述用户图像中的像素坐标。
5.根据权利要求2所述的裸眼立体显示方法,其特征在于,
所述多目摄像头包括:第一摄像头和第二摄像头;
所述多幅用户图像包括所述第一摄像头采集的第一图像和所述第二摄像头采集的第二图像;
所述根据所述多目摄像头的参数、所述获取的所述用户脸部的第一特征点和第二特征点在每幅所述用户图像中的像素坐标,确定所述用户脸部的第一特征点和第二特征点的世界坐标具体包括:
根据如下公式进行第一迭代运算处理,以获取所述用户脸部的第一特征点的世界坐标:
其中:
n表示迭代次数,初始值为0,XL表示世界坐标;
为预先设定的所述用户脸部的第一特征点的初始世界坐标;
当所述第一迭代运算处理满足预设收敛条件时,将确定为所述用户脸部的第一特征点的世界坐标:
fx1、fy1、px1、py1、R1、T1为所述第一摄像头的参数,其中,(fx1,fy1,px1,py1)为所述第一摄像头的内参,(R1,T1)为所述第一摄像头的外参;
fx2、fy2、px2、py2、R1、T1为所述第二摄像头的参数,其中,(fx2,fy2,px2,py2)为所述第二摄像头的内参,(R2,T2)为所述第二摄像头的外参;
s1和s2为缩放因子;
(u′L1,v′L1)为所述获取的所述用户脸部的第一特征点在所述第一图像中的像素坐标,(u′L2,v′L2)为所述获取的所述用户脸部的第一特征点在所述第二图像中的像素坐标;
为世界坐标变换到所述第一图像中的像素坐标,为世界坐标变换到所述第二图像中的像素坐标;
和/或,
根据如下公式进行第二迭代运算处理,以获取所述用户脸部的第二特征点的世界坐标:
其中:
m表示迭代次数,初始值为0,XR表示世界坐标;
为预先设定的所述用户脸部的第二特征点的初始世界坐标;
当所述第二迭代运算处理满足预设收敛条件时,将确定为所述用户脸部的第二特征点的世界坐标:
fx1、fy1、px1、py1、R1、T1为所述第一摄像头的参数,其中,(fx1,fy1,px1,py1)为所述第一摄像头的内参,(R1,T1)为所述第一摄像头的外参;
fx2、fy2、px2、py2、R1、T1为所述第二摄像头的参数,其中,(fx2,fy2,px2,py2)为所述第二摄像头的内参,(R2,T2)为所述第二摄像头的外参;
s1和s2为缩放因子;
(u′R1,v′R1)为所述获取的所述用户脸部的第二特征点在所述第一图像中的像素坐标,(u′R2,v′R2)为所述获取的所述用户脸部的第二特征点在所述第二图像中的像素坐标;
为世界坐标变换到所述第一图像中的像素坐标,为世界坐标变换到所述第二图像中的像素坐标。
6.根据权利要求1所述的裸眼立体显示方法,其特征在于,
所述根据所述空间距离对预先设定的人脸3D网格进行变形处理,得到与所述用户匹配的人脸3D网格具体包括:
根据如下公式,对所述预先设定的人脸3D网格进行变形处理,从而得到与所述用户匹配的人脸3D网格:
其中,S′为变形处理后人脸3D网格坐标,S为预先设定的人脸3D网格坐标,A为所述获取的用户脸部的第一特征点和第二特征点之间的空间距离,A0为所述预先设定的人脸3D网格对应的、人脸的第一特征点和第二特征点之间的空间距离。
7.根据权利要求1所述的裸眼立体显示方法,其特征在于,
所述根据所述用户的定位图像和所述与所述用户匹配的人脸3D网格,确定所述用户脸部的空间位置具体包括:
确定所述定位图像中的用户脸部区域,并检测所述用户脸部区域中的人脸特征点以获取所述人脸特征点在所述定位图像上的像素坐标;
根据所述人脸特征点在所述定位图像上的像素坐标和所述与所述用户匹配的人脸3D网格,利用如下公式进行第三迭代运算处理,以获取所述用户脸部的空间位置:
其中:
k表示迭代次数,初始值为0,RT表示人脸3D网格相对于采集所述定位图像的摄像头的旋转平移参数,RT0为预先设定的、人脸3D网格相对于采集所述定位图像的摄像头的初始旋转平移参数;
当所述第三迭代运算处理满足预设收敛条件时,从RTk+1分离出所述用户脸部的三维空间坐标,作为所述用户脸部的空间位置;
(fx1,fy1,px1,py1)为所述采集所述定位图像的摄像头的内参;
s1为缩放因子;
(u′1,v′1)、(u′2,v′2)、…为所述获取的定位图像中人脸特征点的像素坐标,S1、S2、…为所述与所述用户匹配的人脸3D网格中与所述人脸特征点对应的特征点三维坐标;
…为所述与所述用户匹配的人脸3D网格由RTk变换到所述定位图像中的像素坐标。
8.根据权利要求1至3、5至7任一项所述的裸眼立体显示方法,其特征在于,
所述第一特征点为左眼瞳孔,所述第二特征点为右眼瞳孔,所述第一特征点与所述第二特征点的空间距离为瞳距。
9.根据权利要求2所述的一种裸眼立体显示方法,其特征在于,所述多目摄像头为双目摄像头。
10.根据权利要求9所述的一种裸眼立体显示方法,其特征在于,所述获取所述用户的定位图像包括:
获取所述双目摄像头中的一个摄像头所采集的用户图像,作为所述定位图像。
11.一种裸眼立体显示装置,其特征在于,包括:
第一数据处理单元、第二数据处理单元、第三数据处理单元和显示单元;
所述第一数据处理单元,用于获取用户脸部的第一特征点和第二特征点之间的空间距离;
所述第二数据处理单元,用于根据所述空间距离对预先设定的人脸3D网格进行变形处理,得到与所述用户匹配的人脸3D网格;
所述第三数据处理单元,用于获取所述用户的定位图像,并根据所述用户的定位图像和所述与所述用户匹配的人脸3D网格,确定所述用户脸部的空间位置;
所述显示单元,用于根据所述用户脸部的空间位置,确定所述用户的空间观看位置,根据所述空间观看位置,进行裸眼立体显示,以使所述用户观看到的显示内容与所述空间观看位置相适配。
12.根据权利要求11所述的裸眼立体显示装置,其特征在于,
所述装置应用于裸眼立体显示设备,所述裸眼立体显示设备配置有多目摄像头;
所述第一数据处理单元,包括:
第一获取模块,用于获取所述多目摄像头采集的多幅用户图像;
第二获取模块,用于分别获取所述用户脸部的第一特征点和第二特征点在每幅所述用户图像中的像素坐标;
第一确定模块,用于根据所述多目摄像头的参数、所述获取的所述用户脸部的第一特征点和第二特征点在每幅所述用户图像中的像素坐标,确定所述用户脸部的第一特征点和第二特征点的世界坐标;
第二确定模块,用于根据所述用户脸部的第一特征点和第二特征点的世界坐标,确定所述用户脸部的第一特征点和第二特征点之间的空间距离。
13.根据权利要求12所述的裸眼立体显示装置,其特征在于,所述第二获取模块,具体包括:
第一确定子模块,用于确定所述用户图像中的用户脸部区域;
获取子模块,用于检测所述用户脸部区域中的人脸特征点以获取所述人脸特征点在所述用户图像中的像素坐标点,所述人脸特征点包括:所述第一特征点和所述第二特征点,或者,检测所述用户脸部区域中的人脸特征点以获取所述人脸特征点在所述用户图像中的像素坐标,根据所述人脸特征点在所述用户图像中的像素坐标,计算所述第一特征点和第二特征点在所述用户图像中的像素坐标。
14.根据权利要求13所述的裸眼立体显示装置,其特征在于,
所述第一特征点为左眼瞳孔,所述第二特征点为右眼瞳孔,
所述人脸特征点包括:左眼轮廓点和右眼轮廓点;
所述获取子模块具体用于:将所述左眼轮廓点在所述用户图像的像素坐标取平均值,得到所述左眼瞳孔在所述用户图像中的像素坐标;以及,将所述右眼轮廓点在所述用户图像的像素坐标去平均值,得到所述右眼瞳孔在所述用户图像中的像素坐标。
15.根据权利要求12所述的裸眼立体显示装置,其特征在于,
所述多目摄像头包括:第一摄像头和第二摄像头;
所述多目摄像头采集的所述多幅用户图像包括:所述第一摄像头采集的第一图像和所述第二摄像头采集的第二图像;
所述第一确定模块具体用于:
根据如下公式进行第一迭代运算处理,以获取所述用户脸部的第一特征点的世界坐标:
其中:
n表示迭代次数,初始值为0,XL表示世界坐标;
为预先设定的所述用户脸部的第一特征点的初始世界坐标;
当所述第一迭代运算处理满足预设收敛条件时,将确定为所述用户脸部的第一特征点的世界坐标:
fx1、fy1、px1、py1、R1、T1为所述第一摄像头的参数,其中,
(fx1,fy1,px1,py1)为所述第一摄像头的内参,(R1,T1)为所述第一摄像头的外参;
fx2、fy2、px2、py2、R1、T1为所述第二摄像头的参数,其中,(fx2,fy2,px2,py2)为所述第二摄像头的内参,(R2,T2)为所述第二摄像头的外参;
s1和s2为缩放因子;
(u′L1,v′L1)为所述获取的所述用户脸部的第一特征点在所述第一图像中的像素坐标,(u′L2,v′L2)为所述获取的所述用户脸部的第一特征点在所述第二图像中的像素坐标;
为世界坐标变换到所述第一图像中的像素坐标,为世界坐标变换到所述第二图像中的像素坐标;
和/或,
根据如下公式进行第二迭代运算处理,以获取所述用户脸部的第二特征点的世界坐标:
其中:
m表示迭代次数,初始值为0,XR表示世界坐标;
为预先设定的所述用户脸部的第二特征点的初始世界坐标;
当所述第二迭代运算处理满足预设收敛条件时,将确定为所述用户脸部的第二特征点的世界坐标:
fx1、fy1、px1、py1、R1、T1为所述第一摄像头的参数,其中,
(fx1,fy1,px1,py1)为所述第一摄像头的内参,(R1,T1)为所述第一摄像头的外参;
fx2、fy2、px2、py2、R1、T1为所述第二摄像头的参数,其中,(fx2,fy2,px2,py2)为所述第二摄像头的内参,(R2,T2)为所述第二摄像头的外参;
s1和s2为缩放因子;
(u′R1,v′R1)为所述获取的所述用户脸部的第二特征点在所述第一图像中的像素坐标,(u′R2,v′R2)为所述获取的所述用户脸部的第二特征点在所述第二图像中的像素坐标;
为世界坐标变换到所述第一图像中的像素坐标,为世界坐标变换到所述第二图像中的像素坐标。
16.根据权利要求11所述的裸眼立体显示装置,其特征在于,
所述第二数据处理单元,具体用于:根据如下公式,对所述预先设定的人脸3D网格进行变形处理,从而得到与所述用户匹配的人脸3D网格:
其中,S′为变形处理后人脸3D网格坐标,S为预先设定的人脸3D网格坐标,A为所述获取的用户脸部的第一特征点和第二特征点之间的空间距离,A0为所述预先设定的人脸3D网格对应的、人脸的第一特征点和第二特征点之间的空间距离。
17.根据权利要求11所述的裸眼立体显示装置,其特征在于,
所述第三数据处理单元包括:
检测模块,用于确定所述定位图像中的用户脸部区域,并检测所述用户脸部区域中的人脸特征点以获取所述人脸特征点在所述定位图像上的像素坐标;
运算模块,用于根据所述人脸特征点在所述定位图像上的像素坐标和所述与所述用户匹配的人脸3D网格,利用如下公式进行第三迭代运算处理,以获取所述用户脸部的空间位置:
其中:
k表示迭代次数,初始值为0,RT表示人脸3D网格相对于采集所述定位图像的摄像头的旋转平移参数,RT0为预先设定的、人脸3D网格相对于采集所述定位图像的摄像头的初始旋转平移参数;
当所述第三迭代运算处理满足预设收敛条件时,从RTk+1分离出所述用户脸部的三维空间坐标,作为所述用户脸部的空间位置;
(fx1,fy1,px1,py1)为所述采集所述定位图像的摄像头的内参;
s1为缩放因子;
(u′1,v′1)、(u′2,v′2)、…为所述获取的定位图像中人脸特征点的像素坐标,S1、S2、…为所述与所述用户匹配的人脸3D网格中与所述人脸特征点对应的特征点三维坐标;
…为所述用户匹配的人脸3D网格由RTk变换到所述定位图像中的像素坐标。
18.根据权利要求11至13、15至17任一项所述的裸眼立体显示装置,其特征在于,
所述第一特征点为左眼瞳孔,所述第二特征点为右眼瞳孔,所述第一特征点与所述第二特征点的空间距离为瞳距。
19.根据权利要求12所述的一种裸眼立体显示装置,其特征在于,
所述多目摄像头为双目摄像头。
20.根据权利要求19所述的一种裸眼立体显示装置,其特征在于,
所述第三数据处理单元,用于获取所述双目摄像头中的一个摄像头所采集的用户图像,作为所述定位图像。
21.一种裸眼立体显示系统,其特征在于,包括存储器、处理器和至少一个被存储在所述存储器中并被配置为由所述处理器执行的计算机程序,所述计算机程序被配置为用于执行权利要求1至10中任一项所述裸眼立体显示方法。
22.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有应用程序,所述计算机程序可被处理器执行以实现如权利要求1-10任一项所述裸眼立体显示方法。
CN201810147368.9A 2018-02-12 2018-02-12 一种裸眼立体显示方法、装置、系统及存储介质 Active CN108282650B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810147368.9A CN108282650B (zh) 2018-02-12 2018-02-12 一种裸眼立体显示方法、装置、系统及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810147368.9A CN108282650B (zh) 2018-02-12 2018-02-12 一种裸眼立体显示方法、装置、系统及存储介质

Publications (2)

Publication Number Publication Date
CN108282650A true CN108282650A (zh) 2018-07-13
CN108282650B CN108282650B (zh) 2019-12-24

Family

ID=62808662

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810147368.9A Active CN108282650B (zh) 2018-02-12 2018-02-12 一种裸眼立体显示方法、装置、系统及存储介质

Country Status (1)

Country Link
CN (1) CN108282650B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109028488A (zh) * 2018-07-17 2018-12-18 珠海格力电器股份有限公司 一种空调控制方法、系统及存储介质
CN109104603A (zh) * 2018-09-25 2018-12-28 上海玮舟微电子科技有限公司 一种视点补偿方法、装置、电子设备和存储介质
CN111860292A (zh) * 2020-07-16 2020-10-30 科大讯飞股份有限公司 基于单目相机的人眼定位方法、装置以及设备
CN112748796A (zh) * 2019-10-30 2021-05-04 京东方科技集团股份有限公司 显示方法及显示装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101499128A (zh) * 2008-01-30 2009-08-05 中国科学院自动化研究所 基于视频流的三维人脸动作检测和跟踪方法
CN101826217A (zh) * 2010-05-07 2010-09-08 上海交通大学 人脸动画快速生成方法
CN106504271A (zh) * 2015-09-07 2017-03-15 三星电子株式会社 用于眼睛跟踪的方法和设备

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101499128A (zh) * 2008-01-30 2009-08-05 中国科学院自动化研究所 基于视频流的三维人脸动作检测和跟踪方法
CN101826217A (zh) * 2010-05-07 2010-09-08 上海交通大学 人脸动画快速生成方法
CN106504271A (zh) * 2015-09-07 2017-03-15 三星电子株式会社 用于眼睛跟踪的方法和设备

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109028488A (zh) * 2018-07-17 2018-12-18 珠海格力电器股份有限公司 一种空调控制方法、系统及存储介质
CN109104603A (zh) * 2018-09-25 2018-12-28 上海玮舟微电子科技有限公司 一种视点补偿方法、装置、电子设备和存储介质
CN112748796A (zh) * 2019-10-30 2021-05-04 京东方科技集团股份有限公司 显示方法及显示装置
CN112748796B (zh) * 2019-10-30 2024-02-20 京东方科技集团股份有限公司 显示方法及显示装置
CN111860292A (zh) * 2020-07-16 2020-10-30 科大讯飞股份有限公司 基于单目相机的人眼定位方法、装置以及设备

Also Published As

Publication number Publication date
CN108282650B (zh) 2019-12-24

Similar Documents

Publication Publication Date Title
US11632537B2 (en) Method and apparatus for obtaining binocular panoramic image, and storage medium
CN109146965B (zh) 信息处理装置、计算机可读介质和头戴式显示装置
CN106101689B (zh) 利用手机单目摄像头对虚拟现实眼镜进行增强现实的方法
CN108282650A (zh) 一种裸眼立体显示方法、装置、系统及存储介质
US20180101227A1 (en) Headset removal in virtual, augmented, and mixed reality using an eye gaze database
CN109271950B (zh) 一种基于手机前视摄像头的人脸活体检测方法
US20120162384A1 (en) Three-Dimensional Collaboration
CN107656619A (zh) 一种智能投影方法、系统及智能终端
CN109801379A (zh) 通用的增强现实眼镜及其标定方法
US20120194513A1 (en) Image processing apparatus and method with three-dimensional model creation capability, and recording medium
CN105809654A (zh) 目标对象跟踪方法、装置和立体显示设备及方法
CN106981078A (zh) 视线校正方法、装置、智能会议终端及存储介质
CN103034330A (zh) 一种用于视频会议的眼神交互方法及系统
CN109495733B (zh) 三维影像重建方法、装置及其非暂态电脑可读取储存媒体
CN110245549A (zh) 实时面部和对象操纵
CN109872407A (zh) 一种人脸识别方法、装置、设备及打卡方法、装置和系统
CN108446595A (zh) 一种空间定位方法、装置、系统及存储介质
CN106618479B (zh) 瞳孔追踪系统及其方法
Yuan et al. A mixed reality system for virtual glasses try-on
CN105809664B (zh) 生成三维图像的方法和装置
CN101854485A (zh) 一种自动调节手持立体拍摄设备抖动的方法及装置
Heo et al. Rapid 3D face modeling using a frontal face and a profile face for accurate 2D pose synthesis
CN108616736A (zh) 用于立体显示的跟踪定位方法及装置
CN109963143A (zh) 一种ar眼镜的图像获取方法及系统
US20230144111A1 (en) A method for generating a 3d model

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant