CN214756700U - 3d显示设备 - Google Patents

3d显示设备 Download PDF

Info

Publication number
CN214756700U
CN214756700U CN201922163066.3U CN201922163066U CN214756700U CN 214756700 U CN214756700 U CN 214756700U CN 201922163066 U CN201922163066 U CN 201922163066U CN 214756700 U CN214756700 U CN 214756700U
Authority
CN
China
Prior art keywords
black
eye
camera
white
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201922163066.3U
Other languages
English (en)
Inventor
刁鸿浩
黄玲溪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Ivisual 3D Technology Co Ltd
Original Assignee
Vision Technology Venture Capital Pte Ltd
Beijing Ivisual 3D Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vision Technology Venture Capital Pte Ltd, Beijing Ivisual 3D Technology Co Ltd filed Critical Vision Technology Venture Capital Pte Ltd
Priority to CN201922163066.3U priority Critical patent/CN214756700U/zh
Application granted granted Critical
Publication of CN214756700U publication Critical patent/CN214756700U/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本实用新型公开一种人眼追踪装置,包括:人眼追踪器,包括被配置为拍摄用户人脸的黑白图像的黑白摄像头和被配置为获取人脸的景深信息的景深获取装置;人眼追踪图像处理器,被配置为基于黑白图像和获取的景深信息确定人眼的空间位置。上述装置能实现分别高精度地确定用户双眼的空间位置以及高速度地识别人眼,或者说实时追踪人眼。本实用新型还公开一种3D显示设备。

Description

3D显示设备
技术领域
本实用新型涉及裸眼式3D显示技术,例如涉及人眼追踪装置及3D显示设备。
背景技术
3D(立体)影像是视像行业中的热点技术之一,推动着从平面显示向 3D显示的技术变革。3D显示技术是3D影像产业中的关键一环,主要分为两类,即眼镜式3D显示和裸眼式3D显示技术。裸眼式3D显示技术是一种观看者无需佩戴眼镜而能够之间观看到3D显示画面的技术。与眼镜式 3D显示相比,裸眼式3D显示减少了对观看者的约束。
裸眼式3D显示是基于视点的,近来还提出了多视点的裸眼3D显示,从而在空间中不同位置处形成视差图像(帧)的序列,使得具有视差关系的3D图像对可以分别进入人的左右眼当中,从而给观看者带来3D感。对于具有例如N个视点的传统的多视点裸眼3D显示器,要用显示面板上的多个独立像素来投射空间的多个视点。
在一些研究进展中,这样的多视点显示还基于人脸或人眼追踪数据来提供更佳的观看体验。在一些常规的人脸或人眼追踪装置中,仅检测人脸与屏幕的距离,并依靠预设的或默认的瞳距来确定人眼所在的视点位置。这样识别的精度不高,无法满足高质量的裸眼式3D显示。例如,这样的人脸或人眼追踪装置无法确定观看者双眼的实际空间位置,也无法确定人眼是否相对于屏幕倾斜,这可能会造成视点计算错误。
而且,常规的人脸或人眼追踪装置在以较高的实时度来追踪时还存在计算瓶颈,这影响识别速度或追踪速度。
本背景技术仅为了便于了解本领域的相关技术,并不视作对现有技术的承认。
实用新型内容
为了对披露的实施例的一些方面有基本的理解,下面给出了简单的概括。该概括不是泛泛评述,也不是要确定关键/重要组成元素或描绘这些实施例的保护范围,而是作为后面的详细说明的序言。
本实用新型的实施例意图提供人眼追踪装置及3D显示设备。
在一个方案中,提供了一种人眼追踪装置,包括:人眼追踪器,包括被配置为拍摄观看者的人脸的黑白图像的黑白摄像头和被配置为获取人脸的景深信息的景深获取装置;人眼追踪图像处理器,被配置为基于黑白图像和景深信息确定人眼的空间位置。
通过这种人眼追踪装置,能够实现分别高精度地确定观看者双眼的空间位置以及实现高速度地识别人眼,或者说实时追踪人眼。从而能够提供符合观看者双眼的空间位置的显示对象的3D显示画面,提升观看体验。基于观看者双眼的实际空间位置能够确定观看者双眼所处的视点位置,从而能向观看者提供更精确的、自由度更高的3D显示。
在一些实施例中,人眼追踪图像处理器还被配置为基于黑白图像识别人眼的存在。
在一些实施例中,人眼追踪装置包括人眼追踪数据接口,被配置为传输包含人眼的空间位置的人眼空间位置信息。
在一些实施例中,景深获取装置为结构光摄像头或TOF摄像头。
在一些实施例中,人眼追踪装置还包括视角确定装置,被配置为计算观看者相对于3D显示设备的视角。
根据视角,能够以随动的方式生成从不同角度观察到的显示对象的3D 显示画面,从而使观看者能够观看到与视角相符合的3D显示画面,增强 3D显示的真实感和沉浸感。
在一些实施例中,黑白摄像头被配置为拍摄黑白图像序列。
在一些实施例中,人眼追踪图像处理器包括:缓存器,配置为缓存黑白图像序列中多幅黑白图像;比较器,配置为比较黑白图像序列中的前后多幅黑白图像;判决器,被配置为,当比较器通过比较在黑白图像序列中的当前黑白图像中未识别到人眼的存在且在之前或之后的黑白图像中识别到人眼的存在时,将基于之前或之后的黑白图像和获取的景深信息确定的人眼空间位置信息作为当前的人眼空间位置信息。
基于此,例如在黑白摄像头出现卡顿或跳帧等情况时,能够为观看者提供更为连贯的显示画面,确保观看体验。
在一个方案中,提供了一种3D显示设备,包括:多视点裸眼3D显示屏,包括对应多个视点的多个子像素;如上文描述的人眼追踪装置,被配置为确定观看者人眼的空间位置;以及3D处理装置,被配置为根据观看者人眼的空间位置确定视点,并且基于3D信号渲染与视点对应的子像素。
在一些实施例中,多视点裸眼3D显示屏包括多个复合像素,多个复合像素中的每个复合像素包括多个复合子像素,多个复合子像素中的每个复合子像素由对应于多个视点的多个子像素构成。
在一些实施例中,3D处理装置与人眼追踪装置通过人眼追踪数据接口通信连接。
在一些实施例中,3D显示设备还包括:3D拍摄装置,被配置为采集3D图像,3D拍摄装置包括景深摄像头和至少两个彩色摄像头。
在一些实施例中,人眼追踪装置与3D拍摄装置集成设置。
在一些实施例中,3D拍摄装置前置于3D显示设备。
以上的总体描述和下文中的描述仅是示例性和解释性的,不用于限制本实用新型。
附图说明
一个或多个实施例通过与之对应的附图进行示例性说明,这些示例性说明和附图并不构成对实施例的限定,附图不构成比例限制,并且其中:
图1是根据本实用新型的人眼追踪装置的示意图;
图2A和图2B是根据本实用新型的3D显示设备的示意图;
图3是利用根据本实用新型的人眼追踪装置确定人眼的空间位置的示意图。
附图标记:
100:3D显示设备;101:处理器;122:寄存器;110:多视点裸眼3D 显示屏;120:3D拍摄装置;121:摄像头单元;121a:第一彩色摄像头; 121b:第二彩色摄像头;121c:景深摄像头;125:3D图像输出接口;126: 3D图像处理器;130:3D处理装置;131:缓存器;140:信号接口;150:人眼追踪装置;151:人眼追踪器;151a:黑白摄像头;151b:景深获取装置;152:人眼追踪图像处理器;155:视角确定装置;156:缓存器;157:比较器;153:人眼追踪数据接口;FP:焦平面;O:镜头中心;f:焦距; MCP:黑白摄像头平面;R:观看者的右眼;L:观看者的左眼;P:瞳距; XR:观看者的右眼在焦平面内成像的X轴坐标;XL:观看者的左眼在焦平面内成像的X轴坐标;βR:倾斜角;βL:倾斜角;α:夹角;DR:观看者的右眼R相对于黑白摄像头平面MCP的距离;DL:观看者的左眼L相对于黑白摄像头平面MCP的距离;DLP:显示屏平面;DLC:显示屏中心; HFP:人脸所在平面。
具体实施方式
为了能够更加详尽地了解本实用新型的特点与技术内容,下面结合附图对本实用新型的实现进行详细阐述,所附附图仅供参考说明之用,并非用来限定本实用新型。
在本文中,“裸眼3D(立体)显示”涉及观看者无需佩戴3D显示用的眼镜而能在平面显示器上观察到3D效果的显示图像的技术,包括但不限于“视差屏障”、“柱状透镜”、“指向式背光”技术。
在本文中,“多视点”具有本领域的常规含义,意指在空间中不同位置(视点)处能观看到显示屏的不同像素或子像素显示的不同图像。在本文中,多视点将意味着至少3个视点。
在本文中,“光栅”具有本领域中广义的解释,包括但不限于“视差屏障”光栅和“透镜”光栅、如“柱状透镜”光栅。
在本文中,“透镜”或“透镜光栅”具有本领域的常规含义,例如包括柱状透镜和球面透镜。
常规的“像素”意指2D显示器或者作为2D显示器显示时就其分辨率而言的最小显示单位。
然而,在本文的一些实施例中,当应用于裸眼3D显示领域的多视点技术时所称的“复合像素”指裸眼3D显示器提供多视点显示时的最小显示单位,但不排除用于多视点技术的单个复合像素可包括或呈现为多个2D显示的像素。在本文中,除非具体说明为“3D显示”或“多视点”应用的复合像素或 3D像素,像素将指2D显示时的最小显示单位。同样,当描述为多视点的裸眼3D显示“复合子像素”时,将指裸眼3D显示器提供多视点显示时的复合像素中呈现的单个颜色的复合子像素。在本文中,“复合子像素”中的子像素将指单个颜色的最小显示单位,其往往是与视点相对应的。
在本实用新型中,提供了一种人眼追踪装置,被配置为用于3D显示设备,人眼追踪装置包括:人眼追踪器,包括被配置为拍摄黑白图像的黑白摄像头和被配置为获取景深信息的景深获取装置;人眼追踪图像处理器,被配置为基于黑白图像识别人眼的存在且基于黑白图像和获取的景深信息确定人眼的空间位置。这种人眼追踪装置在图1中示例性地示出。
在本实用新型中,提供了一种3D显示设备,包括:多视点裸眼3D显示屏,包括对应多个视点的多个子像素;3D处理装置,被配置为基于3D 信号渲染与视点对应的子像素;其中,视点由观看者的人眼的空间位置确定;以及根据上文描述的人眼追踪装置。
作为解释而非限制性地,由人眼的空间位置确定视点可由3D处理装置实现,也可由人眼追踪装置的人眼追踪图像处理器实现。
在一些实施例中,3D处理装置与多视点裸眼3D显示屏通信连接。
在一些实施例中,3D处理装置与多视点裸眼3D显示屏的驱动装置通信连接。
图2A示出了根据本实用新型的3D显示设备100的示意图。参考图2A,在本实用新型中提供了一种3D显示设备100,包括多视点裸眼3D显示屏 110、被配置为接收3D信号的视频帧的信号接口140、与信号接口140通信连接的3D处理装置130和人眼追踪装置150。人眼追踪装置150通信连接至3D处理装置130,由此,3D处理装置130可以直接接收人眼追踪数据。
在一些实施例中,3D处理装置被配置为由人眼的空间位置确定观看者双眼所在的视点。在另一些实施例中,由人眼的空间位置确定观看者双眼所在的视点也可通过人眼追踪装置实现,3D处理装置接收包含视点的人眼追踪数据。
作为解释而非限制性地,人眼追踪数据可以包含人眼的空间位置,例如观看者的双眼相对于多视点裸眼3D显示屏的间距、观看者的双眼所在的视点、观看者视角等。
多视点裸眼3D显示屏110可包括显示面板和覆盖在显示面板上的光栅 (未标识)。在图2A所示的实施例中,多视点裸眼3D显示屏110可包括m 列n行、亦即m×n个复合像素并因此限定出m×n的显示分辨率。
在一些实施例中,m×n的分辨率可以为全高清(FHD)以上的分辨率,包括但不限于,1920×1080、1920×1200、2048×1280、2560×1440、3840×2160 等。
作为解释而非限制地,每个复合像素包括多个复合子像素,各复合子像素由对应于i个视点的i个同色子像素构成,i≥3。在图2A所示的实施例中,i=6,但可以想到i为其他数值。在所示的实施例中,多视点裸眼3D显示屏可相应地具有i(i=6)个视点(V1-V6),但可以想到可以相应地具有更多或更少个视点。
作为解释而非限制地,在图2A所示的实施例中,每个复合像素包括三个复合子像素,并且每个复合子像素由对应于6个视点(i=6)的6个同色子像素构成。三个复合子像素分别对应于三种颜色,即红(R)、绿(G)和蓝(B)。在图2A所示的实施例中,每个复合像素中的三个复合子像素呈单列布置,每个复合子像素的六个子像素呈单行布置。但可以想到,各复合像素中的多个复合子像素成不同排布形式;也可以想到,各复合子像素中的多个子像素成不同排布形式。
作为解释而非限制性地,例如图2A所示,3D显示设备100可设置有单个3D处理装置130。单个3D处理装置130同时处理对多视点裸眼3D 显示屏110的各复合像素的各复合子像素的子像素的渲染。在另一些实施例中,3D显示设备100也可设置有一个以上3D处理装置130,它们并行、串行或串并行结合地处理对多视点裸眼3D显示屏110的各复合像素的各复合子像素的子像素的渲染。本领域技术人员将明白,一个以上3D处理装置可以有其他的方式分配且并行处理多视点裸眼3D显示屏110的多行多列复合像素或复合子像素,这落入本实用新型的范围内。
在一些实施例中,3D处理装置130还可以选择性地包括缓存器131,以便缓存所接收到的视频帧。
在一些实施例中,3D处理装置为FPGA或ASIC芯片或FPGA或ASIC 芯片组。
继续参考图2A,3D显示设备100还可包括通过信号接口140通信连接至3D处理装置130的处理器101。在本文所示的一些实施例中,处理器 101被包括在计算机或智能终端、如移动终端中或作为其处理器单元。但是可以想到,在一些实施例中,处理器101可以设置在3D显示设备的外部,例如3D显示设备可以为带有3D处理装置的多视点裸眼3D显示器,例如非智能的裸眼3D电视。
为简单起见,下文中的3D显示设备的示例性实施例内部包括处理器。基于此,信号接口140为连接处理器101和3D处理装置130的内部接口。在本文所示的一些实施例中,作为3D显示设备的内部接口的信号接口可以为MIPI、mini-MIPI接口、LVDS接口、min-LVDS接口或Display Port接口。在一些实施例中,如图2A所示,3D显示设备100的处理器101可包括寄存器122。寄存器122可被配置为暂存指令、数据和地址。在一些实施例中,寄存器122可被配置为接收有关多视点裸眼3D显示屏110的显示要求的信息
在一些实施例中,3D显示设备100还可以包括编解码器,配置为对压缩的3D信号解压缩和编解码并将解压缩的3D信号经信号接口140发送至 3D处理装置130。
参考图2B,3D显示设备100还包括被配置为采集3D图像的3D拍摄装置120,人眼追踪装置150集成在3D拍摄装置120中,也可以想到集成到处理终端或显示设备的常规摄像装置中。在所示的实施例中,3D拍摄装置120为前置摄像装置。3D拍摄装置120包括摄像头单元121、3D图像处理器126、3D图像输出接口125。
如图2B所示,摄像头单元121包括第一彩色摄像头121a、第二彩色摄像头121b、景深摄像头121c。在另一些实施例中,3D图像处理器126可以集成在摄像头单元121内。在一些实施例中,第一彩色摄像头121a被配置为获得拍摄对象的第一彩色图像,第二彩色摄像头121b被配置为获得拍摄对象的第二彩色图像,通过合成这两幅彩色图像获得中间点的合成彩色图像;景深摄像头121c被配置为获得拍摄对象的景深信息。通过合成获得的合成彩色图像和景深信息形成3D图像。在本实用新型中,第一彩色摄像头和第二彩色摄像头是相同的彩色摄像头。在另一些实施例中,第一彩色摄像头和第二彩色摄像头也可以是不同的彩色摄像头。在这种情况下,为了获得合成彩色图像,可以对第一彩色图像和第二彩色图像进行校准或矫正。景深摄像头121c可以是TOF(飞行时间)摄像头或结构光摄像头。景深摄像头121c可以设置在第一彩色摄像头和第二彩色摄像头之间。
在一些实施例中,3D图像处理器126被配置为将第一彩色图像和第二彩色图像合成为合成彩色图像,并将获得的合成彩色图像与景深信息合成为3D图像。所形成的3D图像通过3D图像输出接口125传输至3D显示设备100的处理器101。
可选地,第一彩色图像、第二彩色图像以及景深信息经由3D图像输出接口125直接传输至3D显示设备100的处理器101,并通过处理器101进行上述合成两幅彩色图像以及形成3D图像等处理。
可选地,3D图像输出接口125还可通信连接到3D显示设备100的3D 处理装置130,从而可通过3D处理装置130进行上述合成彩色图像以及形成3D图像等处理。
在一些实施例中,第一彩色摄像头和第二彩色摄像头中至少一个是广角的彩色摄像头。
继续参考图2B,人眼追踪装置150集成在3D拍摄装置120内并且包括人眼追踪器151、人眼追踪图像处理器152和人眼追踪数据接口153。
人眼追踪器151包括黑白摄像头151a和景深获取装置151b。黑白摄像头151a被配置为拍摄黑白图像,景深获取装置151b被配置为获取景深信息。在3D拍摄装置120是前置的并且人眼追踪装置150集成在3D拍摄装置120内的情况下,人眼追踪装置150也是前置的。那么,黑白摄像头151a 的拍摄对象是观看者脸部,基于拍摄到的黑白图像识别出人脸或人眼,景深获取装置至少获取人眼的景深信息,也可以获取人脸的景深信息。
在一些实施例中,人眼追踪装置150的人眼追踪数据接口153通信连接至3D显示设备100的3D处理装置130,由此,3D处理装置130可以直接接收人眼追踪数据。在另一些实施例中,人眼追踪图像处理器152可通信连接至3D显示设备100的处理器101,由此人眼追踪数据可以从处理器 101通过人眼追踪数据接口153被传输至3D处理装置130。
在一些实施例中,人眼追踪装置150与摄像头单元121通信连接,由此可在拍摄3D图像时使用人眼追踪数据。
可选地,人眼追踪器151还设置有红外发射装置154。在黑白摄像头 151a工作时,红外发射装置154被配置为选择性地发射红外光,以在环境光线不足时、例如在夜间拍摄时起到补光作用,从而在环境光线弱的条件下也能拍摄能识别出人脸及人眼的黑白图像。
在一些实施例中,人眼追踪装置150或集成有人眼追踪装置的处理终端或显示设备可以配置为,在黑白摄像头工作时,基于接收到的光线感应信号,例如检测到光线感应信号低于给定阈值时,控制红外发射装置的开启或调节其大小。在一些实施例中,光线感应信号是从处理终端或显示设备集成的环境光传感器接收的。
可选地,红外发射装置154配置为发射波长大于或等于1.5微米的红外光,亦即长波红外光。与短波红外光相比,长波红外光穿透皮肤的能力较弱,因此对人眼的伤害较小。
拍摄到的黑白图像被传输至人眼追踪图像处理器152。示例性地,人眼追踪图像处理器配置为具有视觉识别功能、例如人脸识别功能,并且配置为基于黑白图像识别出人脸和人眼。基于识别出的人眼,能够得到观看者相对于显示设备的显示屏的视角,这将在下文中描述。
通过景深获取装置151b获取到的人眼或人脸的景深信息也被传输至人眼追踪图像处理器152。人眼追踪图像处理器152被配置为基于黑白图像和获取的景深信息确定人眼的空间位置,这将在下文中描述。
在一些实施例中,景深获取装置151b为结构光摄像头或TOF摄像头。
作为解释而非限制性地,TOF摄像头包括投射器和接收器,通过投射器将光脉冲到被观测对象上,然后通过接收器接收从被观测对象反射回的光脉冲,通过光脉冲的往返时间来计算被观测对象与摄像头的距离。
作为解释而非限制性地,结构光摄像头包括投影器和采集器,通过投影器将面结构光、例如编码结构光投射到被观测对象上,在被观测对象表面形成面结构光的畸变图像,然后通过采集器采集并解析畸变图像,从而还原被观测对象的三维轮廓、空间信息等。
在一些实施例中,黑白摄像头151a是广角的黑白摄像头。
在一些实施例中,景深获取装置151b和3D拍摄装置120的景深摄像头121c可以是相同的。在这种情况下,景深获取装置151b和景深摄像头 121c可以是同一个TOF摄像头或同一个结构光摄像头。在另一些实施例中,景深获取装置151b和景深摄像头121c可以是不同的。
在一些实施例中,人眼追踪装置150包括视角确定装置155,视角确定装置155被配置为计算观看者相对于3D显示设备或其显示屏或黑白摄像头的视角。
基于黑白摄像头151a拍摄的黑白图像,视角包括但不限于观看者的单眼与黑白摄像头镜头中心O/显示屏中心DLC的连线相对于黑白摄像头平面 MCP/显示屏平面DLP的倾斜角、双眼连线的中点(双眼中心)与黑白摄像头镜头中心O/显示屏中心DLC的连线相对于黑白摄像头平面MCP/显示屏平面DLP的倾斜角。
在此基础上,再结合景深获取装置151b获取的深度图像,除了上述倾斜角,视角还可以包括双眼连线相对于黑白摄像头平面MCP/显示屏平面 DLP的倾斜角、人脸所在平面HFP相对于黑白摄像头平面MCP/显示屏平面DLP的倾斜角等。其中,人脸所在平面HFP可通过提取若干人脸特征来确定,例如眼睛和耳朵、眼睛和嘴角、眼睛和下巴等。在本实用新型中,由于人眼追踪装置150及其黑白摄像头151a相对于3D显示设备或其显示屏为前置的,可将黑白摄像头平面MCP视作显示屏平面DLP。
作为解释而非限制性的,上文描述的线相对于面的倾斜角包括但不限于线与线在面内的投影的夹角、线在面内的投影与面的水平方向的夹角、线在面内的投影与面的竖直方向的夹角。其中,线与线在面内的投影的夹角可具有水平方向的分量和竖直方向的分量。
在一些实施例中,如图2B所示,视角确定装置155可集成设置在人眼追踪图像处理器152内。如上文所述,人眼追踪图像处理器152被配置为基于黑白图像和景深信息确定人眼的空间位置。在本实用新型中,人眼的空间位置包括但不限于上文描述的视角、人眼相对于黑白摄像头平面MCP/ 显示屏平面DLP的距离、人眼相对于人眼追踪装置或其黑白摄像头/3D显示设备或其显示屏的空间坐标等。在一些实施例中,人眼追踪装置150还可包括视角数据输出接口,视角数据输出接口被配置为输出由视角确定装置计算出的视角。
在另一些实施例中,视角确定装置可集成设置在3D处理装置内。
作为解释而非限制性地,通过黑白摄像头151a拍摄的包含了观看者左眼和右眼的黑白图像,可得知左眼和右眼在黑白摄像头151a的焦平面FP 内成像的X轴(水平方向)坐标和Y轴(竖直方向)坐标。如图3所示,以黑白摄像头151a的镜头中心O为原点,X轴和与X轴垂直的Y轴(未示出)形成黑白摄像头平面MCP,其与焦平面FP平行;黑白摄像头151a 的光轴方向为Z轴,Z轴也是深度方向。也就是说,在图3所示的XZ平面内,左眼和右眼在焦平面FP内成像的X轴坐标XR、XL是已知的;而且,黑白摄像头151a的焦距f是已知的;在这种情况下,可算出左眼和右眼与黑白摄像头镜头中心O的连线在XZ平面内的投影相对于X轴的倾斜角β,这将在下文中进一步描述。同理,在(未示出的)YZ平面内,左眼和右眼在焦平面FP内成像的Y轴坐标是已知的,再结合已知的焦距f,可算出左眼和右眼与黑白摄像头镜头中心O的连线在YZ平面内的投影相对于黑白摄像头平面MCP的Y轴的倾斜角。
作为解释而非限制性地,通过黑白摄像头151a拍摄的包含了观看者左眼和右眼的黑白图像以及景深获取装置151b获取的左眼和右眼的景深信息,可得知左眼和右眼在黑白摄像头151a的坐标系内的空间坐标(X,Y,Z),其中,Z轴坐标即为景深信息。据此,如图3所示,可算出左眼和右眼的连线在XZ平面内的投影与X轴的夹角α。同理,在(未示出的)YZ平面内,可算出左眼和右眼的连线在YZ平面内的投影与Y轴的夹角。
图3示意性地示出了利用黑白摄像头151a和景深获取装置151b(未示出)确定人眼的空间位置的几何关系模型的俯视图。其中,R和L分别表示观看者的右眼和左眼,XR和XL分别为观看者右眼R和左眼L在黑白摄像头151a的焦平面FP内成像的X轴坐标。在已知黑白摄像头151a的焦距 f、双眼在焦平面FP内的X轴坐标XR、XL的情况下,可以得出观看者的右眼R和左眼L与镜头中心O的连线在XZ平面内的投影相对于X轴的倾斜角βR和βL分别为:
Figure DEST_PATH_GDA0002657422520000121
Figure DEST_PATH_GDA0002657422520000122
在此基础上,通过(未示出的)景深获取装置151b获得的右眼R和左眼L的景深信息,可得知观看者右眼R和左眼L相对于黑白摄像头平面 MCP/显示屏平面DLP的距离DR和DL。据此,可以得出观看者双眼连线在XZ平面内的投影与X轴的夹角α以及瞳距P分别为:
Figure DEST_PATH_GDA0002657422520000123
Figure DEST_PATH_GDA0002657422520000124
上述计算方法和数学表示仅是示意性的,本领域技术人员可以想到其他计算方法和数学表示,以得到所需的人眼的空间位置。本领域技术人员也可以想到,必要时将黑白摄像头的坐标系与显示设备或其显示屏的坐标系进行变换。
在一些实施例中,当距离DR和DL不等并且夹角α不为零时,可认为观看者斜视显示屏平面DLP;当距离DR和DL相等并且视角α为零时,可认为观看者平视显示屏平面DLP。在另一些实施例中,可以针对夹角α设定阈值,在夹角α不超过阈值的情况下,可以认为观看者平视显示屏平面DLP。
在一些实施例中,人眼追踪装置150包括人眼追踪数据接口153,被配置为传输人眼空间位置信息,包括但不限于如上文描述的倾斜角、夹角、空间坐标等。利用人眼空间位置信息可向观看者提供有针对性的或定制化的3D显示画面。
作为解释而非限制性地,视角、例如观看者双眼中心与显示屏中心DLC 的连线相对于水平方向(X轴)或竖直方向(Y轴)的夹角通过人眼追踪数据接口153传输至3D处理装置130。3D处理装置130基于接收到的视角随动地生成与视角相符合的3D显示画面,从而能够向观看者呈现从不同角度观察的显示对象。
示例性地,基于观看者双眼中心与显示屏中心DLC的连线相对于水平方向(X轴)的夹角能够呈现水平方向上的随动效果;基于观看者双眼中心与显示屏中心DLC的连线相对于竖直方向(Y轴)的夹角能够呈现竖直方向上的随动效果。
作为解释而非限制性地,观看者的左眼和右眼的空间坐标通过人眼追踪数据接口153传输至3D处理装置130。3D处理装置130基于接收到的空间坐标确定观看者双眼所处的且由多视点裸眼3D显示屏110提供的视点,并基于3D信号的视频帧渲染相应的子像素。
示例性地,当基于人眼空间位置信息确定观看者的双眼各对应一个视点时,基于3D信号的视频帧渲染各复合像素的多个复合子像素中与这两个视点相对应的子像素,也可额外地渲染各复合像素的多个复合子像素中与这两个视点相邻的视点相对应的子像素。
示例性地,当基于人眼空间位置信息确定观看者的双眼各分别位于两个视点之间时,基于3D信号的视频帧渲染各复合像素的多个复合子像素中与这四个视点相对应的子像素。
示例性地,当基于人眼空间位置信息确定观看者双眼中至少一只眼睛产生了运动时,可基于3D信号的下一视频帧渲染各复合像素的多个复合子像素中与新的预定的视点对应的子像素。
示例性地,当基于人眼空间位置信息确定有一个以上观看者时,可基于3D信号的视频帧渲染各复合像素的多个复合子像素与各观看者双眼分别所处的视点相对应的子像素。
在一些实施例中,分别确定观看者的视角和视点位置,并据此提供随视角和视点位置变化的3D显示画面,提升观看体验。
在另一些实施例中,人眼空间位置信息也可被直接传输至3D显示设备100的处理器101,3D处理装置130通过人眼追踪数据接口153从处理器 101接收/读取人眼空间位置信息。
在一些实施例中,黑白摄像头151a配置为拍摄出黑白图像序列,其包括按照时间前后排列的多幅黑白图像。
在一些实施例中,人眼追踪图像处理器152包括缓存器156和比较器 157。缓存器156被配置为缓存黑白图像序列中分别按照时间前后排列的多幅黑白图像。比较器157被配置为比较黑白图像序列中按照时间前后拍摄的多幅黑白图像。通过比较,例如可以判断人眼的空间位置是否变化或者判断人眼是否还处于观看范围内等。
在一些实施例中,人眼追踪图像处理器152还包括判决器(未示出),被配置为基于比较器的比较结果,在黑白图像序列中的当前黑白图像中未识别到人眼的存在且在之前或之后的黑白图像中识别到人眼的存在时,基于之前或之后的黑白图像确定的人眼空间位置信息作为当前的人眼空间位置信息。这种情况例如为观看者短暂转动头部。在这种情况下,有可能短暂地无法识别到观看者的脸部及其眼睛。
示例性地,在缓存器156的缓存段内存有黑白图像序列中的若干黑白图像。在某些情况下,无法从所缓存的当前黑白图像中识别出人脸及人眼,然而可以从所缓存的之前或之后的黑白图像中识别出人脸及人眼。在这种情况下,可以将基于在当前黑白图像之后的、也就是更晚拍摄的黑白图像确定的人眼空间位置信息作为当前的人眼空间位置信息;也可以将基于在当前黑白图像之前的、也就是更早拍摄黑白图像确定的人眼空间位置信息作为当前的人眼空间位置信息。此外,也可以对基于上述之前和之后的能识别出人脸及人眼的黑白图像确定的人眼空间位置信息取平均值、进行数据拟合、进行插值或以其他方法处理,并且将得到的结果作为当前的人眼空间位置信息。
在一些实施例中,黑白摄像头151a被配置为以24帧/秒或以上的频率拍摄黑白图像序列。示例性地,以30帧/秒的频率拍摄。示例性地,以60 帧/秒的频率拍摄。
在一些实施例中,黑白摄像头151a被配置为以与3D显示设备的显示屏刷新频率相同的频率进行拍摄。
本文所披露的实施例中,所揭露产品(包括但不限于装置、设备等),可以通过其它的方式实现。例如,以上所描述的装置或设备实施例仅仅是示意性的,例如,单元的划分,可以仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例。另外,在本实用新型中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。

Claims (11)

1.一种3D显示设备,其特征在于,包括:多视点裸眼3D显示屏,包括多个复合像素,所述多个复合像素中的每个复合像素包括多个复合子像素,所述多个复合子像素中的每个复合子像素由对应于多个视点的多个子像素构成;
人眼追踪装置,被配置为确定观看者人眼的空间位置;以及
3D处理装置,连接至所述多视点裸眼3D显示屏、被配置为根据所述观看者人眼的空间位置确定视点,并且基于3D信号渲染与所述视点对应的子像素;
其中,所述人眼追踪装置通信连接至所述3D处理装置,并且所述人眼追踪装置包括:
人眼追踪器,包括被配置为拍摄观看者的人脸的黑白图像的黑白摄像头和被配置为获取所述人脸的景深信息的景深获取装置;
人眼追踪图像处理器,分别连接至所述黑白摄像头和景深获取装置,并且被配置为基于所述黑白图像和所述景深信息确定人眼的空间位置。
2.根据权利要求1所述的3D显示设备,其特征在于,所述人眼追踪图像处理器还被配置为基于所述黑白图像识别所述人眼的存在。
3.根据权利要求1所述的3D显示设备,其特征在于,包括人眼追踪数据接口,被配置为传输包含所述人眼的空间位置的人眼空间位置信息。
4.根据权利要求1所述的3D显示设备,其特征在于,所述景深获取装置为结构光摄像头或TOF摄像头。
5.根据权利要求1所述的3D显示设备,其特征在于,还包括视角确定装置,被配置为计算所述观看者相对于3D显示设备的视角。
6.根据权利要求1至5任一项所述的3D显示设备,其特征在于,所述黑白摄像头被配置为拍摄黑白图像序列。
7.根据权利要求6所述的3D显示设备,其特征在于,所述人眼追踪图像处理器包括:
缓存器,配置为缓存所述黑白图像序列中多幅黑白图像;
比较器,配置为比较所述黑白图像序列中的前后多幅黑白图像;
判决器,被配置为,当所述比较器通过比较在所述黑白图像序列中的当前黑白图像中未识别到人眼的存在且在之前或之后的黑白图像中识别到人眼的存在时,将基于所述之前或之后的黑白图像和获取的景深信息确定的人眼空间位置信息作为当前的人眼空间位置信息。
8.根据权利要求1所述的3D显示设备,其特征在于,所述3D处理装置与所述人眼追踪装置通过人眼追踪数据接口通信连接。
9.根据权利要求1所述的3D显示设备,其特征在于,还包括:
3D拍摄装置,被配置为采集3D图像,
所述3D拍摄装置包括景深摄像头和至少两个彩色摄像头。
10.根据权利要求9所述的3D显示设备,其特征在于,所述人眼追踪装置与所述3D拍摄装置集成设置。
11.根据权利要求9所述的3D显示设备,其特征在于,所述3D拍摄装置前置于所述3D显示设备。
CN201922163066.3U 2019-12-05 2019-12-05 3d显示设备 Active CN214756700U (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201922163066.3U CN214756700U (zh) 2019-12-05 2019-12-05 3d显示设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201922163066.3U CN214756700U (zh) 2019-12-05 2019-12-05 3d显示设备

Publications (1)

Publication Number Publication Date
CN214756700U true CN214756700U (zh) 2021-11-16

Family

ID=78573314

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201922163066.3U Active CN214756700U (zh) 2019-12-05 2019-12-05 3d显示设备

Country Status (1)

Country Link
CN (1) CN214756700U (zh)

Similar Documents

Publication Publication Date Title
CN211128024U (zh) 3d显示设备
CN112929639A (zh) 人眼追踪装置、方法及3d显示设备、方法和终端
US10838206B2 (en) Head-mounted display for virtual and mixed reality with inside-out positional, user body and environment tracking
JP5014979B2 (ja) 個人用電子機器の3次元情報取得及び表示システム
EP1168852B1 (en) Stereoscopic TV apparatus
EP2445221B1 (en) Correcting frame-to-frame image changes due to motion for three dimensional (3-d) persistent observations
CN102098524B (zh) 跟踪式立体显示设备及跟踪式立体显示方法
WO2021110038A1 (zh) 3d显示设备、3d图像显示方法
CN108093244B (zh) 一种远程随动立体视觉系统
CN101636747A (zh) 二维/三维数字信息获取和显示设备
US9420263B2 (en) Information processor and information processing method
JPH11102438A (ja) 距離画像生成装置及び画像表示装置
TW201831947A (zh) 頭戴式顯示器、其視野校正方法以及混合實境顯示系統
JP4432462B2 (ja) 撮像装置及び方法、撮像システム
WO2018032841A1 (zh) 绘制三维图像的方法及其设备、系统
CN112929638B (zh) 眼部定位方法、装置及多视点裸眼3d显示方法、设备
CN211531217U (zh) 3d终端
CN108572450B (zh) 头戴式显示器、其视野校正方法以及混合现实显示系统
CN214756700U (zh) 3d显示设备
JP2842735B2 (ja) 複数視点3次元画像入力装置、画像合成装置、及びその画像出力装置
US11388391B2 (en) Head-mounted display having an image sensor array
JP2005174148A (ja) 撮像装置及び方法、撮像システム
JPH08116556A (ja) 画像処理方法および装置
WO2019147237A1 (en) Augmented reality display
KR102592092B1 (ko) 사용자의 시점에 따라 패턴을 가변하는 모노크롬패널을 포함하는 영상출력장치에 의한 입체영상의 출력방법

Legal Events

Date Code Title Description
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20220727

Address after: 100055 1-1808c, 15th floor, building 1, 168 Guang'anmenwai street, Xicheng District, Beijing

Patentee after: Beijing Xinhai vision 3D Technology Co.,Ltd.

Address before: 100055 1-1808c, 15th floor, building 1, 168 Guang'anmenwai street, Xicheng District, Beijing

Patentee before: Beijing Xinhai vision 3D Technology Co.,Ltd.

Patentee before: Vision technology venture capital Pte. Ltd.

Patentee before: Diao Honghao

TR01 Transfer of patent right