CN112584130A - 实现3d显示的方法、装置及3d显示终端 - Google Patents

实现3d显示的方法、装置及3d显示终端 Download PDF

Info

Publication number
CN112584130A
CN112584130A CN201910948119.4A CN201910948119A CN112584130A CN 112584130 A CN112584130 A CN 112584130A CN 201910948119 A CN201910948119 A CN 201910948119A CN 112584130 A CN112584130 A CN 112584130A
Authority
CN
China
Prior art keywords
image
display
eyeball
control chip
main control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910948119.4A
Other languages
English (en)
Inventor
不公告发明人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vision Technology Venture Capital Pte Ltd
Beijing Ivisual 3D Technology Co Ltd
Original Assignee
Vision Technology Venture Capital Pte Ltd
Beijing Ivisual 3D Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vision Technology Venture Capital Pte Ltd, Beijing Ivisual 3D Technology Co Ltd filed Critical Vision Technology Venture Capital Pte Ltd
Priority to CN201910948119.4A priority Critical patent/CN112584130A/zh
Priority to EP20870894.1A priority patent/EP4033758A4/en
Priority to US17/764,980 priority patent/US20220417493A1/en
Priority to PCT/CN2020/118471 priority patent/WO2021063321A1/zh
Publication of CN112584130A publication Critical patent/CN112584130A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/133Equalising the characteristics of different image components, e.g. their average brightness or colour balance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

本申请涉及3D技术领域,公开一种实现3D显示的方法,包括:通过相对于3D显示终端的主控芯片独立运转的眼球位置处理器获取观看者的眼球位置并发送给相对于主控芯片独立运转的3D显示模组;通过3D显示模组,根据待显示图像以及观看者的眼球位置生成3D显示内容。本申请通过相对于3D显示终端的主控芯片独立运转的眼球位置处理器直接获取观看者的眼球位置,而不由3D显示终端的主控芯片进行相关处理,以避免主控芯片因进行相关处理而导致的资源大量占用,降低了对主控芯片的依赖性,提高了图像处理的及时性。本申请还公开一种实现3D显示的装置及3D显示终端。

Description

实现3D显示的方法、装置及3D显示终端
技术领域
本申请涉及3D技术领域,例如涉及一种实现3D显示的方法、装置及3D显示终端。
背景技术
目前,越来越多的终端上设置有摄像头,以获取拍摄对象的图像并将该图像发送给终端的主控芯片进行处理以获取图像中的信息。
在实现本公开实施例的过程中,发现相关技术中至少存在如下问题:
由于将摄像头获取的图像发送给终端的主控芯片进行处理以获取图像中的信息,因此大量占用主控芯片的资源;并且,需要提前启动主控芯片、加载操作系统,导致对主控芯片的依赖性强,对摄像头获取的图像处理不及时。
发明内容
为了对披露的实施例的一些方面有基本的理解,下面给出了简单的概括。该概括不是泛泛评述,也不是要确定关键/重要组成元素或描绘这些实施例的保护范围,而是作为后面的详细说明的序言。
本公开实施例提供了一种实现3D显示的方法、装置及3D显示终端,以解决大量占用主控芯片的资源,对主控芯片的依赖性强,对摄像头获取的图像处理不及时的技术问题。
在一些实施例中,实现3D显示的方法包括:
通过相对于3D显示终端的主控芯片独立运转的眼球位置处理器获取观看者的眼球位置,将观看者的眼球位置发送给相对于主控芯片独立运转的3D显示模组;
通过3D显示模组,根据待显示图像以及观看者的眼球位置生成3D显示内容。
在一些实施例中,通过眼球位置处理器获取观看者的眼球位置,可以包括:
通过设置于主控芯片以外的位置且受控于主控芯片以外的器件的眼球位置处理器,获取观看者的眼球位置。
在一些实施例中,通过眼球位置处理器获取观看者的眼球位置,可以包括:
通过由主控芯片以外的器件触发或启动的眼球位置处理器,获取观看者的眼球位置。
在一些实施例中,还可以获取包括观看者的眼球位置的拍摄对象的图像。
在一些实施例中,获取拍摄对象的图像,可以包括:
通过摄像头模组,获取拍摄对象的图像。
在一些实施例中,通过摄像头模组,获取拍摄对象的图像,可以包括:
通过至少两个摄像头,获取拍摄对象的图像。
在一些实施例中,通过至少两个摄像头,获取拍摄对象的图像,可以包括:
通过至少两个黑白摄像头,获取拍摄对象的黑白图像。
在一些实施例中,获取观看者的眼球位置,可以包括:
根据拍摄对象的图像中包含的眼球平面位置信息得到眼球深度信息,从而获取观看者眼球的眼球坐标。
在一些实施例中,通过3D显示模组,根据待显示图像以及眼球位置生成3D显示内容,可以包括:
通过设置于主控芯片以外的位置且受控于主控芯片以外的器件的3D显示模组,根据待显示图像以及眼球位置生成3D显示内容。
在一些实施例中,通过3D显示模组,根据待显示图像以及眼球位置生成3D显示内容,可以包括:
通过由主控芯片以外的器件触发或启动的3D显示模组,根据待显示图像以及眼球位置生成3D显示内容。
在一些实施例中,通过3D显示模组,根据待显示图像以及眼球位置生成3D显示内容,可以包括:
通过3D显示模组,将待显示图像渲染为左眼图像和右眼图像,根据眼球位置对左眼图像和右眼图像进行像素分配。
在一些实施例中,根据眼球位置对左眼图像和右眼图像进行像素分配,可以包括:
将左眼图像和右眼图像分配到3D显示终端的3D显示屏幕的与眼球位置对应的像素上。
在一些实施例中,还可以通过3D显示终端的3D显示屏幕显示3D显示内容。
在一些实施例中,实现3D显示的装置包括处理器和存储有程序指令的存储器,处理器被配置为在执行程序指令时,执行上述的实现3D显示的方法。
在一些实施例中,实现3D显示的装置包括:
相对于3D显示终端的主控芯片独立运转的眼球位置处理器,被配置为获取观看者的眼球位置,将观看者的眼球位置发送给相对于主控芯片独立运转的3D显示模组;
3D显示模组,被配置为根据待显示图像以及观看者的眼球位置生成3D显示内容。
在一些实施例中,眼球位置处理器可以设置于主控芯片以外的位置,且被配置为受控于主控芯片以外的器件。
在一些实施例中,眼球位置处理器可以被配置为由主控芯片以外的器件触发或启动。
在一些实施例中,实现3D显示的装置还可以包括:图像获取装置,被配置为获取包括观看者的眼球位置的拍摄对象的图像。
在一些实施例中,图像获取装置,可以包括:
摄像头模组,被配置为获取拍摄对象的图像。
在一些实施例中,摄像头模组,可以包括:
至少两个摄像头,被配置为获取拍摄对象的图像。
在一些实施例中,上述的至少两个摄像头,可以包括:
至少两个黑白摄像头,被配置为获取拍摄对象的黑白图像。
在一些实施例中,上述的至少两个黑白摄像头可以采用性能指标相同的光学镜头和传感器芯片。
在一些实施例中,眼球位置处理器,可以被配置为:
根据拍摄对象的图像中包含的眼球平面位置信息得到眼球深度信息,从而获取观看者眼球的眼球坐标。
在一些实施例中,3D显示模组可以设置于主控芯片以外的位置,且被配置为受控于主控芯片以外的器件。
在一些实施例中,3D显示模组可以被配置为由主控芯片以外的器件触发或启动。
在一些实施例中,3D显示模组,可以被配置为:
将待显示图像渲染为左眼图像和右眼图像,根据眼球位置对左眼图像和右眼图像进行像素分配。
在一些实施例中,3D显示模组,可以被配置为:
将左眼图像和右眼图像分配到3D显示终端的3D显示屏幕的与眼球位置对应的像素上。
在一些实施例中,3D显示模组可以包括3D处理芯片,被配置为:根据待显示图像以及观看者的眼球位置生成3D显示内容。
在一些实施例中,实现3D显示的装置还可以包括:
3D显示屏幕,被配置为显示3D显示内容。
在一些实施例中,3D显示终端包括上述的实现3D显示的装置。
本公开实施例提供的实现3D显示的方法、装置及3D显示终端,可以实现以下技术效果:
通过相对于3D显示终端的主控芯片独立运转的眼球位置处理器直接获取观看者的眼球位置,而不由3D显示终端的主控芯片进行相关处理,以避免主控芯片因进行相关处理而导致的资源大量占用,降低了对主控芯片的依赖性,提高了图像处理的及时性。
以上的总体描述和下文中的描述仅是示例性和解释性的,不用于限制本申请。
附图说明
一个或多个实施例通过与之对应的附图进行示例性说明,这些示例性说明和附图并不构成对实施例的限定,附图中具有相同参考数字标号的元件示为类似的元件,附图不构成比例限制,并且其中:
图1是本公开实施例提供的实现3D显示的方法流程图;
图2是本公开实施例提供的实现3D显示的又一方法流程图;
图3是本公开实施例提供的实现3D显示的装置结构图;
图4是本公开实施例提供的实现3D显示的又一装置结构图;
图5是本公开实施例提供的实现3D显示的又一装置结构图;
图6是本公开实施例提供的实现3D显示的又一装置结构图;
图7是本公开实施例提供的实现3D显示的又一装置结构图;
图8是本公开实施例提供的实现3D显示的又一装置结构图;
图9是本公开实施例提供的实现3D显示的又一装置结构图;
图10是本公开实施例提供的3D显示终端的装置结构图。
附图标记:
300:实现3D显示的装置;310:处理器;320:存储器;330:通信接口;340:总线;400:图像获取装置;401:摄像头模组;402:3D显示模组;4021:3D处理芯片;403:眼球位置处理器;4011:第一黑白摄像头;4012:第二黑白摄像头;404:3D显示屏幕;500:3D显示终端。
具体实施方式
为了能够更加详尽地了解本公开实施例的特点与技术内容,下面结合附图对本公开实施例的实现进行详细阐述,所附附图仅供参考说明之用,并非用来限定本公开实施例。在以下的技术描述中,为方便解释起见,通过多个细节以提供对所披露实施例的充分理解。然而,在没有这些细节的情况下,一个或多个实施例仍然可以实施。在其它情况下,为简化附图,熟知的结构和装置可以简化展示。
参见图1,本公开实施例提供了一种实现3D显示的方法,包括:
步骤101:通过相对于3D显示终端的主控芯片独立运转的眼球位置处理器获取观看者的眼球位置,将观看者的眼球位置发送给相对于主控芯片独立运转的3D显示模组;
步骤102:通过3D显示模组,根据待显示图像以及观看者的眼球位置生成3D显示内容。
在一些实施例中,通过眼球位置处理器获取观看者的眼球位置,可以包括:
通过设置于主控芯片以外的位置且受控于主控芯片以外的器件的眼球位置处理器,获取观看者的眼球位置。
可选地,眼球位置处理器可以设置于3D显示终端的机身内部。可选地,眼球位置处理器设置于3D显示终端的机身,且位于机身的内部。
在一些实施例中,通过眼球位置处理器获取观看者的眼球位置,可以包括:
通过设置于主控芯片且受控于主控芯片以外的器件的眼球位置处理器,获取观看者的眼球位置。
在一些实施例中,无论设置于主控芯片还是设置于主控芯片以外的位置,眼球位置处理器均可受控于主控芯片以外的器件。
在一些实施例中,眼球位置处理器也可以根据实际应用场景、预设策略等受控于3D显示终端的3D显示屏幕或其他器件。
在一些实施例中,通过眼球位置处理器获取观看者的眼球位置,可以包括:
通过由主控芯片以外的器件触发或启动的眼球位置处理器,获取观看者的眼球位置。
在一些实施例中,还可以获取包括观看者的眼球位置的拍摄对象的图像。
在一些实施例中,获取拍摄对象的图像,可以包括:
通过摄像头模组,获取拍摄对象的图像。
在一些实施例中,通过摄像头模组获取拍摄对象的图像,可以包括:
通过至少两个摄像头,获取拍摄对象的图像。
在一些实施例中,通过至少两个摄像头,获取拍摄对象的图像,可以包括:
通过至少两个黑白摄像头,获取拍摄对象的黑白图像。
在一些实施例中,眼球位置处理器可受控于上述的至少两个黑白摄像头或包含该至少两个黑白摄像头的摄像头模组。
可选地,可以通过上述的至少两个黑白摄像头、摄像头模组或3D显示屏幕等其他器件触发或启动眼球位置处理器。触发或启动眼球位置处理器的方式可以是多种多样的,例如:以电脉冲、数字信号等方式触发或启动眼球位置处理器。
在一些实施例中,可以由上述的至少两个黑白摄像头、摄像头模组或3D显示屏幕向眼球位置处理器发送电脉冲、数字信号等,眼球位置处理器接收上述电脉冲、数字信号之后被触发或启动。
在一些实施例中,根据黑白图像获取观看者的眼球位置,可以包括:
根据拍摄对象的图像中包含的眼球平面位置信息得到眼球深度信息,从而获取观看者眼球的眼球坐标。
可选地,观看者眼球的眼球坐标可以为观看者眼球的空间坐标。
在一些实施例中,黑白摄像头获得的黑白图像中包含眼球平面位置信息。可选地,对具有不同拍摄角度的至少两个黑白摄像头获得的相应至少两个黑白图像进行合成等处理后,获得的黑白图像中所包含的眼球平面位置信息中包含眼球深度信息,进而可以根据黑白图像中包含的眼球平面位置信息得到眼球深度信息,并将眼球深度信息转化为观看者眼球的眼球坐标。
在一些实施例中,通过3D显示模组,根据待显示图像以及眼球位置生成3D显示内容,可以包括:
通过设置于主控芯片以外的位置且受控于主控芯片以外的器件的3D显示模组,根据待显示图像以及眼球位置生成3D显示内容。
可选地,3D显示模组可以设置于3D显示终端的机身内部。可选地,3D显示模组设置于3D显示终端的机身,且位于机身的内部。
在一些实施例中,也可以通过设置于主控芯片且受控于主控芯片以外的器件的3D显示模组,根据待显示图像以及眼球位置生成3D显示内容。
在一些实施例中,无论设置于主控芯片还是设置于主控芯片以外的位置,3D显示模组均可受控于主控芯片以外的器件。可选地,3D显示模组可受控于上述的至少两个黑白摄像头或包含该至少两个黑白摄像头的摄像头模组。
在一些实施例中,3D显示模组也可以根据实际应用场景、预设策略等受控于3D显示终端的3D显示屏幕或其他器件。
在一些实施例中,通过3D显示模组,根据待显示图像以及眼球位置生成3D显示内容,可以包括:
通过由主控芯片以外的器件触发或启动的3D显示模组,根据待显示图像以及眼球位置生成3D显示内容。
可选地,可以通过上述的至少两个黑白摄像头、摄像头模组或3D显示屏幕等其他器件触发或启动3D显示模组。触发或启动3D显示模组的方式可以是多种多样的,例如:以电脉冲、数字信号等方式触发或启动3D显示模组。
在一些实施例中,可以由上述的至少两个黑白摄像头、摄像头模组或3D显示屏幕向3D显示模组发送电脉冲、数字信号等,3D显示模组接收上述电脉冲、数字信号之后被触发或启动。
在一些实施例中,摄像头模组也可以包括至少一个彩色摄像头。可选地,摄像头模组也可以包括至少一个飞行时间(TOF)摄像头。无论包括黑白摄像头、彩色摄像头还是TOF摄像头,都可以应用摄像头模组中包括的至少两个摄像头获取包括观看者的眼球位置的拍摄对象的图像。
参见图2,在一些实施例中,通过3D显示模组,根据待显示图像以及眼球位置生成3D显示内容,可以包括:
步骤201:通过3D显示模组,将待显示图像渲染为左眼图像和右眼图像;
步骤202:根据眼球位置对左眼图像和右眼图像进行像素分配。
在一些实施例中,根据眼球位置对左眼图像和右眼图像进行像素分配,可以包括:将左眼图像和右眼图像分配到3D显示终端的3D显示屏幕的与眼球位置对应的像素上。
在一些实施例中,可以在3D显示终端的多视点中选择与眼球位置匹配的视点,将待显示图像渲染为与该视点的角度相匹配的左眼图像和右眼图像,并根据该视点的角度将左眼图像和右眼图像分配到3D显示终端的3D显示屏幕的相应像素,以支持3D显示。
可选地,眼球位置可以为眼球坐标。
在一些实施例中,实现3D显示的方法还可以包括:通过3D显示终端的3D显示屏幕显示3D显示内容。
本公开实施例提供了一种实现3D显示的装置,包括处理器和存储有程序指令的存储器,处理器被配置为在执行程序指令时,执行上述的实现3D显示的方法。
在一些实施例中,上述的实现3D显示的装置如图3所示,包括:
处理器(processor)310和存储器(memory)320,还可以包括通信接口(Communication Interface)330和总线340。其中,处理器310、通信接口330、存储器320可以通过总线340完成相互间的通信。通信接口330可以用于信息传输。处理器310可以调用存储器320中的逻辑指令,以执行上述实施例的实现3D显示的方法。
此外,上述的存储器320中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。
存储器320作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序,如本公开实施例中的方法对应的程序指令/模块。处理器310通过运行存储在存储器320中的程序指令/模块,从而执行功能应用以及数据处理,即实现上述方法实施例中的实现3D显示的方法。
存储器320可包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据终端设备的使用所创建的数据等。此外,存储器320可以包括高速随机存取存储器,还可以包括非易失性存储器。
参见图4,本公开实施例提供了一种实现3D显示的装置,包括:
相对于3D显示终端的主控芯片独立运转的眼球位置处理器403,被配置为获取观看者的眼球位置,将观看者的眼球位置发送给相对于主控芯片独立运转的3D显示模组402;
3D显示模组402,被配置为根据待显示图像以及观看者的眼球位置生成3D显示内容。
在一些实施例中,眼球位置处理器403可以设置于主控芯片以外的位置,且被配置为受控于主控芯片以外的器件。
可选地,眼球位置处理器403可以设置于3D显示终端的机身内部。可选地,眼球位置处理器403设置于3D显示终端的机身,且位于机身的内部。
在一些实施例中,眼球位置处理器403可以设置于主控芯片,且被配置为受控于主控芯片以外的器件。
在一些实施例中,无论设置于主控芯片还是设置于主控芯片以外的位置,眼球位置处理器403均可受控于主控芯片以外的器件。
在一些实施例中,眼球位置处理器403也可以根据实际应用场景、预设策略等受控于3D显示终端的3D显示屏幕或其他器件。
在一些实施例中,眼球位置处理器403可以被配置为由主控芯片以外的器件触发或启动。
参见图5,在一些实施例中,实现3D显示的装置还可以包括图像获取装400,被配置为获取包括观看者的眼球位置的拍摄对象的图像。
参见图6,在一些实施例中,图像获取装置400可以包括摄像头模组401,被配置为获取拍摄对象的图像。
参见图7,在一些实施例中,摄像头模组401可以包括至少两个摄像头,被配置为获取拍摄对象的图像。可选地,上述的至少两个摄像头可以包括至少两个黑白摄像头:第一黑白摄像头4011、第二黑白摄像头4012,分别被配置为获取拍摄对象的黑白图像。
在一些实施例中,上述的至少两个黑白摄像头可以采用性能指标相同的光学镜头和传感器芯片。
在一些实施例中,眼球位置处理器403可受控于上述的至少两个黑白摄像头或包含该至少两个黑白摄像头的摄像头模组401。
可选地,可以通过上述的至少两个黑白摄像头、摄像头模组401或3D显示屏幕等其他器件触发或启动眼球位置处理器403。触发或启动眼球位置处理器403的方式可以是多种多样的,例如:以电脉冲、数字信号等方式触发或启动眼球位置处理器403。
在一些实施例中,可以由上述的至少两个黑白摄像头、摄像头模组401或3D显示屏幕向眼球位置处理器403发送电脉冲、数字信号等,眼球位置处理器403接收上述电脉冲、数字信号之后被触发或启动。
在一些实施例中,眼球位置处理器403可以被配置为:
根据拍摄对象的图像中包含的眼球平面位置信息得到眼球深度信息,从而获取观看者眼球的眼球坐标。
可选地,观看者眼球的眼球坐标可以为观看者眼球的空间坐标。
在一些实施例中,黑白摄像头获得的黑白图像中包含眼球平面位置信息。可选地,眼球位置处理器403对具有不同拍摄角度的至少两个黑白摄像头获得的相应至少两个黑白图像进行合成等处理后,获得的黑白图像中所包含的眼球平面位置信息中包含眼球深度信息,进而可以根据黑白图像中包含的眼球平面位置信息得到眼球深度信息,并将眼球深度信息转化为观看者眼球的眼球坐标。
在一些实施例中,3D显示模组402可以设置于主控芯片以外的位置,且被配置为受控于主控芯片以外的器件。
可选地,3D显示模组402可以设置于3D显示终端的机身内部。可选地,3D显示模组402设置于3D显示终端的机身,且位于机身的内部。
在一些实施例中,3D显示模组402也可以设置于主控芯片,且被配置为受控于主控芯片以外的器件。
在一些实施例中,无论设置于主控芯片还是设置于主控芯片以外的位置,3D显示模组402均可受控于主控芯片以外的器件。可选地,3D显示模组402可受控于上述的至少两个黑白摄像头或包含该至少两个黑白摄像头的摄像头模组401。
在一些实施例中,3D显示模组402也可以根据实际应用场景、预设策略等受控于3D显示终端的3D显示屏幕或其他器件。
在一些实施例中,3D显示模组402可以被配置为由主控芯片以外的器件触发或启动。
可选地,可以通过上述的至少两个黑白摄像头、摄像头模组401或3D显示屏幕等其他器件触发或启动3D显示模组402。触发或启动3D显示模组402的方式可以是多种多样的,例如:以电脉冲、数字信号等方式触发或启动3D显示模组402。
在一些实施例中,可以由上述的至少两个黑白摄像头、摄像头模组401或3D显示屏幕向3D显示模组402发送电脉冲、数字信号等,3D显示模组402接收上述电脉冲、数字信号之后被触发或启动。
在一些实施例中,摄像头模组401也可以包括至少一个彩色摄像头。可选地,摄像头模组也可以包括至少一个TOF摄像头。无论包括黑白摄像头、彩色摄像头还是TOF摄像头,都可以应用摄像头模组401中包括的至少两个摄像头获取包括观看者的眼球位置的拍摄对象的图像。
在一些实施例中,3D显示模组402可以被配置为:
将待显示图像渲染为左眼图像和右眼图像,根据眼球位置对左眼图像和右眼图像进行像素分配。
在一些实施例中,3D显示模组402可以被配置为:
将左眼图像和右眼图像分配到3D显示终端的3D显示屏幕的与眼球位置对应的像素上。
在一些实施例中,3D显示模组402可以被配置为:在3D显示终端的多视点中选择与眼球位置匹配的视点,将待显示图像渲染为与该视点的角度相匹配的左眼图像和右眼图像,并根据该视点的角度将左眼图像和右眼图像分配到3D显示终端的3D显示屏幕的相应像素,以支持3D显示。
可选地,眼球位置可以为眼球坐标。
参见图8,在一些实施例中,3D显示模组402可以包括3D处理芯片4021,被配置为:根据待显示图像以及观看者的眼球位置生成3D显示内容。
参见图9,在一些实施例中,实现3D显示的装置还可以包括:
3D显示屏幕404,被配置为显示3D显示内容。
可选地,3D显示屏幕404可以与3D显示模组402相连,以接收待显示图像实现3D显示。可选地,3D显示屏幕404也可以与眼球位置处理器403相连,以接收眼球位置处理器403获取的观看者的眼球位置,以支持3D显示。
在一些实施例中,眼球位置处理器403可以是基于CPU、现场可编程门阵列(FPGA)或专用集成电路(ASIC)等高速运算芯片的3D图像处理器。可选地,眼球位置处理器403可以以芯片、单片机等形式呈现。
参见图10,本公开实施例提供了一种3D显示终端500,包括上述的实现3D显示的装置300。
在一些实施例中,3D显示终端500可以设置于3D显示器中。可选地,3D显示器还可以包括用于支持3D显示器正常运转的构件,例如:背光模组、主板、背板等构件中的至少之一。
上述的本公开实施例提供的实现3D显示的方法、装置及3D显示终端,通过相对于3D显示终端的主控芯片独立运转的眼球位置处理器直接获取观看者的眼球位置,而不由3D显示终端的主控芯片进行相关处理,以避免主控芯片因进行相关处理而导致的资源大量占用,降低了对主控芯片的依赖性,提高了图像处理的及时性。
本公开实施例还提供了一种计算机可读存储介质,存储有计算机可执行指令,该计算机可执行指令设置为执行上述的实现3D显示的方法。
本公开实施例还提供了一种计算机程序产品,包括存储在计算机可读存储介质上的计算机程序,该计算机程序包括程序指令,当该程序指令被计算机执行时,使上述计算机执行上述的实现3D显示的方法。
上述的计算机可读存储介质可以是暂态计算机可读存储介质,也可以是非暂态计算机可读存储介质。
本公开实施例提供的计算机可读存储介质、计算机程序产品,通过相对于3D显示终端的主控芯片独立运转的眼球位置处理器直接获取观看者的眼球位置,而不由3D显示终端的主控芯片进行相关处理,以避免主控芯片因进行相关处理而导致的资源大量占用,降低了对主控芯片的依赖性,提高了图像处理的及时性。
在一些实施例中,上述的3D技术可以包括裸眼3D技术,即:上述的实现3D显示的方法、装置及3D显示终端可以实现与裸眼3D相关的功能,例如:裸眼3D图像的拍摄、显示等。
本公开实施例的技术方案可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括一个或多个指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本公开实施例的方法的全部或部分步骤。而前述的存储介质可以是非暂态存储介质,包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等多种可以存储程序代码的介质,也可以是暂态存储介质。
以上描述和附图充分地示出了本公开的实施例,以使本领域技术人员能够实践它们。其他实施例可以包括结构的、逻辑的、电气的、过程的以及其他的改变。实施例仅代表可能的变化。除非明确要求,否则单独的部件和功能是可选的,并且操作的顺序可以变化。一些实施例的部分和特征可以被包括在或替换其他实施例的部分和特征。本公开实施例的范围包括权利要求书的整个范围,以及权利要求书的所有可获得的等同物。当用于本申请中时,虽然术语“第一”、“第二”等可能会在本申请中使用以描述各元件,但这些元件不应受到这些术语的限制。这些术语仅用于将一个元件与另一个元件区别开。比如,在不改变描述的含义的情况下,第一元件可以叫做第二元件,并且同样第,第二元件可以叫做第一元件,只要所有出现的“第一元件”一致重命名并且所有出现的“第二元件”一致重命名即可。第一元件和第二元件都是元件,但可以不是相同的元件。而且,本申请中使用的用词仅用于描述实施例并且不用于限制权利要求。如在实施例以及权利要求的描述中使用的,除非上下文清楚地表明,否则单数形式的“一个”(a)、“一个”(an)和“所述”(the)旨在同样包括复数形式。类似地,如在本申请中所使用的术语“和/或”是指包含一个或一个以上相关联的列出的任何以及所有可能的组合。另外,当用于本申请中时,术语“包括”(comprise)及其变型“包括”(comprises)和/或包括(comprising)等指陈述的特征、整体、步骤、操作、元素,和/或组件的存在,但不排除一个或一个以上其它特征、整体、步骤、操作、元素、组件和/或这些的分组的存在或添加。在没有更多限制的情况下,由语句“包括一个...”限定的要素,并不排除在包括该要素的过程、方法或者设备中还存在另外的相同要素。本文中,每个实施例重点说明的可以是与其他实施例的不同之处,各个实施例之间相同相似部分可以互相参见。对于实施例公开的方法、产品等而言,如果其与实施例公开的方法部分相对应,那么相关之处可以参见方法部分的描述。
本领域技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,可以取决于技术方案的特定应用和设计约束条件。本领域技术人员可以对每个特定的应用来使用不同方法以实现所描述的功能,但是这种实现不应认为超出本公开实施例的范围。本领域技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本文所披露的实施例中,所揭露的方法、产品(包括但不限于装置、设备等),可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,可以仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例。另外,在本公开实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
附图中的流程图和框图显示了根据本公开实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,上述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这可以依所涉及的功能而定。在附图中的流程图和框图所对应的描述中,不同的方框所对应的操作或步骤也可以以不同于描述中所披露的顺序发生,有时不同的操作或步骤之间不存在特定的顺序。例如,两个连续的操作或步骤实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这可以依所涉及的功能而定。框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。

Claims (30)

1.一种实现3D显示的方法,其特征在于,包括:
通过相对于3D显示终端的主控芯片独立运转的眼球位置处理器获取观看者的眼球位置,将所述观看者的眼球位置发送给相对于所述主控芯片独立运转的3D显示模组;
通过所述3D显示模组,根据待显示图像以及所述观看者的眼球位置生成3D显示内容。
2.根据权利要求1所述的方法,其特征在于,通过所述眼球位置处理器获取所述观看者的眼球位置,包括:
通过设置于所述主控芯片以外的位置且受控于所述主控芯片以外的器件的所述眼球位置处理器,获取所述观看者的眼球位置。
3.根据权利要求2所述的方法,其特征在于,通过所述眼球位置处理器获取所述观看者的眼球位置,包括:
通过由所述主控芯片以外的器件触发或启动的所述眼球位置处理器,获取所述观看者的眼球位置。
4.根据权利要求1至3任一项所述的方法,其特征在于,还包括:获取包括所述观看者的眼球位置的拍摄对象的图像。
5.根据权利要求4所述的方法,其特征在于,获取所述拍摄对象的图像,包括:
通过摄像头模组,获取所述拍摄对象的图像。
6.根据权利要求5所述的方法,其特征在于,通过摄像头模组,获取所述拍摄对象的图像,包括:
通过至少两个摄像头,获取所述拍摄对象的图像。
7.根据权利要求6所述的方法,其特征在于,通过至少两个摄像头,获取所述拍摄对象的图像,包括:
通过至少两个黑白摄像头,获取所述拍摄对象的黑白图像。
8.根据权利要求4所述的方法,其特征在于,获取所述观看者的眼球位置,包括:
根据所述拍摄对象的图像中包含的眼球平面位置信息得到眼球深度信息,从而获取所述观看者眼球的眼球坐标。
9.根据权利要求1至8任一项所述的方法,其特征在于,通过所述3D显示模组,根据所述待显示图像以及眼球位置生成3D显示内容,包括:
通过设置于所述主控芯片以外的位置且受控于所述主控芯片以外的器件的所述3D显示模组,根据所述待显示图像以及眼球位置生成3D显示内容。
10.根据权利要求9所述的方法,其特征在于,通过所述3D显示模组,根据所述待显示图像以及眼球位置生成3D显示内容,包括:
通过由所述主控芯片以外的器件触发或启动的所述3D显示模组,根据所述待显示图像以及眼球位置生成3D显示内容。
11.根据权利要求10所述的方法,其特征在于,通过所述3D显示模组,根据所述待显示图像以及眼球位置生成3D显示内容,包括:
通过所述3D显示模组,将所述待显示图像渲染为左眼图像和右眼图像,根据所述眼球位置对所述左眼图像和右眼图像进行像素分配。
12.根据权利要求11所述的方法,其特征在于,根据所述眼球位置对所述左眼图像和右眼图像进行像素分配,包括:
将所述左眼图像和右眼图像分配到所述3D显示终端的3D显示屏幕的与所述眼球位置对应的像素上。
13.根据权利要求1所述的方法,其特征在于,还包括:通过所述3D显示终端的3D显示屏幕显示所述3D显示内容。
14.一种实现3D显示的装置,包括处理器和存储有程序指令的存储器,其特征在于,所述处理器被配置为在执行所述程序指令时,执行如权利要求1至13任一项所述的方法。
15.一种实现3D显示的装置,其特征在于,包括:
相对于3D显示终端的主控芯片独立运转的眼球位置处理器,被配置为获取观看者的眼球位置,将所述观看者的眼球位置发送给相对于所述主控芯片独立运转的3D显示模组;
所述3D显示模组,被配置为根据待显示图像以及所述观看者的眼球位置生成3D显示内容。
16.根据权利要求15所述的装置,其特征在于,
所述眼球位置处理器设置于所述主控芯片以外的位置,且被配置为受控于所述主控芯片以外的器件。
17.根据权利要求16所述的装置,其特征在于,所述眼球位置处理器被配置为由所述主控芯片以外的器件触发或启动。
18.根据权利要求15至17任一项所述的装置,其特征在于,还包括:图像获取装置,被配置为获取包括所述观看者的眼球位置的拍摄对象的图像。
19.根据权利要求18所述的装置,其特征在于,所述图像获取装置,包括:
摄像头模组,被配置为获取所述拍摄对象的图像。
20.根据权利要求19所述的装置,其特征在于,所述摄像头模组,包括:
至少两个摄像头,被配置为获取所述拍摄对象的图像。
21.根据权利要求20所述的装置,其特征在于,所述至少两个摄像头,包括:
至少两个黑白摄像头,被配置为获取所述拍摄对象的黑白图像。
22.根据权利要求21所述的装置,其特征在于,所述至少两个黑白摄像头采用性能指标相同的光学镜头和传感器芯片。
23.根据权利要求18所述的装置,其特征在于,所述眼球位置处理器,被配置为:
根据所述拍摄对象的图像中包含的眼球平面位置信息得到眼球深度信息,从而获取所述观看者眼球的眼球坐标。
24.根据权利要求15至23任一项所述的装置,其特征在于,
所述3D显示模组设置于所述主控芯片以外的位置,且被配置为受控于所述主控芯片以外的器件。
25.根据权利要求24所述的装置,其特征在于,
所述3D显示模组被配置为由所述主控芯片以外的器件触发或启动。
26.根据权利要求25所述的装置,其特征在于,所述3D显示模组,被配置为:
将所述待显示图像渲染为左眼图像和右眼图像,根据所述眼球位置对所述左眼图像和右眼图像进行像素分配。
27.根据权利要求26所述的装置,其特征在于,所述3D显示模组,被配置为:
将所述左眼图像和右眼图像分配到所述3D显示终端的3D显示屏幕的与所述眼球位置对应的像素上。
28.根据权利要求15所述的装置,其特征在于,所述3D显示模组包括3D处理芯片,被配置为:根据所述待显示图像以及所述观看者的眼球位置生成3D显示内容。
29.根据权利要求15所述的装置,其特征在于,还包括:
3D显示屏幕,被配置为显示所述3D显示内容。
30.一种3D显示终端,其特征在于,包括如权利要求14或15至29任一项所述的装置。
CN201910948119.4A 2019-09-30 2019-09-30 实现3d显示的方法、装置及3d显示终端 Pending CN112584130A (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201910948119.4A CN112584130A (zh) 2019-09-30 2019-09-30 实现3d显示的方法、装置及3d显示终端
EP20870894.1A EP4033758A4 (en) 2019-09-30 2020-09-28 METHOD AND APPARATUS FOR PRODUCING A 3D DISPLAY, AND 3D DISPLAY TERMINAL
US17/764,980 US20220417493A1 (en) 2019-09-30 2020-09-28 Method and apparatus for realizing 3d display, and 3d display terminal
PCT/CN2020/118471 WO2021063321A1 (zh) 2019-09-30 2020-09-28 实现3d显示的方法、装置及3d显示终端

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910948119.4A CN112584130A (zh) 2019-09-30 2019-09-30 实现3d显示的方法、装置及3d显示终端

Publications (1)

Publication Number Publication Date
CN112584130A true CN112584130A (zh) 2021-03-30

Family

ID=75117228

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910948119.4A Pending CN112584130A (zh) 2019-09-30 2019-09-30 实现3d显示的方法、装置及3d显示终端

Country Status (1)

Country Link
CN (1) CN112584130A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022247646A1 (zh) * 2021-05-25 2022-12-01 北京芯海视界三维科技有限公司 时序控制器及显示设备

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022247646A1 (zh) * 2021-05-25 2022-12-01 北京芯海视界三维科技有限公司 时序控制器及显示设备

Similar Documents

Publication Publication Date Title
WO2020190553A1 (en) Method and system for rendering a 3d image using depth information
CN108259883B (zh) 图像处理方法、头戴式显示器以及可读存储介质
KR20160135660A (ko) 헤드 마운트 디스플레이를 위한 입체 영상을 제공하는 방법 및 장치
CN109510975B (zh) 一种视频图像的提取方法、设备及系统
CN110958390B (zh) 图像处理方法及相关装置
US9766458B2 (en) Image generating system, image generating method, and information storage medium
WO2018063606A1 (en) Robust disparity estimation in the presence of significant intensity variations for camera arrays
WO2021063319A1 (zh) 实现3d显示的方法及装置、3d显示终端
CN112584130A (zh) 实现3d显示的方法、装置及3d显示终端
CN112929636A (zh) 3d显示设备、3d图像显示方法
US11601637B2 (en) Multifocal display devices and methods
CN112929638B (zh) 眼部定位方法、装置及多视点裸眼3d显示方法、设备
CN112584128A (zh) 实现3d显示的方法、装置及3d显示终端
KR102517205B1 (ko) 2d 디스플레이 디바이스 상에, 광 필드 데이터로부터 유도되는 콘텐츠를 디스플레이하기 위한 방법
CN116017129A (zh) 一种补光灯角度调整方法、装置、系统、设备和介质
WO2021147749A1 (zh) 实现3d显示的方法、装置及3d显示系统
EP3429186B1 (en) Image registration method and device for terminal
CN109309839B (zh) 数据处理方法及装置、电子设备及存储介质
CN110800284B (zh) 图像处理方法、装置、设备及存储介质
CN112584129A (zh) 实现3d拍摄和显示的方法、装置及3d显示终端
EP4033758A1 (en) Method and apparatus for realizing 3d display, and 3d display terminal
CN112929631B (zh) 用于在3d视频中显示弹幕的方法和设备、3d显示设备
CN113141494A (zh) 3d图像处理方法、装置和3d显示终端
CN212628181U (zh) 3d拍摄装置及3d显示终端
CN114079764A (zh) 3d显示方法、3d显示装置及3d显示器件

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination