CN117998073A - 空间现实显示方法及空间现实显示系统 - Google Patents
空间现实显示方法及空间现实显示系统 Download PDFInfo
- Publication number
- CN117998073A CN117998073A CN202211351069.XA CN202211351069A CN117998073A CN 117998073 A CN117998073 A CN 117998073A CN 202211351069 A CN202211351069 A CN 202211351069A CN 117998073 A CN117998073 A CN 117998073A
- Authority
- CN
- China
- Prior art keywords
- eye
- sub
- display module
- display
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 64
- 230000000737 periodic effect Effects 0.000 claims abstract description 115
- 239000004973 liquid crystal related substance Substances 0.000 claims description 77
- 238000009826 distribution Methods 0.000 claims description 28
- 230000000007 visual effect Effects 0.000 claims description 24
- 230000001360 synchronised effect Effects 0.000 claims description 7
- 238000010586 diagram Methods 0.000 abstract description 29
- 230000000694 effects Effects 0.000 description 23
- 238000013461 design Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000008707 rearrangement Effects 0.000 description 6
- 230000000704 physical effect Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/327—Calibration thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/363—Image reproducers using image projection screens
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
本申请实施例提供一种空间现实显示方法及空间现实显示系统,该空间现实显示方法包括:基于显示模组的参数确定坐标系,通过人眼位置坐标、所述显示模组的参数和所述坐标系,实时确定左右图对应的周期单元的属性参数。基于左右图对应的周期单元的属性参数,即确定出显示模组的显示的左右图。通过显示模组的参数以及左右图对应的周期单元的属性参数,能够确定第一子像素组和第二子像素组,通过第一子像素组和第二子像素组在显示模组上输出左眼数据流和右眼数据流,即实现了根据人眼的坐标位置对显示模组内的像素进行了重新排列,以适配观看者的人眼位置。
Description
技术领域
本申请涉及空间现实显示系统的技术领域,尤其涉及一种空间现实显示方法及空间现实显示系统。
背景技术
裸眼3D是对不借助偏振光眼镜等外部工具,实现立体视觉效果的技术的统称。相关技术中是通过移动显示屏的位置,以适配观看者的角度,从而实现较好的裸眼3D显示效果。但是通过移动显示屏的位置适配观看者的方式中,移动显示屏往往存在偏差,造成难以定位到人眼合适的位置,导致裸眼3D效果较差。
发明内容
本申请实施例提供一种空间现实显示方法及空间现实显示系统,以解决或缓解现有技术中的一项或更多项技术问题。
作为本申请实施例的一个方面,本申请实施例提供一种空间现实显示方法,包括:
获取人眼位置坐标、显示模组的参数和左眼数据流、右眼数据流;
根据显示模组的参数,确定坐标系;
根据人眼位置坐标、显示模组的参数和坐标系,确定左右图对应的周期单元的属性参数,周期单元的属性参数包括周期单元的宽度和周期单元的边界的横坐标,其中,周期单元的宽度为左右图中相邻左图和右图的宽度之和,周期单元的边界的横坐标为两个相邻周期单元之间边界处的横坐标;
根据显示模组的参数、左右图的周期单元的宽度和周期单元的边界的横坐标,确定第一子像素组和第二子像素组,其中,第一子像素组为显示模组中输出左眼数据流的子像素,第二子像素组为在显示模组中输出右眼数据流的子像素。
作为本申请实施例的另一个方面,本申请实施例提供一种空间现实显示系统,显示系统用于执行本申请的所有实施例的空间现实显示方法。
本申请实施例采用上述技术方案可以得到如下有益效果:
在本实施例中,基于显示模组的参数确定坐标系,通过人眼位置坐标、显示模组的参数和坐标系,实时确定左右图对应的周期单元的属性参数。基于左右图对应的周期单元的属性参数,即确定出显示模组的显示的左右图。在确定了左右图的情况下,通过显示模组的参数以及左右图对应的周期单元的属性参数,能够确定第一子像素组和第二子像素组,通过第一子像素组和第二子像素组在显示模组上输出左眼数据流和右眼数据流,即实现了根据人眼的坐标位置对显示模组内的像素进行了重新排列,以适配观看者的人眼位置。使得观看者在不同角度或不同位置的情况下,都能够清晰地观看到裸眼3D,而且无需对显示屏进行移动,避免了因为移动显示屏往往存在偏差,造成难以定位到人眼合适的位置,导致裸眼3D效果较差的问题,进而能够带来较高的裸眼3D视觉效果,提升观看者的观看体验。
上述概述仅仅是为了说明书的目的,并不意图以任何方式进行限制。除上述描述的示意性的方面、实施方式和特征之外,通过参考附图和以下的详细描述,本申请进一步的方面、实施方式和特征将会是容易明白的。
附图说明
在附图中,除非另外规定,否则贯穿多个附图相同的附图标记表示相同或相似的部件或元素。这些附图不一定是按照比例绘制的。应该理解,这些附图仅描绘了根据本申请公开的一些实施方式,而不应将其视为是对本申请范围的限制。
图1示出根据本申请一实施例的空间现实显示方法的流程图。
图2示出根据本申请实施例的空间现实显示方法的结构示意图。
图3示出根据本申请另一实施例的空间现实显示方法的流程图。
图4示出根据本申请另一实施例的空间现实显示方法的流程图。
图5示出根据本申请另一实施例的空间现实显示方法的流程图。
图6为图5中的实施例的空间现实显示方法的时序示意图。
图7示出根据本申请一实施例的空间现实显示系统的结构示意图。
附图标记说明:
700、显示系统;710、显示装置;720、信号输出装置;730、人眼识别装置;731、采集装置;732、识别装置。
具体实施方式
在下文中,仅简单地描述了某些示例性实施例。正如本领域技术人员可认识到的那样,在不脱离本申请的精神或范围的情况下,可通过各种不同方式修改所描述的实施例。因此,附图和描述被认为本质上是示例性的而非限制性的。
图1示出根据本申请一实施例的空间现实显示方法的流程图,如图1所示,该空间现实显示方法包括:
S110:获取人眼位置坐标、显示模组的参数和左眼数据流、右眼数据流。
S120:根据显示模组的参数,确定坐标系。
S130:根据人眼位置坐标、显示模组的参数和坐标系,确定左右图对应的周期单元的属性参数,周期单元的属性参数包括周期单元的宽度和周期单元的边界的横坐标,其中,周期单元的宽度为左右图中相邻左图和右图的宽度之和。
S140:根据显示模组的参数、左右图的周期单元的宽度和周期单元的边界的横坐标,确定第一子像素组和第二子像素组,其中,第一子像素组中的第一子像素为显示模组中输出左眼数据流的子像素,第二子像素组中的第二子像素为在显示模组中输出右眼数据流的子像素。
本实施例的空间现实显示方法可以适用于显示系统上,具体可以为直接在裸眼3D的显示模组上执行,例如通过显示模组内的处理器、处理芯片等执行该空间现实显示方法,并在显示模组中显示。也可以通过另外的控制器或处理器上执行了空间现实显示方法后,控制裸眼3D的显示模组在第一子像素上输出左眼数据流和在第二子像素上输出右眼数据流。显示模组可以为显示屏,显示器等,用于供裸眼3D显示的设备。下述实施例中以显示系统为执行主体进行举例说明。
在本实施例中,基于显示模组的参数确定坐标系,通过人眼位置坐标、显示模组的参数和坐标系,实时确定左右图对应的周期单元的属性参数。基于左右图对应的周期单元的属性参数,即确定出显示模组的显示的左右图。在确定了左右图的情况下,通过显示模组的参数以及左右图对应的周期单元的属性参数,能够确定第一子像素组和第二子像素组,通过第一子像素组和第二子像素组在显示模组上输出左眼数据流和右眼数据流,即实现了根据人眼的坐标位置对显示模组内的像素进行了重新排列,以适配观看者的人眼位置。使得观看者在不同角度或不同位置的情况下,都能够清晰地观看到裸眼3D,而且无需对显示屏进行移动,避免了因为移动显示屏往往存在偏差,造成难以定位到人眼合适的位置,导致裸眼3D效果较差的问题,进而能够带来较高的裸眼3D视觉效果,提升观看者的观看体验。
在步骤S110中,获取人眼位置坐标、显示模组的参数和左眼数据流、右眼数据流。
左眼数据流和右眼数据流通常根据视频信号确定的,也可以是直接在显示装置接收到视频流的情况下,已经解析后的左眼数据流和右眼数据流了。视频信号为搭载视频播放内容的信号,对于裸眼3D而言,其关键是对利用双目视差,即通过向左眼和右眼投影不同的视频流的图像,从而能够使得人眼产生裸眼3D的视觉效果。即需要将视频信号进行解析操作,确认分流操作,即将视频信号中的数据流区分为左眼数据流和右眼数据流,其中,左眼数据流用于控制3D模组输出适于左眼观看的视频流(例如左眼视觉图像),右眼数据流用于控制3D模组输出适于右眼观看的视频流(例如右眼视觉图像),从而在3D模组上形成裸眼的3D视觉影像。
其中,根据上述可知,存在不同的模式的视频信号,根据不同模式的视频信号进行不同处理,例如对于时序不同步是3D-FrameByFrame模式的视频信号,则通过调整视频信号中的左眼视频流和右眼视频流,使得生成的左眼数据流和右眼数据流能够同步,避免了由于视频信号中左眼视频流和右眼视频流生成的左眼数据流和右眼数据流不同步,导致生成裸眼3D图像较差的问题。
例如在对于时序相同的3D-SideBySide(并列型3D信号)模式的视频信号,在该视频信号下,该视频信号的大小受到3D内容生成的设备与显示系统之间的输入接口和输出接口之间的约束,一般为8K。此时将视频信号分割为左眼视频流和右眼视频流的情况下,会导致生成的左眼数据流和右眼数据流为均小于等于4的数据流,即此时输出到3D模组中,其显示的效果较差,显示的分辨率较低,造成裸眼3D的观看体验较差。在处理视频信号的情况下,对视频信号进行分割为左眼视频流和右眼视频流后,分别对左眼视频流和有眼视频流进行水平拉伸处理,生成左眼数据流和右眼数据流,生成的左眼数据流和右眼数据流经过水平拉伸后,其分辨率得到有效的提升,从而能够使得在3D模组中输出的较为清晰的帧图像,进而能够确保裸眼3D图像的显示效果。
在一些实施例中,视频信号可以3D内容的信号,该3D内容可以为在PC(PersonalComputer,个人计算机)上生成的3D内容,具体为在3D软件上生成的内容,例如在UE/Unity上生成的3D内容。在一些实施例中,视频信号也可以由其他的例如笔记本电脑,3D内容生成处理器或者是云端服务器上处理生成,甚至在一些移动终端上生成,对于3D内容的生成在此不做限定。生成视频信号的设备可以为显示系统上设备,也可以是显示系统外的设备,通过将生成的视频信号发送给显示系统,使得视频信号的分辨率为7680X 4320@60Hz,视频信号可以为3D-SideBySide(并列型3D信号)模式或3D-FrameByFrame(时序型3D信号)模式。具体可以通过输出接口HDMI 2.0X4输出到显示系统内,供显示系统接收。输出的视频信号中可以包括视频分辨率7680X 4320@60Hz的视频图像。相对应的显示系统上设有与输出接口相对应的电连接的HDMI_RX模块,HDMI_RX模块包括HDMI 2.0X4的接口,通过接收视频信号。
即根据视频信号,能够确定左眼数据流和右眼数据流,其中,左眼数据流用于控制3D模组输出适于左眼观看的视频流(例如左眼视觉图像),右眼数据流用于控制3D模组输出适于右眼观看的视频流(例如右眼视觉图像),从而在3D模组上形成裸眼的3D视觉影像。
人眼位置坐标可以通过视觉识别装置识别到人眼的位置信息,基于人眼的位置信息确定出人眼位置坐标,人眼位置坐标可以包括左眼的位置坐标和右眼的位置坐标,还可以包括左眼和右眼中间的位置坐标,该位置坐标可以是三维坐标,也可以是二维坐标。在一些实施例中,可以采用摄像头采集到人脸图像,通过眼部识别装置,例如SOC(System onChip,系统级芯片)、训练好的神经网络等对人脸图像进行识别,确定出人眼位置坐标。也可以采用一体式的视觉识别装置,直接识别到人眼的位置信息,基于人眼的位置信息,确定人眼位置坐标。该视觉识别装置可以作为显示系统的一部分,也可以是与显示系统外部电连接的装置,将生成的左眼位置坐标和右眼位置坐标、左右眼中间的位置坐标等人眼位置坐标发送给显示系统,使得显示系统能够获取到人眼位置坐标。
显示模组常可以为3D模组,本实施例以及其他实施例中的3D模组为显示模组。显示模组即显示面板,能够用输出产生裸眼3D效果的图像,使得观看者能够观看到3D图像。
显示模组通常是设计好之后是不会做出改变的,例如显示模组的长宽高、显示模组的表面中心、显示模组中液晶屏的长宽高、显示模组中的棱镜尺寸以及棱镜排布、显示模组的长度方向、显示模组的宽度方向、显示模组的表面垂直方向以及显示模组中液晶屏内的像素排布等等,都属于显示模组的物理属性参数,在显示模组进行设计之后已经确定了的,不会因为人为设置或者是软件方法的执行而发生改变。对于显示模组的参数,通常在出厂的时候会存储于显示模组的存储器中,或者是记录在相应的位置上。本实施例的显示装置可以通过读取显示模组的存储器或者是通过人为输入的方式获取到显示模组的参数,也可以通过读取确定显示模组的型号,在数据库或者是互联网等具有该显示模组型号记录的空间内获取到显示模组的参数。
本实施例中,显示模组的参数至少包括显示模组上表面的中心、显示模组上表面的垂直方向、显示模组的宽度方向、显示模组的参数包括显示模组中棱镜的第一宽度、显示模组中棱镜表面至液晶屏的第一距离、显示模组中液晶屏的第二宽度、显示模组的参数还包括显示模组中液晶屏的各子像素的中点与液晶屏的边缘的第二距离等,其中,显示模组中棱镜表面至液晶屏的第一距离可以是等于棱镜的厚度,也可以是不等于棱镜厚度,通过在设计的时候进行标定,也是属于显示模组的物理属性。上述显示模组的参数都可以通过显示模组直接确定,属于显示模组的物理属性。
在步骤S120中,根据显示模组的参数,确定坐标系。
根据显示模组的参数,如上述对于显示模组的描述可以知道,显示模组的参数可以是显示模组上表面的中心、显示模组上表面的垂直方向以及显示模组的宽度方向,当然也可以是其他的,例如显示模组的长度方向,显示模组中液晶屏表面的中心等。
本实施例中可以显示模组上表面的中心为原点、显示模组上表面的垂直方向为Z坐标轴方向以及显示模组的宽度方向为X坐标轴方向,建立二维坐标系。也可以以显示模组上表面的中心为原点、显示模组上表面的垂直方向为Z坐标轴方向、显示模组的宽度方向为X坐标轴方向和显示模组的长度方向为Y坐标轴方向建立三维坐标系。当然还可以以显示模组中液晶屏表面的中心为原点建立二维或三维坐标系。由于需要确定输出数据流的子像素排布的位置,而且需要对应眼睛位置坐标进行确定。对此,该坐标系至少应当确定原点、显示模组的宽度方向、显示模组的垂直方向相关联的坐标系,以便能够将人眼位置坐标定位在该二维或者三维坐标系中,同时能够确定输出数据流的子像素排布。坐标系的确立可以根据实际进行调整,在此不做限定。
在步骤S130中,根据人眼位置坐标、显示模组的参数和坐标系,确定左右图对应的周期单元的属性参数,周期单元的属性参数包括周期单元的宽度和周期单元的边界的横坐标,其中,周期单元的宽度为左右图中相邻左图和右图的宽度之和。
根据上述实施例可以知道,显示模组的参数属于物理属性,可以根据直接读取或得到,坐标系也可以根据上述实施例的方式确定。
其中,显示模组包括多组棱镜以及液晶屏,液晶屏位于棱镜远离观看者一侧的侧面上,通常观看者通过棱镜观察到液晶屏的显示画面。
根据上述实施例中可以知道,显示模组的参数包括显示模组中棱镜的第一宽度和显示模组中棱镜表面至液晶屏的第一距离等相关的物理属性。本实施例中的棱镜的第一宽度为单个棱镜的宽度,棱镜的第一宽度P可以直接根据棱镜的设计确定,即属于显示模组在设计生产制造时已经确定的属性,可以直接读取得到,同理,棱镜表面至液晶屏的第一距离H也是可以直接根据显示模组的设计得到的,其中,第一距离H具体为棱镜远离液晶屏一侧的表面与液晶屏表面之间的最小距离,即第一距离H也可以直接根据显示模组的物理属性得到。
本实施例中,周期单元为左右图中相邻左图和右图构成的最小单元,基于显示模组的设置的显示规律,左图和右图交错设置的,即周期单元依次重复排布,构成显示模组的左右图,则可以产生裸眼3D的效果。左右图是根据输出左眼数据流的第一子像素组和输出右眼数据流的第二子像素组所形成的显示效果图。也就是说,周期单元作为周期单元为左右图中相邻左图和右图构成的最小单元,周期单元至少包括一个第一子像素和第二子像素。
从观看者视觉的角度而言,其观看到的内容实际为左右图。对于左右图而言,确定左右图的排布是通过周期单元以及周期单元的边界来确定的。从具体的坐标系数值上确定而言,其排布是与显示模组中液晶屏的宽度有关,也可以说跟宽度方向上的像素排布有关。可以直接通过以周期单元的横坐标为起点,以周期单元的宽度对液晶屏进行宽度方向上的分割,从而能够得到左右图。其中,周期单元的边界可以为切分到液晶屏边缘部分的周期单元的边界,也可以是两个周期单元之间的交界处的边界。
根据人眼位置坐标、显示模组的参数和坐标系,确定左右图对应的周期单元的属性参数,即确定出周期单元的宽度和周期单元的边界的横坐标。
在一示例中,图2示出根据本申请一实施例的空间现实显示方法的坐标系示意图,如图2所示,为了便于周期单元的宽度和周期单元的边界的横坐标的确定,本实施例中,以屏幕(3D模组上表面的正中心)正中心为原点,垂直于棱镜表面方向为Z轴,以棱镜上表面的宽度方向为X轴,以棱镜的长度方向为Y轴,建立三维坐标系。将人眼位置坐标转换到该三维坐标系中。
右图的排布是对应于能够使得观看者在当前的视角下,能够左眼看到左眼数据流输出的左图(图3中左右图的黑色部分为左图),右眼看到右眼数据流输出的右图(左右图的白色部分为右图),可以理解的是,左右图相当于显示效果图,从而产生了裸眼3D效果。在观察者的视角发生改变的情况下,则左右图也会发生改变,从而能够确保观察者无论在哪个角度都能够观看到裸眼3D的效果。左右图是显示效果图,由于左右图是通过第一子像素和第二子像素构建的,其中左图是第一子像素在输入左眼数据流的情况下构建的,右图是第二子像素在输入右眼数据的情况下构建的,即基于左右图,可以确定第一子像素组和第二子像素组。通过人眼位置坐标的左眼位置坐标ML(XL,ZL)和右眼位置坐标MR(XR,ZR),根据如下公式(1)和公式(2),计算出左眼和右眼连线的中点的坐标M1(X1,Z1);当然也可以人眼位置坐标中已经包括了左眼和右眼连线的中点的坐标M1(X1,Z1)。
根据第一宽度、第一距离和人眼位置坐标,确定左右图的周期单元的宽度具体为:
如图2所示,由于棱镜的宽度对应的视角下对应的液晶屏上显示的左右图的周期单元的宽度,即在人眼的视角穿过的棱镜的宽度,即对应在液晶屏上所显示的左右图的周期单元,周期单元内由相邻的一组最小单元的左图和一组最小单元的右图构成。
即确定周期单元可以通过左眼和右眼连线的中点分别与一个棱镜的两端连线,并将两条连线延长至液晶屏的表面,形成与液晶屏的两个交点M2和M3,两个交点之间的液晶屏显示的画面为左右图的周期单元,即左右图分布的最小单元,其与左右图是根据这个周期单元在宽度上进行重复排布形成的,也就是说,在第一子像素组内输入左眼数据流,在第二子像素组内输入右眼数据流,就可以构成该左右图。因此,通过确定交点M2和M3之间的距离,即为左右图的周期单元的宽度。根据显示模组的物理特性,棱镜的上表面与液晶屏的上表面一般都是保持平行的,其若存在有误差,也可以作为可接受误差,不予考虑。因此,通过左眼和右眼连线的中点分别与一个棱镜的两端连线构成了一个三角形,而左眼和右眼连线的中点与交点M2、交点M3构成了另一个三角形,由于棱镜的上表面与液晶屏的上表面一般都是保持平行的,即两个三角形的底边平行,因此,两个三角形构成了相似三角形。
基于相似三角形,而且棱镜的第一宽度P、左眼和右眼连线的中点的坐标M1(X1,Z1)以及棱镜表面至液晶屏的第一距离H,通过如下公式(3)和公式(3)转换的公式(4),可以计算获取左右图的周期单元的宽度H;
通过棱镜的第一宽度P、左眼和右眼连线的中点的坐标M1(X1,Z1)以及棱镜表面至液晶屏的第一距离H以及左右图的周期单元的宽度H,可以通过计算确定出周期单元的边界的横坐标,即交点M2的横坐标,在坐标系中,M2的横坐标即为M2的X轴坐标。
在本实施例中,为了方便对M2横坐标的计算,将棱镜的其中一个端部设定为显示屏的表面的中心位置,即三维坐标系的原点位置,此时该端部的坐标为(0,0)。M2的Z轴坐标X1为H,此时可以构建出M2的坐标即为M2的横坐标和M2的Z轴坐标以及坐标系原点构成了三角形。而左眼和右眼连线的中点的M1的X轴坐标、M1的Z轴坐标与坐标系原点构成了另一个三角形,且由于棱镜的上表面与液晶屏的上表面一般都是保持平行的,即两个三角形的底边平行,因此,两个三角形构成了相似三角形。
基于相似三角形,左眼和右眼连线的中点的坐标M1(X1,Z1)以及棱镜表面至液晶屏的第一距离H(即M2的Z轴坐标X1为H),通过如下公式(5)和公式(5)转换的公式(6),可以计算获取确定出周期单元的边界的横坐标X2:
在确定了周期单元的宽度和周期单元的边界的横坐标情况下,左右图是根据周期单元进行左右图的在宽度方向上排布构成的,通过当前计算出周期单元的边界以及周期单元的宽度,能够确定出左右图的具体排布。
S140:根据显示模组的参数、左右图的周期单元的宽度和周期单元的边界的横坐标,确定第一子像素组和第二子像素组,其中,第一子像素组中的第一子像素为显示模组中输出左眼数据流的子像素,第二子像素组中的第二子像素为在显示模组中输出右眼数据流的子像素。
由于左右图中的左图是第一子像素组输出左眼数据流的情况下生成的,右图是第二子像素组输出右眼数据流的情况下生成的,通过周期单元的边界可知,位于其两侧的必定是第一子像素和第二子像素,而且根据周期单元的宽度可以将每个周期单元的边界的横坐标确定出来。通过确定了每个周期单元,由于液晶屏的每个子像素的位置时确定的,通过对每个子像素的宽度位置除以周期单元的宽度,既可以确定出该子像素对应的是哪个周期单元,同时能够确定余数,可以通过判断余数,如果该子像素余数大于二分之一周期单元的,则确定为第二子像素;若该子像素求得的余数小于等于二分之一周期单元的,则确定为第一子像素。从而能够准确地确定出第一子像素和第二子像素,无需进行物理调整,只需要通过控制左眼数据流输入到第一子像素组,右眼数据流输入到第二子像素组,观看者即可以实现裸眼3D观看该3D内容。
其中,本实施例中确定的第一子像素组为第一子像素的位置排布,第二子像素组也同样是第二子像素的位置排布。
在本实施例中,可以确定出第一子像素组和第二子像素组,基于第一子像素组和第二子像素组输出对应的左眼数据流和右眼数据流,使得观看者可以清楚地观看到裸眼3D的效果。而且,只需要采集到人眼位置坐标,其中人眼位置坐标可以是左眼为三维坐标和右眼的三维坐标。由于确定第一子像素和第二子像素的像素重排的过程只涉及Z轴以及X轴的坐标,因此可以无需获取人眼位置坐标的Y轴坐标值,只需要获取人眼位置坐标的X轴和Z轴的坐标值,即人眼位置坐标左眼的X轴和Z轴的坐标值、右眼的X轴和Z轴的坐标值。另外,由于实际在计算的过程中采用的是左眼和右眼连线的中点的坐标,即人眼位置坐标可以直接指的是左眼和右眼连线的中点的三维坐标,或者左眼和右眼连线的中点的X轴坐标和Z轴坐标。
通过人眼位置坐标,确定出在显示模组中输出左眼数据流的第一子像素组,以及确定出在显示模组中输出右眼数据流的第二子像素组。通过控制左眼数据流在第一子像素组内输出,控制右眼数据流在第二子像素组内输出,从而能够生成相对左眼的第一图像和相对右眼的第二图像,进而能够带来较高的裸眼3D视觉效果,提升观看者的观看体验。
在观看者调换视角或者位置的时候,重新确定人眼位置坐标,再根据人眼位置坐标确定第一子像素和第二子像素,控制左眼数据流在第一子像素组内输出,控制右眼数据流在第二子像素内组输出,重新生成能够生成相对左眼的第一图像和相对右眼的第二图像。实现了对观看者调换位置或者视角的情况下,对3D模组内的像素进行逻辑重排,重新适应观看者的人眼位置,使得观看者可以清楚地观看到裸眼3D的效果,无需额外进行显示系统的物理调整,避免了物理调整造成的误差,同时也能够提升其显示效果,更加有效地提升了用户体验。
在一些实施例中,显示模组的参数包括显示模组上表面的中心、显示模组上表面的垂直方向以及显示模组的宽度方向;根据显示模组的参数,确定坐标系包括:
以显示模组上表面的中心为原点、以显示模组上表面的垂直方向为第一坐标轴方向以及以显示模组的宽度方向为第二坐标轴方向,确定坐标系。
根据上述实施例可以知道,显示模组的参数包括显示模组上表面的中心、显示模组上表面的垂直方向以及显示模组的宽度方向等显示模组的物理属性,也还可以包括显示模组的长度方向等的参数。
在本实施例中,由于确定第一子像素和第二子像素的像素重排的过程只涉及Z轴以及X轴的坐标,因此可以无需获取人眼位置坐标的Y轴坐标值,只需要获取人眼位置坐标的X轴和Z轴的坐标值,即人眼位置坐标左眼的X轴和Z轴的坐标值、右眼的X轴和Z轴的坐标值。
以显示模组上表面的(3D模组上表面的正中心)中心为原点,以显示模组上表面的垂直方向为Z轴方向,以显示模组宽度方向为X轴方向,建立二维坐标系,将人眼位置坐标转换到该二维坐标系中。从而能够方便对于周期单元的属性参数的周期单元的宽度和周期单元的边界的横坐标计算,能够减低运算量,提升对3D内容处理的效率。
当然也还可以以上述二维坐标系的基础上,以显示模组的长度方向为Y轴方向,建立三维坐标系。在此不再赘述。
在一些实施例中,显示模组的参数包括显示模组中棱镜的第一宽度和显示模组中棱镜表面至液晶屏的第一距离;根据人眼位置坐标、显示模组的参数和坐标系,确定左右图的周期单元的宽度和周期单元的边界的横坐标包括:
根据第一宽度、第一距离、人眼位置坐标以及坐标系,确定周期单元的宽度和周期单元的边界的横坐标。
其中,本实施例中的棱镜的第一宽度为单个棱镜的宽度,棱镜的第一宽度P可以直接根据棱镜的设计确定,即属于显示模组在设计生产制造时已经确定的属性,可以直接读取得到,同理,棱镜表面至液晶屏的第一距离H也是可以直接根据显示模组的设计得到的,其中,第一距离H具体为棱镜远离液晶屏一侧的表面与液晶屏表面之间的最小距离,即第一距离H也可以直接根据显示模组特性得到。
本实施例中,通过上述实施例的方式建立坐标系,坐标系是二维或者是三维的坐标系。将人眼位置坐标转换到该维坐标系中。根据人眼位置坐标、第一距离和第一宽度,通过相似三角形计算出在显示模组上输出左眼数据流的左图和输出右眼数据流的右图的周期单元,在周期单元是观看者左眼看到左图,右眼看到右图的最小单元。在左右图中,任一个左图是根据至少一个输出左眼数据流的第一子像素构成的,任一个右图是根据至少一个输出右眼数据流的第二子像素构成。因此,可以确定出第一子像素和第二子像素,基于第一子像素和第二子像素输出对应的左眼数据流和右眼数据流,使得观看者可以清楚地观看到裸眼3D的效果。
在本实施例中,通过直接可以确定的显示模组的物理属性参数:显示模组中棱镜的第一宽度P和棱镜表面至液晶屏的第一距离H、坐标系、人眼位置坐标能够通过上述实施例中的以及图2中两个相似三角形的方式,确定周期单元的宽度和周期单元的边界的横坐标。
本实施例中,显示模组中棱镜的第一宽度和显示模组中棱镜表面至液晶屏的第一距离都是属于显示模组的物理属性,并不属于变量,而且能够容易获取到。通过本实施例的方式,能够方便快速地计算确定周期单元的宽度和周期单元的边界的横坐标,无需引入其他的变量,减少了系统误差的情况。
如图3所示,在一些实施例中,显示模组的参数包括显示模组中液晶屏的第二宽度,根据显示模组的参数、左右图的周期单元的宽度和周期单元的边界的横坐标,确定第一子像素组和第二子像素组包括:
S310:根据显示模组中液晶屏的第二宽度,根据周期单元的宽度、周期单元的边界的横坐标以及第二宽度,确定液晶屏的第一分布余量;
S320:根据第一分布余量和周期单元的宽度,确定第一子像素组和第二子像素组。
显示模组包括显示模组中液晶屏的第二宽度,其中,显示模组中液晶屏的第二宽度为液晶屏幕的整体宽度。根据第一分布余量和周期单元的宽度,确定第一子像素组和第二子像素组。在观看者处于一些角度的情况下,由于显示模组的结构固定的,即液晶屏的像素是确定的,因此,在确定了根据周期单元的宽度和周期单元的边界的横坐标后,通过周期单元的宽度计算其与周期单元的边界的横坐标时,可能会存在超出液晶屏的边缘的情况,即液晶屏的宽度不能够被均分为若干个周期单元,被若干个周期单元均布排列,液晶屏的边缘部分存在没有左右图的余量。此时需要考虑对于第一子像素和第二子像素的影响,即如果是液晶屏通过周期单元的宽度计算其与周期单元的边界的横坐标确定完全被周期单元排布,也就是说,整个液晶屏的所有像素都能够生成左右图,则无需考虑余量问题。
液晶屏的第二宽度W是属于液晶屏的整体宽度,是属于显示模组的物理属性,可以直接根据显示模组确定。
根据周期单元的宽度、周期单元的边界的横坐标以及第二宽度。由于左右图的周期单元的排布是计算确定的周期单元的边界的横坐标为起点,向两侧根据周期单元的宽度设置排布的。即需要考虑周期单元的边界的横坐标对第一分布余量△B的影响。通常而言,液晶屏的边缘部分存在左右图的余量对于确定第一子像素和第二子像素而言,只需要考虑液晶屏一侧的边缘的余量即可,因此,第一分布余量△B是液晶屏一侧的边缘的余量。其结果可以根据公式(7)得到:
△B=MOD(X2+W/2,△X) (7)
其中,X2为周期单元的边界的横坐标,△X为周期单元的宽度,W为液晶屏的第二宽度。
通过公式(7)求得的第一分布余量△B以及周期单元的宽度,通过确定了每个周期单元,由于液晶屏的每个子像素的位置时确定的,通过对每个子像素的宽度位置加上第一分布余量除以周期单元的宽度,既可以确定出该子像素对应的是哪个周期单元,同时能够确定余数,可以通过判断余数,如果该子像素余数大于二分之一周期单元的,则确定为第二子像素;若该子像素求得的余数小于等于二分之一周期单元的,则确定为第一子像素。从而能够准确地确定出第一子像素和第二子像素,无需进行物理调整,只需要通过控制左眼数据流输入到第一子像素组,右眼数据流输入到第二子像素组,观看者即可以实现裸眼3D观看该3D内容。
如图4所示,在一些实施例中,显示模组的参数还包括显示模组中液晶屏的各子像素的中点与液晶屏的边缘的第二距离;根据第一分布余量和周期单元的宽度,确定第一子像素组和第二子像素组包括:
S410:根据第二距离、第一分布余量和周期单元的宽度,确定子像素的第二分布余量;
S420:在子像素的第二分布余量小于或等于二分之一的周期单元的宽度的情况下,确定该子像素为第一子像素组中的第一子像素;
S430:在子像素的第二分布余量大于二分之一的周期单元的情况下,确定该子像素为第一子像素组中的第一子像素。
对于显示模组而言,液晶屏上的每个像素的位置都已经确定的,实现像素重排的是对像素中的子像素的输出内容进行调整,例如,将一个子像素作为第一子像素还是第二子像素,对于显示的裸眼3D效果是完全不同的。而本实施例中,通过对液晶屏中的子像素进行重排,从而能够生成适应观看者人眼位置裸眼3D效果,实质上改变的也是对于每个子像素输出的内容。即确定所有的子像素是第一子像素还是第二子像素。
在本实施例中,需要先确定每个子像素相对于液晶屏其中一个边缘的位置,从而才能确定当前的子像素作为第一子像素输出左眼数据流还是作为第二子像素输出右眼数据流。一般像素中都包括三种子像素,分别红色子像素R、绿色子像素G和蓝色子像素B,每个子像素的中点与液晶屏的边缘的第二距离是通过如下公式(8)-(10)确定的。
其中,△RJ为红色子像素的中点与液晶屏的边缘的第二距离;△GJ为绿色子像素的中点与液晶屏的边缘的第二距离;△BJ为蓝色子像素的中点与液晶屏的边缘的第二距离;J代表的是第几列的像素;N为像素宽度,通常一个像素内包括有两个排列设置的红色子像素,两个绿色子像素和两个蓝色子像素,因此,根据像素内的子像素的排列,红色子像素减去绿色子像素需要减去/>蓝色子像素需要减去/>
在确定了各子像素的中点与液晶屏的边缘的第二距离后,需要对各子像素的中点与液晶屏的边缘的第二距离与周期单元的宽度商的余数,由于存在上述实施例中指出的第一分布余量的存在,在此,需要考虑第一分布余量。根据如下公式(11)-(13)可以确定第二分布余量。
Position R=MOD(△RJ+△B,△X) (11)
Position G=MOD(△GJ+△B,△X) (12)
Position B=MOD(△BJ+△B,△X) (13)
其中,Position R为红色子像素的第二分布余量;Position G为绿色子像素的第二分布余量;Position B为蓝色子像素的第二分布余量;△RJ为红色子像素的中点与液晶屏的边缘的第二距离;△GJ为绿色子像素的中点与液晶屏的边缘的第二距离;△BJ为蓝色子像素的中点与液晶屏的边缘的第二距离;△X为周期单元的宽度;△B为第一分布余量。
在确定了各子像素的第二分布余量后,根据如下确定各子像素属于第一子像素还是第二子像素:
在的情况下,确定该红色子像素为第一子像素,用于输入左眼数据流;
在的情况下,确定该红色子像素为第二子像素,用于输入右眼数据流;
在的情况下,确定该绿色子像素为第一子像素,用于输入左眼数据流;
在的情况下,确定该绿色子像素为第二子像素,用于输入右眼数据流;
在的情况下,确定该蓝色子像素为第一子像素,用于输入左眼数据流;
在的情况下,确定该蓝色子像素为第一子像素,用于输入右眼数据流。
根据上述方式确定了第一子像素和第二子像素,从而能够准确地确定出第一子像素和第二子像素,无需进行物理调整,只需要通过控制左眼数据流输入到第一子像素,右眼数据流输入到第二子像素,观看者即可以实现裸眼3D观看该3D内容。
在一些实施例中,该空间现实显示方法还包括:
获取视频信号;
根据视频信号,确定左眼数据流和右眼数据流。
视频信号可以为3D内容的信号,该3D内容可以为在PC(Personal Computer,个人计算机)上生成的3D内容,具体为在3D软件上生成的内容,例如在UE/Unity上生成的3D内容。在一些实施例中,视频信号也可以由其他的例如笔记本电脑,3D内容生成处理器或者是云端服务器上处理生成,甚至在一些移动终端上生成,对于3D内容的生成在此不做限定。生成视频信号的设备可以为显示系统上设备,也可以是显示系统外的设备,通过将生成的视频信号发送给显示系统,使得视频信号的分辨率为7680X 4320@60Hz,视频信号可以为3D-SideBySide(并列型3D信号)模式或3D-FrameByFrame(时序型3D信号)模式。具体可以通过输出接口HDMI 2.0X4输出到显示系统内,供显示系统接收。输出的视频信号中可以包括视频分辨率7680X 4320@60Hz的视频图像。相对应的显示系统上设有与输出接口相对应的电连接的HDMI_RX模块,HDMI_RX模块包括HDMI 2.0X4的接口,通过接收视频信号。
即根据视频信号,能够确定左眼数据流和右眼数据流,其中,左眼数据流用于控制3D模组输出适于左眼观看的视频流(例如左眼视觉图像),右眼数据流用于控制3D模组输出适于右眼观看的视频流(例如右眼视觉图像),从而在3D模组上形成裸眼的3D视觉影像。
在一些实施例中,如图5和图6所示,根据视频信号,确定左眼数据流和右眼数据流包括:
S510:在视频信号的模式为第一模式的情况下,生成第一视频流并将第一视频流存储于第一空间和生成第二视频流并将第二视频流存储于第二空间,第一视频流和第二视频流为不同步的视频流;
S520:在指定周期内重复从第一空间内读取第一视频流,生成左眼数据流;
S530:在指定周期内重复从第二空间内读取第二视频流,生成右眼数据流。
由于视频信号中包括第一视频流和第二视频流,通过解析视频信号既可以得到第一视频流和第二视频流。
在图6中,l表示第一视频流中单个帧数的图像,r表示第二视频流单个帧数的图像,L表示左眼数据流中单个帧数的图像,R表示右眼数据流单个帧数的图像。
对于确定视频信号的模式为第一模式的方式可以通过人工输入的方式,也可以通过对视频信号进行解析确定的。在第一模式下,第一视频流和第二视频流不同步的视频流,例如对于时序不同步是3D-FrameByFrame模式的视频信号,由于视频信号中左眼视频流和右眼视频流生成的左眼数据流和右眼数据流不同步,导致生成裸眼3D图像较差的问题。
在显示系统的存储空间中开辟出第一空间和第二空间,第一空间为奇数帧地址空间,第二空间为偶数帧地址空间,当然也可以是第一空间为偶数帧地址空间,第二空间为奇数帧地址空间。其中,第一空间的大小和第二空间的大小基于3D模组的物理分辨率确定。
在本实施例中,第一视频流用于存储于第一空间,第二视频流用于存储于第二空间,即奇数帧地址空间用来存储左眼数据,偶数帧地址空间用来存储右眼数据。具体的,在显示系统中,通过将左眼视频流存入奇数帧地址空间中,将右眼视频流存入偶数帧地址空间中。
在同步读取第一空间和第二空间内的视频流的数据时,确保奇数帧地址空间和偶数帧地址空间存在完整的帧数据。
通过在指定周期内重复从第一空间内读取第一视频流,生成左眼数据流;在指定周期内重复从第二空间内读取第二视频流,生成右眼数据流。指定周期可以为在2帧的周期时间内,或者在4帧的周期时间内,指定周期可以根据实际设定,通过在指定周期内重复读取,生成左眼数据流和右眼数据流,从而能够使得不同步的第一视频流和第二视频流在指定周期内被均衡。即通过在指定周期内,读取出同步帧的第一视频流和第二视频流即同步的左眼数据流和右眼数据流。能够输出的同步的左眼数据流和右眼数据流,进而避免了视频信号中左眼视频流和右眼视频流生成的左眼数据流和右眼数据流不同步,导致生成裸眼3D图像较差的问题。
在一些实施例中,根据视频信号,确定左眼数据流和右眼数据流包括:
在确定视频信号的模式为第二模式的情况下,生成第三视频流和第四视频流,第二模式下第三视频流和第四视频流为并列的视频流;
对第三视频流和第四视频流进行指定倍率的拉伸,生成左眼数据流和右眼数据流,其中,指定倍率大于等于2。
由于视频信号中包括第三视频流和第四视频流,通过解析视频信号既可以得到第三视频流和第四视频流。
对于定视频信号的模式为第一模式的方式可以通过人工输入的方式,也可以通过对视频信号进行解析确定的。第二模式下第三视频流和第四视频流为并列的视频流。例如在对于时序相同的3D-SideBySide(并列型3D信号)模式的视频信号,在该视频信号下,该视频信号的大小受到3D内容生成的设备与显示系统之间的输入接口和输出接口之间的约束,一般为8K。此时将视频信号分割为左眼视频流和右眼视频流的情况下,会导致生成的左眼数据流和右眼数据流为均小于等于4K的数据流,即此时输出到3D模组中,其显示的效果较差,显示的分辨率较低,造成裸眼3D的观看体验较差。
在处理视频信号的情况下,对视频信号进行分割为左眼视频流和右眼视频流后,由于在显示系统中,不会受到带宽的影响,此时的左眼视频流和右眼视频流之和可以大于8K。因此,对第三视频流和第四视频流进行指定倍率的拉伸,生成左眼数据流和右眼数据流,生成的左眼数据流和右眼数据流经过水平拉伸后,其分辨率得到有效地提升,从而能够使得在3D模组中输出的较为清晰的帧图像,进而能够确保裸眼3D图像的显示效果。
在一些实施例中,视频信号识别为第三模式的视频信号,第三模式的视频信号为2D的视频流,此时可以直接将2D视频流直接在3D模组上输出即可。
在一些实施例中,该空间现实显示方法还包括:
获取左眼三维坐标和右眼三维坐标;
基于左眼三维坐标和右眼三维坐标,确定视频信号。
在本实施例中,对于视频信号的生成可以通过显示系统来完成,即3D内容在其他的3D内容生成的设备上生成了,发送至显示系统,显示系统通过从视觉识别装置中获取左眼三维坐标和右眼三维坐标,并通过以屏幕(3D模组上表面的正中心)正中心为原点,垂直于棱镜表面方向为Z轴,以棱镜上表面的宽度方向为X轴,以棱镜的长度方向为Y轴,建立三维坐标系。根据左眼三维坐标和右眼三维坐标调整输出的3D内容,从而生成视频信号。
也可以将3D内容的生成设备作为显示设备的一部分,通过从视觉识别装置中获取左眼三维坐标和右眼三维坐标,并根据左眼三维坐标和右眼三维坐标生成3D内容作为视频信息。
在本实施例中,通过引入左眼三维坐标和右眼三维坐标生成对应的3D内容,能够根据观看者的视角进行调整3D内容,而通过控制第一子像素和第二子像素的输出对3D模组进行进一步的显示调整,以使得观看者能够体验到更好的裸眼3D的视觉效果。
作为本申请实施例的另一个方面,如图7所示,本申请实施例提供一种空间现实显示系统,显示系统700用于执行本申请的所有实施例的空间现实显示方法。
显示系统700可以为裸眼3D的显示模组,例如通过显示模组内的处理器、处理芯片等执行该空间现实显示方法,并在显示模组中显示。显示系统也可以为另外的控制器或处理器,在显示系统700上执行了空间现实显示方法后,控制裸眼3D的显示模组在第一子像素上输出左眼数据流和在第二子像素上输出右眼数据流。
本实施例的空间现实显示系统,通过跟踪人眼位置坐标,实时确定出显示模组中液晶屏的第一子像素和第二子像素,通过在第一子像素中输出左眼数据流和在第二子像素中输出右眼数据流,从而能够实时的根据人眼位置坐标输出在对应的第一子像素内输出左眼数据流,在第二子像素内输出右眼数据流,即实现了根据人眼的坐标位置对显示模组内的像素进行了重新排列,以适配观看者的人眼位置。使得观看者在不同角度或不同位置的情况下,都能够清晰地观看到裸眼3D,而且无需对显示屏进行移动,避免了因为移动显示屏往往存在偏差,造成难以定位到人眼合适的位置,导致裸眼3D效果较差的问题,进而能够带来较高的裸眼3D视觉效果,提升观看者的观看体验。
在一些实施例中,显示系统700包括:
显示装置700,用于执行上述实施例中的空间现实显示方法,以及
信号输出装置720,与显示装置700电连接,用于执行上述实施例中生成视频信号的空间现实显示方法,并将生成的视频信号输出至显示装置700。
显示装置700执行上述实施例中获取视频信号后的空间现实显示方法的方法。而信号输出装置720执行视频信号生成的空间现实显示方法的方法,并将生成后的视频信号发送至显示装置700中,通过显示装置700对视频信号进行处理,并控制3D模组输出裸眼3D视频。
信号输出装置720例如PC(Personal Computer,个人计算机)、笔记本电脑、移动终端、3D内容生成处理器或者是云端服务器,例如:在PC的3D软件上生成的内容,例如在UE/Unity上生成的3D内容,基于3D内容生成视频信号。
在一些实施例中,显示系统700包括:
人眼识别装置730,电连接显示装置700和信号输出装置720,用于向显示装置700输出人眼位置坐标和向信号输出装置输出左眼三维坐标、右眼三维坐标。
人眼识别装置730可以为一体式的视觉识别装置,通过自带的摄像头拍摄到人脸图像,通过例如训练好的神经网络等方式确定出人眼位置坐标和左眼三维坐标、右眼三维坐标,从而对应发送给显示装置700和信号输出装置720,以使得显示装置700和信号输出装置720能够执行对应的空间现实显示方法。
在一些实施例中,人眼识别装置730包括:
采集单元731,用于采集人眼信息;
识别单元732,电连接采集单元731、显示装置700和信号输出装置720,用于对人眼信息进行识别,确定人眼坐标信息,人眼坐标信息包括人眼位置坐标、左眼三维坐标和右眼三维坐标,并将人眼位置坐标输出至显示装置700、将左眼三维坐标和右眼三维坐标输出至信号输出装置720。
采集单元731可以为相机、摄像头等,可以采用摄像头采集到人脸图像,识别单元732可以为眼部识别装置,例如SOC(System on Chip,系统级芯片)、训练好的神经网络等对人脸图像进行识别,确定出人眼位置坐标。也可以采用一体式的视觉识别装置,直接识别到人眼坐标信息,人眼坐标信息包括人眼位置坐标、左眼三维坐标和右眼三维坐标。通过分别向显示装置700发送人眼位置坐标以及向信号输出装置720发送左眼三维坐标和右眼三维坐标的方式,以使得显示装置700能够获取到人眼位置坐标,信号输出装置720能够获取到左眼三维坐标和右眼三维坐标,从而使得显示装置700和信号输出装置720能够执行对应的空间现实显示方法。
上述实施例的空间现实显示方法的其他构成可以采用于本领域普通技术人员现在和未来知悉的各种技术方案,这里不再详细描述。
在本说明书的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“长度”、“宽度”、“厚度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”、“顺时针”、“逆时针”、“轴向”、“径向”、“周向”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本申请和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本申请的限制。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者多个该特征。在本申请的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
在本申请中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”、“固定”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接,还可以是通信;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本申请中的具体含义。
在本申请中,除非另有明确的规定和限定,第一特征在第二特征之“上”或之“下”可以包括第一和第二特征直接接触,也可以包括第一和第二特征不是直接接触而是通过它们之间的另外的特征接触。而且,第一特征在第二特征“之上”、“上方”和“上面”包括第一特征在第二特征正上方和斜上方,或仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、“下方”和“下面”包括第一特征在第二特征正上方和斜上方,或仅仅表示第一特征水平高度小于第二特征。
上文的公开提供了许多不同的实施方式或例子用来实现本申请的不同结构。为了简化本申请的公开,上文中对特定例子的部件和设置进行描述。当然,它们仅仅为示例,并且目的不在于限制本申请。此外,本申请可以在不同例子中重复参考数字和/或参考字母,这种重复是为了简化和清楚的目的,其本身不指示所讨论各种实施方式和/或设置之间的关系。流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分。并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。
应理解的是,本申请的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。上述实施例方法的全部或部分步骤是可以通过程序来指令相关的硬件完成,该程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本申请各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。上述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读存储介质中。该存储介质可以是只读存储器,磁盘或光盘等。
以上,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到其各种变化或替换,这些都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。
Claims (13)
1.一种空间现实显示方法,其特征在于,包括:
获取人眼位置坐标、显示模组的参数和左眼数据流、右眼数据流;
根据所述显示模组的参数,确定坐标系;
根据所述人眼位置坐标、所述显示模组的参数和所述坐标系,确定左右图对应的周期单元的属性参数,所述周期单元的属性参数包括周期单元的宽度和周期单元的边界的横坐标,其中,所述周期单元的宽度为左右图中相邻左图和右图的宽度之和;
根据所述显示模组的参数、所述周期单元的宽度和所述周期单元的边界的横坐标,确定第一子像素组和第二子像素组,其中,所述第一子像素组中的第一子像素为显示模组中输出所述左眼数据流的子像素,所述第二子像素组中的第二子像素为在所述显示模组中输出所述右眼数据流的子像素。
2.根据权利要求1所述的空间现实显示方法,其特征在于,所述显示模组的参数包括显示模组上表面的中心、显示模组上表面的垂直方向以及显示模组的宽度方向;所述根据所述显示模组的参数,确定坐标系包括:
以所述显示模组上表面的中心为原点、以所述显示模组上表面的垂直方向为第一坐标轴方向以及以所述显示模组的宽度方向为第二坐标轴方向,确定坐标系。
3.根据权利要求1所述的空间现实显示方法,其特征在于,所述显示模组的参数包括显示模组中棱镜的第一宽度和所述显示模组中棱镜表面至液晶屏的第一距离;所述根据所述人眼位置坐标、所述显示模组的参数和所述坐标系,确定周期单元的宽度和周期单元的边界的横坐标包括:
根据所述第一宽度、所述第一距离、所述人眼位置坐标以及所述坐标系,确定左右图的周期单元的宽度和周期单元的边界的横坐标。
4.根据权利要求1所述的空间现实显示方法,其特征在于,所述显示模组的参数包括显示模组中液晶屏的第二宽度,所述根据所述显示模组的参数、所周期单元的宽度和所述周期单元的边界的横坐标,确定第一子像素组和第二子像素组包括:
根据所述显示模组中液晶屏的第二宽度,根据所述周期单元的宽度、所述周期单元的边界的横坐标以及所述第二宽度,确定所述液晶屏的第一分布余量;
根据所述第一分布余量和所述周期单元的宽度,确定第一子像素组和第二子像素组。
5.根据权利要求4所述的空间现实显示方法,其特征在于,所述显示模组的参数还包括显示模组中液晶屏的各子像素的中点与液晶屏的边缘的第二距离;所述根据所述第一分布余量和所述周期单元的宽度,确定第一子像素组和第二子像素组包括:
根据所述第二距离、所述第一分布余量和所述周期单元的宽度,确定子像素的第二分布余量;
在子像素的第二分布余量小于或等于二分之一的所述周期单元的宽度的情况下,确定该子像素为第一子像素组中的第一子像素;
在子像素的第二分布余量大于二分之一的所述周期单元的宽度的情况下,确定该子像素为第二子像素组中的第二子像素。
6.根据权利要求1所述的空间现实显示方法,其特征在于,所述方法还包括:
获取视频信号;
根据所述视频信号,确定左眼数据流和右眼数据流。
7.根据权利要求6所述的空间现实显示方法,其特征在于,所述根据所述视频信号,确定左眼数据流和右眼数据流包括:
在所述视频信号的模式为第一模式的情况下,生成第一视频流并将所述第一视频流存储于第一空间和生成第二视频流并将所述第二视频流存储于第二空间,所述第一模式的视频信号为所述第一视频流和所述第二视频流为不同步的视频流;
在指定周期内重复从所述第一空间内读取所述第一视频流,生成左眼数据流;
在指定周期内重复从所述第二空间内读取所述第二视频流,生成右眼数据流。
8.根据权利要求6所述的空间现实显示方法,其特征在于,所述根据所述视频信号,确定左眼数据流和右眼数据流包括:
在所述视频信号的模式为第二模式的情况下,生成第三视频流和第四视频流,所述第三视频流和所述第四视频流为并列的视频流;
对所述第三视频流和所述第四视频流进行指定倍率的拉伸,生成左眼数据流和右眼数据流,其中,所述指定倍率大于等于2。
9.根据权利要求6所述的空间现实显示方法,其特征在于,所述方法还包括:
获取左眼三维坐标、右眼三维坐标以及3D内容;
基于所述左眼三维坐标和所述右眼三维坐标对所述3D内容的视角进行调整,确定所述视频信号。
10.一种空间现实显示系统,其特征在于,所述显示系统用于执行如权利要求1-9任一所述的空间现实显示方法。
11.根据权利要求10所述的空间现实显示系统,其特征在于,所述显示系统包括:
显示装置,用于执行如权利要求1-8任一所述的空间现实显示方法,以及
信号输出装置,与所述显示装置电连接,用于执行如权利要求9所述的空间现实显示方法,并将生成的视频信号输出至所述显示装置。
12.根据权利要求11所述的空间现实显示系统,其特征在于,所述显示系统包括:
人眼识别装置,电连接所述显示装置和所述信号输出装置,用于向所述显示装置输出人眼位置坐标和向所述信号输出装置输出左眼三维坐标、右眼三维坐标。
13.根据权利要求12所述的空间现实显示系统,其特征在于,所述人眼识别装置包括:
采集单元,用于采集人眼信息;
识别单元,电连接所述采集单元、所述显示装置和所述信号输出装置,用于对所述人眼信息进行识别,确定人眼坐标信息,所述人眼坐标信息包括人眼位置坐标、左眼三维坐标和右眼三维坐标,并将所述人眼位置坐标输出至所述显示装置、将所述左眼三维坐标和所述右眼三维坐标输出至所述信号输出装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211351069.XA CN117998073A (zh) | 2022-10-31 | 2022-10-31 | 空间现实显示方法及空间现实显示系统 |
PCT/CN2023/127651 WO2024093893A1 (zh) | 2022-10-31 | 2023-10-30 | 空间现实显示方法、空间现实显示系统以及非易失性计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211351069.XA CN117998073A (zh) | 2022-10-31 | 2022-10-31 | 空间现实显示方法及空间现实显示系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117998073A true CN117998073A (zh) | 2024-05-07 |
Family
ID=90889456
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211351069.XA Pending CN117998073A (zh) | 2022-10-31 | 2022-10-31 | 空间现实显示方法及空间现实显示系统 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN117998073A (zh) |
WO (1) | WO2024093893A1 (zh) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104202590B (zh) * | 2014-06-19 | 2016-09-28 | 杭州立体世界科技有限公司 | 高清裸眼便携式立体影视播放器控制电路及转换方法 |
CN107172417B (zh) * | 2017-06-30 | 2019-12-20 | 深圳超多维科技有限公司 | 一种裸眼3d屏幕的图像显示方法、装置及系统 |
CN108174182A (zh) * | 2017-12-30 | 2018-06-15 | 上海易维视科技股份有限公司 | 三维跟踪式裸眼立体显示视区调整方法及显示系统 |
JP2022114232A (ja) * | 2021-01-26 | 2022-08-05 | 京セラ株式会社 | 3次元表示装置 |
-
2022
- 2022-10-31 CN CN202211351069.XA patent/CN117998073A/zh active Pending
-
2023
- 2023-10-30 WO PCT/CN2023/127651 patent/WO2024093893A1/zh unknown
Also Published As
Publication number | Publication date |
---|---|
WO2024093893A1 (zh) | 2024-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11632537B2 (en) | Method and apparatus for obtaining binocular panoramic image, and storage medium | |
CN102789058B (zh) | 立体图像生成装置和立体图像生成方法 | |
CN102428707B (zh) | 立体视用图像对位装置和立体视用图像对位方法 | |
JP5729915B2 (ja) | 多視点映像表示装置、多視点映像表示方法及び記憶媒体 | |
CN101668221B (zh) | 图像处理设备以及图像处理方法 | |
US20070165942A1 (en) | Method for rectifying stereoscopic display systems | |
US9460555B2 (en) | System and method for three-dimensional visualization of geographical data | |
KR20120016408A (ko) | 3차원 컨텐츠를 출력하는 디스플레이 기기의 영상 출력 방법 및 그 방법을 채용한 디스플레이 기기 | |
CN108076208B (zh) | 一种显示处理方法及装置、终端 | |
US8872902B2 (en) | Stereoscopic video processing device and method for modifying a parallax value, and program | |
JP2013065951A (ja) | 表示装置、表示方法、及びプログラム | |
WO2022267573A1 (zh) | 裸眼3d显示模式的切换控制方法、介质和系统 | |
JP2011164781A (ja) | 立体画像生成プログラム、情報記憶媒体、立体画像生成装置、及び立体画像生成方法 | |
US20140071237A1 (en) | Image processing device and method thereof, and program | |
CN112752085A (zh) | 基于人眼跟踪的裸眼3d视频播放系统及方法 | |
CN102026012B (zh) | 平面视频立体化转换深度图生成方法和装置 | |
JP4634863B2 (ja) | 立体視画像生成装置及び立体視画像生成プログラム | |
KR100980298B1 (ko) | 모델링된 2차원 영상의 3차원 영상 변환 방법 | |
CN108234994B (zh) | 一种人眼位置确定方法及装置 | |
US20080094468A1 (en) | Method for displaying stereoscopic image and display system thereof | |
US7034819B2 (en) | Apparatus and method for generating an interleaved stereo image | |
TWI462569B (zh) | 三維影像攝相機及其相關控制方法 | |
CN109922326B (zh) | 裸眼3d视频图像的分辨率确定方法、装置、介质及设备 | |
CN117998073A (zh) | 空间现实显示方法及空间现实显示系统 | |
US20240121373A1 (en) | Image display method and 3d display system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |