CN114390267A - 立体图像数据合成方法、装置、电子设备及存储介质 - Google Patents

立体图像数据合成方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN114390267A
CN114390267A CN202210028506.8A CN202210028506A CN114390267A CN 114390267 A CN114390267 A CN 114390267A CN 202210028506 A CN202210028506 A CN 202210028506A CN 114390267 A CN114390267 A CN 114390267A
Authority
CN
China
Prior art keywords
image data
image
target object
face
viewer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210028506.8A
Other languages
English (en)
Inventor
陆小松
郑维涛
蒲天发
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Shiruidi Photoelectric Co ltd
Ningbo Thredim Optoelectronics Co ltd
Original Assignee
Jiangsu Shiruidi Photoelectric Co ltd
Ningbo Thredim Optoelectronics Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu Shiruidi Photoelectric Co ltd, Ningbo Thredim Optoelectronics Co ltd filed Critical Jiangsu Shiruidi Photoelectric Co ltd
Priority to CN202210028506.8A priority Critical patent/CN114390267A/zh
Publication of CN114390267A publication Critical patent/CN114390267A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes

Abstract

本申请提供一种立体图像数据合成方法、装置、电子设备及存储介质,属于图像处理的技术领域。该立体图像数据合成方法,包括:获取观看者图像中目标对象的人脸图像数据;根据人脸图像数据,得到目标对象双眼的中心点在观看者图像中的双眼中心点坐标;确定双眼中心点坐标相对于预设初始中心坐标的补偿值;根据补偿值确定用于合成立体图像数据的具有视差的左眼图像数据和右眼图像数据各自的补偿权重;根据左眼图形数据、右眼图像数据以及各自的补偿权重进行合成,得到待展示立体图像数据。通过本方案得到的待展示立体图像数据聚焦于目标对象的双眼,可以为目标对象提供最好的立体图像数据展示效果,实现了根据需要切换聚焦对象的效果。

Description

立体图像数据合成方法、装置、电子设备及存储介质
技术领域
本申请涉及图像处理的技术领域,具体而言,涉及一种立体图像数据合成方法、装置、电子设备及存储介质。
背景技术
裸眼3D显示器由于能够呈现立体纵深,因此具有更逼真的视觉沉浸感。目前主流的裸眼3D显示器采用狭缝光栅或柱透镜技术,存在视区不连续的问题,在某些区域看到的图像有重影或反视差,造成眩晕或不适感。业内有采用人眼追踪的方式,根据摄像头捕捉人所处的位置,将显示器合成3D交织图像的相位进行实时调整,使得观看者无论移动到什么位置,都能看到视差关系正确的立体合成图像。但是现有的人眼追踪仅适合于单人捕捉和跟踪,当存在多人同时观看立体合成图像(例如远程会议这种应用场景)时,摄像头无法判断当前应该跟踪谁,而基于全局静态特征(例如依据座位布局主次关系)的判断,则无法依据需要切换聚焦跟踪对象。
发明内容
本申请提供一种立体图像数据合成方法、装置、电子设备及存储介质,以解决现有技术在面对多人同时观看立体合成图像时,现有的人眼追踪技术无法判断应该跟踪谁,以及基于全局静态特征的判断无法依据需要切换聚焦跟踪对象的问题。
第一方面,本申请提供一种立体图像数据合成方法,应用于包含图像采集单元的电子设备,所述图像采集单元用于采集观看立体合成图像的观看者图像,所述方法包括:获取目标对象相对于预设位置的方位角、俯仰角;基于所述方位角和预先获取的所述图像采集单元的水平分辨率横向视场角,得到所述目标对象的人脸在所述观看者图像中的横坐标;基于所述俯仰角和预先获取的所述图像采集单元的竖直分辨率、纵向视场角,得到所述目标对象的人脸在所述观看者图像中的纵坐标;根据所述目标对象的人脸在所述观看者图像中的所述横坐标和所述纵坐标,从所述观看者图像中获取目标对象的人脸图像数据;根据所述人脸图像数据,得到所述目标对象双眼的中心点在所述观看者图像中的双眼中心点坐标;确定所述双眼中心点坐标相对于预设初始中心坐标的补偿值;根据所述补偿值确定用于合成立体图像数据的具有视差的左眼图像数据和右眼图像数据各自的补偿权重;根据所述左眼图形数据、所述右眼图像数据以及所述左眼图像数据和所述右眼图像数据各自的补偿权重进行合成,得到待展示立体图像数据。
本申请实施例中,通过获取目标对象相对于预设位置的方位角、俯仰角,然后基于方位角和预先获取的图像采集单元的水平分辨率横向视场角,可以精确地得到目标对象的人脸在观看者图像中的横坐标,再基于俯仰角和预先获取的图像采集单元的竖直分辨率、纵向视场角,可以精确地得到目标对象的人脸在观看者图像中的纵坐标,通过目标人脸精确的位置坐标,可以从观看者图像中准确定位目标对象的人脸,有效防止错误定位人脸情况的发生,提高了人脸定位的精准度,保证了获取的人脸图像数据的准确性。同时,通过获取目标对象在观看者图像中的双眼中心坐标,然后确定该双眼中心点坐标相对于预设初始中心坐标的补偿值,根据该补偿值确定左眼图像数据、右眼图像数据的补偿权重,使得通过根据左眼图形数据、右眼图像数据以及左眼图像数据和右眼图像数据各自的补偿权重进行合成,得到的待展示立体图像数据聚焦于目标对象的双眼,进而在展示该待展示立体图像数据时,可以为目标对象提供最好的立体图像数据展示效果,实现了根据需要切换聚焦对象的效果。
结合上述第一方面提供的技术方案,在一些可能的实施方式中,若设置所述图像采集单元的位置与所述预设位置不重合时,所述方法还包括:获取所述目标对象的相对于所述预设位置的第一距离,以及所述预设位置与所述图像采集单元的第二距离;基于所述俯仰角和预先获取的所述图像采集单元的竖直分辨率、纵向视场角,得到所述目标对象的人脸在所述观看者图像中的纵坐标,包括:基于所述俯仰角、所述第一距离、所述第二距离和预先获取的所述图像采集单元的竖直分辨率、纵向视场角,得到所述目标对象的人脸在所述观看者图像中的纵坐标。
本申请实施例中,当设置图像采集单元的位置与预设位置不重合时,还需要获取目标对象的相对于预设位置的第一距离,以及预设位置与图像采集单元的第二距离,然后基于俯仰角和预先获取的图像采集单元的竖直分辨率、纵向视场角,可以得到目标对象的人脸在观看者图像中的纵坐标,通过本方案,即使设置图像采集单元的位置与预设位置不重合,也可以得到目标人脸精确的位置坐标,并且,还可以根据实际需要设置图像采集单元和预设位置,提高了本方案的适用性。
结合上述第一方面提供的技术方案,在一些可能的实施方式中,所述根据所述目标对象的人脸在所述观看者图像中的所述横坐标和所述纵坐标,从所述观看者图像中获取目标对象的人脸图像数据,包括:获取所述观看者图像中所有人脸的人脸位置坐标,得到人脸位置坐标集;确定所述人脸位置坐标集中与所述目标人脸位置坐标最接近的人脸位置坐标对应的人脸为所述目标对象的人脸,所述目标人脸位置坐标包括所述目标对象的人脸在所述观看者图像中的所述横坐标和所述纵坐标;采集所述目标对象的人脸图像数据。
本申请实施例中,通过从包括有观看者图像中所有人脸的人脸位置坐标的人脸位置坐标集中,找到与该目标人脸位置坐标最接近的人脸位置坐标,并将该人脸位置坐标对应的人脸确定为目标对象的人脸,进而可以快速获取目标对象的人脸图像数据,无需根据获取的目标人脸位置坐标来重新确定人脸,进而提高获取人脸图像数据的效率。
结合上述第一方面提供的技术方案,在一些可能的实施方式中,所述根据所述目标对象的人脸在所述观看者图像中的所述横坐标和所述纵坐标,从所述观看者图像中获取目标对象的人脸图像数据,包括:采集所述目标人脸位置坐标的预设范围内的人脸图像数据,所述目标人脸位置坐标包括所述目标对象的人脸在所述观看者图像中的所述横坐标和所述纵坐标。
本申请实施例中,通过采集目标人脸位置坐标的预设范围内的人脸图像数据,可以准确获取目标对象的人脸图像数据,防止获取错误的人脸图像数据,进而提高获取的人脸图像数据的准确性。
结合上述第一方面提供的技术方案,在一些可能的实施方式中,所述根据所述补偿值确定用于合成立体图像数据的具有视差的左眼图像数据和右眼图像数据各自的补偿权重,包括:针对指定图像数据中的每一个子像素点,基于所述补偿值和该子像素点所属像素点的坐标、该子像素点的预设权重,计算该子像素点的插值系数,所述像素点包括红子像素点、绿子像素点、蓝子像素点,所述红子像素点、所述绿子像素点、所述蓝子像素点各自的预设权重不同,所述指定图像数据为所述左眼图像数据或所述右眼图像数据;基于所述插值系数,得到该子像素点的补偿权重。
本申请实施例中,针对指定图像数据中的每一个子像素点,计算该子像素点的插值系数,然后基于该子像素点的插值系数得到该指定图像数据中该子像素点的补偿权重,通过获取指定图像数据中的每一个子像素点的补偿权重,可以使合成得到的待展示立体图像数据能更加准确地聚焦于目标对象,为目标对象提供最好的立体图像数据展示效果。
结合上述第一方面提供的技术方案,在一些可能的实施方式中,所述针对指定图像数据中的每一个子像素点,基于所述补偿值和该子像素点所属像素点的坐标、该子像素点的预设权重,计算该子像素点的插值系数,包括:基于所述补偿值和该子像素点所属像素点的坐标、该子像素点的预设权重,计算该子像素点的浮点数;基于该子像素点的所述浮点数,得到该子像素点的所述插值系数。
本申请实施例中,通过补偿值和该子像素点所属像素点的坐标、该子像素点的预设权重,计算该子像素点的浮点数,再基于该子像素点的浮点数,得到该子像素点的所述插值系数,可以准确地获得该子像素点的插值系数,从而为后续对所述指定图像数据中的该子像素点提供准确的插值系数,提高补偿的准确度。
第二方面,本申请提供一种立体图像数据合成装置,包括获取模块、处理模块,获取模块用于获取目标对象相对于预设位置的方位角、俯仰角;处理模块用于基于所述方位角和预先获取的所述图像采集单元的水平分辨率横向视场角,得到所述目标对象的人脸在所述观看者图像中的横坐标;所述处理模块还用于基于所述俯仰角和预先获取的所述图像采集单元的竖直分辨率、纵向视场角,得到所述目标对象的人脸在所述观看者图像中的纵坐标;所述获取模块还用于根据所述目标对象的人脸在所述观看者图像中的所述横坐标和所述纵坐标,从所述观看者图像中获取目标对象的人脸图像数据;所述处理模块还用于根据所述人脸图像数据,得到所述目标对象双眼的中心点在所述观看者图像中的双眼中心点坐标;所述处理模块还用于确定所述双眼中心点坐标相对于预设初始中心坐标的补偿值;所述处理模块,还用于根据所述补偿值确定用于合成立体图像数据的具有视差的左眼图像数据和右眼图像数据各自的补偿权重;所述处理模块,还用于根据所述左眼图形数据、所述右眼图像数据以及所述左眼图像数据和所述右眼图像数据各自的补偿权重进行合成,得到待展示立体图像数据。
结合上述第一方面提供的技术方案,在一些可能的实施方式中,若设置所述图像采集单元的位置与所述预设位置不重合时,所述获取模块,具体用于获取所述目标对象的相对于所述预设位置的第一距离,以及所述预设位置与所述图像采集单元的第二距离;所述处理模块,具体用于基于所述俯仰角、所述第一距离、所述第二距离和预先获取的所述图像采集单元的竖直分辨率、纵向视场角,得到所述目标对象的人脸在所述观看者图像中的纵坐标。
第三方面,本申请实施例提供一种电子设备,包括:存储器、处理器和图像采集单元,所述存储器和所述处理器连接,所述图像采集单元和所述处理器连接;所述存储器,用于存储程序;所述图像采集单元,用于采集观看立体合成图像的观看者图像;所述处理器,用于调用存储于所述存储器中的程序和所述观看者图像,以执行如上述第一方面实施例和/或结合上述第一方面实施例的任一种可能的实施方式提供的方法。
第四方面,本申请实施例提供一种存储介质,其上存储有计算机程序,所述计算机程序被计算机运行时,执行如上述第一方面实施例和/或结合上述第一方面实施例的任一种可能的实施方式提供的方法。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例示出的一种立体图像数据合成方法的流程示意图;
图2为本申请实施例示出的一种方位角和俯仰角的示意图;
图3为本申请实施例示出的一种获取目标对象在观看者图像中的人脸的流程示意图;
图4为本申请实施例示出的另一种获取目标对象在观看者图像中的人脸的流程示意图;
图5为本申请实施例示出的一种立体图像数据合成装置的结构框图;
图6为本申请实施例示出的一种电子设备的结构框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本申请的描述中诸如“第一”、“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
再者,本申请中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。
下面将结合附图对本申请的技术方案进行清楚、完整地描述。
请参阅图1,图1为本申请实施例提供的一种立体图像数据合成方法,该立体图像数据合成方法应用于包含图像采集单元的电子设备,该图像采集单元可以是摄像头、照相机。
下面将结合图1对其包含的步骤进行说明。
S100:获取观看者图像中目标对象的人脸图像数据。
观看者图像可以是图像采集单元实时采集的,或者,也可以是图像采集单元预先采集好并保存在数据库或磁盘中的,在需要时直接获取即可,其中,观看者图像中除包括有目标对象的人脸外,还可以包括其他观看者的人脸。
一种实施方式下,可以是用户直接指定观看者图像中的某一个人物为目标对象,此外,目标对象还可以不为用户指定,可以是通过检测当前观看者图像中的观看者是否发言,将正在发言的观看者确定为目标对象,或者,可以是分析观看者图像中的每个观看者的肢体语言,将作出预设肢体语言的观看者确定为目标对象,例如,将举手的观看者确定为目标对象。
一种实施方式下,获取观看者图像中目标对象的人脸图像数据的具体过程可以是,首先获取目标对象相对于预设位置的方位角、俯仰角;然后基于方位角和预先获取的图像采集单元的水平分辨率、横向视场角,得到目标对象的人脸在观看者图像中的横坐标;再基于俯仰角和预先获取的图像采集单元的竖直分辨率、纵向视场角,得到目标对象的人脸在观看者图像中的纵坐标;并根据目标对象的人脸在观看者图像中的横坐标和纵坐标,从观看者图像中获取目标对象的人脸图像数据。
其中,上述的图像采集单元的水平分辨率表示图像采集单元采集的图像在水平方向的像素点数量,竖直分辨率表示图像采集单元采集的图像在竖直方向的像素点数量,纵向视场角为图像采集单元可以采集的图像的视野上边界和视野下边界与图像采集单元所在位置形成的夹角,同理,横向视场角为图像采集单元可以采集的图像的视野左边界和视野右边界与图像采集单元所在位置形成的夹角,为了便于理解上述的图像采集单元的纵向视场角、横向视场角,请参阅图2,图2中的点A为图像采集单元所在的位置,α为横向视场角,β为纵向视场角。其中,图像采集单元的横向视场角和纵向视场角可以依据观看者的坐席布局设置,例如可以设置为α=60°,β=45°,此处不对其具体取值作出限制,但图像采集单元的横向视场角和纵向视场角设置过大会导致采集的图像畸变严重,并且会导致拍摄到远处单人的线分辨率不足,从而影响定位精度。
为了便于理解上述的目标对象相对于预设位置的方位角、俯仰角,请继续参阅图2,图2中的点O为预设位置,θ为方位角,即为目标对象与XOY平面的夹角,
Figure BDA0003465398510000101
为俯仰角,即为目标对象与XOZ平面的夹角,其中,XYZ-O坐标系为以图像采集单元的视野中轴为Z轴,X轴平行于图像采集单元视野,且X轴水平设置,Y轴竖直向上。
可选的,当设置图像采集单元的位置与预设位置重合时,用HR表示图像采集单元的水平分辨率,VR表示图像采集单元的竖直分辨率,α表示横向视场角,β表示纵向视场角,θ表示方位角,
Figure BDA0003465398510000102
表示俯仰角,则目标对象的人脸在观看者图像中的横坐标u和纵坐标v为:
Figure BDA0003465398510000103
可选的,当设置图像采集单元的位置与预设位置不重合时,目标人脸的横坐标与上述的设置图像采集单元的位置与预设位置重合时的横坐标相同,此时,还需要获取目标对象的相对于预设位置的第一距离,以及预设位置与图像采集单元的第二距离,然后基于俯仰角、第一距离、第二距离和预先获取的图像采集单元的竖直分辨率、纵向视场角,得到目标对象的人脸在观看者图像中的纵坐标。
其中,用d表示目标对象的相对于预设位置的第一距离,用x表示预设位置与图像采集单元的第二距离,则目标对象的人脸在观看者图像中的横坐标u和纵坐标v为:
Figure BDA0003465398510000111
可选的,获取目标对象相对于预设位置的方位角、俯仰角,以及获取目标对象的相对于预设位置的第一距离,可以是通过音源定位单元、红外定位单元等可以用于获取目标对象位置的定位设备获取的,此时,定位设备所在的位置即为预设位置。
其中,当音源定位单元为麦克风阵列及相应的信号处理电路时,利用麦克风阵列获取目标对象相对于预设位置的方位角、俯仰角,以及获取目标对象的相对于预设位置的第一距离时,可以将图像采集单元设置于麦克风阵列的几何中心处,麦克风阵列的几何中心即为预设位置,此时,图像采集单元的位置与预设位置重合,仅需要获取目标对象相对于麦克风阵列的方位角、俯仰角,即可计算得到目标人脸位置的横坐标和纵坐标;当图像采集单元不设置于麦克风阵列的几何中心处时,还需要获取麦克风阵列与图像采集单元的距离,并通过麦克风阵列获取目标对象与该麦克风阵列的距离,进而计算得到目标人脸位置的横坐标和纵坐标。其中,音源定位单元与图像采集单元的距离为,麦克风阵列的几何中心点与图像采集单元的距离。此时,观看者中进行发言的人即为目标对象。
一种实施方式下,在获得目标对象的人脸在观看者图像中的横坐标和纵坐标后,还需要获取观看者图像中所有人脸的人脸位置坐标,得到人脸位置坐标集;然后确定人脸位置坐标集中与目标人脸位置坐标最接近的人脸位置坐标对应的人脸为目标对象的人脸,目标人脸位置坐标包括目标对象的人脸在观看者图像中的横坐标和纵坐标;再采集目标对象的人脸图像数据。
其中,当使用麦克风阵列作为定位单元时,利用上述方法确定目标人脸的具体流程如图3所示,首先对麦克风阵列进行初始化,然后利用麦克风阵列开始监听,从监听的声音中确认有效发声,将该有效发声的对象作为目标对象,得到与该目标对象的位置信息,该位置信息包括方位角、俯仰角、距离,然后计算目标对象人脸在观看者图像中的人脸坐标。同时,对摄像头进行初始化,并获取摄像头采集的帧图像,即观看者图像,从该帧图像中检测人脸,并获得每个人脸的人脸坐标,得到人脸坐标集,然后根据目标对象人脸在观看者图像中的人脸坐标从人脸坐标集中筛选出目标对象的人脸。
其中,可以通过人脸识别技术来获取观看者图像中所有人脸的人脸位置坐标,人脸识别技术已为本领域技术人员所熟知,为简要描述,此处不再赘述。
一种实施方式下,在获得目标对象的人脸在观看者图像中的横坐标和纵坐标后,采集目标人脸位置坐标的预设范围内的人脸图像数据,目标人脸位置坐标包括目标对象的人脸在观看者图像中的横坐标和纵坐标。
其中,预设范围可以是宽度为w和高度为h的矩形区域,并且,其宽度w和高度h的具体数值以能够有效区分相邻坐着的两个人为准,即保障一个预设范围不会检索到两张及以上人脸。
其中,当使用麦克风阵列作为定位单元时,利用上述方法确定目标人脸的具体流程如图4所示,首先对麦克风阵列进行初始化,然后利用麦克风阵列开始监听,从监听的声音中确认有效发声,将该有效发声的对象作为目标对象,得到与该目标对象的位置信息,该位置信息包括方位角、俯仰角、距离,然后计算目标对象人脸在观看者图像中的人脸坐标。同时,对摄像头进行初始化,并获取摄像头采集的帧图像,即观看者图像,利用目标对象人脸在观看者图像中的人脸坐标对图像进行裁剪,并检测裁剪得到的图像中的人脸,该人脸即为目标对象的人脸。
可选的,在利用声源定位单元对目标对象进行定位,且在目标对象与应用该立体图像合成方法的电子设备的距离较近时,考虑到此时发声器官与人眼之间还存在上下的位置偏差,所以预设范围的区域应为围绕目标人脸位置坐标左右对称,且目标人脸位置坐标上方的区域略多于下方的区域。
S200:根据人脸图像数据,得到目标对象双眼的中心点在观看者图像中的双眼中心点坐标。
在获得目标对象在观看者图像中的人脸图像数据后,基于人脸图像数据,得到目标对象双眼的中心点在观看者图像中的双眼中心点坐标。
其中,可以利用级联分类器模式识别算法,在所获得的人脸图像数据按照人脸模板和梯度变化的窗口进行人脸检测,获取到人脸后再进行人眼定位,得到双眼坐标,然后根据双眼坐标计算得到双眼中心点坐标。或者,也可以利用深度学习方法检测人脸图像数据,进而得到双眼中心点坐标。利用级联分类器模式识别算法、深度学习方法检测人脸图像数据,进而得到双眼中心点坐标的具体方法及原理已为本领域技术人员所熟知,为简要描述,此处不再赘述。
S300:确定双眼中心点坐标相对于预设初始中心坐标的补偿值。
在获取目标对象的双眼中心点坐标后,确定双眼中心点坐标相对于预设初始中心坐标的补偿值,其中,预设初始中心点为左眼图像数据和右眼图像数据直接进行合成得到的待展示立体图像聚焦的位置,即观看待展示立体图像效果最好的位置。
其中,用(u1,v1)表示目标对象的双眼中心点坐标,用(u0,v0)表示预设初始中心坐标,则补偿值r=[u-u0+(v-v0)*c3]/pd,其中,c3为裸眼3D显示器的光栅在水平方向每个周期覆盖的次像素数量,pd为图像采集单元采集的观看者图像中以像素为单位的目标对象的双眼间距。
S400:根据补偿值确定用于合成立体图像数据的具有视差的左眼图像数据和右眼图像数据各自的补偿权重。
在确定双眼中心点坐标相对于预设初始中心坐标的补偿值后,根据补偿值确定用于合成立体图像数据的具有视差的左眼图像数据和右眼图像数据各自的补偿权重。其中,左眼图像数据、右眼图像数据可以是通过立体摄像机实时拍摄得到的视频流,也可以是预先获取好并保存在数据库或磁盘中的,在需要时直接获取即可,或者还可以是从外部网络实时获取的。
一种实施方式下,根据补偿值确定用于合成立体图像数据的具有视差的左眼图像数据和右眼图像数据各自的补偿权重的过程可以是,首先针对指定图像数据中的每一个子像素点,基于补偿值和该子像素点所属像素点的坐标、该子像素点的预设权重,计算该子像素点的插值系数,然后基于该子像素点的插值系数,得到该子像素点的补偿权重,其中,像素点包括红子像素点、绿子像素点、蓝子像素点,红子像素点、绿子像素点、蓝子像素点各自的预设权重不同,指定图像数据为左眼图像数据或右眼图像数据。
其中,基于插值系数,得到该子像素点的补偿权重的具体过程为,若指定图像数据为左眼图像数据,则该子像素点的补偿权重为该子像素点的插值系数;若指定图像数据为右眼图像数据,则该子像素点的补偿权重为1与该子像素点的插值系数的差值。为了便于理解,用s表示插值系数,则左眼图像数据中该子像素点的补偿权重为s,右眼图像数据中该子像素点的补偿权重为1-s。
一种实施方式下,针对指定图像数据中的每一个子像素点,基于补偿值和该子像素点所属像素点的坐标、该子像素点的预设权重,计算该子像素点的插值系数的具体过程可以是,首先基于补偿值和该子像素点所属像素点的坐标、该子像素点的预设权重,计算该子像素点的浮点数,然后基于该子像素点的浮点数,得到该子像素点的插值系数。其中,不同像素点的同种类子像素点的预设权重相同,即可以通过预设权重判断子像素点的种类,例如,预设权重为0表示红子像素点,预设权重为1表示蓝子像素点,预设权重为2表示绿子像素点。
例如,用r表示补偿值,用(i,j)该子像素点所属像素点的坐标,k表示子像素点的预设权重,k为0表示红子像素点,k为1表示蓝子像素点,k为2表示绿子像素点,则浮点数t=(3*i+k-3*j*c1+c2)/c3+r,其中,c1代表裸眼3D显示器的光栅周期排列方向和显示屏水平边夹角的正切值,c2代表裸眼3D显示器的光栅单元和显示屏某个基准像素点的位相差,c3为裸眼3D显示器的光栅在水平方向每个周期覆盖的次像素数量。相应的,插值系数s=t-floor(t),其中,floor(t)表示对浮点数t向下取整。
S500:根据左眼图形数据、右眼图像数据以及左眼图像数据和右眼图像数据各自的补偿权重进行合成,得到待展示立体图像数据。
在得到左眼图像数据和右眼图像数据各自的补偿权重后,将左眼图形数据、右眼图像数据以及左眼图像数据和右眼图像数据各自的补偿权重进行合成,得到待展示立体图像数据。
例如,用s表示插值系数,则左眼图像数据中该子像素点的补偿权重为s,右眼图像数据中该子像素点的补偿权重为1-s,用GL(i,j,k)表示左眼图像数据中一子像素点的颜色灰阶,用GR(i,j,k)表示右图像数据中对应的子像素点的颜色灰阶,则该子像素点合成后的颜色灰阶为G(i,j,k)=GL(i,j,k)*s+GR(i,j,k)*(1-s)。
一种实施方式下,在得到待展示立体图像数据后,将该待展示立体图像数据发送给第三方电子设备进行显示,其中,第三方电子设备包括有3D显示模组,3D显示模组用于展示该待展示立体图像数据,并且第三方电子设备与应用该立体图像数据合成方法的电子设备的位置相对固定。
一种实施方式下,应用该立体图像数据合成方法的电子设备包括有用于展示该待展示立体图像数据3D显示模组,此时,在得到待展示立体图像数据后,通过3D显示模组展示该待展示立体图像数据。
请参阅图5,图5为本申请实施例提供的一种立体图像数据合成装置100,包括获取模块110和处理模块120。
获取模块110,用于获取目标对象相对于预设位置的方位角、俯仰角。
处理模块120,用于基于所述方位角和预先获取的所述图像采集单元的水平分辨率横向视场角,得到所述目标对象的人脸在所述观看者图像中的横坐标。
处理模块120,还用于基于所述俯仰角和预先获取的所述图像采集单元的竖直分辨率、纵向视场角,得到所述目标对象的人脸在所述观看者图像中的纵坐标。
获取模块110,还用于根据所述目标对象的人脸在所述观看者图像中的所述横坐标和所述纵坐标,从所述观看者图像中获取目标对象的人脸图像数据。
处理模块120,还用于根据所述人脸图像数据,得到所述目标对象双眼的中心点在所述观看者图像中的双眼中心点坐标。
处理模块120,还用于确定所述双眼中心点坐标相对于预设初始中心坐标的补偿值。
处理模块120,还用于根据所述补偿值确定用于合成立体图像数据的具有视差的左眼图像数据和右眼图像数据各自的补偿权重。
处理模块120,还用于根据所述左眼图形数据、所述右眼图像数据以及所述左眼图像数据和所述右眼图像数据各自的补偿权重进行合成,得到待展示立体图像数据。
若设置所述图像采集单元的位置与所述预设位置不重合时,所述获取模块110,具体用于获取所述目标对象的相对于所述预设位置的第一距离,以及所述预设位置与所述图像采集单元的第二距离;所述处理模块120,具体用于基于所述俯仰角、所述第一距离、所述第二距离和预先获取的所述图像采集单元的竖直分辨率、纵向视场角,得到所述目标对象的人脸在所述观看者图像中的纵坐标。
处理模块120,具体用于获取所述观看者图像中所有人脸的人脸位置坐标,得到人脸位置坐标集;确定所述人脸位置坐标集中与所述目标人脸位置坐标最接近的人脸位置坐标对应的人脸为所述目标对象的人脸,所述目标人脸位置坐标包括所述目标对象的人脸在所述观看者图像中的所述横坐标和所述纵坐标;采集所述目标对象的人脸图像数据。
处理模块120,具体用于采集所述目标人脸位置坐标的预设范围内的人脸图像数据,所述目标人脸位置坐标包括所述目标对象的人脸在所述观看者图像中的所述横坐标和所述纵坐标。
处理模块120,具体用于针对指定图像数据中的每一个子像素点,基于所述补偿值和该子像素点所属像素点的坐标、该子像素点的预设权重,计算该子像素点的插值系数,所述像素点包括红子像素点、绿子像素点、蓝子像素点,所述红子像素点、所述绿子像素点、所述蓝子像素点各自的预设权重不同,所述指定图像数据为所述左眼图像数据或所述右眼图像数据;基于所述插值系数,得到该子像素点的补偿权重。
处理模块120,具体用于基于所述补偿值和该子像素点所属像素点的坐标、该子像素点的预设权重,计算该子像素点的浮点数;基于该子像素点的所述浮点数,得到该子像素点的所述插值系数。
本申请实施例所提供的立体图像数据合成装置100,其实现原理及产生的技术效果和前述立体图像数据合成方法实施例相同,为简要描述,装置实施例部分未提及之处,可参考前述立体图像数据合成方法实施例中相应内容。
请参阅图6,其为本申请实施例提供的一种电子设备200。所述电子设备200包括:收发器210、存储器220、通讯总线230、处理器240、图像采集单元(图中未示出)。
一种实施方式下,电子设备200还包括定位单元,该定位单元设置于预设位置,当图像采集单元的位置与预设位置重合时,定位单元用于获取目标对象相对于预设位置的方位角、俯仰角;当图像采集单元的位置与预设位置不重合时,定位单元用于获取目标对象相对于预设位置的方位角、俯仰角、目标对象的相对于预设位置的第一距离,以及预设位置与图像采集单元的第二距离。
一种实施方式下,电子设备200还包括3D显示模组,3D显示模组用于在得到待展示立体图像数据后,展示该待展示立体图像数据。
所述收发器210、所述存储器220、处理器240、图像采集单元各元件相互之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可通过一条或多条通讯总线230或信号线实现电性连接。其中,图像采集单元用于采集观看立体合成图像的观看者图像,并将所述观看者图像发送给所述处理器240,收发器210用于收发数据。存储器220用于存储计算机程序,如存储有图5中所示的软件功能模块,即立体图像数据合成装置100。其中,立体图像数据合成装置100包括至少一个可以软件或固件(firmware)的形式存储于所述存储器220中或固化在所述电子设备200的操作系统(operating system,OS)中的软件功能模块。所述处理器240,用于执行存储器220中存储的可执行模块,例如立体图像数据合成装置100包括的软件功能模块或计算机程序。此时,处理器240,用于获取目标对象相对于预设位置的方位角、俯仰角;基于所述方位角和预先获取的所述图像采集单元的水平分辨率横向视场角,得到所述目标对象的人脸在所述观看者图像中的横坐标;基于所述俯仰角和预先获取的所述图像采集单元的竖直分辨率、纵向视场角,得到所述目标对象的人脸在所述观看者图像中的纵坐标;根据所述目标对象的人脸在所述观看者图像中的所述横坐标和所述纵坐标,从所述观看者图像中获取目标对象的人脸图像数据;根据所述人脸图像数据,得到所述目标对象双眼的中心点在所述观看者图像中的双眼中心点坐标;确定所述双眼中心点坐标相对于预设初始中心坐标的补偿值;根据所述补偿值确定用于合成立体图像数据的具有视差的左眼图像数据和右眼图像数据各自的补偿权重;根据所述左眼图形数据、所述右眼图像数据以及所述左眼图像数据和所述右眼图像数据各自的补偿权重进行合成,得到待展示立体图像数据。
其中,存储器220可以是,但不限于,随机存取存储器(Random Access Memory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(Programmable Read-OnlyMemory,PROM),可擦除只读存储器(Erasable Programmable Read-Only Memory,EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-Only Memory,EEPROM)等。
处理器240可能是一种集成电路芯片,具有信号的处理能力。上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(NetworkProcessor,NP)等;还可以是数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(FieldProgrammable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器240也可以是任何常规的处理器等。
其中,上述的电子设备200,包括但不限于个人电脑、服务器以及包括有3D显示模组的电子设备等。
本申请实施例还提供了一种非易失性计算机可读取存储介质(以下简称存储介质),该存储介质上存储有计算机程序,该计算机程序被计算机如上述的电子设备200运行时,执行上述所示的立体图像数据合成方法。该计算机可读存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (10)

1.一种立体图像数据合成方法,其特征在于,应用于包含图像采集单元的电子设备,所述图像采集单元用于采集观看立体合成图像的观看者图像,所述方法包括:
获取目标对象相对于预设位置的方位角、俯仰角;
基于所述方位角和预先获取的所述图像采集单元的水平分辨率横向视场角,得到所述目标对象的人脸在所述观看者图像中的横坐标;
基于所述俯仰角和预先获取的所述图像采集单元的竖直分辨率、纵向视场角,得到所述目标对象的人脸在所述观看者图像中的纵坐标;
根据所述目标对象的人脸在所述观看者图像中的所述横坐标和所述纵坐标,从所述观看者图像中获取目标对象的人脸图像数据;
根据所述人脸图像数据,得到所述目标对象双眼的中心点在所述观看者图像中的双眼中心点坐标;
确定所述双眼中心点坐标相对于预设初始中心坐标的补偿值;
根据所述补偿值确定用于合成立体图像数据的具有视差的左眼图像数据和右眼图像数据各自的补偿权重;
根据所述左眼图形数据、所述右眼图像数据以及所述左眼图像数据和所述右眼图像数据各自的补偿权重进行合成,得到待展示立体图像数据。
2.根据权利要求1所述的方法,其特征在于,若设置所述图像采集单元的位置与所述预设位置不重合时,所述方法还包括:
获取所述目标对象的相对于所述预设位置的第一距离,以及所述预设位置与所述图像采集单元的第二距离;
基于所述俯仰角和预先获取的所述图像采集单元的竖直分辨率、纵向视场角,得到所述目标对象的人脸在所述观看者图像中的纵坐标,包括:
基于所述俯仰角、所述第一距离、所述第二距离和预先获取的所述图像采集单元的竖直分辨率、纵向视场角,得到所述目标对象的人脸在所述观看者图像中的纵坐标。
3.根据权利要求1所述的方法,其特征在于,所述根据所述目标对象的人脸在所述观看者图像中的所述横坐标和所述纵坐标,从所述观看者图像中获取目标对象的人脸图像数据,包括:
获取所述观看者图像中所有人脸的人脸位置坐标,得到人脸位置坐标集;
确定所述人脸位置坐标集中与目标人脸位置坐标最接近的人脸位置坐标对应的人脸为所述目标对象的人脸,所述目标人脸位置坐标包括所述目标对象的人脸在所述观看者图像中的所述横坐标和所述纵坐标;
采集所述目标对象的人脸图像数据。
4.根据权利要求1所述的方法,其特征在于,所述根据所述目标对象的人脸在所述观看者图像中的所述横坐标和所述纵坐标,从所述观看者图像中获取目标对象的人脸图像数据,包括:
采集目标人脸位置坐标的预设范围内的人脸图像数据,所述目标人脸位置坐标包括所述目标对象的人脸在所述观看者图像中的所述横坐标和所述纵坐标。
5.根据权利要求1所述的方法,其特征在于,所述根据所述补偿值确定用于合成立体图像数据的具有视差的左眼图像数据和右眼图像数据各自的补偿权重,包括:
针对指定图像数据中的每一个子像素点,基于所述补偿值和该子像素点所属像素点的坐标、该子像素点的预设权重,计算该子像素点的插值系数,所述像素点包括红子像素点、绿子像素点、蓝子像素点,所述红子像素点、所述绿子像素点、所述蓝子像素点各自的预设权重不同,所述指定图像数据为所述左眼图像数据或所述右眼图像数据;
基于所述插值系数,得到该子像素点的补偿权重。
6.根据权利要求5所述的方法,其特征在于,所述针对指定图像数据中的每一个子像素点,基于所述补偿值和该子像素点所属像素点的坐标、该子像素点的预设权重,计算该子像素点的插值系数,包括:
基于所述补偿值和该子像素点所属像素点的坐标、该子像素点的预设权重,计算该子像素点的浮点数;
基于该子像素点的所述浮点数,得到该子像素点的所述插值系数。
7.一种立体图像数据合成装置,其特征在于,部署于包含图像采集单元的电子设备,所述图像采集单元用于采集观看立体合成图像的观看者图像,所述立体图像数据合成装置包括:
获取模块,用于获取目标对象相对于预设位置的方位角、俯仰角;
处理模块,用于基于所述方位角和预先获取的所述图像采集单元的水平分辨率横向视场角,得到所述目标对象的人脸在所述观看者图像中的横坐标;
所述处理模块,还用于基于所述俯仰角和预先获取的所述图像采集单元的竖直分辨率、纵向视场角,得到所述目标对象的人脸在所述观看者图像中的纵坐标;
所述获取模块,还用于根据所述目标对象的人脸在所述观看者图像中的所述横坐标和所述纵坐标,从所述观看者图像中获取目标对象的人脸图像数据;
所述处理模块,还用于根据所述人脸图像数据,得到所述目标对象双眼的中心点在所述观看者图像中的双眼中心点坐标;
所述处理模块,还用于确定所述双眼中心点坐标相对于预设初始中心坐标的补偿值;
所述处理模块,还用于根据所述补偿值确定用于合成立体图像数据的具有视差的左眼图像数据和右眼图像数据各自的补偿权重;
所述处理模块,还用于根据所述左眼图形数据、所述右眼图像数据以及所述左眼图像数据和所述右眼图像数据各自的补偿权重进行合成,得到待展示立体图像数据。
8.根据权利要求7所述的立体图像数据合成装置,其特征在于,若设置所述图像采集单元的位置与所述预设位置不重合时,所述获取模块,具体用于获取所述目标对象的相对于所述预设位置的第一距离,以及所述预设位置与所述图像采集单元的第二距离;
所述处理模块,具体用于基于所述俯仰角、所述第一距离、所述第二距离和预先获取的所述图像采集单元的竖直分辨率、纵向视场角,得到所述目标对象的人脸在所述观看者图像中的纵坐标。
9.一种电子设备,其特征在于,包括:存储器、处理器和图像采集单元,所述存储器和所述处理器连接,所述图像采集单元和所述处理器连接;
所述存储器,用于存储程序;
所述图像采集单元,用于采集观看立体合成图像的观看者图像,并将所述观看者图像发送给所述处理器;
所述处理器,用于调用存储于所述存储器中的程序,以执行如权利要求1-6中任一项所述的方法。
10.一种计算机可读存储介质,其特征在于,其上存储有计算机程序,所述计算机程序被计算机运行时,执行如权利要求1-6中任一项所述的方法。
CN202210028506.8A 2022-01-11 2022-01-11 立体图像数据合成方法、装置、电子设备及存储介质 Pending CN114390267A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210028506.8A CN114390267A (zh) 2022-01-11 2022-01-11 立体图像数据合成方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210028506.8A CN114390267A (zh) 2022-01-11 2022-01-11 立体图像数据合成方法、装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN114390267A true CN114390267A (zh) 2022-04-22

Family

ID=81202811

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210028506.8A Pending CN114390267A (zh) 2022-01-11 2022-01-11 立体图像数据合成方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN114390267A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023245551A1 (zh) * 2022-06-23 2023-12-28 京东方科技集团股份有限公司 显示装置及其驱动方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130169633A1 (en) * 2010-09-15 2013-07-04 Sharp Kabushiki Kaisha Stereoscopic image generation device, stereoscopic image display device, stereoscopic image adjustment method, program for causing computer to execute stereoscopic image adjustment method, and recording medium on which the program is recorded
CN104185987A (zh) * 2012-03-27 2014-12-03 皇家飞利浦有限公司 具有位置追踪的多用户自动立体显示
CN107885325A (zh) * 2017-10-23 2018-04-06 上海玮舟微电子科技有限公司 一种基于人眼跟踪的裸眼3d显示方法及控制系统
CN108174182A (zh) * 2017-12-30 2018-06-15 上海易维视科技股份有限公司 三维跟踪式裸眼立体显示视区调整方法及显示系统
CN109040736A (zh) * 2018-08-08 2018-12-18 上海玮舟微电子科技有限公司 一种人眼空间位置的标定方法、装置、设备和存储介质
CN111046744A (zh) * 2019-11-21 2020-04-21 深圳云天励飞技术有限公司 一种关注区域检测方法、装置、可读存储介质及终端设备

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130169633A1 (en) * 2010-09-15 2013-07-04 Sharp Kabushiki Kaisha Stereoscopic image generation device, stereoscopic image display device, stereoscopic image adjustment method, program for causing computer to execute stereoscopic image adjustment method, and recording medium on which the program is recorded
CN104185987A (zh) * 2012-03-27 2014-12-03 皇家飞利浦有限公司 具有位置追踪的多用户自动立体显示
CN107885325A (zh) * 2017-10-23 2018-04-06 上海玮舟微电子科技有限公司 一种基于人眼跟踪的裸眼3d显示方法及控制系统
WO2019080295A1 (zh) * 2017-10-23 2019-05-02 上海玮舟微电子科技有限公司 基于人眼跟踪的裸眼3d显示方法及控制系统
CN108174182A (zh) * 2017-12-30 2018-06-15 上海易维视科技股份有限公司 三维跟踪式裸眼立体显示视区调整方法及显示系统
CN109040736A (zh) * 2018-08-08 2018-12-18 上海玮舟微电子科技有限公司 一种人眼空间位置的标定方法、装置、设备和存储介质
CN111046744A (zh) * 2019-11-21 2020-04-21 深圳云天励飞技术有限公司 一种关注区域检测方法、装置、可读存储介质及终端设备

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023245551A1 (zh) * 2022-06-23 2023-12-28 京东方科技集团股份有限公司 显示装置及其驱动方法

Similar Documents

Publication Publication Date Title
KR101761751B1 (ko) 직접적인 기하학적 모델링이 행해지는 hmd 보정
US8456518B2 (en) Stereoscopic camera with automatic obstruction removal
US8760502B2 (en) Method for improving 3 dimensional effect and reducing visual fatigue and apparatus enabling the same
Yamanoue et al. Geometrical analysis of puppet-theater and cardboard effects in stereoscopic HDTV images
JP5036132B2 (ja) 裸眼立体表示のための視差画像のクリティカルな位置合わせ
US7180536B2 (en) Method for producing stereoscopic images from monoscopic images
US20080080852A1 (en) Single lens auto focus system for stereo image generation and method thereof
US20070165942A1 (en) Method for rectifying stereoscopic display systems
US9813693B1 (en) Accounting for perspective effects in images
KR100560464B1 (ko) 관찰자의 시점에 적응적인 다시점 영상 디스플레이 시스템을 구성하는 방법
US20110050857A1 (en) Apparatus and method for displaying 3d image in 3d image system
WO2017141584A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
CN114390267A (zh) 立体图像数据合成方法、装置、电子设备及存储介质
CN108234994B (zh) 一种人眼位置确定方法及装置
US20190281280A1 (en) Parallax Display using Head-Tracking and Light-Field Display
CN107155102A (zh) 3d自动对焦显示方法及其系统
CN113259650A (zh) 一种基于人眼追踪立体影像显示方法、装置、介质及系统
CN107659772B (zh) 3d图像生成方法、装置及电子设备
Park et al. 48.2: Light field rendering of multi‐view contents for high density light field 3D display
US9282317B2 (en) Method and apparatus for processing an image and generating information representing the degree of stereoscopic effects
KR20110025083A (ko) 입체 영상 시스템에서 입체 영상 디스플레이 장치 및 방법
CN104584075B (zh) 用于描述对象空间的对象点以及用于其执行的连接方法
JP2001218231A (ja) 立体画像を表示する装置および方法
CN109218701B (zh) 裸眼3d的显示设备、方法、装置及可读存储介质
KR101192121B1 (ko) 양안시차 및 깊이 정보를 이용한 애너그리프 영상 생성 방법 및 장치

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination