CN115695762B - 一种3d成像多屏互动方法及系统 - Google Patents
一种3d成像多屏互动方法及系统 Download PDFInfo
- Publication number
- CN115695762B CN115695762B CN202211720396.8A CN202211720396A CN115695762B CN 115695762 B CN115695762 B CN 115695762B CN 202211720396 A CN202211720396 A CN 202211720396A CN 115695762 B CN115695762 B CN 115695762B
- Authority
- CN
- China
- Prior art keywords
- data
- video data
- screen
- background screen
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Holo Graphy (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
本发明涉及3D成像领域,具体公开了一种3D成像多屏互动方法及系统。本发明通过接收用户在互动屏的选择操作,加载目标视频数据,并进行监测拍摄,获取位置拍摄数据;根据目标视频数据和位置拍摄数据,对背景屏和多个3D全息屏进行距离调节;进行实时分配处理,获取多个分配视频数据;将多个分配视频数据向背景屏和多个3D全息屏进行联动分配,通过背景屏和多个3D全息屏进行联动3D成像。能够按照用户的位置,对背景屏和多个3D全息屏进行距离调节,通过背景屏和多个3D全息屏进行视频数据的联动分配,进行联动3D成像,从而制造出整体的景深感,且能够根据用户的位置进行3D视觉的调节,使得3D视觉效果更加真实。
Description
技术领域
本发明属于3D成像领域,尤其涉及一种3D成像多屏互动方法及系统。
背景技术
人眼之所以观察到世界具有立体感,是因为人长有两只眼睛,当我们观察事物的时候,两只眼睛所造成的视差位移经过大脑的分析,就会区分出物体距离的远近,因而产生出强烈的立体感。物体离双眼越近,其上每一点对双眼的张角越大,视差位移也越大。相应地,当物体离眼睛很远时,由于视差位移几乎为零,就不会产生明显的立体感。基于这种原理,人们利用两台并列的摄像机,便可以拍摄出两条带有水平视差的影像画面,实施画面的3D记录。随着3D技术的发展,人们很快就可以足不出户地的获得3D技术带来的优越视觉享受,3D技术的发展,将引起一场崭新的视觉革命。
现有的3D成像技术,在进行3D视频播放时,还仅仅只是采用一个屏幕进行3D视频的播放,虽然结合3D眼镜能够产生一定的3D视觉效果,但是这种3D视觉技术无法制造出整体的景深感,且无法根据用户的位置进行3D视觉的调节,导致3D视觉效果并不真实。
发明内容
本发明实施例的目的在于提供一种3D成像多屏互动方法及系统,旨在解决背景技术中提出的问题。
为实现上述目的,本发明实施例提供如下技术方案:
一种3D成像多屏互动方法,所述方法具体包括以下步骤:
接收用户在互动屏的选择操作,加载目标视频数据,并进行监测拍摄,获取用户的位置拍摄数据;
根据所述目标视频数据和所述位置拍摄数据,对背景屏和多个3D全息屏进行距离调节,获取相对距离数据;
按照所述相对距离数据,对所述目标视频数据进行实时分配处理,获取多个分配视频数据;
将多个所述分配视频数据向背景屏和多个3D全息屏进行联动分配,通过背景屏和多个3D全息屏进行联动3D成像。
作为本发明实施例技术方案进一步的限定,所述接收用户在互动屏的选择操作,加载目标视频数据,并进行监测拍摄,获取用户的位置拍摄数据具体包括以下步骤:
接收用户在互动屏的选择操作,生成选择操作指令;
根据所述选择操作指令,从云数据库中选择目标视频数据;
加载所述目标视频数据;
对用户进行监测拍摄,获取用户的位置拍摄数据。
作为本发明实施例技术方案进一步的限定,所述根据所述目标视频数据和所述位置拍摄数据,对背景屏和多个3D全息屏进行距离调节,获取相对距离数据具体包括以下步骤:
根据所述目标视频数据,匹配对应的基础调节数据;
按照所述位置拍摄数据,对基础调节数据进行优化,生成优化调节数据;
基于所述优化调节数据,对背景屏和多个3D全息屏进行距离调节,获取相对距离数据。
作为本发明实施例技术方案进一步的限定,所述按照所述相对距离数据,对所述目标视频数据进行实时分配处理,获取多个分配视频数据具体包括以下步骤:
按照所述相对距离数据,确定对背景屏和多个3D全息屏的分配信息;
按照所述分配信息,对所述目标视频数据进行实时分配处理,获取多个分配视频数据。
作为本发明实施例技术方案进一步的限定,所述将多个所述分配视频数据向背景屏和多个3D全息屏进行联动分配,通过背景屏和多个3D全息屏进行联动3D成像具体包括以下步骤:
将多个所述分配视频数据向背景屏和多个3D全息屏进行联动分配;
按照多个3D全息屏对应的分配视频数据,实时确定对应的视频显示区域;
对多个3D全息屏的非视频显示区域进行实时透明显示。
作为本发明实施例技术方案进一步的限定,所述根据所述将多个所述分配视频数据向背景屏和多个3D全息屏进行联动分配中,通过UDP协议使用本地网络进行背景屏和多个3D全息屏的联动数据分配。
一种3D成像多屏互动系统,所述系统包括互动操作拍摄单元、相对距离调节单元、实时分配处理单元和联动分配成像单元,其中:
互动操作拍摄单元,用于接收用户在互动屏的选择操作,加载目标视频数据,并进行监测拍摄,获取用户的位置拍摄数据;
相对距离调节单元,用于根据所述目标视频数据和所述位置拍摄数据,对背景屏和多个3D全息屏进行距离调节,获取相对距离数据;
实时分配处理单元,用于按照所述相对距离数据,对所述目标视频数据进行实时分配处理,获取多个分配视频数据;
联动分配成像单元,用于将多个所述分配视频数据向背景屏和多个3D全息屏进行联动分配,通过背景屏和多个3D全息屏进行联动3D成像。
作为本发明实施例技术方案进一步的限定,所述互动操作拍摄单元具体包括:
指令生成模块,用于接收用户在互动屏的选择操作,生成选择操作指令;
数据选择模块,用于根据所述选择操作指令,从云数据库中选择目标视频数据;
数据加载模块,用于加载所述目标视频数据;
监测拍摄模块,用于对用户进行监测拍摄,获取用户的位置拍摄数据。
作为本发明实施例技术方案进一步的限定,所述相对距离调节单元具体包括:
基础匹配模块,用于根据所述目标视频数据,匹配对应的基础调节数据;
调节优化模块,用于按照所述位置拍摄数据,对基础调节数据进行优化,生成优化调节数据;
距离调节模块,用于基于所述优化调节数据,对背景屏和多个3D全息屏进行距离调节,获取相对距离数据。
作为本发明实施例技术方案进一步的限定,所述联动分配成像单元具体包括:
联动分配模块,用于将多个所述分配视频数据向背景屏和多个3D全息屏进行联动分配;
区域确定模块,用于按照多个3D全息屏对应的分配视频数据,实时确定对应的视频显示区域;
透明显示模块,用于对多个3D全息屏的非视频显示区域进行实时透明显示。
与现有技术相比,本发明的有益效果是:
本发明实施例通过接收用户在互动屏的选择操作,加载目标视频数据,并进行监测拍摄,获取位置拍摄数据;根据目标视频数据和位置拍摄数据,对背景屏和多个3D全息屏进行距离调节;进行实时分配处理,获取多个分配视频数据;将多个分配视频数据向背景屏和多个3D全息屏进行联动分配,通过背景屏和多个3D全息屏进行联动3D成像。能够按照用户的位置,对背景屏和多个3D全息屏进行距离调节,通过背景屏和多个3D全息屏进行视频数据的联动分配,进行联动3D成像,从而制造出整体的景深感,且能够根据用户的位置进行3D视觉的调节,使得3D视觉效果更加真实。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例。
图1示出了本发明实施例提供的方法的流程图;
图2示出了本发明实施例提供的方法中互动屏选择和监测的流程图;
图3示出了本发明实施例提供的方法中进行距离调节的流程图;
图4示出了本发明实施例提供的方法中视频数据分配处理的流程图;
图5示出了本发明实施例提供的方法中进行联动3D成像的流程图;
图6示出了本发明实施例提供的系统的应用架构图;
图7示出了本发明实施例提供的系统中互动操作拍摄单元的结构框图;
图8示出了本发明实施例提供的系统中相对距离调节单元的结构框图;
图9示出了本发明实施例提供的系统中联动分配成像单元的结构框图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
可以理解的是,现有的3D成像技术,在进行3D视频播放时,还仅仅只是采用一个屏幕进行3D视频的播放,虽然结合3D眼镜能够产生一定的3D视觉效果,但是这种3D视觉技术无法制造出整体的景深感,且无法根据用户的位置进行3D视觉的调节,导致3D视觉效果并不真实。
为解决上述问题,本发明实施例通过接收用户在互动屏的选择操作,加载目标视频数据,并进行监测拍摄,获取位置拍摄数据;根据目标视频数据和位置拍摄数据,对背景屏和多个3D全息屏进行距离调节;进行实时分配处理,获取多个分配视频数据;将多个分配视频数据向背景屏和多个3D全息屏进行联动分配,通过背景屏和多个3D全息屏进行联动3D成像。能够按照用户的位置,对背景屏和多个3D全息屏进行距离调节,通过背景屏和多个3D全息屏进行视频数据的联动分配,进行联动3D成像,从而制造出整体的景深感,且能够根据用户的位置进行3D视觉的调节,使得3D视觉效果更加真实。
图1示出了本发明实施例提供的方法的流程图。
具体的,在本发明提供的一个优选实施方式中,一种3D成像多屏互动方法,所述方法具体包括以下步骤:
步骤S101,接收用户在互动屏的选择操作,加载目标视频数据,并进行监测拍摄,获取用户的位置拍摄数据。
在本发明实施例中,用户可以通过互动屏进行视频选择的互动操作,通过接收用户的选择操作,生成相对应的选择操作指令(包括:左选择、右选择、上选择、下选择、确定、取消等),按照选择操作指令,在云数据库中进行相关视频资源的挑选与确定,从而得到目标视频数据,进而从云数据库中下载目标视频数据,并在下载目标视频数据的过程中,通过对用户进行监测拍摄,获取用户的位置拍摄数据。
可以理解的是,用户在互动屏上进行的选择操作,可以是在互动屏上进行触控操作,也可以是在互动屏上进行非接触式的手势感应选择操作;互动屏上安装有摄像头,对互动屏前的用户进行拍摄。
具体的,图2示出了本发明实施例提供的方法中互动屏选择和监测的流程图。
其中,在本发明提供的优选实施方式中,所述接收用户在互动屏的选择操作,加载目标视频数据,并进行监测拍摄,获取用户的位置拍摄数据具体包括以下步骤:
步骤S1011,接收用户在互动屏的选择操作,生成选择操作指令。
步骤S1012,根据所述选择操作指令,从云数据库中选择目标视频数据。
步骤S1013,加载所述目标视频数据。
步骤S1014,对用户进行监测拍摄,获取用户的位置拍摄数据。
进一步的,所述3D成像多屏互动方法还包括以下步骤:
步骤S102,根据所述目标视频数据和所述位置拍摄数据,对背景屏和多个3D全息屏进行距离调节,获取相对距离数据。
在本发明实施例中,按照目标视频数据对应的3D内容,匹配对应的基础调节数据,再通过对位置拍摄数据进行分析,确定用户最终坐下的观影位置,计算用户观影位置与背景屏之间的观影距离,将观影距离与预设的标准距离进行比较,按照比较结果,对基础调节数据对应的调节距离进行优化,生成优化调节数据,进而按照优化调节数据对应的调节距离,对背景屏和多个3D全息屏之间的相对距离进行调节,并且记录相对距离数据。
可以理解的是,背景屏和多个3D全息屏之间为平行的关系,背景屏用来显示视频中没有3D特征的背景视频,多个3D全息屏用来分层次显示视频中具有3D特征的3D视频,且能够通过调节背景屏和多个3D全息屏之间的相对距离,进行不同观影景深效果的调整;对基础调节数据对应的调节距离进行优化中,若观影距离小于标准距离,则减小基础调节数据对应的调节距离;若观影距离大于标准距离,则增加基础调节数据对应的调节距离。
具体的,图3示出了本发明实施例提供的方法中进行距离调节的流程图。
其中,在本发明提供的优选实施方式中,所述根据所述目标视频数据和所述位置拍摄数据,对背景屏和多个3D全息屏进行距离调节,获取相对距离数据具体包括以下步骤:
步骤S1021,根据所述目标视频数据,匹配对应的基础调节数据。
步骤S1022,按照所述位置拍摄数据,对基础调节数据进行优化,生成优化调节数据。
步骤S1023,基于所述优化调节数据,对背景屏和多个3D全息屏进行距离调节,获取相对距离数据。
进一步的,所述3D成像多屏互动方法还包括以下步骤:
步骤S103,按照所述相对距离数据,对所述目标视频数据进行实时分配处理,获取多个分配视频数据。
在本发明实施例中,按照相对距离数据,记录对背景屏和多个3D全息屏分别对应的分配编号,生成分配信息,进而按照分配信息,对目标视频数据进行相对应的分配,使得目标视频数据分配为多个分配视频数据。
具体的,图4示出了本发明实施例提供的方法中视频数据分配处理的流程图。
其中,在本发明提供的优选实施方式中,所述按照所述相对距离数据,对所述目标视频数据进行实时分配处理,获取多个分配视频数据具体包括以下步骤:
步骤S1031,按照所述相对距离数据,确定对背景屏和多个3D全息屏的分配信息。
步骤S1032,按照所述分配信息,对所述目标视频数据进行实时分配处理,获取多个分配视频数据。
进一步的,所述3D成像多屏互动方法还包括以下步骤:
步骤S104,将多个所述分配视频数据向背景屏和多个3D全息屏进行联动分配,通过背景屏和多个3D全息屏进行联动3D成像。
在本发明实施例中,按照分配信息对应的分配规则,将多个分配视频数据向背景屏和多个3D全息屏进行分配传输,实现背景屏和多个3D全息屏的视频数据联动分配,在视频数据联动分配的过程中,在背景屏和多个3D全息屏上进行相应的视频播放,并且实时确定每个3D全息屏对应的视频显示区域,在每个3D全息屏的视频显示区域之外保持透明显示,从而实现对3D视频的分层次显示,营造更加真实的3D观影感觉。
可以理解的是,将多个分配视频数据向背景屏和多个3D全息屏进行分配传输的过程中,通过采用UDP协议使用本地网络进行背景屏和多个3D全息屏的联动数据分配,不需要连接路由器等设备,只属于本机通信传输,有效降低数据的延迟,从而保持背景屏和多个3D全息屏的视频数据传输的同步,实现观影播放的协调。
具体的,图5示出了本发明实施例提供的方法中进行联动3D成像的流程图。
其中,在本发明提供的优选实施方式中,所述将多个所述分配视频数据向背景屏和多个3D全息屏进行联动分配,通过背景屏和多个3D全息屏进行联动3D成像具体包括以下步骤:
步骤S1041,将多个所述分配视频数据向背景屏和多个3D全息屏进行联动分配。
步骤S1042,按照多个3D全息屏对应的分配视频数据,实时确定对应的视频显示区域。
步骤S1043,对多个3D全息屏的非视频显示区域进行实时透明显示。
进一步的,图6示出了本发明实施例提供的系统的应用架构图。
其中,在本发明提供的又一个优选实施方式中,一种3D成像多屏互动系统,包括:
互动操作拍摄单元101,用于接收用户在互动屏的选择操作,加载目标视频数据,并进行监测拍摄,获取用户的位置拍摄数据。
在本发明实施例中,用户可以通过互动屏进行视频选择的互动操作,互动操作拍摄单元101通过接收用户的选择操作,生成相对应的选择操作指令(包括:左选择、右选择、上选择、下选择、确定、取消等),按照选择操作指令,在云数据库中进行相关视频资源的挑选与确定,从而得到目标视频数据,进而从云数据库中下载目标视频数据,并在下载目标视频数据的过程中,通过对用户进行监测拍摄,获取用户的位置拍摄数据。
具体的,图7示出了本发明实施例提供的系统中互动操作拍摄单元101的结构框图。
其中,在本发明提供的优选实施方式中,所述互动操作拍摄单元101具体包括:
指令生成模块1011,用于接收用户在互动屏的选择操作,生成选择操作指令。
数据选择模块1012,用于根据所述选择操作指令,从云数据库中选择目标视频数据。
数据加载模块1013,用于加载所述目标视频数据。
监测拍摄模块1014,用于对用户进行监测拍摄,获取用户的位置拍摄数据。
进一步的,所述3D成像多屏互动系统还包括:
相对距离调节单元102,用于根据所述目标视频数据和所述位置拍摄数据,对背景屏和多个3D全息屏进行距离调节,获取相对距离数据。
在本发明实施例中,相对距离调节单元102按照目标视频数据对应的3D内容,匹配对应的基础调节数据,再通过对位置拍摄数据进行分析,确定用户最终坐下的观影位置,计算用户观影位置与背景屏之间的观影距离,将观影距离与预设的标准距离进行比较,按照比较结果,对基础调节数据对应的调节距离进行优化,生成优化调节数据,进而按照优化调节数据对应的调节距离,对背景屏和多个3D全息屏之间的相对距离进行调节,并且记录相对距离数据。
具体的,图8示出了本发明实施例提供的系统中相对距离调节单元102的结构框图。
其中,在本发明提供的优选实施方式中,所述相对距离调节单元102具体包括:
基础匹配模块1021,用于根据所述目标视频数据,匹配对应的基础调节数据。
调节优化模块1022,用于按照所述位置拍摄数据,对基础调节数据进行优化,生成优化调节数据。
距离调节模块1023,用于基于所述优化调节数据,对背景屏和多个3D全息屏进行距离调节,获取相对距离数据。
进一步的,所述3D成像多屏互动系统还包括:
实时分配处理单元103,用于按照所述相对距离数据,对所述目标视频数据进行实时分配处理,获取多个分配视频数据。
在本发明实施例中,实时分配处理单元103按照相对距离数据,记录对背景屏和多个3D全息屏分别对应的分配编号,生成分配信息,进而按照分配信息,对目标视频数据进行相对应的分配,使得目标视频数据分配为多个分配视频数据。
联动分配成像单元104,用于将多个所述分配视频数据向背景屏和多个3D全息屏进行联动分配,通过背景屏和多个3D全息屏进行联动3D成像。
在本发明实施例中,联动分配成像单元104按照分配信息对应的分配规则,将多个分配视频数据向背景屏和多个3D全息屏进行分配传输,实现背景屏和多个3D全息屏的视频数据联动分配,在视频数据联动分配的过程中,在背景屏和多个3D全息屏上进行相应的视频播放,并且实时确定每个3D全息屏对应的视频显示区域,在每个3D全息屏的视频显示区域之外保持透明显示,从而实现对3D视频的分层次显示,营造更加真实的3D观影感觉。
具体的,图9示出了本发明实施例提供的系统中联动分配成像单元104的结构框图。
其中,在本发明提供的优选实施方式中,所述联动分配成像单元104具体包括:
联动分配模块1041,用于将多个所述分配视频数据向背景屏和多个3D全息屏进行联动分配。
区域确定模块1042,用于按照多个3D全息屏对应的分配视频数据,实时确定对应的视频显示区域。
透明显示模块1043,用于对多个3D全息屏的非视频显示区域进行实时透明显示。
应该理解的是,虽然本发明各实施例的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,各实施例中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink) DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种3D成像多屏互动方法,其特征在于,所述方法具体包括以下步骤:
接收用户在互动屏的选择操作,加载目标视频数据,并进行监测拍摄,获取用户的位置拍摄数据;
根据所述目标视频数据和所述位置拍摄数据,对背景屏和多个3D全息屏进行距离调节,获取相对距离数据;
具体的,按照目标视频数据对应的3D内容,匹配对应的基础调节数据,再通过对位置拍摄数据进行分析,确定用户最终坐下的观影位置,计算用户观影位置与背景屏之间的观影距离,将观影距离与预设的标准距离进行比较,按照比较结果,对基础调节数据对应的调节距离进行优化,生成优化调节数据,进而按照优化调节数据对应的调节距离,对背景屏和多个3D全息屏之间的相对距离进行调节,并且记录相对距离数据;
按照所述相对距离数据,对所述目标视频数据进行实时分配处理,获取多个分配视频数据;
将多个所述分配视频数据向背景屏和多个3D全息屏进行联动分配,通过背景屏和多个3D全息屏进行联动3D成像。
2.根据权利要求1所述的3D成像多屏互动方法,其特征在于,所述接收用户在互动屏的选择操作,加载目标视频数据,并进行监测拍摄,获取用户的位置拍摄数据具体包括以下步骤:
接收用户在互动屏的选择操作,生成选择操作指令;
根据所述选择操作指令,从云数据库中选择目标视频数据;
加载所述目标视频数据;
对用户进行监测拍摄,获取用户的位置拍摄数据。
3.根据权利要求1所述的3D成像多屏互动方法,其特征在于,所述根据所述目标视频数据和所述位置拍摄数据,对背景屏和多个3D全息屏进行距离调节,获取相对距离数据具体包括以下步骤:
根据所述目标视频数据,匹配对应的基础调节数据;
按照所述位置拍摄数据,对基础调节数据进行优化,生成优化调节数据;
基于所述优化调节数据,对背景屏和多个3D全息屏进行距离调节,获取相对距离数据。
4.根据权利要求1所述的3D成像多屏互动方法,其特征在于,所述按照所述相对距离数据,对所述目标视频数据进行实时分配处理,获取多个分配视频数据具体包括以下步骤:
按照所述相对距离数据,确定对背景屏和多个3D全息屏的分配信息;
按照所述分配信息,对所述目标视频数据进行实时分配处理,获取多个分配视频数据。
5.根据权利要求1所述的3D成像多屏互动方法,其特征在于,所述将多个所述分配视频数据向背景屏和多个3D全息屏进行联动分配,通过背景屏和多个3D全息屏进行联动3D成像具体包括以下步骤:
将多个所述分配视频数据向背景屏和多个3D全息屏进行联动分配;
按照多个3D全息屏对应的分配视频数据,实时确定对应的视频显示区域;
对多个3D全息屏的非视频显示区域进行实时透明显示。
6.根据权利要求5所述的3D成像多屏互动方法,其特征在于,所述根据所述将多个所述分配视频数据向背景屏和多个3D全息屏进行联动分配中,通过UDP协议使用本地网络进行背景屏和多个3D全息屏的联动数据分配。
7.一种3D成像多屏互动系统,其特征在于,所述系统包括互动操作拍摄单元、相对距离调节单元、实时分配处理单元和联动分配成像单元,其中:
互动操作拍摄单元,用于接收用户在互动屏的选择操作,加载目标视频数据,并进行监测拍摄,获取用户的位置拍摄数据;
相对距离调节单元,用于根据所述目标视频数据和所述位置拍摄数据,对背景屏和多个3D全息屏进行距离调节,获取相对距离数据;
具体的,相对距离调节单元按照目标视频数据对应的3D内容,匹配对应的基础调节数据,再通过对位置拍摄数据进行分析,确定用户最终坐下的观影位置,计算用户观影位置与背景屏之间的观影距离,将观影距离与预设的标准距离进行比较,按照比较结果,对基础调节数据对应的调节距离进行优化,生成优化调节数据,进而按照优化调节数据对应的调节距离,对背景屏和多个3D全息屏之间的相对距离进行调节,并且记录相对距离数据;
实时分配处理单元,用于按照所述相对距离数据,对所述目标视频数据进行实时分配处理,获取多个分配视频数据;
联动分配成像单元,用于将多个所述分配视频数据向背景屏和多个3D全息屏进行联动分配,通过背景屏和多个3D全息屏进行联动3D成像。
8.根据权利要求7所述的3D成像多屏互动系统,其特征在于,所述互动操作拍摄单元具体包括:
指令生成模块,用于接收用户在互动屏的选择操作,生成选择操作指令;
数据选择模块,用于根据所述选择操作指令,从云数据库中选择目标视频数据;
数据加载模块,用于加载所述目标视频数据;
监测拍摄模块,用于对用户进行监测拍摄,获取用户的位置拍摄数据。
9.根据权利要求7所述的3D成像多屏互动系统,其特征在于,所述相对距离调节单元具体包括:
基础匹配模块,用于根据所述目标视频数据,匹配对应的基础调节数据;
调节优化模块,用于按照所述位置拍摄数据,对基础调节数据进行优化,生成优化调节数据;
距离调节模块,用于基于所述优化调节数据,对背景屏和多个3D全息屏进行距离调节,获取相对距离数据。
10.根据权利要求7所述的3D成像多屏互动系统,其特征在于,所述联动分配成像单元具体包括:
联动分配模块,用于将多个所述分配视频数据向背景屏和多个3D全息屏进行联动分配;
区域确定模块,用于按照多个3D全息屏对应的分配视频数据,实时确定对应的视频显示区域;
透明显示模块,用于对多个3D全息屏的非视频显示区域进行实时透明显示。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211720396.8A CN115695762B (zh) | 2022-12-30 | 2022-12-30 | 一种3d成像多屏互动方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211720396.8A CN115695762B (zh) | 2022-12-30 | 2022-12-30 | 一种3d成像多屏互动方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115695762A CN115695762A (zh) | 2023-02-03 |
CN115695762B true CN115695762B (zh) | 2023-03-17 |
Family
ID=85057120
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211720396.8A Active CN115695762B (zh) | 2022-12-30 | 2022-12-30 | 一种3d成像多屏互动方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115695762B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1989773A (zh) * | 2004-05-26 | 2007-06-27 | 蒂博尔·包洛格 | 生成3d图像的方法与设备 |
CN109640072A (zh) * | 2018-12-25 | 2019-04-16 | 鸿视线科技(北京)有限公司 | 3d互动方法及系统 |
US10628635B1 (en) * | 2017-03-29 | 2020-04-21 | Valyant AI, Inc. | Artificially intelligent hologram |
CN114612640A (zh) * | 2022-03-24 | 2022-06-10 | 航天宏图信息技术股份有限公司 | 一种基于混合现实技术的天基态势仿真系统 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108965825B (zh) * | 2018-08-14 | 2020-08-04 | 视云融聚(广州)科技有限公司 | 基于全息位置地图的视频联动调度方法 |
US11321892B2 (en) * | 2020-05-21 | 2022-05-03 | Scott REILLY | Interactive virtual reality broadcast systems and methods |
-
2022
- 2022-12-30 CN CN202211720396.8A patent/CN115695762B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1989773A (zh) * | 2004-05-26 | 2007-06-27 | 蒂博尔·包洛格 | 生成3d图像的方法与设备 |
US10628635B1 (en) * | 2017-03-29 | 2020-04-21 | Valyant AI, Inc. | Artificially intelligent hologram |
CN109640072A (zh) * | 2018-12-25 | 2019-04-16 | 鸿视线科技(北京)有限公司 | 3d互动方法及系统 |
CN114612640A (zh) * | 2022-03-24 | 2022-06-10 | 航天宏图信息技术股份有限公司 | 一种基于混合现实技术的天基态势仿真系统 |
Also Published As
Publication number | Publication date |
---|---|
CN115695762A (zh) | 2023-02-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11960639B2 (en) | Virtual 3D methods, systems and software | |
US11995902B2 (en) | Facial signature methods, systems and software | |
US10440407B2 (en) | Adaptive control for immersive experience delivery | |
US11144201B2 (en) | Video picture adjustment method and apparatus, computer device and storage medium | |
TWI547901B (zh) | 模擬立體圖像顯示方法及顯示設備 | |
US8072503B2 (en) | Methods, apparatuses, systems, and computer program products for real-time high dynamic range imaging | |
JP2023087116A (ja) | 三次元モデル符号化装置、三次元モデル復号装置、三次元モデル符号化方法、および、三次元モデル復号方法 | |
US10762649B2 (en) | Methods and systems for providing selective disparity refinement | |
WO2015178217A1 (ja) | 画像処理装置および方法 | |
CN112907751B (zh) | 一种基于混合现实的虚拟装修方法、系统、设备和介质 | |
EP3295372A1 (en) | Facial signature methods, systems and software | |
US11501486B2 (en) | Surface characterisation apparatus and system | |
US10127714B1 (en) | Spherical three-dimensional video rendering for virtual reality | |
CN106303495B (zh) | 全景立体图像的合成方法、装置及其移动终端 | |
US20180310025A1 (en) | Method and technical equipment for encoding media content | |
US20150195443A1 (en) | Systems and methods for real-time view-synthesis in a multi-camera setup | |
CN112738495A (zh) | 虚拟视点图像生成方法、系统、电子设备及存储介质 | |
CN104320647A (zh) | 立体图像生成方法及显示装置 | |
CN110149476A (zh) | 一种延时摄影方法、装置、系统及终端设备 | |
CN110956106B (zh) | 一种直播开播的处理方法、装置、存储介质及设备 | |
CN113965773A (zh) | 直播展示方法和装置、存储介质及电子设备 | |
CN104885119A (zh) | 图像处理装置、图像处理方法以及记录介质 | |
CN115695762B (zh) | 一种3d成像多屏互动方法及系统 | |
CN114881841A (zh) | 图像生成方法及其装置 | |
JP2012238932A (ja) | 3d自動色補正装置とその色補正方法と色補正プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |