CN109429055B - 图像展示、视频文件处理方法及装置 - Google Patents

图像展示、视频文件处理方法及装置 Download PDF

Info

Publication number
CN109429055B
CN109429055B CN201710737851.8A CN201710737851A CN109429055B CN 109429055 B CN109429055 B CN 109429055B CN 201710737851 A CN201710737851 A CN 201710737851A CN 109429055 B CN109429055 B CN 109429055B
Authority
CN
China
Prior art keywords
image
video file
frame
shooting
difference value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710737851.8A
Other languages
English (en)
Other versions
CN109429055A (zh
Inventor
张天顺
栾天舒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alibaba Group Holding Ltd
Original Assignee
Alibaba Group Holding Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Group Holding Ltd filed Critical Alibaba Group Holding Ltd
Priority to CN201710737851.8A priority Critical patent/CN109429055B/zh
Publication of CN109429055A publication Critical patent/CN109429055A/zh
Application granted granted Critical
Publication of CN109429055B publication Critical patent/CN109429055B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本申请实施例公开了图像展示、视频文件处理方法及装置,其中,所述方法包括:第二客户端获得视频文件以及对应的帧差值信息;创建图像展示窗口,所述展示窗口中包括第一区域以及第二区域,其中,所述第一区域用于展示左图像,第二区域用于展示右图像;确定第一图像以及第二图像,其中,将所述视频文件中包括的各帧图像确定为第一图像,并将每一帧第一图像的索引值偏移所述帧差值,作为对应的第二图像;将所确定出的第一图像以及第二图像分别输出到第一区域以及第二区域中,以用于立体展示。通过本申请实施例,有利于进行推广应用,获得更多的用户,更丰富的视频文件。

Description

图像展示、视频文件处理方法及装置
技术领域
本申请涉及图像处理技术领域,特别是涉及图像展示、视频文件处理方法及装置。
背景技术
随着移动互联网的发展,手机等移动终端设备已经支持绝大多数的多媒体形式,例如,gif图片、视频等,在内容的丰富性提高的同时,用户对更具备交互性、更立体化的多媒体形式表现出了更强的诉求。基于该诉求,在一些网络销售等系统中,提供了具有3D立体效果的商品全景展示功能,或者VR(虚拟现实)体验馆等功能。通过特殊制作的3D立体交互视频,配合3D眼镜、VR眼镜等设备,可以使得用户观看到具有深度信息的3D视频,获得类似于3D电影的、更加身临其境的沉浸式使用体验。
但是,现有技术中的3D视频制作需要使用多台摄像机或者专业的全景相机,并且需要经过专业的拍摄、视频剪辑、软件拼接、交互编码等流程才能够完成3D视频制作。该现有技术至少存在如下问题:由于对拍摄设备要求高,因此,用户量稀少,并不适用于在网络销售平台等系统中对商品的3D全景图展现,或者基于具体商品的VR体验。例如,网络销售平台系统中通常具有大量的商品等数据对象,这些数据对象往往是由商家用户、卖家用户等第一用户发布到系统中的。如果第一用户具有将其数据对象以3D立体的效果展示给第二用户(消费者用户、买家用户等),则在现有技术中,由于第一用户可能不具备专业的拍摄工具,并且也不具备拍摄3D视频的技能,因此,通常需要第一用户将数据对象的样品邮寄给平台的工作人员,由工作人员采用专业的3D拍摄设备及技能进行拍摄,之后再生成3D视频文件。但是这样会造成第一用户的参与度降低,并且,3D视频的拍摄及制作过程也会占用系统中大量的人力物力资源,另外在制作效率上还会受制于邮程等因素的影响,因此,实际推广起来存在一定难度。
为此,如何降低3D视频的制作成本,以便于在更多的商品中推广3D全景图展现或者VR体验,成为需要本领域技术人员解决的技术问题。
发明内容
本申请提供了图像展示、视频文件处理方法及装置,有利于进行推广应用,获得更多的用户,更丰富的视频文件。
本申请提供了如下方案:
一种图像展示方法,包括:
第二客户端获得视频文件以及对应的帧差值信息;
创建图像展示窗口,所述展示窗口中包括第一区域以及第二区域,其中,所述第一区域用于展示左图像,第二区域用于展示右图像;
确定第一图像以及第二图像,其中,将所述视频文件中包括的各帧图像确定为第一图像,并将每一帧第一图像的索引值偏移所述帧差值,作为对应的第二图像;
将所确定出的第一图像以及第二图像分别输出到第一区域以及第二区域中,以用于立体展示。
一种图像展示方法,包括:
服务端保存视频文件以及对应的帧差值信息;
接收到第二客户端发送的获得视频文件的请求时,提供所述视频文件以及对应的帧差值信息,由所述客户端在播放所述视频文件时,生成第一图像以及第二图像,其中,将所述视频文件中包括的各帧图像确定为第一图像,并将每一帧第一图像的索引值偏移所述帧差值,作为对应的第二图像,并将所确定出的第一图像以及第二图像分别输出到展示窗口的第一区域以及第二区域中,以用于立体展示。
一种视频文件处理方法,包括:
服务端接收通过单目摄像设备拍摄的视频文件,并获得所述摄像设备的拍摄参数信息;
根据所述拍摄参数以及预置的观察者两眼之间的距离信息,进行视差估计;
根据估计出的视差以及所述视频文件的帧率信息,进行第一图像与第二图像之间的帧差值估计;
保存所述视频文件以及帧差值之间的对应关系,以用于提供给客户端,由所述客户端在播放所述视频文件时,生成第一图像以及第二图像,其中,将所述视频文件中包括的各帧图像确定为第一图像,并将每一帧第一图像的索引值偏移所述帧差值,作为对应的第二图像。
一种视频文件处理方法,包括:
第一客户端提供第一操作界面,所述第一操作界面中包括用于提交视频文件的第一操作选项,以及用于提交拍摄参数信息和/或拍摄设备型号标识信息的第二操作选项;所述视频文件通过单台拍摄设备进行拍摄;
将通过所述第一操作选项录入的视频文件以及通过所述第二操作选项录入的拍摄参数信息和/或拍摄设备型号标识信息,提交到服务端,由所述服务端根据拍摄参数信息、预置的观察者两眼之间的距离信息以及所述视频文件的帧率信息,进行第一图像与第二图像之间的帧差值估计,并保存所述视频文件以及帧差值之间的对应关系,以用于提供给客户端,由所述客户端在播放所述视频文件时,生成第一图像以及第二图像,其中,将所述视频文件中包括的各帧图像确定为第一图像,并将每一帧第一图像的索引值偏移所述帧差值,作为对应的第二图像。
一种视频文件处理方法,包括:
接收通过单目摄像设备拍摄的视频文件;
对所述视频文件进行解码,获得在时间上具有先后顺序关系的多帧图像组成的图像序列,并确定各帧图像在所述序列中的索引值;
提供第二操作界面,所述第二操作界面中包括图像展示窗口以及第三操作选项,所述图像展示窗口包括第一区域以及第二区域,所述第三操作选项用于调节第一图像与第二图像之间的帧差值;
通过所述第三操作选项接收到当前设定的帧差值时,将所述视频文件中的各帧图像作为第一图像,并将每一帧第一图像的索引值偏移所述帧差值,作为对应的第二图像,以用于通过3D设备对所述第一图像以及第二图像进行观察的方式对3D立体效果进行判断。
一种图像展示装置,应用于第二客户端,包括:
信息获得单元,用于获得视频文件以及对应的帧差值信息;
窗口创建单元,用于创建图像展示窗口,所述展示窗口中包括第一区域以及第二区域,其中,所述第一区域用于展示左图像,第二区域用于展示右图像;
图像确定单元,用于确定第一图像以及第二图像,其中,将所述视频文件中包括的各帧图像确定为第一图像,并将每一帧第一图像的索引值偏移所述帧差值,作为对应的第二图像;
图像输出单元,用于将所确定出的第一图像以及第二图像分别输出到第一区域以及第二区域中,以用于立体展示。
一种图像展示装置,应用于服务端,包括:
信息保存单元,用于保存视频文件以及对应的帧差值信息;
帧差值信息提供单元,用于接收到第二客户端发送的获得视频文件的请求时,提供所述视频文件以及对应的帧差值信息,由所述客户端在播放所述视频文件时,生成第一图像以及第二图像,其中,将所述视频文件中包括的各帧图像确定为第一图像,并将每一帧第一图像的索引值偏移所述帧差值,作为对应的第二图像,并将所确定出的第一图像以及第二图像分别输出到展示窗口的第一区域以及第二区域中,以用于立体展示。
一种视频文件处理装置,应用于服务端,包括:
信息获得单元,用于接收通过单目摄像设备拍摄的视频文件,并获得所述摄像设备的拍摄参数信息;
视差估计单元,用于根据所述拍摄参数以及预置的观察者两眼之间的距离信息,进行视差估计;
帧差值估计单元,用于根据估计出的视差以及所述视频文件的帧率信息,进行第一图像与第二图像之间的帧差值估计;
对应关系保存单元,用于保存所述视频文件以及帧差值之间的对应关系,以用于提供给客户端,由所述客户端在播放所述视频文件时,生成第一图像以及第二图像,其中,将所述视频文件中包括的各帧图像确定为第一图像,并将每一帧第一图像的索引值偏移所述帧差值,作为对应的第二图像。
一种视频文件处理装置,应用于第一客户端,包括:
第一操作界面提供单元,用于提供第一操作界面,所述第一操作界面中包括用于提交视频文件的第一操作选项,以及用于提交拍摄参数信息和/或拍摄设备型号标识信息的第二操作选项;所述视频文件通过单台拍摄设备进行拍摄;
信息提交单元,用于将通过所述第一操作选项录入的视频文件以及通过所述第二操作选项录入的拍摄参数信息和/或拍摄设备型号标识信息,提交到服务端,由所述服务端根据拍摄参数信息、预置的观察者两眼之间的距离信息以及所述视频文件的帧率信息,进行第一图像与第二图像之间的帧差值估计,并保存所述视频文件以及帧差值之间的对应关系,以用于提供给客户端,由所述客户端在播放所述视频文件时,生成第一图像以及第二图像,其中,将所述视频文件中包括的各帧图像确定为第一图像,并将每一帧第一图像的索引值偏移所述帧差值,作为对应的第二图像。
一种视频文件处理装置,包括:
视频文件接收单元,用于接收通过单目摄像设备拍摄的视频文件;
解码单元,用于对所述视频文件进行解码,获得在时间上具有先后顺序关系的多帧图像组成的图像序列,并确定各帧图像在所述序列中的索引值;
第二操作界面提供单元,用于提供第二操作界面,所述第二操作界面中包括图像展示窗口以及第三操作选项,所述图像展示窗口包括第一区域以及第二区域,所述第三操作选项用于调节第一图像与第二图像之间的帧差值;
图像确定单元,用于通过所述第三操作选项接收到当前设定的帧差值时,将所述视频文件中的各帧图像作为第一图像,并将每一帧第一图像的索引值偏移所述帧差值,作为对应的第二图像,以用于通过3D设备对所述第一图像以及第二图像进行观察的方式对3D立体效果进行判断。
一种电子设备,包括:
一个或多个处理器;以及
与所述一个或多个处理器关联的存储器,所述存储器用于存储程序指令,所述程序指令在被所述一个或多个处理器读取执行时,执行如下操作:
获得视频文件以及对应的帧差值信息;
创建图像展示窗口,所述展示窗口中包括第一区域以及第二区域,其中,所述第一区域用于展示左图像,第二区域用于展示右图像;
确定第一图像以及第二图像,其中,将所述视频文件中包括的各帧图像确定为第一图像,并将每一帧第一图像的索引值偏移所述帧差值,作为对应的第二图像;
将所确定出的第一图像以及第二图像分别输出到第一区域以及第二区域中,以用于立体展示。
根据本申请提供的具体实施例,本申请公开了以下技术效果:
通过本申请实施例,可以实现通过单目拍摄设备拍摄的视频文件,以及预先确定出的第一图像与第二图像之间的帧差值,即可在进行播放的过程中,通过这种视频文件中包括的各帧图像以及所述帧差值,构造出第一图像以及第二图像,然后,可以将左第二图像并列展示,通过3D眼镜或者VR眼镜等进行横向移动,及时实现左右全景图同步播放,从而动态地还原人眼观察真实场景的3D立体展示体验。可见,通过本申请实施例,只需要通过单目拍摄设备进行视频文件的拍摄,即可实现最终的3D立体播放效果,并且,对于拍摄设备的拍摄参数、型号等都不限制,因此,有利于进行推广应用,获得更多的用户,更丰富的视频文件。
另外,本申请实施例还提供了确定视频文件对应的左第二图像帧差值的方法,从而可以实现针对任意的视频文件,在拍摄参数不同的情况下,也能够分别确定出合适的帧差值,进而可以根据该帧差值构造出合适的第一图像及第二图像,以便获得良好的3D立体播放效率。
当然,实施本申请的任一产品并不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是双目立体视觉视差、深度示意图;
图2是景深示意图;
图3是本申请实施例提供的系统架构的示意图;
图4是本申请实施例提供的第一方法的流程图;
图5是本申请实施例提供的图像处理效果的示意图;
图6是本申请实施例提供的第二方法的流程图;
图7是本申请实施例提供的第三方法的流程图;
图8是本申请实施例提供的第四方法的流程图;
图9是本申请实施例提供的第五方法的流程图;
图10是本申请实施例提供的第一装置的示意图;
图11是本申请实施例提供的第二装置的示意图;
图12是本申请实施例提供的第三装置的示意图;
图13是本申请实施例提供的第四装置的示意图;
图14是本申请实施例提供的第五装置的示意图;
图15是本申请实施例提供的电子设备的示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员所获得的所有其他实施例,都属于本申请保护的范围。
在本申请实施例中,可以通过普通的视频拍摄设备进行视频的拍摄,之后,可以通过对视频的处理,使得观看者能够获得具有深度感的逼真的立体图像,同样可以达到沉浸感、实时性等特性,从而拥有广泛应用的可能性。
其中,由于3D立体交互视频的原理是:利用人眼的双目视差原理,双目各自独立地接收来自同一场景、不同摄像点的左右图像,从而获得具有深度感的立体图像。也正是因为此原因,现有技术在制作3D视频时,才需要利用多部专业的拍摄设备,分别从不同的摄像点对同一场景进行拍摄,以获得左、右两套图像,在播放时,再结合3D眼镜、VR眼镜等设备,使得左眼看到左图像,右眼看到右图像,这样,通过左图像与右图像之间由于在拍摄点上的不同而产生的差别,可以营造出用户在实际场景进行观察时所能感受到的具有深度感的立体图像。
而本申请发明人在实现本申请的过程中发现,除了能够从拍摄点的不同来体现第一图像(左眼或者右眼图像)与第二图像(与第一图像相对应,当第一图像为左眼图像时,第二图像为右眼图像,当第一图像为右眼图像时,第二图像为左眼图像)之间的差别,其实还可以从时间上的偏移来体现两者之间的差异,也即,通过同一视频文件在时间上的帧偏移,生成第一图像以及第二图像,也可以营造出一种具有深度信息的3D立体图像。例如,假设以第一图像为基准,通过在时间轴上向前或者向后移动若干帧,将移动后的图像作为第二图像,在播放时,将显示屏分为左右两个区域,分别用于播放第一图像以及第二图像,再配合3D眼镜或者VR眼镜等工具,则也可以使得用户看到具有一定深度信息的3D立体图像。
也就是说,在本申请实施例中,只需要通过单台摄像机进行视频文件的拍摄,并将其作为其中一路图像(第一图像或者第二图像),之后可以基于对该视频文件在时间轴上的帧偏移处理,生成另一路图像(第二图像或第一图像),从而构造出左第二图像,这样,就可以使得用户能够在借助于3D眼镜或者VR眼镜等工具的情况下,获得具有深度信息的3D立体图像的观看体验。
其中,具体在进行帧偏移处理时,具体的偏移量是与拍摄设备拍摄参数、FPS(画面每秒传输帧数,通俗来讲就是指动画或视频的画面数)等因素等有关的。也就是说,由于拍摄设备拍摄参数、FPS等因素的不同,可能会导致在使用不同的视频文件进行另一路图像的生成时,左右图像之间需要具有不同的帧差值,否则可能会出现图像不清晰,或者无法很好的体现出3D立体效果等问题。
为此,在实际应用中,可以要求所有的视频文件采用统一规格统一参数的拍摄设备进行拍摄的,且具有统一的FPS等参数,这样,具体在对视频文件进行帧偏移时,可以采用预先测试等方式确定的固定的帧差值。因此,在这种情况下,只要预先设定这种帧差值,则对于每一个具体的视频文件,都可以根据这种预先设定的值来确定左右图像之间的帧差值。
但是,为了方便各种不同的用户进行视频文件的拍摄,则更为理想的效果是,对用户使用的拍摄设备规格,以及具体的拍摄参数等都没有太多的限制,以便于方案的推广应用,提高用户量,也提高视频文件的丰富性。例如,在网络销售平台等系统中,如果能够使得各个第一用户按照自己的需求使用各自的手机等拍摄设备为数据对象拍摄视频文件,并能够根据各种不同的拍摄设备拍摄出来的视频文件,都能够按照上述方式生成左右图像,并实现3D立体展示效果,则可以不必再将样品邮寄给平台工作人员,也不必要求第一用户进行拍摄设备、拍摄参数的统一,因此,可以更加有利于进行方案推广。
但是,不同的第一用户在进行视频文件的拍摄时,会使用不同的拍摄设备、拍摄参数等进行拍摄,因此,针对多个不同第一用户上传的视频文件,第一图像与第二图像之间具体应用采用多大的帧偏移量,包括向前或者向后偏移几帧等,也即,第一图像与第二图像之间在时间轴上具有多大的帧差值,是需要考虑的问题。为此,本申请实施例还提供了确定左右图像之间帧差值的具体实现方法。
其中,具体的实现方式可以有多种,例如,其中一种方式下,可以是提供一种采用手动调整模式的用于进行帧差值确定的工具。该工具可以提供一操作界面,该操作界面可以与最终向用户提供的3D视频的播放界面类似,也即,同样可以将播放窗口划分为左右两个区域,两个区域分别用于展示第一图像及第二图像,不同之处在于,在这种播放窗口的下方等位置,可以提供用于进行偏移量调整的操作选项,例如,可以是拖动滑块,或者,由于具体的偏移量通常可以通过帧差值来表达,并且这种帧差值通常是整数,因此,也可以将操作选项设定为用于对整数型的数字进行增减的按钮等控件,等等。
具体在进行帧差值确定之前,该工具可以首先对视频文件进行解码,得到一帧一帧的具有时序关系的图像数据。之后,在具体进行帧差值的确定时,在进入操作界面的初始状态下,可以将视频文件中其中一帧图像(为便于描述,可以称为第一图像)显示在其中一个区域内,之后,操作者可以通过拖动滑块或者操作数字增减按钮等方式来选定一帧差值,然后,该工具就可以按照该帧差值,从视频文件对应的帧序列中,确定出偏移对应该帧差值后对应的另一帧图像(为便于描述,可以称为第二图像)展示在播放窗口的第二区域。这样,操作者就可以通过佩戴3D眼镜或者VR眼镜等设备,对当前播放界面内的两幅图像进行观察,如果已经具有良好的景深信息,能够体现出良好的3D立体展示效果,则可以通过操作界面中的确认按钮等操作选项进行确认,之后,就可以当前设定的帧差值,确定为该视频文件对应的第一图像与第二图像之间的帧差值。如果通过观察发现当前帧差值状态下,景深不明显,3D立体效果也不够明显,则还可以通过拖动滑块或者数字增减按钮等进一步的对帧差值进行调整,相应的,工具也会根据调整后的帧差值,调整第二区域内展示出的第二图像,之后,操作者可以继续进行观察,直到获得理想的3D立体效果。
或者,在另一种实现方式下,本申请实施例还可以提供一种自动确定左右图像之间的帧差值的方式。具体的,本申请发明人在实现本申请的过程中发现,由于这种帧差值与拍摄设备拍摄参数、FPS等信息相关,因此,如果能够获知具体视频文件对应的拍摄参数以及FPS,则可以通过一定的运算等,计算出针对该视频文件,可选取的左右图像之间的帧差值。
具体的,由于在本申请实施例中,是通过在时间轴上构造一定的帧差值,使得左右眼看到的图像不同,进而呈现出3D立体效果。也就是说,假设帧差值是3帧,也即,在左眼看到的是第1帧图像时,右眼看到的是第4帧,在左眼看到的是第2帧图像时,右眼看到的是第5帧,以此类推。可见,右眼看过的图像,实际仍然会被左眼再看一遍,只是在时间上存在先后,而同一帧图像被左右眼看到的时间间隔,可以根据左右眼的视差与视频文件的FPS进行确定。反推可知,如果能够确定出左右眼视差,则在视频文件的FPS已知的情况下,则可以计算出左右图像之间的帧差值。其中,视差是从两个不同的点查看一个物体时,视位置的移动或差异,量度单位可以是这两条线交角的角度或半角度,从不同的位置观察,越近的物体有越大的视差,因此视差可以确定物体的距离。但是,对于不同的视频文件而言,由于拍摄参数的不同,可能会导致人眼观察过程中的视差不同。因此,为了能够找到左右图像之间最合适的帧差值,还可以首先进行视差的确定。
为了便于理解,下面对传统的3D成像的一些原理进行简单介绍。
首先,参见图1,其为双目立体视觉视差、深度示意图,其中,横向为x坐标,纵向为z坐标;Ol是指左侧摄像点部署的摄像机的镜头中心,Or是指右侧摄像点部署的摄像机的镜头中心,Ol与Or所在的连线作为x轴;B为两个摄像机镜头中心之间的距离;Ω为摄像机的成像平面,F为成像平面Ω与xy平面之间的距离;设场景中一特征点为P(x,y,z),P在成像平面(Ω)中对应两个摄像机的成像点分别为Pl和Pr,坐标原点为左摄像机镜头中心Ol,则z的值就代表景深,两个成像点之间的距离Xr-Xl就是指视差。也就是说,视差是指空间中一点投影到左右双目成像平面上的成像点视角移动方向的位置矢量差。其间接反应了景物的深度信息。深度是指三维物体上对应点到基线(两点连线)的距离。
其中,根据相似三角形的原理,可以有得到以下等式:
Figure BDA0001388524710000121
Figure BDA0001388524710000122
通过以上两个等式(1)(2)可以推出:
Figure BDA0001388524710000123
其中,成像平面Ω与xy平面之间的距离F通常可以由摄像机镜头的拍摄光圈值来确定,光圈值作为拍摄参数之一,是可以获知的;而关于B,在上述图1中是指两个摄像机镜头中心之间的距离,而在转化到用户观看3D视频的环节后,通常是指用户的两眼之间的距离。在本申请实施例中,关于B的取值,可以设定为固定值,例如,可以取大部分用户的两眼之间的距离平均值作为B值。当然,在实际应用中,还可以通过一些方式测量出具体观看者用户两眼之间的实际距离作为该B值,等等。也就是说,在公式(3)中,B和F都是可以看作是已知的,此时,只需要再确定出景深z,即可计算出视差Xr-Xl
而关于景深,则可以根据视频文件的拍摄参数来进行确定。具体的,参见图2,其为景深示意图,其中,前景深ΔL1、前景深ΔL2的计算公式为:
Figure BDA0001388524710000124
Figure BDA0001388524710000125
根据上述公式(4)以及公式(5),可以计算出景深ΔL为:
Figure BDA0001388524710000126
其中,上述公式中各参数的含义为:
δ:容许弥散圆直径
f:镜头焦距
F:镜头的拍摄光圈值
L:对焦距离
其中,δ的值可以是预先设定的固定值,而f、F、L都属于摄像机拍摄视频文件时使用的拍摄参数。因此,在这些参数已知的情况下,可以计算出景深的值。之后,再将该景深的值代入到公式(3)中作为z的值,便可以估算出视差Xr-Xl
在估算出视差之后,即可根据视频文件的FPS值确定出,针对当前视频文件,第一图像与第二图像之间可选取的最合适的帧差值。
可见,在运算过程中,主要需要用到的参数包括摄像机在拍摄视频文件时所采用的具体拍摄参数,以及视频文件的FPS值。其中,拍摄参数主要包括容许弥散圆直径、镜头焦距、镜头的拍摄光圈值、对焦距离等。因此,只要能够获知上述参数,计算估算出当前视频文件要想呈现出3D立体效果,所对应左右图像之间的合适视差。
为了达到上述目的,可以要求视频文件的拍摄者提供具体摄像机的拍摄参数,具体的,在拍摄者使用单反相机等设备进行拍摄时,这种设备中可以对具体的拍摄参数进行设置,相应的,拍摄者在向服务端提交视频文件时,就可以将这种设备中设定的拍摄参数一同进行提交。而如果用户是使用一些手机等移动终端设备进行拍摄,则由于这种终端设备中配备的摄像头等装置的拍摄参数通常是不可调的,但是,每款终端设备中关于摄像头的拍摄参数信息,是固定设置且可预先获知的,因此,在这种情况下,拍摄者可以在提交视频文件时,将所使用的终端设备的品牌、型号等信息提交到服务端,由服务端根据预先存储的各种型号终端设备的拍摄参数信息,确定出各项拍摄参数。
而关于视频文件的FPS值,通常,每个视频文件会对应各自的FPS值,并且能够从文件中进行相应的FPS值的提取。或者,在另一种实现方式下,为了便于对最终3D效果的控制,也为了便于根据用户的操作行为(转动手机,或者,在显示屏上滑动等),进行视频播放进度的控制,还可以预先对FPS进行统一设定,例如,设定为30FPS等等。在这种情况下,针对拍摄者提交的各个视频文件,在解析出各帧图像,并确定出具体的FPS值之后,如果大于该设定的FPS值,则还可以首先进行采样操作。例如,如果视频文件实际的帧率是60FPS,而设定的帧率是30FPS,则在进行采样时,可以采用每隔一帧进行采样的方式,使得最终视频文件的帧率变为统一的30FPS,等等。这样,具体在进行视差的计算时,就可以利用统一的FPS值来进行计算。
其中,之所以要设置统一的帧率,是因为在实际向第二用户等播放视频文件时,在初始状态下,可以展示其中某一帧图像(以第一图像、第二图像中的其中一路图像为例,另一路会直接根据帧差值进行计算出来)作为起始状态的画面;之后,可以根据用户的操作行为信息,来确定当前播放哪一帧,这种操作行为信息,可以包括转动手机等终端设备的操作行为,或者在手机屏幕上左右或上下滑动的操作行为等。其中对于前者,可以根据陀螺仪等传感器来检测终端设备的旋转角度,然后将角度转换为帧的位置,而为了能够进行这种转换,可以预先定义可旋转的最大角度,以及视频文件的总帧数,例如,假设可旋转的最大角度是30度,视频文件的总帧数是60帧,则可以确定出,终端设备每旋转0.5度,可以进行一次帧切换。类似的,如果是通过滑动的方式来进行查看,则可以预先设定可滑动的最大距离,以及视频文件的总帧数,这样就可以确定出每滑动多大距离进行一次帧切换,并且还可以根据已经滑动的距离与最大距离之间的比值,确定出当前需要展示的帧在视频文件中的位置,也即第多少帧,等等。总之,为了能够根据用户的操作行为来进行视频文件的播放,可以预先对视频文件的总帧数进行统一设定,这样,再通过设定可旋转的最大角度,或者可滑动的最大距离等数值,即可以实现根据手机等终端设备回传的角度、距离等参数,确定当前需要展示的帧的编号或者位置等索引信息,进而对相应的帧进行展示即可。
也就是说,在自动确定帧差值的情况下,可以首先对视频文件进行解析,获得具有时间上具有先后顺序关系的多帧图片组成的图片序列,之后还可以进行采样等操作,以设定统一的FPS值。另一方面,可以根据视频文件对应的拍摄参数信息,利用公式(6)计算出该视频文件的景深信息,再根据公式(3)计算对应的视差,然后,就可以根据视差以及FPS,确定出左右图像之间最适合的帧差值。
从具体处理流程角度而言,本申请实施例可以分为视频文件的处理,以及3D效果的视频播放这样两个阶段,在第一阶段,视频文件拍摄者可以采用单台任意规格的拍摄设备,对目标物体进行拍摄,之后,如果是采用手动确定帧差值的工具,则可以在拍摄者侧进行帧差值的确定,然后将视频文件以及对应的帧差值信息提交到服务端。或者,也可以直接将视频文件提交到服务端,由服务端工作人员利用手动确定帧差值的工具,确定视频文件对应的合适的帧差值。再或者,拍摄者还可以将拍摄获得的视频文件提交到服务端,同时提交拍摄参数,或者拍摄使用的手机等具有固定拍摄参数的终端设备的型号等信息,然后,由服务端利用前述自动确定左右图像之间合适的帧差值,等等。总之,无论是手动还是自动确定左右图像之间的帧差值,都可以在服务端保存视频文件与帧差值之间的对应关系,并且,这种视频文件通常还会与系统中的商品等数据对象相对应。
接下来,在第二阶段,在客户端需要查看某数据对象的全景图等信息时,服务端则可以将该视频文件以及对应的帧差值提供给客户端。客户端可以根据帧差值,将视频播放界面划分为两个区域,在初始状态下,可以在第一区域展示视频文件的第1帧(当然也可以是其他帧)作为第一图像的初始画面,相应的,还可以根据帧差值,确定出视频文件的第n帧作为第二图像的初始画面,并展示在第二区域内。之后,可以自动播放视频文件,并始终保持两个区域之间的帧差值不变,或者,还可以根据用户的操作行为信息来进行视频文件的播放,此时,可以以帧为单位进行区域内展示的图像进行更新,终端设备每旋转一定角度,或者在屏幕上每滑动一定距离,都可以触发下一帧图像的切换,并且在切换过程中,两个区域内展示的图像都可以始终保持所述帧差值不变。这样,再结合3D眼镜或者VR眼镜等设备进行横向移动,即可使得用户获得具有景深的3D立体展示效果。
而从系统架构角度而言,参见图3,本申请实施例可以包括第一客户端(可以是视频文件提供端对应的客户端,例如,具体可以是网络销售系统中为第一用户提供的客户端),服务端(例如,可以是网络销售系统的服务端等)以及第二客户端(需要获得3D立体播放效果的视频文件观看方对应的客户端,例如,具体可以是网络销售系统中为第二用户提供的客户端)。其中,第一客户端主要用于将通过普通的单目拍摄设备拍摄的视频文件提交到服务端,在一种实现方式下,还可以同时提交拍摄参数,或者拍摄使用的手机等具有固定拍摄参数的终端设备的型号标识等信息,或者,在另一种实现方式下,还可以通过手动调节的方式来确定出左右图像之间的帧差值,一并提交到服务端,等等。其中,不同的第一客户端提交的视频文件,在使用的拍摄设备,拍摄参数等方面都可以是不同的,例如,如图3中所示,例举出的三个第一客户端,对应的视频文件的拍摄设备分别为A、B、C,各自都是不同的。另外,其实有些第一用户同样是使用同一类的拍摄设备进行视频文件的拍摄,也会存在不同品牌、不同型号等差异。服务端主要用于对视频文件以及帧差值之间的对应关系信息保存,其中,关于帧差值,可以是由第一客户端提供的,或者,还可以是根据拍摄设备的拍摄参数等信息计算出来。第二客户端则用于具体的视频文件展示,在本申请实施例中,第二客户端可以根据视频文件中包括的各帧图像以及帧差值,生成第一图像以及第二图像,并展示在图像展示窗口的第一区域以及第二区域,通过这种方式来使得观察者的左右眼看到的图像存在差异,以此来构造出一种3D立体效果。
下面分别从不同的角度对具体的实现方式进行详细介绍。
实施例一
首先,该实施例一从第二客户端的角度,提供了一种图像展示方法,具体的,参见图4,该方法可以包括:
S401:第二客户端获得视频文件以及对应的帧差值信息;
其中,视频文件就可以是拍摄者使用单台拍摄设备拍摄出的视频文件,其中,对于拍摄设备的型号、拍摄参数等都不限制。视频文件与帧差值之间的对应关系可以由服务端进行保存,客户端在需要进行展示时,再从服务端进行下载。其中,关于帧差值,可以通过多种方式进行确定,例如,可以是预先指定的固定值,或者,还可以是根据前文中所述的各种方式,为每个视频文件确定出的帧差值,等等。
具体实现时,视频文件可以是与数据对象的全景图信息相对应的,也就是说,可以是在网络销售平台等系统中,如果第一用户对其发布的数据对象具有提供全景图展示的需求,则在本申请实施例中,则可以使用自己的拍摄设备,对数据对象对应的物品进行视频拍摄,例如,可以是将物品放置在匀速旋转的旋转台上,拍摄旋转一周的视频,等等。在这种情况下,服务端保存的对应关系中,还可以包括对应的数据对象的标识信息,第二客户端可以是网络销售系统向第二用户提供的客户端,通过这种第二客户端,用户可以浏览数据对象的信息。在此过程中,就可以发起对数据对象的全景图进行浏览的请求,相应的,第二客户端就可以向服务端请求获得该数据对象对应的视频文件,以及对应的帧差值。
S402:创建图像展示窗口,所述展示窗口中包括第一区域以及第二区域,其中,所述第一区域用于展示第一图像,第二区域用于展示第二图像;
为了能够使得视频文件在展示过程中呈现出3D立体的展示效果,第二客户端可以创建展示窗口,并将其划分为两个区域,分别用于展示第一图像以及第二图像。
S403:确定第一图像以及第二图像,其中,将所述视频文件中包括的各帧图像确定为第一图像,并将每一帧第一图像的索引值偏移所述帧差值,作为对应的第二图像;
在创建展示窗口的同时,还可以构造出第一图像以及第二图像。其中,具体实现时,就可以首先将所述视频文件中包括的各帧图像确定为第一图像,并将每一帧第一图像的索引值偏移所述帧差值,作为对应的第二图像;或者,同样道理,也可以首先将所述视频文件中包括的各帧图像确定为第二图像,并将每一帧第二图像的索引值偏移所述帧差值,作为对应的第一图像,等等。
在具体实现对第一图像以及第二图像进行展示的过程中,可以直接按照视频文件的帧率等,对视频文件进行播放,或者,还可以根据用户的操作行为数据,确定需要展示的帧的位置。具体的,在初始状态下,可以将所述视频文件中的某一帧第一图像作为第一图像的初始图像,并在该帧图像的索引值基础上偏移所述帧差值,将对应的第二图像作为第二图像的初始图像。然后,根据终端设备回传的用户操作行为相关数据,对第一图像以及第二图像中对应的图像的索引值进行更新,并且在更新过程中,第一图像与第二图像之间的帧差值保持不变。
其中,所述用户操作行为相关数据包括:终端设备的转动角度,或者在所述终端设备屏幕上的滑动距离,等等。具体实现时,还可以预先在第二客户端中保存配置参数信息,该配置参数可以包括在通过转动终端设备进行浏览的方式下,终端设备可转动的最大角度,或者,在通过在屏幕上滑动进行浏览的方式下,可滑动的最大距离等等。这样,就可以根据终端设备的转动角度以及滑动距离,以及视频文件的总帧数,确定出当前需要展示的帧在帧序列中的位置,包括其索引值,等等。
另外,在具体实现时,在构造第一图像以及第二图像之前,还可以首先对所述视频文件进行解码,获得在时间上具有先后顺序关系的多帧图像组成的图像序列,并确定各帧图像在所述序列中的索引值。例如,可以对视频文件中的各帧图像进行编号,通过编号可以对应到具体的帧,并且还可以体现出各帧在时间轴上的前后顺序关系。当然,在其他实现方式下,还可以是由服务端预先对视频文件中的各个帧进行标记,并提供索引值等等。
S404:将所确定出的第一图像以及第二图像分别输出到第一区域以及第二区域中进行展示。
在构造出第一图像以及第二图像之后,就可以输出到第一区域以及第二区域进行展示,例如,参见图5,501为整个展示窗口,502为第一区域,503为第二区域,从图中可以看出,第一区域内展示的第一图像与第二区域内展示的第二图像并不完全相同,其中,第一图像与第二图像之间具有一定的帧差值。此时,用户只需要再借助于3D眼镜或者VR眼镜等设备,即可观看到具有深度信息的3D立体展示效果。
需要说明的是,在本申请实施例中,所述第二客户端可以运行于第二用户的终端设备中,或者,也可以运行于虚拟现实设备中。其中,第二用户的终端设备可以是指用户的手机、平板电脑等设备。虚拟现实设备则可以是集存储、计算、屏显等功能为一体的“一体式”虚拟现实设备,对于这种一体式虚拟现实设备而言,由于其本身带有存储、计算等功能,因此,可以直接将前述第二客户端程序安装或者内置于这种虚拟现实设备中。
总之,通过本申请实施例,可以实现通过单目拍摄设备拍摄的视频文件,以及预先确定出的第一图像与第二图像之间的帧差值,即可在进行播放的过程中,通过这种视频文件中包括的各帧图像以及所述帧差值,构造出第一图像以及第二图像,然后,可以将左右图像并列展示,通过3D眼镜或者VR眼镜等进行横向移动,及时实现左右全景图同步播放,从而动态地还原人眼观察真实场景的3D立体展示体验。可见,通过本申请实施例,只需要通过单目拍摄设备进行视频文件的拍摄,即可实现最终的3D立体播放效果,并且,对于拍摄设备的拍摄参数、型号等都不限制,因此,有利于进行推广应用,获得更多的用户,更丰富的视频文件。
实施例二
该实施例二是与实施例一相对应的,从服务端的角度,提供了一种图像展示方法,参见图6,该方法可以包括:
S601:服务端保存视频文件以及对应的帧差值信息;
S602:接收到第二客户端发送的获得视频文件的请求时,提供所述视频文件以及对应的帧差值信息,由所述客户端在播放所述视频文件时,生成第一图像以及第二图像,其中,将所述视频文件中包括的各帧图像确定为第一图像,并将每一帧第一图像的索引值偏移所述帧差值,作为对应的第二图像,并将所确定出的第一图像以及第二图像分别输出到展示窗口的第一区域以及第二区域中进行展示。
关于上述实施例二,相关的具体实现可以参见前述实施例一中的记载,这里不再赘述。
实施例三
前述实施例一以及实施例二中,是在已知视频文件对应的帧差值的情况下,提供了具体根据这些已知的信息进行3D效果展示的处理方式。而该实施例三则是针对如何确定视频文件对应的帧差值的实现方式进行了介绍。具体的,该实施例三首先从服务端的角度,提供了一种视频文件处理方法,参见图7,该方法可以包括:
S701:服务端接收通过单目摄像设备拍摄的视频文件,并获得所述摄像设备的拍摄参数信息;
在该实施例三中,可以由服务端采用前述自动方式来确定帧差值,在这种情况下,第一客户端只需要提交视频文件到服务端,同时,还可以提交与拍摄设备的拍摄参数相关的信息,使得服务端能够获得具体的拍摄参数。其中,如果拍摄设备是单反相机等可调节参数的设备,则第一用户在进行拍摄时,通常可能会首先对拍摄参数进行调节,之后再进行视频文件的拍摄,在这种情况下,第一客户端可以将拍摄设备的拍摄参数直接提交到服务端。而如果是使用手机等拍摄参数固定的拍摄设备进行拍摄,并且在这种情况下,第一用户可能不知道具体的拍摄参数,此时,第一用户可以提交拍摄设备的型号等标识信息,例如,某品牌某型号的手机等等。在服务端侧,可以通过查询预先保存的各种型号的拍摄设备与拍摄参数之间的对应关系,确定出当前的视频文件对应的拍摄设备的拍摄参数。
S702:根据所述拍摄参数以及预置的观察者两眼之间的距离信息,进行视差估计;
具体在进行视差估计时,可以首先利用前述公式(6)确定出景深,然后,再带入到公式(3)中,确定出对应的视差值。具体的,拍摄参数包括镜头焦距、镜头的拍摄光圈值以及对焦距离,则视差估计的具体过程可以是:首先,利用公式(6),根据预置的容许弥散圆直径,以及镜头焦距、镜头的拍摄光圈值、对焦距离,计算所述视频文件中的景深信息;然后,根据将计算出的景深信息作为z的值代入到公式(6)中,再结合镜头的拍摄光圈值以及观察者两眼之间的距离信息,计算获得视差估计值。其中,观察者两眼之间的距离信息可以是预先通过统计等方式确定出的两眼距离平均值,等等。
S703:根据估计出的视差以及所述视频文件的帧率信息,进行第一图像与第二图像之间的帧差值估计;
在估计出视差后,就可以结合视频文件的帧率信息,估计出如果要想呈现出3D立体效果,则第一图像与第二图像之间需要具有多大的帧差值。具体根据视差以及帧率信息估计帧差值的方式可以有多种,例如,其中一种方式下,可以假设计算得到的视差为separation,v是视频拍摄速度,则左右视图帧差值=separation/v*fps。其中,separation/v是指视差距离需要的拍摄时间,乘以每秒拍摄帧数就能得到帧差值。
S704:保存所述视频文件以及帧差值之间的对应关系,以用于提供给客户端,由所述客户端在播放所述视频文件时,生成第一图像以及第二图像,其中,将所述视频文件中包括的各帧图像确定为第一图像,并将每一帧第一图像的索引值偏移所述帧差值,作为对应的第二图像。
在确定出帧差值之后,就可以将视频文件与对应的帧差值进行保存,这样,第二客户端在请求获取相关的全景图等信息时,就可以将视频文件以及帧差值都提供给第二客户端。另外,由于在本申请实施例中,帧差值主要是与拍摄参数以及帧率相关,因此,在可选的实现方式下,还可以将所述拍摄参数以及视频文件的帧率信息保存到所述对应关系中,这样,当再次收到相同拍摄参数以及相同帧率的视频文件时,就可以利用所述保存的对应关系信息,确定对应的帧差值,而不需要再进行计算操作,从而可以提高效率,节省计算资源。
另外,如前述实施例中所述,所述视频文件可以是对应于一数据对象的全景图信息,此时,在保存所述视频文件以及帧差值之间的对应关系时,还可以将所述数据对象的标识信息添加到所述对应关系中进行保存,这样,就可以在接收到浏览所述数据对象的全景图信息的请求时,提供对应的视频文件以及帧差值。
实施例四
该实施例四是与实施例三相对应的,从第一客户端的角度,提供了一种视频文件处理方法,参见图8,该方法可以包括:
S801:第一客户端提供第一操作界面,所述第一操作界面中包括用于提交视频文件的第一操作选项,以及用于提交拍摄参数信息和/或拍摄设备型号标识信息的第二操作选项;所述视频文件通过单台拍摄设备进行拍摄;
S802:将通过所述第一操作选项录入的视频文件以及通过所述第二操作选项录入的拍摄参数信息和/或拍摄设备型号标识信息,提交到服务端,由所述服务端根据拍摄参数信息、预置的观察者两眼之间的距离信息以及所述视频文件的帧率信息,进行第一图像与第二图像之间的帧差值估计,并保存所述视频文件以及帧差值之间的对应关系,以用于提供给客户端,由所述客户端在播放所述视频文件时,生成第一图像以及第二图像,其中,将所述视频文件中包括的各帧图像确定为第一图像,并将每一帧第一图像的索引值偏移所述帧差值,作为对应的第二图像。
实施例五
在该实施例五中,对手动调节帧差值的方式进行介绍。具体的,该方法可以在第一客户端实现,或者也可以在服务端来实现,如果是前者,则可以是第一用户在拍摄得到视频文件后,通过第一客户端确定出具体的帧差值,然后将视频文件与帧差值之间的对应关系提交到服务端。参见图9,该实施例五提供了一种视频文件处理方法,该方法具体可以包括:
S901:接收通过单目摄像设备拍摄的视频文件;
S902:对所述视频文件进行解码,获得在时间上具有先后顺序关系的多帧图像组成的图像序列,并确定各帧图像在所述序列中的索引值;
S903:提供第二操作界面,所述第二操作界面中包括图像展示窗口以及第三操作选项,所述图像展示窗口包括第一区域以及第二区域,所述第三操作选项用于调节第一图像与第二图像之间的帧差值;
具体的,第三操作选项可以是拖动滑块的形式,或者还可以是数字增减按钮的形式,等等。
S904:通过所述第三操作选项接收到当前设定的帧差值时,将所述视频文件中的各帧图像作为第一图像,并将每一帧第一图像的索引值偏移所述帧差值,作为对应的第二图像,以用于通过3D设备对所述第一图像以及第二图像进行观察的方式对3D立体效果进行判断。
关于该实施例五,各步骤的具体实现方式可以参见本申请说明书其他部分的介绍,这里不再赘述。
与实施例一相对应,本申请实施例还提供了一种图像展示装置,参见图10,应用于第二客户端,包括:
信息获得单元1001,用于获得视频文件以及对应的帧差值信息;
窗口创建单元1002,用于创建图像展示窗口,所述展示窗口中包括第一区域以及第二区域,其中,所述第一区域用于展示左图像,第二区域用于展示右图像;
图像确定单元1003,用于确定第一图像以及第二图像,其中,将所述视频文件中包括的各帧图像确定为第一图像,并将每一帧第一图像的索引值偏移所述帧差值,作为对应的第二图像;
图像输出单元1004,用于将所确定出的第一图像以及第二图像分别输出到第一区域以及第二区域中,以用于立体展示。
具体实现时,所述图像确定单元具体可以包括:
初始图像确定子单元,用于在初始状态下,将所述视频文件中的某一帧第一图像作为第一图像的初始图像,并在该帧图像的索引值基础上偏移所述帧差值,将对应的第二图像作为第二图像的初始图像;
索引值更新子单元,用于根据终端设备回传的用户操作行为相关数据,对第一图像以及第二图像中对应的图像的索引值进行更新,其中,在更新过程中,第一图像与第二图像之间的帧差值保持不变。
其中,所述用户操作行为相关数据包括:终端设备的转动角度,或者在所述终端设备屏幕上的滑动距离。
所述确定第一图像以及第二图像之前,所述装置还包括:
解码单元,用于对所述视频文件进行解码,获得在时间上具有先后顺序关系的多帧图像组成的图像序列,并确定各帧图像在所述序列中的索引值。
其中,所述视频文件对应于一数据对象的全景图信息,所述信息获得单元具体可以用于:
在接收到浏览所述数据对象的全景图信息的请求时,从服务端下载所述视频文件以及对应的帧差值信息。
其中,所述第二客户端运行于第二用户的终端设备中,或者,运行于虚拟现实设备中。
与实施例二相对应,本申请实施例还提供了一种图像展示装置,参见图11,该装置应用于服务端,包括:
信息保存单元1101,用于保存视频文件以及对应的帧差值信息;
帧差值信息提供单元1102,用于接收到第二客户端发送的获得视频文件的请求时,提供所述视频文件以及对应的帧差值信息,由所述客户端在播放所述视频文件时,生成第一图像以及第二图像,其中,将所述视频文件中包括的各帧图像确定为第一图像,并将每一帧第一图像的索引值偏移所述帧差值,作为对应的第二图像,并将所确定出的第一图像以及第二图像分别输出到展示窗口的第一区域以及第二区域中,以用于立体展示。
与实施例三相对应,本申请实施例还提供了一种视频文件处理装置,参见图12,该装置应用于服务端,包括:
信息获得单元1201,用于接收通过单目摄像设备拍摄的视频文件,并获得所述摄像设备的拍摄参数信息;
视差估计单元1202,用于根据所述拍摄参数以及预置的观察者两眼之间的距离信息,进行视差估计;
帧差值估计单元1203,用于根据估计出的视差以及所述视频文件的帧率信息,进行第一图像与第二图像之间的帧差值估计;
对应关系保存单元1204,用于保存所述视频文件以及帧差值之间的对应关系,以用于提供给客户端,由所述客户端在播放所述视频文件时,生成第一图像以及第二图像,其中,将所述视频文件中包括的各帧图像确定为第一图像,并将每一帧第一图像的索引值偏移所述帧差值,作为对应的第二图像。
具体实现时,所述信息获得单元具体可以用于:
接收拍摄者用户提交的摄像设备的拍摄参数信息。
具体的,所述信息获得单元可以用于:
接收拍摄者用户提交的摄像设备的型号标识信息,其中,所述拍摄设备具有固定的拍摄参数;
根据预先保存的各种型号标识与拍摄参数之间的对应关系,确定当前拍摄设备对应的拍摄参数。
其中,所述拍摄参数包括镜头焦距、镜头的拍摄光圈值以及对焦距离,所述视差估计单元具体可以用于:
根据预置的容许弥散圆直径,以及镜头焦距、镜头的拍摄光圈值、对焦距离,计算所述视频文件中的景深信息;
根据所述景深信息、镜头的拍摄光圈值以及所述观察者两眼之间的距离信息,计算获得视差估计值。
其中,在保存所述视频文件以及帧差值之间的对应关系时,该装置还可以包括:
帧率信息保存单元,用于将所述拍摄参数以及视频文件的帧率信息保存到所述对应关系中,以用于再次收到相同拍摄参数以及相同帧率的视频文件时,利用所述保存的对应关系信息,确定对应的帧差值。
具体实现时,所述视频文件对应于一数据对象的全景图信息;
所述对应关系保存单元还用于:
将所述数据对象的标识信息添加到所述对应关系中进行保存,以用于在接收到浏览所述数据对象的全景图信息的请求时,提供对应的视频文件以及帧差值。
与实施例四相对应,本申请实施例还提供了一种视频文件处理装置,参见图13,该装置应用于第一客户端,包括:
第一操作界面提供单元1301,用于提供第一操作界面,所述第一操作界面中包括用于提交视频文件的第一操作选项,以及用于提交拍摄参数信息和/或拍摄设备型号标识信息的第二操作选项;所述视频文件通过单台拍摄设备进行拍摄;
信息提交单元1302,用于将通过所述第一操作选项录入的视频文件以及通过所述第二操作选项录入的拍摄参数信息和/或拍摄设备型号标识信息,提交到服务端,由所述服务端根据拍摄参数信息、预置的观察者两眼之间的距离信息以及所述视频文件的帧率信息,进行第一图像与第二图像之间的帧差值估计,并保存所述视频文件以及帧差值之间的对应关系,以用于提供给客户端,由所述客户端在播放所述视频文件时,生成第一图像以及第二图像,其中,将所述视频文件中包括的各帧图像确定为第一图像,并将每一帧第一图像的索引值偏移所述帧差值,作为对应的第二图像。
与实施例五相对应,本申请实施例还提供了一种视频文件处理装置,参见图14,该装置,包括:
视频文件接收单元1401,用于接收通过单目摄像设备拍摄的视频文件;
解码单元1402,用于对所述视频文件进行解码,获得在时间上具有先后顺序关系的多帧图像组成的图像序列,并确定各帧图像在所述序列中的索引值;
第二操作界面提供单元1403,用于提供第二操作界面,所述第二操作界面中包括图像展示窗口以及第三操作选项,所述图像展示窗口包括第一区域以及第二区域,所述第三操作选项用于调节第一图像与第二图像之间的帧差值;
图像确定单元1404,用于通过所述第三操作选项接收到当前设定的帧差值时,将所述视频文件中的各帧图像作为第一图像,并将每一帧第一图像的索引值偏移所述帧差值,作为对应的第二图像,以用于通过3D设备对所述第一图像以及第二图像进行观察的方式对3D立体效果进行判断。
另外,该装置还提供了一种电子设备,包括:
一个或多个处理器;以及
与所述一个或多个处理器关联的存储器,所述存储器用于存储程序指令,所述程序指令在被所述一个或多个处理器读取执行时,执行如下操作:
获得视频文件以及对应的帧差值信息;
创建图像展示窗口,所述展示窗口中包括第一区域以及第二区域,其中,所述第一区域用于展示左图像,第二区域用于展示右图像;
确定第一图像以及第二图像,其中,将所述视频文件中包括的各帧图像确定为第一图像,并将每一帧第一图像的索引值偏移所述帧差值,作为对应的第二图像;
将所确定出的第一图像以及第二图像分别输出到第一区域以及第二区域中,以用于立体展示。
其中,图15示例性的展示出了电子设备的架构,例如,设备1500可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理,飞行器等。
参照图15,设备1500可以包括以下一个或多个组件:处理组件1502,存储器1504,电源组件1506,多媒体组件1508,音频组件1510,输入/输出(I/O)的接口1512,传感器组件1514,以及通信组件1516。
处理组件1502通常控制设备1500的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理元件1502可以包括一个或多个处理器1520来执行指令,以完成本公开技术方案提供的视频播放方法中的当满足预设条件时,生成流量压缩请求,并发送给服务器,其中所述流量压缩请求中记录有用于触发服务器获取目标关注区域的信息,所述流量压缩请求用于请求服务器优先保证目标关注区域内视频内容的码率;根据服务器返回的码流文件播放所述码流文件对应的视频内容,其中所述码流文件为服务器根据所述流量压缩请求对所述目标关注区域之外的视频内容进行码率压缩处理得到的视频文件的全部或部分步骤。此外,处理组件1502可以包括一个或多个模块,便于处理组件1502和其他组件之间的交互。例如,处理部件1502可以包括多媒体模块,以方便多媒体组件1508和处理组件1502之间的交互。
存储器1504被配置为存储各种类型的数据以支持在设备1500的操作。这些数据的示例包括用于在设备1500上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器1504可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件1506为设备1500的各种组件提供电力。电源组件1506可以包括电源管理系统,一个或多个电源,及其他与为设备1500生成、管理和分配电力相关联的组件。
多媒体组件1508包括在设备1500和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件1508包括一个前置摄像头和/或后置摄像头。当设备1500处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件1510被配置为输出和/或输入音频信号。例如,音频组件1510包括一个麦克风(MIC),当设备1500处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器1504或经由通信组件1516发送。在一些实施例中,音频组件1510还包括一个扬声器,用于输出音频信号。
I/O接口1512为处理组件1502和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件1514包括一个或多个传感器,用于为设备1500提供各个方面的状态评估。例如,传感器组件1514可以检测到设备1500的打开/关闭状态,组件的相对定位,例如所述组件为设备1500的显示器和小键盘,传感器组件1514还可以检测设备1500或设备1500一个组件的位置改变,用户与设备1500接触的存在或不存在,设备1500方位或加速/减速和设备1500的温度变化。传感器组件1514可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件1514还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件1514还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件1516被配置为便于设备1500和其他设备之间有线或无线方式的通信。设备1500可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信部件1516经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信部件1516还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,设备1500可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器1504,上述指令可由设备1500的处理器1520执行以完成本公开技术方案提供的视频播放方法中的当满足预设条件时,生成流量压缩请求,并发送给服务器,其中所述流量压缩请求中记录有用于触发服务器获取目标关注区域的信息,所述流量压缩请求用于请求服务器优先保证目标关注区域内视频内容的码率;根据服务器返回的码流文件播放所述码流文件对应的视频内容,其中所述码流文件为服务器根据所述流量压缩请求对所述目标关注区域之外的视频内容进行码率压缩处理得到的视频文件。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本申请可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例或者实施例的某些部分所述的方法。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统或系统实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的系统及系统实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上对本申请所提供的图像展示、视频文件处理方法及装置,进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本申请的限制。

Claims (21)

1.一种图像展示方法,其特征在于,包括:
第二客户端获得视频文件以及对应的帧差值信息;所述视频文件通过单台拍摄设备拍摄得到;所述帧差值信息为所述视频文件在时间上的帧偏移,所述帧差值信息表征左右眼图像之间的差异;
创建图像展示窗口,所述展示窗口中包括第一区域以及第二区域,其中,所述第一区域用于展示左图像,第二区域用于展示右图像;
确定第一图像以及第二图像,其中,将所述视频文件中包括的各帧图像确定为第一图像,并将每一帧第一图像的索引值偏移所述帧差值,作为对应的第二图像;
将所确定出的第一图像以及第二图像分别输出到第一区域以及第二区域中,以用于立体展示。
2.根据权利要求1所述的方法,其特征在于,所述确定第一图像以及第二图像,具体包括:
在初始状态下,将所述视频文件中的某一帧第一图像作为第一图像的初始图像,并在该帧图像的索引值基础上偏移所述帧差值,将对应的第二图像作为第二图像的初始图像;
根据终端设备回传的用户操作行为相关数据,对第一图像以及第二图像中对应的图像的索引值进行更新,其中,在更新过程中,第一图像与第二图像之间的帧差值保持不变。
3.根据权利要求2所述的方法,其特征在于,所述用户操作行为相关数据包括:终端设备的转动角度,或者在所述终端设备屏幕上的滑动距离。
4.根据权利要求1所述的方法,其特征在于,所述确定第一图像以及第二图像之前,还包括:
对所述视频文件进行解码,获得在时间上具有先后顺序关系的多帧图像组成的图像序列,并确定各帧图像在所述序列中的索引值。
5.根据权利要求1所述的方法,其特征在于,所述视频文件对应于一数据对象的全景图信息,所述获得视频文件以及对应的帧差值信息,包括:
在接收到浏览所述数据对象的全景图信息的请求时,从服务端下载所述视频文件以及对应的帧差值信息。
6.根据权利要求1所述的方法,其特征在于,所述第二客户端运行于第二用户的终端设备中,或者,运行于虚拟现实设备中。
7.一种图像展示方法,其特征在于,包括:
服务端保存视频文件以及对应的帧差值信息;所述视频文件通过单台拍摄设备拍摄得到;所述帧差值信息为所述视频文件在时间上的帧偏移,所述帧差值信息表征左右眼图像之间的差异;
接收到第二客户端发送的获得视频文件的请求时,提供所述视频文件以及对应的帧差值信息,由所述客户端在播放所述视频文件时,生成第一图像以及第二图像,其中,将所述视频文件中包括的各帧图像确定为第一图像,并将每一帧第一图像的索引值偏移所述帧差值,作为对应的第二图像,并将所确定出的第一图像以及第二图像分别输出到展示窗口的第一区域以及第二区域中,以用于立体展示。
8.一种视频文件处理方法,其特征在于,包括:
服务端接收通过单目拍摄设备拍摄的视频文件,并获得所述拍摄设备的拍摄参数信息;
根据所述拍摄参数以及预置的观察者两眼之间的距离信息,进行视差估计;
根据估计出的视差以及所述视频文件的帧率信息,进行第一图像与第二图像之间的帧差值估计;所述帧差值为所述视频文件在时间上的帧偏移,所述帧差值表征左右眼图像之间的差异;
保存所述视频文件以及帧差值之间的对应关系,以用于提供给客户端,由所述客户端在播放所述视频文件时,生成第一图像以及第二图像,其中,将所述视频文件中包括的各帧图像确定为第一图像,并将每一帧第一图像的索引值偏移所述帧差值,作为对应的第二图像。
9.根据权利要求8所述的方法,其特征在于,所述获得所述拍摄设备的拍摄参数信息,包括:
接收拍摄者用户提交的拍摄设备的拍摄参数信息。
10.根据权利要求8所述的方法,其特征在于,所述获得所述拍摄设备的拍摄参数信息,包括:
接收拍摄者用户提交的拍摄设备的型号标识信息,其中,所述拍摄设备具有固定的拍摄参数;
根据预先保存的各种型号标识与拍摄参数之间的对应关系,确定当前拍摄设备对应的拍摄参数。
11.根据权利要求8所述的方法,其特征在于,所述拍摄参数包括镜头焦距、镜头的拍摄光圈值以及对焦距离,所述根据所述拍摄参数以及预置的观察者两眼之间的距离信息,进行视差估计,包括:
根据预置的容许弥散圆直径,以及镜头焦距、镜头的拍摄光圈值、对焦距离,计算所述视频文件中的景深信息;
根据所述景深信息、镜头的拍摄光圈值以及所述观察者两眼之间的距离信息,计算获得视差估计值。
12.根据权利要求8所述的方法,其特征在于,在保存所述视频文件以及帧差值之间的对应关系时,还包括:
将所述拍摄参数以及视频文件的帧率信息保存到所述对应关系中,以用于再次收到相同拍摄参数以及相同帧率的视频文件时,利用所述保存的对应关系信息,确定对应的帧差值。
13.根据权利要求8至12任一项所述的方法,其特征在于,所述视频文件对应于一数据对象的全景图信息;
所述保存所述视频文件以及帧差值之间的对应关系时,还包括:
将所述数据对象的标识信息添加到所述对应关系中进行保存,以用于在接收到浏览所述数据对象的全景图信息的请求时,提供对应的视频文件以及帧差值。
14.一种视频文件处理方法,其特征在于,包括:
第一客户端提供第一操作界面,所述第一操作界面中包括用于提交视频文件的第一操作选项,以及用于提交拍摄参数信息和/或拍摄设备型号标识信息的第二操作选项;所述视频文件通过单台拍摄设备进行拍摄;
将通过所述第一操作选项录入的视频文件以及通过所述第二操作选项录入的拍摄参数信息和/或拍摄设备型号标识信息,提交到服务端,由所述服务端根据拍摄参数信息、预置的观察者两眼之间的距离信息以及所述视频文件的帧率信息,进行第一图像与第二图像之间的帧差值估计,并保存所述视频文件以及帧差值之间的对应关系,以用于提供给客户端,由所述客户端在播放所述视频文件时,生成第一图像以及第二图像,其中,将所述视频文件中包括的各帧图像确定为第一图像,并将每一帧第一图像的索引值偏移所述帧差值,作为对应的第二图像;所述帧差值为所述视频文件在时间上的帧偏移,所述帧差值表征左右眼图像之间的差异。
15.一种视频文件处理方法,其特征在于,包括:
接收通过单目拍摄设备拍摄的视频文件;
对所述视频文件进行解码,获得在时间上具有先后顺序关系的多帧图像组成的图像序列,并确定各帧图像在所述序列中的索引值;
提供第二操作界面,所述第二操作界面中包括图像展示窗口以及第三操作选项,所述图像展示窗口包括第一区域以及第二区域,所述第三操作选项用于调节第一图像与第二图像之间的帧差值;所述帧差值为所述视频文件在时间上的帧偏移,所述帧差值表征左右眼图像之间的差异;
通过所述第三操作选项接收到当前设定的帧差值时,将所述视频文件中的各帧图像作为第一图像,并将每一帧第一图像的索引值偏移所述帧差值,作为对应的第二图像,以用于通过3D设备对所述第一图像以及第二图像进行观察的方式对3D立体效果进行判断。
16.一种图像展示装置,其特征在于,应用于第二客户端,包括:
信息获得单元,用于获得视频文件以及对应的帧差值信息;所述视频文件通过单台拍摄设备拍摄得到;所述帧差值信息为所述视频文件在时间上的帧偏移,所述帧差值信息表征左右眼图像之间的差异;
窗口创建单元,用于创建图像展示窗口,所述展示窗口中包括第一区域以及第二区域,其中,所述第一区域用于展示左图像,第二区域用于展示右图像;
图像确定单元,用于确定第一图像以及第二图像,其中,将所述视频文件中包括的各帧图像确定为第一图像,并将每一帧第一图像的索引值偏移所述帧差值,作为对应的第二图像;
图像输出单元,用于将所确定出的第一图像以及第二图像分别输出到第一区域以及第二区域中,以用于立体展示。
17.一种图像展示装置,其特征在于,应用于服务端,包括:
信息保存单元,用于保存视频文件以及对应的帧差值信息;所述视频文件通过单台拍摄设备拍摄得到;所述帧差值信息为所述视频文件在时间上的帧偏移,所述帧差值信息表征左右眼图像之间的差异;
帧差值信息提供单元,用于接收到第二客户端发送的获得视频文件的请求时,提供所述视频文件以及对应的帧差值信息,由所述客户端在播放所述视频文件时,生成第一图像以及第二图像,其中,将所述视频文件中包括的各帧图像确定为第一图像,并将每一帧第一图像的索引值偏移所述帧差值,作为对应的第二图像,并将所确定出的第一图像以及第二图像分别输出到展示窗口的第一区域以及第二区域中,以用于立体展示。
18.一种视频文件处理装置,其特征在于,应用于服务端,包括:
信息获得单元,用于接收通过单目拍摄设备拍摄的视频文件,并获得所述拍摄设备的拍摄参数信息;
视差估计单元,用于根据所述拍摄参数以及预置的观察者两眼之间的距离信息,进行视差估计;
帧差值估计单元,用于根据估计出的视差以及所述视频文件的帧率信息,进行第一图像与第二图像之间的帧差值估计;所述帧差值为所述视频文件在时间上的帧偏移,所述帧差值表征左右眼图像之间的差异;
对应关系保存单元,用于保存所述视频文件以及帧差值之间的对应关系,以用于提供给客户端,由所述客户端在播放所述视频文件时,生成第一图像以及第二图像,其中,将所述视频文件中包括的各帧图像确定为第一图像,并将每一帧第一图像的索引值偏移所述帧差值,作为对应的第二图像。
19.一种视频文件处理装置,其特征在于,应用于第一客户端,包括:
第一操作界面提供单元,用于提供第一操作界面,所述第一操作界面中包括用于提交视频文件的第一操作选项,以及用于提交拍摄参数信息和/或拍摄设备型号标识信息的第二操作选项;所述视频文件通过单台拍摄设备进行拍摄;
信息提交单元,用于将通过所述第一操作选项录入的视频文件以及通过所述第二操作选项录入的拍摄参数信息和/或拍摄设备型号标识信息,提交到服务端,由所述服务端根据拍摄参数信息、预置的观察者两眼之间的距离信息以及所述视频文件的帧率信息,进行第一图像与第二图像之间的帧差值估计,并保存所述视频文件以及帧差值之间的对应关系,以用于提供给客户端,由所述客户端在播放所述视频文件时,生成第一图像以及第二图像,其中,将所述视频文件中包括的各帧图像确定为第一图像,并将每一帧第一图像的索引值偏移所述帧差值,作为对应的第二图像;所述帧差值为所述视频文件在时间上的帧偏移,所述帧差值表征左右眼图像之间的差异。
20.一种视频文件处理装置,其特征在于,包括:
视频文件接收单元,用于接收通过单目拍摄设备拍摄的视频文件;
解码单元,用于对所述视频文件进行解码,获得在时间上具有先后顺序关系的多帧图像组成的图像序列,并确定各帧图像在所述序列中的索引值;
第二操作界面提供单元,用于提供第二操作界面,所述第二操作界面中包括图像展示窗口以及第三操作选项,所述图像展示窗口包括第一区域以及第二区域,所述第三操作选项用于调节第一图像与第二图像之间的帧差值;所述帧差值为所述视频文件在时间上的帧偏移,所述帧差值表征左右眼图像之间的差异;
图像确定单元,用于通过所述第三操作选项接收到当前设定的帧差值时,将所述视频文件中的各帧图像作为第一图像,并将每一帧第一图像的索引值偏移所述帧差值,作为对应的第二图像,以用于通过3D设备对所述第一图像以及第二图像进行观察的方式对3D立体效果进行判断。
21.一种电子设备,其特征在于,包括:
一个或多个处理器;以及
与所述一个或多个处理器关联的存储器,所述存储器用于存储程序指令,所述程序指令在被所述一个或多个处理器读取执行时,执行如下操作:
获得视频文件以及对应的帧差值信息;所述视频文件通过单台拍摄设备拍摄得到;所述帧差值信息为所述视频文件在时间上的帧偏移,所述帧差值信息表征左右眼图像之间的差异;
创建图像展示窗口,所述展示窗口中包括第一区域以及第二区域,其中,所述第一区域用于展示左图像,第二区域用于展示右图像;
确定第一图像以及第二图像,其中,将所述视频文件中包括的各帧图像确定为第一图像,并将每一帧第一图像的索引值偏移所述帧差值,作为对应的第二图像;
将所确定出的第一图像以及第二图像分别输出到第一区域以及第二区域中,以用于立体展示。
CN201710737851.8A 2017-08-24 2017-08-24 图像展示、视频文件处理方法及装置 Active CN109429055B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710737851.8A CN109429055B (zh) 2017-08-24 2017-08-24 图像展示、视频文件处理方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710737851.8A CN109429055B (zh) 2017-08-24 2017-08-24 图像展示、视频文件处理方法及装置

Publications (2)

Publication Number Publication Date
CN109429055A CN109429055A (zh) 2019-03-05
CN109429055B true CN109429055B (zh) 2021-02-23

Family

ID=65501346

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710737851.8A Active CN109429055B (zh) 2017-08-24 2017-08-24 图像展示、视频文件处理方法及装置

Country Status (1)

Country Link
CN (1) CN109429055B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112308767B (zh) * 2020-10-19 2023-11-24 武汉中科通达高新技术股份有限公司 一种数据展示方法、装置、存储介质以及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102547327A (zh) * 2010-10-07 2012-07-04 索尼公司 图像处理装置、图像处理方法以及程序
CN104012087A (zh) * 2011-12-28 2014-08-27 索尼公司 视差调整装置、图像处理装置和帧格式
CN106454318A (zh) * 2016-11-18 2017-02-22 成都微晶景泰科技有限公司 立体成像方法及立体成像装置
WO2017032749A1 (de) * 2015-08-24 2017-03-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. 3d-multiaperturabbildungsvorrichtung

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102547327A (zh) * 2010-10-07 2012-07-04 索尼公司 图像处理装置、图像处理方法以及程序
CN104012087A (zh) * 2011-12-28 2014-08-27 索尼公司 视差调整装置、图像处理装置和帧格式
WO2017032749A1 (de) * 2015-08-24 2017-03-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. 3d-multiaperturabbildungsvorrichtung
CN106454318A (zh) * 2016-11-18 2017-02-22 成都微晶景泰科技有限公司 立体成像方法及立体成像装置

Also Published As

Publication number Publication date
CN109429055A (zh) 2019-03-05

Similar Documents

Publication Publication Date Title
US10116922B2 (en) Method and system for automatic 3-D image creation
US20150358539A1 (en) Mobile Virtual Reality Camera, Method, And System
US8970704B2 (en) Network synchronized camera settings
US20150222815A1 (en) Aligning videos representing different viewpoints
CN112153400B (zh) 直播互动方法、装置、电子设备及存储介质
US9654762B2 (en) Apparatus and method for stereoscopic video with motion sensors
WO2015192547A1 (zh) 一种基于移动终端的三维照片拍摄方法及移动终端
US8675042B2 (en) Image processing apparatus, multi-eye digital camera, and program
CN106228530B (zh) 一种立体摄影方法、装置及立体摄影设备
CN104065951A (zh) 视频拍摄方法、视频播放方法及智能眼镜
US20150326847A1 (en) Method and system for capturing a 3d image using single camera
CN114442814B (zh) 一种云桌面的展示方法、装置、设备及存储介质
CN109218709B (zh) 全息内容的调整方法及装置和计算机可读存储介质
CN109429055B (zh) 图像展示、视频文件处理方法及装置
CN114007057A (zh) 终端、拍摄方法、拍摄装置及计算机可读存储介质
CN106954093A (zh) 全景视频处理方法、装置及系统
CN106713893B (zh) 手机3d立体拍照方法
WO2018094045A2 (en) Multi-camera scene representation including stereo video for vr display
US20150264336A1 (en) System And Method For Composite Three Dimensional Photography And Videography
CN112634339A (zh) 商品对象信息展示方法、装置及电子设备
NL2030325B1 (en) Scaling of three-dimensional content for an autostereoscopic display device
CN116170614A (zh) 一种直播方法、装置、电子设备及计算机可读存储介质
CN116264640A (zh) 自由视角视频的视角切换方法、装置及系统
CN114070995A (zh) 图像处理方法、图像处理装置以及移动终端
CN116260986A (zh) 自由视角视频的弹幕的显示方法、装置及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant