CN114742703A - 双目立体全景图像的生成方法、装置、设备和存储介质 - Google Patents
双目立体全景图像的生成方法、装置、设备和存储介质 Download PDFInfo
- Publication number
- CN114742703A CN114742703A CN202210242661.XA CN202210242661A CN114742703A CN 114742703 A CN114742703 A CN 114742703A CN 202210242661 A CN202210242661 A CN 202210242661A CN 114742703 A CN114742703 A CN 114742703A
- Authority
- CN
- China
- Prior art keywords
- coordinate
- image
- panoramic
- eye
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4038—Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Abstract
本申请涉及一种双目立体全景图像的生成方法、装置、设备和存储介质,方法包括:将全景图像输入预设的深度估计模型,获得全景图像对应的深度图像;然后,根据深度图像以及预设瞳距,将全景图像映射成左眼全景画面和右眼全景画面;根据左眼全景画面和右眼全景画面生成双目立体全景图像;其中,上述深度图像中包括全景图像中各个像素点对应的深度信息。采用上述方法可以将全景图像映射成双目立体全景图像,降低电子设备的成本。
Description
技术领域
本申请涉及图像处理技术领域,特别是涉及一种双目立体全景图像的生成方法、装置、设备和存储介质。
背景技术
随着虚拟现实(Virtual Reality,VR)等技术的发展,用户对图像的要求越来越高。在VR眼镜等电子设备中,可以向用户展示双目立体全景图像或者视频,在左右眼屏幕分别显示左右眼的图像,用户获取这种带有差异的信息后在脑海中产生立体感。
传统方法中,电子设备可以通过多个镜头同时拍摄同一物体,将多个镜头采集到的图像拼接成左眼全景画面和右眼全景画面,组合得到双目立体全景图像。但是,采用上述方法一般需要专业级多镜头的全景拍摄设备,操作复杂且成本昂贵。
目前普通非立体全景图像/视频的拍摄设备已经非常普遍,且操作简单成本低,亟需一种简单快速的方法,直接通过普通非立体全景图像/视频生成立体全景图像/视频。
发明内容
基于此,有必要针对上述技术问题,提供一种双目立体全景图像的生成方法、装置、设备和存储介质,可以直接通过普通非立体全景图像/视频生成双目立体全景图像/视频。
第一方面,提供一种双目立体全景图像的生成方法,上述方法包括:
将全景图像输入预设的深度估计模型,获得全景图像对应的深度图像,深度图像中包括全景图像中各个像素点对应的深度信息;
根据预设瞳距以及深度图像,将全景图像映射成左眼全景画面和右眼全景画面;
根据左眼全景画面和右眼全景画面,生成双目立体全景图像。
在其中一个实施例中,根据预设瞳距以及深度图像,将全景图像映射为左眼全景画面和右眼全景画面,包括:
根据预设瞳距以及深度图像,获得左眼映射关系和右眼映射关系;左眼映射关系包括全景图像中像素点的第一坐标与像素点在左眼全景画面中的第二坐标之间的对应关系;右眼映射关系包括第一坐标与像素点在右眼全景画面中的第三坐标之间的对应关系;
根据左眼映射关系和右眼映射关系,将全景图像分别映射投影,生成左眼全景画面和右眼全景画面。
在其中一个实施例中,根据预设瞳距以及深度图像,获得左眼映射关系和右眼映射关系,包括:
根据深度信息、预设瞳距以及第一坐标,获取第二坐标以及第三坐标;
将第一坐标与第二坐标之间的对应关系确定为左眼映射关系;以及,将第一坐标与第三坐标之间的对应关系确定为右眼映射关系。
在其中一个实施例中,根据深度信息、预设瞳距以及第一坐标,获取第二坐标,包括:
将第一坐标中的纬度坐标确定为第二坐标中的纬度坐标;
其中,φ为第一坐标中的经度坐标;θ为第一坐标中的纬度坐标,D(φ,θ)为深度图像中第一坐标对应的深度信息,Lφ(φ,θ)为第一坐标对应的第二坐标中的经度坐标,p为预设瞳距。
在其中一个实施例中,根据深度信息、预设瞳距以及第一坐标中的经度坐标,获取第三坐标,包括:
将第一坐标中的纬度坐标确定为第三坐标中的纬度坐标;
其中,φ为第一坐标中的经度坐标;θ为第一坐标中的纬度坐标,D(φ,θ)为深度图像中第一坐标对应的深度信息,Rφ(φ,θ)为第一坐标对应的第三坐标中的经度坐标,p为预设瞳距。
在其中一个实施例中,上述方法还包括:
获取训练样本;训练样本包括全景样本图像,以及全景样本图像对应的样本深度图像;
将全景样本图像作为初始深度估计模型的参考输入,将样本深度图像作为初始深度估计模型的参考输出,根据预设的损失函数对初始深度估计模型进行训练,获得深度估计模型。
第二方面,提供一种双目立体全景视频的生成方法,上述方法包括:
采用第一方面中所述的双目立体全景图像的生成方法,将全景视频中的各个全景图像分别映射成双目立体全景图像;
基于各双目立体全景图像,生成双目立体全景视频。
第三方面,提供一种双目立体全景图像的生成装置,上述装置包括:
获取模块,用于将全景图像输入预设的深度估计模型,获得全景图像对应的深度图像;深度图像中包括全景图像中各个像素点对应的深度信息;
映射模块,用于根据预设瞳距以及深度图像,将全景图像映射成左眼全景画面和右眼全景画面;
生成模块,用于根据左眼全景画面和右眼全景画面,生成双目立体全景图像。
第四方面,本申请还提供了一种计算机设备。计算机设备包括存储器和处理器,存储器存储有计算机程序,处理器执行计算机程序时实现以下步骤:
将全景图像输入预设的深度估计模型,获得全景图像对应的深度图像,深度图像中包括全景图像中各个像素点对应的深度信息;
根据预设瞳距以及深度图像,将全景图像映射成左眼全景画面和右眼全景画面;
根据左眼全景画面和右眼全景画面,生成双目立体全景图像。
第五方面,本申请还提供了一种计算机可读存储介质。计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
将全景图像输入预设的深度估计模型,获得全景图像对应的深度图像,深度图像中包括全景图像中各个像素点对应的深度信息;
根据预设瞳距以及深度图像,将全景图像映射成左眼全景画面和右眼全景画面;
根据左眼全景画面和右眼全景画面,生成双目立体全景图像。
第六方面,本申请还提供了一种计算机程序产品。计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现以下步骤:
将全景图像输入预设的深度估计模型,获得全景图像对应的深度图像,深度图像中包括全景图像中各个像素点对应的深度信息;
根据预设瞳距以及深度图像,将全景图像映射成左眼全景画面和右眼全景画面;
根据左眼全景画面和右眼全景画面,生成双目立体全景图像。
上述双目立体全景图像的生成方法、装置、设备和存储介质,电子设备将全景图像输入预设的深度估计模型,获得全景图像对应的深度图像;然后,根据深度图像以及预设瞳距,将全景图像映射成左眼全景画面和右眼全景画面;根据所述左眼全景画面和所述右眼全景画面生成双目立体全景图像;其中,上述深度图像中包括全景图像中各个像素点对应的深度信息。由于电子设备可以获取全景图像的深度图像,从而可以根据深度图像及预设瞳距将上述全景图像分别映射成左眼全景画面和右眼全景画面,获得双目立体全景图像,使得电子设备可以完成全景图像至双目立体全景图像之间的映射转换,而不需要通过专业的多镜头全景拍摄设备完成双目全景立体图像的采集,降低了电子设备的成本,且操作简单。
附图说明
图1为一个实施例中双目立体全景图像的生成方法的应用环境图;
图2为一个实施例中双目立体全景图像的生成方法的流程示意图;
图3为一个实施例中双目立体全景图像的生成方法的示意图;
图4为另一个实施例中双目立体全景图像的生成方法的流程示意图;
图5为另一个实施例中双目立体全景图像的生成方法的流程示意图;
图6为另一个实施例中双目立体全景图像的生成方法的流程示意图;
图7为一个实施例中双目立体全景图像的生成装置的结构框图;
图8为另一个实施例中双目立体全景图像的生成装置的结构框图;
图9为另一个实施例中双目立体全景图像的生成装置的结构框图;
图10为另一个实施例中双目立体全景图像的生成装置的结构框图;
图11为一个实施例中电子设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的双目立体全景图像的生成方法,可以应用于电子设备,电子设备可以对全景图像进行处理,获得全景图像对应的双目立体全景图像。上述电子设备可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备。上述电子设备还可以是相机、摄像机等影像设备;上述相机可以但不限于是普通相机、口袋相机、防抖相机、虚拟现实(Virtual Reality,简称VR)全景相机、运动相机以及消费级或专业级全景相机等。
在一个实施例中,如图1所示,提供了一种双目立体全景图像的生成方法,以该方法应用于电子设备为例进行说明,包括:
S101、将全景图像输入预设的深度估计模型,获得全景图像对应的深度图像;深度图像中包括全景图像中各个像素点对应的深度信息。
其中,上述全景图像可以是电子设备通过拍摄获取的,也可以是电子设备中存储的图像,在此不做限定。电子设备拍摄获取的全景图像,可以是电子设备通过全景相机拍摄的图像,也可以是电子设备拍摄的视频中的图像帧,在此不做限定。上述全景图像为电子设备中存储的图像时,可以以图片格式存储在电子设备中,也可以为存储的视频中的视频帧。例如,上述电子设备可以为VR眼镜,上述全景图像可以是输入至VR眼镜中待播放的全景图像。
上述电子设备的相机可以为双鱼眼全景相机,电子设备在拍摄全景图像时,任一个角度可以被双鱼眼全景相机中的其中一个镜头的视野覆盖。电子设备可以将不同镜头拍摄到的图像进行拼接,获得全景图像。
上述深度估计模型可以是神经网络模型,上述深度估计模型可以用于提取全景图像中各个像素点的深度信息,并根据每个像素点对应的深度信息生成该全景图像对应的深度图像。其中,上述深度信息是指拍摄全景图像时,图像中像素点所代表的物体与相机中心之间的距离。
电子设备可以将全景图像输入上述深度估计模型,也可以对全景图像进行预处理之后再输入至深度估计模型,在此不做限定。例如,电子设备对全景图像的预处理操作可以包括对全景图像进行下采样、改变全景图像的投影方式、改变全景图像的亮度或对比度,以及将全景图像转换成单通道灰度图等。上述深度估计模型可以输出全景图像对应的深度图像,上述深度图像的尺寸可以等于全景图像,也可以小于全景图像,在此不做限定。
上述深度图像与上述全景图像可以采用相同的全景投影方式,上述全景投影方式可以是球面投影,也可以是等距圆柱投影,在此不做限定。
S102、根据预设瞳距以及深度图像,将全景图像映射成左眼全景画面和右眼全景画面。
在获得深度图像的基础上,电子设备可以将全景图像映射成左眼全景画面和右眼全景画面,使得上述左眼全景画面和右眼全景画面产生的视差与上述深度图像对应。
当用户通过左眼观看左眼全景画面,同时通过右眼观看右眼全景画面时,同一个物体在左眼和右眼中出现位置差距,也就是视差。上述视差越大,用户可以感知到该物体的距离越近;上述视差越小,用户感知该物体距离越远。
电子设备将全景图像映射成对应的左眼全景画面和右眼全景画面之后,使得用户通过上述双目立体全景图像产生的视差而感知到的距离,与上述深度图像对应。例如,上述全景图像中包括物体A,通过深度估计模型获得的深度图像中该物体A对应的深度信息为H;电子设备基于上述深度图像,将全景图像映射成左眼全景画面和右眼全景画面之后,用户通过左眼全景画面和右眼全景画面可以感知到该物体A距离用户的距离,该距离与深度信息H对应。
具体地,电子设备可以采用全向立体(Omni-directional stereo,简称ODS)投影方法,将全景图像映射成左眼全景画面和右眼全景画面。
S103、根据左眼全景画面和右眼全景画面,生成双目立体全景图像。
电子设备在获得上述左眼全景画面和右眼全景画面的基础上,可以将上述左眼全景画面和右眼全景画面组成双目立体全景图像。
上述双目立体全景图像的生成方法,电子设备将全景图像输入预设的深度估计模型,获得全景图像对应的深度图像;然后,根据深度图像以及预设瞳距,将全景图像映射成左眼全景画面和右眼全景画面;根据所述左眼全景画面和所述右眼全景画面生成双目立体全景图像;其中,上述深度图像中包括全景图像中各个像素点对应的深度信息。由于电子设备可以获取全景图像的深度图像,从而可以根据深度图像及预设瞳距将上述全景图像分别映射成左眼全景画面和右眼全景画面,获得双目立体全景图像,使得电子设备可以完成全景图像至双目立体全景图像之间的映射转换,而不需要通过专业的多镜头全景拍摄设备完成双目全景立体图像的采集,降低了电子设备的成本,且操作简单。
图2为一个实施例中双目立体全景图像的生成方法的流程示意图。本实施例涉及电子设备将全景图像映射为左眼全景画面和右眼全景画面的一种方式,在上述实施例的基础上,如图2所示,上述S102包括:
S201、根据预设瞳距以及深度图像,获得左眼映射关系和右眼映射关系;左眼映射关系包括全景图像中像素点的第一坐标与像素点在左眼全景画面中的第二坐标之间的对应关系;右眼映射关系包括第一坐标与像素点在右眼全景画面中的第三坐标之间的对应关系。
其中,上述瞳距可以用于表征用户左眼瞳孔与右眼瞳孔之间的距离。在一种实现方式中,电子设备中可以存储一个瞳距的预设值,采用预设值对上述全景图像进行映射。
在另一种实现方式中,电子设备可以针对不同的用户采用不同的瞳距;电子设备中可以预设不同用户账号与瞳距的对应关系,上述对应关系中的瞳距可以是用户输入的,也可以是用户在多个预设值中选择的,还可以是电子设备基于用户图像提取获得的,对于上述瞳距的获取方式在此不做限定。例如,用户在使用电子设备时,可以通过电子设备或与电子设备连接的手机等终端进行图像采集,上述图像采集过程可以用户注册过程中,也可以登录过程中,在此不做限定。
在另一种实现方式中,不同类型的电子设备可以对应不同的瞳距。例如,上述电子设备可以是VR眼镜,也可以是智能头盔等,对于不同的电子设备可以采用不同的瞳距,以满足电子设备的双目立体全景图像的映射需求。
电子设备在获得瞳距以及深度图像的基础上,可以基于ODS映射方法获得该全景图像对应的左眼映射关系和右眼映射关系。
上述映射关系为坐标对应关系。对于全景图像中的像素点,可以分别被映射至左眼全景画面和右眼全景画面。上述像素点在全景图像中的坐标可以为第一坐标,在左眼全景画面中的坐标可以为第二坐标,在右眼全景画面中的坐标可以为第三坐标,如图3所示。上述左眼映射关系为全景图像中每个像素点的第一坐标与第二坐标的对应关系,上述右眼映射关系为全景图像中每个像素点的第一坐标与第三坐标之间的对应关系。
S202、根据左眼映射关系和右眼映射关系,将全景图像分别映射投影,生成左眼全景画面和右眼全景画面。
在获得上述左眼映射关系以及右眼映射关系之后,电子设备可以确定将全景图像中的像素点映射至哪一个位置,进而确定了各个像素点在左眼全景画面和右眼全景画面中的坐标。将上述各个第二坐标与对应的像素值对应之后,获得左眼全景画面。将上述各个第三坐标与对应的像素值对应之后,获得右眼全景画面。
上述双目立体全景图像的生成方法,电子设备电子设备通过瞳距和深度图像,获得左眼映射关系和右眼映射关系,可以准确地将全景图像映射成双目立体全景图像,使得双目立体全景图像可以呈现与该全景图像的深度信息对应的立体效果。
图4为一个实施例中双目立体全景图像的生成方法的流程示意图,本实施例涉及电子设备获得左眼映射关系和右眼映射关系一种方式,在上述实施例的基础上,如图4所示,上述S201包括:
S301、根据所述深度信息、所述预设瞳距以及所述第一坐标,获取所述第二坐标以及所述第三坐标。
上述第一坐标、第二坐标以及第三坐标可以是球面坐标,也可以是三维平面坐标,在此不做限定。电子设备可以根据预设公式进行坐标映射,计算各个第一坐标对应的第二坐标和第三坐标。
在一种实现方式中,上述全景图像和上述深度图像中的各个像素点可以采用球面坐标进行标识;也就是说,每个像素点的坐标可以由经度坐标和纬度坐标构成。
上述预设公式可以包括经度坐标计算公式和纬度坐标计算公式。其中,上述第二坐标以及第三坐标中的经度坐标可以与深度信息、预设瞳距以及第一坐标中的经度坐标有关。对于同一个第一坐标,其对应的第二坐标的经度坐标与第三坐标的经度坐标不同。上述第二坐标的经度坐标与第三坐标的经度坐标之间的差值可以由瞳距与该坐标对应的深度信息的比值获得。由于左眼全景画面和右眼全景画面产生的视差,用于产生距离信息的主要与经度坐标有关,因此,电子设备可以直接将第一坐标中的纬度坐标确定为第二坐标中的纬度坐标,以及第三坐标中的纬度坐标。
针对第二坐标,电子设备可以根据公式计算第二坐标中的经度坐标,并将第一坐标中的纬度坐标确定为第二坐标中的纬度坐标。其中,φ为第一坐标中的经度坐标;θ为第一坐标中的纬度坐标,D(φ,θ)为深度图像中第一坐标对应的深度信息,Lφ(φ,θ)为第一坐标对应的第二坐标中的经度坐标,p为所述预设瞳距。
第三坐标,电子设备可以根据公式计算第三坐标中的经度坐标,并将所述第一坐标中的纬度坐标确定为所述第二坐标中的纬度坐标。其中,φ为第一坐标中的经度坐标;θ为第一坐标中的纬度坐标,D(φ,θ)为深度图像中第一坐标对应的深度信息,Rφ(φ,θ)为第一坐标对应的第三坐标中的经度坐标,p为所述预设瞳距。
也就是说,上述预设公式中用于计算纬度坐标的公式可以为:
Rθ(φ,θ)=Lθ(φ,θ)=θ
其中,Lθ(φ,θ)为第一坐标对应的第二坐标中的经度坐标,Rθ(φ,θ)为第一坐标对应的第三坐标中的经度坐标。
S302、将第一坐标与第二坐标之间的对应关系确定为左眼映射关系;以及,将第一坐标与第三坐标之间的对应关系确定为右眼映射关系。
在获得第二坐标以及第三坐标的基础上,电子设备可以将每个像素点的第一坐标与第二坐标之间的对应关系确定为左眼映射关系,并且将第一坐标与第三坐标之间的对应关系确定为右眼映射关系。
上述双目立体全景图像的生成方法,电子设备采用球面坐标完成坐标映射,可以应用于任何投影方式的全景图像中,提高了全景图像至双目立体全景图像进行映射的适用性。
图5为一个实施例中双目立体全景图像的生成方法的流程示意图,本实施例涉及深度估计模型的一种实现方式,在上述实施例的基础上,如图5所示,上述方法还包括:
S401、获取训练样本;训练样本包括全景样本图像,以及全景样本图像对应的样本深度图像。
电子设备可以获取双目立体全景样本图像,然后对双目立体全景样本图像进行深度信息提取,获得双目立体全景样本图像对应的样本深度图像;进一步地,电子设备可以对上述双目立体全景样本图像进行单目化处理,获得双目立体全景样本图像对应的全景样本图像。上述全景样本图像及其对应的样本深度图像构成了训练样本。
在另一种实现方式中,可以采用双目立体全景相机和单目全景相机同时针对同一场景进行拍摄,分别获得双目立体全景样本图像和全景样本图像,然后根据双目立体全景样本图像生成样本深度图像后,获得上述训练样本。
S402、将全景样本图像作为初始深度估计模型的参考输入,将样本深度图像作为初始深度估计模型的参考输出,根据预设的损失函数对初始深度估计模型进行训练,获得深度估计模型。
在获取训练样本的基础上,电子设备可以将全景样本图像作为初始深度估计模型的参考输入,将样本深度图像作为初始深度估计模型的参考输出,根据预设的损失函数对初始深度估计模型进行训练,获得深度估计模型。
上述双目立体全景图像的生成方法,通过样本训练可以获得深度估计模型,从而可以根据深度估计模型获得全景图像的深度图像,为从全景图像向双目立体全景图像的映射提供了数据基础。
在一个实施例中,提供一种双目立体全景图像的生成方法,如图6所示,上述方法包括:
S501、将全景图像输入预设的深度估计模型,获得全景图像对应的深度图像;
S504、将像素点在单目全景画面中第一坐标中的纬度坐标确定为第二坐标中的纬度坐标,以及第三坐标中的纬度坐标;
S505、将第一坐标与第二坐标之间的对应关系确定为左眼映射关系;以及,将第一坐标与第三坐标之间的对应关系确定为右眼映射关系;
S506、根据左眼映射关系和右眼映射关系,将全景图像分别映射投影,生成左眼全景画面和右眼全景画面。
S507、根据左眼全景画面和右眼全景画面,生成双目立体全景图像。
上述双目立体全景图像的生成方法,其技术原理和实现效果可以参见上述各实施例,在此不做赘述。
应该理解的是,虽然如上所述的各实施例所涉及的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,如上所述的各实施例所涉及的流程图中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,提供一种双目立体全景视频的生成方法,电子设备可以采用上述双目立体全景图像的生成方法,将全景视频中的各个全景图像分别映射成双目立体全景图像;然后,基于各双目立体全景图像,生成双目立体全景视频。
上述双目立体全景视频的生成方法,其实现原理和技术效果参见上述双目立体全景图像的生成方法的实施例,在此不做赘述。
基于同样的发明构思,本申请实施例还提供了一种用于实现上述所涉及的双目立体全景图像的生成方法的双目立体全景图像的生成装置。该装置所提供的解决问题的实现方案与上述方法中所记载的实现方案相似,故下面所提供的一个或多个双目立体全景图像的生成装置实施例中的具体限定可以参见上文中对于双目立体全景图像的生成方法的限定,在此不再赘述。
在一个实施例中,如图7所示,提供了一种双目立体全景图像的生成装置,包括:
获取模块10,用于将全景图像输入预设的深度估计模型,获得全景图像对应的深度图像;深度图像中包括全景图像中各个像素点对应的深度信息;
映射模块20,用于根据预设瞳距以及深度图像,将全景图像映射成左眼全景画面和右眼全景画面;
生成模块30,用于根据左眼全景画面和右眼全景画面,生成双目立体全景图像。
在一个实施例中,在上述实施例的基础上,如图8所示,上述映射模块20包括:
获取单元201,用于根据预设瞳距以及深度图像,获得左眼映射关系和右眼映射关系;左眼映射关系包括全景图像中像素点的第一坐标与像素点在左眼全景画面中的第二坐标之间的对应关系;右眼映射关系包括第一坐标与像素点在右眼全景画面中的第三坐标之间的对应关系;
映射单元202,用于根据左眼映射关系和右眼映射关系,将全景图像分别映射投影,生成左眼全景画面和右眼全景画面。
在一个实施例中,在上述实施例的基础上,如图9所示,上述获取单元201包括:
获取子单元2011,用于根据深度信息、预设瞳距以及第一坐标,获取第二坐标以及第三坐标;
确定子单元2012,用于将第一坐标与第二坐标之间的对应关系确定为左眼映射关系;以及,将第一坐标与第三坐标之间的对应关系确定为右眼映射关系。
在一个实施例中,在上述实施例的基础上,上述获取子单元2011具体用于:根据公式计算第二坐标中的经度坐标;将第一坐标中的纬度坐标确定为第二坐标中的纬度坐标;其中,φ为第一坐标中的经度坐标;θ为第一坐标中的纬度坐标,D(φ,θ)为深度图像中第一坐标对应的深度信息,Lφ(φ,θ)为第一坐标对应的第二坐标中的经度坐标,p为预设瞳距。
在一个实施例中,在上述实施例的基础上,上述获取子单元2011具体用于:根据公式计算第三坐标中的经度坐标;将第一坐标中的纬度坐标确定为第三坐标中的纬度坐标;其中,φ为第一坐标中的经度坐标;θ为第一坐标中的纬度坐标,D(φ,θ)为深度图像中第一坐标对应的深度信息,Rφ(φ,θ)为第一坐标对应的第三坐标中的经度坐标,p为预设瞳距。
在一个实施例中,在上述实施例的基础上,如图10所示,上述装置还包括训练模块40,用于:获取训练样本;训练样本包括全景样本图像,以及全景样本图像对应的样本深度图像;将全景样本图像作为初始深度估计模型的参考输入,将样本深度图像作为初始深度估计模型的参考输出,根据预设的损失函数对初始深度估计模型进行训练,获得深度估计模型。
上述双目立体全景图像的生成装置,其技术原理和实现效果可以参见上述方法实施例,在此不做赘述。
上述双目立体全景图像的生成装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种电子设备,其内部结构图可以如图11所示。该电子设备包括通过系统总线连接的处理器、存储器、通信接口、显示屏和输入装置。其中,该电子设备的处理器用于提供计算和控制能力。该电子设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该电子设备的通信接口用于与外部的终端进行有线或无线方式的通信,无线方式可通过WIFI、移动蜂窝网络、NFC(近场通信)或其他技术实现。该计算机程序被处理器执行时以实现一种双目立体全景图像的生成方法。该电子设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该电子设备的输入装置可以是显示屏上覆盖的触摸层,也可以是电子设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图11中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种电子设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
将全景图像输入预设的深度估计模型,获得全景图像对应的深度图像,深度图像中包括全景图像中各个像素点对应的深度信息;
根据预设瞳距以及深度图像,将全景图像映射成左眼全景画面和右眼全景画面;
根据左眼全景画面和右眼全景画面,生成双目立体全景图像。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:根据预设瞳距以及深度图像,获得左眼映射关系和右眼映射关系;左眼映射关系包括全景图像中像素点的第一坐标与像素点在左眼全景画面中的第二坐标之间的对应关系;右眼映射关系包括第一坐标与像素点在右眼全景画面中的第三坐标之间的对应关系;根据左眼映射关系和右眼映射关系,将全景图像分别映射投影,生成左眼全景画面和右眼全景画面。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:根据深度信息、预设瞳距以及第一坐标,获取第二坐标以及第三坐标;将第一坐标与第二坐标之间的对应关系确定为左眼映射关系;以及,将第一坐标与第三坐标之间的对应关系确定为右眼映射关系。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:根据公式计算第二坐标中的经度坐标;将第一坐标中的纬度坐标确定为第二坐标中的纬度坐标;其中,φ为第一坐标中的经度坐标;θ为第一坐标中的纬度坐标,D(φ,θ)为深度图像中第一坐标对应的深度信息,Lφ(φ,θ)为第一坐标对应的第二坐标中的经度坐标,p为预设瞳距。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:根据公式计算第三坐标中的经度坐标;将第一坐标中的纬度坐标确定为第三坐标中的纬度坐标;其中,φ为第一坐标中的经度坐标;θ为第一坐标中的纬度坐标,D(φ,θ)为深度图像中第一坐标对应的深度信息,Rφ(φ,θ)为第一坐标对应的第三坐标中的经度坐标,p为预设瞳距。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:获取训练样本;训练样本包括全景样本图像,以及全景样本图像对应的样本深度图像;将全景样本图像作为初始深度估计模型的参考输入,将样本深度图像作为初始深度估计模型的参考输出,根据预设的损失函数对初始深度估计模型进行训练,获得深度估计模型。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:执行双目立体全景图像的生成方法的步骤,将全景视频中的各全景图像分别映射成双目立体全景图像;基于各双目立体全景图像,生成双目立体全景视频。
本实施例提供的电子设备,其实现原理和技术效果与上述方法实施例类似,在此不再赘述。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
将全景图像输入预设的深度估计模型,获得全景图像对应的深度图像,深度图像中包括全景图像中各个像素点对应的深度信息;
根据预设瞳距以及深度图像,将全景图像映射成左眼全景画面和右眼全景画面;
根据左眼全景画面和右眼全景画面,生成双目立体全景图像。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:根据预设瞳距以及深度图像,获得左眼映射关系和右眼映射关系;左眼映射关系包括全景图像中像素点的第一坐标与像素点在左眼全景画面中的第二坐标之间的对应关系;右眼映射关系包括第一坐标与像素点在右眼全景画面中的第三坐标之间的对应关系;根据左眼映射关系和右眼映射关系,将全景图像分别映射投影,生成左眼全景画面和右眼全景画面。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:根根据深度信息、预设瞳距以及第一坐标,获取第二坐标以及第三坐标;将第一坐标与第二坐标之间的对应关系确定为左眼映射关系;以及,将第一坐标与第三坐标之间的对应关系确定为右眼映射关系。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:根据公式计算第二坐标中的经度坐标;将第一坐标中的纬度坐标确定为第二坐标中的纬度坐标;其中,φ为第一坐标中的经度坐标;θ为第一坐标中的纬度坐标,D(φ,θ)为深度图像中第一坐标对应的深度信息,Lφ(φ,θ)为第一坐标对应的第二坐标中的经度坐标,p为预设瞳距。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:根据公式计算第三坐标中的经度坐标;将第一坐标中的纬度坐标确定为第三坐标中的纬度坐标;其中,φ为第一坐标中的经度坐标;θ为第一坐标中的纬度坐标,D(φ,θ)为深度图像中第一坐标对应的深度信息,Rφ(φ,θ)为第一坐标对应的第三坐标中的经度坐标,p为预设瞳距。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:获取训练样本;训练样本包括全景样本图像,以及全景样本图像对应的样本深度图像;将全景样本图像作为初始深度估计模型的参考输入,将样本深度图像作为初始深度估计模型的参考输出,根据预设的损失函数对初始深度估计模型进行训练,获得深度估计模型。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:执行双目立体全景图像的生成方法的步骤,将全景视频中的各全景图像分别映射成双目立体全景图像;基于各双目立体全景图像,生成双目立体全景视频。
本实施例提供的计算机可读存储介质,其实现原理和技术效果与上述方法实施例类似,在此不再赘述。
在一个实施例中,提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现以下步骤:
将全景图像输入预设的深度估计模型,获得全景图像对应的深度图像,深度图像中包括全景图像中各个像素点对应的深度信息;
根据预设瞳距以及深度图像,将全景图像映射成左眼全景画面和右眼全景画面;
根据左眼全景画面和右眼全景画面,生成双目立体全景图像。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:根据预设瞳距以及深度图像,获得左眼映射关系和右眼映射关系;左眼映射关系包括全景图像中像素点的第一坐标与像素点在左眼全景画面中的第二坐标之间的对应关系;右眼映射关系包括第一坐标与像素点在右眼全景画面中的第三坐标之间的对应关系;根据左眼映射关系和右眼映射关系,将全景图像分别映射投影,生成左眼全景画面和右眼全景画面。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:根根据深度信息、预设瞳距以及第一坐标,获取第二坐标以及第三坐标;将第一坐标与第二坐标之间的对应关系确定为左眼映射关系;以及,将第一坐标与第三坐标之间的对应关系确定为右眼映射关系。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:根据公式计算第二坐标中的经度坐标;将第一坐标中的纬度坐标确定为第二坐标中的纬度坐标;其中,φ为第一坐标中的经度坐标;θ为第一坐标中的纬度坐标,D(φ,θ)为深度图像中第一坐标对应的深度信息,Lφ(φ,θ)为第一坐标对应的第二坐标中的经度坐标,p为预设瞳距。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:根据公式计算第三坐标中的经度坐标;将第一坐标中的纬度坐标确定为第三坐标中的纬度坐标;其中,φ为第一坐标中的经度坐标;θ为第一坐标中的纬度坐标,D(φ,θ)为深度图像中第一坐标对应的深度信息,Rφ(φ,θ)为第一坐标对应的第三坐标中的经度坐标,p为预设瞳距。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:获取训练样本;训练样本包括全景样本图像,以及全景样本图像对应的样本深度图像;将全景样本图像作为初始深度估计模型的参考输入,将样本深度图像作为初始深度估计模型的参考输出,根据预设的损失函数对初始深度估计模型进行训练,获得深度估计模型。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:执行双目立体全景图像的生成方法的步骤,将全景视频中的各全景图像分别映射成双目立体全景图像;基于各双目立体全景图像,生成双目立体全景视频。
本实施例提供的计算机程序产品,其实现原理和技术效果与上述方法实施例类似,在此不再赘述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-OnlyMemory,ROM)、磁带、软盘、闪存、光存储器、高密度嵌入式非易失性存储器、阻变存储器(ReRAM)、磁变存储器(Magnetoresistive Random Access Memory,MRAM)、铁电存储器(Ferroelectric Random Access Memory,FRAM)、相变存储器(Phase Change Memory,PCM)、石墨烯存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器等。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic RandomAccess Memory,DRAM)等。本申请所提供的各实施例中所涉及的数据库可包括关系型数据库和非关系型数据库中至少一种。非关系型数据库可包括基于区块链的分布式数据库等,不限于此。本申请所提供的各实施例中所涉及的处理器可为通用处理器、中央处理器、图形处理器、数字信号处理器、可编程逻辑器、基于量子计算的数据处理逻辑器等,不限于此。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请的保护范围应以所附权利要求为准。
Claims (11)
1.一种双目立体全景图像的生成方法,其特征在于,所述方法包括:
将全景图像输入预设的深度估计模型,获得所述全景图像对应的深度图像,所述深度图像中包括所述全景图像中各个像素点对应的深度信息;
根据预设瞳距以及所述深度图像,将所述全景图像映射成左眼全景画面和右眼全景画面;
根据所述左眼全景画面和所述右眼全景画面,生成双目立体全景图像。
2.根据权利要求1所述的方法,其特征在于,所述根据预设瞳距以及所述深度图像,将所述全景图像映射为左眼全景画面和右眼全景画面,包括:
根据预设瞳距以及所述深度图像,获得左眼映射关系和右眼映射关系;所述左眼映射关系包括所述全景图像中像素点的第一坐标与所述像素点在所述左眼全景画面中的第二坐标之间的对应关系;所述右眼映射关系包括所述第一坐标与所述像素点在所述右眼全景画面中的第三坐标之间的对应关系;
根据所述左眼映射关系和所述右眼映射关系,将所述全景图像分别映射投影,生成所述左眼全景画面和所述右眼全景画面。
3.根据权利要求2所述的方法,其特征在于,所述根据预设瞳距以及所述深度图像,获得左眼映射关系和右眼映射关系,包括:
根据所述深度信息、所述预设瞳距以及所述第一坐标,获取所述第二坐标以及所述第三坐标;
将所述第一坐标与所述第二坐标之间的对应关系确定为所述左眼映射关系;以及,将所述第一坐标与所述第三坐标之间的对应关系确定为所述右眼映射关系。
6.根据权利要求1-5任一项所述的方法,其特征在于,所述方法还包括:
获取训练样本;所述训练样本包括全景样本图像,以及所述全景样本图像对应的样本深度图像;
将所述全景样本图像作为初始深度估计模型的参考输入,将所述样本深度图像作为所述初始深度估计模型的参考输出,根据预设的损失函数对所述初始深度估计模型进行训练,获得所述深度估计模型。
7.一种双目立体全景视频的生成方法,其特征在于,所述方法包括:
采用权利要求1-6任一项所述的双目立体全景图像的生成方法,将全景视频中的各全景图像分别映射成双目立体全景图像;
基于各所述双目立体全景图像,生成双目立体全景视频。
8.一种双目立体全景图像的生成装置,其特征在于,所述装置包括:
获取模块,用于将全景图像输入预设的深度估计模型,获得所述全景图像对应的深度图像;所述深度图像中包括所述全景图像中各个像素点对应的深度信息;
映射模块,用于根据预设瞳距以及所述深度图像,将所述全景图像映射成左眼全景画面和右眼全景画面;
生成模块,用于根据所述左眼全景画面和所述右眼全景画面,生成双目立体全景图像。
9.一种电子设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至6中任一项所述的方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至6中任一项所述的方法的步骤。
11.一种计算机程序产品,包括计算机程序,其特征在于,该计算机程序被处理器执行时实现权利要求1至6中任一项所述的方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210242661.XA CN114742703A (zh) | 2022-03-11 | 2022-03-11 | 双目立体全景图像的生成方法、装置、设备和存储介质 |
PCT/CN2023/079064 WO2023169283A1 (zh) | 2022-03-11 | 2023-03-01 | 双目立体全景图像的生成方法、装置、设备、存储介质和产品 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210242661.XA CN114742703A (zh) | 2022-03-11 | 2022-03-11 | 双目立体全景图像的生成方法、装置、设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114742703A true CN114742703A (zh) | 2022-07-12 |
Family
ID=82275095
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210242661.XA Pending CN114742703A (zh) | 2022-03-11 | 2022-03-11 | 双目立体全景图像的生成方法、装置、设备和存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN114742703A (zh) |
WO (1) | WO2023169283A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023169283A1 (zh) * | 2022-03-11 | 2023-09-14 | 影石创新科技股份有限公司 | 双目立体全景图像的生成方法、装置、设备、存储介质和产品 |
CN117201705A (zh) * | 2023-11-07 | 2023-12-08 | 天津云圣智能科技有限责任公司 | 一种全景图像的获取方法、装置、电子设备及存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4772952B2 (ja) * | 2000-08-28 | 2011-09-14 | 株式会社バンダイナムコゲームス | 立体視画像生成装置及び情報記憶媒体 |
CN107666606B (zh) * | 2016-07-29 | 2019-07-12 | 东南大学 | 双目全景图像获取方法及装置 |
CN111105347B (zh) * | 2019-11-19 | 2020-11-13 | 贝壳找房(北京)科技有限公司 | 一种生成带深度信息的全景图的方法、装置及存储介质 |
CN111429501A (zh) * | 2020-03-25 | 2020-07-17 | 贝壳技术有限公司 | 深度图预测模型生成方法和装置、深度图预测方法和装置 |
CN114742703A (zh) * | 2022-03-11 | 2022-07-12 | 影石创新科技股份有限公司 | 双目立体全景图像的生成方法、装置、设备和存储介质 |
-
2022
- 2022-03-11 CN CN202210242661.XA patent/CN114742703A/zh active Pending
-
2023
- 2023-03-01 WO PCT/CN2023/079064 patent/WO2023169283A1/zh unknown
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023169283A1 (zh) * | 2022-03-11 | 2023-09-14 | 影石创新科技股份有限公司 | 双目立体全景图像的生成方法、装置、设备、存储介质和产品 |
CN117201705A (zh) * | 2023-11-07 | 2023-12-08 | 天津云圣智能科技有限责任公司 | 一种全景图像的获取方法、装置、电子设备及存储介质 |
CN117201705B (zh) * | 2023-11-07 | 2024-02-02 | 天津云圣智能科技有限责任公司 | 一种全景图像的获取方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2023169283A1 (zh) | 2023-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2017113681A1 (zh) | 一种基于虚拟现实技术的视频图像处理方法及装置 | |
WO2023169283A1 (zh) | 双目立体全景图像的生成方法、装置、设备、存储介质和产品 | |
US9046996B2 (en) | Techniques for navigation among multiple images | |
CN112927362A (zh) | 地图重建方法及装置、计算机可读介质和电子设备 | |
CN109495733B (zh) | 三维影像重建方法、装置及其非暂态电脑可读取储存媒体 | |
CN109754464B (zh) | 用于生成信息的方法和装置 | |
WO2022126921A1 (zh) | 全景图片的检测方法、装置、终端及存储介质 | |
CN112017242B (zh) | 显示方法及装置、设备、存储介质 | |
CN109816791B (zh) | 用于生成信息的方法和装置 | |
CN113592990A (zh) | 针对二维图像的三维效果生成方法、装置、设备及介质 | |
CN113379624A (zh) | 图像生成方法、图像生成模型的训练方法、装置及设备 | |
KR102534449B1 (ko) | 이미지 처리 방법, 장치, 전자 장치 및 컴퓨터 판독 가능 저장 매체 | |
US20240137481A1 (en) | Method And Apparatus For Generating Stereoscopic Display Contents | |
CN115457200B (zh) | 2.5维图像自动真立体显示方法、装置、设备及存储介质 | |
WO2018000610A1 (zh) | 一种基于图像类型判断的自动播放方法和电子设备 | |
CN104270627A (zh) | 一种信息处理方法及第一电子设备 | |
CN115514895B (zh) | 图像防抖方法、装置、电子设备和计算机可读存储介质 | |
WO2024093763A1 (zh) | 全景图像处理方法、装置、计算机设备、介质和程序产品 | |
CN114302054B (zh) | 一种ar设备的拍照方法及其ar设备 | |
RU2802724C1 (ru) | Способ и устройство обработки изображений, электронное устройство и машиночитаемый носитель информации | |
CN116681818B (zh) | 新视角重建方法、新视角重建网络的训练方法及装置 | |
CN115375743A (zh) | 深度估计方法、装置、电子设备和计算机可读存储介质 | |
JP2024062935A (ja) | 立体視表示コンテンツを生成する方法および装置 | |
CN117934769A (zh) | 图像显示方法、装置、电子设备和存储介质 | |
CN116912533A (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |