CN115482323A - 一种基于神经辐射场的立体视频视差控制与编辑方法 - Google Patents
一种基于神经辐射场的立体视频视差控制与编辑方法 Download PDFInfo
- Publication number
- CN115482323A CN115482323A CN202210953904.0A CN202210953904A CN115482323A CN 115482323 A CN115482323 A CN 115482323A CN 202210953904 A CN202210953904 A CN 202210953904A CN 115482323 A CN115482323 A CN 115482323A
- Authority
- CN
- China
- Prior art keywords
- parallax
- radiation field
- depth
- scene
- editing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/06—Ray-tracing
Abstract
本发明涉及一种基于神经辐射场的立体视频视差控制与编辑方法。首先,引入具有时域双向流的神经辐射场,生成新视角的动态视频场。其次,能够根据观看条件与视频场景特性,自适应精准计算理想视差,生成立体效果显著且视觉舒适的立体视频。最后,在基于神经辐射场的立体渲染过程中实现了对单个对象视差的重编辑。与现有技术对比,在图像重建质量指标上该方法获得了综合性能最高。同时,该框架获得了较低的视疲劳指数,和包含有正负两种视差的立体感。实验采集了10位非专业观众和10位专业影视工作者对该方法的结果的反馈,分别从立体感、舒适度和局部视差编辑效果三个角度,证明了我们的框架在3D电影制作中优化视觉体验和艺术性表达的价值。
Description
技术领域
本发明涉及立体视频转制领域,特别涉及一种基于神经辐射场的立体视频视差控制与编辑方法。
背景技术
3D立体显示技术发展至今已经有非常长的时间,随着立体显示设备的普及和发展,立体内容的需求不断攀升,而立体转制是3D内容生成的重要手段之一。
现有的立体转制方法可以分为手动转制、传统转制和基于学习的转制三种。其中,手动转制的可操控性最强,但该流程需要的耗费大量时间与人力,同时对操作的艺术家有一定经验要求。传统立体转制需要从图像线索中提取深度,或人为绘制深度图,存在深度图估计不准确的问题。基于深度学习的方法是目前的研究热点,具体可分为双阶段法与单阶段法。双阶段法需要单目深度估计与缺失像素补绘两个阶段,训练步骤繁琐,且转制依赖于从单目视频中估计的深度图,难以实现精准的视差控制;而图像补绘阶段还不能很好地利用3D信息,使其合成纹理不能够符合真实物理规律,在构建立体效果时,会因为左右视图存在差异而产生3D眩晕等视疲劳现象。单阶段自动立体转制是立体转制最理想的解决方案,但其过程中的可操控性不足,且获取大量3D影片数据的难度较大,限制了该研究的进一步发展。
视差控制存在以下三个挑战,一是视差计算不精确,为了能够控制视差匹配不同的显示器尺寸与观看距离,以应对3D显示设备多样性,视差自适应控制问题迫切需要解决,这需要立体转制流程具备较强的视差精准控制能力。二是视疲劳现象,转制电影在舒适度方面常为人所诟病,为了减少视觉疲劳,需要在视差控制中添加舒适区范围约束。三是局部视差编辑,为了迎合艺术效果,转制方法应能够具备局部视差编辑的能力,例如显著对象带来的强烈立体冲击感,生成效果上舒适而非物理上正确的立体视频。直接对深度图处理来实现深度控制的方法,通常会产生对象形变和孔洞的现象,一类方法在扭曲过程中通过添加多种约束保持所选对象结构,但该类方法依赖于深度图。
发明内容
本发明针对以上问题,提出了一种基于神经辐射场的立体视频视差控制与编辑方法,充分利用了神经辐射场的属性可编辑特性,实现了视差可精准控制的高质量视角合成;同时该方法能够根据观看条件和场景属性,自适应地生成具有高视觉舒适度的立体视频;最后,该方法还实现了局部视差的重新编辑,能够获得更优的局部视差艺术效果。
该方法将输入视频视为左视图,首先利用输入视频的连续多帧视图构建动态神经辐射场,同时根据观看条件计算自适应视差,从而控制神经辐射场中虚拟相机渲染指定新视角,经过体积渲染得到右视图渲染结果。为了能够适应视频视差编辑的需求,该方法采用分层立体渲染的方式,实现了神经辐射场中指定对象的分离,进而实现了对视频局部对象的视差控制。
为达到上述目的,本发明采用如下技术方案:
一种基于神经辐射场的立体视频视差控制与编辑方法,操作步骤如下:
步骤1:利用输入视图的序列帧,构建4D时空动态神经辐射场,对场景中的静动态对象分别处理后合成;
步骤2:在步骤1构建的4D神经辐射场中,自适应精准控制视差,通过立体渲染生成新视图;
步骤3:在步骤1构建的4D神经辐射场中,分离局部对象并修改该对象视差,经过立体渲染后实现局部视差编辑后的新视图。
进一步地,所述步骤1的具体操作步骤如下:
1-1:对于视频中每一帧图像将屏蔽运动区域的静态部分的3D位置坐标与观察方向作为输入,经过两个级联的多层感知机MLP预测,得到一个在三维空间中颜色与密度均连续的场态作为该场景的隐式表达;对连续场态分为等距的多个层取值,在给定的相机模型下计算来自每个像素位置的模拟光线,并在该场态模拟光线跟踪,与分层辐射场的交点经过数值积分方式得到渲染图中的像素颜色值与累积透明度,从而得到当前帧k的重建颜色值,渲染得到该视点下的新颖视图;
1-2:在对静态场景训练时通过最小化当前帧每个像素的重建颜色值与真实值之间的差异不断优化结果,得到MLP的最终权重;
1-3:在表达动态场景时,采用了双向场景流计算每个像素位置在当前时刻的前后时刻的偏移量,用于表示时域上场景的扭曲程度,从而利用包含当前帧及其前后时刻图像在内的3个视角共同训练模型;同时还利用模型预测当前时刻的混合权重,用于表示动静态场景在某一像素位置的组合权重分配。
进一步地,所述步骤2的具体操作步骤如下:
2-1:首先基于视觉显著性确定需要调整视差的对象,并为其添加蒙版;
2-2:继而在神经辐射场中指定深度间距进行分层渲染,并在计算累积颜色与透明度的同时对深度值逐层积分,当显著蒙版内深度不断累加趋于稳定时,则认为该渲染层所在深度为最佳零视差平面所在深度;
2-3:得到零视差平面的深度值后,基于离轴平行式模型能够进一步确定光轴平移程度和相机基线a的关系函数;
2-4:基于Shibata舒适区理论,根据当前视距、瞳距与屏幕分辨率等观看条件,通过控制正负视差最大值在合理范围,进一步确定具体相机基线与镜头平移量,实现自适应的视差控制模型。
进一步地,所述步骤3的具体操作步骤如下:
3-1:对场景内容进行分析,根据观看者的视觉注意点为局部对象添加蒙版,根据该蒙版确定了目标在图像中的2D边界盒;
3-2:在分层神经辐射场中对深度值累计积分,当蒙版区域内深度值开始累积时与区域稳定并达到阈值时,认为该层所在深度为局部编辑对象的3D包围盒的近远深度,由此确定目标对象的3D包围盒,实现神经辐射场中的局部对象提取;
3-3:在体积渲染阶段,对全场景进行光线追踪时,对包围盒内部光线沿着水平方向扭曲,从而实现对局部对象与剔除局部对象的背景分别进行视差控制,局部对象水平视差放大或缩小的效果,从而强化场景中显著对象的立体感。
本发明与现有技术相比较,具有如下显著的特点与优势:
1、本发明提出了一种新颖的自动立体转制方法,首次将神经辐射场技术用于完整的立体转制,能够生成具有可操控性的高质量立体视频;
2、本发明提出了一种自适应视差控制的方法,能够根据观看条件和场景属性精准控制视频中视差的大小与正负视差的比例,生成具有高视觉舒适度的立体视频;
3、本发明提出了一种基于神经辐射场的局部视差编辑的方法,能够在神经辐射场中对局部目标进行分离,并在立体渲染中实现了局部视差放大或缩小的艺术效果。
附图说明
图1为本发明的整体框架流程图。
图2为4D时空动态神经辐射场网络架构。
图3为离轴平行式模型视差控制方法示意图。
图4为局部视差编辑流程图。
图5为本发明与先进的3种立体转制方法及一种真实值的转制效果对比。
图6为不同零视差平面深度值下的角度视差图。
图7为多个场景在不同零视差平面模型下的视疲劳指标。
图8为不同观看条件下自适应最优视差的红青立体效果图。
图9为局部视差编辑前后的效果图。
具体实施方式
下面结合附图,对本发明的具体实施例做进一步的说明。
如图1所示,一种基于神经辐射场的立体视频视差控制与编辑方法,操作步骤如下:
步骤1:利用输入视图的序列帧,构建4D时空动态神经辐射场,对场景中的静动态对象分别处理后合成,如图2所示;
1-1:对于视频中每一帧图像将屏蔽运动区域的静态部分的3D位置坐标γ(x,y,z)与观察方向υ(φ,θ)作为输入,经过两个级联的多层感知机(MLP)预测,得到一个在三维空间中颜色与密度均连续的场态作为该场景的隐式表达。进而对连续场态分为等距的M层取值,在给定的相机模型下计算来自每个像素位置(i,j)的模拟光线,并在该场态模拟光线跟踪,与分层辐射场的交点经过数值积分方式得到渲染图中的像素颜色值与累积透明度Tp,从而得到当前帧k的重建颜色值渲染得到该视点下的新颖视图;
其中,表示由一组参数Θ定义的静态多层感知机;γ表示3D位置坐标;v表示观察方向;c表示RGB颜色值;σ表示体积密度;对于视频中的每一帧图像k∈(0,...,N-1),表示重构的RGBA颜色,δp表示相邻样本之间的距离;
1-2:在对静态场景训练时通过最小化当前帧每个像素的重建颜色值与真实值之间的差异不断优化结果,得到MLP的最终权重;
1-3:在表达动态场景时,采用了双向场景流计算每个像素位置在当前时刻的前后时刻的偏移量,用于表示时域上场景的扭曲程度,从而利用包含当前帧及其前后时刻图像在内的3个视角共同训练模型。同时还模型预测当前时刻的混合权重,用于表示动静态场景在某一像素位置的组合权重分配。
步骤2:在步骤1构建的4D神经辐射场中,自适应精准控制视差,通过立体渲染生成新视图,如图3所示;
2-1:基于视觉显著性的最佳零视差平面计算:本发明中定义了最佳零视差平面深度为前后景深度的交界值,因为该深度能够区分前后景,从而使前景产生具有出屏感的负视差效果,背景产生具有延伸感的正视差效果。首先基于视觉显著性确定需要调整视差的对象,并为其添加蒙版。
2-2:继而在神经辐射场中指定深度间距进行分层渲染,并在计算累积颜色与透明度的同时对深度值逐层积分。当显著蒙版内深度不断累加趋于稳定时,则认为该渲染层所在深度为最佳零视差平面所在深度.
2-3:得到零视差平面的深度值后,能够进一步确定光轴平移程度Δl和相机基线a的关系函数如(3)所示。基于离轴平行式模型,根据得到的零视差平面,能够获得相机基线a与镜头平移量Δl的关系表达,其中Z为图3所示的场景最大深度,Zzero为零视差平面深度;
(Z-Zzero)a-2ZzeroΔl=0 (3)
2-4:基于如(4)所示的Shibata舒适区理论,根据当前视距、瞳距与屏幕分辨率等观看条件,通过控制正负视差最大值在合理范围,进一步确定具体相机基线a与镜头平移量Δl如(5)所示,实现自适应的视差控制模型,其中Znear为图3所示的场景最小深度。该步骤能够在获得最佳立体感的同时,具备更高的视觉舒适度;
其中,dnear表示舒适区近平面深度;dfar表示舒适区远平面深度;di表示眼睛到屏幕的距离;e表示瞳孔间距;Shibata舒适区理论用函数定义了观看距离与汇聚距离之间的关系,并通过大量实验得到了舒适区远近边界的估计值,用参数Tnear,mnear,Tfar,mfar表示;M近似表示显像时像素的等比缩放;
步骤3:在步骤1构建的4D神经辐射场中,分离局部对象并修改该对象视差,经过立体渲染后实现局部视差编辑后的新视图,如图4所示。
3-1:对场景内容进行分析,根据观看者的视觉注意点为局部对象添加蒙版,根据该蒙版确定了目标在图像中的2D边界盒;
3-2:在分层神经辐射场中对深度值累计积分,当蒙版区域内深度值开始累积时与区域稳定并达到阈值时,认为该层所在深度为局部编辑对象的3D包围盒的近远深度,由此可以确定目标对象的3D包围盒,实现神经辐射场中的局部对象提取;
3-3:在体积渲染阶段,对全场景进行光线追踪时,对包围盒内部光线沿着水平方向扭曲,从而实现对局部对象与剔除局部对象的背景分别进行视差控制,局部对象水平视差放大或缩小的效果,从而强化场景中显著对象的立体感。
从网络上下获取了10段立体视频,包括左右格式的3D电影,或者由专业剪辑师手动转制的左右格式3D视频,从每个电影或视频中选取2~3s的视频片段,将其左视角视频作为立体转制的对象场景,通过算法生成其右视角视频,最终效果可以通过HTC vive在VR环境下观看,或处理成红青立体效果演示。实施例中设定了观看条件为23英寸的LED桌面显示器作为显示,并设置视距为1m。附图中展示的该发明生成的红绿立体图均以此观看条件为前提。实施例中预先使用了COLMAP预测相机姿态,并使用Python编程语言Pytorch1.6.0和CUDA10.0测试代码。所有实验均在配备Inter(R)Xeon(R)E5-2620 CPU、2.10GHz处理器、64GB RAM和Nvidia Titan Xp GPU的机器上完成。以下从自适应视差控制与局部视差编辑两个方面,对本发明的优选实施例进行详细的说明。
实施例1
基于神经辐射场的自适应视差控制方法,具体包含以下操作步骤:
步骤一:输入解帧的2D视频到如图2所示的神经辐射场网络结构,利用具有时间相关性的动态神经辐射场对输入视频进行场景的隐式表达;
步骤二:添加瞳距、视距的约束条件,在隐式场态中构建虚拟相机模型,根据视差舒适区与立体感的约束,实现自适应视差的计算和控制;
步骤三:经过立体渲染合成得到高质量新颖视图,输出左右格式3D序列帧,或红青格式3D序列帧,以便于在VR眼镜或红绿眼镜下观看。
结合附图,对实施例1的结果进行进一步分析:
1、图5展示了该发明相比于现有先进方法生成结果在图像质量的细节上的进步。先前的方法在出现了一些显著问题,例如像素的抖动和扭曲、仅利用了前景像素补绘后景孔洞而导致的模糊与伪影、孔洞区域的颜色值预测错误等。相比之下,本发明利用了NeRF强大的深度还原能力,同时能够充分利用连续帧信息,更准确地还原被遮挡区域场景。在这几种对比方法中,生成的结果更接近真实值。
2、图6、图7展示了该发明的自适应视差在视觉舒适度上的优势。图6是由视差图恢复成的角度视差图,其中Z0为该发明中自适应计算零视差平面深度的角度视差图。该方法将显著图体现的图像视觉注意力区域作为权值,用角度视差值来计算视疲劳指标,并将结果展示在图7中,可以看出利用我们的方法得到的零视差平面构建的视差控制模型,相较于邻近深度的零视差平面的视疲劳指标更低,印证了该方法能够获得较优的视觉舒适度。
3、图8展示了4个电影片段在不同瞳距与视距下自适应生成的视差不同的红青立体图。实际的视差值随着瞳距Dp与视距Dv的增大而增大,表现了观看距离与瞳距对视差结果的影响作用。同时ABC点表现出不同的视差类型(正视差、零视差和负视差),也证明了我们的流程能够很好地利用零视差平面分割出前景与背景,并同时体现出视觉舒适的正负视差。
实施例2
基于神经辐射场的局部视差重编辑方法,是对实施例1中的补充操作,其中具体包含以下操作步骤:
步骤一、二:同实施例1;
步骤三:利用显著区域分析算法得到图像的视觉注意力区域作为蒙版,根据该蒙版确定了目标在图像中的2D边界盒;该发明在分层神经辐射场中对深度值累计积分,进一步确定该显著对象的3D包围盒,从而实现神经辐射场中的局部对象提取;
步骤四:追加输入局部视差偏移量,在立体渲染阶段,算法在对隐式场态模拟光线跟踪的过程中,对3D包围盒内部光线沿着水平方向扭曲一个偏移值,从而实现局部对象水平视差放大或缩小的效果。利用扭曲后的光线追踪路径进行立体渲染,输出左右格式3D序列帧,或红青格式3D序列帧,以便于在VR眼镜或红绿眼镜下观看。
结合附图,对实施例2的结果进行进一步分析:
图9展示了该电影片段按照艺术家的指导对显着区域进行视差放大前后的效果。相比于在后期制作的软件中进行,该发明节省了大量人工抠图分层的成本。而且通过深度得到的前景具有比较高的质量,也能为于后期制作人员的ROTO操作提供判断依据和辅助作用。
上述实施例基于神经辐射场的立体视频视差控制与编辑方法。首先,引入具有时域双向流的神经辐射场,生成新视角的动态视频场。其次,能够根据观看条件与视频场景特性,自适应精准计算理想视差,生成立体效果显著且视觉舒适的立体视频。最后,在基于神经辐射场的立体渲染过程中实现了对单个对象视差的重编辑。与现有技术对比,在图像重建质量指标上该方法获得了综合性能最高。同时,该框架获得了较低的视疲劳指数,和包含有正负两种视差的立体感。上述实施例实验采集了10位非专业观众和10位专业影视工作者对该方法的结果的反馈,分别从立体感、舒适度和局部视差编辑效果三个角度,证明了我们的框架在3D电影制作中优化视觉体验和艺术性表达的价值。
上面对本发明实施例结合附图进行了说明,但本发明不限于上述实施例,还可以根据本发明的发明创造的目的做出多种变化,凡依据本发明技术方案的精神实质和原理下做的改变、修饰、替代、组合或简化,均应为等效的置换方式,只要符合本发明的发明目的,只要不背离本发明的技术原理和发明构思,都属于本发明的保护范围。
Claims (4)
1.一种基于神经辐射场的立体视频视差控制与编辑方法,其特征在于,操作步骤如下:
步骤1:利用输入视图的序列帧,构建4D时空动态神经辐射场,对场景中的静动态对象分别处理后合成;
步骤2:在步骤1构建的4D神经辐射场中,自适应精准控制视差,通过立体渲染生成新视图;
步骤3:在步骤1构建的4D神经辐射场中,分离局部对象并修改该对象视差,经过立体渲染后实现局部视差编辑后的新视图。
2.根据权利要求1所述的基于神经辐射场的立体视频视差控制与编辑方法,其特征在于,所述步骤1的具体操作步骤如下:
1-1:对于视频中每一帧图像将屏蔽运动区域的静态部分的3D位置坐标与观察方向作为输入,经过两个级联的多层感知机MLP预测,得到一个在三维空间中颜色与密度均连续的场态作为该场景的隐式表达;对连续场态分为等距的多个层取值,在给定的相机模型下计算来自每个像素位置的模拟光线,并在该场态模拟光线跟踪,与分层辐射场的交点经过数值积分方式得到渲染图中的像素颜色值与累积透明度,从而得到当前帧k的重建颜色值,渲染得到该视点下的新颖视图;
1-2:在对静态场景训练时通过最小化当前帧每个像素的重建颜色值与真实值之间的差异不断优化结果,得到MLP的最终权重;
1-3:在表达动态场景时,采用了双向场景流计算每个像素位置在当前时刻的前后时刻的偏移量,用于表示时域上场景的扭曲程度,从而利用包含当前帧及其前后时刻图像在内的3个视角共同训练模型;同时还利用模型预测当前时刻的混合权重,用于表示动静态场景在某一像素位置的组合权重分配。
3.根据权利要求1所述的基于神经辐射场的立体视频视差控制与编辑方法,其特征在于,所述步骤2的具体操作步骤如下:
2-1:首先基于视觉显著性确定需要调整视差的对象,并为其添加蒙版;
2-2:继而在神经辐射场中指定深度间距进行分层渲染,并在计算累积颜色与透明度的同时对深度值逐层积分,当显著蒙版内深度不断累加趋于稳定时,则认为该渲染层所在深度为最佳零视差平面所在深度;
2-3:得到零视差平面的深度值后,基于离轴平行式模型能够进一步确定光轴平移程度和相机基线a的关系函数;
2-4:基于Shibata舒适区理论,根据当前视距、瞳距与屏幕分辨率等观看条件,通过控制正负视差最大值在合理范围,进一步确定具体相机基线与镜头平移量,实现自适应的视差控制模型。
4.根据权利要求1所述的基于神经辐射场的立体视频视差控制与编辑方法,其特征在于,所述步骤3的具体操作步骤如下:
3-1:对场景内容进行分析,根据观看者的视觉注意点为局部对象添加蒙版,根据该蒙版确定了目标在图像中的2D边界盒;
3-2:在分层神经辐射场中对深度值累计积分,当蒙版区域内深度值开始累积时与区域稳定并达到阈值时,认为该层所在深度为局部编辑对象的3D包围盒的近远深度,由此确定目标对象的3D包围盒,实现神经辐射场中的局部对象提取;
3-3:在体积渲染阶段,对全场景进行光线追踪时,对包围盒内部光线沿着水平方向扭曲,从而实现对局部对象与剔除局部对象的背景分别进行视差控制,局部对象水平视差放大或缩小的效果,从而强化场景中显著对象的立体感。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210953904.0A CN115482323A (zh) | 2022-08-10 | 2022-08-10 | 一种基于神经辐射场的立体视频视差控制与编辑方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210953904.0A CN115482323A (zh) | 2022-08-10 | 2022-08-10 | 一种基于神经辐射场的立体视频视差控制与编辑方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115482323A true CN115482323A (zh) | 2022-12-16 |
Family
ID=84421841
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210953904.0A Pending CN115482323A (zh) | 2022-08-10 | 2022-08-10 | 一种基于神经辐射场的立体视频视差控制与编辑方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115482323A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115909015A (zh) * | 2023-02-15 | 2023-04-04 | 苏州浪潮智能科技有限公司 | 一种可形变神经辐射场网络的构建方法和装置 |
CN117274353A (zh) * | 2023-11-20 | 2023-12-22 | 光轮智能(北京)科技有限公司 | 合成图像数据生成方法、控制装置及可读存储介质 |
-
2022
- 2022-08-10 CN CN202210953904.0A patent/CN115482323A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115909015A (zh) * | 2023-02-15 | 2023-04-04 | 苏州浪潮智能科技有限公司 | 一种可形变神经辐射场网络的构建方法和装置 |
CN115909015B (zh) * | 2023-02-15 | 2023-05-30 | 苏州浪潮智能科技有限公司 | 一种可形变神经辐射场网络的构建方法和装置 |
CN117274353A (zh) * | 2023-11-20 | 2023-12-22 | 光轮智能(北京)科技有限公司 | 合成图像数据生成方法、控制装置及可读存储介质 |
CN117274353B (zh) * | 2023-11-20 | 2024-02-20 | 光轮智能(北京)科技有限公司 | 合成图像数据生成方法、控制装置及可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9390538B2 (en) | Depth identification of pixels in one or more three dimensional images | |
US9445072B2 (en) | Synthesizing views based on image domain warping | |
US10542249B2 (en) | Stereoscopic video generation method based on 3D convolution neural network | |
EP0735512B1 (en) | Methods for selecting two frames of a two-dimensional image sequence to form the basis for calculating the relative depth of image objects | |
US8711204B2 (en) | Stereoscopic editing for video production, post-production and display adaptation | |
US9299152B2 (en) | Systems and methods for image depth map generation | |
JP4938093B2 (ja) | 2d−to−3d変換のための2d画像の領域分類のシステム及び方法 | |
US9031356B2 (en) | Applying perceptually correct 3D film noise | |
CN115482323A (zh) | 一种基于神经辐射场的立体视频视差控制与编辑方法 | |
WO2011033673A1 (ja) | 画像処理装置 | |
Ward et al. | Depth director: A system for adding depth to movies | |
Shao et al. | QoE-guided warping for stereoscopic image retargeting | |
CN111047709B (zh) | 一种双目视觉裸眼3d图像生成方法 | |
WO2013109252A1 (en) | Generating an image for another view | |
Schnyder et al. | 2D to 3D conversion of sports content using panoramas | |
Bleyer et al. | Temporally consistent disparity maps from uncalibrated stereo videos | |
Liu et al. | A retargeting method for stereoscopic 3D video | |
US9838669B2 (en) | Apparatus and method for depth-based image scaling of 3D visual content | |
Liu et al. | An efficient depth map preprocessing method based on structure-aided domain transform smoothing for 3D view generation | |
Stavrakis et al. | Image-based stereoscopic painterly rendering | |
CN108616746A (zh) | 基于深度学习的2d全景图像转3d全景图像的方法 | |
CN110149508A (zh) | 一种基于一维集成成像系统的阵列图生成及填补方法 | |
KR20140058744A (ko) | 영상 이동 영역의 메움 처리 기능을 구비한 입체 영상 제작 시스템 및 그 방법 | |
Seitner et al. | Trifocal system for high-quality inter-camera mapping and virtual view synthesis | |
CN113450274B (zh) | 一种基于深度学习的自适应视点融合方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |