CN111881925B - 一种基于相机阵列选择性光场重聚焦的显著性检测方法 - Google Patents
一种基于相机阵列选择性光场重聚焦的显著性检测方法 Download PDFInfo
- Publication number
- CN111881925B CN111881925B CN202010787230.2A CN202010787230A CN111881925B CN 111881925 B CN111881925 B CN 111881925B CN 202010787230 A CN202010787230 A CN 202010787230A CN 111881925 B CN111881925 B CN 111881925B
- Authority
- CN
- China
- Prior art keywords
- image
- depth
- bokeh
- point
- circle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
Abstract
一种基于相机阵列选择性光场重聚焦的显著性检测方法属图像处理和计算机视觉技术领域,本发明利用同一场景的多幅视点图像,对中心视点图像进行可选择深度层的重聚焦,使其它深度层受到不同程度的模糊,然后利用重聚焦的结果,实现考虑场景的深度和聚焦信息的显著性检测;对于某些目标区域颜色和背景颜色相近或背景复杂以及场景包含多个显著性目标的情况,检测效果能得到有效改善;另外通过指定聚焦深度层,使场景中某些显著性区域以外值得关注的区域被检测出,包含多个显著性目标的场景中位于指定深度层的目标被更精细地被检测出,能实现可选择的显著性检测。
Description
技术领域
本发明涉及图像处理和光场成像领域,具体涉及一种基于相机阵列选择性光场重聚焦的显著性检测方法。
背景技术
随着信息时代的高速发展,信息数据爆炸式增长,人们每天接触来自互联网的海量信息数据,然而这些海量数据中真正重要、有用的只是其中很小一部分。人们希望尽快在有限时间内有效地接收、处理和分析这些数据,从而获得真正感兴趣的内容。因此,信息提取、数据挖掘得到了广泛的关注,其中视觉显著性检测和提取就是主要的技术手段,通过计算机模拟灵长目动物的视觉选择注意机制来选择重要信息,即模拟视觉选择注意机制,使观察者迅速识别出图像中包含重要视觉信息的显著性区域。
目前,国内外学者提出的显著性检测模型,多数都是基于普通相机获取的2D图像,只采用了图像的亮度、颜色及纹理等信息检测显著目标,并以这些二维信息存在明显差异为假设前提进行显著性检测模型建模。当显著目标的某些区域颜色和背景颜色相近或背景复杂,以及场景中包含多个显著目标时,这些基于2D图像的模型得到的显著图效果并不理想,检测出的目标不完整或者显著图的背景会被亮化,甚至会丢失某些显著性区域,难以得到完整目标和干净背景显著图。
发明内容
本发明的目的在于提供一种基于相机阵列选择性光场重聚焦的显著性检测方法,利用同一场景的多幅视点图像对中心视点图像进行可选择深度层的重聚焦,使其它深度层的物体受到不同程度的模糊,然后利用重聚焦的结果实现考虑场景的深度、聚焦等信息的可选择的显著性检测。
本发明的基于相机阵列选择性光场重聚焦的显著性检测方法,包括下列步骤:
1.1获取视点图像数据集,选择Stanford光场数据集,其中每个场景提供289(17×17)个视点图像,图像分辨率为1400×800;和4D光场数据集,其中每个场景提供81(9×9)个视点图像,图像分辨率为512×512;
1.2视差估计,采用RGDP(Reliability Guided Disparity Propagation)算法对相机阵列进行视差估计,得到视差图,用于后续bokeh渲染;
1.3超分辨率重建,由于摄像机阵列捕获的子图像会受到由视差引起的剪切位移,由光学畸变引起的模糊和由低分辨率图像传感器引起的下采样的影响,考虑到这些因素,建立摄像机阵列的退化模型:
yk=DHFi,kx+nk (1)
其中:yk表示第k个相机捕获的子图像;x表示高分辨率图像;nk表示间域附加噪声;D、H和Fi,k分别表示下采样、光学模糊和位移(取决于深度i和视点k);超分辨率重建主要是估计x以适应退化模型,即最小化下列方程:
其中:第一项表示观测值与理想高分辨率图像间的距;wb是基于深度和空间变化的权重向量;⊙表示数量积运算符;Jb(x)为bokeh正则化项;JBTV(x)为双边总变异BTV正则化项;λb和λBTV为正则化系数;Jb(x)可表示为:
其中:xb为bokeh图像,由bokeh渲染生成。使用梯度下降法逼近最优解,步长和迭代次数均可设置。
1.4bokeh渲染,采用基于深度的各向异性滤波器对未聚焦区域进行渲染,通过调节其中参数可实现对场景中某一深度层进行聚焦,而对其他深度层产生不同程度的模糊;
假设p点没有被聚焦,其对应的混叠圆半径r为:
其中:γf和γp分别表示焦距深度和p点深度;f表示焦距;F为透镜的F数;深度γ可表示为γ=fB/d,其中B为基线长度,d为视差;那么公式(4)可表示为:
在bokeh渲染过程中f、F、B和df是固定不变的,那么p点的混叠圆半径r与p点和焦点之间的绝对视差成正比;将K=f/2F(B-df)作为bokeh渲染的强度,代表整体的bokeh程度,同时反映场景深度,K越大表示bokeh程度越强,景深越小;
假设Q点周围存在多个以Pi为中心的混叠圆,由于混叠圆中强度是均匀分布的,那么计算Pi对Q的贡献可通过其中:IPi为Pi点bokeh渲染前的强度;rPi为以Pi为中心的混叠圆的半径;为Pi与Q之间的距离;那么Q点强度可表示为:
各向异性滤波器基于公式(6)、(7),使用双三次插值渲染中心视点图像生成bokehimage xb;
另外还需要对步骤1.3中公式(2)、(3)中的wb进行计算,一幅图像的模糊程度由混叠圆半径决定,那么可通过以下两个步骤计算wb:
第一步:通过ηP=(rP-rmin)/(rmax-rmin)将半径归一化至[0,1],rmin为图像中混叠圆半径的最小值;
第二步:将ηP分为focus和bokeh两部分,使用sigmoid函数将ηP转化为wP:
wP=1/(1+exp{-a(ηP-b)}) (8)
其中:a为衰减因子;b为阈值;遍历所有像素点,重排序wP得到向量wb;
1.5显著性检测,上述步骤能够对场景中某一选定的深度层进行聚焦,而对其他部分产生不同程度的模糊,在此基础上进行基于图显著性检测,将得到更佳精细的显著图。首先,对重聚焦后的图像进行超像素分割,采用SLIC(Simple Iterative Clustering)算法,该算法算法计算速度快,能生成紧凑且近似均匀的超像素。然后,构建图模型G=(V,E),其中V={v1,...,vn}为超像素点集,E=E1∪E2∪E3为边集,对其增加以三条规则:
其中:表示vi的直接空间邻居;B表示图像边缘处边框节点的集合;表示vi在Lab Color Space的分簇,由APC算法计算而来;那么规则1连接了vi和其几何邻居以及邻居的邻居,规则2连接边界节点,规则3连接了vi和与其颜色相似的节点;定义边权值矩阵W=(wij)n×n表示图节点相似度,图节点vi与vj之间的权值项定义为:
其中:δ为控制权重强度的一个常数,第一项||ci-cj||表示vi与vj在Lab ColorSpace的欧式距离,第二项||sin(π|di-dj|)||表示在正弦空间下计算的几何距离;接着分两个阶段生成并细化显著图,首先采用DSMR算法进行基于变形平滑的标签传播,DSMR算法的目标是计算一个排序向量f=(fi)n关于表示向量z=(zi)n,如果vi是种子节点,则zi=1,否则zi=0,可通过下式来计算:
其中:度矩阵式(11)中第一项为变形平滑约束,其中结合了标准平滑和局部平滑约束,表明相邻两节点的排序值不应该变化太大,μ2用于平衡两个光滑约束的权重,第二项R(f)=(f-D-1z)TD(f-D-1z)为标签适应度约束,保证种子节点的排序值与其初始值相差不大,μ1用于平衡变形平滑约束SD(f)和标签适应度约束R(f);令式(11)导数为0可得f=(fi)n的最优解:
其中:α=1/(1+μ1);β=μ2/(1+μ1);分别将上边界节点、下边界节点、左边界节点、右边界节点作为种子节点得到四个排序向量结果f(T),f(V),f(L),f(R),将四个传播结果结合起来生成粗图
其中:Rj为边界框Ωj的分数;δ是指示函数表示vi是否在边框内;B为边界盒生成的边框数量;结合Mc和Mo细化模型,细化结果g通过求解下式而来:
式(15)中:第一项为变形平滑约束,保证显著性值连续,第二项||g-Mc||2为标签适应度约束,保证细化的结果g与粗图Mc相差不大,第三项gTDog是通过Mo构建的正则化约束,抑制不属于目标的背景区域,增强可能属于目标的区域;令式(14)导数为0得最优解g:
将最优解g归一化至[0,1]区间,赋值给对应的超像素,生成精细显著图Mr,即为最终可选择性的显著性检测的结果。
本发明在相机阵列选择性光场重聚焦的基础上进行显著性检测,相较于传统的显著性检测方法考虑了场景的深度和聚焦信息,对于某些区域颜色和背景颜色相近或背景复杂以及场景包含多个显著性目标的情况,检测结果得以改善。另外可以通过调整聚焦深度层,使场景中某些显著性区域以外值得关注的区域被检测出,包含多个显著性目标的场景中位于指定深度层的目标被更精细地被检测出,实现可选择的显著性检测。
附图说明
图1为基于相机阵列选择性光场重聚焦的显著性检测方法的流程图
具体实施方式
下面结合附图对本发明的目的、具体技术方法和效果进行描述。
1.一种基于相机阵列选择性光场重聚焦的显著性检测方法,包括下列步骤:
1.1获取视点图像数据集,选择Stanford光场数据集和4D光场数据集;
1.2视差估计,采用RGDP算法对相机阵列进行视差估计,得到视差图;
1.3超分辨率重建,建立摄像机阵列的退化模型:
yk=DHFi,kx+nk (1)
其中:yk表示第k个相机捕获的子图像;x表示高分辨率图像;nk表示间域附加噪声;D、H和Fi,k分别表示下采样、光学模糊和位移;超分辨率重建主要是估计x以适应退化模型,即最小化下列方程:
其中:第一项表示观测值与理想高分辨率图像间的距离;wb是基于深度和空间变化的权重向量;⊙表示数量积运算符;Jb(x)为bokeh正则化项;JBTV(x)为双边总变异BTV正则化项;λb和λBTV为正则化系数;Jb(x)可表示为:
其中:xb为bokeh图像,由bokeh渲染生成;使用梯度下降法逼近最优解,步长和迭代次数均可设置;
1.4bokeh渲染,采用基于深度的各向异性滤波器对未聚焦区域进行渲染,通过调节其中参数可实现对场景中某一深度层进行聚焦,而对其他深度层产生不同程度的模糊;
假设p点没有被聚焦,其对应的混叠圆半径r为:
其中:γf和γp分别表示焦距深度和p点深度;f表示焦距;F为透镜的F数;深度γ可表示为γ=fB/d,其中B为基线长度,d为视差;那么公式(4)可表示为:
在bokeh渲染过程中f、F、B和df是固定不变的,那么p点的混叠圆半径r与p点和焦点之间的绝对视差成正比;将K=f/2F(B-df)作为bokeh渲染的强度,代表整体的bokeh程度,同时反映场景深度,K越大表示bokeh程度越强,景深越小;
假设Q点周围存在多个以Pi为中心的混叠圆,由于混叠圆中强度是均匀分布的,那么计算Pi对Q的贡献可通过其中:为Pi点bokeh渲染前的强度;为以Pi为中心的混叠圆的半径;为Pi与Q之间的距离;那么Q点强度可表示为:
各向异性滤波器基于公式(6)、(7),使用双三次插值渲染中心视点图像生成bokehimage xb;
另外还需要对步骤1.3中公式(2)、(3)中的wb进行计算,一幅图像的模糊程度由混叠圆半径决定,那么可通过以下两个步骤计算wb:
第一步:通过ηP=(rP-rmin)/(rmax-rmin)将半径归一化至[0,1],rmin为图像中混叠圆半径的最小值;
第二步:将ηP分为focus和bokeh两部分,使用sigmoid函数将ηP转化为wP:
wP=1/(1+exp{-a(ηP-b)}) (8)
其中:a为衰减因子;b为阈值;遍历所有像素点,重排序wP得到向量wb;
1.5显著性检测,首先采用SLIC算法对重聚焦后的图像进行超像素分割;然后,构建图模型G=(V,E),其中V={v1,...,vn}为超像素点集,E=E1∪E2∪E3为边集,对其增加以下三条规则:
其中:表示vi的直接空间邻居;B表示图像边缘处边框节点的集合;表示vi在Lab Color Space的分簇,由APC算法计算而来;那么规则1连接了vi和其几何邻居以及邻居的邻居,规则2连接边界节点,规则3连接了vi和与其颜色相似的节点;定义边权值矩阵W=(wij)n×n表示图节点相似度,图节点vi与vj之间的权值项定义为:
其中:δ为控制权重强度的一个常数,第一项||ci-cj||表示vi与vj在Lab ColorSpace的欧式距离,第二项||sin(π|di-dj|)||表示在正弦空间下计算的几何距离;
接着分两个阶段生成并细化显著图,首先采用DSMR算法进行基于变形平滑的标签传播,DSMR算法的目标是计算一个排序向量f=(fi)n关于表示向量z=(zi)n,如果vi是种子节点,则zi=1,否则zi=0,可通过下式来计算:
其中:度矩阵式(11)中第一项为变形平滑约束,其中结合了标准平滑和局部平滑约束,表明相邻两节点的排序值不应该变化太大,μ2用于平衡两个光滑约束的权重,第二项R(f)=(f-D-1z)TD(f-D-1z)为标签适应度约束,保证种子节点的排序值与其初始值相差不大,μ1用于平衡变形平滑约束SD(f)和标签适应度约束R(f);令式(11)导数为0可得f=(fi)n的最优解:
其中:α=1/(1+μ1);β=μ2/(1+μ1);分别将上边界节点、下边界节点、左边界节点、右边界节点作为种子节点得到四个排序向量结果f(T),f(V),f(L),f(R),将四个传播结果结合起来生成粗图
其中:Rj为边界框Ωj的分数;δ是指示函数表示vi是否在边框内;B为边界盒生成的边框数量;结合Mc和Mo细化模型,细化结果g通过求解下式而来:
式(15)中:第一项为变形平滑约束,保证显著性值连续,第二项||g-Mc||2为标签适应度约束,保证细化的结果g与粗图Mc相差不大,第三项gTDog是通过Mo构建的正则化约束,抑制不属于目标的背景区域,增强可能属于目标的区域;令式(14)导数为0得最优解g:
将最优解g归一化至[0,1]区间,赋值给对应的超像素,生成精细显著图Mr,即为最终可选择性的显著性检测的结果。
Claims (1)
1.一种基于相机阵列选择性光场重聚焦的显著性检测方法,其特征在于包括下列步骤:
1.1获取视点图像数据集,选择Stanford光场数据集和4D光场数据集;
1.2视差估计,采用RGDP算法对相机阵列进行视差估计,得到视差图;
1.3超分辨率重建,建立摄像机阵列的退化模型:
yk=DHFi,kx+nk (1)
其中:yk表示第k个相机捕获的子图像;x表示高分辨率图像;nk表示间域附加噪声;D、H和Fi,k分别表示下采样、光学模糊和位移;超分辨率重建主要是估计x以适应退化模型,即最小化下列方程:
其中:第一项表示观测值与理想高分辨率图像间的距离;wb是基于深度和空间变化的权重向量;⊙表示数量积运算符;Jb(x)为bokeh正则化项;JBTV(x)为双边总变异BTV正则化项;λb和λBTV为正则化系数;Jb(x)可表示为:
其中:xb为bokeh图像,由bokeh渲染生成;使用梯度下降法逼近最优解,步长和迭代次数均可设置;
1.4bokeh渲染,采用基于深度的各向异性滤波器对未聚焦区域进行渲染,通过调节其中参数可实现对场景中某一深度层进行聚焦,而对其他深度层产生不同程度的模糊;
假设p点没有被聚焦,其对应的混叠圆半径r为:
其中:γf和γp分别表示焦距深度和p点深度;f表示焦距;F为透镜的F数;深度γ可表示为γ=fB/d,其中B为基线长度,d为视差;那么公式(4)可表示为:
在bokeh渲染过程中f、F、B和df是固定不变的,那么p点的混叠圆半径r与p点和焦点之间的绝对视差成正比;将K=f/2F(B-df)作为bokeh渲染的强度,代表整体的bokeh程度,同时反映场景深度,K越大表示bokeh程度越强,景深越小;
假设Q点周围存在多个以Pi为中心的混叠圆,由于混叠圆中强度是均匀分布的,那么计算Pi对Q的贡献可通过其中为Pi点bokeh渲染前的强度;为以Pi为中心的混叠圆的半径;为Pi与Q之间的距离;那么Q点强度可表示为:
各向异性滤波器基于公式(6)、(7),使用双三次插值渲染中心视点图像生成bokehimage xb;
另外还需要对步骤1.3中公式(2)、(3)中的wb进行计算,一幅图像的模糊程度由混叠圆半径决定,那么可通过以下两个步骤计算wb:
第一步:通过ηP=(rP-rmin)/(rmax-rmin)将半径归一化至[0,1],rmin为图像中混叠圆半径的最小值;
第二步:将ηP分为focus和bokeh两部分,使用sigmoid函数将ηP转化为wP:
wP=1/(1+exp{-a(ηP-b)}) (8)
其中:a为衰减因子;b为阈值;遍历所有像素点,重排序wP得到向量wb;
其中:表示vi的直接空间邻居;B表示图像边缘处边框节点的集合;表示vi在LabColor Space的分簇,由APC算法计算而来;那么规则1连接了vi和其几何邻居以及邻居的邻居,规则2连接边界节点,规则3连接了vi和与其颜色相似的节点;定义边权值矩阵W=(wij)n×n表示图节点相似度,图节点vi与vj之间的权值项定义为:
其中:δ为控制权重强度的一个常数,第一项||ci-cj||表示vi与vj在Lab Color Space的欧式距离,第二项||sin(π|di-dj|)||表示在正弦空间下计算的几何距离;
接着分两个阶段生成并细化显著图,首先采用DSMR算法进行基于变形平滑的标签传播,DSMR算法的目标是关于表示向量z=(zi)n计算一个排序向量f=(fi)n,如果vi是种子节点,则zi=1,否则zi=0,可通过下式来计算:
其中:度矩阵式(11)中第一项为变形平滑约束,其中结合了标准平滑和局部平滑约束,表明相邻两节点的排序值不应该变化太大,μ2用于平衡两个光滑约束的权重,第二项R(f)=(f-D-1z)TD(f-D-1z)为标签适应度约束,保证种子节点的排序值与其初始值相差不大,μ1用于平衡变形平滑约束SD(f)和标签适应度约束R(f);令式(11)导数为0可得f=(fi)n的最优解:
其中:α=1/(1+μ1);β=μ2/(1+μ1);分别将上边界节点、下边界节点、左边界节点、右边界节点作为种子节点得到四个排序向量结果f(T),f(V),f(L),f(R),将四个传播结果结合起来生成粗图
其中:Rj为边界框Ωj的分数;δ是指示函数,表示vi是否在边框内;B为边界盒生成的边框数量;结合Mc和Mo细化模型,细化结果g通过求解下式而来:
式(15)中:第一项为变形平滑约束,保证显著性值连续,第二项||g-Mc||2为标签适应度约束,保证细化的结果g与粗图Mc相差不大,第三项gTDog是通过Mo构建的正则化约束,抑制不属于目标的背景区域,增强可能属于目标的区域;令式(14)导数为0得最优解g:
将最优解g归一化至[0,1]区间,赋值给对应的超像素,生成精细显著图Mr,即为最终可选择性的显著性检测的结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010787230.2A CN111881925B (zh) | 2020-08-07 | 2020-08-07 | 一种基于相机阵列选择性光场重聚焦的显著性检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010787230.2A CN111881925B (zh) | 2020-08-07 | 2020-08-07 | 一种基于相机阵列选择性光场重聚焦的显著性检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111881925A CN111881925A (zh) | 2020-11-03 |
CN111881925B true CN111881925B (zh) | 2023-04-18 |
Family
ID=73210304
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010787230.2A Active CN111881925B (zh) | 2020-08-07 | 2020-08-07 | 一种基于相机阵列选择性光场重聚焦的显著性检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111881925B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113837947B (zh) * | 2021-11-29 | 2022-05-20 | 南开大学 | 一种获得光学相干层析大焦深图像的处理方法 |
CN116437205B (zh) * | 2023-06-02 | 2023-08-11 | 华中科技大学 | 一种多视点多焦距成像的景深拓展方法和系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110211115A (zh) * | 2019-06-03 | 2019-09-06 | 大连理工大学 | 一种基于深度引导元胞自动机的光场显著性检测实现方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8649606B2 (en) * | 2010-02-10 | 2014-02-11 | California Institute Of Technology | Methods and systems for generating saliency models through linear and/or nonlinear integration |
CN104463949B (zh) * | 2014-10-24 | 2018-02-06 | 郑州大学 | 一种基于光场数字重聚焦的快速三维重建方法及其系统 |
CN105701813A (zh) * | 2016-01-11 | 2016-06-22 | 深圳市未来媒体技术研究院 | 一种光场图像的显著性检测方法 |
CN105913070B (zh) * | 2016-04-29 | 2019-04-23 | 合肥工业大学 | 一种基于光场相机的多线索显著性提取方法 |
EP3331236A1 (en) * | 2016-11-30 | 2018-06-06 | Thomson Licensing | Method for rendering a final image from initial images acquired by a camera array, corresponding device, computer program product and computer-readable carrier medium |
CN106780476A (zh) * | 2016-12-29 | 2017-05-31 | 杭州电子科技大学 | 一种基于人眼立体视觉特性的立体图像显著性检测方法 |
CN107945110A (zh) * | 2017-11-17 | 2018-04-20 | 杨俊刚 | 一种针对光场阵列相机的盲深度超分辨率计算成像方法 |
CN108337434B (zh) * | 2018-03-27 | 2020-05-22 | 中国人民解放军国防科技大学 | 一种针对光场阵列相机的焦外虚化重聚焦方法 |
CN110189294B (zh) * | 2019-04-15 | 2021-05-07 | 杭州电子科技大学 | 基于深度可信度分析的rgb-d图像显著性检测方法 |
CN111145134B (zh) * | 2019-12-24 | 2022-04-19 | 太原科技大学 | 基于块效应的微透镜光场相机全聚焦图像生成算法 |
-
2020
- 2020-08-07 CN CN202010787230.2A patent/CN111881925B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110211115A (zh) * | 2019-06-03 | 2019-09-06 | 大连理工大学 | 一种基于深度引导元胞自动机的光场显著性检测实现方法 |
Non-Patent Citations (1)
Title |
---|
面向集成成像光场视图的显著性检测技术研究;冯洁;《中国优秀硕士学位论文全文数据库 (信息科技辑)》;20220115(第1期);I138-2071 * |
Also Published As
Publication number | Publication date |
---|---|
CN111881925A (zh) | 2020-11-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Engin et al. | Cycle-dehaze: Enhanced cyclegan for single image dehazing | |
Hu et al. | Depth-attentional features for single-image rain removal | |
Tucker et al. | Single-view view synthesis with multiplane images | |
Ren et al. | Single image dehazing via multi-scale convolutional neural networks with holistic edges | |
Lim et al. | DSLR: Deep stacked Laplacian restorer for low-light image enhancement | |
Gao et al. | Dynamic view synthesis from dynamic monocular video | |
AU2017324923B2 (en) | Predicting depth from image data using a statistical model | |
CN107818554B (zh) | 信息处理设备和信息处理方法 | |
JP5645842B2 (ja) | スケールスペースを使用した画像処理装置及び方法 | |
Hu et al. | Single-image real-time rain removal based on depth-guided non-local features | |
CN111931787A (zh) | 一种基于特征聚合的rgbd显著性检测方法 | |
CN110381268B (zh) | 生成视频的方法,装置,存储介质及电子设备 | |
Várkonyi-Kóczy et al. | Gradient-based synthesized multiple exposure time color HDR image | |
CN111881925B (zh) | 一种基于相机阵列选择性光场重聚焦的显著性检测方法 | |
Zhang et al. | Micro-lens-based matching for scene recovery in lenslet cameras | |
Ruan et al. | Aifnet: All-in-focus image restoration network using a light field-based dataset | |
Jin et al. | Occlusion-aware unsupervised learning of depth from 4-d light fields | |
Yan et al. | Robust artifact-free high dynamic range imaging of dynamic scenes | |
Liu et al. | High-speed video generation with an event camera | |
US20230394834A1 (en) | Method, system and computer readable media for object detection coverage estimation | |
Sahu et al. | Trends and prospects of techniques for haze removal from degraded images: A survey | |
Wu et al. | Single-image shadow removal using detail extraction and illumination estimation | |
Ma et al. | STSRNet: Self-texture transfer super-resolution and refocusing network | |
Lee et al. | Optimizing image focus for 3D shape recovery through genetic algorithm | |
Liu et al. | A contextual conditional random field network for monocular depth estimation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |