CN111881925B - 一种基于相机阵列选择性光场重聚焦的显著性检测方法 - Google Patents

一种基于相机阵列选择性光场重聚焦的显著性检测方法 Download PDF

Info

Publication number
CN111881925B
CN111881925B CN202010787230.2A CN202010787230A CN111881925B CN 111881925 B CN111881925 B CN 111881925B CN 202010787230 A CN202010787230 A CN 202010787230A CN 111881925 B CN111881925 B CN 111881925B
Authority
CN
China
Prior art keywords
image
depth
bokeh
point
circle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010787230.2A
Other languages
English (en)
Other versions
CN111881925A (zh
Inventor
王世刚
冯洁
韦健
赵岩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jilin University
Original Assignee
Jilin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jilin University filed Critical Jilin University
Priority to CN202010787230.2A priority Critical patent/CN111881925B/zh
Publication of CN111881925A publication Critical patent/CN111881925A/zh
Application granted granted Critical
Publication of CN111881925B publication Critical patent/CN111881925B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour

Abstract

一种基于相机阵列选择性光场重聚焦的显著性检测方法属图像处理和计算机视觉技术领域,本发明利用同一场景的多幅视点图像,对中心视点图像进行可选择深度层的重聚焦,使其它深度层受到不同程度的模糊,然后利用重聚焦的结果,实现考虑场景的深度和聚焦信息的显著性检测;对于某些目标区域颜色和背景颜色相近或背景复杂以及场景包含多个显著性目标的情况,检测效果能得到有效改善;另外通过指定聚焦深度层,使场景中某些显著性区域以外值得关注的区域被检测出,包含多个显著性目标的场景中位于指定深度层的目标被更精细地被检测出,能实现可选择的显著性检测。

Description

一种基于相机阵列选择性光场重聚焦的显著性检测方法
技术领域
本发明涉及图像处理和光场成像领域,具体涉及一种基于相机阵列选择性光场重聚焦的显著性检测方法。
背景技术
随着信息时代的高速发展,信息数据爆炸式增长,人们每天接触来自互联网的海量信息数据,然而这些海量数据中真正重要、有用的只是其中很小一部分。人们希望尽快在有限时间内有效地接收、处理和分析这些数据,从而获得真正感兴趣的内容。因此,信息提取、数据挖掘得到了广泛的关注,其中视觉显著性检测和提取就是主要的技术手段,通过计算机模拟灵长目动物的视觉选择注意机制来选择重要信息,即模拟视觉选择注意机制,使观察者迅速识别出图像中包含重要视觉信息的显著性区域。
目前,国内外学者提出的显著性检测模型,多数都是基于普通相机获取的2D图像,只采用了图像的亮度、颜色及纹理等信息检测显著目标,并以这些二维信息存在明显差异为假设前提进行显著性检测模型建模。当显著目标的某些区域颜色和背景颜色相近或背景复杂,以及场景中包含多个显著目标时,这些基于2D图像的模型得到的显著图效果并不理想,检测出的目标不完整或者显著图的背景会被亮化,甚至会丢失某些显著性区域,难以得到完整目标和干净背景显著图。
发明内容
本发明的目的在于提供一种基于相机阵列选择性光场重聚焦的显著性检测方法,利用同一场景的多幅视点图像对中心视点图像进行可选择深度层的重聚焦,使其它深度层的物体受到不同程度的模糊,然后利用重聚焦的结果实现考虑场景的深度、聚焦等信息的可选择的显著性检测。
本发明的基于相机阵列选择性光场重聚焦的显著性检测方法,包括下列步骤:
1.1获取视点图像数据集,选择Stanford光场数据集,其中每个场景提供289(17×17)个视点图像,图像分辨率为1400×800;和4D光场数据集,其中每个场景提供81(9×9)个视点图像,图像分辨率为512×512;
1.2视差估计,采用RGDP(Reliability Guided Disparity Propagation)算法对相机阵列进行视差估计,得到视差图,用于后续bokeh渲染;
1.3超分辨率重建,由于摄像机阵列捕获的子图像会受到由视差引起的剪切位移,由光学畸变引起的模糊和由低分辨率图像传感器引起的下采样的影响,考虑到这些因素,建立摄像机阵列的退化模型:
yk=DHFi,kx+nk (1)
其中:yk表示第k个相机捕获的子图像;x表示高分辨率图像;nk表示间域附加噪声;D、H和Fi,k分别表示下采样、光学模糊和位移(取决于深度i和视点k);超分辨率重建主要是估计x以适应退化模型,即最小化下列方程:
Figure GDA0004007462310000021
其中:第一项
Figure GDA0004007462310000022
表示观测值与理想高分辨率图像间的距;wb是基于深度和空间变化的权重向量;⊙表示数量积运算符;Jb(x)为bokeh正则化项;JBTV(x)为双边总变异BTV正则化项;λb和λBTV为正则化系数;Jb(x)可表示为:
Figure GDA0004007462310000023
其中:xb为bokeh图像,由bokeh渲染生成。使用梯度下降法逼近最优解,步长和迭代次数均可设置。
1.4bokeh渲染,采用基于深度的各向异性滤波器对未聚焦区域进行渲染,通过调节其中参数可实现对场景中某一深度层进行聚焦,而对其他深度层产生不同程度的模糊;
假设p点没有被聚焦,其对应的混叠圆半径r为:
Figure GDA0004007462310000024
其中:γf和γp分别表示焦距深度和p点深度;f表示焦距;F为透镜的F数;深度γ可表示为γ=fB/d,其中B为基线长度,d为视差;那么公式(4)可表示为:
Figure GDA0004007462310000025
在bokeh渲染过程中f、F、B和df是固定不变的,那么p点的混叠圆半径r与p点和焦点之间的绝对视差成正比;将K=f/2F(B-df)作为bokeh渲染的强度,代表整体的bokeh程度,同时反映场景深度,K越大表示bokeh程度越强,景深越小;
假设Q点周围存在多个以Pi为中心的混叠圆,由于混叠圆中强度是均匀分布的,那么计算Pi对Q的贡献可通过
Figure GDA0004007462310000026
其中:IPi为Pi点bokeh渲染前的强度;rPi为以Pi为中心的混叠圆的半径;
Figure GDA0004007462310000027
为Pi与Q之间的距离;那么Q点强度可表示为:
Figure GDA0004007462310000031
其中:
Figure GDA0004007462310000032
表示Q点周围点的集合;rmax是图像中混叠圆半径的最大值;由于ΩQ中的某些点可能对Q点没有作用,所以将权值
Figure GDA0004007462310000037
定义为:
Figure GDA0004007462310000033
各向异性滤波器基于公式(6)、(7),使用双三次插值渲染中心视点图像生成bokehimage xb
另外还需要对步骤1.3中公式(2)、(3)中的wb进行计算,一幅图像的模糊程度由混叠圆半径决定,那么可通过以下两个步骤计算wb
第一步:通过ηP=(rP-rmin)/(rmax-rmin)将半径归一化至[0,1],rmin为图像中混叠圆半径的最小值;
第二步:将ηP分为focus和bokeh两部分,使用sigmoid函数将ηP转化为wP
wP=1/(1+exp{-a(ηP-b)}) (8)
其中:a为衰减因子;b为阈值;遍历所有像素点,重排序wP得到向量wb
1.5显著性检测,上述步骤能够对场景中某一选定的深度层进行聚焦,而对其他部分产生不同程度的模糊,在此基础上进行基于图显著性检测,将得到更佳精细的显著图。首先,对重聚焦后的图像进行超像素分割,采用SLIC(Simple Iterative Clustering)算法,该算法算法计算速度快,能生成紧凑且近似均匀的超像素。然后,构建图模型G=(V,E),其中V={v1,...,vn}为超像素点集,E=E1∪E2∪E3为边集,对其增加以三条规则:
Figure GDA0004007462310000034
其中:
Figure GDA0004007462310000035
表示vi的直接空间邻居;B表示图像边缘处边框节点的集合;
Figure GDA0004007462310000036
表示vi在Lab Color Space的分簇,由APC算法计算而来;那么规则1连接了vi和其几何邻居以及邻居的邻居,规则2连接边界节点,规则3连接了vi和与其颜色相似的节点;定义边权值矩阵W=(wij)n×n表示图节点相似度,图节点vi与vj之间的权值项定义为:
Figure GDA0004007462310000041
其中:δ为控制权重强度的一个常数,第一项||ci-cj||表示vi与vj在Lab ColorSpace的欧式距离,第二项||sin(π|di-dj|)||表示在正弦空间下计算的几何距离;接着分两个阶段生成并细化显著图,首先采用DSMR算法进行基于变形平滑的标签传播,DSMR算法的目标是计算一个排序向量f=(fi)n关于表示向量z=(zi)n,如果vi是种子节点,则zi=1,否则zi=0,可通过下式来计算:
Figure GDA0004007462310000042
其中:度矩阵
Figure GDA0004007462310000043
式(11)中第一项
Figure GDA0004007462310000044
为变形平滑约束,其中结合了标准平滑和局部平滑约束,表明相邻两节点的排序值不应该变化太大,μ2用于平衡两个光滑约束的权重,第二项R(f)=(f-D-1z)TD(f-D-1z)为标签适应度约束,保证种子节点的排序值与其初始值相差不大,μ1用于平衡变形平滑约束SD(f)和标签适应度约束R(f);令式(11)导数为0可得f=(fi)n的最优解:
Figure GDA0004007462310000045
其中:α=1/(1+μ1);β=μ2/(1+μ1);分别将上边界节点、下边界节点、左边界节点、右边界节点作为种子节点得到四个排序向量结果f(T),f(V),f(L),f(R),将四个传播结果结合起来生成粗图
Figure GDA0004007462310000046
Figure GDA0004007462310000047
其中:
Figure GDA0004007462310000048
是f归一化至[0,1]区间的向量;
虽然Mc中大部分显著性区域已被高亮,但仍受到来自背景噪声的影响;第二阶段,对上一阶段得到的显著图进行细化;首先,采用边界盒生成包含目标区域排除背景区域的目标图
Figure GDA0004007462310000049
Figure GDA0004007462310000051
其中:Rj为边界框Ωj的分数;δ是指示函数表示vi是否在边框内;B为边界盒生成的边框数量;结合Mc和Mo细化模型,细化结果g通过求解下式而来:
Figure GDA0004007462310000052
其中:
Figure GDA0004007462310000053
表示对角矩阵;Dc、vc分别是Mc的度矩阵和体积;
Figure GDA0004007462310000054
为在Mc上计算的新权值矩阵:
Figure GDA0004007462310000055
式(15)中:第一项
Figure GDA0004007462310000056
为变形平滑约束,保证显著性值连续,第二项||g-Mc||2为标签适应度约束,保证细化的结果g与粗图Mc相差不大,第三项gTDog是通过Mo构建的正则化约束,抑制不属于目标的背景区域,增强可能属于目标的区域;令式(14)导数为0得最优解g:
Figure GDA0004007462310000057
将最优解g归一化至[0,1]区间,赋值给对应的超像素,生成精细显著图Mr,即为最终可选择性的显著性检测的结果。
本发明在相机阵列选择性光场重聚焦的基础上进行显著性检测,相较于传统的显著性检测方法考虑了场景的深度和聚焦信息,对于某些区域颜色和背景颜色相近或背景复杂以及场景包含多个显著性目标的情况,检测结果得以改善。另外可以通过调整聚焦深度层,使场景中某些显著性区域以外值得关注的区域被检测出,包含多个显著性目标的场景中位于指定深度层的目标被更精细地被检测出,实现可选择的显著性检测。
附图说明
图1为基于相机阵列选择性光场重聚焦的显著性检测方法的流程图
具体实施方式
下面结合附图对本发明的目的、具体技术方法和效果进行描述。
1.一种基于相机阵列选择性光场重聚焦的显著性检测方法,包括下列步骤:
1.1获取视点图像数据集,选择Stanford光场数据集和4D光场数据集;
1.2视差估计,采用RGDP算法对相机阵列进行视差估计,得到视差图;
1.3超分辨率重建,建立摄像机阵列的退化模型:
yk=DHFi,kx+nk (1)
其中:yk表示第k个相机捕获的子图像;x表示高分辨率图像;nk表示间域附加噪声;D、H和Fi,k分别表示下采样、光学模糊和位移;超分辨率重建主要是估计x以适应退化模型,即最小化下列方程:
Figure GDA0004007462310000061
其中:第一项
Figure GDA0004007462310000062
表示观测值与理想高分辨率图像间的距离;wb是基于深度和空间变化的权重向量;⊙表示数量积运算符;Jb(x)为bokeh正则化项;JBTV(x)为双边总变异BTV正则化项;λb和λBTV为正则化系数;Jb(x)可表示为:
Figure GDA0004007462310000063
其中:xb为bokeh图像,由bokeh渲染生成;使用梯度下降法逼近最优解,步长和迭代次数均可设置;
1.4bokeh渲染,采用基于深度的各向异性滤波器对未聚焦区域进行渲染,通过调节其中参数可实现对场景中某一深度层进行聚焦,而对其他深度层产生不同程度的模糊;
假设p点没有被聚焦,其对应的混叠圆半径r为:
Figure GDA0004007462310000064
其中:γf和γp分别表示焦距深度和p点深度;f表示焦距;F为透镜的F数;深度γ可表示为γ=fB/d,其中B为基线长度,d为视差;那么公式(4)可表示为:
Figure GDA0004007462310000065
在bokeh渲染过程中f、F、B和df是固定不变的,那么p点的混叠圆半径r与p点和焦点之间的绝对视差成正比;将K=f/2F(B-df)作为bokeh渲染的强度,代表整体的bokeh程度,同时反映场景深度,K越大表示bokeh程度越强,景深越小;
假设Q点周围存在多个以Pi为中心的混叠圆,由于混叠圆中强度是均匀分布的,那么计算Pi对Q的贡献可通过
Figure GDA0004007462310000071
其中:
Figure GDA0004007462310000072
为Pi点bokeh渲染前的强度;
Figure GDA0004007462310000073
为以Pi为中心的混叠圆的半径;
Figure GDA0004007462310000074
为Pi与Q之间的距离;那么Q点强度可表示为:
Figure GDA0004007462310000075
其中:
Figure GDA0004007462310000076
表示Q点周围点的集合;rmax是图像中混叠圆半径的最大值;由于ΩQ中的某些点可能对Q点没有作用,所以将权值
Figure GDA0004007462310000077
定义为:
Figure GDA0004007462310000078
各向异性滤波器基于公式(6)、(7),使用双三次插值渲染中心视点图像生成bokehimage xb
另外还需要对步骤1.3中公式(2)、(3)中的wb进行计算,一幅图像的模糊程度由混叠圆半径决定,那么可通过以下两个步骤计算wb
第一步:通过ηP=(rP-rmin)/(rmax-rmin)将半径归一化至[0,1],rmin为图像中混叠圆半径的最小值;
第二步:将ηP分为focus和bokeh两部分,使用sigmoid函数将ηP转化为wP
wP=1/(1+exp{-a(ηP-b)}) (8)
其中:a为衰减因子;b为阈值;遍历所有像素点,重排序wP得到向量wb
1.5显著性检测,首先采用SLIC算法对重聚焦后的图像进行超像素分割;然后,构建图模型G=(V,E),其中V={v1,...,vn}为超像素点集,E=E1∪E2∪E3为边集,对其增加以下三条规则:
Figure GDA0004007462310000079
其中:
Figure GDA00040074623100000710
表示vi的直接空间邻居;B表示图像边缘处边框节点的集合;
Figure GDA00040074623100000711
表示vi在Lab Color Space的分簇,由APC算法计算而来;那么规则1连接了vi和其几何邻居以及邻居的邻居,规则2连接边界节点,规则3连接了vi和与其颜色相似的节点;定义边权值矩阵W=(wij)n×n表示图节点相似度,图节点vi与vj之间的权值项定义为:
Figure GDA0004007462310000081
其中:δ为控制权重强度的一个常数,第一项||ci-cj||表示vi与vj在Lab ColorSpace的欧式距离,第二项||sin(π|di-dj|)||表示在正弦空间下计算的几何距离;
接着分两个阶段生成并细化显著图,首先采用DSMR算法进行基于变形平滑的标签传播,DSMR算法的目标是计算一个排序向量f=(fi)n关于表示向量z=(zi)n,如果vi是种子节点,则zi=1,否则zi=0,可通过下式来计算:
Figure GDA0004007462310000082
其中:度矩阵
Figure GDA0004007462310000083
式(11)中第一项
Figure GDA0004007462310000084
为变形平滑约束,其中结合了标准平滑和局部平滑约束,表明相邻两节点的排序值不应该变化太大,μ2用于平衡两个光滑约束的权重,第二项R(f)=(f-D-1z)TD(f-D-1z)为标签适应度约束,保证种子节点的排序值与其初始值相差不大,μ1用于平衡变形平滑约束SD(f)和标签适应度约束R(f);令式(11)导数为0可得f=(fi)n的最优解:
Figure GDA0004007462310000085
其中:α=1/(1+μ1);β=μ2/(1+μ1);分别将上边界节点、下边界节点、左边界节点、右边界节点作为种子节点得到四个排序向量结果f(T),f(V),f(L),f(R),将四个传播结果结合起来生成粗图
Figure GDA0004007462310000086
Figure GDA0004007462310000087
其中:
Figure GDA0004007462310000088
是f归一化至[0,1]区间的向量;
虽然Mc中大部分显著性区域已被高亮,但仍受到来自背景噪声的影响;第二阶段,对上一阶段得到的显著图进行细化;首先,采用边界盒生成包含目标区域排除背景区域的目标图
Figure GDA0004007462310000091
Figure GDA0004007462310000092
其中:Rj为边界框Ωj的分数;δ是指示函数表示vi是否在边框内;B为边界盒生成的边框数量;结合Mc和Mo细化模型,细化结果g通过求解下式而来:
Figure GDA0004007462310000093
其中:
Figure GDA0004007462310000094
表示对角矩阵;Dc、vc分别是Mc的度矩阵和体积;
Figure GDA0004007462310000095
为在Mc上计算的新权值矩阵:
Figure GDA0004007462310000096
式(15)中:第一项
Figure GDA0004007462310000097
为变形平滑约束,保证显著性值连续,第二项||g-Mc||2为标签适应度约束,保证细化的结果g与粗图Mc相差不大,第三项gTDog是通过Mo构建的正则化约束,抑制不属于目标的背景区域,增强可能属于目标的区域;令式(14)导数为0得最优解g:
Figure GDA0004007462310000098
将最优解g归一化至[0,1]区间,赋值给对应的超像素,生成精细显著图Mr,即为最终可选择性的显著性检测的结果。

Claims (1)

1.一种基于相机阵列选择性光场重聚焦的显著性检测方法,其特征在于包括下列步骤:
1.1获取视点图像数据集,选择Stanford光场数据集和4D光场数据集;
1.2视差估计,采用RGDP算法对相机阵列进行视差估计,得到视差图;
1.3超分辨率重建,建立摄像机阵列的退化模型:
yk=DHFi,kx+nk (1)
其中:yk表示第k个相机捕获的子图像;x表示高分辨率图像;nk表示间域附加噪声;D、H和Fi,k分别表示下采样、光学模糊和位移;超分辨率重建主要是估计x以适应退化模型,即最小化下列方程:
Figure FDA0004007462300000011
其中:第一项
Figure FDA0004007462300000012
表示观测值与理想高分辨率图像间的距离;wb是基于深度和空间变化的权重向量;⊙表示数量积运算符;Jb(x)为bokeh正则化项;JBTV(x)为双边总变异BTV正则化项;λb和λBTV为正则化系数;Jb(x)可表示为:
Figure FDA0004007462300000013
其中:xb为bokeh图像,由bokeh渲染生成;使用梯度下降法逼近最优解,步长和迭代次数均可设置;
1.4bokeh渲染,采用基于深度的各向异性滤波器对未聚焦区域进行渲染,通过调节其中参数可实现对场景中某一深度层进行聚焦,而对其他深度层产生不同程度的模糊;
假设p点没有被聚焦,其对应的混叠圆半径r为:
Figure FDA0004007462300000014
其中:γf和γp分别表示焦距深度和p点深度;f表示焦距;F为透镜的F数;深度γ可表示为γ=fB/d,其中B为基线长度,d为视差;那么公式(4)可表示为:
Figure FDA0004007462300000015
在bokeh渲染过程中f、F、B和df是固定不变的,那么p点的混叠圆半径r与p点和焦点之间的绝对视差成正比;将K=f/2F(B-df)作为bokeh渲染的强度,代表整体的bokeh程度,同时反映场景深度,K越大表示bokeh程度越强,景深越小;
假设Q点周围存在多个以Pi为中心的混叠圆,由于混叠圆中强度是均匀分布的,那么计算Pi对Q的贡献可通过
Figure FDA0004007462300000021
其中
Figure FDA0004007462300000022
为Pi点bokeh渲染前的强度;
Figure FDA0004007462300000023
为以Pi为中心的混叠圆的半径;
Figure FDA0004007462300000024
为Pi与Q之间的距离;那么Q点强度可表示为:
Figure FDA0004007462300000025
其中:
Figure FDA0004007462300000029
表示Q点周围点的集合;rmax是图像中混叠圆半径的最大值;由于ΩQ中的某些点可能对Q点没有作用,所以将权值
Figure FDA0004007462300000026
定义为:
Figure FDA0004007462300000027
各向异性滤波器基于公式(6)、(7),使用双三次插值渲染中心视点图像生成bokehimage xb
另外还需要对步骤1.3中公式(2)、(3)中的wb进行计算,一幅图像的模糊程度由混叠圆半径决定,那么可通过以下两个步骤计算wb
第一步:通过ηP=(rP-rmin)/(rmax-rmin)将半径归一化至[0,1],rmin为图像中混叠圆半径的最小值;
第二步:将ηP分为focus和bokeh两部分,使用sigmoid函数将ηP转化为wP
wP=1/(1+exp{-a(ηP-b)}) (8)
其中:a为衰减因子;b为阈值;遍历所有像素点,重排序wP得到向量wb
1.5显著性检测,首先采用SLIC算法对重聚焦后的图像进行超像素分割;然后,构建图模型G=(V,E),其中V={v1,...,vn}为超像素点集,
Figure FDA00040074623000000210
为边集,对其增加以下三条规则:
Figure FDA0004007462300000028
其中:
Figure FDA0004007462300000031
表示vi的直接空间邻居;B表示图像边缘处边框节点的集合;
Figure FDA0004007462300000032
表示vi在LabColor Space的分簇,由APC算法计算而来;那么规则1连接了vi和其几何邻居以及邻居的邻居,规则2连接边界节点,规则3连接了vi和与其颜色相似的节点;定义边权值矩阵W=(wij)n×n表示图节点相似度,图节点vi与vj之间的权值项定义为:
Figure FDA0004007462300000033
其中:δ为控制权重强度的一个常数,第一项||ci-cj||表示vi与vj在Lab Color Space的欧式距离,第二项||sin(π|di-dj|)||表示在正弦空间下计算的几何距离;
接着分两个阶段生成并细化显著图,首先采用DSMR算法进行基于变形平滑的标签传播,DSMR算法的目标是关于表示向量z=(zi)n计算一个排序向量f=(fi)n,如果vi是种子节点,则zi=1,否则zi=0,可通过下式来计算:
Figure FDA0004007462300000034
其中:度矩阵
Figure FDA0004007462300000035
式(11)中第一项
Figure FDA0004007462300000036
为变形平滑约束,其中结合了标准平滑和局部平滑约束,表明相邻两节点的排序值不应该变化太大,μ2用于平衡两个光滑约束的权重,第二项R(f)=(f-D-1z)TD(f-D-1z)为标签适应度约束,保证种子节点的排序值与其初始值相差不大,μ1用于平衡变形平滑约束SD(f)和标签适应度约束R(f);令式(11)导数为0可得f=(fi)n的最优解:
Figure FDA0004007462300000037
其中:α=1/(1+μ1);β=μ2/(1+μ1);分别将上边界节点、下边界节点、左边界节点、右边界节点作为种子节点得到四个排序向量结果f(T),f(V),f(L),f(R),将四个传播结果结合起来生成粗图
Figure FDA0004007462300000038
Figure FDA0004007462300000039
其中:
Figure FDA0004007462300000041
是f归一化至[0,1]区间的向量;
虽然Mc中大部分显著性区域已被高亮,但仍受到来自背景噪声的影响;第二阶段,对上一阶段得到的显著图进行细化;首先,采用边界盒生成包含目标区域排除背景区域的目标图
Figure FDA0004007462300000042
Figure FDA0004007462300000043
其中:Rj为边界框Ωj的分数;δ是指示函数,表示vi是否在边框内;B为边界盒生成的边框数量;结合Mc和Mo细化模型,细化结果g通过求解下式而来:
Figure FDA0004007462300000044
其中:
Figure FDA0004007462300000045
表示对角矩阵;Dc、vc分别是Mc的度矩阵和体积;
Figure FDA0004007462300000046
为在Mc上计算的新权值矩阵:
Figure FDA0004007462300000047
式(15)中:第一项
Figure FDA0004007462300000048
为变形平滑约束,保证显著性值连续,第二项||g-Mc||2为标签适应度约束,保证细化的结果g与粗图Mc相差不大,第三项gTDog是通过Mo构建的正则化约束,抑制不属于目标的背景区域,增强可能属于目标的区域;令式(14)导数为0得最优解g:
Figure FDA0004007462300000049
将最优解g归一化至[0,1]区间,赋值给对应的超像素,生成精细显著图Mr,即为最终可选择性的显著性检测的结果。
CN202010787230.2A 2020-08-07 2020-08-07 一种基于相机阵列选择性光场重聚焦的显著性检测方法 Active CN111881925B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010787230.2A CN111881925B (zh) 2020-08-07 2020-08-07 一种基于相机阵列选择性光场重聚焦的显著性检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010787230.2A CN111881925B (zh) 2020-08-07 2020-08-07 一种基于相机阵列选择性光场重聚焦的显著性检测方法

Publications (2)

Publication Number Publication Date
CN111881925A CN111881925A (zh) 2020-11-03
CN111881925B true CN111881925B (zh) 2023-04-18

Family

ID=73210304

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010787230.2A Active CN111881925B (zh) 2020-08-07 2020-08-07 一种基于相机阵列选择性光场重聚焦的显著性检测方法

Country Status (1)

Country Link
CN (1) CN111881925B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113837947B (zh) * 2021-11-29 2022-05-20 南开大学 一种获得光学相干层析大焦深图像的处理方法
CN116437205B (zh) * 2023-06-02 2023-08-11 华中科技大学 一种多视点多焦距成像的景深拓展方法和系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110211115A (zh) * 2019-06-03 2019-09-06 大连理工大学 一种基于深度引导元胞自动机的光场显著性检测实现方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8649606B2 (en) * 2010-02-10 2014-02-11 California Institute Of Technology Methods and systems for generating saliency models through linear and/or nonlinear integration
CN104463949B (zh) * 2014-10-24 2018-02-06 郑州大学 一种基于光场数字重聚焦的快速三维重建方法及其系统
CN105701813A (zh) * 2016-01-11 2016-06-22 深圳市未来媒体技术研究院 一种光场图像的显著性检测方法
CN105913070B (zh) * 2016-04-29 2019-04-23 合肥工业大学 一种基于光场相机的多线索显著性提取方法
EP3331236A1 (en) * 2016-11-30 2018-06-06 Thomson Licensing Method for rendering a final image from initial images acquired by a camera array, corresponding device, computer program product and computer-readable carrier medium
CN106780476A (zh) * 2016-12-29 2017-05-31 杭州电子科技大学 一种基于人眼立体视觉特性的立体图像显著性检测方法
CN107945110A (zh) * 2017-11-17 2018-04-20 杨俊刚 一种针对光场阵列相机的盲深度超分辨率计算成像方法
CN108337434B (zh) * 2018-03-27 2020-05-22 中国人民解放军国防科技大学 一种针对光场阵列相机的焦外虚化重聚焦方法
CN110189294B (zh) * 2019-04-15 2021-05-07 杭州电子科技大学 基于深度可信度分析的rgb-d图像显著性检测方法
CN111145134B (zh) * 2019-12-24 2022-04-19 太原科技大学 基于块效应的微透镜光场相机全聚焦图像生成算法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110211115A (zh) * 2019-06-03 2019-09-06 大连理工大学 一种基于深度引导元胞自动机的光场显著性检测实现方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
面向集成成像光场视图的显著性检测技术研究;冯洁;《中国优秀硕士学位论文全文数据库 (信息科技辑)》;20220115(第1期);I138-2071 *

Also Published As

Publication number Publication date
CN111881925A (zh) 2020-11-03

Similar Documents

Publication Publication Date Title
Engin et al. Cycle-dehaze: Enhanced cyclegan for single image dehazing
Hu et al. Depth-attentional features for single-image rain removal
Tucker et al. Single-view view synthesis with multiplane images
Ren et al. Single image dehazing via multi-scale convolutional neural networks with holistic edges
Lim et al. DSLR: Deep stacked Laplacian restorer for low-light image enhancement
Gao et al. Dynamic view synthesis from dynamic monocular video
AU2017324923B2 (en) Predicting depth from image data using a statistical model
CN107818554B (zh) 信息处理设备和信息处理方法
JP5645842B2 (ja) スケールスペースを使用した画像処理装置及び方法
Hu et al. Single-image real-time rain removal based on depth-guided non-local features
CN111931787A (zh) 一种基于特征聚合的rgbd显著性检测方法
CN110381268B (zh) 生成视频的方法,装置,存储介质及电子设备
Várkonyi-Kóczy et al. Gradient-based synthesized multiple exposure time color HDR image
CN111881925B (zh) 一种基于相机阵列选择性光场重聚焦的显著性检测方法
Zhang et al. Micro-lens-based matching for scene recovery in lenslet cameras
Ruan et al. Aifnet: All-in-focus image restoration network using a light field-based dataset
Jin et al. Occlusion-aware unsupervised learning of depth from 4-d light fields
Yan et al. Robust artifact-free high dynamic range imaging of dynamic scenes
Liu et al. High-speed video generation with an event camera
US20230394834A1 (en) Method, system and computer readable media for object detection coverage estimation
Sahu et al. Trends and prospects of techniques for haze removal from degraded images: A survey
Wu et al. Single-image shadow removal using detail extraction and illumination estimation
Ma et al. STSRNet: Self-texture transfer super-resolution and refocusing network
Lee et al. Optimizing image focus for 3D shape recovery through genetic algorithm
Liu et al. A contextual conditional random field network for monocular depth estimation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant