CN114387327B - 基于深度学习视差预测的合成孔径聚焦成像方法 - Google Patents
基于深度学习视差预测的合成孔径聚焦成像方法 Download PDFInfo
- Publication number
- CN114387327B CN114387327B CN202111569935.8A CN202111569935A CN114387327B CN 114387327 B CN114387327 B CN 114387327B CN 202111569935 A CN202111569935 A CN 202111569935A CN 114387327 B CN114387327 B CN 114387327B
- Authority
- CN
- China
- Prior art keywords
- parallax
- image
- depth
- submodule
- level
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 30
- 238000013135 deep learning Methods 0.000 title claims abstract description 22
- 238000000034 method Methods 0.000 claims abstract description 47
- 238000004220 aggregation Methods 0.000 claims description 22
- 230000002776 aggregation Effects 0.000 claims description 22
- 238000000605 extraction Methods 0.000 claims description 12
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 230000007797 corrosion Effects 0.000 claims description 7
- 238000005260 corrosion Methods 0.000 claims description 7
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000010276 construction Methods 0.000 claims description 5
- 238000001727 in vivo Methods 0.000 claims description 4
- 238000011176 pooling Methods 0.000 claims description 3
- 238000003825 pressing Methods 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 abstract description 7
- 230000000877 morphologic effect Effects 0.000 abstract description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000004904 shortening Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
- G01S13/90—Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
- G01S13/90—Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
- G01S13/9004—SAR image acquisition techniques
- G01S13/9019—Auto-focussing of the SAR signals
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
- G01S13/90—Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
- G01S13/904—SAR modes
- G01S13/9052—Spotlight mode
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
- G06T5/30—Erosion or dilatation, e.g. thinning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
一种基于深度学习视差预测的合成孔径聚焦成像方法,由获取相机参数、预测场景视差图、确定待聚焦目标的深度、生成聚焦在深度L的合成孔径图像步骤组成。本发明以相机阵列采集的一组图像为输入,采用视差估计方法估计出这一组输入图像中参考图像的视差图,用聚类方法自动识别所在的区域并使用形态学处理,对聚类后的图像进行优化,根据视差与深度的关系得到感兴趣目标所在的深度,采用合成孔径成像的方法,快速地聚焦到目标;在获取感兴趣目标的三维信息,快速地聚焦目标,提高了运算速度、缩短了计算时间、降低了合成孔径聚焦的成本。本发明具有成像次数少、运算速度快、计算时间短、成本低等优点,可在合成孔径成像中推广应用。
Description
技术领域
本发明属于计算机视觉与图像处理技术领域,涉及合成孔径成像聚焦方法。
背景技术
合成孔径成像聚焦技术是计算机视觉与图形图像处理领域用于模拟人类视觉系统感知外界信息,能有效去除遮挡物并聚焦到被遮挡目标的一种方法。已有的深度学习的合成孔径聚焦方法,在训练时用于判断合成孔径图像聚焦可能性的卷积神经网络后,将该卷积神经网络用于计算场景中预设定深度范围下的每张合成孔径图像聚焦的可能性,从而选择出最优的聚焦平面并实现感兴趣目标的自动聚焦。但该方法中,为了将场景中所有可能的目标都考虑在内,深度范围的上限须足够大。在不遗漏场景重要目标的条件下,使得合成孔径成像的次数显著增加,从而导致实现该个方法的时间延长,成本显著增加。
发明内容
本发明所要解决的技术问题在于克服上述现有技术的缺陷,提供一种合成孔径成像的次数较少、运算速度快、计算时间短、成本低的基于深度学习视差预测的合成孔径聚焦成像方法。
解决上述技术问题所采用的技术方案是由下述步骤组成:
(1)获取相机参数
将黑白方格相间的棋盘格标定板放于场景中的不同深度,使用阵列相机依次采集位于不同深度的标定板图像,其中阵列相机的子相机个数为N,N取值为有限的正整数,采集同一场景不同方向的图像集,提取图像集中特征点所对应的世界坐标和像素坐标,用阵列相机标定方法对相机进行标定,得到相机参数Hr,i,其中r表示参考图像,i表示除参考图像外的其它图像。
(2)预测场景视差图
采用视差生成神经网络预测场景视差图。
视差生成神经网络由块匹配模块、体内特征聚合模块、体间特征聚合模块依次串联构成,视差生成神经网络的构建方法如下:
1)构建块匹配网络
用多目立体视觉方法将参考图像与位于平面扫描体中的每个视差平面上的图像相匹配构建成块匹配网络。
2)构建体内特征聚合模块
体内特征聚合模块由编码器、注意力模块、解码器组成,编码器与解码器通过注意力模块连接构成。
3)构建体间特征聚合网络
体间特征聚合网络由两个卷积核为3、步长为1的卷积层串联构成。
4)生成场景视差图
按下式确定场景视差图F:
其中,P表示视差概率体,Y表示深度域。
(3)确定待聚焦目标的深度
随机指定阵列相机中一个相机为参考相机,将阵列相机采集一组图像通过多目立体视觉的深度学习方法得到场景视差图,按下式得聚类结果图IC:
IC=Clu(F)
其中C是参数、为有限的正整数,用膨胀方法、腐蚀形态学方法去除聚类结果图中的噪声,平均目标区域的像素,按下式确定待聚焦目标的深度L:
其中,Do为参考目标o的视差,Lo为参考目标的深度,D为待聚焦目标的视差。
(4)生成聚焦在深度L的合成孔径图像
按下式将相机阵列采集的第i张图像Ii投影到参考相机视角下,得到投影图像Ir,i:
Ir,i=Hr,i×Ii
其中,Ii表示第i张图像,Hr,i表示第i张其它图像到参考图像r的单应性矩阵。
按下式确定投影图像Ir,i平移的视差ΔD:
其中ΔX表示相机阵列中各相机的位置关系,以待聚焦目标的深度为聚焦深度,Lt表示参考平面t所在深度,Lt取值为有限的正整数。
将投影图像Ir,i变换在深度L处,按下式确定聚焦在深度L的合成孔径图像SL:
式中E是单位矩阵,θ表示零向量,N取值为有限的正整数。
完成基于深度学习视差预测的快速合成孔径聚焦成像方法。
在本发明的(2)预测场景视差图的2)构建体内特征聚合模块步骤中,所述的编码器由第一级、第二级、…、第六级编码子模块串联构成,每一级编码子模块由两层编码卷积层串联构成,编码器每级输出如下式所示:
其中,conv()表示编码卷积层。
本发明的编码子模块为:第一级编码子模块的两层编码卷积层的卷积核k为5,步长s为1;第二级编码子模块的两层编码卷积层的卷积核k均为5,步长s分别为2、1;其它级编码子模块的两层编码卷积层的卷积核k为3,步长s分别为2、1。
在在本发明的(2)预测场景视差图的2)构建体内特征聚合模块步骤中,所述的解码器由5级解码子模块串联构成,第一级解码子模块的输入通过注意力网络与第五级编码子模块的输出相连,第二级解码子模块的输入通过注意力网络与第四级编码子模块的输出相连,第三级解码子模块的输入通过注意力网络与第三级编码子模块的输出相连、通过上下文提取模块与VGG网络的输出相连,第四级解码子模块的输入通过注意力网络与第二级编码子模块的输出相连、通过上下文提取模块与VGG网络的输出相连,第五级解码子模块的输入通过注意力网络与第一级编码子模块的输出相连、通过上下文提取模块与VGG网络的输出相连;第二级、第三级、第四级解码子模块的输出分别通过解码卷积层与第三级、第四级、第五级解码子模块的输入相连;每一级解码子模块的输出如下式所示:
其中,U()、U'()表示上采样,C()表示包含了四级池化的上下文特征提取,A()表示注意力。
本发明的解码子模块由两层解码卷积层串联构成,每层解码卷积层的卷积核大小为3,步长s为1。
在本发明的(3)确定待聚焦目标的深度中,随机指定阵列相机中一个相机为参考相机,将阵列相机采集一组图像通过多目立体视觉的深度学习方法得到场景视差图,按下式确定聚类结果图IC:
IC=Clu(F)
其中F表示视差图,C是参数、C取值为2~10,用膨胀方法、腐蚀形态学方法去除聚类结果图中的噪声,平均目标区域的像素,按下式得到待聚焦目标的深度L:
本发明以相机阵列采集的一组图像为输入,采用视差估计方法估计出输入图像中参考图像的视差图,用聚类方法自动识别出感兴趣目标所在的区域并使用形态学处理,对聚类后的图像进行优化,根据视差与深度的关系以及感兴趣目标的位置,得到感兴趣目标所在的深度,采用合成孔径成像的方法,直接快速地聚焦到目标。本发明在获取感兴趣目标的三维信息,能快速地聚焦到这些目标,提高了运算速度、缩短了计算时间、降低了合成孔径聚焦的成本。本发明具有成像次数少、运算速度快、计算时间短、成本低等优点,可在合成孔径成像中推广应用。
附图说明
图1是本发明实施例1的流程图。
具体实施方式
下面结合附图和实施例对本发明进一步说明,但本发明不限于下述的实施方式。
实施例1
本实施例的基于深度学习视差预测的合成孔径聚焦成像方法由下述步骤组成(参见图1):
(1)获取相机参数
将黑白方格相间的棋盘格标定板放于场景中的不同深度,使用阵列相机依次采集位于不同深度的标定板图像,其中阵列相机的子相机个数为N,N取值为有限的正整数,采集同一场景不同方向的图像集,提取图像集中特征点所对应的世界坐标和像素坐标,用阵列相机标定方法对相机进行标定,得到相机参数Hr,i,其中r表示参考图像,i表示除参考图像外的其它图像。
(2)预测场景视差图
采用视差生成神经网络预测场景视差图。
视差生成神经网络由块匹配模块、体内特征聚合模块、体间特征聚合模块依次串联构成,视差生成神经网络的构建方法如下:
1)构建块匹配网络
用多目立体视觉方法将参考图像与位于平面扫描体中的每个视差平面上的图像相匹配构建成块匹配网络。
2)构建体内特征聚合模块
体内特征聚合模块由编码器、注意力模块、解码器组成,编码器与解码器通过注意力模块连接构成。
本实施例的编码器由第一级、第二级、…、第六级编码子模块串联构成,每一级编码子模块由两层编码卷积层串联构成,编码器每级输出如下式所示:
其中,conv()表示编码卷积层。
本实施例的编码子模块为:第一级编码子模块的两层编码卷积层的卷积核k为5,步长s为1;第二级编码子模块的两层编码卷积层的卷积核k均为5,步长s分别为2、1;其它级编码子模块的两层编码卷积层的卷积核k为3,步长s分别为2、1。
本实施例的解码器由5级解码子模块串联构成,第一级解码子模块的输入通过注意力网络与第五级编码子模块的输出相连,第二级解码子模块的输入通过注意力网络与第四级编码子模块的输出相连,第三级解码子模块的输入通过注意力网络与第三级编码子模块的输出相连、通过上下文提取模块与VGG网络的输出相连,第四级解码子模块的输入通过注意力网络与第二级编码子模块的输出相连、通过上下文提取模块与VGG网络的输出相连,第五级解码子模块的输入通过注意力网络与第一级编码子模块的输出相连、通过上下文提取模块与VGG网络的输出相连;第二级、第三级、第四级解码子模块的输出分别通过解码卷积层与第三级、第四级、第五级解码子模块的输入相连;每一级解码子模块的输出如下式所示:
其中,U()、U'()表示上采样,C()表示包含了四级池化的上下文特征提取,A()表示注意力。
本实施例的解码子模块由两层解码卷积层串联构成,每层解码卷积层的卷积核大小为3,步长s为1。
3)构建体间特征聚合网络
体间特征聚合网络由两个卷积核为3、步长为1的卷积层串联构成。
4)生成场景视差图
按下式确定场景视差图F:
其中,P表示视差概率体,Y表示深度域。
(3)确定待聚焦目标的深度
随机指定阵列相机中一个相机为参考相机,将阵列相机采集一组图像通过多目立体视觉的深度学习方法得到场景视差图,按下式得聚类结果图IC:
IC=Clu(F)
其中F表示视差图,C是参数、为有限的正整数,本实施例的C取值为5,用膨胀方法、腐蚀形态学方法去除聚类结果图中的噪声,平均目标区域的像素,按下式确定待聚焦目标的深度L:
其中,Do为参考目标o的视差,Lo为参考目标的深度,D为待聚焦目标的视差。
(4)生成聚焦在深度L的合成孔径图像
按下式将相机阵列采集的第i张图像Ii投影到参考相机视角下,得到投影图像Ir,i:
Ir,i=Hr,i×Ii
其中,Ii表示第i张图像,Hr,i表示第i张其它图像到参考图像r的单应性矩阵;
按下式确定投影图像Ir,i平移的视差ΔD:
其中ΔX表示相机阵列中各相机的位置关系,以待聚焦目标的深度为聚焦深度,Lt表示参考平面t所在深度,Lt取值为有限的正整数:
将投影图像Ir,i变换在深度L处,按下式确定聚焦在深度L的合成孔径图像SL:
式中E是单位矩阵,θ表示零向量,N取值为有限的正整数。
完成基于深度学习视差预测的合成孔径聚焦成像方法。
本发明以相机阵列采集的一组图像为输入,采用视差估计方法估计出输入图像中参考图像的视差图,用聚类方法自动识别出感兴趣目标所在的区域并使用形态学处理,对聚类后的图像进行优化,根据视差与深度的关系以及感兴趣目标的位置,得到感兴趣目标所在的深度,采用合成孔径成像的方法,直接快速地聚焦到目标。本发明在获取感兴趣目标的三维信息,能快速地聚焦到这些目标,提高了运算速度、缩短了计算时间、降低了合成孔径聚焦的成本。本发明具有成像次数少、运算速度快、计算时间短、成本低等优点。
实施例2
本实施例的基于深度学习视差预测的合成孔径聚焦成像方法由下述步骤组成:
(1)获取相机参数
该步骤与实施例1相同。
(2)预测场景视差图
该步骤与实施例1相同。
(3)确定待聚焦目标的深度
随机指定阵列相机中一个相机为参考相机,将阵列相机采集一组图像通过多目立体视觉的深度学习方法得到场景视差图,按下式得聚类结果图IC:
IC=Clu(F)
其中F表示视差图,C是参数、为有限的正整数,本实施例的C取值为2,用膨胀方法、腐蚀形态学方法去除聚类结果图中的噪声,平均目标区域的像素,按下式确定待聚焦目标的深度L:
其中,Do为参考目标o的视差,Lo为参考目标的深度,D为待聚焦目标的视差。
其它步骤与实施例1相同。
完成基于深度学习视差预测的合成孔径聚焦成像方法。
实施例3
本实施例的基于深度学习视差预测的合成孔径聚焦成像方法由下述步骤组成:
(1)获取相机参数
该步骤与实施例1相同。
(2)预测场景视差图
该步骤与实施例1相同。
(3)确定待聚焦目标的深度
随机指定阵列相机中一个相机为参考相机,将阵列相机采集一组图像通过多目立体视觉的深度学习方法得到场景视差图,按下式得聚类结果图IC:
IC=Clu(F)
其中F表示视差图,C是参数、为有限的正整数,本实施例的C取值为10,用膨胀方法、腐蚀形态学方法去除聚类结果图中的噪声,平均目标区域的像素,按下式确定待聚焦目标的深度L:
其中,Do为参考目标o的视差,Lo为参考目标的深度,D为待聚焦目标的视差。
其它步骤与实施例1相同。
完成基于深度学习视差预测的合成孔径聚焦成像方法。
Claims (6)
1.一种基于深度学习视差预测的合成孔径聚焦成像方法,其特征在于由下述步骤组成:
(1)获取相机参数
将黑白方格相间的棋盘格标定板放于场景中的不同深度,使用阵列相机依次采集位于不同深度的标定板图像,其中阵列相机的子相机个数为N,N取值为有限的正整数,采集同一场景不同方向的图像集,提取图像集中特征点所对应的世界坐标和像素坐标,用阵列相机标定方法对相机进行标定,得到相机参数Hr,i,其中r表示参考图像,i表示除参考图像外的其它图像;
(2)预测场景视差图
采用视差生成神经网络预测场景视差图;
视差生成神经网络由块匹配模块、体内特征聚合模块、体间特征聚合模块依次串联构成,视差生成神经网络的构建方法如下:
1)构建块匹配网络
用多目立体视觉方法将参考图像与位于平面扫描体中的每个视差平面上的图像相匹配构建成块匹配网络;
2)构建体内特征聚合模块
体内特征聚合模块由编码器、注意力模块、解码器组成,编码器与解码器通过注意力模块连接构成;
3)构建体间特征聚合网络
体间特征聚合网络由两个卷积核为3、步长为1的卷积层串联构成;
4)生成场景视差图
按下式确定场景视差图F:
其中,P表示视差概率体,Y表示深度域;
(3)确定待聚焦目标的深度
随机指定阵列相机中一个相机为参考相机,将阵列相机采集一组图像通过多目立体视觉的深度学习方法得到场景视差图,按下式得聚类结果图IC:
IC=Clu(F)
其中C是参数、为有限的正整数,用膨胀方法、腐蚀形态学方法去除聚类结果图中的噪声,平均目标区域的像素,按下式确定待聚焦目标的深度L:
其中,Do为参考目标o的视差,Lo为参考目标的深度,D为待聚焦目标的视差;
(4)生成聚焦在深度L的合成孔径图像
按下式将相机阵列采集的第i张图像Ii投影到参考相机视角下,得到投影图像Ir,i:
Ir,i=Hr,i×Ii
其中,Ii表示第i张图像,Hr,i表示第i张其它图像到参考图像r的单应性矩阵;
按下式确定投影图像Ir,i平移的视差ΔD:
其中ΔX表示相机阵列中各相机的位置关系,以待聚焦目标的深度为聚焦深度,Lt表示参考平面t所在深度,Lt取值为有限的正整数;
将投影图像Ir,i变换在深度L处,按下式确定聚焦在深度L的合成孔径图像SL:
式中E是单位矩阵,θ表示零向量,N取值为有限的正整数;
完成基于深度学习视差预测的快速合成孔径聚焦成像方法。
2.根据权利要求1所述的基于深度学习视差预测的合成孔径聚焦成像方法,其特征在于:在(2)预测场景视差图的2)构建体内特征聚合模块步骤中,所述的编码器由第一级、第二级、…、第六级编码子模块串联构成,每一级编码子模块由两层编码卷积层串联构成,编码器每级输出如下式所示:
其中,conv()表示编码卷积层。
3.根据权利要求2所述的基于深度学习视差预测的合成孔径聚焦成像方法,其特征在于所述的编码子模块为:第一级编码子模块的两层编码卷积层的卷积核k为5,步长s为1;第二级编码子模块的两层编码卷积层的卷积核k均为5,步长s分别为2、1;其它级编码子模块的两层编码卷积层的卷积核k为3,步长s分别为2、1。
4.根据权利要求1所述的基于深度学习视差预测的合成孔径聚焦成像方法,其特征在于:在(2)预测场景视差图的2)构建体内特征聚合模块步骤中,所述的解码器由5级解码子模块串联构成,第一级解码子模块的输入通过注意力网络与第五级编码子模块的输出相连,第二级解码子模块的输入通过注意力网络与第四级编码子模块的输出相连,第三级解码子模块的输入通过注意力网络与第三级编码子模块的输出相连、通过上下文提取模块与VGG网络的输出相连,第四级解码子模块的输入通过注意力网络与第二级编码子模块的输出相连、通过上下文提取模块与VGG网络的输出相连,第五级解码子模块的输入通过注意力网络与第一级编码子模块的输出相连、通过上下文提取模块与VGG网络的输出相连;第二级、第三级、第四级解码子模块的输出分别通过解码卷积层与第三级、第四级、第五级解码子模块的输入相连;每一级解码子模块的输出如下式所示:
其中,U()、U'()表示上采样,C()表示包含了四级池化的上下文特征提取,A()表示注意力。
5.根据权利要求4所述的基于深度学习视差预测的合成孔径聚焦成像方法,其特征在于:所述的解码子模块由两层解码卷积层串联构成,每层解码卷积层的卷积核大小为3,步长s为1。
6.根据权利要求1所述的基于深度学习视差预测的合成孔径聚焦成像方法,其特征在于:
在(3)确定待聚焦目标的深度中,随机指定阵列相机中一个相机为参考相机,将阵列相机采集一组图像通过多目立体视觉的深度学习方法得到场景视差图,按下式确定聚类结果图IC:
IC=Clu(F)
其中F表示视差图,C是参数、C取值为2~10,用膨胀方法、腐蚀形态学方法去除聚类结果图中的噪声,平均目标区域的像素,按下式得到待聚焦目标的深度L:
。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111569935.8A CN114387327B (zh) | 2021-12-21 | 2021-12-21 | 基于深度学习视差预测的合成孔径聚焦成像方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111569935.8A CN114387327B (zh) | 2021-12-21 | 2021-12-21 | 基于深度学习视差预测的合成孔径聚焦成像方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114387327A CN114387327A (zh) | 2022-04-22 |
CN114387327B true CN114387327B (zh) | 2024-03-12 |
Family
ID=81198838
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111569935.8A Active CN114387327B (zh) | 2021-12-21 | 2021-12-21 | 基于深度学习视差预测的合成孔径聚焦成像方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114387327B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117880630B (zh) * | 2024-03-13 | 2024-06-07 | 杭州星犀科技有限公司 | 对焦深度获取方法、对焦深度获取系统及终端 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103426170A (zh) * | 2013-07-29 | 2013-12-04 | 西北工业大学 | 基于非结构光场合成孔径成像的隐藏目标成像方法 |
CN108427961A (zh) * | 2018-02-11 | 2018-08-21 | 陕西师范大学 | 基于卷积神经网络的合成孔径聚焦成像深度评估方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10931956B2 (en) * | 2018-04-12 | 2021-02-23 | Ostendo Technologies, Inc. | Methods for MR-DIBR disparity map merging and disparity threshold determination |
-
2021
- 2021-12-21 CN CN202111569935.8A patent/CN114387327B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103426170A (zh) * | 2013-07-29 | 2013-12-04 | 西北工业大学 | 基于非结构光场合成孔径成像的隐藏目标成像方法 |
CN108427961A (zh) * | 2018-02-11 | 2018-08-21 | 陕西师范大学 | 基于卷积神经网络的合成孔径聚焦成像深度评估方法 |
Non-Patent Citations (1)
Title |
---|
基于双目视觉感兴趣区域的行人检测;应光林;;信息通信;20180315(03);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN114387327A (zh) | 2022-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110222787B (zh) | 多尺度目标检测方法、装置、计算机设备及存储介质 | |
CN110084757B (zh) | 一种基于生成对抗网络的红外深度图像增强方法 | |
CN101883291B (zh) | 感兴趣区域增强的视点绘制方法 | |
CN111259945B (zh) | 引入注意力图谱的双目视差估计方法 | |
US20180231871A1 (en) | Depth estimation method for monocular image based on multi-scale CNN and continuous CRF | |
CN113870335B (zh) | 一种基于多尺度特征融合的单目深度估计方法 | |
CN112734915A (zh) | 一种基于深度学习的多视角立体视觉三维场景重建方法 | |
CN105894574A (zh) | 一种双目三维重建方法 | |
CN103996202A (zh) | 一种基于混合匹配代价和自适应窗口的立体匹配方法 | |
WO2018147059A1 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
CN115063303B (zh) | 一种基于图像修复的图像3d化方法 | |
CN115937819A (zh) | 基于多模态融合的三维目标检测方法及系统 | |
CN109949354B (zh) | 一种基于全卷积神经网络的光场深度信息估计方法 | |
CN114119424B (zh) | 一种基于光流法和多视角场景的视频修复方法 | |
CN113705796B (zh) | 基于epi特征强化的光场深度获取卷积神经网络 | |
CN114387327B (zh) | 基于深度学习视差预测的合成孔径聚焦成像方法 | |
CN110136048B (zh) | 一种图像配准方法及系统、存储介质及终端 | |
CN115330935A (zh) | 一种基于深度学习的三维重建方法及系统 | |
CN110766732A (zh) | 一种鲁棒的单相机深度图估计方法 | |
CN110766609A (zh) | 一种针对ToF相机的景深图超分辨率重建方法 | |
CN112950698B (zh) | 基于双目散焦图像的深度估计方法、装置、介质和设备 | |
CN111630569A (zh) | 双目匹配的方法、视觉成像装置及具有存储功能的装置 | |
CN114693951A (zh) | 一种基于全局上下文信息探索的rgb-d显著性目标检测方法 | |
CN115514877A (zh) | 用于从多视角图像降噪的装置和方法 | |
CN114119704A (zh) | 一种基于空间金字塔池化的光场图像深度估计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |