CN114387327B - 基于深度学习视差预测的合成孔径聚焦成像方法 - Google Patents

基于深度学习视差预测的合成孔径聚焦成像方法 Download PDF

Info

Publication number
CN114387327B
CN114387327B CN202111569935.8A CN202111569935A CN114387327B CN 114387327 B CN114387327 B CN 114387327B CN 202111569935 A CN202111569935 A CN 202111569935A CN 114387327 B CN114387327 B CN 114387327B
Authority
CN
China
Prior art keywords
parallax
image
depth
submodule
level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111569935.8A
Other languages
English (en)
Other versions
CN114387327A (zh
Inventor
裴炤
苟元帅
张艳宁
王淼
马苗
唐明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shaanxi Normal University
Original Assignee
Shaanxi Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shaanxi Normal University filed Critical Shaanxi Normal University
Priority to CN202111569935.8A priority Critical patent/CN114387327B/zh
Publication of CN114387327A publication Critical patent/CN114387327A/zh
Application granted granted Critical
Publication of CN114387327B publication Critical patent/CN114387327B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/9004SAR image acquisition techniques
    • G01S13/9019Auto-focussing of the SAR signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/904SAR modes
    • G01S13/9052Spotlight mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • G06T5/30Erosion or dilatation, e.g. thinning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

一种基于深度学习视差预测的合成孔径聚焦成像方法,由获取相机参数、预测场景视差图、确定待聚焦目标的深度、生成聚焦在深度L的合成孔径图像步骤组成。本发明以相机阵列采集的一组图像为输入,采用视差估计方法估计出这一组输入图像中参考图像的视差图,用聚类方法自动识别所在的区域并使用形态学处理,对聚类后的图像进行优化,根据视差与深度的关系得到感兴趣目标所在的深度,采用合成孔径成像的方法,快速地聚焦到目标;在获取感兴趣目标的三维信息,快速地聚焦目标,提高了运算速度、缩短了计算时间、降低了合成孔径聚焦的成本。本发明具有成像次数少、运算速度快、计算时间短、成本低等优点,可在合成孔径成像中推广应用。

Description

基于深度学习视差预测的合成孔径聚焦成像方法
技术领域
本发明属于计算机视觉与图像处理技术领域,涉及合成孔径成像聚焦方法。
背景技术
合成孔径成像聚焦技术是计算机视觉与图形图像处理领域用于模拟人类视觉系统感知外界信息,能有效去除遮挡物并聚焦到被遮挡目标的一种方法。已有的深度学习的合成孔径聚焦方法,在训练时用于判断合成孔径图像聚焦可能性的卷积神经网络后,将该卷积神经网络用于计算场景中预设定深度范围下的每张合成孔径图像聚焦的可能性,从而选择出最优的聚焦平面并实现感兴趣目标的自动聚焦。但该方法中,为了将场景中所有可能的目标都考虑在内,深度范围的上限须足够大。在不遗漏场景重要目标的条件下,使得合成孔径成像的次数显著增加,从而导致实现该个方法的时间延长,成本显著增加。
发明内容
本发明所要解决的技术问题在于克服上述现有技术的缺陷,提供一种合成孔径成像的次数较少、运算速度快、计算时间短、成本低的基于深度学习视差预测的合成孔径聚焦成像方法。
解决上述技术问题所采用的技术方案是由下述步骤组成:
(1)获取相机参数
将黑白方格相间的棋盘格标定板放于场景中的不同深度,使用阵列相机依次采集位于不同深度的标定板图像,其中阵列相机的子相机个数为N,N取值为有限的正整数,采集同一场景不同方向的图像集,提取图像集中特征点所对应的世界坐标和像素坐标,用阵列相机标定方法对相机进行标定,得到相机参数Hr,i,其中r表示参考图像,i表示除参考图像外的其它图像。
(2)预测场景视差图
采用视差生成神经网络预测场景视差图。
视差生成神经网络由块匹配模块、体内特征聚合模块、体间特征聚合模块依次串联构成,视差生成神经网络的构建方法如下:
1)构建块匹配网络
用多目立体视觉方法将参考图像与位于平面扫描体中的每个视差平面上的图像相匹配构建成块匹配网络。
2)构建体内特征聚合模块
体内特征聚合模块由编码器、注意力模块、解码器组成,编码器与解码器通过注意力模块连接构成。
3)构建体间特征聚合网络
体间特征聚合网络由两个卷积核为3、步长为1的卷积层串联构成。
4)生成场景视差图
按下式确定场景视差图F:
其中,P表示视差概率体,Y表示深度域。
(3)确定待聚焦目标的深度
随机指定阵列相机中一个相机为参考相机,将阵列相机采集一组图像通过多目立体视觉的深度学习方法得到场景视差图,按下式得聚类结果图IC
IC=Clu(F)
其中C是参数、为有限的正整数,用膨胀方法、腐蚀形态学方法去除聚类结果图中的噪声,平均目标区域的像素,按下式确定待聚焦目标的深度L:
其中,Do为参考目标o的视差,Lo为参考目标的深度,D为待聚焦目标的视差。
(4)生成聚焦在深度L的合成孔径图像
按下式将相机阵列采集的第i张图像Ii投影到参考相机视角下,得到投影图像Ir,i
Ir,i=Hr,i×Ii
其中,Ii表示第i张图像,Hr,i表示第i张其它图像到参考图像r的单应性矩阵。
按下式确定投影图像Ir,i平移的视差ΔD:
其中ΔX表示相机阵列中各相机的位置关系,以待聚焦目标的深度为聚焦深度,Lt表示参考平面t所在深度,Lt取值为有限的正整数。
将投影图像Ir,i变换在深度L处,按下式确定聚焦在深度L的合成孔径图像SL
式中E是单位矩阵,θ表示零向量,N取值为有限的正整数。
完成基于深度学习视差预测的快速合成孔径聚焦成像方法。
在本发明的(2)预测场景视差图的2)构建体内特征聚合模块步骤中,所述的编码器由第一级、第二级、…、第六级编码子模块串联构成,每一级编码子模块由两层编码卷积层串联构成,编码器每级输出如下式所示:
其中,conv()表示编码卷积层。
本发明的编码子模块为:第一级编码子模块的两层编码卷积层的卷积核k为5,步长s为1;第二级编码子模块的两层编码卷积层的卷积核k均为5,步长s分别为2、1;其它级编码子模块的两层编码卷积层的卷积核k为3,步长s分别为2、1。
在在本发明的(2)预测场景视差图的2)构建体内特征聚合模块步骤中,所述的解码器由5级解码子模块串联构成,第一级解码子模块的输入通过注意力网络与第五级编码子模块的输出相连,第二级解码子模块的输入通过注意力网络与第四级编码子模块的输出相连,第三级解码子模块的输入通过注意力网络与第三级编码子模块的输出相连、通过上下文提取模块与VGG网络的输出相连,第四级解码子模块的输入通过注意力网络与第二级编码子模块的输出相连、通过上下文提取模块与VGG网络的输出相连,第五级解码子模块的输入通过注意力网络与第一级编码子模块的输出相连、通过上下文提取模块与VGG网络的输出相连;第二级、第三级、第四级解码子模块的输出分别通过解码卷积层与第三级、第四级、第五级解码子模块的输入相连;每一级解码子模块的输出如下式所示:
其中,U()、U'()表示上采样,C()表示包含了四级池化的上下文特征提取,A()表示注意力。
本发明的解码子模块由两层解码卷积层串联构成,每层解码卷积层的卷积核大小为3,步长s为1。
在本发明的(3)确定待聚焦目标的深度中,随机指定阵列相机中一个相机为参考相机,将阵列相机采集一组图像通过多目立体视觉的深度学习方法得到场景视差图,按下式确定聚类结果图IC
IC=Clu(F)
其中F表示视差图,C是参数、C取值为2~10,用膨胀方法、腐蚀形态学方法去除聚类结果图中的噪声,平均目标区域的像素,按下式得到待聚焦目标的深度L:
本发明以相机阵列采集的一组图像为输入,采用视差估计方法估计出输入图像中参考图像的视差图,用聚类方法自动识别出感兴趣目标所在的区域并使用形态学处理,对聚类后的图像进行优化,根据视差与深度的关系以及感兴趣目标的位置,得到感兴趣目标所在的深度,采用合成孔径成像的方法,直接快速地聚焦到目标。本发明在获取感兴趣目标的三维信息,能快速地聚焦到这些目标,提高了运算速度、缩短了计算时间、降低了合成孔径聚焦的成本。本发明具有成像次数少、运算速度快、计算时间短、成本低等优点,可在合成孔径成像中推广应用。
附图说明
图1是本发明实施例1的流程图。
具体实施方式
下面结合附图和实施例对本发明进一步说明,但本发明不限于下述的实施方式。
实施例1
本实施例的基于深度学习视差预测的合成孔径聚焦成像方法由下述步骤组成(参见图1):
(1)获取相机参数
将黑白方格相间的棋盘格标定板放于场景中的不同深度,使用阵列相机依次采集位于不同深度的标定板图像,其中阵列相机的子相机个数为N,N取值为有限的正整数,采集同一场景不同方向的图像集,提取图像集中特征点所对应的世界坐标和像素坐标,用阵列相机标定方法对相机进行标定,得到相机参数Hr,i,其中r表示参考图像,i表示除参考图像外的其它图像。
(2)预测场景视差图
采用视差生成神经网络预测场景视差图。
视差生成神经网络由块匹配模块、体内特征聚合模块、体间特征聚合模块依次串联构成,视差生成神经网络的构建方法如下:
1)构建块匹配网络
用多目立体视觉方法将参考图像与位于平面扫描体中的每个视差平面上的图像相匹配构建成块匹配网络。
2)构建体内特征聚合模块
体内特征聚合模块由编码器、注意力模块、解码器组成,编码器与解码器通过注意力模块连接构成。
本实施例的编码器由第一级、第二级、…、第六级编码子模块串联构成,每一级编码子模块由两层编码卷积层串联构成,编码器每级输出如下式所示:
其中,conv()表示编码卷积层。
本实施例的编码子模块为:第一级编码子模块的两层编码卷积层的卷积核k为5,步长s为1;第二级编码子模块的两层编码卷积层的卷积核k均为5,步长s分别为2、1;其它级编码子模块的两层编码卷积层的卷积核k为3,步长s分别为2、1。
本实施例的解码器由5级解码子模块串联构成,第一级解码子模块的输入通过注意力网络与第五级编码子模块的输出相连,第二级解码子模块的输入通过注意力网络与第四级编码子模块的输出相连,第三级解码子模块的输入通过注意力网络与第三级编码子模块的输出相连、通过上下文提取模块与VGG网络的输出相连,第四级解码子模块的输入通过注意力网络与第二级编码子模块的输出相连、通过上下文提取模块与VGG网络的输出相连,第五级解码子模块的输入通过注意力网络与第一级编码子模块的输出相连、通过上下文提取模块与VGG网络的输出相连;第二级、第三级、第四级解码子模块的输出分别通过解码卷积层与第三级、第四级、第五级解码子模块的输入相连;每一级解码子模块的输出如下式所示:
其中,U()、U'()表示上采样,C()表示包含了四级池化的上下文特征提取,A()表示注意力。
本实施例的解码子模块由两层解码卷积层串联构成,每层解码卷积层的卷积核大小为3,步长s为1。
3)构建体间特征聚合网络
体间特征聚合网络由两个卷积核为3、步长为1的卷积层串联构成。
4)生成场景视差图
按下式确定场景视差图F:
其中,P表示视差概率体,Y表示深度域。
(3)确定待聚焦目标的深度
随机指定阵列相机中一个相机为参考相机,将阵列相机采集一组图像通过多目立体视觉的深度学习方法得到场景视差图,按下式得聚类结果图IC
IC=Clu(F)
其中F表示视差图,C是参数、为有限的正整数,本实施例的C取值为5,用膨胀方法、腐蚀形态学方法去除聚类结果图中的噪声,平均目标区域的像素,按下式确定待聚焦目标的深度L:
其中,Do为参考目标o的视差,Lo为参考目标的深度,D为待聚焦目标的视差。
(4)生成聚焦在深度L的合成孔径图像
按下式将相机阵列采集的第i张图像Ii投影到参考相机视角下,得到投影图像Ir,i
Ir,i=Hr,i×Ii
其中,Ii表示第i张图像,Hr,i表示第i张其它图像到参考图像r的单应性矩阵;
按下式确定投影图像Ir,i平移的视差ΔD:
其中ΔX表示相机阵列中各相机的位置关系,以待聚焦目标的深度为聚焦深度,Lt表示参考平面t所在深度,Lt取值为有限的正整数:
将投影图像Ir,i变换在深度L处,按下式确定聚焦在深度L的合成孔径图像SL
式中E是单位矩阵,θ表示零向量,N取值为有限的正整数。
完成基于深度学习视差预测的合成孔径聚焦成像方法。
本发明以相机阵列采集的一组图像为输入,采用视差估计方法估计出输入图像中参考图像的视差图,用聚类方法自动识别出感兴趣目标所在的区域并使用形态学处理,对聚类后的图像进行优化,根据视差与深度的关系以及感兴趣目标的位置,得到感兴趣目标所在的深度,采用合成孔径成像的方法,直接快速地聚焦到目标。本发明在获取感兴趣目标的三维信息,能快速地聚焦到这些目标,提高了运算速度、缩短了计算时间、降低了合成孔径聚焦的成本。本发明具有成像次数少、运算速度快、计算时间短、成本低等优点。
实施例2
本实施例的基于深度学习视差预测的合成孔径聚焦成像方法由下述步骤组成:
(1)获取相机参数
该步骤与实施例1相同。
(2)预测场景视差图
该步骤与实施例1相同。
(3)确定待聚焦目标的深度
随机指定阵列相机中一个相机为参考相机,将阵列相机采集一组图像通过多目立体视觉的深度学习方法得到场景视差图,按下式得聚类结果图IC
IC=Clu(F)
其中F表示视差图,C是参数、为有限的正整数,本实施例的C取值为2,用膨胀方法、腐蚀形态学方法去除聚类结果图中的噪声,平均目标区域的像素,按下式确定待聚焦目标的深度L:
其中,Do为参考目标o的视差,Lo为参考目标的深度,D为待聚焦目标的视差。
其它步骤与实施例1相同。
完成基于深度学习视差预测的合成孔径聚焦成像方法。
实施例3
本实施例的基于深度学习视差预测的合成孔径聚焦成像方法由下述步骤组成:
(1)获取相机参数
该步骤与实施例1相同。
(2)预测场景视差图
该步骤与实施例1相同。
(3)确定待聚焦目标的深度
随机指定阵列相机中一个相机为参考相机,将阵列相机采集一组图像通过多目立体视觉的深度学习方法得到场景视差图,按下式得聚类结果图IC
IC=Clu(F)
其中F表示视差图,C是参数、为有限的正整数,本实施例的C取值为10,用膨胀方法、腐蚀形态学方法去除聚类结果图中的噪声,平均目标区域的像素,按下式确定待聚焦目标的深度L:
其中,Do为参考目标o的视差,Lo为参考目标的深度,D为待聚焦目标的视差。
其它步骤与实施例1相同。
完成基于深度学习视差预测的合成孔径聚焦成像方法。

Claims (6)

1.一种基于深度学习视差预测的合成孔径聚焦成像方法,其特征在于由下述步骤组成:
(1)获取相机参数
将黑白方格相间的棋盘格标定板放于场景中的不同深度,使用阵列相机依次采集位于不同深度的标定板图像,其中阵列相机的子相机个数为N,N取值为有限的正整数,采集同一场景不同方向的图像集,提取图像集中特征点所对应的世界坐标和像素坐标,用阵列相机标定方法对相机进行标定,得到相机参数Hr,i,其中r表示参考图像,i表示除参考图像外的其它图像;
(2)预测场景视差图
采用视差生成神经网络预测场景视差图;
视差生成神经网络由块匹配模块、体内特征聚合模块、体间特征聚合模块依次串联构成,视差生成神经网络的构建方法如下:
1)构建块匹配网络
用多目立体视觉方法将参考图像与位于平面扫描体中的每个视差平面上的图像相匹配构建成块匹配网络;
2)构建体内特征聚合模块
体内特征聚合模块由编码器、注意力模块、解码器组成,编码器与解码器通过注意力模块连接构成;
3)构建体间特征聚合网络
体间特征聚合网络由两个卷积核为3、步长为1的卷积层串联构成;
4)生成场景视差图
按下式确定场景视差图F:
其中,P表示视差概率体,Y表示深度域;
(3)确定待聚焦目标的深度
随机指定阵列相机中一个相机为参考相机,将阵列相机采集一组图像通过多目立体视觉的深度学习方法得到场景视差图,按下式得聚类结果图IC
IC=Clu(F)
其中C是参数、为有限的正整数,用膨胀方法、腐蚀形态学方法去除聚类结果图中的噪声,平均目标区域的像素,按下式确定待聚焦目标的深度L:
其中,Do为参考目标o的视差,Lo为参考目标的深度,D为待聚焦目标的视差;
(4)生成聚焦在深度L的合成孔径图像
按下式将相机阵列采集的第i张图像Ii投影到参考相机视角下,得到投影图像Ir,i
Ir,i=Hr,i×Ii
其中,Ii表示第i张图像,Hr,i表示第i张其它图像到参考图像r的单应性矩阵;
按下式确定投影图像Ir,i平移的视差ΔD:
其中ΔX表示相机阵列中各相机的位置关系,以待聚焦目标的深度为聚焦深度,Lt表示参考平面t所在深度,Lt取值为有限的正整数;
将投影图像Ir,i变换在深度L处,按下式确定聚焦在深度L的合成孔径图像SL
式中E是单位矩阵,θ表示零向量,N取值为有限的正整数;
完成基于深度学习视差预测的快速合成孔径聚焦成像方法。
2.根据权利要求1所述的基于深度学习视差预测的合成孔径聚焦成像方法,其特征在于:在(2)预测场景视差图的2)构建体内特征聚合模块步骤中,所述的编码器由第一级、第二级、…、第六级编码子模块串联构成,每一级编码子模块由两层编码卷积层串联构成,编码器每级输出如下式所示:
其中,conv()表示编码卷积层。
3.根据权利要求2所述的基于深度学习视差预测的合成孔径聚焦成像方法,其特征在于所述的编码子模块为:第一级编码子模块的两层编码卷积层的卷积核k为5,步长s为1;第二级编码子模块的两层编码卷积层的卷积核k均为5,步长s分别为2、1;其它级编码子模块的两层编码卷积层的卷积核k为3,步长s分别为2、1。
4.根据权利要求1所述的基于深度学习视差预测的合成孔径聚焦成像方法,其特征在于:在(2)预测场景视差图的2)构建体内特征聚合模块步骤中,所述的解码器由5级解码子模块串联构成,第一级解码子模块的输入通过注意力网络与第五级编码子模块的输出相连,第二级解码子模块的输入通过注意力网络与第四级编码子模块的输出相连,第三级解码子模块的输入通过注意力网络与第三级编码子模块的输出相连、通过上下文提取模块与VGG网络的输出相连,第四级解码子模块的输入通过注意力网络与第二级编码子模块的输出相连、通过上下文提取模块与VGG网络的输出相连,第五级解码子模块的输入通过注意力网络与第一级编码子模块的输出相连、通过上下文提取模块与VGG网络的输出相连;第二级、第三级、第四级解码子模块的输出分别通过解码卷积层与第三级、第四级、第五级解码子模块的输入相连;每一级解码子模块的输出如下式所示:
其中,U()、U'()表示上采样,C()表示包含了四级池化的上下文特征提取,A()表示注意力。
5.根据权利要求4所述的基于深度学习视差预测的合成孔径聚焦成像方法,其特征在于:所述的解码子模块由两层解码卷积层串联构成,每层解码卷积层的卷积核大小为3,步长s为1。
6.根据权利要求1所述的基于深度学习视差预测的合成孔径聚焦成像方法,其特征在于:
在(3)确定待聚焦目标的深度中,随机指定阵列相机中一个相机为参考相机,将阵列相机采集一组图像通过多目立体视觉的深度学习方法得到场景视差图,按下式确定聚类结果图IC
IC=Clu(F)
其中F表示视差图,C是参数、C取值为2~10,用膨胀方法、腐蚀形态学方法去除聚类结果图中的噪声,平均目标区域的像素,按下式得到待聚焦目标的深度L:
CN202111569935.8A 2021-12-21 2021-12-21 基于深度学习视差预测的合成孔径聚焦成像方法 Active CN114387327B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111569935.8A CN114387327B (zh) 2021-12-21 2021-12-21 基于深度学习视差预测的合成孔径聚焦成像方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111569935.8A CN114387327B (zh) 2021-12-21 2021-12-21 基于深度学习视差预测的合成孔径聚焦成像方法

Publications (2)

Publication Number Publication Date
CN114387327A CN114387327A (zh) 2022-04-22
CN114387327B true CN114387327B (zh) 2024-03-12

Family

ID=81198838

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111569935.8A Active CN114387327B (zh) 2021-12-21 2021-12-21 基于深度学习视差预测的合成孔径聚焦成像方法

Country Status (1)

Country Link
CN (1) CN114387327B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117880630B (zh) * 2024-03-13 2024-06-07 杭州星犀科技有限公司 对焦深度获取方法、对焦深度获取系统及终端

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103426170A (zh) * 2013-07-29 2013-12-04 西北工业大学 基于非结构光场合成孔径成像的隐藏目标成像方法
CN108427961A (zh) * 2018-02-11 2018-08-21 陕西师范大学 基于卷积神经网络的合成孔径聚焦成像深度评估方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10931956B2 (en) * 2018-04-12 2021-02-23 Ostendo Technologies, Inc. Methods for MR-DIBR disparity map merging and disparity threshold determination

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103426170A (zh) * 2013-07-29 2013-12-04 西北工业大学 基于非结构光场合成孔径成像的隐藏目标成像方法
CN108427961A (zh) * 2018-02-11 2018-08-21 陕西师范大学 基于卷积神经网络的合成孔径聚焦成像深度评估方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于双目视觉感兴趣区域的行人检测;应光林;;信息通信;20180315(03);全文 *

Also Published As

Publication number Publication date
CN114387327A (zh) 2022-04-22

Similar Documents

Publication Publication Date Title
CN110222787B (zh) 多尺度目标检测方法、装置、计算机设备及存储介质
CN110084757B (zh) 一种基于生成对抗网络的红外深度图像增强方法
CN101883291B (zh) 感兴趣区域增强的视点绘制方法
CN111259945B (zh) 引入注意力图谱的双目视差估计方法
US20180231871A1 (en) Depth estimation method for monocular image based on multi-scale CNN and continuous CRF
CN113870335B (zh) 一种基于多尺度特征融合的单目深度估计方法
CN112734915A (zh) 一种基于深度学习的多视角立体视觉三维场景重建方法
CN105894574A (zh) 一种双目三维重建方法
CN103996202A (zh) 一种基于混合匹配代价和自适应窗口的立体匹配方法
WO2018147059A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム
CN115063303B (zh) 一种基于图像修复的图像3d化方法
CN115937819A (zh) 基于多模态融合的三维目标检测方法及系统
CN109949354B (zh) 一种基于全卷积神经网络的光场深度信息估计方法
CN114119424B (zh) 一种基于光流法和多视角场景的视频修复方法
CN113705796B (zh) 基于epi特征强化的光场深度获取卷积神经网络
CN114387327B (zh) 基于深度学习视差预测的合成孔径聚焦成像方法
CN110136048B (zh) 一种图像配准方法及系统、存储介质及终端
CN115330935A (zh) 一种基于深度学习的三维重建方法及系统
CN110766732A (zh) 一种鲁棒的单相机深度图估计方法
CN110766609A (zh) 一种针对ToF相机的景深图超分辨率重建方法
CN112950698B (zh) 基于双目散焦图像的深度估计方法、装置、介质和设备
CN111630569A (zh) 双目匹配的方法、视觉成像装置及具有存储功能的装置
CN114693951A (zh) 一种基于全局上下文信息探索的rgb-d显著性目标检测方法
CN115514877A (zh) 用于从多视角图像降噪的装置和方法
CN114119704A (zh) 一种基于空间金字塔池化的光场图像深度估计方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant