CN108427961A - 基于卷积神经网络的合成孔径聚焦成像深度评估方法 - Google Patents

基于卷积神经网络的合成孔径聚焦成像深度评估方法 Download PDF

Info

Publication number
CN108427961A
CN108427961A CN201810139139.2A CN201810139139A CN108427961A CN 108427961 A CN108427961 A CN 108427961A CN 201810139139 A CN201810139139 A CN 201810139139A CN 108427961 A CN108427961 A CN 108427961A
Authority
CN
China
Prior art keywords
formula
synthetic aperture
image
camera
focusing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810139139.2A
Other languages
English (en)
Other versions
CN108427961B (zh
Inventor
裴炤
张艳宁
沈乐棋
马苗
郭敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shaanxi Normal University
Original Assignee
Shaanxi Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shaanxi Normal University filed Critical Shaanxi Normal University
Priority to CN201810139139.2A priority Critical patent/CN108427961B/zh
Publication of CN108427961A publication Critical patent/CN108427961A/zh
Application granted granted Critical
Publication of CN108427961B publication Critical patent/CN108427961B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

一种基于卷积神经网络的合成孔径聚焦成像深度评估方法,由构建多层卷积神经网络、采集并生成合成孔径图像、对合成孔径图像进行分类、训练构建的卷积神经网络、判断合成孔径图像聚焦程度步骤组成。本发明以单张合成孔径图像作为输入,采用了卷积神经网络深度学习工具,提取合成孔径图像中的聚焦特征,对于聚焦部分面积较小的合成孔径图像有较高的判断准确率,与现有的方法相比,本发明有效地降低了计算的复杂度,缩短了计算时间,提高了判断的准确率,增强了可扩展性,可用于合成孔径图像的自动聚焦。

Description

基于卷积神经网络的合成孔径聚焦成像深度评估方法
技术领域
本发明属于图像处理与模式识别技术领域,具体涉及基于卷积神经网络的合成孔径聚焦成像深度评估方法。
背景技术
现有的相机可调整焦距,位于聚焦平面上的物体成像清晰,反之,位于非聚焦平面上的物体成像模糊,物体是否位于聚焦平面上是判断图像是否聚焦的关键,随着相机价格的降低,利用多个相机组成的相机阵列进行合成孔径成像越来越成为可能。然而,在合成孔径成像领域中,找到一种测量聚焦程度的方法受到广大研究者的重视。
现有的测量聚焦方法采用像素值之间的梯度算法和对像素值的局部统计来实现对图像聚焦程度的判断。近年来,关于聚焦测量方法的研究在多方面有了一定的进展。Pech等人提出了一种计算兴趣区域内灰度值方差的方法,Tian等人提出了基于微波的拉普拉斯混合模型,Kristan等人采用图像频谱的谱熵计算子区域的聚焦程度。这些测量方法经常被用于解决对焦寻形,图像融合以及自动聚焦等问题。此外,现有方法需要场景中其他信息作为输入,例如多个视角的图像信息或聚焦在不同深度的图像序列,现有的方法需要消耗大量的时间用于多个图像中像素值的计算。
发明内容
本发明所要解决的技术问题在于克服上述现有技术的不足,提供一种运行时间短、判断图像准确率高、可扩展性强、聚焦面较小的基于卷积神经网络的合成孔径聚焦成像深度评估方法。
解决上述技术问题所采用的技术方案由下述步骤组成:
(1)构建多层卷积神经网络
对于网络的输入图像,统一尺寸为227×227×3,其中,227×227为输入图像的分辨率,3为输入图像具有三个彩色通道的像素信息。
卷积神经网络包含5个卷积层,3个池化层和3个全连接层;在卷积层中,对输入的图像进行卷积操作:
式中G(x,y)为卷积层输出矩阵中的元素,F(x,y)为卷积层输入矩阵中的元素,H(a,b)为卷积核中的元素,x、y分别为矩阵中的第x行、第y列,a、b分别为卷积核中的第a行、第b列,I为输入矩阵的大小,J为卷积核的大小;经过卷积操作后,卷积层的输出矩阵在激活层被ReLU函数激活:
R(x,y)=max(0,G(x,y)) (2)
式中R(x,y)为激活层输出矩阵中的元素;激活层的输出矩阵在池化层进行下采样操作:
U(x′,y′)=max(R(x+m,y+n)) (3)
式中U(x′,y′)为池化层输出矩阵中的元素,m、n为[0,ΔI]中的整数,ΔI是下采样的步长为有限的正整数;在池化层后构建归一化层,将U(x′,y′)规范得到归一化层输出矩阵中的元素:
式中V(x,y)为归一化层输出矩阵中的元素,σ是缩放常数为0.0001,μ是指数常数为0.75,M为输入矩阵的通道数;全连接层处理池化层的输出,以0.3~0.5的概率舍弃全连接层中的元素。
(2)采集并生成合成孔径图像
用由8~16个相机水平组成的相机阵列拍摄目标物体,采集各个位于不同视角的相机图像,用公式(5)得到投影到参考平面πr的图像
Wir=Hi·Fi (5)
式中Fi为各个相机所拍摄到的的图像,Wir为Fi经过仿射变换投影到平面πr的图像,Hi为从Fi投影到参考平面πr的仿射矩阵,式中i为1,2,…,N,N为相机阵列中相机的数量,用公式(6)得到聚焦到平面πd所需要平移的视差Δp
Δp=ΔX·μ (6)
式中ΔX为相机之间的相对位置,μ为平面πd与参考平面πr的相对深度,相对深度
μ=(d-r)/d (7)
式中d为平面πd的深度,r为参考平面πr的深度;用公式(8)对Wir中的像素进行平移,平移后的齐次坐标为
式中pir为Wir中像素的齐次坐标,θT为零向量的转置,Δpid为横向和纵向视差构成的二维向量,用公式(9)得到合成孔径图像中像素所对应的像素值S(pd)
式中N为相机阵列中相机的数量,Y(pid)为像素pid所对应的像素值。
(3)对合成孔径图像进行分类
一幅合成孔径图像中的聚焦部分包含场景中位于聚焦平面上的物体,该合成孔径图像被分类为聚焦类;一幅合成孔径图像中的聚焦部分未包含场景中位于聚焦平面上的物体,该合成孔径图像被分类为非聚焦类。
(4)训练构建的卷积神经网络
将输入图像的分辨率调节为227×227,按照步骤(1)中的卷积、激活、下采样、归一化和全连接操作,完成网络中前向传播过程。
用下式确定网络中聚焦与非聚焦标签各自的概率:
式中xn,k为分类器的输入,pk,n为在共K个类别中第k个类别的概率;根据得到的概率,确定网络中损失函数的函数值:
式中L(x)为损失函数的函数值,N表示网络在一次迭代中训练的图像数量。
确定损失函数关于权重的偏导数更新网络中各个神经元之间的权重,更新方法如下:
wi+1=wi+Δw·α (12)
式中wi为第i次迭代过程中神经元的权重,α是网络的学习率为0.0001~0.001。
(5)判断合成孔径图像聚焦程度
用训练后的模型得到合成孔径图像聚焦类和非聚焦类的概率;输入的合成孔径图像聚焦类的概率大于或等于非聚焦类的概率,合成孔径图像聚焦;小于非聚焦类的概率,合成孔径图像非聚焦。
本发明的采集并生成合成孔径图像步骤(2)为;用由12个相机水平组成的相机阵列拍摄目标物体,采集各个位于不同视角的相机图像,用公式(5)得到投影到参考平面πr的图像
Wir=Hi·Fi (5)
式中Fi为相机移动过程中各帧视角所对应的图像,Wir为Fi经过仿射变换投影到平面πr的图像,Hi为从Fi投影到参考平面πr的仿射矩阵,式中i为1,2,…,N,N是相机阵列中相机的数量最佳为12,用公式(6)得到聚焦到平面πd所需要平移的视差Δp
Δp=ΔX·μ (6)
式中ΔX为相机之间的相对位置,μ为平面πd与参考平面πr的相对深度,相对深度
μ=(d-r)/d (7)
式中d为平面πd的深度,r为参考平面πr的深度;用公式(8)对Wir中的像素进行平移,平移后的齐次坐标为
式中pir为Wir中像素的齐次坐标,θT为零向量的转置,Δpid为横向和纵向视差构成的二维向量,用公式(9)得到合成孔径图像中像素所对应的像素值S(pd)
式中N为相机阵列中相机的数量12,Y(pid)为像素pid所对应的像素值。
本发明以单张合成孔径图像作为输入,采用了卷积神经网络深度学习工具,提取合成孔径图像中的聚焦特征,对于聚焦部分面积较小的合成孔径图像有较高的判断准确率,与现有的方法相比,本发明有效地降低了计算的复杂度,缩短了计算时间,提高了判断的准确率,增强了可扩展性,可用于合成孔径图像的自动聚焦。
附图说明
图1是本发明实施例1的流程图。
具体实施方式
下面结合附图和实施例对本发明进一步详细说明,但本发明不限于下述的实施方式。
实施例1
以采集到校园内44个场景704幅图像生成8766幅合成孔径图像为例,基于卷积神经网络的合成孔径聚焦成像深度评估方法如图1所示,具体步骤如下:
(1)构建多层卷积神经网络
对于网络的输入图像,统一尺寸为227×227×3,其中,227×227为输入图像的分辨率,3为输入图像具有三个彩色通道的像素信息。
卷积神经网络包含5个卷积层,3个池化层和3个全连接层,具体参数如下:
conv1:(size:11,stride:4,pad:0,channel:96)
pool1:(size:3,stride:2,pad:0,channel:96)
conv2:(size:5,stride:1,pad:2,channel:256)
pool2:(size:3,stride:2,pad:0,channel:256)
conv3:(size:3,stride:1,pad:1,channel:384)
conv4:(size:3,stride:1,pad:1,channel:384)
conv5:(size:3,stride:1,pad:1,channel:256)
pool5:(size:3,stride:2,pad:0,channel:96)
fc6:(channel:4096)
fc7:(channel:4096)
fc8:(channel:2)
式中conv为卷积层,pool为池化层,fc为全连接层,size为该层中卷积核的大小,stride为操作的步长,pad为该层输入图像在边界补充的像素数量,channel为该层的通道数。
在卷积层中,对输入的图像进行卷积操作:
式中G(x,y)为卷积层输出矩阵中的元素,F(x,y)为卷积层输入矩阵中的元素,H(a,b)为卷积核中的元素,x、y分别为矩阵中的第x行、第y列,a、b分别为卷积核中的第a行、第b列,I为输入矩阵的大小,J为卷积核的大小;经过卷积操作后,卷积层的输出矩阵在激活层被ReLU函数激活:
R(x,y)=max(0,G(x,y)) (2)
式中R(x,y)为激活层输出矩阵中的元素;激活层的输出矩阵在池化层进行下采样操作:
U(x′,y′)=max(R(x+m,y+n)) (3)
式中U(x′,y′)为池化层输出矩阵中的元素,m、n为[0,ΔI]中的整数,ΔI是下采样的步长为有限的正整数。在池化层后构建归一化层,将U(x′,y′)规范得到归一化层输出矩阵中的元素:
式中V(x,y)为归一化层输出矩阵中的元素,σ是缩放常数为0.0001,μ是指数常数为0.75,M为输入矩阵的通道数;全连接层处理池化层的输出,以0.4的概率舍弃全连接层中的元素,也可以任意选取0.3~0.5范围内的概率,舍弃全连接层中的元素。
(2)采集并生成合成孔径图像
用由12个相机水平组成的相机阵列拍摄目标物体,采集各个位于不同视角的相机图像,用公式(5)得到投影到参考平面πr的图像
Wir=Hi·Fi (5)
式中Fi为各个相机所拍摄到的的图像,Wir为Fi经过仿射变换投影到平面πr的图像,Hi为从Fi投影到参考平面πr的仿射矩阵,式中i为1,2,…,N,N是相机阵列中相机的数量为12,用公式(6)得到聚焦到平面πd所需要平移的视差Δp
Δp=ΔX·μ (6)
式中ΔX为相机之间的相对位置,μ为平面πd与参考平面πr的相对深度,相对深度
μ=(d-r)/d (7)
式中d为平面πd的深度,r为参考平面πr的深度;用公式(8)对Wir中的像素进行平移,平移后的齐次坐标为
式中pir为Wir中像素的齐次坐标,θT为零向量的转置,Δpid为横向和纵向视差构成的二维向量,用公式(9)得到合成孔径图像中像素所对应的像素值S(pd)
式中N是相机阵列中相机的数量为12,Y(pid)为像素pid所对应的像素值;
(3)对合成孔径图像进行分类
一幅合成孔径图像中的聚焦部分包含场景中位于聚焦平面上的物体,该合成孔径图像被分类为聚焦类;一幅合成孔径图像中的聚焦部分未包含场景中位于聚焦平面上的物体,该合成孔径图像被分类为非聚焦类;
(4)训练构建的卷积神经网络
将输入图像的分辨率调节为227×227,按照步骤(1)中的卷积、激活、下采样、归一化和全连接操作,完成网络中前向传播过程;
用下式确定网络中聚焦与非聚焦标签各自的概率:
式中pk,n为在共K个类别中第k个类别的概率,xn,k为分类器的输入,根据得到的概率,确定网络中损失函数的函数值:
式中L(x)为损失函数的函数值,N表示网络在一次迭代中训练的图像数量。
确定损失函数关于权重的偏导数更新网络中各个神经元之间的权重,更新方法如下:
wi+1=wi+Δw·α (12)
式中wi为第i次迭代过程中神经元的权重,α是网络的学习率为0.0005,也可在0.0001~0.001范围内任意选取。
(5)判断合成孔径图像聚焦程度
用训练后的模型得到合成孔径图像聚焦类和非聚焦类的概率;输入的合成孔径图像聚焦类的概率大于或等于非聚焦类的概率,合成孔径图像聚焦;小于非聚焦类的概率,合成孔径图像非聚焦。
实施例2
以采集到校园内44个场景704幅图像生成8766幅合成孔径图像为例,基于卷积神经网络的合成孔径聚焦成像深度评估方法步骤如下:
(1)构建多层卷积神经网络
构建多层卷积神经网络步骤与实施例1相同。
(2)采集并生成合成孔径图像
用由8个相机水平组成的相机阵列拍摄目标物体,采集各个位于不同视角的相机图像,用公式(5)得到投影到参考平面πr的图像
Wir=Hi·Fi (5)
式中Fi为各个相机所拍摄到的的图像,Wir为Fi经过仿射变换投影到平面πr的图像,Hi为从Fi投影到参考平面πr的仿射矩阵,式中i为1,2,…,N,N是相机阵列中相机的数量为8,用公式(6)得到聚焦到平面πd所需要平移的视差Δp
Δp=ΔX·μ (6)
式中ΔX为相机之间的相对位置,μ为平面πd与参考平面πr的相对深度,相对深度
μ=(d-r)/d (7)
式中d为平面πd的深度,r为参考平面πr的深度;用公式(8)对Wir中的像素进行平移,平移后的齐次坐标为
式中pir为Wir中像素的齐次坐标,θT为零向量的转置,Δpid为横向和纵向视差构成的二维向量,用公式(9)得到合成孔径图像中像素所对应的像素值S(pd)
式中N是相机阵列中相机的数量为8,Y(pid)为像素pid所对应的像素值。
(3)对合成孔径图像进行分类
对合成孔径图像进行分类步骤与实施例1相同。
其他步骤与实施例1相同。
实施例3
以采集到校园内44个场景704幅图像生成8766幅合成孔径图像为例,基于卷积神经网络的合成孔径聚焦成像深度评估方法步骤如下:
(1)构建多层卷积神经网络
构建多层卷积神经网络步骤与实施例1相同。
(2)采集并生成合成孔径图像
用由16个相机水平组成的相机阵列拍摄目标物体,采集各个位于不同视角的相机图像,用公式(5)得到投影到参考平面πr的图像
Wir=Hi·Fi (5)
式中Fi为各个相机所拍摄到的的图像,Wir为Fi经过仿射变换投影到平面πr的图像,Hi为从Fi投影到参考平面πr的仿射矩阵,式中i为1,2,…,N,N是相机阵列中相机的数量为16,用公式(6)得到聚焦到平面πd所需要平移的视差Δp
Δp=ΔX·μ (6)
式中ΔX为相机之间的相对位置,μ为平面πd与参考平面πr的相对深度,相对深度
μ=(d-r)/d (7)
式中d为平面πd的深度,r为参考平面πr的深度;用公式(8)对Wir中的像素进行平移,平移后的齐次坐标为
式中pir为Wir中像素的齐次坐标,θT为零向量的转置,Δpid为横向和纵向视差构成的二维向量,用公式(9)得到合成孔径图像中像素所对应的像素值S(pd)
式中N是相机阵列中相机的数量为16,Y(pid)为像素pid所对应的像素值。
(3)对合成孔径图像进行分类
对合成孔径图像进行分类步骤与实施例1相同。
其他步骤与实施例1相同。
在以上的实施例1-3中,用采集的图像生成7500幅以上合成孔径图像,均可用本发明的步骤训练卷积神经网络判断合成孔径图像的聚焦程度。

Claims (2)

1.一种基于卷积神经网络的合成孔径聚焦成像深度评估方法,其特征在于由下述步骤组成:
(1)构建多层卷积神经网络
对于网络的输入图像,统一尺寸为227×227×3,其中,227×227为输入图像的分辨率,3为输入图像具有三个彩色通道的像素信息;
卷积神经网络包含5个卷积层,3个池化层和3个全连接层;在卷积层中,对输入的图像进行卷积操作:
式中G(x,y)为卷积层输出矩阵中的元素,F(x,y)为卷积层输入矩阵中的元素,H(a,b)为卷积核中的元素,x、y分别为矩阵中的第x行、第y列,a、b分别为卷积核中的第a行、第b列,I为输入矩阵的大小,J为卷积核的大小;经过卷积操作后,卷积层的输出矩阵在激活层被ReLU函数激活:
R(x,y)=max(0,G(x,y)) (2)
式中R(x,y)为激活层输出矩阵中的元素;激活层的输出矩阵在池化层进行下采样操作:
U(x′,y′)=max(R(x+m,y+n)) (3)
式中U(x′,y′)为池化层输出矩阵中的元素,m、n为[0,ΔI]中的整数,ΔI是下采样的步长为有限的正整数;在池化层后构建归一化层,将U(x′,y′)规范得到归一化层输出矩阵中的元素:
式中V(x,y)为归一化层输出矩阵中的元素,σ是缩放常数为0.0001,μ是指数常数为0.75,M为输入矩阵的通道数;全连接层处理池化层的输出,以0.3~0.5的概率舍弃全连接层中的元素;
(2)采集并生成合成孔径图像
用由8~16个相机水平组成的相机阵列拍摄目标物体,采集各个位于不同视角的相机图像,用公式(5)得到投影到参考平面πr的图像
Wir=Hi·Fi (5)
式中Fi为各个相机所拍摄到的的图像,Wir为Fi经过仿射变换投影到平面πr的图像,Hi为从Fi投影到参考平面πr的仿射矩阵,式中i为1,2,…,N,N为相机阵列中相机的数量,用公式(6)得到聚焦到平面πd所需要平移的视差Δp
Δp=ΔX·μ (6)
式中ΔX为相机之间的相对位置,μ为平面πd与参考平面πr的相对深度,相对深度
μ=(d-r)/d (7)
式中d为平面πd的深度,r为参考平面πr的深度;用公式(8)对Wir中的像素进行平移,平移后的齐次坐标为
式中pir为Wir中像素的齐次坐标,θT为零向量的转置,Δpid为横向和纵向视差构成的二维向量,用公式(9)得到合成孔径图像中像素所对应的像素值S(pd)
式中N为相机阵列中相机的数量,Y(pid)为像素pid所对应的像素值;
(3)对合成孔径图像进行分类
一幅合成孔径图像中的聚焦部分包含场景中位于聚焦平面上的物体,该合成孔径图像被分类为聚焦类;一幅合成孔径图像中的聚焦部分未包含场景中位于聚焦平面上的物体,该合成孔径图像被分类为非聚焦类;
(4)训练构建的卷积神经网络
将输入图像的分辨率调节为227×227,按照步骤(1)中的卷积、激活、下采样、归一化和全连接操作,完成网络中前向传播过程;
用下式确定网络中聚焦与非聚焦标签各自的概率:
式中xn,k为分类器的输入,pk,n为在共K个类别中第k个类别的概率;根据得到的概率,确定网络中损失函数的函数值:
式中L(x)为损失函数的函数值,N表示网络在一次迭代中训练的图像数量;
确定损失函数关于权重的偏导数更新网络中各个神经元之间的权重,更新方法如下:
wi+1=wi+Δw·α (12)
式中wi为第i次迭代过程中神经元的权重,α是网络的学习率为0.0001~0.001;
(5)判断合成孔径图像聚焦程度
用训练后的模型得到合成孔径图像聚焦类和非聚焦类的概率;输入的合成孔径图像聚焦类的概率大于或等于非聚焦类的概率,合成孔径图像聚焦;小于非聚焦类的概率,合成孔径图像非聚焦。
2.根据权利要求1所述的基于卷积神经网络的合成孔径聚焦成像深度评估方法,其特征在于所述的采集并生成合成孔径图像步骤(2)为;用由12个相机水平组成的相机阵列拍摄目标物体,采集各个位于不同视角的相机图像,用公式(13)得到投影到参考平面πr的图像
Wir=Hi·Fi (5)
式中Fi为相机移动过程中各帧视角所对应的图像,Wir为Fi经过仿射变换投影到平面πr的图像,Hi为从Fi投影到参考平面πr的仿射矩阵,式中i为1,2,…,N,N是相机阵列中相机的数量为12,用公式(6)得到聚焦到平面πd所需要平移的视差Δp
Δp=ΔX·μ (6)
式中ΔX为相机之间的相对位置,μ为平面πd与参考平面πr的相对深度,相对深度
μ=(d-r)/d (7)
式中d为平面πd的深度,r为参考平面πr的深度;用公式(8)对Wir中的像素进行平移,平移后的齐次坐标为
式中pir为Wir中像素的齐次坐标,θT为零向量的转置,Δpid为横向和纵向视差构成的二维向量,用公式(9)得到合成孔径图像中像素所对应的像素值S(pd)
式中N为相机阵列中相机的数量12,Y(pid)为像素pid所对应的像素值。
CN201810139139.2A 2018-02-11 2018-02-11 基于卷积神经网络的合成孔径聚焦成像深度评估方法 Active CN108427961B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810139139.2A CN108427961B (zh) 2018-02-11 2018-02-11 基于卷积神经网络的合成孔径聚焦成像深度评估方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810139139.2A CN108427961B (zh) 2018-02-11 2018-02-11 基于卷积神经网络的合成孔径聚焦成像深度评估方法

Publications (2)

Publication Number Publication Date
CN108427961A true CN108427961A (zh) 2018-08-21
CN108427961B CN108427961B (zh) 2020-05-29

Family

ID=63156813

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810139139.2A Active CN108427961B (zh) 2018-02-11 2018-02-11 基于卷积神经网络的合成孔径聚焦成像深度评估方法

Country Status (1)

Country Link
CN (1) CN108427961B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108984275A (zh) * 2018-08-27 2018-12-11 洛阳中科龙网创新科技有限公司 基于Unity3D和深度增强学习的智能无人农用驾驶训练方法
CN109151334A (zh) * 2018-09-21 2019-01-04 中国计量大学 一种无人车相机系统
CN109711413A (zh) * 2018-12-30 2019-05-03 陕西师范大学 基于深度学习的图像语义分割方法
CN111007661A (zh) * 2019-12-02 2020-04-14 湖南国科智瞳科技有限公司 一种基于深度学习的显微图像自动聚焦方法及装置
CN112819742A (zh) * 2021-02-05 2021-05-18 武汉大学 一种基于卷积神经网络的事件场合成孔径成像方法
CN113253269A (zh) * 2021-06-03 2021-08-13 中南大学 一种基于图像分类的sar自聚焦方法
CN113538307A (zh) * 2021-06-21 2021-10-22 陕西师范大学 基于多视角超分辨深度网络的合成孔径成像方法
CN114387327A (zh) * 2021-12-21 2022-04-22 陕西师范大学 基于深度学习视差预测的合成孔径聚焦成像方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103198475A (zh) * 2013-03-08 2013-07-10 西北工业大学 基于多层次迭代可视化优化的全聚焦合成孔径透视成像方法
CN105719317A (zh) * 2016-01-22 2016-06-29 陕西师范大学 基于相机阵列合成孔径成像的遮挡背景估计方法
CN106934765A (zh) * 2017-03-14 2017-07-07 长沙全度影像科技有限公司 基于深度卷积神经网络与深度信息的全景图像融合方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103198475A (zh) * 2013-03-08 2013-07-10 西北工业大学 基于多层次迭代可视化优化的全聚焦合成孔径透视成像方法
CN105719317A (zh) * 2016-01-22 2016-06-29 陕西师范大学 基于相机阵列合成孔径成像的遮挡背景估计方法
CN106934765A (zh) * 2017-03-14 2017-07-07 长沙全度影像科技有限公司 基于深度卷积神经网络与深度信息的全景图像融合方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
LEI ZHANG ET AL: "Two-Stage Focusing Algorithm for Highly Squinted Synthetic Aperture Radar Imaging", 《IEEE TRANSACTIONS ON GEOSCIENCE AND REMOTE SENSING》 *
张磊 等: "快速后向投影合成孔径雷达成像的自聚焦方法", 《西安电子科技大学学报(自然科学版)》 *
李银伟 等: "基于多普勒域多通道的机载合成孔径雷达自聚焦算法", 《电子与信息学报》 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108984275A (zh) * 2018-08-27 2018-12-11 洛阳中科龙网创新科技有限公司 基于Unity3D和深度增强学习的智能无人农用驾驶训练方法
CN109151334B (zh) * 2018-09-21 2020-12-22 中国计量大学 一种无人车相机系统
CN109151334A (zh) * 2018-09-21 2019-01-04 中国计量大学 一种无人车相机系统
CN109711413A (zh) * 2018-12-30 2019-05-03 陕西师范大学 基于深度学习的图像语义分割方法
CN111007661B (zh) * 2019-12-02 2022-02-22 湖南国科智瞳科技有限公司 一种基于深度学习的显微图像自动聚焦方法及装置
CN111007661A (zh) * 2019-12-02 2020-04-14 湖南国科智瞳科技有限公司 一种基于深度学习的显微图像自动聚焦方法及装置
CN112819742A (zh) * 2021-02-05 2021-05-18 武汉大学 一种基于卷积神经网络的事件场合成孔径成像方法
CN112819742B (zh) * 2021-02-05 2022-05-13 武汉大学 一种基于卷积神经网络的事件场合成孔径成像方法
CN113253269A (zh) * 2021-06-03 2021-08-13 中南大学 一种基于图像分类的sar自聚焦方法
CN113253269B (zh) * 2021-06-03 2021-10-15 中南大学 一种基于图像分类的sar自聚焦方法
CN113538307A (zh) * 2021-06-21 2021-10-22 陕西师范大学 基于多视角超分辨深度网络的合成孔径成像方法
CN114387327A (zh) * 2021-12-21 2022-04-22 陕西师范大学 基于深度学习视差预测的合成孔径聚焦成像方法
CN114387327B (zh) * 2021-12-21 2024-03-12 陕西师范大学 基于深度学习视差预测的合成孔径聚焦成像方法

Also Published As

Publication number Publication date
CN108427961B (zh) 2020-05-29

Similar Documents

Publication Publication Date Title
CN108427961A (zh) 基于卷积神经网络的合成孔径聚焦成像深度评估方法
CN106295601B (zh) 一种改进的安全带检测方法
CN101739712B (zh) 基于视频的3d人脸表情动画驱动方法
CN111325794A (zh) 一种基于深度卷积自编码器的视觉同时定位与地图构建方法
Neal et al. Measuring shape
CN108154102A (zh) 一种道路交通标志识别方法
CN104134200B (zh) 一种基于改进加权融合的运动场景图像拼接方法
CN110443763B (zh) 一种基于卷积神经网络的图像阴影去除方法
CN101562701A (zh) 一种用于光场成像的数字对焦方法及装置
CN113592911B (zh) 表观增强深度目标跟踪方法
CN114241031A (zh) 基于双视角融合的鱼类体尺测量和体重预测的方法及装置
Weyler et al. In-field phenotyping based on crop leaf and plant instance segmentation
CN109118544A (zh) 基于透视变换的合成孔径成像方法
CN114399533B (zh) 一种基于多层次注意力机制的单目标追踪方法
CN105719292A (zh) 利用两层级联的Boosting分类算法实现视频目标跟踪的方法
CN112215296A (zh) 基于迁移学习的红外图像识别方法及存储介质
CN110268420A (zh) 在图像中检测背景物上的外来物的计算机实现的方法、在图像中检测背景物上的外来物的设备以及计算机程序产品
CN109886170A (zh) 一种钉螺智能检测识别与统计系统
CN110458128A (zh) 一种姿态特征获取方法、装置、设备及存储介质
CN110363218A (zh) 一种胚胎无创评估方法及装置
CN101286236B (zh) 基于多特征图像和均值漂移的红外目标跟踪方法
CN113810683B (zh) 一种客观评估水下视频质量的无参考评价方法
CN113052110B (zh) 一种基于多视图投影和深度学习的三维兴趣点提取方法
CN110533971A (zh) 一种深入互动的智能教学系统
CN106650773A (zh) 一种基于SVM‑AdaBoost算法的行人检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant