CN105844627B - 一种基于卷积神经网络的海面目标图像背景抑制方法 - Google Patents
一种基于卷积神经网络的海面目标图像背景抑制方法 Download PDFInfo
- Publication number
- CN105844627B CN105844627B CN201610159838.4A CN201610159838A CN105844627B CN 105844627 B CN105844627 B CN 105844627B CN 201610159838 A CN201610159838 A CN 201610159838A CN 105844627 B CN105844627 B CN 105844627B
- Authority
- CN
- China
- Prior art keywords
- image
- background
- pixel
- data
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 49
- 230000001629 suppression Effects 0.000 claims abstract description 62
- 238000012549 training Methods 0.000 claims abstract description 21
- 238000012795 verification Methods 0.000 claims abstract description 13
- 238000003384 imaging method Methods 0.000 claims abstract description 9
- 238000013507 mapping Methods 0.000 claims abstract description 3
- 238000007781 pre-processing Methods 0.000 claims description 20
- 239000011159 matrix material Substances 0.000 claims description 8
- 238000012360 testing method Methods 0.000 claims description 8
- 238000012935 Averaging Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 abstract description 13
- 230000005764 inhibitory process Effects 0.000 abstract description 11
- 230000006870 function Effects 0.000 abstract description 5
- 230000002401 inhibitory effect Effects 0.000 abstract 1
- 230000000875 corresponding effect Effects 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 238000013461 design Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000013145 classification model Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012567 pattern recognition method Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30212—Military
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于卷积神经网络的海面目标图像背景抑制方法。包括:选取复杂场景下海面目标的成像数据,预处理后按照一定的比例分成训练集L1和验证集L2;用训练集L1训练卷积神经网络,并用验证集L2对网络模型调优,得到背景预测模型B‑Mod;对待抑制的海面目标图像,预处理后输入背景预测模型B‑Mod,计算出每个像素的背景抑制分量;将每个像素的所有背景抑制分量加和平均得到背景抑制量;利用背景抑制量进行适当的函数映射,可以得到背景抑制后的图像。本发明根据海面目标图像中目标和背景的差异性,利用深度学习的方法获取图像中每个像素的背景抑制量,通过实验验证了该方法对海面目标图像的背景具有显著的抑制效果。
Description
技术领域
本发明属于图像处理技术领域,更具体地,涉及一种基于卷积神经网络的海面目标图像背景抑制方法。
背景技术
自动目标检测是目前智能武器系统研制中的重要组成部分。而红外技术因灵敏度和帧频高、隐蔽性好、不受使用时间限制,被广泛应用于自寻的武器系统中。一般而言,红外探测器角分辨率有限,当目标距离较远时,探测器接收到的目标辐射能量较低,同时接收到了视场内其他物体的辐射,因此成像后的图像中大部分为空间分布不平稳的复杂背景杂波(如云背景、地面背景、海天背景等),目标不仅信噪比较低,而且面积较小。为尽量降低背景杂波的影响,提高目标的信噪比,在检测任务之前首先进行背景抑制。已有的背景抑制方法可以分为基于变换域的方法、基于时域的方法和基于空域的方法。总的来说,基于变换域的方法是将原始图像进行傅立叶或小波变换后,通过滤除低频的背景并保留高频的目标来达到抑制背景的目的。基于时域的方法是以背景像素在时域上表现出较强的相关性,而运动目标所在像素在时域上会形成尖峰为依据,使用以前的图像对当前图像背景进行预测,然后用原始图像减去预测图像,完成静止背景的抑制。基于空域的方法根据背景在空间上相关性较强而目标呈现出“奇异点”的特点,在空域内对背景进行预测,然后用原始图像减去预测图像,完成背景抑制。基于变换域和基于时域的方法虽然可以获得良好的背景抑制效果,但在实际武器系统中,成像帧频往往较高(≥60Hz),从探测器采集、传输到信息处理单元完成对图像所有的处理(目标检测、跟踪、识别等)一般只有几毫秒到十几毫秒,对算法的实时性要求很高;同时,武器系统自身的姿态变化将导致帧间图像存在抖动,像素在时域上的相关性很难保证。相比之下,基于空域的背景抑制方法具有更好的实用价值。
用深度学习做背景抑制的方案就是一种基于空域的实现,当然这从深度学习特别是卷积神经网络自身所适合应用的场景来看是很自然的。2006 年,Geoffrey Hinton提出了深度学习,之后深度学习受到广泛关注。神经网络能够重新焕发青春的原因有几个方面。首先是大数据的出现在很大程度上缓解了训练过拟合的问题。其次是计算机硬件的飞速发展提供了强大的计算能力,使得训练大规模神经网络成为可能。此外神经网络的模型设计和训练方法都取得了长足的进步。深度学习在计算机视觉领域最具影响力的突破发生在2012年,Hinton的研究小组采用深度学习赢得了ImageNet 图像分类的比赛。ImageNet是当今计算机视觉领域最具影响力的比赛之一。它的训练和测试样本都来自于互联网图片,训练样本超过百万,任务是将测试样本分成1000类。自2009年,包括工业界在内的很多计算机视觉小组都参加了每年一度的比赛,各个小组的方法逐渐趋同。在2012年的比赛中,排名2到4位的小组都采用的是传统的计算机视觉方法,手工设计的特征,相互间准确率的差别不超过1%。而Hinton的研究小组是首次参加比赛,他们拿出的模型(现称AlexNet)是一个8层的卷积神经网络,结果准确率比第二名超出了10%以上,这在计算机视觉领域产生了极大的震动,掀起了深度学习的热潮。深度学习特别是卷积神经网络被陆续应用于目标检测,目标识别,人脸识别,图像分割等计算机视觉的各个领域,并且都取得了非常好的成绩。
虽然深度学习在很多领域取得了成功,但是却没有见到深度学习用于背景抑制。一个原因可能是背景抑制已经有了很多成熟的算法,并且主要偏向应用,十分强调实时性,而深度学习虽然可以解决类似的问题,但是一般需要很大的计算量,在硬件有限的条件下难以保证实时性。
发明内容
本发明提供了一种基于卷积神经网络的海面目标图像背景抑制方法,目的在于解决不同干扰、不同大气环境参数条件下,同一成像高度下的海面目标的图像背景抑制问题。该方法利用大量海面目标的图像数据,构建了卷积神经网络模型,从大量数据中学习背景的先验知识,完成灰度变换,降低背景杂波,提高目标的信噪比,从而实现背景抑制。本方法对模型预测进行了加速处理,为背景抑制实时性要求提供保证,并且具有适应较强海面干扰的特点。
一种基于卷积神经网络的海面目标图像背景抑制方法,包括以下步骤:
(1)选取云遮挡、海杂波等复杂场景下海面目标的成像数据,以固定大小的图像片截取数据中的典型区域作为样本信息,所有图像对应的样本信息构成学习集L;
(2)将学习集L中的数据进行预处理,即对学习集L中的每个图像片减去自身的均值;
(3)将数据预处理后的学习集L按照一定的比例分成训练集L1、验证集L2,使用训练集L1中的样本训练卷积神经网络,得到正/负两类属性样本的CNN分类器模型;用验证集L2样本测试CNN分类器性能,统计每个样本通过CNN分类器模型分类之后的类别属性,根据给定的样本标签信息,计算CNN分类器模型的精确率Pprecision、召回率Precall;如果CNN分类器性能不能达到设定的性能指标,需要调整模型超参数,重新训练,直到满足性能指标为止;将满足性能指标的最终CNN分类器模型,作为背景预测模型 B-Mod;
(4)对于待抑制的图像,进行数据预处理,处理后的数据通过步骤(3) 的背景预测模型B-Mod预测出待抑制图像中第k个图像片Patchk属于正/负类别的概率并将作为第k个图像片Patchk中每个像素的背景抑制分量αk(x,y);
(5)把每个像素的背景抑制分量αk(x,y)加和取平均得到该像素的背景抑制量α(x,y),再乘以该像素原来的灰度值f(x,y),以其作为每个像素新的灰度值,并将整幅图像归一化处理后,得到背景抑制图像。
总体而言,通过本发明所构思的以上技术方案与现有技术相比,具有以下有益效果:
在现有技术中,关于图像背景抑制的方法尚未形成成熟的解决方案,大部分任务是通过人工设计的模型完成的,通常难以满足实际应用的需求。本发明利用训练得到卷积神经网络模型,通过从大量数据中统计学习得到待抑制图像每个像素的背景抑制量α(x,y),据此完成背景抑制,使得抑制效果更加精确。克服了人工主观设计背景抑制模型的缺陷,提高了稳定性,改善了海面目标图像背景抑制的质量。
本发明提供了一种基于卷积神经网络的海面目标图像背景抑制方法,该方法对海面目标图像提取典型区域信息,训练卷积神经网络模型,将训练好的分类模型在预测阶段用于图到图的背景抑制变换,具体是将利用分类模型预测出的图像片Patchk属于正/负类别的概率得到每个像素的背景抑制分量αk(x,y),通过加和取平均得到该像素的背景抑制量α(x, y),再乘以该像素原来的灰度值f(x,y),以其作为每个像素新的灰度值,并将整幅图像归一化处理后,得到背景抑制图像。本发明根据海面目标图像中目标与背景在特征上的显著差异,使用了机器学习和模式识别方法,实现了对海面目标图像中每个像素背景抑制量的预测,形成一套系统的海面目标图像背景抑制量的预测方法,有效地改进了基于人工模型设计的方法,提高了海面目标图像背景抑制的准确性,并且对模型预测进行了加速处理,为背景抑制实时性要求提供保证,并且具有适应较强海面干扰的特点。
附图说明
图1为本发明一种基于卷积神经网络的海面目标图像背景抑制方法的流程图;
图2为具体实施过程中使用的训练集和待抑制图像;
图3为构建的卷积神经网络结构的示意图;
图4为卷积神经网络超参数选择的示意图;
图5为模型在测试集上的背景抑制效果图;
图6为消除卷积中冗余计算的示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
一种基于卷积神经网络的海面目标图像背景抑制方法,具体实施过程的流程如图1所示:
1背景学习阶段
1.1数据准备阶段
收集探测器对云遮挡、海杂波等复杂场景的成像数据:为保证数据多样,收集数据需要考虑海面目标的不同形态、云层和烟雾干扰、海况、反光等各种海面可能会遇到且对成像质量造成影响的因素,保证数据不失一般性。
1.1.1学习集L
从收集的海面目标数据中,以m*n大小的图像片截取数据中的典型区域作为样本信息,所有图像截取之后对应的样本数据,对收集的样本数据进行清洗,去除不完整的、错误的、重复的以及不相关的数据,构成学习集L。
1.1.2正负类别属性
根据图像片包含目标与不包含目标,给样本标记类别属性。具体是,取完全包含目标的图像片作为正样本,并标记为+1;取不包含目标的海面背景为负样本,并标记为-1;从而保证正负样本分别能尽可能地表示目标和背景的信息。
1.2数据预处理
对学习集L中的图像片进行预处理,设学习集L中的图像片矩阵 z={z1,z2,…,zj,…,zn},预处理后的矩阵为x,则:
其中,zj是一个m维的列向量。
原始数据经过上述去中心化预处理之后,可以去除样本的相关性,能够使模型训练更快地收敛,也有利于图像重点特征的学习。对学习集L预处理之后,按照一定比例分成训练集L1、验证集L2,典型比例为3:1。
1.3背景预测模型B-Mod
1.3.1模型结构和超参数设置
考虑实际应用中,由于不同的海况、天气下对海面成像数据的影响,导致成像数据的不同,CNN分类器模型结构要根据这些实际情况作适当调整。本专利在自己采集的数据(如图2所示)上,通过验证集L2对模型结构选优得到最佳的模型结构(如图3所示)。该结构共有5层,其中2个卷积层、 1个下采样层和2个全连接层(包括输出层);卷积层的卷积模板数目为 12,卷积模板尺寸为3×3,步长stride选为1,并在图像块边界处进行补零处理;pooling层的方法选择的是2×2无重叠的最大池化方法,全连接层单元数为60;激活函数选双曲正切tanh函数,输出层选用softmax分类器,目标函数选择交叉熵损失函数;将卷积模板权值初始化为 内均匀选取的值,其中n为上一层中节点个数,偏置项初始化为0;最优化算法选择的是批量梯度下降法,每次迭代的样本量选64,冲量 momentum为0.9,学习率learning rate为0.01;采用Dropout(如图4(b)所示)、Weight decay和数据扩充的方法防止过拟合,其中Dropout 参数设为0.5,Weight decay参数设为1e-6,数据扩充的具体做法是对图像做翻转和平移生成新的图像。
1.3.2模型性能评估方法
用精确率Pprecision、召回率Precall测试CNN分类器性能,具体为:统计 CNN分类器在验证集L2上的预测情况,根据样本的标签信息,将正类预测为正类的数目记为“TP”,将正类预测为负类的数目记为“FN”,将负类预测为正类的数目记为“FP”,将负类预测为负类的数目记为“TN”,则:
1.3.3获得背景预测模型B-Mod
使用训练集L1中的样本训练卷积神经网络,得到正/负两类属性样本的 CNN分类器模型;用验证集L2样本测试CNN分类器性能,统计每个样本通过 CNN分类器模型分类之后的类别属性,根据给定的样本标签信息,计算CNN 分类器模型的精确率Pprecision、召回率Precall;如果CNN分类器性能不能达到设定的性能指标,需要调整模型超参数,重新训练,直到满足性能指标为止。将满足性能指标的最终CNN分类器模型,作为背景预测模型B-Mod。
2背景抑制阶段
利用背景预测模型B-Mod预测每个像素的背景抑制量,完成背景抑制。
2.1全图预处理
对于待抑制的图像,进行数据预处理时,考虑全图预处理,而不是逐个图像片地预处理,这可以消除卷积中大量的冗余计算(如图6),加快了模型预测速度,保证了背景抑制算法的实时性。具体为:
遍历待抑制图像,把每个像素点的灰度值减去它周围一定范围内的灰度均值。设f(x,y)为待抑制图像任一像素点,f′(x,y)为待抑制图像预处理后与f(x,y)对应的像素点,矩阵u={u1,u2,…,uj,…,uc}为以f(x,y)为中心的r*c大小的领域矩阵,则:
其中,uj是一个r维的列向量。
2.2每个图像片属于正/负类别的概率
对于待抑制的图像,在用背景预测模型B-Mod进行前向预测时,将模型前面的卷积层和下采样层直接作用于图像,而不是对其遍历得到的图像片,得到数据立方体;按照对图像进行逐个图像片遍历的顺序,将背景预测模型B-Mod的全连接层作用于数据立方体中对应于该图像片的小立方体,计算得到每个图像片属于正/负类别的概率
2.3每个像素的背景抑制量α(x,y)
将图像片Patchk属于正类的概率作为第k个图像片Patchk中每个像素的背景抑制分量αk(x,y),即
把每个像素的背景抑制分量hk(x,y)加和取平均得到该像素的背景抑制量α(x,y),具体方法为:
设遍历待抑制图像共得到K个图像片,则:
其中,
2.4背景抑制
将每个像素的背景抑制量α(x,y),乘以该像素原来的灰度值f(x,y),以其作为每个像素新的灰度值h(x,y);在得到每个像素新的灰度值之后,需要将整幅图像归一化处理,得到背景抑制图像,具体方法为:
h(x,y)=α(x,y)*f(x,y)
设背景抑制后的图像为g(x,y),则h(x,y)→g(x,y)的映射关系如下:
其中,[g(x,y)max,g(x,y)min]为设定的归一化区间,对于灰度图像,典型值为[0,255];h(x,y)max为所有像素中背景抑制量最大值; h(x,y)min为所有像素中背景抑制量最小值。图5 中左列三张为原始图像,右列三张图像为对应的背景抑制后的效果图。
本发明在对图像进行背景抑制时,首先将大量图像进行背景学习,然后根据学习出来的背景知识,进行灰度变换,完成背景抑制。传统的图像背景抑制方法都是经过人为的经验,根据背景的低频或者相关性强等性质,进行相应的灰度变换,从而实现背景抑制,这往往遗漏掉数据中很多高价值的背景知识。深度学习作为近年来计算机视觉领域出现的新方法,能够较好的从大量数据中自动地学习背景知识,相比于传统人为设计的方法,基于深度学习的背景学习方法更能准确的区分背景和目标的特征,计算出图像上每个图像片属于目标或者背景的概率,为作进一步背景抑制的灰度变换提供了非常有价值的先验知识。
图5所示为本发明实施例中使用的待抑制图像与它们被本发明图像背景抑制的结果对比图。对比发现,本发明提出的图像背景抑制方法,能够从大量数据中学习目标和背景知识,从而实现背景抑制,降低了背景杂波的影响,大大提高了目标的信噪比,能够适应较强的海面干扰,且能够满足背景抑制算法实时性要求高的特点。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种基于卷积神经网络的海面目标图像背景抑制方法,其特征在于,所述方法包括:
(1)选取复杂场景下海面目标的成像数据,以固定大小的图像片截取数据中的典型区域作为样本信息,以完全包含目标的样本为正样本,以不包含目标的样本为负样本,从所有图像数据中截取到的样本数据构成学习集L;
(2)将学习集L中的数据进行预处理,即对学习集L中的每个图像片减去学习集L的均值;
(3)将数据预处理后的学习集L按照一定的比例分成训练集L1、验证集L2,使用训练集L1中的样本训练卷积神经网络,得到正/负两类属性样本的CNN分类器模型;用验证集L2样本测试CNN分类器性能,统计每个样本通过CNN分类器模型分类之后的类别属性,根据给定的样本标签信息,计算CNN分类器模型的精确率Pprecision、召回率Precall;如果CNN分类器性能不能达到设定的性能指标,需要调整模型超参数,重新训练,直到满足性能指标为止;将满足性能指标的最终CNN分类器模型,作为背景预测模型B-Mod;
(4)对于待抑制的图像,进行数据预处理,处理后的数据通过步骤(3)的背景预测模型B-Mod预测出待抑制图像中第k个图像片Patchk属于正和负类别的概率并将作为第k个图像片Patchk中每个像素的背景抑制分量αk(x,y);
(5)把每个像素的背景抑制分量αk(x,y)求和取平均得到该像素的背景抑制量α(x,y),再乘以该像素原来的灰度值f(x,y),以其作为每个像素新的灰度值,并将整幅图像归一化处理后,得到背景抑制图像。
2.如权利要求1所述的方法,其特征在于,所述步骤(2)中对学习集L中的图像片进行预处理的具体方法为:
设学习集L中的图像片矩阵z={z1,z2,...,zj,...,zn},预处理后的矩阵为x,则:
其中,zj是一个m维的列向量。
3.如权利要求1或2所述的方法,其特征在于,所述步骤(3)中将数据预处理后的学习集L按照一定比例分成训练集L1、验证集L2,具体方法为:从收集的海面目标数据中,以m*n大小的图像片截取数据中的典型区域作为样本信息,给予这些样本正或负标签信息,并将其随机分成一定比例的两个集合,作为训练集L1、验证集L2。
4.如权利要求1或2所述的方法,其特征在于,所述步骤(3)中用验证集L2样本测试CNN分类器性能,其中CNN分类器模型的精确率Pprecision、召回率Precall的计算具体为:
统计CNN分类器性能在验证集L2上的预测情况,根据样本的标签信息,将正类预测为正类的数目记为“TP”,将正类预测为负类的数目记为“FN”,将负类预测为正类的数目记为“FP”,将负类预测为负类的数目记为“TN”,则:
5.如权利要求1或2所述的方法,其特征在于,所述步骤(4)中,对于待抑制的图像,在用背景预测模型B-Mod进行前向预测时,将背景预测模型B-Mod前面的卷积层和下采样层直接作用于图像,得到数据立方体;按照对图像进行逐个图像片遍历的顺序,将背景预测模型B-Mod的全连接层作用于数据立方体中对应于该图像片的小立方体,计算得到每个图像片属于正/负类别的概率
6.如权利要求1或2所述的方法,其特征在于,所述步骤(4)中,对于待抑制的图像,进行数据预处理时,考虑全图预处理,具体为:
遍历待抑制图像,把每个像素点的灰度值减去它周围一定范围内的灰度均值,设f(x,y)为待抑制图像任一像素点,f′(x,y)为待抑制图像预处理后与f(x,y)对应的像素点,矩阵u={u1,u2,...,uj,...,uc}为以f(x,y)为中心的r*c大小的领域矩阵,则:
其中,uj是一个r维的列向量。
7.如权利要求1或2所述的方法,其特征在于,所述步骤(4)中,数据预处理之后,用背景预测模型B-Mod预测出待抑制图像中第k个图像片Patchk属于正和负类别的概率并将作为第k个图像片Patchk中每个像素的背景抑制分量αk(x,y),即
8.如权利要求1或2所述的方法,其特征在于,所述步骤(5)中,把每个像素的背景抑制分量αk(x,y)求和取平均得到该像素的背景抑制量α(x,y),再乘以该像素原来的灰度值f(x,y),以其作为每个像素新的灰度值h(x,y),具体方法为:
设遍历待抑制图像共得到K个图像片,则:
其中,
9.如权利要求1或2所述的方法,其特征在于,所述步骤(5)中,在得到每个像素新的灰度值之后,需要将整幅图像归一化处理,得到背景抑制图像,具体方法为:
设背景抑制后的图像为g(x,y),则h(x,y)→g(x,y)的映射关系如下:
其中,[g(x,y)max,g(x,y)min]为设定的归一化区间,对于灰度图像,典型值为[0,255];h(x,y)max为所有像素中背景抑制量最大值;h(x,y)min为所有像素中背景抑制量最小值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610159838.4A CN105844627B (zh) | 2016-03-21 | 2016-03-21 | 一种基于卷积神经网络的海面目标图像背景抑制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610159838.4A CN105844627B (zh) | 2016-03-21 | 2016-03-21 | 一种基于卷积神经网络的海面目标图像背景抑制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105844627A CN105844627A (zh) | 2016-08-10 |
CN105844627B true CN105844627B (zh) | 2019-02-05 |
Family
ID=56587496
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610159838.4A Active CN105844627B (zh) | 2016-03-21 | 2016-03-21 | 一种基于卷积神经网络的海面目标图像背景抑制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105844627B (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106874964B (zh) * | 2017-03-30 | 2023-11-03 | 李文谦 | 一种基于改进型卷积神经网络的脚型图像尺码自动预测方法及预测装置 |
CN107330440B (zh) * | 2017-05-17 | 2020-08-14 | 天津大学 | 基于图像识别的海洋状态计算方法 |
CN107346430A (zh) * | 2017-06-29 | 2017-11-14 | 济南浪潮高新科技投资发展有限公司 | 一种核磁共振图像自动筛选方法 |
CN107515895B (zh) * | 2017-07-14 | 2020-06-05 | 中国科学院计算技术研究所 | 一种基于目标检测的视觉目标检索方法与系统 |
CN108549942A (zh) * | 2018-04-26 | 2018-09-18 | 厦门市礼小签电子科技有限公司 | 一种基于区块链与ar增强学习技术的数据模型系统 |
WO2019216404A1 (ja) * | 2018-05-10 | 2019-11-14 | パナソニックIpマネジメント株式会社 | ニューラルネットワーク構築装置、情報処理装置、ニューラルネットワーク構築方法及びプログラム |
CN109100710A (zh) * | 2018-06-26 | 2018-12-28 | 东南大学 | 一种基于卷积神经网络的水下目标识别方法 |
CN108960314B (zh) * | 2018-06-26 | 2022-02-11 | 北京旷视科技有限公司 | 基于难样本的训练方法、装置及电子设备 |
CN109002848B (zh) * | 2018-07-05 | 2021-11-05 | 西华大学 | 一种基于特征映射神经网络的弱小目标检测方法 |
CN111476056B (zh) * | 2019-01-23 | 2024-04-16 | 阿里巴巴集团控股有限公司 | 目标物体的识别方法、装置、终端设备及计算机存储介质 |
CN109960886B (zh) * | 2019-03-30 | 2020-09-29 | 龙马智芯(珠海横琴)科技有限公司 | 一种空气舒适度评价方法、装置及空气调节设备 |
CN110363286A (zh) * | 2019-06-27 | 2019-10-22 | 腾讯科技(深圳)有限公司 | 神经网络模型的生成方法及装置 |
CN111178503A (zh) * | 2019-12-16 | 2020-05-19 | 北京邮电大学 | 面向移动终端的去中心化目标检测模型训练方法及系统 |
CN116994155B (zh) * | 2023-09-26 | 2024-02-23 | 中国地质大学(武汉) | 一种地质岩性的解译方法、装置及存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104978580A (zh) * | 2015-06-15 | 2015-10-14 | 国网山东省电力公司电力科学研究院 | 一种用于无人机巡检输电线路的绝缘子识别方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100774301B1 (ko) * | 2007-02-13 | 2007-11-08 | 군산대학교산학협력단 | 콘크리트 압축강도의 예측방법 |
-
2016
- 2016-03-21 CN CN201610159838.4A patent/CN105844627B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104978580A (zh) * | 2015-06-15 | 2015-10-14 | 国网山东省电力公司电力科学研究院 | 一种用于无人机巡检输电线路的绝缘子识别方法 |
Non-Patent Citations (2)
Title |
---|
Improved Genetic Neural Network for Image Segmentation;Qing-sheng WANG等;《Proceedings of 2011 IEEE the 18th International Conference on Industrial Engineering and Engineering Management(Volume 3)》;20110903;第1694-1698页 |
基于卷积神经网络的目标跟踪算法研究与实现;张子夫;《中国优秀硕士学位论文全文数据库信息科技辑》;20150815(第08期);摘要,第16-41页 |
Also Published As
Publication number | Publication date |
---|---|
CN105844627A (zh) | 2016-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105844627B (zh) | 一种基于卷积神经网络的海面目标图像背景抑制方法 | |
CN106778595B (zh) | 基于高斯混合模型的人群中异常行为的检测方法 | |
CN111080675B (zh) | 一种基于时空约束相关滤波的目标跟踪方法 | |
CN110032925B (zh) | 一种基于改进胶囊网络与算法的手势图像分割与识别方法 | |
Ding et al. | U 2 D 2 Net: Unsupervised unified image dehazing and denoising network for single hazy image enhancement | |
CN107103338A (zh) | 融合卷积特征和集成超限学习机的sar目标识别方法 | |
CN112395987A (zh) | 基于无监督域适应cnn的sar图像目标检测方法 | |
CN110728698A (zh) | 一种基于复合循环神经网络系统的多目标跟踪模型 | |
CN110490907A (zh) | 基于多目标特征和改进相关滤波器的运动目标跟踪方法 | |
Zhang et al. | A swarm intelligence based searching strategy for articulated 3D human body tracking | |
CN112419171A (zh) | 一种多残差块条件生成对抗网络的图像复原方法 | |
CN112329784A (zh) | 一种基于时空感知及多峰响应的相关滤波跟踪方法 | |
CN111260687A (zh) | 一种基于语义感知网络和相关滤波的航拍视频目标跟踪方法 | |
CN111126155B (zh) | 一种基于语义约束生成对抗网络的行人再识别方法 | |
CN114359167B (zh) | 一种复杂场景下基于轻量化YOLOv4的绝缘子缺陷检测方法 | |
Hao et al. | Video object tracing based on particle filter with ant colony optimization | |
CN108280845B (zh) | 一种针对复杂背景的尺度自适应目标跟踪方法 | |
CN107748885B (zh) | 一种对模糊字符进行识别的方法 | |
CN107358625B (zh) | 基于SPP Net和感兴趣区域检测的SAR图像变化检测方法 | |
CN117788810A (zh) | 一种无监督语义分割的学习系统 | |
CN106952287A (zh) | 一种基于低秩稀疏表达的视频多目标分割方法 | |
CN108830802B (zh) | 一种基于短曝图像梯度导向的图像模糊核估计方法 | |
CN113807206B (zh) | 一种基于去噪任务辅助的sar图像目标识别方法 | |
CN109376619A (zh) | 一种细胞检测方法 | |
CN114694042A (zh) | 一种基于改进Scaled-YOLOv4的伪装人员目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |