CN111368935A - 一种基于生成对抗网络的sar时敏目标样本增广方法 - Google Patents
一种基于生成对抗网络的sar时敏目标样本增广方法 Download PDFInfo
- Publication number
- CN111368935A CN111368935A CN202010188535.1A CN202010188535A CN111368935A CN 111368935 A CN111368935 A CN 111368935A CN 202010188535 A CN202010188535 A CN 202010188535A CN 111368935 A CN111368935 A CN 111368935A
- Authority
- CN
- China
- Prior art keywords
- model
- generated
- convolution
- target
- countermeasure network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明一种基于生成对抗网络的SAR时敏目标样本增广方法,步骤如下:1)构建区域卷积生成对抗网络,实现两模型的前向与反向传播功能;2)制作区域卷积生成对抗网络训练数据集,从目标检测训练数据集中提取切片;3)对区域卷积生成对抗网络进行训练,利用对抗网络训练数据集对区域卷积生成对抗网络进行迭代训练,直到区域卷积生成对抗网络中的生成模型获得稳定且符合期望的输出结果,并保存生成模型与判别模型的权重;4)调整参数批量生成样本,对完成训练的区域卷积生成对抗网络中生成模型装订所保存的参数,根据实际使用需求设置参数输入至生成模型,生成符合期望框体的样本;5)制作用于目标检测识别算法训练的数据集。
Description
技术领域
本发明涉及一种基于生成对抗网络的SAR时敏目标样本增广方法,适用于基于卷积神经网络的针对各类SAR时敏的目标检测识别网络和深度学习框架,通过少量的训练数据使用生成对抗网络进行样本增广,使之可以达到用于训练卷积神经网络的数据体量,用于提升算法能力。
背景技术
由于卷积神经网络训练中需要对大量参数进行调优,因此对训练数据的数量有极高的需求。而在军事应用领域,由于感兴趣目标的非合作性导致样本数据难以获取,因此对训练数据进行数据增广成为应用深度学习技术的主要手段之一,该方法主要是对图像进行变换操作,如平移或旋转、镜像等,来增加训练数据的数量。
此类方法操作简单,仅需要对原始图像数据进行平移、旋转等基础变换操作,即可对数据量实现极大的增加。但此类方法仅适用于分类网络,该类型网络输入为仅包含待分类目标的图像切片,而目标检测识别网络所需要的输入为包含较多目标的高分辨率图像,平移操作将影响框体预测的准确性,仅旋转操作对目标检测识别网络适用。
另一种数据增广的方法则是利用了已有的目标检测的训练样本标注信息,将目标从训练数据中截取,并通过旋转等变换后,粘贴在各种原始数据集中,实现了目标的数量的增广。但此种方法并没有增加目标样本与背景的数量,仅增加了样本出现的次数、丰富了样本的位置。对目标检测识别任务而言,这种方法仅能提升算法的目标定位能力,而对少量目标的多次训练,很可能造成对目标的过拟合,降低对其它目标的检测识别能力。
发明内容
本发明解决的技术问题是:克服现有技术的不足,提供了一种基于生成对抗网络的SAR时敏目标样本增广方法,通过对少量的标注数据,以及大量的无目标背景图片,通过生成对抗网络算法的半监督训练,可以生成大量的训练样本。
本发明的技术方案是:一种基于生成对抗网络的SAR时敏目标样本增广方法,步骤如下:
1)构建区域卷积生成对抗网络,网络包含生成模型和判别模型两部分,分别实现两模型的前向与反向传播功能;
2)制作区域卷积生成对抗网络训练数据集,从目标检测训练数据集中提取切片,其中有包含目标的切片以及未包含目标的切片;所述包含目标的切片需标记目标所在区域的相对位置,并进行数据增广;
3)对区域卷积生成对抗网络进行训练,利用步骤2)中的对抗网络训练数据集对步骤1)所构建的区域卷积生成对抗网络进行迭代训练,直到区域卷积生成对抗网络中的生成模型获得稳定且符合期望的输出结果,并保存生成模型与判别模型的权重;
4)调整参数批量生成样本,对步骤3)中完成训练的区域卷积生成对抗网络中生成模型装订所保存的参数,根据实际使用需求设置参数输入至生成模型,生成符合期望框体的样本;
5)制作用于目标检测识别算法训练的数据集。
所述的步骤1)构建区域卷积生成对抗网络的方法为:
111)构建生成模型,输入为一个100维向量和一个目标框体信息四维向量;
112)构建判别模型,输入为真实图像或生成器所生成的尺寸为64×64的单或多通道图像,真实图像由包含目标以及不包含目标两部分组成,包含目标的图像需提供目标框体的四维向量用于训练,其框体中心为图像中心;
113)建立生成模型和判别模型的损失函数,其中生成模型被判别模型识别为正样本的概率越大,预测框体与期望框体的偏差越小,生成模型的损失函数值应越小;生成样本被判别模型识别为正样本的概率越小,预测框体与输入样本框体的偏差越小,判别模型的损失函数值越小。
所述步骤1)构建生成模型的方法为:
121)利用4×4反卷积,构建多层反卷积结构,各反卷积层卷积核数量前一层依次为后一层的二倍,最后一层卷积层卷积核数量与期望生成图像的通道数相同;
122)100维向量直接输入至首层反卷积,投射至一个4×4×ng×2d-1维的特征图,其中ng参数为生成器超参数,特征图输入至第二层进行反卷积计算;
123)框体信息则直接映射为各特征图尺寸的掩膜,作为额外的输出通道并入除最后一层外各层输出的特征图。
所述步骤2)构建判别模型的方法为:
21)利用4×4步长为2的卷积,构建多层卷积结构,各卷积层卷积核数量后一层依次为前一层的二倍,最后一层卷积层为框体预测层,输出为预测框体坐标以及对应得分;
22)在倒数第二层引出框体预测分值,建立区域建议网络,其输入为倒数第二层输出的特征图,输出为一组预测框体,作为最后一层框体预测层的另一输入。
所述的步骤3)对区域卷积生成对抗网络进行训练的方法为:
31)随机产生一批100维向量以及四维目标框体向量作为生成模型输入;
2)将步骤31)中的数据输入至生成模型进行前向计算,生成一组生成样本;
33)从真实样本数据集中随机采样一批与生成样本数量相同的真实样本;
34)将步骤33)中的包含生成样本与真实样本的数据集输入至判别模型进行前向计算;
35)使用步骤33)中样本的真值与步骤34)判别模型的预测结果,对判别模型进行梯度下降,更新判别模型的参数;
36)使用步骤31)中的框体期望值与步骤34)的判别模型预测结果,对生成模型进行梯度下降,更新生成模型的参数;
37)重复步骤31)至步骤36),直到区域卷积生成对抗网络中的生成模型获得稳定且符合期望的输出结果,当步骤33)完成对真实样本的全部采样,则重新对真实样本数据集随机采样。
本发明与现有技术相比的优点在于:
1)通过生成对抗网络的无监督学习能力,充分挖掘了标注样本中的特征,并生成了与训练样本相似但略有差异的目标,提升了目标数量的同时,还增加了目标的多样性;
2)通过对生成对抗网络的生成模型和判别模型,分别增加框体标记的条件分支与定位分支,使生成样本图片的同时还能生成样本标注框,通过粘贴到无目标背景图片,可以生成大量的具有不同背景的训练样本,增加目标检测识别网路对背景的鲁棒性。
3)相较于传统数据增广方法,本方案一方面极大程度地提高了目标样本的多样化程度,帮助训练中提升目标检测识别的召回率;另一方面减少了手工标注的步骤,可以直接生成目标切片,并可通过大量的目标切片复制于无目标的背景图中,丰富了目标检测识别算法训练集的背景,帮助训练中提升目标检测识别的准确率。
附图说明
图1为本发明方案实施流程图。
图2为生成模型网络结构图。
图3为判别模型网络结构图。
具体实施方式
本方法的核心技术是一种区域卷积生成对抗网络(Regions with ConvolutionalGenerative Adversarial Networks,RCGAN),这是一种具能生成图像同时还生成目标位置的生成网络模型,通过使用全卷积神经网络、区域条件生成、区域判别的技术手段,得到了一种能训练稳定的网络结构,在多种数据集上实现了附带区域信息的样本生成。RCGAN主要包括生成模型G和判别模型D,相较于传统生成对抗网络(Generative AdversarialNetwork,GAN)分别增加了区域条件分支与定位分支,实现了同时生成样本和标注信息的目的。
实施例1:
如图1所示,本发明对单通道SAR海面舰船目标样本增广的具体步骤如下:
1)构建区域卷积生成对抗网络,网络包含生成模型和判别模型两部分,分别实现两者的前向与反向传播功能。
其中,生成模型的网络模型结构如图2所示,输入是一个100维向量和一个目标框体信息的4维向量,100维向量首先通过反卷积层投射至一个4×4×1024的特征空间,再经过连续的4个反卷积层,并最终生成一幅尺寸为64×64的单或多通道图像;框体信息则直接映射为各特征图尺寸的掩膜,作为额外的输出通道并入除最后一层外各层输出的特征图。
判别模型的网络模型结构如图3所示,输入为真实图像或生成器所生成的尺寸为64×64的单或多通道图像,真实图像由包含目标以及不包含目标两部分组成,包含目标的图像需要提供目标框体的4维向量用于训练。输入经过3层卷积层后,转为两个分支,一个分支使用区域建议网络(Region Proposal Network,RPN)进行框体预测,生成k个可能的框体目标区域,另一个分支继续卷积,并使用分类器判断k个框体的是否为真实目标。最后使用非极大值抑制(Non-Maximum Suppression,NMS)算法多次迭代去除交并比大于阈值的框体,仅保留孤立目标。
RCGAN的生成模型G的训练目的是最大化生成样本pG被判别模型识别D为正样本的概率即log(1-D(G(z))),并最小化预测框体与期望框体的偏差;判别模型的训练目的是最大化判别正负样本的准确率,最小化预测框体与真实框体的偏差。
生成模型的损失函数如下:
判别模型的RPN部分的损失函数LRPN({pi},{ti})定义如下:
其中i为锚点的序号,pi为第i个锚点对应区域是目标的概率,为该锚点的真值(若属于目标则为1),ti为预测候选框的四个坐标组成的向量,而为真实目标框体坐标向量。Lcls为分类器的损失函数,是两类之间的对数损失;Lreg为候选区域回归损失函数,其中
判别模型中分类器的损失函数Ls(p,u,tu,v)定义如下:
Ls(p,u,tu,v)=Lcls(p,u)+λ[u≥1]Lloc(tu,v)
Lcls(p,u)=-log pu
其中p=(p0,p1)分别为负样本、正样本标签的概率,u为分类的真值,v为框体位置真值,λ[u≥1]在u≥1时等于1,否则为0即背景,元组为对第k类的位置校正。损失函数依旧分为两部分,第一项为分类损失函数,采用Softmax分类器,损失函数为交叉熵损失(cross-entropy loss);第二项为回归损失,定义与RPN损失函数中的回归损失相同,用于评估真实框与预测框之间的平移、缩放差距。
2)制作区域卷积生成对抗网络训练数据集,方案实现需要256张以上含目标位置信息的遥感时敏目标切片、256张以上不含背景的切片,尺寸为64×64,通道数根据实际数据确定,本例为1。
3)对区域卷积生成对抗网络进行训练,该训练过程是生成模型与判别模型的同时训练与更新,采用小批随机梯度下降(Stochastic gradient descent,SGD)训练,具体步骤如下:
①从随机输入pZ(z)中采样出一小批m个样本{z(1),…,z(m)},其中z(i)作为生成模型输入,包括100维向量以及4维目标框体向量,其框体中心应为图像中心(偏差不超过1像素);
②将上述步骤①中的小批数据输入至生成模型生成模型对样本{z(1),…,z(m)}进行前向计算,生成样本{G(z(1)),…,G(z(m))};
③从真实样本数据集pdata(x)中随机采样一小批与生成样本数量相同的真实样本;
④将步骤③中的包含生成样本与真实样本的数据{x(1),…,x(m)}∪{G(z(1)),…,G(z(m))}输入至判别模型前向计算D(x);
⑦重复步骤①至步骤⑥max_iter次,或直到区域卷积生成对抗网络中的生成模型获得稳定且符合期望的输出结果,当上述步骤③完成了对真实样本的全部采样,则重新对真实样本数据集随机采样。
基于梯度下降的参数更新策略可使用任意方法,常规实现可基于动量(Momentum)的方法。迭代数量max_iter和采样数m分别为1000和64,max_iter可根据生成模型和判别模型的损失函数收敛情况适当增加或减少,m值则根据计算设备算力情况进行调整。
5)对上述步骤3)中完成训练的区域卷积生成对抗网络中生成模型装订所保存的参数,根据实际使用需求的数量num_data,设置num_data组参数{z(1),…,z(num_data)}输入至生成模型,其中目标框体根据要求设置,可生成符合期望框体的样本,并进行人工筛选;
5)制作可用于目标检测识别算法训练的数据集,准备无目标的SAR海面背景图片,将生成模型生成的目标样本切片根据框体信息仅复制目标区域到准备的背景图片内,并生成包含完整框体信息的用于算法训练的标注文件,即完成了目标样本增广,可用于目标检测识别算法训练使用。
实施例2
输入图片尺寸可调整为64×64的2n倍,如128×128、256×256等,相应地,步骤1)中的生成模型及判别模型也需要分别增加n层的反卷积层或卷积层。通道数根据实际样本可进行改变,则生成模型的最后一层以及判别模型的第一层卷积核数量也需要改变为对应数量。此外步骤3)中迭代数量max_iter和采样数m推荐值分别为1000和64,可根据实际情况调整,m可根据训练设备计算能力适当提高;max_iter根据m提高可下降对应倍数,具体数值以生成模型获得稳定且符合期望的输出结果为准。
本发明未详细说明部分属本领域技术人员公知常识。
Claims (5)
1.一种基于生成对抗网络的SAR时敏目标样本增广方法,其特征在于步骤如下:
1)构建区域卷积生成对抗网络,网络包含生成模型和判别模型两部分,分别实现两模型的前向与反向传播功能;
2)制作区域卷积生成对抗网络训练数据集,从目标检测训练数据集中提取切片,其中有包含目标的切片以及未包含目标的切片;所述包含目标的切片需标记目标所在区域的相对位置,并进行数据增广;
3)对区域卷积生成对抗网络进行训练,利用步骤2)中的对抗网络训练数据集对步骤1)所构建的区域卷积生成对抗网络进行迭代训练,直到区域卷积生成对抗网络中的生成模型获得稳定且符合期望的输出结果,并保存生成模型与判别模型的权重;
4)调整参数批量生成样本,对步骤3)中完成训练的区域卷积生成对抗网络中生成模型装订所保存的参数,根据实际使用需求设置参数输入至生成模型,生成符合期望框体的样本;
5)制作用于目标检测识别算法训练的数据集。
2.根据权利要求1所述的一种基于生成对抗网络的SAR时敏目标样本增广方法,其特征在于:所述的步骤1)构建区域卷积生成对抗网络的方法为:
111)构建生成模型,输入为一个100维向量和一个目标框体信息四维向量;
112)构建判别模型,输入为真实图像或生成器所生成的尺寸为64×64的单或多通道图像,真实图像由包含目标以及不包含目标两部分组成,包含目标的图像需提供目标框体的四维向量用于训练,其框体中心为图像中心;
113)建立生成模型和判别模型的损失函数,其中生成模型被判别模型识别为正样本的概率越大,预测框体与期望框体的偏差越小,生成模型的损失函数值应越小;生成样本被判别模型识别为正样本的概率越小,预测框体与输入样本框体的偏差越小,判别模型的损失函数值越小。
3.根据权利要求2所述的一种基于生成对抗网络的SAR时敏目标样本增广方法,其特征在于:所述步骤1)构建生成模型的方法为:
121)利用4×4反卷积,构建多层反卷积结构,各反卷积层卷积核数量前一层依次为后一层的二倍,最后一层卷积层卷积核数量与期望生成图像的通道数相同;
122)100维向量直接输入至首层反卷积,投射至一个4×4×ng×2d-1维的特征图,其中ng参数为生成器超参数,特征图输入至第二层进行反卷积计算;
123)框体信息则直接映射为各特征图尺寸的掩膜,作为额外的输出通道并入除最后一层外各层输出的特征图。
4.根据权利要求3所述的一种基于生成对抗网络的SAR时敏目标样本增广方法,其特征在于:所述步骤2)构建判别模型的方法为:
21)利用4×4步长为2的卷积,构建多层卷积结构,各卷积层卷积核数量后一层依次为前一层的二倍,最后一层卷积层为框体预测层,输出为预测框体坐标以及对应得分;
22)在倒数第二层引出框体预测分值,建立区域建议网络,其输入为倒数第二层输出的特征图,输出为一组预测框体,作为最后一层框体预测层的另一输入。
5.根据权利要求4所述的一种基于生成对抗网络的SAR时敏目标样本增广方法,其特征在于:所述的步骤3)对区域卷积生成对抗网络进行训练的方法为:
31)随机产生一批100维向量以及四维目标框体向量作为生成模型输入;
2)将步骤31)中的数据输入至生成模型进行前向计算,生成一组生成样本;
33)从真实样本数据集中随机采样一批与生成样本数量相同的真实样本;
34)将步骤33)中的包含生成样本与真实样本的数据集输入至判别模型进行前向计算;
35)使用步骤33)中样本的真值与步骤34)判别模型的预测结果,对判别模型进行梯度下降,更新判别模型的参数;
36)使用步骤31)中的框体期望值与步骤34)的判别模型预测结果,对生成模型进行梯度下降,更新生成模型的参数;
37)重复步骤31)至步骤36),直到区域卷积生成对抗网络中的生成模型获得稳定且符合期望的输出结果,当步骤33)完成对真实样本的全部采样,则重新对真实样本数据集随机采样。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010188535.1A CN111368935B (zh) | 2020-03-17 | 2020-03-17 | 一种基于生成对抗网络的sar时敏目标样本增广方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010188535.1A CN111368935B (zh) | 2020-03-17 | 2020-03-17 | 一种基于生成对抗网络的sar时敏目标样本增广方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111368935A true CN111368935A (zh) | 2020-07-03 |
CN111368935B CN111368935B (zh) | 2023-06-09 |
Family
ID=71206847
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010188535.1A Active CN111368935B (zh) | 2020-03-17 | 2020-03-17 | 一种基于生成对抗网络的sar时敏目标样本增广方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111368935B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112257810A (zh) * | 2020-11-03 | 2021-01-22 | 大连理工大学人工智能大连研究院 | 一种基于改进FasterR-CNN的海底生物目标检测方法 |
CN112395987A (zh) * | 2020-11-18 | 2021-02-23 | 西安电子科技大学 | 基于无监督域适应cnn的sar图像目标检测方法 |
CN113160402A (zh) * | 2021-04-09 | 2021-07-23 | 西安建筑科技大学 | 一种基于dcgan的dem增广方法 |
CN115841048A (zh) * | 2023-02-13 | 2023-03-24 | 中国人民解放军火箭军工程大学 | 一种基于目标机理模型的多模仿真数据集制备方法 |
CN116128954A (zh) * | 2022-12-30 | 2023-05-16 | 上海强仝智能科技有限公司 | 一种基于生成网络的商品布局识别方法、装置及存储介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107944370A (zh) * | 2017-11-17 | 2018-04-20 | 西安电子科技大学 | 基于dccgan模型的极化sar图像分类方法 |
CN108537742A (zh) * | 2018-03-09 | 2018-09-14 | 天津大学 | 一种基于生成对抗网络的遥感图像全色锐化方法 |
US20180357554A1 (en) * | 2017-06-13 | 2018-12-13 | Princeton University | Dynamic learning system |
CN109614979A (zh) * | 2018-10-11 | 2019-04-12 | 北京大学 | 一种基于选择与生成的数据增广方法及图像分类方法 |
WO2019174299A1 (en) * | 2018-03-15 | 2019-09-19 | Boe Technology Group Co., Ltd. | Image processing method, image processing apparatus, and computer-program product |
CN110472667A (zh) * | 2019-07-19 | 2019-11-19 | 广东工业大学 | 基于反卷积神经网络的小目标分类方法 |
CN110516606A (zh) * | 2019-08-28 | 2019-11-29 | 北京观微科技有限公司 | 高分辨率卫星影像任意方向舰船目标检测方法 |
CN110516561A (zh) * | 2019-08-05 | 2019-11-29 | 西安电子科技大学 | 基于dcgan和cnn的sar图像目标识别方法 |
CN110555811A (zh) * | 2019-07-02 | 2019-12-10 | 五邑大学 | 一种sar图像数据增强方法、装置及存储介质 |
CN110610207A (zh) * | 2019-09-10 | 2019-12-24 | 重庆邮电大学 | 一种基于迁移学习的小样本sar图像舰船分类方法 |
-
2020
- 2020-03-17 CN CN202010188535.1A patent/CN111368935B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180357554A1 (en) * | 2017-06-13 | 2018-12-13 | Princeton University | Dynamic learning system |
CN107944370A (zh) * | 2017-11-17 | 2018-04-20 | 西安电子科技大学 | 基于dccgan模型的极化sar图像分类方法 |
CN108537742A (zh) * | 2018-03-09 | 2018-09-14 | 天津大学 | 一种基于生成对抗网络的遥感图像全色锐化方法 |
WO2019174299A1 (en) * | 2018-03-15 | 2019-09-19 | Boe Technology Group Co., Ltd. | Image processing method, image processing apparatus, and computer-program product |
CN109614979A (zh) * | 2018-10-11 | 2019-04-12 | 北京大学 | 一种基于选择与生成的数据增广方法及图像分类方法 |
CN110555811A (zh) * | 2019-07-02 | 2019-12-10 | 五邑大学 | 一种sar图像数据增强方法、装置及存储介质 |
CN110472667A (zh) * | 2019-07-19 | 2019-11-19 | 广东工业大学 | 基于反卷积神经网络的小目标分类方法 |
CN110516561A (zh) * | 2019-08-05 | 2019-11-29 | 西安电子科技大学 | 基于dcgan和cnn的sar图像目标识别方法 |
CN110516606A (zh) * | 2019-08-28 | 2019-11-29 | 北京观微科技有限公司 | 高分辨率卫星影像任意方向舰船目标检测方法 |
CN110610207A (zh) * | 2019-09-10 | 2019-12-24 | 重庆邮电大学 | 一种基于迁移学习的小样本sar图像舰船分类方法 |
Non-Patent Citations (1)
Title |
---|
丛龙剑: "基于深度学习的SAR舰船目标识别方法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112257810A (zh) * | 2020-11-03 | 2021-01-22 | 大连理工大学人工智能大连研究院 | 一种基于改进FasterR-CNN的海底生物目标检测方法 |
CN112257810B (zh) * | 2020-11-03 | 2023-11-28 | 大连理工大学人工智能大连研究院 | 一种基于改进FasterR-CNN的海底生物目标检测方法 |
CN112395987A (zh) * | 2020-11-18 | 2021-02-23 | 西安电子科技大学 | 基于无监督域适应cnn的sar图像目标检测方法 |
CN112395987B (zh) * | 2020-11-18 | 2023-07-28 | 西安电子科技大学 | 基于无监督域适应cnn的sar图像目标检测方法 |
CN113160402A (zh) * | 2021-04-09 | 2021-07-23 | 西安建筑科技大学 | 一种基于dcgan的dem增广方法 |
CN116128954A (zh) * | 2022-12-30 | 2023-05-16 | 上海强仝智能科技有限公司 | 一种基于生成网络的商品布局识别方法、装置及存储介质 |
CN116128954B (zh) * | 2022-12-30 | 2023-12-05 | 上海强仝智能科技有限公司 | 一种基于生成网络的商品布局识别方法、装置及存储介质 |
CN115841048A (zh) * | 2023-02-13 | 2023-03-24 | 中国人民解放军火箭军工程大学 | 一种基于目标机理模型的多模仿真数据集制备方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111368935B (zh) | 2023-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110443143B (zh) | 多分支卷积神经网络融合的遥感图像场景分类方法 | |
CN111368935B (zh) | 一种基于生成对抗网络的sar时敏目标样本增广方法 | |
CN114022432B (zh) | 基于改进的yolov5的绝缘子缺陷检测方法 | |
CN109543606B (zh) | 一种加入注意力机制的人脸识别方法 | |
CN109919108B (zh) | 基于深度哈希辅助网络的遥感图像快速目标检测方法 | |
CN108229550B (zh) | 一种基于多粒度级联森林网络的云图分类方法 | |
CN112163628A (zh) | 一种适用于嵌入式设备的改进目标实时识别网络结构的方法 | |
CN112348036A (zh) | 基于轻量化残差学习和反卷积级联的自适应目标检测方法 | |
CN113420643B (zh) | 基于深度可分离空洞卷积的轻量级水下目标检测方法 | |
CN111310609B (zh) | 基于时序信息和局部特征相似性的视频目标检测方法 | |
CN107423747A (zh) | 一种基于深度卷积网络的显著性目标检测方法 | |
CN113378949A (zh) | 一种基于胶囊网络和混合注意力的双重生成对抗学习方法 | |
CN111881716A (zh) | 一种基于多视角生成对抗网络的行人重识别方法 | |
CN113743505A (zh) | 基于自注意力和特征融合的改进ssd目标检测方法 | |
CN112528904A (zh) | 一种用于砂石颗粒物粒径检测系统的图像分割方法 | |
CN114998688B (zh) | 一种基于YOLOv4改进算法的大视场目标检测方法 | |
CN117011728A (zh) | 基于改进YOLOv7的无人机航拍目标检测方法 | |
CN116563683A (zh) | 一种基于卷积神经网络和多层感知机的遥感影像场景分类方法 | |
CN116682090A (zh) | 一种基于改进YOLOv3算法的车辆目标检测方法 | |
CN112084897A (zh) | 一种gs-ssd的交通大场景车辆目标快速检测方法 | |
CN114550134A (zh) | 基于深度学习的交通标志检测与识别方法 | |
CN111429419B (zh) | 一种基于混合蚁群算法的绝缘子轮廓检测方法 | |
CN117593623A (zh) | 基于改进YOLOv8n模型的轻量化车辆检测方法 | |
CN111695436B (zh) | 一种基于目标增强的高空间分辨率遥感图像场景分类方法 | |
CN115861595B (zh) | 一种基于深度学习的多尺度域自适应异源图像匹配方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |