CN112329832B - 一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强方法及系统 - Google Patents
一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强方法及系统 Download PDFInfo
- Publication number
- CN112329832B CN112329832B CN202011165702.7A CN202011165702A CN112329832B CN 112329832 B CN112329832 B CN 112329832B CN 202011165702 A CN202011165702 A CN 202011165702A CN 112329832 B CN112329832 B CN 112329832B
- Authority
- CN
- China
- Prior art keywords
- generator
- data
- track
- discriminator
- parameters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 238000012549 training Methods 0.000 claims abstract description 18
- 230000000644 propagated effect Effects 0.000 claims abstract description 7
- 238000006243 chemical reaction Methods 0.000 claims description 25
- 238000009826 distribution Methods 0.000 claims description 17
- 230000004807 localization Effects 0.000 claims description 12
- 238000007781 pre-processing Methods 0.000 claims description 12
- 239000003086 colorant Substances 0.000 claims description 6
- 238000012545 processing Methods 0.000 abstract description 6
- 230000000694 effects Effects 0.000 abstract description 5
- 230000006870 function Effects 0.000 description 16
- 238000013527 convolutional neural network Methods 0.000 description 6
- 238000005070 sampling Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000002474 experimental method Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000013136 deep learning model Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000005065 mining Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 241001647769 Mirza Species 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明属于无源定位数据处理技术领域,公开一种基于深度卷积生成对抗网络的目标轨迹数据增强方法及系统,该方法将不平衡数据集的图片样本作为训练样本送入DCGAN进行训练,对轨迹数据集进行增强。首先,由生成器G生成与轨迹图片相似的数据,标签为假;然后,固定生成器的参数,将损失值反向传播更新判别器D的参数;接着,固定判别器D的参数,训练生成器G,使生成器G产生的轨迹片段能够使判别器D判断为真样本;最后,将损失值反向传播更新生成器G的参数。本发明所使用的DCGAN模型生成的图片与原图片有很强的相似性,能够达到数据增强的效果。
Description
技术领域
本发明属于无源定位数据处理技术领域,尤其涉及一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强方法及系统。
背景技术
移动目标轨迹数据描述了目标随时间在空间中运动采样所获取的时空数据信息。无源定位数据挖掘是从无源定位目标轨迹数据中提取出目标运动行为规律的高价值信息的技术。近年来,深度学习在处理图像数据方面表现出强大能力,将轨迹转换为图像之后,可以有效利用卷积神经网络的优势进行时空知识的发现。但无源定位数据多为不平衡的数据集,直接利用定位转换后的图像数据会影响CNN模型的性能,需要对缺失的数据进行数据扩增。对于数据分布不平衡的数据集,传统的解决方法有采样与集成学习相结合的方法、基于图像变换的方法,如EUSBoost算法,但该算法在某些情况下对原始数据集的要求很高,不具有鲁棒性。基于图像变换的方法(image transform),比如图像随机裁剪、随机调整明暗度与对比度、旋转、加噪等等,适用于具有某种形状信息的图片数据集。
近年来出现了更为复杂的数据增强方法,其中Goodfellow等学者(GOODFELLOW I,POUGETABADIE J,MIRZA M,et al.Generative Adversarial Nets:neural informationprocessing systems[C],2014.)在2014年中提出的生成对抗模型(GAN)是一种生成式模型,其发明的方法中生成器能够生成符合真实样本分布的数据,并且不需要依托传统的马尔科夫链,就可以表示更为尖锐或者退化的分布,但是模型本身容易出现训练不稳定、难以训练等问题。
发明内容
本发明针对无源定位目标轨迹数据集不平衡导致深度学习模型对数据转换后的图片数据集训练效果不佳的问题,提出一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强方法及系统,以实现对轨迹数据增强的目的。
为了实现上述目的,本发明采用以下技术方案:
一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强方法,包括:
步骤1:将原始无源定位轨迹数据集中含有数据缺失的无源定位轨迹数据的经纬度和时间信息嵌入图片的RGB分量,转换为轨迹信息图像;
步骤2:对轨迹信息图像进行预处理,统一图片大小,生成目标轨迹片段;将目标轨迹片段作为深度卷积生成对抗网络的训练样本;
步骤3:由生成器G生成与目标轨迹片段相似的数据,标签为假;然后,固定生成器G的参数,将损失值反向传播更新判别器D的参数;
步骤4:固定判别器D的参数,训练生成器G,使生成器G产生的轨迹片段能够使判别器D判断为真样本;将损失值反向传播更新生成器G的参数。
进一步地,所述步骤1包括:
在MATLAB中模拟所有轨迹和航道构成的平面,构建一个调色板,坐标点数据(R分量,G分量,B分量),左上角为(0,0,0)纯黑点,右下角为(255,255,255)的纯白点;在此调色板中,按无源定位轨迹数据经过转换以后的UTM平面坐标给每一条轨迹赋予相应的颜色;
利用MATLAB自带的UTM坐标转换系统,对无源定位轨迹数据的经纬度坐标信息进行UTM平面坐标转换,转换生成UTM平面横纵坐标数据即为所要生成的轨迹图像的R分量、G分量数据;
按照如下方式对时间信息进行标准化处理:
t为某一轨迹点对应的时间,tmin为所有轨迹点对应时间的最小值,tmax为所有轨迹点对应时间的最大值,所有时间单位精确到秒;t*为标准化时间值,即所要生成的轨迹图像的B分量数据。
进一步地,所述步骤2包括:
设统一图片大小为长L0和高H0,设定一个区域划分的比例η,以L0和H0的η倍为阈值,若图片的长L大于L0×η并且高H大于H0×η,则对图片进行上下采样的处理;若图片的长或高中的一方小于阈值,则通过空白填补的方式调整到统一大小;最后统一将图片中的轨迹置于新的空白图片的中心位置。
进一步地,所述步骤3包括:
固定生成器G的参数,优化判别器D的参数,定义G(z)是生成器G生成的假样本,D(G(z))为判别器D判断生成器G生成的轨迹片段真实的概率,为使判别器D的判别能力更优,应使目标函数V(D,G)为:
其中,Pdata(x)和Pz(z)分别表示真实样本x和随机噪声z的概率分布,D(x)表示判别器D判断x为真的概率,E[]表示求期望,用角标x~pdata(x)和z~pz(z)区别真实样本和噪声的期望;
通过计算目标函数的值,再进行梯度的反向传播,更新判别器D的参数。
进一步地,所述步骤4包括:
固定判别器D的参数,优化生成器G的参数,定义G(z)是生成器G生成的假样本,D(G(z))为判别器D判断生成器G生成的轨迹片段真实的概率,为使生成器G生成的轨迹片段更真实,应使目标函数V(D,G)为:
其中,Pz(z)表示随机噪声z的概率分布,E[]表示求期望;
经过判别器D判断生成器G生成的结果后,将目标函数的梯度传回生成器G以更新生成器G的参数。
一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强系统,包括:
无源定位轨迹数据转换模块,用于将原始无源定位轨迹数据集中含有数据缺失的无源定位轨迹数据的经纬度和时间信息嵌入图片的RGB分量,转换为轨迹信息图像;
轨迹信息图像预处理模块,用于对轨迹信息图像进行预处理,统一图片大小,生成目标轨迹片段;将目标轨迹片段作为深度卷积生成对抗网络的训练样本;
判别器参数更新模块,用于由生成器G生成与目标轨迹片段相似的数据,标签为假;然后,固定生成器G的参数,将损失值反向传播更新判别器D的参数;
生成器参数更新模块,用于固定判别器D的参数,训练生成器G,使生成器G产生的轨迹片段能够使判别器D判断为真样本;将损失值反向传播更新生成器G的参数。
进一步地,所述无源定位轨迹数据转换模块具体用于:
在MATLAB中模拟所有轨迹和航道构成的平面,构建一个调色板,坐标点数据(R分量,G分量,B分量),左上角为(0,0,0)纯黑点,右下角为(255,255,255)的纯白点;在此调色板中,按无源定位轨迹数据经过转换以后的UTM平面坐标给每一条轨迹赋予相应的颜色;
利用MATLAB自带的UTM坐标转换系统,对无源定位轨迹数据的经纬度坐标信息进行UTM平面坐标转换,转换生成UTM平面横纵坐标数据即为所要生成的轨迹图像的R分量、G分量数据;
按照如下方式对时间信息进行标准化处理:
t为某一轨迹点对应的时间,tmin为所有轨迹点对应时间的最小值,tmax为所有轨迹点对应时间的最大值,所有时间单位精确到秒;t*为标准化时间值,即所要生成的轨迹图像的B分量数据。
进一步地,所述轨迹信息图像预处理模块具体用于:
设统一图片大小为长L0和高H0,设定一个区域划分的比例η,以L0和H0的η倍为阈值,若图片的长L大于L0×η并且高H大于H0×η,则对图片进行上下采样的处理;若图片的长或高中的一方小于阈值,则通过空白填补的方式调整到统一大小;最后统一将图片中的轨迹置于新的空白图片的中心位置。
进一步地,所述判别器参数更新模块具体用于:
固定生成器G的参数,优化判别器D的参数,定义G(z)是生成器G生成的假样本,D(G(z))为判别器D判断生成器G生成的轨迹片段真实的概率,为使判别器D的判别能力更优,应使目标函数V(D,G)为:
其中,Pdata(x)和Pz(z)分别表示真实样本x和随机噪声z的概率分布,D(x)表示判别器D判断x为真的概率,E[]表示求期望,用角标x~pdata(x)和z~pz(z)区别真实样本和噪声的期望;
通过计算目标函数的值,再进行梯度的反向传播,更新判别器D的参数。
进一步地,所述生成器参数更新模块具体用于:
固定判别器D的参数,优化生成器G的参数,定义G(z)是生成器G生成的假样本,D(G(z))为判别器D判断生成器G生成的轨迹片段真实的概率,为使生成器G生成的轨迹片段更真实,应使目标函数V(D,G)为:
其中,Pz(z)表示随机噪声z的概率分布,E[]表示求期望;
经过判别器D判断生成器G生成的结果后,将目标函数的梯度传回生成器G以更新生成器G的参数。
与现有技术相比,本发明具有的有益效果:
本发明通过使用深度卷积生成对抗网络(DCGAN)对轨迹数据集进行数据增强,能够得到与原轨迹图片相似度很高的轨迹图片,比传统的图像增强的方法对数据的增强效果更好,弥补了无源定位轨迹数据不平衡特性,为利用深度学习模型处理图像数据集的方式对无源定位轨迹数据进行信息挖掘这一新颖领域提供可靠数据集,从而消除过拟合等不良现象。
附图说明
图1为本发明实施例一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强方法的基本流程图;
图2为本发明实施例一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强方法的深度卷积生成对抗网络结构示意图;
图3为预处理后目标轨迹片段示例图;
图4为A组不均衡数据增强结果示例图;
图5为B组不均衡数据增强结果示例图;
图6为A组组不均衡数据的验证集上的准确率与损失值变化趋势图;
图7为B组组不均衡数据的验证集上的准确率与损失值变化趋势图;
图8为本发明实施例一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强系统的架构示意图。
具体实施方式
下面结合附图和具体的实施例对本发明做进一步的解释说明:
如图1、图2所示,一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强方法,包括:
步骤S101:将原始无源定位轨迹数据集中含有数据缺失的无源定位轨迹数据的经纬度和时间信息嵌入图片的RGB分量,转换为轨迹信息图像;
步骤S102:对轨迹信息图像进行预处理,统一图片大小,生成目标轨迹片段;将目标轨迹片段作为深度卷积生成对抗网络的训练样本;
步骤S103:由生成器G生成与目标轨迹片段相似的数据,标签为假;然后,固定生成器G的参数,将损失值反向传播更新判别器D的参数;
步骤S104:固定判别器D的参数,训练生成器G,使生成器G产生的轨迹片段能够使判别器D判断为真样本;将损失值反向传播更新生成器G的参数。
进一步地,所述步骤S101包括:
在MATLAB中模拟所有轨迹和航道构成的平面,构建一个调色板,坐标点数据(R分量,G分量,B分量),左上角为(0,0,0)纯黑点,右下角为(255,255,255)的纯白点;在此调色板中,按无源定位轨迹数据经过转换以后的UTM平面坐标给每一条轨迹赋予相应的颜色;
利用MATLAB自带的UTM坐标转换系统,对无源定位轨迹数据的经纬度坐标信息进行UTM平面坐标转换,转换生成UTM平面横纵坐标数据即为所要生成的轨迹图像的R分量、G分量数据;
按照如下方式对时间信息进行标准化处理:
t为某一轨迹点对应的时间,tmin为所有轨迹点对应时间的最小值,tmax为所有轨迹点对应时间的最大值,所有时间单位精确到秒;t*为标准化时间值,即所要生成的轨迹图像的B分量数据。
进一步地,所述步骤S102包括:
设统一图片大小为长L0和高H0,设定一个区域划分的比例η,以L0和H0的η倍为阈值,若图片的长L大于L0×η并且高H大于H0×η,则对图片进行上下采样的处理;若图片的长或高中的一方小于阈值,则通过空白填补的方式调整到统一大小;最后统一将图片中的轨迹置于新的空白图片的中心位置。
进一步地,所述步骤S103包括:
固定生成器G的参数,优化判别器D的参数,定义G(z)是生成器G生成的假样本,D(G(z))为判别器D判断生成器G生成的轨迹片段真实的概率,为使判别器D的判别能力更优,应使目标函数V(D,G)为:
其中,Pdata(x)和Pz(z)分别表示真实样本x和随机噪声z的概率分布,D(x)表示判别器D判断x为真的概率,E[]表示求期望,用角标x~pdata(x)和z~pz(z)区别真实样本和噪声的期望;
通过计算目标函数的值,再进行梯度的反向传播,更新判别器D的参数。
表1判别器网络参数表
进一步地,所述步骤S104包括:
固定判别器D的参数,优化生成器G的参数,定义G(z)是生成器G生成的假样本,D(G(z))为判别器D判断生成器G生成的轨迹片段真实的概率,为使生成器G生成的轨迹片段更真实,应使目标函数V(D,G)为:
其中,Pz(z)表示随机噪声z的概率分布,E[]表示求期望;
经过判别器D判断生成器G生成的结果后,将目标函数的梯度传回生成器G以更新生成器G的参数。
表2生成器网络参数表
为验证本发明效果,采用真实的航道数据模拟无源定位数据进行实验验证。由图3可见,原始轨迹数据在经过转换及预处理后能够生成不同形状以及颜色信息的轨迹片段,这些片段中既具有航道信息的特点,也满足真实性与和无源定位数据的相似性等要求。在此数据集基础上按照本发明步骤进行DCGAN数据增强实验。根据数据集不均衡的程度设置2组不均衡程度不同的数据,将每组数据中数据量缺失的数据类别送入DCGAN网络进行训练。DCGAN网络优化器采用Adam,学习率设为0.0002。A组的不均衡数据集每条航道含有的轨迹片段数量为30,80,100,500,1000,1000,1000,1000,1000,50。B组的不均衡数据集分布为50,200,500,1000,1000,1000,1000,1000,1000,10。设置超参数:A组:第1、2、3、10类的Batchsize(批处理大小,即一次训练所选取的样本数)是20,第4类的Batchsize是64;B组:第1类的Batchsize是25,2、3、10类的Batchsize是64。实验环境采用Tensorflow版本1.4.0搭建神经网络框架,python3.6作为编程语言,wing6.0作为编译器环境进行调试。使用的实验环境配置是i5-6200U CPU,主频是24GHz。图4所展示的分别是A组2、3、10类经过600轮(epoch)后的结果。图5所展示的分别是B组1、2、3类经过600轮(epoch)后的结果。从两组的对比实验结果可以发现,训练样本过少(小于100张)的类别生成的图片质量相对差一些,并且形状和种类也都较为单一。而其余类别产生的图片已经与原始图片数据分布特征接近,很难分辨出其中的差别。
为了评估本发明数据增强方法的有效性,使用CNN对数据增强前后的轨迹数据集进行轨迹识别。实验采用正确率为评价指标。搭建一个CNN模型M,具体的参数设置如表3所示,超参数设置如表4所示。使用tensorflow版本1.4.0搭建神经网络框架,python3.6作为编程语言,wing6.0作为编译器环境进行调试。使用的电脑环境配置是i5-6200U CPU,主频是24GHz。A组不均衡数据得到的验证集上的准确率(accuracy)与损失值(loss)值曲线分别如图6中(6a)和(6b)所示。由于在第1500个step以后,准确率与损失值的差距没有很大的变化,因此取1500-2000个step内的准确率与损失值的平均值,作为该样本集在模型上的准确率与损失值,其中,image transform表示基于图像变换的方法。可以得到,A组不均衡数据的识别准确率是82.3%(No process),经过DCGAN数据增强以后的准确率是87.4%(DCGAN),而image transform的准确率最低。B组不均衡数据得到的验证集上的准确率与loss值曲线分别如图7中(7a)和(7b)所示,不均衡数据的准确率是84.9%,经过DCGAN数据增强以后的准确率是89.7%,而image transform的准确率最低。经过两组实验结果对比,发现使用DCGAN进行数据增强能够使准确率得到5%左右的提升。
表3 CNN模型评估参数
表4 CNN评估实验超参数设置
在上述实施例的基础上,如图8所示,本发明还公开一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强系统,包括:
无源定位轨迹数据转换模块201,用于将原始无源定位轨迹数据集中含有数据缺失的无源定位轨迹数据的经纬度和时间信息嵌入图片的RGB分量,转换为轨迹信息图像;
轨迹信息图像预处理模块202,用于对轨迹信息图像进行预处理,统一图片大小,生成目标轨迹片段;将目标轨迹片段作为深度卷积生成对抗网络的训练样本;
判别器参数更新模块203,用于由生成器G生成与目标轨迹片段相似的数据,标签为假;然后,固定生成器G的参数,将损失值反向传播更新判别器D的参数;
生成器参数更新模块204,用于固定判别器D的参数,训练生成器G,使生成器G产生的轨迹片段能够使判别器D判断为真样本;将损失值反向传播更新生成器G的参数。
进一步地,所述无源定位轨迹数据转换模块201具体用于:
在MATLAB中模拟所有轨迹和航道构成的平面,构建一个调色板,坐标点数据(R分量,G分量,B分量),左上角为(0,0,0)纯黑点,右下角为(255,255,255)的纯白点;在此调色板中,按无源定位轨迹数据经过转换以后的UTM平面坐标给每一条轨迹赋予相应的颜色;
利用MATLAB自带的UTM坐标转换系统,对无源定位轨迹数据的经纬度坐标信息进行UTM平面坐标转换,转换生成UTM平面横纵坐标数据即为所要生成的轨迹图像的R分量、G分量数据;
按照如下方式对时间信息进行标准化处理:
t为某一轨迹点对应的时间,tmin为所有轨迹点对应时间的最小值,tmax为所有轨迹点对应时间的最大值,所有时间单位精确到秒;t*为标准化时间值,即所要生成的轨迹图像的B分量数据。
进一步地,所述轨迹信息图像预处理模块202具体用于:
设统一图片大小为长L0和高H0,设定一个区域划分的比例η,以L0和H0的η倍为阈值,若图片的长L大于L0×η并且高H大于H0×η,则对图片进行上下采样的处理;若图片的长或高中的一方小于阈值,则通过空白填补的方式调整到统一大小;最后统一将图片中的轨迹置于新的空白图片的中心位置。
进一步地,所述判别器参数更新模块203具体用于:
固定生成器G的参数,优化判别器D的参数,定义G(z)是生成器G生成的假样本,D(G(z))为判别器D判断生成器G生成的轨迹片段真实的概率,为使判别器D的判别能力更优,应使目标函数V(D,G)为:
其中,Pdata(x)和Pz(z)分别表示真实样本x和随机噪声z的概率分布,D(x)表示判别器D判断x为真的概率,E[]表示求期望,用角标x~pdata(x)和z~pz(z)区别真实样本和噪声的期望;
通过计算目标函数的值,再进行梯度的反向传播,更新判别器D的参数。
进一步地,所述生成器参数更新模块204具体用于:
固定判别器D的参数,优化生成器G的参数,定义G(z)是生成器G生成的假样本,D(G(z))为判别器D判断生成器G生成的轨迹片段真实的概率,为使生成器G生成的轨迹片段更真实,应使目标函数V(D,G)为:
其中,Pz(z)表示随机噪声z的概率分布,E[]表示求期望;
经过判别器D判断生成器G生成的结果后,将目标函数的梯度传回生成器G以更新生成器G的参数。
综上,本发明通过使用深度卷积生成对抗网络(DCGAN)对轨迹数据集进行数据增强,能够得到与原轨迹图片相似度很高的轨迹图片,比传统的图像增强的方法对数据的增强效果更好,弥补了无源定位轨迹数据不平衡特性,为利用深度学习模型处理图像数据集的方式对无源定位轨迹数据进行信息挖掘这一新颖领域提供可靠数据集,从而消除过拟合等不良现象。
以上所示仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (8)
1.一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强方法,其特征在于,包括:
步骤1:将原始无源定位轨迹数据集中含有数据缺失的无源定位轨迹数据的经纬度和时间信息嵌入图片的RGB分量,转换为轨迹信息图像;
所述步骤1包括:
在MATLAB中模拟所有轨迹和航道构成的平面,构建一个调色板,坐标点数据(R分量,G分量,B分量),左上角为(0,0,0)纯黑点,右下角为(255,255,255)的纯白点;在此调色板中,按无源定位轨迹数据经过转换以后的UTM平面坐标给每一条轨迹赋予相应的颜色;
利用MATLAB自带的UTM坐标转换系统,对无源定位轨迹数据的经纬度坐标信息进行UTM平面坐标转换,转换生成UTM平面横纵坐标数据即为所要生成的轨迹图像的R分量、G分量数据;
按照如下方式对时间信息进行标准化处理:
t为某一轨迹点对应的时间,tmin为所有轨迹点对应时间的最小值,tmax为所有轨迹点对应时间的最大值,所有时间单位精确到秒;t*为标准化时间值,即所要生成的轨迹图像的B分量数据;
步骤2:对轨迹信息图像进行预处理,统一图片大小,生成目标轨迹片段;将目标轨迹片段作为深度卷积生成对抗网络的训练样本;
步骤3:由生成器G生成与目标轨迹片段相似的数据,标签为假;然后,固定生成器G的参数,将损失值反向传播更新判别器D的参数;
步骤4:固定判别器D的参数,训练生成器G,使生成器G产生的轨迹片段能够使判别器D判断为真样本;将损失值反向传播更新生成器G的参数。
2.根据权利要求1所述的一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强方法,其特征在于,所述步骤2包括:
设统一图片大小为长L0和高H0,设定一个区域划分的比例η,以L0和H0的η倍为阈值,若图片的长L大于L0×η并且高H大于H0×η,则对图片进行下采样的处理;若图片的长或高中的一方小于阈值,则通过空白填补的方式调整到统一大小;最后统一将图片中的轨迹置于新的空白图片的中心位置。
5.一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强系统,其特征在于,包括:
无源定位轨迹数据转换模块,用于将原始无源定位轨迹数据集中含有数据缺失的无源定位轨迹数据的经纬度和时间信息嵌入图片的RGB分量,转换为轨迹信息图像;
所述无源定位轨迹数据转换模块具体用于:
在MATLAB中模拟所有轨迹和航道构成的平面,构建一个调色板,坐标点数据(R分量,G分量,B分量),左上角为(0,0,0)纯黑点,右下角为(255,255,255)的纯白点;在此调色板中,按无源定位轨迹数据经过转换以后的UTM平面坐标给每一条轨迹赋予相应的颜色;
利用MATLAB自带的UTM坐标转换系统,对无源定位轨迹数据的经纬度坐标信息进行UTM平面坐标转换,转换生成UTM平面横纵坐标数据即为所要生成的轨迹图像的R分量、G分量数据;
按照如下方式对时间信息进行标准化处理:
t为某一轨迹点对应的时间,tmin为所有轨迹点对应时间的最小值,tmax为所有轨迹点对应时间的最大值,所有时间单位精确到秒;t*为标准化时间值,即所要生成的轨迹图像的B分量数据;
轨迹信息图像预处理模块,用于对轨迹信息图像进行预处理,统一图片大小,生成目标轨迹片段;将目标轨迹片段作为深度卷积生成对抗网络的训练样本;
判别器参数更新模块,用于由生成器G生成与目标轨迹片段相似的数据,标签为假;然后,固定生成器G的参数,将损失值反向传播更新判别器D的参数;
生成器参数更新模块,用于固定判别器D的参数,训练生成器G,使生成器G产生的轨迹片段能够使判别器D判断为真样本;将损失值反向传播更新生成器G的参数。
6.根据权利要求5所述的一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强系统,其特征在于,所述轨迹信息图像预处理模块具体用于:
设统一图片大小为长L0和高H0,设定一个区域划分的比例η,以L0和H0的η倍为阈值,若图片的长L大于L0×η并且高H大于H0×η,则对图片进行下采样的处理;若图片的长或高中的一方小于阈值,则通过空白填补的方式调整到统一大小;最后统一将图片中的轨迹置于新的空白图片的中心位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011165702.7A CN112329832B (zh) | 2020-10-27 | 2020-10-27 | 一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011165702.7A CN112329832B (zh) | 2020-10-27 | 2020-10-27 | 一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112329832A CN112329832A (zh) | 2021-02-05 |
CN112329832B true CN112329832B (zh) | 2023-01-31 |
Family
ID=74296613
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011165702.7A Active CN112329832B (zh) | 2020-10-27 | 2020-10-27 | 一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112329832B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113326737A (zh) * | 2021-05-06 | 2021-08-31 | 西北工业大学 | 一种水中目标的数据增强方法 |
CN113407937A (zh) * | 2021-06-30 | 2021-09-17 | 中国科学技术大学 | 针对侧信道建模攻击模型的平衡数据集构造方法 |
CN113744238B (zh) * | 2021-09-01 | 2023-08-01 | 南京工业大学 | 一种建立枪弹痕迹数据库的方法 |
CN116299170B (zh) * | 2023-02-23 | 2023-09-01 | 中国人民解放军军事科学院系统工程研究院 | 一种基于深度学习的多目标无源定位方法、系统、介质 |
CN118155024B (zh) * | 2024-05-13 | 2024-08-20 | 国网安徽省电力有限公司电力科学研究院 | 大模型图像样本自动生成方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016081272A (ja) * | 2014-10-16 | 2016-05-16 | 日本電信電話株式会社 | 移動手段推定モデル生成装置、移動手段推定モデル生成方法、移動手段推定モデル生成プログラム |
CN109872346A (zh) * | 2019-03-11 | 2019-06-11 | 南京邮电大学 | 一种支持循环神经网络对抗学习的目标跟踪方法 |
CN110675418A (zh) * | 2019-09-26 | 2020-01-10 | 深圳市唯特视科技有限公司 | 一种基于ds证据理论的目标轨迹优化方法 |
CN110689562A (zh) * | 2019-09-26 | 2020-01-14 | 深圳市唯特视科技有限公司 | 一种基于生成对抗网络的轨迹回环检测优化方法 |
CN111611918A (zh) * | 2020-05-20 | 2020-09-01 | 重庆大学 | 基于航拍数据和深度学习的交通流数据集采集及构建方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020050498A1 (ko) * | 2018-09-04 | 2020-03-12 | 씨드로닉스㈜ | 이미지 세그멘테이션을 이용한 주변 환경 감지 방법 및 장치 |
-
2020
- 2020-10-27 CN CN202011165702.7A patent/CN112329832B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016081272A (ja) * | 2014-10-16 | 2016-05-16 | 日本電信電話株式会社 | 移動手段推定モデル生成装置、移動手段推定モデル生成方法、移動手段推定モデル生成プログラム |
CN109872346A (zh) * | 2019-03-11 | 2019-06-11 | 南京邮电大学 | 一种支持循环神经网络对抗学习的目标跟踪方法 |
CN110675418A (zh) * | 2019-09-26 | 2020-01-10 | 深圳市唯特视科技有限公司 | 一种基于ds证据理论的目标轨迹优化方法 |
CN110689562A (zh) * | 2019-09-26 | 2020-01-14 | 深圳市唯特视科技有限公司 | 一种基于生成对抗网络的轨迹回环检测优化方法 |
CN111611918A (zh) * | 2020-05-20 | 2020-09-01 | 重庆大学 | 基于航拍数据和深度学习的交通流数据集采集及构建方法 |
Non-Patent Citations (3)
Title |
---|
Convolutional Neural Network-Based Gear Type Identification from Automatic Identification System Trajectory Data;Kwang-il Kim等;《applied science》;20200610;第1-21页 * |
基于1DCNN-LSTM的船舶轨迹分类方法;崔彤彤;《计算机科学》;20200930;第175-184页 * |
多目标无源定位数据的轨迹提取与模式挖掘算法研究;张光亚;《中国优秀硕士学位论文全文数据库信息科技辑》;20181215;第I136-643页 * |
Also Published As
Publication number | Publication date |
---|---|
CN112329832A (zh) | 2021-02-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112329832B (zh) | 一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强方法及系统 | |
CN111598805A (zh) | 一种基于vae-gan的对抗样本防御方法及系统 | |
CN108898180B (zh) | 一种面向单颗粒冷冻电镜图像的深度聚类方法 | |
CN109558823B (zh) | 一种以图搜图的车辆识别方法及系统 | |
CN108230291B (zh) | 物体识别系统训练方法、物体识别方法、装置和电子设备 | |
CN109800785B (zh) | 一种基于自表达相关的数据分类方法和装置 | |
CN108805016B (zh) | 一种头肩区域检测方法及装置 | |
CN112016402B (zh) | 基于无监督学习的行人重识别领域自适应方法及装置 | |
CN108268871A (zh) | 一种基于卷积神经网络的端到端的车牌识别方法和系统 | |
CN111325711A (zh) | 一种基于深度学习的染色体分裂相图像质量评价方法 | |
CN116935447B (zh) | 基于自适应师生结构的无监督域行人重识别方法及系统 | |
CN109948776A (zh) | 一种基于lbp的对抗网络模型图片标签生成方法 | |
CN113435264A (zh) | 基于寻找黑盒替代模型的人脸识别对抗攻击方法及装置 | |
CN114330652A (zh) | 一种目标检测攻击方法和装置 | |
CN109993176A (zh) | 图像局部特征描述方法、装置、设备及介质 | |
EP4379669A1 (en) | Processing method for image recognition model, and related product | |
CN116704208A (zh) | 基于特征关系的局部可解释方法 | |
CN116665097A (zh) | 一种结合上下文感知的自适应目标跟踪方法 | |
CN113780301B (zh) | 防御对抗攻击的自适应去噪机器学习应用方法 | |
CN113033747B (zh) | 一种用于人机识别的图形识别码生成方法 | |
CN114898137A (zh) | 面向人脸识别的黑盒对抗样本攻击方法、装置、设备及介质 | |
CN114970809A (zh) | 一种基于生成式对抗网络的图片对抗样本生成方法 | |
CN113554685A (zh) | 遥感卫星运动目标检测方法、装置、电子设备及存储介质 | |
CN114155554A (zh) | 一种基于Transformer的相机域适应行人重识别方法 | |
JP2021072106A (ja) | イメージ処理システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP03 | Change of name, title or address |
Address after: 450000 Science Avenue 62, Zhengzhou High-tech Zone, Henan Province Patentee after: Information Engineering University of the Chinese People's Liberation Army Cyberspace Force Country or region after: China Address before: No. 62 Science Avenue, High tech Zone, Zhengzhou City, Henan Province Patentee before: Information Engineering University of Strategic Support Force,PLA Country or region before: China |