CN112329832A - 一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强方法及系统 - Google Patents

一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强方法及系统 Download PDF

Info

Publication number
CN112329832A
CN112329832A CN202011165702.7A CN202011165702A CN112329832A CN 112329832 A CN112329832 A CN 112329832A CN 202011165702 A CN202011165702 A CN 202011165702A CN 112329832 A CN112329832 A CN 112329832A
Authority
CN
China
Prior art keywords
generator
data
track
discriminator
parameters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011165702.7A
Other languages
English (en)
Other versions
CN112329832B (zh
Inventor
张静
王哲
杜剑平
王雯霞
贺娜
林立鹏
赵燕军
王晓梅
陈雅淇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Information Engineering University of the Chinese People's Liberation Army Cyberspace Force
Original Assignee
Information Engineering University of PLA Strategic Support Force
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Information Engineering University of PLA Strategic Support Force filed Critical Information Engineering University of PLA Strategic Support Force
Priority to CN202011165702.7A priority Critical patent/CN112329832B/zh
Publication of CN112329832A publication Critical patent/CN112329832A/zh
Application granted granted Critical
Publication of CN112329832B publication Critical patent/CN112329832B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于无源定位数据处理技术领域,公开一种基于深度卷积生成对抗网络的目标轨迹数据增强方法及系统,该方法将不平衡数据集的图片样本作为训练样本送入DCGAN进行训练,对轨迹数据集进行增强。首先,由生成器G生成与轨迹图片相似的数据,标签为假;然后,固定生成器的参数,将损失值反向传播更新判别器D的参数;接着,固定判别器D的参数,训练生成器G,使生成器G产生的轨迹片段能够使判别器D判断为真样本;最后,将损失值反向传播更新生成器G的参数。本发明所使用的DCGAN模型生成的图片与原图片有很强的相似性,能够达到数据增强的效果。

Description

一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增 强方法及系统
技术领域
本发明属于无源定位数据处理技术领域,尤其涉及一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强方法及系统。
背景技术
移动目标轨迹数据描述了目标随时间在空间中运动采样所获取的时空数据信息。无源定位数据挖掘是从无源定位目标轨迹数据中提取出目标运动行为规律的高价值信息的技术。近年来,深度学习在处理图像数据方面表现出强大能力,将轨迹转换为图像之后,可以有效利用卷积神经网络的优势进行时空知识的发现。但无源定位数据多为不平衡的数据集,直接利用定位转换后的图像数据会影响CNN模型的性能,需要对缺失的数据进行数据扩增。对于数据分布不平衡的数据集,传统的解决方法有采样与集成学习相结合的方法、基于图像变换的方法,如EUSBoost算法,但该算法在某些情况下对原始数据集的要求很高,不具有鲁棒性。基于图像变换的方法(image transform),比如图像随机裁剪、随机调整明暗度与对比度、旋转、加噪等等,适用于具有某种形状信息的图片数据集。
近年来出现了更为复杂的数据增强方法,其中Goodfellow等学者(GOODFELLOW I,POUGETABADIE J,MIRZA M,et al.Generative Adversarial Nets:neural informationprocessing systems[C],2014.)在2014年中提出的生成对抗模型(GAN)是一种生成式模型,其发明的方法中生成器能够生成符合真实样本分布的数据,并且不需要依托传统的马尔科夫链,就可以表示更为尖锐或者退化的分布,但是模型本身容易出现训练不稳定、难以训练等问题。
发明内容
本发明针对无源定位目标轨迹数据集不平衡导致深度学习模型对数据转换后的图片数据集训练效果不佳的问题,提出一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强方法及系统,以实现对轨迹数据增强的目的。
为了实现上述目的,本发明采用以下技术方案:
一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强方法,包括:
步骤1:将原始无源定位轨迹数据集中含有数据缺失的无源定位轨迹数据的经纬度和时间信息嵌入图片的RGB分量,转换为轨迹信息图像;
步骤2:对轨迹信息图像进行预处理,统一图片大小,生成目标轨迹片段;将目标轨迹片段作为深度卷积生成对抗网络的训练样本;
步骤3:由生成器G生成与目标轨迹片段相似的数据,标签为假;然后,固定生成器G的参数,将损失值反向传播更新判别器D的参数;
步骤4:固定判别器D的参数,训练生成器G,使生成器G产生的轨迹片段能够使判别器D判断为真样本;将损失值反向传播更新生成器G的参数。
进一步地,所述步骤1包括:
在MATLAB中模拟所有轨迹和航道构成的平面,构建一个调色板,坐标点数据(R分量,G分量,B分量),左上角为(0,0,0)纯黑点,右下角为(255,255,255)的纯白点;在此调色板中,按无源定位轨迹数据经过转换以后的UTM平面坐标给每一条轨迹赋予相应的颜色;
利用MATLAB自带的UTM坐标转换系统,对无源定位轨迹数据的经纬度坐标信息进行UTM平面坐标转换,转换生成UTM平面横纵坐标数据即为所要生成的轨迹图像的R分量、G分量数据;
按照如下方式对时间信息进行标准化处理:
Figure BDA0002745710320000021
t为某一轨迹点对应的时间,tmin为所有轨迹点对应时间的最小值,tmax为所有轨迹点对应时间的最大值,所有时间单位精确到秒;t*为标准化时间值,即所要生成的轨迹图像的B分量数据。
进一步地,所述步骤2包括:
设统一图片大小为长L0和高H0,设定一个区域划分的比例η,以L0和H0的η倍为阈值,若图片的长L大于L0×η并且高H大于H0×η,则对图片进行上下采样的处理;若图片的长或高中的一方小于阈值,则通过空白填补的方式调整到统一大小;最后统一将图片中的轨迹置于新的空白图片的中心位置。
进一步地,所述步骤3包括:
固定生成器G的参数,优化判别器D的参数,定义G(z)是生成器G生成的假样本,D(G(z))为判别器D判断生成器G生成的轨迹片段真实的概率,为使判别器D的判别能力更优,应使目标函数V(D,G)为:
Figure BDA0002745710320000031
其中,Pdata(x)和Pz(z)分别表示真实样本x和随机噪声z的概率分布,D(x)表示判别器D判断x为真的概率,E[]表示求期望,用角标x~pdata(x)z~pz(z)区别真实样本和噪声的期望;
通过计算目标函数的值,再进行梯度的反向传播,更新判别器D的参数。
进一步地,所述步骤4包括:
固定判别器D的参数,优化生成器G的参数,定义G(z)是生成器G生成的假样本,D(G(z))为判别器D判断生成器G生成的轨迹片段真实的概率,为使生成器G生成的轨迹片段更真实,应使目标函数V(D,G)为:
Figure BDA0002745710320000032
其中,Pz(z)表示随机噪声z的概率分布,E[]表示求期望;
经过判别器D判断生成器G生成的结果后,将目标函数的梯度传回生成器G以更新生成器G的参数。
一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强系统,包括:
无源定位轨迹数据转换模块,用于将原始无源定位轨迹数据集中含有数据缺失的无源定位轨迹数据的经纬度和时间信息嵌入图片的RGB分量,转换为轨迹信息图像;
轨迹信息图像预处理模块,用于对轨迹信息图像进行预处理,统一图片大小,生成目标轨迹片段;将目标轨迹片段作为深度卷积生成对抗网络的训练样本;
判别器参数更新模块,用于由生成器G生成与目标轨迹片段相似的数据,标签为假;然后,固定生成器G的参数,将损失值反向传播更新判别器D的参数;
生成器参数更新模块,用于固定判别器D的参数,训练生成器G,使生成器G产生的轨迹片段能够使判别器D判断为真样本;将损失值反向传播更新生成器G的参数。
进一步地,所述无源定位轨迹数据转换模块具体用于:
在MATLAB中模拟所有轨迹和航道构成的平面,构建一个调色板,坐标点数据(R分量,G分量,B分量),左上角为(0,0,0)纯黑点,右下角为(255,255,255)的纯白点;在此调色板中,按无源定位轨迹数据经过转换以后的UTM平面坐标给每一条轨迹赋予相应的颜色;
利用MATLAB自带的UTM坐标转换系统,对无源定位轨迹数据的经纬度坐标信息进行UTM平面坐标转换,转换生成UTM平面横纵坐标数据即为所要生成的轨迹图像的R分量、G分量数据;
按照如下方式对时间信息进行标准化处理:
Figure BDA0002745710320000041
t为某一轨迹点对应的时间,tmin为所有轨迹点对应时间的最小值,tmax为所有轨迹点对应时间的最大值,所有时间单位精确到秒;t*为标准化时间值,即所要生成的轨迹图像的B分量数据。
进一步地,所述轨迹信息图像预处理模块具体用于:
设统一图片大小为长L0和高H0,设定一个区域划分的比例η,以L0和H0的η倍为阈值,若图片的长L大于L0×η并且高H大于H0×η,则对图片进行上下采样的处理;若图片的长或高中的一方小于阈值,则通过空白填补的方式调整到统一大小;最后统一将图片中的轨迹置于新的空白图片的中心位置。
进一步地,所述判别器参数更新模块具体用于:
固定生成器G的参数,优化判别器D的参数,定义G(z)是生成器G生成的假样本,D(G(z))为判别器D判断生成器G生成的轨迹片段真实的概率,为使判别器D的判别能力更优,应使目标函数V(D,G)为:
Figure BDA0002745710320000042
其中,Pdata(x)和Pz(z)分别表示真实样本x和随机噪声z的概率分布,D(x)表示判别器D判断x为真的概率,E[]表示求期望,用角标x~pdata(x)z~pz(z)区别真实样本和噪声的期望;
通过计算目标函数的值,再进行梯度的反向传播,更新判别器D的参数。
进一步地,所述生成器参数更新模块具体用于:
固定判别器D的参数,优化生成器G的参数,定义G(z)是生成器G生成的假样本,D(G(z))为判别器D判断生成器G生成的轨迹片段真实的概率,为使生成器G生成的轨迹片段更真实,应使目标函数V(D,G)为:
Figure BDA0002745710320000051
其中,Pz(z)表示随机噪声z的概率分布,E[]表示求期望;
经过判别器D判断生成器G生成的结果后,将目标函数的梯度传回生成器G以更新生成器G的参数。
与现有技术相比,本发明具有的有益效果:
本发明通过使用深度卷积生成对抗网络(DCGAN)对轨迹数据集进行数据增强,能够得到与原轨迹图片相似度很高的轨迹图片,比传统的图像增强的方法对数据的增强效果更好,弥补了无源定位轨迹数据不平衡特性,为利用深度学习模型处理图像数据集的方式对无源定位轨迹数据进行信息挖掘这一新颖领域提供可靠数据集,从而消除过拟合等不良现象。
附图说明
图1为本发明实施例一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强方法的基本流程图;
图2为本发明实施例一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强方法的深度卷积生成对抗网络结构示意图;
图3为预处理后目标轨迹片段示例图;
图4为A组不均衡数据增强结果示例图;
图5为B组不均衡数据增强结果示例图;
图6为A组组不均衡数据的验证集上的准确率与损失值变化趋势图;
图7为B组组不均衡数据的验证集上的准确率与损失值变化趋势图;
图8为本发明实施例一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强系统的架构示意图。
具体实施方式
下面结合附图和具体的实施例对本发明做进一步的解释说明:
如图1、图2所示,一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强方法,包括:
步骤S101:将原始无源定位轨迹数据集中含有数据缺失的无源定位轨迹数据的经纬度和时间信息嵌入图片的RGB分量,转换为轨迹信息图像;
步骤S102:对轨迹信息图像进行预处理,统一图片大小,生成目标轨迹片段;将目标轨迹片段作为深度卷积生成对抗网络的训练样本;
步骤S103:由生成器G生成与目标轨迹片段相似的数据,标签为假;然后,固定生成器G的参数,将损失值反向传播更新判别器D的参数;
步骤S104:固定判别器D的参数,训练生成器G,使生成器G产生的轨迹片段能够使判别器D判断为真样本;将损失值反向传播更新生成器G的参数。
进一步地,所述步骤S101包括:
在MATLAB中模拟所有轨迹和航道构成的平面,构建一个调色板,坐标点数据(R分量,G分量,B分量),左上角为(0,0,0)纯黑点,右下角为(255,255,255)的纯白点;在此调色板中,按无源定位轨迹数据经过转换以后的UTM平面坐标给每一条轨迹赋予相应的颜色;
利用MATLAB自带的UTM坐标转换系统,对无源定位轨迹数据的经纬度坐标信息进行UTM平面坐标转换,转换生成UTM平面横纵坐标数据即为所要生成的轨迹图像的R分量、G分量数据;
按照如下方式对时间信息进行标准化处理:
Figure BDA0002745710320000061
t为某一轨迹点对应的时间,tmin为所有轨迹点对应时间的最小值,tmax为所有轨迹点对应时间的最大值,所有时间单位精确到秒;t*为标准化时间值,即所要生成的轨迹图像的B分量数据。
进一步地,所述步骤S102包括:
设统一图片大小为长L0和高H0,设定一个区域划分的比例η,以L0和H0的η倍为阈值,若图片的长L大于L0×η并且高H大于H0×η,则对图片进行上下采样的处理;若图片的长或高中的一方小于阈值,则通过空白填补的方式调整到统一大小;最后统一将图片中的轨迹置于新的空白图片的中心位置。
进一步地,所述步骤S103包括:
固定生成器G的参数,优化判别器D的参数,定义G(z)是生成器G生成的假样本,D(G(z))为判别器D判断生成器G生成的轨迹片段真实的概率,为使判别器D的判别能力更优,应使目标函数V(D,G)为:
Figure BDA0002745710320000071
其中,Pdata(x)和Pz(z)分别表示真实样本x和随机噪声z的概率分布,D(x)表示判别器D判断x为真的概率,E[]表示求期望,用角标x~pdata(x)z~pz(z)区别真实样本和噪声的期望;
通过计算目标函数的值,再进行梯度的反向传播,更新判别器D的参数。
表1判别器网络参数表
Figure BDA0002745710320000072
进一步地,所述步骤S104包括:
固定判别器D的参数,优化生成器G的参数,定义G(z)是生成器G生成的假样本,D(G(z))为判别器D判断生成器G生成的轨迹片段真实的概率,为使生成器G生成的轨迹片段更真实,应使目标函数V(D,G)为:
Figure BDA0002745710320000073
其中,Pz(z)表示随机噪声z的概率分布,E[]表示求期望;
经过判别器D判断生成器G生成的结果后,将目标函数的梯度传回生成器G以更新生成器G的参数。
表2生成器网络参数表
Figure BDA0002745710320000074
Figure BDA0002745710320000081
为验证本发明效果,采用真实的航道数据模拟无源定位数据进行实验验证。由图3可见,原始轨迹数据在经过转换及预处理后能够生成不同形状以及颜色信息的轨迹片段,这些片段中既具有航道信息的特点,也满足真实性与和无源定位数据的相似性等要求。在此数据集基础上按照本发明步骤进行DCGAN数据增强实验。根据数据集不均衡的程度设置2组不均衡程度不同的数据,将每组数据中数据量缺失的数据类别送入DCGAN网络进行训练。DCGAN网络优化器采用Adam,学习率设为0.0002。A组的不均衡数据集每条航道含有的轨迹片段数量为30,80,100,500,1000,1000,1000,1000,1000,50。B组的不均衡数据集分布为50,200,500,1000,1000,1000,1000,1000,1000,10。设置超参数:A组:第1、2、3、10类的Batchsize(批处理大小,即一次训练所选取的样本数)是20,第4类的Batchsize是64;B组:第1类的Batchsize是25,2、3、10类的Batchsize是64。实验环境采用Tensorflow版本1.4.0搭建神经网络框架,python3.6作为编程语言,wing6.0作为编译器环境进行调试。使用的实验环境配置是i5-6200U CPU,主频是24GHz。图4所展示的分别是A组2、3、10类经过600轮(epoch)后的结果。图5所展示的分别是B组1、2、3类经过600轮(epoch)后的结果。从两组的对比实验结果可以发现,训练样本过少(小于100张)的类别生成的图片质量相对差一些,并且形状和种类也都较为单一。而其余类别产生的图片已经与原始图片数据分布特征接近,很难分辨出其中的差别。
为了评估本发明数据增强方法的有效性,使用CNN对数据增强前后的轨迹数据集进行轨迹识别。实验采用正确率为评价指标。搭建一个CNN模型M,具体的参数设置如表3所示,超参数设置如表4所示。使用tensorflow版本1.4.0搭建神经网络框架,python3.6作为编程语言,wing6.0作为编译器环境进行调试。使用的电脑环境配置是i5-6200U CPU,主频是24GHz。A组不均衡数据得到的验证集上的准确率(accuracy)与损失值(loss)值曲线分别如图6中(6a)和(6b)所示。由于在第1500个step以后,准确率与损失值的差距没有很大的变化,因此取1500-2000个step内的准确率与损失值的平均值,作为该样本集在模型上的准确率与损失值,其中,image transform表示基于图像变换的方法。可以得到,A组不均衡数据的识别准确率是82.3%(No process),经过DCGAN数据增强以后的准确率是87.4%(DCGAN),而image transform的准确率最低。B组不均衡数据得到的验证集上的准确率与loss值曲线分别如图7中(7a)和(7b)所示,不均衡数据的准确率是84.9%,经过DCGAN数据增强以后的准确率是89.7%,而image transform的准确率最低。经过两组实验结果对比,发现使用DCGAN进行数据增强能够使准确率得到5%左右的提升。
表3 CNN模型评估参数
Figure BDA0002745710320000091
表4 CNN评估实验超参数设置
Figure BDA0002745710320000092
在上述实施例的基础上,如图8所示,本发明还公开一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强系统,包括:
无源定位轨迹数据转换模块201,用于将原始无源定位轨迹数据集中含有数据缺失的无源定位轨迹数据的经纬度和时间信息嵌入图片的RGB分量,转换为轨迹信息图像;
轨迹信息图像预处理模块202,用于对轨迹信息图像进行预处理,统一图片大小,生成目标轨迹片段;将目标轨迹片段作为深度卷积生成对抗网络的训练样本;
判别器参数更新模块203,用于由生成器G生成与目标轨迹片段相似的数据,标签为假;然后,固定生成器G的参数,将损失值反向传播更新判别器D的参数;
生成器参数更新模块204,用于固定判别器D的参数,训练生成器G,使生成器G产生的轨迹片段能够使判别器D判断为真样本;将损失值反向传播更新生成器G的参数。
进一步地,所述无源定位轨迹数据转换模块201具体用于:
在MATLAB中模拟所有轨迹和航道构成的平面,构建一个调色板,坐标点数据(R分量,G分量,B分量),左上角为(0,0,0)纯黑点,右下角为(255,255,255)的纯白点;在此调色板中,按无源定位轨迹数据经过转换以后的UTM平面坐标给每一条轨迹赋予相应的颜色;
利用MATLAB自带的UTM坐标转换系统,对无源定位轨迹数据的经纬度坐标信息进行UTM平面坐标转换,转换生成UTM平面横纵坐标数据即为所要生成的轨迹图像的R分量、G分量数据;
按照如下方式对时间信息进行标准化处理:
Figure BDA0002745710320000101
t为某一轨迹点对应的时间,tmin为所有轨迹点对应时间的最小值,tmax为所有轨迹点对应时间的最大值,所有时间单位精确到秒;t*为标准化时间值,即所要生成的轨迹图像的B分量数据。
进一步地,所述轨迹信息图像预处理模块202具体用于:
设统一图片大小为长L0和高H0,设定一个区域划分的比例η,以L0和H0的η倍为阈值,若图片的长L大于L0×η并且高H大于H0×η,则对图片进行上下采样的处理;若图片的长或高中的一方小于阈值,则通过空白填补的方式调整到统一大小;最后统一将图片中的轨迹置于新的空白图片的中心位置。
进一步地,所述判别器参数更新模块203具体用于:
固定生成器G的参数,优化判别器D的参数,定义G(z)是生成器G生成的假样本,D(G(z))为判别器D判断生成器G生成的轨迹片段真实的概率,为使判别器D的判别能力更优,应使目标函数V(D,G)为:
Figure BDA0002745710320000111
其中,Pdata(x)和Pz(z)分别表示真实样本x和随机噪声z的概率分布,D(x)表示判别器D判断x为真的概率,E[]表示求期望,用角标x~pdata(x)z~pz(z)区别真实样本和噪声的期望;
通过计算目标函数的值,再进行梯度的反向传播,更新判别器D的参数。
进一步地,所述生成器参数更新模块204具体用于:
固定判别器D的参数,优化生成器G的参数,定义G(z)是生成器G生成的假样本,D(G(z))为判别器D判断生成器G生成的轨迹片段真实的概率,为使生成器G生成的轨迹片段更真实,应使目标函数V(D,G)为:
Figure BDA0002745710320000112
其中,Pz(z)表示随机噪声z的概率分布,E[]表示求期望;
经过判别器D判断生成器G生成的结果后,将目标函数的梯度传回生成器G以更新生成器G的参数。
综上,本发明通过使用深度卷积生成对抗网络(DCGAN)对轨迹数据集进行数据增强,能够得到与原轨迹图片相似度很高的轨迹图片,比传统的图像增强的方法对数据的增强效果更好,弥补了无源定位轨迹数据不平衡特性,为利用深度学习模型处理图像数据集的方式对无源定位轨迹数据进行信息挖掘这一新颖领域提供可靠数据集,从而消除过拟合等不良现象。
以上所示仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (10)

1.一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强方法,其特征在于,包括:
步骤1:将原始无源定位轨迹数据集中含有数据缺失的无源定位轨迹数据的经纬度和时间信息嵌入图片的RGB分量,转换为轨迹信息图像;
步骤2:对轨迹信息图像进行预处理,统一图片大小,生成目标轨迹片段;将目标轨迹片段作为深度卷积生成对抗网络的训练样本;
步骤3:由生成器G生成与目标轨迹片段相似的数据,标签为假;然后,固定生成器G的参数,将损失值反向传播更新判别器D的参数;
步骤4:固定判别器D的参数,训练生成器G,使生成器G产生的轨迹片段能够使判别器D判断为真样本;将损失值反向传播更新生成器G的参数。
2.根据权利要求1所述的一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强方法,其特征在于,所述步骤1包括:
在MATLAB中模拟所有轨迹和航道构成的平面,构建一个调色板,坐标点数据(R分量,G分量,B分量),左上角为(0,0,0)纯黑点,右下角为(255,255,255)的纯白点;在此调色板中,按无源定位轨迹数据经过转换以后的UTM平面坐标给每一条轨迹赋予相应的颜色;
利用MATLAB自带的UTM坐标转换系统,对无源定位轨迹数据的经纬度坐标信息进行UTM平面坐标转换,转换生成UTM平面横纵坐标数据即为所要生成的轨迹图像的R分量、G分量数据;
按照如下方式对时间信息进行标准化处理:
Figure FDA0002745710310000011
t为某一轨迹点对应的时间,tmin为所有轨迹点对应时间的最小值,tmax为所有轨迹点对应时间的最大值,所有时间单位精确到秒;t*为标准化时间值,即所要生成的轨迹图像的B分量数据。
3.根据权利要求1所述的一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强方法,其特征在于,所述步骤2包括:
设统一图片大小为长L0和高H0,设定一个区域划分的比例η,以L0和H0的η倍为阈值,若图片的长L大于L0×η并且高H大于H0×η,则对图片进行上下采样的处理;若图片的长或高中的一方小于阈值,则通过空白填补的方式调整到统一大小;最后统一将图片中的轨迹置于新的空白图片的中心位置。
4.根据权利要求1所述的一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强方法,其特征在于,所述步骤3包括:
固定生成器G的参数,优化判别器D的参数,定义G(z)是生成器G生成的假样本,D(G(z))为判别器D判断生成器G生成的轨迹片段真实的概率,为使判别器D的判别能力更优,应使目标函数V(D,G)为:
Figure FDA0002745710310000021
其中,Pdata(x)和Pz(z)分别表示真实样本x和随机噪声z的概率分布,D(x)表示判别器D判断x为真的概率,E[]表示求期望,用角标x~pdata(x)和z~pz(z)区别真实样本和噪声的期望;
通过计算目标函数的值,再进行梯度的反向传播,更新判别器D的参数。
5.根据权利要求1所述的一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强方法,其特征在于,所述步骤4包括:
固定判别器D的参数,优化生成器G的参数,定义G(z)是生成器G生成的假样本,D(G(z))为判别器D判断生成器G生成的轨迹片段真实的概率,为使生成器G生成的轨迹片段更真实,应使目标函数V(D,G)为:
Figure FDA0002745710310000022
其中,Pz(z)表示随机噪声z的概率分布,E[]表示求期望;
经过判别器D判断生成器G生成的结果后,将目标函数的梯度传回生成器G以更新生成器G的参数。
6.一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强系统,其特征在于,包括:
无源定位轨迹数据转换模块,用于将原始无源定位轨迹数据集中含有数据缺失的无源定位轨迹数据的经纬度和时间信息嵌入图片的RGB分量,转换为轨迹信息图像;
轨迹信息图像预处理模块,用于对轨迹信息图像进行预处理,统一图片大小,生成目标轨迹片段;将目标轨迹片段作为深度卷积生成对抗网络的训练样本;
判别器参数更新模块,用于由生成器G生成与目标轨迹片段相似的数据,标签为假;然后,固定生成器G的参数,将损失值反向传播更新判别器D的参数;
生成器参数更新模块,用于固定判别器D的参数,训练生成器G,使生成器G产生的轨迹片段能够使判别器D判断为真样本;将损失值反向传播更新生成器G的参数。
7.根据权利要求6所述的一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强系统,其特征在于,所述无源定位轨迹数据转换模块具体用于:
在MATLAB中模拟所有轨迹和航道构成的平面,构建一个调色板,坐标点数据(R分量,G分量,B分量),左上角为(0,0,0)纯黑点,右下角为(255,255,255)的纯白点;在此调色板中,按无源定位轨迹数据经过转换以后的UTM平面坐标给每一条轨迹赋予相应的颜色;
利用MATLAB自带的UTM坐标转换系统,对无源定位轨迹数据的经纬度坐标信息进行UTM平面坐标转换,转换生成UTM平面横纵坐标数据即为所要生成的轨迹图像的R分量、G分量数据;
按照如下方式对时间信息进行标准化处理:
Figure FDA0002745710310000031
t为某一轨迹点对应的时间,tmin为所有轨迹点对应时间的最小值,tmax为所有轨迹点对应时间的最大值,所有时间单位精确到秒;t*为标准化时间值,即所要生成的轨迹图像的B分量数据。
8.根据权利要求6所述的一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强系统,其特征在于,所述轨迹信息图像预处理模块具体用于:
设统一图片大小为长L0和高H0,设定一个区域划分的比例η,以L0和H0的η倍为阈值,若图片的长L大于L0×η并且高H大于H0×η,则对图片进行上下采样的处理;若图片的长或高中的一方小于阈值,则通过空白填补的方式调整到统一大小;最后统一将图片中的轨迹置于新的空白图片的中心位置。
9.根据权利要求6所述的一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强系统,其特征在于,所述判别器参数更新模块具体用于:
固定生成器G的参数,优化判别器D的参数,定义G(z)是生成器G生成的假样本,D(G(z))为判别器D判断生成器G生成的轨迹片段真实的概率,为使判别器D的判别能力更优,应使目标函数V(D,G)为:
Figure FDA0002745710310000041
其中,Pdata(x)和Pz(z)分别表示真实样本x和随机噪声z的概率分布,D(x)表示判别器D判断x为真的概率,E[]表示求期望,用角标x~pdata(x)和z~pz(z)区别真实样本和噪声的期望;
通过计算目标函数的值,再进行梯度的反向传播,更新判别器D的参数。
10.根据权利要求6所述的一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强系统,其特征在于,所述生成器参数更新模块具体用于:
固定判别器D的参数,优化生成器G的参数,定义G(z)是生成器G生成的假样本,D(G(z))为判别器D判断生成器G生成的轨迹片段真实的概率,为使生成器G生成的轨迹片段更真实,应使目标函数V(D,G)为:
Figure FDA0002745710310000042
其中,Pz(z)表示随机噪声z的概率分布,E[]表示求期望;
经过判别器D判断生成器G生成的结果后,将目标函数的梯度传回生成器G以更新生成器G的参数。
CN202011165702.7A 2020-10-27 2020-10-27 一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强方法及系统 Active CN112329832B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011165702.7A CN112329832B (zh) 2020-10-27 2020-10-27 一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011165702.7A CN112329832B (zh) 2020-10-27 2020-10-27 一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强方法及系统

Publications (2)

Publication Number Publication Date
CN112329832A true CN112329832A (zh) 2021-02-05
CN112329832B CN112329832B (zh) 2023-01-31

Family

ID=74296613

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011165702.7A Active CN112329832B (zh) 2020-10-27 2020-10-27 一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强方法及系统

Country Status (1)

Country Link
CN (1) CN112329832B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113326737A (zh) * 2021-05-06 2021-08-31 西北工业大学 一种水中目标的数据增强方法
CN113407937A (zh) * 2021-06-30 2021-09-17 中国科学技术大学 针对侧信道建模攻击模型的平衡数据集构造方法
CN113744238A (zh) * 2021-09-01 2021-12-03 南京工业大学 一种建立枪弹痕迹数据库的方法
CN116299170A (zh) * 2023-02-23 2023-06-23 中国人民解放军军事科学院系统工程研究院 一种基于深度学习的多目标无源定位方法、系统、介质
CN118155024A (zh) * 2024-05-13 2024-06-07 国网安徽省电力有限公司电力科学研究院 大模型图像样本自动生成方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016081272A (ja) * 2014-10-16 2016-05-16 日本電信電話株式会社 移動手段推定モデル生成装置、移動手段推定モデル生成方法、移動手段推定モデル生成プログラム
CN109872346A (zh) * 2019-03-11 2019-06-11 南京邮电大学 一种支持循环神经网络对抗学习的目标跟踪方法
CN110675418A (zh) * 2019-09-26 2020-01-10 深圳市唯特视科技有限公司 一种基于ds证据理论的目标轨迹优化方法
CN110689562A (zh) * 2019-09-26 2020-01-14 深圳市唯特视科技有限公司 一种基于生成对抗网络的轨迹回环检测优化方法
US20200074239A1 (en) * 2018-09-04 2020-03-05 Seadronix Corp. Situation awareness method and device using image segmentation
CN111611918A (zh) * 2020-05-20 2020-09-01 重庆大学 基于航拍数据和深度学习的交通流数据集采集及构建方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016081272A (ja) * 2014-10-16 2016-05-16 日本電信電話株式会社 移動手段推定モデル生成装置、移動手段推定モデル生成方法、移動手段推定モデル生成プログラム
US20200074239A1 (en) * 2018-09-04 2020-03-05 Seadronix Corp. Situation awareness method and device using image segmentation
CN109872346A (zh) * 2019-03-11 2019-06-11 南京邮电大学 一种支持循环神经网络对抗学习的目标跟踪方法
CN110675418A (zh) * 2019-09-26 2020-01-10 深圳市唯特视科技有限公司 一种基于ds证据理论的目标轨迹优化方法
CN110689562A (zh) * 2019-09-26 2020-01-14 深圳市唯特视科技有限公司 一种基于生成对抗网络的轨迹回环检测优化方法
CN111611918A (zh) * 2020-05-20 2020-09-01 重庆大学 基于航拍数据和深度学习的交通流数据集采集及构建方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
KWANG-IL KIM等: "Convolutional Neural Network-Based Gear Type Identification from Automatic Identification System Trajectory Data", 《APPLIED SCIENCE》 *
崔彤彤: "基于1DCNN-LSTM的船舶轨迹分类方法", 《计算机科学》 *
张光亚: "多目标无源定位数据的轨迹提取与模式挖掘算法研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113326737A (zh) * 2021-05-06 2021-08-31 西北工业大学 一种水中目标的数据增强方法
CN113407937A (zh) * 2021-06-30 2021-09-17 中国科学技术大学 针对侧信道建模攻击模型的平衡数据集构造方法
CN113744238A (zh) * 2021-09-01 2021-12-03 南京工业大学 一种建立枪弹痕迹数据库的方法
CN113744238B (zh) * 2021-09-01 2023-08-01 南京工业大学 一种建立枪弹痕迹数据库的方法
CN116299170A (zh) * 2023-02-23 2023-06-23 中国人民解放军军事科学院系统工程研究院 一种基于深度学习的多目标无源定位方法、系统、介质
CN116299170B (zh) * 2023-02-23 2023-09-01 中国人民解放军军事科学院系统工程研究院 一种基于深度学习的多目标无源定位方法、系统、介质
CN118155024A (zh) * 2024-05-13 2024-06-07 国网安徽省电力有限公司电力科学研究院 大模型图像样本自动生成方法及系统

Also Published As

Publication number Publication date
CN112329832B (zh) 2023-01-31

Similar Documents

Publication Publication Date Title
CN112329832B (zh) 一种基于深度卷积生成对抗网络的无源定位目标轨迹数据增强方法及系统
CN110443203B (zh) 基于对抗生成网络的人脸欺骗检测系统对抗样本生成方法
US12099577B2 (en) Object recognition method and apparatus, electronic device, and readable storage medium
CN113674140B (zh) 一种物理对抗样本生成方法及系统
CN111598805A (zh) 一种基于vae-gan的对抗样本防御方法及系统
CN109800785B (zh) 一种基于自表达相关的数据分类方法和装置
CN111680702B (zh) 一种使用检测框实现弱监督图像显著性检测的方法
CN110348475A (zh) 一种基于空间变换的对抗样本增强方法和模型
CN108268871A (zh) 一种基于卷积神经网络的端到端的车牌识别方法和系统
CN116935447B (zh) 基于自适应师生结构的无监督域行人重识别方法及系统
CN111967006A (zh) 基于神经网络模型的自适应黑盒对抗攻击方法
CN113159045A (zh) 一种结合图像预处理与卷积神经网络的验证码识别方法
CN116758421A (zh) 一种基于弱监督学习的遥感图像有向目标检测方法
CN109993176A (zh) 图像局部特征描述方法、装置、设备及介质
CN114091510A (zh) 基于领域自适应的跨域车辆重识别方法
CN116704208B (zh) 基于特征关系的局部可解释方法
CN113033747B (zh) 一种用于人机识别的图形识别码生成方法
CN113780301B (zh) 防御对抗攻击的自适应去噪机器学习应用方法
CN114841287A (zh) 分类模型的训练方法、图像分类方法及装置
CN114970809A (zh) 一种基于生成式对抗网络的图片对抗样本生成方法
CN114898137A (zh) 面向人脸识别的黑盒对抗样本攻击方法、装置、设备及介质
CN113554685A (zh) 遥感卫星运动目标检测方法、装置、电子设备及存储介质
CN114579777A (zh) 一种改进的符号优化对抗攻击方法
CN112560705A (zh) 人脸检测方法和装置,电子设备
CN113657448B (zh) 一种基于生成对抗网络和梯度解释的对抗样本防御方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address

Address after: 450000 Science Avenue 62, Zhengzhou High-tech Zone, Henan Province

Patentee after: Information Engineering University of the Chinese People's Liberation Army Cyberspace Force

Country or region after: China

Address before: No. 62 Science Avenue, High tech Zone, Zhengzhou City, Henan Province

Patentee before: Information Engineering University of Strategic Support Force,PLA

Country or region before: China