CN112257566A - 一种基于大数据的人工智能目标识别测距方法 - Google Patents

一种基于大数据的人工智能目标识别测距方法 Download PDF

Info

Publication number
CN112257566A
CN112257566A CN202011127031.5A CN202011127031A CN112257566A CN 112257566 A CN112257566 A CN 112257566A CN 202011127031 A CN202011127031 A CN 202011127031A CN 112257566 A CN112257566 A CN 112257566A
Authority
CN
China
Prior art keywords
target
function
network
output
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011127031.5A
Other languages
English (en)
Other versions
CN112257566B (zh
Inventor
不公告发明人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shaanxi Heyou Network Technology Co ltd
Original Assignee
Harbin Engineering University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Engineering University filed Critical Harbin Engineering University
Priority to CN202011127031.5A priority Critical patent/CN112257566B/zh
Publication of CN112257566A publication Critical patent/CN112257566A/zh
Application granted granted Critical
Publication of CN112257566B publication Critical patent/CN112257566B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于目标识别、测距技术领域,具体涉及一种识别准确率更高、速度更快的基于大数据的人工智能目标识别测距方法。本发明包括对接收的信号进行预处理;通过K‑Means聚类算法,生成识别目标的锚定框;构建卷积神经网络支路,定义卷积神经网络的层和参数;利用测试集对神经网络评估模型进行线性调频信号的信号到达时间测试,输出线性调频信号的信号到达时间估计结果,通过输入的图像信息得到目标与接收器之间的水平距离。本发明能够在多种复杂背景与分辨率下对实现目标检测与识别,加强梯度下降过程中有用特征的使用率,提高目标识别和测距的准确率。

Description

一种基于大数据的人工智能目标识别测距方法
技术领域
本发明属于目标识别、测距技术领域,具体涉及一种识别准确率更高、速度更快的基于大数据的人工智能目标识别测距方法。
背景技术
目标识别测距技术可运用到飞机、汽车、轨道交通、智能家居、轨迹监控等多个领域,整体输入人工智能的大数据处理技术。目前发明人检索到的,与本发明相类似的对比文件包括:1重庆理工大学学报《基于数据融合的目标测距方法研究》、专利申请号202010144063.X的《一种无人机目标识别定位方法》以及西安电子科技大学的《基于数据融合的目标测距方法研究》等。与上述的文献记载的相关技术相比,本发明更专注于提供一种在边界框内通过网络训练提高识别精度和测距速度的人工智能识别方法。
发明内容
本发明的目的在于提供一种基于大数据的人工智能目标识别测距方法。
本发明的目的是这样实现的:
一种基于大数据的人工智能目标识别测距方法,包括如下步骤:
(1)对接收的信号进行预处理;
(2)通过K-Means聚类算法,生成识别目标的锚定框;
(3)构建卷积神经网络支路,定义卷积神经网络的层和参数;
(4)构建长短期记忆网络支路,定义长短期记忆网络的层和参数;
(5)构建基于特征注意力模型的YOLOV3网络,进行卷积神经网络支路和长短期记忆网络支路的特征融合,得到评估模型,通过全连接层对评估模型进行非线性组合并进行输出;
(6)训练集训练评估模型,使用验证集评估模型,调整评估模型参数,获得最佳的神经网络评估模型;
(7)利用测试集对神经网络评估模型进行线性调频信号的信号到达时间测试,输出线性调频信号的信号到达时间估计结果,通过输入的图像信息得到目标与接收器之间的水平距离。
所述的步骤(1)包括:
(1.1)采样连续脉冲信号,提取同相分量I路和正交分量Q路的数据,将I路数据、Q路数据分别保存为长度为Ni=1000的采样信号,组成2*1000的矩阵,作为深度学习网络的输入;
(1.2)对训练集图像进行归一化操作:
Norm(i)=(i-E(i))D(i)/Stddev(i);
Stddev(i)=max(D(i),1/√M);
其中:i为目标图像,M为i的像素个数,Norm为归一化函数,Stddev为带有限制的方差函数,max为最大值函数,D为方差函数,E为均值函数;
(1.3)读取训练集中每一个目标图像的目标边界框信息,将边界框外的三个通道像素值置0,得到训练集图像的实蒙版图j;
(1.4)搭建蒙版图的生成器网络和判别器网络;
(1.5)定义损失函数为:
LGL1=E(||j-G(i)||1)
Figure BDA0002733936920000021
LG=LGL1+LGGAN(G(i),D(i,j))
Figure BDA0002733936920000022
式中:G(i)是生成器,D(i,j)是判别器,s为非线性补偿系数,LGL1为生成器的L1范数损失函数,LGGAN为生成器的生成对抗损失函数,LG为生成器损失函数,LD为判别器损失函数;
(1.6)对生成器输出的中间蒙版图进行灰化和开关处理:
Figure BDA0002733936920000023
Gray(R,G,B)=(R×0.235+G×0.536+B×0.123)/255;
式中:N是生成蒙版图,Gray为灰化函数,Switch为开关函数;R、G、B分别是中间蒙版图的红、绿、蓝颜色通道的像素值,z是遗忘系数;
(1.7)像素注意力模型的输出为:
xN[x,y,k]=x[x,y,k]·N[x,y];
式中:iN[x,y,k]为xN第x行第y列第k个颜色通道的像素值,i[x,y,k]为i第x行第y列第k个颜色通道的像素值,N[x,y]为第x行第y列的蒙版值。
所述的步骤(2)包括:
(2.1)从边界框集合中随机选择15个边界框,每个边界框代表一个锚定框类别,依次标记为1-15;
(2.2)每除代表锚定框类别的边界框的类别设置为0;
(2.3)遍历每一个边界框,计算与每一个代表锚定框类别的边界框的欧几里得范数;
(2.4)对每一个类别的所有边界框计算平均值,以平均值作为虚拟质心;用虚拟质心替代原质心;
(2.5)计算每个代表锚定框类别的边界框和虚拟质心的欧几里得范数,若每个欧几里得范数都小于给定收敛阈值则执行(2.6);否则执行步骤(2.3);
(2.6)将15个虚拟质心按照边界框的面积从大到小排序,取面积最大的5个虚拟质心作为低分辨率的目标锚定框,中间的5个虚拟质心作为中分辨率的目标锚定框,面积最小5个作为高分辨率的目标锚定框。
所述的步骤(3)包括:
通过卷积神经网络的卷积层提取预处理过的信号数据的空间特征,通过池化层提取特征的关键信息,通过稠密层激活函数计算各神经元的权重;卷积神经网络卷积层的输出为:
Figure BDA0002733936920000031
Qp(x,y)=f[(X*Wp)(x,y)+bp]LGGAN(G(i),D(i,j))
Qp(x,y)表示的是输入与第p个卷积核卷积运算后的第x行y列的输出,X为输入,Wp是第p个的卷积核,bp是输出偏置,f是ReLU型激活函数。
所述的长短期记忆网络由一个记忆单元和三个控制门单元组成,包括遗忘门FG、输入门IG、输出门OG;
遗忘门输出为:
ft=δ[Wf(ht,xt)+bf]
δ表示的是sigmoid型激励函数,Wf为遗忘门的权重矩阵,ht表示t时刻的输出,xt表示t时刻的输入,bf表示遗忘门的偏置;
输入门输出为:
it=δ[Wi(ht-1,xt)+bi]
Wi为输入门的权重矩阵,bi表示遗忘门的偏置;
单元更新过程
Figure BDA0002733936920000032
tanh为激活函数,Wc辨识单元更新的权重矩阵,bc表示单元更新的偏置
单元输出
Figure BDA0002733936920000033
输出门输出为
Ot=δ[Wo(ht-1,xt)+bo]
Wo为输出门的权重矩阵,bo为输出门的偏置;
t时刻总输出为
ht=Ot tanh(Ct)。
所述的步骤(5)包括如下步骤:
基于聚类生成的锚定框,将数据集的标签边界框转换为相对的形式:
Figure BDA0002733936920000041
Figure BDA0002733936920000042
Figure BDA0002733936920000043
Figure BDA0002733936920000044
式中,W×H是图像的分辨率,
Figure BDA0002733936920000045
是锚定框的尺寸,对于第x个边界框ix、iy、wi和hi,其相对的坐标和尺寸为
Figure BDA0002733936920000046
Figure BDA0002733936920000047
YOLOV3网络的边界框损失函数为:
Figure BDA0002733936920000048
LD为边界框损失函数;λcoord是用于调整船舶目标检测在损失函数所占的比重的参数;
Figure BDA0002733936920000049
指判断网格i中是否存在目标,存在时为1,不存在时为0,S为边界框面积,Bi为边界框边长;
YOLOV3网络的置信度损失函数为:
Figure BDA00027339369200000410
其中,样本真实类别标签为C,真实置信度为P,预测类别标签为
Figure BDA00027339369200000411
预测置信度为
Figure BDA00027339369200000412
λnoobj是用于减少无目标区域的损失对于训练过程贡献的参数;
YOLOV3网络的损失函数L为:
L=htLD+Qp(x,y)LC
所述步骤(6)包括:通过并联卷积神经网络和长短期记忆网络对经过处理的信号数据进行计算,输出信号数据的到达时间估计结果;经过迭代训练,通过估计结果的误差调整卷积神经网络和长短期记忆网络模型的各神经元的权重,保存训练模型。
本发明的有益效果在于:
本发明提出了利用卷积神经网络良好的空间特征提取能力和长短期记忆网络良好的时间序列处理能力,提取脉冲信号的空间特征和时间特征,将图像信号的时空问题转化成基于并联卷积神经网络和长短期记忆网络的特征提取问题,提高了特征表达能力。对图形信号进行采样,将采样后的离散信号的同相分量和正交分量直接作为输入,无需将接收信号变换为基带信号的复杂运算,同时对图像进行预处理,削减非目标区域的像素信息,提高目标检测的准确率;同时利用K-Means聚类算法,生成识别目标的锚定框优化YOLOV3网络,能够在多种复杂背景与分辨率下对实现目标检测与识别,加强梯度下降过程中有用特征的使用率,提高目标识别和测距的准确率。
附图说明
图1为本发明方法的流程图。
具体实施方式
下面结合附图对本发明作进一步描述。
一种基于大数据的人工智能目标识别测距方法,包括如下步骤:
(1)对接收的信号进行预处理;
(1.1)采样连续脉冲信号,提取同相分量I路和正交分量Q路的数据,将I路数据、Q路数据分别保存为长度为Ni=1000的采样信号,组成2*1000的矩阵,作为深度学习网络的输入;
(1.2)对训练集图像进行归一化操作:
Norm(i)=(i-E(i))D(i)/Stddev(i);
Stddev(i)=max(D(i),1/√M);
其中:i为目标图像,M为i的像素个数,Norm为归一化函数,Stddev为带有限制的方差函数,max为最大值函数,D为方差函数,E为均值函数;
(1.3)读取训练集中每一个目标图像的目标边界框信息,将边界框外的三个通道像素值置0,得到训练集图像的实蒙版图j;
(1.4)搭建蒙版图的生成器网络和判别器网络;
(1.5)定义损失函数为:
LGL1=E(||j-G(i)||1)
Figure BDA0002733936920000051
LG=LGL1+LGGAN(G(i),D(i,j))
Figure BDA0002733936920000052
式中:G(i)是生成器,D(i,j)是判别器,s为非线性补偿系数,LGL1为生成器的L1范数损失函数,LGGAN为生成器的生成对抗损失函数,LG为生成器损失函数,LD为判别器损失函数;
(1.6)对生成器输出的中间蒙版图进行灰化和开关处理:
Figure BDA0002733936920000061
Gray(R,G,B)=(R×0.235+G×0.536+B×0.123)/255;
式中:N是生成蒙版图,Gray为灰化函数,Switch为开关函数;R、G、B分别是中间蒙版图的红、绿、蓝颜色通道的像素值,z是遗忘系数;
(1.7)像素注意力模型的输出为:
xN[x,y,k]=x[x,y,k]·N[x,y];
式中:iN[x,y,k]为xN第x行第y列第k个颜色通道的像素值,i[x,y,k]为i第x行第y列第k个颜色通道的像素值,N[x,y]为第x行第y列的蒙版值。
(2)通过K-Means聚类算法,生成识别目标的锚定框;
(2.1)从边界框集合中随机选择15个边界框,每个边界框代表一个锚定框类别,依次标记为1-15;
(2.2)每除代表锚定框类别的边界框的类别设置为0;
(2.3)遍历每一个边界框,计算与每一个代表锚定框类别的边界框的欧几里得范数;
(2.4)对每一个类别的所有边界框计算平均值,以平均值作为虚拟质心;用虚拟质心替代原质心;
(2.5)计算每个代表锚定框类别的边界框和虚拟质心的欧几里得范数,若每个欧几里得范数都小于给定收敛阈值则执行(2.6);否则执行步骤(2.3);
(2.6)将15个虚拟质心按照边界框的面积从大到小排序,取面积最大的5个虚拟质心作为低分辨率的目标锚定框,中间的5个虚拟质心作为中分辨率的目标锚定框,面积最小5个作为高分辨率的目标锚定框。
(3)构建卷积神经网络支路,定义卷积神经网络的层和参数;
通过卷积神经网络的卷积层提取预处理过的信号数据的空间特征,通过池化层提取特征的关键信息,通过稠密层激活函数计算各神经元的权重;卷积神经网络卷积层的输出为:
Figure BDA0002733936920000062
Qp(x,y)=f[(X*Wp)(x,y)+bp]LGGAN(G(i),D(i,j))
Qp(x,y)表示的是输入与第p个卷积核卷积运算后的第x行y列的输出,X为输入,Wp是第p个的卷积核,bp是输出偏置,f是ReLU型激活函数。
(4)构建长短期记忆网络支路,定义长短期记忆网络的层和参数;
所述的长短期记忆网络由一个记忆单元和三个控制门单元组成,包括遗忘门FG、输入门IG、输出门OG;
遗忘门输出为:
ft=δ[Wf(ht,xt)+bf]
δ表示的是sigmoid型激励函数,Wf为遗忘门的权重矩阵,ht表示t时刻的输出,xt表示t时刻的输入,bf表示遗忘门的偏置;
输入门输出为:
it=δ[Wi(ht-1,xt)+bi]
Wi为输入门的权重矩阵,bi表示遗忘门的偏置;
单元更新过程
Figure BDA0002733936920000071
tanh为激活函数,Wc辨识单元更新的权重矩阵,bc表示单元更新的偏置
单元输出
Figure BDA0002733936920000072
输出门输出为
Ot=δ[Wo(ht-1,xt)+bo]
Wo为输出门的权重矩阵,bo为输出门的偏置;
t时刻总输出为
ht=Ot tanh(Ct)。
(5)构建基于特征注意力模型的YOLOV3网络,进行卷积神经网络支路和长短期记忆网络支路的特征融合,得到评估模型,通过全连接层对评估模型进行非线性组合并进行输出;
基于聚类生成的锚定框,将数据集的标签边界框转换为相对的形式:
Figure BDA0002733936920000073
Figure BDA0002733936920000074
Figure BDA0002733936920000075
Figure BDA0002733936920000076
式中,W×H是图像的分辨率,
Figure BDA0002733936920000077
是锚定框的尺寸,对于第x个边界框ix、iy、wi和hi,其相对的坐标和尺寸为
Figure BDA0002733936920000078
Figure BDA0002733936920000079
YOLOV3网络的边界框损失函数为:
Figure BDA00027339369200000710
Figure BDA0002733936920000081
LD为边界框损失函数;λcoord是用于调整船舶目标检测在损失函数所占的比重的参数;
Figure BDA0002733936920000082
指判断网格i中是否存在目标,存在时为1,不存在时为0,S为边界框面积,Bi为边界框边长;
YOLOV3网络的置信度损失函数为:
Figure BDA0002733936920000083
其中,样本真实类别标签为C,真实置信度为P,预测类别标签为
Figure BDA0002733936920000084
预测置信度为
Figure BDA0002733936920000085
λnoobj是用于减少无目标区域的损失对于训练过程贡献的参数;
YOLOV3网络的损失函数L为:
L=htLD+Qp(x,y)LC
(6)训练集训练评估模型,使用验证集评估模型,调整评估模型参数,获得最佳的神经网络评估模型;通过并联卷积神经网络和长短期记忆网络对经过处理的信号数据进行计算,输出信号数据的到达时间估计结果;经过迭代训练,通过估计结果的误差调整卷积神经网络和长短期记忆网络模型的各神经元的权重,保存训练模型。
(7)利用测试集对神经网络评估模型进行线性调频信号的信号到达时间测试,输出线性调频信号的信号到达时间估计结果,通过输入的图像信息得到目标与接收器之间的水平距离。
本发明通过3种人工智能网络的结合运用,将图像信号的时空问题转化成基于并联卷积神经网络和长短期记忆网络的特征提取问题,提高了特征表达能力,生成识别目标的锚定框优化YOLOV3网络,能够在多种复杂背景与分辨率下对实现目标检测与识别,能够有效进行目标识别测距功能,相比于背景技术提出的对比文件,由于技术特征均没有公开,因此具有突出的实质性特点和显著的技术进步,技术整体具备充分的创造性。

Claims (7)

1.一种基于大数据的人工智能目标识别测距方法,其特征在于,包括如下步骤:
(1)对接收的信号进行预处理;
(2)通过K-Means聚类算法,生成识别目标的锚定框;
(3)构建卷积神经网络支路,定义卷积神经网络的层和参数;
(4)构建长短期记忆网络支路,定义长短期记忆网络的层和参数;
(5)构建基于特征注意力模型的YOLOV3网络,进行卷积神经网络支路和长短期记忆网络支路的特征融合,得到评估模型,通过全连接层对评估模型进行非线性组合并进行输出;
(6)训练集训练评估模型,使用验证集评估模型,调整评估模型参数,获得最佳的神经网络评估模型;
(7)利用测试集对神经网络评估模型进行线性调频信号的信号到达时间测试,输出线性调频信号的信号到达时间估计结果,通过输入的图像信息得到目标与接收器之间的水平距离。
2.根据权利要求1所述的一种基于大数据的人工智能目标识别测距方法,其特征在于,所述的步骤(1)包括:
(1.1)采样连续脉冲信号,提取同相分量I路和正交分量Q路的数据,将I路数据、Q路数据分别保存为长度为Ni=1000的采样信号,组成2*1000的矩阵,作为深度学习网络的输入;
(1.2)对训练集图像进行归一化操作:
Norm(i)=(i-E(i))D(i)/Stddev(i);
Figure FDA0002733936910000013
其中:i为目标图像,M为i的像素个数,Norm为归一化函数,Stddev为带有限制的方差函数,max为最大值函数,D为方差函数,E为均值函数;
(1.3)读取训练集中每一个目标图像的目标边界框信息,将边界框外的三个通道像素值置0,得到训练集图像的实蒙版图j;
(1.4)搭建蒙版图的生成器网络和判别器网络;
(1.5)定义损失函数为:
LGL1=E(||j-G(i)||1)
Figure FDA0002733936910000011
LG=LGL1+LGGAN(G(i),D(i,j))
Figure FDA0002733936910000012
式中:G(i)是生成器,D(i,j)是判别器,s为非线性补偿系数,LGL1为生成器的L1范数损失函数,LGGAN为生成器的生成对抗损失函数,LG为生成器损失函数,LD为判别器损失函数;
(1.6)对生成器输出的中间蒙版图进行灰化和开关处理:
Figure FDA0002733936910000021
Gray(R,G,B)=(R×0.235+G×0.536+B×0.123)/255;
式中:N是生成蒙版图,Gray为灰化函数,Switch为开关函数;R、G、B分别是中间蒙版图的红、绿、蓝颜色通道的像素值,z是遗忘系数;
(1.7)像素注意力模型的输出为:
xN[x,y,k]=x[x,y,k]·N[x,y];
式中:iN[x,y,k]为xN第x行第y列第k个颜色通道的像素值,i[x,y,k]为i第x行第y列第k个颜色通道的像素值,N[x,y]为第x行第y列的蒙版值。
3.根据权利要求1所述的一种基于大数据的人工智能目标识别测距方法,其特征在于,所述的步骤(2)包括:
(2.1)从边界框集合中随机选择15个边界框,每个边界框代表一个锚定框类别,依次标记为1-15;
(2.2)每除代表锚定框类别的边界框的类别设置为0;
(2.3)遍历每一个边界框,计算与每一个代表锚定框类别的边界框的欧几里得范数;
(2.4)对每一个类别的所有边界框计算平均值,以平均值作为虚拟质心;用虚拟质心替代原质心;
(2.5)计算每个代表锚定框类别的边界框和虚拟质心的欧几里得范数,若每个欧几里得范数都小于给定收敛阈值则执行(2.6);否则执行步骤(2.3);
(2.6)将15个虚拟质心按照边界框的面积从大到小排序,取面积最大的5个虚拟质心作为低分辨率的目标锚定框,中间的5个虚拟质心作为中分辨率的目标锚定框,面积最小5个作为高分辨率的目标锚定框。
4.根据权利要求1所述的一种基于大数据的人工智能目标识别测距方法,其特征在于,所述的步骤(3)包括:
通过卷积神经网络的卷积层提取预处理过的信号数据的空间特征,通过池化层提取特征的关键信息,通过稠密层激活函数计算各神经元的权重;卷积神经网络卷积层的输出为:
Figure FDA0002733936910000022
Qp(x,y)=f[(X*Wp)(x,y)+bp]LGGAN(G(i),D(i,j))
Qp(x,y)表示的是输入与第p个卷积核卷积运算后的第x行y列的输出,X为输入,Wp是第p个的卷积核,bp是输出偏置,f是ReLU型激活函数。
5.根据权利要求1所述的一种基于大数据的人工智能目标识别测距方法,其特征在于,所述的长短期记忆网络由一个记忆单元和三个控制门单元组成,包括遗忘门FG、输入门IG、输出门OG;
遗忘门输出为:
ft=δ[Wf(ht,xt)+bf]
δ表示的是sigmoid型激励函数,Wf为遗忘门的权重矩阵,ht表示t时刻的输出,xt表示t时刻的输入,bf表示遗忘门的偏置;
输入门输出为:
it=δ[Wi(ht-1,xt)+bi]
Wi为输入门的权重矩阵,bi表示遗忘门的偏置;
单元更新过程
Figure FDA0002733936910000031
tanh为激活函数,Wc辨识单元更新的权重矩阵,bc表示单元更新的偏置
单元输出
Figure FDA0002733936910000032
输出门输出为
Ot=δ[Wo(ht-1,xt)+bo]
Wo为输出门的权重矩阵,bo为输出门的偏置;
t时刻总输出为
ht=Ottanh(Ct)。
6.根据权利要求1所述的一种基于大数据的人工智能目标识别测距方法,其特征在于,所述的步骤(5)包括如下步骤:
基于聚类生成的锚定框,将数据集的标签边界框转换为相对的形式:
Figure FDA0002733936910000033
Figure FDA0002733936910000034
Figure FDA0002733936910000035
Figure FDA0002733936910000036
式中,W×H是图像的分辨率,
Figure FDA0002733936910000037
是锚定框的尺寸,对于第x个边界框ix、iy、wi和hi,其相对的坐标和尺寸为
Figure FDA0002733936910000038
Figure FDA0002733936910000039
YOLOV3网络的边界框损失函数为:
Figure FDA0002733936910000041
LD为边界框损失函数;λcoord是用于调整船舶目标检测在损失函数所占的比重的参数;
Figure FDA0002733936910000042
指判断网格i中是否存在目标,存在时为1,不存在时为0,S为边界框面积,Bi为边界框边长;
YOLOV3网络的置信度损失函数为:
Figure FDA0002733936910000043
其中,样本真实类别标签为C,真实置信度为P,预测类别标签为
Figure FDA0002733936910000044
预测置信度为
Figure FDA0002733936910000045
λnoobj是用于减少无目标区域的损失对于训练过程贡献的参数;
YOLOV3网络的损失函数L为:
L=htLD+Qp(x,y)LC
7.根据权利要求1所述的一种基于大数据的人工智能目标识别测距方法,其特征在于,所述步骤(6)包括:通过并联卷积神经网络和长短期记忆网络对经过处理的信号数据进行计算,输出信号数据的到达时间估计结果;经过迭代训练,通过估计结果的误差调整卷积神经网络和长短期记忆网络模型的各神经元的权重,保存训练模型。
CN202011127031.5A 2020-10-20 2020-10-20 一种基于大数据的人工智能目标识别测距方法 Active CN112257566B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011127031.5A CN112257566B (zh) 2020-10-20 2020-10-20 一种基于大数据的人工智能目标识别测距方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011127031.5A CN112257566B (zh) 2020-10-20 2020-10-20 一种基于大数据的人工智能目标识别测距方法

Publications (2)

Publication Number Publication Date
CN112257566A true CN112257566A (zh) 2021-01-22
CN112257566B CN112257566B (zh) 2023-05-23

Family

ID=74244171

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011127031.5A Active CN112257566B (zh) 2020-10-20 2020-10-20 一种基于大数据的人工智能目标识别测距方法

Country Status (1)

Country Link
CN (1) CN112257566B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114677568A (zh) * 2022-05-30 2022-06-28 山东极视角科技有限公司 一种基于神经网络的线性目标检测方法、模块及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6366236B1 (en) * 1999-08-12 2002-04-02 Automotive Systems Laboratory, Inc. Neural network radar processor
CN105277853A (zh) * 2015-11-11 2016-01-27 东北大学 一种基于二次脉冲的海底电缆故障定位装置及方法
CN108267123A (zh) * 2018-01-23 2018-07-10 深圳市唯特视科技有限公司 一种基于边界框和距离预测的双流车载行人车辆预测方法
CN109029363A (zh) * 2018-06-04 2018-12-18 泉州装备制造研究所 一种基于深度学习的目标测距方法
CN109407067A (zh) * 2018-10-13 2019-03-01 中国人民解放军海军航空大学 基于时频图卷积神经网络的雷达动目标检测与分类一体化方法
CN110297223A (zh) * 2019-07-29 2019-10-01 天津大学 基于bp神经网络的脉冲激光回波数目检测的方法
US20200265591A1 (en) * 2019-04-23 2020-08-20 Jiangnan University Visual Multi-Object Tracking based on Multi-Bernoulli Filter with YOLOv3 Detection

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6366236B1 (en) * 1999-08-12 2002-04-02 Automotive Systems Laboratory, Inc. Neural network radar processor
CN105277853A (zh) * 2015-11-11 2016-01-27 东北大学 一种基于二次脉冲的海底电缆故障定位装置及方法
CN108267123A (zh) * 2018-01-23 2018-07-10 深圳市唯特视科技有限公司 一种基于边界框和距离预测的双流车载行人车辆预测方法
CN109029363A (zh) * 2018-06-04 2018-12-18 泉州装备制造研究所 一种基于深度学习的目标测距方法
CN109407067A (zh) * 2018-10-13 2019-03-01 中国人民解放军海军航空大学 基于时频图卷积神经网络的雷达动目标检测与分类一体化方法
US20200265591A1 (en) * 2019-04-23 2020-08-20 Jiangnan University Visual Multi-Object Tracking based on Multi-Bernoulli Filter with YOLOv3 Detection
CN110297223A (zh) * 2019-07-29 2019-10-01 天津大学 基于bp神经网络的脉冲激光回波数目检测的方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
杜雪婷等: ""基于YOLOv3的车辆距离测量算法"", 《电脑编程技巧与维护》 *
王雪丽: ""基于卷积神经网络的双目测距研究"", 《电子质量》 *
胡远志等: ""基于数据融合的目标测距方法研究"", 《重庆理工大学学报(自然科学版)》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114677568A (zh) * 2022-05-30 2022-06-28 山东极视角科技有限公司 一种基于神经网络的线性目标检测方法、模块及系统

Also Published As

Publication number Publication date
CN112257566B (zh) 2023-05-23

Similar Documents

Publication Publication Date Title
CN110135267B (zh) 一种大场景sar图像细微目标检测方法
CN110443143B (zh) 多分支卷积神经网络融合的遥感图像场景分类方法
CN109977918B (zh) 一种基于无监督域适应的目标检测定位优化方法
CN109949317B (zh) 基于逐步对抗学习的半监督图像实例分割方法
CN108717568B (zh) 一种基于三维卷积神经网络的图像特征提取与训练方法
CN109214452B (zh) 基于注意深度双向循环神经网络的hrrp目标识别方法
CN112329760B (zh) 基于空间变换网络端到端印刷体蒙古文识别翻译的方法
Shi et al. Discriminative feature learning with distance constrained stacked sparse autoencoder for hyperspectral target detection
CN107292875A (zh) 一种基于全局‑局部特征融合的显著性检测方法
CN112818969B (zh) 一种基于知识蒸馏的人脸姿态估计方法及系统
CN112347888A (zh) 基于双向特征迭代融合的遥感图像场景分类方法
CN112766229B (zh) 基于注意力机制的人脸点云图像智能识别系统及方法
CN109598220A (zh) 一种基于多元输入多尺度卷积的人数统计方法
Qi et al. FTC-Net: Fusion of transformer and CNN features for infrared small target detection
CN111368935A (zh) 一种基于生成对抗网络的sar时敏目标样本增广方法
CN113283409A (zh) 基于EfficientDet和Transformer的航空图像中的飞机检测方法
CN111539422A (zh) 基于Faster RCNN的飞行目标协同识别方法
Chen et al. Domain adaptation for semi-supervised ship detection in SAR images
CN110334584A (zh) 一种基于区域全卷积网络的手势识别方法
CN115131313A (zh) 基于Transformer的高光谱图像变化检测方法及装置
CN112950780A (zh) 一种基于遥感影像的网络地图智能生成方法及系统
CN113344045A (zh) 一种结合hog特征提高sar船只分类精度的方法
CN111242028A (zh) 基于U-Net的遥感图像地物分割方法
CN114187506A (zh) 视点意识的动态路由胶囊网络的遥感图像场景分类方法
CN112257566A (zh) 一种基于大数据的人工智能目标识别测距方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20230505

Address after: Room 5-01, Floor 5, Building 6, Headquarters Economic Park, No. 1309, Shangye Road, Fengxi New Town, Xixian New District, Xianyang City, Shaanxi Province, 712000

Applicant after: SHAANXI HEYOU NETWORK TECHNOLOGY CO.,LTD.

Address before: 150001 No. 145-1, Nantong Avenue, Nangang District, Heilongjiang, Harbin

Applicant before: HARBIN ENGINEERING University

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant