CN112257566A - 一种基于大数据的人工智能目标识别测距方法 - Google Patents
一种基于大数据的人工智能目标识别测距方法 Download PDFInfo
- Publication number
- CN112257566A CN112257566A CN202011127031.5A CN202011127031A CN112257566A CN 112257566 A CN112257566 A CN 112257566A CN 202011127031 A CN202011127031 A CN 202011127031A CN 112257566 A CN112257566 A CN 112257566A
- Authority
- CN
- China
- Prior art keywords
- target
- function
- network
- output
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Probability & Statistics with Applications (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Image Analysis (AREA)
Abstract
本发明属于目标识别、测距技术领域,具体涉及一种识别准确率更高、速度更快的基于大数据的人工智能目标识别测距方法。本发明包括对接收的信号进行预处理;通过K‑Means聚类算法,生成识别目标的锚定框;构建卷积神经网络支路,定义卷积神经网络的层和参数;利用测试集对神经网络评估模型进行线性调频信号的信号到达时间测试,输出线性调频信号的信号到达时间估计结果,通过输入的图像信息得到目标与接收器之间的水平距离。本发明能够在多种复杂背景与分辨率下对实现目标检测与识别,加强梯度下降过程中有用特征的使用率,提高目标识别和测距的准确率。
Description
技术领域
本发明属于目标识别、测距技术领域,具体涉及一种识别准确率更高、速度更快的基于大数据的人工智能目标识别测距方法。
背景技术
目标识别测距技术可运用到飞机、汽车、轨道交通、智能家居、轨迹监控等多个领域,整体输入人工智能的大数据处理技术。目前发明人检索到的,与本发明相类似的对比文件包括:1重庆理工大学学报《基于数据融合的目标测距方法研究》、专利申请号202010144063.X的《一种无人机目标识别定位方法》以及西安电子科技大学的《基于数据融合的目标测距方法研究》等。与上述的文献记载的相关技术相比,本发明更专注于提供一种在边界框内通过网络训练提高识别精度和测距速度的人工智能识别方法。
发明内容
本发明的目的在于提供一种基于大数据的人工智能目标识别测距方法。
本发明的目的是这样实现的:
一种基于大数据的人工智能目标识别测距方法,包括如下步骤:
(1)对接收的信号进行预处理;
(2)通过K-Means聚类算法,生成识别目标的锚定框;
(3)构建卷积神经网络支路,定义卷积神经网络的层和参数;
(4)构建长短期记忆网络支路,定义长短期记忆网络的层和参数;
(5)构建基于特征注意力模型的YOLOV3网络,进行卷积神经网络支路和长短期记忆网络支路的特征融合,得到评估模型,通过全连接层对评估模型进行非线性组合并进行输出;
(6)训练集训练评估模型,使用验证集评估模型,调整评估模型参数,获得最佳的神经网络评估模型;
(7)利用测试集对神经网络评估模型进行线性调频信号的信号到达时间测试,输出线性调频信号的信号到达时间估计结果,通过输入的图像信息得到目标与接收器之间的水平距离。
所述的步骤(1)包括:
(1.1)采样连续脉冲信号,提取同相分量I路和正交分量Q路的数据,将I路数据、Q路数据分别保存为长度为Ni=1000的采样信号,组成2*1000的矩阵,作为深度学习网络的输入;
(1.2)对训练集图像进行归一化操作:
Norm(i)=(i-E(i))D(i)/Stddev(i);
Stddev(i)=max(D(i),1/√M);
其中:i为目标图像,M为i的像素个数,Norm为归一化函数,Stddev为带有限制的方差函数,max为最大值函数,D为方差函数,E为均值函数;
(1.3)读取训练集中每一个目标图像的目标边界框信息,将边界框外的三个通道像素值置0,得到训练集图像的实蒙版图j;
(1.4)搭建蒙版图的生成器网络和判别器网络;
(1.5)定义损失函数为:
LGL1=E(||j-G(i)||1)
LG=LGL1+LGGAN(G(i),D(i,j))
式中:G(i)是生成器,D(i,j)是判别器,s为非线性补偿系数,LGL1为生成器的L1范数损失函数,LGGAN为生成器的生成对抗损失函数,LG为生成器损失函数,LD为判别器损失函数;
(1.6)对生成器输出的中间蒙版图进行灰化和开关处理:
Gray(R,G,B)=(R×0.235+G×0.536+B×0.123)/255;
式中:N是生成蒙版图,Gray为灰化函数,Switch为开关函数;R、G、B分别是中间蒙版图的红、绿、蓝颜色通道的像素值,z是遗忘系数;
(1.7)像素注意力模型的输出为:
xN[x,y,k]=x[x,y,k]·N[x,y];
式中:iN[x,y,k]为xN第x行第y列第k个颜色通道的像素值,i[x,y,k]为i第x行第y列第k个颜色通道的像素值,N[x,y]为第x行第y列的蒙版值。
所述的步骤(2)包括:
(2.1)从边界框集合中随机选择15个边界框,每个边界框代表一个锚定框类别,依次标记为1-15;
(2.2)每除代表锚定框类别的边界框的类别设置为0;
(2.3)遍历每一个边界框,计算与每一个代表锚定框类别的边界框的欧几里得范数;
(2.4)对每一个类别的所有边界框计算平均值,以平均值作为虚拟质心;用虚拟质心替代原质心;
(2.5)计算每个代表锚定框类别的边界框和虚拟质心的欧几里得范数,若每个欧几里得范数都小于给定收敛阈值则执行(2.6);否则执行步骤(2.3);
(2.6)将15个虚拟质心按照边界框的面积从大到小排序,取面积最大的5个虚拟质心作为低分辨率的目标锚定框,中间的5个虚拟质心作为中分辨率的目标锚定框,面积最小5个作为高分辨率的目标锚定框。
所述的步骤(3)包括:
通过卷积神经网络的卷积层提取预处理过的信号数据的空间特征,通过池化层提取特征的关键信息,通过稠密层激活函数计算各神经元的权重;卷积神经网络卷积层的输出为:
Qp(x,y)=f[(X*Wp)(x,y)+bp]LGGAN(G(i),D(i,j))
Qp(x,y)表示的是输入与第p个卷积核卷积运算后的第x行y列的输出,X为输入,Wp是第p个的卷积核,bp是输出偏置,f是ReLU型激活函数。
所述的长短期记忆网络由一个记忆单元和三个控制门单元组成,包括遗忘门FG、输入门IG、输出门OG;
遗忘门输出为:
ft=δ[Wf(ht,xt)+bf]
δ表示的是sigmoid型激励函数,Wf为遗忘门的权重矩阵,ht表示t时刻的输出,xt表示t时刻的输入,bf表示遗忘门的偏置;
输入门输出为:
it=δ[Wi(ht-1,xt)+bi]
Wi为输入门的权重矩阵,bi表示遗忘门的偏置;
单元更新过程
tanh为激活函数,Wc辨识单元更新的权重矩阵,bc表示单元更新的偏置
单元输出
输出门输出为
Ot=δ[Wo(ht-1,xt)+bo]
Wo为输出门的权重矩阵,bo为输出门的偏置;
t时刻总输出为
ht=Ot tanh(Ct)。
所述的步骤(5)包括如下步骤:
基于聚类生成的锚定框,将数据集的标签边界框转换为相对的形式:
YOLOV3网络的边界框损失函数为:
YOLOV3网络的置信度损失函数为:
YOLOV3网络的损失函数L为:
L=htLD+Qp(x,y)LC。
所述步骤(6)包括:通过并联卷积神经网络和长短期记忆网络对经过处理的信号数据进行计算,输出信号数据的到达时间估计结果;经过迭代训练,通过估计结果的误差调整卷积神经网络和长短期记忆网络模型的各神经元的权重,保存训练模型。
本发明的有益效果在于:
本发明提出了利用卷积神经网络良好的空间特征提取能力和长短期记忆网络良好的时间序列处理能力,提取脉冲信号的空间特征和时间特征,将图像信号的时空问题转化成基于并联卷积神经网络和长短期记忆网络的特征提取问题,提高了特征表达能力。对图形信号进行采样,将采样后的离散信号的同相分量和正交分量直接作为输入,无需将接收信号变换为基带信号的复杂运算,同时对图像进行预处理,削减非目标区域的像素信息,提高目标检测的准确率;同时利用K-Means聚类算法,生成识别目标的锚定框优化YOLOV3网络,能够在多种复杂背景与分辨率下对实现目标检测与识别,加强梯度下降过程中有用特征的使用率,提高目标识别和测距的准确率。
附图说明
图1为本发明方法的流程图。
具体实施方式
下面结合附图对本发明作进一步描述。
一种基于大数据的人工智能目标识别测距方法,包括如下步骤:
(1)对接收的信号进行预处理;
(1.1)采样连续脉冲信号,提取同相分量I路和正交分量Q路的数据,将I路数据、Q路数据分别保存为长度为Ni=1000的采样信号,组成2*1000的矩阵,作为深度学习网络的输入;
(1.2)对训练集图像进行归一化操作:
Norm(i)=(i-E(i))D(i)/Stddev(i);
Stddev(i)=max(D(i),1/√M);
其中:i为目标图像,M为i的像素个数,Norm为归一化函数,Stddev为带有限制的方差函数,max为最大值函数,D为方差函数,E为均值函数;
(1.3)读取训练集中每一个目标图像的目标边界框信息,将边界框外的三个通道像素值置0,得到训练集图像的实蒙版图j;
(1.4)搭建蒙版图的生成器网络和判别器网络;
(1.5)定义损失函数为:
LGL1=E(||j-G(i)||1)
LG=LGL1+LGGAN(G(i),D(i,j))
式中:G(i)是生成器,D(i,j)是判别器,s为非线性补偿系数,LGL1为生成器的L1范数损失函数,LGGAN为生成器的生成对抗损失函数,LG为生成器损失函数,LD为判别器损失函数;
(1.6)对生成器输出的中间蒙版图进行灰化和开关处理:
Gray(R,G,B)=(R×0.235+G×0.536+B×0.123)/255;
式中:N是生成蒙版图,Gray为灰化函数,Switch为开关函数;R、G、B分别是中间蒙版图的红、绿、蓝颜色通道的像素值,z是遗忘系数;
(1.7)像素注意力模型的输出为:
xN[x,y,k]=x[x,y,k]·N[x,y];
式中:iN[x,y,k]为xN第x行第y列第k个颜色通道的像素值,i[x,y,k]为i第x行第y列第k个颜色通道的像素值,N[x,y]为第x行第y列的蒙版值。
(2)通过K-Means聚类算法,生成识别目标的锚定框;
(2.1)从边界框集合中随机选择15个边界框,每个边界框代表一个锚定框类别,依次标记为1-15;
(2.2)每除代表锚定框类别的边界框的类别设置为0;
(2.3)遍历每一个边界框,计算与每一个代表锚定框类别的边界框的欧几里得范数;
(2.4)对每一个类别的所有边界框计算平均值,以平均值作为虚拟质心;用虚拟质心替代原质心;
(2.5)计算每个代表锚定框类别的边界框和虚拟质心的欧几里得范数,若每个欧几里得范数都小于给定收敛阈值则执行(2.6);否则执行步骤(2.3);
(2.6)将15个虚拟质心按照边界框的面积从大到小排序,取面积最大的5个虚拟质心作为低分辨率的目标锚定框,中间的5个虚拟质心作为中分辨率的目标锚定框,面积最小5个作为高分辨率的目标锚定框。
(3)构建卷积神经网络支路,定义卷积神经网络的层和参数;
通过卷积神经网络的卷积层提取预处理过的信号数据的空间特征,通过池化层提取特征的关键信息,通过稠密层激活函数计算各神经元的权重;卷积神经网络卷积层的输出为:
Qp(x,y)=f[(X*Wp)(x,y)+bp]LGGAN(G(i),D(i,j))
Qp(x,y)表示的是输入与第p个卷积核卷积运算后的第x行y列的输出,X为输入,Wp是第p个的卷积核,bp是输出偏置,f是ReLU型激活函数。
(4)构建长短期记忆网络支路,定义长短期记忆网络的层和参数;
所述的长短期记忆网络由一个记忆单元和三个控制门单元组成,包括遗忘门FG、输入门IG、输出门OG;
遗忘门输出为:
ft=δ[Wf(ht,xt)+bf]
δ表示的是sigmoid型激励函数,Wf为遗忘门的权重矩阵,ht表示t时刻的输出,xt表示t时刻的输入,bf表示遗忘门的偏置;
输入门输出为:
it=δ[Wi(ht-1,xt)+bi]
Wi为输入门的权重矩阵,bi表示遗忘门的偏置;
单元更新过程
tanh为激活函数,Wc辨识单元更新的权重矩阵,bc表示单元更新的偏置
单元输出
输出门输出为
Ot=δ[Wo(ht-1,xt)+bo]
Wo为输出门的权重矩阵,bo为输出门的偏置;
t时刻总输出为
ht=Ot tanh(Ct)。
(5)构建基于特征注意力模型的YOLOV3网络,进行卷积神经网络支路和长短期记忆网络支路的特征融合,得到评估模型,通过全连接层对评估模型进行非线性组合并进行输出;
基于聚类生成的锚定框,将数据集的标签边界框转换为相对的形式:
YOLOV3网络的边界框损失函数为:
YOLOV3网络的置信度损失函数为:
YOLOV3网络的损失函数L为:
L=htLD+Qp(x,y)LC。
(6)训练集训练评估模型,使用验证集评估模型,调整评估模型参数,获得最佳的神经网络评估模型;通过并联卷积神经网络和长短期记忆网络对经过处理的信号数据进行计算,输出信号数据的到达时间估计结果;经过迭代训练,通过估计结果的误差调整卷积神经网络和长短期记忆网络模型的各神经元的权重,保存训练模型。
(7)利用测试集对神经网络评估模型进行线性调频信号的信号到达时间测试,输出线性调频信号的信号到达时间估计结果,通过输入的图像信息得到目标与接收器之间的水平距离。
本发明通过3种人工智能网络的结合运用,将图像信号的时空问题转化成基于并联卷积神经网络和长短期记忆网络的特征提取问题,提高了特征表达能力,生成识别目标的锚定框优化YOLOV3网络,能够在多种复杂背景与分辨率下对实现目标检测与识别,能够有效进行目标识别测距功能,相比于背景技术提出的对比文件,由于技术特征均没有公开,因此具有突出的实质性特点和显著的技术进步,技术整体具备充分的创造性。
Claims (7)
1.一种基于大数据的人工智能目标识别测距方法,其特征在于,包括如下步骤:
(1)对接收的信号进行预处理;
(2)通过K-Means聚类算法,生成识别目标的锚定框;
(3)构建卷积神经网络支路,定义卷积神经网络的层和参数;
(4)构建长短期记忆网络支路,定义长短期记忆网络的层和参数;
(5)构建基于特征注意力模型的YOLOV3网络,进行卷积神经网络支路和长短期记忆网络支路的特征融合,得到评估模型,通过全连接层对评估模型进行非线性组合并进行输出;
(6)训练集训练评估模型,使用验证集评估模型,调整评估模型参数,获得最佳的神经网络评估模型;
(7)利用测试集对神经网络评估模型进行线性调频信号的信号到达时间测试,输出线性调频信号的信号到达时间估计结果,通过输入的图像信息得到目标与接收器之间的水平距离。
2.根据权利要求1所述的一种基于大数据的人工智能目标识别测距方法,其特征在于,所述的步骤(1)包括:
(1.1)采样连续脉冲信号,提取同相分量I路和正交分量Q路的数据,将I路数据、Q路数据分别保存为长度为Ni=1000的采样信号,组成2*1000的矩阵,作为深度学习网络的输入;
(1.2)对训练集图像进行归一化操作:
Norm(i)=(i-E(i))D(i)/Stddev(i);
其中:i为目标图像,M为i的像素个数,Norm为归一化函数,Stddev为带有限制的方差函数,max为最大值函数,D为方差函数,E为均值函数;
(1.3)读取训练集中每一个目标图像的目标边界框信息,将边界框外的三个通道像素值置0,得到训练集图像的实蒙版图j;
(1.4)搭建蒙版图的生成器网络和判别器网络;
(1.5)定义损失函数为:
LGL1=E(||j-G(i)||1)
LG=LGL1+LGGAN(G(i),D(i,j))
式中:G(i)是生成器,D(i,j)是判别器,s为非线性补偿系数,LGL1为生成器的L1范数损失函数,LGGAN为生成器的生成对抗损失函数,LG为生成器损失函数,LD为判别器损失函数;
(1.6)对生成器输出的中间蒙版图进行灰化和开关处理:
Gray(R,G,B)=(R×0.235+G×0.536+B×0.123)/255;
式中:N是生成蒙版图,Gray为灰化函数,Switch为开关函数;R、G、B分别是中间蒙版图的红、绿、蓝颜色通道的像素值,z是遗忘系数;
(1.7)像素注意力模型的输出为:
xN[x,y,k]=x[x,y,k]·N[x,y];
式中:iN[x,y,k]为xN第x行第y列第k个颜色通道的像素值,i[x,y,k]为i第x行第y列第k个颜色通道的像素值,N[x,y]为第x行第y列的蒙版值。
3.根据权利要求1所述的一种基于大数据的人工智能目标识别测距方法,其特征在于,所述的步骤(2)包括:
(2.1)从边界框集合中随机选择15个边界框,每个边界框代表一个锚定框类别,依次标记为1-15;
(2.2)每除代表锚定框类别的边界框的类别设置为0;
(2.3)遍历每一个边界框,计算与每一个代表锚定框类别的边界框的欧几里得范数;
(2.4)对每一个类别的所有边界框计算平均值,以平均值作为虚拟质心;用虚拟质心替代原质心;
(2.5)计算每个代表锚定框类别的边界框和虚拟质心的欧几里得范数,若每个欧几里得范数都小于给定收敛阈值则执行(2.6);否则执行步骤(2.3);
(2.6)将15个虚拟质心按照边界框的面积从大到小排序,取面积最大的5个虚拟质心作为低分辨率的目标锚定框,中间的5个虚拟质心作为中分辨率的目标锚定框,面积最小5个作为高分辨率的目标锚定框。
5.根据权利要求1所述的一种基于大数据的人工智能目标识别测距方法,其特征在于,所述的长短期记忆网络由一个记忆单元和三个控制门单元组成,包括遗忘门FG、输入门IG、输出门OG;
遗忘门输出为:
ft=δ[Wf(ht,xt)+bf]
δ表示的是sigmoid型激励函数,Wf为遗忘门的权重矩阵,ht表示t时刻的输出,xt表示t时刻的输入,bf表示遗忘门的偏置;
输入门输出为:
it=δ[Wi(ht-1,xt)+bi]
Wi为输入门的权重矩阵,bi表示遗忘门的偏置;
单元更新过程
tanh为激活函数,Wc辨识单元更新的权重矩阵,bc表示单元更新的偏置
单元输出
输出门输出为
Ot=δ[Wo(ht-1,xt)+bo]
Wo为输出门的权重矩阵,bo为输出门的偏置;
t时刻总输出为
ht=Ottanh(Ct)。
6.根据权利要求1所述的一种基于大数据的人工智能目标识别测距方法,其特征在于,所述的步骤(5)包括如下步骤:
基于聚类生成的锚定框,将数据集的标签边界框转换为相对的形式:
YOLOV3网络的边界框损失函数为:
YOLOV3网络的置信度损失函数为:
YOLOV3网络的损失函数L为:
L=htLD+Qp(x,y)LC。
7.根据权利要求1所述的一种基于大数据的人工智能目标识别测距方法,其特征在于,所述步骤(6)包括:通过并联卷积神经网络和长短期记忆网络对经过处理的信号数据进行计算,输出信号数据的到达时间估计结果;经过迭代训练,通过估计结果的误差调整卷积神经网络和长短期记忆网络模型的各神经元的权重,保存训练模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011127031.5A CN112257566B (zh) | 2020-10-20 | 2020-10-20 | 一种基于大数据的人工智能目标识别测距方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011127031.5A CN112257566B (zh) | 2020-10-20 | 2020-10-20 | 一种基于大数据的人工智能目标识别测距方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112257566A true CN112257566A (zh) | 2021-01-22 |
CN112257566B CN112257566B (zh) | 2023-05-23 |
Family
ID=74244171
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011127031.5A Active CN112257566B (zh) | 2020-10-20 | 2020-10-20 | 一种基于大数据的人工智能目标识别测距方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112257566B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114677568A (zh) * | 2022-05-30 | 2022-06-28 | 山东极视角科技有限公司 | 一种基于神经网络的线性目标检测方法、模块及系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6366236B1 (en) * | 1999-08-12 | 2002-04-02 | Automotive Systems Laboratory, Inc. | Neural network radar processor |
CN105277853A (zh) * | 2015-11-11 | 2016-01-27 | 东北大学 | 一种基于二次脉冲的海底电缆故障定位装置及方法 |
CN108267123A (zh) * | 2018-01-23 | 2018-07-10 | 深圳市唯特视科技有限公司 | 一种基于边界框和距离预测的双流车载行人车辆预测方法 |
CN109029363A (zh) * | 2018-06-04 | 2018-12-18 | 泉州装备制造研究所 | 一种基于深度学习的目标测距方法 |
CN109407067A (zh) * | 2018-10-13 | 2019-03-01 | 中国人民解放军海军航空大学 | 基于时频图卷积神经网络的雷达动目标检测与分类一体化方法 |
CN110297223A (zh) * | 2019-07-29 | 2019-10-01 | 天津大学 | 基于bp神经网络的脉冲激光回波数目检测的方法 |
US20200265591A1 (en) * | 2019-04-23 | 2020-08-20 | Jiangnan University | Visual Multi-Object Tracking based on Multi-Bernoulli Filter with YOLOv3 Detection |
-
2020
- 2020-10-20 CN CN202011127031.5A patent/CN112257566B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6366236B1 (en) * | 1999-08-12 | 2002-04-02 | Automotive Systems Laboratory, Inc. | Neural network radar processor |
CN105277853A (zh) * | 2015-11-11 | 2016-01-27 | 东北大学 | 一种基于二次脉冲的海底电缆故障定位装置及方法 |
CN108267123A (zh) * | 2018-01-23 | 2018-07-10 | 深圳市唯特视科技有限公司 | 一种基于边界框和距离预测的双流车载行人车辆预测方法 |
CN109029363A (zh) * | 2018-06-04 | 2018-12-18 | 泉州装备制造研究所 | 一种基于深度学习的目标测距方法 |
CN109407067A (zh) * | 2018-10-13 | 2019-03-01 | 中国人民解放军海军航空大学 | 基于时频图卷积神经网络的雷达动目标检测与分类一体化方法 |
US20200265591A1 (en) * | 2019-04-23 | 2020-08-20 | Jiangnan University | Visual Multi-Object Tracking based on Multi-Bernoulli Filter with YOLOv3 Detection |
CN110297223A (zh) * | 2019-07-29 | 2019-10-01 | 天津大学 | 基于bp神经网络的脉冲激光回波数目检测的方法 |
Non-Patent Citations (3)
Title |
---|
杜雪婷等: ""基于YOLOv3的车辆距离测量算法"", 《电脑编程技巧与维护》 * |
王雪丽: ""基于卷积神经网络的双目测距研究"", 《电子质量》 * |
胡远志等: ""基于数据融合的目标测距方法研究"", 《重庆理工大学学报(自然科学版)》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114677568A (zh) * | 2022-05-30 | 2022-06-28 | 山东极视角科技有限公司 | 一种基于神经网络的线性目标检测方法、模块及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN112257566B (zh) | 2023-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110135267B (zh) | 一种大场景sar图像细微目标检测方法 | |
CN110443143B (zh) | 多分支卷积神经网络融合的遥感图像场景分类方法 | |
CN109977918B (zh) | 一种基于无监督域适应的目标检测定位优化方法 | |
CN109949317B (zh) | 基于逐步对抗学习的半监督图像实例分割方法 | |
CN108717568B (zh) | 一种基于三维卷积神经网络的图像特征提取与训练方法 | |
CN109214452B (zh) | 基于注意深度双向循环神经网络的hrrp目标识别方法 | |
CN112329760B (zh) | 基于空间变换网络端到端印刷体蒙古文识别翻译的方法 | |
Shi et al. | Discriminative feature learning with distance constrained stacked sparse autoencoder for hyperspectral target detection | |
CN107292875A (zh) | 一种基于全局‑局部特征融合的显著性检测方法 | |
CN112818969B (zh) | 一种基于知识蒸馏的人脸姿态估计方法及系统 | |
CN112347888A (zh) | 基于双向特征迭代融合的遥感图像场景分类方法 | |
CN112766229B (zh) | 基于注意力机制的人脸点云图像智能识别系统及方法 | |
CN109598220A (zh) | 一种基于多元输入多尺度卷积的人数统计方法 | |
Qi et al. | FTC-Net: Fusion of transformer and CNN features for infrared small target detection | |
CN111368935A (zh) | 一种基于生成对抗网络的sar时敏目标样本增广方法 | |
CN113283409A (zh) | 基于EfficientDet和Transformer的航空图像中的飞机检测方法 | |
CN111539422A (zh) | 基于Faster RCNN的飞行目标协同识别方法 | |
Chen et al. | Domain adaptation for semi-supervised ship detection in SAR images | |
CN110334584A (zh) | 一种基于区域全卷积网络的手势识别方法 | |
CN115131313A (zh) | 基于Transformer的高光谱图像变化检测方法及装置 | |
CN112950780A (zh) | 一种基于遥感影像的网络地图智能生成方法及系统 | |
CN113344045A (zh) | 一种结合hog特征提高sar船只分类精度的方法 | |
CN111242028A (zh) | 基于U-Net的遥感图像地物分割方法 | |
CN114187506A (zh) | 视点意识的动态路由胶囊网络的遥感图像场景分类方法 | |
CN112257566A (zh) | 一种基于大数据的人工智能目标识别测距方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20230505 Address after: Room 5-01, Floor 5, Building 6, Headquarters Economic Park, No. 1309, Shangye Road, Fengxi New Town, Xixian New District, Xianyang City, Shaanxi Province, 712000 Applicant after: SHAANXI HEYOU NETWORK TECHNOLOGY CO.,LTD. Address before: 150001 No. 145-1, Nantong Avenue, Nangang District, Heilongjiang, Harbin Applicant before: HARBIN ENGINEERING University |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |