CN113139569B - 目标分类检测方法、装置与系统 - Google Patents

目标分类检测方法、装置与系统 Download PDF

Info

Publication number
CN113139569B
CN113139569B CN202110238967.3A CN202110238967A CN113139569B CN 113139569 B CN113139569 B CN 113139569B CN 202110238967 A CN202110238967 A CN 202110238967A CN 113139569 B CN113139569 B CN 113139569B
Authority
CN
China
Prior art keywords
point cloud
neural network
classification
target
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110238967.3A
Other languages
English (en)
Other versions
CN113139569A (zh
Inventor
卢晓
毛序宁
刘海青
滕坤敏
王海霞
张治国
盛春阳
宋诗斌
聂君
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University of Science and Technology
Original Assignee
Shandong University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University of Science and Technology filed Critical Shandong University of Science and Technology
Priority to CN202110238967.3A priority Critical patent/CN113139569B/zh
Publication of CN113139569A publication Critical patent/CN113139569A/zh
Application granted granted Critical
Publication of CN113139569B publication Critical patent/CN113139569B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Mathematics (AREA)
  • Computing Systems (AREA)
  • Pure & Applied Mathematics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Optimization (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Operations Research (AREA)
  • Geometry (AREA)
  • Databases & Information Systems (AREA)
  • Algebra (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例提供目标分类检测方法、装置与系统,以提高目标分类检测的准确率。在本发明实施例中,基于点云数据进行分类检测,与传统视频传感器的图像信息相比,基于点云数据的目标检测结果不会受到复杂背景的影响,并对光照条件依赖较小,可以准确检测出高速运行的目标物。同时,本发明实施例所提取的特征包括高宽比、点云个数、水平投影特征以及竖直投影特征,相对传统的图像信息特征提取,所提取的特征维度更高,因此,效率更高,运行速度更快。

Description

目标分类检测方法、装置与系统
技术领域
本发明涉及大数据处理技术领域,特别涉及目标分类检测方法、装置与系统。
背景技术
传统的目标分类检测(例如车辆、行人分类检测)主要是由视频传感器采集真彩色或灰度图像等非结构化数据,然后对采集图像进行处理,以提取出感兴趣的目标。
受视频传感器性能的影响,传统的目标分类检测效果易受光线因素影响,尤其在车辆高速运动的情况下,其识别准确率较低。
发明内容
有鉴于此,本发明实施例提供目标分类检测方法、装置与系统,以提高目标分类检测的准确率。
为实现上述目的,本发明实施例提供如下技术方案:
一种目标分类检测方法,包括:
获取点云数据;所述点云数据包括动态事件传感器所检测到的动态事件所对应的数据点;每一数据点包括:水平位置和竖直位置;
在所述点云数据中提取目标点云集合;所述目标点云集合包括:目标动态事件所对应的点云集合;
计算目标点云集合的尺寸特征;其中,所述尺寸特征至少包括:目标点云集合的最小外接框高宽比,以及,所述目标点云集合所包含的数据点的个数;
提取所述目标点云集合的水平投影特征;其中,所述水平投影特征包括:第一概率密度函数曲线的最小值、最大值、均值和标准差中的至少一种;所述第一概率密度函数曲线用于表征所述目标点云集合在水平方向上数据点个数的概率分布密度;
提取所述目标点云集合的竖直投影特征;其中,所述竖直投影特征包括:第二概率密度函数曲线的最小值、最大值、均值和标准差中的至少一种;所述第二概率密度函数曲线用于表征所述目标点云集合在竖直方向上数据点个数的概率分布密度;
将尺寸特征、水平投影特征和竖直投影特征组成特征向量;
将所述特征向量进行标准化处理;
将标准化的特征向量输入分类神经网络,由所述分类神经网络输出目标分类预测结果;所述目标分类预测结果包括:各预设分类所对应的概率值;其中概率值最大的预设分类为所述目标动态事件的分类检测结果。
可选的,所述分类神经网络的训练过程包括:获取动态事件传感器检测到的点云数据;根据点云数据生成样本;所述样本包括特征向量和类别标签;所述类别标签的内容包括:相应的特征向量所对应的分类的实际值;使用样本构成训练集和测试集;初始化神经网络模型的网络参数;基于训练集中的样本对神经网络模型进行一轮迭代训练,得到训练后的神经网络;所述一轮迭代训练包括多次迭代训练过程;将测试集中的样本输入训练后的神经网络,获得目标分类预测结果;基于所述目标分类预测结果计算本轮迭代训练所对应的分类准确率;调整训练后的神经网络的系统参数,将调整系统参数后的神经网络重新作为神经网络模型,返回执行初始化神经网络模型的网络参数的步骤,直至完成X轮迭代训练;在X轮迭代训练所对应的X个分类准确率中,确定最大的分类准确率所对应的系统参数,作为所述分类神经网络最终的系统参数;X为预设整数值。
可选的,每一轮迭代训练的最大迭代次数为M;其中,一轮迭代训练中任一次迭代训练过程包括:将训练集中的一个样本输入初始化后或经上一次迭代训练过程训练后的神经网络,得到输出值;计算输出值与样本的类别标签中的实际值的误差;根据误差修正权重和偏置量;计算输出值与实际值的全局误差;若全局误差小于误差精度ε,或者当前迭代次数达到最大迭代次数M,停止运行;否则,进入下一次迭代训练。
可选的,所述神经网络为单隐含层神经网络;所述单隐含层神经网络包括输入层、隐含层和输出层;所述网络参数包括:输入层与隐含层相连接的a×m的第一权重矩阵W1;隐含层与输出层相连接的m×b的第二权重矩阵W2;隐含层神经元的偏置量B1;输出层神经元的偏置量B2;输出层激活函数;误差精度;最大迭代次数M;在初始化时,W1、W2、B1、B2中的数被随机设置为-1至1之间的任意数值。
可选的,所述系统参数包括:隐含层节点数、学习效率、隐含层激活函数和优化器类型中的至少一种。
可选的,所述获取点云数据包括:获取由动态事件传感器采集的事件流数据;将所述事件流数据逐帧转化成点云数据,并储存在文本文件中;一个文本文件存储一帧点云数据;根据所述文本文件中各数据点的水平位置和竖直位置进行可视化处理,得到可视化图像。
一种目标分类检测装置,包括:
获取模块,用于:
获取点云数据;所述点云数据包括动态事件传感器所检测到的动态事件所对应的数据点;每一数据点包括:水平位置和竖直位置;
在所述点云数据中提取目标点云集合;所述目标点云集合包括:目标动态事件所对应的点云集合;
计算目标点云集合的尺寸特征;其中,所述尺寸特征至少包括:目标点云集合的最小外接框高宽比,以及,所述目标点云集合所包含的数据点的个数;
提取所述目标点云集合的水平投影特征;其中,所述水平投影特征包括:第一概率密度函数曲线的最小值、最大值、均值和标准差中的至少一种;所述第一概率密度函数曲线用于表征所述目标点云集合在水平方向上数据点个数的概率分布密度;
提取所述目标点云集合的竖直投影特征;其中,所述竖直投影特征包括:第二概率密度函数曲线的最小值、最大值、均值和标准差中的至少一种;所述第二概率密度函数曲线用于表征所述目标点云集合在竖直方向上数据点个数的概率分布密度;
将尺寸特征、水平投影特征和竖直投影特征组成特征向量;
标准化处理模块,用于:将所述特征向量进行标准化处理;
分类模块,用于:
将标准化的特征向量输入分类神经网络,由所述分类神经网络输出目标分类预测结果;所述目标分类预测结果包括:各预设分类所对应的概率值;其中概率值最大的预设分类为所述目标动态事件的分类检测结果。
可选的,还包括训练模块,用于对所述分类神经网络执行如下训练过程:获取动态事件传感器检测到的点云数据;根据点云数据生成样本;所述样本包括特征向量和类别标签;所述类别标签的内容包括:相应的特征向量所对应的分类的实际值;使用样本构成训练集和测试集;初始化神经网络模型的网络参数;基于训练集中的样本对神经网络模型进行一轮迭代训练,得到训练后的神经网络;所述一轮迭代训练包括多次迭代训练过程;将测试集中的样本输入训练后的神经网络,获得目标分类预测结果;基于所述目标分类预测结果计算本轮迭代训练所对应的分类准确率;调整训练后的神经网络的系统参数,将调整系统参数后的神经网络重新作为神经网络模型,返回执行初始化网络参数的操作,直至完成X轮迭代训练;在X轮迭代训练所对应的X个分类准确率中,确定最大的分类准确率所对应的系统参数,作为所述分类神经网络最终的系统参数;X为预设整数值。
可选的,每一轮迭代训练的最大迭代次数为M;在任一次迭代训练过程方面,所述训练模块具体用于:将训练集中的一个样本输入初始化后或经上一次迭代训练过程训练后的神经网络,得到输出值;初始化后或经上一轮迭代训练后的神经网络用于:计算输出值与样本的类别标签中的实际值的误差,根据误差修正权重和偏置量;计算输出值与实际值的全局误差;若全局误差小于误差精度ε,或者当前迭代次数达到最大迭代次数M,停止运行;否则,进入下一次迭代训练。
一种目标分类检测系统,包括:
动态事件传感器,用于检测动态事件,输出检测到的动态事件所对应的数据点;
目标分类检测装置,用于:
获取点云数据;所述点云数据包括动态事件传感器所检测到的动态事件所对应的数据点;每一数据点包括:水平位置和竖直位置;
在所述点云数据中提取目标点云集合;所述目标点云集合包括:目标动态事件所对应的点云集合;
计算目标点云集合的尺寸特征;其中,所述尺寸特征至少包括:目标点云集合的最小外接框高宽比,以及,所述目标点云集合所包含的数据点的个数;
提取所述目标点云集合的水平投影特征;其中,所述水平投影特征包括:第一概率密度函数曲线的最小值、最大值、均值和标准差中的至少一种;所述第一概率密度函数曲线用于表征所述目标点云集合在水平方向上数据点个数的概率分布密度;
提取所述目标点云集合的竖直投影特征;其中,所述竖直投影特征包括:第二概率密度函数曲线的最小值、最大值、均值和标准差中的至少一种;所述第二概率密度函数曲线用于表征所述目标点云集合在竖直方向上数据点个数的概率分布密度;
将尺寸特征、水平投影特征和竖直投影特征组成特征向量;
将所述特征向量进行标准化处理;
将标准化的特征向量输入分类神经网络,由所述分类神经网络输出目标分类预测结果;所述目标分类预测结果包括:各预设分类所对应的概率值;其中概率值最大的预设分类为所述目标动态事件的分类检测结果。
可见,在本发明实施例中,基于点云数据进行分类检测,与传统视频传感器的图像信息相比,基于点云数据的目标检测结果不会受到复杂背景的影响,并对光照条件依赖较小,可以准确检测出高速运行的目标物。
同时,本发明实施例所提取的特征包括高宽比、点云个数、水平投影特征以及竖直投影特征,相对传统的图像信息特征提取,所提取的特征维度更高,因此,效率更高,运行速度更快。
附图说明
图1a为本发明实施例提供的目标分类检测装置的一种示例性结构;
图1b为本发明实施例提供的目标分类检测装置的另一种示例性结构;
图2为本发明实施例提供的目标分类检测方法的一种示例性流程;
图3为本发明实施例提供的可视化图像示意图;
图4为本发明实施例提供的分类神经网络的训练过程的一种示例性流程;
图5为本发明实施例提供的单隐含层神经网络示意图;
图6为本发明实施例提供的训练过程的又一种示例性流程。
具体实施方式
本发明实施例所提供的目标分类检测方法、装置与系统,以提高目标分类检测的准确率。
请参见图1a,上述目标分类检测装置示例性的可包括获取模块1、标准化处理模块2和分类模块3。
其中,数据通道1主要用于获取点云数据(包括由动态事件传感器所检测到的动态事件所对应的数据点),基于点云数据提取特征向量;标准化处理模块2主要用于将特征向量进行标准化处理;分类模块3主要用于将标准化的特征向量输入分类神经网络,由分类神经网络输出目标分类预测结果。
在本发明其他实施例中,请参见图1b,上述装置还可包括训练模块4,用于对神经网络模型进行训练,得到分类神经网络。
本文后续将结合方法介绍每一模块的作用。
上述装置在硬件上可包括一台计算机或计算机集群。
图2示出了由上述目标分类检测系统所执行的目标分类检测方法的一种示例性流程,包括:
S0:获取点云数据。
前述提及了,点云数据可包括动态事件传感器所检测到的动态事件所对应的数据点。其中,每一数据点包括二维坐标位置:水平位置和竖直位置。
实际上,动态事件传感器采集的是事件流数据(类似于视频流)。一个事件(对应一个数据点)包含二维坐标信息(水平位置、竖直位置)、时间戳、光照强度变化四个元素,后续选取其二维坐标信息(点云)进行研究。
可由与动态事件传感器配置的相关处理设备将事件流数据逐帧转化成点云数据(CSV文件),并储存在文本文件中;一个文本文件存储一帧点云数据,记为{(xi,yi)|i=0,1,...,n′},其中n′为一帧点云数据中数据点的个数,x、y分别为传感器检测到动态事件所对应的数据点的行、列地址;
之后,可根据文本文件中各数据点的水平位置和竖直位置进行可视化处理,得到可视化图像。可视化图像示例性得如图3所示。
S1:在点云数据中提取目标点云集合。
目标点云集合包括:目标动态事件所对应的点云集合。
目标动态事件依实际需要而定,例如,可包括车辆和行人目标。
具体的,可给定一个坐标范围,将坐标范围之外的其他数据点均去掉,得到的就是目标点云集合。
目标点云集合可用公式(1)表示,其中xmin、xmax、ymin、ymax分别表示横坐标与纵坐标的最小值和最大值。
Q={(x,y)|x∈[xmin,xmax],y∈[ymin,ymax]} (1)
需要说明的是,一帧点云数据(可视化图像)中可能包括多个目标动态事件,因此,可有多个目标点云集合。
S2:计算目标点云集合的尺寸特征。
其中,尺寸特征至少可包括:目标点云集合的最小外接框高宽比,以及,目标点云集合所包含的数据点的个数。
可在提取的车辆和行人目标上划定一个最小外接矩形框,使得该矩形框恰好包含整个目标点云集合,该矩形框的高度与宽度的比值可记为高宽比R,并作为目标点云集合的特征一,用公式(2)表示。
Figure GDA0003516366630000081
不同车辆和行人目标所包含点的个数是不同的,因此,可统计出车辆和行人目标所包含的(矩形框里)数据点的个数n作为特征二。
S3:提取目标点云集合的水平投影特征。
其中,水平投影特征包括:第一概率密度函数曲线的最小值Xmin、最大值Xmax、均值Xmean和标准差Xstd中的至少一种。
第一概率密度函数曲线用于表征目标点云集合在水平方向上数据点个数的概率分布密度。
具体的,目标点云集合中各数据点的水平坐标(横坐标)可用{xi|i=0,1,...,n}表示。划定水平间隔Δt,则任一x点处数据点个数的概率分布密度可用公式(3)表示(也即第一概率密度函数曲线)。
Figure GDA0003516366630000082
第一概率密度函数曲线的最小值Xmin、最大值Xmax、均值Xmean和标准差Xstd可分别记为特征三、特征四、特征五、特征六,可采用下述公式4-7分别计算。
Xmin=[DΔt(xi)]min (4)
Xmax=[DΔt(xi)]max (5)
Figure GDA0003516366630000091
Figure GDA0003516366630000092
S4:提取目标点云集合的竖直投影特征。
其中,竖直投影特征包括:第二概率密度函数曲线的最小值Ymin、最大值Ymax、均值Ymean和标准差Ystd中的至少一种。
第二概率密度函数曲线用于表征目标点云集合在竖直方向上数据点个数的概率分布密度。
具体的,目标点云集合的竖直坐标(纵坐标)可用{yi|i=0,1,...,n}表示,划定竖直间隔Δt′,则任一y点处的密度(数据点个数的概率分布密度)可以用公式(8)表示(也即,第二概率密度函数曲线)。
Figure GDA0003516366630000093
第二概率密度函数曲线的最小值Ymin、最大值Ymax、均值Ymean和标准差Ystd可分别记为特征七、特征八、特征九、特征十,可采用下述公式9-12分别计算。
Ymin=[DΔt′(yi)]min (9)
Ymax=[DΔt′(yi)]max (10)
Figure GDA0003516366630000094
Figure GDA0003516366630000101
S5:将尺寸特征、水平投影特征和竖直投影特征组成特征向量。
以水平投影特征包含特征三至六,竖直投影特征包括特征七至十为例,特征向量T为10维,可用公式(13)表示。
T=(R,n,Xmin,Xmax,Xmean,Xstd,Ymin,Ymax,Ymean,Ystd) (13)
步骤S0-S5可由前述的获取模块1执行。
S6:将特征向量进行标准化处理。
特征向量中的特征一的数量级为1,特征二的数量级为1000到10000之间,特征三到十的数量级为10-3到10-2之间,每个特征的数量级相差很大,如果直接使用原始数值,数量级大的特征会起到主要作用,数量级小的特征可能被忽略掉,因此可对特征向量进行标准化处理。
在一个示例中,可使用下述公式(14)对特征向量进行标准化处理。
Figure GDA0003516366630000102
其中,Tij表示第i个目标点云集合的第j个特征值,
Figure GDA0003516366630000103
表示所有目标点云集合的第j个特征值的平均值,Sj表示所有目标点云集合的第j个特征值的标准差。
步骤S6可由前述的标准化处理模块2执行。
S7:将标准化的特征向量输入分类神经网络,由分类神经网络输出目标分类预测结果。
在一个示例中,目标分类预测结果可包括:各预设分类所对应的概率值;其中概率值最大的预设分类为目标动态事件的分类检测结果。
具体的,在车辆、行人识别的场景下,预设分类可包括:大型机动车、小型机动车、非机动车、行人四种类别。
则此种场景下,目标分类预测结果可包括上述四种类别分别对应的概率值,而概率值最大的类别,就是该目标动态事件的分类检测结果。
也即,若概率值最大的类别是“行人”,则目标动态事件的分类检测结果就是“行人”,这样就实现了目标分类检测。
步骤S7可由前述的分类模块3执行。
可见,在本发明实施例中,基于点云数据进行分类检测,与传统视频传感器的图像信息相比,基于点云数据的目标检测结果不会受到复杂背景的影响,并对光照条件依赖较小,可以准确检测出高速运行的目标物。
同时,本发明实施例所提取的特征包括高宽比、点云个数、水平投影特征以及竖直投影特征,相对传统的图像信息特征提取,所提取的特征维度更高,因此,效率更高,运行速度更快。
下面介绍神经网络模型的训练过程。请参见图4,分类神经网络的训练过程包括:
S40:获取动态事件传感器检测到的点云数据。
S40与前述的S0相类似,在此不作赘述。
S41:根据点云数据生成样本。
样本包括特征向量和类别标签。
特征向量的获取方式可参见前述的步骤S1-S5在此不作赘述。
类别标签的内可容包括:特征向量所对应的各预设分类的实际值。
类别标签可使用公式(15)表示,样本C可用公式(16)表示。
l={大型机动车、小型机动车、非机动车、行人} (15)
C=(T,l) (16)
S40和S41可由前述的获取模块1执行。
S42:将样本进行标准化处理。
其中,特征向量的标准化处理可参见前述的步骤S6,在此不作赘述。
此外,可将文字类型的标签进行编码,例如,可分别用(1,0,0,0)T、(0,1,0,0)T、(0,0,1,0)T、(0,0,0,1)T表示大型机动车、小型机动车、非机动车、行人四种类别。
S42可由前述的标准化处理模块2执行。
S43:使用样本构成训练集和测试集。
假设样本总数为N,提取完N个样本(特征向量+标签)后,可随机选取部分数据构成训练集,剩余部分构成测试集。
S44:初始化(设置)神经网络模型的网络参数。
在一个示例中,可设计神经网络模型为单隐含层神经网络。请参见图5,单隐含层神经网络包括输入层、隐含层和输出层。
其中,输入层的神经元个数a由特征向量的维度数决定;沿用前例,若特征向量是10维,则a=10。
输出层的神经元个数b由预设分类的数量决定;沿用前例,预设分类为4类,则b=4。
隐含层的神经元个数为m。m的取值可先由经验确定一个初始值,再经试验得到最优值。
网络参数包括:
1,输入层与隐含层相连接的a×m的第一权重矩阵W1;可用下述公式(17)表示。
2,隐含层与输出层相连接的m×b的第二权重矩阵W2;可用下述公式(18)表示。
3,隐含层神经元的偏置量B1;可用下述公式(19)表示。
4,输出层神经元的偏置量B2;可用下述公式(20)表示。
5,隐含层激活函数;
具体的,隐含层激活函数可以为sigmoid函数、tanh函数或者relu函数,函数表达式分别可用下述公式(21)~公式(23)表示。
6,输出层激活函数;
具体的,输出层激活函数具体为softmax函数,函数表达式用公式(24)表示,其中y′i为输出层第i个输入值,yi为输出层第i个输出值(预测值),输出值包含:属于每个预设类型的概率。
7,优化器类型;
具体的,优化器类型可以选择基于梯度下降法的sgd、adam类型或者基于牛顿法的lbfgs类型。
8,误差精度ε;
9,学习效率η;
10,最大迭代次数M。
在初始化时,W1、W2、B1、B2中的数被随机设置为-1至1之间的任意数值。
Figure GDA0003516366630000131
Figure GDA0003516366630000132
Figure GDA0003516366630000133
Figure GDA0003516366630000134
Figure GDA0003516366630000141
Figure GDA0003516366630000142
f3(x)=max(0,x) (23)
Figure GDA0003516366630000143
S43和S44可由前述的训练模块4执行。
S45:基于训练集中的样本对神经网络模型进行一轮迭代训练,得到训练后的神经网络。
一轮迭代训练可包括多次迭代训练过程。
S45由神经网络自行执行。
请参见图6,一轮迭代训练中任一次迭代训练过程包括:
S451:将训练集中的一个样本输入初始化后或经上一次迭代训练过程训练后的神经网络,得到输出值。
具体的,可随机选取训练集中一个样本内的标准化处理后的特征向量输入神经网络。
神经网络通过公式(25)得到隐含层输出值Y′,Y′为一个m行的列向量。
Y′=f(W1·T+B1) (25)
需要说明的是,公式25的具体函数表达可是前述的公式(21)-(23)中的任一个,可将“W1·T+B1”整体作为x,代入公式(21)-(23)中的任一个,得到输出值Y′。
这里的T为上述的特征向量。
再将隐含层输出值Y′送入输出层,输出层通过公式(26)计算出前向输出值Y。
Y=soft max(W2·Y′+B2) (26)
需要说明的是,公式26的具体函数表达可是前述的公式(24),可将“W2Y′+B2”整体作为x,代入公式(24),得到前向输出值Y。
以四种类型为例,前向输出值Y的函数表达式如公式(27)所示,其中y1~y4为属于四种类型的概率值。
Figure GDA0003516366630000151
S452:计算输出值与样本的类别标签中的实际值的误差。
类别标签中的实际值为期望输出值
Figure GDA0003516366630000152
以四种类型为例,其函数表达式如公式(28)所示。
可选择平方损失函数计算期望输出值
Figure GDA0003516366630000153
与前向输出值Y的误差,用公式(29)表示。
Figure GDA0003516366630000154
Figure GDA0003516366630000155
S453:根据误差修正权重和偏置量。
具体的,可将误差从输出层反向传播到输入层,中间通过复合函数求偏导计算权重和偏置量的偏导数,不断修正权重和偏置量。
在一个示例中,计算权重和偏置量的偏导数的函数可如公式(30)、(31)所示。
Figure GDA0003516366630000156
Figure GDA0003516366630000157
S454:计算输出值与实际值的全局误差L′。
在一个示例中,可采用下述公式(32)计算全局误差L′,其中k表示第k个样本,i表示第i个类别。
Figure GDA0003516366630000161
S455:判断全局误差L′是否小于误差精度ε,若是,进入S457,若否,进入S456;
S456:判断当前迭代次数是否达到最大迭代次数M,若是,进入S457,若否,进入S451,以将训练集中的下一特征向量输入神经网络,开始下一次迭代。
每一轮迭代训练的最大迭代次数为M。
S457:停止迭代运行。
S46:将测试集中的样本输入训练后的神经网络,获得目标分类预测结果。
目标分类预测结果也即前述的前向输出值。
S47:基于目标分类预测结果计算本轮迭代训练所对应的分类准确率。
如何计算可参考现有计算方式,在此不作赘述。
S48:调整训练后的神经网络的系统参数,将调整系统参数后的神经网络重新作为神经网络模型,返回S45。直至完成X轮迭代训练。
在一个示例中,系统参数包括但不限于:隐含层节点(神经元)数、学习效率、隐含层激活函数和优化器类型。
S49:在X轮迭代训练所对应的X个分类准确率中,确定最大的分类准确率所对应的系统参数,作为上述分类神经网络最终的系统参数。
X为预设整数值。本领域技术人员可灵活设计X的取值,例如,6、7、10等。
本实施例通过提取目标点云集合的高宽比、点云个数、水平投影以及垂直投影共十个特征来训练神经网络,比传统的提取图像特征训练相比效率更高,运行速度更快,准确率更高。
下面介绍目标分类检测装置和系统。
图1a示出了上述目标分类检测装置的一种示例性结构,包括:
获取模块1,用于:
获取点云数据;点云数据包括动态事件传感器所检测到的动态事件所对应的数据点;每一数据点包括:水平位置和竖直位置;
在点云数据中提取目标点云集合;目标点云集合包括:目标动态事件所对应的点云集合;
计算目标点云集合的尺寸特征;其中,尺寸特征至少包括:目标点云集合的最小外接框高宽比,以及,目标点云集合所包含的数据点的个数;
提取目标点云集合的水平投影特征;其中,水平投影特征包括:第一概率密度函数曲线的最小值、最大值、均值和标准差中的至少一种;第一概率密度函数曲线用于表征目标点云集合在水平方向上数据点个数的概率分布密度;
提取目标点云集合的竖直投影特征;其中,竖直投影特征包括:第二概率密度函数曲线的最小值、最大值、均值和标准差中的至少一种;第二概率密度函数曲线用于表征目标点云集合在竖直方向上数据点个数的概率分布密度;
将尺寸特征、水平投影特征和竖直投影特征组成特征向量;
标准化处理模块2,用于:将特征向量进行标准化处理;
分类模块3,用于:
将标准化的特征向量输入分类神经网络,由分类神经网络输出目标分类预测结果;目标分类预测结果包括:各预设分类所对应的概率值;其中概率值最大的预设分类为目标动态事件的分类检测结果。
在一个示例中,获取点云数据的具体操作包括:
获取由动态事件传感器采集的事件流数据;
将事件流数据逐帧转化成点云数据,并储存在文本文件中(一个文本文件存储一帧点云数据);
根据文本文件中各数据点的水平位置和竖直位置进行可视化处理,得到可视化图像。
具体内容可参见前述描述,在此不作赘述。
在本发明其他实施例中,请参见图1b,上述装置还可包括训练模块4,用于对分类神经网络执行如下训练过程:
获取动态事件传感器检测到的点云数据;
根据点云数据生成样本;样本包括特征向量和类别标签;类别标签的内容包括:相应的特征向量所对应的分类的实际值;
使用样本构成训练集和测试集;
初始化神经网络模型的网络参数;
基于训练集中的样本对神经网络模型进行一轮迭代训练,得到训练后的神经网络;一轮迭代训练包括多次迭代训练过程;
将测试集中的样本输入训练后的神经网络,获得目标分类预测结果;
基于目标分类预测结果计算本轮迭代训练所对应的分类准确率;
调整训练后的神经网络的系统参数,将调整系统参数后的神经网络重新作为神经网络模型,返回执行初始化网络参数的操作,直至完成X轮迭代训练;
在X轮迭代训练所对应的X个分类准确率中,确定最大的分类准确率所对应的系统参数,作为上述分类神经网络最终的系统参数;X为预设整数值。
具体内容可参见前述描述,在此不作赘述。
在本发明其他实施例中,训练模块4在任一次迭代训练过程中具体用于:
将训练集中的一个样本输入初始化后或经上一次迭代训练过程训练后的神经网络,得到输出值;
初始化后或经上一轮迭代训练后的神经网络用于:
计算输出值与样本的类别标签中的实际值的误差,根据误差修正权重和偏置量;
计算输出值与实际值的全局误差;
若全局误差小于误差精度ε,或者达到最大迭代次数,停止运行;
否则,进入下一迭代训练。
具体内容可参见前述描述,在此不作赘述。
在本发明其他实施例中,上述神经网络可为单隐含层神经网络,包括输入层、隐含层和输出层;
其中,网络参数包括但不限于:
输入层与隐含层相连接的a×m的第一权重矩阵W1
隐含层与输出层相连接的m×b的第二权重矩阵W2
隐含层神经元的偏置量B1
输出层神经元的偏置量B2
输出层激活函数;
误差精度ε;
最大迭代次数M;
在初始化时,W1、W2、B1、B2中的数被随机设置为-1至1之间的任意数值。
具体内容可参见前述描述,在此不作赘述。
而系统参数包括但不限于:隐含层节点数、学习效率、隐含层激活函数和优化器类型。
至于目标分类检测系统,则包括动态事件传感器和上述的目标分类检测装置。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及模型步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
结合本文中所公开的实施例描述的方法或模型的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、WD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (10)

1.一种目标分类检测方法,其特征在于,包括:
获取点云数据;所述点云数据包括动态事件传感器所检测到的动态事件所对应的数据点;每一数据点包括:水平位置和竖直位置;
在所述点云数据中提取目标点云集合;所述目标点云集合包括:目标动态事件所对应的点云集合;
计算目标点云集合的尺寸特征;其中,所述尺寸特征至少包括:目标点云集合的最小外接框高宽比,以及,所述目标点云集合所包含的数据点的个数;
提取所述目标点云集合的水平投影特征;其中,所述水平投影特征包括:第一概率密度函数曲线的最小值、最大值、均值和标准差中的至少一种;所述第一概率密度函数曲线用于表征所述目标点云集合在水平方向上数据点个数的概率分布密度;
提取所述目标点云集合的竖直投影特征;其中,所述竖直投影特征包括:第二概率密度函数曲线的最小值、最大值、均值和标准差中的至少一种;所述第二概率密度函数曲线用于表征所述目标点云集合在竖直方向上数据点个数的概率分布密度;
将尺寸特征、水平投影特征和竖直投影特征组成特征向量;
将所述特征向量进行标准化处理;
将标准化的特征向量输入分类神经网络,由所述分类神经网络输出目标分类预测结果;所述目标分类预测结果包括:各预设分类所对应的概率值;其中概率值最大的预设分类为所述目标动态事件的分类检测结果。
2.如权利要求1所述的方法,其特征在于,所述分类神经网络的训练过程包括:
获取动态事件传感器检测到的点云数据;
根据点云数据生成样本;所述样本包括特征向量和类别标签;所述类别标签的内容包括:相应的特征向量所对应的分类的实际值;
使用样本构成训练集和测试集;
初始化神经网络模型的网络参数;
基于训练集中的样本对神经网络模型进行一轮迭代训练,得到训练后的神经网络;所述一轮迭代训练包括多次迭代训练过程;
将测试集中的样本输入训练后的神经网络,获得目标分类预测结果;
基于所述目标分类预测结果计算本轮迭代训练所对应的分类准确率;
调整训练后的神经网络的系统参数,将调整系统参数后的神经网络重新作为神经网络模型,返回执行初始化神经网络模型的网络参数的步骤,直至完成X轮迭代训练;
在X轮迭代训练所对应的X个分类准确率中,确定最大的分类准确率所对应的系统参数,作为所述分类神经网络最终的系统参数;X为预设整数值。
3.如权利要求2所述的方法,其特征在于,
每一轮迭代训练的最大迭代次数为M;
其中,一轮迭代训练中任一次迭代训练过程包括:
将训练集中的一个样本输入初始化后或经上一次迭代训练过程训练后的神经网络,得到输出值;
计算输出值与样本的类别标签中的实际值的误差;
根据误差修正权重和偏置量;
计算输出值与实际值的全局误差L';
若全局误差小于误差精度ε,或者当前迭代次数达到最大迭代次数M,停止运行;
否则,进入下一次迭代训练;
其中,
Figure FDA0003516366620000031
k表示第k个样本,i表示第i个类别,N为样本总数,b表示所述分类神经网络输出层的神经元个数,并且b的取值与分类数量的取值相等
4.如权利要求3所述的方法,其特征在于,
所述神经网络为单隐含层神经网络;所述单隐含层神经网络包括输入层、隐含层和输出层;
所述网络参数包括:
输入层与隐含层相连接的a×m的第一权重矩阵W1
隐含层与输出层相连接的m×b的第二权重矩阵W2
隐含层神经元的偏置量B1
输出层神经元的偏置量B2
输出层激活函数;
误差精度ε;
最大迭代次数M;
在初始化时,W1、W2、B1、B2中的数被随机设置为-1至1之间的任意数值;
其中,a为输入层的神经元个数;b为输出层的神经元个数;m为隐含层的神经元个数。
5.如权利要求2所述的方法,其特征在于,所述系统参数包括:隐含层节点数、学习效率、隐含层激活函数和优化器类型中的至少一种。
6.如权利要求1所述的方法,其特征在于,所述获取点云数据包括:
获取由动态事件传感器采集的事件流数据;
将所述事件流数据逐帧转化成点云数据,并储存在文本文件中;一个文本文件存储一帧点云数据;
根据所述文本文件中各数据点的水平位置和竖直位置进行可视化处理,得到可视化图像。
7.一种目标分类检测装置,其特征在于,包括:
获取模块,用于:
获取点云数据;所述点云数据包括动态事件传感器所检测到的动态事件所对应的数据点;每一数据点包括:水平位置和竖直位置;
在所述点云数据中提取目标点云集合;所述目标点云集合包括:目标动态事件所对应的点云集合;
计算目标点云集合的尺寸特征;其中,所述尺寸特征至少包括:目标点云集合的最小外接框高宽比,以及,所述目标点云集合所包含的数据点的个数;
提取所述目标点云集合的水平投影特征;其中,所述水平投影特征包括:第一概率密度函数曲线的最小值、最大值、均值和标准差中的至少一种;所述第一概率密度函数曲线用于表征所述目标点云集合在水平方向上数据点个数的概率分布密度;
提取所述目标点云集合的竖直投影特征;其中,所述竖直投影特征包括:第二概率密度函数曲线的最小值、最大值、均值和标准差中的至少一种;所述第二概率密度函数曲线用于表征所述目标点云集合在竖直方向上数据点个数的概率分布密度;
将尺寸特征、水平投影特征和竖直投影特征组成特征向量;
标准化处理模块,用于:将所述特征向量进行标准化处理;
分类模块,用于:
将标准化的特征向量输入分类神经网络,由所述分类神经网络输出目标分类预测结果;所述目标分类预测结果包括:各预设分类所对应的概率值;其中概率值最大的预设分类为所述目标动态事件的分类检测结果。
8.如权利要求7所述的装置,其特征在于,
还包括训练模块,用于对所述分类神经网络执行如下训练过程:
获取动态事件传感器检测到的点云数据;
根据点云数据生成样本;所述样本包括特征向量和类别标签;所述类别标签的内容包括:相应的特征向量所对应的分类的实际值;
使用样本构成训练集和测试集;
初始化神经网络模型的网络参数;
基于训练集中的样本对神经网络模型进行一轮迭代训练,得到训练后的神经网络;所述一轮迭代训练包括多次迭代训练过程;
将测试集中的样本输入训练后的神经网络,获得目标分类预测结果;
基于所述目标分类预测结果计算本轮迭代训练所对应的分类准确率;
调整训练后的神经网络的系统参数,将调整系统参数后的神经网络重新作为神经网络模型,返回执行初始化网络参数的操作,直至完成X轮迭代训练;
在X轮迭代训练所对应的X个分类准确率中,确定最大的分类准确率所对应的系统参数,作为所述分类神经网络最终的系统参数;X为预设整数值。
9.如权利要求8所述的装置,其特征在于,
每一轮迭代训练的最大迭代次数为M;
在任一次迭代训练过程方面,所述训练模块具体用于:
将训练集中的一个样本输入初始化后或经上一次迭代训练过程训练后的神经网络,得到输出值;
初始化后或经上一轮迭代训练后的神经网络用于:
计算输出值与样本的类别标签中的实际值的误差,根据误差修正权重和偏置量;
计算输出值与实际值的全局误差L';
若全局误差小于误差精度ε,或者当前迭代次数达到最大迭代次数M,停止运行;
否则,进入下一次迭代训练;
其中,
Figure FDA0003516366620000061
k表示第k个样本,i表示第i个类别,N为样本总数,b表示所述分类神经网络输出层的神经元个数,并且b的取值与分类数量的取值相等
10.一种目标分类检测系统,其特征在于,包括:
动态事件传感器,用于检测动态事件,输出检测到的动态事件所对应的数据点;
目标分类检测装置,用于:
获取点云数据;所述点云数据包括动态事件传感器所检测到的动态事件所对应的数据点;每一数据点包括:水平位置和竖直位置;
在所述点云数据中提取目标点云集合;所述目标点云集合包括:目标动态事件所对应的点云集合;
计算目标点云集合的尺寸特征;其中,所述尺寸特征至少包括:目标点云集合的最小外接框高宽比,以及,所述目标点云集合所包含的数据点的个数;
提取所述目标点云集合的水平投影特征;其中,所述水平投影特征包括:第一概率密度函数曲线的最小值、最大值、均值和标准差中的至少一种;所述第一概率密度函数曲线用于表征所述目标点云集合在水平方向上数据点个数的概率分布密度;
提取所述目标点云集合的竖直投影特征;其中,所述竖直投影特征包括:第二概率密度函数曲线的最小值、最大值、均值和标准差中的至少一种;所述第二概率密度函数曲线用于表征所述目标点云集合在竖直方向上数据点个数的概率分布密度;
将尺寸特征、水平投影特征和竖直投影特征组成特征向量;
将所述特征向量进行标准化处理;
将标准化的特征向量输入分类神经网络,由所述分类神经网络输出目标分类预测结果;所述目标分类预测结果包括:各预设分类所对应的概率值;其中概率值最大的预设分类为所述目标动态事件的分类检测结果。
CN202110238967.3A 2021-03-04 2021-03-04 目标分类检测方法、装置与系统 Active CN113139569B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110238967.3A CN113139569B (zh) 2021-03-04 2021-03-04 目标分类检测方法、装置与系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110238967.3A CN113139569B (zh) 2021-03-04 2021-03-04 目标分类检测方法、装置与系统

Publications (2)

Publication Number Publication Date
CN113139569A CN113139569A (zh) 2021-07-20
CN113139569B true CN113139569B (zh) 2022-04-22

Family

ID=76810818

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110238967.3A Active CN113139569B (zh) 2021-03-04 2021-03-04 目标分类检测方法、装置与系统

Country Status (1)

Country Link
CN (1) CN113139569B (zh)

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6314204B1 (en) * 1998-11-03 2001-11-06 Compaq Computer Corporation Multiple mode probability density estimation with application to multiple hypothesis tracking
CN1664555A (zh) * 2005-03-17 2005-09-07 上海交通大学 基于时间序列与神经网络模式辨识的两相流流型识别方法
CN103196789A (zh) * 2013-04-02 2013-07-10 江苏大学 柴油车尾气烟度检测方法
CN106683530A (zh) * 2017-02-21 2017-05-17 南京多伦科技股份有限公司 一种基于三维激光视觉和高精度车道模型的计算机评判系统和方法
CN109446986A (zh) * 2018-10-28 2019-03-08 南京林业大学 一种面向树木激光点云的有效特征抽取与树种识别方法
CN109697731A (zh) * 2018-12-21 2019-04-30 北京林业大学 基于点云数据的植物冠层体积计算方法、系统及相关设备
CN110415344A (zh) * 2019-06-24 2019-11-05 武汉大学 基于事件相机的运动补偿方法
CN110689576A (zh) * 2019-09-29 2020-01-14 桂林电子科技大学 一种基于Autoware的动态3D点云正态分布AGV定位方法
CN111602171A (zh) * 2019-07-26 2020-08-28 深圳市大疆创新科技有限公司 一种点云特征点提取方法、点云传感系统及可移动平台
CN111880191A (zh) * 2020-06-16 2020-11-03 北京大学 基于多智能体激光雷达和视觉信息融合的地图生成方法
CN112270713A (zh) * 2020-10-14 2021-01-26 北京航空航天大学杭州创新研究院 标定方法以及装置、存储介质、电子装置
CN112270931A (zh) * 2020-10-22 2021-01-26 江西师范大学 一种基于孪生卷积神经网络进行欺骗性语音检测的方法
CN112347894A (zh) * 2020-11-02 2021-02-09 东华理工大学 基于迁移学习和高斯混合模型分离的单株植被提取方法
CN112434642A (zh) * 2020-12-07 2021-03-02 北京航空航天大学 一种适用于处理大场景光学遥感数据的海陆分割方法

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6314204B1 (en) * 1998-11-03 2001-11-06 Compaq Computer Corporation Multiple mode probability density estimation with application to multiple hypothesis tracking
CN1664555A (zh) * 2005-03-17 2005-09-07 上海交通大学 基于时间序列与神经网络模式辨识的两相流流型识别方法
CN103196789A (zh) * 2013-04-02 2013-07-10 江苏大学 柴油车尾气烟度检测方法
CN106683530A (zh) * 2017-02-21 2017-05-17 南京多伦科技股份有限公司 一种基于三维激光视觉和高精度车道模型的计算机评判系统和方法
CN109446986A (zh) * 2018-10-28 2019-03-08 南京林业大学 一种面向树木激光点云的有效特征抽取与树种识别方法
CN109697731A (zh) * 2018-12-21 2019-04-30 北京林业大学 基于点云数据的植物冠层体积计算方法、系统及相关设备
CN110415344A (zh) * 2019-06-24 2019-11-05 武汉大学 基于事件相机的运动补偿方法
CN111602171A (zh) * 2019-07-26 2020-08-28 深圳市大疆创新科技有限公司 一种点云特征点提取方法、点云传感系统及可移动平台
CN110689576A (zh) * 2019-09-29 2020-01-14 桂林电子科技大学 一种基于Autoware的动态3D点云正态分布AGV定位方法
CN111880191A (zh) * 2020-06-16 2020-11-03 北京大学 基于多智能体激光雷达和视觉信息融合的地图生成方法
CN112270713A (zh) * 2020-10-14 2021-01-26 北京航空航天大学杭州创新研究院 标定方法以及装置、存储介质、电子装置
CN112270931A (zh) * 2020-10-22 2021-01-26 江西师范大学 一种基于孪生卷积神经网络进行欺骗性语音检测的方法
CN112347894A (zh) * 2020-11-02 2021-02-09 东华理工大学 基于迁移学习和高斯混合模型分离的单株植被提取方法
CN112434642A (zh) * 2020-12-07 2021-03-02 北京航空航天大学 一种适用于处理大场景光学遥感数据的海陆分割方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
《Rapid measurement of the three-dimensional distribution of leaf orientation and the leaf angle probability density function using terrestrial LiDAR scanning》;Brian N.Bailey;Walter F.Mahaffee;《Remote Sensing of Environment》;20170701;全文 *
《基于高层特征的光学遥感图像分类》;罗冷坤;《中国优秀硕士学位论文全文数据库 (信息科技辑)》;20201115;全文 *
Yongtao Yu ; Jonathan Li ; Haiyan Guan ; Fukai Jia ; Cheng Wang..《Learning Hierarchical Features for Automated Extraction of Road Markings From 3-D Mobile LiDAR Point Clouds》.《IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing》.2014, *

Also Published As

Publication number Publication date
CN113139569A (zh) 2021-07-20

Similar Documents

Publication Publication Date Title
CN106683048B (zh) 一种图像超分辨率方法及设备
US20210174149A1 (en) Feature fusion and dense connection-based method for infrared plane object detection
CN106845430A (zh) 基于加速区域卷积神经网络的行人检测与跟踪方法
CN108596327B (zh) 一种基于深度学习的地震速度谱人工智能拾取方法
CN109919241B (zh) 基于概率模型和深度学习的高光谱未知类别目标检测方法
CN111160249A (zh) 基于跨尺度特征融合的光学遥感图像多类目标检测方法
CN104200237A (zh) 一种基于核化相关滤波高速自动多目标跟踪方法
KR20200094622A (ko) 뉴럴 네트워크 학습에 이용될 오토 라벨링된 이미지 중에서 라벨 검수를 위한 샘플 이미지를 획득하는 방법 및 이를 이용한 샘플 이미지 획득 장치
CN113469088B (zh) 一种无源干扰场景下的sar图像舰船目标检测方法及系统
CN110716792B (zh) 一种目标检测器及其构建方法和应用
CN104866868A (zh) 基于深度神经网络的金属币识别方法和装置
CN107832789B (zh) 基于平均影响值数据变换的特征加权k近邻故障诊断方法
CN112801104B (zh) 基于语义分割的图像像素级伪标签确定方法及系统
CN110569971B (zh) 一种基于LeakyRelu激活函数的卷积神经网络单目标识别方法
CN114155397B (zh) 一种小样本图像分类方法及系统
CN110298248A (zh) 一种基于语义分割的多目标跟踪方法及系统
CN108647772B (zh) 一种用于边坡监测数据粗差剔除的方法
CN110852369A (zh) 联合3d/2d卷积网络和自适应光谱解混的高光谱图像分类方法
Marmanis et al. Deep neural networks for above-ground detection in very high spatial resolution digital elevation models
CN109583456B (zh) 基于特征融合和稠密连接的红外面目标检测方法
CN109871907B (zh) 基于sae-hmm模型的雷达目标高分辨率距离像识别方法
CN113361194B (zh) 一种基于深度学习的传感器漂移校准方法、电子设备及存储介质
CN110837787B (zh) 一种三方生成对抗网络的多光谱遥感图像检测方法及系统
CN113139569B (zh) 目标分类检测方法、装置与系统
CN116665039A (zh) 基于两阶段因果干预的小样本目标识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20210720

Assignee: Shandong shiprun Energy Technology Co.,Ltd.

Assignor: SHANDONG University OF SCIENCE AND TECHNOLOGY

Contract record no.: X2023370010022

Denomination of invention: Target classification detection method, device, and system

Granted publication date: 20220422

License type: Common License

Record date: 20230306