CN111291634B - 基于卷积受限玻尔兹曼机的无人机图像目标检测方法 - Google Patents

基于卷积受限玻尔兹曼机的无人机图像目标检测方法 Download PDF

Info

Publication number
CN111291634B
CN111291634B CN202010055258.7A CN202010055258A CN111291634B CN 111291634 B CN111291634 B CN 111291634B CN 202010055258 A CN202010055258 A CN 202010055258A CN 111291634 B CN111291634 B CN 111291634B
Authority
CN
China
Prior art keywords
training sample
data set
convolution
sample data
limited boltzmann
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010055258.7A
Other languages
English (en)
Other versions
CN111291634A (zh
Inventor
刘贞报
马博迪
江飞鸿
严月浩
张超
布树辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN202010055258.7A priority Critical patent/CN111291634B/zh
Publication of CN111291634A publication Critical patent/CN111291634A/zh
Application granted granted Critical
Publication of CN111291634B publication Critical patent/CN111291634B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出了一种基于卷积受限玻尔兹曼机的无人机图像目标检测方法,首先,获取航拍图像中的图块,构建初始训练样本数据集;对初始训练样本数据集进行扩充处理,将初始训练样本数据集和扩充后的训练样本数据集进行合并得到总的训练样本数据集;构建卷积受限玻尔兹曼模型,采用两种不同尺寸的卷积核提取总的训练样本数据集的特征向量,根据特征向量计算可见层与隐藏层概率分布,解算受限玻尔兹曼机模型参数,完成卷积受限玻尔兹曼模型的训练;将航拍影像输入至训练后的卷积受限玻尔兹曼模型,得到目标检测分类结果。该方法提高无人机航拍图像目标检测方法的鲁棒性和准确性,提供高精度和高鲁棒性的目标检测结果。

Description

基于卷积受限玻尔兹曼机的无人机图像目标检测方法
技术领域
本发明属于无人机图像目标检测领域,特别涉及一种基于卷积受限玻尔兹曼机的无人机图像目标检测方法。
背景技术
无人机具有机动性强、效率高、成本低、可重复使用的特点,在工业、商业应用中的需求越来越强烈,无人机搭载高精度相机对地面场景区域开展航拍巡检作业,获取巡检所覆盖场景影像数据进行目标检测,从而得到探测区域精准、实时的影像分析信息,能够应用在交通流量分析,城市建筑规划,输电线路巡检,石油管线巡检,边防巡检等领域。
相比于传统图像目标检测分析,无人机影像中的地面背景往往比较复杂,由于光照和成像角度的影响,同类目标的外观也可能存在各种差异,这些不利因素都给目标检测造成了困难,使得高效鲁棒和高准确性的无人机影像目标检测依然是一个富有挑战性的问题。而无人机前后两次对同一区域成像时,两幅图像之间不仅可能存在较大的成像视角差异,而且由于天气和光照等成像条件的不同,图像之间可能存在较大的整体或局部的亮度差异。在这些不利因素的影响下,无人机图像中的变化检测不仅需要解决图像的高精度配准问题,还需要解决在配准后图像上排除干扰提取高精度高可靠性变化信息的问题,使得无人机图像中的变化检测依然是一个难点问题。
综上所述,为了提高无人机图像目标检测的鲁棒性和准确性,需要发展一种更加精准的航拍图像目标检测方法。
发明内容
针对无人机影像具有目标尺寸相对较小,航拍影像背景复杂等特点,本发明提供了一种基于卷积受限玻尔兹曼机的无人机图像目标检测方法,应用于无人机航拍影像数据目标检测,通过从原始无人机航拍图像数据中学习航拍图像的高层特征,提取目标的二维空间结构信息,减少模型参数的个数,提高无人机航拍图像目标检测方法的鲁棒性和准确性,提供高精度和高鲁棒性的目标检测结果。
本发明采用如下技术方案来实现:
基于卷积受限玻尔兹曼机的无人机图像目标检测方法,包括以下步骤:
步骤1:获取航拍图像中的图块,构建初始训练样本数据集;
步骤2:对初始训练样本数据集进行扩充处理,将初始训练样本数据集和扩充后的训练样本数据集进行合并得到总的训练样本数据集;
步骤3:构建卷积受限玻尔兹曼模型,采用两种不同尺寸的卷积核提取总的训练样本数据集的特征向量,根据特征向量计算可见层与隐藏层概率分布,解算受限玻尔兹曼机模型参数,完成卷积受限玻尔兹曼模型的训练;
步骤4:将航拍影像输入至训练后的卷积受限玻尔兹曼模型,得到目标检测分类结果。
优选的,步骤1中,所述图块包括含有目标的目标图像块,以及不含有目标的背景图像块。
优选的,步骤2中采用多角度旋转变换方法对初始训练样本数据集进行扩充。
优选的,步骤2中,给定P个旋转角度θ={θ1,θ2,...,θp},以及对应的P个旋转变换将旋转作用到初始训练样本数据集Sorign={s1,s2,...,sN}上,得到扩充后的训练样本数据集DSorign={Ds1,Ds2,...,DsN};
其中,
所述总的训练样本数据集S={Sorign,DSorign}={s1,s2,s3,...,sN,Ds1,Ds2,...,DsN};
N表示初始训练样本集合中训练样本的个数,表示旋转角度为θm的旋转变换,m=1,2,...,P,P表示旋转角度的总个数。
优选的,步骤3中,两种不同尺寸的卷积核的大小分别为L1*L1和L2*L2,L2大于2倍的L1,L1*L1的卷积核用于提取总的训练样本数据集的初级局部特征和L2*L2的卷积核用于提取总的训练样本数据集的上下文特征,对于单个训练样本si图块共生成n维特征向量,记做Vi={v1,v2,...,vn},特征向量Vi作为受限玻尔兹曼机的输入。
优选的,所述卷积受限玻尔兹曼模型根据初始训练样本数据集的特征向量,计算可视层和隐藏层之间的概率分布。
优选的,所述受限玻尔兹曼机模型的可视层和隐藏层概率分布计算公式为:
可视层与隐藏层概率分布为:
其中,可视层边缘概率分布为:
其中,Z(θ)为归一化因子,Z(θ)=∑vh exp(-E(v,h)
优选的,步骤4中得到目标检测分类结果的过程如下:
对航拍影像采用选择性搜索方法提取目标图块集合;
对目标图块进行缩放处理使其与训练图块大小一致,通过卷积运算提取样本初级特征;
将初级特征输入受限玻尔兹曼模型得到样本的高级特征,使用softmax分类器对高级特征进行分类,得到目标检测分类结果。
优选的,使用softmax分类器对高级特征进行分类,得到目标图块属于各类别的概率向量c={c1,c2,...,ck},取概率向量的最大值argmax(ci)所在的类别作为目标图块类别信息。
本发明具有如下有益的技术效果:
本发明提供的基于卷积受限玻尔兹曼机的无人机图像目标检测方法,使用无人机对地面场景进行多次拍摄,得到无人机图像数据集,对数据集进行旋转扩充处理,得到具有多个方向的样本数据集,增加了数据集数据量,有助于提高目标检测模型的鲁棒性;进一步针对无人机图像的特点,采用两种不同尺寸大小的卷积核分别提取初级局部和上下文特征,将两种特征合并得到初级特征向量,使得特征向量保存了原始图像数据的局部特征信息和上下文领域信息;使用卷积运算提取无人机图像的初级局部特征和上下文特征得到初级特征向量,通过受限玻尔兹曼机提取高层特征,使用受限玻尔兹曼模型提取样本数据的高层特征,计算可视层和隐藏层之间的概率分布,提高目标检测功能的鲁棒性和准确性。
附图说明
图1是本发明方法的流程示意图;
图2是本发明所用受限玻尔兹曼机模型示意图。
具体实施方式
下面结合附图和具体实施例对本发明作进一步详细说明。
参照图1,一种基于积受限玻尔兹曼机的无人机图像目标检测方法,包括以下步骤:
步骤1:构建训练样本数据集,使用无人机对地面场景进行多次拍摄得到训练图像,从训练图像中分别选取包含目标的目标图像块和不包含目标的背景图像块,构建初始训练样本数据集Sorign={s1,s2,...,sL},样本图块大小为N*N像素。
优选的,用于实施本发明方法的硬件环境是Inter Core i5-6400CPU,2.7GHz,8GB内存,运行软件的环境是Python 3.6.5。
优选的,样本图块大小为30*30像素。
步骤2:对初始训练样本数据集进行扩充处理,给定P个旋转角度θ={θ1,θ2,...,θp},以及对应的P个旋转变换将旋转作用到初始训练集Sorign={s1,s2,...,sN}上,得到扩充后的训练样本集合DSorign={Ds1,Ds2,...,DsN},其中将初始训练样本数据集和扩充后的样本集合进行合并得到总的训练样本数据集S={Sorign,DSorign}={s1,s2,s3,..,sN,Ds1,Ds2,...,DsN};
其中,N表示初始训练样本集合中训练样本的个数,表示旋转角度为θm的旋转变换,m=1,2,...,P,P表示旋转角度的总个数;
优选的,在使用过程中通常设定数据集扩充参数P值为12,即旋转角度为{0°,30°,...,330°}。
参照图2,步骤3:将总的训练样本数据集S={s1,s2,s3,...,sN}输入模型,训练卷积受限玻尔兹曼模型。
步骤3a:使用两种不同尺寸的卷积核提取无人机图像特征,卷积核大小分别为L1*L1和L2*L2,其中,L2大于2倍的L1,L1*L1的卷积核用来提取样本的初级局部特征和L2*L2的卷积核用于提取总的训练样本数据集的上下文特征,对于单个样本si图块共生成n维特征向量,记做Vi={v1,v2,...,vn},特征向量Vi作为受限玻尔兹曼模型的输入。
优选的,卷积核尺寸L1取值3,L2取值10,经卷积操作后共生成130维特征向量,记做Vi={v1,v2,...,v130}。
步骤3b:计算受限玻尔兹曼模型概率分布,受限玻尔兹曼模型是一个生成式的随机生成网络,包括一个可视层V和一个隐藏层H,层间各神经元节点之间有连接,层内无连接。受限玻尔兹曼模型目的是最大概率地拟合可视层V和隐藏层H之间的统计学关系,通过学习原始无人机航拍图像数据的高层特征,计算可视层和隐藏层之间的概率分布。
令v={v1,v2,...,vn}表示可视层各神经元节点的状态,代表输入数据,h={h1,h2,...,hm}为隐含层各神经元节点的状态,相当于特征提取器,给定一组数据{v,h},模型的能量函数定义为:
其中:vi可视层中第i个节点的状态;ai可视层中第i个节点的偏置;n可视层神经元节点数;hj隐含层中第j个节点的状态;bj隐含层中第j个节点的偏置;m隐含层神经元节点数;wij可视层中第i个节点与隐含层中第j个节点的连接权值;模型参数为θ={ai,bjwij},其中有i=1,2,...n;j=1,2,...,m;
得到可视层与隐藏层概率分布为:
进一步,得到可视层边缘概率分布为:
其中,Z(θ)为归一化因子,Z(θ)=∑vhexp(-E(v,h);
v为可视层的特征向量,h为隐藏层的特征向量。
无人机航拍影像训练样本信息已知,使用最大化可视层边缘概率分布似然函数的方法,解算受限玻尔兹曼机的模型参数{ai,bjwij},完成模型训练。
步骤4:无人机航拍影像目标检测,对于给定的待检测无人机航拍影像,使用选择性搜索方法提取目标候选框图块集合。
步骤5:对目标候选框图块进行缩放处理,使其与训练图块大小一致,使用卷积核提取目标候选框图块特征向量,得到n维初级特征向量,记做Vi={v1,v2,...,vn},特征向量Vi作为受限玻尔兹曼机的输入。
步骤6:计算隐藏层的高层特征h={h1,h2,...,hm},其中hj=wjivi+ai;i=1,2,...,n;j=1,2,...,m;使用softmax对所得高层特征进行分类,得到目标图块属于各类别的概率向量c={c1,c2,...,ck},取最大值argmax(ci)所在的类别作为目标图块类别信息,完成目标检测过程。
由上述内容可知,本发明建立了一种基于积受限玻尔兹曼机的无人机图像目标检测方法,对原始训练集数据进行旋转扩充,提高训练集数据量,通过卷积受限玻尔兹曼机计算样本高层特征进行分类,得到具有高准确率和鲁棒性的无人机图像目标检测模型。

Claims (2)

1.基于卷积受限玻尔兹曼机的无人机图像目标检测方法,其特征在于,包括以下步骤:
步骤1:获取航拍图像中的图块,构建初始训练样本数据集;
步骤2:对初始训练样本数据集进行扩充处理,将初始训练样本数据集和扩充后的训练样本数据集进行合并得到总的训练样本数据集;
采用多角度旋转变换方法对初始训练样本数据集进行扩充;
给定P个旋转角度θ={θ1,θ2,...,θp},以及对应的P个旋转变换 将旋转作用到初始训练样本数据集Sorign={s1,s2,...,sN}上,得到扩充后的训练样本数据集DSorign={Ds1,Ds2,...,DsN};
其中,
所述总的训练样本数据集S={Sorign,DSorign}={s1,s2,s3,...,sN,Ds1,Ds2,...,DsN};
N表示初始训练样本集合中训练样本的个数,表示旋转角度为θm的旋转变换,m=1,2,...,P,P表示旋转角度的总个数;
步骤3:构建卷积受限玻尔兹曼模型,采用两种不同尺寸的卷积核提取总的训练样本数据集的特征向量,根据特征向量计算可见层与隐藏层概率分布,解算受限玻尔兹曼机模型参数,完成卷积受限玻尔兹曼模型的训练;
两种不同尺寸的卷积核的大小分别为L1*L1和L2*L2,L2大于2倍的L1,L1*L1的卷积核用于提取总的训练样本数据集的初级局部特征和L2*L2的卷积核用于提取总的训练样本数据集的上下文特征,对于单个训练样本si图块共生成n维特征向量,记做Vi={v1,v2,...,vn},特征向量Vi作为受限玻尔兹曼机的输入;
所述卷积受限玻尔兹曼模型根据初始训练样本数据集的特征向量,计算可视层和隐藏层之间的概率分布;
所述受限玻尔兹曼机模型的可视层和隐藏层概率分布计算公式为:
可视层与隐藏层概率分布为:
其中,可视层边缘概率分布为:
其中,Z(θ)为归一化因子,Z(θ)=∑vhexp(-E(v,h)
步骤4:将航拍影像输入至训练后的卷积受限玻尔兹曼模型,得到目标检测分类结果,方法具体如下:
对航拍影像采用选择性搜索方法提取目标图块集合;
对目标图块进行缩放处理使其与训练图块大小一致,通过卷积运算提取样本初级特征;
将初级特征输入受限玻尔兹曼模型得到样本的高级特征,使用softmax分类器对高级特征进行分类,得到目标检测分类结果;
使用softmax分类器对高级特征进行分类,得到目标图块属于各类别的概率向量c={c1,c2,...,ck},取概率向量的最大值argmax(ci)所在的类别作为目标图块类别信息。
2.根据权利要求1所述的基于卷积受限玻尔兹曼机的无人机图像目标检测方法,其特征在于,步骤1中,所述图块包括含有目标的目标图像块,以及不含有目标的背景图像块。
CN202010055258.7A 2020-01-17 2020-01-17 基于卷积受限玻尔兹曼机的无人机图像目标检测方法 Active CN111291634B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010055258.7A CN111291634B (zh) 2020-01-17 2020-01-17 基于卷积受限玻尔兹曼机的无人机图像目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010055258.7A CN111291634B (zh) 2020-01-17 2020-01-17 基于卷积受限玻尔兹曼机的无人机图像目标检测方法

Publications (2)

Publication Number Publication Date
CN111291634A CN111291634A (zh) 2020-06-16
CN111291634B true CN111291634B (zh) 2023-07-18

Family

ID=71024206

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010055258.7A Active CN111291634B (zh) 2020-01-17 2020-01-17 基于卷积受限玻尔兹曼机的无人机图像目标检测方法

Country Status (1)

Country Link
CN (1) CN111291634B (zh)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108830326A (zh) * 2018-06-21 2018-11-16 河南工业大学 一种mri图像的自动分割方法及装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104091181A (zh) * 2014-07-15 2014-10-08 中国科学院合肥物质科学研究院 基于深度受限玻尔兹曼机的害虫图像自动识别方法及系统
CN104281853B (zh) * 2014-09-02 2017-11-17 电子科技大学 一种基于3d卷积神经网络的行为识别方法
CN106778571B (zh) * 2016-12-05 2020-03-27 天津大学 一种基于深度神经网络的数字视频特征提取方法
CN108171103B (zh) * 2016-12-07 2024-10-01 北京三星通信技术研究有限公司 目标检测方法及装置
CN107145893A (zh) * 2017-03-13 2017-09-08 中国矿业大学 一种基于卷积深度网络的图像识别算法及系统
CN107741781A (zh) * 2017-09-01 2018-02-27 中国科学院深圳先进技术研究院 无人机的飞行控制方法、装置、无人机及存储介质
CN109816030A (zh) * 2019-01-30 2019-05-28 河南科技大学 一种基于受限玻尔兹曼机的图像分类方法及装置
CN110490915B (zh) * 2019-08-19 2023-11-24 重庆大学 一种基于卷积受限玻尔兹曼机的点云配准方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108830326A (zh) * 2018-06-21 2018-11-16 河南工业大学 一种mri图像的自动分割方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于多级联卷积神经网络和条件随机场的脑肿瘤分割研究;甘清海;中国优秀硕士学位论文全文数据库 医药卫生科技辑(第2期);E070-255 *

Also Published As

Publication number Publication date
CN111291634A (zh) 2020-06-16

Similar Documents

Publication Publication Date Title
CN110363122B (zh) 一种基于多层特征对齐的跨域目标检测方法
Kampffmeyer et al. Semantic segmentation of small objects and modeling of uncertainty in urban remote sensing images using deep convolutional neural networks
Chen et al. Building change detection with RGB-D map generated from UAV images
CN109255317B (zh) 一种基于双网络的航拍图像差异检测方法
CN110033473B (zh) 基于模板匹配和深度分类网络的运动目标跟踪方法
CN111899172A (zh) 一种面向遥感应用场景的车辆目标检测方法
CN108596108B (zh) 基于三元组语义关系学习的航拍遥感图像变化检测方法
JP7439153B2 (ja) 全方位場所認識のためのリフトされたセマンティックグラフ埋め込み
CN108537121B (zh) 气象环境参数与图像信息融合的自适应遥感场景分类方法
Dos Santos et al. Matching color aerial images and underwater sonar images using deep learning for underwater localization
CN102122359B (zh) 一种图像配准方法及装置
CN117218343A (zh) 一种基于深度学习的语义部件姿态估计方法
CN106096658B (zh) 基于无监督深度空间特征编码的航拍图像分类方法
CN110969212A (zh) 基于空间变换三通道卷积的isar图像分类方法
CN103353941A (zh) 基于视角分类的自然标志物注册方法
Cao et al. Template matching based on convolution neural network for UAV visual localization
CN113436251B (zh) 一种基于改进的yolo6d算法的位姿估计系统及方法
Ren et al. Research on infrared small target segmentation algorithm based on improved mask R-CNN
CN110246165A (zh) 提高可见光图像与sar图像配准速度的方法及系统
CN113780240A (zh) 基于神经网络及旋转特征增强的物体位姿估计方法
CN111539362A (zh) 一种无人机图像目标检测装置及方法
CN111275680B (zh) 基于Gabor卷积网络的SAR图像变化检测方法
CN111291634B (zh) 基于卷积受限玻尔兹曼机的无人机图像目标检测方法
CN111563423A (zh) 基于深度去噪自动编码器的无人机图像目标检测方法及系统
CN106407902A (zh) 一种基于几何差异的飞机目标识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant