CN112487915A - 一种基于Embedded YOLO算法的行人检测方法 - Google Patents
一种基于Embedded YOLO算法的行人检测方法 Download PDFInfo
- Publication number
- CN112487915A CN112487915A CN202011335894.1A CN202011335894A CN112487915A CN 112487915 A CN112487915 A CN 112487915A CN 202011335894 A CN202011335894 A CN 202011335894A CN 112487915 A CN112487915 A CN 112487915A
- Authority
- CN
- China
- Prior art keywords
- embedded
- multiplied
- yolo
- size
- adopting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 53
- 238000012549 training Methods 0.000 claims abstract description 21
- 238000012360 testing method Methods 0.000 claims abstract description 19
- 238000013528 artificial neural network Methods 0.000 claims abstract description 7
- 230000006870 function Effects 0.000 claims description 23
- 238000010586 diagram Methods 0.000 claims description 21
- 230000004913 activation Effects 0.000 claims description 15
- 238000011156 evaluation Methods 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 11
- 230000006835 compression Effects 0.000 claims description 10
- 238000007906 compression Methods 0.000 claims description 10
- 238000005070 sampling Methods 0.000 claims description 10
- 230000004927 fusion Effects 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000004873 anchoring Methods 0.000 claims description 3
- 238000000034 method Methods 0.000 description 4
- 238000011176 pooling Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于Embedded YOLO算法的行人检测方法,包括以下步骤:(1)提取数据集中所有的行人图像数据,将提取到的图像数据随机划分为训练集和测试集;(2)基于深度卷积网络构建Embedded模块;(3)用Embedded模块堆叠并结合MobileNet、SPP和YOLO层组成整个Embedded YOLO检测网络模型;(4)利用训练集对Embedded YOLO模型的神经网络进行训练,获取最优的检测网络模型;5)对测试集中的图片数据进行检测,并对测试集的检测结果进行检测精度、速度和轻量化评价。本发明可用于相机采集的视频的实时行人检测,检测精度、速度和轻量化上均优于现有的Tiny YOLOV3、Tiny YOLOV4算法。
Description
技术领域
本发明涉及一种行人检测方法,尤其涉及一种基于Embedded YOLO算法的行人检测方法。
背景技术
行人是草坪环境的重要组成部分,行人检测是农业机械无人作业时环境感知的基础,快速而准确的行人检测是农业机器人实现自主避障、定位导航与农业智能化的前提条件。针对部署在嵌入式设备上行人检测研究具有十分重要的意义。
现有的Tiny YOLOV3算法采用传统的卷积方式和池化层交替堆叠形成特征检测网络,不仅计算量大,而且检测精度低,不适合部署在嵌入式设备。Yi Zhang等人在论文“Animproved tiny-yolov3 pedestrian detection algorithm”中,通过增加传统的3×3卷积层提高了对行人的检测精度,但是增加了模型复杂度和权重文件大小,并未能在提高行人检测精度的同时提高检测速度。现有技术还提出了Tiny YOLOV4算法,将Tiny YOLOV3中的部分传统卷积层替换为分组卷积,部分池化层替换为步长为2的传统3×3卷积,大大提高了检测精度,然而,检测速度和权重文件大小与Tiny YOLOV3相比并无明显优势。
发明内容
发明目的:本发明旨在提供一种检测精度高、检测速度快、具备良好的实时性和轻量化性能的基于Embedded YOLO算法的行人检测方法。
技术方案:本发明的基于Embedded YOLO算法的行人检测方法,其特征在于,包括以下步骤:
(1)提取数据集中所有的行人图像数据,将提取到的图像数据随机划分为训练集和测试集;
(2)基于深度卷积网络构建Embedded模块;
(3)用Embedded模块堆叠并结合MobileNet、SPP和YOLO层组成整个Embedded YOLO检测网络模型;
(4)利用训练集对Embedded YOLO模型的神经网络进行训练,获取最优的检测网络模型;
(5)利用步骤(4)获取的模型对测试集中的图片数据进行检测,并对测试集的检测结果进行检测精度、速度和轻量化评价。
所述步骤(1)中具体包括以下步骤:
(11)提取数据集中所有的person类别的图像数据,至少4000份图像或视频文件;
(12)按照8:2的比例划分为训练集和测试集。
所述步骤(2)中构建Embedded模块具体包括以下步骤:
(21)将输入Embedded模块的特征图采用1×1卷积层进行通道扩张,扩张为原来的n1倍,n1为偶数,采用LeakyRelu激活函数;
(22)对上步输出的特征图采用3×3的深度卷积进行特征提取,保持通道数和上步一致,采用LeakyRelu激活函数;
(23)对上步输出的特征图采用1×1卷积层进行通道压缩,压缩为上步输出特征图的三分之一,Embedded模块起始输入为上步输出特征图的2倍,采用Linear激活函数;
(24)重复一次(21)~(23)步骤,其中,步骤(21)的扩张倍数改为n2,n2为偶数,各步骤的压缩倍数和激活函数保持不变;
(25)将步骤(24)和(23)的输出进行shortcut连接;
(26)对步骤(25)的输出采用1×1卷积进行通道融合,通道数不变,激活函数采用LeakyRelu;
(27)将上步输出与Embedded模块的输入进行shortcut连接。
所述步骤(3)中具体包括以下步骤:
(31)将输入图像尺寸归一化处理为352×352×3,采用步长为2的3×3卷积,对于输入图像2倍下采样,得到尺寸为176×176×16的特征图;
(32)堆叠方式为:对于尺寸为176×176的特征图仅采用一个步长为2的MobileNet模块实现2倍下采样同时进行特征提取,得到88×88的特征图;
(33)对于尺寸为88×88的特征图采用步长分别为1和2的MobileNet模块依次实现特征提取和2倍下采样,得到尺寸为44×44特征图;
(34)对于尺寸为44×44特征图依次采用的Embedded模块数量为3、1和1,中间得到的22×22、11×11特征图分别再采用一个步长为2的MobileNet模块进行下采样;
(35)采用SPP模块进行多重感受野融合。
所述步骤(4)中具体包括以下步骤:
(41)设置初始参数,包括图片输入尺寸、动量参数、权重衰减正则项参数、图片角度变化参数、饱和度与曝光变化参数、色调变化参数、初始学习率、训练总轮数;
(42)使用kmeans++算法在训练集上聚类出锚定框尺寸;
(43)损失函数采用CIOU指标,设置参与损失计算的IOU阈值。
所述步骤(5)中以行人类别的AP值作为检测精度的评价指标,FPS值作为速度的评价指标,所述FPS值为单位时间内检测的测试集图片数量,权重文件大小作为轻量化的评价指标。
有益效果:与现有技术相比,本发明具有如下显著优点:
(1)本发明的Embedded YOLO网络模型连接方式具有较高的检测精度、检测速度、良好的实时性和优异的轻量化性能,行人检测的AP值为69.73%,检测速度为267张/秒,权重文件大小为7.23MB。
(2)本发明通过对测试集的行人图像数据经过Embedded YOLO算法处理,即可获得图像中的行人类别、位置信息,相比较于现有的Tiny YOLOV3、Tiny YOLOV4算法,本发明所述的行人算法更加高效便捷。
附图说明
图1为本发明的Embedded模块流程图。
图2为本发明所采用的MobileNet流程图。
图3为本发明所采用的SPP流程图。
图4为本发明的总体流程图。
具体实施方式
下面结合附图对本发明的技术方案作进一步说明。
(1)数据集的提取:提取PASCAL VOC2007数据集中所有的person类别。共计4012张,按照8:2的比例划分为训练集和测试集,其中训练集3212张,测试集800张。
(2)提出了Embedded模块,如图1所示,采用深度卷积代替传统的卷积,并用Embedded模块堆叠并结合MobileNet(如图2)、SPP(如图3)和YOLO层组成整个检测网络。
首先,用深度卷积、1×1卷积和shortcut连接方式组成Embedded模块,其次,采用Embedded模块搭建Embedded YOLO网络,将输入图像尺寸归一化为352×352×3,并将归一化处理后的图像输入至Embedded YOLO神经网络的特征提取层,得到22×22,11×11两种不同尺度的特征图,继而,分别对两种不同尺度的特征图进行特征融合、上采样和特征融合后得到两种不同的张量数据,并通过损失函数计算张量数据与真实值之间的损失值,最后,反向传播更新权重,多轮迭代后得到基于Embedded YOLO算法的神经网络检测模型。如图4所示,具体包括以下步骤:
(21)Embedded模块首先将输入的特征图采用1×1卷积层进行通道扩张,扩张为原来的n1倍(n1为偶数),采用LeakyRelu激活函数;
(22)对上步输出的扩张后的特征图采用3×3的深度卷积进行特征提取,保持通道数和上步一致,采用LeakyRelu激活函数,普通(2D)卷积和深度卷积(Dwise)运算计算量公式如下:
上式中BFLOPs(billion float operations)为浮点运算次数,表示计算量;Cin,Cout分别表示输入、输出通道数;K表示卷积核尺寸;H,W分别表示输出特征图的宽、高。由此可见,深度卷积在计算量上比普通卷积更少;
(23)对上步输出的特征图采用1×1卷积层进行通道压缩,压缩为上步输出特征图的三分之一,Embedded模块起始输入的2倍以融合通道信息,采用Linear激活函数;
(24)重复一次以上三步,其中,扩张倍数改为n2(n2为偶数),压缩倍数和激活函数保持不变;将两次压缩后的特征图进行shortcut连接;对连接后的输出采用1×1卷积进行通道融合,通道数不变,激活函数采用LeakyRelu;将融合后的输出与Embedded模块的输入进行shortcut连接,完成Embedded模块的搭建;
(25)网络整体搭建时,将输入图像尺寸归一化为352×352×3,采用步长为2的3×3卷积,对于输入图像2倍下采样,得到尺寸为176×176×16的特征图;
采用一个步长为2的MobileNet模块实现2倍下采样同时进行特征提取,得到88×88的特征图;
对88×88的特征图采用步长为1和2的MobileNet模块依次实现特征提取和2倍下采样,最终得到尺寸为44×44的特征图;
(26)对于尺寸为44×44特征图依次采用的Embedded模块数量为3、1和1,中间得到的22×22、11×11特征图分别再采用一个步长为2的MobileNet模块进行下采样;
(27)采用SPP模块进行多重感受野融合。
(3)设置神经网络中的训练参数;使用kmeans++算法在树木训练集上聚类出锚定框尺寸;利用训练集对Embedded YOLO算法的神经网络进行训练,获取最优的检测模型;损失函数采用CIOU指标。基于CIOU指标的损失函数公式如下:
上式中,LCIOU表示以CIOU为指标的损失函数,IOU表示预测框和真实框所交的面积与所并的面积的比值,b,bgt分别表示预测框和真实框的中心点,ρ表示b,bgt之间的欧式距离,α是用于做trade-off的参数,ν是衡量预测框真实框长宽比一致性的参数,wgt,hgt为真实框的宽和高,w,h为预测框的宽和高。
(4)根据精度评价指标AP、速度评价指标FPS和轻量化评价指标权重文件大小评价优化Embedded YOLO神经网络模型。评价指标AP的计算过程如下:
(41)计算person类别的AP值。首先要计算单张图像属于该类别的准确率P,计算公式如下:
上式中,N(TruePositions)代表单张图像中正确预测为person类别的目标数量,N(TotalObjects)代表测试集中含有person类别的图像总数。
上式中,∑P代表测试集所有图像的属于person类的准确率之和,N(TotalImages)代表测试集中含有person类的图像总数。
(42)通过上述对检测精度评价指标AP的计算,得出对行人类别的AP值为69.73%,比现有的Tiny YOLOV3、Tiny YOLOV4分别提高了7.89%、1.38%;
(43)采用配置i7-9700KF,RTX2070 super,CUDA10.2,OpenCV3.4.0的电脑对测试集800张图片进行检测,耗时3秒,FPS为267,比现有的Tiny YOLOV3、Tiny YOLOV4分别提高了33.50%、33.50%;
(44)权重文件大小为7.23MB,比现有的Tiny YOLOV3、Tiny YOLOV4分别降低了78.16%、67.77%,本发明提出的基于Embedded YOLO算法的行人检测方法在检测精度、速度和轻量化上对比Tiny YOLOV3、Tiny YOLOV4均有明显优势。
Claims (7)
1.一种基于Embedded YOLO算法的行人检测方法,其特征在于,包括以下步骤:
(1)提取数据集中所有的行人图像数据,将提取到的图像数据随机划分为训练集和测试集;
(2)基于深度卷积网络构建Embedded模块;
(3)用Embedded模块堆叠并结合MobileNet、SPP和YOLO层组成整个Embedded YOLO检测网络模型;
(4)利用训练集对Embedded YOLO模型的神经网络进行训练,获取最优的检测网络模型;
(5)利用步骤(4)获取的模型对测试集中的图片数据进行检测,并对测试集的检测结果进行检测精度、速度和轻量化评价。
2.根据权利要求1所述的基于Embedded YOLO算法的行人检测方法,其特征在于,所述步骤(1)中具体包括以下步骤:
(11)提取数据集中所有的person类别的图像数据,至少4000份图像或视频文件;
(12)按照8:2的比例划分为训练集和测试集。
3.根据权利要求1所述的基于Embedded算法的行人检测方法,其特征在于,所述步骤(2)中构建Embedded模块具体包括以下步骤:
(21)将输入Embedded模块的特征图采用1×1卷积层进行通道扩张,扩张为原来的n1倍,n1为偶数,采用LeakyRelu激活函数;
(22)对上步输出的特征图采用3×3的深度卷积进行特征提取,保持通道数和上步一致,采用LeakyRelu激活函数;
(23)对上步输出的特征图采用1×1卷积层进行通道压缩,压缩为上步输出特征图的三分之一,Embedded模块起始输入为上步输出特征图的2倍,采用Linear激活函数;
(24)重复一次(21)~(23)步骤,其中,步骤(21)的扩张倍数改为n2,n2为偶数,各步骤的压缩倍数和激活函数保持不变;
(25)将步骤(24)和(23)的输出进行shortcut连接;
(26)对步骤(25)的输出采用1×1卷积进行通道融合,通道数不变,激活函数采用LeakyRelu;
(27)将上步输出与Embedded模块的输入进行shortcut连接。
4.根据权利要求3所述的基于Embedded算法的行人检测方法,其特征在于,所述步骤(3)中具体包括以下步骤:
(31)将输入图像尺寸归一化处理为352×352×3,采用步长为2的3×3卷积,对于输入图像2倍下采样,得到尺寸为176×176×16的特征图;
(32)堆叠方式为:对于尺寸为176×176的特征图仅采用一个步长为2的MobileNet模块实现2倍下采样同时进行特征提取,得到88×88的特征图;
(33)对于尺寸为88×88的特征图采用步长分别为1和2的MobileNet模块依次实现特征提取和2倍下采样,得到尺寸为44×44特征图;
(34)对于尺寸为44×44特征图依次采用的Embedded模块数量为3、1和1,中间得到的22×22、11×11特征图分别再采用一个步长为2的MobileNet模块进行下采样;
(35)采用SPP模块进行多重感受野融合。
5.根据权利要求1所述的基于Embedded YOLO算法的行人检测方法,其特征在于,所述步骤(4)中具体包括以下步骤:
(41)设置初始参数,包括图片输入尺寸、动量参数、权重衰减正则项参数、图片角度变化参数、饱和度与曝光变化参数、色调变化参数、初始学习率、训练总轮数;
(42)使用kmeans++算法在训练集上聚类出锚定框尺寸;
(43)损失函数采用CIOU指标,设置参与损失计算的IOU阈值。
7.根据权利要求1所述的基于Embedded YOLO算法的行人检测方法,其特征在于,所述步骤(5)中以行人类别的AP值作为检测精度的评价指标,FPS值作为速度的评价指标,所述FPS值为单位时间内检测的测试集图片数量,权重文件大小作为轻量化的评价指标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011335894.1A CN112487915B (zh) | 2020-11-25 | 2020-11-25 | 一种基于Embedded YOLO算法的行人检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011335894.1A CN112487915B (zh) | 2020-11-25 | 2020-11-25 | 一种基于Embedded YOLO算法的行人检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112487915A true CN112487915A (zh) | 2021-03-12 |
CN112487915B CN112487915B (zh) | 2024-04-23 |
Family
ID=74934032
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011335894.1A Active CN112487915B (zh) | 2020-11-25 | 2020-11-25 | 一种基于Embedded YOLO算法的行人检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112487915B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113255521A (zh) * | 2021-05-26 | 2021-08-13 | 青岛以萨数据技术有限公司 | 一种面向嵌入式平台的双模目标检测方法及系统 |
CN113468992A (zh) * | 2021-06-21 | 2021-10-01 | 四川轻化工大学 | 基于轻量化卷积神经网络的施工现场安全帽佩戴检测方法 |
CN113657414A (zh) * | 2021-10-19 | 2021-11-16 | 广州微林软件有限公司 | 一种物体识别方法 |
CN113762190A (zh) * | 2021-09-15 | 2021-12-07 | 中科微至智能制造科技江苏股份有限公司 | 一种基于神经网络的包裹堆叠检测方法及装置 |
CN114359698A (zh) * | 2021-12-06 | 2022-04-15 | 江苏科技大学 | 一种基于双向跨跃反馈循环结构声纳图像识别方法及系统 |
CN114359698B (zh) * | 2021-12-06 | 2024-06-04 | 江苏科技大学 | 一种基于双向跨跃反馈循环结构声纳图像识别方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190104954A1 (en) * | 2017-03-08 | 2019-04-11 | Praesidium, Inc. | Home occupant detection and monitoring system |
CN110070142A (zh) * | 2019-04-29 | 2019-07-30 | 上海大学 | 一种基于yolo神经网络的海上船只目标检测方法 |
CN110348376A (zh) * | 2019-07-09 | 2019-10-18 | 华南理工大学 | 一种基于神经网络的行人实时检测方法 |
CN111178206A (zh) * | 2019-12-20 | 2020-05-19 | 山东大学 | 一种基于改进yolo的建筑预埋件检测方法及系统 |
CN111339858A (zh) * | 2020-02-17 | 2020-06-26 | 电子科技大学 | 一种基于神经网络的油气管道标志物识别方法 |
CN111898651A (zh) * | 2020-07-10 | 2020-11-06 | 江苏科技大学 | 一种基于Tiny YOLOV3算法的树木检测方法 |
-
2020
- 2020-11-25 CN CN202011335894.1A patent/CN112487915B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190104954A1 (en) * | 2017-03-08 | 2019-04-11 | Praesidium, Inc. | Home occupant detection and monitoring system |
CN110070142A (zh) * | 2019-04-29 | 2019-07-30 | 上海大学 | 一种基于yolo神经网络的海上船只目标检测方法 |
CN110348376A (zh) * | 2019-07-09 | 2019-10-18 | 华南理工大学 | 一种基于神经网络的行人实时检测方法 |
CN111178206A (zh) * | 2019-12-20 | 2020-05-19 | 山东大学 | 一种基于改进yolo的建筑预埋件检测方法及系统 |
CN111339858A (zh) * | 2020-02-17 | 2020-06-26 | 电子科技大学 | 一种基于神经网络的油气管道标志物识别方法 |
CN111898651A (zh) * | 2020-07-10 | 2020-11-06 | 江苏科技大学 | 一种基于Tiny YOLOV3算法的树木检测方法 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113255521A (zh) * | 2021-05-26 | 2021-08-13 | 青岛以萨数据技术有限公司 | 一种面向嵌入式平台的双模目标检测方法及系统 |
CN113468992A (zh) * | 2021-06-21 | 2021-10-01 | 四川轻化工大学 | 基于轻量化卷积神经网络的施工现场安全帽佩戴检测方法 |
CN113468992B (zh) * | 2021-06-21 | 2022-11-04 | 四川轻化工大学 | 基于轻量化卷积神经网络的施工现场安全帽佩戴检测方法 |
CN113762190A (zh) * | 2021-09-15 | 2021-12-07 | 中科微至智能制造科技江苏股份有限公司 | 一种基于神经网络的包裹堆叠检测方法及装置 |
CN113657414A (zh) * | 2021-10-19 | 2021-11-16 | 广州微林软件有限公司 | 一种物体识别方法 |
CN113657414B (zh) * | 2021-10-19 | 2022-02-11 | 广州微林软件有限公司 | 一种物体识别方法 |
CN114359698A (zh) * | 2021-12-06 | 2022-04-15 | 江苏科技大学 | 一种基于双向跨跃反馈循环结构声纳图像识别方法及系统 |
CN114359698B (zh) * | 2021-12-06 | 2024-06-04 | 江苏科技大学 | 一种基于双向跨跃反馈循环结构声纳图像识别方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN112487915B (zh) | 2024-04-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112487915A (zh) | 一种基于Embedded YOLO算法的行人检测方法 | |
CN110188705B (zh) | 一种适用于车载系统的远距离交通标志检测识别方法 | |
CN111898651B (zh) | 一种基于Tiny YOLOV3算法的树木检测方法 | |
CN110348376B (zh) | 一种基于神经网络的行人实时检测方法 | |
CN110163187B (zh) | 基于f-rcnn的远距离交通标志检测识别方法 | |
CN111832655B (zh) | 一种基于特征金字塔网络的多尺度三维目标检测方法 | |
CN112270249A (zh) | 一种融合rgb-d视觉特征的目标位姿估计方法 | |
CN108596108B (zh) | 基于三元组语义关系学习的航拍遥感图像变化检测方法 | |
CN110309842B (zh) | 基于卷积神经网络的物体检测方法及装置 | |
CN107784663A (zh) | 基于深度信息的相关滤波跟踪方法及装置 | |
CN113160062B (zh) | 一种红外图像目标检测方法、装置、设备及存储介质 | |
CN113780211A (zh) | 一种基于改进型Yolov4-tiny的轻量级飞机检测方法 | |
CN116258817B (zh) | 一种基于多视图三维重建的自动驾驶数字孪生场景构建方法和系统 | |
CN113011329A (zh) | 一种基于多尺度特征金字塔网络及密集人群计数方法 | |
CN107944437B (zh) | 一种基于神经网络和积分图像的人脸定位方法 | |
CN112364931A (zh) | 基于元特征和权重调整的少样本目标检测方法及网络模型 | |
CN116222577B (zh) | 闭环检测方法、训练方法、系统、电子设备及存储介质 | |
JP2020119505A (ja) | マルチカメラシステム内のダブルエンベディング構成を利用して、道路利用者イベントを検出するために用いられるセグメンテーション性能向上のための学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置。{learning method and learning device for improving segmentation performance to be used for detecting road user events using double embedding configuration in multi−camera system and testing method and testing device using the same} | |
CN109063549A (zh) | 基于深度神经网络的高分辨率航拍视频运动目标检测方法 | |
CN111753682A (zh) | 一种基于目标检测算法的吊装区域动态监控方法 | |
CN110705566A (zh) | 一种基于空间金字塔池的多模态融合显著性检测方法 | |
CN111414954A (zh) | 一种岩石图像检索方法及其系统 | |
CN111797920A (zh) | 门控特征融合的深度网络不透水面遥感提取方法及系统 | |
CN114299405A (zh) | 一种无人机图像实时目标检测方法 | |
CN116524189A (zh) | 一种基于编解码索引化边缘表征的高分辨率遥感图像语义分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |