CN116805366A - 一种基于改进Yolov7-tiny的轻量化目标检测方法 - Google Patents

一种基于改进Yolov7-tiny的轻量化目标检测方法 Download PDF

Info

Publication number
CN116805366A
CN116805366A CN202310767285.0A CN202310767285A CN116805366A CN 116805366 A CN116805366 A CN 116805366A CN 202310767285 A CN202310767285 A CN 202310767285A CN 116805366 A CN116805366 A CN 116805366A
Authority
CN
China
Prior art keywords
module
layer
model
target detection
tiny
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310767285.0A
Other languages
English (en)
Inventor
王文聘
张青春
张恩浦
宁建峰
文张源
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huaiyin Institute of Technology
Original Assignee
Huaiyin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huaiyin Institute of Technology filed Critical Huaiyin Institute of Technology
Priority to CN202310767285.0A priority Critical patent/CN116805366A/zh
Publication of CN116805366A publication Critical patent/CN116805366A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明涉及机器视觉与目标检测技术领域,公开了一种基于改进Yolov7‑tiny的轻量化目标检测方法,本发明采用更加轻量的FasterNet网络替换原有主干网络,在Neck层使用PConv卷积替代部分Conv卷积来减少计算冗余和内存访问,从而有效降低模型的参数量和计算量。此外,引入CA注意力机制,使得模型网络可以同时捕获跨通道信息、方向感知信息和位置感知信息,在避免模型网络引入大开销的同时提高了目标检测的精度,并引入Focal‑EIoU损失函数来优化模型的收敛速度和效率。与现有技术相比,本发明在保持较高检测精度的同时,满足了在轻量化方面的需求。

Description

一种基于改进Yolov7-tiny的轻量化目标检测方法
技术领域
本发明涉及机器视觉与目标检测技术领域,具体涉及一种基于改进Yolov7-tiny的轻量化目标检测方法。
背景技术
随着深度学习技术的不断发展,机器视觉领域成为了一项热门研究方向,目标检测技术作为机器视觉领域中的重要研究方向之一,被广泛应用于人脸识别、智能安防、智能交通、自动驾驶等领域。然而,随着目标检测技术对复杂场景、多目标检测的需求,一些结构复杂、高精度的目标检测模型被训练出来,伴随着模型检测能力的提升,模型的参数量、计算量也逐渐攀升,这将导致模型不便于部署在嵌入式设备上。因此,对目标检测模型轻量化处理显得尤为重要。基于深度学习的目标检测技术分为双阶段检测和单阶段检测。双阶段检测模型以R-CNN(Regions with CNN features,区域卷积神经网络)系列为主,模型检测精度高,但同时含有大量的参数,导致无法满足嵌入式终端设备部署的需求。与双阶段检测相比,单阶段检测模型以Yolo(You Only Look Once,YOLO)系列为主,可以实现端到端的检测,具有更少的参数量,花费更少的时间,但是精度稍低于双阶段检测模型。
当前Yolo系列模型在目标检测领域取得重大突破,以其速度快、检测精度高的优点受到广泛关注。然而,在轻量化目标检测领域,模型在嵌入式设备上存在运行速度慢、耗时长的问题。为了解决这个问题,薄景文等人提出使用ShuffleNetv2网络替换主干网络来实现模型轻量化。宋中山等人提出使用融合SENet模块ShuffleNetv2网络替换主干网络降低网络计算复杂度。张利红等人提出使用MobileNetv2替换backbone达到网络轻量化的目的。吴珺等人提出添加网络模型与注意力机制融合达到轻量化的目的。虽然,通过改变主干网络或添加注意力机制可以实现网络轻量化,但是该方法往往不能兼顾高精度与轻量化的需求。
发明内容
发明目的:针对现有技术中存在的问题,本发明以Yolo系列作为研究目标,选用当前轻量化模型Yolov7-tiny,并提出了一种基于改进Yolov7-tiny的轻量化目标检测方法。
技术方案:本发明提供了一种基于改进Yolov7-tiny的轻量化目标检测方法,包括如下步骤:
S1:数据采集与处理:从真实场景中收集大量的图像数据,并对采集到的数据进行预处理;
S2:将采集到的数据集构建Yolo格式数据集,将S1采集到的图像中,每个目标标注其类别、位置和大小信息,还对标注数据进行筛选和清洗,最后将标注的xml文件转化成Yolo目标检测算法可以识别的格式;
S3:在Yolov7-tiny网络模型基础上进行改进,将Yolov7-tiny模型Backbone网络中CBS模块去除,并使用FasterNet模块和BasicStage模块对ELAN模块和MP模块进行替换;将Neck网络中C3模块替换为PConv模块,并在PConv模块后添加CA注意力模块;最后将Yolov7-tiny中CIoU损失函数替换为Focal-EIoU损失函数;
S4:使用改进后的Yolov7-tiny轻量化模型进行训练评估,在训练过程中选择合适的超参数、优化器和损失函数;
S5:对模型训练后的数据进行分析判断,并对模型进行调整和优化,保留训练后最优权重模型;将训练后的模型进行实验测试。
进一步地,所述步骤3中使用FasterNet块和BasicStage模块对ELAN模块和MP模块进行替换具体为:
第一层ELAN模块采用步长为4的FasterNet模块进行替换,第三层、第五层和第七层ELAN模块采用步长为2的FasterNet模块进行替换,MP模块采用步长为1的BasicStage模块进行替换。
进一步地,所述FasterNet模块有四个分层阶段,每个阶段都有一个嵌入层或一个合并层前置,用于空间下采样和通道数扩展;每个阶段有一个FasterNet块,每个FasterNet块都包含一个PConv层和两个PWConv层;FasterNet模块归一化层采用批量归一化;激活层放置在每个中间PWConv之后,最后全局平均池化层、1×1卷积层和全连接层用于特征转换和分类。
进一步地,所述嵌入层为步长为4的常规Conv 4×4;所述合并层为步长为2的常规Conv2×2。
进一步地,所述PConv模块通过将输入特征图分成多个子特征图,并为每个子特征图分配一个独立的卷积核进行处理,所述子特征图可以是空间上划分的不重叠区域,也可以是按通道划分的子组。
进一步地,所述Focal-EIoU损失函数具体为:
EIoU Loss损失函数如公式(1):
Focal Loss如公式(2):
LFL=-(1-pt)γlog(pt) (2)
将EIoU Loss和Focal Loss公式进行整合,得到最终的Focal-EIoU损失函数,其公式如下:
LFE-IoU=IoUγLEIoU (3)
LFE-IoU=-(1-IoU)γlog(IoU)EIoU (4)
有益效果:
本发明针对当前目标检测算法模型参数量和计算量大,难以在嵌入式设备端部署的问题,提出了一种基于改进Yolov7-tiny的轻量化目标检测方法。具体而言,该方法采用更加轻量的FasterNet网络替换原有主干网络,在Neck层使用PConv卷积替代部分Conv卷积来减少计算冗余和内存访问,从而有效降低模型的参数量和计算量。此外,引入CA注意力机制,使得模型网络可以同时捕获跨通道信息、方向感知信息和位置感知信息,在避免模型网络引入大开销的同时提高了目标检测的精度,并引入Focal-EIoU损失函数来优化模型的收敛速度和效率。实验结果表明,在自建数据集中,该方法在mAP@0.5上提高了7.7%,在参数量和计算量上分别降低24%和20.4%,同时模型权重文件也降低了27.2%。该方法在保持较高检测精度的同时,满足了在轻量化方面的需求。
附图说明
图1为本发明改进Yolov7-tiny的轻量化目标检测方法流程图;
图2为本发明改进Yolov7-tiny网络模型图;
图3为本发明FasterNet网络结构图;
图4为本发明PConv卷积模块图;
图5为本发明使用Yolov7-tiny模型的检测效果图;
图6为本发明使用改进后的Yolov7-tiny模型的检测效果图。
具体实施方式
下面结合附图对本发明作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
本发明公开了一种基于改进Yolov7-tiny的轻量化目标检测方法,包括如下步骤:
S1:数据采集与处理:从真实场景中收集大量的图像数据,并对采集到的数据进行预处理,预处理包括图像出兑调整、颜色空间转换、数据增强等,以提高模型的鲁棒性和泛化能力。
S2:将采集到的数据集构建Yolo格式数据集,将S1采集到的图像中,每个目标标注其类别、位置和大小信息,一般采用专业的标注工具进行标注。还对标注数据进行筛选和清洗,最后将标注的xml文件转化成Yolo目标检测算法可以识别的格式。
S3:在Yolov7-tiny网络模型基础上进行改进,将Yolov7-tiny模型Backbone网络中CBS模块去除,并使用FasterNet模块和BasicStage模块对ELAN模块和MP模块进行替换,其中,第一层ELAN模块采用步长为4的FasterNet模块进行替换,第三层、第五层和第七层ELAN模块采用步长为2的FasterNet模块进行替换,MP模块采用步长为1的BasicStage模块进行替换。将Neck网络中C3模块替换为PConv模块,并在PConv模块后添加CA注意力模块,可以有效提高模型的特征表达能力和检测精度。最后将Yolov7-tiny中CIoU损失函数替换为Focal-EIoU损失函数,从而有效解决样本不平衡问题,进一步提高模型的性能。
FasterNet网络有四个分层阶段,每个阶段都有一个嵌入层(步长为4的常规Conv4×4)或一个合并层(步长为2的常规Conv 2×2)前置,用于空间下采样和通道数扩展。每个阶段有一个FasterNet块,每个FasterNet块都包含一个PConv层和两个PWConv层。此外,该网络归一化层采用批量归一化(BN),以实现更快的推理;激活层放置在每个中间PWConv之后,以保持特征多样性并实现较低的延迟。最后,全局平均池化层、1×1卷积层和全连接层用于特征转换和分类。总体而言,FasterNet网络在减少计算量和参数量的同时,实现了较高的检测准确率和较快的检测速度。FasterNet网络结构如图3所示。
为了减少计算冗余和内存访问,采用了一种基于图像修复和语义分割任务的卷积操作,即PConv卷积,如图4所示。该卷积操作仅对一部分输入通道应用常规Conv进行空间特征提取,其余通道保持不变。此外为了避免连续或常规的测内存访问,它将第一个或最后一个连续的通道视为整个特征图的代表,因此输入和输出特征图具有相同数量的通道。通过这种设计可以节省内存空间,并且不会影响模型的性能。
Focal-EIoU损失函数具体为:
EIoU Loss损失函数如公式(1):
Focal Loss如公式(2):
LFL=-(1-pt)γlog(pt) (2)
将EIoU Loss和Focal Loss公式进行整合,得到最终的Focal-EIoU损失函数,其公式如下:
LFE-IoU=IoUγLEIoU (3)
LFE-IoU=-(1-IoU)γlog(IoU)EIoU (4)
S4:使用改进后的Yolov7-tiny轻量化模型进行训练评估,在训练过程中,首先需要选择合适的超参数、优化器和损失函数,合理划分训练集、验证集和测试集,以进行模型的训练和评估。
S5:对模型训练后的数据进行分析判断,并对模型进行调整和优化,保留训练后最优权重模型,将训练后的模型进行实验测试。可以采用可视化工具对模型的损失和精确率等指标的变化趋势进行分析,并对模型进行调整和优化,以提高模型的性能。如果,修改后的模型在损失、精确率和参数量等参数上相比原模型有更优秀的表现,则选取当前训练结果作为最优模型,否则模型训练不达标,继续调整训练参数,进行下一轮训练。保留训练后最优权重模型。经过筛选,得到的最优权重模型,相比原模型在精度保持提升的同时,在参数量和计算量上同比降低,这意味着该模型能够更快、更准确地进行目标检测,并且在嵌入式设备端部署更便捷。
本实施例实验平台基于Linux操作系统运行,训练平台采用Nvidia GeForce RTX3090-24GGPU,Intel(R)Xeon(R)CPU E5-2680 v428G 28核CPU处理器,代码运行框架为PyTorch,运行环境为Python3.8,CUDA11.3。
为验证本文改进点对算法性能提升起到的效果,本文设计了以下实验,在Yolov7-tiny骨干网络基础上添加了一些列改进点,包括FasterNet网络结构、PConv卷积、Focal-EIoU损失函数、CBAM注意力机制、CA注意力机制,用于测试对算法性能的影响。其中T1~T6表示添加改进点后的模型。实验结果如表1所示。
表1消融实验对比
从实验结果可以看出,更改模型主干网络和替换普通卷积可以实现模型参数量、计算量以及权重的降低。将损失函数更改为Focal-EIoU和Eocal-CIoU后,模型收敛效果更好,计算量相比降低了6.2%,但Focal-CIoU损失函数在精度上下降了2%,因此,相比而言Focal-EIoU更适合于应用。最后通过嵌入注意力模块,可以提高目标的关注度,增强模型性能。通过实验得出,在Neck层嵌入CBAM和CA注意力模块参数量分别降低12%、12.3%,权值分别降低11.5%,11.3%,但CA模块在精度上提升显著,相比于原模型提高了7.7%,因此,选用CA模块作为模型添加的注意力机制。
为了进一步验证本文算法性能的有效性,本文选择了当前主流的单阶段目标检测算法模型进行设计对比试验。其中包括经典的Yolov3-tiny和Yolov5s,以及轻量化的Yolov7-tiny,同时也包括本文提出的新算法模型。这些模型在骨干网络、颈部网络和预测头等方面均有所不同,因此对比试验将有助于评估各模型在不同场景下的表现。具体而言,对比试验将分别在精度、参数量、计算量等方面进行评估,以便进行可视化比较分析。对比试验如表2所示。
表2算法模型实验对比
由表3实验结果可以看出,本文算法在参数量、mAP@0.5、计算速度、权重上表现优异,在参数量上,本文算法与轻量级网络模型Yolov3-tiny、Yolov7-tiny相比降低了47%,24%,在mAP@0.5上与Yolov3-tiny、Yolov7-tiny相比提升了9.4%,7.7%,与当前主流的Yolov5s相比较在精度上已达到相当水平,在参数量和计算量上占有绝对的优势,此外,本算法在计算量上相比于轻量级网络Yolov3-tiny、Yolov7-tiny降低了19.2%,20.4%,权重值降低了48.6%,27.2%,综上,改进后的算法模型更容易在移动端设备部署。
为了测试改进后模型检测的效果,在行人车辆检测场景下,分别采用改进模型与原模型进行检测。图5展示了原模型的检测效果,图6展示了改进模型的检测效果。原模型采用Yolov7-tiny权重文件进行测试,目标检测识别时间为2.5ms,而改进模型目标检测识别时间为2.2ms,通过检测效果图可以看出,改进后的模型对人、车辆漏检率更低,识别精度更高。
上述实施方式只为说明本发明的技术构思及特点,其目的在于让熟悉此项技术的人能够了解本发明的内容并据以实施,并不能以此限制本发明的保护范围。凡根据本发明精神实质所做的等效变换或修饰,都应涵盖在本发明的保护范围之内。

Claims (6)

1.一种基于改进Yolov7-tiny的轻量化目标检测方法,其特征在于,包括如下步骤:
S1:数据采集与处理:从真实场景中收集大量的图像数据,并对采集到的数据进行预处理;
S2:将采集到的数据集构建Yolo格式数据集,将S1采集到的图像中,每个目标标注其类别、位置和大小信息,还对标注数据进行筛选和清洗,最后将标注的xml文件转化成Yolo目标检测算法可以识别的格式;
S3:在Yolov7-tiny网络模型基础上进行改进,将Yolov7-tiny模型Backbone网络中CBS模块去除,并使用FasterNet模块和BasicStage模块对ELAN模块和MP模块进行替换;将Neck网络中C3模块替换为PConv模块,并在PConv模块后添加CA注意力模块;最后将Yolov7-tiny中CIoU损失函数替换为Focal-EIoU损失函数;
S4:使用改进后的Yolov7-tiny轻量化模型进行训练评估,在训练过程中选择合适的超参数、优化器和损失函数;
S5:对模型训练后的数据进行分析判断,并对模型进行调整和优化,保留训练后最优权重模型;将训练后的模型进行实验测试。
2.根据权利要求1所述的基于改进Yolov7-tiny的轻量化目标检测方法,其特征在于,所述步骤3中使用FasterNet块和BasicStage模块对ELAN模块和MP模块进行替换具体为:
第一层ELAN模块采用步长为4的FasterNet模块进行替换,第三层、第五层和第七层ELAN模块采用步长为2的FasterNet模块进行替换,MP模块采用步长为1的BasicStage模块进行替换。
3.根据权利要求1或2所述的基于改进Yolov7-tiny的轻量化目标检测方法,其特征在于,所述FasterNet模块有四个分层阶段,每个阶段都有一个嵌入层或一个合并层前置,用于空间下采样和通道数扩展;每个阶段有一个FasterNet块,每个FasterNet块都包含一个PConv层和两个PWConv层;FasterNet模块归一化层采用批量归一化;激活层放置在每个中间PWConv之后,最后全局平均池化层、1×1卷积层和全连接层用于特征转换和分类。
4.根据权利要求3所述的基于改进Yolov7-tiny的轻量化目标检测方法,其特征在于,所述嵌入层为步长为4的常规Conv 4×4;所述合并层为步长为2的常规Conv 2×2。
5.根据权利要求1所述的基于改进Yolov7-tiny的轻量化目标检测方法,其特征在于,所述PConv模块通过将输入特征图分成多个子特征图,并为每个子特征图分配一个独立的卷积核进行处理,所述子特征图可以是空间上划分的不重叠区域,也可以是按通道划分的子组。
6.根据权利要求1所述的基于改进Yolov7-tiny的轻量化目标检测方法,其特征在于,所述Focal-EIoU损失函数具体为:
EIoU Loss损失函数如公式(1):
Focal Loss如公式(2):
LFL=-(1-pt)γlog(pt) (2)
将EIoU Loss和Focal Loss公式进行整合,得到最终的Focal-EIoU损失函数,其公式如下:
LFE-IoU=IoUγLEIoU (3)
LFE-IoU=-(1-IoU)γlog(IoU)EIoU (4)。
CN202310767285.0A 2023-06-27 2023-06-27 一种基于改进Yolov7-tiny的轻量化目标检测方法 Pending CN116805366A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310767285.0A CN116805366A (zh) 2023-06-27 2023-06-27 一种基于改进Yolov7-tiny的轻量化目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310767285.0A CN116805366A (zh) 2023-06-27 2023-06-27 一种基于改进Yolov7-tiny的轻量化目标检测方法

Publications (1)

Publication Number Publication Date
CN116805366A true CN116805366A (zh) 2023-09-26

Family

ID=88080504

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310767285.0A Pending CN116805366A (zh) 2023-06-27 2023-06-27 一种基于改进Yolov7-tiny的轻量化目标检测方法

Country Status (1)

Country Link
CN (1) CN116805366A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117218329A (zh) * 2023-11-09 2023-12-12 四川泓宝润业工程技术有限公司 一种井口阀门检测方法、装置、存储介质及电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021237608A1 (zh) * 2020-05-28 2021-12-02 京东方科技集团股份有限公司 基于异构平台的目标检测方法、终端设备和存储介质
CN115862066A (zh) * 2022-12-05 2023-03-28 华东理工大学 一种改进YOLOv5的轻量化社区场景下行人检测方法
CN116311082A (zh) * 2023-05-15 2023-06-23 广东电网有限责任公司湛江供电局 基于关键部位与图像匹配的穿戴检测方法及系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021237608A1 (zh) * 2020-05-28 2021-12-02 京东方科技集团股份有限公司 基于异构平台的目标检测方法、终端设备和存储介质
CN115862066A (zh) * 2022-12-05 2023-03-28 华东理工大学 一种改进YOLOv5的轻量化社区场景下行人检测方法
CN116311082A (zh) * 2023-05-15 2023-06-23 广东电网有限责任公司湛江供电局 基于关键部位与图像匹配的穿戴检测方法及系统

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
JIERUN CHEN, SHIU-HONG KAO, HAO HE, WEIPENG ZHUO, SONG WEN, CHUL-HO LEE, S.-H. GARY CHAN: "Run, Don\'t Walk: Chasing Higher FLOPS for Faster Neural Networks", pages 4 - 6, Retrieved from the Internet <URL:https://arxiv.org/abs/2303.03667> *
YANG LIU; XIAOQING WANG: "SAR Ship Detection Based on Improved YOLOv7-Tiny", 《2022 IEEE 8TH INTERNATIONAL CONFERENCE ON COMPUTER AND COMMUNICATIONS (ICCC)》, 20 March 2023 (2023-03-20), pages 2166 - 2170 *
YI-FAN ZHANG, WEIQIANG REN, ZHANG ZHANG, ZHEN JIA, LIANG WANG, TIENIU TAN: "Focal and Efficient IOU Loss for Accurate Bounding Box Regression", pages 1, Retrieved from the Internet <URL:https://arxiv.org/abs/2101.08158> *
刘浩翰;樊一鸣;贺怀清;惠康华: "改进YOLOv7-tiny的目标检测轻量化模型", 《计算机工程与应用》, vol. 59, no. 14, 9 May 2023 (2023-05-09), pages 166 - 175 *
博客园网友AIHGF: "Focal Loss 论文理解及公式推导", Retrieved from the Internet <URL:https://blog.csdn.net/zziahgf/article/details/83589973> *
博客园网友ATHRUNSUNNY: "yolov5增加fasternet结构", Retrieved from the Internet <URL:https://blog.csdn.net/athrunsunny/article/details/129625155> *
张青春;吴峥;周玲;刘晓洋: "基于改进YOLOv5的车辆与行人目标识别方法", 《中国测试》, vol. 49, no. 07, 28 February 2023 (2023-02-28), pages 82 - 88 *
赵敏;杨国亮;王吉祥;龚志鹏: "改进YOLOv7-tiny的安全帽实时检测算法", 《 无线电工程》, vol. 53, no. 08, 24 April 2023 (2023-04-24), pages 1741 - 1749 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117218329A (zh) * 2023-11-09 2023-12-12 四川泓宝润业工程技术有限公司 一种井口阀门检测方法、装置、存储介质及电子设备
CN117218329B (zh) * 2023-11-09 2024-01-26 四川泓宝润业工程技术有限公司 一种井口阀门检测方法、装置、存储介质及电子设备

Similar Documents

Publication Publication Date Title
Zhou et al. Channel distillation: Channel-wise attention for knowledge distillation
CN111310773A (zh) 一种高效的卷积神经网络的车牌定位方法
CN116805366A (zh) 一种基于改进Yolov7-tiny的轻量化目标检测方法
CN109670418B (zh) 结合多源特征学习和组稀疏约束的无监督物体识别方法
CN115984172A (zh) 一种基于增强特征提取的小目标检测方法
WO2021185121A1 (zh) 模型生成方法、目标检测方法、装置、设备及存储介质
Tang et al. Integrated feature pyramid network with feature aggregation for traffic sign detection
CN110852199A (zh) 一种基于双帧编码解码模型的前景提取方法
CN114578967B (zh) 一种基于脑电信号的情感识别方法及系统
CN116311105B (zh) 一种基于样本间上下文指导网络的车辆重识别方法
CN117079177A (zh) 一种基于指称解析与感知增强的文本指代视频对象分割方法
Lu et al. MFNet: Multi-feature fusion network for real-time semantic segmentation in road scenes
CN116844126A (zh) 一种基于YOLOv7改进的复杂道路场景目标检测方法
CN108268598A (zh) 一种基于视频图像数据的分析系统及分析方法
CN114882351A (zh) 一种基于改进YOLO-V5s的多目标检测与跟踪方法
CN112085164A (zh) 一种基于无锚框网络的区域推荐网络提取方法
Xie et al. Weakly supervised object localization with soft guidance and channel erasing for auto labelling in autonomous driving systems
CN116758610A (zh) 基于注意力机制和特征融合的轻量化人耳识别方法及系统
CN115937654A (zh) 一种基于多层次特征融合的单目标跟踪方法
CN113971797A (zh) 一种基于动作行为特征的危险驾驶行为识别方法及系统
CN115131551A (zh) 一种基于互相关自注意力机制的目标特征提取方法
CN114494827A (zh) 一种用于检测航拍图片的小目标检测方法
CN115634848A (zh) 一种芯片分选路径的优化方法及优选系统
CN113313721A (zh) 基于多尺度结构的实时语义分割方法
Xie et al. Expanding and Refining Hybrid Compressors for Efficient Object Re-identification

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination