CN114882351A - 一种基于改进YOLO-V5s的多目标检测与跟踪方法 - Google Patents
一种基于改进YOLO-V5s的多目标检测与跟踪方法 Download PDFInfo
- Publication number
- CN114882351A CN114882351A CN202210335536.3A CN202210335536A CN114882351A CN 114882351 A CN114882351 A CN 114882351A CN 202210335536 A CN202210335536 A CN 202210335536A CN 114882351 A CN114882351 A CN 114882351A
- Authority
- CN
- China
- Prior art keywords
- yolo
- target
- improved
- model
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 47
- 238000000034 method Methods 0.000 title claims abstract description 25
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 37
- 238000012549 training Methods 0.000 claims description 21
- 238000000605 extraction Methods 0.000 claims description 18
- 230000007246 mechanism Effects 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 7
- 230000000007 visual effect Effects 0.000 claims description 4
- 230000000694 effects Effects 0.000 claims description 3
- 101100441251 Arabidopsis thaliana CSP2 gene Proteins 0.000 claims description 2
- 238000005457 optimization Methods 0.000 claims description 2
- 230000003044 adaptive effect Effects 0.000 claims 2
- 238000002372 labelling Methods 0.000 claims 1
- 238000002474 experimental method Methods 0.000 description 9
- 230000006872 improvement Effects 0.000 description 6
- 238000011160 research Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000002679 ablation Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明属于计算机视觉领域,具体涉及一种基于改进YOLO‑V5s的多目标检测与跟踪方法,包括:通过改进的YOLO‑V5s目标检测模型结合DeepSort追踪算法,实现车辆的实时跟踪。此外,本发明还构建了自制的智能车检测数据集。实验结果表明:改进后的算法比原始YOLO‑V5s算法精度提高2%,参数量减少至原YOLO‑V5s模型的83%,有效实现了对多个车辆的跟踪,同时提高了模型在嵌入式设备上的可移植性。
Description
技术领域
本发明涉及计算机视觉领域,具体是一种基于改进YOLO-V5s的多目标检测与跟踪方法。
背景技术
伴随着信息技术日新月异的进步,以视觉为基础的运动中的目标检测与跟踪的重要程度日益增长,已经融入了人们的日常生活中。目标检测与跟踪是运动检测、图像处理、计算机视觉、模式识别等众多学科的综合性研究课题,在医疗、交通、航天等领域有着重要的理论研究意义与实际研究价值。
目标检测的发展经历了传统目标检测和深度学习相关的目标检测两个历史时期。目前,后者主要包括one stage和two stage目标检测算法。对于two stage目标检测网络,它首先生成目标物的预选框,再通过卷积神经网络进行分类和定位,较为典型的模型有RCNN、 fast-RCNN、faster-RCNN。虽然该网络准确率较高,但是由于多次运行检测和分类过程,所以速度较为缓慢。对于另一种one stage目标检测网络,它不需要产生预选框,直接通过网络提取物体特征来预测目标的的类别和位置。较为流行的模型有SSD和YOLO系列。该网络最大的特点是没有two stage复杂的检测流程,只需将图像输入到神经网络,即可得到最终的检测结果。虽然目标检测精度有所下降,但检测速度有了较大提升。
目标跟踪是如今的计算机视觉领域一个重要的研究方向,在监控系统、道路交通、人工智能等诸多领域都有着广泛应用。目标跟踪在早期时候采用了光流法、粒子滤波法、均值漂移法等经典算法。它们都可以被归为生成式算法,即通过学习目标的表观特征来建立模型,在之后的帧中进行搜索,统计出概率最大的区域。这类算法往往只关注目标本身而忽略了背景信息,无法在复杂的跟踪环境下工作,其准确性不高。近年来,流行的目标跟踪算法大都为判别式算法,将目标与背景区分开来进行分类跟踪。常见的有检测与跟踪相结合、相关滤波和深度学习等。这些算法大大提高了目标识别的实时性和准确性。目前,较为流行的是Sort 和DeepSort算法。DeepSor在Sort的基础上进行了改进,采用卡尔曼滤波预测,在更新阶段使用IOU进行匈牙利算法的轨迹匹配,以及用卷积神经网络来计算目标外观特征值。
为了更好地实现对目标的检测与跟踪,本发明采用YOLO-V5s结合DeepSort算法的方式,并对YOLO-V5s的主干特征网络进行了改进。将普通卷积替换为新型轻量卷积模块Ghost Module,且加入卷积注意力机制CBAM,使检测精度和速度具有较好的效果。
发明内容
发明目的:本发明目的在于提供一种基于改进YOLO-V5s的多目标检测与跟踪方法。在保持精度良好的情况下,通过对网络结构的改进减少参数量,提高检测速度,实现一定程度上的性能优化。
技术方案:本发明的具体步骤如下:
S1:对目标智能车进行拍摄,并制作相关标签,形成智能车数据集;
S2:制作真实车辆数据集,并将其与智能车数据集结合,得到用于YOLO-V5s训练的车辆数据集;
S3:通过对智能车进行不同光线下的多角度和带有视觉障碍的拍摄,并提取图片中的智能车信息,结合收集的真实车辆重识别数据,形成用于DeepSort训练的车辆重识别数据集;
S4:对YOLO-V5s算法中的主干特征提取网络进行改进,将普通卷积替换为轻量型卷积模块Ghost Module,并且在主干特征提取网络的最后一层添加CBAM注意力机制;
S5:用车辆数据集训练改进后的YOLO-V5s模型;
S6:用车辆重识别数据集训练DeepSort算法中的目标外观特征提取网络;
S7:将改进的YOLO-V5s模型和DeepSort算法结合:YOLO-V5识别目标以得到目标物的检测框信息,并导入至DeepSort框架中;将该帧的目标信息与上一帧的轨迹信息进行级联匹配,最终得到能够准确跟踪智能车和真实车辆的目标跟踪模型。
步骤S1、S2中,本实验的数据集为车辆数据集。数据集在目标检测中起着至关重要的作用。好的数据集有利于YOLO-V5s模型的训练,并提高算法结果的准确率。车辆数据集一共有860张图片,由两部分组成。通过拍摄不同位置、不同数量、不同大小、不同光线下的智能车,得到有关智能车的559张图片,并采用图像标注工具制作对应标签文件,得到智能车数据集。将其与收集的真实车辆数据结合,得到总的车辆数据集。在网络训练中,训练集、验证集和测试集的比例为8∶1∶1。
步骤S3中,本实验的数据集为车辆重识别数据集。目标一般具有类间相似性,如相同型号不同品牌的车辆之间会存在微小的外观差异。而DeepSort算法需要提取目标的外观特征并进行训练,这也体现了重识别数据集的重要性。本次实验的车辆重识别数据集一共包含589 种车辆。首先对智能车进行不同照明、不同视角的拍摄,提取出智能车的位置信息。接着结合收集的真实车辆重识别数据集,形成最终用于DeepSort训练的数据集。在网络训练中,训练集和测试集的比例为9∶1。
步骤S4中,本实验对YOLO-V5s的主干特征提取网络进行了两点改进。首先,将部分卷积替换为Ghost Module,以减少参数量和计算量。Ghost Module是一种轻量型卷积模型,通过较低的计算成本来获取网络模型的冗余信息。该模型首先采用卷积生成部分真实特征层,接着用这些真实特征层经过线性变换得到Ghost特征层,最终由真实特征层和Ghost特征层组成完整特征层。此外,本实验在主干特征提取网络中加入了卷积注意力机制CBAM。该机制首先通过通道注意力将特征图在空间维度上进行压缩,得到加权结果之后,再经过空间注意力对通道进行压缩,在通道维度分别进行了平均值池化和最大值池化,加权得到最终结果。 CBAM从空间域和通道域两个维度进行特征融合,增强了提取特征图中关键信息的能力,有利于更好地识别目标。本发明针对以上两点进行了消融实验,观察得出在参数量减少的情况下,目标检测的精度稍有提高,从而实现了性能上的提优。
步骤S5中,本实验采用YOLO-V5s模型进行目标检测。该种模型是YOLO-V5系列中深度最小、速度最快的网络,一共包括输入端、Backbone、Neck、Prediction四个部分。YOLO-V5s 主要有以下特征点:
(1)输入端采取和YOLO-V4一样的Mosaic数据增强,该方式参考了图片级数据增强CutMix。通过对4张图片进行随机缩放、随机裁剪、随机排布等处理,最终拼接为一张新的图片。且YOLO-V5s的自适应图片缩放功能减少了信息冗余,有助于推理速度的提高。
(2)YOLO-V5s在主干特征提取网络Backbone采用了Focus结构,通过切片操作使一张图片得到四张图片,并将W、H的信息集中到通道空间,使输入图片的RGB 3通道模式变为12通道。最终经过32个卷积核,得到无信息丢失的二倍下采样特征图。
(3)Neck部分使用FPN+PAN的结构进行上采样和下采样。与YOLO-V4的不同点在于,YOLO-V5s加入了CSPnet设计的CSP2结构,以提高特征融合的能力。
(4)输出端的边框回归损失函数默认采用CIOU_Loss的回归方式,计算公式如下:
其中IOU表示真实框和预测框的交并比,b表示真实框的中心点,bgt表示预测框的中心点,ρ(b,bgt)表示真实框和预测框中心点之间的欧式距离,c表示真实框和预测框最小外接矩形的对角线距离,α为权重函数,v为度量长宽比相似性的参数。α和v的计算公式如下:
其中w、h表示真实框的宽和高,wgt、hgt表示预测框的宽和高。
步骤S6中,本实验采用DeepSort算法进行多目标跟踪。DeepSort是目前比较先进的目标跟踪算法,采用了卡尔曼滤波和匈牙利算法进行目标轨迹匹配,并在Sort算法的基础上引入外观特征的计算,解决了ID跳变的问题,有着较高的精度和速度。对于本专利,利用自制车辆重识别数据集对DeepSort的目标外观特征提取网络进行训练,有效实现了对车辆的多目标实时跟踪。
步骤S7中,将改进的YOLO-V5s模型与DeepSort算法相结合,最终得到能够准确跟踪智能车和真实车辆的目标跟踪模型。
实验效果:
通过改进的YOLO-V5s目标检测模型结合DeepSort追踪算法,实现了对车辆的实时跟踪。对YOLO-V5s算法中的主干特征提取网络进行改进,将普通卷积替换为轻量型卷积模块Ghost Module,并且在主干特征提取网络的最后一层添加卷积注意力机制CBAM。实验结果表明:改进后的算法比原始YOLO-V5s算法精度提高2%,参数量减少至原YOLO-V5s模型的83%。综上,本发明有效实现了对多个车辆的跟踪,同时提高了模型在嵌入式设备上的可移植性。
附图表说明
图1是YOLO-V5s在车辆数据集上的消融实验结果,“+”代表在原YOLO-V5s的基础上进行的改进。mAP@0.5为阈值为0.5时所有类别的平均精确度均值,mAP@0.5∶0.95为阈值在0.5至0.95之间所有类别的平均精确度均值。
图2是DeepSort目标外观特征提取网络训练集的性能指标。
图3是改进主干特征提取网络后的YOLO-V5s网络性能指标。
图4是YOLO-V5s改进前后训练集平均精度均值对比图。
图5是改进的YOLO-V5s和DeepSort算法结合下的车辆检测与跟踪效果图。
具体实施方式
为使本发明实施方式的目的、技术方案和优点更加清楚,下面将结合本发明实施方式中的附图,对本发明实施方式中的技术方案进行清楚完整的描述。显然,所描述的实施方式是本发明一部分实施方式,而不是全部实施方式。基于本发明中的实施方式,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施方式,都属于本发明保护的范围。
一种基于改进YOLO-V5s的多目标检测与跟踪方法,包括以下步骤:
S1:对目标智能车进行拍摄,并制作相关标签,形成智能车数据集;
S2:收集真实车辆数据集,并将其与智能车数据集结合,得到用于YOLO-V5s训练的车辆数据集;
S3:通过对智能车进行不同光线下的多角度和带有视觉障碍的拍摄,并提取图片中的智能车信息,结合收集的真实车辆重识别数据,形成用于DeepSort训练的车辆重识别数据集;
S4:对YOLO-V5s算法中的主干特征提取网络进行改进,将普通卷积替换为轻量型卷积模块Ghost Module,并且在主干特征提取网络的最后一层添加CBAM注意力机制;
S5:用车辆数据集训练改进后的YOLO-V5s模型;
S6:用车辆重识别数据集训练DeepSort算法中的目标外观特征提取网络;
S7:将改进的YOLO-V5s模型和DeepSort算法结合:YOLO-V5识别目标以得到目标物的检测框信息,并导入至DeepSort框架中;将该帧的目标信息与上一帧的轨迹信息进行级联匹配,最终得到能够准确跟踪智能车和真实车辆的目标跟踪模型。
最后应说明的是,以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种基于改进YOLO-V5s的多目标检测与跟踪方法,其特征在于,包括以下步骤:
S1:制作数据集:确定检测对象,拍摄不同位置、不同数量、不同大小、不同光线下的图片,并用标注工具制作标签文件,用于训练YOLO-V5s模型;
S2:制作重识别数据集:不同照明、不同视角拍摄检测目标,提取出图片中的目标信息,制作丰富的重识别数据集,用于训练DeepSort算法中的目标外观特征提取网络;
S3:对YOLO-V5s算法中的主干特征提取网络进行改进,将普通卷积替换为轻量型卷积模块Ghost Module,并且在主干特征提取网络的最后一层添加卷积注意力机制CBAM;
S4利用S1中的数据集训练改进后的YOLO-V5s模型,利用S2中的重识别数据集训练DeepSort中的目标外观特征提取网络;
S5:将改进的YOLO-V5s模型和DeepSort算法结合:YOLO-V5识别目标以得到目标物的检测框信息,并导入至DeepSort框架中;将该帧的目标信息与上一帧的轨迹信息进行级联匹配,最终得到目标检测和跟踪模型。
2.根据权利要求1所述的一种基于改进YOLO-V5s的车辆检测与跟踪方法,其特征在于:YOLO-V5s模型是YOLO-V5系列中深度最小、速度最快的网络,在YOLO-V4的基础上进行了改进,包括加入Focus结构、自适应图片缩放、在Neck部分加入CSP2结构等。
3.根据权利要求1所述的一种基于改进YOLO-V5s的车辆检测与跟踪方法,其特征在于:DeepSort是目前比较先进的目标跟踪算法,且在Sort算法的基础上引入外观特征的计算,解决了ID跳变的问题,有着较高的精度和速度。
4.根据权利要求1所述的一种基于改进YOLO-V5s的车辆检测与跟踪方法,其特征在于:所述步骤S3的新型轻量卷积模块Ghost Module使得YOLO-V5s模型的参数量和计算量有所降低,提升了计算模型在嵌入式设备上的可移植性。
5.根据权利要求1所述的一种基于改进YOLO-V5s的车辆检测与跟踪方法,其特征在于:所述步骤S3的卷积注意力机制CBAM通过给定一个中间特征图,沿着通道和空间两个独立的维度依次推断注意力图,然后将注意力图与输入特征图相乘以进行自适应特征优化,增强了提取目标细节的能力。
6.根据权利要求1所述的一种基于改进YOLO-V5s的车辆检测与跟踪方法,其特征在于:通过改进的YOLO-V5s模型结合DeepSort算法使得目标检测与跟踪的效果有所提高。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210335536.3A CN114882351B (zh) | 2022-03-31 | 2022-03-31 | 一种基于改进YOLO-V5s的多目标检测与跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210335536.3A CN114882351B (zh) | 2022-03-31 | 2022-03-31 | 一种基于改进YOLO-V5s的多目标检测与跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114882351A true CN114882351A (zh) | 2022-08-09 |
CN114882351B CN114882351B (zh) | 2024-04-26 |
Family
ID=82668608
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210335536.3A Active CN114882351B (zh) | 2022-03-31 | 2022-03-31 | 一种基于改进YOLO-V5s的多目标检测与跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114882351B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115331127A (zh) * | 2022-09-27 | 2022-11-11 | 南京瀚元科技有限公司 | 一种基于注意力机制的无人机移动目标侦测方法 |
CN117274927A (zh) * | 2023-09-19 | 2023-12-22 | 盐城工学院 | 基于改进多目标跟踪的交通流量监测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200160110A1 (en) * | 2018-10-13 | 2020-05-21 | Applied Research, LLC | Method and System for Object Tracking and Recognition Using Low Power Compressive Sensing Camera in Real-Time Applications |
CN112927267A (zh) * | 2021-03-15 | 2021-06-08 | 河海大学 | 一种多摄像头场景下的目标跟踪方法 |
CN113160283A (zh) * | 2021-03-23 | 2021-07-23 | 河海大学 | 一种基于sift的多摄像头场景下的目标跟踪方法 |
CN114092764A (zh) * | 2021-11-19 | 2022-02-25 | 扬州大学 | 一种加入注意力机制的YOLOv5神经网络车辆检测方法 |
-
2022
- 2022-03-31 CN CN202210335536.3A patent/CN114882351B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200160110A1 (en) * | 2018-10-13 | 2020-05-21 | Applied Research, LLC | Method and System for Object Tracking and Recognition Using Low Power Compressive Sensing Camera in Real-Time Applications |
CN112927267A (zh) * | 2021-03-15 | 2021-06-08 | 河海大学 | 一种多摄像头场景下的目标跟踪方法 |
CN113160283A (zh) * | 2021-03-23 | 2021-07-23 | 河海大学 | 一种基于sift的多摄像头场景下的目标跟踪方法 |
CN114092764A (zh) * | 2021-11-19 | 2022-02-25 | 扬州大学 | 一种加入注意力机制的YOLOv5神经网络车辆检测方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115331127A (zh) * | 2022-09-27 | 2022-11-11 | 南京瀚元科技有限公司 | 一种基于注意力机制的无人机移动目标侦测方法 |
CN117274927A (zh) * | 2023-09-19 | 2023-12-22 | 盐城工学院 | 基于改进多目标跟踪的交通流量监测方法 |
CN117274927B (zh) * | 2023-09-19 | 2024-05-17 | 盐城工学院 | 基于改进多目标跟踪的交通流量监测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114882351B (zh) | 2024-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111259786B (zh) | 一种基于视频的外观和运动信息同步增强的行人重识别方法 | |
CN111709311B (zh) | 一种基于多尺度卷积特征融合的行人重识别方法 | |
Kawewong et al. | Online and incremental appearance-based SLAM in highly dynamic environments | |
CN112560656A (zh) | 一种联合注意力机制端到端训练的行人多目标跟踪方法 | |
CN108629288B (zh) | 一种手势识别模型训练方法、手势识别方法及系统 | |
CN114220124A (zh) | 一种近红外-可见光跨模态双流行人重识别方法及系统 | |
CN110263712B (zh) | 一种基于区域候选的粗精行人检测方法 | |
CN110175615B (zh) | 模型训练方法、域自适应的视觉位置识别方法及装置 | |
CN114882351B (zh) | 一种基于改进YOLO-V5s的多目标检测与跟踪方法 | |
CN108830254B (zh) | 一种基于数据均衡策略和密集注意网络的细粒度车型检测与识别方法 | |
CN113239784A (zh) | 一种基于空间序列特征学习的行人重识别系统及方法 | |
CN106778501A (zh) | 基于压缩跟踪与ihdr增量学习的视频人脸在线识别方法 | |
CN106682681A (zh) | 一种基于相关反馈的识别算法自动改进方法 | |
CN111738300A (zh) | 一种交通标志及信号灯检测和识别的优化算法 | |
CN110968711A (zh) | 一种基于序列图像特征的自主无人系统位置识别定位方法 | |
CN109165698A (zh) | 一种面向智慧交通的图像分类识别方法及其存储介质 | |
Mao et al. | Learning to fuse multiscale features for visual place recognition | |
CN111767905A (zh) | 一种改进的基于陆标-卷积特征的图像方法 | |
CN116229112A (zh) | 一种基于多重注意力的孪生网络目标跟踪方法 | |
Li et al. | Incremental learning of infrared vehicle detection method based on SSD | |
CN114663839A (zh) | 一种遮挡行人重识别方法及系统 | |
Lian et al. | Study on obstacle detection and recognition method based on stereo vision and convolutional neural network | |
Xu et al. | Multi-scale region-based fully convolutional networks | |
Zhang et al. | Multi-scale vehicle detection and tracking method in highway scene | |
CN113869412B (zh) | 一种联合轻量级注意力机制和YOLOv3网络的图像目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |