CN116229419B - 一种行人检测方法及装置 - Google Patents
一种行人检测方法及装置 Download PDFInfo
- Publication number
- CN116229419B CN116229419B CN202310188758.1A CN202310188758A CN116229419B CN 116229419 B CN116229419 B CN 116229419B CN 202310188758 A CN202310188758 A CN 202310188758A CN 116229419 B CN116229419 B CN 116229419B
- Authority
- CN
- China
- Prior art keywords
- training
- module
- model
- image
- pedestrian detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 162
- 238000000034 method Methods 0.000 claims abstract description 27
- 238000012549 training Methods 0.000 claims description 218
- 238000012360 testing method Methods 0.000 claims description 57
- 230000006870 function Effects 0.000 claims description 46
- 238000012545 processing Methods 0.000 claims description 33
- 238000010586 diagram Methods 0.000 claims description 17
- 238000005070 sampling Methods 0.000 claims description 16
- 238000004364 calculation method Methods 0.000 claims description 11
- 238000006243 chemical reaction Methods 0.000 claims description 9
- 238000011156 evaluation Methods 0.000 claims description 5
- 238000011176 pooling Methods 0.000 claims description 5
- 230000003213 activating effect Effects 0.000 claims description 4
- 238000004458 analytical method Methods 0.000 claims description 3
- 230000008030 elimination Effects 0.000 claims description 3
- 238000003379 elimination reaction Methods 0.000 claims description 3
- 238000007499 fusion processing Methods 0.000 claims description 3
- 230000009286 beneficial effect Effects 0.000 abstract description 13
- 238000004590 computer program Methods 0.000 description 5
- 238000012935 Averaging Methods 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Traffic Control Systems (AREA)
Abstract
本发明公开了一种行人检测方法及装置,该方法包括:获取待检测图像;利用行人检测模型对待检测图像进行检测处理,得到预测框信息集合;预测框信息集合包括至少3个预测框信息;预测框信息表征待检测图像中行人的位置和类别;基于预测框信息集合,确定出行人检测结果。可见,本发明有利于提高行人检测精度和检测效率。
Description
技术领域
本发明涉及图像检测技术领域,尤其涉及一种行人检测方法及装置。
背景技术
在自动驾驶领域,对行人目标进行检测定位是一项重要的任务。要求无人驾驶车辆能检测到行驶途中的行人目标并确定其位置,为后续决策提供信息支撑。而行人目标检测任务充满诸多干扰因素,其面临的问题比目标检测要复杂得多。行人目标更容易受到诸多因素干扰,包括动作姿态、户外天气光线明暗变化、模糊程度、行人及建筑物之间遮挡等,这些客观存在的干扰都会影响到最终检测的准确性以及算法的可行性。因此,提供一种行人检测方法及装置,以提高行人检测精度和检测效率。
发明内容
本发明所要解决的技术问题在于,提供一种行人检测方法及装置,有利于提高行人检测精度和检测效率。
为了解决上述技术问题,本发明实施例第一方面公开了一种行人检测方法,所述方法包括:
获取待检测图像;
利用行人检测模型对所述待检测图像进行检测处理,得到预测框信息集合;所述预测框信息集合包括至少3个预测框信息;所述预测框信息表征所述待检测图像中行人的位置和类别;
基于所述预测框信息集合,确定出行人检测结果。
作为一种可选的实施方式,在本发明实施例第一方面中,在所述利用行人检测模型对所述待检测图像进行检测处理,得到预测框信息集合之前,所述方法还包括:
获取训练参数集合和模型训练集;所述训练参数集合包括至少4个训练参数;
基于所述训练参数集合对训练环境进行设置;
在所述训练环境下,利用所述模型训练集和损失函数模型对训练模型进行训练,得到所述行人检测模型。
作为一种可选的实施方式,在本发明实施例第一方面中,在所述在所述训练环境下,利用所述模型训练集和损失函数对训练模型进行训练,得到所述行人检测模型之前,所述方法还包括:
获取图像数据集;所述图像数据集包括5个行人类别的实验图像;每个所述行人类别表征所述实验图像中行人的类别属性特征;
将所述图像数据集进行格式转换,得到格式数据集;所述格式数据集包括若干张格式图像;
将所述格式数据集中满足第一类别条件的所述格式图像剔除,得到条件数据集;所述条件数据集中包括条件图像;所述条件图像的数量少于所述格式图像的数量的2/3;
利用第二类别条件对所述条件数据集中的所述条件图像进行类别转换,得到所述模型训练集;所述模型训练集只包含一个所述行人类别的模型训练图像。
作为一种可选的实施方式,在本发明实施例第一方面中,所述在所述训练环境下,利用所述模型训练集和损失函数模型对训练模型进行训练,得到所述行人检测模型,包括:
基于所述训练环境中的图像处理数量,从所述模型训练集中确定出目标训练图像集;所述图像处理数量表征每次用于训练所述训练模型的图像的数量;
利用所述目标训练图像集对所述训练模型进行训练,得到中间模型;
利用所述损失函数模型对所述中间模型的模型参数进行计算处理,得到损失函数值;
基于所述损失函数值和所述训练环境中的训练周期值,判断所述中间模型是否满足训练终止条件,得到训练判断结果;所述训练周期值表征在所述训练环境下对所述训练模型的最大训练次数;
当所述训练判断结果为否时,利用所述中间模型对所述训练模型进行更新,并出发执行所述基于所述训练环境中的图像处理数量,从所述模型训练集中确定出目标训练图像集;
当所述训练判断结果为是时,确定所述中间模型为所述行人检测模型;
其中,所述损失函数模型为
式中,Lα-CIoU为损失函数值;α为power正则化项的power参数;b为预测框的中心坐标;bgt为真实目标边界框中心的参数;ρ2为两个中心点距离的平方,β为个权重系数,ν为两个矩形框长宽比一致性评估值;IoU为交并比;c为同时包含预测框和真实框的最小闭包区域的对角线距离。
作为一种可选的实施方式,在本发明实施例第一方面中,所述power正则化项的power参数是基于以下步骤得到的:
获取待选参数值信息;所述待选参数值信息包括至少5个待选参数值;
基于所述待选参数值信息对所述损失函数模型进行精度测试计算,得到测试精度值集合;所述测试精度值集合包括若干个测试精度值;所述测试精度值表征模型的准确率;每个所述测试精度值对应于唯一一个所述待选参数值;
对所述测试精度值集合中的测试精度值进行曲线拟合,得到精度值曲线;
从所述精度值曲线中选取峰值对应的测试精度值作为目标测试精度值;
确定所述目标测试精度值对应的待选参数值为所述power正则化项的power参数。
作为一种可选的实施方式,在本发明实施例第一方面中,所述行人检测模型包括:
CBS模块的第一端与第一Ghost卷积模块的第一端相连接;所述第一Ghost卷积模块的第二段与第一C3模块的第一端相连接;所述第一C3模块的第二端与第二Ghost卷积模块的第一端相连接;所述第二Ghost卷积模块的第二端与所述第二C3模块的第一端相连接;所述第二C3模块的第二端分别与第三Ghost卷积模块的第一端和第一拼接模块的第一端相连接;所述第三Ghost卷积模块的第二端与所述第三C3模块的第一端相连接;所述第三C3模块的第二端分别与所述第四Ghost卷积模块的第一端、所述第二拼接模块的第一端和所述第三拼接模块的第一端相连接;所述第四Ghost卷积模块的二端与第四C3模块的第一端相连接;所述第四C3模块的第二端与CA模块的第一端相连接;所述CA模块的第二端与SPPF模块的第一端相连接;所述SPPF模块的第二端与第五Ghost卷积模块的第二端与第一上采样模块的第一端相连接;所述第五Ghost卷积模块的第三端与第四拼接模块的第一端相连接;所述上采样模块的第二端与所述第二拼接模块的第二端相连接;所述第二拼接模块的第三端与第五C3模块的第一端相连接;所述第五C3模块的第二端与第六Ghost卷积模块的第一端相连接;所述第六Ghost卷积模块的第二端分别与第二上采样模块的第一端和所述第三拼接模块的第一端相连接;所述第二上采样模块的第二端与所述第一拼接模块的第二端相连接;所述第二拼接模块的第三端与第六C3模块的第一端相连接;所述第六C3模块的第二端分别与第七Ghost卷积模块的第一端和第一预测卷积模块的第一端相连接;所述第七Ghost卷积模块的第二端与所述第三拼接模块的第二端相连接;所述第三拼接模块的第三端与第七C3模块的第一端相连接;所述第七C3模块的第二端分别与第八Ghost卷积模块的第一端和第二预测卷积模块的第一端相连接;所述第八Ghost卷积模块的第二端与所述第四拼接模块的第二端相连接;所述第四拼接模块的第三端与第八C3模块的第一端相连接;所述第八C3模块的第二端与第三预测卷积模块的第一端相连接;
所述CA模块,用于对所述待检测图像中的目标对象进行精准位置信息编码;
所述第一预测卷积模块、所述第二预测卷积模块和所述第三预测卷积模块,用于输出所述预测框信息。
作为一种可选的实施方式,在本发明实施例第一方面中,所述CA模块对所述待检测图像中的目标对象进行精准位置信息编码,包括:
对所述CA模块的输入图像在高度方向和宽度方向进行一维自适应平均池化,得到高度特征图和宽度特征向图;
对所述高度特征图和所述宽度特征图进行拼接,得到拼接特征图;
利用1×1卷积块对所述拼接特征图进行降维处理,得到降维特征图;所述降维特征图的维度为所述拼接特征图的维度的C/r;所述C和所述r均为正数;所述r为下采样比例;
对所述降维特征图进行激活处理,得到过程特征图;
对所述过程特征图在通道维度进行拆分,得到高度注意力权重图和宽度注意力权重图;
对所述高度注意力权重图、所述宽度注意力权重图和所述输入图像进行乘法加权计算,得到所述CA模块的输出图像;所述输出图像为对所述待检测图像中的目标对象在高度方向和宽度放上设置有注意力权重的特征图。
本发明实施例第二方面公开了一种行人检测装置,装置包括:
获取模块,用于获取待检测图像;
处理模块,用于利用行人检测模型对所述待检测图像进行检测处理,得到预测框信息集合;所述预测框信息集合包括至少3个预测框信息;所述预测框信息表征所述待检测图像中行人的位置和类别;
确定模块,用于基于所述预测框信息集合,确定出行人检测结果。
本发明第三方面公开了另一种行人检测装置,所述装置包括:
存储有可执行程序代码的存储器;
与所述存储器耦合的处理器;
所述处理器调用所述存储器中存储的所述可执行程序代码,执行本发明实施例第一方面公开的行人检测方法中的部分或全部步骤。
本发明第四方面公开了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机指令,所述计算机指令被调用时,用于执行本发明实施例第一方面公开的行人检测方法中的部分或全部步骤。
与现有技术相比,本发明实施例具有以下有益效果:
本发明实施例中,获取待检测图像;利用行人检测模型对待检测图像进行检测处理,得到预测框信息集合;预测框信息集合包括至少3个预测框信息;预测框信息表征待检测图像中行人的位置和类别;基于预测框信息集合,确定出行人检测结果。可见,本发明有利于提高行人检测精度和检测效率。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例公开的一种行人检测方法的流程示意图;
图2是本发明实施例公开的一种行人检测装置的结构示意图;
图3是本发明实施例公开的另一种行人检测装置的结构示意图;
图4是本发明实施例公开的一种行人检测模型的结构示意图;
图5是本发明实施例公开的一种Ghost模块的结构示意图;
图6是本发明实施例公开的一种基于CA模块处理后的目标对象的输出图像。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、装置、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其他步骤或单元。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本发明的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
本发明公开了一种行人检测方法及装置,有利于提高行人检测精度和检测效率。以下分别进行详细说明。
实施例一
请参阅图1,图1是本发明实施例公开的一种行人检测方法的流程示意图。其中,图1所描述的行人检测方法应用于图像检测系统中,如用于行人检测管理的本地服务器或云端服务器等,本发明实施例不做限定。如图1所示,该行人检测方法可以包括以下操作:
101、获取待检测图像。
102、利用行人检测模型对待检测图像进行检测处理,得到预测框信息集合。
本发明实施例中,上述预测框信息集合包括至少3个预测框信息。
本发明实施例中,上述预测框信息表征待检测图像中行人的位置和类别。
103、基于预测框信息集合,确定出行人检测结果。
可选的,上述预测框信息中的预测框的尺度依次为20×20、40×40、80×80。
在该可选的实施例中,作为一种可选的实施方式,上述基于预测框信息集合,确定出行人检测结果,包括:
计算所有预测框信息中预测框的置信度,得到预测框置信度信息;
基于置信度大小关系,从预测框置信度信息中确定出目标特征预测框;
利用目标特征预测框对所有预测框置信度信息进行重叠情况对比分析和剔除处理,得到该检测特征图对应的目标图框信息;对预测框的剔除是当不同预测框之间的重合度超过重叠阈值时,将除目标特征预测框之外的其他预测框进行删除;
对所有目标图框信息进行横向和纵向的融合处理,得到框检测结果信息;
基于框检测结果信息,对待检测图像中的目标对象进行解码处理,得到行人检测结果;行人检测结果表征行人类别为正常行人的目标对象在待检测图像中的位置情况。
可见,实施本发明实施例所描述的行人检测方法有利于提高行人检测精度和检测效率。
在一个可选的实施例中,在利用行人检测模型对待检测图像进行检测处理,得到预测框信息集合之前,方法还包括:
获取训练参数集合和模型训练集;训练参数集合包括至少4个训练参数;
基于训练参数集合对训练环境进行设置;
在训练环境下,利用模型训练集和损失函数模型对训练模型进行训练,得到行人检测模型。
可选的,上述训练参数包括批大小,和/或,训练周期,和/或,初始学习率,和/或,权重衰减系数,本发明实施例不做限定。
优选的,上述批大小为16。
优选的,上述训练周期为300。
优选的,上述初始学习率为0.01。
优选的,上述权重衰减系数为0.0005。
需要说明的是,上述训练环境为基于PyTorch 1.80和Python 3.7构建的数据处理系统。
进一步的,上述训练环境所配置硬件设备参数为Inter(R)Xeon(r)Platinum8255CCPU,内存为47G,内核为12,GeForce RTX 3090 24G GPU,操作系统为Linux 18.04LTS系统。
可见,实施本发明实施例所描述的行人检测方法有利于提高行人检测精度和检测效率。
在另一个可选的实施例中,在在训练环境下,利用模型训练集和损失函数对训练模型进行训练,得到行人检测模型之前,方法还包括:
获取图像数据集;图像数据集包括5个行人类别的实验图像;每个行人类别表征实验图像中行人的类别属性特征;
将图像数据集进行格式转换,得到格式数据集;格式数据集包括若干张格式图像;
将格式数据集中满足第一类别条件的格式图像剔除,得到条件数据集;条件数据集中包括条件图像;条件图像的数量少于格式图像的数量的2/3;
利用第二类别条件对条件数据集中的条件图像进行类别转换,得到模型训练集;模型训练集只包含一个行人类别的模型训练图像。
需要说明的,上述行人类别包括正常行人,和/或,骑车人,和/或,遮挡部分的人体,和/或,人形物体,和/或,无法区分的密集人堆,本发明实施例不做限定。
具体的,上述第一类别条件为格式图像对应的行人类别为无法区分的密集人堆。
具体的,上述第二类别条件为条件图像对应的行人类别不是正常行人。
进一步的,上述类别转换是将条件图像对应的行人类别转换为正常行人。
具体的,上述模型训练图像对应的行人类别为正常行人。
优选的,上述条件图像的数量为8000。
可见,实施本发明实施例所描述的行人检测方法有利于提高行人检测精度和检测效率。
在又一个可选的实施例中,在训练环境下,利用模型训练集和损失函数模型对训练模型进行训练,得到行人检测模型,包括:
基于训练环境中的图像处理数量,从模型训练集中确定出目标训练图像集;图像处理数量表征每次用于训练训练模型的图像的数量;
利用目标训练图像集对训练模型进行训练,得到中间模型;
利用损失函数模型对中间模型的模型参数进行计算处理,得到损失函数值;
基于损失函数值和训练环境中的训练周期值,判断中间模型是否满足训练终止条件,得到训练判断结果;训练周期值表征在训练环境下对训练模型的最大训练次数;
当训练判断结果为否时,利用中间模型对训练模型进行更新,并出发执行基于训练环境中的图像处理数量,从模型训练集中确定出目标训练图像集;
当训练判断结果为是时,确定中间模型为行人检测模型;
其中,损失函数模型为
式中,Lα-CIoU为损失函数值;α为power正则化项的power参数;b为预测框的中心坐标;bgt为真实目标边界框中心的参数;ρ2为两个中心点距离的平方,β为个权重系数,ν为两个矩形框长宽比一致性评估值;IoU为交并比;c为同时包含预测框和真实框的最小闭包区域的对角线距离。
可选的,上述图像处理数量与批大小是相对应的。
优选的,上述训练周期值对应于训练参数中的训练周期。
需要说明的是,上述训练终止条件为损失函数值和历史损失函数值构成的数值收敛,或者,对训练模型的训练次数等于训练周期值。
可见,实施本发明实施例所描述的行人检测方法有利于提高行人检测精度和检测效率。
在又一个可选的实施例中,power正则化项的power参数是基于以下步骤得到的:
获取待选参数值信息;待选参数值信息包括至少5个待选参数值;
基于待选参数值信息对损失函数模型进行精度测试计算,得到测试精度值集合;测试精度值集合包括若干个测试精度值;测试精度值表征模型的准确率;每个测试精度值对应于唯一一个待选参数值;
对测试精度值集合中的测试精度值进行曲线拟合,得到精度值曲线;
从精度值曲线中选取峰值对应的测试精度值作为目标测试精度值;
确定目标测试精度值对应的待选参数值为power正则化项的power参数。
优选的,上述待选参数值为[1,6]之间的正数。
优选的,上述待选参数值为正整数。
可选的,上述峰值对应的目标测试精度值相对于其他测试精度值的行人检测模型中预测框信息对应的回归精度是更高的。
可见,实施本发明实施例所描述的行人检测方法有利于提高行人检测精度和检测效率。
在一个可选的实施例中,如图4所示,上述行人检测模型包括:
CBS模块的第一端与第一Ghost卷积模块的第一端相连接;第一Ghost卷积模块的第二段与第一C3模块的第一端相连接;第一C3模块的第二端与第二Ghost卷积模块的第一端相连接;第二Ghost卷积模块的第二端与第二C3模块的第一端相连接;第二C3模块的第二端分别与第三Ghost卷积模块的第一端和第一拼接模块的第一端相连接;第三Ghost卷积模块的第二端与第三C3模块的第一端相连接;第三C3模块的第二端分别与第四Ghost卷积模块的第一端、第二拼接模块的第一端和第三拼接模块的第一端相连接;第四Ghost卷积模块的二端与第四C3模块的第一端相连接;第四C3模块的第二端与CA模块的第一端相连接;CA模块的第二端与SPPF模块的第一端相连接;SPPF模块的第二端与第五Ghost卷积模块的第二端与第一上采样模块的第一端相连接;第五Ghost卷积模块的第三端与第四拼接模块的第一端相连接;上采样模块的第二端与第二拼接模块的第二端相连接;第二拼接模块的第三端与第五C3模块的第一端相连接;第五C3模块的第二端与第六Ghost卷积模块的第一端相连接;第六Ghost卷积模块的第二端分别与第二上采样模块的第一端和第三拼接模块的第一端相连接;第二上采样模块的第二端与第一拼接模块的第二端相连接;第二拼接模块的第三端与第六C3模块的第一端相连接;第六C3模块的第二端分别与第七Ghost卷积模块的第一端和第一预测卷积模块的第一端相连接;第七Ghost卷积模块的第二端与第三拼接模块的第二端相连接;第三拼接模块的第三端与第七C3模块的第一端相连接;第七C3模块的第二端分别与第八Ghost卷积模块的第一端和第二预测卷积模块的第一端相连接;第八Ghost卷积模块的第二端与第四拼接模块的第二端相连接;第四拼接模块的第三端与第八C3模块的第一端相连接;第八C3模块的第二端与第三预测卷积模块的第一端相连接;
CA模块,用于对待检测图像中的目标对象进行精准位置信息编码;
第一预测卷积模块、第二预测卷积模块和第三预测卷积模块,用于输出预测框信息。
需要说明的是,第一Ghost卷积模块、第二Ghost卷积模块、第三Ghost卷积模块、第四Ghost卷积模块、第五Ghost卷积模块、第六Ghost卷积模块、第七Ghost卷积模块和第八Ghost卷积模块为如图5中(b)所示的Ghost模块。
具体的,上述Ghost模块包括第一阶段的卷积单元和第二阶段的Ghost单元。进一步的,上述第一阶段的卷积单元的卷积核为32。进一步的,上述第二阶段的Ghost单元每个φ(φ1、φ2、φk)为3*3的卷积。
进一步的,Ghost模块中第一阶段的卷积单元为少量卷积运算,第二阶段的Ghost单元在第一阶段得到的特征图上进行分块单独线性卷积,生成原有特征图的Ghost,以此消除冗余特征。
需要说明的是,通过Ghost模块中第二阶段的Ghost单元处理可使得图5中(b)所示的Ghost模块优化如图5中(a)所示的卷积单元的计算损耗。
需要说明的是,第一C3模块、第二C3模块、第三C3模块、第四C3模块、第五C3模块、第六C3模块、第七C3模块和第八C3模块为C3网络。
需要说明的是,第一拼接模块、第二拼接模块、第三拼接模块和第四拼接模块为Concat拼接网络。
需要说明的是,第一上采样模块和第二上采样模块为上采样单元。
需要说明的,行人检测模型中部分模块的参数为:
堆叠数 | 输入 | 模块 | 参数 |
1 | 3*640*640 | CBS模块 | [64,6,2,2] |
1 | 64*320*320 | 第一Ghost卷积模块 | [128,3,2] |
3 | 128*160*160 | 第一C3模块 | [128] |
1 | 128*160*160 | 第二Ghost卷积模块 | [256,3,2] |
6 | 256*80*80 | 第二C3模块 | [256] |
1 | 256*80*80 | 第三Ghost卷积模块 | [512,3,2] |
9 | 512*40*40 | 第三C3模块 | [512] |
1 | 512*40*40 | 第四Ghost卷积模块 | [1024,3,2] |
3 | 1024*20*20 | 第四C3模块 | [1024] |
1 | 1024*20*20 | CA模块 | [1024,32] |
1 | 1024*20*20 | SPPF模块 | [1024,5] |
可见,实施本发明实施例所描述的行人检测方法有利于提高行人检测精度和检测效率。
在另一个可选的实施例中,CA模块对待检测图像中的目标对象进行精准位置信息编码,包括:
对CA模块的输入图像在高度方向和宽度方向进行一维自适应平均池化,得到高度特征图和宽度特征向图;
对高度特征图和宽度特征图进行拼接,得到拼接特征图;
利用1×1卷积块对拼接特征图进行降维处理,得到降维特征图;降维特征图的维度为拼接特征图的维度的C/r;C和r均为正数;r为下采样比例;
对降维特征图进行激活处理,得到过程特征图;
对过程特征图在通道维度进行拆分,得到高度注意力权重图和宽度注意力权重图;
对高度注意力权重图、宽度注意力权重图和输入图像进行乘法加权计算,得到CA模块的输出图像;输出图像为对待检测图像中的目标对象在高度方向和宽度放上设置有注意力权重的特征图。
可选的,上述一维自适应平均池化是将输入图像降维为一维向量。
需要说明的是,上述对高度注意力权重图、宽度注意力权重图和输入图像进行乘法加权计算是基于以下公式进行的:
其中,yc(i,j)为输出图像中坐标为(i,j)的像素值;xc(i,j)为输入图像中坐标为(i,j)的像素值;为高度注意力权重图中高度方向(i)上的权重;/>为宽度注意力权重图中宽度方向(j)上的权重。
如图6所示,在经过CA模块处理后的输出图像(+CA)可获取图像高度和宽度两个维度的注意力,通过沿水平和垂直的目标空间方向对特征图的通道信息进行编码,即CA模块不仅捕获跨通道信息,还可捕获方向感知与定位信号,以实现对目标对象的位置信息更为精准的定位描述,进而增强了行人检测模型的全局感受野。
可见,实施本发明实施例所描述的行人检测方法有利于提高行人检测精度和检测效率。
实施例二
请参阅图2,图2是本发明实施例公开的一种行人检测装置的结构示意图。其中,图2所描述的装置能够应用于图像检测系统中,如用于行人检测管理的本地服务器或云端服务器等,本发明实施例不做限定。如图2所示,该装置可以包括:
获取模块201,用于获取待检测图像;
处理模块202,用于利用行人检测模型对待检测图像进行检测处理,得到预测框信息集合;预测框信息集合包括至少3个预测框信息;预测框信息表征待检测图像中行人的位置和类别;
确定模块203,用于基于预测框信息集合,确定出行人检测结果。
可见,实施图2所描述的行人检测装置,有利于提高行人检测精度和检测效率。
在另一个可选的实施例中,如图2所示,在处理模块202利用行人检测模型对待检测图像进行检测处理,得到预测框信息集合之前,装置还包括:
处理模块202,还用于获取训练参数集合和模型训练集;训练参数集合包括至少4个训练参数;
基于训练参数集合对训练环境进行设置;
在训练环境下,利用模型训练集和损失函数模型对训练模型进行训练,得到行人检测模型。
可见,实施图2所描述的行人检测装置有利于提高行人检测精度和检测效率。
在又一个可选的实施例中,如图2所示,在处理模块202在训练环境下,利用模型训练集和损失函数对训练模型进行训练,得到行人检测模型之前,装置还包括:
处理模块202,还用于获取图像数据集;图像数据集包括5个行人类别的实验图像;每个行人类别表征实验图像中行人的类别属性特征;
将图像数据集进行格式转换,得到格式数据集;格式数据集包括若干张格式图像;
将格式数据集中满足第一类别条件的格式图像剔除,得到条件数据集;条件数据集中包括条件图像;条件图像的数量少于格式图像的数量的2/3;
利用第二类别条件对条件数据集中的条件图像进行类别转换,得到模型训练集;模型训练集只包含一个行人类别的模型训练图像。
可见,实施图2所描述的行人检测装置有利于提高行人检测精度和检测效率。
在又一个可选的实施例中,如图2所示,处理模块202在训练环境下,利用模型训练集和损失函数模型对训练模型进行训练,得到行人检测模型,包括:
基于训练环境中的图像处理数量,从模型训练集中确定出目标训练图像集;图像处理数量表征每次用于训练训练模型的图像的数量;
利用目标训练图像集对训练模型进行训练,得到中间模型;
利用损失函数模型对中间模型的模型参数进行计算处理,得到损失函数值;
基于损失函数值和训练环境中的训练周期值,判断中间模型是否满足训练终止条件,得到训练判断结果;训练周期值表征在训练环境下对训练模型的最大训练次数;
当训练判断结果为否时,利用中间模型对训练模型进行更新,并出发执行基于训练环境中的图像处理数量,从模型训练集中确定出目标训练图像集;
当训练判断结果为是时,确定中间模型为行人检测模型;
其中,损失函数模型为
式中,Lα-CIoU为损失函数值;α为power正则化项的power参数;b为预测框的中心坐标;bgt为真实目标边界框中心的参数;ρ2为两个中心点距离的平方,β为个权重系数,ν为两个矩形框长宽比一致性评估值;IoU为交并比;c为同时包含预测框和真实框的最小闭包区域的对角线距离。
可见,实施图2所描述的行人检测装置有利于提高行人检测精度和检测效率。
在又一个可选的实施例中,如图2所示,power正则化项的power参数是基于以下步骤得到的:
获取待选参数值信息;待选参数值信息包括至少5个待选参数值;
基于待选参数值信息对损失函数模型进行精度测试计算,得到测试精度值集合;测试精度值集合包括若干个测试精度值;测试精度值表征模型的准确率;每个测试精度值对应于唯一一个待选参数值;
对测试精度值集合中的测试精度值进行曲线拟合,得到精度值曲线;
从精度值曲线中选取峰值对应的测试精度值作为目标测试精度值;
确定目标测试精度值对应的待选参数值为power正则化项的power参数。
可见,实施图2所描述的行人检测装置有利于提高行人检测精度和检测效率。
在又一个可选的实施例中,如图2所示,行人检测模型包括:
CBS模块的第一端与第一Ghost卷积模块的第一端相连接;第一Ghost卷积模块的第二段与第一C3模块的第一端相连接;第一C3模块的第二端与第二Ghost卷积模块的第一端相连接;第二Ghost卷积模块的第二端与第二C3模块的第一端相连接;第二C3模块的第二端分别与第三Ghost卷积模块的第一端和第一拼接模块的第一端相连接;第三Ghost卷积模块的第二端与第三C3模块的第一端相连接;第三C3模块的第二端分别与第四Ghost卷积模块的第一端、第二拼接模块的第一端和第三拼接模块的第一端相连接;第四Ghost卷积模块的二端与第四C3模块的第一端相连接;第四C3模块的第二端与CA模块的第一端相连接;CA模块的第二端与SPPF模块的第一端相连接;SPPF模块的第二端与第五Ghost卷积模块的第二端与第一上采样模块的第一端相连接;第五Ghost卷积模块的第三端与第四拼接模块的第一端相连接;上采样模块的第二端与第二拼接模块的第二端相连接;第二拼接模块的第三端与第五C3模块的第一端相连接;第五C3模块的第二端与第六Ghost卷积模块的第一端相连接;第六Ghost卷积模块的第二端分别与第二上采样模块的第一端和第三拼接模块的第一端相连接;第二上采样模块的第二端与第一拼接模块的第二端相连接;第二拼接模块的第三端与第六C3模块的第一端相连接;第六C3模块的第二端分别与第七Ghost卷积模块的第一端和第一预测卷积模块的第一端相连接;第七Ghost卷积模块的第二端与第三拼接模块的第二端相连接;第三拼接模块的第三端与第七C3模块的第一端相连接;第七C3模块的第二端分别与第八Ghost卷积模块的第一端和第二预测卷积模块的第一端相连接;第八Ghost卷积模块的第二端与第四拼接模块的第二端相连接;第四拼接模块的第三端与第八C3模块的第一端相连接;第八C3模块的第二端与第三预测卷积模块的第一端相连接;
CA模块,用于对待检测图像中的目标对象进行精准位置信息编码;
第一预测卷积模块、第二预测卷积模块和第三预测卷积模块,用于输出预测框信息。
可见,实施图2所描述的行人检测装置有利于提高行人检测精度和检测效率。
在又一个可选的实施例中,如图2所示,CA模块对待检测图像中的目标对象进行精准位置信息编码,包括:
对CA模块的输入图像在高度方向和宽度方向进行一维自适应平均池化,得到高度特征图和宽度特征向图;
对高度特征图和宽度特征图进行拼接,得到拼接特征图;
利用1×1卷积块对拼接特征图进行降维处理,得到降维特征图;降维特征图的维度为拼接特征图的维度的C/r;C和r均为正数;r为下采样比例;
对降维特征图进行激活处理,得到过程特征图;
对过程特征图在通道维度进行拆分,得到高度注意力权重图和宽度注意力权重图;
对高度注意力权重图、宽度注意力权重图和输入图像进行乘法加权计算,得到CA模块的输出图像;输出图像为对待检测图像中的目标对象在高度方向和宽度放上设置有注意力权重的特征图。
可见,实施图2所描述的行人检测装置有利于提高行人检测精度和检测效率。
实施例三
请参阅图3,图3是本发明实施例公开的又一种行人检测装置的结构示意图。其中,图3所描述的装置能够应用于图像检测系统中,如用于行人检测管理的本地服务器或云端服务器等,本发明实施例不做限定。如图3所示,该装置可以包括:
存储有可执行程序代码的存储器301;
与存储器301耦合的处理器302;
处理器302调用存储器301中存储的可执行程序代码,用于执行实施例一所描述的行人检测方法中的步骤。
实施例四
本发明实施例公开了一种计算机可读读存储介质,其存储用于电子数据交换的计算机程序,其中,该计算机程序使得计算机执行实施例一所描述的行人检测方法中的步骤。
实施例五
本发明实施例公开了一种计算机程序产品,该计算机程序产品包括存储了计算机程序的非瞬时性计算机可读存储介质,且该计算机程序可操作来使计算机执行实施例一所描述的行人检测方法中的步骤。
以上所描述的装置实施例仅是示意性的,其中作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施例的具体描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,存储介质包括只读存储器(Read-Only Memory,ROM)、随机存储器(Random Access Memory,RAM)、可编程只读存储器(Programmable Read-only Memory,PROM)、可擦除可编程只读存储器(ErasableProgrammable Read Only Memory,EPROM)、一次可编程只读存储器(One-timeProgrammable Read-Only Memory,OTPROM)、电子抹除式可复写只读存储器(Electrically-Erasable Programmable Read-Only Memory,EEPROM)、只读光盘(CompactDisc Read-Only Memory,CD-ROM)或其他光盘存储器、磁盘存储器、磁带存储器、或者能够用于携带或存储数据的计算机可读的任何其他介质。
最后应说明的是:本发明实施例公开的一种行人检测方法及装置所揭露的仅为本发明较佳实施例而已,仅用于说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解;其依然可以对前述各项实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或替换,并不使相应的技术方案的本质脱离本发明各项实施例技术方案的精神和范围。
Claims (7)
1.一种行人检测方法,其特征在于,所述方法包括:
获取待检测图像;
利用行人检测模型对所述待检测图像进行检测处理,得到预测框信息集合;所述预测框信息集合包括至少3个预测框信息;所述预测框信息表征所述待检测图像中行人的位置和类别;
基于所述预测框信息集合,确定出行人检测结果;
其中,所述基于预测框信息集合,确定出行人检测结果,包括:
计算所有所述预测框信息中预测框的置信度,得到预测框置信度信息;
基于置信度大小关系,从所述预测框置信度信息中确定出目标特征预测框;
利用所述目标特征预测框对所有预测框置信度信息进行重叠情况对比分析和剔除处理,得到该检测特征图对应的目标图框信息;对预测框的剔除是当不同预测框之间的重合度超过重叠阈值时,将除目标特征预测框之外的其他预测框进行删除;
对所有目标图框信息进行横向和纵向的融合处理,得到框检测结果信息;
基于框检测结果信息,对待检测图像中的目标对象进行解码处理,得到行人检测结果;行人检测结果表征行人类别为正常行人的目标对象在待检测图像中的位置情况;
其中,在所述利用行人检测模型对所述待检测图像进行检测处理,得到预测框信息集合之前,所述方法还包括:
获取训练参数集合和模型训练集;所述训练参数集合包括至少4个训练参数;
基于所述训练参数集合对训练环境进行设置;
在所述训练环境下,利用所述模型训练集和损失函数模型对训练模型进行训练,得到所述行人检测模型;
其中,所述在所述训练环境下,利用所述模型训练集和损失函数模型对训练模型进行训练,得到所述行人检测模型,包括:
基于所述训练环境中的图像处理数量,从所述模型训练集中确定出目标训练图像集;所述图像处理数量表征每次用于训练所述训练模型的图像的数量;
利用所述目标训练图像集对所述训练模型进行训练,得到中间模型;
利用所述损失函数模型对所述中间模型的模型参数进行计算处理,得到损失函数值;
基于所述损失函数值和所述训练环境中的训练周期值,判断所述中间模型是否满足训练终止条件,得到训练判断结果;所述训练周期值表征在所述训练环境下对所述训练模型的最大训练次数;
当所述训练判断结果为否时,利用所述中间模型对所述训练模型进行更新,并出发执行所述基于所述训练环境中的图像处理数量,从所述模型训练集中确定出目标训练图像集;
当所述训练判断结果为是时,确定所述中间模型为所述行人检测模型;
其中,所述损失函数模型为
式中,Lα-CIoU为损失函数值;α为power正则化项的power参数;b为预测框的中心坐标;bgt为真实目标边界框中心的参数;ρ2为两个中心点距离的平方,β为权重系数,ν为两个矩形框长宽比一致性评估值;IoU为交并比;c为同时包含预测框和真实框的最小闭包区域的对角线距离;
其中,所述power正则化项的power参数是基于以下步骤得到的:
获取待选参数值信息;所述待选参数值信息包括至少5个待选参数值;
基于所述待选参数值信息对所述损失函数模型进行精度测试计算,得到测试精度值集合;所述测试精度值集合包括若干个测试精度值;所述测试精度值表征模型的准确率;每个所述测试精度值对应于唯一一个所述待选参数值;所述待选参数值为[1,6]之间的正整数;
对所述测试精度值集合中的测试精度值进行曲线拟合,得到精度值曲线;
从所述精度值曲线中选取峰值对应的测试精度值作为目标测试精度值;
确定所述目标测试精度值对应的待选参数值为所述power正则化项的power参数。
2.根据权利要求1所述的行人检测方法,其特征在于,所述在所述训练环境下,利用所述模型训练集和损失函数对训练模型进行训练,得到所述行人检测模型之前,所述方法还包括:
获取图像数据集;所述图像数据集包括5个行人类别的实验图像;每个所述行人类别表征所述实验图像中行人的类别属性特征;
将所述图像数据集进行格式转换,得到格式数据集;所述格式数据集包括若干张格式图像;
将所述格式数据集中满足第一类别条件的所述格式图像剔除,得到条件数据集;所述条件数据集中包括条件图像;所述条件图像的数量少于所述格式图像的数量的2/3;
利用第二类别条件对所述条件数据集中的所述条件图像进行类别转换,得到所述模型训练集;所述模型训练集只包含一个所述行人类别的模型训练图像。
3.根据权利要求1所述的行人检测方法,其特征在于,所述行人检测模型包括:
CBS模块的第一端与第一Ghost卷积模块的第一端相连接;所述第一Ghost卷积模块的第二段与第一C3模块的第一端相连接;所述第一C3模块的第二端与第二Ghost卷积模块的第一端相连接;所述第二Ghost卷积模块的第二端与第二C3模块的第一端相连接;所述第二C3模块的第二端分别与第三Ghost卷积模块的第一端和第一拼接模块的第一端相连接;所述第三Ghost卷积模块的第二端与第三C3模块的第一端相连接;所述第三C3模块的第二端分别与第四Ghost卷积模块的第一端、第二拼接模块的第一端和第三拼接模块的第一端相连接;所述第四Ghost卷积模块的二端与第四C3模块的第一端相连接;所述第四C3模块的第二端与CA模块的第一端相连接;所述CA模块的第二端与SPPF模块的第一端相连接;所述SPPF模块的第二端与第五Ghost卷积模块的第二端与第一上采样模块的第一端相连接;所述第五Ghost卷积模块的第三端与第四拼接模块的第一端相连接;所述上采样模块的第二端与所述第二拼接模块的第二端相连接;所述第二拼接模块的第三端与第五C3模块的第一端相连接;所述第五C3模块的第二端与第六Ghost卷积模块的第一端相连接;所述第六Ghost卷积模块的第二端分别与第二上采样模块的第一端和所述第三拼接模块的第一端相连接;所述第二上采样模块的第二端与所述第一拼接模块的第二端相连接;所述第二拼接模块的第三端与第六C3模块的第一端相连接;所述第六C3模块的第二端分别与第七Ghost卷积模块的第一端和第一预测卷积模块的第一端相连接;所述第七Ghost卷积模块的第二端与所述第三拼接模块的第二端相连接;所述第三拼接模块的第三端与第七C3模块的第一端相连接;所述第七C3模块的第二端分别与第八Ghost卷积模块的第一端和第二预测卷积模块的第一端相连接;所述第八Ghost卷积模块的第二端与所述第四拼接模块的第二端相连接;所述第四拼接模块的第三端与第八C3模块的第一端相连接;所述第八C3模块的第二端与第三预测卷积模块的第一端相连接;
所述CA模块,用于对所述待检测图像中的目标对象进行精准位置信息编码;
所述第一预测卷积模块、所述第二预测卷积模块和所述第三预测卷积模块,用于输出所述预测框信息。
4.根据权利要求3所述的行人检测方法,其特征在于,所述CA模块对所述待检测图像中的目标对象进行精准位置信息编码,包括:
对所述CA模块的输入图像在高度方向和宽度方向进行一维自适应平均池化,得到高度特征图和宽度特征图;
对所述高度特征图和所述宽度特征图进行拼接,得到拼接特征图;
利用1×1卷积块对所述拼接特征图进行降维处理,得到降维特征图;所述降维特征图的维度为所述拼接特征图的维度的C/r;所述C和所述r均为正数;所述r为下采样比例;
对所述降维特征图进行激活处理,得到过程特征图;
对所述过程特征图在通道维度进行拆分,得到高度注意力权重图和宽度注意力权重图;
对所述高度注意力权重图、所述宽度注意力权重图和所述输入图像进行乘法加权计算,得到所述CA模块的输出图像;所述输出图像为对所述待检测图像中的目标对象在高度方向和宽度放上设置有注意力权重的特征图。
5.一种行人检测装置,其特征在于,所述装置包括:
获取模块,用于获取待检测图像;
处理模块,用于利用行人检测模型对所述待检测图像进行检测处理,得到预测框信息集合;所述预测框信息集合包括至少3个预测框信息;所述预测框信息表征所述待检测图像中行人的位置和类别;
确定模块,用于基于所述预测框信息集合,确定出行人检测结果;
其中,所述基于预测框信息集合,确定出行人检测结果,包括:
计算所有所述预测框信息中预测框的置信度,得到预测框置信度信息;
基于置信度大小关系,从所述预测框置信度信息中确定出目标特征预测框;
利用所述目标特征预测框对所有预测框置信度信息进行重叠情况对比分析和剔除处理,得到该检测特征图对应的目标图框信息;对预测框的剔除是当不同预测框之间的重合度超过重叠阈值时,将除目标特征预测框之外的其他预测框进行删除;
对所有目标图框信息进行横向和纵向的融合处理,得到框检测结果信息;
基于框检测结果信息,对待检测图像中的目标对象进行解码处理,得到行人检测结果;行人检测结果表征行人类别为正常行人的目标对象在待检测图像中的位置情况;
其中,在所述利用行人检测模型对所述待检测图像进行检测处理,得到预测框信息集合之前,还包括:
获取训练参数集合和模型训练集;所述训练参数集合包括至少4个训练参数;
基于所述训练参数集合对训练环境进行设置;
在所述训练环境下,利用所述模型训练集和损失函数模型对训练模型进行训练,得到所述行人检测模型;
其中,所述在所述训练环境下,利用所述模型训练集和损失函数模型对训练模型进行训练,得到所述行人检测模型,包括:
基于所述训练环境中的图像处理数量,从所述模型训练集中确定出目标训练图像集;所述图像处理数量表征每次用于训练所述训练模型的图像的数量;
利用所述目标训练图像集对所述训练模型进行训练,得到中间模型;
利用所述损失函数模型对所述中间模型的模型参数进行计算处理,得到损失函数值;
基于所述损失函数值和所述训练环境中的训练周期值,判断所述中间模型是否满足训练终止条件,得到训练判断结果;所述训练周期值表征在所述训练环境下对所述训练模型的最大训练次数;
当所述训练判断结果为否时,利用所述中间模型对所述训练模型进行更新,并出发执行所述基于所述训练环境中的图像处理数量,从所述模型训练集中确定出目标训练图像集;
当所述训练判断结果为是时,确定所述中间模型为所述行人检测模型;
其中,所述损失函数模型为
式中,Lα-CIoU为损失函数值;α为power正则化项的power参数;b为预测框的中心坐标;bgt为真实目标边界框中心的参数;ρ2为两个中心点距离的平方,β为权重系数,ν为两个矩形框长宽比一致性评估值;IoU为交并比;c为同时包含预测框和真实框的最小闭包区域的对角线距离;
其中,所述power正则化项的power参数是基于以下步骤得到的:
获取待选参数值信息;所述待选参数值信息包括至少5个待选参数值;
基于所述待选参数值信息对所述损失函数模型进行精度测试计算,得到测试精度值集合;所述测试精度值集合包括若干个测试精度值;所述测试精度值表征模型的准确率;每个所述测试精度值对应于唯一一个所述待选参数值;所述待选参数值为[1,6]之间的正整数;
对所述测试精度值集合中的测试精度值进行曲线拟合,得到精度值曲线;
从所述精度值曲线中选取峰值对应的测试精度值作为目标测试精度值;
确定所述目标测试精度值对应的待选参数值为所述power正则化项的power参数。
6.一种行人检测装置,其特征在于,所述装置包括:
存储有可执行程序代码的存储器;
与所述存储器耦合的处理器;
所述处理器调用所述存储器中存储的所述可执行程序代码,执行如权利要求1-4任一项所述的行人检测方法。
7.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,所述计算机指令被调用时,用于执行如权利要求1-4任一项所述的行人检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310188758.1A CN116229419B (zh) | 2023-02-21 | 2023-02-21 | 一种行人检测方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310188758.1A CN116229419B (zh) | 2023-02-21 | 2023-02-21 | 一种行人检测方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116229419A CN116229419A (zh) | 2023-06-06 |
CN116229419B true CN116229419B (zh) | 2024-04-30 |
Family
ID=86585428
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310188758.1A Active CN116229419B (zh) | 2023-02-21 | 2023-02-21 | 一种行人检测方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116229419B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117456461A (zh) * | 2023-11-07 | 2024-01-26 | 北京城市轨道交通咨询有限公司 | 一种动火作业违规检测方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110378243A (zh) * | 2019-06-26 | 2019-10-25 | 深圳大学 | 一种行人检测方法及装置 |
CN114724175A (zh) * | 2022-03-04 | 2022-07-08 | 亿达信息技术有限公司 | 行人图像的检测网络、检测方法、训练方法、电子设备和介质 |
CN115223042A (zh) * | 2022-07-05 | 2022-10-21 | 深圳职业技术学院 | 基于YOLOv5网络模型的目标识别方法及装置 |
-
2023
- 2023-02-21 CN CN202310188758.1A patent/CN116229419B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110378243A (zh) * | 2019-06-26 | 2019-10-25 | 深圳大学 | 一种行人检测方法及装置 |
CN114724175A (zh) * | 2022-03-04 | 2022-07-08 | 亿达信息技术有限公司 | 行人图像的检测网络、检测方法、训练方法、电子设备和介质 |
CN115223042A (zh) * | 2022-07-05 | 2022-10-21 | 深圳职业技术学院 | 基于YOLOv5网络模型的目标识别方法及装置 |
Non-Patent Citations (5)
Title |
---|
FS-YOLOv5:轻量化红外目标检测方法;黄磊 等;计算机工程与应用.https://kns.cnki.net/kcms/detail//11.2127.TP.20221215.1251.013.html;第1-14页 * |
Object Detection Algorithm Based on Improved YOLOv5 for Basketball Robot;Ruizhe Liu et al.;CISC 2022;第49-63页 * |
基于YOLO模型的红外图像行人检测方法;谭康霞 等;激光与红外;20181120(第11期);全文 * |
张秀再 等.改进YOLOv5s 算法的地铁场景行人目标检测.激光与光电子学进展.https://kns.cnki.net/kcms/detail/31.1690.TN.20220713.1944.609.html.2022,第1-21页. * |
改进YOLOv5s 算法的地铁场景行人目标检测;张秀再 等;激光与光电子学进展.https://kns.cnki.net/kcms/detail/31.1690.TN.20220713.1944.609.html;第1-21页 * |
Also Published As
Publication number | Publication date |
---|---|
CN116229419A (zh) | 2023-06-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110287960B (zh) | 自然场景图像中曲线文字的检测识别方法 | |
CN113705478B (zh) | 一种基于改进YOLOv5的红树林单木目标检测方法 | |
CN109165538B (zh) | 基于深度神经网络的条形码检测方法及装置 | |
CN112084869B (zh) | 一种基于紧致四边形表示的建筑物目标检测方法 | |
CN111079739B (zh) | 一种多尺度注意力特征检测方法 | |
CN112419202B (zh) | 基于大数据及深度学习的野生动物图像自动识别系统 | |
CN110188780B (zh) | 用于定位多目标特征点的深度学习模型的构建方法及装置 | |
CN116229419B (zh) | 一种行人检测方法及装置 | |
CN115995042A (zh) | 一种视频sar运动目标检测方法及装置 | |
CN116092179A (zh) | 一种改进的yolox跌倒检测系统 | |
CN115359366A (zh) | 基于参数优化的遥感图像目标检测方法 | |
CN113469099A (zh) | 目标检测模型的训练方法、检测方法、装置、设备及介质 | |
CN114240779A (zh) | 一种点云去噪方法、装置、设备及存储介质 | |
CN113505643A (zh) | 违章目标物检测方法及相关装置 | |
CN113065379B (zh) | 融合图像质量的图像检测方法、装置、电子设备 | |
CN115713750B (zh) | 一种车道线检测方法、装置、电子设备及存储介质 | |
CN112001453A (zh) | 一种视频事件检测算法的准确率计算方法及装置 | |
CN116310832A (zh) | 遥感图像处理方法、装置、设备、介质及产品 | |
CN115346051A (zh) | 一种光学遥感图像检测方法及装置 | |
CN113688810B (zh) | 一种边缘设备的目标捕获方法、系统及相关设备 | |
CN112232102A (zh) | 一种基于深度神经网络和多任务学习的建筑物目标识别方法和系统 | |
CN113569600A (zh) | 物体重识别的方法、装置、电子设备及存储介质 | |
CN116958981B (zh) | 一种文字识别方法及装置 | |
CN113449611B (zh) | 一种基于yolo网络压缩算法的安全帽识别智能监控系统 | |
CN115546780B (zh) | 车牌识别方法、模型及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |