CN116524420B - 一种交通场景下的关键目标检测方法及系统 - Google Patents

一种交通场景下的关键目标检测方法及系统 Download PDF

Info

Publication number
CN116524420B
CN116524420B CN202310803998.8A CN202310803998A CN116524420B CN 116524420 B CN116524420 B CN 116524420B CN 202310803998 A CN202310803998 A CN 202310803998A CN 116524420 B CN116524420 B CN 116524420B
Authority
CN
China
Prior art keywords
sub
scale
classifier
classifiers
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310803998.8A
Other languages
English (en)
Other versions
CN116524420A (zh
Inventor
王中元
华捷
胡珊
张羽飞
常军
李明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN202310803998.8A priority Critical patent/CN116524420B/zh
Publication of CN116524420A publication Critical patent/CN116524420A/zh
Application granted granted Critical
Publication of CN116524420B publication Critical patent/CN116524420B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • G06V10/765Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明公开了一种交通场景下的关键目标检测方法及系统,首先获取交通视频,并提取视频图像高维特征,提取高维度的多尺度特征;然后对多尺度特征进行处理,提取显著性多尺度特征;对提取的显著性多尺度特征进行处理,实现边框回归与多个子类别预测,得到关键目标的定位信息与类别信息;接着约束分类结果减少误检;最后将定位信息与约束后的分类结果进行结合,消除冗余检测框,得到最终的关键目标定位信息与类别信息。本发明能够在复杂多变的陆上或海上交通场景下快速并准确的检测出行驶或静止状态下的关键目标,实现交通场景下的关键目标的智能监控或用于无人驾驶系统中的环境感知任务。

Description

一种交通场景下的关键目标检测方法及系统
技术领域
本发明属于计算机视觉技术领域,涉及一种交通场景关键目标检测方法及系统,具体涉及一种基于分类任务再解耦的交通场景关键目标检测方法及系统。
背景技术
基于道路交通场景下关键目标(行人、车辆、车道、交通标识、障碍物等)检测技术的无人驾驶辅助系统,能够有效降低人为因素引发交通事故的概率。对海上交通场景下的关键目标(船舶、航标、灯塔、岛礁等)检测识别以确保航运和海洋工程安全的需求日益紧迫。
然而,从交通场景中获取的图像由于其全天候、全天时要求,往往质量较低,外部环境和流量对象本身也增加了这种复杂性。陆上和海上交通场景的背景复杂多变,且存在雾霾、暴雨等恶劣天气的影响。交通场景图像还容易受到光照条件的影响,极大的影响了交通场景下的关键目标检测方法的准确性。同时,交通场景下的不同目标实例尺度差异较大,且存在遮挡等情况,这对检测方法的多尺度检测能力有较高的要求。此外,交通场景下的部分关键目标类间特征差异较小,这可能导致误检。如何降低环境因素的影响,减少误检,提高检测算法的鲁棒性,已经成为交通场景下的关键目标检测领域中亟需解决的难题。
交通场景下的关键目标检测技术旨在对交通场景中的目标如汽车、行人、骑手、船舶等关键目标进行定位与分类。早期的传统目标检测方法如ACF等,往往只能实现单类别的目标检测任务,且检测精度较低。近年来,随着人工智能(AI)技术的快速发展,涌现一大批基于深度学习的目标检测算法。基于深度学习的方法通过深度卷积神经网络学习目标特征,直接预测目标的类别与定位信息。然而目前的研究主要聚焦于目标检测中分类任务与边框回归任务之间的相关性解耦问题上。目前主流的目标检测方法如FCOS和Dyhead等,通常将分类和边框回归任务解耦,分别构建各自的特征提取分支。这些方法虽然一定程度上提高了目标检测的精度,但是他们很少利用分类任务再解耦的潜力,且应用于交通场景下的关键目标检测任务时,上述难题仍然存在。
发明内容
为了解决上述技术问题,本发明结合基于深度学习目标检测算法,提供了一种交通场景下的关键目标检测方法及系统。
本发明的方法所采用的技术方案是:一种交通场景下的关键目标检测方法,包括以下步骤:
步骤1:获取交通视频,并提取视频图像高维特征;
步骤2:提取高维度的多尺度特征;
步骤3:对多尺度特征进行处理,提取显著性多尺度特征;
步骤4:对提取的显著性多尺度特征进行处理,实现边框回归与多个子类别预测,得到关键目标的定位信息与类别信息,
步骤5:约束分类结果减少误检;
步骤6:将步骤4中得到的定位信息与步骤5中得到的约束后的分类结果进行结合,消除冗余检测框,得到最终的关键目标定位信息与类别信息。
本发明的系统所采用的技术方案是:一种交通场景下的关键目标检测系统,包括以下模块:
第一模块,用于获取交通视频,并提取视频图像高维特征;
第二模块,用于提取高维度的多尺度特征;
第三模块,用于对多尺度特征进行处理,提取显著性多尺度特征;
第四模块,用于对提取的显著性多尺度特征进行处理,实现边框回归与多个子类别预测,得到关键目标的定位信息与类别信息,
第五模块,用于约束分类结果减少误检;
第六模块,用于将第四模块中得到的定位信息与第五模块中得到的约束后的分类结果进行结合,消除冗余检测框,得到最终的关键目标定位信息与类别信息。
与现有的检测方法相比,本发明具有以下的优点与积极效果:
(1)本发明使用显著特征提取模块对多尺度特征进行显著性增强,有效降低极端天气等环境因素对目标检测器性能的影响。
(2)本发明提出基于分类再解耦的检测头,能够有效的提取类间差异更大的分类特征,有利于降低关键目标的分类任务难度。
(3)本发明构建了互斥抑制模块,有利于减少类别之间的误检。
附图说明
图1:本发明实施例的采用的网络整体结构图;
图2:本发明实施例的多尺度特征提取器网络结构图;
图3:本发明实施例的显著性特征提取模块络结构图;
图4:本发明实施例的边框回归器与多个子分类器结构图;
图5:本发明实施例的互斥抑制模块结构图;
图6:本发明实施例的实验结果示例。
具体实施方式
为了便于本领域普通技术人员理解和实施本发明,下面结合附图及实施案例对本发明做进一步的详细描述,应当理解,此处所描述的实施示例仅用于说明和解释本发明,并不用于限定本发明。
请见图1,本发明提供的一种交通场景下的关键目标检测方法,包括以下步骤:
步骤1:获取交通视频,并提取视频图像高维特征;
步骤2:提取高维度的多尺度特征;
请见图2,本实施例中,利用多尺度特征提取器,得到多尺度表达能力更强的多尺度特征;
本实施例的多尺度特征提取器包括骨干网络与多尺度特征融合网络,其中骨干网络为ResNet50,用于提取视频图像高维特征
本实施例的多尺度特征融合网络,用于提取多尺度表达能力更强的多尺度特征;首先将C5作为P5层特征,并使用卷积核大小为3的卷积层对P5层特征进行两次下采样,得到/>;然后最近邻上采样方法对P5层特征进行上采样,并将上采样结果与C4层特征相加,得到P4层特征:
式中表示最近邻上采样方法;随后最近邻上采样方法对P4层特征进行上采样,并将上采样结果与C3层特征相加,得到P3层特征:
相较于原图的缩放尺寸为/>
最后,为了降低特征下采样过程中的损失,使用卷积核大小为3的卷积层对C3层特征提取,并用于增强多尺度特征:
其中,表示卷积核大小为3的卷积层;/>为多尺度表达能力更强的多尺度特征,相较于原图的缩放尺寸同样为/>
步骤3:对多尺度特征进行处理,提取显著性多尺度特征;
请见图3,本实施例中,利用显著性特征提取模块,得到显著性多尺度特征;
本实施例的显著性特征提取模块,由尺度注意力函数、空间注意力函数和任务注意力函数串联组成;对于输入的多尺度特征,其中N表示多尺度特征的尺度数,HW表示输入特征的长度和宽度,合并为S维度,C表示特征的通道数,则多尺度特征表示为/>,使用显著性特征增强模块对多尺度特征进行处理,提取多尺度表达能力更强的显著性特征:
其中,分别为CSN维度上的注意力函数,分别表示任务注意力函数,空间注意力函数,尺度注意力函数。
步骤4:对提取的显著性多尺度特征进行处理,实现边框回归与多个子类别预测,得到关键目标的定位信息与类别信息,
请见图4,本实施例中,通过边框回归器与多个子分类器得到关键目标的定位与类别信息,实现边框回归与多个子类别预测;
本实施例的边框回归器由两个显著特征增强模块与一个卷积核大小为3的卷积层级联组成,其中显著特征增强模块用于提取特征,卷积层用于获取预测结果;
本实施例的每个子分类器由两个显著特征增强模块与一个卷积核大小为3的卷积层级联组成,其中显著特征增强模块用于提取特征,卷积层用于获取预测结果;每个子分类器负责c个类别的分类任务。
本实施例得到待检测目标的边框信息,其中,HW分别表示定位信息的长度和宽度,其乘积为预测框的数量;
每个特征像素点的预测结果为:
其中,分别表示特征图中像素点到目标检测框边界的距离,最后得到矩形边框回归结果为:
其中,为特征像素点的坐标,/>为矩形边框左上角坐标,/>为矩形右下角坐标。
步骤5:约束分类结果减少误检;
请见图5,本实施例中,通过互斥抑制模块约束分类结果减少误检;
本实施例的互斥抑制模块用于约束各子分类器预测结果,包括抑制强度计算层和拼接层;本实施例的抑制强度计算层,用于计算三个子分类器预测结果对其他分类器的抑制强度并进行抑制;本实施例的拼接层,用于对所有抑制后的子分类器预测结果进行拼接操作,得到所有的类别信息。
本实施例中,对K个子分类器的预测结果进行再次约束,设置互斥性阈值,计算第i个子分类器的输出/>对其他子分类器的互斥性强度:
其中,HWc分别表示每个子分类器输出的长度、宽度以及预测的类别数,表示该子分类器对其他子分类器的抑制强度;计算所有子分类器的抑制强度后,对分类结果进行约束:
其中K表示子分类器的数量,在本实例中其值为3。
步骤6:将步骤4中得到的定位信息与步骤5中得到的约束后的分类结果进行结合,通过非极大值抑制方法,消除冗余检测框,得到最终的关键目标定位信息与类别信息;
本实施例采用非极大值抑制方法,消除冗余检测框,其步骤如下;
(1)将所有的检测框按照类别划分,并剔除背景类;
(2)根据每个类别的检测框的分类分数进行排序;
(3)选择分类分数最高的检测框作为最终输出的检测框;
(4)计算该类别检测框的面积以及分类分数最高的检测框与其他检测框之间的交并比;
(5)将所有交并比小于设定的阈值的检测框删除;
(6)重复步骤(3)~(5),直到该类别检测框全部被选择或删除,完成一个类别目标的检测框选取;
(7)重复步骤(2)~(6),直到所有类别的非极大值抑制处理完成。
本实施例的本实施例的边框回归器与子分类器,均是训练好的边框回归器与子分类器;
训练过程中,各子分类器单独输出对应类别的分类结果:
其中表示子分类器的输出,K表示子分类器的数量,在本实例中其值为3,/>表示所有分类器的输出;
训练过程中,边框回归器的损失函数为:
其中,和/>分别表示真实的包围框和预测得到的包围框;
子分类器的损失函数为:
其中,用于调节正负样本对子分类器学习过程中的重要程度,/>用于提高子分类器对困难样本的挖掘能力;当y=1时,表示该样本为正样本,当y=0时,则表示该样本为负样本,p表示该样本被预测为某一类前景目标的概率;
因此训练过程中的总损失为:
其中,K表示子分类器的数量,在本实例中其值为3。
基于本发明实现的算法对交通场景下的关键目标检测的效果,图6给出了部分示例,在陆上交通场景与水上交通场景中,本发明均能准确的完成关键目标的检测任务。
应当理解的是,上述针对较佳实施例的描述较为详细,并不能因此而认为是对本发明专利保护范围的限制,本领域的普通技术人员在本发明的启示下,在不脱离本发明权利要求所保护的范围情况下,还可以做出替换或变形,均落入本发明的保护范围之内,本发明的请求保护范围应以所附权利要求为准。

Claims (8)

1.一种交通场景下的关键目标检测方法,其特征在于,包括以下步骤:
步骤1:获取交通视频,并提取视频图像高维特征;
步骤2:提取高维度的多尺度特征;
步骤3:对多尺度特征进行处理,提取显著性多尺度特征;
步骤4:对提取的显著性多尺度特征进行处理,实现边框回归与多个子类别预测,得到关键目标的定位信息与类别信息,
步骤5:约束分类结果减少误检;
通过互斥抑制模块约束分类结果减少误检;
所述互斥抑制模块用于约束各子分类器预测结果,包括抑制强度计算层和拼接层;所述抑制强度计算层,用于计算三个子分类器预测结果对其他分类器的抑制强度并进行抑制;所述拼接层,用于对所有抑制后的子分类器预测结果进行拼接操作,得到所有的类别信息;
其中,对K个子分类器的预测结果进行约束,设置互斥性阈值,计算第i个子分类器的输出/>对其他子分类器的互斥性强度:
其中,HWc分别表示每个子分类器输出的长度、宽度以及预测的类别数,表示该子分类器对其他子分类器的抑制强度;计算所有子分类器的抑制强度后,对分类结果进行约束:
其中K表示子分类器的数量,K=3;
步骤6:将步骤4中得到的定位信息与步骤5中得到的约束后的分类结果进行结合,消除冗余检测框,得到最终的关键目标定位信息与类别信息。
2.根据权利要求1所述的交通场景下的关键目标检测方法,其特征在于:步骤2中,利用多尺度特征提取器,得到多尺度表达能力更强的多尺度特征;
所述多尺度特征提取器包括骨干网络与多尺度特征融合网络,其中骨干网络为ResNet50,用于提取视频图像高维特征
所述多尺度特征融合网络,用于提取多尺度表达能力更强的多尺度特征;首先将C5作为P5层特征,并使用卷积核大小为3的卷积层对P5层特征进行两次下采样,得到/>;然后最近邻上采样方法对P5层特征进行上采样,并将上采样结果与C4层特征相加,得到P4层特征:
式中表示最近邻上采样方法;随后最近邻上采样方法对P4层特征进行上采样,并将上采样结果与C3层特征相加,得到P3层特征:
相较于原图的缩放尺寸为/>
最后,为了降低特征下采样过程中的损失,使用卷积核大小为3的卷积层对C3层特征提取,并用于增强多尺度特征:
其中,表示卷积核大小为3的卷积层;/>为多尺度表达能力更强的多尺度特征,相较于原图的缩放尺寸同样为/>
3.根据权利要求1所述的交通场景下的关键目标检测方法,其特征在于:步骤3中,利用显著性特征提取模块,得到显著性多尺度特征;
所述显著性特征提取模块,由尺度注意力函数、空间注意力函数和任务注意力函数串联组成;对于输入的多尺度特征,其中N表示多尺度特征的尺度数,HW表示输入特征的长度和宽度,合并为S维度,C表示特征的通道数,则多尺度特征表示为,使用显著性特征增强模块对多尺度特征进行处理,提取多尺度表达能力更强的显著性特征:
其中,分别为CSN维度上的注意力函数,分别表示任务注意力函数,空间注意力函数,尺度注意力函数。
4.根据权利要求1所述的交通场景下的关键目标检测方法,其特征在于:步骤4中,通过边框回归器与若干个子分类器得到关键目标的定位与类别信息,实现边框回归与多个子类别预测;
所述边框回归器由两个显著特征增强模块与一个卷积核大小为3的卷积层级联组成,其中显著特征增强模块用于提取特征,卷积层用于获取预测结果;
所述子分类器由两个显著特征增强模块与一个卷积核大小为3的卷积层级联组成,其中显著特征增强模块用于提取特征,卷积层用于获取预测结果;每个子分类器负责c个类别的分类任务。
5.根据权利要求4所述的交通场景下的关键目标检测方法,其特征在于:步骤5中,所述边框回归器与子分类器,均是训练好的边框回归器与子分类器;
训练过程中,各子分类器单独输出对应类别的分类结果:
其中表示子分类器的输出,K表示子分类器的数量,/>表示所有分类器的输出;
训练过程中,边框回归器的损失函数为:
其中,和/>分别表示真实的包围框和预测得到的包围框;
子分类器的损失函数为:
其中,用于调节正负样本对子分类器学习过程中的重要程度,/>用于提高子分类器对困难样本的挖掘能力;当y=1时,表示该样本为正样本,当y=0时,则表示该样本为负样本,p表示该样本被预测为某一类前景目标的概率;
因此训练过程中的总损失为:
其中,K表示子分类器的数量。
6.根据权利要求1所述的交通场景下的关键目标检测方法,其特征在于:步骤6中,采用非极大值抑制方法,消除冗余检测框,其步骤如下;
(1)将所有的检测框按照类别划分,并剔除背景类;
(2)根据每个类别的检测框的分类分数进行排序;
(3)选择分类分数最高的检测框作为最终输出的检测框;
(4)计算该类别检测框的面积以及分类分数最高的检测框与其他检测框之间的交并比;
(5)将所有交并比小于设定的阈值的检测框删除;
(6)重复步骤(3)~(5),直到该类别检测框全部被选择或删除,完成一个类别目标的检测框选取;
(7)重复步骤(2)~(6),直到所有类别的非极大值抑制处理完成。
7.根据权利要求1-6任意一项所述的交通场景下的关键目标检测方法,其特征在于:步骤4中,得到待检测目标的边框信息,其中,HW分别表示定位信息的长度和宽度,其乘积为预测框的数量;
每个特征像素点的预测结果为:
其中,分别表示特征图中像素点到目标检测框边界的距离,最后得到矩形边框回归结果为:
其中,为特征像素点的坐标,/>为矩形边框左上角坐标,/>为矩形右下角坐标。
8.一种交通场景下的关键目标检测系统,其特征在于,包括以下模块:
第一模块,用于获取交通视频,并提取视频图像高维特征;
第二模块,用于提取高维度的多尺度特征;
第三模块,用于对多尺度特征进行处理,提取显著性多尺度特征;
第四模块,用于对提取的显著性多尺度特征进行处理,实现边框回归与多个子类别预测,得到关键目标的定位信息与类别信息,
第五模块,用于约束分类结果减少误检;
通过互斥抑制模块约束分类结果减少误检;
所述互斥抑制模块用于约束各子分类器预测结果,包括抑制强度计算层和拼接层;所述抑制强度计算层,用于计算三个子分类器预测结果对其他分类器的抑制强度并进行抑制;所述拼接层,用于对所有抑制后的子分类器预测结果进行拼接操作,得到所有的类别信息;
其中, 对K个子分类器的预测结果进行约束,设置互斥性阈值,计算第i个子分类器的输出/>对其他子分类器的互斥性强度:
其中,HWc分别表示每个子分类器输出的长度、宽度以及预测的类别数,表示该子分类器对其他子分类器的抑制强度;计算所有子分类器的抑制强度后,对分类结果进行约束:
其中K表示子分类器的数量,K=3;
第六模块,用于将第四模块中得到的定位信息与第五模块中得到的约束后的分类结果进行结合,消除冗余检测框,得到最终的关键目标定位信息与类别信息。
CN202310803998.8A 2023-07-03 2023-07-03 一种交通场景下的关键目标检测方法及系统 Active CN116524420B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310803998.8A CN116524420B (zh) 2023-07-03 2023-07-03 一种交通场景下的关键目标检测方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310803998.8A CN116524420B (zh) 2023-07-03 2023-07-03 一种交通场景下的关键目标检测方法及系统

Publications (2)

Publication Number Publication Date
CN116524420A CN116524420A (zh) 2023-08-01
CN116524420B true CN116524420B (zh) 2023-09-12

Family

ID=87405118

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310803998.8A Active CN116524420B (zh) 2023-07-03 2023-07-03 一种交通场景下的关键目标检测方法及系统

Country Status (1)

Country Link
CN (1) CN116524420B (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104794435A (zh) * 2015-04-03 2015-07-22 中国科学院自动化研究所 一种基于视觉的无人机对地运动目标检测方法
CN109299342A (zh) * 2018-11-30 2019-02-01 武汉大学 一种基于循环生成式对抗网络的跨模态检索方法
CN109447102A (zh) * 2018-09-05 2019-03-08 浙江长兴笛卡尔科技有限公司 基于分类互斥性的损失函数计算方法、电子设备、介质
CN112766089A (zh) * 2021-01-04 2021-05-07 武汉大学 一种基于全局-局部对抗学习框架的跨域道路提取方法
WO2021139069A1 (zh) * 2020-01-09 2021-07-15 南京信息工程大学 自适应注意力指导机制的一般性目标检测方法
CN113779999A (zh) * 2021-11-12 2021-12-10 航天宏康智能科技(北京)有限公司 命名实体识别方法和命名实体识别装置
CN113869165A (zh) * 2021-09-18 2021-12-31 山东师范大学 一种交通场景目标检测方法及系统
CN115456248A (zh) * 2022-08-15 2022-12-09 国网电力科学研究院武汉南瑞有限责任公司 基于卷积神经网络的落雷预测模型构建方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108830205B (zh) * 2018-06-04 2019-06-14 江南大学 基于改进全卷积网络的多尺度感知行人检测方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104794435A (zh) * 2015-04-03 2015-07-22 中国科学院自动化研究所 一种基于视觉的无人机对地运动目标检测方法
CN109447102A (zh) * 2018-09-05 2019-03-08 浙江长兴笛卡尔科技有限公司 基于分类互斥性的损失函数计算方法、电子设备、介质
CN109299342A (zh) * 2018-11-30 2019-02-01 武汉大学 一种基于循环生成式对抗网络的跨模态检索方法
WO2021139069A1 (zh) * 2020-01-09 2021-07-15 南京信息工程大学 自适应注意力指导机制的一般性目标检测方法
CN112766089A (zh) * 2021-01-04 2021-05-07 武汉大学 一种基于全局-局部对抗学习框架的跨域道路提取方法
CN113869165A (zh) * 2021-09-18 2021-12-31 山东师范大学 一种交通场景目标检测方法及系统
CN113779999A (zh) * 2021-11-12 2021-12-10 航天宏康智能科技(北京)有限公司 命名实体识别方法和命名实体识别装置
CN115456248A (zh) * 2022-08-15 2022-12-09 国网电力科学研究院武汉南瑞有限责任公司 基于卷积神经网络的落雷预测模型构建方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Pedestrian- and vehicle- detection algorithm based on improved aggregated channel features;Jie Hua et al.;IEEE Access;全文 *

Also Published As

Publication number Publication date
CN116524420A (zh) 2023-08-01

Similar Documents

Publication Publication Date Title
Wei et al. Enhanced object detection with deep convolutional neural networks for advanced driving assistance
CN107563372B (zh) 一种基于深度学习ssd框架的车牌定位方法
CN109711295B (zh) 一种光学遥感图像近岸舰船检测方法
CN111104903B (zh) 一种深度感知交通场景多目标检测方法和系统
CN113052210B (zh) 一种基于卷积神经网络的快速低光照目标检测方法
CN111460921A (zh) 一种基于多任务语义分割的车道线检测方法
Xu et al. Fast vehicle and pedestrian detection using improved Mask R-CNN
CN114359851A (zh) 无人驾驶目标检测方法、装置、设备及介质
CN112339773B (zh) 一种基于单目视觉的非主动车道偏离预警方法及系统
CN116188999B (zh) 一种基于可见光和红外图像数据融合的小目标检测方法
CN112990065B (zh) 一种基于优化的YOLOv5模型的车辆分类检测方法
Xiao et al. Real-time object detection algorithm of autonomous vehicles based on improved yolov5s
Han et al. A method based on multi-convolution layers joint and generative adversarial networks for vehicle detection
CN114973199A (zh) 一种基于卷积神经网络的轨道交通列车障碍物检测方法
Yasmin et al. Small obstacles detection on roads scenes using semantic segmentation for the safe navigation of autonomous vehicles
Cho et al. Modified perceptual cycle generative adversarial network-based image enhancement for improving accuracy of low light image segmentation
Zhang et al. Pre-locate net for object detection in high-resolution images
CN116524420B (zh) 一种交通场景下的关键目标检测方法及系统
CN115909276A (zh) 基于改进YOLOv5的复杂天气下小交通标志目标检测方法
CN116311154A (zh) 一种基于YOLOv5模型优化的车辆检测与识别方法
CN113392812B (zh) 基于深度神经网络的道路车道线检测方法及系统
CN112446292B (zh) 一种2d图像显著目标检测方法及系统
CN114495050A (zh) 一种面向自动驾驶前向视觉检测的多任务集成检测方法
Nguyen Multiscale feature learning based on enhanced feature pyramid for vehicle detection
Suvetha et al. Automatic Traffic Sign Detection System With Voice Assistant

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant