CN116524420A - 一种交通场景下的关键目标检测方法及系统 - Google Patents
一种交通场景下的关键目标检测方法及系统 Download PDFInfo
- Publication number
- CN116524420A CN116524420A CN202310803998.8A CN202310803998A CN116524420A CN 116524420 A CN116524420 A CN 116524420A CN 202310803998 A CN202310803998 A CN 202310803998A CN 116524420 A CN116524420 A CN 116524420A
- Authority
- CN
- China
- Prior art keywords
- sub
- scale
- classifier
- detection
- key target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 73
- 238000012545 processing Methods 0.000 claims abstract description 16
- 230000000452 restraining effect Effects 0.000 claims abstract 2
- 238000000034 method Methods 0.000 claims description 37
- 230000006870 function Effects 0.000 claims description 18
- 230000001629 suppression Effects 0.000 claims description 17
- 238000000605 extraction Methods 0.000 claims description 9
- 230000007717 exclusion Effects 0.000 claims description 8
- 230000005764 inhibitory process Effects 0.000 claims description 6
- 238000012549 training Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 4
- 230000004927 fusion Effects 0.000 claims description 4
- 238000009412 basement excavation Methods 0.000 claims description 2
- 238000005070 sampling Methods 0.000 claims description 2
- 238000012544 monitoring process Methods 0.000 abstract 1
- 230000003068 static effect Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
- G06V10/765—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种交通场景下的关键目标检测方法及系统,首先获取交通视频,并提取视频图像高维特征,提取高维度的多尺度特征;然后对多尺度特征进行处理,提取显著性多尺度特征;对提取的显著性多尺度特征进行处理,实现边框回归与多个子类别预测,得到关键目标的定位信息与类别信息;接着约束分类结果减少误检;最后将定位信息与约束后的分类结果进行结合,消除冗余检测框,得到最终的关键目标定位信息与类别信息。本发明能够在复杂多变的陆上或海上交通场景下快速并准确的检测出行驶或静止状态下的关键目标,实现交通场景下的关键目标的智能监控或用于无人驾驶系统中的环境感知任务。
Description
技术领域
本发明属于计算机视觉技术领域,涉及一种交通场景关键目标检测方法及系统,具体涉及一种基于分类任务再解耦的交通场景关键目标检测方法及系统。
背景技术
基于道路交通场景下关键目标(行人、车辆、车道、交通标识、障碍物等)检测技术的无人驾驶辅助系统,能够有效降低人为因素引发交通事故的概率。对海上交通场景下的关键目标(船舶、航标、灯塔、岛礁等)检测识别以确保航运和海洋工程安全的需求日益紧迫。
然而,从交通场景中获取的图像由于其全天候、全天时要求,往往质量较低,外部环境和流量对象本身也增加了这种复杂性。陆上和海上交通场景的背景复杂多变,且存在雾霾、暴雨等恶劣天气的影响。交通场景图像还容易受到光照条件的影响,极大的影响了交通场景下的关键目标检测方法的准确性。同时,交通场景下的不同目标实例尺度差异较大,且存在遮挡等情况,这对检测方法的多尺度检测能力有较高的要求。此外,交通场景下的部分关键目标类间特征差异较小,这可能导致误检。如何降低环境因素的影响,减少误检,提高检测算法的鲁棒性,已经成为交通场景下的关键目标检测领域中亟需解决的难题。
交通场景下的关键目标检测技术旨在对交通场景中的目标如汽车、行人、骑手、船舶等关键目标进行定位与分类。早期的传统目标检测方法如ACF等,往往只能实现单类别的目标检测任务,且检测精度较低。近年来,随着人工智能(AI)技术的快速发展,涌现一大批基于深度学习的目标检测算法。基于深度学习的方法通过深度卷积神经网络学习目标特征,直接预测目标的类别与定位信息。然而目前的研究主要聚焦于目标检测中分类任务与边框回归任务之间的相关性解耦问题上。目前主流的目标检测方法如FCOS和Dyhead等,通常将分类和边框回归任务解耦,分别构建各自的特征提取分支。这些方法虽然一定程度上提高了目标检测的精度,但是他们很少利用分类任务再解耦的潜力,且应用于交通场景下的关键目标检测任务时,上述难题仍然存在。
发明内容
为了解决上述技术问题,本发明结合基于深度学习目标检测算法,提供了一种交通场景下的关键目标检测方法及系统。
本发明的方法所采用的技术方案是:一种交通场景下的关键目标检测方法,包括以下步骤:
步骤1:获取交通视频,并提取视频图像高维特征;
步骤2:提取高维度的多尺度特征;
步骤3:对多尺度特征进行处理,提取显著性多尺度特征;
步骤4:对提取的显著性多尺度特征进行处理,实现边框回归与多个子类别预测,得到关键目标的定位信息与类别信息,
步骤5:约束分类结果减少误检;
步骤6:将步骤4中得到的定位信息与步骤5中得到的约束后的分类结果进行结合,消除冗余检测框,得到最终的关键目标定位信息与类别信息。
本发明的系统所采用的技术方案是:一种交通场景下的关键目标检测系统,包括以下模块:
第一模块,用于获取交通视频,并提取视频图像高维特征;
第二模块,用于提取高维度的多尺度特征;
第三模块,用于对多尺度特征进行处理,提取显著性多尺度特征;
第四模块,用于对提取的显著性多尺度特征进行处理,实现边框回归与多个子类别预测,得到关键目标的定位信息与类别信息,
第五模块,用于约束分类结果减少误检;
第六模块,用于将第四模块中得到的定位信息与第五模块中得到的约束后的分类结果进行结合,消除冗余检测框,得到最终的关键目标定位信息与类别信息。
与现有的检测方法相比,本发明具有以下的优点与积极效果:
(1)本发明使用显著特征提取模块对多尺度特征进行显著性增强,有效降低极端天气等环境因素对目标检测器性能的影响。
(2)本发明提出基于分类再解耦的检测头,能够有效的提取类间差异更大的分类特征,有利于降低关键目标的分类任务难度。
(3)本发明构建了互斥抑制模块,有利于减少类别之间的误检。
附图说明
图1:本发明实施例的采用的网络整体结构图;
图2:本发明实施例的多尺度特征提取器网络结构图;
图3:本发明实施例的显著性特征提取模块络结构图;
图4:本发明实施例的边框回归器与多个子分类器结构图;
图5:本发明实施例的互斥抑制模块结构图;
图6:本发明实施例的实验结果示例。
具体实施方式
为了便于本领域普通技术人员理解和实施本发明,下面结合附图及实施案例对本发明做进一步的详细描述,应当理解,此处所描述的实施示例仅用于说明和解释本发明,并不用于限定本发明。
请见图1,本发明提供的一种交通场景下的关键目标检测方法,包括以下步骤:
步骤1:获取交通视频,并提取视频图像高维特征;
步骤2:提取高维度的多尺度特征;
请见图2,本实施例中,利用多尺度特征提取器,得到多尺度表达能力更强的多尺度特征;
本实施例的多尺度特征提取器包括骨干网络与多尺度特征融合网络,其中骨干网络为ResNet50,用于提取视频图像高维特征;
本实施例的多尺度特征融合网络,用于提取多尺度表达能力更强的多尺度特征;首先将C5作为P5层特征,并使用卷积核大小为3的卷积层对P5层特征进行两次下采样,得到/>;然后最近邻上采样方法对P5层特征进行上采样,并将上采样结果与C4层特征相加,得到P4层特征:
;
式中表示最近邻上采样方法;随后最近邻上采样方法对P4层特征进行上采样,并将上采样结果与C3层特征相加,得到P3层特征:
;
则相较于原图的缩放尺寸为/>;
最后,为了降低特征下采样过程中的损失,使用卷积核大小为3的卷积层对C3层特征提取,并用于增强多尺度特征:
;
其中,表示卷积核大小为3的卷积层;/>为多尺度表达能力更强的多尺度特征,相较于原图的缩放尺寸同样为/>。
步骤3:对多尺度特征进行处理,提取显著性多尺度特征;
请见图3,本实施例中,利用显著性特征提取模块,得到显著性多尺度特征;
本实施例的显著性特征提取模块,由尺度注意力函数、空间注意力函数和任务注意力函数串联组成;对于输入的多尺度特征,其中N表示多尺度特征的尺度数,H和W表示输入特征的长度和宽度,合并为S维度,C表示特征的通道数,则多尺度特征表示为/>,使用显著性特征增强模块对多尺度特征进行处理,提取多尺度表达能力更强的显著性特征:
;
其中,分别为C,S,N维度上的注意力函数,分别表示任务注意力函数,空间注意力函数,尺度注意力函数。
步骤4:对提取的显著性多尺度特征进行处理,实现边框回归与多个子类别预测,得到关键目标的定位信息与类别信息,
请见图4,本实施例中,通过边框回归器与多个子分类器得到关键目标的定位与类别信息,实现边框回归与多个子类别预测;
本实施例的边框回归器由两个显著特征增强模块与一个卷积核大小为3的卷积层级联组成,其中显著特征增强模块用于提取特征,卷积层用于获取预测结果;
本实施例的每个子分类器由两个显著特征增强模块与一个卷积核大小为3的卷积层级联组成,其中显著特征增强模块用于提取特征,卷积层用于获取预测结果;每个子分类器负责c个类别的分类任务。
本实施例得到待检测目标的边框信息,其中,H和W分别表示定位信息的长度和宽度,其乘积为预测框的数量;
每个特征像素点的预测结果为:
;
其中,分别表示特征图中像素点到目标检测框边界的距离,最后得到矩形边框回归结果为:
;
其中,为特征像素点的坐标,/>为矩形边框左上角坐标,为矩形右下角坐标。
步骤5:约束分类结果减少误检;
请见图5,本实施例中,通过互斥抑制模块约束分类结果减少误检;
本实施例的互斥抑制模块用于约束各子分类器预测结果,包括抑制强度计算层和拼接层;本实施例的抑制强度计算层,用于计算三个子分类器预测结果对其他分类器的抑制强度并进行抑制;本实施例的拼接层,用于对所有抑制后的子分类器预测结果进行拼接操作,得到所有的类别信息。
本实施例中,设置互斥性阈值,计算第i个子分类器的输出/>对其他子分类器的互斥性强度:
;
对K个子分类器的预测结果进行再次约束,设置互斥性阈值,计算第i个子分类器的输出/>对其他子分类器的互斥性强度:
;
其中,H,W和c分别表示每个子分类器输出的长度、宽度以及预测的类别数,表示该子分类器对其他子分类器的抑制强度;计算所有子分类器的抑制强度后,对分类结果进行约束:
;
其中K表示子分类器的数量,在本实例中其值为3。
步骤6:将步骤4中得到的定位信息与步骤5中得到的约束后的分类结果进行结合,通过非极大值抑制方法,消除冗余检测框,得到最终的关键目标定位信息与类别信息;
本实施例采用非极大值抑制方法,消除冗余检测框,其步骤如下;
(1)将所有的检测框按照类别划分,并剔除背景类;
(2)根据每个类别的检测框的分类分数进行排序;
(3)选择分类分数最高的检测框作为最终输出的检测框;
(4)计算该类别检测框的面积以及分类分数最高的检测框与其他检测框之间的交并比;
(5)将所有交并比小于设定的阈值的检测框删除;
(6)重复步骤(3)~(5),直到该类别检测框全部被选择或删除,完成一个类别目标的检测框选取;
(7)重复步骤(2)~(6),直到所有类别的非极大值抑制处理完成。
本实施例的本实施例的边框回归器与子分类器,均是训练好的边框回归器与子分类器;
训练过程中,各子分类器单独输出对应类别的分类结果:
;
其中表示子分类器的输出,K表示子分类器的数量,在本实例中其值为3,/>表示所有分类器的输出;
训练过程中,边框回归器的损失函数为:
;
其中,和/>分别表示真实的包围框和预测得到的包围框;
子分类器的损失函数为:
;
其中,用于调节正负样本对子分类器学习过程中的重要程度,/>用于提高子分类器对困难样本的挖掘能力;当y=1时,表示该样本为正样本,当y=0时,则表示该样本为负样本,p表示该样本被预测为某一类前景目标的概率;
因此训练过程中的总损失为:
;
其中,K表示子分类器的数量,在本实例中其值为3。
基于本发明实现的算法对交通场景下的关键目标检测的效果,图6给出了部分示例,在陆上交通场景与水上交通场景中,本发明均能准确的完成关键目标的检测任务。
应当理解的是,上述针对较佳实施例的描述较为详细,并不能因此而认为是对本发明专利保护范围的限制,本领域的普通技术人员在本发明的启示下,在不脱离本发明权利要求所保护的范围情况下,还可以做出替换或变形,均落入本发明的保护范围之内,本发明的请求保护范围应以所附权利要求为准。
Claims (10)
1.一种交通场景下的关键目标检测方法,其特征在于,包括以下步骤:
步骤1:获取交通视频,并提取视频图像高维特征;
步骤2:提取高维度的多尺度特征;
步骤3:对多尺度特征进行处理,提取显著性多尺度特征;
步骤4:对提取的显著性多尺度特征进行处理,实现边框回归与多个子类别预测,得到关键目标的定位信息与类别信息,
步骤5:约束分类结果减少误检;
步骤6:将步骤4中得到的定位信息与步骤5中得到的约束后的分类结果进行结合,消除冗余检测框,得到最终的关键目标定位信息与类别信息。
2.根据权利要求1所述的交通场景下的关键目标检测方法,其特征在于:步骤2中,利用多尺度特征提取器,得到多尺度表达能力更强的多尺度特征;
所述多尺度特征提取器包括骨干网络与多尺度特征融合网络,其中骨干网络为ResNet50,用于提取视频图像高维特征;
所述多尺度特征融合网络,用于提取多尺度表达能力更强的多尺度特征;首先将C5作为P5层特征,并使用卷积核大小为3的卷积层对P5层特征进行两次下采样,得到/>;然后最近邻上采样方法对P5层特征进行上采样,并将上采样结果与C4层特征相加,得到P4层特征:
;
式中表示最近邻上采样方法;随后最近邻上采样方法对P4层特征进行上采样,并将上采样结果与C3层特征相加,得到P3层特征:
;
则相较于原图的缩放尺寸为/>;
最后,为了降低特征下采样过程中的损失,使用卷积核大小为3的卷积层对C3层特征提取,并用于增强多尺度特征:
;
其中,表示卷积核大小为3的卷积层;/>为多尺度表达能力更强的多尺度特征,相较于原图的缩放尺寸同样为/>。
3.根据权利要求1所述的交通场景下的关键目标检测方法,其特征在于:步骤3中,利用显著性特征提取模块,得到显著性多尺度特征;
所述显著性特征提取模块,由尺度注意力函数、空间注意力函数和任务注意力函数串联组成;对于输入的多尺度特征,其中N表示多尺度特征的尺度数,H和W表示输入特征的长度和宽度,合并为S维度,C表示特征的通道数,则多尺度特征表示为,使用显著性特征增强模块对多尺度特征进行处理,提取多尺度表达能力更强的显著性特征:
;
其中,分别为C,S,N维度上的注意力函数,分别表示任务注意力函数,空间注意力函数,尺度注意力函数。
4.根据权利要求1所述的交通场景下的关键目标检测方法,其特征在于:步骤4中,通过边框回归器与若干个子分类器得到关键目标的定位与类别信息,实现边框回归与多个子类别预测;
所述边框回归器由两个显著特征增强模块与一个卷积核大小为3的卷积层级联组成,其中显著特征增强模块用于提取特征,卷积层用于获取预测结果;
所述子分类器由两个显著特征增强模块与一个卷积核大小为3的卷积层级联组成,其中显著特征增强模块用于提取特征,卷积层用于获取预测结果;每个子分类器负责c个类别的分类任务。
5.根据权利要求4所述的交通场景下的关键目标检测方法,其特征在于:步骤5中,所述边框回归器与子分类器,均是训练好的边框回归器与子分类器;
训练过程中,各子分类器单独输出对应类别的分类结果:
;
其中表示子分类器的输出,K表示子分类器的数量,/>表示所有分类器的输出;
训练过程中,边框回归器的损失函数为:
;
其中,和/>分别表示真实的包围框和预测得到的包围框;
子分类器的损失函数为:
;
其中,用于调节正负样本对子分类器学习过程中的重要程度,/>用于提高子分类器对困难样本的挖掘能力;当y=1时,表示该样本为正样本,当y=0时,则表示该样本为负样本,p表示该样本被预测为某一类前景目标的概率;
因此训练过程中的总损失为:
;
其中,K表示子分类器的数量。
6.根据权利要求1所述的交通场景下的关键目标检测方法,其特征在于:步骤5中,通过互斥抑制模块约束分类结果减少误检;
所述互斥抑制模块用于约束各子分类器预测结果,包括抑制强度计算层和拼接层;所述抑制强度计算层,用于计算三个子分类器预测结果对其他分类器的抑制强度并进行抑制;所述拼接层,用于对所有抑制后的子分类器预测结果进行拼接操作,得到所有的类别信息。
7.根据权利要求1所述的交通场景下的关键目标检测方法,其特征在于:步骤6中,采用非极大值抑制方法,消除冗余检测框,其步骤如下;
(1)将所有的检测框按照类别划分,并剔除背景类;
(2)根据每个类别的检测框的分类分数进行排序;
(3)选择分类分数最高的检测框作为最终输出的检测框;
(4)计算该类别检测框的面积以及分类分数最高的检测框与其他检测框之间的交并比;
(5)将所有交并比小于设定的阈值的检测框删除;
(6)重复步骤(3)~(5),直到该类别检测框全部被选择或删除,完成一个类别目标的检测框选取;
(7)重复步骤(2)~(6),直到所有类别的非极大值抑制处理完成。
8.根据权利要求1-7任意一项所述的交通场景下的关键目标检测方法,其特征在于:步骤4中,得到待检测目标的边框信息,其中,H和W分别表示定位信息的长度和宽度,其乘积为预测框的数量;
每个特征像素点的预测结果为:
;
其中,分别表示特征图中像素点到目标检测框边界的距离,最后得到矩形边框回归结果为:
;
其中,为特征像素点的坐标,/>为矩形边框左上角坐标,/>为矩形右下角坐标。
9.根据权利要求1-7任意一项所述的交通场景下的关键目标检测方法,其特征在于:步骤5中,设置互斥性阈值,计算第i个子分类器的输出/>对其他子分类器的互斥性强度:
;
对K个子分类器的预测结果进行再次约束,设置互斥性阈值,计算第i个子分类器的输出/>对其他子分类器的互斥性强度:
;
其中,H,W和c分别表示每个子分类器输出的长度、宽度以及预测的类别数,表示该子分类器对其他子分类器的抑制强度;计算所有子分类器的抑制强度后,对分类结果进行约束:
;
其中K表示子分类器的数量。
10.一种交通场景下的关键目标检测系统,其特征在于,包括以下模块:
第一模块,用于获取交通视频,并提取视频图像高维特征;
第二模块,用于提取高维度的多尺度特征;
第三模块,用于对多尺度特征进行处理,提取显著性多尺度特征;
第四模块,用于对提取的显著性多尺度特征进行处理,实现边框回归与多个子类别预测,得到关键目标的定位信息与类别信息,
第五模块,用于约束分类结果减少误检;
第六模块,用于将第四模块中得到的定位信息与第五模块中得到的约束后的分类结果进行结合,消除冗余检测框,得到最终的关键目标定位信息与类别信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310803998.8A CN116524420B (zh) | 2023-07-03 | 2023-07-03 | 一种交通场景下的关键目标检测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310803998.8A CN116524420B (zh) | 2023-07-03 | 2023-07-03 | 一种交通场景下的关键目标检测方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116524420A true CN116524420A (zh) | 2023-08-01 |
CN116524420B CN116524420B (zh) | 2023-09-12 |
Family
ID=87405118
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310803998.8A Active CN116524420B (zh) | 2023-07-03 | 2023-07-03 | 一种交通场景下的关键目标检测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116524420B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104794435A (zh) * | 2015-04-03 | 2015-07-22 | 中国科学院自动化研究所 | 一种基于视觉的无人机对地运动目标检测方法 |
CN109299342A (zh) * | 2018-11-30 | 2019-02-01 | 武汉大学 | 一种基于循环生成式对抗网络的跨模态检索方法 |
CN109447102A (zh) * | 2018-09-05 | 2019-03-08 | 浙江长兴笛卡尔科技有限公司 | 基于分类互斥性的损失函数计算方法、电子设备、介质 |
US20210056351A1 (en) * | 2018-06-04 | 2021-02-25 | Jiangnan University | Multi-scale aware pedestrian detection method based on improved full convolutional network |
CN112766089A (zh) * | 2021-01-04 | 2021-05-07 | 武汉大学 | 一种基于全局-局部对抗学习框架的跨域道路提取方法 |
WO2021139069A1 (zh) * | 2020-01-09 | 2021-07-15 | 南京信息工程大学 | 自适应注意力指导机制的一般性目标检测方法 |
CN113779999A (zh) * | 2021-11-12 | 2021-12-10 | 航天宏康智能科技(北京)有限公司 | 命名实体识别方法和命名实体识别装置 |
CN113869165A (zh) * | 2021-09-18 | 2021-12-31 | 山东师范大学 | 一种交通场景目标检测方法及系统 |
CN115456248A (zh) * | 2022-08-15 | 2022-12-09 | 国网电力科学研究院武汉南瑞有限责任公司 | 基于卷积神经网络的落雷预测模型构建方法 |
-
2023
- 2023-07-03 CN CN202310803998.8A patent/CN116524420B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104794435A (zh) * | 2015-04-03 | 2015-07-22 | 中国科学院自动化研究所 | 一种基于视觉的无人机对地运动目标检测方法 |
US20210056351A1 (en) * | 2018-06-04 | 2021-02-25 | Jiangnan University | Multi-scale aware pedestrian detection method based on improved full convolutional network |
CN109447102A (zh) * | 2018-09-05 | 2019-03-08 | 浙江长兴笛卡尔科技有限公司 | 基于分类互斥性的损失函数计算方法、电子设备、介质 |
CN109299342A (zh) * | 2018-11-30 | 2019-02-01 | 武汉大学 | 一种基于循环生成式对抗网络的跨模态检索方法 |
WO2021139069A1 (zh) * | 2020-01-09 | 2021-07-15 | 南京信息工程大学 | 自适应注意力指导机制的一般性目标检测方法 |
CN112766089A (zh) * | 2021-01-04 | 2021-05-07 | 武汉大学 | 一种基于全局-局部对抗学习框架的跨域道路提取方法 |
CN113869165A (zh) * | 2021-09-18 | 2021-12-31 | 山东师范大学 | 一种交通场景目标检测方法及系统 |
CN113779999A (zh) * | 2021-11-12 | 2021-12-10 | 航天宏康智能科技(北京)有限公司 | 命名实体识别方法和命名实体识别装置 |
CN115456248A (zh) * | 2022-08-15 | 2022-12-09 | 国网电力科学研究院武汉南瑞有限责任公司 | 基于卷积神经网络的落雷预测模型构建方法 |
Non-Patent Citations (3)
Title |
---|
JIE HUA ET AL.: "Pedestrian- and vehicle- detection algorithm based on improved aggregated channel features", IEEE ACCESS, pages 209 - 211 * |
杨金开: "基于人工智能的进餐动作识别及视频检测算法研究", 中国优秀硕士论文电子期刊网 * |
王景中;杨源;何云华;: "基于多分类和ResNet的不良图片识别框架", 计算机系统应用, no. 09 * |
Also Published As
Publication number | Publication date |
---|---|
CN116524420B (zh) | 2023-09-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wei et al. | Enhanced object detection with deep convolutional neural networks for advanced driving assistance | |
Liu et al. | An enhanced CNN-enabled learning method for promoting ship detection in maritime surveillance system | |
Cheng et al. | FusionNet: Edge aware deep convolutional networks for semantic segmentation of remote sensing harbor images | |
William et al. | Traffic signs detection and recognition system using deep learning | |
CN107563372B (zh) | 一种基于深度学习ssd框架的车牌定位方法 | |
CN109711295B (zh) | 一种光学遥感图像近岸舰船检测方法 | |
CN111104903B (zh) | 一种深度感知交通场景多目标检测方法和系统 | |
Haque et al. | A computer vision based lane detection approach | |
Hurtado et al. | Semantic scene segmentation for robotics | |
CN116188999B (zh) | 一种基于可见光和红外图像数据融合的小目标检测方法 | |
Xiao et al. | Real-time object detection algorithm of autonomous vehicles based on improved yolov5s | |
CN114202743A (zh) | 自动驾驶场景下基于改进faster-RCNN的小目标检测方法 | |
CN117037119A (zh) | 基于改进YOLOv8的道路目标检测方法及系统 | |
CN112446292B (zh) | 一种2d图像显著目标检测方法及系统 | |
CN112966747A (zh) | 一种基于无锚框检测网络改进的车辆检测方法 | |
Shao et al. | Semantic segmentation for free space and lane based on grid-based interest point detection | |
CN114973199A (zh) | 一种基于卷积神经网络的轨道交通列车障碍物检测方法 | |
CN113392812B (zh) | 基于深度神经网络的道路车道线检测方法及系统 | |
CN114495050A (zh) | 一种面向自动驾驶前向视觉检测的多任务集成检测方法 | |
CN117495825A (zh) | 一种变电站塔杆异物检测方法 | |
Cho et al. | Modified perceptual cycle generative adversarial network-based image enhancement for improving accuracy of low light image segmentation | |
Zhang et al. | Pre-locate net for object detection in high-resolution images | |
CN116524420B (zh) | 一种交通场景下的关键目标检测方法及系统 | |
CN116311154A (zh) | 一种基于YOLOv5模型优化的车辆检测与识别方法 | |
CN115909276A (zh) | 基于改进YOLOv5的复杂天气下小交通标志目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |