CN116229191A - 一种基于归一化角点距离和目标前景信息的目标检测方法 - Google Patents

一种基于归一化角点距离和目标前景信息的目标检测方法 Download PDF

Info

Publication number
CN116229191A
CN116229191A CN202310241880.0A CN202310241880A CN116229191A CN 116229191 A CN116229191 A CN 116229191A CN 202310241880 A CN202310241880 A CN 202310241880A CN 116229191 A CN116229191 A CN 116229191A
Authority
CN
China
Prior art keywords
target
frame
calculating
area
normalized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310241880.0A
Other languages
English (en)
Other versions
CN116229191B (zh
Inventor
张兆云
蔡德隆
赵洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dongguan University of Technology
Original Assignee
Dongguan University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dongguan University of Technology filed Critical Dongguan University of Technology
Priority to CN202310241880.0A priority Critical patent/CN116229191B/zh
Publication of CN116229191A publication Critical patent/CN116229191A/zh
Application granted granted Critical
Publication of CN116229191B publication Critical patent/CN116229191B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/766Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出一种基于归一化角点距离和目标前景信息的目标检测方法,包括:一、获取训练图像样本和待测图像样本,在训练图像中标注边界框;二、获取边界框的位置及信息;三、计算预测框和目标框的中心点之间的欧氏距离;四、计算预测框和目标框的重叠区域面积;五、计算预测框的面积;六、计算目标框的面积;七、计算预测框和目标框的合并区域面积;八、计算预测框和目标框四个角点之间对应的欧氏距离;九、预测框和目标框的最小闭包矩形区域;十、计算预测框和目标框的交并比;十一、计算归一化角点距离和目标前景信息的边界框损失函数,十二、基于边界框损失函数进行目标检测,本发明能较佳地进行目标检测。

Description

一种基于归一化角点距离和目标前景信息的目标检测方法
技术领域
本发明涉及目标检测技术领域,涉及一种基于归一化角点距离和目标前景信息的目标检测方法。
背景技术
边界框回归是目标检测中的重点,是直接决定目标定位性能的关键一环。特别的是,性能良好的边界框回归损失函数对缓解目标漏检问题起到很大作用。CFIoU损失是一种衡量预测边界框与真实边界框拟合程度的损失函数,相比于传统的IoU损失函数及其衍生版本,CFIoU损失的作用范围更加全面,其可以解决已有的IoU损失函数在中心点重合、两边框的宽高比相同、前景与背景信息判断模式等方面表现出的拟合效果差的问题。该损失可以广泛应用于目标检测算法(如YOLO系列算法和RCNN系列算法等)中的边框回归问题,以提高模型的精度和鲁棒性,从而在实际应用中取得更好的效果。
目前,在目标检测方法中,基于IoU(Intersection over Union)及其衍生版本的边界框回归损失函数应用较为广泛,主要包含IoU损失、GIoU损失、DIoU损失、CIoU损失和EIoU损失。随着不断的改进,这几类损失函数的应用场景越来越广泛。但是,通过研究发现,这几类边界框回归损失函数存在以下两个主要的问题:
(1)基于IoU的衍生版本过度依赖于两框归一化中心点距离从而产生退化问题:
当预测框与目标框存在包含关系时,GIoU会退化为IoU;当预测框与目标框存在包含关系且两边框的中心点重合时,GIoU和DIoU退化为IoU;当预测框与目标框存在包含关系且两边框中心点重合,同时两边框的宽高比相同时,GIoU、DIoU和CIoU退化为IoU。
(2)基于IoU及其衍生版本的边界框损失函数在回归过程中无法区分不同预测框与目标框的相对位置,无法对包含更多背景信息的预测框作出更大力度的惩罚,这也导致损失函数(IoU损失、GIoU损失、DIoU损失、CIoU损失和EIoU损失)忽略了目标前景信息的利用。
发明内容
本发明的内容是提供一种基于归一化角点距离和目标前景信息的目标检测方法,其能够避免两边框中心点重合时所造成的IoU衍生版本的退化问题。
根据本发明的一种边界框回归损失函数的计算方法,其包括以下步骤:
一、获取训练图像样本和待测图像样本,在训练图像中标注边界框;
二、获取边界框的位置及信息:预测框P=(xp,yp,wp,hp),目标框T=(xt,yt,wt,ht);其中,(xp,yp)表示预测框P的中心点坐标,wp,hp分别表示预测框P的宽、高;(xt,yt)表示目标框T的中心点坐标,wt,ht分别表示目标框T的宽、高;
三、计算预测框P和目标框T的中心点之间的欧氏距离d;
四、计算预测框P和目标框T的重叠区域面积AInter
五、计算预测框P的面积Ap
六、计算目标框T的面积At
七、计算预测框P和目标框T的合并区域面积AUnion
八、计算预测框P和目标框T四个角点之间对应的欧氏距离;
九、预测框P和目标框T的最小闭包矩形区域C;
十、计算预测框P和目标框T的交并比;
十一、计算归一化角点距离和目标前景信息的边界框损失函数;
十二、基于边界框损失函数进行目标检测得到待测图像中每个目标的边界框四个顶点坐标。
作为优选,步骤三中,中心点之间的欧氏距离d的计算方法为:
Figure BDA0004124531490000031
作为优选,步骤四中,重叠区域面积AInter的计算方法为:
Figure BDA0004124531490000032
Figure BDA0004124531490000033
Figure BDA0004124531490000034
Figure BDA0004124531490000035
Figure BDA0004124531490000036
AInter=(x2-x1)×(y2-y1)
其中,
Figure BDA0004124531490000037
分别表示预测框P宽的1/2和高的1/2;
Figure BDA0004124531490000038
分别表示目标框T宽的1/2和高的1/2;
Figure BDA0004124531490000039
表示预测框P的左上角顶点坐标,
Figure BDA00041245314900000310
表示预测框P的右下角顶点坐标;
Figure BDA00041245314900000311
表示目标框T的左上角顶点坐标,
Figure BDA00041245314900000312
表示目标框T的右下角顶点坐标;(x1,y1)和(x2,y2)分别表示预测框P与目标框T相交框的左上角顶点坐标和右下角顶点坐标。
作为优选,步骤五中,面积Ap的计算方法为:
Ap=wp×hp
作为优选,步骤六中,面积At的计算方法为:
At=wt×ht
作为优选,步骤七中,合并区域面积AUnion的计算方法为:
AUnion=Ap+At-AInter
作为优选,步骤八中,四个角点之间对应的欧氏距离d1、d2、d3、d4的计算方法为:
Figure BDA00041245314900000313
Figure BDA0004124531490000041
Figure BDA0004124531490000042
Figure BDA0004124531490000043
作为优选,步骤九中,最小闭包矩形区域C的计算方法为:
(1)计算区域C的宽度wC
Figure BDA0004124531490000044
(2)计算区域C的高度hC
Figure BDA0004124531490000045
(3)计算区域C的对角线距离lC
Figure BDA0004124531490000046
(4)计算最小闭包区域C的面积AC:AC=wC×hC
作为优选,步骤十中,交并比IoU的计算方法为:
Figure BDA0004124531490000047
作为优选,步骤十一中,边界框损失函数LCFIoU的计算方法为:
Figure BDA0004124531490000048
其中,CFIoU是基于归一化角点距离和目标前景信息的IoU度量指标;μ是控制因子。
本发明提出了一种基于归一化角点距离和目标前景信息的边界框回归损失函数用于目标检测,该损失函数利用两个边界框的归一化角点距离取代两边框的中心点距离,可以避免两边框中心点重合时所造成的IoU衍生版本的退化问题;针对基于IoU及其衍生版本的边界框损失函数对于前景区域信息不敏感而导致其无法判断各类预测框好坏的问题,本发明在损失函数中加入了用于挖掘目标前景信息的惩罚项,以此来提高边界框回归损失函数对于目标前景区域信息的关注度。
附图说明
图1为实施例中一种基于归一化角点距离和目标前景信息的目标检测方法的流程图。
具体实施方式
为进一步了解本发明的内容,结合附图和实施例对本发明作详细描述。应当理解的是,实施例仅仅是对本发明进行解释而并非限定。
实施例
如图1所示,本实施例提供了一种基于归一化角点距离和目标前景信息的目标检测方法,其包括以下步骤:
一、获取训练图像样本和待测图像样本,在训练图像中标注边界框,待测图像由已经训练好的模型来预测出边界框信息,是不需要进行人为标注的;
二、获取边框的位置及其相关信息:预测框P=(xp,yp,wp,hp),目标框T=(xt,yt,wt,ht);
其中,(xp,yp)表示预测框P的中心点坐标,wp,hp分别表示预测框P的宽、高;(xt,yt)表示目标框T的中心点坐标,wt,ht分别表示目标框T的宽、高;
三、计算预测框P和目标框T的中心点之间的欧氏距离d:
Figure BDA0004124531490000051
四、计算预测框P和目标框T的重叠区域面积AInter
Figure BDA0004124531490000052
Figure BDA0004124531490000053
Figure BDA0004124531490000054
Figure BDA0004124531490000055
Figure BDA0004124531490000056
AInter=(x2-x1)×(y2-y1)
其中,
Figure BDA0004124531490000057
分别表示预测框P宽的1/2和高的1/2;
Figure BDA00041245314900000510
分别表示目标框T宽的1/2和高的1/2;
Figure BDA0004124531490000058
表示预测框P的左上角顶点坐标,
Figure BDA0004124531490000059
表示预测框P的右下角顶点坐标;
Figure BDA0004124531490000061
表示目标框T的左上角顶点坐标,
Figure BDA0004124531490000062
表示目标框T的右下角顶点坐标;(x1,y1)和(x2,y2)分别表示预测框P与目标框T相交框的左上角顶点坐标和右下角顶点坐标。
五、计算预测框P的面积Ap
Ap=wp×hp
六、计算目标框T的面积At
At=wt×ht
七、计算预测框P和目标框T的合并区域面积AUnion
AUnion=Ap+At-AInter
八、计算预测框P和目标框T四个角点之间对应的欧氏距离:
Figure BDA0004124531490000063
Figure BDA0004124531490000064
Figure BDA0004124531490000065
Figure BDA0004124531490000066
九、预测框P和目标框T的最小闭包矩形区域C:
(1)计算区域C的宽度:
Figure BDA0004124531490000067
(2)计算区域C的高度:
Figure BDA0004124531490000068
(3)计算区域C的对角线距离:
Figure BDA0004124531490000069
(4)计算最小闭包区域C的面积:AC=wC×hC
十、计算预测框P和目标框T的交并比:
Figure BDA00041245314900000610
十一、计算归一化角点距离和目标前景信息的边界框损失函数:
Figure BDA0004124531490000071
其中,CFIoU是基于归一化角点距离和目标前景信息的IoU度量指标;μ是控制因子;
十二、基于边界框损失函数进行目标检测,得到待测图像中每个目标的边界框四个顶点坐标。
本实施例提出了一种基于归一化角点距离和目标前景信息的边界框回归损失函数用于目标检测,该损失函数利用两个边界框的归一化角点距离取代两边框的中心点距离,可以避免两边框中心点重合时所造成的IoU衍生版本的退化问题;针对基于IoU及其衍生版本的边界框损失函数对于前景区域信息不敏感而导致其无法判断各类预测框好坏的问题,本实施例在损失函数中加入了用于挖掘目标前景信息的惩罚项,以此来提高边界框回归损失函数对于目标前景区域信息的关注度。
本实施例所提出的损失可以应用于自动驾驶、智能交通等领域。例如,在自动驾驶领域中,车辆需要精确检测路面上的行人、车辆、路标等障碍物,以保证行车安全。在智能交通领域中,需要对车辆和行人等目标进行快速、准确的识别和跟踪,以实现智能交通系统的高效运行。
以上示意性的对本发明及其实施方式进行了描述,该描述没有限制性,附图中所示的也只是本发明的实施方式之一,实际的结构并不局限于此。所以,如果本领域的普通技术人员受其启示,在不脱离本发明创造宗旨的情况下,不经创造性的设计出与该技术方案相似的结构方式及实施例,均应属于本发明的保护范围。

Claims (10)

1.一种基于归一化角点距离和目标前景信息的目标检测方法,其特征在于:包括以下步骤:
一、获取训练图像样本和待测图像样本,在训练图像中标注边界框;
二、获取边界框的位置及信息:预测框P=(xp,yp,wp,hp),目标框T=(xt,yt,wt,ht);其中,(xp,yp)表示预测框P的中心点坐标,wp,hp分别表示预测框P的宽、高;(xt,yt)表示目标框T的中心点坐标,wt,ht分别表示目标框T的宽、高;
三、计算预测框P和目标框T的中心点之间的欧氏距离d;
四、计算预测框P和目标框T的重叠区域面积AInter
五、计算预测框P的面积Ap
六、计算目标框T的面积At
七、计算预测框P和目标框T的合并区域面积AUnion
八、计算预测框P和目标框T四个角点之间对应的欧氏距离;
九、预测框P和目标框T的最小闭包矩形区域C;
十、计算预测框P和目标框T的交并比;
十一、计算归一化角点距离和目标前景信息的边界框损失函数;
十二、基于边界框损失函数进行目标检测,得到待测图像中每个目标的边界框四个顶点坐标。
2.根据权利要求1所述的一种基于归一化角点距离和目标前景信息的目标检测方法,其特征在于:步骤三中,中心点之间的欧氏距离d的计算方法为:
Figure FDA0004124531480000011
3.根据权利要求2所述的一种基于归一化角点距离和目标前景信息的目标检测方法,其特征在于:步骤四中,重叠区域面积AInter的计算方法为:
Figure FDA0004124531480000021
Figure FDA0004124531480000022
Figure FDA0004124531480000023
Figure FDA0004124531480000024
Figure FDA0004124531480000025
AInter=(x2-x1)×(y2-y1)
其中,
Figure FDA0004124531480000026
分别表示预测框P宽的1/2和高的1/2;
Figure FDA0004124531480000027
分别表示目标框T宽的1/2和高的1/2;
Figure FDA0004124531480000028
表示预测框P的左上角顶点坐标,
Figure FDA0004124531480000029
表示预测框P的右下角顶点坐标;
Figure FDA00041245314800000210
表示目标框T的左上角顶点坐标,
Figure FDA00041245314800000211
表示目标框T的右下角顶点坐标;(x1,y1)和(x2,y2)分别表示预测框P与目标框T相交框的左上角顶点坐标和右下角顶点坐标。
4.根据权利要求3所述的一种基于归一化角点距离和目标前景信息的目标检测方法,其特征在于:步骤五中,面积Ap的计算方法为:
Ap=wp×hp
5.根据权利要求4所述的一种基于归一化角点距离和目标前景信息的目标检测方法,其特征在于:步骤六中,面积At的计算方法为:
At=wt×ht
6.根据权利要求5所述的一种基于归一化角点距离和目标前景信息的目标检测方法,其特征在于:步骤七中,合并区域面积AUnion的计算方法为:
AUnion=Ap+At-AInter
7.根据权利要求6所述的一种基于归一化角点距离和目标前景信息的目标检测方法,其特征在于:步骤八中,四个角点之间对应的欧氏距离d1、d2、d3、d4的计算方法为:
Figure FDA0004124531480000031
Figure FDA0004124531480000032
Figure FDA0004124531480000033
Figure FDA0004124531480000034
8.根据权利要求7所述的一种基于归一化角点距离和目标前景信息的目标检测方法,其特征在于:步骤九中,最小闭包矩形区域C的计算方法为:
(1)计算区域C的宽度wC
Figure FDA0004124531480000035
(2)计算区域C的高度hC
Figure FDA0004124531480000036
(3)计算区域C的对角线距离lC
Figure FDA0004124531480000037
(4)计算最小闭包区域C的面积AC:AC=wC×hC
9.根据权利要求8所述的一种基于归一化角点距离和目标前景信息的目标检测方法,其特征在于:步骤十中,交并比IoU的计算方法为:
Figure FDA0004124531480000038
10.根据权利要求9所述的一种基于归一化角点距离和目标前景信息的目标检测方法,其特征在于:步骤十一中,边界框损失函数
Figure FDA0004124531480000039
的计算方法为:
Figure FDA00041245314800000310
其中,CFIoU是基于归一化角点距离和目标前景信息的IoU度量指标;μ是控制因子。
CN202310241880.0A 2023-03-13 2023-03-13 一种基于归一化角点距离和目标前景信息的目标检测方法 Active CN116229191B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310241880.0A CN116229191B (zh) 2023-03-13 2023-03-13 一种基于归一化角点距离和目标前景信息的目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310241880.0A CN116229191B (zh) 2023-03-13 2023-03-13 一种基于归一化角点距离和目标前景信息的目标检测方法

Publications (2)

Publication Number Publication Date
CN116229191A true CN116229191A (zh) 2023-06-06
CN116229191B CN116229191B (zh) 2023-08-29

Family

ID=86574946

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310241880.0A Active CN116229191B (zh) 2023-03-13 2023-03-13 一种基于归一化角点距离和目标前景信息的目标检测方法

Country Status (1)

Country Link
CN (1) CN116229191B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117541891A (zh) * 2023-11-13 2024-02-09 东莞理工学院 一种基于角度、对角线和目标前景信息的目标检测方法
CN118298002A (zh) * 2024-04-24 2024-07-05 国家计算机网络与信息安全管理中心 一种网络安全图像目标检测模型算法优化的方法及装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112287788A (zh) * 2020-10-20 2021-01-29 杭州电子科技大学 基于改进YOLOv3和改进NMS的行人检测方法
CN113033481A (zh) * 2021-04-20 2021-06-25 湖北工业大学 结合长宽比优先的一阶全卷积目标检测(fcos)算法的手持棍棒的检测方法
KR102378887B1 (ko) * 2021-02-15 2022-03-25 인하대학교 산학협력단 객체 탐지에서의 둘레기반 IoU 손실함수를 통한 효율적인 바운딩 박스 회귀 학습 방법 및 장치
CN114331986A (zh) * 2021-12-21 2022-04-12 中国长江三峡集团有限公司 一种基于无人机视觉的坝体裂纹识别与测量方法
CN114782765A (zh) * 2022-03-03 2022-07-22 西安电子科技大学 一种基于IoU改进损失函数的目标检测方法
CN115187902A (zh) * 2022-07-13 2022-10-14 辽宁工程技术大学 一种目标检测中提升边界框回归收敛效果的方法
CN115205264A (zh) * 2022-07-21 2022-10-18 南京工程学院 一种基于改进YOLOv4的高分辨率遥感船舶检测方法
CN115249240A (zh) * 2022-07-15 2022-10-28 南京农业大学 一种面向单株大豆密集豆荚的自动计数检测方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112287788A (zh) * 2020-10-20 2021-01-29 杭州电子科技大学 基于改进YOLOv3和改进NMS的行人检测方法
KR102378887B1 (ko) * 2021-02-15 2022-03-25 인하대학교 산학협력단 객체 탐지에서의 둘레기반 IoU 손실함수를 통한 효율적인 바운딩 박스 회귀 학습 방법 및 장치
CN113033481A (zh) * 2021-04-20 2021-06-25 湖北工业大学 结合长宽比优先的一阶全卷积目标检测(fcos)算法的手持棍棒的检测方法
CN114331986A (zh) * 2021-12-21 2022-04-12 中国长江三峡集团有限公司 一种基于无人机视觉的坝体裂纹识别与测量方法
CN114782765A (zh) * 2022-03-03 2022-07-22 西安电子科技大学 一种基于IoU改进损失函数的目标检测方法
CN115187902A (zh) * 2022-07-13 2022-10-14 辽宁工程技术大学 一种目标检测中提升边界框回归收敛效果的方法
CN115249240A (zh) * 2022-07-15 2022-10-28 南京农业大学 一种面向单株大豆密集豆荚的自动计数检测方法
CN115205264A (zh) * 2022-07-21 2022-10-18 南京工程学院 一种基于改进YOLOv4的高分辨率遥感船舶检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JONAS UHRIG EL.: "Box2Pix: Single-Shot Instance Segmentation by Assigning Pixels to Object Boxes", 《2018 IEEE INTELLIGENT VEHICLES SYMPOSIUM (IV)》 *
ZHIJING XU EL.: "Triangle Distance IoU Loss, Attention-Weighted Feature Pyramid Network, and Rotated-SARShip Dataset for Arbitrary-Oriented SAR Ship Detection", 《REMOTE SENSING》 *
王海;王宽;蔡英凤;刘泽;陈龙;: "基于改进级联卷积神经网络的交通标志识别", 汽车工程, no. 09 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117541891A (zh) * 2023-11-13 2024-02-09 东莞理工学院 一种基于角度、对角线和目标前景信息的目标检测方法
CN118298002A (zh) * 2024-04-24 2024-07-05 国家计算机网络与信息安全管理中心 一种网络安全图像目标检测模型算法优化的方法及装置

Also Published As

Publication number Publication date
CN116229191B (zh) 2023-08-29

Similar Documents

Publication Publication Date Title
CN116229191B (zh) 一种基于归一化角点距离和目标前景信息的目标检测方法
US10970566B2 (en) Lane line detection method and apparatus
CN110178167B (zh) 基于摄像机协同接力的路口违章视频识别方法
Broggi et al. Real time road signs recognition
Hasegawa et al. Robust Japanese road sign detection and recognition in complex scenes using convolutional neural networks
Fang et al. Road-sign detection and tracking
Unzueta et al. Adaptive multicue background subtraction for robust vehicle counting and classification
US8750567B2 (en) Road structure detection and tracking
CN109299674B (zh) 一种基于车灯的隧道违章变道检测方法
Jang et al. Traffic light recognition exploiting map and localization at every stage
Danescu et al. Detection and classification of painted road objects for intersection assistance applications
CN103324913A (zh) 一种基于形状特征和轨迹分析的行人事件检测方法
US8718329B2 (en) Top-down view classification in clear path detection
US20180114089A1 (en) Attachable matter detection apparatus and attachable matter detection method
CN111626275B (zh) 一种基于智能视频分析的异常停车检测方法
CN101900562A (zh) 采用基于分割方法的畅通路径检测
CN113888754B (zh) 一种基于雷达视觉融合的车辆多属性识别方法
WO2022028383A1 (zh) 车道线标注、检测模型确定、车道线检测方法及相关设备
Wu et al. A new approach to video-based traffic surveillance using fuzzy hybrid information inference mechanism
CN111860509A (zh) 一种由粗到精的两阶段非约束车牌区域精准提取方法
CN111259796A (zh) 一种基于图像几何特征的车道线检测方法
Hernández et al. Lane marking detection using image features and line fitting model
US11588955B2 (en) Apparatus, method, and computer program for image conversion
Coronado et al. Detection and classification of road signs for automatic inventory systems using computer vision
CN106446864A (zh) 一种可行道路的检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant