CN116229191A - 一种基于归一化角点距离和目标前景信息的目标检测方法 - Google Patents
一种基于归一化角点距离和目标前景信息的目标检测方法 Download PDFInfo
- Publication number
- CN116229191A CN116229191A CN202310241880.0A CN202310241880A CN116229191A CN 116229191 A CN116229191 A CN 116229191A CN 202310241880 A CN202310241880 A CN 202310241880A CN 116229191 A CN116229191 A CN 116229191A
- Authority
- CN
- China
- Prior art keywords
- target
- frame
- calculating
- area
- normalized
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 28
- 238000004364 calculation method Methods 0.000 claims description 17
- 238000000034 method Methods 0.000 claims description 7
- 238000005259 measurement Methods 0.000 claims description 3
- 230000015556 catabolic process Effects 0.000 description 4
- 238000006731 degradation reaction Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 2
- 238000005065 mining Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/766—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
本发明提出一种基于归一化角点距离和目标前景信息的目标检测方法,包括:一、获取训练图像样本和待测图像样本,在训练图像中标注边界框;二、获取边界框的位置及信息;三、计算预测框和目标框的中心点之间的欧氏距离;四、计算预测框和目标框的重叠区域面积;五、计算预测框的面积;六、计算目标框的面积;七、计算预测框和目标框的合并区域面积;八、计算预测框和目标框四个角点之间对应的欧氏距离;九、预测框和目标框的最小闭包矩形区域;十、计算预测框和目标框的交并比;十一、计算归一化角点距离和目标前景信息的边界框损失函数,十二、基于边界框损失函数进行目标检测,本发明能较佳地进行目标检测。
Description
技术领域
本发明涉及目标检测技术领域,涉及一种基于归一化角点距离和目标前景信息的目标检测方法。
背景技术
边界框回归是目标检测中的重点,是直接决定目标定位性能的关键一环。特别的是,性能良好的边界框回归损失函数对缓解目标漏检问题起到很大作用。CFIoU损失是一种衡量预测边界框与真实边界框拟合程度的损失函数,相比于传统的IoU损失函数及其衍生版本,CFIoU损失的作用范围更加全面,其可以解决已有的IoU损失函数在中心点重合、两边框的宽高比相同、前景与背景信息判断模式等方面表现出的拟合效果差的问题。该损失可以广泛应用于目标检测算法(如YOLO系列算法和RCNN系列算法等)中的边框回归问题,以提高模型的精度和鲁棒性,从而在实际应用中取得更好的效果。
目前,在目标检测方法中,基于IoU(Intersection over Union)及其衍生版本的边界框回归损失函数应用较为广泛,主要包含IoU损失、GIoU损失、DIoU损失、CIoU损失和EIoU损失。随着不断的改进,这几类损失函数的应用场景越来越广泛。但是,通过研究发现,这几类边界框回归损失函数存在以下两个主要的问题:
(1)基于IoU的衍生版本过度依赖于两框归一化中心点距离从而产生退化问题:
当预测框与目标框存在包含关系时,GIoU会退化为IoU;当预测框与目标框存在包含关系且两边框的中心点重合时,GIoU和DIoU退化为IoU;当预测框与目标框存在包含关系且两边框中心点重合,同时两边框的宽高比相同时,GIoU、DIoU和CIoU退化为IoU。
(2)基于IoU及其衍生版本的边界框损失函数在回归过程中无法区分不同预测框与目标框的相对位置,无法对包含更多背景信息的预测框作出更大力度的惩罚,这也导致损失函数(IoU损失、GIoU损失、DIoU损失、CIoU损失和EIoU损失)忽略了目标前景信息的利用。
发明内容
本发明的内容是提供一种基于归一化角点距离和目标前景信息的目标检测方法,其能够避免两边框中心点重合时所造成的IoU衍生版本的退化问题。
根据本发明的一种边界框回归损失函数的计算方法,其包括以下步骤:
一、获取训练图像样本和待测图像样本,在训练图像中标注边界框;
二、获取边界框的位置及信息:预测框P=(xp,yp,wp,hp),目标框T=(xt,yt,wt,ht);其中,(xp,yp)表示预测框P的中心点坐标,wp,hp分别表示预测框P的宽、高;(xt,yt)表示目标框T的中心点坐标,wt,ht分别表示目标框T的宽、高;
三、计算预测框P和目标框T的中心点之间的欧氏距离d;
四、计算预测框P和目标框T的重叠区域面积AInter;
五、计算预测框P的面积Ap;
六、计算目标框T的面积At;
七、计算预测框P和目标框T的合并区域面积AUnion;
八、计算预测框P和目标框T四个角点之间对应的欧氏距离;
九、预测框P和目标框T的最小闭包矩形区域C;
十、计算预测框P和目标框T的交并比;
十一、计算归一化角点距离和目标前景信息的边界框损失函数;
十二、基于边界框损失函数进行目标检测得到待测图像中每个目标的边界框四个顶点坐标。
作为优选,步骤三中,中心点之间的欧氏距离d的计算方法为:
作为优选,步骤四中,重叠区域面积AInter的计算方法为:
AInter=(x2-x1)×(y2-y1)
其中,分别表示预测框P宽的1/2和高的1/2;分别表示目标框T宽的1/2和高的1/2;表示预测框P的左上角顶点坐标,表示预测框P的右下角顶点坐标;表示目标框T的左上角顶点坐标,表示目标框T的右下角顶点坐标;(x1,y1)和(x2,y2)分别表示预测框P与目标框T相交框的左上角顶点坐标和右下角顶点坐标。
作为优选,步骤五中,面积Ap的计算方法为:
Ap=wp×hp。
作为优选,步骤六中,面积At的计算方法为:
At=wt×ht。
作为优选,步骤七中,合并区域面积AUnion的计算方法为:
AUnion=Ap+At-AInter。
作为优选,步骤八中,四个角点之间对应的欧氏距离d1、d2、d3、d4的计算方法为:
作为优选,步骤九中,最小闭包矩形区域C的计算方法为:
(4)计算最小闭包区域C的面积AC:AC=wC×hC。
作为优选,步骤十中,交并比IoU的计算方法为:
作为优选,步骤十一中,边界框损失函数LCFIoU的计算方法为:
其中,CFIoU是基于归一化角点距离和目标前景信息的IoU度量指标;μ是控制因子。
本发明提出了一种基于归一化角点距离和目标前景信息的边界框回归损失函数用于目标检测,该损失函数利用两个边界框的归一化角点距离取代两边框的中心点距离,可以避免两边框中心点重合时所造成的IoU衍生版本的退化问题;针对基于IoU及其衍生版本的边界框损失函数对于前景区域信息不敏感而导致其无法判断各类预测框好坏的问题,本发明在损失函数中加入了用于挖掘目标前景信息的惩罚项,以此来提高边界框回归损失函数对于目标前景区域信息的关注度。
附图说明
图1为实施例中一种基于归一化角点距离和目标前景信息的目标检测方法的流程图。
具体实施方式
为进一步了解本发明的内容,结合附图和实施例对本发明作详细描述。应当理解的是,实施例仅仅是对本发明进行解释而并非限定。
实施例
如图1所示,本实施例提供了一种基于归一化角点距离和目标前景信息的目标检测方法,其包括以下步骤:
一、获取训练图像样本和待测图像样本,在训练图像中标注边界框,待测图像由已经训练好的模型来预测出边界框信息,是不需要进行人为标注的;
二、获取边框的位置及其相关信息:预测框P=(xp,yp,wp,hp),目标框T=(xt,yt,wt,ht);
其中,(xp,yp)表示预测框P的中心点坐标,wp,hp分别表示预测框P的宽、高;(xt,yt)表示目标框T的中心点坐标,wt,ht分别表示目标框T的宽、高;
三、计算预测框P和目标框T的中心点之间的欧氏距离d:
四、计算预测框P和目标框T的重叠区域面积AInter:
AInter=(x2-x1)×(y2-y1)
其中,分别表示预测框P宽的1/2和高的1/2;分别表示目标框T宽的1/2和高的1/2;表示预测框P的左上角顶点坐标,表示预测框P的右下角顶点坐标;表示目标框T的左上角顶点坐标,表示目标框T的右下角顶点坐标;(x1,y1)和(x2,y2)分别表示预测框P与目标框T相交框的左上角顶点坐标和右下角顶点坐标。
五、计算预测框P的面积Ap:
Ap=wp×hp
六、计算目标框T的面积At:
At=wt×ht
七、计算预测框P和目标框T的合并区域面积AUnion:
AUnion=Ap+At-AInter
八、计算预测框P和目标框T四个角点之间对应的欧氏距离:
九、预测框P和目标框T的最小闭包矩形区域C:
(4)计算最小闭包区域C的面积:AC=wC×hC
十、计算预测框P和目标框T的交并比:
十一、计算归一化角点距离和目标前景信息的边界框损失函数:
其中,CFIoU是基于归一化角点距离和目标前景信息的IoU度量指标;μ是控制因子;
十二、基于边界框损失函数进行目标检测,得到待测图像中每个目标的边界框四个顶点坐标。
本实施例提出了一种基于归一化角点距离和目标前景信息的边界框回归损失函数用于目标检测,该损失函数利用两个边界框的归一化角点距离取代两边框的中心点距离,可以避免两边框中心点重合时所造成的IoU衍生版本的退化问题;针对基于IoU及其衍生版本的边界框损失函数对于前景区域信息不敏感而导致其无法判断各类预测框好坏的问题,本实施例在损失函数中加入了用于挖掘目标前景信息的惩罚项,以此来提高边界框回归损失函数对于目标前景区域信息的关注度。
本实施例所提出的损失可以应用于自动驾驶、智能交通等领域。例如,在自动驾驶领域中,车辆需要精确检测路面上的行人、车辆、路标等障碍物,以保证行车安全。在智能交通领域中,需要对车辆和行人等目标进行快速、准确的识别和跟踪,以实现智能交通系统的高效运行。
以上示意性的对本发明及其实施方式进行了描述,该描述没有限制性,附图中所示的也只是本发明的实施方式之一,实际的结构并不局限于此。所以,如果本领域的普通技术人员受其启示,在不脱离本发明创造宗旨的情况下,不经创造性的设计出与该技术方案相似的结构方式及实施例,均应属于本发明的保护范围。
Claims (10)
1.一种基于归一化角点距离和目标前景信息的目标检测方法,其特征在于:包括以下步骤:
一、获取训练图像样本和待测图像样本,在训练图像中标注边界框;
二、获取边界框的位置及信息:预测框P=(xp,yp,wp,hp),目标框T=(xt,yt,wt,ht);其中,(xp,yp)表示预测框P的中心点坐标,wp,hp分别表示预测框P的宽、高;(xt,yt)表示目标框T的中心点坐标,wt,ht分别表示目标框T的宽、高;
三、计算预测框P和目标框T的中心点之间的欧氏距离d;
四、计算预测框P和目标框T的重叠区域面积AInter;
五、计算预测框P的面积Ap;
六、计算目标框T的面积At;
七、计算预测框P和目标框T的合并区域面积AUnion;
八、计算预测框P和目标框T四个角点之间对应的欧氏距离;
九、预测框P和目标框T的最小闭包矩形区域C;
十、计算预测框P和目标框T的交并比;
十一、计算归一化角点距离和目标前景信息的边界框损失函数;
十二、基于边界框损失函数进行目标检测,得到待测图像中每个目标的边界框四个顶点坐标。
4.根据权利要求3所述的一种基于归一化角点距离和目标前景信息的目标检测方法,其特征在于:步骤五中,面积Ap的计算方法为:
Ap=wp×hp。
5.根据权利要求4所述的一种基于归一化角点距离和目标前景信息的目标检测方法,其特征在于:步骤六中,面积At的计算方法为:
At=wt×ht。
6.根据权利要求5所述的一种基于归一化角点距离和目标前景信息的目标检测方法,其特征在于:步骤七中,合并区域面积AUnion的计算方法为:
AUnion=Ap+At-AInter。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310241880.0A CN116229191B (zh) | 2023-03-13 | 2023-03-13 | 一种基于归一化角点距离和目标前景信息的目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310241880.0A CN116229191B (zh) | 2023-03-13 | 2023-03-13 | 一种基于归一化角点距离和目标前景信息的目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116229191A true CN116229191A (zh) | 2023-06-06 |
CN116229191B CN116229191B (zh) | 2023-08-29 |
Family
ID=86574946
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310241880.0A Active CN116229191B (zh) | 2023-03-13 | 2023-03-13 | 一种基于归一化角点距离和目标前景信息的目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116229191B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117541891A (zh) * | 2023-11-13 | 2024-02-09 | 东莞理工学院 | 一种基于角度、对角线和目标前景信息的目标检测方法 |
CN118298002A (zh) * | 2024-04-24 | 2024-07-05 | 国家计算机网络与信息安全管理中心 | 一种网络安全图像目标检测模型算法优化的方法及装置 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112287788A (zh) * | 2020-10-20 | 2021-01-29 | 杭州电子科技大学 | 基于改进YOLOv3和改进NMS的行人检测方法 |
CN113033481A (zh) * | 2021-04-20 | 2021-06-25 | 湖北工业大学 | 结合长宽比优先的一阶全卷积目标检测(fcos)算法的手持棍棒的检测方法 |
KR102378887B1 (ko) * | 2021-02-15 | 2022-03-25 | 인하대학교 산학협력단 | 객체 탐지에서의 둘레기반 IoU 손실함수를 통한 효율적인 바운딩 박스 회귀 학습 방법 및 장치 |
CN114331986A (zh) * | 2021-12-21 | 2022-04-12 | 中国长江三峡集团有限公司 | 一种基于无人机视觉的坝体裂纹识别与测量方法 |
CN114782765A (zh) * | 2022-03-03 | 2022-07-22 | 西安电子科技大学 | 一种基于IoU改进损失函数的目标检测方法 |
CN115187902A (zh) * | 2022-07-13 | 2022-10-14 | 辽宁工程技术大学 | 一种目标检测中提升边界框回归收敛效果的方法 |
CN115205264A (zh) * | 2022-07-21 | 2022-10-18 | 南京工程学院 | 一种基于改进YOLOv4的高分辨率遥感船舶检测方法 |
CN115249240A (zh) * | 2022-07-15 | 2022-10-28 | 南京农业大学 | 一种面向单株大豆密集豆荚的自动计数检测方法 |
-
2023
- 2023-03-13 CN CN202310241880.0A patent/CN116229191B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112287788A (zh) * | 2020-10-20 | 2021-01-29 | 杭州电子科技大学 | 基于改进YOLOv3和改进NMS的行人检测方法 |
KR102378887B1 (ko) * | 2021-02-15 | 2022-03-25 | 인하대학교 산학협력단 | 객체 탐지에서의 둘레기반 IoU 손실함수를 통한 효율적인 바운딩 박스 회귀 학습 방법 및 장치 |
CN113033481A (zh) * | 2021-04-20 | 2021-06-25 | 湖北工业大学 | 结合长宽比优先的一阶全卷积目标检测(fcos)算法的手持棍棒的检测方法 |
CN114331986A (zh) * | 2021-12-21 | 2022-04-12 | 中国长江三峡集团有限公司 | 一种基于无人机视觉的坝体裂纹识别与测量方法 |
CN114782765A (zh) * | 2022-03-03 | 2022-07-22 | 西安电子科技大学 | 一种基于IoU改进损失函数的目标检测方法 |
CN115187902A (zh) * | 2022-07-13 | 2022-10-14 | 辽宁工程技术大学 | 一种目标检测中提升边界框回归收敛效果的方法 |
CN115249240A (zh) * | 2022-07-15 | 2022-10-28 | 南京农业大学 | 一种面向单株大豆密集豆荚的自动计数检测方法 |
CN115205264A (zh) * | 2022-07-21 | 2022-10-18 | 南京工程学院 | 一种基于改进YOLOv4的高分辨率遥感船舶检测方法 |
Non-Patent Citations (3)
Title |
---|
JONAS UHRIG EL.: "Box2Pix: Single-Shot Instance Segmentation by Assigning Pixels to Object Boxes", 《2018 IEEE INTELLIGENT VEHICLES SYMPOSIUM (IV)》 * |
ZHIJING XU EL.: "Triangle Distance IoU Loss, Attention-Weighted Feature Pyramid Network, and Rotated-SARShip Dataset for Arbitrary-Oriented SAR Ship Detection", 《REMOTE SENSING》 * |
王海;王宽;蔡英凤;刘泽;陈龙;: "基于改进级联卷积神经网络的交通标志识别", 汽车工程, no. 09 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117541891A (zh) * | 2023-11-13 | 2024-02-09 | 东莞理工学院 | 一种基于角度、对角线和目标前景信息的目标检测方法 |
CN118298002A (zh) * | 2024-04-24 | 2024-07-05 | 国家计算机网络与信息安全管理中心 | 一种网络安全图像目标检测模型算法优化的方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN116229191B (zh) | 2023-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116229191B (zh) | 一种基于归一化角点距离和目标前景信息的目标检测方法 | |
US10970566B2 (en) | Lane line detection method and apparatus | |
CN110178167B (zh) | 基于摄像机协同接力的路口违章视频识别方法 | |
Broggi et al. | Real time road signs recognition | |
Hasegawa et al. | Robust Japanese road sign detection and recognition in complex scenes using convolutional neural networks | |
Fang et al. | Road-sign detection and tracking | |
Unzueta et al. | Adaptive multicue background subtraction for robust vehicle counting and classification | |
US8750567B2 (en) | Road structure detection and tracking | |
CN109299674B (zh) | 一种基于车灯的隧道违章变道检测方法 | |
Jang et al. | Traffic light recognition exploiting map and localization at every stage | |
Danescu et al. | Detection and classification of painted road objects for intersection assistance applications | |
CN103324913A (zh) | 一种基于形状特征和轨迹分析的行人事件检测方法 | |
US8718329B2 (en) | Top-down view classification in clear path detection | |
US20180114089A1 (en) | Attachable matter detection apparatus and attachable matter detection method | |
CN111626275B (zh) | 一种基于智能视频分析的异常停车检测方法 | |
CN101900562A (zh) | 采用基于分割方法的畅通路径检测 | |
CN113888754B (zh) | 一种基于雷达视觉融合的车辆多属性识别方法 | |
WO2022028383A1 (zh) | 车道线标注、检测模型确定、车道线检测方法及相关设备 | |
Wu et al. | A new approach to video-based traffic surveillance using fuzzy hybrid information inference mechanism | |
CN111860509A (zh) | 一种由粗到精的两阶段非约束车牌区域精准提取方法 | |
CN111259796A (zh) | 一种基于图像几何特征的车道线检测方法 | |
Hernández et al. | Lane marking detection using image features and line fitting model | |
US11588955B2 (en) | Apparatus, method, and computer program for image conversion | |
Coronado et al. | Detection and classification of road signs for automatic inventory systems using computer vision | |
CN106446864A (zh) | 一种可行道路的检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |