CN114842189B - 一种用于目标检测的自适应Anchor生成方法 - Google Patents
一种用于目标检测的自适应Anchor生成方法 Download PDFInfo
- Publication number
- CN114842189B CN114842189B CN202111326683.6A CN202111326683A CN114842189B CN 114842189 B CN114842189 B CN 114842189B CN 202111326683 A CN202111326683 A CN 202111326683A CN 114842189 B CN114842189 B CN 114842189B
- Authority
- CN
- China
- Prior art keywords
- matrix
- anchor
- width
- centroid
- optimal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/66—Analysis of geometric attributes of image moments or centre of gravity
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种用于目标检测的自适应Anchor生成方法,包括以下步骤:根据聚类算法,得到最佳Anchor;计算最佳Anchor和矩阵WH2的相近度,作为最佳相近度;最佳Anchor乘以迭代偏移量,得到偏移Anchor;计算偏移Anchor与矩阵WH2的相近度,进而得到最佳Anchor。本发明根据数据集场景自适应调节Anchor,从而使Anchor设置的尺寸和实际数据集场景匹配,进而使目标检测算法在做位置回归时能够回归到准确位置,提高算法模型检测效果。
Description
技术领域
本发明属于人工智能技术领域,具体涉及一种用于目标检测的自适应Anchor生成方法。
背景技术
目标检测算法按照Anchor(参考框集合)可以划分为Anchor-based和Anchor-free两大类,顾名思义,Anchor-free无需设置Anchor就可以完成目标检测任务,而Anchor-based则需要设置Anchor完成目标检测任务。
对于Anchor-based目标检测算法,Anchor的设置十分重要,设置的Anchor是否合适很大程度影响了目标检测算法模型的检测效果。
现有Anchor-based目标检测算法大多采用人工设定的Anchor,主要存在以下问题:现有设置方式经常出现Anchor设置的尺寸和实际图片中的目标尺寸匹配不佳的情况,从而加大了目标检测算法在做位置回归时的难度,可能导致其无法回归到准确位置,最终导致目标检测算法模型检测效果不佳。
因此,如何针对不同数据集场景设置合适的Anchor,是Anchor-based目标检测算法是否能够检测准确的关键。
发明内容
针对现有技术存在的缺陷,本发明提供一种用于目标检测的自适应Anchor生成方法,可有效解决上述问题。
本发明采用的技术方案如下:
本发明提供一种用于目标检测的自适应Anchor生成方法,包括以下步骤:
步骤S1:对数据集进行分析,得到数据集所有标注目标的目标框的矩阵,记为矩阵WH1;其中,矩阵WH1维度为(n,2),n代表数据集的目标框的数量;2代表每个目标框的维度为两维,分别为:宽w和高h;
步骤S3:根据聚类算法,得到最佳Anchor:
步骤S3.1:获得矩阵WH2中所有目标框的宽的标准差w_std和所有目标框的高的标准差h_std;
步骤S3.2:采用下式,矩阵WH2中每个目标框的宽除以宽的标准差w_std,矩阵WH2中每个目标框的高除以高的标准差h_std,得到归一化目标框组成的矩阵WH3;
步骤S3.3:矩阵WH3共包括m个宽高数据对;每一个宽高数据对作为一个点,随机选择a个点作为初始质心,组成初始Anchor,表示为:
其中:a为初始Anchor包括的初始质心数量;初始Anchor维度为(a,2),w_a1代表第1个初始质心的宽,h_a1代表第1个初始质心的高;w_a2代表第2个初始质心的宽,h_a2代表第2个初始质心的高;依此类推,w_aa代表第a个初始质心的宽,h_aa代表第a个初始质心的高;
步骤S3.4:令K-means当前迭代次数=0;
步骤S3.5:计算矩阵WH3中每一个归一化目标框与每一个初始质心的欧式距离,对于每一个归一化目标框,将其划分到距离其最近的初始质心所属的集合,由此得到a个集合;
步骤S3.6:对于a个集合中的每个集合,计算该集合所有宽的均值和所有高的均值作为新质心;由此形成a个新质心;
步骤S3.7:K-means当前迭代次数+1;
步骤S3.8:判断步骤S3.6得到的每个新质心,是否与上一轮迭代得到的初始质心相同,如果均相同,则执行步骤S3.9;否则,判断K-means当前迭代次数是否等于预设k-means总迭代次数,如果等于,则执行步骤S3.9;如果不等于,则将步骤S3.6得到的每个新质心,作为初始质心,返回步骤S3.5;
步骤S3.9:将每一个新质心的宽乘以宽的标准差w_std,将每一个新质心的高乘以高的标准差h_std,形成的矩阵作为最佳Anchor,表示为:
其中:w_a1s代表第1个最佳质心的宽,h_a1s代表第1个最佳质心的高;w_a2s代表第2个最佳质心的宽,h_a2s代表第2个最佳质心的高;w_aas代表第a个最佳质心的宽,h_aas代表第a个最佳质心的高;
步骤S4:计算最佳Anchor和矩阵WH2的相近度,作为最佳相近度:
步骤S4.1:最佳Anchor包括a个最佳质心,将a个最佳质心作为一组,复制扩充到m组,由此得到维度为(m,a,2)的矩阵,记为扩充Anchor,表示为:
矩阵WH2包括m个目标框,将每个目标框复制扩充到a个目标框,由此得到维度为(m,a,2)的矩阵,记为扩充WH2,表示为:
步骤S4.2:扩充Anchor包括m*a行,每行包括宽和高两维数据;扩充WH2包括m*a行,每行包括宽和高两维数据;比较扩充Anchor和扩充WH2每行宽的值,取较小者作为最小值矩阵相同行的宽;比较扩充Anchor和扩充WH2每行高的值,取较小者作为最小值矩阵相同行的高,由此得到维度为(m,a,2)的最小值矩阵,表示为:
其中:w_min和h_min分别表示最小值矩阵中每行元素的宽和高;
步骤S4.3:将最小值矩阵中每行的宽和高相乘,得到维度为(m,a)的最小值面积矩阵A:
其中:wh_min表示最小值面积矩阵中的每行面积值;
步骤S4.4:比较扩充Anchor和扩充WH2每行宽的值,取较大者作为最大值矩阵相同行的宽;比较扩充Anchor和扩充WH2每行高的值,取较大者作为最大值矩阵相同行的高,由此得到维度为(m,a,2)的最大值矩阵,表示为:
其中:w_max和h_max分别表示最大值矩阵中每行元素的宽和高;
步骤S4.5:将最大值矩阵中每行的宽和高相乘,得到维度为(m,a)的最大值面积矩阵B:
其中:wh_max表示最大值面积矩阵中的每行面积值;
步骤S4.6:将扩充Anchor中每一行的宽高相乘,得到维度为(m,a)的矩阵C1:
其中:wh_a表示矩阵C1中的每行面积值;
将扩充WH2中每一行的宽高相乘,得到维度为(m,a)的矩阵C2:
步骤S4.7:采用下式,将矩阵C1和矩阵C2相加并减去矩阵A,得到矩阵C:
C=C1+C2-A
采用下式,得到矩阵D:
矩阵D表示为:
其中:d11表示矩阵WH2中第1个目标框和最佳Anchor中第1个最佳质心的相近度,d12表示矩阵WH2中第1个目标框和最佳Anchor中第2个最佳质心的相近度,依此类推,dma表示矩阵WH2中第m个目标框和最佳Anchor中第a个最佳质心的相近度;
步骤S4.8:计算矩阵D中每个目标框与a个最佳质心的相近度的最大值,得到维度为(m)的矩阵E:
其中:
e1表示矩阵WH2中第1个目标框和最佳Anchor中a个最佳质心的最大相近度;
e2表示矩阵WH2中第2个目标框和最佳Anchor中a个最佳质心的最大相近度;
em表示矩阵WH2中第m个目标框和最佳Anchor中a个最佳质心的最大相近度;
步骤S4.9:将矩阵E中数值大于相近度阈值thr的数值取均值,得到最佳Anchor和矩阵WH2的最佳相近度;
步骤S5:设置当前迭代次数=0;
步骤S6:计算迭代偏移量Offset,具体步骤如下:
步骤S6.1:生成和最佳Anchor维度相同且具有标准正态分布的矩阵,记为矩阵Offset1,维度为(a,2):
步骤S6.2:将矩阵Offset1中每一个元素加1,得到矩阵Offset2:
步骤S6.3:将矩阵Offset2乘以当前迭代次数后除以总迭代次数,得到迭代偏移量Offset:
步骤S7:当前迭代次数+1;
步骤S8:最佳Anchor乘以迭代偏移量,得到偏移Anchor;
步骤S9:计算偏移Anchor与矩阵WH2的相近度,记为相近度degree;
步骤S10:判断相近度degree是否大于步骤S4.9得到的最佳相近度,如果是,则将相近度degree作为最佳相近度,将偏移Anchor作为最佳Anchor,然后执行步骤S11;如果否,则执行步骤S11;
步骤S11:判断当前迭代次数是否等于总迭代次数,如果是,则最佳Anchor即为最终生成的自适应Anchor;如果否,则返回步骤S6。
优选的,步骤S3中,采用的聚类算法为K-means聚类算法。
本发明提供的一种用于目标检测的自适应Anchor生成方法具有以下优点:
本发明提供一种用于目标检测的自适应Anchor生成方法,具体为一种基于Anchor-based目标检测的自适应Anchor生成方法,根据数据集场景自适应调节Anchor,从而使Anchor设置的尺寸和实际数据集场景匹配,进而使目标检测算法在做位置回归时能够回归到准确位置,提高算法模型检测效果。
附图说明
图1为本发明提供的一种用于目标检测的自适应Anchor生成方法的流程示意图;
图2为本发明提供的步骤S3的最佳Anchor的计算流程图;
图3为本发明提供的步骤S4的最佳Anchor和矩阵WH2的最佳相近度的计算流程图。
具体实施方式
为了使本发明所解决的技术问题、技术方案及有益效果更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
本发明提供一种用于目标检测的自适应Anchor生成方法,具体为一种基于Anchor-based目标检测的自适应Anchor生成方法,根据数据集场景自适应调节Anchor,从而使Anchor设置的尺寸和实际数据集场景匹配,进而使目标检测算法在做位置回归时能够回归到准确位置,提高算法模型检测效果。
本发明提供一种用于目标检测的自适应Anchor生成方法,参考图1,包括以下步骤:
步骤S1:对数据集进行分析,得到数据集所有标注目标的目标框的矩阵,记为矩阵WH1;其中,矩阵WH1维度为(n,2),n代表数据集的目标框的数量;2代表每个目标框的维度为两维,分别为:宽w和高h;
例如,可以以私有数据集为例,数据集所有目标框数为n=64086。
其中,矩阵WH2全称为数据集标注目标宽高矩阵,全文简称矩阵WH2。
例如,像素阈值设置为2,过滤掉矩阵WH1中宽或高的像素数小于像素阈值=2的目标框,得到矩阵WH2,其中m=64075为过滤后剩余的目标框数。本发明中,像素阈值可按需设置,达到清洗数据集或者过滤过小目标框的目的。
步骤S3:根据聚类算法,得到最佳Anchor:
参考图2,包括以下步骤:
步骤S3.1:获得矩阵WH2中所有目标框的宽的标准差w_std和所有目标框的高的标准差h_std;
例如,矩阵WH2中所有宽的标准差w_std=45,所有高的标准差h_std=50。
步骤S3.2:采用下式,矩阵WH2中每个目标框的宽除以宽的标准差w_std,矩阵WH2中每个目标框的高除以高的标准差h_std,得到归一化目标框组成的矩阵WH3;
步骤S3.3:矩阵WH3共包括m个宽高数据对;每一个宽高数据对作为一个点,随机选择a个点作为初始质心,组成初始Anchor,表示为:
其中:
a为初始Anchor包括的初始质心数量;例如,a设置为9。
初始Anchor维度为(a,2),w_a1代表第1个初始质心的宽,h_a1代表第1个初始质心的高;w_a2代表第2个初始质心的宽,h_a2代表第2个初始质心的高;依此类推,w_aa代表第a个初始质心的宽,h_aa代表第a个初始质心的高;
步骤S3.4:令K-means当前迭代次数=0;
步骤S3.5:计算矩阵WH3中每一个归一化目标框与每一个初始质心的欧式距离,对于每一个归一化目标框,将其划分到距离其最近的初始质心所属的集合,由此得到a个集合;
其中:
步骤S3.6:对于a个集合中的每个集合,计算该集合所有宽的均值和所有高的均值作为新质心;由此形成a个新质心;
其中,新质心更加接近数据集真正的中心。
步骤S3.7:K-means当前迭代次数+1;
步骤S3.8:判断步骤S3.6得到的每个新质心,是否与上一轮迭代得到的初始质心相同,如果均相同,则执行步骤S3.9;否则,判断K-means当前迭代次数是否等于预设k-means总迭代次数,例如,总迭代次数为50,如果等于,则执行步骤S3.9;如果不等于,则将步骤S3.6得到的每个新质心,作为初始质心,返回步骤S3.5;
步骤S3.9:将每一个新质心的宽乘以宽的标准差w_std,将每一个新质心的高乘以高的标准差h_std,形成的矩阵作为最佳Anchor,表示为:
其中:w_a1s代表第1个最佳质心的宽,h_a1s代表第1个最佳质心的高;w_a2s代表第2个最佳质心的宽,h_a2s代表第2个最佳质心的高;w_aas代表第a个最佳质心的宽,h_aas代表第a个最佳质心的高;
步骤S4:计算最佳Anchor和矩阵WH2的相近度,作为最佳相近度:
参考图3,包括以下步骤:
步骤S4.1:最佳Anchor包括a个最佳质心,将a个最佳质心作为一组,复制扩充到m组,由此得到维度为(m,a,2)的矩阵,记为扩充Anchor,表示为:
矩阵WH2包括m个目标框,将每个目标框复制扩充到a个目标框,由此得到维度为(m,a,2)的矩阵,记为扩充WH2,表示为:
步骤S4.2:扩充Anchor包括m*a行,每行包括宽和高两维数据;扩充WH2包括m*a行,每行包括宽和高两维数据;比较扩充Anchor和扩充WH2每行宽的值,取较小者作为最小值矩阵相同行的宽;比较扩充Anchor和扩充WH2每行高的值,取较小者作为最小值矩阵相同行的高,由此得到维度为(m,a,2)的最小值矩阵,表示为:
其中:w_min和h_min分别表示最小值矩阵中每行元素的宽和高;
步骤S4.3:将最小值矩阵中每行的宽和高相乘,得到维度为(m,a)的最小值面积矩阵A:
其中:wh_min表示最小值面积矩阵中的每行面积值;
步骤S4.4:比较扩充Anchor和扩充WH2每行宽的值,取较大者作为最大值矩阵相同行的宽;比较扩充Anchor和扩充WH2每行高的值,取较大者作为最大值矩阵相同行的高,由此得到维度为(m,a,2)的最大值矩阵,表示为:
其中:w_max和h_max分别表示最大值矩阵中每行元素的宽和高;
步骤S4.5:将最大值矩阵中每行的宽和高相乘,得到维度为(m,a)的最大值面积矩阵B:
其中:wh_max表示最大值面积矩阵中的每行面积值;
步骤S4.6:将扩充Anchor中每一行的宽高相乘,得到维度为(m,a)的矩阵C1:
其中:wh_a表示矩阵C1中的每行面积值;
将扩充WH2中每一行的宽高相乘,得到维度为(m,a)的矩阵C2:
步骤S4.7:采用下式,将矩阵C1和矩阵C2相加并减去矩阵A,得到矩阵C:
C=C1+C2-A
采用下式,得到矩阵D:
矩阵D表示为:
其中:d11表示矩阵WH2中第1个目标框和最佳Anchor中第1个最佳质心的相近度,d12表示矩阵WH2中第1个目标框和最佳Anchor中第2个最佳质心的相近度,依此类推,dma表示矩阵WH2中第m个目标框和最佳Anchor中第a个最佳质心的相近度;
步骤S4.8:计算矩阵D中每个目标框与a个最佳质心的相近度的最大值,得到维度为(m)的矩阵E:
其中:
e1表示矩阵WH2中第1个目标框和最佳Anchor中a个最佳质心的最大相近度;
e2表示矩阵WH2中第2个目标框和最佳Anchor中a个最佳质心的最大相近度;
em表示矩阵WH2中第m个目标框和最佳Anchor中a个最佳质心的最大相近度;
步骤S4.9:将矩阵E中数值大于相近度阈值thr的数值取均值,得到最佳Anchor和矩阵WH2的最佳相近度;
例如,相近度阈值thr为0.25。thr目的为过滤掉与最佳Anchor相近度较低的目标框,thr设置不应过高。
步骤S5:设置当前迭代次数=0;
步骤S6:计算迭代偏移量Offset,迭代偏移量可以细化最佳Anchor的选取,具体步骤如下:
步骤S6.1:生成和最佳Anchor维度相同且具有标准正态分布的矩阵,记为矩阵Offset1,维度为(a,2):
步骤S6.2:将矩阵Offset1中每一个元素加1,得到矩阵Offset2:
步骤S6.3:将矩阵Offset2乘以当前迭代次数后除以总迭代次数,得到迭代偏移量Offset:
例如,总迭代次数=10000。
步骤S7:当前迭代次数+1;
步骤S8:最佳Anchor乘以迭代偏移量,得到偏移Anchor;
步骤S9:计算偏移Anchor与矩阵WH2的相近度,记为相近度degree;
步骤S10:判断相近度degree是否大于步骤S4.9得到的最佳相近度,如果是,则将相近度degree作为最佳相近度,将偏移Anchor作为最佳Anchor,然后执行步骤S11;如果否,则执行步骤S11;
步骤S11:判断当前迭代次数是否等于总迭代次数,如果是,则最佳Anchor即为最终生成的自适应Anchor;如果否,则返回步骤S6。
本发明涉及的技术要点:1.生成迭代偏移量与Anchor相乘得到新的Anchor;2.Anchor和数据集目标宽高的相近度计算作为最佳Anchor的度量标准。
与现有技术相比,本发明的有益效果是:
1)相较于传统手动设置的Anchor,本发明使用K-means聚类算法,根据数据集的数据生成Anchor,这种利用聚类算法生成的Anchor尺寸和实际图片中的目标尺寸更相近,更贴合数据集目标大小分布,降低了目标检测算法在位置回归时的难度,加快了收敛速度,并且可以提高检测精度;
2)本发明引入了Anchor与数据集实际目标尺寸相近度的计算,该计算通过将数据集中每个目标的宽高信息和Anchor计算,得到可以衡量自适应Anchor优劣的指标;
同时本发明使用生成迭代偏移量与Anchor相乘的方式迭代生成新Anchor,并通过相近度指标的对比,可以选取到更加贴合数据集目标大小分布的自适应Anchor。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视本发明的保护范围。
Claims (2)
1.一种用于目标检测的自适应Anchor生成方法,其特征在于,包括以下步骤:
步骤S1:对数据集进行分析,得到数据集所有标注目标的目标框的矩阵,记为矩阵WH1;其中,矩阵WH1维度为(n,2),n代表数据集的目标框的数量;2代表每个目标框的维度为两维,分别为:宽w和高h;
步骤S3:根据聚类算法,得到最佳Anchor:
步骤S3.1:获得矩阵WH2中所有目标框的宽的标准差w_std和所有目标框的高的标准差h_std;
步骤S3.2:采用下式,矩阵WH2中每个目标框的宽除以宽的标准差w_std,矩阵WH2中每个目标框的高除以高的标准差h_std,得到归一化目标框组成的矩阵WH3;
步骤S3.3:矩阵WH3共包括m个宽高数据对;每一个宽高数据对作为一个点,随机选择a个点作为初始质心,组成初始Anchor,表示为:
其中:a为初始Anchor包括的初始质心数量;初始Anchor维度为(a,2),w_a1代表第1个初始质心的宽,h_a1代表第1个初始质心的高;w_a2代表第2个初始质心的宽,h_a2代表第2个初始质心的高;依此类推,w_aa代表第a个初始质心的宽,h_aa代表第a个初始质心的高;
步骤S3.4:令K-means当前迭代次数=0;
步骤S3.5:计算矩阵WH3中每一个归一化目标框与每一个初始质心的欧式距离,对于每一个归一化目标框,将其划分到距离其最近的初始质心所属的集合,由此得到a个集合;
步骤S3.6:对于a个集合中的每个集合,计算该集合所有宽的均值和所有高的均值作为新质心;由此形成a个新质心;
步骤S3.7:K-means当前迭代次数+1;
步骤S3.8:判断步骤S3.6得到的每个新质心,是否与上一轮迭代得到的初始质心相同,如果均相同,则执行步骤S3.9;否则,判断K-means当前迭代次数是否等于预设k-means总迭代次数,如果等于,则执行步骤S3.9;如果不等于,则将步骤S3.6得到的每个新质心,作为初始质心,返回步骤S3.5;
步骤S3.9:将每一个新质心的宽乘以宽的标准差w_std,将每一个新质心的高乘以高的标准差h_std,形成的矩阵作为最佳Anchor,表示为:
其中:w_a1s代表第1个最佳质心的宽,h_a1s代表第1个最佳质心的高;w_a2s代表第2个最佳质心的宽,h_a2s代表第2个最佳质心的高;w_aas代表第a个最佳质心的宽,h_aas代表第a个最佳质心的高;
步骤S4:计算最佳Anchor和矩阵WH2的相近度,作为最佳相近度:
步骤S4.1:最佳Anchor包括a个最佳质心,将a个最佳质心作为一组,复制扩充到m组,由此得到维度为(m,a,2)的矩阵,记为扩充Anchor,表示为:
矩阵WH2包括m个目标框,将每个目标框复制扩充到a个目标框,由此得到维度为(m,a,2)的矩阵,记为扩充WH2,表示为:
步骤S4.2:扩充Anchor包括m*a行,每行包括宽和高两维数据;扩充WH2包括m*a行,每行包括宽和高两维数据;比较扩充Anchor和扩充WH2每行宽的值,取较小者作为最小值矩阵相同行的宽;比较扩充Anchor和扩充WH2每行高的值,取较小者作为最小值矩阵相同行的高,由此得到维度为(m,a,2)的最小值矩阵,表示为:
其中:w_min和h_min分别表示最小值矩阵中每行元素的宽和高;
步骤S4.3:将最小值矩阵中每行的宽和高相乘,得到维度为(m,a)的最小值面积矩阵A:
其中:wh_min表示最小值面积矩阵中的每行面积值;
步骤S4.4:比较扩充Anchor和扩充WH2每行宽的值,取较大者作为最大值矩阵相同行的宽;比较扩充Anchor和扩充WH2每行高的值,取较大者作为最大值矩阵相同行的高,由此得到维度为(m,a,2)的最大值矩阵,表示为:
其中:w_max和h_max分别表示最大值矩阵中每行元素的宽和高;
步骤S4.5:将最大值矩阵中每行的宽和高相乘,得到维度为(m,a)的最大值面积矩阵B:
其中:wh_max表示最大值面积矩阵中的每行面积值;
步骤S4.6:将扩充Anchor中每一行的宽高相乘,得到维度为(m,a)的矩阵C1:
其中:wh_a表示矩阵C1中的每行面积值;
将扩充WH2中每一行的宽高相乘,得到维度为(m,a)的矩阵C2:
步骤S4.7:采用下式,将矩阵C1和矩阵C2相加并减去矩阵A,得到矩阵C:
C=C1+C2-A
采用下式,得到矩阵D:
矩阵D表示为:
其中:d11表示矩阵WH2中第1个目标框和最佳Anchor中第1个最佳质心的相近度,d12表示矩阵WH2中第1个目标框和最佳Anchor中第2个最佳质心的相近度,依此类推,dma表示矩阵WH2中第m个目标框和最佳Anchor中第a个最佳质心的相近度;
步骤S4.8:计算矩阵D中每个目标框与a个最佳质心的相近度的最大值,得到维度为(m)的矩阵E:
其中:
e1表示矩阵WH2中第1个目标框和最佳Anchor中a个最佳质心的最大相近度;
e2表示矩阵WH2中第2个目标框和最佳Anchor中a个最佳质心的最大相近度;
em表示矩阵WH2中第m个目标框和最佳Anchor中a个最佳质心的最大相近度;
步骤S4.9:将矩阵E中数值大于相近度阈值thr的数值取均值,得到最佳Anchor和矩阵WH2的最佳相近度;
步骤S5:设置当前迭代次数=0;
步骤S6:计算迭代偏移量Offset,具体步骤如下:
步骤S6.1:生成和最佳Anchor维度相同且具有标准正态分布的矩阵,记为矩阵Offset1,维度为(a,2):
步骤S6.2:将矩阵Offset1中每一个元素加1,得到矩阵Offset2:
步骤S6.3:将矩阵Offset2乘以当前迭代次数后除以总迭代次数,得到迭代偏移量Offset:
步骤S7:当前迭代次数+1;
步骤S8:最佳Anchor乘以迭代偏移量,得到偏移Anchor;
步骤S9:计算偏移Anchor与矩阵WH2的相近度,记为相近度degree;
步骤S10:判断相近度degree是否大于步骤S4.9得到的最佳相近度,如果是,则将相近度degree作为最佳相近度,将偏移Anchor作为最佳Anchor,然后执行步骤S11;如果否,则执行步骤S11;
步骤S11:判断当前迭代次数是否等于总迭代次数,如果是,则最佳Anchor即为最终生成的自适应Anchor;如果否,则返回步骤S6。
2.根据权利要求1所述的一种用于目标检测的自适应Anchor生成方法,其特征在于,步骤S3中,采用的聚类算法为K-means聚类算法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111326683.6A CN114842189B (zh) | 2021-11-10 | 2021-11-10 | 一种用于目标检测的自适应Anchor生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111326683.6A CN114842189B (zh) | 2021-11-10 | 2021-11-10 | 一种用于目标检测的自适应Anchor生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114842189A CN114842189A (zh) | 2022-08-02 |
CN114842189B true CN114842189B (zh) | 2022-11-04 |
Family
ID=82562859
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111326683.6A Active CN114842189B (zh) | 2021-11-10 | 2021-11-10 | 一种用于目标检测的自适应Anchor生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114842189B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109977878A (zh) * | 2019-03-28 | 2019-07-05 | 华南理工大学 | 基于重加权Anchor的车辆检测方法 |
CN112348036A (zh) * | 2020-11-26 | 2021-02-09 | 北京工业大学 | 基于轻量化残差学习和反卷积级联的自适应目标检测方法 |
CN113627491A (zh) * | 2021-07-15 | 2021-11-09 | 河南工业大学 | 基于改进的自适应Anchor生成的DK-YOLOv4模型 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11055540B2 (en) * | 2019-06-28 | 2021-07-06 | Baidu Usa Llc | Method for determining anchor boxes for training neural network object detection models for autonomous driving |
-
2021
- 2021-11-10 CN CN202111326683.6A patent/CN114842189B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109977878A (zh) * | 2019-03-28 | 2019-07-05 | 华南理工大学 | 基于重加权Anchor的车辆检测方法 |
CN112348036A (zh) * | 2020-11-26 | 2021-02-09 | 北京工业大学 | 基于轻量化残差学习和反卷积级联的自适应目标检测方法 |
CN113627491A (zh) * | 2021-07-15 | 2021-11-09 | 河南工业大学 | 基于改进的自适应Anchor生成的DK-YOLOv4模型 |
Non-Patent Citations (2)
Title |
---|
Adaptive Anchor for Fast Object Detection in Aerial Image;Ren Jin et al.;《IEEE Geoscience and Remote Sensing Letters》;20190904;第17卷(第5期);第839-843页 * |
铁路场景下的小尺度行人检测算法研究及系统设计;孙海龙;《中国优秀硕士学位论文全文数据库 工程科技Ⅰ辑》;20210331(第03期);第B026-61页 * |
Also Published As
Publication number | Publication date |
---|---|
CN114842189A (zh) | 2022-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110443203B (zh) | 基于对抗生成网络的人脸欺骗检测系统对抗样本生成方法 | |
CN103116896B (zh) | 一种基于视觉显著性模型的自动检测跟踪方法 | |
CN111640157B (zh) | 一种基于神经网络的棋盘格角点检测方法及其应用 | |
CN105678338B (zh) | 基于局部特征学习的目标跟踪方法 | |
CN108470354A (zh) | 视频目标跟踪方法、装置和实现装置 | |
CN106845330A (zh) | 一种基于深度卷积神经网络的二维人脸识别模型的训练方法 | |
CN109657612B (zh) | 一种基于人脸图像特征的质量排序系统及其使用方法 | |
CN111242027B (zh) | 一种融合语义信息的无监督学习场景特征快速提取方法 | |
CN107633226A (zh) | 一种人体动作跟踪识别方法及系统 | |
CN104143186B (zh) | 一种slic超像素分块优化方法 | |
CN104751466B (zh) | 一种基于显著性的形变物体跟踪方法及其系统 | |
CN110490913A (zh) | 基于角点与单线段编组的特征描述算子进行影像匹配方法 | |
CN106952294A (zh) | 一种基于rgb‑d数据的视频跟踪方法 | |
CN112364881B (zh) | 一种进阶采样一致性图像匹配方法 | |
CN105184771A (zh) | 一种自适应运动目标检测系统及检测方法 | |
CN111461036A (zh) | 一种利用背景建模增强数据的实时行人检测方法 | |
CN108846845B (zh) | 基于缩略图与分层模糊聚类的sar图像分割方法 | |
CN112446417B (zh) | 基于多层超像素分割的纺锤形果实图像分割方法及系统 | |
CN114842189B (zh) | 一种用于目标检测的自适应Anchor生成方法 | |
CN110503664B (zh) | 一种基于改进的局部自适应灵敏度背景建模方法 | |
CN106530319A (zh) | 一种基于轨迹有向图的视频对象协同分割方法 | |
CN109919964A (zh) | 基于数学形态学的高斯背景建模技术进行图像处理的方法 | |
CN108564020A (zh) | 基于全景3d图像的微手势识别方法 | |
CN109918997B (zh) | 一种基于多示例学习的行人目标跟踪方法 | |
Yan et al. | Design and image Research of tennis line examination based on machine vision analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |