CN111553348A - 一种基于centernet的anchor-based目标检测方法 - Google Patents
一种基于centernet的anchor-based目标检测方法 Download PDFInfo
- Publication number
- CN111553348A CN111553348A CN202010340219.1A CN202010340219A CN111553348A CN 111553348 A CN111553348 A CN 111553348A CN 202010340219 A CN202010340219 A CN 202010340219A CN 111553348 A CN111553348 A CN 111553348A
- Authority
- CN
- China
- Prior art keywords
- anchor
- size
- clustering
- target
- center
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23211—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with adaptive number of clusters
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Probability & Statistics with Applications (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于centernet的anchor‑based目标检测方法。方法以关键点检测为基础,针对检测到的关键点通过anchor回归图像中目标的大小。以关键点确定目标位置的方式减少了anchor之间的互相干扰,并以此为基础减少传统anchor‑based算法中非极大值抑制的算法复杂度。和传统单阶段anchor‑based目标检测算法的不同之处在于本发明是以关键点检测为基础,非极大值抑制作用的对象是检测到的关键点所对应的预测框,两者相比,本发明提出的方法大大减少了非极大值抑制的计算量和设置超参数阈值的步骤,省去了调节模型的工作量。
Description
技术领域
本发明涉及计算机视觉技术,具体涉及一种目标检测技术。
背景技术
目标检测是计算机视觉技术中重要的基本研究课题之一。目标检 测有两个子任务,分别为定位和识别。“定位”是找到感兴趣的物体 在图像上的位置坐标,“识别”是判断出感兴趣物体的类别。目标检 测技术的应用范围非常广泛,如:智能交通、军事目标侦测、医学机 器手手术、手机拍照,远程考试监考等。计算机视觉的很多任务如: 人脸识别、姿态识别、人群计数、实例分割也都是以目标检测为基础 的。随着硬件计算能力的不断提高,人工智能技术也得到了阶段性的 突破发展。基于深度学习的目标检测技术却得了令人瞩目的成果。基 于深度学习的目标检测技术不断发展,衍生出了anchor-based类型 的检测算法和anchorfree类型的检测算法,传统anchor-based目 标检测算法对于同一个目标通常有多个框同时进行回归,这就造成了 歧义性,不利于神经网络模型的训练和优化,如何切实有效的解决歧 义成为亟待解决的问题之一。
Anchor-based类型的算法会在训练之前先聚类数据集中的 anchor,得到聚类结果代表着数据集中目标大小的分布,通过在图 像的特征图(feature map)上利用anchor来提取相应的候选区域, 检测算法在提取出来的候选区域上进行回归和分类。Anchor-based算法的检测精度得益于anchor的聚类效果,根据anchor选取的候 选区域如果已经与目标很接近则算法的检测性能较好。传统 Anchor-based目标检测算法在检测的过程中产生了大量的预测框, 不同的预测框之间存在排斥,阻碍了模型的学习,成为了提升 anchor-based目标检测算法精度的阻碍;使用非极大值抑制提取优 质的检测框时需要消耗大量的计算时间,通常使用更底层的语言去加 速这一过程。
发明内容
本发明的目的在于克服现有技术中存在的缺陷,提出一种基于 centernet的anchor-based目标检测方法。以关键点检测为基础, 针对检测到的关键点通过anchor回归图像中目标的大小。以关键点 确定目标位置的方式减少了anchor之间的互相干扰,并以此为基础 减少传统anchor-based算法中非极大值抑制的算法复杂度。本发明 减少了非极大值抑制的计算复杂度,提高了检测结果的精度。
本发明采用以下技术方案:
一种基于centernet的anchor-based目标检测方法,其特征在 于,该方法包括如下步骤:
步骤1:对目标检测所需要用到的数据集进行聚类处理,得到数 据集中所有目标的尺度大小所形成的聚类;
步骤2:基于对数据集的聚类结果,设置网络模型最后输出的 anchor-based分支中anchor的数量和大小;
步骤3:对数据集中的图片做归一化处理,统一为相同的大小送 入卷积神经网络模块,卷积神经网络模块从图片中提取特征,得到图 片的特征信息;
步骤4:根据卷积神经网络模块提取的图片的特征信息,通过热 图模块确定目标的位置;通过偏移回归模块确定特征图中目标到原图 片的偏移量;
步骤5:根据热图模块确定的目标所在的位置及卷积神经网络模 块获得的图片特征,通过anchor-based分支回归目标的大小,并得 到anchor-based分支中各类anchor回归的自信度,通过自信度选 取最优的anchor回归,得出最后的检测结果。
其中,自信度定义为预测框与真实框之间的IOU值,其中,IOU 计算如下:
其中,其中卷积神经网络采用dlanet。
其中,所述步骤1中聚类的流程如下:
步骤1.1:提取所有的真实框(w,h),w和h分别代表真实框 的长和宽,聚类得到框的大小;
步骤1.2:使用随机数设定初始的聚类中心,中心的坐标为wc和hc,聚类得出的值就是anchor的最后大小;
步骤1.3:计算数据集中每个框与每个聚类中心的距离,将每个 点分配到距离点最近的聚类中心,计每个聚类中心分配到的框的数量 为Ni;
步骤1.4:根据下式计算每聚类中心点新坐标,更新聚类中心的 坐标,其中Wnew和Hnew表示新的聚类中心的宽和高,Wi和Hi表 示所属某个聚类中心的所有框,N表示属于该聚类中心的框的个数;
其中,总的损失函数为Ldet,Ldet=Lk+λsizeLsize+λoffLoff++λiouLiou,其 中,Loff是偏移量损失,Lsize是预测框大小的损失函数,Liou是自信度 的损失函数,λsize,λoff,λiou分别为各个不同损失函数的权重。
本发明的优点和有益效果在于:
本发明中在针对具体某一个目标时,热图检测出来的热点已经确 定了目标的位置,相应的该位置基于anchor的候选区域就确定了, 候选区域的个数和anchor的个数相同,anchor-based候选区域的 中心就是热图热点的中心。不同的anchor与不同的目标建立了多对 一的关系,消除了anchor与众多目标之间关系的歧义性,有利于网 络模型的学习和训练。此时非极大值抑制作用的对象就是该点所对应 的anchor-based分支所生成的预测框,非极大值抑制的数量级就是 anchor的个数。与目前anchor-based目标检测算法的不同之处之 一就是目前的anchor-based的非极大值抑制作用的对象是所有的 自信度超过某个阈值的框,两者相比,本专利提出的方法大大减少了 非极大值抑制的计算量,并且减少了设置超参数的步骤,省去了调节 模型的工作量。
附图说明
图1为本发明的系统框图;
图2为本发明的各个对比模型的实验结果图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步描述。 以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来 限制本发明的保护范围。
为此,本申请公开了一种基于centernet的anchor-based目 标检测方法,如图1所示,该方法包括输入模块、卷积神经网络模 块、热图模块、偏移量回归模块、目标大小回归模块。输入模块将图 片进行预处理,归一化为统一的大小,处理后经过卷积神经网络,产生图片的特征。模型的输出分为三部分,分别为热图模块、偏移量回 归模块、目标大小回归模块;热图模块确定目标的位置,并将得到的 位置信息传入目标大小回归模块,目标大小回归模块结合图片特征对 目标的大小进行回归,最后偏移量回归模块回归从特征图到真实图片 的偏差。
其中,热图模块由一个卷积块构成,热图用来判断检测的目标在 图片上的具体位置,热图中卷积层的卷积核的数目根据待检测任务的 类别数目决定;偏移量回归模块,由一个卷积块构成,旨在回归目标 从特征图到原图的偏差;目标大小回归模块,由一个卷积块构成,该 部分使用该了anchor-based检测方式,决定最后目标大小的尺度。
更具体的本发明技术方案的步骤为:
步骤1:对目标检测所需要用到的数据集进行聚类处理,得到数 据集中所有目标的尺度大小所形成的聚类。
步骤2:基于对数据集的聚类结果,设置网络模型最后输出的 anchor-based分支中anchor的数量和大小;
步骤3:对数据集中的图片做归一化处理,统一为相同的大小送 入卷积神经网络,卷积神经网络从图片中提取特征,卷积神经网络采 用dlanet,得到图片的特征信息。
步骤4:根据卷积神经网络提取的图片的特征信息,通过热图确 定目标的位置;通过偏移回归确定特征图中目标到原图片的偏移量;
步骤5:根据热图确定的目标所在的位置及神经网络模型获得的 图片特征,通过anchor-based分支回归目标的大小,并得到 anchor-based分支中各类anchor回归的自信度,通过自信度选取 最优的回归anchor,得出最后的检测结果,
其中,自信度定义为预测框与真实框之间的IOU值,anchor free 分支的预测和anchor-based分支中的每一个anchor的预测都伴有 一个回归的自信度,自信度是选出最优预测的凭仗;
以下对上述各个步骤进行进一步具体说明。
所述步骤1中,聚类的方法为:聚类的方法使用Kmeans方法, 距离的度量借助IOU,距离公式为如下所示:
Dis=1-IOU
步骤1中聚类的流程如下:
步骤1.1:提取所有的真实框(w,h),w和h分别代表真实宽 的长和宽。聚类得到框的大小,不需要位置坐标。
步骤1.2:使用随机数设定初始的聚类中心,中心的坐标为wc和hc,聚类得出的值就是anchor的最后大小。
步骤1.3:计算数据集中每个框与每个聚类中心的距离,将每个 点分配到距离点最近的聚类中心,计每个聚类中心分配到的框的数量 为Ni。
步骤1.4:根据下式计算每聚类中心点新坐标,更新聚类中心的 坐标,其中Wnew和Hnew表示新的聚类中心的宽和高,Wi和Hi表 示所属某个聚类中心的所有框,N表示属于该聚类中心的框的个数。 重复第1.3步和第1.4步直至数据集中所有框属于某个聚类中心不再改变时,得出的聚类中心就是anchor的大小。
所述步骤5中,自信度的设定为:每一个预测的值,包括anchor free预测的一个值和不同的anchor大小回归得到的值都协同一个自 信度,共有自信度的数量n(n为anchor的数量),自信度表示选取 哪一个回归值作为检测结果,自信度的设定为IOU(Intersection-over-Union)。IOU的计算方法为“预测的边框”和 “真实的边框”的交集与并集的比值。公式如下:
本发明中在针对具体某一个目标热图检测出来的热点已经确定 了目标的位置,相应的该位置基于anchor的候选区域就确定了,候 选区域的个数和anchor的个数相同,anchor-based候选区域的中 心就是热图热点的中心。不同的anchor与不同的目标建立了多对一 的关系,消除了anchor与众多目标之间关系的歧义性,有利于网络 模型的学习和训练。此时非极大值抑制作用的对象就是该点所对应的 anchor-based分支所生成的预测框,非极大值抑制的数量级就是 anchor的个数。与当前的anchor-based检测算法的不同之处之一 就是目前的anchor-based的非极大值抑制作用的对象是所有的自 信度超过某个阈值的框,两者相比,本发明提出的方法大大减少了非 极大值抑制的计算量,并且减少了设置超参数的步骤,省去了调节模 型的工作量。
模型优化的损失函数为:
Lk热图分支的损失函数,设定输入图像为I,图像I的宽和高为 W和H。模型生成的热图为其中R是缩小的比例,即 输入到输出的大小比例。C是关键点种类的类型数量,即通道数,最 后分类的类别数。表示在(x,y)处检测到c类目标,相应的表示此处检测大目标的概率。对于真实目标的中心点p, 相应的经过下采样以后的位置为P~=ρ/R,使用高斯核 按照类别分布在标签上,其中σp是目标自 适应标准差。如果同一个类别出现两个目标的分布发生了重叠,重叠 部分取两个分布的较大值。其中α,β是两个超参数,限制热图上每个 点的权重,这里设置为2和4。
Loff是偏移量损失,模型下采样检测图片以后将预测框映射回原 始尺寸大小,像素点是离散值会发生偏移,所以需要网络预测之部分 差值。是模型为每个目标的中心点预测的偏差。是真实目标 框下采样并向下取整的值,作为偏移量学习的标签。
Lsize是预测框大小的损失函数,其中Wi和Hi表示最终计算出的 预测框的大小,anchorw和anchorH是通过聚类得到的anchor的宽 和长,(Pwi,Phi)为anchor-based的预测值。WT和HT表示真实框 的宽和长。O表示anchor-based分支中anchor与真实框的IOU 大于阈值v时anchor的集合,N为这个集合中元素的个数,C是所有 真实框中心点的集合。Lsize整合了回归大小的损失函数。
Wi=anchorwi*exp(Pwi)
Hi=anchorHi*exp(PHi)
Liou是自信度的损失函数,其中9表示通过聚类得来的9种 anchor,(Wci,Hci)表示C中的c点第i个预测框。bce为交叉熵损失, Pci为c点第i个预测框预测的自信度,σ为sigmoid激活函数。
总的损失函数为Ldet,λsize、λoff、λiou分别为各个不同损失函数 的权重
Ldet=Lk+λsizeLsize+λoffLoff++λiouLiou。
本申请的验证试验中,使用了网上公开数据集pascal voc数据 集。PASCAL VOC挑战赛是05年兴起的计算机视觉挑战赛,举办过 程中每年都有数据集产生,验证试验中使用07年和12年使用的数 据集。使用pascal voc数据集中07年和12年的训练练集作为训练集,使用07年的测试集作为测试集,数据集的图片数量及详细信息 见下表,train、val、trainval分别表示训练集,验证集,训练验证集。Images表示图片数量,objects表示数据中所包含的目标数量。
本发明的模型centernet-ab(Centernet integrated with anchor-based)的对比模型为yolov2、yolov3、SSD。
本发明使用mAp做为检测指标。其中,计算AP时使用插值法, Δr表示每个小区间的宽度,c为类别数。
上式中AP为每一类的PR曲线下的面积之和,PR曲线是以 recall为横坐标轴,precision为纵坐标轴画出的曲线。k表示每一个 类别在PR曲线上的点,mAP表示各个类别AP值的平均值,mAP 值的大小代表了目标检测算法的最终性能,mAP值越高,算法的检 测精度越高。
实验中采取的所采各个算法的参数配置如下表所示:
模型 | yolov2 | yolov3 | ssd | centernet-ab |
起始学习率 | 0.0001 | 0.00005 | 0.001 | 0.0001 |
batch size | 64 | 64 | 24 | 16 |
训练批次 | 280 | 200 | 180 | 70 |
各个对比模型的实验结果如图2所示。从图2中可以看出,根 据模型最后的检测结果mAP显示,本发明提出的算法在检测精度上 要高于对比的算法,证明了算法的可行性,证实了基于关键点检测的 anchor-based目标检测算法在消除了网络的歧义性后取得了精度的 提升,检测过程中每个点的非极大值抑制算法面对的对象仅包含9 个,大大减少了传统anchor-based目标检测算法的计算复杂度。
本申请是一种基于centernet的anchor-based目标检测方法。Centernet是基于关键点的目标检测算法,本申请也是基于关键点的 anchor-based目标检测算法。本模型将检测物体的物体分为了两部 分,第一部分是通过热图定位待检测物体的准确位置;进而第二步通 过模型的另一个分支进行对物体的回归,回归时充分利用了anchor 的不同尺度。借助了关键点的检测方法,本专利消除了传统 anchor-based目标检测算法中由于anchor的歧义性给模型的学习 带来的阻碍,使得anchor和目标能够建立多对一的关系,确定了anchor的检测对象,提升了anchor-based类型算法的检测精度。 本专利中anchor-based的最大值抑制与目前anchor-based算法作 用的对象的数量不同,由所有的自信度超过某个阈值的框变为仅仅是 热图上热点对应的若干个预测框,大大减少了非极大值抑制算法的复 杂度。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在 本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均 应包含在本发明的保护范围之内。
Claims (5)
1.一种基于centernet的anchor-based目标检测方法,其特征在于,该方法包括如下步骤:
步骤1:对目标检测所需要用到的数据集进行聚类处理,得到数据集中所有目标的尺度大小所形成的聚类;
步骤2:基于对数据集的聚类结果,设置网络模型最后输出的anchor-based分支中anchor的数量和大小;
步骤3:对数据集中的图片做归一化处理,统一为相同的大小送入卷积神经网络模块,卷积神经网络模块从图片中提取特征,得到图片的特征信息;
步骤4:根据卷积神经网络模块提取的图片的特征信息,通过热图模块确定目标的位置;通过偏移回归模块确定特征图中目标到原图片的偏移量;
步骤5:根据热图模块确定的目标所在的位置及卷积神经网络模块获得的图片特征,通过anchor-based分支回归目标的大小,并得到anchor-based分支中各类anchor回归的自信度,通过自信度选取最优的anchor回归,得出最后的检测结果。
3.如权利要求1所述的方法,其特征在于,其中卷积神经网络采用dlanet。
4.如权利要求1所述的方法,其特征在于,所述步骤1中聚类的流程如下:
步骤1.1:提取所有的真实框(w,h),w和h分别代表真实框的长和宽,聚类得到框的大小;
步骤1.2:使用随机数设定初始的聚类中心,中心的坐标为wc和hc,聚类得出的值就是anchor的最后大小;
步骤1.3:计算数据集中每个框与每个聚类中心的距离,将每个点分配到距离点最近的聚类中心,计每个聚类中心分配到的框的数量为Ni;
步骤1.4:根据下式计算每聚类中心点新坐标,更新聚类中心的坐标,其中Wnew和Hnew表示新的聚类中心的宽和高,Wi和Hi表示所属某个聚类中心的所有框,N表示属于该聚类中心的框的个数;
5.如权利要求1-4任一项所述的方法,其特征在于,总的损失函数为Ldet,Ldet=Lk+λsizeLsize+λoffLoff++λiouLiou,其中,Loff是偏移量损失,Lsize是预测框大小的损失函数,Liou是自信度的损失函数,λsize,λoff,λiou分别为各个不同损失函数的权重。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010340219.1A CN111553348A (zh) | 2020-04-26 | 2020-04-26 | 一种基于centernet的anchor-based目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010340219.1A CN111553348A (zh) | 2020-04-26 | 2020-04-26 | 一种基于centernet的anchor-based目标检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111553348A true CN111553348A (zh) | 2020-08-18 |
Family
ID=72004373
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010340219.1A Pending CN111553348A (zh) | 2020-04-26 | 2020-04-26 | 一种基于centernet的anchor-based目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111553348A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112115883A (zh) * | 2020-09-21 | 2020-12-22 | 深兰人工智能芯片研究院(江苏)有限公司 | 基于Anchor-free目标检测算法的非极大值抑制方法和装置 |
CN112257609A (zh) * | 2020-10-23 | 2021-01-22 | 重庆邮电大学 | 一种基于自适应关键点热图的车辆检测方法及装置 |
CN112364734A (zh) * | 2020-10-30 | 2021-02-12 | 福州大学 | 基于yolov4和CenterNet的异常着装检测方法 |
CN112597837A (zh) * | 2020-12-11 | 2021-04-02 | 北京百度网讯科技有限公司 | 图像检测方法、装置、设备、存储介质和计算机程序产品 |
CN112651338A (zh) * | 2020-12-26 | 2021-04-13 | 广东电网有限责任公司电力科学研究院 | 一种输电线路违章施工隐患的判别方法及装置 |
CN115170802A (zh) * | 2022-07-15 | 2022-10-11 | 四川大学 | 微小实性异生组织的分割方法、系统、电子设备及介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100328452A1 (en) * | 2009-04-13 | 2010-12-30 | Sang-Hack Jung | Method for pose invariant vessel fingerprinting |
CN109685152A (zh) * | 2018-12-29 | 2019-04-26 | 北京化工大学 | 一种基于dc-spp-yolo的图像目标检测方法 |
CN109815886A (zh) * | 2019-01-21 | 2019-05-28 | 南京邮电大学 | 一种基于改进YOLOv3的行人和车辆检测方法及系统 |
CN110532894A (zh) * | 2019-08-05 | 2019-12-03 | 西安电子科技大学 | 基于边界约束CenterNet的遥感目标检测方法 |
CN110633731A (zh) * | 2019-08-13 | 2019-12-31 | 杭州电子科技大学 | 一种基于交错感知卷积的单阶段无锚框目标检测方法 |
CN110766098A (zh) * | 2019-11-07 | 2020-02-07 | 中国石油大学(华东) | 基于改进YOLOv3的交通场景小目标检测方法 |
CN110956222A (zh) * | 2019-12-17 | 2020-04-03 | 大连理工大学 | 用于水下目标检测的检测网络的方法 |
-
2020
- 2020-04-26 CN CN202010340219.1A patent/CN111553348A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100328452A1 (en) * | 2009-04-13 | 2010-12-30 | Sang-Hack Jung | Method for pose invariant vessel fingerprinting |
CN109685152A (zh) * | 2018-12-29 | 2019-04-26 | 北京化工大学 | 一种基于dc-spp-yolo的图像目标检测方法 |
CN109815886A (zh) * | 2019-01-21 | 2019-05-28 | 南京邮电大学 | 一种基于改进YOLOv3的行人和车辆检测方法及系统 |
CN110532894A (zh) * | 2019-08-05 | 2019-12-03 | 西安电子科技大学 | 基于边界约束CenterNet的遥感目标检测方法 |
CN110633731A (zh) * | 2019-08-13 | 2019-12-31 | 杭州电子科技大学 | 一种基于交错感知卷积的单阶段无锚框目标检测方法 |
CN110766098A (zh) * | 2019-11-07 | 2020-02-07 | 中国石油大学(华东) | 基于改进YOLOv3的交通场景小目标检测方法 |
CN110956222A (zh) * | 2019-12-17 | 2020-04-03 | 大连理工大学 | 用于水下目标检测的检测网络的方法 |
Non-Patent Citations (1)
Title |
---|
张筱晗: "基于中心点的遥感图像多方向舰船目标检测" * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112115883A (zh) * | 2020-09-21 | 2020-12-22 | 深兰人工智能芯片研究院(江苏)有限公司 | 基于Anchor-free目标检测算法的非极大值抑制方法和装置 |
CN112257609A (zh) * | 2020-10-23 | 2021-01-22 | 重庆邮电大学 | 一种基于自适应关键点热图的车辆检测方法及装置 |
CN112257609B (zh) * | 2020-10-23 | 2022-11-04 | 重庆邮电大学 | 一种基于自适应关键点热图的车辆检测方法及装置 |
CN112364734A (zh) * | 2020-10-30 | 2021-02-12 | 福州大学 | 基于yolov4和CenterNet的异常着装检测方法 |
CN112597837A (zh) * | 2020-12-11 | 2021-04-02 | 北京百度网讯科技有限公司 | 图像检测方法、装置、设备、存储介质和计算机程序产品 |
US20210295088A1 (en) * | 2020-12-11 | 2021-09-23 | Beijing Baidu Netcom Science & Technology Co., Ltd | Image detection method, device, storage medium and computer program product |
US11810319B2 (en) * | 2020-12-11 | 2023-11-07 | Beijing Baidu Netcom Science & Technology Co., Ltd | Image detection method, device, storage medium and computer program product |
CN112597837B (zh) * | 2020-12-11 | 2024-05-28 | 北京百度网讯科技有限公司 | 图像检测方法、装置、设备、存储介质和计算机程序产品 |
CN112651338A (zh) * | 2020-12-26 | 2021-04-13 | 广东电网有限责任公司电力科学研究院 | 一种输电线路违章施工隐患的判别方法及装置 |
CN112651338B (zh) * | 2020-12-26 | 2022-02-15 | 广东电网有限责任公司电力科学研究院 | 一种输电线路违章施工隐患的判别方法及装置 |
CN115170802A (zh) * | 2022-07-15 | 2022-10-11 | 四川大学 | 微小实性异生组织的分割方法、系统、电子设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111553348A (zh) | 一种基于centernet的anchor-based目标检测方法 | |
CN106228185B (zh) | 一种基于神经网络的通用图像分类识别系统及方法 | |
CN111428733B (zh) | 基于语义特征空间转换的零样本目标检测方法及系统 | |
CN112364931B (zh) | 一种基于元特征和权重调整的少样本目标检测方法及网络系统 | |
US20070058836A1 (en) | Object classification in video data | |
CN113822278B (zh) | 一种无受限场景车牌识别方法 | |
CN110543906B (zh) | 基于Mask R-CNN模型的肤质自动识别方法 | |
CN112052802B (zh) | 一种基于机器视觉的前方车辆行为识别方法 | |
CN109446894B (zh) | 基于概率分割及高斯混合聚类的多光谱图像变化检测方法 | |
CN107123130B (zh) | 一种基于超像素和混合哈希的核相关滤波目标跟踪方法 | |
WO2023116632A1 (zh) | 基于时空记忆信息的视频实例分割方法和分割装置 | |
Shuai et al. | Object detection system based on SSD algorithm | |
CN108846845B (zh) | 基于缩略图与分层模糊聚类的sar图像分割方法 | |
CN112634369A (zh) | 空间与或图模型生成方法、装置、电子设备和存储介质 | |
CN111709305B (zh) | 一种基于局部图像块的人脸年龄识别方法 | |
CN111815640B (zh) | 一种基于忆阻器的rbf神经网络医学图像分割算法 | |
CN111310609A (zh) | 基于时序信息和局部特征相似性的视频目标检测方法 | |
CN114201632B (zh) | 一种面向多标记目标检测任务的标签带噪数据集扩增方法 | |
CN117372877A (zh) | 一种基于神经网络的星图识别方法、装置及相关介质 | |
CN115311449A (zh) | 基于类重激活映射图的弱监督图像目标定位分析系统 | |
CN117495891B (zh) | 点云边缘检测方法、装置和电子设备 | |
Yang et al. | An improved algorithm for the detection of fastening targets based on machine vision | |
CN112270285B (zh) | 一种基于稀疏表示和胶囊网络的sar图像变化检测方法 | |
CN113379788A (zh) | 一种基于三元组网络的目标跟踪稳定性方法 | |
CN116597275A (zh) | 一种基于数据增强的高速移动目标识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |