CN110738647A - 融合多感受野特征映射与高斯概率模型的老鼠检测方法 - Google Patents

融合多感受野特征映射与高斯概率模型的老鼠检测方法 Download PDF

Info

Publication number
CN110738647A
CN110738647A CN201910966692.8A CN201910966692A CN110738647A CN 110738647 A CN110738647 A CN 110738647A CN 201910966692 A CN201910966692 A CN 201910966692A CN 110738647 A CN110738647 A CN 110738647A
Authority
CN
China
Prior art keywords
central point
gaussian
receptive
heat map
probability model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910966692.8A
Other languages
English (en)
Other versions
CN110738647B (zh
Inventor
叶远征
沈复民
孔繁昊
奚兴
张艳明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Koala Technology Co Ltd
Original Assignee
Chengdu Koala Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Koala Technology Co Ltd filed Critical Chengdu Koala Technology Co Ltd
Priority to CN201910966692.8A priority Critical patent/CN110738647B/zh
Publication of CN110738647A publication Critical patent/CN110738647A/zh
Application granted granted Critical
Publication of CN110738647B publication Critical patent/CN110738647B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种融合多感受野特征映射与高斯概率模型的老鼠检测方法,基于Anchor‑Free的CenterNet方法,将输入图像通过三个不同扩张率的扩张卷积,得到三种不同尺度的中心点热图,再与高斯分布的标准差自适应的高斯概率模型相结合,对上述四种不同感受野的中心点热图做加性融合构建多尺度感受野高斯加权结构,完成老鼠的检测。本发明的有益效果是:有效的解决了CenterNet完全忽略了距离中心点很近的点的作用,尤其是对于具有小、形变较严重、遮挡面积大的老鼠,很容易将中心点定位到背景位置问题;对于具有小、形变较严重、遮挡面积大的老鼠具有良好的鲁棒性、检测速度快以及检测效果好。

Description

融合多感受野特征映射与高斯概率模型的老鼠检测方法
技术领域
本发明涉及计算机视觉的目标检测技术领域,具体的说,是融合多感受野特征映射与高斯概率模型的老鼠检测方法。
背景技术
随着计算机技术的不断发展,计算机性能不断提高,作为计算机视觉四大领域之一的目标检测技术获得巨大发展,目标检测分为两大类:
第一,传统的目标检测方法,首先利用窗口遍历的方式寻找目标可能存在的位置,其次,需要手工选择特征,例如Haar特征、LBP特征、SIFT特征、HOG特征、CM特征等;最后,对特征进行分类,常用的分类器有Adaboost,SVM等。
第二,基于深度学习的目标检测方法,近年来,深度学习在目标检测领域中取得巨大突破,成为现如今最先进的方法,CNN在目标检测上的标志性成果是Girshick等在2015年提出的R-CNN(Region-based CNN)网络,在VOC上[19]测试的平均精度高达62.4%,是DPM算法的两倍。
此后,基于CNN的目标检测方法占有主导地位,主要分为两大类:
1)基于候选区域(Region Proposal,RP)的方法,代表作是SPP-net、Fast R-CNN、Faster R-CNN、R-FCN和Mask R-CNN等;
2)基于回归的方法,代表作是YOLO和SSD,YOLOv2,YOLOv3等;
3)基于Anchor-Free的方法,代表作为CornerNet和CenterNet。
传统的目标检测方法,需要手工的选择特征,其过程复杂,对于目标检测效果的优劣完全取决于研究人员的先验知识;以窗口区域遍历图像的方式检测目标,在检测过程中有很多冗余窗口,时间复杂度高,并且对于小目标、密集目标、形变较严重的目标、遮挡面积大的目标检测效果一般。第二,深度学习的目标检测方法,由于老鼠具有小、形变较严重、遮挡面积大等特点,基于候选区域的方法较为复杂,候选区域计算冗余,占用资源较大,不符合实时性准则;基于回归的方法需要设计者根据先验知识设计回归框的宽高比例以及大小,不利于对尺度多变的老鼠的检测,漏检较多。
发明内容
本发明的目的在于提供融合多感受野特征映射与高斯概率模型的老鼠检测方法,对于具有小、形变较严重、遮挡面积大的老能够有效的将中心点定位到背景位置,具有良好的鲁棒性、检测速度快、检测效果好。
本发明通过下述技术方案实现:
融合多感受野特征映射与高斯概率模型的老鼠检测方法,基于Anchor-Free的CenterNet方法,将输入图像通过三个不同扩张率的扩张卷积,得到三种不同尺度的中心点热图,再与高斯分布的标准差自适应的高斯概率模型相结合,对上述四种不同感受野的中心点热图做加性融合构建多尺度感受野高斯加权结构,完成老鼠的检测。
进一步地,为了更好的实现本发明,具体包括以下步骤:
步骤S1:构建高斯半径自适应的高斯滤波器;
步骤S2:基于Centernet构建三个扩张率自适应的空洞卷积得到三种感受野的中心点热图;
步骤S3:将三种不同尺度的感受野的中心点热图与高斯概率模型相结合,并对四种不同感受野的中心点热图做加性融合,构建用于预测与标签热力图相近的热力值分布的多尺度感受野高斯加权结构。
进一步地,为了更好的实现本发明,所述步骤S1具体包括以下步骤:
步骤S11:令I∈DW*H*3为输入图像;其中W为输入图像的宽,H为输入图像的高;
步骤S12:通过CenterNet标签中心点c,中心点c的位置为p∈D2
步骤S13:将中心点c对应到低分辨率图上,对中心点c的坐标转化为中心点坐标
Figure BDA0002230709420000021
其中R为CenterNet输入与输出的比值;
步骤S14:将低分辨率图的中心点坐标
Figure BDA0002230709420000022
通过高斯核函数
Figure BDA0002230709420000023
生成为关键中心热力图
Figure BDA0002230709420000024
当物体中心位置对应的值为1时为标签热力图。
步骤S15:设定自适应的高斯分布的标准差r为:
其中:式(1)中w表示低分辨中心点标签热力图的宽;
h表示低分辨中心点标签热力图的高;
o为超参数,表示高斯分布的标准差与w的最小比值;
步骤S16:构建高斯核,高斯核为:
Figure BDA0002230709420000026
进一步地,为了更好的实现本发明;所述步骤S2具体包括以下步骤:
步骤S21:将输入图像经过Centernet处理,得到用于预测中心点类别以及位置的热图U0、用于预测宽高的热图Ywh、用于预测偏置的热图YOff
步骤S22:对于中心点热图U0分别做三种不同扩张率的空洞卷积得到U1,U2,U3三个不同尺度的感受野的中心点热图;所述中心点热图U1,U2,U3的扩张率设置为标准差r的1、0.5、0.25倍;
进一步地,为了更好的实现本发明,所述步骤S22中滤波器的大小为3*3;三种不同扩张率的空洞卷积的输入通道数为64,输出通道数为类别数;设定输出通道为1。
进一步地,为了更好的实现本发明,所述步骤S3具体包括以下步骤:
步骤S31:将步骤S22中的中心点热图U1,U2,U3与高斯概率模型相结合;设定多尺度感受野高斯加权结构的权重Gi
Figure BDA0002230709420000032
步骤S32:对用于预测中心点类别以及位置的热图U0、与高斯概率模型相结合后的中心点热图U1,U2,U3做加性融合;得到用于中心点类别以及位置预测的中心点热图Yhm
步骤S33:根据用于预测宽高的热图Ywh、用于预测偏置的热图YOff、用于中心点类别以及位置预测的中心点热图Yhm分别与步骤S14中的标签热力图求取交叉熵损失函数,并将交叉熵损失函数用于训练网络参数;从而训练和预测出老鼠的高宽,老鼠中心点的位置以及类别概率,中心点位置的偏移;完成检测。
本发明与现有技术相比,具有以下优点及有益效果:
(1)本发明有效的解决了CenterNet完全忽略了距离中心点很近的点的作用,尤其是对于具有小、形变较严重、遮挡面积大的老鼠,很容易将中心点定位到背景位置问题;
(2)本发明对于具有小、形变较严重、遮挡面积大的老鼠具有良好的鲁棒性、检测速度快以及检测效果好。
附图说明
图1为本发明的工作流程图;
图2为本发明中步骤S2和步骤S3的工作原理图。
具体实施方式
下面结合实施例对本发明作进一步地详细说明,但本发明的实施方式不限于此。
实施例1:
本发明通过下述技术方案实现,如图1、图2所示,融合多感受野特征映射与高斯概率模型的老鼠检测方法,基于Anchor-Free的CenterNet方法,将输入图像通过三个不同扩张率的扩张卷积,得到三种不同尺度的中心点热图,再与高斯分布的标准差自适应的高斯概率模型相结合,对上述四种不同感受野的中心点热图做加性融合构建多尺度感受野高斯加权结构,完成老鼠的检测。
需要说明的是,通过上述改进,本发明首先采用基于Anchor-Free的CenterNet方法,并改进其中心点热图,通过三个不同扩张率的扩张卷积,得到三种感受野的中心点热图;其次与高斯分布的标准差自适应的高斯概率模型相融合;最后对上述四种不同感受野的中心点热图做加性融合构建多尺度感受野高斯加权结构;对于具有小、形变较严重、遮挡面积大的老鼠具有良好的鲁棒性、快的检测速度以及优秀的检测效果。
实施例2:
本实施例在上述实施例的基础上做进一步优化,如图1所示,步骤S1:构建高斯半径自适应的高斯滤波器;
所述步骤S1具体包括以下步骤:
步骤S11:令I∈DW*H*3为输入图像;其中W为输入图像的宽,H为输入图像的高;
步骤S12:通过CenterNet标签中心点c,中心点c的位置为p∈D2
步骤S13:将中心点c对应到低分辨率图上,对中心点c的坐标转化为中心点坐标
Figure BDA0002230709420000041
其中R为CenterNet输入与输出的比值;
步骤S14:将低分辨率图的中心点坐标
Figure BDA0002230709420000042
通过高斯核函数
Figure BDA0002230709420000043
生成为关键中心热力图
Figure BDA0002230709420000044
当物体中心位置对应的值为1时为标签热力图。周围坐标点对应的值呈高斯分布即距离中心点越远的位置对应的值越低,超过中心点高斯分布的标准差范围的位置对应的值为0。
其中,x和y为高斯核函数中的坐标值,
Figure BDA0002230709420000045
Figure BDA0002230709420000046
为高斯核函数中心点的坐标值。
CenterNet在训练过程中直接将输出特征映射与低分辨中心点标签热力图求交叉熵损失,在预测过程中,直接取输出特征映射的最大响应值为目标的中心,其余点全为负样本。此处,CenterNet完全忽略了距离中心点很近的点的作用,尤其是对于具有小、形变较严重、遮挡面积大的老鼠,很容易将中心点定位到背景位置。
为了更加准确的预测出老鼠所在位置,采用对此构建高斯分布的标准差自适应的高斯滤波器,其主要用于在输出特征映射上模拟与标签热力图相近的热力值分布。
步骤S15:设定自适应的高斯分布的标准差r为:
其中:式(1)中w表示低分辨中心点标签热力图的宽;
h表示低分辨中心点标签热力图的高;
o为超参数,表示高斯分布的标准差与w的最小比值;
步骤S16:根据步骤S15构建高斯核,高斯核为:
Figure BDA0002230709420000052
本实施例的其他部分与上述实施例相同,故不再赘述。
实施例3:
本实施例在上述实施例的基础上做进一步优化,如图1所示,步骤S2:基于Centernet构建三个扩张率自适应的空洞卷积得到三种感受野的中心点热图。
具体包括以下步骤:所述步骤S2具体包括以下步骤:
步骤S21:将输入图像经过Centernet处理,得到用于预测中心点类别以及位置的热图U0、用于预测宽高的热图Ywh、用于预测偏置的热图YOff
步骤S22:对于中心点热图U0分别做三种不同扩张率的空洞卷积得到三个不同尺度的感受野的中心点热图U1、U2、U3;三个不同尺度的感受野的中心点热图U1、U2、U3的扩张率分别设置为标准差r的1、0.5、0.25倍;
进一步地,为了更好的实现本发明,所述步骤S22中滤波器的大小为3*3;三种不同扩张率的空洞卷积的输入通道数为64,输出通道数为类别数;对于老鼠的检测,设定输出通道为1。
本实施例的其他部分与上述实施例相同,故不再赘述。
实施例4:
本实施例在上述实施例的基础上做进一步优化,如图1所示,步骤S3:将三种不同尺度的感受野的中心点热图与高斯概率模型相结合,并对四种不同感受野的中心点热图做加性融合,构建用于预测与标签热力图相近的热力值分布的多尺度感受野高斯加权结构。
这里所提出的四种不同感受野的中心点热图包括用于预测中心点类别以及位置的热图U0和经过与高斯概率模型相结合的三个不同尺度的感受野的中心点热图U1、U2、U3
所述步骤S3具体包括以下步骤:
步骤S31:将步骤S22中的三个不同尺度的感受野的中心点热图U1、U2、U3与高斯概率模型相结合;设定多尺度感受野高斯加权结构的权重Gi
Figure BDA0002230709420000061
Figure BDA0002230709420000062
如图2所示,对于中心点热图U1,采用权重G1结合,对于中心点热图U2,采用权重G2结合,对于中心点热图U3,采用权重G3结合。
步骤S32:对用于预测中心点类别以及位置的热图U0、与高斯概率模型相结合后的中心点热图U1,U2,U3做加性融合;得到用于中心点类别以及位置预测的中心点热图Yhm
步骤S33:根据用于预测宽高的热图Ywh、用于预测偏置的热图YOff、用于中心点类别以及位置预测的中心点热图Yhm步骤S14中的标签热力图求取交叉熵损失函数,并将交叉熵损失函数用于训练网络参数;从而训练和预测出老鼠的高宽,老鼠中心点的位置以及类别概率,中心点位置的偏移;完成检测。
本实施例的其他部分与上述实施例相同,故不再赘述。
实施例5:
本实施例针对本发明进行实验,实验采用的硬件为:GTX1080Ti型号的GPU,I5-8500CPU,由于现有技术中没有老鼠的公用数据集,因此自建老鼠数据集,其中有5000张来自网络监控,视频网站以及图片的训练集,1000张测试集。
方法 平均IoU(100%) 平均测试速度(fqs)
YoloV3 86.41 20.2
Conternet 82.32 10.3
Centernet 90.17 33.6
Faster R-cm 78.2 2
本发明 96.32 33.2
表1
表1为不同方法自建老鼠数据集的测试对比,可见本发明对于老鼠的检测具最高的平均重合度指标,并且平均速度达到33.2帧每秒。
本实施例的其他部分与上述实施例相同,故不再赘述。
以上所述,仅是本发明的较佳实施例,并非对本发明做任何形式上的限制,凡是依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化,均落入本发明的保护范围之内。

Claims (6)

1.融合多感受野特征映射与高斯概率模型的老鼠检测方法,其特征在于:基于Anchor-Free的CenterNet方法,将输入图像通过三个不同扩张率的扩张卷积,得到三种不同尺度的中心点热图,再与高斯分布的标准差自适应的高斯概率模型相结合,对上述四种不同感受野的中心点热图做加性融合构建多尺度感受野高斯加权结构,完成老鼠的检测。
2.根据权利要求1所述的融合多感受野特征映射与高斯概率模型的老鼠检测方法,其特征在于:
步骤S1:构建高斯半径自适应的高斯滤波器;
步骤S2:基于Centernet构建三个扩张率自适应的空洞卷积得到三种感受野的中心点热图;
步骤S3:将三种不同尺度的感受野的中心点热图与高斯概率模型相结合,并对四种不同感受野的中心点热图做加性融合,构建多尺度感受野高斯加权结构。
3.根据权利要求2所述的融合多感受野特征映射与高斯概率模型的老鼠检测方法,其特征在于:所述步骤S1具体包括以下步骤:
步骤S11:令I∈DW*H*3为输入图像;其中W为输入图像的宽,H为输入图像的高;
步骤S12:通过CenterNet标签中心点c,中心点c的位置为p∈D2
步骤S13:将中心点c对应到低分辨率图上,对中心点c的坐标转化为中心点坐标
Figure FDA0002230709410000011
其中R为CenterNet输入与输出的比值;
步骤S14:将低分辨率图的中心点坐标
Figure FDA0002230709410000012
通过高斯核函数
Figure FDA0002230709410000013
生成为关键中心热力图
Figure FDA0002230709410000014
当物体中心位置对应的值为1时为标签热力图。
步骤S15:设定自适应的高斯分布的标准差r为:
Figure FDA0002230709410000015
其中:式(1)中w表示低分辨中心点标签热力图的宽;
h表示低分辨中心点标签热力图的高;
o为超参数,表示高斯分布的标准差与w的最小比值;
步骤S16:构建高斯核,高斯核为:
Figure FDA0002230709410000016
4.根据权利要求3所述的融合多感受野特征映射与高斯概率模型的老鼠检测方法,其特征在于:所述步骤S2具体包括以下步骤:
步骤S21:将输入图像经过Centernet处理,得到用于预测中心点类别以及位置的热图U0、用于预测宽高的热图Ywh、用于预测偏置的热图YOff
步骤S22:对于中心点热图U0分别做三种不同扩张率的空洞卷积得到U1,U2,U3三个不同尺度的感受野的中心点热图;所述中心点热图U1,U2,U3的扩张率设置为标准差r的1、0.5、0.25倍。
5.根据权利要求4所述的融合多感受野特征映射与高斯概率模型的老鼠检测方法,其特征在于:所述步骤S22中滤波器的大小为3*3;三种不同扩张率的空洞卷积的输入通道数为64,输出通道数为类别数;设定输出通道为1。
6.根据权利要求4所述的融合多感受野特征映射与高斯概率模型的老鼠检测方法,其特征在于:所述步骤S3具体包括以下步骤:
步骤S31:将步骤S22中的中心点热图U1,U2,U3与高斯概率模型相结合;设定多尺度感受野高斯加权结构的权重Gi
Figure FDA0002230709410000021
Figure FDA0002230709410000022
步骤S32:对用于预测中心点类别以及位置的热图U0、与高斯概率模型相结合后的中心点热图U1,U2,U3做加性融合;得到用于中心点类别以及位置预测的中心点热图Yhm
步骤S33:根据用于预测宽高的热图Ywh、用于预测偏置的热图YOff、用于中心点类别以及位置预测的中心点热图Yhm分别与步骤S14中的标签热力图求取交叉熵损失函数,并将交叉熵损失函数用于训练网络参数;从而训练和预测出老鼠的高宽,老鼠中心点的位置以及类别概率,中心点位置的偏移;完成检测。
CN201910966692.8A 2019-10-12 2019-10-12 融合多感受野特征映射与高斯概率模型的老鼠检测方法 Active CN110738647B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910966692.8A CN110738647B (zh) 2019-10-12 2019-10-12 融合多感受野特征映射与高斯概率模型的老鼠检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910966692.8A CN110738647B (zh) 2019-10-12 2019-10-12 融合多感受野特征映射与高斯概率模型的老鼠检测方法

Publications (2)

Publication Number Publication Date
CN110738647A true CN110738647A (zh) 2020-01-31
CN110738647B CN110738647B (zh) 2020-06-12

Family

ID=69268725

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910966692.8A Active CN110738647B (zh) 2019-10-12 2019-10-12 融合多感受野特征映射与高斯概率模型的老鼠检测方法

Country Status (1)

Country Link
CN (1) CN110738647B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111369535A (zh) * 2020-03-05 2020-07-03 四川大学华西医院 一种细胞检测方法
CN111415384A (zh) * 2020-02-19 2020-07-14 重庆大学 一种基于深度学习的工业图像组件精准定位系统
CN111721527A (zh) * 2020-05-18 2020-09-29 浙江工业大学 基于cms系统大数据结合标准差及小波熵的风力发电机组齿轮箱故障定位方法
CN111967455A (zh) * 2020-10-23 2020-11-20 成都考拉悠然科技有限公司 一种基于计算机视觉综合判定规定着装的方法
CN112232432A (zh) * 2020-10-26 2021-01-15 西安交通大学 基于改进中心点检测的安检x光图像目标检测与识别方法
CN112990102A (zh) * 2021-04-16 2021-06-18 四川阿泰因机器人智能装备有限公司 一种改进的Centernet复杂环境目标检测方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106251344A (zh) * 2016-07-26 2016-12-21 北京理工大学 一种基于视觉感受野的多尺度红外目标自适应检测方法
CN109344821A (zh) * 2018-08-30 2019-02-15 西安电子科技大学 基于特征融合和深度学习的小目标检测方法
CN109461157A (zh) * 2018-10-19 2019-03-12 苏州大学 基于多级特征融合及高斯条件随机场的图像语义分割方法
CN110020676A (zh) * 2019-03-18 2019-07-16 华南理工大学 基于多感受野深度特征的文本检测方法、系统、设备及介质
CN110110692A (zh) * 2019-05-17 2019-08-09 南京大学 一种基于轻量级全卷积神经网络的实时图像语义分割方法
CN110298266A (zh) * 2019-06-10 2019-10-01 天津大学 基于多尺度感受野特征融合的深度神经网络目标检测方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106251344A (zh) * 2016-07-26 2016-12-21 北京理工大学 一种基于视觉感受野的多尺度红外目标自适应检测方法
CN109344821A (zh) * 2018-08-30 2019-02-15 西安电子科技大学 基于特征融合和深度学习的小目标检测方法
CN109461157A (zh) * 2018-10-19 2019-03-12 苏州大学 基于多级特征融合及高斯条件随机场的图像语义分割方法
CN110020676A (zh) * 2019-03-18 2019-07-16 华南理工大学 基于多感受野深度特征的文本检测方法、系统、设备及介质
CN110110692A (zh) * 2019-05-17 2019-08-09 南京大学 一种基于轻量级全卷积神经网络的实时图像语义分割方法
CN110298266A (zh) * 2019-06-10 2019-10-01 天津大学 基于多尺度感受野特征融合的深度神经网络目标检测方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
KAIWEN DUAN ET.AL.: ""CenterNet: Keypoint Triplets for Object Detection"", 《CS.CV》 *
张思宇等: ""基于多尺度特征融合的小目标行人检测"", 《计算机工程与科学》 *
易诗等: ""基于红外热成像与改进YOLOV3 的夜间野兔监测方法"", 《农业工程学报》 *
王伟锋等: ""一种基于感受野的快速小目标检测算法"", 《激光与光电子学进展》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111415384A (zh) * 2020-02-19 2020-07-14 重庆大学 一种基于深度学习的工业图像组件精准定位系统
CN111415384B (zh) * 2020-02-19 2022-11-25 重庆大学 一种基于深度学习的工业图像组件精准定位系统
CN111369535A (zh) * 2020-03-05 2020-07-03 四川大学华西医院 一种细胞检测方法
CN111369535B (zh) * 2020-03-05 2023-04-07 笑纳科技(苏州)有限公司 一种细胞检测方法
CN111721527A (zh) * 2020-05-18 2020-09-29 浙江工业大学 基于cms系统大数据结合标准差及小波熵的风力发电机组齿轮箱故障定位方法
CN111721527B (zh) * 2020-05-18 2022-04-08 浙江工业大学 基于cms系统大数据结合标准差及小波熵的风力发电机组齿轮箱故障定位方法
CN111967455A (zh) * 2020-10-23 2020-11-20 成都考拉悠然科技有限公司 一种基于计算机视觉综合判定规定着装的方法
CN112232432A (zh) * 2020-10-26 2021-01-15 西安交通大学 基于改进中心点检测的安检x光图像目标检测与识别方法
CN112232432B (zh) * 2020-10-26 2023-04-11 西安交通大学 基于改进中心点检测的安检x光图像目标检测与识别方法
CN112990102A (zh) * 2021-04-16 2021-06-18 四川阿泰因机器人智能装备有限公司 一种改进的Centernet复杂环境目标检测方法

Also Published As

Publication number Publication date
CN110738647B (zh) 2020-06-12

Similar Documents

Publication Publication Date Title
CN110738647B (zh) 融合多感受野特征映射与高斯概率模型的老鼠检测方法
CN112101430B (zh) 用于图像目标检测处理的锚框生成方法及轻量级目标检测方法
CN110322445B (zh) 基于最大化预测和标签间相关性损失函数的语义分割方法
Li et al. Adaptive deep convolutional neural networks for scene-specific object detection
CN111325165B (zh) 考虑空间关系信息的城市遥感影像场景分类方法
CN111860587B (zh) 一种用于图片小目标的检测方法
CN113011329A (zh) 一种基于多尺度特征金字塔网络及密集人群计数方法
CN107123130B (zh) 一种基于超像素和混合哈希的核相关滤波目标跟踪方法
CN110751195B (zh) 一种基于改进YOLOv3的细粒度图像分类方法
CN110751027B (zh) 一种基于深度多示例学习的行人重识别方法
CN105046714A (zh) 一种非监督的基于超像素和目标发现机制的图像分割方法
CN110188864B (zh) 基于分布表示和分布度量的小样本学习方法
Huo et al. Semisupervised learning based on a novel iterative optimization model for saliency detection
CN109993772B (zh) 基于时空采样的实例级别特征聚合方法
CN109815440A (zh) 联合图优化和投影学习的维数约简方法
CN113888501A (zh) 一种基于注意力定位网络的无参考型图像质量评价方法
CN110969639B (zh) 一种基于lfmvo优化算法的图像分割方法
CN113344947B (zh) 一种超像素聚合分割方法
CN112966748B (zh) 基于边缘感知双分支fcn的极化sar图像分类方法
Sun et al. Learning from web data: the benefit of unsupervised object localization
CN114202694A (zh) 基于流形混合插值和对比学习的小样本遥感场景图像分类方法
CN109389127A (zh) 结构化多视图Hessian正则化稀疏特征选择方法
CN106651912A (zh) 一种基于压缩感知的鲁棒目标追踪方法
CN112418344A (zh) 一种训练方法、目标检测方法、介质及电子设备
CN109215057B (zh) 一种高性能视觉跟踪方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant