CN110633731A - 一种基于交错感知卷积的单阶段无锚框目标检测方法 - Google Patents
一种基于交错感知卷积的单阶段无锚框目标检测方法 Download PDFInfo
- Publication number
- CN110633731A CN110633731A CN201910744873.6A CN201910744873A CN110633731A CN 110633731 A CN110633731 A CN 110633731A CN 201910744873 A CN201910744873 A CN 201910744873A CN 110633731 A CN110633731 A CN 110633731A
- Authority
- CN
- China
- Prior art keywords
- corner
- network
- convolution
- output
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于交错感知卷积的单阶段无锚框目标检测方法。本发明包括如下步骤:步骤(1)划分CenterNet网络结构;步骤(2)对CenterNet进行优化设计,使用Pytorch深度学习框架搭建神经网络;步骤(3)将训练数据集送入神经网络进行训练;步骤(4)使用步骤(3)中训练好的神经网络进行推理。本发明提供了一种基于交错感知卷积的单阶段无锚框目标检测方法,我们将基于目前效果最好的CenterNet单阶段目标检测方法做出了优化,达到加快检测效率的同时保持准确度不下降目的。
Description
技术领域
本发明属于计算机检测技术领域,具体涉及一种基于交错感知卷积的单阶段无锚框目标检测方法。
背景技术
Anchor的概念出现在深度卷积神经网络的目标检测中,作为一种标志性技术促进着目标检测的发展。目标检测分为单阶段目标检测和两阶段目标检测,单阶段目标检测的历史中,从SSD和YOLO-2开始引入Anchor,并称之为锚框(Anchor Box);两阶段目标检测方法从Faster R-CNN开始采用Anchor的思想。
Anchor带来了它的好处:相比传统滑窗方式而言,它能够以更快的速度产生更少、更精确的检测框,效率大大提升。然而即便Anchor能够使得目标检测网络能够产生检测框更加有效,但不会使用到的无效框仍占大比例。因此目标检测领域中的“无锚框”技术进入研究人员视野,产生了一系列Anchor-Free的目标检测网络,CenterNet就是其中之一。
CenterNet采用三元组——左上角点、右下角点和中心点——来实现对目标的检测识别,其效果逼近以高准确度著称的两阶段网络中最好的检测数据。尽管有着傲人的成绩,CenterNet不可避免地落下了严重的缺陷:检测速度非常慢,每秒约3帧。这不仅是CenterNet的缺陷,也是目前基于Anchor-Free的单阶段目标检测网络的通病。
发明内容
基于此,为了提高基于Anchor-Free的单阶段目标检测网络的检测效率,本发明基于效果最好的CenterNet,提出一种基于交错感知卷积的单阶段无锚框目标检测方法。我们将在CenterNet的基础上,提出一系列优化方案,达到加快检测效率的同时保持准确度不下降目的。
一种基于交错感知卷积的单阶段无锚框目标检测方法,包括如下步骤:
步骤(1)划分CenterNet网络结构;
步骤(2)对CenterNet进行优化设计,使用Pytorch深度学习框架搭建神经网络;
步骤(3)将训练数据集送入神经网络进行训练;
步骤(4)使用步骤(3)中训练好的神经网络进行推理。
所述步骤(1)中,划分CenterNet网络结构,步骤如下:
1-1.骨干网络。CenterNet的骨干网络由堆叠沙漏网络构成,用于特征提取。
1-2.角点网络。角点网络包括角点池化层和角点提取层。角点池化层将骨干网络输出的特征图作为输入并进行池化操作,得到左上角点映射图、右下角点映射图和中心角点映射图;角点提取层对三个角点映射图分别做角点提取,提取出各角点坐标、嵌入值和偏移值作为网络输出。
1-3.角点后处理。用来处理角点网络的输出,但不会参与网络训练。该角点后处理主要工作:①选取得分最高的K个左上角点和右下角点;②用偏移值来修正左上角点、右下角点和中心角点坐标;③通过嵌入值来匹配左上角点和右下角点并产生检测框;④将检测框中心区域与中心角点做匹配,中心角点位于中心区域且类别一致则保留,否则舍弃;⑤使用Soft-NMS方法进一步筛选检测框。
所述步骤(2)中,对CenterNet进行优化设计,使用Pytorch深度学习框架搭建神经网络,步骤如下:
2-1.构造骨干网络。骨干网络的构造如下:
2-1-1.构造交错感知卷积模块。用3×3的普通卷积(padding=1,stride=1)和空洞率为1的3×3空洞卷积(padding=2,stride=1)分别计算输入x;两个卷积的计算结果各自进行ReLU激活与Batch-Normalization后,再逐像素相加;然后再进行3×3的普通卷积(padding=1,stride=1)并进行ReLU激活与Batch-Normalization;最后输出结果。
2-1-2.构造残差模块。残差模块由两个连续的交错感知卷积模块构成,此外再添加残差模块内部从输入到最后一个交错感知卷积模块输出部分的跳层连接。如果输入维度与交错感知卷积模块的维度不同,则跳层连接部分还会进行额外的1×1卷积进行维度调整。残差模块输出将由跳层连接所连接的输入和输出融合得到。
2-1-3.构造骨干网络。骨干网络由一个预卷积和16个残差模块组成。预卷积连接网络的输入,采取7×7的卷积操作,并把维度调整到64维。16个残差模块的维度依次是128,128,256,256,384,384,512,512,512,512,384,384,256,256,128,128。骨干网络中也会有跳层连接。第2个残差模块的输出经由1×1卷积后与第15个残差模块输出融合,作为第16个残差模块的输入。与此类似,第4个输出与第13个输出连接、第6个输出与第11个输出连接、第8个输出与第9个输出连接。
2-2.角点网络。角点网络用于获取中心角点并回归中心角点与检测框上、下、左、右的距离。首先通过3×3的卷积对骨干网络的输出特征做缓冲,然后经由中心角点池化层从特征图中提取角点信息。令W,H分别是图像的宽和高,C是通道数且c∈C,中心角点池化层中计算的角点计算公式如下:
Cornerleft={xi,j,c|Max(xi,j),i∈(i,W)}
Cornertop={yi,j,c|Max(yi,j),j∈(j,H)}
Cornerright={xi,j,c|Max(xi,j)i∈(0,i)}
Cornerbottom={yi,j,c|Max(yi,j),j∈(0,j)}
Cornercenter
=Cornerleft+Cornertop+Cornerright+Cornerbottom
然后将该角点特征图分别进行三个处理操作:①角点分类。先进行3×3的卷积,再做1×1的卷积,其中输出维度是分类数;②角点得分。先进行3×3的卷积,再做1×1的卷积,其中输出维度是1;③边框回归。该回归过程回归的是中心角点与四条边框的距离。先进行3×3的卷积,再做1×1的卷积,其中输出维度是4。最后将这三个处理操作的输出拼接到一起作为输出。
步骤(3)将训练数据集送入神经网络进行训练,步骤如下:
3-1.将训练数据送入网络,获取网络输出结果。
3-2.对每个样本,从其标注信息中提取dt、db、dl、dr、类别和中心角点,其中dt、db、dl、dr分别是中心角点与上、下、左、右边框的边界距离。我们定义:
Lclass=Lfocal-loss(classpred,classgt)
Lcenter=LED(loccenter,loccg)
Lborder=LMSE(dt,dtg)+LMSE(dl,dlg)+LMSE(dr,drg)
+LMSE(db,dbg)
Lzd=Lclass+Lcenter+Lborder
其中,classpred是训练得到的类别矩阵,classgt是类别的Ground Truth矩阵,Lfocal-loss是Focal Loss;loccenter是训练得到的中心角点矩阵,loccg是中心角点的GroundTruth矩阵,LED求的是两个中心角点的欧氏距离;dt、db、dl、dr是训练得到的边界距离,dtg、dbg、dlg、drg是边界距离的Ground Truth矩阵,LMSE求的是两个参数的均方差。最后将Lzd的值反向传导,更新网络中参数。
所述步骤(4)中,使用步骤(3)中训练好的神经网络进行推理,步骤如下:
4-1.将测试数据送入网络,获取网络输出结果。
4-2.根据步骤(3)中描述,网络输出包含类别概率、角点得分和边框距离回归值。使用Soft-nms对每一类别的角点分别进行筛选,减少IoU重叠率高的框。最后将结果输出。
本发明有益效果如下:
本发明提供了一种基于交错感知卷积的单阶段无锚框目标检测方法,我们将基于目前效果最好的CenterNet单阶段目标检测方法做出了优化,达到加快检测效率的同时保持准确度不下降目的。
附图说明
图1为本发明基于交错感知卷积的单阶段无锚框目标检测方法的步骤流程示意图;
具体实施方式
为了更为具体地描述本发明,下面结合附图及具体实施方式对本发明基于交错感知卷积的单阶段无锚框目标检测方法进行详细说明。
如图1所示,基于交错感知卷积的单阶段无锚框目标检测方法,包括如下步骤:
步骤(1)划分CenterNet网络结构,步骤如下:
1-1.骨干网络。CenterNet的骨干网络由堆叠沙漏网络构成,用于特征提取。
1-2.角点网络。角点网络包括角点池化层和角点提取层。角点池化层将骨干网络输出的特征图作为输入并进行池化操作,得到左上角点映射图、右下角点映射图和中心角点映射图;角点提取层对三个角点映射图分别做角点提取,提取出各角点坐标、嵌入值和偏移值作为网络输出。
1-3.角点后处理。用来处理角点网络的输出,但不会参与网络训练。该角点后处理主要工作是①选取得分最高的K个左上角点和右下角点;②用偏移值来修正左上角点、右下角点和中心角点坐标;③通过嵌入值来匹配左上角点和右下角点并产生检测框;④将检测框中心区域与中心角点做匹配,中心角点位于中心区域且类别一致则保留,否则舍弃;⑤使用Soft-NMS方法进一步筛选检测框。
步骤(2)对CenterNet进行优化设计,使用Pytorch深度学习框架搭建神经网络;
2-1.构造骨干网络。骨干网络的构造如下:
2-1-1.构造交错感知卷积模块。用3×3的普通卷积(padding=1,stride=1)和空洞率为1的3×3空洞卷积(padding=2,stride=1)分别计算输入x;两个卷积的计算结果各自进行ReLU激活与Batch-Normalization后,再逐像素相加;然后再进行3×3的普通卷积(padding=1,stride=1)并进行ReLU激活与Batch-Normalization;最后输出结果。
2-1-2.构造残差模块。残差模块由两个连续的交错感知卷积模块构成,此外再添加残差模块内部从输入到最后一个交错感知卷积模块输出部分的跳层连接。如果输入维度与交错感知卷积模块的维度不同,则跳层连接部分还会进行额外的1×1卷积进行维度调整。残差模块输出将由跳层连接所连接的输入和输出融合得到。
2-1-3.构造骨干网络。骨干网络由一个预卷积和16个残差模块组成。预卷积连接网络的输入,采取7×7的卷积操作,并把维度调整到64维。16个残差模块的维度依次是128,128,256,256,384,384,512,512,512,512,384,384,256,256,128,128。骨干网络中也会有跳层连接。第2个残差模块的输出经由1×1卷积后与第15个残差模块输出融合,作为第16个残差模块的输入。与此类似,第4个输出与第13个输出连接、第6个输出与第11个输出连接、第8个输出与第9个输出连接。
2-2.角点网络。角点网络用于获取中心角点并回归中心角点与检测框上、下、左、右的距离。首先通过3×3的卷积对骨干网络的输出特征做缓冲,然后经由中心角点池化层从特征图中提取角点信息。令W,H分别是图像的宽和高,C是通道数且c∈C,中心角点池化层中计算的角点计算公式如下:
Cornerleft={xi,j,c|Max(xi,j),i∈(i,W)}
Cornertop={yi,j,c|Max(yi,j),j∈(j,H)}
Cornerright={xi,j,c|Max(xi,j)i∈(0,i)}
Cornerbottom={yi,j,c|Max(yi,j),j∈(0,j)}
Cornercenter
=Cornerleft+Cornertop+Cornerright+Cornerbottom
然后将该角点特征图分别进行三个处理操作:①角点分类。先进行3×3的卷积,再做1×1的卷积,其中输出维度是分类数;②角点得分。先进行3×3的卷积,再做1×1的卷积,其中输出维度是1;③边框回归。该回归过程回归的是中心角点与四条边框的距离。先进行3×3的卷积,再做1×1的卷积,其中输出维度是4。最后将这三个处理操作的输出拼接到一起作为输出。
步骤(3)将训练数据集送入神经网络进行训练,步骤如下:
3-1.将训练数据送入网络,获取网络输出结果。
3-2.对每个样本,从其标注信息中提取dt、db、dl、dr、类别和中心角点,其中dt、db、dl、dr分别是中心角点与上、下、左、右边框的边界距离。我们定义:
Lclass=Lfocal-loss(classpred,classgt)
Lcenter=LED(loccenter,loccg)
Lborder=LMSE(dt,dtg)+LMSE(dl,dlg)+LMSE(dr,drg)
+LMSE(db,dbg)
Lzd=Lclass+Lcenter+Lborder
其中,classpred是训练得到的类别矩阵,classgt是类别的Ground Truth矩阵,Lfocal-loss是Focal Loss;loccenter是训练得到的中心角点矩阵,loccg是中心角点的GroundTruth矩阵,LED求的是两个中心角点的欧氏距离;dt、db、dl、dr是训练得到的边界距离矩阵,dtg、dbg、dlg、drg是边界距离的Ground Truth矩阵,LMSE求的是两个参数的均方差。最后将Lzd的值反向传导,更新网络中参数。
步骤(4)使用步骤(3)中训练好的神经网络进行推理,步骤如下:
4-1.将测试数据送入网络,获取网络输出结果。
4-2.根据步骤(3)中描述,网络输出包含类别概率、角点得分和边框距离回归值。使用Soft-nms对每一类别的角点分别进行筛选,减少IoU重叠率高的框。最后将结果输出。
Claims (6)
1.一种基于交错感知卷积的单阶段无锚框目标检测方法,其特征在于包括如下步骤:
步骤(1)划分CenterNet网络结构;
步骤(2)对CenterNet进行优化设计,使用Pytorch深度学习框架搭建神经网络;
步骤(3)将训练数据集送入神经网络进行训练;
步骤(4)使用步骤(3)中训练好的神经网络进行推理。
2.根据权利要求1所述的一种基于交错感知卷积的单阶段无锚框目标检测方法,其特征在于:所述步骤(1)中,划分CenterNet网络结构,步骤如下:
1-1.骨干网络;CenterNet的骨干网络由堆叠沙漏网络构成,用于特征提取;
1-2.角点网络;角点网络包括角点池化层和角点提取层;角点池化层将骨干网络输出的特征图作为输入并进行池化操作,得到左上角点映射图、右下角点映射图和中心角点映射图;角点提取层对三个角点映射图分别做角点提取,提取出各角点坐标、嵌入值和偏移值作为网络输出;
1-3.角点后处理;用来处理角点网络的输出,但不会参与网络训练;该角点后处理主要工作:①选取得分最高的K个左上角点和右下角点;②用偏移值来修正左上角点、右下角点和中心角点坐标;③通过嵌入值来匹配左上角点和右下角点并产生检测框;④将检测框中心区域与中心角点做匹配,中心角点位于中心区域且类别一致则保留,否则舍弃;⑤使用Soft-NMS方法进一步筛选检测框。
3.根据权利要求2所述的一种基于交错感知卷积的单阶段无锚框目标检测方法,其特征在于:所述步骤(2)中,对CenterNet进行优化设计,使用Pytorch深度学习框架搭建神经网络,步骤如下:
2-1.构造骨干网络;
2-2.角点网络;
所述的骨干网络的构造如下:
2-1-1.构造交错感知卷积模块;用3×3的普通卷积和空洞率为1的3×3空洞卷积分别计算输入x;两个卷积的计算结果各自进行ReLU激活与Batch-Normalization后,再逐像素相加;然后再进行3×3的普通卷积并进行ReLU激活与Batch-Normalization;最后输出结果;
2-1-2.构造残差模块;残差模块由两个连续的交错感知卷积模块构成,此外再添加残差模块内部从输入到最后一个交错感知卷积模块输出部分的跳层连接;如果输入维度与交错感知卷积模块的维度不同,则跳层连接部分还会进行额外的1×1卷积进行维度调整;残差模块输出将由跳层连接所连接的输入和输出融合得到;
2-1-3.构造骨干网络;骨干网络由一个预卷积和16个残差模块组成;预卷积连接网络的输入,采取7×7的卷积操作,并把维度调整到64维;16个残差模块的维度依次是128,128,256,256,384,384,512,512,512,512,384,384,256,256,128,128;骨干网络中也会有跳层连接;第2个残差模块的输出经由1×1卷积后与第15个残差模块输出融合,作为第16个残差模块的输入;与此类似,第4个输出与第13个输出连接、第6个输出与第11个输出连接、第8个输出与第9个输出连接。
4.根据权利要求3所述的一种基于交错感知卷积的单阶段无锚框目标检测方法,其特征在于所述的步骤2-2角点网络具体实现让如下:
角点网络用于获取中心角点并回归中心角点与检测框上、下、左、右的距离;首先通过3×3的卷积对骨干网络的输出特征做缓冲,然后经由中心角点池化层从特征图中提取角点信息;令W,H分别是图像的宽和高,C是通道数且c∈C,中心角点池化层中计算的角点计算公式如下:
Cornerleft={xi,j,c|Max(xi,j),i∈(i,W)}
Cornertop={yi,j,c|Max(yi,j),j∈(j,H)}
Cornerright={xi,j,c|Max(xi,j),i∈(0,i)}
Cornerbottom={yi,j,c|Max(yi,j),j∈(0,j)}
Cornercenter
=Cornerleft+Cornertop+Cornerright+Cornerbottom
然后将该角点特征图分别进行三个处理操作:①角点分类;先进行3×3的卷积,再做1×1的卷积,其中输出维度是分类数;②角点得分;先进行3×3的卷积,再做1×1的卷积,其中输出维度是1;③边框回归;该回归过程回归的是中心角点与四条边框的距离;先进行3×3的卷积,再做1×1的卷积,其中输出维度是4;最后将这三个处理操作的输出拼接到一起作为输出。
5.根据权利要求4所述的一种基于交错感知卷积的单阶段无锚框目标检测方法,其特征在于所述步骤(3)中,将训练数据集送入神经网络进行训练,步骤如下:
3-1.将训练数据送入网络,获取网络输出结果;
3-2.对每个样本,从其标注信息中提取dt、db、dl、dr、类别和中心角点,其中dt、db、dl、dr分别是中心角点与上、下、左、右边框的边界距离,定义:
Lclass=Lfocal-loRS(classpred,classgt)
Lcenter=LED(loccenter,loccg)
Lborder=LMSE(dt,dtg)+LMSE(dl,dlg)+LMSE(dr,drg)+LMSE(db,dbg)
Lzd=Lclass+Lcenter+Lborder
其中,classpred是训练得到的类别矩阵,classgt是类别的Ground Truth矩阵,Lfocal-loss是Focal Loss;loccenter是训练得到的中心角点矩阵,loccg是中心角点的Ground Truth矩阵,LED求的是两个中心角点的欧氏距离;dt、db、dl、dr是训练得到的边界距离矩阵,dtg、dbg、dlg、drg是边界距离的Ground Truth矩阵,LMSE求的是两个参数的均方差;最后将Lzd的值反向传导,更新网络中参数。
6.根据权利要求5所述的一种基于交错感知卷积的单阶段无锚框目标检测方法,其特征在于:所述步骤(4)中,使用步骤(3)中训练好的神经网络进行推理,步骤如下:
4-1.将测试数据送入网络,获取网络输出结果;
4-2.根据步骤(3)中描述,网络输出包含类别概率、角点得分和边框距离回归值;使用Soft-hms对每一类别的角点分别进行筛选,减少IoU重叠率高的框;最后将结果输出。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910744873.6A CN110633731B (zh) | 2019-08-13 | 2019-08-13 | 一种基于交错感知卷积的单阶段无锚框目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910744873.6A CN110633731B (zh) | 2019-08-13 | 2019-08-13 | 一种基于交错感知卷积的单阶段无锚框目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110633731A true CN110633731A (zh) | 2019-12-31 |
CN110633731B CN110633731B (zh) | 2022-02-25 |
Family
ID=68970382
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910744873.6A Active CN110633731B (zh) | 2019-08-13 | 2019-08-13 | 一种基于交错感知卷积的单阶段无锚框目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110633731B (zh) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110852314A (zh) * | 2020-01-16 | 2020-02-28 | 江西高创保安服务技术有限公司 | 一种基于相机投影模型的物品检测网络方法 |
CN111275191A (zh) * | 2020-02-26 | 2020-06-12 | 上海商汤智能科技有限公司 | 检测细胞的方法及装置、电子设备和存储介质 |
CN111339891A (zh) * | 2020-02-20 | 2020-06-26 | 苏州浪潮智能科技有限公司 | 一种图像数据的目标检测方法及相关装置 |
CN111415384A (zh) * | 2020-02-19 | 2020-07-14 | 重庆大学 | 一种基于深度学习的工业图像组件精准定位系统 |
CN111553348A (zh) * | 2020-04-26 | 2020-08-18 | 中南大学 | 一种基于centernet的anchor-based目标检测方法 |
CN111582263A (zh) * | 2020-05-12 | 2020-08-25 | 上海眼控科技股份有限公司 | 车牌识别方法、装置、电子设备及存储介质 |
CN111814889A (zh) * | 2020-07-14 | 2020-10-23 | 大连理工大学人工智能大连研究院 | 一种使用无锚框模块和增强分类器的单阶段目标检测方法 |
CN111881876A (zh) * | 2020-08-06 | 2020-11-03 | 桂林电子科技大学 | 一种基于单阶无锚检测网络的考勤方法 |
CN112070768A (zh) * | 2020-09-16 | 2020-12-11 | 福州大学 | 基于Anchor-Free的实时实例分割方法 |
CN112417990A (zh) * | 2020-10-30 | 2021-02-26 | 四川天翼网络服务有限公司 | 一种考试学生违规行为识别方法及系统 |
CN112580529A (zh) * | 2020-12-22 | 2021-03-30 | 上海有个机器人有限公司 | 移动机器人感知识别方法、装置、终端及存储介质 |
CN112767346A (zh) * | 2021-01-18 | 2021-05-07 | 北京医准智能科技有限公司 | 基于多影像的全卷积单阶段乳腺图像病灶检测方法及装置 |
CN113011384A (zh) * | 2021-04-12 | 2021-06-22 | 重庆邮电大学 | 一种基于轻量化卷积的无锚框目标检测方法 |
CN113111754A (zh) * | 2021-04-02 | 2021-07-13 | 中国科学院深圳先进技术研究院 | 一种目标检测方法、装置、终端设备和存储介质 |
CN113128308A (zh) * | 2020-01-10 | 2021-07-16 | 中南大学 | 一种港口场景下的行人检测方法、装置、设备及介质 |
CN113177460A (zh) * | 2021-04-25 | 2021-07-27 | 台州智必安科技有限责任公司 | 基于卷积神经网络的双分支Anchor Free人脸检测方法及系统 |
CN113469269A (zh) * | 2021-07-16 | 2021-10-01 | 上海电力大学 | 基于多通道融合的残差卷积自编码风光荷场景生成方法 |
CN113591811A (zh) * | 2021-09-28 | 2021-11-02 | 湖南大学 | 零售货柜商品搜索识别方法、系统及计算机可读存储介质 |
CN113989498A (zh) * | 2021-12-27 | 2022-01-28 | 北京文安智能技术股份有限公司 | 一种用于多类别垃圾场景识别的目标检测模型的训练方法 |
CN116824467A (zh) * | 2023-08-30 | 2023-09-29 | 江西省水利科学院(江西省大坝安全管理中心、江西省水资源管理中心) | 一种排水管道流量智能测量方法 |
CN117115645A (zh) * | 2023-08-17 | 2023-11-24 | 浙江航天润博测控技术有限公司 | 一种无锚框的轻量化小目标检测方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101226592A (zh) * | 2008-02-21 | 2008-07-23 | 上海交通大学 | 基于部件的对象跟踪方法 |
CN101667287A (zh) * | 2008-09-02 | 2010-03-10 | 新奥特(北京)视频技术有限公司 | 一种标志图像中标志最外边框角点检测方法 |
CN110084222A (zh) * | 2019-05-08 | 2019-08-02 | 大连海事大学 | 一种基于多目标角点池化神经网络的车辆检测方法 |
-
2019
- 2019-08-13 CN CN201910744873.6A patent/CN110633731B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101226592A (zh) * | 2008-02-21 | 2008-07-23 | 上海交通大学 | 基于部件的对象跟踪方法 |
CN101667287A (zh) * | 2008-09-02 | 2010-03-10 | 新奥特(北京)视频技术有限公司 | 一种标志图像中标志最外边框角点检测方法 |
CN110084222A (zh) * | 2019-05-08 | 2019-08-02 | 大连海事大学 | 一种基于多目标角点池化神经网络的车辆检测方法 |
Non-Patent Citations (2)
Title |
---|
KAIWEN DUAN: ""CenterNet: Object Detection with Keypoint Triplets"", 《ARXIV》 * |
XINGYI ZHOU: ""Objects as Points"", 《ARXIV》 * |
Cited By (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113128308A (zh) * | 2020-01-10 | 2021-07-16 | 中南大学 | 一种港口场景下的行人检测方法、装置、设备及介质 |
CN113128308B (zh) * | 2020-01-10 | 2022-05-20 | 中南大学 | 一种港口场景下的行人检测方法、装置、设备及介质 |
CN110852314A (zh) * | 2020-01-16 | 2020-02-28 | 江西高创保安服务技术有限公司 | 一种基于相机投影模型的物品检测网络方法 |
CN111415384A (zh) * | 2020-02-19 | 2020-07-14 | 重庆大学 | 一种基于深度学习的工业图像组件精准定位系统 |
CN111415384B (zh) * | 2020-02-19 | 2022-11-25 | 重庆大学 | 一种基于深度学习的工业图像组件精准定位系统 |
CN111339891A (zh) * | 2020-02-20 | 2020-06-26 | 苏州浪潮智能科技有限公司 | 一种图像数据的目标检测方法及相关装置 |
WO2021164168A1 (zh) * | 2020-02-20 | 2021-08-26 | 苏州浪潮智能科技有限公司 | 一种图像数据的目标检测方法及相关装置 |
CN111275191A (zh) * | 2020-02-26 | 2020-06-12 | 上海商汤智能科技有限公司 | 检测细胞的方法及装置、电子设备和存储介质 |
CN111275191B (zh) * | 2020-02-26 | 2023-11-28 | 上海商汤智能科技有限公司 | 检测细胞的方法及装置、电子设备和存储介质 |
CN111553348A (zh) * | 2020-04-26 | 2020-08-18 | 中南大学 | 一种基于centernet的anchor-based目标检测方法 |
CN111582263A (zh) * | 2020-05-12 | 2020-08-25 | 上海眼控科技股份有限公司 | 车牌识别方法、装置、电子设备及存储介质 |
CN111814889A (zh) * | 2020-07-14 | 2020-10-23 | 大连理工大学人工智能大连研究院 | 一种使用无锚框模块和增强分类器的单阶段目标检测方法 |
CN111881876A (zh) * | 2020-08-06 | 2020-11-03 | 桂林电子科技大学 | 一种基于单阶无锚检测网络的考勤方法 |
CN111881876B (zh) * | 2020-08-06 | 2022-04-08 | 桂林电子科技大学 | 一种基于单阶无锚检测网络的考勤方法 |
CN112070768A (zh) * | 2020-09-16 | 2020-12-11 | 福州大学 | 基于Anchor-Free的实时实例分割方法 |
CN112417990A (zh) * | 2020-10-30 | 2021-02-26 | 四川天翼网络服务有限公司 | 一种考试学生违规行为识别方法及系统 |
CN112580529A (zh) * | 2020-12-22 | 2021-03-30 | 上海有个机器人有限公司 | 移动机器人感知识别方法、装置、终端及存储介质 |
CN112767346A (zh) * | 2021-01-18 | 2021-05-07 | 北京医准智能科技有限公司 | 基于多影像的全卷积单阶段乳腺图像病灶检测方法及装置 |
CN112767346B (zh) * | 2021-01-18 | 2021-10-29 | 北京医准智能科技有限公司 | 基于多影像的全卷积单阶段乳腺图像病灶检测方法及装置 |
CN113111754A (zh) * | 2021-04-02 | 2021-07-13 | 中国科学院深圳先进技术研究院 | 一种目标检测方法、装置、终端设备和存储介质 |
CN113011384B (zh) * | 2021-04-12 | 2022-11-25 | 重庆邮电大学 | 一种基于轻量化卷积的无锚框目标检测方法 |
CN113011384A (zh) * | 2021-04-12 | 2021-06-22 | 重庆邮电大学 | 一种基于轻量化卷积的无锚框目标检测方法 |
CN113177460A (zh) * | 2021-04-25 | 2021-07-27 | 台州智必安科技有限责任公司 | 基于卷积神经网络的双分支Anchor Free人脸检测方法及系统 |
CN113469269A (zh) * | 2021-07-16 | 2021-10-01 | 上海电力大学 | 基于多通道融合的残差卷积自编码风光荷场景生成方法 |
CN113591811A (zh) * | 2021-09-28 | 2021-11-02 | 湖南大学 | 零售货柜商品搜索识别方法、系统及计算机可读存储介质 |
CN113989498A (zh) * | 2021-12-27 | 2022-01-28 | 北京文安智能技术股份有限公司 | 一种用于多类别垃圾场景识别的目标检测模型的训练方法 |
CN113989498B (zh) * | 2021-12-27 | 2022-07-12 | 北京文安智能技术股份有限公司 | 一种用于多类别垃圾场景识别的目标检测模型的训练方法 |
CN117115645A (zh) * | 2023-08-17 | 2023-11-24 | 浙江航天润博测控技术有限公司 | 一种无锚框的轻量化小目标检测方法 |
CN116824467A (zh) * | 2023-08-30 | 2023-09-29 | 江西省水利科学院(江西省大坝安全管理中心、江西省水资源管理中心) | 一种排水管道流量智能测量方法 |
CN116824467B (zh) * | 2023-08-30 | 2023-11-07 | 江西省水利科学院(江西省大坝安全管理中心、江西省水资源管理中心) | 一种排水管道流量智能测量方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110633731B (zh) | 2022-02-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110633731B (zh) | 一种基于交错感知卷积的单阶段无锚框目标检测方法 | |
Bagautdinov et al. | Social scene understanding: End-to-end multi-person action localization and collective activity recognition | |
US9965719B2 (en) | Subcategory-aware convolutional neural networks for object detection | |
US10354185B2 (en) | Learning apparatus, learning program, and learning method | |
CN110569875B (zh) | 一种基于特征复用的深度神经网络目标检测方法 | |
CN111553201B (zh) | 一种基于YOLOv3优化算法的交通灯检测方法 | |
CN109255375A (zh) | 基于深度学习的全景图像对象检测方法 | |
CN111814889A (zh) | 一种使用无锚框模块和增强分类器的单阶段目标检测方法 | |
CN114821069B (zh) | 融合富尺度特征的双分支网络遥感图像建筑语义分割方法 | |
CN110008819A (zh) | 一种基于图卷积神经网络的人脸表情识别方法 | |
CN111597943B (zh) | 一种基于图神经网络的表格结构识别方法 | |
CN111652910A (zh) | 一种基于对象空间关系的目标跟踪算法 | |
CN113297959A (zh) | 一种基于角点注意力孪生网络的目标跟踪方法及系统 | |
CN113537243A (zh) | 一种基于se模块和自注意力机制网络的图像分类方法 | |
TWI785739B (zh) | 目標模型的獲取方法、電子設備與儲存媒體 | |
CN114511798B (zh) | 基于transformer的驾驶员分心检测方法及装置 | |
CN114170526A (zh) | 基于轻量化网络的遥感影像多尺度目标检测识别方法 | |
CN109272522A (zh) | 一种基于局部特征的图像细化分割方法 | |
CN117173595A (zh) | 基于改进YOLOv7的无人机航拍图像目标检测方法 | |
CN111126173A (zh) | 一种高精度人脸检测方法 | |
CN111626298B (zh) | 一种实时图像语义分割装置及分割方法 | |
CN111860332B (zh) | 基于多阈值级联检测器的双通道电力图零部件检测方法 | |
CN113642498A (zh) | 一种基于多层次时空特征融合的视频目标检测系统及方法 | |
CN114066844A (zh) | 一种基于注意力叠加与特征融合的肺炎x光片图像分析模型及分析方法 | |
CN112418358A (zh) | 一种强化深度融合网络的车辆多属性分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |