CN111931915A - 一种基于diou损失函数的训练网络的方法 - Google Patents
一种基于diou损失函数的训练网络的方法 Download PDFInfo
- Publication number
- CN111931915A CN111931915A CN202010798422.3A CN202010798422A CN111931915A CN 111931915 A CN111931915 A CN 111931915A CN 202010798422 A CN202010798422 A CN 202010798422A CN 111931915 A CN111931915 A CN 111931915A
- Authority
- CN
- China
- Prior art keywords
- network
- training
- frame
- loss
- regression
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于DIOU损失函数的训练网络的方法,其涉及对目标框进行改进,该方法使用与以往不同的边框回归损失函数,在损失函数中加入真值框和预测框的中心坐标信息使得边框回归时能够沿着最快的回归路线进行,同时充分使用所有生成的锚框进行训练。本发明尽可能利用网络得到的所有信息,并能够加快网络收敛的速度同时提供更加优化的检测框结果,能够将网络生成的所有锚框都利用到网络训练之中,能够根据所得到的两个框之间的位置信息提供梯度下降的方向,从而使得锚框在回归时沿着与真值框最近的方向进行移动,从而加快收敛速度并提高回归精度。
Description
技术领域
本发明于涉及训练深度学习网络时检测框优化问题,属于深度学习目标识别领域。
背景技术
在目前的各种深度学习的目标检测网络之中,预设锚框(anchor)是大部分目标检测网络都会使用到的方法来生成对应图像中可能存在物体的区域的方法,目前无论是单阶段检测网络,如YOLOv3;双阶段检测网络,如Faster RCNN,都是基于对锚框的处理来生成最后的检测框。在网络的训练过程中,对于锚框回归到真值框(ground truth)时所用到的损失函数一般都是IoU loss,IoU loss可以使得在训练过程中锚框和真值框的交集不断增加,同时并集会不断减小,直到两个框相互重叠到一定程度或者完全重叠。但是IoU loss的问题在于只能给与真值框有交集的锚框回归指定一个回归的方向,如果锚框和真值框没有交集的时候,就无法进行回归,也就导致浪费了一部分生成的锚框,精确度也会因此下降。
于是在IoU loss基础上Hamid Rezatofighi等研究人员提出了GIoU用来优化一部分与真值框没有交集的锚框,在GIoU中定义了一个能将锚框和真值框都包括起来的最小框C,最小框C去掉真值框和锚框之后的面积可以代表两个框在不相交时两个框之间的一个距离衡量,两个框越接近,这部分的面积越小,极端情况当两框重合时这个面积就会变为0,GIoU正是通过这个思路为与真值框不相交的锚框提供一个优化方向,从而使得回归的精确度在IoU的结果上进一步提升,但没有同时利用到真值框的垂直和水平方向上的锚框。
发明内容
为克服上述现有技术的缺陷,本发明在Faster RCNN的网络模型上,提供一种基于损失函数DIOU的网络训练的目标检测方法,该方法采用与以前不同的损失函数DIOU来进行边框回归以此来改进检测框的结果。具体技术方案如下:
步骤1:下载并预处理coco数据集,按数据集本身划分的训练集和测试集进行训练,其中,可使用平移、剪切、缩放方式进行数据增强;
步骤2:完成参数初始化;
步骤3:将数据集输入网络,可进行缩放的方式输入;
步骤4:图像经过FPN网络处理后生成建议区域和损失函数层的输入,并得到分类得分和定位得分步骤5:根据损失计算梯度,更新参数,完成初步分类训练和边框回归并生成建议区域;分类训练使用交叉熵损失,边框回归使用DIOU损失函数;
步骤6:将建议区域映射到原特征图上后进行RoIPooling,将建议区域统一固定尺寸;
步骤7:将得到的ROIs输入进行Softmax层得到分类得分和边框得分,将得到的ROIs输入最后的两个分类器得到分类损失和定位损失,其中,损失函数如下:
其中Ncls为分类使用的样本数量,pi为预测的概率值,为真实的概率值,Nreg为边框回归时使用的样本数量,ti为预测的边框信息,为真实的边框信息,λ为平衡因子用来平衡两个损失之间网络训练时使用的样本数量不同;
步骤8:根据损失计算梯度,反向传播更新参数;
步骤9:如果网络没有收敛继续返回步骤3;
步骤10:网络收敛后就可以在测试集上进行测试和评估。
其中,所述步骤4和所述步骤7中的回归损失的函数考虑了目标框与预测框的位置信息,为网络训练提供梯度方向。所述步骤8更新的参数为网络的特征处理的权值和偏置参数,可通过Adam优化算法更新。
本发明的有益效果是:尽可能利用网络得到的所有信息,并能够加快网络收敛的速度同时提供更加优化的检测框结果,能够将网络生成的所有锚框都利用到网络训练之中。它能够根据所得到的两个框之间的位置信息提供梯度下降的方向,从而使得锚框在回归时沿着与真值框最近的方向进行移动,从而加快收敛速度并提高回归精度。
附图说明
图1是本发明基于Faster RCNN使用DIOU loss的网络训练流程图;
图2是本发明基于Faster RCNN使用DIOU loss的网络预测流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。基于本发明中的实施例,本领域普通技术人员在没有付出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。具体技术方案如下:
步骤1:下载并预处理coco数据集,按数据集本身划分的训练集和测试集进行训练,其中,可使用平移、剪切、缩放方式进行数据增强;
步骤2:完成参数初始化;
步骤3:将数据集输入网络,可进行缩放的方式输入;
步骤4:图像经过FPN网络处理后生成建议区域和损失函数层的输入,并得到分类得分和定位得分
步骤5:根据损失计算梯度,更新参数,完成初步分类训练和边框回归并生成建议区域;分类训练使用交叉熵损失,边框回归使用DIOU损失函数;
步骤6:将建议区域映射到原特征图上后进行RoIPooling,将建议区域统一固定尺寸;
步骤7:将得到的ROIs输入进行Softmax层得到分类得分和边框得分,将得到的ROIs输入最后的两个分类器得到分类损失和定位损失,其中,损失函数如下:
其中Ncls为分类使用的样本数量,pi为预测的概率值,为真实的概率值,Nreg为边框回归时使用的样本数量,ti为预测的边框信息,为真实的边框信息,λ为平衡因子用来平衡两个损失之间网络训练时使用的样本数量不同;在边框回归的训练时只考虑正样本,计算目标值和实际预测值的损失,完成前向传播;
步骤8:根据损失计算梯度,反向传播更新参数;
步骤9:如果网络没有收敛继续返回步骤3;
步骤10:网络收敛后就可以在测试集上进行测试和评估。
其中,所述步骤4和所述步骤7中的回归损失的函数考虑了目标框与预测框的位置信息,为网络训练提供梯度方向。所述步骤8更新的参数为网络的特征处理的权值和偏置参数,可通过Adam优化算法更新。
对于上述步骤1中的所下载coco数据集可以建立以ResNet50为主干的FasterRCNN的网络结构,同时选择近似联合的训练方法,同时训练Faster RCNN网络的FPN网络和Fast RCNN网络;
使用DIOU loss的网络训练流程图和网络预测流程图如图1和图2所示。
该方法的具体实施流程如下:
利用coco数据集训练网络,数据集一共包含80个类,外加一个背景类一共81个类,网络主干使用ResNet-50,图像输入时以(H,W,3)作为输入,进入主干网络后先改变输入图片尺寸,超参设置为1024*1024,也就是将图片变成(1024,1024,3),不足的长度补0,经过第一层卷积后将图片变成(512,512,64)的特征图,同理图片依次经过一共五层卷积和池化操作后依次到:(256,256,256),(128,128,512),(64,64,1024),(32,32,2048)的输出结果,前两个参数代表特征图得宽高,第三个代表通道数。
至此ResNet-50的提取特征过程结束,进入FPN准备将每层的特征融合形成新的特征图,需要注意的是训练时输入的图片数据其实是(N,W,H,C),其中N为批量,W,H为宽高,C为图片的通道数,这里只是以单一图片为输入介绍。
进入FPN后将上述256*256到32*32四张特征图使用1*1的256个卷积核进行处理,将通道数统一到256,然后以32*32*256这层为例,使用上采样使用反卷积,设置为步长为2,卷积核大小为2*2,不改变通道数,使特征图尺寸变成64*64,然后与64*64*256的特征图融合后得到新的64*64*256特征图,同理FPN每一层都经过这样的处理融合得到新的64*64*256,128*128*256,256*256*256的特征图,同时32*32*256的特征图进行一次max-pooling,得到一个16*16*256的特征图,至此完成FPN的整个过程。
进入RPN网络,在训练过程中RPN网络还需要标注信息作为网络输入进行训练,默认的训练过程是从生成的2000个左右的兴趣区域中只选择256个前景样本和背景样本进行训练,也就是RPN网络一共会输出默认为2000的区域建议,但只使用其中256个训练RPN网络,前景样本标记为1,背景样本标记为0,不参加训练的样本标记为-1,默认设置选择128个前景样本,128个背景样本,前景样本和背景样本由输入的真值框和样本计算后得来,这里的训练目标是区分物体是否是前景和背景,最终生成的区域建议将用于训练后面进一步生成的检测框,而推理阶段是直接输出默认为300个的区域建议,不区分前景和后景。
经过RPN后可以得到的输出是rpn_class_logits,rpn_probs,rpn_bbox,分别代表物体的分类得分、分类得分转换后的概率和目标框的偏移量,分类得分有两个,一个是前景得分,另一个为背景得分,物体分类得分rpn_class_logits经过soffmax处理后的rpn_probs分类概率在0-1之间,也有两个代表前景概率和背景概率,生成的区域建议的坐标(dx,dy,dh,dw),这里的四个参数其实不是真实坐标,而是根据预设的anchor坐标Ax Ay AwAh得到偏移量,还原方式为:
G′x=Aw·dx+Ax
G′y=Ah·dy+Ay
G′w=Aw·exp(dw)
G′h=Ah·exp(dh)
分类的损失函数为交叉熵:
RPN网络的定位损失就是使用了这里的偏移量(dx,dy,dh,dw)来计算损失,使用了前景和背景样本一共默认为256个。
定位的损失函数:
其中A,B分别是使用偏移量计算出来的中心点坐标(Gx,Gy),并且使用进行归一化后得到的坐标,至此为训练前面RPN网络需要的输入和处理过程,通过RPN网络输出得到分类得分最高的top-k个不同的区域建议进入下一步处理,这里top-k为超参设置为2000。
然后进入一个ROIAlignPooling层将得到的区域建议统一池化成7*7或者其他尺寸,我们这里仍然使用了7*7,然后将使用3个全连接层将各个池化后大小相同的特征图进行类似特征融合的过程,最后分别进入soffmax分类器和边框预测并且产生相应的输出,分类器得到的是各个类别的得分p,是一个向量一共80各类,所以一共80维,边框预测得到仍然是一系列4维坐标(dx,dy,dw,dh),
类别损失函数:
其中N是从RPN网络得到的样本的个数,默认设置128,c为总的样本类别数为80,pk为向量p中每一类的得分
定位损失函数:
计算过程和RPN网络的定位损失相同,至此为整个网络的训练过程,训练结束后得到权重文件*.ckpt,保存并用于测试过程的使用。
在测试过程中,与训练过程不同之处在于RPN网络不再需要额外的标注信息作为输入,而是直接通过输入预测出2000个区域建议,然后依次进入ROIAlignPooling层,全连接层,分类和边框预测的输出层,在检测图片上输出最终的检测结果
本发明在Faster RCNN的网络模型上,尽可能利用网络得到的所有信息,能够根据所得到的两个框之间的位置信息提供梯度下降的方向,从而使得锚框在回归时沿着与真值框最近的方向进行移动,从而加快收敛速度并提高回归精度。
本发明不限于上述实施例,对于本领域技术人员来说,对本发明的上述实施例所做出的任何改进或变更都不会超出仅以举例的方式示出的本发明的实施例和所附权利要求的保护范围,所描述的实施例仅旨在便于对本发明的理解,而对其不起任何限定作用。
Claims (7)
1.一种基于DIOU损失函数的训练网络的方法,其特征在于,包括以下步骤:
步骤1:下载并预处理coco数据集,按数据集本身划分的训练集和测试集进行训练;
步骤2:完成参数初始化;
步骤3:将数据集输入网络;
步骤4:图像经过FPN网络处理后生成建议区域和损失函数层的输入,得到分类得分和定位得分;
步骤5:根据损失计算梯度,更新参数,完成初步分类训练和边框回归并生成建议区域;分类训练使用交叉熵损失,边框回归使用DIOU;
步骤6:将建议区域映射到原特征图上后进行RolPooling,将建议区域统一固定尺寸;
步骤7:将得到的ROIs输入最后的两个分类器得到分类损失和定位损失的损失函数如下:
其中,Ncls为分类使用的样本数量,pi为预测的概率值,为真实的概率值,Nreg为边框回归时使用的样本数量,ti为预测的边框信息,为真实的边框信息,λ为平衡因子用来平衡两个损失之间网络训练时使用的样本数量不同;
步骤8:根据损失计算梯度,反向传播更新参数;
步骤9:如果网络没有收敛继续返回步骤3;
步骤10:网络收敛后就可以在测试集上进行测试和评估。
2.根据权利要求1所述的基于DIOU损失函数的训练网络的方法,其特征在于,所述步骤1可使用平移、剪切、缩放方式进行数据增强。
3.根据权利要求1所述的基于DIOU损失函数的训练网络的方法,其特征在于,所述步骤1中的所下载coco数据集可以建立以ResNet50为主干的Faster RCNN的网络结构,同时选择近似联合的训练方法,同时训练Faster RCNN网络的FPN网络和Fast RCNN网络。
4.根据权利要求1所述的基于DIOU损失函数的训练网络的方法,其特征在于,所述步骤7中还包括将得到的ROIs输入进行Softmax层得到分类得分和边框得分。
5.根据权利要求1所述的基于DIOU损失函数的训练网络的方法,其特征在于,所述步骤4和所述步骤7中的回归损失的函数考虑了目标框与预测框的位置信息,为网络训练提供梯度方向。
6.根据权利要求1所述的基于DIOU损失函数的训练网络的方法,其特征在于,所述步骤8更新的参数为网络的特征处理的权值和偏置参数,可通过Adam优化算法更新。
7.根据权利要求1所述的基于DIOU损失函数的训练网络的方法,其特征在于,所述步骤3中对图像进行缩放的方式输入。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010798422.3A CN111931915A (zh) | 2020-08-06 | 2020-08-06 | 一种基于diou损失函数的训练网络的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010798422.3A CN111931915A (zh) | 2020-08-06 | 2020-08-06 | 一种基于diou损失函数的训练网络的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111931915A true CN111931915A (zh) | 2020-11-13 |
Family
ID=73307280
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010798422.3A Pending CN111931915A (zh) | 2020-08-06 | 2020-08-06 | 一种基于diou损失函数的训练网络的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111931915A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112541587A (zh) * | 2020-11-19 | 2021-03-23 | 西人马帝言(北京)科技有限公司 | 一种识别模型训练方法、装置、设备及计算机存储介质 |
CN112613462A (zh) * | 2020-12-29 | 2021-04-06 | 安徽大学 | 一种加权交并比方法 |
CN112949614A (zh) * | 2021-04-29 | 2021-06-11 | 成都市威虎科技有限公司 | 一种自动分配候选区域的人脸检测方法及装置和电子设备 |
CN112966519A (zh) * | 2021-02-01 | 2021-06-15 | 湖南大学 | 指代短语定位方法、系统及存储介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107909027A (zh) * | 2017-11-14 | 2018-04-13 | 电子科技大学 | 一种具有遮挡处理的快速人体目标检测方法 |
CN108734694A (zh) * | 2018-04-09 | 2018-11-02 | 华南农业大学 | 基于faster r-cnn的甲状腺肿瘤超声图像自动识别方法 |
CN108830285A (zh) * | 2018-03-14 | 2018-11-16 | 江南大学 | 一种基于Faster-RCNN的加强学习的目标检测方法 |
CN109284669A (zh) * | 2018-08-01 | 2019-01-29 | 辽宁工业大学 | 基于Mask RCNN的行人检测方法 |
CN110443130A (zh) * | 2019-07-01 | 2019-11-12 | 国网湖南省电力有限公司 | 一种配电网架空线路异常状态检测方法 |
CN111091105A (zh) * | 2019-12-23 | 2020-05-01 | 郑州轻工业大学 | 基于新的边框回归损失函数的遥感图像目标检测方法 |
CN111160120A (zh) * | 2019-12-11 | 2020-05-15 | 重庆邮电大学 | 基于迁移学习的Faster R-CNN物品检测方法 |
CN111223088A (zh) * | 2020-01-16 | 2020-06-02 | 东南大学 | 一种基于深层卷积神经网络的铸件表面缺陷识别方法 |
US10713794B1 (en) * | 2017-03-16 | 2020-07-14 | Facebook, Inc. | Method and system for using machine-learning for object instance segmentation |
-
2020
- 2020-08-06 CN CN202010798422.3A patent/CN111931915A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10713794B1 (en) * | 2017-03-16 | 2020-07-14 | Facebook, Inc. | Method and system for using machine-learning for object instance segmentation |
CN107909027A (zh) * | 2017-11-14 | 2018-04-13 | 电子科技大学 | 一种具有遮挡处理的快速人体目标检测方法 |
CN108830285A (zh) * | 2018-03-14 | 2018-11-16 | 江南大学 | 一种基于Faster-RCNN的加强学习的目标检测方法 |
CN108734694A (zh) * | 2018-04-09 | 2018-11-02 | 华南农业大学 | 基于faster r-cnn的甲状腺肿瘤超声图像自动识别方法 |
CN109284669A (zh) * | 2018-08-01 | 2019-01-29 | 辽宁工业大学 | 基于Mask RCNN的行人检测方法 |
CN110443130A (zh) * | 2019-07-01 | 2019-11-12 | 国网湖南省电力有限公司 | 一种配电网架空线路异常状态检测方法 |
CN111160120A (zh) * | 2019-12-11 | 2020-05-15 | 重庆邮电大学 | 基于迁移学习的Faster R-CNN物品检测方法 |
CN111091105A (zh) * | 2019-12-23 | 2020-05-01 | 郑州轻工业大学 | 基于新的边框回归损失函数的遥感图像目标检测方法 |
CN111223088A (zh) * | 2020-01-16 | 2020-06-02 | 东南大学 | 一种基于深层卷积神经网络的铸件表面缺陷识别方法 |
Non-Patent Citations (7)
Title |
---|
ROSS GIRSHICK: "Fast R-CNN", 《ARXIV》 * |
SHAOQING REN 等: "Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks", 《ARXIV》 * |
ZHAOHUI ZHENG 等: "Distance-IoU Loss: Faster and Better Learning for Bounding Box Regression", 《ARXIV》 * |
叠加态的猫: "『计算机视觉』经典RCNN_其二:Faster-RCNN", 《HTTPS://WWW.CNBLOGS.COM/HELLCAT/P/9678467.HTML》 * |
李昕昕 等: "面向复杂道路场景小尺度行人的实时检测算法", 《计算机工程与应用》 * |
王全东 等: "面向多尺度坦克装甲车辆目标检测的改进 Faster R-CNN 算法", 《计算机辅助设计与图形学学报》 * |
许庆志: "基于深度学习的交通标志识别及实现", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112541587A (zh) * | 2020-11-19 | 2021-03-23 | 西人马帝言(北京)科技有限公司 | 一种识别模型训练方法、装置、设备及计算机存储介质 |
CN112613462A (zh) * | 2020-12-29 | 2021-04-06 | 安徽大学 | 一种加权交并比方法 |
CN112613462B (zh) * | 2020-12-29 | 2022-09-23 | 安徽大学 | 一种加权交并比方法 |
CN112966519A (zh) * | 2021-02-01 | 2021-06-15 | 湖南大学 | 指代短语定位方法、系统及存储介质 |
CN112966519B (zh) * | 2021-02-01 | 2023-10-10 | 湖南大学 | 指代短语定位方法、系统及存储介质 |
CN112949614A (zh) * | 2021-04-29 | 2021-06-11 | 成都市威虎科技有限公司 | 一种自动分配候选区域的人脸检测方法及装置和电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111931915A (zh) | 一种基于diou损失函数的训练网络的方法 | |
US10878284B2 (en) | Method and apparatus for training image model, and method and apparatus for category prediction | |
CN108229397B (zh) | 基于Faster R-CNN的图像中文本检测方法 | |
CN109685067B (zh) | 一种基于区域和深度残差网络的图像语义分割方法 | |
CN109859190B (zh) | 一种基于深度学习的目标区域检测方法 | |
US20220366576A1 (en) | Method for target tracking, electronic device, and storage medium | |
CN111160085A (zh) | 一种人体图像关键点姿态估计方法 | |
CN111445488B (zh) | 一种弱监督学习自动识别和分割盐体的方法 | |
CN112529178A (zh) | 一种适用于无预选框检测模型的知识蒸馏方法及系统 | |
CN111914727B (zh) | 基于平衡采样与非线性特征融合的小目标人体检测方法 | |
CN112464911A (zh) | 基于改进YOLOv3-tiny的交通标志检测与识别方法 | |
CN109685145B (zh) | 一种基于深度学习和图像处理的小物件检测方法 | |
CN111814741A (zh) | 一种基于注意力机制的遮挡胚胎原核及卵裂球检测方法 | |
CN113076871A (zh) | 一种基于目标遮挡补偿的鱼群自动检测方法 | |
CN111626200A (zh) | 一种基于Libra R-CNN的多尺度目标检测网络和交通标识检测方法 | |
CN117765373B (zh) | 一种自适应裂缝尺寸的轻量化道路裂缝检测方法及系统 | |
CN111461213A (zh) | 一种目标检测模型的训练方法、目标快速检测方法 | |
CN111768415A (zh) | 一种无量化池化的图像实例分割方法 | |
CN112149563A (zh) | 一种注意力机制人体图像关键点姿态估计方法及系统 | |
CN113591719A (zh) | 一种自然场景任意形状文本检测方法、装置和训练方法 | |
CN114581486A (zh) | 基于全卷积孪生网络多层特征的模板更新目标跟踪算法 | |
CN112541491A (zh) | 基于图像字符区域感知的端到端文本检测及识别方法 | |
CN111931572B (zh) | 一种遥感影像的目标检测方法 | |
CN113223614A (zh) | 一种染色体核型分析方法、系统、终端设备和存储介质 | |
CN113744195A (zh) | 一种基于深度学习的hRPE细胞微管自动检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20201113 |
|
RJ01 | Rejection of invention patent application after publication |