CN110472640B - 一种目标检测模型预测框处理方法及装置 - Google Patents

一种目标检测模型预测框处理方法及装置 Download PDF

Info

Publication number
CN110472640B
CN110472640B CN201910753422.9A CN201910753422A CN110472640B CN 110472640 B CN110472640 B CN 110472640B CN 201910753422 A CN201910753422 A CN 201910753422A CN 110472640 B CN110472640 B CN 110472640B
Authority
CN
China
Prior art keywords
prediction
frame
prediction frame
boundary
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910753422.9A
Other languages
English (en)
Other versions
CN110472640A (zh
Inventor
王子彤
姜凯
秦刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Inspur Scientific Research Institute Co Ltd
Original Assignee
Shandong Inspur Scientific Research Institute Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong Inspur Scientific Research Institute Co Ltd filed Critical Shandong Inspur Scientific Research Institute Co Ltd
Priority to CN201910753422.9A priority Critical patent/CN110472640B/zh
Publication of CN110472640A publication Critical patent/CN110472640A/zh
Application granted granted Critical
Publication of CN110472640B publication Critical patent/CN110472640B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components

Abstract

本发明公开了一种目标检测模型预测框处理方法及装置,属于图像识别目标检测领域,本发明要解决的技术问题为如何消除由于预测框遮挡造成的同一种类不同个体的预测框被错误剔除现象,提高目标检测算法结果的精确度,技术方案为:该方法步骤如下:S1、经过多层卷积神经网络,目标检测模型给出待预测所有种类的全部预测框坐标及置信度;S2、选择属于同一种类的预测框,对置信度进行由大到小排序,暂存于临时输出框集合;S3、选取置信度最大的框,保存至最终输出框集合;S4、判断同一种类是否完成;S5、选取下一排序置信度的框,计算当前框与上一框的坐标位置交并比IOU,将坐标位置交并比IOU与阀值相比较。本发明还公开了目标检测模型预测框处理装置。

Description

一种目标检测模型预测框处理方法及装置
技术领域
本发明涉及图像识别目标检测领域,具体地说是一种目标检测模型预测框处理方法及装置。
背景技术
基于卷积神经网络与回归方法的深度学习目标检测方法,如YOLO,SSD等,目前已广泛应用于图像、视频数据的特定目标检测任务中。给定输入图像后,模型直接在图像的多个位置上回归出这个位置的目标边框以及目标类别,极大的加快了检测的速度。
非极大值抑制(Non-maximum suppression,NMS)是一种去除非极大值的算法,常用于计算机视觉中的边缘检测、物体识别等。在目标检测算法中,对于同一种类物体的预测框进行NMS,去除多余预测框,得出置信度最大的框坐标。然而在此类目标检测算法中,当同一种类物体的不同个体之间出现遮挡,且遮挡超过NMS阈值时,其中一个预测框会被剔除,使得检测结果精确度大大降低。
数字图像的边缘,通常都是像素值变化剧烈的高频区域,如深度的不连续、表面方向的不连续、物体材料不同、场景中光照不同等都会形成较明显的边缘特征。相对熵(relative entropy),又被称为Kullback-Leibler散度(Kullback-Leibler divergence)或信息散度(information divergence),是两个概率分布(probability distribution)间差异的非对称性度量,在信息理论中,相对熵等价于两个概率分布的信息熵(Shannonentropy)的差值。
故如何消除由于预测框遮挡造成的同一种类不同个体的预测框被错误剔除现象,提高目标检测算法结果的精确度是目前现有技术中急需解决的技术问题。
专利号为CN109685152A的专利文献公开了一种基于DC-SPP-YOLO的图像目标检测方法,首先利用数据增强方法对训练图像样本进行预处理并构建训练样本集,采用k-means聚类算法选取用于目标边界框预测的先验候选框;然后将YOLOv2模型的卷积层连接方式由逐层连接改进为密集连接,同时在卷积模块与目标检测层之间引入空间金字塔池化,建立DC-SPP-YOLO目标检测模型;最后以预测值与真实值之间的误差平方和构建损失函数,迭代更新模型权重参数使得损失函数收敛,获得DC-SPP-YOLO模型并用于目标检测。但是该技术方案不能消除由于预测框遮挡造成的同一种类不同个体的预测框被错误剔除现象,提高目标检测算法结果的精确度。
专利号为CN109784349A的专利文献公开了一种图像目标检测模型的建立方法及装置,利用遮挡图像样本进行特征遮挡对抗网络模型的训练,通过特征遮挡对抗网络模型来获得图像样本的遮挡掩码,这样,在进行检测网络模型的训练时,将训练用的图像样本的特征图添加遮挡掩码,该遮挡掩码利用训练好的特征遮挡对抗网络模型获得。但是该技术方案不能消除由于预测框遮挡造成的同一种类不同个体的预测框被错误剔除现象,提高目标检测算法结果的精确度。
发明内容
本发明的技术任务是提供一种目标检测模型预测框处理方法及装置,来解决如何消除由于预测框遮挡造成的同一种类不同个体的预测框被错误剔除现象,提高目标检测算法结果的精确度的问题。
本发明的技术任务是按以下方式实现的,一种目标检测模型预测框处理方法,该方法步骤如下:
S1、经过多层卷积神经网络,目标检测模型给出待预测所有种类的全部预测框坐标及置信度;
S2、选择属于同一种类的预测框,对置信度进行由大到小排序,暂存于临时输出框集合;
S3、选取置信度最大的框,保存至最终输出框集合;
S4、判断同一种类是否完成:
①、若是,则结束当前种类判定;
②、若否,则执行步骤S5;
S5、选取下一排序置信度的框,计算当前框与上一框的坐标位置交并比IOU,将坐标位置交并比IOU与阀值相比较;
S6、遍历完同一种类预测框,得到属于当前种类的全部预测框位置及置信度;
S7、遍历所有种类,得到所有种类的全部预测框位置及置信度。
作为优选,所述步骤S5中将坐标位置交并比IOU与阀值相比较具体步骤如下:
S501、判断坐标位置交并比IOU是否小于阀值一:
①、若是,则认定为同一种类的不同个体,将当前框保存至最终输出框集合,下一步跳转至步骤S3继续选取;
②、若否,则说明二者存在遮挡或者属于同一个体,下一步执行步骤S502;
S502、求得二者重叠区域的边界(直线)表达式,将每个边界的结果进行加权求和,并判断加权和是否大于阀值二:
①、若是,则认定两个预测框属于同一个体,将当前预测框丢弃,下一步跳转至步骤S3继续选取;
②、若否,则说明两个预测框之间有明显边界,属于不同个体或同一个体的不同位置,下一步执行步骤S503;
S503、将大预测框减去小预测框得到二者分布相似度,判断相似度是否大于阀值三:
①、若是,则认定两个预测框属于同一种类的不同个体,将当前框保存至最终输出框集合,下一步跳转至步骤S3继续选取;
②、若否,则认定两个预测框为同一个体的不同位置,将当前预测框丢弃,下一步跳转至步骤S3继续选取;
更优地,所述步骤S502中求得二者重叠区域的边界(直线)表达式,将每个边界的结果进行加权求和的具体如下:
对于每个边界上的点,在两个预测框中沿法线方向取若干像素点进行像素均值计算,得到边界两侧的平均像素值,作差得到边界两侧像素值差值,对每个边界所有点的差值求平方和,即对差值进行距离计算,将每个边界的结果进行加权求和并与阀值二进行比较。
更优地,所述像素点选取3-5个。
更优地,所述步骤S503中将大预测框减去小预测框得到二者分布相似度具体如下:
将大预测框减去小预测框得到预测框差一,将预测框差一缩放至与小预测框同一尺度,以此为蒙板与小预测框进行与操作,得到预测框差二,对预测框差一和预测框差二的像素点进行相对熵KL散度计算,得到二者分布相似度并与阀值三进行比较。
更优地,所述对差值进行距离计算是采用欧式距离计算或余弦距离计算,根据不同的输入图像选取欧式距离计算或余弦距离计算。
更优地,所述阀值一、阀值二、阀值三的选取是根据图像内容的不同进行先验得出。
一种目标检测模型预测框处理装置,该装置包括,
预测框坐标及置信度计算单元,用于经过多层卷积神经网络,目标检测模型给出待预测所有种类的全部预测框坐标及置信度;
置信度排序单元,用于选择属于同一种类的预测框,对置信度进行由大到小排序,暂存于临时输出框集合;
置信度选取单元,用于选取置信度最大的框,保存至最终输出框集合;
同一种类完成度判断,用于判断同一种类是否完成:
坐标位置交并比IOU计算单元,用于选取下一排序置信度的框,计算当前框与上一框的坐标位置交并比IOU,将坐标位置交并比IOU与阀值相比较;
同一种类预测框位置及置信度计算单元,用于遍历完同一种类预测框,得到属于当前种类的全部预测框位置及置信度;
所有种类预测框位置及置信度计算单元,用于遍历所有种类,得到所有种类的全部预测框位置及置信度。
作为优选,所述坐标位置交并比IOU计算单元包括阀值一比较模块,阀值二比较模块以及阀值三比较模块;
其中,阀值一比较模块,用于判断坐标位置交并比IOU是否小于阀值一;
阀值二比较模块,用于将每个边界的结果进行加权求和,并判断加权和是否大于阀值二;
阀值三比较模块,用于将大预测框减去小预测框得到二者分布相似度,判断相似度是否大于阀值三;
更优地,所述将每个边界的结果进行加权求和的具体步骤如下:
求得二者重叠区域的边界(直线)表达式,对于每个边界上的点,在两个预测框中沿法线方向取3-5个像素点进行像素均值计算,得到边界两侧的平均像素值,作差得到边界两侧像素值差值,对每个边界所有点的差值求平方和,即对差值进行欧式距离计算,将每个边界的结果进行加权求和并与阀值二进行比较;
所述将大预测框减去小预测框得到二者分布相似度的具体步骤如下:将大预测框减去小预测框得到预测框差一,将预测框差一缩放至与小预测框同一尺度,以此为蒙板与小预测框进行与操作,得到预测框差二,对预测框差一和预测框差二的像素点进行相对熵KL散度计算,得到二者分布相似度并与阀值三进行比较。
本发明的目标检测模型预测框处理方法及装置具有以下优点:
(一)、本发明通过在目标检测算法中添加边缘提取对比,能够有效消除由于预测框遮挡造成的同一种类不同个体的预测框被错误剔除现象,极大提高了目标检测算法结果的精确度,在强精度需求场景中,极大提升系统稳定性与可靠性;同时通过相对熵KL散度计算,可消除由于同一种类的同一个体在不同位置由于存在较明显边缘而被误判成不同个体的可能;
(二)、本发明通过在目标检测算法中添加边缘提取对比,能够有效消除由于预测框遮挡造成的同一种类不同个体的预测框被错误剔除现象,极大提高了目标检测算法结果的精确度,在强精度需求场景中,极大提升系统稳定性与可靠性,可满足人工智能发展自主研发改进算法的需求,将算法嵌入至其他产品中,提升产品竞争力,提高享誉度。
附图说明
下面结合附图对本发明进一步说明。
附图1为目标检测模型预测框处理方法流程框图;
附图2为预测框遮挡边界示意图;
附图3为预测框相对熵计算预处理示意图。
具体实施方式
参照说明书附图和具体实施例对本发明的一种目标检测模型预测框处理方法及装置作以下详细地说明。
实施例:
如附图1所示,本发明的目标检测模型预测框处理方法,该方法步骤如下:
S1、经过多层卷积神经网络,目标检测模型给出待预测所有种类的全部预测框坐标及置信度;
S2、选择属于同一种类的预测框,对置信度进行由大到小排序,暂存于临时输出框集合;
S3、选取置信度最大的框,保存至最终输出框集合;
S4、判断同一种类是否完成:
①、若是,则结束当前种类判定;
②、若否,则执行步骤S5;
S5、选取下一排序置信度的框,计算当前框与上一框的坐标位置交并比IOU,将坐标位置交并比IOU与阀值相比较;具体如下:
S501、判断坐标位置交并比IOU是否小于阀值一:
①、若是,则认定为同一种类的不同个体,将当前框保存至最终输出框集合,下一步跳转至步骤S3继续选取;
②、若否,则说明二者存在遮挡或者属于同一个体,下一步执行步骤S502;
S502、求得二者重叠区域的边界(直线)表达式,如附图2所示,对于每个边界上的点,在两个预测框中沿法线方向取3-5个像素点进行像素均值计算,得到边界两侧的平均像素值,作差得到边界两侧像素值差值,对每个边界所有点的差值求平方和,即对差值进行欧式距离计算,根据不同的输入图像还可以选取余弦距离计算,将每个边界的结果进行加权求和,并判断加权和是否大于阀值二:
①、若是,则认定两个预测框属于同一个体,将当前预测框丢弃,下一步跳转至步骤S3继续选取;
②、若否,则说明两个预测框之间有明显边界,属于不同个体或同一个体的不同位置,下一步执行步骤S503;
S503、如附图3所示,将大预测框减去小预测框得到预测框差一,将预测框差一缩放至与小预测框同一尺度,以此为蒙板与小预测框进行与操作,得到预测框差二,对预测框差一和预测框差二的像素点进行相对熵KL散度计算,得到二者分布相似度并判断相似度是否大于阀值三:
①、若是,则认定两个预测框属于同一种类的不同个体,将当前框保存至最终输出框集合,下一步跳转至步骤S3继续选取;
②、若否,则认定两个预测框为同一个体的不同位置,将当前预测框丢弃,下一步跳转至步骤S3继续选取;
S6、遍历完同一种类预测框,得到属于当前种类的全部预测框位置及置信度;
S7、遍历所有种类,得到所有种类的全部预测框位置及置信度。
其中,阀值一、阀值二、阀值三的选取是根据图像内容的不同进行先验得出。
实施例2:
本发明的目标检测模型预测框处理装置,该装置包括,
预测框坐标及置信度计算单元,用于经过多层卷积神经网络,目标检测模型给出待预测所有种类的全部预测框坐标及置信度;
置信度排序单元,用于选择属于同一种类的预测框,对置信度进行由大到小排序,暂存于临时输出框集合;
置信度选取单元,用于选取置信度最大的框,保存至最终输出框集合;
同一种类完成度判断,用于判断同一种类是否完成:
坐标位置交并比IOU计算单元,用于选取下一排序置信度的框,计算当前框与上一框的坐标位置交并比IOU,将坐标位置交并比IOU与阀值相比较;坐标位置交并比IOU计算单元包括阀值一比较模块,阀值二比较模块以及阀值三比较模块;
其中,阀值一比较模块,用于判断坐标位置交并比IOU是否小于阀值一;
阀值二比较模块,用于将每个边界的结果进行加权求和,并判断加权和是否大于阀值二;具体步骤如下:
求得二者重叠区域的边界(直线)表达式,对于每个边界上的点,在两个预测框中沿法线方向取3-5个像素点进行像素均值计算,得到边界两侧的平均像素值,作差得到边界两侧像素值差值,对每个边界所有点的差值求平方和,即对差值进行欧式距离计算,将每个边界的结果进行加权求和并与阀值二进行比较;
阀值三比较模块,用于将大预测框减去小预测框得到二者分布相似度,判断相似度是否大于阀值三;具体步骤如下:将大预测框减去小预测框得到预测框差一,将预测框差一缩放至与小预测框同一尺度,以此为蒙板与小预测框进行与操作,得到预测框差二,对预测框差一和预测框差二的像素点进行相对熵KL散度计算,得到二者分布相似度并与阀值三进行比较。
同一种类预测框位置及置信度计算单元,用于遍历完同一种类预测框,得到属于当前种类的全部预测框位置及置信度;
所有种类预测框位置及置信度计算单元,用于遍历所有种类,得到所有种类的全部预测框位置及置信度。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

Claims (7)

1.一种目标检测模型预测框处理方法,其特征在于,该方法步骤如下:
S1、经过多层卷积神经网络,目标检测模型给出待预测所有种类的全部预测框坐标及置信度;
S2、选择属于同一种类的预测框,对置信度进行由大到小排序,暂存于临时输出框集合;
S3、选取置信度最大的框,保存至最终输出框集合;
S4、判断同一种类是否完成:
①、若是,则结束当前种类判定;
②、若否,则执行步骤S5;
S5、选取下一排序置信度的框,计算当前框与上一框的坐标位置交并比IOU,将坐标位置交并比IOU与阀值相比较;具体步骤如下:
S501、判断坐标位置交并比IOU是否小于阀值一:
①、若是,则认定为同一种类的不同个体,将当前框保存至最终输出框集合,下一步跳转至步骤S3继续选取;
②、若否,则说明二者存在遮挡或者属于同一个体,下一步执行步骤S502;
S502、求得二者重叠区域的边界表达式,将每个边界的结果进行加权求和,
并判断加权和是否大于阀值二:
①、若是,则认定两个预测框属于同一个体,将当前预测框丢弃,下一步跳转至步骤S3继续选取;
②、若否,则说明两个预测框之间有明显边界,属于不同个体或同一个体的不同位置,下一步执行步骤S503;
其中,步骤S502中求得二者重叠区域的边界表达式,将每个边界的结果进行加权求和的具体如下:
对于每个边界上的点,在两个预测框中沿法线方向取若干像素点进行像素均值计算,得到边界两侧的平均像素值,作差得到边界两侧像素值差值,对每个边界所有点的差值求平方和,即对边界两侧像素值差值进行距离计算,将每个边界的结果进行加权求和并与阀值二进行比较;
S503、将大预测框减去小预测框得到二者分布相似度,判断相似度是否大于阀值三:
①、若是,则认定两个预测框属于同一种类的不同个体,将当前框保存至最终输出框集合,下一步跳转至步骤S3继续选取;
②、若否,则认定两个预测框为同一个体的不同位置,将当前预测框丢弃,下一步跳转至步骤S3继续选取;
S6、遍历完同一种类预测框,得到属于当前种类的全部预测框位置及置信度;
S7、遍历所有种类,得到所有种类的全部预测框位置及置信度。
2.根据权利要求1所述的目标检测模型预测框处理方法,其特征在于,所述像素点选取3-5个。
3.根据权利要求2所述的目标检测模型预测框处理方法,其特征在于,所述步骤S503中将大预测框减去小预测框得到二者分布相似度具体如下:
将大预测框减去小预测框得到预测框差一,将预测框差一缩放至与小预测框同一尺度,以此为蒙板与小预测框进行与操作,得到预测框差二,对预测框差一和预测框差二的像素点进行相对熵KL散度计算,得到二者分布相似度并与阀值三进行比较。
4.根据权利要求3所述的目标检测模型预测框处理方法,其特征在于,所述对差值进行距离计算是采用欧式距离计算或余弦距离计算,根据不同的输入图像选取欧式距离计算或余弦距离计算。
5.根据权利要求4所述的目标检测模型预测框处理方法,其特征在于,所述阀值一、阀值二、阀值三的选取是根据图像内容的不同进行先验得出。
6.一种目标检测模型预测框处理装置,其特征在于,该装置包括,
预测框坐标及置信度计算单元,用于经过多层卷积神经网络,目标检测模型给出待预测所有种类的全部预测框坐标及置信度;
置信度排序单元,用于选择属于同一种类的预测框,对置信度进行由大到小排序,暂存于临时输出框集合;
置信度选取单元,用于选取置信度最大的框,保存至最终输出框集合;
同一种类完成度判断,用于判断同一种类是否完成:
坐标位置交并比IOU计算单元,用于选取下一排序置信度的框,计算当前框与上一框的坐标位置交并比IOU,将坐标位置交并比IOU与阀值相比较;坐标位置交并比IOU计算单元包括阀值一比较模块,阀值二比较模块以及阀值三比较模块;
其中,阀值一比较模块,用于判断坐标位置交并比IOU是否小于阀值一;
阀值二比较模块,用于将每个边界的结果进行加权求和,并判断加权和是否大于阀值二;将每个边界的结果进行加权求和的具体步骤如下:
求得二者重叠区域的边界表达式,对于每个边界上的点,在两个预测框中沿法线方向取3-5个像素点进行像素均值计算,得到边界两侧的平均像素值,作差得到边界两侧像素值差值,对每个边界所有点的差值求平方和,即对边界两侧像素值差值进行欧式距离计算,将每个边界的结果进行加权求和并与阀值二进行比较;
阀值三比较模块,用于将大预测框减去小预测框得到二者分布相似度,判断相似度是否大于阀值三;
同一种类预测框位置及置信度计算单元,用于遍历完同一种类预测框,得到属于当前种类的全部预测框位置及置信度;
所有种类预测框位置及置信度计算单元,用于遍历所有种类,得到所有种类的全部预测框位置及置信度。
7.根据权利要求6所述的目标检测模型预测框处理装置,其特征在于,所述将大预测框减去小预测框得到二者分布相似度的具体步骤如下:将大预测框减去小预测框得到预测框差一,将预测框差一缩放至与小预测框同一尺度,以此为蒙板与小预测框进行与操作,得到预测框差二,对预测框差一和预测框差二的像素点进行相对熵KL散度计算,得到二者分布相似度并与阀值三进行比较。
CN201910753422.9A 2019-08-15 2019-08-15 一种目标检测模型预测框处理方法及装置 Active CN110472640B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910753422.9A CN110472640B (zh) 2019-08-15 2019-08-15 一种目标检测模型预测框处理方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910753422.9A CN110472640B (zh) 2019-08-15 2019-08-15 一种目标检测模型预测框处理方法及装置

Publications (2)

Publication Number Publication Date
CN110472640A CN110472640A (zh) 2019-11-19
CN110472640B true CN110472640B (zh) 2022-03-15

Family

ID=68511494

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910753422.9A Active CN110472640B (zh) 2019-08-15 2019-08-15 一种目标检测模型预测框处理方法及装置

Country Status (1)

Country Link
CN (1) CN110472640B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111063421B (zh) * 2019-12-18 2020-11-03 北京推想科技有限公司 感兴趣区域的数量确定方法、装置、设备和存储介质
CN113762326A (zh) * 2021-05-26 2021-12-07 腾讯云计算(北京)有限责任公司 一种数据识别方法、装置、设备及可读存储介质

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104463138A (zh) * 2014-12-19 2015-03-25 深圳大学 基于视觉结构属性的文本定位方法及系统
CN107481265A (zh) * 2017-08-17 2017-12-15 成都通甲优博科技有限责任公司 目标重定位方法及装置
CN107784288A (zh) * 2017-10-30 2018-03-09 华南理工大学 一种基于深度神经网络的迭代定位式人脸检测方法
CN107871134A (zh) * 2016-09-23 2018-04-03 北京眼神科技有限公司 一种人脸检测方法及装置
CN108229649A (zh) * 2016-12-22 2018-06-29 三星电子株式会社 用于深度学习训练的方法和设备
CN108830205A (zh) * 2018-06-04 2018-11-16 江南大学 基于改进全卷积网络的多尺度感知行人检测方法
CN109472193A (zh) * 2018-09-21 2019-03-15 北京飞搜科技有限公司 人脸检测方法及装置
CN109685152A (zh) * 2018-12-29 2019-04-26 北京化工大学 一种基于dc-spp-yolo的图像目标检测方法
CN109934121A (zh) * 2019-02-21 2019-06-25 江苏大学 一种基于YOLOv3算法的果园行人检测方法
CN110008953A (zh) * 2019-03-29 2019-07-12 华南理工大学 基于卷积神经网络多层特征融合的潜在目标区域生成方法
CN110084173A (zh) * 2019-04-23 2019-08-02 精伦电子股份有限公司 人头检测方法及装置

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104463138A (zh) * 2014-12-19 2015-03-25 深圳大学 基于视觉结构属性的文本定位方法及系统
CN107871134A (zh) * 2016-09-23 2018-04-03 北京眼神科技有限公司 一种人脸检测方法及装置
CN108229649A (zh) * 2016-12-22 2018-06-29 三星电子株式会社 用于深度学习训练的方法和设备
CN107481265A (zh) * 2017-08-17 2017-12-15 成都通甲优博科技有限责任公司 目标重定位方法及装置
CN107784288A (zh) * 2017-10-30 2018-03-09 华南理工大学 一种基于深度神经网络的迭代定位式人脸检测方法
CN108830205A (zh) * 2018-06-04 2018-11-16 江南大学 基于改进全卷积网络的多尺度感知行人检测方法
CN109472193A (zh) * 2018-09-21 2019-03-15 北京飞搜科技有限公司 人脸检测方法及装置
CN109685152A (zh) * 2018-12-29 2019-04-26 北京化工大学 一种基于dc-spp-yolo的图像目标检测方法
CN109934121A (zh) * 2019-02-21 2019-06-25 江苏大学 一种基于YOLOv3算法的果园行人检测方法
CN110008953A (zh) * 2019-03-29 2019-07-12 华南理工大学 基于卷积神经网络多层特征融合的潜在目标区域生成方法
CN110084173A (zh) * 2019-04-23 2019-08-02 精伦电子股份有限公司 人头检测方法及装置

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
Acquisition of Localization Confidence for Accurate Object Detection;Borui Jiang 等;《arXiv》;20180730;第1-16页 *
Adaptive NMS: Refining Pedestrian Detection in a Crowd;Songtao Liu 等;《arXiv》;20190407;第6459-6468页 *
Bounding Box Regression with Uncertainty for Accurate Object Detection;Yihui He 等;《arXiv》;20190416;第1-10页 *
一种改进约束条件的简化非极大值抑制;张强 等;《中国科学技术大学学报》;20160115;第46卷(第1期);第6-11页 *
基于多尺度特征的乳腺肿块检测方法研究;陈珊 等;《智能计算机与应用》;20190101;第9卷(第1期);第159-160页第2.2节 *
目标检测番外篇(3)_NMS;胡孟;《https://zhuanlan.zhihu.com/p/49481833》;20181112;第1-4页 *
行人检测中非极大值抑制算法的改进;陈金辉 等;《华东理工大学学报(自然科学版)》;20150630;第41卷(第3期);第371-378页 *

Also Published As

Publication number Publication date
CN110472640A (zh) 2019-11-19

Similar Documents

Publication Publication Date Title
CN109685152B (zh) 一种基于dc-spp-yolo的图像目标检测方法
CN108388896B (zh) 一种基于动态时序卷积神经网络的车牌识别方法
CN106960195B (zh) 一种基于深度学习的人群计数方法及装置
CN112529015A (zh) 一种基于几何解缠的三维点云处理方法、装置及设备
CN109343920B (zh) 一种图像处理方法及其装置、设备和存储介质
CN110838112A (zh) 一种基于霍夫变换和YOLOv3网络的绝缘子缺损检测方法
CN110991444B (zh) 面向复杂场景的车牌识别方法及装置
JP2014041476A (ja) 画像処理装置、画像処理方法及びプログラム
CN109886159B (zh) 一种非限定条件下的人脸检测方法
CN109948533B (zh) 一种文本检测方法、装置、设备及可读存储介质
CN113221956B (zh) 基于改进的多尺度深度模型的目标识别方法及装置
CN110472640B (zh) 一种目标检测模型预测框处理方法及装置
CN112800955A (zh) 基于加权双向特征金字塔的遥感影像旋转目标检测方法及系统
CN115937552A (zh) 一种基于融合手工特征与深度特征的图像匹配方法
CN115533902A (zh) 一种基于视觉引导的拆垛方法、装置、电子设备及系统
KR101905000B1 (ko) 이미지 데이터의 보정 방법, 장치 및 컴퓨터-판독가능 저장 매체에 저장된 컴퓨터 프로그램
CN114674826A (zh) 基于布匹的视觉检测方法及检测系统
CN114004858A (zh) 基于机器视觉识别航空线缆表面编码的方法及装置
Ham et al. Recognition of raised characters for automatic classification of rubber tires
CN111027551B (zh) 图像处理方法、设备和介质
CN109657577B (zh) 一种基于熵和运动偏移量的动物检测方法
CN116503282A (zh) 基于流形的挖掘机施工环境场点云去噪方法及系统
CN111160372A (zh) 一种基于高速卷积神经网络的大目标识别方法
CN116309817A (zh) 一种基于rgb-d相机的托盘检测与定位方法
CN114549825A (zh) 目标检测方法、装置、电子设备与存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20220217

Address after: Building S02, 1036 Gaoxin Langchao Road, Jinan, Shandong 250100

Applicant after: Shandong Inspur Scientific Research Institute Co.,Ltd.

Address before: North 6th floor, S05 building, Langchao Science Park, 1036 Langchao Road, hi tech Zone, Jinan City, Shandong Province, 250100

Applicant before: SHANDONG INSPUR ARTIFICIAL INTELLIGENCE RESEARCH INSTITUTE Co.,Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant