CN109934121A - 一种基于YOLOv3算法的果园行人检测方法 - Google Patents
一种基于YOLOv3算法的果园行人检测方法 Download PDFInfo
- Publication number
- CN109934121A CN109934121A CN201910128312.3A CN201910128312A CN109934121A CN 109934121 A CN109934121 A CN 109934121A CN 201910128312 A CN201910128312 A CN 201910128312A CN 109934121 A CN109934121 A CN 109934121A
- Authority
- CN
- China
- Prior art keywords
- value
- pedestrian
- prediction
- bounding box
- orchard
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开一种基于YOLOv3算法的果园行人检测方法。具体为:采集果园中行人图像;对采集的图像进行预处理,构建标准的行人检测数据集;将训练集放入修改过的Darknet‑53网络结构提取行人特征,通过K‑means聚类方法产生anchor box数来生成预测的行人边界框,使用二元交叉熵损失函数进行类别预测,并使用类似FPN网络进行多尺度融合预测;最后通过Soft‑NMS去除多余的预测边界框,输出最终的预测边界框和类别。本发明的行人检测准确率高,实时性好,针对果园环境下提出的Random Erasing等数据增广方法,增强训练模型对复杂背景的鲁棒性,采用的Soft‑NMS算法能提高检测的召回率,并且引进的组归一化Group Normalization能降低训练的模型对硬件的要求。
Description
技术领域
本发明属于深度学习、行人检测技术领域,具体涉及一种针对果园环境下智能机器人作业时基于YOLOv3算法的行人检测方法。
背景技术
近年来,随着国家对现代农业产业园创建重视以及智能机器人的发展,利用智能无人农机对果园喷洒农药、采摘水果日渐兴起,在无人农机作业过程中,需要对周围障碍物实时检测,首要考虑的是对周围行人的检测,以确保行人和车安全。本文采取计算机视觉方法结合深度学习来检测行人。
果园环境下影响行人检测发展制约因素包括果园环境光照强度不断变化;行人所处背景信息复杂;行人姿态、外形和服饰多种多样和遮挡性问题等。传统行人检测方法主要利用行人形状特征、纹理特征等来手工设计特征检测行人,如HOG、DPM等方法,然而人工设计的行人特征复杂、泛化性差。随着深度学习不断发展,基于深度学习的检测方法准确性大大超过传统方法。基于候选区域的深度学习检测方法,如R-CNN和Faster R-CNN等,由于将目标检测和和目标定位分步完成,检测速度慢,无法满足实时检测场景。
发明内容
为解决以上行人检测存在的问题以及实际中智能无人农机对检测的高精度要求,本发明提供一种基于YOLOv3算法的果园行人检测方法,将检测视作回归问题,直接利用卷积网络结构对整个图像进行处理,同时预测出检测的类别和位置。
本发明基于YOLOv3算法的果园行人检测方法,包括以下步骤:
步骤1:采集果园环境中行人图像;
采集行人在深度摄像头下拍摄的各种姿势和所处果园位置的图像,其中,所述拍摄的行人包括躺、坐、蹲、行走、站立、跑步以及距离摄像头不同距离的行人和不同遮挡情况的行人;
步骤2:对步骤1中采集的图像进行预处理,并构建标准的行人检测数据集;
先对步骤1中获得的图像进行如下操作来扩充数据:其一、对图像进行水平和垂直翻转、随机裁剪、随机角度旋转、改变图像对比度和亮度;其二、用Random Erasing方法随机选择图像中的一个任意大小的矩形区域,擦除选定区域内的像素值并对擦除的像素值赋0至255之间的随机值。再对扩充后的数据集图像用标注工具生成对应的标注及标签信息,标注信息即样本中目标的位置信息,标签信息即样本中目标所属类别,类别为人标注为person,并将数据集分为训练集和测试集。
步骤3:将步骤2中处理后制作的训练集放入卷积特征器特征提取行人特征,通过K-means聚类方法产生anchor box数来生成预测的行人边界框,并使用类似FPN网络进行多尺度融合预测来提升边界框和类别预测的准确性:
(3.1):先将步骤2中获得的训练集图像尺寸调整为608×608,并设置IOU阈值为0.6,置信度阈值为0.5;
(3.2):再将输入的图像通过进过修改的Darknet-53网络结构提取特征;
YOLOv3算法使用的特征提取网络结构为Darknet-53,它由53个卷积层和Residual结构组成,卷积核大小为3×3和1×1两种,每个卷积层均通过批归一化(BatchNormalization)和Leaky relu激活函数操作。使用组归一化(Group Normalization)替换批归一化来改善归一化操作。
(3.3):接着通过类似FPN网络对行人进行多尺度融合预测,将第82层输出的19×19特征图、第94层输出的38×38特征图和第106层输出的76×76特征图分别划分为19×19个网格、38×38个网格和76×76个网格;使用K-means聚类方法对训练集的边界框做聚类,得到合适的anchor box,并在每个网格上产生3个anchor box数来生成预测的目标边界框以及使用二元交叉熵损失函数来预测类别。
聚类使用的公式为d(box,centroid)=1-IOU(box,centroid)
其中,box为先验框,centroid为聚类中心,IOU(box,centroid)为两个区域的交并比,当d(box,centroid)小于等于度量阈值时,确定anchor box的宽高大小。
预测边界框的公式为
bx=σ(tx)+cx
by=σ(ty)+cy
其中,cx和cy为划分的单元格与图像左上角的横纵坐标的距离,pw、ph分别为预测前的边界框宽度和高度,tx和ty为预测中心相对参数,σ(tx)和σ(ty)分别是预测框中心偏离其所在单元格左上角的水平方向和垂直方向的距离,bx和by分别为预测的边界框中心的横、纵坐标,bw和bh分别为预测的边界框的宽度和高度。
预测边界框的置信度公式为
其中,Pr(object)为0或1,为0表示图像中没有目标,为1表示有目标;表示预测的边界框和实际的边界框之间的交并比,置信度(confidence score)反映是否包含目标以及包含目标情况下预测位置的准确性。置信度阈值设为0.5,则当预测的边界框置信度小于0.5时,删除预测的边界框;预测的边界框置信度大于0.5时,保留预测的边界框。
类别预测使用的二元交叉熵损失函数(binary cross-entropy loss)公式为
其中,N是训练图片的总数量;yi取值为0或1,yi取值为1表示第i张输入的图片包含行人,yi取值为0则表示第i张输入的图片不包含行人;pi值为对第i张输入的图片是否包含行人的预测的概率,pi值在0至1之间;loss为对每个训练图片的对数损失的平均值,loss越小越好。理想情况下,yi值为1时,pi值为1;yi值为0时,pi值为0。
进一步的改进,使用组归一化替代YOLOv3算法中所有卷积层上已有的批归一化。由于批归一化会受到批尺寸(batch size)影响,当批尺寸小时,批归一化算出均值和方差偏大,显著增加模型误差,降低神经网络性能;当批尺寸大时,使用的显存可能不够用。组归一化计算的是通道方向上各组的均值和方差,和批尺寸没关系,可以解决批归一化对批尺寸依赖的影响,组归一化能够满足小批尺寸时实现快速的神经网络训练并能够大大降低对于硬件的需求。
组归一化公式如下:
yi=γxi+β
其中,x是由层计算的特征,i=(iN,iC,iH,iW),i是以(N,C,H,W)顺序索引特征的矢量,其中N是batch轴,C是通道轴,H和W分别是空间高度和宽度轴,ε为一个小常数,ui为平均值,σi为标准差,Si为计算的平均值和标准差的像素集合,m是该集合的大小,yi是每个通道的线性变换,γ和β是可训练的尺度缩放值和移位值,iC和kC分别表示沿C轴的i和沿k轴的子索引;G是组的数量,它是预定义的超参数;C/G是每组的通道数,表示当每组通道沿C轴按顺序存储时,索引i和k在同一组通道中。组归一化沿(H,W)轴和沿着一组C/G通道计算μ和σ,同一组中的像素通过相同的μ和σ一起归一化。组归一化还学习每个通道的γ和β。
步骤4:最后,使用Soft-NMS来改进NMS,根据预测的边界框与实际边界框的交并比(IOU)进行Soft-NMS操作,对预测的边界框的置信度小于给定的阈值进行边界框抑制,输出最终的预测边界框和类别;
NMS将检测框按得分排序,然后只保留得分最高的框,同时删除与该框重叠面积大于一定比例的其它框;Soft-NMS思路是对不直接删除所有IOU大于阈值的检测框,而是降低其置信度
Soft-NMS函数如下:
其中,M为当前得分最高的边界框,bi为待处理框,当IOU小于阈值Nt(Nt=0.6)时,检测得分分值为si;在IOU大于阈值Nt时,检测得分分值为si(1-iou(M,bi))。bi和M的IOU越大,bi的得分si就下降的越厉害。
本发明的具有以下优点:
一、使用Random Erasing来增强数据,增强训练的模型对遮挡情景的泛化能力和鲁棒性,使训练的模型更好地处理果园中行人遮挡情景;
二、使用组归一化Group Normalization替代YOLOv3算法中所有卷积层上已有的批归一化,以此来解决批归一化对批尺寸依赖的影响,组归一化能够满足小批尺寸时实现快速神经网络训练,大大降低对于硬件的需求;
三、使用Soft-NMS来改进NMS,可以更好的去除生成框,解决两个或多个行人相互重叠时NMS出现漏检的情况,提高检测的召回率。
附图说明
图1为本发明的具体实施方式中Random Erasing示意图。(a)为输入图片(一列);(b)为Random Erasing;
图2为本发明的具体实施方式中使用组归一化Group Normalization改进归一化的示意图;(a)为改进前的示意图;(b)为改进后的示意图。
图3为本发明的具体实施方式中基于YOLOv3算法的果园行人检测方法的流程图。
图4为本发明的具体实施方式中基于YOLOv3算法的果园行人检测方法的网络结构图。
注:DBL对应代码中Darknetconv2d_BN_Leaky,为卷积模块,CONV为卷积层,GN为组归一化Group Normalization的简称,concat为张量拼接,Upsampling为上采样,resn中n为数字,res unit为各residual结构,zero padding为零填充,Resblock_body为残差模块。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图3-4所示,本发明提供一种基于YOLOv3算法的果园行人检测方法,包括以下步骤:
步骤1:采集果园环境中行人图像;
采集行人在深度摄像头下拍摄的各种姿势和所处果园位置的图像,其中,所述拍摄的行人包括躺、坐、蹲、行走、站立、跑步以及距离摄像头不同距离的行人和不同遮挡情况的行人;
步骤2:对步骤1中采集的图像进行预处理,并构建标准的行人检测数据集;
先对步骤1中获得的图像进行如下操作来扩充数据:其一、对图像进行水平和垂直翻转、随机裁剪、随机角度旋转、改变图像对比度和亮度;其二、如图1所示,用RandomErasing方法随机选择图像中的一个任意大小的矩形区域,擦除选定区域内的像素值并对擦除的像素值赋0至255之间的随机值。再对扩充后的数据集图像用LabelImg标注工具生成对应的标注及标签信息,标注信息即样本中目标的位置信息,标签信息即样本中目标所属类别,类别为人标注为person,并将数据集分为训练集和测试集。
步骤3:将步骤2中处理后制作的训练集放入卷积特征器特征提取行人特征,通过K-means聚类方法产生anchor box数来生成预测的行人边界框,并使用类似FPN网络进行多尺度融合预测来提升边界框和类别预测的准确性:
(3.1):先将步骤2中获得的训练集图像尺寸调整为608×608,并设置IOU阈值为0.6,置信度阈值为0.5,冲量momentum设置为0.9,初始学习率为0.001,权重衰减系数decay为0.0005,最大迭代次数设置为100K,从第70k次迭代开始学习率为0.0001,从第80k次迭代开始学习率为0.00005,每隔1000次迭代后保存一次模型,最终选取精度最高的模型。
(3.2):再将输入的图像通过进过修改的Darknet-53网络结构提取特征;
YOLOv3算法使用的特征提取网络结构为Darknet-53,它由53个卷积层和Residual结构组成,卷积核大小为3×3和1×1两种,每个卷积层均通过批归一化和Leaky relu激活函数操作。使用组归一化替换批归一化来改善归一化操作,如图2所示。
(3.3):接着通过类似FPN网络对行人进行多尺度融合预测,将第82层输出的19×19特征图、第94层输出的38×38特征图和第106层输出的76×76特征图分别划分为19×19个网格、38×38个网格和76×76个网格;使用K-means聚类方法对训练集的边界框做聚类,得到合适的anchor box,并在每个网格上产生3个anchor box数来生成预测的目标边界框以及使用二元交叉熵损失函数来预测类别。得到的输出维度为19×19×18、38×38×18和76×76×18,其中18为3×(4+1+1),4指4个边界框坐标信息,1分别为1个目标预测和1个类别预测。
聚类使用的公式为d(box,centroid)=1-IOU(box,centroid)
其中,box为先验框,centroid为聚类中心,IOU(box,centroid)为两个区域的交并比,令度量阈值为10-5,当d(box,centroid)小于等于度量阈值时,确定anchor box的宽高大小。
预测边界框的公式为
bx=σ(tx)+cx
by=σ(ty)+cy
其中,cx和cy为划分的单元格与图像左上角的横纵坐标的距离,pw、ph分别为预测前的边界框宽度和高度,tx和ty为预测中心相对参数,σ(tx)和σ(ty)分别是预测框中心偏离其所在单元格左上角的水平方向和垂直方向的距离,bx和by分别为预测的边界框中心的横、纵坐标,bw和bh分别为预测的边界框的宽度和高度。
预测边界框的置信度公式为
其中,Pr(object)为0或1,为0表示图像中没有目标,为1表示有目标;表示预测的边界框和实际的边界框之间的交并比,置信度(confidence score)反映是否包含目标以及包含目标情况下预测位置的准确性,置信度阈值设为0.5,则当预测的边界框置信度小于0.5时,删除预测的边界框;预测的边界框置信度大于0.5时,保留预测的边界框。
类别预测使用的二元交叉熵损失函数(binary cross-entropy loss)公式为
其中,N是训练图片的总数量;yi取值为0或1,yi取值为1表示第i张输入的图片包含行人,yi取值为0则表示第i张输入的图片不包含行人;pi值为对第i张输入的图片是否包含行人的预测的概率,pi值在0至1之间;loss为对每个训练图片的对数损失的平均值,loss越小越好。理想情况下,yi值为1时,pi值为1;yi值为0时,pi值为0。
进一步的改进,使用组归一化替代YOLOv3算法中所有卷积层上已有的批归一化。由于批归一化会受到批尺寸影响,批尺寸小时,批归一化算出均值和方差偏大,显著增加模型误差,降低神经网络性能;批尺寸大时,使用的显存可能不够用。组归一化计算的是通道方向上各组的均值和方差,和批尺寸没关系,可以解决批归一化对批尺寸依赖的影响,组归一化能够满足小批尺寸时实现快速的神经网络训练并能够大大降低对于硬件的需求。
组归一化公式如下:
yi=γxi+β
其中,x是由层计算的特征,i=(iN,iC,iH,iW),i是以(N,C,H,W)顺序索引特征的矢量,其中N是batch轴,C是通道轴,H和W分别是空间高度和宽度轴,ε为一个小常数,ui为平均值,σi为标准差,Si为计算的平均值和标准差的像素集合,m是该集合的大小,yi是每个通道的线性变换,γ和β是可训练的尺度缩放值和移位值,iC和kC分别表示沿C轴的i和沿k轴的子索引;G是组的数量,它是预定义的超参数,令G为32;C/G是每组的通道数,表示当每组通道沿C轴按顺序存储时,索引i和k在同一组通道中。组归一化沿(H,W)轴和沿着一组C/G通道计算μ和σ,同一组中的像素通过相同的μ和σ一起归一化。组归一化还学习每个通道的γ和β。
步骤4:最后,使用Soft-NMS来改进NMS,根据预测的边界框与实际边界框的交并比(IOU)进行Soft-NMS操作,对预测的边界框的置信度小于给定的阈值进行边界框抑制,输出最终的预测边界框和类别;
Soft-NMS函数如下:
其中,M为当前得分最高的边界框,bi为待处理框,当IOU小于阈值Nt(Nt=0.6)时,检测得分分值为si;在IOU大于阈值0.6时,检测得分分值为si(1-iou(M,bi))。bi和M的IOU越大,bi的得分si就下降的越厉害。NMS将检测框按得分排序,然后只保留得分最高的框,同时删除与该框重叠面积大于一定阈值的其它框,Soft-NMS思路是不直接删除所有IOU大于阈值的检测框,而是降低其置信度。使用Soft-NMS来改进NMS,可以更好的去除生成框,解决两个或多个行人相互重叠时NMS出现漏检的情况,提高检测的召回率。
本发明的一种基于改进的YOLOv3算法的果园行人检测方法,以YOLOv3算法为基础,针对果园环境中光照、遮挡等检测难点,通过在训练样本和网络结构的改进,提高行人检测的准确率和召回率,满足实时检测的要求,并降低网络模型对硬件的要求,有利于智能果园机器人发展。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示意性实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同物限定。
Claims (7)
1.一种基于改进的YOLOv3算法的果园行人检测方法,其特征在于,包括以下步骤:
步骤1:采集果园环境中行人图像;
采集行人在深度摄像头下拍摄的各种姿势和所处果园位置的图像,其中,所述拍摄的行人包括躺、坐、蹲、行走、站立、跑步以及距离摄像头不同距离的行人和不同遮挡情况的行人。
步骤2:对步骤1中采集的图像进行预处理,并构建标准的行人检测数据集;
步骤3:将步骤2中处理后制作的训练集放入卷积特征器特征提取行人特征,通过K-means聚类方法产生anchor box数来生成预测的行人边界框,并使用类似FPN网络进行多尺度融合预测来提升边界框和类别预测的准确性;
步骤4:使用软化非极大值抑制Soft-NMS算法来改进非极大值抑制NMS算法,根据预测的边界框与实际边界框的交并比IOU进行Soft-NMS操作,对预测的边界框的置信度小于给定的阈值进行边界框抑制,输出最终的预测边界框和类别。
2.根据权利要求1所述的一种基于改进的YOLOv3算法的果园行人检测方法,其特征在于:步骤2具体如下:
先对步骤1中获得的图像进行如下操作来扩充数据:其一、对图像进行水平和垂直翻转、随机裁剪、随机角度旋转、改变图像对比度和亮度;其二、用Random Erasing方法随机选择图像中的一个任意大小的矩形区域,擦除选定区域内的像素值并对擦除的像素值赋0至255之间的随机值,再对扩充后的数据集图像用标注工具生成对应的标注及标签信息,标注信息即样本中目标的位置信息,标签信息即样本中目标所属类别,类别为人标注为person,并将数据集分为训练集和测试集。
3.根据权利要求1所述的一种基于改进的YOLOv3算法的果园行人检测方法,其特征在于:步骤3具体如下:
3.1:先将步骤2中获得的训练集进行图像尺寸调整,并设置IOU阈值以及置信度阈值;
3.2:再将输入的图像通过经过修改的Darknet-53网络结构提取特征;
Darknet-53网络结构由53个卷积层和Residual结构组成,卷积核大小为3×3和1×1两种,每个卷积层均通过批归一化Batch Normalization和Leaky relu激活函数操作。使用组归一化Group Normalization替换批归一化来改善归一化操作;
3.3:接着通过类似FPN网络对行人进行多尺度融合预测,将第82层输出的19×19特征图、第94层输出的38×38特征图和第106层输出的76×76特征图分别划分为19×19个网格、38×38个网格和76×76个网格;使用K-means聚类方法对训练集的边界框做聚类,得到合适的anchor box,并在每个网格上产生3个anchor box数来生成预测的目标边界框以及使用二元交叉熵损失函数来预测类别;
聚类使用的公式为d(box,centroid)=1-IOU(box,centroid)
其中,box为先验框,centroid为聚类中心,IOU(box,centroid)为两个区域的交并比,当d(box,centroid)小于等于度量阈值时,确定anchor box的宽高大小;
预测边界框的公式为
bx=σ(tx)+cx
by=σ(ty)+cy
其中,cx和cy为划分的单元格与图像左上角的横纵坐标的距离,pw、ph分别为预测前的边界框宽度和高度,tx和ty为预测中心相对参数,σ(tx)和σ(ty)分别是预测框中心偏离其所在单元格左上角的水平方向和垂直方向的距离,bx和by分别为预测的边界框中心的横、纵坐标,bw和bh分别为预测的边界框的宽度和高度;
预测边界框的置信度公式为
其中,Pr(object)为0或1,为0表示图像中没有目标,为1表示有目标;表示预测的边界框和实际的边界框之间的交并比,类别预测使用的二元交叉熵损失函数binarycross-entropy loss公式为:
其中,N是训练图片的总数量;yi取值为0或1,yi取值为1表示第i张输入的图片包含行人,yi取值为0则表示第i张输入的图片不包含行人;pi值为对第i张输入的图片是否包含行人的预测的概率,pi值在0至1之间;loss为对每个训练图片的对数损失的平均值,loss越小越好。
4.根据权利要求3所述的一种基于改进的YOLOv3算法的果园行人检测方法,其特征在于:步骤3.1和步骤3.3中,先将步骤2中获得的训练集图像尺寸调整为608×608,并设置IOU阈值为0.6,置信度阈值设为0.5,则当预测的边界框置信度小于0.5时,删除预测的边界框;预测的边界框置信度大于0.5时,保留预测的边界框。
5.根据权利要求3所述的一种基于改进的YOLOv3算法的果园行人检测方法,其特征在于:yi值为1时,pi值为1;yi值为0时,pi值为0。
6.根据权利要求3所述的一种基于改进的YOLOv3算法的果园行人检测方法,其特征在于:使用组归一化Group Normalization替代所有卷积层上已有的批归一化;
组归一化Group Normalization公式如下:
yi=γxi+β
其中,x是由层计算的特征,i=(iN,iC,iH,iW),i是以(N,C,H,W)顺序索引特征的矢量,其中N是batch轴,C是通道轴,H和W分别是空间高度和宽度轴,ε为一个小常数,ui为平均值,σi为标准差,Si为计算的平均值和标准差的像素集合,m是该集合的大小,yi是每个通道的线性变换,γ和β是可训练的尺度缩放值和移位值,iC和kC分别表示沿C轴的i和沿k轴的子索引;G是组的数量,它是预定义的超参数;C/G是每组的通道数,表示当每组通道沿C轴按顺序存储时,索引i和k在同一组通道中,组归一化Group Normalization沿(H,W)轴和沿着一组C/G通道计算μ和σ,同一组中的像素通过相同的μ和σ一起归一化,组归一化Group Normalization还学习每个通道的γ和β。
7.根据权利要求1所述的一种基于改进的YOLOv3算法的果园行人检测方法,其特征在于:步骤4中,软化非极大值抑制Soft-NMS算法函数如下:
其中,M为当前得分最高的边界框,bi为待处理框,当IOU小于阈值Nt(Nt=0.6)时,检测得分分值为si;在IOU大于阈值Nt时,检测得分分值为si(1-iou(M,bi))。bi和M的IOU越大,bi的得分si就下降的越厉害。软化非极大值抑制Soft-NMS思路是不直接删除所有IOU大于阈值的检测框,而是降低其置信度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910128312.3A CN109934121B (zh) | 2019-02-21 | 2019-02-21 | 一种基于YOLOv3算法的果园行人检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910128312.3A CN109934121B (zh) | 2019-02-21 | 2019-02-21 | 一种基于YOLOv3算法的果园行人检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109934121A true CN109934121A (zh) | 2019-06-25 |
CN109934121B CN109934121B (zh) | 2023-06-16 |
Family
ID=66985823
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910128312.3A Active CN109934121B (zh) | 2019-02-21 | 2019-02-21 | 一种基于YOLOv3算法的果园行人检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109934121B (zh) |
Cited By (58)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110348376A (zh) * | 2019-07-09 | 2019-10-18 | 华南理工大学 | 一种基于神经网络的行人实时检测方法 |
CN110348537A (zh) * | 2019-07-18 | 2019-10-18 | 北京市商汤科技开发有限公司 | 图像处理方法及装置、电子设备和存储介质 |
CN110370273A (zh) * | 2019-06-27 | 2019-10-25 | 华为技术有限公司 | 一种机器人避障方法、装置和系统 |
CN110472640A (zh) * | 2019-08-15 | 2019-11-19 | 山东浪潮人工智能研究院有限公司 | 一种目标检测模型预测框处理方法及装置 |
CN110472572A (zh) * | 2019-08-14 | 2019-11-19 | 西北工业大学 | 一种复杂环境下海上目标的快速识别和分类方法 |
CN110516665A (zh) * | 2019-08-23 | 2019-11-29 | 上海眼控科技股份有限公司 | 识别图像叠加文字区域的神经网络模型构建方法与系统 |
CN110533098A (zh) * | 2019-08-28 | 2019-12-03 | 长安大学 | 一种基于卷积神经网络识别绿通车车厢装载类型的方法 |
CN110533105A (zh) * | 2019-08-30 | 2019-12-03 | 北京市商汤科技开发有限公司 | 一种目标检测方法及装置、电子设备和存储介质 |
CN110570377A (zh) * | 2019-09-11 | 2019-12-13 | 辽宁工程技术大学 | 一种基于组归一化的快速图像风格迁移方法 |
CN110728200A (zh) * | 2019-09-23 | 2020-01-24 | 武汉大学 | 一种基于深度学习的实时行人检测方法及系统 |
CN110795991A (zh) * | 2019-09-11 | 2020-02-14 | 西安科技大学 | 一种基于多信息融合的矿用机车行人检测方法 |
CN110852177A (zh) * | 2019-10-17 | 2020-02-28 | 北京全路通信信号研究设计院集团有限公司 | 基于单目相机的障碍物检测方法及系统 |
CN110929578A (zh) * | 2019-10-25 | 2020-03-27 | 南京航空航天大学 | 一种基于注意力机制的抗遮挡行人检测方法 |
CN110929577A (zh) * | 2019-10-23 | 2020-03-27 | 桂林电子科技大学 | 一种基于YOLOv3的轻量级框架改进的目标识别方法 |
CN110929802A (zh) * | 2019-12-03 | 2020-03-27 | 北京迈格威科技有限公司 | 基于信息熵的细分类识别模型训练、图像识别方法及装置 |
CN110942005A (zh) * | 2019-11-21 | 2020-03-31 | 网易(杭州)网络有限公司 | 物体识别方法及装置 |
CN111008994A (zh) * | 2019-11-14 | 2020-04-14 | 山东万腾电子科技有限公司 | 基于MPSoC的运动目标实时检测跟踪系统及方法 |
CN111046787A (zh) * | 2019-12-10 | 2020-04-21 | 华侨大学 | 一种基于改进YOLO v3模型的行人检测方法 |
CN111062429A (zh) * | 2019-12-12 | 2020-04-24 | 上海点泽智能科技有限公司 | 基于深度学习的厨师帽和口罩佩戴的检测方法 |
CN111144475A (zh) * | 2019-12-22 | 2020-05-12 | 上海眼控科技股份有限公司 | 车厢座位的确定方法、装置、电子设备及可读存储介质 |
CN111209907A (zh) * | 2019-12-20 | 2020-05-29 | 广西柳州联耕科技有限公司 | 一种复杂光污染环境下产品特征图像人工智能识别方法 |
CN111223128A (zh) * | 2020-01-17 | 2020-06-02 | 深圳大学 | 目标跟踪方法、装置、设备及存储介质 |
CN111259973A (zh) * | 2020-01-20 | 2020-06-09 | 太原理工大学 | 一种提高实时目标检测系统中均值平均精度的方法 |
CN111274894A (zh) * | 2020-01-15 | 2020-06-12 | 太原科技大学 | 一种基于改进YOLOv3的人员在岗状态检测方法 |
CN111310759A (zh) * | 2020-02-13 | 2020-06-19 | 中科智云科技有限公司 | 双模式协作的目标检测抑制优化方法及设备 |
CN111353393A (zh) * | 2020-02-19 | 2020-06-30 | 桂林电子科技大学 | 一种基于神经网络的犬只检测与预警系统 |
CN111414887A (zh) * | 2020-03-30 | 2020-07-14 | 上海高重信息科技有限公司 | 基于yolov3算法的二次检测口罩人脸识别方法 |
CN111429418A (zh) * | 2020-03-19 | 2020-07-17 | 天津理工大学 | 一种基于YOLO v3神经网络的工业零件检测方法 |
CN111429486A (zh) * | 2020-04-27 | 2020-07-17 | 山东万腾电子科技有限公司 | 基于dnndk模型的运动目标实时检测跟踪系统及方法 |
CN111507179A (zh) * | 2020-03-04 | 2020-08-07 | 杭州电子科技大学 | 一种生猪采食行为分析方法 |
CN111553201A (zh) * | 2020-04-08 | 2020-08-18 | 东南大学 | 一种基于YOLOv3优化算法的交通灯检测方法 |
CN111567331A (zh) * | 2020-05-11 | 2020-08-25 | 西南科技大学 | 一种基于深度卷积神经网络的草地垃圾自动清理机及方法 |
CN111626128A (zh) * | 2020-04-27 | 2020-09-04 | 江苏大学 | 一种基于改进YOLOv3的果园环境下行人检测方法 |
CN111797795A (zh) * | 2020-07-13 | 2020-10-20 | 燕山大学 | 一种基于YOLOv3与SSR的行人检测算法 |
CN111986156A (zh) * | 2020-07-20 | 2020-11-24 | 华南理工大学 | 一种斧状利器检测方法、系统、装置和存储介质 |
CN112016503A (zh) * | 2020-09-04 | 2020-12-01 | 平安国际智慧城市科技股份有限公司 | 人行道检测方法、装置、计算机设备及存储介质 |
CN112016614A (zh) * | 2020-08-27 | 2020-12-01 | 北京理工大学 | 光学图像目标检测模型的构建方法、目标检测方法及装置 |
CN112016605A (zh) * | 2020-08-19 | 2020-12-01 | 浙江大学 | 一种基于边界框角点对齐和边界匹配的目标检测方法 |
CN112131933A (zh) * | 2020-08-11 | 2020-12-25 | 安徽大学 | 一种基于改进yolo网络的快速行人检测方法与系统 |
CN112257527A (zh) * | 2020-10-10 | 2021-01-22 | 西南交通大学 | 基于多目标融合与时空视频序列的手机检测方法 |
CN112270827A (zh) * | 2020-06-23 | 2021-01-26 | 北京航空航天大学 | 一种车路协同系统以及道路行人检测方法 |
CN112434583A (zh) * | 2020-11-14 | 2021-03-02 | 武汉中海庭数据技术有限公司 | 车道横向减速标线检测方法、系统、电子设备及存储介质 |
CN112488006A (zh) * | 2020-12-05 | 2021-03-12 | 东南大学 | 一种基于小麦图像的目标检测算法 |
CN112529915A (zh) * | 2020-12-17 | 2021-03-19 | 山东大学 | 一种脑肿瘤图像分割方法及系统 |
CN112541483A (zh) * | 2020-12-25 | 2021-03-23 | 三峡大学 | Yolo和分块-融合策略结合的稠密人脸检测方法 |
CN112613387A (zh) * | 2020-12-18 | 2021-04-06 | 五邑大学 | 一种基于YOLOv3的交通标志检测方法 |
CN112686285A (zh) * | 2020-12-18 | 2021-04-20 | 福建新大陆软件工程有限公司 | 一种基于计算机视觉的工程质量检测方法及系统 |
CN112766188A (zh) * | 2021-01-25 | 2021-05-07 | 浙江科技学院 | 一种基于改进yolo算法的小目标行人检测方法 |
CN113158954A (zh) * | 2021-04-30 | 2021-07-23 | 杭州电子科技大学 | 交通非现场的基于ai技术的斑马线区域自动检测方法 |
CN113158738A (zh) * | 2021-01-28 | 2021-07-23 | 中南大学 | 一种基于注意力机制的港口环境下目标检测方法、系统、终端及可读存储介质 |
CN113298181A (zh) * | 2021-06-16 | 2021-08-24 | 合肥工业大学智能制造技术研究院 | 基于密集连接的Yolov3网络的井下管道异常目标识别方法及系统 |
CN113378753A (zh) * | 2021-06-23 | 2021-09-10 | 华南农业大学 | 一种基于改进YOLOv4的苗期水稻田边界目标识别方法 |
CN113822169A (zh) * | 2021-08-30 | 2021-12-21 | 江苏大学 | 一种基于改进pp-yolo的果园树木行人检测方法 |
CN113888513A (zh) * | 2021-09-30 | 2022-01-04 | 电子科技大学 | 一种基于深度神经网络模型的钢筋检测计数方法 |
CN114444622A (zh) * | 2022-04-11 | 2022-05-06 | 中国科学院微电子研究所 | 一种基于神经网络模型的水果检测系统和方法 |
CN114973320A (zh) * | 2022-05-17 | 2022-08-30 | 中国矿业大学 | 一种基于深度信息的煤矿井下人员检测方法 |
CN116634638A (zh) * | 2023-05-16 | 2023-08-22 | 珠海光通智装科技有限公司 | 灯光控制策略的生成方法、灯光控制方法以及相关装置 |
CN112766188B (zh) * | 2021-01-25 | 2024-05-10 | 浙江科技学院 | 一种基于改进yolo算法的小目标行人检测方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108985186A (zh) * | 2018-06-27 | 2018-12-11 | 武汉理工大学 | 一种基于改进YOLOv2的无人驾驶中行人检测方法 |
CN109241814A (zh) * | 2018-06-26 | 2019-01-18 | 武汉科技大学 | 基于yolo神经网络的行人检测方法 |
-
2019
- 2019-02-21 CN CN201910128312.3A patent/CN109934121B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109241814A (zh) * | 2018-06-26 | 2019-01-18 | 武汉科技大学 | 基于yolo神经网络的行人检测方法 |
CN108985186A (zh) * | 2018-06-27 | 2018-12-11 | 武汉理工大学 | 一种基于改进YOLOv2的无人驾驶中行人检测方法 |
Cited By (79)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110370273A (zh) * | 2019-06-27 | 2019-10-25 | 华为技术有限公司 | 一种机器人避障方法、装置和系统 |
CN110370273B (zh) * | 2019-06-27 | 2021-04-09 | 华为技术有限公司 | 一种机器人避障方法、装置和系统 |
CN110348376A (zh) * | 2019-07-09 | 2019-10-18 | 华南理工大学 | 一种基于神经网络的行人实时检测方法 |
CN110348537A (zh) * | 2019-07-18 | 2019-10-18 | 北京市商汤科技开发有限公司 | 图像处理方法及装置、电子设备和存储介质 |
CN110472572A (zh) * | 2019-08-14 | 2019-11-19 | 西北工业大学 | 一种复杂环境下海上目标的快速识别和分类方法 |
CN110472640A (zh) * | 2019-08-15 | 2019-11-19 | 山东浪潮人工智能研究院有限公司 | 一种目标检测模型预测框处理方法及装置 |
CN110472640B (zh) * | 2019-08-15 | 2022-03-15 | 山东浪潮科学研究院有限公司 | 一种目标检测模型预测框处理方法及装置 |
CN110516665A (zh) * | 2019-08-23 | 2019-11-29 | 上海眼控科技股份有限公司 | 识别图像叠加文字区域的神经网络模型构建方法与系统 |
CN110533098A (zh) * | 2019-08-28 | 2019-12-03 | 长安大学 | 一种基于卷积神经网络识别绿通车车厢装载类型的方法 |
CN110533098B (zh) * | 2019-08-28 | 2022-03-29 | 长安大学 | 一种基于卷积神经网络识别绿通车车厢装载类型的方法 |
CN110533105A (zh) * | 2019-08-30 | 2019-12-03 | 北京市商汤科技开发有限公司 | 一种目标检测方法及装置、电子设备和存储介质 |
CN110533105B (zh) * | 2019-08-30 | 2022-04-05 | 北京市商汤科技开发有限公司 | 一种目标检测方法及装置、电子设备和存储介质 |
CN110570377A (zh) * | 2019-09-11 | 2019-12-13 | 辽宁工程技术大学 | 一种基于组归一化的快速图像风格迁移方法 |
CN110795991A (zh) * | 2019-09-11 | 2020-02-14 | 西安科技大学 | 一种基于多信息融合的矿用机车行人检测方法 |
CN110795991B (zh) * | 2019-09-11 | 2023-03-31 | 西安科技大学 | 一种基于多信息融合的矿用机车行人检测方法 |
CN110728200A (zh) * | 2019-09-23 | 2020-01-24 | 武汉大学 | 一种基于深度学习的实时行人检测方法及系统 |
CN110852177A (zh) * | 2019-10-17 | 2020-02-28 | 北京全路通信信号研究设计院集团有限公司 | 基于单目相机的障碍物检测方法及系统 |
CN110852177B (zh) * | 2019-10-17 | 2022-09-09 | 北京全路通信信号研究设计院集团有限公司 | 基于单目相机的障碍物检测方法及系统 |
CN110929577A (zh) * | 2019-10-23 | 2020-03-27 | 桂林电子科技大学 | 一种基于YOLOv3的轻量级框架改进的目标识别方法 |
CN110929578A (zh) * | 2019-10-25 | 2020-03-27 | 南京航空航天大学 | 一种基于注意力机制的抗遮挡行人检测方法 |
CN110929578B (zh) * | 2019-10-25 | 2023-08-08 | 南京航空航天大学 | 一种基于注意力机制的抗遮挡行人检测方法 |
CN111008994A (zh) * | 2019-11-14 | 2020-04-14 | 山东万腾电子科技有限公司 | 基于MPSoC的运动目标实时检测跟踪系统及方法 |
CN110942005A (zh) * | 2019-11-21 | 2020-03-31 | 网易(杭州)网络有限公司 | 物体识别方法及装置 |
CN110929802A (zh) * | 2019-12-03 | 2020-03-27 | 北京迈格威科技有限公司 | 基于信息熵的细分类识别模型训练、图像识别方法及装置 |
CN111046787A (zh) * | 2019-12-10 | 2020-04-21 | 华侨大学 | 一种基于改进YOLO v3模型的行人检测方法 |
CN111062429A (zh) * | 2019-12-12 | 2020-04-24 | 上海点泽智能科技有限公司 | 基于深度学习的厨师帽和口罩佩戴的检测方法 |
CN111209907A (zh) * | 2019-12-20 | 2020-05-29 | 广西柳州联耕科技有限公司 | 一种复杂光污染环境下产品特征图像人工智能识别方法 |
CN111209907B (zh) * | 2019-12-20 | 2023-04-07 | 广西柳州联耕科技有限公司 | 一种复杂光污染环境下产品特征图像人工智能识别方法 |
CN111144475A (zh) * | 2019-12-22 | 2020-05-12 | 上海眼控科技股份有限公司 | 车厢座位的确定方法、装置、电子设备及可读存储介质 |
CN111274894A (zh) * | 2020-01-15 | 2020-06-12 | 太原科技大学 | 一种基于改进YOLOv3的人员在岗状态检测方法 |
CN111223128A (zh) * | 2020-01-17 | 2020-06-02 | 深圳大学 | 目标跟踪方法、装置、设备及存储介质 |
CN111259973A (zh) * | 2020-01-20 | 2020-06-09 | 太原理工大学 | 一种提高实时目标检测系统中均值平均精度的方法 |
CN111310759B (zh) * | 2020-02-13 | 2024-03-01 | 中科智云科技有限公司 | 双模式协作的目标检测抑制优化方法及设备 |
CN111310759A (zh) * | 2020-02-13 | 2020-06-19 | 中科智云科技有限公司 | 双模式协作的目标检测抑制优化方法及设备 |
CN111353393A (zh) * | 2020-02-19 | 2020-06-30 | 桂林电子科技大学 | 一种基于神经网络的犬只检测与预警系统 |
CN111507179A (zh) * | 2020-03-04 | 2020-08-07 | 杭州电子科技大学 | 一种生猪采食行为分析方法 |
CN111429418A (zh) * | 2020-03-19 | 2020-07-17 | 天津理工大学 | 一种基于YOLO v3神经网络的工业零件检测方法 |
CN111414887B (zh) * | 2020-03-30 | 2021-01-29 | 上海高重信息科技有限公司 | 基于yolov3算法的二次检测口罩人脸识别方法 |
CN111414887A (zh) * | 2020-03-30 | 2020-07-14 | 上海高重信息科技有限公司 | 基于yolov3算法的二次检测口罩人脸识别方法 |
CN111553201A (zh) * | 2020-04-08 | 2020-08-18 | 东南大学 | 一种基于YOLOv3优化算法的交通灯检测方法 |
CN111553201B (zh) * | 2020-04-08 | 2024-03-29 | 东南大学 | 一种基于YOLOv3优化算法的交通灯检测方法 |
CN111626128B (zh) * | 2020-04-27 | 2023-07-21 | 江苏大学 | 一种基于改进YOLOv3的果园环境下行人检测方法 |
CN111626128A (zh) * | 2020-04-27 | 2020-09-04 | 江苏大学 | 一种基于改进YOLOv3的果园环境下行人检测方法 |
CN111429486A (zh) * | 2020-04-27 | 2020-07-17 | 山东万腾电子科技有限公司 | 基于dnndk模型的运动目标实时检测跟踪系统及方法 |
CN111567331A (zh) * | 2020-05-11 | 2020-08-25 | 西南科技大学 | 一种基于深度卷积神经网络的草地垃圾自动清理机及方法 |
CN112270827A (zh) * | 2020-06-23 | 2021-01-26 | 北京航空航天大学 | 一种车路协同系统以及道路行人检测方法 |
CN111797795A (zh) * | 2020-07-13 | 2020-10-20 | 燕山大学 | 一种基于YOLOv3与SSR的行人检测算法 |
CN111986156A (zh) * | 2020-07-20 | 2020-11-24 | 华南理工大学 | 一种斧状利器检测方法、系统、装置和存储介质 |
CN112131933A (zh) * | 2020-08-11 | 2020-12-25 | 安徽大学 | 一种基于改进yolo网络的快速行人检测方法与系统 |
CN112016605A (zh) * | 2020-08-19 | 2020-12-01 | 浙江大学 | 一种基于边界框角点对齐和边界匹配的目标检测方法 |
CN112016605B (zh) * | 2020-08-19 | 2022-05-27 | 浙江大学 | 一种基于边界框角点对齐和边界匹配的目标检测方法 |
CN112016614A (zh) * | 2020-08-27 | 2020-12-01 | 北京理工大学 | 光学图像目标检测模型的构建方法、目标检测方法及装置 |
CN112016614B (zh) * | 2020-08-27 | 2022-10-11 | 北京理工大学 | 光学图像目标检测模型的构建方法、目标检测方法及装置 |
CN112016503B (zh) * | 2020-09-04 | 2024-01-23 | 平安国际智慧城市科技股份有限公司 | 人行道检测方法、装置、计算机设备及存储介质 |
CN112016503A (zh) * | 2020-09-04 | 2020-12-01 | 平安国际智慧城市科技股份有限公司 | 人行道检测方法、装置、计算机设备及存储介质 |
CN112257527A (zh) * | 2020-10-10 | 2021-01-22 | 西南交通大学 | 基于多目标融合与时空视频序列的手机检测方法 |
CN112257527B (zh) * | 2020-10-10 | 2022-09-02 | 西南交通大学 | 基于多目标融合与时空视频序列的手机检测方法 |
CN112434583A (zh) * | 2020-11-14 | 2021-03-02 | 武汉中海庭数据技术有限公司 | 车道横向减速标线检测方法、系统、电子设备及存储介质 |
CN112488006A (zh) * | 2020-12-05 | 2021-03-12 | 东南大学 | 一种基于小麦图像的目标检测算法 |
CN112529915A (zh) * | 2020-12-17 | 2021-03-19 | 山东大学 | 一种脑肿瘤图像分割方法及系统 |
CN112686285B (zh) * | 2020-12-18 | 2023-06-02 | 福建新大陆软件工程有限公司 | 一种基于计算机视觉的工程质量检测方法及系统 |
CN112613387A (zh) * | 2020-12-18 | 2021-04-06 | 五邑大学 | 一种基于YOLOv3的交通标志检测方法 |
CN112686285A (zh) * | 2020-12-18 | 2021-04-20 | 福建新大陆软件工程有限公司 | 一种基于计算机视觉的工程质量检测方法及系统 |
CN112541483A (zh) * | 2020-12-25 | 2021-03-23 | 三峡大学 | Yolo和分块-融合策略结合的稠密人脸检测方法 |
CN112541483B (zh) * | 2020-12-25 | 2024-05-17 | 深圳市富浩鹏电子有限公司 | Yolo和分块-融合策略结合的稠密人脸检测方法 |
CN112766188B (zh) * | 2021-01-25 | 2024-05-10 | 浙江科技学院 | 一种基于改进yolo算法的小目标行人检测方法 |
CN112766188A (zh) * | 2021-01-25 | 2021-05-07 | 浙江科技学院 | 一种基于改进yolo算法的小目标行人检测方法 |
CN113158738A (zh) * | 2021-01-28 | 2021-07-23 | 中南大学 | 一种基于注意力机制的港口环境下目标检测方法、系统、终端及可读存储介质 |
CN113158954A (zh) * | 2021-04-30 | 2021-07-23 | 杭州电子科技大学 | 交通非现场的基于ai技术的斑马线区域自动检测方法 |
CN113158954B (zh) * | 2021-04-30 | 2024-04-05 | 杭州电子科技大学 | 交通非现场的基于ai技术的斑马线区域自动检测方法 |
CN113298181A (zh) * | 2021-06-16 | 2021-08-24 | 合肥工业大学智能制造技术研究院 | 基于密集连接的Yolov3网络的井下管道异常目标识别方法及系统 |
CN113378753A (zh) * | 2021-06-23 | 2021-09-10 | 华南农业大学 | 一种基于改进YOLOv4的苗期水稻田边界目标识别方法 |
CN113822169A (zh) * | 2021-08-30 | 2021-12-21 | 江苏大学 | 一种基于改进pp-yolo的果园树木行人检测方法 |
CN113822169B (zh) * | 2021-08-30 | 2024-03-19 | 江苏大学 | 一种基于改进pp-yolo的果园树木行人检测方法 |
CN113888513A (zh) * | 2021-09-30 | 2022-01-04 | 电子科技大学 | 一种基于深度神经网络模型的钢筋检测计数方法 |
CN114444622B (zh) * | 2022-04-11 | 2022-06-17 | 中国科学院微电子研究所 | 一种基于神经网络模型的水果检测系统和方法 |
CN114444622A (zh) * | 2022-04-11 | 2022-05-06 | 中国科学院微电子研究所 | 一种基于神经网络模型的水果检测系统和方法 |
CN114973320A (zh) * | 2022-05-17 | 2022-08-30 | 中国矿业大学 | 一种基于深度信息的煤矿井下人员检测方法 |
CN116634638A (zh) * | 2023-05-16 | 2023-08-22 | 珠海光通智装科技有限公司 | 灯光控制策略的生成方法、灯光控制方法以及相关装置 |
Also Published As
Publication number | Publication date |
---|---|
CN109934121B (zh) | 2023-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109934121A (zh) | 一种基于YOLOv3算法的果园行人检测方法 | |
CN110929578B (zh) | 一种基于注意力机制的抗遮挡行人检测方法 | |
CN111795704B (zh) | 一种视觉点云地图的构建方法、装置 | |
CN107229904A (zh) | 一种基于深度学习的目标检测与识别方法 | |
CN112270249A (zh) | 一种融合rgb-d视觉特征的目标位姿估计方法 | |
CN109241913A (zh) | 结合显著性检测和深度学习的船只检测方法及系统 | |
CN111626128A (zh) | 一种基于改进YOLOv3的果园环境下行人检测方法 | |
CN105205453B (zh) | 基于深度自编码器的人眼检测和定位方法 | |
CN109508675B (zh) | 一种针对复杂场景的行人检测方法 | |
CN107330357A (zh) | 基于深度神经网络的视觉slam闭环检测方法 | |
CN109191455A (zh) | 一种基于ssd卷积网络的大田作物病虫害检测方法 | |
CN105740915B (zh) | 一种融合感知信息的协同分割方法 | |
CN110765865B (zh) | 基于改进的yolo算法的水下目标检测方法 | |
CN111709285A (zh) | 一种基于无人机的疫情防护监控方法、装置和存储介质 | |
CN109685037A (zh) | 一种实时动作识别方法、装置及电子设备 | |
CN108629288A (zh) | 一种手势识别模型训练方法、手势识别方法及系统 | |
CN109671102A (zh) | 一种基于深度特征融合卷积神经网络的综合式目标跟踪方法 | |
CN106372597B (zh) | 基于自适应上下文信息的cnn交通检测方法 | |
CN114758288A (zh) | 一种配电网工程安全管控检测方法及装置 | |
CN109145836A (zh) | 基于深度学习网络和卡尔曼滤波的船只目标视频检测方法 | |
CN110334656A (zh) | 基于信源概率加权的多源遥感图像水体提取方法及装置 | |
CN110222767A (zh) | 基于嵌套神经网络和栅格地图的三维点云分类方法 | |
CN109829353A (zh) | 一种基于空间约束的人脸图像风格化方法 | |
CN108764244A (zh) | 基于卷积神经网络和条件随机场的潜在目标区域检测方法 | |
Xu et al. | Real-time and accurate detection of citrus in complex scenes based on HPL-YOLOv4 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |