CN109711262A - 一种基于深度卷积神经网络的智能挖掘机行人检测方法 - Google Patents

一种基于深度卷积神经网络的智能挖掘机行人检测方法 Download PDF

Info

Publication number
CN109711262A
CN109711262A CN201811438551.0A CN201811438551A CN109711262A CN 109711262 A CN109711262 A CN 109711262A CN 201811438551 A CN201811438551 A CN 201811438551A CN 109711262 A CN109711262 A CN 109711262A
Authority
CN
China
Prior art keywords
algorithm
frame
pedestrian
picture
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811438551.0A
Other languages
English (en)
Other versions
CN109711262B (zh
Inventor
宋学官
贾兆柱
郭佳鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian University of Technology
Original Assignee
Dalian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian University of Technology filed Critical Dalian University of Technology
Priority to CN201811438551.0A priority Critical patent/CN109711262B/zh
Publication of CN109711262A publication Critical patent/CN109711262A/zh
Application granted granted Critical
Publication of CN109711262B publication Critical patent/CN109711262B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明提供了一种基于深度卷积神经网络的智能挖掘机行人检测方法,具体是指为了避免挖掘机在挖掘过程中发生安全事故,而将行人检测算法应用其中,通过检测行人框的大小,估算行人距挖掘机的距离,从而减少安全事故,实现智能化。本发明的检测方法在构建挖掘工况下,特定的行人检测数据集,并搭建了一个单阶段的行人检测的深度卷积神经网络算法,该算法并没有包含区域候选网络,速度明显比两阶段检测算法要快,通过融合不同阶段的特征信息来解决多尺度多姿态检测的困难问题,并且采用Focal Loss来提高检测精度。

Description

一种基于深度卷积神经网络的智能挖掘机行人检测方法
技术领域
本发明涉及一种基于深度卷积神经网络的智能挖掘机行人检测方法(DCNN),具体来说,是指为了避免挖掘机在挖掘过程中发生安全事故,而将行人检测算法应用其中,通过检测行人框的大小,估算行人距挖掘机的距离,从而减少安全事故,实现智能化。
背景技术
本发明依托背景是现在挖掘机都依靠人工操作,而重复高强度的工作强度极容易造成挖掘工作人员疲劳而带来安全事故的隐患。而智能化的行人检测算法可以实现挖掘设备的辅助操作,一定程度上可以减轻挖掘工作人员的工作强度。
行人检测是计算机视觉的研究方向之一,在智能驾驶、安防监控等领域有着较广泛的应用,越来越多的研究人员投入其中。具体来说,行人检测是指判定所给图片或者视频中是否包含行人,如果有行人标定其具体位置,位置标定是通过矩形框标出。在检测的图片样本中,行人可以是不同姿态的,可以保持站立也可以弯腰,行人站立的方向也可以位于不同角度,正面,侧面或是背面,只要样本中有行人,那么都应该在检测范围之内。
传统的行人检测主要通过HOG+SVM来实现,HOG(Histogram of OrientedGradient)是指提取图片的HOG特征,SVM(Support Vector Machine)即支持向量机用来进行分类,这种方法使用人工特征来统计计算图像的梯度方向直方图结合SVM分类器来检测行人,虽然它在直立姿态行人图像上取得不错的效果,但是在行人相互遮挡以及非直立状态下效果不好,泛化能力较差。近些年卷积神经网络在图像识别检测领域产生越来越好的结果,RCNN(Regions with CNN features)等一系列目标检测模型的精度远远超过传统方法。但是这种两阶段的网络虽然对一般尺度行人检测精度高但是其速度较慢,无法满足实时检测的需求,而且对小尺度目标行人的检测精度较低。而像YOLO(You Only Look Once)、SSD(Single Shot MultiBox Detector)这样一阶段的网络模型速度虽然快但精度低,无法满足实际需求。
因而,为了克服行人检测,尤其是挖掘工况下行人检测存在的缺陷,即行人目标存在的多尺度多姿态问题、检测精度与速度存在较大矛盾而无法满足工程需要的问题,本发明提出来一种单阶段检测的深度卷积神经网络的算法(DCNN)来进行挖掘工况下智能挖掘机行人检测。该方法通过自己构建行人数据集来训练神经网络算法,算法通过融合不同阶段的特征信息来解决多尺度多姿态检测的困难问题,借鉴了两阶段目标检测算法的anchor机制提高召回率,但保持了单阶段网络的速度。同时,本方法通过适当的调整便可推广到其他类型的行人检测工况下,普适性更广。
发明内容
本发明针对智能挖掘机行人检测算法存在的多尺度多姿态问题,本发明提供了一种基于深度卷积神经网络算法的智能挖掘机行人检测方法(DCNN)。
本发明的技术方案为:
一种基于深度卷积神经网络的智能挖掘机行人检测方法,步骤如下:
S1根据在挖掘现场采集到的大量多样的行人图像数据,构建矿场的行人数据集(MPD),用于训练和测试深度卷积神经网络算法的数据;
S1.1采集挖掘矿区在不同天气、不同时刻的无人体的各种矿山背景图片作为负样本图片,共3000张;
S1.2采集挖掘矿区在上述不同情况下的行人图片,图片中人体的姿态、尺度、背景光照应多样,图片应该包含挖掘机日常工作所能拍摄的所有可能的情况,为正样本图片,共采集7000张;
S2将现场采集到的图像数据进行预处理,以去除噪声和冗余信息,并标注深度卷积神经网络算法所需要的图片上的位置信息来构建完整的行人数据集(MPD);
S2.1将步骤S1收集到的图片样本进行高斯滤波,直方图均衡化来去除噪声和图片增强;训练集包含8000张图片,测试集包含2000张图片,训练集和测试集各包含一半的正样本图片和一半的负样本图片;
S2.2使用IabelImg标注正样本图片中行人框的坐标,即行人框的左上角坐标和右下角X-Y坐标,生成相应的xml文件,该xml文件包含行人框的坐标信息和正样本图片的绝对路径;行人框的坐标信息即为坐标框;
S3根据目标检测算法的常用模型,搭建本方法所用的深度卷积神经网络算法,具体步骤如下:
S3.1使用TensorFlow深度学习框架来搭建此算法,主网络基本结构借鉴Resnet网络的残差结构,即特征信息依次通过1*1、3*3、1*1的卷积操作,然后与原始信息相加,最后经过Prelu激活函数输出;图片输入网络先通过7*7的卷积操作,最大池化操作,之后经过4个Bottleneck,每个Bottleneck将特征尺度缩小一倍,通道数增加一倍,4个Bottleneck包含的残差结构的数目为3、4、6、3,输出特征记为C2、C3、C4、C5;
S3.2特征融合的结构是C5经过1*1卷积,将通道数改为256,记为P5;P5经过最近邻差值增加特征的尺度并与C4经过1*1卷积的特征相加得到P4,同理得到P3;
S3.3P3、P4、P5每个特征点产生9个预选框,宽高比是{1,2,3},尺度系数为预选框与坐标框标签的交并比大于0.7时,该预选框的标签为1,预选框与坐标框标签的交并比小于0.3时,预选框的标签为0,其余预选框的标签是-1,不用考虑;
S3.4类别分类结构和边框回归结构是依次将特征P3、P4、P5分别经过四个3*3通道数为256的卷积操作,类别分类结构再经过3*3通道数为1*9的卷积操作,而边框回归结构再经过3*3通道数为4*9的卷积操作;
S3.5边框回归结构的公式如下:
其中,x、y、w、h分别为坐标框标签的中心点x-y坐标、宽、高,xa、ya、wa、ha分别为预选框的中心点x-y坐标、宽、高;
S3.6类别分类结构的损失函数采用Focal Loss,形式如下:
FL(pt)=-αt(1-pt)γlog(pt)
其中,αt为类别不平衡系数,γ为难易样本的比例系数,pt为预测的前景概率;
S3.7边框回归结构所采用的损失函数是Smooth L1 Loss,形式如下:
S4为了使深度卷积神经网络算法更快收敛,使用ImageNet公开数据集预训练神经网络算法的主网络模型,具体步骤如下:
S4.1图片数据输入网络前先对其进行随机翻折、旋转、平移缩放以及改变对比度来保证输入数据的多样性,提高算法的泛化能力,降低过拟合现象;之后进行归一化处理,然后送入网络进行训练;
S4.2去掉算法的分类回归部分,在主网络后加全连接层,使用ImageNet数据集训练主网络结构;这样做主要是为了使算法参数的初始化值合理,加快算法收敛;
S4.3在经过S1与S2步骤构建的行人数据集(MPD)上训练搭建的网络,优化器是Adam,初始学习率0.0001,batch_size为5,训练50epoch,总损失值从2.56降到0.35;
S5将标注好的图像数据分成训练数据集和测试数据集,用训练集来训练搭建好的神经网络算法;
S6构建soft-NMS算法,以有效去除神经网络算法生成的多余候选框,已达到一人一框,具体步骤如下:
S6.1将置信度大于0的预选框取出,按置信度大小对预选框进行排序;
S6.2置信度最高的预选框与其他预选框取交并比值i0;
S6.3交并比值i0小于阈值0.5的那些其他预选框的置信度不变,而交并比值i0大于等于阈值0.5的那些预选框的置信度改为1-i0;
S6.4将置信度最大的预选框取出,如果置信度大于0.3,将剩余的预选框返回S6.1继续执行算法,否则退出算法,将取出的高置信度预选框作为算法最终预测的包含行人的坐标框;
行人检测算法的评价指标主要是当每张图片的假正数(False Positive PerImage)为0.1时,漏检率(Miss Rate)的大小,漏检率越小代表算法效果越好;
S7.使用测试集测试训练好的算法模型,若达不到精度,调节学习率等超参数重新训练算法模型。
本发明的有益效果:构建挖掘工况下,特定的行人检测数据集,并搭建了一个单阶段的行人检测的深度卷积神经网络算法,该算法并没有包含区域候选网络,速度明显比两阶段检测算法要快,通过融合不同阶段的特征信息来解决多尺度多姿态检测的困难问题,并且采用Focal Loss来提高检测精度。
附图说明
图1为基于深度卷积神经网络DCNN的智能挖掘机行人检测算法示意图;
图2为基于深度卷积神经网络DCNN算法流程图;
图3为基于深度卷积神经网络DCNN算法结构示意图;
图4为DCNN算法不同网络层输出的可视化结果;
图5为DCNN算法的分类损失、回归损失和总损失随训练Epoch数的变化情况;
图6为比较该DCNN算法与其他流行的行人检测算法的漏检率。
具体实施方式
下面结合附图对本发明作进一步说明,本发明依托背景为智能挖掘机行人检测的多尺度多姿态问题,检测算法示意图如图1所示。
一种基于深度卷积神经网络算法的智能挖掘机行人检测方法,包括以下步骤:
S1.根据在挖掘现场采集到的大量多样的行人图像数据,生成用于训练和测试深度卷积神经网络算法的数据;
S2.将现场采集到的图像数据进行预处理,以去除噪声和冗余信息,并标注神经网络算法所需要的图片上的位置信息;
S3.根据流行的通用目标检测算法的常用模型,搭建本发明所用的深度卷积神经网络算法;
S4.为了使神经网络算法更快收敛,使用ImageNet公开数据集预训练神经网络算法的主网络模型;
S5.将标注好的图像数据分成训练数据集和测试数据集,用训练集来训练搭建好的神经网络算法;
S6.构建soft-NMS算法,以有效去除神经网络算法生成的多余候选框,已达到一人一框;
S7.使用测试集测试训练好的算法模型,若达不到精度,调节学习率等超参数重新训练算法模型。
其中,采集用于训练和测试深度卷积神经网络算法的行人图像数据,用于构建矿场专用的行人数据集(MPD)的步骤如下:
S1.采集挖掘矿区在不同天气、不同时刻的不含人体的各种矿山背景图片作为负样本图片,一共有3000张;
S2.采集挖掘矿区在上述不同情况下的行人图片,图片中人体的姿态、尺度、背景光照应多样,图片应该包含挖掘机日常工作所能拍摄的所有可能的情况,一共采集到7000张;
图像数据进行预处理并标注神经网络算法所需要的图片上的位置信息的步骤如下:
S1.将收集到的图片样本进行高斯滤波,直方图均衡化来去除噪声和图片增强;训练集包含8000张图片,测试集包含2000张图片,训练集和测试集各包含一半的正样本和一半的负样本。
S2.使用IabelImg标注正样本图片中行人框的坐标,具体就是行人框的左上角坐标和右下角X-Y坐标,生成相应的xml文件,该文件除了框坐标信息,还应包含图片文件的绝对路径,
搭建本发明所用的深度卷积神经网络算法(DCNN),具体步骤如下:
S1.使用TensorFlow深度学习框架来搭建此算法,主网络基本结构借鉴Resnet网络的残差结构,即特征信息依次通过1*1、3*3、1*1的卷积操作,然后与原始信息相加,最后经过Prelu激活函数输出。图片信息输入网络先通过7*7的卷积操作,最大池化操作,之后经过4个Bottleneck,每个Bottleneck将特征尺度缩小一倍,通道数增加一倍,4个Bottleneck包含的残差结构的数目为3、4、6、3,输出特征记为C2、C3、C4、C5,算法的C2、C3、C4、C5层输出特征的可视化结果如图3所示。
S2.特征融合的结构是C5经过1*1卷积,将通道数改为256,记为P5,P5经过最近邻差值增加特征的尺度并与C4经过1*1卷积的特征相加得到P4,同理可以得到P3;
S3.P3、P4、P5每个特征点产生9个预选框,宽高比是{1,2,3},尺度系数为预选框与坐标框标签的交并比大于0.7时,该预选框的标签为1,预选框与坐标框标签的交并比小于0.3时,预选框的标签为0,其余预选框的标签是-1,不用考虑;
S4.类别分类和边框回归结构是依次将特征P3、P4、P5分别经过四个3*3通道数为256的卷积操作,类别分类结构再经过3*3通道数为1*9的卷积操作,而边框回归结构再经过3*3通道数为4*9的卷积操作;
S5.边框回归的公式如下:
其中x、y、w、h分别为坐标框标签的中心点x-y坐标和宽高,xa、ya、wa、ha分别为预选框的中心点x-y坐标和宽高。
S6.类别分类的损失函数采用Focal Loss,形式如下:
FL(pt)=-αt(1-pt)γlog(pt)
其中αt为类别不平衡系数,γ为难易样本的比例系数,pt为预测的前景概率
S7.边框回归所采用的损失函数是Smooth L1 Loss,形式如下:
如图4所示,训练此深度卷积神经网络的算法,具体步骤如下:
S1.图片数据喂入网络前先对进行随机翻折、旋转、平移缩放以及改变对比度等变化来保证输入数据的多样性,提高算法的泛化能力,降低过拟合现象。之后进行归一化处理,然后送入网络进行训练;
S2.去掉算法的分类回归部分,在主网络后加全连接层,使用ImageNet数据集训练主网络结构。这样做主要是为了使算法参数的初始化值合理,加快算法收敛。
S3.在S1与S2步骤构建的行人数据集(MPD)上训练搭建的网络,优化器是Adam,初始学习率0.0001,batch_size为5,训练50epoch,总损失值从2.56降到0.35。
此算法训练过程中loss的变化情况如图5所示。
soft-NMS算法的具体步骤如下:
S1.将置信度大于0的预选框取出,按置信度大小对预选框进行排序;
S2.置信度最高的预选框与其他预选框取交并比值i0;
S3.交并比值i0小于阈值0.5的那些其他预选框的置信度不变,而交并比值i0大于等于阈值0.5的那些预选框的置信度改为1-i0。
S4.将置信度最大的预选框取出,如果置信度大于0.3,将剩余的预选框返回S1继续执行算法,否则退出算法,将取出的高置信度预选框作为算法最终预测的包含行人的坐标框。
图6为DCNN算法与其他行人检测算法的评价结果比较图。由图可以明显看出DCNN的效果最好,TFFI=0.1时,漏检率是5.775%。

Claims (1)

1.一种基于深度卷积神经网络的智能挖掘机行人检测方法,其特征在于,步骤如下:
S1根据在挖掘现场采集到的大量多样的行人图像数据,构建矿场的行人数据集,用于训练和测试深度卷积神经网络算法的数据;
S1.1采集挖掘矿区在不同天气、不同时刻的无人体的各种矿山背景图片作为负样本图片,共3000张;
S1.2采集挖掘矿区在上述不同情况下的行人图片,图片中人体的姿态、尺度、背景光照应多样,图片应该包含挖掘机日常工作所能拍摄的所有可能的情况,为正样本图片,共采集7000张;
S2将现场采集到的图像数据进行预处理,以去除噪声和冗余信息,并标注深度卷积神经网络算法所需要的图片上的位置信息来构建完整的行人数据集;
S2.1将步骤S1收集到的图片样本进行高斯滤波,直方图均衡化来去除噪声和图片增强;训练集包含8000张图片,测试集包含2000张图片,训练集和测试集各包含一半的正样本图片和一半的负样本图片;
S2.2使用IabelImg标注正样本图片中行人框的坐标,即行人框的左上角坐标和右下角X-Y坐标,生成相应的xml文件,该xml文件包含行人框的坐标信息和正样本图片的绝对路径;行人框的坐标信息即为坐标框;
S3根据目标检测算法的常用模型,搭建本方法所用的深度卷积神经网络算法,具体步骤如下:
S3.1使用TensorFlow深度学习框架来搭建此算法,主网络基本结构借鉴Resnet网络的残差结构,即特征信息依次通过1*1、3*3、1*1的卷积操作,然后与原始信息相加,最后经过Prelu激活函数输出;图片输入网络先通过7*7的卷积操作,最大池化操作,之后经过4个Bottleneck,每个Bottleneck将特征尺度缩小一倍,通道数增加一倍,4个Bottleneck包含的残差结构的数目为3、4、6、3,输出特征记为C2、C3、C4、C5;
S3.2特征融合的结构是C5经过1*1卷积,将通道数改为256,记为P5;P5经过最近邻差值增加特征的尺度并与C4经过1*1卷积的特征相加得到P4,同理得到P3;
S3.3P3、P4、P5每个特征点产生9个预选框,宽高比是{1,2,3},尺度系数为预选框与坐标框标签的交并比大于0.7时,该预选框的标签为1,预选框与坐标框标签的交并比小于0.3时,预选框的标签为0,其余预选框的标签是-1,不用考虑;
S3.4类别分类结构和边框回归结构是依次将特征P3、P4、P5分别经过四个3*3通道数为256的卷积操作,类别分类结构再经过3*3通道数为1*9的卷积操作,而边框回归结构再经过3*3通道数为4*9的卷积操作;
S3.5边框回归结构的公式如下:
其中,x、y、w、h分别为坐标框标签的中心点x-y坐标、宽、高,xa、ya、wa、ha分别为预选框的中心点x-y坐标、宽、高;
S3.6类别分类结构的损失函数采用Focal Loss,形式如下:
FL(pt)=-αt(1-pt)γlog(pt)
其中,αt为类别不平衡系数,γ为难易样本的比例系数,pt为预测的前景概率;
S3.7边框回归结构所采用的损失函数是Smooth L1 Loss,形式如下:
S4为了使深度卷积神经网络算法更快收敛,使用ImageNet公开数据集预训练神经网络算法的主网络模型,具体步骤如下:
S4.1图片数据输入网络前先对其进行随机翻折、旋转、平移缩放以及改变对比度来保证输入数据的多样性,提高算法的泛化能力,降低过拟合现象;之后进行归一化处理,然后送入网络进行训练;
S4.2去掉算法的分类回归部分,在主网络后加全连接层,使用ImageNet数据集训练主网络结构;这样做主要是为了使算法参数的初始化值合理,加快算法收敛;
S4.3在经过S1与S2步骤构建的行人数据集上训练搭建的网络,优化器是Adam,初始学习率0.0001,batch_size为5,训练50epoch,总损失值从2.56降到0.35;
S5将标注好的图像数据分成训练数据集和测试数据集,用训练集来训练搭建好的神经网络算法;
S6构建soft-NMS算法,以有效去除神经网络算法生成的多余候选框,已达到一人一框,具体步骤如下:
S6.1将置信度大于0的预选框取出,按置信度大小对预选框进行排序;
S6.2置信度最高的预选框与其他预选框取交并比值i0;
S6.3交并比值i0小于阈值0.5的那些其他预选框的置信度不变,而交并比值i0大于等于阈值0.5的那些预选框的置信度改为1-i0;
S6.4将置信度最大的预选框取出,如果置信度大于0.3,将剩余的预选框返回S6.1继续执行算法,否则退出算法,将取出的高置信度预选框作为算法最终预测的包含行人的坐标框;
行人检测算法的评价指标主要是当每张图片的假正数为0.1时,漏检率的大小,漏检率越小代表算法效果越好;
S7.使用测试集测试训练好的算法模型,若达不到精度,调节学习率等超参数重新训练算法模型。
CN201811438551.0A 2018-11-28 2018-11-28 一种基于深度卷积神经网络的智能挖掘机行人检测方法 Active CN109711262B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811438551.0A CN109711262B (zh) 2018-11-28 2018-11-28 一种基于深度卷积神经网络的智能挖掘机行人检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811438551.0A CN109711262B (zh) 2018-11-28 2018-11-28 一种基于深度卷积神经网络的智能挖掘机行人检测方法

Publications (2)

Publication Number Publication Date
CN109711262A true CN109711262A (zh) 2019-05-03
CN109711262B CN109711262B (zh) 2021-12-03

Family

ID=66255245

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811438551.0A Active CN109711262B (zh) 2018-11-28 2018-11-28 一种基于深度卷积神经网络的智能挖掘机行人检测方法

Country Status (1)

Country Link
CN (1) CN109711262B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110826514A (zh) * 2019-11-13 2020-02-21 国网青海省电力公司海东供电公司 一种基于深度学习的施工现场违章智能识别方法
CN110827277A (zh) * 2019-11-26 2020-02-21 山东浪潮人工智能研究院有限公司 一种基于yolo3网络的布匹瑕疵检测方法
CN110956613A (zh) * 2019-11-07 2020-04-03 成都傅立叶电子科技有限公司 基于图像质量的目标检测算法性能归一化评价方法及系统
CN111008608A (zh) * 2019-12-11 2020-04-14 湖南大学 一种基于深度学习的夜间车辆检测方法
CN111105413A (zh) * 2019-12-31 2020-05-05 哈尔滨工程大学 一种智能火花塞外观缺陷检测系统
CN111144475A (zh) * 2019-12-22 2020-05-12 上海眼控科技股份有限公司 车厢座位的确定方法、装置、电子设备及可读存储介质
CN111144203A (zh) * 2019-11-19 2020-05-12 浙江工商大学 一种基于深度学习的行人遮挡检测方法
CN111923053A (zh) * 2020-04-21 2020-11-13 广州里工实业有限公司 基于深度视觉的工业机器人物件抓取示教系统及方法
CN112417990A (zh) * 2020-10-30 2021-02-26 四川天翼网络服务有限公司 一种考试学生违规行为识别方法及系统
CN113361491A (zh) * 2021-07-19 2021-09-07 厦门大学 一种无人驾驶汽车对行人的过街意图预测方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180165552A1 (en) * 2016-12-12 2018-06-14 National Chung Shan Institute Of Science And Technology All-weather thermal-image pedestrian detection method
CN108171191A (zh) * 2018-01-05 2018-06-15 百度在线网络技术(北京)有限公司 用于检测人脸的方法和装置
CN108391092A (zh) * 2018-03-21 2018-08-10 四川弘和通讯有限公司 基于深度学习的危险物识别系统
CN108805070A (zh) * 2018-06-05 2018-11-13 合肥湛达智能科技有限公司 一种基于嵌入式终端的深度学习行人检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180165552A1 (en) * 2016-12-12 2018-06-14 National Chung Shan Institute Of Science And Technology All-weather thermal-image pedestrian detection method
CN108171191A (zh) * 2018-01-05 2018-06-15 百度在线网络技术(北京)有限公司 用于检测人脸的方法和装置
CN108391092A (zh) * 2018-03-21 2018-08-10 四川弘和通讯有限公司 基于深度学习的危险物识别系统
CN108805070A (zh) * 2018-06-05 2018-11-13 合肥湛达智能科技有限公司 一种基于嵌入式终端的深度学习行人检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
TSUNG-YI LIN ETAL.: "Focal Loss for Dense Object Detection", 《HTTP:ARXIV:1708.02002V2》 *
李幼蛟等: "行人再识别技术综述", 《自动化学报》 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110956613A (zh) * 2019-11-07 2020-04-03 成都傅立叶电子科技有限公司 基于图像质量的目标检测算法性能归一化评价方法及系统
CN110956613B (zh) * 2019-11-07 2023-04-07 成都傅立叶电子科技有限公司 基于图像质量的目标检测算法性能归一化评价方法及系统
CN110826514A (zh) * 2019-11-13 2020-02-21 国网青海省电力公司海东供电公司 一种基于深度学习的施工现场违章智能识别方法
CN111144203A (zh) * 2019-11-19 2020-05-12 浙江工商大学 一种基于深度学习的行人遮挡检测方法
CN111144203B (zh) * 2019-11-19 2023-06-16 浙江工商大学 一种基于深度学习的行人遮挡检测方法
CN110827277A (zh) * 2019-11-26 2020-02-21 山东浪潮人工智能研究院有限公司 一种基于yolo3网络的布匹瑕疵检测方法
CN111008608A (zh) * 2019-12-11 2020-04-14 湖南大学 一种基于深度学习的夜间车辆检测方法
CN111008608B (zh) * 2019-12-11 2023-08-01 湖南大学 一种基于深度学习的夜间车辆检测方法
CN111144475A (zh) * 2019-12-22 2020-05-12 上海眼控科技股份有限公司 车厢座位的确定方法、装置、电子设备及可读存储介质
CN111105413A (zh) * 2019-12-31 2020-05-05 哈尔滨工程大学 一种智能火花塞外观缺陷检测系统
CN111923053A (zh) * 2020-04-21 2020-11-13 广州里工实业有限公司 基于深度视觉的工业机器人物件抓取示教系统及方法
CN112417990A (zh) * 2020-10-30 2021-02-26 四川天翼网络服务有限公司 一种考试学生违规行为识别方法及系统
CN113361491A (zh) * 2021-07-19 2021-09-07 厦门大学 一种无人驾驶汽车对行人的过街意图预测方法

Also Published As

Publication number Publication date
CN109711262B (zh) 2021-12-03

Similar Documents

Publication Publication Date Title
CN109711262A (zh) 一种基于深度卷积神经网络的智能挖掘机行人检测方法
CN110929578B (zh) 一种基于注意力机制的抗遮挡行人检测方法
CN109902677A (zh) 一种基于深度学习的车辆检测方法
CN106709568B (zh) 基于深层卷积网络的rgb-d图像的物体检测和语义分割方法
CN109934121A (zh) 一种基于YOLOv3算法的果园行人检测方法
CN109522966A (zh) 一种基于密集连接卷积神经网络的目标检测方法
CN103604809B (zh) 一种图案布匹瑕疵在线视觉检测方法
CN101777116B (zh) 一种基于动作跟踪的脸部表情分析方法
CN107239736A (zh) 基于多任务级联卷积神经网络的人脸检测方法及检测装置
CN103886308B (zh) 一种使用聚合通道特征和软级联分类器的行人检测方法
CN109800628A (zh) 一种加强ssd小目标行人检测性能的网络结构及检测方法
CN109977918A (zh) 一种基于无监督域适应的目标检测定位优化方法
CN110263833A (zh) 基于编码-解码结构的图像语义分割方法
CN114220035A (zh) 一种基于改进yolo v4的快速害虫检测方法
CN107123123A (zh) 基于卷积神经网络的图像分割质量评价方法
CN113486764B (zh) 一种基于改进的YOLOv3的坑洼检测方法
CN107066995A (zh) 一种基于卷积神经网络的遥感图像桥梁检测方法
CN109635694A (zh) 一种行人检测方法、装置、设备及计算机可读存储介质
CN106845357A (zh) 一种基于多通道网络的视频人脸检测和识别方法
CN106204649A (zh) 一种基于tld算法的目标跟踪方法
CN103345631B (zh) 图像特征提取、训练、检测方法及模块、装置、系统
CN106529448A (zh) 利用聚合通道特征进行多视角人脸检测的方法
CN105787439A (zh) 一种基于卷积神经网络的深度图像人体关节定位方法
CN107301378A (zh) 图像中多分类器集成的行人检测方法和系统
CN110069993A (zh) 一种基于深度学习的目标车辆检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant