CN108805070A - 一种基于嵌入式终端的深度学习行人检测方法 - Google Patents

一种基于嵌入式终端的深度学习行人检测方法 Download PDF

Info

Publication number
CN108805070A
CN108805070A CN201810565780.2A CN201810565780A CN108805070A CN 108805070 A CN108805070 A CN 108805070A CN 201810565780 A CN201810565780 A CN 201810565780A CN 108805070 A CN108805070 A CN 108805070A
Authority
CN
China
Prior art keywords
grid
built
terminal
training
bounding box
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810565780.2A
Other languages
English (en)
Inventor
张中
牛雷
王定国
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hefei Zhan Da Intelligent Technology Co Ltd
Original Assignee
Hefei Zhan Da Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hefei Zhan Da Intelligent Technology Co Ltd filed Critical Hefei Zhan Da Intelligent Technology Co Ltd
Priority to CN201810565780.2A priority Critical patent/CN108805070A/zh
Publication of CN108805070A publication Critical patent/CN108805070A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于嵌入式终端的深度学习行人检测方法,包括以下步骤:一、样本准备阶段,获取现有自动驾驶数据集或收集固定、移动摄像头拍摄视频后人工标注;二、训练阶段,使用大量训练图像对构建的卷积神经网络参数进行训练以完成检测特征学习;三、测试阶段,输入大量测试图像至已训练卷积神经网络并获得检测结果;四、移植阶段,进行代码级别优化并移植到嵌入式终端。本发明采用18层卷积神经网络进行行人特征学习,相对于传统机器学习方法具有创新优势;本发明还提出了面向嵌入式终端的优化策略,进一步缩小了网络规模和算法复杂度,适用于ADAS的功能应用。

Description

一种基于嵌入式终端的深度学习行人检测方法
技术领域
本发明涉及一种行人检测方法,具体是一种基于嵌入式终端的深度学习行人检测方法。
背景技术
近年来,随着深度学习的快速发展,高级辅助驾驶的发展出现了契机。对于高级辅助驾驶来说,最为重要的是目标检测,其中包括行人检测,与此同时,行人监测对于智能机器人和视频监控领域也有重要意义。高级辅助驾驶要取得阶段性的进步,行人检测是不可避免要攻克的难题。目前,传统的行人检测方法主要是人工设计特征,通过提取特征训练分类器,效果令人瞩目,但是人工设计的特征分类器很难适应场景的大幅度变化,不能在新环境下很好的检测行人。
深度学习网络模型的提出,使行人检检测得到更进一步的发展。深度学习模型从图像中自适应学习,是一种端到端的检测方法。通过探究不同的网络深度、卷积核大小以及特征维度对行人检测结果的影响,构建了基于卷积神经网络的行人分类器,这种方法能较好的检测行人,但是却不能对目标行人进行定位。数据集的大范围增加和计算机计算能力的增强,是深度学习在行人检测方面有了坚实的基础。
在有关行人检测的研究领域,大多数都是根据一些特征对行人辨别的研究。如公开号为106991370A的中国发明专利公布说明书公开的基于颜色和深度的行人检索方法。根据图像的RGB信息对特征进行提取,使用区域增长的方法,分割出行人区域。此种方法虽然可以检测出行人的信息,但是对行人的位置信息错误较大,不能应用于高级辅助驾驶领域,高级驾驶辅助系统对位置信息要求十分严格。而且,这种方法对于相互靠的很近的物体,还有很小的群体,检测效果不好。
与此同时,目前公开的技术方案计算量巨大,卷积神经网络的算法规模庞大且只适用于服务器或者计算机集群,无法进行嵌入式设备的端对端实时应用。
发明内容
本发明是为避免上述现有技术所存在的不足之处,提供一种嵌入式终端的深度学习行人检测方法。该方法可以实现交通视频中行人的实时检测,把目标判定和目标识别合二为一,可以达到每秒50帧。
为实现上述目的,本发明提供如下技术方案:
一种基于嵌入式终端的深度学习行人检测方法,用于对交通视频中的行人进行实时检测,其特征在于,包括以下步骤:
一、样本准备阶段,获取现有自动驾驶数据集或收集固定、移动摄像头拍摄视频后人工标注;
二、训练阶段,使用大量训练图像对构建的卷积神经网络参数进行训练以完成检测特征学习;
三、测试阶段,输入大量测试图像至已训练卷积神经网络并获得检测结果;
四、移植阶段,进行代码级别优化并移植到嵌入式终端。
作为本发明进一步的方案:步骤一中现有自动驾驶数据集包括Nicta和CVC数据集,人工标注的图片标记格式包含标签和2d矩形框。
作为本发明进一步的方案:步骤二训练阶段按以下步骤进行:
①、选取18层卷积神经网络作为特征学习网络,依次是卷积层conv1、最大池化层maxpool2、卷积层conv3、最大池化层maxpool4、卷积层conv5、卷积层conv6、卷积层conv7、最大池化层maxpool8、卷积层conv9、卷积层conv10、卷积层conv11、最大池化层maxpoo12、卷积层conv13、卷积层conv14、卷积层conv15、最大池化层maxpool16、全连接层fc17、全连接层fc18;
②、将输入图像划分为S*S的栅格,为每一个栅格赋予B个边界框以及这些边界框的置信值,定义C个条件类别概率:Pr(Classi|Object);使用K-means从训练集中聚类得到优化的anchor boxes;
③、使用以下公式预测行人的坐标:
x=(tx*wa)+xa,y=(ty*ha)+ya
其中xa,ya为anchor的坐标,wa,ha为anchor的宽和长;x,y是边界框的中心坐标;当预测tx=1,就会把边界框向右边移动一定距离,预测tx=-1,就会把边界框向左边移动相同的距离;
并使用logistic激活函数σ(z)来确保边界框的中心落在栅格中:
设栅格左上角的坐标为(cx,cy),anchor box的宽和高为(pw,ph),则边界框的中心点坐标(bx,by),宽和高为(bw,bh):
bx=σ(tx)+cx,by=σ(ty)+cy
并利用以下公式计算该目标的置信分:
Pr(object)*IOU(b,object)=σ(to)
④、构造损失函数:
其中λcoord是系数,S2是网格数,wi,hi分别为网格i的预测边界的宽和高,分别为网格i的标签边界的宽和高,xi,yi为网格i的预测边界框中心相对于网格i的位置,为网格i的标签边界框中心相对于网格i的位置,pi(c)为网格i的预测边界框关于类别c的置信度,为网格i的标签边界框关于类别c的置信度,classes为第二训练样本集中的样本类别数,Ci为网格i的预测边界框的预测分类,为网格i的标签边界框的标签分类;
⑤、通过不断的进行梯度下降和反向传播算法进行迭代,应用损失函数提高准确率,当损失函数真值J(θ)<0.001,卷积神经网络完成训练。
作为本发明进一步的方案:步骤四中进行代码级别优化的步骤为:
①、使用svd算法压缩全连接层矩阵,使用剪枝算法将小于权值的节点直接移除;
②、通过DMA预载入GPU做预处理以减少数据同步次数;
③、使用cuda Stream流操作和异步函数调用;
④、关键算法GPU并行化;
⑤、整形指令集改为浮点FP16指令集。
作为本发明进一步的方案:所述嵌入式终端至少包括CPU、GPU、内存、存储器、视频编码器、视频解码器和图像信号处理器。
作为本发明进一步的方案:所述嵌入式终端至少包括256核GPU、ARMv864位CPU、H.264/H.265视频编码器、H.264/H.265视频解码器、8GB LPDDR4内存与32GB eMMC存储器和1.4Gpix/s的图像信号处理器。
与现有技术相比,本发明的有益效果是:
1、本发明采用18层卷积神经网络进行行人特征学习,相对于传统机器学习方法具有创新优势;
2、本发明相比较于基于区域提名的,如R-CNN、SPP-net、Fast R-CNN、Faster R-CNN、R-FCN深度学习目标检测方法,所提出的端到端深度学习算法具有较明显的速度优势;
3、本发明还提出了面向嵌入式终端的优化策略,进一步缩小了网络规模和算法复杂度,适用于ADAS(高级辅助驾驶)的功能应用。
附图说明
图1为本发明所涉及的行人检测训练流程图;
图2为本发明所涉及的卷积神经网络示意图;
图3为本发明所涉及的嵌入式终端结构。
具体实施方式
下面结合具体实施方式对本专利的技术方案作进一步详细地说明。
请参阅图1-3,一种基于嵌入式终端的深度学习行人检测方法,用于对交通图片中的行人进行检测。行人检测使用配置了卷积神经网络的嵌入式终端,将图片在嵌入式终端的输入端输入,通过已经训练好的卷积神经网络,在嵌入式终端的输出端输出。要实现此功能应该在pc端训练卷积神经网络,经测试完成后,移植到嵌入式终端。
上述基于嵌入式终端的深度学习行人检测方法,具体包括以下步骤:
一、样本准备阶段,获取现有自动驾驶数据集或收集固定、移动摄像头拍摄视频后人工标注;样本准备阶段的现有自动驾驶数据集包括Nicta和CVC数据集,图片标记格式包含标签和2d矩形框;
首先分别建立训练和测试卷积神经网络的图片集,在大样本的情况下,训练集和测试集的比例应该是99:1,图片集都要进行人工标注,标注的方式为将图片中含有行人的位置用矩形圈起来,添加标签。图片的格式应该是224*224*3的形式;
二、训练阶段,使用大量训练图像对构建的卷积神经网络参数进行训练以完成检测特征学习;
如图2所示,训练阶段在pc机上实现,首先构造卷积神经网络,神经网络由18层网络组成;依次是卷积层conv1(卷积核使用3*3)、最大池化层maxpool2、卷积层conv3(卷积核使用3*3)、最大池化层maxpool4、卷积层conv5(卷积核使用3*3)、卷积层conv6(卷积核使用1*1)、卷积层conv7(卷积核使用3*3)、最大池化层maxpool8、卷积层conv9(卷积核使用3*3)、卷积层conv10(卷积核使用1*1)、卷积层conv11(卷积核使用3*3)、最大池化层maxpoo12、卷积层conv13(卷积核使用3*3)、卷积层conv14(卷积核使用1*1)、卷积层conv15(卷积核使用3*3)、最大池化层maxpool16、全连接层fc17、全连接层fc18;其中包括11个卷积层,5个池化层,2个全连接层;在卷积层中有8个3*3的卷积核,3个1*1的卷积核,两个卷积核交替使用,显著地提高了计算效果和运算速度;
通过使用反向传播和梯度下降的方法调整参数,使用drapout的方法使节点随机失活,进一步对参数进行调整;
对anchor boxes进行设计,为了准确性,本发明采用K-means从训练集中聚类得到的anchor boxes,当K=5时(k是通过k-means聚类得到的anchor boxes的数量),得到的anchor boxes具有最佳效果。在这里将输入图形划分为S*S的栅格,每一个栅格预测B个边界框(x,y,w,h),以及这些边界框的置信值。每一个栅格还要预测C个条件类别概率:Pr(Classi|Object),即在一个栅格包含一个行人(Object)的前提下属于某个类class的概率;object是指要识别的物体,class指行人的类;所以输出的结果应该是S*S*(B*(5+C))。例如,输入一张含有行人的图片,要辨别这个图片是否存在行人,假设将图片分为416*416的栅格,预测的2个边界框,这里的类别概率可以假设为行人和车,因此C=2,置信值只能是0和1,图片是一个行人的图片,对于行人的anchor box的置信值是1,对于车的anchor box的置信值是0,最终输出的结果是416×416×(2×(5+2))。
使用公式(1)预测行人的坐标:
x=(tx*wa)+xa,y=(ty*ha)+ya (1)
其中xa,ya为anchor的坐标,wa,ha为anchor的宽和长;x,y是边界框的中心坐标;当预测tx=1,就会把边界框向右边移动一定距离(具体为anchor box的宽度),预测tx=-1,就会把边界框向左边移动相同的距离;tx表示水平预测权衡变量,对anchor box进行水平移动,ty竖直预测权衡变量,对anchor box进行竖直移动;
并使用logistic激活函数σ(z)(公式2)来确保边界框的中心落在栅格中;
e是常数;e,z是横坐标参数,σ(z)是纵坐标参数;设栅格左上角的坐标为(cx,cy),anchor box的宽和高为(pw,ph),则边界框的中心点坐标(bx,by),宽和高为(bw,bh),见公式(3)、(4);
bx=σ(tx)+cx,by=σ(ty)+cy (3)
tw,th表示anchor box的宽和高,tx,ty表示anchor box的坐标,e是常数e;
并利用公式(5)计算该目标的置信分:
Pr(object)*IOU(b,object)=σ(to) (5)
b表示物体的边界;object表示anchor box预测框;t0是置信分;
构造损失函数如公式(6)所示:
其中λcoord是系数,S2是网格数,wi,hi分别为网格i的预测边界的宽和高,分别为网格i的标签边界的宽和高,xi,yi为网格i的预测边界框中心相对于网格i的位置,为网格i的标签边界框中心相对于网格i的位置,pi(c)为网格i的预测边界框关于类别c的置信度,为网格i的标签边界框关于类别c的置信度,classes为第二训练样本集中的样本类别数,Ci为网格i的预测边界框的预测分类,为网格i的标签边界框的标签分类;是判断第i个栅格中第j个边界框是否负责这个object,obj是object的意思,ij表示第i个栅格中第j个边界框,是判断第i个栅格中第j个边界框不包含object,noobj表示不包含object的意思,判断是否有object的中心落在栅格i中。
其中,公式(1)对行人的位置计算,通过非极大值抑制和置信分计算的方式提高准确率,计算方式为公式(3)到公式(5)。这里便得到了行人的位置信息和存在信息。通过不断的进行梯度下降和反向传播算法进行迭代,应用公式(6)的损失函数去提高准确率,当损失函数真值J(θ)<0.001,卷积神经网络完成训练,便能进入测试阶段了。
三、测试阶段,输入大量测试图像至已训练卷积神经网络并获得检测结果;
进入测试阶段后,将准备好的测试集输入已经训练好的卷积神经网络,通过人工验证图片识别的准确率,图片中的行人是否被贴上正确的标签,当准确率没有满足条件时,重新进入测试阶段进行调整参数,当符合准确率的条件时,准备将PC端的卷积神经网络移植到嵌入式系统;
四、移植阶段,进行代码级别优化并移植到嵌入式终端;
最后是移植阶段,全连接层计算量较大,为了将卷积神经网络移植到嵌入式终端,首先对全连接层的矩阵使用svd算法进行压缩,使矩阵减小一定的计算量,然后使用剪枝算法将小于权值的节点直接移除,再次减小计算量;然后在pc端通过DMA预载入GPU的预处理方式,可以减少数据的同步次数;接下来做好将数据移植的准备,使用cudaStream流操作和异步函数调用的方法,提高实时性,将关键算法在GPU上实现并行化;在卷积计算中,首先将浮点FP16指令集改为整形指令集减少运算,当运算完成在修改为浮点型FP16指令集,优化完成后,即可进行移植操作。
如图3所示,嵌入式终端能够具备较高性能的计算与图像处理能力,最低的硬件配置应达到256核GPU、ARMv864位CPU、H.264/H.265视频编码器、H.264/H.265视频解码器、8GBLPDDR4内存与32GBeMMC存储器、1.4Gpix/s的图像信号处理器。
上面对本专利的较佳实施方式作了详细说明,但是本专利并不限于上述实施方式,在本领域的普通技术人员所具备的知识范围内,还可以在不脱离本专利宗旨的前提下作出各种变化。

Claims (6)

1.一种基于嵌入式终端的深度学习行人检测方法,用于对交通视频中的行人进行实时检测,其特征在于,包括以下步骤:
一、样本准备阶段,获取现有自动驾驶数据集或收集固定、移动摄像头拍摄视频后人工标注;
二、训练阶段,使用大量训练图像对构建的卷积神经网络参数进行训练以完成检测特征学习;
三、测试阶段,输入大量测试图像至已训练卷积神经网络并获得检测结果;
四、移植阶段,进行代码级别优化并移植到嵌入式终端。
2.根据权利要求1所述的基于嵌入式终端的深度学习行人检测方法,其特征在于,步骤一中现有自动驾驶数据集包括Nicta和CVC数据集,人工标注的图片标记格式包含标签和2d矩形框。
3.根据权利要求1所述的基于嵌入式终端的深度学习行人检测方法,其特征在于,步骤二训练阶段按以下步骤进行:
①、选取18层卷积神经网络作为特征学习网络,依次是卷积层conv1、最大池化层maxpool2、卷积层conv3、最大池化层maxpool4、卷积层conv5、卷积层conv6、卷积层conv7、最大池化层maxpool8、卷积层conv9、卷积层conv10、卷积层conv11、最大池化层maxpoo12、卷积层conv13、卷积层conv14、卷积层conv15、最大池化层maxpool16、全连接层fc17、全连接层fc18;
②、将输入图像划分为S*S的栅格,为每一个栅格赋予B个边界框以及这些边界框的置信值,定义C个条件类别概率:Pr(Classi|Object);使用K-means从训练集中聚类得到优化的anchor boxes;
③、使用以下公式预测行人的坐标:
x=(tx*wa)+xa,y=(ty*ha)+ya
其中xa,ya为anchor的坐标,wa,ha为anchor的宽和长;x,y是边界框的中心坐标;当预测tx=1,就会把边界框向右边移动一定距离,预测tx=-1,就会把边界框向左边移动相同的距离;
并使用logistic激活函数σ(z)来确保边界框的中心落在栅格中:
设栅格左上角的坐标为(cx,cy),anchor box的宽和高为(pw,ph),则边界框的中心点坐标(bx,by),宽和高为(bw,bh):
bx=σ(tx)+cx,by=σ(ty)+cy
并利用以下公式计算该目标的置信分:
Pr(object)*IOU(b,object)=σ(to)
④、构造损失函数:
其中λcoord是系数,S2是网格数,wi,hi分别为网格i的预测边界的宽和高,分别为网格i的标签边界的宽和高,xi,yi为网格i的预测边界框中心相对于网格i的位置,为网格i的标签边界框中心相对于网格i的位置,pi(c)为网格i的预测边界框关于类别c的置信度,为网格i的标签边界框关于类别c的置信度,classes为第二训练样本集中的样本类别数,Ci为网格i的预测边界框的预测分类,为网格i的标签边界框的标签分类;
⑤、通过不断的进行梯度下降和反向传播算法进行迭代,应用损失函数提高准确率,当损失函数真值J(θ)<0.001,卷积神经网络完成训练。
4.根据权利要求1所述的基于嵌入式终端的深度学习行人检测方法,其特征在于,步骤四中进行代码级别优化的步骤为:
①、使用svd算法压缩全连接层矩阵,使用剪枝算法将小于权值的节点直接移除;
②、通过DMA预载入GPU做预处理以减少数据同步次数;
③、使用cuda Stream流操作和异步函数调用;
④、关键算法GPU并行化;
⑤、整形指令集改为浮点FP16指令集。
5.根据权利要求1-4任一所述的基于嵌入式终端的深度学习行人检测方法,其特征在于,所述嵌入式终端至少包括CPU、GPU、内存、存储器、视频编码器、视频解码器和图像信号处理器。
6.根据权利要求5所述的基于嵌入式终端的深度学习行人检测方法,其特征在于,所述嵌入式终端至少包括256核GPU、ARMv864位CPU、H.264/H.265视频编码器、H.264/H.265视频解码器、8GB LPDDR4内存与32GB eMMC存储器和1.4Gpix/s的图像信号处理器。
CN201810565780.2A 2018-06-05 2018-06-05 一种基于嵌入式终端的深度学习行人检测方法 Pending CN108805070A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810565780.2A CN108805070A (zh) 2018-06-05 2018-06-05 一种基于嵌入式终端的深度学习行人检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810565780.2A CN108805070A (zh) 2018-06-05 2018-06-05 一种基于嵌入式终端的深度学习行人检测方法

Publications (1)

Publication Number Publication Date
CN108805070A true CN108805070A (zh) 2018-11-13

Family

ID=64088550

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810565780.2A Pending CN108805070A (zh) 2018-06-05 2018-06-05 一种基于嵌入式终端的深度学习行人检测方法

Country Status (1)

Country Link
CN (1) CN108805070A (zh)

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109447033A (zh) * 2018-11-14 2019-03-08 北京信息科技大学 基于yolo的车辆前方障碍物检测方法
CN109583355A (zh) * 2018-11-23 2019-04-05 江南大学 一种基于边界选择的人流统计的装置和方法
CN109615858A (zh) * 2018-12-21 2019-04-12 深圳信路通智能技术有限公司 一种基于深度学习的智能停车行为判断方法
CN109711262A (zh) * 2018-11-28 2019-05-03 大连理工大学 一种基于深度卷积神经网络的智能挖掘机行人检测方法
CN109816636A (zh) * 2018-12-28 2019-05-28 汕头大学 一种基于智能终端的裂缝检测方法
CN109886085A (zh) * 2019-01-03 2019-06-14 四川弘和通讯有限公司 基于深度学习目标检测的人群计数方法
CN109902556A (zh) * 2019-01-14 2019-06-18 平安科技(深圳)有限公司 行人检测方法、系统、计算机设备及计算机可存储介质
CN109948501A (zh) * 2019-03-13 2019-06-28 东华大学 一种监控视频中人员和安全帽的检测方法
CN109961009A (zh) * 2019-02-15 2019-07-02 平安科技(深圳)有限公司 基于深度学习的行人检测方法、系统、装置及存储介质
CN110084166A (zh) * 2019-04-19 2019-08-02 山东大学 基于深度学习的变电站烟火智能识别监测方法
CN110097050A (zh) * 2019-04-03 2019-08-06 平安科技(深圳)有限公司 行人检测方法、装置、计算机设备及存储介质
CN110135398A (zh) * 2019-05-28 2019-08-16 厦门瑞为信息技术有限公司 基于计算机视觉的双手脱离方向盘检测方法
CN110186375A (zh) * 2019-06-06 2019-08-30 西南交通大学 智能化高铁白车身焊接装配特征检测装置及检测方法
CN110321853A (zh) * 2019-07-05 2019-10-11 杭州巨骐信息科技股份有限公司 基于视频智能检测的分布式电缆防外破系统
CN110348376A (zh) * 2019-07-09 2019-10-18 华南理工大学 一种基于神经网络的行人实时检测方法
CN110363182A (zh) * 2019-07-24 2019-10-22 北京信息科技大学 基于深度学习的车道线检测方法
CN110728200A (zh) * 2019-09-23 2020-01-24 武汉大学 一种基于深度学习的实时行人检测方法及系统
CN110866472A (zh) * 2019-11-04 2020-03-06 西北工业大学 一种无人机地面运动目标识别与图像增强系统及方法
CN111027551A (zh) * 2019-12-17 2020-04-17 腾讯科技(深圳)有限公司 图像处理方法、设备和介质
CN111582345A (zh) * 2020-04-29 2020-08-25 中国科学院重庆绿色智能技术研究院 一种小样本下复杂环境的目标识别方法
CN111860080A (zh) * 2019-04-30 2020-10-30 杰创智能科技股份有限公司 一种基于通道分离型卷积的快速人脸检测模型
CN111986240A (zh) * 2020-09-01 2020-11-24 交通运输部水运科学研究所 基于可见光和热成像数据融合的落水人员检测方法及系统
CN112270827A (zh) * 2020-06-23 2021-01-26 北京航空航天大学 一种车路协同系统以及道路行人检测方法
CN112381021A (zh) * 2020-11-20 2021-02-19 安徽一视科技有限公司 一种基于深度学习的人员检测计数方法
CN112784638A (zh) * 2019-11-07 2021-05-11 北京京东乾石科技有限公司 训练样本获取方法和装置、行人检测方法和装置
CN113470416A (zh) * 2020-03-31 2021-10-01 上汽通用汽车有限公司 利用嵌入式系统实现车位检测的系统、方法和存储介质
CN113870870A (zh) * 2021-12-02 2021-12-31 自然资源部第一海洋研究所 一种基于卷积神经网络的海洋哺乳动物发声实时识别方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060039752A1 (en) * 2004-08-23 2006-02-23 Hyams Christopher A Detectable warning-dots demarkation for pedestrian safety
CN105184260A (zh) * 2015-09-10 2015-12-23 北京大学 一种图像特征提取方法及行人检测方法及装置
CN106022237A (zh) * 2016-05-13 2016-10-12 电子科技大学 一种端到端的卷积神经网络的行人检测方法
CN107451602A (zh) * 2017-07-06 2017-12-08 浙江工业大学 一种基于深度学习的果蔬检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060039752A1 (en) * 2004-08-23 2006-02-23 Hyams Christopher A Detectable warning-dots demarkation for pedestrian safety
CN105184260A (zh) * 2015-09-10 2015-12-23 北京大学 一种图像特征提取方法及行人检测方法及装置
CN106022237A (zh) * 2016-05-13 2016-10-12 电子科技大学 一种端到端的卷积神经网络的行人检测方法
CN107451602A (zh) * 2017-07-06 2017-12-08 浙江工业大学 一种基于深度学习的果蔬检测方法

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109447033A (zh) * 2018-11-14 2019-03-08 北京信息科技大学 基于yolo的车辆前方障碍物检测方法
CN109583355A (zh) * 2018-11-23 2019-04-05 江南大学 一种基于边界选择的人流统计的装置和方法
CN109711262A (zh) * 2018-11-28 2019-05-03 大连理工大学 一种基于深度卷积神经网络的智能挖掘机行人检测方法
CN109711262B (zh) * 2018-11-28 2021-12-03 大连理工大学 一种基于深度卷积神经网络的智能挖掘机行人检测方法
CN109615858A (zh) * 2018-12-21 2019-04-12 深圳信路通智能技术有限公司 一种基于深度学习的智能停车行为判断方法
CN109816636A (zh) * 2018-12-28 2019-05-28 汕头大学 一种基于智能终端的裂缝检测方法
CN109886085A (zh) * 2019-01-03 2019-06-14 四川弘和通讯有限公司 基于深度学习目标检测的人群计数方法
CN109902556A (zh) * 2019-01-14 2019-06-18 平安科技(深圳)有限公司 行人检测方法、系统、计算机设备及计算机可存储介质
CN109961009A (zh) * 2019-02-15 2019-07-02 平安科技(深圳)有限公司 基于深度学习的行人检测方法、系统、装置及存储介质
CN109961009B (zh) * 2019-02-15 2023-10-31 平安科技(深圳)有限公司 基于深度学习的行人检测方法、系统、装置及存储介质
CN109948501A (zh) * 2019-03-13 2019-06-28 东华大学 一种监控视频中人员和安全帽的检测方法
CN110097050A (zh) * 2019-04-03 2019-08-06 平安科技(深圳)有限公司 行人检测方法、装置、计算机设备及存储介质
CN110097050B (zh) * 2019-04-03 2024-03-08 平安科技(深圳)有限公司 行人检测方法、装置、计算机设备及存储介质
CN110084166A (zh) * 2019-04-19 2019-08-02 山东大学 基于深度学习的变电站烟火智能识别监测方法
CN111860080A (zh) * 2019-04-30 2020-10-30 杰创智能科技股份有限公司 一种基于通道分离型卷积的快速人脸检测模型
CN110135398A (zh) * 2019-05-28 2019-08-16 厦门瑞为信息技术有限公司 基于计算机视觉的双手脱离方向盘检测方法
CN110186375A (zh) * 2019-06-06 2019-08-30 西南交通大学 智能化高铁白车身焊接装配特征检测装置及检测方法
CN110321853A (zh) * 2019-07-05 2019-10-11 杭州巨骐信息科技股份有限公司 基于视频智能检测的分布式电缆防外破系统
CN110321853B (zh) * 2019-07-05 2021-05-11 杭州巨骐信息科技股份有限公司 基于视频智能检测的分布式电缆防外破系统
CN110348376A (zh) * 2019-07-09 2019-10-18 华南理工大学 一种基于神经网络的行人实时检测方法
CN110363182A (zh) * 2019-07-24 2019-10-22 北京信息科技大学 基于深度学习的车道线检测方法
CN110728200A (zh) * 2019-09-23 2020-01-24 武汉大学 一种基于深度学习的实时行人检测方法及系统
CN110728200B (zh) * 2019-09-23 2023-06-06 武汉大学 一种基于深度学习的实时行人检测方法及系统
CN110866472A (zh) * 2019-11-04 2020-03-06 西北工业大学 一种无人机地面运动目标识别与图像增强系统及方法
CN112784638A (zh) * 2019-11-07 2021-05-11 北京京东乾石科技有限公司 训练样本获取方法和装置、行人检测方法和装置
CN112784638B (zh) * 2019-11-07 2023-12-08 北京京东乾石科技有限公司 训练样本获取方法和装置、行人检测方法和装置
CN111027551B (zh) * 2019-12-17 2023-07-07 腾讯科技(深圳)有限公司 图像处理方法、设备和介质
CN111027551A (zh) * 2019-12-17 2020-04-17 腾讯科技(深圳)有限公司 图像处理方法、设备和介质
CN113470416A (zh) * 2020-03-31 2021-10-01 上汽通用汽车有限公司 利用嵌入式系统实现车位检测的系统、方法和存储介质
CN111582345A (zh) * 2020-04-29 2020-08-25 中国科学院重庆绿色智能技术研究院 一种小样本下复杂环境的目标识别方法
CN112270827A (zh) * 2020-06-23 2021-01-26 北京航空航天大学 一种车路协同系统以及道路行人检测方法
CN111986240A (zh) * 2020-09-01 2020-11-24 交通运输部水运科学研究所 基于可见光和热成像数据融合的落水人员检测方法及系统
CN112381021A (zh) * 2020-11-20 2021-02-19 安徽一视科技有限公司 一种基于深度学习的人员检测计数方法
JP7180838B1 (ja) * 2021-12-02 2022-11-30 自然資源部第一海洋研究所 畳み込みニューラルネットワークに基づく海洋哺乳類鳴音のリアルタイム識別方法
CN113870870A (zh) * 2021-12-02 2021-12-31 自然资源部第一海洋研究所 一种基于卷积神经网络的海洋哺乳动物发声实时识别方法

Similar Documents

Publication Publication Date Title
CN108805070A (zh) 一种基于嵌入式终端的深度学习行人检测方法
Jia et al. Detection and segmentation of overlapped fruits based on optimized mask R-CNN application in apple harvesting robot
CN109902806A (zh) 基于卷积神经网络的噪声图像目标边界框确定方法
CN110210551A (zh) 一种基于自适应主体敏感的视觉目标跟踪方法
CN109299716A (zh) 神经网络的训练方法、图像分割方法、装置、设备及介质
CN107818302A (zh) 基于卷积神经网络的非刚性多尺度物体检测方法
CN111753677B (zh) 基于特征金字塔结构的多角度遥感船舶图像目标检测方法
CN113076871A (zh) 一种基于目标遮挡补偿的鱼群自动检测方法
CN110647802A (zh) 基于深度学习的遥感影像舰船目标检测方法
CN115205667A (zh) 一种基于YOLOv5s的密集目标检测方法
CN110334656A (zh) 基于信源概率加权的多源遥感图像水体提取方法及装置
CN114092487A (zh) 目标果实实例分割方法及系统
CN113822185A (zh) 一种群养生猪日常行为检测方法
CN114140665A (zh) 一种基于改进YOLOv5的密集小目标检测方法
CN109903339A (zh) 一种基于多维融合特征的视频群体人物定位检测方法
CN113435254A (zh) 一种基于哨兵二号影像的耕地深度学习提取方法
CN116935332A (zh) 一种基于动态视频的渔船目标检测与跟踪方法
Li et al. Lightweight automatic identification and location detection model of farmland pests
CN111339950B (zh) 一种遥感图像目标检测方法
CN107766858A (zh) 一种应用合成孔径雷达图像进行船舶检测的方法
CN117079125A (zh) 一种基于改进型YOLOv5的猕猴桃授粉花朵识别方法
CN112329830A (zh) 一种基于卷积神经网络和迁移学习的无源定位轨迹数据识别方法及系统
CN110705698A (zh) 尺度自适应感知的目标计数深度网络设计方法
CN113537173B (zh) 一种基于面部补丁映射的人脸图像真伪识别方法
CN113344005B (zh) 一种基于优化小尺度特征的图像边缘检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20181113

WD01 Invention patent application deemed withdrawn after publication