CN111414861A - 基于深度学习实现行人及非机动车辆检测处理的方法 - Google Patents
基于深度学习实现行人及非机动车辆检测处理的方法 Download PDFInfo
- Publication number
- CN111414861A CN111414861A CN202010201390.4A CN202010201390A CN111414861A CN 111414861 A CN111414861 A CN 111414861A CN 202010201390 A CN202010201390 A CN 202010201390A CN 111414861 A CN111414861 A CN 111414861A
- Authority
- CN
- China
- Prior art keywords
- deep learning
- pedestrians
- detection processing
- motor vehicles
- feature map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 46
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000013135 deep learning Methods 0.000 title claims abstract description 26
- 238000012545 processing Methods 0.000 title claims abstract description 23
- 238000012549 training Methods 0.000 claims abstract description 18
- 238000012544 monitoring process Methods 0.000 claims abstract description 16
- 238000002372 labelling Methods 0.000 claims abstract description 13
- 238000013136 deep learning model Methods 0.000 claims abstract description 10
- 238000010586 diagram Methods 0.000 claims abstract description 5
- 230000006870 function Effects 0.000 claims description 20
- 230000003321 amplification Effects 0.000 claims description 10
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 10
- 238000007499 fusion processing Methods 0.000 claims description 5
- 238000013139 quantization Methods 0.000 claims description 4
- 238000013434 data augmentation Methods 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 abstract description 3
- 230000002159 abnormal effect Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 208000003464 asthenopia Diseases 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Human Computer Interaction (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于深度学习实现行人及非机动车辆检测处理的方法,包括进行数据集标注,收集监控采集的图片,对图片中的行人和非机动车辆进行人工标注,得到带有目标类别和目标位置框坐标的图片标签;进行模型训练,通过FPN网络结构的模型对多尺度特征图进行检测,将预处理之后的图片和标签放入网络进行训练,得到最终的深度学习模型;将待检测图片放入深度学习模型,对行人和非机动车辆进行目标检测,得到待检测图片的识别结果。采用了本发明的基于深度学习实现行人及非机动车辆检测处理的方法,基于先进的机器视觉技术,不仅能节省人力成本,在保证精度的情况下运行速度快,能保障告警的及时性,能严格杜绝安全隐患。
Description
技术领域
本发明涉及机器视觉领域,尤其涉及深度学习领域,具体是指一种基于深度学习实现行人及非机动车辆检测处理的方法。
背景技术
小区视频监控主要用于对重要区域或远程地点的监视和控制。视频监控系统将监控点实时采集的视频流实时地传输给监控中心,便于监控中心进行远程监控,对异常事件(如人员跌倒,不明人员逗留,非机动车辆违规占道等)及时指挥处置。监控中心需要投入人力成本,而且监控人员长期盯住屏幕观看会产生视觉疲劳,在时效上也存在一定的安全隐患。
利用深度学习进行目标检测是近几年计算机视觉领域比较热门的方向。由于视频中的目标具有不同姿态且经常出现遮挡、其运动具有不规则性,同时考虑到监控视频的景深、分辨率、天气、光照等条件和场景的多样性,目标检测这一基本任务仍然是非常具有挑战性的课题,存在很大的提升潜力和空间。
发明内容
本发明的目的是克服了上述现有技术的缺点,提供了一种满足精度高、安全性好、适用范围较为广泛的基于深度学习实现行人及非机动车辆检测处理的方法。
为了实现上述目的,本发明的基于深度学习实现行人及非机动车辆检测处理的方法如下:
该基于深度学习实现行人及非机动车辆检测处理的方法,其主要特点是,所述的方法包括以下步骤:
(1)进行数据集标注,收集监控采集的图片,对图片中的行人和非机动车辆进行人工标注,得到带有目标类别和目标位置框坐标的图片标签;
(2)进行模型训练,通过FPN网络结构(Feature Pyramid Networks,即特征金字塔网络)的模型对多尺度特征图进行检测,将预处理之后的图片和标签放入网络进行训练,得到最终的深度学习模型;
(3)将待检测图片放入深度学习模型,对行人和非机动车辆进行目标检测,得到待检测图片的识别结果。
较佳地,所述的步骤(2)具体包括以下步骤:
(2.1)对多尺度特征图通过卷积进行检测;
(2.2)对每个单元设置尺度或者长宽比不同的先验框,输出每个先验框对应边界框的各类别的置信度或评分,以及边界框的位置预测值;
(2.3)通过损失函数调整模型;
(2.4)通过数据扩增提升模型性能。
较佳地,所述的步骤(2.2)中置信度最高的类别为边界框所属的类别。
较佳地,所述的步骤(2.2)中的位置预测值为边界框相对于先验框的转换值。
较佳地,所述的步骤(2)中的多尺度特征图包含较大的特征图和较小的特征图,所述的较大的特征图放置于较小的特征图前。
较佳地,所述的步骤(2.3)中的损失函数为位置误差与置信度误差的加权和。
较佳地,所述的步骤(2.3)中的损失函数具体为:
根据以下公式计算损失函数:
较佳地,所述的步骤(2.4)中的数据扩增操作包括水平翻转、随机裁剪加颜色扭曲和随机采集块域。
较佳地,所述的步骤(2)中的FPN网络结构包括自底向上的过程和自顶向下和侧向连接的融合过程。
采用了本发明的基于深度学习实现行人及非机动车辆检测处理的方法,基于先进的机器视觉技术,不仅能节省人力成本,而且让原来的视频监控系统对异常事件(如人员跌倒,不明人员逗留,非机动车辆违规占道等)具有智能识别功能,从而将值班人员从长期紧盯屏幕的紧张状态中解脱出来,该方法在保证精度的情况下运行速度快,能保障告警的及时性,能严格杜绝安全隐患。本发明提供的行人及非机动车辆检测方法能应用于小区监控等场合。
附图说明
图1为本发明的基于深度学习实现行人及非机动车辆检测处理的方法的训练及识别流程图。
图2为本发明的基于深度学习实现行人及非机动车辆检测处理的方法的FPN网络结构示意图图。
图3为本发明的基于深度学习实现行人及非机动车辆检测处理的方法的FPN网络结构实施细节图。
具体实施方式
为了能够更清楚地描述本发明的技术内容,下面结合具体实施例来进行进一步的描述。
本发明的该基于深度学习实现行人及非机动车辆检测处理的方法,其中包括以下步骤:
(1)进行数据集标注,收集监控采集的图片,对图片中的行人和非机动车辆进行人工标注,得到带有目标类别和目标位置框坐标的图片标签;
(2)进行模型训练,通过FPN网络结构的模型对多尺度特征图进行检测,将预处理之后的图片和标签放入网络进行训练,得到最终的深度学习模型;
(2.1)对多尺度特征图通过卷积进行检测;
(2.2)对每个单元设置尺度或者长宽比不同的先验框,输出每个先验框对应边界框的各类别的置信度或评分,以及边界框的位置预测值;
(2.3)通过损失函数调整模型;
(2.4)通过数据扩增提升模型性能;
(3)将待检测图片放入深度学习模型,对行人和非机动车辆进行目标检测,得到待检测图片的识别结果。
作为本发明的优选实施方式,所述的步骤(2.2)中置信度最高的类别为边界框所属的类别。
作为本发明的优选实施方式,所述的步骤(2.2)中的位置预测值为边界框相对于先验框的转换值。
作为本发明的优选实施方式,所述的步骤(2)中的多尺度特征图包含较大的特征图和较小的特征图,所述的较大的特征图放置于较小的特征图前。
作为本发明的优选实施方式,所述的步骤(2.3)中的损失函数为位置误差与置信度误差的加权和。
作为本发明的优选实施方式,所述的步骤(2.3)中的损失函数具体为:
根据以下公式计算损失函数:
作为本发明的优选实施方式,所述的步骤(2.4)中的数据扩增操作包括水平翻转、随机裁剪加颜色扭曲和随机采集块域。
作为本发明的优选实施方式,所述的步骤(2)中的FPN网络结构包括自底向上的过程和自顶向下和侧向连接的融合过程。
本发明的具体实施方式中,一种基于深度学习的行人和非机动车辆检测方法,所述方法包括以下步骤:
步骤1,数据集标注。收集小区视频监控下的若干张图片,对图片中的行人和非机动车辆(自行车、电动车)进行人工标注,得到带有目标类别和目标位置框坐标的图片标签。
步骤2,模型训练。模型backbone采用基于resnet的FPN网络结构,采用多尺度特征图用于检测,检测的损失函数为MultiBox Loss,将预处理之后的图片和标签送入网络进行训练,得到最终的深度学习模型。
步骤3,目标识别。将待检测图片送入步骤2训练好的模型,对行人和非机动车辆进行目标检测,最终的到待检测图片的识别结果,具体流程如图一所示。
进一步,所述步骤2中,FPN的目标是利用卷积网络本身带有的层次性语义特征,来构建特征金字塔。FPN包含两个部分:第一部分是自底向上的过程,第二部分是自顶向下和侧向连接的融合过程。
采用多尺度特征图
所谓多尺度特征图,CNN网络一般前面的特征图比较大,后面会逐渐采用stride=2的卷积或者pool来降低特征图大小,一个比较大的特征图和一个比较小的特征图,它们都用来做检测。这样做的好处是比较大的特征图来用来检测相对较小的目标,而小的特征图负责检测大目标。
采用卷积进行检测
直接采用卷积对不同的特征图来进行提取检测结果。对于形状为m×n×p的特征图,只需要采用3×3×p这样比较小的卷积核得到检测值。
设置先验框
每个单元设置尺度或者长宽比不同的先验框,预测的边界框(bounding boxes)是以这些先验框为基准的,在一定程度上减少训练难度。一般情况下,每个单元会设置多个先验框,其尺度和长宽比存在差异。
损失函数
损失函数定义为位置误差(locatization loss,loc)与置信度误差(confidenceloss,conf)的加权和:
其中N是先验框的正样本数量。这里为一个指示参数,当时表示第i个先验框与第j个ground truth匹配,并且ground truth的类别为p。c为类别置信度预测值。l为先验框的所对应边界框的位置预测值,而g是ground truth的位置参数。
数据扩增
采用数据扩增(Data Augmentation)可以提升模型的性能,主要采用的技术有水平翻转(horizontal flip),随机裁剪加颜色扭曲(random crop&color distortion),随机采集块域(Randomly sample a patch)(获取小目标训练样本)。
如图1至图3,本发明的具体实施例中包括以下步骤:
步骤1,数据集标注。收集小区视频监控下的若干张图片,对图片中的行人和非机动车辆(自行车、电动车)进行人工标注,得到带有目标类别和目标位置框坐标的图片标签,标注格式为(x1,y1,x2,y2,class)。
步骤2,模型训练。模型backbone采用基于resnet的FPN网络结构,采用多尺度特征图用于检测,检测的损失函数为MultiBox Loss,将预处理之后的图片和标签送入网络进行训练,得到最终的深度学习模型。
步骤3,目标识别。将待检测图片送入步骤2训练好的模型,对行人和非机动车辆进行目标检测,最终的到待检测图片的识别结果。
模型训练和目标识别的流程如图1所示。
进一步,所述步骤2中,FPN的目标是利用卷积网络本身带有的层次性语义特征,来构建特征金字塔。FPN包含两个部分:第一部分是自底向上的过程,第二部分是自顶向下和侧向连接的融合过程,如图2所示。FPN的网络结构如下:
(1)自底向上的过程:自底向上的过程和普通的CNN没有区别。现代的CNN网络一般都是按照特征图大小划分为不同的stage,每个stage之间特征图的尺度比例相差为2。在FPN中,每个stage对应了一个特征金字塔的级别(level),并且每个stage的最后一层特征被选为对应FPN中相应级别的特征。具体的,选取conv3、conv4、conv5、conv6、conv7、conv8、conv9层的特征作为FPN的特征,记为{C2、C3、C4、C5、C6、C7、C8、C9}。这几个特征层相对于原图的步长分别为8、16、32、64、128、256、512。
(2)自顶向下过程以及侧向连接:自顶向下的过程通过上采样(up-sampling)的方式将顶层的小特征图放大到上一个stage的特征图一样的大小。这样的好处是既利用了顶层较强的语义特征(利于分类),又利用了底层的高分辨率信息(利于定位)。上采样的方法可以用最近邻差值实现。侧向连接将上一层经过上采样后和当前层分辨率一致的特征,通过相加的方法进行融合。(这里为了修正通道数量,将当前层先经过1x1卷积操作)。具体的,C5层先经过1x1卷积,得到M5特征。M5通过上采样,再加上C4经过1x1卷积后的特征,得到M4。这个过程再做一次,得到M3。
采用多尺度特征图
所谓多尺度特征图,CNN网络一般前面的特征图比较大,后面会逐渐采用stride=2的卷积或者pool来降低特征图大小,一个比较大的特征图和一个比较小的特征图,它们都用来做检测。这样做的好处是比较大的特征图来用来检测相对较小的目标,而小的特征图负责检测大目标。
采用卷积进行检测
直接采用卷积对不同的特征图来进行提取检测结果。对于形状为m×n×p的特征图,只需要采用3×3×p这样比较小的卷积核得到检测值。
设置先验框
每个单元设置尺度或者长宽比不同的先验框,预测的边界框(bounding boxes)是以这些先验框为基准的,在一定程度上减少训练难度。一般情况下,每个单元会设置多个先验框,其尺度和长宽比存在差异。
对于每个单元的每个先验框,其都输出一套独立的检测值,对应一个边界框,主要分为两个部分。第一部分是各个类别的置信度或者评分,其中背景也当做了一个特殊的类别,如果检测目标共有c个类别,SSD其实需要预测c+1个置信度值。在预测过程中,置信度最高的那个类别就是边界框所属的类别,特别地,当第一个置信度值最高时,表示边界框中并不包含目标。第二部分就是边界框的location,包含4个值(cx,cy,w,h),分别表示边界框的中心坐标以及宽高。但是真实预测值其实只是边界框相对于先验框的转换值。先验框位置用d=(dcx,dcy,dw,dh)表示,其对应边界框用b=(bcx,bcy,bw,bh)表示,那么边界框的预测值L其实是b相对于d的转换值:
lcx=(bcx-dcx)/dw,lcy=(bcy-dcy)/dh
lw=log(bw/dw),lh=log(bh/dh)
习惯上,我们称上面这个过程为边界框的编码(encode),预测时需要反向这个过程,即进行解码(decode),从预测值d中得到边界框的真实位置b:
bcx=dwlcx+dcx,bcy=dhlcy+dcy
bw=dwexp(lw),bh=dhexp(lh)
具体的,如图3所示,共提取P3~P9一共7个特征图,每个特征图的像素点上共有9个先验框
损失函数
损失函数定义为位置误差(locatization loss,loc)与置信度误差(confidenceloss,conf)的加权和:
其中N是先验框的正样本数量。这里为一个指示参数,当时表示第i个先验框与第j个ground truth(误差量化)匹配,并且ground truth的类别为p。c为类别置信度预测值。l为先验框的所对应边界框的位置预测值,而g是ground truth的位置参数。对于位置误差,其采用Smooth L1 loss,定义如下:
对于置信度误差,其采用softmax loss:
权重系数α设置为1。
数据扩增
采用数据扩增(DataAugmentation)可以提升模型的性能,主要采用的技术有水平翻转(horizontal flip),随机裁剪加颜色扭曲(random crop&color distortion),随机采集块域(Randomly sample a patch)(获取小目标训练样本)。
采用了本发明的基于深度学习实现行人及非机动车辆检测处理的方法,基于先进的机器视觉技术,不仅能节省人力成本,而且让原来的视频监控系统对异常事件(如人员跌倒,不明人员逗留,非机动车辆违规占道等)具有智能识别功能,从而将值班人员从长期紧盯屏幕的紧张状态中解脱出来,该方法在保证精度的情况下运行速度快,能保障告警的及时性,能严格杜绝安全隐患。本发明提供的行人及非机动车辆检测方法能应用于小区监控等场合。
在此说明书中,本发明已参照其特定的实施例作了描述。但是,很显然仍可以作出各种修改和变换而不背离本发明的精神和范围。因此,说明书和附图应被认为是说明性的而非限制性的。
Claims (9)
1.一种基于深度学习实现行人及非机动车辆检测处理的方法,其特征在于,所述的方法包括以下步骤:
(1)进行数据集标注,收集监控采集的图片,对图片中的行人和非机动车辆进行人工标注,得到带有目标类别和目标位置框坐标的图片标签;
(2)进行模型训练,通过FPN网络结构的模型对多尺度特征图进行检测,将预处理之后的图片和标签放入网络进行训练,得到最终的深度学习模型;
(3)将待检测图片放入深度学习模型,对行人和非机动车辆进行目标检测,得到待检测图片的识别结果。
2.根据权利要求1所述的基于深度学习实现行人及非机动车辆检测处理的方法,其特征在于,所述的步骤(2)具体包括以下步骤:
(2.1)对多尺度特征图通过卷积进行检测;
(2.2)对每个单元设置尺度或者长宽比不同的先验框,输出每个先验框对应边界框的各类别的置信度或评分,以及边界框的位置预测值;
(2.3)通过损失函数调整模型;
(2.4)通过数据扩增提升模型性能。
3.根据权利要求2所述的基于深度学习实现行人及非机动车辆检测处理的方法,其特征在于,所述的步骤(2.2)中置信度最高的类别为边界框所属的类别。
4.根据权利要求2所述的基于深度学习实现行人及非机动车辆检测处理的方法,其特征在于,所述的步骤(2.2)中的位置预测值为边界框相对于先验框的转换值。
5.根据权利要求1所述的基于深度学习实现行人及非机动车辆检测处理的方法,其特征在于,所述的步骤(2)中的多尺度特征图包含较大的特征图和较小的特征图,所述的较大的特征图放置于较小的特征图前。
6.根据权利要求2所述的基于深度学习实现行人及非机动车辆检测处理的方法,其特征在于,所述的步骤(2.3)中的损失函数为位置误差与置信度误差的加权和。
8.根据权利要求2所述的基于深度学习实现行人及非机动车辆检测处理的方法,其特征在于,所述的步骤(2.4)中的数据扩增操作包括水平翻转、随机裁剪加颜色扭曲和随机采集块域。
9.根据权利要求1所述的基于深度学习实现行人及非机动车辆检测处理的方法,其特征在于,所述的步骤(2)中的FPN网络结构包括自底向上的过程和自顶向下和侧向连接的融合过程。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010201390.4A CN111414861A (zh) | 2020-03-20 | 2020-03-20 | 基于深度学习实现行人及非机动车辆检测处理的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010201390.4A CN111414861A (zh) | 2020-03-20 | 2020-03-20 | 基于深度学习实现行人及非机动车辆检测处理的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111414861A true CN111414861A (zh) | 2020-07-14 |
Family
ID=71491298
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010201390.4A Pending CN111414861A (zh) | 2020-03-20 | 2020-03-20 | 基于深度学习实现行人及非机动车辆检测处理的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111414861A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111931751A (zh) * | 2020-10-13 | 2020-11-13 | 深圳市瑞图生物技术有限公司 | 深度学习训练方法、目标物识别方法、系统和存储介质 |
CN112001259A (zh) * | 2020-07-28 | 2020-11-27 | 联芯智能(南京)科技有限公司 | 基于可见光图像的航拍微弱人体目标智能检测方法 |
CN112651441A (zh) * | 2020-12-25 | 2021-04-13 | 深圳市信义科技有限公司 | 细粒度非机动车特征检测方法、存储介质及计算机设备 |
WO2022048572A1 (zh) * | 2020-09-02 | 2022-03-10 | 杭州海康威视数字技术股份有限公司 | 目标识别方法、装置和电子设备 |
CN115147642A (zh) * | 2022-06-02 | 2022-10-04 | 盛视科技股份有限公司 | 基于视觉的渣土车检测方法、装置、计算机及存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109214241A (zh) * | 2017-07-03 | 2019-01-15 | 中国科学院文献情报中心 | 基于深度学习算法的行人检测方法 |
-
2020
- 2020-03-20 CN CN202010201390.4A patent/CN111414861A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109214241A (zh) * | 2017-07-03 | 2019-01-15 | 中国科学院文献情报中心 | 基于深度学习算法的行人检测方法 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112001259A (zh) * | 2020-07-28 | 2020-11-27 | 联芯智能(南京)科技有限公司 | 基于可见光图像的航拍微弱人体目标智能检测方法 |
WO2022048572A1 (zh) * | 2020-09-02 | 2022-03-10 | 杭州海康威视数字技术股份有限公司 | 目标识别方法、装置和电子设备 |
CN111931751A (zh) * | 2020-10-13 | 2020-11-13 | 深圳市瑞图生物技术有限公司 | 深度学习训练方法、目标物识别方法、系统和存储介质 |
CN112651441A (zh) * | 2020-12-25 | 2021-04-13 | 深圳市信义科技有限公司 | 细粒度非机动车特征检测方法、存储介质及计算机设备 |
CN112651441B (zh) * | 2020-12-25 | 2022-08-16 | 深圳市信义科技有限公司 | 细粒度非机动车特征检测方法、存储介质及计算机设备 |
CN115147642A (zh) * | 2022-06-02 | 2022-10-04 | 盛视科技股份有限公司 | 基于视觉的渣土车检测方法、装置、计算机及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111414861A (zh) | 基于深度学习实现行人及非机动车辆检测处理的方法 | |
CN110263706B (zh) | 一种雾霾天气车载视频动态目标检测和识别的方法 | |
CN110728200A (zh) | 一种基于深度学习的实时行人检测方法及系统 | |
CN110532961B (zh) | 一种基于多尺度注意机制网络模型的语义交通信号灯检测方法 | |
CN109948418A (zh) | 一种基于深度学习的违反导向违法自动审核方法 | |
CN109117838B (zh) | 应用于无人船感知系统的目标检测方法及装置 | |
CN112084928B (zh) | 基于视觉注意力机制和ConvLSTM网络的道路交通事故检测方法 | |
CN112766184A (zh) | 基于多层级特征选择卷积神经网络的遥感目标检测方法 | |
CN115376108A (zh) | 一种复杂天气下障碍物检测方法及装置 | |
CN112861700B (zh) | 基于DeepLabv3+的车道线网络识别模型建立及车辆速度检测方法 | |
CN114120272A (zh) | 一种融合边缘检测的多监督智能车道线语义分割方法 | |
CN111008574A (zh) | 一种基于形体识别技术的重点人员轨迹分析方法 | |
CN106778540A (zh) | 停车检测准确的基于双层背景的停车事件检测方法 | |
CN114926456A (zh) | 一种半自动标注和改进深度学习的铁轨异物检测方法 | |
CN115953744A (zh) | 一种基于深度学习的车辆识别追踪方法 | |
CN115409789A (zh) | 基于图像语义分割的输电线路工程缺陷检测方法 | |
CN112347967B (zh) | 一种复杂场景下融合运动信息的行人检测方法 | |
CN117710843A (zh) | 一种基于无人机视频的交叉口动态信号配时方案检测方法 | |
CN110765900A (zh) | 一种基于dssd的自动检测违章建筑方法及系统 | |
CN116824406A (zh) | 一种基于改进Mask RCNN的工程车辆分割算法 | |
CN112036246B (zh) | 遥感影像分类模型的构建方法,遥感影像分类方法及系统 | |
CN116452943A (zh) | 一种基于卷积神经网络进行图像识别的水位识别方法 | |
CN109145744A (zh) | 一种基于自适应预测模式的lstm网络行人重识别方法 | |
CN116189136A (zh) | 一种基于深度学习的雨雪天气下交通信号灯检测方法 | |
CN111738088B (zh) | 一种基于单目摄像头的行人距离预测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200714 |