CN109948501A - 一种监控视频中人员和安全帽的检测方法 - Google Patents
一种监控视频中人员和安全帽的检测方法 Download PDFInfo
- Publication number
- CN109948501A CN109948501A CN201910187994.5A CN201910187994A CN109948501A CN 109948501 A CN109948501 A CN 109948501A CN 201910187994 A CN201910187994 A CN 201910187994A CN 109948501 A CN109948501 A CN 109948501A
- Authority
- CN
- China
- Prior art keywords
- indicate
- bounding box
- target object
- grid
- confidence level
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 39
- 238000000034 method Methods 0.000 claims description 13
- 238000012549 training Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000012544 monitoring process Methods 0.000 abstract description 21
- 230000006870 function Effects 0.000 abstract description 19
- 238000004422 calculation algorithm Methods 0.000 abstract description 17
- 238000013461 design Methods 0.000 abstract description 3
- 238000007689 inspection Methods 0.000 abstract description 3
- 238000004519 manufacturing process Methods 0.000 abstract description 2
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 230000033772 system development Effects 0.000 description 1
Landscapes
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本发明涉及一种监控视频中人员和安全帽的检测方法,其特征在于,采用改进后的YOLO网络结构检测监控视频图像中人员和安全帽,改进后YOLO网络结构包括18个卷积层、6个池化层、1个全连接层与1个softmax输出层。本发明设计的智能视频监控系统利用改进后的YOLO算法进行视频检测,可以实现车间内工作人员安全帽的佩戴检查、外来人员的定位跟踪等智能视频监控功能,在很大程度上节约人工检查的人力和时间成本,有效降低事故发生的风险,节约生产成本。
Description
技术领域
本发明涉及一种基于改进YOLO算法的监控视频中人员和安全帽的检测方法,用于数字化车间智能视频监控中。
背景技术
从20世纪下半世纪开始,视频监控系统发展取得了很好的成就,整个监控系统的发展经历了三大阶段:模拟视频监控系统、数字视频监控系统和全数字化监控系统。模拟监控系统早期的视频监控是以摄像机、监视器等等组成的纯模拟的视频监控系统,也就是闭路监视系统。数字视频监控系统于1995年左右在市场上出现,在市场流通上主要以DVR的形式来出现,数字视频监控系统的利用大大提高了用户对录像信息的处理能力。DVR可以使模拟的数字信号存储在硬盘上。进入21世纪以来,经济科技迅猛发展,计算机技术、网络宽度、存储器容量不断提高。网络监控系统在此背景下蓬勃发展,这些技术的应用使视频监控技术进入全数字化的网络时代,也就是第三代视频监控系统。
传统视频监控系统主要为人工监控,事后观察视频取证;而且视频监控系统的架构设计比较单一,不能对视频图像进实时智能分析,不能实现远程监控,并且无法进行异常事件及时报警。智能视频监控系统区别于传统视频监控,将被动监控改为主动监控,可以进行自动检测,对检测目标进行定位跟踪,不仅用摄像头代替人眼而且用计算机代替人、协助人来完成监视或控制任务,从而减轻工作人员工作负担。
YOLO(You Only Look Once)作为一种全新的神经网络结构,可同时预测检测对象的类别和位置,将目标检测视为简单的回归问题,是一种实时检测方法。YOLO是一种基于深度学习卷积神经网络的目标检测的模型。卷积神经网络主要利用卷积层对输入的图片进行卷积运算,进而降低图片数据的维度,进行特征提取。在检测的过程中,YOLO算法将每张图片分成7*7的网格,因为一个单元格只负责预测一个物体,当多个物体的中心落在同一个格子中时,该格子很难区分物体类别,因此对于距离较近的物体识别效果不佳。在图像预处理阶段,训练集图片经过卷积层后由高分辨率压缩为低分辨率,用于分类特征提取,在压缩过程中,图片中小物体的特征将很难保存。应用在车间中时,安全帽相对来说是较小的目标,当工作人员较近或安全帽重叠时,识别效果较差。
发明内容
本发明的目的是:提高基于深度学习的YOLO检测算法检测小物体的能力,更多的保留监控视频图像中的特征信息。
为了达到上述目的,本发明的技术方案是提供了一种监控视频中人员和安全帽的检测方法,其特征在于,采用YOLO网络结构检测监控视频图像中人员和安全帽,改进的YOLO网络结构包括18个卷积层、6个池化层、1个全连接层与1个softmax输出层,其中,卷积层用来提取监控视频图像的图像特征,池化层用来压缩监控视频图像的图片像素,softmax层用来输出物体分类,检测过程包括以下步骤:
将监控视频图像分成S×S个网格,当目标物体的中心落在某一个网格时,该网格就负责预测目标物体,每个网格预测B个边界框以及边界框的置信度,包括边界框的中心坐标(x,y)及边界框的长w、宽h,界框的置信度表示网格内是否有检测物体以及边界框的准确度,将置信度定义为:
若格子内存在目标物体,则Pr(Object)=1, 若格子内不存在目标物体,则Pr(Object)=0,置信度=0,表示交集与并集的比值,为系统预测出来的边界框与物体实际边界框的重合程度。
同时,每个网格存在物体所属分类的概率,定义为:
Pr(Classi|Object),式中,Classi表示目标物体的类别,Pr(Classi|Object)表示各个网格存在物体所属类别的概率。
每个网格物体类别的概率计算公式为:
式中,Object表示目标物体,Pr(Classi)表示物体类别的概率。
损失函数为:边界框的损失函数+置信度损失函数+分类损失函数,其中:
边界框的损失函数为:
式中,λcoord表示坐标误差的权重系数,表示第i个网格预测的第j个边界框负责检测目标物体,该边界框与物体实际的框交并比最大,(xi,yi)表示单元格i预测边界框的中心点坐标,表示目标物体实际边界框的中心点坐标,wi表示单元格i预测边界框的宽度,表示目标物体实际边界框的宽度,hi表示单元格i预测边界框的高度,表示目标物体实际边界框的高度。
置信度损失函数为:
按是否含有目标物体分为两部分,对于不含有目标物体的部分设置参数,λnoobj防止模型跑飞,表示第i个网格预测的第j个边界框未检测到目标物体,ci表示预测的边界框中单元格i的置信度,表示实际的边界框中单元格i的置信度。
分类损失函数为:
pi(c)和分别表示预测的和真实的边界框中第i个网格中包含第c类对象的条件概率,表示是否单元格i中出现目标物体。
优选地,对所述YOLO网络结构的训练包括以下步骤:
步骤1、将输入的图片集用图片打标工具labelImg打标,将图片中的人和安全帽标注出来,获得目标物体的真实坐标,制作数据集的标签,生成xml文件;
步骤2、初始化每张图片的预测坐标为空;
步骤3、基于RPN的方法生成目标物体边界框的向量矩阵;
步骤4、将上一步得到的矩阵向量作为YOLO网络结构的第一层输入,其结果作为YOLO网络结构的第二层输入;
步骤5、执行池化操作
步骤6、将上个步骤的结果摄入,滑动窗口扫描网格,进行卷积池化,计算滑动窗口内单元格的特征向量;
步骤7、将上一步的特征向量输入第18个卷积层,取步长为2进行卷积;
步骤8、将上一步的输出输入全连接层,取步长为1进行卷积;
步骤9、将上一步的输出输入softmax分类函数,计算图片的预测概率估计值,获得对应的目标区域的特征;
步骤10、将上个步骤的目标区域的特征保存到特征模型中,输出特征模型。
本发明设计的智能视频监控系统利用改进后的YOLO算法进行视频检测,可以实现车间内工作人员安全帽的佩戴检查、外来人员的定位跟踪等智能视频监控功能,在很大程度上节约人工检查的人力和时间成本,有效降低事故发生的风险,节约生产成本。
附图说明
图1A及图1B为改进前后输出图像网格结构对比图;
图2为改进后的网络结构图。
具体实施方式
为使本发明更明显易懂,兹以优选实施例,并配合附图作详细说明如下。
本发明提供的一种基于改进YOLO算法的监控视频中人员和安全帽的检测方法将RPN检测算法融入到YOLO算法中,输入图片采用先池化再卷积的方法,在卷积层上进行滑动窗口操作,并借鉴R-FCN算法,去掉一个全连接层,以减少图片特征丢失。
如图2所示,本发明中YOLO网络结构包括18个卷积层、6个池化层、1个全连接层与1个softmax输出层,其中,卷积层用来提取监控视频图像的图像特征,池化层用来压缩监控视频图像的图片像素,softmax层用来输出物体分类,检测过程包括以下步骤:
将监控视频图像分成S×S个网格,当目标物体的中心落在某一个网格时,该网格就负责预测目标物体,每个网格预测B个边界框以及边界框的置信度,包括边界框的中心坐标(x,y)及边界框的长w、宽h,界框的置信度表示网格内是否有检测物体以及边界框的准确度,将置信度定义为:
式中,若格子内存在目标物体,则Pr(Object)=1,若格子内不存在目标物体,则Pr(Object)=0,置信度=0,表示交集与并集的比值,为系统预测出来的边界框与物体实际边界框的重合程度;同时,每个网格存在物体所属分类的概率,定义为:
Pr(Classi|Object),式中,Classi表示物体类别,Pr(Classi|Object)表示网格中存在物体所属类别的概率。
每个网格物体类别的概率计算公式为:
式中,Object表示目标物体,Pr(Classi)表示物体类别的概率。
损失函数为:边界框的损失函数+置信度损失函数+分类损失函数,其中:
边界框的损失函数为:
式中,λcoord表示坐标误差的权重系数,表示第i个网格预测的第j个边界框负责检测目标物体,该边界框与物体实际的框交并比最大,(xi,yi)表示单元格i预测边界框的中心点坐标,表示目标物体实际边界框的中心点坐标,wi表示单元格i预测边界框的宽度,表示目标物体实际边界框的宽度,hi表示单元格i预测边界框的高度,表示目标物体实际边界框的高度。
置信度损失函数为:
按是否含有目标物体分为两部分,对于不含有目标物体的部分设置参数,λnoobj防止模型跑飞,表示第i个网格预测的第j个边界框未检测目标物体,ci表示预测的边界框中单元格i的置信度,表示实际的边界框中单元格i的置信度。
分类损失函数为:
pi(c)和分别表示预测的和真实的边界框中第i个网格中包含第c类对象的条件概率,表示是否单元格i中出现目标物体。
基于卷积神经网络的目标检测方法需要从大量的样本中学习待检测物体的特征,本发明采用的数据集,为车间中四种摄像头采集到的图像数据集,四个摄像头各取1万张图片,每个图片的大小为500*500,使用图片打标工具labelImg对数据集进行打标。数据集40%作为训练集,10%用于验证,50%作为测试集。训练模型过程如下:
训练过程采用小批量梯度下降法和冲量,这样可以使训练过程更快收敛。运用反向传播法使参数不断更新,直至损失函数收敛。网络训练设置参数为,学习批次64,学习率0.001,冲量常数0.9,权值衰减系数0.0005,包括以下步骤:
步骤1、将输入的图片集用图片打标工具labelImg打标,将图片中的人和安全帽标注出来,获得目标物体的真实坐标,制作数据集的标签,生成xml文件;
步骤2、初始化每张图片的预测坐标为空;
步骤3、基于RPN的方法生成目标物体边界框的向量矩阵;
步骤4、将上一步得到的矩阵向量作为YOLO网络结构的第一层输入,其结果作为YOLO网络结构的第二层输入;
步骤5、执行池化操作
步骤6、将上个步骤的结果摄入,滑动窗口扫描网格,进行卷积池化,计算滑动窗口内单元格的特征向量;
步骤7、将上一步的特征向量输入第18个卷积层,取步长为2进行卷积;
步骤8、将上一步的输出输入全连接层,取步长为1进行卷积;
步骤9、将上一步的输出输入softmax分类函数,计算图片的预测概率估计值,获得对应的目标区域的特征;
步骤10、将上个步骤的目标区域的特征保存到特征模型中,输出特征模型。
搭建完特征模型后对利用测试图片集对模型进行测试。
设置对照实验,使用Keras框架分别利用YOLO与改进YOLO进行检测,统计对象为工作人员与安全帽。本文选取召回率与准确率和检测速度作为算法性能衡量指标。
两种算法召回率、准确率与检测速度对比如下:
表1工作人员检测对比结果表
检测算法 | 召回率/% | 准确率/% | 平均每帧处理时间/ms |
YOLO | 88.32 | 94.74 | 22.421 |
改进后 | 89.86 | 95.23 | 21.357 |
表2安全帽检测对比结果表
检测算法 | 召回率/% | 准确率/% | 平均每帧处理时间/ms |
YOLO | 83.57 | 88.85 | 22.411 |
改进后 | 87.91 | 93.42 | 20.659 |
试验表明本实例建立的基于改进YOLO算法的监控视频中人员和安全帽的检测方法,较未改进的模型在准确率和快速性方面都有提高,尤其是在安全帽检测上性能有了较大幅度提升。
本发明提供的改进后的算法构成一种新的网络结构,更多的保留了图像特征,提高了检测小物体的能力,也提高了系统的综合检测能力。该算法应用于数字化车间智能视频监控系统中,具有较快的检测速度和较高的检测准确率,满足实时性要求,具有一定的应用价值。
Claims (2)
1.一种监控视频中人员和安全帽的检测方法,其特征在于,采用YOLO网络结构检测监控视频图像中人员和安全帽,改进后YOLO网络结构包括18个卷积层、6个池化层、1个全连接层与1个softmax输出层,其中,卷积层用来提取监控视频图像的图像特征,池化层用来压缩监控视频图像的图片像素,softmax层用来输出物体分类,检测过程包括以下步骤:
将监控视频图像分成S×S个网格,当目标物体的中心落在某一个网格时,该网格就负责预测目标物体,每个网格预测B个边界框以及边界框的置信度,包括边界框的中心坐标(x,y)及边界框的长w、宽h,界框的置信度表示网格内是否有检测物体以及边界框的准确度,将置信度定义为:
若格子内存在目标物体,则Pr(Object)=1, 若格子内不存在目标物体,则Pr(Object)=0,置信度=0,表示交集与并集的比值,为系统预测出来的边界框与物体实际边界框的重合程度;同时,每个网格存在物体所属分类的概率,定义为:
Pr(Classi|Object),式中,Classi表示物体类别,Pr(Classi|Object)表示存在目标物体所属分类的概率。
每个网格物体类别的概率计算公式为:
式中,Object表示目标物体,Pr(Classi)表示物体类别的概率。
损失函数为:边界框的损失函数+置信度损失函数+分类损失函数,其中:
边界框的损失函数为:
式中,λcoord表示坐标误差的权重系数,表示第i个网格预测的第j个边界框负责检测目标物体,该边界框与物体实际的框交并比最大,(xi,yi)表示单元格i预测边界框的中心点坐标,表示目标物体实际边界框的中心点坐标,wi表示单元格i预测边界框的宽度,表示目标物体实际边界框的宽度,hi表示单元格i预测边界框的高度,表示目标物体实际边界框的高度。置信度损失函数为:
按是否含有目标物体分为两部分,对于不含有目标物体的部分设置参数,λnoobj防止模型跑飞,表示第i个网格预测的第j个边界框未检测目标物体,ci表示预测的边界框中单元格i的置信度,表示实际的边界框中单元格i的置信度。
分类损失函数为:
pi(c)和分别表示预测的和真实的边界框中第i个网格中包含第c类对象的条件概率,表示第i个单元格是否出现目标物体。
2.如权利要求1所述的一种监控视频中人员和安全帽的检测方法,其特征在于,对所述YOLO网络结构的训练包括以下步骤:
步骤1、将输入的图片集用图片打标工具labelImg打标,将图片中的人和安全帽标注出来,获得目标物体的真实坐标,制作数据集的标签,生成xml文件;
步骤2、初始化每张图片的预测坐标为空;
步骤3、基于RPN的方法生成目标物体边界框的向量矩阵;
步骤4、将上一步得到的矩阵向量作为YOLO网络结构的第一层输入,其结果作为YOLO网络结构的第二层输入;
步骤5、执行池化操作
步骤6、将上个步骤的结果摄入,滑动窗口扫描网格,进行卷积池化,计算滑动窗口内单元格的特征向量;
步骤7、将上一步的特征向量输入第18个卷积层,取步长为2进行卷积;
步骤8、将上一步的输出输入全连接层,取步长为1进行卷积;
步骤9、将上一步的输出输入softmax分类函数,计算图片的预测概率估计值,获得对应的目标区域的特征;
步骤10、将上个步骤的目标区域的特征保存到特征模型中,输出特征模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910187994.5A CN109948501A (zh) | 2019-03-13 | 2019-03-13 | 一种监控视频中人员和安全帽的检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910187994.5A CN109948501A (zh) | 2019-03-13 | 2019-03-13 | 一种监控视频中人员和安全帽的检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109948501A true CN109948501A (zh) | 2019-06-28 |
Family
ID=67008843
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910187994.5A Pending CN109948501A (zh) | 2019-03-13 | 2019-03-13 | 一种监控视频中人员和安全帽的检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109948501A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110321853A (zh) * | 2019-07-05 | 2019-10-11 | 杭州巨骐信息科技股份有限公司 | 基于视频智能检测的分布式电缆防外破系统 |
CN110807429A (zh) * | 2019-10-23 | 2020-02-18 | 西安科技大学 | 基于tiny-YOLOv3的施工安全检测方法及系统 |
CN111241959A (zh) * | 2020-01-06 | 2020-06-05 | 重庆大学 | 一种通过工地视频流检测未佩戴安全帽人员的方法 |
CN112131983A (zh) * | 2020-09-11 | 2020-12-25 | 桂林理工大学 | 一种基于改进YOLOv3网络的安全帽佩戴检测方法 |
CN112598632A (zh) * | 2020-12-16 | 2021-04-02 | 北京卫星制造厂有限公司 | 一种压接连接器接触件外观检测方法及装置 |
CN113297900A (zh) * | 2021-04-02 | 2021-08-24 | 中国地质大学(武汉) | 基于yolo的视频流安全帽识别方法、装置、设备及存储介质 |
CN113449611A (zh) * | 2021-06-15 | 2021-09-28 | 电子科技大学 | 一种基于yolo网络压缩算法的安全帽识别智能监控系统 |
CN113486860A (zh) * | 2021-08-03 | 2021-10-08 | 云南大学 | 一种基于YOLOv5的安全护具佩戴检测方法及系统 |
CN111241959B (zh) * | 2020-01-06 | 2024-06-04 | 重庆大学 | 一种通过工地视频流检测未佩戴安全帽人员的方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106960195A (zh) * | 2017-03-27 | 2017-07-18 | 深圳市丰巨泰科电子有限公司 | 一种基于深度学习的人群计数方法及装置 |
CN107330437A (zh) * | 2017-07-03 | 2017-11-07 | 贵州大学 | 基于卷积神经网络目标实时检测模型的特征提取方法 |
CN108564069A (zh) * | 2018-05-04 | 2018-09-21 | 中国石油大学(华东) | 一种工业佩戴安全帽视频检测方法 |
CN108805070A (zh) * | 2018-06-05 | 2018-11-13 | 合肥湛达智能科技有限公司 | 一种基于嵌入式终端的深度学习行人检测方法 |
CN109255298A (zh) * | 2018-08-07 | 2019-01-22 | 南京工业大学 | 一种动态背景中的安全帽检测方法与系统 |
-
2019
- 2019-03-13 CN CN201910187994.5A patent/CN109948501A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106960195A (zh) * | 2017-03-27 | 2017-07-18 | 深圳市丰巨泰科电子有限公司 | 一种基于深度学习的人群计数方法及装置 |
CN107330437A (zh) * | 2017-07-03 | 2017-11-07 | 贵州大学 | 基于卷积神经网络目标实时检测模型的特征提取方法 |
CN108564069A (zh) * | 2018-05-04 | 2018-09-21 | 中国石油大学(华东) | 一种工业佩戴安全帽视频检测方法 |
CN108805070A (zh) * | 2018-06-05 | 2018-11-13 | 合肥湛达智能科技有限公司 | 一种基于嵌入式终端的深度学习行人检测方法 |
CN109255298A (zh) * | 2018-08-07 | 2019-01-22 | 南京工业大学 | 一种动态背景中的安全帽检测方法与系统 |
Non-Patent Citations (1)
Title |
---|
朱超平等: "基于YOLO2和ResNet算法的监控视频中的人脸检测与识别", 《重庆理工大学学报(自然科学)》 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110321853A (zh) * | 2019-07-05 | 2019-10-11 | 杭州巨骐信息科技股份有限公司 | 基于视频智能检测的分布式电缆防外破系统 |
CN110321853B (zh) * | 2019-07-05 | 2021-05-11 | 杭州巨骐信息科技股份有限公司 | 基于视频智能检测的分布式电缆防外破系统 |
CN110807429A (zh) * | 2019-10-23 | 2020-02-18 | 西安科技大学 | 基于tiny-YOLOv3的施工安全检测方法及系统 |
CN110807429B (zh) * | 2019-10-23 | 2023-04-07 | 西安科技大学 | 基于tiny-YOLOv3的施工安全检测方法及系统 |
CN111241959A (zh) * | 2020-01-06 | 2020-06-05 | 重庆大学 | 一种通过工地视频流检测未佩戴安全帽人员的方法 |
CN111241959B (zh) * | 2020-01-06 | 2024-06-04 | 重庆大学 | 一种通过工地视频流检测未佩戴安全帽人员的方法 |
CN112131983A (zh) * | 2020-09-11 | 2020-12-25 | 桂林理工大学 | 一种基于改进YOLOv3网络的安全帽佩戴检测方法 |
CN112598632A (zh) * | 2020-12-16 | 2021-04-02 | 北京卫星制造厂有限公司 | 一种压接连接器接触件外观检测方法及装置 |
CN113297900A (zh) * | 2021-04-02 | 2021-08-24 | 中国地质大学(武汉) | 基于yolo的视频流安全帽识别方法、装置、设备及存储介质 |
CN113449611A (zh) * | 2021-06-15 | 2021-09-28 | 电子科技大学 | 一种基于yolo网络压缩算法的安全帽识别智能监控系统 |
CN113486860A (zh) * | 2021-08-03 | 2021-10-08 | 云南大学 | 一种基于YOLOv5的安全护具佩戴检测方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109948501A (zh) | 一种监控视频中人员和安全帽的检测方法 | |
CN108805093B (zh) | 基于深度学习的手扶电梯乘客摔倒检测方法 | |
CN107563396B (zh) | 一种电力巡检中保护屏智能识别系统的构建方法 | |
CN105488456B (zh) | 基于自适应阈值调整拒识子空间学习的人脸检测方法 | |
CN108710919A (zh) | 一种基于多尺度特征融合深度学习的裂缝自动化勾画方法 | |
CN107133960A (zh) | 基于深度卷积神经网络的图像裂缝分割方法 | |
CN109166094A (zh) | 一种基于深度学习的绝缘子故障定位识别方法 | |
CN110717903A (zh) | 一种利用计算机视觉技术进行农作物病害检测的方法 | |
CN109241913A (zh) | 结合显著性检测和深度学习的船只检测方法及系统 | |
CN109635875A (zh) | 一种基于深度学习的端到端网口检测方法 | |
CN109543679A (zh) | 一种基于深度卷积神经网络的死鱼识别方法及预警系统 | |
CN107909005A (zh) | 基于深度学习的监控场景下人物姿态识别方法 | |
CN107103298A (zh) | 基于图像处理的引体向上计数系统及计数方法 | |
CN106446930A (zh) | 基于深层卷积神经网络的机器人工作场景识别方法 | |
CN108961675A (zh) | 基于卷积神经网络的跌倒检测方法 | |
CN104992223A (zh) | 基于深度学习的密集人数估计方法 | |
CN110827260B (zh) | 一种基于lbp特征与卷积神经网络的布匹缺陷分类方法 | |
CN109684967A (zh) | 一种基于ssd卷积网络的大豆植株茎荚识别方法 | |
CN110348357A (zh) | 一种基于深度卷积神经网络的快速目标检测方法 | |
CN114758288A (zh) | 一种配电网工程安全管控检测方法及装置 | |
CN114283469A (zh) | 一种基于改进YOLOv4-tiny的轻量型目标检测方法及系统 | |
CN109902613A (zh) | 一种基于迁移学习和图像增强的人体特征提取方法 | |
CN109753864A (zh) | 一种基于caffe深度学习框架的人脸识别方法 | |
CN109902697A (zh) | 多目标检测方法、装置及移动终端 | |
CN106157330A (zh) | 一种基于目标联合外观模型的视觉跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190628 |