CN112381021B - 一种基于深度学习的人员检测计数方法 - Google Patents
一种基于深度学习的人员检测计数方法 Download PDFInfo
- Publication number
- CN112381021B CN112381021B CN202011309515.1A CN202011309515A CN112381021B CN 112381021 B CN112381021 B CN 112381021B CN 202011309515 A CN202011309515 A CN 202011309515A CN 112381021 B CN112381021 B CN 112381021B
- Authority
- CN
- China
- Prior art keywords
- iteration
- cls
- layer
- personnel
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
- G06V10/464—Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于深度学习的人员检测计数方法,包括:1、对视频监控图像进行周期采集,基于FiarMot算法对人员进行检测;2、提取检测人员感兴趣区域并计算其与监控区域交并比;3、构建自适应尺度LSTM神经网络,融合全连接层和小波变换特征并使用SCN分类器进行分类,根据检测结果的熵损失值评价自动调节网络尺度。本发明能根据检测结果的熵损失值评价自动调节网络尺度,从而能实现视频人员检测模型的自寻优调节和重构,进而提高不同环境下指定区域视频人员检测率,满足准确化快速化的实际需求。
Description
技术领域
本发明属于计算机视觉,图像识别技术,深度学习技术领域,具体的说是一种基于深度学习的人员检测计数方法。
背景技术
人员检测计数在一些特定场合对管理具有指导意义,例如在商场中对消费者的人员估计可以分析,制定相应的消费策略,对景点的人员检测计数可以调控游客数量,避免拥挤和危险区域的进入,提升安全性和游客满意度。
然而环境信息多种多样,目前的人员检测计数模型无法适应各类复杂场景,例如煤井矿场景,由于煤矿的安全规定,副井上下井口处人员只能从单侧进入罐笼,从另一侧离开罐笼。井口环境复杂,视频无法进行人员的准确检测。
发明内容
本发明是为了解决上述现有技术存在的不足之处,提出一种基于深度学习的人员检测计数方法,以期能解决复杂场景下人员检测计数误识率高的问题,能根据检测结果的熵损失值评价自动调节网络尺度,实现自动调整检测模型并进行人员检测计数,从而提高复杂背景下人员检测率和计数精度,并满足准确化快速化的实际需求。
本发明为达到上述发明目的,采用如下技术方案:
本发明一种基于深度学习的人员检测计数方法的特点是按如下步骤进行:
步骤1、利用FiarMot算法对视频图像中的人员进行检测,并根据所设置的人员置信度阈值P0,得到人员预测矩形边界框的坐标位置信息cls=(tx,ty,tw,th);其中,tx,ty分别表示预测矩形边界框cls的中心点的横坐标和纵坐标,tw,th分别表示预测矩形边界框cls的宽与高;
步骤2、按照采样周期提取所述人员矩形边界框的坐标位置信息cls中感兴趣区域集合,记为A={A1,A2,···,Ai,···,AN};其中,Ai表示第i张视频图像中的感兴趣区域,并有:Ai={cls′i,1,cls′i,2,···,cls′i,j,···,cls′i,m),cls′i,j表示第i张视频图像里预测出的第j个人预测边界框的感兴趣区域;m表示视频图像里所检测的人员个数,N表示一个采样周期内的总视频图像数;
步骤3、设置视频采集图像中的指定区域R,实时计算感兴趣区域集合A和指定区域R的交并比iou值,从而得到交并比序列集合S={S1,S2,···,Si,···,SN};其中,Si表示所述第i张视频图像中的感兴趣区域Ai和指定区域R的交并比iou值;
步骤4、构建LSTM神经网络,包括:卷积层,池化层,LSTM层、全连接层、特征融合层以及SCN分类器;其中,第一部分为x×x的卷积层,卷积核的个数是M个,第二部分为y×y的最大池化层,第三部分为长短期记忆网络层,长短期记忆结点个数是N个,并初始化长短期记忆网络层级q=1;第四部分为全连接层,令全连接结点个数为C,第五部分为特征融合层,并初始化小波变化尺度a=1,第六部分为SCN分类器,且节点个数为E;
步骤5、定义LSTM神经网络的当前迭代次数为μ,并初始化μ=1;最大迭代次数为μmax;定义LSTM神经网络的期望输出为t,定义人工设定的熵损失值为h,对所述LSTM深度学习网络中各层的参数进行随机初始化;
步骤6、将所述交并比序列数据集合S输入第μ次迭代的LSTM神经网络中,并提取第四部分的全连接层的特征输出为F1,μ,其维度为C×1;
步骤7、将所述交并比序列数据集合S在尺度a上进行一维离散小波变换,用于在不同尺度上提取交并比序列数据集合S的特征,并得到小波变换特征输出F2,μ,其维度为N×1;
步骤8、第μ次迭代的LSTM神经网络中第五部分的特征融合层将所述特征输出F1,μ和小波变换特征输出F2,μ进行特征拼接,得到第μ次迭代的组合后的特征输出Fμ=[F1,μ,F2,μ],其维数为(N+C)×1;
步骤10、判断μ<μmax是否成立,若成立,则继续执行步骤11,否则,表示得到第μ次迭代的LSTM神经网络模型,并将所述第μ次迭代的输出结果t′μ作为人员检测计数的结果;
步骤11、判断是否成立;若成立,则表示得到第μ次迭代的LSTM神经网络模型,并将所述第μ次迭代的输出结果t′μ作为人员检测计数的结果,否则,利用式(1)和式(2)计算更新后的深度Δq和小波变换添加尺度Δa:
式(1)和式(2)中,τ和l为波形控制系数,且τ>1,l>1;
步骤12;将q+Δq赋值给q,将a+Δa赋值给a,将μ+1赋值给μ后返回步骤6。
与现有技术相比,本发明的有益效果在于:
1、本发明通过采用融合神经网络和离散小波变换特征的方法,克服了传统人员检测计数系统中对深层特征提取不足的问题,并融合了频域信息,从而提升了识别精度。
2、本发明通过采用对检测结果的熵损失值评价的方法,对LSTM网络进行尺度自动寻优调节,克服了传统认知系统中对不同的场景采用相同认知方法完成人员检测对象特征空间的建立和检测,并且一旦建立就不再更新的缺陷,从而显著提高了模型在复杂场景的适应度。
3、本发明基于广泛部署的普通视频监控设备和嵌入式设备,不需要增加特殊设备,成本低,易部署。能广泛安装在各种应用场景。
具体实施方式
本实施例中,一种基于深度学习的人员检测计数方法,能实现视频人员检测模型的自寻优调节和重构,以提高不同环境下指定区域视频人员检测率,具体的说是按如下步骤进行:
步骤1、利用FiarMot算法对视频图像中的人员进行检测,并根据所设置的人员置信度阈值P0=0.8,得到置信度大于80%的人员预测矩形边界框的坐标位置信息cls=(tx,ty,tw,th);其中,tx,ty分别表示预测矩形边界框cls的中心点的横坐标和纵坐标,tw,th分别表示预测矩形边界框cls的宽与高;
步骤2、根据场景需求,选取头部,腿部或其他为感兴趣区域,按照5s为一个采样周期提取人员矩形边界框的坐标位置信息cls中感兴趣区域集合,记为A={A1,A2,···,Ai,···,AN};其中,Ai表示第i张视频图像中的感兴趣区域,并有:Ai={cls′i,1,cls′i,2,···,cls′i,j,···,cls′i,m),cls′i,j表示第i张视频图像里预测出的第j个人预测边界框的感兴趣区域;m表示视频图像里所检测的人员个数,N表示一个采样周期内的总视频图像数;
步骤3、根据场景监控区域,设置视频采集图像中的指定区域R,实时计算感兴趣区域集合A和指定区域R的交并比iou值,从而得到交并比序列集合S={S1,S2,···,Si,···,SN};其中,Si表示第i张视频图像中的感兴趣区域Ai和指定区域R的交并比iou值;
步骤4、构建LSTM神经网络,包括:卷积层,池化层,LSTM层、全连接层、特征融合层以及SCN分类器;其中,第一部分为x×x的卷积层,卷积核的个数是M个,第二部分为y×y的最大池化层,第三部分为长短期记忆网络层,长短期记忆结点个数是N个,并初始化长短期记忆网络层级q=1;第四部分为全连接层,令全连接结点个数为C,第五部分为特征融合层,并初始化小波变化尺度a=1,第六部分为SCN分类器,且节点个数为E;(这里需要参数实例化,确定一个网络结构)
步骤5、定义LSTM神经网络的当前迭代次数为μ,并初始化μ=1;最大迭代次数为μmax=500;定义LSTM神经网络的期望输出为t,定义人工设定的熵损失值为h,对LSTM深度学习网络中各层的参数进行随机初始化;
步骤6、将交并比序列数据集合S输入第μ次迭代的LSTM神经网络中,并提取第四部分的全连接层的特征输出为F1,μ,其维度为C×1;
步骤7、将交并比序列数据集合S在尺度a上进行一维离散小波变换,用于在不同尺度上提取交并比序列数据集合S的特征,并得到小波变换特征输出F2,μ,其维度为N×1;
步骤8、第μ次迭代的LSTM神经网络中第五部分的特征融合层将特征输出F1,μ和小波变换特征输出F2,μ进行特征拼接,得到第μ次迭代的组合后的特征输出Fμ=[F1,μ,F2,μ],其维数为(N+C)×1;
步骤10、判断μ<μmax是否成立,若成立,则继续执行步骤11,否则,表示得到第μ次迭代的LSTM神经网络模型,并将第μ次迭代的输出结果t′μ作为人员检测计数的结果;
步骤11、判断是否成立;若成立,则表示得到第μ次迭代的LSTM神经网络模型,并将第μ次迭代的输出结果t′μ作为人员检测计数的结果,否则,利用式(1)和式(2)计算更新后的深度Δq和小波变换添加尺度Δa:
式(1)和式(2)中,τ和l是波形控制系数,且τ>1,l>1;
步骤12;将q+Δq赋值给q,将a+Δa赋值给a,将μ+1赋值给μ后返回步骤6。
上述的反馈调节网络尺度过程是本发明的一个具体实施过程,在面对各类复杂场景下,设置人员检测感兴趣区域和监控区域,根据检测结果的熵损失值对LSTM网络进行尺度自动调节,实现特征空间的重构,从而显著提高了计数精度,满足不同场景的监控需求。
Claims (1)
1.一种基于深度学习的人员检测计数方法,其特征是按如下步骤进行:
步骤1、利用Fiar Mot算法对视频图像中的人员进行检测,并根据所设置的人员置信度阈值P0,得到人员预测矩形边界框的坐标位置信息cls=(tx,ty,tw,th);其中,tx,ty分别表示预测矩形边界框cls的中心点的横坐标和纵坐标,tw,th分别表示预测矩形边界框cls的宽与高;
步骤2、按照采样周期提取所述人员预测 矩形边界框的坐标位置信息cls中感兴趣区域集合,记为A={A1,A2,···,Ai,···,AN};其中,Ai表示第i张视频图像中的感兴趣区域,并有:Ai={cls′i,1,cls′i,2,···,cls′i,j,···,cls′i,m} ,cls′i,j表示第i张视频图像里预测出的第j个人预测边界框的感兴趣区域;m表示视频图像里所检测的人员个数,N表示一个采样周期内的总视频图像数;
步骤3、设置视频采集图像中的指定区域R,实时计算感兴趣区域集合A和指定区域R的交并比iou值,从而得到交并比序列集合S={S1,S2,···,Si,···,SN};其中,Si表示所述第i张视频图像中的感兴趣区域Ai和指定区域R的交并比iou值;
步骤4、构建LSTM神经网络,包括:卷积层,池化层,LSTM层、全连接层、特征融合层以及SCN分类器;其中,第一部分为x×x的卷积层,卷积核的个数是M个,第二部分为y×y的最大池化层,第三部分为长短期记忆网络层,长短期记忆结点个数是N′个,并初始化长短期记忆网络层级q=1;第四部分为全连接层,令全连接结点个数为C,第五部分为特征融合层,并初始化小波变化尺度a=1,第六部分为SCN分类器,且节点个数为E;
步骤5、定义LSTM神经网络的当前迭代次数为μ,并初始化μ=1;最大迭代次数为μmax;定义LSTM神经网络的期望输出为t,定义人工设定的熵损失值为h,对所述LSTM深度学习网络中各层的参数进行随机初始化;
步骤6、将所述交并比序列数据集合S输入第μ次迭代的LSTM神经网络中,并提取第四部分的全连接层的特征输出为F1,μ,其维度为C×1;
步骤7、将所述交并比序列数据集合S在尺度a上进行一维离散小波变换,用于在不同尺度上提取交并比序列数据集合S的特征,并得到小波变换特征输出F2,μ,其维度为N″×1;
步骤8、第μ次迭代的LSTM神经网络中第五部分的特征融合层将所述特征输出F1,μ和小波变换特征输出F2,μ进行特征拼接,得到第μ次迭代的组合后的特征输出Fμ=[F1,μ,F2,μ],其维数为(N″+C)×1;
步骤10、判断μ<μmax是否成立,若成立,则继续执行步骤11,否则,表示得到第μ次迭代的LSTM神经网络模型,并将所述第μ次迭代的输出结果t′μ作为人员检测计数的结果;
步骤11、判断是否成立;若成立,则表示得到第μ次迭代的LSTM神经网络模型,并将所述第μ次迭代的输出结果t′μ作为人员检测计数的结果,否则,利用式(1)和式(2)计算更新后的深度Δq和小波变换添加尺度Δa:
式(1)和式(2)中,τ和l为波形控制系数,且τ>1,l>1;
步骤12、将q+Δq赋值给q,将a+Δa赋值给a,将μ+1赋值给μ后返回步骤6。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011309515.1A CN112381021B (zh) | 2020-11-20 | 2020-11-20 | 一种基于深度学习的人员检测计数方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011309515.1A CN112381021B (zh) | 2020-11-20 | 2020-11-20 | 一种基于深度学习的人员检测计数方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112381021A CN112381021A (zh) | 2021-02-19 |
CN112381021B true CN112381021B (zh) | 2022-07-12 |
Family
ID=74584496
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011309515.1A Active CN112381021B (zh) | 2020-11-20 | 2020-11-20 | 一种基于深度学习的人员检测计数方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112381021B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108062531A (zh) * | 2017-12-25 | 2018-05-22 | 南京信息工程大学 | 一种基于级联回归卷积神经网络的视频目标检测方法 |
CN108171103A (zh) * | 2016-12-07 | 2018-06-15 | 北京三星通信技术研究有限公司 | 目标检测方法及装置 |
CN108573496A (zh) * | 2018-03-29 | 2018-09-25 | 淮阴工学院 | 基于lstm网络和深度增强学习的多目标跟踪方法 |
CN108830188A (zh) * | 2018-05-30 | 2018-11-16 | 西安理工大学 | 基于深度学习的车辆检测方法 |
CN110084173A (zh) * | 2019-04-23 | 2019-08-02 | 精伦电子股份有限公司 | 人头检测方法及装置 |
CN110111581A (zh) * | 2019-05-21 | 2019-08-09 | 哈工大机器人(山东)智能装备研究院 | 目标识别方法、装置、计算机设备及存储介质 |
CN110147777A (zh) * | 2019-05-24 | 2019-08-20 | 合肥工业大学 | 一种基于深度迁移学习的绝缘子类别检测方法 |
CN110390294A (zh) * | 2019-07-19 | 2019-10-29 | 中国人民解放军国防科技大学 | 一种基于双向长短期记忆神经网络的目标跟踪方法 |
WO2019232836A1 (zh) * | 2018-06-04 | 2019-12-12 | 江南大学 | 基于改进全卷积网络的多尺度感知行人检测方法 |
CN111222467A (zh) * | 2020-01-08 | 2020-06-02 | 燕山大学 | 一种风力发电机部件故障分类检测方法 |
CN111626128A (zh) * | 2020-04-27 | 2020-09-04 | 江苏大学 | 一种基于改进YOLOv3的果园环境下行人检测方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108805070A (zh) * | 2018-06-05 | 2018-11-13 | 合肥湛达智能科技有限公司 | 一种基于嵌入式终端的深度学习行人检测方法 |
EP3608918B1 (en) * | 2018-08-08 | 2024-05-22 | Tata Consultancy Services Limited | Parallel implementation of deep neural networks for classifying heart sound signals |
US10957053B2 (en) * | 2018-10-18 | 2021-03-23 | Deepnorth Inc. | Multi-object tracking using online metric learning with long short-term memory |
CN110414464A (zh) * | 2019-08-05 | 2019-11-05 | 北京深醒科技有限公司 | 一种小尺度密集行人检测方法 |
CN111368660A (zh) * | 2020-02-25 | 2020-07-03 | 华南理工大学 | 一种单阶段半监督图像人体目标检测方法 |
-
2020
- 2020-11-20 CN CN202011309515.1A patent/CN112381021B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108171103A (zh) * | 2016-12-07 | 2018-06-15 | 北京三星通信技术研究有限公司 | 目标检测方法及装置 |
CN108062531A (zh) * | 2017-12-25 | 2018-05-22 | 南京信息工程大学 | 一种基于级联回归卷积神经网络的视频目标检测方法 |
CN108573496A (zh) * | 2018-03-29 | 2018-09-25 | 淮阴工学院 | 基于lstm网络和深度增强学习的多目标跟踪方法 |
CN108830188A (zh) * | 2018-05-30 | 2018-11-16 | 西安理工大学 | 基于深度学习的车辆检测方法 |
WO2019232836A1 (zh) * | 2018-06-04 | 2019-12-12 | 江南大学 | 基于改进全卷积网络的多尺度感知行人检测方法 |
CN110084173A (zh) * | 2019-04-23 | 2019-08-02 | 精伦电子股份有限公司 | 人头检测方法及装置 |
CN110111581A (zh) * | 2019-05-21 | 2019-08-09 | 哈工大机器人(山东)智能装备研究院 | 目标识别方法、装置、计算机设备及存储介质 |
CN110147777A (zh) * | 2019-05-24 | 2019-08-20 | 合肥工业大学 | 一种基于深度迁移学习的绝缘子类别检测方法 |
CN110390294A (zh) * | 2019-07-19 | 2019-10-29 | 中国人民解放军国防科技大学 | 一种基于双向长短期记忆神经网络的目标跟踪方法 |
CN111222467A (zh) * | 2020-01-08 | 2020-06-02 | 燕山大学 | 一种风力发电机部件故障分类检测方法 |
CN111626128A (zh) * | 2020-04-27 | 2020-09-04 | 江苏大学 | 一种基于改进YOLOv3的果园环境下行人检测方法 |
Non-Patent Citations (4)
Title |
---|
Jun Cao 等.A Hybrid Deep Learning-Based Traffic Forecasting Approach Integrating Adjacency Filtering and Frequency Decomposition.《IEEE Access》.2020,第8卷 * |
成强.基于小波包与长短时记忆融合的铁路旅客流量预测模型.《计算机系统应用》.2018,第27卷(第7期), * |
王琴芳.HOG融合特征及DL在行人检测算法中的研究.《中国优秀硕士论文全文数据库 信息科技辑》.2018,第2018年卷(第3期), * |
赵文清 等.改进的非极大值抑制算法的目标检测.《中国图象图形学报》.2018,第23卷(第11期), * |
Also Published As
Publication number | Publication date |
---|---|
CN112381021A (zh) | 2021-02-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109522793B (zh) | 基于机器视觉的多人异常行为检测与识别方法 | |
CN110348376B (zh) | 一种基于神经网络的行人实时检测方法 | |
CN104320617B (zh) | 一种基于深度学习的全天候视频监控方法 | |
CN101665210B (zh) | 图像识别装置 | |
CN105528794A (zh) | 基于混合高斯模型与超像素分割的运动目标检测方法 | |
CN104463869B (zh) | 一种视频火焰图像复合识别方法 | |
CN111709300B (zh) | 基于视频图像的人群计数方法 | |
CN111191667A (zh) | 基于多尺度生成对抗网络的人群计数方法 | |
US20130021496A1 (en) | Method and system for facilitating color balance synchronization between a plurality of video cameras and for obtaining object tracking between two or more video cameras | |
CN109583499B (zh) | 一种基于无监督sdae网络的输电线路背景目标分类系统 | |
US11928813B2 (en) | Method and system for detecting change to structure by using drone | |
CN110909672A (zh) | 一种基于双流卷积神经网络和svm的抽烟动作识别方法 | |
Song et al. | Background subtraction based on Gaussian mixture models using color and depth information | |
EP2860661A1 (en) | Mean shift tracking method | |
Raza et al. | Framework for estimating distance and dimension attributes of pedestrians in real-time environments using monocular camera | |
CN106056078A (zh) | 一种基于多特征回归式集成学习的人群密度估计方法 | |
CN115205604A (zh) | 基于改进YOLOv5的化工生产过程中安全防护品佩戴检测方法 | |
Kakillioglu et al. | Doorway detection for autonomous indoor navigation of unmanned vehicles | |
CN114373162B (zh) | 用于变电站视频监控的危险区域人员入侵检测方法及系统 | |
CN112381021B (zh) | 一种基于深度学习的人员检测计数方法 | |
CN105118073A (zh) | 基于Xtion摄像机的人体头部目标识别方法 | |
Kim et al. | Estimation of crowd density in public areas based on neural network. | |
CN109409224B (zh) | 一种自然场景火焰检测的方法 | |
Chung et al. | Low-complexity and reliable moving objects detection and tracking for aerial video surveillance with small uavs | |
Mahmood et al. | A self-organizing neural scheme for door detection in different environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |