CN110490099B - 一种基于机器视觉的地铁公共地点人流量分析方法 - Google Patents

一种基于机器视觉的地铁公共地点人流量分析方法 Download PDF

Info

Publication number
CN110490099B
CN110490099B CN201910702656.0A CN201910702656A CN110490099B CN 110490099 B CN110490099 B CN 110490099B CN 201910702656 A CN201910702656 A CN 201910702656A CN 110490099 B CN110490099 B CN 110490099B
Authority
CN
China
Prior art keywords
subway
data set
training
network
pedestrian
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910702656.0A
Other languages
English (en)
Other versions
CN110490099A (zh
Inventor
孟小亮
王才群
陈志伊
魏冕
杨一鸣
王晓悦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN201910702656.0A priority Critical patent/CN110490099B/zh
Publication of CN110490099A publication Critical patent/CN110490099A/zh
Application granted granted Critical
Publication of CN110490099B publication Critical patent/CN110490099B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Abstract

本发明公开了一种基于机器视觉的地铁公共地点人流量分析方法,包括以:S1、获取地铁摄像头拍摄的历史视频流数据,提取地铁人流训练数据集;S2、加载YOLOv3网络的预训练模型,初始化网络权重;S3、将INRIA行人数据集与地铁人流数据训练集输入YOLOv3网络进行训练,得到真实目标框标注;S4、增加N次上采样操作,获得N个更小尺度的特征图,改变输入图像的大小;S5、对混合后的数据集进行网络粗训练,优化目标框的个数和宽高;S6、对地铁人流训练数据集进行网络精训练;S7、利用训练后的网络模型对地铁人流测试数据集进行检测,统计人流量;并评价网络模型的性能。本发明检测精度高,由粗到精的策略训练网络,优化了边界框参数,控制了检测速度与精度的平衡。

Description

一种基于机器视觉的地铁公共地点人流量分析方法
技术领域
本发明涉及目标检测领域,尤其涉及一种基于机器视觉的地铁公共地点人流量分析方法。
背景技术
人流量是商场、地铁站等公共地点安全管理和预警不可或缺的数据。传统的基于视频的目标检测,通过帧与帧之间图像信息的变化实现,相对静态目标检测,容易造成漏检。基于特征的方法,泛化能力差,且提取的往往是底层特征,无法表达高层语义特征。近年来,深度学习在机器视觉领域的研究成果被越来越多的应用到目标检测领域。其中又分为基于区域的方法和基于回归的方法。基于回归的方法解决检测速度与精度平衡的问题,其中YOLOv3借鉴了残差块、多尺度预测等其他网络成果,综合表现优秀,可满足实时处理的要求。
发明内容
本发明要解决的技术问题在于针对现有技术中的缺陷,提供一种基于机器视觉的地铁公共地点人流量分析方法。
本发明解决其技术问题所采用的技术方案是:
本发明提供一种基于机器视觉的地铁公共地点人流量分析方法,该方法包括以下步骤:
S1、获取地铁摄像头拍摄的历史视频流数据,作为训练集,从中提取地铁人流训练数据集;
S2、加载YOLOv3网络的预训练模型,初始化网络权重;
S3、获取开源的INRIA行人数据集,将INRIA行人数据集与地铁人流数据训练集输入YOLOv3网络进行训练,得到真实目标框标注,并对其进行补充和再整理;
S4、增加N次上采样操作,获得N个更小尺度的特征图,扩大可监测目标的尺寸范围,并据此改变输入图像的大小;
S5、将INRIA行人数据集与地铁人流训练数据集混合,对混合后的数据集进行网络粗训练,优化目标框的个数和宽高;
S6、结合上述步骤得到的参数,对地铁人流训练数据集进行网络精训练,得到训练后的网络模型;
S7、输入待分析的地铁人流测试数据集,利用训练后的网络模型对地铁人流测试数据集进行检测,统计人流量;并评价网络模型的性能。
进一步地,本发明的步骤S1的具体方法为:
通过RTSP协议获取地铁摄像头的视频流数据,从视频流数据中每三帧取一帧作为待检测图像,组成地铁公共地点人流的静态图像数据集。
进一步地,本发明的步骤S3的具体方法为:
对每张输入图片,有txt文件存放图片上真实目标框的标注信息,对任一目标框,信息格式为:所属类别编号,归一化后的中心点x坐标,y坐标,归一化后的目标框宽度,目标框高度。对于没有标注信息或信息不完全不规范的图像,利用LabelImg工具进行人工补充标注和整理。
进一步地,本发明的步骤S4的具体方法为:
YOLOv3网络采用多尺度特征图来检测不同尺寸的目标。由于距离摄像头远近不同,行人显示在视频上的尺寸存在差异。为了减少漏检,提高检测准确度,增加3次上采样操作。又由于采样步长为2,因此特征图尺度由原来的52×52,26×26,13×13变为64×64,32×32,16×16,8×8,4×4,2×2。输入网络的原始图像尺度对应由416×416变为512×512。
进一步地,本发明的步骤S5的具体方法为:
S51、改变边界框个数,对地铁人流数据测试集进行k-means维度聚类分析;
S52、根据损失函数值变化曲线设置边界框参数。
进一步地,本发明的步骤S51的具体方法为:
当前边界框个数为n时,对图像集中选取n个真实目标框宽高做为初始聚类中心;采用重叠度IOU建立聚类目标函数,即误差函数:
Figure BDA0002151259590000031
其中,k为检测边界框个数,box为目标候选框,truth为目标真实框,IOU为候选框与真实框的交集与并集之比;
更新聚类中心,以每类别所有边界框宽高均值作为新聚类中心;
迭代,直至前后两次迭代的目标函数值之差绝对值小于10-5
进一步地,本发明的步骤S52的具体方法为:
改变边界框个数,再次进行聚类分析,绘制不同边界框个数时的损失函数值变化曲线;曲线上最邻近拐点的整数即为优化后的边界框个数,各类的聚类中心为优化后的宽高。
进一步地,本发明的步骤S6的具体方法为:
设置网络参数,冲量常数为0.9,权值衰减系数为0.0005,初始学习效率为0.001,迭代次数25000;
对不同尺寸的特征图,划分为N×N个网格,特征图上的输出个数为N×N×[k×(4+C)],即对每个边界框的4个偏移坐标和各个类的置信度得分进行输出,C是类别数,在地铁人流检测中,若不对行人进行分类,C取值为1,k是检测边界框个数。
进一步地,本发明的该方法中偏移坐标的表示方法为:
4个偏移坐标tx,ty,tw,th,定义如下:
bx=σ(tx)+cx
by=σ(ty)+cy
Figure BDA0002151259590000032
Figure BDA0002151259590000033
其中,tx,ty是边界框中心点坐标,pw,ph是边界框的宽高,cx,cy是边界框中心坐标所在网格相对整张图像左上角的横纵偏移量。
本发明产生的有益效果是:本发明的基于机器视觉的地铁公共地点人流量分析方法,增设特征图尺度,解决由于距离摄像头远近不同,行人显示在视频上的尺寸存在差异而造成的漏检、准确率低的问题;由粗到精的策略训练网络,优化边界框参数(个数和宽高),控制检测速度与精度的平衡。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1是本发明实施例的流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
如图1所示,本发明实施例的基于机器视觉的地铁公共地点人流量分析方法,该方法包括以下步骤:
S1、获取地铁摄像头拍摄的历史视频流数据,作为训练集,从中提取地铁人流训练数据集;
S2、加载YOLOv3网络的预训练模型,初始化网络权重;
S3、获取开源的INRIA行人数据集,根据INRIA行人数据集与地铁人流数据训练集进行真实目标框标注的补充和再整理;
S4、增加3次上采样操作,获得3个更小尺度的特征图,扩大可监测目标的尺寸范围,并据此改变输入图像的大小;
S5、将INRIA行人数据集与地铁人流训练数据集混合,对混合后的数据集进行网络粗训练,优化目标框的个数和宽高;
S6、结合上述步骤得到的参数,对地铁人流训练数据集进行网络精训练,得到训练后的网络模型;
S7、输入待分析的地铁人流测试数据集,利用训练后的网络模型对地铁人流测试数据集进行检测,统计人流量;并评价网络模型的性能。
步骤S1的具体方法为:
通过RTSP协议获取地铁摄像头的视频流数据,从视频流数据中每三帧取一帧作为待检测图像,组成地铁公共地点人流的静态图像数据集。
步骤S3的具体方法为:
对每张输入图片,有txt文件存放图片上真实目标框的标注信息,对任一目标框,信息格式为:所属类别编号,归一化后的中心点x坐标,y坐标,归一化后的目标框宽度,目标框高度。对于没有标注信息或信息不完全不规范的图像,利用LabelImg工具进行人工补充标注和整理。
步骤S4的具体方法为:
YOLOv3网络采用多尺度特征图来检测不同尺寸的目标。由于距离摄像头远近不同,行人显示在视频上的尺寸存在差异。为了减少漏检,提高检测准确度,增加3次上采样操作。又由于采样步长为2,因此特征图尺度由原来的52×52,26×26,13×13变为64×64,32×32,16×16,8×8,4×4,2×2。输入网络的原始图像尺度对应由416×416变为512×512。
步骤S5的具体方法为:
S51、改变边界框个数,对地铁人流数据测试集进行k-means维度聚类分析;
S52、根据损失函数值变化曲线设置边界框参数。
步骤S51的具体方法为:
当前边界框个数为n时,对图像集中选取n个真实目标框宽高做为初始聚类中心;采用重叠度IOU建立聚类目标函数,即误差函数:
Figure BDA0002151259590000051
其中,k为检测边界框个数,box为目标候选框,truth为目标真实框,IOU为候选框与真实框的交集与并集之比;
更新聚类中心,以每类别所有边界框宽高均值作为新聚类中心;
迭代,直至前后两次迭代的目标函数值之差绝对值小于10-5
步骤S52的具体方法为:
改变边界框个数,再次进行聚类分析,绘制不同边界框个数时的损失函数值变化曲线;曲线上最邻近拐点的整数即为优化后的边界框个数,各类的聚类中心为优化后的宽高。
步骤S6的具体方法为:
设置网络参数,冲量常数为0.9,权值衰减系数为0.0005,初始学习效率为0.001,迭代次数25000;
对不同尺寸的特征图,划分为N×N个网格,特征图上的输出张量为N×N×[k×(4+C)],即对每个边界框的4个偏移坐标和各个类的置信度得分进行输出,C是类别数,在地铁人流检测中,若不对行人进行分类,C取值为1,k是检测边界框个数。
偏移坐标的表示方法为:
4个偏移坐标tx,ty,tw,th,定义如下:
bx=σ(tx)+cx
by=σ(ty)+cy
Figure BDA0002151259590000061
Figure BDA0002151259590000062
其中,tx,ty是边界框中心点坐标,pw,ph是边界框的宽高,cx,cy是边界框中心坐标所在网格相对整张图像左上角的横纵偏移量。
具体实施例。
下面通过分析武汉某地铁站通道人流量情况为例阐述本方面的方法:step1,地铁通道摄像头拍摄的视频流每三帧取一帧作为待检测图像,组成数据集,共678张,包含2352个行人,随机抽取75%作为训练集。图像上行人高矮胖瘦不一,姿态不同,距离摄像头远近不同,所以尺寸也不同。step2,加载Imagenet官网的YOLOv3预训练模型(文件名darknet53.conv.74)初始化权重。step3,从INRIA行人数据集中选择正样本502张,包含2176个行人,负样本941张,包含3296个行人,进行标注再整理。利用LabelImg工具对训练集真实行人区域框做标注。行人类别为1。step4,通过重采样和背景填充等预处理,将原始训练图像转换为512*512大小,进行训练,聚类分析绘制损失函数值变化曲线,得到候选框个数为4个。step5,对地铁人流量数据集单独进行训练。step7,利用训练好的网络进行测试,较改进前的YOLOv3网络,mAP提高了2.97个百分比,传输速率达到40.86f/s,满足实时检测要求。
应当理解的是,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,而所有这些改进和变换都应属于本发明所附权利要求的保护范围。

Claims (6)

1.一种基于机器视觉的地铁公共地点人流量分析方法,其特征在于,该方法包括以下步骤:
S1、获取地铁摄像头拍摄的历史视频流数据,作为训练集,从中提取地铁人流训练数据集;
S2、加载YOLOv3网络的预训练模型,初始化网络权重;
S3、获取开源的INRIA行人数据集,将INRIA行人数据集与地铁人流训练数据集输入YOLOv3网络进行训练,得到真实目标框标注,并对其进行补充和再整理;
S4、增加N次上采样操作,获得N个更小尺度的特征图,扩大可监测目标的尺寸范围,并据此改变输入图像的大小;
S5、将INRIA行人数据集与地铁人流训练数据集混合,对混合后的数据集进行网络粗训练,优化目标框的个数和宽高;
S6、结合上述步骤得到的参数,对地铁人流训练数据集进行网络精训练,得到训练后的网络模型;
S7、输入待分析的地铁人流测试数据集,利用训练后的网络模型对地铁人流测试数据集进行检测,统计人流量;并评价网络模型的性能;
步骤S5的具体方法为:
S51、改变边界框个数,对混合后的数据集进行k-means维度聚类分析;
S52、根据损失函数值变化曲线设置边界框参数;
步骤S51的具体方法为:
当前边界框个数为k时,对图像集中选取k个真实目标框宽高做为初始聚类中心;采用重叠度IOU建立聚类目标函数,即误差函数:
Figure FDA0003826366460000011
其中,k为检测边界框个数,boxpre为目标候选框,boxtruth为目标真实框,IOU为候选框与真实框的交集与并集之比;
更新聚类中心,以每类别所有边界框宽高均值作为新聚类中心;
迭代,直至前后两次迭代的目标函数值之差绝对值小于10-5
步骤S52的具体方法为:
改变边界框个数,再次进行聚类分析,绘制不同边界框个数时的损失函数值变化曲线;曲线上最邻近拐点的整数即为优化后的边界框个数,各类的聚类中心为优化后的宽高。
2.根据权利要求1所述的基于机器视觉的地铁公共地点人流量分析方法,其特征在于,步骤S1的具体方法为:
通过RTSP协议获取地铁摄像头的视频流数据,从视频流数据中每三帧取一帧作为待检测图像,组成地铁公共地点人流的静态图像数据集。
3.根据权利要求1所述的基于机器视觉的地铁公共地点人流量分析方法,其特征在于,步骤S3的具体方法为:
对每张输入图片,有txt文件存放图片上真实目标框的标注信息,对任一目标框,信息格式为:所属类别编号,归一化后的中心点x坐标,y坐标,归一化后的目标框宽度,目标框高度;对于没有标注信息或信息不完全不规范的图像,利用LabelImg工具进行人工补充标注和整理。
4.根据权利要求1所述的基于机器视觉的地铁公共地点人流量分析方法,其特征在于,步骤S4的具体方法为:
YOLOv3网络采用多尺度特征图来检测不同尺寸的目标;由于距离摄像头远近不同,行人显示在视频上的尺寸存在差异,为了减少漏检,提高检测准确度,增加3次上采样操作;又由于采样步长为2,因此特征图尺度由原来的52×52,26×26,13×13变为64×64,32×32,16×16,8×8,4×4,2×2,输入网络的原始图像尺度对应由416×416变为512×512。
5.根据权利要求1所述的基于机器视觉的地铁公共地点人流量分析方法,其特征在于,步骤S6的具体方法为:
设置网络参数,冲量常数为0.9,权值衰减系数为0.0005,初始学习效率为0.001,迭代次数25000;
对不同尺寸的特征图,划分为M×M个网格,特征图上的输出个数为M×M×[k×(4+C)],即对每个边界框的4个偏移坐标和各个类的置信度得分进行输出,C是类别数,在地铁人流检测中,若不对行人进行分类,C取值为1,k是检测边界框个数。
6.根据权利要求5所述的基于机器视觉的地铁公共地点人流量分析方法,其特征在于,该方法中偏移坐标的表示方法为:
4个偏移坐标tx,ty,tw,th,定义如下:
bx=σ(tx)+cx
by=σ(ty)+cy
Figure FDA0003826366460000031
Figure FDA0003826366460000032
其中,tx,ty是边界框中心点坐标,pw,ph是边界框的宽高,cx,cy是边界框中心坐标所在网格相对整张图像左上角的横纵偏移量。
CN201910702656.0A 2019-07-31 2019-07-31 一种基于机器视觉的地铁公共地点人流量分析方法 Active CN110490099B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910702656.0A CN110490099B (zh) 2019-07-31 2019-07-31 一种基于机器视觉的地铁公共地点人流量分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910702656.0A CN110490099B (zh) 2019-07-31 2019-07-31 一种基于机器视觉的地铁公共地点人流量分析方法

Publications (2)

Publication Number Publication Date
CN110490099A CN110490099A (zh) 2019-11-22
CN110490099B true CN110490099B (zh) 2022-10-21

Family

ID=68548900

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910702656.0A Active CN110490099B (zh) 2019-07-31 2019-07-31 一种基于机器视觉的地铁公共地点人流量分析方法

Country Status (1)

Country Link
CN (1) CN110490099B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111008595A (zh) * 2019-12-05 2020-04-14 武汉大学 一种面向私家车内后排婴儿/宠物趴窗判别及车内氛围识别方法
CN111724442B (zh) * 2020-05-28 2022-04-22 上海商汤智能科技有限公司 图像处理方法及装置、电子设备及存储介质
CN111832489A (zh) * 2020-07-15 2020-10-27 中国电子科技集团公司第三十八研究所 一种基于目标检测的地铁人群密度估计方法及系统
CN112163545A (zh) * 2020-10-12 2021-01-01 北京易华录信息技术股份有限公司 一种头部特征提取方法、装置、电子设备及存储介质
CN112381032B (zh) * 2020-11-24 2024-03-22 华南理工大学 抗人体姿态干扰的室内无人值守快速检测方法
CN112668451A (zh) * 2020-12-24 2021-04-16 南京泓图人工智能技术研究院有限公司 一种基于YOLOv5的人群密度实时监测方法
CN114550109B (zh) * 2022-04-28 2022-07-19 中国科学院微电子研究所 一种行人流量检测方法和系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101448392B1 (ko) * 2013-06-21 2014-10-13 호서대학교 산학협력단 피플 카운팅 방법
CN108021848A (zh) * 2016-11-03 2018-05-11 浙江宇视科技有限公司 客流量统计方法及装置
CN108596046A (zh) * 2018-04-02 2018-09-28 上海交通大学 一种基于深度学习的细胞检测计数方法及系统
CN108986064A (zh) * 2017-05-31 2018-12-11 杭州海康威视数字技术股份有限公司 一种人流量统计方法、设备及系统
CN109447034A (zh) * 2018-11-14 2019-03-08 北京信息科技大学 基于YOLOv3网络的自动驾驶中交通标识检测方法
CN109859468A (zh) * 2019-01-30 2019-06-07 淮阴工学院 基于YOLOv3的多车道车流量计数及车辆跟踪方法
CN109886085A (zh) * 2019-01-03 2019-06-14 四川弘和通讯有限公司 基于深度学习目标检测的人群计数方法
CN110059581A (zh) * 2019-03-28 2019-07-26 常熟理工学院 基于场景深度信息的人群计数方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101448392B1 (ko) * 2013-06-21 2014-10-13 호서대학교 산학협력단 피플 카운팅 방법
CN108021848A (zh) * 2016-11-03 2018-05-11 浙江宇视科技有限公司 客流量统计方法及装置
CN108986064A (zh) * 2017-05-31 2018-12-11 杭州海康威视数字技术股份有限公司 一种人流量统计方法、设备及系统
CN108596046A (zh) * 2018-04-02 2018-09-28 上海交通大学 一种基于深度学习的细胞检测计数方法及系统
CN109447034A (zh) * 2018-11-14 2019-03-08 北京信息科技大学 基于YOLOv3网络的自动驾驶中交通标识检测方法
CN109886085A (zh) * 2019-01-03 2019-06-14 四川弘和通讯有限公司 基于深度学习目标检测的人群计数方法
CN109859468A (zh) * 2019-01-30 2019-06-07 淮阴工学院 基于YOLOv3的多车道车流量计数及车辆跟踪方法
CN110059581A (zh) * 2019-03-28 2019-07-26 常熟理工学院 基于场景深度信息的人群计数方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Pedestrian Detection and Tracking for Counting Applications in Metro Station;Chen Yan-yan et al.;《Discrete Dynamics in Nature and Society》;20140227;第1-12页 *
STATISTICAL VIDEO ANALYSIS FOR CROWDS COUNTING;Antonio Albiol et al.;《ICIP 2009》;20091231;第2569-2572页 *
基于多尺度多任务卷积神经网络的人群计数;曹金梦 等;《计算机应用》;20190110;第39卷(第1期);第199-204页 *
基于机器视觉的地铁站客流自 动检测方法;陈艳艳 等;《公路交通科技》;20131031;第30卷(第10期);第122-128页 *

Also Published As

Publication number Publication date
CN110490099A (zh) 2019-11-22

Similar Documents

Publication Publication Date Title
CN110490099B (zh) 一种基于机器视觉的地铁公共地点人流量分析方法
CN108830188B (zh) 基于深度学习的车辆检测方法
CN109325454B (zh) 一种基于YOLOv3的静态手势实时识别方法
US20220244740A1 (en) Method of constructing indoor two-dimensional semantic map with wall corner as critical feature based on robot platform
CN109583483B (zh) 一种基于卷积神经网络的目标检测方法和系统
CN107423760A (zh) 基于预分割和回归的深度学习目标检测方法
CN112016605B (zh) 一种基于边界框角点对齐和边界匹配的目标检测方法
CN109685780B (zh) 一种基于卷积神经网络的零售商品识别方法
CN110349260B (zh) 一种路面标线自动提取方法及装置
CN108648211A (zh) 一种基于深度学习的小目标检测方法、装置、设备和介质
CN111368682B (zh) 一种基于faster RCNN台标检测与识别的方法及系统
CN103065163B (zh) 一种基于静态图片的快速目标检测识别系统及方法
CN111488920A (zh) 一种基于深度学习目标检测与识别的袋口位置检测方法
CN110070106A (zh) 烟雾检测方法、装置及电子设备
CN110728307A (zh) 自生成数据集与标签实现x光影像图小样本字符识别方法
CN115147380A (zh) 一种基于YOLOv5的小型透明塑料制品缺陷检测方法
CN113221956A (zh) 基于改进的多尺度深度模型的目标识别方法及装置
CN107247967B (zh) 一种基于r-cnn的车窗年检标检测方法
CN111461010A (zh) 一种基于模板跟踪的电力设备识别效率优化方法
CN110889366A (zh) 一种基于面部表情判断用户兴趣度的方法及系统
CN113496260A (zh) 基于改进YOLOv3算法的粮库人员不规范作业检测法
CN103136536A (zh) 对象检测系统和方法、图像的特征提取方法
CN111797795A (zh) 一种基于YOLOv3与SSR的行人检测算法
CN105208402B (zh) 一种基于运动对象与图像分析的视频帧复杂度测度方法
CN110889418A (zh) 一种气体轮廓识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant