CN113536824A - 一种基于YOLOv3的乘客检测模型的改进方法,及模型训练方法 - Google Patents

一种基于YOLOv3的乘客检测模型的改进方法,及模型训练方法 Download PDF

Info

Publication number
CN113536824A
CN113536824A CN202010283083.5A CN202010283083A CN113536824A CN 113536824 A CN113536824 A CN 113536824A CN 202010283083 A CN202010283083 A CN 202010283083A CN 113536824 A CN113536824 A CN 113536824A
Authority
CN
China
Prior art keywords
yolov3
passenger
detection model
image
passenger detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010283083.5A
Other languages
English (en)
Other versions
CN113536824B (zh
Inventor
姜峰
周金明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Xingzheyi Intelligent Transportation Technology Co ltd
Original Assignee
Nanjing Xingzheyi Intelligent Transportation Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Xingzheyi Intelligent Transportation Technology Co ltd filed Critical Nanjing Xingzheyi Intelligent Transportation Technology Co ltd
Priority to CN202010283083.5A priority Critical patent/CN113536824B/zh
Publication of CN113536824A publication Critical patent/CN113536824A/zh
Application granted granted Critical
Publication of CN113536824B publication Critical patent/CN113536824B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于YOLOv3的乘客检测模型的改进方法,及模型训练方法,所述改进方法包括:选用MobileNetv3作为框架的主干网络,并对整体网络结构进行了修改,在最后两个降采样的卷积操作后面加上注意力感知模块,提高特征图中与目标相关区域的特征权重:得到每个特征图中每个特征值f的权重,即获得与特征图维度相同的权重矩阵,将特征图与权重矩阵进行点乘,其结果作为此模块的输出,通过将MobileNetv3与YOLOv3框架的有效结合,对MobileNetv3结构中添加注意力感知模块,提高有效特征的权重,从而提高模型客流统计的精度。

Description

一种基于YOLOv3的乘客检测模型的改进方法,及模型训练 方法
技术领域
本发明涉及人工智能和目标检测研究领域,具体涉及一种基于YOLOv3的乘客检测模型的改进方法,及模型训练方法。
背景技术
客流数据的有效获取,既能够帮助管理者合理地进行规划管理和运营调度,同时也能改善公共交通服务质量,减少乘客等待时间和拥挤的乘车体验,提高乘客的满意度。在实现本发明过程中,发明人发现现有技术中至少存在如下问题:随着城市智慧交通的不断推进以及深度学习技术的不断发展,越来越多的智能手段应用于客流数据统计,目前大多数智能化客流统计,都是对乘客进行局部检测,提取的特征信息十分有限,对乘客的检测容易被其他因素干扰,提供的数据维度也比较单一。基于人脸识别的客流统计,在实际的乘车场景中,会有乘客佩戴口罩或者帽子,脸部被遮挡,此时系统无法识别出该乘客,造成客流统计遗漏。基于俯视的角度识别乘客的头和肩进行客流统计,无法对乘客特征和属性进行多维度识别,因此不能很好的区分乘客和物体,无法获得精准的乘客人数。公共交通场景较为复杂,乘客之间距离较近,且乘客外观服饰等对检测的干扰也较大,如何提高客流统计的精度是亟需解决的问题。
发明内容
为了克服现有技术的不足,本公开实施例提供了一种基于YOLOv3的乘客检测模型的改进方法,及模型训练方法,通过将MobileNetv3与YOLOv3框架的有效结合,对MobileNetv3结构中添加注意力感知模块,提高有效特征的权重,从而提高模型客流统计的精度;技术方案如下。
第一方面,提供了一种基于YOLOv3的乘客检测模型的改进方法,所述方法包括:
选用MobileNetv3作为框架的主干网络,并对整体网络结构进行了修改,在最后两个降采样的卷积操作后面加上注意力感知模块,所述注意力感知模块具体内容如下:
在每个特征图上计算出特征值的均值xmean,获取当前特征图的最大特征值xmax和最小特征值xmin;设置分段imax=(xmax-xmean)/θ1,imin=(xmean-xmin)/θ2,其中θ1、θ2为分割因子,取值范围为开区间(0,10)之间的正整数;对特征图上的每个特征值f进行权重wf计算,具体公式如下:
Figure BDA0002447452230000021
其中δ为设定的初始权重,δ∈(0,1),且δ≥0.1×θ2
得到每个特征图中每个特征值f的权重,即获得与特征图维度相同的权重矩阵,将特征图与权重矩阵进行点乘,其结果作为此模块的输出。
优选的,所述对整体网络结构进行了修改,还包括,将图像尺寸压缩为176×144后作为网络输入,将网络的第一个步长设为1,来减少图像下采样的次数,使得图像在经过更深的网络层时能够保留更多特征。
进一步的,所述对整体网络结构进行了修改,具体网络参数如表1所示:
表1网络参数表
Figure BDA0002447452230000022
优选的,所述对整体网络结构进行了修改,修改后的网络进行了两次检测,分别是在16倍降采样和8倍降采样,主干网络的最后一个注意力感知层的输出对应8倍降采样,最后一个卷积层的输出对应16倍降采样,对16倍降采样的特征图进行上采样后,再与8倍降采样的特征图进行融合。
优选的,替换所述上采样层为解码层,所述解码层依次包括反卷积操作和注意力感知模块。
优选的,所述图像为通过安装在车门对面的摄像头获得,为乘客上车时的正视图像。
第二方面,提供了一种基于YOLOv3的乘客检测模型的模型训练方法,该方法包括,采用图像集对通过上述所有可能的实现方法中任一项所述的一种基于YOLOv3的乘客检测模型的改进方法得到的模型进行训练。
优选的,在整个模型的训练阶段采用focal loss作为目标判断的损失函数,采用GIOU作为目标框回归的损失函数,
focal loss公式为:
Figure BDA0002447452230000031
其中α为平衡因子,γ为调节因子
GIOU的公式为:
Figure BDA0002447452230000032
其中I和U分别为预测框Bpred与标签Bgt的交集和并集,Apred为Bpred的面积,Agt为Bgt的面积,A为包含Bpred和Bgt的最小边界框的面积。
总的损失函数为:
Figure BDA0002447452230000033
其中
Figure BDA0002447452230000034
与β为两个损失函数的权重系数。
优选的,所述训练采用的图像集为通过安装在车门对面的摄像头获得,即获取乘客上车时的正视图像作为检测算法训练集的原始输入,训练集标签的制作原则是,标出乘客在图像中显示出来的上半身区域。
与现有技术相比,上述技术方案中的一个技术方案具有如下有益效果:通过将MobileNetv3与YOLOv3框架的有效结合,对MobileNetv3结构中添加注意力感知模块,提高有效特征的权重,从而提高模型客流统计的精度;同时还具有如下优点:
(1)提高客流统计的精度;
(2)对精准的客流OD提供更加全面的特征信息;
(3)能够辅助公安系统进行人物追踪;
(4)此方法可在移动端进行部署,对配置要求较低。
附图说明
图1为本公开实施例提供的一种基于YOLOv3改进后的乘客检测模型的主干网络结构图。
图2为本公开实施例提供的另一种基于YOLOv3改进后的乘客检测模型的主干网络结构图。
具体实施方式
为了阐明本发明的技术方案和工作原理,下面将结合附图对本公开实施方式做进一步的详细描述。
上述所有可选技术方案,可以采用任意结合形成本公开的可选实施例,在此不再一一赘述。
以下采用在公共交通车辆车门处采集客流为本申请实施例的示例性应用场景,本申请实施例提供了一种基于YOLOv3的乘客检测模型的改进方法。当然本发明的使用场景不限于在公共车辆车门处采集客流的情况,还包括有着同样模式的商场门口,景点入口等。
第一方面:本公开实施例提供了一种基于YOLOv3的乘客检测模型的改进方法,图1为本公开实施例提供的一种基于YOLOv3改进后的乘客检测模型的主干网络结构图,结合改图,改进方法具体包含如下内容。
本公开实施例中,检测算法是基于YOLOv3的框架,然而YOLOv3的主干网络参数过多,不利于移动端的部署和开发。因此,选用MobileNetv3作为框架的主干网络,并对整体网络结构进行了修改,在最后两个降采样的卷积操作后面加上注意力感知模块,提高特征图中与目标相关区域的特征权重;所述注意力感知模块具体内容如下。
在每个特征图上计算出特征值的均值xmean,获取当前特征图的最大特征值xmax和最小特征值xmin;设置分段imax=(xmax-xmean)/θ1,imin=(xmean-xmin)/θ2,其中θ1、θ2为分割因子,取值范围为开区间(0,10)之间的正整数,θ1、θ2值决定每个分段的特征值范围;对特征图上的每个特征值f进行权重wf计算,具体公式如下:
Figure BDA0002447452230000041
其中δ为设定的初始权重,δ∈(0,1),且δ≥0.1×θ2,δ和θ的取值可根据具体应用场景需求进行更改。
得到每个特征图中每个特征值f的权重,即获得与特征图维度相同的权重矩阵,将特征图与权重矩阵进行点乘,其结果作为此模块的输出。
通过注意力感知模块,可以提高目标相关特征的重要性,减少无关特征的干扰。之所以选择在降采样卷积操作后面添加,是因为后面的多个非采样卷积能够进一步从加权后的特征图中提取出更加有效的特征;没有选择在网络前面的降采样卷积后面添加,则是由于此时的特征图只经过少量网络层,特征信息判别性不够强,计算出的权重矩阵不具代表性。
优选的,所述对整体网络结构进行了修改,还包括,将图像尺寸压缩为176×144后作为网络输入,相比原始的244×244的输入尺寸,此方法能够提高模型运行效率;将网络的第一个步长设为1,来减少图像下采样的次数,使得图像在经过更深的网络层时能够保留更多特征。
进一步的,所述对整体网络结构进行了修改,具体网络参数如表1所示:
表1网络参数表
Figure BDA0002447452230000051
优选的,所述对整体网络结构进行了修改,修改后的网络进行了两次检测,分别是在16倍降采样和8倍降采样,主干网络的最后一个注意力感知层的输出对应8倍降采样,最后一个卷积层的输出对应16倍降采样,对16倍降采样的特征图进行上采样后,再与8倍降采样的特征图进行融合,这样在多尺寸的特征图上获得的特征表达效果更好,并且特征包含的信息也更加全面。
图2为本公开实施例提供的另一种基于YOLOv3改进后的乘客检测模型的主干网络结构图,替换所述上采样层为解码层,所述解码层依次包括反卷积操作和注意力感知模块,原始结构的采用的是内插值算法,而本方法采用反卷积操作,该操作可以通过训练获得最佳的参数,从而较好地还原特征图,在反卷积后面添加一个注意力感知模块,进一步对还原的特征图做特征优化。
每次检测输出对应3个锚框,两次检测的锚框尺寸不同,通过k-mean算法获得。
优选的,所述图像为通过安装在车门对面的摄像头获得,为乘客上车时的正视图像。
第二方面,提供了一种基于YOLOv3的乘客检测模型的模型训练方法,该方法包括,采用图像集对通过上述所有可能的实现方法中任一项所述的一种基于YOLOv3的乘客检测模型的改进方法得到的模型进行训练。
优选的,考虑到公交乘车场景的复杂性,乘客之间遮挡较为严重,且图像中正负样本比列差距较大,在整个模型的训练阶段采用focal loss作为目标判断的损失函数,采用GIOU作为目标框回归的损失函数,
focal loss公式为:
Figure BDA0002447452230000061
其中α为平衡因子,可以较好地解决正负样本比例不均衡的问题,即平衡正负样本的重要性;γ为调节因子,能够减少较易分辨的简单样本的损失,使得模型更加关注于难以分辨的样本,通过设置不同的γ值,来控制简单样本权重下降的速率。
GIOU的公式为:
Figure BDA0002447452230000062
其中I和U分别为预测框Bpred与标签Bgt的交集和并集,Apred为Bpred的面积,Agt为Bgt的面积,A为包含Bpred和Bgt的最小边界框的面积。
总的损失函数为:
Figure BDA0002447452230000063
其中
Figure BDA0002447452230000064
与β为两个损失函数的权重系数,在实际应用中可灵活调节。
优选的,所述图像集为通过安装在车门对面的摄像头获得,即获取乘客上车时的正视图像作为检测算法训练集的原始输入,训练集标签的制作原则是,标出乘客在图像中显示出来的上半身区域。通过在前门对面布置摄像头的方式获取乘客正面的上车图像,再使用改进的YOLOv3检测算法根据图像中乘客上半身特征检测出乘客,乘客上半身特征包含更多维度信息,如头部、脸部、服饰纹理和色彩等,从而进一步提高乘客检出率。
需要说明的是,上述实施例提供的一种基于YOLOv3的乘客检测模型的改进方法与一种基于YOLOv3的乘客检测模型的模型训练方法实施例属于同一构思,其具体实现过程详见模型的改进方法实施例,这里不再赘述。
以上结合附图对本发明进行了示例性描述,显然,本发明具体实现并不受上述方式的限制,凡是采用了本发明的方法构思和技术方案进行的各种非实质性的改进;或者未经改进、等同替换,将本发明的上述构思和技术方案直接应用于其他场合的,均在本发明的保护范围之内。

Claims (9)

1.一种基于YOLOv3的乘客检测模型的改进方法,其特征在于,所述方法包括:
选用MobileNetv3作为框架的主干网络,并对整体网络结构进行了修改,在最后两个降采样的卷积操作后面加上注意力感知模块,所述注意力感知模块具体内容如下:
在每个特征图上计算出特征值的均值xmean,获取当前特征图的最大特征值xmax和最小特征值xmin;设置分段imax=(xmax-xmean)/θ1,imin=(xmean-xmin)/θ2,其中θ1、θ2为分割因子,取值范围为开区间(0,10)之间的正整数;对特征图上的每个特征值f进行权重wf计算,具体公式如下:
Figure FDA0002447452220000011
其中δ为设定的初始权重,δ∈(0,1),且δ≥0.1×θ2
得到每个特征图中每个特征值f的权重,即获得与特征图维度相同的权重矩阵,将特征图与权重矩阵进行点乘,其结果作为此模块的输出。
2.根据权利要求1所述的一种基于YOLOv3的乘客检测模型的改进方法,其特征在于,所述对整体网络结构进行了修改,还包括,将图像尺寸压缩为176×144后作为网络输入,将网络的第一个步长设为1,来减少图像下采样的次数,使得图像在经过更深的网络层时能够保留更多特征。
3.根据权利要求2所述的一种基于YOLOv3的乘客检测模型的改进方法,其特征在于,所述对整体网络结构进行了修改,具体网络参数如表1所示:
表1 网络参数表
Figure FDA0002447452220000012
Figure FDA0002447452220000021
4.根据权利要求1-3任一项所述的一种基于YOLOv3的乘客检测模型的改进方法,其特征在于,所述对整体网络结构进行了修改,修改后的网络进行了两次检测,分别是在16倍降采样和8倍降采样,主干网络的最后一个注意力感知层的输出对应8倍降采样,最后一个卷积层的输出对应16倍降采样,对16倍降采样的特征图进行上采样后,再与8倍降采样的特征图进行融合。
5.根据权利要求4所述的一种基于YOLOv3的乘客检测模型的改进方法,其特征在于,替换所述上采样层为解码层,所述解码层依次包括反卷积操作和注意力感知模块。
6.根据权利要求1-5任一项所述的一种基于YOLOv3的乘客检测模型的改进方法,其特征在于,所述图像为通过安装在车门对面的摄像头获得,为乘客上车时的正视图像。
7.一种基于YOLOv3的乘客检测模型的模型训练方法,其特征在于,该方法包括,采用图像集对权利要求1-7任一项所述的一种基于YOLOv3的乘客检测模型的改进方法得到的模型进行训练。
8.根据权利要求7所述的一种基于YOLOv3的乘客检测模型的模型训练方法,其特征在于,在整个模型的训练阶段采用focal loss作为目标判断的损失函数,采用GIOU作为目标框回归的损失函数,
focal loss公式为:
Figure FDA0002447452220000022
其中α为平衡因子,γ为调节因子
GIOU的公式为:
Figure FDA0002447452220000023
U=Apred+Agt-I
其中I和U分别为预测框Bpred与标签Bgt的交集和并集,Apred为Bpred的面积,Agt为Bgt的面积,A为包含Bpred和Bgt的最小边界框的面积;
总的损失函数为:
Figure FDA0002447452220000024
其中
Figure FDA0002447452220000025
与β为两个损失函数的权重系数。
9.根据权利要求7或8任一项所述的一种基于YOLOv3的乘客检测模型的模型训练方法,其特征在于,所述训练采用的图像集为通过安装在车门对面的摄像头获得,即获取乘客上车时的正视图像作为检测算法训练集的原始输入,训练集标签的制作原则是,标出乘客在图像中显示出来的上半身区域。
CN202010283083.5A 2020-04-13 2020-04-13 一种基于YOLOv3的乘客检测模型的改进方法,及模型训练方法 Active CN113536824B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010283083.5A CN113536824B (zh) 2020-04-13 2020-04-13 一种基于YOLOv3的乘客检测模型的改进方法,及模型训练方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010283083.5A CN113536824B (zh) 2020-04-13 2020-04-13 一种基于YOLOv3的乘客检测模型的改进方法,及模型训练方法

Publications (2)

Publication Number Publication Date
CN113536824A true CN113536824A (zh) 2021-10-22
CN113536824B CN113536824B (zh) 2024-01-12

Family

ID=78087789

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010283083.5A Active CN113536824B (zh) 2020-04-13 2020-04-13 一种基于YOLOv3的乘客检测模型的改进方法,及模型训练方法

Country Status (1)

Country Link
CN (1) CN113536824B (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107563381A (zh) * 2017-09-12 2018-01-09 国家新闻出版广电总局广播科学研究院 基于全卷积网络的多特征融合的目标检测方法
CN109344731A (zh) * 2018-09-10 2019-02-15 电子科技大学 基于神经网络的轻量级的人脸识别方法
US20190147318A1 (en) * 2017-11-14 2019-05-16 Google Llc Highly Efficient Convolutional Neural Networks
CN109815886A (zh) * 2019-01-21 2019-05-28 南京邮电大学 一种基于改进YOLOv3的行人和车辆检测方法及系统
WO2019153175A1 (zh) * 2018-02-08 2019-08-15 国民技术股份有限公司 基于机器学习的遮挡人脸识别系统、方法及存储介质
AU2019101133A4 (en) * 2019-09-30 2019-10-31 Bo, Yaxin MISS Fast vehicle detection using augmented dataset based on RetinaNet
CN110619309A (zh) * 2019-09-19 2019-12-27 天津天地基业科技有限公司 一种基于八度卷积和YOLOv3的嵌入式平台人脸检测方法
CN110826537A (zh) * 2019-12-05 2020-02-21 广州市久邦数码科技有限公司 一种基于yolo的人脸检测方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107563381A (zh) * 2017-09-12 2018-01-09 国家新闻出版广电总局广播科学研究院 基于全卷积网络的多特征融合的目标检测方法
US20190147318A1 (en) * 2017-11-14 2019-05-16 Google Llc Highly Efficient Convolutional Neural Networks
WO2019153175A1 (zh) * 2018-02-08 2019-08-15 国民技术股份有限公司 基于机器学习的遮挡人脸识别系统、方法及存储介质
CN109344731A (zh) * 2018-09-10 2019-02-15 电子科技大学 基于神经网络的轻量级的人脸识别方法
CN109815886A (zh) * 2019-01-21 2019-05-28 南京邮电大学 一种基于改进YOLOv3的行人和车辆检测方法及系统
CN110619309A (zh) * 2019-09-19 2019-12-27 天津天地基业科技有限公司 一种基于八度卷积和YOLOv3的嵌入式平台人脸检测方法
AU2019101133A4 (en) * 2019-09-30 2019-10-31 Bo, Yaxin MISS Fast vehicle detection using augmented dataset based on RetinaNet
CN110826537A (zh) * 2019-12-05 2020-02-21 广州市久邦数码科技有限公司 一种基于yolo的人脸检测方法

Also Published As

Publication number Publication date
CN113536824B (zh) 2024-01-12

Similar Documents

Publication Publication Date Title
CN110956094B (zh) 一种基于非对称双流网络的rgb-d多模态融合人员检测方法
Long et al. Image based source camera identification using demosaicking
US20200286239A1 (en) Iterative method for salient foreground detection and multi-object segmentation
CN107145889B (zh) 基于具有RoI池化的双CNN网络的目标识别方法
CN111832443B (zh) 一种施工违规行为检测模型的构建方法及其应用
WO2019196131A1 (zh) 面向车载热成像行人检测的感兴趣区域过滤方法和装置
CN105184779B (zh) 一种基于快速特征金字塔的车辆多尺度跟踪方法
CN111598030A (zh) 一种航拍图像中车辆检测和分割的方法及系统
CN108596169B (zh) 基于视频流图像的分块信号转换与目标检测方法及装置
CN107895376A (zh) 基于改进Canny算子和轮廓面积阈值的太阳能电池板识别方法
CN109815867A (zh) 一种人群密度估计和人流量统计方法
CN103020992B (zh) 一种基于运动颜色关联的视频图像显著性检测方法
CN104517095B (zh) 一种基于深度图像的人头分割方法
CN105678213B (zh) 基于视频特征统计的双模式蒙面人事件自动检测方法
CN107644221A (zh) 基于参数压缩的卷积神经网络交通标志识别方法
CN111127520B (zh) 一种基于视频分析的车辆跟踪方法和系统
CN104143091B (zh) 基于改进mLBP的单样本人脸识别方法
CN103927519A (zh) 一种实时人脸检测与过滤方法
CN115565035A (zh) 一种用于夜间目标增强的红外与可见光图像融合方法
CN106339657A (zh) 基于监控视频的秸秆焚烧监测方法、装置
CN106886763A (zh) 实时检测人脸的系统及其方法
Nejati et al. License plate recognition based on edge histogram analysis and classifier ensemble
CN115376108A (zh) 一种复杂天气下障碍物检测方法及装置
CN110503049B (zh) 基于生成对抗网络的卫星视频车辆数目估计方法
CN113536824A (zh) 一种基于YOLOv3的乘客检测模型的改进方法,及模型训练方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant