CN108074244B - 一种融合深度学习与背景差法的平安城市车流统计方法 - Google Patents

一种融合深度学习与背景差法的平安城市车流统计方法 Download PDF

Info

Publication number
CN108074244B
CN108074244B CN201710801432.6A CN201710801432A CN108074244B CN 108074244 B CN108074244 B CN 108074244B CN 201710801432 A CN201710801432 A CN 201710801432A CN 108074244 B CN108074244 B CN 108074244B
Authority
CN
China
Prior art keywords
model
vehicle
image
meters
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710801432.6A
Other languages
English (en)
Other versions
CN108074244A (zh
Inventor
厉紫阳
沈徐兰
冯卢梦
周红晶
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Straits innovation Internet Co.,Ltd.
Original Assignee
Hakim Unique Internet Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hakim Unique Internet Co ltd filed Critical Hakim Unique Internet Co ltd
Priority to CN201710801432.6A priority Critical patent/CN108074244B/zh
Publication of CN108074244A publication Critical patent/CN108074244A/zh
Application granted granted Critical
Publication of CN108074244B publication Critical patent/CN108074244B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20032Median filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Abstract

本发明公开了一种融合深度学习与背景差法的平安城市车流统计方法。本发明针对红外检测、地感应线圈检测、超声波检测等方法的缺陷,先使用背景差法获取图像内目标,交由深度学习进行训练分类。通过CNN和GAN网络对待识别目标进行分类,针对分类结果动态设置判定轴和识别区域,对车辆进行识别计数。本发明在多种环境中有比较高的统计精度,适应训练样本不丰富的情况下的模型训练,能够更加准确的提取数据特征,从而提高模型的分类准确性。

Description

一种融合深度学习与背景差法的平安城市车流统计方法
技术领域
本发明设计一种车流统计方法,具体是一种融合深度学习与背景差法的车流统计方法。
背景技术
随着社会经济迅速发展,对交通的需求日益增加,城市交通拥堵与事故频发,交通环境日益恶化,发达国家与发展中国家都受到不断恶化的交通问题的困扰。传统的解决交通问题的方法是修建或扩建道路,提高道路网络的承载能力,然而随着人口增长,可供修建道路的空间也越来越少,而且扩大道路网络的速度远远低于对交通需求的增长速度。同时,交通系统是一个复杂的综合性系统,单纯从车辆或者道路的角度来考虑都将很难解决交通问题,在这种背景下,把车辆和道路统一系统的解决交通问题的思想就应运而生,这就是智能交通系统(ITS)。
传统的车辆检测的方法有红外检测、地感应线圈检测、超声波检测、声学检测等。红外线检测的方法可提供大量的交通管理信息,但它抗噪能力不强,有时可能需要降低可靠性来提高灵敏度;地感应线圈检测的技术已比较成熟,性能稳定且计数非常精确,它可检测车流量、道路占有率等,但是这种方法要在公路线铺设线圈,影响路面寿命,并且易被重型车辆等损坏;超声波检测方法根据接收和返回的超声波的时间差来确定车辆通过情况,具有体积小,易于安装等优点,但是它受天气和温度影响较大;声学检测方法通过检测车辆内部声音以及车辆与地面接触的声音来进行车辆检测,但是这种方法较难检测停止车辆,有时会漏检车辆。
发明内容
本发明针对现有技术中均存在城市道路车流量统计的不足,提供了一种融合深度学习与背景差法的车流统计方法。
本发明解决其技术问题所采用的技术方案具体包括以下步骤:
步骤(1)用混合高斯背景建模分离原视频帧图像的前景和背景,提取前景图像,对前景图像进行预处理,二值化、中值滤波和形态学操作;
步骤(2)将提取出的前景图像中位于车辆驶入方向20米之内的目标切割成251*251像素的图片,人工对切割好的前景图像进行标记,依据车长将切割后前景图像中的汽车标记成5类:类Ⅰ为3到6米,类Ⅱ为6-9米,类Ⅲ为9-12米,类Ⅳ为12-15米,类Ⅴ为15-18米。具体分类如下:
2-1.选取100辆车计算成像比例prop,取平均值。通过测量原视频帧图像中车辆长度即成像车长length_img,查询该车辆实际车长length_real,确定车辆的成像比例,计算如下:
prop=length_real/length_img (1)
2-2.根据式(1)中所得成像比例prop,确定车辆驶入方向20米在前景图像中的位置,即确定待分类车辆所在区域zone。
zone=20/prop (2)
2-3.根据式(1)中所得成像比例prop,测量原视频帧图像中车辆长度length_img,计算待标记车辆实际车长length_real:
length_real=prop*length_img (3)
2-4.根据式(3)中计算所得实际车长length_real,对前景图像中待标记车辆进行分类标记;
步骤(3)选取五类汽车图片各500张作为训练样本,采用如下处理方案:
3-1.划分数据区:
数据集有五类图像,其中每一类别有500张,对每一类分别取出100张作为测试集,则总共有500张图像的测试集不会参与模型的训练,而是用来验证模型识别图像的准确率。
3-2.数据增广:
对数据集中除测试集之外的图像进行基于OpenCV的处理来扩增图像数量。具体采用以下技术手段:
A.对图像进行水平翻转或者随机角度的旋转;
B.对图像进行随机裁剪至227x227像素;
C.在原视频帧图像上添加一些随机噪音和细微的颜色抖动;
D.PCA均值化处理;
3-3.创建生成式对抗网络GAN:
GAN启发来自于博弈论中的二人零和游戏,GAN模型中的两位博弈方分别有生成模型(G)和判别模型(D)充当。生成模型G捕捉样本数据的分布,用服从某一分布(均匀分布,高斯分布等)的噪声z生成一个类似真实训练数据的样本,追求效果是越像真实样本越好;判别模型D是一个二分类器,估计一个样本来自于训练数据(而非生成数据)的概率,如果样本来自于真实的训练数据,D输出大概率,否则,D输出小概率。
GAN训练过程中固定一方,更新另外一方的网络权重,交替迭代。在此过程中,双方都极力的优化自己的网络,从而形成竞争到对抗,直到双方达到纳什均衡。此时判别模型和生成模型都可以深刻地获取对应真实数据的分布特点!
上述过程的公式如下:
Figure BDA0001401658820000031
该公式参考自Goodfellow I J,Pouget-Abadie J,Mirza M,et al.GenerativeAdversarial Networks[J].Advances in Neural Information Processing Systems,2014,3:2672-2680.
整个式子由两项构成。x表示真实图片,z表示输入G网络的噪声,而G(z)表示G网络生成的图片。
D(x)表示D网络判断真实图片是否真实的概率(因为x就是真实的,所以对于D来说,这个值越接近1越好)。而D(G(z))是D网络判断G生成的图片的是否真实的概率。
G的目的:上面提到过,D(G(z))是D网络判断G生成的图片是否真实的概率,G应该希望自己生成的图片“越接近真实越好”。也就是说,G希望D(G(z))尽可能得大,这时V(D,G)会变小。因此我们看到式子的最前面的记号是min_G。
D的目的:D的能力越强,D(x)应该越大,D(G(x))应该越小。这时V(D,G)会变大。因此式子对于D来说是求最大(max_D)
当固定生成网络G的时候,对于判别网络D应该如此优化:输入的若是真实数据,D优化网络使得结果输出为1;输入的数据如果高仿的(来自于生成模型的创造),D优化网络使得结果输出为0。当固定判别网络D时,G优化网络使其输出的数据分布和真实数据一样,并且该样本在经过D的判别之后输出较高概率!
此时,我们为每一种类型构建一个对应的GAN对抗网络,用每一类的4000张训练集图像作为真实数据来不断提高鉴别器D和生成器G。最后我们选取优秀的鉴别器G来识别该类,并且规定:当G输出概率大于等于90%,我们返回值1;当输出概率小于90%时,我们返回0。
由于有五个类别,我们则可以构造出五个鉴别模型,分别为GAN_D1,GAN_D2,GAN_D3,GAN_D4,GAN_D5。当五个GAN鉴别器构建完成之后,我们依次使用五个GAN鉴别器对一张输入图像进行鉴别,用一个全局变量result来记录每个GAN鉴别器的结果。
3-4.构建基于卷积神经网络(CNN)的分类器:
当不止一个GAN鉴别器返回1,则说明同时有多个鉴别器D认为输入的图像是属于他们的类别,这就说明一个图像属于多种类别,但是一张图像有且仅属于一类,因此需要构建一个CNN分类器来对此图像进行再分类。
3-4-1.设计一个能够完全提取灰度图像车流特征的网络架构;该架构包含33层结构,架构中包含卷积层、池化层、归一化层、激活层、残差层和全连接层;用训练集的总共2万张图像训练该网络架构,最终选取最优的模型作为五分类识别器。该网络架构能够充分提取该灰度图中汽车特征,并且给出精准的唯一分类结果:
3-4-2.通过五种GAN的鉴别器分别判定图像属于哪一个种类。如果只有一个GAN鉴别器返回1(true),则该图像就属于该鉴别器所对应的类别,否则执行第二步操作。
3-4-3.用基于深度学习的卷积神经网络分类器对该输入的图像进行识别再分类,最终输入唯一精确的所属类别。
步骤(4)从视频帧图像中车辆驶入方向20米内获取待识别目标,将各个车道内的目标图像切割后分别交给步骤(3)进行识别分类,获得分类结果。
步骤(5)针对不同类别的车辆,动态确定判定轴和车辆检测识别区域,进行计数。具体如下:
5-1.依据步骤(4)中的分类结果,确定判定轴,类Ⅰ为6米,类Ⅱ为9米,类Ⅲ为12米,类Ⅳ为15米,类Ⅴ为18米;相应的识别区域为车辆驶入方向0米到判定轴。
5-2.在视频帧图像中识别出车辆时,计数器加1,设置监控标志位为0(不可再计数),设置车辆检测识别区域为该车所属分类对应的识别区域。
5-3.在最近一辆已计数车辆所对应判定轴的0.5至1.5倍区间内,若有车辆在该区间内被识别,则监控标志位为1(可在计数),重置车辆检测识别区域。
本发明有益效果如下:
针对红外检测、地感应线圈检测、超声波检测等方法的缺陷,本发明先使用背景差法获取图像内目标,交由深度学习进行训练分类。通过CNN和GAN网络对待识别目标进行分类,针对分类结果动态设置判定轴和识别区域,对车辆进行识别计数。该方法在多种环境中有比较高的统计精度,适应训练样本不丰富的情况下的模型训练,能够更加准确的提取数据特征,从而提高模型的分类准确性。
附图说明
图1为本发明网络架构图;
图2为本发明深度学习训练流程图;
图3为本发明整体流程图;
具体实施方式
下面结合附图和实施例对本发明作进一步说明。
如图1-3所示,一种融合深度学习与背景差法的平安城市车流统计方法,具体包括如下步骤:
(1)用混合高斯背景建模分离视频的前景和背景,提取前景图像,对前景图像进行预处理,二值化、中值滤波和形态学操作;
(2)将提取出的前景图像中位于车辆驶入方向20米之内的目标切割成251*251像素的图片,人工对切割好的前景图像进行标记,依据车长将切割后前景图像中的汽车标记成5类:类1为3到6米,类2为6-9米,类3为9-12米,类4为12-15米,类5为15-18米。具体分类如下:
取100辆车计算成像比例(prop),取平均值。通过测量原图中车辆长度即成像车长(length_img),查询该车辆实际车长(length_real),确定车辆的成像比例,计算如下:
prop=length_real/length_img (1)
据式(1)中所得比例(prop)确定车辆驶入方向20米在图像中的位置即确定待分类车辆所在区域(zone)。
zone=20/prop (2)
据式(1)中所得比例(prop),测量所得图像中车辆长度length_img,计算待标记车辆图像实际车长length_real:
length_real=prop*length_img (3)
根据式(2)中计算所得实际车长length_real对图像车辆进行标记;
(3)选取5类汽车图片各500张作为训练样本,采用如下处理方案:
A)划分数据区:数据集有五类灰度图像,其中每一类别有500张。这里我们对每一类分别取出100张作为测试集,则总共有500张测试集不会参与模型的训练,其用来验证模型识别图像的准确率。
B)数据增广:我们对除测试集之外的图片进行基于OpenCV的一些处理来扩增图片数量。主要采用以下技术手段:
a对图像进行水平翻转或者随机角度的旋转;
b对图像进行随机裁剪至227x227像素
c在原始图像上添加一些随机噪音和细微的颜色抖动
d PCA均值化处理。
我们为把一张图像扩增至10张,这样我们的每一类训练数据集可以扩增至4000张图像。
C)创建生成式对抗网络GAN:GAN启发来自于博弈论中的二人零和游戏,GAN模型中的两位博弈方分别有生成模型(G)和判别模型(D)充当。生成模型G捕捉样本数据的分布,用服从某一分布(均匀分布,高斯分布等)的噪声z生成一个类似真实训练数据的样本,追求效果是越像真实样本越好;判别模型D是一个二分类器,估计一个样本来自于训练数据(而非生成数据)的概率,如果样本来自于真实的训练数据,D输出大概率,否则,D输出小概率。
GAN训练过程中固定一方,更新另外一方的网络权重,交替迭代。在此过程中,双方都极力的优化自己的网络,从而形成竞争到对抗,直到双方达到纳什均衡。此时判别模型和生成模型都可以深刻地获取对应真实数据的分布特点!
上述过程的公式如下:
Figure BDA0001401658820000071
当固定生成网络G的时候,对于判别网络D应该如此优化:输入的若是真实数据,D优化网络使得结果输出为1;输入的数据如果高仿的(来自于生成模型的创造),D优化网络使得结果输出为0。当固定判别网络D时,G优化网络使其输出的数据分布和真实数据一样,并且该样本在经过D的判别之后输出较高概率!
此时,我们为每一种类型构建一个对应的GAN对抗网络,用每一类的4000张训练集图像作为真实数据来不断提高鉴别器D和生成器G。最后我们选取优秀的鉴别器G来识别该类,并且规定:当G输出概率大于等于90%,我们返回值1;当输出概率小于90%时,我们返回0。
由于有五个类别,我们则可以构造出五个鉴别模型,分别为GAN_D1,GAN_D2,GAN_D3,GAN_D4,GAN_D5。当五个GAN鉴别器构建完成之后,我们依次使用五个GAN鉴别器对一张输入图像进行鉴别,用一个全局变量result来记录每个GAN鉴别器的结果。
D)构建基于卷积神经网络(CNN)的分类器:当不止一个GAN鉴别器返回1,则说明同时又多个鉴别器D认为输入的图像是属于他们的类别,这就说明一个图像属于多种类别,但是一张图像有且仅属于一类。此时我们构建一个CNN分类器来对此图像进行再分类。
首先我们需要设计一个能够完全提取灰度图像车流特征的网络架构,架构图为附图1。
该架构包含33层结构,架构中包含卷积层,池化层,归一化层,激活层,残差层,全连接层。我们用训练集的总共2万张图像作为训练集训练该网络,最终选取最优的模型作为五分类识别器。该网络架构可以充分提取该灰度图中汽车特征,并且给出精准的唯一分类结果。
伪代码如下:
Figure BDA0001401658820000081
以上分类识别过程,大致可以划分为两大步:
1通过五种GAN的鉴别器分别判定图像属于哪一个种类。如果只有一个GAN鉴别器返回1(true),则该图像就属于该鉴别器所对应的类别,否则执行第二步操作。
2用基于深度学习的卷积神经网络分类器对该输入的图像进行识别再分类,最终输入唯一精确的所属类别。
(4)从视频帧中车辆驶入方向20米内获取待识别目标,将各个车道内的目标图像切割后分别交给步骤(3)进行识别分类,获得分类结果。
(5)针对不同类别的车辆,动态确定判定轴和车辆检测识别区域,进行计数。具体如下:
A)依据步骤(4)中的分类结果,确定判定轴,类1为6米,类2为9米,类3为12米,类4为15米,类5为18米。相应的识别区域为车辆驶入方向0米到判定轴。
B)在视频帧中识别出车辆时,计数器加1,设置监控标志位为0(不可再计数),设置车辆检测识别区域为该车所属分类对应的识别区域。
C)在最近一辆已计数车辆所对应判定轴的0.5至1.5倍区间内,若有车辆在该区间内被识别,则监控标志位为1(可在计数),重置车辆检测识别区域。
通过以上步骤即可较为准确统计出车流量。

Claims (1)

1.一种融合深度学习与背景差法的平安城市车流统计方法,其主要特征包括如下步骤:
步骤(1)用混合高斯背景建模分离原视频帧图像的前景和背景,提取前景图像,对前景图像进行预处理,二值化、中值滤波和形态学操作;
步骤(2)将提取出的前景图像中位于车辆驶入方向20米之内的目标切割成251*251像素的图片,人工对切割好的前景图像进行标记,依据车长将切割后前景图像中的汽车标记成5类:类Ⅰ为3到6米,类Ⅱ为6-9米,类Ⅲ为9-12米,类Ⅳ为12-15米,类Ⅴ为15-18米;具体分类如下:
2-1.选取100辆车计算成像比例prop,取平均值;通过测量原视频帧图像中车辆长度即成像车长length_img,查询该车辆实际车长length_real,确定车辆的成像比例,计算如下:
prop=length_real/length_img (1)
2-2.根据式(1)中所得成像比例prop,确定车辆驶入方向20米在前景图像中的位置,即确定待分类车辆所在区域zone;
zone=20/prop (2)
2-3.根据式(1)中所得成像比例prop,测量原视频帧图像中车辆长度length_img’,计算待标记车辆实际车长length_real’:
length_real’=prop*length_img’ (3)
2-4.根据式(3)中计算所得实际车长length_real’,对前景图像中待标记车辆进行分类标记;
步骤(3)选取五类汽车图片各500张作为训练样本,采用如下处理方案:
3-1.划分数据区:
数据集有五类图像,其中每一类别有500张,对每一类分别取出100张作为测试集,则总共有500张图像的测试集不会参与模型的训练,而是用来验证模型识别图像的准确率;
3-2.数据增广:
对数据集中除测试集之外的图像进行基于OpenCV的处理来扩增图像数量;具体采用以下技术手段:
A.对图像进行水平翻转或者随机角度的旋转;
B.对图像进行随机裁剪至227x227像素;
C.在原视频帧图像上添加一些随机噪音和细微的颜色抖动;
D.PCA均值化处理;
3-3.创建生成式对抗网络GAN模型:
GAN模型中的两位博弈方分别有生成模型G和判别模型D充当;生成模型G捕捉样本数据的分布,用服从某一分布的噪声z生成一个类似真实训练数据的样本;判别模型D是一个二分类器,估计一个样本来自于训练数据的概率,如果样本来自于真实的训练数据,D输出大概率,否则,D输出小概率;
GAN训练过程中固定一方,更新另外一方的网络权重,交替迭代,过程公式如下:
Figure FDA0002995168070000021
整个式子由两项构成;x表示真实图片,z表示输入生成模型G的噪声,而G(z)表示生成模型G生成的图片;
D(x)表示判别模型D判断真实图片是否真实的概率,而D(G(z))是判别模型D判断生成模型G生成的图片的是否真实的概率;
当固定生成生成模型G的时候,对于判别模型D优化如下:输入的若是真实数据,判别模型D优化使得模型结果输出为1;输入的数据如果高仿的,判别模型D优化使得模型结果输出为0;当固定判别模型D时,生成模型G优化模型使其输出的数据分布和真实数据一样,并且该样本在经过判别模型D的判别之后输出较高概率;
为每一种类型构建一个对应的GAN对抗网络模型,用每一类的4000张训练集图像作为真实数据来不断提高判别模型D和生成模型G;最后选取最优生成模型G来识别该类,并且规定:当生成模型G输出概率大于等于90%,返回值1;当输出概率小于90%时,返回0;
对五个类别构造五个对应的判别模型D,分别为GAN_D1,GAN_D2,GAN_D3,GAN_D4,GAN_D5;构建完成后,依次使用五个判别模型D对一张输入图像进行鉴别,用一个全局变量result来记录每个判别模型D的结果;
3-4.构建基于卷积神经网络的分类器:
当不止一个判别模型D返回1,则说明同时有多个判别模型D认为输入图像是属于该判别模型所在的类别,说明该输入图像属于多种类别,但是一张图像有且仅属于一类,因此需要构建一个CNN分类器来对该输入图像进行再分类;
3-4-1.设计一个能够完全提取灰度图像车流特征的网络架构;该架构包含33层结构,架构中包含卷积层、池化层、归一化层、激活层、残差层和全连接层;用训练集的总共2万张图像训练该网络架构,最终选取最优的模型作为五分类识别器;该网络架构能够充分提取该灰度图中汽车特征,并且给出精准的唯一分类结果:
3-4-2.通过五种GAN的判别模型D分别判定图像属于哪一个种类;如果只有一个GAN判别模型D返回1,则该图像就属于该判别模型D所对应的类别,否则用基于深度学习的卷积神经网络分类器对该输入的图像进行识别再分类,最终输入唯一精确的所属类别;
步骤(4)从视频帧图像中车辆驶入方向20米内获取待识别目标,将各个车道内的目标图像切割后分别交给步骤(3)进行识别分类,获得分类结果;
步骤(5)针对不同类别的车辆,动态确定判定轴和车辆检测识别区域,进行计数;具体如下:
5-1.依据步骤(4)中的分类结果,确定判定轴,类Ⅰ为6米,类Ⅱ为9米,类Ⅲ为12米,类Ⅳ为15米,类Ⅴ为18米;相应的识别区域为车辆驶入方向0米到判定轴;
5-2.在视频帧图像中识别出车辆时,计数器加1,设置监控标志位为0,设置车辆检测识别区域为该车辆所属分类对应的识别区域;
5-3.在最近一辆已计数车辆所对应判定轴的0.5至1.5倍区间内,若有车辆在该区间内被识别,则监控标志位为1,重置车辆检测识别区域。
CN201710801432.6A 2017-09-07 2017-09-07 一种融合深度学习与背景差法的平安城市车流统计方法 Active CN108074244B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710801432.6A CN108074244B (zh) 2017-09-07 2017-09-07 一种融合深度学习与背景差法的平安城市车流统计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710801432.6A CN108074244B (zh) 2017-09-07 2017-09-07 一种融合深度学习与背景差法的平安城市车流统计方法

Publications (2)

Publication Number Publication Date
CN108074244A CN108074244A (zh) 2018-05-25
CN108074244B true CN108074244B (zh) 2021-05-25

Family

ID=62159492

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710801432.6A Active CN108074244B (zh) 2017-09-07 2017-09-07 一种融合深度学习与背景差法的平安城市车流统计方法

Country Status (1)

Country Link
CN (1) CN108074244B (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108810547A (zh) * 2018-07-03 2018-11-13 电子科技大学 一种基于神经网络和pca-knn的高效vr视频压缩方法
CN109102496B (zh) * 2018-07-10 2022-07-26 武汉科技大学 基于变分生成对抗模型识别乳腺肿瘤区域的方法及装置
CN109214408A (zh) * 2018-07-10 2019-01-15 武汉科技大学 基于生成对抗模型识别肝肿瘤的方法及装置
CN109146868A (zh) * 2018-08-27 2019-01-04 北京青燕祥云科技有限公司 3d肺结节生成方法、装置及电子设备
CN109344883A (zh) * 2018-09-13 2019-02-15 西京学院 一种基于空洞卷积的复杂背景下果树病虫害识别方法
CN109326302B (zh) * 2018-11-14 2022-11-08 桂林电子科技大学 一种基于声纹比对和生成对抗网络的语音增强方法
CN109766934B (zh) * 2018-12-26 2020-12-11 北京航空航天大学 一种基于深度Gabor网络的图像目标识别方法
CN111797264A (zh) * 2019-04-09 2020-10-20 北京京东尚科信息技术有限公司 图像增广与神经网络训练方法、装置、设备及存储介质
CN110263872B (zh) * 2019-06-26 2022-05-17 上海鹰瞳医疗科技有限公司 训练数据处理方法及装置
CN111126185B (zh) * 2019-12-09 2023-09-05 南京莱斯电子设备有限公司 一种针对道路卡口场景的深度学习车辆目标识别方法
CN111161295B (zh) * 2019-12-30 2023-11-21 神思电子技术股份有限公司 一种菜品图像背景剥离方法
CN113157760A (zh) * 2020-01-22 2021-07-23 阿里巴巴集团控股有限公司 目标数据确定方法及装置
CN111723997A (zh) * 2020-06-23 2020-09-29 上海电科智能系统股份有限公司 一种基于gan的城市重大交通事故数据样本自动生成方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8000897B2 (en) * 1997-10-22 2011-08-16 Intelligent Technologies International, Inc. Intersection collision avoidance techniques
CN104599511A (zh) * 2015-02-06 2015-05-06 中国石油大学(华东) 一种基于背景建模的车流量检测方法
US20150154457A1 (en) * 2012-06-28 2015-06-04 International Business Machines Corporation Object retrieval in video data using complementary detectors
CN105184271A (zh) * 2015-09-18 2015-12-23 苏州派瑞雷尔智能科技有限公司 一种基于深度学习的车辆自动检测方法
CN105678214A (zh) * 2015-12-21 2016-06-15 中国石油大学(华东) 云环境下基于卷积神经网络车型识别的车流量统计方法
CN105930833A (zh) * 2016-05-19 2016-09-07 重庆邮电大学 一种基于视频监控的车辆跟踪与分割方法
CN105938560A (zh) * 2016-03-23 2016-09-14 吉林大学 一种基于卷积神经网络的车型精细分类系统
CN106650913A (zh) * 2016-12-31 2017-05-10 中国科学技术大学 一种基于深度卷积神经网络的车流密度估计方法
CN107067015A (zh) * 2016-10-27 2017-08-18 武汉烽火众智数字技术有限责任公司 一种基于多特征深度学习的车辆检测方法及装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8000897B2 (en) * 1997-10-22 2011-08-16 Intelligent Technologies International, Inc. Intersection collision avoidance techniques
US20150154457A1 (en) * 2012-06-28 2015-06-04 International Business Machines Corporation Object retrieval in video data using complementary detectors
CN104599511A (zh) * 2015-02-06 2015-05-06 中国石油大学(华东) 一种基于背景建模的车流量检测方法
CN105184271A (zh) * 2015-09-18 2015-12-23 苏州派瑞雷尔智能科技有限公司 一种基于深度学习的车辆自动检测方法
CN105678214A (zh) * 2015-12-21 2016-06-15 中国石油大学(华东) 云环境下基于卷积神经网络车型识别的车流量统计方法
CN105938560A (zh) * 2016-03-23 2016-09-14 吉林大学 一种基于卷积神经网络的车型精细分类系统
CN105930833A (zh) * 2016-05-19 2016-09-07 重庆邮电大学 一种基于视频监控的车辆跟踪与分割方法
CN107067015A (zh) * 2016-10-27 2017-08-18 武汉烽火众智数字技术有限责任公司 一种基于多特征深度学习的车辆检测方法及装置
CN106650913A (zh) * 2016-12-31 2017-05-10 中国科学技术大学 一种基于深度卷积神经网络的车流密度估计方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Vision-based vehicle detecting and counting for traffic flow analysis;Zhang Zhimei,et al.;《2016 International Joint Conference on Neural Networks (IJCNN)》;20161103;全文 *
交通监控视频中的车辆检测技术研究;周标.;《中国优秀硕士学位论文全文库(电子期刊)》;20170531;全文 *

Also Published As

Publication number Publication date
CN108074244A (zh) 2018-05-25

Similar Documents

Publication Publication Date Title
CN108074244B (zh) 一种融合深度学习与背景差法的平安城市车流统计方法
CN109977812B (zh) 一种基于深度学习的车载视频目标检测方法
CN111652293B (zh) 一种多任务联合判别学习的车辆重识别方法
CN109816024A (zh) 一种基于多尺度特征融合与dcnn的实时车标检测方法
CN104700099A (zh) 识别交通标志的方法和装置
CN108399378B (zh) 一种基于vgg深度卷积网络的自然场景图像识别方法
CN109871875B (zh) 一种基于深度学习的建筑物变化检测方法
CN107832835A (zh) 一种卷积神经网络的轻量化方法及装置
CN109886147A (zh) 一种基于单网络多任务学习的车辆多属性检测方法
CN109740479A (zh) 一种车辆重识别方法、装置、设备及可读存储介质
CN103679214B (zh) 基于在线面积估计和多特征决策融合的车辆检测方法
CN109410184A (zh) 基于稠密对抗网络半监督学习的直播色情图像检测方法
CN112347927B (zh) 基于卷积神经网络概率决策融合的高分影像建筑提取方法
CN110188828A (zh) 一种基于虚拟样本集成学习的图像来源鉴别方法
CN113255580A (zh) 抛洒物识别、车辆抛洒滴漏识别方法和装置
CN112785610B (zh) 一种融合低层特征的车道线语义分割方法
CN111832463A (zh) 一种基于深度学习的交通标志检测方法
CN116665153A (zh) 一种基于改进型Deeplabv3+网络模型的道路场景分割方法
CN116628531A (zh) 众包地图道路对象要素聚类方法、系统及存储介质
CN110598749A (zh) 一种基于卷积神经网络ai算法的图像识车实现系统
CN115527118A (zh) 一种融合注意力机制的遥感图像目标检测方法
CN115272882A (zh) 一种基于遥感影像的离散建筑物检测方法及系统
CN115393802A (zh) 一种基于小样本学习的铁路场景不常见入侵目标识别方法
CN112015937B (zh) 一种图片地理定位方法及系统
CN113569734B (zh) 一种基于特征重校准的图像识别与分类方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: Room 1101, South Building, Handing International Building, No. 5 Yongfuqiao Road, Xiacheng District, Hangzhou City, Zhejiang Province

Applicant after: Handing you Yu Internet Limited by Share Ltd

Address before: 310027 Room 1119, Yuantong Building, 511 Yan'an Road, Hangzhou City, Zhejiang Province

Applicant before: Handing you Yu Internet Limited by Share Ltd

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address

Address after: Floor 17, building 6, jinjingwan business operation center, Pingtan Comprehensive Experimental Zone, Fuzhou City, Fujian Province 350400

Patentee after: Straits innovation Internet Co.,Ltd.

Address before: Room 1101, South Building, Handing International Building, No. 5 Yongfuqiao Road, Xiacheng District, Hangzhou City, Zhejiang Province

Patentee before: HAKIM UNIQUE INTERNET Co.,Ltd.

CP03 Change of name, title or address