CN110009023A - 智慧交通中的车流统计方法 - Google Patents

智慧交通中的车流统计方法 Download PDF

Info

Publication number
CN110009023A
CN110009023A CN201910232644.6A CN201910232644A CN110009023A CN 110009023 A CN110009023 A CN 110009023A CN 201910232644 A CN201910232644 A CN 201910232644A CN 110009023 A CN110009023 A CN 110009023A
Authority
CN
China
Prior art keywords
frame
ssd
vehicle
target
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910232644.6A
Other languages
English (en)
Inventor
王智
陈小雕
徐磊
姜显扬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou University Of Electronic Science And Technology Shangyu Institute Of Science And Engineering Co Ltd
Hangzhou Dianzi University
Hangzhou Electronic Science and Technology University
Original Assignee
Hangzhou University Of Electronic Science And Technology Shangyu Institute Of Science And Engineering Co Ltd
Hangzhou Electronic Science and Technology University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou University Of Electronic Science And Technology Shangyu Institute Of Science And Engineering Co Ltd, Hangzhou Electronic Science and Technology University filed Critical Hangzhou University Of Electronic Science And Technology Shangyu Institute Of Science And Engineering Co Ltd
Priority to CN201910232644.6A priority Critical patent/CN110009023A/zh
Publication of CN110009023A publication Critical patent/CN110009023A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明涉及一种智慧交通中的车流统计方法。现有技术对于车辆识别的准确率不足、效率不高。本发明方法采用神经网络中的SSD和ResNet,与传统的目标跟踪CamShift算法两个部分组建,包括车辆检测方法和车辆跟踪方法。车辆检测方法首先建立SSD网络,SSD得到多个不同尺寸的特征图,对于同一特征层上的默认框采取不同的宽高比,增强默认框对物体形状的鲁棒性,SSD训练同时对位置和目标种类进行回归。车辆跟踪方法是采用连续自适应期望移动算法对单次移动视觉网络检测器第一帧识别出的车辆进行跟踪。本发明方法不仅可以更加准确的检测出车辆,进行统计,而且可以通过跟踪防止车辆目标丢失而重新统计,得到的车流数据更加准确。

Description

智慧交通中的车流统计方法
技术领域
本发明属于人工智能技术领域,具体是智慧交通领域,涉及一种智慧交通中的车流统计方法,具体是一种通过对车辆的检测与跟踪进行车流统计的方法,尤其涉及一种通过ResNet-50(残差网络)框架改进SSD(单次检测器)神经网络使用的检测方法和Camshift(连续自适应期望移动算法)跟踪算法结合的方法,能够实时对交通中的车流进行统计。
背景技术
近年来,随着社会经济的迅猛发展,人口的增加和车辆的飞速增长,交通的压力越来越大,城市交通拥堵严重,并且事故频发,交通环境的日益恶化也是困扰着全世界大多数国家,解决交通问题成为城市发展的重中之重。对于传统的解决办法,一般采用修建或扩宽道路,使道路承受能力增强,但是随着大城市人口车辆增多,用地增加,道路已经无法再进行大规模的整改,部分扩建整改的速度根本满足不了交通的需求。并且,交通系统死一个复杂的综合性系统,不能只通过道路的扩建和修建和车辆的限行的角度来解决,在这种背景下,采用将矛盾转化的方法,将道路车辆相结合的思想解决问题方法应运而生。这就是智慧交通的思想,通过对当前路段的车流信息进行统计,以为信号灯的设置时间和路牌设置等提供合理数据支持。
对于传统的车辆检测方法有红外检测、超声波检测、传统HOG特征和SVM结合的前向车辆检测等。对于传统的检测速度上都是有一定的优势,但是对于车辆识别的准确率有着很明显的不足,并且识别的环境会被限制,红外线的抗噪声能力差,超声波检测容易受到天气和温度的影响,而传统的特征检测一直都有着效率不高的问题。
所以只有提出在各种环境都有抗噪能力并且识别准确率高速度快的方法,才能真正解决车辆检测问题,并且通过实时跟踪防止漏检或者重复检测统计的问题。
发明内容
本发明的目的就是提供一种高效准确率高的车辆检测与跟踪速度的车流统计算法,该方法采用SSD算法和ResNet-50组建的检测模块与CamShift算法组建的跟踪模块,进行车辆检测跟踪并且进行车流统计。
本发明方法采用神经网络中的SSD和ResNet,与传统的目标跟踪CamShift算法两个部分组建,包括车辆检测方法和车辆跟踪方法。
所述的车辆检测方法具体是:
(1).建立SSD网络,所述的SSD为单次检测器;
所述的SSD网络包括两部分:一部分是位于前端的深度卷积神经网络,采用的是去除分类层的图像分类网络,如VGG(视觉几何组)用于目标初步特征提取;一部分是位于后端的多尺度特征检测网络,为一组级联的卷积神经网络,将前端网络产生的特征层进行不同尺度条件下的特征提取SSD框架。
(2).SSD采用多尺度的方法得到多个不同尺寸的特征图,假设模型检测时采用m个特征图,则第k个特征图的默认框比例:其中:Sk是第k个特征图默认框占输入图像的比例,Sk=0.18~0.20;Smax是最大的特征层默认框占输入图像的比例,Smax=0.9~1.0;Smin是最小的特征层默认框占输入图像的比例,Smin=0.18~0.20;
(3).SSD采用锚定(anchors)机制,对于同一特征层上的默认框采取不同的宽高比,以增强默认框对物体形状的鲁棒性;默认框的宽高比同时针对宽高比等于1这一类,添加Sk′是对Sk求解梯度,则:
其中,|fk|是第k个特征图的尺寸大小;a、b为调整参数,a,b∈(0,1,2,…,|fk|-1);(cx,cy)为特征图上默认框中心的坐标;wb、hb为默认的框的宽和高;wfeature、hfeature为特征图的宽和高;wimg、himg为原始图像的宽和高;得到的(xmin,ymin,xmax,ymax)为第k个特征图上中心为宽和高大小为wk和hk的默认框映射到原始图像的物体框坐标。
(4).SSD训练同时对位置和目标种类进行回归,其目标损失函数是置信损失和位置损失之和:其中,L(z,c,l,g)是目标损失函数,Lconf(z,c)是置信损失函数,Lloc(z,l,g)是位置损失函数,N是与标注数据(ground truth)物体框匹配的默认框个数;z为默认框与不同类别的标注数据物体框的匹配结果,c为预测物体框的置信度,l为预测物体框的位置信息,g为标注数据物体框的位置信息;α为权衡置信损失和位置损失的参数,设置为1。
该目标损失函数同时包含置信损失函数和位置损失函数,在训练过程中,通过减小损失函数值可以确保在提升预测框类别置信度的同时也提高预测框的位置可信度,而用于数据集训练,通过多次结果优化,不断提高模型的目标检测性能,从而训练出性能较好的预测模型。
所述的SSD网络采用ResNet-50改进SSD神经网络。随着神经网络的层数的增加,深度网络一般会越难训练。有些网络在开始收敛时,还可能出现退化问题,导致准确率很快达到饱和,出现层次越深、错误率反而越高的现象。更令人意外的是,这种退化导致的更高错误率并不是由于过拟合引起的,而仅仅是因为增加了更多的层数。而残差网络的提出就是解决这个问题。
神经网络采用这种残差网络作为前馈网络,就是解决退化问题。残差网络通过改变运算方式增加一个运算通道的方法,将之前通道的维数降低进行运算,最终与新通道数据进行逻辑运算。
所述的车辆跟踪方法是采用连续自适应期望移动算法(CamShift)对单次移动视觉网络检测器(SSD-Resnet)第一帧识别出的车辆进行跟踪,具体如下:
(1)计算目标区域内的颜色直方图:
将输入图像转换到HSV颜色空间,目标区域为初始设定的搜索窗口范围,分离出色调H分量做该区域的色调直方图计算,得到目标模板的颜色直方图。因为RGB颜色空间对光线条件的改变较为敏感,要减小该因素对跟踪效果的影响,CamShift算法通常采用HSV色彩空间进行处理,当然也可以用其它颜色空间计算。
(2)根据获得的颜色直方图,将原始输入图像转化成颜色概率分布图像:
该过程称为“反向投影"。所谓直方图反向投影,就是输入图像在已知目标颜色直方图的条件下的颜色概率密度分布图,包含了目标在当前帧中的相干信息。对于输入图像中的每一个像素,查询目标模型颜色直方图,对于目标区域内的像素,得到该像素属于目标像素的概率,而对于非目标区域内的像素,该概率为0。
(3)MeanShift(均值漂移)迭代,即右边大矩形框内的部分,它是CamShift算法的核心,目的在于找到目标中心在当前帧中的位置:
首先,在颜色概率分布图中选择搜索框的大小和初始位置,然后计算搜索框的质心位置;设像素点(i,j)位于搜索框内,I(i,j)是颜色直方图的反向投影图中该像素点对应的值,定义搜索框的零阶矩M00和一阶矩M10、M01如下:
搜索框的质心位置为:(M10/M00,M01/M00,),I为像素点i所能到达的最大位置,J为像素点j所能到达的最大位置。
然后,调整搜索框中心到质心。零阶矩反映了搜索框尺寸,依据它调整框大小,并将搜索框的中心移到质心,如果移动大于设定的阈值τ,则重新计算调整后的窗口质心,进行新一轮的窗口位置和尺寸调整,直到移动小于等于设定的阈值τ,阈值τ为初始搜索框中心到搜索框对角点距离的四分之一;或者迭代次数达到设定的最大值n,n=12~20,认为收敛条件满足,将搜索框位置和大小作为下一帧的目标位置输入,开始对下一帧图像进行新的目标搜索。每发现一个车辆目标,进行数目加一操作。
本发明在车流统计中起到关键作用,不仅可以更加准确的检测出车辆,进行统计,而且可以通过跟踪防止车辆目标丢失而重新统计,得到的车流数据更加准确。从提高社会经济效益来说,这一发明可以为解决城市交通问题提供有力的数据支持,具有极大的现实意义和广阔的应用场景。
附图说明
图1为本发明方法流程图;
图2 ResNet-50结构图;
图3运动车辆检测模块示意图;
图4 CamShift跟踪算法流程图。
具体实施方式
结合以下具体实施例和附图,对本发明进一步的详细说明。
智慧交通中的车流统计方法,通过ResNet-50框架改进传统的SSD目标检测算法和CamShift算法相结合的目标检测算法对车辆进行实时检测与跟踪,不仅使车辆的检测效果提高,并且防止在跟踪时出现车辆的丢失而重新计数,为城市交通提供可靠数据。该方法包括包括车辆检测方法和车辆跟踪方法。
车辆检测方法具体是:
(1).建立SSD网络,所述的SSD网络包括两部分:一部分是位于前端的深度卷积神经网络,采用的是去除分类层的图像分类网络;一部分是位于后端的多尺度特征检测网络,为一组级联的卷积神经网络;所述的SSD为单次检测器。
(2).SSD采用多尺度的方法得到多个不同尺寸的特征图,假设模型检测时采用m个特征图,则第k个特征图的默认框比例:其中,Sk是第k个特征图默认框占输入图像的比例,Sk=0.18~0.20,Smax是最大的特征层默认框占输入图像的比例,Smax=0.9~1.0,Smin是最小的特征层默认框占输入图像的比例,Smin=0.18~0.20。
(3).SSD采用锚定机制,对于同一特征层上的默认框采取不同的宽高比,以增强默认框对物体形状的鲁棒性;默认框的宽高比同时针对宽高比等于1这一类,添加Sk′是对Sk求解梯度,则:
其中,|fk|是第k个特征图的尺寸大小;a、b为调整参数,a,b∈(0,1,2,…,|fk|-1);(cx,cy)为特征图上默认框中心的坐标;wb、hb为默认的框的宽和高;wfeature、hfeature为特征图的宽和高;wimg、himg为原始图像的宽和高;得到的(xmin,ymin,xmax,ymax)为第k个特征图上中心为宽和高大小为wk和hk的默认框映射到原始图像的物体框坐标。
(4).SSD训练同时对位置和目标种类进行回归,其目标损失函数是置信损失和位置损失之和:其中,L(z,c,l,g)是目标损失函数,Lconf(z,c)是置信损失函数,Lloc(z,l,g)是位置损失函数,N是与标注数据物体框匹配的默认框个数;z为默认框与不同类别的标注数据物体框的匹配结果,c为预测物体框的置信度,l为预测物体框的位置信息,g为标注数据物体框的位置信息;α为权衡置信损失和位置损失的参数,设置为1。
车辆跟踪方法是采用连续自适应期望移动算法对单次移动视觉网络检测器第一帧识别出的车辆进行跟踪,具体如下:
(1).计算目标区域内的颜色直方图:
将输入图像转换到HSV颜色空间,目标区域为初始设定的搜索窗口范围,分离出色调H分量做该区域的色调直方图计算,得到目标模板的颜色直方图。
(2).根据获得的颜色直方图,将原始输入图像转化成颜色概率分布图像:
输入图像在已知目标颜色直方图的条件下的颜色概率密度分布图,包含了目标在当前帧中的相干信息;对于输入图像中的每一个像素,查询目标模型颜色直方图,对于目标区域内的像素,得到该像素属于目标像素的概率,而对于非目标区域内的像素,该概率为0。
(3).均值漂移迭代,找到目标中心在当前帧中的位置:
首先,在颜色概率分布图中选择搜索框的大小和初始位置,然后计算搜索框的质心位置;设像素点(i,j)位于搜索框内,I(i,j)是颜色直方图的反向投影图中该像素点对应的值,定义搜索框的零阶矩M00和一阶矩M10、M01如下:
搜索框的质心位置为:(M10/M00,M01/M00,),I为像素点i所能到达的最大位置,J为像素点j所能到达的最大位置。
然后,调整搜索框中心到质心;零阶矩反映了搜索框尺寸,依据它调整框大小,并将搜索框的中心移到质心,如果移动距离大于设定的阈值τ,则重新计算调整后的窗口质心,进行新一轮的窗口位置和尺寸调整,直到移动距离小于等于设定的阈值τ,阈值τ为初始搜索框中心到搜索框对角点距离的四分之一,或者迭代次数达到设定的最大值n,n=12~20,认为收敛条件满足,将搜索框位置和大小作为下一帧的目标位置输入,开始对下一帧图像进行新的目标搜索;每发现一个车辆目标,进行数目加一操作。
如图1所示,通过摄像头实时采集的视频通过目标检测器识别出车辆,这时车辆开始计数,没出现新的车辆,数目加一,检测出的车辆通过Camshift跟踪器跟踪目标车辆,直至目标脱离摄像头摄像范围,有利的防止车辆的重复计数。
图2是SSD算法改进的框架ResNet-50的结构图,通过使用bottleneck(瓶颈)和右侧加一通道,原通道通过1x1的卷积把256维channel降到64维,然后再最后通过1×1卷积恢复,整体参数数目:1×1×256×64+3×3×64×64+1×1×64×256=69632,而不使用bottleneck的参数数目:3×3×256×256×2=1179648,效率提高了16,94倍。所以改进的方案可以大大提升检测速度。
图3中车辆检测模块通过对样本选择对图片预处理,通过SSD-ResNet模型训练得到参数,最终得到所需的神经网络模型,通过对运动区域进行检测出车辆位置。
如图4是对CamShift算法进行的详细解释主要是通过车辆检测出的第一帧进行下一帧的跟踪,因为车辆两帧视频中位置相差不大,不必再进行检测步骤,减少运算量,加快跟踪速度,减少硬件资源浪费,通过减少运算量还可以加快硬件处理速度,以达到实现目标,实时进行车辆检测与跟踪,防止目标重复计数的作用。

Claims (6)

1.智慧交通中的车流统计方法,包括车辆检测方法和车辆跟踪方法,其特征在于:
所述的车辆检测方法具体是:
(1).建立SSD网络,所述的SSD网络包括两部分:一部分是位于前端的深度卷积神经网络,采用的是去除分类层的图像分类网络;一部分是位于后端的多尺度特征检测网络,为一组级联的卷积神经网络;所述的SSD为单次检测器;
(2).SSD采用多尺度的方法得到多个不同尺寸的特征图,假设模型检测时采用m个特征图,则第k个特征图的默认框比例:k∈(1,2,···,m);其中,Sk是第k个特征图默认框占输入图像的比例、Smax是最大的特征层默认框占输入图像的比例、Smin是最小的特征层默认框占输入图像的比例;
(3).SSD采用锚定机制,对于同一特征层上的默认框采取不同的宽高比,以增强默认框对物体形状的鲁棒性;默认框的宽高比同时针对宽高比等于1这一类,添加Sk′是对Sk求解梯度,则:
其中,|fk|是第k个特征图的尺寸大小;a、b为调整参数,a,b∈(0,1,2,···,|fk|-1);(cx,cy)为特征图上默认框中心的坐标;wb、hb为默认的框的宽和高;wfeature、hfeature为特征图的宽和高;wimg、himg为原始图像的宽和高;得到的(xmin,ymin,xmax,ymax)为第k个特征图上中心为宽和高大小为wk和hk的默认框映射到原始图像的物体框坐标;
(4).SSD训练同时对位置和目标种类进行回归,其目标损失函数是置信损失和位置损失之和:其中,L(z,c,l,g)是目标损失函数,Lconf(z,c)是置信损失函数,Lloc(z,l,g)是位置损失函数,N是与标注数据物体框匹配的默认框个数;z为默认框与不同类别的标注数据物体框的匹配结果,c为预测物体框的置信度,l为预测物体框的位置信息,g为标注数据物体框的位置信息;α为权衡置信损失和位置损失的参数,设置为1;
所述的车辆跟踪方法是采用连续自适应期望移动算法对单次移动视觉网络检测器第一帧识别出的车辆进行跟踪,具体如下:
①计算目标区域内的颜色直方图:
将输入图像转换到HSV颜色空间,目标区域为初始设定的搜索窗口范围,分离出色调H分量做该区域的色调直方图计算,得到目标模板的颜色直方图;
②根据获得的颜色直方图,将原始输入图像转化成颜色概率分布图像:
输入图像在已知目标颜色直方图的条件下的颜色概率密度分布图,包含了目标在当前帧中的相干信息;对于输入图像中的每一个像素,查询目标模型颜色直方图,对于目标区域内的像素,得到该像素属于目标像素的概率,而对于非目标区域内的像素,该概率为0;
③均值漂移迭代,找到目标中心在当前帧中的位置:
首先,在颜色概率分布图中选择搜索框的大小和初始位置,然后计算搜索框的质心位置;设像素点(i,j)位于搜索框内,I(i,j)是颜色直方图的反向投影图中该像素点对应的值,定义搜索框的零阶矩M00和一阶矩M10、M01如下:
搜索框的质心位置为:(M10/M00,M01/M00,),I为像素点i所能到达的最大位置,J为像素点j所能到达的最大位置;
然后,调整搜索框中心到质心;零阶矩反映了搜索框尺寸,依据它调整框大小,并将搜索框的中心移到质心,如果移动距离大于设定的阈值τ,则重新计算调整后的窗口质心,进行新一轮的窗口位置和尺寸调整,直到移动距离小于等于设定的阈值τ,阈值τ为初始搜索框中心到搜索框对角点距离的四分之一,或者迭代次数达到设定的最大值n,认为收敛条件满足,将搜索框位置和大小作为下一帧的目标位置输入,开始对下一帧图像进行新的目标搜索;每发现一个车辆目标,进行数目加一操作。
2.如权利要求1所述的智慧交通中的车流统计方法,其特征在于:所述的SSD网络采用ResNet-50改进SSD神经网络。
3.如权利要求1所述的智慧交通中的车流统计方法,其特征在于:Sk=0.18~0.20。
4.如权利要求1所述的智慧交通中的车流统计方法,其特征在于:Smax=0.9~1.0。
5.如权利要求1所述的智慧交通中的车流统计方法,其特征在于:Smin=0.18~0.20。
6.如权利要求1所述的智慧交通中的车流统计方法,其特征在于:所述的迭代次数设定的最大值n=12~20。
CN201910232644.6A 2019-03-26 2019-03-26 智慧交通中的车流统计方法 Pending CN110009023A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910232644.6A CN110009023A (zh) 2019-03-26 2019-03-26 智慧交通中的车流统计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910232644.6A CN110009023A (zh) 2019-03-26 2019-03-26 智慧交通中的车流统计方法

Publications (1)

Publication Number Publication Date
CN110009023A true CN110009023A (zh) 2019-07-12

Family

ID=67168190

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910232644.6A Pending CN110009023A (zh) 2019-03-26 2019-03-26 智慧交通中的车流统计方法

Country Status (1)

Country Link
CN (1) CN110009023A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110992325A (zh) * 2019-11-27 2020-04-10 同济大学 基于深度学习的目标清点方法、装置和设备
CN111401128A (zh) * 2020-01-16 2020-07-10 杭州电子科技大学 一种提高车辆识别率的方法
CN111507196A (zh) * 2020-03-21 2020-08-07 杭州电子科技大学 一种基于机器视觉和深度学习的车辆类型识别方法
CN112449083A (zh) * 2019-08-27 2021-03-05 深圳市麦道微电子技术有限公司 一种汽车夜视摄像头
CN112507844A (zh) * 2020-12-02 2021-03-16 博云视觉科技(青岛)有限公司 基于视频分析的交通拥堵检测方法
CN113569716A (zh) * 2021-07-23 2021-10-29 闽江学院 一种货车车轴快速识别与计数方法
CN114359265A (zh) * 2022-03-04 2022-04-15 广东顺德富意德智能包装科技有限公司 一种基于目标跟踪的螺丝计数方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108022258A (zh) * 2017-10-20 2018-05-11 南京邮电大学 基于单次多框检测器与卡尔曼滤波的实时多目标跟踪方法
CN108596087A (zh) * 2018-04-23 2018-09-28 合肥湛达智能科技有限公司 一种基于双网络结果的驾驶疲劳程度检测回归模型

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108022258A (zh) * 2017-10-20 2018-05-11 南京邮电大学 基于单次多框检测器与卡尔曼滤波的实时多目标跟踪方法
CN108596087A (zh) * 2018-04-23 2018-09-28 合肥湛达智能科技有限公司 一种基于双网络结果的驾驶疲劳程度检测回归模型

Non-Patent Citations (10)

* Cited by examiner, † Cited by third party
Title
CHEN, XIANYU ET AL.: ""Video object tracking based on SSD"", 《2018 INTERNATIONAL CONFERENCE ON IMAGE AND VIDEO PROCESSING,AND ARTIFICIAL INTELLIGENCE》 *
WEI LIU ET AL.: ""SSD:Single Shot MultiBox Detector"", 《ARXIV》 *
刘永森: ""行人检测与跟踪方法研究"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
唐聪 等: ""基于深度学习的多视窗SSD目标检测方法"", 《红外与激光工程》 *
徐磊: ""Camshift与Kalman滤波相结合的跟踪技术研究"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
曹伟: ""基于SSD的车辆检测与跟踪算法研究"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
杨其睿: ""油田安防领域基于改进的深度残差网络行人检测模型"", 《计算机测量与控制》 *
杨希: ""基于机器视觉的汽车安全辅助驾驶系统研究"", 《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》 *
王红雨 等: ""结合目标检测的多尺度相关滤波视觉跟踪算法"", 《光学学报》 *
高生扬: ""单目视觉的运动车辆检测与跟踪算法"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112449083A (zh) * 2019-08-27 2021-03-05 深圳市麦道微电子技术有限公司 一种汽车夜视摄像头
CN110992325A (zh) * 2019-11-27 2020-04-10 同济大学 基于深度学习的目标清点方法、装置和设备
CN111401128A (zh) * 2020-01-16 2020-07-10 杭州电子科技大学 一种提高车辆识别率的方法
CN111507196A (zh) * 2020-03-21 2020-08-07 杭州电子科技大学 一种基于机器视觉和深度学习的车辆类型识别方法
CN112507844A (zh) * 2020-12-02 2021-03-16 博云视觉科技(青岛)有限公司 基于视频分析的交通拥堵检测方法
CN112507844B (zh) * 2020-12-02 2022-12-20 博云视觉科技(青岛)有限公司 基于视频分析的交通拥堵检测方法
CN113569716A (zh) * 2021-07-23 2021-10-29 闽江学院 一种货车车轴快速识别与计数方法
CN113569716B (zh) * 2021-07-23 2023-10-27 闽江学院 一种货车车轴快速识别与计数方法
CN114359265A (zh) * 2022-03-04 2022-04-15 广东顺德富意德智能包装科技有限公司 一种基于目标跟踪的螺丝计数方法及系统

Similar Documents

Publication Publication Date Title
CN110009023A (zh) 智慧交通中的车流统计方法
CN111444821B (zh) 一种城市道路标志自动识别方法
CN109919072B (zh) 基于深度学习和轨迹跟踪的精细车型识别与流量统计方法
CN106935035B (zh) 基于ssd神经网络的违章停车车辆实时检测方法
CN104298976B (zh) 基于卷积神经网络的车牌检测方法
CN107563372B (zh) 一种基于深度学习ssd框架的车牌定位方法
Li et al. Traffic light recognition for complex scene with fusion detections
CN111681197B (zh) 一种基于Siamese网络结构的遥感图像无监督变化检测方法
CN110427839A (zh) 基于多层特征融合的视频目标检测方法
CN109816024A (zh) 一种基于多尺度特征融合与dcnn的实时车标检测方法
CN110619327A (zh) 一种复杂场景下基于深度学习的实时车牌识别方法
CN105930791A (zh) 基于ds证据理论的多摄像头融合的路面交通标志识别方法
CN107066933A (zh) 一种道路标牌识别方法及系统
CN101976504B (zh) 一种基于颜色空间信息的多车辆视频跟踪方法
CN109886079A (zh) 一种车辆检测与跟踪方法
CN102289948A (zh) 高速公路场景下一种多特征融合的多车辆视频跟踪方法
CN104978567A (zh) 基于场景分类的车辆检测方法
CN106919939B (zh) 一种交通标识牌跟踪识别方法及系统
CN111259796A (zh) 一种基于图像几何特征的车道线检测方法
CN108090457A (zh) 一种基于视频的机动车不礼让行人检测方法
CN114627437A (zh) 一种交通目标识别方法及系统
CN107862341A (zh) 一种车辆检测方法
Yang et al. PDNet: Improved YOLOv5 nondeformable disease detection network for asphalt pavement
CN113657305B (zh) 一种基于视频的黑烟车辆及林格曼黑度等级智能检测方法
CN114550134A (zh) 基于深度学习的交通标志检测与识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190712