CN113269768A - 一种交通拥堵分析方法、装置及分析设备 - Google Patents

一种交通拥堵分析方法、装置及分析设备 Download PDF

Info

Publication number
CN113269768A
CN113269768A CN202110634686.XA CN202110634686A CN113269768A CN 113269768 A CN113269768 A CN 113269768A CN 202110634686 A CN202110634686 A CN 202110634686A CN 113269768 A CN113269768 A CN 113269768A
Authority
CN
China
Prior art keywords
target
road
lane
targets
traffic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110634686.XA
Other languages
English (en)
Other versions
CN113269768B (zh
Inventor
陈义君
李森
张尉
马坤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Mobile Communications Group Co Ltd
China Mobile Shanghai ICT Co Ltd
CM Intelligent Mobility Network Co Ltd
Original Assignee
China Mobile Communications Group Co Ltd
China Mobile Shanghai ICT Co Ltd
CM Intelligent Mobility Network Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Mobile Communications Group Co Ltd, China Mobile Shanghai ICT Co Ltd, CM Intelligent Mobility Network Co Ltd filed Critical China Mobile Communications Group Co Ltd
Priority to CN202110634686.XA priority Critical patent/CN113269768B/zh
Publication of CN113269768A publication Critical patent/CN113269768A/zh
Application granted granted Critical
Publication of CN113269768B publication Critical patent/CN113269768B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明提供一种交通拥堵分析方法、装置及分析设备,属于图像处理技术领域,所述交通拥堵分析方法包括:从目标道路视频中获取道路图像;利用深度学习网络模型检测道路图像中的目标,得到目标检测结果,所述深度学习网络模型通过采用初始图像样本数据以及对所述初始图像样本数据进行增强处理后得到的图像样本数据进行训练得到;对所述目标检测结果中的目标进行目标跟踪,得到目标跟踪结果;根据所述目标检测结果和所述目标跟踪结果,计算交通参数;根据所述交通参数,生成道路的交通拥堵信息。本发明通过使用优化的深度学习网络模型进行目标检测,可以提高目标的检测精度和检测效率,从而使交通拥堵分析结果更加准确。

Description

一种交通拥堵分析方法、装置及分析设备
技术领域
本发明涉及图像处理技术领域,尤其涉及一种交通拥堵分析方法、装置及分析设备。
背景技术
随着汽车保有量的不断增长,交通拥堵、交通事故等问题频发,城市交通面临越来越大的压力,获取基本交通参数用于交通管理,显得尤为重要。
当前常见的拥堵分析方法主要分为两类:一是基于路面感应线圈等硬件传感器设备采集到的数据以及人为观察监控视频来进行分析,但存在着成本高且效率低的缺点;二是基于交通监控视频,利用计算机视觉技术进行拥堵分析,但该类技术大部分采用传统的图像处理方法,此类方法极易受环境干扰,阴天、雨雾天、光线变化等都会对算法结果造成影响,精度不高。
发明内容
有鉴于此,本发明提供一种交通拥堵分析方法、装置及分析设备,用于解决目前交通拥堵检测中目标检测的精度低、效率低、交通拥堵分析结果的准确度不高的问题。
为解决上述技术问题,第一方面,本发明提供一种交通拥堵分析方法,包括:
从目标道路视频中获取道路图像;
利用深度学习网络模型检测道路图像中的目标,得到目标检测结果,其中,所述深度学习网络模型通过采用初始图像样本数据以及对所述初始图像样本数据进行增强处理后得到的图像样本数据进行训练得到;
对所述目标检测结果中的目标进行目标跟踪,得到目标跟踪结果;
根据所述目标检测结果和所述目标跟踪结果,计算交通参数;
根据所述交通参数,生成道路的交通拥堵信息。
可选的,所述增强处理包括负样本增强、尺度增强、旋转变化、颜色增强中的至少一者。
可选的,所述负样本增强包括:
获取多种场景的初始图像;
若所述初始图像中不存在目标,则将所述初始图像加入负样本集;
若所述初始图像中的目标的数量少于第一预设阈值,则利用所述初始图像中不含目标的图像块替换目标所在的目标区域,将得到的不含目标的图像加入负样本集;
其中,所述负样本集用于在训练所述深度学习网络模型时作为负样本数据。
可选的,所述交通参数包括针对道路整体的第一交通参数以及针对道路上每一车道的第二交通参数,所述根据所述交通参数,生成道路的交通拥堵信息包括:
根据所述第一交通参数,得到道路整体的第一交通拥堵信息;
以及,根据所述第二交通参数,得到道路上每一车道的第二交通拥堵信息。
可选的,所述第一交通参数包括:道路中所有目标的数量、道路中每一目标类别中的目标的数量、道路中所有目标的平均速度、道路中目标的流量、道路的时间占有率、道路的空间占有率、道路的排队长度中的至少一者;所述第二交通参数包括:车道中的目标的数量、车道中目标的平均速度、车道的时间占有率、车道的空间占有率、车道的排队长度中的至少一者。
可选的,所述目标检测结果包括目标的数量,目标的坐标位置以及目标的类型,所述目标跟踪结果包括目标的跟踪状态、目标的轨迹以及目标的移动速度。
可选的,所述根据所述目标检测结果和所述目标跟踪结果,计算交通参数包括:
根据检测到的道路的所有目标的数量以及各目标在预设时间内的平均速度,计算得到道路中所有目标的平均速度;
根据检测到的道路的每一车道中的目标的数量以及对应车道上的目标在预设时间内的平均速度,计算得到车道中目标的平均速度;
根据若干帧图像中的每一帧图像中流入的目标的数量以及若干帧图像所对应的时间,计算得到道路中目标的流量;
根据若干帧图像中的每一帧图像中每一车道上的目标的数量以及若干帧图像所对应的时间,计算得到车道的时间占有率;
对道路上所有车道的时间占有率取平均值,得到道路的时间占有率;
根据车道的长度、车道上的目标的长度以及车道上的目标的数量,计算得到车道的空间占有率;
对道路上所有车道的空间占有率取平均值,得到道路的空间占有率;
根据车道上的目标的长度以及车道上的目标的数量,计算得到车道的排队长度;
对道路上所有车道的排队长度取平均值,得到道路的排队长度。
可选的,所述移动速度包括瞬时速度和平均速度,其中,所述瞬时速度根据相邻两帧图像中同一目标的坐标位置以及相邻两帧图像的时间间隔计算得到,所述平均速度根据两帧图像中同一目标的坐标位置以及所述两帧图像的时间间隔计算得到。
可选的,所述根据所述目标检测结果和所述目标跟踪结果,计算交通参数之前,所述方法还包括:
将所述目标检测结果中的目标与所述目标跟踪结果中的目标进行匹配,确定匹配关系;
根据所述匹配关系,更新目标的跟踪状态。根据所述目标检测结果和所述目标跟踪结果根据所述目标检测结果和所述目标跟踪结果
第二方面,本发明还提供一种交通拥堵分析装置,包括:
获取模块,用于从目标道路视频中获取道路图像;
检测模块,用于利用深度学习网络模型检测道路图像中的目标,得到目标检测结果,其中,所述深度学习网络模型通过采用初始图像样本数据以及对所述初始图像样本数据进行增强处理后得到的图像样本数据进行训练得到;
跟踪模块,用于对所述目标检测结果中的目标进行目标跟踪,得到目标跟踪结果;
计算模块,用于根据所述目标检测结果和所述目标跟踪结果,计算交通参数;
结果生成模块,用于根据所述交通参数,生成道路的交通拥堵信息。根据所述目标检测结果和所述目标跟踪结果
可选的,所述增强处理包括负样本增强、尺度增强、旋转变化、颜色增强中的至少一者。
所述负样本增强包括:
获取多种场景的初始图像;
若所述初始图像中不存在目标,则将所述初始图像加入负样本集;
若所述初始图像中的目标的数量少于第一预设阈值,则利用所述初始图像中不含目标的图像块替换目标所在的目标区域,将得到的不含目标的图像加入负样本集;
其中,所述负样本集用于在训练所述深度学习网络模型时作为负样本数据。
可选的,所述交通参数包括针对道路整体的第一交通参数以及针对道路上每一车道的第二交通参数,所述结果生成模块包括:
第一结果生成单元,用于根据所述第一交通参数,得到道路整体的第一交通拥堵信息;
以及,第二结果生成单元,用于根据所述第二交通参数,得到道路上每一车道的第二交通拥堵信息。
可选的,所述第一交通参数包括:道路中所有目标的数量、道路中每一目标类别中的目标的数量、道路中所有目标的平均速度、道路中目标的流量、道路的时间占有率、道路的空间占有率、道路的排队长度中的至少一者;所述第二交通参数包括:车道中的目标的数量、车道中目标的平均速度、车道的时间占有率、车道的空间占有率、车道的排队长度中的至少一者。
可选的,所述目标检测结果包括目标的数量,目标的坐标位置以及目标的类型,所述目标跟踪结果包括目标的跟踪状态、目标的轨迹以及目标的移动速度。
可选的,所述计算模块包括:
第一计算单元,用于根据检测到的道路的所有目标的数量以及各目标在预设时间内的平均速度,计算得到道路中所有目标的平均速度;
第二计算单元,用于根据检测到的道路的每一车道中的目标的数量以及对应车道上的目标在预设时间内的平均速度,计算得到车道中目标的平均速度;
第三计算单元,用于根据若干帧图像中的每一帧图像中流入的目标的数量以及若干帧图像所对应的时间,计算得到道路中目标的流量;
第四计算单元,用于根据若干帧图像中的每一帧图像中每一车道上的目标的数量以及若干帧图像所对应的时间,计算得到车道的时间占有率;
第五计算单元,用于对道路上所有车道的时间占有率取平均值,得到道路的时间占有率;
第六计算单元,用于根据车道的长度、车道上的目标的长度以及车道上的目标的数量,计算得到车道的空间占有率;
第七计算单元,用于对道路上所有车道的空间占有率取平均值,得到道路的空间占有率;
第八计算单元,用于根据车道上的目标的长度以及车道上的目标的数量,计算得到车道的排队长度;
第九计算单元,用于对道路上所有车道的排队长度取平均值,得到道路的排队长度。
可选的,所述移动速度包括瞬时速度和平均速度,其中,所述瞬时速度根据相邻两帧图像中同一目标的坐标位置以及相邻两帧图像的时间间隔计算得到,所述平均速度根据两帧图像中同一目标的坐标位置以及所述两帧图像的时间间隔计算得到。
可选的,所述装置还包括:
匹配模块,用于将所述目标检测结果中的目标与所述目标跟踪结果中的目标进行匹配,确定匹配关系;
更新模块,用于根据所述匹配关系,更新目标的跟踪状态。
第三方面,本发明还提供一种分析设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序;所述处理器执行所述计算机程序时实现上述任一种交通拥堵分析方法。
第四方面,本发明还提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述任一种交通拥堵分析方法中的步骤。
本发明的上述技术方案的有益效果如下:
本发明通过使用优化的深度学习网络模型进行目标检测,可以提高目标的检测精度和检测效率,从而使交通拥堵分析结果更加准确。
附图说明
图1为本发明实施例一中的一种交通拥堵分析方法的流程示意图;
图2为本发明实施例二中的一种交通拥堵分析装置的结构示意图;
图3为本发明实施例三中的一种分析设备的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例的附图,对本发明实施例的技术方案进行清楚、完整地描述。显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于所描述的本发明的实施例,本领域普通技术人员所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1,图1为本发明实施例一提供的一种交通拥堵分析方法的流程示意图,该方法包括以下步骤:
步骤11:从目标道路视频中获取道路图像。
本发明实施例中,通过对目标道路视频进行解析,从目标道路视频中获取帧级别的道路图像。示例性的,可以将目标道路视频分解为帧图像,然后以等时间间隔或不等时间间隔的方式从所有帧图像中提取出若干帧图像作为道路图像。可选的,还可以对提取出的帧图像进行裁剪等图像处理步骤,以在保留帧图像中的有效信息的同时,减小帧图像的大小,减少后续步骤中的运算处理量。
步骤12:利用深度学习网络模型检测道路图像中的目标,得到目标检测结果,其中,所述深度学习网络模型通过采用初始图像样本数据以及对所述初始图像样本数据进行增强处理后得到的图像样本数据进行训练得到。
在获取道路图像后,利用深度学习网络模型来检测各帧道路图像中的目标,所述目标在本发明实施例中具体可以是车辆、人等,其中,车辆又可以分为小汽车、卡车、公交车等类别;得到的目标检测结果中,包括了每一目标以及每一目标对应的目标框坐标位置、目标类别、目标置信度等信息。其中,所述深度学习网络模型通过采用初始图像样本数据以及对所述初始图像样本数据进行增强处理后得到的图像样本数据进行训练得到,也就是说,在对深度学习网络模型进行训练时,可以利用初始图像样本数据和对初始图像样本数据进行增强处理后得到的图像样本数据对深度学习网络模型进行训练,这样训练得到的深度学习网络模型的目标检测精度大大提高,目标检测效率也得到提高,继而确保了目标检测结果的准确性,从而使得后续根据目标检测结果计算得到的交通参数、生成道路的交通拥堵信息更加准确。
步骤13:对所述目标检测结果中的目标进行目标跟踪,得到目标跟踪结果。
本步骤中,可以为每一目标分配一跟踪器,利用跟踪器对检测到的各目标进行跟踪,从而得到目标跟踪结果。此处采用的跟踪器不做具体限定,可以采用KCF(KernerlizedCorrelation Filter,高斯核相关跟踪滤波器)跟踪器,也可以采用卡尔曼滤波器,或者MOSSE(Minimum Output Sum of Squared Error filter,最小输出平方和误差滤波器)跟踪器。
步骤14:根据所述目标检测结果和所述目标跟踪结果,计算交通参数。
前面步骤中,已经获得了各帧道路图像中的目标检测结果和目标跟踪结果,其中包括了各个目标的数量、类型、坐标位置、运动速度等等信息,根据这些目标检测结果和目标跟踪结果,即可计算出交通参数。
步骤15:根据所述交通参数,生成道路的交通拥堵信息。
在计算得到上述交通参数之后,即可根据这些交通参数对道路的交通拥堵情况进行具体分析,从而得到全面的道路的交通拥堵信息,为车主和交通管理部门提供参考。
本发明实施例中,通过使用优化的深度学习网络模型进行目标检测,可以提高目标的检测精度和检测效率,从而使交通拥堵分析结果更加准确。
在本发明的一些实施例中,目标检测采用的深度学习网络模型需要预先训练得到,也就是说,在利用深度学习网络模型检测道路图像中的目标,得到目标检测结果之前,还包括:
利用初始图像样本数据以及对所述初始图像样本数据进行增强处理后得到的图像样本数据对深度学习网络模型进行训练。
相关技术中,在进行网络模型训练的过程中,会以一定的比例从训练集中选取负样本进行训练,但是通常训练集中的道路图像的场景来源比较单一,能够获取到的负样本也较为单一,当检测场景发生变化时,网络模型的目标误检率比较高。而本发明实施例中,通过对初始样本图像数据进行增强处理,可以得到不同场景下的图像作为负样本,从而降低深度学习网络模型的误检率。
可选的,初始图像样本数据可以包括从多个道路的监控视频中抽取的图像、从开源coco数据集中筛选出来的图像、不同场景下的图像等等,不同场景下的图像可以是风景图像、公园图像、草地图像、道路图像、建筑物图像等等。
在一些实施例中,在利用初始图像样本数据以及对所述初始图像样本数据进行增强处理后得到的图像样本数据对深度学习网络模型进行训练时,可以基于YOLO_v3深度学习网络模型,将初始图像样本数据和对所述初始图像样本数据进行增强处理后得到的图像样本数据按照4:1的比例划分训练集和测试集,设置学习率learning_rate=0.001,在训练集上进行迭代训练,当训练loss收敛后,停止训练,获得网络权重,用此权重在测试集上进行测试,使用mAP@0.5结果来评估训练后得到的深度学习网络模型,所谓mAP,即meanaverage precision,平均精度均值,mAP是目标检测中衡量识别精度的指标。本发明实施例中,通过上述训练后,得到的深度学习网络模型的平均mAP0.5能达到80%以上。
在另一些实施例中,可以利用Bn层的缩放因子进行通道剪枝的算法,将重要程度小的输入通道进行过滤,被过滤掉的通道的神经元不再参与连接,可以达到简化网络模型的目的;在剪枝过程中,可以约定剪枝后的网络层的通道数保持为2n,即按照算法计算的而结果进行剪枝,若剪枝后的通道数小于该网络层预设的通道数(2n),则少剪枝一些通道,使得剪枝后维持通道数在2n,从而降低内存占用率、提升模型推理速度。由此,本发明实施例能在尽量不影响检测效果的前提下,简化YOLO_v3深度学习网络模型,使网络结构更轻量化、运算速度更快,在普通性能的服务器上(例如Nvidia 1060ti)也能实现实时处理。
在本发明的一些实施例中,可选的,所述增强处理包括负样本增强、尺度增强、旋转变化、颜色增强中的至少一者。也就是说,对初始样本图像数据进行增强处理时,可以仅进行负样本增强、尺度增强、旋转变化、颜色增强中的任意一者,也可以进行负样本增强、尺度增强、旋转变化、颜色增强中的多者。
下面分别介绍上述负样本增强、尺度增强、旋转变化、颜色增强。
本发明的一些实施例中,所述负样本增强包括:
获取多种场景的初始图像;
若所述初始图像中不存在目标,则将所述初始图像加入负样本集;
若所述初始图像中的目标的数量少于第一预设阈值,则利用所述初始图像中不含目标的图像块替换目标所在的目标区域,将得到的不含目标的图像加入负样本集;
其中,所述负样本集用于在训练所述深度学习网络模型时作为负样本数据。
也就是说,在进行负样本增强时,可以先收集多种场景下的初始图像,如公园场景下的图像、草地场景下的图像、道路场景下的图像等等;对于任意一张初始图像而言,若该初始图像中没有车辆、人等目标,则可以将该初始图像直接加入到负样本集中,而若该初始图像中的目标的数量少于第一预设阈值,或者说目标的数量较少时,可以利用该初始图像中不含目标的图像块替换目标所在的目标区域,从而得到完全不含目标的图像,并将得到的不含目标的图像加入负样本集,所述负样本集即用于在训练所述深度学习网络模型时作为负样本,从而降低其误检率。而在利用初始图像中不含目标的图像块替换目标所在的目标区域的具体做法可以为:使用YOLO_v3目标检测算法的标准模型对初始图像进行检测,得到目标所在的目标框坐标,然后用目标框的邻域的背景替换目标框中的内容,即把目标框框住的目标区域划分为多个小图像块,划分的图像块的数量和大小根据目标区域的大小进行确定,一般目标区域越大,划分的图像块的数量越多,接着对于目标区域中的每一图像块,用一个与其大小相等的蒙版,在该图像块的邻域中滑动寻找,直到找出一块不含目标的背景图像块,然后用该不含目标的背景图像块替换该目标区域中的图像块,直至得到一张不包含目标的纯背景的图像。
其中,进行尺度增强时,可以将从开源coco数据集中筛选出来的图像中的目标进行尺度的缩放,例如0.5、0.75、1.0、1.25、1.5、1.75、2.0等尺度的缩放操作,获得不同尺度等级的目标,然后在负样本集中随机挑选背景图像,将缩放后的目标随机放置于背景图像上,修改得到的背景图像的标注文件中的目标框坐标。通过进行尺度增强,可以提升小目标的检测精度,使训练得到的深度学习网络模型对小面积的目标具有较高的检测精度。
其中,进行旋转变化时,可以将初始图像样本数据在图像的x,y方向做[-2°,2°]范围内的随机旋转变化。
其中,进行颜色增强时,可以将从多个道路的监控视频中抽取的图像、从开源coco数据集中筛选出来的图像、负样本集中的图像做亮度、对比度、饱和度等的增强,增强范围可以为[0.5,1.5]。
在本发明的另一些实施例中,上述步骤12中的所述目标检测结果包括目标的数量,目标的坐标位置以及目标的类型,上述步骤13中的所述目标跟踪结果包括目标的跟踪状态、目标的轨迹以及目标的移动速度。
可选的,所述移动速度包括瞬时速度和平均速度,其中,所述瞬时速度根据相邻两帧图像中同一目标的坐标位置以及相邻两帧图像的时间间隔计算得到,所述平均速度根据两帧图像中同一目标的坐标位置以及所述两帧图像的时间间隔计算得到。
示例性的,所述瞬时速度可以通过以下公式计算得到:
Figure BDA0003105043860000101
其中,t为相邻两帧图像之间的时间间隔,
Figure BDA0003105043860000102
fps为目标道路视频的帧率,vi为目标i的瞬时速度,
Figure BDA0003105043860000103
为目标i在第j帧的坐标位置,
Figure BDA0003105043860000104
为目标i在第j-1帧的坐标位置。
而所述平均速度可以通过以下公式计算得到:
Figure BDA0003105043860000111
其中,t为两帧图像之间的时间间隔,
Figure BDA0003105043860000112
fps为目标道路视频的帧率,
Figure BDA0003105043860000113
为目标i在第j帧的坐标位置,
Figure BDA0003105043860000114
为目标i在第1帧的坐标位置,
Figure BDA0003105043860000115
为目标i的在t*j的时间内的平均速度。通常求取平均速度时,这里的两帧图像为不相邻的两帧图像;特殊的,这里的两帧图像若为相邻的两帧图像,则计算得到的平均速度也就是瞬时速度。
由于上述计算中得到的瞬时速度或平均速度的单位是像素/秒,因此,还需要将其转换为实际速度(单位为km/h)。在本发明的一些实施例中,可选的,在步骤12之前,所述方法还包括:
根据相机标定参数对道路图像进行畸变校正,并确定道路图像中的像素尺寸与实际尺寸之间的映射关系。
其中,在根据相机标定参数对道路图像进行畸变校正时,可以利用拍摄所述目标道路视频的摄像头拍摄黑白棋盘格的图像,进行相机标定,从而获得相机内参参数{f,x0,y0}和畸变参数{k1,k2,k3,p1,p2},将摄像头安装在目标道路路口处,通过调整摄像头的安装角度,将拍摄范围调节到合理范围,在获取到目标道路视频后,利用相机标定参数(包括内参参数和畸变参数等)对目标道路视频帧进行畸变校正,以提高后续目标检测的准确度。
其中,所述确定道路图像中的像素尺寸与实际尺寸之间的映射关系包括:
标定道路图像中的有效区域和车道线;
根据两车道线之间的像素距离以及实际距离,确定道路图像中任意图像位置的像素尺寸与实际尺寸之间的映射关系。
示例性的,从目标道路视频中抽取任意一帧图像,根据图像内容,标定出有效区域、车道线、虚拟线圈等,其中,有效区域可以是图像中的道路部分,而非道路部分则不属于有效区域;对于有效区域的边界线、车道线中的任意直线,在其上选取两个点,根据两个点的坐标,计算出该直线的斜率和截距{w,b},由此,得到有效区域的边界线、车道线中每一直线的斜率和截距。之后,可以根据车道的实际宽度以及车道在道路图像上的像素宽度值,计算两者之间的比例关系,从而可得到道路图像中的像素尺寸与实际尺寸之间的映射关系。
下面介绍上述道路图像中的像素尺寸与实际尺寸之间的映射关系的具体推导过程。
根据测量可以得到两条相邻车道线(设为车道线1和车道线2)之间的车道的实际宽度L,而上述步骤中可以得到车道线1的直线方程参数为{wl1,bl1},车道线2的直线方程参数为{wl2,bl2},沿道路图像的长、宽方向建立图像坐标系(x,y),则对于道路图像中位置yi处,车道线1和车道线2的横坐标分别为:
Figure BDA0003105043860000121
Figure BDA0003105043860000122
则车道线1与车道线2之间的图像中的宽度:
li=xi1-xi2
由此,可以计算yi处像素尺寸与实际尺寸之间的映射关系:
Figure BDA0003105043860000123
显然,对于道路图像上的不同y值,车道的实际宽度所对应的像素宽度值不一样,对图像上的每一行y值,求得比例,即可制作一张实际尺寸与图像像素的比值表。依据该比值表,即可将前述步骤中计算中得到的瞬时速度或平均速度转换为实际速度(单位为km/h)。
本发明的一些实施例中,在执行步骤12时,也即在利用深度学习网络模型来检测各帧道路图像中的目标时,可以得到目标的类别、框选所述目标的目标框的位置等等,通过根据目标的中心位置和上述步骤中确定的有效区域,可以删除有效区域以外的目标。具体的,判定一个目标是否位于有效区域内,可以通过以下判别式进行判断:
Figure BDA0003105043860000131
Figure BDA0003105043860000132
Figure BDA0003105043860000133
其中,x0,y0为目标的中心坐标,{{w1,b1},{w2,b2}}为有效区域的两条边界线的斜率和截距,这两条边界线通常与道路图像中车道的延伸方向一致,valid表示该目标位于有效区域内,可以保留,invalid表示该目标位于有效区域外,应删除。
在一些实施例中,在标定道路图像中的有效区域和车道线时,还可以同步在道路图像中标定虚拟线圈,获取虚拟线圈的四个顶点坐标,所谓虚拟线圈,即在目标道路视频中设定虚拟线圈,通过判断目标道路视频中的每帧图像此区域与该区域背景的灰度差值,根据该差值以及预先设定的阈值来判断该区域中是否有车辆进入,虚拟线圈可以用矩形框标识,虚拟线圈所在平面设置为与道路的延伸方向垂直。通过标定虚拟线圈,可以方便后续判断道路图像中新增加的目标。
本发明的一些实施例中,所述根据所述目标检测结果和所述目标跟踪结果,计算交通参数之前,还包括:
将所述目标检测结果中的目标与所述目标跟踪结果中的目标进行匹配,确定匹配关系;
根据所述匹配关系,更新目标的跟踪状态。
示例性的,可以采用匈牙利匹配算法,对上述目标检测结果中的目标与所述目标跟踪结果中的目标进行匹配,以目标之间的位置距离和目标框的宽高为代价,构造代价矩阵:
Figure BDA0003105043860000134
Figure BDA0003105043860000135
其中,{xi,yi,wi,hi}为检测目标i的中心点坐标和宽高;{xj,yj,wj,hj}为跟踪目标j的中心点坐标和宽高,cos tij为检测目标i与跟踪目标j的匹配代价;cos t为匹配组合I下的总代价。
通过找到一种最佳的匹配组合I,使得总代价cos t最小,该组合即为检测目标与跟踪目标的匹配关系,然后可以根据该匹配关系,更新目标状态。具体的,正常匹配目标时,目标标记为有效,并比较目标的跟踪框与检测框,若跟踪框与检测框差别较大(坐标位置或者宽高尺寸)且检测的置信度大于一定阈值,则用检测框重新初始化跟踪框;存在未匹配上的检测目标时,为该目标新建跟踪器;存在未匹配上的跟踪目标时,有可能该目标被漏检了,则将该目标的miss计数加1,若发现该目标的miss计数大于一定的阈值(例如设置为10),则将该跟踪器删除。更新目标状态后,将跟踪器里跟踪的目标进行输出,作为计算交通参数的依据。
本发明的另一些实施例中,可选的,所述交通参数包括针对道路整体的第一交通参数以及针对道路上每一车道的第二交通参数,所述根据所述交通参数,生成道路的交通拥堵信息包括:
根据所述第一交通参数,生成道路整体的第一交通拥堵信息;
以及,根据所述第二交通参数,生成道路上每一车道的第二交通拥堵信息。
也就是说,本发明实施例中的交通参数分为针对道路整体的第一交通参数以及车道级别的第二交通参数,在现有对道路整体的交通拥堵情况分析的基础上,还进一步引入对道路上各个车道的交通拥堵情况分析,从而既可得到道路整体的交通拥堵信息,还可以得到车道级别的交通拥堵信息,即得到的道路的交通拥堵信息更加全面、细致。
在一些实施例中,所述第一交通参数包括:道路中所有目标的数量、道路中每一目标类别中的目标的数量、道路中所有目标的平均速度、道路中目标的流量、道路的时间占有率、道路的空间占有率、道路的排队长度中的至少一者;所述第二交通参数包括:车道中的目标的数量、车道中目标的平均速度、车道的时间占有率、车道的空间占有率、车道的排队长度中的至少一者。
可以知道,依据的交通参数越多,道路和各车道的交通拥堵情况的分析判断也将越全面、越准确。
本发明实施例中,可选的,所述根据所述目标检测结果和所述目标跟踪结果,计算交通参数包括:
根据检测到的道路的所有目标的数量以及各目标在预设时间内的平均速度,计算得到道路中所有目标的平均速度;
根据检测到的道路的每一车道中的目标的数量以及对应车道上的目标在预设时间内的平均速度,计算得到车道中目标的平均速度;
根据若干帧图像中的每一帧图像中流入的目标的数量以及若干帧图像所对应的时间,计算得到道路中目标的流量;
根据若干帧图像中的每一帧图像中每一车道上的目标的数量以及若干帧图像所对应的时间,计算得到车道的时间占有率;
对道路上所有车道的时间占有率取平均值,得到道路的时间占有率;
根据车道的长度、车道上的目标的长度以及车道上的目标的数量,计算得到车道的空间占有率;
对道路上所有车道的空间占有率取平均值,得到道路的空间占有率;
根据车道上的目标的长度以及车道上的目标的数量,计算得到车道的排队长度;
对道路上所有车道的排队长度取平均值,得到道路的排队长度。
下面举例介绍上述交通参数的计算。
(1)道路中目标的总数量以及各目标类型的目标数量;
对于道路中各个目标类型的目标的数量以及目标的总数可以直接通过统计得到。
(2)目标的平均速度;
道路中所有目标的平均速度以及车道中目标的平均速度采用以下公式计算:
Figure BDA0003105043860000151
其中,n为目标的数量,
Figure BDA0003105043860000152
为目标在预设时间内的平均速度;
例如,在计算道路中所有目标的平均速度时,上述公式中的n即为道路中所有的目标的数量,而在计算某一车道中的目标的平均速度时,上述公式中的n即为该车道中的目标的数量。其中,单个目标的平均速度
Figure BDA0003105043860000153
在前述内容中已介绍其计算公式,在此不再赘述。需要说明的是,本发明实施例中,当目标道路视频的帧率较高时,即使目标正在运动,也可能存在目标在相邻两帧道路图像中的移动距离为0的情况,从而导致该目标的瞬时速度为0,因此,采用平均速度比瞬时速度的可信度更高。
(3)目标的流量;
道路中目标的流量
Figure BDA0003105043860000161
其中,ni为第i帧图像中流入的目标的数量,T为时间,N为时间T内的图像帧数,N=T*fps,fps为目标道路视频的帧率;
此处,计算的是道路整体的目标的流量。其中,在道路图像中,若目标与道路图像中的虚拟线圈存在重叠,并且该目标的flag标记为false,则将其flag标记改为true,防止该目标被重复统计,所述flag标记用于表征目标是否位于道路图像的有效区域中。在判断目标与道路图像中的虚拟线圈是否存在重叠时,可以采用如下公式:
Figure BDA0003105043860000162
其中,IoU为重叠度,box为框选所述目标的目标框,Rect为虚拟线圈框。
(4)车道的目标的总数量以及车道中各目标类型的目标的数量;
由于每一目标的坐标位置均确定,因此,可以遍历所有车道线的直线方程,判断该目标落在哪两条车道线之间,从而确定该目标所在的车道,最终实现分车道统计每一车道中的各个目标类型的目标的数量以及该车道中的目标的总数。
(5)车道的时间占有率;
车道的时间占有率
Figure BDA0003105043860000163
其中,vali为第i帧图像中该车道占有标志,
Figure BDA0003105043860000164
Nlane为第i帧图像中该车道上的目标的数量,N为时间t内的图像帧数,N=t*fps,fps为目标道路视频的帧率。
(6)道路的时间占有率;
道路的时间占有率可以取道路上的所有车道的时间占有率的平均值。
(7)车道的空间占有率;
车道的空间占有率
Figure BDA0003105043860000171
其中,L为车道的长度,Li为车道上第i个目标的长度,Nlane为当前帧图像中该车道上的目标的数量。
(8)道路的空间占有率;
道路的空间占有率可以取道路上的所有车道的空间占有率的平均值。
(9)车道的排队长度;
车道的排队长度
Figure BDA0003105043860000172
其中,Li为车道上第i个目标的长度,Nlane为当前帧图像中该车道上的目标的数量。
(10)道路的排队长度;
道路的排队长度可以取道路上的所有车道的排队长度的平均值。
本发明的一些实施例中,在根据所述交通参数,生成道路的交通拥堵信息时,对于一些交通参数,可以直接作为交通拥堵信息,例如道路的排队长度、车道的排队长度等,这些都可以表征当前道路或者某一车道的交通拥堵情况。
可选的,在另一些实施例中,所述根据所述交通参数,生成道路的交通拥堵信息包括:
所述根据所述交通参数,确定道路以及道路上每一车道的交通拥堵等级。
也就是说,还可以对计算得到的交通参数进行进一步的分析处理,划分出道路整体的交通拥堵等级以及道路上任一车道的交通拥堵等级,从而给车主和交通管理部门提供更加简单易懂的道路信息。
下面举例介绍根据交通参数确定道路以及各车道的交通拥堵等级。
(1)当满足以下条件时,确定为第一拥堵等级,即交通畅通;
V>Vth1or N<=Nmin or Ot<Ot_minor Os<Os_min
其中,V为速度,Vth1为速度阈值,可以根据实际情况进行设置;N为目标的数量,Nmin为设置的目标的最小数量;Ot为时间占有率,Ot_min为最小时间占有率;Os为空间占有率,Os_min为最小空间占有率。
(2)当满足以下条件时,确定为第二拥堵等级,即交通基本畅通;
V<=Vth1or N>=Nth1
其中,Nth1为设置的数量阈值,可根据摄像头拍摄范围的大小来调整该值。
(3)当满足以下条件时,确定为第三拥堵等级,即交通轻度拥堵;
V<=Vth2or N>=Nth2
其中,Vth2为速度阈值,可以根据实际情况进行设置;Nth2为设置的最大数量阈值。
(4)当满足以下条件时,确定为第四拥堵等级,即交通中度拥堵;
V<=Vth3and Os>=Os_th1
其中,Vth3为速度阈值,可以根据实际情况进行设置;Os_th1为空间占有率阈值。
(5)当满足以下条件时,确定为第五拥堵等级,即交通严重拥堵;
V<=Vth4and Os>=Os_max
其中,Vth4为速度阈值,可以根据实际情况进行设置;Os_max为最大空间占有率。
上述交通拥堵等级判断中的速度阈值Vth1~Vth4,可以根据城市道路等级,设为不同的值。例如,对城市快速路段,取值如下:Vth1=65,Vth2=50,Vth3=35,Vth4=20;对城市主干路,取值如下:Vth1=45,Vth2=35,Vth3=25,Vth4=15。
可以知道,由第一拥堵等级至第五拥堵等级的顺序中,拥堵程度逐级递增。
上述各条件中的速度V一般以平均速度为准。
由于所述交通参数包括针对道路整体的第一交通参数以及针对道路上每一车道的第二交通参数,将针对道路的第一交通参数代入上述判断条件中,即可得到该道路的交通拥堵情况,而将针对道路上每一车道的第二交通参数代入上述判断条件中,即可得到该道路上任意一条车道的交通拥堵情况,由此实现车道级别的交通拥堵情况分析。
综上所述,本发明实施例中,通过使用优化的深度学习网络模型进行目标检测,使得目标检测结果更加快速准确,并且通过分析速度、所处车道、流量、道路及车道的时间占有率和空间占有率、排队长度等信息,实现多维度综合判断道路和各车道的拥堵等级,使得交通拥堵分析更加全面、准确。
根据所述目标检测结果和所述目标跟踪结果根据所述目标检测结果和所述目标跟踪结果请参阅图2,图2是本发明实施例二提供的一种交通拥堵分析装置的结构示意图,该分析装置20包括:
获取模块21,用于从目标道路视频中获取道路图像;
检测模块22,用于利用深度学习网络模型检测道路图像中的目标,得到目标检测结果,其中,所述深度学习网络模型通过采用初始图像样本数据以及对所述初始图像样本数据进行增强处理后得到的图像样本数据进行训练得到;
跟踪模块23,用于对所述目标检测结果中的目标进行目标跟踪,得到目标跟踪结果;
计算模块24,用于根据所述目标检测结果和所述目标跟踪结果,计算交通参数;
结果生成模块25,用于根据所述交通参数,生成道路的交通拥堵信息。
本发明实施例中,通过使用优化的深度学习网络模型进行目标检测,可以提高目标的检测精度和检测效率,从而使交通拥堵分析结果更加准确。
可选的,所述增强处理包括负样本增强、尺度增强、旋转变化、颜色增强中的至少一者。
所述负样本增强包括:
获取多种场景的初始图像;
若所述初始图像中不存在目标,则将所述初始图像加入负样本集;
若所述初始图像中的目标的数量少于第一预设阈值,则利用所述初始图像中不含目标的图像块替换目标所在的目标区域,将得到的不含目标的图像加入负样本集;
其中,所述负样本集用于在训练所述深度学习网络模型时作为负样本数据。
可选的,所述交通参数包括针对道路整体的第一交通参数以及针对道路上每一车道的第二交通参数,所述结果生成模块包括:
第一结果生成单元,用于根据所述第一交通参数,得到道路整体的第一交通拥堵信息;
以及,第二结果生成单元,用于根据所述第二交通参数,得到道路上每一车道的第二交通拥堵信息。
可选的,所述第一交通参数包括:道路中所有目标的数量、道路中每一目标类别中的目标的数量、道路中所有目标的平均速度、道路中目标的流量、道路的时间占有率、道路的空间占有率、道路的排队长度中的至少一者;所述第二交通参数包括:车道中的目标的数量、车道中目标的平均速度、车道的时间占有率、车道的空间占有率、车道的排队长度中的至少一者。
可选的,所述目标检测结果包括目标的数量,目标的坐标位置以及目标的类型,所述目标跟踪结果包括目标的跟踪状态、目标的轨迹以及目标的移动速度。
可选的,所述计算模块包括:
第一计算单元,用于根据检测到的道路的所有目标的数量以及各目标在预设时间内的平均速度,计算得到道路中所有目标的平均速度;
第二计算单元,用于根据检测到的道路的每一车道中的目标的数量以及对应车道上的目标在预设时间内的平均速度,计算得到车道中目标的平均速度;
第三计算单元,用于根据若干帧图像中的每一帧图像中流入的目标的数量以及若干帧图像所对应的时间,计算得到道路中目标的流量;
第四计算单元,用于根据若干帧图像中的每一帧图像中每一车道上的目标的数量以及若干帧图像所对应的时间,计算得到车道的时间占有率;
第五计算单元,用于对道路上所有车道的时间占有率取平均值,得到道路的时间占有率;
第六计算单元,用于根据车道的长度、车道上的目标的长度以及车道上的目标的数量,计算得到车道的空间占有率;
第七计算单元,用于对道路上所有车道的空间占有率取平均值,得到道路的空间占有率;
第八计算单元,用于根据车道上的目标的长度以及车道上的目标的数量,计算得到车道的排队长度;
第九计算单元,用于对道路上所有车道的排队长度取平均值,得到道路的排队长度。
可选的,所述移动速度包括瞬时速度和平均速度,其中,所述瞬时速度根据相邻两帧图像中同一目标的坐标位置以及相邻两帧图像的时间间隔计算得到,所述平均速度根据两帧图像中同一目标的坐标位置以及所述两帧图像的时间间隔计算得到。
可选的,所述装置还包括:
匹配模块,用于将所述目标检测结果中的目标与所述目标跟踪结果中的目标进行匹配,确定匹配关系;
更新模块,用于根据所述匹配关系,更新目标的跟踪状态。
本发明实施例是与上述方法实施例一对应的产品实施例,故在此不再赘述,详细请参阅上述实施例一。
本发明实施例中,通过使用优化的深度学习网络模型进行目标检测,使得目标检测结果更加快速准确,并且通过分析速度、所处车道、流量、道路及车道的时间占有率和空间占有率、排队长度等信息,实现多维度综合判断道路和各车道的拥堵等级,使得交通拥堵分析更加全面、准确。
请参阅图3,图3是本发明实施例三提供的一种分析设备的结构示意图,该分析设备30包括处理器31、存储器32及存储在所述存储器32上并可在所述处理器31上运行的计算机程序;所述处理器31执行所述计算机程序时实现如下步骤:
从目标道路视频中获取道路图像;
利用深度学习网络模型检测道路图像中的目标,得到目标检测结果,其中,所述深度学习网络模型通过采用初始图像样本数据以及对所述初始图像样本数据进行增强处理后得到的图像样本数据进行训练得到;
对所述目标检测结果中的目标进行目标跟踪,得到目标跟踪结果;
根据目标检测结果和目标跟踪结果,计算交通参数;
根据所述交通参数,生成道路的交通拥堵信息。
本发明实施例中,通过使用优化的深度学习网络模型进行目标检测,可以提高目标的检测精度和检测效率,从而使交通拥堵分析结果更加准确。
可选的,所述增强处理包括负样本增强、尺度增强、旋转变化、颜色增强中的至少一者。
本发明实施例中,可选的,所述处理器31执行所述计算机程序时还可实现如下步骤:
可选的,所述负样本增强包括:
获取多种场景的初始图像;
若所述初始图像中不存在目标,则将所述初始图像加入负样本集;
若所述初始图像中的目标的数量少于第一预设阈值,则利用所述初始图像中不含目标的图像块替换目标所在的目标区域,将得到的不含目标的图像加入负样本集;
其中,所述负样本集用于在训练所述深度学习网络模型时作为负样本数据。
可选的,所述交通参数包括针对道路整体的第一交通参数以及针对道路上每一车道的第二交通参数,所述根据所述交通参数,生成道路的交通拥堵信息包括:
根据所述第一交通参数,得到道路整体的第一交通拥堵信息;
以及,根据所述第二交通参数,得到道路上每一车道的第二交通拥堵信息。
可选的,所述第一交通参数包括:道路中所有目标的数量、道路中每一目标类别中的目标的数量、道路中所有目标的平均速度、道路中目标的流量、道路的时间占有率、道路的空间占有率、道路的排队长度中的至少一者;所述第二交通参数包括:车道中的目标的数量、车道中目标的平均速度、车道的时间占有率、车道的空间占有率、车道的排队长度中的至少一者。
可选的,所述目标检测结果包括目标的数量,目标的坐标位置以及目标的类型,所述目标跟踪结果包括目标的跟踪状态、目标的轨迹以及目标的移动速度。
可选的,所述根据目标检测结果和目标跟踪结果,计算交通参数包括:
根据检测到的道路的所有目标的数量以及各目标在预设时间内的平均速度,计算得到道路中所有目标的平均速度;
根据检测到的道路的每一车道中的目标的数量以及对应车道上的目标在预设时间内的平均速度,计算得到车道中目标的平均速度;
根据若干帧图像中的每一帧图像中流入的目标的数量以及若干帧图像所对应的时间,计算得到道路中目标的流量;
根据若干帧图像中的每一帧图像中每一车道上的目标的数量以及若干帧图像所对应的时间,计算得到车道的时间占有率;
对道路上所有车道的时间占有率取平均值,得到道路的时间占有率;
根据车道的长度、车道上的目标的长度以及车道上的目标的数量,计算得到车道的空间占有率;
对道路上所有车道的空间占有率取平均值,得到道路的空间占有率;
根据车道上的目标的长度以及车道上的目标的数量,计算得到车道的排队长度;
对道路上所有车道的排队长度取平均值,得到道路的排队长度。
可选的,所述移动速度包括瞬时速度和平均速度,其中,所述瞬时速度根据相邻两帧图像中同一目标的坐标位置以及相邻两帧图像的时间间隔计算得到,所述平均速度根据两帧图像中同一目标的坐标位置以及所述两帧图像的时间间隔计算得到。
可选的,所述根据目标检测结果和目标跟踪结果,计算交通参数之前,所述方法还包括:
将所述目标检测结果中的目标与所述目标跟踪结果中的目标进行匹配,确定匹配关系;
根据所述匹配关系,更新目标的跟踪状态。
本发明实施例的具体工作过程与上述方法实施例一中的一致,故在此不再赘述,详细请参阅上述实施例一中方法步骤的说明。
本发明实施例中,通过使用优化的深度学习网络模型进行目标检测,使得目标检测结果更加快速准确,并且通过分析速度、所处车道、流量、道路及车道的时间占有率和空间占有率、排队长度等信息,实现多维度综合判断道路和各车道的拥堵等级,使得交通拥堵分析更加全面、准确。
本发明实施例四提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述实施例一中任一种交通拥堵分析方法中的步骤。详细请参阅以上对应实施例中方法步骤的说明。
上述计算机可读存储介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明所述原理的前提下,还可以作出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (12)

1.一种交通拥堵分析方法,其特征在于,包括:
从目标道路视频中获取道路图像;
利用深度学习网络模型检测道路图像中的目标,得到目标检测结果,其中,所述深度学习网络模型通过采用初始图像样本数据以及对所述初始图像样本数据进行增强处理后得到的图像样本数据进行训练得到;
对所述目标检测结果中的目标进行目标跟踪,得到目标跟踪结果;
根据所述目标检测结果和所述目标跟踪结果,计算交通参数;
根据所述交通参数,生成道路的交通拥堵信息。
2.根据权利要求1所述的方法,其特征在于,所述增强处理包括负样本增强、尺度增强、旋转变化、颜色增强中的至少一者。
3.根据权利要求2所述的方法,其特征在于,所述负样本增强包括:
获取多种场景的初始图像;
若所述初始图像中不存在目标,则将所述初始图像加入负样本集;
若所述初始图像中的目标的数量少于第一预设阈值,则利用所述初始图像中不含目标的图像块替换目标所在的目标区域,将得到的不含目标的图像加入负样本集;
其中,所述负样本集用于在训练所述深度学习网络模型时作为负样本数据。
4.根据权利要求1所述的方法,其特征在于,所述交通参数包括针对道路整体的第一交通参数以及针对道路上每一车道的第二交通参数,所述根据所述交通参数,生成道路的交通拥堵信息包括:
根据所述第一交通参数,生成道路整体的第一交通拥堵信息;
以及,根据所述第二交通参数,生成道路上每一车道的第二交通拥堵信息。
5.根据权利要求4所述的方法,其特征在于,所述第一交通参数包括:道路中所有目标的数量、道路中每一目标类别中的目标的数量、道路中所有目标的平均速度、道路中目标的流量、道路的时间占有率、道路的空间占有率、道路的排队长度中的至少一者;所述第二交通参数包括:车道中的目标的数量、车道中目标的平均速度、车道的时间占有率、车道的空间占有率、车道的排队长度中的至少一者。
6.根据权利要求5所述的方法,其特征在于,所述目标检测结果包括目标的数量,目标的坐标位置以及目标的类型,所述目标跟踪结果包括目标的跟踪状态、目标的轨迹以及目标的移动速度。
7.根据权利要求5或6所述的方法,其特征在于,所述根据所述目标检测结果和所述目标跟踪结果,计算交通参数包括:
根据检测到的道路的所有目标的数量以及各目标在预设时间内的平均速度,计算得到道路中所有目标的平均速度;
根据检测到的道路的每一车道中的目标的数量以及对应车道上的目标在预设时间内的平均速度,计算得到车道中目标的平均速度;
根据若干帧图像中的每一帧图像中流入的目标的数量以及若干帧图像所对应的时间,计算得到道路中目标的流量;
根据若干帧图像中的每一帧图像中每一车道上的目标的数量以及若干帧图像所对应的时间,计算得到车道的时间占有率;
对道路上所有车道的时间占有率取平均值,得到道路的时间占有率;
根据车道的长度、车道上的目标的长度以及车道上的目标的数量,计算得到车道的空间占有率;
对道路上所有车道的空间占有率取平均值,得到道路的空间占有率;
根据车道上的目标的长度以及车道上的目标的数量,计算得到车道的排队长度;
对道路上所有车道的排队长度取平均值,得到道路的排队长度。
8.根据权利要求6所述的方法,其特征在于,所述移动速度包括瞬时速度和平均速度,其中,所述瞬时速度根据相邻两帧图像中同一目标的坐标位置以及相邻两帧图像的时间间隔计算得到,所述平均速度根据两帧图像中同一目标的坐标位置以及所述两帧图像的时间间隔计算得到。
9.根据权利要求1所述的方法,其特征在于,所述根据所述目标检测结果和所述目标跟踪结果,计算交通参数之前,还包括:
将所述目标检测结果中的目标与所述目标跟踪结果中的目标进行匹配,确定匹配关系;
根据所述匹配关系,更新目标的跟踪状态。
10.一种交通拥堵分析装置,其特征在于,包括:
获取模块,用于从目标道路视频中获取道路图像;
检测模块,用于利用深度学习网络模型检测道路图像中的目标,得到目标检测结果,其中,所述深度学习网络模型通过采用初始图像样本数据以及对所述初始图像样本数据进行增强处理后得到的图像样本数据进行训练得到;
跟踪模块,用于对所述目标检测结果中的目标进行目标跟踪,得到目标跟踪结果;
计算模块,用于根据所述目标检测结果和所述目标跟踪结果,计算交通参数;
结果生成模块,用于根据所述交通参数,生成道路的交通拥堵信息。
11.一种分析设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至9中任一项所述的交通拥堵分析方法。
12.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1至9中任一项所述的交通拥堵分析方法中的步骤。
CN202110634686.XA 2021-06-08 2021-06-08 一种交通拥堵分析方法、装置及分析设备 Active CN113269768B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110634686.XA CN113269768B (zh) 2021-06-08 2021-06-08 一种交通拥堵分析方法、装置及分析设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110634686.XA CN113269768B (zh) 2021-06-08 2021-06-08 一种交通拥堵分析方法、装置及分析设备

Publications (2)

Publication Number Publication Date
CN113269768A true CN113269768A (zh) 2021-08-17
CN113269768B CN113269768B (zh) 2022-07-22

Family

ID=77234470

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110634686.XA Active CN113269768B (zh) 2021-06-08 2021-06-08 一种交通拥堵分析方法、装置及分析设备

Country Status (1)

Country Link
CN (1) CN113269768B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114333356A (zh) * 2021-11-30 2022-04-12 中交第二公路勘察设计研究院有限公司 基于视频多区域标记的道路平面交叉口交通量统计方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6671258B1 (en) * 2000-02-01 2003-12-30 Alcatel Canada Inc. Dynamic buffering system having integrated random early detection
CN109978036A (zh) * 2019-03-11 2019-07-05 华瑞新智科技(北京)有限公司 目标检测深度学习模型训练方法以及目标检测方法
CN110335465A (zh) * 2019-07-10 2019-10-15 北京维联众诚科技有限公司 基于ai深度学习的监控视频中交通拥堵检测方法和系统
CN110472496A (zh) * 2019-07-08 2019-11-19 长安大学 一种基于目标检测与跟踪的交通视频智能分析方法
CN110688922A (zh) * 2019-09-18 2020-01-14 苏州奥易克斯汽车电子有限公司 基于深度学习的交通拥堵检测系统及检测方法
CN110992693A (zh) * 2019-12-04 2020-04-10 浙江工业大学 一种基于深度学习的交通拥堵程度多维度分析方法
CN111415293A (zh) * 2020-03-12 2020-07-14 上海数川数据科技有限公司 基于图像目标-背景变换的数据集增强方法及系统
CN111723854A (zh) * 2020-06-08 2020-09-29 杭州像素元科技有限公司 一种高速公路交通拥堵检测方法、设备及可读存储介质
CN112258404A (zh) * 2020-10-15 2021-01-22 北京达佳互联信息技术有限公司 图像处理方法、装置、电子设备和存储介质
CN112507844A (zh) * 2020-12-02 2021-03-16 博云视觉科技(青岛)有限公司 基于视频分析的交通拥堵检测方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6671258B1 (en) * 2000-02-01 2003-12-30 Alcatel Canada Inc. Dynamic buffering system having integrated random early detection
CN109978036A (zh) * 2019-03-11 2019-07-05 华瑞新智科技(北京)有限公司 目标检测深度学习模型训练方法以及目标检测方法
CN110472496A (zh) * 2019-07-08 2019-11-19 长安大学 一种基于目标检测与跟踪的交通视频智能分析方法
CN110335465A (zh) * 2019-07-10 2019-10-15 北京维联众诚科技有限公司 基于ai深度学习的监控视频中交通拥堵检测方法和系统
CN110688922A (zh) * 2019-09-18 2020-01-14 苏州奥易克斯汽车电子有限公司 基于深度学习的交通拥堵检测系统及检测方法
CN110992693A (zh) * 2019-12-04 2020-04-10 浙江工业大学 一种基于深度学习的交通拥堵程度多维度分析方法
CN111415293A (zh) * 2020-03-12 2020-07-14 上海数川数据科技有限公司 基于图像目标-背景变换的数据集增强方法及系统
CN111723854A (zh) * 2020-06-08 2020-09-29 杭州像素元科技有限公司 一种高速公路交通拥堵检测方法、设备及可读存储介质
CN112258404A (zh) * 2020-10-15 2021-01-22 北京达佳互联信息技术有限公司 图像处理方法、装置、电子设备和存储介质
CN112507844A (zh) * 2020-12-02 2021-03-16 博云视觉科技(青岛)有限公司 基于视频分析的交通拥堵检测方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114333356A (zh) * 2021-11-30 2022-04-12 中交第二公路勘察设计研究院有限公司 基于视频多区域标记的道路平面交叉口交通量统计方法
CN114333356B (zh) * 2021-11-30 2023-12-15 中交第二公路勘察设计研究院有限公司 基于视频多区域标记的道路平面交叉口交通量统计方法

Also Published As

Publication number Publication date
CN113269768B (zh) 2022-07-22

Similar Documents

Publication Publication Date Title
CN111814623A (zh) 一种基于深度神经网络的车辆车道偏离视觉检测方法
CN111626277B (zh) 一种基于治超站交调指标分析的车辆跟踪方法及装置
Hinz et al. Automatic car detection in high resolution urban scenes based on an adaptive 3D-model
US20100020074A1 (en) Method and apparatus for detecting objects from terrestrial based mobile mapping data
CN108197604A (zh) 基于嵌入式设备的快速人脸定位跟踪方法
CN114359181B (zh) 一种基于图像和点云的智慧交通目标融合检测方法及系统
CN105678287B (zh) 一种基于脊度量的车道线检测方法
CN111340855A (zh) 一种基于轨迹预测的道路移动目标检测方法
CN111723854B (zh) 一种高速公路交通拥堵检测方法、设备及可读存储介质
CN109145708A (zh) 一种基于rgb和d信息融合的人流量统计方法
CN108645375B (zh) 一种用于车载双目系统快速车辆测距优化方法
CN114419616A (zh) 一种异物识别方法、装置、设备及存储介质
CN112327308A (zh) 物体检测方法、装置、系统及设备
CN110321855A (zh) 一种雾天检测预警装置
CN113269768B (zh) 一种交通拥堵分析方法、装置及分析设备
CN106845458A (zh) 一种基于核超限学习机的快速交通标识检测方法
Vaibhav et al. Real-time fog visibility range estimation for autonomous driving applications
JP2020160840A (ja) 路面標示不具合検出装置、路面標示不具合検出方法及び路面標示不具合検出プログラム
CN111353481A (zh) 基于激光点云与视频图像的道路障碍物识别方法
CN117636268A (zh) 一种面向冰雪环境的无人机航拍自然驾驶数据集构建方法
Laureshyn et al. Automated video analysis as a tool for analysing road user behaviour
CN116109840B (zh) 一种基于机器视觉的樱桃孢子识别方法
Negru et al. Assisting navigation in homogenous fog
CN103258433B (zh) 一种交通视频监控中智能车牌清晰显示方法
CN113936260A (zh) 一种基于图像的道路扬尘动态监测方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant