CN107301369A - 基于航拍图像的道路交通拥堵分析方法 - Google Patents

基于航拍图像的道路交通拥堵分析方法 Download PDF

Info

Publication number
CN107301369A
CN107301369A CN201710268356.7A CN201710268356A CN107301369A CN 107301369 A CN107301369 A CN 107301369A CN 201710268356 A CN201710268356 A CN 201710268356A CN 107301369 A CN107301369 A CN 107301369A
Authority
CN
China
Prior art keywords
mrow
mtd
msub
mtr
mover
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710268356.7A
Other languages
English (en)
Inventor
黎宁
蒋振业
陈成
徐斌
徐智
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN201710268356.7A priority Critical patent/CN107301369A/zh
Publication of CN107301369A publication Critical patent/CN107301369A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Medicines Containing Antibodies Or Antigens For Use As Internal Diagnostic Agents (AREA)

Abstract

本发明提供一种基于航拍图像的道路交通拥堵分析方法,首先通过无人机采集得到航拍图像,并传输至远程服务器保存;其次针对动态背景的航拍图像引入背景补偿技术,在一段时间内重建出静态场景,在此基础上采用基于像素灰度投票策略完成背景提取,进而利用背景减和形态腐蚀技术,提取出道路车辆;然后采用改进的均值漂移跟踪算法,完成所有车辆的跟踪;最后结合帧率,计算出时间占有率和平均行程速度,并将其作为拥堵分析模型的基本指标,基于模糊理论建立模型,实现交通拥堵分析。本发明的方法能够为交通部门进一步做交通拥堵分析以及拥堵疏导策略提供数据支持,从而可以尽量避免交通拥堵现象的发生,使道路交通资源获得最大化的合理使用。

Description

基于航拍图像的道路交通拥堵分析方法
技术领域
本发明涉及智能交通领域,具体而言涉及一种基于航拍图像的道路交通拥堵分析方 法。
背景技术
随着经济的快速发展,人民生活水平普遍提高,汽车代步行的出行方式日益普及,而城市道路建设跟不上汽车普及的步伐,随之而来的就是道路交通状况日益恶化,这不 仅影响了整个城市的交通问题还严重影响到人们的生命财产安全。交通智能化是解决当 今交通问题最有效的重要措施。智能交通技术的发展不仅能有效提高车辆运行效率,还 能缓解驾驶员的疲劳,是减少交通事故的重要途径。
城市道路交通拥堵分析是智能交通系统的基础而又非常重要的部分,而城市交通主 干道的拥堵分析是其中的研究热点之一,主要通过交通信息的采集以及建立交通拥堵分 析模型来实现。而当前的交通信息采集主要依赖于固定布设的各类交通检测设备,由于维护成本高、覆盖面不全,导致当前交通拥堵问题尚未解决。近年来无人机在军用领域 得到了广泛的应用,并且取得了实质性的进展和突破,由于无人机检测技术具有使用维 护方便、处理信息量大、无需破坏地面等优点,因此,将无人机结合图像处理技术应用 到道路交通拥堵分析领域中具有重要的意义和应用价值。
发明内容
本发明所要解决的技术问题是针对现有的交通信息采集设备的不足以及拥堵分析 模型的智能化程度不高,利用无人机结合图像处理技术,提出一种基于航拍图像的道路交通拥堵分析方法,高效,准确地分析道路的交通拥堵程度,为交通部门进一步做交通 拥堵分析以及拥堵疏导策略提供数据支持,从而可以尽量避免交通拥堵现象的发生,使 道路交通资源的利用率获得最大化的合理使用。
本发明为解决上述技术问题采用以下技术方案:
基于航拍图像的道路交通拥堵分析方法,包括如下步骤:
步骤1),航拍图像获取
通过无人机采集得到航拍图像,比如通过无人机缓慢飞行于道路上方拍摄或者悬停 在道路上方旋转摄像头拍摄的方式,并传输至远程服务器保存。
步骤2),动态背景补偿
选取首帧为参考帧,后续帧中某一帧为待补偿帧,采用Harris算法对参考帧和待补偿帧进行角点提取,进而采用模板匹配法对参考帧和待补偿帧中的角点进行粗匹配, 在粗匹配的基础上,引入极线约束条件,运用RANSAC算法,剔除粗匹配中的错误匹配 点对,实现精确匹配,最后根据精确匹配结果,求解透射变换矩阵,将待补偿帧进行透 视变换,从而完成背景补偿。以此类推,对后续帧中的每一帧进行背景补偿。
步骤3),车辆提取
在基于动态背景补偿基础之上,本发明提出基于像素灰度投票策略完成背景提取, 从视频首帧开始连续选取若干帧进行背景建模。一旦提取出背景后,利用背景减和形态 腐蚀技术,提取出道路车辆。
步骤4),车辆跟踪
在检测出首帧的车辆位置后,采用基于多线程技术的检测跟踪复合算法跟踪后续帧 中的所有车辆。
步骤5),交通特征参数提取
在检测和跟踪基础上,根据车辆的位置信息,结合视频帧率和以及像素与实际物理 距离的关系,计算交通特征参数:平均行程速度、时间占有率。
步骤6),交通拥堵分析
利用平均行程速度和时间占有率作为交通拥堵分析基本指标,采用模糊理论技术, 将路段的拥堵程度分为三个等级,为基本指标建立隶属度函数,根据基于加权的隶属度 最大值来判定拥堵程度等级。
作为本发明基于航拍图像的道路交通拥堵分析方法进一步的优化方案,所述步骤2) 中Harris角点提取算法的详细步骤如下:
步骤2.1)假设一幅图像f,其中像素点记为I=(x,y),选取邻域窗口W∈f,然后 平移窗口(Δx,Δy),求出其水平X方向、垂直Y方向的梯度值,再对图像进行高斯滤波, 构造局部自相关矩阵M:
式中,Ix为点I的X方向的梯度值;Iy为点I的Y方向的梯度值;代表卷积运算;W 代表高斯窗口:
步骤2.2)计算每个像素点的Harries角点响应函数R(M):
R(M)=Det(M)-β·trace2(M) (3)
式中,β是经验参数,通常取0.02~0.05;Det(M)代表矩阵M行列式值;trace(M)代表矩阵M的迹。当R(M)的绝对值较小时,点处于平坦位置,当R(M)为负值且较大时, 点处于边界上,当R(M)为正值且较大时,点处在角点位置,则只要对R(M)给定一个门 限阈值T,当响应值R(M)大于T则认为是一个有意义的角点。
步骤2.3)抑制非极大值,去除伪角点。以像素点I为中心,取大小为3×3模板窗口,滑动窗口。对一个角点的邻域内,用当前窗口中心角点的响应值填充一个模板,然后用 模板覆盖区域里的角点和模板值大小比较,保留大值的角点,抑制小响应值的角点。
作为本发明基于航拍图像的道路交通拥堵分析方法进一步的优化方案,所述步骤2) 中模板匹配法的详细步骤如下:
步骤3.1)在参考帧中选择某个特征点及其邻域窗口H1
步骤3.2)在待补偿帧中选择某个特征点及其邻域窗口H2
步骤3.3)将两个窗口H1和H2内的像素值用公式4进行计算,记录下S;
步骤3.4)依次选择待补偿帧中其他特征点及其邻域窗口,重复步骤3.3,选择所有求得的S中最小的对应的特征点窗口,作为参考帧中该特征点在待补偿帧中匹配的特征点;
步骤3.5)依次选择待补偿帧中所有特征点,重复步骤(1)到(4),完成所有特征 点匹配。
作为本发明基于航拍图像的道路交通拥堵分析方法进一步的优化方案,所述步骤2) 中精确匹配的详细步骤如下:
步骤4.1)设定一次抽取到的4对匹配点能够构成最优基础矩阵的概率W,以及模型校验允许的最大误差ε;
步骤4.2)根据公式5计算最大迭代次数,设拟合定概率P则可以求出迭代次数k的值;
k=log1-W(1-P) (5)
步骤4.3)从粗匹配集中随机取出4组匹配点对,根据公式6,其中u和u'为匹配点对, 并计算对应的基础矩阵F;
u'TFu=0 (6)
步骤4.4)对粗匹配集中剩下的点进行模型校验,合计计算得到的点坐标和匹配点真 实点坐标在误差ε的范围内的匹配点对数量;
步骤4.5)迭代计数加1,重复步:4.3和4.4,直到迭代次数达到上限;
步骤4.6)选出所有模型中满足匹配点数量最多的模型为最优模型,其对应的基础矩 阵为最优基础矩阵;
步骤4.7)利用最优基础矩阵,剔除不满足误差ε的范围内的匹配点对,得到精确匹配集。
作为本发明基于航拍图像的道路交通拥堵分析方法进一步的优化方案,所述步骤2) 中透射变换矩阵的求解详细步骤如下:
步骤5.1)设定一次抽取到的4对匹配点能够构成最优透射变换矩阵的概率W,以及模型校验允许的最大误差ε;
步骤5.2)根据公式5计算最大迭代次数,设拟合定概率P则可以求出迭代次数k的值;
步骤5.3)从精确匹配集中随机取出4组匹配点对,并计算对应的透射变换矩阵;
步骤5.4)对精确匹配集中剩下的点进行模型校验,合计计算得到的点坐标和匹配点 真实点坐标在误差ε的范围内的匹配点对数量;
步骤5.5)迭代计数加1,重复步骤5.3和5.4,直到迭代次数达到上限;
步骤5.6)选出所有模型中满足匹配点数量最多的模型为最优模型,其对应的透射变 换矩阵为最优透射变换矩阵。
作为本发明基于航拍图像的道路交通拥堵分析方法进一步的优化方案,所述步骤3) 中基于像素灰度投票策略完成背景提取的详细步骤如下:
步骤6.1)设队列长度L,背景调节最大步长为δ,计数器初始值比例为q;
步骤6.2)取L帧图像进入队列,用投票法计算每个像素点的背景灰度Z(x,y)并生成背景图Z;
步骤6.3)取下一帧图像进入队列尾,将队列头的图像从队列中排除;
步骤6.4)再次用投票法计算每个像素点的背景灰度Z'(x,y);
步骤6.5)若新的背景灰度Z'(x,y)-Z(x,y)>δ,则背景灰度保持Z(x,y),并启动计数器;
步骤6.6)重复步骤6.3和6.4,若更新的背景灰度在计数器计数期间内一直保持在Z'(x,y)±δ的范围内,则更新背景灰度Z(x,y)=Z'(x,y);
步骤6.7)循环重复步骤6.3至6.6。
上述步骤中,投票法指的是根据像素在一段时间内的灰度变化,建立灰度变化投票 直方图。若灰度变化缓慢,则直方图对应灰度的投票值大,反之亦然。为抑制光照影响,选取一定邻域大小,依次为每个像素所在的邻域进行投票,根据投票直方图的投票值, 选取最大投票值所对应的灰度值作为背景。
作为本发明基于航拍图像的道路交通拥堵分析方法进一步的优化方案,所述步骤4) 中基于多线程技术的检测跟踪复合算法的详细步骤如下:
步骤7.1)令计数器j=0,检测线程开始检测序列图像第一帧中的车辆,并将检测结果包括车辆数量和位置信息等保存至全局车辆对象detectCarInfo,同时开启跟踪线程,并初始化车辆模型和初始位置;
步骤7.2)j=j+1,读入下一帧图像,判断j%3==0,如果成立,则跳转至步骤7.3。反之不跳转。同时判断j%5==0,如果成立,跳转至步骤7.4,反之,不跳转, 保持detectCarInfo不更新;跟踪线程持续进行车辆跟踪,结束后跳转至步骤7.5;
步骤7.3)检测线程读取j+2帧图像进行检测,并将检测结果保存至temp对象;
步骤7.4)比较temp和detectCarInfo对象属性中的车辆总数,如果前者大于后者,根据车辆位置信息相对应地将temp赋值给detectCarInfo,并重新初始化车辆模型,其 余情况不做操作,保持detectCarInfo不更新,返回步骤7.2;
步骤7.5)若视频序列未结束,则返回步骤7.2。
上述步骤中,跟踪线程指的是采用改进的均值漂移算法对车辆进行跟踪,检测线程 指的是步骤2中的车辆提取算法。
作为本发明基于航拍图像的道路交通拥堵分析方法进一步的优化方案,所述步骤5) 中平均行程速度的详细计算步骤如下:
基于航拍图像的平均行程速度计算公式如下:
式中l代表跟踪区域路段的长度,单位为km,N代表在该路段在观测时段内的小时交通量(veh),ti代表观测时段内通过该路段的第i辆车所需的行程时间(s),FVi1'代表 车辆接触跟踪区域时记录的当前帧数,FVi2'代表车身离开跟踪区域时记录的当前帧数, FPS代表视频的帧率,Lline代表车道分界线实际长度,单位为km,Lpixel代表车道分界线 的成像的像素长度,lpixel代表跟踪区域路段的像素长度。
作为本发明基于航拍图像的道路交通拥堵分析方法进一步的优化方案,所述步骤5) 中时间占有率的详细计算步骤如下:
基于航拍图像的时间占有率提取公式如下:
式中ti代表第i辆车的车身通过道路某断面占用的时间(s),N代表路段在观测时段 内的小时交通量(veh),T代表总观测时间(s),FOi1代表车辆开始接触道路某断面时记录的当前帧数,FOi2代表车身离开该断面时记录的当前帧数,FPS代表视频的帧率。
作为本发明基于航拍图像的道路交通拥堵分析方法进一步的优化方案,所述步骤6) 中模糊理论技术的详细步骤如下:
步骤9.1)确定因素集和评判集
将城市主干道划分为A、B、C三个等级,因此评判集可以表示为 V={畅通,轻微拥堵,严重拥堵}。
选择时间占有率和平均行程速度作为评价指标,因此因素集可以表示为
步骤9.2)确定因素集中每个因素的隶属函数
时间占有率的隶属函数为:
其中A、B、C分别代表畅通状态、轻微拥堵状态、严重拥堵状态。
平均行程速度隶属函数为:
其中A、B、C分别代表畅通状态、轻微拥堵状态、严重拥堵状态。
综上所述,可得模糊关系矩阵为
步骤9.3)确定因素集的权重集
选择加权平均法,那么权重集可以表示为A=[a1,a2],其中a1+a2=1。a1表示时间占有率在评判上的重要程度;a2表示车辆平均行程速度在评判上的重要程度。车辆平均 行程速度最能反应路段交通状态的变化。因此取a1=0.4,a2=0.6,即权重向量 A=[0.4,0.6]。
步骤9.4)模糊变换,确定综合评判结果
进行模糊变换B=A·R,归一化后得最终的综合评判集。
采取最大隶属度法,即选择综合评判集B=(b1,b2,…,bn)中隶属度最大的bj所对应的 评判等级bj作为最终的评判结果。通过比较bA,bB,bC三个数值的大小,评判当前道路的 交通拥堵程度为哪一等级
本发明采用以上技术方案与现有技术相比,具有以下技术效果:
本发明提出的基于航拍图像的道路交通拥堵分析方法,以车辆为分析对象,通过图 像检测技术提取车辆平均行程速度和时间占有率来设计拥堵分析模型,实现道路交通拥 堵的分析。首先通过无人机缓慢飞行于道路上方拍摄或者悬停在道路上方旋转摄像头拍 摄的方式,采集得到航拍图像,并传输至远程服务器保存;其次针对动态背景的航拍图像引入背景补偿技术,在一段时间内重建出静态场景,在此基础上采用基于像素灰度投 票策略完成背景提取,进而利用背景减和形态腐蚀技术,提取出道路车辆;然后采用改 进的均值漂移跟踪算法,完成所有车辆的跟踪;最后结合帧率,计算出时间占有率和平 均行程速度,并将其作为拥堵分析模型的基本指标,基于模糊理论建立模型,实现交通 拥堵分析。本发明能够为交通部门进一步做交通拥堵分析以及拥堵疏导策略提供数据支 持,从而可以尽量避免交通拥堵现象的发生,使道路交通资源的利用率获得最大化的合 理使用。
附图说明
图1为本发明某些实施例的基于航拍图像的道路交通拥堵分析方法的流程示意图;
图2为角点粗匹配图;
图3为角点精确匹配图;
图4(a)和图4(b)为视频第5帧和第7帧,以图4(a)为参考帧,图4(b)为待补偿 帧;
图5(a)为参考帧,图5(b)为待补偿帧的背景补偿后结果;
图6(a)为视频中的第856帧,图6(b)为视频中的第858帧,图6(c)为视频 中的第860帧,图6(d)为视频中的第862帧,图6(e)为视频中的第864帧,图6(f)为视频中的第866帧;
图7(a)为视频中的第856帧的车辆前景提取图,图7(b)为视频中的第858帧的 车辆前景提取图,图7(c)为视频中的第860帧的车辆前景提取图,图7(d)为视频 中的第862帧的车辆前景提取图,图7(e)为视频中的第864帧的车辆前景提取图,图 7(f)为视频中的第866帧的车辆前景提取图;
图8(a)至图8(f)为车辆跟踪图;图8(a)为视频中的第746帧车辆跟踪图, 图8(b)为视频中的第748帧车辆跟踪图,图8(c)为视频中的第750帧车辆跟踪图, 图8(d)为视频中的第752帧车辆跟踪图,图8(e)为视频中的第754帧车辆跟踪图, 图8(f)为视频中的第756帧车辆跟踪图;
图9(a)至图9(c)为交通拥堵分析结果,其中图9(a)检测中间车道为畅通状态, 图9(b)检测中间车道为轻微拥堵状态,图9(c)检测中间车道为严重拥堵状态;
图10(a)为时间占有率示意图,图10(b)为时间占有率初始帧示意图,图10(c) 为时间占有率结束帧示意图;
图11(a)为平均行程速度示意图,图11(b)为平均行程速度初始帧示意图,图 11(c)为平均行程速度结束帧示意图。
具体实施方式
下面结合附图对本发明的技术方案做进一步的详细说明:
图1所示为基于航拍图像的道路交通拥堵分析方法的流程示意图,总体上来说,整个检测方法包括下述过程:
第一步:航拍图像获取
通过无人机缓慢飞行于道路上方拍摄或者悬停在道路上方旋转摄像头拍摄的方式, 采集得到航拍图像,并通过无线网络传输至远程服务器保存。
第二步:动态背景补偿
选取首帧为参考帧,后续帧中某一帧为待补偿帧,采用Harris算法对参考帧和待补偿帧进行角点提取,进而采用模板匹配法对参考帧和待补偿帧中的角点进行粗匹配, 在粗匹配的基础上,引入极线约束条件,运用RANSAC算法,剔除粗匹配中的错误匹配 点对,实现精确匹配,最后根据精确匹配结果,求解透射变换矩阵,将待补偿帧进行透 视变换,从而完成背景补偿。以此类推,对后续帧中的每一帧进行背景补偿。
第三步:车辆提取
在基于动态背景补偿基础之上,本发明提出基于像素灰度投票策略完成背景提取, 从视频首帧开始连续选取若干帧进行背景建模。一旦提取出背景后,利用背景减和形态 腐蚀技术,提取出道路车辆。
第四步:车辆跟踪
在检测出首帧的车辆位置后,采用基于多线程技术的检测跟踪复合算法跟踪后续帧 中的所有车辆。
第五步:交通特征参数提取
在检测和跟踪基础上,根据车辆的位置信息,结合视频帧率和以及像素与实际物理 距离的关系,计算交通特征参数:平均行程速度、时间占有率。
第六步:交通拥堵分析
利用平均行程速度和时间占有率作为交通拥堵分析基本指标,采用模糊理论技术, 将路段的拥堵程度分为三个等级,为基本指标建立隶属度函数,根据基于加权的隶属度 最大值来判定拥堵程度等级。
下面结合图示与具体实例对本发明作进一步说明。
图2展示了角点粗匹配图,图3展示了角点精确匹配图,图中的连线代表一对匹配的角点,从两幅图对比可以发现,粗匹配中的连线交叉混乱,而精确匹配图中的连线基 本统一走向,说明引入极线约束条件后,匹配效果更理想。
图4(a)和图4(b)为视频第5帧和第7帧,以图4(a)为参考帧,图4(b)为待补偿 帧,经过背景补偿后,图4(b)转化为图5(b),转化之后,图5(a)和图5(b)已经切换到 同一视角。
图6(a)至图6(f)为视频中的第856帧、第858帧、第860帧、第862帧、第 864帧、第866帧。图7(a)至图7(f)展示了第856帧、第858帧、第860帧、第862帧、第864帧、第866帧的车辆前景提取效果;
图8(a)至图8(f)为车辆跟踪图,可以实现跟踪图像中的所有车辆;
图9(a)至图9(c)为交通拥堵分析结果,其中图9(a)检测中间车道为畅通状态, 图9(b)检测中间车道为轻微拥堵状态,图9(c)检测中间车道为严重拥堵状态。
图10(a)至图10(c)为时间占有率示意图,图中的中心水平线代表断面,车辆从 开始接触水平线时记录当前帧,到车身离开水平线时记录当前帧。
图11(a)至图11(c)为平均行程速度示意图,图中两条水平线的中间区域代表跟踪区域,车辆从开始接触第一条水平线时记录当前帧,到车身离开另一条水平线时记录 当前帧。
下面对本发明一些步骤进行更详细的解释与描述。
第二步中,本发明采用的是Harris角点提取算法,而目前较为经典的检测算法有:SUSAN算法、Moravec算法、SIFT算法、MIC算法和Harris算法等,其中SUSAN算 法计算量较大,不利于快速配准,Moravec算法定位准确度不高,抗干扰能力低,SIFT 算法维数高,实时性差,MIC算法需要设置两个阈值门限,在实际中需要辅助操作,相 对来说,Harris算法速度快,精度高,抗干扰能力强,可以有效地解决航拍图像背景复 杂,干扰较多等问题,因此本发明决定选择Harris算法进行角点提取,其详细步骤如下:
步骤2.1)假设一幅图像f,其中像素点记为I=(x,y),选取邻域窗口W∈f,然后 平移窗口(Δx,Δy),求出其水平X方向、垂直Y方向的梯度值,再对图像进行高斯滤波, 构造局部自相关矩阵M:
式中,Ix为点I的X方向的梯度值;Iy为点I的Y方向的梯度值;代表卷积运算;W 代表高斯窗口:
步骤2.2)计算每个像素点的Harries角点响应函数R(M):
R(M)=Det(M)-β·trace2(M) (3)
式中,β是经验参数,通常取0.02~0.05;Det(M)代表矩阵M行列式值;trace(M)代表矩阵M的迹。当R(M)的绝对值较小时,点处于平坦位置,当R(M)为负值且较大时, 点处于边界上,当R(M)为正值且较大时,点处在角点位置,则只要对R(M)给定一个门 限阈值T,当响应值R(M)大于T则认为是一个有意义的角点。
步骤2.3)抑制非极大值,去除伪角点。以像素点I为中心,取大小为3×3模板窗口,滑动窗口。对一个角点的邻域内,用当前窗口中心角点的响应值填充一个模板,然后用 模板覆盖区域里的角点和模板值大小比较,保留大值的角点,抑制小响应值的角点。
第二步中,本发明采用的粗匹配方法为模板匹配法,所有匹配中属模板匹配最为简 单,以每个特征点为中心提取出(2N+1)×(2N+1)的一个窗口,然后将两幅图中所有特征点按最小二乘的原则进行匹配,差异最小的窗口认为匹配成功,其详细步骤如下:
步骤3.1)在参考帧中选择某个特征点及其邻域窗口H1
步骤3.2)在待补偿帧中选择某个特征点及其邻域窗口H2
步骤3.3)将两个窗口H1和H2内的像素值用公式4进行计算,记录下S;
步骤3.4)依次选择待补偿帧中其他特征点及其邻域窗口,重复步骤3.3,选择所有求得的S中最小的对应的特征点窗口,作为参考帧中该特征点在待补偿帧中匹配的特征点;
步骤3.5)依次选择待补偿帧中所有特征点,重复步骤(1)到(4),完成所有特征 点匹配。
第二步中,本发明在粗匹配的基础上进行精确匹配,因为粗匹配虽然实现简单,基本上也能准确匹配,但类似于其他匹配算法一样,由于没有引入任何判决条件,仅仅通 过修正相关窗之间的相互关系来进行匹配,必会使得图像中有一些偶然相似或者结构重 复的单元极易受到误判而被认为是相同的场景部分。如果在此基础上通过引入一些判决 条件,利用判决条件剔除模板匹配中的错误匹配点对,那么就能理想的获取精准的匹配 点对。因此,本发明引入极线约束条件,运用RANSAC算法求得最优基础矩阵,然后 根据基础矩阵剔除粗匹配中的错误匹配点对,得到精确匹配结果。其详细步骤如下:
步骤4.1)设定一次抽取到的4对匹配点能够构成最优基础矩阵的概率W,以及模型校验允许的最大误差ε;
步骤4.2)根据公式5计算最大迭代次数,设拟合定概率P则可以求出迭代次数k的值;
k=log1-W(1-P) (5)
步骤4.3)从粗匹配集中随机取出4组匹配点对,根据公式6,其中u和u'为匹配点对, 并计算对应的基础矩阵F;
u'TFu=0 (6)
步骤4.4)对粗匹配集中剩下的点进行模型校验,合计计算得到的点坐标和匹配点真 实点坐标在误差ε的范围内的匹配点对数量;
步骤4.5)迭代计数加1,重复步:4.3和4.4,直到迭代次数达到上限;
步骤4.6)选出所有模型中满足匹配点数量最多的模型为最优模型,其对应的基础矩 阵为最优基础矩阵;
步骤4.7)利用最优基础矩阵,剔除不满足误差ε的范围内的匹配点对,得到精确匹配集。
第二步中,采用的是透射变换矩阵,而目前常用的几种运动参数模型有:平移运动模型、投影运动模型、双线性运动模型、仿射运动模型等,其中平移运动模型,是最简 单的运动参数模型,涉及两个参数,虽然计算量小,但运动矢量与航拍载具的实际运动 存在着差异,因此利用此模型进行全局运动估计会带来较大误差。投影运动参数模型, 相比于与仿射运动模型更为精确,它涉及八个参数,不仅可处理矩形到任意四边形的转 变,而且也可以处理旋转。双线性运动参数模型共有十参数,可以处理平行四边形的任 意形变,但是其计算复杂度较大。本发明考虑到后续检测的准确性,又兼顾计算复杂度, 所以,选择投影运动参数模型,其关键在于求解透射变换矩阵。求解的详细步骤如下:
步骤5.1)设定一次抽取到的4对匹配点能够构成最优透射变换矩阵的概率W,以及模型校验允许的最大误差ε;
步骤5.2)根据公式5计算最大迭代次数,设拟合定概率P则可以求出迭代次数k的值;
步骤5.3)从精确匹配集中随机取出4组匹配点对,并计算对应的透射变换矩阵;
步骤5.4)对精确匹配集中剩下的点进行模型校验,合计计算得到的点坐标和匹配点 真实点坐标在误差ε的范围内的匹配点对数量;
步骤5.5)迭代计数加1,重复步:5.3和5.4,直到迭代次数达到上限;
步骤5.6)选出所有模型中满足匹配点数量最多的模型为最优模型,其对应的透射变 换矩阵为最优透射变换矩阵。
第三步中采用基于像素灰度投票策略完成背景提取,该方法考察图像内的每一个像 素点的变化情况,通过变化情况来估算该点像素灰度的概率分布,进而确定该点的背景像素灰度值。相比高斯建模法,在效果相当的情况下,提升了建模速度。相比均值建模 法,建模效果明显更好。因此本发明提出的基于像素灰度投票策略满足工程开发需求, 其详细步骤如下:
步骤6.1)设队列长度L,背景调节最大步长为δ,计数器初始值比例为q;
步骤6.2)取L帧图像进入队列,用投票法计算每个像素点的背景灰度Z(x,y)并生成背景图Z;
步骤6.3)取下一帧图像进入队列尾,将队列头的图像从队列中排除;
步骤6.4)用投票法计算每个像素点的背景灰度Z'(x,y);
步骤6.5)若新的背景灰度Z'(x,y)-Z(x,y)>δ,则背景灰度保持Z(x,y),并启动计数器
步骤6.6)重复步骤6.3和6.4,若更新的背景灰度在计数器计数期间内一直保持在Z'(x,y)±δ的范围内,则更新背景灰度Z(x,y)=Z'(x,y);
步骤6.7)循环重复步骤6.3至6.6。
上述步骤中,投票法指的是根据像素在一段时间内的灰度变化,建立灰度变化投票 直方图。若灰度变化缓慢,则直方图对应灰度的投票值大,反之亦然。为抑制光照影响,选取一定邻域大小,依次为每个像素所在的邻域进行投票,根据投票直方图的投票值, 选取最大投票值所对应的灰度值作为背景。
第四步中采用基于多线程技术的检测跟踪复合算法,因为考虑到道路车辆的总数是 时刻变化的,可能来自于新车辆的随机出现或者旧车辆的消失,如果仅仅采用改进的均值漂移跟踪算法是没法跟踪新出现的车辆,所以本发明利用多线程技术,同时计算车辆 检测算法和车辆跟踪算法,为两个算法独立分配一个线程,每隔一段时间进行通信矫正 跟踪结果,有效解决因车辆总数时刻变化而导致跟踪难的问题,其详细步骤如下:
步骤7.1)令计数器j=0,检测线程开始检测序列图像第一帧中的车辆,并将检测结果包括车辆数量和位置信息等保存至全局车辆对象detectCarInfo,同时开启跟踪线程,并初始化车辆模型和初始位置;
步骤7.2)j=j+1,读入下一帧图像,判断j%3==0,如果成立,则跳转至步骤7.3。反之不跳转。同时判断j%5==0,如果成立,跳转至步骤7.4,反之,不跳转, 保持detectCarInfo不更新;跟踪线程持续进行车辆跟踪,结束后跳转至步骤7.5;
步骤7.3)检测线程读取j+2帧图像进行检测,并将检测结果保存至temp对象;
步骤7.4)比较temp和detectCarInfo对象属性中的车辆总数,如果前者大于后者,根据车辆位置信息相对应地将temp赋值给detectCarInfo,并重新初始化车辆模型,其 余情况不做操作,保持detectCarInfo不更新,返回步骤7.2;
步骤7.5)若视频序列未结束,则返回步骤7.2。
上述步骤中,跟踪线程指的是采用改进的均值漂移算法对车辆进行跟踪,检测线程 指的是步骤2中的车辆提取算法。
第五步中采用的平均行程速度和时间占有率作为评价指标,而常用的评价指标有很 多,比如:交通流量、平均行程速度、瞬时速度、时间占有率、空间占有率、平均排队 长度以及饱和度等。为了使所建立的道路交通拥堵分析模型更加准确并且具有很好的推 广性,需要了解每个评价指标与路网的表征关系,以确保道路交通拥堵分析模型数据输 入的准确可靠性。同时评价指标的选取不能从单个方面考虑,而是必须从多方面进行综 合考虑,既要保证所选取的评价指标能够准确地评价道路的交通状态,还要保证所选取 的评价指标测量或者计算过程简单。
因此本发明考虑到平均排队长受红绿灯配时影响较大,获取难度大;交通流量不能 真实反映交通状态,流量为零时,路上有可能没车也有可能发生严重拥堵现象;瞬时速度和空间占有率从图像检测角度提取难度较大,精度不高,影响后续模型分析的准确性,而平均行程速度和时间占有率无论从计算角度还是准确角度都能很好的满足工程需求。所以本发明选择这两者作为评价指标。参考图10和图11,其计算步骤如下:
基于航拍图像的平均行程速度计算公式如下:
式中l代表跟踪区域路段的长度,单位为km,N代表在该路段在观测时段内的小时交通量(veh),ti代表观测时段内通过该路段的第i辆车所需的行程时间(s),FVi1'代表 车辆接触跟踪区域时记录的当前帧数,FVi2'代表车身离开跟踪区域时记录的当前帧数, FPS代表视频的帧率,Lline代表车道分界线实际长度,单位为km,Lpixel代表车道分界线 的成像的像素长度,lpixel代表跟踪区域路段的像素长度。
基于航拍图像的时间占有率提取公式如下:
式中ti代表第i辆车的车身通过道路某断面占用的时间(s),N代表路段在观测时段 内的小时交通量(veh),T代表总观测时间(s),FOi1代表车辆开始接触道路某断面时记录的当前帧数,FOi2代表车身离开该断面时记录的当前帧数,FPS代表视频的帧率。
第六步中采用的模糊理论技术,其详细步骤如下:
步骤9.1)确定因素集和评判集
将城市主干道划分为A、B、C三个等级,因此评判集可以表示为 V={畅通,轻微拥堵,严重拥堵}。
选择时间占有率和平均行程速度作为评价指标,因此因素集可以表示为
步骤9.2)确定因素集中每个因素的隶属函数
时间占有率的隶属函数为:
其中A、B、C分别代表畅通状态、轻微拥堵状态、严重拥堵状态。
平均行程速度隶属函数为:
其中A、B、C分别代表畅通状态、轻微拥堵状态、严重拥堵状态。
综上所述,可得模糊关系矩阵为
步骤9.3)确定因素集的权重集
选择加权平均法,那么权重集可以表示为A=[a1,a2],其中a1+a2=1。a1表示时间占有率在评判上的重要程度;a2表示车辆平均行程速度在评判上的重要程度。车辆平均 行程速度最能反应路段交通状态的变化。因此取a1=0.4,a2=0.6,即权重向量 A=[0.4,0.6]。
步骤9.4)模糊变换,确定综合评判结果
进行模糊变换B=A·R,归一化后得最终的综合评判集。
采取最大隶属度法,即选择综合评判集B=(b1,b2,…,bn)中隶属度最大的bj所对应的 评判等级bj作为最终的评判结果。通过比较bA,bB,bC三个数值的大小,假设 bB=max(bA,bB,bC),则可评判当前道路的交通拥堵程度为B等级,即轻微拥堵状态。
本技术领域技术人员可以理解的是,除非另外定义,这里使用的所有术语(包括技术术语和科学术语)具有与本发明所属领域中的普通技术人员的一般理解相同的意义。 还应该理解的是,诸如通用字典中定义的那些术语应该被理解为具有与现有技术的上下 文中的意义一致的意义,并且除非像这里一样定义,不会用理想化或过于正式的含义来 解释。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详 细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在 本发明的保护范围之内。

Claims (9)

1.一种基于航拍视频的交通流参数提取方法,其特征在于,包括以下步骤:
步骤1)航拍图像获取
通过无人机采集得到航拍图像,并传输至远程服务器保存或保存于无人机上设置的存储设备中;
步骤2)动态背景补偿
选取首帧为参考帧,后续帧中某一帧为待补偿帧,采用Harris算法对参考帧和待补偿帧进行角点提取,进而采用模板匹配法对参考帧和待补偿帧中的角点进行粗匹配;在粗匹配的基础上,引入极线约束条件,运用RANSAC算法,剔除粗匹配中的错误匹配点对,实现精确匹配;最后根据精确匹配结果,求解透射变换矩阵,将待补偿帧进行透视变换,从而完成背景补偿;以此类推,对后续帧中的每一帧进行背景补偿;
步骤3)车辆提取
在基于动态背景补偿基础之上,采用基于像素灰度投票策略完成背景提取,从视频首帧开始连续选取若干帧进行背景建模;提取出背景后,利用背景减和形态腐蚀技术,提取出道路车辆;
步骤4)车辆跟踪
在检测出首帧的车辆位置后,采用基于多线程技术的检测跟踪复合算法跟踪后续帧中的所有车辆;
步骤5)交通特征参数提取
在检测和跟踪基础上,根据车辆的位置信息,结合视频帧率和以及像素与实际物理距离的关系,计算交通特征参数:平均行程速度、时间占有率;
步骤6)交通拥堵分析
利用平均行程速度和时间占有率作为交通拥堵分析基本指标,采用模糊理论技术,将路段的拥堵程度分为三个等级,为基本指标建立隶属度函数,根据基于加权的隶属度最大值来判定拥堵程度等级。
2.根据权利要求1所述的基于航拍图像的道路交通拥堵分析方法,其特征在于,所述步骤2)中Harris角点提取算法的详细步骤如下:
步骤2.1)假设一幅图像f,其中像素点记为I=(x,y),选取邻域窗口W∈f,然后平移窗口(Δx,Δy),求出其水平X方向、垂直Y方向的梯度值,再对图像进行高斯滤波,构造局部自相关矩阵M:
<mrow> <mi>M</mi> <mo>=</mo> <mi>W</mi> <mo>&amp;CircleTimes;</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mrow> <msup> <msub> <mi>I</mi> <mi>x</mi> </msub> <mn>2</mn> </msup> </mrow> </mtd> <mtd> <mrow> <msub> <mi>I</mi> <mi>x</mi> </msub> <msub> <mi>I</mi> <mi>y</mi> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>I</mi> <mi>x</mi> </msub> <msub> <mi>I</mi> <mi>y</mi> </msub> </mrow> </mtd> <mtd> <mrow> <msup> <msub> <mi>I</mi> <mi>y</mi> </msub> <mn>2</mn> </msup> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow>
式中,Ix为点I的X方向的梯度值;Iy为点I的Y方向的梯度值;代表卷积运算;W代表高斯窗口:
<mrow> <mi>W</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <mi>exp</mi> <mo>&amp;lsqb;</mo> <mfrac> <mrow> <mo>-</mo> <mrow> <mo>(</mo> <msup> <mi>x</mi> <mn>2</mn> </msup> <mo>+</mo> <msup> <mi>y</mi> <mn>2</mn> </msup> <mo>)</mo> </mrow> </mrow> <mrow> <mn>2</mn> <msup> <mi>&amp;sigma;</mi> <mn>2</mn> </msup> </mrow> </mfrac> <mo>&amp;rsqb;</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>2</mn> <mo>)</mo> </mrow> </mrow>
步骤2.2)计算每个像素点的Harries角点响应函数R(M):
R(M)=Det(M)-β·trace2(M) (3)
式中,β是经验参数,通常取0.02~0.05;Det(M)代表矩阵M行列式值;trace(M)代表矩阵M的迹;当R(M)的绝对值较小时,点处于平坦位置,当R(M)为负值且较大时,点处于边界上,当R(M)为正值且较大时,点处在角点位置,则只要对R(M)给定一个门限阈值T,当响应值R(M)大于T则认为是一个有意义的角点;
步骤2.3)抑制非极大值,去除伪角点:以像素点I为中心,取一定大小的模板窗口,对一个角点的邻域内,用当前窗口中心角点的响应值填充一个模板,然后用模板覆盖区域里的角点和模板值大小比较,保留大值的角点,抑制小响应值的角点。
3.根据权利要求2所述的基于航拍图像的道路交通拥堵分析方法,其特征在于,所述步骤2)中模板匹配法的详细步骤如下:
步骤3.1)在参考帧中选择某个特征点及其邻域窗口H1
步骤3.2)在待补偿帧中选择某个特征点及其邻域窗口H2
步骤3.3)将两个窗口H1和H2内的像素值用公式4进行计算,记录下S;
<mrow> <mi>S</mi> <mo>=</mo> <mfrac> <mrow> <munder> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </munder> <msup> <mrow> <mo>(</mo> <msub> <mi>I</mi> <mn>1</mn> </msub> <mo>(</mo> <mrow> <mi>x</mi> <mo>+</mo> <mi>i</mi> <mo>,</mo> <mi>y</mi> <mo>+</mo> <mi>j</mi> </mrow> <mo>)</mo> <mo>-</mo> <msub> <mi>I</mi> <mn>2</mn> </msub> <mo>(</mo> <mrow> <msup> <mi>x</mi> <mo>&amp;prime;</mo> </msup> <mo>+</mo> <mi>i</mi> <mo>,</mo> <msup> <mi>y</mi> <mo>&amp;prime;</mo> </msup> <mo>+</mo> <mi>j</mi> </mrow> <mo>)</mo> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> <mrow> <msqrt> <mrow> <munder> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </munder> <msup> <mrow> <mo>(</mo> <msub> <mi>I</mi> <mn>1</mn> </msub> <mo>(</mo> <mrow> <mi>x</mi> <mo>+</mo> <mi>i</mi> <mo>,</mo> <mi>y</mi> <mo>+</mo> <mi>j</mi> </mrow> <mo>)</mo> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msqrt> <msqrt> <mrow> <munder> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </munder> <msup> <mrow> <mo>(</mo> <msub> <mi>I</mi> <mn>2</mn> </msub> <mo>(</mo> <mrow> <msup> <mi>x</mi> <mo>&amp;prime;</mo> </msup> <mo>+</mo> <mi>i</mi> <mo>,</mo> <msup> <mi>y</mi> <mo>&amp;prime;</mo> </msup> <mo>+</mo> <mi>j</mi> </mrow> <mo>)</mo> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msqrt> </mrow> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>4</mn> <mo>)</mo> </mrow> </mrow>
步骤3.4)依次选择待补偿帧中其他特征点及其邻域窗口,重复步骤3.3),选择所有求得的S中最小的对应的特征点窗口,作为参考帧中该特征点在待补偿帧中匹配的特征点;
步骤3.5)依次选择待补偿帧中所有特征点,重复步骤3.1)到3.4),完成所有特征点匹配。
4.根据权利要求3所述的基于航拍图像的道路交通拥堵分析方法,其特征在于,所述步骤2)中精确匹配的详细步骤如下:
步骤4.1)设定一次抽取到的4对匹配点能够构成最优基础矩阵的概率W,以及模型校验允许的最大误差ε;
步骤4.2)根据公式(5)计算最大迭代次数,设拟合定概率P则可以求出迭代次数k的值;
k=log1-W(1-P) (5)
步骤4.3)从粗匹配集中随机取出4组匹配点对,根据公式(6),其中u和u'为匹配点对,并计算对应的基础矩阵F;
u'TFu=0 (6)
步骤4.4)对粗匹配集中剩下的点进行模型校验,合计计算得到的点坐标和匹配点真实点坐标在误差ε的范围内的匹配点对数量;
步骤4.5)迭代计数加1,重复步骤4.3和4.4,直到迭代次数达到上限;
步骤4.6)选出所有模型中满足匹配点数量最多的模型为最优模型,其对应的基础矩阵为最优基础矩阵;
步骤4.7)利用最优基础矩阵,剔除不满足误差ε的范围内的匹配点对,得到精确匹配集。
5.根据权利要求4所述的基于航拍图像的道路交通拥堵分析方法,其特征在于,步骤2)中透射变换矩阵的求解详细步骤如下:
步骤5.1)设定一次抽取到的4对匹配点能够构成最优透射变换矩阵的概率W,以及模型校验允许的最大误差ε;
步骤5.2)根据公式(5)计算最大迭代次数,设拟合定概率P则可以求出迭代次数k的值;
步骤5.3)从精确匹配集中随机取出4组匹配点对,并计算对应的透射变换矩阵;
步骤5.4)对精确匹配集中剩下的点进行模型校验,合计计算得到的点坐标和匹配点真实点坐标在误差ε的范围内的匹配点对数量;
步骤5.5)迭代计数加1,重复步骤5.3)和5.4),直到迭代次数达到上限;
步骤5.6)选出所有模型中满足匹配点数量最多的模型为最优模型,其对应的透射变换矩阵为最优透射变换矩阵。
6.根据权利要求1所述的基于航拍图像的道路交通拥堵分析方法,其特征在于,步骤3)中基于像素灰度投票策略完成背景提取的详细步骤如下:
步骤6.1)设队列长度L,背景调节最大步长为δ,计数器初始值比例为q;
步骤6.2)取L帧图像进入队列,用投票法计算每个像素点的背景灰度Z(x,y)并生成背景图Z;
步骤6.3)取下一帧图像进入队列尾,将队列头的图像从队列中排除;
步骤6.4)再次用投票法计算每个像素点的背景灰度Z'(x,y);
步骤6.5)若新的背景灰度Z'(x,y)-Z(x,y)>δ,则背景灰度保持Z(x,y),并启动计数器;
步骤6.6)重复步骤6.3和6.4,若更新的背景灰度在计数器计数期间内一直保持在Z'(x,y)±δ的范围内,则更新背景灰度Z(x,y)=Z'(x,y);
步骤6.7)循环重复步骤6.3至6.6。
7.根据权利要求1所述的基于航拍图像的道路交通拥堵分析方法,其特征在于,所述步骤4)中基于多线程技术的检测跟踪复合算法的详细步骤如下:
步骤7.1)令计数器j=0,检测线程开始检测序列图像第一帧中的车辆,并将检测结果包括车辆数量和位置信息等保存至全局车辆对象detectCarInfo,同时开启跟踪线程,并初始化车辆模型和初始位置;
步骤7.2)j=j+1,读入下一帧图像,判断j%3==0,如果成立,则跳转至步骤7.3,反之不跳转;同时判断j%5==0,如果成立,跳转至步骤7.4,反之,不跳转,保持detectCarInfo不更新;跟踪线程持续进行车辆跟踪,结束后跳转至步骤7.5;
步骤7.3)检测线程读取j+2帧图像进行检测,并将检测结果保存至temp对象;
步骤7.4)比较temp和detectCarInfo对象属性中的车辆总数,如果前者大于后者,根据车辆位置信息相对应地将temp赋值给detectCarInfo,并重新初始化车辆模型,其余情况不做操作,保持detectCarInfo不更新,返回步骤7.2;
步骤7.5)若视频序列未结束,则返回步骤7.2。
8.根据权利要求1所述的基于航拍图像的道路交通拥堵分析方法,其特征在于,所述步骤5)中平均行程速度的详细计算步骤如下:
基于航拍图像的平均行程速度计算公式如下:
<mrow> <mtable> <mtr> <mtd> <mrow> <mover> <mi>v</mi> <mo>&amp;OverBar;</mo> </mover> <mo>=</mo> <mrow> <mo>(</mo> <mi>I</mi> <mo>&amp;times;</mo> <mi>N</mi> <mo>)</mo> </mrow> <mo>/</mo> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <msub> <mi>t</mi> <mi>i</mi> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>=</mo> <mrow> <mo>(</mo> <mfrac> <msub> <mi>L</mi> <mrow> <mi>l</mi> <mi>i</mi> <mi>n</mi> <mi>e</mi> </mrow> </msub> <msub> <mi>L</mi> <mrow> <mi>p</mi> <mi>i</mi> <mi>x</mi> <mi>e</mi> <mi>l</mi> </mrow> </msub> </mfrac> <mo>&amp;times;</mo> <msub> <mi>l</mi> <mrow> <mi>p</mi> <mi>i</mi> <mi>x</mi> <mi>e</mi> <mi>l</mi> </mrow> </msub> <mo>&amp;times;</mo> <mi>N</mi> <mo>)</mo> </mrow> <mo>/</mo> <mrow> <mo>(</mo> <mo>(</mo> <mrow> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <mrow> <mo>(</mo> <mrow> <msup> <msub> <mi>FV</mi> <mrow> <mi>i</mi> <mn>2</mn> </mrow> </msub> <mo>&amp;prime;</mo> </msup> <mo>-</mo> <msup> <msub> <mi>FV</mi> <mrow> <mi>i</mi> <mn>1</mn> </mrow> </msub> <mo>&amp;prime;</mo> </msup> </mrow> <mo>)</mo> </mrow> </mrow> <mo>)</mo> <mo>&amp;times;</mo> <mfrac> <mn>1</mn> <mrow> <mi>F</mi> <mi>P</mi> <mi>S</mi> </mrow> </mfrac> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> </mtable> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>7</mn> <mo>)</mo> </mrow> </mrow> 3
式中l代表跟踪区域路段的长度,单位为km,N代表在该路段在观测时段内的小时交通量(veh),ti代表观测时段内通过该路段的第i辆车所需的行程时间(s),FVi1'代表车辆接触跟踪区域时记录的当前帧数,FVi2'代表车身离开跟踪区域时记录的当前帧数,FPS代表视频的帧率,Lline代表车道分界线实际长度,单位为km,Lpixel代表车道分界线的成像的像素长度,lpixel代表跟踪区域路段的像素长度;
所述步骤5)中时间占有率的详细计算步骤如下:
基于航拍图像的时间占有率提取公式如下:
<mrow> <mtable> <mtr> <mtd> <mrow> <mi>O</mi> <mo>=</mo> <mrow> <mo>(</mo> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <msub> <mi>t</mi> <mi>i</mi> </msub> <mo>/</mo> <mi>T</mi> <mo>)</mo> </mrow> <mo>&amp;times;</mo> <mn>100</mn> <mi>%</mi> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>=</mo> <mrow> <mo>(</mo> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <mo>(</mo> <mrow> <msub> <mi>FO</mi> <mrow> <mi>i</mi> <mn>2</mn> </mrow> </msub> <mo>-</mo> <msub> <mi>FO</mi> <mrow> <mi>i</mi> <mn>1</mn> </mrow> </msub> </mrow> <mo>)</mo> <mo>&amp;times;</mo> <mfrac> <mn>1</mn> <mrow> <mi>F</mi> <mi>P</mi> <mi>S</mi> </mrow> </mfrac> <mo>/</mo> <mi>T</mi> <mo>)</mo> </mrow> <mo>&amp;times;</mo> <mn>100</mn> <mi>%</mi> </mrow> </mtd> </mtr> </mtable> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>8</mn> <mo>)</mo> </mrow> </mrow>
式中ti代表第i辆车的车身通过道路某断面占用的时间(s),N代表路段在观测时段内的小时交通量(veh),T代表总观测时间(s),FOi1代表车辆开始接触道路某断面时记录的当前帧数,FOi2代表车身离开该断面时记录的当前帧数,FPS代表视频的帧率。
9.根据权利要求8所述的基于航拍图像的道路交通拥堵分析方法,其特征在于,所述步骤6)中模糊理论技术的详细步骤如下:
步骤9.1)确定因素集和评判集
将城市主干道划分为A、B、C三个等级,因此评判集可以表示为V={畅通,轻微拥堵,严重拥堵};
选择时间占有率和平均行程速度作为评价指标,因此因素集可以表示为步骤9.2)确定因素集中每个因素的隶属函数
时间占有率的隶属函数为:
<mrow> <msub> <mi>u</mi> <mi>A</mi> </msub> <mrow> <mo>(</mo> <mi>O</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mn>1</mn> </mtd> <mtd> <mrow> <mi>O</mi> <mo>&amp;le;</mo> <mn>25</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>-</mo> <mfrac> <mn>1</mn> <mn>10</mn> </mfrac> <mi>O</mi> <mo>+</mo> <mn>3.5</mn> </mrow> </mtd> <mtd> <mrow> <mn>25</mn> <mo>&lt;</mo> <mi>O</mi> <mo>&lt;</mo> <mn>35</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <mrow> <mn>35</mn> <mo>&amp;le;</mo> <mi>O</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>9</mn> <mo>)</mo> </mrow> </mrow>
<mrow> <msub> <mi>u</mi> <mi>C</mi> </msub> <mrow> <mo>(</mo> <mi>O</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <mrow> <mn>0</mn> <mo>&amp;le;</mo> <mi>O</mi> <mo>&amp;le;</mo> <mn>45</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mfrac> <mn>1</mn> <mn>15</mn> </mfrac> <mi>O</mi> <mo>-</mo> <mn>3</mn> </mrow> </mtd> <mtd> <mrow> <mn>45</mn> <mo>&lt;</mo> <mi>O</mi> <mo>&lt;</mo> <mn>60</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mn>1</mn> </mtd> <mtd> <mrow> <mi>O</mi> <mo>&amp;GreaterEqual;</mo> <mn>60</mn> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>11</mn> <mo>)</mo> </mrow> </mrow>
其中A、B、C分别代表畅通状态、轻微拥堵状态、严重拥堵状态;
平均行程速度隶属函数为:
<mrow> <msub> <mi>u</mi> <mi>A</mi> </msub> <mrow> <mo>(</mo> <mover> <mi>v</mi> <mo>&amp;OverBar;</mo> </mover> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mn>1</mn> </mtd> <mtd> <mrow> <mn>70</mn> <mo>&amp;le;</mo> <mover> <mi>v</mi> <mo>&amp;OverBar;</mo> </mover> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mfrac> <mn>1</mn> <mn>25</mn> </mfrac> <mover> <mi>v</mi> <mo>&amp;OverBar;</mo> </mover> <mo>-</mo> <mfrac> <mn>9</mn> <mn>5</mn> </mfrac> </mrow> </mtd> <mtd> <mrow> <mn>45</mn> <mo>&lt;</mo> <mover> <mi>v</mi> <mo>&amp;OverBar;</mo> </mover> <mo>&lt;</mo> <mn>70</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <mrow> <mover> <mi>v</mi> <mo>&amp;OverBar;</mo> </mover> <mo>&amp;le;</mo> <mn>45</mn> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>12</mn> <mo>)</mo> </mrow> </mrow>
<mrow> <msub> <mi>u</mi> <mi>C</mi> </msub> <mrow> <mo>(</mo> <mover> <mi>v</mi> <mo>&amp;OverBar;</mo> </mover> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <mrow> <mover> <mi>v</mi> <mo>&amp;OverBar;</mo> </mover> <mo>&amp;GreaterEqual;</mo> <mn>35</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>-</mo> <mfrac> <mn>1</mn> <mn>15</mn> </mfrac> <mover> <mi>v</mi> <mo>&amp;OverBar;</mo> </mover> <mo>+</mo> <mfrac> <mn>7</mn> <mn>3</mn> </mfrac> </mrow> </mtd> <mtd> <mrow> <mn>20</mn> <mo>&lt;</mo> <mover> <mi>v</mi> <mo>&amp;OverBar;</mo> </mover> <mo>&lt;</mo> <mn>35</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mn>1</mn> </mtd> <mtd> <mrow> <mn>0</mn> <mo>&amp;le;</mo> <mover> <mi>v</mi> <mo>&amp;OverBar;</mo> </mover> <mo>&amp;le;</mo> <mn>20</mn> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>14</mn> <mo>)</mo> </mrow> </mrow>
其中A、B、C分别代表畅通状态、轻微拥堵状态、严重拥堵状态;
综上所述,可得模糊关系矩阵为
<mrow> <mi>R</mi> <mo>=</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mrow> <msub> <mi>u</mi> <mi>A</mi> </msub> <mrow> <mo>(</mo> <mi>O</mi> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mrow> <msub> <mi>u</mi> <mi>B</mi> </msub> <mrow> <mo>(</mo> <mi>O</mi> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mrow> <msub> <mi>u</mi> <mi>C</mi> </msub> <mrow> <mo>(</mo> <mi>O</mi> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>u</mi> <mi>A</mi> </msub> <mrow> <mo>(</mo> <mover> <mi>v</mi> <mo>&amp;OverBar;</mo> </mover> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mrow> <msub> <mi>u</mi> <mi>B</mi> </msub> <mrow> <mo>(</mo> <mover> <mi>v</mi> <mo>&amp;OverBar;</mo> </mover> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mrow> <msub> <mi>u</mi> <mi>C</mi> </msub> <mrow> <mo>(</mo> <mover> <mi>v</mi> <mo>&amp;OverBar;</mo> </mover> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>15</mn> <mo>)</mo> </mrow> </mrow>
步骤9.3)确定因素集的权重集
选择加权平均法,那么权重集可以表示为A=[a1,a2],其中a1+a2=1;a1表示时间占有率在评判上的重要程度;a2表示车辆平均行程速度在评判上的重要程度;取a1=0.4,a2=0.6,即权重向量A=[0.4,0.6];
步骤9.4)模糊变换,确定综合评判结果:
进行模糊变换B=A·R,归一化后得最终的综合评判集;
<mfenced open = "" close = ""> <mtable> <mtr> <mtd> <mrow> <mi>B</mi> <mo>=</mo> <mi>A</mi> <mo>&amp;CenterDot;</mo> <mi>R</mi> <mo>=</mo> <mo>&amp;lsqb;</mo> <mn>0.4</mn> <mo>,</mo> <mn>0.6</mn> <mo>&amp;rsqb;</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mrow> <msub> <mi>u</mi> <mi>A</mi> </msub> <mrow> <mo>(</mo> <mi>O</mi> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mrow> <msub> <mi>u</mi> <mi>B</mi> </msub> <mrow> <mo>(</mo> <mi>O</mi> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mrow> <msub> <mi>u</mi> <mi>C</mi> </msub> <mrow> <mo>(</mo> <mi>O</mi> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>u</mi> <mi>A</mi> </msub> <mrow> <mo>(</mo> <mover> <mi>v</mi> <mo>&amp;OverBar;</mo> </mover> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mrow> <msub> <mi>u</mi> <mi>B</mi> </msub> <mrow> <mo>(</mo> <mover> <mi>v</mi> <mo>&amp;OverBar;</mo> </mover> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mrow> <msub> <mi>u</mi> <mi>C</mi> </msub> <mrow> <mo>(</mo> <mover> <mi>v</mi> <mo>&amp;OverBar;</mo> </mover> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>=</mo> <mo>&amp;lsqb;</mo> <mn>0.4</mn> <msub> <mi>u</mi> <mi>A</mi> </msub> <mrow> <mo>(</mo> <mi>O</mi> <mo>)</mo> </mrow> <mo>+</mo> <mn>0.6</mn> <msub> <mi>u</mi> <mi>A</mi> </msub> <mrow> <mo>(</mo> <mover> <mi>v</mi> <mo>&amp;OverBar;</mo> </mover> <mo>)</mo> </mrow> <mo>,</mo> <mn>0.4</mn> <msub> <mi>u</mi> <mi>B</mi> </msub> <mrow> <mo>(</mo> <mi>O</mi> <mo>)</mo> </mrow> <mo>+</mo> <mn>0.6</mn> <msub> <mi>u</mi> <mi>B</mi> </msub> <mrow> <mo>(</mo> <mover> <mi>v</mi> <mo>&amp;OverBar;</mo> </mover> <mo>)</mo> </mrow> <mo>,</mo> <mn>0.4</mn> <msub> <mi>u</mi> <mi>C</mi> </msub> <mrow> <mo>(</mo> <mi>O</mi> <mo>)</mo> </mrow> <mo>+</mo> <mn>0.6</mn> <msub> <mi>u</mi> <mi>C</mi> </msub> <mrow> <mo>(</mo> <mover> <mi>v</mi> <mo>&amp;OverBar;</mo> </mover> <mo>)</mo> </mrow> <mo>&amp;rsqb;</mo> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>=</mo> <mo>&amp;lsqb;</mo> <msub> <mi>b</mi> <mi>A</mi> </msub> <mo>,</mo> <msub> <mi>b</mi> <mi>B</mi> </msub> <mo>,</mo> <msub> <mi>b</mi> <mi>C</mi> </msub> <mo>&amp;rsqb;</mo> </mrow> </mtd> </mtr> </mtable> </mfenced>
采取最大隶属度法,即选择综合评判集B=(b1,b2,…,bn)中隶属度最大的bj所对应的评判等级bj作为最终的评判结果;通过比较bA,bB,bC三个数值的大小,评判当前道路的交通拥堵程度为哪一等级。
CN201710268356.7A 2017-09-04 2017-09-04 基于航拍图像的道路交通拥堵分析方法 Pending CN107301369A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710268356.7A CN107301369A (zh) 2017-09-04 2017-09-04 基于航拍图像的道路交通拥堵分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710268356.7A CN107301369A (zh) 2017-09-04 2017-09-04 基于航拍图像的道路交通拥堵分析方法

Publications (1)

Publication Number Publication Date
CN107301369A true CN107301369A (zh) 2017-10-27

Family

ID=60137999

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710268356.7A Pending CN107301369A (zh) 2017-09-04 2017-09-04 基于航拍图像的道路交通拥堵分析方法

Country Status (1)

Country Link
CN (1) CN107301369A (zh)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108320510A (zh) * 2018-04-03 2018-07-24 深圳市智绘科技有限公司 一种基于无人机航拍视频交通信息统计方法及系统
CN108388540A (zh) * 2018-03-01 2018-08-10 兰州交通大学 基于模糊综合评价的道路网选取算法
CN108510739A (zh) * 2018-04-28 2018-09-07 重庆交通大学 一种道路交通状态识别方法、系统及存储介质
CN108564787A (zh) * 2018-05-31 2018-09-21 北京理工大学 基于浮动车法的交通观测方法、系统及设备
CN108682154A (zh) * 2018-06-19 2018-10-19 上海理工大学 基于车流状态变化深度学习分析的道路拥堵检测系统
CN108803651A (zh) * 2018-04-24 2018-11-13 上海工程技术大学 一种基于图像特征的无人机公路巡检方法
CN108986458A (zh) * 2018-07-04 2018-12-11 北京航空航天大学 一种基于空地协同的高速公路应急处置仿真系统及辅助决策方法
CN109272743A (zh) * 2018-08-03 2019-01-25 昆明理工大学 一种人工智能的拥堵检测系统
CN110136164A (zh) * 2019-05-21 2019-08-16 电子科技大学 基于在线透射变换、低秩稀疏矩阵分解去除动态背景的方法
CN110610118A (zh) * 2018-06-15 2019-12-24 杭州海康威视数字技术股份有限公司 交通参数采集方法及装置
CN110689720A (zh) * 2019-10-10 2020-01-14 成都携恩科技有限公司 基于无人机的实时动态车流量检测方法
CN110866081A (zh) * 2019-11-15 2020-03-06 合肥安慧软件有限公司 一种基于互联网地图的路况拥堵分析方法
CN111554087A (zh) * 2020-03-30 2020-08-18 长安大学 一种高速公路堵塞的预警方法
CN112115411A (zh) * 2020-08-21 2020-12-22 中国电子科技集团公司第十三研究所 位置漂移补偿方法、终端设备及可读性存储介质
WO2021031173A1 (zh) * 2019-08-20 2021-02-25 江苏金晓电子信息股份有限公司 一种基于双目摄像机的交通状态识别方法
CN112699854A (zh) * 2021-03-22 2021-04-23 亮风台(上海)信息科技有限公司 一种识别停止行驶车辆的方法与设备
CN112738532A (zh) * 2020-12-29 2021-04-30 哈尔滨工业大学芜湖机器人产业技术研究院 一种基于高斯滤波的dct块效应现象消除方法
CN114822043A (zh) * 2022-06-29 2022-07-29 长沙海信智能系统研究院有限公司 道路拥堵检测方法、装置及电子设备
CN116311913A (zh) * 2023-02-17 2023-06-23 成都和乐信软件有限公司 一种基于ai视频智能分析的高速路段拥堵分析方法及系统

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101807345A (zh) * 2010-03-26 2010-08-18 重庆大学 一种基于视频检测技术的交通拥堵判别方法
CN101923778A (zh) * 2009-09-11 2010-12-22 中山大学 一种基于视频的高速公路交通拥堵状态检测方法
CN102073846A (zh) * 2010-12-15 2011-05-25 同济大学 基于航拍图像的交通信息获取方法
CN102637357A (zh) * 2012-03-27 2012-08-15 山东大学 一种区域交通状态评价方法
CN102768804A (zh) * 2012-07-30 2012-11-07 江苏物联网研究发展中心 基于视频的交通信息采集方法
CN103226697A (zh) * 2013-04-07 2013-07-31 布法罗机器人科技(苏州)有限公司 快速车辆跟踪方法及装置
US20130197790A1 (en) * 2012-01-31 2013-08-01 Taif University Method and system for traffic performance analysis, network reconfiguration, and real-time traffic monitoring
CN103279736A (zh) * 2013-04-27 2013-09-04 电子科技大学 一种基于多信息邻域投票的车牌检测方法
CN103761876A (zh) * 2014-01-10 2014-04-30 山东大学 基于车路协同的道路交通信息采集与状态评价的方法
CN104021671A (zh) * 2014-05-16 2014-09-03 浙江银江研究院有限公司 一种svm与模糊判断相结合的道路实时路况的判断方法
CN105513354A (zh) * 2015-12-22 2016-04-20 电子科技大学 基于视频的城市道路交通拥堵检测系统
US20160171278A1 (en) * 2014-12-10 2016-06-16 Here Global B.V. Method and apparatus for providing one or more road conditions based on aerial imagery
CN106683119A (zh) * 2017-01-09 2017-05-17 河北工业大学 基于航拍视频图像的运动车辆检测方法
CN106781601A (zh) * 2016-11-24 2017-05-31 上海交通大学 基于三维视觉拼接的船舱内车辆定位跟踪系统与方法
CN107016675A (zh) * 2017-03-07 2017-08-04 南京信息工程大学 一种基于非局部时空特征学习的无监督视频分割方法

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101923778A (zh) * 2009-09-11 2010-12-22 中山大学 一种基于视频的高速公路交通拥堵状态检测方法
CN101807345A (zh) * 2010-03-26 2010-08-18 重庆大学 一种基于视频检测技术的交通拥堵判别方法
CN102073846A (zh) * 2010-12-15 2011-05-25 同济大学 基于航拍图像的交通信息获取方法
US20130197790A1 (en) * 2012-01-31 2013-08-01 Taif University Method and system for traffic performance analysis, network reconfiguration, and real-time traffic monitoring
CN102637357A (zh) * 2012-03-27 2012-08-15 山东大学 一种区域交通状态评价方法
CN102768804A (zh) * 2012-07-30 2012-11-07 江苏物联网研究发展中心 基于视频的交通信息采集方法
CN103226697A (zh) * 2013-04-07 2013-07-31 布法罗机器人科技(苏州)有限公司 快速车辆跟踪方法及装置
CN103279736A (zh) * 2013-04-27 2013-09-04 电子科技大学 一种基于多信息邻域投票的车牌检测方法
CN103761876A (zh) * 2014-01-10 2014-04-30 山东大学 基于车路协同的道路交通信息采集与状态评价的方法
CN104021671A (zh) * 2014-05-16 2014-09-03 浙江银江研究院有限公司 一种svm与模糊判断相结合的道路实时路况的判断方法
US20160171278A1 (en) * 2014-12-10 2016-06-16 Here Global B.V. Method and apparatus for providing one or more road conditions based on aerial imagery
CN105513354A (zh) * 2015-12-22 2016-04-20 电子科技大学 基于视频的城市道路交通拥堵检测系统
CN106781601A (zh) * 2016-11-24 2017-05-31 上海交通大学 基于三维视觉拼接的船舱内车辆定位跟踪系统与方法
CN106683119A (zh) * 2017-01-09 2017-05-17 河北工业大学 基于航拍视频图像的运动车辆检测方法
CN107016675A (zh) * 2017-03-07 2017-08-04 南京信息工程大学 一种基于非局部时空特征学习的无监督视频分割方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
GIUSEPPE SALVOA 等: "Urban traffic analysis through an UAV", 《PROCEDIA - SOCIAL AND BEHAVIORAL SCIENCES》 *
刘振华 等: "改进的航拍图像序列背景运动补偿技术", 《计算机工程》 *
张德才 等: "基于模糊综合评判理论的路网交通状态判别方法", 《公路交通科技 应用技术版》 *
李竹林等编著: "《图像立体匹配技术及其发展和应用》", 31 July 2007, 西安:陕西科学技术出版社 *
杨化超著: "《图像局部不变性特征及其匹配问题研究与应用》", 31 December 2013, 北京:测绘出版社 *
王川童: "基于视频处理的城市道路交通拥堵判别技术研究", 《中国优秀硕士学位论文全文数据库 信息科技辑(月刊)》 *

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108388540A (zh) * 2018-03-01 2018-08-10 兰州交通大学 基于模糊综合评价的道路网选取算法
CN108320510A (zh) * 2018-04-03 2018-07-24 深圳市智绘科技有限公司 一种基于无人机航拍视频交通信息统计方法及系统
CN108803651B (zh) * 2018-04-24 2021-07-09 上海工程技术大学 一种基于图像特征的无人机公路巡检方法
CN108803651A (zh) * 2018-04-24 2018-11-13 上海工程技术大学 一种基于图像特征的无人机公路巡检方法
CN108510739A (zh) * 2018-04-28 2018-09-07 重庆交通大学 一种道路交通状态识别方法、系统及存储介质
CN108564787A (zh) * 2018-05-31 2018-09-21 北京理工大学 基于浮动车法的交通观测方法、系统及设备
CN110610118A (zh) * 2018-06-15 2019-12-24 杭州海康威视数字技术股份有限公司 交通参数采集方法及装置
CN108682154A (zh) * 2018-06-19 2018-10-19 上海理工大学 基于车流状态变化深度学习分析的道路拥堵检测系统
CN108682154B (zh) * 2018-06-19 2021-03-16 上海理工大学 基于车流状态变化深度学习分析的道路拥堵检测系统
CN108986458A (zh) * 2018-07-04 2018-12-11 北京航空航天大学 一种基于空地协同的高速公路应急处置仿真系统及辅助决策方法
CN109272743A (zh) * 2018-08-03 2019-01-25 昆明理工大学 一种人工智能的拥堵检测系统
CN110136164A (zh) * 2019-05-21 2019-08-16 电子科技大学 基于在线透射变换、低秩稀疏矩阵分解去除动态背景的方法
CN110136164B (zh) * 2019-05-21 2022-10-25 电子科技大学 基于在线透射变换、低秩稀疏矩阵分解去除动态背景的方法
WO2021031173A1 (zh) * 2019-08-20 2021-02-25 江苏金晓电子信息股份有限公司 一种基于双目摄像机的交通状态识别方法
CN110689720A (zh) * 2019-10-10 2020-01-14 成都携恩科技有限公司 基于无人机的实时动态车流量检测方法
CN110866081A (zh) * 2019-11-15 2020-03-06 合肥安慧软件有限公司 一种基于互联网地图的路况拥堵分析方法
CN110866081B (zh) * 2019-11-15 2023-03-28 合肥安慧软件有限公司 一种基于互联网地图的路况拥堵分析方法
CN111554087B (zh) * 2020-03-30 2021-07-23 长安大学 一种高速公路堵塞的预警方法
CN111554087A (zh) * 2020-03-30 2020-08-18 长安大学 一种高速公路堵塞的预警方法
CN112115411A (zh) * 2020-08-21 2020-12-22 中国电子科技集团公司第十三研究所 位置漂移补偿方法、终端设备及可读性存储介质
CN112115411B (zh) * 2020-08-21 2024-04-16 中国电子科技集团公司第十三研究所 位置漂移补偿方法、终端设备及可读性存储介质
CN112738532A (zh) * 2020-12-29 2021-04-30 哈尔滨工业大学芜湖机器人产业技术研究院 一种基于高斯滤波的dct块效应现象消除方法
CN112699854B (zh) * 2021-03-22 2021-07-20 亮风台(上海)信息科技有限公司 一种识别停止行驶车辆的方法与设备
CN112699854A (zh) * 2021-03-22 2021-04-23 亮风台(上海)信息科技有限公司 一种识别停止行驶车辆的方法与设备
CN114822043A (zh) * 2022-06-29 2022-07-29 长沙海信智能系统研究院有限公司 道路拥堵检测方法、装置及电子设备
CN114822043B (zh) * 2022-06-29 2022-09-13 长沙海信智能系统研究院有限公司 道路拥堵检测方法、装置及电子设备
CN116311913A (zh) * 2023-02-17 2023-06-23 成都和乐信软件有限公司 一种基于ai视频智能分析的高速路段拥堵分析方法及系统
CN116311913B (zh) * 2023-02-17 2024-01-12 成都和乐信软件有限公司 一种基于ai视频智能分析的高速路段拥堵分析方法及系统

Similar Documents

Publication Publication Date Title
CN107301369A (zh) 基于航拍图像的道路交通拥堵分析方法
Cai et al. Deep learning-based video system for accurate and real-time parking measurement
CN108921875A (zh) 一种基于航拍数据的实时车流检测与追踪方法
CN110378931A (zh) 一种基于多摄像头的行人目标移动轨迹获取方法及系统
Zhang et al. A traffic surveillance system for obtaining comprehensive information of the passing vehicles based on instance segmentation
CN104599502B (zh) 一种基于视频监控的车流量统计方法
CN101950426B (zh) 一种多摄像机场景下车辆接力跟踪方法
CN110717414A (zh) 一种目标检测追踪方法、装置及设备
CN104680559B (zh) 基于运动行为模式的多视角室内行人跟踪方法
EP2713308B1 (en) Method and system for using fingerprints to track moving objects in video
CN103049751A (zh) 一种改进的加权区域匹配高空视频行人识别方法
CN106875424A (zh) 一种基于机器视觉的城市环境行驶车辆行为识别方法
CN104978567B (zh) 基于场景分类的车辆检测方法
CN107491720A (zh) 一种基于改进型卷积神经网络的车型识别方法
CN110210474A (zh) 目标检测方法及装置、设备及存储介质
CN109871763A (zh) 一种基于yolo的特定目标跟踪方法
CN109492583A (zh) 一种基于深度学习的车辆重识别方法
CN102156985A (zh) 基于虚拟卡口的行人及车辆数目计数方法
CN107452015A (zh) 一种具有重检测机制的目标跟踪系统
CN110276785A (zh) 一种抗遮挡红外目标跟踪方法
CN103150552B (zh) 一种基于人头计数的驾驶培训管理方法
CN111062971B (zh) 一种基于深度学习多模态的跨摄像头泥头车追踪方法
CN104517095A (zh) 一种基于深度图像的人头分割方法
CN103794050A (zh) 一种实时的交通车辆检测与跟踪方法
CN106203261A (zh) 基于svm和surf的无人车野外水体检测与跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20171027