CN117152974A - 一种全自动轨迹自适应分析的交通流量高精计算方法 - Google Patents

一种全自动轨迹自适应分析的交通流量高精计算方法 Download PDF

Info

Publication number
CN117152974A
CN117152974A CN202311435083.2A CN202311435083A CN117152974A CN 117152974 A CN117152974 A CN 117152974A CN 202311435083 A CN202311435083 A CN 202311435083A CN 117152974 A CN117152974 A CN 117152974A
Authority
CN
China
Prior art keywords
track
traffic flow
traffic
detection
queue
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311435083.2A
Other languages
English (en)
Other versions
CN117152974B (zh
Inventor
黎木平
王森
张炳振
陈振武
许建荣
刘宇鸣
张枭勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Urban Transport Planning Center Co Ltd
Original Assignee
Shenzhen Urban Transport Planning Center Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Urban Transport Planning Center Co Ltd filed Critical Shenzhen Urban Transport Planning Center Co Ltd
Priority to CN202311435083.2A priority Critical patent/CN117152974B/zh
Publication of CN117152974A publication Critical patent/CN117152974A/zh
Application granted granted Critical
Publication of CN117152974B publication Critical patent/CN117152974B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/065Traffic control systems for road vehicles by counting the vehicles in a section of the road or in a parking area, i.e. comparing incoming count with outgoing count
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明公开了一种全自动轨迹自适应分析的交通流量高精计算方法,属于交通流量检测技术领域。解决了现有技术中交通流量计算方法在复杂真实交通环境难以自动精准配置虚拟检测区域的问题;本发明借助城市监控视频数据通过基于YOLOv5目标检测神经网络和DeepSort多目标跟踪算法的检测跟踪模块对在线或离线视频进行逐帧分析提取交通车辆检测跟踪信息,基于核密度估计算法构建了多边形配置区域自动生成方法,基于有效性函数对轨迹队列进行有效性动态分析,得到有效轨迹存入车流统计队列,提取出交通流量数据显示交通现状。本发明实现了在摄像头遮挡导致多边形配置区域偏移情况下高精度检测车流量,可以应用于复杂交通环境中检测车辆流量。

Description

一种全自动轨迹自适应分析的交通流量高精计算方法
技术领域
本发明涉及一种交通流量计算方法,尤其涉及一种全自动轨迹自适应分析的交通流量高精计算方法,属于交通流量检测技术领域。
背景技术
随着城市化进程的不断加速,交通流量监测成为了城市规划和智慧交通领域的关键需求。现有的交通流量监测方法多基于传感器、摄像头或雷达等设备,但现有方法在成本、维护和准确度方面存在一定局限性,其中,基于超声波、毫米波雷达等传感设备存在工程复杂、费用高昂及获得的信息量小等问题,而通过路侧监控摄像头的方法,可以获得丰富的交通信息,包括车辆类型、车辆位置、车流量、车流密度和车速等,但现有视频交通流量检测方法受限于设备布局、环境变化和数据噪声等因素,需要依赖专业人员手动配置检测虚拟线或多边形区域,并且由于监控摄像头存在遮挡和移动等问题,需要定期维护路侧监控摄像头,现有方法在复杂环境中存在较大的检测误差,无法大规模部署应用。
现有技术中,公开(公告)号为CN104504913B的专利文件中公开了一种视频车流检测方法及装置,改善了现有视频检测方法仅能在视频角度较正面的场景中检测出运动车辆目标,不能满足实际需求的问题,包括:获得预设检测区域的道路交通视频信息;从获得的道路交通视频信息中,逐帧提取图像,获得各帧的灰度图像和无车状况下的灰度背景图像;获得背景差分图像;判断背景差分图像中是否存在车辆轮廓,是则将车辆轮廓进行计数;否则对背景差分图像进行分割,针对分割至每个车道中的背景差分图像的部分信息,判断是否存在符合预设规则的车辆轮廓,是则将不同车道中符合预设规则的车辆轮廓分别进行计数。虽然该方法可以从存在一定角度的视频场景中检测出运动车辆,但基于背景差分的方法对环境光线、天气等变化非常敏感,对于背景变化较大的场景,如道路上有移动的标志、广告牌等情况,以及在恶劣天气或光线不均匀的情况下,可能会出现较高的误检率和漏检率,影响检测准确性;在判断是否存在符合预设规则的车辆轮廓时,可能会受到预设规则设置的影响,如果预设规则不够全面或不够准确,可能会导致漏检或误检,在道路交通复杂、交通流密集的情况下,背景差分方法还可能会出现较高的误检率,因为交通流量大、车辆密集时,背景差分图像会包含大量非车辆的变化;另外逐帧提取图像、进行背景差分、分割和计数等步骤需要消耗大量的计算资源,可能导致运行速度较慢,不适用于实时监测。
公开(公告)号为CN107292297A的专利文件中公开了一种基于深度学习和重叠率跟踪的视频车流量检测方法,利用深度学习建立一个深度学习模型,向建立的深度学习模型中输入大量已标注的数据进行训练,以实现检测一张图像中物体的功能,最后达到的效果就是提供一张图像,输入深度网络,提取出该图像出现车的位置,即框,随后利用深度学习模型检测出的车辆结果进行车流量的统计,通过计算车辆检测过程中提取出的框的重叠率来判断车辆数量是否增加。虽然该方法能够在实时检测车流量的同时,解决视频车流量检测中多次出现同一辆车的问题,但SSD目标检测模型未对视角变化的数据集做微调训练,也没有进行任何改善的处理手段,由于深度学习模型的训练往往是基于特定角度和视角的数据,当交通监控摄像头的视角发生变化时,模型可能会失去准确性,使得模型难以有效地检测和识别车辆;该方法通过重叠率跟踪来判断车辆数量是否增加,需要设置适当的重叠率阈值,由于视角变化,车辆在图像中的位置和尺寸可能会发生变化,过高或过低的阈值都可能导致计数不准确,使重叠率的计算出现偏差。
公开(公告)号为CN108847035B的专利文件中公开了一种车流量评估方法及装置,应用于交通技术领域,包括:利用静态摄像单元获取包括目标检测路段的图像的视频图像序列;在该视频图像序列中的目标检测路段的图像上设置虚拟检测线,根据该虚拟检测线获取在各单位时间内经过该目标检测路段的车流量;根据模糊理论设置模糊车流量,并计算该车流量隶属于该模糊车流量的隶属值,根据该隶属值对该车流量进行评估。虽然该方法可以提高车流量计算的准确性和车流量评估的效率,但可能会因为摄像头移动导致目标检测路段的图像发生变化,虚拟检测线的位置则会发生偏移或失去准确性,影响车流量的准确计算;如果摄像头发生移动,可能需要重新标定虚拟检测线和其他相关参数,耗费时间和资源,同时可能会影响评估方法的持续性和实时性;模糊理论可以应用于处理不确定性和模糊性的问题,但在道路交通复杂、交通流密集的情况下,过度应用模糊理论可能导致评估结果的模糊化,影响对车流量状况的准确理解。
综上所述,现有的基于视频的交通流量计算方法较多依赖专业人员手工配置虚拟检测线或检测区域,且摄像头发生遮挡和移动等情况会导致计算精度降低,如在密集车流下因遮挡引起的跟踪ID跳变与丢失、复杂的路网结构导致流量计算方法的通用性低等问题,摄像头定期维护还会造成大量时间和资源被消耗,因此,急需一种能够适用于复杂环境的采用多视角监控摄像头全自动高精度检测交通流量的方法。
发明内容
在下文中给出了关于本发明的简要概述,以便提供关于本发明的某些方面的基本理解。应当理解,这个概述并不是关于本发明的穷举性概述。它并不是意图确定本发明的关键或重要部分,也不是意图限定本发明的范围。其目的仅仅是以简化的形式给出某些概念,以此作为稍后论述的更详细描述的前序。
鉴于此,为解决现有技术中交通流量计算方法在复杂真实交通环境中难以自动精准配置虚拟检测区域的问题,本发明提供一种全自动轨迹自适应分析的交通流量高精计算方法。
技术方案如下:一种全自动轨迹自适应分析的交通流量高精计算方法,包括以下步骤:
S1.将摄像头采集的在线或离线视频输入检测跟踪模块中,通过基于YOLOv5目标检测神经网络和DeepSort多目标跟踪算法的检测跟踪模块对在线或离线视频进行逐帧分析,得到交通车辆检测跟踪结果;
具体的:所述交通车辆检测跟踪结果包括交通车辆的跟踪ID、类型、位置和置信度;
S2.判断在线或离线视频中是否自动生成多边形配置区域;
具体的:
将首次处理轨迹点位的在线或离线视频和路侧交通摄像头中发生遮挡或移动的监控摄像头采集的在线或离线视频判定为未生成多边形配置区域的视频,对首次处理点位的在线或离线视频进行截取,当视频中跟踪轨迹集合的轨迹数量足够进行预处理时停止;
将非首次处理轨迹点位的在线或离线视频和路侧交通摄像头中未发生遮挡或移动的摄像头采集的在线或离线视频判定为已生成多边形配置区域的视频;
S3.对未生成多边形配置区域的视频,通过跟踪轨迹集合自动生成多边形配置区域;
具体的:
S31.对跟踪轨迹集合进行预处理,得到过滤离群点后的轨迹数据;
S32.对过滤离群点后的轨迹数据进行缩放,得到缩放后的外接矩形范围,随后进行分类,得到分类后的轨迹数据;
S33.对分类后的轨迹数据通过岭回归算法进行拟合并通过核密度估计算法进行聚类,得到轨迹主要方向并判断出当前轨迹方向,对缩放后的外接矩形进行划分;
S34.根据缩放后的外接矩形和当前轨迹方向,生成多边形配置区域;
S4.对已生成多边形配置区域的视频,进行检测区域内完整轨迹的自适应分析;
具体的:
S41.进行轨迹队列更新;
S42.根据有效性函数对轨迹队列进行有效性动态分析,将有效轨迹存入车流统计队列,将无效轨迹存入轨迹维护队列;
S43.进行轨迹队列维护;
S5.获得交通车辆轨迹自适应分析结果后,汇总车流统计队列的交通流量数据分类保存。
进一步地,所述S31中,通过读取跟踪轨迹集合的车辆轨迹数据,对轨迹进行离群点检测,采用局部离群因子算法进行无监督异常轨迹点检测,过滤掉离群点,得到过滤离群点后的轨迹数据;
所述S32中,获取每条轨迹的中点坐标,对其进行缩放,缩放系数为0.8,得到缩放后的外接矩形范围,随后根据轨迹方向斜率进行分类,将轨迹分为正向和反向,如果分类失败则返回S2循环上述操作,直到得到分类后的轨迹数据;
所述S33中,通过岭回归对分类后的轨迹数据中的轨迹点进行拟合,计算轨迹曲线斜率,采用核密度估计算法进行轨迹方向聚类,通过在每个轨迹点附近放置一个核函数,将核函数的值进行加权平均来估计概率密度,如果聚类失败则返回S2循环上述操作,直到得到轨迹主要方向,根据聚类得到的轨迹主要方向向量和当前轨迹向量的夹角判断出当前轨迹方向,通过当前轨迹方向对缩放后的外接矩形进行划分;
核密度估计表示为:
其中,为核密度估计,/>为独立同分布轨迹样本,/>为样本数量,/>为带宽参数,/>表示核函数;
所述S34中,根据轨迹主要方向所在直线和缩放后的外接矩形的相交点,计算出凸包,得到多边形配置区域。
进一步地,所述S41中,对于出现新的轨迹点的轨迹,判断轨迹的中心点是否在多边形配置区域内,如果是,将轨迹存入轨迹队列并进行记录,否则重新采集轨迹的中心点进行判断;
所述S42中,如果轨迹的跟踪ID在多边形配置区域外检测超过设定帧数,根据有效性函数对轨迹进行轨迹有效性动态分析,如果轨迹有效值为1,则轨迹有效,将其存入车流统计队列中,如果轨迹有效值为0,则轨迹无效,将其存入轨迹维护队列中;
有效性函数表示为:
其中,为轨迹有效值,/>为首尾点有效值,取值为0,则表示首尾点无效,取值为1,则表示首尾点有效,/>为长度有效值,取值为0,则表示长度无效,取值为1,则表示长度有效;
首尾点有效值表示为:
其中,为轨迹的长度,/>为配置区域周长,/>为最短边长度,/>为多边形配置区域的边数,/>为/>和/>的最小值;
长度有效值表示为:
其中,为轨迹首点与多边形配置区域的最短距离,/>为轨迹尾点与配置区域的最短距离,/>为图像的宽度,/>为图像的高度,/>为首尾点分析动态距离阈值,/>为首尾点分析动态距离差阈值,/>,/>为首尾点有效值系数,取值为0.005;
所述S43中,对轨迹队列中跟踪ID超过设定时间未出现的轨迹和维护队列的轨迹再次进行S42中的轨迹有效性动态分析。
进一步地,所述S5中,将实时交通流量数据存入数据库中,将离线交通流量数据存入离线视频或文本中。
本发明的有益效果如下:本发明借助城市监控视频数据通过基于YOLOv5目标检测神经网络和DeepSort多目标跟踪算法的检测跟踪模块对在线或离线视频进行逐帧分析提取交通车辆检测跟踪信息,无需现场安装其他设备,节省大量成本;提出了多边形配置区域自动生成方法,可以直接应用到不同视角、不同位置的摄像头上,定期自动生成与维护,避免了摄像头遮挡或移动导致的多边形配置区域偏移错位的问题,降低了运行和维护的成本,可以在复杂交通环境中大规模部署以及应用;采用有效性函数对检测区域内的完整轨迹进行有效性动态分析,将有效轨迹存入车流统计队列,提取其交通流量数据即可显示出车辆交通流量现状;本发明鲁棒性高且计算参数少,运行过程中能够快速响应且结果有效可靠。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本发明的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1为一种全自动轨迹自适应分析的交通流量高精计算方法流程示意图;
图2为自动生成多边形配置区域流程示意图;
图3为轨迹自适应分析流程示意图。
具体实施方式
为了使本发明实施例中的技术方案及优点更加清楚明白,以下结合附图对本发明的示例性实施例进行进一步详细的说明,显然,所描述的实施例仅是本发明的一部分实施例,而不是所有实施例的穷举。需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
参考图1-3详细说明本实施例,一种全自动轨迹自适应分析的交通流量高精计算方法,具体包括以下步骤:
S1.将摄像头采集的在线或离线视频输入检测跟踪模块中,通过基于YOLOv5目标检测神经网络和DeepSort多目标跟踪算法的检测跟踪模块对在线或离线视频进行逐帧分析,得到交通车辆检测跟踪结果;
具体的:所述交通车辆检测跟踪结果包括交通车辆的跟踪ID、类型、位置和置信度;
S2.判断在线或离线视频中是否自动生成多边形配置区域;
具体的:
将首次处理轨迹点位的在线或离线视频和路侧交通摄像头中发生遮挡或移动的监控摄像头采集的在线或离线视频判定为未生成多边形配置区域的视频,对首次处理点位的在线或离线视频进行截取,当视频中跟踪轨迹集合的轨迹数量足够进行预处理时停止;
将非首次处理轨迹点位的在线或离线视频和路侧交通摄像头中未发生遮挡或移动的摄像头采集的在线或离线视频判定为已生成多边形配置区域的视频;
S3.对未生成多边形配置区域的视频,通过跟踪轨迹集合自动生成多边形配置区域;
具体的:
S31.对跟踪轨迹集合进行预处理,得到过滤离群点后的轨迹数据;
S32.对过滤离群点后的轨迹数据进行缩放,得到缩放后的外接矩形范围,随后进行分类,得到分类后的轨迹数据;
S33.对分类后的轨迹数据通过岭回归算法进行拟合并通过核密度估计算法进行聚类,得到轨迹主要方向并判断出当前轨迹方向,对缩放后的外接矩形进行划分;
S34.根据缩放后的外接矩形和当前轨迹方向,生成多边形配置区域;
S4.对已生成多边形配置区域的视频,进行检测区域内完整轨迹的自适应分析;
具体的:
S41.进行轨迹队列更新;
S42.根据有效性函数对轨迹队列进行有效性动态分析,将有效轨迹存入车流统计队列,将无效轨迹存入维护队列;
S43.进行轨迹队列维护;
S5.获得交通车辆轨迹自适应分析结果后,汇总车流统计队列的交通流量数据分类保存;
具体的:YOLOv5目标检测神经网络可以直接从原始图像中检测和定位车辆,其使用卷积神经网络(CNN)来学习图像中的目标特征,并使用多尺度预测和网格分割来检测和定位目标,YOLOv5目标检测神经网络的优势在于可以高速运行,且适用于不同的图像分辨率;基于深度学习的DeepSort多目标跟踪算法可以在目标跟踪过程中提取目标的表观特征进行最近邻匹配,有效改善遮挡情况下的目标追踪效果;本实施例中YOLOv5目标检测神经网络和DeepSort多目标跟踪算法可以采用交通环境中的路侧监控多视角摄像头的数据集根据实际需求进行微调,如在YOLOv5目标检测神经网络中增加检测层使其对远距离车辆检测更加精准,最终实现对图像中车辆的框选标记及跟踪;对首次处理轨迹点位的在线或离线视频进行截取时,可以先截取时长5分钟的跟踪轨迹集合,如果轨迹数量过少则继续截取,直到满足预处理所需轨迹数量。
进一步地,所述S31中,通过读取跟踪轨迹集合的车辆轨迹数据,对轨迹进行离群点检测,采用局部离群因子(Local Outlier Factor,LOF)算法进行无监督异常轨迹点检测,过滤掉离群点,得到过滤离群点后的轨迹数据;
所述S32中,获取每条轨迹的中点坐标,对其进行缩放,缩放系数为0.8,得到缩放后的外接矩形范围,随后根据轨迹方向斜率进行分类,将轨迹分为正向和反向,如果分类失败则返回S2循环上述操作,直到得到分类后的轨迹数据;
所述S33中,通过岭回归(Ridge Regression)对分类后的轨迹数据中的轨迹点进行拟合,计算轨迹曲线斜率,采用核密度估计(Kernel Density Estimation)算法进行轨迹方向聚类,通过在每个轨迹点附近放置一个核函数,将核函数的值进行加权平均来估计概率密度,如果聚类失败则返回S2循环上述操作,直到得到轨迹主要方向,根据聚类得到的轨迹主要方向向量和当前轨迹向量的夹角判断出当前轨迹方向,通过当前轨迹方向对缩放后的外接矩形进行划分;
核密度估计表示为:
其中,为核密度估计,/>为独立同分布轨迹样本,/>为样本数量,/>为带宽参数,取值为0.1,/>表示核函数,选择高斯核函数;
所述S34中,根据轨迹主要方向所在直线和缩放后的外接矩形的相交点,计算出凸包,得到多边形配置区域;
具体的,局部离群因子算法的原理在于根据数据点周围的数据密集情况,首先计算每个数据点的一个局部可达密度,其次通过局部可达密度进一步计算得到每个数据点的一个离群因子,离群因子即标识了一个数据点的离群程度,因子值越大,表示离群程度越高,因子值越小,表示离群程度越低,最后输出离群程度最大的离群点组,即异常轨迹点组;采用岭回归对轨迹点进行拟合,优点在于可以有效解决多重共线性问题,提高轨迹曲线斜率的精准度;核密度估计算法中通过调整带宽参数h和核函数类型可以影响估计的概率密度曲线的平滑程度和形状;交通路段中车辆行驶同一道路分为正向和反向,通过当前轨迹方向对缩放后的外接矩形进行划分,可以将实际情况中的同一道路的相反方向的轨迹分割区别,再通过轨迹主要方向所在直线和缩放后的外接矩形的相交点计算出凸包,对不同方向的轨迹生成多边形配置区域,得到同一道路的两个检测区域。
进一步地,所述S41中,对于出现新的轨迹点的轨迹,判断轨迹的中心点是否在多边形配置区域内,如果是,将轨迹存入轨迹队列并进行记录,否则重新采集轨迹的中心点进行判断;
所述S42中,如果轨迹的跟踪ID在多边形配置区域外检测超过设定帧数,根据有效性函数对轨迹进行轨迹有效性动态分析,如果轨迹有效值为1,则轨迹有效,将其存入车流统计队列中,如果轨迹有效值为0,则轨迹无效,将其存入轨迹维护队列中;
有效性函数表示为:
其中,为轨迹有效值,/>为首尾点有效值,取值为0,则表示首尾点无效,取值为1,则表示首尾点有效,/>为长度有效值,取值为0,则表示长度无效,取值为1,则表示长度有效;
首尾点有效值表示为:
其中,为轨迹的长度,/>为配置区域周长,/>为最短边长度,/>为多边形配置区域的边数,/>为/>和/>的最小值;
长度有效值表示为:
其中,为轨迹首点与多边形配置区域的最短距离,/>为轨迹尾点与配置区域的最短距离,/>为图像的宽度,/>为图像的高度,/>为首尾点分析动态距离阈值,/>为首尾点分析动态距离差阈值,/>,/>为首尾点有效值系数,取值为0.005;
所述S43中,对轨迹队列中跟踪ID超过设定时间未出现的轨迹和维护队列的轨迹再次进行S42中的轨迹有效性动态分析;
具体的,本实施例中,设定帧数为3帧,设定时间为800,单位为ms。
进一步地,所述S5中,将实时交通流量数据存入数据库中,将离线交通流量数据存入离线视频或文本中。
尽管根据有限数量的实施例描述了本发明,但是受益于上面的描述,本技术领域内的技术人员明白,在由此描述的本发明的范围内,可以设想其它实施例。此外,应当注意,本说明书中使用的语言主要是为了可读性和教导的目的而选择的,而不是为了解释或者限定本发明的主题而选择的。因此,在不偏离所附权利要求书的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。对于本发明的范围,对本发明所做的公开是说明性的,而非限制性的,本发明的范围由所附权利要求书限定。

Claims (4)

1.一种全自动轨迹自适应分析的交通流量高精计算方法,其特征在于,包括以下步骤:
S1.将摄像头采集的在线或离线视频输入检测跟踪模块中,通过基于YOLOv5目标检测神经网络和DeepSort多目标跟踪算法的检测跟踪模块对在线或离线视频进行逐帧分析,得到交通车辆检测跟踪结果;
具体的:所述交通车辆检测跟踪结果包括交通车辆的跟踪ID、类型、位置和置信度;
S2.判断在线或离线视频中是否自动生成多边形配置区域;
具体的:
将首次处理轨迹点位的在线或离线视频和路侧交通摄像头中发生遮挡或移动的监控摄像头采集的在线或离线视频判定为未生成多边形配置区域的视频,对首次处理点位的在线或离线视频进行截取,当视频中跟踪轨迹集合的轨迹数量足够进行预处理时停止;
将非首次处理轨迹点位的在线或离线视频和路侧交通摄像头中未发生遮挡或移动的摄像头采集的在线或离线视频判定为已生成多边形配置区域的视频;
S3.对未生成多边形配置区域的视频,通过跟踪轨迹集合自动生成多边形配置区域;
具体的:
S31.对跟踪轨迹集合进行预处理,得到过滤离群点后的轨迹数据;
S32.对过滤离群点后的轨迹数据进行缩放,得到缩放后的外接矩形范围,随后进行分类,得到分类后的轨迹数据;
S33.对分类后的轨迹数据通过岭回归算法进行拟合并通过核密度估计算法进行聚类,得到轨迹主要方向并判断出当前轨迹方向,对缩放后的外接矩形进行划分;
S34.根据缩放后的外接矩形和当前轨迹方向,生成多边形配置区域;
S4.对已生成多边形配置区域的视频,进行检测区域内完整轨迹的自适应分析;
具体的:
S41.进行轨迹队列更新;
S42.根据有效性函数对轨迹队列进行有效性动态分析,将有效轨迹存入车流统计队列,将无效轨迹存入维护队列;
S43.进行轨迹队列维护;
S5.获得交通车辆轨迹自适应分析结果后,汇总车流统计队列的交通流量数据分类保存。
2.根据权利要求1所述的一种全自动轨迹自适应分析的交通流量高精计算方法,其特征在于,所述S31中,通过读取跟踪轨迹集合的车辆轨迹数据,对轨迹进行离群点检测,采用局部离群因子算法进行无监督异常轨迹点检测,过滤掉离群点,得到过滤离群点后的轨迹数据;
所述S32中,获取每条轨迹的中点坐标,对其进行缩放,缩放系数为0.8,得到缩放后的外接矩形范围,随后根据轨迹方向斜率进行分类,将轨迹分为正向和反向,如果分类失败则返回S2循环上述操作,直到得到分类后的轨迹数据;
所述S33中,通过岭回归对分类后的轨迹数据中的轨迹点进行拟合,计算轨迹曲线斜率,采用核密度估计算法进行轨迹方向聚类,通过在每个轨迹点附近放置一个核函数,将核函数的值进行加权平均来估计概率密度,如果聚类失败则返回S2循环上述操作,直到得到轨迹主要方向,根据聚类得到的轨迹主要方向向量和当前轨迹向量的夹角判断出当前轨迹方向,通过当前轨迹方向对缩放后的外接矩形进行划分;
核密度估计表示为:
其中,为核密度估计,/>为独立同分布轨迹样本,/>为样本数量,/>为带宽参数,表示核函数;
所述S34中,根据轨迹主要方向所在直线和缩放后的外接矩形的相交点,计算出凸包,得到多边形配置区域。
3.根据权利要求2所述的一种全自动轨迹自适应分析的交通流量高精计算方法,其特征在于,所述S41中,对于出现新的轨迹点的轨迹,判断轨迹的中心点是否在多边形配置区域内,如果是,将轨迹存入轨迹队列并进行记录,否则重新采集轨迹的中心点进行判断;
所述S42中,如果轨迹的跟踪ID在多边形配置区域外检测超过设定帧数,根据有效性函数对轨迹进行轨迹有效性动态分析,如果轨迹有效值为1,则轨迹有效,将其存入车流统计队列中,如果轨迹有效值为0,则轨迹无效,将其存入轨迹维护队列中;
有效性函数表示为:
其中,为轨迹有效值,/>为首尾点有效值,取值为0,则表示首尾点无效,取值为1,则表示首尾点有效,/>为长度有效值,取值为0,则表示长度无效,取值为1,则表示长度有效;
首尾点有效值表示为:
其中,为轨迹的长度,/>为配置区域周长,/>为最短边长度,/>为多边形配置区域的边数,/>为/>和/>的最小值;
长度有效值表示为:
其中,为轨迹首点与多边形配置区域的最短距离,/>为轨迹尾点与配置区域的最短距离,/>为图像的宽度,/>为图像的高度,/>为首尾点分析动态距离阈值,/>为首尾点分析动态距离差阈值,/>,/>为首尾点有效值系数,取值为0.005;
所述S43中,对轨迹队列中跟踪ID超过设定时间未出现的轨迹和维护队列的轨迹再次进行S42中的轨迹有效性动态分析。
4.根据权利要求3所述的一种全自动轨迹自适应分析的交通流量高精计算方法,其特征在于,所述S5中,将实时交通流量数据存入数据库中,将离线交通流量数据存入离线视频或文本中。
CN202311435083.2A 2023-11-01 2023-11-01 一种全自动轨迹自适应分析的交通流量高精计算方法 Active CN117152974B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311435083.2A CN117152974B (zh) 2023-11-01 2023-11-01 一种全自动轨迹自适应分析的交通流量高精计算方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311435083.2A CN117152974B (zh) 2023-11-01 2023-11-01 一种全自动轨迹自适应分析的交通流量高精计算方法

Publications (2)

Publication Number Publication Date
CN117152974A true CN117152974A (zh) 2023-12-01
CN117152974B CN117152974B (zh) 2024-02-27

Family

ID=88906643

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311435083.2A Active CN117152974B (zh) 2023-11-01 2023-11-01 一种全自动轨迹自适应分析的交通流量高精计算方法

Country Status (1)

Country Link
CN (1) CN117152974B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104504913A (zh) * 2014-12-25 2015-04-08 珠海高凌环境科技有限公司 视频车流检测方法及装置
CN110472496A (zh) * 2019-07-08 2019-11-19 长安大学 一种基于目标检测与跟踪的交通视频智能分析方法
US20210201676A1 (en) * 2019-12-31 2021-07-01 Zoox, Inc. Emergency vehicle detection and response
CN113869177A (zh) * 2021-09-18 2021-12-31 温州大学大数据与信息技术研究院 一种用于跟踪多目标的方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104504913A (zh) * 2014-12-25 2015-04-08 珠海高凌环境科技有限公司 视频车流检测方法及装置
CN110472496A (zh) * 2019-07-08 2019-11-19 长安大学 一种基于目标检测与跟踪的交通视频智能分析方法
US20210201676A1 (en) * 2019-12-31 2021-07-01 Zoox, Inc. Emergency vehicle detection and response
CN113869177A (zh) * 2021-09-18 2021-12-31 温州大学大数据与信息技术研究院 一种用于跟踪多目标的方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
周勇等: "融合改进YOLO和背景差分的道路抛洒物检测算法", 交通信息与安全, vol. 40, no. 5, pages 112 - 119 *

Also Published As

Publication number Publication date
CN117152974B (zh) 2024-02-27

Similar Documents

Publication Publication Date Title
CN102542289B (zh) 一种基于多高斯计数模型的人流量统计方法
Song et al. Vehicle behavior analysis using target motion trajectories
CN103632382A (zh) 一种基于压缩感知的实时多尺度目标跟踪方法
Bedruz et al. Real-time vehicle detection and tracking using a mean-shift based blob analysis and tracking approach
CN108776974A (zh) 一种适用于公共交通场景的实时目标跟踪方法
CN110674674A (zh) 一种基于yolo v3的旋转目标检测方法
CN113516853B (zh) 一种针对复杂监控场景的多车道车流量检测方法
CN111259796A (zh) 一种基于图像几何特征的车道线检测方法
CN106780560A (zh) 一种基于特征融合粒子滤波的仿生机器鱼视觉跟踪方法
CN112100435A (zh) 一种基于边缘端交通音视频同步样本的自动标注方法
CN109636834A (zh) 基于tld改进算法的视频车辆目标跟踪算法
CN116109986A (zh) 一种基于激光雷达和视频技术互补的车辆轨迹提取方法
CN107247967B (zh) 一种基于r-cnn的车窗年检标检测方法
Qing et al. A novel particle filter implementation for a multiple-vehicle detection and tracking system using tail light segmentation
CN102063726B (zh) 一种运动目标分类方法和系统
CN117636268A (zh) 一种面向冰雪环境的无人机航拍自然驾驶数据集构建方法
CN105335688A (zh) 一种基于视觉图像的飞机机型识别方法
Pletzer et al. Robust traffic state estimation on smart cameras
Gong et al. Complex lane detection based on dynamic constraint of the double threshold
CN117152974B (zh) 一种全自动轨迹自适应分析的交通流量高精计算方法
CN112329671A (zh) 一种基于深度学习的行人奔跑行为检测方法及相关组件
Zakaria et al. Particle swarm optimization and support vector machine for vehicle type classification in video stream
CN115984772A (zh) 一种基于视频监控的道路积水检测方法及终端
CN112215109B (zh) 基于场景分析的车辆检测方法及系统
Praphananurak et al. A framework for origin-destination estimation using license plate recognition for Thai rural traffic

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant