CN113177508B - 一种行车信息的处理方法、装置及设备 - Google Patents
一种行车信息的处理方法、装置及设备 Download PDFInfo
- Publication number
- CN113177508B CN113177508B CN202110542408.1A CN202110542408A CN113177508B CN 113177508 B CN113177508 B CN 113177508B CN 202110542408 A CN202110542408 A CN 202110542408A CN 113177508 B CN113177508 B CN 113177508B
- Authority
- CN
- China
- Prior art keywords
- vehicle
- edge
- data
- driving
- ambiguity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 238000012545 processing Methods 0.000 title claims abstract description 19
- 230000010365 information processing Effects 0.000 claims abstract description 12
- 230000033001 locomotion Effects 0.000 claims description 90
- 238000001514 detection method Methods 0.000 claims description 60
- 238000004422 calculation algorithm Methods 0.000 claims description 28
- 238000004364 calculation method Methods 0.000 claims description 19
- 238000000605 extraction Methods 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 3
- 238000003672 processing method Methods 0.000 claims 5
- 230000008447 perception Effects 0.000 description 21
- 230000004927 fusion Effects 0.000 description 16
- 230000008569 process Effects 0.000 description 12
- 238000012937 correction Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 6
- 239000003086 colorant Substances 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 5
- 238000012549 training Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000007405 data analysis Methods 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000006798 recombination Effects 0.000 description 2
- 238000005215 recombination Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013523 data management Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000013439 planning Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000013024 troubleshooting Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
Abstract
本发明提供一种行车信息的处理方法、装置及设备,涉及行车信息处理技术领域,所述方法包括:获取行车记录设备采集的行车数据;对所述行车数据进行边缘特征提取,得到车辆边缘特征值;根据所述车辆边缘特征值进行边缘模糊度计算,得到车辆边缘模糊度;根据所述车辆边缘模糊度,得到所述车辆所处交通环境中至少一个车辆的行驶轨迹。本发明的方案可以根据行车数据获取车辆的行驶轨迹,提高数据的实效性,更好地指导道路交通决策。
Description
技术领域
本发明涉及行车信息处理技术领域,特别是指一种行车信息的处理方法、装置及设备。
背景技术
解决交通拥堵和安全问题的途径之一是监测道路交通流状态,合理分配道路交通流,实时为驾驶员提供出行路径规划,从而及时疏导拥堵路段交通流,不仅减少道路交通事故的发生,也同时提高了道路交通通行效率。但是在以往基于视频的交通流检测应用中,由于检测设备数量的限制,通常只能检测局部路段的交通流状态。此外,路侧视频检测设备放置于室外,受到自然环境(如雨、雪、雾等)、检测距离的影响,导致视频质量下降,进而影响交通流检测精度。
随着目前车路协同系统的发展,车路通讯和智能云计算为全息道路交通状态感知和数据融合技术的实现提供支持。该技术主要涉及实时图像识别和多源数据融合问题,是机器视觉和数据分析领域的结合,主要基于图像识别和数据融合技术。目前该技术至少存在如下问题:
无法实现道路交通的全息感知,无法为自动驾驶场景下的车辆驾驶决策提供参考;
在多源数据存储、分析和管理方面还存在一定不足和欠缺。同时缺乏对多源交通数据的融合、分析,单一检测设备往往受到设备检测精度、外界环境的影响导致检测效率低下、采集数据不完全的结果,无法为道路交通提供准确指导;
出现车辆边缘断边、虚报等问题,无法为车辆特征提取提供数据支撑;单纯依靠以车辆为主的定位难以满足高精度的定位需求,无法在车辆行驶过程中实时修正定位的误差,使得设备记录、回传到云端的车辆状态信息存在偏差。
发明内容
本发明要解决的技术问题是如何提供一种行车信息的处理方法、装置及设备。可以根据行车数据获取车辆的行驶轨迹,提高数据的实效性,更好地指导道路交通决策,也为未来的自动驾驶场景下的识别提供可靠的数据来源。
为解决上述技术问题,本发明的技术方案如下:
一种行车信息的处理方法,所述方法包括:
获取行车记录设备采集的行车数据;
对所述行车数据进行边缘特征提取,得到车辆边缘特征值;
根据所述车辆边缘特征值进行边缘模糊度计算,得到车辆边缘模糊度;
根据所述车辆边缘模糊度,得到所述车辆所处交通环境中至少一个车辆的行驶轨迹。
可选的,所述获取行车记录设备采集的行车数据,包括:
获取所述行车记录设备采集的图像数据、位置数据和时间戳中的至少一项。
可选的,所述对所述行车数据进行边缘特征提取,得到车辆边缘特征值,包括:
对所述行车数据中的图像数据,基于灰度图像识别算法识别出车辆边缘线和/或基于彩色图像识别算法识别出车辆边缘模糊区域。
可选的,所述基于灰度图像识别算法识别出车辆边缘线,包括:
对所述行车数据中的图像数据,基于灰度图像识别算法进行所述灰度图像信息离散化,得到离散结果;
对所述离散结果,进行卷积计算,提取车辆边缘点;
分析所述边缘点所在区域,将该区域内每个点与其他点之间最近的点用直线连接,形成车辆边缘多边形D(x,y)。
可选的,所述基于彩色图像识别算法识别出车辆边缘模糊区域,包括:
对所述行车数据中的图像数据,识别出像素点的颜色R、颜色G、颜色B、饱和度S、亮度V;
可选的,所述根据所述车辆边缘特征值进行边缘模糊度计算,得到车辆边缘模糊度,包括:
通过I=max|D(x,y)-Sign(xi,y)|,(xi,y)∈M,得到所述车辆边缘模糊度;
可选的,所述根据所述车辆边缘模糊度,得到所述车辆所处交通环境中至少一个车辆的行驶轨迹,包括:
根据所述车辆边缘模糊度,识别车辆的车速以及车辆的位置;
根据所述车辆边缘模糊度、所述车辆的车速以及所述车辆的位置,得到前方车辆的运动状态记录数据;
将所述前方车辆的运动状态记录数据与路侧设备记录的多个车辆的运动状态记录数据进行合并,得到多个车辆的运动轨迹,或者将所述前方车辆的运动状态记录数据与道路环境数据进行融合,得到所述车辆所处交通环境中至少一车辆的行驶轨迹;
按时间戳将多个车辆的行驶轨迹进行融合,输出所述车辆所处交通环境中至少一个车辆的行驶轨迹。
可选的,所述根据所述车辆边缘模糊度,识别车辆的车速以及车辆的位置,包括:
将所述车辆边缘模糊度以及所述行车记录设备采集的视频数据,输入预设车速识别模型,得到前方车辆相对于当前车辆的相对速度;
根据所述行车数据中的前方车辆的位置数据以及当前车辆与前方车辆之间的距离,校正前方车辆的位置数据。
可选的,所述将所述前方车辆的运动状态记录数据与路侧设备记录的多个车辆的运动状态记录数据进行合并,得到多个车辆的运动轨迹,包括:
根据所述前方车辆边缘模糊度、所述前方车辆的车速以及前方车辆的位置形成前方车辆的运动状态记录数据;
获得所述路侧设备记录的车辆的运动状态记录数据;
将所述前方车辆的运动状态记录数据与所述路侧设备记录的运动状态记录数据按时间顺序合并,获得多个车辆的行驶轨迹。
可选的,所述将所述前方车辆的运动状态记录数据与道路环境数据进行融合,得到所述车辆所处交通环境中至少一车辆的行驶轨迹,包括:
将时间戳、车辆的位置、车型、颜色相同的运动状态记录数据和路侧设备的交通检测数据进行融合,得到所述车辆所处交通环境中至少一车辆的行驶轨迹。
本发明的实施例还提供一种行车信息的处理装置,包括:
获取模块,用于获取行车记录设备采集的行车数据;
提取模块,用于对所述行车数据进行边缘特征提取,得到车辆边缘特征值;
计算模块,用于根据所述车辆边缘特征值进行边缘模糊度计算,得到车辆边缘模糊度;
输出模块,用于根据所述车辆边缘模糊度,得到所述车辆所处交通环境中至少一个车辆的行驶轨迹。
本发明的实施例还提供一种行车信息的处理设备,包括:
采集装置,用于获取行车记录设备采集的行车数据;
处理器,用于对所述行车数据进行边缘特征提取,得到车辆边缘特征值;根据所述车辆边缘特征值进行边缘模糊度计算,得到车辆边缘模糊度;根据所述车辆边缘模糊度,得到所述车辆所处交通环境中至少一个车辆的行驶轨迹。
本发明的实施例还提供一种处理器设备,包括:处理器、存储有计算机程序的存储器,所述计算机程序被处理器运行时,执行如上所述的方法。
本发明的实施例还提供一种计算机可读存储介质,存储指令,当所述指令在计算机上运行时,使得计算机执行如上所述的方法。
本发明的上述方案至少包括以下有益效果:
通过获取行车记录设备采集的行车数据;对所述行车数据进行边缘特征提取,得到车辆边缘特征值;根据所述车辆边缘特征值进行边缘模糊度计算,得到车辆边缘模糊度;根据所述车辆边缘模糊度,得到所述车辆所处交通环境中至少一个车辆的行驶轨迹。提高数据的实效性,更好地指导道路交通决策,也为未来的自动驾驶场景下的识别提供可靠的数据来源。
附图说明
图1是本发明实施例的行车信息的处理方法的流程示意图;
图2是本发明实施例的行车信息的处理方法的一具体实现流程图;
图3是本发明实施例的车辆的前方车辆位置示意图;
图4是本发明实施例的行车信息的处理装置的模块框示意图;
图5是本发明实施例的行车信息的处理设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
如图1所示,本发明的实施例提供一种行车信息的处理方法,所述方法包括:
步骤11,获取行车记录设备采集的行车数据;行车数据可以包括:图像数据、位置数据和时间戳中的至少一项,图像数据、位置数据以及时间戳具有对应关系,行车数据也可以进一步发送给路侧设备;
步骤12,对所述行车数据进行边缘特征提取,得到车辆边缘特征值;
步骤13,根据所述车辆边缘特征值进行边缘模糊度计算,得到车辆边缘模糊度;
步骤14,根据所述车辆边缘模糊度,得到所述车辆所处交通环境中至少一个车辆的行驶轨迹。
该实施例中,通过获取行车记录设备采集的行车数据;对所述行车数据进行边缘特征提取,得到车辆边缘特征值;根据所述车辆边缘特征值进行边缘模糊度计算,得到车辆边缘模糊度;根据所述车辆边缘模糊度,得到所述车辆所处交通环境中至少一个车辆的行驶轨迹。提高数据的实效性,更好地指导道路交通决策,也为未来的自动驾驶场景下的识别提供可靠的数据来源。
本发明的一可选的实施例中,步骤12可以包括:
步骤121,对所述行车数据中的图像数据,基于灰度图像识别算法识别出车辆边缘线和/或基于彩色图像识别算法识别出车辆边缘模糊区域。
其中,基于灰度图像识别算法识别出车辆边缘线,包括:
步骤1211,对所述行车数据中的图像数据,基于灰度图像识别算法进行灰度图像信息离散化,得到离散结果;
步骤1212,对所述离散结果,进行卷积计算,提取车辆边缘点;
步骤1213,分析边缘点所在区域,将该区域内每个点与其他点之间最近的点用直线连接,形成车辆边缘多边形D(x,y)。
具体实现时,车辆的外形可以认为是一个较为规则的多边形,在判断图像中的某个点是否为车辆的边缘时,通过该点的一阶导数计算边缘的强度和方向。考虑到梯度的定以仅限于连续函数,在计算过程中为了分析灰度图像中所有的点,即得到每个像素点的梯度,需要将灰度图像信离散化,并采用增量近似梯度
在边缘识别的过程中采用边缘识别算子,即固定大小的模板对图像进行卷积计算。
原矩阵中新的中心像素可以表示为:
Pic=P11C11+P12C21+…+Pn(n-1)C(n-1)n+PnnCnn
由于车辆一般都具有规则、对称的外形,选用sobel算子提取车辆边缘特征,分析各对称边缘点所在区域,将该区域内每个点与其他点之间最近的点用直线连接,形成车辆边缘多边形D(x,y)。
本发明的一可选的实施例中,基于彩色图像识别算法识别出车辆边缘模糊区域,包括:
步骤1214,对所述行车数据中的图像数据,识别出像素点的颜色R、颜色G、颜色B、饱和度S、亮度V;
具体实现时,前后车辆之间存在相对速度时,将对行车记录仪中的成像造成一定的影响。由于图像的本质是不同颜色的像素点,因而也可以直接分析图像的色彩。对于彩色图像而言,采用RGB、饱和度S、亮度V定义不同的颜色,其中RGB有三个维度,即分别采用0-255之间的数字表示红色R、绿色G、蓝色B的比重,饱和度和亮度都是采用0-100%来表示,数值越大,颜色饱和度越高,色彩越明亮。本发明采用以上五维指标,建立各像素点的色彩特征模型C(R,G,B,S,V)。为了分析评价不同像素点之间的颜色、饱和度、亮度差异,采用梯度描述各维数据数值的变化。与灰度图像的梯度计算类似,采用增量近似各色彩特征的梯度。
通常情况下,同一物体的颜色相近即相邻像素点的色彩指标梯度值较小。若计算出的较大则说明该点位于物体的边缘。随着车辆间相对速度的增加,由行车记录仪拍摄到的图像边缘处特征相近的像素点增加,通过规定合适的阈值以划分可能属于物体边缘的像素区域,并给属于物体边缘的像素标记相应的标签。
其中,Threshold为物体边缘像素判定的阈值,其中包含对RGB、饱和度S、亮度V极限梯度的定义。由Sign=1的所有车辆边缘点构成的点集为M。
本发明的一可选的实施例中,步骤13可以包括:
步骤131,通过I=max|D(x,y)-Sign(xi,y)|,(xi,y)∈M,得到车辆边缘模糊度;
该实施例中,针对灰度图像识别出的多边形车辆边缘线中的各点,计算其周围一定范围内与其纵坐标相同的点横坐标之差。通过对灰度图像和彩色图像的车辆边缘识别方法,采用两种方法识别出的边缘差异最大值作为物体边缘模糊程度的评价指标。
本发明的一可选的实施例中,步骤14可以包括:
步骤141,根据车辆边缘模糊度,识别车辆的车速以及车辆的位置;
步骤142,根据所述车辆边缘模糊度、车辆的车速以及车辆的位置,得到前方车辆的运动状态记录数据;
步骤143,将所述前方车辆的运动状态记录数据与路侧设备记录的多个车辆的运动状态记录数据进行合并,得到多个车辆的运动轨迹,或者将所述前方车辆的运动状态记录数据与道路环境数据进行融合,得到所述车辆所处交通环境中至少一车辆的行驶轨迹;
步骤144,按时间戳将多个车辆的行驶轨迹进行融合,输出所述车辆所处交通环境中至少一个车辆的行驶轨迹。
该实施例中,基于深度学习的车速识别模型,结合物体识别、物体边缘模糊指标、车辆速度标签建立用于模型训练的数据特征和标签,同时建立模型的训练集和测试集。首先采用物体识别的算法框架,检测出图像中的车辆,作为车速识别的兴趣区域。接着根据兴趣区域内的车辆边缘模糊评价指标和前方车辆图像作为模型的输入,以前方车辆与当前车辆的相对速度作为模型标签,训练深度学习模型。当模型在测试集上的准确度达到95%以上时,认为模型可以用于实际驾驶场景中的前方车车辆的车速识别。
行车记录仪在车辆上的安装位置与视频拍摄的范围关系较大,在相机确定位置后要先对相机的检测效果进行标定。标定可以采用边缘清晰的静止物体,如交通标志、道路标线、路灯等,通过车辆以不同的速度行驶,得到静止物体和车辆之间的相对速度。根据对比深度学习车速识别模型的输出和实际相对速度间的差值,校正相机偏差,实现相机标定。
在实际驾驶过程中,采用完成标定的行车记录仪拍摄车辆前方道路情况。车辆速度的识别采用训练完成的模型,以视频图像、边缘模糊评价指标为模型的输入,实时输出前方车辆的车速,并与时间戳同时记录。
该实施例中,在车路协同的环境下,车辆可以实时向智能路侧单元发送车辆位置信息,但是GPS定位存在误差。由于车辆在道路中的定位误差不仅影响车辆的纵向位置,同时还影响其在相应车道的准确定位,因此本实施例通过视频图像当中道路交通场景中的特殊构造物、标志标线等精确定位以实现车辆GPS定位校正。首先需要确定道路上的车道线、交通标志、里程桩、交叉口等的位置,为了与保证其与GPS信息的一致性,以经度L和纬度B坐标表示其标准位置。同时,由于在画面中的物体都是具有一定高度,多数情况只能拍摄到路侧物体的上半部分。因此还需要同时确定这些物体的大地高H,即用于定位误差校正的物体信息为(L,B,H)。考虑到高度H的测定通常以地面为基准,因此在相机标定时需要标定板、结合路面标线实现二维图像与三维空间距离的对应,以在不同纵坡的情况下精准确定水平距离、纵向距离和角度。
基于图像识别算法车道标线位置、标线类别、路侧护栏等的准确识别,在视频图像中建立与路面在同一平面的虚拟定位校正框。根据车辆边缘线确定虚拟框的两侧框线,进而测算得到标定板两侧边缘的夹角,以计算出虚拟框线的纵向单位距离在图像中的长度,构建完整的虚拟测距框。
结合当前车辆的高斯坐标系的坐标(x,y)和车辆距离计算,得到前方车辆的高斯坐标(x+Δx,y+Δy)。进而采用高斯反算公式计算出前方车辆的经纬度。
式中:
在实际检测的过程中,将检测得的前方车辆的车速、经纬度与时间戳同时记录,随着行车记录仪拍摄时间的增加,可以实现对检测车前方车辆的轨迹、运动状态的实时记录。在车路通讯的环境下,将以上信息发送至智能路侧单元,则可通过在道路中少量车辆的行车记录视频感知整体道路交通情况,避免因部分车主不愿意上传数据导致交通状态信息不完整,同时也充分利用现有的设备资源,弥补以往单纯基于路侧交通流感知设备感知范围的缺陷。
该实施例中,在运用基于行车记录仪视频图像的车辆运动状态感知时,道路中有许多车辆装有行车记录仪。而从每个行车记录仪的数据中都能获得时间序列的车辆运动数据。将每个数据集中的车型、颜色相同的记录合并,并按照时间顺序排列,进而得到每一辆车在道路中的运行状态和行驶轨迹。
该实施例中,由于多源检测数据来自于多个行车记录仪,视频检测设备的精度不同导致数据与实际情况有一定的偏差。但是对于单个行车记录仪视频检测而言,由于缺少准确的车辆运行状态检测信息,无法确定车辆状态感知的准确度。考虑到路侧交通状态感知设备已发展得较为完善,基于现有的路侧视频交通检测技术,将路侧设备感知得到的车辆位置、速度、外形特征作为标准数据,为行车记录仪检测数据的误差修正提供参考。
根据路侧视频检测的范围,划定路侧视频检测的区域。同时,在路侧视频检测设备上安装5G通讯设备,以保证路侧视频检测数据可以实时发送给过往的车辆。当车辆进入该路段后,路侧智能基础设施通过5G通讯技术将路侧视频检测范围发送给车辆。车辆结合自身的GPS定位信息,判断当前是否处于该区域内部。若车辆处于路侧视频检测的范围内,则收到由路侧设备发送的该范围内所有车辆的运动状态信息,其中包括各车辆的位置、速度、外形特征、时间戳。由于路侧视频检测和行车记录仪视频图像识别的数据内容有所不同,在数据融合时可以将其中相同的部分用于误差修正,同时根据时间戳将同一车辆的不同类别信息进行合并。
在校正行车记录仪视频图像识别数据误差时,考虑到路侧视频检测设备与车辆的距离较远,很难对车辆的外形特征有高精度的识别。车辆的颜色主要是对颜色的类别做出大致的区分,而车辆的位置主要是区分车辆所处车道。因此,在检测误差校正之前,为了能够找到不同检测设备识别到的相同车辆的数据,将行车记录仪视频图像识别得到的颜色数据(R,G,B,S,V),根据RGB颜色值划分各颜色的(R,G,B)数值范围,并将行车记录仪检测到的高维度颜色信息直接转换为颜色类别。根据智能路侧单元提供的检测范围和车道信息,车辆将具体的GPS定位信息转换为车辆所处车道。通过对颜色、位置数据的降维,为检测误差修正和数据融合提供支持。
本发明的一可选的实施例中,步骤143中,将所述前方车辆的运动状态记录数据与路侧设备记录的多个车辆的运动状态记录数据进行合并,得到多个车辆的运动轨迹,包括:
步骤1431,根据所述前方车辆边缘模糊度、所述前方车辆的车速以及前方车辆的位置形成前方车辆的运动状态记录数据;
步骤1432,获得路侧设备记录的车辆的运动状态记录数据;
步骤1433,将所述前方车辆的运动状态记录数据与所述路侧设备记录的运动状态记录数据按时间顺序合并,获得多个车辆的行驶轨迹。
该实施例中,当车辆进入路侧视频检测区域后,为了统一行车记录仪和路侧视频检测设备的时间信息,将提取行车记录仪视频中与路侧视频检测设备具有相同时间戳的画面。将当前区域内行车记录仪视频图像识别得到的车辆速度Ve序列作为神经网络的输入,将路侧交通状态感知设备的数据中相同时间戳、车辆位置、颜色的车辆速度序列作为输出,训练神经网络,在实现以时间戳、车辆位置、车辆颜色信息为依据的车辆速度检测数据修正,进而避免由单个行车记录仪感知误差造成全路段交通状态感知偏差。在数据融合时,时间戳、该车辆所在车道、颜色类别为依据,将该车辆其他颜色(R,G,B,S,V)、GPS定位的信息进行融合。
本发明的一可选的实施例中,步骤143中,将所述前方车辆的运动状态记录数据与道路环境数据进行融合,得到所述车辆所处交通环境中至少一车辆的行驶轨迹,包括:
将时间戳、车辆的位置、车型、颜色相同的运动状态记录数据和路侧设备的交通检测数据进行融合,得到所述车辆所处交通环境中至少一车辆的行驶轨迹。
该实施例中,当前方车辆突然加速,或者在交通量较大的路段内前车换道,则在该行车记录仪中前车图像消失,进而导致交通感知数据不连续。因此在原有路侧交通流检测设备的基础上,为了进一步扩展交通流的检测范围,并提高交通状态感知精度,在行车记录仪视频感知数据和路侧交通状态感知数据融合的基础上,进一步融合不同行车记录仪感知的前车运行数据。本发明提出将多个行车记录仪视频图像识别数据按照时间戳、车辆外形特征形成针对具体车辆的运动状态数据和完整的车辆运行轨迹数据,实现对车辆流量、密度、速度的实时监测。
交通状态感知基于多源视频数据检测误差校正和数据融合,主要基于行车记录仪与路侧交通检测数据的融合,实现不同行车记录仪之间的数据的融合。不管是路侧视频检测还是行车记录仪视频检测,在检测时都对检测信息的时间戳进行同步,同时也在计算和存储数据时加入了对应的时间戳。根据在视频图像识别时的车辆速度、车型、颜色、定位信息,在其他行车记录仪视频检测数据中根据车型和时间顺序找到该车数据。按照时间戳将该车的信息组按照时间顺序排列,形成按照时间发展顺序的车辆运行状态感知数据。同理,道路中其他车辆的信息,实现基于行车记录仪的道路交通状态感知。进而根据时间的发展顺序,应用分散在道路各处的行车记录仪组合出道路上所有车辆的行驶轨迹,实现全路段流量、密度、速度的实时监测和道路交通状态的全息感知。
基于道路设计阶段中建立高精度三维BIM道路模型,在实际道路运营过程中,不断更新道路基础设施信息。当智能路侧单元获取交通感知数据后,实时发送给交通管理云平台,通过在高精度BIM模型中搭建车辆模型,加载实时车辆运行数据,根据车辆行驶的时空轨迹数据,还原道路交通运行状态,实现交通流参数、车辆行驶轨迹感知的实时可视化,实时发布路段交通运行情况,及时引导交通流合理分配,提升道路空间使用效率。
如图2和图3所示,上述方法的具体实现流程包括:
步骤101:采集行车数据,并基于深度学习的车辆速度识别以及车辆位置识别;
将高清行车记录仪安装在车辆内部,在车辆行驶前采用标定板进行相机标定。将标定板放置在车辆前方的平地根据标定板的实际长度和确定二维图像与三维物体之间的长度、角度联系。基于Matlab程序实现从行车记录仪设备采集到的视频中提取出一帧一帧的图像。每帧图像在提取的同时记录与该图像对应的时间戳数据和GPS定位数据。同时采用5G通讯设备,将视频数据实时传输至智能路侧单元,为交通状态实时感知提供支持。
采用中值滤波、小波去噪方法,实现视频设备采集图像降噪,以去除雾、霾、沙尘、雨雪等环境条件对标识造成的噪声干扰。进而结合车辆所具有的规则、对称特征,获得图像兴趣区域,即包含车辆整体外形特征的子图。在此基础上,识别车辆边缘,并评价图像中的车辆边缘模糊程度。
基于灰度和彩色图像的车辆边缘模糊度识别:
1)灰度图像车辆边缘提取。首先将行车记录仪视频图像数据转为灰度图像,进而采用一阶导数计算边缘的强度和方向,并采用增量近似梯度在边缘识别的过程中采用sobel算子提取车辆边缘特征,分析各对称边缘点所在区域,将该区域内每个点与其他点之间最近的点用直线连接,形成车辆边缘多边形。
2)彩色图像车辆边缘提取。首先将获取的图像色彩转化为RGB数值,并根据色彩的标准亮度、饱和度,建立各像素点的色彩特征模型C(R,G,B,S,V)。采用增量近似各色彩特征的梯度。规定物体边缘识别阈值,将高于该值的点认为是位于车辆边缘的像素。除去道路场景像素后,再将该边缘附近增量较小的值判定为由于车辆移动导致的车辆边缘模型的模糊像素点。结合边缘像素点和模糊像素点构成由彩色图像识别的车辆边缘。
3)车辆边缘模糊度评价。结合灰度图像识别出的车辆边缘线和彩色识别出的车辆边缘模糊区域,计算车辆边缘线与边缘模糊区域内与其纵坐标相同的各像素点横坐标之差,并将最大差值作为车辆边缘模糊度。
在车辆边缘模糊度评价的基础上,采用实验数据中的车辆边缘模糊度和彩色兴趣区域图像作为深度卷积神经网络CNN的输入,将前方车辆与当前车辆的速度差作为输出,训练CNN网络,使得该模型能够通过视频数据处理和识别,直接得到前方车辆的行驶速度。采用视频图像识别出前车和检测车之间的距离,根据检测车当前定位获得前车的定位信息。结合现有成熟的车辆外部特征识别方法,将前车行驶速度和车型、颜色等信息、车辆定位、时间戳同时记录,形成从单个行车记录仪视频数据中获取的前方车辆随时间的运动状态记录。
步骤S102:多个行车记录仪检测信息融合
在运用基于行车记录仪视频图像的车辆运动状态感知时,道路中有许多车辆装有行车记录仪。而从每个行车记录仪的数据中都能获得时间序列的车辆运动数据。这里的车辆运动数据即为上述根据车辆的边缘模糊度获得的车辆运动状态记录数据,将每个数据集中的车型、颜色相同的记录合并,并按照时间顺序排列,进而得到每一辆车在道路中的运行状态和行驶轨迹。
步骤S103:行车记录仪与路侧交通检测信息融合
将路侧设备感知得到的车辆速度为标准数据,根据多个行车记录仪检测信息中的时间戳数据,将时间戳、位置、车型、颜色相同的行车记录数据和路侧交通检测数据分别作为BP神经网络的输入和输出,通过BP神经网络的训练,将行车记录仪检测数据的误差记录在神经网络的模型参数中。用于误差修正的神经网络模型训练完成后发送至车辆端,在行车记录仪设备识别车辆速度的过程中,直接根据当前检测到的车辆位置、车型、颜色信息,通过神经网络模型,对行车记录仪检测到的车辆速度做出修正,实现行车记录仪与路侧交通检测信息的融合。
步骤S104:交通流参数与车辆行驶轨迹感知
在多行车记录仪检测信息融合、行车记录仪与路侧交通检测信息融合的基础上,将修正后的多个车辆按时间顺序记录的信息根据时间戳进行融合。在BIM软件的高精度三维道路模型中,建立相应的车辆模型,实时表征车辆的运动状态,实现实时交通流参数感知,还原所有车辆的行驶轨迹,为道路交通运行状态评价和道路资源管理建设提供参考。
本发明的上述实施例,在交通运行状态感知方面具有明显的优势。不需要过多视频检测设备,只需要应用现有车辆的高清行车记录仪,节省物力资源。同时,车辆运动状态的识别可以通过在视频检测设备中加载相应的模型,同时加上多源数据的融合,实现检测数据误差的自动修正,减少后期人工排查检测误差所需要的人力资源。在交通状态感知范围广、时效性强。同时,采用车载端本地存储和上传智能路侧单元结合的方式,结合5G通讯设备可提高数据的实效性,更好地指导道路交通决策,也为未来的自动驾驶场景下的识别提供可靠的数据来源。
如图4所示,本发明的实施例还提供一种行车信息的处理装置40,包括:
获取模块41,用于获取行车记录设备采集的行车数据;
提取模块42,用于对所述行车数据进行边缘特征提取,得到车辆边缘特征值;
计算模块43,用于根据所述车辆边缘特征值进行边缘模糊度计算,得到车辆边缘模糊度;
输出模块44,用于根据所述车辆边缘模糊度,得到所述车辆所处交通环境中至少一个车辆的行驶轨迹。
可选的,获取行车记录设备采集的行车数据,包括:
获取行车记录设备采集的图像数据、位置数据和时间戳中的至少一项。
可选的,对所述行车数据进行边缘特征提取,得到车辆边缘特征值,包括:
对所述行车数据中的图像数据,基于灰度图像识别算法识别出车辆边缘线和/或基于彩色图像识别算法识别出车辆边缘模糊区域。
可选的,基于灰度图像识别算法识别出车辆边缘线,包括:
对所述行车数据中的图像数据,基于灰度图像识别算法进行所述灰度图像信息离散化,得到离散结果;
对所述离散结果,进行卷积计算,提取车辆边缘点;
分析所述边缘点所在区域,将该区域内每个点与其他点之间最近的点用直线连接,形成车辆边缘多边形D(x,y)。
可选的,基于彩色图像识别算法识别出车辆边缘模糊区域,包括:
对所述行车数据中的图像数据,识别出像素点的颜色R、颜色G、颜色B、饱和度S、亮度V;
可选的,根据所述车辆边缘特征值进行边缘模糊度计算,得到车辆边缘模糊度,包括:
通过I=max|D(x,y)-Sign(xi,y)|,(xi,y)∈M,得到车辆边缘模糊度;
可选的,根据所述车辆边缘模糊度,得到所述车辆所处交通环境中至少一个车辆的行驶轨迹,包括:
根据车辆边缘模糊度,识别车辆的车速以及车辆的位置;
根据所述车辆边缘模糊度、车辆的车速以及车辆的位置,得到前方车辆的运动状态记录数据;
将所述前方车辆的运动状态记录数据与路侧设备记录的多个车辆的运动状态记录数据进行合并,得到多个车辆的运动轨迹,或者将所述前方车辆的运动状态记录数据与道路环境数据进行融合,得到所述车辆所处交通环境中至少一车辆的行驶轨迹;
按时间戳将多个车辆的行驶轨迹进行融合,输出所述车辆所处交通环境中至少一个车辆的行驶轨迹。
可选的,根据车辆边缘模糊度,识别车辆的车速以及车辆的位置,包括:
将所述车辆边缘模糊度以及所述行车记录设备采集的视频数据,输入预设车速识别模型,得到前方车辆相对于当前车辆的相对速度;
根据所述行车数据中的前方车辆的位置数据以及当前车辆与前方车辆之间的距离,校正前方车辆的位置数据。
可选的,将所述前方车辆的运动状态记录数据与路侧设备记录的多个车辆的运动状态记录数据进行合并,得到多个车辆的运动轨迹,包括:
根据所述前方车辆边缘模糊度、所述前方车辆的车速以及前方车辆的位置形成前方车辆的运动状态记录数据;
获得路侧设备记录的车辆的运动状态记录数据;
将所述前方车辆的运动状态记录数据与所述路侧设备记录的运动状态记录数据按时间顺序合并,获得多个车辆的行驶轨迹。
可选的,将所述前方车辆的运动状态记录数据与道路环境数据进行融合,得到所述车辆所处交通环境中至少一车辆的行驶轨迹,包括:
将时间戳、车辆的位置、车型、颜色相同的运动状态记录数据和路侧设备的交通检测数据进行融合,得到所述车辆所处交通环境中至少一车辆的行驶轨迹。
需要说明的是,该装置是与上述方法对应的装置,上述方法实施例中的所有实现方式均适用于该装置的实施例中,也能达到相同的技术效果。
如图5所示,本发明的实施例还提供一种行车信息的处理设备50,包括:
采集装置51,用于获取行车记录设备采集的行车数据;
处理器52,用于对所述行车数据进行边缘特征提取,得到车辆边缘特征值;根据所述车辆边缘特征值进行边缘模糊度计算,得到车辆边缘模糊度;根据所述车辆边缘模糊度,得到所述车辆所处交通环境中至少一个车辆的行驶轨迹。
可选的,获取行车记录设备采集的行车数据,包括:
获取行车记录设备采集的图像数据、位置数据和时间戳中的至少一项。
可选的,对所述行车数据进行边缘特征提取,得到车辆边缘特征值,包括:
对所述行车数据中的图像数据,基于灰度图像识别算法识别出车辆边缘线和/或基于彩色图像识别算法识别出车辆边缘模糊区域。
可选的,基于灰度图像识别算法识别出车辆边缘线,包括:
对所述行车数据中的图像数据,基于灰度图像识别算法进行所述灰度图像信息离散化,得到离散结果;
对所述离散结果,进行卷积计算,提取车辆边缘点;
分析各对称边缘点所在区域,将该区域内每个点与其他点之间最近的点用直线连接,形成车辆边缘多边形D(x,y)。
可选的,基于彩色图像识别算法识别出车辆边缘模糊区域,包括:
对所述行车数据中的图像数据,识别出像素点的颜色R、颜色G、颜色B、饱和度S、亮度V;
可选的,根据所述车辆边缘特征值进行边缘模糊度计算,得到车辆边缘模糊度,包括:
通过I=max|D(x,y)-Sign(xi,y)|,(xi,y)∈M,得到车辆边缘模糊度;
可选的,根据所述车辆边缘模糊度,得到所述车辆所处交通环境中至少一个车辆的行驶轨迹,包括:
根据车辆边缘模糊度,识别车辆的车速以及车辆的位置;
根据所述车辆边缘模糊度、车辆的车速以及车辆的位置,得到前方车辆的运动状态记录数据;
将所述前方车辆的运动状态记录数据与路侧设备记录的多个车辆的运动状态记录数据进行合并,得到多个车辆的运动轨迹,或者将所述前方车辆的运动状态记录数据与道路环境数据进行融合,得到所述车辆所处交通环境中至少一车辆的行驶轨迹;
按时间戳将多个车辆的行驶轨迹进行融合,输出所述车辆所处交通环境中至少一个车辆的行驶轨迹。
可选的,根据车辆边缘模糊度,识别车辆的车速以及车辆的位置,包括:
将所述车辆边缘模糊度以及所述行车记录设备采集的视频数据,输入预设车速识别模型,得到前方车辆相对于当前车辆的相对速度;
根据所述行车数据中的前方车辆的位置数据以及当前车辆与前方车辆之间的距离,校正前方车辆的位置数据。
可选的,将所述前方车辆的运动状态记录数据与路侧设备记录的多个车辆的运动状态记录数据进行合并,得到多个车辆的运动轨迹,包括:
根据所述前方车辆边缘模糊度、所述前方车辆的车速以及前方车辆的位置形成前方车辆的运动状态记录数据;
获得路侧设备记录的车辆的运动状态记录数据;
将所述前方车辆的运动状态记录数据与所述路侧设备记录的运动状态记录数据按时间顺序合并,获得多个车辆的行驶轨迹。
可选的,将所述前方车辆的运动状态记录数据与道路环境数据进行融合,得到所述车辆所处交通环境中至少一车辆的行驶轨迹,包括:
将时间戳、车辆的位置、车型、颜色相同的运动状态记录数据和路侧设备的交通检测数据进行融合,得到所述车辆所处交通环境中至少一车辆的行驶轨迹。
需要说明的是,该设备是与上述方法对应的设备,上述方法实施例中的所有实现方式均适用于该设备的实施例中,也能达到相同的技术效果。
该实施例中所述的设备可以是行车记录仪、路侧设备或者其它功能实体。
本发明的实施例还提供一种处理器设备,包括:处理器、存储有计算机程序的存储器,所述计算机程序被处理器运行时,执行如上所述的方法。上述方法实施例中的所有实现方式均适用于该实施例中,也能达到相同的技术效果。
本发明的实施例还提供一种计算机可读存储介质,存储指令,当所述指令在计算机上运行时,使得计算机执行如上所述的方法。上述方法实施例中的所有实现方式均适用于该实施例中,也能达到相同的技术效果。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本发明所提供的实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
此外,需要指出的是,在本发明的装置和方法中,显然,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本发明的等效方案。并且,执行上述系列处理的步骤可以自然地按照说明的顺序按时间顺序执行,但是并不需要一定按照时间顺序执行,某些步骤可以并行或彼此独立地执行。对本领域的普通技术人员而言,能够理解本发明的方法和装置的全部或者任何步骤或者部件,可以在任何计算装置(包括处理器、存储介质等)或者计算装置的网络中,以硬件、固件、软件或者它们的组合加以实现,这是本领域普通技术人员在阅读了本发明的说明的情况下运用他们的基本编程技能就能实现的。
因此,本发明的目的还可以通过在任何计算装置上运行一个程序或者一组程序来实现。所述计算装置可以是公知的通用装置。因此,本发明的目的也可以仅仅通过提供包含实现所述方法或者装置的程序代码的程序产品来实现。也就是说,这样的程序产品也构成本发明,并且存储有这样的程序产品的存储介质也构成本发明。显然,所述存储介质可以是任何公知的存储介质或者将来所开发出来的任何存储介质。还需要指出的是,在本发明的装置和方法中,显然,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本发明的等效方案。并且,执行上述系列处理的步骤可以自然地按照说明的顺序按时间顺序执行,但是并不需要一定按照时间顺序执行。某些步骤可以并行或彼此独立地执行。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明所述原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (14)
1.一种行车信息的处理方法,其特征在于,所述方法包括:
获取行车记录设备采集的行车数据;
对所述行车数据进行边缘特征提取,得到车辆边缘特征值;
根据所述车辆边缘特征值进行边缘模糊度计算,得到车辆边缘模糊度;
根据所述车辆边缘模糊度,得到所述车辆所处交通环境中至少一个车辆的行驶轨迹;
其中,所述根据所述车辆边缘特征值进行边缘模糊度计算,得到车辆边缘模糊度,包括:
根据物体边缘的像素点和车辆边缘多边形,计算得到车辆边缘模糊度;
其中,所述根据所述车辆边缘模糊度,得到所述车辆所处交通环境中至少一个车辆的行驶轨迹,包括:
根据所述车辆边缘模糊度,识别车辆的车速以及车辆的位置;
根据所述车辆边缘模糊度、所述车辆的车速以及所述车辆的位置,得到前方车辆的运动状态记录数据;
根据前方车辆的运动状态记录数据,输出所述车辆所处交通环境中至少一个车辆的行驶轨迹。
2.根据权利要求1所述的行车信息的处理方法,其特征在于,所述获取行车记录设备采集的行车数据,包括:
获取所述行车记录设备采集的图像数据、位置数据和时间戳中的至少一项。
3.根据权利要求1所述的行车信息的处理方法,其特征在于,所述对所述行车数据进行边缘特征提取,得到车辆边缘特征值,包括:
对所述行车数据中的图像数据,基于灰度图像识别算法识别出车辆边缘线和/或基于彩色图像识别算法识别出车辆边缘模糊区域。
4.根据权利要求3所述的行车信息的处理方法,其特征在于,所述基于灰度图像识别算法识别出车辆边缘线,包括:
对所述行车数据中的图像数据,基于灰度图像识别算法进行所述灰度图像信息离散化,得到离散结果;
对所述离散结果,进行卷积计算,提取车辆边缘点;
分析所述边缘点所在区域,将该区域内每个点与其他点之间最近的点用直线连接,形成车辆边缘多边形D(x,y)。
7.根据权利要求1至6任一项所述的行车信息的处理方法,其特征在于,所述根据前方车辆的运动状态记录数据,输出所述车辆所处交通环境中至少一个车辆的行驶轨迹,包括:
将所述前方车辆的运动状态记录数据与路侧设备记录的多个车辆的运动状态记录数据进行合并,得到多个车辆的运动轨迹,或者将所述前方车辆的运动状态记录数据与道路环境数据进行融合,得到所述车辆所处交通环境中至少一车辆的行驶轨迹;
按时间戳将多个车辆的行驶轨迹进行融合,输出所述车辆所处交通环境中至少一个车辆的行驶轨迹。
8.根据权利要求1所述的行车信息的处理方法,其特征在于,所述根据所述车辆边缘模糊度,识别车辆的车速以及车辆的位置,包括:
将所述车辆边缘模糊度以及所述行车记录设备采集的视频数据,输入预设车速识别模型,得到前方车辆相对于当前车辆的相对速度;
根据所述行车数据中的前方车辆的位置数据以及当前车辆与前方车辆之间的距离,校正前方车辆的位置数据。
9.根据权利要求7所述的行车信息的处理方法,其特征在于,所述将所述前方车辆的运动状态记录数据与路侧设备记录的多个车辆的运动状态记录数据进行合并,得到多个车辆的运动轨迹,包括:
根据所述前方车辆边缘模糊度、所述前方车辆的车速以及前方车辆的位置形成前方车辆的运动状态记录数据;
获得所述路侧设备记录的车辆的运动状态记录数据;
将所述前方车辆的运动状态记录数据与所述路侧设备记录的运动状态记录数据按时间顺序合并,获得多个车辆的行驶轨迹。
10.根据权利要求8所述的行车信息的处理方法,其特征在于,所述将所述前方车辆的运动状态记录数据与道路环境数据进行融合,得到所述车辆所处交通环境中至少一车辆的行驶轨迹,包括:
将时间戳、车辆的位置、车型、颜色相同的运动状态记录数据和路侧设备的交通检测数据进行融合,得到所述车辆所处交通环境中至少一车辆的行驶轨迹。
11.一种行车信息的处理装置,其特征在于,包括:
获取模块,用于获取行车记录设备采集的行车数据;
提取模块,用于对所述行车数据进行边缘特征提取,得到车辆边缘特征值;
计算模块,用于根据所述车辆边缘特征值进行边缘模糊度计算,得到车辆边缘模糊度;
输出模块,用于根据所述车辆边缘模糊度,得到所述车辆所处交通环境中至少一个车辆的行驶轨迹;
其中,所述计算模块具体用于:根据物体边缘的像素点和车辆边缘多边形,计算得到车辆边缘模糊度;所述输出模块具体用于:根据所述车辆边缘模糊度,识别车辆的车速以及车辆的位置;根据所述车辆边缘模糊度、所述车辆的车速以及所述车辆的位置,得到前方车辆的运动状态记录数据;根据前方车辆的运动状态记录数据,输出所述车辆所处交通环境中至少一个车辆的行驶轨迹。
12.一种行车信息的处理设备,其特征在于,包括:
采集装置,用于获取行车记录设备采集的行车数据;
处理器,用于对所述行车数据进行边缘特征提取,得到车辆边缘特征值;根据所述车辆边缘特征值进行边缘模糊度计算,得到车辆边缘模糊度;根据所述车辆边缘模糊度,得到所述车辆所处交通环境中至少一个车辆的行驶轨迹;
其中,所述处理器具体用于:根据物体边缘的像素点和车辆边缘多边形,计算得到车辆边缘模糊度;其中,所述处理器还具体用于:根据所述车辆边缘模糊度,识别车辆的车速以及车辆的位置;根据所述车辆边缘模糊度、所述车辆的车速以及所述车辆的位置,得到前方车辆的运动状态记录数据;根据前方车辆的运动状态记录数据,输出所述车辆所处交通环境中至少一个车辆的行驶轨迹。
13.一种处理器设备,其特征在于,包括:处理器、存储有计算机程序的存储器,所述计算机程序被处理器运行时,执行如权利要求1至10任一项所述的方法。
14.一种计算机可读存储介质,其特征在于,存储指令,当所述指令在计算机上运行时,使得计算机执行如权利要求1至10任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110542408.1A CN113177508B (zh) | 2021-05-18 | 2021-05-18 | 一种行车信息的处理方法、装置及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110542408.1A CN113177508B (zh) | 2021-05-18 | 2021-05-18 | 一种行车信息的处理方法、装置及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113177508A CN113177508A (zh) | 2021-07-27 |
CN113177508B true CN113177508B (zh) | 2022-04-08 |
Family
ID=76929594
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110542408.1A Active CN113177508B (zh) | 2021-05-18 | 2021-05-18 | 一种行车信息的处理方法、装置及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113177508B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104537649A (zh) * | 2014-12-16 | 2015-04-22 | 厦门雅迅网络股份有限公司 | 一种基于图像模糊度比较的车辆转向判断方法及系统 |
CN109615862A (zh) * | 2018-12-29 | 2019-04-12 | 南京市城市与交通规划设计研究院股份有限公司 | 道路车辆交通运动状态参数动态获取方法及装置 |
CN109727490A (zh) * | 2019-01-25 | 2019-05-07 | 江苏大学 | 一种基于行车预测场的周边车辆行为自适应矫正预测方法 |
CN111260549A (zh) * | 2018-11-30 | 2020-06-09 | 北京嘀嘀无限科技发展有限公司 | 道路地图的构建方法、装置和电子设备 |
CN111367292A (zh) * | 2020-03-20 | 2020-07-03 | 特路(北京)科技有限公司 | 自动驾驶汽车智能道路系统 |
CN111564051A (zh) * | 2020-04-28 | 2020-08-21 | 安徽江淮汽车集团股份有限公司 | 自动驾驶汽车安全行车控制方法、装置、设备及存储介质 |
CN111845754A (zh) * | 2020-07-27 | 2020-10-30 | 扬州大学 | 一种基于边缘计算和群智算法的自动驾驶车辆的决策预测方法 |
CN112037365A (zh) * | 2020-09-01 | 2020-12-04 | 枣庄学院 | 面向行车记录仪基于边缘计算的车辆火灾事故检测报警系统 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9934688B2 (en) * | 2015-07-31 | 2018-04-03 | Ford Global Technologies, Llc | Vehicle trajectory determination |
CN110926484B (zh) * | 2020-02-10 | 2020-05-19 | 中智行科技有限公司 | 车辆位置的获取方法、装置以及智能车辆 |
-
2021
- 2021-05-18 CN CN202110542408.1A patent/CN113177508B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104537649A (zh) * | 2014-12-16 | 2015-04-22 | 厦门雅迅网络股份有限公司 | 一种基于图像模糊度比较的车辆转向判断方法及系统 |
CN111260549A (zh) * | 2018-11-30 | 2020-06-09 | 北京嘀嘀无限科技发展有限公司 | 道路地图的构建方法、装置和电子设备 |
CN109615862A (zh) * | 2018-12-29 | 2019-04-12 | 南京市城市与交通规划设计研究院股份有限公司 | 道路车辆交通运动状态参数动态获取方法及装置 |
CN109727490A (zh) * | 2019-01-25 | 2019-05-07 | 江苏大学 | 一种基于行车预测场的周边车辆行为自适应矫正预测方法 |
CN111367292A (zh) * | 2020-03-20 | 2020-07-03 | 特路(北京)科技有限公司 | 自动驾驶汽车智能道路系统 |
CN111564051A (zh) * | 2020-04-28 | 2020-08-21 | 安徽江淮汽车集团股份有限公司 | 自动驾驶汽车安全行车控制方法、装置、设备及存储介质 |
CN111845754A (zh) * | 2020-07-27 | 2020-10-30 | 扬州大学 | 一种基于边缘计算和群智算法的自动驾驶车辆的决策预测方法 |
CN112037365A (zh) * | 2020-09-01 | 2020-12-04 | 枣庄学院 | 面向行车记录仪基于边缘计算的车辆火灾事故检测报警系统 |
Non-Patent Citations (2)
Title |
---|
"5G车路协同自动驾驶应用研究";任大凯 等;《电信工程技术与标准化》;20200930;第33卷(第9期);第68-74页 * |
"基于车路协同的开放道路应用场景落地研究";周桥立 等;《信息通信》;20200229(第02期);第29-31页 * |
Also Published As
Publication number | Publication date |
---|---|
CN113177508A (zh) | 2021-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106919915B (zh) | 基于adas系统的地图道路标记及道路质量采集装置及方法 | |
CN110619279B (zh) | 一种基于跟踪的路面交通标志实例分割方法 | |
CN102073846B (zh) | 基于航拍图像的交通信息获取方法 | |
US9607220B1 (en) | Image-based vehicle speed estimation | |
CN102867417B (zh) | 一种出租车防伪系统及方法 | |
CN104134222A (zh) | 基于多特征融合的车流监控图像检测和跟踪系统及方法 | |
CN104766058A (zh) | 一种获取车道线的方法和装置 | |
CN109635737B (zh) | 基于道路标记线视觉识别辅助车辆导航定位方法 | |
CN111179300A (zh) | 障碍物检测的方法、装置、系统、设备以及存储介质 | |
CN112329747B (zh) | 基于视频识别和深度学习的车辆参数检测方法及相关装置 | |
DE102013205950A1 (de) | Detektion und Verfolgung einer Straßenstruktur | |
CN100435160C (zh) | 一种用于交通信息实时采集的视频图像处理方法及系统 | |
CN109615862A (zh) | 道路车辆交通运动状态参数动态获取方法及装置 | |
CN105551264A (zh) | 一种基于车牌特征匹配的车速检测方法 | |
CN108364466A (zh) | 一种基于无人机交通视频的车流量统计方法 | |
CN105608417A (zh) | 交通信号灯检测方法及装置 | |
Musleh et al. | Uv disparity analysis in urban environments | |
CN114170580A (zh) | 一种面向高速公路的异常事件检测方法 | |
CN107506753B (zh) | 一种面向动态视频监控的多车辆跟踪方法 | |
CN113903008A (zh) | 基于深度学习和轨迹跟踪的匝道出口车辆违法识别方法 | |
Cheng et al. | Structure-aware network for lane marker extraction with dynamic vision sensor | |
CN112991769A (zh) | 基于视频的交通量调查方法和装置 | |
CN113177508B (zh) | 一种行车信息的处理方法、装置及设备 | |
Nejadasl et al. | Optical flow based vehicle tracking strengthened by statistical decisions | |
Kozempel et al. | Fast vehicle detection and tracking in aerial image bursts |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |