CN114937249B - 一种基于网格化管理的车路协同视觉感知处理方法 - Google Patents
一种基于网格化管理的车路协同视觉感知处理方法 Download PDFInfo
- Publication number
- CN114937249B CN114937249B CN202210857696.4A CN202210857696A CN114937249B CN 114937249 B CN114937249 B CN 114937249B CN 202210857696 A CN202210857696 A CN 202210857696A CN 114937249 B CN114937249 B CN 114937249B
- Authority
- CN
- China
- Prior art keywords
- camera
- vehicle
- visual perception
- road
- grid
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0108—Measuring and analyzing of parameters relative to traffic conditions based on the source of data
- G08G1/0116—Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/40—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
- H04W4/44—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for communication between vehicles and infrastructures, e.g. vehicle-to-cloud [V2C] or vehicle-to-home [V2H]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Abstract
本发明公开了一种基于网格化管理的车路协同视觉感知处理方法,涉及车路协同技术领域,该方法首先对道路进行虚拟网格分割,形成具有多个细分网格的网格区域;路侧单元根据车辆的行驶信息,在细分网格中分别筛选出特定车辆,并获取细分网格中特定车辆相机的视觉感知信息;路侧单元将细分网格中特定车辆相机的视觉感知信息融合至路侧相机的视觉感知信息中,填补路侧相机的视觉盲区和/或被特定车辆遮挡的交通参与目标,形成融合后视觉感知信息。本发明提升了路侧单元的视觉感知信息量,在很大程度上提高了车路协同环境中视觉感知信息的可靠程度。
Description
技术领域
本发明涉及车路协同技术领域,尤其是一种基于网格化管理的车路协同视觉感知处理方法。
背景技术
车路协同过程中,路侧相机通过图像识别对道路上的交通参与者进行识别。识别完成后将特征信息上传至云端进行计算,然后接收云端的决策结果在路口内进行广播。
车路协同存在如下缺点:
在路口交通参与者较多的情况下,路侧相机的视觉盲区较大;距离路侧相机较远的区域数据精度较低,此区域路侧相机的作用发挥较小。
发明内容
为了克服上述现有技术中的缺陷,本发明提供一种基于网格化管理的车路协同视觉感知处理方法,将车辆相机的视觉感知信息融合至路侧相机的视觉感知信息中,能够填补路侧相机的视觉盲区和/或被特定车辆遮挡的交通参与目标。
为实现上述目的,本发明采用以下技术方案,包括:
一种基于网格化管理的车路协同视觉感知处理方法,包括以下步骤:
S1,根据路侧单元中路侧相机的感知范围以及道路标线,对路侧相机感知范围内的道路进行虚拟网格分割,形成具有多个细分网格的网格区域;
S2,车辆进入网格区域后,路侧单元与车辆进行交互通讯,获取车辆的行驶信息,路侧单元根据车辆的行驶信息,在细分网格中筛选出特定车辆,并获取细分网格中特定车辆相机的视觉感知信息;
S3,路侧单元将细分网格中特定车辆相机的视觉感知信息融合至路侧相机的视觉感知信息中,填补路侧相机的视觉盲区和/或被特定车辆遮挡的交通参与目标,形成融合后视觉感知信息。
优选的,步骤S1中,路侧相机拍摄方向与车辆行驶方向相同或相反;网格区域由道路标线和相机视野投影线分割成多个细分网格;
其中,相机视野投影线的建立方法为:
路侧相机的最大俯视视线在道路上的投影即为最近的相机视野投影线;
根据路侧相机的相机参数以及相机安装高度,计算路侧相机的最大工作距离;根据路侧相机的最大工作距离,计算得出相对路侧相机最远的相机视野投影线,从而确定路侧相机的最大工作视线;
从路侧相机的最大工作视线至最大俯视视线,按照等角度的原则将相机视野进行划分,确立路侧相机的中间工作视线,中间工作视线在道路上的投影即为中间的相机视野投影线;
通过最近的相机视野投影线、各个中间的相机视野投影线、最远的相机视野投影线与道路标线对道路进行虚拟网格分割,即可形成具有多个细分网格的网格区域。
优选的,步骤S2中,车辆的行驶信息包括:车辆的位置信息和形状尺寸信息。
优选的,步骤S2中,所述细分网格中仅筛选出一个特定车辆,筛选方式如下所示:
筛选出细分网格中出现的完整车辆,若细分网格中仅存在一个完整车辆,则选择该完整车辆作为特定车辆;
若细分网格中存在多个完整车辆且完整车辆的形状尺寸相同,则选择最靠近细分网格中心处的完整车辆作为特定车辆;
若细分网格中存在多个完整车辆且完整车辆的形状尺寸有差异,则选择形状尺寸最大的完整车辆为特定车辆。
优选的,车辆具有用于拍摄车辆前进方向的前置相机和倒车方向的后置相机;
若特定车辆的行驶方向与路侧相机拍摄方向一致,则获取特定车辆前置相机的视觉感知信息融合至路侧相机的视觉感知信息中;若特定车辆的行驶方向与路侧相机拍摄方向相反,则获取特定车辆后置相机的视觉感知信息融合至路侧相机的视觉感知信息中。
优选的,步骤S1中,细分网格按类别分为盲区细分网格和工作区细分网格;所述盲区细分网格是指未处在路侧相机拍摄视野下的细分网格;所述工作区细分网格是指处在路侧相机拍摄视野下的细分网格。
优选的,步骤S3中,路侧单元将细分网格中特定车辆相机的视觉感知信息融合至路侧相机的视觉感知信息的具体方式如下所示:
若特定车辆在工作区细分网格中,则在路侧单元的视觉感知信息中将特定车辆图像替换为透明标识区,并将该特定车辆相机的视觉感知信息填充在透明标识区内;
若特定车辆在盲区细分网格中,则在路侧单元的视觉感知信息的基础上增加该特定车辆相机的视觉感知信息。
优选的,所述视觉感知信息为定时拍摄的照片数据或实时拍摄的视频流数据。
本发明的优点在于:
(1)本发明提出一种新的车路协同视觉感知处理方法,将车辆相机的视觉感知信息融合至路侧相机的视觉感知信息中,能够填补路侧相机的视觉盲区和/或被特定车辆遮挡的交通参与目标,提升了路侧单元的视觉感知信息量,在很大程度上提高了车路协同环境中视觉感知信息的可靠程度。
(2)本发明对道路进行网格化分割,形成具有多个细分网格的网格区域,对道路上的车辆进行网格化管理,在提取车辆视觉感知信息时进行筛选,一定程度上可以降低车端上传数据的冗余度,提升路侧单元数据融合运算效率。
(3)本发明通过视频流重建的方式对车辆相机的视觉感知信息和路侧相机的视觉感知信息进行融合,不断修正路侧相机的视频流数据,在路侧相机的清晰视野范围内,车辆相机的视频流主要用来填补被遮挡的交通参与目标,在路侧相机的清晰视野范围外,车辆相机的视频流主要用来填补路侧相机的视觉盲区,从而获取路端相机原始视频流中无法获取的视觉感知信息。
附图说明
图1为本发明的一种基于网格化管理的车路协同视觉感知处理方法流程图。
图2为相机工作视线和视野投影线的示意图。
图3为路口被网格化分割后的示意图。
图4为路侧相机与特定车辆的位置示意图。
图5为融合后的路侧相机视角示意图。
图6为透明标识区示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
车路协同控制系统包括每个路口中心处安装的路侧单元以及在道路上运行的车辆,路侧单元与各个车辆之间进行交互通讯。
路侧单元具有用于拍摄路口周边各个道路的路侧相机,显然,路侧单元还应当具有现有技术中的路侧处理器和路侧通讯模块,路侧单元可通过路侧通讯模块与车辆、云端服务器进行交互通讯,路侧处理器在本实施例中主要用于对路侧相机记录的视觉感知信息进行后续融合处理。
车辆具有用于拍摄车辆前进方向的前置相机和倒车方向的后置相机,显然,车辆还应当具有现有技术中的车载终端、用于提供车辆位置信息的GPS定位模块以及车端通讯模块;车载终端可与GPS定位模块、车端通讯模块、车辆上的各类传感器通讯连接,获取车辆的行驶信息,如:车辆位置信息、航向角信息、车辆自身的形状尺寸信息,车辆可通过车端通讯模块与路侧单元、云端服务器进行交互通讯。
由图1所示,一种基于网格化管理的车路协同视觉感知处理方法,包括以下步骤:
S1,在车路协同控制系统的道路运行环境中,以每个路口的路侧单元为原点,建立与其对应的绝对坐标系,根据路侧单元中路侧相机的感知范围以及道路标线,对路侧相机感知范围内的道路进行虚拟网格分割,形成具有多个细分网格的网格区域。
S2,车辆进入网格区域后,路侧单元与车辆进行交互通讯,获取车辆的行驶信息,路侧单元根据车辆的行驶信息,行驶信息包括:车辆位置信息、航向角信息、车辆自身的形状尺寸信息等,在细分网格中筛选出特定车辆,并获取细分网格中特定车辆相机的视觉感知信息。
S3,路侧单元将细分网格中特定车辆相机的视觉感知信息融合至路侧相机的视觉感知信息中,填补路侧相机的视觉盲区和/或被特定车辆遮挡的交通参与目标,形成融合后视觉感知信息。所述视觉感知信息为定时拍摄的照片数据或实时拍摄的视频流数据。
本实施例中,路侧相机的感知范围可由相机参数、相机安装高度得到。
步骤S1中,路侧相机拍摄方向与车辆行驶方向相同或相反;网格区域由道路标线和相机视野投影线分割成多个细分网格;其中,由图2所示,相机视野投影线的建立方法为:
S101,在路侧相机安装时,将路侧相机的最大仰视视线与水平面平行,路侧相机的最大俯视视线在道路上的投影即为最近的相机视野投影线;
S102,根据路侧相机的相机镜头焦距、镜头靶面尺寸高度以及相机安装高度,计算路侧相机的最大工作距离Dc,依照以下公式计算:
Dc=(fc*Hc)/hc;
其中,fc表示路侧相机的相机镜头焦距,单位为mm;hc表示路侧相机的镜头靶面尺寸高度,单位为mm;Hc表示路侧相机的相机安装高度,一般为被摄物体高度即车辆高度的2倍;
S103,根据路侧相机的最大工作距离,计算得出相对路侧相机最远的相机视野投影线,从而确定路侧相机的最大工作视线;
其中,路侧相机最远的相机视野投影线与路侧相机之间的水平距离Rc依照以下公式计算:
S104,从路侧相机的最大工作视线至最大俯视视线,按照等角度的原则将相机视野进行划分,确立路侧相机的中间工作视线,中间工作视线在道路上的投影即为中间的相机视野投影线。本实施例中,相机视野进行等角度均匀划分时的角度α的取值范围为10º~15º。
通过最近的相机视野投影线、各个中间的相机视野投影线、最远的相机视野投影线与道路标线对道路进行虚拟网格分割,即可形成具有多个细分网格的网格区域。结合实际道路标线,路口可以被划分成如图3所示的网格。
另外,以最近的相机视野投影线为界,细分网格可按类别分为未处在路侧相机拍摄视野下的盲区细分网格和处在路侧相机拍摄视野下的工作区细分网格,由路侧相机的视野判断车辆所属细分网格的类别。
步骤S2中,一个细分网格中仅筛选出一个特定车辆,筛选方式如下所示:
筛选出细分网格中出现的完整车辆,若细分网格中仅存在一个完整车辆,则选择该完整车辆作为特定车辆;若细分网格中存在多个完整车辆且完整车辆的形状尺寸相同,则选择最靠近细分网格中心处的完整车辆作为特定车辆;若细分网格中存在多个完整车辆且完整车辆的形状尺寸有差异,则选择形状尺寸最大的完整车辆为特定车辆。由图3所示,细分网格中出现的完整车辆向路侧单元上传视频流数据,而其他车辆仅向路侧单元报告位置,发送行驶信息。
步骤S3中,路侧单元将细分网格中特定车辆相机的视觉感知信息融合至路侧相机的视觉感知信息中的具体方式如下所示:
若特定车辆在工作区细分网格中,则在路侧单元的视觉感知信息中将特定车辆图像替换为透明标识区,将该特定车辆相机的视觉感知信息填充在透明标识区内;若特定车辆在盲区细分网格中,则在路侧单元的视觉感知信息的基础上增加该特定车辆相机的视觉感知信息。
所述车辆具有用于拍摄车辆前进方向的前置相机和倒车方向的后置相机。若特定车辆的行驶方向与路侧相机拍摄方向一致,则获取特定车辆前置相机的视觉感知信息融合至路侧相机的视觉感知信息中;若特定车辆的行驶方向与路侧相机拍摄方向相反,则获取特定车辆后置相机的视觉感知信息融合至路侧相机的视觉感知信息中。
所述视觉感知信息为定时拍摄的照片数据或实时拍摄的视频流数据。
本实施例中,当路侧相机的感知范围内有车辆驶入时,路侧单元通过无线通信获取车辆所记录的自身的位置、姿态、形状信息等行驶信息,其中,车辆的长度为Lt、宽度为Wt、高度为Ht。
由图4所示,以路侧单元为原点,建立与其对应的绝对坐标系,其中,X轴为道路宽度方向,Y轴为道路长度方向,Z轴为竖直方向。图4中,A表示路侧相机,路侧相机的位置坐标为(X1,Y1,Z1)。B为驶入路侧相机的感知范围内的车辆,车辆相机的位置坐标为(X2,Y2,Z2)。车辆的行驶方向与路侧相机拍摄方向一致,在路侧相机的视觉感知信息中,该车辆对位于其前方的物体造成遮挡,灰色区域为车辆相机的视觉感知信息。车辆与路侧相机之间沿y轴方向的距离为d,车辆与前方待检测物体之间沿y轴方向的距离为e。p、q分别用于表示路侧相机与车辆相机的相对位置关系,p表示二者在竖直方向即Z轴方向上的夹角,q表示二者在水平方向即X轴方向上的夹角。
当车辆被完整出现在工作区细分网格中且认定为特定车辆后,路侧单元获取该车辆的视频流数据,并进行视频流的融合处理:在路侧相机的视频流中将车辆图像替换为透明标识区,并将该特定车辆相机的视频流填充数据在透明标识区内,车辆相机的视频流数据主要用来填补路侧相机的视频流中被车辆遮挡的待检测物体,融合后的路侧相机视角如图5所示。
由图6所示,本实施例中,透明标识区为三维区域,路侧相机的视频流中透明标识区的确定方式为:
计算车辆实际尺寸与通过路侧相机的视频流图像计算得到的车辆计算尺寸之间的比例系数r:
r=(Ht*dz)/Hz;
其中,Ht为车辆实际高度,Hz为通过路侧相机的视频流图像计算得到的车辆计算高度,dz为通过路侧相机的视频流图像计算得到的路侧相机与车辆之间计算距离。
根据比例系数r,计算路侧相机拍摄的视频流图像中透明标识区的靠近路端相机一侧即后侧高度Ho和后侧宽度Wo;
Ho=Ht/(d*r);
Wo=Wt/(d*r);
其中,Ht为车辆实际高度,Wt为车辆实际宽度,d为路侧相机与车辆之间实际距离。
根据比例系数r,计算路侧相机拍摄的视频流图像中透明标识区的远离路端相机一侧即前侧高度Hi和前侧宽度Wi;
Hi=Ht/[(d+Lt+e)*r];
Wi=Wt/[(d+Lt+e)*r];
其中,Ht为车辆实际高度,Wt为车辆实际宽度,Lt为车辆实际长度,e为车辆与前方待检测物体之间的实际距离,d为路侧相机与车辆之间实际距离。
最后,将视频流图像中透明标识区的前后侧顶点进行连接,生成三维区域,该三维区域能够以真实的深度信息、特征信息显示车辆相机的视频流数据。
所述车辆实际高度Ht,车辆实际宽度Wt,车辆实际长度Lt,车辆与前方待检测物体之间的实际距离e,路侧相机与车辆之间实际距离d均包括在车端上报的行驶信息中,且车端上报的行驶信息中还包括用于表示路侧相机与车辆相机的相对位置关系的竖直方向夹角p和水平方向夹角q,p、q的大小仅影响视频流数据融合时的透明标识区的位置,并不影响视频流融合时的具体计算方法。
本发明将实际道路环境进行虚拟划分管理,在提取车辆感知信息时进行筛选,一定程度上可以降低车端上传数据的冗余度,提升路侧单元数据融合运算效率。通过使用车端相机的视频流数据填补路侧相机的视觉盲区和被遮挡物体,提升了路侧相机的视觉感知信息量,在很大程度上提高了车路协同环境中图像数据的可靠程度。
以上仅为本发明创造的较佳实施例而已,并不用以限制本发明创造,凡在本发明创造的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明创造的保护范围之内。
Claims (7)
1.一种基于网格化管理的车路协同视觉感知处理方法,其特征在于,包括以下步骤:
S1,根据路侧单元中路侧相机的感知范围以及道路标线,对路侧相机感知范围内的道路进行虚拟网格分割,形成具有多个细分网格的网格区域;
S2,车辆进入网格区域后,路侧单元与车辆进行交互通讯,获取车辆的行驶信息,路侧单元根据车辆的行驶信息,筛选出在细分网格中出现的车辆作为特定车辆,并获取细分网格中特定车辆相机的视觉感知信息;
S3,路侧单元将细分网格中特定车辆相机的视觉感知信息融合至路侧相机的视觉感知信息中,填补路侧相机的视觉盲区和/或被特定车辆遮挡的交通参与目标,形成融合后视觉感知信息;
步骤S1中,路侧相机拍摄方向与车辆行驶方向相同或相反;网格区域由道路标线和相机视野投影线分割成多个细分网格;
其中,相机视野投影线的建立方法为:
路侧相机的最大俯视视线在道路上的投影即为最近的相机视野投影线;
根据路侧相机的相机参数以及相机安装高度,计算路侧相机的最大工作距离;根据路侧相机的最大工作距离,计算得出相对路侧相机最远的相机视野投影线,从而确定路侧相机的最大工作视线;
从路侧相机的最大工作视线至最大俯视视线,按照等角度的原则将相机视野进行划分,确立路侧相机的中间工作视线,中间工作视线在道路上的投影即为中间的相机视野投影线;
通过最近的相机视野投影线、各个中间的相机视野投影线、最远的相机视野投影线与道路标线对道路进行虚拟网格分割,即可形成具有多个细分网格的网格区域。
2.根据权利要求1所述的一种基于网格化管理的车路协同视觉感知处理方法,其特征在于,步骤S2中,车辆的行驶信息包括:车辆的位置信息和形状尺寸信息。
3.根据权利要求1所述的一种基于网格化管理的车路协同视觉感知处理方法,其特征在于,步骤S2中,所述细分网格中仅筛选出一个特定车辆,筛选方式如下所示:
筛选出细分网格中出现的完整车辆,若细分网格中仅存在一个完整车辆,则选择该完整车辆作为特定车辆;
若细分网格中存在多个完整车辆且完整车辆的形状尺寸相同,则选择最靠近细分网格中心处的完整车辆作为特定车辆;
若细分网格中存在多个完整车辆且完整车辆的形状尺寸有差异,则选择形状尺寸最大的完整车辆为特定车辆。
4.根据权利要求1所述的一种基于网格化管理的车路协同视觉感知处理方法,其特征在于,车辆具有用于拍摄车辆前进方向的前置相机和倒车方向的后置相机;
若特定车辆的行驶方向与路侧相机拍摄方向一致,则获取特定车辆前置相机的视觉感知信息融合至路侧相机的视觉感知信息中;若特定车辆的行驶方向与路侧相机拍摄方向相反,则获取特定车辆后置相机的视觉感知信息融合至路侧相机的视觉感知信息中。
5.根据权利要求1或4所述的一种基于网格化管理的车路协同视觉感知处理方法,其特征在于,步骤S1中,细分网格按类别分为盲区细分网格和工作区细分网格;所述盲区细分网格是指未处在路侧相机拍摄视野下的细分网格;所述工作区细分网格是指处在路侧相机拍摄视野下的细分网格。
6.根据权利要求5所述的一种基于网格化管理的车路协同视觉感知处理方法,其特征在于,步骤S3中,路侧单元将细分网格中特定车辆相机的视觉感知信息融合至路侧相机的视觉感知信息的具体方式如下所示:
若特定车辆在工作区细分网格中,则在路侧单元的视觉感知信息中将特定车辆图像替换为透明标识区,并将该特定车辆相机的视觉感知信息填充在透明标识区内;
若特定车辆在盲区细分网格中,则在路侧单元的视觉感知信息的基础上增加该特定车辆相机的视觉感知信息。
7.根据权利要求1所述的一种基于网格化管理的车路协同视觉感知处理方法,其特征在于,所述视觉感知信息为定时拍摄的照片数据或实时拍摄的视频流数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210857696.4A CN114937249B (zh) | 2022-07-21 | 2022-07-21 | 一种基于网格化管理的车路协同视觉感知处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210857696.4A CN114937249B (zh) | 2022-07-21 | 2022-07-21 | 一种基于网格化管理的车路协同视觉感知处理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114937249A CN114937249A (zh) | 2022-08-23 |
CN114937249B true CN114937249B (zh) | 2022-11-11 |
Family
ID=82869170
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210857696.4A Active CN114937249B (zh) | 2022-07-21 | 2022-07-21 | 一种基于网格化管理的车路协同视觉感知处理方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114937249B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115547105A (zh) * | 2022-09-19 | 2022-12-30 | 智道网联科技(北京)有限公司 | 路侧设备数据处理方法、装置及电子设备、存储介质 |
CN115966095A (zh) * | 2022-12-02 | 2023-04-14 | 云控智行科技有限公司 | 基于车辆的交通数据融合处理方法、装置、设备及介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106571046A (zh) * | 2016-11-11 | 2017-04-19 | 上海市政工程设计研究总院(集团)有限公司 | 基于路面网格体系的车路协同辅助驾驶方法 |
CN111542860A (zh) * | 2016-12-30 | 2020-08-14 | 迪普迈普有限公司 | 用于自主车辆的高清地图的标志和车道创建 |
CN111783502A (zh) * | 2019-04-03 | 2020-10-16 | 长沙智能驾驶研究院有限公司 | 基于车路协同的视觉信息融合处理方法、装置及存储介质 |
CN112289059A (zh) * | 2020-10-22 | 2021-01-29 | 中电智能技术南京有限公司 | 一种车路协同道路交通系统 |
CN113593240A (zh) * | 2021-09-28 | 2021-11-02 | 湖南车路协同智能科技有限公司 | 一种用于车路协同的车辆路径规划方法及系统 |
CN114419925A (zh) * | 2021-12-01 | 2022-04-29 | 合肥工业大学 | 一种车路协同的防碰预警系统和方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106685608B (zh) * | 2015-11-05 | 2020-03-24 | 电信科学技术研究院 | 一种车路协同通信系统的资源调度方法、装置及节点 |
EP3445106B1 (en) * | 2016-05-03 | 2020-12-30 | Huawei Technologies Co., Ltd. | Resource scheduling method, and terminal apparatus |
CN111787481B (zh) * | 2020-06-17 | 2021-06-29 | 北京航空航天大学 | 一种基于5g的路车协调高精度感知方法 |
CN112329182A (zh) * | 2020-10-28 | 2021-02-05 | 北京石油化工学院 | 车路协同条件下面向复杂交通形态的控制网格划分方法 |
CN114550415B (zh) * | 2022-01-28 | 2022-09-06 | 交通运输部公路科学研究所 | 一种基于车路协同的大型车辆车道级精准管控方法及系统 |
-
2022
- 2022-07-21 CN CN202210857696.4A patent/CN114937249B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106571046A (zh) * | 2016-11-11 | 2017-04-19 | 上海市政工程设计研究总院(集团)有限公司 | 基于路面网格体系的车路协同辅助驾驶方法 |
CN111542860A (zh) * | 2016-12-30 | 2020-08-14 | 迪普迈普有限公司 | 用于自主车辆的高清地图的标志和车道创建 |
CN111783502A (zh) * | 2019-04-03 | 2020-10-16 | 长沙智能驾驶研究院有限公司 | 基于车路协同的视觉信息融合处理方法、装置及存储介质 |
CN112289059A (zh) * | 2020-10-22 | 2021-01-29 | 中电智能技术南京有限公司 | 一种车路协同道路交通系统 |
CN113593240A (zh) * | 2021-09-28 | 2021-11-02 | 湖南车路协同智能科技有限公司 | 一种用于车路协同的车辆路径规划方法及系统 |
CN114419925A (zh) * | 2021-12-01 | 2022-04-29 | 合肥工业大学 | 一种车路协同的防碰预警系统和方法 |
Non-Patent Citations (2)
Title |
---|
A cooperative aggregation-based architecture for vehicle-to-grid communications;Natalie Matta 等;《Global Information Infrastructure Symposium - GIIS 2011》;20110922;全文 * |
基于车路协同技术的智能交通下多匝道协同控制算法;张海亮;《自动化与仪器仪表》;20210331(第3期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN114937249A (zh) | 2022-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114937249B (zh) | 一种基于网格化管理的车路协同视觉感知处理方法 | |
CN111540048B (zh) | 一种基于空地融合的精细化实景三维建模方法 | |
CN106878687A (zh) | 一种基于多传感器的车载环境识别系统及全方位视觉模块 | |
CN110648389A (zh) | 基于无人机和边缘车辆协同的城市街景3d重建方法和系统 | |
CN110428501B (zh) | 全景影像生成方法、装置、电子设备及可读存储介质 | |
CN108460815A (zh) | 地图道路要素编辑方法和装置 | |
US9230300B2 (en) | Method for creating a mosaic image using masks | |
CN110555407B (zh) | 路面车辆空间识别方法及电子设备 | |
CN206611521U (zh) | 一种基于多传感器的车载环境识别系统及全方位视觉模块 | |
CN106560835A (zh) | 一种路牌识别方法及装置 | |
CN115014224B (zh) | 基于LiDAR点云与倾斜航空影像的地表形变监测方法 | |
CN112204614B (zh) | 来自非固定相机的视频中的运动分割 | |
CN112261293B (zh) | 变电站远程巡检方法、装置和电子设备 | |
CN107145825A (zh) | 地平面拟合、摄像头标定方法及系统、车载终端 | |
CN104966062A (zh) | 视频监视方法和装置 | |
CN111141264A (zh) | 一种基于无人机的城市三维测绘方法和系统 | |
CN109583313A (zh) | 车道线提取方法、装置及存储介质 | |
CN114419231B (zh) | 基于点云数据和ai技术的交通设施矢量识别提取分析系统 | |
CN110750153A (zh) | 一种无人驾驶车辆的动态虚拟化装置 | |
CN111366917A (zh) | 可行驶区域检测方法、装置、设备及计算机可读存储介质 | |
CN115424263A (zh) | 交通灯的标注方法、车载设备和存储介质 | |
CN114239995A (zh) | 全区域巡航路线生成方法、系统、电子设备及存储介质 | |
CN113313813A (zh) | 一种可主动预警的车载3d全景环视系统 | |
CN103971356A (zh) | 基于视差信息的街景图像目标分割方法及装置 | |
CN113436134A (zh) | 一种全景相机的能见度测量方法和应用该方法的全景相机 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |