CN114937249A - 一种基于网格化管理的车路协同视觉感知处理方法 - Google Patents

一种基于网格化管理的车路协同视觉感知处理方法 Download PDF

Info

Publication number
CN114937249A
CN114937249A CN202210857696.4A CN202210857696A CN114937249A CN 114937249 A CN114937249 A CN 114937249A CN 202210857696 A CN202210857696 A CN 202210857696A CN 114937249 A CN114937249 A CN 114937249A
Authority
CN
China
Prior art keywords
camera
vehicle
visual perception
road
grid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210857696.4A
Other languages
English (en)
Other versions
CN114937249B (zh
Inventor
程腾
郭利港
石琴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hefei University of Technology
Original Assignee
Hefei University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hefei University of Technology filed Critical Hefei University of Technology
Priority to CN202210857696.4A priority Critical patent/CN114937249B/zh
Publication of CN114937249A publication Critical patent/CN114937249A/zh
Application granted granted Critical
Publication of CN114937249B publication Critical patent/CN114937249B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0116Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/44Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for communication between vehicles and infrastructures, e.g. vehicle-to-cloud [V2C] or vehicle-to-home [V2H]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Chemical & Material Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明公开了一种基于网格化管理的车路协同视觉感知处理方法,涉及车路协同技术领域,该方法首先对道路进行虚拟网格分割,形成具有多个细分网格的网格区域;路侧单元根据车辆的行驶信息,在细分网格中分别筛选出特定车辆,并获取细分网格中特定车辆相机的视觉感知信息;路侧单元将细分网格中特定车辆相机的视觉感知信息融合至路侧相机的视觉感知信息中,填补路侧相机的视觉盲区和/或被特定车辆遮挡的交通参与目标,形成融合后视觉感知信息。本发明提升了路侧单元的视觉感知信息量,在很大程度上提高了车路协同环境中视觉感知信息的可靠程度。

Description

一种基于网格化管理的车路协同视觉感知处理方法
技术领域
本发明涉及车路协同技术领域,尤其是一种基于网格化管理的车路协同视觉感知处理方法。
背景技术
车路协同过程中,路侧相机通过图像识别对道路上的交通参与者进行识别。识别完成后将特征信息上传至云端进行计算,然后接收云端的决策结果在路口内进行广播。
车路协同存在如下缺点:
在路口交通参与者较多的情况下,路侧相机的视觉盲区较大;距离路侧相机较远的区域数据精度较低,此区域路侧相机的作用发挥较小。
发明内容
为了克服上述现有技术中的缺陷,本发明提供一种基于网格化管理的车路协同视觉感知处理方法,将车辆相机的视觉感知信息融合至路侧相机的视觉感知信息中,能够填补路侧相机的视觉盲区和/或被特定车辆遮挡的交通参与目标。
为实现上述目的,本发明采用以下技术方案,包括:
一种基于网格化管理的车路协同视觉感知处理方法,包括以下步骤:
S1,根据路侧单元中路侧相机的感知范围以及道路标线,对路侧相机感知范围内的道路进行虚拟网格分割,形成具有多个细分网格的网格区域;
S2,车辆进入网格区域后,路侧单元与车辆进行交互通讯,获取车辆的行驶信息,路侧单元根据车辆的行驶信息,在细分网格中筛选出特定车辆,并获取细分网格中特定车辆相机的视觉感知信息;
S3,路侧单元将细分网格中特定车辆相机的视觉感知信息融合至路侧相机的视觉感知信息中,填补路侧相机的视觉盲区和/或被特定车辆遮挡的交通参与目标,形成融合后视觉感知信息。
优选的,步骤S1中,路侧相机拍摄方向与车辆行驶方向相同或相反;网格区域由道路标线和相机视野投影线分割成多个细分网格;
其中,相机视野投影线的建立方法为:
路侧相机的最大俯视视线在道路上的投影即为最近的相机视野投影线;
根据路侧相机的相机参数以及相机安装高度,计算路侧相机的最大工作距离;根据路侧相机的最大工作距离,计算得出相对路侧相机最远的相机视野投影线,从而确定路侧相机的最大工作视线;
从路侧相机的最大工作视线至最大俯视视线,按照等角度的原则将相机视野进行划分,确立路侧相机的中间工作视线,中间工作视线在道路上的投影即为中间的相机视野投影线;
通过最近的相机视野投影线、各个中间的相机视野投影线、最远的相机视野投影线与道路标线对道路进行虚拟网格分割,即可形成具有多个细分网格的网格区域。
优选的,步骤S2中,车辆的行驶信息包括:车辆的位置信息和形状尺寸信息。
优选的,步骤S2中,所述细分网格中仅筛选出一个特定车辆,筛选方式如下所示:
筛选出细分网格中出现的完整车辆,若细分网格中仅存在一个完整车辆,则选择该完整车辆作为特定车辆;
若细分网格中存在多个完整车辆且完整车辆的形状尺寸相同,则选择最靠近细分网格中心处的完整车辆作为特定车辆;
若细分网格中存在多个完整车辆且完整车辆的形状尺寸有差异,则选择形状尺寸最大的完整车辆为特定车辆。
优选的,车辆具有用于拍摄车辆前进方向的前置相机和倒车方向的后置相机;
若特定车辆的行驶方向与路侧相机拍摄方向一致,则获取特定车辆前置相机的视觉感知信息融合至路侧相机的视觉感知信息中;若特定车辆的行驶方向与路侧相机拍摄方向相反,则获取特定车辆后置相机的视觉感知信息融合至路侧相机的视觉感知信息中。
优选的,步骤S1中,细分网格按类别分为盲区细分网格和工作区细分网格;所述盲区细分网格是指未处在路侧相机拍摄视野下的细分网格;所述工作区细分网格是指处在路侧相机拍摄视野下的细分网格。
优选的,步骤S3中,路侧单元将细分网格中特定车辆相机的视觉感知信息融合至路侧相机的视觉感知信息的具体方式如下所示:
若特定车辆在工作区细分网格中,则在路侧单元的视觉感知信息中将特定车辆图像替换为透明标识区,并将该特定车辆相机的视觉感知信息填充在透明标识区内;
若特定车辆在盲区细分网格中,则在路侧单元的视觉感知信息的基础上增加该特定车辆相机的视觉感知信息。
优选的,所述视觉感知信息为定时拍摄的照片数据或实时拍摄的视频流数据。
本发明的优点在于:
(1)本发明提出一种新的车路协同视觉感知处理方法,将车辆相机的视觉感知信息融合至路侧相机的视觉感知信息中,能够填补路侧相机的视觉盲区和/或被特定车辆遮挡的交通参与目标,提升了路侧单元的视觉感知信息量,在很大程度上提高了车路协同环境中视觉感知信息的可靠程度。
(2)本发明对道路进行网格化分割,形成具有多个细分网格的网格区域,对道路上的车辆进行网格化管理,在提取车辆视觉感知信息时进行筛选,一定程度上可以降低车端上传数据的冗余度,提升路侧单元数据融合运算效率。
(3)本发明通过视频流重建的方式对车辆相机的视觉感知信息和路侧相机的视觉感知信息进行融合,不断修正路侧相机的视频流数据,在路侧相机的清晰视野范围内,车辆相机的视频流主要用来填补被遮挡的交通参与目标,在路侧相机的清晰视野范围外,车辆相机的视频流主要用来填补路侧相机的视觉盲区,从而获取路端相机原始视频流中无法获取的视觉感知信息。
附图说明
图1为本发明的一种基于网格化管理的车路协同视觉感知处理方法流程图。
图2为相机工作视线和视野投影线的示意图。
图3为路口被网格化分割后的示意图。
图4为路侧相机与特定车辆的位置示意图。
图5为融合后的路侧相机视角示意图。
图6为透明标识区示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
车路协同控制系统包括每个路口中心处安装的路侧单元以及在道路上运行的车辆,路侧单元与各个车辆之间进行交互通讯。
路侧单元具有用于拍摄路口周边各个道路的路侧相机,显然,路侧单元还应当具有现有技术中的路侧处理器和路侧通讯模块,路侧单元可通过路侧通讯模块与车辆、云端服务器进行交互通讯,路侧处理器在本实施例中主要用于对路侧相机记录的视觉感知信息进行后续融合处理。
车辆具有用于拍摄车辆前进方向的前置相机和倒车方向的后置相机,显然,车辆还应当具有现有技术中的车载终端、用于提供车辆位置信息的GPS定位模块以及车端通讯模块;车载终端可与GPS定位模块、车端通讯模块、车辆上的各类传感器通讯连接,获取车辆的行驶信息,如:车辆位置信息、航向角信息、车辆自身的形状尺寸信息,车辆可通过车端通讯模块与路侧单元、云端服务器进行交互通讯。
由图1所示,一种基于网格化管理的车路协同视觉感知处理方法,包括以下步骤:
S1,在车路协同控制系统的道路运行环境中,以每个路口的路侧单元为原点,建立与其对应的绝对坐标系,根据路侧单元中路侧相机的感知范围以及道路标线,对路侧相机感知范围内的道路进行虚拟网格分割,形成具有多个细分网格的网格区域。
S2,车辆进入网格区域后,路侧单元与车辆进行交互通讯,获取车辆的行驶信息,路侧单元根据车辆的行驶信息,行驶信息包括:车辆位置信息、航向角信息、车辆自身的形状尺寸信息等,在细分网格中筛选出特定车辆,并获取细分网格中特定车辆相机的视觉感知信息。
S3,路侧单元将细分网格中特定车辆相机的视觉感知信息融合至路侧相机的视觉感知信息中,填补路侧相机的视觉盲区和/或被特定车辆遮挡的交通参与目标,形成融合后视觉感知信息。所述视觉感知信息为定时拍摄的照片数据或实时拍摄的视频流数据。
本实施例中,路侧相机的感知范围可由相机参数、相机安装高度得到。
步骤S1中,路侧相机拍摄方向与车辆行驶方向相同或相反;网格区域由道路标线和相机视野投影线分割成多个细分网格;其中,由图2所示,相机视野投影线的建立方法为:
S101,在路侧相机安装时,将路侧相机的最大仰视视线与水平面平行,路侧相机的最大俯视视线在道路上的投影即为最近的相机视野投影线;
S102,根据路侧相机的相机镜头焦距、镜头靶面尺寸高度以及相机安装高度,计算路侧相机的最大工作距离Dc,依照以下公式计算:
Dc=(fc*Hc)/hc;
其中,fc表示路侧相机的相机镜头焦距,单位为mm;hc表示路侧相机的镜头靶面尺寸高度,单位为mm;Hc表示路侧相机的相机安装高度,一般为被摄物体高度即车辆高度的2倍;
S103,根据路侧相机的最大工作距离,计算得出相对路侧相机最远的相机视野投影线,从而确定路侧相机的最大工作视线;
其中,路侧相机最远的相机视野投影线与路侧相机之间的水平距离Rc依照以下公式计算:
Figure 228710DEST_PATH_IMAGE001
S104,从路侧相机的最大工作视线至最大俯视视线,按照等角度的原则将相机视野进行划分,确立路侧相机的中间工作视线,中间工作视线在道路上的投影即为中间的相机视野投影线。本实施例中,相机视野进行等角度均匀划分时的角度α的取值范围为10º~15º。
通过最近的相机视野投影线、各个中间的相机视野投影线、最远的相机视野投影线与道路标线对道路进行虚拟网格分割,即可形成具有多个细分网格的网格区域。结合实际道路标线,路口可以被划分成如图3所示的网格。
另外,以最近的相机视野投影线为界,细分网格可按类别分为未处在路侧相机拍摄视野下的盲区细分网格和处在路侧相机拍摄视野下的工作区细分网格,由路侧相机的视野判断车辆所属细分网格的类别。
步骤S2中,一个细分网格中仅筛选出一个特定车辆,筛选方式如下所示:
筛选出细分网格中出现的完整车辆,若细分网格中仅存在一个完整车辆,则选择该完整车辆作为特定车辆;若细分网格中存在多个完整车辆且完整车辆的形状尺寸相同,则选择最靠近细分网格中心处的完整车辆作为特定车辆;若细分网格中存在多个完整车辆且完整车辆的形状尺寸有差异,则选择形状尺寸最大的完整车辆为特定车辆。由图3所示,细分网格中出现的完整车辆向路侧单元上传视频流数据,而其他车辆仅向路侧单元报告位置,发送行驶信息。
步骤S3中,路侧单元将细分网格中特定车辆相机的视觉感知信息融合至路侧相机的视觉感知信息中的具体方式如下所示:
若特定车辆在工作区细分网格中,则在路侧单元的视觉感知信息中将特定车辆图像替换为透明标识区,将该特定车辆相机的视觉感知信息填充在透明标识区内;若特定车辆在盲区细分网格中,则在路侧单元的视觉感知信息的基础上增加该特定车辆相机的视觉感知信息。
所述车辆具有用于拍摄车辆前进方向的前置相机和倒车方向的后置相机。若特定车辆的行驶方向与路侧相机拍摄方向一致,则获取特定车辆前置相机的视觉感知信息融合至路侧相机的视觉感知信息中;若特定车辆的行驶方向与路侧相机拍摄方向相反,则获取特定车辆后置相机的视觉感知信息融合至路侧相机的视觉感知信息中。
所述视觉感知信息为定时拍摄的照片数据或实时拍摄的视频流数据。
本实施例中,当路侧相机的感知范围内有车辆驶入时,路侧单元通过无线通信获取车辆所记录的自身的位置、姿态、形状信息等行驶信息,其中,车辆的长度为Lt、宽度为Wt、高度为Ht。
由图4所示,以路侧单元为原点,建立与其对应的绝对坐标系,其中,X轴为道路宽度方向,Y轴为道路长度方向,Z轴为竖直方向。图4中,A表示路侧相机,路侧相机的位置坐标为(X1,Y1,Z1)。B为驶入路侧相机的感知范围内的车辆,车辆相机的位置坐标为(X2,Y2,Z2)。车辆的行驶方向与路侧相机拍摄方向一致,在路侧相机的视觉感知信息中,该车辆对位于其前方的物体造成遮挡,灰色区域为车辆相机的视觉感知信息。车辆与路侧相机之间沿y轴方向的距离为d,车辆与前方待检测物体之间沿y轴方向的距离为e。p、q分别用于表示路侧相机与车辆相机的相对位置关系,p表示二者在竖直方向即Z轴方向上的夹角,q表示二者在水平方向即X轴方向上的夹角。
当车辆被完整出现在工作区细分网格中且认定为特定车辆后,路侧单元获取该车辆的视频流数据,并进行视频流的融合处理:在路侧相机的视频流中将车辆图像替换为透明标识区,并将该特定车辆相机的视频流填充数据在透明标识区内,车辆相机的视频流数据主要用来填补路侧相机的视频流中被车辆遮挡的待检测物体,融合后的路侧相机视角如图5所示。
由图6所示,本实施例中,透明标识区为三维区域,路侧相机的视频流中透明标识区的确定方式为:
计算车辆实际尺寸与通过路侧相机的视频流图像计算得到的车辆计算尺寸之间的比例系数r:
r=(Ht*dz)/Hz;
其中,Ht为车辆实际高度,Hz为通过路侧相机的视频流图像计算得到的车辆计算高度,dz为通过路侧相机的视频流图像计算得到的路侧相机与车辆之间计算距离。
根据比例系数r,计算路侧相机拍摄的视频流图像中透明标识区的靠近路端相机一侧即后侧高度Ho和后侧宽度Wo;
Ho=Ht/(d*r);
Wo=Wt/(d*r);
其中,Ht为车辆实际高度,Wt为车辆实际宽度,d为路侧相机与车辆之间实际距离。
根据比例系数r,计算路侧相机拍摄的视频流图像中透明标识区的远离路端相机一侧即前侧高度Hi和前侧宽度Wi;
Hi=Ht/[(d+Lt+e)*r];
Wi=Wt/[(d+Lt+e)*r];
其中,Ht为车辆实际高度,Wt为车辆实际宽度,Lt为车辆实际长度,e为车辆与前方待检测物体之间的实际距离,d为路侧相机与车辆之间实际距离。
最后,将视频流图像中透明标识区的前后侧顶点进行连接,生成三维区域,该三维区域能够以真实的深度信息、特征信息显示车辆相机的视频流数据。
所述车辆实际高度Ht,车辆实际宽度Wt,车辆实际长度Lt,车辆与前方待检测物体之间的实际距离e,路侧相机与车辆之间实际距离d均包括在车端上报的行驶信息中,且车端上报的行驶信息中还包括用于表示路侧相机与车辆相机的相对位置关系的竖直方向夹角p和水平方向夹角q,p、q的大小仅影响视频流数据融合时的透明标识区的位置,并不影响视频流融合时的具体计算方法。
本发明将实际道路环境进行虚拟划分管理,在提取车辆感知信息时进行筛选,一定程度上可以降低车端上传数据的冗余度,提升路侧单元数据融合运算效率。通过使用车端相机的视频流数据填补路侧相机的视觉盲区和被遮挡物体,提升了路侧相机的视觉感知信息量,在很大程度上提高了车路协同环境中图像数据的可靠程度。
以上仅为本发明创造的较佳实施例而已,并不用以限制本发明创造,凡在本发明创造的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明创造的保护范围之内。

Claims (8)

1.一种基于网格化管理的车路协同视觉感知处理方法,其特征在于,包括以下步骤:
S1,根据路侧单元中路侧相机的感知范围以及道路标线,对路侧相机感知范围内的道路进行虚拟网格分割,形成具有多个细分网格的网格区域;
S2,车辆进入网格区域后,路侧单元与车辆进行交互通讯,获取车辆的行驶信息,路侧单元根据车辆的行驶信息,在细分网格中筛选出特定车辆,并获取细分网格中特定车辆相机的视觉感知信息;
S3,路侧单元将细分网格中特定车辆相机的视觉感知信息融合至路侧相机的视觉感知信息中,填补路侧相机的视觉盲区和/或被特定车辆遮挡的交通参与目标,形成融合后视觉感知信息。
2.根据权利要求1所述的一种基于网格化管理的车路协同视觉感知处理方法,其特征在于,步骤S1中,路侧相机拍摄方向与车辆行驶方向相同或相反;网格区域由道路标线和相机视野投影线分割成多个细分网格;
其中,相机视野投影线的建立方法为:
路侧相机的最大俯视视线在道路上的投影即为最近的相机视野投影线;
根据路侧相机的相机参数以及相机安装高度,计算路侧相机的最大工作距离;根据路侧相机的最大工作距离,计算得出相对路侧相机最远的相机视野投影线,从而确定路侧相机的最大工作视线;
从路侧相机的最大工作视线至最大俯视视线,按照等角度的原则将相机视野进行划分,确立路侧相机的中间工作视线,中间工作视线在道路上的投影即为中间的相机视野投影线;
通过最近的相机视野投影线、各个中间的相机视野投影线、最远的相机视野投影线与道路标线对道路进行虚拟网格分割,即可形成具有多个细分网格的网格区域。
3.根据权利要求1所述的一种基于网格化管理的车路协同视觉感知处理方法,其特征在于,步骤S2中,车辆的行驶信息包括:车辆的位置信息和形状尺寸信息。
4.根据权利要求1所述的一种基于网格化管理的车路协同视觉感知处理方法,其特征在于,步骤S2中,所述细分网格中仅筛选出一个特定车辆,筛选方式如下所示:
筛选出细分网格中出现的完整车辆,若细分网格中仅存在一个完整车辆,则选择该完整车辆作为特定车辆;
若细分网格中存在多个完整车辆且完整车辆的形状尺寸相同,则选择最靠近细分网格中心处的完整车辆作为特定车辆;
若细分网格中存在多个完整车辆且完整车辆的形状尺寸有差异,则选择形状尺寸最大的完整车辆为特定车辆。
5.根据权利要求1所述的一种基于网格化管理的车路协同视觉感知处理方法,其特征在于,车辆具有用于拍摄车辆前进方向的前置相机和倒车方向的后置相机;
若特定车辆的行驶方向与路侧相机拍摄方向一致,则获取特定车辆前置相机的视觉感知信息融合至路侧相机的视觉感知信息中;若特定车辆的行驶方向与路侧相机拍摄方向相反,则获取特定车辆后置相机的视觉感知信息融合至路侧相机的视觉感知信息中。
6.根据权利要求1或5所述的一种基于网格化管理的车路协同视觉感知处理方法,其特征在于,步骤S1中,细分网格按类别分为盲区细分网格和工作区细分网格;所述盲区细分网格是指未处在路侧相机拍摄视野下的细分网格;所述工作区细分网格是指处在路侧相机拍摄视野下的细分网格。
7.根据权利要求6所述的一种基于网格化管理的车路协同视觉感知处理方法,其特征在于,步骤S3中,路侧单元将细分网格中特定车辆相机的视觉感知信息融合至路侧相机的视觉感知信息的具体方式如下所示:
若特定车辆在工作区细分网格中,则在路侧单元的视觉感知信息中将特定车辆图像替换为透明标识区,并将该特定车辆相机的视觉感知信息填充在透明标识区内;
若特定车辆在盲区细分网格中,则在路侧单元的视觉感知信息的基础上增加该特定车辆相机的视觉感知信息。
8.根据权利要求1所述的一种基于网格化管理的车路协同视觉感知处理方法,其特征在于,所述视觉感知信息为定时拍摄的照片数据或实时拍摄的视频流数据。
CN202210857696.4A 2022-07-21 2022-07-21 一种基于网格化管理的车路协同视觉感知处理方法 Active CN114937249B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210857696.4A CN114937249B (zh) 2022-07-21 2022-07-21 一种基于网格化管理的车路协同视觉感知处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210857696.4A CN114937249B (zh) 2022-07-21 2022-07-21 一种基于网格化管理的车路协同视觉感知处理方法

Publications (2)

Publication Number Publication Date
CN114937249A true CN114937249A (zh) 2022-08-23
CN114937249B CN114937249B (zh) 2022-11-11

Family

ID=82869170

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210857696.4A Active CN114937249B (zh) 2022-07-21 2022-07-21 一种基于网格化管理的车路协同视觉感知处理方法

Country Status (1)

Country Link
CN (1) CN114937249B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115966095A (zh) * 2022-12-02 2023-04-14 云控智行科技有限公司 基于车辆的交通数据融合处理方法、装置、设备及介质
WO2024060575A1 (zh) * 2022-09-19 2024-03-28 智道网联科技(北京)有限公司 路侧设备数据处理方法、装置及电子设备、存储介质

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106571046A (zh) * 2016-11-11 2017-04-19 上海市政工程设计研究总院(集团)有限公司 基于路面网格体系的车路协同辅助驾驶方法
US20180310296A1 (en) * 2015-11-05 2018-10-25 China Academy Of Telecommunications Technology Resource scheduling method and device for vehicle infrastructure cooperative communication system, and node of vehicle infrastructure cooperative communication system
US20190075559A1 (en) * 2016-05-03 2019-03-07 Huawei Technologies Co., Ltd. Resource scheduling method and terminal device
CN111542860A (zh) * 2016-12-30 2020-08-14 迪普迈普有限公司 用于自主车辆的高清地图的标志和车道创建
CN111787481A (zh) * 2020-06-17 2020-10-16 北京航空航天大学 一种基于5g的路车协调高精度感知方法
CN111783502A (zh) * 2019-04-03 2020-10-16 长沙智能驾驶研究院有限公司 基于车路协同的视觉信息融合处理方法、装置及存储介质
CN112289059A (zh) * 2020-10-22 2021-01-29 中电智能技术南京有限公司 一种车路协同道路交通系统
CN112329182A (zh) * 2020-10-28 2021-02-05 北京石油化工学院 车路协同条件下面向复杂交通形态的控制网格划分方法
CN113593240A (zh) * 2021-09-28 2021-11-02 湖南车路协同智能科技有限公司 一种用于车路协同的车辆路径规划方法及系统
CN114419925A (zh) * 2021-12-01 2022-04-29 合肥工业大学 一种车路协同的防碰预警系统和方法
CN114550415A (zh) * 2022-01-28 2022-05-27 交通运输部公路科学研究所 一种基于车路协同的大型车辆车道级精准管控方法及系统

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180310296A1 (en) * 2015-11-05 2018-10-25 China Academy Of Telecommunications Technology Resource scheduling method and device for vehicle infrastructure cooperative communication system, and node of vehicle infrastructure cooperative communication system
US20190075559A1 (en) * 2016-05-03 2019-03-07 Huawei Technologies Co., Ltd. Resource scheduling method and terminal device
CN106571046A (zh) * 2016-11-11 2017-04-19 上海市政工程设计研究总院(集团)有限公司 基于路面网格体系的车路协同辅助驾驶方法
CN111542860A (zh) * 2016-12-30 2020-08-14 迪普迈普有限公司 用于自主车辆的高清地图的标志和车道创建
CN111783502A (zh) * 2019-04-03 2020-10-16 长沙智能驾驶研究院有限公司 基于车路协同的视觉信息融合处理方法、装置及存储介质
CN111787481A (zh) * 2020-06-17 2020-10-16 北京航空航天大学 一种基于5g的路车协调高精度感知方法
CN112289059A (zh) * 2020-10-22 2021-01-29 中电智能技术南京有限公司 一种车路协同道路交通系统
CN112329182A (zh) * 2020-10-28 2021-02-05 北京石油化工学院 车路协同条件下面向复杂交通形态的控制网格划分方法
CN113593240A (zh) * 2021-09-28 2021-11-02 湖南车路协同智能科技有限公司 一种用于车路协同的车辆路径规划方法及系统
CN114419925A (zh) * 2021-12-01 2022-04-29 合肥工业大学 一种车路协同的防碰预警系统和方法
CN114550415A (zh) * 2022-01-28 2022-05-27 交通运输部公路科学研究所 一种基于车路协同的大型车辆车道级精准管控方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
NATALIE MATTA 等: "A cooperative aggregation-based architecture for vehicle-to-grid communications", 《GLOBAL INFORMATION INFRASTRUCTURE SYMPOSIUM - GIIS 2011》 *
张海亮: "基于车路协同技术的智能交通下多匝道协同控制算法", 《自动化与仪器仪表》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024060575A1 (zh) * 2022-09-19 2024-03-28 智道网联科技(北京)有限公司 路侧设备数据处理方法、装置及电子设备、存储介质
CN115966095A (zh) * 2022-12-02 2023-04-14 云控智行科技有限公司 基于车辆的交通数据融合处理方法、装置、设备及介质

Also Published As

Publication number Publication date
CN114937249B (zh) 2022-11-11

Similar Documents

Publication Publication Date Title
CN114937249B (zh) 一种基于网格化管理的车路协同视觉感知处理方法
WO2021004312A1 (zh) 一种基于双目立体视觉系统的车辆智能测轨迹方法
WO2021004548A1 (zh) 一种基于双目立体视觉系统的车辆智能测速方法
CN111540048B (zh) 一种基于空地融合的精细化实景三维建模方法
CN110648389A (zh) 基于无人机和边缘车辆协同的城市街景3d重建方法和系统
CN106878687A (zh) 一种基于多传感器的车载环境识别系统及全方位视觉模块
CN110428501B (zh) 全景影像生成方法、装置、电子设备及可读存储介质
CN110555407B (zh) 路面车辆空间识别方法及电子设备
CN105825173A (zh) 通用道路和车道检测系统与方法
CN206611521U (zh) 一种基于多传感器的车载环境识别系统及全方位视觉模块
CN112204614B (zh) 来自非固定相机的视频中的运动分割
CN106560835A (zh) 一种路牌识别方法及装置
CN115014224B (zh) 基于LiDAR点云与倾斜航空影像的地表形变监测方法
CN112261293B (zh) 变电站远程巡检方法、装置和电子设备
CN112365549B (zh) 车载相机的姿态校正方法、装置和存储介质及电子装置
CN107145825A (zh) 地平面拟合、摄像头标定方法及系统、车载终端
CN104966062A (zh) 视频监视方法和装置
CN111141264A (zh) 一种基于无人机的城市三维测绘方法和系统
CN109741241A (zh) 鱼眼图像的处理方法、装置、设备和存储介质
CN110750153A (zh) 一种无人驾驶车辆的动态虚拟化装置
CN114372919B (zh) 一种双挂汽车列车全景环视图像拼接方法及系统
CN115424263A (zh) 交通灯的标注方法、车载设备和存储介质
CN114897684A (zh) 车辆图像的拼接方法、装置、计算机设备和存储介质
CN112001266B (zh) 一种大型无人运输车监控方法及系统
CN116958218A (zh) 一种基于标定板角点对齐的点云与图像配准方法及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant