CN116311141A - 一种面向特速公路的车路协同视距拓展方法 - Google Patents

一种面向特速公路的车路协同视距拓展方法 Download PDF

Info

Publication number
CN116311141A
CN116311141A CN202310595599.7A CN202310595599A CN116311141A CN 116311141 A CN116311141 A CN 116311141A CN 202310595599 A CN202310595599 A CN 202310595599A CN 116311141 A CN116311141 A CN 116311141A
Authority
CN
China
Prior art keywords
distance
vision
vehicle
lane
sight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310595599.7A
Other languages
English (en)
Other versions
CN116311141B (zh
Inventor
丘建栋
罗舒琳
朱泽雄
李细细
叶亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Urban Transport Planning Center Co Ltd
Original Assignee
Shenzhen Urban Transport Planning Center Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Urban Transport Planning Center Co Ltd filed Critical Shenzhen Urban Transport Planning Center Co Ltd
Priority to CN202310595599.7A priority Critical patent/CN116311141B/zh
Publication of CN116311141A publication Critical patent/CN116311141A/zh
Application granted granted Critical
Publication of CN116311141B publication Critical patent/CN116311141B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明提出一种面向特速公路的车路协同视距拓展方法,属于视距拓展技术领域。包括以下步骤:S1.根据车辆信息参数构建安全视距计算模型;车辆信息参数包括:反应距离、制动初始速度、制动反应时间、制动距离、纵向模组系数和重力加速度;S2.根据处理后的车道线、行车视距计算、视距差计算对视距长度进行验算;S3.对实时行车视距不足的车辆进行视距拓展呼叫。解决车路协同条件下,视距拓展的理论方法和数学模型普遍缺乏理论深度的问题,减少视距验算干扰,提高视距验算精度;通过安全视距与动态行车视距差的实时验算,填补运用协同学拓展行车视距的技术空白,有助于解决高速运行条件下车辆行车视距不足问题,为加快特速公路建设提供支撑。

Description

一种面向特速公路的车路协同视距拓展方法
技术领域
本申请涉及视距拓展方法,尤其涉及一种面向特速公路的车路协同视距拓展方法,属于视距拓展技术领域。
背景技术
近年来,车辆技术及公路性能逐步增强,交通安全环境稳步向好,伴随信息化、数字化、智能化程度逐步加深,面向更安全、更高效、更快捷的发展愿景,建设自动驾驶特速公路的呼声日益高涨。智能装备提高了现代公路的感知力、反应力,但突破现行公路安全管理制式,超出120km/s的车速限制,如何保障交通运行安全依然面临巨大挑战。视距作为交通安全控制的关键评价指标,近几年在特速公路相关研究中备受关注。相比常速公路,特速公路对视距提出更高要求,车辆要“看得更远”,在高精地图建设缓滞背景下,基于车、路协同网联环境下的视距拓展研究具有现实意义。
为此,有研究人员提出了CN205220540U,一种行车视距拓展装置,但以设备智能化改造、加高、加装等物理方法为主,视距拓展空间非常有限。高精地图有望解决行车视距不足问题,但高精地图构建仍处于社会分工探讨、顶层设计论证的起步阶段,能够支持智能网联应用的真正意义上的广域高精地图,建设难度大、进展慢,一方面,基于社会众包的地图采集模式成本低廉,但社会车辆缺乏统一标准规范约束,数据敏感性、多样性、差异性显著,地图高频刷新、稳定输出面临挑战;另一方面,机构自建面临滚雪球般的成本代价,联合技术成熟度不足,短期内依靠地图运营回利无望,也因此,精度达到智能交通测试要求的高精地图建设难度大、进展慢,基于车路协同方法开展视距拓展的过渡研究为解决视距问题打开新思路,但目前,车路协同条件下,视距拓展的理论方法和数学模型普遍缺乏理论深度。
发明内容
在下文中给出了关于本发明的简要概述,以便提供关于本发明的某些方面的基本理解。应当理解,这个概述并不是关于本发明的穷举性概述。它并不是意图确定本发明的关键或重要部分,也不是意图限定本发明的范围。其目的仅仅是以简化的形式给出某些概念,以此作为稍后论述的更详细描述的前序。
鉴于此,为解决现有技术中存在的技术问题,本发明提供一种面向特速公路的车路协同视距拓展方法。
方案一、一种面向特速公路的车路协同视距拓展方法,包括以下步骤:
S1.根据车辆信息参数构建安全视距计算模型;
车辆信息参数包括:反应距离、制动初始速度、制动反应时间、制动距离、纵向模组系数和重力加速度;
S2.根据处理后的车道线、行车视距计算、视距差计算对视距长度进行验算,根据处理后的车道线、行车视距计算、视距差计算对视距长度进行验算的方法,包括以下步骤:
S21.车道线降噪提取:
S22.将图像中的车道线长度转化为物理世界中的视距长度进行行车视距计算:
S23.视距差计量:定义行车视距差为实际行车视距与停车视距的差值,则车辆i运行至(x,y)处的视距差值为:
Figure SMS_1
,当/>
Figure SMS_2
,车辆实时行车视距不足;
S3.对实时行车视距不足的车辆进行视距拓展呼叫,包括以下步骤:
S31.计算车载与路侧设备的视角差,视角差越小,高度差越小,距离越近,呼叫优先级越高;
S32.拓展视距验算:确定车辆i及呼叫对象j的视觉起、终点坐标,将拓展视距定义为车载视觉起点到呼叫对象视觉终点的空间距离,已知通过车道线可分别提取识别车辆及呼叫对象的视觉起、终点坐标,获得拓展视距,当拓展视距大于停车视距,停止呼叫;否则呼叫车辆视距范围内的次优呼叫对象,重新验算拓展视距长度,直至满足安全视距要求为止。
优选的,制动反应时间取值范围为:人工驾驶车辆的反应时间为2.5s,L3级自动驾驶车辆的反应时间为0.5s。
优选的,车道线降噪提取的方法,包括以下步骤:
S211.对图像进行净化处理确定最佳量测车道:对机器视觉图像原图进行图像二值化处理,像素保留黑白两种状态,净化环境变量、提取单个车道线,建立统一单车道图像坐标系,通过图像扫描测量车道宽度,基于车道宽度异常筛选有效像素,确定最佳量测车道;
S212.车道宽度计算:建立车道i的图像坐标系,设图像坐标系中像素坐标为
Figure SMS_3
,像素/>
Figure SMS_4
的颜色属性为/>
Figure SMS_5
,取值为0、1,0表黑色、l表白色;设扫描y=k(简称k线)像素时,第一个白色像素坐标为/>
Figure SMS_6
、最后一个白色像素坐标为/>
Figure SMS_7
,其中,y是图像坐标系中像素点的y坐标值,k为常数;则车道i在图像坐标系k线上的车道线宽度为:
Figure SMS_8
具体的,车道i的图像坐标系中图像长为a,宽为b个像素;图像长度对一个x轴,宽度对应y轴;
具体的,扫描时利用图像扫描程序扫描图像,从y-0 至y=b 逐个像素递进,扫描车道线同一y值下的第一个白色像素与最后一个变色像素的x值。
S213.通过透视与突变识别无效像素:
S214.选取车道对视距长度进行验算;将无效像素定义为黑色像素及白色干扰像素;设扫描x=n线时,y轴第一个白色像素的坐标为(n,ye),最后一个白色像素坐标为(n,ys),通过车道的累计有效像素总量评估,选取累计有效像素最大的车道作为视距长度验算。
优选的,将图像中的车道线长度转化为物理世界中的视距长度进行行车视距计算的方法,包括以下步骤:
S221.坐标系转换:以S214中所述车道的车道线中线的起点、终点的像素坐标
Figure SMS_9
、/>
Figure SMS_10
为输入,以起、终点世界坐标(x1,y1,z1)、(x2,y2,z2)为输出;
S222.视距长度计算;设车辆i处于(x,y,z)处,其视觉起点的世界坐标为(x1,y1,z1)、视觉终点的(x2,y2,z2),基于视觉起、终点的世界坐标求解视距长度,则车辆i在(x,y,z)位置的视距长度为:
Figure SMS_11
方案二、一种电子设备,包括存储器和处理器,存储器存储有计算机程序,所述的处理器执行所述计算机程序时实现方案一所述的一种面向特速公路的车路协同视距拓展方法的步骤。
方案三、一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现方案一所述的一种面向特速公路的车路协同视距拓展方法。
本发明的有益效果如下:
(1)区别于设备性能优化、结构改造的物理视距优化方法,本发明基于车路协同技术,提出车侧呼叫的视距主动拓展方法,纳入透视及突变理论提出图像坐标系中车道线提取的降噪方法,提出最佳视距量测车道的评估及选取方法,减少视距验算干扰,提高视距验算精度;
(2)通过安全视距与动态行车视距差的实时验算,提出呼叫对象、呼叫范围的确定方法,填补运用协同学拓展行车视距的技术空白,有助于解决高速运行条件下车辆行车视距不足问题,为加快特速公路建设提供技术支撑。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为一种面向特速公路的车路协同视距拓展方法流程示意图;
图2为车道线降噪提取流程示意图;
图3为透视原理示意图;
图4为突变原理示意图;其中a为白色像素宽度骤变前,b为白色像素宽度骤变后;
图5为位姿示意图;
图6为拓展视距示意图。
具体实施方式
为了使本申请实施例中的技术方案及优点更加清楚明白,以下结合附图对本申请的示例性实施例进行进一步详细的说明,显然,所描述的实施例仅是本申请的一部分实施例,而不是所有实施例的穷举。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
实施例1、参照图1-图6说明本实施方式,一种面向特速公路的车路协同视距拓展方法,包括以下步骤:
S1.根据车辆信息参数构建安全视距计算模型;
具体的,车辆信息参数包括:反应距离、制动初始速度、制动反应时间、制动距离、纵向模组系数和重力加速度;
具体的,制动反应时间取值范围为:人工驾驶车辆的反应时间为2.5s,L3级自动驾驶车辆的反应时间为0.5s,L5级自动驾驶车辆的反应时间为0.2s,具体可参照表1 自动驾驶反应时间取值表;
面向特速公路,安全视距的车速取值将超出120km/h,对安全视距长度提出更高要求。此外,面向自动驾驶的特速公路,其停车视距计量模型与人工驾驶虽然基本一致,但在用参方面,由于自动驾驶车辆反应更灵敏,不同驾驶等级的自动驾驶车辆反应时间需要调整,人工驾驶及L3、L5级自动驾驶车辆的反应时间取值如:
表 1 自动驾驶反应时间取值
Figure SMS_12
具体的,高速公路不存在会车问题,车路协同智能网联环境下,采用停车视距定义安全视距,面向自动驾驶模式的停车视距计算通常沿用人工驾驶停车视距模型,一般式为:
Figure SMS_13
式中:
Figure SMS_14
分别为反应距离(m)、制动初始速度(km/h)、制动反应时间(s),/>
Figure SMS_15
分别为制动距离(m)、纵向模组系数、重力加速度(9.8 m/s2)。
自动驾驶车辆主要通过车载雷达、视觉感知设备探测可感、可视范围内的环境信息,雷达可以实现直接测距,直线路段测距效果良好,但弯道条件下误差较大;基于机器视觉探测的视频、图像信号,通过图像扫描技术提取车道长度,将车道线长度近似为长度,是当前实现视距测算的可行方法,因此,根据处理后的车道线、行车视距计算、视距差计算对视距长度进行验算,具体为:
S2.根据处理后的车道线、行车视距计算、视距差计算对视距长度进行验算;
S21.车道线降噪提取:基于机器视觉下的车道标识线检测,结合透视投影下的测距模型对视距长度进行验算,当车道线存在车辆、道路标识遮挡,将对车道线测距特征点的提取造成不利干扰,影响视距评估精度,需要过滤图像噪声,具体为:
S211.对图像进行净化处理确定最佳量测车道:对机器视觉图像原图进行图像二值化处理,像素保留黑白两种状态,如图2所示,净化环境变量、提取单个车道线,建立统一单车道图像坐标系,通过图像扫描测量车道宽度,基于车道宽度异常筛选有效像素,确定最佳量测车道;
S212.车道宽度计算:建立车道i的图像坐标系,设图像坐标系中像素坐标为
Figure SMS_16
,像素/>
Figure SMS_17
的颜色属性为/>
Figure SMS_18
,取值为0、1,0表黑色、l表白色;利用图像扫描程序扫描图像,设扫描y=k(简称k线)的像素时,第一个白色像素坐标为/>
Figure SMS_19
、最后一个白色像素坐标为/>
Figure SMS_20
,其中,y是图像坐标系中像素点的y坐标值,k为常数;则车道i在图像坐标系k线上的车道线宽度为:/>
Figure SMS_21
S213.通过透视与突变识别无效像素:
如图3所示,根据透视成像原理,图像坐标系中的车道线宽度呈远窄近宽、连续变化的视觉规律,y=0处的车道线宽度为测算车道线宽度的上限,当出现任意y=k处的车道线宽度大于y=0,可视其为干扰像素,数学表达式为:
Figure SMS_22
通过对比车道i在y=k、y=k+1处前后车道线宽度变化情况,当车道宽度扫描结果出现近小远大时,k+1上的像素点视为干扰像素予以剔除;透视条件下的车道宽度异常判别公式为:
Figure SMS_23
Figure SMS_24
表k处为无效像素或道路中线的隔断,/>
Figure SMS_25
表有效像素。
如图4所示,S213限定了车道线宽度的上下限及变化幅度,但未对变化幅度进行量化,由于遮挡实体的多样性,可能出现车道线宽度处于上下限之间、符合近大远小原则但变化幅度异常的情况,车道线的宽度变化应缓和且连续,结合突变原理,当k线到k+1的车道宽度扫描结果出现骤变,且车道线宽度远大于正常透视变化时,k+1的像素点视为干扰点予以剔除。判别式为:
Figure SMS_26
式中,
Figure SMS_27
为突变系数,与摄像设备参数有关;/>
Figure SMS_28
为合理透视差,指y=0至y=k的前后车道线宽变化量的均值。
当前扫描车道宽度只与前一有效宽度比较,也即当y=k上的车道像素被判定为干扰点时,后继y=k+1的车道像素的有效性判断,将跳过无效像素y=k,直接与y=k-1比较。
S214.选取车道对视距长度进行验算;将无效像素定义为黑色像素及白色干扰像素;设扫描x=n线时,y轴第一个白色像素的坐标为(n,ye),最后一个白色像素坐标为(n,ys),通过车道的累计有效像素总量评估,选取累计有效像素最大的车道作为视距长度验算;车道累计有效像素的计算方法为:
Figure SMS_29
S22.将图像中的车道线长度转化为物理世界中的视距长度进行行车视距计算:
车道线在图像上以二维形式呈现,定义视距为视觉起终点的空间距离,车道线的起、终点对应物理世界中视觉起点、视觉终点,存在于三维空间,将图像中的车道线长度转化为物理世界中的视距长度,涉及二维空间到三维空间的转换,包含图像坐标系(定位像素)、摄像机坐标系(定义相机位姿、高度等参数与像素的关系)、成像平面坐标系(相机位置即视点与成像实体(视觉焦点)的位置关系)到世界坐标系4个坐标系的切换;具体为:
S221.坐标系转换:以S214中所述车道的车道线中线的起点、终点的像素坐标
Figure SMS_30
、/>
Figure SMS_31
为输入,以起、终点世界坐标(x1,y1,z1)、(x2,y2,z2)为输出;
S222.视距长度计算;设车辆i处于(x,y,z)处,其视觉起点的世界坐标为(x1,y1,z1)、视觉终点的(x2,y2,z2),基于视觉起、终点的世界坐标求解视距长度,则车辆i在(x,y,z)位置的视距长度为:
Figure SMS_32
S23.视距差计量:定义行车视距差为实际行车视距与停车视距的差值,则车辆i运行至(x,y)处的视距差值为:
Figure SMS_33
Figure SMS_34
,车辆实时行车视距不足;
具体的,为保障车辆运行安全,通常利用动态限速、车距控制等车辆管理手段,通过动态硬性限制车速、车距,人为降低视距要求,以保障车辆运行安全。从拓展视距的角度出发,通过向道路智能终端或运控平台求助,以向车辆回传视频、图像、雷达信号等方式,补足视差,拓宽视距。
S3.对实时行车视距不足的车辆进行视距拓展呼叫;
车路协同、智能网联环境支持车车、车路、车云多向交互,由于设施探测视角各不同,设备间的成像角度有差异,呼叫对象应最大程度与车辆位置、位姿、视角相同,因此,涉及呼叫对象的选择,其中,车路呼叫可细分为门架呼叫、路侧呼叫等。以门架设备为例,车辆与门架摄像头在世界坐标系中的位姿布局如图5所示。
呼叫对象向车辆回传的图像拓展信息应与车辆视角最大程度贴合,以减少视角差导致的决策偏误,当视角差过大则需要进行视角修正,同时,视距呼叫优先考虑满足视距拓展要求的最近设备,以最大程度增加两设备的环境重叠度,减少因距离过大导致的环境突变问题,因此,综合考虑车辆与呼叫设备的距离、探测位姿、探测高度、视角差异确定呼叫优先级。
得到车辆及路侧设备视觉起、终点的世界坐标,已知三维直角世界坐标中两个点的坐标,基于通用数学关系分别求解两点连线与x轴、y轴、z轴之间的夹角,分别定义为水平视角、垂直视角为、纵向视角;具体为:
S31.呼叫对象:设车载摄像头水平视角为
Figure SMS_35
,垂直视角为/>
Figure SMS_36
,纵向视角为/>
Figure SMS_37
;路侧设备的水平视角为/>
Figure SMS_38
,垂直视角为/>
Figure SMS_39
,纵向视角为/>
Figure SMS_40
,则两设备的视角差为:
Figure SMS_41
视角差越小,高度差越小,距离越近,呼叫优先级越高,表达式为:
Figure SMS_42
式中,i为车辆标识;j为呼叫对象标识;J为车辆i行车视距范围内的设备集合;
Figure SMS_43
为车辆与呼叫设备的距离;/>
Figure SMS_44
,表车辆与呼叫对象的高度差,hi为车载摄像头i高度,hj为路侧设备j的高度。
S32.拓展视距验算:确定车辆i及呼叫对象j的视觉起、终点坐标,将拓展视距定义为车载视觉起点到呼叫对象视觉终点的空间距离,如图6所示,已知通过车道线可分别提取识别车辆及呼叫对象的视觉起、终点坐标,则拓展视距长度为:
Figure SMS_45
Figure SMS_46
,停止呼叫;否则呼叫车辆视距范围内的次优呼叫对象,重新验算拓展视距长度,直至满足安全视距要求为止。
实施例2、本发明的计算机装置可以是包括有处理器以及存储器等装置,例如包含中央处理器的单片机等。并且,处理器用于执行存储器中存储的计算机程序时实现上述的一种暂冲式跨声速风洞马赫数控制方法的步骤。
所称处理器可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器 (Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列 (Field-Programmable Gate Array,FPGA) 或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card, SMC),安全数字(Secure Digital, SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
实施例3、计算机可读存储介质实施例
本发明的计算机可读存储介质可以是被计算机装置的处理器所读取的任何形式的存储介质,包括但不限于非易失性存储器、易失性存储器、铁电存储器等,计算机可读存储介质上存储有计算机程序,当计算机装置的处理器读取并执行存储器中所存储的计算机程序时,可以实现上述的一种暂冲式跨声速风洞马赫数控制方法的步骤。
所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
尽管根据有限数量的实施例描述了本发明,但是受益于上面的描述,本技术领域内的技术人员明白,在由此描述的本发明的范围内,可以设想其它实施例。此外,应当注意,本说明书中使用的语言主要是为了可读性和教导的目的而选择的,而不是为了解释或者限定本发明的主题而选择的。因此,在不偏离所附权利要求书的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。对于本发明的范围,对本发明所做的公开是说明性的,而非限制性的,本发明的范围由所附权利要求书限定。

Claims (6)

1.一种面向特速公路的车路协同视距拓展方法,其特征在于,包括以下步骤:
S1.根据车辆信息参数构建安全视距计算模型;
车辆信息参数包括:反应距离、制动初始速度、制动反应时间、制动距离、纵向模组系数和重力加速度;
S2.根据处理后的车道线、行车视距计算、视距差计算对视距长度进行验算,根据处理后的车道线、行车视距计算、视距差计算对视距长度进行验算的方法,包括以下步骤:
S21.车道线降噪提取;
S22.将图像中的车道线长度转化为物理世界中的视距长度进行行车视距计算;
S23.视距差计量:定义行车视距差为实际行车视距与停车视距的差值,则车辆i运行至(x,y)处的视距差值为:
Figure QLYQS_1
,当/>
Figure QLYQS_2
,车辆实时行车视距不足;
S3.对实时行车视距不足的车辆进行视距拓展呼叫,包括以下步骤:
S31.计算车载与路侧设备的视角差,视角差越小,高度差越小,距离越近,呼叫优先级越高;
S32.拓展视距验算:确定车辆i及呼叫对象j的视觉起、终点坐标,将拓展视距定义为车载视觉起点到呼叫对象视觉终点的空间距离,已知通过车道线可分别提取识别车辆及呼叫对象的视觉起、终点坐标,获得拓展视距,当拓展视距大于停车视距,停止呼叫;否则呼叫车辆视距范围内的次优呼叫对象,重新验算拓展视距长度,直至满足安全视距要求为止。
2.根据权利要求1所述一种面向特速公路的车路协同视距拓展方法,其特征在于,制动反应时间取值范围为:人工驾驶车辆的反应时间为2.5s,L3级自动驾驶车辆的反应时间为0.5s。
3.根据权利要求2所述一种面向特速公路的车路协同视距拓展方法,其特征在于,车道线降噪提取的方法,包括以下步骤:
S211.对图像进行净化处理确定最佳量测车道:对机器视觉图像原图进行图像二值化处理,像素保留黑白两种状态,净化环境变量、提取单个车道线,建立统一单车道图像坐标系,通过图像扫描测量车道宽度,基于车道宽度异常筛选有效像素,确定最佳量测车道;
S212.车道宽度计算:建立车道i的图像坐标系,设图像坐标系中像素坐标为
Figure QLYQS_3
,像素/>
Figure QLYQS_4
的颜色属性为/>
Figure QLYQS_5
,取值为0、1,0表黑色、l表白色;设扫描y=k像素时,第一个白色像素坐标为/>
Figure QLYQS_6
、最后一个白色像素坐标为/>
Figure QLYQS_7
,其中,y是图像坐标系中像素点的y坐标值,k为常数;则车道i在图像坐标系k线上的车道线宽度为:/>
Figure QLYQS_8
S213.通过透视与突变识别无效像素:
S214.选取车道对视距长度进行验算;将无效像素定义为黑色像素及白色干扰像素;设扫描x=n线时,y轴第一个白色像素的坐标为(n,ye),最后一个白色像素坐标为(n,ys),通过车道的累计有效像素总量评估,选取累计有效像素最大的车道作为视距长度验算。
4.根据权利要求3所述一种面向特速公路的车路协同视距拓展方法,其特征在于,将图像中的车道线长度转化为物理世界中的视距长度进行行车视距计算的方法,包括以下步骤:
S221.坐标系转换:以S214中所述车道的车道线中线的起点、终点的像素坐标
Figure QLYQS_9
、/>
Figure QLYQS_10
为输入,以起、终点世界坐标(x1,y1,z1)、(x2,y2,z2)为输出;
S222.视距长度计算;设车辆i处于(x,y,z)处,其视觉起点的世界坐标为(x1,y1,z1)、视觉终点的(x2,y2,z2),基于视觉起、终点的世界坐标求解视距长度,则车辆i在(x,y,z)位置的视距长度为:
Figure QLYQS_11
5.一种电子设备,其特征在于,包括存储器和处理器,存储器存储有计算机程序,所述的处理器执行所述计算机程序时实现权利要求1-4任一项所述的一种面向特速公路的车路协同视距拓展方法的步骤。
6.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-4任一项所述的一种面向特速公路的车路协同视距拓展方法。
CN202310595599.7A 2023-05-25 2023-05-25 一种面向特速公路的车路协同视距拓展方法 Active CN116311141B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310595599.7A CN116311141B (zh) 2023-05-25 2023-05-25 一种面向特速公路的车路协同视距拓展方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310595599.7A CN116311141B (zh) 2023-05-25 2023-05-25 一种面向特速公路的车路协同视距拓展方法

Publications (2)

Publication Number Publication Date
CN116311141A true CN116311141A (zh) 2023-06-23
CN116311141B CN116311141B (zh) 2023-10-20

Family

ID=86813571

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310595599.7A Active CN116311141B (zh) 2023-05-25 2023-05-25 一种面向特速公路的车路协同视距拓展方法

Country Status (1)

Country Link
CN (1) CN116311141B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101986140A (zh) * 2010-11-03 2011-03-16 陈伟 一种道路交通能见度差值获取方法
JP2014133512A (ja) * 2013-01-11 2014-07-24 Nissan Motor Co Ltd 車両用表示制御装置及び車両用表示制御方法
CN111231946A (zh) * 2020-03-03 2020-06-05 安徽中科美络信息技术有限公司 一种低视距车辆安全行驶控制方法
CN111932910A (zh) * 2020-06-22 2020-11-13 淮阴工学院 一种智能车路协同环境下实时动态可变车道安全控制方法
CN114967705A (zh) * 2022-06-17 2022-08-30 北京航空航天大学 一种基于路侧导引的路车融合控制方法
CN115116025A (zh) * 2022-05-25 2022-09-27 上海市城市建设设计研究总院(集团)有限公司 基于地下道路视距的行车风险评估系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101986140A (zh) * 2010-11-03 2011-03-16 陈伟 一种道路交通能见度差值获取方法
JP2014133512A (ja) * 2013-01-11 2014-07-24 Nissan Motor Co Ltd 車両用表示制御装置及び車両用表示制御方法
CN111231946A (zh) * 2020-03-03 2020-06-05 安徽中科美络信息技术有限公司 一种低视距车辆安全行驶控制方法
CN111932910A (zh) * 2020-06-22 2020-11-13 淮阴工学院 一种智能车路协同环境下实时动态可变车道安全控制方法
CN115116025A (zh) * 2022-05-25 2022-09-27 上海市城市建设设计研究总院(集团)有限公司 基于地下道路视距的行车风险评估系统
CN114967705A (zh) * 2022-06-17 2022-08-30 北京航空航天大学 一种基于路侧导引的路车融合控制方法

Also Published As

Publication number Publication date
CN116311141B (zh) 2023-10-20

Similar Documents

Publication Publication Date Title
US11893891B2 (en) Method for calculating time to collision for object and vehicle, calculation device and vehicle
CN113657224B (zh) 车路协同中用于确定对象状态的方法、装置、设备
JP6358160B2 (ja) 走行路面検出装置及び走行路面検出方法
JP6150164B2 (ja) 情報検出装置、移動体機器制御システム、移動体及び情報検出用プログラム
CN111179152A (zh) 一种道路标识识别方法及装置、介质、终端
CN107977654B (zh) 一种道路区域检测方法、装置及终端
CN111930877B (zh) 地图路牌的生成方法及电子设备
CN106504205A (zh) 一种图像去雾方法及终端
CN111243003A (zh) 车载双目摄像机及其检测道路限高杆的方法、装置
CN108573215A (zh) 道路反光区域检测方法、装置和终端
CN112669465A (zh) 场景转换方法、电子设备及存储介质
CN113050660B (zh) 误差补偿方法、装置、计算机设备及存储介质
CN116311141B (zh) 一种面向特速公路的车路协同视距拓展方法
CN111950434A (zh) 一种基于离散点扫描的车道线结构化方法及系统
CN112902911A (zh) 基于单目相机的测距方法、装置、设备及存储介质
CN113902047B (zh) 图像元素匹配方法、装置、设备以及存储介质
CN116164763A (zh) 目标航向角确定方法、装置及电子设备、存储介质
CN113744360A (zh) 一种高精地图数据自动生成道路元素网格的方法和系统
CN117075135B (zh) 一种车辆特征检测方法、系统、存储介质和电子设备
CN117739950B (zh) 一种地图的生成方法、装置及设备
CN116502479B (zh) 一种三维物体在仿真环境中的碰撞检测方法和装置
CN115861976B (zh) 车辆的控制方法、装置和车辆
CN110598505B (zh) 障碍物悬空状态判断方法、装置及终端
CN116246459A (zh) 检测车辆所处车道的方法、装置、终端设备和存储介质
CN116524756A (zh) 共享车辆的还车方法、装置及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant