CN115402347A - 用于识别车辆的可行驶区域的方法及辅助驾驶方法 - Google Patents
用于识别车辆的可行驶区域的方法及辅助驾驶方法 Download PDFInfo
- Publication number
- CN115402347A CN115402347A CN202110586455.6A CN202110586455A CN115402347A CN 115402347 A CN115402347 A CN 115402347A CN 202110586455 A CN202110586455 A CN 202110586455A CN 115402347 A CN115402347 A CN 115402347A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- road
- sensing result
- result
- sensing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0025—Planning or execution of driving tasks specially adapted for specific operations
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Traffic Control Systems (AREA)
Abstract
本公开涉及一种用于识别车辆的可行驶区域的方法及辅助驾驶方法,该用于识别车辆的可行驶区域的方法包括:获取同一时刻的路端感知结果和至少一个车端感知结果;其中,路端感知结果为路端设备监测的路端感知范围内的感知结果,车端感知结果为车端设备的车端感知范围内的感知结果;路端感知范围与车端感知范围存在重叠区域;基于路端感知结果和每一车端感知结果,输出每一车端设备对应的综合感知结果;以及根据每一综合感知结果,输出对应车辆的可行驶区域。根据本公开实施例的方法能够更精确的检测道路场景中的可行驶区域,以改善车端设备因被遮挡而产生盲区等问题,并可以实现对车端的辅助驾驶。
Description
技术领域
本公开一般地涉及自动驾驶技术领域。更具体地,本公开涉及一种用于识别车辆的可行驶区域的方法和辅助驾驶方法。
背景技术
近年来,计算机技术越来越多地应用到车辆驾驶领域。伴随着汽车产业的发展,车辆智能驾驶系统往往需要获取车辆周围环境中可行驶区域的结构化信息,以用于车辆行驶的实时控制和决策。
目前,车辆可行驶区域的识别大多是基于车端感知结果获取相应的可行驶区域。然而,传统的可行驶区域识别技术会受到车端感知设备视野的限制,使得识别的可行驶区域存在盲区问题,导致这种可行驶区域识别技术的精准度较差,而且识别范围有限。
因此,需要研究一种用于识别车辆的可行驶区域的方法,以改善传统的可行驶区域识别技术中存在的精准度较差和视野盲区的问题。
发明内容
鉴于上面所提到的技术问题,本公开的技术方案在多个方面提供一种用于识别车辆的可行驶区域的方法及辅助驾驶方法。
在本公开的第一方面中,提供一种用于识别车辆的可行驶区域的方法,所述方法包括:获取同一时刻的路端感知结果和至少一个车端感知结果;其中,所述路端感知结果为路端设备监测的路端感知范围内的感知结果,所述车端感知结果为车端设备的车端感知范围内的感知结果;所述路端感知范围与所述车端感知范围存在重叠区域;基于所述路端感知结果和每一所述车端感知结果,输出每一车端设备对应的综合感知结果;以及根据每一所述综合感知结果,输出对应车辆的可行驶区域。
在一个实施例中,所述综合感知结果包含第一感知结果和第二感知结果;所述第一感知结果为对应的重叠区域的感知结果,所述第一感知结果基于对应的车端感知结果和路端感知结果生成;所述第二感知结果为位于路端感知范围内且位于对应的车端感知范围外的感知结果,所述第二感知结果基于路端感知结果生成。
在另一个实施例中,所述综合感知结果还包括第三感知结果,所述第三感知结果为位于对应的车端感知范围内且位于路端感知范围外的感知结果。
在又一个实施例中,可行驶区域包括第一感知结果和第二感知结果的区分标记。
在一个实施例中,基于所述路端感知结果和每一所述车端感知结果,输出每一车端设备对应的综合感知结果,包括:确定所述重叠区域;将车端感知结果和路端感知结果转换至同一坐标系;以及将同一坐标系下,重叠区域内的车端感知结果与重叠区域内的路端感知结果进行融合,得到第一感知结果。
在另一个实施例中,获取同一时刻的路端感知结果和至少一个车端感知结果,包括:获取同一时刻的点云和图像;识别所述图像和点云中的道路区域;在所述道路区域中分别进行目标检测,以获得所述道路区域的图像检测结果和点云检测结果;以及根据所述图像检测结果和点云检测结果进行融合,以获得所述路端感知结果。
在又一个实施例中,根据所述图像检测结果和点云检测结果进行融合,以获得所述路端感知结果,包括:根据路端设备的系统标定参数,将所述点云检测结果中的点云目标转换至所述图像检测结果中图像目标所在的二维坐标系;以及根据所述二维坐标系中的点云目标和图像目标,确定所述路端感知结果中的被测目标,其中,信息匹配概率大于或者等于匹配阈值的所述点云目标和所述图像目标为同一所述被测目标,所述信息匹配概率用于表示所述点云目标与所述图像目标的位置重叠度。
在一个实施例中,根据每一所述综合感知结果,输出对应车辆的可行驶区域,包括:剔除所述综合感知结果中的非道路元素,得到所述车辆的可行驶区域;其中,所述非道路元素包括所述综合感知结果中的动态目标和/或超过高度阈值的路面目标。
在本公开的第二方面中,提供一种辅助驾驶方法,包括如下步骤:发送辅助驾驶请求;以及接收路端设备基于所述辅助驾驶请求返回的当前车辆的道路可行驶区域,所述当前车辆的道路可行驶区域利用如本公开的第一方面中任一所述的方法获取。
在本公开的第三方面中,提供一种辅助驾驶方法,包括:接收车端设备发送的辅助驾驶请求;以及基于所述辅助驾驶请求向所述车端设备发送当前车辆的道路可行驶区域,所述当前车辆的道路可行驶区域利用本公开的第一方面中任一所述的方法获取。
在一个实施例中,基于所述辅助驾驶请求向所述车端设备发送当前车辆的道路可行驶区域,包括:解析所述辅助驾驶请求,得到所述当前车辆的位置信息;根据所述当前车辆的位置信息,从获取的至少一个车辆的道路可行驶区域中确定当前车辆的道路可行驶区域;以及将所述当前车辆的道路可行驶区域发送至所述车载设备。
在本公开的第四方面中,提供一种用于识别车辆的可行驶区域的装置,其特征在于,包括:获取单元,其配置用于获取同一时刻的路端感知结果和至少一个车端感知结果;其中,所述路端感知结果为路端设备监测的路端感知范围内的感知结果,所述车端感知结果为车端设备的车端感知范围内的感知结果;所述路端感知范围与所述车端感知范围存在重叠区域;综合感知结果输出单元,其配置用于基于所述路端感知结果和每一所述车端感知结果,输出每一车端设备对应的综合感知结果;以及可行驶区域输出单元,其配置用于根据每一所述综合感知结果,输出对应车辆的可行驶区域。
在本公开的第五方面中,提供一种辅助驾驶装置,其特征在于,包括:第一发送单元,其配置用于发送辅助驾驶请求;以及第一接收单元,其配置用于接收路端设备基于所述辅助驾驶请求返回的当前车辆的道路可行驶区域,所述当前车辆的道路可行驶区域利用如前述第一方面任一实施例所述的方法获取。
在本公开的第六方面中,提供一种辅助驾驶装置,其特征在于,包括:第二接收单元,其配置用于接收车端设备发送的辅助驾驶请求;以及第二发送单元,其配置用与基于所述辅助驾驶请求向所述车端设备发送当前车辆的道路可行驶区域,所述当前车辆的道路可行驶区域利用前述第一方面任一实施例所述的方法获取。
在本公开的第七方面中,提供一种计算机可读存储介质,其存储有程序指令,当所述程序指令由处理器来运行时,使得所述处理器执行根据前述第一方面、第二方面或第三方面任一实施例所述的方法。
在本公开的第八方面中,提供一种路侧设备,其特征在于,包括:处理器;其配置用于执行程序指令;以及存储器,其配置用于存储所述程序指令,当所述程序指令由所述处理器执行时,使得所述处理器执行根据前述第一方面任一实施例或者前述第三方面任一实施例所述的方法。
通过上述对本公开的技术方案及其多个实施例的描述,本领域技术人员可以理解本公开的用于识别车辆的可行驶区域的方法及辅助驾驶方法,可以通过获取同一时刻的路端感知结果和车端感知结果,使得路端感知结果能够对车端感知结果进行补充,以形成视野更全面的综合感知结果,从而能够更精确的检测道路场景中的可行驶区域,以改善车端设备因被遮挡而产生盲区等问题,并可以实现对车端的辅助驾驶。
附图说明
通过参考附图阅读下文的详细描述,本公开示例性实施方式的上述以及其他目的、特征和优点将变得易于理解。在附图中,以示例性而非限制性的方式示出了本公开的若干实施方式,并且相同或对应的标号表示相同或对应的部分其中:
图1是示出根据本公开实施方式的应用场景示意图;
图2是示出根据本公开实施例的用于识别车辆的可行驶区域的方法流程图;
图3是示出根据本公开实施例的生成综合感知结果的场景示意图;
图4是示出根据本公开另一个实施例的生成综合感知结果的场景示意图;
图5是示出根据本公开另一个实施例的用于识别车辆的可行驶区域的方法流程图;
图6是示出根据本公开实施例的辅助驾驶方法流程图;以及
图7是示出根据本公开另一个实施例的辅助驾驶方法流程图。
具体实施方式
下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本公开一部分实施例,而不是全部的实施例。基于本公开中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
应当理解,本公开的权利要求、说明书及附图中的术语“第一”、“第二”、“第三”和“第四”等是用于区别不同对象,而不是用于描述特定顺序。本公开的说明书和权利要求书中使用的术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本公开说明书中所使用的术语仅仅是出于描述特定实施例的目的,而并不意在限定本公开。如在本公开说明书和权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。还应当进一步理解,在本公开说明书和权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本说明书和权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
本公开针对现有技术的不足,提供了一种全新的可实现的解决方案。特别的,本公开实施例的用于识别车辆的可行驶区域的方法可以利用路端设备和车端设备感知范围不同的特点,基于同一时刻的路端感知范围和车端感知范围获得每一个车辆设备对应的综合感知结果,以便能够基于感知范围更大的综合感知结果得到可行驶区域,从而能够有效解决仅通过车端感知结果检测可行驶区域可能导致的盲区问题,为实现更安全、更精准的自动驾驶提供技术支持。
通过下面的描述,本领域技术人员可以理解的是,本公开还提供了能够进一步提高可行驶区域识别准确性的实施方式。例如,在一些实施例中,可以通过将图像检测结果与点云检测结果进行融合,以便在路端设备的监测范围内更准确的检测出被测目标,有利于进一步提高可行驶区域检测结果的准确性。在另一些实施例中,可以通过剔除综合感知结果中的非道路元素,以得到更精确的可行驶区域。下面结合附图来详细描述本公开的具体实施方式。
图1是示出根据本公开实施方式的应用场景示意图。在一些应用场景中,路端设备可以设置于道路的一侧或两侧,并可以通过不同类型的传感器采集覆盖区域内的感知数据;车端设备可以设置在车辆上,并且可以通过不同类型的传感器采集车端设备覆盖区域内的感知数据。
如图1所示,路端设备可以包括例如图示中的雷达101、摄像机102和服务器103等。雷达101和摄像机102可以分别与服务器103通过有线或者无线的方式进行通信。服务器103可以通过雷达101和摄像机102对应获取同一时刻、同一场景下的点云和图像(或者视频),并可以对点云进行目标检测以得到点云检测结果,以及还可以对图像(或者视频)进行目标检测以得到图像检测结果。在一些实施方式中,服务器103可以至少对点云检测结果与图像检测结果进行融合,以得到点云和图像的融合结果。
如图1中进一步示出的,雷达101和摄像机102可以安装在道路侧的交通立杆或者交通横杆上。可选的,雷达101和摄像机102之间的位置偏移量可以小于偏移量阈值,使得雷达101和摄像机102近似于安装在同一位置。在一些实施例中,服务器103可以为一台服务器,也可以为由多台服务器组成的服务器集群。
进一步地,如图示中的场景中,车辆在道路上通行,车辆上可以安装有车端设备104,车端设备104可以包括各种车载传感器,例如设置在车辆上的毫米波雷达传感器、激光雷达传感器以及摄像机等中的至少一种。车端设备104可以对车载传感器采集的数据(例如图像、点云等)进行目标检测,以获得车端感知结果。在一些实施方式中,车端设备104可以将车端感知结果发送给服务器103。由此,服务器103可以进一步融合车端感知结果,以支持后续处理。例如,在一些实施例中,服务器103可以将车端设备104和路端设备采集得到的感知数据分别进行目标检测分析,得到对应的多种检测结果,然后可以将多种检测结果按照预设的融合策略进行融合,以得到最终的目标检测结果。
下面结合图1所示的应用场景,参考图2来描述根据本公开示例性实施方式的用于识别车辆的可行驶区域的方法。需要注意的是,上述应用场景仅是为了便于理解本公开的精神和原理而示出,本公开的实施方式在此方面不受任何限制。相反,本公开的实施方式可以应用于适用的任何场景。
图2是示出根据本公开实施例的用于识别车辆的可行驶区域的方法流程图。如图2所示,提供了一种用于识别车辆的可行驶区域的方法200,该方法200可以包括:在步骤201中,可以获取同一时刻的路端感知结果和至少一个车端感知结果;其中,路端感知结果可以为路端设备监测的路端感知范围内的感知结果,车端感知结果可以为车端设备的车端感知范围内的感知结果;路端感知范围与车端感知范围存在重叠区域。
上文中所述的同一时刻可以理解为同一时间戳或者同一帧。获取同一时刻的路端感知结果和至少一个车端感知结果,能够保证多种感知结果的同步性,有利于实现实时、准确的可行驶区域检测。在一些实施例中,路端设备可以包括设置于道路侧的雷达、图像采集设备等中的至少一种。在另一些实施例中,车端设备可以包括设置于车辆上的雷达、图像采集设备、车载传感器等中的至少一种。
由于车端设备和路端设备的位置以及视野均不同,因此车端感知范围与路端感知范围可能不同。在一些应用场景中,路端感知范围完全覆盖车端感知范围,则重叠区域为车端感知范围。在另一些应用场景中,路端感知范围与车端感知范围部分重叠,则车端感知范围内存在重叠区域和非重叠区域。在又一些应用场景中,路端感知范围与车端感知范围完全不重叠时,表示车辆离开当前路端设备的监测范围,当车辆驶入下一路段的路端设备监测范围时,可以重新执行图示中的方法流程。
接着,在步骤202中,可以基于路端感知结果和每一车端感知结果,输出每一车端设备对应的综合感知结果。不同车辆的车端感知范围与路端感知范围形成的重叠区域不同,使得不同车辆的车端设备对应的综合感知结果不同。通过结合每一车端感知结果,可以为每一辆车提供对应的综合感知结果,从而有利于提供具有针对性的可行驶区域识别结果。在一些实施例中,可以将路端感知结果和每一车端感知结果进行融合,以输出每一车端设备对应的综合感知结果。例如,可以根据路端设备与车端设备之间的相对位置关系,将车端感知结果映射至路端感知结果中,或者将路端感知结果映射至车端感知结果中,从而可以获取每一车端设备对应的综合感知结果。
在一些实施例中,综合感知结果可以包括重叠区域的感知结果。在另一些实施例中,重叠区域的感知结果可以通过重叠区域的路端感知结果和对应的车端感知结果进行融合而获得。在又一些实施例中,综合感知结果还可以包括位于路端感知范围内且位于对应的车端感知范围外的感知结果。在再一些实施例中,综合感知结果还可以包括位于对应的车端感知范围内且位于路端感知范围外的感知结果。
进一步地,在步骤203中,可以根据每一综合感知结果,输出对应车辆的可行驶区域。可行驶区域可以包括排除障碍物位置后使得对应车辆能够通行的道路区域。不同的车辆对应的行驶区域可以不同。可行驶区域可以根据对应车辆的位置变化而变化。在一些实施例中,可以通过连续获取同一时刻的路端感知结果和车端感知结果,以及根据实时得到的综合感知结果,实时输出对应车辆的可行驶区域。在另一些实施例中,可行驶区域可以包括用于对重叠区域的感知结果和非重叠区域的感知结果进行区分的区分标记,特别是当非重叠区域位于车端感知范围外时,区分标记的设置可以明显标记出对应车辆的感知盲区,从而可以对车辆驾驶起到提醒和决策的作用。
以上结合图2对根据本公开实施例的用于识别车辆的可行驶区域的方法进行了描述,本领域技术人员可以理解的是,本公开实施例的方法可以通过结合车端感知结果和路端感知结果生成综合感知结果,综合感知结果能够更全面的覆盖交通场景,从而有利于提高可行驶区域检测的精确度和可靠性,并能够有效解决车端视野盲区(例如道路拐弯处等)可能导致的车辆碰撞问题。为了便于理解综合感知结果,下面将结合图3和图4进行示例性的描述。
图3是示出根据本公开实施例的生成综合感知结果的场景示意图。如图3中所示,在路端设备301监控的场景下,路端设备301监测的路端感知范围303(虚线示出)与车端设备302的车端感知范围304(虚线示出)存在重叠区域305和非重叠区域306,且本实施方式中的非重叠区域306位于路端感知范围303内且位于对应的车端感知范围304外。在一个实施例中,综合感知结果可以包含第一感知结果和第二感知结果;第一感知结果可以为对应的重叠区域305的感知结果,第一感知结果基于对应的车端感知结果和路端感知结果生成;第二感知结果可以为位于路端感知范围303内且位于对应的车端感知范围304外的感知结果,第二感知结果基于路端感知结果生成。在又一个实施例中,可行驶区域可以包括第一感知结果和第二感知结果的区分标记。
以上结合图3对根据本公开实施例的生成综合感知结果的一种场景进行了描述,本领域技术人员可以理解的是,图中所示以及上面的描述是示例性的而非限制性地,例如,车端感知范围304可以不限于位于路端感知范围303内,也可能部分位于路端感知范围303外,即车端感知范围304可能与路端感知范围303交叉重叠。下面将结合图4对车端感知范围与路端感知范围交叉重叠生成综合感知结果的场景进行示例性的说明。
图4是示出根据本公开另一个实施例的生成综合感知结果的场景示意图。如图4中所示,在路端设备401监控的场景下,路端设备401监测的路端感知范围403(虚线示出)与车端设备402的车端感知范围404(虚线示出)存在重叠区域405和非重叠区域,且本实施方式中的非重叠区域可以包括位于路端感知范围403内且位于对应的车端感知范围404外的感知区域406,也可以包括位于对应的车端感知范围404内且位于路端感知范围403外的感知区域407。在另一个实施例中,综合感知结果还可以包括第三感知结果,第三感知结果可以为位于对应的车端感知范围404内且位于路端感知范围403外的感知结果。
以上结合图3和图4的多个应用场景对根据本公开实施例的综合感知结果进行了描述,可以理解的是,图3和图4所示的场景是示例性的而非限制性地,例如车道可以不限于图示中的直行车道,也可以为弯车道、车道拐弯处、十字路口等。还例如,综合感知结果可以不限于以上描述的包括第一感知结果和第二感知结果,或者包括第一感知结果、第二感知结果和第三感知结果,在另一些实施例中,综合感知结果可以包括第一感知结果和第三感知结果。在示例性介绍了综合感知结果后,下面将结合图5对根据本公开实施例的用于识别车辆的可行驶区域的方法进一步说明。
图5是示出根据本公开另一个实施例的用于识别车辆的可行驶区域的方法流程图。通过下面的描述,本领域技术人员可以理解的是,图5中所示的方法500可以是前文中结合图2描述的方法200的一个具体化表现形式,因此前文中关于方法200的描述也适用于下面的描述中。
如图5中所示,方法500可以包括:在步骤510中,可以获取同一时刻的路端感知结果和至少一个车端感知结果。在一个实施例中,步骤510可以包括,步骤511中(虚线框示出),可以获取同一时刻的点云和图像。可以通过路端设备获取同一时刻的点云和图像,并且路端设备可以包括图像采集装置和雷达装置等,其中图像采集装置可以包括摄像机和/或相机,雷达装置可以包括激光雷达、毫米波雷达和微波雷达等中的至少一种。这样,可以通过安装在路端设备中的摄像机或者相机获取图像,并且可以通过安装在路端设备中的雷达装置获取点云。在一些实施例中,激光雷达的类别可以包括多线激光雷达,例如可以包括8线、16线、24线、32线、64线或者128线的激光雷达。在另一些实施例中,相机的类别可以是枪型相机、半球型相机或者球型相机等。
在一个应用场景中,可以预先在道路的路侧设立包括相机和激光雷达的路端设备,并且路端设备中的相机和激光雷达可以实时采集其视野内的道路场景的图像和点云。进一步地,由路端设备中的相机和激光雷达采集的图像和点云可以通过有线或者无线的方式与其他设备通讯。
接着,在步骤512中(虚线框示出),可以识别图像和点云中的道路区域。通过识别图像和点云中的道路区域可以排除非道路区域,以减少后续数据处理量以及信息干扰。识别图像和点云中的道路区域,可以根据图像和点云的视野,分别提取图像和点云中的感兴趣区域,即为道路区域。然后,流程可以前进到步骤513中(虚线框示出),可以在道路区域中分别进行目标检测,以获得道路区域的图像检测结果和点云检测结果。
在一些实施例中,可以使用图像目标检测算法对图像中的每一个目标进行目标检测,从而可以获得图像所对应的图像检测结果。类似地,还可以使用点云目标检测算法对点云中的每一个目标进行目标检测,从而可以获得点云对应的点云检测结果。
在一个示例性的实施方式中,上述的图像目标检测算法可以通过例如YOLO v3深度学习模型来实现,以获得道路场景的图像检测结果。此外,对于上述的点云目标检测算法而言,也可以通过深度学习模型来实现点云目标检测,以获得道路场景的点云检测结果。
可选择地或者附加地,在另一个示例性的实施方式中,还可以利用卡尔曼算法等跟踪算法对图像和/或点云进行目标跟踪,以便获得图像检测结果和/或点云检测结果。
在一个示例性的应用场景中,图像检测结果可以包括通过相机采集的道路场景中的每一个图像目标的类别、颜色、纹理、位置以及速度等检测信息。这里,可以理解的是,图像目标可以是指对图像进行图像目标检测所获得的图像检测结果中的目标。在另一个示例性的应用场景中,点云检测结果可以包括通过激光雷达采集的道路场景中的每一个点云目标的位置、尺寸、航向角以及类别等检测信息。类似地,可以理解的是,点云目标可以是指对点云进行点云目标检测所获得的点云检测结果中的目标。
进一步地,在步骤514中(虚线框示出),可以根据图像检测结果和点云检测结果进行融合,以获得路端感知结果。在一些实施例中,可以通过将图像检测结果投影到点云检测结果中,以获得融合后的路端感知结果。在另一些实施例中,可以通过将点云检测结果投影到图像检测结果中,以获得融合后的路端感知结果。
在又一个实施例中,根据图像检测结果和点云检测结果进行融合,以获得路端感知结果,可以包括:根据路端设备的系统标定参数,将点云检测结果中的点云目标转换至图像检测结果中图像目标所在的二维坐标系;以及根据二维坐标系中的点云目标和图像目标,确定路端感知结果中的被测目标,其中,信息匹配概率大于或者等于匹配阈值的点云目标和图像目标为同一被测目标,信息匹配概率用于表示点云目标与所述图像目标的位置重叠度。
在一些实施例中,系统标定参数可以包括内参矩阵和外参矩阵。具体地,可以根据相机的内参矩阵以及相机与激光雷达之间的外参矩阵,将点云检测结果中的点云目标投影至图像检测结果中,并可以将点云检测结果中点云目标的检测框转换至图像目标所在的二维坐标系;获取点云目标的检测框与图像检测结果中图像目标的检测框之间的位置重叠度,如交并比(Intersection over Union,IOU),作为点云目标与图像目标之间的信息匹配概率,并可以将信息匹配概率大于或者等于匹配阈值的点云目标和图像目标确定为同一被测目标,其余点云目标和图像目标可以作为单独的被测目标,进而得到路端感知结果中的被测目标。
在另一些实施例中,可根据点云检测结果中点云目标的位置与图像检测结果中图像目标的位置,对点云检测结果和图像检测结果进行目标物的融合,得到的融合结果即为路端感知结果。示例性地,可以计算点云检测结果中的每一个点云目标与图像检测结果中的每一个图像目标之间的距离,如果一个点云目标与一个图像目标之间的距离小于或者等于预先设定的距离阈值,则可以将点云检测结果中的该点云目标与图像检测结果中的该图像目标确定为同一被测目标;而如果点云检测结果中的某一个点云目标与图像检测结果中的每一个图像目标的距离均大于预先设定的距离阈值,则可以将点云检测结果中的该点云目标作为单独的被测目标。类似地,如果图像检测结果中的某一个图像目标与点云检测结果中的每一个点云目标的距离均大于预先设定的距离阈值,则可以将图像检测结果中的该图像目标作为单独的被测目标,由此可以将图像检测结果与点云检测结果进行融合以确定被测目标。
通过上面的描述可以理解,通过将点云检测结果和图像检测结果进行融合,可以获得更准确的被测目标,从而有利于提高检测结果的准确度以及降低漏检的概率。通过路端设备的系统标定参数将点云目标和图像目标转换至同一维度,再进行融合,提高了点云检测结果和图像检测结果融合的准确性。
在又一些实施例中,可以通过设置在车辆上的车端设备,获取经由车端设备确定的道路场景的同一时刻的车端感知结果,其中上述车端设备可以包括车载相机和车载激光雷达等。在一个应用场景中,上述车端感知结果可以包括车端图像感知结果和/或车端点云感知结果,其中车端图像感知结果可以通过安装在车辆上的车载相机获取,并且车端点云感知结果可以通过安装在车辆上的车载激光雷达获取。在一些实施例中,可以将车端图像感知结果和车端点云感知结果进行融合,以获得车端感知结果。进一步地,可以将路端设备和车端设备进行采样频率和时间的同步处理,以通过路端设备和车端设备分别获取同一时刻的路端感知结果和车端感知结果。
如图5中进一步示出的,方法500还可以包括步骤520,即可以基于路端感知结果和每一车端感知结果,输出每一车端设备对应的综合感知结果。在本公开的一个实施例中,步骤520中的综合感知结果中的第一感知结果可以通过如下实现方式(图中虚线框示出)获得:在步骤521中,可以确定重叠区域。在一些实施例中,可以根据路端设备监测的路端感知范围和车端设备的车端感知范围的交集,确定重叠区域。
接着,在步骤522中,可以将车端感知结果和路端感知结果转换至同一坐标系。在一些实施例中,可以根据路端设备与车端设备之间的相对位置关系,将重叠区域的车端感知结果与重叠区域的路端感知结果转换至同一坐标系。可以理解的是,将车端感知结果与路端感知结果转换至同一坐标系可以包括:将车端感知结果映射至路端感知结果中,或者将路端感知结果映射至车端感知结果中,或者将车端感知结果和路端感知结果均映射至世界坐标系中。
然后,流程可以前进到步骤523中,可以将同一坐标系下,重叠区域内的车端感知结果与重叠区域内的路端感知结果进行融合,得到第一感知结果。在一些应用场景中,重叠区域内的车端感知结果与重叠区域内的路端感知结果均可以包括至少一个目标物的感知信息。例如,目标物的位置信息。在一些实施例中,可以根据重叠区域内的车端感知结果中车端感知目标的位置与重叠区域内的路端感知结果中路段感知目标的位置,对重叠区域内的车端感知结果与重叠区域内的路端感知结果进行目标物的融合,以得到第一感知结果。通过将车端感知结果与路端感知结果进行融合,可以将所有的目标检测结果保留在综合感知结果中,使得综合感知结果更加全面。
进一步地,如图5中所示,方法500还可以包括步骤530,可以根据每一综合感知结果,输出对应车辆的可行驶区域。在一个实施例中,步骤530可以包括:在步骤531中(虚线框示出),可以剔除综合感知结果中的非道路元素,得到车辆的可行驶区域;其中,非道路元素可以包括综合感知结果中的动态目标和/或超过高度阈值的路面目标。在一些应用场景中,动态目标可以包括行驶的车辆、移动的行人、动物等。在另一些应用场景中,超过高度阈值的路面目标可以包括例如路障、高架桥、护栏等阻碍车辆通行的目标物。可以理解的是,通过步骤531中剔除非道路元素的操作,可以有效提高可行驶区域检测的准确性,并且对于保障行车安全具有重要的意义。
以上结合图5对根据本公开实施方式的用于识别车辆的可行驶区域的方法进行了详细描述,可以理解的是,图5中所示以及上面的描述均是示例性的而非限制性的,例如,步骤521和步骤522可以不限于图示中的执行顺序,本领域技术人员可以根据需要进行调整。在一个实施例中,可以先执行步骤522,然后执行步骤521,可以在步骤522得到的同一坐标系中的车端感知结果和路端感知结果中,确定该坐标系下的重叠区域内的车端感知结果和路端感知结果。还例如,步骤520可以不限于仅包括图示中的得到第一感知结果的步骤,在另一些实施例中,可以结合每一车端设备对应的第一感知结果和第二感知结果,生成每一车端设备对应的综合感知结果。在又一些实施例中,可以结合每一车端设备对应的第一感知结果、第二感知结果和第三感知设备,生成每一车端设备对应的综合感知结果。
前文中结合图2-图5介绍了根据本公开实施例的用于识别车辆的可行驶区域的方法,利用前文中描述的方法获得对应车辆的可行驶区域,可以有利于实现辅助驾驶的目的,下面将结合图6和图7进行示例性的描述。
图6是示出根据本公开实施例的辅助驾驶方法流程图。如图6中所示,辅助驾驶方法600可以包括:在步骤601中,可以发送辅助驾驶请求。在一些实施例中,当前车辆可以向路端设备发送辅助驾驶请求。接着,在步骤602中,可以接收路端设备基于辅助驾驶请求返回的当前车辆的道路可行驶区域,当前车辆的道路可行驶区域可以利用如前文中结合图2-图5中任一所述的方法获取。当前车辆可以基于路端设备返回的道路可行驶区域行驶。
图7是示出根据本公开另一个实施例的辅助驾驶方法流程图。如图7中所示,辅助驾驶方法700可以包括:在步骤701中,可以接收车端设备发送的辅助驾驶请求。接着,在步骤702中,可以基于辅助驾驶请求向车端设备发送当前车辆的道路可行驶区域,当前车辆的道路可行驶区域可以利用如前文中结合图2-图5中任一所述的方法获取。在一些应用场景中,辅助驾驶方法700可以由路端设备执行。在另一些应用场景中,辅助驾驶方法700可以由能够与路端设备和/或车端设备通讯的服务器或者处理器执行。
在一个实施例中,基于辅助驾驶请求向车端设备发送当前车辆的道路可行驶区域,可以包括:解析辅助驾驶请求,得到当前车辆的位置信息;根据当前车辆的位置信息,从获取的至少一个车辆的道路可行驶区域中确定当前车辆的道路可行驶区域;以及将当前车辆的道路可行驶区域发送至当前车辆的车载设备。在一些实施例中,当前车辆的位置信息可以通过车端设备获取。在另一些实施例中,当前车辆的位置信息可以通过例如北斗导航和/或全球定位系统(Global Positioning System,GPS)来获取。
通过上面对本公开的用于识别车辆的可行驶区域的方法及辅助驾驶方法的技术方案以及多个实施例的描述,本领域技术人员可以理解的是,本公开实施例的用于识别车辆的可行驶区域的方法可以利用车端感知结果与路端感知结果的视野差异,通过结合路端感知结果和车端感知结果,生成视野更加全面的综合感知结果,从而有利于得到更加精准和全面的可行驶区域,能够有效解决车载传感器易被遮挡而导致的车辆碰撞问题。在一些实施例中,可以利用路端设备中点云数据的三维特征,使得识别出的可行驶区域能够体现三维空间中的真实区域,相比于二维图像的可行驶区域,三维空间的可行驶区域具有更高的可靠性和还原性。在另一些实施例中,可以通过将车端感知结果和路端感知结果转换至同一坐标系并进行融合,可以获得更准确的被测目标,从而可以更准确地确定可行驶区域。
从上述描述可知,本公开实施例可以实现为一种系统、方法或计算机程序产品。因此,本公开可以具体实现为以下形式,即:完全的硬件、完全的软件(包括固件、驻留软件、微代码等),或者硬件和软件结合的形式,本文一般称为“电路”、“模块”或“系统”。此外,在一些实施例中,本发明还可以实现为在一个或多个计算机可读介质中的计算机程序产品的形式,该计算机可读介质中包含计算机可读的程序代码。可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络(包括局域网(LAN)或广域网(WAN))连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
应当理解,本公开实施例的方法流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合都可以由计算机程序指令实现。这些计算机程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,这些计算机程序指令通过计算机或其它可编程数据处理装置执行,产生了实现流程图和/或框图中的方框中规定的功能/操作的装置。也可以把这些计算机程序指令存储在能使得计算机或其它可编程数据处理装置以特定方式工作的计算机可读介质中,这样,存储在计算机可读介质中的指令就产生出一个包括实现流程图和/或框图中的方框中规定的功能/操作的指令装置的产品。也可以把计算机程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机或其它可编程装置上执行的指令能够提供实现流程图和/或框图中的方框中规定的功能/操作的过程。
虽然本公开的实施例如上,但所述内容只是为便于理解本公开而采用的实施例,并非用以限定本公开的范围和应用场景。任何本公开所述技术领域内的技术人员,在不脱离本公开所揭露的精神和范围的前提下,可以在实施的形式上及细节上作任何的修改与变化,但本公开的专利保护范围,仍须以所附的权利要求书所界定的范围为准。
Claims (16)
1.一种用于识别车辆的可行驶区域的方法,其特征在于,所述方法包括:
获取同一时刻的路端感知结果和至少一个车端感知结果;其中,所述路端感知结果为路端设备监测的路端感知范围内的感知结果,所述车端感知结果为车端设备的车端感知范围内的感知结果;所述路端感知范围与所述车端感知范围存在重叠区域;
基于所述路端感知结果和每一所述车端感知结果,输出每一车端设备对应的综合感知结果;以及
根据每一所述综合感知结果,输出对应车辆的可行驶区域。
2.根据权利要求1所述的方法,其特征在于,所述综合感知结果包含第一感知结果和第二感知结果;所述第一感知结果为对应的重叠区域的感知结果,所述第一感知结果基于对应的车端感知结果和路端感知结果生成;所述第二感知结果为位于路端感知范围内且位于对应的车端感知范围外的感知结果,所述第二感知结果基于路端感知结果生成。
3.根据权利要求2所述的方法,其特征在于,所述综合感知结果还包括第三感知结果,所述第三感知结果为位于对应的车端感知范围内且位于路端感知范围外的感知结果。
4.根据权利要求2所述的方法,其特征在于,可行驶区域包括第一感知结果和第二感知结果的区分标记。
5.根据权利要求1-4任一所述的方法,其特征在于,基于所述路端感知结果和每一所述车端感知结果,输出每一车端设备对应的综合感知结果,包括:
确定所述重叠区域;
将车端感知结果和路端感知结果转换至同一坐标系;以及
将同一坐标系下,重叠区域内的车端感知结果与重叠区域内的路端感知结果进行融合,得到第一感知结果。
6.根据权利要求5所述的方法,其特征在于,获取同一时刻的路端感知结果和至少一个车端感知结果,包括:
获取同一时刻的点云和图像;
识别所述图像和点云中的道路区域;
在所述道路区域中分别进行目标检测,以获得所述道路区域的图像检测结果和点云检测结果;以及
根据所述图像检测结果和点云检测结果进行融合,以获得所述路端感知结果。
7.根据权利要求6所述的方法,其特征在于,根据所述图像检测结果和点云检测结果进行融合,以获得所述路端感知结果,包括:
根据路端设备的系统标定参数,将所述点云检测结果中的点云目标转换至所述图像检测结果中图像目标所在的二维坐标系;以及
根据所述二维坐标系中的点云目标和图像目标,确定所述路端感知结果中的被测目标,
其中,信息匹配概率大于或者等于匹配阈值的所述点云目标和所述图像目标为同一所述被测目标,所述信息匹配概率用于表示所述点云目标与所述图像目标的位置重叠度。
8.根据权利要求1-4任意一项所述的方法,其特征在于,根据每一所述综合感知结果,输出对应车辆的可行驶区域,包括:
剔除所述综合感知结果中的非道路元素,得到所述车辆的可行驶区域;
其中,所述非道路元素包括所述综合感知结果中的动态目标和/或超过高度阈值的路面目标。
9.一种辅助驾驶方法,其特征在于,包括如下步骤:
发送辅助驾驶请求;以及
接收路端设备基于所述辅助驾驶请求返回的当前车辆的道路可行驶区域,所述当前车辆的道路可行驶区域利用如权利要求1-8任一所述的方法获取。
10.一种辅助驾驶方法,其特征在于,包括:
接收车端设备发送的辅助驾驶请求;以及
基于所述辅助驾驶请求向所述车端设备发送当前车辆的道路可行驶区域,所述当前车辆的道路可行驶区域利用权利要求1-8任一所述的方法获取。
11.根据权利要求10所述的辅助驾驶方法,其特征在于,基于所述辅助驾驶请求向所述车端设备发送当前车辆的道路可行驶区域,包括:
解析所述辅助驾驶请求,得到所述当前车辆的位置信息;
根据所述当前车辆的位置信息,从获取的至少一个车辆的道路可行驶区域中确定当前车辆的道路可行驶区域;以及
将所述当前车辆的道路可行驶区域发送至所述车载设备。
12.一种用于识别车辆的可行驶区域的装置,其特征在于,包括:
获取单元,其配置用于获取同一时刻的路端感知结果和至少一个车端感知结果;其中,所述路端感知结果为路端设备监测的路端感知范围内的感知结果,所述车端感知结果为车端设备的车端感知范围内的感知结果;所述路端感知范围与所述车端感知范围存在重叠区域;
综合感知结果输出单元,其配置用于基于所述路端感知结果和每一所述车端感知结果,输出每一车端设备对应的综合感知结果;以及
可行驶区域输出单元,其配置用于根据每一所述综合感知结果,输出对应车辆的可行驶区域。
13.一种辅助驾驶装置,其特征在于,包括:
第一发送单元,其配置用于发送辅助驾驶请求;以及
第一接收单元,其配置用于接收路端设备基于所述辅助驾驶请求返回的当前车辆的道路可行驶区域,所述当前车辆的道路可行驶区域利用如权利要求1-8任一所述的方法获取。
14.一种辅助驾驶装置,其特征在于,包括:
第二接收单元,其配置用于接收车端设备发送的辅助驾驶请求;以及
第二发送单元,其配置用与基于所述辅助驾驶请求向所述车端设备发送当前车辆的道路可行驶区域,所述当前车辆的道路可行驶区域利用权利要求1-8任一所述的方法获取。
15.一种计算机可读存储介质,其存储有程序指令,当所述程序指令由处理器来运行时,使得所述处理器执行根据权利要求1-11任意一项所述的方法。
16.一种路侧设备,其特征在于,包括:
处理器;其配置用于执行程序指令;以及
存储器,其配置用于存储所述程序指令,当所述程序指令由所述处理器执行时,使得所述处理器执行根据权利要求1-8的任意一项、或者权利要求10或11所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110586455.6A CN115402347A (zh) | 2021-05-27 | 2021-05-27 | 用于识别车辆的可行驶区域的方法及辅助驾驶方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110586455.6A CN115402347A (zh) | 2021-05-27 | 2021-05-27 | 用于识别车辆的可行驶区域的方法及辅助驾驶方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115402347A true CN115402347A (zh) | 2022-11-29 |
Family
ID=84155910
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110586455.6A Pending CN115402347A (zh) | 2021-05-27 | 2021-05-27 | 用于识别车辆的可行驶区域的方法及辅助驾驶方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115402347A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117452392A (zh) * | 2023-12-26 | 2024-01-26 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 一种用于车载辅助驾驶系统的雷达数据处理系统和方法 |
-
2021
- 2021-05-27 CN CN202110586455.6A patent/CN115402347A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117452392A (zh) * | 2023-12-26 | 2024-01-26 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 一种用于车载辅助驾驶系统的雷达数据处理系统和方法 |
CN117452392B (zh) * | 2023-12-26 | 2024-03-08 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 一种用于车载辅助驾驶系统的雷达数据处理系统和方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106503653B (zh) | 区域标注方法、装置和电子设备 | |
CN112132896B (zh) | 一种轨旁设备状态检测方法及系统 | |
US8180561B2 (en) | Vehicle-installation obstacle detection apparatus | |
CN112101092A (zh) | 自动驾驶环境感知方法及系统 | |
CN110705458B (zh) | 边界检测方法及装置 | |
CN109583416B (zh) | 伪车道线识别方法及系统 | |
WO2020057406A1 (zh) | 一种辅助驾驶方法和系统 | |
CN111398989A (zh) | 驾驶辅助系统的性能分析方法和测试设备 | |
CN111611853A (zh) | 一种传感信息融合方法、装置及存储介质 | |
CN108364476B (zh) | 获取车联网信息方法及其装置 | |
CN112541416B (zh) | 跨雷达障碍物跟踪方法、装置、电子设备和存储介质 | |
CN112949782A (zh) | 一种目标检测方法、装置、设备及存储介质 | |
CN112606804B (zh) | 一种车辆主动制动的控制方法及控制系统 | |
CN110705359A (zh) | 一种车位检测方法 | |
CN112740225A (zh) | 一种路面要素确定方法及装置 | |
CN117576652B (zh) | 道路对象的识别方法、装置和存储介质及电子设备 | |
CN116310679A (zh) | 多传感器融合目标检测方法、系统、介质、设备及终端 | |
CN112651359A (zh) | 障碍物检测方法、装置、电子设备和存储介质 | |
CN114037972A (zh) | 目标检测方法、装置、设备及可读存储介质 | |
CN114639085A (zh) | 交通信号灯识别方法、装置、计算机设备和存储介质 | |
CN115366885A (zh) | 用于辅助机动车的驾驶操作的方法、辅助装置及机动车 | |
CN113945219B (zh) | 动态地图生成方法、系统、可读存储介质及终端设备 | |
CN113433548B (zh) | 一种数据监控方法、装置、设备及存储介质 | |
CN115402347A (zh) | 用于识别车辆的可行驶区域的方法及辅助驾驶方法 | |
CN114419922A (zh) | 车位识别方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |