CN114954442A - 一种车辆控制方法、系统和车辆 - Google Patents
一种车辆控制方法、系统和车辆 Download PDFInfo
- Publication number
- CN114954442A CN114954442A CN202210768339.0A CN202210768339A CN114954442A CN 114954442 A CN114954442 A CN 114954442A CN 202210768339 A CN202210768339 A CN 202210768339A CN 114954442 A CN114954442 A CN 114954442A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- cloud data
- vehicle
- current vehicle
- target point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 238000001514 detection method Methods 0.000 claims description 36
- 230000008033 biological extinction Effects 0.000 claims description 10
- 238000004422 calculation algorithm Methods 0.000 claims description 10
- 230000033001 locomotion Effects 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 7
- 238000012545 processing Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims description 3
- 230000001360 synchronised effect Effects 0.000 claims description 3
- 230000000737 periodic effect Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 230000007613 environmental effect Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000010348 incorporation Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/50—Systems of measurement based on relative movement of target
- G01S17/58—Velocity or trajectory determination systems; Sense-of-movement determination systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/35—Road bumpiness, e.g. potholes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
- B60W2554/802—Longitudinal distance
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Electromagnetism (AREA)
- Multimedia (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Traffic Control Systems (AREA)
Abstract
本申请实施例提供一种车辆控制方法、系统和车辆,该方法包括:获取目标点云数据,所述目标点云数据包括三维位置信息和速度信息;根据所述目标点云数据,获取当前车辆前方的路面状况及能见度;根据所述目标点云数据、所述路面状况及所述能见度,计算所述当前车辆的安全距离;根据所述当前车辆的行驶速度、所述安全距离和所述目标点云数据,控制所述当前车辆的行驶。该车辆控制方法利用四维点云数据来计算车辆的安全距离,进而结合当前车辆的状态及四维点云数据来控制车辆行驶,可以提高行车的安全性等。
Description
技术领域
本申请涉及车辆控制技术领域,尤其涉及一种车辆控制方法、系统和车辆。
背景技术
机动车辆是社会经济快速发展中不可缺少的交通工具,承担着货物运输、乘客转运等功能。但是,像在天气不好或者车流量较多的情况下,尤其是高速路等行驶的环境下,特别容易发生行车追尾甚至连环追尾事故,轻则发生车辆碰撞,重则出现人员伤亡。
车辆的行驶安全受多方面的影响,为避免出现追尾事件,现有技术中主要是通过驾驶员的观察和经验来控制车辆的行驶情况,安全性较差。随着自动驾驶技术的快速发展,如何实现车辆的安全行驶而不会发生碰撞追尾等还需要进一步解决。
发明内容
有鉴于此,本申请实施例提供一种车辆控制方法、系统和车辆。
第一方面,本申请实施例提供一种车辆控制方法,包括:
获取目标点云数据,所述目标点云数据包括三维位置信息和速度信息;
根据所述目标点云数据,获取当前车辆前方的路面状况及能见度;
根据所述目标点云数据、所述路面状况及所述能见度,计算所述当前车辆的安全距离;
根据所述当前车辆的行驶速度、所述安全距离和所述目标点云数据,控制所述当前车辆的行驶。
在一些实施例中,所述当前车辆上安装有前向探测的第一激光雷达传感器和第二激光雷达传感器,所述获取目标点云数据,包括:
获取所述第一激光雷达传感器和所述第二激光雷达传感器采集的所述当前车辆前方的第一点云数据和第二点云数据,其中,所述第一激光雷达传感器和所述第二激光雷达传感器同步扫描且探测视场相同,所述第一点云数据包括被测对象的三维位置信息,所述第二点云数据包括所述被测对象的速度信息;
对所述第一点云数据和所述第二点云数据执行点关联,并将所述第二点云数据中的所述速度信息赋予相应点的所述第一点云数据,以得到由所述三维位置信息和所述速度信息构成的目标点云数据。
在一些实施例中,所述当前车辆上安装有前向探测的第一激光雷达传感器和第二激光雷达传感器,所述获取目标点云数据,包括:
控制所述第一激光雷达传感器和所述第二激光雷达传感器的扫描线重合并进行周期性同步扫描;
根据所述第二激光雷达传感器的扫描周期,将所述第二激光雷达传感器测量到的速度信息赋予相同扫描周期内所述第一激光雷达传感器测量的相应点,所述扫描周期的每个点得到由所述第一激光雷达传感器测量到的三维位置信息和所述第二激光雷达传感器测量到的所述速度信息构成的目标点云数据。
在一些实施例中,所述根据所述目标点云数据,获取当前车辆前方的路面状况,包括:
从所述目标点云数据筛选出路面点云数据;
根据预设算法,从所述路面点云数据中进行特征点提取;
根据所述特征点和预设路面特征模型,确定当前车辆前方的路面状况,所述路面状况包括路面是否存在异物和/或减速带、及路面类型。
在一些实施例中,所述当前车辆设置图像传感器,所述根据所述目标点云数据,获取当前车辆前方的能见度,包括:
根据所述目标点云数据,拟合车道线;
通过所述图像传感器采集道路图像,并根据所述道路图像计算道路与天空的分界线在实际道路中的分界线位置;
通过坐标转换计算所述车道线的消失点位置;
基于预设能见度模型,利用所述车道线的消失点位置和所述分界线位置,计算当前车辆前方的能见度。
在一些实施例中,所述根据所述目标点云数据,获取当前车辆前方的能见度,包括:
根据所述目标点云数据,获取各个点对应的探测距离和回波信号功率;
利用各个点对应的所述回波信号功率与所述探测距离,计算探测路径上的大气消光系数;
根据预设的大气消光系数与能见度之间的关系,确定当前车辆前方的能见度。
在一些实施例中,所述根据所述目标点云数据、所述路面状况及所述能见度,计算所述当前车辆的安全距离,包括:
根据所述目标点云数据,确定所述当前车辆的前方车辆的速度信息和车辆类型;
根据所述前方车辆的速度信息和车辆类型、所述路面状况及所述能见度,确定所述当前车辆的安全距离。
在一些实施例中,所述根据所述当前车辆的行驶速度、所述安全距离和所述目标点云数据,控制所述当前车辆的行驶,包括:
根据所述目标点云数据,确定所述当前车辆周围的障碍信息,并根据所述障碍信息规划所述当前车辆的有效行驶路径;
根据所述安全距离、所述当前车辆的行驶速度以及所述当前车辆的前方车辆的目标点云数据,计算所述当前车辆的目标速度;
控制所述当前车辆以所述目标速度按照所述有效行驶路径行驶。
在一些实施例中,所述根据所述当前车辆的行驶速度、所述安全距离和所述目标点云数据,控制所述当前车辆的行驶,包括:
根据所述目标点云数据,确定所述当前车辆与其前方车辆之间的相对距离及所述前方车辆在预设时间内的速度变化率;
根据所述相对距离、所述速度变化率和所述当前车辆的行驶速度,设置碰撞风险等级;
根据所述碰撞风险等级,更新所述安全距离,控制所述当前车辆与所述前方车辆至少间隔更新后的所述安全距离行驶。
在一些实施例中,上述车辆控制方法还包括:
根据所述目标点云数据,识别车道线、周围其他车辆以及所述当前车辆与所述其他车辆的距离;
当所述其他车辆位于所述当前车辆的相邻车道,且所述其他车辆与所述当前车辆之间的距离小于预设距离时,则选取所述其他车辆的车轮点云数据;
根据所述车轮点云数据,识别目标车轮的运动方向和横向速度分量;
根据所述运动方向和所述横向速度分量,计算所述其他车辆并入所述当前车辆所在车道的概率,基于所述概率,更新所述当前车辆的安全距离。
在一些实施例中,所述当前车辆还安装有后向探测的第三激光雷达传感器和第四激光雷达传感器,所述方法还包括:
获取所述当前车辆的预变道指令,控制启动所述第三激光雷达传感器和所述第四激光雷达传感器,以获取所述当前车辆后方的辅助点云数据,其中,所述辅助点云数据包括三维位置信息和速度信息,所述第三激光雷达传感器和所述第四激光雷达传感器同步扫描且探测视场相同;
根据所述安全距离、所述目标点云数据和所述辅助点云数据,推荐所述当前车辆的最佳转向车道。
在一些实施例中,所述车辆控制方法还包括:
获取所述最佳转向车道对应的转向指令;
根据所述转向指令,从所述辅助点云数据中提取所述最佳转向车道所在的视场区域的点云数据。
第二方面,本申请实施例还提供一种车辆控制系统,包括:
点云获取模块,用于获取目标点云数据,所述目标点云数据包括三维位置信息和速度信息;
信息计算模块,用于根据所述目标点云数据,获取当前车辆前方的路面状况及能见度;
信息计算模块,还用于根据所述目标点云数据、所述路面状况及所述能见度,计算所述当前车辆的安全距离;
车辆控制模块,用于根据所述当前车辆的行驶速度、所述安全距离和所述目标点云数据,控制所述当前车辆的行驶。
第三方面,本申请实施例还提供一种车辆,所述车辆包括处理器和存储器,所述存储器存储有计算机程序,所述处理器用于执行所述计算机程序以实施上述的车辆控制方法。
本申请的实施例具有如下有益效果:
本申请的车辆控制方法通过获得的由三维位置信息及速度信息构成的四维点云数据来获取如前方的路面状况、能见度等多种环境信息,以此来计算车辆的安全距离,进而结合当前车辆的行驶速度和四维点云数据来控制车辆的行驶,相比凭借驾驶员的观察及经验等来控制车辆行驶,可以大大降低发生事故的概率,从而提高了安全性等。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本申请实施例的车辆控制方法的一种流程图;
图2示出了本申请实施例的车辆安装有前向探测的激光雷达组件的结构示意图;
图3示出了本申请实施例的车辆控制方法的获取路面状况的流程图;
图4示出了本申请实施例的车辆控制方法的获取能见度的一种流程图;
图5示出了本申请实施例的车辆控制方法的获取能见度的另一流程图;
图6示出了本申请实施例的车辆控制方法的更新安全距离的流程图;
图7示出了本申请实施例的车辆控制方法的车辆行驶控制的一种流程图;
图8示出了本申请实施例的车辆控制方法的车辆行驶控制的另一流程图;
图9示出了本申请实施例的车辆安装有前后向探测的激光雷达组件的结构示意图;
图10示出了本申请实施例的车辆控制装置的结构示意图。
具体实施方式
下面将结合本申请实施例中附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。
通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
在下文中,可在本申请的各种实施例中使用的术语“包括”、“具有”及其同源词仅意在表示特定特征、数字、步骤、操作、元件、组件或前述项的组合,并且不应被理解为首先排除一个或更多个其它特征、数字、步骤、操作、元件、组件或前述项的组合的存在或增加一个或更多个特征、数字、步骤、操作、元件、组件或前述项的组合的可能性。此外,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
除非另有限定,否则这里使用的所有术语(包括技术术语和科学术语)具有与本申请的各种实施例所属领域普通技术人员通常理解的含义相同的含义。所述术语(诸如在一般使用的词典中限定的术语)将被解释为具有与在相关技术领域中的语境含义相同的含义并且将不被解释为具有理想化的含义或过于正式的含义,除非在本申请的各种实施例中被清楚地限定。
下面结合附图,对本申请的一些实施方式作详细说明。在不冲突的情况下,下述的实施例及实施例中的特征可以相互结合。
本申请的车辆控制方法主要利用车辆上的传感器组件所获取的信息来自动控制或辅助驾驶员来控制车辆的行驶,可大大降低碰撞追尾事故的发生概率,提高了行车安全性。其中,对于车辆上安装的传感器组件,例如可包括但不限于包括,测距传感器、图像传感器等,具体可根据实际使用场景来设置。进一步地,测距传感器可采用激光雷达传感器等;图像传感器可采用摄像头等。例如,在本申请中,该车辆设置有至少两种激光雷达传感器,分别为TOF激光雷达与FMCW激光雷达,其中,TOF激光雷达可用于获取其探测视场内的一个或多个对象(如车辆前后方的行人、道路设施、其他车辆等)的三维空间位置;而FMCW激光雷达可用于获取其探测视场内的一个或多个对象的二维位置信息以及速度信息等。
基于上述的车辆结构,本申请实施例提出一种车辆控制方法,该方法基于上述两种类型的激光雷达所得到的点云数据,进行数据融合以得到带速度信息的四维点云数据,然后利用该四维点云数据来获取车辆当前所处的环境状况,以计算出该车辆的安全距离,进而根据该安全距离、四维点云数据及当前车辆的实速来控制当前车辆的行驶,以此避免出现追尾、刮碰等事件,达到安全行驶目的。
请参照图1,示范性地,该车辆控制方法包括步骤S110~S140:
S110,获取目标点云数据,所述目标点云数据包括三维位置信息和速度信息。
其中,该目标点云数据具体包括各个点的三维空间位置坐标以及速度信息,例如,可表示为(x,y,z,v),其中,(x,y,z)表示三维空间坐标,v表示速度。本实施例中,主要利用上述两种激光雷达来进行点云数据采集,其中,TOF激光雷达可以探测到被测对象的三维位置信息,而FMCW激光雷达可探测到被测对象的速度信息。考虑到为了防止车辆与前方车辆发生追尾,如图2所示,将TOF激光雷达与FMCW激光雷达安装在探测方向朝向车辆前方的位置,这里将前向探测的TOF激光雷达记为第一激光雷达传感器,将FMCW激光雷达记为第二激光雷达传感器,反之亦可。
在一种实施方式中,可设置该第一激光雷达传感器和第二激光雷达传感器设置为同步扫描且探测视场(如图2中的FOV)相同,即两者所探测到的对象是相同且同步的。此时,上述目标点云数据的获取,包括:获取第一激光雷达传感器和第二激光雷达传感器采集的当前车辆前方的第一点云数据和第二点云数据,其中,第一点云数据包括被测对象的三维位置信息,第二点云数据包括所述被测对象的速度信息;然后,对第一点云数据和第二点云数据执行点关联,并将第二点云数据中的速度信息赋予相应点的第一点云数据,以得到由上述三维位置信息和速度信息构成的目标点云数据。可以理解,由于上述两个激光雷达的探测视场相同且进行同步描述,因此两者探测到的各个点之间存在关联关系,这里不展开描述。
在另一种实施方式中,为获取到上述的目标点云数据,还可以通过控制让第一激光雷达传感器和第二激光雷达传感器的扫描线重合并进行周期性同步扫描;然后,根据第二激光雷达传感器的扫描周期,将第二激光雷达传感器测量到的速度信息赋予相同扫描周期内第一激光雷达传感器测量的相应点,进而,扫描周期内的每个点将得到由第一激光雷达传感器测量到的三维位置信息和由第二激光雷达传感器测量到的上述速度信息构成的目标点云数据。
可以理解,通过将上述两种激光雷达的点云数据进行融合,可以获取到车辆前方对象的更多信息,这样也可以根据更多的信息来更加精准地控制当前车辆的行驶。
S120,根据所述目标点云数据,获取当前车辆前方的路面状况及能见度。
考虑到前方的路面状况、能见度等环境信息对当前车辆的行车安全具有一定影响,这里将根据上述获取的目标点云数据来获取路面状况、能见度等。其中,所述的路面状况可包括但不限于包括路面类型、以及路面是否存在异物和/或减速带等,进一步地,路面类型可以包括凹陷路面、凸起路面、平整路面等。例如,若前方路面存在异物,为避免与之碰撞,可适应增加安全距离;又或者前方路面呈凹陷型时,相比平整路面下的安全距离,也可适当增加等。以及,能见度越低,安全距离需要越大等。
对于前方路面状况的获取,在一种实施方式中,如图3所示,包括子步骤S210~S230:
S210,从所述目标点云数据筛选出路面点云数据。
示范性地,在获取到目标点云数据后,可按照路面在探测视场内的区域位置等,筛选出路面点云数据,这样可以减少点云计算量,提高处理速度等;进而,按照特征点提取算法,对该路面点云数据进行特征点提取,然后将提取的特征点与上述的路面特征模型进行匹配,由此可得到当前的路面状况信息。
S220,根据预设算法,从所述路面点云数据中进行特征点提取。
其中,该预设算法为点云特征提取算法,用于从数量较多的路面点云数据中提取出有用特征,以便与路面特征模型进行特征匹配,从而可判断出当前的路面状况。例如,该预设算法可以为边界提取算法、区域聚类分割算法等。
S230,根据所述特征点和预设路面特征模型,确定当前车辆前方的路面状况。
其中,上述的预设路面特征模型可以通过大量的具有不同路面特征的图片进行特征提取并构建得到,例如,该路面特征模型中可以包括但不限于包括,不同路面类型的特征、路面存在异物、以及减速带等在道路中可能出现的不同对象的特征信息。
对于前方能见度的获取,在一种实施方式中,如图4所示,包括子步骤S310~S340:
S310,根据所述目标点云数据,拟合车道线。
示范性地,在进行车道线拟合时,可先利用形态滤波等去除地面之外的干扰点云,得到地面点云数据,然后对地面点云数据进行灰度化处理,得到二值点云数据,而考虑到车道线通常是连续的,故可利用聚类算法以对这些二值化点云数据进行处理,最后将聚类的结果二维处理后进行曲线拟合,如采用最小二乘法等进行拟合,由此得到车道线。当然,也可采用基于点云的其他车道线检测方式,如车道线模型学习等,这里不作限定。
S320,通过图像传感器采集道路图像,并根据所述道路图像计算道路与天空的分界线在实际道路中的分界线位置。
本实施例中,该当前车辆上还设置有图像传感器,以用于采集前方道路的图像。示范性地,可利用区域生成法等对道路图像进行处理,可获得图像天空与路面的分界线在实际道路中的分界线位置。
S330,通过坐标转换计算所述车道线的消失点位置。
在获得车道线的位置后,可进一步计算出左右两车道线的交点,也即车道线的消失点的位置。值得注意的是,由于点云数据中的点与图像中的点具有一一映射关系,故在利用车道线的位置进行计算时,需要通过坐标转换计算出映射到二维图像坐标系下车道线的消失点在实际车道中的位置。
S340,基于预设能见度模型,利用所述车道线的消失点位置和所述分界线位置,计算当前车辆前方的能见度。
示范性地,可将计算到的车道线的消失点位置及分界线位置输入该能见度模型中,以得到当前环境下的能见度值。可以理解,道路的能见度估计主要取决于天空与路面的分割,例如,在无雾条件下,天空和路面的分割线与车道线的消失点的高度是相同的;而在雾天下,天空和路面的分割线会比车道线的消失点高度低。其中,预设能见度模型可通过预先训练得到,以用于对能见度进行预测。
可选地,还可采用其他方式来获取前方能见度,如图5所示,包括子步骤S410~S430:
S410,根据所述目标点云数据,获取各个点对应的探测距离和回波信号功率。
S420,利用各个点对应的所述回波信号功率与所述探测距离,计算探测路径上的大气消光系数。
S430,根据预设的大气消光系数与能见度之间的关系,确定当前车辆前方的能见度。
具体地,根据激光雷达的基本原理,在激光雷达进行探测时,可接收到相应探测距离处的回波信号功率,这里可标记各个点的探测距离与其对应的回波信号功率。进而结合激光雷达方程,根据已知的回波信号功率及探测距离,可求解出探测路径上的大气消光系数,再利用大气消光系数与能见度之间的关系,即可计算出当前车辆前方的能见度。
其中,激光雷达方程反映了激光回波信号功率与被探测对象的光学性质之间的函数关系,其表达式可表示为:
式中,P(R)为激光雷达接收到距离R处的回波信号功率;P0为激光脉冲平均功率;C为雷达常数;β(R)为大气后向散射系数;σ(R′)为大气消光系数。
其中,大气消光系数与能见度之间满足的关系如下:
式中,V为能见度;λ为测量波长;q为预设经验值。
由此,利用上述方法即可以计算出当前车辆前方的能见度。
S130,根据所述目标点云数据、所述路面状况及所述能见度,计算当前车辆的安全距离。
其中,安全距离可以理解为车辆以一定的速度行驶可以避免与前方车辆发生碰撞追尾的一段距离。在现有技术中,安全距离一般只根据车辆的时速来确定,例如,当车辆的时速为100千米/小时,则安全距离为100米以上等。然而,在实际行驶场景中,仅依据距离来确定的安全距离并不可靠,还是容易出现事故,为此,本实施例提出利用带速度及三维位置信息的目标点云数据、前方的路面状况及能见度等信息来综合评估安全距离。
示范性地,在计算当前车辆的安全距离时,可先根据获取到的目标点云数据,确定当前车辆的前方车辆的速度信息和车辆类型等;然后,根据前方车辆的速度信息和车辆类型、以及路面状况和能见度,来计算当前车辆的安全距离。
例如,若前方车辆为大货车,其速度也相对较慢,若当前车辆的时速较大,则应当在基本安全距离的基础上增加预设占比的缓冲距离;进一步地,若前方能见度较低,则可进一步增加一定距离等。当然,在预估安全距离时,还可通过安全距离的预测模型进行预测得到,以综合计算出当前车辆的安全距离。可以理解,对于利用上述几种参数来如何计算安全距离,其具体的计算方式可以是函数拟合,也可以是模型预测等,这里并不作限定。
作为一种可选的方案,考虑到若是其他车道上的车辆可能会随时并入当前车辆所在的车道,此时还可以对上述计算到的安全距离进行更新,以此提高车辆的行车安全。示范性地,如图6所示,该车辆控制方法还包括对安全距离进行更新,包括步骤S510~S540:
S510,根据所述目标点云数据,识别车道线、周围其他车辆以及所述当前车辆与所述其他车辆的距离。
S520,当所述其他车辆位于所述当前车辆的相邻车道,且所述其他车辆与所述当前车辆之间的距离小于预设距离时,则选取所述其他车辆的车轮点云数据。
S530,根据所述车轮点云数据,识别目标车轮的运动方向和横向速度分量。
S540,根据所述运动方向和所述横向速度分量,计算所述其他车辆并入所述当前车辆所在车道的概率,基于所述概率,更新所述当前车辆的安全距离。
在更新安全距离时,可计算相邻车道上的车辆的并入概率,具体地,可通过目标点云数据进行车道线及旁边的其他车辆等的识别,以及进一步测量与其他车辆之间的距离,其中,关于车道线的识别可参见上述步骤S310的相关描述,这里不再重复。若相邻车道上的其他车辆相距较近时,则将其作为目标车辆,并提取其车轮点云数据,以便获得该目标车辆的运动信息。
考虑到在车辆进行换车道时,需要控制车轮转向,这里可识别目标车辆的运动方向和横向速度分量,其中,横向速度分量的指向与车辆沿车道行驶时的前进方向垂直。在计算并入的概率时,在一种实施方式中,可先判断该目标车辆的运动方向是否在朝向当前车辆所在车道运动,若否,则可根据目标车辆当前的横向速度分量的大小,利用概率与不同区间的横向速度分量之间的预设关系等来计算出具体的概率值或概率范围。例如,上述的预设关系可以通过车辆换车道时的横向速度的平均取值的大数据统计并构建得到。最后,基于该概率对计算到的安全距离进行更新。例如,当并入的概率较大(如超过预设概率值)时,即很可能会并入当前车辆所在的车道时,则基于当前车辆的状态,可适应增大安全距离;又或者,当并入的概率较小时,则可维持当前的安全距离等。可以理解,更新后的安全距离用于和目标点云数据等来控制当前车辆的行驶。
S140,根据所述当前车辆的行驶速度、所述安全距离和所述目标点云数据,控制所述当前车辆的行驶。
对当前车辆的行驶控制,在一种实施方式中,如图7所示,包括子步骤S610~S630:
S610,根据所述目标点云数据,确定所述当前车辆周围的障碍信息,并根据所述障碍信息规划所述当前车辆的有效行驶路径。
其中,障碍信息可包括障碍物的位置信息、是否正在运动,以及在运动时其速度信息等。本实施例中,可从目标点云数据中可以获得周围的障碍信息,并按照避障路径规划方法来规划出至少一条有效的可行驶路径。例如,该有效行驶路径可包括但不限于按照当前车道线进行直线行驶,或者转向相邻可用车道后再直线行驶等。
S620,根据所述安全距离、所述当前车辆的行驶速度以及所述当前车辆的前方车辆的目标点云数据,计算所述当前车辆的目标速度。
S630,控制所述当前车辆以所述目标速度按照所述有效行驶路径行驶。
其中,利用前方车辆的目标点云数据可获得前方车辆的行驶速度等。示范性地,通过结合计算出的安全距离、当前车辆的行驶速度以及其前方车辆的目标点云数据等来综合评估当前车辆在下一时刻或下一时段内的目标速度。然后,根据该目标速度按照上述的规划的行驶路径控制当前车辆的行驶状态。
可以理解,根据上述的目标速度且按照该有效行驶路径行驶,可以避免与前方的追尾或侧方车辆的碰撞等,从而提高了安全性。
对当前车辆的行驶控制,在另一种实施方式中,如图8所示,包括子步骤S710~S730:
S710,根据所述目标点云数据,确定所述当前车辆与其前方车辆之间的相对距离及所述前方车辆在预设时间内的速度变化率。
S720,基于所述相对距离、所述速度变化率和所述当前车辆的行驶速度,设置碰撞风险等级。
其中,碰撞风险等级可以理解为是将发生碰撞的概率进行量化处理得到的结果。例如,该碰撞风险等级可包括但不限于高、中和低等,当然也可以划分为更多或更少级别,这里不作限定。示范性地,若两者之间的相对距离较近,且前方车辆的速度变化率又较小(如匀速或减速运动等),而当前车辆的行驶速度又较快时,此时发生碰撞的概率较大,相应的碰撞风险等级较高;反之,两者之间的相对距离较远,前方车辆在进行加速运动,当前车辆的行驶速度不超过预设速度阈值,则发生碰撞的概率会较小,相应的,碰撞风险等级更低。
S730,根据所述碰撞风险等级,更新所述安全距离,控制所述当前车辆与所述前方车辆至少间隔更新后的所述安全距离行驶。
进而,根据当前的碰撞风险等级,更新计算到的安全距离,例如,当碰撞风险等级很高时,可相应调大安全距离等;然后,控制当前车辆与前方车辆在行驶过程中需要保持至少间隔该调整后的安全距离,从而避免与前车发生碰撞。
作为一种可选的方案,考虑到当前车辆存在需要变道的情形,本实施例的车辆控制方法还可以根据当前车辆的后方来车情况来进行最佳转向车道推荐,尤其是多车道的较宽道路情况下,还可以提高驾驶体验等。
示范性地,可预先在当前车辆上安装有后向探测的第三激光雷达传感器和第四激光雷达传感器,与前向探测的两个传感器类似,如图9所示,这里的第三和第四激光雷达传感器可分别为TOF激光雷达与FMCW激光雷达,此时同样可设置为第三激光雷达传感器和所述第四激光雷达传感器同步扫描且探测视场相同。
于是,在计算出安全距离后,该车辆控制方法还包括:
获取当前车辆的预变道指令,控制启动第三激光雷达传感器和第四激光雷达传感器,以获取所述当前车辆后方的辅助点云数据,其中,所述辅助点云数据包括三维位置信息和速度信息。然后,根据计算到的安全距离、所述目标点云数据和所述辅助点云数据,推荐当前车辆的最佳转向车道。
可以理解,利用第三激光雷达传感器和第四激光雷达传感器来获得辅助点云数据的原理与上述的利用第一激光雷达传感器和第二激光雷达传感器来获得目标点云数据的原理一样,区别仅在于两者的探测朝向不同,故这里不作重复描述辅助点云数据的获取过程。
在一种实施方式中,可按照车辆行驶方向的左侧和右侧区域对激光雷达的探测视场区域进行划分,如图9所示,以车辆的中垂线为划分界,前方左侧区域和前方右侧区域分别记为互相对称的FOV1和FOV2,后方左侧和后方右侧区域分别记为互相对称的FOV3和FOV4,基于此,对目标点云数据划分为前左侧点云和前右侧点云,同理,对辅助点云数据划分为后左侧点云和后右侧点云。
于是,根据已获得的前左侧点云和后左侧点云来检测当前车辆的左侧前后是否存在其他车辆,以及检测存在的其他车辆是否在安全距离之外等,以此判断是否可以向左车道转向;同理,对于右则,则通过前右侧点云和后右侧点云来判断是否可以向右车道转向,由此推荐最佳的转向车道。
进一步地,考虑到在当前车辆正在转向过程中,为避免可能后方车辆突然加速等情况,出于安全考虑,还可持续监测待转向的车道所在区域。在得到最佳转向车道后,则进一步进行转向操作,该方法还可包括:
获取所述最佳转向车道对应的转向指令,并根据所述转向指令,从所述辅助点云数据中提取所述最佳转向车道所在的视场区域的点云数据。
例如,当最佳转向车道为左侧,则在接收到向左转向的指令时,对辅助点云数据中提取出上述的FOV3区域对应的点云数据,并对该提取的点云数据进行实时分析,以监测转向过程中的左侧后方情况,避免出现后方车辆的意外追尾等。
本实施例的车辆控制方法通过基于激光雷达组件得到的由三维位置信息及速度信息构成的四维点云数据来获取如前方的路面状况、能见度等多种环境信息,以此来计算车辆的安全距离,进而结合当前车辆的行驶速度和四维点云数据来控制车辆的行驶,相比凭借驾驶员的观察及经验等来控制车辆行驶,可以大大降低发生事故的概率,保证了行车安全等。
请参照图10,基于上述实施例的方法,本实施例提出一种车辆控制装置100,示范性地,该车辆控制装置100包括:
点云获取模块110,用于获取目标点云数据,所述目标点云数据包括三维位置信息和速度信息。
信息计算模块120,用于根据所述目标点云数据,获取当前车辆前方的路面状况及能见度。
信息计算模块120,还用于根据所述目标点云数据、所述路面状况及所述能见度,计算所述当前车辆的安全距离。
车辆控制模块130,用于根据所述当前车辆的行驶速度、所述安全距离和所述目标点云数据,控制所述当前车辆的行驶。
可以理解,本实施例的装置对应于上述实施例的方法,上述实施例中的步骤方法的可选项同样适用于本实施例,故在此不再重复描述。
本申请还提供了一种车辆,示范性地,该车辆包括处理器和存储器,其中,存储器存储有计算机程序,处理器通过运行所述计算机程序,从而使车辆装置执行上述的车辆控制方法或者上述车辆控制装置中的各个模块的功能。
本申请还提供了一种可读存储介质,用于储存上述车辆中使用的所述计算机程序。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和结构图显示了根据本申请的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,结构图和/或流程图中的每个方框、以及结构图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本申请各个实施例中的各功能模块或单元可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或更多个模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是智能手机、个人计算机、服务器、或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。
Claims (14)
1.一种车辆控制方法,其特征在于,包括:
获取目标点云数据,所述目标点云数据包括三维位置信息和速度信息;
根据所述目标点云数据,获取当前车辆前方的路面状况及能见度;
根据所述目标点云数据、所述路面状况及所述能见度,计算所述当前车辆的安全距离;
根据所述当前车辆的行驶速度、所述安全距离和所述目标点云数据,控制所述当前车辆的行驶。
2.根据权利要求1所述的车辆控制方法,其特征在于,所述当前车辆上安装有前向探测的第一激光雷达传感器和第二激光雷达传感器,所述获取目标点云数据,包括:
获取所述第一激光雷达传感器和所述第二激光雷达传感器采集的所述当前车辆前方的第一点云数据和第二点云数据,其中,所述第一激光雷达传感器和所述第二激光雷达传感器同步扫描且探测视场相同,所述第一点云数据包括被测对象的三维位置信息,所述第二点云数据包括所述被测对象的速度信息;
对所述第一点云数据和所述第二点云数据执行点关联,并将所述第二点云数据中的所述速度信息赋予相应点的所述第一点云数据,以得到由所述三维位置信息和所述速度信息构成的目标点云数据。
3.根据权利要求1所述的车辆控制方法,其特征在于,所述当前车辆上安装有前向探测的第一激光雷达传感器和第二激光雷达传感器,所述获取目标点云数据,包括:
控制所述第一激光雷达传感器和所述第二激光雷达传感器的扫描线重合并进行周期性同步扫描;
根据所述第二激光雷达传感器的扫描周期,将所述第二激光雷达传感器测量到的速度信息赋予相同扫描周期内所述第一激光雷达传感器测量的相应点,所述扫描周期的每个点得到由所述第一激光雷达传感器测量到的三维位置信息和所述第二激光雷达传感器测量到的所述速度信息构成的目标点云数据。
4.根据权利要求1所述的车辆控制方法,其特征在于,所述根据所述目标点云数据,获取当前车辆前方的路面状况,包括:
从所述目标点云数据筛选出路面点云数据;
根据预设算法,从所述路面点云数据中进行特征点提取;
根据所述特征点和预设路面特征模型,确定当前车辆前方的路面状况,所述路面状况包括路面是否存在异物和/或减速带、及路面类型。
5.根据权利要求1所述的车辆控制方法,其特征在于,所述当前车辆设置图像传感器,所述根据所述目标点云数据,获取当前车辆前方的能见度,包括:
根据所述目标点云数据,拟合车道线;
通过所述图像传感器采集道路图像,并根据所述道路图像计算道路与天空的分界线在实际道路中的分界线位置;
通过坐标转换计算所述车道线的消失点位置;
基于预设能见度模型,利用所述车道线的消失点位置和所述分界线位置,计算当前车辆前方的能见度。
6.根据权利要求1所述的车辆控制方法,其特征在于,所述根据所述目标点云数据,获取当前车辆前方的能见度,包括:
根据所述目标点云数据,获取各个点对应的探测距离和回波信号功率;
利用各个点对应的所述回波信号功率与所述探测距离,计算探测路径上的大气消光系数;
根据预设的大气消光系数与能见度之间的关系,确定当前车辆前方的能见度。
7.根据权利要求1所述的车辆控制方法,其特征在于,所述根据所述目标点云数据、所述路面状况及所述能见度,计算所述当前车辆的安全距离,包括:
根据所述目标点云数据,确定所述当前车辆的前方车辆的速度信息和车辆类型;
根据所述前方车辆的速度信息和车辆类型、所述路面状况及所述能见度,确定所述当前车辆的安全距离。
8.根据权利要求1所述的车辆控制方法,其特征在于,所述根据所述当前车辆的行驶速度、所述安全距离和所述目标点云数据,控制所述当前车辆的行驶,包括:
根据所述目标点云数据,确定所述当前车辆周围的障碍信息,并根据所述障碍信息规划所述当前车辆的有效行驶路径;
根据所述安全距离、所述当前车辆的行驶速度以及所述当前车辆的前方车辆的目标点云数据,计算所述当前车辆的目标速度;
控制所述当前车辆以所述目标速度按照所述有效行驶路径行驶。
9.根据权利要求1所述的车辆控制方法,其特征在于,所述根据所述当前车辆的行驶速度、所述安全距离和所述目标点云数据,控制所述当前车辆的行驶,包括:
根据所述目标点云数据,确定所述当前车辆与其前方车辆之间的相对距离及所述前方车辆在预设时间内的速度变化率;
根据所述相对距离、所述速度变化率和所述当前车辆的行驶速度,设置碰撞风险等级;
根据所述碰撞风险等级,更新所述安全距离,控制所述当前车辆与所述前方车辆至少间隔更新后的所述安全距离行驶。
10.根据权利要求1-9中任一项所述的车辆控制方法,其特征在于,所述方法还包括:
根据所述目标点云数据,识别车道线、周围其他车辆以及所述当前车辆与所述其他车辆的距离;
当所述其他车辆位于所述当前车辆的相邻车道,且所述其他车辆与所述当前车辆之间的距离小于预设距离时,则选取所述其他车辆的车轮点云数据;
根据所述车轮点云数据,识别目标车轮的运动方向和横向速度分量;
根据所述运动方向和所述横向速度分量,计算所述其他车辆并入所述当前车辆所在车道的概率,基于所述概率,更新所述当前车辆的安全距离。
11.根据权利要求2或3所述的车辆控制方法,其特征在于,所述当前车辆还安装有后向探测的第三激光雷达传感器和第四激光雷达传感器,所述方法还包括:
获取所述当前车辆的预变道指令,控制启动所述第三激光雷达传感器和所述第四激光雷达传感器,以获取所述当前车辆后方的辅助点云数据,其中,所述辅助点云数据包括三维位置信息和速度信息,所述第三激光雷达传感器和所述第四激光雷达传感器同步扫描且探测视场相同;
根据所述安全距离、所述目标点云数据和所述辅助点云数据,推荐所述当前车辆的最佳转向车道。
12.根据权利要求11所述的车辆控制方法,其特征在于,还包括:
获取所述最佳转向车道对应的转向指令;
根据所述转向指令,从所述辅助点云数据中提取所述最佳转向车道所在的视场区域的点云数据。
13.一种车辆控制系统,其特征在于,包括:
点云获取模块,用于获取目标点云数据,所述目标点云数据包括三维位置信息和速度信息;
信息计算模块,用于根据所述目标点云数据,获取当前车辆前方的路面状况及能见度;
信息计算模块,还用于根据所述目标点云数据、所述路面状况及所述能见度,计算所述当前车辆的安全距离;
车辆控制模块,用于根据所述当前车辆的行驶速度、所述安全距离和所述目标点云数据,控制所述当前车辆的行驶。
14.一种车辆,其特征在于,所述车辆包括处理器和存储器,所述存储器存储有计算机程序,所述处理器用于执行所述计算机程序以实施权利要求1-12中任一项所述的车辆控制方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210768339.0A CN114954442A (zh) | 2022-06-30 | 2022-06-30 | 一种车辆控制方法、系统和车辆 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210768339.0A CN114954442A (zh) | 2022-06-30 | 2022-06-30 | 一种车辆控制方法、系统和车辆 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114954442A true CN114954442A (zh) | 2022-08-30 |
Family
ID=82967922
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210768339.0A Pending CN114954442A (zh) | 2022-06-30 | 2022-06-30 | 一种车辆控制方法、系统和车辆 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114954442A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115880946A (zh) * | 2023-01-06 | 2023-03-31 | 广州通达汽车电气股份有限公司 | 一种跟车警报方法、装置、设备及存储介质 |
-
2022
- 2022-06-30 CN CN202210768339.0A patent/CN114954442A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115880946A (zh) * | 2023-01-06 | 2023-03-31 | 广州通达汽车电气股份有限公司 | 一种跟车警报方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11630197B2 (en) | Determining a motion state of a target object | |
US20200217950A1 (en) | Resolution of elevation ambiguity in one-dimensional radar processing | |
CN109927719B (zh) | 一种基于障碍物轨迹预测的辅助驾驶方法和系统 | |
CN106952471B (zh) | 交叉路口处驾驶员意图的预测 | |
EP3647728B1 (en) | Map information system | |
US11948249B2 (en) | Bounding box estimation and lane vehicle association | |
EP1806595B1 (en) | Estimating distance to an object using a sequence of images recorded by a monocular camera | |
US20150336575A1 (en) | Collision avoidance with static targets in narrow spaces | |
US11938926B2 (en) | Polyline contour representations for autonomous vehicles | |
US11475678B2 (en) | Lane marker detection and lane instance recognition | |
Aycard et al. | Intersection safety using lidar and stereo vision sensors | |
US20150149076A1 (en) | Method for Determining a Course of a Traffic Lane for a Vehicle | |
Jeon et al. | Rear vehicle tracking on a bicycle using active sensor orientation control | |
US11618502B2 (en) | On-road localization methodologies and equipment utilizing road surface characteristics | |
CN110647801A (zh) | 设置感兴趣区域的方法、装置、存储介质及电子设备 | |
GB2556427A (en) | Vehicle with environmental context analysis | |
CN115508851A (zh) | 自主载具应用中的大气能见度的确定 | |
CN114954442A (zh) | 一种车辆控制方法、系统和车辆 | |
CN111856510A (zh) | 一种基于激光雷达的车辆前碰撞预测方法 | |
Zeisler et al. | Analysis of the performance of a laser scanner for predictive automotive applications | |
CN114084129A (zh) | 一种基于融合的车辆自动驾驶控制方法及系统 | |
RU2809334C1 (ru) | Беспилотное транспортное средство и способ управления его движением | |
RU2806452C1 (ru) | Устройство и способ для определения объектов | |
RU2814813C1 (ru) | Устройство и способ для отслеживания объектов | |
US20240190423A1 (en) | Polyline contour representations for autonomous vehicles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |