CN111680611B - 一种道路通过性检测方法、系统及设备 - Google Patents
一种道路通过性检测方法、系统及设备 Download PDFInfo
- Publication number
- CN111680611B CN111680611B CN202010493694.2A CN202010493694A CN111680611B CN 111680611 B CN111680611 B CN 111680611B CN 202010493694 A CN202010493694 A CN 202010493694A CN 111680611 B CN111680611 B CN 111680611B
- Authority
- CN
- China
- Prior art keywords
- vehicle
- road
- detection
- width
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明公开一种道路通过性检测方法、系统及设备,该方法包括:基于待测车辆参数和车辆模型构建车辆运动模型;根据车辆运动模型和全局路径局部规划运动路径,获取运动路径的图像数据和激光雷达数据;对图像数据和激光雷达数据进行联合标定,在空间融合;根据车辆运动模型和空间融合数据获得车辆运动轨迹;对空间融合数据进行处理获得道路和障碍物;在道路宽度或高度上存在障碍物时,通过对激光雷达数据处理的结果与通过机器学习算法分类器对图像数据分类相融合以提取道路的可通行宽度;根据可通行宽高与车宽高比较结果,沿着车辆运动轨迹进行碰撞检测,并输出通过性检测结果。用于解决现有技术中适应性和准确性不高等问题,提高检测精度。
Description
技术领域
本发明涉及道路检测技术领域,具体是一种基于视觉及激光雷达数据的道路通过性检测方法及系统。应用于中、大型车辆的辅助驾驶系统,实时对道路可通行区域做出宽度、高度测量与通过决策。
背景技术
随着超大型、超规、超标结构件(风力发电桨叶、超大规模铸造件、核电装备)运输需求日益凸显,上述运输车辆的长、宽等车辆参数存在特殊性,急需一种可以为驾驶员行车过程中实时检测道路状况的通过性检测设备。针对上述使用要求,通过性检测设备需要对车辆前方道路的宽度、高度等几何信息进行准确采集,并为上述特种车辆驾驶员提供道路辅助信息。
当前常用的道路检测方法有单目视觉法、双目视觉法、激光雷达法等。其中,单目视觉的方法容易受到环境、光强等因素的影响,并且无法对道路完成几何测量;双目视觉的方法使用视差法可以获得深度信息,但是双目视觉方式对于单调缺乏原理的场景无法进行图像匹配,同时计算复杂度高;激光雷达的方式通过主动测量可以得到场景深度信息,但是激光雷达的点云数据稀疏以至于对相关环境的识别不够清晰。
发明内容
本发明提供一种道路通过性检测方法、系统及设备,用于克服现有技术中易受到环境、光强等因素影响或对于单调场景无法进行图像匹配且计算复杂度高或对环境识别不清晰等缺陷,通过单目视觉和激光雷达技术的融合,实现对道路几何数据的测量,同时对障碍物特征进行识别。
为实现上述目的,本发明提供一种道路通过性检测方法,包括以下步骤:
步骤1,基于待测车辆参数和车辆模型构建车辆运动模型;
步骤2,根据车辆运动模型和全局路径局部规划运动路径,获取运动路径的图像数据和激光雷达数据;
步骤3,对图像数据和激光雷达数据进行联合标定,在空间融合;
步骤4,根据车辆运动模型和空间融合数据获得车辆运动轨迹;
步骤5,对步骤3获得的空间融合数据进行处理获得道路和障碍物;
步骤6,在道路宽度上存在障碍物时,通过对步骤2激光雷达数据处理的结果并与通过机器学习算法分类器对步骤2图像数据分类的结果相融合以提取道路的可通行宽度;
步骤7,根据可通行宽度与待测车辆宽度比较结果及可通行高度与待测测量高度的比较结果,沿着车辆运动轨迹进行碰撞检测,并输出通过性检测结果。
为实现上述目的,本发明还提供一种道路通过性检测系统,包括处理器和存储器,所述存储器存有道路通过性检测程序,所述处理器在运行所述道路通过性检测程序时执行上述方法的步骤。
为实现上述目的,本发明还提供一种道路通过性检测设备,包括上述的道路通过性检测系统。
本发明提供的道路通过性检测方法、系统及设备,道路通过性检测采用单目视觉和激光雷达融合的方法,既完成对场景特征的提取和数据在空间的融合,通过对融合数据处理计算获得道路和障碍物,在道路宽度上存在障碍物时,通过雷达数据处理的结果与通过机器学习算法分类器对图像数据分类相融合以准确提取道路的可通行宽度;实现对道路几何数据的测量,同时对障碍物特征进行识别。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图示出的结构获得其他的附图。
图1是本发明实施例一提供的道路通过性检测方法中通过性解算逻辑图。
图2是实施例一中相机与激光雷达联合标定的流程图。
图3是实施例一中基于信息融合改进的检测算法流程图。
图4是实施例一中通过性检测仿真计算流程图。
图5是实施例一中车辆运动仿真轨迹图。
图6是实施例一中通过性宽度检测的雷达实现效果图。
图7是实施例一中通过性宽度检测的相机实现效果图。
图8是实施例一中通过性高度检测的雷达实现效果图。
图9是实施例一中通过性高度检测的相机实现效果图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明,本发明实施例中所有方向性指示(诸如上、下、左、右、前、后……)仅用于解释在某一特定姿态(如附图所示)下各部件之间的相对位置关系、运动情况等,如果该特定姿态发生改变时,则该方向性指示也相应地随之改变。
另外,在本发明中如涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本发明中,除非另有明确的规定和限定,术语“连接”、“固定”等应做广义理解,例如,“固定”可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接,还可以是物理连接或无线通信连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系,除非另有明确的限定。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
另外,本发明各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。
实施例一
如图1、图4所示,本发明提供一种道路通过性检测方法,包括以下步骤:
步骤1,基于待测车辆参数和车辆模型构建车辆运动模型;
步骤2,根据车辆运动模型和全局路径局部规划运动路径,获取运动路径的图像数据和激光雷达数据;
数据融合技术,包括对各种信息源给出的有用信息的采集、传输、综合、过滤、相关及合成,以便进行环境判定、规划、探测、验证、诊断。系统主要采用相机、激光雷达等传感器,通过联合标定技术,将多个传感器的信息融合起来,得到与实际场景高度一致性的三维数据。
步骤3,对图像数据和激光雷达数据进行联合标定,在空间融合;重建三维场景,并建立空间树;
步骤4,根据车辆运动模型和空间融合数据获得车辆运动轨迹;
步骤5,对步骤3获得的融合数据进行处理获得道路和障碍物;
步骤6,在道路宽度或高度上存在障碍物时,通过对步骤2激光雷达数据处理的结果与通过机器学习算法分类器对步骤2图像数据分类的结果相融合以提取道路的可通行宽度;
对于道路的提取和检测常采用机器学习的方法,用支持向量机(SVM)作为分类器对道路图像实现分类。系统根据道路的多种特征选取道路区域和非道路区域样本,使用支持向量机(SVM)作为分类器分割图像。为了提高对环境的适应能力,在检测中根据上一帧分类的结果实时更新训练样本和重新训练SVM。由于用SVM分类器对道路图像分类,需要在初始化中人为地选择训练SVM的样本,本系统将激光雷达数据与图像融合来改进算法,实现对道路区域的提取。
步骤7,根据可通行宽度与待测车辆宽度比较结果及可通行高度与待测测量高度的比较结果,沿着车辆运动轨迹进行碰撞检测,并输出通过性检测结果。
通过性检测计算的本质还是刚体运动的碰撞检测。因此本系统通过建立一个刚体运动模型来模拟通过性检测过程,以此覆盖其实际的检测计算要素。车辆运动仿真轨迹是碰撞检测的基础,决定了通过性检测的合理性与正确性。本系统使用基于采样的局部规划与避障算法生成运动仿真轨迹。该算法可在全局路径规划下,结合避障信息重新生成局部最优路径。
通过上述融合技术、道路提取和通过性检测的方法,本系统能够实现实时计算道路的空间轮廓并使其与车辆的轮廓配比,从而计算出通过性检测结果。
优选地,所述步骤3中空间融合的步骤包括:
步骤31,相机和激光雷达同时采集标定板多个姿态下的数据,对相机进行标定,得到相机内外参,建立相机坐标系;
步骤32,通过视觉图像提取出标定板上的特征点,再提取出激光雷达点云中的同名点,最后根据同名点的位置信息,将坐标统一到相机坐标系中,完成对相机和激光雷达的空间融合;
步骤33,建立雷达坐标系、三维世界坐标系、像机机坐标系、图像坐标系和像素坐标系之间的坐标转换关系;
步骤34,将雷达坐标系下的测量点通过坐标系转换到像机对应的像素坐标系下,实现空间同步。
优选地,所述步骤5还包括:通过对空间融合的数据进行道路检测算法处理,获得道路;
通过对空间融合的数据进行目标检测算法处理,获得障碍物;
通过对空间融合的数据进行场景构建算法处理,获得车辆模型的历史运动轨迹。
优选地,在步骤7之前,还包括:
步骤70A,根据历史轨迹获得运动路径的曲率半径;并根据待测车辆运动参数判断能否通过所述运动路径,在能通过时,执行所述步骤7,在不能通过时,输出不可通行作为检测结果输出。
优选地,所述步骤6包括:
步骤61,从输入的步骤2的图像中提取道路的颜色、纹理和边缘特征;采用模糊支持向量机作为分类器基于提取的颜色、纹理和边缘特征对道路图像分类,提取图像中的道路区域;
步骤62,根据激光雷达的点云数据进行聚类分析,提取出路面,并将提取的路面映射到图像上,再根据映射的结果自动获取图像中道路区域和非道路区域样本;
步骤63,在两者不一致时,将根据雷达点云数据获取的道路区域作为增加样本更新训练集,根据上一帧数据的检测结果结合当前雷达数据分析结果,选择正确的样本作为检测结果并根据点云数据获取的道路区域作为可信道路区域修正分类器。
优选地,所述步骤7包括:
步骤71,在可通行高度大于或等于待测车辆高度及高度阈值之和,并且在可通行宽度介于待测车辆宽度及宽度阈值之和与待测车辆宽度之间时,根据车辆运动轨迹和可通行宽度进行碰撞检测,并输出通过性检测结果;
步骤72,在可通行高度大于或等于待测车辆高度及高度阈值之和,并且在可通行宽度大于待测车辆宽度及宽度阈值之和时,输出可通行作为检测结果;
步骤73,在可通行高度小于待测车辆高度及高度阈值之和,或可通行宽度小于待测车辆宽度时,输出不可通行作为检测结果。
优选地,所述步骤1中的车辆模型包括:车辆通过性几何参数、车辆运动学模型、车辆动力学模型。
优选地,所述步骤4包括:采用局部规划与避障算法生成车辆运动轨迹。
下面结合附图对技术方案的实施作进一步的详细描述:
图1是通过性解算逻辑图,其中:
局部道路场景模型是通过性解算的基础,该数据模型由场景融合感知获得,就是将视觉和激光雷达数据进行空间融合后,通过道路检测、目标检测、场景构建等一系列算法处理,获得特征分类的局部道路场景模型,包括:道路、障碍物、历史运动轨迹等;
车辆模型为编队中车辆对应的数学模型,包括:车辆通过性几何参数、车辆运动学模型、车辆动力学模型,该模型与全局路径可生成局部规划运动路径,配合上述的局部道路场景模型,完成最终的通过性场景解算;
获得通过性检测场景解算结果后,可依据结果输出判定准则,给出综合信息,包括:道路宽度、高度等;
当基础判定准则不够精准时,可使用通过性仿真算法(在线实时碰撞检测)获得准确的局部场景通过性检测判定结果。
图2是视觉与激光雷达联合标定的流程图,建立精确的雷达坐标系、三维世界坐标系、摄像机坐标系、图像坐标系和像素坐标系之间的坐标转换关系,是实现多传感器数据的空间融合的关键。在本系统实现过程中,将雷达坐标系下的测量点通过坐标系转换到摄像机对应的像素坐标系下即可实现多传感器的空间同步。标定时,相机和激光雷达同时采集标定板多个姿态下的数据,首先对相机进行标定,得到相机内外参,建立相机坐标系。然后对激光雷达进行联合标定,通过视觉图像提取出标定板上的特征点,再提取出激光雷达点云中的同名点,最后根据同名点的位置信息,将坐标统一到相机坐标系中,完成对相机和激光雷达的空间融合。
图3是基于信息融合改进的检测算法流程图,系统采用机器学习的方法,用支持向量机(SVM)作为分类器对道路图像分类,从而提取图像中的道路区域。由于用SVM分类器对道路图像分类,需要在初始化中人为地选择训练SVM的样本,系统将激光雷达数据与图像融合来改进算法。首先从输入的图像中提取出道路的颜色、纹理和边缘特征,使用模糊支持向量机(FSVM)代替SVM,增加检测中样本的可信度以及减少噪声对分类的干扰,然后根据激光雷达的点云数据进行聚类分析,提取出路面,并将雷达结果映射到图像上,再根据映射的结果自动获取图像中道路和非道路区域样本,在检测过程中需要进行样本更新,根据上一帧的检测结果结合当前雷达数据分析结果,从而选择正确的样本,进一步改善分类的效果。
评价车辆通过性所面临的道路条件具有一定的复杂性,如障碍、坑道、隧道、桥梁、弯道等各种情况均会对通过性造成影响。但通过性检测计算的本质还是刚体运动的碰撞检测。因此可以建立一个刚体运动模型来模拟通过性检测过程,以此覆盖其实际的检测计算要素。
图4说明了通过性检测仿真计算的过程:
对采集的道路场景进行三维重建,并理解场景属性,包括结构化道路、非结构化道路、隧道、障碍物等;
对三维重建的场景建立空间树(BVH、KD-Tree等),加速碰撞检测的求解过程;
依据车辆通过性几何参数对车辆进行建模,同时考虑通过性判别阈值,对车辆宽度、高度以及离地间隙等参数进行一定程度的缩放,由此,建立刚体几何轮廓模型,用于后续碰撞检测计算;
根据车辆的牵引等动力属性,建立车辆运动模型;
结合车辆运动模型以及道路三维场景,生成车辆运动仿真轨迹;
沿着运动仿真轨迹,实时做碰撞检测计算,获得通过性检测结果。
车辆运动仿真轨迹是碰撞检测的基础,决定了通过性检测的合理性与正确性。本系统使用基于采样的局部规划与避障算法生成运动仿真轨迹,实现的仿真效果如图5所示,实际道路场景如图7所示。该算法可在全局路径规划下,结合避障信息重新生成局部最优路径。主要分为两部分:Rollouts Generator和Rollouts Evaluator,前者根据全局中心路径生成一系列平滑的候选局部路径,后者结合障碍物信息和其他因素计算各个Rollout的代价Cost,从而选出最终最优的局部路径。
图6是通过性宽度检测的雷达实现效果图,图7是通过性宽度检测的相机实现效果图,两图显示为同一帧的雷达与相机处理结果,道路宽度解算结果为7.16m,可通行区域使用绿色方框表示;图8是通过性高度检测的雷达实现效果图,图9是通过性高度检测的相机实现效果图,两图显示为同一帧的雷达与相机处理结果,道路宽度解算结果为10.48m,道路高度解算结果为5.75m,高度限制为横置电线,用红色框架显示。
实施例二
在实施例一的基础上,本发明实施例提供一种道路通过性检测系统,包括处理器和存储器,所述存储器存有道路通过性检测程序,所述处理器在运行所述道路通过性检测程序时执行上述任意实施例一所述方法的步骤。
实施例三
在实施例二的基础上,一种道路通过性检测设备,包括上述任意实施例二所述的道路通过性检测系统。
以上所述仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是在本发明的构思下,利用本发明说明书及附图内容所作的等效结构变换,或直接/间接运用在其他相关的技术领域均包括在本发明的专利保护范围内。
Claims (8)
1.一种道路通过性检测方法,其特征在于,包括以下步骤:
步骤1,基于待测车辆参数和车辆模型构建车辆运动模型;
步骤2,根据车辆运动模型和全局路径局部规划运动路径,获取运动路径的图像数据和激光雷达数据;
步骤3,对图像数据和激光雷达数据进行联合标定,在空间融合;
步骤4,根据车辆运动模型和空间融合数据获得车辆运动轨迹;
步骤5,对步骤3获得的空间融合数据进行处理获得道路和障碍物;
步骤6,在道路宽度或高度上存在障碍物时,通过对步骤2激光雷达数据处理的结果与通过机器学习算法分类器对步骤2图像数据分类的结果相融合以提取道路的可通行宽度;
步骤7,根据可通行宽度与待测车辆宽度比较结果及可通行高度与待测测量高度的比较结果,沿着车辆运动轨迹进行碰撞检测,并输出通过性检测结果;
所述步骤6包括:
步骤61,从输入的步骤2的图像中提取道路的颜色、纹理和边缘特征;采用模糊支持向量机作为分类器基于提取的颜色、纹理和边缘特征对道路图像分类,提取图像中的道路区域;
步骤62,根据激光雷达的点云数据进行聚类分析,提取出路面,并将提取的路面映射到图像上,再根据映射的结果自动获取图像中道路区域和非道路区域样本;
步骤63,在两者不一致时,将根据雷达点云数据获取的道路区域作为增加样本更新训练集,根据上一帧数据的检测结果结合当前雷达数据分析结果,选择正确的样本作为检测结果并根据点云数据获取的道路区域作为可信道路区域修正分类器;
所述步骤7包括:
步骤71,在可通行高度大于或等于待测车辆高度及高度阈值之和,并且在可通行宽度介于待测车辆宽度及宽度阈值之和与待测车辆宽度之间时,根据车辆运动轨迹和可通行宽度进行碰撞检测,并输出通过性检测结果;
步骤72,在可通行高度大于或等于待测车辆高度及高度阈值之和,并且在可通行宽度大于待测车辆宽度及宽度阈值之和时,输出可通行作为检测结果;
步骤73,在可通行高度小于待测车辆高度及高度阈值之和,或可通行宽度小于待测车辆宽度时,输出不可通行作为检测结果。
2.如权利要求1所述的道路通过性检测方法,其特征在于,所述步骤3中空间融合的步骤包括:
步骤31,相机和激光雷达同时采集标定板多个姿态下的数据,对相机进行标定,得到相机内外参,建立相机坐标系;
步骤32,通过视觉图像提取出标定板上的特征点,再提取出激光雷达点云中的同名点,最后根据同名点的位置信息,将坐标统一到相机坐标系中,完成对相机和激光雷达的空间融合;
步骤33,建立雷达坐标系、三维世界坐标系、像机坐标系、图像坐标系和像素坐标系之间的坐标转换关系;
步骤34,将雷达坐标系下的测量点通过坐标系转换到像机对应的像素坐标系下,实现空间同步。
3.如权利要求2所述的道路通过性检测方法,其特征在于,所述步骤5还包括:
通过对空间融合的数据进行道路检测算法处理,获得道路;
通过对空间融合的数据进行目标检测算法处理,获得障碍物;
通过对空间融合的数据进行场景构建算法处理,获得车辆模型的历史运动轨迹。
4.如权利要求3所述的道路通过性检测方法,其特征在于,在步骤7之前,还包括:
步骤70A,根据历史轨迹获得运动路径的曲率半径;并根据待测车辆运动参数判断能否通过所述运动路径,在能通过时,执行所述步骤7,在不能通过时,输出不可通行作为检测结果输出。
5.如权利要求1所述的道路通过性检测方法,其特征在于,所述步骤1中的车辆模型包括:车辆通过性几何参数、车辆运动学模型、车辆动力学模型。
6.如权利要求1所述的道路通过性检测方法,其特征在于,所述步骤4包括:采用局部规划与避障算法生成车辆运动轨迹。
7.一种道路通过性检测系统,包括处理器和存储器,所述存储器存有道路通过性检测程序,所述处理器在运行所述道路通过性检测程序时执行所述权利要求1~6任一项所述方法的步骤。
8.一种道路通过性检测设备,包括如权利要求7所述的道路通过性检测系统。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010493694.2A CN111680611B (zh) | 2020-06-03 | 2020-06-03 | 一种道路通过性检测方法、系统及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010493694.2A CN111680611B (zh) | 2020-06-03 | 2020-06-03 | 一种道路通过性检测方法、系统及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111680611A CN111680611A (zh) | 2020-09-18 |
CN111680611B true CN111680611B (zh) | 2023-06-16 |
Family
ID=72453220
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010493694.2A Active CN111680611B (zh) | 2020-06-03 | 2020-06-03 | 一种道路通过性检测方法、系统及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111680611B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112395956B (zh) * | 2020-10-27 | 2023-06-02 | 湖南大学 | 一种面向复杂环境的可通行区域检测方法及系统 |
CN113139454B (zh) * | 2021-04-19 | 2024-04-23 | 国交空间信息技术(北京)有限公司 | 基于单张图像的道路宽度提取方法及装置 |
CN113610883B (zh) * | 2021-04-30 | 2022-04-08 | 新驱动重庆智能汽车有限公司 | 点云处理系统和方法、计算机设备和存储介质 |
CN113034621B (zh) * | 2021-05-24 | 2021-07-30 | 腾讯科技(深圳)有限公司 | 联合标定方法、装置、设备、车辆及存储介质 |
CN113421432B (zh) * | 2021-06-21 | 2023-02-28 | 北京百度网讯科技有限公司 | 交通限行信息检测方法、装置、电子设备和存储介质 |
CN113870296B (zh) * | 2021-12-02 | 2022-02-22 | 暨南大学 | 基于刚体碰撞优化算法的图像边缘检测方法、装置及介质 |
CN117087675B (zh) * | 2023-10-10 | 2024-04-12 | 镁佳(北京)科技有限公司 | 一种车辆通过性的检测方法、装置、设备及介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107609522A (zh) * | 2017-09-19 | 2018-01-19 | 东华大学 | 一种基于激光雷达和机器视觉的信息融合车辆检测系统 |
CN109359409A (zh) * | 2018-10-31 | 2019-02-19 | 张维玲 | 一种基于视觉与激光雷达传感器的车辆可通过性检测系统 |
CN109829386A (zh) * | 2019-01-04 | 2019-05-31 | 清华大学 | 基于多源信息融合的智能车辆可通行区域检测方法 |
-
2020
- 2020-06-03 CN CN202010493694.2A patent/CN111680611B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107609522A (zh) * | 2017-09-19 | 2018-01-19 | 东华大学 | 一种基于激光雷达和机器视觉的信息融合车辆检测系统 |
CN109359409A (zh) * | 2018-10-31 | 2019-02-19 | 张维玲 | 一种基于视觉与激光雷达传感器的车辆可通过性检测系统 |
CN109829386A (zh) * | 2019-01-04 | 2019-05-31 | 清华大学 | 基于多源信息融合的智能车辆可通行区域检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111680611A (zh) | 2020-09-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111680611B (zh) | 一种道路通过性检测方法、系统及设备 | |
CN111223135B (zh) | 通过使用雷达和运动数据的单目相机来增强距离估计的系统和方法 | |
DE102020112314A1 (de) | Verifizierung von fahrzeugbildern | |
CN110866887A (zh) | 一种基于多传感器的目标态势融合感知方法和系统 | |
CN113936139A (zh) | 一种视觉深度信息与语义分割相结合的场景鸟瞰图重构方法及系统 | |
CN107796373B (zh) | 一种基于车道平面几何模型驱动的前方车辆单目视觉的测距方法 | |
CN108645375B (zh) | 一种用于车载双目系统快速车辆测距优化方法 | |
Pantilie et al. | Real-time obstacle detection using dense stereo vision and dense optical flow | |
US11703596B2 (en) | Method and system for automatically processing point cloud based on reinforcement learning | |
CN110936959B (zh) | 车辆感知系统在线诊断和预测 | |
CN115439621A (zh) | 一种煤矿井下巡检机器人三维地图重建及目标检测方法 | |
CN115079143A (zh) | 一种用于双桥转向矿卡的多雷达外参快速标定方法及装置 | |
CN117576652B (zh) | 道路对象的识别方法、装置和存储介质及电子设备 | |
Mharolkar et al. | RGBDTCalibNet: End-to-end online extrinsic calibration between a 3D LiDAR, an RGB camera and a thermal camera | |
CN113160396B (zh) | 建立地图模型的方法、生成实时地图的方法和地图系统 | |
Dehbi et al. | Improving gps trajectories using 3d city models and kinematic point clouds | |
CN113624223B (zh) | 一种室内停车场地图构建方法及装置 | |
CN115542362A (zh) | 电力作业现场的高精度空间定位方法、系统、设备及介质 | |
Pfeiffer et al. | Ground truth evaluation of the Stixel representation using laser scanners | |
CN114882458A (zh) | 一种目标跟踪方法、系统、介质及设备 | |
CN112883846A (zh) | 一种用于检测车辆前方目标的三维数据采集成像系统 | |
CN115668333A (zh) | 电子地图生成方法、装置、计算机设备和存储介质 | |
CN113874681B (zh) | 点云地图质量的评估方法和系统 | |
Hur et al. | Precise free space detection and its application to background extraction | |
US20230230317A1 (en) | Method for generating at least one ground truth from a bird's eye view |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |