CN111860295B - 基于无人车的障碍物检测方法、装置、设备以及存储介质 - Google Patents
基于无人车的障碍物检测方法、装置、设备以及存储介质 Download PDFInfo
- Publication number
- CN111860295B CN111860295B CN202010691371.4A CN202010691371A CN111860295B CN 111860295 B CN111860295 B CN 111860295B CN 202010691371 A CN202010691371 A CN 202010691371A CN 111860295 B CN111860295 B CN 111860295B
- Authority
- CN
- China
- Prior art keywords
- straight line
- grid
- dimensional
- parameter
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 60
- 238000000034 method Methods 0.000 claims abstract description 33
- 238000010586 diagram Methods 0.000 claims description 32
- 238000004590 computer program Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4802—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/06—Systems determining position data of a target
- G01S13/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
-
- G06T3/06—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/48—Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20061—Hough transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
本申请提供一种基于无人车的障碍物检测方法、装置、设备以及存储介质,涉及无人车技术领域,其中,该方法包括:获取检测设备采集的点云数据,点云数据为检测设备对无人车周围的障碍物进行检测之后得到的数据;将点云数据投影到二维平面上得到二维投影网格图;根据二维投影网格图生成多条直线,多条直线中的每一条直线上具有二维数据,每一条直线具有参数信息,参数信息表征了直线与多条直线中的其他直线之间的关系;根据多条直线中的每一条直线的二维数据和参数信息确定每一条直线的朝向置信度数值;确定朝向置信度数值最大的直线所指示的方向信息为障碍物的朝向信息。准确的确定出无人车周围的障碍物的朝向,帮助无人车对障碍物进行避让。
Description
本申请是2018年09月07日提交的申请号为201811044542.3、发明名称为《基于无人车的障碍物检测方法、装置、设备以及存储介质》的发明专利申请的分案申请。
技术领域
本申请涉及无人车技术领域,尤其涉及一种基于无人车的障碍物检测方法、装置、设备以及存储介质。
背景技术
随着智能技术的发展,无人车开始得到发展和应用。在无人车的行驶过程中,需要对无人车周围的障碍物的朝向进行检测。
现有技术中,可以采用激光雷达采集到点云数据,然后对点云数据进行拟合处理,得到一个外边轮廓,将外边轮廓中的最长的边所指示的方向,作为无人车的朝向。
然而现有技术中确定障碍物朝向的方式,采用拟合处理的方式并不准确,从而不能正确的确定出障碍物的朝向。
发明内容
本申请实施例提供一种基于无人车的障碍物检测方法、装置、设备以及存储介质,用于解决上述方案中不能正确的确定出障碍物的朝向的问题。
本申请第一方面提供一种基于无人车的障碍物检测方法,包括:
获取检测设备采集的点云数据,其中,所述点云数据为所述检测设备对所述无人车周围的障碍物进行检测之后得到的数据;
将所述点云数据投影到二维平面上,得到二维投影网格图,其中,所述二维投影网格图中具有多个网格,所述二维投影网格图中具有二维数据,所述二维数据为所述点云数据投影后得到的数据;
根据所述二维投影网格图,生成多条直线,其中,所述多条直线中的每一条直线上具有至少一个所述二维数据,所述每一条直线具有参数信息,所述参数信息表征了直线与所述多条直线中的其他直线之间的关系;
根据所述多条直线中的每一条直线的所述二维数据和所述参数信息,确定所述障碍物的朝向信息。
进一步地,将所述点云数据投影到二维平面上,得到二维投影网格图,包括:
将所述点云数据投影到二维平面上,得到二维投影图,其中,所述二维投影图中具有所述二维数据;
对所述二维投影图进行网格化处理,得到所述二维投影网格图。
进一步地,根据所述二维投影网格图,生成多条直线,包括:
针对所述二维投影网格图的每一个网络,若网络中具有所述二维数据,则为网络赋值为第一数值;
针对所述二维投影网格图的每一个网络,若网络中不具有所述二维数据,则为网络赋值为第二数值;
根据取值为所述第一数值的网格,生成所述多条直线。
进一步地,针对所述二维投影网格图的每一个网络,若网络中具有所述二维数据,则为网络赋值为第一数值,包括:
针对所述二维投影网格图的每一个网络,若网络中具有所述二维数据,则根据网格中的二维数据的个数,为网格赋值为第一数值,其中,所述二维数据的个数与所述第一数值成正比。
进一步地,所述根据取值为所述第一数值的网格,生成所述多条直线,包括:
将至少两个取值为第一数值的网格,连接为一条直线,生成所述多条直线。
进一步地,所述根据取值为所述第一数值的网格,生成所述多条直线,包括:
根据取值为所述第一数值的网格,在所述二维投影网格图上进行霍夫直线检测,得到多条直线。
进一步地,根据所述多条直线中的每一条直线的所述二维数据和所述参数信息,确定所述障碍物的朝向信息,包括:
根据所述多条直线中的每一条直线的所述二维数据和所述参数信息,确定每一条直线的朝向置信度数值;
确定朝向置信度数值最大的直线所指示的方向信息,为所述障碍物的朝向信息。
进一步地,根据所述多条直线中的每一条直线的所述二维数据和所述参数信息,确定每一条直线的朝向置信度数值,包括:
确定与每一条直线相交的相交直线,其中,每一条直线的所述参数信息为每一条直线和每一条直线所对应的每一条相交直线之间的夹角、相交点;
根据每一条直线所具有的所有夹角的夹角值,确定每一条直线的夹角参数;
根据每一条直线所具有的所有相交点的位置信息,确定每一条直线的位置参数;
根据每一条直线上的第一个网格到每一条直线上的最后一个网格之间的距离,为每一条直线的距离参数;
根据每一条直线上的二维数据的个数、所述夹角参数、所述位置参数和所述距离参数,确定每一条直线的朝向置信度数值。
进一步地,所述根据每一条直线所具有的所有夹角的夹角值,确定每一条直线的夹角参数,包括:
将每一条直线所具有的所有夹角的夹角值进行加权求和,得到每一条直线的夹角参数。
进一步地,所述根据每一条直线所具有的所有相交点的位置信息,确定每一条直线的位置参数,包括:
将每一条直线所具有的所有相交点的位置信息进行加权求和,得到每一条直线的位置参数。
进一步地,所述根据每一条直线上的二维数据的个数、所述夹角参数、所述位置参数和所述距离参数,确定每一条直线的朝向置信度数值,包括:
将每一条直线上的二维数据的个数、所述夹角参数、所述位置参数和所述距离参数进行加权求和,得到每一条直线的朝向置信度数值。
本申请第三方面提供一种基于无人车的障碍物检测装置,包括:
获取单元,用于获取检测设备采集的点云数据,其中,所述点云数据为所述检测设备对所述无人车周围的障碍物进行检测之后得到的数据;
投影单元,用于将所述点云数据投影到二维平面上,得到二维投影网格图,其中,所述二维投影网格图中具有多个网格,所述二维投影网格图中具有二维数据,所述二维数据为所述点云数据投影后得到的数据;
生成单元,用于根据所述二维投影网格图,生成多条直线,其中,所述多条直线中的每一条直线上具有至少一个所述二维数据,所述每一条直线具有参数信息,所述参数信息表征了直线与所述多条直线中的其他直线之间的关系;
确定单元,用于根据所述多条直线中的每一条直线的所述二维数据和所述参数信息,确定所述障碍物的朝向信息。
进一步地,所述投影单元,包括:
投影模块,用于将所述点云数据投影到二维平面上,得到二维投影图,其中,所述二维投影图中具有所述二维数据;
网格化模块,用于对所述二维投影图进行网格化处理,得到所述二维投影网格图。
进一步地,所述生成单元,包括:
第一处理模块,用于针对所述二维投影网格图的每一个网络,若网络中具有所述二维数据,则为网络赋值为第一数值;
第二处理模块,用于针对所述二维投影网格图的每一个网络,若网络中不具有所述二维数据,则为网络赋值为第二数值;
生成模块,用于根据取值为所述第一数值的网格,生成所述多条直线。
进一步地,所述第一处理模块,具体用于:
针对所述二维投影网格图的每一个网络,若网络中具有所述二维数据,则根据网格中的二维数据的个数,为网格赋值为第一数值,其中,所述二维数据的个数与所述第一数值成正比。
进一步地,所述生成模块,具体用于:
将至少两个取值为第一数值的网格,连接为一条直线,生成所述多条直线。
进一步地,所述生成模块,具体用于:
根据取值为所述第一数值的网格,在所述二维投影网格图上进行霍夫直线检测,得到多条直线。
进一步地,所述确定单元,包括:
第一确定模块,用于根据所述多条直线中的每一条直线的所述二维数据和所述参数信息,确定每一条直线的朝向置信度数值;
第二确定模块,用于确定朝向置信度数值最大的直线所指示的方向信息,为所述障碍物的朝向信息。
进一步地,所述第一确定模块,包括:
第一确定子模块,用于确定与每一条直线相交的相交直线,其中,每一条直线的所述参数信息为每一条直线和每一条直线所对应的每一条相交直线之间的夹角、相交点;
第二确定子模块,用于根据每一条直线所具有的所有夹角的夹角值,确定每一条直线的夹角参数;
第三确定子模块,用于根据每一条直线所具有的所有相交点的位置信息,确定每一条直线的位置参数;
第四确定子模块,用于根据每一条直线上的第一个网格到每一条直线上的最后一个网格之间的距离,为每一条直线的距离参数;
第五确定子模块,用于根据每一条直线上的二维数据的个数、所述夹角参数、所述位置参数和所述距离参数,确定每一条直线的朝向置信度数值。
进一步地,所述第二确定子模块,具体用于:
将每一条直线所具有的所有夹角的夹角值进行加权求和,得到每一条直线的夹角参数。
进一步地,所述第三确定子模块,具体用于:
将每一条直线所具有的所有相交点的位置信息进行加权求和,得到每一条直线的位置参数。
进一步地,所述第五确定子模块,具体用于:
将每一条直线上的二维数据的个数、所述夹角参数、所述位置参数和所述距离参数进行加权求和,得到每一条直线的朝向置信度数值。
本申请第三方面提供一种控制设备,包括:发送器、接收器、存储器和处理器;
所述存储器用于存储计算机指令;所述处理器用于运行所述存储器存储的所述计算机指令实现第一方面任一实现方式提供的基于无人车的障碍物检测方法。
本申请第四方面提供一种存储介质,包括:可读存储介质和计算机指令,所述计算机指令存储在所述可读存储介质中;所述计算机指令用于实现第一方面任一实现方式提供的基于无人车的障碍物检测方法。
本申请第五方面提供了一种计算机程序产品,所述程序产品包括:计算机程序,所述计算机程序存储在可读存储介质中,控制设备的至少一个处理器可以从所述可读存储介质读取所述计算机程序,所述至少一个处理器执行所述计算机程序使得控制设备执行第一方面所述的方法。
本申请实施例提供的基于无人车的障碍物检测方法、装置、设备以及存储介质,通过获取检测设备采集的点云数据,其中,点云数据为检测设备对无人车周围的障碍物进行检测之后得到的数据;将点云数据投影到二维平面上,得到二维投影网格图,其中,二维投影网格图中具有多个网格,二维投影网格图中具有二维数据,二维数据为点云数据投影后得到的数据;根据二维投影网格图,生成多条直线,其中,多条直线中的每一条直线上具有至少一个二维数据,每一条直线具有参数信息,参数信息表征了直线与多条直线中的其他直线之间的关系;根据多条直线中的每一条直线的二维数据和参数信息,确定障碍物的朝向信息。提供了一种障碍物的朝向确定方法,根据障碍物的点云数据得到二维投影网格图,依据二维投影网格图中得到的直线,计算障碍物的朝向信息;可以准确的确定出无人车周围的障碍物的朝向,进而可以帮助无人车对障碍物进行避让。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。
图1为本申请实施例提供的一种基于无人车的障碍物检测方法的流程图;
图2为本申请实施例提供的另一种基于无人车的障碍物检测方法的流程图;
图3为本申请实施例提供的另一种基于无人车的障碍物检测方法中的二维投影网格图的示意图;
图4为本申请实施例提供的另一种基于无人车的障碍物检测方法中的直线的示意图;
图5为本申请实施例提供的一种基于无人车的障碍物检测装置的结构示意图;
图6为本申请实施例提供的另一种基于无人车的障碍物检测装置的结构示意图;
图7为本申请实施例提供的一种控制设备的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
现有技术中,可以采用激光雷达采集到点云数据,然后对点云数据进行拟合处理,得到一个外边轮廓,将外边轮廓中的最长的边所指示的方向,作为无人车的朝向。其中,无人车也称作自动驾驶车辆。
然而现有技术中确定障碍物朝向的方式,采用拟合处理的方式并不准确,从而不能正确的确定出障碍物的朝向。
针对上述存在的问题,本申请提出一种基于无人车的障碍物检测方法、装置、设备以及存储介质,可以准确的确定出无人车周围的障碍物的朝向,进而可以帮助无人车对障碍物进行避让。下面通过几个具体实施例对该方案进行详细说明。
图1为本申请实施例提供的一种基于无人车的障碍物检测方法的流程图,如图1所示,该方案的执行主体为无人车的控制器、无人车自动驾驶系统的控制设备等等,该基于无人车的障碍物检测方法,包括:
步骤101、获取检测设备采集的点云数据,其中,点云数据为检测设备对无人车周围的障碍物进行检测之后得到的数据。
在本步骤中,具体的,本实施例以执行主体为无人车的控制器进行说明。
在无人车中设置有检测设备,检测装置可以是激光雷达、或者其他雷达等设备。检测设备对无人车周围的障碍物进行检测,得到点云数据。无人车的控制器可以获取到检测设备采集的点云数据。
其中,点云数据为三维数据,点云数据所在的三维坐标系是以障碍物为原点的三维坐标系。
步骤102、将点云数据投影到二维平面上,得到二维投影网格图,其中,二维投影网格图中具有多个网格,二维投影网格图中具有二维数据,二维数据为点云数据投影后得到的数据。
在本步骤中,具体的,无人车的控制器将获取到的点云数据投影到一个二维平面上,从而将点云数据投影为二维数据,得到一个二维投影网格图,二维投影网格图中具有上述二维数据;二维投影网格图被划分了多个网格,网格的划分方式不做限定。
步骤103、根据二维投影网格图,生成多条直线,其中,多条直线中的每一条直线上具有至少一个二维数据,每一条直线具有参数信息,参数信息表征了直线与多条直线中的其他直线之间的关系。
在本步骤中,具体的,由于二维投影网格图中具有多个网格,网格上具有二维数据。无人车的控制器可以根据二维投影网格图上的二维数据,生成多条直线。每一条直线上具有至少一个二维数据。
由于生成了多条直线,直线之间可以相交,从而每一条直线与其他直线之间具有位置关系和连接关系;每一条直线与其他直线之间的位置关系和连接关系,构成了每一条直线的参数信息。
步骤104、根据多条直线中的每一条直线的二维数据和参数信息,确定障碍物的朝向信息。
在本步骤中,具体的,无人车的控制器可以依据每一条直线的二维数据和参数信息进行计算,从而确定出障碍物的朝向信息。
举例来说,对依据每一条直线的二维数据和参数信息进行加权计算,得到障碍物的朝向信息。或者采用分类器对每一条直线的二维数据和参数信息进行计算,得到障碍物的朝向信息。
本实施例通过获取检测设备采集的点云数据,其中,点云数据为检测设备对无人车周围的障碍物进行检测之后得到的数据;将点云数据投影到二维平面上,得到二维投影网格图,其中,二维投影网格图中具有多个网格,二维投影网格图中具有二维数据,二维数据为点云数据投影后得到的数据;根据二维投影网格图,生成多条直线,其中,多条直线中的每一条直线上具有至少一个二维数据,每一条直线具有参数信息,参数信息表征了直线与多条直线中的其他直线之间的关系;根据多条直线中的每一条直线的二维数据和参数信息,确定障碍物的朝向信息。提供了一种障碍物的朝向确定方法,根据障碍物的点云数据得到二维投影网格图,依据二维投影网格图中得到的直线,计算障碍物的朝向信息;可以准确的确定出无人车周围的障碍物的朝向,进而可以帮助无人车对障碍物进行避让。
图2为本申请实施例提供的另一种基于无人车的障碍物检测方法的流程图,如图2所示,该方案的执行主体为无人车的控制器、无人车自动驾驶系统的控制设备等等,该基于无人车的障碍物检测方法,包括:
步骤201、获取检测设备采集的点云数据,其中,点云数据为检测设备对无人车周围的障碍物进行检测之后得到的数据。
在本步骤中,具体的,本实施例以执行主体为无人车的控制器进行说明。
本步骤可以参见图1的步骤101,不再赘述。
步骤202、将点云数据投影到二维平面上,得到二维投影图,其中,二维投影图中具有二维数据。
在本步骤中,具体的,无人车的控制器将点云数据投影到二维平面上,得到一个二维投影图,其中,二维投影图中包括了二维数据,二维数据为点云数据投影之后得到的数据。其中,二维数据一般为浮点数据。
步骤203、对二维投影图进行网格化处理,得到二维投影网格图,其中,二维投影网格图中具有多个网格,二维投影网格图中具有二维数据,二维数据为点云数据投影后得到的数据。
在本步骤中,具体的,无人车的控制器对二维投影图进行网格化处理,得到网格化的二维投影图,即得到二维投影网格图。
图3为本申请实施例提供的另一种基于无人车的障碍物检测方法中的二维投影网格图的示意图,如图3所示,二维投影网格图中具有多个网格,二维投影网格图中具有二维数据,二维数据位于二维投影网格图的网格中,有的网格中不止一个二维数据。
步骤204、针对二维投影网格图的每一个网络,若网络中具有二维数据,则为网络赋值为第一数值。
其中,步骤204具体包括:针对二维投影网格图的每一个网络,若网络中具有二维数据,则根据网格中的二维数据的个数,为网格赋值为第一数值,其中,二维数据的个数与第一数值成正比。
在本步骤中,具体的,无人车的控制器判断二维投影网格图的每一个网络中是否具有二维数据,若网络中具有二维数据,则为该网络赋值为第一数值。
具体来说,若二维投影网格图中的每一个网络中具有多个二维数据,根据该网格中的二维数据的个数,为该网格赋值为第一数值;其中,二维数据的个数越多,第一数值越大,第一数值大于0小于等于N。
步骤205、针对二维投影网格图的每一个网络,若网络中不具有二维数据,则为网络赋值为第二数值。
在本步骤中,具体的,若二维投影网格图中的网络中不具有二维数据,则无人车的控制器为该网络赋值为第二数值。第一数值与第二数值的取值不同。
举例来说,若二维投影网格图的网络中具有二维数据,则无人车的控制器为网络赋值为1;若二维投影网格图的网络中不具有二维数据,则无人车的控制器为该网络赋值为0。
再举例来说,若二维投影网格图的网络中具有二维数据,若网络中二维数据的个数为1,则为网络赋值为1;若网络中二维数据的个数为2,则为网络赋值为2;若网络中二维数据的个数为3,则为网络赋值为3;以此类推。若二维投影网格图的网络中不具有二维数据,则为该网络赋值为0。
步骤206、根据取值为第一数值的网格,生成多条直线。
其中,多条直线中的每一条直线上具有至少一个二维数据,每一条直线具有参数信息,参数信息表征了直线与多条直线中的其他直线之间的关系。
其中,步骤206包括以下几种实施方式:
步骤206的第一种实施方式:将至少两个取值为第一数值的网格,连接为一条直线,生成多条直线。
步骤206的第二种实施方式:根据取值为第一数值的网格,在二维投影网格图上进行霍夫直线检测,得到多条直线。
在本步骤中,具体的,无人车的控制器根据取值为第一数值的网格,形成多条直线。
具体来说,由于两点构成一条直线,从而可以将每两个取值为第一数值的网格,连接为一条直线;每一条直线上具有至少两个网格,可知,每一条直线上具有至少两个二维数据。或者,只根据取值为第一数值的网格去生成直线,在生成直线的过程中,在二维投影网格图上进行霍夫直线检测,可以得到多条直线。
举例来说,图4为本申请实施例提供的另一种基于无人车的障碍物检测方法中的直线的示意图,如图4所示,生成了5条直线。
步骤207、根据多条直线中的每一条直线的二维数据和参数信息,确定每一条直线的朝向置信度数值。
其中步骤207具体包括:
步骤2071、确定与每一条直线相交的相交直线,其中,每一条直线的参数信息为每一条直线和每一条直线所对应的每一条相交直线之间的夹角、相交点。
步骤2072、根据每一条直线所具有的所有夹角的夹角值,确定每一条直线的夹角参数。
步骤2073、根据每一条直线所具有的所有相交点的位置信息,确定每一条直线的位置参数。
步骤2074、根据每一条直线上的第一个网格到每一条直线上的最后一个网格之间的距离,为每一条直线的距离参数。
步骤2075、根据每一条直线上的二维数据的个数、夹角参数、位置参数和距离参数,确定每一条直线的朝向置信度数值。
在本步骤中,具体的,由于生成了多条直线,每一条直线上具有至少两个二维数据;直线之间可以相交,从而每一条直线与其他直线之间具有位置关系和连接关系;每一条直线与其他直线之间的位置关系和连接关系,构成了每一条直线的参数信息。从而针对每一条直线,无人车的控制器可以根据每一条直线的二维数据和参数信息,确定每一条直线的朝向置信度数值。
具体来说,针对于每一条直线,无人车的控制器确定与该直线相交的所有相交直线。直线与每一条相交直线之间具有相交点,并且,直线与相交直线之间具有夹角。
针对于每一条直线,无人车的控制器根据该直线与每一条相交直线之间的夹角的夹角值,确定出夹角参数。具体来说,针对于每一条直线,无人车的控制器将该直线与每一个相交直线之间的所有夹角的夹角值进行加权求和,得到每一条直线的夹角参数。
针对于每一条直线,无人车的控制器根据该直线与每一条相交直线的相交点的位置信息,确定出位置参数。例如,该位置信息是相交点在二维投影图中位置。具体来说,针对于每一条直线,无人车的控制器将该直线与每一个相交直线之间的所有相交点的位置信息进行加权求和,得到每一条直线的位置参数。
针对于每一条直线,沿着直线的方向上具有至少两个网格,直线的一端上具有第一个网格,直线的另一端上具有直线的最后一个网格;无人车的控制器计算第一个网格到最后一个网格之间的距离,得到每一条直线的距离参数。或者,针对于每一条直线,沿着直线的方向上具有至少两个二维数据,直线的一端上具有第一个二维数据,直线的另一端上具有直线的最后一个二维数据;无人车的控制器计算第一个二维数据到最后一个二维数据之间的距离,得到每一条直线的距离参数。
每一条直线上具有至少两个二维数据。然后,针对于每一条直线,无人车的控制器根据直线上的二维数据的个数、夹角参数、位置参数和距离参数,计算出直线的朝向置信度数值。具体来说,针对于每一条直线,无人车的控制器将直线上的二维数据的个数、夹角参数、位置参数和距离参数进行加权求和,得到直线的朝向置信度数值。
举例来说,每一条直线的朝向置信度数值为,其中,、、、是加权系数,是直线上的二维数据的个数,是直线的位置参数,是直线的夹角参数,是直线的距离参数。
步骤208、确定朝向置信度数值最大的直线所指示的方向信息,为障碍物的朝向信息。
在本步骤中,具体的,无人车的控制器根据每一条直线的朝向置信度数值,确定朝向置信度数值最大的直线所指示的方向,为障碍物的朝向信息。其中,直线具有两条方向,其中的任意一个方向都可以作为障碍物的朝向。
本实施例通过获取点云数据,将点云数据投影到二维平面上,得到二维投影图,二维投影图中包括了二维数据;对二维投影图进行网格化处理,得到网格化的二维投影图;根据每一个网络中的二维数据,则为该网络赋值为第一数值或第二数值;根据取值为第一数值的网格,形成多条直线;针对于每一条直线,确定夹角参数、位置参数和距离参数;根据每一条直线上的二维数据的个数、夹角参数、位置参数和距离参数,确定出每一条直线的朝向置信度数值;确定朝向置信度数值最大的直线所指示的方向,为障碍物的朝向。提供了一种障碍物的朝向确定方法,根据障碍物的点云数据得到二维投影网格图,依据二维投影网格图中得到的直线,计算障碍物的朝向信息;可以准确的确定出无人车周围的障碍物的朝向,进而可以帮助无人车对障碍物进行避让。
图5为本申请实施例提供的一种基于无人车的障碍物检测装置的结构示意图,如图5所示,本实施例提供的基于无人车的障碍物检测装置,包括:
获取单元51,用于获取检测设备采集的点云数据,其中,点云数据为检测设备对无人车周围的障碍物进行检测之后得到的数据。
投影单元52,用于将点云数据投影到二维平面上,得到二维投影网格图,其中,二维投影网格图中具有多个网格,二维投影网格图中具有二维数据,二维数据为点云数据投影后得到的数据。
生成单元53,用于根据二维投影网格图,生成多条直线,其中,多条直线中的每一条直线上具有至少一个二维数据,每一条直线具有参数信息,参数信息表征了直线与多条直线中的其他直线之间的关系。
确定单元54,用于根据多条直线中的每一条直线的二维数据和参数信息,确定障碍物的朝向信息。
本实施例提供的基于无人车的障碍物检测装置,同于实现前述任一实施例提供的基于无人车的障碍物检测方法中的技术方案,其实现原理类似,不再赘述。
本实施例通过获取检测设备采集的点云数据,其中,点云数据为检测设备对无人车周围的障碍物进行检测之后得到的数据;将点云数据投影到二维平面上,得到二维投影网格图,其中,二维投影网格图中具有多个网格,二维投影网格图中具有二维数据,二维数据为点云数据投影后得到的数据;根据二维投影网格图,生成多条直线,其中,多条直线中的每一条直线上具有至少一个二维数据,每一条直线具有参数信息,参数信息表征了直线与多条直线中的其他直线之间的关系;根据多条直线中的每一条直线的二维数据和参数信息,确定障碍物的朝向信息。提供了一种障碍物的朝向确定方法,根据障碍物的点云数据得到二维投影网格图,依据二维投影网格图中得到的直线,计算障碍物的朝向信息;可以准确的确定出无人车周围的障碍物的朝向,进而可以帮助无人车对障碍物进行避让。
图6为本申请实施例提供的另一种基于无人车的障碍物检测装置的结构示意图,在图5所示实施例的基础上,如图6所示,本实施例提供的基于无人车的障碍物检测装置,投影单元52,包括:
投影模块521,用于将点云数据投影到二维平面上,得到二维投影图,其中,二维投影图中具有二维数据。
网格化模块522,用于对二维投影图进行网格化处理,得到二维投影网格图。
生成单元53,包括:
第一处理模块531,用于针对二维投影网格图的每一个网络,若网络中具有二维数据,则为网络赋值为第一数值。
第二处理模块532,用于针对二维投影网格图的每一个网络,若网络中不具有二维数据,则为网络赋值为第二数值。
生成模块533,用于根据取值为第一数值的网格,生成多条直线。
第一处理模块531,具体用于:针对二维投影网格图的每一个网络,若网络中具有二维数据,则根据网格中的二维数据的个数,为网格赋值为第一数值,其中,二维数据的个数与第一数值成正比。
生成模块533,具体用于:将至少两个取值为第一数值的网格,连接为一条直线,生成多条直线。或者,生成模块533,具体用于:根据取值为第一数值的网格,在二维投影网格图上进行霍夫直线检测,得到多条直线。
确定单元54,包括:
第一确定模块541,用于根据多条直线中的每一条直线的二维数据和参数信息,确定每一条直线的朝向置信度数值。
第二确定模块542,用于确定朝向置信度数值最大的直线所指示的方向信息,为障碍物的朝向信息。
第一确定模块541,包括:
第一确定子模块5411,用于确定与每一条直线相交的相交直线,其中,每一条直线的参数信息为每一条直线和每一条直线所对应的每一条相交直线之间的夹角、相交点。
第二确定子模块5412,用于根据每一条直线所具有的所有夹角的夹角值,确定每一条直线的夹角参数。
第三确定子模块5413,用于根据每一条直线所具有的所有相交点的位置信息,确定每一条直线的位置参数。
第四确定子模块5414,用于根据每一条直线上的第一个网格到每一条直线上的最后一个网格之间的距离,为每一条直线的距离参数。
第五确定子模块5415,用于根据每一条直线上的二维数据的个数、夹角参数、位置参数和距离参数,确定每一条直线的朝向置信度数值。
第二确定子模块5412,具体用于:将每一条直线所具有的所有夹角的夹角值进行加权求和,得到每一条直线的夹角参数。
第三确定子模块5413,具体用于:将每一条直线所具有的所有相交点的位置信息进行加权求和,得到每一条直线的位置参数。
第五确定子模块5415,具体用于:将每一条直线上的二维数据的个数、夹角参数、位置参数和距离参数进行加权求和,得到每一条直线的朝向置信度数值。
本实施例提供的基于无人车的障碍物检测装置,同于实现前述任一实施例提供的基于无人车的障碍物检测方法中的技术方案,其实现原理类似,不再赘述。
本实施例通过获取点云数据,将点云数据投影到二维平面上,得到二维投影图,二维投影图中包括了二维数据;对二维投影图进行网格化处理,得到网格化的二维投影图;根据每一个网络中的二维数据,则为该网络赋值为第一数值或第二数值;根据取值为第一数值的网格,形成多条直线;针对于每一条直线,确定夹角参数、位置参数和距离参数;根据每一条直线上的二维数据的个数、夹角参数、位置参数和距离参数,确定出每一条直线的朝向置信度数值;确定朝向置信度数值最大的直线所指示的方向,为障碍物的朝向。提供了一种障碍物的朝向确定方法,根据障碍物的点云数据得到二维投影网格图,依据二维投影网格图中得到的直线,计算障碍物的朝向信息;可以准确的确定出无人车周围的障碍物的朝向,进而可以帮助无人车对障碍物进行避让。
图7为本申请实施例提供的一种控制设备的结构示意图,如图7所示,该控制设备,包括:发送器71、接收器72、存储器73和处理器74;
存储器73用于存储计算机指令;处理器74用于运行存储器73存储的计算机指令实现前述实施例提供任一实现方式的基于无人车的障碍物检测方法的技术方案。
本申请还提供一种存储介质,包括:可读存储介质和计算机指令,计算机指令存储在可读存储介质中;计算机指令用于实现前述例提供的任一实现方式的基于无人车的障碍物检测方法的技术方案。
根据本申请的实施例,本申请还提供了一种计算机程序产品,程序产品包括:计算机程序,计算机程序存储在可读存储介质中,控制设备的至少一个处理器可以从可读存储介质读取计算机程序,至少一个处理器执行计算机程序使得控制设备执行上述任一实施例提供的方案。
在上述控制设备的具体实现中,应理解,处理器74可以是中央处理单元(英文:Central Processing Unit,简称:CPU),还可以是其他通用处理器、数字信号处理器(英文:Digital Signal Processor,简称:DSP)、专用集成电路(英文:Application SpecificIntegrated Circuit,简称:ASIC)等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。
本领域普通技术人员可以理解:实现上述各方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成。前述的程序可以存储于一计算机可读取存储介质中。该程序在执行时,执行包括上述各方法实施例的步骤;而前述的存储介质包括:只读存储器(英文:read-only memory,缩写:ROM)、RAM、快闪存储器、硬盘、固态硬盘、磁带(英文:magnetictape)、软盘(英文:floppy disk)、光盘(英文:optical disc)及其任意组合。
最后应说明的是:以上各实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述各实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的范围。
Claims (18)
1.一种基于无人车的障碍物检测方法,包括:
获取检测设备采集的点云数据,其中,所述点云数据为所述检测设备对所述无人车周围的障碍物进行检测之后得到的数据;
将所述点云数据投影到二维平面上,得到二维投影网格图,其中,所述二维投影网格图中具有多个网格,所述二维投影网格图中具有二维数据,所述二维数据为所述点云数据投影后得到的数据;
根据所述二维投影网格图,生成多条直线,其中,所述多条直线中的每一条直线上具有至少一个所述二维数据,所述每一条直线具有参数信息,所述参数信息表征了直线与所述多条直线中的其他直线之间的关系;
根据所述多条直线中的每一条直线的所述二维数据和所述参数信息,确定所述障碍物的朝向信息;
其中,根据所述多条直线中的每一条直线的所述二维数据和所述参数信息,确定所述障碍物的朝向信息,包括:
根据所述多条直线中的每一条直线的所述二维数据和所述参数信息,确定每一条直线的朝向置信度数值;
确定朝向置信度数值最大的直线所指示的方向信息,为所述障碍物的朝向信息;
根据所述二维投影网格图,生成多条直线,包括:
针对所述二维投影网格图的每一个网格,若网格中具有所述二维数据,则为网格赋值为第一数值;
针对所述二维投影网格图的每一个网格,若网格中不具有所述二维数据,则为网格赋值为第二数值;其中,所述第一数值与所述第二数值的取值不同;
根据取值为所述第一数值的网格,生成所述多条直线;
其中,针对所述二维投影网格图的每一个网格,若网格中具有所述二维数据,则为网格赋值为第一数值,包括:
针对所述二维投影网格图的每一个网格,若网格中具有所述二维数据,则根据网格中的二维数据的个数,为网格赋值为第一数值,其中,所述二维数据的个数与所述第一数值成正比。
2.根据权利要求1所述的方法,其中,将所述点云数据投影到二维平面上,得到二维投影网格图,包括:
将所述点云数据投影到二维平面上,得到二维投影图,其中,所述二维投影图中具有所述二维数据;
对所述二维投影图进行网格化处理,得到所述二维投影网格图。
3.根据权利要求1所述的方法,其中,所述根据取值为所述第一数值的网格,生成所述多条直线,包括:
将至少两个取值为第一数值的网格,连接为一条直线,生成所述多条直线。
4.根据权利要求1所述的方法,其中,所述根据取值为所述第一数值的网格,生成所述多条直线,包括:
根据取值为所述第一数值的网格,在所述二维投影网格图上进行霍夫直线检测,得到多条直线。
5.根据权利要求1-4任一项所述的方法,其中,根据所述多条直线中的每一条直线的所述二维数据和所述参数信息,确定每一条直线的朝向置信度数值,包括:
确定与每一条直线相交的相交直线,其中,每一条直线的所述参数信息为每一条直线和每一条直线所对应的每一条相交直线之间的夹角、相交点;
根据每一条直线所具有的所有夹角的夹角值,确定每一条直线的夹角参数;
根据每一条直线所具有的所有相交点的位置信息,确定每一条直线的位置参数;
根据每一条直线上的第一个网格到每一条直线上的最后一个网格之间的距离,为每一条直线的距离参数;
根据每一条直线上的二维数据的个数、所述夹角参数、所述位置参数和所述距离参数,确定每一条直线的朝向置信度数值。
6.根据权利要求5所述的方法,其中,所述根据每一条直线所具有的所有夹角的夹角值,确定每一条直线的夹角参数,包括:
将每一条直线所具有的所有夹角的夹角值进行加权求和,得到每一条直线的夹角参数。
7.根据权利要求5所述的方法,其中,所述根据每一条直线所具有的所有相交点的位置信息,确定每一条直线的位置参数,包括:
将每一条直线所具有的所有相交点的位置信息进行加权求和,得到每一条直线的位置参数。
8.根据权利要求5所述的方法,其中,所述根据每一条直线上的二维数据的个数、所述夹角参数、所述位置参数和所述距离参数,确定每一条直线的朝向置信度数值,包括:
将每一条直线上的二维数据的个数、所述夹角参数、所述位置参数和所述距离参数进行加权求和,得到每一条直线的朝向置信度数值。
9.一种基于无人车的障碍物检测装置,包括:
获取单元,用于获取检测设备采集的点云数据,其中,所述点云数据为所述检测设备对所述无人车周围的障碍物进行检测之后得到的数据;
投影单元,用于将所述点云数据投影到二维平面上,得到二维投影网格图,其中,所述二维投影网格图中具有多个网格,所述二维投影网格图中具有二维数据,所述二维数据为所述点云数据投影后得到的数据;
生成单元,用于根据所述二维投影网格图,生成多条直线,其中,所述多条直线中的每一条直线上具有至少一个所述二维数据,所述每一条直线具有参数信息,所述参数信息表征了直线与所述多条直线中的其他直线之间的关系;
确定单元,用于根据所述多条直线中的每一条直线的所述二维数据和所述参数信息,确定所述障碍物的朝向信息;
其中,所述确定单元,包括:
第一确定模块,用于根据所述多条直线中的每一条直线的所述二维数据和所述参数信息,确定每一条直线的朝向置信度数值;
第二确定模块,用于确定朝向置信度数值最大的直线所指示的方向信息,为所述障碍物的朝向信息;
其中,所述生成单元,包括:
第一处理模块,用于针对所述二维投影网格图的每一个网格,若网格中具有所述二维数据,则为网格赋值为第一数值;
第二处理模块,用于针对所述二维投影网格图的每一个网格,若网格中不具有所述二维数据,则为网格赋值为第二数值;其中,所述第一数值与所述第二数值的取值不同;
生成模块,用于根据取值为所述第一数值的网格,生成所述多条直线;
其中,所述第一处理模块,具体用于:
针对所述二维投影网格图的每一个网格,若网格中具有所述二维数据,则根据网格中的二维数据的个数,为网格赋值为第一数值,其中,所述二维数据的个数与所述第一数值成正比。
10.根据权利要求9所述的装置,其中,所述投影单元,包括:
投影模块,用于将所述点云数据投影到二维平面上,得到二维投影图,其中,所述二维投影图中具有所述二维数据;
网格化模块,用于对所述二维投影图进行网格化处理,得到所述二维投影网格图。
11.根据权利要求9所述的装置,其中,所述生成模块,具体用于:
将至少两个取值为第一数值的网格,连接为一条直线,生成所述多条直线。
12.根据权利要求9所述的装置,其中,所述生成模块,具体用于:
根据取值为所述第一数值的网格,在所述二维投影网格图上进行霍夫直线检测,得到多条直线。
13.根据权利要求9-12任一项所述的装置,其中,所述第一确定模块,包括:
第一确定子模块,用于确定与每一条直线相交的相交直线,其中,每一条直线的所述参数信息为每一条直线和每一条直线所对应的每一条相交直线之间的夹角、相交点;
第二确定子模块,用于根据每一条直线所具有的所有夹角的夹角值,确定每一条直线的夹角参数;
第三确定子模块,用于根据每一条直线所具有的所有相交点的位置信息,确定每一条直线的位置参数;
第四确定子模块,用于根据每一条直线上的第一个网格到每一条直线上的最后一个网格之间的距离,为每一条直线的距离参数;
第五确定子模块,用于根据每一条直线上的二维数据的个数、所述夹角参数、所述位置参数和所述距离参数,确定每一条直线的朝向置信度数值。
14.根据权利要求13所述的装置,其中,所述第二确定子模块,具体用于:
将每一条直线所具有的所有夹角的夹角值进行加权求和,得到每一条直线的夹角参数。
15.根据权利要求13所述的装置,其中,所述第三确定子模块,具体用于:
将每一条直线所具有的所有相交点的位置信息进行加权求和,得到每一条直线的位置参数。
16.根据权利要求13所述的装置,其中,所述第五确定子模块,具体用于:
将每一条直线上的二维数据的个数、所述夹角参数、所述位置参数和所述距离参数进行加权求和,得到每一条直线的朝向置信度数值。
17.一种控制设备,包括:发送器、接收器、存储器和处理器;
所述存储器用于存储计算机指令;所述处理器用于运行所述存储器存储的所述计算机指令实现权利要求1至8任一项所述的基于无人车的障碍物检测方法。
18.一种存储介质,包括:可读存储介质和计算机指令,所述计算机指令存储在所述可读存储介质中;所述计算机指令用于实现权利要求1至8任一项所述的基于无人车的障碍物检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010691371.4A CN111860295B (zh) | 2018-09-07 | 2018-09-07 | 基于无人车的障碍物检测方法、装置、设备以及存储介质 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010691371.4A CN111860295B (zh) | 2018-09-07 | 2018-09-07 | 基于无人车的障碍物检测方法、装置、设备以及存储介质 |
CN201811044542.3A CN109446886B (zh) | 2018-09-07 | 2018-09-07 | 基于无人车的障碍物检测方法、装置、设备以及存储介质 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811044542.3A Division CN109446886B (zh) | 2018-09-07 | 2018-09-07 | 基于无人车的障碍物检测方法、装置、设备以及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111860295A CN111860295A (zh) | 2020-10-30 |
CN111860295B true CN111860295B (zh) | 2023-08-25 |
Family
ID=65532927
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010691371.4A Active CN111860295B (zh) | 2018-09-07 | 2018-09-07 | 基于无人车的障碍物检测方法、装置、设备以及存储介质 |
CN201811044542.3A Active CN109446886B (zh) | 2018-09-07 | 2018-09-07 | 基于无人车的障碍物检测方法、装置、设备以及存储介质 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811044542.3A Active CN109446886B (zh) | 2018-09-07 | 2018-09-07 | 基于无人车的障碍物检测方法、装置、设备以及存储介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11043002B2 (zh) |
EP (1) | EP3543743A3 (zh) |
JP (1) | JP6837520B2 (zh) |
CN (2) | CN111860295B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111860295B (zh) * | 2018-09-07 | 2023-08-25 | 百度在线网络技术(北京)有限公司 | 基于无人车的障碍物检测方法、装置、设备以及存储介质 |
WO2020206639A1 (zh) * | 2019-04-10 | 2020-10-15 | 深圳市大疆创新科技有限公司 | 目标物体的拟合方法、点云传感器和移动平台 |
WO2020215172A1 (zh) * | 2019-04-20 | 2020-10-29 | 深圳市大疆创新科技有限公司 | 一种障碍物检测方法、设备、可移动平台及存储介质 |
CN110426714B (zh) * | 2019-07-15 | 2021-05-07 | 北京智行者科技有限公司 | 一种障碍物识别方法 |
CN112241165A (zh) * | 2019-07-16 | 2021-01-19 | 北京京东尚科信息技术有限公司 | 用于控制无人设备的方法和装置 |
CN111259829B (zh) * | 2020-01-19 | 2023-10-20 | 北京小马慧行科技有限公司 | 点云数据的处理方法和装置、存储介质及处理器 |
CN111310663A (zh) * | 2020-02-17 | 2020-06-19 | 北京三快在线科技有限公司 | 道路栅栏检测方法、装置、设备及存储介质 |
CN111402308B (zh) * | 2020-03-17 | 2023-08-04 | 阿波罗智能技术(北京)有限公司 | 障碍物速度的确定方法、装置、设备和介质 |
CN111537990B (zh) * | 2020-04-27 | 2022-02-22 | 西安象德信息技术有限公司 | 一种车道的标定方法、装置以及电子设备 |
WO2022087916A1 (zh) * | 2020-10-28 | 2022-05-05 | 华为技术有限公司 | 定位方法、装置、电子设备和存储介质 |
CN112767447A (zh) * | 2021-01-25 | 2021-05-07 | 电子科技大学 | 基于深度霍夫优化投票的时敏单目标跟踪方法、存储介质和终端 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102034104A (zh) * | 2010-12-10 | 2011-04-27 | 中国人民解放军国防科学技术大学 | 三维点云中基于随机采样一致性的特征线检测方法 |
CN104850834A (zh) * | 2015-05-11 | 2015-08-19 | 中国科学院合肥物质科学研究院 | 基于三维激光雷达的道路边界检测方法 |
CN105667518A (zh) * | 2016-02-25 | 2016-06-15 | 福州华鹰重工机械有限公司 | 车道检测的方法及装置 |
CN106560835A (zh) * | 2015-09-30 | 2017-04-12 | 高德软件有限公司 | 一种路牌识别方法及装置 |
JP2017078904A (ja) * | 2015-10-19 | 2017-04-27 | 田中 成典 | 道路特徴決定装置 |
CN106780748A (zh) * | 2016-11-29 | 2017-05-31 | 北京航空航天大学 | 一种基于网格关联的四叉树索引点云排序方法 |
CN106951847A (zh) * | 2017-03-13 | 2017-07-14 | 百度在线网络技术(北京)有限公司 | 障碍物检测方法、装置、设备及存储介质 |
CN109446886B (zh) * | 2018-09-07 | 2020-08-25 | 百度在线网络技术(北京)有限公司 | 基于无人车的障碍物检测方法、装置、设备以及存储介质 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60169983A (ja) * | 1984-02-15 | 1985-09-03 | Yamatake Honeywell Co Ltd | 二次元形状物体の形状識別方法およびそのエツジにおけるノイズ除去方法 |
JP4233723B2 (ja) * | 2000-02-28 | 2009-03-04 | 本田技研工業株式会社 | 障害物検出装置、障害物検出方法、及び障害物検出プログラムを記録した記録媒体 |
JP4328692B2 (ja) * | 2004-08-11 | 2009-09-09 | 国立大学法人東京工業大学 | 物体検出装置 |
US8060271B2 (en) * | 2008-06-06 | 2011-11-15 | Toyota Motor Engineering & Manufacturing North America, Inc. | Detecting principal directions of unknown environments |
CN101549683B (zh) * | 2009-04-23 | 2011-09-28 | 上海交通大学 | 自动识别道路深坑与障碍物的车辆智能方法 |
US8736463B1 (en) * | 2012-01-30 | 2014-05-27 | Google Inc. | Object bounding box estimation |
DE102012005074A1 (de) * | 2012-03-13 | 2013-09-19 | Gm Global Technology Operations, Llc | Fahrerassistenzsystem |
US9014903B1 (en) * | 2012-05-22 | 2015-04-21 | Google Inc. | Determination of object heading based on point cloud |
US9933264B2 (en) * | 2015-04-06 | 2018-04-03 | Hrl Laboratories, Llc | System and method for achieving fast and reliable time-to-contact estimation using vision and range sensor data for autonomous navigation |
CN105046235B (zh) * | 2015-08-03 | 2018-09-07 | 百度在线网络技术(北京)有限公司 | 车道线的识别建模方法和装置、识别方法和装置 |
CN105223583B (zh) * | 2015-09-10 | 2017-06-13 | 清华大学 | 一种基于三维激光雷达的目标车辆航向角计算方法 |
WO2018101631A2 (ko) * | 2016-11-30 | 2018-06-07 | (주)유진로봇 | 청소 로봇, 청소 로봇에 구비되는 청소 기능 제어 장치, 및 청소 로봇에 구비되는 다채널 라이더 기반 장애물 검출 장치 |
CN107729856B (zh) * | 2017-10-26 | 2019-08-23 | 海信集团有限公司 | 一种障碍物检测方法及装置 |
CN107885224A (zh) * | 2017-11-06 | 2018-04-06 | 北京韦加无人机科技股份有限公司 | 基于三目立体视觉的无人机避障方法 |
US10671862B2 (en) * | 2018-01-30 | 2020-06-02 | Wipro Limited | Method and system for detecting obstacles by autonomous vehicles in real-time |
-
2018
- 2018-09-07 CN CN202010691371.4A patent/CN111860295B/zh active Active
- 2018-09-07 CN CN201811044542.3A patent/CN109446886B/zh active Active
-
2019
- 2019-07-03 JP JP2019124251A patent/JP6837520B2/ja active Active
- 2019-07-16 US US16/512,940 patent/US11043002B2/en active Active
- 2019-07-19 EP EP19187249.8A patent/EP3543743A3/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102034104A (zh) * | 2010-12-10 | 2011-04-27 | 中国人民解放军国防科学技术大学 | 三维点云中基于随机采样一致性的特征线检测方法 |
CN104850834A (zh) * | 2015-05-11 | 2015-08-19 | 中国科学院合肥物质科学研究院 | 基于三维激光雷达的道路边界检测方法 |
CN106560835A (zh) * | 2015-09-30 | 2017-04-12 | 高德软件有限公司 | 一种路牌识别方法及装置 |
JP2017078904A (ja) * | 2015-10-19 | 2017-04-27 | 田中 成典 | 道路特徴決定装置 |
CN105667518A (zh) * | 2016-02-25 | 2016-06-15 | 福州华鹰重工机械有限公司 | 车道检测的方法及装置 |
CN106780748A (zh) * | 2016-11-29 | 2017-05-31 | 北京航空航天大学 | 一种基于网格关联的四叉树索引点云排序方法 |
CN106951847A (zh) * | 2017-03-13 | 2017-07-14 | 百度在线网络技术(北京)有限公司 | 障碍物检测方法、装置、设备及存储介质 |
CN109446886B (zh) * | 2018-09-07 | 2020-08-25 | 百度在线网络技术(北京)有限公司 | 基于无人车的障碍物检测方法、装置、设备以及存储介质 |
Non-Patent Citations (1)
Title |
---|
一种基于A星算法的游戏路径优化应用;孙玉霞;樊质军;《湖北师范大学学报(自然科学版)》;第37卷(第2期);第72-76页 * |
Also Published As
Publication number | Publication date |
---|---|
US11043002B2 (en) | 2021-06-22 |
CN109446886B (zh) | 2020-08-25 |
US20190340781A1 (en) | 2019-11-07 |
CN111860295A (zh) | 2020-10-30 |
JP6837520B2 (ja) | 2021-03-03 |
EP3543743A3 (en) | 2020-03-11 |
EP3543743A2 (en) | 2019-09-25 |
CN109446886A (zh) | 2019-03-08 |
JP2019203900A (ja) | 2019-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111860295B (zh) | 基于无人车的障碍物检测方法、装置、设备以及存储介质 | |
EP3517997A1 (en) | Method and system for detecting obstacles by autonomous vehicles in real-time | |
US11170525B2 (en) | Autonomous vehicle based position detection method and apparatus, device and medium | |
CN113748357B (zh) | 激光雷达的姿态校正方法、装置和系统 | |
US11584369B2 (en) | Collision detection method and apparatus based on an autonomous vehicle, device and storage medium | |
CN109635816B (zh) | 车道线生成方法、装置、设备以及存储介质 | |
US11045953B2 (en) | Relocalization method and robot using the same | |
WO2018221455A1 (ja) | 更新装置、制御方法、プログラム及び記憶媒体 | |
CN116255992A (zh) | 一种同时定位与建图的方法和装置 | |
CN113569958B (zh) | 激光点云数据聚类方法、装置、设备及介质 | |
JP2018054315A (ja) | 軸ずれ推定装置 | |
WO2024012212A1 (zh) | 环境感知方法、域控制器、存储介质及车辆 | |
KR20200095379A (ko) | 자체적으로 생성된 정보 및 다른 개체에 의해 생성된 정보를 선택적으로 사용하여 카메라의 오정렬을 보정하는 방법 및 이를 이용한 장치 | |
CN115617042A (zh) | 碰撞检测方法及装置、终端设备、计算机可读存储介质 | |
CN115523935A (zh) | 点云地面检测方法、装置、车辆及存储介质 | |
WO2021102676A1 (zh) | 物体状态获取方法、可移动平台及存储介质 | |
CN112686951A (zh) | 用于确定机器人位置的方法、装置、终端及存储介质 | |
CN115950441B (zh) | 自动驾驶车辆的融合定位方法、装置及电子设备 | |
US20220277480A1 (en) | Position estimation device, vehicle, position estimation method and position estimation program | |
CN110414458A (zh) | 基于平面标签和模板匹配的定位方法及装置 | |
CN115249407B (zh) | 指示灯状态识别方法、装置、电子设备、存储介质及产品 | |
US11514588B1 (en) | Object localization for mapping applications using geometric computer vision techniques | |
CN108917768B (zh) | 无人机定位导航方法和系统 | |
US20220137626A1 (en) | Apparatus, method, and non-transitory computer-readable storage medium | |
CN112180413A (zh) | 定位方法、装置、设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |