CN116311114A - 一种可行驶区域生成方法、装置、电子设备及存储介质 - Google Patents
一种可行驶区域生成方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN116311114A CN116311114A CN202310105468.6A CN202310105468A CN116311114A CN 116311114 A CN116311114 A CN 116311114A CN 202310105468 A CN202310105468 A CN 202310105468A CN 116311114 A CN116311114 A CN 116311114A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- bev
- position points
- grid
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 238000003860 storage Methods 0.000 title claims abstract description 13
- 230000008447 perception Effects 0.000 claims abstract description 12
- 238000004590 computer program Methods 0.000 claims description 14
- 230000011218 segmentation Effects 0.000 abstract description 8
- 238000010586 diagram Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 8
- 238000013135 deep learning Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 238000001514 detection method Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000000638 solvent extraction Methods 0.000 description 4
- 238000009826 distribution Methods 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 241001300198 Caperonia palustris Species 0.000 description 2
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 2
- 235000000384 Veronica chamaedrys Nutrition 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 206010063385 Intellectualisation Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001364 causal effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000006386 memory function Effects 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
- G06V10/763—Non-hierarchical techniques, e.g. based on statistics of modelling distributions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- Software Systems (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Electromagnetism (AREA)
- Probability & Statistics with Applications (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Traffic Control Systems (AREA)
Abstract
本申请公开了一种可行驶区域生成方法、装置、电子设备及存储介质,涉及智能驾驶领域。该方法包括:获取车辆所在周围环境的第一感知结果和的第二感知结果;以所述车辆作为坐标系的中心点,建立N*M的鸟瞰图BEV栅格,并从所述中心点出发,将所述BEV栅格划分为P个扇形区域;其中,所述N为BEV栅格的总长度,所述M为BEV栅格的总宽度,所述P的值取决于设定的划分规则;将所述第一感知结果和所述第二感知结果投影到所述BEV栅格中,在所述BEV栅格中形成W个候选位置点;根据所述P个扇形区域和所述W个候选位置点,生成所述车辆的可行驶区域,用以提高可行驶区域的分割准确度。
Description
技术领域
本申请涉及智能驾驶技术领域,尤其涉及一种可行驶区域生成方法、装置、电子设备及存储介质。
背景技术
随着智能驾驶技术的发展,汽车从“配备电子的机械产品”向“配备机械的电子产品”转变,成为可以安全、舒适、便捷移动的智能互联终端,实现车辆的全面智能化、信息化。
在智能驾驶中,感知技术是保证安全驾驶较为重要的环节,主要依靠车辆上安装的各种传感器对行驶环境进行识别和处理,例如,摄像头、激光雷达、超声波雷达、毫米波雷达等,联合运作为智能驾驶提供保障及效率。车辆在感知任务中可包括目标识别、交通标线检测、可行驶区域分割等。
目前,可行驶区域一般是通过摄像头或者激光雷达感知驾驶车辆的行驶环境,然而采用这种方式存在漏检或者有效信息缺失等问题,导致可行驶区域分割较差。例如,通过摄像头进行可行驶区域分割,在出现光线过曝或者伪影时,会导致分割结果变差;再例如,通过激光传感器进行可行驶区域分割,在出现雨雪恶劣天气时,会导致无法准确的分割可行驶区域。
因此,如何提高可行驶区域的分割准确度,是目前亟需解决的问题。
发明内容
本发申请提供了一种可行驶区域生成方法,用以提高可行驶区域的分割准确度。
第一方面,提供一种可行驶区域生成方法,包括:
获取车辆所在周围环境的第一感知结果和第二感知结果;以所述车辆作为坐标系的中心点,建立N*M的鸟瞰图BEV栅格,并从所述中心点出发,将所述BEV栅格划分为P个扇形区域;其中,所述N为BEV栅格的总长度,所述M为BEV栅格的总宽度,所述P的值取决于设定的划分规则;将所述第一感知结果和所述第二感知结果投影到所述BEV栅格中,在所述BEV栅格中形成W个候选位置点;根据所述P个扇形区域和所述W个候选位置点,生成所述车辆的可行驶区域。
在一种可能实现的方式中,根据所述P个扇形区域和所述W个候选位置点,生成所述车辆的可行驶区域,包括:
遍历所述P个扇形区域,在所述W个候选位置点中确定出q个目标位置点;其中,所述q个目标位置点分别表征各自所在的扇形区域中,距离所述车辆最近的位置点;根据所述q个目标位置点,生成所述车辆的可行驶区域。
在一种可能实现的方式中,所述遍历所述P个扇形区域,在所述M个候选位置点中确定出q个目标位置点,包括:
将所述坐标系转换为极坐标系;根据转换后的极坐标系,遍历所述P个扇形区域,在所述M个候选位置点中确定出q个目标位置点。
在一种可能实现的方式中,所述遍历所述P个扇形区域,在所述W个候选位置点中确定出q个目标位置点,包括:
若在第一扇形区域不包括有候选位置点,则将所述第一扇形区域的边界点作为目标位置点;若在所述第一扇形区域包括有候选位置点,则在所述第一扇形区域包括有的候选位置点中,确定在所述第一扇形区域内离所述车辆最近的目标位置点;所述第一扇形区域为所述P个中的任意一个。
在一种可能实现的方式中,所述第一感知结果是摄像头对所述车辆所在周围环境进行识别得到的,包括所述车辆的第一可行驶区域和第一非可行驶区域;所述第二感知结果是激光雷达对所述车辆所在周围环境进行识别得到的,包括所述车辆的第二可行驶区域和第二非可行驶区域。
第二方面,提供一种可行驶区域生成装置,包括:
获取模块,用于获取车辆所在周围环境的第一感知结果和第二感知结果;建立模块,用于以所述车辆作为坐标系的中心点,建立N*M的鸟瞰图BEV栅格,并从所述中心点出发,将所述BEV栅格划分为P个扇形区域;其中,所述N为BEV栅格的总长度,所述M为BEV栅格的总宽度,所述P的值取决于设定的划分规则;投影模块,用于将所述第一感知结果和所述第二感知结果投影到所述BEV栅格中,在所述BEV栅格中形成W个候选位置点;生成模块,用于根据所述P个扇形区域和所述W个候选位置点,生成所述车辆的可行驶区域。
在一种可能实现的方式中,所述生成模块,具体用于:
遍历所述P个扇形区域,在所述W个候选位置点中确定出q个目标位置点;其中,所述q个目标位置点分别表征各自所在的扇形区域中,距离所述车辆最近的位置点;根据所述q个目标位置点,生成所述车辆的可行驶区域。
在一种可能实现的方式中,所述生成模块具体用于:
将所述坐标系转换为极坐标系;根据转换后的极坐标系,遍历所述P个扇形区域,在所述M个候选位置点中确定出q个目标位置点。
在一种可能实现的方式中,所述生成模块具体用于:
若在第一扇形区域不包括有候选位置点,则将所述第一扇形区域的边界点作为目标位置点;若在所述第一扇形区域包括有候选位置点,则在所述第一扇形区域包括有的候选位置点中,确定在所述第一扇形区域内离所述车辆最近的目标位置点;所述第一扇形区域为所述P个中的任意一个。
在一种可能实现的方式中,所述第一感知结果是摄像头对所述车辆所在周围环境进行识别得到的,包括所述车辆的第一可行驶区域和第一非可行驶区域;所述第二感知结果是激光雷达对所述车辆所在周围环境进行识别得到的,包括所述车辆的第二可行驶区域和第二非可行驶区域。
第三方面,提供一种电子设备,包括:
存储器,用于存放计算机程序;处理器,用于执行所述存储器上所存放的计算机程序时,实现第一方面中任一项所述的方法步骤。
第四方面,提供一种计算机可读存储介质,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现第一方面中任一项所述的方法步骤。
本申请实施例中,由于获取车辆所在周围环境的第一感知结果和第二感知结果,以该车辆作为坐标系的中心点,建立N*M的鸟瞰图BEV栅格,并从中心点出发,将该BEV栅格划分为P个扇形区域,将第一感知结果和第二感知结果均投影到该BEV栅格中,在BEV栅格中形成W个候选位置点,根据P个扇形区域和W个候选位置点,生成车辆的可行驶区域;因此基于多个的输入数据进行融合后得到的可行驶区域,相较于基于单个的输入数据,得到的可行驶区域,提高了可行驶区域的分割精度。
上述第二方面至第四方面中的各个方面以及各个方面可能达到的技术效果请参照上述针对第一方面或第一方面中的各种可能方案可以达到的技术效果说明,这里不再重复赘述。
附图说明
图1为本申请实施例提供的一种可行驶区域生成方法的流程图;
图2为本申请实施例提供的一种在BEV栅格中扇形区域的划分示意图;
图3为本申请实施例提供的一种候选位置点在BEV栅格中的分布图;
图4为本申请实施例提供的一种可行驶区域的逻辑示意图;
图5为本申请实施例提供的一种可行驶区域装置的结构示意图;
图6为本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
为了使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请作进一步地详细描述。方法实施例中的具体操作方法也可以应用于装置实施例或系统实施例中。需要说明的是,在本申请的描述中“多个”理解为“至少两个”。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。A与B连接,可以表示:A与B直接连接和A与B通过C连接这两种情况。另外,在本申请的描述中,“第一”、“第二”等词汇,仅用于区分描述的目的,而不能理解为指示或暗示相对重要性,也不能理解为指示或暗示顺序。
为了更好地理解本申请实施例,下面首先对本申请实施例中涉及的技术术语进行说明。
(1)感知技术一般指感知计算技术,感知技术无疑是大数据中心、人工智能、工业互联网等“新基建”实施的关键共性技术。在现代控制系统中,传感器处于连接被测对象和测试系统的接口位置,构成了系统信息输入的主要“窗口”,为系统信息提供着进行控制、处理、决策、执行所必须的原始信息,直接影响和决定着系统的功能。
(2)鸟瞰图(Bird's Eye View,BEV)被广泛应用于智能驾驶领域中,可将多种采集设备所采集的图像表征在同一个空间,可进行多任务、目标融合及全栈检测等。BEV是一个统一完整的全局场景的表示,物体的大小和朝向都能直接得到表达;BEV的形式更容易去做时序多帧融合和多传感器融合;BEV更有利于目标跟踪、轨迹预测等下游任务。
(3)可行驶区域的检测主要是为自动驾驶提供路径规划辅助,可以实现整个的路面检测,也可以只提取出部分的道路信息,比如前方一定区域内的道路走向或者道路中点等,只要能结合高精度地图实现道路路径规划和障碍物躲避,不一定要完全的提取出完整的路面可行驶区域。
(4)聚类就是按照某个特定标准(如距离准则)把一个数据集分割成不同的类或簇,使得同一个簇内的数据对象的相似性尽可能大,同时不在同一个簇中的数据对象的差异性也尽可能地大。即聚类后同一类的数据尽可能聚集到一起,不同数据尽量分离;可包括k-means、k-medoids、k-modes、k-medians、kernel k-means等算法。
(5)深度学习是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,例如图像,声音和文本。深度学习是无监督学习的一种。深度学习的概念源于人工神经网络的研究。含多隐层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示;可包括线性回归、逻辑回归、决策树、K均值算法等。
目前,车辆在行驶过程中,一般通过单一的摄像头或激光雷达对采集到的图像进行识别和分割,从而形成车辆可行驶的区域,以辅助车辆安全驾驶,由于车辆行驶的环境一般是在室外,而摄像头或激光雷达进行图像采集时容易受到天气、光线等影响,使得检测结果的鲁棒性较差,从而导致车辆在行驶过程中存在安全隐患,影响用户体验。
鉴于此,本申请实施例提供了一种可行驶区域生成方法,将多个采集设备(例如摄像头、激光雷达)的分割结果,投影到建立好的BE栅格中,进行可行驶区域重新分割,从而提高可行驶区域的分割准确度。
为进一步说明本申请实施例提供的技术方案,下面结合附图以及具体实施方式对此进行详细的说明。虽然本申请实施例提供了如下述实施例或附图所示的方法操作步骤,但基于常规或者无需创造性的劳动在所述方法中可以包括更多或者更少的操作步骤。在逻辑上不存在必要因果关系的步骤中,这些步骤的执行顺序不限于本申请实施例提供的执行顺序。所述方法在实际的处理过程中或者装置执行时,可按照实施例或者附图所示的方法顺序执行或者并执行。
图1为本申请实施例提供的一种可行驶区域生成方法的流程图。该流程图可由可行驶区域生成装置所执行,该装置可通过软件的方式实现,也可通过硬件的方式实现,还可通过软件和硬件结合的方式实现。如图1所示,该流程包括如下步骤:
101:获取车辆所在周围环境的第一感知结果和第二感知结果。
可选的,第一感知结果是摄像头对车辆所在周围环境进行识别得到的,可包括车辆的第一可行驶区域和第一非可行驶区域,还可包括采集到的障碍物的位置信息、距离信息等;第二感知结果是激光雷达对车辆所在周围环境进行识别得到的,包括车辆的第二可行驶区域和第二非可行驶区域,也还可包括采集到的障碍物的位置信息、距离信息等。
可选的,该摄像头的第一感知结果可以是基于二值化图像分割算法确定的,也可以是基于深度学习算法确定的,该激光雷达的第二感知结果可以是基于聚类算法确定的,也可以是基于深度学习算法确定的。
在一些实施例中,该第一感知结果和第二感知结果也可以是其他类型的图像采集设备进行处理后所产生的,例如,第一感知结果可以是毫米波雷达对车辆所在周围环境进行识别得到的,第二感知结果可以是超声波雷达对车辆所在的周围环境进行识别得到的。
102:以车辆作为坐标系的中心点,建立N*M的BEV栅格,并从该中心点出发,将BEV栅格划分为P个扇形区域。
其中,N为BEV栅格的总长度,M为BEV栅格的总宽度,P的值取决于设定的划分规则。
在一些实施例中,建立N*M的BEV栅格后,还可将该BEV栅格划分为多个子BEV栅格,例如,N为160米,M为80米的BEV栅格,以每个格子为10CM*10CM的尺度,将BEV栅格划分1600*800的BEV子栅格,从而便于后续摄像头和激光雷达将各自的分割结果进行投影。
可选的,假设划分规则为:在坐标系的四个象限中,每个象限划分的扇形区域个数设定阈值为40个。将BEV栅格划分为P个扇形区域,具体可以是,以中心点散发光线,可划分为P=160个的扇形区域(也称光线扇形区域),如图2所示,O点表征车辆的中心点,P(1,2,3,4,…,40)表征第一象限划分的40个扇形区域,从而便于后续圈定目标位置点,相较于以整个BEV栅格进行目标位置点的圈定,减小了计算力度。
103:将第一感知结果和第二感知结果投影到BEV栅格中,在BEV栅格中形成W个候选位置点。
该W个候选位置点表征该车辆所在周围环境的所有障碍物对应的位置点。
在上述图2的基础上,图3示例性示出了该W个候选位置点,在划分了P个扇形区域的BEV栅格中的分布图,如图3所示,经过投影显示,一个扇形区域内可有一个或多个候选位置点,也可能不存在候选位置点。
可选的,投影方式具体可以是:利用感知结果中的距离信息对齐车身坐标系,将摄像头及激光雷达各自的感知结果统一量纲到2D的BEV栅格上。
104:根据P个扇形区域和W个候选位置点,生成车辆的可行驶区域。
可选的,根据P个扇形区域和W个候选位置点,生成该车辆的可行驶区域可以通过以下方式:遍历P个扇形区域,在W个候选位置点中确定出q个目标位置点,该q个目标位置点分别表征各自所在的扇形区域中,距离车辆最近的位置点;根据q个目标位置点,生成车辆的可行驶区域。
可选的,根据q个目标位置点,生成车辆的可行驶区域,具体可以是:将该q个目标位置点连接,连接得到的多边形为该车辆的可行驶区域。
可选的,遍历P个扇形区域,在M个候选位置点中确定出q个目标位置点,可通过将上述坐标系转换为极坐标系,然后根据转换后的极坐标系,遍历P个扇形区域,在M个候选位置点中确定出q个目标位置点。举例来讲,以图3所示的P1扇形区域为例,将上述坐标系转换为极坐标系后,对该P1扇形区域中的3个候选位置点进行极坐标转换,得到各自到中心点(车辆)的距离,将离中心点最近的距离对应的候选位置点作为P1扇形区域中的目标位置点。该转换公式如下:X=r*cos(α),Y=r*sin(α);其中,X表征候选位置点的横坐标所对应的值,Y表征候选位置点纵坐标所对应的值,r表征候选位置点离中心点的距离。
同理,其他象限的扇形区域也按照上述方式确定出各自的目标位置点,在此不再详细描述。
在一些实施例中,P个扇形区域中可能某一个或某些扇形区域不包括候选位置点,可以将其边界点作为目标位置点,具体的:若在第一扇形区域不包括有候选位置点,则将第一扇形区域的边界点(例如,左边界点)作为目标位置点;若在第一扇形区域包括有候选位置点,则在第一扇形区域包括有的候选位置点中,确定在第一扇形区域内离车辆最近的目标位置点;第一扇形区域为P个中的任意一个。
本申请实施例中,由于获取车辆所在周围环境的第一感知结果和第二感知结果,以该车辆作为坐标系的中心点,建立N*M的鸟瞰图BEV栅格,并从中心点出发,将该BEV栅格划分为P个扇形区域,将第一感知结果和第二感知结果均投影到该BEV栅格中,在BEV栅格中形成W个候选位置点,根据P个扇形区域和W个候选位置点,生成车辆的可行驶区域;因此基于多个的输入数据进行融合后得到的可行驶区域,相较于基于单个的输入数据,得到的可行驶区域,提高了可行驶区域的分割精度。
图4为本申请实施例提供的一种可行驶区域生成的逻辑示意图。如图4所示,获取摄像头的第一感知结果和激光雷达的第二感知结果,以车辆的中心点建立坐标系,初始化一个2D的BEV栅格;再以车辆的中心点作为出发点,在该BEV栅格建立160个扇形区域;将上述第一感知结果和第二感知结果投影到建立有160个扇形区域的BEV栅格中,使得第一感知结果和第二感知结果中各自的位置信息更新到建立有160个扇形区域的BEV栅格中,形成候选位置点在BEV栅格中的分布图;最后通过计算各候选位置点距车辆的距离,确定每个扇形域内距离车辆最近的目标位置点,连接每个扇形区域内的目标位置点,形成该车辆最终的可行驶区域效果图。
基于相同的技术构思,本申请实施例还提供了一种可行驶区域生成装置,该装置可实现本申请实施例中上述可行驶区域生成方法的流程。
图5为本申请实施例提供的一种可行驶区域生成装置的结构示意图。如图5所示,该装置包括获取模块501、建立模块502、投影模块503、生成模块504。
获取模块501,用于获取车辆所在周围环境的第一感知结果和第二感知结果。
建立模块502,用于以所述车辆作为坐标系的中心点,建立N*M的鸟瞰图BEV栅格,并从所述中心点出发,将所述BEV栅格划分为P个扇形区域;其中,所述N为BEV栅格的总长度,所述M为BEV栅格的总宽度,所述P的值取决于设定的划分规则。
投影模块503,用于将所述第一感知结果和所述第二感知结果投影到所述BEV栅格中,在所述BEV栅格中形成W个候选位置点。
生成模块504,用于根据所述P个扇形区域和所述W个候选位置点,生成所述车辆的可行驶区域。
可选的,所述生成模块504,具体用于:
遍历所述P个扇形区域,在所述W个候选位置点中确定出q个目标位置点;其中,所述q个目标位置点分别表征各自所在的扇形区域中,距离所述车辆最近的位置点;根据所述q个目标位置点,生成所述车辆的可行驶区域。
可选的,生成模块504,具体用于:
将所述坐标系转换为极坐标系;根据转换后的极坐标系,遍历所述P个扇形区域,在所述M个候选位置点中确定出q个目标位置点。
可选的,生成模块504,具体用于:
若在第一扇形区域不包括有候选位置点,则将所述第一扇形区域的边界点作为目标位置点;若在所述第一扇形区域包括有候选位置点,则在所述第一扇形区域包括有的候选位置点中,确定在所述第一扇形区域内离所述车辆最近的目标位置点;所述第一扇形区域为所述P个中的任意一个。
在此需要说明的是,本申请实施例提供的上述装置,能够实现上述可行驶区域生成方法实施例中的所有方法步骤,且能够达到相同的技术效果,在此不再对本实施例中与方法实施例相同的部分及有益效果进行具体赘述。
基于相同的技术构思,本申请实施例中还提供了一种电子设备,所述电子设备可以实现前述一种可行驶区域生成装置的功能。
图6为本申请实施例提供的电子设备的结构示意图。
至少一个处理器601,以及与至少一个处理器601连接的存储器602,本申请实施例中不限定处理器601与存储器602之间的具体连接介质,图6中是以处理器601和存储器602之间通过总线600连接为例。总线600在图6中以粗线表示,其它部件之间的连接方式,仅是进行示意性说明,并不引以为限。总线600可以分为地址总线、数据总线、控制总线等,为便于表示,图6中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。或者,处理器601也可以称为控制器,对于名称不做限制。
在本申请实施例中,存储器602存储有可被至少一个处理器601执行的指令,至少一个处理器601通过执行存储器602存储的指令,可以执行前文论述的一种可行驶区域生成方法。处理器601可以实现图5所示的装置中各个模块的功能。
其中,处理器601是该装置的控制中心,可以利用各种接口和线路连接整个该控制设备的各个部分,通过运行或执行存储在存储器602内的指令以及调用存储在存储器602内的数据,该装置的各种功能和处理数据,从而对该装置进行整体监控。
在一种可能的设计中,处理器601可包括一个或多个处理单元,处理器601可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器601中。在一些实施例中,处理器601和存储器602可以在同一芯片上实现,在一些实施例中,它们也可以在独立的芯片上分别实现。
处理器601可以是通用处理器,例如中央处理器(CPU)、数字信号处理器、专用集成电路、现场可编程门阵列或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件,可以实现或者执行本申请实施例中公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者任何常规的处理器等。结合本申请实施例所公开的一种可行驶区域生成方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。
存储器602作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块。存储器602可以包括至少一种类型的存储介质,例如可以包括闪存、硬盘、多媒体卡、卡型存储器、随机访问存储器(Random AccessMemory,RAM)、静态随机访问存储器(Static Random Access Memory,SRAM)、可编程只读存储器(Programmable Read Only Memory,PROM)、只读存储器(Read Only Memory,ROM)、带电可擦除可编程只读存储器(Electrically Erasable Programmable Read-Only Memory,EEPROM)、磁性存储器、磁盘、光盘等等。存储器602是能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。本申请实施例中的存储器602还可以是电路或者其它任意能够实现存储功能的装置,用于存储程序指令和/或数据。
通过对处理器601进行设计编程,可以将前述实施例中介绍的一种可行驶区域生成方法所对应的代码固化到芯片内,从而使芯片在运行时能够执行图1所示的实施例的一种可行驶区域生成方法。如何对处理器601进行设计编程为本领域技术人员所公知的技术,这里不再赘述。
在此需要说明的是,本申请实施例提供的上述通电子设备,能够实现上述方法实施例所实现的所有方法步骤,且能够达到相同的技术效果,在此不再对本实施例中与方法实施例相同的部分及有益效果进行具体赘述。
本申请实施例还提供了一种计算机可读存储介质,计算机可读存储介质存储有计算机可执行指令,计算机可执行指令用于使计算机执行上述实施例中的一种可行驶区域生成方法。
本申请实施例还提供了一种计算机程序产品,所述计算机程序产品在被计算机调用时,使得所述计算机执行上述实施例中的一种可行驶区域生成方法。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程可行驶区域生成设备的处理器以产生一个机器,使得通过计算机或其他可编程可行驶区域生成设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程可行驶区域生成设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程可行驶区域生成设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
Claims (12)
1.一种可行驶区域生成方法,其特征在于,包括:
获取车辆所在周围环境的第一感知结果和第二感知结果;
以所述车辆作为坐标系的中心点,建立N*M的鸟瞰图BEV栅格,并从所述中心点出发,将所述BEV栅格划分为P个扇形区域;其中,所述N为BEV栅格的总长度,所述M为BEV栅格的总宽度,所述P的值取决于设定的划分规则;
将所述第一感知结果和所述第二感知结果投影到所述BEV栅格中,在所述BEV栅格中形成W个候选位置点;
根据所述P个扇形区域和所述W个候选位置点,生成所述车辆的可行驶区域。
2.如权利要求1所述的方法,其特征在于,根据所述P个扇形区域和所述W个候选位置点,生成所述车辆的可行驶区域,包括:
遍历所述P个扇形区域,在所述W个候选位置点中确定出q个目标位置点;其中,所述q个目标位置点分别表征各自所在的扇形区域中,距离所述车辆最近的位置点;
根据所述q个目标位置点,生成所述车辆的可行驶区域。
3.如权利要求2所述的方法,其特征在于,所述遍历所述P个扇形区域,在所述M个候选位置点中确定出q个目标位置点,包括:
将所述坐标系转换为极坐标系;
根据转换后的极坐标系,遍历所述P个扇形区域,在所述M个候选位置点中确定出q个目标位置点。
4.如权利要求2所述的方法,其特征在于,所述遍历所述P个扇形区域,在所述W个候选位置点中确定出q个目标位置点,包括:
若在第一扇形区域不包括有候选位置点,则将所述第一扇形区域的边界点作为目标位置点;
若在所述第一扇形区域包括有候选位置点,则在所述第一扇形区域包括有的候选位置点中,确定在所述第一扇形区域内离所述车辆最近的目标位置点;所述第一扇形区域为所述P个中的任意一个。
5.如权利要求1-4任一项所述的方法,其特征在于,所述第一感知结果是摄像头对所述车辆所在周围环境进行识别得到的,包括所述车辆的第一可行驶区域和第一非可行驶区域;
所述第二感知结果是激光雷达对所述车辆所在周围环境进行识别得到的,包括所述车辆的第二可行驶区域和第二非可行驶区域。
6.一种可行驶区域生成装置,其特征在于,包括:
获取模块,用于获取车辆所在周围环境的第一感知结果和第二感知结果;
建立模块,用于以所述车辆作为坐标系的中心点,建立N*M的鸟瞰图BEV栅格,并从所述中心点出发,将所述BEV栅格划分为P个扇形区域;其中,所述N为BEV栅格的总长度,所述M为BEV栅格的总宽度,所述P的值取决于设定的划分规则;
投影模块,用于将所述第一感知结果和所述第二感知结果投影到所述BEV栅格中,在所述BEV栅格中形成W个候选位置点;
生成模块,用于根据所述P个扇形区域和所述W个候选位置点,生成所述车辆的可行驶区域。
7.如权利要求6所述的装置,其特征在于,所述生成模块,具体用于:
遍历所述P个扇形区域,在所述W个候选位置点中确定出q个目标位置点;其中,所述q个目标位置点分别表征各自所在的扇形区域中,距离所述车辆最近的位置点;
根据所述q个目标位置点,生成所述车辆的可行驶区域。
8.如权利要求6所述的装置,其特征在于,所述生成模块具体用于:
将所述坐标系转换为极坐标系;
根据转换后的极坐标系,遍历所述P个扇形区域,在所述M个候选位置点中确定出q个目标位置点。
9.如权利要求6所述的装置,其特征在于,所述生成模块,具体用于:
若在第一扇形区域不包括有候选位置点,则将所述第一扇形区域的边界点作为目标位置点;
若在所述第一扇形区域包括有候选位置点,则在所述第一扇形区域包括有的候选位置点中,确定在所述第一扇形区域内离所述车辆最近的目标位置点;所述第一扇形区域为所述P个中的任意一个。
10.如权利要求6-9任一项所述的装置,其特征在于,所述第一感知结果是摄像头对所述车辆所在周围环境进行识别得到的,包括所述车辆的第一可行驶区域和第一非可行驶区域;
所述第二感知结果是激光雷达对所述车辆所在周围环境进行识别得到的,包括所述车辆的第二可行驶区域和第二非可行驶区域。
11.一种电子设备,其特征在于,包括:
存储器,用于存放计算机程序;
处理器,用于执行所述存储器上所存放的计算机程序时,实现权利要求1-5中任一项所述的方法步骤。
12.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1-5中任一项所述的方法步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310105468.6A CN116311114A (zh) | 2023-01-29 | 2023-01-29 | 一种可行驶区域生成方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310105468.6A CN116311114A (zh) | 2023-01-29 | 2023-01-29 | 一种可行驶区域生成方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116311114A true CN116311114A (zh) | 2023-06-23 |
Family
ID=86831487
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310105468.6A Pending CN116311114A (zh) | 2023-01-29 | 2023-01-29 | 一种可行驶区域生成方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116311114A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117392631A (zh) * | 2023-12-08 | 2024-01-12 | 吉咖智能机器人有限公司 | 一种道路边界提取方法、装置、电子设备及存储介质 |
-
2023
- 2023-01-29 CN CN202310105468.6A patent/CN116311114A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117392631A (zh) * | 2023-12-08 | 2024-01-12 | 吉咖智能机器人有限公司 | 一种道路边界提取方法、装置、电子设备及存储介质 |
CN117392631B (zh) * | 2023-12-08 | 2024-03-08 | 吉咖智能机器人有限公司 | 一种道路边界提取方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111615703B (zh) | 传感器数据分割 | |
CN110494863B (zh) | 确定自主车辆的可驾驶自由空间 | |
KR102319065B1 (ko) | 자율 주행 차량을 위한 실시간 지도 생성 시스템 | |
CN111095291B (zh) | 由自动驾驶车辆实时检测车道和边界 | |
CN114902295A (zh) | 用于自主驾驶应用的三维路口结构预测 | |
JP2021515254A (ja) | 自動運転車のためのリアルタイム地図生成システム | |
JP2021516355A (ja) | 自動運転車のための地図区画システム | |
JP2021514886A (ja) | 自動運転車のためのポイントクラウド登録システム | |
JP2021516183A (ja) | 自動運転車のためのポイントクラウドゴースト効果検出システム | |
JP2022513866A (ja) | 領域外コンテキストを用いたオブジェクト分類 | |
CN111582189A (zh) | 交通信号灯识别方法、装置、车载控制终端及机动车 | |
JP2023549036A (ja) | 点群からの効率的な三次元物体検出 | |
Elghazaly et al. | High-definition maps: Comprehensive survey, challenges and future perspectives | |
CN112912894B (zh) | 道路边界识别方法和装置 | |
Verma et al. | Vehicle detection, tracking and behavior analysis in urban driving environments using road context | |
CN116051779A (zh) | 用于自主系统和应用的使用深度神经网络利用点云致密化的3d表面重建 | |
Ayachi et al. | Real-time implementation of traffic signs detection and identification application on graphics processing units | |
CN116767245A (zh) | 使用自主系统和应用的神经网络的地图信息对象数据管理 | |
CN116051780A (zh) | 用于自主系统和应用的使用人工智能利用点云致密化的3d表面重建 | |
CN116311114A (zh) | 一种可行驶区域生成方法、装置、电子设备及存储介质 | |
CN116048060A (zh) | 用于自主系统和应用的使用神经网络基于真实世界数据的3d表面结构估计 | |
JP2024019629A (ja) | 予測装置、予測方法、プログラムおよび車両制御システム | |
Guo et al. | Road environment perception for safe and comfortable driving | |
CN111338336B (zh) | 一种自动驾驶方法及装置 | |
Qian et al. | A self-driving solution for resource-constrained autonomous vehicles in parked areas |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |