CN114966604B - 一种分区点云的目标检测处理方法 - Google Patents
一种分区点云的目标检测处理方法 Download PDFInfo
- Publication number
- CN114966604B CN114966604B CN202210582284.4A CN202210582284A CN114966604B CN 114966604 B CN114966604 B CN 114966604B CN 202210582284 A CN202210582284 A CN 202210582284A CN 114966604 B CN114966604 B CN 114966604B
- Authority
- CN
- China
- Prior art keywords
- frame
- partition
- radar
- detection result
- target detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 291
- 238000005192 partition Methods 0.000 title claims abstract description 162
- 238000003672 processing method Methods 0.000 title abstract description 8
- 238000000034 method Methods 0.000 claims abstract description 51
- 230000008569 process Effects 0.000 claims abstract description 28
- 238000000638 solvent extraction Methods 0.000 claims abstract description 8
- 238000012545 processing Methods 0.000 claims description 26
- 241001465754 Metazoa Species 0.000 claims description 5
- 238000004904 shortening Methods 0.000 abstract 1
- 238000004891 communication Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036632 reaction speed Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4802—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明实施例涉及一种分区点云的目标检测处理方法,所述方法包括:对扫描范围进行分区从而得到多个扇形的雷达分区;在单轮扫描周期启动时,按雷达分区顺序进行逐区扫描;逐区扫描过程中,每对一个雷达分区完成扫描就对当前雷达分区的点云扫描结果进行获取生成当前分区点云,并对当前分区点云进行点云目标检测生成分区检测结果,并基于边缘重叠区域对前一雷达分区和当前雷达分区的分区检测结果进行联合校准,并对校准后的分区检测结果进行保存;在单轮扫描周期结束时,对完成校准的所有分区检测结果进行拼接得到全范围检测结果。通过本发明,可以将点云扫描和点云识别两个过程并行处理,达到缩短点云目标检测延迟、提高自动驾驶安全保障的目的。
Description
技术领域
本发明涉及数据处理技术领域,特别涉及一种分区点云的目标检测处理方法。
背景技术
自动驾驶系统的旋转式激光雷达在每个扫描周期内都按一个指定扫描范围从起始位置到结束位置进行一轮全范围扫描从而得到一帧全范围点云数据,自动驾驶系统的感知模块则通过对这帧全范围点云数据进行点云目标检测从而对环境中的多个障碍物目标(诸如人、车辆、自行车、植物、动物、交通标志物等)完成感知并得到各个目标对应的三维目标检测框(bounding box)。这种只基于全范围点云数据进行点云目标检测的处理方式有个问题,那就是点云扫描和点云识别两个过程不能并行处理,若激光雷达的扫描范围较大、扫描周期过长,就会导致全范围点云数据的产生时间过长,点云目标检测的延迟也会加大。这在一些高速场景或紧急事故场景中往往会对自动驾驶的安全性造成隐患。
发明内容
本发明的目的,就是针对现有技术的缺陷,提供一种分区点云的目标检测处理方法、电子设备及计算机可读存储介质,通过本发明,能在旋转式激光雷达进行逐区扫描的同时对已经获得的分区点云进行点云目标检测和检测结果校准,从而使得点云扫描和点云识别两个过程可以并行处理,达到缩短点云目标检测延迟、提高自动驾驶安全保障的目的。
为实现上述目的,本发明实施例第一方面提供了一种分区点云的目标检测处理方法,所述方法包括:
对旋转式激光雷达的扫描范围进行分区从而得到多个扇形的雷达分区;各个所述雷达分区的扇形角度一致,相邻两个所述雷达分区之间存在边缘重叠区域,所有所述边缘重叠区域对应的扇形角度一致;
在所述旋转式激光雷达的单轮扫描周期启动时,驱动所述旋转式激光雷达按雷达分区顺序进行逐区扫描;
逐区扫描过程中,在所述旋转式激光雷达每对一个雷达分区完成扫描时就对当前雷达分区的点云扫描结果进行获取生成对应的当前分区点云;并基于点云目标检测模型对所述当前分区点云进行点云目标检测生成对应的分区检测结果Gi,i为雷达分区索引,1≤i;并在所述雷达分区索引i为1时,对所述分区检测结果Gi=1进行保存;并在所述雷达分区索引i大于1时,基于所述边缘重叠区域对前一雷达分区和所述当前雷达分区对应的所述分区检测结果Gi-1、Gi进行联合校准,并对校准后的所述分区检测结果Gi-1、Gi进行保存;
在所述旋转式激光雷达的单轮扫描周期结束时,对完成校准的所有分区检测结果按所述雷达分区索引i从小到大的顺序进行拼接从而得到对应的全范围检测结果。
优选的,所述点云目标检测模型为基于圆柱坐标系的3D点云目标检测模型;所述点云目标检测模型包括距离引导的柱面卷积网络Range-Guided Cylindrical Network模型。
优选的,所述分区检测结果Gi包括多个目标检测框;所述目标检测框对应一组目标检测框参数;所述目标检测框参数包括目标类型、目标分类分数、目标检测框中心点坐标、目标检测框深度、目标检测框宽度、目标检测框高度和目标检测框朝向;所述目标类型包括人、车辆、自行车、植物、动物和交通标志物。
优选的,所述基于所述边缘重叠区域对前一雷达分区和所述当前雷达分区对应的所述分区检测结果Gi-1、Gi进行联合校准,具体包括:
将所述边缘重叠区域记为中间区域;并将所述前一雷达分区和所述当前雷达分区中处于所述中间区域之外的区域分别记为对应的左、右区域;
将所述分区检测结果Gi-1、Gi中完全处于所述中间区域之内的所述目标检测框均记为一类框;并将所述分区检测结果Gi-1中完全被所述中间区域覆盖且在所述左区域中还有部分框体的所述目标检测框记为二类框;并将所述分区检测结果Gi中完全被所述中间区域覆盖且在所述右区域中还有部分框体的所述目标检测框也记为二类框;
对所述分区检测结果Gi-1、Gi进行一类框校准处理;所述一类框校准处理成功,则对所述分区检测结果Gi-1、Gi进行二类框合并处理。
进一步的,所述对所述分区检测结果Gi-1、Gi进行一类框校准处理,具体包括:
步骤51,从所述分区检测结果Gi-1中提取第一个所述一类框作为第一框;
步骤52,提取所述第一框的所述目标类型作为第一类型;
步骤53,对所述分区检测结果Gi中各个所述目标类型为所述第一类型的所述一类框与所述第一框的交并比进行计算生成对应的第一交并比;并从得到的所有所述第一交并比中选出最大值作为最大交并比;
步骤54,当所述最大交并比为0时,在所述分区检测结果Gi中增加一个新的所述一类框;并复制所述第一框的所述目标检测框参数作为所述分区检测结果Gi中新增的所述一类框的所述目标检测框参数;
步骤55,当所述最大交并比大于预设的交并比阈值时,将所述分区检测结果Gi中所述最大交并比对应的所述一类框记为第二框;并对所述第一框和所述第二框进行目标检测框合并从而得到一个新的目标检测框记为第一合并框;并使用所述第一合并框的所述目标检测框参数,对所述分区检测结果Gi-1中的所述第一框和所述分区检测结果Gi中的所述第二框的两组所述目标检测框参数进行重置;
步骤56,对当前的所述第一框是否为所述分区检测结果Gi-1中的最后一个所述一类框进行确认;若确认所述第一框不为最后一个所述一类框,则从所述分区检测结果Gi-1中提取下一个所述一类框作为新的所述第一框,并返回步骤52;若确认所述第一框为最后一个所述一类框,则转至步骤57;
步骤57,确认所述一类框校准处理成功,并将最新的所述分区检测结果Gi-1、Gi作为校准结果输出。
进一步的,所述对所述分区检测结果Gi-1、Gi进行二类框合并处理,具体包括:
步骤61,从所述分区检测结果Gi-1中提取第一个所述二类框作为第三框;
步骤62,将所述分区检测结果Gi中与所述第三框在所述中间区域框体重合的所述二类框作为对应的第四框;
步骤63,对所述第三框和所述第四框进行目标检测框合并从而得到一个新的目标检测框记为第二合并框;并使用所述第二合并框的所述目标检测框参数,对所述分区检测结果Gi-1中的所述第三框和所述分区检测结果Gi中的所述第四框的两组所述目标检测框参数进行重置;
步骤64,对当前的所述第三框是否为所述分区检测结果Gi-1中的最后一个所述二类框进行确认;若确认所述第三框不为最后一个所述二类框,则从所述分区检测结果Gi-1中提取下一个所述二类框作为新的所述第三框,并返回步骤62;若确认所述第三框为最后一个所述二类框,则转至步骤65;
步骤65,确认所述二类框校准处理成功,并将最新的所述分区检测结果Gi-1、Gi作为校准结果输出。
本发明实施例第二方面提供了一种电子设备,包括:存储器、处理器和收发器;
所述处理器用于与所述存储器耦合,读取并执行所述存储器中的指令,以实现上述第一方面所述的方法步骤;
所述收发器与所述处理器耦合,由所述处理器控制所述收发器进行消息收发。
本发明实施例第三方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机指令,当所述计算机指令被计算机执行时,使得所述计算机执行上述第一方面所述的方法的指令。
本发明实施例提供了一种分区点云的目标检测处理方法、电子设备及计算机可读存储介质,首先对旋转式激光雷达的扫描范围进行分区并在分区时为保证不发生漏扫于相邻两个雷达分区之间设置边缘重叠区域;在单轮扫描周期启动时驱动旋转式激光雷达按雷达分区顺序进行逐区扫描;在逐区扫描过程中,旋转式激光雷达每扫完一个雷达分区就对当前分区点云进行获取,并基于点云目标检测模型对当前分区点云进行点云目标检测生成对应的分区检测结果,并基于边缘重叠区域对前后雷达分区的两个分区检测结果进行校准、合并;在单轮扫描周期结束时,对已经完成校准的所有分区检测结果按雷达分区索引从小到大的顺序进行拼接从而得到对应的全范围检测结果。通过本发明,能在旋转式激光雷达进行逐区扫描的同时对已经获得的分区点云进行点云目标检测和检测结果校准,从而使得点云扫描和点云识别两个过程可以并行处理,缩短了点云目标检测的延迟、提高了自动驾驶的安全保障。
附图说明
图1为本发明实施例一提供的一种分区点云的目标检测处理方法示意图;
图2为本发明实施例二提供的一种电子设备的结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步地详细描述,显然,所描述的实施例仅仅是本发明一部份实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
本发明实施例一提供一种分区点云的目标检测处理方法,如图1为本发明实施例一提供的一种分区点云的目标检测处理方法示意图所示,本方法主要包括如下步骤:
步骤1,对旋转式激光雷达的扫描范围进行分区从而得到多个扇形的雷达分区;
其中,各个雷达分区的扇形角度一致,相邻两个雷达分区之间存在边缘重叠区域,所有边缘重叠区域对应的扇形角度一致。
这里,旋转式激光雷达是带有一个旋转马达的激光雷达,在分区的时候默认基于激光雷达的视场角(Field of view,FOV)对每个雷达分区的扇形角度进行设置,但为确保不因为分区发生区间位置的漏扫要在相邻两个雷达分区之间设定一定角度的边缘重叠区域。在完成分区之后按旋转式激光雷达的旋转方向(顺时针方向或逆时针方向)对雷达分区的索引进行顺序编码。
例如,旋转式激光雷达的扫描范围是360°,激光雷达的左右视场角是70°,设定边缘重叠区域的扇形角度为10°,旋转式激光雷达的旋转方向为顺时针方向,那么就可以分出6个雷达分区:雷达分区1从325°到35°,雷达分区2从25°到95°,雷达分区3从85°到155°,雷达分区4从145°到215°,雷达分区5从205°到275°,雷达分区6从265°到335°,而雷达分区6很显然就是雷达分区1的左邻分区。
步骤2,在旋转式激光雷达的单轮扫描周期启动时,驱动旋转式激光雷达按雷达分区顺序进行逐区扫描。
步骤3,逐区扫描过程中,在旋转式激光雷达每对一个雷达分区完成扫描时就对当前雷达分区的点云扫描结果进行获取生成对应的当前分区点云;并基于点云目标检测模型对当前分区点云进行点云目标检测生成对应的分区检测结果Gi,i为雷达分区索引,1≤i;并在雷达分区索引i为1时,对分区检测结果Gi=1进行保存;并在雷达分区索引i大于1时,基于边缘重叠区域对前一雷达分区和当前雷达分区对应的分区检测结果Gi-1、Gi进行联合校准,并对校准后的分区检测结果Gi-1、Gi进行保存;
其中,点云目标检测模型为基于圆柱坐标系的3D点云目标检测模型;点云目标检测模型包括距离引导的柱面卷积网络(Range-Guided Cylindrical Network)模型;
分区检测结果Gi包括多个目标检测框;目标检测框对应一组目标检测框参数;目标检测框参数包括目标类型、目标分类分数、目标检测框中心点坐标、目标检测框深度、目标检测框宽度、目标检测框高度和目标检测框朝向;目标类型包括人、车辆、自行车、植物、动物和交通标志物。
这里,在单轮扫描周期的逐区扫描过程中,旋转式激光雷达每扫完一个雷达分区就对该雷达产生的当前分区点云进行一次实时获取,并基于点云目标检测模型对当前分区点云进行点云目标检测生成对应的分区检测结果。在基于点云目标检测模型对当前分区点云进行点云目标检测时,因为每个分区只是一个扇面,若采用常规的基于点云坐标系规则栅格结构的点云目标检测模型(诸如VoxelNet模型、SECOND模型和PointPillars模型等)进行检测会产生较多的无效计算,为节约计算资源、提高计算效率本发明实施例默认采用距离引导的柱面卷积网络模型。该模型基于柱面(Cylindrical)坐标系进行柱面栅格划分,不会产生过多的无用栅格空间;基于柱面卷积网络模型进行3D点云目标检测的具体技术实现,可参考技术论文《It’s All Around You:Range-Guided Cylindrical Network for 3DObject Detection》,在此不做进一步赘述。点云目标检测模型在对输入的当前分区点云完成点云目标检测之后,会按特定输出张量结构将点云中检测出的与各个障碍物目标对应的目标检测框的目标检测框参数一并输出;目标检测框参数常规情况下都包括目标类型、目标分类分数、目标检测框中心点坐标、目标检测框深度、目标检测框宽度、目标检测框高度和目标检测框朝向;其中目标类型就是障碍物目标对应的具体类型,诸如人、车辆、自行车、植物、动物和交通标志物等;目标分类分数则是对应的分类评分,该评分越高则对应的目标类型的可能性越大;目标检测框中心点坐标为对应目标框的中心点的点云坐标,需要说明的本发明实施例使用的点云目标检测模型输出的目标检测框中心点坐标仍旧恢复到点云坐标系下,这样方便前后数据处理;由目标检测框深度、宽度和高度就可以确认目标检测框的形状;由目标检测框朝向则可以确认目标检测框相对旋转式激光雷达的旋转角度。
在获得每个雷达分区对应的分区检测结果之后,需要基于边缘重叠区域对前后雷达分区的两个分区检测结果进行校准。这时,若雷达分区索引i为1说明为第一个雷达分区,其对应的前一雷达分区的分区检测结果不存在,所以此时只需对其进行存储即可;也就是说,只有在雷达分区索引i大于1时才会基于边缘重叠区域对前一雷达分区和当前雷达分区对应的分区检测结果Gi-1、Gi进行联合校准。
这里,基于边缘重叠区域对前一雷达分区和当前雷达分区对应的分区检测结果Gi-1、Gi进行联合校准,具体包括:
步骤A1,将边缘重叠区域记为中间区域;并将前一雷达分区和当前雷达分区中处于中间区域之外的区域分别记为对应的左、右区域;
例如,雷达分区索引i=2,雷达分区1从325°到35°,雷达分区2从25°到95°,则前一雷达分区就是雷达分区1,当前雷达分区就是雷达分区2,中间区域就是角度25°到35°的扇面区域,左区域就是角度325°到25°的扇面区域,右区域就是角度35°到95°的扇面区域;
步骤A2,将分区检测结果Gi-1、Gi中完全处于中间区域之内的目标检测框均记为一类框;并将分区检测结果Gi-1中完全被中间区域覆盖且在左区域中还有部分框体的目标检测框记为二类框;并将分区检测结果Gi中完全被中间区域覆盖且在右区域中还有部分框体的目标检测框也记为二类框;
这里,一类框实际就是分区检测结果Gi-1、Gi中在角度25°到35°的中间区域中的目标检测框,理论上说分区检测结果Gi-1、Gi中对应同一个目标的一类框应该完全重合,但实际应用中因为微小时差、路面平整度导致的车辆起伏等原因,分区检测结果Gi-1、Gi中对应同一个目标的一类框并不一定完全重合甚至还可能发生漏检,所以需要通过后续步骤进行校准;
因为分区的关系,在距离雷达较近位置的障碍物极有可能存在于多个分区点云中并被识别成多个障碍物目标,这种情况下就会导致相邻两个雷达分区对应的分区检测结果Gi-1、Gi中同时存在横跨左区域和中间区域并被中间区域完全覆盖的目标检测框、横跨中间区域和右区域并被中间区域完全覆盖的目标检测框,本发明实施例将这两种目标检测框都标记成二类框并会通过后续步骤对实际为同一目标的两个二类框进行合并;
步骤A3,对分区检测结果Gi-1、Gi进行一类框校准处理;一类框校准处理成功,则对分区检测结果Gi-1、Gi进行二类框合并处理;具体包括:
步骤A31,对分区检测结果Gi-1、Gi进行一类框校准处理;
具体包括:步骤A311,从分区检测结果Gi-1中提取第一个一类框作为第一框;
步骤A312,提取第一框的目标类型作为第一类型;
步骤A313,对分区检测结果Gi中各个目标类型为第一类型的一类框与第一框的交并比进行计算生成对应的第一交并比;并从得到的所有第一交并比中选出最大值作为最大交并比;
步骤A314,当最大交并比为0时,在分区检测结果Gi中增加一个新的一类框;并复制第一框的目标检测框参数作为分区检测结果Gi中新增的一类框的目标检测框参数;
这里,如前文所述分区检测结果Gi-1、Gi中对应同一个目标的两个一类框理论上应该完全重合,实际情况下即使不是完全重合也应具有很高的重叠度也就是说在分区检测结果Gi没有发生漏检的前提下,分区检测结果Gi-1、Gi中对应同一个目标的一对一类框的最大交并比肯定不会为0;因此,当分区检测结果Gi-1中的一个一类框与分区检测结果Gi中同类型的一类框的最大交并比为0时只有一种情况会这样,那就是在分区检测结果Gi中没有与第一框同类型的一类框,也就是说在分区检测结果Gi中发生了漏检,此时本发明实施例直接将第一框对应的目标检测框复制到分区检测结果Gi中,具体的复制方式就是将在分区检测结果Gi中增加一个一类框,并将此一类框的目标检测框参数设为与第一框一致;
步骤A315,当最大交并比大于预设的交并比阈值时,将分区检测结果Gi中最大交并比对应的一类框记为第二框;并对第一框和第二框进行目标检测框合并从而得到一个新的目标检测框记为第一合并框;并使用第一合并框的目标检测框参数,对分区检测结果Gi-1中的第一框和分区检测结果Gi中的第二框的两组目标检测框参数进行重置;
这里,如前文所述分区检测结果Gi-1、Gi中对应同一个目标两个一类框理论上应该完全重合,实际情况下即使不是完全重合也应具有很高的重叠度,此处的交并比阈值就是一个能够体现较高重叠度的交并比参数;也就是说倘若分区检测结果Gi中对应第一框有一个最大交并比很高的一类框,则该一类框与第一框对应的应是同一个目标;此时,本发明实施例会对这两个目标检测框(第一框、第二框)进行合并产生一个新的目标检测框也就是第一合并框,自然会对应产生一组新的目标检测框参数也就是第一合并框的目标检测框参数;本发明实施例使用第一合并框的目标检测框参数对第一框、第二框的目标检测框参数进行重置,实际就是为了能让第一、第二框完全重合,这样在后续步骤进行拼接时就不会发生目标识别框错位、重影的问题;
步骤A316,对当前的第一框是否为分区检测结果Gi-1中的最后一个一类框进行确认;若确认第一框不为最后一个一类框,则从分区检测结果Gi-1中提取下一个一类框作为新的第一框,并返回步骤A312;若确认第一框为最后一个一类框,则转至步骤A317;
步骤A317,确认一类框校准处理成功,并将最新的分区检测结果Gi-1、Gi作为校准结果输出;
步骤A32,一类框校准处理成功,则对分区检测结果Gi-1、Gi进行二类框合并处理;
具体包括:步骤A321,从分区检测结果Gi-1中提取第一个二类框作为第三框;
步骤A322,将分区检测结果Gi中与第三框在中间区域框体重合的二类框作为对应的第四框;
这里,如前文所述因为分区的关系在距离雷达较近位置的障碍物极有可能存在于多个分区点云中并被识别成多个障碍物目标,这种情况下就会导致相邻两个雷达分区对应的两个分区检测结果Gi-1、Gi中会出现对应同一目标的两个二类框,这两个二类框的特点就是在中间区域框体重合;因此在分区检测结果Gi中为分区检测结果Gi-1的第三框寻找对应的二类框(第四框)时,只需选择在中间区域框体彼此重合的那个即可;需要说明的是,理论上二者应该是完全重合,但在实际情况下也不一定,所以在确认与第三框在中间区域框体重合的二类框时,只要该二类框与第三框重合部分的朝向一致、形状一致且重合交并比与最大交并比(0.5)的绝对差值满足预设的误差范围就可确认该二类框与第三框匹配并将该二类框作为对应的第四框;
步骤A323,对第三框和第四框进行目标检测框合并从而得到一个新的目标检测框记为第二合并框;并使用第二合并框的目标检测框参数,对分区检测结果Gi-1中的第三框和分区检测结果Gi中的第四框的两组目标检测框参数进行重置;
这里,因为第三、第四框都是对应同一目标,所以要对二者进行合并产生一个新的目标检测框也就是第二合并框,自然会对应产生一组新的目标检测框参数也就是第二合并框的目标检测框参数;本发明实施例使用第二合并框的目标检测框参数对第三框、第四框的目标检测框参数进行重置,实际就是为了能让第三框和第四框完全重合,这样在后续步骤进行拼接时就不会发生目标识别框错位、重影的问题;需要说明的是,合并后的第二合并框实际是横跨两个雷达分区的一个目标检测框,所以第二合并框的目标检测框参数中的中心点坐标、形状信息(长、宽、高)有可能超出分区检测结果Gi-1或Gi的范围;
步骤A324,对当前的第三框是否为分区检测结果Gi-1中的最后一个二类框进行确认;若确认第三框不为最后一个二类框,则从分区检测结果Gi-1中提取下一个二类框作为新的第三框,并返回步骤A322;若确认第三框为最后一个二类框,则转至步骤A325;
步骤A325,确认二类框校准处理成功,并将最新的分区检测结果Gi-1、Gi作为校准结果输出。
步骤4,在旋转式激光雷达的单轮扫描周期结束时,对完成校准的所有分区检测结果按雷达分区索引i从小到大的顺序进行拼接从而得到对应的全范围检测结果。
这里,在旋转式激光雷达的单轮扫描周期结束时,虽然各雷达分区对应的分区检测结果Gi中仍然存在边缘重叠区域的检测结果,但经过上述步骤3已经将相邻两个雷达分区检测结果中边缘重叠区域的检测结果进行了漏检目标补充、小目标去重、和大目标合并等操作,这时候顺序拼接起来就大大降低了拼接结果也就是全范围检测结果里出现目标检测框错位、重影等问题。
通过上述步骤1-4,不难看出在扫描下一个雷达分区时就开始同步处理上一个雷达分区点云的目标检测和相邻两个雷达分区检测结果的校准,如此就将传统串行的点云扫描和点云识别过程变成了两个并行的处理过程。这样自然就缩短了点云目标检测的处理时间,提高了自动驾驶系统感知模块的感知、反应速度,自然就提高了自动驾驶的安全保障。
图2为本发明实施例二提供的一种电子设备的结构示意图。该电子设备可以为前述的终端设备或者服务器,也可以为与前述终端设备或者服务器连接的实现本发明实施例方法的终端设备或服务器。如图2所示,该电子设备可以包括:处理器301(例如CPU)、存储器302、收发器303;收发器303耦合至处理器301,处理器301控制收发器303的收发动作。存储器302中可以存储各种指令,以用于完成各种处理功能以及实现前述方法实施例描述的处理步骤。优选的,本发明实施例涉及的电子设备还包括:电源304、系统总线305以及通信端口306。系统总线305用于实现元件之间的通信连接。上述通信端口306用于电子设备与其他外设之间进行连接通信。
在图2中提到的系统总线305可以是外设部件互连标准(Peripheral ComponentInterconnect,PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,EISA)总线等。该系统总线可以分为地址总线、数据总线、控制总线等。为便于表示,图2中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。通信接口用于实现数据库访问装置与其他设备(例如客户端、读写库和只读库)之间的通信。存储器可能包含随机存取存储器(Random Access Memory,RAM),也可能还包括非易失性存储器(Non-Volatile Memory),例如至少一个磁盘存储器。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)、图形处理器(Graphics Processing Unit,GPU)等;还可以是数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(FieldProgrammable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
需要说明的是,本发明实施例还提供一种计算机可读存储介质,该计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述实施例中提供的方法和处理过程。
本发明实施例还提供一种运行指令的芯片,该芯片用于执行前述方法实施例描述的处理步骤。
本发明实施例提供了一种分区点云的目标检测处理方法、电子设备及计算机可读存储介质,首先对旋转式激光雷达的扫描范围进行分区并在分区时为保证不发生漏扫于相邻两个雷达分区之间设置边缘重叠区域;在单轮扫描周期启动时驱动旋转式激光雷达按雷达分区顺序进行逐区扫描;在逐区扫描过程中,旋转式激光雷达每扫完一个雷达分区就对当前分区点云进行获取,并基于点云目标检测模型对当前分区点云进行点云目标检测生成对应的分区检测结果,并基于边缘重叠区域对前后雷达分区的两个分区检测结果进行校准、合并;在单轮扫描周期结束时,对已经完成校准的所有分区检测结果按雷达分区索引从小到大的顺序进行拼接从而得到对应的全范围检测结果。通过本发明,能在旋转式激光雷达进行逐区扫描的同时对已经获得的分区点云进行点云目标检测和检测结果校准,从而使得点云扫描和点云识别两个过程可以并行处理,缩短了点云目标检测的延迟、提高了自动驾驶的安全保障。
专业人员应该还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种分区点云的目标检测处理方法,其特征在于,所述方法包括:
对旋转式激光雷达的扫描范围进行分区从而得到多个扇形的雷达分区;各个所述雷达分区的扇形角度一致,相邻两个所述雷达分区之间存在边缘重叠区域,所有所述边缘重叠区域对应的扇形角度一致;
在所述旋转式激光雷达的单轮扫描周期启动时,驱动所述旋转式激光雷达按雷达分区顺序进行逐区扫描;
逐区扫描过程中,在所述旋转式激光雷达每对一个雷达分区完成扫描时就对当前雷达分区的点云扫描结果进行获取生成对应的当前分区点云;并基于点云目标检测模型对所述当前分区点云进行点云目标检测生成对应的分区检测结果Gi,i为雷达分区索引,1≤i;并在所述雷达分区索引i为1时,对所述分区检测结果Gi=1进行保存;并在所述雷达分区索引i大于1时,基于所述边缘重叠区域对前一雷达分区和所述当前雷达分区对应的所述分区检测结果Gi-1、Gi进行联合校准,并对校准后的所述分区检测结果Gi-1、Gi进行保存;
在所述旋转式激光雷达的单轮扫描周期结束时,对完成校准的所有分区检测结果按所述雷达分区索引i从小到大的顺序进行拼接从而得到对应的全范围检测结果;
其中,所述分区检测结果Gi包括多个目标检测框;所述目标检测框对应一组目标检测框参数;所述目标检测框参数包括目标类型、目标分类分数、目标检测框中心点坐标、目标检测框深度、目标检测框宽度、目标检测框高度和目标检测框朝向;所述目标类型包括人、车辆、自行车、植物、动物和交通标志物;
所述基于所述边缘重叠区域对前一雷达分区和所述当前雷达分区对应的所述分区检测结果Gi-1、Gi进行联合校准,具体包括:
将所述边缘重叠区域记为中间区域;并将所述前一雷达分区和所述当前雷达分区中处于所述中间区域之外的区域分别记为对应的左、右区域;
将所述分区检测结果Gi-1、Gi中完全处于所述中间区域之内的所述目标检测框均记为一类框;并将所述分区检测结果Gi-1中完全被所述中间区域覆盖且在所述左区域中还有部分框体的所述目标检测框记为二类框;并将所述分区检测结果Gi中完全被所述中间区域覆盖且在所述右区域中还有部分框体的所述目标检测框也记为二类框;
对所述分区检测结果Gi-1、Gi进行一类框校准处理;所述一类框校准处理成功,则对所述分区检测结果Gi-1、Gi进行二类框合并处理。
2.根据权利要求1所述的分区点云的目标检测处理方法,其特征在于,
所述点云目标检测模型为基于圆柱坐标系的3D点云目标检测模型;所述点云目标检测模型包括距离引导的柱面卷积网络Range-Guided Cylindrical Network模型。
3.根据权利要求1所述的分区点云的目标检测处理方法,其特征在于,所述对所述分区检测结果Gi-1、Gi进行一类框校准处理,具体包括:
步骤51,从所述分区检测结果Gi-1中提取第一个所述一类框作为第一框;
步骤52,提取所述第一框的所述目标类型作为第一类型;
步骤53,对所述分区检测结果Gi中各个所述目标类型为所述第一类型的所述一类框与所述第一框的交并比进行计算生成对应的第一交并比;并从得到的所有所述第一交并比中选出最大值作为最大交并比;
步骤54,当所述最大交并比为0时,在所述分区检测结果Gi中增加一个新的所述一类框;并复制所述第一框的所述目标检测框参数作为所述分区检测结果Gi中新增的所述一类框的所述目标检测框参数;
步骤55,当所述最大交并比大于预设的交并比阈值时,将所述分区检测结果Gi中所述最大交并比对应的所述一类框记为第二框;并对所述第一框和所述第二框进行目标检测框合并从而得到一个新的目标检测框记为第一合并框;并使用所述第一合并框的所述目标检测框参数,对所述分区检测结果Gi-1中的所述第一框和所述分区检测结果Gi中的所述第二框的两组所述目标检测框参数进行重置;
步骤56,对当前的所述第一框是否为所述分区检测结果Gi-1中的最后一个所述一类框进行确认;若确认所述第一框不为最后一个所述一类框,则从所述分区检测结果Gi-1中提取下一个所述一类框作为新的所述第一框,并返回步骤52;若确认所述第一框为最后一个所述一类框,则转至步骤57;
步骤57,确认所述一类框校准处理成功,并将最新的所述分区检测结果Gi-1、Gi作为校准结果输出。
4.根据权利要求1所述的分区点云的目标检测处理方法,其特征在于,所述对所述分区检测结果Gi-1、Gi进行二类框合并处理,具体包括:
步骤61,从所述分区检测结果Gi-1中提取第一个所述二类框作为第三框;
步骤62,将所述分区检测结果Gi中与所述第三框在所述中间区域框体重合的所述二类框作为对应的第四框;
步骤63,对所述第三框和所述第四框进行目标检测框合并从而得到一个新的目标检测框记为第二合并框;并使用所述第二合并框的所述目标检测框参数,对所述分区检测结果Gi-1中的所述第三框和所述分区检测结果Gi中的所述第四框的两组所述目标检测框参数进行重置;
步骤64,对当前的所述第三框是否为所述分区检测结果Gi-1中的最后一个所述二类框进行确认;若确认所述第三框不为最后一个所述二类框,则从所述分区检测结果Gi-1中提取下一个所述二类框作为新的所述第三框,并返回步骤62;若确认所述第三框为最后一个所述二类框,则转至步骤65;
步骤65,确认所述二类框校准处理成功,并将最新的所述分区检测结果Gi-1、Gi作为校准结果输出。
5.一种电子设备,其特征在于,包括:存储器、处理器和收发器;
所述处理器用于与所述存储器耦合,读取并执行所述存储器中的指令,以实现权利要求1-4任一项所述的方法步骤;
所述收发器与所述处理器耦合,由所述处理器控制所述收发器进行消息收发。
6.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,当所述计算机指令被计算机执行时,使得所述计算机执行权利要求1-4任一项所述的方法的指令。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210582284.4A CN114966604B (zh) | 2022-05-26 | 2022-05-26 | 一种分区点云的目标检测处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210582284.4A CN114966604B (zh) | 2022-05-26 | 2022-05-26 | 一种分区点云的目标检测处理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114966604A CN114966604A (zh) | 2022-08-30 |
CN114966604B true CN114966604B (zh) | 2024-05-03 |
Family
ID=82954856
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210582284.4A Active CN114966604B (zh) | 2022-05-26 | 2022-05-26 | 一种分区点云的目标检测处理方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114966604B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109785335A (zh) * | 2018-12-18 | 2019-05-21 | 歌尔股份有限公司 | 扫描对象的直线轮廓的确定方法、装置及存储介质 |
US10345447B1 (en) * | 2018-06-27 | 2019-07-09 | Luminar Technologies, Inc. | Dynamic vision sensor to direct lidar scanning |
CN110223226A (zh) * | 2019-05-07 | 2019-09-10 | 中国农业大学 | 全景图像拼接方法及系统 |
CN112068155A (zh) * | 2020-08-13 | 2020-12-11 | 沃行科技(南京)有限公司 | 一种基于多个多线激光雷达分区障碍物检测方法 |
CN113325388A (zh) * | 2021-06-04 | 2021-08-31 | 北京轻舟智航科技有限公司 | 一种自动驾驶中激光雷达泛光噪点的过滤方法和装置 |
CN113658256A (zh) * | 2021-08-16 | 2021-11-16 | 智道网联科技(北京)有限公司 | 基于激光雷达的目标检测方法、装置及电子设备 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11796670B2 (en) * | 2021-05-20 | 2023-10-24 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Radar point cloud data processing method and device, apparatus, and storage medium |
-
2022
- 2022-05-26 CN CN202210582284.4A patent/CN114966604B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10345447B1 (en) * | 2018-06-27 | 2019-07-09 | Luminar Technologies, Inc. | Dynamic vision sensor to direct lidar scanning |
CN109785335A (zh) * | 2018-12-18 | 2019-05-21 | 歌尔股份有限公司 | 扫描对象的直线轮廓的确定方法、装置及存储介质 |
CN110223226A (zh) * | 2019-05-07 | 2019-09-10 | 中国农业大学 | 全景图像拼接方法及系统 |
CN112068155A (zh) * | 2020-08-13 | 2020-12-11 | 沃行科技(南京)有限公司 | 一种基于多个多线激光雷达分区障碍物检测方法 |
CN113325388A (zh) * | 2021-06-04 | 2021-08-31 | 北京轻舟智航科技有限公司 | 一种自动驾驶中激光雷达泛光噪点的过滤方法和装置 |
CN113658256A (zh) * | 2021-08-16 | 2021-11-16 | 智道网联科技(北京)有限公司 | 基于激光雷达的目标检测方法、装置及电子设备 |
Non-Patent Citations (2)
Title |
---|
机载激光雷达扫描技术生产DEM成果的高程精度分析;张永林;翟永聪;;经纬天地;20200628(第03期);全文 * |
高轨失稳目标单载荷相对位姿测量方法;李荣华;李金明;陈凤;肖余之;;宇航学报;20171030(第10期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN114966604A (zh) | 2022-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112560972B (zh) | 基于毫米波雷达先验定位和视觉特征融合的目标检测方法 | |
CN111553859B (zh) | 一种激光雷达点云反射强度补全方法及系统 | |
KR102428050B1 (ko) | 정보 보완 방법, 차선 인식 방법, 지능형 주행 방법 및 관련 제품 | |
CN113658256B (zh) | 基于激光雷达的目标检测方法、装置及电子设备 | |
CN108732556B (zh) | 一种基于几何体求交运算的车载激光雷达仿真方法 | |
CN110900602B (zh) | 一种定位恢复方法、装置、机器人及存储介质 | |
CN115797454B (zh) | 一种鸟瞰图视角下多摄像机融合感知方法及装置 | |
JP2016148547A (ja) | 検知装置 | |
WO2024012211A1 (zh) | 自动驾驶环境感知方法、介质及车辆 | |
CN115327524B (zh) | 基于毫米波雷达与视觉融合的路侧端目标检测方法及装置 | |
CN111080784A (zh) | 一种基于地面图像纹理的地面三维重建方法和装置 | |
CN114782787A (zh) | 一种对点云与图像数据进行特征融合的处理方法和装置 | |
CN113420637A (zh) | 自动驾驶中多尺度鸟瞰视角下的激光雷达检测方法 | |
CN116188931A (zh) | 一种基于融合特征进行点云目标检测的处理方法和装置 | |
CN118135569A (zh) | 基于激光雷达的单多帧协同可通行点云分割方法及装置 | |
CN114966604B (zh) | 一种分区点云的目标检测处理方法 | |
CN117671644A (zh) | 标识牌检测方法、装置以及车辆 | |
CN115797665B (zh) | 基于图像特征的图像和单帧毫米波雷达目标的匹配方法 | |
CN116740514A (zh) | 时空误差容忍的多智能体协同感知方法、装置和电子设备 | |
CN113537161B (zh) | 一种障碍物的识别方法、系统及装置 | |
CN115797578A (zh) | 一种高精地图的处理方法和装置 | |
CN112651405B (zh) | 目标检测方法及装置 | |
CN112394918B (zh) | 一种自动驾驶应用的开发方法及处理方法、系统 | |
CN111984032B (zh) | 无人机路径规划方法、装置、电子设备及存储介质 | |
CN113361601A (zh) | 基于无人车激光雷达数据进行透视与俯瞰特征融合的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |