CN114296083A - 雷达点云数据处理方法、装置、设备以及存储介质 - Google Patents
雷达点云数据处理方法、装置、设备以及存储介质 Download PDFInfo
- Publication number
- CN114296083A CN114296083A CN202111637901.8A CN202111637901A CN114296083A CN 114296083 A CN114296083 A CN 114296083A CN 202111637901 A CN202111637901 A CN 202111637901A CN 114296083 A CN114296083 A CN 114296083A
- Authority
- CN
- China
- Prior art keywords
- radar
- target
- point cloud
- cloud data
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/06—Systems determining position data of a target
- G01S13/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本公开提供了雷达点云数据处理的方法、装置、设备以及存储介质,涉及雷达点云、自动驾驶、深度学习技术领域。具体实现方案为:利用雷达点云数据中的目标检测框,确定目标物体所处的目标位置区域;将处于目标位置区域内的目标物体的每个点从雷达点云数据中移除;将物体模型添加到目标位置区域。本公开的实施例,通过将目标物体从雷达点云数据中移除,并将需要的三维模型添加到雷达点云数据中的目标位置区域,可以得到更加丰富的雷达点云数据。
Description
本申请要求于2021年5月20日提交美国专利局、申请号为17/325,762发明名称为“雷达点云数据处理方法、装置、设备以及存储介质”的美国专利申请的优先权,其全部内容通过引用结合在本申请中。
技术领域
本公开涉及数据处理技术领域,尤其涉及雷达点云、自动驾驶、深度学习技术领域。
背景技术
随着自动驾驶等技术的兴起,出于安全性考虑,雷达设备在这些技术中发挥着越来越重要的作用。由于对光照条件等不敏感,并且良好的距离感知能力,雷达几乎成了大部分自动驾驶公司的标准配置。由于深度学习技术和三维技术的兴起,基于雷达点云数据的目标检测占据着自动驾驶行业感知系统的主流地位。但是目前雷达点云的场景分布具有长尾效应,大部分数据都是常见物体。对自动驾驶等应用场景而言,安全性要求很高,需要提升异常数据例如低概率物体、低概率场景的数据的标注量。
发明内容
本公开提供了一种用于雷达点云数据处理的方法、装置、设备以及存储介质。
根据本公开的一方面,提供了一种雷达点云数据的处理方法,包括:
利用雷达点云数据中的目标检测框,确定目标物体所处的目标位置区域;
将处于目标位置区域内的目标物体的每个点从雷达点云数据中移除;
将物体模型添加到目标位置区域,得到更新的雷达点云数据。
根据本公开的另一方面,提供了一种雷达点云数据的处理装置,包括:
确定模块,用于利用雷达点云数据中的目标检测框,确定目标物体所处的目标位置区域;
移除模块,用于将处于目标位置区域内的目标物体的每个点从雷达点云数据中移除;
添加模块,用于将物体模型添加到目标位置区域,得到更新的雷达点云数据。
根据本公开的另一方面,提供了一种电子设备,包括:
至少一个处理器;以及
与该至少一个处理器通信连接的存储器;其中,
该存储器存储有可被该至少一个处理器执行的指令,该指令被该至少一个处理器执行,以使该至少一个处理器能够执行本公开任一实施例中的方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,该计算机指令用于使计算机执行本公开任一实施例中的方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现本公开任一实施例中的方法。
根据本公开的技术通过将目标物体从雷达点云数据中移除,并将需要的三维模型添加到雷达点云数据中的目标位置区域,可以得到更加丰富的雷达点云数据。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开一实施例的雷达点云数据的处理方法的流程示意图;
图2是根据本公开另一实施例的雷达点云数据的处理方法的流程图;
图3是根据本公开另一实施例的雷达点云数据的处理方法的流程图;
图4是根据本公开一实施例的雷达点云数据的处理装置的框图;
图5是根据本公开另一实施例的雷达点云数据的处理装置的框图;
图6是根据本公开另一实施例的雷达点云数据的处理装置的框图;
图7是本公开的一种应用示例的示意图;
图8示出用来实施本公开的实施例的示例电子设备的示意性框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1是根据本公开一实施例的雷达点云数据的处理方法的流程示意图。该方法可以包括:
S11、利用雷达点云数据中的目标检测框,确定目标物体所处的目标位置区域;
S12、将处于目标位置区域内的目标物体的每个点从雷达点云数据中移除;
S13、将物体模型添加到目标位置区域,得到更新的雷达点云数据。
示例性地,雷达(LiDAR)点云数据也可以称为雷达点云、激光雷达点云、激光雷达点云数据等。雷达点云数据中的每一个点可以包括三维坐标信息,例如通过X、Y、Z三个轴的坐标来表示雷达点云数据中每个点的坐标信息。雷达点云数据中的每一个点有时还包含颜色信息、反射强度信息、回波次数信息等。
原始的雷达点云数据中可以包括一个或多个物体。需要从原始的雷达点云数据中移除的物体可以称为目标物体。每次可以从原始的雷达点云数据中移除的目标物体的数量可以为一个也可以为多个,在本公开中对此不做限定。
原始的雷达点云数据中可以包括带有标注的三维物体的目标检测框。该目标检测框可以是人工标注或者自动标注确定的。通过目标检测框,可以确定目标物体的范围,即目标物体所处的目标位置区域。对于处于目标位置区域内的每个点,可以进行移除处理。例如,采用设置这些点的极大值等方式,将处于目标位置区域内的目标物体的每个点从雷达点云数据中移除,也即将目标物体从雷达点云数据中移除。移除处理后可以得到不包括目标物体的雷达点云数据。在不包括目标物体的雷达点云数据可以添加预先生成的三维模型。例如,
本公开的实施例,通过将目标物体从雷达点云数据中移除,并将需要的三维模型添加到雷达点云数据中的目标位置区域,可以得到更加丰富的雷达点云数据。进而,有利于满足更加丰富的应用场景的雷达点云数据的需求。
图2是根据本公开另一实施例的雷达点云数据的处理方法的流程图。该实施例的雷达点云数据的处理方法可以包括上述实施例的各步骤。在一种实施方式中,该目标检测框为三维检测框;该目标物体为三维物体,该物体模型为三维模型。参见上述实施例中的示例,雷达点云数据中的目标检测框可以通过三维坐标信息、深度、方向等来表示。需要移除的目标物体的每个点的位置也可以通过三维坐标信息来表示。需要添加的物体模型也可以为预先采用三维模型生成软件制作的三维模型。采用三维的目标检测框、目标物体和物体模型,有利于得到更加真实准确的雷达点云数据。
在一种实施方式中,步骤S12包括:
S21、利用雷达中心的坐标以及目标物体的每个点的坐标,生成从雷达中心到目标物体的每个点的线段;
S22、将每条线段的长度更新为预设的极大值。
示例性地,从雷达中心的坐标到目标物体的每个点之间可以连接成线,这些线的方向可以从雷达中心指向目标物体的点。由于雷达中心与每个点之间具有一定的距离,该距离可以作为雷达中心与每个点连线的长度。通常来说,距离越短,连线的长度越短;距离越长,连线的长度越长。如果将这些连线的长度设置为某个极大值,则从雷达中心到目标物体的每个点的距离极大,从而相当于将目标物体所处的位置看做没有物体,能够方便地将目标物体从雷达点云数据中移除。该极大值可以根据不同的应用场景灵活设置,本公开不限定该极大值的具体取值范围。
在一种实施方式中,步骤S13包括:
S23、将物体模型的每个点的位置与预设的偏移量相加,以确定物体模型在目标位置区域内的位置。
例如,将三维物体模型的每个点的坐标加上预设的偏移量,从而简便地实现将该三维物体模型放置到不包括目标物体的雷达点云数据中。该偏移量可以根据不同的应用场景灵活设置,本公开不限定该偏移量的具体取值范围。
在一种实施方式中,步骤S13还包括:
S24、通过投影矩阵对物体模型进行渲染,得到物体模型对应的深度图;
S25、通过投影矩阵将深度图投影到相机平面;
S26、在深度图中查询,得到雷达射线与深度图的交点的深度值;
S27、利用雷达射线与深度图的交点的深度值,更新该雷达射线对应的线段的长度,以得到雷达射线在物体模型的表面的交点的位置。
投影矩阵是三维图形的一种基本矩阵,利用投影矩阵能够与三维的物体模型的各顶点相乘,可以对三维的物体模型进行渲染,得到该三维的物体模型对应的深度图。例如,三维的物体模型可以由很多面片来组成,每三个顶点可以连成一个三角面片,可以将三维的物体模型所有的顶点乘以投影矩阵,得到该三维的物体模型对应的深度图。该深度图再乘以投影矩阵,可以将深度图投影到相机平面上。遍历所有雷达射线,得到从雷达中心发出的并经过目标区域位置的所有点的雷达射线。在深度图中查询,可以得到每个雷达射线与物体模型的深度图是否具有交集。如果有交集,可以得到雷达射线与深度图的交点的深度值。利用这些焦点的深度值更新与深度图具有交点的这些雷达射线对应的线段的长度。例如,原本这些雷达射线的长度为极大值,可以将这些极大值对应地更新为从雷达中心到每个交点的距离。这样,通过投影矩阵对物体模型进行渲染,得到物体模型的深度图,在深度图中查找与雷达射线的交点,,可以加速深度值查询的速度,更加快速的得到雷达射线在三维物体模型的表面的交点的位置。
在一种实施方式中,步骤S13还包括:
S28、在雷达射线与物体模型的深度图没有交集的情况下,保持雷达射线不变。
如果雷达射线与深度图没有交集,则可以保持雷达射线的长度等不变。这种情况下,目标位置区域中可以有一部分点与新添加的物体模型区分开,能够添加与目标物体完全不同的模型。
图3是根据本公开另一实施例的雷达点云数据的处理方法的流程图。该实施例的雷达点云数据的处理方法可以包括上述实施例的各步骤。
在一种实施方式中,该方法还包括:
S31、利用地面方程对目标位置区域内的属于地面的点进行补全处理。
在添加了三维的物体模型之后,雷达点云数据中,在原来的目标物体所在的目标位置区域中可能还有一些点的不属于三维的物体模型。这些点可以作为属于地面的点,采用地面方程对这些点进行补全处理。这样能够得到与实际场景更加相近的雷达点云数据。
此外,如果雷达点云数据中还包括需要补全的属于其他物体例如墙面等的点,可以利用相关的补全算法进行补全处理。
在一种实施方式中,该方法还包括:
S32、确定目标检测框内的每个点的语义信息,语义信息包括该目标检测框内的每个点是否属于目标物体。
示例性地,处于目标检测框内的每个点的语义信息可以表示这些点属于目标物体;处于目标检测框外的每个点的语义信息可以表示这些点部属于目标物体。具体例如,如果目标物体为车辆,通过目标检测框确定出的目标物体的范围内的每个点的语义信息可以表示该点属于该车辆。而在的目标物体的范围外的点的语义信息可以表示该点不属于该车辆。在确定目标检测框内的每个点的语义信息后,再执行步骤S11、S12和S13。例如,在S12中,可以利用这些点的语义信息能够准确地确定出属于目标物体的点,从而利用雷达中心和这些点生成多条线段。
图4是根据本公开一实施例的雷达点云数据的处理装置的框图。该装置可以包括:
确定模块401,用于利用雷达点云数据中的目标检测框,确定目标物体所处的目标位置区域;
移除模块402,用于将处于目标位置区域内的目标物体的每个点从雷达点云数据中移除;
添加模块403,用于将物体模型添加到目标位置区域,得到更新的雷达点云数据。
图5是根据本公开另一实施例雷达点云数据的处理装置的框图。该实施例雷达点云数据的处理装置可以包括上述装置实施例的各组件。在本实施例中,在一种实施方式中,该目标检测框为三维检测框;该目标物体为三维物体,该物体模型为三维模型。
在一种实施方式中,移除模块402包括:
线段生成子模块501,用于利用雷达中心的坐标以及目标物体的每个点的坐标,生成从雷达中心到目标物体的每个点的线段;
更新子模块502,用于将每条线段的长度更新为预设的极大值。
在一种实施方式中,添加模块403包括:
放置子模块503,用于将物体模型的每个点的位置与预设的偏移量相加,以将物体模型放置到目标位置区域内的位置。
在一种实施方式中,添加模块403还包括:
渲染子模块504,用于通过投影矩阵对物体模型进行渲染,得到物体模型对应的深度图;
投影子模块505,用于通过投影矩阵将深度图投影到相机平面;
查询子模块506,用于在深度图中查询,得到雷达射线与深度图的交点的深度值;
交点子模块507,用于利用雷达射线与深度图的交点的深度值,更新雷达射线对应的线段的长度,以得到雷达射线在物体模型的表面的交点的位置。
在一种实施方式中,添加模块403还包括:
保持子模块508,用于在雷达射线与物体模型的深度图没有交集的情况下,保持雷达射线不变。
图6是根据本公开另一实施例雷达点云数据的处理装置的框图。该实施例雷达点云数据的处理装置可以包括上述装置实施例的各组件。在本实施例中,在一种实施方式中,该装置还包括:
补全模块601,用于利用地面方程对目标位置区域内的属于地面的点进行补全处理。
在一种实施方式中,该装置还包括:
语义模块602,用于确定目标检测框内的每个点的语义信息,语义信息包括目标检测框内的每个点是否属于目标物体。
本公开实施例各雷达点云数据处理装置中的各单元、模块或子模块的功能可以参见上述雷达点云数据处理方法中的对应描述,在此不再赘述。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
在一种应用示例中,本公开可以结合图像学渲染技术,将标注好的三维雷达点云进行编辑,替换掉原始标注物体,换成新的物体,一方面可以增加出现概率低的物体,一方面可以增强未出现过的物体,同时,也能增加一些在自动驾驶中不常出现的场景。
本公开结合渲染技术,直接对原始雷达进行点云编辑,获得标注的异常数据。下面可以结合模块介绍本公开的方案的具体流程,参见图7。
原始物体编辑模块702:
原始的雷达点云701,可以带有标注的三维物体的目标检测框。该目标检测框可以是人工标注或者自动标注确定的,目标检测框的位置可以通过三维坐标信息来表示。通过目标检测框,可以确定目标物体的范围,计算出该范围内的每个点的语义信息,从而对原始的目标物体进行编辑。例如,如果目标物体为车辆,通过目标检测框确定出的目标物体的范围内的每个点的语义信息可以表示该点属于该车辆。而在的目标物体的范围外的点的语义信息可以表示该点不属于该车辆。在原始物体编辑模块702中,可以遍历目标物体的每一个点,将这些点与雷达中心连接成多条线段。将每条线段的长度,更新为一个极大值。例如,在自动驾驶中该极大值可以是300m。这样物体也就从图中移走,称为无物体的雷达点云703。在本示例中,无物体的雷达点云703主要是移走了目标物体的雷达点云,也就是不包括目标物体的雷达点云。
三维渲染模块704:
在三维渲染模块704中,在无物体雷达点云703中,将三维模型例如CAD格式的三维模型摆放在前面移走的目标物体的位置上。例如,例如将三维模型每个的点的坐标加上某个预设的偏移量,实现将该三维模型摆放在移走了目标物体的位置。
通过投影矩阵渲染得到三维模型对应的深度图。例如,将偏移后的三维模型的顶点乘以投影矩阵得到该三维模型对应的深度图。遍历所有的雷达射线。
然后,通过同样的投影矩阵,也能将该深度图投影到相同的相机平面上。例如该深度图再乘以投影矩阵,可以将深度图投影到相机平面上。
在深度图中进行查询,如果雷达射线与深度图的物体没有交集,则雷达射线保持不变;如果有交集,则计算射线与深度图的交点,得到交点的深度值,进行更新。例如,更新雷达射线对应的线段的长度。这样,可以将雷达射线与深度图的交点转移到三维模型的表面。例如得到雷达射线在三维模型表面的交点的坐标位置等信息。通过这个三维渲染模模块,可以加速深度值查询的速度。
最终,通过三维渲染模块704,能够得到新的雷达点云705。一种示例性的效果可以将原本是车辆的目标物体,改变成某个行人的三维模型,并且雷达点云的遮挡关系也还可以依然成立。
利用本公开的方案,可以将原来的标注物体(即目标物体)替换成一些不常见的物体(各种三维模型),从而得到大量的异常类标注数据。利用这些大量的异常类标注数据进行自动驾驶仿真,可以提升自动驾驶安全性。利用这些大量的异常类标注数据进行神经网络训练,可以得到更加准确的神经网络模型。
图8示出了可以用来实施本公开的实施例的示例电子设备800的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或要求的本公开的实现。
如图8所示,设备800包括计算单元801,其可以根据存储在只读存储器(ROM)802中的计算机程序或者从存储单元808加载到随机访问存储器(RAM)803中的计算机程序来执行各种适当的动作和处理。在RAM803中,还可存储设备800操作所需的各种程序和数据。计算单元801、ROM 802以及RAM 803通过总线804彼此相连。输入输出(I/O)接口805也连接至总线804。
设备800中的多个部件连接至I/O接口805,包括:输入单元806,例如键盘、鼠标等;输出单元807,例如各种类型的显示器、扬声器等;存储单元808,例如磁盘、光盘等;以及通信单元809,例如网卡、调制解调器、无线通信收发机等。通信单元809允许设备800通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元801可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元801的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元801执行上文所描述的各个方法和处理,例如雷达点云数据处理方法。例如,在一些实施例中,雷达点云数据处理方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元808。在一些实施例中,计算机程序的部分或者全部可以经由ROM 802和/或通信单元809而被载入和/或安装到设备800上。当计算机程序加载到RAM 803并由计算单元801执行时,可以执行上文描述的雷达点云数据处理方法的一个或多个步骤。备选地,在其他实施例中,计算单元801可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行雷达点云数据处理方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入、或者触觉输入来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (19)
1.一种雷达点云数据的处理方法,包括:
利用雷达点云数据中的目标检测框,确定目标物体所处的目标位置区域;
将处于所述目标位置区域内的所述目标物体的每个点从所述雷达点云数据中移除;
将物体模型添加到所述目标位置区域,得到更新的雷达点云数据。
2.根据权利要求1所述的方法,其特征在于,所述目标检测框为三维检测框;所述目标物体为三维物体,所述物体模型为三维模型。
3.根据权利要求1所述的方法,其特征在于,将处于所述目标位置区域内的所述目标物体的每个点从所述雷达点云数据中移除,包括:
利用雷达中心的坐标以及所述目标物体的每个点的坐标,生成从雷达中心到所述目标物体的每个点的线段;
将每条线段的长度更新为预设的极大值。
4.根据权利要求3所述的方法,其特征在于,将物体模型添加到所述目标位置区域,包括:
将所述物体模型的每个点的位置与预设的偏移量相加,以确定所述物体模型在目标位置区域内的位置。
5.根据权利要求4所述的方法,其特征在于,将物体模型添加到所述目标位置区域,还包括:
通过投影矩阵对所述物体模型进行渲染,得到所述物体模型对应的深度图;
通过所述投影矩阵将所述深度图投影到相机平面;
在所述深度图中查询,得到雷达射线与所述深度图的交点的深度值;
利用所述雷达射线与所述深度图的交点的深度值,更新所述雷达射线对应的线段的长度,以得到所述雷达射线在所述物体模型的表面的交点的位置。
6.根据权利要求5所述的方法,其特征在于,将物体模型添加到所述目标位置区域,还包括:在所述雷达射线与所述物体模型的深度图没有交集的情况下,保持所述雷达射线不变。
7.根据权利要求1至6中任一项所述的方法,其特征在于,所述方法还包括:利用地面方程对所述目标位置区域内的属于地面的点进行补全处理。
8.根据权利要求1至6中任一项所述的方法,其特征在于,所述方法还包括:确定目标检测框内的每个点的语义信息,所述语义信息包括所述目标检测框内的每个点是否属于目标物体。
9.一种雷达点云数据的处理装置,包括:
确定模块,用于利用雷达点云数据中的目标检测框,确定目标物体所处的目标位置区域;
移除模块,用于将处于所述目标位置区域内的所述目标物体的每个点从所述雷达点云数据中移除;
添加模块,用于将物体模型添加到所述目标位置区域,得到更新的雷达点云数据。
10.根据权利要求9所述的装置,其特征在于,所述目标检测框为三维检测框;所述目标物体为三维物体,所述物体模型为三维模型。
11.根据权利要求9所述的装置,其特征在于,所述移除模块包括:
线段生成子模块,用于利用雷达中心的坐标以及所述目标物体的每个点的坐标,生成从雷达中心到所述目标物体的每个点的线段;
更新子模块,用于将每条线段的长度更新为预设的极大值。
12.根据权利要求11所述的装置,其特征在于,所述添加模块包括:
放置子模块,用于将所述物体模型的每个点的位置与预设的偏移量相加,以将所述物体模型放置到目标位置区域内的位置。
13.根据权利要求12所述的装置,其特征在于,所述添加模块还包括:
渲染子模块,用于通过投影矩阵对所述物体模型进行渲染,得到所述物体模型对应的深度图;
投影子模块,用于通过所述投影矩阵将所述深度图投影到相机平面;
查询子模块,用于在所述深度图中查询,得到雷达射线与所述深度图的交点的深度值;
交点子模块,用于利用所述雷达射线与所述深度图的交点的深度值,更新所述雷达射线对应的线段的长度,以得到所述雷达射线在所述物体模型的表面的交点的位置。
14.根据权利要求13所述的装置,其特征在于,所述添加模块还包括:保持子模块,用于在所述雷达射线与所述物体模型的深度图没有交集的情况下,保持所述雷达射线不变。
15.根据权利要求9至14中任一项所述的装置,其特征在于,所述装置还包括:补全模块,用于利用地面方程对所述目标位置区域内的属于地面的点进行补全处理。
16.根据权利要求9至14中任一项所述的装置,其特征在于,所述装置还包括:语义模块,用于确定目标检测框内的每个点的语义信息,所述语义信息包括所述目标检测框内的每个点是否属于目标物体。
17.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-8中任一项所述的方法。
18.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使计算机执行权利要求1-8中任一项所述的方法。
19.一种计算机程序产品,包括计算机程序/指令,其特征在于,该计算机程序/指令被处理器执行时实现权利要求1-8中任一项所述的方法的步骤。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/325,762 | 2021-05-20 | ||
US17/325,762 US11796670B2 (en) | 2021-05-20 | 2021-05-20 | Radar point cloud data processing method and device, apparatus, and storage medium |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114296083A true CN114296083A (zh) | 2022-04-08 |
Family
ID=77464125
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111637901.8A Pending CN114296083A (zh) | 2021-05-20 | 2021-12-29 | 雷达点云数据处理方法、装置、设备以及存储介质 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11796670B2 (zh) |
EP (1) | EP4102254A1 (zh) |
JP (1) | JP7312866B2 (zh) |
KR (1) | KR20220041792A (zh) |
CN (1) | CN114296083A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116030103A (zh) * | 2023-03-07 | 2023-04-28 | 北京百度网讯科技有限公司 | 确定砌筑质量的方法、装置、设备和介质 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114966604B (zh) * | 2022-05-26 | 2024-05-03 | 苏州轻棹科技有限公司 | 一种分区点云的目标检测处理方法 |
CN116467848B (zh) * | 2023-03-21 | 2023-11-03 | 之江实验室 | 一种毫米波雷达点云仿真的方法和装置 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10670416B2 (en) * | 2016-12-30 | 2020-06-02 | DeepMap Inc. | Traffic sign feature creation for high definition maps used for navigating autonomous vehicles |
CN108765487B (zh) | 2018-06-04 | 2022-07-22 | 百度在线网络技术(北京)有限公司 | 重建三维场景的方法、装置、设备和计算机可读存储介质 |
CN109271893B (zh) | 2018-08-30 | 2021-01-01 | 百度在线网络技术(北京)有限公司 | 一种仿真点云数据的生成方法、装置、设备及存储介质 |
CN109146938B (zh) | 2018-08-30 | 2020-09-15 | 百度在线网络技术(北京)有限公司 | 动态障碍物的位置校准方法、装置、设备及存储介质 |
US10956626B2 (en) | 2019-07-15 | 2021-03-23 | Ke.Com (Beijing) Technology Co., Ltd. | Artificial intelligence systems and methods for interior design |
CN112639822B (zh) | 2020-03-27 | 2021-11-30 | 华为技术有限公司 | 一种数据处理方法及装置 |
CN112365600B (zh) | 2020-11-10 | 2023-11-24 | 中山大学 | 一种三维物体检测方法 |
CN112330815B (zh) | 2020-11-26 | 2024-05-14 | 北京百度网讯科技有限公司 | 基于障碍物融合的三维点云数据处理方法、装置和设备 |
CN112651881B (zh) | 2020-12-30 | 2023-08-01 | 北京百度网讯科技有限公司 | 图像合成方法、装置、设备、存储介质以及程序产品 |
-
2021
- 2021-05-20 US US17/325,762 patent/US11796670B2/en active Active
- 2021-12-29 CN CN202111637901.8A patent/CN114296083A/zh active Pending
- 2021-12-31 EP EP21218468.3A patent/EP4102254A1/en not_active Withdrawn
-
2022
- 2022-01-26 JP JP2022010074A patent/JP7312866B2/ja active Active
- 2022-03-15 KR KR1020220032381A patent/KR20220041792A/ko unknown
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116030103A (zh) * | 2023-03-07 | 2023-04-28 | 北京百度网讯科技有限公司 | 确定砌筑质量的方法、装置、设备和介质 |
CN116030103B (zh) * | 2023-03-07 | 2024-02-27 | 北京百度网讯科技有限公司 | 确定砌筑质量的方法、装置、设备和介质 |
Also Published As
Publication number | Publication date |
---|---|
US20210270958A1 (en) | 2021-09-02 |
US11796670B2 (en) | 2023-10-24 |
EP4102254A1 (en) | 2022-12-14 |
JP7312866B2 (ja) | 2023-07-21 |
JP2022050689A (ja) | 2022-03-30 |
KR20220041792A (ko) | 2022-04-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114296083A (zh) | 雷达点云数据处理方法、装置、设备以及存储介质 | |
CN110632608B (zh) | 一种基于激光点云的目标检测方法和装置 | |
EP3904829B1 (en) | Method and apparatus for generating information, device, medium and computer program product | |
CN113392794B (zh) | 车辆跨线识别方法、装置、电子设备和存储介质 | |
CN114202027A (zh) | 执行配置信息的生成方法、模型训练方法和装置 | |
CN114627239B (zh) | 包围盒生成方法、装置、设备及存储介质 | |
CN115797565A (zh) | 三维重建模型训练方法、三维重建方法、装置及电子设备 | |
CN112862017B (zh) | 点云数据的标注方法、装置、设备和介质 | |
CN113901998A (zh) | 模型的训练方法、装置、设备、存储介质以及检测方法 | |
CN111814651B (zh) | 车道线的生成方法、装置和设备 | |
CN113126120A (zh) | 数据标注方法、装置、设备、存储介质以及计算机程序产品 | |
CN110363847B (zh) | 一种基于点云数据的地图模型构建方法和装置 | |
US20230048643A1 (en) | High-Precision Map Construction Method, Apparatus and Electronic Device | |
CN114882313B (zh) | 生成图像标注信息的方法、装置、电子设备及存储介质 | |
CN113570727B (zh) | 场景文件的生成方法、装置、电子设备及存储介质 | |
CN116152702A (zh) | 点云标签的获取方法、装置、电子设备和自动驾驶车辆 | |
CN113762397B (zh) | 检测模型训练、高精度地图更新方法、设备、介质及产品 | |
CN112988932A (zh) | 高精地图标注方法、装置、设备、可读存储介质及产品 | |
CN113379884A (zh) | 地图渲染方法、装置、电子设备、存储介质以及车辆 | |
CN114581869A (zh) | 确定目标对象位置的方法、装置、电子设备和存储介质 | |
CN114111813A (zh) | 高精地图元素更新方法、装置、电子设备及存储介质 | |
CN112614221A (zh) | 高精地图渲染方法、装置、电子设备及自动驾驶车辆 | |
CN112835007B (zh) | 点云数据转换方法、装置、电子设备和存储介质 | |
CN115359227B (zh) | 区域实景地图与车道级地图的融合方法、装置及电子设备 | |
CN113254993B (zh) | 数据保护方法、装置、设备、存储介质和程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |