CN116467848B - 一种毫米波雷达点云仿真的方法和装置 - Google Patents
一种毫米波雷达点云仿真的方法和装置 Download PDFInfo
- Publication number
- CN116467848B CN116467848B CN202310279779.4A CN202310279779A CN116467848B CN 116467848 B CN116467848 B CN 116467848B CN 202310279779 A CN202310279779 A CN 202310279779A CN 116467848 B CN116467848 B CN 116467848B
- Authority
- CN
- China
- Prior art keywords
- millimeter wave
- wave radar
- point cloud
- target
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000004088 simulation Methods 0.000 title claims abstract description 27
- 238000001914 filtration Methods 0.000 claims abstract description 4
- 230000036544 posture Effects 0.000 claims description 23
- 238000001514 detection method Methods 0.000 claims description 12
- 238000005070 sampling Methods 0.000 claims description 9
- 238000005259 measurement Methods 0.000 claims description 5
- 230000002194 synthesizing effect Effects 0.000 claims description 2
- 238000012545 processing Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 230000008447 perception Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Hardware Design (AREA)
- Remote Sensing (AREA)
- Evolutionary Computation (AREA)
- Geometry (AREA)
- General Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
一种毫米波雷达点云仿真的方法,在仿真系统中先预定义所有被测目标以及其对应的位置和姿态,估计毫米波雷达与被测目标的相对位置与姿态,并根据毫米波雷达的参数对被测区域的三维空间和速度轴进行划分;采用先验的毫米波雷达与被测目标的相对位置与姿态信息来生成可能的点云集合并过滤,最后将过滤之后的点云进行三维空间和速度轴的划分得到点云数据。本发明还包括一种毫米波雷达点云仿真的装置。本发明既保留了真实毫米波雷达点云的真实性,又结合了虚拟仿真场景的可配置性和灵活性,并且能够自动生成数据标注信息,缓解了真实点云数据采集效率和人工标注效率低下的问题;本发明能快速生成大量的毫米波雷达点云,提高毫米波点云数据的生成效率。
Description
技术领域
本发明涉及毫米波雷达雷达仿真领域,尤其涉及一种毫米波雷达点云仿真的方法和装置。
背景技术
毫米波雷达自上世纪40年代被发明以来,早期主要应用于军事、专用、汽车,后来逐步转向智能家居,成为民用消费级电子产品。从军用到民用,从汽车领域再到智能家居领域,毫米波雷达飞入寻常百姓家,军用高科技下放民用生活领域,毫米波雷达可以说是“降维打击”。在无人驾驶领域,毫米波雷达应用非常广泛。与激光雷达相比,毫米波雷达技术更成熟,已经广泛地应用于汽车的感知系统中。而且毫米波雷达具有成本低、对雨雪雾天气、灰尘、光线等不敏感的优点。
感知模块是自动驾驶算法的核心模块,该模块需要海量的标注数据集作为训练输入。但是,真实毫米波雷达点云数据的噪点较多、采集成本相当高,点云真值的人工标注效率也很低下。因此,完全通过毫米波雷达点云真值作为输入来训练感知算法的成本非常高,并且采集到的真值数据也难以枚举出现实中的所有交通情况。实际应用中会综合真实毫米波雷达点云数据和仿真虚拟点云数据作为算法输入,这两种点云数据各有优势,但都有明显的缺点。已有的方法通常只是单一地使用一种点云数据或者混合使用两种点云数据,这会导致数据量不足或者数据一致性等问题。
发明内容
为解决现有技术的不足,实现真实毫米波雷达点云数据和虚拟仿真数据的优势互补,本发明采用如下的技术方案:
一种毫米波雷达点云仿真的方法,该方法包括以下步骤:
S1,在毫米波雷达前方预定义N个被测目标以及其对应的位置和姿态,同时对所有目标执行以下步骤:
S1.1,获取N个被测目标及其对应的位置和姿态,记被测目标的集合为t,在世界坐标系下,记对应的位置和姿态的集合分别为Lt和Qt;
S1.2,对每个目标的内部进行随机的采样,判断每个目标的各个表面是否可以反射毫米波雷达的信号,对可以反射毫米波雷达的信号的表面进行随机的采样,记所有被测目标的内部和表面的采样结果为点云集合P;
S1.3,在世界坐标系下,记毫米波雷达的位置和四元数表示的姿态分别为Lr和Qr,计算得到被测目标和背景在毫米波雷达局部坐标系下的相对距离、径向速度、水平角、俯仰角以及朝向。
S2,根据毫米波雷达的参数对被测区域的三维空间和速度轴进行划分:
S2.1,根据毫米波雷达的最大测量距离Smax和距离分辨率Sr对三维空间的距离维范围[0,Smax]进行确定,并将距离维范围平均地划分为个区域,每个距离维区域的长度即预配置毫米波雷达的距离分辨率,由毫米波雷达的性质可知,目标在同一距离维区域若返回的点云为多个,在同一距离维区域被视为相同的,需要在水平角维进行区分;根据毫米波雷达水平角测量的最大值Hmax和水平角分辨率Hr对三维空间的水平维范围[-Hmax,Hmax]进行确定,并将水平维范围划分为/>个区域,每个水平角维区域的长度即预配置毫米波雷达的水平角分辨率,由毫米波雷达的性质可知,目标在同一水平角维区域若返回的点云为多个,在同一水平角维区域被视为相同的,需要在俯仰角维进行区分;根据毫米波雷达俯仰角测量的最大值Pmax和俯仰角分辨率Pr对三维空间的俯仰维范围[-Pmax,Pmax]进行确定,并将俯仰维范围划分为/>个区域,每个俯仰角维区域的长度即预配置毫米波雷达的俯仰角分辨率,由毫米波雷达的性质可知,目标在同一俯仰角维区域若返回的点云为多个,在同一俯仰角维区域被视为相同的,需要在速度维进行区分;
S2.2,根据毫米波雷达的速度测量的最大值Vmax和速度分辨率Vr对速度轴的范围[-Vmax,Vmax]进行确定,并将速度维范围划分个区域,每个速度维区域的长度即预配置毫米波雷达的速度分辨率。
S3,采用先验的毫米波雷达与被测目标的相对位置与姿态信息,以及毫米波雷达的参数,生成目标可能产生的点云信息;
S3.1,遍历S1中目标集合t中每个目标,根据S1中的相对位置判断其是否在毫米波雷达的最大距离、水平角、俯仰角探测范围中,将不在毫米波雷达探测范围内的目标删除,得到新的目标集合t′;遍历目标集合t′中的每个目标所有的面,根据S1中的相对位置和姿态关系判断毫米波雷达可以获取到目标哪些面的回波信号;遍历目标集合t′中的每个目标中毫米波雷达可以获取到回波信号的面,根据毫米波雷达与被测目标的相对位置信息和毫米波雷达的分辨率,判断目标所有面上可能返回的点云;
S3.2,对S1.2中的点云集合P进行遮挡过滤,对比点云集合P中的点与点云集合P中其他的点和S3.1中的点的距离和角度,若有两个毫米波雷达点,其中一个点比另外一个点相对毫米波雷达的距离更远且这两个点的角度相近,视为远处的毫米波雷达点被遮挡,被遮挡的点将被删除;
S3.3,综合S3.1和S3.2的结果得到点云集合,记其为q。
S4,利用概率函数f计算阈值集合α=f(q),通过阈值集合α来判断S3所产生的点云中的每一个点是否需要被过滤,模拟实际的毫米波雷达因为信号丢失和CFAR的误差等原因造成的漏检,最终获得仿真系统中需要出现的点云记为q′;
S5,利用概率函数在目标周围生成随机点云,并在毫米波雷达探测的范围内生成随机点云,模拟实际的毫米波雷达因为虚警而产生的噪点,最后和S4中的点云进行叠加得到最终的点云集合,记为qm;
S6,采用先验的毫米波雷达与被测目标的相对位置信息,对S5所述的点云集合qm中的每一个点,采用先验的毫米波雷达与被测目标的相对位置信息使其与空间网格进行匹配,如果点在某个空间网格的中间,则直接将该点匹配给该空间网格,如果点在靠空间网格边缘小于阈值距离的位置,则根据该点周边的几个空间网格的位置进行加权概率的匹配,最终将点匹配给期望概率最大的空间网格;
S7,采用先验的毫米波雷达与被测目标的相对速度信息,对S6所述的点云集合qm中的每一个点,采用先验的毫米波雷达与被测目标的相对速度信息使其与速度轴区域进行匹配,如果点在某个速度轴区域的中间,则直接将该点匹配给该速度轴区域,如果点在靠速度轴区域边缘小于阈值速度的位置,则根据该点周边的几个速度轴区域的位置进行加权概率的匹配,最终将点匹配给期望概率最大的速度网格。
S8,对于每个仿真的毫米波雷达点,综合S6与S7给出的空间信息和速度信息,能得到其四维信息,将每个仿真的毫米波雷达点的信息可视化到仿真空间中。
本发明还包括一种毫米波雷达点云仿真的装置,包括一个或者多个处理器,用于实现权利要求1-8中任一项所述的虚实合成的激光雷达点云生成方法。
本发明还包括一种毫米波雷达点云仿真的系统,包括:
毫米波雷达配置模块,用于配置毫米波雷达的频段、带宽、天线数、天线间距等参数;
被测目标的相对位置与姿态估计模块,用于估计毫米波雷达与各个被测目标的相对位置与姿态;
点云生成模块,用于判断被测目标能够返回信号的表面,并根据这些表面和毫米波雷达的参数来生成所有可能产生的点云;
网格划分模块,用于对三维空间和速度空间根据毫米波雷达的参数进行划分;
点云删除模块,用于模拟实际的毫米波雷达因为信号丢失和CFAR的误差等原因造成的漏检;
噪声添加模块,用于模拟实际的毫米波雷达因为虚警而产生的噪点;
网格匹配模块,用于对点云与三维空间、速度空间之间匹配;
点云显示模块,用于将前面流程中生成的点云在仿真系统中进行显示。
本发明在仿真系统中先预定义所有被测目标以及其对应的位置和姿态,采用四元数与世界坐标来进行毫米波雷达与被测目标的相对位置与姿态的估计,并根据毫米波雷达的参数对被测区域的三维空间和速度轴进行划分。同时采用先验的毫米波雷达与被测目标的相对位置与姿态信息来生成可能的点云集合并过滤,最后将过滤之后的点云进行三维空间和速度轴的划分得到点云数据。
本发明的优点是:既保留了真实毫米波雷达点云的真实性,又结合了虚拟仿真场景的可配置性和灵活性,并且能够自动生成数据标注信息,缓解了真实点云数据采集效率和人工标注效率低下的问题;该方法可以快速生成大量的毫米波雷达点云,提高毫米波点云数据的生成效率。
附图说明
图1为一个实施例中一种毫米波雷达点云仿真的方法的步骤图。
图2为一个实施例中车辆场景的毫米波雷达点云结果示意图;
图3为一个实施例中车辆和行人混合场景的毫米波雷达点云结果示意图;
图4为一个实施例中车辆和行人混合场景的毫米波雷达点云结果俯视示意图;
图5为一个实施例中车辆和行人混合场景的毫米波雷达点云结果远景示意图;
图6是一个实施例中一种毫米波雷达点云仿真的系统的结构示意图。
具体实施方式
下面根据附图和优选实施例详细描述本发明,本发明的目的和效果将变得更加明白,应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
实施例1
在一个实施例中,如图1所示,提出了一种毫米波雷达点云仿真的方法,首先对需要仿真的毫米波雷达的频段、带宽、天线数、天线间距等参数进行配置,然后预定义被测目标以及其对应的位置和姿态,采用四元数与世界坐标来进行毫米波雷达与被测目标的相对位置与姿态的估计,并根据毫米波雷达的参数对被测区域的三维空间和速度轴进行划分。同时采用先验的毫米波雷达与被测目标的相对位置与姿态信息来生成可能的点云集合并过滤,最后将过滤之后的点云进行三维空间和速度轴的划分得到最终的仿真点云数据。
该方法具体包括以下步骤:
步骤1,本实施例配置的毫米波雷达频段为77GHz,带宽为109Hz,水平天线个数为2,垂直天线个数也为2,信号发射周期为6×10-6s,每帧发送的chirp个数为128,每个chirp的采样点数为640。
步骤2,本实施例中选取的场景为某实验室园区大门口,在仿真系统中选取该场景,放置毫米波雷达,在毫米波雷达前方预定义15个被测目标,被测目标包括车辆、行人、非机动车等种类,被测目标在场景内循环行走,实时定义其对应的位置和姿态,同时对所有目标执行以下步骤:
步骤2.1,获取N个被测目标及其对应的位置和姿态,记被测目标的集合为t,
在世界坐标系下,记对应的位置和姿态的集合分别为Lt和Qt;
步骤2.2,每个被测目标为一个3D的几何体,对每个目标的3D几何体内部进行随机的采样,同时模拟对每个目标的各个表面发射信号,判断反射信号的方向和强度,并判断毫米波雷达是否可以接收到反射的信号,对可以反射毫米波雷达的信号的表面进行随机的采样,记所有被测目标的内部和表面的采样结果为点云集合P;
步骤2.3,在世界坐标系下,记毫米波雷达的位置和四元数表示的姿态分别为Lr和Qr,计算得到被测目标和背景在毫米波雷达局部坐标系下的相对距离、径向速度、水平角、俯仰角以及朝向。
步骤3,根据毫米波雷达的参数对被测区域的三维空间和速度轴进行划分:
步骤3.1,根据毫米波雷达的最大测量距离Smax和距离分辨率Sr对三维空间的距离维范围[0,Smax]进行确定,并将距离维范围平均地划分为个区域,每个距离维区域的长度即预配置毫米波雷达的距离分辨率,由毫米波雷达的性质可知,目标在同一距离维区域若返回的点云为多个,在同一距离维区域被视为相同的,需要在水平角维进行区分;根据毫米波雷达水平角测量的最大值Hmax和水平角分辨率Hr对三维空间的水平维范围[-Hmax,Hmax]进行确定,并将水平维范围划分为/>个区域,每个水平角维区域的长度即预配置毫米波雷达的水平角分辨率,由毫米波雷达的性质可知,目标在同一水平角维区域若返回的点云为多个,在同一水平角维区域被视为相同的,需要在俯仰角维进行区分;根据毫米波雷达俯仰角测量的最大值Pmax和俯仰角分辨率Pr对三维空间的俯仰维范围[-Pmax,Pmax]进行确定,并将俯仰维范围划分为/>个区域,每个俯仰角维区域的长度即预配置毫米波雷达的俯仰角分辨率,由毫米波雷达的性质可知,目标在同一俯仰角维区域若返回的点云为多个,在同一俯仰角维区域被视为相同的,需要在速度维进行区分;
步骤3.2,根据毫米波雷达的速度测量的最大值Vmax和速度分辨率Vr对速度轴的范围[-Vmax,Vmax]进行确定,并将速度维范围划分个区域,每个速度维区域的长度即预配置毫米波雷达的速度分辨率。
步骤4,采用先验的毫米波雷达与被测目标的相对位置与姿态信息,以及毫米波雷达的参数,生成目标可能产生的点云信息;
步骤4.1,遍历步骤2中目标集合t中每个目标,根据步骤2中的相对位置判断其是否在毫米波雷达的最大距离、水平角、俯仰角探测范围中,将不在毫米波雷达探测范围内的目标删除,得到新的目标集合t′;遍历目标集合t′中的每个目标所有的面,根据步骤2中的相对位置和姿态关系计算哪些面可能被遮挡,删除可能被遮挡的面,剩下的面为毫米波雷达可以获取到目标回波信号的面;遍历目标集合t′中的每个目标中毫米波雷达可以获取到回波信号的面,根据毫米波雷达与被测目标的相对位置信息计算毫米波雷达水平角分辨率和俯仰角分辨率在该位置对应的距离的大小,从而计算得到毫米波雷达在被测目标上可以返回的点数,然后计算可以获取到回波信号的面与毫米波雷达法线的相对角度,相对角度为90度时,可以返回数目最多的点,相对角度为0度时,不返回任何点,0度和90度之间,根据角度大小判断目标所有面上可能返回的点云;
步骤4.2,对步骤2.2中的点云集合P进行遮挡过滤,对比点云集合P中的点与点云集合P中其他的点和步骤4.1中的点的距离和角度,若有两个毫米波雷达点,其中一个点比另外一个点相对毫米波雷达的距离更远且这两个点的角度相近,视为远处的毫米波雷达点被遮挡,被遮挡的点将被删除;
步骤4.3,综合步骤4.1和步骤4.2的结果得到点云集合,记其为q。
步骤5,利用概率函数f计算阈值集合α=f(q),通过阈值集合α来判断S3所产生的点云中的每一个点是否需要被过滤,模拟实际的毫米波雷达因为信号丢失和CFAR的误差等原因造成的漏检,最终获得仿真系统中需要出现的点云记为q′;
步骤6,利用概率函数在目标周围生成随机点云,并在毫米波雷达探测的范围内生成随机点云,模拟实际的毫米波雷达因为虚警而产生的噪点,最后和步骤5中的点云进行叠加得到最终的点云集合,记为qm;
步骤7,采用先验的毫米波雷达与被测目标的相对位置信息,对步骤6所述的点云集合qm中的每一个点,采用先验的毫米波雷达与被测目标的相对位置信息使其与空间网格进行匹配,如果点在某个空间网格的中间,则直接将该点匹配给该空间网格,如果点在靠空间网格边缘小于阈值距离的位置,则根据该点周边的几个空间网格的位置通过距离进行加权概率的匹配,距离越近,匹配的概率就越大,经过多次计算之后,最终将点匹配给多次期望概率最大的空间网格;
步骤8,采用先验的毫米波雷达与被测目标的相对速度信息,对步骤7所述的点云集合qm中的每一个点,采用先验的毫米波雷达与被测目标的相对速度信息使其与速度轴区域进行匹配,如果点在某个速度轴区域的中间,则直接将该点匹配给该速度轴区域,如果点在靠速度轴区域边缘小于阈值速度的位置,则根据该点周边的几个速度轴区域的位置进行加权概率的匹配,最终将点匹配给期望概率最大的速度网格。
步骤9,对于每个仿真的毫米波雷达点,综合步骤7与步骤8给出的空间信息和速度信息,可以得到其四维信息,将每个仿真的毫米波雷达点的信息可视化到仿真空间中。
实施例2
与前述的实施例1相对应,本发明还提供了一种毫米波雷达点云仿真的装置的实施例,该装置包括一个或多个处理器,用于实现上述一种毫米波雷达点云仿真的方法。
本发明虚实合成的一种毫米波雷达点云仿真的装置的实施例可以应用在任意具备数据处理能力的设备上,该任意具备数据处理能力的设备可以为诸如计算机等设备或置。装置实施例可以通过软件实现,也可以通过硬件或者软硬件结合的方式实现。以软件实现为例,作为一个逻辑意义上的装置,是通过其所在任意具备数据处理能力的设备的处理器将非易失性存储器中对应的计算机程序指令读取到内存中运行形成的。从硬件层面而言,除了处理器、内存、网络接口、以及非易失性存储器之外,实施例中装置所在的任意具备数据处理能力的设备通常根据该任意具备数据处理能力的设备的实际功能,还可以包括其他硬件,对此不再赘述。
上述装置中各个单元的功能和作用的实现过程具体详见上述方法中对应步骤的实现过程,在此不再赘述。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本发明方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
实施例3
本发明实施例还提供一种计算机可读存储介质,其上存储有程序,该程序被处理器执行时,实现上述实施例中的虚实合成的激光雷达点云生成方法。
所述计算机可读存储介质可以是前述任一实施例所述的任意具备数据处理能力的设备的内部存储单元,例如硬盘或内存。所述计算机可读存储介质也可以是外部存储设备,例如所述设备上配备的插接式硬盘、智能存储卡(SmartMedia card,SMC)、SD卡、闪存卡(Flash card)等。进一步的,所述计算机可读存储介质还可以既包括任意具备数据处理能力的设备的内部存储单元也包括外部存储设备。所述计算机可读存储介质用于存储所述计算仉程序以及所述任意具备数据处理能力的设备所需的其他程序和数据,还可以用于暂时地存储己经输出或者将要输出的数据。
实施例4
参照图6,本发明还提供一种毫米波雷达点云仿真的系统,包括:
毫米波雷达配置模块,用于配置毫米波雷达的频段、带宽、天线数、天线间距等参数;
被测目标的相对位置与姿态估计模块,用于估计毫米波雷达与各个被测目标的相对位置与姿态;
点云生成模块,用于判断被测目标能够返回信号的表面,并根据这些表面和毫米波雷达的参数来生成所有可能产生的点云;
网格划分模块,用于对三维空间和速度空间根据毫米波雷达的参数进行划分;
点云删除模块,用于模拟实际的毫米波雷达因为信号丢失和CFAR的误差等原因造成的漏检;
噪声添加模块,用于模拟实际的毫米波雷达因为虚警而产生的噪点;
网格匹配模块,用于对点云与三维空间、速度空间之间匹配;
点云显示模块,用于将前面流程中生成的点云在仿真系统中进行显示。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的范围。
Claims (3)
1.一种毫米波雷达仿真的方法,其特征在于,包括以下步骤:
S1,在毫米波雷达前方预定义N个被测目标以及其对应的位置和姿态,同时对每个目标进行采样,然后对毫米波雷达与被测目标的相对位置与姿态进行估计;包含以下子步骤:
S1.1,预定义N个被测目标及其对应的位置和姿态,记被测目标的集合为,在世界坐标系下,记对应的位置和姿态的集合分别为/>和/>;
S1.2,对每个目标的内部和表面进行随机的采样,记所有被测目标的采样为点云集合P;
S1.3,在世界坐标系下,记毫米波雷达的位置和四元数表示的姿态分别为和/>,计算得到被测目标和背景在毫米波雷达局部坐标系下的相对距离、速度、水平角、俯仰角以及朝向;
S2,根据毫米波雷达的参数对被测区域的三维空间和速度轴进行划分;包含以下子步骤:
S2.1,根据毫米波雷达的最大测量距离和距离分辨率/>、水平角测量的最大值和水平角分辨率/>以及俯仰角测量的最大值/>和俯仰角分辨率/>对三维空间中的毫米波雷达的探测范围进行确定,并将探测范围划分为若干个区域;
S2.2,根据毫米波雷达的速度测量的最大值和速度分辨率/>对速度轴的范围进行确定,并将速度维范围划分/>个区域;
S3,采用先验的毫米波雷达与被测目标的相对位置与姿态信息,以及毫米波雷达的参数,生成目标可能产生的点云信息;包含以下子步骤:
S3.1,遍历步骤S1中目标集合t中每个目标,根据步骤S1中的相对位置和姿态关系判断毫米波雷达可以获取到目标哪些面的回波信号,从而判断目标所有面上可能返回的点云;
S3.2,对步骤S1.2中的点云集合P进行过滤;
S3.3,综合步骤S3.1和步骤S3.2的结果得到点云集合,记其为;
S4,利用概率函数对目标可能产生的点云进行过滤,模拟实际的毫米波雷达信号丢失和CFAR的误差;具体包括:利用概率函数f计算阈值集合,通过阈值集合/>来判断所述的点云中的每一个点是否需要被过滤,模拟实际的毫米波雷达因为信号丢失和CFAR的误差原因造成的漏检,最终获得仿真系统中需要出现的点云记为/>;
S5,利用概率函数围绕目标产生随机的点云,模拟实际的毫米波雷达虚警;具体包括:利用概率函数在目标周围生成随机点云,并在毫米波雷达探测的范围内生成随机点云,模拟实际的毫米波雷达因为虚警而产生的噪点,最后和所述的的点云进行叠加得到最终的点云集合,记为;
S6,采用先验的毫米波雷达与被测目标的相对位置信息,对步骤S5所生成的点云和空间网格进行匹配;具体包括:对所述的点云集合中的每一个点,采用先验的毫米波雷达与被测目标的相对位置信息使其与空间网格进行匹配;
S7,采用先验的毫米波雷达与被测目标的相对速度信息,对步骤S5所生成的点云和速度网格进行匹配;具体包括:对所述的点云集合中的每一个点,采用先验的毫米波雷达与被测目标的相对速度信息使其与速度轴区域进行匹配;
S8,对于每个仿真的毫米波雷达点,综合步骤S6与S7给出的空间信息和速度信息,能得到其四维信息,将每个仿真的毫米波雷达点的信息可视化到仿真空间中。
2.一种毫米波雷达点云仿真的装置,其特征在于,包括一个或者多个处理器,用于实现权利要求1所述的毫米波雷达仿真的方法。
3.一种毫米波雷达点云仿真的系统,用于实现权利要求1所述的毫米波雷达仿真的方法;其特征在于,包括:
毫米波雷达配置模块,用于配置毫米波雷达的频段、带宽、天线数、天线间距参数;
被测目标的相对位置与姿态估计模块,用于估计毫米波雷达与各个被测目标的相对位置与姿态;
点云生成模块,用于判断被测目标能够返回信号的表面,并根据这些表面和毫米波雷达的参数来生成所有可能产生的点云;
网格划分模块,用于对三维空间和速度空间根据毫米波雷达的参数进行划分;
点云删除模块,用于模拟实际的毫米波雷达因为信号丢失和CFAR的误差原因造成的漏检;
噪声添加模块,用于模拟实际的毫米波雷达因为虚警而产生的噪点;
网格匹配模块,用于对点云与三维空间、速度空间之间匹配;
点云显示模块,用于将前面流程中生成的点云在仿真系统中进行显示。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310279779.4A CN116467848B (zh) | 2023-03-21 | 2023-03-21 | 一种毫米波雷达点云仿真的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310279779.4A CN116467848B (zh) | 2023-03-21 | 2023-03-21 | 一种毫米波雷达点云仿真的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116467848A CN116467848A (zh) | 2023-07-21 |
CN116467848B true CN116467848B (zh) | 2023-11-03 |
Family
ID=87174284
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310279779.4A Active CN116467848B (zh) | 2023-03-21 | 2023-03-21 | 一种毫米波雷达点云仿真的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116467848B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117634531B (zh) * | 2024-01-25 | 2024-04-12 | 南京楚航科技有限公司 | 一种数据级联的车载4d毫米波雷达信号处理方法及设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105874351A (zh) * | 2013-12-06 | 2016-08-17 | 美国休斯研究所 | 编码孔径雷达(car)信号的处理方法及装置 |
CN106291540A (zh) * | 2016-09-14 | 2017-01-04 | 河北省电力勘测设计研究院 | 一种基于doa估计的多输入多输出探地雷达逆向投影目标成像方法 |
CN113849969A (zh) * | 2021-09-14 | 2021-12-28 | 北京五一视界数字孪生科技股份有限公司 | 毫米波雷达仿真方法、装置及电子设备 |
CN114386293A (zh) * | 2022-03-22 | 2022-04-22 | 之江实验室 | 一种虚实合成的激光雷达点云生成方法和装置 |
CN115393680A (zh) * | 2022-08-08 | 2022-11-25 | 武汉理工大学 | 雾天场景下多模态信息时空融合的3d目标检测方法及系统 |
CN115712108A (zh) * | 2022-10-14 | 2023-02-24 | 际络科技(上海)有限公司 | 毫米波雷达目标检测模型训练方法、检测方法及装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112415480A (zh) * | 2019-08-20 | 2021-02-26 | 是德科技股份有限公司 | 用于测试毫米波雷达传感器的多输入多输出(mimo)目标仿真系统及方法 |
US11113584B2 (en) * | 2020-02-04 | 2021-09-07 | Nio Usa, Inc. | Single frame 4D detection using deep fusion of camera image, imaging RADAR and LiDAR point cloud |
US11966673B2 (en) * | 2020-03-13 | 2024-04-23 | Nvidia Corporation | Sensor simulation and learning sensor models with generative machine learning methods |
CN112505648B (zh) * | 2020-11-19 | 2023-06-30 | 西安电子科技大学 | 基于毫米波雷达回波的目标特征提取方法 |
US11796670B2 (en) * | 2021-05-20 | 2023-10-24 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Radar point cloud data processing method and device, apparatus, and storage medium |
-
2023
- 2023-03-21 CN CN202310279779.4A patent/CN116467848B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105874351A (zh) * | 2013-12-06 | 2016-08-17 | 美国休斯研究所 | 编码孔径雷达(car)信号的处理方法及装置 |
CN106291540A (zh) * | 2016-09-14 | 2017-01-04 | 河北省电力勘测设计研究院 | 一种基于doa估计的多输入多输出探地雷达逆向投影目标成像方法 |
CN113849969A (zh) * | 2021-09-14 | 2021-12-28 | 北京五一视界数字孪生科技股份有限公司 | 毫米波雷达仿真方法、装置及电子设备 |
CN114386293A (zh) * | 2022-03-22 | 2022-04-22 | 之江实验室 | 一种虚实合成的激光雷达点云生成方法和装置 |
CN115393680A (zh) * | 2022-08-08 | 2022-11-25 | 武汉理工大学 | 雾天场景下多模态信息时空融合的3d目标检测方法及系统 |
CN115712108A (zh) * | 2022-10-14 | 2023-02-24 | 际络科技(上海)有限公司 | 毫米波雷达目标检测模型训练方法、检测方法及装置 |
Non-Patent Citations (1)
Title |
---|
高级自动驾驶的感知要素:4D毫米波雷达--点云处理+前融合感知;网名;zhuanlan.zhihu.com/p/451429902;第1页 * |
Also Published As
Publication number | Publication date |
---|---|
CN116467848A (zh) | 2023-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109459734B (zh) | 一种激光雷达定位效果评估方法、装置、设备及存储介质 | |
US20230177819A1 (en) | Data synthesis for autonomous control systems | |
CN111192295B (zh) | 目标检测与跟踪方法、设备和计算机可读存储介质 | |
CN112513679B (zh) | 一种目标识别的方法和装置 | |
WO2022142628A1 (zh) | 一种点云数据处理方法及装置 | |
CN116467848B (zh) | 一种毫米波雷达点云仿真的方法和装置 | |
US11592820B2 (en) | Obstacle detection and vehicle navigation using resolution-adaptive fusion of point clouds | |
CN111913177A (zh) | 对目标物探测方法、装置以及存储介质 | |
CN113743385A (zh) | 一种无人船水面目标检测方法、装置及无人船 | |
CN116027318A (zh) | 多传感器信号融合的方法、装置、电子设备及存储介质 | |
CN115205803A (zh) | 自动驾驶环境感知方法、介质及车辆 | |
CN116466307B (zh) | 一种基于深度图的毫米波雷达点云仿真的方法和装置 | |
Engelhardt et al. | Occupancy grids generation using deep radar network for autonomous driving | |
CN114966651A (zh) | 可行驶区域检测方法、计算机设备、存储介质及车辆 | |
CN114577196A (zh) | 使用光流的激光雷达定位 | |
CN115965847A (zh) | 交叉视角下多模态特征融合的三维目标检测方法和系统 | |
CN115308746A (zh) | 点云数据的滤噪方法、装置和自动驾驶车辆 | |
CN114492676A (zh) | 一种目标检测模型的构建方法、装置和电子设备 | |
CN116027288A (zh) | 生成数据的方法、装置、电子设备及存储介质 | |
CN116263504A (zh) | 车辆识别方法、装置、电子设备及计算机可读存储介质 | |
US20210256704A1 (en) | Technologies for dynamic, real-time, four-dimensional volumetric multi-object underwater scene segmentation | |
CN114384486A (zh) | 一种数据处理方法及装置 | |
CN113514825A (zh) | 道路边缘的获取方法、装置和终端设备 | |
Haitman et al. | BoostRad: Enhancing Object Detection by Boosting Radar Reflections | |
Kesury | RADAR Modeling For Autonomous Vehicle Simulation Environment using Open Source |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |