CN116466307B - 一种基于深度图的毫米波雷达点云仿真的方法和装置 - Google Patents
一种基于深度图的毫米波雷达点云仿真的方法和装置 Download PDFInfo
- Publication number
- CN116466307B CN116466307B CN202310295414.0A CN202310295414A CN116466307B CN 116466307 B CN116466307 B CN 116466307B CN 202310295414 A CN202310295414 A CN 202310295414A CN 116466307 B CN116466307 B CN 116466307B
- Authority
- CN
- China
- Prior art keywords
- millimeter wave
- wave radar
- depth map
- point
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000004088 simulation Methods 0.000 title claims abstract description 34
- 238000001514 detection method Methods 0.000 claims abstract description 21
- 230000036544 posture Effects 0.000 claims abstract description 21
- 238000002592 echocardiography Methods 0.000 claims description 16
- 238000005070 sampling Methods 0.000 claims description 13
- 238000001914 filtration Methods 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 claims description 8
- 230000000694 effects Effects 0.000 claims description 4
- 230000008054 signal transmission Effects 0.000 claims description 4
- 238000004422 calculation algorithm Methods 0.000 abstract description 7
- 230000008447 perception Effects 0.000 abstract description 4
- 238000013135 deep learning Methods 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 238000000638 solvent extraction Methods 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 239000003897 fog Substances 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
- G01S7/4052—Means for monitoring or calibrating by simulation of echoes
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Abstract
本发明公开一种基于深度图的毫米波雷达点云仿真的方法和装置,该方法预定义毫米波探测范围内的所有被测目标和背景以及其对应的位置和姿态,使用深度图相机模块生成深度图,结合深度图相机模块与毫米波雷达模块的相对位置生成毫米波雷达模块的回波信号,最后对回波信号做FFT(快速傅里叶变换)和CFAR(恒虚警)获得毫米波雷达模块点云数据。该方法既保留了真实毫米波雷达点云的真实性,又结合了虚拟仿真场景的可配置性和灵活性,并且能够自动生成数据标注信息,缓解了真实点云数据采集效率和人工标注效率低下的问题;该方法可以快速生成大量的毫米波雷达点云,为感知算法等深度学习算法提供了更多的训练数据。
Description
技术领域
本发明涉及毫米波雷达雷达仿真领域,尤其涉及一种基于深度图的毫米波雷达点云仿真的方法和装置。
背景技术
毫米波雷达自上世纪40年代被发明以来,早期主要应用于军事、专用、汽车,后来逐步转向智能家居,成为民用消费级电子产品。从军用到民用,从汽车领域再到智能家居领域,毫米波雷达飞入寻常百姓家。在无人驾驶领域,毫米波雷达应用非常广泛。毫米波雷达工作在毫米波段。通常毫米波是指30~300GHz频段(波长为1~10mm)。毫米波的波长介于厘米波和光波之间,因此毫米波兼有微波制导和光电制导的优点。同厘米波导引头相比,毫米波导引头具有体积小、质量轻和空间分辨率高的特点。与红外、激光、电视等光学导引头相比,毫米波导引头穿透雾、烟、灰尘的能力强,具有全天候(大雨天除外)全天时的特点。另外,毫米波导引头的抗干扰、反隐身能力也优于其他微波导引头。
感知模块是自动驾驶算法的核心模块,该模块需要海量的标注数据集作为训练输入。但是,真实毫米波雷达点云数据的噪点较多、采集成本相当高,点云真值的人工标注效率也很低下。因此,完全通过毫米波雷达点云真值作为输入来训练感知算法的成本非常高,并且采集到的真值数据也难以枚举出现实中的所有交通情况。仿真毫米波雷达点云的精度较低,与实际的毫米波雷达点云相比还有差距,实际应用中会综合真实毫米波雷达点云数据和仿真虚拟点云数据作为算法输入,这两种点云数据各有优势,但都有明显的缺点。已有的方法通常只是单一地使用一种点云数据或者混合使用两种点云数据,这会导致数据量不足或者数据一致性等问题。
发明内容
本发明要解决现有技术的上述不足,实现更高质量仿真毫米波雷达点云数据的生成,提供一种基于深度图的毫米波雷达点云仿真的方法和装置。
本发明采用如下的技术方案:
一种基于深度图的毫米波雷达点云仿真的方法,包括以下步骤:
S1,预定义毫米波雷达模块和深度图相机模块的位置和姿态,毫米波雷达模块与深度图相机模块的视场应尽可能重合,预定义毫米波雷达模块探测范围内的所有被测目标的位置和姿态以及背景信息,通过深度图相机模块生成深度图,包含以下子步骤:
S1.1,预定义毫米波雷达模块和摄像头的位置和姿态信息,毫米波雷达模块与摄像头的视场尽量重合,保证毫米波雷达模块扫描范围内的点尽量多的可以在深度图相机模块的区域内找到,为毫米波雷达模块的点云计算提供信息;
S1.2,预定义所有被测目标的位置和姿态以及背景信息,计算获得被测目标和背景在深度图相机局部坐标系下的位置、速度信息;
S1.3,通过深度图相机模块的内参矩阵M和畸变系数D,结合S1.2中的位置、速度信息,计算得到当前帧的深度图。
S2,读取深度图信息,将深度图中的像素点转化为三维点云集合,记其为q,并将点云集合q转换到毫米波雷达模块的局部坐标系中,记经过转换之后的点云集合为r,包含以下子步骤:
S2.1,对S1中得到的深度图中的背景进行随机下采样,再对深度图中的各被测目标分别进行分块,对每个被测目标的每个分块做下采样,最后综合背景和各被测目标得到下采样结果的点云集合q,通过深度图相机模块的内参矩阵M和畸变系数D,结合下采样结果的点云集合q,计算得到该点云集合在深度图相机模块局部坐标系下的三维坐标表示,记点云集合及其三维坐标表示为为s;
S2.2,对于深度图相机模块中的三维点云,通过毫米波雷达模块和深度图相机模块的位置和姿态转换计算得到其在世界坐标下的坐标,并将世界坐标转化为毫米波雷达模块局部坐标系中的坐标。
S3,采用先验的毫米波雷达模块与被测目标的相对位置信息对r进行过滤,包含根据预设的毫米波雷达模块最大探测距离Smax、最大水平角范围Hmax以及最大俯仰角范围Pmax,划分出毫米波雷达模块的有效范围[0,Smax]、[-Hmax,Hmax]以及[-Pmax,Pmax],并针对点云集合r中的每一个点进行过滤,只保留毫米波雷达模块的有效测距、测角范围内的点云集合,记其为R。
S4,利用概率函数F和分段函数:
围绕目标产生随机的点云,M为S3中点云集合R的个数,模拟实际的毫米波雷达回波点,当res值为1时,该点产生回波,当res值为0时,该点不产生回波,得到所有产生回波的点云集合,记为e;
S5,采用毫米波雷达模块的参数对上述步骤中得到的点云中的每一个点分别进行回波模拟,并将所有点云的回波进行叠加,包含以下子步骤:
S5.1,预定义毫米波雷达模块的天线数目N、天线位置、信号发射周期T、信号波长λ、信号起始频率以及调频斜率;
S5.2,对S4中得到的点云集合e中的每个毫米波雷达回波点进行如下处理:
S5.2.1,记回波点与雷达的距离为d,记光速为c,计算得到毫米波雷达模块发射信号与接收信号的时间间隔t,结合信号起始频率以及调频斜率模拟出接收信号与发射信号,并将接收信号与发射信号进行叠加获得中频信号;
S5.2.2,记回波点和雷达的连线与雷达探测范围的中轴线的夹角为θ,根据θ和回波点的速度计算出回波点相对于毫米波雷达模块的径向速度v′,从而计算出因为多普勒效应而产生的相位差:
S5.2.3,记回波点和雷达的连线与雷达探测范围的中轴线的水平夹角为θh,相邻接收天线的水平距离为Lh,计算得到相邻水平接收天线的相位差为:
S5.2.4,记回波点和雷达的连线与雷达探测范围的中轴线的俯仰夹角为θp,相邻接收天线的俯仰距离为Lp,计算得到相邻俯仰接收天线的相位差为:
S5.3,对所有回波点产生的信号进行相加,得到该帧毫米波雷达模块回波的数字信号。
S6,对叠加之后的回波做快速傅里叶变换FFT和恒虚警CFAR,包含以下子步骤:
S6.1,对毫米波雷达模块回波的数字信号的单个啁啾chirp做一维FFT,将时域信息转化为频域信息,对每个频率的幅值信息做CFAR,若某个频率值的幅值大于其附近频率的幅值,即可视为该点有目标,将该点的频率值和毫米波雷达模块的采样数进行计算,可得目标的距离信息;对毫米波雷达模块回波的数字信号的多个chirp之间做二维FFT,将时域信息转化为频域信息,对每个频率的幅值信息做CFAR,若某个频率值的幅值大于其附近频率的幅值,即可视为该点有目标,将该点的频率值和毫米波雷达模块的采样数进行计算,可得目标的速度信息;对毫米波雷达模块回波的数字信号的水平方向的天线间的信号做三维FFT,将时域信息转化为频域信息,对每个频率的幅值信息做CFAR,若某个频率值的幅值大于其附近频率的幅值,即可视为该点有目标,将该点的频率值和毫米波雷达模块的采样数进行计算,可得目标的水平角度信息;对毫米波雷达模块回波的数字信号的垂直方向的天线间的信号做三维FFT,将时域信息转化为频域信息,对每个频率的幅值信息做CFAR,若某个频率值的幅值大于其附近频率的幅值,即可视为该点有目标,将该点的频率值和毫米波雷达模块的采样数进行计算,可得目标的俯仰角度信息;
S6.2,综合S6.1中的所有信息,可得该帧毫米波雷达模块的所有仿真点云的空间坐标信息和速度信息。
S7,将仿真点云的空间坐标信息可视化,将速度信息记录在点云的数据结构中,供其他模块调用。
本发明还涉及一种基于深度图的毫米波雷达仿真的装置,包括一个或者多个处理器,用于实现基于深度图的毫米波雷达仿真方法。
本发明还涉及一种基于深度图的毫米波雷达仿真的系统,包括:
毫米波雷达配置模块,用于配置毫米波雷达模块的频段、带宽、天线数、天线间距等参数;
被测目标的相对位置与姿态估计模块,用于估计毫米波雷达模块与各个被测目标的相对位置与姿态;
深度图生成模块,通过深度图相机模块的内参矩阵M和畸变系数D,计算得到当前帧的深度图;
点云生成模块,用于读取深度图信息,从深度图中还原各被测目标和背景的3D点云信息,供下面模块使用;
点云过滤模块,用于模拟实际的毫米波雷达因为范围不够、信号丢失的误差等原因造成的漏检;
噪声添加模块,用于模拟实际的毫米波雷达因为虚警而产生的噪点;
模拟回波模块,用于模拟点云中每个点的回波,并进行叠加获得最终的毫米波雷达模块的返回信号;
FFT和CFAR模块,从毫米波雷达模块的返回信号中提取出各点云的信息,获得最终的仿真数据结果。
点云显示模块,用于将前面流程中生成的点云在仿真系统中进行显示。
本发明的有益效果如下:
本发明方法预定义毫米波探测范围内的所有被测目标和背景以及其对应的位置和姿态,使用深度图相机模块生成深度图,结合深度图相机模块与毫米波雷达模块的相对位置生成毫米波雷达模块的回波信号,最后对回波信号做FFT和CFAR获得毫米波雷达模块点云数据。本发明既保留了真实毫米波雷达点云的真实性,又结合了虚拟仿真场景的可配置性和灵活性,并且能够自动生成数据标注信息,缓解了真实点云数据采集效率和人工标注效率低下的问题;本发明可以快速生成大量的毫米波雷达点云,为感知算法等深度学习算法提供了更多的训练数据。
附图说明
图1是本发明的一个实施例中一种基于深度图的毫米波雷达点云仿真的方法的步骤图;
图2是本发明的一个实施例中车辆和行人混合场景的毫米波雷达模块点云结果示意图;
图3是本发明的一个实施例中车辆和行人混合场景的毫米波雷达模块点云结果示意图;
图4是本发明的一个实施例中车辆和行人混合场景中车辆被行人遮挡信号的毫米波雷达模块点云结果示意图;
图5是本发明的系统结构图。
具体实施方式
下面根据附图和优选实施例详细描述本发明,本发明的目的和效果将变得更加明白,应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
实施例1
在一个实施例中,如图1所示,提出了一种基于深度图的毫米波雷达点云仿真的方法,该方法预定义毫米波探测范围内的所有被测目标和背景以及其对应的位置和姿态,使用深度图相机模块生成深度图,结合深度图相机模块与毫米波雷达模块的相对位置生成毫米波雷达模块的回波信号,最后对回波信号做FFT和CFAR获得毫米波雷达模块点云数据。
该方法具体包括以下步骤:
步骤1,本实施例配置的毫米波雷达模块频段为77GHz,带宽为2×109Hz,水平天线个数为2,垂直天线个数也为2,信号发射周期为2×10-6s,每帧发送的chirp个数为256,每个chirp的采样点数为1280。
步骤2,预定义毫米波雷达模块和深度图相机模块的位置和姿态,毫米波雷达模块与深度图相机模块的视场应尽可能重合,预定义毫米波雷达模块探测范围内的所有被测目标的位置和姿态以及背景信息,通过深度图相机模块生成深度图,包含以下子步骤:
步骤2.1,预定义毫米波雷达模块和摄像头的位置和姿态信息,毫米波雷达模块与摄像头的视场尽量重合,保证毫米波雷达模块扫描范围内的点尽量多的可以在深度图相机模块的区域内找到,为毫米波雷达模块的点云计算提供信息;
步骤2.2,预定义所有被测目标的位置和姿态以及背景信息,计算获得被测目标和背景在深度图相机模块局部坐标系下的位置、速度信息;
步骤2.3,通过深度图相机模块的内参矩阵M和畸变系数D,结合步骤2.2中的位置、速度信息,计算得到当前帧的深度图。
步骤3,读取深度图信息,将深度图中的像素点转化为三维点云集合,记其为q,并将点云集合q转换到毫米波雷达模块的局部坐标系中,记转换之后的点云集合为r,包含以下子步骤:
步骤3.1,对步骤2中得到的深度图中的背景进行随机下采样,再对深度图中的各被测目标分别进行分块,对每个被测目标的每个分块做下采样,最后综合背景和各被测目标得到下采样结果的点云集合q,本实施例中为了计算速度,对数据进行了5倍的下采样,在实际的实施过程中可根据具体的速度要求和点云密集程度的要求,选择是否需要下采样,若需要下采样,再选择适合的下采样倍数;通过深度图相机模块的内参矩阵M和畸变系数D,结合下采样结果的点云集合q,计算得到该点云集合在深度图相机模块局部坐标系下的三维坐标表示,记点云集合及其三维坐标表示为s;
步骤3.2,对于深度图相机模块中的三维点云,通过毫米波雷达模块和深度图相机模块的位置和姿态转换计算得到其在世界坐标下的坐标,并将世界坐标转化为毫米波雷达模块局部坐标系中的坐标。
步骤4,采用先验的毫米波雷达模块与被测目标的相对位置信息对r进行过滤,包含根据预设的毫米波雷达模块最大探测距离Smax、最大水平角范围Hmax以及最大俯仰角范围Pmax,划分出毫米波雷达模块的有效范围[0,Smax]、[-Hmax,Hmax]以及[-Pmax,Pmax],并针对点云集合r中的每一个点进行过滤,只保留毫米波雷达模块的有效测距、测角范围内的点云集合,记其为R。
步骤5,利用概率函数F和分段函数:
围绕目标产生随机的点云,M为步骤4中点云集合R的个数,模拟实际的毫米波雷达回波点,当res值为1时,该点产生回波,当res值为0时,该点不产生回波,得到所有产生回波的点云集合,记为e;
步骤6,采用毫米波雷达模块的参数对上述步骤中得到的点云中的每一个点分别进行回波模拟,并将所有点云的回波进行叠加,包含以下子步骤:
步骤6.1,预定义毫米波雷达模块的天线数目N、天线位置、信号发射周期T、信号波长λ、信号起始频率以及调频斜率;
步骤6.2,对步骤5中得到的点云集合e中的每个毫米波雷达回波点进行如下处理:
步骤6.2.1,记回波点与雷达的距离为d,记光速为c,计算得到毫米波雷达模块发射信号与接收信号的时间间隔t,结合信号起始频率以及调频斜率模拟出接收信号与发射信号,并将接收信号与发射信号进行叠加获得中频信号;
步骤6.2.2,记回波点和雷达的连线与雷达探测范围的中轴线的夹角为θ,根据θ和回波点的速度计算出回波点相对于毫米波雷达模块的径向速度v′,从而计算出因为多普勒效应而产生的相位差:
步骤6.2.3,记回波点和雷达的连线与雷达探测范围的中轴线的水平夹角为θh,相邻接收天线的水平距离为Lh,计算得到相邻水平接收天线的相位差为:
步骤6.2.4,记回波点和雷达的连线与雷达探测范围的中轴线的俯仰夹角为θp,相邻接收天线的俯仰距离为Lp,计算得到相邻俯仰接收天线的相位差为:
步骤6.3,对所有回波点产生的信号进行相加,得到该帧毫米波雷达模块回波的数字信号。
步骤7,对叠加之后的回波做FFT和CFAR,包含以下子步骤:
步骤7.1,对毫米波雷达模块回波的数字信号的单个chirp(啁啾)做一维FFT,将时域信息转化为频域信息,对每个频率的幅值信息做CFAR,若某个频率值的幅值大于其附近频率的幅值,即可视为该点有目标,将该点的频率值和毫米波雷达模块的采样数进行计算,可得目标的距离信息;对毫米波雷达模块回波的数字信号的多个chirp之间做二维FFT,将时域信息转化为频域信息,对每个频率的幅值信息做CFAR,若某个频率值的幅值大于其附近频率的幅值,即可视为该点有目标,将该点的频率值和毫米波雷达模块的采样数进行计算,可得目标的速度信息;对毫米波雷达模块回波的数字信号的水平方向的天线间的信号做三维FFT,将时域信息转化为频域信息,对每个频率的幅值信息做CFAR,若某个频率值的幅值大于其附近频率的幅值,即可视为该点有目标,将该点的频率值和毫米波雷达模块的采样数进行计算,可得目标的水平角度信息;对毫米波雷达模块回波的数字信号的垂直方向的天线间的信号做三维FFT,将时域信息转化为频域信息,对每个频率的幅值信息做CFAR,若某个频率值的幅值大于其附近频率的幅值,即可视为该点有目标,将该点的频率值和毫米波雷达模块的采样数进行计算,可得目标的俯仰角度信息;
步骤7.2,综合步骤7.1的所有信息,可得该帧毫米波雷达模块的所有仿真点云的空间坐标信息和速度信息。
步骤8,将仿真点云的空间坐标信息可视化,将速度信息记录在点云的数据结构中,供其他模块调用。
实施例2
与前述的实施例1相对应,本发明还提供了一种基于深度图的毫米波雷达点云仿真的装置的实施例,该装置包括一个或多个处理器,用于实现上述毫米波雷达点云生成方法。
本发明一种基于深度图的毫米波雷达点云仿真的生成装置的实施例可以应用在任意具备数据处理能力的设备上,该任意具备数据处理能力的设备可以为诸如计算机等设备或置。装置实施例可以通过软件实现,也可以通过硬件或者软硬件结合的方式实现。以软件实现为例,作为一个逻辑意义上的装置,是通过其所在任意具备数据处理能力的设备的处理器将非易失性存储器中对应的计算机程序指令读取到内存中运行形成的。从硬件层面而言,除了处理器、内存、网络接口、以及非易失性存储器之外,实施例中装置所在的任意具备数据处理能力的设备通常根据该任意具备数据处理能力的设备的实际功能,还可以包括其他硬件,对此不再赘述。
上述装置中各个单元的功能和作用的实现过程具体详见上述方法中对应步骤的实现过程,在此不再赘述。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本发明方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
实施例3
本发明实施例还提供一种计算机可读存储介质,其上存储有程序,该程序被处理器执行时,实现上述实施例中的基于深度图的毫米波雷达点云仿真的方法。
所述计算机可读存储介质可以是前述任一实施例所述的任意具备数据处理能力的设备的内部存储单元,例如硬盘或内存。所述计算机可读存储介质也可以是外部存储设备,例如所述设备上配备的插接式硬盘、智能存储卡(SmartMedia card,SMC)、SD卡、闪存卡(Flash card)等。进一步的,所述计算机可读存储介质还可以既包括任意具备数据处理能力的设备的内部存储单元也包括外部存储设备。所述计算机可读存储介质用于存储所述计算仉程序以及所述任意具备数据处理能力的设备所需的其他程序和数据,还可以用于暂时地存储己经输出或者将要输出的数据。
实施例4
如图5,实现实施例1的方法的本发明还涉及一种基于深度图的毫米波雷达仿真的系统,包括:
毫米波雷达配置模块,用于配置毫米波雷达模块的频段、带宽、天线数、天线间距等参数;
被测目标的相对位置与姿态估计模块,用于估计毫米波雷达模块与各个被测目标的相对位置与姿态;
深度图生成模块,通过深度图相机模块的内参矩阵M和畸变系数D,计算得到当前帧的深度图;
点云生成模块,用于读取深度图信息,从深度图中还原各被测目标和背景的3D点云信息,供下面模块使用;
点云过滤模块,用于模拟实际的毫米波雷达因为范围不够、信号丢失的误差等原因造成的漏检;
噪声添加模块,用于模拟实际的毫米波雷达因为虚警而产生的噪点;
模拟回波模块,用于模拟点云中每个点的回波,并进行叠加获得最终的毫米波雷达模块的返回信号;
FFT和CFAR模块,从毫米波雷达模块的返回信号中提取出各点云的信息,获得最终的仿真数据结果。
点云显示模块,用于将前面流程中生成的点云在仿真系统中进行显示。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的范围。
Claims (10)
1.一种基于深度图的毫米波雷达仿真的方法,其特征在于,包括以下步骤:
S1,预定义毫米波雷达模块和深度图相机模块的位置和姿态,毫米波雷达与深度图相机模块的视场应尽可能重合,预定义毫米波雷达探测范围内的所有被测目标的位置和姿态以及背景信息,通过深度图相机模块生成深度图;
S2,读取深度图信息,将深度图中的像素点转化为三维点云集合,记其为q,并将点云集合q转换到毫米波雷达模块的局部坐标系中,记转换之后的点云集合为r;
S3,采用先验的毫米波雷达模块与被测目标的相对位置信息对S2中的点云集合r进行过滤;
S4,利用概率函数围绕目标产生随机的点云,模拟实际的毫米波雷达回波点;
S5,采用毫米波雷达模块的参数对步骤S4中得到的点云中的每一个点分别进行回波模拟,并将所有点云的回波进行叠加;
S6,对叠加之后的回波做快速傅里叶变换FFT和恒虚警CFAR。
2.根据权利要求1所述的基于深度图的毫米波雷达仿真的方法,其特征在于,步骤S1中预定义毫米波雷达模块和深度图相机模块的位置和姿态,预定义毫米波雷达模块探测范围内的被测目标的位置和姿态以及背景信息,通过深度图相机模块生成深度图,包含以下子步骤:
S1.1,预定义毫米波雷达模块和深度图相机模块的位置和姿态;
S1.2,预定义所有被测目标的位置和姿态以及背景信息,计算获得被测目标和背景在深度图相机模块局部坐标系下的位置、速度信息;
S1.3,通过深度图相机模块的内参矩阵M和畸变系数D,结合S1.2中的位置、速度信息,计算得到当前帧的深度图。
3.根据权利要求1所述的基于深度图的毫米波雷达仿真的方法,其特征在于,步骤S2中读取深度图信息,将深度图中的像素点转化为三维点云集合,记其为q,并将点云集合q转换到毫米波雷达模块的局部坐标系中,记转换之后的点云集合为r,包含以下子步骤:
S2.1,通过深度图相机模块的内参矩阵M和畸变系数D,结合深度图中的点云集合q,计算得到该点云集合在深度图相机模块局部坐标系下的三维坐标表示,记点云集合及其三维坐标表示为s;
S2.2,通过毫米波雷达模块和深度图相机模块的位置和姿态计算得到S2.1中的点云集合在毫米波雷达模块局部坐标系中的三维坐标。
4.根据权利要求1所述的基于深度图的毫米波雷达仿真的方法,其特征在于,步骤S3中采用先验的毫米波雷达模块与被测目标的相对位置信息对r进行过滤,划分出毫米波雷达模块的有效范围,并针对点云集合r中的每一个点进行过滤,只保留毫米波雷达模块的有效范围内的点云集合,记其为R。
5.根据权利要求1所述的基于深度图的毫米波雷达仿真的方法,其特征在于,步骤S4中利用概率函数F和分段函数
围绕目标产生随机的点云,M为S3中点云集合R的个数,模拟实际的毫米波雷达回波点,记所有产生回波的点云集合为e。
6.根据权利要求5所述的基于深度图的毫米波雷达仿真的方法,其特征在于,步骤S5中采用毫米波雷达模块的参数对步骤S4中得到的点云中的每一个点分别进行回波模拟,并将所有点云的回波进行叠加,包含以下子步骤:
S5.1,预定义毫米波雷达的天线数目N、天线位置、信号发射周期T、信号波长λ、信号起始频率H以及调频斜率k;
S5.2,对步骤S4中得到的点云集合e中的每个毫米波雷达回波点,记回波点和雷达的连线与雷达探测范围的中轴线的夹角为θ,根据θ和回波点的速度计算出回波点相对于毫米波雷达模块的径向速度,同时计算回波点和雷达的连线与雷达探测范围的中轴线的水平夹角和俯仰夹角,根据径向速度、水平夹角和俯仰夹角计算出对应信号的相位差以及接收天线间的相位差;
S5.3,对所有回波点产生的信号进行相加并除权,得到当前帧毫米波雷达回波的数字信号。
7.根据权利要求6所述的基于深度图的毫米波雷达仿真的方法,其特征在于,S5.2具体包括:
S5.2.1,记回波点与雷达的距离为d,记光速为c,计算得到毫米波雷达模块发射信号与接收信号的时间间隔t,结合信号起始频率以及调频斜率模拟出接收信号与发射信号,并将接收信号与发射信号进行叠加获得中频信号;
S5.2.2,记回波点和雷达的连线与雷达探测范围的中轴线的夹角为θ,根据θ和回波点的速度计算出回波点相对于毫米波雷达模块的径向速度v′,从而计算出因为多普勒效应而产生的相位差:
S5.2.3,记回波点和雷达的连线与雷达探测范围的中轴线的水平夹角为θh,相邻接收天线的水平距离为Lh,计算得到相邻水平接收天线的相位差为:
S5.2.4,记回波点和雷达的连线与雷达探测范围的中轴线的俯仰夹角为θp,相邻接收天线的俯仰距离为Lp,计算得到相邻俯仰接收天线的相位差为:
8.根据权利要求1所述的基于深度图的毫米波雷达仿真的方法,其特征在于,所述S6中对叠加之后的回波做FFT和CFAR,包含对毫米波雷达回波的数字信号的单个chirp、多个chirp之间和不同天线间之间做FFT和CFAR,得到目标的距离、速度和角度信息。
9.根据权利要求7所述的所述的基于深度图的毫米波雷达仿真的方法,其特征在于,步骤S6具体包括:
S6.1,对毫米波雷达模块回波的数字信号的单个啁啾chirp做一维FFT,将时域信息转化为频域信息,对每个频率的幅值信息做CFAR,若某个频率值的幅值大于其附近频率的幅值,即可视为该点有目标,将该点的频率值和毫米波雷达模块的采样数进行计算,可得目标的距离信息;对毫米波雷达模块回波的数字信号的多个chirp之间做二维FFT,将时域信息转化为频域信息,对每个频率的幅值信息做CFAR,若某个频率值的幅值大于其附近频率的幅值,即可视为该点有目标,将该点的频率值和毫米波雷达模块的采样数进行计算,可得目标的速度信息;对毫米波雷达模块回波的数字信号的水平方向的天线间的信号做三维FFT,将时域信息转化为频域信息,对每个频率的幅值信息做CFAR,若某个频率值的幅值大于其附近频率的幅值,即可视为该点有目标,将该点的频率值和毫米波雷达模块的采样数进行计算,可得目标的水平角度信息;对毫米波雷达模块回波的数字信号的垂直方向的天线间的信号做三维FFT,将时域信息转化为频域信息,对每个频率的幅值信息做CFAR,若某个频率值的幅值大于其附近频率的幅值,即可视为该点有目标,将该点的频率值和毫米波雷达模块的采样数进行计算,可得目标的俯仰角度信息;
S6.2,综合步骤S6.1中的所有的信息,得当前帧毫米波雷达模块的所有仿真点云的空间坐标信息和速度信息。
10.一种基于深度图的毫米波雷达仿真的装置,其特征在于,包括一个或者多个处理器,用于实现权利要求1-7中任一项所述的基于深度图的毫米波雷达仿真方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310295414.0A CN116466307B (zh) | 2023-03-22 | 2023-03-22 | 一种基于深度图的毫米波雷达点云仿真的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310295414.0A CN116466307B (zh) | 2023-03-22 | 2023-03-22 | 一种基于深度图的毫米波雷达点云仿真的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116466307A CN116466307A (zh) | 2023-07-21 |
CN116466307B true CN116466307B (zh) | 2023-11-17 |
Family
ID=87179756
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310295414.0A Active CN116466307B (zh) | 2023-03-22 | 2023-03-22 | 一种基于深度图的毫米波雷达点云仿真的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116466307B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117634531B (zh) * | 2024-01-25 | 2024-04-12 | 南京楚航科技有限公司 | 一种数据级联的车载4d毫米波雷达信号处理方法及设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113325381A (zh) * | 2021-05-28 | 2021-08-31 | 北京百度网讯科技有限公司 | 用于处理数据的方法、装置、设备以及存储介质 |
CN114529610A (zh) * | 2022-01-11 | 2022-05-24 | 浙江零跑科技股份有限公司 | 一种基于rgb-d相机的毫米波雷达数据标注方法 |
CN115082924A (zh) * | 2022-04-26 | 2022-09-20 | 电子科技大学 | 一种基于单目视觉和雷达伪图像融合的三维目标检测方法 |
CN115685185A (zh) * | 2022-12-30 | 2023-02-03 | 苏州尚同墨方智能科技有限公司 | 一种4d毫米波雷达与视觉融合感知方法 |
CN115808685A (zh) * | 2022-12-22 | 2023-03-17 | 侯志斌 | 一种基于相机与毫米波雷达融合的3d目标检测方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110031813B (zh) * | 2019-05-21 | 2024-04-16 | 吉林大学 | 用于多目标动态模拟的车载毫米波雷达测试系统 |
CN112415480A (zh) * | 2019-08-20 | 2021-02-26 | 是德科技股份有限公司 | 用于测试毫米波雷达传感器的多输入多输出(mimo)目标仿真系统及方法 |
-
2023
- 2023-03-22 CN CN202310295414.0A patent/CN116466307B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113325381A (zh) * | 2021-05-28 | 2021-08-31 | 北京百度网讯科技有限公司 | 用于处理数据的方法、装置、设备以及存储介质 |
CN114529610A (zh) * | 2022-01-11 | 2022-05-24 | 浙江零跑科技股份有限公司 | 一种基于rgb-d相机的毫米波雷达数据标注方法 |
CN115082924A (zh) * | 2022-04-26 | 2022-09-20 | 电子科技大学 | 一种基于单目视觉和雷达伪图像融合的三维目标检测方法 |
CN115808685A (zh) * | 2022-12-22 | 2023-03-17 | 侯志斌 | 一种基于相机与毫米波雷达融合的3d目标检测方法 |
CN115685185A (zh) * | 2022-12-30 | 2023-02-03 | 苏州尚同墨方智能科技有限公司 | 一种4d毫米波雷达与视觉融合感知方法 |
Also Published As
Publication number | Publication date |
---|---|
CN116466307A (zh) | 2023-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ouaknine et al. | Carrada dataset: Camera and automotive radar with range-angle-doppler annotations | |
US11927668B2 (en) | Radar deep learning | |
US20230177819A1 (en) | Data synthesis for autonomous control systems | |
US11195028B2 (en) | Real-time simultaneous detection of lane marker and raised pavement marker for optimal estimation of multiple lane boundaries | |
KR20200144862A (ko) | 레이더의 해상도 향상 방법 및 장치 | |
CN116466307B (zh) | 一种基于深度图的毫米波雷达点云仿真的方法和装置 | |
US11592820B2 (en) | Obstacle detection and vehicle navigation using resolution-adaptive fusion of point clouds | |
Pandey et al. | Classification of automotive targets using inverse synthetic aperture radar images | |
CN115061113B (zh) | 用于雷达的目标检测模型训练方法、装置及存储介质 | |
Cui et al. | 3D detection and tracking for on-road vehicles with a monovision camera and dual low-cost 4D mmWave radars | |
CN116467848B (zh) | 一种毫米波雷达点云仿真的方法和装置 | |
Matzner et al. | ThermalTracker-3D: A thermal stereo vision system for quantifying bird and bat activity at offshore wind energy sites | |
Engelhardt et al. | Occupancy grids generation using deep radar network for autonomous driving | |
CN113109797B (zh) | 调频连续波凝视雷达的目标探测方法、装置和计算机设备 | |
CN114925769B (zh) | 一种多传感器数据融合处理系统 | |
CN111487621A (zh) | 一种基于雷达图像的海表流场反演方法及电子设备 | |
CN113895482B (zh) | 基于轨旁设备的列车测速方法及装置 | |
CN115965847A (zh) | 交叉视角下多模态特征融合的三维目标检测方法和系统 | |
AU2020279716B2 (en) | Multi-timescale doppler processing and associated systems and methods | |
CN115131756A (zh) | 一种目标检测方法及装置 | |
CN116027288A (zh) | 生成数据的方法、装置、电子设备及存储介质 | |
KR20220109951A (ko) | 인공지능 기반의 레이다 표적 탐지 방법 및 그를 위한 장치 | |
CN117008072A (zh) | 一种雷达点云的降维表征方法 | |
Gao | Efficient and Enhanced Radar Perception for Autonomous Driving Systems | |
Kesury | RADAR Modeling For Autonomous Vehicle Simulation Environment using Open Source |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |