CN111521998A - 用于去混叠和配置雷达系统的深度学习 - Google Patents
用于去混叠和配置雷达系统的深度学习 Download PDFInfo
- Publication number
- CN111521998A CN111521998A CN202010078258.9A CN202010078258A CN111521998A CN 111521998 A CN111521998 A CN 111521998A CN 202010078258 A CN202010078258 A CN 202010078258A CN 111521998 A CN111521998 A CN 111521998A
- Authority
- CN
- China
- Prior art keywords
- unaliased
- neural network
- radar system
- time samples
- data cube
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013135 deep learning Methods 0.000 title claims abstract description 35
- 238000013528 artificial neural network Methods 0.000 claims abstract description 123
- 238000000034 method Methods 0.000 claims abstract description 50
- 238000012549 training Methods 0.000 claims abstract description 35
- 230000008569 process Effects 0.000 claims description 34
- 238000001514 detection method Methods 0.000 claims description 26
- 238000012545 processing Methods 0.000 claims description 14
- 230000005540 biological transmission Effects 0.000 claims description 4
- 238000001914 filtration Methods 0.000 abstract description 3
- 230000008901 benefit Effects 0.000 description 4
- 230000002123 temporal effect Effects 0.000 description 4
- 230000008570 general process Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012804 iterative process Methods 0.000 description 2
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000008485 antagonism Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/417—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/006—Theoretical aspects
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/06—Systems determining position data of a target
- G01S13/08—Systems for measuring distance only
- G01S13/32—Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
- G01S13/34—Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/06—Systems determining position data of a target
- G01S13/08—Systems for measuring distance only
- G01S13/32—Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
- G01S13/34—Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal
- G01S13/343—Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal using sawtooth modulation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/50—Systems of measurement based on relative movement of target
- G01S13/58—Velocity or trajectory determination systems; Sense-of-movement determination systems
- G01S13/583—Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of continuous unmodulated waves, amplitude-, frequency-, or phase-modulated waves and based upon the Doppler effect resulting from movement of targets
- G01S13/584—Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of continuous unmodulated waves, amplitude-, frequency-, or phase-modulated waves and based upon the Doppler effect resulting from movement of targets adapted for simultaneous range and velocity measurements
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Electromagnetism (AREA)
- Theoretical Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
雷达系统中的深度学习包括从第一雷达系统中获取未混叠时间样本。一种方法包括:对未混叠时间样本进行欠采样以获得第一配置的混叠时间样本;对未混叠时间样本进行匹配滤波以获取未混叠数据立方体并且对混叠时间样本进行匹配滤波以获得混叠数据立方体;以及使用第一神经网络来获得去混叠数据立方体。训练第一神经网络以获得训练的第一神经网络。重复未混叠时间样本的欠采样,以获得第二配置的第二混叠时间样本。该方法包括训练第二神经网络以获得训练的第二神经网络,比较结果以选择与选择的配置相对应的选择的神经网络,以及将选择的神经网络与具有选择的配置的第二雷达系统一起使用以检测一个或多个物体。
Description
技术领域
本主题公开涉及用于去混叠(de-aliasing)和配置雷达系统的深度学习。
背景技术
无线电检测和测范围(雷达)系统正在越来越多地用于检测或跟踪各种应用中的物体。例如,雷达系统可以部署在车辆(例如汽车、卡车、建筑设备、农用设备、自动化工厂设备)中,以检测物体并促进车辆操作的增强或自动化。在某些条件下,检测可能混叠,这意味着可以对结果进行多种解释。因此,期望提供用于去混叠和配置雷达系统的深度学习。
发明内容
在一示例性实施例中,一种使用用于雷达系统中的去混叠的深度学习的方法包括从基于多个频率调制信号的第一雷达系统的发射的反射中获得未混叠(un-aliased)时间样本。第一雷达系统包括多个发射元件和多个接收元件。该方法还包括对未混叠时间样本进行欠采样以获得与模糊雷达系统的第一配置相对应的混叠时间样本,在未混叠时间样本上实施匹配过滤器以获得未混叠数据立方体并且在混叠时间样本上实施匹配滤波器以获得混叠数据立方体,用第一神经网络处理混叠数据立方体以获得去混叠数据立方体,并且基于通过将未混叠数据立方体与去混叠数据立方体进行比较而获得的第一损失来训练第一神经网络以获得训练的第一神经网络。重复对未混叠时间样本进行欠采样,以获得与模糊雷达系统的第二配置相对应的第二混叠时间样本。使用模糊雷达系统的第二配置来训练第二神经网络以获得训练的第二神经网络。比较训练的第一神经网络和训练的第二神经网络的结果,以选择与模糊雷达系统的选定的配置相对应的选定的神经网络。将选定的神经网络与具有模糊雷达系统的选定的配置的第二雷达系统一起使用,以检测一个或多个物体。
除了本文描述的一个或多个特征之外,该方法还包括将第二雷达系统设置在车辆中。
除了本文描述的一个或多个特征之外,该方法还包括使用非混叠数据立方体并且使用去混叠数据立方体来执行一个或多个物体的检测。
除了本文描述的一个或多个特征之外,训练神经网络基于通过将使用未混叠数据立方体执行的检测结果与使用去混叠数据立方体执行的检测结果进行比较而获得的第二损失。
除了本文描述的一个或多个特征之外,该方法还包括反演去混叠数据立方体,以获得去混叠时间样本。
除了本文描述的一个或多个特征之外,训练神经网络基于通过将非混叠时间样本与去混叠时间样本进行比较而获得的第三损失。
除了本文描述的一个或多个特征之外,执行欠采样包括使用仅由多个频率调制信号的子集产生的所有未混叠时间样本。
除了本文描述的一个或多个特征之外,执行欠采样还包括仅使用由所有多个频率调制信号产生的未混叠时间样本的子集。
除了本文描述的一个或多个特征之外,执行欠采样还包括使用仅由第一雷达系统的多个发射元件或多个接收元件的子集产生的未混叠时间样本。
除了本文描述的一个或多个特征之外,该方法还包括从基于训练通用神经网络而评估的一组配置中选择第一配置和第二配置。
在另一示例性实施例中,一种使用用于雷达系统中的去混叠的深度学习的系统包括第一雷达系统,以从基于多个频率调制信号的发射的反射中获得未混叠时间样本。第一雷达系统包括多个发射元件和多个接收元件。该系统还包括处理器,以对未混叠时间样本进行欠采样以获得与模糊雷达系统的第一配置相对应的混叠时间样本,在未混叠时间样本上实施匹配过滤器以获得未混叠数据立方体并且在混叠时间样本上实施匹配滤波器以获得混叠数据立方体,用第一神经网络处理混叠数据立方体以获得去混叠数据立方体,基于通过将未混叠数据立方体与去混叠数据立方体进行比较而获得的第一损失来训练第一神经网络以获得训练的第一神经网络,重复对未混叠时间样本进行欠采样以获得与模糊雷达系统的第二配置相对应的第二混叠时间样本,使用模糊雷达系统的第二配置来训练第二神经网络以获得训练的第二神经网络,并且比较训练的第一神经网络和训练的第二神经网络的结果,以选择与模糊雷达系统的选定的配置相对应的选定的神经网络。第二雷达系统根据模糊雷达系统的选定的配置进行配置,并且使用神经网络以检测一个或多个物体。
除了本文描述的一个或多个特征之外,第二雷达系统位于车辆中。
除了本文描述的一个或多个特征之外,处理器使用非混叠数据立方体并且使用去混叠数据立方体来执行一个或多个物体的检测。
除了本文描述的一个或多个特征之外,处理器基于通过将使用未混叠数据立方体执行的检测结果与使用去混叠数据立方体执行的检测结果进行比较而获得的第二损失来训练神经网络。
除了本文描述的一个或多个特征之外,处理器反演去混叠数据立方体,以获得去混叠时间样本。
除了本文描述的一个或多个特征之外,处理器基于通过将非混叠时间样本与去混叠时间样本进行比较而获得的第三损失来训练神经网络。
除了本文描述的一个或多个特征之外,处理器通过使用仅由多个频率调制信号的子集产生的所有未混叠时间样本来对未混叠时间样本进行欠采样。
除了本文描述的一个或多个特征之外,处理器通过仅使用由所有多个频率调制信号产生的未混叠时间样本的子集来对未混叠时间样本进行欠采样。
除了本文描述的一个或多个特征之外,处理器通过使用仅由第一雷达系统的多个发射元件或多个接收元件的子集产生的未混叠时间样本来对未混叠时间样本进行欠采样。
除了本文描述的一个或多个特征之外,第一配置和第二配置选自用于训练通用神经网络的一组配置。
当结合附图考虑时,根据以下详细描述,本公开的以上特征和优点以及其他特征和优点将显而易见。
附图说明
在下面的详细描述中,仅通过示例的方式出现其他特征、优点和细节,该详细描述参考附图,其中:
图1是根据一个或多个实施例的可以执行用于雷达系统中的去混叠的深度学习的车辆的框图;
图2是根据一个或多个实施例的用于执行用于雷达系统中的去混叠的深度学习的神经网络的训练过程的示例性一般过程流程;
图3示出了根据示例性实施例的与用于雷达系统中的去混叠的深度学习相关的训练过程流程;
图4示出了根据示例性实施例的与用于配置雷达系统的深度学习相关的实现流程;
图5示出了根据示例性实施例的与用于雷达系统中的去混叠的深度学习相关的实现流程;
图6示出了根据一个或多个实施例的对范围率信息进行欠采样以实现用于雷达系统中的去混叠的深度学习;
图7示出了根据一个或多个实施例的对范围信息进行欠采样以实现用于雷达系统中的去混叠的深度学习;以及
图8示出了根据一个或多个实施例的对角度信息进行欠采样以实现用于雷达系统中的去混叠的深度学习。
具体实施方式
以下描述本质上仅是示例性的,并不旨在限制本公开、其应用或用途。应当理解,在所有附图中,相应的附图标记表示相同或相应的部件和特征。
如前所述,雷达系统可以用于各种应用。例如,雷达系统可以提供用于增强或自动化车辆操作的信息。例如,车辆雷达系统可以是具有多个发射元件和单个接收元件的单输入多输出(SIMO)系统或者是具有多个发射元件和多个接收元件的多输入多输出(MIMO)系统。另外,车辆雷达系统可以发射线性调频连续波(LFMCW)信号,例如也称为线性调频脉冲。雷达系统的某些设计选择会导致混叠,这是被检测物体的实际位置不确定的现象。某些容量中的欠采样(例如稀疏的发射的信号)虽然会导致成本和功耗降低,但也会导致混叠。
角度信息受总阵列孔径或雷达系统的天线元件的数量和间距(或给定半波长间距的天线元件的数量)的影响。因此,使用具有元素稀疏子集的雷达系统例如使得元素不被半波长分开,会导致角度混叠。范围信息受带宽(即线性调频脉冲频率跨度)的影响,而最大可检测范围是反射的时间样本之间的间隔的函数。因此,对于期望的最大范围,对于给定的线性调频脉冲宽度处理时间样本的稀疏子集(其中样本间间隔太大)会导致范围混叠。多普勒信息(即范围率)受接收器处理的帧的持续时间的影响,而最大可检测范围率或多普勒则是线性调频脉冲到线性调频脉冲间隔(线性调频脉冲重复间隔)的函数。因此,对于期望的最大多普勒,对于给定的帧宽度使用线性调频脉冲的稀疏子集(其中线性调频脉冲间间隔太大)会导致多普勒混叠。
本文详述的系统和方法的实施例涉及用于去混叠和配置雷达系统的深度学习。去混叠是指通过滤除错误的副本(即混叠)来检索无混叠信号的过程。深度学习是一种机器学习,其学习数据的分层表示并且可以是有监督的也可以是无监督的。监督学习需要地面真相注释,而所描述的实施例涉及一种自我监督方法,其中注释在数据本身中被继承。根据实施例,尽管最初由给定的雷达系统对数据进行欠采样以导致混叠,但是使用深度学习对该数据去混叠。因此,实施例包括学习方面和实施方面。为了说明的目的,将提供未混叠信号并用于训练目的的雷达系统称为明确雷达系统,将需要训练的神经网络进行去混叠的雷达系统称为模糊雷达系统,因为它提供了混叠信号。
根据另外的实施例,模糊雷达系统的具体配置也可以基于深度学习来确定。可以以不同的方式对由明确雷达系统提供的未混叠信号进行混叠,从而训练神经网络以在一组混叠条件下执行去混叠。详细地说,然后可以使用对训练的神经网络的分析来将该组混叠条件缩小到一个子集,针对子集中的每个训练神经网络,并且基于比较针对该子集训练的神经网络的性能来确定随后部署在车辆中的模糊雷达系统的配置。即,可以使用训练的神经网络为其提供最佳结果的混叠配置。通过使用训练的神经网络进行去混叠,可以实现模糊雷达系统的资源效率,而不会产生混叠数据所典型的精度损失。
根据示例性实施例,图1是可以执行用于雷达系统110中的去混叠的深度学习的车辆100的框图。图1中示出的车辆100是汽车101。示例性车辆100包括雷达系统110(模糊雷达系统),并且可以另外包括其他传感器140(例如激光雷达、相机),以检测和跟踪诸如图1所示的行人155之类的物体150。车辆100还包括一个或多个车辆控制器130(例如电子控制单元(ECU))。基于来自雷达系统110的信息,车辆控制器130可以控制车辆100的操作的各个方面或者可以控制车辆100的自动化。所示的雷达系统110具有天线元件115阵列以及雷达控制器120。如图1所示,天线元件115可能不均匀地间隔开,从而所示的一对相邻的天线元件115之间的距离为d,而另一对之间的距离为d'。
雷达控制器120可以包括产生线性调频脉冲的振荡器。基于雷达系统110的视场中的物体150对发射的线性调频脉冲的反射,雷达系统110所接收的反射信号可以由雷达控制器120、车辆控制器130或两者的组合来处理。雷达控制器120和车辆控制器130都可以包括处理电路和其他部件。处理电路可以包括专用集成电路(ASIC)、电子电路、处理器(共享的、专用的或组)和执行一个或多个软件或固件程序的存储器、组合逻辑电路和/或提供所述功能的其他合适部件。
如前所述,根据一个或多个实施例,车辆100使用深度学习来从雷达系统110中获得去混叠数据。具体地,雷达控制器120、车辆控制器130或两者的组合可以用于此处详述的过程。提供未混叠信号的明确雷达系统可用于根据深度学习过程训练神经网络。一旦被训练,神经网络就可以与雷达系统110(其可以是提供混叠信号的模糊雷达系统)一起使用,以提供去混叠输出。因此,单个明确雷达系统(即具有足够的采样率以避免混叠的雷达系统)可以用于训练神经网络以与相应车辆中的许多模糊雷达系统110一起使用。参照图6-8详细描述了影响混叠的雷达系统110的特定特性。图4详细描述了可以基于训练并比较神经网络以获取不同混叠数据来确定雷达系统110的配置的过程。
根据本文详细描述的实施例,然而,可以基于如详细描述的训练神经网络,使用具有导致混叠的特性的雷达系统110来获得物体150的去混叠检测。除了被训练以去混叠模糊雷达系统110的输出之外,神经网络还可以用于选择天线元件115之间的间隔,以促进神经网络在所尝试的那些之间的最佳去混叠结果。如前所述,该间隔不必是均匀的(即两个天线元件115之间的间隔不必与两个其他天线元件115之间的间隔相同)。类似地,也可以选择在所尝试的那些之间的样本间间隔和线性调频脉冲间间隔,其中训练的神经网络为它们提供最佳结果。即,神经网络可以最初被训练以用于模糊雷达的一组配置。神经网络的结果可用于选择要为其训练神经网络的配置的子集。然后可以比较这些训练的神经网络的性能以从配置子集中选择配置作为雷达系统110的配置。以这种方式,仍然可以使用资源和成本效率高的模糊雷达系统110,而且它可以配置为最终通过训练的神经网络提供最佳结果。
图2是根据一个或多个实施例的用于神经网络的训练过程的示例性一般过程流程200,该神经网络用于执行用于雷达系统110中的去混叠的深度学习。过程流程200用于一轮训练的一次迭代,如参照图3和4进一步阐明。在框210处,该过程包括向神经网络提供输入。基于在框220处的神经网络对输入的处理,在框230处获得输出。在框240处,获得针对在框230处所获得的输出的地面真相有助于在框250处将神经网络的输出与地面真相数据进行比较。根据在框250处的比较,该差异有助于在框260处向神经网络提供损失。在训练期间,在框220处将该损失反向传播并用于更新神经网络权重。
在参考图3对其进行详细描述的示例性实施例中,在图2的框210处提供的输入是混叠数据,并且基于在框220处的神经网络处理而在框230处获得的输出是去混叠数据。在框250处,将该去混叠输出与在框240处从明确雷达系统获得的地面真相数据进行比较,与雷达系统110不同,该明确雷达系统不会导致混叠(即提供未混叠或无混叠数据)。根据一个或多个实施例,在神经系统的训练中使用具有无混叠数据的明确雷达系统,同时将雷达系统110与神经网络一起部署,以执行去混叠。在框260处,根据从神经网络获得的去混叠数据与无混叠数据的比较所提供的损失用于改善神经网络处理。具体地,基于该损失来修改神经网络内的权重。在神经网络学习去混叠的特定情况下,获得所有峰值(即真实和混叠),并且有利于与真实峰的正确匹配,而对与混叠峰的不正确匹配则受到惩罚。Hungarian损失可用于解决匹配。如图3的讨论所示,根据一个或多个实施例,可以在三个不同域中的一个或多个处获得用于训练神经网络的损失。
如前所述,根据附加实施例,对于模糊雷达系统的不同配置(初始组配置的子集),可以重复神经网络的训练,其本身可以是迭代过程。即,在框210处输入的混叠数据对应于模糊雷达的特定配置。对于相同的配置,可以在框210处输入不同的混叠数据,这导致即使对于模糊雷达系统的单个配置,训练过程也是迭代的。对于不同配置,可以重复迭代训练过程。因此,对于模糊雷达的不同配置可以获得不同的训练神经网络。基于哪个训练的神经网络表现最好,可以控制雷达系统110的配置以匹配用于训练该神经网络的配置。
图3示出了根据示例性实施例的与用于雷达系统110中的去混叠的深度学习相关的训练过程流程300。训练过程流程300提供了比图2所示的一般过程流程200更详细的图示。训练过程流程300指示可用于训练神经网络的多个级别的多个损失源。如前所述,图3中所示的过程可以由雷达控制器120、车辆控制器130或它们的组合来执行。在框310处,获得未混叠雷达输出是指基于明确雷达系统(而不是雷达系统110)从反射信号获得无混叠样本AFS。如前所述,与雷达系统110相比,明确雷达系统具有能够提供未混叠数据的硬件和处理方面。作为一示例,在框310处获得的未混叠雷达输出可以基于比雷达系统110更多的天线元件。在框315处,可以以多种方式来实现对在框310处获得的无混叠时间样本AFS(也表示为C)进行欠采样,如参考图5-7详细所述。在框315处的处理结果是遭受混叠的样本(即混叠时间样本)AS。AFS-AS对的生成是自我监督学习的一种形式。如参考图4进一步讨论,最初,在框315处执行欠采样可以针对一组混叠条件,以便训练通用神经网络。在选择了这些混叠条件的子集(即模糊雷达系统的配置)之后,在框315处,可以根据与训练一个(专用)神经网络相关的迭代的配置子集之一来进行欠采样。
在框320处,将匹配滤波器应用于从框315处的过程获得的混叠时间样本AS导致混叠四维数据立方体AC。在框335处,将匹配滤波器应用于在框310处获得的无混叠时间样本AFS导致无混叠四维数据立方体AFC(也表示为A)。无混叠时间样本AFS和混叠时间样本AS在时域中(即每个发射的线性调频脉冲的时间样本)。现有的匹配滤波器处理涉及二维快速傅里叶变换(FFT)和波束形成过程。具体地,范围FFT提供了范围线性调频脉冲图,该范围线性调频脉冲图指示了在每个接收通道和发射通道的每个发射的线性调频脉冲的范围值上的能量分布。多普勒FFT结合了范围FFT产生的范围线性调频脉冲图的每个范围区间的线性调频脉冲。所得的范围多普勒图表示每个检测到的物体的相对速度和范围。在范围多普勒图上执行的波束成形过程则为每个检测到的物体提供方位角和仰角。因此,在混叠四维数据立方体AC和无混叠四维数据立方体AFC中,这四个维度是范围、多普勒、方位角和仰角。
在框330处,通过神经网络对混叠四维数据立方体AC的处理导致去混叠四维数据立方体DC(也表示为A')。如图2指示,神经网络的输出(框230)与地面真相(框240)的比较(在框250处)在框260处提供了损失,该损失可被提供为反馈以改善神经网络的深度学习。在训练过程流程300中,存在三组比较,且因此具有可在神经网络的深度学习中组合或单独考虑的三个损失源(在框330处)。第一比较可以是A和A'。即,可以将在框335处由匹配滤波器输出的无混叠四维数据立方体AFC与在框330处由神经网络输出的去混叠四维数据立方体DC进行比较。
可以将差异loss_A作为反馈提供给神经网络。由于数据立方体的类似图像的结构,该损失loss_A可被视为数据立方体“图像”损失。例如,loss_A可以是重建损失(使用L1/L2范数的AFC和DC之间的元素方式差异)、感知损失(通过使用诸如Visual Graphics Group(VGG)网络之类的预训练深度神经网络处理数据立方体而生成的AFC和DC的“深度”特征之间的差异)以及对抗性损失(使用Generative-Adversarial网络架构,添加鉴别器网络,目的是确定数据立方体是由明确雷达产生的(例如在框335处是AFC)还是由神经网络产生的(即在框330处是DC))的组合。
第二比较可以是B和B'。在框345处,对在框335处由匹配滤波器输出的无混叠四维数据立方体AFC执行检测得到指示对每个检测到的物体的范围、多普勒、方位角和仰角的检测信息(即无混叠检测信息AFD,也表示为B)。类似地,在框340处,对在框330处由匹配滤波器输出的去混叠四维数据立方体DC执行检测得到指示对每个检测到的物体的范围、多普勒、方位角和仰角的检测信息(即去混叠检测信息DD,也表示为B')。通过将无混叠检测信息AFD(B)与去混叠检测信息DD(B')进行比较而产生的差异loss_B可以作为反馈提供给神经网络。该损失loss_B可被视为输出点云损失,这些点是雷达检测(即四个维度(三个维度和多普勒)中的点)。例如,比较是基于成对点距离、最近邻点搜索或密度匹配的两个点云。该损失直接测量雷达最终输出的质量,并且可用于确保去混叠过程产生真实且有意义的数据。
第三比较可以是C和C'。如图3所示,在框350处,可以提供由神经网络在框330处输出的去混叠四维数据立方体DC以进行反演。在框350处,反演是指将去混叠四维数据立方体DC转换回C'所示的时域样本。如前所述,无混叠时间样本AFS也被表示为C。可以将无混叠时间样本AFS(C)与在框350处通过反演得到的样本C'进行比较产生的差异的L1或L2范数loss_C作为反馈提供给神经网络。该损失loss_C可被视为时间样本损失。根据示例性实施例,可以通过神经网络在深度学习中一起使用所有三个损失loss_A、loss_B和loss_C。例如,加权损失loss_w可以计算为:
XX[方程1]
在方程1中,α、β和γ是分别应用于损失_A、损失_B和损失_C的权重。使用超参数搜索过程优化权重。
参考图3讨论的训练过程可以迭代地执行。在不同的迭代中,可以使用参考图6-8讨论的过程之一来从同一雷达帧(在框310处获得)中选择不同的子阵列(在框315处)。此外,如前所述,可以重复训练神经网络的迭代过程(图3中的过程流程300所示),以测试模糊雷达系统110的不同配置(例如不同数量的天线元件115、天线元件115之间的不同间隔、不同的样本间间隔,不同的线性调频脉冲间间隔(在图3的框315处))。
图4示出了根据一个或多个实施例的用于配置雷达系统110的深度学习的处理流程400。在框410处,选择模糊雷达系统的一组配置是指在框315处(图3)执行欠采样的特定方式。在框420处,根据总体上参考图2且具体地参考图3讨论的过程执行深度学习。如所指出,图3中所示的过程对于相同的候选配置可被迭代地执行。对于在框410处选择的一组配置,根据参考图2和3讨论的流程来训练单个(通用)神经网络。在框430,评估结果以选择配置子集是指从神经网络聚合统计以确定神经网络对其得分良好的配置子集。在框420处,针对该子集中的每个配置训练(专用)神经网络。
在框440处,针对配置子集评估神经网络是指针对每个候选配置(在框430处选择)评估并比较每个神经网络(在框420处训练)的准确性。评估导致确定最准确的神经网络并且在配置子集中选择相应的配置。在框450处,提供在框440处选择的配置以用于实施是指根据所选择的配置来配置雷达系统110。
图5示出了根据示例性实施例的与用于雷达系统110中的去混叠的深度学习相关的实现流程500。图5所示的过程使用雷达系统110,并且参考图5讨论的反射的处理可以由雷达控制器120、车辆控制器130或它们的组合来执行。参考框330(图3)讨论的并且根据参考图3讨论的过程流程300以及根据参考图4讨论的过程流程400的训练的神经网络被实施(在框530处),以使利用雷达系统110获得的数据去混叠。
在框510处,获得混叠雷达输出是指使用雷达系统110获得时间样本。该数据被混叠,因为雷达系统110不同于根据过程流程300(图3)的用于训练神经网络的雷达系统(即明确雷达系统)。在框520处,实施匹配滤波器指的是从时间样本(在框510处获得)获得四维数据立方体。在框530处,实施神经网络导致从由匹配滤波器(在框520处)输出的四维数据立方体获得去混叠四维数据立方体。在框540处,对由神经网络(在框530处)输出的去混叠四维数据立方体使用检测算法,而不是由匹配滤波器(在框520处)输出的四维数据立方体,这由于混叠而可能导致误导检测。因此,获得了任何检测到的物体150的方位角、仰角、范围和多普勒值,而在真实值和混叠值之间没有不确定性,就像雷达系统110的情况那样,而没有神经网络去混叠的好处。
图6-8示出了在框315处(图3)的欠采样过程的示例性实施例。在确定确切地使用哪些子集对无混叠时间样本AFS进行欠采样时(在框315处),可以考虑实际的雷达系统110。也就是说,例如,雷达系统110的天线元件115的实际数量可以用于选择用于引起在框315处(图3)的欠采样的子集的大小。通过使用与雷达系统110相匹配的欠采样来训练神经网络(在图3的框330处),实施神经网络(在图5的框530处)可以提供比训练未考虑实际雷达系统110时更好的结果。据参考图4详细描述的替代实施例,可以对用于选择雷达系统110的配置的候选配置执行欠采样。
图6示出了根据一个或多个实施例的范围率信息的欠采样以实现用于雷达系统110中的去混叠的深度学习。图6示出沿轴610的线性调频脉冲和沿轴620的时间样本。如示例性线性调频脉冲子阵列630指示,在框315处(图3)的欠采样可以包括使用所有时间样本,但仅来自线性调频脉冲的子集,以获得混叠时间样本AS。在图6所示的示例性情况下,使用了仅作为子阵列630的一部分的线性调频脉冲的所有时间样本。如图6指示,子阵列630不必是每隔一个或每第n个线性调频脉冲(尽管可能是),而是可以是线性调频脉冲的任何子阵列630,其导致范围率信息的欠采样(即多普勒混叠)。
图7示出了根据一个或多个实施例的范围信息的欠采样以实现用于雷达系统110中的去混叠的深度学习。图7示出了沿着轴610的线性调频脉冲和沿着轴620的时间样本。如示例性样本子阵列710指示,在框315处(图3)的欠采样可以包括仅使用来自每个线性调频脉冲的时间样本的子集,以获得混叠时间样本AS。如图7所示,子阵列710不需要是每隔一个时间样本或每第n个时间样本(尽管可能是)。子阵列710可以是时间样本的任何子集,其导致范围信息的欠采样(即范围混叠)。
图8示出了根据一个或多个实施例的角度信息的欠采样以实现用于雷达系统110中的去混叠的深度学习。在框310处(图3),用于获得无混叠雷达输出的示例性MIMO雷达系统(即明确雷达系统)的天线元件115的完整阵列在图8中表示为800。为了欠采样的目的,每个“1”表示使用的天线元件115,每个“0”表示未使用的天线元件115。在替代示例性实施例中,可以使用违反半波长规则的天线元件115的任何子集来执行角度信息的欠采样(即角度混叠)。
尽管已经参考示例性实施例描述了以上公开,但是本领域技术人员将理解,在不脱离其范围的情况下,可以进行各种改变并且可以用等同物代替其元件。另外,在不脱离本公开的实质范围的情况下,可以做出许多修改以使特定情况或材料适应本公开的教导。因此,意图是本公开不限于所公开的特定实施例,而是将包括落入其范围内的所有实施例。
Claims (10)
1.一种使用用于雷达系统中的去混叠的深度学习的方法,该方法包括:
从基于多个频率调制信号的第一雷达系统的发射的反射中获得未混叠时间样本,其中,该第一雷达系统包括多个发射元件和多个接收元件;
对未混叠时间样本进行欠采样以获得与模糊雷达系统的第一配置相对应的混叠时间样本;
在未混叠时间样本上实施匹配过滤器以获得未混叠数据立方体,并且在混叠时间样本上实施匹配滤波器以获得混叠数据立方体;
用第一神经网络处理混叠数据立方体,以获得去混叠数据立方体;
基于通过将未混叠数据立方体与去混叠数据立方体进行比较而获得的第一损失来训练第一神经网络,以获得训练的第一神经网络;
重复对未混叠时间样本进行欠采样,以获得与模糊雷达系统的第二配置相对应的第二混叠时间样本;
使用模糊雷达系统的第二配置来训练第二神经网络以获得训练的第二神经网络;
比较训练的第一神经网络和训练的第二神经网络的结果,以选择与模糊雷达系统的选定的配置相对应的选定的神经网络;以及
将选定的神经网络与具有模糊雷达系统的选定的配置的第二雷达系统一起使用,以检测一个或多个物体。
2.根据权利要求1所述的方法,还包括将所述第二雷达系统设置在车辆中。
3.根据权利要求1所述的方法,还包括使用所述非混叠数据立方体并且使用所述去混叠数据立方体来执行一个或多个物体的检测,其中,训练神经网络基于通过将使用未混叠数据立方体执行的检测结果与使用去混叠数据立方体执行的检测结果进行比较而获得的第二损失。
4.根据权利要求1所述的方法,还包括反演所述去混叠数据立方体,以获得去混叠时间样本,其中,训练神经网络基于通过将非混叠时间样本与去混叠时间样本进行比较而获得的第三损失。
5.根据权利要求1所述的方法,进一步包括从基于训练通用神经网络而评估的一组配置中选择所述第一配置和所述第二配置,其中,执行欠采样包括使用仅由多个频率调制信号的子集产生的所有未混叠时间样本,仅使用由所有多个频率调制信号产生的未混叠时间样本的子集,使用仅由第一雷达系统的多个发射元件或多个接收元件的子集产生的未混叠时间样本。
6.一种使用用于雷达系统中的去混叠的深度学习的系统,该系统包括:
第一雷达系统,其配置为从基于多个频率调制信号的发射的反射中获得未混叠时间样本,其中,该第一雷达系统包括多个发射元件和多个接收元件;
处理器,其配置为对未混叠时间样本进行欠采样以获得与模糊雷达系统的第一配置相对应的混叠时间样本,在未混叠时间样本上实施匹配过滤器以获得未混叠数据立方体并且在混叠时间样本上实施匹配滤波器以获得混叠数据立方体,用第一神经网络处理混叠数据立方体以获得去混叠数据立方体,基于通过将未混叠数据立方体与去混叠数据立方体进行比较而获得的第一损失来训练第一神经网络以获得训练的第一神经网络,重复对未混叠时间样本进行欠采样以获得与模糊雷达系统的第二配置相对应的第二混叠时间样本,使用模糊雷达系统的第二配置来训练第二神经网络以获得训练的第二神经网络,并且比较训练的第一神经网络和训练的第二神经网络的结果,以选择与模糊雷达系统的选定的配置相对应的选定的神经网络;以及
第二雷达系统,其根据模糊雷达系统的选定的配置进行配置,并且配置为使用神经网络以检测一个或多个物体。
7.根据权利要求6所述的系统,其中,所述第二雷达系统位于车辆中。
8.根据权利要求6所述的系统,其中,所述处理器还配置为使用所述非混叠数据立方体并且使用所述去混叠数据立方体来执行一个或多个物体的检测,并且基于通过将使用未混叠数据立方体执行的检测结果与使用去混叠数据立方体执行的检测结果进行比较而获得的第二损失来训练神经网络。
9.根据权利要求6所述的系统,其中,所述处理器还配置为反演所述去混叠数据立方体,以获得去混叠时间样本,并且基于通过将非混叠时间样本与去混叠时间样本进行比较而获得的第三损失来训练神经网络。
10.根据权利要求6所述的系统,其中,所述第一配置和所述第二配置选自用于训练通用神经网络的一组配置,并且所述处理器配置为通过使用仅由多个频率调制信号的子集产生的所有未混叠时间样本、仅使用由所有多个频率调制信号产生的未混叠时间样本的子集或使用仅由第一雷达系统的多个发射元件或多个接收元件的子集产生的未混叠时间样本来对未混叠时间样本进行欠采样。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/264,826 | 2019-02-01 | ||
US16/264,826 US11009591B2 (en) | 2019-02-01 | 2019-02-01 | Deep learning for de-aliasing and configuring a radar system |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111521998A true CN111521998A (zh) | 2020-08-11 |
CN111521998B CN111521998B (zh) | 2023-12-05 |
Family
ID=71615434
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010078258.9A Active CN111521998B (zh) | 2019-02-01 | 2020-02-03 | 用于去混叠和配置雷达系统的深度学习 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11009591B2 (zh) |
CN (1) | CN111521998B (zh) |
DE (1) | DE102020100287A1 (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11448748B2 (en) | 2020-09-10 | 2022-09-20 | Argo AI, LLC | Systems and methods for simultaneous range-rate unwrapping and outlier removal for radar |
DE102020213057A1 (de) * | 2020-10-15 | 2022-04-21 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zum Überprüfen eines beim teilautomatisierten oder vollautomatisierten Steuern eines Fahrzeugs verwendeten KI-basierten Informationsverarbeitungssystems |
US11662454B2 (en) * | 2020-11-02 | 2023-05-30 | Ford Global Technologies, Llc | Systems and methods for range-rate dealiasing using position consistency |
WO2022139783A1 (en) * | 2020-12-21 | 2022-06-30 | Intel Corporation | High end imaging radar |
WO2022187220A1 (en) * | 2021-03-02 | 2022-09-09 | Indie Semiconductor, Inc. | Methods for classifying objects in automotive-grade radar signals |
US20230018183A1 (en) * | 2021-07-15 | 2023-01-19 | Aptiv Technologies Limited | De-Aliased Imaging for a Synthetic Aperture Radar |
US20230266768A1 (en) * | 2022-02-24 | 2023-08-24 | Argo AI, LLC | Methods and Systems for Dealiasing Radar Range Rate Measurements Using Machine Learning |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5247303A (en) * | 1992-07-20 | 1993-09-21 | University Corporation For Atmospheric Research | Data quality and ambiguity resolution in a doppler radar system |
US5949367A (en) * | 1997-02-20 | 1999-09-07 | Alcatel Alsthom Compagnie Generale D'electricite | Device and method for classifying objects in an environmentally adaptive manner |
US20110012778A1 (en) * | 2008-12-10 | 2011-01-20 | U.S. Government As Represented By The Secretary Of The Army | Method and system for forming very low noise imagery using pixel classification |
CN102072965A (zh) * | 2009-10-28 | 2011-05-25 | Ssb风系统两合公司 | 使用叶片信号的风传感器系统 |
US20160019458A1 (en) * | 2014-07-16 | 2016-01-21 | Deep Learning Analytics, LLC | Systems and methods for recognizing objects in radar imagery |
US20160124086A1 (en) * | 2014-10-30 | 2016-05-05 | Nxp, B.V. | Radar ambiguity resolving detector |
US20170147888A1 (en) * | 2015-11-20 | 2017-05-25 | GM Global Technology Operations LLC | Stixel estimation methods and systems |
CN107004360A (zh) * | 2014-07-03 | 2017-08-01 | 通用汽车环球科技运作有限责任公司 | 车辆雷达方法和系统 |
US20180164422A1 (en) * | 2016-12-09 | 2018-06-14 | GM Global Technology Operations LLC | Doppler ambiguity resolution at high signal to noise ratio |
CN108886374A (zh) * | 2016-01-18 | 2018-11-23 | 唯亚威解决方案股份有限公司 | 用于检测蜂窝通信信号的失真或变形的方法和设备 |
CN108898052A (zh) * | 2018-05-23 | 2018-11-27 | 上海理工大学 | 遥感图像中人工地物的检测方法及设备 |
CN109270525A (zh) * | 2018-12-07 | 2019-01-25 | 电子科技大学 | 基于深度学习的穿墙雷达成像方法及系统 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6894639B1 (en) * | 1991-12-18 | 2005-05-17 | Raytheon Company | Generalized hebbian learning for principal component analysis and automatic target recognition, systems and method |
US7295154B2 (en) * | 2002-01-17 | 2007-11-13 | The Ohio State University | Vehicle obstacle warning radar |
US20200158822A1 (en) * | 2018-09-06 | 2020-05-21 | Airspace Systems, Inc. | Unmanned aerial vehicle radar detection |
US20210011151A1 (en) * | 2019-07-10 | 2021-01-14 | GM Global Technology Operations LLC | Radar range ambiguity resolution using multi-rate sampling |
-
2019
- 2019-02-01 US US16/264,826 patent/US11009591B2/en active Active
-
2020
- 2020-01-09 DE DE102020100287.4A patent/DE102020100287A1/de active Pending
- 2020-02-03 CN CN202010078258.9A patent/CN111521998B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5247303A (en) * | 1992-07-20 | 1993-09-21 | University Corporation For Atmospheric Research | Data quality and ambiguity resolution in a doppler radar system |
US5949367A (en) * | 1997-02-20 | 1999-09-07 | Alcatel Alsthom Compagnie Generale D'electricite | Device and method for classifying objects in an environmentally adaptive manner |
US20110012778A1 (en) * | 2008-12-10 | 2011-01-20 | U.S. Government As Represented By The Secretary Of The Army | Method and system for forming very low noise imagery using pixel classification |
CN102072965A (zh) * | 2009-10-28 | 2011-05-25 | Ssb风系统两合公司 | 使用叶片信号的风传感器系统 |
CN107004360A (zh) * | 2014-07-03 | 2017-08-01 | 通用汽车环球科技运作有限责任公司 | 车辆雷达方法和系统 |
US20160019458A1 (en) * | 2014-07-16 | 2016-01-21 | Deep Learning Analytics, LLC | Systems and methods for recognizing objects in radar imagery |
US20160124086A1 (en) * | 2014-10-30 | 2016-05-05 | Nxp, B.V. | Radar ambiguity resolving detector |
US20170147888A1 (en) * | 2015-11-20 | 2017-05-25 | GM Global Technology Operations LLC | Stixel estimation methods and systems |
CN108886374A (zh) * | 2016-01-18 | 2018-11-23 | 唯亚威解决方案股份有限公司 | 用于检测蜂窝通信信号的失真或变形的方法和设备 |
US20180164422A1 (en) * | 2016-12-09 | 2018-06-14 | GM Global Technology Operations LLC | Doppler ambiguity resolution at high signal to noise ratio |
CN108898052A (zh) * | 2018-05-23 | 2018-11-27 | 上海理工大学 | 遥感图像中人工地物的检测方法及设备 |
CN109270525A (zh) * | 2018-12-07 | 2019-01-25 | 电子科技大学 | 基于深度学习的穿墙雷达成像方法及系统 |
Non-Patent Citations (2)
Title |
---|
张军英;梁军利;保铮;: "强混叠模式下基于神经元捕获/抑制原理的分类器设计" * |
王星;周一鹏;周东青;陈忠辉;田元荣;: "基于深度置信网络和双谱对角切片的低截获概率雷达信号识别" * |
Also Published As
Publication number | Publication date |
---|---|
US11009591B2 (en) | 2021-05-18 |
US20200249315A1 (en) | 2020-08-06 |
DE102020100287A1 (de) | 2020-08-06 |
CN111521998B (zh) | 2023-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111521998B (zh) | 用于去混叠和配置雷达系统的深度学习 | |
CN111521989B (zh) | 用于雷达系统中的超分辨率的深度学习 | |
Ender | A brief review of compressive sensing applied to radar | |
US11506776B2 (en) | Method and device with improved radar resolution | |
US10830869B2 (en) | Vehicle radar system and method of calibrating the same | |
JP6384018B2 (ja) | 車載用レーダ装置 | |
CN113534065B (zh) | 一种雷达目标微动特征提取与智能分类方法及系统 | |
EP3561539B1 (en) | Angular resolution of targets using separate radar receivers | |
CN112241003A (zh) | 用于对象检测的方法和系统 | |
KR20200071289A (ko) | Fmcw 레이다의 신호를 활용하여 표적의 형상을 추정하는 장치 및 그 방법 | |
CN106662644B (zh) | 用于检测至少一个对象相对于接收信号的接收器的速度和距离的方法及装置 | |
CN107923967B (zh) | 处理从目标反射的接收辐射 | |
CN104360346A (zh) | 合成带宽雷达高分辨成像方法 | |
Omelchuk et al. | Multichannel target speed estimation by a colocated Doppler-pulse MIMO radar | |
CN113608193A (zh) | 一种基于UNet的雷达多目标距离和速度估计方法 | |
Holder et al. | Modeling and simulation of radar sensor artifacts for virtual testing of autonomous driving | |
CN110832341B (zh) | 车速计算方法、系统、设备及存储介质 | |
US20240094377A1 (en) | High resolution radar simulation to train vehicle radar system neural network | |
KR20210114199A (ko) | 딥러닝 기반 레이다 목표물 식별 방법 및 장치 | |
Abratkiewicz et al. | Target acceleration estimation in active and passive radars | |
US20200033467A1 (en) | Method of measuring azimuth of radar target | |
CN110907930A (zh) | 一种基于角度估计的车载雷达目标检测估计方法及装置 | |
Lei et al. | Channel error compensation for multi-channel SAR based on cost function | |
CN113514830B (zh) | 合成孔径雷达成像方法及系统 | |
Nielsen et al. | Integrated detection and tracking via closed-loop radar with spatial-domain matched illumination |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |