CN115951320A - 使用一个或多个时间序列的基于雷达的运动分类 - Google Patents

使用一个或多个时间序列的基于雷达的运动分类 Download PDF

Info

Publication number
CN115951320A
CN115951320A CN202211216809.9A CN202211216809A CN115951320A CN 115951320 A CN115951320 A CN 115951320A CN 202211216809 A CN202211216809 A CN 202211216809A CN 115951320 A CN115951320 A CN 115951320A
Authority
CN
China
Prior art keywords
complex
time series
computer
valued
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211216809.9A
Other languages
English (en)
Inventor
T·施塔德尔迈尔
A·桑特拉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Infineon Technologies AG
Original Assignee
Infineon Technologies AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Infineon Technologies AG filed Critical Infineon Technologies AG
Publication of CN115951320A publication Critical patent/CN115951320A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/08Systems for measuring distance only
    • G01S13/32Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S13/34Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S13/583Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of continuous unmodulated waves, amplitude-, frequency-, or phase-modulated waves and based upon the Doppler effect resulting from movement of targets
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/70Radar-tracking systems; Analogous systems for range tracking only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/021Auxiliary means for detecting or identifying radar signals or the like, e.g. radar jamming signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/88Image or video recognition using optical means, e.g. reference filters, holographic masks, frequency domain filters or spatial domain filters
    • G06V10/89Image or video recognition using optical means, e.g. reference filters, holographic masks, frequency domain filters or spatial domain filters using frequency domain filters, e.g. Fourier masks implemented on spatial light modulators
    • G06V10/893Image or video recognition using optical means, e.g. reference filters, holographic masks, frequency domain filters or spatial domain filters using frequency domain filters, e.g. Fourier masks implemented on spatial light modulators characterised by the kind of filter
    • G06V10/895Image or video recognition using optical means, e.g. reference filters, holographic masks, frequency domain filters or spatial domain filters using frequency domain filters, e.g. Fourier masks implemented on spatial light modulators characterised by the kind of filter the filter being related to phase processing, e.g. phase-only filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本公开的实施例涉及使用一个或多更多个时间序列的基于雷达的运动分类。公开了基于从雷达测量中获取的一个或多个一维时间序列来促进运动分类(例如,姿态分类)的技术。

Description

使用一个或多个时间序列的基于雷达的运动分类
技术领域
本公开的各种示例广泛地涉及基于雷达测量来识别诸如姿态的运动。
背景技术
可以通过姿态分类(有时也被称为姿态识别)来促进人机交互(HMI)。例如,手部或手指姿态可以被识别和分类。姿态分类可应用于智能手机、手语界面、汽车信息娱乐系统、增强现实-虚拟现实系统和智能电器。此外,姿态分类可以促进用于公共场所处的自动售货机和售票机的HMI。
传统上,姿态分类基于相机图像。参见例如,S.Rautaray and A.Agrawal.2015.基于视觉的人机交互手势分类研究综述Vision based hand gesture classification forhuman computer interaction:a survey.Artificial Intelligence Review 43,1(2015),1–54.https://doi.org/10.1007/s10462-012-9356-9。
然而,基于相机的姿态分类存在以下问题:需要适当的照明条件、衣服遮挡、相机镜头开口处的遮挡以及侵犯隐私的特征。
由于雷达测量不受许多此类限制(例如不适当的闪电和隐私问题)的影响或者至少没有受到严重影响,因此基于雷达的姿态分类提供了有吸引力的备选方案。此外,解决方案的制程和存储器针脚可以相对较薄,使得其有利于嵌入式实现。
已经观察到的是,使用已知技术的、基于雷达测量的这样的姿态识别有时会表现出有限的准确性(例如,在识别率方面)和/或缓慢的反应时间。
发明内容
因此,需要基于雷达测量的姿态分类或其他运动分类的先进技术。具体地,需要使用雷达测量在低反应时间内具有高精度的姿态识别。
该需要通过独立权利要求的特征来满足。从属权利要求的特征限定了实施例。
计算机实现的方法包括:获取场景的雷达测量的测量帧的时间序列。场景包括对象。方法还包括基于多个后续测量帧,确定雷达测量的相应可观察量的一个或多个一维时间序列。可观察量与对象相关联。方法还包括,基于一个或多个一维时间序列,确定由对象使用分类算法执行的运动的运动类别。
计算机程序或计算机程序产品或计算机可读存储介质包括程序代码。程序代码可以由至少一个处理器加载和执行。在加载和执行程序代码时,至少一个处理器执行方法。方法包括获取场景的雷达测量的测量帧的时间序列。场景包括对象。方法还包括基于多个后续测量帧,确定雷达测量的相应可观察量的一个或多个一维时间序列。可观察量与对象相关联。方法进一步包括,基于一个或多个一维时间序列,确定由对象使用分类算法执行的运动的运动类别。
设备包括处理器。处理器被配置为获取包括对象的场景的雷达测量的测量帧的时间序列。处理器还被配置为确定与对象相关联的雷达测量的相应可观察量的一个或多个一维时间序列。处理器还被配置为基于一个或多个一维时间序列,使用分类算法来确定由对象执行的运动的运动类别。
提供了训练卷积神经网络的计算机实现的方法,用于基于包括对象的场景的雷达测量的测量帧的时间序列来预测对象执行的运动的姿态类。卷积神经网络算法包括确定输入样本向量与多个候选运动类别中的每一个的类权重之间的欧几里德距离的输出层。方法包括获取多个训练集。每个训练集包括测量帧的相应时间序列和相关联的真实标签。真实标签指示从多个候选运动类别中选择的相应候选运动类别。方法进一步包括:基于第一损失和第二损失来训练卷积神经网络算法,第一损失惩罚与相应候选运动类别的类权重的欧几里德距离并且由真实标签来指示;第二损失奖励与其他候选运动类别的类权重的欧几里德距离并且未由真实标签指示。
计算机程序或计算机程序产品或计算机可读存储介质包括程序代码。程序代码可以由至少一个处理器加载和执行。在加载和执行程序代码时,提供了至少一个处理器执行训练卷积神经网络的方法,卷积神经网络用于基于包括对象的场景的雷达测量的测量帧的时间序列来预测对象执行的运动的姿态类。卷积神经网络算法包括确定输入样本向量与多个候选运动类别中的每一个的类权重之间的欧几里德距离的输出层。该方法包括获取多个训练集。每个训练集包括测量帧的相应时间序列和相关联的真实标签。真实标签指示从多个候选运动类别中选择的相应候选运动类别。该方法还包括:基于第一损失和第二损失来训练卷积神经网络算法,第一损失惩罚与相应候选运动类别的类权重的欧几里德距离并且由真实标签来指示;第二损失奖励与其他候选运动类别的类权重的欧几里德距离并且未由真实标签指示。
设备包括处理器。处理器被配置用于训练卷积神经网络,卷积神经网络用于基于包括对象的场景的雷达测量的测量帧的时间序列来预测对象执行的运动的姿态类。卷积神经网络算法包括确定输入样本向量与多个候选运动类别中的每一个的类权重之间的欧几里德距离的输出层。处理器被配置为获取多个训练集。每个训练集包括测量帧的相应时间序列和相关联的真实标签。真实标签指示从多个候选运动类别中选择的相应候选运动类别。计算机还被配置为基于第一损失和第二损失来训练卷积神经网络算法,第一损失惩罚与相应候选运动类别的类权重的欧几里德距离并且由真实标签来指示;第二损失奖励与其他候选运动类别的类权重的欧几里德距离并且未由真实标签指示。
将理解的是,在不脱离本发明的范围的情况下,上述特征和下文将要解释的特征不仅可以以所指出的相应组合使用,而且可以以其他组合或单独使用。
附图说明
图1示意性地图示了根据各种示例的包括雷达传感器和处理设备的系统。
图2更详细地示意性地图示了根据各种示例的图1的雷达传感器。
图3示意性地图示了根据各种示例的多个姿态和相关联的姿态类。
图4示意性地图示了根据各种示例的用于运动分类的处理管线。
图5图示了根据各种示例的从雷达测量帧获取的一维(1-D)时间序列的多个示例。
图6示意性地图示了根据各种示例的方法的流程图。
图7示意性地图示了根据各种示例的用于运动分类的自动编码器神经网络算法的细节。
图8示意性地图示了根据各种示例的包括雷达测量数据的数据样本的测量帧。
图9是根据各种示例的方法的流程图。
图10是根据各种示例的用于使用低通滤波器来确定1-D时间序列的示例处理管线。
图11是根据各种示例的用于自适应地设置低通滤波器的示例处理管线。
图12示意性地图示了根据各种示例的1-D和2-D滤波。
图13示意性地图示了根据各种示例的2-D卷积。
图14示意性地图示了根据各种示例的2-D卷积。
具体实施方式
本公开的一些示例通常提供多个电路或其他电气设备。对电路和其他电气设备的所有引用以及由每个设备提供的功能并不旨在限于仅涵盖本文中所图示和描述的内容。尽管特定标签可以被分配给所公开的各种电路或其他电气设备,但这样的标签并非旨在限制电路和其他电气设备的操作范围。这样的电路和其他电气设备可以基于期望的特定类型的电气实现方式、以任何方式彼此组合和/或分离。应当认识到的是,本文所公开的任何电路或其他电气设备可以包括任何数量的微控制器、图形处理器单元(GPU)、集成电路、存储器设备(例如,闪存、随机存取存储器(RAM)、只读存储器(ROM)、电可编程只读存储器(EPROM)、电可擦除可编程只读存储器(EEPROM)或其其他合适的变型)以及相互协作以执行本文所公开的操作的软件。另外,任何一个或多个电气设备可以被配置为执行被编程为执行所公开的任何数量的功能的非暂时性计算机可读介质中体现的程序代码。
在下文中,将参考附图来详细描述本公开的示例。将理解的是,以下对示例的描述不应被理解为限制性的。本公开的范围不旨在由仅被认为是例示性的在下文中描述的示例或附图来限制。
附图应被视为示意性表示,并且附图中所示的元件不一定按比例示出。相反,各种元件被表示为使得它们的功能和总体目的对于本领域技术人员来说变得明显。附图中所示或本文描述的功能块、设备、组件或其他物理或功能单元之间的任何连接或耦合也可以通过间接连接或耦合来实现。组件之间的耦合也可以通过无线连接建立。功能块可以以硬件、固件、软件或其组合来实现。
本公开的各种示例一般涉及运动分类。所公开的技术可以被用于对各种类型的运动进行识别和分类。
例如,能够确定由对象执行的姿态的姿态类。具体地,使用本文描述的技术,手部姿态或手指姿态或使用手持对象执行的姿态可以被识别。这样的对象可以在自由空间中执行姿态。即,姿态可以由对象的3-D运动(例如,沿着轨迹和/或包括自旋转)来定义。还能够识别其他种类和类型的姿态,例如,身体姿势姿态或面部表情姿态。
可以设想各种姿态类。用于姿态分类的姿态集的特定选择与本文描述的技术的功能没有密切关系。尽管如此,在下文中,将针对可能的姿态类给出一些示例:
(1) 从左向右滑动
(2) 从右向左滑动
(3) 从上到下滑动
(4) 从下到上滑动
(5) 顺时针转圈
(6) 逆时针转圈
(7) 从后向前滑动
(8) 从前向后滑动
(9) 手指摆动-摆动单个手指
(10) 手指摩擦-拇指在手指之上滑动
表1:可以在相应的预定义集中使用来实现姿态分类的各种姿态类的示例。这些姿态类限定了可以被识别的姿态。将结合图3来解释关于这样的姿态类的进一步细节。
运动分类的其他示例将与踢腿运动分类有关。智能后备箱开启器(STO)是在无需使用钥匙的情况下,自动和免提打开和关闭后备箱或车门的概念。用户使用脚来执行踢开动作。STO通过对用户的手部移动或踢腿动作进行识别和分类,为用户提供灵活的方法,并传输授权用户打开或关闭后备箱或车门的意图。
另一示例与门把手控制器有关。此处,当在门把手附近运动时,门把手从缩回位置移动到其中它可以被致动的暴露位置。
详细地,运动分类可以被用于预测运动的运动类别,例如,姿态。例如,可以存在预定义的运动集。然后,一旦这样的对象执行了运动,就可以判断该运动是否是运动类别之一的一部分。为此,可以判断运动的某些特征是否与运动类别相关联的相应特征范围匹配。
在一些示例中,可选地,能够确定运动不是任何一姿态类的一部分,而是,例如,它是尚未定义的运动类别的一部分或与不像姿态的一般对象移动对应。即,可以标识新的运动类别。
基于运动分类,可以促进各种应用。例如,可以实现HMI。能够控制机器。例如,不同的指令可以根据所识别的姿态的运动类别而触发。HMI可以方便用户对机器的控制。作为一般规则,在本文中描述的技术不限于HMI的特定使用案例。示例使用案例包括:运动控制的可穿戴和移动设备、运动控制的智能电视、投影仪、姿态控制的智能家居和智能设备、汽车信息娱乐系统、增强现实-虚拟现实(AR-VR)、反馈系统。运动分类可以替代并减轻对HMI所需的触摸和点击需求。
在下文中,为了简单的目的,将主要参考姿态分类;然而,类似的技术可以很容易地应用于其他类型的运动,例如,STO使用案例。
本文所公开的各种技术采用包括对象的场景(例如,手部或手指或诸如触控笔或信标的手持对象)的雷达测量来获取在其可以实现基于姿态分类的数据。例如,可以实现短程雷达测量。此处,雷达啁啾可以在具有几十厘米或米距离的场景中被用于测量一个或多个对象的位置。
根据本文所公开的各种示例,毫米波雷达传感器可以被用于执行雷达测量;雷达传感器作为包括毫米波雷达传感器电路、一个或多个发射器以及一个或多个接收器的调频连续波(FMCW)雷达操作。毫米波雷达传感器可以发射并接收20GHz至122GHz范围内的信号。备选地,也可以使用该范围之外的频率(诸如1GHz和20GHz之间的频率),或者122GHz和300GHz之间的频率。
雷达传感器可以向场景发射多个雷达脉冲(诸如啁啾)。这指的是脉冲操作。在一些实施例中,啁啾是线性啁啾(即,啁啾的瞬时频率随时间线性变化)。
多普勒频移可以被用于确定目标的速度。因此,通过雷达传感器提供的测量数据可以指示场景的多个对象的深度位置。还能够指示速度。
雷达传感器可以输出测量帧。作为一般规则,测量帧(有时也被称为数据帧或物理帧)包括多个雷达脉冲(具体地,啁啾)在特定采样时间内的数据样本。慢时间从啁啾到啁啾递增;快时间针对后续样本递增。可以使用对不同天线寻址的信道维度。雷达传感器输出测量帧的时间序列。
与基于相机的姿态分类相比,基于雷达测量的姿态分类可以具有一些优势,诸如:不受照明条件的影响;手部可见性遮挡;保护隐私;能够捕捉细微的姿态运动。
根据各种示例,可以使用用于确定姿态类(或更一般地,运动类别)的不同种类和类型的分类算法。例如,可以使用手动参数化的基于启发式的分类算法。还能够采用机器学习(ML)算法来预测由对象执行的姿态的姿态类。
ML算法的示例实现方式是神经网络算法(在下文中,简称为神经网络NN)。NN大体上包括可以布置在多个层中的多个节点。给定层的节点与后续层的一个或多个节点连接。非相邻层之间的跳过连接也是可能的。通常,连接也被称为边。每个节点的输出可以基于连接到输入的一个或多个节点中的每一个的值来计算。非线性计算是可能的。不同的层可以执行不同的变换,诸如以池化、最大池化、加权或未加权求和、非线性激活、卷积等为例。NN可以包括布置在输入层与输出层之间的多个隐藏层。示例NN是卷积NN(CNN)。此处,1-D或2-D卷积层与其他层一起使用。
对于分类,可以在输出处使用Softmax分类层。此处,使用了softmax函数,并且通常在训练期间使用交叉熵损失。
由节点执行的计算通过与节点相关联的相应权重来设定。权重可以在NN的训练中确定。为此,数值优化可以被用来设定权重。可以在当前训练中的NN的输出之间定义损失函数,然后可以使损失函数最小化。为此,可以采用从NN的后到前调整权重的梯度下降技术。
可以分别由一个或多个编码器分支以及一个或多个解码器分支来实现空间收缩和空间扩展。即,输入数据和输出数据的x-y分辨率可以沿着一个或多个编码器分支(解码器分支)逐层减小(增大)。编码器分支提供输入数据的收缩,而解码器分支提供扩展。
同时,特征通道可以分别沿着一个或多个编码器分支以及一个或多个解码器分支增大和减少。一个或多个编码器分支以及一个或多个解码器分支经由瓶颈连接。
NN的一个特定实现方式是自动编码器NN(AENN)。AENN作为一般规则包括顺序地布置并且经由瓶颈连接的编码器分支和解码器分支。远离输入层和输出层(特别是在瓶颈处)获取潜在特征表示(特征嵌入)。
特征嵌入可以指定某些特征的存在或不存在。因此,特征嵌入可以被看作是输入的压缩形式。
对于AENN,基于特征嵌入,使用解码器分支,目的是重建输入。因此,损失函数可以在AENN训练期间定义,以惩罚输入和输出之间的差。因此,能够使用无监督学习来训练AENN。
根据各种示例,分类算法基于与对象相关联的雷达测量的相应可观察量的一个或一维(1-D)时间序列来确定姿态的姿态类。
例如,一个或多个1-D时间序列可以作为分类算法的输入,或者还可以预处理然后作为分类算法的输入。
每个1-D时间序列可以指定雷达测量的相应可观察量的时间演变。可观察量可以被量化为实数值。例如,能够考虑以下一个或多个可观察量:距离;绝对信号电平;仰角;方位角。
同时,这样的1-D时间序列与雷达测量数据的紧凑表示对应。例如,常规的预处理基于整个距离多普勒域中的信息,用于近距离姿态识别的整个距离多普勒域包括在更大距离或更高多普勒频移处的大部分不相关的信息。因此,通过使用一个或多个1-D时间序列,有助于基于低维输入数据操作的紧凑姿态分类算法。
这样的姿态分类可以是计算轻量级的,并且因此可以在嵌入式设备(例如,智能手机或智能手表)上执行。尽管如此,姿态分类的反应时间可能相对较低,例如,在亚秒级。已观察到高识别率。
根据示例,雷达测量的测量帧的时间序列可以被预处理,以获取雷达测量的可观察量的一个或多个1-D时间序列。
具体地,在某些场景中,能够对多个后续测量帧进行预处理来获取一个或多个1-D时间序列。这意味着一个或多个1-D时间序列中的每一个的持续时间可以长于每个单独测量帧的持续时间。通常,由雷达传感器输出的测量帧的物理帧持续时间约为数十毫秒(例如,通常的重复率为30Hz),这比要被分类的姿态的通常持续时间(通常约为数百毫秒甚至秒)短得多。因此,来自多个后续测量帧的信息可以被融合到一个或多个1-D时间序列中,以能够使用分类算法在姿态的整个持续时间内连贯地处理一个或多个可观察量的相应时间演变。
因为可以连贯地处理整个姿态持续时间,所以将多个后续测量帧的雷达数据融合到一个或多个1-D时间序列中允许准确的姿态分类。
存在可用于确定一个或多个1-D时间序列的各种选项。例如,能够沿着快时间维度对每个测量帧的雷达测量数据执行傅里叶变换(FT),以获取距离多普勒图像(RDI)。
详细地,从模数转换器(ADC)输出的原始数据的预处理可以包括将测量帧的二维(2-D)FT结构化为快时间维度、慢时间维度和天线通道。2-D FT可以沿着快时间维度和慢时间维度。这产生RDI。然后,能够提取距离信息(例如,对于RDI中的最强峰值),考虑执行姿态的对象提供最高信号电平。针对最强峰值的绝对信号电平也可以被提取。例如,具有最高绝对值的距离仓索引和具有最高绝对值的多普勒仓索引可以被提取。备选地,在最高绝对值附近的某个区域内,质心可以被确定。质心是2-D的,并且一个维度的值对应于距离值,另一维度的值对应于多普勒值。
可以使用波束成形算法,例如,2-D CAPON。2-D CAPON还返回与RDI类似的2-D矩阵。在那里可以应用相同的提取。使用最高绝对值或质心的索引。
当使用具有最高绝对值的仓索引时,能够获取整数值,而质心技术提供浮点数,并且因此更准确。
用于确定1-D时间序列的另一选项基于复值带通滤波器(BPF)。例如,BPF可以通过低通滤波器来实现。BPF可以具有线性相位响应。BPF可以应用于沿着快时间维度的多个后续测量帧中的每一个的数据样本。BPF为测量帧输出复值信号。这些复值信号然后可以被用来确定1-D时间序列。
这样的技术基于以下发现:对于近场姿态感测,可以有效地假设视场中只有一个目标并且视场被限制在某一距离(例如,30厘米)内。
因此,可能不需要精细的距离分辨率(例如,基于RDI),这会带来很高的计算复杂度。相反,BPF可以应用于快时间维度。
这有两个积极的影响。首先,BPF作为视场的限制,这意味着感兴趣区域之外的所有运动被混合掉。其次,信号被变换为允许访问相位信息的复杂域。不需要计算代价高的FT。不需要RDI分析。这进一步减少了计算负担,因此有利于缩短反应时间。
图1示意性地图示了系统65。系统65包括雷达传感器70和处理设备60。处理设备60可以从雷达传感器70获取测量数据64。例如,处理设备可以是嵌入式设备、智能手机、智能手表等。
处理器62(例如,通用处理器(中央处理单元CPU)、现场可编程门阵列(FPGA)、专用集成电路(ASIC))可以经由接口61来接收测量数据64并处理测量数据64。例如,测量数据64可以包括测量帧的时间序列,每个测量帧包括ADC转换器的样本。
处理器62可以从存储器63加载程序代码并执行程序代码。处理器62然后可以执行如本文所公开的技术,例如,预处理测量数据64、基于测量数据64预测运动类别(例如,姿态类)、控制HMI等。
关于这样的处理的细节将在下文中更详细地解释;然而,首先将解释关于雷达传感器70的细节。
图2图示了关于雷达传感器70的方面。雷达传感器70包括与存储器73耦接的处理器72(被标记为数字信号处理器DSP)。基于存储在存储器73中的程序代码,处理器72可以执行与使用发射天线77和数模转换器(DAC)75来发射雷达脉冲86有关的各种功能。一旦雷达脉冲86已经被场景80反射,相应的反射雷达脉冲87就可以使用ADC 76和多个接收天线78-1、78-2、78-3被处理器72检测(例如,以具有一半波长距离的L形顺序;见图2的插图,使得在不同的天线对之间的相位差分别处理方位角和仰角)。处理器72可以更大或更小程度地处理从ADC 76获取的原始数据样本。例如,测量帧(有时也被称为数据帧或物理帧)可以被确定并输出。
雷达测量可以被实现为基本的调频连续波(FMCW)原理。频率啁啾可以被用来实现雷达脉冲86。啁啾的频率可以在57GHz至64GHz的频率范围之间调整。所发射的信号是反向散射的,并且具有与通过所有三个接收天线捕获的反射对象的距离对应的时间延迟。所接收的信号然后与所发射的信号混合,然后被低通滤波来获取中间信号。该信号的频率显著低于所发射的信号,因此ADC 76的采样率可以相应降低。ADC可以在2MHz的采样频率和12位精度下工作。
如所图示的,场景80包括多个对象81至83。例如,对象81、82可以与背景对应,而对象83可以属于用户的手部,因此,对象83可以被称为目标或目标对象。基于雷达测量,由手部执行的姿态可以被识别。一些姿态在图3中被图示。
图3示意性地图示了这样的姿态501至510以及姿态类520的对应标签115,但是其他姿态也是可能的。根据本文所述的技术,能够可靠且准确地对姿态501至510进行分类。关于这样的姿态分类的细节将结合图4进行解释。
图4示意性地图示了用于实现姿态分类的处理管线。例如,这样的处理可以通过处理器62在从存储器63加载程序代码时实现。
如图4中所示,分类算法111获取与执行运动的目标对象相关联的雷达测量的相应可观察量的多个1-D时间序列101至104。然后,基于多个1-D时间序列101至104,分类算法111确定由对象执行的运动的运动类别。相应的标签115被输出。
作为一般规则,存在用于实现分类算法111的多种选项。以下在表2中总结了一些示例。
Figure BDA0003876489880000121
Figure BDA0003876489880000131
Figure BDA0003876489880000141
表2:用于实现ML分类算法的各种选项。原则上,可以组合多个不同类型的ML分类算法来获得备选预测。
然而,在图4中,图示了四个1-D时间序列101至104的计数(例如,距离、绝对信号、方位角、仰角),作为一般规则,更少或更多或其他1-D时间序列可以被用作分类算法111的输入。
图5示意性地图示了关于1-D时间序列101的方面。时间序列101指示对象的距离251。如图5中所示,对象的距离251在姿态持续时间250期间改变。测量帧序列45在姿态持续期间从雷达单元获取并且被融合到1-D时间序列251中。
图5还示意性地图示了关于1-D时间序列102的方面。时间序列102指示与对象相关联的信号贡献的信号振幅252。例如,信号振幅252大体上与对象的距离251以及对象的雷达截面相关。
图5进一步示意性地图示了关于1-D时间序列103的方面。时间序列103指示对象的仰角253。
图5还进一步示意性地图示了关于1-D时间序列104的方面。时间序列104指示对象的方位角254。
图6是根据各种示例的方法的流程图。方法可以由至少一个处理器(例如,在从存储器加载程序代码时)执行。例如,图6的方法可以通过处理器72和/或处理器62来执行(参见图1和图2)。图6的方法涉及分类算法111的操作和维护。
在框3005处,分类算法111的训练被实现。此处,分类算法111的多个参数的值被设定。
例如,对于ML分类算法111(见表2),可以使用ML技术。此处,获取多个训练集,每个训练集包括测量帧的相应时间序列和相关联的真实标签,真实标签指示从多个候选运动类别中选择的相应候选运动类别。即,真实标签指示对象在相应训练集的雷达测量数据中执行的运动的运动类别。真实标签可以基于先前知识来手动确定。
训练可以基于由相应损失函数定义的一个或多个损失。每个损失可以与损失函数的相应贡献对应。每个损失可以基于NN在其当前训练状态下的预测与对应的基本事实之间的差异来确定。例如,对于AENN,基本事实可以从真实标签或训练输入中获取。不同的损失使用不同的指标来量化这样的差异并且/或者使用不同的预测和/或输入。
迭代优化可以被实现。此处,多个集可以被用来调整多次迭代中的权重。每次迭代可以包括反向传播训练算法,以从NN的输出层开始朝向输入层调整权重。
存在可用于实现损失函数的各种选项。特定的训练过程和损失函数可以与NN(参见表2)的选择相关。
例如,对于表2:示例I,交叉熵损失可以像常规的softmax激活一样使用。
对于表2,示例II,将使用如以下等式(4)中所定义的所谓的正交中心损失。下面解释关于正交中心损失的细节。
在训练期间,目标是将与自己的类中心mp的平方欧几里德距离最小化(见等式(1))并且将与所有其他或负类中心mn的欧几里德距离最大化(见等式(2))。
即,根据等式1的第一损失将欧几里德距离惩罚到由真实标签指示的相应候选运动类别的类权重(较高的奖励针对较小的欧几里德距离);而根据等式2的第二损失将欧几里德距离(较高的奖励针对较大距离)奖励给该真实标签未指示的其他候选运动类别的类权重。
事实如此,这样的解开的类内和类间损失导致比仅将类内得分(例如,对于交叉熵损失)最大化更具区分性的类簇。另外,类中心以彼此正交的方式进行了正则化。这如(3)中定义的那样来实现,其中计算了向量归一化和均方矩阵M和单位矩阵I的均方误差。这导致由类中心向量跨越的正交信号子空间。正交性是可以被用于检测和拒绝非姿态运动或更普遍地说出分布样本的有价值的特性。
Figure BDA0003876489880000161
Figure BDA0003876489880000162
R=MSE(I-MMT)  (3)
L=α0Lintra+a1Linter+a2R  (4)
接下来,对于表2,示例IV,可以使用三元组损失。三元组损失是指标学习技术,指标学习技术将同一类的特征空间样本集中在一起并在特征空间中将不同的样本(即,属于不同类的样本)推开。因此,定义明确的簇在特征空间中形成,并且可以被用作将其与预测中的特征嵌入的特征位置进行比较的预定义区域。例如,为了确定预定义区域,可以确定针对每个类的所有训练样本的平均嵌入向量。预定义区域可以以平均嵌入向量为中心。
三元组损失大体从Ge,W.Huang,D.Dong,and M.R.Scott.2018.Deep MetricLearning with Hierarchical Triplet Loss.CoRR abs/1810.06951(2018).arXiv:1810.06951中已知。三元组损失的思想是将三个样本(即,1-D时间序列的三个训练集101至104)馈送到AENN 111中。第一训练集109是锚点,第二训练集109是相同的姿态类的随机样本,第三训练集109是另一姿态类的随机样本。
锚点样本与正样本或负样本之间的距离被定义为:
d(x1,x2)=(x1-x2)T(x1-x2)  (5)
其中x1是锚点,并且x2是正样本或负样本。
三元组损失(基于等式5)被定义为:
Ltriplet=max(d(xa,xp)-d(xa,xn)+α,0)  (6)
其中xa定义锚点样本,xp是正样本,xn是负样本。α是超参数。因此,三元组损失评估了锚点、正和负的单个嵌入式特征向量之间的距离。
一旦框3005的训练完成,就可以在框3010处实现推断。此处,场景姿态的姿态类的预测可以在不依赖对应的基本事实的情况下进行。使用在框3005的训练中确定的NN的权重。
基于框3010处的推断,能够实现一个或多个应用。例如,能够控制HMI。机器可以使用HMI来控制。
图7示意性地图示了关于将分类算法111实现为AENN的方面。如图7中所示,AENN包括编码器分支141和解码器分支142。解码器分支142对表示作为输入提供到编码器分支141的1-D时间序列101至104的潜在特征的特征嵌入149进行操作。
作为一般规则,在框3010处(参见图5)的推断期间可能不需要解码器分支142,而是仅在框3005处的训练期间需要解码器分支142来计算相应的重构损失。解码器分支142输出位置时间谱图101至104的重构181至184。
姿态类520基于特征嵌入149来预测。标识姿态类520的标签115(例如,“L-R滑动”)因此从特征嵌入149中提取。这将在接下来详细解释。
详细地,对于多个1-D时间序列集101至104中的每一个,能确定潜在特征空间200中的相应数据点201至204。即,每个数据点201至204描述相应姿态的相应观察。这些数据点201至204等同于或更一般地从相应的特征嵌入149导出。
然后,可以在特征空间200中定义预定义区域211至213,并且可以检查数据点201至204是否在这些预定义区域211至213之一内。
这些预定义区域211至213可以(例如,使用如以上在框3010中解释的三元组损失)从AENN的训练中获取。它们可以由给定姿态类的所有训练集的类平均值来定义。
也如图6中所示是其中多个数据点204形成从预定义区域211至213中的任何一个偏移的簇214的场景。能够使用这样的簇214来定义新的姿态类。
图8示意性地图示了关于测量数据64的方面。图8示意性地图示了测量帧45形式的原始数据的结构。
通常地,测量帧45通过相对于快时间维度42和慢时间维度41布置从ADC(如结合图2解释的)获取原始数据的数据样本49来定义(图9是示意性例示图;ADC不是对所接收的信号直接进行采样,而是对通过将发射信号与接收信号混合而获取的经处理的信号进行采样;这一般被称为调频连续波FMCW雷达测量)。对于来自ADC的每个后续读数,沿着快时间维度42的位置递增(这在图9中的圆形插图中图示),而沿着慢时间维度41的位置相对于后续雷达啁啾48递增。可以存在作为天线或通道维度43(图9中未图示)的附加维度,附加维度基于相邻天线之间的入射电磁波的相移提供角分辨率。例如,在图2中,已讨论了具有三个接收通道的示例。
测量帧45的持续时间通常由测量协议来定义。例如,测量协议可以被配置为在测量帧45内使用32个啁啾。啁啾重复时间被设定为TPRT=0.39ms,这导致最大分辨多普勒速度vmax=3.25ms-1。啁啾的频率范围可以从fmin=58GHz至fmax=63GHz,并且因此覆盖了B=5GHz的带宽。因此,距离分辨率为Δr=3.0cm。每个啁啾以2MHz的采样频率采样64次,导致总可观察距离为Rmax=0.96m。通常地,帧重复频率可以被设定为每秒30帧。
图9是根据各种示例的方法的流程图。图9的方法可以由诸如图1中所示的系统65的处理设备60的处理设备来执行。例如,该方法可以由处理器62在从存储器63加载并执行程序代码时执行。
图9图示了关于推断的方面。即,图9可以实现框3010。图9因此与确定运动类别对应,或更准确地,与没有基本事实的运动类别的预测对应。
在框3105处,获取包括对象的场景的雷达测量的测量帧的时间序列。例如,时间序列可以从雷达单元(例如,从与ADC耦接的数字信号处理器)获取。时间序列也可以从存储器中加载。
在框3110处,雷达测量的相应可观察量的一个或多个1-D时间序列基于测量帧的时间序列的多个后续测量帧来确定。
例如,具有线性相位响应的复值BPF可以应用于沿着快时间维度的多个后续测量帧中的每一个的数据样本。由此,获取测量帧的复值信号。这些复值信号相应地沿着慢时间维度和通道维度来解析。然后能够基于复值信号来确定一个或多个时间序列。
接下来,在框3115处,由对象执行的运动的运动类别使用分类算法并基于在框3110处确定的一个或多个1-D时间序列来确定。
可选地,在框3120处,一个或多个使用情况/应用可以通过在框3115处确定的运动的运动类别来促进。例如,可以控制HMI。可以打开汽车后备箱。可以操作例如汽车中的门把手展示器的基于接近感测的控制。
图10图示了示例场景中的信号处理实现框3105和3110。
在框5005处,测量帧的时间序列被获取。这与框3005对应。
在框5010处,可选地能够执行运动检测或具体地姿态检测。此处,虽然运动类别可能无法解析,但能够确定姿态持续时间250。姿态持续时间250之外的测量帧可以被丢弃。例如,对于这样的检测,可以观察到信号变化率。
由雷达单元提供的测量数据是实数值。为了获取运动和角度信息,需要信号的相位。为了实现这一点,在一个场景中,沿着快时间维度应用了FT。啁啾内的频率提供了接收信号的距离信息。在FT之后,信号是复值的,并且因此可以在第二步骤中完成角度或多普勒估计。沿着快时间维度的FT将信号划分为N个距离仓。可以评估这些来获取角度和距离信息等。(该处理未在图10中示出)。
在另一场景中,如图10中所示,能够使用复值BPF。例如,可以在框5015处使用复值1-D SINC滤波器:
h[m,fc,b]=2b sinc(2bt)(cos(fcmT)+jsin(fcmT))     (7)
其中
Figure BDA0003876489880000201
其中M是sinc BPF的滤波器长度,T是采样间隔,fc是中心频率,并且b是带宽。
通过使用1-D BPF,能够选择一定距离区域内的信号。未实现沿着慢时间维度/多普勒的滤波。另一方面,滤波器重量轻且速度快。
由于信号在啁啾中是静态的,因此不执行卷积本身,但是快时间样本可以与复值sinc BPF相乘/卷积。因此,测量帧内的信号在应用BPF之后,是复数值和1-D的。复值信号(沿着慢时间维度41和通道维度43解析)被定义为:
s[f,r,n]=s[f,r,n,m]·h[m,fc,b]  (8)
其中f、r、n和m分别是测量帧、通道、慢时间和快时间指数。
滤波器参数fc和b可以是预定义的。例如,fc可以被选择为0.25归一化频率,而b被设置为0.5归一化频率。例如,中心频率和带宽可以定义截止频率。通常地,对于通常的使用情况场景,BPF的截止频率可以被设定为与小于50cm的距离相关联的频率。
也能够以自适应方式来设置一个或多个这样的滤波器参数。这将在稍后结合图11进行解释。
此外,复值信号可以被表示为绝对值
a[f,r,n]=|s[f,r,n]|    (9)
以及相位
Φ[f,r,n]=arg(s[f,r,n])]  (10)
并展平为每个通道的1-D维阵列。
对于绝对值,对所有接收通道(即,跨通道维度)执行相干积分(框5205)。结果,绝对信号变为1-D a[k],并且相位信号为二维Φ[r,k],其中r是接收通道索引,并且k是时间索引。
例如当跨多个连续帧级联时,绝对信号a[k]可以用作或作为1-D时间序列102(参见图5)的基。
接下来解释与沿着姿态持续时间250为测量帧45获取的复值信号的这样的级联的细节。该级联在框5020中实现。
后续测量帧45之间的空闲时间可以导致帧f中的第一采样点和前一帧f-1中的最后一个采样点之间的随机相位偏移。
为了减轻为相邻测量帧获取的复值信号之间的该相位偏移,应用了相位校正因子。相位校正因子可以基于相位偏移来确定,即,使用等式10的相位信号的差。
相位偏移被定义为:
ΔΦ[r,k]=Φ[r,k+1]-Φ[r,k]    (11)
为了校正前一帧的最后一个样本与新帧的第一个样本之间的随机相位差,相位差信号ΔΦ中的对应值可以被设定为前一值和后一值的平均值。
相位校正因子因此可以被定义为:
ΔΦ[r,nNc]=0.5(ΔΦ[r,nNc+1]+ΔΦ[r,nNc-1])  (12)
其中Nc是每帧的啁啾数。
可以想到各种变型来确定相位校正因子和/或重构经校正的相位信号。
首先,经校正的相位差可以被积分:
Figure BDA0003876489880000211
通过该过程,相位得到附加的解包封。
然而,当视场中没有目标时,则随机相位差被相加。因此,为了减轻该影响,相位校正因子可以在积分之前的绝对值(具体地基于按绝对值进行缩放来确定)。因为此处(与角时间序列103、104的确定不同)考虑了随时间的相位变化,所以这具体有助于确定距离时间序列101。因此,如果没有目标,这意味着绝对值会很低,则经重建的相位信号也保持不变。例如,在复值信号(等式9)的绝对值在积分之前低于某个阈值时,相位校正因子可以被设定为零,从而避免对噪声求和。随后,经重建的相位信号可以在接收通道上进行积分。基于绝对信号电平的相位校正因子的这种缩放在框5310中图示。
接下来,在级联和相位校正以及可选的缩放之后,时间序列101至104可以被确定。
指示绝对信号的时间序列102已在上面讨论过并且通过沿着通道维度积分而获取(框5205)。
接下来,讨论指示对象83的角位置的时间序列103和104。接收通道之间的相位差指示到达角。作为方位角的估计,使用一对RX天线(例如天线0和天线2)之间的相位差。因此,指示方位角的时间序列104被定义为(框5155):
θa2=Φ[2,k]-Φ[0,k]。   (14)
以同样的方式,为了估计仰角(作为对象的角位置的另一示例),一对另外两个RX天线(即,与用于方位角的天线对正交地布置)之间的相位差(即,针对图2中所示的天线0、1、2的L形设置),天线1和2被使用,并且因此指示仰角的时间序列103被定义为(框5105):
θa2=Φ[2,k]-Φ[1,k]。  (15)
为了增加角估计的信噪比(SNR),根据等式14和15的方位角和仰角信号二者可以随时间积分(即,沿着缓慢时间维度积分)(框5110、5160)。这产生时间积分相位差。时间积分相位差的斜率则表示到达角。它越陡峭,积分相位偏移越大,这意味着目标位于视场的边界处。
注意:角度实际由
Figure BDA0003876489880000221
定义。然而,当d~0.5λ(在使用的雷达中就是这种情况)时,然后对于不太大的相位差,映射是线性的。仅对于极值,角度映射的相位差不再是线性的。因此,直接使用相位差作为近似值。
距离时间序列101通过确定复值信号沿着慢时间维度的相位梯度来确定(框5305)。这产生了速度。随着时间的Thenan积分(框5315)产生距离。在框5320处,与框5205类似,实现了跨通道维度的相干积分。
因此,总而言之,雷达信号被表示为四个1-D时间序列101至104,即,相对距离、积分方位角相位偏移、积分仰角相位偏移和绝对值。
使用如上所述的时间序列101至104有多个优点。首先,信号从2-D和逐帧信号变换为1-D帧连续信号。因此,具有单独核大小的连续1-D卷积可以在不受测量帧45的限制的情况下,在卷积层中应用。其次,该方法利用了视场内只有单个目标的事实。在常规处理中,FT解析RDI中的整个距离多普勒域,然而,当只有单个目标时,大部分距离多普勒仓将为零。使用所呈现的数据表示,仅目标信号被捕获。第三,由于积分,相位、方位角和仰角信号的SNR可以被显著改善。第四,具有最高雷达截面的通常是用于姿态感测的手手部的目标,导致相位信号中频率最低的部分。手指移动在此之上引入了相位偏移。因此,通过带通滤波,手部的宏观运动和手指的微观运动可以被独立地分析。
图11图示了与复值BPF 980的信号处理有关的方面。具体地,图11图示了复值BPF的一个或多个滤波器参数是自适应的场景。
这样的自适应滤波基于目标对象可能改变其相对于雷达单元的径向位置或径向速度的发现。因此,调整一个或多个滤波器参数(诸如滤波器频率)以跟随对象的运动是有帮助的。
相关联的处理的示例实现方式在图11中图示。因此,图11的处理可以实现图10的框5015并且可以是图10的框3110的一部分。
在图11中,为了简单的目的,省略了通道维度。相应的处理可以跨多个通道维度独立扩展。
图11示意性地图示了2-D BPF。第一分支6001被用于沿着慢时间维度跟踪目标位置(多普勒位置);而第二分支6002被用于沿着快时间维度跟踪目标位置(距离位置)。换言之,在分支6001中,针对慢时间维度(fST)的中心频率被自适应;而在分支6002中,针对快时间维度(fFT)的中心频率被自适应。
分支6001在6014处在测量帧45与框6010处定义的相应滤波器核之间采用2-D卷积。
分支6002还在6114处在测量帧45与框6110处定义的相应滤波器核之间采用2-D卷积。
因此,两个分支6001、6002采用2-D滤波。滤波器核的维度不同。这有助于解析沿者更新相应中心频率的特定维度41、42的信号。另一维度被折叠。
等式7的1-D BPF滤波器可以被看作是分支6001中2-D BPF滤波器的极端情况。图7的1-D BPF与在慢时间维度41中具有滤波器维度1的退化的2-D BPF。通过在慢时间维度41中使用滤波器维度1,多普勒选择性丢失。如果有两个目标以不同的速度移动,多普勒区域选择性是有意义的,这结合图12来阐述。
图12图示了两个目标901、902的距离-多普勒位置。两个目标901、902处于相似的距离,但是在相对的方向上移动。根据等式7仅使用1-D BPF滤波器,可以选择一定距离区域911内的信号(图12中的虚线)。在滤波之后,信号仍包含目标901、902的混合。因此,无法准确地确定感兴趣目标(例如,目标901)的距离位置(或者快时间中心频率)。另一方面,如果采用2-D sinc滤波器(参见图11),则能够选择沿距离维度42以及多普勒维度41两者限制的滤波器区域912。目标901、902然后可以被分离。通过相位解包封,能够确定感兴趣目标901的距离位置或快时间中心频率。该信息然后将用于更新2-D BPF滤波器的快时间中心频率。
现在再次参考图11:图11图示了在框6005处输入到处理管线中的测量帧45。测量帧45沿着快时间维度42具有64的大小并且沿着慢时间维度41具有32的大小。
关于在框6010处针对分支6001确定的滤波器核:沿着快时间维度41的滤波器长度等于每个啁啾的样本数(此处:64)并且小于沿着慢时间维度的啁啾数(此处:17,小于32)。在不使用沿着快时间维度的零填充的情况下,当前测量帧45的原始信号可以在2-D卷积6014处的分支6002中与该滤波器核卷积。因此,针对分支6002获取的复数信号6099仅包括沿着快时间维度42的单个值。然而,沿着慢时间维度41,使用零填充,因此在分支6001中,针对复数信号6099获取沿着慢时间维度的分辨率:该复值信号位于由框6014的2-D卷积定义的慢时间中心频率fST和快时间中心频率fFT定义的距离频率范围内。在分支6001中,输出是1-D慢时间复值信号6099,其一方面被用于更新慢时间中心频率(反馈分支6015)而另一方面用于进一步处理(参见图10)。复值信号6099被用于确定时间序列101至104(参见图10;图11中未示出)。分支6001的2-D卷积6014在图13中图示。竖直箭头图示了卷积6014。一般地,卷积之后的输出维度可以被计算为:“信号长度-滤波器长度+1”。因此,滤波/卷积信号的维度为:64-64+1=1。因此,如上所述,获取沿着慢时间解析的1-D信号6099。
在其中2-D卷积6114(参见图14)使用快时间维度42中的滤波器核长度33和慢时间维度中的滤波器长度32来实现的分支6002中完成相同的过程。现在,零填充仅沿着快时间维度42(而不是慢时间维度41)应用来获取多普勒频率区域内的1-D距离信号。相应的复值信号6199沿着快时间维度解析,并且因此被用于更新沿着快时间维度42的中心频率。
接下来,确定关于反馈分支6015、6115的细节。
在图11的场景中,对于每个分支6001、6002,中心频率被迭代地自适应用于后续测量帧45。自适应的迭代性质由其中指示了相应的延迟路径的框6035图示。通过框6025来实现相位解包封。通过减去2Pi来校正大于Pi的相位差;通过添加2Pi来校正小于-Pi的相位差。新的中心频率基于在框6030中确定的相位梯度来确定。针对分支6001和分支6002的每个复数1-D信号的平均角速度使用以下方法来确定:
Figure BDA0003876489880000261
其中
Figure BDA0003876489880000262
是相应信号的相位。基于平均角速度,针对慢时间维度和快时间维度,针对新时间步骤的中心频率可以以相同的方式独立地被更新:
Figure BDA0003876489880000263
分支6002的处理也与分支6001中的处理对应,即,框6125对应于框6025,框6130对应于框6030,框6135对应于框6035,并且框6110对应于框6010。
因此,如从上文将理解的,分支6002中的快时间中心频率fFT以及分支6001中的慢时间中心频率fST根据当前观察的信号进行自适应。这使用两个分支6001、6002针对每个维度独立地完成,但是以相同的方式完成。
通过这种方式,2-D BPF通过对原始时域数据进行完全地操作来跟踪距离多普勒域中的目标。
请注意,通常,还能够实现使用两个静态中心频率或一个自适应调整的中心频率(例如,仅反馈环路6015)和一个静态中心频率的2-D BPF。
综上所述,公开了执行由诸如手部或手指的对象执行的姿态的姿态分类的技术。姿态分类基于雷达测量。为了预测姿态类,可以使用ML算法。一个或多个时间序列的距离、角位置和/或绝对信号电平可以被用作输入,跨多个测量帧级联。
已公开了如何在将原始雷达信号输入分类算法之前将其变换为多个1-D时间序列。
与使用FFT的常规预处理方法相比,这是紧凑的表现并且具有较低的计算复杂度。然而,变换不会丢失有关手部运动的信息,这会导致非常好的分类精度。
由于信号被表示为多个1-D时间序列,因此能够使用1-D CNN作为分类算法,而不是2-D CNN,因为它是解释经FT预处理的特征映射的情况。因此,分类算法和分类算法的计算复杂度可以被显著地降低。此外,没有使用专门的数字信号处理硬件来预处理雷达数据。
此外,由于信号在距离方向上没有解析,发射啁啾的带宽可以降低到500MHz以下,这使得系统符合FCC标准。
因此,已经公开了以下示例。
示例1.一种计算机实现的方法,方法包括:
-获取包括对象(83)的场景(80)的雷达测量的测量帧(45)时间序列,
-基于测量帧(45)时间序列的多个后续测量帧(45)确定与对象(83)相关联的雷达测量的相应可观察量的一个或多个一维1-D时间序列(101、102、103、104),以及
-基于一个或多个1-D时间序列(101、102、103、104)使用分类算法(111)来确定由对象(83)执行的运动的运动类别。
示例2.根据示例1所述的计算机实现的方法,
其中,测量帧(45)时间序列的每个测量帧(45)包括沿着快时间维度(42)、慢时间维度(41)和通道维度(43)的数据样本,慢时间维度(41)的慢时间相对于雷达测量的相邻雷达啁啾递增,快时间维度(42)的快时间相对于相邻数据样本递增,通道维度(43)的通道针对用于雷达测量的不同接收器天线(78-1、78-2、78-3)递增,
其中,方法还包括:
-将复值带通滤波器(980)应用于多个后续测量帧(45)中的每一个的数据样本,以沿着快时间维度(42)进行滤波,
其中,复值带通滤波器(980)的所述应用产生沿着慢时间维度(41)解析的复值信号(6099)。
示例3.根据示例2所述的计算机实现的方法,还包括:
-基于复值信号(6099)的相位梯度,针对多个后续测量帧(45)中的后续帧,将复值带通滤波器(980)的慢时间滤波器频率迭代地自适应(6035)。
示例4.根据示例2或3所述的计算机实现的方法,还包括:
其中,一个或多个1-D时间序列(101、102、103、104)中指示信号振幅(252)的第一1-D时间序列(102)通过对复值信号(6099)的绝对值跨通道维度(43)进行积分而确定。
示例5.根据示例2至4中任何一项所述的计算机实现的方法,
其中,一个或多个1-D时间序列(101、102、103、104)中指示对象(83)的至少一个角位置(253、254)的至少一个第二1-D时间序列(103、104)基于通道维度(43)的相应通道对(78-1、78-2、78-3)之间的复值信号(6099)的相位差(5105、5155)来确定。
示例6.根据示例5所述的计算机实现的方法,还包括:
-沿着慢时间维度(41),对通道维度(43)的相应通道对(78-1、78-2、78-3)之间的复值信号(6099)的相位差进行积分(5110、5160),从而获取经时间积分的相位差,
其中,相位差基于经时间积分的相位差中的每一个的斜率来确定。
示例7.根据示例2至6中任何一项所述的计算机实现的方法,
其中,一个或多个1-D时间序列(101、102、103、104)中指示对象(83)的距离位置(251)的第三1-D时间序列(101)基于复值信号(6099)沿着慢时间维度(41)的相位梯度(5305),以及通过将复值信号(6099)的相位梯度跨通道维度(43)分别积分(5320)来确定。
示例8.根据示例2至7中任何一项所述的计算机实现的方法,还包括:
-将针对测量帧(45)获取的复值信号(6099)级联(5020)。
示例9.根据示例8所述的计算机实现的方法,
其中,所述级联(5020)还包括:
-应用相位校正因子,以减少针对多个后续测量帧(45)中的相邻帧获取的复值信号(6099)之间的相位偏移。
示例10.根据示例9所述的计算机实现的方法,
其中,相位校正因子基于相位偏移来确定。
示例11.根据示例9或10所述的计算机实现的方法,
其中,相位校正因子基于相应复值信号(6099)的绝对值来确定。
示例12.根据示例2至11中任何一项所述的计算机实现的方法,
其中,复值带通滤波器的截止频率在与小于50cm的距离相关联的频率处。
示例13.根据示例2至12中任何一项所述的计算机实现的方法,
其中,复值带通滤波器还沿着慢时间维度(41)进行滤波。
示例14.根据示例13所述的计算机实现的方法,
其中,复值带通滤波器(980)的所述应用产生沿着快时间维度(42)解析的进一步复值信号(6199),
其中,方法还包括:
-基于进一步复值信号(6199)的相位梯度,针对多个后续测量帧(45)中的后续帧,将复值带通滤波器(980)的快时间滤波器频率迭代地自适应(6135)。
示例15.根据前述示例中任何一项所述的计算机实现的方法,
其中,分类算法(111)包括卷积神经网络算法,
其中,卷积神经网络算法包括用于执行1-D卷积的五个或更少个卷积层。
示例16.根据前述示例中任何一项所述的计算机实现的方法,
其中,分类算法(111)包括自动编码器神经网络算法,
其中,基于自动编码器神经网络算法(111)的特征嵌入(149)以及在特征嵌入(149)的特征空间中预定义的多个区域(211、212、213)来确定运动类别,多个区域(211、212、213)与多个候选运动类别(520)中的每一个相关联。
示例17.根据前述示例中任何一项所述的计算机实现的方法,
其中,分类算法(111)包括卷积神经网络算法,
其中,卷积神经网络算法包确定输入样本向量和与多个候选运动类别中的每一个相关联的类权重之间的欧几里德距离的括输出层。
示例18.根据前述示例中任何一项所述的计算机实现的方法,
其中,分类算法(111)包括卷积神经网络算法,
其中,卷积神经网络算法包括递归架构。
示例19.一种训练(3005)用于基于包括对象(83)的场景(80)的雷达测量的测量帧(45)时间序列来预测由对象(83)执行的运动的姿态类(520)的卷积神经网络算法(111)的计算机实现的方法,卷积神经网络算法(111)包括确定输入样本向量和多个候选运动类别中的每一个的类权重之间的欧几里德距离的输出层,
其中,方法包括:
-获取多个训练集,每个训练集包括相应的测量帧(45)时间序列和相关联的真实标签(115),真实标签(115)指示从多个候选运动类别(520)中选择的相应候选运动类别(520),以及
-基于第一损失和第二损失来训练卷积神经网络算法(111),第一损失惩罚与由真实标签(115)指示的相应候选运动类别的类权重的欧几里德距离;第二损失奖励与未由真实标签指示的其他候选运动类别的类权重的欧几里德距离。
示例20.一种包括处理器(62)的设备(60),被配置为:
-获取包括对象(83)的场景(80)的雷达测量的测量帧(45)时间序列,
-基于测量帧(45)时间序列的多个后续测量帧(45),确定与对象(83)相关联的雷达测量的相应可观察量的一个或多个一维1-D时间序列(101、102、103、104),以及
-基于一个或多个1-D时间序列(101、102、103、104),使用分类算法(111)来确定由对象(83)执行的运动的运动类别。
示例21.根据示例20所述的设备(60),其中,处理器被配置为执行根据示例1至18中任何一项所述的方法。
示例22.一种包括用于训练(3005)卷积神经网络算法(111)的处理器(62)的设备(60),卷积神经网络算法(111)用于基于包括对象(83)的场景(80)的雷达测量的测量帧(45)时间序列来预测由对象(83)执行的运动的姿态类(520),卷积神经网络算法(111)包括确定输入样本向量和多个候选运动类别中的每一个的类权重之间的欧几里德距离的输出层,其中处理器被配置为:
-获取多个训练集,每个训练集包括相应的测量帧(45)时间序列和相关联的真实标签(115),真实标签(115)指示从多个候选运动类别(520)中选择的相应候选运动类别(520),以及
-基于第一损失和第二损失来训练卷积神经网络算法(111),第一损失惩罚与由真实标签(115)指示的相应候选运动类别的类权重的欧几里德距离;第二损失奖励与未由真实标签指示的其他候选运动类别的类权重的欧几里德距离。
尽管已针对某些优选实施例示出并描述了本发明,但是本领域的其他技术人员在阅读和理解说明书之后将想到等同物和修改。本发明包括所有这些等同物和修改,并且仅受所附权利要求的范围限制。
为了例示,可能的姿态分类不仅限于手部姿态,而是几乎任何形式的姿态反馈,诸如身体姿势或面部表情。可以检测到一般运动。
为了进一步例示,虽然已结合确定1-D时间序列公开了sinc BPF,但是可以使用其他类型的带通滤波器。

Claims (15)

1.一种计算机实现的方法,所述方法包括:
-获取包括对象(83)的场景(80)的雷达测量的测量帧(45)时间序列,
-基于所述测量帧(45)时间序列的多个后续测量帧(45),确定与所述对象(83)相关联的所述雷达测量的相应可观察量的一个或多个一维1-D时间序列(101、102、103、104),以及
-基于所述一个或多个1-D时间序列(101、102、103、104),使用分类算法(111)来确定由所述对象(83)执行的运动的运动类别。
2.根据权利要求1所述的计算机实现的方法,
其中,所述测量帧(45)时间序列的每个测量帧(45)包括沿着快时间维度(42)、慢时间维度(41)和通道维度(43)的数据样本,所述慢时间维度(41)的慢时间相对于所述雷达测量的相邻雷达啁啾递增,所述快时间维度(42)的快时间相对于相邻数据样本递增,所述通道维度(43)的通道针对用于所述雷达测量的不同接收器天线(78-1、78-2、78-3)递增,
其中,所述方法还包括:
-将复值带通滤波器(980)应用于多个后续测量帧(45)中的每一个测量帧的数据样本,以沿着所述快时间维度(42)进行滤波,
其中,所述复值带通滤波器(980)的所述应用产生沿着所述慢时间维度(41)解析的复值信号(6099)。
3.根据权利要求2所述的计算机实现的方法,还包括:
-基于所述复值信号(6099)的相位梯度,针对所述多个后续测量帧(45)中的后续测量帧,使所述复值带通滤波器(980)的慢时间滤波器频率迭代地自适应(6035)。
4.根据权利要求2或3所述的计算机实现的方法,还包括:
其中,所述一个或多个1-D时间序列(101、102、103、104)中指示信号振幅(252)的第一1-D时间序列(102)通过对所述复值信号(6099)的绝对值跨所述通道维度(43)进行积分而确定。
5.根据权利要求2至4中任一项所述的计算机实现的方法,
其中,所述一个或多个1-D时间序列(101、102、103、104)中指示所述对象(83)的至少一个角位置(253、254)的至少一个第二1-D时间序列(103、104)基于所述通道维度(43)的相应通道对(78-1、78-2、78-3)之间的所述复值信号(6099)的相位差(5105、5155)来确定。
6.根据权利要求5所述的计算机实现的方法,还包括:
-沿着所述慢时间维度(41),对所述通道维度(43)的相应通道对(78-1、78-2、78-3)之间的所述复值信号(6099)的所述相位差进行积分(5110、5160),从而获取经时间积分的相位差,
其中,所述相位差基于所述经时间积分的相位差中的每一个经时间积分的相位差的斜率来确定。
7.根据权利要求2至6中任一项所述的计算机实现的方法,
其中,所述一个或多个1-D时间序列(101、102、103、104)中指示所述对象(83)的距离位置(251)的第三1-D时间序列(101)基于所述复值信号(6099)沿着所述慢时间维度(41)的相位梯度(5305)并且通过将所述复值信号(6099)的所述相位梯度跨所述通道维度(43)分别积分(5320)来确定。
8.根据权利要求2至7中任一项所述的计算机实现的方法,还包括:
-将针对所述测量帧(45)获取的所述复值信号(6099)级联(5020)。
9.根据权利要求8所述的计算机实现的方法,
其中,所述级联(5020)还包括:
-应用相位校正因子,以减少针对所述多个后续测量帧(45)中的相邻测量帧获取的所述复值信号(6099)之间的相位偏移。
10.根据权利要求9所述的计算机实现的方法,
其中,所述相位校正因子基于所述相位偏移来确定。
11.根据权利要求9或10所述的计算机实现的方法,
其中,所述相位校正因子基于相应的所述复值信号(6099)的绝对值来确定。
12.根据权利要求2至11中任一项所述的计算机实现的方法,
其中,所述复值带通滤波器进一步沿着所述慢时间维度(41)进行滤波。
13.根据权利要求12所述的计算机实现的方法,
其中,所述复值带通滤波器(980)的所述应用产生沿着所述快时间维度(42)解析的进一步复值信号(6199),
其中,所述方法还包括:
-基于所述进一步复值信号(6199)的相位梯度,针对所述多个后续测量帧(45)中的后续测量帧,使所述复值带通滤波器(980)的快时间滤波器频率迭代地自适应(6135)。
14.根据前述权利要求中任一项所述的计算机实现的方法,
其中,所述分类算法(111)包括自动编码器神经网络算法,
其中,基于所述自动编码器神经网络算法(111)的特征嵌入(149)以及在所述特征嵌入(149)的特征空间中预定义的多个区域(211、212、213),所述运动类别是确定的,所述多个区域与多个候选运动类别(520)中的每一个候选运动类别相关联。
15.根据前述权利要求中任一项所述的计算机实现的方法,
其中,所述分类算法(111)包括卷积神经网络算法,
其中,所述卷积神经网络算法包括确定输入样本向量以及与多个候选运动类别中的每一个候选运动类别相关联的类权重之间的欧几里德距离的输出层。
CN202211216809.9A 2021-10-05 2022-09-30 使用一个或多个时间序列的基于雷达的运动分类 Pending CN115951320A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP21201047.4A EP4163666A1 (en) 2021-10-05 2021-10-05 Radar-based motion classification using one or more time series
EP21201047.4 2021-10-05

Publications (1)

Publication Number Publication Date
CN115951320A true CN115951320A (zh) 2023-04-11

Family

ID=78080193

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211216809.9A Pending CN115951320A (zh) 2021-10-05 2022-09-30 使用一个或多个时间序列的基于雷达的运动分类

Country Status (3)

Country Link
US (1) US20230108140A1 (zh)
EP (1) EP4163666A1 (zh)
CN (1) CN115951320A (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4202475B1 (en) * 2021-12-23 2024-05-01 GM Cruise Holdings LLC Radar beamforming by way of latent space encoding
CN116908808B (zh) * 2023-09-13 2023-12-01 南京国睿防务系统有限公司 一种基于rtn的高分辨一维像目标识别方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107466389B (zh) * 2015-04-30 2021-02-12 谷歌有限责任公司 用于确定类型不可知的rf信号表示的方法和装置

Also Published As

Publication number Publication date
US20230108140A1 (en) 2023-04-06
EP4163666A1 (en) 2023-04-12

Similar Documents

Publication Publication Date Title
CN115951320A (zh) 使用一个或多个时间序列的基于雷达的运动分类
Zhang et al. Latern: Dynamic continuous hand gesture recognition using FMCW radar sensor
Arsalan et al. Character recognition in air-writing based on network of radars for human-machine interface
Elbir et al. Cognitive radar antenna selection via deep learning
Zhang et al. Deep neural networks for wireless localization in indoor and outdoor environments
Skaria et al. Deep-learning methods for hand-gesture recognition using ultra-wideband radar
Sun et al. Real-time radar-based gesture detection and recognition built in an edge-computing platform
CN110765974A (zh) 基于毫米波雷达和卷积神经网络的微动手势识别方法
US20220269926A1 (en) Radar-Based Object Tracking Using a Neural Network
KR102254331B1 (ko) 공중 제스쳐 인식 장치 및 방법
Kim et al. Radar-based human activity recognition combining range–time–Doppler maps and range-distributed-convolutional neural networks
Gan et al. Gesture recognition system using 24 GHz FMCW radar sensor realized on real-time edge computing platform
Arsalan et al. Air-writing with sparse network of radars using spatio-temporal learning
Pegoraro et al. Deep learning for accurate indoor human tracking with a mm-wave radar
Ali et al. End-to-end dynamic gesture recognition using mmWave radar
Ehrnsperger et al. Real-time gesture detection based on machine learning classification of continuous wave radar signals
Hazra et al. Cross-modal learning of graph representations using radar point cloud for long-range gesture recognition
Zhong et al. A climate adaptation device-free sensing approach for target recognition in foliage environments
Strobel et al. Gesture recognition for FMCW radar on the edge
Zhang et al. Dynamic gesture recognition based on RF sensor and AE-LSTM neural network
CN115469303A (zh) 一种检测人体姿态和生命体征的认知生物雷达方法与装置
US20230068523A1 (en) Radar-Based Gesture Classification Using a Variational Auto-Encoder Neural Network
CN117434507A (zh) 使用可解释人工智能对机器学习算法的训练
Stadelmayer et al. Radar-based gesture recognition using a variational autoencoder with deep statistical metric learning
Guo et al. Point transformer-based human activity recognition using high-dimensional radar point clouds

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication