CN117741575A - 使用网状雷达传感器的数据融合生成3d网格地图和点云 - Google Patents

使用网状雷达传感器的数据融合生成3d网格地图和点云 Download PDF

Info

Publication number
CN117741575A
CN117741575A CN202311182526.1A CN202311182526A CN117741575A CN 117741575 A CN117741575 A CN 117741575A CN 202311182526 A CN202311182526 A CN 202311182526A CN 117741575 A CN117741575 A CN 117741575A
Authority
CN
China
Prior art keywords
measurement data
radar
target
azimuth
radar measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311182526.1A
Other languages
English (en)
Inventor
蒂莫·格雷布纳
克里斯蒂安·瓦尔德施密特
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Publication of CN117741575A publication Critical patent/CN117741575A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S13/62Sense-of-movement determination
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本公开涉及使用网状雷达传感器的数据融合生成3D网格地图和点云。一种用于三维位置估计的电路,其中,该电路被配置为:获得指示目标的第一范围和第一局部方位角的第一雷达测量数据;获得指示目标的第二范围和第二局部方位角的第二雷达测量数据;基于将第一雷达测量数据与第二雷达测量数据相关联来补偿目标的全局方位角与目标的全局仰角之间的模糊,其中,目标的全局方位角与全局仰角之间的关系由第一雷达测量数据和第二雷达测量数据中的至少一个表示;以及基于目标的全局方位角、全局仰角以及第一范围和第二范围中的至少一个来估计目标的三维位置。

Description

使用网状雷达传感器的数据融合生成3D网格地图和点云
技术领域
本公开总体上涉及一种电路和方法,具体地,涉及一种用于三维位置估计的电路和方法。
背景技术
通常已知进行环境的三维(3D)地图绘制(three-dimensional mapping)。环境的3D地图绘制包括估计环境中的对象的3D位置。
例如,已知的环境的3D地图绘制可以基于相机,基于LiDAR(光检测与测距)传感器或3D成像雷达传感器,这些传感器估计环境中的对象的范围、方位角和仰角。
尽管存在用于3D位置估计的技术,但是通常期望提供用于3D位置估计的改进的电路和方法。
发明内容
根据第一方面,本公开提供了一种用于三维位置估计的电路,其中,该电路被配置为:获得指示目标的第一范围和第一局部方位角的第一雷达测量数据;获得指示目标的第二范围和第二局部方位角的第二雷达测量数据;基于将第一雷达测量数据与第二雷达测量数据相关联来补偿目标的全局方位角与目标的全局仰角之间的模糊(ambiguity),其中,目标的全局方位角与全局仰角之间的关系由第一雷达测量数据和第二雷达测量数据中的至少一个表示;以及基于目标的第一范围和第二范围中的至少一个、全局方位角、以及全局仰角来估计目标的三维位置。
根据第二方面,本公开提供了一种用于三维位置估计的方法,其中,该方法包括:获得指示目标的第一范围和第一局部方位角的第一雷达测量数据;获得指示目标的第二范围和第二局部方位角的第二雷达测量数据;基于将第一雷达测量数据与第二雷达测量数据相关联来补偿目标的全局方位角与目标的全局仰角之间的模糊,其中,目标的全局方位角与全局仰角之间的关系由第一雷达测量数据和第二雷达测量数据中的至少一个表示;以及基于目标的第一范围和第二范围中的至少一个、全局方位角、以及全局仰角来估计目标的三维位置。
在从属权利要求、附图和以下描述中阐述了其他方面。
附图说明
通过对于附图的示例来解释实施例,在附图中:
图1示出了根据实施例的用于基于二维雷达测量数据来确定三维位置的融合算法的两个替换方案;
图2图示了根据实施例的第一雷达传感器与第二雷达传感器之间的传感器融合,第一雷达传感器与第二雷达传感器绕两者的光轴彼此相对旋转;
图3图示了根据实施例的电路的框图;
图4图示了根据实施例的用于单传感器算法的测量数据关联单元的框图;
图5图示了根据实施例的用于单网络算法的测量数据关联单元的框图;
图6图示了根据实施例的方法的流程图;
图7图示了根据实施例的用于在单传感器算法中将测量数据相关联的流程图;
图8图示了根据实施例的用于在单网络算法中将测量数据相关联的流程图;
图9是描绘车辆控制系统的示例性配置的示例的框图;并且
图10是辅助解释车外信息检测部和成像部的安装位置的示例的图。
具体实施方式
在参考图1给出实施例的详细描述之前,先作一般性说明。
如一开始提到的,通常已知进行环境的三维(3D)地图绘制。环境的3D地图绘制包括估计环境中的对象的3D位置。
例如,已知的环境的3D地图绘制可以基于相机,基于LiDAR(光检测与测距)传感器或3D成像雷达传感器,这些传感器估计环境中的对象的范围、方位角和仰角。
在一些实例中,3D环境地图的创建可以基于不同的传感器概念,但也可以基于不同的算法经由许多不同可能性来实现。
在一些实例中,合适的传感器是相机,诸如单目或立体相机。在一些实例中,另一种可能性是LiDAR传感器,它也可以产生环境的3D图像。由于两种传感器类型(相机和LiDAR传感器)的光学依赖性,在一些实例中,它们非常易受外部环境的影响。
更稳健的3D环境表示的一种可能性基于雷达传感器。一旦提供二维(2D)角度估计的雷达传感器被用于此目的,在一些实例中,就可以创建占用网格地图或简单的点云。
在一些实例中,可以在3D空间中定位目标的传感器被用于创建环境的3D地图,诸如立体相机、LiDAR传感器,但也可以使用具有2D天线孔径的雷达传感器。
在一些实例中,尤其是对于雷达传感器,2D天线孔径并且因此2D角度估计尚不是轿车行业的标准。另外,在一些实例中,由于发送器和接收器的数量有限,当前可用的可以估计2D角度的雷达传感器仅为有限准确度的传感器,这影响了3D环境地图绘制的结果。然而,在一些实例中,一旦该3D信息可用,就可以使用合适的算法来直接基于位置数据创建3D环境地图或者甚至简单的点云。
在一些实例中,雷达传感器的当前硬件状况仅允许每个雷达传感器上有限数量的发送器/接收器。因而,在一些实例中,当建立2D天线孔径时,这是2D角度估计所需要的,由发送器/接收器表示的信道必须在两个维度上分割。在n个信道可用的情况下,在一些实例中,仅个信道可以用于方形孔径。在一些实例中,这降低了方位角和仰角方向两者上的角度估计,使得准确度和可分离性与/>成比例地降低。因此,在一些实例中,3D环境地图绘制在理论上是可能的,但是由于有限的天线元件,结果因此不那么准确。
在一些实例中,另一个缺点是2D雷达传感器的可用性。如今,在一些实例中,开箱即用的雷达传感器只能进行一维(1D)角度估计,并且因此仅可以确定目标(环境中的对象)的位置的xy分量,但无法确定位置的z分量。在一些实例中,当需要2D角度估计时,必须使用更专业的雷达传感器,这既耗时又昂贵。
本公开基于创建算法的任务,该算法在仅可以确定距离和局部方位角但无法确定局部仰角的分布式2D成像雷达传感器的基础上,可以生成环境的3D图像,并且因此环境中的各个对象(目标)的3D位置估计。
结果,本公开的一些实施例涉及一种用于三维(3D)位置估计的电路,其中,该电路被配置为:获得指示目标的第一范围和第一局部方位角的第一雷达测量数据;获得指示目标的第二范围和第二局部方位角的第二雷达测量数据;基于将第一雷达测量数据与第二雷达测量数据相关联来补偿目标的全局方位角与目标的全局仰角之间的模糊,其中,目标的全局方位角与全局仰角之间的关系由第一雷达测量数据和第二雷达测量数据中的至少一个表示;以及基于目标的全局方位角、全局仰角、以及第一范围和第二范围中的至少一个来估计目标的3D位置。
该电路可以包括能够进行诸如3D位置估计的信息处理的任何实体。例如,该电路可以包括现场可编程门阵列(FPGA)、专用集成电路(ASIC)、微处理器等。例如,该电路可以直接从一个或多个雷达传感器或间接经由另一信息处理装置或经由基于磁、光或半导体的存储介质获得第一雷达测量数据和第二雷达测量数据。
该电路还可以包括存储单元,该存储单元可以例如包括动态随机存取存储器(DRAM)、闪速存储器、电可擦除可编程只读存储器(EEPROM)、硬盘驱动器等。该电路还可以包括接口,该接口用于例如经由串行外围接口(SPI)、外围组件互连(PCI)、控制器局域网(CAN)、通用存储总线(USB)、以太网、IEEE 802.11(Wi-Fi)、蓝牙等接收第一和第二雷达测量数据并且用于输出目标的估计3D位置。例如,该电路可以经由接口从一个或多个雷达传感器、从另一信息处理装置或从存储介质接收第一雷达测量数据和第二雷达测量数据。例如,该电路可以经由接口向另一个信息处理装置或存储介质输出表示估计3D位置的信息。
第一雷达测量数据可以指示已由雷达传感器从环境接收的第一接收雷达信号,并且第二雷达测量数据可以指示已由雷达传感器从环境接收的第二接收雷达信号。第一接收雷达信号和第二接收雷达信号可以来自环境中的相同对象(来自目标),并且可以由同一雷达传感器或不同的雷达传感器接收。
接收第一接收雷达信号和第二接收雷达信号的(一个或多个)雷达传感器可以例如包括啁啾序列雷达传感器,该啁啾序列雷达传感器可以将雷达信号发射到环境中,其中,射出雷达信号的频率被调制。例如,该频率可以根据频率斜升变化,从而以预定斜率始于预定起始频率处。斜率可以是恒定的(线性啁啾),或者可以是变化的,以用于实现非线性频率变化(例如,指数啁啾)。雷达传感器可以重复地发射雷达信号,例如,以预定重复率。重复的雷达信号可以被同等地或不同地调制。
射出的雷达信号可以被环境中的对象反射。例如,反射雷达信号的对象可以包括轿车、卡车、自行车、其他车辆、行人、动物、墙壁、路标、交通护栏、桥梁、树木、石头、建筑物、栅栏等。此类对象也可以被称为目标。例如,(一个或多个)雷达传感器可以将第一射出雷达信号和第二射出雷达信号发射到环境中。环境中的对象可以反射第一射出雷达信号,并且雷达传感器(例如,已经发射第一射出雷达信号的雷达传感器)可以接收被反射的第一射出雷达信号作为第一接收雷达信号。对象还可以反射第二射出雷达信号,并且雷达传感器(例如,已经发射第二射出雷达信号的雷达传感器)可以接收被反射的第二射出雷达信号作为第二接收雷达信号。如提到的,接收该第一接收雷达信号的雷达传感器可以是与接收该第二接收雷达信号的雷达传感器相同的雷达传感器,或者可以是不同于接收该第二接收雷达信号的雷达传感器的另一雷达传感器。
接收该第一接收雷达信号的雷达传感器可以基于第一接收雷达信号来确定第一范围和第一局部方位角,并且可以获取(生成)第一雷达测量数据并将其输出到该电路、另一信息处理装置和/或存储介质。同样地,接收第二接收雷达信号的雷达传感器可以基于第二接收雷达信号来确定第二范围和第二局部方位角,并且可以获取(生成)第二雷达测量数据并将其输出到该电路、另一信息处理装置和/或存储介质。
第一范围可以表示反射第一接收雷达信号的目标(环境中的对象)与接收该第一接收雷达信号的雷达传感器之间的距离。第一局部方位角可以表示在相应雷达传感器的孔径的方向上的角度,在该角度下雷达传感器接收该第一接收雷达信号。
第二范围可以表示反射第二接收雷达信号的目标与接收该第二接收雷达信号的雷达传感器之间的距离。第二局部方位角可以表示在相应雷达传感器的孔径的方向上的角度,在该角度下雷达传感器接收该第二接收雷达信号。
(一个或多个)雷达传感器可以确定第一接收雷达信号和第二接收雷达信号所对应的是哪个射出雷达信号,例如所对应的是哪个斜升。该确定可以基于向环境中发射雷达信号的定时,接收反射雷达信号的定时,雷达信号的起始频率、斜率和/或形状(例如,线性啁啾、指数啁啾等)等。(一个或多个)雷达传感器可以基于射出雷达信号与接收雷达信号之间的关联来确定相应的第一和第二范围和局部方位角。
例如,(一个或多个)雷达传感器可以包括发送和接收天线的一维(1D)阵列,并且可以被配置作为多输入多输出(MIMO)雷达传感器、单输入多输出(SIMO)雷达传感器或多输入单输出(MISO)雷达传感器。天线的1D阵列可以表示(一个或多个)雷达传感器的1D孔径,并且相应的第一或第二局部方位角可以沿着1D孔径取向。
尽管已经提到啁啾序列雷达传感器作为获取第一和/或第二雷达测量数据的雷达传感器的示例,但是第一和第二雷达测量数据可以由能够确定目标的范围和局部方位角的任何雷达传感器获取。例如,在一些实施例中,第一和第二雷达测量数据由时分复用(TDM)雷达、频分复用(FDM)雷达、码分复用(CDM)雷达等获取。
目标的全局方位角和目标的全局仰角可以是在全局坐标系中检测目标的角度。全局方位角和全局仰角可以是不同地取向的,例如,彼此正交地。例如,全局方位角可以取向在相对于全局坐标系的水平平面内,例如,在全局坐标系的xy平面内,并且全局仰角可以取向在相对于全局坐标系的竖直平面内,例如,在包括全局坐标系的z轴的平面内。
全局坐标系可以是预定的,并且可以是固定的,例如,相对于其上安装有(一个或多个)雷达传感器的移动平台或相对于环境。在测量第一和/或第二局部方位角的(一个或多个)雷达传感器的局部坐标系与全局坐标系之间可能存在预定映射。
在一些实施例中,由于相应雷达传感器的1D孔径,从第一局部方位角到全局方位角以及到全局仰角的地图绘制是不可能的。例如,雷达传感器可以用其1D孔径测量沿着1D孔径取向的局部方位角,但是雷达传感器可以不测量与1D孔径正交地取向的局部仰角。因此,目标的局部仰角可能是未知的。此外,在一些实施例中,测定局部方位角可以取决于局部仰角,即,可以对于其位置仅因局部仰角而不同的目标测量不同的局部方位角。目标的局部方位角与局部仰角之间的关系可以是已知的,例如,可以取决于雷达传感器的特性,但是在没有进一步测量的情况下可能是不可分辨的。
为了分辨测定第一局部方位角的这种模糊,指示目标的第二局部方位角的第二雷达测量数据可能是有必要的。出于与第一局部方位角相同的原因,目标的第二局部方位角可能是模糊的,并且可以取决于目标的第二局部仰角。然而,测量第二局部方位角的相应雷达传感器的位置(即,坐标和/或取向)可以不同于测量第一局部方位角的相应雷达传感器的位置(坐标和/或取向)。换句话说,第一雷达测量数据(包括第一局部方位角)和第二雷达测量数据(包括第二局部方位角)可以以不同的雷达传感器位置获取,其中,不同的雷达传感器位置因坐标和取向中的至少一者而不同。
为了补偿目标的全局方位角与目标的全局仰角之间的模糊,第一雷达测量数据与第二雷达测量数据的关联可以包括确定与第一局部方位角和仰角以及第二局部方位角和仰角相对应的全局方位角和仰角。例如,全局方位角和全局仰角可以基于第一局部方位角和仰角与全局方位角和仰角之间的预定映射以及基于第二局部方位角和仰角与全局方位角和仰角之间的预定映射来确定。全局方位角与全局仰角之间的关系可以对应于第一局部方位角与第一局部仰角之间的关系,以及对应于第二局部方位角与第二局部仰角之间的关系。
例如,该电路可以基于全局方位角与全局仰角之间的关系来确定与第一局部方位角和第二局部方位角两者相对应的全局方位角和全局仰角。
该电路然后可以基于所确定的全局方位角、所确定的全局仰角以及基于第一范围和第二范围中的至少一个的范围来确定目标的3D位置。
在一些实施例中,第一雷达测量数据还指示目标的第一径向速度,并且第二雷达测量数据还指示目标的第二径向速度;并且关联包括将第一径向速度与第二径向速度相关联。
例如,(一个或多个)雷达传感器可以基于多普勒效应,即,分别基于第一接收雷达信号相对于第一射出雷达信号和第二接收雷达信号相对于第二射出雷达信号的频谱中的频率偏移,来确定第一径向速度和第二径向速度。频率偏移可以是由(一个或多个)雷达传感器与目标之间的相对速度引起的。例如,第一径向速度可以对应于第一范围的时间导数,并且第二径向速度可以对应于第二范围的时间导数。
例如,在一些实施例中,如果第一接收雷达信号和第二接收雷达信号是在环境中的不同坐标处和/或不同时间点接收的,则第一径向速度和第二径向速度可以仅对于一个全局方位角和一个全局仰角是彼此相一致的。
例如,在一些实施例中,基于第一径向速度和第二径向速度将第一雷达测量数据与第二雷达测量数据相关联允许对全局方位角和仰角的更精确的确定,和/或允许分辨通过仅考虑第一和第二局部方位角无法分辨的剩余模糊。
例如,在可以假设目标的位置(并且因此还有目标的全局仰角)是固定的,并且相应地,第一局部仰角对应于第二局部仰角的一些实施例中,可以假设第一和第二径向速度的竖直分量为零。因而,第一径向速度与第二径向速度之间的比率可以对应于第一径向速度的水平分量和第二径向速度的水平分量之间的比率,并且还可以对应于第一局部方位角与第二局部方位角之间的比率。基于第一径向速度与第二径向速度之间的比率,有可能确定针对目标的全局方位角的明确解。
在一些实施例中,第一雷达测量数据和第二雷达测量数据是从不同位置获取的。
例如,接收第一接收雷达信号和第二接收雷达信号的(一个或多个)雷达传感器可以在环境内移动时接收第一接收雷达信号和第二接收雷达信号。
例如,雷达传感器可以接收第一接收雷达信号,在环境内移动(即,改变其在环境中的位置),然后接收第二接收雷达信号。
然而,本公开不限于移动通过环境的一个或多个雷达传感器。例如,第一和第二接收雷达信号可以由位于环境中的不同位置处的不同雷达传感器接收。
例如,第一雷达测量数据和第二雷达测量数据可以对应于环境的不同视图,其中,可以从不同方向和/或从不同距离和/或以(一个或多个)雷达传感器的不同速度来感测目标。
在一些实施例中,第一局部方位角和第二局部方位角彼此平行取向。
例如,接收第一雷达信号的雷达传感器的1D孔径可以平行于接收第二雷达信号的雷达传感器的1D孔径取向。
例如,第一雷达信号和第二雷达信号可以由同一个雷达传感器在雷达传感器正在移动通过环境时在不同的时间点接收。因此,第一雷达测量数据和第二雷达测量数据可以对应于环境中的雷达传感器的不同位置。
然而,本公开不限于接收第一雷达信号和第二雷达信号两者的单个雷达传感器。例如,第一雷达信号和第二雷达信号可以由两个不同的雷达传感器接收,这两个雷达传感器的1D孔径取向在同一个方向上。
在一些实施例中,第一雷达测量数据和第二雷达测量数据由布置在移动平台上的雷达传感器获取;并且第一径向速度和第二径向速度对应于移动平台的速度。
移动平台可以例如包括轿车、卡车、摩托车、自行车、拖拉机、挖掘机、火车、船只、轮船、直升机、飞机、无人机等。
获取第一雷达测量数据和第二雷达测量数据的雷达传感器可以安装在移动平台上的预定位置处。
该电路可以基于分别接收第一和第二接收雷达信号时雷达传感器在环境中的位置来估计环境中的目标的3D位置。该电路可以例如基于移动平台的移动,例如基于速度传感器、加速度传感器、旋转传感器、诸如全球定位系统(GPS)、伽利略、准天顶卫星系统(Michibiki)、北斗或格洛纳斯(GLONASS)等的全球导航卫星系统(GNSS),和/或基于同步定位与地图绘制(SLAM),来确定环境中雷达传感器的位置。
因此,移动平台的移动可以允许在环境中的不同位置(例如,地点)处获取第一雷达测量数据和第二雷达测量数据。
在一些实施例中,第一局部方位角的旋转轴和第二局部方位角的旋转轴取向在不同的方向上;并且关联基于确定由第一雷达测量数据指示的第一模糊位置与由第二雷达测量数据指示的第二模糊位置之间的相交点。
例如,第一雷达测量数据可以由第一雷达传感器获取,并且第二雷达测量数据可以由第二雷达传感器获取,其中,第一雷达传感器的1D孔径相对于第二雷达传感器的1D孔径旋转。
例如,第一局部方位角可以包括第二局部方位角的分量和第二局部仰角的分量。同样地,第二局部方位角可以包括第一局部方位角的分量和第二局部仰角的分量。
基于第一局部方位角与第一局部仰角之间的关系,第一模糊位置可以对应于与第一局部方位角相对应的目标的位置。基于第二局部方位角与第二局部仰角之间的关系,第二模糊位置可以对应于与第二局部方位角相对应的目标的位置。
第一模糊位置与第二模糊位置之间的相交点可以对应于被包括在第一模糊位置和第二模糊位置两者中的位置。
因而,第一雷达测量数据和第二雷达测量数据可以是在相同的时间点获取的,并且第一和第二雷达传感器在环境中的移动对于补偿目标的全局方位角与全局仰角之间的模糊可能是不必要的。
在一些实施例中,第一局部方位角的旋转轴和第二局部方位角的旋转轴彼此垂直取向。
例如,第一雷达传感器的1D孔径可以垂直于第二雷达传感器的1D孔径取向。
因此,第二仰角在第一方位角中的分量可以被最大化,并且第一仰角在第二方位角中的分量可以被最大化。
因而,在一些实施例中,所确定的明确全局方位角和所确定的明确全局仰角的精度得到优化。
在一些实施例中,相交点的确定基于确定第一模糊位置与第二模糊位置之间的重叠。
例如,重叠的确定可以基于传感器融合,并且可以包括基于第一局部方位角及其与第一局部仰角的关系来确定第一模糊位置,基于第二局部方位角及其与第二局部仰角的关系来确定第二模糊位置,以及确定到第一模糊位置和第二模糊位置两者的距离最小的全局方位角和全局仰角作为第一模糊位置与第二模糊位置之间的重叠。
例如,重叠的确定可以基于求根算法,诸如牛顿法,基于最小二乘算法,诸如Levenberg-Marquardt算法,或基于最大似然法。
在一些实施例中,相交点的确定包括将网格地图的与第一模糊位置相对应的单元格与指示目标的概率联系;将网格地图的与第二模糊位置相对应的单元格与指示目标的概率联系;以及基于关联的概率来标识网格地图的与第一模糊位置和第二模糊位置两者相对应的单元格。
例如,网格地图可以包括多个单元格,其中,每个单元格对应于环境中的坐标。例如,多个单元格的单元格可以是正方形的(当仅考虑第一(或第二,分别地)范围和局部方位角,而不考虑第一(或第二,分别地)局部仰角时)或立方体的(当也考虑第一(或第二,分别地)局部仰角时),其边长对应于例如环境中的一厘米、一分米、一米、十米或一百米。然而,本公开不限于此类单元格。例如,单元格也可以是长方体的,或者可以具有任何其他合适的形状并且可以具有任何其他合适的边长或大小。
例如,该电路可以最初向网格地图的每个单元格分配先验概率。然后,电路可以用指示模糊位置的概率来更新与第一模糊位置相对应的每个单元格的概率。同样地,该电路可以用指示模糊位置的概率来更新与第二模糊位置相对应的每个单元格的概率。该电路可以使用可能高于先验概率值的值作为指示模糊位置的概率。例如,该电路可以对于与第一或第二模糊位置相对应的所有单元格使用相同的值或者使用根据预定模式或具有预定量噪声的不同的值作为指示模糊位置的位置。在更新网格地图中与第一或第二模糊位置相对应的单元格的概率之后,该电路可以选择与网格地图的单元格当中具有最高概率的单元格相对应的位置作为与(明确)全局方位角相对应和与(明确)全局仰角相对应的位置。
作为更新与第一和/或第二模糊位置相对应的单元格的概率的替代或补充,该电路可以用指示没有检测到目标的位置(即,没有被包括在第一或第二模糊位置中的位置)的概率来更新不与第一和/或第二模糊位置相对应的单元格的概率。
例如,更新可以基于用于占用网格地图(Occupancy Grid Map,OGM)的更新公式,诸如等式(1),该等式基于:Thrun,Sebastian:“Learning occupancy grids with forwardmodels”,Proceedings 2001IEEE/RSJ International Conference on IntelligentRobots and Systems,25 2001,Digital Object Identifier(DOI):10.1109/IROS.2001.977219:
在等式(1)中,p(mi|z1:t,x1:t)表示与网格地图的单元格mi关联的概率,其中,该概率基于时间帧1到t(即,当前处理的时间帧t和所有先前处理的时间帧)的雷达传感器测量z1:t和对应的雷达传感器位置x1:t。相应地,p(mi|zt,xt)表示与单元格mi关联的基于当前处理的时间帧t的雷达传感器测量zt和对应的雷达传感器位置xt的概率,并且p(mi|z1:t-1,x1:t-1)表示与单元格mi关联的基于从1到t-1(即,没有当前处理的时间帧t)的时间帧的雷达传感器测量z1:t-1和对应的雷达传感器位置x1:t-1的概率。对于时间帧1,即,当第一概率被插入到单元格中时,递归项可以被省略(或被设定到1)。此外,p(mi)表示单元格mi的占用的先验,并且可以被初始化为例如0.5,而不将本公开限制于此。
等式(1)中被标记为“当前测量”的项可以对应于当前处理的测量,例如,对应于指示第一或第二模糊位置的概率。等式(1)中被标记为“递归项”的项可以对应于先前处理的测量,例如,对应于当处理第二接收雷达信号时(在第一接收雷达信号在第二接收雷达信号之前被处理的情况下)的第一接收雷达信号。等式(1)中被标记为“先验信息”的项可以对应于预定先验概率。因此,等式(1)的项p(mi|z1:t,x1:t)可以被分配给网格地图作为可以指示第一和/或第二模糊位置的更新后的概率。
该电路可以在对数域中评估等式(1)的乘积。
该电路可以迭代地更新相应单元格的概率。该电路可以对于多于两个接收雷达信号确定模糊位置,并且可以对于多于两个接收的雷达信号中的每一个相应地进行更新。
在一些实施例中,第一雷达测量数据由第一雷达传感器获取;第二雷达测量数据由第二雷达传感器获取;以及第一雷达传感器和第二雷达传感器根据第一局部方位角的旋转轴与第二局部方位角的旋转轴之间的取向差彼此相对旋转。
如上文提到的,根据第一局部方位角的旋转轴与第二局部方位角的旋转轴之间的差异,第一雷达传感器的1D孔径可以不同于第二雷达传感器的1D孔径取向。
例如,第一雷达传感器和第二雷达传感器可以具有相似的特性,例如,可以具有相差不超过制造公差的技术属性,和/或可以是相同或相似的类型,并且第一雷达传感器可以以相比于第二雷达传感器的另一取向安装在例如移动平台上。
因此,可以不必用不同类型的雷达传感器获取第一雷达测量数据和第二雷达测量数据。
然而,本公开不限于使用相同类型的雷达传感器用于第一雷达信号和第二雷达信号。获取第一雷达测量数据的第一雷达传感器也可以是与获取第二雷达测量数据的第二雷达传感器不同类型的传感器(例如,具有不同的特性)。
第一雷达传感器和第二雷达传感器可以定向在环境的相同部分或者重叠的环境的不同部分处。然而,第一雷达传感器和第二雷达传感器两者可以是这样取向的,使得它们从目标接收雷达信号,并且该电路可以例如基于预定映射来确定由第一雷达测量数据指示的目标的位置(例如,第一模糊位置),该位置对应于由第二雷达测量数据指示的目标的位置(例如,第二模糊位置)(例如,与之重叠)。
一些实施例涉及一种用于三维位置估计的方法,其中,该方法包括:获得指示目标的第一范围和第一局部方位角的第一雷达测量数据;获得指示目标的第二范围和第二局部方位角的第二雷达测量数据;基于将第一雷达测量数据与第二雷达测量数据相关联来补偿目标的全局方位角与目标的全局仰角之间的模糊,其中,目标的全局方位角与全局仰角之间的关系由第一雷达测量数据和第二雷达测量数据中的至少一个表示;以及基于目标的全局方位角、全局仰角以及第一范围和第二范围中的至少一个来估计目标的三维位置。
该方法可以如上所述相对于电路来配置。因此,该电路的所有特征可以对应于该方法的特征。
在一些实施例中,如本文所述的方法还被实施为计算机程序,该计算机程序当在计算机和/或处理器上被施行时使计算机和/或处理器进行该方法。在一些实施例中,还提供了一种非暂时性计算机可读记录介质,该非暂时性计算机可读记录介质在其中存储计算机程序产品,该计算机程序产品当由处理器(诸如上述处理器)执行时使本文描述的方法将进行。
因而,一些实施例使能基于分布式非相干雷达传感器的环境的3D表示,这些雷达传感器仅被配置为估计2D位置(例如,范围和局部方位角)。虽然现今的环境表示在一些实例中仅是2D的(xy平面,例如,水平),但是一些实施例附加地允许确定目标的第三维度(z分量,例如,高度)。这可能需要雷达传感器网络或移动或静止平台上的单个传感器。虽然先前的办法在一些实例中基于3D目标信息,但是如上所述,一些实施例允许在2D目标信息的基础上确定空间中的3D位置,而没有任何精度损失。
回到图1,图1示出了根据实施例的用于基于2D雷达测量数据来确定3D位置的融合算法1的两个替换方案。融合算法1可以由电路来进行,并且可以作为方法来进行。作为第一替代方案,融合算法1可以被实现为单传感器算法2。作为第二替代方案,融合算法1可以被实现为单网络算法3。
单传感器算法2在图1的左侧图示,并且基于使用具有1D孔径的单个传感器4,并且因此仅被配置为估计目标的局部方位角,即,在单个传感器4的局部坐标系的xy平面内的角度。单个传感器4还被配置为估计目标的范围,即,单个传感器4与目标之间的距离,以及目标的径向速度,但是单个传感器4不被配置为估计局部仰角,即,在平行于单个传感器4的局部坐标系的z轴的方向上的角度。
单个传感器4安装在车辆上,并且在车辆正在移动通过环境时重复地获取雷达测量数据。车辆是移动平台的示例。在下文中,为了简单起见,假设单个传感器4取向在车辆的移动方向上,即,单个传感器4的光轴(这里是单个传感器4的局部坐标系的x轴)平行于车辆的速度矢量。对于其他传感器取向,可以相应地适应以下等式。
单个传感器4与目标之间的视线(即,目标的径向速度vr的矢量)相对于单个传感器4的光轴水平地倾斜局部方位角Φ,并且竖直地倾斜局部仰角Θ。
基于目标是静止的假设,即,目标相对于环境没有移动,等式(2)可以用于与车速v相组合估计目标的局部方位角Φ:
vr=-v cos(Φ)cos(Θ) (2)
这里,vr表示目标的径向速度。
只要已知目标的局部方位角Φ和测定径向速度vr,就可以确定目标的局部仰角Θ。一般来说,由于余弦的对称性,这引起目标的局部仰角Θ的两个结果,由此根据先验知识,这两个结果中只有一个是似乎合理的。
然而,一般来说,这里,目标的局部方位角Φ也不是明确地已知的,因为局部方位角Φ也依赖于目标的局部仰角Θ,其关系由等式(3)指示:
角度Φθ=0表示在局部仰角Θ为零的情况下(即,目标在z方向上与单个传感器4是相同高度)的局部方位角Φ。然而,可以在Θ=0的假设的情况下估计角度ΦΘ=0。一般来说,如果Θ≠0,则可能对于角度ΦΘ=0估计了不正确值。
因而,利用了车辆在环境中的移动5。单个传感器4获取第一雷达测量数据,该第一雷达测量数据指示目标的第一范围、第一局部方位角和第一径向速度。然后,单个传感器4获取第二雷达测量数据,该第二雷达测量数据指示目标的第二范围、第二局部方位角和第二径向速度。
由于车辆的移动5,第一雷达测量数据不同于第二雷达测量数据。一般来说,第一和第二范围不同,第一和第二局部方位角不同,并且第一和第二径向速度不同。然而,一般来说,目标的局部仰角在两个测量期间保持相同,因为车辆在xy平面内移动。
因此,目标的局部仰角Θ的正确值可以基于第一雷达测量数据与第二雷达测量数据之间的差来确定。
因而,单传感器算法2允许估计目标的3D位置,因为它将是用2D成像雷达传感器6获得的。
单网络算法3在图1的右侧图示,并且基于使用连接在网络中的两个雷达传感器7和8。
第一雷达传感器7和第二雷达传感器8具有平行的光轴和重叠的视场(FoV),使得两个雷达传感器7和8可以感测目标。雷达传感器7和8绕它们的光轴(x轴)彼此相对旋转。在图1的实施例中,雷达传感器7和8彼此相对旋转90°,使得分别由第一雷达传感器7和第二雷达传感器8检测的局部方位角的旋转轴彼此垂直取向。
单网络算法3的优点在于,在一些实施例中不需要附加的速度信息,因此对于在环境内不移动的静止雷达传感器7和8也允许3D位置估计。然而,单网络算法3需要至少两个雷达传感器7和8。虽然在图1的实施例中使用了两个雷达传感器7和8,但是在一些实施例中,单网络算法3也可以使用三个或更多个雷达传感器。
由于在图1的实施例中,雷达传感器7和8(以及它们的相应局部坐标系)绕它们的光轴彼此相对旋转90°,所以第一雷达传感器7的局部方位角被用作目标的全局方位角,并且第二雷达传感器8的局部方位角被用作目标的全局仰角。因此,进行第一雷达传感器7和第二雷达传感器8的传感器融合,以用于确定目标的明确3D位置,因为它可以由2D成像雷达传感器9获得。单网络算法3中的传感器融合的基本思想如图2图示。
图2图示了根据实施例的绕它们的光轴彼此相对旋转的第一雷达传感器7与第二雷达传感器8之间的传感器融合。
雷达传感器7和8两者进行1D角度估计。
因此,第一雷达传感器7获取指示目标的第一范围R和第一局部方位角Φ1的第一雷达测量数据10。第一雷达测量数据10被图示为网格地图,其中,与第一范围R相对应和与第一局部方位角Φ1相对应的单元格在图2中用阴影表示。第一雷达传感器7不测量目标的第一局部仰角Θ1,使得由第一雷达测量数据10指示的目标的位置对于第一局部仰角Θ1是模糊的。
同样地,第二雷达传感器8获取指示目标的第二范围R和第二局部方位角Φ2的第二雷达测量数据11。第二雷达测量数据11被图示为网格地图,其中,与第二范围R相对应和与第二局部方位角Φ2相对应的单元格在图2中用阴影表示。第二雷达传感器8不测量目标的第二局部仰角Θ2,使得由第二雷达测量数据11指示的目标的位置相对于第二局部仰角Θ2是模糊的。
在图2的实施例中,第一雷达传感器7和第二雷达传感器8这样彼此靠近设置,使得由第一雷达传感器7测量的第一范围R等于由第二雷达传感器8测量的第二范围R。因而,第一和第二范围由相同的符号R表示,并且在下文中被称为目标的范围R。
如图2所示,第一雷达传感器7和第二雷达传感器8绕它们的光轴彼此相对旋转90°,它们的光轴与相应雷达传感器7和8的局部坐标系的x轴相一致。因而,第一局部方位角Φ1的旋转轴和第二局部方位角Φ2的旋转轴彼此垂直取向。
因此,在图2的实施例中,第一局部方位角Φ1的方向对应于目标的全局方位角Φ全局的方向,并且第二局部方位角Φ2的方向对应于目标的全局仰角Θ全局
为了进行第一雷达传感器7与第二雷达传感器8之间的传感器融合,分别表示第一雷达测量数据10和第二雷达测量数据11的网格地图被整合在与目标所处的环境相对应的3D网格地图12中。
如图2的下部分所示,第一雷达测量数据10对应于3D网格地图12的水平平面,并且第二雷达测量数据11对应于3D网格地图12的竖直平面。竖直虚线条13表示由第一雷达测量数据10指示的目标的第一模糊位置,其相对于目标的(未知的)第一仰角Θ1是模糊的。水平虚线条14表示由第二雷达测量数据11指示的目标的第二模糊位置,其相对于目标的(未知的)第二仰角Θ2是模糊的。
对于目标提取,进行目标的全局方位角Φ全局和全局仰角Θ全局的模糊消除。模糊消除包括确定第一模糊位置13和第二模糊位置14重叠的相交点15。相交点15对应于目标的明确3D位置。在图2中,与相交点15相对应的单元格用实线绘制。
注意,在图2中,为了简单起见,第一模糊位置13和第二模糊位置14分别被绘制为竖直条和水平条。然而,在一些实施例中,取决于第一雷达传感器7和第二雷达传感器8的特性,第一(和第二,分别地)局部方位角与第一(和第二,分别地)局部仰角之间的关系可以是非正交的。结果,在此类实施例中,目标的全局方位角Φ全局与全局仰角Θ全局之间的关系也可以是非正交的。在此情况下,例如,第一模糊位置13和第二模糊位置14可以是曲线形的。
相应地,在一些实施例中,使用的所有雷达传感器(在图2的实施例中,只有两个雷达传感器7和8)的局部方位角被用于确定全局3D坐标系12(传感器融合)中的相交点15,其中,相应局部仰角被假设是未知的。通过传感器融合,包括距离信息,可以估计3D目标位置(针对所有雷达传感器的模糊位置的叠加)。在一些实施例中,雷达传感器的模糊位置是环状的(而不是为了简单起见如图2图示的线性的)。因此,在一些实施例中,传感器融合对应于一种三维多边定位。
在一些实施例中,使用重叠问题和/或在一些实施例中使用通过应用在局部(未知)仰角中具有相同概率的概率3D网格地图算法的概率评估来求解位置。在一些实施例中,重叠问题和概率评估两者可能引起相同的结果。
在一些实施例中,传感器融合是级联的,其中,只要雷达传感器具有重叠FoV,就可以使用具有任意相应x取向、y取向和z取向的任意数量的雷达传感器。在一些实施例中,还通过在不同时间在不同帧中检测相同场景来实现重叠FoV。
图3图示了根据实施例的电路20的框图。电路20包括控制单元21、存储单元22、通信单元23、第一测量数据获得单元24、第二测量数据获得单元25、模糊补偿单元26和位置估计单元27。
控制单元21控制电路20的功能。控制单元21加载和执行被存储在存储单元22中的指令。基于这些指令,控制单元21使电路20进行3D位置估计。
存储单元22包括非易失性存储部和易失性存储部。由控制单元21加载和执行的指令被存储在非易失性存储部中。在易失性存储部中,存储对于进行3D位置估计是必要的临时数据。临时数据包括分别由第一测量数据获得单元24和第二测量数据获得单元25获得的第一雷达测量数据和第二雷达测量数据。临时数据还包括由位置估计单元27估计的3D位置,该3D位置在由通信单元23发送之前被存储在易失性存储部中。临时数据还包括当进行3D位置估计时由电路20的任何单元生成的中间数据。
通信单元23包括用于根据控制器局域网(CAN)总线协议与其他信息处理设备通信的接口。通信单元23的接口连接到其中设置了电路20的移动平台的CAN总线。该接口从连接到CAN总线的其他设备或单元接收数据,并且向连接到CAN总线的其他设备或单元发送数据。
第一测量数据获得单元24获得第一雷达测量数据。为了获得第一雷达测量数据,第一测量数据获得单元24使通信单元23从啁啾序列雷达传感器接收第一雷达测量数据,该啁啾序列雷达传感器连接到CAN总线并且获取第一雷达测量数据。第一雷达测量数据指示目标的第一范围和目标的第一局部方位角。第一测量数据获得单元24将第一雷达测量数据存储在存储单元22中。
第二测量数据获得单元25获得第二雷达测量数据。第二测量数据获得单元25类似于第一测量数据获得单元24配置。因此,为了获得第二雷达测量数据,第二测量数据获得单元25使通信单元23从啁啾序列雷达传感器接收第二雷达测量数据,该啁啾序列雷达传感器连接到CAN总线并且获取第二雷达测量数据。第二雷达测量数据指示目标的第二范围和目标的第二局部方位角。第二测量数据获得单元25将第二雷达测量数据存储在存储单元22中。
模糊补偿单元26补偿目标的全局方位角与目标的全局仰角之间的模糊。全局方位角与全局仰角之间的模糊的补偿基于目标的全局方位角与全局仰角之间的关系。全局方位角和全局仰角之间的关系由第一雷达测量数据和第二雷达测量数据表示。因而,模糊补偿单元26从存储单元22获得第一雷达测量数据和第二雷达测量数据。
模糊补偿单元26包括测量数据关联单元28。测量数据关联单元28将第一雷达测量数据与第二雷达测量数据相关联。作为关联的结果,测量数据关联单元28获得目标的明确全局方位角和目标的明确全局仰角。下面参考图4和5更详细地描述了测量数据关联单元28。模糊补偿单元26将目标的明确全局方位角和明确全局仰角存储在存储单元22中。
位置估计单元27基于目标的(明确)全局方位角、目标的(明确)全局仰角以及第一和第二雷达测量数据来估计目标的3D位置。因而,位置估计单元27从存储单元22获得明确全局方位角、明确全局仰角、第一雷达测量数据和第二雷达测量数据。
尽管在一些实施例中,目标的3D位置可以仅基于目标的第一范围和第二范围之一来确定,但是在图3的实施例中,位置估计单元27基于目标的第一范围来估计目标的第一3D位置,基于目标的第二范围来估计目标的第二3D位置,以及将目标的3D位置估计为第一3D位置和第二3D位置的平均值,以用于目标的3D位置的更稳健的估计。
位置估计单元27将在与明确全局方位角相对应的水平方向上和在与明确全局仰角相对应的竖直方向上的位置估计作为目标的第一(和第二,分别地)3D位置,从已经获取第一(第二)雷达测量数据(接收到相应反射雷达信号)的相应雷达传感器在接收相应反射雷达信号时所处的位置分开与目标的第一(第二)范围相对应的距离。
位置估计单元27然后估计目标的3D位置作为目标的第一3D位置和第二3D位置的平均值,并且将估计的目标的3D位置存储在存储单元22中。
电路20使通信单元23经由接口向连接到CAN总线的另一信息处理设备发送被存储在存储单元22中的估计3D位置。
控制单元21、存储单元22、通信单元23、第一测量数据获得单元24、第二测量数据获得单元25、模糊补偿单元26和位置估计单元27各自连接到电路20的内部总线,并且可以经由内部总线彼此通信。
注意,仅出于说明的目的,电路20被划分成其相应单元21至27,并且在一些实施例中,单元21至27中的一些或全部的功能性由一个单元提供。例如,在一些实施例中,第一测量数据获得单元24和第二测量数据获得单元25由单个测量数据获得单元表示。例如,在一些实施例中,模糊补偿单元26和位置估计单元27由单个单元表示。例如,在一些实施例中,控制单元21包括第一测量数据获得单元24、第二测量数据获得单元25、模糊补偿单元26和/或位置估计单元27。例如,在一些实施例中,第一测量数据获得单元24和/或第二测量数据获得单元25被包括在通信单元23中。
图4图示了根据实施例的用于单传感器算法(诸如图1的单传感器算法2)的测量数据关联单元28a的框图。测量数据关联单元28a是图3的测量数据关联单元28的示例。
在图4的实施例中,第一雷达测量数据还指示目标的第一径向速度,并且第二雷达测量数据还指示目标的第二径向速度。
此外,在图4的实施例中,第一雷达测量数据和第二雷达测量数据由同一个雷达传感器4(图1的雷达传感器4)获取,该雷达传感器布置在其中设置了图3的电路20的移动平台上。因此,在图4的实施例中,目标的第一局部方位角和第二局部方位角彼此平行取向。
雷达传感器4在移动平台正在移动通过环境时在不同的时间点获取第一雷达测量数据和第二雷达测量数据。因而,在图4的实施例中,第一雷达测量数据和第二雷达测量数据是从环境中的不同位置获取的,并且第一径向速度和第二径向速度对应于移动平台正在以其在环境内移动的移动平台的速度。这里,假设目标是静止目标,即,目标在环境内具有固定位置。
测量数据关联单元28a包括速度关联单元29。速度关联单元29将第一径向速度与第二径向速度关联,使得模糊补偿单元26可以基于第一和第二径向速度的关联来补偿目标的全局方位角的模糊和全局仰角的模糊,从而确定目标的明确全局方位角和明确全局仰角,如上文针对图1的单传感器算法2描述的。
图5图示了根据实施例的用于单网络算法(诸如图1的单网络算法3)的测量数据关联单元28b的框图。测量数据关联单元28b是图3的测量数据关联单元28的示例。
在图5的实施例中,第一雷达测量数据由第一雷达传感器7(图1的雷达传感器7)获取,并且第二雷达测量数据由第二雷达传感器8(图1的雷达传感器8)获取。第一雷达传感器7和第二雷达传感器8绕它们的光轴彼此相对旋转90°。相应地,在图5的实施例中,第一局部方位角的旋转轴和第二局部方位角的旋转轴彼此垂直取向,并且因此取向在不同的方向上,并且第一雷达传感器7和第二雷达传感器8根据第一局部方位角的旋转轴与第二局部方位角的旋转轴之间的取向差彼此相对旋转。
测量数据关联单元28b包括相交确定单元30,该相交确定单元确定由第一雷达测量数据指示的第一模糊位置与由第二雷达测量数据指示的第二模糊位置之间的相交点。第一模糊位置和第二模糊位置分别对应于图2的第一模糊位置13和第二模糊位置14。
相交确定单元30包括重叠确定单元31,该重叠确定单元确定第一模糊位置和第二模糊位置之间的重叠,如上文关于图2描述的。
重叠确定单元31包括概率联系单元32和标识单元33。
概率联系单元32基于等式(1)将网格地图的与第一模糊位置相对应的单元格与指示目标的概率联系。然后,概率联系单元32基于等式(1)将网格地图的与第二模糊位置相对应的单元格与指示目标的概率联系。因此,网格地图中与第一和第二模糊位置的重叠相对应的单元格与指示目标的概率联系两次,并且结果,具有比网格地图的不与第一和第二模糊位置的重叠相对应的单元格更高的相联系的概率。
网格地图和相联系的概率被存储在图3的存储单元22中,并且概率联系单元32根据需要从存储单元22获得相联系的概率和将相联系的概率存储在存储单元22中。
标识单元33基于相联系的概率来标识网格地图的与第一模糊位置和第二模糊位置两者相对应的单元格。为了标识,标识单元33从存储单元22获得与网格地图的单元格相联系的概率,确定网格地图的单元格当中与最高概率相联系的单元格,以及确定对应于与最高概率相联系的单元格的位置作为目标的明确位置。目标的明确位置包括目标的明确全局方位角和明确全局仰角。
注意,在图5中将重叠确定单元31划分成概率联系单元32和标识单元33仅是出于说明的目的提供的,而不将本公开限于此。例如,在一些实施例中,概率联系单元32和标识单元33由单个单元表示。
还要注意,在一些实施例中,重叠确定单元31不包括概率联系单元32和标识单元33,并且相交确定单元30确定第一和第二模糊位置的相交点,而不将概率分配给网格地图的单元格,而是例如基于用于确定与第一和第二模糊位置两者具有最小距离的位置的优化问题,这可以例如基于最小二乘算法。
图6图示了根据实施例的方法40的流程图。方法40是由图3的电路20执行的方法的示例。
在S41处,方法40获得第一雷达测量数据。在S41处的第一雷达测量数据的获得由图3的第一测量数据获得单元24进行。为了获得第一雷达测量数据,从获取第一雷达测量数据的啁啾序列雷达传感器接收第一雷达测量数据。第一雷达测量数据指示目标的第一范围和目标的第一局部方位角。
在S42处,方法40获得第二雷达测量数据。在S42处的第二雷达测量数据的获得由图3的第二测量数据获得单元25进行,并且被配置类似于在S41处的第一测量数据的获得。因此,为了获得第二雷达测量数据,从获取第二雷达测量数据的啁啾序列雷达传感器接收第二雷达测量数据。第二雷达测量数据指示目标的第二范围和目标的第二局部方位角。
在S43处,方法40补偿目标的全局方位角与目标的全局仰角之间的模糊。在S43处的全局方位角与全局仰角之间的模糊的补偿由图3的模糊补偿单元26进行,并且基于目标的全局方位角与全局仰角之间的关系。全局方位角和全局仰角之间的关系由第一雷达测量数据和第二雷达测量数据表示。
在S43处的模糊的补偿包括在S44处的将测量数据相关联。在S44处的测量数据的关联由图3的测量数据关联单元28进行,并且将第一雷达测量数据与第二雷达测量数据相关联。作为在S44处的关联的结果,获得了目标的明确全局方位角和目标的明确全局仰角。下文参考图7和图8更详细地描述了在S44处的测量数据的关联。
在S45处,方法40基于目标的(明确)全局方位角、基于目标的(明确)全局仰角以及基于第一和第二雷达测量数据来估计目标的3D位置。在S45处的3D位置的估计由图3的位置估计单元27进行。
尽管在一些实施例中,目标的3D位置可以仅基于目标的第一范围和第二范围之一来确定,但是在图6的实施例中,在S45处的3D位置的估计基于目标的第一范围来估计目标的第一3D位置,基于目标的第二范围来估计目标的第二3D位置,以及将目标的3D位置估计为第一3D位置和第二3D位置的平均值,以用于目标的3D位置的更稳健的估计。
方法40在S45处估计在与明确全局方位角相对应的水平方向上和在与明确全局仰角相对应的竖直方向上的位置作为目标的第一(和第二,分别地)3D位置,从已经获取第一(第二)雷达测量数据(接收到相应反射雷达信号)的相应雷达传感器在接收相应反射雷达信号时所处的位置分开与目标的第一(第二)范围相对应的距离。
然后,方法40在S45处将目标的3D位置估计为目标的第一3D位置和第二3D位置的平均值。
注意,仅出于说明的目的,方法40被分别划分成S41至S45,并且在一些实施例中,S41至S45中的一些或全部的排序不同于图6的排序。例如,在一些实施例中,在S41处的第一测量数据的获得是在S42处的第二测量数据的获得之后或与之同步进行的。例如,在一些实施例中,在S43处的模糊的补偿和在S45处的3D位置的估计是同步地或在同一个步骤中进行的。
图7图示了根据实施例的用于在单传感器算法(诸如图1的但传感器算法2)中将测量数据相关联的流程图。在S44a处的测量数据的关联是图6的在S44处的测量数据的关联的示例,并且由图4的测量数据关联单元28a进行。
在图7的实施例中,第一雷达测量数据还指示目标的第一径向速度,并且第二雷达测量数据还指示目标的第二径向速度。
此外,在图7的实施例中,第一雷达测量数据和第二雷达测量数据由布置在移动平台上的同一个雷达传感器4(图1的雷达传感器4)获取。因此,在图7的实施例中,目标的第一局部方位角和第二局部方位角彼此平行取向。
雷达传感器4在移动平台正在移动通过环境时在不同的时间点获取第一雷达测量数据和第二雷达测量数据。因而,在图7的实施例中,第一雷达测量数据和第二雷达测量数据是从环境中的不同位置获取的,并且第一径向速度和第二径向速度对应于移动平台正在以其在环境内移动的移动平台的速度。这里,假设目标是静止目标,即,目标在环境内具有固定位置。
在S44a处的测量数据的关联包括在S46处的将速度相关联。在S46处的速度的关联由图4的速度关联单元29进行,并且将第一径向速度与第二径向速度相关联,使得在S43处的模糊的补偿可以基于第一和第二径向速度的关联来补偿目标的全局方位角的模糊和全局仰角的模糊,从而确定目标的明确全局方位角和明确全局仰角,如上文针对图1的单传感器算法2描述的。
图8图示了根据实施例的用于在单网络算法(诸如图1的单网路算法3)中将测量数据相关联的流程图。在S44b处的测量数据的关联是图6的在S44处的测量数据的关联的示例,并且由图5的测量数据关联单元28b进行。
在图8的实施例中,第一雷达测量数据由第一雷达传感器7(图1的雷达传感器7)获取,并且第二雷达测量数据由第二雷达传感器8(图1的雷达传感器8)获取。第一雷达传感器7和第二雷达传感器8绕它们的光轴彼此相对旋转90度。相应地,在图8的实施例中,第一局部方位角的旋转轴和第二局部方位角的旋转轴彼此垂直取向,并且因此取向在不同的方向上,并且第一雷达传感器7和第二雷达传感器8根据第一局部方位角的旋转轴与第二局部方位角的旋转轴之间的取向差彼此相对旋转。
在S44b处的测量数据的关联包括在S47处由图5的相交确定单元30进行的相交确定,并且确定由第一雷达测量数据指示的第一模糊位置与由第二雷达测量数据指示的第二模糊位置之间的相交点。第一模糊位置和第二模糊位置分别对应于图2的第一模糊位置13和第二模糊位置14。
在S47处的相交的确定包括在S48处由图5的重叠确定单元31进行的重叠确定,并且确定第一模糊位置与第二模糊位置之间的重叠,如上文关于图2描述的。
在S48处的重叠的确定包括在S49处的将概率相联系和在S50处的标识。
在S49处的概率的联系由图5的概率联系单元32进行,并且基于等式(1)将网格地图的与第一模糊位置相对应的单元格与指示目标的概率相联系。然后,在S49处的概率的联系基于等式(1)将网格地图的与第二模糊位置相对应的单元格与指示目标的概率相联系。因此,网格地图中与第一和第二模糊位置的重叠相对应的单元格与指示目标的概率相联系两次,并且结果,具有比网格地图的不与第一和第二模糊位置的重叠相对应的单元格更高的相联系的概率。
在S50处的标识由图5的标识单元33进行,并且基于相联系的概率来标识网格地图的与第一模糊位置和第二模糊位置两者相对应的单元格。在S50处的标识确定网格地图的单元格当中与最高概率相联系的单元格,并且确定对应于与最高概率相联系的单元格的位置作为目标的明确位置。目标的明确位置包括目标的明确全局方位角和明确全局仰角。
注意,将在S48处的重叠的确定划分成图8中的在S49处的概率的联系和在S50处的标识仅是出于说明的目的提供的,而不将本公开限于此。例如,在一些实施例中,在S49处的概率的联系和在S50处的标识由单个步骤表示。
还要注意,在一些是实施例中,在S48处的重叠的确定不包括在S49处的概率的联系和在S50处的标识,并且在S47处的相交的确定确定第一和第二模糊位置的相交点,而不将概率分配给网格地图的单元格,而是例如基于用于确定与第一和第二模糊位置两者具有最小距离的位置的优化问题,这可以基于例如最小二乘算法。
如上所述,在一些实施例中,环境的基于3D雷达的地图绘制可以基于分布式2D(仅x和y位置)估计雷达传感器来进行。在一些实施例中,具有不同x取向的至少两个传感器必须检测相同的目标,或者如果仅使用一个雷达传感器,则在其上设置了雷达传感器的移动平台的速度也必须是已知的。
因此,在一些实施例中,可以比在单个测量中用单个雷达传感器理论上可能估计的多一个维度。此外,在一些实施例中,只要可以至少确定局部方位角和范围信息,就可以在没有关于雷达传感器和雷达系统特性的约束的情况下应用本技术。
在一些实施例中,硬件要求显著降低。在一些实例中,先前已知的3D环境地图的创建要求可以检测和定位3D空间中的目标的雷达传感器。
然而,在本技术的帮助下,在一些实施例中,可以检测和定位3D空间中的目标的雷达传感器不再是必要的。在一些实施例中,与移动平台的速度相组合的2D估计雷达传感器,或者仅可以估计xy平面(而不是z分量)内的目标并且绕x轴(例如,光轴)彼此相对旋转的两个雷达传感器两者足以定位3D空间中的目标。因此,对于3D位置估计,一些实施例允许选择便宜得多且先前已经已知的现成的现有雷达传感器,而不用必须遵守特殊的硬件要求。
在一些实施例中,由本技术提供的电路/方法/算法是模块化的,使得多个雷达传感器可以用于进一步改进3D位置估计的结果。
在下文中,给出了本技术的应用的示例。
根据本公开的实施例的技术可适用于各种产品。例如,根据本公开的实施例的技术可以被实现为被包括在移动体中的设备,该移动体是轿车、电动车辆、混合电动车辆、摩托车、自行车、个人移动车辆、飞机、无人机、轮船、机器人、建筑机械、农业机械(拖拉机)等中的任何一种。
图9是描绘作为可以应用根据本公开的实施例的技术的移动体控制系统的示例的车辆控制系统7000的示意性配置的示例的框图。车辆控制系统7000包括经由通信网络7010彼此连接的多个电子控制单元。在图9中描绘的示例中,车辆控制系统7000包括驱动系统控制单元7100、车身系统控制单元7200、电池控制单元7300、车外信息检测单元7400、车内信息检测单元7500和集成控制单元7600。将多个控制单元彼此连接的通信网络7010可以是例如符合任意标准的车载通信网络,诸如控制器局域网(CAN)、局域互连网络(LIN)、局域网(LAN)、FlexRay(注册商标)等。
控制单元中的每一个包括:根据各种程序进行算术处理的微型计算机;存储由微型计算机执行的程序、用于各种操作的参数等的存储部;以及驱动各种控制目标设备的驱动电路。控制单元中的每一个还包括:用于经由通信网络7010进行与其他控制单元的通信的网络接口(I/F);以及用于通过有线通信或无线电通信进行与车辆内外的设备、传感器等的通信的通信I/F。图9中图示的集成控制单元7600的功能配置包括:微型计算机7610、通用通信I/F 7620、专用通信I/F 7630、定位部7640、信标接收部7650、车内设备I/F 7660、声音/图像输出部7670、车载网络I/F 7680和存储部7690。其他控制单元类似地包括微型计算机、通信I/F、存储部等。
驱动系统控制单元7100根据各种程序控制与车辆的驱动系统相关的设备的操作。例如,驱动系统控制单元7100用作用于以下的控制设备:用于生成车辆的驱动力的驱动力的驱动力生成设备(诸如内燃发动机、驱动电机等),用于将驱动力传递到车轮的驱动力传递机构,用于调整车辆的转向角的转向机构,以及用于生成车辆的制动力的制动设备等。驱动系统控制单元7100可以具有作为防抱死制动系统(ABS)、电子稳定控制(ESC)等的控制设备的功能。
驱动系统控制单元7100与车辆状态检测部7110连接。车辆状态检测部7110例如包括以下中的至少一者:检测车身的轴向旋转移动的角速度的陀螺仪传感器,检测车辆的加速度的加速度传感器,以及用于检测加速器踏板的操作量、制动踏板的操作量、转向盘的转向角、发动机转速或车轮的旋转速度等的传感器。驱动系统控制单元7100使用从车辆状态检测部7110输入的信号来进行算术处理,并且控制内燃发动机、驱动电机、电动助力转向设备、制动设备等。
车身系统控制单元7200根据各种程序控制设置到车身上的各种设备的操作。例如,车身系统控制单元7200用作用于以下的控制设备:无钥匙进入系统,智能钥匙系统,电动车窗设备,或诸如前照灯、倒车灯、制动灯、转弯灯、雾灯等的各种灯。在这种情况下,从移动设备发送的无线电波作为各种开关的钥匙或信号的替代可以被输入到车身系统控制单元7200。车身系统控制单元7200接收这些输入无线电波或信号,并且控制车辆的门锁设备、电动车窗设备、灯等。
电池控制单元7300根据各种程序控制二次电池7310,该二次电池是用于驱动电机的电源。例如,从包括二次电池7310的电池设备向电池控制单元7300供应关于电池温度、电池输出电压、电池中剩余的电荷量等的信息。电池控制单元7300使用这些信号进行算术处理,并且进行用于调节二次电池7310的温度的控制或者控制对于电池设备设置的冷却设备等。
车外信息检测单元7400检测关于包括车辆控制系统7000的车辆外部的信息。例如,车外信息检测单元7400与成像部7410和车外信息检测部7420中的至少一者连接。成像部7410包括飞行时间(ToF)相机、立体相机、单目相机、红外相机和其他相机中的至少一者。车外信息检测部7420例如包括以下中的至少一者:用于检测当前大气条件或天气条件的环境传感器和用于检测包括车辆控制系统7000的车辆外围的另一车辆、障碍物、行人等的外围信息检测传感器。
环境传感器可以是例如以下中的至少一者:检测雨的雨滴传感器、检测雾的雾传感器、检测日照程度的日照传感器和检测降雪的雪传感器。外围信息检测传感器可以是以下中的至少一者:超声波传感器、雷达设备和LIDAR设备(光检测与测距设备、或激光成像检测与测距设备)。成像部7410和车外信息检测部7420中的每一者可以被设置作为独立的传感器或设备,或者可以被设置作为其中集成了多个传感器或设备的设备。
图10描绘了成像部7410和车外信息检测部7420的安装位置的示例。成像部7910、7912、7914、7916和7918例如安置在以下位置中的至少一个位置处:车辆7900的前车头、侧视镜、后保险杠和后门上的位置,以及在车辆内部之内的挡风玻璃的上部分上的位置。设置到前车头上的成像部7910以及设置到在车辆内部之内的挡风玻璃的上部分上的成像部7918主要获得车辆7900的前方的图像。设置到侧视镜上的成像部7912和7914主要获得车辆7900的侧方的图像。设置到后保险杠或后门上的成像部7916主要获得车辆7900的后方的图像。设置到在车辆内部之内的挡风玻璃的上部分上的成像部7918主要被用于检测前方车辆、行人、障碍物、信号、交通标志、车道等。
附带地,图10描绘了各个成像部7910、7912、7914和7916的拍摄范围的示例。成像范围a表示设置到前车头上的成像部7910的成像范围。成像范围b和c分别表示设置到侧视镜上的成像部7912和7914的成像范围。成像范围d表示设置到后保险杠或后门上的成像部7916的成像范围。例如,可以通过叠加由成像部7910、7912、7914和7916成像的图像数据来获得如从上面看的车辆7900的鸟瞰图像。
设置到车辆7900的前方、后方、侧方和角落以及在车辆内部之内的挡风玻璃的上部分上的车外信息检测部7920、7922、7924、7926、7928和7930可以是例如超声波传感器或雷达设备。设置到车辆7900的前车头、车辆7900的后保险杠、后门以及在车辆内部之内的挡风玻璃的上部分上的车外信息检测部7920、7926和7930可以是例如LIDAR设备。这些车外信息检测部7920至7930主要被用于检测前方车辆、行人、障碍物等。
回到图9,将继续描述。车外信息检测单元7400使得成像部7410对车辆外部的图像成像,并且接收成像后的图像数据。另外,车外信息检测单元7400从连接到车外信息检测单元7400的车外信息检测部7420接收检测信息。在车外信息检测部7420是超声波传感器、雷达设备或LIDAR设备的情况下,车外信息检测单元7400发送超声波、电磁波等,并且接收接收到的反射波的信息。在接收到的信息的基础上,车外信息检测单元7400可以进行检测诸如人、车辆、障碍物、标志、路面上的字符等的对象的处理,或者检测与其的距离的处理。车外信息检测单元7400可以在接收到的信息的基础上进行识别降雨、雾、路面条件等的环境识别处理。车外信息检测单元7400可以在接收到的信息的基础上计算到车外的对象的距离。
另外,在接收到的图像数据的基础上,车外信息检测单元7400可以进行检测人、车辆、障碍物、标志、路面上的字符等的图像识别处理,或者检测与其的距离的处理。车外信息检测单元7400可以使接收到的图像数据经历诸如失真校正、对准等的处理,并且将由多个不同的成像部7410成像的图像数据相组合以生成鸟瞰图像或全景图像。车外信息检测单元7400可以使用由包括不同成像部件的成像部7410成像的图像数据来进行视点转换处理。
车内信息检测单元7500检测关于车辆内部的信息。车内信息检测单元7500例如与检测驾驶员的状态的驾驶员状态检测部7510连接。驾驶员状态检测部7510可以包括对驾驶员成像的相机、检测驾驶员的生物信息的生物传感器、收集在车辆内部之内的声音的麦克风等。生物传感器例如安置在座位表面、转向盘等中,并且检测坐在座位上的乘员或握住转向盘的驾驶员的生物信息。在从驾驶员状态检测部7510输入的检测信息的基础上,车内信息检测单元7500可以计算驾驶员的疲劳程度或驾驶员的集中程度,或者可以确定驾驶员是否正在打瞌睡。车内信息检测单元7500可以使通过收集声音获得的音频信号经历诸如降噪处理等的处理。
集成控制单元7600根据各种程序控制在车辆控制系统7000内的总体操作。集成控制单元7600与输入部7800连接。输入部7800由例如能够由乘员进行输入操作的设备来实现,诸如触摸面板、按钮、麦克风、开关、控制杆等。可以向集成控制单元7600供应通过经麦克风对语音输入的语音识别获得的数据。输入部7800可以是例如使用红外线或其他无线电波的遥控设备,或者支持车辆控制系统7000的操作的外部连接设备,诸如移动电话、个人数字助理(PDA)等。输入部7800可以是例如相机。在这种情况下,乘员可以通过手势输入信息。替代地,可以输入通过检测乘员佩戴的可穿戴设备的移动获得的数据。此外,输入部7800可以例如包括输入控制电路等,该输入控制电路在由乘员等使用上述输入部7800输入的信息的基础上生成输入信号,并且向集成控制单元7600输出所生成的输入信号。乘员等通过操作输入部7800向车辆控制系统7000输入各种数据或给出用于处理操作的指令。
存储部7690可以包括存储由微型计算机执行的各种程序的只读存储器(ROM)和存储各种参数、操作结果、传感器值等的随机存取存储器(RAM)。另外,存储部7690可以由诸如硬盘驱动器(HDD)等的磁存储设备、半导体存储设备、光存储设备、磁光存储设备等来实现。
通用通信I/F 7620是广泛使用的通信I/F,该通信I/F协调与存在于外部环境7750中的各个设备的通信。通用通信I/F 7620可以实现蜂窝通信协议,诸如全球移动通信系统(GSM(注册商标))、全球微波接入互操作性(WiMAX(注册商标))、长期演进(LTE(注册商标))、高级LTE(LTE-A)等,或者另一无线通信协议,诸如无线LAN(也被称为无线保真(Wi-Fi(注册商标))、蓝牙(注册商标)等。通用通信I/F 7620可以例如经由基站或接入点连接到存在于外部网络(例如,因特网、云网络或公司专用网络)上的装置(例如,应用服务器或控制服务器)。另外,通用通信I/F 7620可以使用例如对等(P2P)技术连接到存在于车辆附近的终端(该终端例如是驾驶员、行人或商店的终端,或者机器类型通信(MTC)终端)。
专用通信I/F 7630是支持为在车辆中使用而开发的通信协议的通信I/F。专用通信I/F 7630可以实现例如标准协议,诸如车辆环境中的无线接入(WAVE),其是作为较低层的电气和电子工程师协会(IEEE)802.11p和作为较高层的IEEE 1609的组合、专用短程通信(DSRC)或蜂窝通信协议。专用通信I/F 7630典型地实施V2X通信作为包括以下中的一个或多个的概念:车辆与车辆之间(车辆到车辆)的通信、道路与车辆之间(车辆到基础设施)的通信、车辆与家庭之间(车辆到家庭)的通信以及行人与车辆之间(车辆到行人)的通信。
定位部7640例如通过从GNSS卫星接收全球导航卫星系统(GNSS)信号(例如,来自全球定位系统(GPS)卫星的GPS信号)来进行定位,并且生成包括车辆的纬度、经度和海拔的位置信息。顺带地,定位部7640可以通过与无线接入点交换信号来标识当前位置,或者可以从诸如移动电话、个人手持电话系统(PHS)或具有定位功能的智能手机的终端获得位置信息。
信标接收部7650例如接收从安装在道路等上的无线电站发送的无线电波或电磁波,从而获得关于当前位置、拥堵、封闭道路、必要时间等的信息。顺带地,信标接收部7650的功能可以被包括在上述专用通信I/F 7630中。
车内设备I/F 7660是协调微型计算机7610与存在于车辆内的各个车内设备7760之间的连接的通信接口。车内设备I/F 7660可以使用诸如无线LAN、蓝牙(注册商标)、近场通信(NFC)或无线通用串行总线(WUSB)的无线通信协议来建立无线连接。另外,车内设备I/F 7660可以经由图中未描绘的连接端子(和线缆,如果有必要)通过通用串行总线(USB)、高清多媒体接口(HDMI(注册商标))、移动高清链路(MHL)等来建立有线连接。车内设备7760可以例如包括乘员拥有的移动设备和可穿戴设备以及携带到车辆中或附接到车辆的信息设备中的至少一者。车内设备7760还可以包括搜索去往任意目的地的路径的导航设备。车内设备I/F7660与这些车内设备7760交换控制信号或数据信号。
车载网络I/F 7680是协调微型计算机7610与通信网络7010之间的通信的接口。车载网络I/F 7680遵照由通信网络7010支持的预定协议来发送和接收信号等。
集成控制单元7600的微型计算机7610在经由通用通信I/F 7620、专用通信I/F7630、定位部7640、信标接收部7650、车内设备I/F 7660和车载网络I/F 7680中的至少一者获得的信息的基础上,根据各种程序控制车辆控制系统7000。例如,微型计算机7610可以在所获得的关于车辆内侧和外侧的信息的基础上计算针对驱动力生成设备、转向机构或制动设备的控制目标值,并且向驱动系统控制单元7100输出控制命令。例如,微型计算机7610可以进行意图实现高级驾驶员辅助系统(ADAS)的功能的协同控制,该功能包括用于车辆的碰撞避免或撞击缓冲、基于跟随车距的跟随驾驶、车速保持驾驶、车辆碰撞的警报、车辆偏离车道的警报等。另外,微型计算机7610可以通过在所获得的关于车辆周围环境的信息的基础上控制驱动力生成设备、转向机构、制动设备等来进行意图用于自动驾驶的协同控制,这使得车辆能够自主行驶而不依赖于驾驶员的操作等。
微型计算机7610可以在经由通用通信I/F 7620、专用通信I/F 7630、定位部7640、信标接收部7650、车内设备I/F 7660和车载网络I/F 7680中的至少一者获得的信息的基础上生成车辆与诸如周围结构、人等的对象之间的三维距离信息,并且生成包括关于车辆的当前位置的周围环境的信息的局部地图信息。另外,微型计算机7610可以在所获得的信息的基础上预测诸如车辆碰撞、行人等接近、进入封闭道路等的危险,并且生成警报信号。警报信号可以是例如用于产生警报声或点亮警报灯的信号。
声音/图像输出部7670向输出设备发送声音和图像中的至少一者的输出信号,该输出设备能够向车辆的乘员或车辆外侧以视觉或听觉方式通知信息。在图9的示例中,音频扬声器7710、显示部7720和仪表面板7730被图示为输出设备。显示部7720可以例如包括车载显示器和平视显示器中的至少一者。显示部7720可以具有增强现实(AR)显示功能。输出设备可以不同于这些设备,并且可以是另一设备,诸如耳机、诸如由乘员等佩戴的眼镜型显示器的可佩戴设备、投影仪、灯等。在输出设备是显示设备的情况下,显示设备以诸如文本、图像、表格、曲线图等的各个形式以视觉方式显示通过由微型计算机7610进行的各种处理获得的结果或从另一控制单元接收的信息。另外,在输出设备是音频输出设备的情况下,音频输出设备将由再现的音频数据或声音数据等构成的音频信号转换成模拟信号,并且以听觉方式输出该模拟信号。
顺带地,在图9中描绘的示例中,可以将经由通信网络7010彼此连接的至少两个控制单元集成到一个控制单元中。替代地,每个单独的控制单元可以包括多个控制单元。此外,车辆控制系统7000可以包括图中未描绘的另一控制单元。另外,可以将上面的描述中由控制单元之一进行的部分或全部功能分配给另一控制单元。也就是说,只要经由通信网络7010发送和接收信息,就可以由控制单元中的任何一个进行预定算术处理。类似地,连接到控制单元之一的传感器或设备可以连接到另一控制单元,并且多个控制单元可以经由通信网络7010互相地发送和接收检测信息。
顺带地,用于实现根据参考图9描述的本实施例的信息处理设备100的功能的计算机程序可以在控制单元等之一中实现。另外,还可以提供存储此计算机程序的计算机可读记录介质。记录介质例如是磁盘、光盘、磁光盘、闪速存储器等。另外,上述计算机程序可以例如在不使用记录介质的情况下经由网络分发。
应该认识到的是,实施例描述了具有方法步骤的示例性排序的方法。然而,方法步骤的特定排序是仅出于说明的目的给出的,并且不应被解释为具有约束力。例如,如上所述,可以改变图6和图8的方法的执行顺序。方法步骤的排序的其他改变可能对于本领域技术人员来说是显而易见的。
应当注意,将图9的控制或电路7600划分成单元7610至7690是仅出于说明的目的作出的,并且本公开不限于特定单元中的任何特定功能划分。例如,该电路的至少部分可以由相应的经编程的处理器、现场可编程门阵列(FPGA)、专用电路等来实现。
如果没有另外声明,本说明书中描述的和所附权利要求中要求保护的所有单元和实体可以被实现为例如在芯片上的集成电路逻辑,并且如果没有另外声明,由此类类单元和实体提供的功能可以由软件来实现。
至于至少部分地使用软件控制的数据处理装置来实现上述本公开的实施例,应当理解,提供此软件控制的计算机程序以及提供此计算机程序的发送、存储或其他介质被设想作为本公开的方面。
注意,本技术也可以如下所述进行配置。
(1)一种用于三维位置估计的电路,其中,该电路被配置为:
获得指示目标的第一范围和第一局部方位角的第一雷达测量数据;
获得指示目标的第二范围和第二局部方位角的第二雷达测量数据;
基于将第一雷达测量数据与第二雷达测量数据相关联来补偿目标的全局方位角与目标的全局仰角之间的模糊,其中,目标的全局方位角与全局仰角之间的关系由第一雷达测量数据和第二雷达测量数据中的至少一个表示;以及
基于目标的全局方位角、全局仰角以及第一范围和第二范围中的至少一个来估计目标的三维位置。
(2)根据(1)的电路,其中,第一雷达测量数据还指示目标的第一径向速度,并且第二雷达测量数据还指示目标的第二径向速度;以及
其中,该关联包括将第一径向速度与第二径向速度相关联。
(3)根据(2)的电路,其中,第一雷达测量数据和第二雷达测量数据是从不同的位置获取的。
(4)根据(2)或(3)的电路,其中,第一局部方位角和第二局部方位角彼此平行取向。
(5)根据(2)至(4)中任一个的电路,其中,第一雷达测量数据和第二雷达测量数据由布置在移动平台上的雷达传感器获取;以及
其中,第一径向速度和第二径向速度对应于移动平台的速度。
(6)根据(1)的电路,其中,第一局部方位角的旋转轴和第二局部方位角的旋转轴取向在不同的方向上;以及
其中,该关联基于确定由第一雷达测量数据指示的第一模糊位置与由第二雷达测量数据指示的第二模糊位置之间的相交点。
(7)根据(6)的电路,其中,第一局部方位角的旋转轴和第二局部方位角的旋转轴彼此垂直取向。
(8)根据(6)或(7)的电路,其中,相交点的确定基于确定第一模糊位置与第二模糊位置之间的重叠。
(9)根据(6)至(8)中任一个的电路,其中,相交点的确定包括:
将网格地图的与第一模糊位置相对应的单元格与指示目标的概率相联系;
将网格地图的与第二模糊位置相对应的单元格与指示目标的概率相联系;以及
基于相联系的概率来标识网格地图的与第一模糊位置和第二模糊位置两者相对应的单元格。
(10)根据(6)至(9)中任一个的电路,其中,第一雷达测量数据由第一雷达传感器获取;
其中,第二雷达测量数据由第二雷达传感器获取;以及
其中,第一雷达传感器和第二雷达传感器根据第一局部方位角的旋转轴与第二局部方位角的旋转轴之间的取向差彼此相对旋转。
(11)一种用于三维位置估计的方法,其中,该方法包括:
获得指示目标的第一范围和第一局部方位角的第一雷达测量数据;
获得指示目标的第二范围和第二局部方位角的第二雷达测量数据;
基于将第一雷达测量数据与第二雷达测量数据相关联来补偿目标的全局方位角与目标的全局仰角之间的模糊,其中,目标的全局方位角与全局仰角之间的关系由第一雷达测量数据和第二雷达测量数据中的至少一个表示;以及
基于目标的全局方位角、全局仰角以及第一范围和第二范围中的至少一个来估计目标的三维位置。
(12)根据(11)的方法,其中,第一雷达测量数据还指示目标的第一径向速度,并且第二雷达测量数据还指示目标的第二径向速度;以及
其中,该关联包括将第一径向速度与第二径向速度相关联。
(13)根据(12)的方法,其中,第一雷达测量数据和第二雷达测量数据是从不同的位置获取的。
(14)根据(12)或(13)的方法,其中,第一局部方位角和第二局部方位角彼此平行取向。
(15)根据(12)至(14)中任一个的方法,其中,第一雷达测量数据和第二雷达测量数据由布置在移动平台上的雷达传感器获取;以及
其中,第一径向速度和第二径向速度对应于移动平台的速度。
(16)根据(11)的方法,其中,第一局部方位角的旋转轴和第二局部方位角的旋转轴取向在不同的方向上;以及
其中,关联基于确定由第一雷达测量数据指示的第一模糊位置与由第二雷达测量数据指示的第二模糊位置之间的相交点。
(17)根据(16)的方法,其中,第一局部方位角的旋转轴和第二局部方位角的旋转轴彼此垂直取向。
(18)根据(16)或(17)的方法,其中,相交点的确定基于确定第一模糊位置与第二模糊位置之间的重叠。
(19)根据(16)至(18)中任一个的方法,其中,相交点的确定包括:
将网格地图的与第一模糊位置相对应的单元格与指示目标的概率相联系;
将网格地图的与第二模糊位置相对应的单元格与指示目标的概率相联系;以及
基于相关联的概率来标识网格地图的与第一模糊位置和第二模糊位置两者相对应的单元格。
(20)根据(16)至(19)中任一个的方法,其中,第一雷达测量数据由第一雷达传感器获取;
其中,第二雷达测量数据由第二雷达传感器获取;以及
其中,第一雷达传感器和第二雷达传感器根据第一局部方位角的旋转轴与第二局部方位角的旋转轴之间的取向差彼此相对旋转。
(21)一种计算机程序,包括:程序代码,该程序代码当在计算机上被实施时使计算机进行根据(11)至(20)中任一个的方法。
(22)一种非暂时性计算机可读记录介质,该非暂时性计算机可读记录介质在其中存储计算机程序产品,该计算机程序产品当由处理器执行时使根据(11)至(20)中任一个的方法得以进行。

Claims (20)

1.一种用于三维位置估计的电路,其中,所述电路被配置为:
获得指示目标的第一范围和第一局部方位角的第一雷达测量数据;
获得指示所述目标的第二范围和第二局部方位角的第二雷达测量数据;
基于将所述第一雷达测量数据与所述第二雷达测量数据关联来补偿所述目标的全局方位角与所述目标的全局仰角之间的模糊,其中,所述目标的所述全局方位角与所述全局仰角之间的关系由所述第一雷达测量数据和所述第二雷达测量数据中的至少一者表示;以及
基于所述目标的所述第一范围和所述第二范围中的至少一者、所述全局方位角以及所述全局仰角来估计所述目标的三维位置。
2.根据权利要求1所述的电路,其中,所述第一雷达测量数据还指示所述目标的第一径向速度,所述第二雷达测量数据还指示所述目标的第二径向速度;以及
其中,所述关联包括将所述第一径向速度与所述第二径向速度关联。
3.根据权利要求2所述的电路,其中,所述第一雷达测量数据和所述第二雷达测量数据是从不同的位置获取的。
4.根据权利要求2所述的电路,其中,所述第一局部方位角和所述第二局部方位角彼此平行取向。
5.根据权利要求2所述的电路,其中,所述第一雷达测量数据和所述第二雷达测量数据由布置在移动平台上的雷达传感器获取;以及
其中,所述第一径向速度和所述第二径向速度对应于所述移动平台的速度。
6.根据权利要求1所述的电路,其中,所述第一局部方位角的旋转轴和所述第二局部方位角的旋转轴取向在不同的方向上;以及
其中,所述关联是基于确定由所述第一雷达测量数据指示的第一模糊位置与由所述第二雷达测量数据指示的第二模糊位置之间的相交点。
7.根据权利要求6所述的电路,其中,所述第一局部方位角的旋转轴和所述第二局部方位角的旋转轴彼此垂直取向。
8.根据权利要求6所述的电路,其中,所述相交点的确定是基于确定所述第一模糊位置与所述第二模糊位置之间的重叠。
9.根据权利要求6所述的电路,其中,所述相交点的确定包括:
将网格地图的与所述第一模糊位置对应的单元格与指示目标的概率联系;
将所述网格地图的与所述第二模糊位置对应的单元格与指示目标的概率联系;以及
基于所联系的概率来标识所述网格地图的与所述第一模糊位置和所述第二模糊位置两者对应的单元格。
10.根据权利要求6所述的电路,其中,所述第一雷达测量数据由第一雷达传感器获取;
其中,所述第二雷达测量数据由第二雷达传感器获取;以及
其中,所述第一雷达传感器和所述第二雷达传感器根据所述第一局部方位角的旋转轴与所述第二局部方位角的旋转轴之间的取向差彼此相对旋转。
11.一种用于三维位置估计的方法,其中,所述方法包括:
获得指示目标的第一范围和第一局部方位角的第一雷达测量数据;
获得指示所述目标的第二范围和第二局部方位角的第二雷达测量数据;
基于将所述第一雷达测量数据与所述第二雷达测量数据关联来补偿所述目标的全局方位角与所述目标的全局仰角之间的模糊,其中,所述目标的所述全局方位角与所述全局仰角之间的关系由所述第一雷达测量数据和所述第二雷达测量数据中的至少一者表示;以及
基于所述目标的所述第一范围和所述第二范围中的至少一者、所述全局方位角以及所述全局仰角来估计所述目标的三维位置。
12.根据权利要求11所述的方法,其中,所述第一雷达测量数据还指示所述目标的第一径向速度,所述第二雷达测量数据还指示所述目标的第二径向速度;以及
其中,所述关联包括将所述第一径向速度与所述第二径向速度关联。
13.根据权利要求12所述的方法,其中,所述第一雷达测量数据和所述第二雷达测量数据是从不同的位置获取的。
14.根据权利要求12所述的方法,其中,所述第一局部方位角和所述第二局部方位角彼此平行取向。
15.根据权利要求12所述的方法,其中,所述第一雷达测量数据和所述第二雷达测量数据由布置在移动平台上的雷达传感器获取;以及
其中,所述第一径向速度和所述第二径向速度对应于所述移动平台的速度。
16.根据权利要求11所述的方法,其中,所述第一局部方位角的旋转轴和所述第二局部方位角的旋转轴取向在不同的方向上;以及
其中,所述关联是基于确定由所述第一雷达测量数据指示的第一模糊位置与由所述第二雷达测量数据指示的第二模糊位置之间的相交点。
17.根据权利要求16所述的方法,其中,所述第一局部方位角的旋转轴和所述第二局部方位角的旋转轴彼此垂直取向。
18.根据权利要求16所述的方法,其中,所述相交点的确定是基于确定所述第一模糊位置与所述第二模糊位置之间的重叠。
19.根据权利要求16所述的方法,其中,所述相交点的确定包括:
将网格地图的与所述第一模糊位置对应的单元格与指示目标的概率联系;
将所述网格地图的与所述第二模糊位置对应的单元格与指示目标的概率联系;以及
基于所联系的概率来标识所述网格地图的与所述第一模糊位置和所述第二模糊位置两者对应的单元格。
20.根据权利要求16所述的方法,其中,所述第一雷达测量数据由第一雷达传感器获取;
其中,所述第二雷达测量数据由第二雷达传感器获取;以及
其中,所述第一雷达传感器和所述第二雷达传感器根据所述第一局部方位角的旋转轴与所述第二局部方位角的旋转轴之间的取向差彼此相对旋转。
CN202311182526.1A 2022-09-20 2023-09-13 使用网状雷达传感器的数据融合生成3d网格地图和点云 Pending CN117741575A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP22196606 2022-09-20
EP22196606.2 2022-09-20

Publications (1)

Publication Number Publication Date
CN117741575A true CN117741575A (zh) 2024-03-22

Family

ID=83398350

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311182526.1A Pending CN117741575A (zh) 2022-09-20 2023-09-13 使用网状雷达传感器的数据融合生成3d网格地图和点云

Country Status (2)

Country Link
CN (1) CN117741575A (zh)
DE (1) DE102023125329A1 (zh)

Also Published As

Publication number Publication date
DE102023125329A1 (de) 2024-04-11

Similar Documents

Publication Publication Date Title
CN108139202B (zh) 图像处理装置、图像处理方法和程序
US10753757B2 (en) Information processing apparatus and information processing method
WO2017159382A1 (ja) 信号処理装置および信号処理方法
CN108028883B (zh) 图像处理装置和图像处理方法
CN110691986B (zh) 用于计算机视觉的设备、方法和非暂时性计算机可读记录介质
CN111670572B (zh) 校准装置、校准方法和计算机可读存储介质
EP4063896A1 (en) Radar data determination circuitry and radar data determination method
US11436706B2 (en) Image processing apparatus and image processing method for improving quality of images by removing weather elements
CN117741575A (zh) 使用网状雷达传感器的数据融合生成3d网格地图和点云
JP2023122597A (ja) 情報処理装置、情報処理方法及びプログラム
CN113614782A (zh) 信息处理装置、信息处理方法和程序
US20230161026A1 (en) Circuitry and method
US20230316546A1 (en) Camera-radar fusion using correspondences
WO2022249533A1 (ja) 情報処理装置、キャリブレーションシステム及び情報処理方法
US20230119187A1 (en) Circuitry and method
US20220148283A1 (en) Information processing apparatus, information processing method, and program
WO2021065510A1 (ja) 情報処理装置、情報処理方法、情報処理システム及びプログラム
WO2024052392A1 (en) Circuitry and method
WO2022128985A1 (en) Time-of-flight image sensor circuitry and time-of-flight image sensor circuitry control method
JP2024065130A (ja) 情報処理装置、情報処理方法及びプログラム
CN113167883A (zh) 信息处理装置、信息处理方法、程序、移动体控制装置和移动体

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication