CN114450604A - 分布式孔径光学测距系统 - Google Patents

分布式孔径光学测距系统 Download PDF

Info

Publication number
CN114450604A
CN114450604A CN202080068142.5A CN202080068142A CN114450604A CN 114450604 A CN114450604 A CN 114450604A CN 202080068142 A CN202080068142 A CN 202080068142A CN 114450604 A CN114450604 A CN 114450604A
Authority
CN
China
Prior art keywords
illuminator
detector
unique
detector pair
detectors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080068142.5A
Other languages
English (en)
Inventor
B.哈西比
B.雷兹瓦尼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Neural Propulsion Systems Inc
Original Assignee
Neural Propulsion Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Neural Propulsion Systems Inc filed Critical Neural Propulsion Systems Inc
Publication of CN114450604A publication Critical patent/CN114450604A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/36Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • G01S17/48Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/003Bistatic lidar systems; Multistatic lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • G01S17/18Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves wherein range gates are used
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • G01S7/4915Time delay measurement, e.g. operational details for pixel components; Phase measurement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/484Transmitters

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

本文公开了多输入多输出(MIMO)光探测和测距(LiDAR)系统,其中多个照明器(例如,激光器)的视场重叠和/或多个探测器(例如,光电二极管)的视场重叠。一些实施例提供了发送脉冲序列的照明器,该脉冲序列具有基本上白色的自相关并且基本上不相关,使得它们在被单个探测器探测到时可以彼此区分。

Description

分布式孔径光学测距系统
相关申请的交叉引用
本申请要求2019年8月8日提交的标题为“DISTRIBUTED APERTURE OPTICALRANGING SYSTEM”的美国临时申请62/884,651的权益,并由此通过引用将其并入本文。
背景技术
对于用于各种应用的三维(3D)对象跟踪和对象扫描存在持续的需求,其中之一是自动驾驶。某些类型的信号(诸如雷达)的波长太长,无法提供探测较小对象所需的亚毫米分辨率。光探测和测距(LiDAR)系统使用的光波长可以提供比其他类型系统更精细的分辨率,从而提供良好的范围、精度和分辨率。一般来说,LiDAR系统用脉冲激光照明目标区域或场景,并测量反射脉冲返回到接收器需要多长时间。
某些传统LiDAR系统共有的一个方面是,由不同激光器发射的光束非常窄,并且在特定的已知方向上发射,使得由不同激光器同时或大约同时发射的脉冲不会相互干扰。每个激光器都有位于附近的探测器,以探测激光器发射的脉冲的反射。因为假定探测器仅感测由激光器发射的脉冲的反射,所以可以明确地确定反射所发射的脉冲的目标的位置。激光器发射光脉冲和探测器探测到反射之间的时间提供了到目标的往返时间,并且发射器和探测器被定向的方向允许确定目标的精确位置。如果没有探测到反射,则假定没有目标。
为了减少提供场景的充分扫描所需的激光器和探测器的数量,一些LiDAR系统使用相对少量的激光器和探测器以及一些机械扫描环境的方法。例如,LiDAR系统可以包括位于旋转电机上的发送和接收光学器件,以便提供360度水平视场。通过以小增量(例如,0.1度)旋转,这些系统可以提供高分辨率。但是依靠机械扫描的LiDAR系统受到接收器和发送器光学器件的约束。这些约束会限制LiDAR系统的整体尺寸和维度、各个组件的尺寸和位置、以及测量范围和信噪比(SNR)。此外,移动组件容易发生故障,并且对于一些应用(例如,自动驾驶)可能是不期望的。
另一类型的LiDAR系统是闪光LiDAR系统。闪光LiDAR系统将脉冲光束导向视场内的目标对象,并且光探测器阵列接收从目标对象反射的光。对于被导向目标对象的每个脉冲光束,光探测器阵列可以接收对应于数据帧(frame of data)的反射光。通过使用一个或多个数据帧,可以通过确定照明源发射脉冲光束和光探测器阵列接收反射光之间经过的时间来获得到目标对象的范围或距离。尽管闪光LiDAR系统避免了移动组件,但是为了明确地探测反射的角度,光探测器使用大量的光学探测器,每个光学探测器对应于某个方向(例如,仰角和方位角)来扫描大的场景。对于一些应用,例如自动驾驶,这种系统的成本、尺寸和/或功耗可能令人望而却步。
因此,需要解决传统LiDAR系统缺点的系统。
发明内容
该概述表示本公开的非限制性实施例。
本文公开了新颖的LiDAR系统,其使用比传统LiDAR系统更少的光学组件(照明器和探测器),但是提供更高的分辨率。与传统的LiDAR系统相比,照明器(例如,激光器)和探测器(例如,光电二极管)两者都具有更宽且重叠的视场,从而导致单个照明器照明其视场内的多个目标以及单个探测器探测来自其视场内的多个目标的反射(这可能是由不同照明器的发射导致的)的可能性。为了允许辨析(resolve)空间体积内的多个目标的位置(也称为坐标),所公开的LiDAR系统使用多个照明器和/或探测器,这些照明器和/或探测器被定位成非共线(意味着它们不都位于单个直线上)。为了允许LiDAR系统区分不同照明器发射的光学信号的反射,同时在空间体积内发射信号的照明器使用具有特定属性的脉冲序列(例如,它们基本上是白色的,并且与同时在相同视场中发射的其他照明器所使用的脉冲序列具有低互相关)。因为它们使用可能源自多个照明器的光学信号的多次反射来辨析目标,所以新颖的LiDAR系统在本文被称为多输入多输出(MIMO)LiDAR系统。
在一些实施例中,LiDAR系统包括光学组件阵列,该阵列包括多个照明器和多个探测器,该多个照明器中的每一个具有相应的照明器视场(FOV),并且该多个探测器中的每一个具有相应的探测器FOV,以及耦合到光学组件阵列并且被配置为执行至少一个机器可执行指令的至少一个处理器。该至少一个机器可执行指令在被执行时使得该至少一个处理器确定第一距离集合、第二距离集合和第三距离集合,以及至少部分地基于该第一距离集合、第二距离集合和第三距离集合,估计多个目标中的每个目标在三维空间中的相应位置。在一些实施例中,第一距离集合对应于光学组件阵列中的第一独特(unique)照明器-探测器对,并且对于空间体积中的多个目标中的每个目标,第一距离集合包括由第一独特照明器-探测器对的照明器发射的、由目标反射的、并且由第一独特照明器-探测器对的探测器探测的光学信号所经过的相应估计距离。在一些实施例中,第二距离集合对应于光学组件阵列中的第二独特照明器-探测器对,并且对于空间体积中的多个目标中的每个目标,第二距离集合包括由第二独特照明器-探测器对的照明器发射的、由目标反射的、并且由第二独特照明器-探测器对的探测器探测的光学信号所经过的相应估计距离。在一些实施例中,第三距离集合对应于光学组件阵列中的第三独特照明器-探测器对,并且对于空间体积中的多个目标中的每个目标,第三距离集合包括由第三独特照明器-探测器对的照明器发射的、由目标反射的、并且由第三独特照明器-探测器对的探测器探测的光学信号所经过的相应估计距离。在一些实施例中,第一独特照明器-探测器对的照明器、第一独特照明器-探测器对的探测器、第二独特照明器-探测器对的照明器、第二独特照明器-探测器对的探测器、第三独特照明器-探测器对的照明器或第三独特照明器-探测器对的探测器中的至少两个是非共线的。在一些实施例中,空间体积在以下各项中的每一个内:(a)第一独特照明器-探测器对的照明器的FOV,(b)第一独特照明器-探测器对的探测器的FOV,(c)第二独特照明器-探测器对的照明器的FOV,(d)第二独特照明器-探测器对的探测器的FOV,(e)第三独特照明器-探测器对的照明器的FOV,以及(f)第三独特照明器-探测器对的探测器的FOV。
在一些实施例中,该至少一个机器可执行指令使得该至少一个处理器通过求解至少一个二次方程来估计该多个目标中的每一个的相应位置。
在一些实施例中,该至少一个机器可执行指令使得该至少一个处理器部分地通过对由第一独特照明器-探测器对的探测器探测到的光学信号进行降噪、对降噪后的探测到的光学信号和由第一独特照明器-探测器对的照明器发射的光学信号执行相关(correlation)、以及标识相关的结果中的至少一个峰值来确定第一距离集合。在一些实施例中,对由第一独特照明器-探测器对的探测器探测到的光学信号进行降噪包括确定或最小化原子范数。
在一些实施例中,该至少一个机器可执行指令使得该至少一个处理器部分地通过执行相关并标识相关的结果中的至少一个峰值来确定第一距离集合。
在一些实施例中,由第一独特照明器-探测器对的照明器发射的光学信号包括在时间窗口期间发送的第一脉冲序列。在一些实施例中,其中由第一独特照明器-探测器对的照明器发射的光学信号包括在时间窗口期间发送的第一脉冲序列,该第一脉冲序列是稀疏的。在一些实施例中,第一脉冲序列的自相关(autocorrelation)基本上是白色的。
在一些实施例中,其中由第一独特照明器-探测器对的照明器发射的光学信号包括在时间窗口期间发送的第一脉冲序列,由第二独特照明器-探测器对的照明器发射的光学信号包括在时间窗口期间发送的第二脉冲序列,其中第二脉冲序列不同于第一脉冲序列。在一些实施例中,第一脉冲序列和第二脉冲序列基本上不相关。在一些实施例中,第一脉冲序列和第二脉冲序列是稀疏的。在一些实施例中,第一脉冲序列和第二脉冲序列中的每一个的相应自相关基本上是白色的。在一些实施例中,第一脉冲序列和第二脉冲序列的互相关的最大值小于阈值(例如,重叠脉冲的最大数量)。
在一些实施例中,其中由第一独特照明器-探测器对的照明器发射的光学信号包括在时间窗口期间发送的第一脉冲序列,并且由第二独特照明器-探测器对的照明器发射的光学信号包括在时间窗口期间发送的第二脉冲序列,由第三独特照明器-探测器对的照明器发射的光学信号包括在时间窗口期间发送的第三脉冲序列,其中第三脉冲序列不同于第一脉冲序列并且不同于第二脉冲序列。在一些这样的实施例中,第一脉冲序列和第二脉冲序列基本上不相关,第一脉冲序列和第三脉冲序列基本上不相关,并且第二脉冲序列和第三脉冲序列基本上不相关。在一些实施例中,第一脉冲序列、第二脉冲序列和第三脉冲序列是稀疏的。在一些实施例中,第一脉冲序列、第二脉冲序列和第三脉冲序列中的每一个的相应自相关基本上是白色的。
在一些实施例中,第一独特照明器-探测器对的照明器、第二独特照明器-探测器对的照明器或第三独特照明器-探测器对的照明器中的至少两个是同一照明器。
在一些实施例中,第一独特照明器-探测器对的探测器、第二独特照明器-探测器对的探测器或第三独特照明器-探测器对的探测器中的至少两个是同一探测器。
在一些实施例中,第一独特照明器-探测器对的照明器、第二独特照明器-探测器对的照明器或第三独特照明器-探测器对的照明器中的至少两个是同一照明器,并且第一独特照明器-探测器对的探测器、第二独特照明器-探测器对的探测器或第三独特照明器-探测器对的探测器中的至少两个是同一探测器。
在一些实施例中,该至少一个机器可执行指令在被执行时使得该至少一个处理器通过求解至少一个优化问题来估计多个目标中的每个目标在三维空间中的相应位置。在一些实施例中,至少一个优化问题包括
Figure BDA0003568408170000051
Figure BDA0003568408170000052
在一些实施例中,该至少一个机器可执行指令在被执行时使得该至少一个处理器通过确定第一距离集合、第二距离集合或第三距离集合中的至少一个估计距离是否对应于存储的预先计算的距离来估计多个目标中的每个目标在三维空间中的相应位置。
附图说明
从下面结合附图对某些实施例的描述中,本公开的目的、特征和优点将变得显而易见,其中:
图1A是根据一些实施例的MIMO LiDAR系统的某些组件的框图。
图1B是根据一些实施例的MIMO LiDAR系统的光学组件阵列的更详细视图。
图2A、图2B和图2C描绘了根据一些实施例的照明器。
图3A、图3B和图3C描绘了根据一些实施例的探测器。
图4A和图4B是根据一些实施例的光学组件阵列的表示。
图5示出了示例性MIMO LiDAR系统如何能够提供照明器的子集,使得每个子集适于照明并有助于探测指定范围中的目标。
图6A、图6B、图6C和图6D示出了根据一些实施例的独特照明器-探测器对的几种配置。
图7A、图7B、图7C和图7D示出了根据一些实施例的如何使用示例性光学组件阵列来确定空间体积内多个目标在三维空间中的位置。
图8A、图8B、图8C和图8D示出了根据一些实施例的示例性MIMOLiDAR系统如何使用三个照明器和一个探测器来确定空间体积中目标的位置。
图9A示出了根据一些实施例的两个简单的脉冲序列,以示出脉冲序列的设计原理。
图9B示出了根据一些实施例的图9A所示的简单示例性脉冲序列之一的自相关。
图9C示出了根据一些实施例的图9A所示的另一简单示例性脉冲序列的自相关。
图9D示出了根据一些实施例的图9A所示的简单脉冲序列的互相关。
图10A、图10B、图10C、图10D、图10E和图10F示出了根据一些实施例的另一示例性MIMO LiDAR系统如何使用两个照明器和两个探测器来确定对象在空间体积中的位置。
为了便于理解,在可能的情况下,使用了相同的附图标记来表示附图中共有的相同元件。可以设想,在一个实施例中公开的元件可以有益地用于其他实施例中,而无需具体叙述。此外,在一个附图的上下文中对元件的描述适用于示出该元件的其他附图。
具体实施方式
本文公开了使用光学组件阵列(即多个照明器和多个探测器)来探测场景中对象(本文也称为目标)的存在和坐标的新颖的LiDAR系统和方法。除了许多其他应用,所公开的LiDAR系统的一个应用是用于自动驾驶中的场景感测或者用于自动运输。
所公开的LiDAR系统包括多个照明器(例如,激光器)和多个光学探测器(例如,光电二极管,诸如雪崩光电探测器)。照明器和探测器被布置成阵列。尽管本文的描述涉及单个阵列(例如,下面进一步描述和讨论的光学组件阵列110),但是应当理解,照明器和探测器阵列可以是分开的(逻辑上和/或物理上),这取决于照明器和探测器如何定位。为了允许LiDAR系统估计被感测到的场景中的对象的位置,光学组件阵列(或者,如果照明器和探测器被认为是在单独的阵列中,则阵列中的至少一个(照明器和/或探测器))是二维的。
因为使用多个光学信号和/或反射来确定三维空间中的多个目标(例如,对象)的位置,所以该系统在本文中有时被称为多输入多输出(MIMO)LiDAR系统。
在以下描述中,一些实施例包括多个组件或元件。这些组件或元件通常使用参考标号单独来指代(例如,(多个)照明器120、(多个)探测器130),并且这些组件或元件的具体实例使用后跟字母的参考标号来指代和示出(例如,照明器120A、探测器130A)。应当理解,附图可能仅示出了组件或元件的特定实例(带有附加字母),并且说明书可能泛指那些示出的组件或元件(不带附加字母)。
图1A是根据一些实施例的MIMO LiDAR系统100的某些组件的示意图。系统100包括耦合到至少一个处理器140的光学组件阵列110。光学组件阵列110可以与至少一个处理器140在同一物理壳体(或外壳)中,或者其可以是物理上分离的。
至少一个处理器140可以是例如,数字信号处理器、微处理器、控制器、专用集成电路或任何其他合适的硬件组件(其可以适于处理模拟和/或数字信号)。至少一个处理器140可以向光学组件阵列110提供控制信号142。控制信号142可以例如使得光学组件阵列110中的一个或多个照明器顺序或同时发射光学信号(例如,光)。如下面进一步描述的,控制信号142可以使得照明器以脉冲序列的形式发射光学信号,脉冲序列对于不同的照明器可以是不同的。
系统100还可以可选地包括一个或多个模数转换器(ADC)115,其被设置在光学组件阵列110与至少一个处理器140之间。如果存在的话,一个或多个ADC 115将由光学组件阵列110中的探测器提供的模拟信号转换成数字格式,以由至少一个处理器140处理。由每个探测器提供的模拟信号可以是由该探测器探测的反射光学信号的叠加,然后至少一个处理器140可以对其进行处理,以确定与(导致)反射光学信号相对应的目标的位置。
图1B是根据一些实施例的MIMO LiDAR系统100的光学组件阵列110的更详细的图。如图所示,光学组件阵列110包括多个照明器120和多个探测器130。(如前所述,参考标号120在本文用于泛指照明器,并且附加有字母的参考标号120用于指代单独的照明器。类似地,参考标号130在本文用于泛指探测器,并且附加有字母的参考标号130用于指代单独的探测器)。尽管图1B示出了照明器120A、120B、120C和120N,从而暗示在光学组件阵列110中有14个照明器120,但是应该理解,如本文所使用的,单词“多个”意味着“两个或更多个”。因此,光学组件阵列110可以包括少至两个照明器120,或者它可以包括多于两个的任何数量的照明器120。同样,尽管图1B示出了探测器130A、130B、130C和130M,从而暗示在光学组件阵列110中有十三个探测器130,但是应当理解,光学组件阵列110可以包括少至两个探测器130,或者可以包括多于两个的任意数量的探测器130。
图2A、图2B和图2C描绘了根据一些实施例的照明器120。照明器120可以是例如激光器,并且它可以在任何波长(例如,905nm或1550nm)下工作。照明器120被示为具有球形形状,这仅仅是象征性的。在整个文件中,仅仅为了允许照明器120和探测器130容易被区分,照明器120被示为圆形或球形,并且探测器130被示为立方体或正方形。在一个实施方式中,光学组件阵列110中的照明器120可以是任何合适的尺寸和形状。如本领域已知的,照明器120可以被配备有透镜(未示出),以聚焦和引导其发射的光学信号。此外,照明器120中的一些或所有还可以包括一个或多个反射镜,以将发射的光学信号引导到特定方向。照明器120还可以包含漫射器,以使其视场(下面将进一步讨论)具有特定的形状(正方形、矩形、圆形、椭圆形等),并促进穿过其视场的透视光束(transmitted beam)的均匀性。
光学组件阵列110中的每个照明器120在三维空间中具有一个位置,该位置可以由在x轴、y轴和z轴上的笛卡尔坐标(x,y,z)来表征,如图2A所示。替代地,可以使用任何其他坐标系(例如,球面坐标系)。
如图2B所示,除了具有三维空间中的位置之外,每个照明器120具有两个方位角:方位角视轴角124和方位角视场(FOV)角126。方位角(124,126)在水平面内,使用图2A中提供的坐标系,该水平面是在某个z值处的x-y平面。换句话说,方位角视轴角124和方位角FOV角126指定由照明器120发射的光学信号的“从左到右”特性。方位角视轴角124指定照明器120所指向的方向,其确定由照明器120发射的光学信号传播的大致方向。方位角FOV角126指定由照明器120发射的光学信号所照明的场景的一部分的角宽度(例如,水平方向上的光束宽度)。
如图2C所示,每个照明器120还具有两个仰角:仰角视轴角125和仰角FOV角127。仰角是相对于水平面的,使用图2A中提供的坐标系,该水平面是在某个z值处的x-y平面。因此,图2C中所示的水平轴被标记为“h”,以指示它在x-y平面中的某个方向上,该方向不一定平行于x轴或y轴。(“h”轴的方向取决于方位角视轴角124)。仰角视轴角125和仰角FOV角127指定由照明器120发射的光学信号的“上下”特性。仰角视轴角125确定照明器120所指向的高度或海拔,这确定由照明器120发射的光学信号传播的大致方向。仰角FOV角127指定由照明器120发射的光学信号所照明的场景的一部分的角高度(例如,垂直方向上的光束宽度)。
照明器120的仰角FOV角127可以与照明器120的方位角FOV角126相同或不同。如本领域普通技术人员将理解的,由照明器120发射的光束可以具有任何合适的三维形状。例如,发射的光束通常可以是锥形的(其中锥体是由(无限多条)光线的集合组成的对象)。椎体的横截面可以是任意形状,例如圆形、椭圆形、正方形、矩形等)。
由具有视轴角124、125和FOV角126、127的照明器120照明的空间体积在本文被称为照明器FOV 122。特定照明器120的照明器FOV 122内的对象被照明器120发送的光学信号照明。照明器120的照明器FOV 122取决于以下并且由以下确定:照明器120在光学组件阵列110内的位置、以及照明器120的视轴角124、125和FOV角126、127。照明器120的范围取决于光学功率。
光学组件阵列110包括多个照明器120,这些照明器可以彼此相同,或者它们可以在一个或多个特性上不同。例如,不同的照明器120在光学组件阵列110中具有不同的位置,因此在空间中具有不同的位置(即,它们具有不同的(x,y,z)坐标)。不同照明器120的视轴角124、125和FOV角126、127也可以相同或不同。例如,如下面进一步描述的,照明器120的子集可以具有这样的配置,由此它们主要照明MIMO LiDAR系统100的某个范围内的目标,并且与探测器130结合使用,探测器130被配置为主要探测该相同范围内的目标。类似地,由不同照明器120发射的光学信号的功率可以相同或不同。例如,意图照明远离MIMO LiDAR系统100的目标的照明器120可以比意图照明靠近MIMO LiDAR系统100的目标的照明器120使用更多的功率。扩大由照明器120照明的目标范围的另一种方式是结合发送脉冲序列的重复(下面进一步描述)和/或在探测器130处相加/累加和/或平均接收到的反射信号。这种方法可以在不增加发送功率的情况下增加接收到的SNR。
如将在下面进一步描述的,本文公开的LiDAR系统100的一个新颖方面是光学组件阵列110中的照明器120的视轴角124、125和FOV角126、127可以被选择,使得由不同的照明器120发射的光束重叠,从而导致不同的照明器120照明场景(和空间体积)的重叠部分。与传统的LiDAR系统不同,本文的MIMO LiDAR系统100能够辨析这些重叠的空间区域内的多个目标的三维位置。此外,它们不需要任何移动部件。光学组件阵列110可以是固定的。
图3A、图3B和图3C描绘了根据一些实施例的探测器130。探测器130可以是例如光电探测器。在一些实施例中,探测器130是雪崩光电二极管。如本领域普通技术人员将理解的,雪崩光电二极管在高反向偏压条件下工作,这导致由光子碰撞产生的空穴和电子的雪崩倍增。当光子进入光电二极管的耗尽区并产生电子-空穴对时,所产生的电荷载流子被电场拉离彼此。它们的速度增加,当它们与晶格碰撞时,它们产生额外的电子-空穴对,然后这些电子-空穴对被拉离彼此,与晶格碰撞,产生更多的电子-空穴对,等等。雪崩过程增加了二极管的增益,从而提供了比普通二极管更高的灵敏度。像照明器120一样,探测器130可以包括聚焦接收到的信号的透镜。此外,像照明器120一样,探测器130可以包括一个或多个反射镜,以将接收到的光导向选择的方向。
探测器130被示为具有立方体形状,这仅仅是象征性的。如上所述,在整个文件中,仅仅为了允许照明器120和探测器130容易被区分,照明器120被示为圆形或球形,并且探测器130被示为立方体或正方形。在一个实施方式中,光学组件阵列110中的探测器130可以是任何合适的尺寸和形状。
光学组件阵列110中的每个探测器130在三维空间中具有一个位置,如前所述,该位置可以由在x轴、y轴和z轴上的笛卡尔坐标(x,y,z)来表征,如图3A所示。替代地,可以使用任何其他坐标系(例如,球面坐标系)。
如图3B所示,除了具有三维空间中的位置之外,每个探测器130具有两个方位角:方位角视轴角134和方位角FOV角136。如同照明器120的情况,探测器130的方位角在水平面中,使用图3A中提供的坐标系,该水平面是在某个z值处的x-y平面。换句话说,方位角视轴角134和方位角FOV角136指定探测器130的“从左到右”定位(例如,在水平面中它“看”的位置)。方位角视轴角124指定探测器130所指向的方向,其确定它探测光学信号的大致方向。方位角FOV角126指定由探测器130感测的场景的一部分在水平方向上的角宽度。
如图3C所示,每个探测器130还具有两个仰角:仰角视轴角135和仰角FOV角137。仰角是相对于水平面的,使用图3A中提供的坐标系,该水平面是在某个z值处的x-y平面。因此,图3C中所示的水平轴被标记为“h”,以指示它在x-y平面中的某个方向上,该方向不一定平行于x轴或y轴。(“h”轴的方向取决于方位角视轴角134)。仰角视轴角135和仰角FOV角137指定探测器130的“上下”定位。仰角视轴角135确定探测器130指向的高度或海拔,这确定它探测光学信号的大致方向。仰角FOV角137指定由探测器130感测的场景的一部分的角高度(例如,垂直方向上的光束宽度)。探测器130的仰角FOV角137可以与该探测器130的方位角FOV角136相同或不同。换句话说,探测器130的垂直跨度可以与其水平跨度相同或不同。
由具有视轴角134、135和FOV角136、137的探测器130感测的空间体积在本文被称为探测器FOV 132。由特定探测器130的探测器FOV 132内的对象反射的光学信号可以被该探测器130探测到。探测器130的探测器FOV 132依赖于以下并且由以下确定:探测器130在光学组件阵列中的位置、以及探测器130的视轴角134、135和FOV角136、137。探测器130的范围取决于探测器130的灵敏度。
光学组件阵列110中的探测器130可以彼此相同,或者它们可以在一个或多个特性上不同。例如,不同的探测器130在光学组件阵列110中具有不同的位置,因此在空间中具有不同的位置(即,它们具有不同的(x,y,z)坐标)。不同探测器130的视轴角134、135和FOV角136、137也可以相同或不同。例如,如下面进一步描述的,探测器130的子集可以具有这样的配置,由此它们观察MIMO LiDAR系统100的某个范围内的目标,并且与照明器120结合使用,该照明器120被配置为主要照明该相同范围内的目标。
如将在下面进一步描述的,本文公开的LiDAR系统100的一个新颖方面是光学组件阵列110中的探测器130的视轴角134、135和FOV角136、137可以被选择,使得它们感测场景的重叠部分。与传统的LiDAR系统不同,本文的MIMO LiDAR系统100能够辨析这些重叠的空间区域内的多个目标的三维位置。此外,它们不需要任何移动部件。光学组件阵列110可以是固定的。
图4A和图4B是根据一些实施例的光学组件阵列110的表示。图4A是y-z平面中的光学组件阵列110的“直射”视图,这意味着由照明器120发射的光学信号将以各种视轴角124、125从页面出来,并且具有各种FOV角126、127,并且由对象(目标)反射的光学信号将被同样从页面出来的具有各种视轴角134、135和各种FOV角136、137的探测器130感测。按照先前描述的惯例,照明器120由圆形表示,其中大部分是未标记的,探测器130由正方形表示,其中大部分也是未标记的。所示的示例性光学组件阵列110包括比照明器120更多的探测器130。如前所述,光学组件阵列110可以具有相等或不相等数量的照明器120和探测器130。例如,照明器120可以比探测器130多。可以有相等数量的照明器120和探测器130。通常,光学组件阵列110具有多个照明器120(如上所述,其在各个方面可能不同)和多个探测器130(如上所述,其在各个方面可能不同)。
图4A标记了一个照明器120A,其位置(坐标)由某个x值以及y1和z2给出。如果假定x值为0,则照明器120A在笛卡尔坐标中的位置为(0,y1,z2)。图4A还标记了一个探测器130A,其在x的值为0的假设下具有位置(0,y1,z1)。
图4B是位置y1处的光学组件阵列110的简化截面图。图4B中的水平轴被标记为“h”,但是应当注意,照明器120A和探测器130A的仰角不需要处于相同的方位角视轴角124、134。换句话说,如上所述,不同的照明器120和/或探测器130可以朝向不同的方向。如图所示,照明器120A以仰角FOV127A、仰角视轴角125A发射光学信号。类似地,探测器130A以仰角视轴角135A定向,并具有仰角FOV 137A。
在一些实施例中,照明器120和/或探测器130的子集具有被选择以使得照明器120和/或探测器130的某些组合分别照明和/或感测某些范围内(例如,距光学组件阵列110的特定距离范围内)的对象的特性(例如,视轴角124、125、134、135和FOV角126、127、136、137)。图5示出了根据一些实施例的示例性MIMO LiDAR系统100如何能够提供照明器120的子集,使得每个子集适合于照明指定范围内的目标,并有助于目标的探测。尽管图5示出了照明器120,但是应当理解,参考图5描述的相同原理适用于探测器130。具体地,探测器130同样可以被配置成适于探测指定范围内的目标的子集。在这个意义上,图5中的照明器120可以由探测器130代替。
图5示出了水平轴上的四个距离,即d1、d2、d3和d4。七个照明器120,包括照明器120A和示出的没有阴影的其他照明器,在照明器120的第一子集中,该第一子集照明靠近MIMO LiDAR系统100的光学组件阵列110的目标。具体地,照明器120A和无阴影的其他照明器120的视轴角124、125和FOV角126、127被选择为使得它们最有可能照明(并且允许探测)距离光学组件阵列110在0至d1距离范围内的目标。四个照明器120,包括照明器120B和示出的具有水平条纹阴影的其他照明器,在照明器120的第二子集中,该第二子集具有被选择以使得它们最有可能照明(并允许探测)距离光学组件阵列110在0至d2距离范围内的目标的视轴角124、125和FOV角126、127。四个照明器120,包括照明器120C和示出的具有斜条纹阴影的其他照明器,在照明器120的第三子集中,该第三子集具有被选择以使得它们最有可能照明(并允许探测)距离光学组件阵列110在0至d3距离范围内的目标的视轴角124、125和FOV角126、127。两个照明器,包括照明器120D和用交叉阴影示出的另一照明器,在照明器120的第四子集中,该第四子集具有被选择以使得它们最有可能照明(并允许探测)距离光学组件阵列110在0至d4距离范围内的目标的视轴角124、125和FOV角126、127。如图所示(但未标出以避免模糊附图),第一子集中的照明器120的FOV角126、127大于第二、第三和第四子集中的照明器120的FOV角126、126。同样,第二子集中的照明器120的FOV角126、127大于第三和第四子集中的照明器120的FOV角126、126,并且第三子集中的照明器120的FOV角126、127大于第四子集中的照明器120的FOV角126、126。
应当理解,图5是二维表示,并且上面的讨论假设图5示出了方位角视轴角124、125和FOV角126、127。上面的讨论同样适用于仰角,并且图5也可以图示仰角。还应当理解,图5意在是说明性的,并不一定代表真实的MIMO LiDAR系统100将如何配置。例如,一种实施方式可以具有(例如,均匀地或不均匀地、规则地或不规则地等)散布在照明器120之间或分布在照明器120之间的探测器130。此外,图5被限于二维,并且仅示出了MIMOLiDAR系统100的照明器120的集合的“横截面”。如下面进一步解释的,用于确定特定空间体积中目标的位置(坐标)的(多个)照明器120和(多个)探测器130是非共线的,这在图5中没有示出。图5也没有示出MIMO LiDAR系统100的任何探测器130或任何其他组件(光学器件或其它)。附加的光学组件(例如,照明器120、探测器130)可以例如在图5所示的光学组件阵列110中的照明器120的上方、下方、侧面和/或散布在照明器120之间。
作为图5中示出的原理的具体示例,照明器120的第一子集可以具有被选择以使得发射的光学信号意图照明距离MIMO LiDAR系统100的第一范围(例如,10至50米)内的所有对象的视轴角124、125、FOV角126、127、功率水平和其他特性,并且探测器130的第一子集可以具有被选择以感测第一范围内的对象的视轴角134、135、FOV角136、137和其他特性(例如,灵敏度)。照明器120的第一子集和探测器130的第一子集的视轴角124、125、134、135和/或FOV角126、127、136、137可以彼此相同或不同。例如,所有视轴角124、125、134、135可以是0度(垂直于光学组件阵列110,瞄准“正前方”),并且照明器120的第一子集和探测器130的第一子集的FOV角126、127、136、137可以是例如90度(导致“正前方”视轴和对任一侧及上和下45度的视场(例如,±45度))。照明器120的第二子集可以具有被选择以使得发射的光学信号意图照明50至200米范围内的对象的视轴角124、125、FOV角126、127、功率水平和其他特性,并且探测器130的第二子集可以具有被选择以感测第二范围内的对象的视轴角134、135、FOV角136、137和其他特性。照明器120的第二子集和探测器130的第二子集的视轴角124、125、134、135可以是例如0度(垂直于光学组件阵列110,瞄准“正前方”),并且照明器120的第二子集和探测器130的第二子集的FOV角126、127、136、137可以是例如40度(导致“正前方”视轴和对任一侧及上和下20度的视场(例如,±20度))。这种策略可以导致提高的性能和/或更有效的系统。例如,因为散射的光功率随着距离的平方而降低,所以以更近范围为目标的照明器120的第一子集可以被配置为使用比照明器120的第二子集更少的功率。
除了照明器120的不同子集使用不同功率水平之外,照明器120的不同子集,或者甚至不同的单个照明器120,可以为每个感兴趣的范围使用发送脉冲的不同重复图案(pattern),以增加接收的SNR。例如,探测器130可以简单地将它们各自的接收到的信号相加/累加或平均。
在一些实施例中,光学组件阵列110中的照明器120的位置、功率水平、视轴角124、125和FOV角126、127被选择以使得照明器120的至少一些子集完全照明整个三维空间体积。例如,特定的空间体积可以被定义为距离光学组件阵列110 5至20米之间的三维空间体积,并且向左延伸10米、向右延伸10,以及从地面水平延伸到地面以上10米。在一些实施例中,所选择的空间体积中的每个点可以被光学组件阵列110中的至少一个照明器120发射的光学信号照明。结果,该空间体积中的任何对象可以被至少一个照明器120照明。
同样,在一些实施例中,选择光学组件阵列110中的探测器130的位置、视轴角134、135和FOV角136、137,使得该探测器130的集合感测整个三维空间体积。因此,空间体积中的每个点都可以被至少一个探测器130观察到。
有可能使用多个光学组件(例如,来自光学组件阵列110)来确定空间体积内的目标在三维空间中的位置。如果照明空间体积中特定点的照明器120的数量被表示为n1,并且观察该特定点的探测器130的数量被表示为n2,只要(1)照明该点的照明器120的数量和观察该点的探测器130的数量的乘积大于2(即,n1×n2>2),以及(2)n1个照明器120和n2个探测器130的集合是非共线的(即,不是所有的n1个照明器120和n2个探测器130都被布置在一条直线上,或者换句话说,n1个照明器120和n2个探测器130中的至少一个与n1个照明器120和n2个探测器130的其余部分不在同一直线上)。这些条件允许确定三个独立的方程,从而可以明确地确定由(多个)照明器120照明并由(多个)探测器130观察的空间体积中的每个目标的位置。
有各种n1个照明器120和n2个探测器130的组合可以用来满足第一个条件n1×n2>2。例如,一个组合可以包括一个照明器120和三个探测器130。另一组合可以包括三个照明器120和一个探测器130。又一组合可以使用两个照明器120和两个探测器130。可以使用满足该条件的、位于非共线的n1个照明器120和n2个探测器130的任何其他组合。
满足条件n1×n2>2的n1个照明器120和n2个探测器130的每个集合包括至少三个独特照明器-探测器对,这意味着对于任何选择的独特照明器-探测器对,该对的照明器120的身份和/或该对的探测器130的身份不同于n1个照明器120和n2个探测器130的集合中每个其他独特照明器-探测器对的对应组件。图6A、图6B、图6C和图6D示出了满足条件n1×n2>2的n1个照明器120和n2个探测器130的集合中的独特照明器-探测器对的几种配置。
图6A是根据一些实施例的包括三个照明器120A、120B和120C以及三个探测器130A、130B和130C的示例性配置。三个照明器120A、120B和120C以及三个探测器130A、130B和130C已经被分配给独特照明器-探测器对112A、112B和112C。在图6A的示例中,三个独特照明器-探测器对112A、112B和112C不共享共同的光学组件。相反,每个照明器120被分配给单独的独特照明器-探测器对112,并且每个探测器130也被分配给单独的独特照明器-探测器对112。(3×3=9)满足条件n1×n2>2,并且三个照明器120A、12B和120C以及三个探测器130A、130B和130C的集合是非共线的(因为照明器120A、120B和120C以及探测器130A、130B和130C没有被全部布置在单个直线上)。假设照明器FOV 122A、122B、122C和探测器FOV132A、132B、132C相交(从而建立空间体积),则图6A所示的布置将提供至少三个独立的方程,可以求解这些方程以确定在由照明器120A、120B、120C照明并由探测器130A、130B和130C感测的相交空间体积中的对象的位置。
图6B示出了根据一些实施例的仅使用四个光学组件(即,一个照明器120A和三个探测器130A、130B和130C)来提供三个独立方程的另一示例性配置。照明器120A和探测器130A、130B和130C已经被分配给独特照明器-探测器对112A、112B和112C。在图6B的示例中,三个独特照明器-探测器对112A、112B和112C中的每一个包括照明器120A和不同的探测器130。具体地,独特照明器-探测器对112A包括照明器120A和探测器130A;独特照明器-探测器对112B包括照明器120A和探测器130B;并且独特照明器-探测器对112C包括照明器120A和探测器130C。(1×3=3)满足条件n1×n2>2,并且照明器120A和三个探测器130A、130B和130C的集合是非共线的(即,照明器120A和探测器130A、130B和130C没有被全部布置在单个直线上)。假设照明器FOV 122A和探测器FOV 132A、132B、132C相交,则图6B所示的布置将提供三个独立的方程,可以求解这三个方程以确定由照明器120A照明并由探测器130A、130B和130C观察的相交空间体积中的对象的位置。
图6C示出了仅使用四个光学组件(即,三个照明器120A、120B和120C以及一个探测器130A)提供三个独立方程的另一示例性配置。照明器120A、120B和120C以及探测器130A已经被分配给独特照明器-探测器对112A、112B和112C。在图6C的示例中,三个独特照明器-探测器对112A、112B和112C中的每一个包括探测器130A和不同的照明器120。具体地,独特照明器-探测器对112A包括照明器120A和探测器130A;独特照明器-探测器对112B包括照明器120B和探测器130A;并且独特照明器-探测器对112C包括照明器120C和探测器130A。(3×1=3)满足条件n1×n2>2,并且照明器120A、120B和120C以及探测器130A的集合是非共线的(即,照明器120A、120B和120C以及探测器130A没有被全部布置在单个直线上)。假设照明器FOV 122A、122B和122C与探测器FOV 132A相交,则图6C所示的布置将提供三个独立的方程,可以求解这三个方程以确定由照明器120A、120B和120C照明并由探测器130A观察的相交空间体积中的对象的位置。
图6D示出了使用四个光学组件(即,两个照明器120A、120B和两个探测器130A、130B)提供四个方程的又一示例性配置,这四个方程中三个是独立的,一个是冗余的(其中冗余方程允许在存在噪声的情况下更准确地确定目标位置)。照明器120A、120B和探测器130A、130B已经被分配给独特照明器-探测器对112A、112B、112C和112D。在图6D的示例中,四个独特照明器-探测器对112A、112B、112C和112D中的每一个都包括一个照明器120和一个探测器130的独特组合。具体地,独特照明器-探测器对112A包括照明器120A和探测器130A;独特照明器-探测器对112B包括照明器120B和探测器130B;独特照明器-探测器对112C包括照明器120A和探测器130B;并且独特照明器-探测器对112D包括照明器120B和探测器130A。(2×2=4)满足条件(n1×n2>2),并且照明器120A、120B和探测器130A、130B的集合是非共线的(即,照明器120A、120B和探测器130A、130B没有全部被布置在单个直线上)。假设照明器FOV 122A和122B以及探测器FOV 132A和132B相交,则图6D所示的布置将提供四个方程,其中三个是独立的,一个是冗余的,可以求解这些方程以确定由照明器120A和120B照明并由探测器130A和130B感测的相交空间体积中的对象的位置。从使用两个照明器120和两个探测器130得到的可用的第四冗余方程可以用于提高空间体积内目标的估计位置的精度。
图7A、图7B、图7C和图7D示出了根据一些实施例的如何使用独特照明器-探测器对112来确定空间体积内的多个目标在三维空间中的位置。图7A示出了MIMO LiDAR系统100,其包括三个照明器120A、120B和120C以及三个探测器130A、130B和130C。在该示例中,单个照明器120A照明空间体积160,并且三个探测器130A、130B和130C观察空间体积160。照明器120A具有照明器FOV 122,为了方便起见示出为角度,并且探测器130A、130B和130C分别具有探测器FOV 132A、132B和132C,为了方便起见也示出为角度。图7A所示的探测器FOV132A、132B和132C中的每一个与照明器FOV 122的至少一部分相交。因此,图7A示出了三个示例性的独特照明器-探测器对112。一个独特照明器-探测器对112是照明器130A和探测器130A;第二独特照明器-探测器对112是照明器130A和探测器130B;并且第三独特照明器-探测器对112是照明器130A和探测器130C。
照明器FOV 122和每个探测器FOV 132A、132B和132C的交点是空间体积160。尽管图7A仅示出了二维,但是应当理解,照明器FOV 122、探测器FOV 132A、132B和132C以及空间体积160通常都是三维的。
图7A示出了MIMO LiDAR系统100范围内的三个目标150A、150B和150C。目标150A和150B在由照明器FOV 122和探测器FOV 132A、132B和132C限定的空间体积160内,因此,目标150A和150B在空间体积160内的位置可以如下面进一步描述的那样被确定。目标150C处于未被照明器120A照明的区域中。因此,不能使用照明器120A(至少不能使用所示的照明器FOV 122)来确定其位置。
为了确定目标150A和150B的位置,MIMO LiDAR系统100为每个独特照明器-探测器对112确定距离集合。对于独特照明器-探测器对112的距离集合是距离的集合。距离集合中的每个距离是由独特照明器-探测器对112的照明器120发射的、由空间体积160中的目标反射的、并且由独特照明器-探测器对112的探测器130探测的光学信号所经过的距离的估计。通常,如果在空间体积160中有N个目标,则对于每个独特照明器-探测器对112的距离集合将包括N个估计距离。
应当理解,因为MIMO LiDAR系统100的照明器120发射光学信号,并且探测器130探测光学信号,所以通过将飞行时间乘以光速,可以容易地从飞行时间计算光学信号所经过的距离。因此,距离集合并不严格要求包含距离(例如,以距离为单位的估计)。作为替代或补充,它可以包括发射信号的往返时间。换句话说,术语“距离集合”不限于物理距离的估计。如下文进一步描述的,根据其可以确定空间体积中的目标的位置或坐标的任何代替物(诸如往返时间)可以被用作距离集合。
图7B示出了光线121,其表示由照明器120A发射的、由目标150A和150B反射的、并由探测器130A、130B和130C探测的光学信号。图7C示出了照明器120A、目标150A和探测器130A、130B和130C之间光学信号所经过的距离。具体地,由照明器120A发射并由目标150A反射的光学信号在被探测器130A探测到之前经过距离170A,在被探测器130B探测到之前经过距离170B,并且在被探测器130C探测到之前经过距离170C。
如在图1A和图1B的上下文中所解释的,MIMO LiDAR系统100包括耦合到光学组件阵列110的至少一个处理器140。至少一个处理器140可以根据照明器120A发射的光学信号的飞行时间来估计距离170A、170B和170C。换句话说,知道照明器120A何时发射光学信号,至少一个处理器140可以使用光学信号到达探测器130A、130B和130C的到达时间,通过将光学信号的相应飞行时间乘以光速(3×108m/s)来估计距离170A、170B和170C。
与每个独特照明器-探测器对112相对应的估计距离定义了一个椭球体,该椭球体的一个焦点在独特照明器-探测器对112的照明器120的坐标处,并且另一焦点在独特照明器-探测器对112的探测器130的坐标处。椭球体被定义为空间中的那些点,它们距离两个焦点的距离之和由估计的距离给出。探测到的目标位于这个椭球体上的某个地方。例如,再次参考图7C,目标150A位于三个椭球体的每一个上。三个椭圆体中的每一个的一个焦点在照明器120A的坐标处。第一椭球体的另一焦点在探测器130A的坐标处。第二椭球体的另一焦点在探测器130B的坐标处。第三椭圆体的另一焦点在探测器130C的坐标处。因为照明器120A和探测器130A、130B和130C的集合是非共线的,并且目标150A位于每个椭球体上,所以目标150A的位置在位于空间体积160内的三个椭球体的交点处。该交点以及因此目标150A的坐标可以通过求解二次方程组来确定。适用于任意数量的照明器120和任意数量的探测器130的示例性过程(只要满足条件n1×n2>2和照明器120和探测器130的集合的非共线)将在本文的后面描述。
图7D示出了光学信号在照明器120A、目标150B和探测器130A、130B和130C之间所经过的距离。具体地,由照明器120A发射并由目标150B反射的光学信号在被探测器130A探测到之前经过距离170D,在被探测器130B探测到之前经过距离170E,并且在被探测器130C探测到之前经过距离170F。如在图7C的讨论中所解释的,至少一个处理器140知道照明器120A何时发射光学信号,并且它可以使用光学信号在探测器130A、130B和130C处的到达时间,通过将光学信号的相应飞行时间乘以光速来估计距离170D、170E和170F。目标150B位于三个椭圆体中的每一个上,每个椭圆体的一个焦点在照明器120A的坐标处,并且其另一焦点分别在探测器130A、130B或130C的坐标处。目标150B的位置在位于空间体积160中的这三个椭圆体的交点处。该交点以及因此目标150B的坐标可以通过求解另一二次方程组来确定,如下面进一步描述的。
图7A至图7D以及以上讨论描述了使用一个照明器120和三个探测器130来确定空间体积160内的目标150的位置的示例性MIMO LiDAR系统100。如上所述,也可以使用一定数量的照明器120和探测器130的其他组合(例如,三个照明器和一个探测器,两个照明器和两个探测器,等等)。可以使用满足条件n1×n2>2以及照明器120和探测器130的集合的非共线的照明器120和探测器130的任何组合。
图8A、图8B、图8C和图8D示出了另一示例性MIMO LiDAR系统100能够如何使用三个照明器120和一个探测器130来确定空间体积160中的目标150的位置。具体地,如图8A所示,三个照明器120A、120B和120C照明空间体积160,并且一个探测器130C探测由空间体积160内的目标150反射的光学信号。如前所述,空间体积160是照明器FOV 122A、122B和122C与探测器FOV 132的交点。探测器FOV 132与每个照明器FOV 122A、122B和122C的至少一部分相交。图8A示出了三个示例性独特照明器-探测器对112。一个独特照明器-探测器对112是照明器120A和探测器130C;第二独特照明器-探测器对112是照明器120B和探测器130C;并且第三独特照明器-探测器对112是照明器120C和探测器130C。
照明器FOV 122A、122B和122C与探测器FOV 132的交点是空间体积160。尽管图8A仅示出了二维,但是应当理解,照明器FOV 122A、122B和122C、探测器FOV 132以及空间体积160通常都是三维的。
图8A示出了MIMO LiDAR系统100范围内的三个目标150A、150B和150C。目标150A和150B在由照明器FOV 122A、122B和122C以及探测器FOV 132限定的空间体积160内,因此,空间体积160内的目标150A和150B的位置可以如下文进一步描述的那样被确定。
如图8A所示,目标150C处于由照明器120C照明并由探测器130C探测的区域中,但是因为它没有被照明器120A或120B照明,所以不能仅使用其FOV在图8A中示出的光学组件集合(即,照明器120A、120B、120C和探测器130C)来确定它的位置。应当理解,例如,如果探测器130A和130B可以感测包括目标150C的位置的空间体积,则照明器120C和探测器130A、130B和130C可以用于以图7A至图7D的上下文中描述的方式确定目标150C的坐标。同样地,满足条件n1×n2>2以及照明器120和探测器130的集合的非共线的、导致包括目标150C的空间体积160的任何光学组件集合(照明器120和探测器130)可以用于确定目标150C的位置。
为了确定目标150A和150B的位置,MIMO LiDAR系统100为每个独特照明器-探测器对112确定如上所述的距离集合。图8B示出了表示由照明器120A、120B和120C发射、由目标150A和150B反射并由探测器130C探测的光学信号的光线。照明器120A发射由光线121A表示的光学信号,该光学信号被目标150A和目标150B两者反射,然后被探测器130C探测到。类似地,照明器120B发射由光线121B表示的光学信号,该光学信号被目标150A和目标150B两者反射,然后被探测器130C探测到。照明器120C发射由光线121C表示的光学信号,该光学信号被所有目标150A、150B和150C反射,因为照明器FOV 122C涵盖目标150C所在的区域。反射信号然后被探测器130C探测到。
图8C示出了照明器120A、120B和120C、目标150A以及探测器130C之间光学信号所经过的距离。具体地,由照明器120A发射并由目标150A反射的光学信号在被探测器130C探测到之前经过距离170A。由照明器120B发射并由目标150A反射的光学信号在被探测器130C探测到之前经过距离170B,并且由照明器120C发射并由目标150A反射的光学信号在被探测器130C探测到之前经过距离170C。
图8D示出了光学信号在照明器120A、120B和120C、目标150B以及探测器130C之间经过的距离。具体地,由照明器120A发射并由目标150B反射的光学信号在被探测器130C探测到之前经过距离170D。由照明器120B发射并由目标150B反射的光学信号在被探测器130C探测到之前穿过距离170E,并且由照明器120C发射并由目标150B反射的光学信号在被探测器130C探测到之前经过距离170F。
如上所述,至少一个处理器140可以根据飞行时间来估计距离170A、170B、170C、170D、170E和170F。然而,在这种情况下,如果三个照明器120A、120B和120C同时发送相同的光学信号,则探测器130C可能无法确定哪个探测到的光学信号对应于哪个照明器120和哪个目标150。一般而言,如果两个或更多个照明器120同时并且在重叠的照明器FOV 122中发射光学信号,则感测公共区域中的目标150的探测器130有可能被混淆和/或不能辨析目标150。
一种解决方案是三个照明器120A、120B和120C在不同的时间发送相同的光学信号,使得对反射光学信号负责的照明器120的身份是已知的或者可以被确定或估计。例如,如果两个照明器120在不同的时间发射光学信号(例如,以循环或TDMA方式),或者如果它们照明不同的、不重叠的视场,则它们发射的光学信号可以是相同的。
另一种解决方案是每个照明器120发送光学信号,该光学信号可与同时在同一空间体积160内发送的所有其他光学信号相区分。因此,在一些实施例中,照明相同体积空间160并且同时发送的那些照明器120的光学信号包括独特的脉冲序列。特定照明器120使用的脉冲序列可以是全局唯一的(仅由整个光学组件阵列110中的一个照明器120使用),或者可以是局部唯一的(由多个照明器120使用,使得相同的脉冲序列不会同时出现在任何空间体积160中)。
因此,在一些实施例中,两个或更多个照明器120同时(或在同一时间窗口中)发射光学信号,并且还照明重叠的照明器FOV 122。在一些这样的实施例中,不同的照明器120使用不同的脉冲序列,这些脉冲序列被设计成允许一个或多个探测器130区分不同照明器120的脉冲序列。
因为照明器120发射光学信号,所以脉冲序列在任何选择的时间都具有瞬时幅度,但相位不确定。换句话说,它们以不一致的方式操作。在一些实施例中,脉冲序列是稀疏的,这意味着在指定的时间窗口中,每个脉冲序列仅包括几个非零脉冲。换句话说,如果脉冲序列的每个脉冲具有脉冲宽度(持续时间),并且时间窗口跨越整数个脉冲时隙,则每个脉冲时隙是一个脉冲的持续时间,脉冲仅占据脉冲时隙总数的较小百分比(例如,<10%)。
图9A示出了根据一些实施例的两个简单的脉冲序列180A和180B,以示出脉冲序列的设计原理。脉冲序列180A和180B中的每一个都具有三个脉冲。脉冲序列180A具有脉冲181A、181B和181C,并且脉冲序列180B具有脉冲181D、181E和181F。如图9A所示,在时间窗口182内,脉冲序列180A的脉冲181A、181B、181C中没有一个与脉冲序列180B的脉冲181D、181E、181F中的任何一个重叠。
理想地,每个脉冲序列180具有“几乎白色”的自相关,意味着每个脉冲序列180具有低于阈值的重叠。例如,阈值可以是零个脉冲,或者至多是小的预定数量的脉冲(例如,1、2或3,这取决于应用),具有其自身的所有移位版本(shifted version)。图9B示出了图9A的简单脉冲序列180A在各种重叠位置的自相关,重叠脉冲181的数量在图的右侧提供。假设时间窗口182被放到指定位置,使得每个脉冲181只能落在一个脉冲时隙内,则对于脉冲序列180A的每个相关与其自身的每个移位版本,自相关导致最大一个脉冲的重叠。自相关的最大值当然是3,因为脉冲序列180A在时间窗口182中具有三个脉冲。
图9C示出了图9A的简单脉冲序列180B在各种重叠位置的自相关,重叠脉冲181的数量在图的右侧提供。假设时间窗口182被放到指定位置,使得每个脉冲181只能落在一个脉冲时隙内,则对于脉冲序列180B的每个相关与其自身的每个移位版本,脉冲序列180B的自相关也导致最大一个脉冲的重叠。自相关的最大值当然是3,因为脉冲序列180B在时间窗口182中具有三个脉冲。
理想地,由具有重叠照明器FOV 122的不同照明器120使用的脉冲序列180基本上彼此不相关,这意味着每个脉冲序列180将最多具有小的预定数量的脉冲(例如,1、2或3,这取决于应用),具有由具有重叠照明器FOV 122的照明器120使用的所有其他脉冲序列180的所有移位版本。图9D示出了图9A的简单脉冲序列180A和180B在不同位置的互相关,重叠脉冲181的数量在图的右侧提供。如图所示,对于任何移位,重叠的脉冲的最大数量是1。因此,简单脉冲序列180A和180B可以说是基本上不相关的。应当理解,更大量的脉冲重叠也可以被认为是基本上不相关的。例如,低于某个阈值的最大重叠量(例如,特定百分比的脉冲(相对于总数))可以被认为使得脉冲序列180基本上不相关。作为具体示例,如果两个脉冲序列180跨越500个脉冲宽度的时间段,并且互相关中的最大重叠量小于10%(少于50个脉冲曾经重叠一次),则该重叠量可以被认为导致两个脉冲序列180基本上不相关。目的是选择脉冲序列180,使得探测器130能够区分由具有重叠FOV 122的不同照明器120发射的脉冲序列180。
应当理解,尽管上面的讨论描述了在具有重叠FOV 122的照明器120的情况下使用不同的脉冲序列,但是当探测器130具有与多个照明器FOV 122相交的探测器FOV 132时,即使照明器FOV 122本身不重叠,照明器120也希望使用不同的脉冲序列。例如,如果探测器FOV 132与第一照明器120A的照明器FOV 122A和第二照明器120B的照明器FOV 122B相交,则即使第一和第二照明器FOV 122A、122B不重叠,第一照明器120A使用的脉冲序列180也应该与第二照明器120B使用的脉冲序列不同且可区分,使得探测器130(或至少一个处理器140)可以确定哪个照明器120发射了导致每个反射信号的光学信号。
尽管图9A至图9D示出了使用具有单个幅度的脉冲181的简单脉冲序列180(即,脉冲181在时隙中或者开启或者关闭),但是脉冲序列180中的脉冲181可以替代地具有各种可能的非零幅度。
MIMO LiDAR系统100中使用的任何数量的脉冲序列180可以被设计成具有任何长度、任何期望的权重(例如,每个序列/时间窗口182的非零脉冲181的任何数量)、自相关函数的任何非原点(non-origin)最大值、以及两个不同脉冲序列180之间的互相关的任何最大值。可以使用例如代数工具(诸如差集和广义差集),通过约束随机化技术,通过凸优化,或通过这些技术和工具的组合来设计脉冲序列180。也可以使用蛮力方法(例如,穷举搜索)来设计脉冲序列180。
如前所述,照明器120和探测器130的任何组合可以用于探测空间体积160中的目标,只要满足条件n1×n2>2以及照明器120和探测器130的集合的非共线性。图10A、图10B、图10C、图10D、图10E和图10F示出了根据一些实施例的示例性MIMO LiDAR系统100如何能够使用两个照明器120和两个探测器130来确定空间体积160中的对象150的位置。具体地,如图10A所示,两个照明器120A和120C照明空间体积160,并且两个探测器130B和130C探测由空间体积160内的目标150反射的光学信号。如前所述,空间体积160是照明器FOV 122A和122C以及探测器FOV 132B和132C的交点。探测器FOV 132B和132C两者都与照明器FOV 122A和122C中的每一个的至少一部分相交。尽管图10A仅示出了二个维度,但是应当理解,照明器FOV 122A和122C、探测器FOV 132B和132C以及空间体积160通常都是三维的。
图10A示出了四个示例性的独特照明器-探测器对112。一个独特照明器-探测器对112是照明器130A和探测器130B;第二独特照明器-探测器对112是照明器130A和探测器130C;第三独特照明器-探测器对112是照明器130C和探测器130B;并且第四独特照明器-探测器对112是照明器130C和探测器130C。
图10A示出了MIMO LiDAR系统100范围内的三个目标150A、150B和150C。目标150A和150B在由照明器FOV 122A和122C以及探测器FOV 132B和132C限定的空间体积160内,因此,空间体积160内的目标150A和150B的位置可以如下文进一步描述的那样被确定。
如图10A所示,目标150C处于被照明器120C照明并被探测器130B和130C探测的区域中,但是因为它没有被照明器120A照明,所以它的位置不能仅使用其FOV被示出的光学组件集合(即,照明器120A和120C以及探测器130B和130C)来确定。应当理解,如果探测器130A可以感测包括目标150C的位置的空间体积,则照明器120C和探测器130A、130B和130C可以用于确定目标150C的坐标。同样,如果照明器120B具有与目标150C的位置重叠的照明器FOV122B,则照明器120B和120C以及探测器130B和130C的组合可以用于确定目标150C的位置。如前所述,满足条件n1×n2>2以及照明器120和探测器130的集合的非共线性的任何光学组件集合((多个)照明器120和(多个)探测器130)可以用于确定目标150C(或适用空间体积中的任何其他目标)的位置。
为了确定目标150A和150B的位置,MIMO LiDAR系统100为每个独特照明器-探测器对112确定如上所述的距离集合。图10B示出了光线,该光线表示由照明器120A和120C发射的、由目标150A、150B反射的、以及在照明器120C的情况下由目标150C反射的、并由探测器130B和130C探测的光学信号。照明器120A发射由光线121A表示的光学信号,该光学信号被目标150A和目标150B两者反射,然后被探测器130B和130C探测。类似地,照明器120C发射由光线121C表示的光学信号,该光学信号被目标150A、150B和150C中的每一个反射,因为照明器FOV 122C涵盖目标150C所处的区域。由目标150A和150B反射的光学信号由探测器130B和130C探测,而由目标150C反射的光学信号仅由探测器130C探测。
图10C示出了光学信号在照明器120A和120C、目标150A以及探测器130B之间经过的距离。具体地,由照明器120A发射并由目标150A反射的光学信号在被探测器130B探测到之前经过距离170A(实线)。由照明器120C发射并由目标150A反射的光学信号在被探测器130B探测到之前经过距离170B(虚线)。
图10D示出了光学信号在照明器120A和120C、目标150A以及探测器130C之间经过的距离。具体地,由照明器120A发射并由目标150A反射的光学信号在被探测器130C探测到之前经过距离170C(实线),并且由照明器120C发射并由目标150A反射的光学信号在被探测器130C探测到之前经过距离170D(虚线)。
图10E示出了光学信号唉照明器120A和120C、目标150B以及探测器130B之间经过的距离。具体地,由照明器120A发射并由目标150B反射的光学信号在被探测器130B探测到之前经过距离170E(实线)。由照明器120C发射并由目标150B反射的光学信号在被探测器130B探测到之前经过距离170F(虚线)。
图10F示出了光学信号在照明器120A和120C、目标150B以及探测器130C之间经过的距离。具体地,由照明器120A发射并由目标150B反射的光学信号在被探测器130C探测到之前经过距离170G(实线),并且由照明器120C发射并由目标150B反射的光学信号在被探测器130C探测到之前经过距离170H(虚线)。
如上所述,MIMO LiDAR系统100的至少一个处理器140可以根据飞行时间来估计距离170A、170B、170C、170D、170E、170F、170G和170H。然而,如上所述,如果照明器120A和120C同时发送相同的光学信号,则探测器130B和130C可能无法确定哪个探测到的光学信号对应于哪个照明器120和哪个目标150。通常,如果两个或更多个照明器120同时并且在重叠的照明器FOV 122(或探测器FOV 132)中发射光学信号,则感测公共区域中的目标150的探测器130有可能被混淆和/或不能辨析目标150。因此,在一些实施例中,如上所述,照明器120A和120C中的每一个发送相应的脉冲序列180,该脉冲序列允许探测器130B和130C(和/或至少一个处理器140)区分源自照明器120A的反射探测信号和源自照明器120C的反射探测信号。如上所述,照明器120A和120C使用的脉冲序列180可以具有基本上白色的自相关,并且可以基本上彼此不相关。之前对脉冲序列180的讨论(例如,在图9A至图9D的上下文中)在这里是适用的,并且不再重复。
探测和坐标估计
以下讨论适用于任何MIMO LiDAR系统100,其中满足条件n1×n2>2以及照明器120和探测器130的集合的非共线性,包括先前描述的那些。
空间体积160中的目标150可以通过(a)直接探测和坐标估计或者(b)扫描场景来确定。下面描述了这两种方法。
对于直接探测和坐标估计,MIMO LiDAR系统100确定探测到的光学信号的飞行时间。在下面的讨论中,为了减少混淆的可能性,某些参考标号通常被省略,以利于用作索引的字母。例如,照明器120由字母i指代和索引,探测器130由字母j指代和索引,并且目标150由字母k指代和索引。
再次参考图1B,对于MIMO LiDAR系统100中的多个探测器的j个探测器中的每一个,至少一个处理器140实施接收器算法以标识在该探测器的FOV 132中接收到的脉冲序列及其对应的延迟tijk,其中i表示发射被探测到的光学信号的照明器120,k表示第k个延迟(与第k个目标相关联),并且每个tijk对应于特定目标150。(应当理解,“特定目标”不一定对每个tijk都相同。换句话说,多个tijk值的集合可以对应于探测器j的探测器FOV 132中的一个或多个目标)。
至少一个处理器140可以通过多种方式来标识探测到的光学信号中存在的脉冲序列及其对应的延迟。例如,至少一个处理器140可以执行每个可能的发射脉冲序列和探测到的反射信号的相应相关,然后标识相关结果中的峰值,以确定存在哪个可能的发射脉冲序列,并估计对应于目标的延迟。例如,可以在时域中执行相关,或者通过在频域中执行等效的过程来执行相关。
作为另一示例,因为这里描述的脉冲序列180是稀疏的,所以至少一个处理器140可以使用优化过程来清楚地利用脉冲序列的结构,以对接收到的光学信号进行“降噪”。例如,至少一个处理器140可以通过使用原子范数最小化来对接收到的光学信号进行降噪(例如,通过使经降噪的接收到的信号的原子范数最小化,该经降噪的接收到的信号受到对表征经降噪的接收到的信号与发射脉冲序列的接近程度的度量(例如,平方欧几里德距离、L1范数、L范数等)的约束)。如本文所使用的,术语“经降噪信号”指的是已经过优化过程的信号,该信号可以是模拟的或数字的,其结果是比原始信号具有更少噪声的提取信号,该提取信号可以是模拟的或数字的。如本文所使用的,术语“优化过程”指的是任何(可能是非线性的)信号处理技术,其清楚地利用正被处理的一个或多个信号的结构来从一些(可能是不可数的)备选方案集合(例如,可能的发射脉冲序列)中选择最佳估计(针对某个标准)。优化过程可以是迭代的。
在根据一些实施例使用的原子范数框架中,我们假设我们有一个原子集合
Figure BDA0003568408170000281
其中该集合可以是有限的、可数无限的、甚至是不可数无限的。如果一个x信号可以写成几个原子的和,比如说K个原子的和,则我们称之为结构化的信号,其中K小于x的周围空间的维数,即,
Figure BDA0003568408170000282
在上面,αk是(可能是复数的(complex))标量。
相对于原子集合
Figure BDA0003568408170000283
矢量x的原子范数被定义为
Figure BDA0003568408170000284
换句话说,x的原子范数是可以用原子的线性组合的方式来表示x的最经济的方式,其中经济的是指最小化‖·‖规范的表示,其中‖c‖=∑k|ck|。小的原子规范是指x可以表示为几个原子的总和。反之,大的原子范数意味着需要很多原子来表示x。
假设MIMO LiDAR系统100使用的脉冲序列180是稀疏的,为了标识脉冲序列和它们相应的延迟,至少一个处理器140可以使用原子范数降噪器(被调谐到对应的脉冲序列),其后跟随相关接收器。
作为另一示例,至少一个处理器140可以使用原子范数降噪器,其后跟随任何正弦噪声估计器(sinusoid-in-noise estimator),诸如MUSIC、ESPRIT、Hankel范数近似、Prony、Burg等。作为又一示例,至少一个处理器140可以使用原子范数降噪器,该原子范数降噪器涉及在原子的有限集合上的搜索。
每一个tijk都可以用于确定由照明器i发射并当从目标k反射时由探测器j接收的光学信号的飞行时间。换句话说,从照明器i经由目标k到探测器j的距离170简单地是ctikj,其中c是光速。距离ctikj产生一个椭球体,其焦点是照明器i和探测器j的坐标,使得目标k必须位于该椭球体上(因为它到焦点的距离之和是ctikj)。
对于n1=1并且n2=3的情况(即,一个照明器120和三个探测器130),空间体积160中的每个点由至少三个探测器130观察到。因此,该空间体积160中的每个目标k被(至少)照明器i照明,并被(至少)三个探测器j1、j2和j3观察到(其中照明器和探测器的集合被非共线地布置)。第k个目标的精确坐标可以根据
Figure BDA0003568408170000291
Figure BDA0003568408170000292
通过求解与三个椭球相交的二次方程组来确定,如下面进一步描述的。
类似地,对于n1=2并且n2=2的情况(即,两个照明器120和两个探测器130),空间体积160中的每个目标k被(至少)两个照明器i1和i2照明,并且被(至少)两个探测器j1和j2观察到(其中照明器和探测器的集合被非共线地布置)。第k个目标的精确坐标可以根据
Figure BDA0003568408170000293
Figure BDA0003568408170000294
通过求解与四个椭圆体相交的二次方程组来确定,如下面进一步描述的。
同样,对于n1=3并且n2=1的情况(即,三个照明器120和一个探测器130),空间体积160中的每个点被至少三个照明器120照明。因此,该空间体积160中的每个目标k被(至少)三个照明器i1、i2和i3照明,并被(至少)一个探测器j观察到(其中照明器和探测器的集合被非共线地布置)。第k个目标的精确坐标可以根据
Figure BDA0003568408170000295
Figure BDA0003568408170000296
通过求解与三个椭球相交的二次方程组来确定,如下面进一步描述的。应当理解,有无数种方法来求解二次方程组,并且本文描述的具体方法仅仅是合适技术的一个示例。本领域普通技术人员将能够识别和应用其他解决方案,而无需过度的实验。
满足条件n1×n2>2的n1和n2的其他组合的距离可以类似地被推导出。
每个椭球体的方程可以如下来确定。假设照明器i在坐标(xi,yi,zi)处,目标k在坐标(xk,yk,zk)处,并且探测器j在坐标(xj,yj,zj)处,对于往返时间t,目标k位于由下式给出的椭圆上
Figure BDA0003568408170000301
假设在对于p=1,…,n1的坐标
Figure BDA0003568408170000302
处有n1个照明器120用于照明坐标(x,y,z)处的未知目标,在对于q=1,…,n2的坐标
Figure BDA0003568408170000303
处有n2个探测器130用于探测坐标(x,y,z)处的未知目标。假设照明器和探测器j(未知目标的反射)之间的往返时间为tij。那么未知目标的坐标可以通过求解下面的优化问题来获得:
Figure BDA0003568408170000304
应当理解,有许多方法来求解上述优化问题,从而确定目标的未知坐标x、y、z。这些方法包括一阶方法,诸如梯度下降法、镜像下降法、共轭梯度法等,以及诸如牛顿法的二阶方法。也有这些一阶和二阶方法的黎曼优化对应物。
此外,已经在笛卡尔坐标系中描述了上述用于寻找未知目标在三维空间中的位置的解。如前所述,并且如本领域普通技术人员将理解的,未知目标的位置也可以在柱坐标系、球坐标系或任何其他适当的坐标系中描述。当使用柱坐标或球坐标,而不是二次方程组时,得到的是代数三角方程组。这些也可以通过多种方式来求解。例如,可以使用考虑三角结构的一阶和二阶黎曼优化方法。
在n1=1并且n2=3(即,一个照明器120和三个探测器130)的情况下,该算法检查已经从照明器i到达的脉冲序列180,该照明器i具有照明由三个探测器130感测的空间体积160的照明器FOV 122。对于每个这样的三元组
Figure BDA0003568408170000305
Figure BDA0003568408170000306
该算法试图求解由三个对应的椭球体产生的二次方程组。如果二次方程组没有实数解,则针对这个三元组的目标就不存在。否则,方程组的解确定目标的坐标,并确认了它的存在。
也可以通过扫描场景来发现目标。对于要扫描的兴趣点(x,y,z),分别照明和观察该点的非共线照明器120和探测器130(其中n1×n2>2)的(多个)集合的往返时间被预先计算并存储(例如,在数据库、计算机可读存储器、服务器等中)。当MIMO LiDAR系统100运行时,(多个)探测器130探测到的延迟(距离)被检查以确定它们是否对应于任何预先计算的往返时间(或距离)。如果是,则目标的位置是已知的。
在前面的描述和附图中,已经阐述了特定的术语,以提供对所公开的实施例的全面理解。在某些情况下,术语或附图可能暗示实践本发明不需要的具体细节。
为了避免不必要地模糊本公开,众所周知的组件以框图形式示出和/或不详细讨论,或者在某些情况下根本不讨论。
除非本文另有明确限定,否则所有术语都将被赋予其最广泛的可能解释,包括说明书和附图中暗示的含义以及本领域技术人员理解的含义和/或字典、论文等中限定的含义。如本文明确阐述的,一些术语可能与其普通或习惯含义不符。
如说明书和所附权利要求中所使用的,单数形式“一”、“一个”和“该”不排除复数对象,除非另有说明。词语“或”应被解释为包含性的,除非另有说明。因此,短语“A或B”应被解释为意指以下所有内容:“A和B两者”、“A但不是B”和“B但不是A”。本文中“和/或”的任何使用并不意味着单词“或”单独意味着排他性。
如在说明书和所附权利要求中所使用的,形式为“A、B和C中的至少一个”、“A、B或C中的至少一个”、“A、B或C中的一个或多个”以及“A、B和C中的一个或多个”的短语是可互换的,并且每一个都包含所有以下含义:“仅A”、“仅B”、“仅C”、“A和B但不是C”、“A和C但不是B”、“B和C但不是A”以及“A、B和C的全部”。
就具体实施例或权利要求中使用的术语“包括”、“具有”、“有”、“带有”及其变体而言,这些术语旨在以类似于术语“包含”的方式包含,即,意味着“包括但不限于”
术语“示例性”和“实施例”用于表达示例,而不是偏好或要求。
术语“耦合”在本文用于表示直接连接/附接以及通过一个或多个中间元件或结构的连接/附接。
本文使用的术语“上”、“下”、“之间”和“在……上”是指一个特征相对于其他特征的相对位置。例如,设置在另一个特征“之上”或“之下”的一个特征可以与另一特征直接接触,或者可以具有中间材料。此外,设置在两个特征“之间”的一个特征可以与这两个特征直接接触,或者可以具有一个或多个中间特征或材料。相反,第二特征“在……上”的第一特征与该第二特征接触。
术语“基本上”用于描述结构、配置、维度等。这在很大程度上或几乎如所述,但是由于制造公差等,实际上可能导致这样的情况,其中结构、配置、维度等并不总是或不一定完全如所述。例如,将两个长度描述为“基本相等”意味着这两个长度对于所有实际目的来说是相同的,但是它们在足够小的尺度下可能不(并且不需要)精确相等。作为一个示例,“基本垂直”的结构将被认为是垂直的,即使它不是精确地相对于水平方向成90度。
附图不一定是按比例绘制的,并且特征的维度、形状和尺寸可能与它们在附图中的描述有很大不同。
尽管已经公开了具体实施例,但是很明显,在不脱离本公开的更广泛的精神和范围的情况下,可以对其进行各种修改和改变。例如,至少在可实践的情况下,任何实施例的特征或方面可以与任何其他实施例结合应用,或者代替其对应物特征或方面。因此,说明书和附图被认为是说明性的,而不是限制性的。

Claims (24)

1.一种光探测和测距LiDAR系统,包括:
光学组件阵列,所述阵列包括多个照明器和多个探测器,所述多个照明器中的每一个具有相应的照明器视场FOV,并且所述多个探测器中的每一个具有相应的探测器FOV;以及
耦合到所述光学组件阵列并且被配置为执行至少一个机器可执行指令的至少一个处理器,所述至少一个机器可执行指令在被执行时使得所述至少一个处理器:
确定第一距离集合,其中所述第一距离集合对应于所述光学组件阵列中的第一独特照明器-探测器对,并且其中对于空间体积中的多个目标中的每个目标,所述第一距离集合包括由所述第一独特照明器-探测器对的照明器发射的、由所述目标反射的、并且由所述第一独特照明器-探测器对的探测器探测的光学信号所经过的相应估计距离,
确定第二距离集合,其中所述第二距离集合对应于所述光学组件阵列中的第二独特照明器-探测器对,并且其中对于所述空间体积中的所述多个目标中的每个目标,所述第二距离集合包括由所述第二独特照明器-探测器对的照明器发射的、由所述目标反射的、并且由所述第二独特照明器-探测器对的探测器探测的光学信号所经过的相应估计距离,
确定第三距离集合,其中所述第三距离集合对应于所述光学组件阵列中的第三独特照明器-探测器对,并且其中对于所述空间体积中的所述多个目标中的每个目标,所述第三距离集合包括由所述第三独特照明器-探测器对的照明器发射的、由所述目标反射的、并且由所述第三独特照明器-探测器对的探测器探测的光学信号所经过的相应估计距离,以及
至少部分基于所述第一距离集合、所述第二距离集合和所述第三距离集合,估计所述多个目标中的每个目标在三维空间中的相应位置,
其中:
所述第一独特照明器-探测器对的照明器、所述第一独特照明器-探测器对的探测器、所述第二独特照明器-探测器对的照明器、所述第二独特照明器-探测器对的探测器、所述第三独特照明器-探测器对的照明器或所述第三独特照明器-探测器对的探测器中的至少两个是非共线的,并且
所述空间体积在以下各项中的每一个内:(a)所述第一独特照明器-探测器对的照明器的FOV,(b)所述第一独特照明器-探测器对的探测器的FOV,(c)所述第二独特照明器-探测器对的照明器的FOV,(d)所述第二独特照明器-探测器对的探测器的FOV,(e)所述第三独特照明器-探测器对的照明器的FOV,以及(f)所述第三独特照明器-探测器对的探测器的FOV。
2.根据权利要求1所述的LiDAR系统,其中,所述至少一个机器可执行指令使得所述至少一个处理器通过求解至少一个二次方程来估计所述多个目标中的每一个的相应位置。
3.根据权利要求1所述的LiDAR系统,其中,所述至少一个机器可执行指令使得所述至少一个处理器部分地通过以下方式来确定所述第一距离集合:
对由所述第一独特照明器-探测器对的探测器探测到的光学信号进行降噪,
对经降噪的探测到的光学信号与由所述第一独特照明器-探测器对的照明器发射的光学信号执行相关,以及
标识相关结果中的至少一个峰值。
4.根据权利要求3所述的LiDAR系统,其中,对由所述第一独特照明器-探测器对的探测器探测到的光学信号进行降噪包括确定或最小化原子范数。
5.根据权利要求1所述的LiDAR系统,其中,所述至少一个机器可执行指令使得所述至少一个处理器部分地通过以下方式来确定所述第一距离集合:
执行相关,以及
标识相关结果中的至少一个峰值。
6.根据权利要求1所述的LiDAR系统,其中,由所述第一独特照明器-探测器对的照明器发射的光学信号包括在时间窗口期间发送的第一脉冲序列。
7.根据权利要求6所述的LiDAR系统,其中,所述第一脉冲序列是稀疏的。
8.根据权利要求6所述的LiDAR系统,其中,所述第一脉冲序列的自相关基本上是白色的。
9.根据权利要求6所述的LiDAR系统,其中,由所述第二独特照明器-探测器对的照明器发射的光学信号包括在所述时间窗口期间发送的第二脉冲序列,其中所述第二脉冲序列不同于所述第一脉冲序列。
10.根据权利要求9所述的LiDAR系统,其中,所述第一脉冲序列和所述第二脉冲序列基本上不相关。
11.根据权利要求9所述的LiDAR系统,其中,所述第一脉冲序列和所述第二脉冲序列是稀疏的。
12.根据权利要求9所述的LiDAR系统,其中,所述第一脉冲序列和所述第二脉冲序列中的每一个的相应自相关基本上是白色的。
13.根据权利要求9所述的LiDAR系统,其中,所述第一脉冲序列和所述第二脉冲序列的互相关的最大值小于阈值。
14.根据权利要求13所述的LiDAR系统,其中,所述阈值是重叠脉冲的最大数量。
15.根据权利要求9所述的LiDAR系统,其中,由所述第三独特照明器-探测器对的照明器发射的光学信号包括在所述时间窗口期间发送的第三脉冲序列,其中所述第三脉冲序列不同于所述第一脉冲序列并且不同于所述第二脉冲序列。
16.根据权利要求15所述的LiDAR系统,其中:
所述第一脉冲序列和所述第二脉冲序列基本上不相关,
所述第一脉冲序列和所述第三脉冲序列基本上不相关,并且
所述第二脉冲序列和所述第三脉冲序列基本上不相关。
17.根据权利要求15所述的LiDAR系统,其中,所述第一脉冲序列、所述第二脉冲序列和所述第三脉冲序列是稀疏的。
18.根据权利要求15所述的LiDAR系统,其中,所述第一脉冲序列、所述第二脉冲序列和所述第三脉冲序列中的每一个的相应自相关基本上是白色的。
19.根据权利要求1所述的LiDAR系统,其中,所述第一独特照明器-探测器对的照明器、所述第二独特照明器-探测器对的照明器或所述第三独特照明器-探测器对的照明器中的至少两个是同一照明器。
20.根据权利要求1所述的LiDAR系统,其中,所述第一独特照明器-探测器对的探测器、所述第二独特照明器-探测器对的探测器或所述第三独特照明器-探测器对的探测器中的至少两个是同一探测器。
21.根据权利要求1所述的LiDAR系统,其中:
所述第一独特照明器-探测器对的照明器、所述第二独特照明器-探测器对的照明器或所述第三独特照明器-探测器对的照明器中的至少两个是同一照明器,并且
所述第一独特照明器-探测器对的探测器、所述第二独特照明器-探测器对的探测器或所述第三独特照明器-探测器对的探测器中的至少两个是同一探测器。
22.根据权利要求1所述的LiDAR系统,其中,所述至少一个机器可执行指令在被执行时使得所述至少一个处理器通过求解至少一个优化问题来估计所述多个目标中的每个目标在三维空间中的相应位置。
23.根据权利要求22所述的LiDAR系统,其中,所述至少一个优化问题包括
Figure FDA0003568408160000041
Figure FDA0003568408160000042
24.根据权利要求1所述的LiDAR系统,其中,所述至少一个机器可执行指令在被执行时使得所述至少一个处理器通过确定所述第一距离集合、所述第二距离集合或所述第三距离集合中的至少一个估计距离是否对应于存储的预先计算的距离,来估计所述多个目标中的每个目标在三维空间中的相应位置。
CN202080068142.5A 2019-08-08 2020-08-09 分布式孔径光学测距系统 Pending CN114450604A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962884651P 2019-08-08 2019-08-08
US62/884,651 2019-08-08
PCT/US2020/045556 WO2021026518A1 (en) 2019-08-08 2020-08-09 Distributed aperture optical ranging system

Publications (1)

Publication Number Publication Date
CN114450604A true CN114450604A (zh) 2022-05-06

Family

ID=72811927

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080068142.5A Pending CN114450604A (zh) 2019-08-08 2020-08-09 分布式孔径光学测距系统

Country Status (4)

Country Link
US (2) US11047982B2 (zh)
EP (1) EP4010736A1 (zh)
CN (1) CN114450604A (zh)
WO (1) WO2021026518A1 (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10466342B1 (en) * 2018-09-30 2019-11-05 Hesai Photonics Technology Co., Ltd. Adaptive coding for lidar systems
JP2020153715A (ja) 2019-03-18 2020-09-24 株式会社リコー 測距装置および測距方法
KR20230043954A (ko) 2020-07-29 2023-03-31 뉴럴 프로펄전 시스템즈, 인크. 자율 주행에서 코너들 주위를 보기 위한 다중 주파수 레이더 어레이 시스템들 및 센서 융합
WO2022271265A2 (en) * 2021-04-26 2022-12-29 Neural Propulsion Systems, Inc. Long-range lidar
WO2023277998A2 (en) * 2021-04-26 2023-01-05 Neural Propulsion Systems, Inc. Moving aperture lidar
WO2023059766A1 (en) * 2021-10-06 2023-04-13 Neural Propulsion Systems, Inc. Hybrid lidar system

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6621561B2 (en) 2000-09-22 2003-09-16 Virginia Tech Intellectual Properties Doppler rotational velocity sensor
US6922145B2 (en) * 2002-05-29 2005-07-26 Gregory Hubert Piesinger Intrusion detection, tracking, and identification method and apparatus
US8368876B1 (en) 2008-10-17 2013-02-05 Odyssey Space Research, L.L.C. Calibration system and method for imaging flash LIDAR systems
US7679751B1 (en) 2008-11-24 2010-03-16 Analog Devices, Inc. Method and apparatus for three-dimensional imaging
US8775081B2 (en) 2011-09-26 2014-07-08 Weyerhaeuser Nr Company Method and apparatus for sorting LiDAR data
GB201205563D0 (en) * 2012-03-29 2012-05-09 Sec Dep For Business Innovation & Skills The Coordinate measurement system and method
US9476981B2 (en) 2013-01-08 2016-10-25 Massachusetts Institute Of Technology Optical phased arrays
DE102015003584A1 (de) * 2015-03-19 2016-09-22 Alexander Rudoy Verfahren und Vorrichtung zur 3D-Positionsbestimmung
US9823118B2 (en) 2015-12-26 2017-11-21 Intel Corporation Low power, high resolution solid state LIDAR circuit
US10429496B2 (en) 2016-05-27 2019-10-01 Analog Devices, Inc. Hybrid flash LIDAR system
US10371784B2 (en) * 2016-06-03 2019-08-06 Raytheon Company System and method for multi-sensor multi-target 3D fusion using an unbiased measurement space
US20190129008A1 (en) 2017-04-26 2019-05-02 Ours Technology, Inc. Wide-angle high-resolution solid-state lidar system using grating lobes
WO2018205006A1 (en) 2017-05-11 2018-11-15 Huawei Technologies Co., Ltd. Time-of-flight apparatus
US10429495B1 (en) 2018-04-03 2019-10-01 Hesai Photonics Technology Co., Ltd. Lidar system and method
US10466342B1 (en) 2018-09-30 2019-11-05 Hesai Photonics Technology Co., Ltd. Adaptive coding for lidar systems
US20200041614A1 (en) * 2018-08-03 2020-02-06 OPSYS Tech Ltd. Distributed Modular Solid-State LIDAR System
US20200088844A1 (en) * 2018-09-18 2020-03-19 Velodyne Lidar, Inc. Systems and methods for improving detection of a return signal in a light ranging and detection system with pulse encoding

Also Published As

Publication number Publication date
US20210325537A1 (en) 2021-10-21
US20210041562A1 (en) 2021-02-11
WO2021026518A1 (en) 2021-02-11
US11047982B2 (en) 2021-06-29
EP4010736A1 (en) 2022-06-15

Similar Documents

Publication Publication Date Title
CN114450604A (zh) 分布式孔径光学测距系统
CA3012691C (en) Lidar based 3-d imaging with far-field illumination overlap
CN109164430B (zh) 利用激光回波与光斑探测目标位置与姿态的系统及方法
US11753003B2 (en) Surface normal determination for LIDAR range samples by detecting probe pulse stretching
JP6969425B2 (ja) 光測距装置
CN102253392B (zh) 飞行时间摄像机单元和光学监视系统
CN109791195A (zh) 用于光达的自适应发射功率控制
KR20220145845A (ko) 솔리드 스테이트 LiDAR용 잡음 필터링 시스템 및 방법
US9981604B2 (en) Object detector and sensing apparatus
KR102280072B1 (ko) Lidar 시스템들에 대한 간섭 검출 및 완화
US20190265358A1 (en) Lidar system
JP6772639B2 (ja) 視差演算システム、移動体及びプログラム
US20240168138A1 (en) Convolved Augmented Range LIDAR Nominal Area
CN114509744B (zh) 一种激光雷达的测距检测率的评估方法、装置及设备
EP3862787A1 (en) De-jitter of point cloud data for target recognition
WO2020263397A1 (en) Data-driven angular jitter estimator for lidar
CN113126064A (zh) 一种信号处理方法及相关装置
US20200142061A1 (en) Method and device for detecting objects, and lidar system
CN117337404A (zh) 像素映射固态lidar发射机系统和方法
US20220350000A1 (en) Lidar systems for near-field and far-field detection, and related methods and apparatus
JP2021012264A (ja) 光走査装置、物体検出装置及びセンシング装置
CN108957465B (zh) 一种多元异形光敏面接收的脉冲激光探测装置
WO2023059766A1 (en) Hybrid lidar system
US11448758B2 (en) Method and device for optical distance measurement
US20220050200A1 (en) Range estimation for lidar systems

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination