CN110268283B - 激光雷达系统和方法 - Google Patents

激光雷达系统和方法 Download PDF

Info

Publication number
CN110268283B
CN110268283B CN201780071151.8A CN201780071151A CN110268283B CN 110268283 B CN110268283 B CN 110268283B CN 201780071151 A CN201780071151 A CN 201780071151A CN 110268283 B CN110268283 B CN 110268283B
Authority
CN
China
Prior art keywords
lidar system
light
detection elements
sensor
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201780071151.8A
Other languages
English (en)
Other versions
CN110268283A (zh
Inventor
O.D.凯拉夫
O.布斯基拉
R.埃舍尔
Y.安特曼
N.奥西罗夫
A.斯坦伯格
D.埃洛兹
J.弗莱科
S.莱维
G.佐哈
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yingnuowesi Technology Co ltd
Original Assignee
Yingnuowesi Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yingnuowesi Technology Co ltd filed Critical Yingnuowesi Technology Co ltd
Priority to CN202311107736.4A priority Critical patent/CN117310742A/zh
Publication of CN110268283A publication Critical patent/CN110268283A/zh
Application granted granted Critical
Publication of CN110268283B publication Critical patent/CN110268283B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4868Controlling received signal intensity or exposure of sensor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/489Gain of receiver varied automatically during pulse-recurrence period

Abstract

系统和方法使用激光雷达技术。在一个实现中,激光雷达系统包括至少一个处理器,被配置为:控制至少一个光源的激活以照亮视场;从具有多个检测元件的至少一个传感器接收反射信号,该反射信号指示从该视场中的物体反射的光;动态地分配多个检测元件的第一子集以构成第一像素;动态地分配多个检测元件的第二子集以构成第二像素;在处理第一像素和第二像素之后,动态地分配多个检测元件的第三子集以构成第三像素,第三子集与第一子集和第二子集中的至少一个重叠,并且不同于第一子集和第二子集中的每一个;以及在处理第一像素和第二像素之后,动态地分配多个检测元件的第四子集以构成第四像素,第四子集与第一子集、第二子集和第三子集中的至少一个重叠,并且不同于第一子集、第二子集和第三子集中的每一个。

Description

激光雷达系统和方法
相关申请的交叉引用
本申请要求以下美国临时专利申请的优先权权益:于2016年11月16日提交的美国临时专利申请No.62/422,602;于2016年11月22日提交的美国临时专利申请No.62/425,089;于2017年1月3日提交的美国临时专利申请No.62/441,574;于2017年1月3日提交的美国临时专利申请No.62/441,578;于2017年1月3日提交的美国临时专利申请No.62/441,581;于2017年1月3日提交的美国临时专利申请No.62/441,583;于2017年1月3日提交的美国临时专利申请No.62/441,606;于2017年1月3日提交的美国临时专利申请No.62/441,610;于2017年1月3日提交的美国临时专利申请No.62/441,611;于2017年2月7日提交的美国临时专利申请No.62/455,627;于2017年2月9日提交的美国临时专利申请No.62/456,691;于2017年2月22日提交的美国临时专利申请No.62/461,802;于2017年6月8日提交的美国临时专利申请No.62/516,694;于2017年6月18日提交的美国临时专利申请No.62/521,450;于2017年9月20日提交的美国临时专利申请No.62/560,985;于2017年9月26日提交的美国临时专利申请No.62/563,367;以及于2017年10月3日提交的美国临时专利申请No.62/567,692。所有上述申请通过引用整体并入本文。
技术领域
本公开总体上涉及用于扫描周围环境的勘测技术,并且更具体地,涉及使用激光雷达(LIDAR)技术来检测周围环境中的物体的系统和方法。
背景技术
随着驾驶员辅助系统和自主车辆的出现,汽车需要配备有能够可靠地感测和解释其周围环境的系统,包括识别可能会影响车辆导航的障碍物、危险、物体和其它物理参数。为此,已经提出了多种不同的技术,包括单独或以冗余方式操作的雷达、激光雷达、基于相机的系统。
驾驶员辅助系统和自主车辆的一个考虑因素是系统在不同条件下(包括雨、雾、黑暗、强光和雪)确定周围环境的能力。光检测和测距系统(激光雷达(LIDAR),也称为光雷达(LADAR))是可以在不同条件下很好地工作的技术的示例,该技术通过用光照亮物体并用传感器测量反射脉冲,来测量到物体的距离。激光是可以在激光雷达系统中使用的光源的一个示例。与任何传感系统一样,为了使基于激光雷达的感测系统完全被汽车行业采用,系统应当提供可靠的数据,以使得能够检测远处的物体。然而,目前激光雷达系统的最大照明功率受到使激光雷达系统对眼睛安全的需要的限制(即,使得它们将不会损伤人眼,这种损伤会在投射的光发射在眼睛的角膜和晶状体中吸收时发生,而对视网膜造成热损伤。)
本公开的系统和方法针对在遵守眼睛安全规定的同时改进激光雷达系统的性能。
发明内容
与本公开一致的实施例提供了使用激光雷达技术来检测周围环境中的物体的系统和方法。
与所公开的实施例一致,激光雷达系统包括至少一个处理器,该处理器被配置为:控制至少一个光源的激活以照亮视场;从具有多个检测元件的至少一个传感器接收反射信号,该反射信号指示从视场中的物体反射的光;动态地分配多个检测元件的第一子集以构成第一像素;动态地分配多个检测元件的第二子集以构成第二像素;在处理第一像素和第二像素之后,动态地分配多个检测元件的第三子集以构成第三像素,第三子集与第一子集和第二子集中的至少一个重叠,并且不同于第一子集和第二子集中的每一个;以及在处理第一像素和第二像素之后,动态地分配多个检测元件的第四子集以构成第四像素,第四子集与第一子集、第二子集和第三子集中的至少一个重叠,并且不同于第一子集、第二子集和第三子集中的每一个。
与所公开的实施例一致,车辆包括主体;以及主体内的至少一个处理器,该处理器被配置为:控制至少一个光源的激活以照亮主体前方的视场;从具有多个检测元件的至少一个传感器接收反射信号,该反射信号指示从视场中的物体反射的光;动态地分配多个检测元件的第一子集以构成第一像素;动态地分配多个检测元件的第二子集以构成第二像素;在处理第一像素和第二像素之后,动态地分配多个检测元件的第三子集以构成第三像素,第三子集与第一子集和第二子集中的至少一个重叠,并且不同于第一子集和第二子集中的每一个;以及在处理第一像素和第二像素之后,动态地分配多个检测元件的第四子集以构成第四像素,第四子集与第一子集、第二子集和第三子集中的至少一个重叠,并且不同于第一子集、第二子集和第三子集中的每一个。
与所公开的实施例一致,一种方法从激光雷达系统的传感器获得数据。该方法包括控制至少一个光源的激活以照亮视场;从具有多个检测元件的至少一个传感器接收反射信号,该反射信号指示从视场中的物体反射的光;动态地分配多个检测元件的第一子集以构成第一像素;动态地分配多个检测元件的第二子集以构成第二像素;在处理第一像素和第二像素之后,动态地分配多个检测元件的第三子集以构成第三像素,第三子集与第一子集和第二子集中的至少一个重叠,并且不同于第一子集和第二子集中的每一个;以及在处理第一像素和第二像素之后,动态地分配多个检测元件的第四子集以构成第四像素,第四子集与第一子集、第二子集和第三子集中的至少一个重叠,并且不同于第一子集、第二子集和第三子集中的每一个。
与所公开的实施例一致,激光雷达系统包括至少一个处理器,该处理器被配置为:控制至少一个光源的激活以照亮至少10平方度的视场(FOV)部分;从具有多个检测元件的至少一个传感器接收反射信号,该反射信号指示从FOV部分中的物体反射的光;动态地为多个检测元件应用第一分组方案,以提供包括第一数量的组的多个第一检测元件组;从至少一个传感器获得多个第一输出信号,第一输出信号中的每一个与另一个第一检测元件组对应;处理多个第一输出信号以提供遍及FOV部分具有第一点密度的第一点云,其中第一点云的每个点与另一个第一检测元件组对应;动态地为多个检测元件应用第二分组方案,以提供包括第二数量的组的多个第二检测元件组,其中第二数量大于第一数量;从至少一个传感器获得多个第二输出信号,第二输出信号中的每一个与另一个第二检测元件组对应;以及处理多个第二输出信号以提供遍及FOV部分具有第二点密度的第二点云,其中第二点云的每个点与另一个第二检测元件组对应;其中第二点密度至少是第一点密度的两倍密集。
与所公开的实施例一致,激光雷达系统包括至少一个处理器,该处理器被配置为:控制至少一个光源的激活以照亮视场;从至少一个传感器接收与视场中的物体相关联的反射信号,其中,光离开至少一个光源与反射照射在至少一个传感器上之间的时间流逝构成飞行时间;以及在飞行时间期间更改与至少一个传感器相关联的放大参数。
与所公开的实施例一致,激光雷达方法包括控制至少一个光源的激活以照亮视场;从至少一个传感器接收与视场中的物体相关联的反射信号,其中,光离开至少一个光源与反射照射在至少一个传感器上之间的时间流逝构成飞行时间;以及在飞行时间期间更改与至少一个传感器相关联的放大参数。
与所公开的实施例一致,车辆包括主体;位于主体内的至少一个处理器,并被配置为:控制至少一个光源的激活以照亮主体前方的视场;从至少一个传感器接收与视场中的物体相关联的反射信号,其中,光离开至少一个光源与反射照射在至少一个传感器上之间的时间流逝构成飞行时间;以及在飞行时间期间更改与至少一个传感器相关联的放大参数。
与所公开的实施例一致,激光雷达系统包括至少一个处理器,该处理器被配置为:控制至少一个光源的激活以发射指向视场的第一光发射;从处于第一放大设置的至少一个传感器接收与第一光发射从视场中的一个或多个物体的一个或多个反射相关联的数据;控制至少一个光源的激活以发射指向视场的第二光发射;将与至少一个传感器相关联的放大设置更改为与第一放大设置不同的第二放大设置;从处于第二放大设置的至少一个传感器接收与第二光发射从视场中的一个或多个物体的一个或多个反射相关联的数据;以及基于对与第一光发射的一个或多个反射相关联的数据和与第二光发射的一个或多个反射相关联的数据的分析,确定到视场中的物体的距离。
与所公开的实施例一致,用于确定到物体的距离的激光雷达方法包括发射指向视场的第一光发射;从处于第一放大设置的至少一个传感器接收与第一光发射从视场中的一个或多个物体的一个或多个反射相关联的数据;发射指向视场的第二光发射;将与至少一个传感器相关联的放大设置更改为与第一放大设置不同的第二放大设置;从处于第二放大设置的至少一个传感器接收与第二光发射从视场中的一个或多个物体的一个或多个反射相关联的数据;以及通过分析与第一光发射的一个或多个反射相关联的数据和与第二光发射的一个或多个反射相关联的数据来确定到视场中的物体的距离。
与所公开的实施例一致,激光雷达系统包括至少一个处理器,该处理器被配置为:访问存储在存储器中的光学预算,该光学预算与至少一个光源相关联并且定义在预定时间段中可由至少一个光源发射的光量;接收指示激光雷达系统的平台条件的信息;基于接收到的信息,基于扫描速率、扫描模式、扫描角度、空间光分布和时间光分布中的至少两个,将光学预算动态地分摊到激光雷达系统的视场;以及根据动态地分摊的光学预算输出信号,用于以使得光通量能够在对视场进行扫描时变化的方式控制至少一个光源。该至少一个处理器还被配置为:控制至少一个光源的激活以照亮视场;从具有多个检测元件的至少一个传感器接收反射信号,该反射信号指示从视场中的物体反射的光;动态地分配多个检测元件的第一子集以构成第一像素;动态地分配多个检测元件的第二子集以构成第二像素;在处理第一像素和第二像素之后,动态地分配多个检测元件的第三子集以构成第三像素,第三子集与第一子集和第二子集中的至少一个重叠,并且不同于第一子集和第二子集中的每一个;以及在处理第一像素和第二像素之后,动态地分配多个检测元件的第四子集以构成第四像素,第四子集与第一子集、第二子集和第三子集中的至少一个重叠,并且不同于第一子集、第二子集和第三子集中的每一个。
与其它公开的实施例一致,方法可以包括上述任何处理器执行的步骤的一个或多个步骤和/或包括本文描述的任何步骤。
与其它公开的实施例一致,非暂时性计算机可读存储介质可以存储程序指令,该程序指令由至少一个处理设备执行并执行本文描述的任何方法。
前面的一般性描述和以下的详细描述仅仅是示例性和解释性的,并不是对权利要求的限制。
附图说明
合并到本公开中并构成本公开的一部分的附图图示了各种公开的实施例。
附图中:
图1A是图示与所公开的实施例一致的示例性激光雷达系统的图。
图1B是示出与所公开的实施例一致的、安装在车辆上的激光雷达系统的单个扫描周期的示例性输出的图像。
图1C是示出从与所公开的实施例一致的激光雷达系统的输出而确定的点云模型的表示的另一个图像。
图2A-2D是图示根据本公开的一些实施例的投射单元的不同配置的图。
图3A-3D是图示根据本公开的一些实施例的扫描单元的不同配置的图。
图4A-4E是图示根据本公开的一些实施例的感测单元的不同配置的图。
图5A包括图示对于视场的单个部分的单个帧时间中的发射模式的四个示例图。
图5B包括图示对于整个视场的单个帧时间中的发射模式的三个示例图。
图5C是图示对于整个视场的单个帧时间期间朝着投射的实际光发射和接收的反射的图。
图6A-6C是图示与本公开的一些实施例一致的第一示例实现的图。
图6D是图示与本公开的一些实施例一致的第二实例实现的图。
图7A是图示与本公开的一些实施例一致的用于像素分配的检测元件的网格的图。
图7B-H是图示与本公开的一些实施例一致的图7A的检测元件的像素分配的各种示例的图。
图7I是图示与本公开的一些实施例一致的场景中的不同像素分配概念的图。
图7J-M是图示与本公开的一些实施例一致的改变像素分配的示例的图。
图8是与本公开的一些实施例一致的用于像素分配的示例性电路。
图9A是图示与本公开的一些实施例一致的用于通过检测元件组动态定义像素的示例方法的流程图。
图9B是图示根据当前公开的主题的示例的用于激光雷达成像的方法910的流程图。
图10是图示与所公开的实施例一致的灵敏度放大的动态时间选通的图。
图11包括与所公开的实施例一致的四个图,示出了作为时间的函数的动态灵敏度放大。
图12是与所公开的实施例一致的用于动态修改灵敏度放大的示例性处理的流程图。
图13是图示与所公开的实施例一致的视场中变化的反射放大的图。
图14图示了与所公开的实施例一致的视场的可能配置。
图15是与所公开的实施例一致的用于将放大参数指派给视场的不同部分的示例性处理的流程图。
图16提供了激光雷达系统100以及激光雷达系统100在分摊可用光学预算和/或计算预算时可依赖的各种信息源的框图表示。
图17A提供了提供与所公开的实施例一致的方法3000的示例的流程图,方法3000用于基于分摊的预算来控制激光雷达系统。
图17B提供了用于控制根据当前公开的实施例的激光雷达系统的示例性方法的流程图表示。
图18提供了与当前公开的实施例一致的可以证明以非均匀方式来分摊光学预算是合理的情形的示意性示例。
具体实施方式
以下详细描述参考附图。只要有可能,在附图和以下描述中使用相同的标号表示相同或相似的部分。虽然本文描述了若干说明性实施例,但是,修改、改编和其它实现是可能的。例如,可以对附图中示出的部件进行替换、添加或修改,并且可以通过对所公开的方法的步骤进行替换、重新排序、移除或添加来修改本文描述的说明性方法。因而,以下详细描述不限于所公开的实施例和示例。相反,适当的范围由所附权利要求限定。
术语定义
所公开的实施例可以涉及光学系统。如本文所使用的,术语“光学系统”广泛地包括用于生成、检测和/或操纵光的任何系统。仅作为示例,光学系统可以包括一个或多个用于生成、检测和/或操纵光的光学部件。例如,光源、透镜、反射镜、棱镜、分束器、准直器、偏振光学器件、光学调制器、光学开关、光学放大器、光学检测器、光学传感器、光纤部件、半导体光学部件,尽管不是每个都是必需的,但每个都可以成为光学系统的一部分。除了一个或多个光学部件之外,光学系统还可以包括其它非光学部件,诸如电子部件、机械部件、化学反应部件和半导体部件。非光学部件可以与光学系统的光学部件合作。例如,光学系统可以包括至少一个用于分析检测到的光的处理器。
与本公开一致,光学系统可以是激光雷达系统。如本文所使用的,术语“激光雷达系统”广泛地包括可以基于反射光来确定指示一对有形物体之间的距离的参数值的任何系统。在一个实施例中,激光雷达系统可以基于由激光雷达系统发射的光的反射,来确定一对有形物体之间的距离。如本文所使用的,术语“确定距离”广泛地包括生成指示有形物体对之间的距离的输出。所确定的距离可以表示一对有形物体之间的物理维度。仅作为示例,所确定的距离可以包括激光雷达系统与激光雷达系统的视场中的另一个有形物体之间的飞行距离线。在另一个实施例中,激光雷达系统可以基于由激光雷达系统发射的光的反射,来确定一对有形物体之间的相对速度。指示一对有形物体之间的距离的输出的示例包括:有形物体之间的标准长度单位的数量(例如,米数、英寸数、公里数、毫米数)、任意长度单位的数量(例如,激光雷达系统长度的数量)、距离与另一个长度之比(例如,与在激光雷达系统的视场中检测到的物体的长度之比)、时间量(例如,以标准单位、任意单位或比率给出的,例如,光在有形物体之间行进所花费的时间)、一个或多个位置(例如,使用协定的坐标系指定的、相对于已知位置指定的),等等。
激光雷达系统可以基于反射光,来确定一对有形物体之间的距离。在一个实施例中,激光雷达系统可以处理传感器的检测结果,该结果产生指示光信号的发射与由传感器检测到该光信号的时间之间的时间段的时间信息。该时间段有时被称为光信号的“飞行时间”。在一个示例中,光信号可以是短脉冲,其上升和/或下降时间可以在接收时被检测到。使用关于在相关介质(通常是空气)中光速的已知信息,可以处理关于光信号的飞行时间的信息,以提供光信号在发射和检测之间行进的距离。在另一个实施例中,激光雷达系统可以基于频率相移(或多频率相移)来确定距离。具体而言,激光雷达系统可以处理指示光信号的一个或多个调制相移的信息(例如,通过求解一些联立方程以给出最终测量)。例如,可以用一个或多个恒定频率对所发射的光学信号进行调制。所发射的信号和检测到的反射之间的调制的至少一个相移可以指示光在发射和检测之间行进的距离。调制可以应用于连续波光信号、准连续波光信号或其它类型的发射光信号。要注意的是,激光雷达系统可以使用附加信息以确定距离,例如,信号的投射位置、检测位置(尤其是如果彼此远离的话)之间的位置信息(例如,相对位置),等等。
在一些实施例中,激光雷达系统可以被用于检测激光雷达系统的环境中的多个物体。术语“检测激光雷达系统的环境中的物体”广泛地包括生成指示朝着与激光雷达系统相关联的检测器反射光的物体的信息。如果激光雷达系统检测到多于一个物体,那么所生成的与不同物体有关的信息可以互连,例如汽车在道路上行驶、鸟儿坐在树上、男人接触自行车、货车朝着建筑物移动。激光雷达系统在其中检测物体的环境的维度可以因实现方式而异。例如,激光雷达系统可以被用于检测其上安装有激光雷达系统的车辆的环境中的多个物体,直至100m(或200m、300m等等)的水平距离,并且直至10米(或25米、50米等等)的垂直距离。在另一个示例中,激光雷达系统可以被用于检测车辆的环境中或预定义水平范围(例如,25°、50°、100°、180°等等)内的多个物体,并且直至预定义的垂直高程(例如,±10°、±20°、+40°–20°、±90°或0°–90°)。
如本文所使用的,术语“检测物体”可以广泛地指确定物体的存在(例如,物体可以相对于激光雷达系统和/或另一个参考位置存在于某个方向上,或者物体可以存在于某个空间体积中)。附加地或可替代地,术语“检测物体”可以指确定物体与另一个位置(例如,激光雷达系统的位置、地表上的位置或另一个物体的位置)之间的距离。附加地或可替代地,术语“检测物体”可以指识别物体(例如,对物体的类型进行分类,诸如小汽车、植物、树、道路;分辨具体的物体(例如,华盛顿纪念碑);确定车牌号;确定物体的成分(例如,固体、液体、透明、半透明);确定物体的运动学参数(例如,它是否在移动、它的速度、它的移动方向、物体的膨胀)。附加地或可替代地,术语“检测物体”可以指生成点云图,其中点云图的一个或多个点中的每个点与物体中的位置或其面(face)上的位置对应。在一个实施例中,与视场的点云图表示相关联的数据分辨率可以与视场的0.1°x0.1°或0.3°x0.3°相关联。
与本公开一致,术语“物体”广泛地包括可以从其至少一部分反射光的物质的有限组成。例如,物体可以至少部分是固体的(例如,小汽车、树);至少部分是液体的(例如,道路上的水坑、雨水);至少部分是气态的(例如,烟雾、云);由多种独特颗粒组成(例如,沙尘暴、雾、喷雾);并且可以是一个或多个量值规模,诸如约1毫米(mm)、约5mm、约10mm、约50mm、约100mm、约500mm、约1米(m)、约5m、约10m、约50m、约100m,等等。还可以检测更小或更大的物体,以及那些示例之间的任何尺寸。要注意的是,出于各种原因,激光雷达系统可以检测物体的仅一部分。例如,在一些情况下,光可以仅从物体的一些侧面反射(例如,将仅检测与激光雷达系统相对的一侧);在其它情况下,光可以仅投射在物体的一部分上(例如,投射到道路或建筑物上的激光束);在其它情况下,物体可以被激光雷达系统和被检测物体之间的另一个物体部分地阻挡;在其它情况下,激光雷达的传感器可以仅检测从物体的一部分反射的光,例如,因为环境光或其它干扰与物体的一些部分的检测发生干扰。
与本公开一致,激光雷达系统可以被配置为通过扫描激光雷达系统的环境来检测物体。术语“扫描激光雷达系统的环境”广泛地包括照亮激光雷达系统的视场或视场的一部分。在一个示例中,扫描激光雷达系统的环境可以通过移动或枢转光偏转器以使光在不同方向上朝着视场的不同部分偏转来实现。在另一个示例中,扫描激光雷达系统的环境可以通过改变传感器相对于视场的定位(即,位置和/或朝向)来实现。在另一个示例中,扫描激光雷达系统的环境可以通过改变光源相对于视场的定位(即,位置和/或朝向)来实现。在又一个示例中,扫描激光雷达系统的环境可以通过改变至少一个光源和至少一个传感器的位置以相对于视场刚性地移动(即,至少一个传感器与至少一个光源的相对距离和朝向保持)来实现。
如本文所使用的,术语“激光雷达系统的视场”可以广泛地包括激光雷达系统的、可以在其中检测物体的可观察环境的范围。要注意的是,激光雷达系统的视场(FOV)可以受到各种条件的影响,诸如但不限于:激光雷达系统的朝向(例如,是激光雷达系统的光轴的方向);激光雷达系统相对于环境的位置(例如,地面之上的距离以及相邻的地形和障碍物);激光雷达系统的操作参数(例如,发射功率、计算设置、定义的操作角度)等等。激光雷达系统的视场可以例如通过立体角来定义(例如,使用θ角定义,其中/>和θ是例如相对于激光雷达系统和/或其FOV的对称轴而在垂直平面中定义的角度)。在一个示例中,视场也可以被定义在某个范围内(例如,直至200m)。
类似地,术语“瞬时视场”可以广泛地包括激光雷达系统可以在任何给定时刻在其中检测物体的可观察环境的范围。例如,对于扫描激光雷达系统,瞬时视场比激光雷达系统的整个FOV窄,并且它可以在激光雷达系统的FOV内被移动,以便使得能够在激光雷达系统的FOV的其它部分中进行检测。瞬时视场在激光雷达系统的FOV内的移动可以通过移动激光雷达系统的(或在激光雷达系统的外部的)光偏转器来实现,以便在不同方向将光束偏转到激光雷达系统和/或从激光雷达系统偏转。在一个实施例中,激光雷达系统可以被配置为扫描激光雷达系统正在其中操作的环境中的场景。如本文所使用的,术语“场景”可以广泛地包括在激光雷达系统的视场内的、在其相对位置中且在其当前状态下、在激光雷达系统的操作持续时间内的一些或所有物体。例如,场景可以包括地面元素(例如,地表、道路、草地、人行道、路面标记)、天空、人造物体(例如,车辆、建筑物、标志)、植被、人、动物、光投射元素(例如,手电筒、太阳、其它激光雷达系统),等等。
所公开的实施例可以涉及获得在生成重构三维模型时使用的信息。可以使用的重构三维模型的类型的示例包括点云模型和多边形网格(例如,三角形网格)。术语“点云”和“点云模型”在本领域中是众所周知的,并且应当被解释为包括在某种坐标系中空间定位的数据点(即,在由相应坐标系描述的空间中具有可识别的位置)的集合。术语“点云点”是指空间中的点(可以是无量纲的,或微小的细胞空间,例如1cm3),并且其位置可以通过点云模型使用一组坐标(例如,(X,Y,Z)、(r,φ,θ))来描述。仅作为示例,点云模型可以存储用于其一些或所有点的附加信息(例如,对于从相机图像生成的点的颜色信息)。同样,任何其它类型的重构三维模型可以存储其一些或所有物体的附加信息。类似地,术语“多边形网格”和“三角形网格”在本领域中是众所周知的,并且应当被解释为包括限定一个或多个3D物体(例如,多面体物体)的形状的顶点、边和面的集合。这些面可以包括以下当中的一个或多个:三角形(三角形网格)、四边形或其它简单的凸多边形,因为这可以简化渲染。这些面还可以包括更一般的凹多边形或具有孔的多边形。多边形网格可以使用不同的技术来表示,诸如:顶点-顶点网格、面-顶点网格、翼形边网格和渲染动态网格。多边形网格的不同部分(例如,顶点、面、边)或者直接地和/或相对于彼此地,在空间上位于某个坐标系中(即,在由相应坐标系描述的空间中具有可识别的位置)。重构三维模型的生成可以使用任何标准的、专用的和/或新颖的摄影测量技术来实现,其中许多技术在本领域中已知的。要注意的是,激光雷达系统可以生成其它类型的环境模型。
与所公开的实施例一致,激光雷达系统可以包括至少一个投射单元,其具有被配置为投射光的光源。如本文所使用的,术语“光源”广泛地指被配置为发射光的任何设备。在一个实施例中,光源可以是激光器,诸如固态激光器、激光二极管、高功率激光器,或替代光源(诸如基于发光二极管(LED)的光源)。此外,如贯穿附图所示,光源112可以以不同格式发射光,诸如光脉冲、连续波(CW)、准CW等等。例如,可以使用的一种类型的光源是垂直腔面发射激光器(VCSEL)。可以使用的另一种类型的光源是外腔二极管激光器(ECDL)。在一些示例中,光源可以包括被配置为发射波长在大约650nm至1150nm之间的光的激光二极管。可替代地,光源可以包括被配置为发射波长在大约800nm至大约1000nm之间、大约850nm至大约950nm之间或者大约1300nm至大约1600nm之间的光的激光二极管。除非另有说明,否则关于数值的术语“大约”被定义为相对于所称值有直至5%的变化。关于投射单元和至少一个光源的附加细节在下面参考图2A-2C描述。
与所公开的实施例一致,激光雷达系统可以包括至少一个扫描单元,该扫描单元具有至少一个光偏转器,该光偏转器被配置为偏转来自光源的光,以便扫描视场。术语“光偏转器”广泛地包括被配置为使光偏离其原始路径的任何机制或模块;例如,反射镜、棱镜、可控透镜、机械镜、机械扫描多边形、主动衍射(例如,可控LCD)、Risley棱镜、非机械电光束转向(诸如由Vscent制造)、偏振光栅(诸如由Boulder Non-Linear Systems提供)、光学相控阵(OPA),等等。在一个实施例中,光偏转器可以包括多个光学部件,诸如至少一个反射元件(例如,反射镜)、至少一个折射元件(例如,棱镜、透镜)等等。在一个示例中,光偏转器可以是可移动的,以使光偏离到不同的角度(例如,离散的角度,或者在连续的度数跨度内)。光偏转器可以可选地以不同方式可控(例如,偏转到角度α、将偏转角改变Δα、将光偏转器的部件移动M毫米、改变偏转角改变的速度)。此外,光偏转器可以可选地可操作为在单个平面(例如,θ坐标)内改变偏转的角度。光偏转器可以可选地可操作为在两个非平行平面(例如,θ和坐标)内改变偏转的角度。可替代地或附加地,光偏转器可以可选地可操作为在预定设置之间(例如,沿着预定义的扫描路线)或以其它方式改变偏转的角度。关于光偏转器在激光雷达系统中的使用,要注意的是,光偏转器可以在外传(outbound)方向(也称为发送方向或TX)中使用,以将来自光源的光偏转到视场的至少一部分。然而,光偏转器也可以在传入(inbound)方向(也称为接收方向或RX)中使用,以将来自视场的至少一部分的光偏转到一个或多个光传感器。下面参考图3A-3C描述关于扫描单元和至少一个光偏转器的附加细节。
所公开的实施例可以涉及使光偏转器枢转,以便扫描视场。如本文所使用的,术语“枢转”广泛地包括物体(尤其是固体物体)围绕一个或多个旋转轴的旋转,同时基本上保持旋转中心固定。在一个实施例中,光偏转器的枢转可以包括光偏转器围绕固定轴(例如,心轴(shaft))的旋转,但这不是必需的。例如,在一些MEMS反射镜实现中,MEMS反射镜可以通过致动连接到反射镜的多个弯曲器(bender)而移动,该反射镜除了旋转之外还可以经历一些空间平移。不过,这种反射镜可以被设计成围绕基本上固定的轴旋转,因此与本公开内容一致,它被认为是枢转的。在其它实施例中,一些类型的光偏转器(例如,非机械电光束转向,OPA)不要求任何移动部件或内部运动以便改变偏转光的偏转角。要注意的是,关于移动或枢转光偏转器的任何讨论在经过必要的改动后也适用于控制光偏转器,使得其改变光偏转器的偏转行为。例如,控制光偏转器可以引起从至少一个方向到达的光束的偏转角的改变。
所公开的实施例可以涉及接收与视场的、与光偏转器的单个瞬时位置对应的一部分相关联的反射。如本文所使用的,术语“光偏转器的瞬时位置”(也称为“光偏转器的状态”)广泛地指光偏转器的至少一个受控部件在瞬时时间点或在短的时间跨度内所位于的空间中的地点或位置。在一个实施例中,光偏转器的瞬时位置可以相对于参照系进行测量。参照系可以与激光雷达系统中的至少一个固定点有关。或者,例如,参照系可以与场景中的至少一个固定点有关。在一些实施例中,光偏转器的瞬时位置可以包括光偏转器的一个或多个部件(例如,反射镜、棱镜)的一些移动,通常是移动到相对于视场的扫描期间的最大变化度的有限度。例如,激光雷达系统的整个视场的扫描可以包括在30°的跨度上改变光的偏转,并且至少一个光偏转器的瞬时位置可以包括光偏转器在0.05°以内的角移位。在其它实施例中,术语“光偏转器的瞬时位置”可以指光的获取期间光偏转器的位置,该光被处理以提供用于由激光雷达系统生成的点云(或另一种类型的3D模型)的单个点的数据。在一些实施例中,光偏转器的瞬时位置可以与固定位置或朝向对应,其中,该偏转器在激光雷达视场的特定子区域的照明期间以该固定位置或朝向暂停一小段时间。在其它情况下,光偏转器的瞬时位置可以与沿着光偏转器的被扫描的位置/朝向范围的某个位置/朝向对应,该光偏转器通过该位置/朝向以作为激光雷达视场的连续或半连续扫描的一部分。在一些实施例中,光偏转器可以被移动,使得在激光雷达FOV的扫描周期期间,光偏转器位于多个不同的瞬时位置。换句话说,在扫描周期发生的时间段期间,偏转器可以被移动通过一系列不同的瞬时位置/朝向,并且偏转器可以在扫描周期期间的不同时间到达每个不同的瞬时位置/朝向。
与所公开的实施例一致,激光雷达系统可以包括至少一个具有至少一个传感器的感测单元,该传感器被配置为检测来自视场中的物体的反射。术语“传感器”广泛地包括能够测量电磁波的特性(例如,功率、频率、相位、脉冲定时、脉冲持续时间)并生成与测得的特性相关的输出的任何设备、元件或系统。在一些实施例中,至少一个传感器可以包括由多个检测元件构成的多个检测器。至少一个传感器可以包括一种或多种类型的光传感器。要注意的是,至少一个传感器可以包括多个相同类型的传感器,这些传感器可以在其它特点(例如,灵敏度、尺寸)方面有所不同。也可以使用其它类型的传感器。可以出于不同的原因使用几种类型的传感器的组合,诸如为了改进范围跨度上(尤其是近的范围内)的检测;改进传感器的动态范围;改进传感器的时间响应;以及改进在变化的环境条件(例如,大气温度、雨水等等)下的检测。
在一个实施例中,至少一个传感器包括SiPM(硅光电倍增器),它是由雪崩光电二极管(APD)、单光子雪崩二极管(SPAD)的阵列构建的固态单光子敏感器件,用作公共硅基板上的检测元件。在一个示例中,SPAD之间的典型距离可以在大约10μm至大约50μm之间,其中每个SPAD可以具有在大约20ns至大约100ns之间的恢复时间。也可以使用来自其它非硅材料的类似光电倍增管。虽然SiPM器件以数字/开关模式工作,但SiPM是模拟器件,因为所有的微单元(microcell)可以被并行读取,从而使得其能够生成由不同SPAD检测的、从单个光子到成千上万个光子的动态范围内的信号。要注意的是,来自不同类型的传感器(例如,SPAD、APD、SiPM、PIN二极管、光电检测器)的输出可以组合在一起,成为可以由激光雷达系统的处理器处理的单个输出。下面参考图4A-4C描述关于感测单元和至少一个传感器的附加细节。
与所公开的实施例一致,激光雷达系统可以包括被配置为执行不同功能的至少一个处理器或与之通信。至少一个处理器可以构成具有对一个或多个输入执行逻辑运算的电路的任何物理设备。例如,至少一个处理器可以包括一个或多个集成电路(IC),包括专用集成电路(ASIC)、微芯片、微控制器、微处理器、中央处理单元(CPU)的全部或部分、图形处理单元(GPU)、数字信号处理器(DSP)、现场可编程门阵列(FPGA)或者适于执行指令或执行逻辑运算的其它电路。由至少一个处理器执行的指令可以例如被预加载到与控制器集成的或嵌入在控制器中的存储器中,或者可以存储在分离的存储器中。存储器可以包括随机存取存储器(RAM)、只读存储器(ROM)、硬盘、光盘、磁介质、闪存,其它永久、固定或易失性存储器,或者能够存储指令的任何其它机制。在一些实施例中,存储器被配置为存储代表关于激光雷达系统的环境中的物体的数据的信息。在一些实施例中,至少一个处理器可以包括多于一个处理器。每个处理器可以具有相似的构造,或者处理器可以具有彼此电连接或断开的不同构造。例如,处理器可以是分离的电路或集成在单个电路中。当使用多于一个处理器时,处理器可以被配置为独立地或协作地操作。处理器可以以电、磁、光学、声学、机械或通过允许它们交互的其它手段来耦合。下面参考图5A-5C描述处理单元和至少一个处理器的附加细节。
系统概述
图1A图示了激光雷达系统100,其包括投射单元102、扫描单元104、感测单元106和处理单元108。激光雷达系统100可以是可安装在车辆110上的。与本公开的实施例一致,投射单元102可以包括至少一个光源112,扫描单元104可以包括至少一个光偏转器114,感测单元106可以包括至少一个传感器116,并且处理单元108可以包括至少一个处理器118。在一个实施例中,至少一个处理器118可以被配置为协调至少一个光源112的操作与至少一个光偏转器114的移动,以便扫描视场120。在扫描周期期间,至少一个光偏转器114的每个瞬时位置可以与视场120的特定部分122相关联。此外,激光雷达系统100可以包括至少一个可选的光学窗口124,用于引导朝着视场120投射的光和/或接收从视场120中的物体反射的光。可选的光学窗口124可以用于不同的目的,诸如投射光的准直和反射光的聚焦。在一个实施例中,可选的光学窗口124可以是开口、平坦窗口、透镜或任何其它类型的光学窗口。
与本公开一致,激光雷达系统100可以用在自主或半自主道路车辆(例如,汽车、公共汽车、货车、卡车和任何其它陆地车辆)中。具有激光雷达系统100的自主道路车辆可以扫描他们的环境并且在没有人类输入的情况下驾驶到目的地车辆。类似地,激光雷达系统100也可以用在自主/半自主飞行器(例如,UAV、无人驾驶飞机、四轴飞行器和任何其它空中飞行器或设备)中;或自主或半自主水上船舶(例如,船、轮船、潜水艇或任何其它船只)中。具有激光雷达系统100的自主飞行器和水运船只可以扫描他们的环境并且自主地或使用远程操作员导航到目的地。根据一个实施例,车辆110(道路车辆、飞行器或水运船只)可以使用激光雷达系统100来帮助检测和扫描车辆110正在其中操作的环境。
在一些实施例中,激光雷达系统100可以包括一个或多个扫描单元104,以扫描车辆110周围的环境。激光雷达系统100可以附连或安装到车辆110的任何部分。感测单元106可以接收来自车辆110的周围环境的反射,并将指示从视场120中的物体反射的光的反射信号传送到处理单元108。与本公开一致,扫描单元104可以安装到或并入到保险杠、挡泥板、侧板、扰流板、车顶、前灯组件、尾灯组件、后视镜组件、引擎罩、行李箱或车辆110的能够容纳激光雷达系统的至少一部分的任何其它合适的部分中。在一些情况下,激光雷达系统100可以捕获车辆110的环境的完整环绕视图。因此,激光雷达系统100可以具有360度水平视场。在一个示例中,如图1A中所示,激光雷达系统100可以包括安装在车辆110的车顶上的单个扫描单元104。可替代地,激光雷达系统100可以包括多个扫描单元(例如,两个、三个、四个或更多个扫描单元104),每个扫描单元都具有视场,使得总体上水平视场被围绕车辆110的360度扫描所覆盖。本领域技术人员将认识到的是,激光雷达系统100可以包括以任何方式布置的任何数量的扫描单元104,每个扫描单元具有80°至120°或更小的视场,这取决于所采用的单元的数量。而且,还可以通过在车辆110上安装多个激光雷达系统100,来获得360度水平视场,每个激光雷达系统100具有单个扫描单元104。不过,要注意的是,一个或多个激光雷达系统100不必提供完整的360°视场,并且较窄的视场在一些情形下可以是有用的。例如,车辆110可以要求看向车辆前方的具有75°视场的第一激光雷达系统100,以及可能地要求向后看的具有相似FOV的第二激光雷达系统100(可选地具有较低的检测范围)。还要注意的是,也可以实现不同的垂直视场角。
图1B是示出与所公开的实施例一致的、来自安装在车辆110上的激光雷达系统100的单个扫描周期的示例性输出的图像。在这个示例中,扫描单元104并入到车辆110的右前灯组件中。图像中的每个灰点与从由感测单元106检测到的反射确定的车辆110周围的环境中的位置对应。除了位置之外,每个灰点也可以与不同类型的信息相关联,例如,强度(例如,从那个位置返回多少光)、反射率、与其它点的接近度等等。在一个实施例中,激光雷达系统100可以根据视场的多个扫描周期的检测到的反射,生成多个点云数据条目,以例如使得能够确定车辆110周围的环境的点云模型。
图1C是示出根据激光雷达系统100的输出确定的点云模型的表示的图像。与所公开的实施例一致,通过处理所生成的车辆110周围的环境的点云数据条目,可以从点云模型产生环绕视图图像。在一个实施例中,可以将点云模型提供给特征提取模块,该特征提取模块处理点云信息,以识别多个特征。每个特征可以包括关于点云和/或车辆110周围的环境中的物体(例如,小汽车、树、人和道路)的不同方面的数据。特征可以具有与点云模型相同的分辨率(即,具有相同数量的数据点,可选地布置成类似尺寸的2D阵列),或者可以具有不同的分辨率。特征可以存储在任何种类的数据结构中(例如,光栅、向量、2D阵列、1D阵列)。此外,虚拟特征(诸如车辆110的表示、边界线、或分隔图像中的区域或物体的边界框(例如,如图1B中所描绘的),以及表示一个或多个识别出的物体的图标)可以覆盖在点云模型的表示上,以形成最终的环绕视图图像。例如,车辆110的符号可以覆盖在环绕视图图像的中心上。
投射单元
图2A-2D描绘了投射单元102的各种配置及其在激光雷达系统100中的作用。具体而言,图2A是图示具有单个光源的投射单元102的图,图2B是图示具有瞄准公共光偏转器114的多个光源的多个投射单元102的图,图2C是图示具有主光源112和辅助光源112的投射单元102的图,并且图2D是图示在投射单元102的一些配置中使用的不对称偏转器的图。本领域技术人员将认识到的是,所描绘的投射单元102的配置可以具有许多变化和修改。
图2A图示了激光雷达系统100的收发分置配置的示例,其中投射单元102包括单个光源112。术语“收发分置(bi-static)配置”广泛地指这样一种激光雷达系统配置,其中离开激光雷达系统的投射光和进入激光雷达系统的反射光穿过不同的光学通道。具体而言,外传光辐射可以穿过第一光学窗口(未示出),并且传入光辐射可以穿过另一个光学窗口(未示出)。在图2A所描绘的示例中,收发分置配置包括扫描单元104包括两个光偏转器(用于外传光的第一光偏转器114A和用于传入光的第二光偏转器114B)的配置(激光雷达系统中的传入光包括从场景中的物体反射的发射光,并且还可以包括从其它源到达的环境光)。在这种配置中,传入路径和外传路径不同。
在这个实施例中,激光雷达系统100的所有部件可以包含在单个壳体200内,或者可以在多个壳体之间划分。如图所示,投射单元102与包括被配置为发射光(投射光204)的激光二极管202A(或耦合在一起的一个或多个激光二极管)的单个光源112相关联。在一个非限制性示例中,由光源112投射的光可以为大约800nm和950nm之间的波长,具有在大约50mW至大约500mW之间的平均功率,具有在大约50W至大约200W之间的峰值功率,以及大约2ns至大约100ns之间的脉冲宽度。此外,光源112可以可选地与用于操纵由激光二极管202A发射的光的光学组件202B相关联(例如,以用于准直、聚焦等等)。要注意的是,可以使用其它类型的光源112,并且本公开不限于激光二极管。此外,光源112可以以不同的格式发射光,诸如光脉冲、频率调制、连续波(CW)、准CW或者与所采用的特定光源对应的任何其它形式。投射格式和其它参数可以基于诸如来自处理单元108的指令之类的不同的因素不时地被光源改变。投射光朝着外传偏转器114A被投射,该外传偏转器114A用作用于在视场120中引导投射光的转向元件。在这个示例中,扫描单元104还包括可枢转的返回偏转器114B,该返回偏转器114B将从视场120内的物体208反射回来的光子(反射光206)朝着传感器116引导。反射光被传感器116检测,并且关于物体的信息(例如,到物体212的距离)由处理单元108确定。
在这个图中,激光雷达系统100连接到主机210。与本公开一致,术语“主机”是指可以与激光雷达系统100接口的任何计算环境,它可以是车辆系统(例如,车辆110的部分)、测试系统、安全性系统、监控系统、交通控制系统、城市建模系统、或者监视其周围环境的任何系统。这样的计算环境可以包括至少一个处理器和/或可以经由云连接到激光雷达系统100。在一些实施例中,主机210还可以包括到外部设备的接口,外部设备诸如被配置为测量主机210的不同特点(例如,加速度、方向盘偏转、反向驾驶等等)的相机和传感器。与本公开一致,激光雷达系统100可以固定到与主机210相关联的静止物体(例如,建筑物、三脚架)或固定到与主机210相关联的便携式系统(例如,便携式计算机、电影摄像机)。与本公开一致,激光雷达系统100可以连接到主机210,以向主机210提供激光雷达系统100的输出(例如,3D模型、反射率图像)。具体而言,主机210可以使用激光雷达系统100来帮助检测和扫描主机210的环境或任何其它环境。此外,主机210可以将激光雷达系统100的输出与其它感测系统(例如,相机、麦克风、雷达系统)的输出集成、同步或以其它方式一起使用。在一个示例中,激光雷达系统100可以由安全性系统使用。这个实施例在下面参考图7A-7M更详细地描述。
激光雷达系统100还可以包括互连子系统和部件的总线212(或其它通信机制),用于在激光雷达系统100内传送信息。可选地,总线212(或另一种通信机制)可以被用于互连激光雷达系统100与主机210。在图2A的示例中,处理单元108包括两个处理器118,以至少部分地基于从激光雷达系统100的内部反馈接收的信息,以协调的方式调整投射单元102、扫描单元104和感测单元106的操作。换句话说,处理单元108可以被配置为在闭环中动态地操作激光雷达系统100。闭环系统的特征在于具有来自至少一个元件的反馈和基于接收到的反馈更新一个或多个参数。而且,闭环系统可以接收反馈,并至少部分地基于该反馈更新其自己的操作。动态系统或元件是可以在操作期间被更新的系统或元件。
根据一些实施例,扫描激光雷达系统100周围的环境可以包括用光脉冲照亮视场120。光脉冲可以具有如下参数:脉冲持续时间、脉冲角色散、波长、瞬时功率、距光源112不同距离处的光子密度、平均功率、脉冲功率强度、脉冲宽度、脉冲重复率、脉冲序列、脉冲占空比、波长、相位、偏振,等等。扫描激光雷达系统100周围的环境还可以包括检测和表征反射光的各个方面。反射光的特点可以包括例如:飞行时间(即,从发射直到检测的时间)、瞬时功率(例如,功率特征)、整个返回脉冲的平均功率、以及返回脉冲时段的光子分布/信号。通过比较光脉冲的特点与对应反射的特点,可以估计物体212的距离以及有可能的物理特点(诸如反射强度)。通过以预定义的模式(例如,光栅、Lissajous或其它模式)在多个相邻部分122上重复这个处理,可以实现视场120的整个扫描。如下面更详细地讨论的,在一些情形下,激光雷达系统100可以在每个扫描周期将光引导到视场120中的仅一些部分122。这些部分可以彼此相邻,但不必如此。
在另一个实施例中,激光雷达系统100可以包括用于与主机210(例如,车辆控制器)通信的网络接口214。激光雷达系统100和主机210之间的通信由虚线箭头表示。在一个实施例中,网络接口214可以包括集成服务数字网(ISDN)卡、电缆调制解调器、卫星调制解调器、或提供与对应类型的电话线的数据通信连接的调制解调器。作为另一个示例,网络接口214可以包括局域网(LAN)卡,以提供与兼容LAN的数据通信连接。在另一个实施例中,网络接口214可以包括连接到射频接收器和发送器和/或光学(例如,红外)接收器和发送器的以太网端口。网络接口214的具体设计和实现取决于激光雷达系统100和主机210要在其上操作的(一个或多个)通信网络。例如,网络接口214可以被用于例如将激光雷达系统100的输出提供给外部系统,该输出诸如3D模型、激光雷达系统100的操作参数等等。在其它实施例中,通信单元可以被用于例如从外部系统接收指令、接收关于被检查的环境的信息、从另一个传感器接收信息,等等。
图2B图示了包括多个投射单元102的激光雷达系统100的收发合置配置的示例。术语“收发合置(monostatic)配置”广泛地指这样一种激光雷达系统配置,其中离开激光雷达系统的投射光和进入激光雷达系统的反射光穿过至少部分共享的光学路径。在一个示例中,外传光束和传入光束可以共享至少一个光学组件,两个光束都通过该光学组件。在另一个示例中,外传光辐射可以穿过光学窗口(未示出),并且传入光辐射可以穿过相同的光学窗口。收发合置配置可以包括这样一种配置,其中扫描单元104包括单个光偏转器114,该光偏转器114将投射光朝着视场120引导并将反射光朝着传感器116引导。如图所示,投射光204和反射光206都击中不对称偏转器216。术语“不对称偏转器”是指具有两个侧面的、能够以与其偏转从一侧击中它的光束的方向不同的方向来偏转从第二侧击中它的光束的任何光学设备。在一个示例中,不对称偏转器不偏转投射光204,并朝着传感器116偏转反射光206。不对称偏转器的一个示例可以包括偏振分束器。在另一个示例中,不对称偏转器216可以包括允许光只在一个方向通过的光隔离器。与本公开一致,激光雷达系统100的收发合置配置可以包括不对称偏转器,以防止反射光击中光源112,并将所有反射光朝着传感器116引导,由此增加检测灵敏度。
在图2B的实施例中,激光雷达系统100包括三个投射单元102,每个投射单元102具有瞄准公共光偏转器114的单个光源112。在一个实施例中,多个光源112(包括两个或更多个光源)可以投射具有基本相同波长的光,并且每个光源112一般与视场的不同区域(在图中表示为120A、120B和120C)相关联。这使得能够扫描比利用光源112可以实现的更宽的视场。在另一个实施例中,多个光源102可以投射具有不同波长的光,并且所有光源112可以被引导到视场120的相同部分(或重叠部分)。
图2C图示了激光雷达系统100的示例,其中投射单元102包括主光源112A和辅助光源112B。主光源112A可以投射具有比对人眼敏感的更长波长的光,以便优化SNR和检测范围。例如,主光源112A可以投射波长在大约750nm和1100nm之间的光。相反,辅助光源112B可以投射具有人眼可见波长的光。例如,辅助光源112B可以投射波长在大约400nm和700nm之间的光。在一个实施例中,辅助光源112B可以沿着与由主光源112A投射的光基本相同的光学路径来投射光。两个光源可以是时间同步的并且可以一起或以交织模式投射光发射。交织模式意味着光源并非同时是激活的,这可以减轻相互干扰。本领域技术人员将容易地看到波长范围和激活时间表(schedule)的其它组合也可以实现。
与一些实施例一致,辅助光源112B可以在它太靠近激光雷达光学输出端口时造成人眼眨眼。这可以确保眼睛安全机制,而该机制是用利用了近红外光谱的典型激光源不可行的。在另一个实施例中,辅助光源112B可以被用于服务点处的校准和可靠性,其方式与相对于车辆110在离地面一定高度处用特殊的反射器/模式进行的前灯校准有些相似。服务点处的操作员可以通过对有特征的目标(诸如距激光雷达系统100指定距离处的测试图案板)上的扫描图案的简单目视检查,来检查激光雷达的校准。此外,辅助光源112B可以提供用于激光雷达正为终端用户工作的操作置信度的手段。例如,系统可以被配置为允许人将手放在光偏转器114的前面,以测试其操作。
辅助光源112B还可以具有不可见元件,该不可见元件在主光源112A发生故障的情况下可以兼作备用系统。这个特征对于具有更高功能安全等级的故障安全设备是有用的。假定辅助光源112B可以是可见的,并且还由于成本和复杂性的原因,与主光源112A相比,辅助光源112B可以与更小的功率关联。因此,在主光源112A发生故障的情况下,系统功能将回退到辅助光源112B的功能和能力集。虽然辅助光源112B的能力可能逊于主光源112A的能力,但是可以以使车辆110能够安全地到达其目的地这样的方式来设计激光雷达系统100系统。
图2D图示了可以是激光雷达系统100的一部分的不对称偏转器216。在所示示例中,不对称偏转器216包括反射表面218(诸如发射镜)和单向偏转器220。虽然不必如此,但不对称偏转器216可以可选地是收发配置的偏转器。不对称偏转器216可以用在激光雷达系统100的收发合置配置中,以便允许公共光学路径用于经由至少一个偏转器114发送和接收光,如图2B和2C中所示。但是,典型的不对称偏转器(诸如分束器)特征在于能量损失,尤其是在接收路径中,而该接收路径可能比发送路径对功率损耗更加敏感。
如图2D中所描绘的,激光雷达系统100可以包括位于发送路径中的不对称偏转器216,其包括用于在发送光信号和接收光信号之间进行分离的单向偏转器220。可选地,单向偏转器220可以对发送光基本上是透明的,并且对接收光基本上是反射性的。发送光由投射单元102生成并且可以通过单向偏转器220行进到扫描单元104,该扫描单元104使其朝着光学出口偏转。接收光通过光学入口到达至少一个偏转元件114,该偏转元件114将反射信号偏转到远离光源并朝着感测单元106的分离路径中。可选地,不对称偏转器216可以与偏振光源112组合,该偏振光源112利用与单向偏转器220相同的偏振轴被线性地偏振。值得注意的是,外传光束的横截面远小于反射信号的横截面。因而,激光雷达系统100可以包括一个或多个光学部件(例如,透镜、准直器),用于将发射的偏振光束聚焦或以其它方式操纵到不对称偏转器216的维度。在一个实施例中,单向偏转器220可以是对偏振光束几乎透明的偏振分束器。
与一些实施例一致,激光雷达系统100还可以包括用于修改发射光的偏振的光学器件222(例如,四分之一波片延迟器)。例如,光学器件222可以将发射光束的线性偏振修改为圆形偏振。从视场反射回到系统100的光将通过偏转器114回到光学器件222,其承受具有相对于发送光的倒置偏手性的圆形偏振。然后,光学器件222将接收到的倒置偏手性偏振光转换成与偏振分束器216的线性偏振不在同一个轴上的线性偏振。如上面所指出的,由于穿过到目标的距离的光束的光学色散,接收光斑块(light-patch)大于发送光斑块。
接收到的光中的一些将照射在单向偏转器220上,该单向偏转器220将带有一些功率损耗地使光朝着传感器106反射。但是,接收光斑块的另一部分将落在围绕单向偏转器220(例如,偏振分束器狭缝)的反射表面218上。反射表面218将基本上零功率损耗地使光朝着感测单元106反射。单向偏转器220将反射由各个偏振轴和方向组成的、将最终到达检测器的光。可选地,感测单元106可以包括传感器116,该传感器116对激光偏振不可知,并且主要对某个波长范围内的照射光子的量是敏感的。
要注意的是,当与其中具有通孔的简单反射镜相比,所提出的不对称偏转器216提供更优秀的性能。在具有孔的反射镜中,到达该孔的所有反射光都对于检测器是损失掉的。但是,在偏转器216中,单向偏转器220使这种光的大部分(例如,大约50%)朝着相应的传感器116偏转。在激光雷达系统中,从远程距离到达激光雷达的光子数量非常有限,并且因此光子捕获率的改进是重要的。
根据一些实施例,描述了用于分束和转向的设备。可以从具有第一偏振的光源发射偏振光束。可以引导所发射的光束穿过偏振分束器组件。该偏振分束器组件在第一侧包括单向狭缝并且在相对侧包括反射镜。该单向狭缝使偏振的发射光束能够朝着四分之一波片/波延迟器行进,这将发射信号从偏振信号变为线性信号(或反之亦然),以使得随后反射的光束不能行进通过该单向狭缝。
扫描单元
图3A-3D描绘了扫描单元104的各种配置及其在激光雷达系统100中的作用。具体而言,图3A是图示具有MEMS反射镜(例如,形状为方形)的扫描单元104的图,图3B是图示具有MEMS反射镜(例如,形状为圆形)的另一个扫描单元104的图,图3C是图示具有用于收发合置扫描激光雷达系统的反射器阵列的扫描单元104的图,并且图3D是图示机械地扫描激光雷达系统100周围的环境的示例激光雷达系统100的图。本领域技术人员将认识到的是,所描绘的扫描单元104的配置仅仅是示例性的,并且在本公开的范围内可以具有许多变化和修改。
图3A图示了具有单轴方形MEMS反射镜300的示例扫描单元104。在这个示例中,MEMS反射镜300用作至少一个偏转器114。如图所示,扫描单元104可以包括一个或多个致动器302(具体而言,302A和302B)。在一个实施例中,致动器302可以由半导体(例如,硅)制成,并且包括响应于由致动控制器施加的电信号而改变其维度的压电层(例如,PZT、锆钛酸铅、氮化铝)、半导体层和基(base)层。在一个实施例中,致动器302的物理特性可以确定致动器302在电流通过它时所经受的机械应力。当压电材料被激活时,它在致动器302上施加力并使其弯曲。在一个实施例中,当反射镜300在某个角位置偏转时,可以在激活状态下测量一个或多个致动器302的电阻率(Ractive),并且与休眠状态下的电阻率(Rrest)进行比较。包括Ractive的反馈可以提供信息以确定与预期角度相比的实际反射镜偏转角度,并且如果需要,可以校正反射镜300偏转。Rrest和Ractive之间的差可以通过反射镜驱动而关联到角偏转值中,该角偏转值可以用来闭合环路。这个实施例可以被用于动态跟踪实际反射镜位置,并且可以优化线性模式和谐振模式MEMS反射镜方案的响应、振幅、偏转效率和频率。下面更详细地描述这个实施例。
在扫描期间,电流(在图中表示为虚线)可以从触点304A流到触点304B(通过致动器302A、弹簧306A、反射镜300、弹簧306B和致动器302B)。半导体框架308中的隔离间隙(诸如隔离间隙310)可以使致动器302A和302B成为通过弹簧306和框架308电连接的两个分离的岛。电流流动或任何相关联的电参数(电压、电流频率、电容、相对介电常数等等)可以通过相关的位置反馈来监视。在机械故障(其中一个部件受损)的情况下,流过该结构的电流将更改并改变其功能校准值。在极端情况下(例如,当弹簧断裂时),电流将由于电气链中的电路断开而借助于故障元件而完全停止。
图3B图示了具有双轴圆形MEMS反射镜300的另一个示例扫描单元104。在这个示例中,MEMS反射镜300用作至少一个偏转器114。在一个实施例中,MEMS反射镜300可具有大约1mm至大约5mm之间的直径。如图所示,扫描单元104可以包括四个致动器302(302A、302B、302C和302D),每个致动器可以处于不同的长度。在所示的示例中,电流(在图中表示为虚线)从触点304A流到触点304D,但在其它情况下,电流可以从触点304A流到触点304B、从触点304A流到触点304C、从触点304B流到触点304C、从触点304B流到触点304D、或从触点304C流到触点304D。与一些实施例一致,双轴MEMS反射镜可以被配置为在水平方向和垂直方向上偏转光。例如,双轴MEMS反射镜的偏转角度在垂直方向上可以在大约0°至30°之间并且在水平方向上在大约0°至50°之间。本领域技术人员将认识到的是,所描绘的反射镜300的配置可以具有许多变化和修改。在一个示例中,至少偏转器114可以具有双轴方形镜或单轴圆形反射镜。圆形和方形反射镜的示例仅作为示例在图3A和3B中示出。取决于系统规格,可以采用任何形状。在一个实施例中,致动器302可以作为至少偏转器114的组成部分被并入,使得移动MEMS反射镜300的动力直接朝着它施加。此外,MEMS反射镜300可以通过一个或多个刚性支撑元件连接到框架308。在另一个实施例中,至少偏转器114可以包括静电或电磁MEMS反射镜。
如上所述,收发合置扫描激光雷达系统利用相同光学路径的至少一部分来用于发射投射光204并用于接收反射光206。外传路径中的光束可以被准直并聚焦成窄光束,而返回路径中的反射由于色散而扩散到更大的光斑块中。在一个实施例中,扫描单元104可以在返回路径中具有大的反射区域以及具有将反射(即,反射光206)重定向到传感器116的不对称偏转器216。在一个实施例中,扫描单元104可以包括具有大的反射区域以及对视场和帧速率性能具有可以忽略不计的影响的MEMS反射镜。下面参考图2D提供关于不对称偏转器216的附加细节。
在一些实施例中(例如,如图3C中所例示的),扫描单元104可以包括具有小的光偏转器(例如,反射镜)的偏转器阵列(例如,反射器阵列)。在一个实施例中,将光偏转器114实现为一组同步工作的较小的个体光偏转器可以允许光偏转器114以高扫描速率以较大的偏转角度来执行。就有效区域而言,偏转器阵列可以基本上充当大的光偏转器(例如,大的反射镜)。可以使用共享转向组件配置来操作该偏转器阵列,其允许传感器116从由光源112并发照亮的视场120的基本相同部分收集反射光子。术语“并发”意味着两个被选功能在重合或重叠的时间段期间发生,无论是一个在另一个的持续时间内开始和结束,还是后一个在另一个完成之前开始。
图3C图示了扫描单元104的示例,其中反射器阵列312具有小的反射镜。在这个实施例中,反射器阵列312用作至少一个偏转器114。反射器阵列312可以包括多个被配置为枢转(单独地或一起)并朝着视场120导引光脉冲的反射器单元314。例如,反射器阵列312可以是从光源112投射的光的外传路径的一部分。具体而言,反射器阵列312可以将投射光204朝着视场120的一部分引导。反射器阵列312也可以是用于从位于视场120的被照亮部分内的物体的表面反射的光的返回路径的一部分。具体而言,反射器阵列312可以将反射光206朝着传感器116或朝着不对称偏转器216引导。在一个示例中,反射器阵列312的面积可以在大约75至大约150mm2之间,其中每个反射器单元314可以具有大约10μm的宽度并且支撑结构可以小于100μm。
根据一些实施例,反射器阵列312可以包括可转向偏转器的一个或多个子组。电可转向偏转器的每个子组可以包括一个或多个偏转器单元(诸如反射器单元314)。例如,每个可转向偏转器单元314可以包括MEMS反射镜、反射表面组件和机电致动器中的至少一个。在一个实施例中,每个反射器单元314可以由个体处理器(未示出)单独地控制,使得它可以沿着一个或两个分离的轴中的每一个轴朝着具体角度倾斜。可替代地,反射器阵列312可以与公共控制器(例如,处理器118)相关联,该公共控制器被配置为同步地管理反射器单元314的移动,使得它们中的至少一部分将并发地枢转并指向大致相同的方向。
此外,至少一个处理器118可以选择用于外传路径的至少一个反射器单元314(在下文中称为“TX反射镜”)和用于返回路径的一组反射器单元314(在下文中称为“RX反射镜”)。与本公开一致,增加TX反射镜的数量可以增加反射光子束扩展。此外,减少RX反射镜的数量可以缩窄接收场并补偿环境光条件(诸如云、雨、雾、极热和其它环境条件)并改进信噪比。而且,如上所述,发射的光束通常比反射光斑块窄,并且因此可以被偏转阵列的一小部分完全偏转。而且,能够阻挡从偏转阵列的用于发送的部分(例,如TX反射镜)反射的光到达传感器116,由此减少激光雷达系统100的内部反射对系统操作的影响。此外,至少一个处理器118可以使一个或多个反射器单元314枢转,以克服由于例如热和增益效应引起的机械损伤和漂移。在示例中,一个或多个反射器单元314可以与预期不同地移动(频率、速率、速度等等),并且它们的移动可以通过适当地电控制偏转器来补偿。
图3D图示了机械扫描激光雷达系统100的环境的示例性激光雷达系统100。在这个示例中,激光雷达系统100可以包括用于围绕激光雷达系统100的轴来旋转壳体200的马达或其它机制。可替代地,马达(或其它机制)可以机械地旋转激光雷达系统100的、其上安装有一个或多个光源112和一个或多个传感器116的刚性结构,由此扫描环境。如上所述,投射单元102可以包括被配置为投射光发射的至少一个光源112。投射的光发射可以沿着外传路径朝着视场120行进。具体而言,当投射光204朝着可选的光学窗口124行进时,投射的光发射可以被偏转器114A反射通过出口孔314。反射的光发射可以沿着返回路径从物体208朝着感测单元106行进。例如,当反射光206朝着感测单元106行进时,反射光206可以被偏转器114B反射。本领域技术人员将认识到的是,具有用于同步地旋转一个或多个光源或一个或多个传感器的旋转机制的激光雷达系统可以使用这种同步旋转来代替使内部光偏转器转向(或作为补充)。
在对视场120的扫描是机械式的实施例中,投射的光发射可以被引导到出口孔314,该出口孔314是将投射单元102与激光雷达系统100的其它部分分离的壁316的一部分。在一些示例中,壁316可以由涂覆有反射材料的透明材料(例如,玻璃)形成,以形成偏转器114B。在这个示例中,出口孔314可以与壁316的未涂覆反射材料的部分对应。附加地或可替代地,出口孔314可以包括在壁316中的孔或切口。反射光206可以被偏转器114B反射并且朝着感测单元106的入口孔318被引导。在一些示例中,入口孔318可以包括过滤窗口,该过滤窗口被配置为允许某个波长范围内的波长进入感测单元106并衰减其它波长。来自视场120的物体208的反射可以被偏转器114B反射并击中传感器116。通过比较反射光206与投射光204的几个特性,可以确定物体208的至少一个方面。例如,通过比较由光源112发射投射光204的时间与传感器116接收反射光206的时间,可以确定物体208和激光雷达系统100之间的距离。在一些示例中,还可以确定物体208的其它方面(诸如形状、颜色、材料等等)。
在一些示例中,激光雷达系统100(或其一部分,包括至少一个光源112和至少一个传感器116)可以围绕至少一个轴旋转,以确定激光雷达系统100的周围环境的三维地图。例如,激光雷达系统100可以围绕基本垂直的轴旋转(如由箭头320所示),以便扫描视场120。虽然图3D图示了激光雷达系统100围绕轴顺时针旋转(如由箭头320所示),但是附加地或可替代地,激光雷达系统100可以逆时针方向旋转。在一些示例中,激光雷达系统100可以围绕垂直轴旋转360度。在其它示例中,激光雷达系统100可以沿着比激光雷达系统100的360度更小的扇区来回旋转。例如,激光雷达系统100可以安装在围绕轴来回摆动而不做完整旋转的平台上。
感测单元
图4A-4E描绘了感测单元106的各种配置及其在激光雷达系统100中的作用。具体而言,图4A是图示具有检测器阵列的示例感测单元106的图,图4B是图示使用二维传感器的收发合置扫描的图,图4C是图示二维传感器116的示例的图,图4D是图示与传感器116相关联的透镜阵列的图,并且图4E包括图示透镜结构的三个图。本领域技术人员将认识到的是,所描绘的感测单元106的配置仅仅是示例性的,并且可以具有与本公开的原理一致的许多替代变体和修改。
图4A图示了具有检测器阵列400的感测单元106的示例。在这个示例中,至少一个传感器116包括检测器阵列400。激光雷达系统100被配置为检测视场120中位于距激光雷达系统100不同距离处(可以是几米或更多)的物体(例如,自行车208A和云208B)。物体208可以是固体物体(例如,道路、树、小汽车、人)、液体物体(例如,雾、水、大气颗粒)、或另一种类型的物体(例如,灰尘或粉末状被照亮物体)。当从光源112发射的光子击中物体208时,它们或者反射、折射或者被吸收。通常,如图所示,从物体208反射的光子的仅一部分进入可选的光学窗口124。由于每个约15cm的距离变化导致1ns的行进时间差(因为光子以光速向物体208和从物体208行进),因此通过具有足够快响应的飞行时间传感器,击中不同物体的不同光子的行进时间之间的时间差可以是可检测的。
传感器116包括多个检测元件402,用于检测从视场120反射回的光子脉冲的光子。检测元件可以全部被包括在检测器阵列400中,检测器阵列400可以具有矩形布置(例如,如图所示)或任何其它布置。检测元件402可以彼此并发或部分并发地操作。具体而言,每个检测元件402可以对于每个采样持续时间(例如,每1纳秒)发出检测信息。在一个示例中,检测器阵列400可以是SiPM(硅光电倍增器),其是由公共硅基板上的单光子雪崩二极管(SPAD,用作检测元件402)的阵列而构建的固态单光子敏感器件。也可以使用来自其它非硅材料的类似光电倍增管。虽然SiPM器件以数字/开关模式工作,但SiPM是模拟设备,因为所有的微单元是被并行读取,从而使得能够生成由不同SPAD检测的从单个光子到成千上万个光子的动态范围内的信号。如上面所提到的,可以实现多于一种类型的传感器(例如,SiPM和APD)。有可能地,感测单元106可以包括集成到SiPM阵列中的至少一个APD和/或位于分离或公共硅基板上SiPM旁边的至少一个APD检测器。
在一个实施例中,检测元件402可以被分组为多个区域404。这些区域是传感器116内的几何位置或环境(例如,在检测器阵列400内),并且可以被成形为不同的形状(例如,如图所示的矩形、正方形、环等等,或任何其它形状)。虽然并非包括在区域404的几何范围内的所有个体检测器都必然属于那个区域,但在大多数情况下,它们将不属于覆盖传感器310的其它范围的其它区域404,除非在区域之间的接缝中期望一些重叠。如图4A中所示,区域可以是非重叠区域404,但是可替代地,它们可以重叠。每个区域可以与和那个区域相关联的区域输出电路406相关联。区域输出电路406可以提供对应组的检测元件402的区域输出信号。例如,区域输出电路406可以是求和电路,但是可以采用将个体检测器的输出组合成单位输出(无论是标量、向量还是任何其它格式)的其它形式。可选地,每个区域404是单个SiPM,但不必是这样,并且区域可以是单个SiPM的子部分、几个SiPM的组、或甚至不同类型的检测器的组合。
在所示示例中,处理单元108位于(例如,车辆110内的)主机210(内部或外部)的分离的壳体200B处,并且感测单元106可以包括用于分析反射光的专用处理器408。可替代地,处理单元108可以被用于分析反射光206。要注意的是,激光雷达系统100可以以除所示示例之外的其它方式实现多个壳体。例如,光偏转器114可以位于与投射单元102和/或感测模块106不同的壳体中。在一个实施例中,激光雷达系统100可以包括以不同方式彼此连接的多个壳体,诸如:电线连接、无线连接(例如,RF连接)、光纤电缆、以及上述的任意组合。
在一个实施例中,分析反射光206可以包括基于不同区域的个体检测器的输出来确定反射光206的飞行时间。可选地,处理器408可以被配置为基于输出信号的多个区域来确定反射光206的飞行时间。除了飞行时间之外,处理单元108还可以分析反射光206,以确定整个返回脉冲上的平均功率,并且可以在返回脉冲时段上确定光子分布/信号(“脉冲形状”)。在所示示例中,任何检测元件402的输出可以不被直接发送到处理器408,而是在被传递到处理器408之前与区域404的其它检测器的信号组合(例如,求和)。但是,这仅仅是示例并且传感器116的电路可以经由其它路线(不经由区域输出电路406)将信息从检测元件402发送到处理器408。
图4B是图示被配置为使用二维传感器116扫描激光雷达系统100的环境的激光雷达系统100的图。在图4B的示例中,传感器116是4X6检测器410(也称为“像素”)的矩阵。在一个实施例中,像素尺寸可以是大约1×1mm。传感器116在这样一种意义上是二维的,即,它在两个非平行轴(例如,正交轴,如图示的示例中例示的)中具有多于一组(例如,行、列)检测器410。传感器116中的检测器410的数量可以在不同的实现之间有所变化,例如,取决于期望的分辨率、信噪比(SNR)、期望的检测距离等等。例如,传感器116可以具有5至5000个像素之间的任何值。在另一个示例中(图中未示出),传感器116也可以是一维矩阵(例如,1X8像素)。
要注意的是,每个检测器410可以包括多个检测元件402(诸如雪崩光电二极管(APD)、单光子雪崩二极管(SPAD)、雪崩光电二极管(APD)和单光子雪崩二极管(SPAD)的组合)或者包括测量从激光脉冲发送事件到接收事件的飞行时间以及接收光子的强度两者的检测元件。例如,每个检测器410可以包括20至5000个SPAD之间的任何值。每个检测器410中的检测元件402的输出可以被求和、求平均或以其它方式组合,以提供统一的像素输出。
在所示示例中,感测单元106可以包括二维传感器116(或多个二维传感器116),其视场小于激光雷达系统100的视场120。在本讨论中,视场120(可以由激光雷达系统100不在任何方向上移动、旋转或滚动的情况下所扫描的整个视场)表示为“第一FOV 412”,而传感器116的较小FOV表示为“第二FOV 412”(可互换地称为“瞬时视场”)。取决于激光雷达系统100的具体用途,第二FOV 414相对于第一FOV 412的覆盖范围可以不同,并且可以例如在0.5%至50%之间。在一个示例中,第二FOV 412可以在垂直维度上伸长大约0.05°至1°之间。即使激光雷达系统100包括多于一个二维传感器116,传感器阵列的组合视场仍然可以小于第一FOV 412,例如,小至少5倍、至少10倍、至少20倍、或至少50倍。
为了覆盖第一FOV 412,扫描单元106可以在不同时间将从环境的不同部分到达的光子引导到传感器116。在所示的收发合置配置中,连同将投射光204朝着视场120引导并且当至少一个光偏转器114位于瞬时位置时,扫描单元106也可以将反射光206引导到传感器116。通常,在第一FOV 412的扫描期间的每个时刻,由激光雷达系统100发射的光束覆盖了该环境的、大于第二FOV 414的部分(在角开口中)并且包括了该环境的、由扫描单元104和传感器116从其收集光的部分。
图4C是图示二维传感器116的示例的图。在这个实施例中,传感器116是8X5检测器410的矩阵,并且每个检测器410包括多个检测元件402。在一个示例中,检测器410A位于传感器116的第二行(表示为“R2”)和第三列(表示为“C3”)中,其包括4X3检测元件402的矩阵。在另一个示例中,位于传感器116的第四行(表示为“R4”)和第六列(表示为“C6”)中的检测器410B包括3X3检测元件402的矩阵。因而,每个检测器410中检测元件402的数量可以是恒定的,或者可以是变化的,并且公共阵列中的不同检测器410可以具有不同数量的检测元件402。每个检测器410中的所有检测元件402的输出可以被求和、求平均或以其它方式组合,以提供单个像素输出值。要注意的是,虽然图4C的示例中的检测器410是矩形矩阵(直行和直列),但也可以使用其它布置,例如,圆形布置或蜂窝布置。
根据一些实施例,来自每个检测器410的测量可以使得能够确定从光脉冲发射事件到接收事件的飞行时间和接收光子的强度。接收事件可以是光脉冲从物体208反射的结果。飞行时间可以是表示反射物体到可选的光学窗口124的距离的时间戳值。飞行时间值可以通过光子检测和计数方法(诸如时间相关单光子计数器(TCSPC))、用于光子检测的模拟方法(诸如信号积分和鉴定(经由模数转换器或普通(plain)比较器))或其它方法来实现。
在一些实施例中并且参考图4B,在扫描周期期间,至少一个光偏转器114的每个瞬时位置可以与视场120的特定部分122相关联。传感器116的设计使得能够在来自视场120的单个部分的反射光与多个检测器410之间进行关联。因此,激光雷达系统的扫描分辨率可以由(每个扫描周期的)瞬时位置的数量乘以传感器116中检测器410的数量来表示。来自每个检测器410(即,每个像素)的信息表示从中构建三维空间中的捕获的视场的基本数据元素。这可以包括例如点云表示的基本元素,具有空间位置和相关联的反射强度值。在一个实施例中,由多个检测器410检测到的来自视场120的单个部分的反射可以从位于视场120的单个部分中的不同物体返回。例如,视场120的单个部分在远场处可以大于50x50cm,这可以容易地包括彼此部分覆盖的两个、三个或更多个物体。
图4D是根据当前公开主题的示例的传感器116的一部分的横切图。传感器116的所示部分包括检测器阵列400的一部分,包括四个检测元件402(例如,四个SPAD、四个APD)。检测器阵列400可以是在互补金属氧化物半导体(CMOS)中实现的光电检测器传感器。每个检测元件402具有敏感区域,该敏感区域位于基板环境内。虽然不必是这样,但是传感器116可以用在具有窄视场的收发合置激光雷达系统中(例如,因为扫描单元104在不同时间扫描视场的不同部分)。用于入射光束的窄视场(如果被实现的话)消除了离焦成像的问题。如图4D中所例示的,传感器116可以包括多个透镜422(例如,微透镜),每个透镜422可以将入射光朝着不同的检测元件402(例如,朝着检测元件402的活动区域)引导,这在离焦成像不是问题时会是有用的。透镜422可以被用于增加检测器阵列400的光学填充因子和灵敏度,因为到达传感器116的大部分光可以朝着检测元件402的活动区域偏转。
如图4D中所例示的,检测器阵列400可以包括通过各种方法(例如,植入)内置于硅基板中的若干层,从而产生敏感区域、与金属层的接触元件以及隔离元件(例如,浅沟槽植入STI、护环、光学沟槽等等)。敏感区域可以是CMOS检测器中的体积元件,其使得能够在向器件施加足够的电压偏置的情况下将入射光子光学转换成电流。在APD/SPAD的情况下,敏感区域将是将由光子吸收产生的电子拉向倍增区域的电场的组合,在该倍增区域中光子诱发的电子被放大,从而产生倍增电子的击穿雪崩。
前侧被照亮的检测器(例如,如图4D中所示)具有与驻留在半导体(硅)顶部的金属层相同侧的输入光学端口。需要金属层来实现每个个体光电检测器元件(例如,阳极和阴极)与各种元件(诸如:偏置电压、淬火/镇流器元件和公共阵列中的其它光电检测器)的电连接。光子通过其照射检测器敏感区域的光学端口由通过金属层的通道构成。要注意的是,从一些方向通过这个通道的光可以被一个或多个金属层(例如,金属层ML6,如图4D中最左边的检测器元件402所示)阻挡。这种阻挡降低了检测器的总光学光吸收效率。
图4E图示了根据当前公开主题的示例的三个检测元件402,每个检测元件具有相关联的透镜422。图4E中的表示为402(1)、402(2)和402(3)三个检测元件中的每一个图示了可以与传感器116的检测元件402中的一个或多个相关联地实现的透镜配置。要注意的是,也可以实现这些透镜配置的组合。
在关于检测元件402(1)示出的透镜配置中,相关联的透镜422的焦点可以位于半导体表面上方。可选地,检测元件的不同金属层中的开口可以具有与由相关联透镜422生成的聚焦光锥对准的不同尺寸。这样的结构可以改进作为整个设备的阵列400的信噪比和分辨率。大的金属层对于递送功率和接地屏蔽可以是重要的。这种方法例如可以对具有窄视场的收发合置激光雷达设计是有用的,其中入射光束由平行射线组成并且成像焦点对检测到的信号没有任何后果。
在关于检测元件402(2)示出的透镜配置中,可以通过识别最佳点(sweet spot)来提高检测元件402的光子检测效率。具体而言,在CMOS中实现的光电检测器可以在敏感体积区域中具有最佳点,光子在该区域中产生雪崩效应的概率最高。因此,透镜422的焦点可以位于敏感体积区域内在最佳点位置处,如由检测元件402(2)所演示的。透镜形状和距焦点的距离可以考虑激光束沿着从透镜到埋在半导体材料中的敏感最佳点位置的路径所经过的所有元件的折射率。
在关于图4E右侧的检测元件示出的透镜配置中,可以使用漫射器和反射元件来提高半导体材料中的光子吸收效率。具体而言,近IR波长要求显著长的硅材料路径,以便实现高概率的对行进穿过了的光子的吸收。在典型的透镜配置中,光子可以穿过敏感区域并且可以不被吸收到可检测的电子中。对于用典型的铸造工艺制造的CMOS设备,提高了光子产生电子的概率的长的吸收路径使敏感区域的尺寸朝着不太实用的维度(例如,数十μm)变化。图4E中最右侧的检测器元件演示了一种处理入射光子的技术。相关联的透镜422将入射光聚焦到漫射器元件424上。在一个实施例中,光传感器116还可以包括位于远离至少一些检测器的外表面的间隙中的漫射器。例如,漫射器424可以使光束侧向地(例如,尽可能垂直)朝着敏感区域和反射光学沟槽426转向。漫射器位于焦点处、焦点上方或焦点下方。在这个实施例中,入射光可以聚焦在漫射器元件所在的具体位置上。可选地,检测器元件422被设计成在光学上避免光子诱发的电子可能在其中丢失并降低有效检测效率的非活动区域。反射光学沟槽426(或其它形式的光学反射结构)使光子在敏感区域上来回反弹,从而增加检测的可能性。理想情况下,光子将被无限期地俘获在由敏感区域和反射沟槽组成的腔中,直到光子被吸收并产生电子/空穴对。
与本公开一致,产生长的路径以使照射光子被吸收并有助于更高的检测概率。光学沟槽也可以在检测元件422中实现,用于减少在雪崩期间产生的寄生光子的串扰效应,所述寄生光子可能泄漏到其它检测器并导致误检测事件。根据一些实施例,可以优化光电检测器阵列,以便利用更高的接收信号产量(yield),这意味着同样多的接收信号被接收到,并且更少的信号对于信号的内部降级而损失掉。可以通过以下方式改进光电检测器阵列:(a)将焦点移动到半导体表面上方的位置处,可选地通过适当地在基板上方设计金属层;(b)通过使焦点转向至基板的最响应/敏感区域(或“最佳点”)以及(c)在基板上方添加漫射器以将信号朝着“最佳点”转向、和/或向沟槽添加反射材料使得偏转的信号被反射回“最佳点”。
虽然在一些透镜配置中,透镜422可以被放置成使得其焦点在对应检测元件402的中心上方,但要注意的是,不必如此。在其它透镜配置中,基于相应检测元件402距检测阵列400的中心的距离,透镜422的焦点相对于对应检测元件402的中心的位置而移位。这在相对较大的检测阵列400中可以是有用的,其中更远离中心的检测器元件以越来越离轴的角度接收光。移动焦点的位置(例如,朝着检测阵列400的中心)允许对入射角进行校正。具体而言,移动焦点的位置(例如,朝着检测阵列400的中心)允许对入射角进行校正同时对于所有检测元件使用基本上相同的透镜422,所述透镜422是相对于检测器的表面以相同的角度放置的。
当使用仅覆盖视场的一小部分的相对小的传感器116时,将透镜422的阵列添加到检测元件402的阵列会是有用的,因为在这种情况下,来自场景的反射信号从基本上相同的角度到达检测器阵列400,因此,容易将所有光聚焦到个体检测器上。还要注意的是,在一个实施例中,透镜422可以被用在激光雷达系统100中,以有利于增加整个阵列400的整体检测概率(防止光子在检测器/子检测器之间的死区中被“浪费”),以牺牲空间独特性为代价。这个实施例与诸如CMOS RGB相机之类的现有技术实施例形成对比,现有技术实施例优先考虑空间独特性(即,不允许在检测元件A的方向上传播的光被透镜朝着检测元件B引导,即,“逸出”到阵列的另一个检测元件)。可选地,传感器116包括透镜422的阵列,每个透镜与对应的检测元件402相关,而透镜422中的至少一个将传播到第一检测元件402的光朝着第二检测元件402偏转(由此它可以增加整个阵列的整体检测概率)。
具体而言,与本公开的一些实施例一致,光传感器116可以包括光检测器的阵列(例如,检测器阵列400),每个光检测器(例如,检测器410)被配置为当光穿过相应检测器的外表面时使电流流动。此外,光传感器116可以包括至少一个被配置为将光朝着光检测器阵列引导的微透镜,这至少一个微透镜具有焦点。光传感器116还可以包括插入在至少一个微透镜和光检测器阵列之间并且在其中具有间隙的至少一个导电材料层,以允许光从至少一个微透镜传递到阵列,这至少一层的尺寸被设计为在至少一个微透镜和该阵列之间维持空间,以使焦点(例如,该焦点可以是平面)位于该间隙中在与光检测器阵列的检测表面隔开的位置处。
在相关实施例中,每个检测器可以包括多个单光子雪崩二极管(SPAD)或多个雪崩光电二极管(APD)。导电材料可以是多层金属收缩部,并且至少一个导电材料层可以电连接到阵列中的检测器。在一个示例中,至少一个导电材料层包括多个层。此外,间隙可以被成形为从至少一个微透镜朝着焦点会聚,并且从焦点的区域朝着阵列发散。在其它实施例中,光传感器116还可以包括与每个光电检测器相邻的至少一个反射器。在一个实施例中,多个微透镜可以布置在透镜阵列中,并且多个检测器可以布置在检测器阵列中。在另一个实施例中,多个微透镜可以包括单个透镜,该单个透镜被配置为将光投射到阵列中的多个检测器。
处理单元
图5A-5C描绘了根据本公开的一些实施例的处理单元108的不同功能。具体而言,图5A是图示针对视场的单个部分的单个帧时间中的发射模式的图,图5B是图示针对整个视场的单个帧时间中的发射模式的图,以及图5C是图示在单个扫描周期期间朝着视场投射的实际光发射的图。
图5A图示了对于与至少一个光偏转器114的瞬时位置相关联的视场120的单个部分122在单个帧时间中的发射模式的四个示例。与本公开的实施例一致,处理单元108可以以使得光通量能够在对视场120进行扫描时变化的方式,控制至少一个光源112和光偏转器114(或协调至少一个光源112和至少一个光偏转器114的操作)。与其它实施例一致,处理单元108可以仅控制至少一个光源112,并且光偏转器114可以以固定的预定义模式移动或枢转。
图5A中的图A-D描绘了随着时间推移朝着视场120的单个部分122发射的光的功率。在图A中,处理器118可以以使得在扫描视场120期间初始光发射是朝着视场120的部分122被投射的方式,控制光源112的操作。当投射单元102包括脉动光光源时,初始光发射可以包括一个或多个初始脉冲(也称为“导频(pilot)脉冲”)。处理单元108可以从传感器116接收关于与初始光发射相关联的反射的导频信息。在一个实施例中,导频信息可以基于一个或多个检测器(例如,一个或多个SPAD、一个或多个APD、一个或多个SiPM等等)的输出表示为单个信号,或者基于多个检测器的输出表示为多个信号。在一个示例中,导频信息可以包括模拟和/或数字信息。在另一个示例中,导频信息可以包括单个值和/或多个值(例如,对于片段的不同时间和/或部分)。
基于关于与初始光发射相关联的反射的信息,处理单元108可以被配置为确定要朝着视场120的部分122投射的后续光发射的类型。对于视场120的特定部分确定的后续光发射可以在相同的扫描周期期间(即,在相同的帧中)或在后续的扫描周期中(即,在后续帧中)进行。下面更详细地描述这个实施例。
在图B中,处理器118可以以使得在视场120的扫描期间,不同强度的光脉冲朝着视场120的单个部分122被投射的方式,控制光源112的操作。在一个实施例中,激光雷达系统100可以可操作为生成一种或多种不同类型的深度图,例如以下类型中的任何一种或多种:点云模型、多边形网格、深度图像(保持图像或2D阵列的每个像素的深度信息)或场景的任何其它类型的3D模型。深度图的序列可以是时间序列,其中在不同的时间生成不同的深度图。可以在对应的后续帧时间的持续时间内,生成与扫描周期(可互换地称为“帧”)相关联的序列的每个深度图。在一个示例中,典型的帧时间可以持续少于一秒。在一些实施例中,激光雷达系统100可以具有固定的帧速率(例如,每秒10帧、每秒25帧、每秒50帧),或者帧速率可以是动态的。在其它实施例中,不同帧的帧时间跨序列可以不相同。例如,激光雷达系统100可以实现10帧/秒的速率,其包括在100毫秒(平均值)中生成第一深度图,在92毫秒中生成第二帧,以及在142毫秒处生成第三帧,等等。
在图C中,处理器118可以以使得在视场120的扫描期间,与不同持续时间相关联的光脉冲朝着视场120的单个部分122投射的方式,控制光源112的操作。在一个实施例中,激光雷达系统100可以可操作为在每个帧中生成不同数量的脉冲。脉冲的数量可以在0到32个脉冲(例如,1、5、12、28或更多个脉冲)之间变化,并且可以基于从先前发射导出的信息。光脉冲之间的时间可以取决于期望的检测范围,并且可以在500ns至5000ns之间。在一个示例中,处理单元108可以从传感器116接收关于与每个光脉冲相关联的反射的信息。基于该信息(或该信息的不存在),处理单元108可以确定是否需要附加的光脉冲。要注意的是,图A-D中的处理时间和发射时间的持续时间不是按比例的。具体而言,处理时间可以基本上长于发射时间。在图D中,投射单元102可以包括连续波光源。在一个实施例中,初始光发射可以包括发射光的时间段,并且后续发射可以是初始发射的延续,或者可以存在不连续性。在一个实施例中,连续发射的强度可以随时间改变。
与本公开的一些实施例一致,可以按照视场120的每个部分,确定发射模式。换句话说,处理器118可以控制光的发射,以允许区分视场120的不同部分的照明。在一个示例中,处理器118可以基于对来自相同扫描周期(例如,初始发射)的反射光的检测来确定视场120的单个部分122的发射模式,这使得激光雷达系统100极其动态。在另一个示例中,处理器118可以基于对来自先前扫描周期的反射光的检测,来确定视场120的单个部分122的发射模式。后续发射的模式的差异可以由于确定用于后续发射的光源参数的不同值而产生,所述参数诸如以下任何一个。
a.后续发射的总能量。
b.后续发射的能量廓线(profile)。
c.每帧的光脉冲重复的数量。
d.光调制特点,诸如持续时间、速率、峰值、平均功率和脉冲形状。
e.后续发射的波特性,诸如偏振、波长等等。
与本公开一致,后续发射的区分可以用于不同的用途。在一个示例中,能够在视场120的、安全性是一项考虑因素的部分中限制发射功率电平,而对于视场120的其它部分发射更高功率电平(从而改进信噪比和检测范围)。这与眼睛安全有关,但也可能与皮肤安全、光学系统的安全、敏感材料的安全等等有关。在另一个示例中,基于来自相同帧或前一帧的检测结果,能够将更多的能量朝着视场120的、能量将更加有用的部分(例如,感兴趣的区域、更远距离的目标、低反射目标等等)引导,而限制到视场120的其它部分的照明能量。要注意的是,处理单元108可以在单个扫描帧时间内多次处理来自单个瞬时视场的检测信号;例如,可以在每个脉冲发射之后或者在多个脉冲发射之后,确定后续的发射。
图5B图示了用于视场120的单个帧时间中的发射方案的三个示例。与本公开的实施例一致,至少在处理单元108上可以使用所获得的信息,来动态地调节激光雷达系统100的操作模式和/或确定激光雷达系统100的具体部件的参数值。所获得的信息可以从对在视场120中捕获的数据进行处理而确定,或者从主机210接收(直接地或间接地)。处理单元108可以使用获得的信息,来确定用于扫描视场120的不同部分的扫描方案。所获得的信息可以包括当前光条件、当前天气条件、主车辆的当前驾驶环境、主车辆的当前位置、主车辆的当前轨迹、围绕主车辆的道路的当前地形、或通过光反射可检测的任何其它条件或物体。在一些实施例中,所确定的扫描方案可以包括以下当中的至少一个:(a)作为扫描周期的一部分,将视场120内的部分指定为要被主动扫描,(b)投射单元102的投射计划,该计划定义视场120的不同部分处的光发射廓线;(c)扫描单元104的偏转计划,该计划定义例如偏转方向、频率,以及指定反射器阵列内的空闲元件;以及(d)感测单元106的检测计划,该计划定义检测器灵敏度或响应度模式。
此外,处理单元108可以至少部分地通过获得视场120内的至少一个感兴趣区域和视场120内的至少一个不感兴趣区域的标识,来确定扫描方案。在一些实施例中,处理单元108可以至少部分地通过获得视场120内的至少一个高兴趣区域和视场120内的至少一个较低兴趣区域的标识,来确定扫描方案。例如,视场120内的至少一个感兴趣区域的标识可以如下确定:例如,从对在视场120中捕获的数据进行处理而确定,基于另一个传感器(例如,相机、GPS)的数据而确定,(直接地或间接地)从主机210接收,或上述的任意组合。在一些实施例中,至少一个感兴趣区域的标识可以包括:对视场120内对于监视重要的部分、区域、扇区、像素或物体的标识。可以被识别为感兴趣区域的区域的示例可以包括人行横道、移动的物体、人、附近车辆或者可以有助于车辆导航的任何其它环境条件或物体。可以被识别为不感兴趣(或较低兴趣)区域的区域的示例可以是静态(非移动)远处建筑物、天际线、地平线以及视场中的物体上方的区域。一旦获得视场120内的至少一个感兴趣区域的标识,处理单元108可以确定扫描方案或改变现有的扫描方案。为了进一步确定或改变光源参数(如上所述),处理单元108可以基于至少一个感兴趣区域的标识来分配检测器资源。在一个示例中,为了降低噪声,处理单元108可以激活预期是感兴趣区域处的检测器410,并且禁用预期是不感兴趣的区域处的检测器410。在另一个示例中,处理单元108可以改变检测器灵敏度,例如,增大用于反射功率低的长程检测的传感器灵敏度。
图5B中的图A-C描绘了用于扫描视场120的不同扫描方案的示例。视场120中的每个方形表示与至少一个光偏转器114的瞬时位置相关联的不同部分122。图例500详细说明了由方形的填充图案表示的光通量的水平。图A描绘了第一扫描方案,其中所有部分具有相同的重要性/优先级并且为它们分配缺省光通量。第一扫描方案可以在启动阶段中使用或者与另一个扫描方案周期性地交织,以监视整个视场中非预期的/新的物体。在一个示例中,第一扫描方案中的光源参数可以被配置为以恒定的振幅生成光脉冲。图B描绘了第二扫描方案,其中视场120的一部分被分配有高光通量,而视场120的其余部分被分配有缺省光通量和低光通量。视场120的最不感兴趣的部分可以被分配有低光通量。图C描绘了第三扫描方案,其中在视场120中识别出紧凑的车辆和公共汽车(参见轮廓图)。在这种扫描方案中,可以以高功率跟踪车辆和公共汽车的边缘,并且车辆和公共汽车的中心质量可以被分配较少的光通量(或没有光通量)。这种光通量分配使得能够在识别出的物体的边缘上集中更多的光学预算,而在其不太重要的中心上集中更少的光学预算。
图5C图示了在单个扫描周期期间朝着视场120的光发射。在所描绘的示例中,视场120由8X9矩阵表示,其中72个单元格中的每一个对应于与至少一个光偏转器114的不同瞬时位置相关联的分离部分122。在这个示例性扫描周期中,每个部分包括一个或多个白点,白点表示朝着该部分投射的光脉冲的数量,并且一些部分包括黑点,黑点表示由传感器116检测到的来自该部分的反射光。如图所示,视场120被划分为三个扇区:在视场120的右侧的扇区I、在视场120的中间的扇区II、以及在视场120的左侧的扇区III。在这个示例性扫描周期中,扇区I对于每个部分最初都被分配有单个光脉冲;先前被识别为感兴趣区域的扇区II对于每个部分最初被分配有三个光脉冲;并且扇区III对于每个部分最初被分配有两个光脉冲。而且如图所示,扫描视场120揭示出四个物体208:近场中(例如,在5至50米之间)的两个自由形状物体,中场中(例如,在50至150米之间)的圆角方形物体、以及远场中(例如,在150至500米之间)的三角形物体。虽然图5C的讨论使用脉冲数量作为光通量分配的示例,但要注意的是,对视场的不同部分的光通量分配也可以以其它方式实现,诸如:脉冲持续时间、脉冲角色散、波长、瞬时功率、距光源112不同距离处的光子密度、平均功率、脉冲功率强度、脉冲宽度、脉冲重复率、脉冲序列、脉冲占空比、波长、相位、偏振等等。在图5C中作为单个扫描周期的光发射的图示演示了激光雷达系统100的不同能力。在第一实施例中,处理器118被配置为使用两个光脉冲来检测第一距离处的第一物体(例如,圆角方形物体),并使用三个光脉冲来检测大于第一距离的第二距离处的第二物体(例如,三角形物体)。下面参考图11-13更详细地描述这个实施例。在第二实施例中,处理器118被配置为将更多光分配到视场的识别出感兴趣区域的部分。具体而言,在本示例中,扇区II被识别为感兴趣区域,因此它被分配有三个光脉冲,而视场120的其余部分被分配有两个或更少的光脉冲。下面更详细地描述这个实施例。在第三实施例中,处理器118被配置为以这样一种方式控制光源112,使得仅向图5C中的部分B1、B2和C1投射单个光脉冲,尽管它们是每个部分最初被分配有两个光脉冲的扇区III的一部分。这是因为处理单元108基于第一光脉冲检测到近场中的物体而发生。下面更详细地描述这个实施例。小于最大脉冲量的分配也可以是其它考虑因素的结果。例如,在至少一些区域中,在第一距离处的物体(例如,近场物体)的检测可以导致减少发射到视场120的这个部分的总光量。下面参考图14-16更详细地描述这个实施例。确定对不同部分的功率分配的其它原因在下面来讨论。
关于激光雷达系统100的不同部件及其相关联功能的其它细节和示例包括在申请人于2016年12月28日提交的美国专利申请No.15/391,916;申请人于2016年12月29日提交的美国专利申请No.15/393,749;申请人于2016年12月29日提交的美国专利申请No.15/393,285;以及申请人于2016年12月29日提交的美国专利申请No.15/393,593,这些申请都通过引用整体上并入本文。
示例实现:车辆
图6A-6C图示了激光雷达系统100在车辆(例如,车辆110)中的实现。上面或下面描述的激光雷达系统100的任何方面可以合并到车辆110中,以提供范围感测车辆。具体而言,在这个示例中,激光雷达系统100在单个车辆中集成了多个扫描单元104以及潜在地多个投射单元102。在一个实施例中,车辆可以利用例如这种激光雷达系统,来改进重叠区中及其之外的功率、范围和准确度、以及FOV的敏感部分(例如,车辆的向前移动方向)的冗余。如图6A中所示,车辆110可以包括用于控制视场120A的扫描的第一处理器118A、用于控制视场120B的扫描的第二处理器118B、以及用于控制扫描两个视场的同步的第三处理器118C。在一个示例中,处理器118C可以是车辆控制器并且可以在第一处理器118A和第二处理器118B之间具有共享接口。共享接口可以使得能够以中间处理级别交换数据以及使得组合视场的扫描能够同步,以便在时间和/或空间空间中形成重叠。在一个实施例中,使用共享接口交换的数据可以是:(a)与重叠视场中和/或其附近的像素相关联的接收信号的飞行时间;(b)激光转向位置状态;(c)视场中物体的检测状态。
图6B图示了视场120A和视场120B之间的重叠区域600。在所描绘的示例中,重叠区域与来自视场120A的24个部分122和来自视场120B的24个部分122相关联。假定重叠区域是由处理器118A和118B定义并知道的,那么每个处理器可以被设计为限制在重叠区域600中发射的光量,以便符合跨越多个光源的眼睛安全限制,或者出于其它原因(诸如维持光学预算)。此外,处理器118A和118B可以通过扫描单元104A和扫描单元104B之间的松散同步和/或通过控制激光器发送定时和/或检测电路使能定时,来避免由两个光源发射的光之间的干扰。
图6C图示了视场120A和视场120B之间的重叠区域600如何可以被用于增加车辆110的检测距离。与本公开一致,将它们的标称光发射投射到重叠区域中的两个或更多个光源112可以被充分利用,以增加有效检测范围。术语“检测范围”可以包括距离车辆110的近似距离,激光雷达系统100在该距离处可以清楚地检测物体。在一个实施例中,激光雷达系统100的最大检测范围是大约300米、大约400米或大约500米。例如,对于200米的检测范围,激光雷达系统100可以以超过95%、超过99%、超过99.5%的次数,检测距车辆110为200米(或更小)的物体。即使物体的反射率可能小于50%(例如,小于20%、小于10%,或小于5%)。此外,激光雷达系统100可以具有小于1%的误报率。在一个实施例中,可以利用来自从在时间和空间空间中并置的两个光源投射的光来改进SNR,并因此增加位于重叠区域中的物体的服务范围和/或质量。处理器118C可以从视场120A和120B中的反射光中提取高层级信息。术语“提取信息”可以包括通过本领域普通技术人员已知的任何手段,在捕获的图像数据中识别与物体、个体、位置、事件等等相关联的信息的任何处理。此外,处理器118A和118B可以共享高层级信息,诸如物体(道路分隔带、背景、行人、车辆等等)和运动向量,以使每个处理器能够提醒周边区域即将成为感兴趣区域。例如,可以确定视场120A中的移动物体将很快进入视场120B。
示例实现:监控系统
图6D图示了激光雷达系统100在监控系统中的实现。如上面所提到的,激光雷达系统100可以固定到静止物体650,该静止物体650可以包括用于旋转激光雷达系统100的壳体以获得更宽视场的马达或其它机制。可替代地,监控系统可以包括多个激光雷达单元。在图6D所描绘的示例中,监控系统可以使用单个可旋转激光雷达系统100,来获得表示视场120的3D数据并且处理3D数据以检测人652、车辆654、环境中的变化或任何其它形式的安全性重要数据。
与本公开的一些实施例一致,可以分析3D数据,以监视零售业务过程。在一个实施例中,3D数据可以用在涉及物理安全性的零售业务过程(例如,检测:零售设施内的入侵、零售设施内或周围的故意破坏行为、对安全区域的未授权接近、以及在停车场的汽车周围的可疑行为)。在另一个实施例中,3D数据可以用于公共安全(例如,检测:人们在商店财产上滑倒和摔倒、商店地板上的危险液体溢出或阻塞、商店停车场中的攻击或绑架、消防通道的阻塞、以及在商店区域或商店外的拥挤)。在另一个实施例中,3D数据可以用于业务智能数据搜集(例如,跟踪通过商店区域的人,以确定例如有多少人通过、他们在哪里停留、他们停留多久、他们的购物习惯与他们的购买习惯相比是什么样子)。
与本公开的其它实施例一致,3D数据可以被分析并用于交通强制执行(enforcement)。具体而言,3D数据可以被用于识别行驶超过合法速度限制或某个其它道路合法要求的车辆。在一个示例中,激光雷达系统100可以被用于检测在红色交通信号灯显示时越过停车线或指定停靠位置的车辆。在另一个示例中,激光雷达系统100可以被用于识别在为公共交通预留的车道中行驶的车辆。在又一个示例中,激光雷达系统100可以被用于识别在红灯时禁止具体转弯的交叉路口处转弯的车辆。
应当注意的是,虽然上面和下面关于控制偏转器的扫描的控制单元描述了各种公开的实施例的示例,但是所公开的实施例的各种特征不限于这样的系统。而是,用于将光分配到激光雷达FOV的各个部分的技术可以适用于其中可以期望或需要将不同量的光引导到视场的不同部分的、基于光的感测系统的类型(激光雷达或其它类型)。在一些情况下,如本文所述,这种光分配技术可以积极地影响检测能力,但是还可以产生其它优点。
在激光雷达系统中将检测元件动态分配到像素
可以改变激光雷达系统100的各种操作参数,以便调节系统的性能特点。在一些情况下,可以改变与如何将入射光输送到激光雷达系统100的FOV相关联的操作参数中的至少一些。在其它情况下,可以改变与如何收集、感测和/或分析从场景反射的光相关联的操作参数。例如,在一些实施例中,传感器116可以包括多个检测元件,诸如多个单光子雪崩二极管(SPAD)或对光敏感的任何其它合适类型的检测元件(例如APD或上面所提及的任何检测器类型)。
各种像素(例如,可以从其收集和分析光的、传感器116的一个或多个片段)可以与传感器116相关联。在一些情况下,单个像素可以与传感器116中存在的单个光检测元件相关联。在其它情况下,单个像素可以与传感器116中存在的多个光检测元件相关联。在一些情况下,使与传感器116相关联的单个像素包括传感器116中存在的大多数或甚至所有检测元件甚至可以是有用的。虽然不一定如此,但是每个像素可以基于分配到那个像素的多个检测元件而输出组合输出。虽然不一定如此,但是像素可以是由至少一个处理器118用来生成检测信息(例如,点云模型)的最基本信息级别,并且不使用子像素信息。但是,可选地,子像素信息可以用于一些类型的处理(例如,用于传感器参数的校准)。
像素和相关联的检测元件之间的关系不需要保持固定。而是,在一些实施例中,可以动态地改变检测元件到一个像素或另一个像素的指派,例如,在激光雷达系统100的操作期间的任何时间或在任何其它合适的时间。例如,可以在特定FOV的扫描期间、特定FOV子区域的扫描期间、FOV的扫描之间或任何其它合适的时间,执行检测元件到像素的这种动态指派。在一些情况下,光离开激光雷达系统100的至少一个光源(例如,激光发射的单个脉冲)与该光的一个或多个反射照射在至少一个传感器上之间的时间流逝(lapse)构成飞行时间(TOF)。在一些情况下,至少一个处理器可以被配置为在飞行时间期间动态分配检测元件的子集。像素分配可以甚至在反射光开始照射在传感器116上之后开始或可以被触发。在一些实施例中,可以在第一扫描周期中将一组检测元件分配到第一像素和第二像素中,并且可以在后续扫描周期中将那组检测元件(或其任何部分)动态分配到第三像素和第四像素中。在其它实施例中,当激光雷达系统100的至少一个光源照亮激光雷达FOV的第一部分时,处理器118可以在当前扫描周期中动态地将检测元件分配到第一像素和第二像素中。然后,当至少一个光源照亮视场的第二部分时,处理器118可以在当前扫描周期中动态地将相同或不同的检测元件分配到第三像素和第四像素。
动态地定义像素以包括一个或多个检测元件(例如,SPAD)可能导致具有在传感器116中存在的可用检测元件的一个和总数之间的任意数量检测元件的像素。此外,被包括在特定像素内的检测元件可以具有任何合适的布置。在一些实施例中,动态定义的像素可以包括具有矩形形状的检测元件组(即,在每行中并且在每列中具有相同数量的检测元件,诸如n×m阵列,其中n可能是等于m))。在其它实施例中,动态定义的像素可以包括非规则布置的检测元件组,诸如L形分组、六边形分组、环形组、非连续形状、具有一个或多个省略的检测元件的连续形状,或任何其它合适的布置。
如下面更详细讨论的,每像素的检测元件的分配可以基于各种各样的因素。可以在将检测元件动态分配到像素中使用的因素的几个示例包括:感测到的驾驶条件(例如,速度、城市/乡村环境等);感测到的FOV的特定区域内的物体;感测到的物体的特征;范围信息;GPS位置信息;导航信息;地图信息;FOV内确定的感兴趣区域,等等。要注意的是,可以附加地和/或代替上述示例使用其它因素。
可以出于各种目的执行相对于检测元件组的像素的动态分配。例如,改变可用像素的数量和与每个像素相关联的检测元件的数量可以影响激光雷达系统100的潜在分辨率和/或传感器116对从与激光雷达系统100的FOV重叠的场景反射的光的灵敏度。在一些情况下,激光雷达系统100可以通过增加可用像素的数量来实现点云分辨率的增加。所指派的像素数量的增加可以涉及每像素分配的检测元件的数量的对应减少。例如,传感器116或传感器116的至少一部分的最大分辨率可以与每像素一个检测元件的分配对应。在其它情况下,最大分辨率可以与每像素分配另一个最小数量的检测元件(诸如100、200或500个SPAD)对应。
附加地或可替代地,与特定像素相关联的检测元件的数量可以影响像素对反射光的灵敏度。例如,分配了N个(例如,N=2000)检测元件的特定像素可以对反射光具有低于由分配了4·N个检测元件的另一个像素提供的灵敏度的灵敏度。虽然系统可以通过增加每像素的检测元件的数量来增加与传感器116相关联的灵敏度,但是这种分配会减少可用像素的总数。一般而言,传感器灵敏度与分辨率之间可以存在平衡。激光雷达系统100可以增加每像素的检测元件,从而增加每像素的传感器灵敏度,或者通过减少每像素的检测元件的数量来增加像素的数量,这可以增加传感器分辨率。要注意的是,不同像素(以及整个传感器116)的其它检测参数也可以随检测元件分配的改变而改变,诸如分辨率、动态范围、存储器要求、数据速率、处理要求、对噪声的敏感性,等等。
可以存在许多情况,其中可能期望将多个检测元件分配到特定像素,或以其它方式增加分配到FOV的至少一部分中的像素的检测元件的数量(无论是分配到特定像素、还是作为FOV的那部分中的检测元件的一般重新分布)。例如,在一些情况下,远距离和/或小物体可以出现在激光雷达系统100的FOV中。虽然来自激光雷达系统100的入射光可以从这些物体反射,但是来自这些物体的反射光的量可以比可以从更大或更近的物体反射的入射光的量更少(并且有时显著更少)。因此,虽然从小物体和/或远处物体反射的光可以到达传感器116,但是如果与传感器116相关联的每个像素仅被分配一个或相对较少的多个检测元件,那么入射在各个像素上的、来自小或远处物体的反射光的量可能具有不足以使激光雷达系统100能够准确地检测该小或远处物体或解析与这些物体相关联的特征的信噪比(SNR)。
用于增加检测可能性(例如,通过增加SNR)的一种技术可以包括将附加检测元件动态分配到与传感器116相关联的一个或多个像素,这可以导致对物体的更准确检测。即,可以将可用检测元件分配到更少的像素,使得具有增加数量的检测元件的重新分配的像素可以提供更高的物体检测和/或分类的可能性。将检测元件重新分配到像素不需要涵盖传感器116的整个光敏区域。而是,在一些情况下,只有那些与FOV中的特定ROI(例如,小或远处物体在FOV中所位于的地点)重叠的检测元件可以被重新分配到具有更多数量的检测元件的像素中。以这种方式,来自增加数量的检测元件的输出的聚合可以增加准确检测小和/或远处物体的概率。虽然利用较少的可用像素会使目标物体的精细细节的分辨率变得更加困难,但是动态增加分配到某些像素的检测元件的数量的技术可以使得能够检测否则将不会被检测到的物体(尤其是具有低反射率特点的那些物体)。并且尤其是对于远处物体,检测物体的存在可能比解析这些物体的精细特征更重要。
类似地,可以存在许多情况,其中可能期望将更少的检测元件分配到FOV的至少一部分中的像素(无论是分配特定像素、还是作为FOV的那部分中的检测元件的一般重新分布)。例如,在一些情况下,某些物体(例如,大物体、靠近激光雷达系统100的物体,或者以其它方式表现出显著反射特点的物体)可以导致来自激光雷达系统100的入射光的足够的反射以提供传感器116的合适的检测概率(例如,足够的SNR)。在这种情况下,动态像素分配可以包括导致与传感器116相关联的一个或多个像素的每像素的检测元件的数量减少的像素分配。虽然这种重新分配会导致SNR的降低,但是权衡可以是相对于FOV的一个或多个区域的系统分辨率的增加。因此,可以更容易地解析与某些物体相关联的更精细的细节。
在示例中,激光雷达系统100可以为与传感器116相关联的、和FOV的包括远距离处(例如,50m、100m、200m或更大)的潜在目标物体的区域重叠的像素分配许多检测元件。这种分配可以增加准确检测远距离物体的可能性。另一方面,激光雷达系统100可以为与传感器116相关联的、和FOV的包括较短范围处的潜在目标物体的区域重叠的像素分配更少的检测元件。这种类型的分配可以使得不仅能够准确检测近距离物体,而且还能够实现精细细节的分辨率,诸如准确检测物体的包络线(例如,车辆的外边缘;目标车辆的侧视镜的位置和形状;行人的面向方向;等等)。当目标物体位于例如激光雷达系统100所在的主车辆附近时,这种精细细节可能尤其重要,因为近期导航决策可以取决于那些细节。
如下面将更详细描述的,传感器116的各种检测元件可以跨像素均匀地分配(例如,与传感器116相关联的所有像素可以包括相同或基本相同数量的检测元件),或者可以被分配成使得不同的像素与不同数量的检测元件相关联(例如,一些像素可以提供更高的灵敏度和更低的分辨率能力,而其它像素可以提供更高的分辨率能力,但是更低的光灵敏度值)。并且与传感器116相关联的像素可以被定义为相对于彼此具有不同的形状和尺寸。另外,可以在激光雷达系统100的操作期间的任何时间,执行检测元件到像素的分配。
例如,在与本公开的实施例一致的激光雷达系统中,处理器可以控制至少一个光源的激活以照亮视场,从具有多个检测元件的至少一个传感器接收指示从视场中的物体反射的光的反射信号,动态分配多个检测元件的第一子集以构成第一像素,动态分配多个检测元件的第二子集以构成第二像素。在处理第一像素和第二像素之后,处理器可以动态分配多个检测元件的第三子集以构成第三像素,第三子集与第一子集和第二子集中的至少一个重叠,并且不同于第一子集和第二子集中的每一个,并且在处理第一像素和第二像素之后,动态分配多个检测元件的第四子集以构成第四像素,第四子集与第一子集、第二子集和第三子集中的至少一个重叠,并且不同于第一子集、第二子集和第三子集中的每一个。
以这种方式,激光雷达系统100可以通过增加像素的数量并且进而减少每像素的检测元件的数量来选择性地增加点云分辨率。可替代地,激光雷达系统100可以通过增加每像素的检测元件的数量来选择性地增加传感器的灵敏度,这进而会导致更少数量的像素。
图7A-7H图示了像素分配以及检测元件的组合的若干示例。例如,图7A中描绘的6×8矩阵的每个单元格可以表示个体检测元件。具体而言,图7A描绘了检测元件701,即图7A中描绘的48个检测元件之一。当然,传感器116可以包括任何数量的检测元件,并且检测元件的实际数量可以包括数百、数千或数百万个检测元件或更多。图7A的矩阵还可以表示传感器116的检测元件的一部分(该部分的到像素的分配可以可选地被多次复制到传感器116的不同部分)。处理器(例如,如图1A中例示的激光雷达系统100的处理单元108的处理器118和/或如图2A中例示的激光雷达系统的处理单元108的多个处理器118)可以分配图7A的检测元件的组,作为7B-7H中所描绘的各种像素组。应当注意的是,图7A还可以表示每可用检测元件包括一个像素的示例性像素分配。
在图7B中,图示了图7A的检测元件的像素分配的第一示例,为Pixel0分配完整的6×8矩阵。图7B中描绘的像素分配包括分配到单个像素的图7A的所有48个检测元件。在这种实施例中,可用分辨率的降低可以伴随着每像素的光灵敏度的增加。
图7C图示了图7A的检测元件的像素分配的另一个示例。在这个示例中,图7A的6×8矩阵已被分配到四个像素中,每像素具有相同的尺寸和形状,并且每个像素包括相似数量的检测元件。例如,Pixel0、Pixel1、Pixel2和Pixel3中的每一个包括3x4布置的检测元件。
图7D图示了可以由激光雷达系统100动态执行的像素分配的另一个示例。在这个示例中,检测元件的6×8矩阵再次被分配到四个像素中,每个像素具有相似的形状和相似数量的检测元件。在这个实施例中,每个像素包括6×2矩阵的检测元件,以便为每像素提供高度比宽度更长的纵横比。在这个实施例中,Pixel0、Pixel1、Pixel2和Pixel3中的每一个的宽度包括两个检测元件(或传感器116的宽度的四分之一),并且每个像素的高度包括六个检测元件或传感器的全高度116。
图7E图示了图7A的检测元件的像素分配的第四示例。在这个实施例中,检测元件的6×8矩阵已被分配到两个像素中,每个像素包括6×4布置的检测元件。类似地,在图7F所示的分配中,图7A的检测元件的6×8矩阵已被分配到两个像素中,每个像素包括3×8布置的检测元件。
在由图7G表示的像素分配中,图7A的检测元件的6×8矩阵已被分配在四个像素中。但是,图7G中所示的像素尺寸不同。例如,Pixel0和Pixel1都包括2x8布置的检测元件。另一方面,Pixel2和Pixel3包括1x8布置的检测元件。
图7H表示具有三个不同尺寸的四个像素的像素分配。例如,Pixel1和Pixel2均包括4x2布置的检测元件,Pixel3和Pixel4均包括1x8布置的检测元件,而Pixel0包括4x4布置的检测元件。
可以存在许多具有各种检测元件分配的可能像素配置。图7A-7H仅示出了少量可能的配置。重要的是要注意,可以在激光雷达系统100的操作期间在运行中(on the fly)建立这些不同的像素配置。例如,在激光雷达系统100的FOV的一次扫描期间,传感器116可以与诸如图7C中所描绘的像素配置之类的像素配置相关联。在FOV的第二扫描期间,并且基于系统可用的各种类型的信息(下面进一步讨论),像素配置可以动态改变,例如,改变为图7D中所示的像素配置。在激光雷达系统100的操作期间,或者在FOV的扫描之间或者在FOV的扫描期间,可以将与传感器116相关联的任何像素配置改变为任何其它像素配置。
此外,应当注意的是,可以采用检测元件到像素的适当分配。在一些情况下,一个像素可以包括可用检测元件的第一子集,其数量大于被包括在与不同像素相关联的检测元件的第二子集中的检测元件的数量。在其它实施例中,可以为两个或更多个不同的像素(例如,三个、四个或更多个)分配相同数量的检测元件。并且,可以在任何时间重新分配在第一扫描或扫描的一部分期间与某些像素相关联的检测元件,使得那些检测元件被分配到不同的像素。在一些实施例中,重新分配了检测元件的像素可以与分配了检测元件的一个或多个较早像素完全或部分重叠。
换句话说,在第一分配中,第一像素可以与检测元件的第一子集相关联,并且第二像素可以与检测元件的第二子集相关联。第一子集和第二子集中的检测元件的数量可以相同或不同。第二像素分配可以包括第三像素和第四像素,其中第三像素和第四像素一起包括与第一像素分配的第一和/或第二像素相同数量的检测元件。第三像素和第四像素可以与第一分配的第一像素和第二像素中的至少一个重叠。此外,在第四像素是稍后分配的一部分的情况下,第四像素可以与第三像素重叠。
任何被分配的像素可以具有相似数量的检测元件。例如,第一像素分配中的第一像素可以包括与第二像素分配中的第三像素相似数量的检测元件,即使第一像素与第三像素具有不同形状、没有重叠或至少部分重叠。另一方面,第一和第三像素可以具有不同数量的检测元件(例如,第一像素可以具有比第三像素更多数量的检测元件)。在一些实施例中,第三像素的纵横比可以大于第一像素的纵横比。
图7I包括表示激光雷达系统100的FOV内的场景以及可以与传感器116结合使用的各种像素配置的图700。在一些实施例中,激光雷达系统100可以被包括在主车辆(例如,自主或半自主车辆)上,并且在这种实施例中,激光雷达系统100的FOV可以包括在沿着一条或多条道路导航时通常遇到的物体。例如,如图7I中所示,可以检测到车辆725。车辆725可以表示沿着与主车辆相同的道路行驶的车辆,但是在相对于主车辆的不同车道和不同方向上行驶。在图7I所示的示例中,车辆725可以正在接近主车辆,但是可以在与主车辆行驶的车道平行的不同车道中行驶。
如图700中所示,激光雷达系统100的FOV也可以包括其它物体。例如,FOV可以包括相对于主车辆从右向左并且在与主车辆行驶的道路相交的道路上行驶的车辆712和714。FOV还可以包括静止物体,诸如路灯732、734和736。FOV还可以包括主车辆在其上行驶的道路的表面、行人、道路中的物体、车道障碍物、交通灯、建筑物、碎片和/或可能存在于主车辆的环境中的任何其它类型的物体。
图700可以表示在激光雷达系统100的操作期间的任何时间采用的像素分配的快照,或者在FOV扫描期间、或者在FOV扫描之间。如图7I中所示,FOV/传感器116的各个区域与分配有不同数量的检测元件并具有不同形状的像素相关联。在任何给定时间,可以基于激光雷达系统100可用的信息,来选择检测元件到像素的每个不同分配以及每个不同的像素形状。例如,在一些情况下,与近距离物体重叠的FOV区域可以与更大数量的像素相关联,这些像素可以比与和更远处物体重叠的FOV区域相关联的像素更小并且具有更少的检测元件。此外,被识别为感兴趣区域的某些区域(例如,包括迎面而来的车辆725的区域)可以与具有较少检测元件的更多数量的像素相关联。被确定为包括在FOV内水平地移动的物体的区域(例如,包括车辆712和714的区域)可以包括具有宽度比高度更长的纵横比的像素。并且被确定或预期包括静止物体(例如,路灯732、734和736)的区域可以被指派具有基于在那些区域中经历或预期的物体的形状确定的纵横比(例如,高度比宽度更长的纵横比)的像素。
更具体而言,当主车辆沿着道路行驶时,可能有兴趣从激光雷达系统100的FOV的、与靠近主车辆的距离范围重叠的区域捕获高分辨率信息。例如,如图7I中所示,FOV的与靠近主车辆的距离范围重叠(例如,在主车辆前方1米至50米的范围内,或在任何其它合适的距离范围内)的区域可以与比FOV的其它区域更多数量的分配像素相关联。如图7I中所示,与FOV的其它区域相比,这个区域可以包括像素分配720,其包括每单位面积的更多数量的像素(并且还潜在地包括更少数量的分配的检测元件)。因此,与FOV的其它区域相比,像素分配720可以提供更高分辨率检测的可能性。因此,不仅可以检测到车辆725,而且车辆725被多个像素覆盖的事实可以使得能够检测和解析车辆725的精细特征,诸如特征(诸如轮胎、侧视镜、车顶、保险杠、车辆边缘等)的位置、深度和包络。此外,随着与车辆725重叠的像素的数量增加,可以确定车辆725的各个部分的更准确的深度信息。在一些实施例中,像素分配720的每个像素可以包括单个检测元件。在其它情况下,分配720的每个像素可以包括多个检测元件。
在一些实施例中,与较高兴趣区域(例如,与像素分配720相关联的区域)相比,与远离主车辆的距离相关联的或与较低兴趣区域相关联的FOV的区域(例如,与主车辆在其上行驶的道路之外的区域重叠的区域)可以被指派分配有更高数量的检测元件的像素。例如,与例如像素分配720相比较,较低兴趣区域可以与具有较低像素密度的像素分配740相关联。在图7I所示的示例中,像素分配740的每个像素可以包括与分配720相关联的像素的面积的16倍。如果假设分配720中的每个像素具有一个检测元件,那么如图所示,分配740的每个像素将包括十六个检测元件。分配740中的像素可以对反射光提供较低分辨率能力,但是较高的灵敏度,这可以使得能够检测主车辆前方的道路上的远处物体。将激光雷达系统FOV的特定区域与较少数量的像素相关联还可以减少处理与那个区域相关联的检测信息所需的计算资源量。这可以释放用于分配到更高优先级区域(诸如与像素分配720重叠的区域,其包括恰好在主车辆前方的区域,或者与像素分配710重叠的区域,其包括检测到的交叉车辆)的计算资源。
检测元件到像素的动态分配可以取决于多种因素。一般而言,对于可能期望增强检测灵敏度的FOV的区域,可以为每像素分配更多的检测元件。另一方面,在可能希望增加检测分辨率的FOV的区域中,可以为每像素分配更少的检测元件,以使更多数量的像素能够与特定FOV区域对应。并且如前所述,FOV的每个区域的像素的尺寸、形状和/或数量可以在激光雷达系统100的操作期间并且基于系统可用的信息在运行中动态地确定。例如,在一些情况下,动态像素分配可以取决于相对于激光雷达系统的范围。与和更远范围重叠的FOV的区域相比,与更靠近激光雷达系统的范围重叠的FOV的区域可以被分配更多数量的像素,所述像素包括更少数量的检测元件。
此外,像素分配可以取决于更多瞬态感兴趣区域(例如,不仅仅是基于距主车辆的范围而建立的那些感兴趣区域)。在一个示例中,系统可以在“低分辨率”模式下操作(例如,根据分配740)并且可以检测在主车辆前方的物体(例如,道路中的车辆、物体等)。作为低分辨率模式下检测的结果,激光雷达系统100可以将包括检测到的物体的区域定义为感兴趣区域。因此,在正在进行的扫描期间或在激光雷达FOV的一个或多个后续扫描期间,与检测到的物体重叠的FOV的区域可以被分配有更多数量的像素,以便在较高分辨率模式下获得关于该物体的信息。
像素分配还可以取决于检测到的物体的形状和尺寸和/或基于预期在FOV的某个区域中检测到的物体的形状和尺寸。例如,如图7I的图700中所示,路灯732、路灯734和路灯736沿着道路的一侧定位。可以分配像素分配730以涵盖路灯732、734和736。像素分配730的像素可以大于像素分配720的像素,因为可能不太需要与在主车辆行驶的道路之外的非移动物体相关联的高分辨率检测。还如图7I中所证明的,与环境光源对应的区域可能被分配有相对小的像素和/或从较大的像素中减去,以便限制从这些光源到达的光的泛滥,对检测阵列的仅小部分致盲(blind)。
在一些实施例中,处理器可以基于在FOV的特定区域中检测到或预期的物体的尺寸、形状和/或任何其它特点来确定分配到FOV的特定区域的像素的形状。例如,在一个实施例中,像素分配730的像素可以具有纵横比,导致一般与遇到的路灯732、734和736的形状相关的垂直拉长和水平窄像素。以这种方式,例如,像素分配730可以改善不同距离的光柱之间的分离,同时仍然为像素分配730中的每个像素提供足够数量的检测元件。在一些实施例中,分配的像素可以是L形、大致圆形、环形或任何其它合适的形状。所分配像素的这种形状可以取决于例如激光雷达系统的FOV的各个区域中检测到的或预期的物体的配置。
像素分配还可以取决于其它特点,诸如激光雷达系统100的FOV内的一个或多个物体的检测到或预期的运动和运动方向和/或激光雷达系统100的部件(诸如至少一个偏转器114)的运动。例如,如图7I中所示,与从右向左移动并且可以跨过主车辆的路径的车辆712和714重叠的FOV的区域相关联的像素分配710可以被分配具有宽度比高度更长的纵横比的像素。例如,这种像素形状可以至少部分地补偿由于连续扫描反射镜收集来自移动物体的反射光而发生的潜在失真的影响。例如,因为系统可以包括连续扫描反射镜(或另一种类型的偏转器),所以如果检测到的物体正相对于激光雷达系统100移动,那么传感器上的反射图像可以在至少一个方向上被拉伸。例如,相对于激光雷达系统从右向左移动的圆形物体可以在传感器处出现为具有更细长/椭圆的形状(尤其是如果在一段时间内发出的几个光脉冲用于每个像素的检测)。为了至少部分地抵消这种影响,可以建立包括矩形(或其它细长的)像素而不是具有方形形状的像素的像素分配。
像素分配还可以取决于许多其它因素。在一些实施例中,像素分配可以取决于感测到的主车辆的驾驶参数(例如,速度、加速度、距另一个车辆的距离等)、感测到的环境(例如,高速公路相对于城市环境)等。像素分配还可以取决于激光雷达系统100可用的任何其它信息,包括例如地图数据、GPS位置信息、主机导航指令等。与激光雷达系统100相关联的各种系统改变也可以提示某些像素分配或像素分配的改变。这种系统改变可以包括对系统的发射脉冲或光通量的变化、对光束斑尺寸的改变、对照射在传感器116上的反射光的聚焦区域的修改、对扫描方案、偏转器的扫描速度的改变等。
如上所述,像素分配可以取决于感测到的驾驶参数。例如,随着主车辆的速度增加,车辆将在一定量的时间内覆盖更大的距离范围。因而,可能需要延伸到主车辆前方的更远范围的更高分辨率的检测能力。在图7I的上下文中,感测到的主车辆速度的增加可以在FOV的扫描期间或其之间提示像素的重新分配,从而导致像素分配720被扩大为包括在距主车辆更远范围处的环境的区域。例如,在一些实施例中,像素分配720可以基于增加的速度而沿着道路进一步延伸。相反,感测到的主车辆的减速可以导致像素分配区域720的尺寸减小,以仅包括FOV的、与更靠近主车辆的距离范围重叠的区域。此外,感测到的主车辆的转弯可以导致在预测主车辆将进入的FOV的区域中(例如,在主车辆的当前前进方向的任一侧)包括更多数量像素的像素分配。所分配的像素的形状也可以类似于像素分配710的形状,以便至少部分地考虑FOV相对于主车辆的周围环境的横向运动。
在一些实施例中,像素分配可以基于感测到的环境而变化。例如,系统可以具有用于在高速公路、乡村或城市环境中驾驶的不同模式。当在高速公路上驾驶时,例如与城市环境中的相比,一般可以预期物体在距离主车辆较远的距离处出现,但是速度更高。因此,可以将提供更高分辨率能力的像素分配指派给FOV的、与距主车辆的中长范围距离(例如,20m到100m,或任何其它合适的范围)重叠的区域。并且,旨在以较少像素增加检测灵敏度的像素分配可以指派给FOV的、非常长距离(例如,大于100m、200m等)处的区域。另一方面,城市驾驶可以比高速公路驾驶慢,并且可以涉及主车辆环境中更大密度的目标物体。因此,可以将提供更高分辨率的像素分配指派给FOV的、与相对于主车辆的附近范围(例如,在1m和20m之间)重叠的区域。超出该附近区域,并且尤其包括与道路重叠的区域,可以指派像素分配以便增加灵敏度(例如,以便利于检测可以被检测为进入主车辆的路径中的道路的低反射率物体,诸如行人)。并且在农村环境中,预期在主车辆的路径中很少有目标物体。因此,可以开发像素分配以有利于灵敏度而不是分辨率,以便使得能够检测短和长距离物体(例如,道路中的牛)。
如上所述,像素分配可以取决于物体检测,其可以建立一个或多个感兴趣区域。在一些实施例中,传感器可以接收反射,该反射指示它来自处于FOV内的某个位置和范围内的物体。如果物体相对靠近主车辆,那么像素重新分配可以涉及增加与检测到的物体重叠的像素的数量,以便增加与物体相关联的后续检测的分辨率。另一方面,如果检测到的物体位于更远离主车辆的位置,那么像素重新分配可以涉及与物体重叠的像素的数量的减少,以便增强检测灵敏度(例如,通过增加SNR)。随着主车辆与检测到的物体之间的距离减小,像素重新分配可以涉及与包括检测到的物体的区域重叠的像素数量的连续增加。当然,随着物体接近激光雷达系统100,与检测到的物体相关联的像素数量的一些增加可以自然地发生。即使与这种自然效果一起,系统100还可以在正在进行的扫描期间或在扫描之间将像素重新分配到更大的密度,使得与检测到的物体相关联的像素密度高于由于目标物体和主车辆之间的距离接近而自然发生的像素密度。
在一些实施例中,像素分配可以取决于GPS位置信息、地图数据或主车辆导航指令,或任何其它信息源。例如,如果系统识别出主车辆位于相对于环境的位置和朝向,那么系统可以使像素分配基于环境中的预期特征或改变。例如,如果确定主车辆正在接近转弯(基于导航指令、地图数据和位置信息),那么系统可以使用这个知识或预期,基于预期条件来分配像素。例如,系统可以基于在FOV的一个或多个即将到来的扫描期间向右转弯的预期,来分配更多数量的像素或某个形状的像素。如果系统意识到自主车辆正在接近交叉路口,那么系统可以通过增加FOV的、预期会出现交叉路口的特征的一个或多个区域中的像素的数量来增加分辨率。相反,如果系统已经识别出下一个转弯在沿着乡村道路30公里内,那么系统可以通过增加每像素的检测元件的数量来分配像素以有利于检测灵敏度。
像素分配还可以取决于内部诊断。例如,在一些情况下,处理器118可以辨别或识别至少一个有缺陷或未操作(inoperative)的检测元件。一旦识别出,处理器118就可以避免将有缺陷或未操作的检测元件分配到后续分配的像素。附加地或可替代地,处理器118可以在识别出此类有缺陷的检测元件之后降低与一个或多个有缺陷的检测元件相关联的增益电平。有可能地,不是所有与特定像素相关联的检测元件都可以依赖。例如,基于各种条件(例如,有缺陷的检测元件的识别等),处理器118可以在处理期间有效地忽略至少一个检测元件。
图7J和7K是图示与本发明的一些实施例一致的在FOV扫描期间或在其之间改变像素分配的示例的图。如图7J和7K中所示,在激光雷达系统100的操作期间,在正在进行的扫描期间或在FOV的扫描之间可以更改所分配的像素的数量、尺寸、形状、纵横比和/或朝向以及其它特征。要注意的是,可以在不同像素分配之间改变这种一个或多个特点的任意组合,同时可能保留一个或多个那些特点的另一个组合。例如,处理器118可以将对于某个FOV的像素从图7J和7K左侧所示的像素分配重新分配到图的右侧所示的像素分配,反之亦然。在一些实施例中,处理器118可以改变三个或更多个不同配置之间的像素分配。并且,如图7I中所示,像素的分配在FOV上不需要是均匀的。
图7L是图示基于确定的感兴趣区域改变像素分配的示例的图。例如,在一些情况下,物体的检测可以发生在FOV的、与图7L的左侧上所示的中间两个像素相关联的区域中。因此,处理器118可以从左边的像素分配改变到右边的像素分配,其中包括检测到的物体的感兴趣区域被提供有更多数量的更小像素。这种像素重新分配可以使得能够以更高的分辨率对那个区域中的物体进行后续检测。
像素分配还可以取决于系统的扫描方向。例如,图7M是图示与本公开的一些实施例一致的根据扫描方向改变像素分配的示例的图。要注意的是,为了图示的简化,在图7M的示例中未示出个体检测元件。在所示示例中,传感器116的光敏区域被划分为多个逻辑像素780。本上下文中的逻辑像素意味着这种逻辑像素的输出与整个逻辑像素相关联,即使仅选择传感器116上对应位置中的检测元件的部分来组合它们的输出。在一些示例中,逻辑像素甚至可以在一些时间点与位置对应于另一个逻辑像素的检测元件相关联。如果偏转器114在捕获单个逻辑像素780期间移动(在一些示例中可以是这种情况),那么能够在捕获该单个逻辑像素780期间的不同时间,将不同组的检测元件指派给该单个逻辑像素780。例如,处理器可以针对不同光脉冲向单个逻辑像素分配不同组的检测元件,并且组合(例如,求和)不同组的检测输出。在其它示例中,处理器可以在偏转器在FOV的对应部分的连续照明期间扫描的同时,将不同组的检测元件分配到单个逻辑像素。参考所示示例,第一组检测元件(表示为792)在第一时间点被分配到逻辑像素780(1),在偏转器移动到稍微不同的位置(例如,扫描反射镜的稍微不同的角度)之后,第二组检测元件(表示为794)在第二时间点被分配到逻辑像素780(1)。组792和794的输出可以被组合成单个输出(例如,标量、向量或可以由处理器118处理以提供检测结果的任何其它形式的输出)。要注意的是,两个以上的检测元件子组可以在不同时间与同一个逻辑像素相关联。还要注意的是,虽然图7M的示例图示了偏转器114(因此也示出了检测元件组的选择)在单个轴上的移动,但是也可以实现偏转器(以及因此也可以实现检测元件组的选择)的2D扫描。
图8图示了可以与传感器116相关联的电路系统800的示例。这种电路系统800可以包括用于收集从激光雷达系统100的FOV内的物体反射的光的光敏检测元件。在一些实施例中,每个检测元件可以包括光敏设备,诸如二极管811、812、813或814。每个二极管可以与对应的电阻器821、822、823和824相关联。光敏像素可以包括单光子雪崩二极管(SPAD)、雪崩光电二极管(APD)、PIN二极管等。电路系统800可以用在上述像素分配的类型中。例如,MUX801可以连接到二极管811、812、813和814的阴极,并且可以用于对通过每个光电二极管的电流进行采样,这可以指示入射在每个个体光电二极管上的光量。虽然仅示出了四个光电二极管,但是可以采用任何数量的光电二极管(例如,数百、数千、数百万或更多)。
如上所述,可以分配与传感器116相关联的像素以包括一个或多个检测元件。相对于图8中所示的电路系统,与传感器116相关联的像素可以包括单个光电二极管,诸如二极管811,并且另一个像素可以包括单个光电二极管,诸如二极管812。图8中所示的四个光电二极管可以被包括在四个分开的像素中。可替代地,可以将两个或更多个光电二极管一起组合到单个像素中。例如,在一些实施例中,图8中所示的光电二极管可以合并到两个不同的像素中,例如,光电二极管811和812与第一像素相关联,并且光电二极管813和814与第二像素相关联。另外,所有光电二极管811、812、813和814可以一起聚合到与传感器116相关联的单个像素中。
MUX 801可以用于将检测元件(例如,二极管)分配到一个或多个不同的像素中。例如,在每个光电二极管811、812、813和814与不同像素相关联的实施例中,MUX 801可以向输出端831、832、833和834提供指示通过每个个体、相应光电二极管811、812、813和814的电流的值。另一方面,在将所有光电二极管811、812、813和814分配到单个像素的情况下,MUX801可以对通过每个光电二极管811、812、813和814电流值进行采样并将聚合输出提供给输出端831、832、833或834中的任何一个。电路系统800还可以包括多个开关,用于将检测元件动态分配到与不同像素相关联的不同子集。
当然,检测元件到像素的这种分配也可以由处理器118完成。例如,处理器118可以接收指示每个个体检测元件中的电流的输入(例如,通过检测元件阵列的时间复用采样)。然后,处理器118可以通过聚合与每个唯一定义的像素相关联的检测元件输出,来完成检测元件到像素的逻辑分组。系统100还可以包括多个解码器,解码器被配置为解码从多个检测元件接收的反射信号。
图9A包括用于将检测元件(例如,SPAD)的组动态分配到不同像素的方法900的示例流程图表示。方法900可以由至少一个处理器(例如,如图1A中所描绘的激光雷达系统100的处理单元108的处理器118和/或如图2A中所描绘的激光雷达系统的处理单元108的多个处理器118)来执行。在步骤901处,处理器118控制至少一个光源(例如,图1A的光源112、图2A的光源112的激光二极管202和/或图2B的多个光源102)的激活,用于照亮视场(例如,图1A和2A的视场120)。
步骤902可以进一步包括从具有多个检测元件的至少一个传感器接收指示从视场(例如,图1A和2A的视场120)中的物体反射的光的反射信号。步骤903包括动态分配多个检测元件的第一子集以构成第一像素。以上参考图7B-7H讨论了第一像素的示例。步骤904包括动态分配多个检测元件的第二子集以构成第二像素。以上参考图7C-7H讨论了第二像素的示例。要注意的是,步骤901和902可以重复不止一次,并且步骤901和/或902的迭代可以在下面讨论的方法900的任何步骤之间和/或与这些步骤中的一个或多个并发地执行。
在处理第一像素和第二像素之后执行的步骤905包括动态分配多个检测元件的第三子集以构成第三像素,第三子集与第一子集和第二子集中的至少一个重叠,并且不同于第一子集和第二子集中的每一个。以上参考图7C、7D、7G和7H讨论了第三像素的示例。
在处理第一像素和第二像素之后执行的步骤906包括动态分配多个检测元件的第四子集以构成第四像素,第四子集与第一子集、第二子集和第三子集中的至少一个重叠,并且不同于第一子集、第二子集和第三子集中的每一个。以上参考图7C、7D、7G和7H讨论了第四像素的示例。
如前所述,激光雷达系统100可以被合并到任何合适的平台上。在一些实施例中,激光雷达系统100可以被合并到车辆(例如,自主或半自主车辆)上,该车辆具有主体和被配置为执行上述任何类型的像素分配的至少一个处理器。并且与所分配像素中的一个或多个相关联的信号可以用于确定各种类型的信息。例如,至少一个处理器118可以基于从与传感器116相关联的像素(例如,第一像素和第二像素或更多)收集的信号,来确定到至少一个物体的距离信息。附加像素可以提供关于检测到的物体的附加信息。例如,来自包括第一像素和第二像素的同一像素分配或不同像素分配的第三或第四像素的信号可以提供附加的深度信息,或者可以提供关于与物体相关联的结构细节的信息(例如,侧视镜的存在、车轮边缘的位置等)。
在一些情况下,至少一个处理器118可以基于第一像素和第二像素的处理(例如,第一像素和第二像素包括具有不足以正确识别物体的SNR的多个检测元件的情况下),来确定激光雷达FOV的至少一部分中不存在物体。但是,至少一个处理器118可以基于第三像素和第四像素的处理(例如,第三像素和第四像素在经验条件下被分配有相对于分辨率更有利于灵敏度的多个检测元件的情况下),来确定FOV的该部分中至少一个物体的存在。实际上,在基于第一像素和第二像素的处理确定FOV的至少一部分中不存在物体之后,至少一个处理器118可以动态地将检测元件分配到第三像素和第四像素。
图9B是图示用于激光雷达成像的方法910的流程图。方法910可以由激光雷达系统的一个或多个处理器执行。参考关于先前附图阐述的示例,方法910可以由激光雷达系统100执行。参考关于先前附图阐述的示例,方法910可以由激光雷达系统100的一个或多个处理器116执行。
方法910可以包括控制至少一个光源的激活以照亮视场部分(FOV部分)的步骤911。可以针对至少10平方度(例如,2°乘2.5°)的FOV部分执行方法910。要注意的是,可选地,方法910可以针对显著更大的FOV部分(例如,100平方度、1000平方度)执行,并且可以针对激光雷达系统的整个FOV执行,或者仅针对其一个或多个部分执行。虽然不一定如此,但是FOV部分可以是连续的FOV部分。要注意的是,可选地,可以针对小于10平方度的FOV部分执行方法910。
方法910还包括从具有多个检测元件的至少一个传感器接收指示从FOV部分中的物体反射的光的反射信号的步骤912。要注意的是,步骤911和912可以重复不止一次,并且步骤911和/或912的迭代可以在下面讨论的方法910的任何步骤之间和/或与这些步骤中的一个或多个并发地执行。
方法910的步骤913包括为多个检测元件动态地应用第一分组方案,以提供包括第一数量的组的多个第一检测元件组。参考关于先前附图提供的示例,检测元件可以是激光雷达系统100的一个或多个传感器118的检测元件。如上面更详细地讨论的,每组检测元件可以构成像素。要注意的是,每组检测元件可以仅包括相邻或以其它方式空间连接的检测元件,但不一定如此。不同的第一组可以具有相同的尺寸和/或包括基本上数量的检测元件,但这不是必须的。以上关于不同像素讨论的任何其它变化也适用于第一组检测元件。
方法910的步骤914包括从至少一个传感器获得多个第一输出信号,每一个第一输出信号与另一个第一检测元件组对应。要注意的是,输出信号可以是模拟的和/或数字的,可以包括单个值或一组值(例如,向量),并且可以与一个或多个时间点和/或一个或多个时间跨度对应。
方法910的步骤915包括处理多个第一输出信号,以提供跨FOV部分具有第一点密度的第一点云。在这种情况下,第一点云的每个点与另一个第一检测元件组对应。方法910的上下文中的点云的点密度是指FOV的平方度的点云的数量。例如,如果每个第一组检测元件与0.2°乘0.2°的片段对应,那么第一点密度是每平方度25个点。要注意的是,还可以使用其它度量(例如,跨其中一个轴的1D密度等)来测量点云密度。
方法910的步骤916包括为多个检测元件动态地应用第二分组方案,以提供包括第二数量的组的多个第二检测元件组(第二数量大于第一数量)。以上关于不同像素讨论的任何其它变化也适用于第一组检测元件。以上关于不同分配方案的像素之间的差异讨论的任何变化也适用于第二组与第一组检测元件之间的差异。
方法910的步骤917包括从至少一个传感器获得多个第二输出信号,每一个第二输出信号与另一个第二检测元件组对应。以上关于步骤914讨论的任何变化适用于步骤917。
方法910的步骤918包括处理多个第二输出信号,以提供跨FOV部分具有第二点密度的第二点云,第二点密度至少是第一点密度的两倍密集。第二点云的每个点与另一个第二检测元件组对应。以上关于步骤914讨论的任何变化适用于步骤918。
要注意的是,可选地,第一点密度与第二点密度之间的比率不是整数(例如,与最接近的整数相差至少0.15,即,在N+0.15至N+0.85之间,其中N是整数)。而且,第一点密度与第二点密度之间的比率被定义为这两个点密度中的较大者除以这两个点密度中的较小者。
可选地,第一点云的1D点密度与第二点云的1D点密度之间的比率不是整数(例如,与最接近的整数相差至少0.15,即,在N+0.15至N+0.85之间,其中N是整数)。而且,这些点密度之间的比率被定义为这两个1D点密度中的较大者除以这两个1D点密度中的较小者。
如关于前述系统和方法所讨论的,可以在FOV的不同扫描之间、在FOV的单次扫描期间等等,执行检测元件到不同组/像素的分配的改变。
方法910可以可选地由方法910执行,更具体而言,由激光雷达系统的处理器执行。因此公开了一种激光雷达系统的处理器,其可操作并被配置为:
a.控制至少一个光源的激活,以照亮至少10平方度的视场(FOV)部分;
b.从具有多个检测元件的至少一个传感器接收指示从FOV部分中的物体反射的光的反射信号;
c.对多个检测元件动态地应用第一分组方案,以提供包括第一数量的组的多个第一检测元件组;
d.从至少一个传感器获得多个第一输出信号,每一个第一输出信号与另一个第一检测元件组对应;
e.处理多个第一输出信号,以提供跨FOV部分具有第一点密度的第一点云(第一点云的每个点与另一个第一检测元件组对应);
f.对多个检测元件动态地应用第二分组方案,以提供包括第二数量的组的多个第二检测元件组(第二数量大于第一数量);
g.从至少一个传感器获得多个第二输出信号,每一个第二输出信号与另一个第二检测元件组对应;以及
h.处理多个第二输出信号,以提供跨FOV部分具有第二点密度的第二点云(第二点云的每个点与另一个第二检测元件组对应),其中第二点密度至少是第一点密度的两倍密集。
参考上面讨论的所有方法和系统,要注意的是,并非相关传感器的所有检测元件都必须以检测元件的任何分布方案(也称为分配方案)分配到像素/组。
在激光雷达系统中的飞行时间期间改变检测灵敏度
激光雷达系统(例如,激光雷达系统100)可以包括至少一个处理器(例如,处理器118),其被配置为激活一个或多个光源(例如,光源112)朝着激光雷达系统的视场的一部分发光。激光雷达系统可以基于接收到的由激光雷达系统发射的光的反射来确定关于其周围环境的信息。例如,由一个或多个传感器(例如,传感器116)接收和记录的光反射可以使得能够确定诸如相对于物体、物体表面、物体的部分、路面或环境中存在的任何其它特征的距离信息之类的信息。应当注意的是,虽然在下面常常关于扫描激光雷达系统并且特别是激光雷达系统100(例如,在下面的段落中,并且关于图10、11和12)例示在光的飞行时间期间对放大电平的修改,但是本发明不限于这种系统,并且可以被实现为任何类型的激光雷达系统。具体而言,以下关于扫描激光雷达系统讨论的所有细节和变化也可以在经过必要的改动后也对其它类型的激光雷达系统(例如,闪光型激光雷达、凝视阵列激光雷达等)实现。
在一个示例中,激光雷达系统可以安装在主车辆上,并且可以使用基于从激光雷达系统的FOV内的主车辆的环境接收的反射光接收的反射信号来确定主车辆与FOV中的物体之间的物体。但是,在操作中,可能存在会妨碍系统操作的各种噪声源。例如,在系统的FOV内,环境光源、高反射率区域、眩光源等会使激光雷达系统的传感器的一个或多个部分饱和,从而导致传感器的“致盲(blinding)”,这会限制系统解析FOV中的物体或确定距离信息等的能力。
可能的致盲源可以包括路灯、尾灯、前灯、高反射物体(例如,牌照、标志等)、雾、大雨、潮湿表面、附近物体等。在内部从一个或多个系统部件反射的光也会造成致盲。例如,当从光源(例如,光源112)发射的光被一个或多个内部部件(例如,转向元件、分离器和/或激光雷达系统壳体)反射时,可以发生内部反射。在预期来自视场中的物体的任何信号之前,内部反射的光发射可以非常快速地到达传感器。由于这种内部反射产生的致盲会导致系统无法恰当地检测激光雷达系统FOV中的物体(到一取决于传感器的恢复时间的距离)。减少致盲源可以提高激光雷达系统的准确性。
可以通过调谐传感器116的各种操作参数来克服传感器的致盲。例如,在一些实施例中,传感器116可以包括具有可调谐谐放大参数的一个或多个检测元件。对于单独每个检测元件、对于检测元件的组等,放大参数可以是可调谐的。在激光雷达系统100的操作期间的任何时间,传感器116中存在的一个或多个检测元件(包括可用检测元件的任何子集,直到所有可用检测元件)的放大参数可以从零(或任何其它可以使特定检测元件有效地未操作的值)调节到最大可用放大电平。例如,可以经由应用于传感器116的一个或多个检测元件的增益设置,来控制检测器的放大参数。还可以通过调节与光接收路径或处理路径中的任何部件(例如,模拟放大器、模数转换器、时间到数字转换器、数字放大器等)相关联的增益/放大电平,来影响检测器的有效放大参数。在一些实施例中,还可以使用可控过滤器或可控快门结合传感器116,来减小传感器致盲的影响。在所描述的实施例中,动态控制的放大参数可以包括以下当中的至少一个:检测器增益、放大器增益、灵敏度级别和/或衰减值。并且,如所指出的,调节检测器的放大参数可以包括相对于光接收或光处理路径中存在的任何部件(包括传感器116和激光雷达系统的其它部件)对这些参数中的任何一个或全部的更改。
可以在激光雷达系统100的操作期间的任何合适的时间,执行对检测器的放大参数的控制。但是,更具体而言,可以在从光源112发射的光脉冲(或其它光信号,诸如CW信号)的飞行时间期间,选择性地更改放大参数。这种在飞行时间期间选择性地更改放大参数的能力可以以不同方式改进激光雷达系统的检测能力。例如,在飞行时间期间选择性地更改放大参数的能力可以使得能够实现对来自激光雷达系统100的环境中的物体的光反射的时间选通(time gated)过滤。这种时间选通过滤还可以对减少或消除来自环境光源、高反射表面或其它噪声源的噪声贡献有用。例如,如果确定产生噪声的物体(诸如车辆尾灯、牌照等)位于距激光雷达系统100一定距离处,那么可以例如在预期来自产生噪声的物体的光反射要在传感器116处被接收时的时间窗口期间,减小放大参数值。因此,可以减少由产生噪声的物体造成的致盲效果。
在其操作期间,处理器118可以控制光源112的激活以照亮激光雷达系统100的视场。处理器118可以从传感器116接收与视场中的物体相关联的反射信号。光离开光源112与返回反射照射在传感器116上之间的时间流逝构成飞行时间。处理器118可以在飞行时间期间,更改与至少一个传感器相关联的放大参数(例如,与传感器116的一个或多个检测元件相关联或者与光接收或处理路径中的任何其它部件相关联的放大参数)。要注意的是,在一些情况下(例如,当传感器指向天空、朝着空的空间或者朝着黑色物体时),可能从场景未接收到发射光的反射。因此,激光雷达系统可以对于反射仅等待预定时间,而不是无限期地等待。在这种情况下,处理器可以在光的特定发射的传播所允许的最大等待时间内(例如,对于300米最大检测范围为2毫秒),发起对放大电平的修改。要注意的是,最大等待时间可以不时地、从脉冲到脉冲、从像素到像素等有所改变。还要注意的是,在激光雷达中,来自(例如,朝着单个像素发射的单个脉冲的)单个光发射的反射可以从不同的距离反射,并且因此可以在不同的时间到达。放大设置的修改可以(在存在多于一个飞行时间的情况下)在任何飞行时间期间发生。
放大参数值的这种选择性更改也可以具有其它潜在益处。这些可以包括例如相对于具有较长飞行时间的光反射,增加(例如,逐渐增加)检测灵敏度的能力,这可以帮助逐渐检测更远的物体或者确定相对于那些物体的距离/深度图。
如上所述,飞行时间可以与光发射离开光源112与由于该光发射从激光雷达系统的FOV中的物体、表面等反射而产生的返回反射照射在传感器116上时之间的时间流逝。飞行时间可以随着激光雷达系统100与激光雷达系统的FOV中的物体之间的距离而变化。即,随着该距离的增加,飞行时间也增加。如上所述,可以在朝着FOV发射的光的飞行时间期间,选择性地调节放大参数。例如,可以在飞行时间内的特定时间窗口期间减小或增加放大参数,这会降低或增加对与该特定时间窗口对应的距离范围内的光反射的灵敏度。此外,放大参数可以相对于飞行时间以其它方式变化。例如,在一些实施例中,放大参数可以作为从(例如,给定脉冲的)发射时间经过的时间的函数而增加。因此,随着飞行时间的增加(例如,与来自越来越远的物体的反射对应),也可以增加所应用的放大值。附加地或可替代地,可以基于预期反射脉冲到达检测器的时间,动态调节传感器的灵敏度放大率。如果预期会在特定时间或在特定时间窗口内在传感器116处接收到来自感兴趣物体的反射光,那么可以在那个时间或在那个时间窗口内增加放大参数值。相反,如果预期会在特定时间或在特定时间窗口内在传感器116处接收到来自低兴趣物体(例如,环境光源或其它噪声源)的反射光,那么可以在那个时间或在那个时间窗口内减少放大参数值。
可以在飞行时间期间以任何合适的方式更改放大参数值。在一些实施例中,处理器118可以被配置为在至少300连续纳秒的时间段内逐渐增加放大参数。在一些实施例中,处理器118可以被配置为在至少200连续纳秒的时间段内将放大电平增加至少1dB。在一些实施例中,处理器118可以被配置为在至少300连续纳秒的时间段内将放大电平增加至少4dB。
如本文所述,处理器在飞行时间期间对放大参数的修改也可以在闪光型激光雷达系统中实现,其中整个FOV被照亮并且FOV的对应图像在单个捕获周期中被传感器116捕获。如本文所述,处理器在飞行时间期间对放大参数的修改也可以在凝视阵列型激光雷达系统中实现,其中FOV被扫描图案照亮,并且反射光信号由固定传感器捕获,该固定传感器在单个捕获/扫描周期内转换整个FOV的图像。在其它实施例中,激光雷达系统100可以构成扫描系统,其中可移动的光偏转器可以用于选择性地照亮FOV的子区域并且在单个扫描周期期间顺序地捕获FOV的不同子区域的图像(例如,使用传感器116)。所描述的在飞行时间期间更改放大参数的技术可以与闪光型激光雷达系统、扫描激光雷达系统或任何其它激光雷达系统配置一起使用。并且由于可以相对于激光雷达系统100的光接收或处理路径中的任何相关部件或相对于传感器116内的任何个体检测元件或检测元件组来控制放大参数,因此可以在单个扫描周期期间应用不同的放大方案。例如,在放大方案可以指特定系统部件或特定检测元件随时间推移的放大率廓线(profile)的情况下,即使在单个扫描周期期间,不同部件和不同检测元件也可以全都与彼此不同的放大方案相关联。
此外,在扫描激光雷达系统中,处理器118可以控制至少一个光偏转器114以偏转来自至少一个光源的光以扫描视场。在此类系统中,视场的扫描模式可以包括至少两个不同的扫描方向(例如,如图2A-2C中所示)。并且处理器118可以基于当前扫描方向,动态更改与传感器116的多个检测元件中的至少一些相关联的放大参数。
根据目前描述的实施例,可以使用各种触发,在由激光雷达系统100发射的光的飞行时间期间更改放大参数。在一些情况下,此类触发可以包括在激光雷达系统100的操作期间接收的反馈。例如,可以基于与先前扫描周期(或在同一扫描周期期间发射的先前脉冲)相关联的反射信号,来确定用于任何系统部件和/或用于传感器116的一个或多个检测元件的放大参数的值。附加地或可替代地,可以基于与在同一扫描周期期间接收的另一个像素相关联的反射信号来确定包括在特定像素内的传感器116的一个或多个检测元件的放大参数的值。甚至可以基于车辆的位置信息确定放大参数值。例如,处理器可以使用确定的主车辆的位置以及地图数据,来识别潜在的环境光源和到环境光源的预测范围。作为响应,处理器118可以更改用于与预测范围对应的时间窗口的放大参数值。
在使用反馈来动态控制放大参数值的一个示例中,可以基于在FOV内发射的光,来获取相对于激光雷达系统FOV内的一个或多个物体等的距离信息。这个信息可以被用于针对一个或多个部件或检测元件生成并应用放大方案。例如,如果在距激光雷达系统100的60米的距离处检测到车辆尾灯(例如,如图10的示例中所示),那么与收集来自FOV的、包括检测到的尾灯的区域的反射光的一个或多个检测元件相关联的放大参数值可以减小,以减少或消除在相关时间窗口(例如,从发射起370到430纳秒之间)由于检测到的尾灯的照明而致盲的风险。值得注意的是,不需要无限地减小一个或多个检测元件的放大参数值。而是,放大参数值的减小可以选择性地仅应用于飞行时间的范围(例如,窄范围),该飞行时间的范围包括预期来自尾灯的光反射的飞行时间(即,与大约400ns对应的飞行时间)。
另外,用于特定系统部件和/或用于特定检测元件的放大方案可以表现出任何合适的放大率廓线。例如,在一些时间范围期间,特定的放大方案可以包括设置为最小值(例如,零)的放大值。在其它时间段中,放大值可以维持在合适的恒定水平。并且在其它时间段中,放大率可以变化,例如,根据相对于时间的任何合适的函数(例如,线性增加、线性减小、指数增加、指数减小、逐步增加、逐步减小、周期性变化等)。在一些实施例中,飞行时间的第一部分可以与第一放大值相关联,并且处理器118可以在飞行时间的第一部分之后的飞行时间的第二部分期间引起放大值的增加。在一些情况下,在飞行时间的第一部分期间,放大值可以基本上等于零。此外,飞行时间的第一部分可以在离开至少一个光源的光已经从该至少一个光源行进至少5米(或任何其它预定距离或等效时间,诸如7米、16米等)之后开始。并且飞行时间的第二部分可以基本上在飞行时间的第一部分结束时开始,或者可以在介于中间的(intervening)时间窗口之后开始。
如所指出的,可以在提供给激光雷达系统的环境的光的飞行时间内,独立地控制与个体检测元件或检测元件组相关联的放大值。例如,在一些实施例中,可以将不同组的检测元件指派给不同的像素,并且可以独立地调节每个像素和其中的对应检测元件组的放大参数。例如,对于从激光雷达系统附近的FOV中的物体收集光的像素,可以在与和近处物体相关联的飞行时间对应的时间窗口期间,为该像素中的检测元件指派低放大值。但是,在那些时间窗口之外,可以增加该像素内的检测元件的放大值。除了控制检测元件放大电平之外,处理器118还可以控制检测元件到像素的分配。例如,处理器118可以将不同组的检测元件指派给与传感器116相关联的不同像素,使得与位于距激光雷达系统第一距离处的第一物体相关联的第一像素被指派比与第二物体相关联的第二像素更少的检测元件,其中第二物体位于距激光雷达系统大于第一距离的第二距离处。
如前所述,在一些情况下,可以设置放大参数值,使得内部反射的光(例如,具有非常短的飞行时间的光)被高度衰减或不被检测到。但是,在其它情况下,内部反射光的低放大率检测可以是有用的,诸如在系统的校准中、用于检测内部阻挡等。例如,内部反射可以用于确定与传感器116相关联的不同像素之间的平移系数并基于结果改变检测器参数/放大率。例如,可以被控制的参数之一是定时(例如,因为确切的发射定时是未知的,所以,如果一个像素相对于其它像素是迟的,那么可以调节迟的像素的定时)。
要注意的是,处理器118在飞行期间对放大电平的修改可以与激光雷达系统的操作参数的其它修改一起执行。例如,处理器118可以控制放大电平的修改(在光的飞行时间期间,或在其他期间)连同控制将检测元件分组到不同像素中,连同修改发射到FOV的不同部分的照明水平,等等。尤其是,处理器118可以控制FOV的ROI中的放大电平的修改(在光的飞行时间期间,或在其他期间)连同控制将检测元件分组到ROI中的不同像素中,连同修改发射到ROI的照明水平,等等。激光雷达系统的操作参数的这种并行修改可以由处理器118执行以实现协同效果、在不同的考虑因素(例如,功率要求相对于检测要求)之间平衡,或者出于任何其它原因。
图10是图示可以如何使用所描述的时间依赖放大技术来减少或消除传感器致盲的影响的一个示例的图。如图所示,激光雷达系统100可以包括在主车辆(例如,自主或半自主车辆)上,并且可以安装在任何合适的位置,诸如安装在车辆1002的前保险杠附近。如图所示,车辆1002在平坦道路1004上行驶并且在另一个车辆1006后面行驶。激光雷达系统100可以向由锥体1008内的区域表示的激光雷达FOV发射光脉冲。
如前所述,可以针对光接收或处理路径中的任何相关部件或针对与传感器116相关联的一个或多个检测元件实现放大方案。图1010图示了一种这样的放大方案的示例,并且示出了放大率可以如何随时间变化(例如,在朝着FOV投射的至少一个光发射的飞行时间内)。
如图1010中所示,在与靠近激光雷达系统100的距离范围对应的时间窗口内,可以将放大率设置为低值(例如,如图1010的区段1012所示的零)。如上所述,具有短飞行时间的光(例如,在大约0到几纳秒、几十纳秒等的范围内检测到的反射光)可以由从激光雷达系统100的一个或多个部件而不是从系统的环境中的物体反射的光产生。如图1010的区段1012中所示,可以将这个时间窗口内的放大率设置为零或接近零,以减少可以通过对内部反射光的检测而生成的噪声。在距激光雷达系统100预定距离处(例如,5、10、25米或更多),放大率可以从零增加到适于生成附近物体的深度图的放大电平,该附近物体由于它们紧密靠近传感器116而倾向于生成入射在传感器116上的显著水平的反射光。
如图1010中所示,然后可以逐渐增加放大电平直到达到区段1016。这种逐渐增加可以增加对具有较长飞行时间的光脉冲的灵敏度,该具有较长飞行时间的光脉冲在激光雷达系统100与它们从其反射的FOV中的物体之间已行进较长的距离,并且因此相对于具有较短飞行时间的光脉冲可以是被衰减的。随着距光源的距离增加,对应的放大率增加可以应对(account for)由于光行进较长距离(例如,由于来自目标的反射角、由于吸收等)而损失的能量。
在这个示例中,激光雷达系统100可以检测车辆1006上被照明的尾灯1014。作为环境光源,尾灯1014可以造成不希望的干扰。为了减少由尾灯1014产生的噪声,处理器118可以在与对于从激光雷达系统100行进到尾灯并返回的光所预期的预期飞行时间范围对应的时间窗内,降低放大电平。图1010的区段1016示出了在这个时间窗口期间放大电平的降低。放大率的这种降低可以应用于传感器116中的一个或多个检测元件。虽然图1010描绘了放大率与时间之间的总体线性相关,但是在一些实施例中,该关系可以是非线性的。
图11图示了激光雷达系统100如何可以实现时间依赖放大以随时间推移控制检测器的灵敏度的附加示例。激光功率图1102指示在t1和t2之间的时间段内从光源发射了脉冲。在发射该脉冲的时间期间,可以如检测器偏置图1104中所示的那样减小检测器偏置,使得检测器灵敏度降低以避免在脉冲发射期间感测内部反射。在这个示例中,第一示例性放大图1106a和第二示例性放大图1106b中的灵敏度从t1到t2均为零。因为也可以在脉冲发射之后接收到内部反射,所以检测器偏置可以保持在低水平直到t3,以确保不检测到内部反射。
在t3处,检测器偏置可以在接收到初始脉冲反射时增加。如前面所讨论的,可以增加灵敏度以便与反射信号的能量对应。在t4到达检测器的光子可以比在t6到达检测器的光子具有更大的能量,这意味着可能需要更少的信号放大或更低的灵敏度来以短飞行时间检测这些光子。图1106a是作为飞行时间的函数的信号放大率的示例,没有参考图10所描述的选通。在一些实施例中,检测器偏置以及因此信号放大率可以在t6增加至最大放大率。
图1106b表示作为时间的函数的放大率的另一个示例,在t4和t5之间具有选通。在这个示例中,例如,反射表面可以位于视场中,从而以高强度将发射的脉冲反射回检测器。在这里,当预期高强度光子到达检测器时,对于所示的t4和t5之间的时间窗口,放大率可以减小到零。
图1106c表示随时间改变检测灵敏度的另一个示例。如图所示,不存在廓线的、放大率作为时间的函数逐渐改变的区段。但是,存在两个时间选通:一个在时间t1和t3之间,另一个在时间t4和t5之间。在这个示例中,例如,反射表面可以位于视场中,从而以高强度将发射的脉冲反射回检测器。在这里,对于所示的t1和t3之间的时间窗口以及在时间t4和t5之间的另一个时间窗口,当预期高强度光子到达检测器时,放大率可以减小到零或减小到较低水平(如图所示)。如图所示,在时间窗口期间应用的较低放大电平在可用时间窗口中不需要具有相同的值,而是可以包括不同的值,如图所示。
图12是用于在激光雷达系统的选项期间动态控制检测器或传感器的灵敏度的示例性处理1200的流程图。最初,可以从一个或多个光源(例如,光源112)发射光以照亮视场的至少一部分(步骤1202)。在一些实施例中,系统可以控制一个或多个光偏转器以偏转来自光源的光,以便以包括两个或更多个方向的扫描模式扫描该视场。该方法还可以包括从至少一个传感器接收与视场中的物体相关联的反射信号,其中,光离开至少一个光源与反射照射在至少一个传感器上之间的时间流逝构成飞行时间(步骤1204)。在发射光的飞行时间期间,系统可以更改与一个或多个检测器或传感器相关联或者与一个或多个检测/接收路径相关联的一个或多个放大参数(步骤1206)。如所指出的,传感器116可以包括多个检测元件,并且更改放大参数可以包括更改与至少一个检测元件相关联的至少一个放大参数。放大电平的更改可以包括增加放大率,作为飞行时间的函数。放大电平的更改还可以包括不同地(并发地和非并发地)更改不同检测元件的放大电平,以及不同地(并发地和非并发地)更改接收路径的不同部件的放大电平。
在操作期间,处理器118可以获得至少一个有缺陷的检测元件的标识。作为响应,处理器118可以动态更改与传感器116的多个检测元件的子集相关联的至少一个放大参数,使得至少一个缺陷检测元件的增益基本上低于传感器116的其它检测元件的增益。
在激光雷达系统中的检测之间改变检测灵敏度
如前所述,激光雷达系统(例如,系统100)可以包括至少一个处理器,例如处理器118。处理器可以激活一个或多个光源,例如光源112,以朝着视场的一部分发射光。激光雷达系统可以基于接收到的来自从激光雷达系统发射的光的反射,来确定关于其周围环境的信息。例如,由传感器(例如,传感器116)接收和记录的反射可以使得能够确定信息,诸如例如相对于物体、物体表面、物体的部分、路面或者在环境中经历的任何其它特征的距离信息。
由于激光雷达是基于光的技术,因此激光雷达系统可能易受外部光源、激光雷达系统的环境中物体的反射特性等的影响。例如,激光雷达系统可能易受噪声和/或其它干扰的影响,其例如来自环境光源(路灯、尾灯、前灯、太阳眩光等)。噪声和其它干扰可以使检测和/或深度制图变得困难(例如,由于对信噪比有负面影响)。此外,激光雷达系统的一个或多个传感器可以被光源和/或高反射表面(反射道路标志、玻璃、水面、牌照、近距离物体等)致盲。这些光源和高反射表面可以或者通过高反射或者从发射的光生成到传感器的大的光输入,这两者都会导致传感器的饱和,即,传感器致盲。
为了减少或防止信号噪声和/或致盲的不希望的影响,以及其它干扰和其它限制因素,处理器可以动态地调节激光雷达系统传感器的一个或多个操作特点。可以基于已知或观察到的信息进行这种调节。例如,在一些实施例中,处理器118可以搜集关于激光雷达系统主机的环境的信息,并使用这个信息来调节与一个或多个传感器(诸如传感器116)相关联的参数。例如,激光雷达系统可以向其环境发射光并监视反射。例如,基于从反射获得的信息,处理器可以调节传感器灵敏度。可以跨传感器的所有检测元件均匀地进行灵敏度调节。可替代地,可以跨传感器116内的个体检测元件或检测元件组应用各种不同的灵敏度水平。在一些实施例中,处理器118可以在激光雷达系统FOV的当前扫描期间或在激光雷达系统FOV的扫描之间,调节某些个体检测元件或检测元件组的传感器灵敏度。这种调节可以基于在传感器116的各个区域处从激光雷达系统的环境接收的观察到的光水平。这种调节还可以基于任何其它合适类型的信息(例如,GPS位置信息、主车辆导航指令、FOV内已知的或确定的感兴趣区域等)。
在一些实施例中,传感器可以包括分立的检测元件,包括例如PIN二极管、SPAD、APD、其它类型的光电二极管或其它光敏设备等。处理器118可以使用任何合适的技术来控制检测元件的灵敏度。在一些实施例中,可以通过改变与检测元件相关联的增益电平(例如,放大电平等)来调节检测元件的灵敏度。
如上所述,处理器118可以在传感器的不同区域中不同地调节检测元件灵敏度。可以知道或者可以观察到激光雷达系统FOV的某些区域包括高反射物体/表面和/或被确定为包括外部光源的区域。在这种情况下,传感器116的、从FOV的这些高光区域收集光的区域可以被指定放大值,该放大值旨在降低传感器的这些区域中的个体检测元件的灵敏度。相反,可以知道或者可以观察到激光雷达系统FOV的其它区域包括低反射物体/表面和/或被确定为基本上没有外部光源的区域。在这些情况下,传感器116的、从FOV的这些低光区域收集光的区域可以被指定放大值,该放大值旨在增加传感器的这些区域中的个体检测元件的灵敏度。通过降低传感器的某些区域中的灵敏度,可以减少或消除饱和和/或致盲的影响。
处理器118可以访问各种类型的控制,用于更改传感器116的某些区域可得到的光量或者用于改变传感器的某些区域中的检测元件的灵敏度水平。例如,如上所述,可以通过调节与对应检测元件相关联的增益电平,来增加或减少与传感器116内的一个或多个光检测元件相关联的灵敏度。与一个或多个附加设备相关联的放大/增益电平也可以用于改变传感器116或传感器116的某些区域的灵敏度。例如,在一些实施例中,可以通过更改与沿着光接收/处理路径的任何点处的一个或多个部件(例如,模拟放大器、模数转换器(ADC)、时间-数字转换器(TDC)、数字放大器等)相关联的一个或多个放大参数,来控制传感器116的灵敏度。
在另一个示例中,可以通过控制允许到达传感器116或传感器116的某些区域的光量来控制传感器116的响应。例如,可以采用一个或多个可控过滤器或快门来控制被允许到达传感器116或传感器116的某些区域、来自激光雷达系统的环境的光量。
可以在激光雷达系统100的操作期间的任何时间,执行影响传感器116或传感器116的区域的放大率和/或灵敏度的参数的控制。例如,在一些实施例中,可以在激光雷达系统FOV的当前扫描期间(例如,在完成正在进行的扫描之前)发起这种控制。例如,如图4B所示,激光雷达系统FOV 412的扫描可以涉及使用可移动的光偏转器114将光发射(例如,一个或多个光脉冲)引导到FOV 412的某些区域并收集来自这些区域的光反射。例如,偏转器114的瞬时位置可以使得能够将光朝着第二FOV 414引导并且从FOV 414收集反射光。如图所示,FOV 414是完整FOV 412的子区域。如图所示,传感器116可以在对完整FOV 412扫描期间,根据从输送到FOV 412的每个子区域的一个或多个光脉冲(例如,在偏转器114的每个不同瞬时位置)接收的反射来生成图像。如进一步指出的,可以在FOV 412的扫描期间改变传感器116内的一个或多个检测元件的灵敏度水平。例如,传感器116的检测元件(例如,检测元件的5×4布置)可以在光脉冲被输送到FOV 414时各自被指派唯一的放大值。因此,可以根据这些指派的放大值来处理从FOV 414收集的光反射。在收集从FOV 414反射的光期间,每个检测元件可以具有不同的放大设置。可替代地,在收集从FOV 414反射的光期间,检测元件组或所有可用的检测元件可以具有相同的放大设置。在收集来自FOV 412的下一个子区域(例如,刚好在FOV 414的左侧,如图4B中所示)的反射光之前,可以改变与传感器116的任何检测元件相关联的一个或多个放大设置。在一些实施例中,处理器118可以在去往和来自激光雷达FOV中的物体的光的飞行时间内,改变本文所述的放大率和/或光灵敏度设置或其它控制参数设置。处理器118还可以在提供给激光雷达FOV或FOV的特定部分的光脉冲之间,改变本文所述的放大率和/或光灵敏度设置或其它控制参数设置。
在其它情况下,可以在激光雷达系统FOV的扫描之间,发起影响传感器116或传感器116的区域的灵敏度的参数的控制。例如,在完成FOV 412的扫描(例如,从偏转器114的每个瞬时位置获取图像,使得从各个子区域收集的图像覆盖FOV 412)之后,处理器118可以更改与传感器116相关联的一个或多个检测元件的放大设置。可以在开始FOV 412的下一次扫描之前(例如,在收集如图4B所示的位于FOV 412的远处右上角的子区域的图像之前),执行这种更改。可选地,激光雷达系统的至少一个处理器可以输出点云(或激光雷达系统的环境的其它3D模型),其中每个点云可以从每个检测元件的放大设置基本恒定时所收集的检测信息而生成。例如,如果激光雷达系统的传感器是覆盖整个FOV或其大部分的大的凝视阵列,那么这会是有用的。可选地,激光雷达系统的至少一个处理器可以输出点云(或激光雷达系统的环境的其它3D模型),每个点云可以从在不同检测元件的放大设置被控制器修改时所收集的检测信息而生成,该修改无论是在单个脉冲的飞行时间期间、在两个脉冲之间、还是在两个像素之间。例如,如果传感器是扫描FOV的相对小的传感器(例如,借助于移动的偏转器),那么这会是有用的。
如上面所提到的,可以存在激光雷达FOV扫描可能不包括移动的光偏转器以从激光雷达FOV的不同子区域顺序地收集反射光的情况。在一些实施例中,激光雷达系统的传感器可以用于在单个操作期间对整个激光雷达FOV成像。例如,在闪光型激光雷达系统中,可以将一个或多个光脉冲发射到激光雷达系统的FOV。在此类实施例中,响应于发射的一个或多个光脉冲,传感器可以从激光雷达系统的基本上整个FOV收集反射光。上面提到的传感器可以包括任何合适数量的检测元件(例如,数十、数百、数千、数百万或更多)以提供期望的分辨率值。在此类实施例中,激光雷达FOV的扫描可以包括激光雷达FOV的单个快照。因此,与一个或多个传感器相关联的检测元件可以在第一扫描/快照期间具有第一灵敏度水平集合。在将后续光脉冲发射到激光雷达FOV之前(或者在基于来自后续光脉冲的反射在传感器处收集反射光之前),可以改变与至少一个传感器的一个或多个检测元件相关联的一个或多个灵敏度值。参考闪光型激光雷达以及不进行扫描或以其他方式与激光雷达系统100不同的任何其它激光雷达系统,注意到关于激光雷达系统100所讨论的接收路径(其包括传感器和相关联的部件)的放大电平和/或灵敏度的修改的任何变化也可以在加以必要的变更后对其它类型(例如闪光型)的激光雷达系统实现,并且这些实现是当前公开的发明的一部分。
在操作中,激光雷达系统的至少一个处理器(例如,处理器118)可以被配置为控制至少一个光源(例如,光源112)的激活以发射指向视场(例如,图4B中的FOV 412或414)的第一光发射。至少一个处理器可以从包括具有第一放大设置的一个或多个检测元件的至少一个传感器接收与该第一光发射从视场中的一个或多个物体的一个或多个反射相关联的数据。至少一个处理器可以控制至少一个光源的激活以发射指向视场的第二光发射。在激光雷达系统的操作期间,至少一个处理器可以将与至少一个传感器(例如,至少一个传感器116)的一个或多个检测元件相关联的放大设置改变为与第一放大设置不同的第二放大设置。至少一个处理器可以从该传感器的、处于第二放大设置的一个或多个检测元件接收与该第二光发射从视场中的一个或多个物体的一个或多个反射相关联的数据。使用这种数据(例如,与接收到的反射光的各种特点相关联的电信号,包括强度、定时等),至少一个处理器(例如,处理器118)可以基于对与第一光发射的一个或多个反射相关联的数据以及与第二光发射的一个或多个反射相关联的数据的分析,来确定到视场中的物体(或者到物体的部分或表面)的距离。在一些情况下,可以基于与第一光发射的反射相关联的一个或多个观察到的特点,来确定第二放大设置。
若干因素可以单独或组合地触发传感器116的一个或多个区域中的检测元件的灵敏度的调节,或者触发对于传感器116的一个或多个区域被允许的光水平的调节。例如,在一些实施例中,处理器118可以基于诸如同一扫描周期中的一个或多个先前脉冲(无论是否在相同的瞬时方向上)的检测结果;来自先前FOV扫描周期的检测结果;FOV内感兴趣区域的定义;先前存在的关于环境照明水平、反射率水平、噪声水平等的知识;或关于不同方向上具体类型物体的可能性之类的因素,来确定放大设置。
例如,基于观察到的检测(例如,基于先前光脉冲从FOV的特定区域获取的反射)或基于预定信息(例如,FOV的区域与到那些FOV区域内的物体、表面的范围之间的已知或预期的相关性),处理器118可以改变一个或多个控制设置以改变检测元件的灵敏度和/或控制到达传感器116的光。在具体示例中,到FOV中的物体的较短距离可以有利于将较低的灵敏度值用于检测,以便避免由于到达传感器的大量反射光子引起的致盲。但是,随着范围增加,可以增加相关检测元件的放大率或者可以控制过滤器等以允许更高的反射光通量到达传感器。可以基于先前的检测结果、基于GPS信息、地图、SLAM信息(SLAM代表同时定位和地图构建)等,来评估到FOV的不同部分中的物体的距离。
还可以基于观察到的或预期的、与激光雷达系统主机的环境中的物体和/或表面相关联的反射率水平,来调节放大率(例如,通过改变灵敏度或光透射,如上面所讨论的)。灵敏度的调节可以基于观察到的或预测的反射率水平(例如,具有低反射率的FOV的区域中的更高灵敏度和具有更高反射率的FOV的区域中的更低灵敏度)。
还可以基于观察到的或预测的环境光水平,来执行放大率的调节(例如,具有低环境光的FOV的区域中的更高灵敏度和具有更高环境光水平的FOV的区域中的更低灵敏度)。高反射率水平和/或非常明亮的环境光可以触发处理器降低一个或多个检测元件的放大率,或者甚至使一个或多个检测元件的增益为零。类似地,检测到的低反射率水平和/或暗的环境光可以触发处理器增加传感器的一个或多个检测元件的放大率。一般而言,灵敏度水平可以相对于观察到的反射率和/或环境光基本上相反地变化。例如,在一些实施例中,激光雷达系统可以检测系统的FOV中的具体环境光源,并且可以向下调节与传感器116中的、在从检测到的环境光源收集光的传感器区域中的一个或多个检测元件相关联的放大电平。在一些示例中,处理器118可以确定FOV的某些区域中车辆尾灯或车辆前灯的存在,并且可以降低从FOV的那些区域收集光的一个或多个检测元件的灵敏度。可以基于检测到的路灯、交通信号灯、建筑物灯或任何其它环境光源进行类似的调节。
处理器118还可以基于激光雷达系统100的FOV中感兴趣区域(ROI)的建立,引起传感器116的一个或多个区域中的检测元件的灵敏度的调节或对于传感器116的一个或多个区域被允许的光水平的调节。例如,可以在FOV的存在有物体、表面等的、对其信息收集可能比FOV的至少一个其它区域更重要的任何区域中建立ROI。例如,激光雷达系统100可以检测车辆、行人、道路中的碎片、道路中的物体、道路边缘处的障碍物、交通信号灯、障碍物或激光雷达系统主机的环境中的任何其它类型的物体。进而,处理器118可以建立FOV的、其中这些物体或表面先前被检测到或者以其他方式预期会出现的区域,作为ROI。因此,处理器118可以增加与传感器116中的收集从ROI反射的光的一个或多个检测元件相关联的放大率或灵敏度水平。还可以基于其它考虑来定义ROI,诸如在那些区域中的检测的重要性(例如,在车辆前方相对于从车辆侧方)、对车辆的其它类型的传感器的补偿等。
还可以基于位置信息,调节检测器元件灵敏度(例如,可以与放大率互换使用的术语)。基于地图数据、导航指令和/或GPS传感器输出等,处理器118可以调节检测元件灵敏度。例如,除了检测环境光源(诸如路灯、交通信号灯、建筑物等)之外,还可以基于位置信息来预测这种固定光源会在FOV内的某些区域处出现。因而,即使在没有确认检测到这种光源的情况下,也可以调节检测元件的灵敏度。即,在预期与基于导航指令和地图数据等确定的即将到来的环境相关联的特征时,可以更改一个或多个检测元件的灵敏度。
可以通过基于反射脉冲的预期强度调谐检测器的一个或多个检测元件的放大参数,来克服传感器的致盲。放大参数可以包括例如与传感器116的检测元件相关联的放大率、增益等。可以为某些检测元件指派包括放大参数或放大参数序列的放大设置。如前所述,每个检测器(例如,传感器116)可以包括一个或多个检测元件(例如,检测元件402),并且这些检测元件可以被分配到与传感器116相关联的一个或多个像素中。在一些实施例中,可以将不同组的检测元件指派给不同的像素,使得与特定像素对应的检测元件的放大参数可以全部类似地被调节。如上面所讨论的,检测元件的分组可以由处理器不时地修改,并且可以可选地根据这种分组修改来修改检测元件(和/或相关联的接收路径)的放大电平。
目前公开的调节检测元件灵敏度的技术在其它情况下也是有用的。例如,处理器118可以检测传感器116中的一个或多个有缺陷的检测元件的存在(例如,提供显著偏离相邻或周围检测元件的信号电平的反射信号的检测元件)。在此类情况下,处理器118可以通过降低与怀疑是有缺陷的一个或多个检测元件相关联的放大率来进行响应。
如前所述,每个检测元件的放大参数可以经由被应用到检测元件的增益或者由沿着反射光接收或处理路径的任何部件(诸如:模拟放大器、模数转换器、数字放大器等)所应用的增益来控制。应当注意的是,增益不需要为非零。在一些情况下,增益的减小可以导致将零增益应用于一个或多个检测元件或其它部件,使得从传感器116的相关检测元件或区域不能获得可感知的信号。
图13是图示可以如何基于遇到的环境的特征来调节传感器灵敏度的示例的图。激光雷达系统(诸如激光雷达系统100)可以具有视场1300,其可以包含各种物体,诸如树1310、车辆1302、路缘、路面等。此外,车辆1302可以包括反射性的并且可能被照亮的尾灯1304和高度反射的牌照1306。在操作期间,处理器118可以响应于FOV的不同特征而调节从FOV 1300的各个区域收集光的检测元件的灵敏度。例如,一般而言,因为靠近激光雷达系统的物体或表面可以提供比远处物体等更高水平的反射光,所以处理器118可以降低从包括近范围物体或表面的FOV区域收集光的检测元件的放大率。处理器118可以逐渐增加从包括更远距离物体的FOV区域收集光的检测元件的放大率。图13中的水平线表示这种逐渐增加,例如,通过表示随着到FOV中的物体的距离增加或预期增加的几个放大等级。
一旦检测到车辆1302,处理器118就可以将FOV 1300的区域(例如,区域1308)指定为ROI。虽然可以检测到树1310,但是它可以不被指定为ROI,因为它可以被识别为静止物体并且不存在于道路中。因此,对于收集从树1310的区域中的FOV反射的光的检测元件,可以不需要灵敏度改变。此外,甚至可以减小这个区域1310中的灵敏度。在一些情况下,与从ROI收集光的检测元件相关联的放大值可以增加超过缺省水平。另一方面,可以存在这样的情况:与从ROI收集光的检测元件相关联的放大值可以不被增加,而是可以维持在缺省水平或者甚至相对于缺省水平降低。此类情况可以包括例如ROI中存在的一个或多个物体靠近激光雷达系统或者表现出高反射率值。在这些情况下,检测元件灵敏度的增加可以导致受检测影响的元件的不期望的致盲或饱和。可以证明ROI和检测元件放大率/灵敏度的潜在增加是合理的其它物体可以包括沿着道路两侧的路缘、道路中检测到的任何碎片或障碍物、在道路中或沿着人行道检测到的行人(尤其是道路附近的、比其他人更有可能进入道路的行人)、人行道等。
灵敏度调节可以基于ROI内的子区域。例如,基于尾灯1304和从那些尾灯发出的光水平的检测,处理器118可以降低从FOV的包括尾灯1304的区域收集光的检测元件的放大值(或者可以以其它方式使过滤器、快门等降低入射到相关检测元件上的反射光水平)。也可以相对于FOV的包括牌照1306的区域应用类似的处理,因为牌照在某些条件下可以反射足够的光以致盲传感器116或至少不利地影响传感器116。
要注意的是,处理器118相对于传感器的部分或整个传感器对放大电平的修改可以与激光雷达系统的操作参数的其它修改一起执行。例如,处理器118可以控制放大电平的修改(在光的飞行时间期间或以在其他期间)连同控制检测元件到不同像素中的分组,连同修改发射到FOV的不同部分的照明水平,等等。尤其是,处理器118可以控制FOV的ROI中的放大电平的修改(在光的飞行时间期间或在其他期间)连同控制检测元件到ROI中的不同像素中的分组,连同修改发射到ROI的照明水平,等等。激光雷达系统的操作参数的这种并行修改可以由处理器118执行以实现协同效应、以在不同考虑因素(例如,功率要求相对于检测要求)之间平衡或者出于任何其它原因。
上述方法,特别是关于图13的示例,适用于扫描激光雷达系统,其中传感器116在各个时间与FOV 1300的子区域重叠,以便扫描整个FOV。这些描述的方法也适用于闪光型激光雷达系统,其中使传感器116用每个发射的光脉冲对FOV的较大部分或甚至整个FOV 1300成像。
图14示出了检测器的检测元件1402的示例性布置(例如,在闪光型或凝视系统中),其可以在闪光型激光雷达系统中适用。当然,关于图14中所示的示例讨论的类似原理也适用于扫描型激光雷达系统(例如,检测器116,其n×m检测元件阵列顺序地收集来自图14的FOV的不同子区域的反射光,以便完成FOV的全扫描)。主要区别在于扫描型系统中的检测元件阵列可以用于在扫描完整FOV时对完整FOV的每个单独成像的子区域进行成像(例如,如图4B中所示的技术)。返回图14,检测器可以具有被布置成覆盖FOV(例如,FOV 1400)的不同区域的多个检测元件1402。为了图的清晰并且仅作为示例,6×8检测元件的矩阵图示了不同的检测元件和FOV的不同区域。实际上,检测器可以具有更多的检测元件。检测元件1402的矩阵与FOV对应,使得每个检测元件接收来自FOV 1400的相关联部分的反射。在FOV的初始扫描中(例如,使用提供给FOV的入射光的一个或多个脉冲的FOV的初始闪光),每个检测元件可以具有初始放大设置。在初始扫描周期之后,基于传感器116在每个可用检测元件处接收到的反射信号,处理器118可以更改与传感器中的一个或多个检测元件1402相关联的放大电平。
在FOV的后续扫描中,基于从FOV接收的反射信号,一个或多个检测元件1402可以各自具有与先前扫描不同的放大电平。例如,可以降低映射到包含尾灯的区域的检测元件(元件(D,4),(D,5),(D,6)和(D,7))的放大率,作为对于对从那些区域发射的光的先前检测的响应。此外,从FOV 1400的底部向顶部移动(在图14中的垂直方向上),可以逐渐增加检测元件的放大率,例如,以便应对到达传感器的入射光的光子数量的减少。
图15是用于确定到激光雷达系统的视场中的一个或多个物体的距离的示例性处理1500的流程图。最初,可以激活光源(例如,光源112)以朝着视场发射第一光发射(例如,光脉冲)(步骤1502)。在一些实施例中,第一光发射可以是一个或多个光脉冲。在一些实施例中,系统可以控制一个或多个光偏转器以偏转来自光源的光,以便以包括两个或更多个方向的扫描模式扫描视场。
第一光发射可以被视场中的物体反射。处理器118可以从一个或多个传感器接收与来自视场中的物体的反射相关联的数据(步骤1504)。随后,可以激活光源以朝着视场发射第二光发射(步骤1506)。在一些实施例中,可以在同一个扫描周期期间发射第一光发射和第二光发射。在其它实施例中,第一光发射和第二光发射在分开的扫描周期中发射。在一些实施例中,第二光发射可以是一个或多个光脉冲。在一些实施例中,第一和第二光脉冲可以指向视场的不同部分。在其它实施例中,第一光发射和第二光发射可以指向视场的相同区域(可能在同一次扫描内,同时激光雷达系统的可移动偏转器处于基本相同的瞬时位置,但不一定如此)。
在一些实施例中,第二光发射包括比第一光发射更多的光脉冲,或者反过来。除了增加传感器的放大率之外,处理器还可以通过增加到某些区域的脉冲数量来增加到FOV的那个区域的光。可替代地,除了增加传感器的放大率之外,处理器还可以减少到FOV的某些区域的光(例如,放大率的增加可以部分地补偿照明水平的降低)。在其它实施例中,第一光发射和第二光发射可以是连续光发射的不同片段,该连续光发射可以被调制。处理器可以控制光源的激活,使得第一光发射与光源参数相关联,并且第二光发射与不同的光源参数相关联。光源参数可以包括光通量、光强度、功率水平、光脉冲数等。
在接收到第一反射之后,可以更改(例如,增加或减少)一个或多个传感器的放大设置(步骤1508)。在一些实施例中,可以基于第一光发射的反射数据来调节放大设置。例如,放大设置可以被配置为增加或减小传感器灵敏度。处理器可以更改传感器中包括的检测元件的子集的放大设置。在一些实施例中,基于在步骤1504中接收到的数据,光源可以不发射第二光发射。
第二光发射可以被视场中的另一个物体或同一个物体反射。一个或多个传感器可以接收与该第二光发射从视场中的物体的反射相关联的数据(步骤1510)。基于接收到的反射数据,处理器可以确定从激光雷达系统到检测到的物体的距离(步骤1512)。例如,如果在视场中检测到两个物体,那么处理器可以通过使用第一放大设置和第二放大设置处理从视场的不同部分接收的数据,来确定到物体的两个不同距离。在另一个示例中,可以在视场中检测到两个物体,并且处理器可以通过使用第一放大设置和第二放大设置处理从视场的同一部分接收的数据,来确定到物体的两个不同距离。例如,处理器可以基于每个光发射的飞行时间来计算距离。
光学预算分摊
如本文所述,激光雷达系统的一个功能可以是通过将光投射到环境、然后收集并分析来自环境中的物体的光反射,来生成激光雷达系统的周围环境的三维深度图。一般而言,激光雷达系统及其深度图的有用性可以随着可以从所收集的光获知的信息水平以及随着所生成的深度图的分辨率而增加。但是,可能存在实际限制,其可能阻止仅通过增加由激光雷达系统发射到环境的光能而生成更高分辨率的深度图。首先,眼睛安全是可能限制可以由激光雷达输出的光能的量的主要约束。为了确保眼睛安全并为了符合适用的规定,激光雷达系统可以被限于在某个时间段内不超过某个能量密度的光投射。而且,即使眼睛安全不是问题,也会存在禁止对激光雷达的环境进行未减轻的光发射的其它实际限制。例如,激光雷达系统可以具有有限的光学预算和/或计算预算,这会限制激光雷达系统仅通过对激光雷达FOV的光发射的无限制增加而增加检测分辨率的能力。从概念上讲,光学预算和计算预算可以在可用光输出功率和计算能力方面,反映出激光雷达系统在特定时间段内的最大能力。激光雷达系统还可以受到技术限制的约束,诸如功率限制、过热、光源的输出等等。
但是,并不是说由激光雷达系统生成的深度图必须在激光雷达FOV的所有区域上被限制到绝对的分辨率水平。而是,如下面和贯穿本公开的各个部分所讨论的,激光雷达系统的光学预算和计算预算可以以这样一种方式分摊:更多资源(例如,光学预算和/或计算预算中更多的)可以专用于激光雷达FOV的某些区域,而不是激光雷达FOV的其它区域。因此,可以能够生成在一些区域(例如,与感兴趣区域对应的区域)中具有高分辨率、并且在其它区域(例如,较低兴趣或不感兴趣区域)中具有较低分辨率的相应深度图。下面和贯穿本公开的许多部分的描述解决了光学预算和/或计算预算的非均匀分摊在其中可以是期望的各种场景、条件、情景等等。下面和贯穿全文的描述还提供了如何可以动态分配可用光学预算和/或计算预算,以便有助于生成潜在地在深度图所覆盖的一个或多个感兴趣区域中提供增加的信息水平的深度图的示例。
图16提供了激光雷达系统100以及激光雷达系统100在分摊可用光学预算和/或计算预算时可依赖的各种信息源的框图表示。在一些实施例中,激光雷达系统100可以包括至少一个处理器118,该处理器118被配置为访问存储在存储器2902中的光学预算(或指示光学预算的至少一方面或者可以从其导出或确定光学预算的任何信息),光学预算与至少一个光源112相关联并且定义在预定时间段内由至少一个光源可发射的光量。存储器2902可以与激光雷达系统100的处理单元108相关联,如图16中所示。但是,在一些实施例中,存储器2902可以与激光雷达系统100部署在其上的主机(例如,车辆、车辆-计算机)相关联。例如,在一些情况下,存储器2902可以与主车辆的电子控制单元2904相关联,并且可以由处理器118通过数据总线2900可访问。在其它实施例中,存储器2902可以与相对于激光雷达系统100(或其主机)远程定位的一个或多个系统相关联。例如,在一些实施例中,存储器2902可以与远程服务器(未示出)相关联,并且可以例如经由云2916(例如,因特网连接)或使用无线收发器2901来访问。
处理器118还可以被配置为接收指示激光雷达系统的平台条件的信息(例如,来自任何信息源2904、2906、2908、2910、2912、2914、2916、2918、2920,或来自任何其它合适的信息源)。激光雷达系统的平台条件可以指与激光雷达系统的一个或多个方面、激光雷达系统周围的环境、其上部署有激光雷达系统的主机相关的任何操作参数、参数值、观察到的条件、指令、信息项等等,这些信息可以证明在特定时间段内向至少一组激光雷达FOV部分或者在一个扫描周期中分配比向另一组激光雷达FOV部分或在另一个扫描周期中提供的更多的光是合理的。
虽然可以从激光雷达系统100外部的一个或多个源获得接收的信息,但是指示激光雷达系统的平台条件的信息还可以包括从系统100内部的源获得的信息(例如,经由系统一个或多个部件,包括:光投射器112、偏转器114、检测器116、反馈元件等等)。基于接收到的信息,处理器118可以使用例如与光源112和/或偏转器114相关联的两个或更多个操作参数,将光学预算动态地分摊到激光雷达系统100的视场,其中操作参数包括例如扫描速率、扫描模式、扫描角度、空间光分布和/或时间光分布。处理器118还可以根据动态分摊的光学预算来输出信号,用于以使得光通量能够在扫描激光雷达系统100的视场时变化的方式来控制光源112和/或偏转器114。
可以相对于与在某个时间段内可以发射到激光雷达FOV的光量相关的任何参数、值或者参数集或值集,来表达光学预算(例如,就激光雷达扫描周期而言;时间测量以毫秒、秒等等为单位,或者时间段的任何其它指示符)。在一些实施例中,激光雷达系统的光学预算可以取决于激光雷达系统中包括的一个或多个光源的能力。例如,激光雷达系统100的光学预算可以与光源112相关联,并且可以定义光源112在预定时间段内可发射的光量。定义光量可以指指示相对于某个时间测量(例如,微秒、毫秒、秒、分钟等等)的光量(例如,功率、发光度、光通量、强度、光子数量、光脉冲数量、占空比、脉冲宽度、脉冲振幅、照明持续时间等等)的任何参数或参数关系。
在一些情况下,对于光源112的平均光学预算可以在大约10毫瓦至1000毫瓦之间。附加地或可替代地,光学预算可以参考在激光雷达FOV的单个扫描周期中可发射的光量。例如,用于激光雷达系统100的光学预算可以在每光源每扫描周期10000个脉冲至每光源每扫描周期50000个脉冲(例如,用于覆盖1000-10000个光束位置,每个光束位置与一个或多个像素相关联)。在一些实施例中,可以在可供光源112使用的功率(例如,来自其上部署有激光雷达系统100的车辆或其它主机)的方面,来表达光学预算。光学预算还可以由在标准时间单位(例如,毫秒、秒、分钟等等)内由光源112(或系统100的任何可用光源)可发射的光量来定义。
在一些情况下,光学预算可以保持固定。在其它情况下,可以修改和更新存储在存储器2902中的光学预算。例如,基于激光雷达系统的操作参数和由激光雷达系统提供的检测信息中的至少一个,可以发生这种修改。
此外,在一些实施例中,光学预算可以仅与具有单个光源的单个激光雷达系统对应。在其它情况下,光学预算可以指包括多个光源的单个激光雷达系统。在其它情况下,光学预算可以应用于部署在不同位置处(例如,在车辆周围的不同位置处)的多个激光雷达系统,每个激光雷达系统包括单个光源或多个光源。在任何情况下,光学预算都可以定义在预定时间段内可用于从多个光源(或总体上多个激光雷达系统)分摊的可发射光量。处理器118可以动态地分摊单个激光雷达系统/光源的光学预算。在其它情况下,处理器118可以动态地分摊与多个光源/激光雷达系统相关联的光学预算。
除了光学预算之外,激光雷达系统100(或多个激光雷达系统的组合)可以具有可以被分摊的计算预算。计算预算一般可以指在特定时间段内一个或多个激光雷达系统的处理能力。处理能力可以取决于可用处理器的数量(例如,用于控制激光雷达系统的各个方面,用于接收和处理检测到的反射,用于生成深度图,用于处理深度图以便检测物体及其它更高级和场景理解信息,以及用于执行与激光雷达系统或一组激光雷达系统相关联的任何其它功能)。处理能力可以不仅取决于可用处理器的数量,而且还可以取决于其它参数,诸如:一个或多个处理器的处理能力的专用于激光雷达系统的某些功能(例如,深度图的生成、控制FOV的扫描、物体检测、识别和/或分类等等)的部分、一个或多个可用处理器的处理速度、数据传送速率(例如,跨总线2900)、每单位时间可以由一个或多个可用处理器执行的计算次数等等。
虽然以下描述包括与光学预算的分摊相关的细节,但是可以以与相对于光学预算分摊所描述的方式类似的方式来分摊计算预算。例如,在一些情况下,计算预算可以涉及可用于处理点云以便确定激光雷达已经检测到什么的计算资源量。在一些情况下,与点云相关的处理可以要求大量的计算资源——有限的资源。因此,在一些情况下,可以期望确定:对于处理相关联的点云,某些区域是否可能比其它区域具有更高的兴趣/重要性。例如,许多可用的处理能力可以专用于处理点云并生成车辆前方区域的深度图,因为那个区域可能最重要,尤其是对于前进的小汽车。另一方面,虽然仍然很重要,但是在一些情况下,在从车辆侧面延伸的视场中发生的检测可能没有车辆前方那么重要(除非例如车辆正在转弯、停驻等等)。在这种情况下,即使激光雷达已经从距主车辆130米远的高反射率物体反射的反射信号检测到成组的检测,处理器118也可以决定仅处理直到距车辆40米距离(或小于130米的某个距离)的相关联的点云,以节省计算预算(例如,因为从计算角度来看,处理包括130m处的成组的检测的全点云可能成本太高,尤其是如果计算支出(像在此车辆侧面的示例中那样)没有被检测到的物体的重要性证明是合理的话)。
计算预算不仅可以在可用的激光雷达系统之间分摊,使得可以为一个激光雷达系统提供比另一个激光雷达系统更多的计算能力,例如,通过将一个或多个集中式处理器的计算能力更多地专用于一个激光雷达系统而不是另一个激光雷达系统。在另一个示例中,可以使两个或更多个激光雷达系统的处理器聚合/联网,并且可以分配该合计处理能力,使得来自一个激光雷达系统的处理器可以至少部分地专用于不同激光雷达系统的计算任务。例如,来自多个可用激光雷达系统的处理能力可以专用于与主车辆前方区域相关联的计算任务,该区域是可以期望高分辨率物体检测和深度制图的区域。
还可以相对于与特定激光雷达FOV相关联的计算,来分摊计算预算,使得与FOV的一部分相关联的计算任务可以比与FOV的另一部分相关联的计算任务接收更多的计算预算。可以如何分摊计算预算的一些示例包括例如:检测/聚类(来自点云点的物体级别);收紧物体的边界框(“边界框”);物体/物体类型的分类;物体的跟踪(例如,帧之间);确定物体特点(例如,尺寸、方向、速度、反射率等等)。可以用将处理能力与时间相关的术语(例如,GMAC、每秒所执行的浮点运算10亿次数(Gflops)、能力等等),来表示计算预算。要注意的是,对FOV的不同部分的预算分摊(但尤其不仅仅是计算预算)可以指3D中的FOV分割,而不仅仅是2D中。例如,可以为FOV的给定扇区(例如,给定的1°×0.5°扇区)分配计算预算:70%的计算预算被分配用于处理超过70m的范围中的检测,30%的计算预算被分配用于处理接近激光雷达小于40m的范围中的检测,并且没有为40到70m之间的范围分配计算预算。
返回到光学预算,可以以使得能够在特定时间段内选择性地向一组激光雷达FOV部分提供比另一组激光雷达FOV部分更多的光的任何方式,分摊可用的光学预算。在这个上下文中,一组激光雷达FOV部分可以指特定激光雷达FOV的一个或多个部分(例如,特定激光雷达FOV的一个或多个像素、区域、子区域等等),或者可以指一个或多个完整的激光雷达FOV(例如,光学预算可以跨多个激光雷达系统被分摊的情况)。对更多光的引用可以指:增加的光通量、增加的光密度、增加的光子数量等等,例如,如上面更详细地例示的。
在一些情况下,可以通过改变与特定激光雷达FOV相关联的扫描速率、扫描模式、扫描角度、空间光分布(例如,向一组或多组激光雷达FOV部分提供比一组或多组其它激光雷达FOV部分更多的光)、和/或时间光分布来实现光学预算的分摊。时间光分布可以涉及例如:控制或以其它方式改变随时间被施加到激光雷达FOV部分的组的光通量或光量,使得在第一扫描周期中投射的总光量高于在第二后续扫描周期中投射的总光量。在一些情况下,可以通过改变以下两个或更多个来实现光学预算的分摊:与特定激光雷达FOV或特定激光雷达FOV部分相关联的扫描速率、扫描模式、扫描角度、空间光分布或者时间光分布。可以关于多于一个激光雷达FOV、一个激光雷达FOV、激光雷达FOV的一部分(例如,感兴趣区域)、一个扫描周期、多个扫描周期等等,而进行这样的变化。
可以通过确定用于一个或多个激光雷达系统的扫描速率,来执行光学预算的动态分摊的至少一部分(例如,基于接收到的关于激光雷达系统的至少一个平台条件的反馈或其它信息,来改变或更新分摊)。例如,至少一个处理器可以被配置为确定以下当中的至少一个的扫描速率:激光雷达FOV的近场部分、视场的远场部分、视场的窄角扇区、和/或视场的广角扇区。
如上所述,还可以至少部分地通过确定用于一个或多个激光雷达系统的至少一个扫描周期的扫描模式,来完成光学分摊。可以基于对以下场景类型中的至少一个的分辨,来确定扫描模式:在高速公路上驾驶、在越野驾驶、在雨中驾驶、在雪中驾驶、在雾中驾驶、在城市地区驾驶、在农村地区驾驶、驾驶穿过隧道、在靠近预定机构的地区驾驶、左转、右转、跨车道、接近交叉点、以及接近人行横道。
光学预算分摊可以由任何合适的处理器完成。在一些情况下,激光雷达系统100的处理器118可以基于来自一个或多个源的信息,来分摊光学预算。可替代地或附加地,可以使用来自其它激光雷达系统的处理器来分摊光学预算(例如,与一组激光雷达系统相关联的光学预算),和/或可以使用与激光雷达系统主机(例如,车辆ECU等等)相关联的一个或多个处理器。任何其它可用的处理器也可以被用于分摊光学预算。
如上所述,光学预算分摊可以导致比另一组所施加的更多的光被施加到一组激光雷达FOV部分。例如,可以通过改变相对于多个光源内的第一光源的光学预算分摊与相对于多个光源内的第二光源的光学预算分摊的比率(或激光雷达检测器之间的类似比率),来实现所施加的光量的这种改变。还可以相对于不同的激光雷达FOV部分或在不同的时间,出于不同的原因,应用光学分摊。例如,在激光雷达FOV的一些部分中或在扫描周期期间的一些时间,光学分摊可以针对在特定的FOV部分中或在特定的时间段内增加分辨率、检测质量等等。在其它情形下,光学分摊可以针对增加与特定FOV部分、特定FOV子区域或特定时间段相关联的检测检测范围。一般而言,光学/功率预算可以被用于实现获取不同帧或所获取帧的不同部分的不同目标。以这种方式,激光雷达系统可以为不同的ROI提供一系列有用或高质量的帧,每个帧出于不同的原因是有用的。以这种方式,可以以被确定为高概率地将有用的信息返回到主机平台(例如,车辆的导航系统)的方式,来花费光学预算。
关于控制,可以使用任何合适的参数或信息元素,来确定是否和/或如何分摊光学预算。在一些实施例中,激光雷达系统的平台条件可以被用作光学预算分摊的基础。如上所述,激光雷达系统的平台条件可以指与激光雷达系统、激光雷达系统周围的环境、在其上部署有激光雷达系统的主机等等相关的一个或多个方面的任何操作参数、参数值、观察到的条件、指令、信息项等等,这些信息可以证明在特定时间段内向至少一组激光雷达FOV部分或者在一个扫描周期中提供比向另一组激光雷达FOV部分或在另一个扫描周期中提供的更多的光是合理的。
可以以各种方式并使用任何合适的信息源,来确定这种激光雷达系统的平台条件。在一些情况下,可以在激光雷达系统内部,确定激光雷达系统的平台条件。例如,基于所获取的光反射、反射率特征、深度图等等,处理器118可以确定与其中部署有激光雷达系统的环境相关联的一个或多个特点。在其它情况下,可以基于从与激光雷达系统100分离的一个或多个源接收的信息,来确定激光雷达系统的平台条件(PCLS)。例如,如图16中所示,可以基于来自主车辆的电子控制单元2904、一个或多个温度传感器2906、GPS接收器2908、车辆导航系统2910、雷达单元2912、一个或多个其它激光雷达系统2914、因特网或其它网络连接2916、相机2920或任何其它合适的光源当中的一个或多个的信息,来确定PCLS。
在一些情况下,指示PCLS的信息可以将激光雷达FOV的一个或多个区域建立为感兴趣区域,这些感兴趣区域可以证明:与其它区域(例如,不太感兴趣或不感兴趣区域)相比,光学预算或计算预算的更高比例是合理的。可以基于其中部署有激光雷达系统的车辆的感测到的当前驾驶模式,来识别感兴趣的区域,这可以基于信息源2904、2906、2908、2910、2912、2914、2916、2920中的任何一个的或来自激光雷达系统100的或这些的任意组合的一个或多个输出来确定。在一个示例中,基于感测到的当前驾驶模式的感兴趣区域可以包括重叠了主车辆正在转向的区域(如由导航系统2910、GPS接收器2908等等传达的)的激光雷达FOV的一个或多个部分。在另一个示例中,感兴趣区域可以与激光雷达FOV的、激光雷达系统100已经在其中检测到物体(诸如另一个车辆、行人、障碍物等等)的一个或多个部分对应。感兴趣区域以及如何识别这种区域的其它示例包括在本公开的其它部分中。
可以对其确定光学分摊(或计算预算)的、指示PCLS的信息可以包括车辆操作参数、环境条件、驾驶决策、车辆的导航状态或功率管理模式中的至少一个等等。
光学分摊(或计算预算)可以基于的、车辆操作参数或车辆的导航状态的示例可以包括:当前速度(例如,来自ECU 2904、GPS 2908)、当前车辆航向(例如,来自GPS 2908、导航系统2910)、当前制动或加速条件(例如,来自GPS 2908、ECU 2904)、主车辆是否正在导航跨车道情形(例如,来自导航系统2908、相机2920、GPS 2908等等)。车辆操作参数还可以涉及与其上部署有激光雷达系统100的车辆平台相关联的任何部件的条件或状态、或者激光雷达系统100自身的任何部件的条件或状态。这样的条件可以包括:激光雷达系统的至少一个部件的温度、FOV的一部分是否被遮挡(例如,被雨、泥、碎片等等)、镜头是否被刮伤、偏转器114是否被阻挡到达某些瞬时位置、与其它角度相比在某些角度是否存在更多的内部反射。车辆的导航状态还可以包括:主车辆相对于三维地图、部分地图、2-D地图、地标、或地图和地标的任意组合等等的位置。地图可以预先存储,经由通信信道接收,或生成(例如,由SLAM)。
环境条件的示例可以包括以下当中的至少一个:天气条件(例如,基于来自相机2920、云2916、导航系统2910的信息确定的雨、雪、雾等等);照明条件(例如,基于来自激光雷达系统100的信息确定的(环境光、光源类型等等));环境温度(例如,基于来自温度传感器2906的输出);和/或与预定义类型的机构的接近度(例如,如基于来自导航系统2910、GPS2908、相机2920等等的输入确定的学校)。光学预算(或计算预算)分摊可以基于的环境条件的附加示例可以包括天气条件、空间中检测到的物体的位置或分布(例如,相对于激光雷达系统100和/或主车辆)、空间中的物体的检测到的特点(例如,形状、反射率、影响SNR的特点)、物体的类型/分类(例如,行人、建筑物、车辆、灯柱)、太阳或其它光源的相对位置、交通状态(例如,堵车的高速公路相对于畅通的高速公路)、其它主车辆系统的状态(例如,驾驶相关的或其它传感器——在一些情况下,激光雷达系统100可以补偿失灵的相机2920)、道路本身的条件(例如,颠簸度、粗糙度、往上/往下、弯曲、其反射率)、基于地图/GPS的数据(例如,场景中的道路位置和朝向、场景中建筑物的位置和朝向(可以相对于建筑物或其它障碍物建立较低兴趣区域,因为激光雷达不会预期接收来自建筑物远侧的物体的反射)、激光雷达系统100周围的环境温度、主车辆环境的环境温度、来自先前收集的FOV帧的数据分析(例如,点云、表面的法线、反射率、置信水平等等)。一般而言,可以基于关于环境的知识,来分配光学/功率预算。例如,GPS数据、地图数据、先前帧的经处理的激光雷达信息、来自车辆的其它传感器或任何其它源的数据可以指示:在FOV的一部分中,在给定范围(例如,15m)中,建筑物的存在。虽然该建筑物可以处于高兴趣区域中(例如,在车辆正前方),但是处理器仍然可以将相对低的功率分配到FOV的这个部分,并且将剩余能量分配到激光雷达FOV的其它部分,以便不将预算浪费在该FOV的、隐藏在建筑物后面(例如,超出15m)的并且无论可以在FOV中向那个方向分配多少光量都无法达到的部分。
光学分摊(或计算预算)可以基于的驾驶决策的示例可以包括以下当中的至少一个:农村相关的指示、城市相关的指示、包含激光雷达系统的车辆的当前速度、下一次驾驶操纵、有条件的驾驶操纵(仅在存在指示这样做是安全的附加环境信息的情况下才可以完成的操纵)、驾驶导航事件、手动驾驶指示和自主驾驶指示。可以基于例如由激光雷达系统100或2914、导航系统2910、ECU 2904、GPS 2908、这些源的任意组合或PCLS指示符的其它潜在源提供的输出,来获取这样的信息。
光学分摊(或计算预算)可以基于的功率管理模式的示例可以包括正常功率操作模式和功率节省模式的指示中的至少一个。例如,这样的信息可以从ECU 2904获得,并且可以反映从主车辆可用的电量。功率管理模式的其它指示符可以基于激光雷达系统100的一个或多个部件的感测到的条件(例如,任何部件是否过热或是否有过热的危险)。
若干示例可以进一步示出光学预算或计算预算分摊可以基于的PCLS的集合。例如,在操作期间,处理器118可以接收指示车辆的当前驾驶环境的输入。例如,处理器118可以接收包括农村相关的指示和城市相关的指示中的至少一个的输入。作为另一个示例,处理器118可以接收输入,该输入包括至少一个农村相关的指示、城市相关的指示、与光条件相关联的信息、与天气条件相关联的信息、以及与车辆的速度相关联的信息。
在一些实施例中,处理器118可以从处理器118自身执行的确定,接收输入。在这样的示例中,处理器118可以基于来自视场的一个或多个先前(和/或当前)扫描的信息,来确定当前驾驶环境。例如,处理器可以基于紧邻车辆的多个车辆和/或建筑物的存在,来确定当前驾驶环境是城市。作为另一个示例,处理器可以基于多棵树和/或开阔陆地的存在,来确定当前驾驶环境是农村。处理器118可以可替代地或并发地,基于车辆的速度和/或基于地图信息(其可以被存储或接收,并且可以包括更新后的交通信息),来确定当前驾驶环境。例如,处理器118可以基于车辆的持续高速和/或基于车辆的位置与已知的州际公路或高速公路对准,来确定当前驾驶环境是州际公路或高速公路。作为另一个示例,处理器118可以基于车辆以持续低速频繁停止和/或基于已知的交通信息,来确定当前驾驶环境是交通拥堵。
可替代地或并发地,处理器118可以从主车辆处理单元(例如,ECU 2904)接收输入。中央计算机可以使用上面关于处理器118描述的技术,来确定当前驾驶环境。类似地,处理器118可以附加地或可替代地,从远程系统接收输入。例如,处理器118可以从天气服务器或其它更新后的天气信息的源,接收天气的指示。类似地,处理器118可以从交通服务器或其它更新后的交通信息的源,接收交通的指示。
在一些实施例中,处理器118可以从如图16中所示的GPS、车辆导航系统、车辆控制器、雷达、激光雷达和相机中的至少一个,接收指示当前驾驶环境的输入。例如,如上面所解释的,处理器118可以使用由GPS和/或车辆导航系统结合地图和/或交通信息确定的车辆位置,来导出当前驾驶环境。在这样的示例中,处理器118可以将车辆的GPS位置与地图对准以确定车辆在州际公路上,或者可以将车辆的GPS位置与交通信息对准以确定车辆处于交通拥堵中。类似地,处理器118可以使用来自车辆控制器的速度、航向等,来导出当前驾驶环境,如上面所解释的。附加地或可替代地,处理器118可以使用来自雷达、激光雷达和/或相机的信息,来导出当前驾驶环境。例如,处理器118可以使用雷达、激光雷达和/或相机,来识别一个或多个物体(诸如田地、树、建筑物、隔离带等),并使用识别出的物体来导出当前驾驶环境。
一旦已经分配了光学预算或计算预算以及应用分摊预算的计划,处理器118(或其它处理设备)就可以实现该计划。例如,处理器118可以根据动态分摊的光学预算,向激光雷达FOV输出信号,用于以使得光通量在对激光雷达FOV进行扫描时变化的方式来控制至少一个光源112和/或光偏转器114或影响光通量(空间或时间)的任何其它部件。在一些情况下,分摊的光学预算的应用可以导致一个或多个激光雷达FOV的某些部分(例如,ROI)的更多光通量,这进而可以要求到其它区域(例如,较低兴趣或不感兴趣区域)的减少的光通量。为了执行用于实现所分配的光学预算的计划,处理器118可以被配置为控制至少一个光偏转器114以便扫描FOV,并且在扫描周期期间,至少一个光偏转器114可以位于多个不同的瞬时位置。另外,处理器118可以协调至少一个光偏转器114和至少一个光源112(例如,使它们的操作同步),使得当至少一个光偏转器处于特定的瞬时位置时,光束的一部分被至少一个光偏转器从至少一个光源朝着视场中的物体偏转,并且光束的该部分从该物体的反射被至少一个光偏转器朝着至少一个传感器116偏转。在一些情况下,激光雷达系统100可以包括瞄准至少一个光偏转器114的多个光源,并且处理器118可以被配置为控制至少一个光偏转器114,使得当至少一个光偏转器114处于特定的瞬时位置时,来自多个光源的光朝着激光雷达FOV的多个独立区域被投射。一般而言,处理器118可以根据动态分摊的光学预算,来协调至少一个光源112和至少一个光偏转器114。通过应用所分摊的光学预算,每单位时间更多的光可以应用于较高兴趣区域,并且每单位时间更少的光可以应用于较低兴趣区域。而且,基于激光雷达FOV的一个或多个部分中物体的检测,处理器118可以防止投射到特定部分的光的累积能量密度(例如,无论是感兴趣区域、还是不太感兴趣的区域)超过最大允许曝光。
图17A提供了与所公开的实施例一致的、提供用于基于所分摊的预算来控制激光雷达系统的方法3000的示例的流程图。例如,在步骤3002,处理器118(或其它可用处理设备)可以接收指示激光雷达系统的一个或多个平台条件(PCLS)的信息。如上所述,这些PCLS可以包括与激光雷达系统100或它部署在其上的平台主机相关联的任何条件,可以对其期望非均匀的光分摊。在步骤3004,处理器118可以确定系统约束,该系统约束可以部分地帮助定义光学预算或计算预算(例如,可用光源的光输出能力、可用CPU的处理能力等等)。基于在步骤3002和3004获取的信息,处理器118可以在步骤3006确定分摊的光学预算和/或分摊的计算预算。在步骤3008,处理器118可以开发用于将分摊的预算应用于一个或多个激光雷达系统的操作的扫描计划。在步骤3010,处理器118可以通过例如基于分摊的预算控制光源112和偏转器114的操作,来控制每光束斑的光投射(例如,来自偏转器114的特定瞬时位置的光投射)。例如,可以向感兴趣区域提供比应用于不太感兴趣的区域的每单位时间更多的光通量。在步骤3012,处理器可以例如基于检测器116的输出,来检测和处理反射光。在步骤3014,处理器118可以确定对于特定束斑的分摊的光学预算的规定应用是否完成。如果已完成,那么处理可以返回到步骤3010,以继续控制另一个束斑处的光投射。如果没有完成,那么在步骤3016,处理器118可以确定是否允许另一个束斑投射(例如,另一个投射是否将符合眼睛安全规定、是否将超过用于特定束斑的最大允许光通量的量,等等)。如果不允许另一个投射,那么处理可以返回到步骤3010,以继续控制另一个束斑处的光投射。如果允许另一个投射,那么在步骤3018,处理器118可以确定是否需要在特定束斑处的另一个投射(例如,是否已经基于与该特定束斑相关联的先前投射或先前照亮的像素而获得了足够的数据或检测)。如果不需要附加的投射,那么处理可以返回到步骤3010,以继续控制另一个束斑处的光投射。可选地,处理器118可以决定在同一个扫描周期中,为至少一个其它束斑重新分布分配到当前束斑的剩余未使用功率。如果批准了附加投射,那么在步骤3020,处理器118可以在返回到步骤3012以检测和处理反射光之前,在特定束斑处引起附加的光投射。
图17B提供了根据当前公开的实施例的、用于控制激光雷达系统的示例性方法3050的流程图表示。步骤3062可以包括访问存储在存储器中的光学预算,光学预算与至少一个光源相关联并且定义由至少一个光源在预定时间段内可发射的光量。步骤3064可以包括接收关于车辆操作参数的信息,包括以下当中的至少一个:环境条件、驾驶决策和功率管理模式。基于接收到的信息,步骤3066可以包括基于以下当中的至少两个,将光学预算动态地分摊到激光雷达系统的视场:扫描速率、扫描模式、扫描角度、空间光分布和时间光分布。步骤3068可以包括根据动态分摊的光学预算,输出信号,用于以使得光通量能够在扫描视场时变化的方式控制至少一个光源。
在一些实施例中,基于空间光分布动态地分摊光学预算可以包括:在单个扫描周期期间,朝着视场的第一部分比朝着视场的第二部分投射更多的光。在随后的扫描周期中,基于空间光分布动态地分摊光学预算可以包括:在该随后的扫描周期期间,朝着视场的第二部分比朝着视场的第一部分投射更多的光。该方法还可以包括获得第一部分作为感兴趣区域的标识、和第二部分作为不感兴趣(或较低兴趣)区域的标识。该方法还可以包括确定第二部分中物体的存在,并防止第二部分中的光的累积能量密度超过最大允许曝光。
在如何在激光雷达系统的操作期间应用分摊的光学预算的另一个示例中,处理器118可以被配置为,基于指示同一车辆上的另一个激光雷达系统的故障的PCLS,将更多的光学预算(例如,更多通量/FOV)分摊给安装在激光雷达系统上的特定激光雷达系统。这种分摊可以至少部分地补偿发生故障的激光雷达系统。例如,对工作的激光雷达系统的分摊可以包括向那个激光雷达的FOV的、在正常操作期间通常不发送脉冲(或发送几个脉冲)的部分发射脉冲。例如,这种分摊还可以包括改变偏转器参数,以便扫描更宽的FOV。
为了进一步说明这个示例,图18提供了车辆的图解表示,车辆包括位于车辆中的不同位置处的七个安装的激光雷达系统。每个个体激光雷达设备可以在视场、范围、分辨率、准确度等等方面表现出不同的参数。安装的激光雷达系统可以通过总线(例如,CAN总线)连接,该总线提供系统以及潜在地如图16中所示的其它部件之间的通信访问。在操作期间,各种激光雷达设备可以作为能力交换引导阶段或按需状态请求的一部分,而将它们的操作参数广播到彼此。这种信息交换可以使另一个激光雷达系统(诸如激光雷达系统#7)的处理器能够分辨激光雷达系统#2已经发生故障(例如,基于接收到的错误消息、健康状态指示符等等)。在一些情况下,总线上的故障设备可能无法报告(例如,它失去了电力供应)。在那种情况下,不报告的系统不再连接到共享总线并被假设为发生故障。
一个或多个其它激光雷达系统可以采取动作,以至少部分地补偿发生故障的激光雷达设备。例如,如图18中所示,激光雷达系统#2的故障可以导致车辆感觉系统的盲点。硬件或固件中的监视层(连接到总线的主控制器或指定的主激光雷达设备)将检测到激光雷达#2不起作用并且将在系统中指定另一个激光雷达,以补偿覆盖范围的损失。在这个具体的示例中,鉴于其扩展能力,激光雷达#7被发现是补偿覆盖范围损失的最佳选择。激光雷达#7被指定以备用模式操作并扩展其视场,以便覆盖激光雷达#2视场。增加激光雷达#7的扫描范围可以是以其一些能力(减小的总范围、分辨率或帧速率)为代价而发生的。车辆主控制器级别的完整系统将被通知到更新后的传感器状态与降低的性能参数集,并且补偿车辆行为。类似于将车辆限制在80公里/小时的窄备用轮胎,车辆可能在最高速度上受限。故障传感器的补偿最终由将自主车辆维持最小自主水平的需要而驱动,以便能够在没有人为干预的情况下安全地到达服务位置。
要注意的是,可选地,计算资源可以由两种或更多种类型的多个传感器(例如,激光雷达、相机、超声波传感器、雷达)共享,或者被分配到对来自不同类型传感器的检测信息的处理。这可以例如由整合来自车辆(诸如,自主小汽车)中的不同传感器的信息的主计算机来实现。上面公开的用于计算预算的分摊的方法和处理(例如,方法3000)可以扩展到在由不同类型的传感器收集的处理信息之间分摊计算预算。可选地,这还可以扩展到基于各种参数(诸如车辆或安装在其中的任何系统的平台条件),在不同类型的多个传感器中的每个传感器的FOV部分之间不同地分配计算预算,同时还在不同类型的检测数据之间移动计算资源。这样的参数可以包括例如以下当中的一个或多个的任意组合:车辆操作参数、环境条件、驾驶决策、车辆的导航状态、或功率管理模式、一个或多个检测系统(诸如激光雷达、雷达等等)的系统参数。用于处理第一种类型的第一传感器的计算预算的分摊可以基于另一种类型的另一个传感器的处理。
例如,如果相机在其ROI之一中检测到可疑物体,那么分摊处理器可以分摊更多的激光雷达计算预算以用于处理来自FOV的那个ROI的检测信息,以牺牲处理来自FOV的其它部分的激光雷达检测信息为代价。在另一个示例中,分摊处理器可以基于检测结果和/或平台参数来分摊计算预算,使得FOV的一些部分(当然可以在3D中定义,而不仅仅在2D中)将主要使用来自第一种类型的传感器的检测信息来分析,而FOV的其它部分将主要使用来自第二种类型的传感器的检测信息来分析。在更高级的分配方案中,主机(或另一个处理器)也可以例如基于先前公开的参数中的任何一个,并且根据上面提到的任何一项考虑,加以必要的变更后,在不同类型的传感器之间移动功率分配。
要注意的是,贯穿本公开讨论的用于激光雷达系统的许多方法、处理和技术,在与方法3000(以及预算分摊的整个讨论)一起考虑时,可以是更广泛的预算分摊方案的一部分,其组合了所公开的方法、处理和技术中的任何两个或更多个。这些方法、处理和技术可以适合所公开的预算分配方案中的不同地方。例如,这些方法、处理和技术中的一些可以被用于确定将预算分配到FOV的不同部分所按照的因素;这些方法、处理和技术中的一些可以被用于确定限制到FOV的不同部分的预算分配所按照的因素;这些方法、处理和技术中的一些可以被用于利用分配到FOV的不同部分的预算,等等。
根据一些实施例,激光雷达系统100可以包括:
a.光子发射器组件(PTX),诸如投射单元102(或其一部分),以产生检查光子的脉冲,其中脉冲由至少一个脉冲参数表征;
b.光子接收和检测组件(PRX),以接收从物体反射回来的反射光子,PRX包括检测器(例如,检测器116)以检测反射光子并产生检测到的场景信号(例如,由处理器118)。光子接收和检测组件可以包括感测单元106(或其一部分)和处理单元108(或其一部分);
c.光子转向组件(PSY),诸如扫描单元104(或其一部分),在功能上它与PTX和PRX两者相关联,以在被检查的场景片段的方向上引导检查光子的脉冲,并将反射光子导引回到PRX;以及
d.闭环控制器(下文中也称为“控制器”),其可以由处理单元108(或其一部分,诸如至少一个处理器118)实现,以:(a)控制PTX、PRX和PSY,(b)接收来自检测器的检测到的场景信号,以及(c)至少部分地基于检测到的场景信号,更新至少一个脉冲参数。
根据一些实施例,可以从以下组中选择至少一个脉冲参数:脉冲功率强度、脉冲宽度、脉冲重复率、脉冲序列、脉冲占空比、波长、相位和/或偏振。
根据一些实施例,控制器可以包括情景评估单元,以接收检测到的场景信号并产生扫描/工作计划。工作计划可以包括确定的预算分配中的一些或全部,并且还可以包括附加的操作决策(例如,扫描模式)。情景评估单元可以从光子转向组件接收光子转向组件反馈。情景评估单元可以接收存储在存储器上的信息。可选地,该信息可以从以下列表中选择:激光功率预算(或任何其它形式的光学预算)、电操作特点和/或校准数据。情景评估单元可以使用光子转向组件反馈,来产生扫描/工作计划。光学预算(例如,激光功率预算)可以从诸如以下的约束中导出:眼睛安全限制、热预算、随时间的激光老化,等等。
根据一些实施例,可以基于(a)实时检测到的场景信号、(b)帧内级别的场景信号、和(c)在两个或更多帧内累积和分析的帧间级别的场景信号,来产生工作计划。
根据一些实施例,检测器可以是具有一个或多个检测器参数的动态检测器,并且闭环控制器可以基于工作计划更新检测器参数。检测器参数可以从以下组中选择:扫描方向、帧速率、采样率、环境光效应、机械静态和动态损伤、用于减少寄生光的动态选通、动态灵敏度、动态偏置和/或热效应。PSY可以具有一个或多个转向参数,并且闭环控制器可以基于工作计划更新转向。可以从以下组中选择转向参数:扫描方法、功率调制、单轴或多轴方法、同步部件。可选地,情景评估单元可以从主机设备接收主机反馈,并使用主机反馈来产生或促成工作计划。
根据一些实施例,处理器118可以包括情景评估逻辑或电路,诸如情景评估逻辑(SAL)。SAL可以接收来自检测器116的检测到的场景信号、以及来自扫描单元104内部或外部的附加块/元件的信息。
根据一些实施例,可以在有或没有附加反馈信号(诸如光子转向部件反馈、PTX反馈、PRX反馈和主机反馈)以及存储在存储器2902中的信息的情况下,以确定扫描/工作计划(诸如用于扫描单元104的工作计划信号(诸如:扫描FOV中的哪些像素、以哪个激光参数预算、以哪个检测器参数预算))的局部成本函数和全局成本函数的加权方式,评估和计算场景信号。因而,处理器118可以是闭环动态控制器,其接收系统反馈并基于那个反馈更新系统的操作。例如,可以开发扫描工作计划,以实现分摊的光学预算或计算预算。
根据一些实施例,可以提供扫描单元104,用于扫描场景的一个或多个片段,也称为场景片段。该设备可以包括一个或多个光子发射器组件(PTX)、一个或多个光子接收和检测组件(PRX)、光子转向组件(PSY)以及适配为同步PTX、PRX和PSY的操作的情景感知处理器,使得设备可以在扫描帧期间动态地执行场景的一个或多个场景片段或区域的主动扫描。主动扫描可以包括朝着场景片段并跨场景片段发送一个或多个光子检查脉冲,并且当场景片段内存在的场景元素被检查脉冲击中时,测量该脉冲击中该元素以及其反射返回的往返飞行时间,以便估计该场景元素上由检查脉冲击中的点的距离和(相对)三维坐标。通过使用检查脉冲集来收集元素上的点集合的坐标,可以生成三维点云并用于检测、配准以及可能地识别场景元素。
处理器118可以是情景感知控制器,并且可以基于一个或多个检测到的和/或以其它方式已知的场景相关的情景参数,动态地调节PTX、PRX和/或PSY的操作模式和操作参数。根据一些实施例,基于对情景参数(诸如一个或多个场景片段中存在的场景元素)的理解,处理器118可以生成和/或调节工作计划(诸如用于扫描场景的部分的扫描计划)以实现分摊的光学预算或计算预算,作为旨在扫描/覆盖该场景的一个或多个片段的扫描帧的一部分。在生成扫描计划时可以考虑的其它情景参数可以包括:携带根据实施例的设备的主机平台的位置和/或轨迹。在生成扫描计划时可以考虑的还有其它情景参数可以包括:携带根据实施例的设备的主机平台周围的地形,包括道路坡度、俯仰和曲率。
扫描计划可以包括:(a)将场景内的要被主动扫描的场景片段作为扫描帧的一部分的指定,(b)检查脉冲集方案(PSS),其可以定义用于扫描所述场景片段中的至少一个的检查脉冲集的脉冲分布模式和/或个体脉冲特点,(c)检测方案,其可以定义检测器灵敏度或响应度模式,(d)转向方案,其可以定义转向方向、频率,指定转向阵列中的空闲元件等等。换句话说,扫描计划可以至少部分地影响/确定PTX控制信号、转向参数控制、PRX控制和/或检测器控制参数,使得基于场景分析和分摊的光学预算和/或计算预算,主动地扫描扫描帧。
以下讨论提供了基于所确定的光学预算和/或计算预算,来控制激光雷达FOV的一个或多个扫描的附加示例。例如,基于当前的检测到或推断的驾驶环境,处理器118可以协调至少一个光源的控制与至少一个光偏转器的控制,以通过改变在空间上跨视场的扫描而被应用的光学预算的量,来动态地调节瞬时检测距离。例如,处理器118可以增加投射的光量和/或减小光的空间分布,以增加FOV的某些区域(感兴趣区域)中的瞬时检测距离。作为另一个示例,处理器118可以减少投射的光量和/或增加光的空间分布,以减小FOV的其它区域(较低兴趣区域)中的瞬时检测距离。
应当注意的是,上文所述的光学预算分摊概念和技术可以结合本文描述的任何其它实施例使用。例如,本公开还讨论了用于在激光雷达系统中的检测之间改变检测灵敏度、在由激光雷达系统发射的光的飞行时间期间改变检测灵敏度、以及动态地将检测元件分配到激光雷达系统中的像素的技术。光学预算分摊技术可以与这些其它激光雷达系统控制中的任何一个一起使用。而且,任何公开的激光雷达系统控制都可以与任何其它激光雷达系统控制一起使用。例如,用于改变激光雷达系统中的检测之间的检测灵敏度的技术可以与所描述的以下技术一起使用:用于在由激光雷达系统发射的光的飞行时间期间改变检测灵敏度、以及动态地将检测元件分配到激光雷达系统中的像素。类似地,所描述的用于在由激光雷达系统发射的光的飞行时间期间改变检测灵敏度的技术可以与所描述的用于将检测元件动态地分配到激光雷达系统中的像素的技术一起使用。
出于说明的目的给出了前述描述。它并非详尽的,并且不限于所公开的精确形式或实施例。考虑到所公开的实施例的说明书和实践,修改和适应对于本领域技术人员来说是显而易见的。此外,虽然所公开的实施例的各方面被描述为存储在存储器中,但是本领域技术人员将认识到的是,这些方面也可以存储在其它类型的计算机可读介质上,诸如辅助存储设备,例如硬盘或CD ROM,或其它形式的RAM或ROM、USB介质、DVD、蓝光或其它光驱介质。
基于书面描述和所公开的方法的计算机程序在有经验的开发者的技能范围内。各种程序或程序模块可以使用本领域技术人员已知的任何技术来创建,或者可以结合现有软件来设计。例如,程序部分或程序模块可以在.Net框架、.Net紧凑框架(以及相关语言,诸如Visual Basic、C等等)、Java、C++、Objective-C、HTML、HTML/AJAX组合、XML或包含Java小程序的HTML中设计或借助于它们来设计。
而且,虽然本文已经描述了说明性实施例,但是具有等同元件、修改、省略、组合(例如,跨各种实施例的各方面)、适应和/或更改的任何和所有实施例的范围将被本领域技术人员基于本公开而理解。权利要求书中的限制应当基于权利要求书中采用的语言广泛地解释,并且不限于本说明书中或在申请的审查期间描述的示例。这些示例应当被解释为非排他性的。此外,可以以任何方式修改所公开的方法的步骤,包括通过对步骤重新排序和/或插入或删除步骤。因此,意图是说明书和实施例仅被认为是说明性的,真正的范围和精神由以下权利要求书及其等同物的全部范围指示。

Claims (29)

1.一种激光雷达系统,包括:
至少一个处理器,被配置为:
控制至少一个光源的激活以照亮视场;
从至少一个传感器接收与所述视场中的物体相关联的反射信号,其中,光离开所述至少一个光源与反射照射在所述至少一个传感器上之间的时间流逝构成飞行时间;以及
在所述飞行时间期间更改与所述至少一个传感器相关联的放大参数,包括:
基于所述物体的反射率,选择性地在所述飞行时间期间的与所述物体相对于所述激光雷达系统的距离相关联的时间窗口内减小所述放大参数。
2.如权利要求1所述的激光雷达系统,其中所述放大参数包括以下中的至少一个:检测器增益、放大器增益、灵敏度和衰减。
3.如权利要求1所述的激光雷达系统,其中所述至少一个处理器还被配置为增加所述至少一个传感器的放大率,作为所述飞行时间的函数。
4.如权利要求1所述的激光雷达系统,其中所述至少一个传感器包括多个检测元件,并且其中所述至少一个处理器还被配置为更改与所述多个检测元件的子集相关联的至少一个放大参数。
5.如权利要求4所述的激光雷达系统,其中所述至少一个处理器还被配置为动态地更改与所述多个检测元件的子集相关联的至少一个放大参数,使得在瞬时时间,所述多个检测元件中的至少一个是未操作的。
6.如权利要求4所述的激光雷达系统,其中所述至少一个处理器还被配置为控制至少一个光偏转器以偏转来自所述至少一个光源的光来扫描所述视场,并且在单个扫描周期期间对不同的检测元件应用不同的放大方案。
7.如权利要求1所述的激光雷达系统,其中,相对于与所述飞行时间的第一部分相关联的放大参数的值,所述至少一个处理器被配置为增加与所述飞行时间的第二部分相关联的放大参数的值,所述飞行时间的第二部分在所述飞行时间的第一部分之后。
8.如权利要求7所述的激光雷达系统,其中在所述飞行时间的第一部分期间,所述放大参数等于零。
9.如权利要求8所述的激光雷达系统,其中所述飞行时间的第一部分在离开所述至少一个光源的光已经从所述至少一个光源行进至少25米之后开始。
10.如权利要求7所述的激光雷达系统,其中所述飞行时间的第二部分在所述飞行时间的第一部分结束时开始。
11.如权利要求1所述的激光雷达系统,其中所述至少一个处理器还被配置为在至少300连续纳秒的时间段内逐渐增加所述放大参数。
12.如权利要求1所述的激光雷达系统,其中所述放大参数包括放大电平,并且所述至少一个处理器还被配置为在至少200连续纳秒内将所述放大电平增加至少1dB。
13.如权利要求1所述的激光雷达系统,其中所述放大参数包括放大电平,并且所述至少一个处理器还被配置为在至少300连续纳秒内将所述放大电平增加至少4dB。
14.如权利要求1所述的激光雷达系统,其中所述至少一个传感器包括多个检测元件,并且其中所述至少一个处理器还被配置为:
控制至少一个光偏转器以偏转来自所述至少一个光源的光来扫描所述视场,其中所述视场的扫描模式包括至少两个扫描方向;以及
基于当前扫描方向,动态地更改与所述多个检测元件中的至少一些检测元件相关联的放大参数。
15.如权利要求1所述的激光雷达系统,其中所述至少一个传感器包括多个检测元件,并且其中所述处理器还被配置为将不同组的检测元件指派给不同的像素,使得与位于距所述激光雷达系统第一距离处的第一物体相关联的第一像素被指派比与位于距所述激光雷达系统大于所述第一距离的第二距离处的第二物体相关联的第二像素更少的检测元件。
16.如权利要求1所述的激光雷达系统,其中所述至少一个处理器还被配置为基于与先前扫描周期相关联的反射信号来确定所述放大参数的值。
17.如权利要求1所述的激光雷达系统,其中所述至少一个处理器还被配置为基于在同一扫描周期期间接收到的、与另一个像素相关联的反射信号来确定所述放大参数的值。
18.如权利要求1所述的激光雷达系统,其中所述至少一个传感器包括多个检测元件,并且其中所述至少一个处理器还被配置为:
从所述至少一个传感器接收指示从所述视场中的物体反射的光的反射信号;
动态地分配所述多个检测元件的第一子集以构成第一像素;
动态地分配所述多个检测元件的第二子集以构成第二像素;
在处理所述第一像素和所述第二像素之后,动态地分配所述多个检测元件的第三子集以构成第三像素,所述第三子集与所述第一子集和所述第二子集中的至少一个重叠,并且不同于所述第一子集和所述第二子集中的每一个;以及
在处理所述第一像素和所述第二像素之后,动态地分配所述多个检测元件的第四子集以构成第四像素,所述第四子集与所述第一子集、所述第二子集和所述第三子集中的至少一个重叠,并且不同于所述第一子集、所述第二子集和所述第三子集中的每一个。
19.如权利要求1所述的激光雷达系统,其中所述至少一个处理器还被配置为:
访问存储在存储器中的光学预算,所述光学预算与所述至少一个光源相关联并且定义在预定时间段内可由所述至少一个光源发射的光量;
接收指示所述激光雷达系统的平台条件的信息;
基于接收到的信息,基于扫描速率、扫描模式、扫描角度、空间光分布和时间光分布中的至少两个,将所述光学预算动态地分摊到所述激光雷达系统的视场;以及
根据动态地分摊的光学预算输出信号,用于以使得光通量能够在对所述视场进行扫描时变化的方式来控制所述至少一个光源。
20.一种激光雷达方法,包括:
控制至少一个光源的激活以照亮视场;
从至少一个传感器接收与所述视场中的物体相关联的反射信号,其中,光离开所述至少一个光源与反射照射在所述至少一个传感器上之间的时间流逝构成飞行时间;以及
在所述飞行时间期间更改与所述至少一个传感器相关联的放大参数,包括:
基于所述物体的反射率,选择性地在所述飞行时间期间的与所述物体相对于激光雷达系统的距离相关联的时间窗口内减小所述放大参数。
21.如权利要求20所述的方法,其中更改放大电平包括增加放大率,作为所述飞行时间的函数。
22.如权利要求20所述的方法,其中所述至少一个传感器包括多个检测元件,并且其中更改所述放大参数包括更改与至少一个检测元件相关联的至少一个放大参数。
23.如权利要求22所述的方法,还包括:
获得至少一个有缺陷的检测元件的标识;以及
动态地更改与所述多个检测元件的子集相关联的至少一个放大参数,使得所述至少一个有缺陷的检测元件的增益低于其它检测元件的增益。
24.如权利要求22所述的方法,还包括:
控制至少一个光偏转器以偏转来自至少一个光源的光,来扫描所述视场;以及
在单个扫描周期中对不同的检测元件应用多个放大方案。
25.如权利要求24所述的方法,其中所述放大方案包括以下中的至少两个的组合:检测器增益、放大器增益、灵敏度和衰减。
26.一种车辆,包括:
主体;
至少一个处理器,位于所述主体内并且被配置为:
控制至少一个光源的激活以照亮所述主体前方的视场;
从至少一个传感器接收与所述视场中的物体相关联的反射信号,其中,光离开所述至少一个光源与反射照射在所述至少一个传感器上之间的时间流逝构成飞行时间;以及
在所述飞行时间期间更改与所述至少一个传感器相关联的放大参数,包括:
基于所述物体的反射率,选择性地在所述飞行时间期间的与所述物体相对于激光雷达系统的距离相关联的时间窗口内减小所述放大参数。
27.如权利要求26所述的车辆,其中所述至少一个处理器还被配置为增加所述至少一个传感器的放大率,作为所述飞行时间的函数。
28.如权利要求26所述的车辆,其中所述至少一个处理器还被配置为基于所述车辆的位置信息来确定所述放大参数的值。
29.如权利要求26所述的车辆,其中所述至少一个处理器是所述激光雷达系统的一部分,并且被配置为使用所述反射信号来确定所述车辆与所述视场中的物体之间的距离。
CN201780071151.8A 2016-11-16 2017-11-16 激光雷达系统和方法 Active CN110268283B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311107736.4A CN117310742A (zh) 2016-11-16 2017-11-16 激光雷达系统和方法

Applications Claiming Priority (35)

Application Number Priority Date Filing Date Title
US201662422602P 2016-11-16 2016-11-16
US62/422,602 2016-11-16
US201662425089P 2016-11-22 2016-11-22
US62/425,089 2016-11-22
US201762441574P 2017-01-03 2017-01-03
US201762441581P 2017-01-03 2017-01-03
US201762441583P 2017-01-03 2017-01-03
US201762441606P 2017-01-03 2017-01-03
US201762441610P 2017-01-03 2017-01-03
US201762441611P 2017-01-03 2017-01-03
US201762441578P 2017-01-03 2017-01-03
US62/441,581 2017-01-03
US62/441,574 2017-01-03
US62/441,583 2017-01-03
US62/441,611 2017-01-03
US62/441,610 2017-01-03
US62/441,578 2017-01-03
US62/441,606 2017-01-03
US201762455627P 2017-02-07 2017-02-07
US62/455,627 2017-02-07
US201762456691P 2017-02-09 2017-02-09
US62/456,691 2017-02-09
US201762461802P 2017-02-22 2017-02-22
US62/461,802 2017-02-22
US201762516694P 2017-06-08 2017-06-08
US62/516,694 2017-06-08
US201762521450P 2017-06-18 2017-06-18
US62/521,450 2017-06-18
US201762560985P 2017-09-20 2017-09-20
US62/560,985 2017-09-20
US201762563367P 2017-09-26 2017-09-26
US62/563,367 2017-09-26
US201762567692P 2017-10-03 2017-10-03
US62/567,692 2017-10-03
PCT/IB2017/001569 WO2018091970A1 (en) 2016-11-16 2017-11-16 Lidar systems and methods

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN202311107736.4A Division CN117310742A (zh) 2016-11-16 2017-11-16 激光雷达系统和方法

Publications (2)

Publication Number Publication Date
CN110268283A CN110268283A (zh) 2019-09-20
CN110268283B true CN110268283B (zh) 2023-09-01

Family

ID=60888547

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202311107736.4A Pending CN117310742A (zh) 2016-11-16 2017-11-16 激光雷达系统和方法
CN201780071151.8A Active CN110268283B (zh) 2016-11-16 2017-11-16 激光雷达系统和方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN202311107736.4A Pending CN117310742A (zh) 2016-11-16 2017-11-16 激光雷达系统和方法

Country Status (5)

Country Link
US (2) US11500076B2 (zh)
EP (1) EP3542184A1 (zh)
JP (3) JP7169272B2 (zh)
CN (2) CN117310742A (zh)
WO (1) WO2018091970A1 (zh)

Families Citing this family (109)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9933513B2 (en) * 2016-02-18 2018-04-03 Aeye, Inc. Method and apparatus for an adaptive ladar receiver
US10908262B2 (en) 2016-02-18 2021-02-02 Aeye, Inc. Ladar transmitter with optical field splitter/inverter for improved gaze on scan area portions
US10042159B2 (en) 2016-02-18 2018-08-07 Aeye, Inc. Ladar transmitter with optical field splitter/inverter
US10761196B2 (en) 2016-02-18 2020-09-01 Aeye, Inc. Adaptive ladar receiving method
US9880561B2 (en) * 2016-06-09 2018-01-30 X Development Llc Sensor trajectory planning for a vehicle
EP3584602A4 (en) * 2017-02-15 2020-12-09 Pioneer Corporation OPTICAL SCANNING DEVICE AND CONTROL METHOD
US10185028B2 (en) 2017-02-17 2019-01-22 Aeye, Inc. Method and system for ladar pulse deconfliction using delay code selection
US10976417B2 (en) * 2017-03-29 2021-04-13 Luminar Holdco, Llc Using detectors with different gains in a lidar system
DE102017206923B4 (de) * 2017-04-25 2020-12-31 Robert Bosch Gmbh Steuerung einer gerichteten Lichtquelle
DE102017214346A1 (de) * 2017-08-17 2019-02-21 Volkswagen Aktiengesellschaft Scheinwerfer für ein Fahrzeug
CN111344647A (zh) 2017-09-15 2020-06-26 艾耶股份有限公司 具有低延时运动规划更新的智能激光雷达系统
US10816666B2 (en) * 2017-11-21 2020-10-27 Magna Electronics Inc. Vehicle sensing system with calibration/fusion of point cloud partitions
US10768304B2 (en) 2017-12-13 2020-09-08 Luminar Technologies, Inc. Processing point clouds of vehicle sensors having variable scan line distributions using interpolation functions
US11105898B2 (en) 2017-12-29 2021-08-31 Symbol Technologies, Llc Adaptive illumination system for 3D-time of flight sensor
JP7013925B2 (ja) * 2018-02-23 2022-02-01 株式会社デンソー 光学的測距装置およびその方法
US20210048514A1 (en) * 2018-03-15 2021-02-18 Pioneer Corporation Sensor control device
EP3573021B1 (de) * 2018-05-22 2020-07-08 Sick Ag Visualisieren von 3d-bilddaten
EP3588140B1 (en) * 2018-06-28 2021-09-08 Veoneer Sweden AB A vision system and vision method for a vehicle
US11204605B1 (en) * 2018-08-03 2021-12-21 GM Global Technology Operations LLC Autonomous vehicle controlled based upon a LIDAR data segmentation system
CN109300190B (zh) * 2018-09-06 2021-08-10 百度在线网络技术(北京)有限公司 三维数据的处理方法、装置、设备和存储介质
JP6777701B2 (ja) 2018-09-19 2020-10-28 ファナック株式会社 測距装置を有する物体監視システム
JP2020046341A (ja) * 2018-09-20 2020-03-26 パイオニア株式会社 投光装置、投受光装置及び測距装置
US11474206B2 (en) * 2018-10-02 2022-10-18 GM Global Technology Operations LLC Hybrid optical phase array and MEMS beamsteering for chip-scale Lidar system
US20200103504A1 (en) * 2018-10-02 2020-04-02 GM Global Technology Operations LLC Multiple photonic chip lidar system architecture
US11783707B2 (en) * 2018-10-09 2023-10-10 Ford Global Technologies, Llc Vehicle path planning
EP3867668A2 (en) 2018-10-19 2021-08-25 Innoviz Technologies Ltd. Lidar systems and methods
DE102018218362A1 (de) * 2018-10-26 2020-04-30 Robert Bosch Gmbh Verfahren zum Betreiben eines LIDAR-Systems und LIDAR-System zur Erfassung eines Abtastbereichs
JPWO2020095514A1 (ja) * 2018-11-08 2021-09-30 ソニーグループ株式会社 距離センサ装置、制御方法及び電子機器
JP7208388B2 (ja) * 2018-11-13 2023-01-18 ブラックモア センサーズ アンド アナリティクス エルエルシー 位相エンコーディングlidarにおける内部反射減算のためのレーザー位相追跡方法およびシステム
DE102018219420A1 (de) * 2018-11-14 2020-05-14 Robert Bosch Gmbh Verfahren und Vorrichtung zur Bestimmung einer Entfernung von zumindest einem Objekt in einem Umfeld eines Fahrzeugs unter Verwendung einer Lasereinheit und einer Kameraeinheit
DE102018220932A1 (de) * 2018-12-04 2020-06-04 Osram Gmbh Verfahren zum Bestimmen des Abstands und Rückstrahlvermögens einer Objektoberfläche
DE112019006027T5 (de) * 2018-12-04 2021-10-07 Ams International Ag Gemusterte Beleuchtung für dreidimensionale Bildgebung
JPWO2020115856A1 (ja) * 2018-12-06 2021-02-18 三菱電機株式会社 レーザレーダ装置
US11300776B2 (en) * 2018-12-07 2022-04-12 Beijing Voyager Technology Co., Ltd. Coupled and synchronous mirror elements in a lidar-based micro-mirror array
US10514446B1 (en) 2018-12-07 2019-12-24 Didi Research America, Llc System and methods for controlling micro-mirror array
US11423572B2 (en) * 2018-12-12 2022-08-23 Analog Devices, Inc. Built-in calibration of time-of-flight depth imaging systems
JP2020106339A (ja) * 2018-12-26 2020-07-09 ソニーセミコンダクタソリューションズ株式会社 測定装置および測距装置
US20200217932A1 (en) * 2019-01-04 2020-07-09 Continental Automotive Systems, Inc. Ladar packaging for vehicle range sensors
JP2020112443A (ja) * 2019-01-11 2020-07-27 ソニーセミコンダクタソリューションズ株式会社 距離測定装置及び距離測定方法
JP2020118567A (ja) * 2019-01-24 2020-08-06 ソニーセミコンダクタソリューションズ株式会社 測距装置、車載システム及び測距方法
JP2020118570A (ja) * 2019-01-24 2020-08-06 ソニーセミコンダクタソリューションズ株式会社 測定装置および測距装置
US11463980B2 (en) * 2019-02-22 2022-10-04 Huawei Technologies Co., Ltd. Methods and apparatuses using sensing system in cooperation with wireless communication system
JP7401550B2 (ja) * 2019-02-22 2023-12-19 プロフェシー 動体視覚センサおよびパターン投影を用いる3次元撮像および感知
US20220146639A1 (en) * 2019-03-28 2022-05-12 Mitsubishi Electric Corporation Distance measuring apparatus
DE102019207741A1 (de) * 2019-05-27 2020-12-03 Infineon Technologies Ag Ein LIDAR-System, ein Verfahren für ein LIDAR-System und ein Empfänger für ein LIDAR-System mit ersten und zweiten Umwandlungselementen
US11354914B1 (en) * 2019-06-06 2022-06-07 Zoox, Inc. Optimizing data levels for processing, transmission, or storage based on location information
US11454976B1 (en) 2019-06-06 2022-09-27 Zoox, Inc. Optimizing data levels for processing,transmission, or storage
US11662741B2 (en) 2019-06-28 2023-05-30 Ford Global Technologies, Llc Vehicle visual odometry
US11307583B2 (en) * 2019-07-01 2022-04-19 Performance Drone Works Llc Drone with wide frontal field of view
US11310451B1 (en) 2019-09-05 2022-04-19 Waymo Llc Smart sensor with region of interest capabilities
WO2021051439A1 (zh) * 2019-09-26 2021-03-25 深圳市速腾聚创科技有限公司 校正方法、装置、存储介质及多通道激光雷达
KR20210043287A (ko) * 2019-10-11 2021-04-21 삼성전자주식회사 광학 장치 및 이를 포함하는 라이다 시스템
DE102019215751A1 (de) * 2019-10-14 2021-04-15 Robert Bosch Gmbh Multipuls-Lidarsystem und Verfahren zur Erfassung eines Objekts in einem Beobachtungsbereich
JP7420038B2 (ja) 2019-10-16 2024-01-23 株式会社デンソー 車載の異常検出装置
KR20210046466A (ko) 2019-10-18 2021-04-28 현대자동차주식회사 액정 기반 광 편향기 및 이를 이용한 광 스캐너
DE102019128439A1 (de) * 2019-10-22 2021-04-22 Valeo Schalter Und Sensoren Gmbh Verfahren zum Detektieren von Objekten in einem Überwachungsbereich mit einer optischen Detektionsvorrichtung und optische Detektionsvorrichtung
CN110865389B (zh) * 2019-10-29 2021-08-10 浙江大学 一种海洋激光雷达系统响应优化处理方法
WO2021089557A1 (en) * 2019-11-05 2021-05-14 Outsight Adaptive active safety system using multi-spectral lidar, and method implemented in the adaptive active safety system
US11252366B2 (en) * 2019-11-19 2022-02-15 Waymo Llc Sensor read out mode for high resolution and low light imaging in-sync with LIDAR timing
DE102019218005A1 (de) * 2019-11-22 2021-05-27 Robert Bosch Gmbh LIDAR-Sensor
CN111007479B (zh) * 2019-11-27 2022-01-04 广东博智林机器人有限公司 激光雷达探测系统
US20210173084A1 (en) * 2019-12-06 2021-06-10 Datalogic Ip Tech S.R.L. Safety laser scanner and related method for adjusting distance measurements to compensate for reflective backgrounds
US11500092B2 (en) 2019-12-20 2022-11-15 Stmicroelectronics (Research & Development) Limited Method for operating a ToF ranging array, corresponding circuit and device
CN110967777B (zh) * 2019-12-23 2022-08-23 宁波飞芯电子科技有限公司 相干探测接收装置、退相干处理方法、设备及介质
US20230014474A1 (en) * 2019-12-25 2023-01-19 Sony Semiconductor Solutions Corporation Light receiving device, method of controlling light receiving device, and electronic apparatus
US11284021B1 (en) 2019-12-30 2022-03-22 Waymo Llc Smart sensor scheduler
WO2021140420A1 (en) * 2020-01-09 2021-07-15 Innoviz Technologies Ltd. Mems scanning systems with textured surfaces
DE102020105112A1 (de) 2020-02-27 2021-09-02 Marelli Automotive Lighting Reutlingen (Germany) GmbH Kraftfahrzeugbeleuchtungseinrichtung mit einem Lidarsensor und Verfahren zum Betreiben der Kraftfahrzeugbeleuchtungseinrichtung
CN115280177A (zh) * 2020-03-02 2022-11-01 佳能株式会社 光学装置、车载系统、以及移动装置
US11428550B2 (en) 2020-03-03 2022-08-30 Waymo Llc Sensor region of interest selection based on multisensor data
EP4109135A4 (en) * 2020-03-17 2023-04-26 Huawei Technologies Co., Ltd. SIGNAL PROCESSING METHOD AND APPARATUS, AND STORAGE MEDIA
JP7194709B2 (ja) * 2020-04-03 2022-12-22 京セラ株式会社 測距装置
CN113767303A (zh) * 2020-04-03 2021-12-07 深圳市大疆创新科技有限公司 激光测距装置、激光测距方法和可移动平台
CN113495280A (zh) * 2020-04-07 2021-10-12 北京万集科技股份有限公司 激光雷达测距信息的获取方法、装置、电子设备及存储介质
DE102020110052A1 (de) 2020-04-09 2021-10-14 Hybrid Lidar Systems Ag Vorrichtung zur erfassung von bilddaten
CN111796296A (zh) * 2020-06-04 2020-10-20 深圳奥锐达科技有限公司 一种距离测量方法、系统及计算机可读存储介质
CN111830530B (zh) * 2020-06-04 2023-02-24 深圳奥锐达科技有限公司 一种距离测量方法、系统及计算机可读存储介质
US11536812B2 (en) * 2020-06-23 2022-12-27 Aptiv Technologies Limited Increased dynamic range for time-of-flight (ToF) lidar systems
CN113848537A (zh) * 2020-06-25 2021-12-28 深圳奥锐达科技有限公司 一种色散光谱感光组件、接收端及激光雷达系统
CN113848540A (zh) * 2020-06-25 2021-12-28 深圳奥锐达科技有限公司 一种面阵色散光谱感光组件、接收端以及激光雷达系统
EP3933442A1 (de) * 2020-06-29 2022-01-05 Pepperl+Fuchs AG Sensor zum dreidimensionalen optischen vermessen eines objekts
US20220003851A1 (en) * 2020-07-03 2022-01-06 Beijing Voyager Technology Co., Ltd. Dynamic receiver gain control for lidar system
US11828853B2 (en) 2020-07-21 2023-11-28 Leddartech Inc. Beam-steering device particularly for LIDAR systems
CA3198326A1 (en) 2020-07-21 2021-10-06 Leddartech Inc. Beam-steering device particularly for lidar systems
CA3125716C (en) 2020-07-21 2024-04-09 Leddartech Inc. Systems and methods for wide-angle lidar using non-uniform magnification optics
US11719792B2 (en) * 2020-08-21 2023-08-08 Lg Innotek Co., Ltd. Systems and methods for intra-shot dynamic adjustment of LIDAR detector gain
DE102020124023A1 (de) * 2020-09-15 2022-03-17 Valeo Schalter Und Sensoren Gmbh Verfahren zum Detektieren von Objekten und Detektionsvorrichtung
DE112020007612T5 (de) * 2020-09-16 2023-06-29 Mitsubishi Electric Corporation Scheinwerfereinrichtung
WO2022064605A1 (ja) * 2020-09-24 2022-03-31 株式会社ソニー・インタラクティブエンタテインメント 位置情報取得システム、位置情報取得方法、および位置情報取得装置
US11756283B2 (en) 2020-12-16 2023-09-12 Waymo Llc Smart sensor implementations of region of interest operating modes
CN112946607B (zh) * 2021-01-26 2023-10-27 光为科技(广州)有限公司 光探测和测距设备的校准方法、系统及机器可读介质
CN112887628B (zh) * 2021-01-26 2022-08-30 光为科技(广州)有限公司 光探测和测距设备及增加其动态范围的方法
CN113075672A (zh) * 2021-03-03 2021-07-06 深圳市灵明光子科技有限公司 测距方法及系统、计算机可读存储介质
JP2022146718A (ja) * 2021-03-22 2022-10-05 株式会社東芝 情報処理装置及び情報処理方法
US11474214B1 (en) * 2021-03-26 2022-10-18 Aeye, Inc. Hyper temporal lidar with controllable pulse bursts to resolve angle to target
US20220308214A1 (en) * 2021-03-26 2022-09-29 Aeye, Inc. Hyper Temporal Lidar with Controllable Detection Intervals Based on Range Estimates
US20230044929A1 (en) 2021-03-26 2023-02-09 Aeye, Inc. Multi-Lens Lidar Receiver with Multiple Readout Channels
US11500093B2 (en) 2021-03-26 2022-11-15 Aeye, Inc. Hyper temporal lidar using multiple matched filters to determine target obliquity
US11448734B1 (en) 2021-03-26 2022-09-20 Aeye, Inc. Hyper temporal LIDAR with dynamic laser control using laser energy and mirror motion models
US11630188B1 (en) 2021-03-26 2023-04-18 Aeye, Inc. Hyper temporal lidar with dynamic laser control using safety models
US11635495B1 (en) 2021-03-26 2023-04-25 Aeye, Inc. Hyper temporal lidar with controllable tilt amplitude for a variable amplitude scan mirror
IL283638B2 (en) * 2021-05-18 2023-04-01 Elbit Systems Ltd A system and method for creating focused 3D maps
JPWO2022254592A1 (zh) * 2021-06-01 2022-12-08
JP7471525B2 (ja) 2021-07-12 2024-04-19 三菱電機株式会社 測距装置
CN113674422A (zh) * 2021-08-27 2021-11-19 中汽创智科技有限公司 一种数据同步采集方法、控制模块、系统及存储介质
CN113487730B (zh) * 2021-09-06 2021-11-19 中国电子科技集团公司第二十八研究所 一种基于激光雷达点云数据的城市三维自动建模方法
CN114325741B (zh) * 2021-12-31 2023-04-07 探维科技(北京)有限公司 探测模组及激光测距系统
WO2023166512A1 (en) * 2022-03-03 2023-09-07 Innoviz Technologies Ltd Increasing signal to noise ratio of a pixel of a lidar system
TWI794091B (zh) * 2022-05-09 2023-02-21 國立中興大學 重合光源的光學雷達

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1340701A (zh) * 2000-08-24 2002-03-20 中国科学院大气物理研究所 激光雷达用的具有嵌入式系统和门控功能的单光子计数器
EP1916545A1 (de) * 2006-10-23 2008-04-30 Pepperl + Fuchs Gmbh Optoelektronischer Sensor und Verfahren zu dessen Betrieb
DE102010006395A1 (de) * 2009-01-31 2010-08-05 Keyence Corporation Photoelektrischer optischer Abtastschalter
CN103975250A (zh) * 2011-10-14 2014-08-06 Iee国际电子工程股份公司 在图像平面中利用动态掩模的空间选择性探测
CN104678403A (zh) * 2013-11-27 2015-06-03 现代摩比斯株式会社 激光雷达传感器系统
CN104793215A (zh) * 2014-01-17 2015-07-22 欧姆龙汽车电子株式会社 激光雷达装置、物体检测方法
CN105974427A (zh) * 2016-06-24 2016-09-28 上海图漾信息科技有限公司 结构光测距装置及方法
CN106062583A (zh) * 2013-12-19 2016-10-26 Dscg史罗轩公司 单个激光lidar系统

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01180482A (ja) * 1988-01-11 1989-07-18 Mitsubishi Electric Corp レーザ測距装置
JPH06232819A (ja) * 1993-02-04 1994-08-19 Mitsubishi Electric Corp 自動車用光レーダ装置
US5652651A (en) * 1995-01-19 1997-07-29 Laser Technology, Inc. Laser range finder having selectable target acquisition characteristics and range measuring precision
JP2008172441A (ja) 2007-01-10 2008-07-24 Omron Corp 検出装置および方法、並びに、プログラム
US20100235129A1 (en) 2009-03-10 2010-09-16 Honeywell International Inc. Calibration of multi-sensor system
WO2010124038A2 (en) * 2009-04-21 2010-10-28 Michigan Aerospace Corporation Atmospheric measurement system
SE537068C2 (sv) * 2010-02-25 2014-12-23 Scania Cv Ab Övervakningssystem för fordon
US8976340B2 (en) * 2011-04-15 2015-03-10 Advanced Scientific Concepts, Inc. Ladar sensor for landing, docking and approach
US20130015370A1 (en) * 2011-07-15 2013-01-17 Huron Technologies International In Confocal fluorescence slide scanner with parallel detection
EP2708913A1 (de) 2012-09-18 2014-03-19 Sick Ag Optoelektronischer Sensor und Verfahren zur Objekterfassung
DE102013100522A1 (de) 2013-01-18 2014-08-07 Huf Hülsbeck & Fürst Gmbh & Co. Kg Universelle Sensoranordnung zur Erfassung von Bediengesten an Fahrzeugen
US9304203B1 (en) * 2013-03-13 2016-04-05 Google Inc. Methods, devices, and systems for improving dynamic range of signal receiver
KR102358584B1 (ko) * 2013-05-22 2022-02-04 시-위안 왕 마이크로구조-증강 흡수 감광성 디바이스
US9989631B2 (en) 2013-05-29 2018-06-05 Mitsubishi Electric Corporation Laser radar device and radar image generating method
JP6232819B2 (ja) 2013-08-06 2017-11-22 凸版印刷株式会社 台紙の製造方法および台紙
US9721161B2 (en) 2013-08-14 2017-08-01 Infineon Technologies Ag Dynamic adjustment of imaging parameters
US10254395B2 (en) * 2013-12-04 2019-04-09 Trimble Inc. System and methods for scanning with integrated radar detection and image capture
US9880263B2 (en) * 2015-04-06 2018-01-30 Waymo Llc Long range steerable LIDAR system
US10578739B2 (en) * 2015-10-01 2020-03-03 Ams Sensors Singapore Pte. Ltd. Optoelectronic modules for the acquisition of spectral and distance data
WO2017103781A1 (en) * 2015-12-13 2017-06-22 Photoneo S.R.O. Methods and apparatus for superpixel modulation with ambient light suppression
US9866816B2 (en) * 2016-03-03 2018-01-09 4D Intellectual Properties, Llc Methods and apparatus for an active pulsed 4D camera for image acquisition and analysis
US20180113216A1 (en) 2016-10-25 2018-04-26 Innoviz Technologies Ltd. Methods Circuits Devices Assemblies Systems and Functionally Associated Machine Executable Code for Active Optical Scanning of a Scene
US20180081038A1 (en) 2016-09-21 2018-03-22 Innoviz Technologies Ltd. Methods Circuits Devices Assemblies Systems and Functionally Associated Machine Executable Code for Light Detection and Ranging Based Scanning
US20180100928A1 (en) 2016-10-09 2018-04-12 Innoviz Technologies Ltd. Methods circuits devices assemblies systems and functionally associated machine executable code for active scene scanning
US20180081037A1 (en) 2016-09-20 2018-03-22 Innoviz Technologies Ltd. Methods Circuits Assemblies Devices Systems and Functionally Associated Machine Executable Code for Controllably Steering an Optical Beam

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1340701A (zh) * 2000-08-24 2002-03-20 中国科学院大气物理研究所 激光雷达用的具有嵌入式系统和门控功能的单光子计数器
EP1916545A1 (de) * 2006-10-23 2008-04-30 Pepperl + Fuchs Gmbh Optoelektronischer Sensor und Verfahren zu dessen Betrieb
DE102010006395A1 (de) * 2009-01-31 2010-08-05 Keyence Corporation Photoelektrischer optischer Abtastschalter
CN103975250A (zh) * 2011-10-14 2014-08-06 Iee国际电子工程股份公司 在图像平面中利用动态掩模的空间选择性探测
CN104678403A (zh) * 2013-11-27 2015-06-03 现代摩比斯株式会社 激光雷达传感器系统
CN106062583A (zh) * 2013-12-19 2016-10-26 Dscg史罗轩公司 单个激光lidar系统
CN104793215A (zh) * 2014-01-17 2015-07-22 欧姆龙汽车电子株式会社 激光雷达装置、物体检测方法
CN105974427A (zh) * 2016-06-24 2016-09-28 上海图漾信息科技有限公司 结构光测距装置及方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
激光雷达多元阵列探测技术;李番;邬双阳;杨红果;郑永超;;红外与激光工程(第02期);全文 *

Also Published As

Publication number Publication date
US20200386872A1 (en) 2020-12-10
EP3542184A1 (en) 2019-09-25
JP7256920B2 (ja) 2023-04-12
JP2023085415A (ja) 2023-06-20
JP7169272B2 (ja) 2022-11-10
JP2023002783A (ja) 2023-01-10
JP7478281B2 (ja) 2024-05-02
US11500076B2 (en) 2022-11-15
JP2020504291A (ja) 2020-02-06
US20190271767A1 (en) 2019-09-05
CN117310742A (zh) 2023-12-29
WO2018091970A1 (en) 2018-05-24
CN110268283A (zh) 2019-09-20

Similar Documents

Publication Publication Date Title
CN110268283B (zh) 激光雷达系统和方法
CN110286388B (zh) 激光雷达系统和使用其检测物体的方法及介质
CN112236685A (zh) 具有内部光校准的激光雷达系统和方法
EP4010728A1 (en) Systems and methods for photodiode-based detection
KR20240051293A (ko) Lidar 시스템 및 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: Israeli Rosh ha'ayin

Applicant after: Yingnuowesi Technology Co.,Ltd.

Address before: Israel Ross ain City

Applicant before: Creative Technology Ltd.

GR01 Patent grant
GR01 Patent grant