CN113826028A - 雷达视场扩展 - Google Patents
雷达视场扩展 Download PDFInfo
- Publication number
- CN113826028A CN113826028A CN202080036403.5A CN202080036403A CN113826028A CN 113826028 A CN113826028 A CN 113826028A CN 202080036403 A CN202080036403 A CN 202080036403A CN 113826028 A CN113826028 A CN 113826028A
- Authority
- CN
- China
- Prior art keywords
- sensor
- view
- field
- vehicle
- radar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/865—Combination of radar systems with lidar systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9322—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using additional data, e.g. driver condition, road state or weather data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
- G01S7/4004—Means for monitoring or calibrating of parts of a radar system
- G01S7/4039—Means for monitoring or calibrating of parts of a radar system of sensor or antenna obstruction, e.g. dirt- or ice-coating
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Traffic Control Systems (AREA)
Abstract
公开了可以用于确定车辆周围无对象区域的系统和方法。系统和方法包括从具有第一视场和第一范围的第一传感器接收第一传感器数据。系统和方法还包括从具有第二视场和第二范围的第二传感器接收第二传感器数据。系统和方法还包括由处理器确定第一视场中的第一传感器遮挡。系统和方法进一步包括由处理器基于来自第二传感器的数据确定第一视场的无遮挡区域。此外,系统和方法包括由处理器基于确定的无遮挡区域,以自主模式操作车辆。
Description
相关申请的交叉引用
本申请要求2019年3月31日提交的美国专利申请号16/371,080的优先权,其整体内容通过引用结合于此。
背景技术
车辆可以配置为以自主模式操作,其中车辆在很少或没有来自驾驶员的输入的情况下导航通过环境。这样的自主车辆可以包括一个或多个系统(例如,传感器和相关联的计算设备),这些系统被配置为检测关于其中车辆操作的环境的信息。车辆及其相关联的计算机实现的控制器使用检测到的信息来导航通过环境。例如,如果系统检测到车辆正在接近障碍物,如由计算机实现的控制器所确定的,控制器调整车辆的定向控制以使车辆导航绕过障碍物。
例如,自主车辆可以包括激光、声纳、雷达、相机和其它传感器,这些传感器扫描和记录来自车辆周围环境的数据。来自这些设备中的一个或多个的传感器数据可以用于检测对象及它们各自的特性(位置、形状、朝向、速率等)。这种检测和识别对于自主车辆的安全操作很有用。
发明内容
在一个示例中,本公开包括一种系统。该系统包括具有第一视场的第一传感器。该系统还包括具有第二视场的第二传感器。第一视场可以与第二视场的至少一部分重叠。该系统还包括被配置为确定第一视场中的第一传感器遮挡的处理器。处理器还被配置为基于来自第二传感器的数据确定第一视场的无遮挡区域。
本公开的一些实施例提供了一种方法,该方法包括从具有第一视场和第一范围的第一传感器接收第一传感器数据以及从具有第二视场和第二范围的第二传感器接收第二传感器数据。第一视场可以与第二视场的至少一部分重叠,并且第二范围可以大于第一范围。该方法还包括由处理器确定第一视场中的第一传感器遮挡。该方法还包括由处理器基于来自第二传感器的数据确定第一视场的无遮挡区域。
本公开的一些示例提供了一种包括不同类型的传感器的车辆。该车辆包括具有被划分成第一扇区集合的第一视场和第一范围的第一LIDAR传感器。该车辆还包括具有被划分成第二扇区集合的第二视场和第二范围的第二LIDAR传感器。此外,车辆包括具有被划分成第三扇区集合的雷达传感器视场和第三范围的至少一个雷达传感器。在一些示例中,雷达传感器视场与第一视场或第二视场的至少一部分重叠。此外,车辆包括被配置为确定第一视场或第二视场中的第一传感器遮挡的处理器。处理器还可以被配置为基于来自雷达传感器的数据,确定第一视场或第二视场的无遮挡区域。此外,处理器可以被配置为基于确定的无遮挡区域,以自主模式操作车辆。
通过阅读以下详细描述并适当地参照附图,这些以及其它方面、优点和替代方案对于本领域普通技术人员将变得明显。
附图说明
图1是描绘示例自主车辆的各方面的功能框图,
图2描绘了示例自主车辆的外视图。
图3是与自主车辆相关的各种计算系统之间的无线通信的构思说明图。
图4A示出了具有传感器视场的示例自主车辆。
图4B示出了雷达传感器的示例扇区。
图5A示出了示例视场扩展。
图5B示出了示例视场扩展。
图5C示出了示例视场扩展。
图5D示出了示例视场扩展。
图5E示出了示例视场扩展。
图6示出了示例方法。
具体实施方式
本文中描述了示例方法、设备和系统。应当理解,本文中使用的词汇“示例”和“示例性”意味着“用作示例、实例或说明”。本文中描述为“示例”或“示例性”的任何实施例或特征不一定被解释为比其它实施例或特征更优选或更有利。在不脱离本文中呈现的主题的范围的情况下,可以利用其它实施例,并且可以作出其它改变。
因此,本文中描述的示例实施例不意味着是限制性的。如本文中一般所述及附图中所示,本公开的各方面可以以各种各样的不同配置进行布置、替换、组合、分离和设计,所有这些都在本文中被考虑。
此外,除非上下文另有说明,在每个附图中示出的特征可以相互组合使用。因此,附图应被一般地视为一个或多个整体实施例的组成方面,并且应理解,不是所有示出的特征对于每个实施例都是必要的。
I.概述
许多车辆可以包括各种感测系统以辅助车辆的导航和控制。一些车辆可以以完全自主模式(其中没有人类交互用于操作)、半自主模式(其中很少的人类交互用于操作)、或者人类操作模式(其中人类操作车辆并且传感器可以辅助人类)进行操作。传感器可以用于提供关于车辆周围区域的信息。该信息可以用于识别车行道和车辆附近的其它对象(诸如其它车辆、行人等)的特征。
车辆的传感器系统可以包括光检测和测距(LIDAR)系统以及雷达系统。LIDAR使用激光脉冲来测量到反射激光的对象的距离以及该对象的速率。雷达使用无线电波来测量到反射无线电波的对象的距离以及该对象的速率。来自LIDAR和雷达系统的数据可以用于(可能与来自其它传感器(诸如相机)的数据一起)确定对象在车辆附近的位置。由于LIDAR和雷达系统具有不同的范围和分辨率,一个系统可能能够提供由另一系统不能提供的信息。本公开指向用于使用来自一个传感器的传感器数据来补充来自另一传感器的数据以向车辆提供更准确的信息的系统和方法。
在一个示例中,车辆可以具有被配置为操纵车辆的处理系统(或在示例中,当车辆由人类驾驶时,确定车辆是否正在执行安全操纵)。在实践中,处理系统可以在确定车辆周围全360度方位平面(azimuth plane)上的车辆周围自由空间的范围。
为了确定自由空间的范围,处理系统可以从第一LIDAR单元接收信息,第一LIDAR单元提供360度LIDAR数据直到第一范围。第二LIDAR单元可以提供在给定扇区(在一些示例中,扇区小于10度,诸如360度平面的8度宽的部分)上的LIDAR数据直到第二范围,第二范围大于第一范围。多个雷达单元可以每个提供布置有雷达单元的360度平面的90度雷达数据,因此各雷达单元组合在一起以提供全360度平面上的数据。雷达单元可以具有大于第二范围的第三范围。
在本公开的一个示例中,因为雷达单元具有最长的范围,所以本公开的系统和方法使用雷达单元来辅助确定到对于LIDAR单元来说是不可见的对象的范围。类似地,在另一示例中,本公开的系统和方法使用具有较长范围的第二LIDAR单元来辅助确定到对于第一LIDAR单元来说是不可见的对象的范围。在一些进一步的示例中,当LIDAR单元不能看穿雷达单元可以看穿的对象(诸如雾)时,雷达单元可以能够在超出LIDAR单元的范围进行成像。因此,处理系统可以能够通过使用来自不同传感器的信息来扩展它可以确定没有对象的范围。
在一些示例中,系统可以迭代地执行过程,作为本文中公开的方法的一部分。作为方法的一部分,系统可以生成车辆周围360度平面的视场网格。对于网格,系统和方法可以确定未遮挡区域的角度和距离程度。未遮挡区域可以是车辆周围无障碍物的区域。因此,系统可以在各种传感器的视场内确定车辆周围无障碍物的区域。因此,可以基于各种传感器测量的集合来生成视场网格。
首先,系统可以通过雷达自己对跟踪概率的估计来限制绝对视场,并且还限制绝对最大范围。因此,可以在其上确定未被遮挡的区域的最大范围可以是雷达单元可以能够跟踪对象的最大范围。在一些示例中,最大范围可以基于检测概率的阈值。最大范围可以基于在给定范围处的对象的检测概率超过阈值来确定。
其次,对于每个相应的角度和/或扇区,系统可以将视场限制在超过LIDAR单元的范围的一半的第一LIDAR遮挡物的范围内。在对象遮挡了LIDAR单元的视场,并且对象放置在比LIDAR单元最大范围的一半还远的情况下,对应于对象角位置的网格部分中的视场可以被限制在导致遮挡的对象的范围内。
最后,对于每个相应的角度和/或扇区,系统可以将视场限制在第一检测的范围内,其落入在该给定角度处的被遮挡或超出所有LIDAR范围的区域内。在LIDAR最大范围的一半和LIDAR最大范围之间的范围内没有LIDAR遮挡的情况下,系统可以基于来自超出LIDAR范围的范围的雷达传感器数据扩展对应于对象角位置的网格部分中的视场。在一些示例中,雷达数据可以基于雷达扇区扩展对应于角位置的网格部分中的视场。网格部分中的视场的范围可以扩展到比LIDAR范围更远但比雷达范围更短的遮挡物(即,检测到的对象)。在扇区中没有检测到遮挡的情况下,对应于角位置的网格部分中的视场可以扩展到雷达单元的最大范围。因此,对于每个角度,没有遮挡的范围可以基于(i)LIDAR单元的最大范围;(ii)到超出LIDAR单元范围的雷达遮挡的距离;和(iii)到超出LIDAR单元的最大范围的一半的LIDAR遮挡的距离。
如所讨论的,整个系统的视场还可以限制为在到遮挡对象的相应的角度处检测到的遮挡物距离。在实践中,通过基于LIDAR遮挡限制系统的雷达单元的视场,系统可以在雷达被遮挡但是在遮挡物上没有发现检测时降低扩展的雷达范围的虚假置信度的风险。将搜索限制在LIDAR范围的第二半部分还减少了我们在LIDAR范围之外看见的第一检测是反射的几率,并且允许雷达“查看”近的遮挡物。例如,由于LIDAR和雷达单元不必要安装在完全相同的位置,因此在一些示例中,雷达可以能够看透LIDAR遮挡物。通过仅在LIDAR范围的第二半部分搜索遮挡物,其中雷达可以看见遮挡物周围的情况可以使系统能够扩展其中雷达单元可以看透一些障碍的情况的整体视场。
该系统将由雷达单元提供的更长距离与由LIDAR单元提供的更高方位分辨率相结合,以增强对未遮挡空间的置信度。更具体地说,仅使用雷达来确定未遮挡空间的系统不会具有这么高的分辨率,因为雷达检测将覆盖我们给出的较低角分辨率的太多角区域。类似地,在仅有LIDAR的系统中,它可能具有更短的范围,并且可能遭遇无法看穿或看透某些遮挡物。因此,本系统和方法使能更准确、范围更长和更高分辨率的占用网格被确定。
II.示例系统和设备
现在将更详细地描述示例系统和设备。一般而言,本文中公开的实施例可以与包括扫描系统的环境的一个或多个传感器的任何系统一起使用。本文中描述的说明性实施例包括采用传感器(诸如LIDAR、雷达、声纳、相机等)的车辆。然而,示例系统还可以在其它设备中实现或采取其它设备的形式,诸如机器人设备、工业系统(例如,装配线等),或者移动通信系统或设备,以及其它可能性。
术语“车辆”在本文中被广义解释为涵盖任何移动对象,包括,例如,空中车辆、船舶、航天器、汽车、卡车、厢式货车、半挂式卡车、摩托车、高尔夫球车、越野车、仓库运输车辆、拖拉机或农用车辆,以及在轨道上行驶的载体,诸如过山车、小火车、有轨电车或火车车厢,以及其它示例。一些车辆可以以完全自主模式(其中没有人类交互用于操作)、半自主模式(其中很少的人类交互用于操作)、或者人类操作模式(其中人类操作车辆并且传感器可以辅助人类)进行操作。
在示例实施例中,示例车辆系统可以包括一个或多个处理器、一个或多个形式的存储器、一个或多个输入设备/接口、一个或多个输出设备/接口、以及机器可读指令,当由一个或多个处理器执行时,使系统执行上述的各种功能、任务、能力等。下面将更详细地描述本公开范围内的示例系统。
图1是示出根据示例实施例的车辆100的功能框图。车辆100可以被配置为完全或部分地以自主模式操作,并因此可以被称为“自主车辆”。车辆还可以被配置为由人类操作,但是通过车辆的感测系统向人类提供信息。例如,计算系统111可以经由到车辆100的控制系统106的控制指令来控制在自主模式下的车辆100。计算系统111可以从一个或多个传感器系统104接收信息,并且基于所接收的信息以自主的方式进行一个或多个控制过程(诸如设置朝向以便避开检测到的障碍物)。
自主车辆100可以是完全自主的或部分自主。在部分自主的车辆中,一些功能可以选择性地在一些或所有时间被手动控制(例如,由驾驶员)。此外,部分自主的车辆可以被配置为在完全手动操作模式与部分自主和/或完全自主操作模式之间切换。
车辆100包括推进系统102、传感器系统104、控制系统106、一个或多个外围设备108、电源110、计算系统111和用户界面112。车辆100可以包括更多或更少的子系统,并且每个子系统可以选择性地包括多个组件。此外,车辆100的子系统和组件中的每个可以互连和/或通信。因此,本文中描述的车辆100的功能中的一个或多个可以选择性地在附加的功能或物理组件之间划分,或者组合成更少的功能或物理组件。在一些进一步的示例中,附加的功能和/或物理组件可以添加到由图1示出的示例中。
推进系统102可以包括可操作以向车辆100提供动力运动的组件。在一些实施例中,推进系统102包括引擎/发动机118、能量源120、变速器122和轮子/轮胎124。引擎/发动机118将能量源120转换为机械能。在一些实施例中,推进系统102可以选择性地包括引擎和/或发动机中的一个或两者。例如,气电混合车辆可以包括汽油/柴油引擎和电动机两者。
能量源120表示能量的来源,诸如电能和/或化学能,其可以全部或部分地为引擎/发动机118提供动力。也就是说,引擎/发动机118可以被配置为将能量源120转换为机械能以操作变速器。在一些实施例中,能量源120可以包括汽油、柴油、其它基于石油的燃料、丙烷、其它基于压缩气体的燃料、乙醇、太阳能面板、电池、电容器、飞轮、再生制动系统和/或其它电动力的来源等。能量源120还可以为车辆100的其它系统提供能量。
变速器122包括适合于将来自引擎/发动机118的机械动力传送到轮子/轮胎124的合适的齿轮和/或机械元件。在一些实施例中,变速器122包括齿轮箱、离合器、差速器、驱动轴和/或轮轴等。
轮子/轮胎124被布置为将摩擦牵引力提供给车辆100在其上移动的表面(诸如道路)的同时稳定地支撑车辆100。因此,轮子/轮胎124根据车辆100的性质进行配置和布置。例如,轮子/轮胎可以被布置为独轮车、自行车、摩托车、三轮车、或者汽车/卡车四轮形式。其它轮子/轮胎几何结构也是可能的,诸如包括六个或更多个轮子的那些。车辆100的轮子/轮胎124的任何组合可以操作以相对于其它轮子/轮胎124差速旋转。轮子/轮胎124可以选择性地包括至少一个刚性地附接到变速器122的轮子和至少一个耦合到与驱动表面接触的相应轮子的轮辋的轮胎。轮子/轮胎124可以包括金属和橡胶的任何组合,和/或其它材料或者材料的组合。
传感器系统104通常包括被配置为检测关于车辆100周围环境的信息的一个或多个传感器。例如,传感器系统104可以包括全球定位系统(GPS)126、惯性测量单元(IMU)128、雷达单元130、激光测距仪/LIDAR单元132、相机134和/或麦克风136。传感器系统104还可以包括被配置为监测车辆100的内部系统(例如,O2监测器、燃料表、引擎油温、轮速传感器等)的传感器。传感器系统104中包括的传感器中的一个或多个可以被配置为单独地和/或集体地致动,以便修改一个或多个传感器的位置和/或取向。
GPS 126是被配置为估计车辆100的地理位置的传感器。为此,GPS 126可以包括可操作以提供关于车辆100相对于地球的位置的信息的收发器。
IMU 128可以包括被配置为基于惯性加速度感测车辆100的位置和取向变化的传感器(例如,加速度计和陀螺仪)的任何组合。
雷达单元130可以表示利用无线电信号来感测车辆100的局部环境内的对象的系统。在一些实施例中,除了感测对象之外,雷达单元130和/或计算系统111可以附加地被配置为感测对象的速率和/或朝向。雷达单元130可以包括任何天线、波导网络、通信芯片和/或可以促进雷达操作的其它组件。
类似地,激光测距仪或LIDAR单元132可以是被配置为使用激光来感测车辆100所在环境中的对象的任何传感器。激光测距仪/LIDAR单元132可以包括一个或多个激光源、激光扫描仪、和一个或多个检测器,以及其它系统组件。激光测距仪/LIDAR单元132可以被配置为以相干(例如,使用外差检测)或非相干检测模式进行操作。
相机134可以包括被配置为捕获车辆100周围环境的多个图像的一个或多个设备。相机134可以是静态相机或视频相机。在一些实施例中,相机134可以是可机械移动的,诸如通过旋转和/或倾斜安装有相机的平台。像这样,车辆100的控制过程可以被实现以控制相机134的移动。
传感器系统104还可以包括麦克风136。麦克风136可以被配置为捕获来自车辆100周围环境的声音。在一些情况下,多个麦克风可以被布置为麦克风阵列,或者可能为多个麦克风阵列.
控制系统106被配置为控制调节车辆100的加速及其组件的操作。为了实现加速,控制系统106包括转向单元138、节气门140、制动单元142、传感器融合算法144、计算机视觉系统146、导航/路径系统148和/或障碍物避让系统150等。
转向单元138是可操作的以调整车辆100的朝向。例如,转向单元可以调整轮子/轮胎124中的一个或多个的轴线(或多个轴线)以便实现车辆的转弯。节气门140被配置为控制,例如,引擎/发动机118的操作速率,并反过来经由变速器122和轮子/轮胎124调整车辆100的前向加速度。制动单元142使车辆100减速。制动单元142可以使用摩擦力来使轮子/轮胎124慢下来。在一些实施例中,制动单元142通过再生制动过程感应地使轮子/轮胎124减速以将轮子/轮胎124的动能转换为电流。
传感器融合算法144是被配置为接受来自传感器系统104的数据作为输入的算法(或存储算法的计算机程序产品)。数据可以包括,例如,表示在传感器系统104的传感器处感测到的信息的数据。传感器融合算法144可以包括,例如,卡尔曼滤波、贝叶斯网络等。传感器融合算法144基于来自传感器系统104的数据提供关于车辆周围环境的评估。在一些实施例中,评估可以包括对车辆100周围环境中的各个对象和/或特征的评价、对特定情况的评价、和/或基于特定情况对车辆100与环境中的特征(例如,诸如预测碰撞和/或撞击)之间可能的干扰的评价。
计算机视觉系统146可以处理和分析由相机134捕获的图像以识别车辆100周围环境中的对象和/或特征。检测到的特征/对象可以包括交通信号、车行道边界、其它车辆、行人和/或障碍物等。计算机视觉系统146可以选择性地采用对象识别算法、运动恢复结构(SFM)算法、视频跟踪和/或可用计算机视觉技术来实现对检测到的特征/对象的分类和/或识别。在一些实施例中,计算机视觉系统146可以被附加地配置为映射环境、跟踪感知到的对象、估计对象的速率等。
导航和路径系统148被配置为确定车辆100的驾驶路径。例如,导航和路径系统148可以确定一系列速率和定向朝向,以实现在一般地使车辆沿着通向最终目的地的基于行车道的路径前进时,车辆沿着大体上避开感知到的障碍物的路径移动,例如,这可以根据经由用户界面112的用户输入来设置。导航和路径系统148可以附加地被配置为在车辆100在感知到的障碍物、交通模式、天气/道路状况等的基础上操作时,动态地更新驾驶路径。在一些实施例中,导航和路径系统148可以被配置为结合来自传感器融合算法144、GPS 126和一个或多个预定地图的数据,以便确定车辆100的驾驶路径。
障碍物避让系统150可以表示被配置为识别、评价和避开或以其它方式通过车辆100周围环境中的潜在障碍物的控制系统。例如,障碍物避让系统150可以通过操作控制系统106中的一个或多个子系统来进行急转弯操纵、转弯操纵、制动操纵等,以实现车辆导航的改变。在一些实施例中,障碍物避让系统150被配置为在周围交通模式、道路状况等的基础上自动地确定可实行的(可用的)障碍物避让操纵。例如,障碍物避让系统150可以被配置使得当其它传感器系统在车辆将要急转弯进入到的邻近区域中检测到车辆、施工屏障、其它障碍物等时,不进行急转弯操纵。在一些实施例中,障碍物避让系统150可以自动地选择可用的且最大化车辆乘坐者的安全的操纵。例如,障碍物避让系统150可以选择预测为使得车辆100的乘用舱中加速度最小的避让操纵。
车辆100还包括外围设备108,其被配置为允许车辆100与外部传感器、其它车辆、其它计算机系统和/或用户(诸如车辆100的乘坐者)之间的交互。例如,用于从乘坐者、外部系统等接收信息的外围设备108可以包括无线通信系统152、触摸屏154、麦克风156和/或扬声器158。
在一些实施例中,外围设备108起到接收车辆100的用户的输入以与用户界面112交互的作用。为此,触摸屏154可以向车辆100的用户提供信息,并且传送来自用户经由触摸屏154向用户界面112指示的信息。触摸屏154可以被配置为经由电容感测、电阻感测、光学感测、表面声波处理等感测来自用户手指(或触笔等)的触摸位置和触摸手势。触摸屏154可以能够感测在与触摸屏表面平行或平面的方向上、在与触摸屏表面垂直的方向上、或两者的手指移动,并且还可以能够感测施加到触摸屏表面的压力水平。车辆100的乘坐者还可以利用语音命令接口。例如,麦克风156可以被配置为接收来自车辆100的用户的音频(例如,语音命令或其它音频输入)。类似地,扬声器158可以被配置为向车辆100的用户输出音频。
在一些实施例中,外围设备108起到允许车辆100与物理上远离车辆放置的、提供关于车辆周围环境的有用信息(诸如交通信息、天气信息等)的外部系统(诸如车辆100的周围环境内的设备、传感器、其它车辆等,和/或控制器、服务器等)之间的通信的作用。例如,无线通信系统152可以直接或经由通信网络与一个或多个设备进行无线通信。无线通信系统152可以选择性地使用3G蜂窝通信(诸如CDMA、EVDO、GSM/GPRS)和/或4G蜂窝通信(诸如WiMAX或LTE)。附加地或替代地,无线通信系统152可以,例如,使用WiFi与无线局域网(WLAN)进行通信。在一些实施例中,无线通信系统152可以,例如,使用红外链路、蓝牙和/或ZigBee与设备进行直接通信。无线通信系统152可以包括一个或多个专用短程通信(DSRC)设备,这些设备可以包括车辆和/或路边站点之间的公共和/或私有数据通信。在本公开的上下文范围内,无线通信系统152也可以采用用于发送和接收嵌入在信号中的信息的其它无线协议,诸如各种车辆通信系统。
如上所述,电源110可以提供电力到车辆100的组件,诸如外围设备108、计算系统111、传感器系统104等中的电子器件。电源110可以包括,例如,可再充电的锂离子或铅酸电池,用于存储电能并将电能放电到各种被供电的组件。在一些实施例中,一个或多个电池组可以被配置为提供电力。在一些实施例中,电源110和能量源120可以一起实现,如在一些全电动汽车中。
车辆100的许多或所有功能可以通过计算系统111被控制,其从传感器系统104、外围设备108等接收输入,并将合适的控制信号通信到推进系统102、控制系统106、外围设备等,以基于车辆100的周围环境实现其自动操作。计算系统111包括执行存储在非暂时性计算机可读介质(诸如数据存储装置114)中的指令115的至少一个处理器113(其可以包括至少一个微处理器)。计算系统111还可以表示用于以分布式方式控制车辆100的各个组件或子系统的多个计算设备。
在一些实施例中,数据存储装置114包含由处理器113可执行的指令115(例如,程序逻辑),用于执行车辆100的各种功能,包括上面结合图1所描述的那些。数据存储装置114也可以包含附加指令,包括用于向推进系统102、传感器系统104、控制系统106和外围设备108中的一个或多个发送数据、从其中接收数据、与其交互和/或控制其的指令。
除了指令115之外,数据存储装置114可以存储诸如车行道地图、路径信息以及其它信息的数据作为地图数据116。这样的信息可以在车辆以自主、半自主和/或手动模式操作期间被车辆100和计算系统111使用以选择到最终目的地的可用车行道、解释来自传感器系统104的信息等。
车辆100,以及相关联的计算系统111,向车辆100的用户(诸如在车辆100的乘用舱中的乘坐者)提供信息和/或从其中接收输入。用户界面112可以相应地包括外围设备108集合内的一个或多个输入/输出设备,诸如无线通信系统152、触摸屏154、麦克风156和/或扬声器158,以允许计算系统111与车辆乘坐者之间的通信。
计算系统111基于从各种子系统(例如,推进系统102、传感器系统104和/或控制系统106)接收到的指示车辆和/或环境状况的输入,以及来自用户界面112的指示用户偏好的输入,控制车辆100的操作。例如,计算系统111可以利用来自控制系统106的输入来控制转向单元138以避开由传感器系统104和障碍物避让系统150检测到的障碍物。计算系统111可以被配置为控制车辆100及其子系统的许多方面。然而,一般地,制定了手动超控(override)自动控制器驱动的操作的规定,诸如在紧急事件中,或仅响应用户激活的超控等。
本文中描述的车辆100的组件可以被配置为与它们相应的系统内或之外的其它组件以互连方式进行工作。例如,在以自主模式操作时,相机134可以捕获表示关于车辆100的环境的信息的多个图像。环境可以包括其它车辆、交通灯、交通标志、道路标记、行人等。计算机视觉系统146可以基于预存储在数据存储装置114中的对象识别模型和/或通过其它技术分类和/或识别与传感器融合算法144、计算系统111等相一致的环境中的各种方面。
虽然车辆100在图1中被描述和示出为具有集成在车辆100中的车辆100的各种组件,例如,无线通信系统152、计算系统111、数据存储装置114和用户界面112,这些组件中的一个或多个可以选择性地与车辆100分开安装或关联。例如,数据存储装置114可以部分或全部地与车辆100分开存在,诸如在例如基于云的服务器中。因此,车辆100的功能元件中的一个或多个可以以分开或一起放置的设备元件的形式实现。构成车辆100的功能设备元件通常可以以有线和/或无线方式通信地耦合在一起。
图2示出了示例车辆200,其可以包括结合参照图1的车辆100描述的一些或所有功能。虽然出于说明的目的,车辆200在图2中被示出为四轮汽车,但是本公开不限于此。例如,车辆200可以表示卡车、厢式货车、半挂式卡车、摩托车、高尔夫球车、越野车或农用车辆等。
示例车辆200包括传感器单元202、第一LIDAR单元204、第二LIDAR单元206、第一雷达单元208、第二雷达单元210、第一LIDAR/雷达单元212、第二LIDAR/雷达单元214、第三雷达单元220和两个附加位置216、218,在这些位置处,雷达单元、LIDAR单元、激光测距仪单元和/或其它类型的传感器或多个传感器可以放置在车辆200上。第一LIDAR/雷达单元212和第二LIDAR/雷达单元214中的每个可以采取LIDAR单元、雷达单元或两者的形式。此外,另一雷达单元可以被包括在车辆的与雷达单元220相对的一侧。
此外,示例车辆200可以包括结合图1的车辆100描述的组件中的任何组件。第一、第二和第三雷达单元208、210、220和/或第一和第二LIDAR单元204、206可以主动地扫描周围环境用于发现潜在障碍物的存在,并且可以类似于车辆100中的雷达单元130和/或激光测距仪/LIDAR单元132。此外,第一LIDAR/雷达单元212和第二LIDAR/雷达单元214可以主动地扫描周围环境用于发现潜在障碍物的存在,并且可以类似于车辆100中的雷达单元130和/或激光测距仪/LIDAR单元132。
在一些示例中,LIDAR单元可以是两种不同类型的LIDAR单元中的一个。第一类型的LIDAR单元可以是旋转且可以连续地扫描LIDAR单元视场的全区域的LIDAR。第二类型的LIDAR单元可以是可以旋转且被转动以扫描LIDAR单元视场的特定区域的LIDAR。第一类型的LIDAR单元可以具有比第二类型的LIDAR单元更短的范围。当相较于第一类型的LIDAR单元进行操作时,第二类型的LIDAR单元可以具有更小的视场。在一些示例中,车辆200的指定LIDAR单元中的一个或多个可以包含一种或两种类型的LIDAR单元。例如,安装在车辆顶部的LIDAR单元204可以包含两种类型的LIDAR单元。在一个示例中,第二类型的LIDAR单元可以在操作中具有在水平平面中为8度宽且在竖直平面中为15度宽的视场。
传感器单元202安装在车辆200的顶上,并且包括被配置为检测关于车辆200周围环境的信息以及输出信息的指示的一个或多个传感器。例如,传感器单元202可以包括相机、雷达、LIDAR、测距仪和声学传感器的任何组合。传感器单元202可以包括一个或多个可移动安装件,其能够可操作为调整传感器单元202中的一个或多个传感器的取向。在一个实施例中,可移动安装件可以包括可以扫描传感器的旋转平台,以便从车辆200周围的每个方向获得信息。在另一实施例中,传感器单元202的可移动安装件可以是在角度和/或方位的特定范围内以扫描方式可移动的。传感器单元202可以安装在汽车车顶的顶上,然而其它安装位置也是可能的。此外,传感器单元202的传感器可以分布在不同位置中,而不需要并置在单个位置中。一些可能的传感器类型和安装位置包括两个附加位置216、218。此外,传感器单元202的每个传感器可以被配置为独立于传感器单元202的其它传感器移动或扫描。
在示例配置中,一个或多个雷达扫描仪(例如,第一和第二雷达单元208、210)可以放置在车辆200的后部附近,用于主动地扫描汽车200后方的区域以发现无线电反射对象的存在。类似地,第一LIDAR/雷达单元212和第二LIDAR/雷达单元214可以安装在车辆的前部附近以主动地扫描车辆前方的区域。雷达扫描仪可以置于,例如,适合于照射包括没有被车辆200的其它特征遮挡的车辆200的前向移动路径的区域的位置。例如,雷达扫描仪可以置于被嵌入和/或安装在前保险杠、前大灯、前围和/或引擎盖等中或附近。此外,一个或多个附加雷达扫描设备可以被放置以主动地扫描车辆200的侧部和/或后部,用于发现无线电反射对象的存在,诸如通过将这样设备包括在后保险杠、侧面板、门槛板和/或底盘等中或附近。
在实践中,每个雷达单元可以能够在90度的波束宽度上进行扫描。当雷达单元位于车辆的角落处时,如由雷达单元208、210、212和214所示,每个雷达单元可以能够扫描水平平面中的90度的视场,并且为车辆提供车辆周围全360度区域的雷达视场。此外,车辆还可包括两个面向侧部的雷达单元,一个示为雷达单元220(而未示出的第二个在车辆的与雷达单元220相对的一侧)。当其它雷达单元被阻挡时,诸如在进行受保护的右手转弯时(即,当转弯车辆左边的车道中有另一车辆时的右手转弯),面向侧部的雷达单元可以能够提供进一步的雷达成像,。
虽然在图2中未示出,但是车辆200可以包括无线通信系统。无线通信系统可以包括可以被配置为与车辆200外部或内部的设备进行通信的无线发送器和接收器。具体地,无线通信系统可以包括被配置为与,例如,在车辆通信系统或车行道站点中的其它车辆和/或计算设备进行通信的收发器。这样的车辆通信系统的示例包括专用短程通信(DSRC)、射频识别(RFID)以及其它指向智能运输系统的所提出的通信标准。
车辆200可以包括相机,可能在传感器单元202里面的位置处。相机可以是被配置为捕获车辆200的环境的多个图像的光敏仪器,诸如静态相机、视频相机等。为此,相机可以被配置为检测可见光,并且可以附加地或替代地被配置为检测来自光谱的其它部分的光,诸如红外或紫外光。在一个特定示例中,传感器单元202可以包含光学相机(即,捕获人类可见的光的相机)和红外相机两者。红外相机可以能够捕获相机视场内的热量的图像。
相机可以是二维检测器,并且可以选择性地具有三维空间范围的灵敏度。在一些实施例中,相机可以包括,例如,被配置为生成指示从相机到环境中的数个点的距离的二维图像的范围(range)检测器。为此,相机可以使用一种或多种范围检测技术。例如,相机可以通过使用结构光技术来提供范围信息,其中车辆200用预定光图案(诸如网格或棋盘图案)照射环境中的对象,并使用相机来检测预定光图案从环境周围的反射。基于所反射的光图案的失真,车辆200可以确定到对象上的点的距离。预定光图案可以包括红外光、或者其它适合用于这样的测量的波长的辐射。在一些示例中,相机可以安装在车辆200的前挡风玻璃里面。具体地,相机可以置于以从相对于车辆200的取向的前向视野捕获图像。在车辆200的里面或外面也可以使用相机的其它安装位置和视角。此外,相机可以具有可操作为提供可调整视场的相关联的光学器件。更进一步地,可以用可移动安装件将相机安装到车辆200上,以诸如经由摇摄/倾斜机械装置来变化相机的指向角。
此外,相机传感器可以配置有卷帘快门。卷帘快门通常将对光传感器进行迭代采样以捕获图像数据。来自相机传感器的数据可以形成图像、多个图像或视频。例如,在传统的图像传感器中,卷帘快门一次可以对光传感器的一行单元格进行迭代采样。对具有卷帘快门的相机传感器进行采样时,传感器视场中具有高速的对象可能出现失真。这样的失真是由迭代采样引起的。由于各排(line)单元格被迭代采样,被成像的对象在每次采样之间稍微地移动。因此,每排将在比前一排稍晚的时间处进行采样。由于对各排进行采样中的延迟,具有水平运动的对象可能具有水平歪斜。例如,移动穿过传感器视场的车辆可以具有使车辆失真的水平歪斜和竖直压缩(或膨胀)。这种歪斜对于基于图像中对象的水平位置进行处理来说可能麻烦的。本系统可以帮助识别由卷帘快门引起的可能的相机失真。
图3是根据示例实施方式的与自主车辆相关的各种计算系统之间的无线通信的构思说明图。特别地,无线通信可以经由网络304发生在远程计算系统302与车辆200之间。无线通信还可以发生在服务器计算系统306与远程计算系统302之间,以及在服务器计算系统306与车辆200之间。在车辆200的操作期间,车辆可以发送数据到服务器计算系统306和远程计算系统302两者并从其接收数据,以辅助车辆200的操作。车辆200可以将与其操作相关的数据和来自其传感器的数据通信到服务器计算系统306和远程计算系统302。此外,车辆200可以从服务器计算系统306和远程计算系统302接收与由车辆的传感器感测到的对象相关的操作性指令和/或数据。
车辆200可以对应于能够在各位置之间运输乘客或对象的各种类型的车辆,并且可以采取上面讨论的车辆中的任何一个或多个的形式。
远程计算系统302可以表示与远程协助和操作技术相关的任何类型的设备,包括但不限于本文中描述的那些。在示例中,远程计算系统302可以表示任何类型的设备,其被配置为(i)接收与车辆200相关的信息,(ii)提供界面,通过该界面,人类操作员或计算机操作器可以反过来感知信息并输入与该信息相关的响应,以及(iii)将响应发送到车辆200或其它设备。远程计算系统302可以采取各种形式,诸如工作站、台式计算机、膝上型计算机、平板电脑、移动电话(例如,智能电话)和/或服务器。在一些示例中,远程计算系统302可以包括在网络配置中一起操作的多个计算设备。
远程计算系统302可以包括与车辆200的子系统和组件相似或相同的一个或多个子系统和组件。至少,远程计算系统302可以包括被配置用于执行本文中描述的各种操作的处理器。在一些实施方式中,远程计算系统302还可以包括用户界面,其包括输入/输出设备,诸如触摸屏和扬声器。其它示例也是可能的。
网络304表示使能远程计算系统302与车辆200之间的无线通信的基础设施。网络304还使能服务器计算系统306与远程计算系统302之间以及服务器计算系统306与车辆200之间的无线通信。
远程计算系统302的位置可以在示例内变化。例如,远程计算系统302可以具有远离车辆200的远程位置,其具有经由网络304的无线通信。在另一示例中,远程计算系统302可以对应于车辆200内的与车辆200分开的计算设备,但是用该计算设备,人类操作员可以与车辆200的乘客或驾驶员交互。在一些示例中,远程计算系统302可以是具有由车辆200的乘客可操作的触摸屏的计算设备。
在一些实施方式中,本文中描述的由远程计算系统302执行的操作可以附加地或替代地由车辆200(即,由车辆200的任何系统或子系统)执行。换言之,车辆200可以被配置为提供车辆的驾驶员或乘客可以与之交互的远程协助机制。
服务器计算系统306可以被配置为经由网络304与远程计算系统302和车辆200(或者可以直接与远程计算系统302和/或车辆200)进行无线通信。服务器计算系统306可以表示被配置为接收、存储、确定和/或发送与车辆200及其远程协助相关的信息的任何计算设备。像这样,服务器计算系统306可以被配置为执行在本文中描述为由远程计算系统302和/或车辆200执行的任何操作或这些操作的部分。与远程协助相关的无线通信的一些实施方式可以利用服务器计算系统306,而其它不可以。
服务器计算系统306可以包括与远程计算系统302和/或车辆200的子系统和组件相似或相同的一个或多个子系统和组件,诸如被配置用于执行本文中描述的各种操作的处理器,以及用于从远程计算系统302和车辆200接收信息及向其提供信息的无线通信接口。
上面描述的各种系统可以执行各种操作。现在将描述这些操作和相关特征。
与上面的讨论相一致,计算系统(例如,远程计算系统302,或者可以是服务器计算系统306,或者车辆200本地的计算系统)可以操作以使用相机来捕获自主车辆的环境的图像。一般而言,至少一个计算系统将能够分析图像并可能控制自主车辆。
在一些实施方式中,为了促进自主操作,车辆(例如,车辆200)可以以各种方式接收表示车辆在其中操作的环境中的对象的数据(本文中也称为“环境数据”)。车辆上的传感器系统可以提供表示环境对象的环境数据。例如,车辆可以具有各种传感器,包括相机、雷达单元、激光测距仪、麦克风、无线电单元和其它传感器。这些传感器中的每个可以将关于每个相应的传感器接收的信息的环境数据通信到车辆中的处理器。
在一个示例中,雷达单元可以被配置为发送电磁信号,其被车辆附近的一个或多个对象反射回来。雷达单元然后可以捕获从对象反射回来的电磁信号。捕获到的反射回的电磁信号可以使雷达系统(或处理系统)能够做出关于反射该电磁信号的对象的各种确定。例如,可以确定到各种反射对象的距离和位置。在一些实施方式中,车辆可以具有在不同取向上的不止一个雷达。在实践中,车辆可以具有六个不同的雷达单元。此外,每个雷达单元可以被配置为将波束转动到雷达单元的四个不同扇区中的一个。在各种示例中,通过扫描雷达单元的四个不同扇区中的每个,雷达单元可以能够在90度的范围上扫描波束。雷达系统可以被配置为将捕获到的信息存储到存储器,用于稍后由车辆的处理系统进行处理。由雷达系统捕获到的信息可以是环境数据。
在另一示例中,激光测距仪(例如,LIDAR单元)可以被配置为发送电磁信号(例如,光,诸如来自气体激光器或二极管激光器,或其它可能的光源),其可以被车辆附近的一个或多个目标对象反射回来。激光测距仪可以能够捕获反射回的电磁(例如,激光)信号。捕获到的反射回的电磁信号可以使测距系统(或处理系统)能够确定到各种对象的距离,诸如将电磁信号反射回到激光测距仪的对象。测距系统还可以能够确定目标对象的速度或速率,并将其存储为环境数据。
在一些实施方式中,处理系统可以能够组合来自各种传感器的信息以便作出车辆环境进一步的确定。例如,处理系统可以将来自雷达信息和捕获到的图像两者的数据进行组合,以确定是否另一车辆或行人在自主车辆的前面。在其它实施方式中,可以由处理系统使用传感器数据的其它组合来作出关于环境的确定。
在以自主模式操作时,车辆可以控制其操作,而几乎没有人类输入。例如,人类操作员可以输入地址到车辆中,车辆然后可以能够驾驶到特定的目的地,不需要来自人类的进一步输入(例如,人类不需要转动或触摸制动/油门踏板)。此外,当车辆正在自主操作时,传感器系统可以正在接收环境数据。车辆的处理系统可以基于从各种传感器接收到的环境数据来改变车辆的控制。在一些示例中,车辆可以响应于来自各种传感器的环境数据而改变车辆的速度。车辆可以改变速度以避开障碍物、遵守交通法等。当车辆中的处理系统识别到车辆附近的对象时,车辆可以能够改变速度,或者以另一方式改变移动。
当车辆检测到对象但是对对象的检测没有高的置信度时,车辆可以请求人类操作员(或更强大的计算机)来执行一个或多个远程协助任务,诸如(i)确认对象是否在环境中实际存在(例如,是否确实有停车标志或是否确实没有停车标志),(ii)确认车辆对对象的识别是否正确,(iii)如果识别不正确,修正识别,和/或(iv)为自主车辆提供补充指令(或修改当前指令)。
车辆可以根据环境数据的来源以各种方式检测环境对象。在一些实施方式中,环境数据可以来自相机并且是图像或视频数据。车辆可以分析捕获到的图像或视频数据以识别图像或视频数据中的对象。在其它实施方式中,环境数据可以来自LIDAR单元。该方法和装置可以被配置为监测图像和/或视频数据用于发现环境中的对象的存在。在其它实现中,环境数据可以是雷达、音频或其它数据。车辆可以被配置为基于该雷达、音频或其它数据来识别环境中的对象。
在一些实施方式中,车辆用来检测对象的技术可以是基于一组已知数据。例如,与环境对象相关的数据可以存储到放置在车辆中的存储器。车辆可以将接收到的数据与所存储的数据进行比较以确定对象。在其它实施方式中,车辆可以被配置为基于数据的上下文来确定对象。例如,与施工相关的通常可能具有橙颜色。因此,车辆可以被配置为将橙色的并且放置在车行道边缘附近的对象检测为与施工相关的路标。此外,当车辆的处理系统在捕获到的数据中检测对象时,它还可以计算每个对象的置信度。
III.示例系统和方法
现在将更详细地描述本公开的示例系统和方法。
图4A示出了具有各种传感器视场的示例自主车辆400。如先前关于图2所讨论的,车辆400可以包含多个传感器。各种传感器的位置可以对应于图2中公开的传感器的位置。然而,在一些情况下,传感器可以具有其它位置。为简化附图,图4A中省略了传感器位置。对于车辆400的每个传感器单元,图4A示出了相应的视场。传感器的视场可以包括传感器可以在其上检测对象的角度区域以及对应于在其处传感器可以可靠地检测对象的距离传感器的最大距离的范围。
如先前所公开的,车辆400可以包括六个雷达单元。第一雷达单元可以放置在车辆的左前方,并且具有对应于视场402A的角度部分的角视场。第二雷达单元可以放置在车辆的右前方,并且具有对应于视场的角度部分的角视场。第三雷达单元可以放置在车辆的左后方,并且具有对应于视场402C的角度部分的角视场。第四雷达单元可以放置在车辆的右后方,并且具有对应于视场402D的角度部分的角视场。第五雷达单元可以放置在车辆的左侧,并且具有对应于视场402E的角度部分的角视场。第六雷达单元可以放置在车辆的右侧,并且具有对应于视场402F的角度部分的角视场。六个雷达单元中的每个可以配置有90度的可扫描波束宽度。雷达波束宽度可以小于90度,但每个雷达单元可以能够在90度的视场中转动雷达波束。
车辆400的第一LIDAR单元可以被配置为扫描车辆周围的全360度区域,如由对应于视场404的角度部分的角视场所示。车辆400的第二LIDAR单元可以被配置为扫描车辆周围的小于360度区域的区域。在一个示例中,第二LIDAR单元可以在水平平面中具有8度的视场,如由对应于视场404的角度部分的角视场所示。
此外,车辆还可以包括至少一个相机。相机可以是光学相机和/或红外相机。相机可以具有对应于视场408的角度部分的角视场。
除了车辆400的各种传感器中的每个的视场之外,每个传感器还可以具有相应的范围。在一个示例中,雷达单元的范围可以大于任一LIDAR单元的范围,如由比LIDAR单元的视场404和406扩展得更远的雷达单元的视场402A-402E所示。此外,第二LIDAR单元可以具有比第一LIDAR单元的范围更大的范围,如由比视场404扩展得更远的视场406所示。相机可以具有由视场408的大小所示的范围。在各种示例中,相机的范围可以大于或小于其它传感器的范围。
图4B示出了雷达单元的示例波束转动450。雷达单元452可以配置有可转动波束,即,雷达单元452可以能够控制波束辐射的方向。通过控制波束辐射的方向,雷达单元452可以能够在特定方向上引导辐射,以便确定在该方向上的雷达反射(并因此确定对象)。在一些实施例中,雷达单元452可以能够在方位平面的各种角度上以连续方式扫描雷达波束。在其它实施例中,雷达单元452可以能够在方位平面的各种角度上以离散步长扫描雷达波束。
图4B中的示例雷达单元452具有可以在多个不同角度上转动的雷达波束454,雷达波束454转动到的每个角度可以称为雷达单元452的扇区。如在图4B中所示,雷达波束454可以具有大约28度的半功率波束宽度。半功率波束宽度描述了在对应于雷达波束454最大值的振幅的一半的两个点之间的雷达波束454主瓣的宽度,以度为单位测量的。在各种实施例中,雷达波束454的半功率波束宽度可以与28度不同。此外,在一些实施例中,雷达波束454的半功率波束宽度可以根据雷达波束454所指向的角度而改变。例如,当雷达波束454指向更靠近辐射表面的正交(即,侧向)方向456A时,雷达波束454的半功率波束宽度可以更窄,并且当雷达波束454远离正交方向456A转动时变宽。在这些示例中,雷达波束454可以在转动到角度456C和456E时具有28度的波束宽度,当转动得更靠近侧向456A时,波束可以更窄,诸如24度。
在图4B所示的示例中,雷达波束可以能够转动到四个不同的角度。转向角可以相对于辐射表面的正交(即,侧向)方向456A被测量。波束可以在456C处转动到+36度以及在456E处转动到-36度。另外,波束可以在456B处转动到+12度以及在456D处转动到-12度。四个不同的角度可以表示雷达波束454可以转动到的离散角度。在一些附加示例中,雷达波束可以能够同时转动到两个角度。例如,雷达波束可以同时转动到+12度和-12度。这可能导致在角度的总和的方向上整体地转动的波束(例如,-12+12=0,因此该示例中的波束将在侧向方向204a上)。然而,当雷达波束一次在两个方向处转动时,雷达波束的半功率波束宽度可能变宽。因此,雷达分辨率可能降低。
通过将雷达波束454转动到角度456B-456E中的每个,可以扫描到全90度的视场。例如,当雷达波束454转动到+36度456C时,雷达波束454的半功率波束宽度将覆盖从+50度到+22度(如从侧向方向204a测得的)。此外,当雷达波束454转动到-36度456E时,雷达波束454的半功率波束宽度将覆盖从-50度到-22度。进一步地,当雷达波束454转动到+12度456B时,雷达波束206的半功率波束宽度将覆盖从+24度到0度。以及最后,当雷达波束206转动到-12度456D时,雷达波束454的半功率波束宽度将覆盖从-24度到0度。因此,雷达波束454将能够有效地扫描(即,选择性地使能或阻止四个波束涵盖角宽度)从-50度到+50度,覆盖100度的范围。转向角的数量、转向角的方向和雷达波束206的半功率波束宽度可以根据特定示例而变化。
图5A示出了示例视场扩展500。视场扩展500描绘了三个不同传感器的视场。雷达传感器的扇区可以具有由区域508所示的扇区视场。可转动的LIDAR传感器可以具有504的视场。全向LIDAR传感器可以具有512的视场。在传感器的操作期间,雷达扇区可以具有扇区视场508,其具有比可转动的LIDAR传感器的视场504的范围更大的范围。此外,可转动的LIDAR传感器的视场504的范围可以大于全向LIDAR传感器的视场512。
在图5A所示的示例中,雷达传感器可以检测对象510。因此,在雷达传感器的扇区内,可以在范围502处建立一范围。因此,区域506可以是比任一LIDAR传感器的范围更远的区域,但是在雷达传感器的范围内。因为区域506比LIDAR范围更远,但是比第一对象检测更近,系统可以能够确定区域506无遮挡。因此,车辆的规划或控制器系统可以能够确定区域506可以没有任何潜在对象的遮挡,并在路由车辆或监测车辆的移动时,将空间视为开放。
图5B示出了示例视场扩展520。视场扩展520描绘了三个不同传感器的视场。雷达传感器的第一扇区可以具有由区域528A所示的扇区视场,而雷达传感器的第二扇区(或不同雷达传感器的一扇区)可以具有由区域528B所示的第二扇区视场。可转动的LIDAR传感器可以具有524的视场。全向LIDAR传感器可以具有532的视场。在传感器的操作期间,雷达扇区可以具有第一扇区视场528A和第二扇区视场528B,其中的每个具有比可转动的LIDAR传感器的视场524的范围更大的范围。此外,可转动的LIDAR传感器的视场524的范围可以大于全向LIDAR传感器的视场532。
在图5B所示的示例中,雷达传感器可以检测两个雷达扇区中的一个内的对象530。因此,在雷达传感器的扇区内,可以在范围522A处建立一范围。因此,区域526A可以是比任一LIDAR传感器的范围更远的区域,但是在雷达传感器的给定扇区的范围内。此外,在由区域528B所示的第二扇区视场内,雷达可能检测不到任何对象。因此,范围522B可以是雷达单元的预定最大范围。因此,区域526B可以是比任一LIDAR传感器的范围更远(直到雷达单元的最大范围)的区域。
因为区域526A比LIDAR范围更远,但是比第一对象检测更近,系统可以能够确定区域526A无遮挡。类似地,因为区域526B比LIDAR范围更远,系统可以能够确定区域526B直到雷达单元的最大范围都无遮挡。因此,车辆的规划或控制器系统可以能够确定区域526A和526B可以没有任何潜在对象的遮挡,并在路由车辆或监测车辆的移动时,将空间视为开放。
图5C示出了示例视场扩展540。视场扩展540描绘了三个不同传感器的视场。雷达传感器的扇区可以具有由区域548所示的扇区视场。可转动的LIDAR传感器可以具有544的视场。全向LIDAR传感器可以具有552的视场。在传感器的操作期间,雷达扇区可以具有扇区视场548,其具有比可转动的LIDAR传感器的视场544的范围更大的范围。此外,可转动的LIDAR传感器的视场544的范围可以大于全向LIDAR传感器的视场552。
在图5C所示的示例中,雷达传感器可以检测对象550。如图5C所示,对象可以在542B的范围内被雷达单元(并且可能是可转动的LIDAR单元)检测到。在一些示例中,范围542B可以小于可转动的LIDAR单元的范围544的范围的一半。因为范围542B比可转动的LIDAR单元的范围544的一半更小,所以系统可以能够使用与可转动的LIDAR单元的视场的角部分重叠的雷达扇区视场548的一部分来确定没有遮挡的空间。
因此,如图5C所示,区域546A可以是比任一LIDAR传感器的范围更远并且与可转动的LIDAR单元的视场的角部分重叠的区域,但是在雷达传感器的范围542A内。因为区域546A比LIDAR范围更远,所以系统可以能够确定区域546A直到雷达单元的最大范围都无遮挡。然而,对于在可转动的LIDAR传感器的视场544之外的雷达视场548的部分,系统可以能够确定区域546B在全向LIDAR传感器的范围552与到雷达检测的范围542B之间无遮挡。因此,区域546B也可以被确定为是无遮挡。因此,车辆的规划或控制器系统可以能够确定区域546A和546B可以没有任何潜在对象的遮挡,并在路由车辆或监测车辆的移动时,将空间视为开放。
图5D示出了示例视场扩展560。视场扩展560描绘了三个不同传感器的视场。雷达传感器的扇区可以具有由区域568所示的扇区视场。可转动的LIDAR传感器可以具有564的视场。全向LIDAR传感器可以具有572的视场。在传感器的操作期间,雷达扇区可以具有扇区视场568,其具有比可转动的LIDAR传感器的视场564的范围更大的范围。此外,可转动的LIDAR传感器的视场564的范围可以大于全向LIDAR传感器的视场572。
在图5D所示的示例中,雷达传感器可以检测对象570和575。如图5D所示,第一对象可以在562B的范围内被雷达单元(并且可能是可转动的LIDAR单元)检测到。在一些示例中,范围562B可以小于可转动的LIDAR单元的范围564的范围的一半。因为范围562B比可转动的LIDAR单元的范围564的一半更小,所以系统可以能够使用与可转动的LIDAR单元的视场的角部分重叠的雷达扇区视场568的一部分来确定没有遮挡的空间。此外,第二对象575可以被可转动的LIDAR单元和雷达单元检测到。对象575可以遮挡可转动的LIDAR单元的视场564和雷达单元的视场568两者,作为遮挡区域578。
因此,如图5D所示,区域566A和566B可以是比任一LIDAR传感器的范围更远并且与可转动的LIDAR单元的视场的角部分重叠的区域,但是在雷达传感器的范围562A内。因为区域566A和566B比LIDAR范围更远,所以系统可以能够确定区域566A和566B直到雷达单元的最大范围都无遮挡。由于对象575,在可转动的LIDAR单元的视场的角度部分内的雷达单元的视场568的一部分不能被确定是无遮挡,这是因为对象575正阻断视场。
此外,对于在可转动的LIDAR传感器的视场564之外的雷达视场568的部分,系统可以能够确定区域566C在全向LIDAR传感器的范围572与到雷达检测的范围562B之间无遮挡。因此,区域566C也可以被确定为是无遮挡。因此,车辆的规划或控制器系统可以能够确定区域566A、566B和566C可以没有任何潜在对象的遮挡,并在路由车辆或监测车辆的移动时,将空间视为开放。
图5E示出了示例视场扩展580。视场扩展580描绘了三个不同传感器的视场。雷达传感器的扇区可以具有由区域588所示的扇区视场。可转动的LIDAR传感器可以具有584的视场。全向LIDAR传感器可以具有592的视场。在传感器的操作期间,雷达扇区可以具有扇区视场588,其具有比可转动的LIDAR传感器的视场584的范围更大的范围。此外,可转动的LIDAR传感器的视场584的范围可以大于全向LIDAR传感器的视场592。
在图5E所示的示例中,雷达传感器可以检测对象590。如图5E所示,对象可以在582B的范围内被雷达单元(并且可能是可转动的LIDAR单元)检测到。在一些示例中,范围582B可以小于可转动的LIDAR单元的范围584的范围的一半。因为范围582B比可转动的LIDAR单元的范围584的一半更小,所以系统可以能够使用与可转动的LIDAR单元的视场的角部分重叠的雷达扇区视场588的一部分来确定没有遮挡的空间。此外,可转动的LIDAR单元还可以检测到遮挡595。然而,该遮挡595可能不被雷达单元检测到。例如,LIDAR可以检测到雾,但是雾对于雷达可能是透明的。因此,遮挡595可能不会影响雷达单元的视场588。
因此,如图5E所示,区域586A可以是比任一LIDAR传感器的范围更远并且与可转动的LIDAR单元的视场的角部分重叠的区域,但是在雷达传感器的范围582A内。因为区域586A比LIDAR范围更远,所以系统可以能够确定区域586A直到雷达单元的最大范围都无遮挡。然而,对于在可转动的LIDAR传感器的视场584之外的雷达视场548的部分,系统可以能够确定区域586B在全向LIDAR传感器的范围592与到雷达检测的范围582B之间无遮挡。因此,区域586B也可以被确定为是无遮挡。此,车辆的规划或控制器系统可以能够确定区域586A和586B可以没有任何潜在对象的遮挡,并在路由车辆或监测车辆的移动时,将空间视为开放。
图6是根据示例实施例的方法600的流程图。方法600可以包括如由框602-610中的一个或多个所示的一个或多个操作、功能或动作。尽管以先后顺序示出了每个方法的框,但是这些框在一些情况下可以并行地和/或以与本文中所描述的那些不同的顺序执行。此外,各种框可以基于期望的实施方式被组合成更少的框、被划分成附加的框和/或被移除。
此外,对于方法600以及本文中公开的其它过程和方法,流程图示出了本实施例的一种可能实施方式的功能和操作。在这方面,每个框可以表示模块、分段、制造或操作过程的部分,或者程序代码的部分,其包括由处理器可执行的一个或多个指令,用于实现过程中的特定逻辑功能或步骤。程序代码可以存储在任何类型的计算机可读介质上,例如,诸如包括磁盘或硬盘驱动器的存储设备。计算机可读介质可以包括非暂时性计算机可读介质,例如,诸如短时间段内存储数据的计算机可读介质,如寄存器存储器、处理器高速缓存和随机存取存储器(RAM)。计算机可读介质还可以包括非暂时性介质,诸如辅助或永久长期存储装置,诸如只读存储器(ROM)、光盘或磁盘、光盘只读存储器(CD-ROM)。计算机可读介质还可以是任何其它易失性或非易失性存储系统。计算机可读介质可以被认为是,例如,计算机可读存储介质或有形存储设备。
附加地或替代地,对于方法600以及本文中公开的其它过程和方法,流程图中的一个或多个框可以表示被布线以执行过程中的特定逻辑功能的电路。
在一些示例中,对于方法600以及本文中公开的其它过程和方法,流程图中描述的各功能可以由单个车辆(例如,车辆100、200等)执行;分布在多个车辆之间的,由远程服务器/外部计算系统(例如,系统302和306)执行和/或由一个或多个外部计算系统与一个或多个车辆的组合执行,以及其它可能性。
在一些示例中,在执行框602之前,系统最初可以通过雷达自己对跟踪概率的估计来限制绝对视场,并且还限制到绝对最大范围。因此,可以在其上确定未被遮挡的区域的最大范围可以是雷达单元可以能够跟踪对象的最大范围。在一些示例中,最大范围可以基于检测概率的阈值。最大范围可以基于在给定范围处的对象的检测概率超过阈值来确定。在一些示例中,范围可以限制在跟踪移动对象的概率为95%的距离。在实践中,雷达范围在一些示例中可能限制在220米。
在框602处,方法600包含从具有第一视场和第一范围的第一传感器接收第一传感器数据。在一些示例中,第一传感器可以是LIDAR传感器。在各种示例中,LIDAR传感器可以被配置为旋转且具有对应于车辆周围的全360度平面的直到预定范围的视场。在其它示例中,LIDAR传感器可以被配置为可转动的且具有对应于小于车辆周围的全360度平面的直到预定范围的视场。在这些示例中,LIDAR传感器可以具有小于10度宽的视场,例如,8度宽。在一些示例中,框602可以与第一和第二LIDAR单元两者进行操作。
在LIDAR单元的操作期间,LIDAR单元可以将激光光脉冲发送到LIDAR单元的视场中。激光光脉冲可以被视场内的对象反射并被LIDAR单元接收回。LIDAR单元可以将反射回的光转换为数据。在一些示例中,LIDAR处理器可以将数据转换为LIDAR点云。
在框604处,方法600包含从具有第二视场和第二范围的第二传感器接收第二传感器数据,其中第一视场与第二视场的至少一部分重叠,并且第二范围大于第一个范围。在一些示例中,第二传感器可以是雷达传感器。在各种示例中,雷达传感器可以被配置为具有对应于车辆周围平面的90度部分的直到预定范围的视场。此外,雷达传感器还可以被配置为在多个扇区上操作。在一个示例中,雷达单元可以具有包括90度的视场的四个扇区。
在雷达单元的操作期间,雷达单元可以将电磁能雷达脉冲发送到雷达单元的视场中。电磁能量雷达脉冲可以被视场内的对象反射并被雷达单元接收回。雷达单元可以将反射回的电磁能雷达脉冲转换为数据。在一些示例中,雷达处理器可以将数据转换为雷达点云或其它数据格式。
在框606处,方法600包含由处理器确定第一视场中的第一传感器遮挡。第一传感器遮挡可以是致使LIDAR脉冲被反射回LIDAR单元的对象。在一些示例中,LIDAR处理器(或其它处理器)可以确定到反射回LIDAR脉冲的对象的距离和角度。各种对象可以具有到由处理器确定的对象的距离和角度。
在一些示例中,框606可以使用LIDAR视场来限制有效雷达视场。在每个方位角处,可以在各个LIDAR单元的最大距离的一半与LIDAR单元的最大距离之间的范围检查LIDAR遮挡。如果发现任何遮挡,则雷达范围被限制为到该遮挡物的范围。因此,在框606处,系统可以基于第一传感器遮挡确定第二传感器视场中被遮挡的区域。
因此,整个系统的视场还可以限制为在到遮挡对象的相应的角度处检测到的遮挡物距离。在实践中,通过基于LIDAR遮挡限制系统的雷达单元的视场,系统可以在雷达被遮挡但是在遮挡物上没有发现检测时降低扩展的雷达范围的虚假置信度的风险。将搜索限制在LIDAR范围的第二半部分还减少了我们在LIDAR范围之外看见的第一检测是反射的几率,并且允许雷达“查看”近距离的遮挡物。例如,由于LIDAR和雷达单元不必要安装在完全相同的位置,因此在一些示例中,雷达可以能够看透LIDAR遮挡物。通过仅在LIDAR范围的第二半部分搜索遮挡物,其中雷达可以看见遮挡物周围的情况可以使系统能够扩展其中雷达单元可以看透一些障碍的情况的整体视场。
在实践中,该系统以传统的方式操作,假设一些遮挡物将不会产生雷达检测,而一些实际上是遮挡物的雷达检测不与LIDAR障碍物/遮挡物精确重叠。
此外,在框606处,该方法还包括由处理器确定第一传感器遮挡大于第一传感器范围。事实上,如果没有LIDAR遮挡,系统可以确定LIDAR的范围无遮挡,并因此第一次遮挡在大于LIDAR范围的位置处。因此,在这些情况下,系统可以能够基于来自另一传感器(诸如雷达传感器)的数据来扩展无遮挡区域。在这些情况下,第一个传感器遮挡实际上可能没有遮挡。
在框608处,方法600包含基于来自第二传感器的数据由处理器确定第一视场的无遮挡区域。对于每个角度,其中在最大传感器距离的一半与最大传感器距离之间没有第一传感器遮挡,框608可以确定在该角度处的第一遮挡在第二传感器(诸如雷达传感器)的相应扇区内。在实践中,第一传感器可以是LIDAR传感器。当在给定角度处的最大LIDAR距离的一半与最大LIDAR距离之间没有遮挡时,系统可以操作对应于同一角度的雷达单元的扇区,以确定大于LIDAR最大距离的最近的雷达遮挡。因此,可能针对该角度的最大无遮挡区域可以对应于到相应扇区的第一雷达遮挡的距离。因此,在一些示例中,框608可以确定无遮挡区域是比第一范围(即,LIDAR传感器的范围)更大的区域。
例如,系统可以基于来自在第一传感器的范围的外面或在第一传感器的视场的外面的第二传感器的数据确定第一视场的无遮挡区域。在一些示例中,第一传感器(例如,LIDAR传感器)可以确定其具有遮挡。来自第二传感器(例如,雷达传感器)的数据可以能够确定第一传感器遮挡是假阳性。例如,雾或雨可以被确定为是第一传感器的遮挡。来自雷达传感器的数据可以用于确定该区域真的没有对象遮挡。
在实践中,在框608处,发送扇区几何形状被考虑用于确定遮挡。对于每次雷达检测,在检测范围处的检测发送扇区的范围被遍历,并且在边界处的任何超出LIDAR范围或者在范围内但是对任何LIDAR不可见的点也被标记为遮挡雷达。因此,框608的结果可以指示对于雷达不可见的区域。由于雷达扇区,在其上遮挡影响视场的角度区域可以比LIDAR的更宽。
在框608之后,方法600可以包括基于确定的无遮挡区域由处理器以自主模式操作车辆。操作车辆可以包括更新车辆周围没有对象的区域的自主车辆规划器。通过更新规划器,可以以安全的方式控制车辆的操作。在另一示例中,车辆可以基于车辆的操作状况使用无遮挡区域来向人类驾驶员提供信息或警告。例如,如果转弯不安全,可以提供警告。
虽然本文中已经公开了各种示例方面和示例实施例,但是其它方面和实施例对于本领域技术人员来说将是显而易见的。本文中公开的各种示例方面和示例实施例是为了说明的目的,而不是旨在进行限制,真实范围和精神由所附权利要求指示。
Claims (20)
1.一种系统,包括:
第一传感器,具有第一视场;
第二传感器,具有第二视场,其中,所述第一视场与所述第二视场的至少一部分重叠;以及
处理器,被配置为:
确定所述第一视场中的第一传感器遮挡;
基于来自所述第二传感器的数据,确定所述第一视场的无遮挡区域。
2.根据权利要求1所述的系统,其中:
所述第一传感器具有第一范围;
第二传感器具有第二范围,所述第二范围大于所述第一范围;并且
所述处理器还被配置为确定所述无遮挡区域是比所述第一范围更大的区域。
3.根据权利要求2所述的系统,其中,所述处理器还被配置为确定所述第一传感器遮挡大于所述第一范围。
4.根据权利要求2所述的系统,其中,所述第一视场被划分成第一多个扇区,所述第二视场被划分成第二多个扇区,并且其中,所述第一传感器遮挡是在每个扇区的基础上确定的。
5.根据权利要求2所述的系统,其中,所述处理器还被配置为:
基于所述第一传感器遮挡,确定所述第二传感器视场中被遮挡的区域;以及
基于来自所述第一传感器的范围之外或者所述第一传感器的视场之外的所述第二传感器的数据,确定所述第一视场的无遮挡区域。
6.根据权利要求1所述的系统,其中,所述第一传感器是LIDAR传感器,并且所述第二传感器是雷达传感器。
7.根据权利要求1所述的系统,其中,所述第一传感器配置有360度的视场,并且所述第二传感器配置有90度的视场。
8.根据权利要求1所述的系统,其中,所述处理器还被配置为:
确定所述第二视场中的第二传感器遮挡;
基于所述第二传感器遮挡,确定所述第一视场的无遮挡区域。
9.一种方法,包括:
从具有第一视场和第一范围的第一传感器接收第一传感器数据;
从具有第二视场和第二范围的第二传感器接收第二传感器数据,其中,所述第一视场与所述第二视场的至少一部分重叠,并且所述第二范围大于所述第一范围;
由处理器确定所述第一视场中的第一传感器遮挡;以及
由所述处理器基于来自所述第二传感器的数据确定所述第一视场的无遮挡区域。
10.根据权利要求9所述的方法,还包括:由所述处理器确定所述无遮挡区域是比所述第一范围更大的区域。
11.根据权利要求10所述的方法,还包括:由所述处理器确定所述第一传感器遮挡大于所述第一传感器范围。
12.根据权利要求9所述的方法,其中,所述第二视场被划分成第二多个扇区,并且其中,所述第一传感器遮挡是在每个扇区的基础上确定的。
13.根据权利要求9所述的方法,还包括:
基于所述第一传感器遮挡,由所述处理器确定所述第二传感器视场中被遮挡的区域;以及
基于来自所述第一传感器的范围之外或者所述第一传感器的视场之外的所述第二传感器的数据,由所述处理器确定所述第一视场的无遮挡区域。
14.根据权利要求9所述的方法,其中,所述第一传感器是LIDAR传感器,并且所述第二传感器是雷达传感器。
15.根据权利要求9所述的方法,其中,所述第一传感器配置有小于10度的视场,并且所述第二传感器配置有90度的视场。
16.根据权利要求9所述的方法,还包括:
由所述处理器确定所述第二视场中的第二传感器遮挡;
由所述处理器基于所述第二传感器遮挡确定所述第一视场的无遮挡区域。
17.一种车辆,包括:
第一LIDAR传感器,具有被划分成第一扇区集合的第一视场和第一范围;
第二LIDAR传感器,具有被划分成第二扇区集合的第二视场和第二范围;
至少一个雷达传感器,具有被划分成第三扇区集合的雷达传感器视场和第三范围,其中,所述雷达传感器视场与所述第一视场或所述第二视场的至少一部分重叠;以及
处理器,被配置为:
确定所述第一视场或所述第二视场中的第一传感器遮挡;
基于来自所述雷达传感器的数据,确定所述第一视场或所述第二视场的无遮挡区域;并且
基于确定所述无遮挡区域,以自主模式操作所述车辆。
18.根据权利要求17所述的车辆,其中,所述第一LIDAR传感器配置有360度的视场,其中,所述第二LIDAR传感器配置有8度的视场,并且所述雷达传感器配置有90度的视场。
19.根据权利要求17所述的车辆,其中,所述处理器还被配置为:
确定所述第一视场中每个扇区的第一传感器遮挡和所述第二视场中每个扇区的第二传感器遮挡中的一个;
基于来自所述雷达传感器的数据,确定所述第一视场或所述第二视场的无遮挡区域。
20.根据权利要求17所述的车辆,其中,所述处理器还被配置为:确定所述无遮挡区域是比所述第一范围或所述第二范围更大的区域。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/371,080 US11280897B2 (en) | 2019-03-31 | 2019-03-31 | Radar field of view extensions |
US16/371,080 | 2019-03-31 | ||
PCT/US2020/022081 WO2020205186A1 (en) | 2019-03-31 | 2020-03-11 | Radar field of view extensions |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113826028A true CN113826028A (zh) | 2021-12-21 |
Family
ID=72604168
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080036403.5A Pending CN113826028A (zh) | 2019-03-31 | 2020-03-11 | 雷达视场扩展 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11280897B2 (zh) |
EP (1) | EP3948346A4 (zh) |
CN (1) | CN113826028A (zh) |
WO (1) | WO2020205186A1 (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7165140B2 (ja) | 2017-05-10 | 2022-11-02 | グラバンゴ コーポレイション | 効率的配置のための直列構成カメラアレイ |
US10816666B2 (en) * | 2017-11-21 | 2020-10-27 | Magna Electronics Inc. | Vehicle sensing system with calibration/fusion of point cloud partitions |
US11035945B2 (en) * | 2019-04-18 | 2021-06-15 | GM Global Technology Operations LLC | System and method of controlling operation of a device with a steerable optical sensor and a steerable radar unit |
US11815598B2 (en) * | 2019-06-10 | 2023-11-14 | Microsoft Technology Licensing, Llc | Anti-collision and motion monitoring, control, and alerting systems and methods |
US11747457B2 (en) * | 2019-06-25 | 2023-09-05 | Intel Corporation | Multi-static radar system for automobile radar sensing |
US20210201431A1 (en) * | 2019-12-31 | 2021-07-01 | Grabango Co. | Dynamically controlled cameras for computer vision monitoring |
US11531114B2 (en) * | 2020-06-16 | 2022-12-20 | Toyota Research Institute, Inc. | Sensor placement to reduce blind spots |
EP3955023A1 (en) * | 2020-08-13 | 2022-02-16 | Stichting IMEC Nederland | Method and device for extracting spatial/velocity resolution of a single-input single-output radar |
WO2022188185A1 (zh) * | 2021-03-12 | 2022-09-15 | 深圳市大疆创新科技有限公司 | 探测系统和可移动平台 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6061015A (en) * | 1998-01-14 | 2000-05-09 | Honda Giken Kogyo Kabushiki Kaisha | Vehicle obstacle detecting system |
CN103026395A (zh) * | 2010-11-15 | 2013-04-03 | 图像传感系统有限公司 | 混合交通传感器系统和相关的方法 |
CN105324287A (zh) * | 2013-04-11 | 2016-02-10 | 谷歌公司 | 使用车载传感器检测天气条件的方法和系统 |
US20170345321A1 (en) * | 2014-11-05 | 2017-11-30 | Sierra Nevada Corporation | Systems and methods for generating improved environmental displays for vehicles |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100235129A1 (en) * | 2009-03-10 | 2010-09-16 | Honeywell International Inc. | Calibration of multi-sensor system |
US8589014B2 (en) * | 2011-06-01 | 2013-11-19 | Google Inc. | Sensor field selection |
US8441394B2 (en) * | 2011-07-11 | 2013-05-14 | Delphi Technologies, Inc. | System and method for detecting obstructions and misalignment of ground vehicle radar systems |
US9720412B1 (en) * | 2012-09-27 | 2017-08-01 | Waymo Llc | Modifying the behavior of an autonomous vehicle using context based parameter switching |
US9097800B1 (en) * | 2012-10-11 | 2015-08-04 | Google Inc. | Solid object detection system using laser and radar sensor fusion |
US9291659B2 (en) * | 2013-12-19 | 2016-03-22 | Ford Global Technologies, Llc | Antenna blockage detection |
EP2921363A1 (en) * | 2014-03-18 | 2015-09-23 | Volvo Car Corporation | Vehicle, vehicle system and method for increasing safety and/or comfort during autonomous driving |
US9625582B2 (en) | 2015-03-25 | 2017-04-18 | Google Inc. | Vehicle with multiple light detection and ranging devices (LIDARs) |
KR101714233B1 (ko) | 2015-10-06 | 2017-03-08 | 현대자동차주식회사 | 도로상의 물체 검출 장치 및 그 방법 |
US10267908B2 (en) * | 2015-10-21 | 2019-04-23 | Waymo Llc | Methods and systems for clearing sensor occlusions |
US20170242117A1 (en) * | 2016-02-19 | 2017-08-24 | Delphi Technologies, Inc. | Vision algorithm performance using low level sensor fusion |
US10162046B2 (en) * | 2016-03-17 | 2018-12-25 | Valeo Radar Systems, Inc. | System and method for detecting blockage in an automotive radar |
US10160448B2 (en) | 2016-11-08 | 2018-12-25 | Ford Global Technologies, Llc | Object tracking using sensor fusion within a probabilistic framework |
US10656245B2 (en) * | 2017-09-05 | 2020-05-19 | Valeo Radar Systems, Inc. | Automotive radar sensor blockage detection using adaptive overlapping visibility |
US11488476B2 (en) * | 2018-01-09 | 2022-11-01 | Motional Ad Llc | Detection system and method |
US11353577B2 (en) * | 2018-09-28 | 2022-06-07 | Zoox, Inc. | Radar spatial estimation |
US20200130685A1 (en) * | 2018-10-30 | 2020-04-30 | Denso International America, Inc. | Apparatus and method for identifying sensor occlusion in autonomous vehicles |
-
2019
- 2019-03-31 US US16/371,080 patent/US11280897B2/en active Active
-
2020
- 2020-03-11 EP EP20782750.2A patent/EP3948346A4/en active Pending
- 2020-03-11 WO PCT/US2020/022081 patent/WO2020205186A1/en unknown
- 2020-03-11 CN CN202080036403.5A patent/CN113826028A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6061015A (en) * | 1998-01-14 | 2000-05-09 | Honda Giken Kogyo Kabushiki Kaisha | Vehicle obstacle detecting system |
CN103026395A (zh) * | 2010-11-15 | 2013-04-03 | 图像传感系统有限公司 | 混合交通传感器系统和相关的方法 |
CN105324287A (zh) * | 2013-04-11 | 2016-02-10 | 谷歌公司 | 使用车载传感器检测天气条件的方法和系统 |
US20170345321A1 (en) * | 2014-11-05 | 2017-11-30 | Sierra Nevada Corporation | Systems and methods for generating improved environmental displays for vehicles |
Also Published As
Publication number | Publication date |
---|---|
EP3948346A4 (en) | 2022-12-21 |
WO2020205186A1 (en) | 2020-10-08 |
US11280897B2 (en) | 2022-03-22 |
EP3948346A1 (en) | 2022-02-09 |
US20200309942A1 (en) | 2020-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11281918B1 (en) | 3D position estimation of objects from a monocular camera using a set of known 3D points on an underlying surface | |
US11280897B2 (en) | Radar field of view extensions | |
CN111480130B (zh) | 用于太阳感知载具路线选择的方法、载具及计算系统 | |
CN109844562B (zh) | 用于自主车辆感知和计划的雷达生成的占用网格 | |
US9121703B1 (en) | Methods and systems for controlling operation of a laser device | |
US9440652B1 (en) | Filtering noisy/high-intensity regions in laser-based lane marker detection | |
US9086481B1 (en) | Methods and systems for estimating vehicle speed | |
US8818609B1 (en) | Using geometric features and history information to detect features such as car exhaust in point maps | |
US11671564B2 (en) | Adjusting vehicle sensor field of view volume | |
US9043072B1 (en) | Methods and systems for correcting an estimated heading using a map | |
CN112414421B (zh) | 多反弹目标缓解 | |
US11435434B2 (en) | Multibounce target additional data | |
US20220146652A1 (en) | Multi-Sensor Synchronization Measurement Device | |
US20240106987A1 (en) | Multi-Sensor Assembly with Improved Backward View of a Vehicle | |
US20230408651A1 (en) | Spinning Lidar With One or More Secondary Mirrors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |