CN113994365A - 车辆感知系统的计算资源的基于意图的动态改变 - Google Patents

车辆感知系统的计算资源的基于意图的动态改变 Download PDF

Info

Publication number
CN113994365A
CN113994365A CN201980095097.XA CN201980095097A CN113994365A CN 113994365 A CN113994365 A CN 113994365A CN 201980095097 A CN201980095097 A CN 201980095097A CN 113994365 A CN113994365 A CN 113994365A
Authority
CN
China
Prior art keywords
vehicle
filter
perception
roi
intent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201980095097.XA
Other languages
English (en)
Inventor
P·阿拉瓦尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Motors Cruise Holdings LLC
Original Assignee
General Motors Cruise Holdings LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Motors Cruise Holdings LLC filed Critical General Motors Cruise Holdings LLC
Publication of CN113994365A publication Critical patent/CN113994365A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/617Upgrading or updating of programs or applications for camera control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)

Abstract

本公开提供了用于车辆的感知系统,包括:多个成像设备,用于产生车辆环境的图像;感知过滤器,用于接收由成像设备产生的图像,其中所述感知过滤器基于车辆的意图和车辆的当前状态来确定计算资源优先级指令;以及计算模块,用于从感知过滤器接收计算资源优先级指令,并根据计算资源优先级指令在成像设备之中分配计算资源。

Description

车辆感知系统的计算资源的基于意图的动态改变
相关申请的交叉引用
本申请要求保护来自于2019年9月27日提交的题为“INTENT-BASED DYNAMICCHANGE OF COMPUTE RESOURCES OF VEHICLE PERCEPTION SYSTEM”的美国专利申请序列号16/586,607的权益和优先权,所述美国专利申请以其整体通过引用并入本文中。
技术领域
本公开一般涉及自主车辆(AV),并且更具体地,涉及用于这样的车辆的感知系统的分辨率、感兴趣区(ROI)和计算资源的基于意图的动态改变的设备和方法。
背景技术
准确且快速地感知自主车辆的环境和周围环境对于车辆来说至关重要;然而,这两个目标通常彼此直接对立。例如,诸如计算机视觉(CV)设备、相机和LIDAR设备之类的高分辨率成像器提供大量图像数据,所述图像数据可以用于通过使能实现精确且可靠的检测来准确感知自主车辆的周围环境;然而,由这样的成像器提供的信息量增加了感知系统的总体等待时间,从而减少了可以由自主车辆实现的反应时间。
附图说明
为了提供对本公开及其特征和优点的更完整理解,结合附图参考以下描述,其中类似的参考标记表示类似的部分,其中:
图1是图示可以在其中实现根据本公开的一些实施例的感知系统的示例自主车辆的框图;
图2是图示根据本公开的一些实施例的示例感知系统的框图;
图3是根据本公开的一些实施例的由示例感知系统实现的示例方法的流程图;以及
图4A-4D图示了根据本公开的一些实施例的示例感知系统的示例用例。
具体实施方式
本公开的系统、方法和设备每个均具有若干创新方面,其中没有单个一个单独负责本文中公开的所有期望属性。在下面的描述和附图中阐述本说明书中描述的主题的一个或多个实现的细节。
本公开的实施例提供了一种用于车辆的感知系统。感知可以包括多个成像设备,用于产生车辆环境图像;感知过滤器,用于接收由成像设备产生的图像,其中所述感知过滤器基于车辆的意图和车辆的当前状态来确定计算资源优先级指令;以及计算模块,用于从感知过滤器接收计算资源优先级指令,并根据计算资源优先级指令在成像设备之中分配计算资源。
本公开的实施例还提供了一种自主车辆(“AV”),其包括车载计算机、包括多个成像设备的传感器套件、以及感知系统。感知系统包括多个成像设备,用于产生AV环境图像;感知过滤器,用于接收由成像设备产生的图像,其中所述感知过滤器基于AV的意图和AV的当前状态来确定计算资源优先级指令;以及计算模块,用于从感知过滤器接收计算资源优先级指令,并根据计算资源优先级指令在成像设备之中分配计算资源。
本公开的实施例仍进一步提供了一种方法,该方法包括部署用于产生车辆环境图像的多个成像设备;由感知过滤器接收由成像设备产生的图像,其中所述感知过滤器基于车辆的意图和车辆的当前状态来确定计算资源优先级指令;由计算模块接收计算资源优先级指令;以及由计算模块根据计算资源优先级指令在成像设备之中分配计算资源。
本文中公开的实施例对于基于自主车辆的意图以及自主车辆的时间和情境优先级来动态改变自主车辆的感知系统的分辨率、ROI和计算资源可以是特别有利的。
如本领域技术人员将领会的,本公开的方面,特别是本文中描述的用于自主车辆的感知系统的方面,可以以各种方式(例如,作为方法、系统、计算机程序产品或计算机可读存储介质)体现。因此,本公开的方面可以采取完全硬件实施例、完全软件实施例(包括固件、常驻软件、微代码等)或组合软件和硬件方面的实施例的形式,所述方面在本文中一般可以全部被称为“电路”、“模块”或“系统”。本公开中描述的功能可以被实现为由一个或多个计算机的一个或多个硬件处理单元(例如一个或多个微处理器)执行的算法。在各种实施例中,本文中描述的每个方法的不同步骤和步骤的部分可以由不同的处理单元来施行。更进一步地,本公开的方面可以采取体现在一个或多个计算机可读介质中的计算机程序产品的形式,所述计算机可读介质优选地是非暂时性的,其上体现有(例如存储有)计算机可读程序代码。在各种实施例中,这样的计算机程序可以例如被下载(更新)到现有的设备和系统(例如到现有的感知系统设备和/或它们的控制器等)或者在制造这些设备和系统时被存储。
以下详细描述呈现了特定某些实施例的各种描述。然而,本文中描述的创新可以以例如如权利要求和/或所选择示例所定义和覆盖的多种不同的方式体现。在以下描述中,参对附图进行参考,其中类似的附图标记可以指示相同或功能相似的元件。将理解,附图中图示的元件不一定是按比例绘制的。此外,将理解,某些实施例可以包括比附图中图示的更多的元件和/或附图中图示的元件的子集。另外,一些实施例可以并入来自两个或更多个附图的特征的任何合适的组合。
以下公开描述了用于实现本公开的特征和功能的各种说明性实施例和示例。虽然下面结合各种示例实施例描述了特定的组件、布置和/或特征,但是这些仅仅是用于简化本公开的示例,而不意图是限制性的。当然将领会,在任何实际实施例的开发中,必须做出许多特定于实现的决定以实现开发者的特定目标,包括遵守系统、业务和/或法律约束,这可能从一个实现到另一个实现变化。此外,将领会,虽然这样的开发努力可能是复杂且耗时的;但是,对于受益于本公开的本领域普通技术人员来说,这将不过是一项例行任务。
在本说明书中,可以对如附图中所描绘的各种组件之间的空间关系以及组件的各个方面的空间定向进行参考。然而,如本领域技术人员在完整阅读本公开之后将认识到的,本文中描述的设备、组件、构件、装置等可以以任何期望的定向被定位。因此,使用诸如“上面”、“下面”、“上部”、“下部”、“顶部”、“底部”之类的术语或其它相似术语来描述各种组件之间的空间关系或者描述这样的组件的各方面的空间定向,应当被理解为相应地描述所述组件之间的相对关系或者这样的组件的各方面的空间定向,因为本文中描述的组件可以在任何期望的方向上定向。当用于描述元件、操作和/或条件的尺寸或其它特性(例如,时间、压力、温度、长度、宽度等)的范围时,短语“在X和Y之间”表示包括X和Y的范围。
根据以下描述和权利要求,本公开的其它特征和优点将是显而易见的。
一个实施例是用于自主车辆的感知系统。感知系统可以从自主车辆的多个传感器和成像器接收全分辨率信息,以及从自主车辆的计划器和控制系统接收自主车辆的意图和当前状态。基于所接收的信息,考虑到自主车辆的当前状态和意图,感知系统的感知过滤器可以基于什么信息是最重要的或相关的来动态地缩放和裁剪来自成像器的图像数据。例如,如果自主车辆在高速公路上高速行驶,则在长距离内直线向前到地平线可能是要关注的最重要区域或感兴趣区(“ROI”)。在这样的情境下,可以向感知模块提供包括ROI的图像数据的高分辨率裁剪,而不是来自(一个或多个)成像器的整个图像,来感知自主车辆的周围环境。相比之下,当在城市中低速驾驶时,自主车辆周围的周围环境是重要的,并且可能包括ROI。在这样的情境下,来自车辆四周的低分辨率图像和传感器数据可以被提供给感知模块以感知自主车辆的相关周围环境。
此外,感知系统的感知过滤器可以基于自主车辆的状态和意图来缩放特定传感器的计算资源和分辨率。特别地,考虑到自主车辆驾驶的本质,许多系统通常竞争有限的资源(例如,CPU和GPU资源)。这种资源分配可以取决于如由基于自主车辆状态和意图的(一个或多个)ROI所规定的资源数据的相对重要性而实时改变。例如,如果自主车辆正在以高速公路速度改变车道,则ROI将在相当远的距离处意图车道改变的方向上(例如,左侧或右侧)。根据本文中描述的实施例的特征,感知系统可以将更大的计算资源分配给相机和/或指向所标识的ROI的(一个或多个)其它传感器,并且同时例如通过减少那些传感器的分辨率来减少其它传感器(即,指向除了ROI之外的区的传感器)的计算资源。作为结果,总体系统等待时间减少,同时操作质量保持高。
如图1中所示出的,实现感知系统的分辨率、感兴趣区(ROI)和计算资源的基于意图的动态改变的系统100包括自主车辆110,该自主车辆110包括乘客接口120、车辆协调器130和/或远程专家接口140。在某些实施例中,远程专家接口140允许非乘客实体设置和/或修改自主车辆110的行为设置。非乘客实体可以不同于车辆协调器130,所述车辆协调器130可以是服务器。
系统100用于使得自主车辆110能够响应于由车辆乘客(例如,经由乘客接口120)和/或其它感兴趣方(例如,经由车辆协调器130或远程专家接口140)设置的参数来修改和/或设置驾驶行为。自主车辆的驾驶行为可以根据显式输入或反馈(例如,乘客指定最大速度或相对舒适水平)、隐式输入或反馈(例如,乘客的心率)、或传送驾驶行为偏好的任何其它合适的数据或方式来修改。
自主车辆110优选地是完全自主的汽车,但是可以附加地或替代地是任何半自主或完全自主车辆;例如,船、无人机、无人驾驶汽车等。附加地或替代地,自主车辆可以是在半自主状态和完全自主状态之间切换的车辆,并且因此,取决于车辆的状态,一些自主车辆可以具有半自主车辆和完全自主车辆二者的属性。
自主车辆110优选地包括:节气门接口,其控制引擎节气门、电机速度(例如,电动机的旋转速度)或任何其它移动使能机构;制动器接口,其控制自主车辆的制动器(或任何其它移动减速机构);以及转向接口,其控制自主车辆的转向(例如,通过改变自主车辆的车轮角度)。自主车辆110可以附加地或替代地包括用于控制任何其它车辆功能的接口;例如,挡风玻璃刮水器、前灯、转弯指示器、空调等。
此外,自主车辆110优选地包括车载计算机145和传感器套件150(例如,计算机视觉(“CV”)系统、LIDAR、RADAR、车轮速度传感器、GPS、相机等)。车载计算机145用于控制自主车辆110,并处理来自传感器套件150和/或其它传感器的感测数据,以便确定自主车辆110的状态。基于车辆状态和编程指令,车载计算机145优选地修改或控制自主车辆110的驾驶行为。
驾驶行为可以包括与在给定指令集(例如,路线或计划)的情况下自主车辆如何驾驶(例如,致动制动器、加速器、转向)有关的任何信息。驾驶行为可以包括对自主车辆的受控操作和移动的描述以及自主车辆以其在一个或多个驾驶会话期间应用交通规则的方式。驾驶行为可以附加地或替代地包括关于自主车辆如何计算路线(例如,对最快时间相对于最短距离进行优先级排序)、其它自主车辆致动行为(例如,灯、挡风玻璃刮水器、牵引力控制设置等的致动)和/或自主车辆如何响应于环境刺激(例如,如果下雨,或者如果动物跳到车辆前方,则自主车辆如何表现)的任何信息。可以贡献于驾驶行为的元素的一些示例包括加速度约束、减速度约束、速度约束、转向约束、悬架设置、路线偏好(例如,风景路线、更快路线、无高速公路)、照明偏好、“法律模糊”行为(例如,在绿灯持续亮的左转情境中,车辆是驶出到交叉口中还是在交叉口线处等待)、动作简档(例如,车辆如何转弯、改变车道或施行驾驶操纵)和动作频率约束(例如,车辆有多经常改变车道)。
车载计算机145用于控制自主车辆110的操作和功能,并处理来自传感器套件150和/或其它传感器的感测数据,以便确定自主车辆的状态。基于车辆状态和编程指令,车载计算机145优选地修改或控制自主车辆110的行为。车载计算机145优选地是适合于与车辆控制系统和传感器系统进行I/O通信的通用计算机,但是附加地或替代地可以是任何合适的计算设备。车载计算机145优选地经由无线连接(例如,经由蜂窝数据连接)连接到互联网。附加地或替代地,车载计算机145可以耦合到任何数量的无线或有线通信系统。
传感器套件150优选地包括定位和驱动传感器;例如,光电检测器、相机、RADAR、SONAR、LIDAR、GPS、惯性测量单元(IMU)、加速度计、麦克风、应变仪、压力监视器、气压计、温度计、高度计等。
现在参考图2,其中图示了用于诸如自主车辆110之类的自主车辆的感知系统200。感知系统200的部分或全部可以被实现为传感器套件(诸如传感器套件150)和/或车载计算机(诸如车载计算机145)。如图2中所示出的,感知系统包括感知过滤器205,其包括用于处理来自各种源的信息和数据的硬件和/或软件,所述源包括但不限于相机210、LIDAR 215、RADAR 220、车辆状态225、车辆意图230(其可以基于计划路线/从计划路线导出)和/或世界地图信息235。如下面将更详细描述的,感知过滤器205处理所接收的信息/数据以过滤和缩放信息,并将经处理/过滤的信息提供给感知模块240,所述感知模块240基于提供给它的(例如,来自感知过滤器205的)数据做出关于自主车辆的物理环境的性质的推断。特别地,感知模块240可以对其接收的信息施行检测和分割。附加地和/或替代地,感知过滤器205处理所接收的信息/数据,并将计算优先级排序信息提供给计算系统245,所述计算系统245将计算资源分配给传感器套件(例如,传感器套件150)的设备。计算系统245是车辆中的主CPU/GPU计算资源。
相机210可以使用具有固定安装和视场的高分辨率成像器来实现。可以使用具有动态可配置视场的扫描LIDAR来实现LIDAR 215,所述视场提供了意图要扫描的区的点云。可以使用具有动态可配置视场的扫描RADAR 来实现RADAR 220。车辆状态225包括车辆的当前定位、速度和(一个或多个)其它状态。车辆意图230包括车辆的意图,诸如车道改变、转弯等。世界地图235是高清晰度的世界地图,其包括语义和高度信息。
图3是根据本公开的一些实施例的由示例感知系统(诸如图2的感知系统200)实现的示例方法300的流程图。在步骤305中,感知系统(例如,感知过滤器)确定自主车辆的意图(例如,使用其计划路线)和自主车辆的当前状态。在步骤310中,感知系统(例如,感知过滤器)根据基于自主车辆的当前状态和意图确定的ROI来裁剪和过滤从成像器和传感器(例如,相机、LIDAR和RADAR)接收的数据,并将经裁剪和过滤的数据提供给感知系统的感知模块。在步骤315中,感知模块使用经裁剪和过滤的数据来感知自主车辆的环境,并基于感知的环境、当前状态和意图来采取适当的动作。
附加地和/或替代地,在步骤320中,感知系统(例如,感知过滤器)基于自主车辆的ROI和/或当前状态和意图来确定计算资源优先级,并且向感知系统的计算模块提供计算资源优先级指令。在步骤325中,计算模块通过根据优先级指令将资源分配给包括传感器套件的成像器和传感器来实现计算资源优先级指令。
将认识到,步骤310/315可以在步骤320/325之前、之后、同时或代替步骤320/325来实现。相似地,步骤320/325可以在步骤310/315之前、之后、同时或代替步骤310/315来执行。在完成步骤315和/或步骤325时,在步骤330中,感知系统(例如,感知过滤器)向传感器套件提供扫描指令。
下面的表1提供了用于说明根据方法300的诸如本文中描述的感知系统的实施例的操作的示例用例的非详尽列表。
<u>示例</u> <u>AV意图</u> <u>AV状态</u> <u>感知模块的指令</u> <u>计算模块的指令</u> <u>传感器套件的指令</u>
1 在高速公路高速直线驾驶,而没有车道改变 在其车道上直线驾驶 使用来自与路段相对应的帧区的前传感器的高分辨率传感器裁剪,用于进行长距离检测。使用来自其它传感器的经缩放的传感器信息,用于进行短距离检测。 对前传感器的计算资源进行优先级排序,以保持低的等待时间。 LIDAR和RADAR对与ROI相对应的车辆前方的小的FOV进行密集扫描。在其它任何地方进行稀疏扫描。
2 进行从左车道到右车道的车道改变 在其车道上直线驾驶 使用来自车辆后方的高分辨率传感器裁剪,用于进行长距离检测。使用来自其它传感器的经缩放的传感器信息,用于进行短距离检测。 对后传感器的计算资源进行优先级排序,以保持低的等待时间。 LIDAR和RADAR对与ROI相对应的区域中的 FOV进行密集扫描。在其它任何地方进行稀疏扫描。
3 进行右转弯 直线指向前方,等待进行转弯 使用来自车辆前方和左侧的高分辨率传感器信息,用于在那些区中进行长距离检测。使用来自其它传感器的经缩放的传感器信息,用于进行短距离检测。 对左传感器和前传感器的计算资源进行优先级排序,以保持低的等待时间。 LIDAR和RADAR对在与ROI相对应的左侧和右侧上的FOV进行密集扫描。在其它任何地方进行稀疏扫描。
4 在住宅区域低速直线驾驶 在其车道上直线驾驶 使用来自所有传感器的经缩放的低分辨率信息,用于进行短距离检测。 应用均匀的计算资源。 在任何地方进行均匀扫描。
表1。
表1中所列出的示例1-4在图4A-4D中图示并将参考图4A-4D更详细地描述。参考图4A,其图示了来自表1的示例1,车辆400正在高速公路上直线驾驶(相对高速),而不计划进行车道改变。由感知过滤器提供给感知模块的图像/传感器信息可以包括来自与路段相对应的图像帧区的用于长距离检测的高分辨率传感器裁剪。此外,来自其它传感器的经缩放的信息也可以被提供用于其它区中的短距离检测。可以指令计算模块来对前传感器的计算资源进行优先级排序,以保持系统低的等待时间。此外,LIDAR和RADAR设备被指令对与感兴趣区(ROI)相对应的车辆前方的小的视场(FOV)进行密集扫描,并且对ROI之外的FOV进行稀疏扫描。在这种场景中,ROI可以由区域405表示。
参考图4B,其图示了来自表1的示例2,车辆410正在高速公路上驾驶(相对高速),并且计划进行从左车道到右车道的车道改变。由感知过滤器提供给感知模块的图像/传感器信息可以包括来自车辆后方的用于长距离检测的高分辨率传感器裁剪。此外,来自其它传感器的经缩放的信息也可以被提供用于其它区中的短距离检测。可以指令计算模块来对后传感器的计算资源进行优先级排序,以保持系统低的等待时间。此外,LIDAR和RADAR设备被指令对在与ROI相对应的区域中的FOV进行密集扫描,并且对在ROI之外的FOV进行稀疏扫描。在这种场景中,ROI可以由区域415表示。
参考图4C,其图示了来自表1的示例3,车辆420正在计划在住宅交叉口处进行右转弯(相对低速)。由感知过滤器提供给感知模块的图像/传感器信息可以包括来自车辆前方和左侧的用于在那些区中进行长距离检测的高分辨率传感器信息。此外,来自其它传感器的经缩放的传感器信息也可以被提供用于在其它区中的短距离检测。可以指令计算模块来对前传感器和左传感器的计算资源进行优先级排序,以保持系统低的等待时间。此外,LIDAR和RADAR设备被指令对在与ROI相对应的左侧和右侧上的FOV进行密集扫描,并且对其它任何地方进行稀疏扫描。在这种场景中,ROI可以由区域425表示。
最后,参考图4D,其图示了来自表1的示例4,车辆430正在计划继续在住宅街道上直线驾驶(相对低速)。由感知过滤器提供给感知模块的图像/传感器信息可以包括来自所有传感器的用于低距离检测的经缩放的低分辨率信息。可以指令计算模块将均匀的计算资源应用于所有传感器。此外,传感器(例如,LIDAR和RADAR设备)被指令在任何地方应用均匀扫描。在这种场景中,ROI可以由区域435表示。
应当理解,不一定可以根据本文中描述的任何特定实施例实现所有的目的或优点。因此,例如,本领域技术人员将认识到,某些实施例可以被配置为以实现或优化如本文中教导的一个优点或一组优点的方式来操作,而不一定实现如本文中教导或建议的其它目的或优点。
在一个示例实施例中,可以在相关联的电子设备的板上实现图中的任何数量的电路。该板可以是一般电路板,其可以容纳电子设备的内部电子系统的各种组件,并且进一步提供用于其它外设的连接器。更具体地,板可以提供电气连接,系统的其它组件可以通过所述电气连接进行电气通信。任何合适的处理器(包括数字信号处理器、微处理器、支持芯片集等)、计算机可读非暂时性存储器元件等可以基于特定的配置需要、处理需求、计算机设计等被合适地耦合到板。其它组件,诸如外部存储装置、附加传感器、用于音频/视频显示的控制器、以及外围设备,可以作为插件卡经由线缆附接到板,或者集成到板本身中。在各种实施例中,本文中描述的功能可以以仿真形式被实现为在布置在支持这些功能的结构中的一个或多个可配置(例如,可编程)元件内运行的软件或固件。提供仿真的软件或固件可以在包括允许处理器实行那些功能的指令的非暂时性计算机可读存储介质上提供。
在另一示例实施例中,图的电路可以被实现为独立模块(例如,具有被配置为施行特定应用或功能的相关联组件和电路的设备),或者作为插件模块被实现到电子设备的应用特定硬件中。注意,本公开的特定实施例可以部分地或全部地容易包括在片上系统(SOC)封装中。SOC表示将计算机或其它电子系统的组件集成到单个芯片中的IC。它可以包含数字、模拟、混合信号,并且通常包含射频功能:所有所述功能都可以在单个芯片衬底上提供。其它实施例可以包括多芯片模块(MCM),其中多个单独的IC位于单个电子封装内,并被配置为通过电子封装与彼此紧密交互。在各种其它实施例中,数字滤波器可以在专用集成电路(ASIC)、现场可编程门阵列(FPGA)和其它半导体芯片中的一个或多个硅核中实现。
还必须注意,本文中概述的所有规范、尺寸和关系(例如,处理器的数量、逻辑运算等)仅被提供用于仅示例和教导目的。在不脱离本公开的精神或所附权利要求的范围的情况下,这样的信息可以大大变化。说明书仅适用于一个非限制性示例,并且因此,它们应该被照此解释。在前述描述中,已经参考组件的特定布置描述了示例实施例。在不脱离所附权利要求的范围的情况下,可以对这样的实施例进行各种修改和改变。因此,描述和附图被认为是说明性的,而不是限制性意义的。
注意,利用本文中提供的许多示例,可以依据两个、三个、四个或更多个电子组件来描述交互。然而,这样做仅出于清楚性和示例的目的。应当领会,该系统可以以任何合适的方式合并。沿着相似的设计替代,图的任何所图示组件、模块和元件可以以各种可能的配置组合,所有这些清楚地都在本说明书的广泛范围内。在某些情况下,通过仅引用有限数量的电气元件来描述给定流程集的一个或多个功能可能更容易。应当领会,图的电路及其教导是容易扩展的,并且可以容纳大量组件以及更复杂/精密的布置和配置。因此,所提供的示例不应限制电路的范围或阻碍电路的广泛教导,因为其潜在地应用于无数其它架构。
注意,在本说明书中,对包括在“一个实施例”、“示例实施例”、“实施例”、“另一实施例”、“一些实施例”、“各种实施例”、“其它实施例”、“替代实施例”以及诸如此类中的各种特征(例如,元件、结构、模块、组件、步骤、操作、特性等)的引用,意图意味着任何这样的特征都被包括在本公开的一个或多个实施例中,但是可以或不一定可以组合在相同的实施例中。
还重要的是要注意,与使用磁性传感器的非接触式电流测量相关的功能,例如在图中所示出的一个或多个过程中总结的那些,仅图示了可以由图中图示的电流测量系统执行或在其内执行的可能功能中的一些。在不脱离本公开的范围的情况下,这些操作中的一些可以在适当的地方被删除或移除,或者这些操作可以被大大修改或改变。此外,这些操作的定时可以大大更改。前面的操作流程已经出于示例和讨论的目的而提供。本文中描述的实施例提供了相当大的灵活性,因为在不脱离本公开的教导的情况下,可以提供任何合适的布置、时序、配置和定时机制。
本领域技术人员可以查明许多其它的改变、替换、变化、更改和修改,并且本公开意图涵盖如落入所附权利要求的范围内的所有这样的改变、替换、变化、更改和修改。注意,上面描述的装置的所有可选特征也可以关于本文中描述的方法或过程来实现,并且示例中的细节可以在一个或多个实施例中的任何地方使用。
为了协助美国专利和商标局(USPTO),以及附加地,协助本申请上所发布的任何专利的任何读者解释对此所附权利要求,申请人希望指出,申请人:(a)不意图使任何所附权利要求援引35 U.S.C第112节(f)段,因为它在本申请提交之日就存在,除非在特定权利要求中具体使用了词语“用于……的手段”或“用于……的步骤”;和(b)不意图通过说明书中的任何陈述以任何未在所附权利要求中另外反映的方式来限制本公开。

Claims (20)

1.一种用于车辆的感知系统,所述感知系统包括:
多个成像设备,用于产生车辆环境图像;
感知过滤器,用于接收由成像设备产生的图像,其中所述感知过滤器基于车辆的意图和车辆的当前状态来确定计算资源优先级指令;以及
计算模块,用于从感知过滤器接收计算资源优先级指令,并根据计算资源优先级指令在成像设备之中分配计算资源。
2.根据权利要求1所述的感知系统,其中所述感知过滤器基于车辆的意图和车辆的当前状态来确定车辆的感兴趣区(“ROI”),并且其中所述ROI被感知过滤器用于确定计算资源优先级指令。
3.根据权利要求1所述的感知系统,其中所述感知过滤器基于车辆的意图和车辆的当前状态来裁剪和过滤所接收的图像。
4.根据权利要求3所述的感知系统,进一步包括感知模块,用于从当前感知过滤器接收经裁剪和过滤的图像中的至少一个,并基于所接收的经裁剪和过滤的图像中的至少一个来感知车辆的环境。
5.根据权利要求1所述的感知系统,其中所述感知过滤器进一步向成像设备中的至少一个提供扫描指令。
6.根据权利要求4所述的感知系统,其中所述感知过滤器基于车辆的意图和车辆的当前状态来确定车辆的感兴趣区(“ROI”),并且其中所述ROI被感知过滤器用于裁剪所选择的至少一个所接收的图像。
7.根据权利要求6所述的感知系统,其中所述ROI被感知过滤器用于确定所选择的所接收的图像中的至少一个的分辨率。
8.根据权利要求1所述的感知系统,其中所述车辆包括自动驾驶车辆。
9.根据权利要求1所述的感知系统,其中所述成像设备包括相机、LIDAR设备和RADAR设备中的至少一个。
10.一种自主车辆(“AV”),包括:
车载计算机;
包括多个成像设备的传感器套件;以及
感知系统,包括:
多个成像设备,用于产生AV环境图像;
感知过滤器,用于接收由成像设备产生的图像,其中所述感知过滤器基于AV的意图和AV的当前状态来确定计算资源优先级指令;以及
计算模块,用于从感知过滤器接收计算资源优先级指令,并根据计算资源优先级指令在成像设备之中分配计算资源。
11.根据权利要求10所述的AV,其中所述感知过滤器基于AV的意图和AV的当前状态来确定AV的感兴趣区(“ROI”),并且其中所述ROI被感知过滤器用于确定计算资源优先级指令。
12.根据权利要求10所述的AV,其中所述感知过滤器基于AV的意图和AV的当前状态来裁剪和过滤所接收的图像,所述感知系统进一步包括感知模块,用于从当前感知过滤器接收经裁剪和过滤的图像中的至少一个,并且基于所接收的经裁剪和过滤的图像中的至少一个来感知AV的环境。
13.根据权利要求12所述的AV,其中所述感知过滤器基于AV的意图和AV的当前状态来确定感兴趣区(“ROI”),并且其中所述ROI被感知过滤器用于裁剪所选择的至少一个所接收的图像。
14.根据权利要求13所述的AV,其中所述ROI被感知过滤器用于确定所选择的所接收的图像中的至少一个的分辨率。
15.根据权利要求10所述的AV,其中所述感知过滤器进一步向成像设备中的至少一个提供扫描指令。
16.一种方法,包括:
部署用于产生车辆环境图像的多个成像设备;
由感知过滤器接收由成像设备产生的图像,其中所述感知过滤器基于车辆的意图和车辆的当前状态来确定计算资源优先级指令;以及
由计算模块接收计算资源优先级指令;以及
由计算模块根据计算资源优先级指令在成像设备之中分配计算资源。
17.根据权利要求16所述的方法,进一步包括由感知过滤器基于车辆的意图和车辆的当前状态来确定车辆的感兴趣区(“ROI”),其中所述ROI被感知过滤器用于确定计算资源优先级指令。
18.根据权利要求16所述的方法,进一步包括由感知过滤器基于车辆的意图和车辆的当前状态来裁剪和过滤所接收的图像。
19.根据权利要求18所述的方法,其中所述感知过滤器进一步向成像设备中的至少一个提供扫描指令。
20.根据权利要求19所述的方法,进一步包括:
基于车辆的意图和车辆的当前状态来确定车辆的感兴趣区(“ROI”);
通过使用ROI选择所接收的图像中的至少一个来过滤所接收的图像;以及
使用ROI裁剪所选择所接收的图像中的至少一个。
CN201980095097.XA 2019-09-27 2019-12-28 车辆感知系统的计算资源的基于意图的动态改变 Pending CN113994365A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/586607 2019-09-27
US16/586,607 US11070721B2 (en) 2019-09-27 2019-09-27 Intent-based dynamic change of compute resources of vehicle perception system
PCT/US2019/068851 WO2021061181A1 (en) 2019-09-27 2019-12-28 Intent-based dynamic change of compute resources of vehicle perception system

Publications (1)

Publication Number Publication Date
CN113994365A true CN113994365A (zh) 2022-01-28

Family

ID=69326756

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980095097.XA Pending CN113994365A (zh) 2019-09-27 2019-12-28 车辆感知系统的计算资源的基于意图的动态改变

Country Status (4)

Country Link
US (1) US11070721B2 (zh)
EP (1) EP3938996B1 (zh)
CN (1) CN113994365A (zh)
WO (1) WO2021061181A1 (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11037000B2 (en) 2019-09-27 2021-06-15 Gm Cruise Holdings Llc Intent-based dynamic change of resolution and region of interest of vehicle perception system
US20220111859A1 (en) * 2020-10-12 2022-04-14 Ford Global Technologies, Llc Adaptive perception by vehicle sensors
US11754666B2 (en) * 2021-02-12 2023-09-12 Aptiv Technologies Limited Radar detection prioritization based on downstream feedback
US11805316B2 (en) * 2022-02-21 2023-10-31 Ghost Autonomy Inc. Reducing camera sensor throughput via an intermediary device
US11849225B2 (en) * 2022-02-21 2023-12-19 Ghost Autonomy Inc. Throughput reduction in autonomous vehicle camera sensors
US11909944B1 (en) * 2022-02-21 2024-02-20 Ghost Autonomy Inc. Dynamic calibration of cameras in a stereoscopic configuration

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8395529B2 (en) * 2009-04-02 2013-03-12 GM Global Technology Operations LLC Traffic infrastructure indicator on head-up display
US9197816B2 (en) * 2013-10-18 2015-11-24 The Lightco Inc. Zoom related methods and apparatus
JP6224251B2 (ja) * 2013-12-19 2017-11-01 インテル コーポレイション ボウル形状イメージングシステム
US9658070B2 (en) * 2014-07-11 2017-05-23 Regents Of The University Of Minnesota Inverse sliding-window filters for vision-aided inertial navigation systems
EP3845427A1 (en) * 2015-02-10 2021-07-07 Mobileye Vision Technologies Ltd. Sparse map for autonomous vehicle navigation
WO2016174659A1 (en) * 2015-04-27 2016-11-03 Snapaid Ltd. Estimating and using relative head pose and camera field-of-view
US20160325680A1 (en) * 2015-05-04 2016-11-10 Kamama, Inc. System and method of vehicle sensor management
US11057446B2 (en) * 2015-05-14 2021-07-06 Bright Data Ltd. System and method for streaming content from multiple servers
US9889859B2 (en) 2015-12-21 2018-02-13 Intel Corporation Dynamic sensor range in advanced driver assistance systems
DE102016217636A1 (de) * 2016-09-15 2018-03-15 Robert Bosch Gmbh Bildverarbeitungsalgorithmus
US10481609B2 (en) 2016-12-09 2019-11-19 Ford Global Technologies, Llc Parking-lot-navigation system and method
US10467509B2 (en) * 2017-02-14 2019-11-05 Microsoft Technology Licensing, Llc Computationally-efficient human-identifying smart assistant computer
US10671873B2 (en) * 2017-03-10 2020-06-02 Tusimple, Inc. System and method for vehicle wheel detection
US10311312B2 (en) * 2017-08-31 2019-06-04 TuSimple System and method for vehicle occlusion detection
WO2018175441A1 (en) * 2017-03-20 2018-09-27 Mobileye Vision Technologies Ltd. Navigation by augmented path prediction
EP3602403A4 (en) * 2017-03-23 2021-01-27 Harsco Technologies LLC DETECTION OF TRACK CHARACTERISTICS USING ARTIFICIAL VISION
EP3392801A1 (en) * 2017-04-21 2018-10-24 Harman International Industries, Incorporated Systems and methods for driver assistance
US10452927B2 (en) * 2017-08-09 2019-10-22 Ydrive, Inc. Object localization within a semantic domain
US10783381B2 (en) * 2017-08-31 2020-09-22 Tusimple, Inc. System and method for vehicle occlusion detection
US10733465B2 (en) * 2017-09-20 2020-08-04 Tusimple, Inc. System and method for vehicle taillight state recognition
US11500099B2 (en) * 2018-03-14 2022-11-15 Uatc, Llc Three-dimensional object detection
US11050933B2 (en) * 2018-04-27 2021-06-29 Continenal Automotive Systems, Inc. Device and method for determining a center of a trailer tow coupler
US11341356B2 (en) 2018-06-15 2022-05-24 Uatc, Llc System and method for determining object intention through visual attributes
JP6828719B2 (ja) * 2018-06-27 2021-02-10 トヨタ自動車株式会社 車載装置および制御方法
DE102018008024A1 (de) 2018-10-10 2019-04-11 Daimler Ag Verfahren zur Bewertung einer Verkehrssituation
US11128682B2 (en) * 2018-12-03 2021-09-21 At&T Intellectual Property I, L.P. Video streaming at mobile edge

Also Published As

Publication number Publication date
WO2021061181A1 (en) 2021-04-01
EP3938996B1 (en) 2024-03-20
US11070721B2 (en) 2021-07-20
EP3938996A1 (en) 2022-01-19
US20210099643A1 (en) 2021-04-01

Similar Documents

Publication Publication Date Title
US11594039B2 (en) Intent-based dynamic change of region of interest of vehicle perception system
US11070721B2 (en) Intent-based dynamic change of compute resources of vehicle perception system
US20210241005A1 (en) Lane mask generation for autonomous machine applications
US11634164B2 (en) Operation selection device deciding on vehicle operation using weighting
DE102017202719A1 (de) Fahrzeugsteuerungsvorrichtung und Fahrzeugsteuerungsverfahren
KR20180092314A (ko) 모션 계획에 기초한 자율 주행 차량의 운행 방법 및 시스템
US12091039B2 (en) Augmented reality notification system
US20210150886A1 (en) Notification device
EP3722169B1 (de) Kraftfahrzeug und verfahren zur kollisionsvermeidung
CN112738171A (zh) 车辆的控制方法、装置、系统、设备及存储介质
US20230400854A1 (en) Power moding for reduction of vehicle power consumption
JP6831474B2 (ja) センサ間でデータを伝送するためのデータ伝送ロジック並びに自動運転車の計画及び制御
US20230016434A1 (en) Intelligent driving mode selection for autonomous vehicle delivery system
US11543251B2 (en) Intelligent route selection for autonomous vehicle delivery system
US12091034B2 (en) Information presentation device, information presenting method and non-transitory recording medium
CN111862226A (zh) 用于车辆中的摄像机校准和图像预处理的硬件设计
JP7456329B2 (ja) 車両用表示制御装置、車両用表示制御システム、及び車両用表示制御方法
JP2023056344A (ja) 先行車選定装置
WO2022030270A1 (ja) 車両用表示制御装置、車両用表示制御システム、及び車両用表示制御方法
US20220309798A1 (en) Control apparatus and control method using captured image of external environment of vehicle
JP2023007914A (ja) 推定システム、推定装置、推定方法、推定プログラム
CN117125086A (zh) 追随行驶支援装置、追随行驶支援方法以及计算机程序

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination