CN113924459B - 用于车辆导航的动态传感器范围检测 - Google Patents

用于车辆导航的动态传感器范围检测 Download PDF

Info

Publication number
CN113924459B
CN113924459B CN201880100164.8A CN201880100164A CN113924459B CN 113924459 B CN113924459 B CN 113924459B CN 201880100164 A CN201880100164 A CN 201880100164A CN 113924459 B CN113924459 B CN 113924459B
Authority
CN
China
Prior art keywords
vehicle
sensor
point cloud
environment
sensor range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201880100164.8A
Other languages
English (en)
Other versions
CN113924459A (zh
Inventor
侯承安
韩旭峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Woya Lailing Technology Co ltd
Original Assignee
Guangzhou Woya Lailing Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Woya Lailing Technology Co ltd filed Critical Guangzhou Woya Lailing Technology Co ltd
Publication of CN113924459A publication Critical patent/CN113924459A/zh
Application granted granted Critical
Publication of CN113924459B publication Critical patent/CN113924459B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/30Arrangements for executing machine instructions, e.g. instruction decode
    • G06F9/30003Arrangements for executing specific machine instructions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

可以获取传感器信息和地图信息。传感器信息可以表征传感器的环境中物体的位置。地图信息可以表征车辆的环境中的道路配置。可以基于车辆环境中的道路配置来确定针对车辆的传感器范围配置。可以基于传感器范围配置来处理传感器信息的一部分以用于车辆导航。

Description

用于车辆导航的动态传感器范围检测
相关申请
本申请要求于2018年12月14日提交的标题为“Dynamic Sensor Range Detectionfor Vehicle Navigation(用于车辆导航的动态传感器范围检测)”的美国非临时申请No.16/220,152的优先权权益,该美国非临时申请的全部内容特此以引用方式并入。
技术领域
本公开总体上涉及用于车辆导航的动态传感器范围检测。
背景技术
车辆(如自动驾驶车辆)的导航可以基于车辆环境内的物体来提供。基于传感器数据(例如车辆的LIDAR生成的数据)的处理,可以检测车辆的环境内的物体。传感器数据的处理可以是处理密集型的,需要消耗大量的处理能力和时间。处理资源不足可能导致对车辆的环境内的物体的检测延迟或不准确。
发明内容
本公开的一方面涉及一种用于动态范围检测的系统。所述系统可以包括一个或多个处理器和存储指令的存储器。所述指令当由所述一个或多个处理器执行时可以引起所述系统执行:获取传感器信息,所述传感器信息定义表征传感器的环境中物体的位置的三维点云;获取地图信息,所述地图信息表征车辆的环境中的道路配置,所述车辆的环境中的道路配置包含所述车辆的环境中的一条或多条道路的物理布置;基于所述车辆的环境中的道路配置确定针对所述车辆的传感器范围配置,所述传感器范围配置包括三维形状;以及基于所述传感器范围配置处理用于车辆导航的所述传感器信息的一部分,使得在所述三维形状内的所述三维点云的一部分被处理以用于所述车辆导航。所述车辆的所述传感器范围配置还可以基于所述车辆的移动来确定。
本公开的另一方面涉及一种用于动态范围检测的方法。所述方法可以包括:获取传感器信息,所述传感器信息表征传感器环境中物体的位置;获取地图信息,所述地图信息表征车辆环境中的道路配置;基于所述车辆环境中的道路配置确定针对所述车辆的传感器范围配置;以及基于所述传感器范围配置处理用于车辆导航的所述传感器信息的一部分。
本公开的又一方面涉及一种用于动态范围检测的系统。所述系统可以包括一个或多个处理器和存储指令的存储器。所述指令当由一个或多个处理器执行时可以引起所述系统执行:获取传感器信息,所述传感器信息表征传感器的环境中物体的位置;获取地图信息,所述地图信息表征车辆的环境中的道路配置;基于所述车辆的环境中的道路配置确定针对所述车辆的传感器范围配置;以及基于所述传感器范围配置处理用于车辆导航的所述传感器信息的一部分。
在一些实施例中,所述传感器范围配置可以被二维地定义。
在一些实施例中,所述传感器范围配置可以被三维地定义。
在一些实施例中,所述传感器可以包括激光雷达。所述传感器信息可以定义表征所述激光雷达的环境中所述物体的位置的三维点云。所述传感器范围配置可以包括三维形状。基于所述传感器范围配置处理所述传感器信息的一部分可以包括处理所述三维形状内的所述三维点云的一部分。
在一些实施例中,所述车辆环境中的道路配置可以包括所述车辆环境中的一条或多条道路的物理布置。所述一条或多条道路的物理布置可以包括所述一条或多条道路的曲率、坡度、交叉路口、出口、入口匝道或车道数量。
在一些实施例中,针对所述车辆的传感器范围配置还可以基于所述车辆的移动来确定。所述车辆的移动可以包含所述车辆的计划移动。
本文公开的系统、方法和非暂态计算机可读介质的这些和其它特征以及结构的相关元件的操作方法和功能,以及部件的组合和制造经济,参考附图考虑以下描述和所附权利要求将变得更加明显,所有这些都构成本说明书的一部分,其中相同的附图标记表示各个图中的对应部分。然而,应清楚地理解,附图仅用于说明和描述的目的,并不旨在作为本发明的限制的定义。应当理解,如所要求地,前述一般描述和以下详细描述仅是示例性和说明性的,并不限制本发明。
附图说明
在所附权利要求中具体阐述了本技术的各个实施例的某些特征。通过参考以下详细描述将获得对该技术的特征和优点的更好理解,该详细描述阐述了利用本发明的原理的例示性实施例,并且在附图中:
通过参考附图,可以更容易地理解本发明的优选的和非限制性实施例,其中:
图1图示了按照本公开的各个实施例的用于动态范围检测的示例环境。
图2图示了按照本公开的各个实施例的用于传感器范围配置确定的示例场景。
图3图示了按照本公开的各个实施例的用于传感器范围配置确定的示例场景。
图4图示了按照本公开的各个实施例的用于传感器范围配置确定的示例场景。
图5A图示了按照本公开的各个实施例的示例点云。
图5B图示了按照本公开的各个实施例的点云的示例部分。
图5C图示了按照本公开的各个实施例的车辆环境的示例部分。
图6图示了按照本公开的各个实施例的处理各种大小的输入的示例。
图7图示了根据本公开的各个实施例的示例方法的流程图。
图8图示了一种可以实施本文所述的实施例中的任何实施例的示例计算机系统的框图。
具体实施方式
现在将参考附图描述本发明的具体的非限制性实施例。应当理解,本文公开的任何实施例的特定特征和方面可以与本文公开的任何其它实施例的特定特征和方面一起使用和/或组合。还应当理解,这种实施例作为实例,仅是对本发明范围内的少量实施例的说明。对于本发明所属领域的技术人员来说显而易见的各种改变和修改被认为在如所附权利要求书中进一步限定的本发明的精神、范围和构思之内。
本文公开的方法改进了用于处理传感器信息的技术。通过基于车辆环境中的道路配置来改变针对车辆的传感器范围配置,可以仅对收集到的传感器数据的一个或多个相关部分进行处理,用于车辆导航。不同类型的道路配置可以导致收集到的传感器数据的不同部分成为处理的目标。例如,可以基于道路配置来对收集到的传感器数据的特定部分进行处理,以进行物体检测。传感器数据的这种针对性处理可以有助于更准确、及时地检测车辆环境内的物体,并减少物体检测所需的处理资源。
图1图示了按照各个实施例的用于动态范围检测的示例环境100。示例环境100可以包含计算系统102。计算系统102可以包含一个或多个处理器和存储器(例如,永久存储器、临时存储器)。一个或多个处理器可以被配置为通过翻译存储在存储器中的机器可读指令来执行各种操作。计算系统102可以包含其它计算资源或能够访问(例如,经由一个或多个连接/网络)其它计算资源。
计算系统102可以包括传感器组件112、地图组件114、传感器范围组件116和处理组件118。计算系统102可以包括其它组件。计算系统102可以是车辆的一部分、与车辆通信的服务器和/或其它计算设备。
虽然计算系统102在图1中被示为单个实体,但这仅仅是为了便于参考而不是要进行限制。本文所述的计算系统102的一个或多个组件或功能可以在单个计算设备或多个计算设备中实现。例如,计算系统102的一个或多个组件/功能可以在单个计算设备中实现或分布于多个计算设备。
传感器组件112可以被配置为获取传感器信息。获取传感器信息可以包含访问、获取、分析、确定、检查、生成、识别、加载、定位、打开、接收、检索、回顾、存储或以其它方式获得传感器信息中的一种或其组合。传感器组件112可以从硬件组件(如电子存储器或传感器)或软件组件(如在计算设备上运行的进程)获取传感器信息。传感器组件112可以直接从确定或生成传感器信息的设备或通过一个或多个中间设备(例如,路由器、调制解调器、服务器)获取传感器信息。传感器信息可以被推送到传感器组件112。传感器信息可以被传感器组件112拉取。
可以基于一个或多个传感器的操作生成传感器信息。传感器信息可以由一个或多个传感器生成,或者基于一个或多个传感器生成的其它信息而生成。传感器可以是指检测或测量一种或多种物理特性的设备。传感器可以记录、指示或以其它方式响应检测到的/测得的一种或多种物理特性。例如,传感器可以包括以下传感器中的一个或其组合:图像传感器、接近传感器、激光雷达(LIDAR)、运动传感器、雷达。其它传感器也在考虑之中。传感器可以进行操作,以检测车辆环境内的物体。传感器可以是车辆的一部分,或者是远离车辆的。传感器可以机械地、电气地或通信地耦接到车辆。例如,可以由车辆携带的传感器(例如LIDAR)生成传感器信息或基于该传感器生成传感器信息,该传感器确定车辆周围物体的位置(例如,地点)或位置的变化(例如,移动)。
传感器信息可以表征传感器的环境中物体的位置。传感器的环境可以是指传感器的一个或多个物理区域,例如传感器周围环境的一个或多个部分。传感器的环境中的物体可以是指传感器周围环境中的生物体或非生物体。例如,传感器信息可以表征传感器的环境中的车辆、道路标记(例如,道路上的二维或三维标记)、结构(例如,建筑物、树木、灯杆、交通信号灯、路标)、人、动物或其它物体的位置。传感器信息可以通过包括指示或描述传感器的环境中物体的位置的值或其它数据来表征传感器的环境中物体的位置。物体的位置可以是指物体的绝对位置(例如,相对于地球)、物体的相对位置(例如,相对于传感器)、物体的移动,(例如物体的移动方向、移动速度或移动加速度)、或物体的其它位置。
例如,传感器信息可以表征激光雷达(LIDAR)的环境中物体的位置。基于激光雷达(LIDAR)对发射光束的测量,可以生成二维或三维的点云。该点云可以表征激光雷达(LIDAR)的环境中物体的位置。点云可以包括坐标系中的一组或多组数据点,例如笛卡尔坐标系、极坐标系、柱坐标系、球坐标系或其它坐标系。坐标系内的数据点的位置可以表示激光雷达(LIDAR)的环境中物体的位置。坐标系内的数据点的位置可以表示或被用于确定激光雷达(LIDAR)的环境中物体的位置、形状、尺寸或其它物理特性。例如,不同的数据点可以表示位于环境内的物体的外表面。传感器信息可以定义点云或与激光雷达(LIDAR)检测到的物体相关的其它信息。
传感器信息可以表征传感器的环境的其它方面。例如,传感器信息可以表征传感器的环境中物体的运行状态。例如,传感器信息可以提供关于附近车辆在如何运行或附近交通信号灯的状态(例如,绿色、黄色、红色、闪烁的黄色)的信息。其它传感器信息也在考虑之中。
地图组件114可以被配置为获取地图信息。获取地图信息可以包含访问、获取、分析、确定、检查、生成、识别、加载、定位、打开、接收、检索、回顾、存储或以其它方式获得地图信息中的一种或其组合。地图组件114可以从硬件组件或软件组件获得地图信息。地图信息可以被推送到地图组件114。地图信息可以被地图组件114拉取。例如,地图组件114可以从计算系统102的存储器或从与计算系统102通信的设备(例如,服务器)获取地图信息。
地图信息可以表征车辆的环境中的道路配置。车辆可以是指用于运输的物品。车辆可以包括自动驾驶车辆。自动驾驶车辆可以是指能够在没有人输入的情况下就能导航的车辆。自动驾驶车辆可以是完全自动驾驶或部分自动驾驶的。
车辆的环境可以是指车辆的一个或多个物理区域,例如车辆周围环境的一个或多个部分。例如,车辆的环境可以包括车辆前方的区域、车辆后方的区域、车辆左侧的区域、车辆右侧的区域、车辆上方的区域、车辆下方的区域或车辆周围的其它区域。车辆的环境可以是指车辆附近的一个或多个物理区域,例如车辆预期在其上行驶的道路的一个或多个部分,或者与车辆正在行驶的道路相邻的道路的一个或多个部分。
道路配置可以是指特定形式的一条或多条道路的布置。例如,车辆的环境中的道路配置可以包括车辆的环境中的一条或多条道路的物理布置。一条或多条道路的物理布置可以包括以下特征中的一个或其组合:一条或多条道路的曲率、一条或多条道路的坡度、一条或多条道路的类型、一条或多条道路的交叉路口、出口的存在情况、入口匝道的存在情况、自行车道的存在情况、人行道的存在情况、道路的数量、一条或多条道路的车道数量。一条或多条道路的其它物理布置也在考虑之中。道路配置可以指道路上的交通流。例如,道路配置可以包括一个或多个街灯/交通信号灯的存在情况、一个或多个街灯/交通信号灯的状态、一个或多个街道/交通标志的存在情况、一个或多个道路障碍物(例如,建筑、事故)的存在情况、交通拥挤程度,或交通如何在一条或多条道路上流动的其它指示。
在一些实施例中,地图组件114可以基于车辆的位置来获得地图信息。车辆的位置可以是指车辆的特定地点或位置。例如,地图组件114可以基于位于区域内的车辆来获得该区域的地图信息。作为另一个示例,地图组件114可以获得一个区域的地图信息,其中,基于车辆的地点来确定该区域的范围(例如,大小、形状)。
在一些实施例中,地图组件114可以基于车辆的移动来获得地图信息。车辆的移动可以包括车辆当前的移动或车辆计划的(例如,未来的)移动。例如,基于车辆在特定方向上(例如,向前方)移动,地图组件114可以获得特定方向上的区域的地图信息(例如,表征车辆前方的道路配置的地图信息)。作为另一个示例,基于车辆以特定速率(例如,速度或加速度)移动,地图组件114可以获得一个区域的地图信息,该区域的范围(例如,大小、形状)是基于车辆的移动速率来确定的。
传感器范围组件116可以被配置为基于车辆的环境中的道路配置来确定针对车辆的传感器范围配置。传感器范围配置可以是指用于车辆导航而处理的传感器信息的量。传感器范围配置可以是指用于确定用于车辆导航的而要处理的传感器信息的量的信息。例如,传感器范围配置可以定义待处理点云内的数据点的范围(例如,车辆的20米之内),以检测车辆周围的物体。传感器范围配置可以定义用于车辆导航而要处理的传感器信息的一个或多个部分。例如,传感器范围配置可以定义将用于处理传感器信息的一种或多种形状。由传感器范围配置定义的一种或多种形状可以包括一种或多种二维形状或一种或多种三维形状。例如,传感器范围配置可以被定义为一种或多种二维形状(例如,圆形、椭圆形、三角形、金字塔、正方形、矩形、多边形)或一种或多种三维形状(例如,球体、立方体、盒形、3D多边形)。
传感器范围组件116可以基于车辆的环境中的道路配置来识别一个或多个感兴趣的区域(region of interest)。一个或多个感兴趣的区域包括车辆环境内的、那些期望处理其传感器信息的一个或多个区域。一个或多个感兴趣的区域可以包括在车辆的环境内的、那些对确定车辆导航有(更大)意义的一个或多个区域。一个或多个感兴趣的区域可以包括车辆环境内的、车辆可能移动到的那些一个或多个区域。一个或多个感兴趣的区域可以包括车辆的环境内的、可能会影响车辆导航的一个或多个物体(例如,其它车辆、人、动物、交通信号灯)所位于的那些一个或多个区域。
例如,一个或多个感兴趣的区域可以包括车辆正在行驶的道路的一个或多个部分。作为另一个示例,一个或多个感兴趣的区域可以包括道路的可能影响车辆行驶的一个或多个部分,诸如与车辆正在行驶的道路相交的道路。作为又一个示例,一个或多个感兴趣的区域可以包括车辆正在行驶的车道的一个或多个部分或可能影响车辆行驶的车道的一个或多个部分,例如与车辆正在行驶的车道靠近或相邻的车道。
传感器范围组件116可以根据不同的道路配置来确定不同的传感器范围配置(例如,不同的范围、不同的形状)。例如,传感器范围组件116可以使用车辆的环境中一条或多条道路的物理布置或该一条或多条道路上的交通如何流动来确定传感器信息的哪些部分将被处理用于车辆导航。传感器范围组件116可以基于道路如何布置或交通如何流动来动态地配置将传感器信息的哪个或哪些部分被处理用于车辆导航(例如,用于物体检测)。例如,由传感器范围组件116确定的传感器范围配置对于包括交叉路口的道路配置与包括直线单向道路的道路配置可以是不同的。
在一些实施例中,传感器范围组件116可以通过识别与道路配置关联的传感器范围配置来确定传感器范围配置。例如,传感器范围组件116可以访问一个或多个数据库或表,该数据库或表将不同道路配置与不同传感器范围配置相匹配。传感器范围组件116可以通过访问一个或多个数据库/一个或多个表并识别与道路配置匹配的传感器范围配置来为一个道路配置确定传感器范围配置。例如,定义一个在车辆前方包括的区域多于车辆两侧区域的区域(例如,矩形区域),包括窄且直的道路的道路配置可以与该区域的传感器范围配置相匹配。作为另一个示例,定义一个从交叉路口的中间延伸的区域(例如中心处于交叉路口中间的正方形或圆形区域),包括交叉路口的道路配置可以与该区域(的传感器范围配置相匹配。作为又一个示例,包括具有受保护转弯的交叉路口的道路配置可以与一个不同于无保护转弯的交叉路口的传感器范围配置相匹配。
在一些实施例中,传感器范围组件116可以基于一条或多条规则来确定传感器范围配置。例如,一条或多条规则可以指定默认的或基本的传感器范围配置。一条或多条规则可以指定道路特征的组合如何影响传感器范围配置。一条或多条规则可以指定基于在道路配置中检测到的一个或多个特征可以如何改变传感器范围配置。例如,一条或多条规则可以基于道路配置是包括还是不包括行人通道、基于速度限制、基于关于交通流的信息、基于交叉路口的类型、基于道路的物理特征(例如,曲率、坡度、类型)或基于道路配置的其它特征来定义默认的或基本的传感器范围配置可以如何改变。基于道路配置进行的传感器范围配置的其它确定方式也在考虑之中。
在一些实施例中,还基于车辆的移动来确定针对车辆的传感器范围配置。车辆的移动可以包括车辆当前的移动或车辆计划的(例如,未来的)移动。例如,基于车辆在特定方向上(例如,向前方)移动,传感器范围组件116可以确定传感器范围配置包括在该特定方向上的区域(例如,感兴趣的区域包括车辆前方的区域)。作为另一个示例,基于车辆以快速率(例如,速度或加速度)移动,传感器范围组件116可以确定传感器范围配置包括比车辆以慢速率移动时更长的区域(例如,感兴趣的区域更大)。
传感器范围组件116可以确定不同时间和不同地点的传感器范围配置。例如,传感器范围组件116可以周期性地(例如,在时间上、在距离上)确定传感器范围配置。传感器范围组件116确定传感器范围配置的间隔可以基于车辆运行(诸如,基于车辆速度或车辆加速度)而改变。传感器范围组件116可以基于道路配置的改变来确定传感器范围配置。例如,传感器范围组件116可以基于道路配置的改变来确定传感器范围配置或改变先前确定的传感器范围配置。
传感器范围组件116可以基于车辆的计划路线来确定传感器范围配置。例如,车辆可以正沿着计划路线行驶,并且传感器范围组件116可以针对沿着路线的不同位置确定不同的传感器范围配置。车辆使用计划路线可以使得传感器范围组件116能够预先确定针对车辆的传感器范围配置,而不是在车辆到达不同地点时确定传感器范围配置。传感器范围配置可以沿着计划路线以不同的间隔或者基于沿着计划路线的道路配置的改变来确定。
处理组件118可以被配置为基于传感器范围配置来处理用于车辆导航的传感器信息的一个或多个部分。即,处理组件118可以将传感器信息的处理限制于传感器信息的子集,而不是处理整个传感器信息。例如,传感器信息可以定义一个二维或三维点云,并且传感器配置可以定义一个二维或三维形状。处理组件118可以处理用于车辆导航的传感器配置所定义的形状内的点云的一个或多个部分。因此,可以基于车辆环境中的道路配置来动态地改变用于车辆导航而处理的传感器信息的数量或部分。处理组件118可以从用于车辆导航的分析中过滤掉传感器信息的一个或多个部分。例如,与车辆前方、后方、侧面、上方或下方的区域对应的传感器信息的一个或多个部分可以从用于车辆导航而进行的处理中被过滤掉。
对传感器信息的这种处理可以使得处理组件118能够分析传感器数据的与车辆导航(更)相关的一部分。对相关传感器数据的这种分析可以提供准确和及时的信息处理,同时减少处理资源的消耗。例如,分析用于车辆导航的传感器信息的一个或多个处理器可以具有可以在一段时间内处理信息的最大带宽,并且处理组件118可以从这段时间期间进行的处理中过滤掉相关性不大的传感器信息。
例如,对用于车辆导航的传感器信息的处理可以包括分析用于车辆的环境中的物体检测的传感器信息。基于车辆的环境中的道路配置来动态地改变传感器信息的哪个或哪些部分被处理,可以使得处理组件118能够更准确、更快速地检测环境中的相关一个或多个部分内的物体,同时减少物体检测所需的处理资源的量(例如,时间、功率、带宽)。作为另一个示例,对用于车辆导航的传感器信息的处理可以包括对传感器信息的分析,以确定车辆应该如何在环境内或通过环境进行导航。基于车辆环境中的道路配置来动态地改变传感器信息的哪个或哪些部分被处理,可以使得处理组件118能够更有效地确定在所述环境的相关一个或多个部分中的车辆导航,并减少确定车辆导航所需的处理资源的量(例如,时间、功率、带宽)。
图2图示了按照本公开的各个实施例的用于传感器范围配置确定的示例场景200。场景200可以包括道路202、204的交叉路口214。车辆210可以位于道路202上。车辆210可以计划在交叉路口214处右转。场景200的道路配置可以包括道路202、204的物理布置,包括交叉路口214。场景200的道路配置可以包括道路202、204上的交通流。
基于场景200的道路配置,可以针对车辆210确定传感器范围配置212。传感器范围配置212可以识别或定义场景200内的感兴趣的区域。例如,基于场景200的道路配置,传感器范围配置212的形状和大小可以被确定为包括场景200内的感兴趣的区域,该感兴趣的区域可以包括围绕交叉路口214并包括交叉路口214的矩形区域。还可以基于车辆210的移动进一步优化传感器范围配置212。例如,基于车辆210在交叉路口214处右转的计划机动,可以改变传感器范围配置212以去除道路204的一个或多个部分(例如,道路204朝向交叉路口214右侧的下部部分)。作为另一个示例,基于车辆210在交叉路口214处右转的计划机动,可以改变传感器范围配置212以去除在交叉路口214下方的道路202的左侧部分并增加更多在交叉路口214下方的道路202的右侧部分。
图3图示了按照本公开的各个实施例的用于传感器范围配置确定的示例场景300。场景300可以包括道路306、308A、行人通道306B、308B和分隔带/中央车道304。车辆310可以位于道路308A的右侧车道上。车辆310可以在道路308A的右侧车道上直线移动。场景200的道路配置可以包括道路306A、308A、行人通道306B、308B和分隔带/中央车道304的物理布置。场景300的道路配置可以包括道路306A、308A以及分隔带/中央车道304上的交通流。
基于场景300的道路配置,可以针对车辆310确定传感器范围配置312。传感器范围配置312可以识别或定义场景300内的感兴趣的区域。例如,基于场景300的道路配置,传感器范围配置312的形状和大小可以被确定为包括场景300内的感兴趣的区域,该感兴趣的区域可以包括一个长矩形区域,所述长矩形区域包括道路306A、308A、行人通道306B、308B和分隔带/中央车道304。
还可以基于车辆310的移动进一步优化传感器范围配置212。例如,基于车辆310慢速(例如,慢速度、慢加速度)移动,传感器范围配置312可以被缩短以包括车辆310前方的更小的区域。作为另一个示例,基于车辆310快速(例如,快速度、快加速度)移动,传感器范围配置312可以被延长以包括车辆310前方的更大的区域。
图4图示了按照本公开的各个实施例的用于传感器范围配置确定的示例场景400。场景400可以包括道路402、404的交叉路口414。车辆410可以位于道路404的左侧车道上。车辆410可以包括或携带传感器420。传感器420可以用于生成表征传感器420的环境中物体的位置的传感器信息。例如,传感器420可以包括激光雷达(LIDAR)。激光雷达(LIDAR)可以发射光束422并测量光束422的反射,以生成激光雷达(LIDAR)环境中物体的点云。激光雷达(LIDAR)的传感器范围可以包括光束422范围内的区域。处理基于激光雷达(LIDAR)生成的所有传感器信息(表征激光雷达的传感器范围内物体的位置的传感器信息)可能需要处理能力和时间的高消耗。
车辆410可以计划在交叉路口414处左转。场景400的道路配置可以包括道路402、404的物理布置,包括交叉路口414。场景400的道路配置可以包括道路402、404上的交通流。
基于场景400的道路配置,可以针对车辆410确定传感器范围配置412A。传感器范围配置412A可以识别或定义场景400内的所关注区域。例如,基于场景400的道路配置,传感器范围配置412A的形状和大小可以被确定为包括场景400内的感兴趣的区域,该感兴趣的区域可以包括一个围绕交叉路口414并包括交叉路口214的正方形区域。传感器范围配置412A可以覆盖比传感器420的传感器范围所覆盖的区域更小的区域。
还可以基于车辆410的移动进一步优化针对场景400的传感器范围配置。例如,基于车辆410在交叉路口414处进行无保护左转的计划移动,传感器范围配置412B(覆盖一个朝向交叉路口414右侧的矩形区域,并包括道路404的上部部分)可以与传感器范围配置412A相组合。传感器范围配置412B可以使得能够检测即将到来的交通。也就是说,场景400的传感器范围配置可以包括一个正方形区域和一个矩形区域。
图5A图示了按照本公开的各个实施例的示例点云500。点云500可以基于一个或多个传感器(如车辆携带的激光雷达)的读数生成。点云500可以表征车辆的环境中物体的位置。例如,点云500的上半部分可以表征车辆前方物体的位置,点云500的下半部分可以表征车辆后方物体的位置。点云500内的数据点可以表示车辆的环境中物体的位置。虽然点云500在图5A中被示为二维圆形,但这仅仅是为了便于参考而不是要进行限制。例如,点云500可以表示一个三维物体,例如一个球体或一个半球体。
图5B图示了按照本公开的各个实施例的点云500的示例部分510、520、530。部分510、520、530可以由不同的传感器范围配置定义。也就是说,不同的传感器范围配置可以定义用于车辆导航而处理的点云500的不同部分510、520、530。例如,部分510可以包括点云500的较小圆形部分或较小球体部分,其中,部分510与点云500是同心的。作为另一个示例,部分520可以包括点云500的较小圆形部分或较小球体部分,其中,部分520与点云500不是同心的(例如,包括在车辆前方的点云500的面积或体积大于在车辆后方的)。作为又一个示例,部分530可以包括点云500内的多边形形状。
部分510、520、530的点密度可以与点云500相同或不同。例如,部分510的传感器范围配置可以定义或使用与点云500相同的点密度。作为另一个示例,部分520的传感器范围配置可以定义或使用比点云500更低的点密度。在部分520中使用较低的点密度可以使得能够更大程度地减少分析/处理与部分520对应的数据所需的处理资源。作为又一个示例,针对部分530的传感器范围配置可以定义或使用梯度点密度,其中,车辆前方的部分530的点密度大于车辆后方的部分530的点密度。部分530内的点密度的这种变化可以使得车辆前方的物体能够比车辆后方的物体被更准确地检测。
图5C图示了按照本公开的各个实施例的车辆环境的示例部分。点云可以表征车辆572的环境576中物体的位置。车辆572可以在斜坡574上。可以基于斜坡572来确定针对车辆572的传感器范围配置,以定义环境576的部分578。部分578可以在三维空间中被定义。例如,部分578可以被定义为三维多边形形状。部分578可以定义点云的用于车辆572的导航而将被处理的一部分。部分578可以将点云576的一些部分从用于导航车辆572而进行的处理中过滤掉。也就是说,只有点云的与部分578内的面积或体积相对应的一部分被处理,用于车辆导航。
图6图示了按照本公开的各个实施例的处理各种大小的输入的示例流程600。流程600可以被用于执行物体检测或物体分类。例如,输入602可以包括传感器信息的一部分,如三维点云的一部分。可以基于传感器配置来分离出三维点云的一部分。三维点云的该部分可以被投影到二维空间中作为图像,以便使用流程600进行分析。图像(输入602)的尺寸可以基于传感器范围配置而变化。例如,图像的尺寸可以基于传感器范围配置的形状而变化。
可以通过卷积层604处理输入602,从而可以输出特征图606。可以通过区域候选网络(region proposal network)608处理特征图606,该区域候选网络608可以识别一个或多个边界框。区域候选网络608可以是全卷积的,以接收不同尺寸的输入602。感兴趣的区域(region of interest)池608可以将不同尺寸的边界框调整大小为相同的尺寸。卷积层610可以用于生成输出612。输出612可以包括边界框内的一个或多个物体的检测或分类。
图7图示了根据本公开的各个实施例的示例方法700的流程图。方法700可以在各种环境中实施,包括例如图1的环境100。以下呈现的方法700的操作旨在是说明性的。根据实施方式,方法700可以包含以各种顺序或并行执行的额外的、更少的或替代的步骤。方法700可以在包括一个或多个处理器的各种计算系统或装置中实施。
相对于方法700,在框710中,可以获取针对车辆的传感器信息。传感器信息可以表征传感器的环境中物体的位置。在框720中,可以获取针对车辆的地图信息。地图信息可以表征车辆的环境中的道路配置。在框730中,可以基于地图信息来确定针对车辆的传感器范围配置。也就是说,可以基于车辆的环境中的道路配置来确定传感器范围配置。在框740中,可以基于传感器范围配置处理传感器信息的一部分以用于车辆导航。
方法700的一个或多个框可以由与图1中示出的计算系统102的组件相同或类似的一个或多个计算机组件来执行。例如,框710可以由与传感器组件112相同或类似的计算机组件来执行。框720可以由与地图组件114相同或类似的计算机组件来执行。框730可以由与传感器范围组件116相同或类似的计算机组件来执行。框740可以由与处理组件118相同或类似的计算机组件来执行。
图8是图示可以在其上实现本文所述的任一实施例的计算机系统800的框图。计算机系统800包括用于传递信息的总线802或其它通信机构,以及一个或多个与总线802耦接以处理信息的硬件处理器804。例如,硬件处理器804可以是一个或多个通用微处理器。
计算机系统800还包括主存储器806,如随机存取存储器(RAM)、高速缓存和/或其它动态存储装置之类,主存储器与总线802耦接以存储信息和将由一个或多个处理器804执行的指令。主存储器806还可以用于在执行将由一个或多个处理器804执行的指令期间来存储临时变量或其它中间信息。当这些指令存储在由一个或多个处理器804可访问的存储介质中时,使计算机系统800被定制成执行指令中指定的操作的专用机器。主存储器806可以包含非易失性介质和/或易失性介质。非易失性介质可以包含例如光盘或磁盘。易失性介质可以包含动态存储器。例如,介质的常见形式可以包括:软盘(floppy disk)、软磁盘(flexible disk)、硬盘、固态驱动器、磁带或任何其它磁数据存储介质、CD-ROM、任何其它光学数据存储介质、任何有孔图案的物理介质、RAM、PROM、EPROM、FLASH-EPROM、NVRAM、任何其它内存芯片或内存盒以及其网络版本。
计算机系统800可以使用定制的硬连线逻辑、一个或多个ASIC或FPGA、固件和/或程序逻辑来实现本文所述的技术,这些逻辑与计算机系统相结合使计算机系统800成为专用机器或将计算机系统800编程为专用机器。根据一个实施例,本文的技术是由计算机系统800执行,以响应一个或多个处理器804执行包含在主存储器806中的一个或多个指令的一个或多个序列。这些指令可以被从另一个存储介质(如存储设备808)读入主存储器806。执行包含在主存储器806中的指令序列导致一个或多个处理器804执行本文所述的处理步骤。
例如,计算系统800可以用于实现图1中示出的计算系统102或计算系统102的一个或多个组件。作为另一个示例,在图7中示出并结合该图描述的过程/方法可以由存储在主存储器806中的计算机程序指令来实现。当这些指令由一个或多个处理器804执行时,处理器可以执行如图7所示和如上所述的步骤。在替代实施例中,可使用硬连线电路系统来代替软件指令或与软件指令组合使用。
计算机系统800还包含与总线802耦接的通信接口810。通信接口810提供与连接到一个或多个网络的一个或多个网络链路耦接的双向数据通信。再例如,通信接口810可以是局域网(LAN)卡,以提供与兼容LAN(或与WAN通信的WAN组件)的数据通信连接。还可以实现无线链路。
某些操作的执行可以分布在处理器之间,不仅驻留在单个机器中,而且跨多个机器部署。在一些示例实施例中,处理器或处理器实施的引擎可以位于单个地理位置中(例如,在家庭环境、办公室环境或服务器场内)。在其它示例实施例中,处理器或处理器实现的引擎可以跨多个地理位置分布。
尽管本文描述了所公开的原理的实例和特征,但在不脱离所公开的实施例的精神和范围的情况下,可以进行修改、改编和其它实施。此外,词语“包括”、“具有”、“含有”和“包含”以及其它类似形式在含义上是等同的,并且以无限制的方式开放,因为在这些词语中的任何一个之后的一个或多个项均不意指这种一个或多个项的详尽清单,或者意指仅限于列出的一个或多个项。还必须注意,如本文和所附权利要求书中所使用的,单数形式“一个(a)”、“一个(an)”和“所述(the)”包含复数引用,除非上下文另外明确指出。
本文示出的实施例已被充分详细地描述,以使本领域技术人员能够实践所公开的教导。可以使用其它实施例并且可以从中推断出其它实施例,使得可以在不脱离本公开的范围的情况下进行结构和逻辑上的替换和改变。因此,具体实施方式不应被视为具有限制意义,且各个实施例的范围仅由所附权利要求以及这些权利要求所赋予的等同物的全部范围来限定。

Claims (8)

1.一种用于动态范围检测的系统,所述系统包括:
一个或多个处理器;以及
存储器,所述存储器存储指令,所述指令当由所述一个或多个处理器执行时引起所述系统执行:
获取传感器信息,所述传感器信息定义表征传感器的环境中物体的位置的三维点云;
获取地图信息,所述地图信息表征车辆的环境中的道路交叉路口和出口;
基于所述地图信息确定所述车辆正沿着计划路线行驶,其中,所述计划路线包括在所述车辆尚未到达的一个或多个道路交叉路口和出口进行一个或多个计划移动;
基于所述车辆到达一个或多个道路交叉路口和出口之前的一个或多个计划移动和所述车辆的速度确定传感器范围配置,所述传感器范围配置包括感兴趣的区域,其中,所述感兴趣的区域是三维点云的子区域,并且所述确定传感器范围配置包括:确定所述三维点云的所述子区域,所述三维点云的子区域为球体或多边形形状;确定所述子区域的点密度,所述子区域的点密度低于所述三维点云的点密度;在车辆降低速度的情况下缩小所述感兴趣的区域,在车辆增加速度的情况下扩大所述感兴趣的区域;以及
用所确定的点密度对所述三维点云进行处理。
2.根据权利要求1所述的系统,其中,所述传感器范围配置被二维地定义。
3.根据权利要求1所述的系统,其中,所述传感器范围配置被三维地定义。
4.根据权利要求1所述的系统,其中,所述传感器包括激光雷达,并且所述三维点云表征所述激光雷达的环境中所述物体的位置。
5.一种用于动态范围检测的方法,所述方法包括:
获取传感器信息,所述传感器信息定义表征传感器的环境中物体的位置的三维点云;
获取地图信息,所述地图信息表征车辆的环境中的道路交叉路口和出口;
基于所述地图信息确定所述车辆正沿着计划路线行驶,其中,所述计划路线包括在所述车辆尚未到达的一个或多个道路交叉路口和出口进行一个或多个计划移动;
基于所述车辆到达一个或多个道路交叉路口和出口之前的一个或多个计划移动和所述车辆的速度确定针对所述车辆的传感器范围配置,所述传感器范围配置包括感兴趣的区域,其中,所述感兴趣的区域是三维点云的子区域,并且所述确定针对所述车辆的传感器范围配置包括:确定所述三维点云的所述子区域,所述三维点云的子区域为球体或多边形形状;确定所述子区域的点密度,所述子区域的点密度低于所述三维点云的点密度;在车辆降低速度的情况下缩小所述感兴趣的区域,在车辆增加速度的情况下扩大所述感兴趣的区域;以及
用所确定的点密度对所述三维点云进行处理。
6.根据权利要求5所述的方法,其中,所述传感器范围配置被二维地定义。
7.根据权利要求5所述的方法,其中,所述传感器范围配置被三维地定义。
8.根据权利要求5所述的方法,其中,所述传感器包括激光雷达,并且所述三维点云表征所述激光雷达的环境中所述物体的位置。
CN201880100164.8A 2018-12-14 2018-12-31 用于车辆导航的动态传感器范围检测 Active CN113924459B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/220,152 2018-12-14
US16/220,152 US11536844B2 (en) 2018-12-14 2018-12-14 Dynamic sensor range detection for vehicle navigation
PCT/US2018/068130 WO2020122967A1 (en) 2018-12-14 2018-12-31 Dynamic sensor range detection for vehicle navigation

Publications (2)

Publication Number Publication Date
CN113924459A CN113924459A (zh) 2022-01-11
CN113924459B true CN113924459B (zh) 2024-04-16

Family

ID=71071483

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880100164.8A Active CN113924459B (zh) 2018-12-14 2018-12-31 用于车辆导航的动态传感器范围检测

Country Status (3)

Country Link
US (1) US11536844B2 (zh)
CN (1) CN113924459B (zh)
WO (1) WO2020122967A1 (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11161504B2 (en) * 2019-03-19 2021-11-02 Honda Motor Co., Ltd. Vehicle control apparatus and method
US20210341926A1 (en) * 2020-04-29 2021-11-04 Gm Cruise Holdings Llc Dynamic tire rotation during collision
US11914378B2 (en) * 2021-05-18 2024-02-27 Ford Global Technologies, Llc Intersection node-assisted high-definition mapping
EP4363887A1 (en) * 2021-06-30 2024-05-08 Sense Photonics, Inc. Highly parallel large memory histogramming pixel for direct time of flight lidar
CN114719867B (zh) * 2022-05-24 2022-09-02 北京捷升通达信息技术有限公司 一种基于传感器的车辆导航方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104793619A (zh) * 2015-04-17 2015-07-22 上海交通大学 基于摆动单线激光雷达的仓库巷道自动引导车导航装置
CN107533630A (zh) * 2015-01-20 2018-01-02 索菲斯研究股份有限公司 用于远程感测和车辆控制的实时机器视觉和点云分析

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10255797A1 (de) 2002-11-28 2004-06-17 Daimlerchrysler Ag Verfahren zur Erfassung der vorausliegenden Umgebung eines Strassenfahrzeugs mittels eines Umgebungserfassungssystems
US8126642B2 (en) * 2008-10-24 2012-02-28 Gray & Company, Inc. Control and systems for autonomously driven vehicles
KR101541483B1 (ko) * 2014-01-03 2015-08-03 현대모비스(주) 차선 변경 감시 장치 및 그 제어 방법
US10133947B2 (en) * 2015-01-16 2018-11-20 Qualcomm Incorporated Object detection using location data and scale space representations of image data
JP6443318B2 (ja) * 2015-12-17 2018-12-26 株式会社デンソー 物体検出装置
EP3430427B1 (en) * 2016-03-14 2021-07-21 IMRA Europe S.A.S. Processing method of a 3d point cloud
US20170307743A1 (en) * 2016-04-22 2017-10-26 Delphi Technologies, Inc. Prioritized Sensor Data Processing Using Map Information For Automated Vehicles
US10380890B2 (en) 2017-02-08 2019-08-13 Baidu Usa Llc Autonomous vehicle localization based on walsh kernel projection technique
US10445928B2 (en) * 2017-02-11 2019-10-15 Vayavision Ltd. Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types
US10489663B2 (en) * 2017-04-24 2019-11-26 Toyota Research Institute, Inc. Systems and methods for identifying changes within a mapped environment
KR20190035255A (ko) * 2017-09-26 2019-04-03 삼성에스디에스 주식회사 영상처리를 이용하는 차량 주행 보조 방법 및 그 장치
US10970553B2 (en) * 2017-11-15 2021-04-06 Uatc, Llc Semantic segmentation of three-dimensional data
US10338223B1 (en) * 2017-12-13 2019-07-02 Luminar Technologies, Inc. Processing point clouds of vehicle sensors having variable scan line distributions using two-dimensional interpolation and distance thresholding
US10783656B2 (en) * 2018-05-18 2020-09-22 Zebra Technologies Corporation System and method of determining a location for placement of a package

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107533630A (zh) * 2015-01-20 2018-01-02 索菲斯研究股份有限公司 用于远程感测和车辆控制的实时机器视觉和点云分析
CN104793619A (zh) * 2015-04-17 2015-07-22 上海交通大学 基于摆动单线激光雷达的仓库巷道自动引导车导航装置

Also Published As

Publication number Publication date
US11536844B2 (en) 2022-12-27
WO2020122967A1 (en) 2020-06-18
CN113924459A (zh) 2022-01-11
US20200191970A1 (en) 2020-06-18

Similar Documents

Publication Publication Date Title
CN113924459B (zh) 用于车辆导航的动态传感器范围检测
JP7125214B2 (ja) プログラムおよびコンピューティングデバイス
EP3673407B1 (en) Automatic occlusion detection in road network data
JP7302934B2 (ja) ナビゲーション情報を匿名化するためのシステム及び方法
US20210025989A1 (en) Hybrid-view lidar-based object detection
WO2018068653A1 (zh) 点云数据处理方法、装置及存储介质
JP6317230B2 (ja) 交差点における画像及び地図に基づく車両の検出法
WO2021003452A1 (en) Determination of lane connectivity at traffic intersections for high definition maps
US20190138024A1 (en) Map Automation - Lane Classification
JP6974630B2 (ja) レーン妨害物を推測するシステム及び方法
WO2020163311A1 (en) Systems and methods for vehicle navigation
CN110832348A (zh) 用于自主车辆的高清晰度地图的点云数据丰富
WO2018126228A1 (en) Sign and lane creation for high definition maps used for autonomous vehicles
WO2021038294A1 (en) Systems and methods for identifying potential communication impediments
CN111656135A (zh) 基于高清地图的定位优化
US20210389133A1 (en) Systems and methods for deriving path-prior data using collected trajectories
JP2019527832A (ja) 正確な位置特定およびマッピングのためのシステムおよび方法
WO2020264222A1 (en) Image-based keypoint generation
WO2021003487A1 (en) Training data generation for dynamic objects using high definition map data
JP2021520541A (ja) 周囲のビークルの観察を使用して交通フローを判定するためのシステム及び方法
JP7477256B2 (ja) ナビゲーションのためのマップタイル要求を最適化するためのシステム及び方法
US11073403B2 (en) Map selection for vehicle pose system
JP2014203465A (ja) 車線ベースの位置特定
US20220371583A1 (en) Systems and Methods for Selectively Decelerating a Vehicle
WO2021011617A1 (en) Reducing stored parameters for a navigation system

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20230826

Address after: Room 101, 1st Floor, No. 19 Yanjiang Avenue, Huadu District, Guangzhou City, Guangdong Province, 510830

Applicant after: Guangzhou Woya Lailing Technology Co.,Ltd.

Address before: 100193 no.218, 2nd floor, building 34, courtyard 8, Dongbeiwang West Road, Haidian District, Beijing

Applicant before: Beijing Track Technology Co.,Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant