CN108961146B - 渲染感知地图的方法和装置 - Google Patents
渲染感知地图的方法和装置 Download PDFInfo
- Publication number
- CN108961146B CN108961146B CN201810796680.0A CN201810796680A CN108961146B CN 108961146 B CN108961146 B CN 108961146B CN 201810796680 A CN201810796680 A CN 201810796680A CN 108961146 B CN108961146 B CN 108961146B
- Authority
- CN
- China
- Prior art keywords
- obstacle
- map
- lane
- predetermined range
- rendering
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Traffic Control Systems (AREA)
Abstract
公开了一种渲染感知地图的方法和装置。该方法包括:确定虚拟目标车辆在自动驾驶虚拟场景的当前帧中的当前位置;通过解析高精度地图来至少获得以当前位置为基准点且在预定范围内的车道线;根据相邻的车道线来确定车道的结构;根据所确定的车道的结构来确定所述车道是否是可行驶的;以及在包括预定范围的感知地图上至少将可行驶的车道渲染为可行驶区域。通过该方法和装置,能够在渲染例如车道及车道线等地图元素的同时高效且准确地渲染障碍物的遮挡情况。
Description
技术领域
本公开总体上涉及自动驾驶的技术领域,并且具体地涉及一种渲染感知地图的方法和装置。
背景技术
自动驾驶系统的开发往往需要大量的调试和验证。实车调试的方式通常需要大量的人力和物力成本,而且具有一定的风险性。可以通过车辆自动驾驶模拟器进行初步的调试和验证。
期望能够在渲染例如车道及车道线等地图元素的同时高效且准确地渲染障碍物的遮挡情况的感知地图渲染方法。
发明内容
一方面,本公开提供了一种渲染感知地图的方法,该方法可以包括:确定虚拟目标车辆在自动驾驶虚拟场景的当前帧中的当前位置;通过解析高精度地图来至少获得以当前位置为基准点且在预定范围内的车道线;根据相邻的车道线来确定车道的结构;根据所确定的车道的结构来确定所述车道是否是可行驶的;以及在包括预定范围的感知地图上至少将可行驶的车道渲染为可行驶区域。
另一方面,本公开提供了一种计算机可读取的非临时性存储介质,在其上存储有程序指令,前述程序指令在被执行时执行上述方法。
另一方面,本公开提供了一种渲染感知地图的装置,该装置可以包括一个或多个处理器,前述一个或多个处理器可以被配置为在启用时至少执行上述方法。
另一方面,本公开提供了一种渲染感知地图的装置,该装置可以包括模拟器、高精度地图解析器、处理器和渲染器。模拟器可以被配置为生成虚拟目标车辆以及自动驾驶虚拟场景的每个帧。高精度地图解析器可以被配置为解析高精度地图以至少获得以虚拟目标车辆在自动驾驶虚拟场景的当前帧中的当前位置为基准点且在预定范围内的车道线。处理器可以被配置为根据相邻的车道线来确定车道的结构并根据所确定的车道的结构来确定车道是否是可行驶的。渲染器可以被配置为至少将可行驶的车道渲染为可行驶区域。
通过根据本公开的实施例的方法和装置,能够在渲染例如车道及车道线等地图元素的同时高效且准确地渲染障碍物的遮挡情况。
附图说明
图1示出根据本公开的实施例的渲染感知地图的示例方法。
图2示出根据本公开的实施例的方法渲染的感知地图的示例。
图3示出根据本公开的实施例的方法渲染的感知地图的示例。
图4示出根据本公开的实施例的方法渲染的感知地图的示例。
图5示出根据本公开的实施例的方法渲染的感知地图的示例。
图6示出根据本公开的实施例的渲染感知地图的示例装置。
具体实施方式
下面结合附图描述根据本公开的实施例的渲染感知地图的方法和装置。
如图1所示,根据本公开的实施例的示例方法100可以开始于步骤S110,以确定虚拟目标车辆在自动驾驶虚拟场景的当前帧中的当前位置。
如图2所示,在步骤S110中,例如可以根据由自动驾驶算法(调试和验证的目标)制定的用于控制虚拟目标车辆D的自动驾驶方案(例如,可以包括虚拟目标车辆D行进的规划路线),确定虚拟目标车辆D在自动驾驶虚拟场景的当前帧中的当前位置。
在一个实施例中,可以根据虚拟目标车辆D在规划路线上的当前轨迹点的位置来确定虚拟目标车辆D的当前位置,并且可以使用例如当前轨迹点的位置坐标来表征虚拟目标车辆D的当前位置。
在另外的实施例中,可以根据虚拟目标车辆D的车头朝向(例如,相对基准面或基准线的角度)和当前轨迹点的位置,计算出各个车轮的中心位置坐标或各个车轮与地面之间的接触点的位置坐标来确定虚拟目标车辆D的当前位置,并且通过一个或多个角度以及一个或多个坐标来表征虚拟目标车辆D的当前位置。
在另外的实施例中,可以通过虚拟目标车辆D的包围盒来表征该虚拟目标车辆D,并且使用包围盒的例如8个顶点的位置坐标来表征虚拟目标车辆D的当前位置。
在其他实施例中,还可以采用其他任何适当的方式来表征虚拟目标车辆D的当前位置,并且可以根据所采用的表征方式,根据当前轨迹点的位置确定与表征该虚拟目标车辆D的当前位置有关的数据。
然后,如图2所示,可以根据所确定的当前位置,将虚拟目标车辆D渲染到感知地图L1的自动驾驶虚拟场景的当前帧中。
然后,如图1所示,示例方法100可以继续到步骤S120,以通过解析高精度地图来至少获得以当前位置为基准点且在预定范围内的车道线。
根据不同的实施例,可以采用任何适当的方法来解析基于任何标准的高精度地图,本公开不局限于所解析的高精度地图所遵循的特定标准,也不局限于高精度地图的特定的解析方法。
如图2所示,可以以虚拟目标车辆D的当前位置为基准点,确定一个预定范围。
该预定范围可以小于或等于感知地图L1的实际范围,例如与感知地图L1的实际范围相同。
在一个实施例中,该预定范围可以以虚拟目标车辆D的当前位置为中心。在另外的实施例中,例如如图2所示,虚拟目标车辆D的当前位置可以不必位于该预定范围的中心处。根据不同的实施例,该预定范围可以用任何适当的三角形、多边形(例如,图2的示例中的斜置的正方形L1)、圆形、椭圆形或不规则图形来表示。
该预定范围在被确定下来之后,用于表示该预定范围的图形可以根据作为其基准点的虚拟目标车辆D的位置和状态的改变而改变位置或旋转。
在一个实施例中,可以根据场景的最大显示范围(例如,图2的示例中的实线构成的矩形区域DIS)和/或与其他感知地图的范围的交集,来确定该预定范围或者感知地图L1的实际显示/渲染范围。例如,在图2的示例中,该预定范围或者感知地图L1的实际显示/渲染范围是该预定范围或者感知地图L1的实际范围的子集,即,图2中被组线多边形包围的部分。
在下文中,为了描述上的方便,将不区分该预定范围和感知地图L1的实际范围,即,在本文中将以感知地图L1的实际范围与该预定范围相同为例进行描述,并且将两者统称为“预定范围L1”或者“感知地图L1”或者“在预定范围L1上的感知地图”;并且将预定范围的实际显示/渲染范围简称为“显示范围”或者“感知地图的显示范围”,例如图2中的粗线多边形包围的区域。然而,在提及“感知地图L1的某个范围”时,根据上下文,可能意味着感知地图L1的实际范围可以大于或等于(即包括)所提及的某个范围。
在一个实施例中,如图2所示,可以不显示或者不实际渲染感知地图L1中处于相应的显示范围之外的地图元素。在另外的实施例中,可以完整地渲染感知地图L1,然后根据相应的显示范围来决定将哪些内容实际地显示在例如屏幕上。
在图2的示例中,除了预定范围L1内的车道线之外,还从高精度地图中解析并渲染有例如静态障碍物B1和B2这样的其他地图元素。
然后,如图1所示,示例方法100可以继续到步骤S130,以根据相邻的车道线来确定车道的结构。
在一个实施例中,可以根据作为车道与非车道之间的边界线的车道线来确定车道的轮廓或结构。例如,在图2的示例中,根据预定范围L1内的相邻的车道线,可以确定虚拟目标车辆D所在的车道具有弯曲且分岔的结构。在图3的示例中,根据预定范围L1内的相邻的车道线,可以确定虚拟目标车辆D所在的车道具有大致十字的结构。
然后,如图1所示,示例方法100可以继续到步骤S140,以根据所确定的车道的结构来确定车道是否是可行驶的。
在一个实施例中,车道之外的区域可以被规定为是不可行驶的。在另外的实施例中,车道之外的诸如人行道、停车位、应急停车区域、广场等其他地图元素对应的区域也可以被确定为是可行驶的。
在一个实施例中,可以确定在至少在预定范围L1内是否存在静态或动态障碍物。从虚拟目标车辆D的角度来看,在该车道上,至少静态或动态障碍物所在的障碍物区域以及被静态或动态障碍物遮挡的未知区域至少暂时是不可行驶的。关于静态或动态障碍物所在的区域以及被静态或动态障碍物遮挡的区域,将在下文更详细地描述。
在另外的实施例中,还可以根据交通信号灯的状态(例如,交通信号灯的模拟状态或者从交通指挥中心实时读取到的交通信号灯的状态)来确定该车道或者该车道的一部分是否是可行驶的。
例如,在图3的示例中,从高精度地图解析出的处于预定范围L1内的地图元素包括大致“十字”形的车道和位于该车道的交叉口处的交通信号灯S。对虚拟目标车辆D而言,在交通信号灯S中的关于直行和左转的信号灯为绿色时,L1内的整个车道的所有部分均是可行驶的,而在在交通信号灯S中的关于直行和左转的信号灯为红色时,图3中的阴影部分的车道至少暂时是不可行驶的。
在另外的实施例中,至少在预定范围L1内,根据高精度地图未明确地确定对应的地图元素的区域可以是不可行驶的区域。
然后,如图1所示,示例方法100可以继续到步骤S150,以在包括预定范围的感知地图上至少将可行驶的车道渲染为可行驶区域。
根据不同的实施例,可以采用任何适当的方式来渲染可行驶区域,例如使用特定的颜色填充。
在一个实施例中,如图2所示,可以先在暂时不考虑各种障碍物的情况下,将L1范围内的整个道路部分作为初始的可行驶区域AA’(在图2中用网状阴影表示),然后在L1上进一步渲染各种不可行驶区域(例如,将各个不可行驶区域的补片重叠在L1上),从而形成例如图3所示的可行驶区域AA。
在另外的实施例中,可以从初始的可行驶区域AA’中去除属于各种不可行驶区域的部分,从而获得例如图3所示的可行驶区域AA并直接进行渲染。
如前文所述,在预定范围L1内可以存在静态或动态障碍物。相应地,在根据本公开的实施例的方法,可以根据虚拟目标车辆在当前帧中的当前参数值来确定位于虚拟目标车辆上的观察点,并确定当前帧中的预定范围L1内的障碍物以及障碍物的当前参数值(例如,形状、尺寸、位置等)。然后,可以根据障碍物的当前参数值在感知地图L1上渲染障碍物对应的障碍物区域,并且可以根据观察点和障碍物的当前参数值来确定从观察点观察到的被障碍物遮挡的未知区域。然后,可以在感知地图L1上渲染被障碍物遮挡的未知区域。
在不同的实施例中,上述确定和渲染障碍物区域和未知区域的处理可以作为单独的步骤而包括在例如图1所示的示例方法100中,也可以包括在示例方法100的步骤S140和/或步骤S150中。
根据不同的实施例,虚拟目标车辆D的当前参数值可以包括但不限于虚拟目标车辆D的车型参数、车头朝向和后视镜参数中的一个或多个。在虚拟目标车辆D是模拟器根据配置文件生成的情况下,虚拟目标车辆D的当前参数值可以根据当前的自动驾驶方案(例如,可以确定当前所在的轨迹点和车头朝向等)以及配置文件中给出的配置参数来确定。在虚拟目标车辆D是根据实际车型数据库中的实际车型生成或者作为实际车辆的投影的情况下,虚拟目标车辆D的当前参数值可以根据实际车型数据库中的实际车型的参数或者实际车辆的参数来确定。
可以根据虚拟目标车辆D的当前参数值来确定虚拟目标车辆D上的观察点,例如图2的示例中的点P。在一个实施例中,该观察点可以对应于虚拟目标车辆D上的驾驶者位置。在该实施例中,始自该观察点的观察范围可以是模拟驾驶者通过车窗、后视镜、显示仪、扫描器、摄像头等能够观察到的车外场景的范围。在另外的实施例中,该观察点可以对应于虚拟目标车辆D的例如中心处或者与例如激光扫描器或摄像头的设置位置相对应的位置。
障碍物可以包括静态障碍物(例如,落石、围栏、花坛等)和动态障碍物(例如,行人、车辆、动物、空中悬浮物等)两种类型。
在一个实施例中,可以解析高精度地图并基于高精度地图中的地图元素来确定一个或多个静态障碍物。相应地,可以根据通过解析所述高精度地图而获得的每个静态障碍物的形状参数和位置参数来确定障碍物的当前参数值。
在一个实施例中,可以通过模拟器虚拟地生成一个或多个动态障碍物,或者通过将实际的对象(包括受控车辆、扫描或检测到的诸如行人、车辆、动物、空中悬浮物等动态障碍物)投影到感知地图上来生成一个或多个动态障碍物。相应地,障碍物的当前参数值可以包括每个动态虚拟障碍物在与当前帧相对应的时间点的当前形状和当前位置。
然后,可以从所确定的观察点发出一条或多条虚拟射线并对虚拟目标车辆D周围环境进行扫描或者对周围的障碍物进行投射,从而确定障碍物所在的障碍物区域以及被障碍物遮挡的未知区域,例如,直线未通过(透过)的区域可以对应于障碍物所在的障碍物区域以及被障碍物遮挡的未知区域。在另外的实施例中,也可以利用点云来确定障碍物所在的障碍物区域以及被障碍物遮挡的未知区域。
例如,在图2的示例中,可以基于对高精度地图的解析而确定在预定范围L1内存在静态障碍物B1和B2,并且可以基于来自模拟器(例如,在自动驾驶模拟器调试和验证自动驾驶算法的情况下)的数据或来自虚拟目标车辆上的扫描雷达或摄像头(例如,前置摄像头)的模拟扫描数据或模拟检测数据,而确定预定范围L1内存在动态障碍物(例如行人或车辆)V1、V2、V3和V4。然后,可以从观察点P发出多条虚拟射线(在图2中示为从点P发出的多条虚线)并投射向B1、B2、V1、V2、V3和V4。
如图2所示,静态障碍物B1和动态障碍物V3的全部以及动态障碍物V2的一部分处于被动态障碍物V4遮挡的区域中。
在当前帧中的预定范围L1内包括至少两个障碍物(例如,图2中的B1、V3、V2和V4)的情况下,如果被前述至少两个障碍物中的第一障碍物(例如,图2中的V4)遮挡的未知区域在当前帧中包括前述至少两个障碍物中的第二障碍物(例如,图2中的B1、V3或V2)对应的障碍物区域的至少一部分,则在当前帧中不在感知地图L1上渲染第二障碍物对应的障碍物区域的前述至少一部分和被第二障碍物的前述至少一部分遮挡的未知区域。
由此,针对图2的示例继续渲染,可以获得如图4所示的感知地图L1。图4中的感知地图L1可以包括:可行驶区域AA;位于可行驶区域AA上的虚拟目标车辆D;位于可行驶区域AA上且对于虚拟目标车辆D完全可见的动态障碍物V4;位于可行驶区域AA上且对于虚拟目标车辆D部分可见的动态障碍物V2;从虚拟目标车辆D上的观察点P观察到的被动态障碍物V1遮挡的未知区域UNK2、被V2的一部分和V4的全部遮挡的未知区域UNK3、被静态障碍物B2遮挡的未知区域UNK1。
另外,还可以在感知地图L1上渲染除了可行驶区域AA、障碍物对应的障碍物区域(例如,图4中的V1、V4、V2的一部分和B2)和被障碍物遮挡的未知区域UNK1至UNK3之外的不可行驶区域UA1、UA2和UA3。
如图2和图4所示,根据本公开的实施例的方法还可以包括通过解析高精度地图来获得以当前位置(即,虚拟目标车辆D的当前位置)为基准点且在另一预定范围(图2或图4中由最外围的虚线矩形框包围的区域)内的车道线,其中,该另一预定范围可以大于预定范围L1。同时,可以相应地创建相应的另一感知地图L2,该另一感知地图L2的实际范围可以大于或等于该另一预定范围,例如可以与该另一预定范围相同。
类似于预定范围L1,该另一感知地图L2或者该另一预定范围也可以根据场景的最大显示范围(例如,图2或图3中的区域DIS)来确定相应的实际显示/渲染范围。而且,类似于预定范围L1,为了描述上的方便,在本文中将区分该另一感知地图L2的实际范围和该另一预定范围,即,在本文中将以该另一感知地图L2的实际范围与该另一预定范围相同为例进行描述,并且将两者统称为“预定范围L2”或者“感知地图L2”或者“在预定范围L2上的感知地图”。然而,在提及“感知地图L2的某个范围”时,根据上下文,可能意味着感知地图L2的实际范围可以大于或等于(即包括)所提及的某个范围。
然后,如图2或图4所示,可以在感知地图L2的至少显示/渲染范围上渲染在感知地图L2的预定范围内但不在感知地图L1的预定范围内的车道线。在另外的实施例中,也可以先在感知地图L2上渲染车道线,然后将感知地图L1透明地或半透明地或不透明地重叠在感知地图L2之上。例如,可以根据虚拟目标车辆D使感知地图L1和L2中相同的部分完全重叠。
对于图2或图4中的示例,通过根据本公开的实施例的方法渲染并显示的感知地图例如可以如图5所示。
通过根据本公开的实施例的方法,能够在渲染例如车道及车道线等地图元素的同时高效且准确地渲染障碍物的遮挡情况。
在上面的示例中,结合车辆自动驾驶模拟器中的虚拟场景描述了根据本公开的实施例的用于渲染感知地图的方法。然而,应当意识到,根据本公开的实施例的方法也可以应用于实际的车辆自动驾驶控制装置和/或实际的车辆自动驾驶控制算法中,在这样的情况下,前文所述的虚拟目标车辆D可以是实际受控车辆在感知地图上的投影,预定范围L1(或者说感知地图L1的范围)可以是实际受控车辆上的扫描雷达(例如激光扫描雷达)的扫描范围或者摄像头(例如前置摄像头)的拍摄范围,并且图2或图3中的动态障碍物可以是通过实际受控车辆上的扫描雷达扫描到的或者通过分析由实际受控车辆上的摄像头拍摄的图像而检测到的实际的动态障碍物在感知地图上的投影,例如,行人、车辆、动物、空中悬浮物等。
在一个实施例中,可以在一个或多个计算机可读取的非临时性存储介质上存储或实施能够执行上述方法的各个步骤的程序指令,使得这样的非临时性存储介质能够在被计算机或其他计算装置(例如处理器)读取时提供相应的程序指令,并使得计算机或其他计算装置能够根据所读取的程序指令执行相应的操作。根据不同的实施例,程序指令能够以诸如源代码、二进制代码、中间代码等各种形式或各种形式的不同组合而实施或存储在非临时性存储介质上。
图6示出根据本公开的实施例的渲染感知地图的装置的示例。如图6所示,根据本公开的实施例的示例装置200可以包括模拟器SIM、高精度地图解析器PAR、处理器PRO和渲染器REN。
在一个实施例中,模拟器SIM可以包括一个或多个处理器,包括但不限于诸如中央处理单元(CPU)、图形处理器(GPU)等通用的处理器或处理装置和/或专用的处理器或处理装置。模拟器SIM可以被配置为生成虚拟目标车辆以及自动驾驶虚拟场景的每个帧。
在一个实施例中,高精度地图解析器PAR可以包括一个或多个处理器,包括但不限于诸如CPU、GPU等通用的处理器或处理装置和/或专用的处理器或处理装置。高精度地图解析器PAR可以被配置为解析高精度地图以至少获得以虚拟目标车辆在自动驾驶虚拟场景的当前帧中的当前位置为基准点且在预定范围内的车道线。
在一个实施例中,处理器PRO可以包括一个或多个处理器,包括但不限于诸如CPU、GPU等通用的处理器或处理装置和/或专用的处理器或处理装置。处理器PRO可以被配置为根据相邻的车道线来确定车道的结构并根据所确定的车道的结构来确定车道是否是可行驶的。在另外的实施例中,处理器PRO可以被配置为确定未知区域、障碍物区域和不可行驶区域中的一个或多个
在一个实施例中,渲染器REN可以包括一个或多个处理器,包括但不限于诸如CPU、GPU等通用的处理器或处理装置和/或专用的处理器或处理装置。渲染器REN可以被配置为至少将可行驶的车道渲染为可行驶区域。另外,渲染器REN还可以被配置为渲染未知区域、障碍物区域和不可行驶区域中的一个或多个。在另外的实施例中,渲染器REN还可以被配置为分别渲染不同层的感知地图(例如,图2、图4或图5中的L1和L2)并将不同层的感知地图重叠在一起。
应当理解,图6所示的结构仅是示例性的,而非限制性的。根据本公开的实施例的装置还可以具有其他部件和/或结构。
例如,示例装置200还可以包括动态障碍物模拟器,其可以包括一个或多个处理器,并且可以被配置为在当前帧中的预定范围内生成一个或多个动态障碍物并提供动态障碍物的当前参数值。
例如,根据本公开的实施例的装置可以包括一个或多个处理器(例如CPU和GPU等通用的处理器或处理装置和/或专用的处理器或处理装置),并且这样的一个或多个处理器可以被配置为在启动时至少执行根据本公开的实施例的渲染感知地图的方法,例如示例方法100。
例如,根据本公开的实施例的装置还可以包括I/O接口、网络接口和/或存储器,从而通过有线或无线地方式与其他部件或装置进行信息/数据交互。
例如,根据不同的实施例,装置中的存储器可以包括各种形式的计算机可读写存储介质,例如易失性存储器和/或非易失性存储器。易失性存储器例如可以包括随机存取存储器(RAM)、高速缓冲存储器(cache)、片上存储器等。非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪速存储器等。可读写存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件、或者任意以上的组合。在一个实施例中,存储器可以存储用于指示装置中的一个或多个处理器执行根据本公开的实施例的方法的步骤的程序指令。
另外,如前文所述,根据本公开的实施例的方法和装置也可以应用于实际的车辆自动驾驶控制装置和/或实际的车辆自动驾驶控制算法中,在这样的情况下,根据本公开的实施例的装置中的模拟器或者用于实现相应功能的一个或多个处理器可以被配置为将实际的对象(包括受控车辆、扫描或检测到的诸如行人、车辆、动物、空中悬浮物等动态障碍物)投影到感知地图上,从而形成相应的虚拟对象。
通过根据本公开的实施例的装置,能够在渲染例如车道及车道线等地图元素的同时高效且准确地渲染障碍物的遮挡情况。
贯穿说明书和权利要求书,除非上下文清楚地另有要求,否则措词“包括”、“包含”等应当以与排他性或穷尽性的意义相反的包括性的意义来解释,也就是说,应当以“包括但不限于”的意义来解释。另外,措词“在本文中”、“上文”、“下文”以及相似含义的措词在本申请中使用时应当指作为整体的本申请,而不是本申请的任何具体部分。在上下文允许时,在使用单数或复数的以上描述中的措词也可以分别包括复数或单数。例如,前文所提到的“第一障碍物”或“第二障碍物”可以指一个或多个的“第一障碍物”或“第二障碍物”,并且“另一”也可以表示另外的一个或多个。关于在提及两个或多个项目的列表时的措词“或”,该措词涵盖该措词的以下解释中的全部:列表中的任何项目,列表中的所有项目,以及列表中的项目的任何组合。另外,措词“第一”、“第二”等旨在用于区分,而不是用于强调次序或重要程度。
虽然已经描述了本公开的一些实施例,但是这些实施例仅作为示例而呈现,而不打算限制本公开的范围。实际上,在本文中所描述的方法和系统可以采用多种其他形式来实施。另外,可以在不脱离本公开的范围的情况下,在本文中所描述的方法和装置的形式上做出各种省略、替换和改变。
Claims (14)
1.一种渲染感知地图的方法,包括:
确定虚拟目标车辆在自动驾驶虚拟场景的当前帧中的当前位置;
通过解析高精度地图来至少获得以所述当前位置为基准点且在预定范围内的车道线;
根据相邻的车道线来确定车道的结构;
根据所确定的车道的结构来确定所述车道是否是可行驶的;以及
在包括所述预定范围的感知地图上至少将可行驶的车道渲染为可行驶区域。
2.根据权利要求1所述的方法,还包括:
根据所述虚拟目标车辆在所述当前帧中的当前参数值来确定位于所述虚拟目标车辆上的观察点;
确定所述当前帧中的所述预定范围内的障碍物以及所述障碍物的当前参数值;
根据所述障碍物的当前参数值在所述感知地图上渲染所述障碍物对应的障碍物区域;
根据所述观察点和所述障碍物的当前参数值来确定从所述观察点观察到的被所述障碍物遮挡的未知区域;以及
在所述感知地图上渲染被所述障碍物遮挡的未知区域。
3.根据权利要求2所述的方法,其中,所述虚拟目标车辆的当前参数值包括所述虚拟目标车辆的车型参数、车头朝向和后视镜参数中的一个或多个。
4.根据权利要求2所述的方法,其中,所述障碍物包括基于高精度地图中的地图元素的一个或多个静态障碍物,并且所述障碍物的当前参数值包括通过解析所述高精度地图而获得每个静态障碍物的形状参数和位置参数。
5.根据权利要求2所述的方法,其中,所述障碍物包括一个或多个动态虚拟障碍物,并且所述障碍物的当前参数值包括每个动态虚拟障碍物在与所述当前帧相对应的时间点的当前形状和当前位置。
6.根据权利要求2所述的方法,其中,确定被所述障碍物遮挡的未知区域包括:
使用从所述观察点发出的一条或多条虚拟射线对所述障碍物进行投射。
7.根据权利要求2所述的方法,还包括:
在所述当前帧中的所述预定范围内包括至少两个障碍物的情况下,如果被所述至少两个障碍物中的第一障碍物遮挡的未知区域在所述当前帧中包括所述至少两个障碍物中的第二障碍物对应的障碍物区域的至少一部分,则在所述当前帧中,不在所述感知地图上渲染所述第二障碍物对应的障碍物区域的所述至少一部分和被所述第二障碍物的所述至少一部分遮挡的未知区域。
8.根据权利要求2所述的方法,还包括:
渲染除了所述可行驶区域、所述障碍物对应的障碍物区域和被所述障碍物遮挡的未知区域之外的不可行驶区域。
9.根据权利要求1至8中的任一项所述的方法,还包括:
通过解析高精度地图来获得以所述当前位置为基准点且在另一预定范围内的车道线,所述另一预定范围大于所述预定范围。
10.根据权利要求9所述的方法,还包括:
在另一感知地图上渲染在所述另一预定范围内但不在所述预定范围内的车道线,所述另一感知地图包括所述另一预定范围。
11.根据权利要求9所述的方法,还包括:
在包括所述另一预定范围的第二感知地图上渲染所述另一预定范围内的车道线;以及
将所述感知地图透明地或半透明地或不透明地重叠在所述另一感知地图之上。
12.一种计算机可读取的非临时性存储介质,在其上存储有程序指令,所述程序指令在被执行时执行根据权利要求1至11中的任一项所述的方法。
13.一种渲染感知地图的装置,包括:
一个或多个处理器,被配置为在启用时至少执行根据权利要求1至11中的任一项所述的方法。
14.一种渲染感知地图的装置,包括:
模拟器,被配置为生成虚拟目标车辆以及自动驾驶虚拟场景的每个帧;
高精度地图解析器,被配置为解析高精度地图以至少获得以所述虚拟目标车辆在所述自动驾驶虚拟场景的当前帧中的当前位置为基准点且在预定范围内的车道线;
处理器,被配置为根据相邻的车道线来确定车道的结构以及根据所确定的车道的结构来确定所述车道是否是可行驶的;以及
渲染器,被配置为至少将可行驶的车道渲染为可行驶区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810796680.0A CN108961146B (zh) | 2018-07-19 | 2018-07-19 | 渲染感知地图的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810796680.0A CN108961146B (zh) | 2018-07-19 | 2018-07-19 | 渲染感知地图的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108961146A CN108961146A (zh) | 2018-12-07 |
CN108961146B true CN108961146B (zh) | 2023-07-21 |
Family
ID=64497897
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810796680.0A Active CN108961146B (zh) | 2018-07-19 | 2018-07-19 | 渲染感知地图的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108961146B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112013854B (zh) * | 2019-05-31 | 2022-10-04 | 北京地平线机器人技术研发有限公司 | 高精地图的检验方法及装置 |
CN111192352B (zh) * | 2019-12-26 | 2023-07-04 | 广州文远知行科技有限公司 | 地图的渲染方法、装置、计算机设备和存储介质 |
CN111197993B (zh) * | 2019-12-26 | 2021-11-23 | 广州文远知行科技有限公司 | 地图的渲染方法、装置、计算机设备和存储介质 |
CN111445556B (zh) * | 2020-03-26 | 2023-06-02 | 常州新途软件有限公司 | 一种动态行车轨迹的渲染方法 |
CN111695489B (zh) | 2020-06-09 | 2023-08-11 | 阿波罗智能技术(北京)有限公司 | 建模路线的验证方法、装置、无人车及存储介质 |
CN112163985B (zh) * | 2020-09-22 | 2022-11-29 | Oppo(重庆)智能科技有限公司 | 图像处理方法、装置、存储介质及电子设备 |
CN113532450B (zh) * | 2021-06-29 | 2024-04-30 | 广州小鹏汽车科技有限公司 | 一种虚拟停车地图数据处理方法和系统 |
CN113619606B (zh) * | 2021-09-17 | 2024-06-14 | 中国第一汽车股份有限公司 | 障碍物确定方法、装置、设备以及存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107967439A (zh) * | 2016-10-20 | 2018-04-27 | 现代自动车株式会社 | 车道估算设备和方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3091370B1 (en) * | 2015-05-05 | 2021-01-06 | Volvo Car Corporation | Method and arrangement for determining safe vehicle trajectories |
CN106485233B (zh) * | 2016-10-21 | 2020-01-17 | 深圳地平线机器人科技有限公司 | 可行驶区域检测方法、装置和电子设备 |
CN107480592B (zh) * | 2017-07-13 | 2020-06-12 | 华域汽车系统股份有限公司 | 一种多车道检测方法及跟踪方法 |
-
2018
- 2018-07-19 CN CN201810796680.0A patent/CN108961146B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107967439A (zh) * | 2016-10-20 | 2018-04-27 | 现代自动车株式会社 | 车道估算设备和方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108961146A (zh) | 2018-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108961146B (zh) | 渲染感知地图的方法和装置 | |
CN109101690B (zh) | 用于渲染车辆自动驾驶模拟器中的场景的方法和装置 | |
CN111874006B (zh) | 路线规划处理方法和装置 | |
CN111448591B (zh) | 不良光照条件下用于定位车辆的系统和方法 | |
US11487988B2 (en) | Augmenting real sensor recordings with simulated sensor data | |
US11455565B2 (en) | Augmenting real sensor recordings with simulated sensor data | |
JP2021513173A (ja) | カメラを用いた車両環境モデリング | |
US10836356B2 (en) | Sensor dirtiness detection | |
CN111091037B (zh) | 用于确定驾驶信息的方法和设备 | |
US11698675B2 (en) | Autonomous vehicle visual based communication | |
DE102021101270A1 (de) | Trainieren eines neuronalen netzwerks eines fahrzeugs | |
Hospach et al. | Simulation of falling rain for robustness testing of video-based surround sensing systems | |
WO2020199057A1 (zh) | 一种自动驾驶模拟系统、方法、设备及存储介质 | |
DE112021006402T5 (de) | Schätzung von Automatikbelichtungswerten einer Kamera durch Priorisieren eines Objekts von Interesse auf Basis von kontextuellen Eingaben aus 3D-Karten | |
CN112988922A (zh) | 感知地图构建方法、装置、计算机设备和存储介质 | |
US11055543B2 (en) | Road curvature generation in real-world images as a method of data augmentation | |
CN110763233B (zh) | 构建时空代价图的方法和装置 | |
US11189082B2 (en) | Simulated overhead perspective images with removal of obstructions | |
KR102605696B1 (ko) | 정밀도로지도기반의 cctv 카메라 자세 및 객체 좌표 추정 방법 및 시스템 | |
KR102540636B1 (ko) | 방향 정보를 포함한 지도 생성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램 | |
US20240257376A1 (en) | Method and system for detection a line above ground from a helicopter | |
KR102540634B1 (ko) | 프로젝션 기반 컬러맵 생성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램 | |
KR102675138B1 (ko) | 복수개의 라이다들의 캘리브레이션 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램 | |
KR102540632B1 (ko) | 색상 보정을 적용한 컬러맵 생성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램 | |
EP4170305A1 (en) | System and method for simultaneous online lidar intensity calibration and road marking change detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |