CN111260549A - 道路地图的构建方法、装置和电子设备 - Google Patents
道路地图的构建方法、装置和电子设备 Download PDFInfo
- Publication number
- CN111260549A CN111260549A CN201811458050.9A CN201811458050A CN111260549A CN 111260549 A CN111260549 A CN 111260549A CN 201811458050 A CN201811458050 A CN 201811458050A CN 111260549 A CN111260549 A CN 111260549A
- Authority
- CN
- China
- Prior art keywords
- road
- point
- discrete
- vehicle
- position point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000010276 construction Methods 0.000 title claims abstract description 32
- 238000000034 method Methods 0.000 claims abstract description 78
- 230000008569 process Effects 0.000 claims abstract description 27
- 238000001514 detection method Methods 0.000 claims description 51
- 230000001133 acceleration Effects 0.000 claims description 26
- 238000004891 communication Methods 0.000 claims description 10
- 230000011218 segmentation Effects 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 230000015654 memory Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000002829 reductive effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000036961 partial effect Effects 0.000 description 2
- 241000283070 Equus zebra Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000011282 treatment Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/20—Drawing from basic elements, e.g. lines or circles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/32—Indexing scheme for image data processing or generation, in general involving image mosaicing
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
Abstract
本申请提供了一种道路地图的构建方法、装置和电子设备;其中,该方法包括:获取车载设备在车辆行驶过程中采集的道路视频图像和定位信息;该定位信息包括采集到的各个位置点的经纬度信息;根据定位信息中的离散位置点和车辆行驶状态数据,在基础地图上生成车辆的行驶路线;根据道路视频图像生成道路俯视图;其中,该道路俯视图为包含有时间信息和交通标志的图像集合;基于上述时间信息,在基础地图的行驶路线上拼接道路俯视图,得到行驶路线的道路地图。本申请实施例通过车辆的多种车载设备的数据可以构建精确较高的道路地图,相对于激光雷达的方式成本较低,同时保证了用户对地图精确度的需求。
Description
技术领域
本申请涉及地图技术领域,具体而言,涉及一种道路地图的构建方法、装置和电子设备。
背景技术
目前,高精度的道路地图构建方式主要依赖于激光雷达进行地图扫描和绘制,这种方式方便快捷,但成本较高;而现有的采用车载设备采集的数据构建地图的方式,大多依赖单一的数据进行构建,误差较大,难以满足用户对地图精度的需求。
发明内容
有鉴于此,本申请实施例的目的在于提供一种道路地图的构建方法、装置和电子设备,通过车辆的多种车载设备的数据可以构建精确较高的道路地图,相对于激光雷达的方式成本较低,同时保证用户对地图精确度的需求。
根据本申请的一个方面,提供一种电子设备,可以包括一个或多个存储介质和一个或多个与存储介质通信的处理器。一个或多个存储介质存储有处理器可执行的机器可读指令。当电子设备运行时,处理器与存储介质之间通过总线通信,处理器执行所述机器可读指令,以执行一个或多个以下道路地图的构建方法的操作:
获取车载设备在车辆行驶过程中采集的道路视频图像和定位信息;定位信息包括采集到的各个位置点的经纬度信息;根据定位信息中的离散位置点和车辆行驶状态数据,在基础地图上生成车辆的行驶路线;根据道路视频图像生成道路俯视图;其中,道路俯视图为包含有时间信息和交通标志的图像集合;基于时间信息,在基础地图的行驶路线上拼接道路俯视图,得到行驶路线的道路地图。
在一些实施例中,上述根据定位信息中的离散位置点和车辆行驶状态数据,在基础地图上生成车辆的行驶路线的步骤包括:在基础地图上确定定位信息中的离散位置点;基于车辆行驶状态数据,在确定出的离散位置点中插入至少一个离散位置点,得到车辆的行驶路线。
在一些实施例中,上述基于车辆行驶状态数据,在确定出的离散位置点中插入至少一个离散位置点,得到车辆的行驶路线的步骤包括:将确定出的离散位置点分成多个离散位置点组,对于每个离散位置点组:从车载设备采集的车辆行驶状态数据中获取离散位置点组对应的车辆行驶状态数据;根据获取的车辆行驶状态数据和预设时间间隔,在离散位置点组插入至少一个离散位置点;连接每个离散位置点,得到车辆的行驶路线。
在一些实施例中,上述将确定出的离散位置点分成多个离散位置点组的步骤,包括:将确定出的离散位置点中每两个相邻的离散位置点确定为一组离散位置点组。
在一些实施例中,上述车辆运动状态数据包括加速度和角速度;根据获取的车辆行驶状态数据和预设时间间隔,在离散位置点组插入至少一个离散位置点的步骤包括:根据离散位置点组的当前位置点对应的角速度,确定车辆在当前位置点的行驶方向;根据当前位置点对应的加速度、行驶方向以及预设时间间隔,在当前位置点后插入一个离散位置点;以插入的离散位置点为当前位置点,继续执行根据离散位置点组的当前位置点对应的角速度,确定车辆在当前位置点的行驶方向的步骤,直至当前位置点为离散位置点组的最后一个位置点。
在一些实施例中,上述根据当前位置点对应的加速度、行驶方向以及预设时间间隔,在当前位置点后插入一个离散位置点的步骤,包括:根据当前位置点对应的加速度和预设时间间隔,计算获得车辆从当前位置点出发的行驶距离;根据行驶距离和行驶方向,确定待插入的离散位置点的位置,在确定的位置上插入一个离散位置点。
在一些实施例中,上述根据定位信息中的离散位置点和车辆行驶状态数据,在基础地图上生成车辆的行驶路线的步骤,包括:如果获取到的道路视频图像和定位信息为同一道路的多组数据;根据每组定位信息中的离散位置点和车辆行驶状态数据,在基础地图上生成每组数据对应的行驶路线;行驶路线中的各个离散位置点的预设距离内分布有随机噪点;根据每组数据对应的行驶路线的各个离散位置点对应的随机噪点,调整各个离散位置点的位置;连接调整后的各个离散位置点,得到车辆的行驶路线。
在一些实施例中,上述根据每组数据对应的行驶路线的各个离散位置点对应的随机噪点,调整各个离散位置点的位置的步骤,包括:将每组数据对应的行驶路线的各个离散位置点对应的随机噪点中,小于预设的噪点距离的随机噪点进行合并;根据合并后的随机噪点,调整随机噪点对应的离散位置点的位置。
在一些实施例中,上述根据合并后的随机噪点,调整随机噪点对应的离散位置点的位置的步骤,包括:针对每个离散位置点,计算离散位置点对应的合并后的随机噪点的方差;将方差作为模型参数,基于模型参数建立高斯模型;通过高斯模型计算离散位置点对应的合并后的随机噪点的均值点;将均值点作为调整后的离散位置点。
在一些实施例中,上述根据道路视频图像生成道路俯视图的步骤,包括:根据道路视频的多帧图像,生成多帧图像对应的道路俯视图;通过预先训练的交通标志检测模型检测道路俯视图,得到检测结果;检测结果包括交通标志的类别、定位区域和分割区域;将检测结果携带至道路俯视图中。
在一些实施例中,上述根据道路视频的多帧图像,生成多帧图像的时间对应的道路俯视图的步骤,包括:获取车载设备拍摄的道路视频;将道路视频划分为多个图像组,每个图像组中包含多帧图像,以及多帧图像对应的时间;获取每个图像中,多帧图像同一位置的图像数据;拼接多帧图像中同一位置的图像数据,获得图像组对应的道路俯视图。
在一些实施例中,上述交通标志检测模型包括MASK-RCNN模型。
在一些实施例中,上述将检测结果携带至道路俯视图中的步骤,包括:根据检测结果中,各个交通标志的边缘像素,确定各个交通标志的位置坐标;将各个交通标志的类别和位置坐标,携带至道路俯视图中。
在一些实施例中,上述基于时间信息,在基础地图的行驶路线上拼接道路俯视图,得到行驶路线的道路地图的步骤,包括:提取道路俯视图的中心点和时间信息;在基础地图的行驶路线上查找时间信息对应的离散位置点;根据道路俯视图的中心点,将道路俯视图拼接至查找到的离散位置点上。
在一些实施例中,上述根据道路俯视图的中心点,将道路俯视图拼接至查找到的离散位置点上的步骤,包括:将道路俯视图设置在查找到的离散位置点上,以使道路俯视图的中心点与查找到的离散位置点重合;调整道路俯视图的方向,以使道路俯视图的长度方向的轴线与查找到的离散位置点处的行驶路线的方向重合。
根据本申请的另一个方面,还提供一种道路地图的构建装置,包括:信息获取模块,用于获取车载设备在车辆行驶过程中采集的道路视频图像和定位信息;定位信息包括采集到的各个位置点的经纬度信息;路线生成模块,用于根据定位信息中的离散位置点和车辆行驶状态数据,在基础地图上生成车辆的行驶路线;俯视图生成模块,用于根据道路视频图像生成道路俯视图;其中,道路俯视图为包含有时间信息和交通标志的图像集合;俯视图拼接模块,用于基于时间信息,在基础地图的行驶路线上拼接道路俯视图,得到行驶路线的道路地图。
在一些实施例中,上述路线生成模块,用于:在基础地图上确定定位信息中的离散位置点;基于车辆行驶状态数据,在确定出的离散位置点中插入至少一个离散位置点,得到车辆的行驶路线。
在一些实施例中,上述路线生成模块,用于:将确定出的离散位置点分成多个离散位置点组,对于每个离散位置点组:从车载设备采集的车辆行驶状态数据中获取离散位置点组对应的车辆行驶状态数据;根据获取的车辆行驶状态数据和预设时间间隔,在离散位置点组插入至少一个离散位置点;连接每个离散位置点,得到车辆的行驶路线。
在一些实施例中,上述路线生成模块,用于:将确定出的离散位置点中每两个相邻的离散位置点确定为一组离散位置点组。
在一些实施例中,上述车辆运动状态数据包括加速度和角速度;上述路线生成模块,用于:根据离散位置点组的当前位置点对应的角速度,确定车辆在当前位置点的行驶方向;根据当前位置点对应的加速度、行驶方向以及预设时间间隔,在当前位置点后插入一个离散位置点;以插入的离散位置点为当前位置点,继续执行根据离散位置点组的当前位置点对应的角速度,确定车辆在当前位置点的行驶方向的步骤,直至当前位置点为离散位置点组的最后一个位置点。
在一些实施例中,上述路线生成模块,用于:根据当前位置点对应的加速度和预设时间间隔,计算获得车辆从当前位置点出发的行驶距离;根据行驶距离和行驶方向,确定待插入的离散位置点的位置,在确定的位置上插入一个离散位置点。
在一些实施例中,上述路线生成模块,用于:如果获取到的道路视频图像和定位信息为同一道路的多组数据;根据每组定位信息中的离散位置点和车辆行驶状态数据,在基础地图上生成每组数据对应的行驶路线;行驶路线中的各个离散位置点的预设距离内分布有随机噪点;根据每组数据对应的行驶路线的各个离散位置点对应的随机噪点,调整各个离散位置点的位置;连接调整后的各个离散位置点,得到车辆的行驶路线。
在一些实施例中,上述路线生成模块,用于:将每组数据对应的行驶路线的各个离散位置点对应的随机噪点中,小于预设的噪点距离的随机噪点进行合并;根据合并后的随机噪点,调整随机噪点对应的离散位置点的位置。
在一些实施例中,上述路线生成模块,用于:针对每个离散位置点,计算离散位置点对应的合并后的随机噪点的方差;将方差作为模型参数,基于模型参数建立高斯模型;通过高斯模型计算离散位置点对应的合并后的随机噪点的均值点;将均值点作为调整后的离散位置点。
在一些实施例中,上述俯视图生成模块,用于:根据道路视频的多帧图像,生成多帧图像对应的道路俯视图;通过预先训练的交通标志检测模型检测道路俯视图,得到检测结果;检测结果包括交通标志的类别、定位区域和分割区域;将检测结果携带至道路俯视图中。
在一些实施例中,上述俯视图生成模块,用于:获取车载设备拍摄的道路视频;将道路视频划分为多个图像组,每个图像组中包含多帧图像,以及多帧图像对应的时间;获取每个图像中,多帧图像同一位置的图像数据;拼接多帧图像中同一位置的图像数据,获得图像组对应的道路俯视图。
在一些实施例中,上述交通标志检测模型包括MASK-RCNN模型。
在一些实施例中,上述俯视图生成模块,用于:根据检测结果中,各个交通标志的边缘像素,确定各个交通标志的位置坐标;将各个交通标志的类别和位置坐标,携带至道路俯视图中。
在一些实施例中,上述俯视图拼接模块,用于:提取道路俯视图的中心点和时间信息;在基础地图的行驶路线上查找时间信息对应的离散位置点;根据道路俯视图的中心点,将道路俯视图拼接至查找到的离散位置点上。
在一些实施例中,上述俯视图拼接模块,用于:将道路俯视图设置在查找到的离散位置点上,以使道路俯视图的中心点与查找到的离散位置点重合;调整道路俯视图的方向,以使道路俯视图的长度方向的轴线与查找到的离散位置点处的行驶路线的方向重合。
根据本申请的另一个方面,还提供一种电子设备,包括:处理器、存储介质和通信总线,存储介质存储有处理器可执行的机器可读指令,当电子设备运行时,处理器与存储介质之间通过通信总线通信,处理器执行机器可读指令,以执行时执行如上述道路地图的构建方法的步骤。
根据本申请的另一个方面,还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如上述道路地图的构建方法的步骤。
基于上述任一方面,通过车载设备在车辆行驶过程中采集的定位信息和车辆行驶状态数据,在基础地图上生成车辆的行驶路线;再根据车载设备采集的道路视频图像生成道路俯视图;进而基于时间信息,在行驶路线上拼接道路俯视图,得到行驶路线的道路地图。该方式通过车辆的多种车载设备的数据可以构建精确较高的道路地图,相对于激光雷达的方式成本较低,同时保证了用户对地图精确度的需求。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本申请实施例所提供的一种道路地图的构建系统的框图;
图2示出了本申请实施例所提供的一种电子设备的示例性硬件和软件组件的示意图;
图3示出了本申请实施例所提供的一种道路地图的构建方法的流程图;
图4(a)示出了本申请实施例所提供的直接连接离散位置点A和离散位置点K得到的行驶路线示意图;
图4(b)示出了本申请实施例所提供的根据车辆行驶状态数据在离散位置点A和离散位置点K之间插入若干离散位置点后得到的行驶路线示意图;
图5示出了本申请实施例所提供的另一种道路地图的构建方法的流程图;
图6示出了本申请实施例所提供的一个离散位置点组中,根据当前离散位置点确定下一个离散位置点的过程示意图;
图7示出了本申请实施例所提供的另一种道路地图的构建方法的流程图;
图8示出了本申请实施例所提供的另一种道路地图的构建方法的流程图;
图9示出了本申请实施例所提供的另一种道路地图的构建方法的流程图;
图10示出了本申请实施例所提供的一种道路地图的构建装置的框图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,应当理解,本申请中附图仅起到说明和描述的目的,并不用于限定本申请的保护范围。另外,应当理解,示意性的附图并未按实物比例绘制。本申请中使用的流程图示出了根据本申请的一些实施例实现的操作。应该理解,流程图的操作可以不按顺序实现,没有逻辑的上下文关系的步骤可以反转顺序或者同时实施。此外,本领域技术人员在本申请内容的指引下,可以向流程图添加一个或多个其他操作,也可以从流程图中移除一个或多个操作。
另外,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
为了使得本领域技术人员能够使用本申请内容,结合特定应用场景“通过车载设备提供的数据构建道路地图”,给出以下实施方式。对于本领域技术人员来说,在不脱离本申请的精神和范围的情况下,可以将这里定义的一般原理应用于其他实施例和应用场景。虽然本申请主要围绕道路地图的构建进行描述,但是应该理解,这仅是一个示例性实施例。本申请还可以应用于通过其他交通工具的设备数据构建道路地图、海洋路线图、航空路线图等,或其任意组合。该交通工具可以包括出租车、私家车、顺风车、公共汽车、火车、子弹头列车、高速铁路、地铁、船只、飞机、宇宙飞船、热气球、或无人驾驶车辆等,或其任意组合。本申请还可以包括用于道路地图的构建的任何服务系统,例如,用于提供地图导航的系统、用于创建个性化、高精度地图的服务系统等。本申请的系统或方法的应用可以包括网页、浏览器的插件、客户端终端、定制系统、内部分析系统、或人工智能机器人等,或其任意组合。
需要说明的是,本申请实施例中将会用到术语“包括”,用于指出其后所声明的特征的存在,但并不排除增加其它的特征。
本申请中使用的定位技术可以基于全球定位系统(Global Positioning System,GPS)、全球导航卫星系统(Global Navigation Satellite System,GLONASS),罗盘导航系统(COMPASS)、伽利略定位系统、准天顶卫星系统(Quasi-Zenith Satellite System,QZSS)、无线保真(Wireless Fidelity,WiFi)定位技术等,或其任意组合。一个或多个上述定位系统可以在本申请中互换使用。
本申请的一个方面涉及一种道路地图的构建系统。该系统可以通过车载设备在车辆行驶过程中采集的定位信息和车辆行驶状态数据,在基础地图上生成车辆的行驶路线;再根据车载设备采集的道路视频图像生成道路俯视图;进而基于时间信息,在行驶路线上拼接道路俯视图,得到行驶路线的道路地图。该方式通过车辆的多种车载设备的数据可以构建精确较高的道路地图,相对于激光雷达的方式成本较低,同时保证了用户对地图精确度的需求。
通过激光雷达的雷达数据获取地图信息的方式方便快捷,但成本较高;而现有的采用车载设备采集的数据构建地图的方式,大多依赖单一的数据进行构建,导致误差较大,难以满足用户对地图精度的需求。
值得注意的是,在本申请提出申请之前,大多通过激光雷达的雷达数据创建地图,成本较高,或者通过单一的车载设备数据创建,成本低但精确度差。然而,本申请提供的路地图的构建系统可以基于多种车载设备的数据创建地图,满足用户对地图精度的需求的同时,降低了地图创建的成本。
图1是本申请一些实施例的道路地图的构建系统100的框图。道路地图的构建系统100可以包括服务器110、网络120、车载设备130、车载设备140和数据库150中的一种或多种,服务器110中可以包括执行指令操作的处理器。
在一些实施例中,服务器110可以是单个服务器,也可以是服务器组。服务器组可以是集中式的,也可以是分布式的(例如,服务器110可以是分布式系统)。在一些实施例中,服务器110相对于车载设备,可以是本地的、也可以是远程的。例如,服务器110可以经由网络120访问存储在车载设备130、车载设备140、或数据库150、或其任意组合中的信息和/或数据。作为另一示例,服务器110可以直接连接到车载设备130、车载设备140和数据库150中至少一个,以访问存储的信息和/或数据。在一些实施例中,服务器110可以在云平台上实现;仅作为示例,云平台可以包括私有云、公有云、混合云、社区云(community cloud)、分布式云、跨云(inter-cloud)、多云(multi-cloud)等,或者它们的任意组合。在一些实施例中,服务器110可以在具有本申请中图2所示的一个或多个组件的电子设备200上实现。
在一些实施例中,服务器110可以包括处理器220。处理器220可以处理与服务请求有关的信息和/或数据,以执行本申请中描述的一个或多个功能。例如,处理器220可以基于从车载设备130获得的服务请求来确定目标车辆。在一些实施例中,处理器220可以包括一个或多个处理核(例如,单核处理器(S)或多核处理器(S))。仅作为举例,处理器220可以包括中央处理单元(Central Processing Unit,CPU)、专用集成电路(Application SpecificIntegrated Circuit,ASIC)、专用指令集处理器(Application Specific Instruction-set Processor,ASIP)、图形处理单元(Graphics Processing Unit,GPU)、物理处理单元(Physics Processing Unit,PPU)、数字信号处理器(Digital Signal Processor,DSP)、现场可编程门阵列(Field Programmable Gate Array,FPGA)、可编程逻辑器件(Programmable Logic Device,PLD)、控制器、微控制器单元、简化指令集计算机(ReducedInstruction Set Computing,RISC)、或微处理器等,或其任意组合。
网络120可以用于信息和/或数据的交换。在一些实施例中,道路地图的构建系统100中的一个或多个组件(例如,服务器110,车载设备130,车载设备140和数据库150)可以向其他组件发送信息和/或数据。例如,服务器110可以经由网络120从车载设备130获取服务请求。在一些实施例中,网络120可以是任何类型的有线或者无线网络,或者是他们的结合。仅作为示例,网络130可以包括有线网络、无线网络、光纤网络、远程通信网络、内联网、因特网、局域网(Local Area Network,LAN)、广域网(Wide Area Network,WAN)、无线局域网(Wireless Local Area Networks,WLAN)、城域网(Metropolitan Area Network,MAN)、广域网(Wide Area Network,WAN)、公共电话交换网(Public Switched TelephoneNetwork,PSTN)、蓝牙网络、ZigBee网络、或近场通信(Near Field Communication,NFC)网络等,或其任意组合。在一些实施例中,网络120可以包括一个或多个网络接入点。例如,网络120可以包括有线或无线网络接入点,例如基站和/或网络交换节点,道路地图的构建系统100的一个或多个组件可以通过该接入点连接到网络120以交换数据和/或信息。
在一些实施例中,车载设备130可以包括视频装置(如行车记录仪)、定位装置(如GPS装置)、IMU(Inertial measurement unit,惯性测量单元)等,或其任意组合。
数据库150可以存储数据和/或指令。在一些实施例中,数据库150可以存储从车载设备130和/或车载设备140获得的数据。在一些实施例中,数据库150可以存储在本申请中描述的示例性方法的数据和/或指令。在一些实施例中,数据库150可以包括大容量存储器、可移动存储器、易失性读写存储器、或只读存储器(Read-Only Memory,ROM)等,或其任意组合。作为举例,大容量存储器可以包括磁盘、光盘、固态驱动器等;可移动存储器可包括闪存驱动器、软盘、光盘、存储卡、zip磁盘、磁带等;易失性读写存储器可以包括随机存取存储器(Random Access Memory,RAM);RAM可以包括动态RAM(Dynamic Random Access Memory,DRAM),双倍数据速率同步动态RAM(Double Date-Rate Synchronous RAM,DDR SDRAM);静态RAM(Static Random-Access Memory,SRAM),晶闸管RAM(Thyristor-Based RandomAccess Memory,T-RAM)和零电容器RAM(Zero-RAM)等。作为举例,ROM可以包括掩模ROM(Mask Read-Only Memory,MROM)、可编程ROM(Programmable Read-Only Memory,PROM)、可擦除可编程ROM(Programmable Erasable Read-only Memory,PEROM)、电可擦除可编程ROM(Electrically Erasable Programmable read only memory,EEPROM)、光盘ROM(CD-ROM)、以及数字通用磁盘ROM等。在一些实施例中,数据库150可以在云平台上实现。仅作为示例,云平台可以包括私有云、公有云、混合云、社区云、分布式云、跨云、多云或者其它类似的等,或其任意组合。
在一些实施例中,数据库150可以连接到网络120以与道路地图的构建系统100(例如,服务器110,车载设备130,车载设备140等)中的一个或多个组件通信。道路地图的构建系统100中的一个或多个组件可以经由网络120访问存储在数据库150中的数据或指令。在一些实施例中,数据库150可以直接连接到道路地图的构建系统100中的一个或多个组件(例如,服务器110,车载设备130,车载设备140等);或者,在一些实施例中,数据库150也可以是服务器110的一部分。
图2示出根据本申请的一些实施例的可以实现本申请思想的服务器110、车载设备130、车载设备140的电子设备200的示例性硬件和软件组件的示意图。例如,处理器220可以用于电子设备200上,并且用于执行本申请中的功能。
电子设备200可以是通用计算机或特殊用途的计算机,两者都可以用于实现本申请的道路地图的创建方法。本申请尽管仅示出了一个计算机,但是为了方便起见,可以在多个类似平台上以分布式方式实现本申请描述的功能,以均衡处理负载。
例如,电子设备200可以包括连接到网络的网络端口210、用于执行程序指令的一个或多个处理器220、通信总线230、和不同形式的存储介质240,例如,磁盘、ROM、或RAM,或其任意组合。示例性地,计算机平台还可以包括存储在ROM、RAM、或其他类型的非暂时性存储介质、或其任意组合中的程序指令。根据这些程序指令可以实现本申请的方法。电子设备200还包括计算机与其他输入输出设备(例如键盘、显示屏)之间的输入/输出(Input/Output,I/O)接口250。
上述存储介质240存储有处理器220可执行的机器可读指令,当电子设备运行时,处理器220与存储介质240之间通过总线通信,处理器执行机器可读指令,以执行时执行下述道路地图的构建方法的步骤。另外,存储介质也可以称为计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行下述道路地图的构建方法的步骤。
为了便于说明,在电子设备200中仅描述了一个处理器。然而,应当注意,本申请中的电子设备200还可以包括多个处理器,因此本申请中描述的一个处理器执行的步骤也可以由多个处理器联合执行或单独执行。例如,若电子设备200的处理器执行步骤A和步骤B,则应该理解,步骤A和步骤B也可以由两个不同的处理器共同执行或者在一个处理器中单独执行。例如,第一处理器执行步骤A,第二处理器执行步骤B,或者第一处理器和第二处理器共同执行步骤A和B。
基于上述对道路地图的构建系统和电子设备的描述,参见图3所示的一种道路地图的构建方法的流程图;该方法包括如下步骤:
步骤S302,获取车载设备在车辆行驶过程中采集的道路视频图像和定位信息;该定位信息包括采集到的各个位置点的经纬度信息;
该车载设备可以理解为预先安装在车辆中的设备,如行车记录仪、GPS模块等;其中,行车记录仪可以用于采集道路视频图像;GPS模块可以用于采集定位信息。在大多情况下,GPS模块或其他定位装置通常不会连续地采集车辆的定位信息,与摄像装置采集视频帧的方式类似,大多会按照预设的时间间隔采集离散的位置点的经纬度信息。需要说明的是,GPS模块或其他定位装置在采集各个位置点的经纬度信息时,还通常会记录采集该位置点的经纬度信息时的时间,该时间可以采用全球通用的标准时间,如格林尼治时间,进而再通过各时区与格林尼治时间的转换关系,再将标准时间转换为当前时区的时间,如北京时间。
步骤S304,根据定位信息中的离散位置点和车辆行驶状态数据,在基础地图上生成车辆的行驶路线;
如上文所述,定位信息中的离散位置点是按照预设的时间间隔采集的,且时间间隔通常较大,例如0.5秒、1秒,由于车辆的行驶速度较快,因而定位信息中的离散位置点相聚较远;如果直接连接定位信息中的各个离散位置点,生成的行驶路线为折线型,与车辆实际的行驶路线不符,误差较大;基于此,上述步骤中,在定位信息中的各个离散位置点的基础上,再根据车辆行驶状态数据估计各离散位置点之间车辆的轨迹,从而得到与实际更加相符的行驶路线。
具体而言,上述车辆行驶状态数据可以为车辆在某些时间点的速度、加速度、角速度、方向等参数;车辆行驶状态数据可以通过车载设备中的IMU(Inertial MeasurementUnit,惯性测量单元)、陀螺传感器或其他记录车辆行驶状态的装置获得。上述基础地图上可以理解为空白地图,该空白地图的各个位置点上对应有经纬度信息,因而根据该经纬度信息,将车辆的行驶路线中包含的各个位置点标识在基础地图上,从而在该基础地图上生成车辆的行驶路线。
步骤S306,根据道路视频图像生成道路俯视图;其中,该道路俯视图为包含有时间信息和交通标志的图像集合;
道路视频图像可以由行车记录仪,或其他具有摄像功能的装置采集得到;道路视频图像中,道路的角度相当于站在道路上看道路的角度,不同位置的道路的形状存在一定程度的畸变,如道路的宽窄会渐变;而上述道路俯视图,道路的角度相当于从天空看道路的角度,道路的形状通常不存在畸变;为了实现角度的变换,即根据道路视频图像生成道路俯视图,通常需要将道路视频图像中道路的畸变消除;考虑到道路视频图像中,连续的多张视频帧图像中同一位置的道路畸变程度相同,可以将道路视频图像中,连续的多张视频帧图像中同一位置的局部图像进行拼接,从而得到道路各个位置畸变程度相同的图像,即道路俯视图。
由于道路俯视图是由多张视频帧图像拼接而成,因而道路俯视图包含的时间信息根据拼接的多张视频帧图像对应的时间点得到,例如,道路俯视图对应的时间信息为拼接的多张视频帧图像对应的时间点的均值,也可以为拼接的多张视频帧图像中第一张视频帧图像对应的时间点,或者拼接的多张视频帧图像中最后一张视频帧图像对应的时间点等。
得到道路俯视图后,可以通过机器学习的方式从道路俯视图中识别各种交通标志的类别和位置;该交通标志的类别可以划分为车道线、前向导引线、左转指示线、右转指示线、斑马线等。在大多情况下,本实施例中的交通标志可以理解为交通地标,即标识在道路上的交通标志。
步骤S308,基于时间信息,在基础地图的行驶路线上拼接道路俯视图,得到行驶路线的道路地图。
由上述可知,道路俯视图是一个图像集合,每张图片对应一段道路;对于一个车辆,定位信息、车辆行驶状态数据和道路视频图像通常会同时采集;因而,基于道路视频图像生成的道路俯视图这一图像集合,可以组成完整的行驶路线对应的道路地图;在实际实现时,上述定位信息、车辆行驶状态数据和道路视频图像通常都携带有时间信息,因而,基于时间信息,可以将同一时间点的道路俯视图拼接至行驶路线中该时间点对应的位置点上。
本发明实施例提供的上述道路地图的构建方法,通过车载设备在车辆行驶过程中采集的定位信息和车辆行驶状态数据,在基础地图上生成车辆的行驶路线;再根据车载设备采集的道路视频图像生成道路俯视图;进而基于时间信息,在行驶路线上拼接道路俯视图,得到行驶路线的道路地图。该方式通过车辆的多种车载设备的数据可以构建精确较高的道路地图,相对于激光雷达的方式成本较低,同时保证了用户对地图精确度的需求。
本发明实施例还提供另一种道路地图的构建方法,该方法在上述实施例所提供方法的基础上实现;本实施例中,具体描述通过多种方式生成车辆的行驶路线的过程。
由上述实施例可知,直接连接定位信息中的离散位置点通常会得到折线形状的行驶路线,与实际情况不符;因此本实施例拟在定位信息中的离散位置点的基础上,进一步得到相对位置较近的离散位置点,以使行驶路线更加符合实际驾驶情况;基于此,可以首先在上述基础地图上确定定位信息中的离散位置点;再基于车辆行驶状态数据,在确定出的离散位置点中插入至少一个离散位置点,得到车辆的行驶路线。例如,定位信息中的离散位置点的时间间隔为1秒,对于某一离散位置点A,获取该离散位置点A对应时间点的车辆行驶状态数据,如该车辆在该离散位置点A的行驶方向和行驶速度,根据该车辆在该离散位置点A的行驶方向和行驶速度,可以通过现有公式计算得到该车辆从离散位置点A出发0.1秒后的位置,该位置即可设置一个离散位置点,如离散位置点B;进而再获取该离散位置点B对应时间点的车辆行驶状态数据,根据该车辆在该离散位置点B的行驶方向和行驶速度,通过现有公式计算得到该车辆从离散位置点B出发0.1秒后的位置,该位置即可设置一个离散位置点,如离散位置点C,依次类推,在离散位置点A与下一个定位信息中的离散位置点,如离散位置点K之间,即可插入九个离散位置点,即如果离散位置点A对应的时间点为0秒,离散位置点K对应的时间点为1秒;离散位置点A和K之间插入的九个离散位置点分别对应0.1秒、0.2秒、0.3秒、0.4秒、0.5秒、0.6秒、0.7秒、0.8秒和0.9秒时的车辆位置。如图4(a)和图4(b)所示,图4(a)示出了直接连接离散位置点A和K得到的行驶路线;而图4(b)为根据车辆行驶状态数据插入若干离散位置点后得到的行驶路线,相对而言,图4(b)中的行驶路线精确度更高,与车辆实际的路线更加匹配。
基于上述描述,本实施例提供的另一种道路地图的构建方法如图5所示,具体包括下述步骤:
步骤S502,获取车载设备在车辆行驶过程中采集的道路视频图像和定位信息;该定位信息包括采集到的各个位置点的经纬度信息;
步骤S504,在基础地图上确定定位信息中的离散位置点;将确定出的离散位置点分成多个离散位置点组;
由上述实施例可知,基于经纬度信息可以在基础地图上确定定位信息中的离散位置点的具体位置;为了便于插入新的离散位置点,上述步骤中将确定出的离散位置点分成多个离散位置点组;具体的,由于车辆的行驶路线多为线条状,因而定位信息中的离散位置点也是线条状,基于此,可以预设每组离散位置点组中包含的离散位置点的数量,从定位信息中的离散位置点的第一离散位置点开始,依次划分各个离散位置点组;可以理解,为了避免后续在同一位置重复插入位置点,除各个离散位置点组中的第一个和最后一个离散位置点外,其他离散位置点不重复,即各个离散位置点组首尾相接。每组离散位置点组中包含的离散位置点的数量可以相同,也可以不同;每组离散位置点组中包含的离散位置点的数量具体可以为两个、三个、四个、五个等。
在其中一种方式中,可以将确定出的离散位置点中每两个相邻的离散位置点确定为一组离散位置点组。该划分方式中,当前离散位置点组中的第一个离散位置点是当前离散位置点组的前一个离散位置点组中的最后一个离散位置点;当前离散位置点组中的最后一个离散位置点是当前离散位置点组的后一个离散位置点组中的第一个离散位置点。且每个离散位置点组中除第一个和最后一个离散位置点外,不存在其他的定位信息中的离散位置点。
在另一种方式中,可以将确定出的离散位置点中每三个或以上相邻的离散位置点确定为一组离散位置点组。该划分方式中,当前离散位置点组中的第一个离散位置点是当前离散位置点组的前一个离散位置点组中的最后一个离散位置点;当前离散位置点组中的最后一个离散位置点是当前离散位置点组的后一个离散位置点组中的第一个离散位置点。且每个离散位置点组中除第一个和最后一个离散位置点外,还存在其他的定位信息中的离散位置点。因而,在该离散位置点组中插入新的离散位置点时,可能会遇到新插入的离散位置点与某一定位信息中的离散位置点对应的时间点相同,此时,可以根据新插入的离散位置点调整该时间点对应的定位信息中的离散位置点,以降低定位信息中离散位置点的误差,进而提高行驶路线的精确度。
步骤S506,对于每个离散位置点组,从车载设备采集的车辆行驶状态数据中获取离散位置点组对应的车辆行驶状态数据;
具体地,可以获取每个离散位置点组中,第一个离散位置点对应的第一时间点,最后一个离散位置点对应的第二时间点;再从车辆行驶状态数据中提取上述第一时间点与第二时间点对应时间段的车辆行驶状态数据,提取到的数据即离散位置点组对应的车辆行驶状态数据。
步骤S508,根据获取的车辆行驶状态数据和预设时间间隔,在离散位置点组插入至少一个离散位置点;
其中,预设时间间隔可以为0.1秒、0.5秒等;可以理解,该第一时间间隔越小,插入的离散位置点密度越高,最终得到的行驶路线越准确。为了知晓从当前的离散位置点出发,车辆行驶上述预设时间间隔的时长后车辆所处的位置,通常需要知晓车辆在当前的离散位置点的行驶方向和行驶速度;因此,上述车辆行驶状态数据中通常包括车辆的行驶方向和行驶速度,或者与行驶方向和行驶速度相关的参数;例如,与行驶方向相关的参数通常包括角速度、陀螺姿态数据等,与行驶速度相关的参数通常包括瞬时速度、加速度等。
下面以车辆运动状态数据包括加速度和角速度为例,进一步说明上述步骤S508的实现方式,具体包括下述步骤02~步骤06:
步骤02,根据离散位置点组的当前位置点对应的角速度,确定车辆在当前位置点的行驶方向;
具体可以通过车载设备中的陀螺仪采集车辆的角速度,该角速度可以为车辆的转弯角速度,基于该转弯角速度即可确定车辆在当前位置点的行驶方向。另外,还可以通过车载设备中的罗盘传感器检测地球的磁场,进而确定车辆的行驶方向。
步骤04,根据当前位置点对应的加速度、行驶方向以及预设时间间隔,在当前位置点后插入一个离散位置点;
上述步骤02中确定了车辆在当前位置点的行驶方向,该步骤04中,需要进一步确定车辆在预设时间间隔的行驶距离,才能最终确定车辆在行驶预设时间间隔后的位置,即插入离散位置点的位置。具体可以通过下述步骤(1)和步骤(2)实现:
步骤(1),根据当前位置点对应的加速度和预设时间间隔,计算获得车辆从当前位置点出发的行驶距离;
其中一种实现方式中,可以直接通过公式S=at2/2计算得到行驶距离;另一种方式中,可以通过公式V=at得到行驶速度;再通过公式S=Vt得到行驶距离;其中,S是行驶距离,V是行驶速度,a是加速度,t是预设时间间隔。
步骤(2),根据行驶距离和行驶方向,确定待插入的离散位置点的位置,在确定的位置上插入一个离散位置点。
步骤06,以插入的离散位置点为当前位置点,继续执行根据离散位置点组的当前位置点对应的角速度,确定车辆在当前位置点的行驶方向的步骤(即上述步骤02),直至当前位置点为离散位置点组的最后一个位置点。
上述步骤02至步骤06是一个循环过程,对于每个离散位置点组,如果需要插入n个新的离散位置点,则需要执行n次上述循环过程。图6示出了一个离散位置点组中,根据当前离散位置点确定下一个离散位置点的过程;其中,离散位置点A为该离散位置点组的第一个离散位置点,虚线w1是车辆在离散位置点A的行驶方向,在该方向上的预设时间间隔内,车辆的行驶距离为s1,根据w1和s1即可确定新插入的离散位置点B,进而再基于该离散位置点B,计算车辆在离散位置点B的行驶方向w2,在该方向上的预设时间间隔内,车辆的行驶距离为s2,根据w2和s2即可确定新插入的离散位置点C,依此类推,直至到达该离散位置点组的最后一个离散位置点。
至于如何确定当前位置点为离散位置点组的最后一个位置点,可以通过时间信息实现;具体而言,不论是新插入的离散位置点,还是定位信息中的离散位置点,都对应唯一的时间点,如果当前位置点对应的时间点与离散位置点组的最后一个位置点的时间点相同,即可确定当前位置点为离散位置点组的最后一个位置点。另外,如果当前位置点为新插入的位置点,该位置点的时间点与离散位置点组的最后一个位置点的时间点相同,但当前位置点与离散位置点组的最后一个位置点的位置并不重合,此时,可以根据当前位置点调整离散位置点组的最后一个位置点,以降低位置点的误差,从而提高行驶线路的精确性。
当当前位置点为离散位置点组的最后一个位置点时,该当前位置点即可作为下一组离散位置点组的第一个位置点,开始进行下一组离散位置点组的位置点插入步骤,即再次执行上述步骤02至步骤06。
步骤S510,连接每个离散位置点,得到车辆的行驶路线。
步骤S512,根据道路视频图像生成道路俯视图;其中,该道路俯视图为包含有时间信息和交通标志的图像集合;
步骤S514,基于时间信息,在基础地图的行驶路线上拼接道路俯视图,得到行驶路线的道路地图。
上述方式中,描述了多种方式生成车辆的行驶路线的过程,通过在定位信息的离散位置点间插入新的离散位置点,可以提高离散位置点的密度,从而使行驶路线更加精确,与车辆的实际行驶路线更加贴近,有利于提高后续道路地图的精确度。
本发明实施例还提供另一种道路地图的构建方法,该方法在上述实施例所提供方法的基础上实现;本实施例中,重点描述通过多辆车在同一段道路上行驶,或者同一辆车多次在同一段道路上行驶的方式,获取多组道路视频图像和定位信息,从而进一步提高车辆的行驶路线的精确度。如图7所示,该方法包括如下步骤:
步骤S702,获取车载设备在车辆行驶过程中采集的道路视频图像和定位信息;该定位信息包括采集到的各个位置点的经纬度信息;获取到的道路视频图像和定位信息为同一道路的多组数据;
步骤S704,根据每组定位信息中的离散位置点和车辆行驶状态数据,在基础地图上生成每组数据对应的行驶路线;该行驶路线中的各个离散位置点的预设距离内分布有随机噪点;
每组数据对应的行驶路线具体可以根据上述实施例中描述的方法生成,即在定位信息的离散位置点之间插入新的离散位置点;不论是定位信息的离散位置点还是插入的离散位置点,在离散位置点的预设距离内分布有随机噪点;对于定位信息的离散位置点而言,随机噪点是由于车辆抖动产生的,车辆在行驶状态下,受发动机及其他部件的影响,车辆一直处于抖动状态,采集定位信息的车载设备也会被动抖动,因而在某一时间点采集到的离散位置点通常具有多个随机噪点,进而基于多个随机噪点的分布状况,确定该离散位置点的最终位置。例如,将多个随机噪点的分布使用高斯模型表达,进而求得概率最大的位置点或者根据各个随机噪点求得平均的位置点,即为离散位置点的最终位置。对于插入的离散位置点而言,由于角速度和加速度变化极快,在一个离散位置点上可能对应有多个角速度和加速度,因而基于该角速度和加速度求得的插入的离散位置点的位置也具有多个随机噪点,同样按照上述方式,基于多个随机噪点的分布状况,可以确定插入的离散位置点的最终位置。
步骤S706,根据每组数据对应的行驶路线的各个离散位置点对应的随机噪点,调整各个离散位置点的位置;
在实际实现时,可以预设每组数据对应的行驶路线的各个离散位置点的预设时间间隔相同,且该行驶路线的第一个离散位置点的位置相同;在该前提下,同一道路的每组数据对应的行驶路线中,处于相同顺序的离散位置点均从同一位置采集;例如,按照时间顺序,每组数据对应的行驶路线中第一个离散位置点均从位置Y采集,但由于道路本身具有一定宽度、以及车辆抖动等原因,各条线路中第一个离散位置点及其对应的随机噪点不一定完全重合,相对于一条行驶线路对应的单组数据,多组数据的方式可以提供更丰富的数据量,对同一位置的多个离散位置点及其对应的随机噪点进行处理,可以得到更精确的该位置对应的离散位置点。
具体地,上述步骤S706可以通过下述步骤12和步骤14实现:
步骤12,将每组数据对应的行驶路线的各个离散位置点对应的随机噪点中,小于预设的噪点距离的随机噪点进行合并;
该噪点距离具体可以根据相邻随机噪点间的平均距离确定,例如该噪点距离为相邻的离散位置点间平均距离的一半。小于预设的噪点距离的随机噪点,可以认为这些随机噪点为同一位置点,即可对这些随机噪点进行合并。
步骤14,根据合并后的随机噪点,调整随机噪点对应的离散位置点的位置。
多条行驶线路中,同一位置的离散位置点的随机噪点合并后,相对于单条行驶线路中该位置的离散位置点的随机噪点,其分布会发生变化,进而再将当前的随机噪点的分布使用高斯模型或其他随机模型表达,而求得概率最大的位置点,即为离散位置点的最终位置。
以高斯模型为例,上述步骤14具体还可以通过下述方式实现:针对每个离散位置点,计算离散位置点对应的合并后的随机噪点的方差;将方差作为模型参数,基于模型参数建立高斯模型;通过高斯模型计算离散位置点对应的合并后的随机噪点的均值点;将均值点作为调整后的离散位置点。
其中,合并后的随机噪点的方差可以用于表征离散位置点的采集误差或者计算误差,方差越小,随机噪点分布越集中,最终确定的离散位置点越精确;而方差越大,随机噪点分布越分散,如果方差超过预设的方差阈值,可以针对该离散位置点重新采集或计算。通常,一维的高斯模型具有两个参数,即方差和均值,基于随机噪点的方差作为模型参数,再结合合并后的随机噪点的位置,可以建立高斯模型;该高斯模型建立后,即可计算随机噪点的均值点,该均值点即为调整后的离散位置点。
步骤S708,连接调整后的各个离散位置点,得到车辆的行驶路线。
步骤S710,根据道路视频图像生成道路俯视图;其中,该道路俯视图为包含有时间信息和交通标志的图像集合;
步骤S712,基于上述时间信息,在基础地图的行驶路线上拼接道路俯视图,得到行驶路线的道路地图。
上述方式中,将多条行驶路线中,同一位置的离散位置点进行了合并,进而将多条行驶路线合并为一条行驶路线,合并后的行驶路线相比于合并前的任何一条行驶路线都更加精确,从而提高了行驶路线的精确度,并且与车辆的实际行驶路线更加贴近,有利于提高后续道路地图的精确度。
本发明实施例还提供另一种道路地图的构建方法,该方法在上述实施例所提供方法的基础上实现;本实施例中,重点描述生成道路俯视图的实现方式;如图8所示,该方法包括如下步骤:
步骤S802,获取车载设备在车辆行驶过程中采集的道路视频图像和定位信息;该定位信息包括采集到的各个位置点的经纬度信息;
步骤S804,在基础地图上确定定位信息中的离散位置点;将确定出的离散位置点分成多个离散位置点组;
步骤S806,对于每个离散位置点组,从车载设备采集的车辆行驶状态数据中获取离散位置点组对应的车辆行驶状态数据;
步骤S808,根据获取的车辆行驶状态数据和预设时间间隔,在离散位置点组插入至少一个离散位置点;
步骤S810,连接每个离散位置点,得到车辆的行驶路线。
步骤S812,根据道路视频的多帧图像,生成多帧图像对应的道路俯视图;其中,该道路俯视图为包含有时间信息和交通标志的图像集合;
由于道路视频中,连读的多帧图像或按照预设间隔采集的多帧图像间,图像内容具有一定的连续性,如帧图像A第1-3行的局部图像,与帧图像B第4-6行的局部图像相同,并且与帧图像B第1-3行的局部图像具有连续性;同时,帧图像B第1-3行的局部图像,与帧图像C第4-6行的局部图像相同,并且与帧图像B第1-3行的局部图像具有连续性;因而,帧图像A、B、C的第1-3行的局部图像依次具有连续性,由于位置相同,因而图像尺寸、畸变程度均相同;因此,将帧图像A、B、C的第1-3行的局部图像依次拼接,即可得到帧图像A、B、C的道路俯视图。
具体而言,上述步骤S812可以通过下述步骤实现:
步骤22,获取车载设备拍摄的道路视频;
该道路视频拍摄的时间,通常与前述生成车辆的行驶路线所使用的定位信息的采集时间相同,即车辆的行驶过程中,同时通过车载设备采集定位信息和道路视频,因此,在同一时间点,对应有定位信息中的至少一个离散时间点和道路视频中的至少一帧视频帧。
步骤24,将道路视频划分为多个图像组,每个图像组中包含多帧图像,以及多帧图像对应的时间;
例如,可以预设每个图像组的视频帧数量,再按照道路视频中各个视频帧的时间顺序,依次划分图像组;通常,相邻的图像组的首尾视频帧相邻,但不具有重合的视频帧。由于每个视频帧均对应有一个时间点,因而一个图像组对应一个时间段,该时间段通常为该图像组最后一个视频帧的时间点与第一个视频帧的时间点的差值;为了便于标识,每个图像组还可以使用时间点表达,该时间点可以为各个图像组的某个固定位置的视频帧的时间点,如图像组中第一个视频帧的时间点、最后一个视频帧的时间点。
步骤26,获取每个图像中,多帧图像同一位置的图像数据;
其中,该同一位置可以使用像素行或像素列表达;车辆在行驶过程中,大多情况下为向前移动的状态,除拐弯、变道外,很少出现左右摇摆的情况;因而在道路视频中,相邻的视频帧间,在像素列方向(即沿着道路的方向)的图像内容变化较大,在像素行方向(即道路宽幅的方向)的图像内容变化较小;因此,在上述步骤26中,多帧图像的同一位置具体可以为像素列方向上同一位置的图像数据;像素列方向上的同一位置可以通过像素行的位置表达,如第1行像素行、第1-3行像素行、第2-5行像素行等;同一位置的图像数据的尺寸可以预先设定,可以理解,尺寸越小,如仅一行像素行,后续拼接得到的道路俯视图越精细;尺寸越大,各像素行间会存在畸变,后续拼接得到的道路俯视图越粗糙;具体尺寸可以根据实际需求设置。
另外,在选择上述多帧图像的同一位置时,还需要考虑道路视频中的具体内容,由于目的是为了拼接得到道路俯视图,因而需要选择道路视频中,内容是道路的局部图像,剔除包含有其他车辆、行人、建筑物、或者天空的局部图像。
步骤28,拼接多帧图像中同一位置的图像数据,获得图像组对应的道路俯视图。
获取到多帧图像中同一位置的图像数据后,按照时间顺序进行首尾相接,几个得到该图像组对应的道路俯视图。
步骤S814,通过预先训练的交通标志检测模型检测道路俯视图,得到检测结果;该检测结果包括交通标志的类别、定位区域和分割区域;
该交通标志检测模型可以通过支持向量机、神经网络等多种模型,经大量样本训练得到;该交通标志检测模型可以对道路俯视图中的交通标志进行识别、定位和分割;其中,当检测出交通标志后,可以通过定位框标识该交通标志的定位区域,并在定位区域对应的位置标识出该交通标志的类别,如左转指示线、右转指示线、人行道等;上述分割区域可以标识出交通标志的边缘线条,可以更加准确地获取交通标志的位置。
上述交通标志检测模型可以包含多个子模型,用于分别执行交通标志的类别识别、定位和分割。上述交通标志检测模型具体可以为MASK-RCNN(Regions withConvolutional Neural Network,卷积神经网络)模型;该MASK-RCNN模型中,首先通过RPN(Region Proposal Network,区域候选网络)产生候选区域;再通过FPN(feature pyramidnetworks,特征金字塔网络)提取各个候选区域的卷积特征,进而实现对输入的道路俯视图中交通标志的检测。
步骤S816,将检测结果携带至道路俯视图中。
在实际实现时,上述检测结果可以直接显示在道路俯视图上;为了避免影响道路地图的展示效果,该检测结果还可以不直接显示在道路俯视图中,可以将检测结果转化为数据,与对应的道路俯视图关联保存;具体而言,上述步骤S816可以通过下述方式实现:
步骤32,根据检测结果中,各个交通标志的边缘像素,确定各个交通标志的位置坐标;
其中,各个交通标志的边缘像素可以从检测结果中,各个交通标志的分割区域的边缘线条中提取得到;各个交通标志的位置坐标具体可以为一个坐标集合,该坐标集合中包含了该交通标志的边缘像素的位置坐标;在另一种方式中,获取到各个交通标志的边缘像素后,可以对这些边缘像素的位置求取平均值,得到该交通标志的中心点位置,该中心点位置的坐标可以作为该交通标志的位置坐标;另外,还可以将各个交通标志的边缘像素中指定位置的像素点对应的位置坐标,作为交通标志的位置坐标,如最顶部的像素点、最底部的像素点等。
步骤34,将各个交通标志的类别和位置坐标,携带至道路俯视图中。
例如,各个交通标志的类别和位置坐标,可以与该交通标志所属的道路俯视图关联保存;如果后续通过道路地图进行导航时,当车辆行驶到或即将行驶到该道路俯视图对应的位置,即可根据与之关联的交通标志的类别和位置坐标,向用户展示或播报道路前方的交通标志的类别和位置。
步骤S818,基于上述时间信息,在基础地图的行驶路线上拼接道路俯视图,得到行驶路线的道路地图。
上述方式中,获取到车辆的行驶路线后,根据道路视频得到道路俯视图,并基于预先训练的交通标志检测模型检测得到道路俯视图中的交通标志,得到交通标志的类别和位置信息,从而为道路地图的创建提供的丰富的数据支持,有利于通过该道路地图实现导航,提高了道路地图的实用性和用户体验度。
本发明实施例还提供另一种道路地图的构建方法,该方法在上述实施例所提供方法的基础上实现;本实施例中,重点描述将道路俯视图拼接至行驶路线,最终得到道路地图的实现方式;如图9所示,该方法包括如下步骤:
步骤S902,获取车载设备在车辆行驶过程中采集的道路视频图像和定位信息;该定位信息包括采集到的各个位置点的经纬度信息;
步骤S904,在基础地图上确定定位信息中的离散位置点;将确定出的离散位置点分成多个离散位置点组;
步骤S906,对于每个离散位置点组,从车载设备采集的车辆行驶状态数据中获取离散位置点组对应的车辆行驶状态数据;
步骤S908,根据获取的车辆行驶状态数据和预设时间间隔,在离散位置点组插入至少一个离散位置点;
步骤S910,连接每个离散位置点,得到车辆的行驶路线。
步骤S912,根据道路视频的多帧图像,生成多帧图像对应的道路俯视图;其中,该道路俯视图为包含有时间信息和交通标志的图像集合;
步骤S914,通过预先训练的交通标志检测模型检测道路俯视图,得到检测结果;检测结果包括交通标志的类别、定位区域和分割区域;
步骤S916,将检测结果携带至道路俯视图中。
步骤S918,提取道路俯视图的中心点和时间信息;
由于车载设备中的摄像装置通常安装在车辆宽度方向上的中心位置,因而道路俯视图的中心点与车辆采集该道路俯视图对应的道路视频时的中心点的经纬度相同,或者道路俯视图的中心点处于车辆长度方向的中心轴线上;上述道路俯视图的中心点具体可以为该道路俯视图长度方向中心轴线与宽度方向中心轴线的交点,也可以为该道路俯视图长度方向中心轴线上的其他指定位置点。
如上述实施例所述,时间信息可以为道路俯视图对应的图像组中包含的多个视频帧对应的时间段,该时间段通常为该图像组最后一个视频帧的时间点与第一个视频帧的时间点的差值;上述时间信息还可以为时间点,该时间点可以为道路俯视图对应的图像组的某个固定位置的视频帧的时间点,如图像组中第一个视频帧的时间点、最后一个视频帧的时间点。
步骤S920,在基础地图的行驶路线上查找上述时间信息对应的离散位置点;
步骤S922,根据道路俯视图的中心点,将道路俯视图拼接至查找到的离散位置点上。
在拼接的过程中,可以按照时间信息表征的时间顺序,依次拼接各个道路俯视图至对应的离散位置点上;道路俯视图的中心点通常与对应的离散位置点重合;还可以不关心时间顺序,以随机的方式或其他预设顺序,将道路俯视图拼接至查找到的离散位置点上,所有的道路俯视图拼接完毕后,得到该行驶路线对应的相对完整的道路地图。
上述步骤S922,具体可以通过下述方式实现:
步骤42,将道路俯视图设置在查找到的离散位置点上,以使道路俯视图的中心点与查找到的离散位置点重合;
步骤44,调整道路俯视图的方向,以使道路俯视图的长度方向的轴线与查找到的离散位置点处的行驶路线的方向重合。
道路俯视图的中心点与查找到的离散位置点重合后,道路俯视图可能会有多个摆放方向,此时,需要进一步获取该离散位置点处的行驶路线的方向,该方向具体可以为行驶路线在该离散位置点的切线方向,将道路俯视图的长度方向的轴线调整至于该切线方向重合,即可实现相邻道路俯视图首尾衔接的拼接。
另外,各个道路俯视图拼接至行驶路线后,相邻的道路俯视图之间可能存在缝隙或相互重叠的区域;对于缝隙,可以对该缝隙相邻的道路俯视图的边缘区域进行复制,将复制的局部图像拼接至缝隙上,再对局部图像与相邻的道路俯视图的边缘部分进行羽化、均匀模糊等处理,以使图像间自然衔接;对于相互重叠的区域,可以剪切部分区域,以使相邻的道路俯视图的边缘可以相互衔接。
上述方式中,获取到行驶路线和道路俯视图后,基于时间信息将道路俯视图拼接至对应的离散位置点上,并对道路俯视图进行进一步的调整,得到行驶路线的道路地图。该方式通过车辆的多种车载设备的数据可以构建精确较高的道路地图,相对于激光雷达的方式成本较低,同时保证了用户对地图精确度的需求。
对应于上述方法实施例,图10是示出本申请的一些实施例的道路地图的构建装置的框图,该道路地图的构建装置实现的功能对应上述方法执行的步骤。该装置可以理解为上述服务器,或服务器的处理器,也可以理解为独立于上述服务器或处理器之外的在服务器控制下实现本申请功能的组件,如图所示,道路地图的构建装置可以包括:
信息获取模块102,用于获取车载设备在车辆行驶过程中采集的道路视频图像和定位信息;定位信息包括采集到的各个位置点的经纬度信息;
路线生成模块104,用于根据定位信息中的离散位置点和车辆行驶状态数据,在基础地图上生成车辆的行驶路线;
俯视图生成模块106,用于根据道路视频图像生成道路俯视图;其中,道路俯视图为包含有时间信息和交通标志的图像集合;
俯视图拼接模块108,用于基于时间信息,在基础地图的行驶路线上拼接道路俯视图,得到行驶路线的道路地图。
上述道路地图的构建装置,通过车载设备在车辆行驶过程中采集的定位信息和车辆行驶状态数据,在基础地图上生成车辆的行驶路线;再根据车载设备采集的道路视频图像生成道路俯视图;进而基于时间信息,在行驶路线上拼接道路俯视图,得到行驶路线的道路地图。该方式通过车辆的多种车载设备的数据可以构建精确较高的道路地图,相对于激光雷达的方式成本较低,同时保证了用户对地图精确度的需求。
上述道路地图的构建装置中的模块可以经由有线连接或无线连接彼此连接或通信。有线连接可以包括金属线缆、光缆、混合线缆等,或其任意组合。无线连接可以包括通过LAN、WAN、蓝牙、ZigBee、或NFC等形式的连接,或其任意组合。两个或更多个模块可以组合为单个模块,并且任何一个模块可以分成两个或更多个单元。
在一些实施例中,上述路线生成模块,用于:在基础地图上确定定位信息中的离散位置点;基于车辆行驶状态数据,在确定出的离散位置点中插入至少一个离散位置点,得到车辆的行驶路线。
在一些实施例中,上述路线生成模块,用于:将确定出的离散位置点分成多个离散位置点组,对于每个离散位置点组:从车载设备采集的车辆行驶状态数据中获取离散位置点组对应的车辆行驶状态数据;根据获取的车辆行驶状态数据和预设时间间隔,在离散位置点组插入至少一个离散位置点;连接每个离散位置点,得到车辆的行驶路线。
在一些实施例中,上述路线生成模块,用于:将确定出的离散位置点中每两个相邻的离散位置点确定为一组离散位置点组。
在一些实施例中,上述车辆运动状态数据包括加速度和角速度;上述路线生成模块,用于:根据离散位置点组的当前位置点对应的角速度,确定车辆在当前位置点的行驶方向;根据当前位置点对应的加速度、行驶方向以及预设时间间隔,在当前位置点后插入一个离散位置点;以插入的离散位置点为当前位置点,继续执行根据离散位置点组的当前位置点对应的角速度,确定车辆在当前位置点的行驶方向的步骤,直至当前位置点为离散位置点组的最后一个位置点。
在一些实施例中,上述路线生成模块,用于:根据当前位置点对应的加速度和预设时间间隔,计算获得车辆从当前位置点出发的行驶距离;根据行驶距离和行驶方向,确定待插入的离散位置点的位置,在确定的位置上插入一个离散位置点。
在一些实施例中,上述路线生成模块,用于:如果获取到的道路视频图像和定位信息为同一道路的多组数据;根据每组定位信息中的离散位置点和车辆行驶状态数据,在基础地图上生成每组数据对应的行驶路线;行驶路线中的各个离散位置点的预设距离内分布有随机噪点;根据每组数据对应的行驶路线的各个离散位置点对应的随机噪点,调整各个离散位置点的位置;连接调整后的各个离散位置点,得到车辆的行驶路线。
在一些实施例中,上述路线生成模块,用于:将每组数据对应的行驶路线的各个离散位置点对应的随机噪点中,小于预设的噪点距离的随机噪点进行合并;根据合并后的随机噪点,调整随机噪点对应的离散位置点的位置。
在一些实施例中,上述路线生成模块,用于:针对每个离散位置点,计算离散位置点对应的合并后的随机噪点的方差;将方差作为模型参数,基于模型参数建立高斯模型;通过高斯模型计算离散位置点对应的合并后的随机噪点的均值点;将均值点作为调整后的离散位置点。
在一些实施例中,上述俯视图生成模块,用于:根据道路视频的多帧图像,生成多帧图像对应的道路俯视图;通过预先训练的交通标志检测模型检测道路俯视图,得到检测结果;检测结果包括交通标志的类别、定位区域和分割区域;将检测结果携带至道路俯视图中。
在一些实施例中,上述俯视图生成模块,用于:获取车载设备拍摄的道路视频;将道路视频划分为多个图像组,每个图像组中包含多帧图像,以及多帧图像对应的时间;获取每个图像中,多帧图像同一位置的图像数据;拼接多帧图像中同一位置的图像数据,获得图像组对应的道路俯视图。
在一些实施例中,上述交通标志检测模型包括MASK-RCNN模型。
在一些实施例中,上述俯视图生成模块,用于:根据检测结果中,各个交通标志的边缘像素,确定各个交通标志的位置坐标;将各个交通标志的类别和位置坐标,携带至道路俯视图中。
在一些实施例中,上述俯视图拼接模块,用于:提取所述道路俯视图的中心点和时间信息;在所述基础地图的行驶路线上查找所述时间信息对应的离散位置点;根据所述道路俯视图的中心点,将所述道路俯视图拼接至查找到的所述离散位置点上。
在一些实施例中,上述俯视图拼接模块,用于:设置道路俯视图,将道路俯视图设置在查找到的离散位置点上,以使道路俯视图的中心点与查找到的离散位置点重合;调整道路俯视图的方向,以使道路俯视图的长度方向的轴线与查找到的离散位置点处的行驶路线的方向重合。
本实施例所提供的装置,其实现原理及产生的技术效果和前述实施例相同,为简要描述,装置实施例部分未提及之处,可参考前述方法实施例中相应内容。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统和装置的具体工作过程,可以参考方法实施例中的对应过程,本申请中不再赘述。在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个模块或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或模块的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。
Claims (32)
1.一种道路地图的构建方法,其特征在于,包括:
获取车载设备在车辆行驶过程中采集的道路视频图像和定位信息;所述定位信息包括采集到的各个位置点的经纬度信息;
根据所述定位信息中的离散位置点和车辆行驶状态数据,在基础地图上生成所述车辆的行驶路线;
根据所述道路视频图像生成道路俯视图;其中,所述道路俯视图为包含有时间信息和交通标志的图像集合;
基于所述时间信息,在所述基础地图的行驶路线上拼接所述道路俯视图,得到所述行驶路线的道路地图。
2.根据权利要求1所述的方法,其特征在于,根据所述定位信息中的离散位置点和车辆行驶状态数据,在基础地图上生成所述车辆的行驶路线的步骤包括:
在基础地图上确定所述定位信息中的离散位置点;
基于车辆行驶状态数据,在确定出的所述离散位置点中插入至少一个离散位置点,得到所述车辆的行驶路线。
3.根据权利要求2所述的方法,其特征在于,基于车辆行驶状态数据,在确定出的所述离散位置点中插入至少一个离散位置点,得到所述车辆的行驶路线的步骤包括:
将确定出的离散位置点分成多个离散位置点组,对于每个离散位置点组:从所述车载设备采集的车辆行驶状态数据中获取所述离散位置点组对应的车辆行驶状态数据;根据获取的所述车辆行驶状态数据和预设时间间隔,在所述离散位置点组插入至少一个离散位置点;
连接每个所述离散位置点,得到所述车辆的行驶路线。
4.根据权利要求3所述的方法,其特征在于,将确定出的离散位置点分成多个离散位置点组的步骤,包括:
将确定出的离散位置点中每两个相邻的离散位置点确定为一组离散位置点组。
5.根据权利要求3或4所述的方法,其特征在于,所述车辆运动状态数据包括加速度和角速度;
所述根据获取的所述车辆行驶状态数据和预设时间间隔,在所述离散位置点组插入至少一个离散位置点的步骤包括:
根据所述离散位置点组的当前位置点对应的角速度,确定所述车辆在所述当前位置点的行驶方向;
根据所述当前位置点对应的加速度、所述行驶方向以及预设时间间隔,在所述当前位置点后插入一个离散位置点;
以插入的所述离散位置点为当前位置点,继续执行所述根据所述离散位置点组的当前位置点对应的角速度,确定所述车辆在所述当前位置点的行驶方向的步骤,直至当前位置点为所述离散位置点组的最后一个位置点。
6.根据权利要求5所述的方法,其特征在于,根据所述当前位置点对应的加速度、所述行驶方向以及预设时间间隔,在所述当前位置点后插入一个离散位置点的步骤,包括:
根据所述当前位置点对应的加速度和预设时间间隔,计算获得车辆从所述当前位置点出发的行驶距离;
根据所述行驶距离和所述行驶方向,确定待插入的离散位置点的位置,在确定的所述位置上插入一个离散位置点。
7.根据权利要求1所述的方法,其特征在于,根据所述定位信息中的离散位置点和车辆行驶状态数据,在基础地图上生成所述车辆的行驶路线的步骤,包括:
如果获取到的所述道路视频图像和所述定位信息为同一道路的多组数据;根据每组所述定位信息中的离散位置点和所述车辆行驶状态数据,在基础地图上生成每组所述数据对应的行驶路线;所述行驶路线中的各个离散位置点的预设距离内分布有随机噪点;
根据每组所述数据对应的行驶路线的各个离散位置点对应的随机噪点,调整各个离散位置点的位置;
连接调整后的各个所述离散位置点,得到所述车辆的行驶路线。
8.根据权利要求7所述的方法,其特征在于,所述根据每组所述数据对应的行驶路线的各个离散位置点对应的随机噪点,调整各个离散位置点的位置的步骤,包括:
将每组所述数据对应的行驶路线的各个离散位置点对应的随机噪点中,小于预设的噪点距离的随机噪点进行合并;
根据合并后的随机噪点,调整所述随机噪点对应的离散位置点的位置。
9.根据权利要求8所述的方法,其特征在于,所述根据合并后的随机噪点,调整所述随机噪点对应的离散位置点的位置的步骤,包括:
针对每个离散位置点,计算所述离散位置点对应的合并后的随机噪点的方差;
将所述方差作为模型参数,基于所述模型参数建立高斯模型;
通过所述高斯模型计算所述离散位置点对应的合并后的随机噪点的均值点;
将所述均值点作为调整后的离散位置点。
10.根据权利要求1所述的方法,其特征在于,所述根据所述道路视频图像生成道路俯视图的步骤,包括:
根据所述道路视频的多帧图像,生成所述多帧图像对应的道路俯视图;
通过预先训练的交通标志检测模型检测所述道路俯视图,得到检测结果;所述检测结果包括交通标志的类别、定位区域和分割区域;
将所述检测结果携带至所述道路俯视图中。
11.根据权利要求10所述的方法,其特征在于,根据所述道路视频的多帧图像,生成所述多帧图像的时间对应的道路俯视图的步骤,包括:
获取车载设备拍摄的道路视频;
将所述道路视频划分为多个图像组,每个图像组中包含多帧图像,以及所述多帧图像对应的时间;
获取每个所述图像中,所述多帧图像同一位置的图像数据;
拼接所述多帧图像中同一位置的图像数据,获得所述图像组对应的道路俯视图。
12.根据权利要求10所述的方法,其特征在于,所述交通标志检测模型包括MASK-RCNN模型。
13.根据权利要求10所述的方法,其特征在于,将所述检测结果携带至所述道路俯视图中的步骤,包括:
根据所述检测结果中,各个交通标志的边缘像素,确定各个所述交通标志的位置坐标;
将各个所述交通标志的类别和所述位置坐标,携带至所述道路俯视图中。
14.根据权利要求1所述的方法,其特征在于,基于时间信息,在所述基础地图的行驶路线上拼接所述道路俯视图,得到所述行驶路线的道路地图的步骤,包括:
提取所述道路俯视图的中心点和时间信息;
在所述基础地图的行驶路线上查找所述时间信息对应的离散位置点;
根据所述道路俯视图的中心点,将所述道路俯视图拼接至查找到的所述离散位置点上。
15.根据权利要求14所述的方法,其特征在于,根据所述道路俯视图的中心点,将所述道路俯视图拼接至查找到的所述离散位置点上的步骤,包括:
将所述道路俯视图设置在查找到的所述离散位置点上,以使所述道路俯视图的中心点与查找到的所述离散位置点重合;
调整所述道路俯视图的方向,以使所述道路俯视图的长度方向的轴线与查找到的所述离散位置点处的所述行驶路线的方向重合。
16.一种道路地图的构建装置,其特征在于,包括:
信息获取模块,用于获取车载设备在车辆行驶过程中采集的道路视频图像和定位信息;所述定位信息包括采集到的各个位置点的经纬度信息;
路线生成模块,用于根据所述定位信息中的离散位置点和车辆行驶状态数据,在基础地图上生成所述车辆的行驶路线;
俯视图生成模块,用于根据所述道路视频图像生成道路俯视图;其中,所述道路俯视图为包含有时间信息和交通标志的图像集合;
俯视图拼接模块,用于基于所述时间信息,在所述基础地图的行驶路线上拼接所述道路俯视图,得到所述行驶路线的道路地图。
17.根据权利要求16所述的装置,其特征在于,所述路线生成模块,用于:
在基础地图上确定所述定位信息中的离散位置点;
基于车辆行驶状态数据,在确定出的所述离散位置点中插入至少一个离散位置点,得到所述车辆的行驶路线。
18.根据权利要求17所述的装置,其特征在于,所述路线生成模块,用于:
将确定出的离散位置点分成多个离散位置点组,对于每个离散位置点组:从所述车载设备采集的车辆行驶状态数据中获取所述离散位置点组对应的车辆行驶状态数据;根据获取的所述车辆行驶状态数据和预设时间间隔,在所述离散位置点组插入至少一个离散位置点;
连接每个所述离散位置点,得到所述车辆的行驶路线。
19.根据权利要求18所述的装置,其特征在于,所述路线生成模块,用于:
将确定出的离散位置点中每两个相邻的离散位置点确定为一组离散位置点组。
20.根据权利要求18或19所述的装置,其特征在于,所述车辆运动状态数据包括加速度和角速度;
所述路线生成模块,用于:
根据所述离散位置点组的当前位置点对应的角速度,确定所述车辆在所述当前位置点的行驶方向;
根据所述当前位置点对应的加速度、所述行驶方向以及预设时间间隔,在所述当前位置点后插入一个离散位置点;
以插入的所述离散位置点为当前位置点,继续执行所述根据所述离散位置点组的当前位置点对应的角速度,确定所述车辆在所述当前位置点的行驶方向的步骤,直至当前位置点为所述离散位置点组的最后一个位置点。
21.根据权利要求20所述的装置,其特征在于,所述路线生成模块,用于:
根据所述当前位置点对应的加速度和预设时间间隔,计算获得车辆从所述当前位置点出发的行驶距离;
根据所述行驶距离和所述行驶方向,确定待插入的离散位置点的位置,在确定的所述位置上插入一个离散位置点。
22.根据权利要求16所述的装置,其特征在于,所述路线生成模块,用于:
如果获取到的所述道路视频图像和所述定位信息为同一道路的多组数据;根据每组所述定位信息中的离散位置点和所述车辆行驶状态数据,在基础地图上生成每组所述数据对应的行驶路线;所述行驶路线中的各个离散位置点的预设距离内分布有随机噪点;
根据每组所述数据对应的行驶路线的各个离散位置点对应的随机噪点,调整各个离散位置点的位置;
连接调整后的各个所述离散位置点,得到所述车辆的行驶路线。
23.根据权利要求22所述的装置,其特征在于,所述路线生成模块,用于:
将每组所述数据对应的行驶路线的各个离散位置点对应的随机噪点中,小于预设的噪点距离的随机噪点进行合并;
根据合并后的随机噪点,调整所述随机噪点对应的离散位置点的位置。
24.根据权利要求23所述的装置,其特征在于,所述路线生成模块,用于:
针对每个离散位置点,计算所述离散位置点对应的合并后的随机噪点的方差;
将所述方差作为模型参数,基于所述模型参数建立高斯模型;
通过所述高斯模型计算所述离散位置点对应的合并后的随机噪点的均值点;
将所述均值点作为调整后的离散位置点。
25.根据权利要求16所述的装置,其特征在于,所述俯视图生成模块,用于:
根据所述道路视频的多帧图像,生成所述多帧图像对应的道路俯视图;
通过预先训练的交通标志检测模型检测所述道路俯视图,得到检测结果;所述检测结果包括交通标志的类别、定位区域和分割区域;
将所述检测结果携带至所述道路俯视图中。
26.根据权利要求25所述的装置,其特征在于,所述俯视图生成模块,用于:
获取车载设备拍摄的道路视频;
将所述道路视频划分为多个图像组,每个图像组中包含多帧图像,以及所述多帧图像对应的时间;
获取每个所述图像中,所述多帧图像同一位置的图像数据;
拼接所述多帧图像中同一位置的图像数据,获得所述图像组对应的道路俯视图。
27.根据权利要求25所述的装置,其特征在于,所述交通标志检测模型包括MASK-RCNN模型。
28.根据权利要求25所述的装置,其特征在于,所述俯视图生成模块,用于:
根据所述检测结果中,各个交通标志的边缘像素,确定各个所述交通标志的位置坐标;
将各个所述交通标志的类别和所述位置坐标,携带至所述道路俯视图中。
29.根据权利要求16所述的装置,其特征在于,所述俯视图拼接模块,用于:
提取所述道路俯视图的中心点和时间信息;
在所述基础地图的行驶路线上查找所述时间信息对应的离散位置点;
根据所述道路俯视图的中心点,将所述道路俯视图拼接至查找到的所述离散位置点上。
30.根据权利要求29所述的装置,其特征在于,所述俯视图拼接模块,用于:
将所述道路俯视图设置在查找到的所述离散位置点上,以使所述道路俯视图的中心点与查找到的所述离散位置点重合;
调整所述道路俯视图的方向,以使所述道路俯视图的长度方向的轴线与查找到的所述离散位置点处的所述行驶路线的方向重合。
31.一种电子设备,其特征在于,包括:处理器、存储介质和通信总线,所述存储介质存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储介质之间通过通信总线通信,所述处理器执行所述机器可读指令,以执行时执行如权利要求1至15任一所述的道路地图的构建方法的步骤。
32.一种计算机可读存储介质,其特征在于,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如权利要求1至15任一所述的道路地图的构建方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811458050.9A CN111260549A (zh) | 2018-11-30 | 2018-11-30 | 道路地图的构建方法、装置和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811458050.9A CN111260549A (zh) | 2018-11-30 | 2018-11-30 | 道路地图的构建方法、装置和电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111260549A true CN111260549A (zh) | 2020-06-09 |
Family
ID=70948290
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811458050.9A Pending CN111260549A (zh) | 2018-11-30 | 2018-11-30 | 道路地图的构建方法、装置和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111260549A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111612854A (zh) * | 2020-06-30 | 2020-09-01 | 滴图(北京)科技有限公司 | 实景地图的生成方法、装置、计算机设备和存储介质 |
CN112527940A (zh) * | 2020-12-18 | 2021-03-19 | 上海商汤临港智能科技有限公司 | 一种仿真地图生成的方法、装置、电子设备及存储介质 |
CN113177508A (zh) * | 2021-05-18 | 2021-07-27 | 中移(上海)信息通信科技有限公司 | 一种行车信息的处理方法、装置及设备 |
CN113256759A (zh) * | 2021-06-03 | 2021-08-13 | 京东鲲鹏(江苏)科技有限公司 | 无人配送车行车地图更新方法、装置、配送车及存储介质 |
CN113837064A (zh) * | 2021-09-22 | 2021-12-24 | 广州小鹏自动驾驶科技有限公司 | 道路识别方法、系统和可读存储介质 |
WO2022120733A1 (en) * | 2020-12-10 | 2022-06-16 | Beijing Didi Infinity Technology And Development Co., Ltd. | Systems and methods for constructing map |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100250116A1 (en) * | 2007-12-28 | 2010-09-30 | Yoshihisa Yamaguchi | Navigation device |
CN105702152A (zh) * | 2016-04-28 | 2016-06-22 | 百度在线网络技术(北京)有限公司 | 地图生成方法和装置 |
CN106910217A (zh) * | 2017-03-17 | 2017-06-30 | 驭势科技(北京)有限公司 | 视觉地图建立方法、计算装置、计算机存储介质和智能车辆 |
CN108388641A (zh) * | 2018-02-27 | 2018-08-10 | 广东方纬科技有限公司 | 一种基于深度学习的交通设施地图生成方法与系统 |
CN108694882A (zh) * | 2017-04-11 | 2018-10-23 | 百度在线网络技术(北京)有限公司 | 用于标注地图的方法、装置和设备 |
-
2018
- 2018-11-30 CN CN201811458050.9A patent/CN111260549A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100250116A1 (en) * | 2007-12-28 | 2010-09-30 | Yoshihisa Yamaguchi | Navigation device |
CN105702152A (zh) * | 2016-04-28 | 2016-06-22 | 百度在线网络技术(北京)有限公司 | 地图生成方法和装置 |
CN106910217A (zh) * | 2017-03-17 | 2017-06-30 | 驭势科技(北京)有限公司 | 视觉地图建立方法、计算装置、计算机存储介质和智能车辆 |
CN108694882A (zh) * | 2017-04-11 | 2018-10-23 | 百度在线网络技术(北京)有限公司 | 用于标注地图的方法、装置和设备 |
CN108388641A (zh) * | 2018-02-27 | 2018-08-10 | 广东方纬科技有限公司 | 一种基于深度学习的交通设施地图生成方法与系统 |
Non-Patent Citations (2)
Title |
---|
张译文 等: "出租车浮动车大数据地图匹配与分析", no. 11, pages 59 - 62 * |
曹爱红 等编著: "《汽车电子控制技术》", 《上海交通大学出版社》, pages: 211 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111612854A (zh) * | 2020-06-30 | 2020-09-01 | 滴图(北京)科技有限公司 | 实景地图的生成方法、装置、计算机设备和存储介质 |
CN111612854B (zh) * | 2020-06-30 | 2021-02-12 | 滴图(北京)科技有限公司 | 实景地图的生成方法、装置、计算机设备和存储介质 |
WO2022120733A1 (en) * | 2020-12-10 | 2022-06-16 | Beijing Didi Infinity Technology And Development Co., Ltd. | Systems and methods for constructing map |
CN112527940A (zh) * | 2020-12-18 | 2021-03-19 | 上海商汤临港智能科技有限公司 | 一种仿真地图生成的方法、装置、电子设备及存储介质 |
CN113177508A (zh) * | 2021-05-18 | 2021-07-27 | 中移(上海)信息通信科技有限公司 | 一种行车信息的处理方法、装置及设备 |
CN113177508B (zh) * | 2021-05-18 | 2022-04-08 | 中移(上海)信息通信科技有限公司 | 一种行车信息的处理方法、装置及设备 |
CN113256759A (zh) * | 2021-06-03 | 2021-08-13 | 京东鲲鹏(江苏)科技有限公司 | 无人配送车行车地图更新方法、装置、配送车及存储介质 |
CN113837064A (zh) * | 2021-09-22 | 2021-12-24 | 广州小鹏自动驾驶科技有限公司 | 道路识别方法、系统和可读存储介质 |
CN113837064B (zh) * | 2021-09-22 | 2023-11-03 | 广州小鹏自动驾驶科技有限公司 | 道路识别方法、系统和可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111261016B (zh) | 道路地图的构建方法、装置和电子设备 | |
CN111260549A (zh) | 道路地图的构建方法、装置和电子设备 | |
KR102595897B1 (ko) | 차선 결정 방법 및 장치 | |
CN107328410B (zh) | 用于定位自动驾驶车辆的方法和汽车电脑 | |
JP5435306B2 (ja) | 画像処理システム及び位置測位システム | |
KR102682524B1 (ko) | 증강 현실에서 가상 객체를 표시하기 위한 측위 방법 및 장치 | |
JP5505723B2 (ja) | 画像処理システム及び位置測位システム | |
CN110345951B (zh) | 一种adas高精度地图的生成方法及装置 | |
JP5057184B2 (ja) | 画像処理システム及び車両制御システム | |
CN110686686B (zh) | 用于地图匹配的系统和方法 | |
CN108303103A (zh) | 目标车道的确定方法和装置 | |
EP2372607A2 (en) | Scene matching reference data generation system and position measurement system | |
JP2011215052A (ja) | 風景画像認識を用いた自車位置検出システム | |
CN110515110B (zh) | 数据评估的方法、装置、设备和计算机可读存储介质 | |
CN110596741A (zh) | 车辆定位方法、装置、计算机设备和存储介质 | |
CN104422426B (zh) | 在高架道路区域内提供车辆导航信息的方法和设备 | |
CN115344655A (zh) | 地物要素的变化发现方法、装置及存储介质 | |
CN115409910A (zh) | 一种语义地图构建方法、视觉定位方法及相关设备 | |
CN115917255A (zh) | 基于视觉的位置和转弯标记预测 | |
CN109189872B (zh) | 高精度地图数据验证装置及方法 | |
CN112651991A (zh) | 视觉定位方法、装置及计算机系统 | |
CN114689074B (zh) | 信息处理方法和导航方法 | |
CN113227713A (zh) | 生成用于定位的环境模型的方法和系统 | |
JP5177579B2 (ja) | 画像処理システム及び位置測位システム | |
JP5333861B2 (ja) | 風景画像認識を用いた自車位置検出システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200609 |