CN117253232A - 一种高精地图的标注自动生成方法、存储器及存储介质 - Google Patents
一种高精地图的标注自动生成方法、存储器及存储介质 Download PDFInfo
- Publication number
- CN117253232A CN117253232A CN202311531828.5A CN202311531828A CN117253232A CN 117253232 A CN117253232 A CN 117253232A CN 202311531828 A CN202311531828 A CN 202311531828A CN 117253232 A CN117253232 A CN 117253232A
- Authority
- CN
- China
- Prior art keywords
- marked
- points
- road
- precision map
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 238000013528 artificial neural network Methods 0.000 claims abstract description 22
- 238000001228 spectrum Methods 0.000 claims abstract description 15
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 9
- 238000007781 pre-processing Methods 0.000 claims abstract description 4
- 230000003595 spectral effect Effects 0.000 claims abstract description 4
- 239000011159 matrix material Substances 0.000 claims description 29
- 238000002372 labelling Methods 0.000 claims description 12
- 239000013598 vector Substances 0.000 claims description 11
- 238000013527 convolutional neural network Methods 0.000 claims description 8
- 238000011176 pooling Methods 0.000 claims description 7
- 230000006855 networking Effects 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 5
- 230000004913 activation Effects 0.000 claims description 3
- 238000004321 preservation Methods 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 230000007547 defect Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000017105 transposition Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Biomedical Technology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Automation & Control Theory (AREA)
- Navigation (AREA)
Abstract
本发明公开了一种高精地图的标注自动生成方法、存储器及存储介质,包括:确定高精地图中待标注的若干点;响应于接收用户的导航请求,基于待标注的若干点,生成多个目标导航路径;跟踪用户的行驶路径,基于车载摄像头,获取包含待标注物的道路图片帧序列,其中,行驶路径为多个目标导航路径的其中一个;对道路图片帧序列进行预处理,消除投影角度的误差,得到道路二维图片;计算道路二维图片的频谱特征;基于训练好的神经网络算法,输入道路二维图片的频谱特征,输出待标注物的类型以完成标注。本发明通过响应用户的导航请求,基于高精地图中待标注的若干点,生成多个导航路径,这些导航路径可以最大限度的采集待标注的若干点的道路图片信息。
Description
技术领域
本发明属于人工智能领域,更具体的,涉及一种高精地图的标注自动生成方法、存储器及存储介质。
背景技术
随着技术的发展,高精度地图已经成为了无人驾驶、地理信息系统等多种应用的重要基础设施。然而,传统的地图标注方法,如人工标注,不仅效率低下,且存在误差,这在很大程度上限制了高精度地图的使用和发展。同时,随着深度学习、自然语言处理等人工智能技术的飞速发展,使得我们有可能利用这些先进技术来解决传统地图标注面临的问题。为此,我们需要研发一种新的方法,利用人工智能技术自动生成高精度地图的标注,以提高标注的准确性和效率,满足日益增长的需求。
现有技术中,高精地图的标注的采集与更新依然主要依靠测绘设备和地图采集车,通过不断重复的进行扫描作业,从而更新标注信息。然而,这种标注方式通常只是按照预先设定好的流程,即:先采集原始的道路图片数据,然后生成二维点云数据或者三维点云数据,或惯性测量单元轨迹数据等,最后基于这些数据进行自动标注。然而,目前自动标注的方法存在两大缺陷,首先在于采集到的数据量远远不够,远跟不上标注更新的速率;其次,如果上述数据是通过车载摄像头而非地图采集车获取得到,存在图片精度过低导致数据的可靠性差等问题。
发明内容
为解决现有技术中存在的不足,本发明的目的在于解决上述缺陷,进而提出一种高精地图的标注自动生成方法、存储器及存储介质。
本发明采用如下的技术方案。
本发明第一方面公开了一种高精地图的标注自动生成方法,包括步骤1~步骤6;
步骤1,确定高精地图中待标注的若干点;
步骤2,响应于接收用户的导航请求,基于所述待标注的若干点,生成多个目标导航路径;
步骤3,跟踪用户的行驶路径,基于车载摄像头,获取包含待标注物的道路图片帧序列,其中,行驶路径为多个目标导航路径的其中一个;
步骤4,对道路图片帧序列进行预处理,消除投影角度的误差,得到道路二维图片;
步骤5,计算道路二维图片的频谱特征;
步骤6,基于训练好的神经网络算法,输入道路二维图片的频谱特征,输出待标注物的类型以完成标注。
进一步的,步骤1具体包括步骤1.1~步骤1.3;
步骤1.1,判断高精地图中每一个已标注点的最后保存时间与当前时间之差是否超过预设的时间阈值;
步骤1.2,若是,且当有联网车辆经过所述已标注点对应的位置处时,获取联网车辆的车载摄像头拍摄中的道路图片;
步骤1.3,判断道路图片中的标注与数据库中标注是否冲突,若冲突,则将所述已标注点标记为步骤1的待标注的一个点。
进一步的,步骤2具体包括步骤2.1~步骤2.4;
步骤2.1,响应于接收用户的导航请求,生成至少一个预选导航路径,其中,导航请求中包括起点与终点;
步骤2.2,根据导航请求与预选导航路径,从所述待标注的若干点,筛选出多个待标注点;
步骤2.3,对多个待标注点建立拓扑排序,生成包含起点、所有待标注点与终点的有向图;
步骤2.4,基于有向图,生成多个目标导航路径。
进一步的,步骤2.2中,将与预选导航路径处于共同的正方形格子内的点作为待标注点,其中,高精地图被切割成多个正方形格子。
进一步的,基于待标注点中待标注物的数量,以及待标注物的最后保存时间,确定有向图中所述待标注点的权重值,并基于该权重值,确定相应的奖励积分。
进一步的,步骤5具体包括步骤5.1~步骤5.2;
步骤5.1,根据道路二维图片,建立色调值矩阵: 其中,代表道路二维图片中第行第列的像素点,分别代表第行第列的色调值、饱和度值与亮度值,其中,,,和分别为道路二维图片的宽度与高度;
步骤5.2,采用傅里叶变换获取色调值矩阵中的频谱特征:其中,为虚数,和分别为频域的水平和垂直坐
标。
进一步的,步骤6具体包括步骤6.1~步骤6.4;
步骤6.1,将频谱特征输入至训练好的卷积神经网络中;
步骤6.2,依次经过卷积神经网络中卷积层、特征提取层、池化层,输出每一个待标注物对应的特征向量;
步骤6.3,基于每一个待标注物对应的特征向量,结合图神经网络,计算出特征图矩阵;
步骤6.4,基于图神经网络,根据特征图矩阵,输出每一个待标注物对应的分类结果。
进一步的,步骤6.3中特征图矩阵如下所示: 其中,为第待标注物对应的特征向量的转置,为
转置符号,其中,,为所有待标注物的数量;为邻接矩阵,为度矩阵,ε
为激活函数,为第层的特征图矩阵,,表示第层的权重矩
阵,为图卷积层的层数。
本发明第二方面公开了一种终端,包括处理器及存储介质;其特征在于:
所述存储介质用于存储指令;
所述处理器用于根据所述指令进行操作以执行第一方面所述方法的步骤。
本发明第三方面公开了一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现第一方面所述方法的步骤。
本发明的有益效果在于,与现有技术相比,本发明具有以下优点:
(1)本发明所要解决的问题是:现有的道路图片数据量远远不够的问题,以及道路图片数据质量不够好、覆盖面不够全面等问题。而事实上,第二个问题狭义上也属于第一个问题。基于此,本发明通过响应用户的导航请求,基于高精地图中待标注的若干点,生成多个导航路径,这些导航路径可以在满足用户导航需求的情况下,最大限度的采集待标注的若干点的道路图片信息。
(2)然而目前智慧驾驶并不普及,绝大多数私家车的车载摄像头并不联网,也就无法为采集道路图片信息作出贡献。在此基础上,本发明创造性的对有向图中的顶点也设权重值,同时采取相应的奖励机制,从而激励更多的联网车辆选择经过待标注点的导航路径,同时也能够促使更多的非联网车辆积极联网。
附图说明
图1是一种高精地图的标注自动生成方法的流程图。
图2A是预选导航路径与待标注的若干点在被切割成方格子的高精地图中的示意图。
图2B是图2A关联的拓扑排序下的有向图。
具体实施方式
下面结合附图对本申请作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本申请的保护范围。
本发明公开了一种高精地图的标注自动生成方法,如图1所示,包括步骤1~步骤6。
步骤1,确定高精地图中待标注的若干点。
步骤2,响应于接收用户的导航请求,基于所述待标注的若干点,生成多个目标导航路径。
步骤3,跟踪用户的行驶路径,基于车载摄像头,获取包含待标注物的道路图片帧序列,其中,行驶路径为多个目标导航路径的其中一个。
步骤4,对道路图片帧序列进行预处理,消除投影角度的误差,得到道路二维图片。
步骤5,计算道路二维图片的频谱特征。
步骤6,基于训练好的神经网络算法,输入道路二维图片的频谱特征,输出待标注物的类型以完成标注。
可以理解的是,步骤1中高精地图中待标注的若干点,其中,若干点指的是二维坐标信息或者三维坐标信息。待标注的每一个点表示:该坐标信息处,存在至少一个待标注物,在本发明的实施例中,待标注物主要包括:道路信息、交通信号信息与建筑设施信息。其中,道路信息可以包括:道路的宽度、车道数、车道宽度等。交通信号信息可以包括:交通信号灯的位置、状态以及各种交通标志。建筑设施信息可以包括:建筑或设施的名称与位置信息,主要包括:停车场、加油站等信息。
在本发明所述的方法中,主要通过不定时的对车载摄像头上传的道路图片进行解析,判断高精地图中已标注的点是否发生了变化,即是否需要实时更新,从而执行步骤2~步骤6所述的方法。也就是说,通常,高精地图中每一个点的标注均会在数据库中保存一个最后的时间,当该时间超过预设的时间阈值时,系统可以自动向经过该点处的联网车辆,索要其车载摄像头中的道路图片进行初步的确定。若与之前的标注不冲突,更新这些标注的保存时间,否则,打上需要更新的标签,并执行步骤2~步骤6所述的方法,进行详实的最终勘察。
基于此,步骤1具体包括步骤1.1~步骤1.3。
步骤1.1,判断高精地图中每一个已标注点的最后保存时间与当前时间之差是否超过预设的时间阈值。
步骤1.2,若是,且当有联网车辆经过所述已标注点对应的位置处时,获取联网车辆的车载摄像头拍摄中的道路图片。
步骤1.3,判断道路图片中的标注与数据库中标注是否冲突,若冲突,则将所述已标注点标记为步骤1的待标注的一个点。
在一些实施例中,步骤2可以通过拓扑排序(Topological Sorting),生成多个导航路径,具体包括步骤2.1~步骤2.4。
步骤2.1,响应于接收用户的导航请求,生成至少一个预选导航路径,其中,导航请求中包括起点与终点。
该预选的导航路径可以是按照常规的方法,例如:Dijkstra算法获得的导航路径。
步骤2.2,根据导航请求与预选导航路径,从所述待标注的若干点,筛选出多个待标注点。
可以理解的是,筛选出的多个待标注点,一定是靠近预选导航路径上的点,具体的判断方式可以是,若待标注的若干点中,存在某个点至预选导航路径的距离小于预设的距离阈值,则将其作为筛选出的待标注点。
考虑到高精地图实际上被切割(散列)成多个正方形格子,如图2A所示。在图2A中,预选导航路径为图中曲线,导航请求的起点与终点分别为S与T点,图2A中示例性的展示出了部分待标注的若干点,例如A、B、C这三个点。在一些更简化、更快捷的实施方式中,步骤2.2中,可以将与预选导航路径处于共同的格子内的点作为待标注点,例如:将A与C作为待标注点,也就是剔除B点。具体的使用方式本发明不作限定。
步骤2.3,对多个待标注点建立拓扑排序(Topological Sorting),生成包含起点、所有待标注点与终点的有向图。
以图2A为例,有向图中包括:S、A、B、T这四个点。拓扑排序为:S->A->B->T。该拓扑排序的规则可以设置为按照S的距离从近到远进行排序,但应当注意的是,T必须作为终点。
可以理解的是,有向图的方向与拓扑排序的方向一致。
步骤2.4,基于有向图,生成多个目标导航路径。
在一些实施例中,步骤2.4可以根据Dijkstra算法,生成最短的多个路径,作为多个目标导航路径。目标导航路径通常应当包含预选导航路径。
图2B示出了图2A关联的拓扑排序下的有向图。在图2B的有向图中,边的权重值可以是行驶时间与行驶距离的综合评估值,例如,图2B示例性的给出了部分综合评估值的数据。这里需要说明的是,除了边有权重值外,顶点也需要设置权重,从而使得生成的目标导航路径中能够包含尽可能多的待标注点。在图2B中,还示例性的给出了A与C的权重值(在图2B中均为-1)。通常,点的权重值取决于待标注物的标注紧急程度。
进一步的,可以基于待标注点中待标注物的数量,以及待标注物的最后保存时间,确定有向图中所述待标注点的权重值,并基于该权重值,确定相应的奖励积分。
可以理解的是,当待标注点中待标注物的数量越多,以及待标注物的最后保存时间越早,则所述待标注点的权重值也应该越大,并且奖励积分也应该越多。通常这种方式,能够调动更多的车主积极主动选择待标注点更多的路线。
在步骤4中,道路图片帧序列包括至少2帧图片。该至少2帧图片,车辆所处的位置尽可能存在一定的距离,从而方便获取图片中待标注物的深度信息,即:最终能够构建2帧图片中所有待标注物的3D信息。
在本发明的实施例中,无需严格考虑待标注物的3D信息,只需要消除每一帧图片中投影角度的误差,将至少2帧图片中的待标注物进行合并,得到道路二维图片即可。
步骤5中频谱特征的计算具体包括步骤5.1~步骤5.2。
步骤5.1,根据道路二维图片,建立色调值矩阵。
具体的,色调值矩阵可以如下式所示: 其中,代表道路二维图片中第行第列的像素点,分别代表第行第列的色调值、饱和度值与亮度值,其中,,,和分别为道路二维图片的宽度与高度。
步骤5.2,采用傅里叶变换获取色调值矩阵中的频谱特征。
具体的,频谱特征如下式所示:
其中,为虚数,和分别为频域的水平和垂直坐标。
在一些实施例中,该神经网络算法可以是卷积神经网络算法,因此,步骤6具体包括步骤6.1~步骤6.4。
步骤6.1,将频谱特征输入至训练好的卷积神经网络中。
需要说明的是,卷积神经网络在训练过程中,需要接受一定量的道路二维图片,这些道路二维图片中,需要对待标注物进行标注,通常是人工标注。这些人工标注好的待标注物,也需要提取其对应的频谱特征,输入至卷积神经网络中进行训练。更为具体的,卷积神经网络包括:卷积层、特征提取层、池化层以及全连接层。其中,卷积层用于对频谱特征进行卷积;特征提取层用于从卷积后的结果,提取特征数据;池化层用于从特征数据中,计算出每一个待标注物对应的特征向量;全连接层基于特征向量输出待标注物的分类结果。
考虑到步骤4中,投影角度的误差在实际摄像中难以绝对消除,因此,本发明采用图神经网络与卷积神经网络相结合的方式,对待标注物的分类进行处理。
可以理解的是,卷积神经网络往往擅长处理的是网格状的图片数据,然而由于本发明实施例中,道路二维图片难以真实的反馈出各个标注物在道路二维图片中的深度信息。也就是说,道路二维图片有时候会将远处的待标注物,作为该待标注点处的待标注物。在一些实施例中,可以结合图神经网络,尽可能消除投影角度的误差带来的影响。
步骤6.2,依次经过卷积神经网络中卷积层、特征提取层、池化层,输出每一个待标注物对应的特征向量。
步骤6.3,基于每一个待标注物对应的特征向量,结合图神经网络,计算出特征图矩阵。
图神经网络可以看成是一个层的模型,其中,为图卷积层的层数,若的值越
大,则训练效果越好,但也意味着迭代时间也越长。
步骤6.3具体如下式所示:
其中,为第待标注物对应的特征向量的转置,为转置符号,其中,,
为所有待标注物的数量;为邻接矩阵,为度矩阵,ε为激活函数,其可以是sigmoid函数
或ReLu函数;为第层的特征图矩阵,,表示第层的权重矩阵,
通过图神经网络训练获得。需要说明的是,作为图神经网络的模型参数,其可以通过例
如反向传播算法来不断的优化。
步骤6.4,基于图神经网络,根据特征图矩阵,输出每一个待标注物对应的分类结果。
可理解的,步骤6.4中,特征图矩阵通过图神经网络中的图卷积层计算得到,图神经网络也包括图池化层与图全连接层。图池化层用于合并特征,即对特征图矩阵进行降维处理,图全连接层根据降维处理后的特征图矩阵,输出最终的预测结果,即每一个待标注物对应的分类结果。
本发明结合说明书附图对本发明的实施示例做了详细的说明与描述,但是本领域技术人员应该理解,以上实施示例仅为本发明的优选实施方案,详尽的说明只是为了帮助读者更好地理解本发明精神,而并非对本发明保护范围的限制,相反,任何基于本发明的发明精神所作的任何改进或修饰都应当落在本发明的保护范围之内。
Claims (10)
1.一种高精地图的标注自动生成方法,其特征在于,包括步骤1~步骤6;
步骤1,确定高精地图中待标注的若干点;
步骤2,响应于接收用户的导航请求,基于所述待标注的若干点,生成多个目标导航路径;
步骤3,跟踪用户的行驶路径,基于车载摄像头,获取包含待标注物的道路图片帧序列,其中,行驶路径为多个目标导航路径的其中一个;
步骤4,对道路图片帧序列进行预处理,消除投影角度的误差,得到道路二维图片;
步骤5,计算道路二维图片的频谱特征;
步骤6,基于训练好的神经网络算法,输入道路二维图片的频谱特征,输出待标注物的类型以完成标注。
2.根据权利要求1所述的一种高精地图的标注自动生成方法,其特征在于,步骤1具体包括步骤1.1~步骤1.3;
步骤1.1,判断高精地图中每一个已标注点的最后保存时间与当前时间之差是否超过预设的时间阈值;
步骤1.2,若是,且当有联网车辆经过所述已标注点对应的位置处时,获取联网车辆的车载摄像头拍摄中的道路图片;
步骤1.3,判断道路图片中的标注与数据库中标注是否冲突,若冲突,则将所述已标注点标记为步骤1的待标注的一个点。
3.根据权利要求1所述的一种高精地图的标注自动生成方法,其特征在于,步骤2具体包括步骤2.1~步骤2.4;
步骤2.1,响应于接收用户的导航请求,生成至少一个预选导航路径,其中,导航请求中包括起点与终点;
步骤2.2,根据导航请求与预选导航路径,从所述待标注的若干点,筛选出多个待标注点;
步骤2.3,对多个待标注点建立拓扑排序,生成包含起点、所有待标注点与终点的有向图;
步骤2.4,基于有向图,生成多个目标导航路径。
4.根据权利要求3所述的一种高精地图的标注自动生成方法,其特征在于,步骤2.2中,将与预选导航路径处于共同的正方形格子内的点作为待标注点,其中,高精地图被切割成多个正方形格子。
5.根据权利要求3所述的一种高精地图的标注自动生成方法,其特征在于,基于待标注点中待标注物的数量,以及待标注物的最后保存时间,确定有向图中所述待标注点的权重值,并基于该权重值,确定相应的奖励积分。
6.根据权利要求1所述的一种高精地图的标注自动生成方法,其特征在于,步骤5具体包括步骤5.1~步骤5.2;
步骤5.1,根据道路二维图片,建立色调值矩阵:/> 其中,/>代表道路二维图片中第/>行第/>列的像素点,分别代表第/>行第/>列的色调值、饱和度值与亮度值,其中,,/>,/>和/>分别为道路二维图片的宽度与高度;
步骤5.2,采用傅里叶变换获取色调值矩阵中的频谱特征:其中,/>为虚数,/>和/>分别为频域的水平和垂直坐标。
7.根据权利要求3所述的一种高精地图的标注自动生成方法,其特征在于,步骤6具体包括步骤6.1~步骤6.4;
步骤6.1,将频谱特征输入至训练好的卷积神经网络中;
步骤6.2,依次经过卷积神经网络中卷积层、特征提取层、池化层,输出每一个待标注物对应的特征向量;
步骤6.3,基于每一个待标注物对应的特征向量,结合图神经网络,计算出特征图矩阵;
步骤6.4,基于图神经网络,根据特征图矩阵,输出每一个待标注物对应的分类结果。
8.根据权利要求3所述的一种高精地图的标注自动生成方法,其特征在于,步骤6.3中特征图矩阵如下所示: 其中,/>为第/>待标注物对应的特征向量的转置,/>为转置符号,其中,/>,/>为所有待标注物的数量;/>为邻接矩阵,/>为度矩阵,ε为激活函数,/>为第/>层的特征图矩阵,,/>表示第/>层的权重矩阵,/>为图卷积层的层数。
9.一种终端,包括处理器及存储介质;其特征在于:
所述存储介质用于存储指令;
所述处理器用于根据所述指令进行操作以执行根据权利要求1-8任一项所述方法的步骤。
10.计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1-8任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311531828.5A CN117253232B (zh) | 2023-11-17 | 2023-11-17 | 一种高精地图的标注自动生成方法、存储器及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311531828.5A CN117253232B (zh) | 2023-11-17 | 2023-11-17 | 一种高精地图的标注自动生成方法、存储器及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117253232A true CN117253232A (zh) | 2023-12-19 |
CN117253232B CN117253232B (zh) | 2024-02-09 |
Family
ID=89133583
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311531828.5A Active CN117253232B (zh) | 2023-11-17 | 2023-11-17 | 一种高精地图的标注自动生成方法、存储器及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117253232B (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108694882A (zh) * | 2017-04-11 | 2018-10-23 | 百度在线网络技术(北京)有限公司 | 用于标注地图的方法、装置和设备 |
WO2020119684A1 (zh) * | 2018-12-14 | 2020-06-18 | 中国科学院深圳先进技术研究院 | 一种3d导航语义地图更新方法、装置及设备 |
US20210248390A1 (en) * | 2020-02-07 | 2021-08-12 | Shenzhen Sensetime Technology Co., Ltd. | Road marking recognition method, map generation method, and related products |
CN113252053A (zh) * | 2021-06-16 | 2021-08-13 | 中智行科技有限公司 | 高精度地图生成方法、装置和电子设备 |
CN113724388A (zh) * | 2021-09-03 | 2021-11-30 | 北京百度网讯科技有限公司 | 高精地图的生成方法、装置、设备以及存储介质 |
CN113865600A (zh) * | 2021-09-28 | 2021-12-31 | 北京三快在线科技有限公司 | 一种高精地图的构建方法及装置 |
CN115331192A (zh) * | 2022-06-19 | 2022-11-11 | 重庆理工大学 | 基于图神经网络的自动驾驶场景目标检测与跟踪方法 |
CN115705693A (zh) * | 2021-08-10 | 2023-02-17 | 动态Ad有限责任公司 | 用于传感器数据的标注的方法、系统和存储介质 |
CN116295463A (zh) * | 2023-02-27 | 2023-06-23 | 北京辉羲智能科技有限公司 | 一种导航地图元素的自动标注方法 |
CN116839564A (zh) * | 2023-05-24 | 2023-10-03 | 山东新一代信息产业技术研究院有限公司 | 一种高精地图构建辅助方法、设备及介质 |
-
2023
- 2023-11-17 CN CN202311531828.5A patent/CN117253232B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108694882A (zh) * | 2017-04-11 | 2018-10-23 | 百度在线网络技术(北京)有限公司 | 用于标注地图的方法、装置和设备 |
WO2020119684A1 (zh) * | 2018-12-14 | 2020-06-18 | 中国科学院深圳先进技术研究院 | 一种3d导航语义地图更新方法、装置及设备 |
US20210248390A1 (en) * | 2020-02-07 | 2021-08-12 | Shenzhen Sensetime Technology Co., Ltd. | Road marking recognition method, map generation method, and related products |
CN113252053A (zh) * | 2021-06-16 | 2021-08-13 | 中智行科技有限公司 | 高精度地图生成方法、装置和电子设备 |
CN115705693A (zh) * | 2021-08-10 | 2023-02-17 | 动态Ad有限责任公司 | 用于传感器数据的标注的方法、系统和存储介质 |
CN113724388A (zh) * | 2021-09-03 | 2021-11-30 | 北京百度网讯科技有限公司 | 高精地图的生成方法、装置、设备以及存储介质 |
CN113865600A (zh) * | 2021-09-28 | 2021-12-31 | 北京三快在线科技有限公司 | 一种高精地图的构建方法及装置 |
CN115331192A (zh) * | 2022-06-19 | 2022-11-11 | 重庆理工大学 | 基于图神经网络的自动驾驶场景目标检测与跟踪方法 |
CN116295463A (zh) * | 2023-02-27 | 2023-06-23 | 北京辉羲智能科技有限公司 | 一种导航地图元素的自动标注方法 |
CN116839564A (zh) * | 2023-05-24 | 2023-10-03 | 山东新一代信息产业技术研究院有限公司 | 一种高精地图构建辅助方法、设备及介质 |
Non-Patent Citations (4)
Title |
---|
LIANG XIAO: "monocular road detection using structured random forest", 《INTERNATIONAL JOURNAL OF ADVANCED ROBOTIC SYSTEMS》, vol. 13, no. 3 * |
TIANYI WANG, ET AL: "An Efficient Scene Semantic Labeling Approach for 3D Point Cloud", 《2015 IEEE 18TH INTERNATIONAL CONFERENCE ON INTELLIGENT TRANSPORTATION SYSTEMS》, pages 2115 - 2120 * |
刘力铭: "面向自主车的高精细城市交通地图应用研究", 《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》, vol. 2018, no. 04, pages 035 - 93 * |
李凯: "基于三维激光点云和图像数据融合的语义地图构建", 《中国优秀硕士学位论文全文数据库 信息科技辑》, vol. 2023, no. 02, pages 138 - 1826 * |
Also Published As
Publication number | Publication date |
---|---|
CN117253232B (zh) | 2024-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7430277B2 (ja) | 障害物検出方法及び装置、コンピュータデバイス、並びにコンピュータプログラム | |
CN112085845B (zh) | 基于无人机影像的室外场景快速三维重建装置 | |
CN110059608B (zh) | 一种物体检测方法、装置、电子设备和存储介质 | |
US20210390329A1 (en) | Image processing method, device, movable platform, unmanned aerial vehicle, and storage medium | |
CN110245678B (zh) | 一种基于异构孪生区域选取网络的图像匹配方法 | |
CN110084304B (zh) | 一种基于合成数据集的目标检测方法 | |
US8295554B2 (en) | Method of deriving digital terrain models from digital surface models | |
CN109791052A (zh) | 用于生成和使用定位参考数据的方法和系统 | |
CN110428490B (zh) | 构建模型的方法和装置 | |
CN112347550B (zh) | 耦合式室内三维语义建图及建模方法 | |
CN113378686A (zh) | 一种基于目标中心点估计的两阶段遥感目标检测方法 | |
WO2011160672A1 (en) | Method for obtaining drivable road area | |
CN107170042A (zh) | 一种无序图像的多视立体匹配的三维重建方法 | |
CN113822118A (zh) | 增强的车辆操作 | |
CN113160117A (zh) | 一种自动驾驶场景下的三维点云目标检测方法 | |
US11810251B2 (en) | Remote sensing method to model terrain shape by detecting reliable ground points | |
CN114758086A (zh) | 一种城市道路信息模型的构建方法及装置 | |
CN113836251B (zh) | 一种认知地图构建方法、装置、设备及介质 | |
CN115035193A (zh) | 一种基于双目视觉与图像分割技术的散装粮随机扦样方法 | |
CN112699713B (zh) | 一种语义线段信息的检测方法及装置 | |
CN117367404A (zh) | 基于动态场景下slam的视觉定位建图方法及系统 | |
CN117253232B (zh) | 一种高精地图的标注自动生成方法、存储器及存储介质 | |
CN117710931A (zh) | 环境信息感知方法、装置、系统、计算机设备及存储介质 | |
CN112785083B (zh) | 到达时间的预估方法、装置、电子设备以及存储介质 | |
Lv et al. | Fast Digital Orthophoto Generation: A Comparative Study of Explicit and Implicit Methods |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |