CN112488010A - 基于无人机点云数据的高精度目标提取方法及系统 - Google Patents
基于无人机点云数据的高精度目标提取方法及系统 Download PDFInfo
- Publication number
- CN112488010A CN112488010A CN202011412039.6A CN202011412039A CN112488010A CN 112488010 A CN112488010 A CN 112488010A CN 202011412039 A CN202011412039 A CN 202011412039A CN 112488010 A CN112488010 A CN 112488010A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- cloud data
- target
- unmanned aerial
- aerial vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 32
- 238000003672 processing method Methods 0.000 claims abstract description 11
- 238000001514 detection method Methods 0.000 claims description 38
- 238000000034 method Methods 0.000 claims description 19
- 238000013135 deep learning Methods 0.000 claims description 11
- 230000011218 segmentation Effects 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 10
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 6
- 238000003860 storage Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 3
- 238000004519 manufacturing process Methods 0.000 abstract description 7
- 238000013507 mapping Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000005192 partition Methods 0.000 description 4
- 230000007547 defect Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 235000017166 Bambusa arundinacea Nutrition 0.000 description 1
- 235000017491 Bambusa tulda Nutrition 0.000 description 1
- 240000004282 Grewia occidentalis Species 0.000 description 1
- 244000082204 Phyllostachys viridis Species 0.000 description 1
- 235000015334 Phyllostachys viridis Nutrition 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 239000003513 alkali Substances 0.000 description 1
- 239000011425 bamboo Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 150000003839 salts Chemical class 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/176—Urban or other man-made structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/188—Vegetation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Traffic Control Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Astronomy & Astrophysics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Image Analysis (AREA)
- Remote Sensing (AREA)
Abstract
本发明实施例提供了一种基于无人机点云数据的高精度目标提取方法及系统,利用目标检测模型对待检测图像中结构型交通要素进行检测,获得结构型交通要素的矩形包围框,利用深度学习分割模型对非结构型交通要素进行检测,获得非结构型交通要素的目标轮廓点。然后,通过点云数据处理方法,分别解算出所述矩形包围框和目标轮廓点的深度信息,从而得到所述矩形包围框和所述目标轮廓点的三维坐标信息。本发明能够基于无人机点云数据自动提取交通要素的几何轮廓信息,减少人工提取交通要素的时间,提高了交通要素的提取效率,有助于提升高精度地图的制作效率。
Description
技术领域
本发明涉及高精度地图制作生成领域,尤其涉及一种基于无人机点云数据的高精度目标提取方法及系统。
背景技术
高精度地图,通俗来讲就是精度更高、数据维度更多的电子地图。精度更高体现在精确到厘米级别,数据维度更多体现在其包括了除道路信息之外的与交通相关的周围静态信息。高精度地图将大量的行车辅助信息存储为结构化数据,比如车道周边的固定对象信息,比如交通标志、交通信号灯等指示信息。
近年来,无人机技术高速发展,在各个行业的应用无人机也如雨后春笋似的冒出来。在测绘领域,更多需要的是固定翼等效率高的无人机。
传统的高精度地图目标交通要素提取方法,采用测绘车采集激光点云数据,然后人工对交通要素进行提取。然而,测绘车的实车采集过程中部分区域无法行驶,人工提取交通要素的效率较低。
发明内容
为了解决上述问题,本发明实施例提供一种克服上述问题或者至少部分地解决上述问题的基于无人机点云数据的高精度目标提取方法及系统。
第一方面,本发明实施例提供一种基于无人机点云数据的高精度目标提取方法,包括:
S1,获取待检测图像,将所述待检测图像输入预先训练的目标检测模型;
S2,根据目标检测网络的输出结果判断是否检测成功,若是,则获得结构型交通要素的矩形包围框;若否,则将所述待检测图像输入预先训练的深度学习分割模型,输出非结构型交通要素的目标轮廓点;
S3,通过点云数据处理方法,分别解算出矩形包围框和目标轮廓点的深度信息,从而得到所述矩形包围框和所述目标轮廓点的三维坐标信息。
优选的,步骤S1中,获取待检测图像,包括:获取无人机点云数据进行数据转换,获得二维鸟瞰图;将所述二维鸟瞰图进行预处理,获得目标场景的待检测图像。
优选的,步骤S2中,根据目标检测网络的输出结果判断是否检测成功,若是,则获得结构型交通要素的矩形包围框,具体包括:将所述待检测图像输入预先训练的目标检测模型后,若检测成功,则输出结构型交通要素的矩形包围框;其中,结构型交通要素是具有规则信息的交通要素;将矩形包围框对应的结构型交通要素进行分类保存,结构型交通要素至少包括人行横道、停车让行线、箭头、停止线和减速让行线。
优选的,将所述待检测图像输入预先训练的深度学习分割模型,输出非结构型交通要素的目标轮廓点后,还包括:将目标轮廓点对应的非结构型交通要素进行分类保存;其中,目标轮廓点非结构型交通要素至少包括车道线、路缘石、道路边界线和护栏。
优选的,在步骤S3之后,该方法还包括:
通过3D聚类算法对解算出的三维坐标信息进行处理,以获得高精度地图所需的数据精度。
第二方面,本发明实施例提供了一种基于无人机点云数据的高精度目标提取系统,包括:
获取模块,用于获取待检测图像,将所述待检测图像输入预先训练的目标检测模型;
交通要素提取模块,用于根据目标检测网络的输出结果判断是否检测成功,若是,则获得结构型交通要素的矩形包围框;若否,则将所述待检测图像输入预先训练的深度学习分割模型,输出非结构型交通要素的目标轮廓点;
深度信息解算模块,用于通过点云数据处理方法,分别解算出矩形包围框和目标轮廓点的深度信息,从而得到所述矩形包围框和所述目标轮廓点的三维坐标信息。
优选的,所述获取模块具体用于:获取无人机点云数据进行数据转换,获得二维鸟瞰图;将所述二维鸟瞰图进行预处理,获得目标场景的待检测图像。
第三方面,本发明实施例提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现第一方面实施例所提供的基于无人机点云数据的高精度目标提取方法。
第四方面,本发明实施例提供了一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令使所述计算机执行第一方面实施例所提供的基于无人机点云数据的高精度目标提取方法。
本发明实施例提供的基于无人机点云数据的高精度目标提取方法及系统,能够基于无人机点云数据自动提取交通要素的几何轮廓信息,减少人工提取交通要素的时间,提高了交通要素的提取效率,有助于提升高精度地图的制作效率。
本发明与现有技术相比较,具有如下有益效果:
1、本发明应用无人机测绘技术,无人机在空间上比测绘车更加的灵活,弥补测绘车的不足。采用无人机可以进入测绘车不能进入的区域,同时可以加速对匝道区域快速测绘。
2、无人机采集的点云数据中,每个像素点都嵌入了经纬度信息,因此,无人机点云数据能够更便捷的获取到交通要素的位置信息。
3、无人机点云数据除了提供物理世界的尺寸,还提供交通要素的相关属性,比如:双黄线的颜色属性等信息。为高精度地图的制作提供高效的制作模式。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种基于无人机点云数据的高精度目标提取方法流程示意图;
图2为本发明实施例提供的基于无人机点云数据的高精度目标提取系统的结构框图;
图3为本发明实施例提供的电子设备的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
目前,传统的高精度地图目标交通要素提取方法,采用测绘车采集激光点云数据,然后人工对交通要素进行提取。然而,测绘车的实车采集过程中部分区域无法行驶,人工提取交通要素的效率较低。
因此,针对现有技术的以上问题,本发明实施例提供一种基于无人机点云数据的高精度目标提取方法,能够基于无人机点云数据自动提取交通要素的几何轮廓信息,减少人工提取交通要素的时间,提高了交通要素的提取效率,有助于提升高精度地图的制作效率。以下将结合附图通过多个实施例进行展开说明和介绍。
图1是本发明实施例提供的一种基于无人机点云数据的高精度目标提取方法流程示意图。首先对本发明实施例提供的方法的整体原理进行说明,该方法包括以下步骤:
S1,获取待检测图像,将所述待检测图像输入预先训练的目标检测模型。
具体地,首先,获取无人机点云数据进行数据转换,获得二维鸟瞰图。然后,将所述二维鸟瞰图进行预处理,获得目标场景的待检测图像。待检测图像可以是经无人机点云数据转换后得到的用于进行目标检测的二维鸟瞰图。本实施例中,预处理过程至少包括图像去噪和裁剪。经过图像去噪和裁剪,能够降低环境噪声影响,并从二维鸟瞰图中提取出感兴趣的区域作为待检测图像。
其中,点云数据可以是激光雷达扫描当前场景以点云的形式记录的三维坐标向量的集合,每一个三维坐标向量可以用(x,y,z)表示。无人机采集的点云数据中,每个像素点都嵌入了经纬度信息,基于无人机点云数据进行交通要素的目标检测,在后续能够更便捷的获取到交通要素的位置信息。
可以理解的是,本发明应用无人机测绘技术采集无人机点云数据,无人机在空间上比测绘车更加的灵活,弥补测绘车的不足。采用无人机可以进入测绘车不能进入的区域,同时可以加速对匝道区域快速测绘。无人机技术应用在高精度地图测绘,需要我们设计好航线,让无人机按照航线飞行,同时在合适的时候拍照,具体需要设置的有:
1)地面分辨率
为了提高成图的精度,设计平均航高时地面分辨率取0.1米。
2)航摄分区的划分
分区尽量按长方形进行划分,易于测区接边;航摄区域内的地形高度差不应大于1/6航摄航高,高差较大区域应划分分区。
3)分区基准面高度的确定
依据分区地形起伏、飞行安全条件等确定分区基准面高度。
4)生成航线
在地面站系统中进行航线的设计,分别将每个摄影分区的四角坐标输入到地面站软件,设置航线的间距和飞行的方向。
5)航摄季节和航摄时间的选择
a)航摄季节应选择摄区最有利的气象条件,应尽量避免或减少地表植被和其他覆盖物(如积雪、洪水等)对摄影和测图的不利影响,确保航摄影像能够真实地显示地面细部。
b)航摄时,既要保证具有充足的光照度,又要避免多大的阴影。
c)森林、草地、大面积的盐滩、盐碱地,正午前后各2小时内不应摄影。
d)陡峭山区和高层建筑物密集的大城市应在当地正午前后各1小时内摄影。
S2,根据目标检测网络的输出结果判断是否检测成功,若是,则获得结构型交通要素的矩形包围框;若否,则将所述待检测图像输入预先训练的深度学习分割模型,输出非结构型交通要素的目标轮廓点。
本实施例中,将交通要素分类为结构型交通要素和非结构型交通要素。结构型交通要素可以理解为具有规则信息的交通要素。结构型交通要素可以理解为不具有规则信息的交通要素。
具体地,对于结构型交通要素,将所述待检测图像输入预先训练的目标检测模型后,若检测成功,则输出结构型交通要素的矩形包围框,此时矩形包围框具有二维坐标信息,坐标体系为X-Y。然后,将矩形包围框对应的结构型交通要素进行分类保存,结构型交通要素至少包括人行横道、停车让行线、箭头、停止线和减速让行线。
对于非结构型交通要素,在目标检测网络未检测到结构型交通要素,即目标检测网络检测不成功之后,将待检测图像输入预先训练的深度学习分割模型,输出非结构型交通要素的目标轮廓点。目标轮廓点具有二维坐标信息。然后,将目标轮廓点对应的非结构型交通要素进行分类保存。其中,目标轮廓点非结构型交通要素至少包括车道线、路缘石、道路边界线和护栏。
S3,通过点云数据处理方法,分别解算出矩形包围框和目标轮廓点的深度信息,从而得到所述矩形包围框和所述目标轮廓点的三维坐标信息。
具体地,对于结构型交通要素,将分类保存的结构型交通要素,结合点云数据处理方法,解算出结构型交通要素矩形包围框的深度信息,从而得到所述结构型交通要素矩形包围框的三维坐标信息,坐标体系为X-Y-Z。对于非结构型交通要素,将分类保存的非结构型交通要素,结合点云数据处理方法,解算出非结构型交通要素目标轮廓点的深度信息,从而得到目标轮廓点的三维坐标信息。
进一步地,通过3D聚类算法对解算出的三维坐标信息进行处理,以获得高精度地图所需的数据精度。3D聚类算法包括但不限于K-means聚类算法。
本发明与现有技术相比较,具有如下有益效果:
1、本发明应用无人机测绘技术,无人机在空间上比测绘车更加的灵活,弥补测绘车的不足。采用无人机可以进入测绘车不能进入的区域,同时可以加速对匝道区域快速测绘。
2、无人机采集的点云数据中,每个像素点都嵌入了经纬度信息,因此,无人机点云数据能够更便捷的获取到交通要素的位置信息。
3、无人机点云数据除了提供物理世界的尺寸,还提供交通要素的相关属性,比如:双黄线的颜色属性等信息。为高精度地图的制作提供高效的制作模式。。
在一个实施例中,图2为本发明实施例提供的基于无人机点云数据的高精度目标提取系统的结构框图,参照图2,该系统包括:
获取模块201,用于获取待检测图像,将所述待检测图像输入预先训练的目标检测模型;
交通要素提取模块202,用于根据目标检测网络的输出结果判断是否检测成功,若是,则获得结构型交通要素的矩形包围框;若否,则将所述待检测图像输入预先训练的深度学习分割模型,输出非结构型交通要素的目标轮廓点;
深度信息解算模块203,用于通过点云数据处理方法,分别解算出矩形包围框和目标轮廓点的深度信息,从而得到所述矩形包围框和所述目标轮廓点的三维坐标信息。
具体的如何利用获取模块201、交通要素提取模块202和深度信息解算模块203进行基于无人机点云数据的高精度目标提取,可以参照上述方法实施例,本发明实施例在此不再赘述。
在一个实施例中,图3为本发明实施例提供的电子设备的结构示意图,参照图3,电子设备包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,处理器和存储器通过通讯线连接。所述处理器执行所述计算机程序时实现上述各实施例所提供的基于无人机点云数据的高精度目标提取方法的步骤,例如包括:S1,获取待检测图像,将所述待检测图像输入预先训练的目标检测模型;S2,根据目标检测网络的输出结果判断是否检测成功,若是,则获得结构型交通要素的矩形包围框;若否,则将所述待检测图像输入预先训练的深度学习分割模型,输出非结构型交通要素的目标轮廓点;S3,通过点云数据处理方法,分别解算出矩形包围框和目标轮廓点的深度信息,从而得到所述矩形包围框和所述目标轮廓点的三维坐标信息。
示例性的,发明实施例中使用的电脑环境为windows10,显卡为GTX1080Ti,软件开发环境为pycharm和adaconda3,深度学习开发环境为pytorch。
在一个实施例中,基于相同的构思,本发明实施例还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各实施例提供的基于无人机点云数据的高精度目标提取方法的步骤,例如包括:S1,获取待检测图像,将所述待检测图像输入预先训练的目标检测模型;S2,根据目标检测网络的输出结果判断是否检测成功,若是,则获得结构型交通要素的矩形包围框;若否,则将所述待检测图像输入预先训练的深度学习分割模型,输出非结构型交通要素的目标轮廓点;S3,通过点云数据处理方法,分别解算出矩形包围框和目标轮廓点的深度信息,从而得到所述矩形包围框和所述目标轮廓点的三维坐标信息。
本发明的各实施方式可以任意进行组合,以实现不同的技术效果。
以上所描述的系统实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (9)
1.一种基于无人机点云数据的高精度目标提取方法,其特征在于,包括:
S1,获取待检测图像,将所述待检测图像输入预先训练的目标检测模型;
S2,根据目标检测网络的输出结果判断是否检测成功,若是,则获得结构型交通要素的矩形包围框;若否,则将所述待检测图像输入预先训练的深度学习分割模型,输出非结构型交通要素的目标轮廓点;
S3,通过点云数据处理方法,分别解算出所述矩形包围框和目标轮廓点的深度信息,从而得到所述矩形包围框和所述目标轮廓点的三维坐标信息。
2.根据权利要求1所述的基于无人机点云数据的高精度目标提取方法,其特征在于,步骤S1中,获取待检测图像,包括:
获取无人机点云数据进行数据转换,获得二维鸟瞰图;
将所述二维鸟瞰图进行预处理,获得目标场景的待检测图像。
3.根据权利要求1所述的基于无人机点云数据的高精度目标提取方法,其特征在于,步骤S2中,根据目标检测网络的输出结果判断是否检测成功,若是,则获得结构型交通要素的矩形包围框,具体包括:
将所述待检测图像输入预先训练的目标检测模型后,若检测成功,则输出结构型交通要素的矩形包围框;其中,结构型交通要素是具有规则信息的交通要素;
将矩形包围框对应的结构型交通要素进行分类保存,结构型交通要素至少包括人行横道、停车让行线、箭头、停止线和减速让行线。
4.根据权利要求1所述的基于无人机点云数据的高精度目标提取方法,其特征在于,将所述待检测图像输入预先训练的深度学习分割模型,输出非结构型交通要素的目标轮廓点后,还包括:
将目标轮廓点对应的非结构型交通要素进行分类保存;其中,目标轮廓点非结构型交通要素至少包括车道线、路缘石、道路边界线和护栏。
5.根据权利要求1所述的基于无人机点云数据的高精度目标提取方法,其特征在于,在步骤S3之后,还包括:
通过3D聚类算法对解算出的三维坐标信息进行处理,以获得高精度地图所需的数据精度。
6.一种基于无人机点云数据的高精度目标提取系统,其特征在于,包括:
获取模块,用于获取待检测图像,将所述待检测图像输入预先训练的目标检测模型;
交通要素提取模块,用于根据目标检测网络的输出结果判断是否检测成功,若是,则获得结构型交通要素的矩形包围框;若否,则将所述待检测图像输入预先训练的深度学习分割模型,输出非结构型交通要素的目标轮廓点;
深度信息解算模块,用于通过点云数据处理方法,分别解算出矩形包围框和目标轮廓点的深度信息,从而得到所述矩形包围框和所述目标轮廓点的三维坐标信息。
7.根据权利要求6所述的基于无人机点云数据的高精度目标提取系统,其特征在于,所述获取模块具体用于:获取无人机点云数据进行数据转换,获得二维鸟瞰图;将所述二维鸟瞰图进行预处理,获得目标场景的待检测图像。
8.一种基于无人机点云数据的高精度目标提取系统,其特征在于,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至5任一项所述基于无人机点云数据的高精度目标提取方法的步骤。
9.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1至5任一项所述基于无人机点云数据的高精度目标提取方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011412039.6A CN112488010A (zh) | 2020-12-05 | 2020-12-05 | 基于无人机点云数据的高精度目标提取方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011412039.6A CN112488010A (zh) | 2020-12-05 | 2020-12-05 | 基于无人机点云数据的高精度目标提取方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112488010A true CN112488010A (zh) | 2021-03-12 |
Family
ID=74939605
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011412039.6A Pending CN112488010A (zh) | 2020-12-05 | 2020-12-05 | 基于无人机点云数据的高精度目标提取方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112488010A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114663612A (zh) * | 2022-03-24 | 2022-06-24 | 北京百度网讯科技有限公司 | 一种高精度地图构建方法、装置及电子设备 |
CN115588178A (zh) * | 2022-12-12 | 2023-01-10 | 速度时空信息科技股份有限公司 | 一种高精地图要素自动化提取的方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106056614A (zh) * | 2016-06-03 | 2016-10-26 | 武汉大学 | 一种地面激光点云数据的建筑物分割与轮廓线提取方法 |
CN110795978A (zh) * | 2019-04-29 | 2020-02-14 | 当家移动绿色互联网技术集团有限公司 | 路面点云数据提取方法、装置、存储介质及电子设备 |
CN110795813A (zh) * | 2019-08-14 | 2020-02-14 | 腾讯科技(深圳)有限公司 | 一种交通仿真方法及装置 |
CN110956100A (zh) * | 2019-11-15 | 2020-04-03 | 北京三快在线科技有限公司 | 一种高精度地图生成方法、装置、电子设备和存储介质 |
CN111079685A (zh) * | 2019-12-25 | 2020-04-28 | 电子科技大学 | 一种3d目标检测方法 |
CN111695486A (zh) * | 2020-06-08 | 2020-09-22 | 武汉中海庭数据技术有限公司 | 一种基于点云的高精度方向标志牌目标提取方法 |
-
2020
- 2020-12-05 CN CN202011412039.6A patent/CN112488010A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106056614A (zh) * | 2016-06-03 | 2016-10-26 | 武汉大学 | 一种地面激光点云数据的建筑物分割与轮廓线提取方法 |
CN110795978A (zh) * | 2019-04-29 | 2020-02-14 | 当家移动绿色互联网技术集团有限公司 | 路面点云数据提取方法、装置、存储介质及电子设备 |
CN110795813A (zh) * | 2019-08-14 | 2020-02-14 | 腾讯科技(深圳)有限公司 | 一种交通仿真方法及装置 |
CN110956100A (zh) * | 2019-11-15 | 2020-04-03 | 北京三快在线科技有限公司 | 一种高精度地图生成方法、装置、电子设备和存储介质 |
CN111079685A (zh) * | 2019-12-25 | 2020-04-28 | 电子科技大学 | 一种3d目标检测方法 |
CN111695486A (zh) * | 2020-06-08 | 2020-09-22 | 武汉中海庭数据技术有限公司 | 一种基于点云的高精度方向标志牌目标提取方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114663612A (zh) * | 2022-03-24 | 2022-06-24 | 北京百度网讯科技有限公司 | 一种高精度地图构建方法、装置及电子设备 |
CN115588178A (zh) * | 2022-12-12 | 2023-01-10 | 速度时空信息科技股份有限公司 | 一种高精地图要素自动化提取的方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111220993B (zh) | 目标场景定位方法、装置、计算机设备和存储介质 | |
KR101933216B1 (ko) | 드론과 공간정보를 이용한 하천지형정보 생성 방법 | |
US7983474B2 (en) | Geospatial modeling system and related method using multiple sources of geographic information | |
CN110648389A (zh) | 基于无人机和边缘车辆协同的城市街景3d重建方法和系统 | |
EP2874097A2 (en) | Automatic scene parsing | |
KR100904078B1 (ko) | 항공 사진의 영상정합을 이용한 3차원 공간 정보 생성 시스템 및 방법 | |
WO2021017211A1 (zh) | 一种基于视觉的车辆定位方法、装置及车载终端 | |
CN114295139A (zh) | 一种协同感知定位方法及系统 | |
JP7418281B2 (ja) | 地物の分類システム、分類方法及びそのプログラム | |
CN112257668A (zh) | 主辅路判断方法、装置、电子设备及存储介质 | |
CN113449692A (zh) | 一种基于无人机的地图车道信息更新方法及其系统 | |
CN112749584B (zh) | 一种基于图像检测的车辆定位方法及车载终端 | |
CN115205382A (zh) | 目标物定位方法以及装置 | |
CN114972646A (zh) | 一种实景三维模型独立地物的提取与修饰方法及系统 | |
CN112488010A (zh) | 基于无人机点云数据的高精度目标提取方法及系统 | |
Leberl et al. | Aerial computer vision for a 3d virtual habitat | |
CN112507891A (zh) | 自动化识别高速路口并构建路口向量的方法及装置 | |
KR102587445B1 (ko) | 드론을 이용하여 시계열정보가 포함된 3차원 지도의 제작 방법 | |
CN110660113A (zh) | 特征地图的建立方法、装置、采集设备和存储介质 | |
CN115115597A (zh) | 一种目标检测方法、装置、设备及介质 | |
Rumpler et al. | Rapid 3d city model approximation from publicly available geographic data sources and georeferenced aerial images | |
CN114419180A (zh) | 重构高精地图的方法、装置和电子设备 | |
CN116802581A (zh) | 基于航测数据的自动驾驶感知系统测试方法、系统及存储介质 | |
CN112308904A (zh) | 一种基于视觉的建图方法、装置及车载终端 | |
Templin | MAPPING BUILDINGS AND CITIES |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210312 |
|
RJ01 | Rejection of invention patent application after publication |