CN117437654A - 一种基于语义识别的栅格地图解析方法、设备和介质 - Google Patents
一种基于语义识别的栅格地图解析方法、设备和介质 Download PDFInfo
- Publication number
- CN117437654A CN117437654A CN202311744291.0A CN202311744291A CN117437654A CN 117437654 A CN117437654 A CN 117437654A CN 202311744291 A CN202311744291 A CN 202311744291A CN 117437654 A CN117437654 A CN 117437654A
- Authority
- CN
- China
- Prior art keywords
- data
- image
- map
- information
- grid
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 75
- 238000012545 processing Methods 0.000 claims abstract description 43
- 238000000034 method Methods 0.000 claims description 61
- 239000011159 matrix material Substances 0.000 claims description 18
- 238000012706 support-vector machine Methods 0.000 claims description 17
- 238000003708 edge detection Methods 0.000 claims description 12
- 238000012937 correction Methods 0.000 claims description 11
- 238000010191 image analysis Methods 0.000 claims description 10
- 230000011218 segmentation Effects 0.000 claims description 8
- 238000007405 data analysis Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 5
- 238000007781 pre-processing Methods 0.000 claims description 4
- 230000009466 transformation Effects 0.000 claims description 4
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 3
- 239000013598 vector Substances 0.000 description 10
- 238000012549 training Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 239000003086 colorant Substances 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 235000001275 Bouea macrophylla Nutrition 0.000 description 1
- 240000001160 Bouea macrophylla Species 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
- G06V30/42—Document-oriented image-based pattern recognition based on the type of document
- G06V30/422—Technical drawings; Geographical maps
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/19173—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/26—Techniques for post-processing, e.g. correcting the recognition result
- G06V30/262—Techniques for post-processing, e.g. correcting the recognition result using context analysis, e.g. lexical, syntactic or semantic context
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于语义识别的栅格地图解析方法、装置设备和介质,包括:步骤S1:访问栅格地图服务器,获取栅格地图数据源;步骤S2:对栅格地图数据源进行解析,生成解析信息;步骤S3:获取显示界面的页面栅格数据,进而根据解析信息,对页面栅格数据进行图像预设处理,生成界面栅格信息;步骤S4:根据解析信息,生成请求切片区域中每一栅格的地图数据,进而组合形成地图解析数据;步骤S5:根据请求地理信息、界面栅格信息及地图解析数据,在显示界面显示匹配的请求栅格地图。本发明的一种基于语义识别的栅格地图解析方法,能够对栅格地图中物体进行语义切割,以提高终端设备对周围环境的理解。
Description
技术领域
本发明涉及栅格地图处理技术领域,具体涉及一种基于语义识别的栅格地图解析方法、设备、计算机介质及计算机。
背景技术
栅格地图是一种用于表示地理空间信息的常见方式,它将地理区域分成均匀的网格单元,并在每个单元格中存储有关该区域的各种地理数据。栅格地图通常以二维表格或矩阵的形式表示,其中栅格地图将地理区域划分成规则的网格单元,每个单元格都具有相同的形状和大小;栅格地图的数据可以来自各种来源,包括但不仅限于遥感卫星、地面测量、地理信息系统(GIS)、航拍设备、传感器和其他地理数据采集方法。现有的栅格地图在地理信息系统、环境监测、资源管理、地质勘探、军事规划、城市规划等领域中得到广泛应用。
栅格地图解析是指对栅格地图数据进行分析和处理的过程,以提取有用的地理信息、进行地理空间分析、可视化地理数据等;目前,现有的栅格地图解析方法通常缺乏识别栅格地图中包含的物体语义信息,使得解析时,自动识别设备(如自动驾驶设备、机器人设备、导航终端等)无法更好地理解周围环境,例如识别道路标志、交通信号、行人、道路区域等。
因此,目前亟需一种能够对栅格地图中物体进行语义切割,以提高终端设备对周围环境的理解的栅格地图解析方法。
发明内容
发明目的:为了克服以上不足,本发明的目的是提供栅格地图解析方法、设备和介质,其应用灵活,能够为栅格地图图像中的每个像素分配一个语义标签,以实现对不同物体和区域的精确识别,进而在栅格地图解析中,提高终端设备对周围环境的理解。
为解决上述技术问题,本发明提供了基于语义识别的栅格地图解析方法,包括:
步骤S1:访问栅格地图服务器,获取栅格地图数据源,其中,所述栅格地图数据源包括:切片区域、地理信息、语义标签及图像数据;
步骤S2:对所述栅格地图数据源进行解析,生成解析信息,其中,所述解析信息包括:请求切片区域、请求地理信息、标签分析数据及图像分析数据;
步骤S3:获取显示界面的页面栅格数据,进而根据所述解析信息,对所述页面栅格数据进行图像预设处理,生成界面栅格信息;
步骤S4:根据所述解析信息,生成所述请求切片区域中每一栅格的地图数据,进而组合形成地图解析数据;
步骤S5:根据所述请求地理信息、界面栅格信息及地图解析数据,在显示界面显示匹配的请求栅格地图。
通过采用上述技术方案,从栅格地图服务器获取多种类型的数据源,以综合不同来源的信息,提供更全面的地图解析;在获取页面栅格数据后进行图像预设处理,可以改善地图显示的质量和性能,这有助于提供更好的用户体验;根据解析信息生成请求切片区域中每一栅格的地图数据,这意味着能够动态生成地图数据,而不是预先生成静态地图,以此能够根据用户的需求进行动态呈现地图。
进一步地,所述获取栅格地图数据源的方法为:
步骤S10:提取用户终端的数据源需求信息;
步骤S11:根据所述数据源需求信息,选择匹配的栅格地图数据源,其中,所述栅格地图数据源为卫星图像、航拍图像、传感器数据中的至少一种。
进一步地,对所述页面栅格数据进行图像预设处理的方法为:
步骤S30:读取页面栅格数据包含的语义标签,进而根据语义标签,对所述解析信息中的标签分析数据进行语义分割,生成若干个的语义区域;
步骤S31:对每个语义区域实例分割,以生成物体实例组,进而根据图像分析数据,提取与所述物体实例组匹配的图像数据;
步骤S32:对所述图像数据进行图像增强处理,生成界面栅格信息。
进一步地,所述图像增强处理的方法为:
步骤S320:对图像数据进行中值滤波处理:
其中,是原始图像中的像素坐标,是处理后的像素坐标,是取一
组像素坐标的中间值,是目标像素坐标周围的一组相邻像素坐标;
步骤S321:对图像数据进行几何校正处理:
其中,是校正后的像素坐标,是仿射变换的参数;
步骤S322:将图像数据进行数据格式统一,生成界面栅格信息。
进一步地,在步骤S3中,所述方法还包括以下步骤:
步骤S300:读取页面栅格数据包含的栅格坐标信息,进而根据栅格坐标信息,对解析信息包含的图像分析数据进行图像增强处理,生成处理后的地图图像信息;
步骤S301:对所述地图图像信息进行预设特征提取,获得特征数据,进而对特征数据使用预设分类方法进行分类,生成包含有分类后的图像数据的界面栅格信息。
进一步地,获得特征数据的方法为:
步骤S3010:选择灰度共生矩阵计算的参数,包括:图像、方向、距离、级别数;
步骤S3011:初始化灰度共生矩阵:
进而遍历图像中的每个像素坐标并计算与其邻近像素在距离上的灰
度共生矩阵:
步骤S3012:根据灰度共生矩阵,计算地图图像信息中图像数据的对比度:
计算逆对比度:
计算熵:
其中,是一个正数,用于避免计算中的零值。
步骤S3013:根据对比度、逆对比度及熵计算出所述图像数据的纹理特征;
步骤S3014:选择颜色通道以及颜色空间,进而根据选择的颜色通道和颜色空间,初始化直方图;
在计算色彩直方图之前,首先需要选择要分析的颜色通道以及颜色空间,常见的颜色空间包括RGB(红绿蓝)、HSV(色相、饱和度、亮度)、Lab(亮度、绿-红、蓝-黄)等;进而对于选定的颜色通道和颜色空间,初始化一个直方图,通常是一个具有固定数量的区间(也称为"bin")的向量。每个区间对应一定范围内的颜色值。
具体的选择是由实际应用决定,包括但不仅限于RGB(红绿蓝)、HSV(色相、饱和度、亮度)、Lab(亮度、绿-红、蓝-黄)中的一种或多种。
步骤S3015:对图像数据中的每个像素,生成最终的色彩直方图,进而根据最终的色彩直方图,生成所述图像数据的色彩特征。
通过采用上述技术方案,使用灰度共生矩阵计算对比度、逆对比度和熵等纹理特征,能够捕捉图像中的纹理信息,进而通过纹理信息区分不同地理特征,提高地图解析的精度;除了纹理特征,还考虑了图像的色彩特征,这对于某些地理应用非常重要,如土地覆盖分类,因为不同地物通常具有不同的颜色特征。
进一步地,在步骤S3015后,所述方法还包括以下步骤:
步骤S3016:对图像数据进行水平边缘检测:
对图像数据进行垂直边缘检测:
其中,和分别表示水平和垂直方向上的梯度图像,是输入的图像数据;
步骤S3017:进而将和合并,生成图像数据的总边缘强度特征:
步骤S3018:根据图像数据的总边缘强度特征,将图像数据中的物体进行分割,生成包含物体的分割图像;
步骤S3019:根据所述分割图像的白色像素计算物体的面积:
同时计算物体的周长:
其中,和分别是图像的宽度和高度,表示分割图像中像素位置处的
像素值,与和与是相邻的两个像素值;
步骤S3020:根据物体的面积和周长,计算物体的圆度:
进而根据物体的圆度,生成图像数据的物体形状特征。
通过采用上述技术方案,通过分割图像并计算物体的面积、周长和圆度等形状特征,能够更好地识别和描述地理物体,从而提高地图解析的精确性。
进一步地,在得到所述图像数据的纹理特征、色彩特征、边缘强度特征和物体形状特征后,所述方法还包括以下步骤:
步骤S3021:对所述图像数据的纹理特征、色彩特征、边缘强度特征和物体形状特征进行特征预处理,生成处理后的特征数据;
步骤S3022:根据处理后的特征数据,使用支持向量机分类方法进行分类,生成包含有分类后的图像数据的界面栅格信息。
通过采用上述技术方案,使用支持向量机(SVM)进行分类是一种强大的机器学习方法,能够根据提取的多维特征对地图数据进行分类,支持向量机在分类问题中能够表现出色彩较好的性能;通过将多种特征结合在一起,能够适用于各种不同类型的地理应用,包括但不仅限于土地覆盖分类、地物识别、城市规划等,提高了应用范围。
本发明还提供一种栅格地图解析设备,包括:
数据获取模块,用于访问栅格地图服务器,获取栅格地图数据源;
数据解析模块,用于对所述栅格地图数据源进行解析,生成解析信息;
数据处理模块,用于获取显示界面的页面栅格数据,进而根据所述解析信息,对所述页面栅格数据进行图像预设处理,生成界面栅格信息;
地图解析模块,用于根据所述解析信息,生成所述请求切片区域中每一栅格的地图数据,进而组合形成地图解析数据;
地图显示模块,用于根据所述请求地理信息、界面栅格信息及地图解析数据,在显示界面显示匹配的请求栅格地图。
本发明还提供了一种计算机介质,所述计算机介质上存储有计算机程序,所述计算机程序被处理器执行实现所述的一种基于语义识别的栅格地图解析方法。
本发明还提供了一种计算机,包括所述的一种计算机介质。
本发明的上述技术方案相比现有技术具有以下优点:
1、能够为栅格地图图像中的每个像素分配一个语义标签,以实现对不同物体和区域的精确识别,进而在栅格地图解析中,提高终端设备对周围环境的理解;
2、能够通过综合多源数据,提供丰富的解析信息,通过图像预设处理和动态数据生成,根据用户需求动态显示栅格地图,具有更高的灵活性、性能和用户体验;
3、充分利用了图像处理和机器学习技术,同时不仅考虑了图像数据的纹理特征,还考虑了色彩特征、边缘强度特征和物体形状特征,通过综合多维特征的应用,能够更全面地描述图像数据,提高地图解析的准确性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1是本发明的栅格地图解析的方法流程图。
图2是本发明的数据源需求选择的方法流程图。
图3是本发明的图像预设处理的第一方法流程图。
图4是本发明的图像增强处理的方法流程图。
图5是本发明的图像预设处理的第二方法流程图。
图6是本发明的图像数据的纹理特征和色彩特征的方法流程图。
图7是本发明的图像数据的边缘强度特征和物体形状特征生成的方法流程图。
图8是本发明的图像数据的特征处理及分类的方法流程图。
图9是本发明的栅格地图解析设备的连接关系图。
说明书附图标记说明:
1、栅格地图解析设备,2、栅格地图服务器,3、用户终端,100、数据获取模块,101、数据解析模块,102、数据处理模块,103、地图解析模块,104、地图显示模块。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
参考图1所示,在一些实施例中,所涉及的一种基于语义识别的栅格地图解析方法,包括以下工作步骤:
步骤S1:访问栅格地图服务器2,获取栅格地图数据源,其中,所述栅格地图数据源包括:切片区域、地理信息、语义标签及图像数据;
在步骤S1中,参考图2所示,获取栅格地图数据源的方法包括以下步骤:
步骤S10:提取用户终端3的数据源需求信息;
步骤S11:根据所述数据源需求信息,选择匹配的栅格地图数据源,其中,所述栅格地图数据源为卫星图像、航拍图像、传感器数据中的至少一种。
其中,根据用户终端3的用户需求,选择匹配的数据源,若为卫星图像,则获取高分辨率,且进行过几何校正和大气校正,消除图像中畸变和噪声的卫星图像;若为航拍图像,则获取飞行设备拍摄的高分辨率,且进行拼接和校正,生成的全景图像;若为传感器数据,则获取包括但不仅限于激光雷达传感器、加速度计、陀螺仪、GPS、气象传感器(温度、湿度、风速)、摄像头、LiDAR传感器等设备获取的地理信息;其中,栅格地图数据源中的图像数据每个网格点均包含有匹配的地理信息、语义标签以及坐标信息。
步骤S2:对所述栅格地图数据源进行解析,生成解析信息,其中,所述解析信息包括:请求切片区域、请求地理信息、标签分析数据及图像分析数据;
在步骤S2中,当用户终端3选取需求的栅格地图数据源后,对该栅格地图数据源进行解析,以解析用户终端3请求切片区域的栅格地图信息;
具体地,所述请求切片区域至少包括用户终端3选取需求的栅格地图数据源包含的:地图请求切片的缩放级别或分辨率和地理坐标范围;其中 ,不同的缩放级别或分辨率表示不同的地图范围和详细程度,用户能够选择特定的缩放级别或分辨率来获得所需精度的地图数据;
具体地,所述标签分析数据包括地图请求切片的缩放级别或分辨率和地理坐标范围包含的语义标签;
具体地,所述图像分析数据包括地图请求切片的缩放级别或分辨率和地理坐标范围包含的图像数据,具体包括栅格地图数据源解析出的图像数据,例如道路、花草树木、建筑等。
步骤S3:获取显示界面的页面栅格数据,进而根据所述解析信息,对所述页面栅格数据进行图像预设处理,生成界面栅格信息;
在步骤S3中,所述显示界面即指用户终端3显示的栅格地图界面,所述页面栅格数据即指用户终端3显示栅格地图界面的地图栅格数据;例如用户终端3需求A省B市的卫星图像,此时用户终端3显示A省B市C区界面,则显示界面的页面栅格数据即为A省B市C区的地图栅格数据;
进一步地,参考图3所示,对所述页面栅格数据进行图像预设处理的方法为:
步骤S30:读取页面栅格数据包含的语义标签,进而根据语义标签,对所述解析信息中的标签分析数据进行语义分割,生成若干个的语义区域;
其中,所述语义标签应包括道路、标志、建筑物、人体、车辆、交通设施、地势、树木、类别、位置、边界、形状、色彩等;其中,语义分割任务的目标是将图像中的每个像素分配到其对应的语义类别,通常,语义分割的输出是一个标签图,其中每个像素都被分配一个表示其语义类别的整数值。
步骤S31:对每个语义区域实例分割,以生成物体实例组,进而根据图像分析数据,提取与所述物体实例组匹配的图像数据;
其中,实例分割任务的目标是不仅对不同物体的像素进行语义分割,还要为每个物体实例分配唯一的标识符或ID,且允许区分同一类别中的不同物体实例。
步骤S32:对所述图像数据进行图像增强处理,生成界面栅格信息。
进一步地,参考图4所示,通过对所述图像数据进行图像增强处理,提高图像质量和一致性,以便后续计算机视觉任务更准确,具体的所述图像增强处理的方法为:
步骤S320:对图像数据进行中值滤波处理:
其中,是原始图像中的像素坐标,是处理后的像素坐标;是取一
组像素坐标的中间值,是目标像素坐标周围的一组相邻像素坐标,具体来
说,在中值滤波中,对于图像数据中的每个像素,算法会考虑该像素周围的一定数量的邻近
像素(通常以窗口或卷积核的形式),并计算这些邻近像素的中值,然后将中值作为目标像
素的新值。例如,如果有一个3x3的中值滤波窗口,用于处理一个图像中的特定像素(假设目
标像素位于图像的处),那么就是该像素周围的8个相邻像素(上下
左右和四个对角线方向的像素),就是这8个相邻像素的值的中值,这个中值将取
代原始像素的值,从而实现去噪效果。
其中,中值滤波是一种基于排序的方法,它用像素周围的值的中值替代每个像素的值,通过中值滤波处理去除图像数据中的噪声,以提高图像的清晰度和质量;另,也可以根据实际需求使用现有的小波去噪方法,小波去噪基于小波变换,它将图像分解为不同频率的子带,然后通过阈值处理来减少噪声。
步骤S321:对图像数据进行几何校正处理:
其中,是校正后的像素坐标,是仿射变换的参数;
通过几何校正纠正图像数据中的几何失真,例如投影畸变、旋转和缩放,以确保图像数据中
的对象在真实世界中位置正确;
步骤S322:将图像数据进行数据格式统一,生成界面栅格信息;
其中,通过数据格式统一确保所有输入图像都采用相同的格式和尺寸,以确保后续处理过程中的一致性,通常包括将图像转换为相同的色彩空间、位深度和分辨率,例如将彩色图像转化为灰度图像,或将图像的位深度调整为特定值。
步骤S4:根据所述解析信息,生成所述请求切片区域中每一栅格的地图数据,进而组合形成地图解析数据;
步骤S5:根据所述请求地理信息、界面栅格信息及地图解析数据,在显示界面显示匹配的请求栅格地图。
其中,在用户终端3显示界面显示:与界面栅格信息对应的地图解析数据,以及与地图解析数据匹配的请求地理信息。
参考图5所示,在一些实施例中,具体在步骤S3中,对所述页面栅格数据进行图像预设处理时,所述方法还包括以下步骤:
步骤S300:读取页面栅格数据包含的栅格坐标信息,进而根据栅格坐标信息,对解析信息包含的图像分析数据进行图像增强处理,生成处理后的地图图像信息;
其中,在步骤S300中,对图像增强出处理包括但不仅限于图像去噪(ImageDenoising)、几何校正(Geometric Correction)、数据格式统一(Data FormatStandardization)。
步骤S301:对所述地图图像信息进行预设特征提取,获得特征数据,进而对特征数据使用预设分类方法进行分类,生成包含有分类后的图像数据的界面栅格信息。
参考图6、图7所示,在一些实施例中,具体在步骤S301中,获得特征数据的方法为:
步骤S3010:选择灰度共生矩阵计算的参数,包括:图像、方向、距离、级别数;
其中,灰度共生矩阵(Gray Level Co-occurrence Matrix,GLCM)是一种常用于描述图像纹理特征的统计工具,其衡量了图像中不同像素值之间的空间关系,通过统计两个像素在一定方向上的共现频率来捕获纹理信息。GLCM可用于计算各种纹理特征,包括对比度、能量、熵等。
步骤S3011:初始化灰度共生矩阵:
,进而遍历图像中的每个像素坐标并计算与其邻近像素在距离上的灰度共生矩阵:
其中,假设有一个灰度图像I,并且想计算在距离d上的GLCM,GLCM通常是大小为的矩阵,其中是图像的灰度级别数量;首先,初始化GLCM矩阵,然后,遍历图像中
的每个像素坐标并计算与其邻近像素在距离上的GLCM,这个过程会累加每个
像素值对在距离d上的共现次数,最终,得到的矩阵就是灰度共生矩阵。其中,表示只考虑那些在图像边界内的像素对,这是因为计算GLCM时,通
常只关注图像内部像素对的共现频率,不考虑在图像边界之外的像素对;具体来说,可以理解为以下条件:
1、,表示像素坐标处的灰度值等于
2、,表示处的灰度值等于
这两个条件一起表示,只考虑那些满足这两个条件的像素对,如果在图像边
界之外,无法找到符合这两个条件的像素对,那么就不对GLCM进行更新。
步骤S3012:根据灰度共生矩阵,计算地图图像信息中图像数据的对比度:
,计算逆对比度:
,计算熵:
其中,是一个正数,用于避免计算中的零值;对比度(Contrast):衡量图像中相邻
像素之间的灰度差异,能量(Energy):也称为逆对比度,衡量图像中相邻像素值共现的均匀
程度,熵(Entropy):衡量图像中像素值共现的不规则性。
步骤S3013:根据对比度、逆对比度及熵计算出所述图像数据的纹理特征;
其中,能够根据实际需求选择不同的方向和距离来计算GLCM,以捕获不同方向和尺度下的纹理信息。
需要说明的是,本实施例中的色彩直方图(Color Histogram),用于描述颜色分布的特征,可以通过统计图像中不同颜色通道的像素分布来生成。
步骤S3014:选择颜色通道以及颜色空间,进而根据选择的颜色通道和颜色空间,初始化直方图;
其中,在计算色彩直方图之前,首先需要选择要分析的颜色通道以及颜色空间,常见的颜色空间包括RGB(红绿蓝)、HSV(色相、饱和度、亮度)、Lab(亮度、绿-红、蓝-黄)等;进而对于选定的颜色通道和颜色空间,初始化一个直方图,通常是一个具有固定数量的区间(也称为"bin")的向量。每个区间对应一定范围内的颜色值。
步骤S3015:对图像数据中的每个像素,生成最终的色彩直方图,进而根据最终的色彩直方图,生成所述图像数据的色彩特征。
其中 ,遍历图像的每个像素,根据选择的颜色通道和颜色空间,将每个像素的颜色值分配到相应的区间中,并增加该区间的计数,以此生成最终的色彩直方图;最终的色彩直方图作为图像数据的特征表示,每个颜色通道都有一个独立的直方图,可以将这些直方图连接成一个单一的特征向量,以用于图像分类、检索或其他分析任务。
在实际的实施过程中,以RGB颜色空间为例,RGB色彩直方图的计算过程如下:
假设我们有一个图像,其像素值为(R,G,B)表示红、绿和蓝通道的颜色值,为了计
算RGB色彩直方图,首先初始化一个三通道的直方图,分别对应红、绿和蓝通道;
对于每个像素坐标处的颜色值(R,G,B),将其分别分配到相应通道的直方图
区间中,然后增加该区间的计数:
对于红通道(R):
对于绿通道(G):
对于蓝通道(B):
、、分别表示红、绿和蓝通道的直方图,然后,将这三个直方图连接
成一个特征,形成RGB色彩直方图。
需要说明的是,本实施例中的边缘检测是一种用于检测图像中物体边界的特征提取技术,旨在寻找图像中亮度或颜色变化剧烈的区域,这些区域通常对应于物体之间的边界;在边缘检测中,边缘检测算子是一种滤波器或卷积核,用于突出图像中的边缘,常见的边缘检测算子包括Sobel、Canny、Prewitt等,下述以Sobel算子为例,Sobel算子分为水平和垂直两个卷积核,分别用于检测水平边缘和垂直边缘。
步骤S3016:对图像数据进行水平边缘检测:
,对图像数据进行垂直边缘检测:
其中,和分别表示水平和垂直方向上的梯度图像,是输入的图像数据;
步骤S3017:进而将和合并,生成图像数据的总边缘强度特征:
,进而通过阈值处理选择边缘像素。
其中,阈值处理是用于筛选边缘像素的关键步骤,通过设置合适的阈值,可以将边缘像素与背景分开;通常,大于阈值的像素被视为边缘像素,小于阈值的像素被视为背景,不同的应用需要不同的阈值选择方法。
需要说明的是,在生成图像数据的总边缘强度特征后,需要将图像数据中的目标物体分割出来,这可以通过图像分割技术实现,例如阈值分割、边缘检测、区域增长等,在本实施例中参考边缘检测图像分割技术。分割后,将获得一个包含目标物体的二进制掩模或分割图像。
步骤S3018:根据图像数据的总边缘强度特征,将图像数据中的物体进行分割,生成包含物体的分割图像;
步骤S3019:根据所述分割图像的白色像素计算物体的面积:
,同时计算物体的周长:
其中,和分别是图像的宽度和高度,表示分割图像中像素位置处的
像素值,与和与是相邻的两个像素值(通常是1或0,
表示物体或背景);其中,物体的面积是指目标物体所占的像素数量;物体的周长是指物体
边界上的像素数量或曲线的长度,可以通过遍历分割图像中物体边界上的像素来计算物体
的周长,通常物体周长可以使用数字化边界跟踪算法(如Moore-Neighbor边界跟踪算法)来
实现。。
步骤S3020:根据物体的面积和周长,计算物体的圆度:
,进而根据物体的圆度,生成图像数据的物体形状特征。
其中,圆度描述了物体形状的圆形程度。通常,圆度可以通过计算物体的面积与周长的比例来估计,且当物体为完美的圆形时,圆度等于1;对于其他形状的物体,圆度将小于1。
具体而言,还可以使用其他形状特征来描述物体,例如长宽比、凸包、矩形度等,具体的选择取决于任务和应用需求。
参考图8所示,在一些实施例中,当得到所述图像数据的纹理特征、色彩特征、边缘强度特征和物体形状特征后,所述方法还包括以下步骤:
步骤S3021:对所述图像数据的纹理特征、色彩特征、边缘强度特征和物体形状特征进行特征预处理,生成处理后的特征数据;
其中,特征预处理包括但不仅限于标准化、降维(使用主成分分析等降维技术)等处理方法,以提高分类性能和减少计算成本。
步骤S3022:根据处理后的特征数据,使用支持向量机分类方法进行分类,生成包含有分类后的图像数据的界面栅格信息。
其中,支持向量机(Support Vector Machine,SVM)是一种强大的分类算法,它可以用于二分类和多分类任务,在SVM中,寻找一个超平面,它可以最大化不同类别之间的间隔,并将它们有效地分开,选择适配的核函数(如线性核、多项式核、高斯核等)来适应数据的分布。
在实际的实施过程中,采用支持向量机分类方法可以先建立支持向量机模型(SVM模型),具体过程为:
准备包含已知地物或物体类别的训练图像数据集,每个图像都需要与其对应的标签,指示它属于哪个类别,进而对每个图像数据进行特征提取,将图像转化为特征向量,这些特征向量可以包括从图像中提取的纹理、颜色、形状等特征;
使用训练数据集中的特征向量和相应的类别标签,训练SVM模型,训练的目标是找到一个超平面,使得对于不同类别的样本,超平面能够最大程度地将它们分离;
当SVM模型训练完成后,使用该模型对新的图像数据进行分类:对于每个图像数据,将其特征提取为特征向量,然后输入到已训练的SVM模型中,SVM模型将输出该图像属于哪个类别。
具体而言,SVM模型的公式为:
其中,是特征向量,是决策超平面的法向量,是偏置项;
在训练过程中,目标是找到一个最佳的超平面,使得对于训练数据集中的样本,满足以下约束条件:
其中,是类别标签,表示对于训练数据集中的所有样本进行遍历和考
虑,代表训练数据集中的每个样本的索引,上述的约束条件要求对于每个样本,其特征向
量与模型的超平面之间的距离(或函数值)与样本的类别标签满足一定
的关系,这个关系要求样本被正确分类,距离超平面的距离足够大。
这个条件确保了不同类别之间的间隔最大化;SVM模型的优化问题通常可以表示为以下形式:
其中,是权重的范数,表示约束条件的引入。
参考图9所示,在一些实施例中,还提供一种栅格地图解析设备1,包括:
数据获取模块100,用于访问栅格地图服务器2,获取栅格地图数据源;
数据解析模块101,用于对所述栅格地图数据源进行解析,生成解析信息;
数据处理模块102,用于获取显示界面的页面栅格数据,进而根据所述解析信息,对所述页面栅格数据进行图像预设处理,生成界面栅格信息;
地图解析模块103,用于根据所述解析信息,生成所述请求切片区域中每一栅格的地图数据,进而组合形成地图解析数据;
地图显示模块104,用于根据所述请求地理信息、界面栅格信息及地图解析数据,在显示界面显示匹配的请求栅格地图。
具体而言,所述的一种栅格地图解析设备1使用上述的一种基于语义识别的栅格地图解析方法对目标栅格地图进行解析处理。
具体而言,所述栅格地图解析设备1与栅格地图服务器2、用户终端3设备相连接,所述用户终端3设备包括但不仅限于移动通信设备、计算机设备、平板设备、云终端设备等。
在一些实施例中,还提供一种计算机介质,所述计算机介质上存储有计算机程序,所述计算机程序被处理器执行实现所述的一种基于语义识别的栅格地图解析方法。
在一些实施例中,一种计算机,包括所述的一种计算机介质。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (10)
1.一种基于语义识别的栅格地图解析方法,其特征在于,包括以下步骤:
步骤S1:访问栅格地图服务器,获取栅格地图数据源,其中,所述栅格地图数据源包括:切片区域、地理信息、语义标签及图像数据;
步骤S2:对所述栅格地图数据源进行解析,生成解析信息,其中,所述解析信息包括:请求切片区域、请求地理信息、标签分析数据及图像分析数据;
步骤S3:获取显示界面的页面栅格数据,进而根据所述解析信息,对所述页面栅格数据进行图像预设处理,生成界面栅格信息;
步骤S4:根据所述解析信息,生成所述请求切片区域中每一栅格的地图数据,进而组合形成地图解析数据;
步骤S5:根据所述请求地理信息、界面栅格信息及地图解析数据,在显示界面显示匹配的请求栅格地图。
2.根据权利要求1所述的一种基于语义识别的栅格地图解析方法,其特征在于,所述获取栅格地图数据源的方法为:
步骤S10:提取用户终端的数据源需求信息;
步骤S11:根据所述数据源需求信息,选择匹配的栅格地图数据源,其中,所述栅格地图数据源为卫星图像、航拍图像、传感器数据中的至少一种。
3.根据权利要求1所述的一种基于语义识别的栅格地图解析方法,其特征在于,对所述页面栅格数据进行图像预设处理的方法为:
步骤S30:读取页面栅格数据包含的语义标签,进而根据语义标签,对所述解析信息中的标签分析数据进行语义分割,生成若干个的语义区域;
步骤S31:对每个语义区域实例分割,以生成物体实例组,进而根据图像分析数据,提取与所述物体实例组匹配的图像数据;
步骤S32:对所述图像数据进行图像增强处理,生成界面栅格信息。
4.根据权利要求3所述的一种基于语义识别的栅格地图解析方法,其特征在于,所述图像增强处理的方法为:
步骤S320:对图像数据进行中值滤波处理:
其中,/>是原始图像中的像素坐标,/>是处理后的像素坐标,/>是取一组像素坐标的中间值,/>是目标像素坐标周围的一组相邻像素坐标;
步骤S321:对图像数据进行几何校正处理:
其中,/>是校正后的像素坐标,是仿射变换的参数;
步骤S322:将图像数据进行数据格式统一,生成界面栅格信息。
5.根据权利要求1所述的一种基于语义识别的栅格地图解析方法,其特征在于,在步骤S3中,所述方法还包括以下步骤:
步骤S300:读取页面栅格数据包含的栅格坐标信息,进而根据栅格坐标信息,对解析信息包含的图像分析数据进行图像增强处理,生成处理后的地图图像信息;
步骤S301:对所述地图图像信息进行预设特征提取,获得特征数据,进而对特征数据使用预设分类方法进行分类,生成包含有分类后的图像数据的界面栅格信息。
6.根据权利要求5所述的一种基于语义识别的栅格地图解析方法,其特征在于,获得特征数据的方法为:
步骤S3010:选择灰度共生矩阵计算的参数,包括:图像、方向、距离、级别数;
步骤S3011:初始化灰度共生矩阵:
,
进而遍历图像中的每个像素坐标并计算与其邻近像素/>在距离/>上的灰度共生矩阵:
,
步骤S3012:根据灰度共生矩阵,计算地图图像信息中图像数据的对比度:
,
计算逆对比度:
,
计算熵:
其中,/>是一个正数,用于避免计算中的零值;
步骤S3013:根据对比度、逆对比度及熵计算出所述图像数据的纹理特征;
步骤S3014:选择颜色通道以及颜色空间,进而根据选择的颜色通道和颜色空间,初始化直方图;
步骤S3015:对图像数据中的每个像素,生成最终的色彩直方图,根据最终的色彩直方图,生成所述图像数据的色彩特征。
7.根据权利要求6所述的一种基于语义识别的栅格地图解析方法,其特征在于,在步骤S3015后,所述方法还包括以下步骤:
步骤S3016:对图像数据进行水平边缘检测:
对图像数据进行垂直边缘检测:
其中,/>和/>分别表示水平和垂直方向上的梯度图像,/>是输入的图像数据;
步骤S3017:将和/>合并,生成图像数据的总边缘强度特征:
步骤S3018:根据图像数据的总边缘强度特征,将图像数据中的物体进行分割,生成包含物体的分割图像;
步骤S3019:根据所述分割图像的白色像素计算物体的面积:
同时计算物体的周长:
其中,/>和/>分别是图像的宽度和高度,/>表示分割图像中像素位置/>处的像素值,/>与和/>与/>是相邻的两个像素值;
步骤S3020:根据物体的面积和周长,计算物体的圆度:
进而根据物体的圆度,生成图像数据的物体形状特征。
8.根据权利要求7所述的一种基于语义识别的栅格地图解析方法,其特征在于,在得到所述图像数据的纹理特征、色彩特征、边缘强度特征和物体形状特征后,所述方法还包括以下步骤:
步骤S3021:对所述图像数据的纹理特征、色彩特征、边缘强度特征和物体形状特征进行特征预处理,生成处理后的特征数据;
步骤S3022:根据处理后的特征数据,使用支持向量机分类方法进行分类,生成包含有分类后的图像数据的界面栅格信息。
9.一种栅格地图解析设备,其特征在于,包括:
数据获取模块,用于访问栅格地图服务器,获取栅格地图数据源;
数据解析模块,用于对所述栅格地图数据源进行解析,生成解析信息;
数据处理模块,用于获取显示界面的页面栅格数据,进而根据所述解析信息,对所述页面栅格数据进行图像预设处理,生成界面栅格信息;
地图解析模块,用于根据所述解析信息,生成所述请求切片区域中每一栅格的地图数据,进而组合形成地图解析数据;
地图显示模块,用于根据所述请求地理信息、界面栅格信息及地图解析数据,在显示界面显示匹配的请求栅格地图。
10.一种计算机介质,其特征在于,所述计算机介质上存储有计算机程序,所述计算机程序被处理器执行实现根据权利要求1-8中任一项所述的一种基于语义识别的栅格地图解析方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311744291.0A CN117437654B (zh) | 2023-12-19 | 2023-12-19 | 一种基于语义识别的栅格地图解析方法、设备和介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311744291.0A CN117437654B (zh) | 2023-12-19 | 2023-12-19 | 一种基于语义识别的栅格地图解析方法、设备和介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117437654A true CN117437654A (zh) | 2024-01-23 |
CN117437654B CN117437654B (zh) | 2024-03-08 |
Family
ID=89546512
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311744291.0A Active CN117437654B (zh) | 2023-12-19 | 2023-12-19 | 一种基于语义识别的栅格地图解析方法、设备和介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117437654B (zh) |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108920584A (zh) * | 2018-06-25 | 2018-11-30 | 广州视源电子科技股份有限公司 | 一种语义栅格地图生成方法及其装置 |
KR20200063880A (ko) * | 2018-11-28 | 2020-06-05 | 성균관대학교산학협력단 | 인간의 뇌지도 모델 및 인지 기반 이동로봇 주행을 위한 시맨틱 지도 작성 시스템 |
US20200183011A1 (en) * | 2018-12-11 | 2020-06-11 | Shanghai Tusen Weilai Artificial Intelligence Technology Co., Ltd. | Method for creating occupancy grid map and processing apparatus |
WO2020119684A1 (zh) * | 2018-12-14 | 2020-06-18 | 中国科学院深圳先进技术研究院 | 一种3d导航语义地图更新方法、装置及设备 |
CN111486855A (zh) * | 2020-04-28 | 2020-08-04 | 武汉科技大学 | 一种具有物体导航点的室内二维语义栅格地图构建方法 |
CN114739408A (zh) * | 2022-03-21 | 2022-07-12 | 深圳市优必选科技股份有限公司 | 一种语义导航方法、语义导航装置及机器人 |
CN114782919A (zh) * | 2021-12-24 | 2022-07-22 | 东风悦享科技有限公司 | 一种真实和仿真数据增强的道路栅格地图构建方法、系统 |
CN115143950A (zh) * | 2022-05-06 | 2022-10-04 | 东风悦享科技有限公司 | 一种智能汽车局部语义栅格地图生成方法 |
CN115375868A (zh) * | 2022-10-25 | 2022-11-22 | 阿里巴巴(中国)有限公司 | 地图显示和遥感地图显示方法、计算设备以及存储介质 |
CN115493596A (zh) * | 2022-10-17 | 2022-12-20 | 浙江大学 | 一种移动机器人语义地图构建与导航方法 |
CN115661852A (zh) * | 2022-11-03 | 2023-01-31 | 北京大学重庆大数据研究院 | 地图分割方法、装置、计算机可读存储介质及处理器 |
CN115858973A (zh) * | 2023-02-23 | 2023-03-28 | 北京德风新征程科技股份有限公司 | 栅格地图解析方法、装置、设备和介质 |
CN116258826A (zh) * | 2023-01-05 | 2023-06-13 | 北京踏歌智行科技有限公司 | 一种面向露天矿区的语义地图构建及边界实时提取方法 |
CN117128947A (zh) * | 2023-03-13 | 2023-11-28 | 荣耀终端有限公司 | 栅格地图的生成方法和服务器 |
CN117171288A (zh) * | 2023-11-02 | 2023-12-05 | 中国地质大学(武汉) | 一种栅格地图解析方法、装置、设备和介质 |
-
2023
- 2023-12-19 CN CN202311744291.0A patent/CN117437654B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108920584A (zh) * | 2018-06-25 | 2018-11-30 | 广州视源电子科技股份有限公司 | 一种语义栅格地图生成方法及其装置 |
KR20200063880A (ko) * | 2018-11-28 | 2020-06-05 | 성균관대학교산학협력단 | 인간의 뇌지도 모델 및 인지 기반 이동로봇 주행을 위한 시맨틱 지도 작성 시스템 |
US20200183011A1 (en) * | 2018-12-11 | 2020-06-11 | Shanghai Tusen Weilai Artificial Intelligence Technology Co., Ltd. | Method for creating occupancy grid map and processing apparatus |
WO2020119684A1 (zh) * | 2018-12-14 | 2020-06-18 | 中国科学院深圳先进技术研究院 | 一种3d导航语义地图更新方法、装置及设备 |
CN111486855A (zh) * | 2020-04-28 | 2020-08-04 | 武汉科技大学 | 一种具有物体导航点的室内二维语义栅格地图构建方法 |
CN114782919A (zh) * | 2021-12-24 | 2022-07-22 | 东风悦享科技有限公司 | 一种真实和仿真数据增强的道路栅格地图构建方法、系统 |
CN114739408A (zh) * | 2022-03-21 | 2022-07-12 | 深圳市优必选科技股份有限公司 | 一种语义导航方法、语义导航装置及机器人 |
CN115143950A (zh) * | 2022-05-06 | 2022-10-04 | 东风悦享科技有限公司 | 一种智能汽车局部语义栅格地图生成方法 |
CN115493596A (zh) * | 2022-10-17 | 2022-12-20 | 浙江大学 | 一种移动机器人语义地图构建与导航方法 |
CN115375868A (zh) * | 2022-10-25 | 2022-11-22 | 阿里巴巴(中国)有限公司 | 地图显示和遥感地图显示方法、计算设备以及存储介质 |
CN115661852A (zh) * | 2022-11-03 | 2023-01-31 | 北京大学重庆大数据研究院 | 地图分割方法、装置、计算机可读存储介质及处理器 |
CN116258826A (zh) * | 2023-01-05 | 2023-06-13 | 北京踏歌智行科技有限公司 | 一种面向露天矿区的语义地图构建及边界实时提取方法 |
CN115858973A (zh) * | 2023-02-23 | 2023-03-28 | 北京德风新征程科技股份有限公司 | 栅格地图解析方法、装置、设备和介质 |
CN117128947A (zh) * | 2023-03-13 | 2023-11-28 | 荣耀终端有限公司 | 栅格地图的生成方法和服务器 |
CN117171288A (zh) * | 2023-11-02 | 2023-12-05 | 中国地质大学(武汉) | 一种栅格地图解析方法、装置、设备和介质 |
Non-Patent Citations (3)
Title |
---|
AJINKYA KHOCHE ET AL: "Semantic 3D Grid Maps for Autonomous Driving", ARXIV, 3 November 2022 (2022-11-03) * |
XIANYU QI ET AL: "Building semantic grid maps for domestic robot navigation", INTERNATIONAL JOURNAL OF ADVANCED ROBOTIC SYSTEMS, 21 January 2020 (2020-01-21) * |
祁贤雨等: "基于物体语义栅格地图的语义拓扑地图构建方法", 吉林大学学报(工学版), 28 February 2023 (2023-02-28) * |
Also Published As
Publication number | Publication date |
---|---|
CN117437654B (zh) | 2024-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108228798B (zh) | 确定点云数据之间的匹配关系的方法和装置 | |
CN108573276B (zh) | 一种基于高分辨率遥感影像的变化检测方法 | |
CN106651872B (zh) | 基于Prewitt算子的路面裂缝识别方法及系统 | |
CN110263717B (zh) | 一种融入街景影像的土地利用类别确定方法 | |
An et al. | Scene learning for cloud detection on remote-sensing images | |
CN110598784B (zh) | 基于机器学习的建筑垃圾分类方法及装置 | |
CN107067405B (zh) | 基于尺度优选的遥感影像分割方法 | |
CN107103320B (zh) | 嵌入式医疗数据图像识别及集成方法 | |
Hormese et al. | Automated road extraction from high resolution satellite images | |
CN111626947A (zh) | 基于生成对抗网络的地图矢量化样本增强方法及系统 | |
CN108711172B (zh) | 基于细粒度分类的无人机识别与定位方法 | |
Ronggui et al. | Extracting roads based on Retinex and improved Canny operator with shape criteria in vague and unevenly illuminated aerial images | |
CN110288612B (zh) | 铭牌定位与校正方法及设备 | |
CN110070545B (zh) | 一种城镇纹理特征密度自动提取城镇建成区的方法 | |
CN112966548A (zh) | 一种大豆地块识别方法及系统 | |
CN112883900B (zh) | 遥感影像裸地反演可视图的方法及装置 | |
CN111027497A (zh) | 基于高分辨率光学遥感影像的弱小目标快速检测方法 | |
Mahmoudabadi et al. | Efficient terrestrial laser scan segmentation exploiting data structure | |
Hao et al. | A hierarchical region-merging algorithm for 3-D segmentation of individual trees using UAV-LiDAR point clouds | |
CN113627478A (zh) | 一种目标检测方法、目标检测装置及机器人 | |
CN113033386B (zh) | 一种基于高分辨率遥感影像的输电线路通道隐患识别方法及系统 | |
Recky et al. | Window detection in complex facades | |
CN110175638B (zh) | 一种扬尘源监测方法 | |
CN117437654B (zh) | 一种基于语义识别的栅格地图解析方法、设备和介质 | |
Xia et al. | A method for road surface anomaly detection from remote sensing data by deep convolutional networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |