CN111881919B - 一种基于追踪式格网剖分的线要素智能化简方法与装置 - Google Patents

一种基于追踪式格网剖分的线要素智能化简方法与装置 Download PDF

Info

Publication number
CN111881919B
CN111881919B CN202010574156.6A CN202010574156A CN111881919B CN 111881919 B CN111881919 B CN 111881919B CN 202010574156 A CN202010574156 A CN 202010574156A CN 111881919 B CN111881919 B CN 111881919B
Authority
CN
China
Prior art keywords
split
square
simplification
grid
simplified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010574156.6A
Other languages
English (en)
Other versions
CN111881919A (zh
Inventor
武芳
杜佳威
朱丽
巩现勇
殷吉崇
行瑞星
刘呈熠
余林怡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Information Engineering University of PLA Strategic Support Force
Original Assignee
Information Engineering University of PLA Strategic Support Force
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Information Engineering University of PLA Strategic Support Force filed Critical Information Engineering University of PLA Strategic Support Force
Priority to CN202010574156.6A priority Critical patent/CN111881919B/zh
Publication of CN111881919A publication Critical patent/CN111881919A/zh
Application granted granted Critical
Publication of CN111881919B publication Critical patent/CN111881919B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/11Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/203Drawing of straight lines or curves

Abstract

本发明公开一种基于追踪式格网剖分的线要素智能化简方法,沿化简前线要素方向连续构建剖分方格;将剖分方格包含的唯一、连续的化简前线要素的局部弧段作为剖分弧段;基于剖分方格、化简前剖分弧段确定化简后的剖分弧段;将剖分方格剖分的化简前、后的局部弧段转换为栅格图像,并将成对的栅格图像作为学习样本;利用学习样本中化简前、后的栅格图像训练深度学习模型;将剖分方格剖分的待化简线要素的局部弧段转换成的栅格图像输入训练好的深度学习模型,预测化简后的栅格图像;将预测的栅格图像转换、合并得到化简后的线要素;本发明还公开一种基于追踪式格网剖分的线要素智能化简装置。本发明利用图像处理深度学习模型实现了线要素智能化简。

Description

一种基于追踪式格网剖分的线要素智能化简方法与装置
技术领域
本发明属于空间数据处理中线要素智能综合技术领域,尤其涉及一种基于追踪式格网剖分的线要素智能化简方法与装置。
背景技术
线要素化简是空间数据处理、自动地图综合中的重要研究内容和经典研究问题之一。线要素化简过程十分复杂,需要综合考量空间认知、地理特征等多重因素,对顶点、弯曲、地理对象不同层次的目标,有选择地进行取舍、移位、概括、夸大等诸多操作。因此,清晰、准确、完备抽象线化简过程的难度极大。而利用智能方法从化简前、后的线要素中“自下而上”地学习化简知识和化简操作的智能化简思路能够规避“自上而下”抽象的主观性,具有更好的适应性。
随着深度学习技术的发展,深度神经网络对于复杂任务的学习模拟能力显著增强,面向图像翻译、风格迁移等图像处理的深度学习模型的精度和智能程度逐步提升,利用这些图像处理深度学习模型模拟从综合前到综合后的图像变换具有可行性。例如,发表于《ISPRS International Journal of Geo-Information》2019年第6期上一篇名称为《Learning cartographic building generalization with deep convolutional neuralnetworks》的论文尝试利用规则格网剖分综合前、后的矢量建筑群转换为栅格图像,并利用规则格网剖分栅格图像构建样本,通过全卷积深度神经网络拟合从综合前到综合后的建筑物图像变换。但是,当前缺少利用图像处理深度学习模型实现线要素智能化简的方法,主要存在以下难点:
首先,当前空间剖分方法不适用于基于图像处理深度学习模型的线要素智能化简应用。线要素连续绵长、细节复杂多变,直接将其转化为栅格图像不仅导致极大的计算资源消耗和浪费,容易引发溢出问题,还极大地增加了待学习任务的复杂程度,使其难以被学习模拟。因此,对线要素进行剖分是十分必要的。但是,利用已有规则格网剖分方法剖分化简前、后的线要素并不适用于线要素智能化简应用,主要包含以下原因:①规则格网剖分的线要素较为破碎,一个剖分方格内包含多条的离散弧段,破碎的离散弧段化简规律性差、学习难度大,难以被智能模型有效学习模拟;②破碎的弧段形态表达连续性差,也无法充分表达线要素局部形态特征及化简前、后的形态变换特点。
其次,当前样本构建方法也不适用于基于图像处理深度学习模型的线要素智能化简应用。剖分的线要素弧段直接转换生成的栅格图像中存在大范围空白,不利于模型参数的自适应调整。
再者,图像处理深度学习模型预测模拟的化简结果为一些列栅格图像,而空间数据中线要素以矢量形式表达,具有连续性和完整性。如何将图像处理深度学习模型预测模拟的一系列栅格图像转换、拼接、生成矢量线要素也存在空白。
发明内容
本发明针对当前空间剖分及样本构建方法不适用于基于图像处理深度学习模型的线要素智能化简应用的问题,提出一种基于追踪式格网剖分的线要素智能化简方法与装置。
为了实现上述目的,本发明采用以下技术方案:
一种基于追踪式格网剖分的线要素智能化简方法,包括:
步骤1、确定化简前、后比例尺,从已有地图综合成果中提取化简前、后的线要素,沿化简前线要素方向连续构建剖分方格;
步骤2、将剖分方格包含的唯一、连续的化简前线要素的局部弧段作为剖分弧段;
步骤3、基于剖分方格、化简前剖分弧段确定化简后的剖分弧段;
步骤4、将剖分方格剖分的化简前、后的局部弧段转换为栅格图像,并将成对的栅格图像作为学习样本;
步骤5、选择图像处理深度学习模型,利用学习样本中化简前、后的栅格图像训练深度学习模型;
步骤6、将剖分方格剖分的待化简线要素的局部弧段转换成的栅格图像输入训练好的深度学习模型,预测化简后的栅格图像;
步骤7、将预测的栅格图像转换、合并得到化简后的线要素。
进一步地,所述步骤1包括:
步骤1.1、构建边长为l的方格:以顶点v(p)为起点,以顶点v(p)到顶点v(q)方向上长为l的线段为对称轴,构建边长为l的方格;
步骤1.2、基于边长为l的方格构建剖分方格:以化简前线要素起始顶点为v(p),以其后一个顶点为v(q),利用步骤1.1中方法构建边长为l的方格;若化简前线要素上v(p)、v(q)及其间所有顶点都包含于方格内,则将下一个顶点作为新的v(q),重复此过程;若化简前线要素上v(p)、v(q)及其间所有顶点中存在不包含于方格内的顶点,则判断此过程是否被重复,若未发生重复,则直接将构建的边长为l的方格作为剖分方格,若发生了重复,则将上一次构建的边长为l的方格作为剖分方格。
进一步地,所述步骤2包括:
步骤2.1、沿化简前线要素方向依次获取剖分方格与化简前线要素的交点;
步骤2.2、从交点集合中提取v(p)作为起始顶点,提取v(p)后一个交点作为终止顶点,化简前线要素中包含于起、止顶点间的弧段构成了此剖分方格剖分的局部弧段。
进一步地,所述步骤3包括:
步骤3.1、获取化简后线要素与剖分方格间的所有交点;
步骤3.2、从交点集合中找到与化简前剖分弧段起、止顶点邻近的交点,并将这两个交点作为化简后剖分弧段的起、止顶点,化简后线要素中包含于起、止顶点间的弧段构成了此剖分方格剖分的局部弧段。
进一步地,所述步骤4包括:
步骤4.1、基于剖分方格将剖分弧段转换为能够反映其形态特征的闭合面域:当剖分方格不包含线要素终止顶点时,剖分弧段与剖分方格有两个交点,剖分弧段及其一侧的剖分方格边界闭合成面状区域;当剖分方格包含线要素终止顶点,剖分弧段与剖分方格有且只有一个交点,延长剖分弧段终止顶点直至与剖分方格相交,延长的剖分弧段及其一侧的剖分方格边界闭合成面状区域;
步骤4.2、利用矢量-栅格转换方法将剖分方格内的闭合面域转换为栅格图像。
进一步地,所述步骤4.2包括:
步骤4.2.1、确定像素尺寸,使满足pd<svo/Sca;其中,pd为单个像素对应的实际距离,svo为地图上人眼最小可分辨距离,Sca为化简前的比例尺;
步骤4.2.2、利用像素填充剖分方格,将剖分方格内对象转换为栅格图像,其中,不包含于闭合面域的像素设置为白色,包含于闭合面域内的像素被赋予不为白色的灰度值。
进一步地,所述步骤7包括:
步骤7.1、从预测的化简结果图像中提取栅格曲线,并记录构成栅格曲线的像素;
步骤7.2、对构成栅格曲线的像素进行排序;
步骤7.3、将栅格曲线转换为矢量弧段;
步骤7.4、将矢量弧段依次串连、合并;
步骤7.5、剔除冗余点得到化简后的线要素。
进一步地,所述步骤7.1包括:
步骤7.1.1、利用边缘检测算子提取预测的化简结果图像的外部轮廓,得到轮廓图像;
步骤7.1.2、遍历轮廓图像四条边界的所有像素,确定栅格曲线的起、止像素的位置;
步骤7.1.3、将除起、止像素外轮廓图像边界上的其他像素均转为空白像素,记录构成栅格曲线的像素。
进一步地,所述步骤7.3包括:
步骤7.3.1、构建从像素位置到顶点坐标的转换方程;
步骤7.3.2、将排序后构成栅格曲线的像素依次转换为顶点坐标,并串联顶点生成矢量弧段。
一种基于追踪式格网剖分的线要素智能化简装置,包括:
剖分方格构建模块,用于确定化简前、后比例尺,从已有地图综合成果中提取化简前、后的线要素,沿化简前线要素方向连续构建剖分方格;
第一剖分弧段确定模块,用于将剖分方格包含的唯一、连续的化简前线要素的局部弧段作为剖分弧段;
第二剖分弧段确定模块,用于基于剖分方格、化简前剖分弧段确定化简后的剖分弧段;
栅格图像转换模块,用于将剖分方格剖分的化简前、后的局部弧段转换为栅格图像,并将成对的栅格图像作为学习样本;
深度学习模型训练模块,用于选择图像处理深度学习模型,利用学习样本中化简前、后的栅格图像训练深度学习模型;
化简后栅格图像预测模块,用于将剖分方格剖分的待化简线要素的局部弧段转换成的栅格图像输入训练好的深度学习模型,预测化简后的栅格图像;
化简模块,用于将预测的栅格图像转换、合并得到化简后的线要素。
与现有技术相比,本发明具有的有益效果:
(1)利用本发明线要素剖分构建的样本能够充分、合理反映线要素局部形态,基于本发明剖分及样本构建方法构建的学习样本更容易被图像处理深度学习模型学习利用。
(2)本发明智能化简方法完全从化简成果数据中学习化简约束、化简过程、化简操作,避免了抽象化简过程、量化化简约束中的主观性、针对性和局限性,表现出较高的智能水平和可接受的准确程度。
(3)本发明具有较强的普适性和通用性。本发明不局限于模拟顶点取舍或弯曲取舍某一操作,能够学习模拟顶点取舍、顶点移位、弯曲取舍、弯曲渐变、弯曲夸大等诸多化简操作;本发明不局限于道路、水系、岸线某一特殊地理线要素,只需将这些线要素构造为训练样本供深度学习模型学习,利用本发明即可实现多种线要素混合的自动化简;本发明可用于空间数据多尺度化简,只需将构成学习样本的线要素换为其他两个尺度的线要素,利用本发明还可实现不同尺度的线要素自动化简。
(4)本发明具有良好的兼容性。本发明不局限于某一种图像处理深度学习模型,Unet、残差Unet、Unet++、Pix2Pix等多种深度学习模型都可应用于本发明。随着深度神经网络研究在图像处理研究中的深入,可将效果更优的深度学习模型集成到本发明中,优化化简效果。
附图说明
图1为本发明实施例一种基于追踪式格网剖分的线要素智能化简方法的流程图示意图;
图2为本发明实施例一种基于追踪式格网剖分的线要素智能化简方法的函数Fsq(v(p),v(q),l)示例图;
图3为本发明实施例一种基于追踪式格网剖分的线要素智能化简方法的函数Fin(Squ,L)示例图;
图4为本发明实施例一种基于追踪式格网剖分的线要素智能化简方法的线要素剖分示意图;其中,(4a)为构建第一个剖分方格的示意图,(4b)为构建剖分方格的示意图,(4c)为利用剖分方格剖分化简前、后线要素的示意图,(4d)为剖分结果的示意图;
图5为本发明实施例一种基于追踪式格网剖分的线要素智能化简方法的生成栅格学习样本的示意图;
图6为本发明实施例一种基于追踪式格网剖分的线要素智能化简方法的线化简结果生成示意图;其中,(6a)为生成栅格曲线的示例,(6b)为栅格曲线转换为矢量弧段的示例,(6c)为矢量弧段合并的示例,(6d)为冗余点剔除的示例;
图7为本发明实施例一种基于追踪式格网剖分的线要素智能化简方法的海岸线剖分与样本构建过程示意图;
图8为本发明实施例一种基于追踪式格网剖分的线要素智能化简方法的规则格网剖分构建栅格样本示例图;其中,(8a)为规则格网剖分示例,(8b)为学习样本示例;
图9为本发明实施例一种基于追踪式格网剖分的线要素智能化简方法的训练过程中生成器损失函数变化示意图;其中,(9a)为Pix2Pix1_λ的训练过程中生成器损失函数变化示意,(9b)为Pix2Pix2_λ的训练过程中生成器损失函数变化示意;
图10为本发明实施例一种基于追踪式格网剖分的线要素智能化简方法的测试结果的F1度量统计图;其中,(10a)为Pix2Pix1_λ测试结果的F1度量统计,(10b)为Pix2Pix2_λ测试结果的F1度量统计;
图11为本发明实施例一种基于追踪式格网剖分的线要素智能化简方法的部分测试结果比较图;
图12为本发明实施例一种基于追踪式格网剖分的线要素智能化简方法的斯图尔特岛的化简结果图(1:25万);其中,(12a)为本发明方法化简结果,(12b)为化简结果与原始海岸线叠置比较;
图13为本发明实施例一种基于追踪式格网剖分的线要素智能化简方法的自动化简结果的局部展示图;其中,(13a)为不同综合操作参与的化简结果,(13b)为不同海岸线的化简结果;
图14为本发明实施例一种基于追踪式格网剖分的线要素智能化简方法的自动化简结果和标准结果比较图;其中,(14a)为标准化简结果与原始线要素叠置比较,(14b)为自动化简结果与原始线要素叠置比较,(14c)为标准化简结果与自动化简结果叠置比较;
图15为本发明实施例一种基于追踪式格网剖分的线要素智能化简装置的结构示意图。
具体实施方式
下面结合附图和具体的实施例对本发明做进一步的解释说明:
实施例1
如图1所示,一种基于追踪式格网剖分的线要素智能化简方法,包括:
步骤1、确定化简前、后比例尺,从已有地图综合成果中提取化简前、后的线要素,沿化简前线要素方向连续构建剖分方格;
步骤2、将剖分方格包含的唯一、连续的化简前线要素的局部弧段作为剖分弧段;
步骤3、基于剖分方格、化简前剖分弧段确定化简后的剖分弧段;
步骤4、将剖分方格剖分的化简前、后的局部弧段转换为栅格图像,并将成对的栅格图像作为学习样本;
步骤5、选择图像处理深度学习模型,利用学习样本中化简前、后的栅格图像训练深度学习模型;
步骤6、将剖分方格剖分的待化简线要素的局部弧段转换成的栅格图像输入训练好的深度学习模型,预测化简后的栅格图像;
步骤7、将预测的栅格图像转换、合并得到化简后的线要素。
进一步地,在所述步骤1之前,还包括:
检查化简前线要素的起、止顶点与化简后线要素的起、止顶点是否重合,若不重合,则以化简前线要素起、止顶点为标准,将化简后线要素的起、止顶点移动至与化简前线要素起、止顶点重合的位置。检查化简前线要素方向是否与化简后线要素方向一致,若不一致,以化简前线要素方向为标准,将化简后线要素顶点按逆序重新排列、连结使其与化简前线要素的方向一致。
进一步地,化简前、后线要素方向一致,是指构成化简前、化简后线要素的顶点都沿顺时针或逆时针同一方向排列。
进一步地,所述步骤1包括:
步骤1.1、构建边长为l的方格:以顶点v(p)为起点,以顶点v(p)到顶点v(q)方向上长为l的线段为对称轴,构建边长为l的方格;
步骤1.2、基于边长为l的方格构建剖分方格:以化简前线要素起始顶点为v(p),以其后一个顶点为v(q),利用步骤1.1中方法构建边长为l的方格;若化简前线要素上v(p)、v(q)及其间所有顶点都包含于方格内,则将下一个顶点作为新的v(q),重复此过程;若化简前线要素上v(p)、v(q)及其间所有顶点中存在不包含于方格内的顶点,则判断此过程是否被重复,若未发生重复,则直接将构建的边长为l的方格作为剖分方格,若发生了重复,则将上一次构建的边长为l的方格作为剖分方格。
进一步地,所述步骤2包括:
步骤2.1、沿化简前线要素方向依次获取剖分方格与化简前线要素的交点;
步骤2.2、从交点集合中提取v(p)作为起始顶点,提取v(p)后一个交点作为终止顶点,化简前线要素中包含于起、止顶点间的弧段构成了此剖分方格剖分的局部弧段。
进一步地,所述步骤3包括:
步骤3.1、获取化简后线要素与剖分方格间的所有交点;
步骤3.2、从交点集合中找到与化简前剖分弧段起、止顶点邻近的交点,并将这两个交点作为化简后剖分弧段的起、止顶点,化简后线要素中包含于起、止顶点间的弧段构成了此剖分方格剖分的局部弧段。
进一步地,当剖分方格与化简后线要素不相交时,剖分的化简后弧段为空。
进一步地,所述步骤4包括:
步骤4.1、基于剖分方格将剖分弧段转换为能够反映其形态特征的闭合面域:直接由弧段转换的栅格图像中存在大范围空白,不利于模型参数的自适应调整,需要将弧段转换为闭合面域,使其容易被模型学习模拟;当剖分方格不包含线要素终止顶点时,剖分弧段与剖分方格有两个交点,剖分弧段及其一侧的剖分方格边界闭合成面状区域;当剖分方格包含线要素终止顶点,剖分弧段与剖分方格有且只有一个交点,延长剖分弧段终止顶点直至与剖分方格相交,延长的剖分弧段及其一侧的剖分方格边界闭合成面状区域;
步骤4.2、利用矢量-栅格转换方法将剖分方格内的闭合面域转换为栅格图像。
进一步地,所述步骤4.2包括:
步骤4.2.1、确定像素尺寸,使满足pd<svo/Sca;其中,pd为单个像素对应的实际距离,svo为地图上人眼最小可分辨距离,Sca为化简前的比例尺;具体地,令像素沿剖分方格排列,满足l=pd·sn,sn(sn∈N+)为栅格图像边长的像素数,l为剖分方格边长;通过像素对剖分方格的无缝覆盖实现矢量-栅格转换;
步骤4.2.2、利用像素填充剖分方格,将剖分方格内对象转换为栅格图像,其中,不包含于闭合面域的像素设置为白色,包含于闭合面域内的像素被赋予不为白色的灰度值,并设置不同灰度值以区分化简前、后的栅格图像,成对的化简前、后的栅格图像构成学习样本。
进一步地,所述步骤5包括:
步骤5.1、选择恰当的图像处理深度学习模型,应包含以下特点:①能够基于一幅输入图像预测另一幅输出图像或标签图像;②输入图像与输出图像等大;③通常包含编码-解码结构;
步骤5.2、利用学习样本训练深度学习模型;训练方法、过程与深度学习模型在一般图像学习、训练中一致;作为一种可实施方式,本实施例采用Pix2Pix模型作为图像深度学习模型;值得说明的是,本发明不局限于某一种图像处理深度学习模型,Unet、残差Unet、Unet++、Pix2Pix等多种深度学习模型都适用于本发明。
进一步地,所述步骤6包括:
将剖分方格剖分的化简前的局部弧段转换成的栅格图像{Imc(k);k∈[1,nc]}(具体地,利用步骤1~4将待化简线要素剖分为nc段,利用步骤5将nc个局部弧段转换为nc幅栅格图像,记为{Imc(k);k∈[1,nc]},nc为剖分待化简线要素得到剖分弧段的数量)输入训练好的Pix2Pix模型,预测化简后的栅格图像,记为{Img(k);k∈[1,nc]}。
进一步地,所述步骤7包括:
步骤7.1、从预测的化简结果图像{Img(k);k∈[1,nc]}中提取栅格曲线,并记录构成栅格曲线的像素;
步骤7.2、对构成栅格曲线的像素进行排序;
步骤7.3、将栅格曲线转换为矢量弧段;
步骤7.4、将矢量弧段依次串连、合并;
步骤7.5、剔除冗余点得到化简后的线要素。
进一步地,所述步骤7.1包括:
步骤7.1.1、利用边缘检测算子提取预测的化简结果图像Img(k)的外部轮廓,得到轮廓图像IMg;作为一种可实施方式,采用canny算子提取预测的化简结果图像的外部轮廓;
步骤7.1.2、遍历轮廓图像四条边界的所有像素确定栅格曲线的起、止像素的位置;具体地,IMg[i,j]∈{IMg[1,u],IMg[sn,u],IMg[u,1],IMg[u,sn];u∈[1,sn]},即IMg[i,j]为该四条边界上的像素,其中IMg为轮廓图像(矩阵),IMg[1,u],IMg[sn,u],IMg[u,1],IMg[u,sn]为轮廓图像的四条边界;若IMg[i,j]=0,且j=1,且存在IMg[i±1,j]>0或IMg[i,j±1]>0,则IMg[i,j]为线要素的起始像素;若IMg[i,j]=0,且j≠1,且存在IMg[i±1,j]>0或IMg[i,j±1]>0,则IMg[i,j]为线要素的终止像素;
步骤7.1.3、将除起、止像素外轮廓图像边界上的其他像素均转为空白像素,记录构成栅格曲线的像素。
进一步地,所述步骤7.2包括:
步骤7.2.1、将起始像素加入序列,计算构成栅格曲线的像素中未加入序列的其它像素到起始像素的距离;
步骤7.2.2、将距离起始像素最近的像素加入序列,并将新加入的像素作为新的起始像素重复步骤7.2.1,直至终止像素加入序列为止,完成栅格曲线内像素排序。
进一步地,所述步骤7.3包括:
步骤7.3.1、构建从像素位置到顶点坐标的转换方程;剖分方格及其对应的剖分弧段记为{Squ(k),Lsc(k);k∈[1,nc]};因为Img(k)由Imc(k)生成,所示利用从Imc(k)到Lsc(k)的坐标系转换方程即可将栅格曲线中的像素位置转换为矢量弧段的地图坐标。转换方程为
其中,(X,Y)为地图坐标,(i,j)为像素位置,(dx,dy)为待求解的平移分量,θ为待求解的旋转分量。利用步骤7.1.2中方法从Imc(k)中搜索到栅格曲线起始像素和终止像素,对应于Lsc(k)的起始顶点和终止顶点,利用起始像素位置和起始顶点坐标、终止像素位置与终止顶点坐标即可求解转换方程。
步骤7.3.2、将排序后构成栅格曲线的像素依次转换为顶点坐标,并串联顶点生成矢量弧段。
进一步地,所述步骤7.4包括:
步骤7.4.1、将生成的矢量弧段依次串联合并;
步骤7.4.2、选择自相交消除算法,处理合并结果中的自相交问题;作为一种可实施方式,采用发表于《Cartography and Geographic Information Science》2013年第5期的《Scale-specific automated line simplification by vertex clustering on ahexagonal tessellation》中的自相交处理方法。
进一步地,所述步骤7.5包括:
步骤7.5.1、密集的栅格像素规则排列,由栅格像素转换生成的线要素顶点过于密集,包含大量冗余顶点,顾及冗余点产生机制,选择顶点压缩算法并设置算法参数;作为一种可实施方式,顶点压缩算法采用Douglas-Pucker算法;
步骤7.5.2、利用顶点压缩算法剔除冗余点,得到化简后的线要素。
具体地,本发明可形象化描述如下:
确定化简前、后比例尺,从已有地图综合成果中提取化简前、后的线要素,将化简前、后的线要素分别记为La={va(i),i∈[1,na]}、Lb={vb(j),j∈[1,nb]},{va(i)}和{vb(j)}、na和nb分别表示构成化简前、后线要素的顶点集合及顶点数量,且通常情况下va(1)=vb(1)、va(na)=vb(nb)。设计如下函数:
Fsq(v(p),v(q),l):以顶点v(p)为起点,以顶点v(p)到顶点v(q)方向上长为l的线段为对称轴,构建边长为l的方格,记为Squ并返回,如图2所示。
Fin(Squ,L):沿线要素线要素L(L=La或Lb)方向,依次获取Squ边界线与线要素L的交点,并依次加入集合In,返回集合In,In内元素数量记为Innum。如图3中L={v(1),…,v(7)},In=Fin(Squ,L)={v(1),pt1,pt2,pt3},Innum=4;In表示Squ和L的交点集合,pt1,pt2,pt3表示除v(1)外的其他交点,并按顺序存储。
1)化简前、后线要素剖分。过程如下,执行前需初始化vsta=va(1)、q=2;vsta表示线要素的起点:
Step11、若La与Lb同向,则无需处理;若La与Lb反向,则Lb={vb(nb-j),j∈[1,nb]};
Step12、利用Fsq(vsta,va(q),l)构建方格Squq,若La上vsta、va(na)及其间所有顶点都包含于Squq内,则Squ=Squq,执行Step16;否则,执行Step13;
Step13、若La上vsta、va(q)及其间所有顶点都包含于Squq内,则令q=q+1,重复Step12~13;否则,La上vsta、va(q)及其间存在不包含于Squq的顶点,令Squ=Squq-1,执行Step14;
Step14、利用剖分方格Squ剖分线要素:执行Fin(Squ,La)=In,其中vsta∈In;从In中提取vsta后一个交点,记为ptin;La上vsta、ptin及其间所有顶点构成了Squ剖分的弧段Lsa={vsta,…,ptin};若需剖分Lb,执行Step15,获取Lb上与Lsa对应的分割弧段Lsb;令vsta=ptin,重复Step12;
Step15、执行Fin(Squ,Lb)=In’:若In’num>1,从In’中提取vsta的最邻近点vsta’和ptin的最邻近点ptin’,Lb上vsta’与ptin’及其间所有顶点构成了Squ剖分的弧段Lsb={vsta’,…,ptin’};否则,Lsb=null;
Step16、La上顶点vsta、va(na)及其间所有顶点构成了Squ剖分的弧段Lsa={vsta,…,va(na)};若需剖分Lb,执行Fin(Squ,Lb)=In’,从In’中提取vsta的最邻近点vsta’,得到与Lsa对应的分割弧段Lsb={vsta,…,vb(nb)};终止。
某化简前、后线要素的剖分过程如图4中(4a)、(4b)、(4c)、(4d)所示,化简前线要素La={va(i);i∈[1,12]}为灰色,化简后线要素Lb={vb(j);j∈[1,7]}为黑色。以va(1)为起点构建第一个剖分方格的过程如图4中(4a)所示,虚线方格为过程方格,实线方格为剖分方格;剖分方格构建结果如图4中(4b)所示;利用剖分方格剖分化简前、后的线要素如图4中(4c)所示;剖分后的弧段结果如图4中(4d)所示。
2)栅格图像样本构建过程。
将生成的nk个剖分方格及其对应的化简前剖分弧段和化简后剖分弧段记为{Squ(k),Lsa(k),Lsb(k);k∈[1,nk]}(nk表示剖分化简前、后线要素后得到的成对的局部弧段数量),先利用剖分格网将线要素闭合为能够反映线要素形态的面状区域,再将闭合的面状区域转换为栅格图像完成样本生成。具体步骤如下:
Step21、构建闭合面域。当k∈[1,nk)时,Squ(k)被Lsa(k)、Lsb(k)分别分割为两部分;当k=nk时,Squ(k)包含线要素终止顶点,需要延长Lsa(k)、Lsb(k)直至与Squ(k)相交,使Squ(k)被Lsa(k)、Lsb(k)分别分割为两部分。由于化简前、后线要素方向一致,可将Lsa(k)和Lsb(k)分割Squ(k)同一侧的闭合区域转为面状区域。
Step22、确定矢量-栅格转换方法及像素尺寸,使线要素局部细节能够清晰表达。栅格图像边长的像素数为sn(sn∈N+),单个像素对应的实际距离记为pd。令像素沿剖分方格排列,满足l=pd·sn,通过像素对剖分方格的无缝覆盖实现矢量-栅格转换。其中,pd影响栅格化后线要素表达的清晰性。将地图上人眼最小可分辨距离记为svo,只需令pd<svo/Sca即可保证线要素栅格化后局部细节依旧清晰。
Step23、学习样本生成。将剖分方格内的对象转为灰度图像,其中不包含于闭合面域内的像素用白色填充,包含于闭合面域内的像素被赋予不为白色的灰度值,并设置不同灰度值以区分化简前、后的栅格图像,成对的化简前、后的栅格图像构成学习样本。
图4中(4d)中化简前、后的线要素被剖分为{Squ(k),Lsa(k),Lsb(k);k∈[1,4]},利用本步骤将k=1和k=4的分割弧段转换生成栅格样本{Ima(1),Imb(1)}和{Ima(4),Imb(4)}的示意过程如图5所示。
2)模型训练过程。
Pix2Pix模型基于损失函数反馈、利用优化算法调整模型参数,实现对线化简形态变换的学习模拟。待学习的化简前、后栅格样本共nm对,所有Ima和Imb的像素值矩阵归一化处理后存入队列,记为{IMa,IMb}nm。采用批量方式交替训练Pix2Pix初始化后的判别器与生成器,具体过程如下;训练结果后,提取Pix2Pix的生成器,用于模拟从化简前到化简后的图像变换。
Step31、从{IMa,IMb}nm的队头取出前bs个成对的IMa、IMb构成一批输入{IMa,IMb}bs,并将取出的IMa和IMb依次补充到{IMa,IMb}nm的队尾,以备重复利用;
Step32、利用{IMa,IMb}bs优化Pix2Pix模型参数。首先固定生成器参数,计算LD并以此为反馈利用优化算法调整判别器参数使Lpix2pix最大化;然后固定判别器参数,计算LG并以此为反馈利用优化算法调整判别器参数使Lpix2pix最小化;
Step33、重复以上步骤ns次训练Pix2Pix模型,使其训练好的生成器的预测准确率不低于95%。当时(其中,ep∈N+且nm>>bs),{IMa,IMb}nm被重复学习了ep次。
4)化简过程。
Step41、将待化简线要素Lc作为化简前线要素,令Lc对应的化简后线要素为空。利用Step12~Step16剖分Lc,得到待化简线要素剖分方格及剖分弧段,记为{Squ(k),Lsc(k);k∈[1,nc]}。
Step42、剖分弧段转换为栅格图像。利用Step21~Step23,将{Squ(k),Lsc(k);k∈[1,nc]}依次转换为栅格图像集合{Imc(k);k∈[1,nc]}。
Step43、将{Imc(k);k∈[1,nc]}内的Imc(k)依次输入训练好的Pix2Pix模型生成器,预测输出的化简后的栅格图像集合{Img(k);k∈[1,nc]}。
Step 44、按如下步骤将{Img(k);k∈[1,nc]}转换为化简后的线要素:
Step 4.4.1、利用canny边缘检测算子提取二值图像Img(k)的外部轮廓,Img(k)的像素值矩阵记为IMg。IMg[i,j]∈{IMg[1,u],IMg[sn,u],IMg[u,1],IMg[u,sn];u=∈[1,sn]},若IMg[i,j]=0,且j=1,且存在IMg[i±1,j]>0或IMg[i,j±1]>0,则IMg[i,j]为线要素的起始像素;若IMg[i,j]=0,且j≠1,且存在IMg[i±1,j]>0或IMg[i,j±1]>0,则IMg[i,j]为线要素的终止像素。将除起止像素外轮廓图像边界上的其他像素均转为空白像素,生成栅格曲线,示例如图6中(6a)所示;
Step 4.4.2、栅格曲线中像素位置记为{[i,j]},其中起始像素位置为[sti,stj],终止像素位置为[eni,enj]。将[sti,stj]加入序列Lis,{[i,j]}={[i,j]}-[sti,stj],遍历{[i,j]}得到使Min(||i-sti,j-stj||2)的i和j,分别记为nei和nej,将[nei,nej]加入Lis。令sti=nei且stj=nej,重复此过程,直至sti=eni且stj=enj时,终止并返回Lis;
Step 4.4.3、因为Img(k)由Imc(k)生成,所以利用从Imc(k)到Lsc(k)的坐标系转换方程即可将栅格曲线中的像素位置转换为矢量弧段的地图坐标。利用Step4.4.1中方法得到Imc(k)中栅格曲线的起始像素位置[sci,scj]和终止像素位置[eci,ecj],Lsc(k)的起始顶点坐标[scx,scy]和终止顶点坐标[ecx,ecy],构建方程组
求解参数dx、dy和θ,构建转换方程
/>
将Lis中像素位置依次输入到此转换方程求解出一系列顶点坐标,将顶点依次串联得到矢量弧段,示例如图6中(6b)所示;
Step 4.4.4、{Img(k);k∈[1,nc]}依次经历以上步骤得到弧段集合{Lg(k);k∈[1,nc]},依次串联集合中的Lg(k)与Lg(k+1)得到合并后的线要素Lg,并利用发表于《Cartography and Geographic Information Science》2013年第5期的《Scale-specificautomated line simplification by vertex clustering on a hexagonaltessellation》中的自相交处理方法消除Lg中的自相交问题,示例如图6中(6c)所示。
Step 45、以单个像素对应的实际距离pd为阈值,利用Douglas-Pucker算法剔除密集排列的冗余顶点,得到最终化简结果,示例如图6中(6d)所示。
为验证本发明效果,进行如下实验:
1、实验数据
大比例尺海岸线蜿蜒绵长,包含多种地理特征和形态表达,是具有代表性的线要素之一;大比例尺海岸线化简需要充分顾及地理一致性和几何相似性,涉及取舍、夸大、移位等诸多操作,具有极高的复杂性。本发明实验针对从1:5万到1:25万的大比例海岸线化简的学习模拟展开,具有一定代表性和挑战性。
实验数据包含了构成新西兰的三大主要岛屿(南岛、北岛、斯图尔特岛)1:5万和1:25万的海岸线数据,其中1:5万和1:25万的南岛、北岛海岸线作为化简前和化简后的线要素用于学习训练,1:5万的斯图尔特岛海岸线用于测试自动化简效果,1:25万的斯图尔特岛海岸线作为标准化简结果用于评估自动化简结果。基于ArcEngine二次开发,实现了线要素剖分、样本生成以及化简结果生成;基于tensorflow搭建了Pix2Pix,在GPU(RTX2060,6G)环境进行训练。通过以下实验,分别验证本发明线要素剖分的有效性和优越性以及线要素化简的合理性与智能性。
2、线要素剖分优越性验证。
令svo=0.2mm;为使栅格样本清晰准确,令pd=0.75·(svo/Sca)=7.5m。利用本发明方法剖分南岛、北岛海岸线构建学习样本5776对,剖分斯图尔特岛海岸线构建测试样本209对。其中,南岛海岸线前3次剖分及构建的成对栅格样本如图7所示。为验证本发明线要素剖分及样本构建方法的优越性,采用地图综合深度学习研究中常用的剖分及样本构建方法构造对照组,即利用规则格网剖分南岛、北岛海岸线并将格网内化简前、后的线要素转换为栅格学习样本5904对,利用规则格网剖分斯图尔特岛海岸线构建测试样本245对,且对照组样本构建过程中格网、像素的相关设置与本发明方法实验设置一致。其中,南岛海岸线基于规则格网剖分构建的部分学习样本如图8所示。
采用Adam算法(学习率为0.0002)作为Pix2Pix的参数优化方法。令bs=16,利用本方法构建的学习样本和对照组学习样本分别训练λ=1、10和100的Pix2Pix模型(分别记为Pix2Pix1_λ和Pix2Pix2_λ)。训练至ep=50时终止并固化模型参数,统计生成器损失函数(LG)变化如图9所示。分别利用测试集测试固化模型的预测效果,计算测试结果的F1度量,如图10所示,并统计最大值、最小值和平均值,如表1所示。其中,F1度量是预测结果与标准结果间查准率与查全率的调和平均,F1度量∈[0,1],F1度量越大预测结果越准确。
分析图9可知:利用本发明方法生成的样本训练Pix2Pix1_λ过程中生成器损失函数都呈现递减趋势,Pix2Pix1_λ都得到有效训练;利用对照组样本训练Pix2Pix2_λ过程中生成器损失函数呈现整体递增趋势,Pix2Pix2_λ并未得到良好训练;Pix2Pix1_λ生成器损失函数值远小于Pix2Pix2_λ生成器损失函数值,Pix2Pix1_λ训练精度更高。本发明的样本构建将线要素转为面要素进行学习,避免了稀疏矩阵影响下损失函数阶梯式变化,利于模型参数自适应调整。从训练过程上看,本发明方法剖分、构建的化简样本能够更好的被Pix2Pix模型学习利用。
分析图10和表1可知:Pix2Pix2_λ测试结果的F1度量趋近于0,模型泛化准确性差,特别是Pix2Pix2_10和Pix2Pix2_100输出的测试结果几乎全不准确,两模型学习失败;而Pix2Pix1_λ测试结果的F1度量都趋近于1,模型泛化准确度高。从测试结果量化评估上看,Pix2Pix1_λ较Pix2Pix2_λ生成的化简结果更加准确,基于本发明方法剖分、构建的化简样本训练的Pix2Pix模型能够被更准确的泛化和应用。
表1测试结果的F1度量统计
输出结果F1度量平均值最高的Pix2Pix1_10和Pix2Pix2_1的部分测试结果详见图11。分析可知:输入Pix2Pix1_10的样本无论形态简单还是复杂,都能生成局部细节被充分化简、整体形态得到良好保持的化简结果;而Pix2Pix2_1只能有效化简形态简单、连续的输入样本,当输入Pix2Pix2_1的样本形态复杂、破碎时生成的化简结果较差。破碎的弧段增加了化简任务的难度和不确定性,而本发明方法将连续剖分的独立弧段作为样本,降低了待学习任务的复杂程度,更容易被Pix2Pix模型准确学习。从化简效果上看,利用本发明方法剖分、构建的样本训练的Pix2Pix模型更适用于模拟线要素化简任务。
3、化简方法智能性验证
将Pix2Pix1_10测试生成的化简图像转化为线化简结果,如图12中(12a)所示;化简结果与原始海岸线叠置,部分结果如图12中(12b)所示。本发明方法有效化简了原始线要素中的诸多局部细节,保持了良好的几何相似性,实现了海岛、海湾形态特征保持,避免了自相交的拓扑问题,无论是简单平滑部分(如图12中(12b)区域1所示),还是曲折复杂部分(如图12中(12b)区域2所示)都得到了较为良好的化简结果。
从化简结果上看,本发明方法具有较高智能性,主要表现在以下方面:
(1)掌握了多种创造性较强的综合操作。大比例尺海岸线化简时,仅对原始顶点取舍难以实现局部形态的合理概括,往往还需要通过插入新顶点、移位原始顶点等创造性处理才能实现良好的概括化简;构成海岸线的弯曲形态复杂多样,不仅需要进行弯曲取舍,还要结合弯曲形态特点有选择地实现弯曲形态渐变、退化等创造性处理;对于某些突出海角、局部狭窄海湾,还要结合地理规律及形态特征进行夸大、移位等主观创作。对于这些智能要求较高、创造性较强的综合操作,在本发明方法的自动化简结果中都有所体现,如图13中(13a)所示。
(2)学习了指导综合操作选择的化简知识,实现了自适应化简。化简过程中往往基于对局部地理特征和几何特征的综合认知选择不同的综合操作,例如泥岸沙滩海岸线形态简单,通过顶点、弯曲取舍即可实现化简处理;为保证溺谷、峡湾的主干特征,化简过程需以弯曲渐变、退化为主;为突出海岬、海角的重要地位,需进行夸大处理。这些化简知识难以“自上而下”地抽象、穷尽,而本发明方法从数据成果中“自下而上”地学习了指导综合操作的化简知识,对平滑的泥岸沙滩、蜿蜒的溺谷峡湾、曲折的海岬海角都取得了良好的自适应化简结果,如图13中(13b)所示。
(3)具有较强的普适性和通用性。本实验中Pix2Pix1_10适用于各种形态、类型海岸线从1:5万化简至1:25万。加入对应尺度道路、水系等其他线要素构建的样本训练模型后,利用本发明方法即可实现多种线要素的自动化简;将构成学习样本的线要素换为其他两个尺度的线要素,利用本发明方法还可实现不同尺度的线要素自动化简。Pix2Pix模型能够面向各种化简样本自适应调整参数,本发明方法对于多种类型线要素多尺度化简的学习模拟适用且通用。
比较自动化简结果与标准化简结果:标准化简结果的位置误差为5.34m,而本发明方法自动化简结果的位置误差为28.87m,结合图14可知,本发明方法自动化简结果的化简程度相对较大。标准化简结果以目标尺度下最小可视距离作为缓冲距构建缓冲区,自动化简结果之于标准化简结果的缓冲区限差为80.54%,即使本发明方法的化简结果与标准结果存在一定差距,但在可视范围内是二者整体形态相似度较高,本发明方法的自动化简结果具有一定合理性。
实施例2
在实施例1所述方法的基础上,如图15所示,本发明还公开一种基于追踪式格网剖分的线要素智能化简装置,包括:
剖分方格构建模块,用于确定化简前、后比例尺,从已有地图综合成果中提取化简前、后的线要素,沿化简前线要素方向连续构建剖分方格;
第一剖分弧段确定模块,用于将剖分方格包含的唯一、连续的化简前线要素的局部弧段作为剖分弧段;
第二剖分弧段确定模块,用于基于剖分方格、化简前剖分弧段确定化简后的剖分弧段;
栅格图像转换模块,用于将剖分方格剖分的化简前、后的局部弧段转换为栅格图像,并将成对的栅格图像作为学习样本;
深度学习模型训练模块,用于选择图像处理深度学习模型,利用学习样本中化简前、后的栅格图像训练深度学习模型;
化简后栅格图像预测模块,用于将剖分方格剖分的待化简线要素的局部弧段转换成的栅格图像输入训练好的深度学习模型,预测化简后的栅格图像;
化简模块,用于将预测的栅格图像转换、合并得到化简后的线要素。
进一步地,所述剖分方格构建模块具体用于:
步骤1.1、构建边长为l的方格:以顶点v(p)为起点,以顶点v(p)到顶点v(q)方向上长为l的线段为对称轴,构建边长为l的方格;
步骤1.2、基于边长为l的方格构建剖分方格:以化简前线要素起始顶点为v(p),以其后一个顶点为v(q),利用步骤1.1中方法构建边长为l的方格;若化简前线要素上v(p)、v(q)及其间所有顶点都包含于方格内,则将下一个顶点作为新的v(q),重复此过程;若化简前线要素上v(p)、v(q)及其间所有顶点中存在不包含于方格内的顶点,则判断此过程是否被重复,若未发生重复,则直接将构建的边长为l的方格作为剖分方格,若发生了重复,则将上一次构建的边长为l的方格作为剖分方格。
进一步地,所述第一剖分弧段确定模块具体用于:
步骤2.1、沿化简前线要素方向依次获取剖分方格与化简前线要素的交点;
步骤2.2、从交点集合中提取v(p)作为起始顶点,提取v(p)后一个交点作为终止顶点,化简前线要素中包含于起、止顶点间的弧段构成了此剖分方格剖分的局部弧段。
进一步地,所述第二剖分弧段确定模块具体用于:
步骤3.1、获取化简后线要素与剖分方格间的所有交点;
步骤3.2、从交点集合中找到与化简前剖分弧段起、止顶点邻近的交点,并将这两个交点作为化简后剖分弧段的起、止顶点,化简后线要素中包含于起、止顶点间的弧段构成了此剖分方格剖分的局部弧段。
进一步地,所述栅格图像转换模块具体用于:
步骤4.1、基于剖分方格将剖分弧段转换为能够反映其形态特征的闭合面域:当剖分方格不包含线要素终止顶点时,剖分弧段与剖分方格有两个交点,剖分弧段及其一侧的剖分方格边界闭合成面状区域;当剖分方格包含线要素终止顶点,剖分弧段与剖分方格有且只有一个交点,延长剖分弧段终止顶点直至与剖分方格相交,延长的剖分弧段及其一侧的剖分方格边界闭合成面状区域;
步骤4.2、利用矢量-栅格转换方法将剖分方格内的闭合面域转换为栅格图像。
进一步地,所述步骤4.2包括:
步骤4.2.1、确定像素尺寸,使满足pd<svo/Sca;其中,pd为单个像素对应的实际距离,svo为地图上人眼最小可分辨距离,Sca为化简前的比例尺;
步骤4.2.2、利用像素填充剖分方格,将剖分方格内对象转换为栅格图像,其中,不包含于闭合面域的像素设置为白色,包含于闭合面域内的像素被赋予不为白色的灰度值。
进一步地,所述化简模块具体用于:
步骤7.1、从预测的化简结果图像中提取栅格曲线,并记录构成栅格曲线的像素;
步骤7.2、对构成栅格曲线的像素进行排序;
步骤7.3、将栅格曲线转换为矢量弧段;
步骤7.4、将矢量弧段依次串连、合并;
步骤7.5、剔除冗余点得到化简后的线要素。
进一步地,所述步骤7.1包括:
步骤7.1.1、利用边缘检测算子提取预测的化简结果图像的外部轮廓,得到轮廓图像;
步骤7.1.2、遍历轮廓图像四条边界的所有像素,确定栅格曲线的起、止像素的位置;
步骤7.1.3、将除起、止像素外轮廓图像边界上的其他像素均转为空白像素,记录构成栅格曲线的像素。
进一步地,所述步骤7.3包括:
步骤7.3.1、构建从像素位置到顶点坐标的转换方程;
步骤7.3.2、将排序后构成栅格曲线的像素依次转换为顶点坐标,并串联顶点生成矢量弧段。
以上所示仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (4)

1.一种基于追踪式格网剖分的线要素智能化简方法,其特征在于,包括:
步骤1、确定化简前、后比例尺,从已有地图综合成果中提取化简前、后的线要素,沿化简前线要素方向连续构建剖分方格;
步骤2、将剖分方格包含的唯一、连续的化简前线要素的局部弧段作为剖分弧段;
步骤3、基于剖分方格、化简前剖分弧段确定化简后的剖分弧段;
步骤4、将剖分方格剖分的化简前、后的局部弧段转换为栅格图像,并将成对的栅格图像作为学习样本;
步骤5、选择图像处理深度学习模型,利用学习样本中化简前、后的栅格图像训练深度学习模型;
步骤6、将剖分方格剖分的待化简线要素的局部弧段转换成的栅格图像输入训练好的深度学习模型,预测化简后的栅格图像;
步骤7、将预测的栅格图像转换、合并得到化简后的线要素;
所述步骤1包括:
步骤1.1、构建边长为l的方格:以顶点v(p)为起点,以顶点v(p)到顶点v(q)方向上长为l的线段为对称轴,构建边长为l的方格;
步骤1.2、基于边长为l的方格构建剖分方格:以化简前线要素起始顶点为v(p),以其后一个顶点为v(q),利用步骤1.1中方法构建边长为l的方格;若化简前线要素上v(p)、v(q)及其间所有顶点都包含于方格内,则将下一个顶点作为新的v(q),重复此过程;若化简前线要素上v(p)、v(q)及其间所有顶点中存在不包含于方格内的顶点,则判断此过程是否被重复,若未发生重复,则直接将构建的边长为l的方格作为剖分方格,若发生了重复,则将上一次构建的边长为l的方格作为剖分方格;
所述步骤4包括:
步骤4.1、基于剖分方格将剖分弧段转换为能够反映其形态特征的闭合面域:当剖分方格不包含线要素终止顶点时,剖分弧段与剖分方格有两个交点,剖分弧段及其一侧的剖分方格边界闭合成面状区域;当剖分方格包含线要素终止顶点,剖分弧段与剖分方格有且只有一个交点,延长剖分弧段终止顶点直至与剖分方格相交,延长的剖分弧段及其一侧的剖分方格边界闭合成面状区域;
步骤4.2、利用矢量-栅格转换方法将剖分方格内的闭合面域转换为栅格图像;
所述步骤4.2包括:
步骤4.2.1、确定像素尺寸,使满足pd<svo/Sc a ;其中,pd为单个像素对应的实际距离,svo为地图上人眼最小可分辨距离,Sc a 为化简前的比例尺;
步骤4.2.2、利用像素填充剖分方格,将剖分方格内对象转换为栅格图像,其中,不包含于闭合面域的像素设置为白色,包含于闭合面域内的像素被赋予不为白色的灰度值;
所述步骤7包括:
步骤7.1、从预测的化简结果图像中提取栅格曲线,并记录构成栅格曲线的像素;
步骤7.2、对构成栅格曲线的像素进行排序;
步骤7.3、将栅格曲线转换为矢量弧段;
步骤7.4、将矢量弧段依次串连、合并;
步骤7.5、剔除冗余点得到化简后的线要素;
所述步骤7.1包括:
步骤7.1.1、利用边缘检测算子提取预测的化简结果图像的外部轮廓,得到轮廓图像;
步骤7.1.2、遍历轮廓图像四条边界的所有像素,确定栅格曲线的起、止像素的位置;
步骤7.1.3、将除起、止像素外轮廓图像边界上的其他像素均转为空白像素,记录构成栅格曲线的像素;
所述步骤7.3包括:
步骤7.3.1、构建从像素位置到顶点坐标的转换方程;
步骤7.3.2、将排序后构成栅格曲线的像素依次转换为顶点坐标,并串联顶点生成矢量弧段。
2.根据权利要求1所述的一种基于追踪式格网剖分的线要素智能化简方法,其特征在于,所述步骤2包括:
步骤2.1、沿化简前线要素方向依次获取剖分方格与化简前线要素的交点;
步骤2.2、从交点集合中提取v(p)作为起始顶点,提取v(p)后一个交点作为终止顶点,化简前线要素中包含于起、止顶点间的弧段构成了此剖分方格剖分的局部弧段。
3.根据权利要求1所述的一种基于追踪式格网剖分的线要素智能化简方法,其特征在于,所述步骤3包括:
步骤3.1、获取化简后线要素与剖分方格间的所有交点;
步骤3.2、从交点集合中找到与化简前剖分弧段起、止顶点邻近的交点,并将这两个交点作为化简后剖分弧段的起、止顶点,化简后线要素中包含于起、止顶点间的弧段构成了此剖分方格剖分的局部弧段。
4.一种基于追踪式格网剖分的线要素智能化简装置,其特征在于,包括:
剖分方格构建模块,用于确定化简前、后比例尺,从已有地图综合成果中提取化简前、后的线要素,沿化简前线要素方向连续构建剖分方格;
第一剖分弧段确定模块,用于将剖分方格包含的唯一、连续的化简前线要素的局部弧段作为剖分弧段;
第二剖分弧段确定模块,用于基于剖分方格、化简前剖分弧段确定化简后的剖分弧段;
栅格图像转换模块,用于将剖分方格剖分的化简前、后的局部弧段转换为栅格图像,并将成对的栅格图像作为学习样本;
深度学习模型训练模块,用于选择图像处理深度学习模型,利用学习样本中化简前、后的栅格图像训练深度学习模型;
化简后栅格图像预测模块,用于将剖分方格剖分的待化简线要素的局部弧段转换成的栅格图像输入训练好的深度学习模型,预测化简后的栅格图像;
化简模块,用于将预测的栅格图像转换、合并得到化简后的线要素;
所述剖分方格构建模块具体用于:
步骤1.1、构建边长为l的方格:以顶点v(p)为起点,以顶点v(p)到顶点v(q)方向上长为l的线段为对称轴,构建边长为l的方格;
步骤1.2、基于边长为l的方格构建剖分方格:以化简前线要素起始顶点为v(p),以其后一个顶点为v(q),利用步骤1.1中方法构建边长为l的方格;若化简前线要素上v(p)、v(q)及其间所有顶点都包含于方格内,则将下一个顶点作为新的v(q),重复此过程;若化简前线要素上v(p)、v(q)及其间所有顶点中存在不包含于方格内的顶点,则判断此过程是否被重复,若未发生重复,则直接将构建的边长为l的方格作为剖分方格,若发生了重复,则将上一次构建的边长为l的方格作为剖分方格;
所述栅格图像转换模块具体用于:
步骤4.1、基于剖分方格将剖分弧段转换为能够反映其形态特征的闭合面域:当剖分方格不包含线要素终止顶点时,剖分弧段与剖分方格有两个交点,剖分弧段及其一侧的剖分方格边界闭合成面状区域;当剖分方格包含线要素终止顶点,剖分弧段与剖分方格有且只有一个交点,延长剖分弧段终止顶点直至与剖分方格相交,延长的剖分弧段及其一侧的剖分方格边界闭合成面状区域;
步骤4.2、利用矢量-栅格转换方法将剖分方格内的闭合面域转换为栅格图像;
所述步骤4.2包括:
步骤4.2.1、确定像素尺寸,使满足pd<svo/Sc a ;其中,pd为单个像素对应的实际距离,svo为地图上人眼最小可分辨距离,Sc a 为化简前的比例尺;
步骤4.2.2、利用像素填充剖分方格,将剖分方格内对象转换为栅格图像,其中,不包含于闭合面域的像素设置为白色,包含于闭合面域内的像素被赋予不为白色的灰度值;
所述化简模块具体用于:
步骤7.1、从预测的化简结果图像中提取栅格曲线,并记录构成栅格曲线的像素;
步骤7.2、对构成栅格曲线的像素进行排序;
步骤7.3、将栅格曲线转换为矢量弧段;
步骤7.4、将矢量弧段依次串连、合并;
步骤7.5、剔除冗余点得到化简后的线要素;
进一步地,所述步骤7.1包括:
步骤7.1.1、利用边缘检测算子提取预测的化简结果图像的外部轮廓,得到轮廓图像;
步骤7.1.2、遍历轮廓图像四条边界的所有像素,确定栅格曲线的起、止像素的位置;
步骤7.1.3、将除起、止像素外轮廓图像边界上的其他像素均转为空白像素,记录构成栅格曲线的像素;
进一步地,所述步骤7.3包括:
步骤7.3.1、构建从像素位置到顶点坐标的转换方程;
步骤7.3.2、将排序后构成栅格曲线的像素依次转换为顶点坐标,并串联顶点生成矢量弧段。
CN202010574156.6A 2020-06-22 2020-06-22 一种基于追踪式格网剖分的线要素智能化简方法与装置 Active CN111881919B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010574156.6A CN111881919B (zh) 2020-06-22 2020-06-22 一种基于追踪式格网剖分的线要素智能化简方法与装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010574156.6A CN111881919B (zh) 2020-06-22 2020-06-22 一种基于追踪式格网剖分的线要素智能化简方法与装置

Publications (2)

Publication Number Publication Date
CN111881919A CN111881919A (zh) 2020-11-03
CN111881919B true CN111881919B (zh) 2024-02-20

Family

ID=73157724

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010574156.6A Active CN111881919B (zh) 2020-06-22 2020-06-22 一种基于追踪式格网剖分的线要素智能化简方法与装置

Country Status (1)

Country Link
CN (1) CN111881919B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113486135B (zh) * 2021-07-27 2024-04-12 中南大学 基于深度学习网络的建筑物综合方法
CN115100322B (zh) * 2022-07-23 2023-05-12 中国人民解放军战略支援部队信息工程大学 一种监督学习支持的多化简算法协同的线要素自适应化简方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102004922A (zh) * 2010-12-01 2011-04-06 南京大学 基于骨架特征的高分辨率遥感影像飞机提取方法
WO2019054593A1 (ko) * 2017-09-13 2019-03-21 주식회사 다비오 기계학습과 이미지 프로세싱을 이용한 지도 제작 장치
CN110188778A (zh) * 2019-05-31 2019-08-30 中国人民解放军61540部队 基于影像提取结果的居民区要素轮廓规则化方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102004922A (zh) * 2010-12-01 2011-04-06 南京大学 基于骨架特征的高分辨率遥感影像飞机提取方法
WO2019054593A1 (ko) * 2017-09-13 2019-03-21 주식회사 다비오 기계학습과 이미지 프로세싱을 이용한 지도 제작 장치
CN110188778A (zh) * 2019-05-31 2019-08-30 中国人民解放军61540部队 基于影像提取结果的居民区要素轮廓规则化方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
田峰敏 ; 赵玉新 ; 李磊 ; 张清江 ; .由矢量电子海图构建海底TIN DEM方法研究.哈尔滨工程大学学报.2009,(02),全文. *

Also Published As

Publication number Publication date
CN111881919A (zh) 2020-11-03

Similar Documents

Publication Publication Date Title
Wickramasinghe et al. Voxel2mesh: 3d mesh model generation from volumetric data
CN111724478B (zh) 一种基于深度学习的点云上采样方法
CN113298818B (zh) 基于注意力机制与多尺度特征的遥感图像建筑物分割方法
CN109493346B (zh) 一种基于多损失的胃癌病理切片图像分割方法和装置
US20210027532A1 (en) Primitive-based 3d building modeling, sensor simulation, and estimation
Shan et al. Simulation-based lidar super-resolution for ground vehicles
CN111259906B (zh) 含多级通道注意力的条件生成对抗遥感图像目标分割方法
CN110728658A (zh) 一种基于深度学习的高分辨率遥感影像弱目标检测方法
CN112257597B (zh) 一种点云数据的语义分割方法
CN111028327B (zh) 一种三维点云的处理方法、装置及设备
CN111881919B (zh) 一种基于追踪式格网剖分的线要素智能化简方法与装置
CN114092697B (zh) 注意力融合全局和局部深度特征的建筑立面语义分割方法
CN111652240B (zh) 一种基于cnn的图像局部特征检测与描述方法
CN111127538A (zh) 一种基于卷积循环编码-解码结构的多视影像三维重建方法
CN110738132B (zh) 一种具备判别性感知能力的目标检测质量盲评价方法
Shen et al. A new approach to simplifying polygonal and linear features using superpixel segmentation
CN112767405A (zh) 一种基于图注意力网络的三维网格模型分割方法及系统
CN114548606B (zh) 一种气旋强度预测模型的构建方法及气旋强度预测方法
JP4170096B2 (ja) 対象の3次元表面上にマップされた3次元メッシュモデルの適合性評価のための画像処理装置
CN114659530A (zh) 用于智能机器人路径规划的网格模型地图构建方法
CN115147798A (zh) 可行驶区域预测方法、模型、装置及车辆
CN109166183B (zh) 一种解剖标志点识别方法及识别设备
Buck et al. Ignorance is bliss: flawed assumptions in simulated ground truth
CN116758219A (zh) 基于神经网络的区域感知多视角立体匹配三维重建方法
CN115619953A (zh) 一种面向崎岖地形的移动机器人地形建图方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant