CN113688873A - 一种具有直观交互能力的矢量路网生成方法 - Google Patents

一种具有直观交互能力的矢量路网生成方法 Download PDF

Info

Publication number
CN113688873A
CN113688873A CN202110856411.0A CN202110856411A CN113688873A CN 113688873 A CN113688873 A CN 113688873A CN 202110856411 A CN202110856411 A CN 202110856411A CN 113688873 A CN113688873 A CN 113688873A
Authority
CN
China
Prior art keywords
map
network
road network
vector
density
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110856411.0A
Other languages
English (en)
Other versions
CN113688873B (zh
Inventor
周霈驰
李晨
王长波
秦洪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
East China Normal University
Original Assignee
East China Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by East China Normal University filed Critical East China Normal University
Priority to CN202110856411.0A priority Critical patent/CN113688873B/zh
Publication of CN113688873A publication Critical patent/CN113688873A/zh
Application granted granted Critical
Publication of CN113688873B publication Critical patent/CN113688873B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Remote Sensing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种具有直观交互能力的矢量路网生成方法,其特点是基于地理图和可选的用户交互,快速生成布局合理的路网,其步骤具体包括:1)用户输入需要设计路网的地形高程图以及相应的水系分布图和植被分布图,由密度图生成网络综合地理条件的约束预估在各个位置道路出现的概率,形成表示道路出现概率大小的密度图;2)根据密度图生成网络生成的密度图和用户输入的地理图,矢量路网生成网络就能输出一组矢量的路网数据。本发明与现有技术相比具有用户通过简单的交互快速生成符合预期、布局合理的路网,较好的避免了传统基于图像的路网生成方法可能会出现的模糊问题,可广泛用于三维交互式图形应用于各种复杂地理地图的布局合理的道路网络。

Description

一种具有直观交互能力的矢量路网生成方法
技术领域
本发明涉及计算机图形学技术领域,具体地说是一种根据给定地理图像输入生成具有直观交互能力的矢量路网方法。
背景技术
路网生成作为城市建模的核心部分,在游戏、城市规划、自动驾驶和灾难模拟等应用中越来越受关注。然而,路网的设计需要许多不同领域的专业知识,因为现有路网的各种风格是由许多因素综合作用的结果,包括地形、人口和土地使用策略。在传统的建模工作中,设计者需要反复手工调整模型,这是相当耗时和乏味的,特别是当建模对象为大规模的城市场景时。
近年来有许多路网建模的方法被提出。过程化建模通过选定规则和设置特定的参数来生成模型,这使得它在轻量化传输中得到了广泛应用,但由于参数的物理意义不够直观,用户必须具备各种专业知识来处理相应的规则和参数。基于样例的方法可以从输入样本中提取补丁,并拼接这些补丁生成新的路网,同时也可以根据样本的统计特征扩展现有的路网。尽管如此,通过有限的统计指标或路网补丁很难反映真实路网的模式。另一方面,研究人员在基于模拟的方法中考虑了多种因素(交通可达性、土地利用和就业机会、几何特征),用耗时的数值模拟来展示路网的动态变化。
现有技术的路网生成需要许多不同领域的专业知识,反复手工调整模型,不但耗时长,而且生成的路网会出现模糊的问题,很难反映真实路网,效率低下。
发明内容
本发明的目的是针对现有技术的不足而提供的一种具有直观交互能力的矢量路网生成方法,采用学习多种数据之间的潜在关联并结合图像翻译网络与图生成网络的方法,自动生成相同风格的路网,借用大量训练数据以及人工神经网络,根据给定地理图像输入生成布局合理的矢量路网,无需专业知识或人工特征的指导,就能正确反映真实路网,方法简便,易操作,效率高。
本发明的目的是这样实现的:一种具有直观交互能力的矢量路网生成方法,其特点是基于图生成网络生成矢量化路网,根据给定的地理图和可选的用户交互,快速生成布边界清晰,布局合理的路网,所述图生成网络生成矢量路网具体包括以下步骤:
(一)、基于图像翻译模型的密度图生成
1)获取中心坐标匹配,缩放等级一致的高程图,水体分布图,植被分布图作为地理图训练样本;
2)对与地理图对应位置的道路进行采样和重绘制,生成简化的道路图像,再用显著性检测模型检测道路分布,生成密度图训练样本;
3)用道路交点,水体分布图与植被分布图模拟用户输入,生成用户编辑图;由地理图,用户编辑图和密度图样本构成密度图生成数据集;
4)构建并训练密度图生成网络;
5)利用训练后的密度图生成网络,通过输入地理图与可选的用户编辑进行密度图生成;
6)对道路图像做形态学操作获取像素宽度为1的骨架,遍历道路骨架获取各个道路交点的坐标;
7)遍历所有相连的道路交点之间的点,指定遍历起始交点作为关键点,对于每一个当前遍历点做关键点和该点的连线,与关键点切线的夹角若大于30度则将该点采样并作为下一个关键点,直至遍历到另一个交点;将采样后的路网绘制成图像并用显著性检测模型生成表示道路出现概率大小的密度图;
8)提取简化道路图的交点,单独绘制出道路交点图像,将水体分布图与植被分布图二值化后相加,绘制出表示无道路通过区域的蒙版图像,用道路交点图像和蒙版图像模拟用户编辑图;
9)收集若干组地理图,用户编辑图以及对应的密度图样本作为训练数据集。
所述地理图包括:高程图、水系分布图和植被分布图。
所述构建并训练密度图生成网络具体包括:
a、密度图生成器
1)输入层的维度与输出层数据维度相同,该网络为全卷积网路,对输入尺寸不做限制;
2)通过三次卷积操作对输入数据进行下采样,然后经过一系列不改变特征图尺寸的空洞卷积操作,之后再用反卷积操作对特征图进行上采样,得到密度图输出;
3)下采样与上采样过程中,相同尺寸的特征图会经过跳跃连接进行拼接,特征在拼接前经过注意力机制加权;
4)由下述I式计算密度图生成器的输出层误差LGAN(G):
LGAN(G)=Ex,y[||y-G(x)||1]-Ex[Dy(G(x))] (I);
其中:G为生成器;E为数据的分布;x为地理图与用户编辑图输入;y表示与输入对应的真实密度图;G(x)为生成器根据输入x生成的密度图;Dy为判断数据与y分布一致程度的判别器;||y-G(x)||1为y与G(x)之间的L1距离;
5)得到输出层误差后,利用反向传播算法,得到内部隐含层中的节点误差,并利用梯度下降算法调整节点间的权值,提高非线性拟合能力。
b、判别器
1)对密度图进行3次下采样,将最后一层的输出压平为向量形式;
2)连接压平层与全连接层,输出层的节点数为1;
3)由下述II式计算判别器的输出层误差LGAN(D):
LGAN(D)=Ey[Dy(y)]-Ex[Dx(x)]-Ex[Dy(G(x))] (II);
其中:G为生成器;E为数据的分布;x为地理图与用户编辑图输入;y为与输入对应的真实密度图;G(x)为生成器根据输入x生成的密度图;dx为判断数据与x分布一致程度的判别器;Dy为判断数据与y的分布一致程度的判别器;
4)得到输出层误差后,利用反向传播算法,得到内部隐含层中的节点误差,并利用梯度下降算法调整节点间的权值,提高非线性拟合能力。
c、输入需要生成路网的地理图,用标记点的形式指定期望道路生成的区域,用涂抹区域的方式指定不希望道路生成的区域,将两种编辑合并作为用户编辑图,通过密度图生成网络得到密度图。
(二)、基于图生成模型的矢量路网生成
1)采集密度图和与之匹配的道路的矢量化序列作为训练样本并生成训练数据集;
2)基于Transformer与卷积层和全连接层构建矢量路网生成网络;
3)利用训练后的矢量路网生成网络生成矢量路网;
3)将采样后的道路以二维顶点坐标和该顶点对应的邻接向量的形式,并以广度优先遍历的顺序保存,取左上角第一个未遍历的顶点为起始点开始遍历,对于有多个连通分量的情况同理;
4)将该矢量化序列(矢量化的道路图)与对应的密度图作为训练数据集。
所述矢量路网生成网络由卷积层、Transformer和全连接层构成,具体包括:
1)三个卷积层将密度图与对应的地理图编码并压平成向量的形式;
2)Transformer计算图像特征与已生成顶点坐标与邻接向量之间的关联;
3)两个全连接层分别将Transformer输出的特征转换成新顶点的坐标与邻接向量;
4)由下述III式计算矢量路网生成网络的输出层误差Lgraph
Lgraph=λgMSE(X,Xˊ)+(1-λg)BCE(A,Aˊ) (III);
其中:X和Xˊ分别为顶点坐标的真值与网络预测的顶点坐标;A和Aˊ分别为邻接向量的真值与网络预测值;λg为计算邻接向量与顶点坐标误差的权重;MSE为均方误差;为BCE表示二元交叉熵;
5)将矢量路网生成网络的输出层误差Lgraph输利用反向传播算法,得到内部隐含层中的节点误差,并利用梯度下降算法调整节点间的权值,提高非线性拟合能力。
本发明与现有技术相比具有根据密度图生成网络生成的密度图和用户输入的地理图,矢量路网生成网络就能输出一组矢量的路网数据,无需专业知识或人工特征的指导,就能正确反映真实路网,为路网建模和编辑提供了用户友好的交互方式,用户可以通过简单的交互快速生成符合预期的、布局合理的路网,较好的避免了传统基于图像的路网生成方法可能会出现的模糊问题。
附图说明
图1为本发明流程示意图;
图2为密度图生成网络示意图;
图3为道路图生成网络示意图;
图4为用户交互编辑密度图生成效果示意图;
图5为从输入域高程图到生成相应矢量路网的效果示意图。
具体实施方式
下面以具体实施对本发明作进一步详细描述和说明:
参阅图1,按下述步骤进行矢量路网生成:
一、密度图的生成
参阅图2,基于图像翻译模型的密度图生成具体包括下述步骤:
1)获取中心坐标匹配,缩放等级一致的高程图,水体分布图,植被分布图作为地理图训练样本。
2)对与地理图对应位置的道路进行采样和重绘制,生成简化的道路图像,再用显著性检测模型检测道路分布,生成密度图训练样本。
3)用道路交点,水体分布图与植被分布图模拟用户输入,生成用户编辑图。
4)由地理图,用户编辑图和密度图样本构成密度图生成数据集。
5)构建并训练密度图生成网络。
6)利用训练后的密度图生成网络,通过输入地理图与可选的用户编辑进行密度图生成;
7)对道路图像做形态学操作获取像素宽度为1的骨架,遍历道路骨架获取各个道路交点的坐标。
8)遍历所有相连的道路交点之间的点,指定遍历起始交点作为关键点,对于每一个当前遍历点做关键点和该点的连线,与关键点切线的夹角若大于30度则将该点采样并作为下一个关键点,直至遍历到另一个交点。
9)将采样后的路网绘制成图像并用显著性检测模型生成表示道路出现概率大小的密度图。
10)提取简化道路图的交点,单独绘制出道路交点图像,将水体分布图与植被分布图二值化后相加,绘制出表示无道路通过区域的蒙版图像,用道路交点图像和蒙版图像模拟用户编辑图,收集若干组地理图,用户编辑图以及对应的密度图样本作为训练数据集。
参阅图2,所述密度图生成网络具体包括:
a、密度图生成器
1)输入层的维度与输出层数据维度相同,该网络为全卷积网路,对输入尺寸不做限制。
2)通过三次卷积操作对输入数据进行下采样,然后经过一系列不改变特征图尺寸的空洞卷积操作,之后再用反卷积操作对特征图进行上采样,得到密度图输出。
3)下采样与上采样过程中,相同尺寸的特征图会经过跳跃连接进行拼接,特征在拼接前经过注意力机制加权。
4)由下述I式计算密度图生成器的输出层误差LGAN(G):
LGAN(G)=Ex,y[||y-G(x)||1]-Ex[Dy(G(x))] (I);
其中:G为生成器;E为数据的分布;x为地理图与用户编辑图输入;y表示与输入对应的真实密度图;G(x)为生成器根据输入x生成的密度图;Dy为判断数据与y分布一致程度的判别器;||y-G(x)||1为与G(x)之间的L1距离。
5)将密度图生成器的输出层误差LGAN(G)利用反向传播算法,得到内部隐含层中的节点误差,并利用梯度下降算法调整节点间的权值,提高非线性拟合能力。
b、判别器:
1)对密度图进行3次下采样,将最后一层的输出压平为向量形式。
2)连接压平层与全连接层,输出层的节点数为1。
3)由下述II式计算判别器的输出层误差LGAN(D):
LGAN(D)=Ey[Dy(y)]-Ex[Dx(x)]-Ex[Dy(G(x))] (II);
其中:G为生成器;E为数据的分布;x为地理图与用户编辑图输入;y为与输入对应的真实密度图;G(x)为生成器根据输入x生成的密度图;Dx为判断数据与x分布一致程度的判别器;Dy为判断数据与y的分布一致程度的判别器。
4)得到输出层误差后,利用反向传播算法,得到内部隐含层中的节点误差,并利用梯度下降算法调整节点间的权值,提高非线性拟合能力。
c、输入需要生成路网的地理图,用标记点的形式指定期望道路生成的区域,用涂抹区域的方式指定不希望道路生成的区域,将两种编辑合并作为用户编辑图,通过密度图生成网络得到密度图。
二、矢量路网的生成
基于图生成模型的矢量路网生成具体包括:
1)采集密度图和与之匹配道路的矢量化序列作为训练样本并生成训练数据集。
2)基于Transformer与卷积层,全连接层构建道路图生成网络;利用训练后的道路图生成网络生成矢量路网。
3)将采样后的道路以二维顶点坐标和该顶点对应的邻接向量的形式,并以广度优先遍历的顺序保存,取左上角第一个未遍历的顶点为起始点开始遍历,对于有多个连通分量的情况同理;将该矢量化序列(矢量化的道路图)与对应的密度图作为训练数据集。
参阅图3,所述矢量路网生成网络由卷积层、Transformer和全连接层构成,具体包括:
1)三个卷积层将密度图与对应的地理图编码并压平成向量的形式。
2)Transformer计算图像特征与已生成顶点坐标与邻接向量之间的关联。
3)两个全连接层分别将Transformer输出的特征转换成新顶点的坐标与邻接向量。
4)由下述III式计算矢量路网生成网络的输出层误差Lgraph
Lgraph=λgMSE(X,Xˊ)+(1-λg)BCE(A,Aˊ) (III);
其中:X和Xˊ分别为顶点坐标的真值与网络预测的顶点坐标;A和Aˊ分别为邻接向量的真值与网络预测值;λg为计算邻接向量与顶点坐标误差的权重;MSE为均方误差;为BCE表示二元交叉熵。
5)将矢量路网生成网络的输出层误差Lgraph利用反向传播算法,得到内部隐含层中的节点误差,并利用梯度下降算法调整节点间的权值,提高非线性拟合能力。
本发明是这样使用的:用户将高程图输入上述训练后的密度图生成网络,用户的交点标记与区域标记,即用户编辑,生成相应的密度图,并在各个高程图上编辑生成的密度图,通过用户输入的地理图和密度图生成网络生成的密度图,矢量路网生成网络就能输出一组矢量的路网数据,自动生成具有直观交互能力的矢量路网。
参阅图4,本发明能够结合高程图的特征与用户标记的意图生成密度图,用户将高程图与用户编辑图输入密度图生成网络后即可得到相应的密度图。该密度图边界清晰,布局合理,直观的展示了各个位置上道路生成的可能性。
参阅图5,用户将高程图与用户编辑图输入密度图生成网络后即可得到相应的密度图,通过将生成的密度图与地理图输入到矢量路网生成网络即可获得一组矢量的路网数据,自动生成具有直观交互能力的矢量路网。
本发明能够结合地理图特征与用户编辑,生成的密度图合理的反映了用户的编辑意图,同时符合地形约束,生成的矢量化路网也很好的符合了相应的密度图。根据密度图生成网络生成的密度图和用户输入的地理图,矢量路网生成网络就能输出一组矢量的路网数据。
以上列举的仅是本发明的具体实施例。显然,本发明不限于以上实施例,还可以有许多等效实施,本领域的普通技术人员能从本发明公开的内容直接导出或联想到的所有变形,均应认为是本发明的保护范围。

Claims (7)

1.一种具有直观交互能力的矢量路网生成方法,其特征在于基于图生成网络生成矢量化路网,根据给定的地理图和可选的用户交互,快速生成边界清晰,布局合理的路网,所述图生成网络生成矢量路网具体包括以下步骤:
(一)、密度图的生成
1-1:获取中心坐标匹配,缩放等级一致的地理图、用户编辑图和密度图作为密度图生成网络训练数据集;
1-2:构建并训练密度图生成网络;
1-3:利用训练后的密度图生成网络,通过地理图与可选的用户编辑生成基于图像翻译模型的密度图;
(二)、矢量化路网的生成
基于图生成网络生成矢量化路网具体包括:
2-1:获取矢量化路网序列,用密度图训练样本与相应的矢量化路网序列构成矢量路网生成网络训练数据集;
2-2:构建并训练矢量路网生成网络;
2-3:利用训练后的矢量路网生成网络,通过用户输入的地理图和密度图生成网络生成的密度图,矢量路网生成网络就能输出一组矢量的路网数据,自动生成具有直观交互能力的矢量路网。
2.根据权利要求2所述具有直观交互能力的矢量路网生成方法,其特征在于所述步骤1-1的密度图生成网络训练数据集具体包括:
1)获取中心坐标匹配,缩放等级一致的高程图,水体分布图,植被分布图作为地理图训练样本;
2)对与地理图对应位置的道路进行采样和重绘制,生成简化的道路图像,然后用显著性检测模型检测道路分布,生成密度图训练样本;
3)用道路交点、水体分布图和植被分布图模拟用户输入,生成用户编辑图;
4)由地理图、用户编辑图和密度图样本构成密度图生成数据集。
3.根据权利要求1所述具有直观交互能力的矢量路网生成方法,其特征在于所述步骤1-2的构建并训练密度图生成网络具体包括:
a、密度图生成器
1)输入层的维度与输出数据维度相同,对输入尺寸不做限制;
2)通过三次卷积操作对输入数据进行下采样,然后经一系列不改变特征图尺寸的空洞卷积操作,再用反卷积操作对特征图进行上采样,得到输出;
3)下采样与上采样过程中,相同尺寸的特征图会经过跳跃连接进行拼接,特征在拼接前经注意力机制加权;
4)由下述I式计算密度图生成器的输出层误差LGAN(G):
LGAN(G)=Ex,y[||y-G(x)||1]-Ex[Dy(G(x))] (I);
其中:G为生成器;E为数据的分布;x为地理图与用户编辑图输入;y表示与输入对应的真实密度图;G(x)为生成器根据输入x生成的密度图;Dy为判断数据与y分布一致程度的判别器;||y-G(x)||1为y与G(x)之间的L1距离;
5)将密度图生成器的输出层误差LGAN(G)利用反向传播算法,得到内部隐含层中的节点误差,并利用梯度下降算法调整节点间的权值;
b、判别器
1)对密度图进行3次下采样,将最后一层的输出压平为向量形式;
2)连接压平层与全连接层,输出层的节点数为1;
3)由下述II式计算判别器的输出层误差LGAN(D):
LGAN(D)=Ey[Dy(y)]-Ex[Dx(x)]-Ex[Dy(G(x))] (II);
其中:G为生成器;E为数据的分布;x为地理图与用户编辑图输入;y为与输入对应的真实密度图;G(x)为生成器根据输入x生成的密度图;Dx为判断数据与x分布一致程度的判别器;Dy为判断数据与y的分布一致程度的判别器;
4)将判别器的输出层误差LGAN(D)利用反向传播算法,得到内部隐含层中的节点误差,并利用梯度下降算法调整节点间的权值。
4.根据权利要求1所述具有直观交互能力的矢量路网生成方法,其特征在于所述步骤2-1的矢量路网生成网络训练数据集具体包括:
1)对道路图像做形态学操作获取像素宽度为1的骨架,遍历道路骨架获取各个节点的坐标;
2)遍历所有相连的顶点,从起始点出发,对于每一个当前遍历点做出发点和该点的连线,与出发点切线的夹角若大于30度则将该点采样并作为下一个起点,直至遍历到另一个顶点。
5.根据权利要求1所述具有直观交互能力的矢量路网生成方法,其特征在于所述步骤
(二)中的矢量路网生成网络由卷积层、Transformer和全连接层构成,具体包括:
1)三个卷积层将密度图与对应的地理图编码并压平成向量的形式;
2)Transformer计算图像特征与已生成顶点坐标与邻接向量之间的关联;
3)两个全连接层分别将Transformer输出的特征转换成新顶点的坐标与邻接向量。
6.根据权利要求1所述具有直观交互能力的矢量路网生成方法,其特征在于所述地理图为高程图、水体分布图和植被分布图。
7.根据权利要求1或权利要求4所述具有直观交互能力的矢量路网生成方法,其特征在于所述矢量路网生成网络的输出层误差Lgraph由下述III式计算:
Lgraph=λgMSE(X,X′)+(1-λg)BCE(A,A′) (III);
其中:X和X′分别为顶点坐标的真值与网络预测的顶点坐标;A和A′分别为邻接向量的真值与网络预测值;λg为计算邻接向量与顶点坐标误差的权重;MsE为均方误差;为BCE表示二元交叉熵。
CN202110856411.0A 2021-07-28 2021-07-28 一种具有直观交互能力的矢量路网生成方法 Active CN113688873B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110856411.0A CN113688873B (zh) 2021-07-28 2021-07-28 一种具有直观交互能力的矢量路网生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110856411.0A CN113688873B (zh) 2021-07-28 2021-07-28 一种具有直观交互能力的矢量路网生成方法

Publications (2)

Publication Number Publication Date
CN113688873A true CN113688873A (zh) 2021-11-23
CN113688873B CN113688873B (zh) 2023-08-22

Family

ID=78578076

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110856411.0A Active CN113688873B (zh) 2021-07-28 2021-07-28 一种具有直观交互能力的矢量路网生成方法

Country Status (1)

Country Link
CN (1) CN113688873B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000276476A (ja) * 1999-03-24 2000-10-06 Hitachi Eng Co Ltd 道路地図ベクトル化方法および装置
CN109086668A (zh) * 2018-07-02 2018-12-25 电子科技大学 基于多尺度生成对抗网络的无人机遥感影像道路信息提取方法
US20200372243A1 (en) * 2018-06-11 2020-11-26 Tencent Technology (Shenzhen) Company Limited Image processing method and apparatus, facial recognition method and apparatus, and computer device
CN112115569A (zh) * 2020-09-15 2020-12-22 中国科学院城市环境研究所 一种城市路网密度图生成方法、介质及设备
CN112115844A (zh) * 2020-09-15 2020-12-22 中国科学院城市环境研究所 基于多源遥感影像和路网数据的城市人口数据分析方法
CN112837393A (zh) * 2019-11-22 2021-05-25 中国航天系统工程有限公司 基于车辆位置数据的特大城市矢量路网的生成方法及系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000276476A (ja) * 1999-03-24 2000-10-06 Hitachi Eng Co Ltd 道路地図ベクトル化方法および装置
US20200372243A1 (en) * 2018-06-11 2020-11-26 Tencent Technology (Shenzhen) Company Limited Image processing method and apparatus, facial recognition method and apparatus, and computer device
CN109086668A (zh) * 2018-07-02 2018-12-25 电子科技大学 基于多尺度生成对抗网络的无人机遥感影像道路信息提取方法
CN112837393A (zh) * 2019-11-22 2021-05-25 中国航天系统工程有限公司 基于车辆位置数据的特大城市矢量路网的生成方法及系统
CN112115569A (zh) * 2020-09-15 2020-12-22 中国科学院城市环境研究所 一种城市路网密度图生成方法、介质及设备
CN112115844A (zh) * 2020-09-15 2020-12-22 中国科学院城市环境研究所 基于多源遥感影像和路网数据的城市人口数据分析方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
甘勇;刘新新;郑远攀;: "应用BP神经网络实现基于等高线图像的CFD地形网格", 郑州轻工业学院学报(自然科学版), no. 06 *

Also Published As

Publication number Publication date
CN113688873B (zh) 2023-08-22

Similar Documents

Publication Publication Date Title
CN112257597B (zh) 一种点云数据的语义分割方法
Dougenik et al. An algorithm to construct continuous area cartograms
Harrie et al. Simultaneous graphic generalization of vector data sets
CN110992473B (zh) 一种基于车载激光扫描点云的树木枝干建模方法及系统
Galin et al. Authoring hierarchical road networks
WO2022047958A1 (zh) 一种基于人工智能的城市道路网络自动生成方法
CN108171780A (zh) 一种基于激光雷达构建室内真实三维地图的方法
CN108776993A (zh) 带有孔洞的三维点云的建模方法及地下电缆工井建模方法
CN106126816B (zh) 重复建筑自动感知下的大规模als建筑点云建模方法
CN111858810B (zh) 一种面向道路dem构建的建模高程点筛选方法
Sugihara et al. Automatic generation of 3D building models from complicated building polygons
CN112348867B (zh) 基于LiDAR点云数据的城市高精度三维地形构建方法及系统
CN115062366A (zh) 园林景观的数字孪生设计方法、系统、存储介质及终端
Hu et al. Geometric feature enhanced line segment extraction from large-scale point clouds with hierarchical topological optimization
CN105894553B (zh) 一种基于格栅选择的街巷空间形态布局方法
CN112116709B (zh) 一种提高地形表达精度的地形特征线处理方法
CN113688873B (zh) 一种具有直观交互能力的矢量路网生成方法
KR101063827B1 (ko) 한국토지정보시스템 연속지적도와 수치지형도의 기하학적 지도 변환을 위한 반자동화된 공액점 쌍 추출방법
CN114969944B (zh) 一种高精度道路dem构建方法
CN114463494B (zh) 一种地形特征线自动提取方法
Zhang et al. A generative design method for the functional layout of town planning based on multi-agent system
Kazemi et al. A review of map and spatial database generalization for developing a generalization framework
Yu et al. Example-based Road Network Synthesis.
CN113268872B (zh) 一种基于全息三维的国土空间规划仿真方法及系统
Sugihara Straight skeleton for automatic generation of 3-D building models with general shaped roofs

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant