CN107067003B - 感兴趣区域边界的提取方法、装置、设备和计算机存储介质 - Google Patents
感兴趣区域边界的提取方法、装置、设备和计算机存储介质 Download PDFInfo
- Publication number
- CN107067003B CN107067003B CN201710138011.XA CN201710138011A CN107067003B CN 107067003 B CN107067003 B CN 107067003B CN 201710138011 A CN201710138011 A CN 201710138011A CN 107067003 B CN107067003 B CN 107067003B
- Authority
- CN
- China
- Prior art keywords
- data
- interest
- region
- road network
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/182—Network patterns, e.g. roads or rivers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
- G06F18/2414—Smoothing the distance, e.g. radial basis function networks [RBFN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/803—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/248—Aligning, centring, orientation detection or correction of the image by interactive preprocessing or interactive shape modelling, e.g. feature points assigned by a user
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Biodiversity & Conservation Biology (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提供了一种感兴趣区域边界的提取方法、装置、设备和计算机存储介质,其中感兴趣区域边界的提取方法包括:获取包含感兴趣区域的卫星图像以及路网底图;将所述获取的卫星图像与路网底图进行融合,得到融合数据;利用二值化处理模型对所述融合数据进行二值化处理,得到二值化图像,其中,二值化处理模型是预先根据训练数据训练得到;提取所述二值化图像的边界作为所述感兴趣区域的边界。本发明通过获取包含感兴趣区域的卫星图像以及路网底图,将卫星图像与路网底图融合形成的数据输入二值化处理模型中,从而减少边界提取成本,实现自动、精准地提取感兴趣区域的边界。
Description
【技术领域】
本发明涉及地图服务技术领域,尤其涉及一种感兴趣区域边界的提取方法、装置、设备和计算机存储介质。
【背景技术】
在地图应用中,感兴趣区域(AOI,Area ofInteresting)边界的确定对于地图编制、用户查询地图的体验以及统计用户到访AOI情况等具有重要意义。目前,地图部门主要通过人工测绘的方式对AOI边界进行确定,但这种方式有以下缺点:(1)成本巨大,人力方面需要大量对地图信息有专业经验的人员费时费力标注,资金方面标注样本需要花费大量的标注经费;(2)并非自动检测算法,一旦AOI发生了变化,需要人工重现检查边界更新情况,从而带来新一轮的成本消耗;(3)对于人口相对稀疏的城市郊区或偏远山村中的AOI,人工采集并标注的难度大、准确性低。
【发明内容】
有鉴于此,本发明提供了一种感兴趣区域边界的提取方法、装置、设备和计算机存储介质,能够自动、准确地实现感兴趣区域的提取,从而降低边界提取的成本。
本发明为解决技术问题而采用的技术方案是提供一种感兴趣区域边界的提取方法,所述方法包括:获取包含感兴趣区域的卫星图像以及路网底图;将所述获取的卫星图像与路网底图进行融合,得到融合数据;利用二值化处理模型对所述融合数据进行二值化处理,得到二值化图像,其中,二值化处理模型是预先根据训练数据训练得到;提取所述二值化图像的边界作为所述感兴趣区域的边界。
根据本发明一优选实施例,所述二值化处理模型是预先采用如下方式训练得到:从地图数据库中获取感兴趣区域;获取包含感兴趣区域的卫星图像以及路网底图;对获取的卫星图像与路网底图进行融合,得到融合数据;将所述融合数据作为训练数据,所述训练数据中感兴趣区域内像素的标签值为1,感兴趣区域外像素的标签值为0;利用所述训练数据训练分类模型,得到所述二值化处理模型。
根据本发明一优选实施例,所述获取包含感兴趣区域的卫星图像以及路网底图包括:获取包含感兴趣区域的卫星图像;从路网数据中获取对应所述卫星图像实际地理范围的路网底图。
根据本发明一优选实施例,所述获取包含感兴趣区域的卫星图像包括:获取所述感兴趣区域中的一个位置;获取以所述位置为中心的预设地理范围的卫星图像。
根据本发明一优选实施例,所述将所述获取的卫星图像与路网底图进行融合,得到融合数据包括:将卫星图像灰度图与路网底图进行加权组合,得到加权组合通道数据;将卫星图像的RGB通道数据与所述加权组合通道数据进行融合,得到融合数据。
根据本发明一优选实施例,所述利用二值化处理模型对所述融合数据进行二值化处理,得到二值化图像包括:将所述融合数据输入所述二值化处理模型,得到所述融合数据中各像素的标签值;依据融合数据中各像素的标签值,得到二值化图像。
根据本发明一优选实施例,所述提取所述二值化图像的边界作为所述感兴趣区域的边界包括:采用梯度算子对所述二值化图像进行边缘检测,得到所述二值化图像的边界;或者,对所述二值化图像进行多边形拟合,利用拟合得到的多边形确定所述二值化图像的边界。
根据本发明一优选实施例,所述分类模型包括深度全卷积网络。
本发明为解决技术问题而采用的技术方案是提供一种感兴趣区域边界的提取装置,所述装置包括:获取单元,用于获取包含感兴趣区域的卫星图像以及路网底图;融合单元,用于将所述获取的卫星图像与路网底图进行融合,得到融合数据;处理单元,用于利用二值化处理模型对所述融合数据进行二值化处理,得到二值化图像,其中,二值化处理模型是预先根据训练数据训练得到;提取单元,用于提取所述二值化图像的边界作为所述感兴趣区域的边界。
根据本发明一优选实施例,所述装置还包括训练单元,用于预先采用如下方式训练得到二值化处理模型:从地图数据库中获取感兴趣区域;获取包含感兴趣区域的卫星图像以及路网底图;对获取的卫星图像与路网底图进行融合,得到融合数据;将所述融合数据作为训练数据,所述训练数据中感兴趣区域内像素的标签值为1,感兴趣区域外像素的标签值为0;利用所述训练数据训练分类模型,得到所述二值化处理模型。
根据本发明一优选实施例,在用于获取包含感兴趣区域的卫星图像以及路网底图时,具体执行:获取包含感兴趣区域的卫星图像;从路网数据中获取对应所述卫星图像实际地理范围的路网底图。
根据本发明一优选实施例,在用于获取包含感兴趣区域的卫星图像时,具体执行:获取所述感兴趣区域中的一个位置;获取以所述位置为中心的预设地理范围的卫星图像。
根据本发明一优选实施例,在用于将所述获取的卫星图像与路网底图进行融合得到融合数据时,具体执行:将卫星图像灰度图与路网底图进行加权组合,得到加权组合通道数据;将卫星图像的RGB通道数据与所述加权组合通道数据进行融合,得到融合数据。
根据本发明一优选实施例,所述处理单元在利用二值化处理模型对所述融合数据进行二值化处理得到二值化图像时,具体执行:将所述融合数据输入所述二值化处理模型,得到所述融合数据中各像素的标签值;依据融合数据中各像素的标签值,得到二值化图像。
根据本发明一优选实施例,所述提取单元在用于提取所述二值化图像的边界作为所述感兴趣区域的边界时,具体执行:采用梯度算子对所述二值化图像进行边缘检测,得到所述二值化图像的边界;或者,对所述二值化图像进行多边形拟合,利用拟合得到的多边形确定所述二值化图像的边界。
根据本发明一优选实施例,所述训练单元使用的分类模型包括深度全卷积网络。
由以上技术方案可以看出,本发明通过获取包含感兴趣区域的卫星图像以及路网底图,将卫星图像与路网底图融合形成的数据输入二值化处理模型中,从而减少边界提取成本,实现自动、精准地提取感兴趣区域的边界。
【附图说明】
图1为本发明一实施例提供的方法流程图。
图2为本发明一实施例提供的卫星图像以及路网底图的示意图。
图3为本发明一实施例提供的卫星图像与路网底图融合的示意图。
图4为本发明一实施例提供的处理融合数据的示意图。
图5为本发明一实施例提供的边界提取示意图。
图6为本发明另一实施例提供的边界提取示意图。
图7为本发明一实施例提供的装置结构图。
图8为本发明一实施例提供的计算机系统/服务器的框图。
【具体实施方式】
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。
在本发明实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明。在本发明实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。
应当理解,本文中使用的术语“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”或“响应于检测”。类似地,取决于语境,短语“如果确定”或“如果检测(陈述的条件或事件)”可以被解释成为“当确定时”或“响应于确定”或“当检测(陈述的条件或事件)时”或“响应于检测(陈述的条件或事件)”。
由于卫星图像以及路网数据与感兴趣区域(AOI,Area Ofinterest)有着密切关系,因此使用卫星图像或者路网数据实现对AOI边界的检测具有可行性。通过研究发现,路网数据能够弥补部分卫星图像质量不佳的缺陷,而且路网数据可以加强卫星图像中AOI边界梯度信息的权重,使得在边界检测时更加关注梯度特征明显的区域,从而减少不同AOI卫星图像的多样性带来的检测挑战;另一方面,卫星图像不受地理位置的限制,而且能够提供丰富的可视化信息,对路网数据的不完整性也是一个理想的补充。因此,本发明提供一种基于卫星图像以及路网数据的感兴趣区域边界的提取方法、装置、设备和计算机存储介质,使两者优势互补,克服单独使用卫星图像或者路网数据提取AOI边界时的缺陷,从而减少测绘成本,实现自动、准确地提取感兴趣区域的边界。
图1为本发明一实施例提供的方法流程图,如图1中所示,该方法可以主要包括以下步骤:
在101中,获取包含感兴趣区域的卫星图像以及路网底图。
在本步骤中,所获取的卫星图像以及路网底图中包含的感兴趣区域即为要进行边界提取的感兴趣区域。
可选地,在本实施例的一个具体实现过程中,可以为根据感兴趣区域中的一个位置获取包含感兴趣区域的卫星图像,也可以为截取整个卫星图像来获取包含感兴趣区域的卫星图像。
其中,在根据感兴趣区域中的一个位置获取包含该感兴趣区域的卫星图像时,获取以该位置为中心的预设地理范围的卫星图像作为包含该感兴趣区域的卫星图像。在本实施例中,使用第17级地图瓦片拼接成的卫星图像,而第17级地图瓦片中每个像素实际映射的地理范围为2*2平方米,因此本实施例中预设的地理范围为512*512平方米。通过实验发现,512*512平方米的地理范围可以覆盖大部分感兴趣区域,如有特定需求,也可以采用不同级别的地图瓦片改变所获取的卫星图像的地理范围,本发明对此不进行限定,确保所获取的卫星图像包含感兴趣区域即可。
在本步骤中,在获取包含感兴趣区域的卫星图像后,根据卫星图像的实际地理范围,例如通过读取卫星图像中各个角点处的位置坐标,确定卫星图像所处的实际地理范围,然后从路网数据中获取对应卫星图像所处实际地理范围的路网信息的矢量底图。为了描述方便,使用路网底图代表路网信息的矢量底图。在所获取的路网底图中,如果路网底图中像素的坐标在实际地理位置中所对应的是道路,则该像素的值为1,否则为0。
如图2中所示,以根据感兴趣区域中的一个位置获取包含感兴趣区域的卫星图像并获取路网底图为例进行说明。其中,感兴趣区域为图2中(a)方框内的区域“西沙工业区”,感兴趣区域中的位置用“☆”表示,以该位置为中心,获取地理范围为512*512的卫星图像为图2中(b),再根据卫星图像的实际地理范围,获取对应该卫星图像的路网信息的矢量底图为图2中(c),在图2中(c)中,实际处于道路位置像素的值为1,处于其他位置像素的值为0。
在102中,将所述获取的卫星图像以及路网底图进行融合,得到融合数据。
经过研究发现,感兴趣区域(AOI,Area OfInterest)边界在卫星图像上具有相对明显的梯度信息,或者同一个AOI内纹理相对具有一致性,因此利用卫星图像来辅助AOI边界的自动识别具有可行性。另外,通过对卫星图像中AOI边界的分析,发现大部分AOI边界与其附近路网具有很高的重合性,因此路网数据对于AOI边界的确定也非常具有价值。
但是,单独使用卫星图像或路网数据确定AOI的边界具有以下局限性:(1)卫星图像的识别受限于图像质量,云层或雾霾在很大程度上会影响卫星图像的质量。此外,不同的AOI内所呈现的图像特征可能差异巨大,因此对边界检测算法提出了巨大挑战。(2)由于路网数据大多通过人工采集或人工测绘获取,从而导致路网数据不完整。特别对于偏远区域,通常会出现路网缺失、杂乱等情况。因此单独使用路网数据也难以获取完整且封闭的AOI边界。
因此在本步骤中,将所获取的卫星图像与路网底图进行融合,从而克服单独使用卫星图像或者路网数据带来的缺陷,使所提取的AOI边界更加准确。将卫星图像与路网底图进行融合,得到融合数据包括:卫星图像灰度图与路网底图进行加权组合,得到加权组合通道数据;将卫星图像的RGB通道数据与加权组合通道数据进行融合,得到融合数据。
为了描述方便,将所获取的卫星图像表示为I(x,y),与其对应的路网底图表示为M(x,y),卫星图像灰度图与路网底图的加权组合数据表示为IMc4(x,y),卫星图像的灰度图表示为GI(x,y),卫星图像的RGB通道数据与加权组合通道数据融合形成融合数据表示为IM(x,y),(x,y)表示在感兴趣区域中所获取的位置的坐标。
其中,卫星图像的灰度图与路网底图的加权组合数据的计算公式为:
IMc4(x,y)=GI(x,y)⊙(1+αM(x,y))
公式中:GI(x,y)为卫星图像I(x,y)的灰度图,α为权重控制参数,⊙为Hadamard乘,1为全1矩阵。
由于路网底图中道路位置处的像素为1,其他位置处的像素为0,因此,通过上述计算公式得到的第四通道IMc4(x,y)在卫星图像中加强了路网信息的权重,从而克服了单独使用卫星图像或者路网底图的缺陷,能够使得以路网信息作为感兴趣区域边界的卫星图像有更高的准确率。
将卫星图像的RGB通道数据与加权组合通道数据融合形成的融合数据,如图3中IM(x,y)所示,由于该融合数据已不是图片的形式,无法再使用图片进行表示,因此采用图3中IM(x,y),将卫星图像的RGB通道数据与加权组合通道数据叠加表示方式,用以表达融合数据是由卫星图像的RGB通道数据以及卫星图像灰度图与路网底图的加权组合通道数据融合而成。
可选地,在本实施例的一个具体实现过程中,可以使用卫星图像灰度图与路网底图的加权组合通道数据作为融合数据,也可以使用卫星图像的RGB通道数据与加权组合通道数据融合形成的数据作为融合数据。而使用卫星图像的RGB通道数据与加权组合通道数据融合形成的数据相比于使用卫星图像灰度图与路网底图的加权组合数据作为融合数据来说,前者所提取边界的效果要好于后者,因此在本实施例中优先选用卫星图像的RGB通道数据与加权组合通道数据融合形成的数据作为融合数据。
举例来说,如图3中所示,使用卫星图像的RGB通道数据与加权组合通道数据融合形成的数据作为融合数据。感兴趣区域为“西沙工业区”,获取的感兴趣区域中的一个位置在图中用“☆”表示,其坐标为(x,y),图3中GI(x,y)为卫星图像I(x,y)的灰度图像,M(x,y)为路网底图,IMc4(x,y)为卫星图像灰度图与路网底图的加权组合数据,I(x,y)为卫星图像,IM(x,y)为得到的卫星图像的RGB通道数据与加权组合通道数据融合形成的数据。
在103中,利用二值化处理模型对所述融合数据进行二值化处理,得到二值化图像,其中,二值化处理模型是预先根据训练数据训练得到。
在本步骤中,所使用的二值化处理模型是预先根据训练数据训练得到的。二值化处理模型属于分类模型,分类模型的网络结构可以为深度全卷积网络,还可以为Deeplab、Deeplab-v2或者基于端对端卷积与反卷积的自建全卷积网络。在本实施例中使用深度全卷积网络,本发明对分类模型使用的网络结构不进行限定。
在训练分类模型得到二值化处理模型时,具体过程为:从地图数据库中获取感兴趣区域,通过爬取网络数据的方式,获取包含感兴趣区域的卫星图像以及路网数据中对应该卫星图像在实际地理范围的路网底图,将所获取到的卫星图像以及路网底图融合形成的数据作为训练数据。而由于使用卫星图像的RGB通道数据与加权组合通道数据融合形成的数据时,所得到的二值化图像效果更好,因此在本实施例中优先选用卫星图像的RGB通道数据与加权组合通道数据融合形成的数据作为训练数据。作为训练数据时,卫星图像与路网底图的融合过程与102中所描述的一致,在此不进行赘述。
根据所得到的训练数据,将训练数据中位于感兴趣区域内像素的标签值设置为1,训练数据中感兴趣区域外像素的标签值设置为0。然后使用训练数据训练分类模型得到二值化处理模型,使得二值化处理模型的输出结果为与原卫星图像大小一致的二值化图像,在该二值化图像中像素值为1的像素位于感兴趣区域内,像素值为0的像素则位于感兴趣区域外。
在本步骤中,得到二值化处理模型后,将由感兴趣区域中的位置获取的卫星图像以及路网底图融合形成的数据输入到二值化处理模型,输出与所获取的卫星图像大小一致的二值化图像,在所输出的二值化图像中,像素值为1的区域即为感兴趣区域,像素值为0的区域为感兴趣区域之外的区域。
举例来说,如图4中所示,所使用的融合数据为卫星图像的RGB通道数据与加权组合通道数据融合形成的数据,二值化处理模型所使用的网络结构为深度全卷积网络。将融合数据输入到二值化处理模型后,二值化处理模型的输出结果为与所获取的卫星图像大小一致的二值化图像,在所输出的二值化图像中,像素值为1的区域即代表目标感兴趣区域,像素值为0的区域为感兴趣区域外的区域。
在104中,提取所述二值化图像的边界作为所述感兴趣区域的边界。
在本步骤中,根据二值化处理模型输出的二值化图像,使用边缘检测算法将二值化图像的边界提取,将所提取的二值化图像的边界作为感兴趣区域的边界。
可选地,在本实施例的一个具体实现过程中,可以通过使用基于Canny算子、Sobel算子或Laplace算子等的边缘检测算法提取二值化图像的边界。也可以通过使用基于多边形拟合的边缘检测算法提取二值化图像的边界。而使用边缘检测算法提取二值化图像的边界属于现有技术,在此不进行赘述。
举例来说,如图5中所示,使用基于Canny算子的边缘检测算法提取边界。左图为二值化处理模型输出的二值化图像,右图为根据该二值化图像使用基于Canny算子的边缘检测算法提取的的感兴趣区域的边界,所提取的感兴趣区域的边界在图中用黑色实线表示。
而由于二值化处理模型的输出结果可能会存在异常,因此在本步骤中还可以使用基于多边形拟合的边缘检测算法提取二值化图像的边界。举例来说,如图6所示,对二值化处理模型的输出结果进行形态学处理,获取二值化的连通区域;对所获取的二值化连通区域进行筛选,删除误差或异常的连通区域;然后利用多边形拟合剩余连通区域的边缘,所得到多边形即为二值化图像的边界,将所得到的二值化图像的边界确定为感兴趣区域的边界。
下面对本发明实施例提供的装置结构图进行详述。如图7中所示,所述装置包括:获取单元71、融合单元72、训练单元73、处理单元74以及提取单元75。
获取单元71,用于获取包含感兴趣区域的卫星图像以及路网底图。
获取单元71所获取的卫星图像以及路网底图中,包含的感兴趣区域即为要进行边界提取的感兴趣区域。
可选地,在本实施例的一个具体实现过程中,获取单元71可以根据感兴趣区域中的一个位置获取包含感兴趣区域的卫星图像,获取单元71也可以通过截取整个卫星图像来获取包含感兴趣区域的卫星图像。
其中,获取单元71在根据感兴趣区域中的一个位置获取包含该感兴趣区域的卫星图像时,获取以该位置为中心的预设地理范围的卫星图像作为包含该感兴趣区域的卫星图像。在本实施例中,使用第17级地图瓦片拼接成的卫星图像,而第17级地图瓦片中每个像素实际映射的地理范围为2*2平方米,因此本实施例中预设的地理范围为512*512平方米。通过实验发现,512*512平方米的地理范围可以覆盖大部分感兴趣区域,如有特定需求,也可以采用不同级别的地图瓦片改变所获取的卫星图像的地理范围,本发明对此不进行限定,保证获取单元71所获取的卫星图像包含感兴趣区域即可。
获取单元71在获取包含感兴趣区域的卫星图像后,根据卫星图像的实际地理范围,例如通过读取卫星图像中各个角点处的位置坐标,确定卫星图像所处的实际地理范围,然后从路网数据中获取对应卫星图像所处实际地理范围的路网信息的矢量底图。为了描述方便,使用路网底图代表路网信息的矢量底图。在所获取的路网底图中,如果路网底图中像素的坐标在实际地理位置中所对应的是道路,则该像素的值为1,否则为0。
融合单元72,用于将所述获取的卫星图像与路网底图进行融合,得到融合数据。
经过研究发现,感兴趣区域(AOI,Area OfInterest)边界在卫星图像上具有相对明显的梯度信息,或者同一个AOI内纹理相对具有一致性,因此利用卫星图像来辅助AOI边界的自动识别具有可行性。另外,通过对卫星图像中AOI边界的分析,发现大部分AOI边界与其附近路网具有很高的重合性,因此路网数据对于AOI边界的确定也非常具有价值。
但是,单独使用卫星图像或路网数据确定AOI的边界具有以下局限性:(1)卫星图像的识别受限于图像质量,云层或雾霾在很大程度上会影响卫星图像的质量。此外,不同的AOI内所呈现的图像特征可能差异巨大,因此对边界检测算法提出了巨大挑战。(2)由于路网数据大多通过人工采集或人工测绘获取,从而导致路网数据不完整。特别对于偏远区域,通常会出现路网缺失、杂乱等情况。因此单独使用路网数据也难以获取完整且封闭的AOI边界。
因此,融合单元72将所获取的卫星图像与路网底图进行融合,从而克服单独使用卫星图像或者路网数据带来的缺陷,使所提取的AOI边界更加准确。融合单元72在将卫星图像与路网底图进行融合得到融合数据时,具体执行:将卫星图像灰度图与路网底图进行加权组合,得到加权组合通道数据;将卫星图像的RGB通道数据与加权组合通道数据进行融合,得到融合数据。
为了描述方便,将所获取的卫星图像表示为I(x,y),与其对应的路网底图表示为M(x,y),卫星图像灰度图与路网底图的加权组合数据表示为IMc4(x,y),卫星图像的灰度图表示为GI(x,y),卫星图像的RGB通道数据与加权组合通道数据融合形成融合数据表示为IM(x,y),(x,y)表示在感兴趣区域中所获取的位置的坐标。
其中,卫星图像的灰度图与路网底图的加权组合数据的计算公式为:
IMc4(x,y)=GI(x,y)⊙(1+αM(x,y))
公式中:GI(x,y)为卫星图像I(x,y)的灰度图,α为权重控制参数,⊙为Hadamard乘,1为全1矩阵。
由于路网底图中道路位置处的像素为1,其他位置处的像素为0,因此,融合单元72通过上述计算公式得到的第四通道IMc4(x,y),在卫星图像中加强了路网信息的权重,从而克服了单独使用卫星图像或者路网底图的缺陷,能够使得以路网信息作为感兴趣区域边界的卫星图像有更高的准确率。
融合单元72将卫星图像的RGB通道数据与加权组合通道数据融合形成的融合数据如图3中IM(x,y)所示,由于该融合数据已不是图片形式,无法再使用图片进行表示,因此采用图3中IM(x,y)将卫星图像的RGB通道数据与加权组合通道数据叠加的表示方式,用以表达融合数据是由卫星图像的RGB通道数据以及卫星图像灰度图与路网底图的加权组合通道数据融合而成。
可选地,在本实施例的一个具体实现过程中,融合单元72可以使用卫星图像灰度图与路网底图的加权组合通道数据作为融合数据,也可以使用卫星图像的RGB通道数据与加权组合通道数据融合形成的数据作为融合数据。而使用卫星图像的RGB通道数据与加权组合通道数据融合形成的数据相比于使用卫星图像灰度图与路网底图的加权组合数据作为融合数据来说,前者所提取边界的效果要好于后者,因此在本实施例中优先选用卫星图像的RGB通道数据与加权组合通道数据融合形成的数据作为融合数据。
训练单元73,用于预先根据训练数据训练得到二值化处理模型。
训练单元73根据训练数据得到的二值化处理模型属于分类模型,分类模型的网络结构可以为深度全卷积网络,还可以为Deeplab、Deeplab-v2或者基于端对端卷积与反卷积的自建全卷积网络。在本实施例中使用深度全卷积网络,本发明对分类模型使用的网络结构不进行限定。
训练单元73在用于训练分类模型得到二值化处理模型时,具体执行:从地图数据库中获取感兴趣区域,通过爬取网络数据的方式,获取包含感兴趣区域的卫星图像以及路网数据中对应该卫星图像在实际地理范围的路网底图,将所获取到的卫星图像与路网底图融合形成的数据作为训练数据。而使用卫星图像的RGB通道数据与加权组合通道数据融合形成的数据时所得到的二值化图像效果更好,因此在本实施例中优先选用卫星图像的RGB通道数据与加权组合通道数据融合形成的数据作为训练数据。作为训练数据的融合数据,在将卫星图像与路网底图进行融合时,融合过程与102中所描述的一致,在此不进行赘述。
根据所得到的训练数据,训练单元73将训练数据中位于感兴趣区域内像素的标签值设置为1,训练数据中感兴趣区域外像素的标签值设置为0。然后使用训练数据训练分类模型得到二值化处理模型,使得二值化处理模型的输出结果为与原卫星图像大小一致的二值化图像,在该二值化图像中像素值为1的像素位于感兴趣区域内,像素值为0的像素则位于感兴趣区域外。
处理单元74,用于利用二值化处理模型对所述融合数据进行二值化处理,得到二值化图像,其中,二值化处理模型是预先根据训练数据训练得到。
处理单元74使用训练单元73得到的二值化处理模型,对融合单元72所得到的融合数据进行处理,得到与所获取的卫星图像大小一致的二值化图像,在所输出的二值化图像中,像素值为1的区域即为感兴趣区域,像素值为0的区域为感兴趣区域之外的区域。
提取单元75,用于提取所述二值化图像的边界作为所述感兴趣区域的边界。
提取单元75根据二值化处理模型输出的二值化图像,使用边缘检测算法将二值化图像的边界提取,将所提取的二值化图像的边界作为感兴趣区域的边界。
可选地,在本实施例的一个具体实现过程中,提取单元75可以通过使用基于Canny算子、Sobel算子或Laplace算子等的边缘检测算法提取二值化图像的边界。提取单元75也可以通过使用基于多边形拟合的边缘检测算法提取二值化图像的边界。而使用边缘检测算法提取二值化图像的边界属于现有技术,在此不进行赘述。
图8示出了适于用来实现本发明实施方式的示例性计算机系统/服务器012的框图。图8显示的计算机系统/服务器012仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图8所示,计算机系统/服务器012以通用计算设备的形式表现。计算机系统/服务器012的组件可以包括但不限于:一个或者多个处理器或者处理单元016,系统存储器028,连接不同系统组件(包括系统存储器028和处理单元016)的总线018。
总线018表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
计算机系统/服务器012典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机系统/服务器012访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器028可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)030和/或高速缓存存储器032。计算机系统/服务器012可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统034可以用于读写不可移动的、非易失性磁介质(图8未显示,通常称为“硬盘驱动器”)。尽管图8中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线018相连。存储器028可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块042的程序/实用工具040,可以存储在例如存储器028中,这样的程序模块042包括——但不限于——操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块042通常执行本发明所描述的实施例中的功能和/或方法。
计算机系统/服务器012也可以与一个或多个外部设备014(例如键盘、指向设备、显示器024等)通信,在本发明中,计算机系统/服务器012与外部雷达设备进行通信,还可与一个或者多个使得用户能与该计算机系统/服务器012交互的设备通信,和/或与使得该计算机系统/服务器012能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口022进行。并且,计算机系统/服务器012还可以通过网络适配器020与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器020通过总线018与计算机系统/服务器012的其它模块通信。应当明白,尽管图中未示出,可以结合计算机系统/服务器012使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元016通过运行存储在系统存储器028中的程序,从而执行各种功能应用以及数据处理,例如实现一种感兴趣区域边界的提取方法,可以包括:
获取包含感兴趣区域的卫星图像以及路网底图;
将所述获取的卫星图像与路网底图进行融合,得到融合数据;
利用二值化处理模型对所述融合数据进行二值化处理,得到二值化图像,其中,二值化处理模型是预先根据训练数据训练得到;
提取所述二值化图像的边界作为所述感兴趣区域的边界。
上述的计算机程序可以设置于计算机存储介质中,即该计算机存储介质被编码有计算机程序,该程序在被一个或多个计算机执行时,使得一个或多个计算机执行本发明上述实施例中所示的方法流程和/或装置操作。例如,被上述一个或多个处理器执行的方法流程,可以包括:
获取包含感兴趣区域的卫星图像以及路网底图;
将所述获取的卫星图像与路网底图进行融合,得到融合数据;
利用二值化处理模型对所述融合数据进行二值化处理,得到二值化图像,其中,二值化处理模型是预先根据训练数据训练得到;
提取所述二值化图像的边界作为所述感兴趣区域的边界。
随着时间、技术的发展,介质含义越来越广泛,计算机程序的传播途径不再受限于有形介质,还可以直接从网络下载等。可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
利用本发明所提供的技术方案,通过获取包含感兴趣区域的卫星图像以及路网底图,将卫星图像与路网底图融合形成的数据输入二值化处理模型中,从而减少边界提取成本,实现自动、精准地提取感兴趣区域的边界。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。
Claims (16)
1.一种感兴趣区域边界的提取方法,其特征在于,所述方法包括:
获取包含感兴趣区域的卫星图像以及路网底图,所述路网底图中位于道路位置的像素的值为1,位于其他位置的像素的值为0;
将所述获取的卫星图像与路网底图进行融合,得到融合数据;
利用二值化处理模型对所述融合数据进行二值化处理,得到二值化图像,其中,二值化处理模型是预先根据训练数据训练得到;
提取所述二值化图像的边界作为所述感兴趣区域的边界;
所述将所述获取的卫星图像与路网底图进行融合,得到融合数据包括:
将卫星图像灰度图与路网底图进行加权组合,得到加权组合通道数据;
将卫星图像的RGB通道数据与所述加权组合通道数据进行融合,得到融合数据。
2.根据权利要求1所述的方法,其特征在于,所述二值化处理模型是预先采用如下方式训练得到:
从地图数据库中获取感兴趣区域;
获取包含感兴趣区域的卫星图像以及路网底图;
对获取的卫星图像与路网底图进行融合,得到融合数据;
将所述融合数据作为训练数据,所述训练数据中感兴趣区域内像素的标签值为1,感兴趣区域外像素的标签值为0;
利用所述训练数据训练分类模型,得到所述二值化处理模型。
3.根据权利要求1或2所述的方法,其特征在于,所述获取包含感兴趣区域的卫星图像以及路网底图包括:
获取包含感兴趣区域的卫星图像;
从路网数据中获取对应所述卫星图像实际地理范围的路网底图。
4.根据权利要求1或2所述的方法,其特征在于,所述获取包含感兴趣区域的卫星图像包括:
获取所述感兴趣区域中的一个位置;
获取以所述位置为中心的预设地理范围的卫星图像。
5.根据权利要求1所述的方法,其特征在于,所述利用二值化处理模型对所述融合数据进行二值化处理,得到二值化图像包括:
将所述融合数据输入所述二值化处理模型,得到所述融合数据中各像素的标签值;
依据融合数据中各像素的标签值,得到二值化图像。
6.根据权利要求1所述的方法,其特征在于,所述提取所述二值化图像的边界作为所述感兴趣区域的边界包括:
采用梯度算子对所述二值化图像进行边缘检测,得到所述二值化图像的边界;或者,
对所述二值化图像进行多边形拟合,利用拟合得到的多边形确定所述二值化图像的边界。
7.根据权利要求2所述的方法,其特征在于,所述分类模型包括深度全卷积网络。
8.一种感兴趣区域边界的提取装置,其特征在于,所述装置包括:
获取单元,用于获取包含感兴趣区域的卫星图像以及路网底图,所述路网底图中位于道路位置的像素的值为1,位于其他位置的像素的值为0;
融合单元,用于将所述获取的卫星图像与路网底图进行融合,得到融合数据;
处理单元,用于利用二值化处理模型对所述融合数据进行二值化处理,得到二值化图像,其中,二值化处理模型是预先根据训练数据训练得到;
提取单元,用于提取所述二值化图像的边界作为所述感兴趣区域的边界;
在用于将所述获取的卫星图像与路网底图进行融合得到融合数据时,具体执行:
将卫星图像灰度图与路网底图进行加权组合,得到加权组合通道数据;
将卫星图像的RGB通道数据与所述加权组合通道数据进行融合,得到融合数据。
9.根据权利要求8所述的装置,其特征在于,所述装置还包括训练单元,用于预先采用如下方式训练得到二值化处理模型:
从地图数据库中获取感兴趣区域;
获取包含感兴趣区域的卫星图像以及路网底图;
对获取的卫星图像与路网底图进行融合,得到融合数据;
将所述融合数据作为训练数据,所述训练数据中感兴趣区域内像素的标签值为1,感兴趣区域外像素的标签值为0;
利用所述训练数据训练分类模型,得到所述二值化处理模型。
10.根据权利要求8或9所述的装置,其特征在于,在用于获取包含感兴趣区域的卫星图像以及路网底图时,具体执行:
获取包含感兴趣区域的卫星图像;
从路网数据中获取对应所述卫星图像实际地理范围的路网底图。
11.根据权利要求8或9所述的装置,其特征在于,在用于获取包含感兴趣区域的卫星图像时,具体执行:
获取所述感兴趣区域中的一个位置;
获取以所述位置为中心的预设地理范围的卫星图像。
12.根据权利要求8所述的装置,其特征在于,所述处理单元在利用二值化处理模型对所述融合数据进行二值化处理得到二值化图像时,具体执行:
将所述融合数据输入所述二值化处理模型,得到所述融合数据中各像素的标签值;
依据融合数据中各像素的标签值,得到二值化图像。
13.根据权利要求8所述的装置,其特征在于,所述提取单元在用于提取所述二值化图像的边界作为所述感兴趣区域的边界时,具体执行:
采用梯度算子对所述二值化图像进行边缘检测,得到所述二值化图像的边界;或者,
对所述二值化图像进行多边形拟合,利用拟合得到的多边形确定所述二值化图像的边界。
14.根据权利要求9所述的装置,其特征在于,所述训练单元使用的分类模型包括深度全卷积网络。
15.一种用于提取感兴趣区域边界的设备,其特征在于,所述设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7中任一所述的方法。
16.一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如权利要求1-7中任一所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710138011.XA CN107067003B (zh) | 2017-03-09 | 2017-03-09 | 感兴趣区域边界的提取方法、装置、设备和计算机存储介质 |
US15/910,958 US10572754B2 (en) | 2017-03-09 | 2018-03-02 | Area of interest boundary extracting method and apparatus, device and computer storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710138011.XA CN107067003B (zh) | 2017-03-09 | 2017-03-09 | 感兴趣区域边界的提取方法、装置、设备和计算机存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107067003A CN107067003A (zh) | 2017-08-18 |
CN107067003B true CN107067003B (zh) | 2021-09-21 |
Family
ID=59621600
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710138011.XA Active CN107067003B (zh) | 2017-03-09 | 2017-03-09 | 感兴趣区域边界的提取方法、装置、设备和计算机存储介质 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10572754B2 (zh) |
CN (1) | CN107067003B (zh) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108256424A (zh) * | 2017-12-11 | 2018-07-06 | 中交信息技术国家工程实验室有限公司 | 一种基于深度学习的高分辨率遥感图像道路提取方法 |
CN110297483B (zh) * | 2018-03-21 | 2020-12-18 | 广州极飞科技有限公司 | 待作业区域边界获取方法、装置,作业航线规划方法 |
CN110353707A (zh) * | 2018-03-26 | 2019-10-22 | 通用电气公司 | 准直器边界检测方法的训练方法和系统 |
CN110968657B (zh) * | 2018-09-30 | 2023-04-07 | 百度在线网络技术(北京)有限公司 | 感兴趣区域查询方法、装置、设备及计算机可读介质 |
CN111241881B (zh) * | 2018-11-29 | 2022-12-27 | 中国移动通信集团四川有限公司 | 区域识别的方法、装置、设备和介质 |
GB201820541D0 (en) * | 2018-12-17 | 2019-01-30 | Spelfie Ltd | Imaging method and system |
CN111414904B (zh) * | 2019-01-08 | 2023-12-01 | 北京地平线机器人技术研发有限公司 | 处理感兴趣区域数据的方法和装置 |
CN109949325A (zh) * | 2019-02-27 | 2019-06-28 | 上海晶赞融宣科技有限公司 | 地图边界确定方法、装置以及计算机存储介质 |
CN110414488A (zh) * | 2019-08-20 | 2019-11-05 | 河海大学 | 基于浮游藻类指数和深度学习的蓝藻水华遥感监测方法 |
CN110619283B (zh) * | 2019-08-26 | 2023-01-10 | 海南撰云空间信息技术有限公司 | 一种无人机正射影像道路自动提取方法 |
CN113012030A (zh) * | 2019-12-20 | 2021-06-22 | 北京金山云网络技术有限公司 | 图像拼接方法、装置及设备 |
US11830246B2 (en) * | 2020-05-01 | 2023-11-28 | CACI, Inc.—Federal | Systems and methods for extracting and vectorizing features of satellite imagery |
CN111568451A (zh) * | 2020-05-22 | 2020-08-25 | 上海联影医疗科技有限公司 | 一种曝光剂量调节方法和系统 |
CN111860173B (zh) * | 2020-06-22 | 2021-10-15 | 中国科学院空天信息创新研究院 | 一种基于弱监督的遥感图像地物要素提取方法及系统 |
CN112198483A (zh) * | 2020-09-28 | 2021-01-08 | 上海眼控科技股份有限公司 | 卫星反演雷达的数据处理方法、装置、设备及存储介质 |
CN112949540A (zh) * | 2021-03-16 | 2021-06-11 | 江苏海扬智慧物联研究院有限公司 | 基于卫星图片的路灯状态判定方法、装置、设备和介质 |
CN112884764A (zh) * | 2021-03-24 | 2021-06-01 | 深圳前海微众银行股份有限公司 | 提取图像中地块的方法、装置、电子设备及存储介质 |
CN113409461B (zh) * | 2021-06-22 | 2023-06-23 | 北京百度网讯科技有限公司 | 构建地貌地图的方法、装置、电子设备和可读存储介质 |
CN114332370B (zh) * | 2021-12-28 | 2023-02-21 | 埃洛克航空科技(北京)有限公司 | 道路图像处理方法、装置、设备和存储介质 |
CN114549296B (zh) * | 2022-04-21 | 2022-07-12 | 北京世纪好未来教育科技有限公司 | 图像处理模型的训练方法、图像处理方法及电子设备 |
CN115620157A (zh) * | 2022-09-21 | 2023-01-17 | 清华大学 | 一种卫星图像的表征学习方法及装置 |
CN115641430B (zh) * | 2022-10-12 | 2024-01-30 | 阿里巴巴(中国)有限公司 | 一种兴趣面确定方法、装置、介质及计算机设备 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20010031068A1 (en) * | 2000-04-14 | 2001-10-18 | Akihiro Ohta | Target detection system using radar and image processing |
US8249346B2 (en) * | 2008-01-28 | 2012-08-21 | The United States Of America As Represented By The Secretary Of The Army | Three dimensional imaging method and apparatus |
CN101339653B (zh) * | 2008-01-30 | 2010-06-02 | 西安电子科技大学 | 基于彩色传递及熵信息的红外与彩色可见光图像融合方法 |
CN102496023B (zh) * | 2011-11-23 | 2014-08-27 | 中南大学 | 像素层面的感兴趣区域提取方法 |
CN102521884B (zh) * | 2011-12-16 | 2014-04-09 | 南京大学 | 一种基于LiDAR数据与正射影像的3维屋顶重建方法 |
CN102800111B (zh) * | 2012-07-19 | 2015-01-21 | 北京理工大学 | 基于颜色协调性的彩色融合图像颜色质量评价方法 |
CN104123310A (zh) * | 2013-04-28 | 2014-10-29 | 百度在线网络技术(北京)有限公司 | 基于卫星图像的路网信息的处理方法及装置 |
CN103700063B (zh) * | 2013-08-30 | 2016-07-06 | 南宁市勘察测绘地理信息院 | 基于高清卫星影像的地形图一体化快速成图方法 |
CN104317876B (zh) * | 2014-10-21 | 2017-10-24 | 百度在线网络技术(北京)有限公司 | 路网矢量数据的生成方法及装置 |
CN104331698B (zh) * | 2014-11-19 | 2017-05-03 | 中国农业科学院农业资源与农业区划研究所 | 一种遥感图像城区提取方法 |
US10255296B2 (en) * | 2016-02-25 | 2019-04-09 | Omniearth, Inc. | System and method for managing geodemographic data |
CN105701483B (zh) * | 2016-02-29 | 2018-10-26 | 中南大学 | 一种融合多光谱遥感数据和夜间灯光遥感数据的城市边界提取方法 |
CN106056598A (zh) * | 2016-05-27 | 2016-10-26 | 哈尔滨工业大学 | 基于线段检测和图像分割融合的卫星高分图像建筑物轮廓提取方法 |
US11392625B2 (en) * | 2016-06-27 | 2022-07-19 | Omniearth, Inc. | Systems and methods for utilizing property features from images |
US10528542B2 (en) * | 2016-08-24 | 2020-01-07 | Google Llc | Change direction based map interface updating system |
DE112016002817T5 (de) * | 2016-08-24 | 2018-04-26 | Google Inc. | Änderungserfassungbasiertes bildaufnahme-beauftragungssystem |
US10628671B2 (en) * | 2017-11-01 | 2020-04-21 | Here Global B.V. | Road modeling from overhead imagery |
US10551199B2 (en) * | 2017-12-29 | 2020-02-04 | Lyft, Inc. | Utilizing artificial neural networks to evaluate routes based on generated route tiles |
-
2017
- 2017-03-09 CN CN201710138011.XA patent/CN107067003B/zh active Active
-
2018
- 2018-03-02 US US15/910,958 patent/US10572754B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN107067003A (zh) | 2017-08-18 |
US20180260648A1 (en) | 2018-09-13 |
US10572754B2 (en) | 2020-02-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107067003B (zh) | 感兴趣区域边界的提取方法、装置、设备和计算机存储介质 | |
CN108229303B (zh) | 检测识别和检测识别网络的训练方法及装置、设备、介质 | |
US11454500B2 (en) | Map feature extraction system for computer map visualizations | |
CN109145680B (zh) | 一种获取障碍物信息的方法、装置、设备和计算机存储介质 | |
CN109977191B (zh) | 问题地图检测方法、装置、电子设备和介质 | |
US20160155027A1 (en) | Method and apparatus of determining air quality | |
CN110245580B (zh) | 一种检测图像的方法、装置、设备和计算机存储介质 | |
CN111259889A (zh) | 图像文本识别方法、装置、计算机设备及计算机存储介质 | |
US11403766B2 (en) | Method and device for labeling point of interest | |
CN114758249B (zh) | 基于野外夜间环境的目标物监测方法、装置、设备及介质 | |
CN112990086A (zh) | 遥感影像建筑物检测方法、装置及计算机可读存储介质 | |
CN112560862A (zh) | 文本识别方法、装置及电子设备 | |
CN111179340A (zh) | 一种物体的定位方法、装置及计算机系统 | |
CN112308069A (zh) | 一种软件界面的点击测试方法、装置、设备及存储介质 | |
US11423611B2 (en) | Techniques for creating, organizing, integrating, and using georeferenced data structures for civil infrastructure asset management | |
CN116721104B (zh) | 实景三维模型缺陷检测方法、装置、电子设备及存储介质 | |
CN111950356B (zh) | 印章文本定位方法、装置及电子设备 | |
Mao et al. | City object detection from airborne Lidar data with OpenStreetMap‐tagged superpixels | |
CN109815307B (zh) | 位置确定方法、装置、设备和介质 | |
CN114238541A (zh) | 敏感目标信息获取方法、装置和计算机设备 | |
CN114332809A (zh) | 一种图像识别方法、装置、电子设备和存储介质 | |
CN113392837A (zh) | 一种基于深度学习的车牌识别方法及装置 | |
CN112434698A (zh) | 字符识别方法、装置、电子设备及存储介质 | |
CN115410173B (zh) | 多模态融合的高精地图要素识别方法、装置、设备及介质 | |
CN117372510B (zh) | 基于计算机视觉模型的地图注记识别方法、终端及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |