CN115578531A - 基于遥感数据的城市三维模型重建方法 - Google Patents

基于遥感数据的城市三维模型重建方法 Download PDF

Info

Publication number
CN115578531A
CN115578531A CN202211560990.5A CN202211560990A CN115578531A CN 115578531 A CN115578531 A CN 115578531A CN 202211560990 A CN202211560990 A CN 202211560990A CN 115578531 A CN115578531 A CN 115578531A
Authority
CN
China
Prior art keywords
error
model reconstruction
frame
quality
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211560990.5A
Other languages
English (en)
Other versions
CN115578531B (zh
Inventor
范建峰
阚晓云
王伟立
熊小龙
高伟
曾雄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hubei Xiaoyun Technology Co ltd
Original Assignee
Hubei Xiaoyun Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hubei Xiaoyun Technology Co ltd filed Critical Hubei Xiaoyun Technology Co ltd
Priority to CN202211560990.5A priority Critical patent/CN115578531B/zh
Publication of CN115578531A publication Critical patent/CN115578531A/zh
Application granted granted Critical
Publication of CN115578531B publication Critical patent/CN115578531B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A30/00Adapting or protecting infrastructure or their operation
    • Y02A30/60Planning or developing urban green infrastructure

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Remote Sensing (AREA)
  • Geometry (AREA)
  • Quality & Reliability (AREA)
  • Computer Graphics (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及城市三维模型建立技术领域,具体涉及一种基于遥感数据的城市三维模型重建方法。该方法包括对历史数据库中每个架次的图片数据进行质量分析,确定模型重建误差平差系数;根据每个架次中拍摄图片数据,获得拍摄过程中误差来源特征码以及对应架次的环境匹配驳杂程度;进一步计算不同架次图片数据之间的分类距离获得多个第一样本集合;同时再获得不同架次图片数据之间的差异距离;根据差异距离筛选出优化样本;最后将优化样本进行再分类,根据第二样本集合的中心样本作为参照数据,完成对建筑三维模型的优化。本发明通过所获得的特征信息对历史数据进行分类、筛选和再分类三种操作处理,优化了待分析架次的重建过程。

Description

基于遥感数据的城市三维模型重建方法
技术领域
本发明涉及城市三维模型重建技术领域,具体涉及一种基于遥感数据的城市三维模型重建方法。
背景技术
大规模、高精度、快速的全自动城市三维建模技术一直是摄影测量和数字城市领域研究的主要方向。目前已经被证明精确有效的城市三维重建的主要技术手段包括:(1)机载面阵或多线阵CCD航测相机立体测量;(2)机载LiDAR点云测量配合高精度二维影像;(3)机载多相机倾斜摄影测量;(4)车载LiDAR点云测量辅助全景照片,配合空中二维数据;(5)全手工3Dmax建模。
上述技术和方法为大规模、快速、精确的城市三维重建提供了诸多可选方案,但它们都面临一个重要问题,即昂贵的设备带来的高额成本和后续更新方面的不便,因此平台建设完成后仍面临需要更新的任务。而如果采用传统的3Dmax或大面积城市航摄的建模方法来进行更新,则维护依然耗时且费用昂贵。
发明人在实践中,发现上述现有技术存在以下缺陷在执行飞行拍照过程中,总会遇到因环境干扰造成的成像质量不佳的问题,因此需要进行多次测量。在公开专利三维城市模型快速更新方法(申请号:CN201510919645.X)中,提供了一种对这些图像的位置进行定位、修正畸变和变形修正方法,但并未考虑到成像质量问题,仅根据图片角度进行匹配修正,因此仍存在一定的缺陷。
发明内容
为了解决现有技术中未考虑到成像质量问题,仅根据图片角度进行匹配修正导致的模型重建效果较差的技术问题,本发明的目的在于提供一种基于遥感数据的城市三维模型重建方法,所采用的技术方案具体如下:
本发明提出了一种基于遥感数据的城市三维模型重建方法,所述方法包括:
对历史数据库中每个架次的图片数据进行质量分析,通过一个架次中每个图像的特征可用量划分不同的质量分析区间,根据质量分析区间中每个图像的模型重建误差划分质量等级;根据每个质量等级中的模型重建第一平均误差确定模型重建误差平差系数;
根据每个架次中拍摄图片数据,获得拍摄过程中误差来源特征码;
根据一个架次内每个图片的特征可用量,获得对应架次的环境匹配驳杂程度;
根据误差来源特征码差异和每个质量等级中的模型重建第一平均误差差异获得不同架次图片数据之间的分类距离;根据分类距离对历史数据库中不同架次的图片数据进行分类,获得多个第一样本集合;
根据模型重建误差平差系数和环境匹配驳杂程度获得不同架次图片数据之间的差异距离;根据差异距离在每个第一样本集合中筛选出优化样本;
根据分类距离对所有优化样本进行分类,获得多个第二样本集合;
根据待分析架次的图片数据,确定匹配的第二样本集合,以第二样本集合的中心样本作为参照数据;根据参照数据中所有图片的平均模型重建误差优化对应的待分析架次的建筑三维模型。
进一步的,所述特征可用量的获取方法包括:
使用FAST关键点检测算法,对整张图像检测预设检测数量个特征点,通过特征点进行图像特征匹配,获得的特征点匹配数量作为特征可用量。
进一步的,所述根据质量分析区间中每个图像的模型重建误差划分质量等级包括:
通过预设区间范围,将各个架次中图像特征可用量大小划分出多个质量分析区间;根据获得的质量分析区间内,计算各个区间内的模型重建误差大小;根据每个质量分析区间的最大误差和最小误差,划分质量等级。
进一步的,所述模型重建误差平差系数确定,包括:
获得每个质量等级中的模型重建第二平均误差值;对所有质量等级中的模型重建第二平均误差求平均,获得模型重建第一平均误差值;
获得每个质量等级中模型重建第二平均误差值与模型重建第一平均误差值的差值绝对值,将每个差值绝对值进行负相关映射并归一化,获得归一化值,以平均归一化值作为误差平差系数。
进一步的,所述误差来源特征码包括:
设定编码为一架次内各个质量分析区间中,其中平均误差最大的一个质量分析区间标记为1,其他的质量分析区间标记为0,从而构建误差来源特征码。
进一步的,所述环境匹配质量的驳杂程度包括:
根据获得的一个架次中每个图片的特征可用量,计算参与特征可用量匹配的总数与被排除的占比,以一减去被排除数量和参与匹配总数的比值作为环境匹配质量因子;
根据一架次在质量分析区间内匹配质量因子的均值和中值,确定环境匹配的驳杂程度,其计算公式为:
Figure DEST_PATH_IMAGE001
其中,
Figure 868124DEST_PATH_IMAGE002
为所述环境匹配质量的驳杂程度,
Figure 69299DEST_PATH_IMAGE003
表示一架次内的一个区间平均的质量因子,
Figure 449464DEST_PATH_IMAGE004
表示一架次内的一个区间图片特征点的质量因子所代表的匹配质量中值,i表示具体的某一个质量分析区间,n为质量分析区间的数量。
进一步的,所述根据误差来源特征码差异和每个质量等级中的模型重建第一平均误差差异获得不同架次图片数据之间的分类距离,包括:
任意两个记录下的一架次内误差来源特征码的汉明距,将汉明距与该两个记录中一架次模型重建第一误差均值的差值对应的绝对值的乘积作为分类距离。
进一步的,所述根据模型重建误差平差系数和环境匹配的驳杂程度,建立差异距离包括:
根据差异距离计算公式获得优化样本,差异距离计算公式包括:
Figure 761497DEST_PATH_IMAGE005
其中,
Figure 809087DEST_PATH_IMAGE006
表示记录p和记录q之间的差异距离;
Figure 417049DEST_PATH_IMAGE007
为记录p对应的模型重建误差平差系数;
Figure 550090DEST_PATH_IMAGE008
为记录q对应的模型重建误差平差系数;
Figure 931392DEST_PATH_IMAGE009
为记录p对应的环境匹配的驳杂程度;
Figure 833489DEST_PATH_IMAGE010
为记录q对应的环境匹配的驳杂程度;Dist()函数为距离函数。
进一步的,所述优化样本的筛选方法包括:
根据获得k邻近差异距离,计算各个样本的局部可达密度,根据局部可达密度的大小,确定筛选出的优化样本。
进一步的,所述k邻近差异距离计算公式中的距离函数包括:
Figure 875001DEST_PATH_IMAGE009
大于
Figure 229759DEST_PATH_IMAGE010
,则Dist()输出值为两者的差值;若
Figure 883595DEST_PATH_IMAGE009
小于
Figure 640198DEST_PATH_IMAGE010
,则Dist()输出值为两者的差值绝对值的两倍。
本发明具有如下有益效果:
本发明实施例对历史数据库中的数据进行质量分析,通过设定的质量分析区间和质量等级对历史数据进行有效划分,进而获得参考性强的模型重建误差平差系数。模型重建误差平差系数可作为对应架次图片数据在建模过程中的特征信息,在后续分类过程中可根据该特征进行有效分类。进一步获得误差来源特征码和环境匹配驳杂程度表示对应架次重建过程中的重建特征,通过所获得的特征信息对历史数据进行分类、筛选和再分类三种操作处理,获得可供待分析架次图片数据参考的第二样本集合,通过第二样本集合中的高质量数据对待分析架次的图片数据进行参考,优化了待分析架次的重建过程,提高了模型重建的质量,避免了因为重建优化过程中的参考数据质量问题导致的重建结果较差的问题。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案和优点,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它附图。
图1为本发明一个实施例所提供的一种基于遥感数据的城市三维模型重建方法流程图。
具体实施方式
为了更进一步阐述本发明为达成预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本发明提出的一种基于遥感数据的城市三维模型重建方法,其具体实施方式、结构、特征及其功效,详细说明如下。在下述说明中,不同的“一个实施例”或“另一个实施例”指的不一定是同一实施例。此外,一或多个实施例中的特定特征、结构或特点可由任何合适形式组合。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。
下面结合附图具体的说明本发明所提供的基于遥感数据的城市三维模型重建方法的具体方案。
请参阅图1,其示出了本发明一个实施例提供的基于遥感数据的城市三维模型重建方法流程图。
为了解决现有的城市三维模型重建过程中成像质量较差的问题,本实施例提供一种及与遥感数据的城市三维模型重建方法,该方法通过对历史飞行架次中拍摄到的图像信息进行分析,得到图片上的特征点,确定特征可用量,根据获得的特征可用量,计算环境匹配驳杂程度;根据匹配过程中产生的模型重建误差,计算得到每个质量等级中的第一平均模型重建误差,进一步得到模型重建误差平差系数;同时基于当时拍摄的遥感状态,对获取到的图片样本进行误差来源特征码的标记;根据获得一架次内的历史记录中所获得的图片误差来源特征码和第一平均模型重建误差进行分类,得到多个第一样本集合,进一步根据模型重建误差平差系数和环境匹配驳杂程度对第一样本集合进行聚类,筛选出优化样本,将获得的优化样本进行再分类,由此得到待分析架次的图片数据所需的第二样本集合,以第二样本集合的中心样本作为参照数据,根据参照数据中所有图片的平均模型重建误差优化对应的待分析架次的建筑三维模型,从而解决在城市三维模型重建过程中成像受环境影响,质量比较差的问题。
具体的,基于遥感数据的城市三维模型重建方法包括以下步骤:
步骤S100:对历史数据库中每个架次的图片数据进行质量分析,通过一个架次中每个图片的特征可用量划分不同的质量分析区间,根据质量分析区间中每个图像的模型重建误差划分质量等级;根据每个质量等级中的模型重建第一平均误差确定模型重建误差平差系数。
本实施例中,检测各个一架次在使用中的模型重建误差大小的变化情况,并且和一架次所有历史内其他一架次进行比较,确定一架次的模型重建误差平差系数。模型重建误差平差系数的确认方式为:
统计一架次内的各个图片关键点所对应的匹配质量。由于每架次数据对地块内重建时,匹配质量会不同,各个时刻的地块匹配质量相较于当时较佳的匹配质量之间的差异大小也不同。然而对于建筑的观感情况并非如此,在不同环境和光照位置的影响下,有些纹理并非正常,尤其是带有眩光或建筑外立面反射时的画面。因此较佳的匹配质量和其它的匹配质量之间会存在差异。
本实施例中将匹配质量的差异分为如下区间,从而表示匹配的质量分布:
在进行本实施例时,获得的画面中不一定全是前景,因此图片的特征可用量会根据拍摄地块时的画面内容有一定差异;而一般飞行中,经过建筑物时画面中出现建筑的情况都包括从距离建筑较远到距离建筑较近的情况,因此对于不同的距离的图像,参与匹配的特征可用量是变化的。
上述情况下,实施者根据相机实际测量的特征可用量分出多个质量分析区间,本实施例中预设数量为五个,即低,较低,中,高,极高。五个质量分析区间的具体数值需要根据特征点检测算法和飞行时的大致距离来确定。
本实施例中,以四旋翼无人机距离建筑10~70m的范围,拍摄时都采用45mm镜头-APS-C传感器为例,使用FAST关键点检测算法,在整张图像检测预设数量个特征点,通过特征点进行图像特征匹配,获得的特征点匹配数量作为特征可用量。在本实施例中,预设数量为2000。由此在匹配时,出现低,较低,中,高,极高的五个预设区间范围设定为小于90,90-200,200-800,800-1500,高于1500。在实际实施时,可能存在设备差异,上述的界限设定为参考数值,需要实施者根据实际情况进行调整。至此划分了五个特征点数量级别的质量分析区间。
本实施例中,在获得的各个质量分析区间内,进一步根据获得的质量分析区间内的图片,计算各个区间内的模型重建误差大小。所述的模型重建误差是指重建时的平面凹凸的程度。由于点云滤波和合并的算法不同,本实施例不限制后处理算法,对于模型重建误差的获得,本实施例中使用以下方式:
对于任一质量分析区间的任一图片的任一参与建筑点云重建的特征点,对后处理的点云与特征点计算得到的三维位置计算点云的最小距离,并将该最小距离视为模型重建误差。本实施例中,点云的后处理为半径滤波器。至此,在一架次中确定每个匹配质量差异区间模型重建误差大小。
根据每个质量分析区间内的最小误差和最大误差的数值范围,划分预设划分数量个质量等级,本实施例中划为三个等级,用于分析不同误差大小等级所对应的典型数值。
根据每个质量等级中的模型重建第一平均误差确定模型重建误差平差系数具体包括:
将每个质量分析区间内的所有等级中的模型重建误差取均值,获得模型重建第二平均误差值,进一步对一架次内所有的质量分析区间获得的模型重建第二平均误差值进行取均值,获得模型重建第一平均误差值。
通过这一手段处理的原因是,由于人对匹配质量的、生活空间、隔热情况、气候等因素,都会导致其成像质量会有一定差异,为了在后期分析建筑重建时所对应参考数据如何进行选择的先例,这里只观测实际模型重建误差的误差大小。
例如:即使其中一个质量分析区间匹配质量小,但发现依然有其他质量分析区间误差大的情况,可以判定为环境的扰动导致匹配质量不能很好地稳定在这个匹配质量。抑或是建筑成像优异的匹配质量低,建筑成像差劲的匹配质量也低,最终需要压缩机以大的误差来维持匹配质量。这些情况将与建筑的匹配质量以及活动程度共同匹配,从而为基于建筑历史图片来设定参考数据的选择策略。
本实施例中,根据一架次内所有图片的模型重建误差进行处理,确定当前架次的模型重建误差平差系数。具体的,获得每个模型重建第二平均误差值与模型重建第一平均误差值的差值绝对值,将每个差值绝对值进行负相关映射并归一化,获得归一化值,以平均后归一化值作为误差平差系数。在本发明实施例中,误差平差系数的表达式为:
Figure 589962DEST_PATH_IMAGE011
其中,
Figure 963174DEST_PATH_IMAGE012
表示误差平差系数,
Figure DEST_PATH_IMAGE013
表示一架次内模型重建过程中获得的所有第二平均误差值数量,
Figure 483017DEST_PATH_IMAGE014
表示模型重建第二平均误差值,
Figure 586803DEST_PATH_IMAGE015
表示模型重建第一平均误差值;abs()为求取绝对值函数;exp()为以自然常数e为底的指数函数。
当一架次所有历史内的模型重建误差变化趋近一致时,每个第二平均误差值与第一平均误差值的差值绝对值大小趋近于0,进而指数函数大小趋近于1,从而最终的模型重建误差平差系数更高。当其中一个变化与其他历史有明显差异时,模型重建误差的平差系数将会变小。以此,通过一架次内各个历史的误差模型重建误差和一架次所有历史的总模型重建误差大小,确定当前一架次的模型重建误差平差系数。
模型重建误差平差系数代表了不同匹配质量区间内模型重建误差模式的统一性。如果统一性较差,则认为在距离建筑较近的情况下,建筑表面材质反光的影响较为强烈,导致远近的特征点所重建的外立面点云不是十分平的,也就会产生重建时常见的异常凹凸和变形情况。
步骤S200:根据每个架次中拍摄图片数据,获得拍摄过程中误差来源特征码。
本实施例中,根据获得的图片中的质量分析区间内模型重建误差大小差异,构建拍摄过程中的误差来源特征码。具体的,将图片中的多个质量分析区间进行标记,标记规则为:质量分析区间内模型重建第二平均误差值最大的一个区间标记为1,其他标记为0,由此构建拍摄过程中误差来源特征码。
步骤S300:根据一个架次内每个图片的特征可用量,获得对应架次的环境匹配驳杂程度。
本实施例中,根据每个图片在参与特征匹配时,参与匹配的特征点数量,确定一架次过程中的匹配质量损失。具体的,对于每个图片中参与特征匹配的特征点,在重建时因平差和RANSAC算法会排除一些外点,本发明根据基于RANSAC的点云配准这种较为经典的方法对三维模型进行建模,因此,对于任何一个图片,计算一减去参与特征匹配的总数与被排除的点的占比,作为环境匹配质量因子,环境匹配质量因子越小,则图片的特征被损失越多,即质量可能较差。
根据一架次在质量分析区间内匹配质量因子的均值和中值,确定环境匹配的驳杂程度,其计算公式为:
Figure 471582DEST_PATH_IMAGE016
其中,
Figure 800932DEST_PATH_IMAGE002
为所述环境匹配质量的驳杂程度,
Figure 62150DEST_PATH_IMAGE003
表示一架次内的一个区间平均的质量因子,
Figure 29231DEST_PATH_IMAGE004
表示一架次内的一个区间图片特征点的质量因子所代表的匹配质量中值,i表示具体的某一个质量分析区间,n为质量分析区间的数量,本实施例中,n的大小为5。
当前环境匹配质量变化的均值与设定环境匹配质量差别越大,则不能很好满足特征匹配的观感较佳的假设,即不同距离、不同,对应的环境匹配的驳杂程度越高。由此,完成了对一架次环境匹配质量驳杂程度。
步骤S400:根据误差来源特征码差异和每个质量等级中的模型重建第一平均误差差异获得不同架次图片数据之间的分类距离;根据分类距离对历史数据库中不同架次的图片数据进行分类,获得多个第一样本集合。
本实施例中,任意两个记录下的一架次内误差来源特征码的汉明距,将汉明距与该两个记录中一架次模型重建第一误差均值的差值对应的绝对值的乘积作为分类距离。
当两个照片状态相似时,分类距离接近于0,越不相似分类距离越大,误差来源特征码的最大距离为5,且误差分布的相似度几乎为零。由此,对一架次内的照片进行分类距离建立。在获得的分类距离的基础上,使用聚类算法进行样本聚类,从而获得多个第一样本集合。具体的聚类算法包括但不限于DBSCAN,K-means,Mean-shift等,实施者可以根据实际需要使用相应的聚类算法。
步骤S500:根据模型重建误差平差系数和环境匹配驳杂程度获得不同架次图片数据之间的差异距离;根据差异距离在每个第一样本集合中筛选出优化样本,根据分类距离对所有优化样本进行分类,获得多个第二样本集合。
本实施例中,根据模型重建误差平差系数和环境匹配驳杂程度获得不同架次图片数据之间的差异距离。
具体的,根据获得的多个第一样本集合,在集合内进行k近邻样本比照,由于云端数据比较多,这里设定k近邻的最大k值为100。设定近邻密度准则函数E,作为第一样本集合中样本的差异距离。
根据差异距离计算公式获得优化样本,差异距离计算公式包括:
Figure 84911DEST_PATH_IMAGE005
其中,
Figure 635979DEST_PATH_IMAGE006
表示记录p和记录q之间的差异距离;
Figure 435307DEST_PATH_IMAGE007
为记录p对应的模型重建误差平差系数;
Figure 21009DEST_PATH_IMAGE008
为记录q对应的模型重建误差平差系数;
Figure 746127DEST_PATH_IMAGE009
为记录p对应的环境匹配的驳杂程度;
Figure 784490DEST_PATH_IMAGE010
为记录q对应的环境匹配的驳杂程度;Dist()函数为距离函数。
其中,Dist()函数具体定义为:若
Figure 121930DEST_PATH_IMAGE009
大于
Figure 827718DEST_PATH_IMAGE010
,则Dist()输出值为两者的差值;若
Figure 461087DEST_PATH_IMAGE009
小于
Figure 986746DEST_PATH_IMAGE010
,则Dist()输出值为两者的差值绝对值的两倍。这样做的目的是为了尽可能考虑比这个记录更好的统一程度,以此挑选出损失情况较好的样本。对于差值小于零的,距离为差值绝对值的两倍,即不主动考虑这种k近邻样本。
这些k近邻样本代表了相对更佳的精度的情况。原因是统一程度越大,各个距离所参与的特征点所求解的点云位置精度是相仿的,因此点云的离散问题较小,二义性以及表面的缺陷会更少,容易产生更佳锐利平整的建筑表面。因此根据局部可达密度的大小,确定筛选出的优化样本,在本发明实施例中,设置具体密度阈值进行筛选,若局部可达密度大于预设密度阈值,则认为对应样本为优化样本,需要说明的是,密度阈值可根据数据中局部可达密度的具体分布进行具体设置,在此不做限定和约束。其中,局部可达密度为统计学中常用技术手段,是领域内人员已知方法,具体不做过多阐述。
对于一个建筑对应的各架次所拍摄的图像,都有基于该时刻的重建记录,从基于最新架次的图片,找到这些k近邻样本以此得到一个建筑优化样本。根据获得的优化样本,使用无监督分类,获得第二样本集合。
具体的,使用Meanshift方式,对优化样本进行无监督分类,Meanshift地起始点为一架次中建筑地每个记录。在优化样本中,以分类距离作为距离函数,以得到若干个类型的第二样本集合。
步骤S600:根据待分析架次的图片数据,确定匹配的第二样本集合,以第二样本集合的中心样本作为参照数据;根据参照数据中所有图片的平均模型重建误差优化对应的待分析架次的建筑三维模型。
具体的,根据获得的第二样本集合,选择第二样本集合的中心样本,作为参照数据。该样本即为这个场景类型中最符合建筑历史且最能带来更佳使用体验的参照数据。
进一步的,根据历史中记录飞行的架次的数据可以区分得到建筑近期所采用的优化样本图片,从而实现基于待分析架次的拍摄数据,从之前记录的历史数据中自动挑选用于重建该建筑的样本图片。
这样,可以计算待分析架次对应的优化样本图片集合的建筑重建过程中平均重投影误差。平均重投影误差的计算是根据三维重建算法而定的,且技术上公知的,本实施例不再约束和赘述。基于每个架次的重投影误差,可以针对任一建筑从历史的遥感数据中优化任一建筑三维模型,从而可以推广到整个城市级别。
需要说明的是:上述本发明实施例先后顺序仅仅为了描述,不代表实施例的优劣。在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。

Claims (10)

1.基于遥感数据的城市三维模型重建方法,其特征在于,所述方法包括:
对历史数据库中每个架次的图片数据进行质量分析,通过一个架次中每个图片的特征可用量划分不同的质量分析区间,根据质量分析区间中每个图像的模型重建误差划分质量等级;根据每个质量等级中的模型重建第一平均误差确定模型重建误差平差系数;
根据每个架次中拍摄图片数据,获得拍摄过程中误差来源特征码;
根据一个架次内每个图片的特征可用量,获得对应架次的环境匹配驳杂程度;
根据误差来源特征码差异和每个质量等级中的模型重建第一平均误差差异获得不同架次图片数据之间的分类距离;根据分类距离对历史数据库中不同架次的图片数据进行分类,获得多个第一样本集合;
根据模型重建误差平差系数和环境匹配驳杂程度获得不同架次图片数据之间的差异距离;根据差异距离在每个第一样本集合中筛选出优化样本;根据分类距离对所有优化样本进行分类,获得多个第二样本集合;
根据待分析架次的图片数据,确定匹配的第二样本集合,以第二样本集合的中心样本作为参照数据;根据参照数据中所有图片的平均模型重建误差优化对应的待分析架次的建筑三维模型。
2.根据权利要求1所述的基于遥感数据的城市三维模型重建方法,其特征在于,所述特征可用量的获取方法包括:
使用FAST关键点检测算法,对整张图像检测预设检测数量个特征点,通过特征点进行图像特征匹配,获得的特征点匹配数量作为特征可用量。
3.根据权利要求1所述的基于遥感数据的城市三维模型重建方法,其特征在于,所述根据质量分析区间中每个图像的模型重建误差划分质量等级包括:
通过预设区间范围,将各个架次中图片的特征可用量大小划分出多个质量分析区间;根据获得的质量分析区间内的图片,计算各个区间内的模型重建误差大小;根据每个质量分析区间的最大误差和最小误差,划分预设划分数量个质量等级。
4.根据权利要求1所述的基于遥感数据的城市三维模型重建方法,其特征在于,所述模型重建误差平差系数确定,包括:
获得每个质量等级中的模型重建第二平均误差值;对所有质量等级中的模型重建第二平均误差求平均,获得模型重建第一平均误差值;
获得每个质量等级中模型重建第二平均误差值与模型重建第一平均误差值的差值绝对值,将每个差值绝对值进行负相关映射并归一化,获得归一化值,以平均归一化值作为误差平差系数。
5.根据权利要求1所述的基于遥感数据的城市三维模型重建方法,其特征在于,所述误差来源特征码包括:
设定编码为一架次内各个质量分析区间中,其中平均误差最大的一个质量分析区间标记为1,其他的质量分析区间标记为0,从而构建误差来源特征码。
6.根据权利要求1所述的基于遥感数据的城市三维模型重建方法,其特征在于,所述环境匹配驳杂程度获取方法包括:
根据获得的一个架次中每个图片的特征可用量,计算参与特征可用量匹配的总数与被排除的占比,以一减去所述占比作为环境匹配质量因子;
根据环境匹配驳杂程度公式获得环境匹配驳杂程度,所述环境匹配驳杂程度公式为:
Figure 550854DEST_PATH_IMAGE001
其中,
Figure DEST_PATH_IMAGE002
为环境匹配驳杂程度,
Figure 975013DEST_PATH_IMAGE003
表示一架次内的一个区间平均的质量因子,
Figure DEST_PATH_IMAGE004
表示一架次内的一个区间图片特征点的质量因子所代表的匹配质量中值,i表示具体的某一个质量分析区间,n为质量分析区间的数量。
7.根据权利要求1所述的基于遥感数据的城市三维模型重建方法,其特征在于,所述根据误差来源特征码差异和每个质量等级中的模型重建第一平均误差差异获得不同架次图片数据之间的分类距离,包括:
任意两个记录下的一架次内误差来源特征码的汉明距,将汉明距与该两个记录中一架次模型重建第一误差均值的差值对应的绝对值的乘积作为分类距离。
8.根据权利要求1所述的基于遥感数据的城市三维模型重建方法,其特征在于,所述根据模型重建误差平差系数和环境匹配的驳杂程度,建立差异距离包括:
根据差异距离计算公式获得优化样本,差异距离计算公式包括:
Figure 905798DEST_PATH_IMAGE005
其中,
Figure DEST_PATH_IMAGE006
表示记录p和记录q之间的差异距离;
Figure 782618DEST_PATH_IMAGE007
为记录p对应的模型重建误差平差系数;
Figure 919201DEST_PATH_IMAGE008
为记录q对应的模型重建误差平差系数;
Figure DEST_PATH_IMAGE009
为记录p对应的环境匹配的驳杂程度;
Figure 961981DEST_PATH_IMAGE010
为记录q对应的环境匹配的驳杂程度;Dist()函数为距离函数。
9.根据权利要求8所述的基于遥感数据的城市三维模型重建方法,其特征在于,所述优化样本的筛选方法包括:
根据获得k邻近差异距离,计算各个样本的局部可达密度,根据局部可达密度的大小,确定筛选出的优化样本。
10.根据权利要求8所述的基于遥感数据的城市三维模型重建方法,其特征在于,所述K邻近差异距离计算公式中的距离函数包括:
Figure 752083DEST_PATH_IMAGE009
大于,
Figure 444095DEST_PATH_IMAGE010
则Dist()输出值为两者的差值;若小于
Figure 853211DEST_PATH_IMAGE010
,则Dist()输出值为两者的差值绝对值的两倍。
CN202211560990.5A 2022-12-07 2022-12-07 基于遥感数据的城市三维模型重建方法 Active CN115578531B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211560990.5A CN115578531B (zh) 2022-12-07 2022-12-07 基于遥感数据的城市三维模型重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211560990.5A CN115578531B (zh) 2022-12-07 2022-12-07 基于遥感数据的城市三维模型重建方法

Publications (2)

Publication Number Publication Date
CN115578531A true CN115578531A (zh) 2023-01-06
CN115578531B CN115578531B (zh) 2023-04-11

Family

ID=84590287

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211560990.5A Active CN115578531B (zh) 2022-12-07 2022-12-07 基于遥感数据的城市三维模型重建方法

Country Status (1)

Country Link
CN (1) CN115578531B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116432052A (zh) * 2023-06-12 2023-07-14 深圳市欣精艺科技有限公司 一种新能源汽车模具用夹具质量检测方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018223950A1 (zh) * 2017-06-05 2018-12-13 中国测绘科学研究院 卫星激光测高数据辅助提取高程控制点方法
CN111583411A (zh) * 2020-04-25 2020-08-25 镇江市勘察测绘研究院 一种基于倾斜摄影的三维模型建立方法
CN113532391A (zh) * 2021-06-29 2021-10-22 湖北智凌数码科技有限公司 一种基于倾斜摄影与实景三维模型的不动产登记方法
CN114170113A (zh) * 2022-01-20 2022-03-11 湖北晓雲科技有限公司 一种无人机航空测绘三维建模方法及系统
CN114491927A (zh) * 2021-12-15 2022-05-13 水利部南京水利水文自动化研究所 城市生态环境气土水耦合模拟预报方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018223950A1 (zh) * 2017-06-05 2018-12-13 中国测绘科学研究院 卫星激光测高数据辅助提取高程控制点方法
CN111583411A (zh) * 2020-04-25 2020-08-25 镇江市勘察测绘研究院 一种基于倾斜摄影的三维模型建立方法
CN113532391A (zh) * 2021-06-29 2021-10-22 湖北智凌数码科技有限公司 一种基于倾斜摄影与实景三维模型的不动产登记方法
CN114491927A (zh) * 2021-12-15 2022-05-13 水利部南京水利水文自动化研究所 城市生态环境气土水耦合模拟预报方法
CN114170113A (zh) * 2022-01-20 2022-03-11 湖北晓雲科技有限公司 一种无人机航空测绘三维建模方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
王云川等: "多旋翼单镜头无人机不同航线规划的三维建模方法评述", 《测绘通报》 *
郭复胜等: "基于辅助信息的无人机图像批处理三维重建方法", 《自动化学报》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116432052A (zh) * 2023-06-12 2023-07-14 深圳市欣精艺科技有限公司 一种新能源汽车模具用夹具质量检测方法
CN116432052B (zh) * 2023-06-12 2023-08-18 深圳市欣精艺科技有限公司 一种新能源汽车模具用夹具质量检测方法

Also Published As

Publication number Publication date
CN115578531B (zh) 2023-04-11

Similar Documents

Publication Publication Date Title
CN110988912B (zh) 自动驾驶车辆的道路目标与距离检测方法、系统、装置
CN107038717B (zh) 一种基于立体栅格自动分析3d点云配准误差的方法
CN113436260B (zh) 基于多传感器紧耦合的移动机器人位姿估计方法和系统
CN110807809B (zh) 基于点线特征和深度滤波器的轻量级单目视觉定位方法
CN112419374B (zh) 一种基于图像配准的无人机定位方法
CN113470090A (zh) 基于sift-shot特征的多固态激光雷达外参标定方法
CN115761550A (zh) 一种基于激光雷达点云和相机图像融合的水面目标检测方法
CN111369495A (zh) 一种基于视频的全景图像的变化检测方法
CN116309757B (zh) 基于机器视觉的双目立体匹配方法
CN115578531B (zh) 基于遥感数据的城市三维模型重建方法
CN112734822B (zh) 一种基于红外和可见光图像的立体匹配算法
CN116703251B (zh) 基于人工智能的胶圈生产质量检测方法
CN108759788A (zh) 无人机影像定位定姿方法及无人机
CN102494663A (zh) 摆动喷管的摆动角度的测量系统及摆动角度的测量方法
CN112946679A (zh) 一种基于人工智能的无人机测绘果冻效应检测方法及系统
CN108510544B (zh) 一种基于特征聚类的光条定位方法
CN107220996A (zh) 一种基于三角结构一致的无人机线阵与面阵影像匹配方法
CN116310447A (zh) 基于计算机视觉的遥感图像变化智能检测方法及系统
CN117315049B (zh) 三维全貌测量的比例尺标定方法、系统及装置
CN109063577B (zh) 基于信息增益率的卫星影像分割最佳分割尺度确定方法
CN111260735B (zh) 一种单次拍摄的lidar与全景相机的外参数标定方法
WO2023130842A1 (zh) 一种相机位姿确定方法和装置
CN110390338B (zh) 一种基于非线性引导滤波与比率梯度的sar高精度匹配方法
CN115661363B (zh) 利用无人机倾斜摄影的三维建筑物模型构建方法
CN115937325B (zh) 一种结合毫米波雷达信息的车端摄像头标定方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant