CN117456144A - 基于可见光遥感图像的目标建筑物三维模型优化方法 - Google Patents

基于可见光遥感图像的目标建筑物三维模型优化方法 Download PDF

Info

Publication number
CN117456144A
CN117456144A CN202311502664.3A CN202311502664A CN117456144A CN 117456144 A CN117456144 A CN 117456144A CN 202311502664 A CN202311502664 A CN 202311502664A CN 117456144 A CN117456144 A CN 117456144A
Authority
CN
China
Prior art keywords
dimensional model
vertex
image
network
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311502664.3A
Other languages
English (en)
Other versions
CN117456144B (zh
Inventor
徐从安
高龙
孙炜玮
曹振赫
吴俊峰
闫奕名
刘新琦
宿南
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Naval Aeronautical University
Original Assignee
Naval Aeronautical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Naval Aeronautical University filed Critical Naval Aeronautical University
Priority to CN202311502664.3A priority Critical patent/CN117456144B/zh
Publication of CN117456144A publication Critical patent/CN117456144A/zh
Application granted granted Critical
Publication of CN117456144B publication Critical patent/CN117456144B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Architecture (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于可见光遥感图像的目标建筑物三维模型优化方法,包括构建模型优化网络、训练网络、使用训练后的网络对三维模型进行优化等步骤。所述模型优化网络的输入为目标建筑物的轮廓图像、视角信息及对应的三维模型,输出为损失值;所述视角信息代表了轮廓图像和三维模型之间的角度关系,所述损失值代表了轮廓图像和三维模型的重合程度。本发明对可见光遥感图像进行目标轮廓提取后,将目标的轮廓图像与该视角下的目标三维模型的整体轮廓进行匹配,根据匹配差异对目标三维模型进行形变,并通过一系列损失函数进行约束,减少领域差距,优化模型细节,进而获得结构完整、尺度精确的三维建筑模型。

Description

基于可见光遥感图像的目标建筑物三维模型优化方法
技术领域
本发明涉及一种对三维模型进行优化处理的方法,具体是一种对建筑物三维模型优化处理的方法。
背景技术
近年来,航空航天科技水平在世界各国不断提高,无人机技术和航空航天技术日趋成熟,遥感图像的获取方式也日益丰富。可见光遥感图像能够真实地反映目标周边环境的情况,从多个角度观察目标,获得更好的立体信息,符合人眼三维浏览的习惯。因此,可见光遥感图像已经广泛应用于地理分析、人工制图和三维建模等领域。
目前主流的基于图像特征映射的建筑物三维建模方法是通过编码器提取图像中所包含的丰富的特征信息,并通过解码器网络根据学习到的先验知识将特征信息转化为三维数据,生成目标建筑物的三维模型。该方法对图像数量需求较低,通常只需要少量图像即可获得三维模型,在遥感资源稀缺的情况下仍可以实现目标三维建模工作。但是,现有的三维模型生成方法难以保证所有结果都具有较高的质量,模型可能出现边界形状较差、形状或比例错误等问题,因此还需要对三维模型进一步优化。
现有技术中,多数的模型优化方法都是通过对原始的三维模型进行简化来实现的,存在以下缺陷:
一、现有的优化方法虽然可以获得更为直观的三维模型,但可能会导致三维模型缺失细节信息,甚至发生模型结构错误的问题。
二、现有模型优化方法的优化效果受模型复杂程度所影响,若三维模型结构复杂,则需要大量时间进行计算。
三、这些优化方法很少利用到模型本身之外的信息对优化结果进行约束,无法充分利用图像中所包含的建筑物的视角信息和轮廓信息,可能会出现对三维模型过度简化等问题。
发明内容
本发明提出了一种基于可见光遥感图像的目标建筑物三维模型优化方法,其目的是:有效利用可见光遥感图像中目标建筑物的视角信息与轮廓信息,解决三维模型细节缺失、优化时间长、容易过度简化的问题。
本发明技术方案如下:
一种基于可见光遥感图像的目标建筑物三维模型优化方法,步骤包括:
步骤1、构建模型优化网络,所述模型优化网络的输入为目标建筑物的轮廓图像、视角信息及对应的三维模型,输出为损失值;所述视角信息代表了轮廓图像和三维模型之间的角度关系,所述损失值代表了轮廓图像和三维模型的重合程度;
步骤2、将训练数据集输入到模型优化网络中进行训练,所述训练数据集包括多组训练样本,各所述训练样本中包含重合程度满足要求的轮廓图像和三维模型,以及对应的视角信息;训练时,通过不断调整模型优化网络的参数使网络输出的损失值逐渐减小至满足要求的最小值,此时模型优化网络训练完毕;
步骤3、使用训练好的模型优化网络对待优化三维模型进行优化:
步骤3-1、获取待优化三维模型对应的建筑物遥感图像,从建筑物遥感图像中获取目标建筑物的轮廓图像;
步骤3-2、将根据目标建筑物的轮廓图像输入到角度估计网络之中进行相机参数估计,得到目标建筑物的视角信息;
步骤3-3、将目标建筑物的轮廓图像和视角信息,以及待优化的三维模型输入到模型优化网络中,得到损失值;
步骤3-4、根据损失值调整三维模型中顶点的位置,得到新的三维模型;
步骤3-5、将新的三维模型,以及轮廓图像和视角信息再次输入到模型优化网络中,得到当前损失值,判断当前损失值是否低于预设值,如果低于预设值则将当前的三维模型作为优化后的三维模型,否则返回执行步骤3-4。
作为所述基于可见光遥感图像的目标建筑物三维模型优化方法的进一步改进,所述模型优化网络的处理过程为:
步骤A1、将输入的轮廓图像和三维模型的角度对齐;
步骤A2、从轮廓图像中提取图像特征;
步骤A3、通过三维模型的顶点向图像特征的投影,得到三维模型的顶点特征向量集;
步骤A4、将顶点特征向量集输入到图卷积网络,得到细化特征向量集,再基于细化特征向量集得到顶点位移分数和顶点置信度分数;
步骤A5、根据顶点位移分数和顶点置信度分数计算损失值。
作为所述基于可见光遥感图像的目标建筑物三维模型优化方法的进一步改进,步骤A2的具体步骤为:将轮廓图像记为PB,从轮廓图像中提取图像特征记为F(PB),设该图像特征的通道数为n。
作为所述基于可见光遥感图像的目标建筑物三维模型优化方法的进一步改进,步骤A3的具体步骤为:根据输入的视角信息CB,通过透射投影将将输入的三维模型MB中的所有顶点的坐标值集合v投影到F(PB)上,对于图像特征F(PB)的第i个通道,投影得到的特征向量为:
fv,i=Proj(v;F(PB),CB),i=1,2,…,n;
其中,Proj(·)表示带有双线性插值的透视投影;
得到的三维模型的顶点特征向量集记为:
Fv=(fv,1,fv,2,…,fv,n)T
作为所述基于可见光遥感图像的目标建筑物三维模型优化方法的进一步改进,步骤A4的具体步骤为:将顶点特征向量集记Fv输入到参数为θ的图卷积网络G(·),得到细化特征向量集Hv:Hv=G(Fv;θ);参数θ为图卷积网络权值矩阵,属于步骤2中需要更新的网络参数;
然后,将细化特征向量集Hv分别输入到参数为的全连接分支Bdis和参数为的全连接分支Bconf进行映射,得到顶点位移分数Vdis和顶点置信度分数Vconf
和/>分别为全连接分支Bdis和Bconf的权重矩阵,属于步骤2中需要更新的网络参数。
作为所述基于可见光遥感图像的目标建筑物三维模型优化方法的进一步改进,所述损失值包括顶点位移损失:
其中,Vdis,i是顶点位移分数Vdis中第i个三维模型顶点对应的位移分数。
作为所述基于可见光遥感图像的目标建筑物三维模型优化方法的进一步改进,所述损失值包括顶点对称损失:
其中,N为三维模型中顶点的总数;Vconf,i∈Vconf,是顶点置信度分数Vconf中第i个三维模型顶点对应的位移分数;是将三维模型中第i个顶点的坐标vi进行对称反射得到的结果,对称反射过程为/> 是物体反射平面的法向量;/>的计算方式为:遍历三维模型的所有顶点,对于任一顶点vj,分别求得对应的/>取所有/>中的最小值即为/>λSymB为预设的超参数。
作为所述基于可见光遥感图像的目标建筑物三维模型优化方法的进一步改进,所述损失值包括边缘轮廓损失。
相对于现有技术,本发明具有以下有益效果:
1、本发明对可见光遥感图像进行目标轮廓提取后,将目标的轮廓图像与该视角下的目标三维模型的整体轮廓进行匹配,根据匹配差异对目标三维模型进行形变,并通过一系列损失函数进行约束,减少领域差距,优化模型细节,进而获得结构完整、尺度精确的三维建筑模型。该方法有效利用可见光遥感图像中目标的视角信息与轮廓信息,优化速度快,不会出现过度简化的问题,适用于大多数目标建筑物的三维模型优化。
2、本方法不需要大量数据进行训练,可以相对容易的部署于各类目标三维重建任务之中,适用于遥感资源匮乏的情况,可以快速应用于城市规划,应急救灾,军事战场等各个领域。
附图说明
图1为本发明优化方法的过程示意图;
图2为模型优化网络的示意图。
具体实施方式
下面结合附图详细说明本发明的技术方案:
如图1,一种基于可见光遥感图像的目标建筑物三维模型优化方法,步骤包括:
步骤1、构建模型优化网络,所述模型优化网络的输入为目标建筑物的轮廓图像、视角信息及对应的三维模型,输出为损失值。所述视角信息代表了轮廓图像和三维模型之间的角度关系,所述损失值代表了轮廓图像和三维模型的重合程度。
所述轮廓图像的获取方式为:在遥感图像中,选取需要进行模型优化的目标,并对目标进行剪裁,获得单个目标图像,同时将目标的整体轮廓从图像中提取出来,去除目标的背景信息,并对无背景的目标图像进行简单的角度矫正,获得目标的轮廓图像。
所述视角信息包括旋转角、俯仰角以及距离参数。
如图1和2,所述模型优化网络的处理过程为:
步骤A1、将输入的轮廓图像和三维模型的角度对齐。
步骤A2、从轮廓图像中提取图像特征。
具体步骤为:将轮廓图像记为PB,通过编码器网络从轮廓图像中提取图像特征记为F(PB),设该图像特征的通道数为n。本实施例中,特征提取网络以ResNet18网络为主干,主要使用该网络的前两个卷积模块,通过特征提取网络可以获取通道数为128的图像特征F(PB)。
步骤A3、通过三维模型的顶点向图像特征的投影,得到三维模型的顶点特征向量集。
具体步骤为:根据输入的视角信息CB,通过透射投影将将输入的三维模型MB中的所有顶点的坐标值集合v投影到F(PB)上,对于图像特征F(PB)的第i个通道,投影得到的特征向量为:
fv,i=Proj(v;F(PB),CB),i=1,2,…,n;
其中,Proj(·)表示带有双线性插值的透视投影。
得到的三维模型的顶点特征向量集记为:
Fv=(fv,1,fv,2,…,fv,n)T
步骤A4、将顶点特征向量集输入到图卷积网络,得到细化特征向量集,再基于细化特征向量集得到顶点位移分数和顶点置信度分数。
具体步骤为:将顶点特征向量集记Fv输入到参数为θ的图卷积网络G(·),得到细化特征向量集Hv:Hv=G(Fv;θ);参数θ为图卷积网络权值矩阵,属于后续步骤2中需要更新的网络参数。
图卷积网络G(·)对特征向量中的节点与其邻居节点进行信息融合从而进行特征细化,将初始特征向量与图结构相结合。
然后,将细化特征向量集Hv分别输入到参数为的全连接分支Bdis和参数为的全连接分支Bconf进行映射,得到顶点位移分数Vdis和顶点置信度分数Vconf
和/>分别为全连接分支Bdis和Bconf的权重矩阵,属于后续步骤2中需要更新的网络参数。
至此,本方法实现了三维模型顶点到轮廓图像特征的映射。
步骤A5、根据顶点位移分数和顶点置信度分数计算损失值。
所述损失值包括顶点位移损失、顶点对称损失,优选的,还包括常见的边缘轮廓损失。
顶点位移损失主要用于防止三维模型形在形变程中顶点变化幅度过大的问题,计算方式为:
其中,Vdis,i是顶点位移分数Vdis中第i个三维模型顶点对应的位移分数。
顶点对称损失计算方式为:
其中,N为三维模型中顶点的总数;Vconf,i∈Vconf,是顶点置信度分数Vconf中第i个三维模型顶点对应的位移分数;是将三维模型中第i个顶点的坐标vi进行对称反射得到的结果,对称反射过程为/> 是物体反射平面的法向量,一般情况下,优化网络会输出对齐的模型,故/> 的计算方式为:遍历三维模型的所有顶点,对于任一顶点vj,分别求得对应的/> 取所有/>中的最小值即为/>λSymB为预设的超参数,依据实验结果的变化不断调整,根据大量的实验结果表明,将该参数设置为0.0005后算法的性能将达到最优。
顶点对称损失通过顶点置信度分数加权来减轻模型对称先验性对优化的影响,实现在适当时候局部偏离三维对称性从而达到对非对称的三维模型的优化目的。
所述边缘轮廓损失用于约束目标形状与输入目标图像轮廓之间的匹配问题,其为本领域常见的重建损失函数,具体计算方式不做赘述。
步骤2、将训练数据集输入到模型优化网络中进行训练,所述训练数据集包括多组训练样本,各所述训练样本中包含重合程度满足要求的轮廓图像和三维模型,以及对应的视角信息。训练时,通过梯度下降法不断调整模型优化网络的参数,使网络输出的损失值逐渐减小至满足要求的最小值,此时模型优化网络训练完毕。
步骤3、使用训练好的模型优化网络对待优化三维模型进行优化:
步骤3-1、获取待优化三维模型对应的建筑物遥感图像,从建筑物遥感图像中获取目标建筑物的轮廓图像。
步骤3-2、将根据目标建筑物的轮廓图像输入到角度估计网络之中进行相机参数估计,得到目标建筑物的视角信息。
步骤3-3、将目标建筑物的轮廓图像和视角信息,以及待优化的三维模型输入到模型优化网络中,得到损失值。
步骤3-4、根据损失值调整三维模型中顶点的位置,得到新的三维模型。
步骤3-5、将新的三维模型,以及轮廓图像和视角信息再次输入到模型优化网络中,得到当前损失值,判断当前损失值是否低于预设值,如果低于预设值则将当前的三维模型作为优化后的三维模型,否则返回执行步骤3-4。
在各项损失函数的约束下,随着顶点的移动,损失逐渐减小,建筑物三维模型的整体轮廓逐渐与输入图像中建筑物的轮廓相匹配,最终达到建筑物轮廓的高度重合,实现建筑物三维模型的优化。

Claims (8)

1.一种基于可见光遥感图像的目标建筑物三维模型优化方法,其特征在于步骤包括:
步骤1、构建模型优化网络,所述模型优化网络的输入为目标建筑物的轮廓图像、视角信息及对应的三维模型,输出为损失值;所述视角信息代表了轮廓图像和三维模型之间的角度关系,所述损失值代表了轮廓图像和三维模型的重合程度;
步骤2、将训练数据集输入到模型优化网络中进行训练,所述训练数据集包括多组训练样本,各所述训练样本中包含重合程度满足要求的轮廓图像和三维模型,以及对应的视角信息;训练时,通过不断调整模型优化网络的参数使网络输出的损失值逐渐减小至满足要求的最小值,此时模型优化网络训练完毕;
步骤3、使用训练好的模型优化网络对待优化三维模型进行优化:步骤3-1、获取待优化三维模型对应的建筑物遥感图像,从建筑物遥感图像中获取目标建筑物的轮廓图像;
步骤3-2、将根据目标建筑物的轮廓图像输入到角度估计网络之中进行相机参数估计,得到目标建筑物的视角信息;
步骤3-3、将目标建筑物的轮廓图像和视角信息,以及待优化的三维模型输入到模型优化网络中,得到损失值;
步骤3-4、根据损失值调整三维模型中顶点的位置,得到新的三维模型;
步骤3-5、将新的三维模型,以及轮廓图像和视角信息再次输入到模型优化网络中,得到当前损失值,判断当前损失值是否低于预设值,如果低于预设值则将当前的三维模型作为优化后的三维模型,否则返回执行步骤3-4。
2.如权利要求1所述的基于可见光遥感图像的目标建筑物三维模型优化方法,其特征在于:所述模型优化网络的处理过程为:
步骤A1、将输入的轮廓图像和三维模型的角度对齐;
步骤A2、从轮廓图像中提取图像特征;
步骤A3、通过三维模型的顶点向图像特征的投影,得到三维模型的顶点特征向量集;
步骤A4、将顶点特征向量集输入到图卷积网络,得到细化特征向量集,再基于细化特征向量集得到顶点位移分数和顶点置信度分数;
步骤A5、根据顶点位移分数和顶点置信度分数计算损失值。
3.如权利要求2所述的基于可见光遥感图像的目标建筑物三维模型优化方法,其特征在于,步骤A2的具体步骤为:将轮廓图像记为PB,从轮廓图像中提取图像特征记为F(PB),设该图像特征的通道数为n。
4.如权利要求3所述的基于可见光遥感图像的目标建筑物三维模型优化方法,其特征在于,步骤A3的具体步骤为:根据输入的视角信息CB,通过透射投影将将输入的三维模型MB中的所有顶点的坐标值集合v投影到F(PB)上,对于图像特征F(PB)的第i个通道,投影得到的特征向量为:
fv,i=Proj(v;F(PB),CB),i=1,2,...,n;
其中,Proj(·)表示带有双线性插值的透视投影;
得到的三维模型的顶点特征向量集记为:
Fv=(fv,1,fv,2,...,fv,n)T
5.如权利要求4所述的基于可见光遥感图像的目标建筑物三维模型优化方法,其特征在于,步骤A4的具体步骤为:将顶点特征向量集记Fv输入到参数为θ的图卷积网络G(·),得到细化特征向量集Hv:Hv=G(Fv;θ);参数θ为图卷积网络权值矩阵,属于步骤2中需要更新的网络参数;
然后,将细化特征向量集Hv分别输入到参数为的全连接分支Bdis和参数为/>的全连接分支Bconf进行映射,得到顶点位移分数Vdis和顶点置信度分数Vconf
和/>分别为全连接分支Bdis和Bconf的权重矩阵,属于步骤2中需要更新的网络参数。
6.如权利要求5所述的基于可见光遥感图像的目标建筑物三维模型优化方法,其特征在于,所述损失值包括顶点位移损失:
其中,Vdis,i是顶点位移分数Vdis中第i个三维模型顶点对应的位移分数。
7.如权利要求5所述的基于可见光遥感图像的目标建筑物三维模型优化方法,其特征在于,所述损失值包括顶点对称损失:
其中,N为三维模型中顶点的总数;Vconf,i∈Vconf,是顶点置信度分数Vconf中第i个三维模型顶点对应的位移分数;是将三维模型中第i个顶点的坐标vi进行对称反射得到的结果,对称反射过程为/> 是物体反射平面的法向量;/>的计算方式为:遍历三维模型的所有顶点,对于任一顶点vj,分别求得对应的/>取所有/>中的最小值即为/>λSymB为预设的超参数。
8.如权利要求5所述的基于可见光遥感图像的目标建筑物三维模型优化方法,其特征在于,所述损失值包括边缘轮廓损失。
CN202311502664.3A 2023-11-10 2023-11-10 基于可见光遥感图像的目标建筑物三维模型优化方法 Active CN117456144B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311502664.3A CN117456144B (zh) 2023-11-10 2023-11-10 基于可见光遥感图像的目标建筑物三维模型优化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311502664.3A CN117456144B (zh) 2023-11-10 2023-11-10 基于可见光遥感图像的目标建筑物三维模型优化方法

Publications (2)

Publication Number Publication Date
CN117456144A true CN117456144A (zh) 2024-01-26
CN117456144B CN117456144B (zh) 2024-05-07

Family

ID=89596548

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311502664.3A Active CN117456144B (zh) 2023-11-10 2023-11-10 基于可见光遥感图像的目标建筑物三维模型优化方法

Country Status (1)

Country Link
CN (1) CN117456144B (zh)

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110517352A (zh) * 2019-08-27 2019-11-29 电子科技大学 一种物体的三维重建方法、存储介质、终端及系统
WO2020037680A1 (zh) * 2018-08-24 2020-02-27 太平洋未来科技(深圳)有限公司 基于光线的三维人脸优化方法、装置及电子设备
CN111652892A (zh) * 2020-05-02 2020-09-11 王磊 一种基于深度学习的遥感影像建筑物矢量提取及优化方法
CN113256799A (zh) * 2021-06-07 2021-08-13 广州虎牙科技有限公司 一种三维人脸模型训练方法和装置
WO2021253788A1 (zh) * 2020-06-19 2021-12-23 北京达佳互联信息技术有限公司 一种人体三维模型构建方法及装置
CN114373056A (zh) * 2021-12-17 2022-04-19 云南联合视觉科技有限公司 一种三维重建方法、装置、终端设备及存储介质
US20220215622A1 (en) * 2020-02-28 2022-07-07 Aurora Solar Inc. Automated three-dimensional building model estimation
US20220414910A1 (en) * 2020-08-31 2022-12-29 Tencent Technology (Shenzhen) Company Limited Scene contour recognition method and apparatus, computer-readable medium, and electronic device
WO2023030381A1 (zh) * 2021-09-01 2023-03-09 北京字跳网络技术有限公司 三维人头重建方法、装置、设备及介质
CN116091574A (zh) * 2023-01-09 2023-05-09 西安交通大学 一种基于平面约束与位置约束的3d目标检测方法及系统
CN116189006A (zh) * 2023-02-13 2023-05-30 湖南星图空间信息技术有限公司 一种支持三维数据的遥感影像建筑物提取方法
CN116682021A (zh) * 2023-05-22 2023-09-01 中国地质大学(武汉) 一种高分辨率遥感影像建筑物矢量轮廓数据提取方法
CN116958453A (zh) * 2023-09-20 2023-10-27 成都索贝数码科技股份有限公司 基于神经辐射场的三维模型重建方法、设备和介质

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020037680A1 (zh) * 2018-08-24 2020-02-27 太平洋未来科技(深圳)有限公司 基于光线的三维人脸优化方法、装置及电子设备
CN110517352A (zh) * 2019-08-27 2019-11-29 电子科技大学 一种物体的三维重建方法、存储介质、终端及系统
US20220215622A1 (en) * 2020-02-28 2022-07-07 Aurora Solar Inc. Automated three-dimensional building model estimation
CN111652892A (zh) * 2020-05-02 2020-09-11 王磊 一种基于深度学习的遥感影像建筑物矢量提取及优化方法
WO2021253788A1 (zh) * 2020-06-19 2021-12-23 北京达佳互联信息技术有限公司 一种人体三维模型构建方法及装置
US20220414910A1 (en) * 2020-08-31 2022-12-29 Tencent Technology (Shenzhen) Company Limited Scene contour recognition method and apparatus, computer-readable medium, and electronic device
CN113256799A (zh) * 2021-06-07 2021-08-13 广州虎牙科技有限公司 一种三维人脸模型训练方法和装置
WO2023030381A1 (zh) * 2021-09-01 2023-03-09 北京字跳网络技术有限公司 三维人头重建方法、装置、设备及介质
CN114373056A (zh) * 2021-12-17 2022-04-19 云南联合视觉科技有限公司 一种三维重建方法、装置、终端设备及存储介质
CN116091574A (zh) * 2023-01-09 2023-05-09 西安交通大学 一种基于平面约束与位置约束的3d目标检测方法及系统
CN116189006A (zh) * 2023-02-13 2023-05-30 湖南星图空间信息技术有限公司 一种支持三维数据的遥感影像建筑物提取方法
CN116682021A (zh) * 2023-05-22 2023-09-01 中国地质大学(武汉) 一种高分辨率遥感影像建筑物矢量轮廓数据提取方法
CN116958453A (zh) * 2023-09-20 2023-10-27 成都索贝数码科技股份有限公司 基于神经辐射场的三维模型重建方法、设备和介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
HONG, J;KONG, A.;LIANG, J.;CHEN, C: "Application of UAV remote sensing in 3D modeling of ancient buildings and accuracy evaluation", INTERNATIONAL CONFERENCE ON GEOGRAPHIC INFORMATION AND REMOTE SENSING TECHNOLOGY (GIRST 2022), vol. 12552, 24 June 2023 (2023-06-24), pages 1 - 6 *
郝明;邓喀中;张华;: "基于遥感数据提取建筑物的主动轮廓改进模型", 中国矿业大学学报, no. 05, 15 September 2012 (2012-09-15), pages 141 - 146 *
龙宇航;吴德胜;: "高空遥感图像空间特征信息三维虚拟重建仿真", 计算机仿真, no. 12, 15 December 2019 (2019-12-15), pages 63 - 67 *

Also Published As

Publication number Publication date
CN117456144B (zh) 2024-05-07

Similar Documents

Publication Publication Date Title
WO2018000752A1 (zh) 一种基于多尺度cnn和连续crf的单目图像深度估计方法
CN108038906B (zh) 一种基于图像的三维四边形网格模型重建方法
EP3093823B1 (en) Static object reconstruction method and system
CN114758252B (zh) 基于图像的分布式光伏屋顶资源分割与提取方法及系统
CN111968217B (zh) 基于图片的smpl参数预测以及人体模型生成方法
CN109241910B (zh) 一种基于深度多特征融合级联回归的人脸关键点定位方法
CN107204010A (zh) 一种单目图像深度估计方法与系统
CN111899172A (zh) 一种面向遥感应用场景的车辆目标检测方法
CN116740288B (zh) 一种融合激光雷达、倾斜摄影的三维重建方法
CN112946679B (zh) 一种基于人工智能的无人机测绘果冻效应检测方法及系统
CN115032648A (zh) 一种基于激光雷达密集点云的三维目标识别与定位方法
CN115147709B (zh) 一种基于深度学习的水下目标三维重建方法
CN111161334A (zh) 一种基于深度学习的语义地图构建方法
CN114693720A (zh) 基于无监督深度学习的单目视觉里程计的设计方法
CN110909778A (zh) 一种基于几何一致性的图像语义特征匹配方法
CN114549956A (zh) 一种深度学习辅助的倾斜模型建筑物外立面目标识别方法
CN112947526A (zh) 一种无人机自主降落方法和系统
CN114463492A (zh) 一种基于深度学习的自适应通道注意力三维重建方法
CN115222884A (zh) 一种基于人工智能的空间对象分析及建模优化方法
CN117422753A (zh) 一种联合光学和sar图像的高精度场景实时三维重建方法
CN113052110B (zh) 一种基于多视图投影和深度学习的三维兴趣点提取方法
CN113947724A (zh) 一种基于双目视觉的线路覆冰厚度自动测量方法
CN117456144B (zh) 基于可见光遥感图像的目标建筑物三维模型优化方法
CN116469095A (zh) 雷视传感融合的天时场景自适应三维目标检测方法
CN114608522B (zh) 一种基于视觉的障碍物识别与测距方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant