CN114419121A - 一种基于图像的bim纹理生成方法 - Google Patents

一种基于图像的bim纹理生成方法 Download PDF

Info

Publication number
CN114419121A
CN114419121A CN202210066328.8A CN202210066328A CN114419121A CN 114419121 A CN114419121 A CN 114419121A CN 202210066328 A CN202210066328 A CN 202210066328A CN 114419121 A CN114419121 A CN 114419121A
Authority
CN
China
Prior art keywords
texture
image
bim
candidate
semantic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210066328.8A
Other languages
English (en)
Other versions
CN114419121B (zh
Inventor
周小平
王佳
曹宁宁
冯驰原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bim Winner Beijing Technology Co ltd
Original Assignee
Bim Winner Shanghai Technology Co ltd
Foshan Yingjia Smart Space Technology Co ltd
Jiaxing Wuzhen Yingjia Qianzhen Technology Co ltd
Shenzhen Bim Winner Technology Co ltd
Shenzhen Qianhai Yingjia Data Service Co ltd
Yingjia Internet Beijing Smart Technology Co ltd
Bim Winner Beijing Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bim Winner Shanghai Technology Co ltd, Foshan Yingjia Smart Space Technology Co ltd, Jiaxing Wuzhen Yingjia Qianzhen Technology Co ltd, Shenzhen Bim Winner Technology Co ltd, Shenzhen Qianhai Yingjia Data Service Co ltd, Yingjia Internet Beijing Smart Technology Co ltd, Bim Winner Beijing Technology Co ltd filed Critical Bim Winner Shanghai Technology Co ltd
Priority to CN202210066328.8A priority Critical patent/CN114419121B/zh
Publication of CN114419121A publication Critical patent/CN114419121A/zh
Application granted granted Critical
Publication of CN114419121B publication Critical patent/CN114419121B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于图像的BIM纹理生成方法,包括:对获取的室内图像和BIM图像进行融合,获得第一图像;对第一图像进行处理,获得每个语义的候选纹理;将模型纹理库的数据作为数据集输入纹理生成模型进行训练;将每个语义的候选纹理输入纹理生成模型,生成若干个候选纹理,对若干个候选纹理进行评价,获取评价最高的候选纹理并进行修复,获得最终的BIM纹理。本发明对BIM数据进行解析,将BIM拆分成地面,墙,天花板,桌子等元素,再与图像识别对应,以实现BIM与图像信息的关联融合,从而从图片生成纹理,反馈BIM信息,有着不依赖纹理库,可动态更新和有着不依赖于训练语义而能得到BIM构建与监控图像对应关系的优点。

Description

一种基于图像的BIM纹理生成方法
技术领域
本发明属于BIM纹理生成领域,特别是涉及一种基于图像的BIM纹理生成方法。
背景技术
当前数字孪生已经成为学术界和产业界的研究热点与前沿,BIM作为高精的数字模型,是数字孪生的重要基础,但BIM只具有结构、语义信息,纹理常为CAD格式,仅为单一颜色,这样不够真实的数字模型,不能满足数字孪生的需求。而监控视频作为最易获取、也是量最大的图像信息来源,其记录了真实的纹理信息,将之与BIM信息融合,从中提取真实纹理信息赋予BIM中相应构件,将可使得BIM更加真实,也可为真正的数字孪生奠定基础。
融合BIM和计算机视觉的纹理推理主要目的是使模型更真实,是BIM模型信息的一个重要补充、完善,从而为建造更真实的数字场景提供有力基础。该技术不依赖于固有模型纹理库,充分利用BIM语义信息,可以更自由的生成不同模型的纹理,不受制约,更加符合真实场景的需求,广泛应用于各类场景的数字孪生。甚至可以将真实纹理拓展至不同风格,以此建造更丰富的模型,将真实场景渲染至各种虚拟主题,用于游戏、VR体验等的场景建设。
发明内容
本发明的目的是提供一种基于图像的BIM纹理生成方法,以解决上述现有技术存在的问题。
为实现上述目的,本发明提供了一种基于图像的BIM纹理生成方法,包括:
将室内图像和BIM图像进行融合,获得第一图像;
对所述第一图像进行处理,获得每个语义的候选纹理;
构建纹理生成模型,将模型纹理库的数据作为数据集输入所述纹理生成模型进行训练,直到训练结束;
将每个语义的所述候选纹理输入训练结束的纹理生成模型,生成若干个第一候选纹理,对若干个所述第一候选纹理进行评价,获取评价最高的所述第一候选纹理;
对评价最高的所述第一候选纹理进行修复,获得最终的BIM纹理。
可选的,将室内图像和BIM图像进行融合之前,所述方法还包括:
获取待测室内场景的RGB图像,作为所述室内图像;
基于BIM模型获取所述待测室内场景的BIM图像,所述BIM图像和所述RGB图像的视角相同。
可选的,对获取的图像和BIM模型进行融合的过程中包括:
基于UperNet网络对所述室内图像进行语义分割,获得第一语义分割图像;
将所述第一语义分割图像中的杂项剔除,获得杂项剔除图像;
将所述BIM图像和所述杂项剔除图像进行融合,获得精准BIM图像;
将所述精准BIM图像和所述RGB图像进行融合,获得所述第一图像。
可选的,对所述第一图像进行分割处理,获得不同语义,对每个语义进行修补,获得每个语义的候选纹理的过程中包括:
对所述第一图像进行第二语义分割,获得第二语义分割图像;
基于inpaint函数对所述第二语义分割图像中RGB值占比较大的图像进行修补,获取每个语义的候选纹理。
可选的,将模型纹理库的数据作为数据集输入所述纹理生成模型进行训练的过程中包括:
将模型纹理库的数据在HSV通道上作减均值处理;
将经过减均值处理的所述模型纹理库的数据输入所述纹理生成模型进行训练,生成纹理。
可选的,所述纹理生成模型进行训练的过程中还包括,采用了两个损失函数:
采用VGG感知层对输入图像与输出纹理进行感知误差的计算,用于保证输入与生成的纹理保持相似性;
采用分类损失分支,用于保证单一模型在不同材质的表现。
可选的,将每个语义的所述候选纹理输入所述纹理生成模型,生成若干个第一候选纹理,对若干个所述第一候选纹理进行评价,获取评价最高的所述第一候选纹理的过程中包括:
将每个语义的所述候选纹理输入所述纹理生成模型,生成若干个第一候选纹理;
基于所述VGG感知层对若干个所述第一候选纹理进行评价,选取loss最低的最为评价最高的所述第一候选纹理。
可选的,对评价最高的所述第一候选纹理进行修复,获得最终的BIM纹理的过程中包括:
基于Multiresolution Stochastic Texture Synthesis的api函数对评价最高的所述第一候选纹理进行修复,获得最终的BIM纹理。
本发明的技术效果为:
本发明给定相机参数后,可将图像和相应BIM建立联系,从而根据裁剪的候选纹理,通过神经网络模型生成真实纹理,生成的纹理优于原BIM默认的单一颜色的CAD格式纹理,与真实更相符。且本发明对BIM数据进行解析,将BIM拆分成地面,墙,天花板,桌子等元素,再与图像识别对应,以实现BIM与图像信息的关联融合,即本发明能够不依赖于训练语义而得到BIM构建与监控图像的对应关系,从而从图片生成纹理,反馈BIM信息,而不是从纹理库检索,有着不依赖纹理库、可动态更新的优点。
附图说明
构成本申请的一部分的附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本发明实施例中的流程图;
图2为本发明实施例中的UperNet网络结构图;
图3为本发明实施例中的纹理生成网络结构图。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
本实施例中提供一种基于图像的BIM纹理生成方法,致力于输入BIM模型及对应场景的相机信息,将RGB图像信息融合到BIM,针对室内场景中具有在给定输入图片中占比20%或同等大小、物体本身拓扑结构简单,由较大平面或较平缓的曲面组成的大块物,诸如墙、地面、桌子等,进行纹理贴补。补充完善BIM纹理信息,使之更真实。
如图1所示,本发明的具体框架主要分为左部分的图像与BIM信息融合的预处理过程,以及右部分的纹理生成过程,通过BIM模型与RGB图像作为整体算法的输入,输出BIM中相应构件的真实纹理。
针对所描述的框架,分如下几个部分详细展开。
RGB图像的语义分割:
首先,本发明的目标是针对室内场景的大块物进行纹理推理,但是由于现实中室内场景的复杂性,包括但不限于人员的走动,桌面书本、电脑、盆栽的摆放等等,会导致得到的RGB图像I充满了大量的无用噪声,会极大地影响后续纹理的推理。那么首先利用语义分割UperNet,记为U,对输入图像进行像素级的推理,得到初步的语义分割图Im_rgb0,所述语义分割UperNet的结构如图2所示。
但正如之前所说,相机图像中具有大量无用的信息,于是根据语义分割的结果,mask掉干扰项,诸如人、椅子、花盆、电脑等小物件(这一过程记为Fnoise),于是得到筛除无用语义后的mask图Im_rgb。因为此测试场景中只有桌子、墙、地是目标物块,分别将他们设为蓝色、绿色、红色以作区分。
Im_rgb=Fnoise(Im_rgb0)=Fnoise(U(I))
BIM信息的相机矫正:
相机图像得到预处理后,接下来进行BIM信息与图像信息的对齐,以将二者的信息融合,得到更精确的信息。
要做到这点,首先从BIM文件中解析出需要的大物块模型,并将目标物体,对于本测试场景既是桌子、墙、地面分别渲染为蓝、绿、红三纯色纹理,并获取与相机图像同视角下语义图片Im_BIM
建立BIM模型与图像对应关系并裁剪出候选纹理:
由此,根据筛除无用语义后的mask图Im_rgb与BIM同视角语义图Im_BIM,将二者取交,即可得到精准的BIM与图像对应mask(记为Imask_rgb2bim),其中蓝、绿、红分别是图像中对应BIM模型桌子、墙、地面的部分Irgb2bim。再与输入相机图像I取交,即可得到精准的可用相机图像区域。
Irgb2bim=Imask_rgb2bim∩I=Im_rgb∩Im_BIM∩I
Figure BDA0003480213410000062
Figure BDA0003480213410000061
式中c代表某一个BIM的构件,Lc代表BIM图像中对应构件c的区域,在第一语义图的同等位置部分中出现最多的标签,运算符
Figure BDA0003480213410000063
为哈达玛积(Hadamard product),上式用于保证建立监控图像与BIM构建关系时,不依赖于提前设好的语义名称。
得到Irgb2bim后,将图像按语义随机切割(本测试场景即为桌子、墙、地面)成128x128的候选纹理It_crop0,语义分割图Irgb2bim的不规则性,为了扩大候选区域的可用性,使用OpenCV封装的inpaint函数(Navier-Stokes,流体动力学和图像和视频修补),对一些rgb值占比较大的图像crop(无rgb值即黑色部分占比10%以下的图像)进行修补。最终每个语义获取10张候选纹理It_crop
It_crop=Inpaint(It_crop0)
纹理生成与打分:
如图3所示,为本节采用的纹理生成模型的结构图。
训练部分包括:
1.为了去除光照对纹理的影响,该模型在HSV通道上进行训练,并在HSV通道上作减均值的处理。
2.处理后图像送入一个encoder-decoder的神经网络模型(Neural Texture,简称NT)中做纹理生成。
3.为了生成更稳定平和的纹理,数据集采用模型纹理库进行组建。
4.训练时引入两个损失函数。
其一,加入额外的VGG感知层,分别对输入图像与输出纹理进行感知误差的计算,以此保证输入与生成的纹理还保持一定的相似性;
其二,引入分类损失分支,保证单一模型在不同材质的表现,而不用特意针对每个不同的材质进行单独的Finetune,但此分支在推理时不需要使用,直接舍弃。
以上文中得到各个语义的10张候选纹理It_crop,分别使用纹理生成模型生成候选生成纹理It_gen,由于裁剪了大量的候选纹理It_crop,一般的处理方式是取多个纹理的平均值作为平均纹理,但这样的纹理会让原本平滑干净的的生成纹理,再次变得杂乱不堪,所以使用模型中的VGG感知损失作为评分,选取loss最低的结果。即选择第三种生成纹理结果为最终的桌面纹理,其他语义以此类推。
Figure BDA0003480213410000081
Figure BDA0003480213410000082
处理Tile缝隙,生成最终纹理:
虽然在训练时已经设置了可tile(可以片式渲染整个模型)的纹理为groundtruth,但仍不可完美生成可tile的纹理。因此加入一步后处理,使用mask图(记为Mo)为基准再次进行图像修复,黑色部分为待修复图像,本次图像修复使用MultiresolutionStochastic Texture Synthesis的api,可以得到处理后的纹理较处理前的纹理边缘部分更平滑,更有利于纹理的tile渲染,使得到的纹理块更自然达到无拼接缝隙的效果。
Io=msts(It_gen|Mo)
至此即得到最终的由图像生成的BIM纹理Io,继而进行BIM的渲染。
实施环境:计算机配置为RTX 2080Ti,
Figure BDA0003480213410000083
CoreTM i9-10850K CPU@3.60GHz×20 64G;使用的摄像机为小米智能摄像机云台2k版。
数据集:
所用BIM为首钢大厦10\13层南办公区BIM,图像即小米智能摄像机拍摄图片。
本发明给定相机参数后,可将图像和相应BIM建立联系,从而根据裁剪的候选纹理,通过神经网络模型生成真实纹理,生成的纹理优于原BIM默认的单一颜色的CAD格式纹理,与真实更相符。且本发明对BIM数据进行解析,将BIM拆分成地面,墙,天花板,桌子等元素,再与图像识别对应,以实现BIM与图像信息的关联融合,从而从图片生成纹理,反馈BIM信息,而不是从纹理库检索,有着不依赖纹理库的优点。
以上所述,仅为本申请较佳的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应该以权利要求的保护范围为准。

Claims (8)

1.一种基于图像的BIM纹理生成方法,其特征在于,包括以下步骤:
将室内图像和BIM图像进行融合,获得第一图像;
对所述第一图像进行分割处理,获得不同语义,对每个语义进行修补,获得每个语义的候选纹理;
构建纹理生成模型,将模型纹理库的数据作为数据集输入所述纹理生成模型进行训练,直到训练结束;
将每个语义的所述候选纹理输入训练结束的纹理生成模型,生成若干个第一候选纹理,对若干个所述第一候选纹理进行评价,获取评价最高的所述第一候选纹理;
对评价最高的所述第一候选纹理进行修复,获得最终的BIM纹理。
2.根据权利要求1所述的方法,其特征在于,将室内图像和BIM信息进行融合之前,所述方法还包括:
获取待测室内场景的RGB图像,作为所述室内图像;
基于BIM模型获取所述待测室内场景的BIM图像,所述BIM图像和所述RGB图像的视角相同。
3.根据权利要求2所述的方法,其特征在于,对获取的图像和BIM模型进行融合的过程中包括:
基于UperNet网络对所述室内图像进行语义分割,获得第一语义分割图像;
将所述第一语义分割图像中的杂项剔除,获得杂项剔除图像;
将所述BIM图像和所述杂项剔除图像进行融合,获得精准BIM图像;
将所述精准BIM图像和所述RGB图像进行融合,获得所述第一图像。
4.根据权利要求1所述的方法,其特征在于,对所述第一图像进行分割处理,获得不同语义,对每个语义进行修补,获得每个语义的候选纹理的过程中包括:
对所述第一图像进行第二语义分割,获得第二语义分割图像;
基于inpaint函数对所述第二语义分割图像中RGB值占比较大的图像进行修补,获取每个语义的候选纹理。
5.根据权利要求1所述的方法,其特征在于,将模型纹理库的数据作为数据集输入所述纹理生成模型进行训练的过程中包括:
将模型纹理库的数据在HSV通道上作减均值处理;
将经过减均值处理的所述模型纹理库的数据输入所述纹理生成模型进行训练,生成纹理。
6.根据权利要求5所述的方法,其特征在于,所述纹理生成模型进行训练的过程中还包括,采用了两个损失函数:
采用VGG感知层对输入图像与输出纹理进行感知误差的计算,用于保证输入与生成的纹理保持相似性;
采用分类损失分支,用于保证单一模型在不同材质的表现。
7.根据权利要求6所述的方法,其特征在于,将每个语义的所述候选纹理输入所述纹理生成模型,生成若干个第一候选纹理,对若干个所述第一候选纹理进行评价,获取评价最高的所述第一候选纹理的过程中包括:
将每个语义的所述候选纹理输入所述纹理生成模型,生成若干个第一候选纹理;
基于所述VGG感知层对若干个所述第一候选纹理进行评价,选取loss最低的最为评价最高的所述第一候选纹理。
8.根据权利要求1所述的方法,其特征在于,对评价最高的所述第一候选纹理进行修复,获得最终的BIM纹理的过程中包括:
基于Multiresolution Stochastic Texture Synthesis的api函数对评价最高的所述第一候选纹理进行修复,获得最终的BIM纹理。
CN202210066328.8A 2022-01-20 2022-01-20 一种基于图像的bim纹理生成方法 Active CN114419121B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210066328.8A CN114419121B (zh) 2022-01-20 2022-01-20 一种基于图像的bim纹理生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210066328.8A CN114419121B (zh) 2022-01-20 2022-01-20 一种基于图像的bim纹理生成方法

Publications (2)

Publication Number Publication Date
CN114419121A true CN114419121A (zh) 2022-04-29
CN114419121B CN114419121B (zh) 2022-10-04

Family

ID=81275972

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210066328.8A Active CN114419121B (zh) 2022-01-20 2022-01-20 一种基于图像的bim纹理生成方法

Country Status (1)

Country Link
CN (1) CN114419121B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114627426A (zh) * 2022-05-13 2022-06-14 盈嘉互联(北京)科技有限公司 一种融合建筑数字孪生语义图的图像检测方法及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170358087A1 (en) * 2016-06-10 2017-12-14 The Board Of Trustees Of The Leland Stanford Junior University Systems and Methods for Performing Three-Dimensional Semantic Parsing of Indoor Spaces
CN111008422A (zh) * 2019-11-29 2020-04-14 北京建筑大学 一种建筑物实景地图制作方法及系统
CN112802075A (zh) * 2021-02-02 2021-05-14 网易(杭州)网络有限公司 纹理生成模型的训练方法、图像处理方法及装置
CN112989482A (zh) * 2021-05-18 2021-06-18 三一筑工科技股份有限公司 Bim模型数据的生成方法及装置和构建方法及装置
CN113139969A (zh) * 2021-05-17 2021-07-20 齐鲁工业大学 一种基于注意力机制的弱监督图像语义分割方法及系统
CN113822993A (zh) * 2021-11-23 2021-12-21 之江实验室 一种基于3d模型匹配的数字孪生方法和系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170358087A1 (en) * 2016-06-10 2017-12-14 The Board Of Trustees Of The Leland Stanford Junior University Systems and Methods for Performing Three-Dimensional Semantic Parsing of Indoor Spaces
CN111008422A (zh) * 2019-11-29 2020-04-14 北京建筑大学 一种建筑物实景地图制作方法及系统
CN112802075A (zh) * 2021-02-02 2021-05-14 网易(杭州)网络有限公司 纹理生成模型的训练方法、图像处理方法及装置
CN113139969A (zh) * 2021-05-17 2021-07-20 齐鲁工业大学 一种基于注意力机制的弱监督图像语义分割方法及系统
CN112989482A (zh) * 2021-05-18 2021-06-18 三一筑工科技股份有限公司 Bim模型数据的生成方法及装置和构建方法及装置
CN113822993A (zh) * 2021-11-23 2021-12-21 之江实验室 一种基于3d模型匹配的数字孪生方法和系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MATEJ VITEK,AND ETC: "Evaluation of Deep Approaches to Sclera Segmentation", 《2021 44TH INTERNATIONAL CONVENTION ON INFORMATION, COMMUNICATION AND ELECTRONIC TECHNOLOGY (MIPRO)》 *
徐静海等: "建筑物BIM与实景三维模型融合方法研究", 《建筑结构学报》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114627426A (zh) * 2022-05-13 2022-06-14 盈嘉互联(北京)科技有限公司 一种融合建筑数字孪生语义图的图像检测方法及装置
CN114627426B (zh) * 2022-05-13 2022-08-23 盈嘉互联(北京)科技有限公司 一种融合建筑数字孪生语义图的图像检测方法及装置

Also Published As

Publication number Publication date
CN114419121B (zh) 2022-10-04

Similar Documents

Publication Publication Date Title
DE69932619T2 (de) Verfahren und system zum aufnehmen und repräsentieren von dreidimensionaler geometrie, farbe und schatten von animierten objekten
JP2021511729A (ja) 画像、又はビデオデータにおいて検出された領域の拡張
KR100914847B1 (ko) 다시점 영상정보를 이용한 삼차원 얼굴 모델 생성방법 및장치
CN111133440A (zh) 基于机器学习的图像处理技术
US20130195428A1 (en) Method and System of Presenting Foreign Films in a Native Language
US20190171869A1 (en) Creating videos with facial expressions
US11514654B1 (en) Calibrating focus/defocus operations of a virtual display based on camera settings
US20240087610A1 (en) Modification of objects in film
CN110832583A (zh) 用于从多个图像帧生成概要故事板的系统和方法
US11562597B1 (en) Visual dubbing using synthetic models
US11676252B2 (en) Image processing for reducing artifacts caused by removal of scene elements from images
CN114173021B (zh) 基于高清多屏的虚拟演播方法、系统
CN111988657A (zh) 一种广告插入方法及装置
KR20150112535A (ko) 비디오 대표 이미지 관리 장치 및 방법
CN111199573A (zh) 一种基于增强现实的虚实互反射方法、装置、介质及设备
CN114419121B (zh) 一种基于图像的bim纹理生成方法
CN111243062A (zh) 一种将平面壁画转化为立体高清数字壁画的制作方法
US9786055B1 (en) Method and apparatus for real-time matting using local color estimation and propagation
GB2410408A (en) Changing time value of key frames
Shih et al. Video motion interpolation for special effect applications
US20230196659A1 (en) Computer implemented method and system for classifying an input image for new view synthesis in a 3d visual effect, and non-transitory computer readable storage medium
US20230169632A1 (en) Semantically-aware image extrapolation
CA3220389A1 (en) Modification of objects in film
CN111800663B (zh) 一种视频合成方法及装置
WO2016203469A1 (en) A digital media reviewing system and methods thereof

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20240205

Address after: 1308, 13th Floor, Shougang Sports Building, No. 6 Jinyuanzhuang Road, Shijingshan District, Beijing, 100043

Patentee after: BIM WINNER (BEIJING) TECHNOLOGY CO.,LTD.

Country or region after: China

Address before: 100000 1308, 13th floor, Shougang sports building, No. 6, jinyuanzhuang Road, Shijingshan District, Beijing

Patentee before: BIM WINNER (BEIJING) TECHNOLOGY CO.,LTD.

Country or region before: China

Patentee before: BIM WINNER (SHANGHAI) TECHNOLOGY Co.,Ltd.

Patentee before: SHENZHEN BIM WINNER TECHNOLOGY Co.,Ltd.

Patentee before: Yingjia Internet (Beijing) Smart Technology Co.,Ltd.

Patentee before: JIAXING WUZHEN YINGJIA QIANZHEN TECHNOLOGY Co.,Ltd.

Patentee before: SHENZHEN QIANHAI YINGJIA DATA SERVICE Co.,Ltd.

Patentee before: Foshan Yingjia Smart Space Technology Co.,Ltd.