CN115035252B - 一种基于神经辐射场的燃气厂站三维重建方法及装置 - Google Patents
一种基于神经辐射场的燃气厂站三维重建方法及装置 Download PDFInfo
- Publication number
- CN115035252B CN115035252B CN202210694762.0A CN202210694762A CN115035252B CN 115035252 B CN115035252 B CN 115035252B CN 202210694762 A CN202210694762 A CN 202210694762A CN 115035252 B CN115035252 B CN 115035252B
- Authority
- CN
- China
- Prior art keywords
- dimensional
- model
- observed
- angle
- visual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2004—Aligning objects, relative positioning of parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2012—Colour editing, changing, or manipulating; Use of colour codes
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y04—INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
- Y04S—SYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
- Y04S10/00—Systems supporting electrical power generation, transmission or distribution
- Y04S10/50—Systems or methods supporting the power network operation or management, involving a certain degree of interaction with the load-side end user applications
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Computer Graphics (AREA)
- Architecture (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
本发明提供一种基于神经辐射场的燃气厂站三维重建方法及装置。所述方法包括:获取由成像设备采集的多视点下燃气厂站的二维图像,以及被观察点的空间坐标和视角;构建以被观察点的空间坐标和视角为输入、以用颜色值和透明度表示的二维成像结果为输出的神经辐射场模型,并利用多视点下的二维图像对所述模型进行训练;将被观察点的空间坐标和视角输入训练好的模型,得到视点对应的二维成像结果,基于多个视点对应的二维成像结果进行燃气厂站三维重建。本发明通过构建神经辐射场模型,可基于多个视点的二维图像实现燃气厂站三维重建。本发明获得的二维图像可重复多次使用,无需实地实景观察。
Description
技术领域
本发明属于三维重建技术领域,具体涉及一种基于神经辐射场的燃气厂站三维重建方法及装置。
背景技术
燃气厂站真实环境有效重建是无人值守系统平稳运行的基础之一。具体而言,这一技术可提供厂站范围内的高保真地图,为实地/远程/自动化巡检、筛查、定位、导航等任务提供准确而充分的先验知识。一般情况下,燃气行业从业者习惯于获取摄制二维图像,该过程十分简单。然而,捕获并展示一个三维场景则是十分繁琐的。
目前,在实际运营中,燃气厂站已有诸多在计算机中进行三维展示与部署的典型方案,现有手段按照技术路线可分为如下三种:一是计算机辅助设计(CAD),多用几何形态清晰、数学表达明确的基础模块构建三维对象,主要用于展示厂站的建设概念、设计思想以及整体架构轮廓,但无法描绘出厂站实景;二是传统视图合成技术,以多个摄像机视点拍摄同一物体,并将拍摄结果合成为该物体的三维表示。这一技术失真度较高,且仅能处理背景纯净的较小物体,但无法处理大面积区域的全景;三是实景描绘技术,需专人依靠专业软件对厂站进行实地描绘,对于专业技能的要求较高,且耗费巨大的时间、经济和人力成本。
为了解决燃气厂站的三维场景高保真重建这一技术难题,本发明提出了一种基于神经辐射场的燃气厂站三维重建技术。本发明所提供的神经辐射场模型可输出由观察点观察到的二维图像,无需实地实景观察,当变换、累计足够的视点时即可直接模拟出人类对场景的三维观察过程。
发明内容
为了解决现有技术中存在的上述问题,本发明提供一种基于神经辐射场的燃气厂站三维重建方法及装置。
为了实现上述目的,本发明采用以下技术方案。
第一方面,本发明提供一种基于神经辐射场的燃气厂站三维重建方法,包括以下步骤:
获取由成像设备采集的多视点下燃气厂站的二维图像,以及被观察点的空间坐标和视角,视角为视点o与被观察点s的连线os的方向角;
构建以被观察点的空间坐标和视角为输入、以用颜色值和透明度表示的二维成像结果为输出的神经辐射场模型,并利用多视点下的二维图像对所述模型进行训练;
将被观察点的空间坐标和视角输入训练好的模型,得到视点对应的二维成像结果,基于多个视点对应的二维成像结果进行燃气厂站三维重建。
更进一步地,所述二维成像结果的成像平面为过o点且垂直于连线os的平面Ψ。
更进一步地,所述神经辐射场模型的输入端包括两个分支:第一分支为包含N个卷积核的一维卷积模块,用于将9组转化为深度特征空间的5*N型矩阵;第二分支为自注意力机制计算模块,用于获得5个变量x、y、z、之间的潜在关系,同样输出一个5*N型矩阵;两个分支的输出端将两个5*N型矩阵首尾相接合并为一个5*2N型矩阵后,再经多层感知机输出四元组(r,g,b,α)。
第二方面,本发明提供一种基于神经辐射场的燃气厂站三维重建装置,包括:
图像获取模块,用于获取由成像设备采集的多视点下燃气厂站的二维图像,以及被观察点的空间坐标和视角,视角为视点o与被观察点s的连线os的方向角;
模型构建模块,用于构建以被观察点的空间坐标和视角为输入、以用颜色值和透明度表示的二维成像结果为输出的神经辐射场模型,并利用多视点下的二维图像对所述模型进行训练;
三维重建模块,用于将被观察点的空间坐标和视角输入训练好的模型,得到视点对应的二维成像结果,基于多个视点对应的二维成像结果进行燃气厂站三维重建。
更进一步地,所述二维成像结果的成像平面为过o点且垂直于连线os的平面Ψ。
更进一步地,所述神经辐射场模型的输入端包括两个分支:第一分支为包含N个卷积核的一维卷积模块,用于将9组转化为深度特征空间的5*N型矩阵;第二分支为自注意力机制计算模块,用于获得5个变量x、y、z、θ之间的潜在关系,同样输出一个5*N型矩阵;两个分支的输出端将两个5*N型矩阵首尾相接合并为一个5*2N型矩阵后,再经多层感知机输出四元组(r,g,b,α)。
与现有技术相比,本发明具有以下有益效果。
本发明通过获取由成像设备采集的多视点下燃气厂站的二维图像,以及被观察点的空间坐标和视角,构建以被观察点的空间坐标和视角为输入、以用颜色值和透明度表示的二维成像结果为输出的神经辐射场模型,并利用所述二维图像对所述模型进行训练,将被观察点的空间坐标和视角输入训练好的模型,得到视点对应的二维成像结果,基于多个视点对应的二维成像结果进行燃气厂站三维重建,实现了燃气厂站的三维重建。本发明通过构建神经辐射场模型,可基于多个视点的二维图像实现燃气厂站三维重建。本发明获得的二维图像可重复多次使用,无需实地实景观察。本发明所述方法不仅适应于燃气厂站的三维重建,还可用于其它场景的三维重建。
附图说明
图1为本发明实施例一种基于神经辐射场的燃气厂站三维重建方法的流程图。
图2为三维直角坐标系及视角的示意图。
图3为成像平面的示意图。
图4为神经辐射场模型结构示意图。
图5为本发明实施例一种基于神经辐射场的燃气厂站三维重建装置的方框图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚、明白,以下结合附图及具体实施方式对本发明作进一步说明。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1为本发明实施例一种基于神经辐射场的燃气厂站三维重建方法的流程图,包括以下步骤:
步骤101,获取由成像设备采集的多视点下燃气厂站的二维图像,以及被观察点s的空间坐标和视角,视角为视点o与被观察点s的连线os的方向角;
步骤102,构建以被观察点的空间坐标和视角为输入、以用颜色值和透明度表示的二维成像结果为输出的神经辐射场模型,并利用多视点下的二维图像对所述模型进行训练;
步骤103,将被观察点的空间坐标和视角输入训练好的模型,得到视点对应的二维成像结果,基于多个视点对应的二维成像结果进行燃气厂站三维重建。
本实施例提出一种基于神经辐射场的燃气厂站三维重建方法。所述方法需要的硬件设备包括图像处理装置和具有视角计量功能的成像设备。图像处理装置用于实现图像数据处理任务,一般采用带有图形处理器的计算机。成像设备用于拍摄不同视点的燃气厂站的二维图像,可采用成本较低的加装光学视角检测仪的单镜反光相机,也可直接采用成本较高的全视角测量仪。
本实施例中,步骤101主要用于获取多视点下燃气厂站的二维图像。本实施例的三维重建是基于多个不同视点下拍摄的燃气厂站的二维图像实现的,因此,首先需要获得这些二维图像。当然,还需要获得每个视点下的视角和被观察点的空间坐标。所述视角实际上就是成像设备光轴的方向,或者视点o与被观察点s的连线os的方向角。如图2所示。
本实施例中,步骤102主要用于构建并训练神经辐射场模型。神经辐射场是一种简单而有效的技术,通过优化底层连续体辐射场,通过(非卷积)神经网络参数化,来合成复杂场景的逼真新视图。本实施例的神经辐射场模型的输入为被观察点s的空间坐标和视角,输出为二维成像结果,可用像素点的红绿蓝三个通道的颜色值和透明度表示。可利用步骤101获得的不同视点下的二维图像构建训练数据集对模型进行训练确定模型参数。训练数据集中的输出端真值(即标签值)从二维图像中获得,输入端的视角可从成像设备的位姿信息中直接获取,输入端的空间坐标不能直接获得,可采用运动结构恢复算法(SfM)和多视角立体构型算法(MVS)计算获得。下面给出一种具体的计算方法。
对于同一被测物于两个不同位置pos1和pos2拍摄成像,两个位置的成像设备内参矩阵可直接读取,分别记为K1、K2。对于两个成像结果(即两幅图像)中的具有相同成像内容的像素进行标定,标定后经由现已开源的直接线性变换迭代算法,得到两幅图像的配对关系基础矩阵F,由下式得到本征矩阵E:
E=K1FK2
对E进行奇异值分解后得到转换矩阵R和偏置向量t。由此可得到由图像中的像素坐标(tx,ty,tz)到真实空间坐标(x,y,z)的转换:
(x,y,z)T=RT(tx,ty,tz)T-RTt
式中,上标“T”表示求转置。
本实施例中,步骤103主要用于利用训练好的模型实现燃气厂站三维重建。模型训练好以后,只要输入一个视点被观察点的空间坐标和视角,模型输出即为所述视点对应的二维成像结果。基于多个视点对应的二维成像结果进行燃气厂站三维重建,就可以得到燃气厂站的三维图像。本实施例的三维重建方法,不需要实时现场拍摄燃气厂站的图像,也就是说已拍摄的图像可以重复多次使用。当实际场景发生变化时,可通过拍摄新的场景图像重新进行模型训练更新模型参数,使重建的三维图像适用场景的变化。
作为一可选实施例,所述被观察点的空间坐标是在以任一视点o为原点的三维直角坐标系下的坐标,表示为三元组(x,y,z),视角为连线os与y轴的夹角和连线os在平面xoz内的投影与x轴的夹角θ,表示为二元组
本实施例给出了空间坐标系的建立方法和视角的具体定义。本实施例的空间坐标为三维直角坐标系,如图2所示,3个坐标轴分别为x轴、y轴、z轴,坐标原点为任一个视点。坐标原点也可以选任一空间点,本实施例选任一个视点为坐标原点,可使所述视点的坐标为0,可简化与所述视点坐标有关的计算。被观察点的空间坐标可表示为三元组(x,y,z)。由于是三维空间,因此视角用两个角度组成的二元组表示,其中为连线os与y轴的夹角,θ为连线os在平面xoz内的投影与x轴的夹角。视角也可以用其它两个角度的组合表示,比如常用的俯仰角和方位角。
作为一可选实施例,所述二维成像结果的成像平面为过o点且垂直于连线os的平面Ψ。
本实施例对成像平面进行了限定。在视点为o时,成像平面是过o点且垂直于o点与被观察点s连线os的平面Ψ,也就是以os为法线的平面Ψ,如图3所示。
本实施例对神经辐射场模型的输入输出变量的表示方法。所述模型的输入变量可表示为五元组输出可表示为四元组(r,g,b,α),其中r、g、b、α分别表示红、绿、蓝的颜色值和透明度。所述模型可以看作是从五元组 到四元组(r,g,b,α)的映射。
本实施例将所述模型输入的点由一个扩展为9个。如图4所示,输入的黑色立方体表示被观测点,其它8个立方体位于以该观测点为中心的3*3*3立方体的8个顶点上。这样处理的理由在于,单一被观测点的尺度极为细微,计算所得值易受到辐射场中的光学测量误差影响,因此,本实施例采用的神经网络额外选取了被观测点临近的8个点,共计9个被观测点,也就是将9个五元组作为输入,以此削减误差带来的影响。
作为一可选实施例,所述神经辐射场模型的输入端包括两个分支:第一分支为包含N个卷积核的一维卷积模块,用于将9组转化为深度特征空间的5*N型矩阵;第二分支为自注意力机制计算模块,用于获得5个变量x、y、z、θ之间的潜在关系,同样输出一个5*N型矩阵;两个分支的输出端将两个5*N型矩阵首尾相接合并为一个5*2N型矩阵后,再经多层感知机输出四元组(r,g,b,α)。
本实施例给出了神经辐射场模型的一种网络结构。所述模型的网络结构如图4所示,在输入端引出了两个分支:第一个分支为包含N个卷积核的一维卷积模块,所述一维卷积为已经公开发表并开源使用的工具,其用途为采用单向扫描的卷积计算方式,将9组转化为深度特征空间的5*N型矩阵;另一个分支为自注意力机制计算模块,该模块为已经公开发表并开源使用的工具,其用途为挖掘出x、y、z、θ这5个变量之间的潜在关系,也得到一个新的5*N型矩阵。此后,将两个5*N型矩阵首尾连接,合并为一个5*2N型矩阵,该矩阵经过多层感知机后(全连接层)直接回归一组(r,g,b,α)。为了便于图像处理单元进行并行计算,N设置为2的幂,如64=26。
图5为本发明实施例一种基于神经辐射场的燃气厂站三维重建装置的组成示意图,所述装置包括:
图像获取模块11,用于获取由成像设备采集的多视点下燃气厂站的二维图像,以及被观察点的空间坐标和视角,视角为视点o与被观察点s的连线os的方向角;
模型构建模块12,用于构建以被观察点的空间坐标和视角为输入、以用颜色值和透明度表示的二维成像结果为输出的神经辐射场模型,并利用多视点下的二维图像对所述模型进行训练;
三维重建模块13,用于将被观察点的空间坐标和视角输入训练好的模型,得到视点对应的二维成像结果,基于多个视点对应的二维成像结果进行燃气厂站三维重建。
本实施例的装置,可以用于执行图1所示方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。后面的实施例也是如此,均不再展开说明。
作为一可选实施例,所述被观察点的空间坐标是在以任一视点o为原点的三维直角坐标系下的坐标,表示为三元组(x,y,z),视角为连线os与y轴的夹角和连线os在平面xoz内的投影与x轴的夹角θ,表示为二元组
作为一可选实施例,所述二维成像结果的成像平面为过o点且垂直于连线os的平面Ψ。
作为一可选实施例,所述神经辐射场模型的输入端包括两个分支:第一分支为包含N个卷积核的一维卷积模块,用于将9组转化为深度特征空间的5*N型矩阵;第二分支为自注意力机制计算模块,用于获得5个变量x、y、z、θ之间的潜在关系,同样输出一个5*N型矩阵;两个分支的输出端将两个5*N型矩阵首尾相接合并为一个5*2N型矩阵后,再经多层感知机输出四元组(r,g,b,α)。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (2)
1.一种基于神经辐射场的燃气厂站三维重建方法,其特征在于,包括以下步骤:
获取由成像设备采集的多视点下燃气厂站的二维图像,以及被观察点的空间坐标和视角,视角为视点o与被观察点s的连线os的方向角;所述被观察点的空间坐标是在以任一视点o为原点的三维直角坐标系下的坐标,表示为三元组(x,y,z),视角为连线os与y轴的夹角和连线os在平面xoz内的投影与x轴的夹角θ,表示为二元组
构建以被观察点的空间坐标和视角为输入、以用颜色值和透明度表示的二维成像结果为输出的神经辐射场模型,并利用多视点下的二维图像对所述模型进行训练;所述二维成像结果的成像平面为过o点且垂直于连线os的平面Ψ;所述模型为从五元组到四元组(r,g,b,α)的映射,r、g、b、α分别表示红、绿、蓝的颜色值和透明度;所述模型的输入为被观测点和以所述被观测点为中心的3*3*3立方体的8个顶点的五元组i=1,2,…,9;所述神经辐射场模型的输入端包括两个分支:第一分支为包含N个卷积核的一维卷积模块,用于将9组转化为深度特征空间的5*N型矩阵;第二分支为自注意力机制计算模块,用于获得5个变量x、y、z、θ之间的潜在关系,同样输出一个5*N型矩阵;两个分支的输出端将两个5*N型矩阵首尾相接合并为一个5*2N型矩阵后,再经多层感知机输出四元组(r,g,b,α);
将被观察点的空间坐标和视角输入训练好的模型,得到视点对应的二维成像结果,基于多个视点对应的二维成像结果进行燃气厂站三维重建。
2.一种基于神经辐射场的燃气厂站三维重建装置,其特征在于,包括:
图像获取模块,用于获取由成像设备采集的多视点下燃气厂站的二维图像,以及被观察点的空间坐标和视角,视角为视点o与被观察点s的连线os的方向角;所述被观察点的空间坐标是在以任一视点o为原点的三维直角坐标系下的坐标,表示为三元组(x,y,z),视角为连线os与y轴的夹角和连线os在平面xoz内的投影与x轴的夹角θ,表示为二元组
模型构建模块,用于构建以被观察点的空间坐标和视角为输入、以用颜色值和透明度表示的二维成像结果为输出的神经辐射场模型,并利用多视点下的二维图像对所述模型进行训练;所述二维成像结果的成像平面为过o点且垂直于连线os的平面Ψ;所述模型为从五元组到四元组(r,g,b,α)的映射,r、g、b、α分别表示红、绿、蓝的颜色值和透明度;所述模型的输入为被观测点和以所述被观测点为中心的3*3*3立方体的8个顶点的五元组i=1,2,…,9;所述神经辐射场模型的输入端包括两个分支:第一分支为包含N个卷积核的一维卷积模块,用于将9组转化为深度特征空间的5*N型矩阵;第二分支为自注意力机制计算模块,用于获得5个变量x、y、z、θ之间的潜在关系,同样输出一个5*N型矩阵;两个分支的输出端将两个5*N型矩阵首尾相接合并为一个5*2N型矩阵后,再经多层感知机输出四元组(r,g,b,α);
三维重建模块,用于将被观察点的空间坐标和视角输入训练好的模型,得到视点对应的二维成像结果,基于多个视点对应的二维成像结果进行燃气厂站三维重建。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210694762.0A CN115035252B (zh) | 2022-06-20 | 2022-06-20 | 一种基于神经辐射场的燃气厂站三维重建方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210694762.0A CN115035252B (zh) | 2022-06-20 | 2022-06-20 | 一种基于神经辐射场的燃气厂站三维重建方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115035252A CN115035252A (zh) | 2022-09-09 |
CN115035252B true CN115035252B (zh) | 2023-05-09 |
Family
ID=83125751
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210694762.0A Active CN115035252B (zh) | 2022-06-20 | 2022-06-20 | 一种基于神经辐射场的燃气厂站三维重建方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115035252B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117332840B (zh) * | 2023-12-01 | 2024-03-19 | 深圳市其域创新科技有限公司 | 神经辐射场的训练方法、获取目标场景图像的方法及装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021247038A1 (en) * | 2020-06-05 | 2021-12-09 | Google Llc | Systems and methods for message embedding in three-dimensional image data |
WO2022133445A1 (en) * | 2020-12-14 | 2022-06-23 | Raxium, Inc. | Methods and systems for rendering view-dependent images using 2d images |
CN114049434A (zh) * | 2021-11-05 | 2022-02-15 | 成都艾特能电气科技有限责任公司 | 一种基于全卷积神经网络的3d建模方法及系统 |
CN114004941B (zh) * | 2022-01-04 | 2022-08-16 | 苏州浪潮智能科技有限公司 | 一种基于神经辐射场的室内场景三维重建系统及方法 |
CN114529679B (zh) * | 2022-04-19 | 2022-09-16 | 清华大学 | 基于神经辐射场的计算全息场生成方法及装置 |
-
2022
- 2022-06-20 CN CN202210694762.0A patent/CN115035252B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN115035252A (zh) | 2022-09-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Teller et al. | Calibrated, registered images of an extended urban area | |
Strat | Recovering the camera parameters from a transformation matrix | |
CN105229703B (zh) | 用于使用感测的位置数据来生成三维模型的系统和方法 | |
US20140015924A1 (en) | Rapid 3D Modeling | |
CN108038902A (zh) | 一种面向深度相机的高精度三维重建方法和系统 | |
CN104376552A (zh) | 一种3d模型与二维图像的虚实配准算法 | |
CN104537707B (zh) | 像方型立体视觉在线移动实时测量系统 | |
CN106023302A (zh) | 一种移动通信终端及其实现三维重建的方法及服务器 | |
CN102800127A (zh) | 一种基于光流优化的三维重建方法及装置 | |
Kang et al. | Two-view underwater 3D reconstruction for cameras with unknown poses under flat refractive interfaces | |
CN109920000B (zh) | 一种基于多相机协同的无死角的增强现实方法 | |
CN115035252B (zh) | 一种基于神经辐射场的燃气厂站三维重建方法及装置 | |
CN108010122B (zh) | 一种人体三维模型重建与测量的方法及系统 | |
CN114627237A (zh) | 一种基于实景三维模型的正视影像图生成方法 | |
Koeva | 3D modelling and interactive web-based visualization of cultural heritage objects | |
Deng et al. | Accurate and flexible calibration method for a class of visual sensor networks | |
CN111739103A (zh) | 一种基于单点标定物的多相机标定系统 | |
CN114067058A (zh) | 多角度sar立体成像方法 | |
Zhu et al. | Light field structured light projection data generation with Blender | |
CN107274449B (zh) | 一种光学照片对物体的空间定位系统及方法 | |
CN114998405A (zh) | 基于图像驱动的数字化人体模型构建方法 | |
CN114252058A (zh) | 一种航空精细大场景制作与量测方法 | |
CN114972536B (zh) | 一种航空面阵摆扫式相机定位和标定方法 | |
Liu | Impact of High‐Tech Image Formats Based on Full‐Frame Sensors on Visual Experience and Film‐Television Production | |
Zhang et al. | Colorful Reconstruction from Solid-State-LiDAR and Monocular Version |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |