CN114529679A - 基于神经辐射场的计算全息场生成方法及装置 - Google Patents

基于神经辐射场的计算全息场生成方法及装置 Download PDF

Info

Publication number
CN114529679A
CN114529679A CN202210407271.3A CN202210407271A CN114529679A CN 114529679 A CN114529679 A CN 114529679A CN 202210407271 A CN202210407271 A CN 202210407271A CN 114529679 A CN114529679 A CN 114529679A
Authority
CN
China
Prior art keywords
dimensional
hologram
angle
computed
under
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210407271.3A
Other languages
English (en)
Other versions
CN114529679B (zh
Inventor
于涛
邬京耀
戴琼海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN202210407271.3A priority Critical patent/CN114529679B/zh
Priority to PCT/CN2022/089982 priority patent/WO2023201771A1/zh
Publication of CN114529679A publication Critical patent/CN114529679A/zh
Application granted granted Critical
Publication of CN114529679B publication Critical patent/CN114529679B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/04Processes or apparatus for producing holograms
    • G03H1/08Synthesising holograms, i.e. holograms synthesized from objects or objects from holograms
    • G03H1/0866Digital holographic imaging, i.e. synthesizing holobjects from holograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Graphics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Geometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Holo Graphy (AREA)

Abstract

本申请涉及图像数据处理或产生技术领域,特别涉及一种基于神经辐射场的计算全息场生成方法及装置,其中,方法包括:获取目标场景的三维模型;采集多个视角下目标场景的彩色图像和深度图,记录相应的角度信息和相机的内外参数,生成点云数据,计算全息振幅图和相位图,得到真值图像;基于不同角度对三维模型进行二维采样,得到多个二维图像;利用预设的神经网络获取每个二维图像的振幅分布和相位分布,计算并叠加得到对应视角下的计算全息图;通过预先训练的计算全息场网络,得到对应视角下的计算全息图。由此,解决了相关技术受限于观察角度和全息图计算速率等因素,无法快速有效地从多个视角观测目标在对应角度下的三维图像的技术问题。

Description

基于神经辐射场的计算全息场生成方法及装置
技术领域
本申请涉及图像数据处理或产生技术领域,特别涉及一种基于神经辐射场的计算全息场生成方法及装置。
背景技术
神经辐射场可以通过对一个复杂场景利用神经网络建模,构建复杂场景对应的隐式表达,并利用训练好的神经辐射场网络可从任意角度对复杂场景进行场景渲染,是3D视觉领域里一个新兴的研究领域。
计算全息显示技术是随着数字计算机和全息成像技术的发展所衍生的一项利用数字计算机模拟光学过程并生成全息图的技术,与其他三维显示技术相比,全息显示由于包含了目标的振幅和相位信息,可以精确呈现目标的三维图像,因此被认为是实现三维显示的最佳手段。
然而,相关技术受限于观察角度和全息图计算速率等因素,无法快速有效地从多个视角观测目标在对应角度下的三维图像,有待改善。
发明内容
本申请提供一种基于神经辐射场的计算全息场生成方法及装置,以解决相关技术受限于观察角度和全息图计算速率等因素,无法快速有效地从多个视角观测目标在对应角度下的三维图像的技术问题。
本申请第一方面实施例提供一种基于神经辐射场的计算全息场生成方法,包括以下步骤:获取目标场景的三维模型;采集多个视角下所述目标场景的彩色图像和深度图,并记录相应的角度信息和相机的内外参数;根据所述内外参数,通过所述彩色图像和深度图生成相应视角下的点云数据,计算对应视角下的全息振幅图和相位图,得到真值图像;基于不同角度对所述三维模型在预设深度范围内进行二维采样,得到多个不同深度下相互平行的二维图像;利用预设的神经网络获取对应视角下每个二维图像的振幅分布和相位分布,计算所述每个二维图像的复振幅分布,并叠加得到对应视角下的计算全息图;以及通过预先训练的计算全息场网络,由任意观察视点得到对应视角下的计算全息图,其中,所述计算全息场网络由所述对应视角下的计算全息图训练得到。
可选地,在本申请的一个实施例中,在所述通过预先训练的计算全息场网络,由所述任意观察视点得到所述对应视角下的计算全息图之前,还包括:构建初始神经辐射场网络;基于设置的损失函数、不同视角下的计算全息图和相对应的真值图像训练所述初始神经辐射场网络,得到所述计算全息场网络。
可选地,在本申请的一个实施例中,所述利用预设的神经网络获取对应视角下每个二维图像的振幅分布和相位分布,包括:构建所述预设的神经网络的相关函数与网络参数;将所述角度信息和所述多个二维图像输入所述神经网络,获取所述对应视角下每个二维图像的振幅分布和相位分布。
可选地,在本申请的一个实施例中,所述计算所述每个二维图像的复振幅分布,并叠加得到对应视角下的计算全息图,包括:计算所述每个二维图像的复振幅分布,其中,所述复振幅分布的计算公式为:
Figure 860890DEST_PATH_IMAGE001
其中,P n 为第n个二维图像的复振幅,A n 为神经网络输出的第n个二维图像的振幅分布,
Figure 343824DEST_PATH_IMAGE002
为神经网络输出的第n个二维图像的相位分布,j代表虚数的虚部,本质为相位符号;
根据所述每个二维图像的复振幅分布计算对应视角下的计算全息图,其中,所述计算全息图的计算公式为:
Figure DEST_PATH_IMAGE003
其中,H m 为第m个自由视角下的计算全息图,N为对应视角下的二维图像总数。
可选地,在本申请的一个实施例中,所述损失函数包括:
Figure 629443DEST_PATH_IMAGE004
Figure DEST_PATH_IMAGE005
其中,
Figure 539630DEST_PATH_IMAGE006
Figure DEST_PATH_IMAGE007
分别为场景在第m个视角下的计算全息振幅图和相位图,
Figure 838762DEST_PATH_IMAGE008
Figure DEST_PATH_IMAGE009
分别为场景在第m个视角下的振幅真值图和相位真值图。
可选地,在本申请的一个实施例中,所述通过预先训练的计算全息场网络,由任意观察视点得到对应视角下的计算全息图,包括:基于观察视点的角度,确定所述观察视点下场景的二维图像采样深度范围;在所述采样深度范围内进行二维图像采样,得到各个深度下二维图像的振幅和相位分布;根据所述各个深度下二维图像的振幅和相位分布计算相应的复振幅分布,并叠加得到所述对应视角下的计算全息图。
本申请第二方面实施例提供一种基于神经辐射场的计算全息场生成装置,包括:获取模块,用于获取目标场景的三维模型;记录模块,用于采集多个视角下所述目标场景的彩色图像和深度图,并记录相应的角度信息和相机的内外参数;第一计算模块,用于根据所述内外参数,通过所述彩色图像和深度图生成相应视角下的点云数据,计算对应视角下的全息振幅图和相位图,得到真值图像;采样模块,用于基于不同角度对所述三维模型在预设深度范围内进行二维采样,得到多个不同深度下相互平行的二维图像;第二计算模块,用于利用预设的神经网络获取对应视角下每个二维图像的振幅分布和相位分布,计算所述每个二维图像的复振幅分布,并叠加得到对应视角下的计算全息图;以及生成模块,用于通过预先训练的计算全息场网络,由任意观察视点得到对应视角下的计算全息图,其中,所述计算全息场网络由所述对应视角下的计算全息图训练得到。
可选地,在本申请的一个实施例中,还包括:构建模块,用于构建初始神经辐射场网络;训练模块,用于基于设置的损失函数、不同视角下的计算全息图和相对应的真值图像训练所述初始神经辐射场网络,得到所述计算全息场网络。
可选地,在本申请的一个实施例中,所述第二计算模块包括:构建单元,用于构建所述预设的神经网络的相关函数与网络参数;获取单元,用于将所述角度信息和所述多个二维图像输入所述神经网络,获取所述对应视角下每个二维图像的振幅分布和相位分布。
可选地,在本申请的一个实施例中,所述第二计算模块包括:计算所述每个二维图像的复振幅分布,其中,所述复振幅分布的计算公式为:
Figure 876120DEST_PATH_IMAGE010
其中,P n 为第n个二维图像的复振幅,A n 为神经网络输出的第n个二维图像的振幅分布,
Figure 265513DEST_PATH_IMAGE002
为神经网络输出的第n个二维图像的相位分布,j代表虚数的虚部,本质为相位符号;
根据所述每个二维图像的复振幅分布计算对应视角下的计算全息图,其中,所述计算全息图的计算公式为:
Figure DEST_PATH_IMAGE011
其中,H m 为第m个自由视角下的计算全息图,N为对应视角下的二维图像总数。
可选地,在本申请的一个实施例中,所述损失函数包括:
Figure 941343DEST_PATH_IMAGE004
Figure 166919DEST_PATH_IMAGE005
其中,
Figure 929339DEST_PATH_IMAGE006
Figure 173238DEST_PATH_IMAGE007
分别为场景在第m个视角下的计算全息振幅图和相位图,
Figure 940075DEST_PATH_IMAGE008
Figure 902215DEST_PATH_IMAGE009
分别为场景在第m个视角下的振幅真值图和相位真值图。
可选地,在本申请的一个实施例中,所述生成模块包括:深度确定单元,用于基于观察视点的角度,确定所述观察视点下场景的二维图像采样深度范围;采样单元,用于在所述采样深度范围内进行二维图像采样,得到各个深度下二维图像的振幅和相位分布;叠加单元,用于根据所述各个深度下二维图像的振幅和相位分布计算相应的复振幅分布,并叠加得到所述对应视角下的计算全息图。
本申请第三方面实施例提供一种电子设备,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序,以实现如上述实施例所述的基于神经辐射场的计算全息场生成方法。
本申请第四方面实施例提供一种计算机可读存储介质,所述计算机可读存储介质存储计算机指令,所述计算机指令用于使所述计算机执行如上述实施例所述的基于神经辐射场的计算全息场生成方法。
本申请实施例可以利用神经网络对场景进行建模,得到场景的复振幅特性隐式表达,通过输入任意观察角度,得到该方向下场景在不同深度处二维采样图像的振幅和相位分布,进而计算得到对应观测角下场景的计算全息图,可在无需进行大量计算的情况下快速有效地实现自由视角下场景的全息再现,弥补现有计算全息显示存在的观测角度受限和计算速率低等缺陷。由此,解决了相关技术受限于观察角度和全息图计算速率等因素,无法快速有效地从多个视角观测目标在对应角度下的三维图像的技术问题。
本申请附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本申请的实践了解到。
附图说明
本申请上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本申请实施例提供的一种基于神经辐射场的计算全息场生成方法的流程图;
图2为根据本申请一个实施例的基于神经辐射场的计算全息场生成方法的流程图;
图3为根据本申请实施例提供的一种基于神经辐射场的计算全息场生成装置的结构示意图;
图4为根据本申请实施例提供的电子设备的结构示意图。
具体实施方式
下面详细描述本申请的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本申请,而不能理解为对本申请的限制。
下面参考附图描述本申请实施例的基于神经辐射场的计算全息场生成方法及装置。针对上述背景技术中心提到的相关技术受限于观察角度和全息图计算速率等因素,无法快速有效地从多个视角观测目标在对应角度下的三维图像的技术问题,本申请提供了一种基于神经辐射场的计算全息场生成方法,在该方法中,可以利用神经网络对场景进行建模,得到场景的复振幅特性隐式表达,通过输入任意观察角度,得到该方向下场景在不同深度处二维采样图像的振幅和相位分布,进而计算得到对应观测角下场景的计算全息图,可在无需进行大量计算的情况下快速有效地实现自由视角下场景的全息再现,弥补现有计算全息显示存在的观测角度受限和计算速率低等缺陷。由此,解决了相关技术受限于观察角度和全息图计算速率等因素,无法快速有效地从多个视角观测目标在对应角度下的三维图像的技术问题。
具体而言,图1为本申请实施例所提供的一种基于神经辐射场的计算全息场生成方法的流程示意图。
如图1所示,该基于神经辐射场的计算全息场生成方法包括以下步骤:
在步骤S101中,获取目标场景的三维模型。
可以理解的是,本申请实施例可通过不同方式获取场景的三维模型,例如可以通过建模软件对场景进行三维渲染建模,或者利用激光雷达对场景进行三维扫描等,本申请实施例仅针对场景三维模型,因此不受场景三维模型构建方法的局限。
在步骤S102中,采集多个视角下目标场景的彩色图像和深度图,并记录相应的角度信息和相机的内外参数。
在实际执行过程中,本申请实施例可通过不同方式采集多个视角下场景的彩色图像和深度图,例如可以通过RGB-D(RGB-Depth Map,深度图像)相机对场景进行实拍或者利用软件对场景进行渲染等,本申请实施例仅针对场景的彩色图像、深度图以及采集过程中涉及到的角度和相机内外参数信息,因此不受场景彩色图像和深度图像采集方法的局限。
在步骤S103中,根据内外参数,通过彩色图像和深度图生成相应视角下的点云数据,计算对应视角下的全息振幅图和相位图,得到真值图像。
作为一种可能实现的方式,本申请实施例可以根据相机的内外参数,通过不同视角下的彩色图像和深度图,生成相应视角下的点云数据,并通过点云数据计算对应视角下的全息振幅图和相位图作为真值图像,举例而言,本申请实施例可以直接通过点云数据进行计算,或者先将点云数据渲染成离散面片后再进行计算,本申请实施例针对场景在对应视角下的全息振幅真值图和相位真值图,因此不受场景全息振幅真值图和相位真值图计算方法的局限。
在步骤S104中,基于不同角度对三维模型在预设深度范围内进行二维采样,得到多个不同深度下相互平行的二维图像。
在实际执行过程中,本申请实施例可以基于不同角度,对三维模型在预设深度范围内进行二维采样,进而获得多个不同深度下,相互平行的二维图像,其中,采样的二维图像法线方向与观测角方向一致且二维图像分辨率和计算的真值图像分辨率相同。
需要注意的是,预设深度范围可以由本领域技术人员根据实际情况进行设置,在此不做具体限制。
在步骤S105中,利用预设的神经网络获取对应视角下每个二维图像的振幅分布和相位分布,计算每个二维图像的复振幅分布,并叠加得到对应视角下的计算全息图。
具体地,本申请实施例可以利用预设的神经网络获取对应视角下的每个二维图像的振幅分布和相位分布,并计算每个二维图像的复振幅分布,进而通过叠加得到对应视角下的计算全息图。本申请实施例可以利用神经网络建立观测角度、沿着观测角度对场景进行二维采样的图像与输出的采样图像振幅和相位分布之间的联系,进而构建相应的神经辐射场即计算全息场,并通过各个二维采样图像的复振幅分布完成相应视角下全息图的计算,从而实现自由视角下场景的全息图快速生成,有效提高计算全息显示的实用性和适用性。
可选地,在本申请的一个实施例中,利用预设的神经网络获取对应视角下每个二维图像的振幅分布和相位分布,包括:构建预设的神经网络的相关函数与网络参数;将角度信息和多个二维图像输入神经网络,获取对应视角下每个二维图像的振幅分布和相位分布。
进一步地,本申请实施例可以构建预设的神经网络的相关函数与网络参数,将记录的观测角度信息和对应视角下各个二维图像输入神经网络,从而获取相应视角下各个二维图像的振幅分布和相位分布。本申请实施例可以沿着观测角度对场景进行二维采样的图像与输出的采样图像振幅和相位分布之间的联系,进而构建相应的神经辐射场,即计算全息场,有利于后续进行相应视角下的全息图的计算,从而实现自由视角下场景的全息图快速生成,有效提高计算全息显示的实用性和适用性。
可选地,在本申请的一个实施例中,计算每个二维图像的复振幅分布,并叠加得到对应视角下的计算全息图,包括:计算每个二维图像的复振幅分布,其中,复振幅分布的计算公式为:
Figure 281374DEST_PATH_IMAGE010
其中,P n 为第n个二维图像的复振幅,A n 为神经网络输出的第n个二维图像的振幅分布,
Figure 317464DEST_PATH_IMAGE002
为神经网络输出的第n个二维图像的相位分布,j代表虚数的虚部,本质为相位符号;
根据每个二维图像的复振幅分布计算对应视角下的计算全息图,其中,计算全息图的计算公式为:
Figure 5934DEST_PATH_IMAGE012
其中,H m 为第m个自由视角下的计算全息图,N为对应视角下的二维图像总数。
在步骤S106中,通过预先训练的计算全息场网络,由任意观察视点得到对应视角下的计算全息图,其中,计算全息场网络由对应视角下的计算全息图训练得到。
在实际执行过程中,本申请实施例可以由对应视角下的计算全息图训练得到计算全息场网络,并通过预先训练的计算全息场网络,由任意观察视点得到对应视角下的计算全息图,本申请实施例可以通过构建相应的神经辐射场,即计算全息场,并通过各个二维采样图像的复振幅分布完成相应视角下全息图的计算,从而实现自由视角下场景的全息图快速生成,有效提高计算全息显示的实用性和适用性。
可选地,在本申请的一个实施例中,在通过预先训练的计算全息场网络,由任意观察视点得到对应视角下的计算全息图之前还包括:构建初始神经辐射场网络;基于设置的损失函数、不同视角下的计算全息图和相对应的真值图像训练初始神经辐射场网络,得到计算全息场网络。
作为一种可能实现的方式,本申请实施例可以通过构建初始神经辐射场网络,并基于设置的损失函数、不同视角下的计算全息图和相对应的真值图像训练初始神经辐射场网络,训练完成后的神经辐射场网络即为对应场景下的计算全息场网络。
可选地,在本申请的一个实施例中,损失函数包括:
Figure 704637DEST_PATH_IMAGE004
Figure 871176DEST_PATH_IMAGE005
其中,
Figure 27351DEST_PATH_IMAGE006
Figure 637455DEST_PATH_IMAGE007
分别为场景在第m个视角下的计算全息振幅图和相位图,
Figure 308608DEST_PATH_IMAGE008
Figure 793685DEST_PATH_IMAGE009
分别为场景在第m个视角下的振幅真值图和相位真值图。
具体地,本申请实施例的神经辐射场网络为一个以二维向量和二维图像作为输入的函数
Figure DEST_PATH_IMAGE013
,其中,二维向量为视角方向
Figure 866683DEST_PATH_IMAGE014
,二维图像为视角方向
Figure 647689DEST_PATH_IMAGE014
下某一深度的切割图I,函数
Figure 806137DEST_PATH_IMAGE013
的输出为对应二维图像的振幅分布A和相位分布
Figure DEST_PATH_IMAGE015
,即
Figure 569606DEST_PATH_IMAGE016
表示各个二维图像的振幅和相位分布,并且预设的损失函数,包括:
Figure 762690DEST_PATH_IMAGE004
Figure 714597DEST_PATH_IMAGE005
其中,
Figure 298025DEST_PATH_IMAGE006
Figure 610057DEST_PATH_IMAGE007
分别为场景在第m个视角下的计算全息振幅图和相位图,
Figure 906915DEST_PATH_IMAGE008
Figure 278991DEST_PATH_IMAGE009
分别为场景在第m个视角下的振幅真值图和相位真值图。
可选地,在本申请的一个实施例中,通过预先训练的计算全息场网络,由任意观察视点得到对应视角下的计算全息图,包括:基于观察视点的角度,确定观察视点下场景的二维图像采样深度范围;在采样深度范围内进行二维图像采样,得到各个深度下二维图像的振幅和相位分布;根据各个深度下二维图像的振幅和相位分布计算相应的复振幅分布,并叠加得到对应视角下的计算全息图。
进一步地,本申请实施例可以通过预先训练的计算全息场网络,由任意观察视点得到对应视角下的计算全息图,其具体步骤如下:
1、给定观察视点的角度
Figure DEST_PATH_IMAGE017
,确定指定视点下场景的二维图像采样深度范围;
2、在采样深度范围内进行二维图像采样,利用计算全息场网络得到各个深度下二维图像的振幅和相位分布;
3、根据各个采样图像的振幅和相位分布计算相应的复振幅分布;
4、对各个采样图像的复振幅分布叠加得到相应观察视点下的计算全息图。
下面结合图2所示,以一个具体实施例对本申请实施例的基于神经辐射场的计算全息场生成方法进行详细阐述。
如图2所示,本申请实施例的步骤如下:
步骤S201:获取场景的三维模型。可以理解的是,本申请实施例可通过不同方式获取场景的三维模型,例如可以通过建模软件对场景进行三维渲染建模,或者利用激光雷达对场景进行三维扫描等,本申请实施例仅针对场景三维模型,因此不受场景三维模型构建方法的局限。
步骤S202:采集多个视角下场景的彩色图像和深度图,并记录相应的角度信息和相机的内外参数。在实际执行过程中,本申请实施例可通过不同方式采集多个视角下场景的彩色图像和深度图,例如可以通过RGB-D相机对场景进行实拍或者利用软件对场景进行渲染等,本申请实施例仅针对场景的彩色图像、深度图以及采集过程中涉及到的角度和相机内外参数信息,因此不受场景彩色图像和深度图像采集方法的局限。
步骤S203:根据相机的内外参数,通过不同视角下的彩色图像和深度图生成相应视角下的点云数据。作为一种可能实现的方式,本申请实施例可以根据相机的内外参数,通过不同视角下的彩色图像和深度图,生成相应视角下的点云数据。
步骤S204:通过点云数据计算对应视角下的全息振幅图和相位图作为真值图像。举例而言,本申请实施例可以直接通过点云数据进行计算,或者先将点云数据渲染成离散面片后再进行计算,本申请实施例针对场景在对应视角下的全息振幅真值图和相位真值图,因此不受场景全息振幅真值图和相位真值图计算方法的局限。
步骤S205:基于不同角度对场景三维模型在一定深度范围内进行二维采样得到多个不同深度下相互平行的二维图像。在实际执行过程中,本申请实施例可以基于不同角度,对三维模型在预设深度范围内进行二维采样,进而获得多个不同深度下,相互平行的二维图像,其中,采样的二维图像法线方向与观测角方向一致且二维图像分辨率和计算的真值图像分辨率相同。
需要注意的是,预设深度范围可以由本领域技术人员根据实际情况进行设置,在此不做具体限制。
步骤S206:利用预设的神经网络获取对应视角下各个二维图像的振幅分布和相位分布。进一步地,本申请实施例可以构建预设的神经网络的相关函数与网络参数,将记录的观测角度信息和对应视角下各个二维图像输入神经网络,从而获取相应视角下各个二维图像的振幅分布和相位分布。
其中,计算每个二维图像的复振幅分布,并叠加得到对应视角下的计算全息图,包括:计算每个二维图像的复振幅分布,其中,复振幅分布的计算公式为:
Figure 162764DEST_PATH_IMAGE018
其中,P n 为第n个二维图像的复振幅,A n 为神经网络输出的第n个二维图像的振幅分布,
Figure 278488DEST_PATH_IMAGE002
为神经网络输出的第n个二维图像的相位分布,j代表虚数的虚部,本质为相位符号;
根据每个二维图像的复振幅分布计算对应视角下的计算全息图,其中,计算全息图的计算公式为:
Figure DEST_PATH_IMAGE019
其中,H m 为第m个自由视角下的计算全息图,N为对应视角下的二维图像总数。
步骤S207:计算各个二维图像的复振幅分布并叠加得到对应视角下的计算全息图。在实际执行过程中,本申请实施例可以由对应视角下的计算全息图训练得到计算全息场网络,并通过预先训练的计算全息场网络,由任意观察视点得到对应视角下的计算全息图。
步骤S208:构建初始神经辐射场网络,并基于设置的损失函数、不同视角下的计算全息图和相对应的真值图像训练初始神经辐射场网络,训练完成后的神经辐射场网络即为对应场景下的计算全息场网络。
作为一种可能实现的方式,本申请实施例可以通过构建初始神经辐射场网络,并基于设置的损失函数、不同视角下的计算全息图和相对应的真值图像训练初始神经辐射场网络,训练完成后的神经辐射场网络即为对应场景下的计算全息场网络。
具体地,本申请实施例的神经辐射场网络为一个以二维向量和二维图像作为输入的函数
Figure 429852DEST_PATH_IMAGE020
,其中,二维向量为视角方向
Figure 972829DEST_PATH_IMAGE021
,二维图像为视角方向
Figure 78320DEST_PATH_IMAGE021
下某一深度的切割图I,函数
Figure 935417DEST_PATH_IMAGE020
的输出为对应二维图像的振幅分布A和相位分布
Figure 692021DEST_PATH_IMAGE022
,即
Figure 655166DEST_PATH_IMAGE023
表示各个二维图像的振幅和相位分布,并且预设的损失函数,包括:
Figure 762800DEST_PATH_IMAGE004
Figure 158009DEST_PATH_IMAGE005
其中,
Figure 519851DEST_PATH_IMAGE006
Figure 670210DEST_PATH_IMAGE007
分别为场景在第m个视角下的计算全息振幅图和相位图,
Figure 242968DEST_PATH_IMAGE008
Figure 176289DEST_PATH_IMAGE009
分别为场景在第m个视角下的振幅真值图和相位真值图。
步骤S209:通过计算全息场网络,给定任意观察视点即可得到该视角下的计算全息图。进一步地,本申请实施例可以通过预先训练的计算全息场网络,由任意观察视点得到对应视角下的计算全息图,其具体步骤如下:
1、给定观察视点的角度
Figure 907485DEST_PATH_IMAGE024
,确定指定视点下场景的二维图像采样深度范围;
2、在采样深度范围内进行二维图像采样,利用计算全息场网络得到各个深度下二维图像的振幅和相位分布;
3、根据各个采样图像的振幅和相位分布计算相应的复振幅分布;
4、对各个采样图像的复振幅分布叠加得到相应观察视点下的计算全息图。
根据本申请实施例提出的基于神经辐射场的计算全息场生成方法,可以利用神经网络对场景进行建模,得到场景的复振幅特性隐式表达,通过输入任意观察角度,得到该方向下场景在不同深度处二维采样图像的振幅和相位分布,进而计算得到对应观测角下场景的计算全息图,可在无需进行大量计算的情况下快速有效地实现自由视角下场景的全息再现,弥补现有计算全息显示存在的观测角度受限和计算速率低等缺陷。由此,解决了相关技术受限于观察角度和全息图计算速率等因素,无法快速有效地从多个视角观测目标在对应角度下的三维图像的技术问题。
其次参照附图描述根据本申请实施例提出的基于神经辐射场的计算全息场生成装置。
图3是本申请实施例的基于神经辐射场的计算全息场生成装置的方框示意图。
如图3所示,该基于神经辐射场的计算全息场生成装置10包括:获取模块100、记录模块200、第一计算模块300、采样模块400、第二计算模块500和生成模块600。
具体地,获取模块100,用于获取目标场景的三维模型。
记录模块200,用于采集多个视角下目标场景的彩色图像和深度图,并记录相应的角度信息和相机的内外参数。
第一计算模块300,用于根据内外参数,通过彩色图像和深度图生成相应视角下的点云数据,计算对应视角下的全息振幅图和相位图,得到真值图像。
采样模块400,用于基于不同角度对三维模型在预设深度范围内进行二维采样,得到多个不同深度下相互平行的二维图像。
第二计算模块500,用于利用预设的神经网络获取对应视角下每个二维图像的振幅分布和相位分布,计算每个二维图像的复振幅分布,并叠加得到对应视角下的计算全息图。
生成模块600,用于通过预先训练的计算全息场网络,由任意观察视点得到对应视角下的计算全息图,其中,计算全息场网络由对应视角下的计算全息图训练得到。
可选地,在本申请的一个实施例中,基于神经辐射场的计算全息场生成装置10还包括:构建模块和训练模块。
其中,构建模块,用于构建初始神经辐射场网络。
训练模块,用于基于设置的损失函数、不同视角下的计算全息图和相对应的真值图像训练初始神经辐射场网络,得到计算全息场网络。
可选地,在本申请的一个实施例中,第二计算模块500包括:构建单元和获取单元。
其中,构建单元,用于构建预设的神经网络的相关函数与网络参数。
获取单元,用于将角度信息和多个二维图像输入神经网络,获取对应视角下每个二维图像的振幅分布和相位分布。
可选地,在本申请的一个实施例中,第二计算模块500包括:计算每个二维图像的复振幅分布,其中,复振幅分布的计算公式为:
Figure 979477DEST_PATH_IMAGE025
其中,P n 为第n个二维图像的复振幅,A n 为神经网络输出的第n个二维图像的振幅分布,
Figure 530544DEST_PATH_IMAGE002
为神经网络输出的第n个二维图像的相位分布,j代表虚数的虚部,本质为相位符号;
根据每个二维图像的复振幅分布计算对应视角下的计算全息图,其中,计算全息图的计算公式为:
Figure 533135DEST_PATH_IMAGE026
其中,H m 为第m个自由视角下的计算全息图,N为对应视角下的二维图像总数。
可选地,在本申请的一个实施例中,损失函数包括:
Figure 368105DEST_PATH_IMAGE004
Figure 594687DEST_PATH_IMAGE005
其中,
Figure 836312DEST_PATH_IMAGE006
Figure 190064DEST_PATH_IMAGE007
分别为场景在第m个视角下的计算全息振幅图和相位图,
Figure 630273DEST_PATH_IMAGE008
Figure 231019DEST_PATH_IMAGE009
分别为场景在第m个视角下的振幅真值图和相位真值图。
需要说明的是,前述对基于神经辐射场的计算全息场生成方法实施例的解释说明也适用于该实施例的基于神经辐射场的计算全息场生成装置,此处不再赘述。
根据本申请实施例提出的基于神经辐射场的计算全息场生成装置,可以利用神经网络对场景进行建模,得到场景的复振幅特性隐式表达,通过输入任意观察角度,得到该方向下场景在不同深度处二维采样图像的振幅和相位分布,进而计算得到对应观测角下场景的计算全息图,可在无需进行大量计算的情况下快速有效地实现自由视角下场景的全息再现,弥补现有计算全息显示存在的观测角度受限和计算速率低等缺陷。由此,解决了相关技术受限于观察角度和全息图计算速率等因素,无法快速有效地从多个视角观测目标在对应角度下的三维图像的技术问题。
图4为本申请实施例提供的电子设备的结构示意图。该电子设备可以包括:
存储器401、处理器402及存储在存储器401上并可在处理器402上运行的计算机程序。
处理器402执行程序时实现上述实施例中提供的基于神经辐射场的计算全息场生成方法。
进一步地,电子设备还包括:
通信接口403,用于存储器401和处理器402之间的通信。
存储器401,用于存放可在处理器402上运行的计算机程序。
存储器401可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
如果存储器401、处理器402和通信接口403独立实现,则通信接口403、存储器401和处理器402可以通过总线相互连接并完成相互间的通信。总线可以是工业标准体系结构(Industry Standard Architecture,简称为ISA)总线、外部设备互连(PeripheralComponent,简称为PCI)总线或扩展工业标准体系结构(Extended Industry StandardArchitecture,简称为EISA)总线等。总线可以分为地址总线、数据总线、控制总线等。为便于表示,图4中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
可选地,在具体实现上,如果存储器401、处理器402及通信接口403,集成在一块芯片上实现,则存储器401、处理器402及通信接口403可以通过内部接口完成相互间的通信。
处理器402可能是一个中央处理器(Central Processing Unit,简称为CPU),或者是特定集成电路(Application Specific Integrated Circuit,简称为ASIC),或者是被配置成实施本申请实施例的一个或多个集成电路。
本实施例还提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上的基于神经辐射场的计算全息场生成方法。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或N个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本申请的描述中,“N个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更N个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本申请的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或N个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本申请的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,N个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本申请各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本申请的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本申请的限制,本领域的普通技术人员在本申请的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (14)

1.一种基于神经辐射场的计算全息场生成方法,其特征在于,包括以下步骤:
获取目标场景的三维模型;
采集多个视角下所述目标场景的彩色图像和深度图,并记录相应的角度信息和相机的内外参数;
根据所述内外参数,通过所述彩色图像和深度图生成相应视角下的点云数据,计算对应视角下的全息振幅图和相位图,得到真值图像;
基于不同角度对所述三维模型在预设深度范围内进行二维采样,得到多个不同深度下相互平行的二维图像;
利用预设的神经网络获取对应视角下每个二维图像的振幅分布和相位分布,计算所述每个二维图像的复振幅分布,并叠加得到对应视角下的计算全息图;以及
通过预先训练的计算全息场网络,由任意观察视点得到对应视角下的计算全息图,其中,所述计算全息场网络由所述对应视角下的计算全息图训练得到。
2.根据权利要求1所述的方法,其特征在于,在所述通过预先训练的计算全息场网络,由所述任意观察视点得到所述对应视角下的计算全息图之前,还包括:
构建初始神经辐射场网络;
基于设置的损失函数、不同视角下的计算全息图和相对应的真值图像训练所述初始神经辐射场网络,得到所述计算全息场网络。
3.根据权利要求1所述的方法,其特征在于,所述利用预设的神经网络获取对应视角下每个二维图像的振幅分布和相位分布,包括:
构建所述预设的神经网络的相关函数与网络参数;
将所述角度信息和多个二维图像输入所述神经网络,获取所述对应视角下每个二维图像的振幅分布和相位分布。
4.根据权利要求1所述的方法,其特征在于,所述计算所述每个二维图像的复振幅分布,并叠加得到对应视角下的计算全息图,包括:
计算所述每个二维图像的复振幅分布,其中,所述复振幅分布的计算公式为:
Figure 802821DEST_PATH_IMAGE001
其中,P n 为第n个二维图像的复振幅,A n 为神经网络输出的第n个二维图像的振幅分布,
Figure 124081DEST_PATH_IMAGE002
为神经网络输出的第n个二维图像的相位分布,j代表虚数的虚部,本质为相位符号;
根据所述每个二维图像的复振幅分布计算对应视角下的计算全息图,其中,所述计算全息图的计算公式为:
Figure 189995DEST_PATH_IMAGE003
其中,H m 为第m个自由视角下的计算全息图,N为对应视角下的二维图像总数。
5.根据权利要求2所述的方法,其特征在于,所述损失函数包括:
Figure 927006DEST_PATH_IMAGE004
Figure 512709DEST_PATH_IMAGE005
其中,
Figure 755602DEST_PATH_IMAGE006
Figure 731649DEST_PATH_IMAGE007
分别为场景在第m个视角下的计算全息振幅图和相位图,
Figure 334668DEST_PATH_IMAGE008
Figure 289724DEST_PATH_IMAGE009
分别为场景在第m个视角下的振幅真值图和相位真值图。
6.根据权利要求1-5任一项所述的方法,其特征在于,所述通过预先训练的计算全息场网络,由任意观察视点得到对应视角下的计算全息图,包括:
基于观察视点的角度,确定所述观察视点下场景的二维图像采样深度范围;
在所述采样深度范围内进行二维图像采样,得到各个深度下二维图像的振幅和相位分布;
根据所述各个深度下二维图像的振幅和相位分布计算相应的复振幅分布,并叠加得到所述对应视角下的计算全息图。
7.一种基于神经辐射场的计算全息场生成装置,其特征在于,包括:
获取模块,用于获取目标场景的三维模型;
记录模块,用于采集多个视角下所述目标场景的彩色图像和深度图,并记录相应的角度信息和相机的内外参数;
第一计算模块,用于根据所述内外参数,通过所述彩色图像和深度图生成相应视角下的点云数据,计算对应视角下的全息振幅图和相位图,得到真值图像;
采样模块,用于基于不同角度对所述三维模型在预设深度范围内进行二维采样,得到多个不同深度下相互平行的二维图像;
第二计算模块,用于利用预设的神经网络获取对应视角下每个二维图像的振幅分布和相位分布,计算所述每个二维图像的复振幅分布,并叠加得到对应视角下的计算全息图;以及
生成模块,用于通过预先训练的计算全息场网络,由任意观察视点得到对应视角下的计算全息图,其中,所述计算全息场网络由所述对应视角下的计算全息图训练得到。
8.根据权利要求7所述的装置,其特征在于,还包括:
构建模块,用于构建初始神经辐射场网络;
训练模块,用于基于设置的损失函数、不同视角下的计算全息图和相对应的真值图像训练所述初始神经辐射场网络,得到所述计算全息场网络。
9.根据权利要求7所述的装置,其特征在于,所述第二计算模块包括:
构建单元,用于构建所述预设的神经网络的相关函数与网络参数;
获取单元,用于将所述角度信息和多个二维图像输入所述神经网络,获取所述对应视角下每个二维图像的振幅分布和相位分布。
10.根据权利要求7所述的装置,其特征在于,所述第二计算模块包括:
计算所述每个二维图像的复振幅分布,其中,所述复振幅分布的计算公式为:
Figure 687207DEST_PATH_IMAGE010
其中,P n 为第n个二维图像的复振幅,A n 为神经网络输出的第n个二维图像的振幅分布,
Figure 416128DEST_PATH_IMAGE002
为神经网络输出的第n个二维图像的相位分布,j代表虚数的虚部,本质为相位符号;
根据所述每个二维图像的复振幅分布计算对应视角下的计算全息图,其中,所述计算全息图的计算公式为:
Figure 307992DEST_PATH_IMAGE011
其中,H m 为第m个自由视角下的计算全息图,N为对应视角下的二维图像总数。
11.根据权利要求8所述的装置,其特征在于,所述损失函数包括:
Figure 868287DEST_PATH_IMAGE004
Figure 680079DEST_PATH_IMAGE005
其中,
Figure 896297DEST_PATH_IMAGE006
Figure 841119DEST_PATH_IMAGE007
分别为场景在第m个视角下的计算全息振幅图和相位图,
Figure 6653DEST_PATH_IMAGE008
Figure 949201DEST_PATH_IMAGE009
分别为场景在第m个视角下的振幅真值图和相位真值图。
12.根据权利要求7-11任一项所述的装置,其特征在于,所述生成模块包括:
深度确定单元,用于基于观察视点的角度,确定所述观察视点下场景的二维图像采样深度范围;
采样单元,用于在所述采样深度范围内进行二维图像采样,得到各个深度下二维图像的振幅和相位分布;
叠加单元,用于根据所述各个深度下二维图像的振幅和相位分布计算相应的复振幅分布,并叠加得到所述对应视角下的计算全息图。
13.一种电子设备,其特征在于,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序,以实现如权利要求1-6任一项所述的基于神经辐射场的计算全息场生成方法。
14.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行,以用于实现如权利要求1-6任一项所述的基于神经辐射场的计算全息场生成方法。
CN202210407271.3A 2022-04-19 2022-04-19 基于神经辐射场的计算全息场生成方法及装置 Active CN114529679B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202210407271.3A CN114529679B (zh) 2022-04-19 2022-04-19 基于神经辐射场的计算全息场生成方法及装置
PCT/CN2022/089982 WO2023201771A1 (zh) 2022-04-19 2022-04-28 基于神经辐射场的计算全息场生成方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210407271.3A CN114529679B (zh) 2022-04-19 2022-04-19 基于神经辐射场的计算全息场生成方法及装置

Publications (2)

Publication Number Publication Date
CN114529679A true CN114529679A (zh) 2022-05-24
CN114529679B CN114529679B (zh) 2022-09-16

Family

ID=81628337

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210407271.3A Active CN114529679B (zh) 2022-04-19 2022-04-19 基于神经辐射场的计算全息场生成方法及装置

Country Status (2)

Country Link
CN (1) CN114529679B (zh)
WO (1) WO2023201771A1 (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114972924A (zh) * 2022-06-10 2022-08-30 北京理工大学 无监督的深度学习全息成像方法及装置
CN115035252A (zh) * 2022-06-20 2022-09-09 北京市燃气集团有限责任公司 一种基于神经辐射场的燃气厂站三维重建方法及装置
CN115061348A (zh) * 2022-08-01 2022-09-16 世优(北京)科技有限公司 基于物点的三维动态全息显示方法及装置
CN115082639A (zh) * 2022-06-15 2022-09-20 北京百度网讯科技有限公司 图像生成方法、装置、电子设备和存储介质
CN116645370A (zh) * 2023-07-27 2023-08-25 山东顺发重工有限公司 基于三维点云数据的高温锻件表面缺陷实时检测方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117372602B (zh) * 2023-12-05 2024-02-23 成都索贝数码科技股份有限公司 一种异构三维多对象融合渲染方法、设备及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109459923A (zh) * 2019-01-02 2019-03-12 西北工业大学 一种基于深度学习的全息重建算法
US20190294108A1 (en) * 2018-03-21 2019-09-26 The Regents Of The University Of California Method and system for phase recovery and holographic image reconstruction using a neural network
CN113099208A (zh) * 2021-03-31 2021-07-09 清华大学 基于神经辐射场的动态人体自由视点视频生成方法和装置
CN113591854A (zh) * 2021-08-12 2021-11-02 中国海洋大学 一种浮游生物全息图的低冗余快速重建方法
CN114004941A (zh) * 2022-01-04 2022-02-01 苏州浪潮智能科技有限公司 一种基于神经辐射场的室内场景三维重建系统及方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11699242B2 (en) * 2020-02-25 2023-07-11 Electronics And Telecommunications Research Institute System and method for digital hologram synthesis and process using deep learning
CN113269862B (zh) * 2021-05-31 2024-06-21 中国科学院自动化研究所 场景自适应的精细三维人脸重建方法、系统、电子设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190294108A1 (en) * 2018-03-21 2019-09-26 The Regents Of The University Of California Method and system for phase recovery and holographic image reconstruction using a neural network
CN109459923A (zh) * 2019-01-02 2019-03-12 西北工业大学 一种基于深度学习的全息重建算法
CN113099208A (zh) * 2021-03-31 2021-07-09 清华大学 基于神经辐射场的动态人体自由视点视频生成方法和装置
CN113591854A (zh) * 2021-08-12 2021-11-02 中国海洋大学 一种浮游生物全息图的低冗余快速重建方法
CN114004941A (zh) * 2022-01-04 2022-02-01 苏州浪潮智能科技有限公司 一种基于神经辐射场的室内场景三维重建系统及方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
YI WEI 等: "NerfingMVS: Guided Optimization of Neural Radiance Fields for Indoor Multi-view Stereo", 《2021 IEEE/CVF INTERNATIONAL CONFERENCE ON COMPUTER VISION》 *
常远 等: "基于神经辐射场的视点合成算法综述", 《图学学报》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114972924A (zh) * 2022-06-10 2022-08-30 北京理工大学 无监督的深度学习全息成像方法及装置
CN115082639A (zh) * 2022-06-15 2022-09-20 北京百度网讯科技有限公司 图像生成方法、装置、电子设备和存储介质
CN115082639B (zh) * 2022-06-15 2023-06-27 北京百度网讯科技有限公司 图像生成方法、装置、电子设备和存储介质
CN115035252A (zh) * 2022-06-20 2022-09-09 北京市燃气集团有限责任公司 一种基于神经辐射场的燃气厂站三维重建方法及装置
CN115061348A (zh) * 2022-08-01 2022-09-16 世优(北京)科技有限公司 基于物点的三维动态全息显示方法及装置
CN115061348B (zh) * 2022-08-01 2024-05-17 世优(北京)科技有限公司 基于物点的三维动态全息显示方法及装置
CN116645370A (zh) * 2023-07-27 2023-08-25 山东顺发重工有限公司 基于三维点云数据的高温锻件表面缺陷实时检测方法
CN116645370B (zh) * 2023-07-27 2023-10-10 山东顺发重工有限公司 基于三维点云数据的高温锻件表面缺陷实时检测方法

Also Published As

Publication number Publication date
CN114529679B (zh) 2022-09-16
WO2023201771A1 (zh) 2023-10-26

Similar Documents

Publication Publication Date Title
CN114529679B (zh) 基于神经辐射场的计算全息场生成方法及装置
CN110363858B (zh) 一种三维人脸重建方法及系统
CN110427917B (zh) 用于检测关键点的方法和装置
CN108665536B (zh) 三维与实景数据可视化方法、装置与计算机可读存储介质
CN106780590B (zh) 一种深度图的获取方法及系统
EP1303839B1 (en) System and method for median fusion of depth maps
CN107507274A (zh) 一种基于云计算的公安案件现场三维实景快速还原方法
McKinnon et al. Towards automated and in-situ, near-real time 3-D reconstruction of coral reef environments
CN115409931B (zh) 一种基于图像与点云数据融合的三维重建方法
CN110443874B (zh) 基于卷积神经网络的视点数据生成方法和装置
CN108062788A (zh) 一种三维重建方法、装置、设备和介质
CN113379815A (zh) 基于rgb相机与激光传感器的三维重建方法、装置及服务器
Liao et al. A linear pushbroom satellite image epipolar resampling method for digital surface model generation
JP6968895B2 (ja) 電磁場の波頭の断層撮影分布を取得する方法及び光学システム
EP0141706B1 (fr) Procédé et appareillage pour déterminer l'attitude d'un objet dans l'espace par rapport à un poste d'observation
CN117274514A (zh) 基于地空视角几何变换的遥感图像生成方法及装置
CN113281779A (zh) 一种3d物体快速检测方法、装置、设备及介质
CN117274338A (zh) 一种无人机高光谱图像对齐方法、装置、终端及存储介质
CN116958416A (zh) 一种三维建模方法、装置、系统以及存储介质
CN112634439B (zh) 一种3d信息展示方法及装置
JP2004258775A (ja) 光線空間データ処理方法、空間データ処理装置
CN114913105A (zh) 激光点云融合方法、装置、服务器及计算机可读存储介质
CN112907733A (zh) 重建三维模型的方法及装置和三维模型采集及重建系统
CN113014901B (zh) 一种用于全息体视图打印的视差图像序列合成方法、系统及存储介质
CN111369612A (zh) 一种三维点云图像生成方法及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant