CN114820945A - 基于稀疏采样的环拍图像到任意视点图像生成方法及系统 - Google Patents

基于稀疏采样的环拍图像到任意视点图像生成方法及系统 Download PDF

Info

Publication number
CN114820945A
CN114820945A CN202210493548.9A CN202210493548A CN114820945A CN 114820945 A CN114820945 A CN 114820945A CN 202210493548 A CN202210493548 A CN 202210493548A CN 114820945 A CN114820945 A CN 114820945A
Authority
CN
China
Prior art keywords
image
view
generating
network model
rendering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210493548.9A
Other languages
English (en)
Inventor
李翔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Yingshu Technology Co ltd
Original Assignee
Beijing Yingshu Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Yingshu Technology Co ltd filed Critical Beijing Yingshu Technology Co ltd
Priority to CN202210493548.9A priority Critical patent/CN114820945A/zh
Publication of CN114820945A publication Critical patent/CN114820945A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于稀疏采样的环拍图像到任意视点图像生成方法及系统,借鉴神经渲染的优势,通过给定邻近的源视图,使用体积渲染以新颖的相机位姿合成目标视图,并估计该视图的颜色和体积密度,从多个源视图动态绘制外观信息。对于新视点合成的应用场景,基于深度卷积神经网络并结合经典的体渲染技术,能够基于有限角度稀疏采样得到的环拍图像数据,来渲染生成360度任意视角下渲染的2D图像,从而进行任意观察轨迹下的视频合成,本发明方法不仅可以有效解决物体的拍摄死角问题,而且可以大大减少物体或场景拍摄的成本。

Description

基于稀疏采样的环拍图像到任意视点图像生成方法及系统
技术领域
本发明涉及新视点图像合成技术领域,具体涉及基于稀疏采样的环拍图像到任意视点图像生成方法及系统。
背景技术
给定场景的一组姿势图像,新视图合成的目标是在任意新视点生成同一场景的照片般逼真的图像。也就是说,基于有限角度稀疏采样得到的环拍图像数据,我们可以通过神经渲染技术,在360度任意新相机视角条件下合成图像。但对于此类任务,其最主要的挑战是来自于场景的三维结构观测比较稀疏,需要在仅有的几个观测视角下合成出新视角的图像,同时还需要补全新视角下被遮挡或者没有在观测中被包含的部分。
在经典计算机视觉中,人们主要基于多视角立体视觉来实现物体或场景几何重建,用反射变换来构建基于图像的渲染效果。但在稀疏观测或者欠观测的情况下,这种方法得到的结果会具有孔洞,或是留下较为明显的人工凿斧痕迹。而在神经渲染中,可以通过少量的已有视角观测结果来学习出场景,再利用可差分的渲染器生成新视角下的照片般逼真的图像,能够显著改善传统场景几何重建中产生的孔洞、明显痕迹等问题。另外,在对物体拍摄时,也会因为物体的几何形状而不可避免的出现一些拍摄死角的问题,这对获取物体的任意视角图像带来了一定的阻碍,而基于神经渲染的新视点图像生成有效的解决了此类问题。
发明内容
为此,本发明提供一种基于稀疏采样的环拍图像到任意视点图像生成方法及系统,以解决现有新视点图像合成方法存在的物体存在拍摄死角,对获取物体的任意视角图像带来阻碍的问题。
为了实现上述目的,本发明提供如下技术方案:
根据本发明实施例的第一方面,提出了一种基于稀疏采样的环拍图像到任意视点图像生成方法,所述方法包括:
基于稀疏采样获取物体或场景的不同视角的环拍图像,相邻视角的图像之间具有一定的重合区域,随机选择一个目标视图,然后采样N个邻近的与目标视图具有不小于预设角度重合区域的视图作为源视图来构建源视图集与目标视图对,建立训练集,根据所述训练集得到有效工作集;
基于所述训练集对所述物体或场景进行稀疏重建,得到全局三维点云,根据所述三维点云得到图像的位姿信息;
基于所述工作集以及图像的位姿信息对预先构建的神经网络模型进行训练,所述神经网络模型包括图像特征提取网络模型和神经渲染网络模型,所述神经渲染网络模型包括体积密度预测模块和颜色预测模块,分别用于预测输出的新视图的密度和颜色;
利用训练好的神经渲染网络模型渲染生成指定观察轨迹下的多张新视点图像。
进一步地,根据所述训练集得到有效工作集,具体包括:
选择N个源视图中与目标视图具有最大重合区域的视图子集作为工作集。
进一步地,根据所述三维点云得到图像的位姿信息,具体包括:
所述全局三维点云中包含了图像所有像素点在空间中的包括3D空间位置和2D观看方向的5D位置信息,即为图像的位姿信息。
进一步地,基于所述工作集以及图像的位姿信息对预先构建的神经网络模型进行训练,具体包括:
将以工作集为单位的数据送入图像特征提取网络,来提取图像的2D特征,输出一组特征图;
将提取到的特征图与图像位姿信息输入神经渲染网络,该网络包含体积密度预测模块与颜色预测模块,两个模块均采用多层感知机结构MLP作为基本单元,具体处理流程为:
通过体积密度预测模块中的第一MLP单元对所有源视图中提取到的2D图像特征的局部和全局信息进行聚合,得到多视图的感知特征;
将多视图感知特征输入至体积密度预测模块中的第二MLP单元完成新视图密度特征的预测;
将多视图的图像位姿与得到的多视图感知特征同时送入颜色预测模块,得到5D点所对应源视图中图像颜色的混合权重,并以此预测出新视图中所对应的图像像素颜色。
进一步地,基于所述工作集以及图像的位姿信息对预先构建的神经网络模型进行训练,具体还包括:
采用均方误差损失来表示目标图像C与渲染图像
Figure BDA0003632734810000031
像素颜色之间的差异,定义为神经渲染损失,以此来优化渲染图像的质量,其函数表达式为:
Figure BDA0003632734810000032
其中,r表示图像的单个像素颜色,R为图像的所有像素颜色值集合;
使用所述损失函数对模型进行迭代训练,当损失函数值不再下降时,停止训练。
进一步地,利用训练好的神经网络模型渲染生成指定观察轨迹下的多张视点图像,具体包括:
生成指定观察路径下多个新视点图像的位姿信息,将该路径中的新视点图像位姿输入到训练好的神经渲染网络,即可渲染生成对应新视点图像位姿下的RGB图像。
进一步地,所述方法还包括:
通过插值法在每相邻的两张源视图的图像位姿之间按照平均步长进行插值生成新视点图像位姿,插值的步长通过最终要渲染得到的图像数量来确定。
进一步地,所述方法还包括:
将得到的指定观察轨迹下的多张新视点图像合称为视频。
根据本发明实施例的第二方面,提出了一种基于稀疏采样的环拍图像到任意视点图像生成系统,所述系统包括:
训练集构建模块,用于基于稀疏采样获取物体或场景的不同视角的环拍图像,相邻视角的图像之间具有一定的重合区域,随机选择一个目标视图,然后采样N个邻近的与目标视图具有不小于预设角度重合区域的视图作为源视图来构建源视图集与目标视图对,建立训练集,根据所述训练集得到有效工作集;
图像位姿获取模块,用于基于所述训练集对所述物体或场景进行稀疏重建,得到全局三维点云,根据所述三维点云得到图像的位姿信息;
模型训练模块,用于基于所述工作集以及图像的位姿信息对预先构建的神经网络模型进行训练,所述神经网络模型包括图像特征提取网络模型和神经渲染网络模型,所述神经渲染网络模型包括体积密度预测模块和颜色预测模块,分别用于预测输出的新视图的密度和颜色;
图像生成模块,用于利用训练好的神经渲染网络模型渲染生成指定观察轨迹下的多张新视点图像。
本发明具有如下优点:
本发明提出的一种基于稀疏采样的环拍图像到任意视点图像生成方法及系统,借鉴神经渲染的优势,通过给定邻近的源视图,使用体积渲染以新颖的相机位姿合成目标视图,并估计该视图的颜色和体积密度,从多个源视图动态绘制外观信息。对于新视点合成的应用场景,基于深度卷积神经网络并结合经典的体渲染技术,能够基于有限角度稀疏采样得到的环拍图像数据,来渲染生成360度任意视角下渲染的2D图像,从而进行任意观察轨迹下的视频合成,本发明方法不仅可以有效解决物体的拍摄死角问题,而且可以大大减少物体或场景拍摄的成本。
附图说明
为了更清楚地说明本发明的实施方式或现有技术中的技术方案,下面将对实施方式或现有技术描述中所需要使用的附图作简单地介绍。显而易见地,下面描述中的附图仅仅是示例性的,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图引伸获得其它的实施附图。
图1为本发明实施例1提供的一种基于稀疏采样的环拍图像到任意视点图像生成方法的流程示意图。
具体实施方式
以下由特定的具体实施例说明本发明的实施方式,熟悉此技术的人士可由本说明书所揭露的内容轻易地了解本发明的其他优点及功效,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
如图1所示,本实施例提出了一种基于稀疏采样的环拍图像到任意视点图像生成方法,该方法包括:
S100、基于稀疏采样获取物体或场景的不同视角的环拍图像,相邻视角的图像之间具有一定的重合区域,随机选择一个目标视图,然后采样N个邻近的与目标视图具有不小于预设角度重合区域的视图作为源视图来构建源视图集与目标视图对,建立训练集,根据训练集得到有效工作集;
S200、基于训练集对物体或场景进行稀疏重建,得到全局三维点云,根据三维点云得到图像的位姿信息;
S300、基于工作集以及图像的位姿信息对预先构建的神经网络模型进行训练,神经网络模型包括图像特征提取网络模型和神经渲染网络模型,神经渲染网络模型包括体积密度预测模块和颜色预测模块,分别用于预测输出的新视图的密度和颜色;
S400、利用训练好的神经渲染网络模型渲染生成指定观察轨迹下的多张新视点图像。
本实施例提出的一种基于稀疏采样的环拍图像到任意视点图像的生成方法,该方法基于可学习的多视图图像渲染框,从多个源视图中快速提取外观信息,并预测空间中的颜色和密度,从而合成新视点图像。稀疏采样是指对物体的拍摄方式,例如环绕物体一圈是360度,每隔一度拍一张可以拍360张,而这里为了减少拍摄成本,可以通过稀疏采样的方式每隔20度对物体进行拍摄,则只需拍摄18张图片。具体实施步骤如下:
1.获取图像数据的训练集,该训练集包含对单个物体或单个场景进行稀疏拍摄得到的多张不同视角图像,每相邻两个视角图像之间至少要有15度的重合部分,视角范围应涉及到720度球状的任意角度,则对于每个物体或场景,应至少采集576张图像;
2.对于图像的训练集,基于一个物体或场景的多个视图,通过随机选择一个目标视图,然后采样N个附近的与目标视图具有不小于15度重合区域的视图作为源视图来构建源视图集与目标视图对,即每个目标视图对应N个源视图;
3.基于训练集中单个物体或场景的多个视图,通过三维重建函数库colmap对该物体或场景进行稀疏重建,得到全局三维点云,该点云主要包含了图像所有像素点在空间中的5D位置信息(即3D空间位置和2D观看方向),即图像的位姿信息pose;
4.基于神经网络模型,分别设计图像特征提取网络模型与神经渲染网络模型,以实现任意新视点图像的生成对图像密度和颜色信息的预测。其中,图像特征提取网络采用常见的卷积神经网络结构ResNet,神经渲染网络采用常见的点云神经网络结构PointNet;
5.在训练集的单个物体或场景的所有视图中选择少量源视图作为渲染新视图的“工作集”;
6.对于有效“工作集”的获得,通常会识别空间附近的候选视图,然后选择N个视图中与目标视图具有最大重合区域的视图子集作为有效“工作集”;
7.将训练集中以“工作集”为单位的数据送入图像特征提取网络,来提取图像的2D特征,输出一组特征图;
8.将提取到的特征图与图像位姿信息pose送入神经渲染网络,该网络主要包含了体积密度预测模块与颜色预测模块,两个模块均采用多层感知机结构MLP作为基本单元,具体处理流程为:
8.1首先通过体积密度预测模块中的MLP对所有源视图中提取到的2D图像特征的局部和全局信息进行聚合,得到多视图的感知特征;
8.2然后将多视图感知特征送入体积密度预测模块中的另一个MLP单元完成新视图密度特征的预测;
8.3接着,将多视图图像位姿pose与8.1中得到的多视图感知特征同时送入颜色预测模块,得到5D点(3D空间位置和2D观察方向)所对应源视图中图像颜色的混合权重,并以此预测出新视图中所对应的图像像素颜色;
9.采用均方误差损失来表示目标图像C(ground truth)与新预测图像
Figure BDA0003632734810000071
(渲染图像)像素颜色之间的差异,定义为神经渲染损失,以此来优化渲染图像的质量,其函数表达式为:
Figure BDA0003632734810000072
这里,r表示图像的单个像素颜色,R为图像的所有像素颜色值集合;
10.通过最小化步骤9中的均方误差损失函数对图像特征提取网络与神经渲染网络同时进行迭代训练;
11.当损失函数值不再下降时,停止训练,输出图像特征提取网络模型与神经渲染网络模型;
12.基于源视图的位姿信息,设计新的渲染路径并生成该路径下新视点图像的位姿信息。对于新渲染路径的形式,包括但不限于原始图像观察路径、物体圆环观察路径、螺旋状观察路径等形式。这里以提到的第一种观察轨迹为例进行渲染路径生成的说明,主要包括以下步骤:
(1)基于从训练集中得到原始的多张视图,利用通用的三维重建函数库colmap对多张视图进行稀疏重建,并计算出每个视图的位姿信息pose;
(2)通过插值法在每相邻的两张源视图之间按照平均步长进行插值生成新视点图像位姿,插值的步长通过最终要渲染得到的图像数量来确定。例如,如果要通过18张源视图渲染出360张新的图像,则平均步长可以通过以下公式计算得到:
stride=(pose2–pose1)/20
其中,pose1与pose2分别表示相邻两张源视图的位姿,20是根据最终要得到的图像数量除以源视图的图像数。
(3)将所有通过插值得到的图像位姿按源视图的拍摄顺序保存到列表中,生成新的渲染路径。
13.将新渲染路径中的图像位姿输入到训练好的神经渲染模型,即可渲染生成对应新视点图像位姿下的RGB图像;
14.通过FFMpeg工具将渲染生成的图像按顺序合成为视频,即可得到指定观察轨迹下的新视点视频。
实施例2
与上述实施例1相对应的,本实施例提出了一种基于稀疏采样的环拍图像到任意视点图像生成系统,所述系统包括:
训练集构建模块,用于基于稀疏采样获取物体或场景的不同视角的环拍图像,相邻视角的图像之间具有一定的重合区域,随机选择一个目标视图,然后采样N个邻近的与目标视图具有不小于预设角度重合区域的视图作为源视图来构建源视图集与目标视图对,建立训练集,根据所述训练集得到有效工作集;
图像位姿获取模块,用于基于所述训练集对所述物体或场景进行稀疏重建,得到全局三维点云,根据所述三维点云得到图像的位姿信息;
模型训练模块,用于基于所述工作集以及图像的位姿信息对预先构建的神经网络模型进行训练,所述神经网络模型包括图像特征提取网络模型和神经渲染网络模型,所述神经渲染网络模型包括体积密度预测模块和颜色预测模块,分别用于预测输出的新视图的密度和颜色;
图像生成模块,用于利用训练好的神经渲染网络模型渲染生成指定观察轨迹下的多张新视点图像。
本发明实施例提供的一种基于稀疏采样的环拍图像到任意视点图像生成系统中各部件所执行的功能均已在上述实施例1中做了详细介绍,因此这里不做过多赘述。
虽然,上文中已经用一般性说明及具体实施例对本发明作了详尽的描述,但在本发明基础上,可以对之作一些修改或改进,这对本领域技术人员而言是显而易见的。因此,在不偏离本发明精神的基础上所做的这些修改或改进,均属于本发明要求保护的范围。

Claims (9)

1.一种基于稀疏采样的环拍图像到任意视点图像生成方法,其特征在于,所述方法包括:
基于稀疏采样获取物体或场景的不同视角的环拍图像,相邻视角的图像之间具有一定的重合区域,随机选择一个目标视图,然后采样N个邻近的与目标视图具有不小于预设角度重合区域的视图作为源视图来构建源视图集与目标视图对,建立训练集,根据所述训练集得到有效工作集;
基于所述训练集对所述物体或场景进行稀疏重建,得到全局三维点云,根据所述三维点云得到图像的位姿信息;
基于所述工作集以及图像的位姿信息对预先构建的神经网络模型进行训练,所述神经网络模型包括图像特征提取网络模型和神经渲染网络模型,所述神经渲染网络模型包括体积密度预测模块和颜色预测模块,分别用于预测输出的新视图的密度和颜色;
利用训练好的神经渲染网络模型渲染生成指定观察轨迹下的多张新视点图像。
2.根据权利要求1所述的一种基于稀疏采样的环拍图像到任意视点图像生成方法,其特征在于,根据所述训练集得到有效工作集,具体包括:
选择N个源视图中与目标视图具有最大重合区域的视图子集作为工作集。
3.根据权利要求1所述的一种基于稀疏采样的环拍图像到任意视点图像生成方法,其特征在于,根据所述三维点云得到图像的位姿信息,具体包括:
所述全局三维点云中包含了图像所有像素点在空间中的包括3D空间位置和2D观看方向的5D位置信息,即为图像的位姿信息。
4.根据权利要求1所述的一种基于稀疏采样的环拍图像到任意视点图像生成方法,其特征在于,基于所述工作集以及图像的位姿信息对预先构建的神经网络模型进行训练,具体包括:
将以工作集为单位的数据送入图像特征提取网络,来提取图像的2D特征,输出一组特征图;
将提取到的特征图与图像位姿信息输入神经渲染网络,该网络包含体积密度预测模块与颜色预测模块,两个模块均采用多层感知机结构MLP作为基本单元,具体处理流程为:
通过体积密度预测模块中的第一MLP单元对所有源视图中提取到的2D图像特征的局部和全局信息进行聚合,得到多视图的感知特征;
将多视图感知特征输入至体积密度预测模块中的第二MLP单元完成新视图密度特征的预测;
将多视图的图像位姿与得到的多视图感知特征同时送入颜色预测模块,得到5D点所对应源视图中图像颜色的混合权重,并以此预测出新视图中所对应的图像像素颜色。
5.根据权利要求1所述的一种基于稀疏采样的环拍图像到任意视点图像生成方法,其特征在于,基于所述工作集以及图像的位姿信息对预先构建的神经网络模型进行训练,具体还包括:
采用均方误差损失来表示目标图像C与渲染图像
Figure FDA0003632734800000022
像素颜色之间的差异,定义为神经渲染损失,以此来优化渲染图像的质量,其函数表达式为:
Figure FDA0003632734800000021
其中,r表示图像的单个像素颜色,R为图像的所有像素颜色值集合;
使用所述损失函数对模型进行迭代训练,当损失函数值不再下降时,停止训练。
6.根据权利要求1所述的一种基于稀疏采样的环拍图像到任意视点图像生成方法,其特征在于,利用训练好的神经网络模型渲染生成指定观察轨迹下的多张视点图像,具体包括:
生成指定观察路径下多个新视点图像的位姿信息,将该路径中的新视点图像位姿输入到训练好的神经渲染网络,即可渲染生成对应新视点图像位姿下的RGB图像。
7.根据权利要求6所述的一种基于稀疏采样的环拍图像到任意视点图像生成方法,其特征在于,所述方法还包括:
通过插值法在每相邻的两张源视图之间按照平均步长进行插值生成新视点图像位姿,插值的步长通过最终要渲染得到的图像数量来确定。
8.根据权利要求1所述的一种基于稀疏采样的环拍图像到任意视点图像生成方法,其特征在于,所述方法还包括:
将得到的指定观察轨迹下的多张新视点图像合称为视频。
9.一种基于稀疏采样的环拍图像到任意视点图像生成系统,其特征在于,所述系统包括:
训练集构建模块,用于基于稀疏采样获取物体或场景的不同视角的环拍图像,相邻视角的图像之间具有一定的重合区域,随机选择一个目标视图,然后采样N个邻近的与目标视图具有不小于预设角度重合区域的视图作为源视图来构建源视图集与目标视图对,建立训练集,根据所述训练集得到有效工作集;
图像位姿获取模块,用于基于所述训练集对所述物体或场景进行稀疏重建,得到全局三维点云,根据所述三维点云得到图像的位姿信息;
模型训练模块,用于基于所述工作集以及图像的位姿信息对预先构建的神经网络模型进行训练,所述神经网络模型包括图像特征提取网络模型和神经渲染网络模型,所述神经渲染网络模型包括体积密度预测模块和颜色预测模块,分别用于预测输出的新视图的密度和颜色;
图像生成模块,用于利用训练好的神经渲染网络模型渲染生成指定观察轨迹下的多张新视点图像。
CN202210493548.9A 2022-05-07 2022-05-07 基于稀疏采样的环拍图像到任意视点图像生成方法及系统 Pending CN114820945A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210493548.9A CN114820945A (zh) 2022-05-07 2022-05-07 基于稀疏采样的环拍图像到任意视点图像生成方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210493548.9A CN114820945A (zh) 2022-05-07 2022-05-07 基于稀疏采样的环拍图像到任意视点图像生成方法及系统

Publications (1)

Publication Number Publication Date
CN114820945A true CN114820945A (zh) 2022-07-29

Family

ID=82510663

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210493548.9A Pending CN114820945A (zh) 2022-05-07 2022-05-07 基于稀疏采样的环拍图像到任意视点图像生成方法及系统

Country Status (1)

Country Link
CN (1) CN114820945A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115243025A (zh) * 2022-09-21 2022-10-25 深圳市明源云科技有限公司 三维渲染方法、装置、终端设备以及存储介质
CN115439388A (zh) * 2022-11-08 2022-12-06 杭州倚澜科技有限公司 基于多层神经表面表达的自由视点图像合成方法
CN115861546A (zh) * 2022-12-23 2023-03-28 四川农业大学 一种基于神经体渲染的作物几何感知与三维表型重建方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115243025A (zh) * 2022-09-21 2022-10-25 深圳市明源云科技有限公司 三维渲染方法、装置、终端设备以及存储介质
CN115243025B (zh) * 2022-09-21 2023-01-24 深圳市明源云科技有限公司 三维渲染方法、装置、终端设备以及存储介质
CN115439388A (zh) * 2022-11-08 2022-12-06 杭州倚澜科技有限公司 基于多层神经表面表达的自由视点图像合成方法
CN115439388B (zh) * 2022-11-08 2024-02-06 杭州倚澜科技有限公司 基于多层神经表面表达的自由视点图像合成方法
CN115861546A (zh) * 2022-12-23 2023-03-28 四川农业大学 一种基于神经体渲染的作物几何感知与三维表型重建方法
CN115861546B (zh) * 2022-12-23 2023-08-08 四川农业大学 一种基于神经体渲染的作物几何感知与三维表型重建方法

Similar Documents

Publication Publication Date Title
Moreau et al. Lens: Localization enhanced by nerf synthesis
CN112435325B (zh) 基于vi-slam和深度估计网络的无人机场景稠密重建方法
CN114820945A (zh) 基于稀疏采样的环拍图像到任意视点图像生成方法及系统
CN110853075B (zh) 一种基于稠密点云与合成视图的视觉跟踪定位方法
CN106952225B (zh) 一种面向森林防火的全景拼接方法
CN104661010B (zh) 三维立体模型的建立方法和装置
CN110381268B (zh) 生成视频的方法,装置,存储介质及电子设备
CN108648161A (zh) 非对称核卷积神经网络的双目视觉障碍物检测系统及方法
CN112750201B (zh) 三维重建方法及相关装置、设备
CN112907573B (zh) 一种基于3d卷积的深度补全方法
CN111402412A (zh) 数据采集方法及装置、设备、存储介质
CN114463230A (zh) 一种图像处理方法及相关设备
CN106683163A (zh) 一种视频监控的成像方法及系统
CN114170290A (zh) 图像的处理方法及相关设备
CN116228962A (zh) 大场景神经视图合成
CN113538243A (zh) 基于多视差注意力模块组合的超分辨图像重建方法
CN111914938A (zh) 一种基于全卷积二分支网络的图像属性分类识别方法
CN115375838A (zh) 一种基于无人机的双目灰度图像的三维重建方法
WO2021057091A1 (zh) 视点图像处理方法及相关设备
CN117501313A (zh) 基于深度神经网络的毛发渲染系统
Fu et al. Image Stitching Techniques Applied to Plane or 3D Models: A Review
CN112465984A (zh) 一种基于双层过滤的单目相机序列图像三维重构方法
CN115063542A (zh) 一种几何不变量的预测和模型构建方法与系统
CN114708315A (zh) 一种基于深度虚拟对应点生成的点云配准方法及系统
CN114723915A (zh) 一种基于多视红外的稠密点云生成方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination