CN117544829A - 视频生成方法及装置 - Google Patents

视频生成方法及装置 Download PDF

Info

Publication number
CN117544829A
CN117544829A CN202311338422.5A CN202311338422A CN117544829A CN 117544829 A CN117544829 A CN 117544829A CN 202311338422 A CN202311338422 A CN 202311338422A CN 117544829 A CN117544829 A CN 117544829A
Authority
CN
China
Prior art keywords
target scene
browsing
generating
track
sample image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311338422.5A
Other languages
English (en)
Inventor
滕佳洁
胡永恒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alipay Hangzhou Information Technology Co Ltd
Original Assignee
Alipay Hangzhou Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alipay Hangzhou Information Technology Co Ltd filed Critical Alipay Hangzhou Information Technology Co Ltd
Priority to CN202311338422.5A priority Critical patent/CN117544829A/zh
Publication of CN117544829A publication Critical patent/CN117544829A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234363Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the spatial resolution, e.g. for clients with a lower screen resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234381Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the temporal resolution, e.g. decreasing the frame rate by frame skipping
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440263Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440281Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the temporal resolution, e.g. by frame skipping
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

本说明书实施例公开了一种视频生成方法及装置。其中,视频生成方法通过采集补充样本图像对目标场景的神经辐射场模型进行增量学习训练,不断补充视角信息来学习优化对目标场景的表征能力。

Description

视频生成方法及装置
技术领域
本说明书实施例属于计算机技术领域,特别的涉及视频生成方法及装置。
背景技术
VR(Virtual Reality,虚拟现实技术)全景沉浸式展示方案利用先进的虚拟现实技术,使用户可以身临其境地感受虚拟场景。无论是参观名胜古迹、探索自然风光,还是参加会展活动、体验产品,用户都可以在虚拟世界中获得真实感受,仿佛亲临现场。这种身临其境的体验,为展示活动增添了更多趣味和吸引力。
VR全景沉浸式展示方案的全景视频通常需要专业的摄影团队进行拍摄,一次性采集高质量的场景图像数据,采集过程复杂。并且,需要额外进行训练优化和渲染轨迹选取。大型AI绘画工具能够基于单图和本文描述生成多帧的变化视角的全景视频,由于训练数据不包含多视角图像信息以及对应的语义标注,生成的全景视频中包含的视角信息不够丰富,且存在多视角一致性的情况。
发明内容
本说明书实施例提供了一种视频生成方法、装置、存储介质及电子设备,其技术方案如下:
第一方面,本说明书实施例提供了一种视频生成方法,包括:
获取目标场景的样本图像集合,所述样本图像集合包括多张关于所述目标场景的原始样本图像;
基于所述样本图像集合,生成所述目标场景的浏览轨迹和所述目标场景的神经辐射场模型;
基于所述浏览轨迹和所述神经辐射场模型,生成所述目标场景对应于所述浏览轨迹的渲染图像;
对所述渲染图像进行质量评估,得到各所述渲染图像的质量评估结果;若所述渲染图像的质量评估结果低于预期,获取对应于所述渲染图像的补充样本图像;将所述补充样本图像添加至所述样本图像集合,得到更新后的样本图像集合;基于更新后的样本图像集合重新生成所述目标场景的神经辐射场模型,得到更新后的神经辐射场模型;基于所述浏览轨迹和更新后的神经辐射场模型,重新生成所述目标场景对应于所述浏览轨迹的渲染图像;重复本步骤,直至所述目标场景对应于所述浏览轨迹的渲染图像的质量评估结果均不低于预期;
基于所述目标场景对应于所述浏览轨迹的渲染图像,生成所述目标场景的全景视频。
第二方面,本说明书实施例提供了一种视频生成装置,包括:
图像获取模块,获取目标场景的样本图像集合,所述样本图像集合包括多张关于所述目标场景的原始样本图像;
图像处理模块,基于所述样本图像集合,生成所述目标场景的浏览轨迹和所述目标场景的神经辐射场模型;
渲染模块,基于所述浏览轨迹和所述神经辐射场模型,生成所述目标场景对应于所述浏览轨迹的渲染图像;
质量评估及增量采集模块,对所述渲染图像进行质量评估,得到各所述渲染图像的质量评估结果;若所述渲染图像的质量评估结果低于预期,获取对应于所述渲染图像的补充样本图像;将所述补充样本图像添加至所述样本图像集合,得到更新后的样本图像集合;基于更新后的样本图像集合重新生成所述目标场景的神经辐射场模型,得到更新后的神经辐射场模型;基于所述浏览轨迹和更新后的神经辐射场模型,重新生成所述目标场景对应于所述浏览轨迹的渲染图像;重复本步骤,直至所述目标场景对应于所述浏览轨迹的渲染图像的质量评估结果均不低于预期;
视频生成模块,基于所述目标场景对应于所述浏览轨迹的渲染图像,生成所述目标场景的全景视频。
第三方面,本说明书实施例提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面所述的方法的步骤。
第四方面,本说明书实施例提供了一种电子设备,包括:
一个或多个处理器,以及
与所述一个或多个处理器关联的存储器,所述存储器用于存储程序指令,所述程序指令在被所述一个或多个处理器读取执行时,执行上述第一方面所述的方法的步骤。
本说明书的一个或者多个实施例提供的技术方案带来的有益效果至少包括:
通过采集补充样本图像对目标场景的神经辐射场模型进行增量学习训练,不断补充视角信息来学习优化对目标场景的表征能力,基于较低的图像数据采集和训练成本,生成较高质量的全景视频。
附图说明
为了更清楚地说明本说明书实施例中的技术方案,下面将对实施例中所需使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本说明书实施例提供的一种视频生成方法的流程示意图。
图2为图1中步骤102的流程示意图。
图3为本说明书实施例提供的一种视频生成方法的示意性应用场景示意图。
图4为本说明书实施例提供的一种视频生成装置的结构示意图。
图5为示例性的电子设备的架构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合本说明书实施例及相应的附图,对本说明书实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本说明书和权利要求书及上述附图中的术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其他步骤或单元。取决于语境,如在此所适用的词语“如果”可以被解释成为“在······时”或“当······时”或“响应于确定”或“响应于检测”。
针对传统全景视频的合成通常需要一次性采集高质量的场景图像数据和额外的训练优化及渲染轨迹选取,大型AI绘画工具基于单图和本文描述生成的全景视频中包含的视角信息不足、多视角之间的一致性不足等技术问题,本申说明书实施例,提出一种采集补充样本图像对目标场景的神经辐射场模型进行增量学习训练的视频生成方法,通过采集补充样本图像补充视角信息来学习优化对目标场景的表征能力,实现较低的图像数据采集和训练成本下,生成较高质量的全景视频。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
图1为本说明书实施例提供的一种视频生成方法的流程示意图。参见图1,该方法可以包括以下步骤:
102、获取目标场景的样本图像集合,所述样本图像集合包括多张关于所述目标场景的原始样本图像。
目标场景可以是任意需要展示的对象,例如为街道、商场、公路、商店、广场等场景,也可以是鞋子、桌子、汽车等物体。在沉浸式全景显示应用场景下中,需要目标场景的三维模型,可以基于目标场景的三维模型确定不同视角下看到的模型内容,进而基于该模型内容渲染出不同视角下的图像,从而生成目标场景的全景视频。在对目标场景进行三维重建之前,获取目标场景的样本图像集合,样本图像集合包括多张关于目标场景的原始样本图像,以便于基于原始样本图像进行目标场景的三维重建。在一些实施例中,可以对处于真实世界中的目标场景从不同拍摄角度进行拍摄,得到关于该目标场景的多张原始样本图像或者得到该目标场景的视频,从视频中提取关于该目标场景的多张原始样本图像。另一些实施例中,可以在目标场景内部或者外部环绕一周的方式进行拍摄,以提高重建出目标场景的三维模型的准确度,进而提高基于三维模型的图像渲染质量。不同的原始样本图像可以对应不同的相机位姿,相机位姿包括拍摄设备在拍摄图像时的位置和姿态。其中,拍摄设备可以是能够获取目标场景图像数据的任何设备,例如可以是但不限于相机、具有拍摄功能的手机、平板电脑、可穿戴设备等。例如,可以采用普及率较高的具有拍照功能的手机设备,实现1-2分钟内对目标场景的视频拍摄,从视频中提取关于目标场景的多个原始样本图像,原始样本图像可以是RGB格式的图像数据。
104、基于所述样本图像集合,生成所述目标场景的浏览轨迹和所述目标场景的神经辐射场模型。
基于样本图像集合可以生成目标场景的浏览轨迹和神经辐射场模型。目标场景的表征模型可以是一个全连接神经网络,全连接神经网络又称多层感知器(Multi-LayerPerceptron,MLP)。本说明书的一个实施例中,目标场景可以表征为一个神经辐射场(Neural Radiance Field,NERF)。神经辐射场模型能够基于输入的空间点的空间坐标和视角信息,预测输出该空间点的体积密度和颜色信息。其中,神经辐射场模型可以表达为:
σ,c=F(d,X)
其中,X=(x,y,z),X记为空间点的空间坐标(x,y,z);记为空间点的视角信息/>θ为方位角,/>为仰角;c=(r,g,b),c记为空间点的颜色信息(r,g,b),r是指红色(Red,R),g是指绿色(Green,G),b是指红色(Blue,B);σ记为空间点的体积密度。在获取到目标场景的样本图像集合后,分别计算各原始样本图像对应的相机位姿,根据每张原始样本图像对应的相机位姿和相机内参等数据确定相机在拍摄每张原始样本图像时发射出来的多条视线以及每条视线的视角信息。在每条视线上进行空间点采样,得到多个空间点。应理解,从同一条视线上采样得到的空间点的视角信息均是该视线的视角信息。在得到多个空间点之后,利用多个空间点的空间坐标及其视角信息进行基于神经网络的三维重建。该过程可以是分批多次执行的过程,最终可得到目标场景的神经辐射场模型。
目标场景的浏览轨迹通常是指相机或者观察者在目标场景中移动的路径,该路径记录相机或观察者在观察目标场景时的位置和姿态变化,浏览轨迹可以是直线、曲线或者复杂不规则的路径。浏览路径可以表示为多个离散的浏览点组成的时间序列,也可以表示为与时间相关的浏览点的函数。如图2所示,在一些实施例中,步骤102可以包括:
2022、对所述样本图像集合进行特征点匹配和位姿估计。通过特征点匹配,能在两个或多个图像之间寻找具有相似特征的点,并建立它们之间的对应关系,从而在多个原始样本图像之间找到相同的物体或场景。位姿估计能够通过已知的特征点匹配,计算出各原始样本图像的相机位姿。在一些实施例中,可以采用SLAM(simultaneous localizationand mapping,即时定位与地图构建)算法来更加准确计算每张样本图像对应的相机位姿。具体的,SLAM算法在计算相机位姿时,首先提取每张样本图像中的特征点,接着建立相邻两张样本图像的特征点之间的匹配关系,根据相邻两张样本图像的特征点之间的匹配关系计算相邻两张样本图像之间的相对相机位姿,根据两两样本图像质检的相对相机位姿计算每张样本图像对应的相机位姿。在一些实施例中,可以使用神经网络模型对样本图像集合中的各样本图像进行处理,提取各样本图像中的特征点。特征点可以是角点(如Harris角点、Shi-Tomasi角点)、边缘、半点、SIFT特征点等具有显著性质的点。对样本图像集合中的两个或多个样本图像,分别使用神经网络提取的特征点进行匹配,以确定特征点之间的对应关系。匹配算法可以为基于距离的匹配(如最近邻匹配、最近邻距离比匹配)、基于集合关系的匹配(如基于RANSAC的鲁棒匹配)等。通过特征点匹配的对应关系,使用开源的计算机视觉软件包Colmap进行位姿估计,从而得到原始样本图像与其位姿的数据对。在一些实施例中,还可以使用全局位姿优化算法对位姿估计的结果进行优化,以提高相机位姿估计和目标场景三维重建的精度和稳定性。
2024、基于所述特征点匹配和所述位姿估计的结果,生成所述目标场景的粗重建表示,基于所述目标场景的粗重建表示,生成所述目标场景的浏览轨迹。在一些实施例中,目标场景可以被粗重建表示为基于稀疏三维特征点的几何模型。例如,可以基于所述特征点匹配和所述位姿估计的结果,提取所述目标场景的稀疏三维点云数据,基于所述稀疏三维点云数据,生成所述目标场景的粗重建模型;基于所述目标场景的粗重建模型,生成所述目标场景的浏览轨迹。稀疏三维点云数据是从目标场景中提取出的一部分离散的、具有代表性的三维点,这些点可以提供足够的信息来描述场景的几何形状和结构。通过提取稀疏的关键点进行三角化计算,可以获得较小的点云数据集,从而减少计算量和存储需求。
目标场景的浏览轨迹可以基于样本图像集合对应的采集轨迹进行处理得到。基于对样本图像集合的位姿估计,得到样本图像集合中各样本图像的相机位姿,每个相机位姿即对应一个样本图像的采集点。样本图像集合中各样本图相的相机位姿的时间序列,则构成了样本图像集合的采集轨迹。对于采用视频拍摄方式采集的原始样本图像,视频拍摄时的拍摄轨迹通常是符合用户观察习惯的,样本图像集合的采集轨迹即用户拍摄视频时的拍摄轨迹。在一些实施例中,对采集轨迹进行插值处理,可以得到符合用户观察习惯的浏览轨迹。其中,插值处理的方法可以是线性插值、样本插值、贝塞尔曲线插值等。另一些实施例中,可以计算出采集轨迹的中心和朝向,生成圆周轨迹作为浏览轨迹。其中,采集轨迹的中心点用于确定所生成浏览轨迹的圆心,采集轨迹的朝向用于确定生成的浏览轨迹的起始角度。
2026、基于所述特征点匹配和所述位姿估计的结果,生成所述目标场景的神经辐射场模型。本说明书实施例中,基于特征点匹配和位姿估计,能够得到样本图像与相机位姿的数据对,将样本图像集合中所有的样本图像与其相机位姿的数据对用于目标场景的神经辐射场的训练,能够得到目标场景的神经辐射场模型。
106、基于所述浏览轨迹和所述神经辐射场模型,生成所述目标场景对应于所述浏览轨迹的渲染图像。
在一些实施例中,浏览点包括浏览位置和浏览视角,浏览位置用于记录相机或者观察者在观察目标场景时的位置,其可以表示为目标场景中的一个空间点坐标,浏览视角用于记录相机或者观察者在观察目标场景时的姿态变化,其可以表示为空间点的视角信息。将浏览位置所表示的空间点坐标和浏览视角所表示的视角信息输入到目标场景的隐式三维表征模型进行预测,可以得到与空间坐标的体积密度和颜色信息,从而渲染出目标场景对应该浏览点的渲染图像。
108、对所述渲染图像进行质量评估,得到各所述渲染图像的质量评估结果;若所述渲染图像的质量评估结果低于预期,获取对应于所述渲染图像的补充样本图像;将所述补充样本图像添加至所述样本图像集合,得到更新后的样本图像集合;基于更新后的样本图像集合重新生成所述目标场景的隐式三维表征模型,得到更新后的隐式三维表征模型;基于所述浏览轨迹和更新后的隐式三维表征模型,重新生成所述目标场景对应于所述浏览轨迹的渲染图像;重复本步骤,直至所述目标场景对应于所述浏览轨迹的渲染图像的质量评估结果均不低于预期。
本说明书实施例中,对步骤104获取的目标场景的原始样本图像的质量和数量要求不做限制,以提高获取目标场景的样本图像集合的效率,降低样本采集成本。因此,样本图像集合中原始样本图像采集的数量和视角有限,基于原始样本图像训练得到的神经辐射场模型通常是视角不全的低质量神经辐射场模型,该神经辐射场模型的不同视角下的渲染图像质量不均衡。因此,可能会出现浏览轨迹中的部分浏览点的渲染图像较低的情况。
在一些实施例中,用于对渲染图像进行质量评估的指标可以包括峰值信噪比(PSNR)、结构相似度(SSIM)、图像锐度(Sharpness)等。例如可以将用于质量评估的指标进行加权求和,并归一化处理后得到渲染图像的质量评估结果。将质量评估结果预设的质量评估指标值进行比较:如果质量评估结果大于或等于预设的质量评估指标值,表示渲染图像的质量评估结果不低于预期;如果质量评估结果下雨预设的质量评估指标值,则表示渲染图像的质量评估结果低于预期。渲染图像的质量评估结果低于预期,则意味着需要对步骤102生成的目标场景的神经辐射场模型进行增量学习。
在一些实施例中,若所述渲染图像的质量评估结果低于预期,获取对应于所述渲染图像的补充样本图像,包括:获取质量评估结果低于预期的渲染图像对应的浏览点;基于获取的浏览点,发起所述目标场景对应于所述浏览点的样本图像补充采集,以获取所述渲染图像的补充样本图像。例如,可以在目标场景的实时渲染平台中标出浏览点的浏览位置,或者输出质量评估结果较差的渲染图像,从而指示图像补充采集时需采用的视角,使得补充采集的补充样本图像的相机位置和相机姿态,与渲染图像的浏览位置和浏览视角相同或相近。
需要说明的是,步骤106和步骤108可以交替进行,也可以先后进行。即,可以每生成一张渲染图像即对生成的渲染图像进行质量评估,根据质量评估的结果判断是否需要增量学习。也可以在步骤106中生成浏览轨迹的所有渲染视图后,再由步骤108对生成的各渲染视图进行质量评估,根据质量评估的结果判断是否需要增量学习。本说明书实施例中采用后者,步骤108中将所有质量评估结果不符合预期的渲染图像对应的各浏览点均进行样本图像补充采集。本说明书实施例对各浏览点的补充样本图像数量不做限制,可以采集一张也可以采集多张。具体来说,还可以根据多个浏览点生成辅助补充采集的指导轨迹,用于指示视频拍摄的采集轨迹,根据该采集轨迹拍摄的视频可以包括质量评估结果不符合预期的各渲染图像对应的浏览点的补充样本图像。
本实施例中,将所述补充样本图像添加至所述样本图像集合,得到更新后的样本图像集合。更新后的图像样本集合中包括了原本渲染质量较差的视角对应的样本图像。对更新后的样本图像集合采用步骤2022类似的手段进行特征点匹配和位姿估计,得到各样本图像的特征点和对应的相机位姿。基于特征匹配和位姿估计的结果,利用更新后的样本图像集再次训练目标场景的神经辐射场模型。其中,对神经辐射场模型的再次训练可以在之前训练得到的神经辐射场模型基础上增加训练数据的继续训练,也可以是头从开始训练新的神经辐射场模型。因为补充样本图像是针对渲染质量低于预期的渲染图像的浏览点采集的,基于更新后的样本图像集训练对神经辐射场模型的增量训练能够更加有针对性和有效率得弥补表征缺陷,更新后的神经辐射场模型在对应浏览点下的表征效果得到提升。如此经过对本步骤的重复,可以不断修补目标场景的神经辐射场模型在不同视角下的表征缺陷。最终,目标场景对应于所述浏览轨迹的所有渲染图像的质量评估结果均能够达到预期。最终,能够得到一个目标场景的高质量的神经辐射场模型。
110、基于所述目标场景对应于所述浏览轨迹的渲染图像,生成所述目标场景的全景视频。
在一些实施例中,使用图像拼接算法将对应于浏览轨迹的所有渲染图像拼接成目标场景的全景图像。图像拼接算法可以根据图像中的重叠区域和相机参数来自动对图像堆砌和融合。例如,特征匹配、图像配准和图像融合等算法。在一些实施例中,使用视频处理库将目标场景的全景图像转换成全景视频。在另一些实施例中,还可以对生成的全景视频进行二次编辑,比如风格化处理、分辨率调优处理等,得到目标场景的高质量全景视频。
本说明书实施例提供的视频服务方法,能够针对渲染图像的质量评估结果针对性的补充采集样本图像添加到样本图像集合中对目标场景的神经辐射场进行增量学习,提高全景视频的生成效率和质量。
为了便于理解,下面介绍集中场景实施例对本申请实施例提供的视频生成方法进行详细说明。
场景实施例1:
在电商场景中,可以使用本申请实施例提供的视频生成方法制作商品或者店铺的沉浸式全景视频。参见图3,实际应用中,商家可以使用诸如手机、平板电脑、可穿戴式智能设备、智能家居设备、摄像机等拍摄装置302环绕目标场景301(可以是商品或者商铺对象等)的方式拍摄一段视频,商家可在客户端303提供的人机交互界面(例如为Web界面)上发起图片或视频上传操作,以将包括多张目标场景的图片或者视频上传至执行视频生成方法的服务端304。其中,客户端303可以是独立于拍摄装置302的,例如,安装有视频服务客户端app或者小程序的手机、平板电脑、计算机等设备。客户端303也可以和拍摄装置302可以集成在同一设备中,例如具有拍摄功能并且安装有客户端app或者小程序的手机、平板电能等。服务端304为单个服务器或多个服务器组成的分布式服务器集群,进一步可选的,服务端304可以为云端服务器。服务端304基于多张目标场景的图片或者视频,运行本实施例的视频生成方法,生成目标场景的全景视频并发送给客户端,以供客户端展示。
场景实施例2:
在AI(Artificial intelligent,人工智能)商场领域,为了给消费者的线上购物提供3D场景化的沉浸式体验,可以为店铺创建三维模型。为此,设计人员可以用手机环绕真实场景中的店铺(目标场景)拍摄一段视频,并将该视频上传至执行视频生成方法的装置,视频生成装置基于视频中的多张店铺相关的图片生成店铺的全景视频,以完成店铺的AI场景创建任务。
此外,与上述图1所示的视频生成方法相对应地,本说明书实施例还提供一种视频生成装置。图4是本说明书实施例提供的一种视频生成装置400的结构示意图。包括:
图像获取模块401,获取目标场景的样本图像集合,所述样本图像集合包括多张关于所述目标场景的原始样本图像。在对目标场景进行三维重建之前,获取目标场景的样本图像集合,样本图像集合包括多张关于目标场景的原始样本图像,以便于基于原始样本图像进行目标场景的三维重建。
图像处理模块402,基于所述样本图像集合,生成所述目标场景的浏览轨迹和所述目标场景的神经辐射场模型。神经辐射场模型能够基于输入的空间点的空间坐标和视角信息,预测输出该空间点的体积密度和颜色信息。目标场景的浏览轨迹通常是指相机或者观察者在目标场景中移动的路径,该路径记录相机或观察者在观察目标场景时的位置和姿态变化,浏览轨迹可以是直线、曲线或者复杂不规则的路径。浏览路径可以表示为多个离散的浏览点组成的时间序列,也可以表示为与时间相关的浏览点的函数。
在一些实施例中,图像处理模块402包括:
特征匹配及位姿估计单元4021,对所述样本图像集合进行特征点匹配和位姿估计。通过特征点匹配,能在两个或多个图像之间寻找具有相似特征的点,并建立它们之间的对应关系,从而在多个原始样本图像之间找到相同的物体或场景。位姿估计能够通过已知的特征点匹配,计算出各原始样本图像的相机位姿,从而得到原始样本图像与其位姿的数据对。
轨迹生成单元4022,基于所述特征点匹配和所述位姿估计的结果,生成所述目标场景的粗重建表示,基于所述目标场景的粗重建表示,生成所述目标场景的浏览轨迹。在本说明书的一个实施例中,轨迹生成单元,包括:
三维点云处理子单元,所述基于所述特征点匹配和所述位姿估计的结果,提取所述目标场景的稀疏三维点云数据,基于所述稀疏三维点云数据,生成所述目标场景的粗重建模型。稀疏三维点云数据是从目标场景中提取出的一部分离散的、具有代表性的三维点,这些点可以提供足够的信息来描述场景的几何形状和结构。通过提取稀疏的关键点进行三角化计算,可以获得较小的点云数据集,从而减少计算量和存储需求。
轨迹生成子单元,基于所述目标场景的粗重建模型,生成所述目标场景的浏览轨迹。
目标场景的浏览轨迹可以基于样本图像集合对应的采集轨迹进行处理得到。基于对样本图像集合的位姿估计,得到样本图像集合中各样本图像的相机位姿,每个相机位姿即对应一个样本图像的采集点。样本图像集合中各样本图相的相机位姿的时间序列,则构成了样本图像集合的采集轨迹。对于采用视频拍摄方式采集的原始样本图像,视频拍摄时的拍摄轨迹通常是符合用户观察习惯的,样本图像集合的采集轨迹即用户拍摄视频时的拍摄轨迹。在一些实施例中,轨迹生成子单元对采集轨迹进行插值处理,可以得到符合用户观察习惯的浏览轨迹。其中,插值处理的方法可以是线性插值、样本插值、贝塞尔曲线插值等。另一些实施例中,轨迹生成子单元可以计算出采集轨迹的中心和朝向,生成圆周轨迹作为浏览轨迹。其中,采集轨迹的中心点用于确定所生成浏览轨迹的圆心,采集轨迹的朝向用于确定生成的浏览轨迹的起始角度。
模型训练单元4023,基于所述特征点匹配和所述位姿估计的结果,生成所述目标场景的神经辐射场模型。基于特征点匹配和位姿估计,能够得到样本图像与相机位姿的数据对,将样本图像集合中所有的样本图像与其相机位姿的数据对用于目标场景的神经辐射场的训练,能够得到目标场景的神经辐射场模型。
渲染模块403,基于所述浏览轨迹和所述神经辐射场模型,生成所述目标场景对应于所述浏览轨迹的渲染图像。在一些实施例中,浏览点包括浏览位置和浏览视角,浏览位置用于记录相机或者观察者在观察目标场景时的位置,其可以表示为目标场景中的一个空间点坐标,浏览视角用于记录相机或者观察者在观察目标场景时的姿态变化,其可以表示为空间点的视角信息。将浏览位置所表示的空间点坐标和浏览视角所表示的视角信息输入到目标场景的隐式三维表征模型进行预测,可以得到与空间坐标的体积密度和颜色信息,从而渲染出目标场景对应该浏览点的渲染图像。
本说明书实施例中,图像获取模块401获取的目标场景的原始样本图像的质量和数量要求不做限制,以提高获取目标场景的样本图像集合的效率,降低样本采集成本。因此,样本图像集合中原始样本图像采集的数量和视角有限,基于原始样本图像训练得到的神经辐射场模型通常是视角不全的低质量神经辐射场模型,该神经辐射场模型的不同视角下的渲染图像质量不均衡。因此,可能会出现浏览轨迹中的部分浏览点的渲染图像较低的情况。
质量评估及补充采集模块404,对所述渲染图像进行质量评估,得到各所述渲染图像的质量评估结果;若所述渲染图像的质量评估结果低于预期,获取对应于所述渲染图像的补充样本图像;将所述补充样本图像添加至所述样本图像集合,得到更新后的样本图像集合;基于更新后的样本图像集合重新生成所述目标场景的神经辐射场模型,得到更新后的神经辐射场模型;基于所述浏览轨迹和更新后的神经辐射场模型,重新生成所述目标场景对应于所述浏览轨迹的渲染图像;重复本步骤,直至所述目标场景对应于所述浏览轨迹的渲染图像的质量评估结果均不低于预期。
对于质量评估不符合预期的渲染图像,质量评估及补充采集模块404将所述补充样本图像添加至所述样本图像集合,得到更新后的样本图像集合。更新后的图像样本集合中包括了原本渲染质量较差的视角对应的样本图像。特征匹配及位姿估计单元4021对更新后的样本图像集合进行特征点匹配和位姿估计,得到各样本图像的特征点和对应的相机位姿。基于特征匹配和位姿估计的结果,模型训练单元4023利用更新后的样本图像集再次训练目标场景的神经辐射场模型。因为补充样本图像是针对渲染质量低于预期的渲染图像的浏览点采集的,基于更新后的样本图像集训练对神经辐射场模型的增量训练能够更加有针对性和有效率得弥补表征缺陷,更新后的神经辐射场模型在对应浏览点下的表征效果得到提升。如此经过对循环,可以不断修补目标场景的神经辐射场模型在不同视角下的表征缺陷。最终,渲染模块403生成的目标场景对应于所述浏览轨迹的所有渲染图像的质量评估结果均能够达到预期。最终,能够得到一个目标场景的高质量的神经辐射场模型。
视频生成模块405,基于所述目标场景对应于所述浏览轨迹的渲染图像,生成所述目标场景的全景视频。
本说明书实施例的视频生成装置,能够针对渲染图像的质量评估结果针对性的补充采集样本图像添加到样本图像集合中对目标场景的神经辐射场进行增量学习,提高全景视频的生成效率和质量。
在一些实施例中,视频生成装置还包括:对所述全景视频进行风格化处理的风格化处理模块。
在一些实施例中,视频生成装置还包括:对所述全景视频进行超分辨调优处理的调优模块。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分相互参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
另外,本申请实施例还提供另一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现前述实施例方法中任一项所述的方法的步骤。上述装置的各组成模块如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在所述计算机可读取存储介质中。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本说明书实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者通过所述计算机可读存储介质进行传输。所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DigitalSubscriber Line,DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,数字多功能光盘(DigitalVersatile Disc,DVD))、或者半导体介质(例如,固态硬盘(Solid State Disk,SSD))等。
本申请实施例还提供一种电子设备,包括:
一个或多个处理器,以及
与所述一个或多个处理器关联的存储器,所述存储器用于存储程序指令,所述程序指令在被所述一个或多个处理器读取执行时,执行前述方法实施例中任一项所述的方法的步骤。
本申请还提供了一种计算机程序产品,包括计算机程序,该计算机程序在被处理器执行时实现前述方法实施例中任一项所述的方法的步骤。
其中,图5示例性的示出了电子设备500的架构,具体可以包括:处理器510,磁盘驱动器520,输入/输入接口530,网络接口540,以及存储器550。上述处理器501、磁盘驱动器502、输入/输入接口503、网络接口504,与存储器550之间可以通过通信总线560进行通信连接。
其中,处理器510可以采用通用的CPU、微处理器、应用专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本申请所提供的技术方案。
存储器550可以采用ROM(Read Only Memory,只读存储器)、RAM(Read AccessMemory,随机存取存储器)、静态存储器,动态存储设备等形式实现。存储器550可以存储用于控制电子设备500运行的操作系统551,用于控制电子设备500的低级别操作的基本输入输出系统(BIOS)552。另外,还可以存储网页浏览器553,数据存储管理系统554等。总之,在通过软件或固件来实现本申请所提供的技术方案时,相关的程序代码保存在存储器550中,并由处理器510来调用执行。
输入/输出接口530用于连接输入/输出模块,以实现信息输入及输出。输入/输出模块可以作为组件配置在设备中(图中未示出),也可以外接于设备以提供相应功能。其中输入设备可以包括键盘、鼠标、触摸屏、麦克风、各类传感器等,输出设备可以包括显示器、扬声器、振动器、提示灯等。
网络接口540用于连接通信模块(图中未示出),以实现设备与其他设备的通信交互。其中,通信模块可以通过有线方式(例如USB、网线等)实现通信,也可以通过无线方式(例如移动网络、WIFI、蓝牙等)实现通信。
总线560包括一通路,在设备的各个组件(例如处理器510、磁盘驱动器520、输入/输入接口530、网络接口540,与存储器550)之间传输信息。
需要说明的是,尽管上述设备仅示出了处理器510磁盘驱动器502、输入/输入接口503、网络接口504,与存储器550、总线560等,但是在具体实施过程中,该设备还可以包括实现正常运行所必须的其他组件。此外,本领域的技术人员可以理解的是,上述设备中可以仅包含实现本申请方法所必需的组件,而不必包含图中所示的全部组件。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,该程序可存储于计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可存储程序代码的介质。在不冲突的情况下,本实施例和实施方案中的技术特征可以任意组合。
以上所述的实施例仅仅是本说明书的优选实施例方式进行描述,并非对本说明书的范围进行限定,在不脱离本说明书的设计精神的前提下,本领域普通技术人员对本说明书的技术方案作出的各种变形及改进,均应落入本说明书的权利要求书确定的保护范围内。

Claims (16)

1.视频生成服务方法,包括:
获取目标场景的样本图像集合,所述样本图像集合包括多张关于所述目标场景的原始样本图像;
基于所述样本图像集合,生成所述目标场景的浏览轨迹和所述目标场景的神经辐射场模型;
基于所述浏览轨迹和所述神经辐射场模型,生成所述目标场景对应于所述浏览轨迹的渲染图像;
对所述渲染图像进行质量评估,得到各所述渲染图像的质量评估结果;若所述渲染图像的质量评估结果低于预期,获取对应于所述渲染图像的补充样本图像;将所述补充样本图像添加至所述样本图像集合,得到更新后的样本图像集合;基于更新后的样本图像集合重新生成所述目标场景的神经辐射场模型,得到更新后的神经辐射场模型;基于所述浏览轨迹和更新后的神经辐射场模型,重新生成所述目标场景对应于所述浏览轨迹的渲染图像;重复本步骤,直至所述目标场景对应于所述浏览轨迹的渲染图像的质量评估结果均不低于预期;
基于所述目标场景对应于所述浏览轨迹的渲染图像,生成所述目标场景的全景视频。
2.根据权利要求1所述的方法,所述基于所述样本图像集合生成所述目标场景的浏览轨迹和所述目标场景的神经辐射场模型,包括:
对所述样本图像集合进行特征点匹配和位姿估计;
基于所述特征点匹配和所述位姿估计的结果,生成所述目标场景的粗重建表示,基于所述目标场景的粗重建表示,生成所述目标场景的浏览轨迹;
基于所述特征点匹配和所述位姿估计的结果,生成所述目标场景的神经辐射场模型。
3.根据权利要求2所述的方法,所述基于所述特征点匹配和所述位姿估计的结果,生成所述目标场景的粗重建表示,基于所述目标场景的粗重建表示,生成所述目标场景的浏览轨迹,包括:
基于所述特征点匹配和所述位姿估计的结果,提取所述目标场景的稀疏三维点云数据,基于所述稀疏三维点云数据,生成所述目标场景的粗重建模型;
基于所述目标场景的粗重建模型,生成所述目标场景的浏览轨迹。
4.根据权利要求2所述的方法,所述基于所述目标场景的粗重建表示,生成所述目标场景的浏览轨迹,包括:
基于所述目标场景的粗重建表示,生成所述样本图像集合的采集轨迹;所述采集轨迹包括多个采集点;
对所述采集轨迹进行插值处理,得到所述浏览轨迹。
5.根据权利要求2所述的方法,所述基于所述目标场景的粗重建表示,生成所述目标场景的浏览轨迹,包括:
基于所述目标场景的粗重建表示,生成所述样本图像集合的采集轨迹;
基于所述采集轨迹的中心和朝向,生成圆周轨迹作为所述浏览轨迹。
6.根据权利要求1所述的方法,所述浏览轨迹包括多个浏览点,所述浏览点包括浏览位置、所述浏览位置对应的浏览视角;
所述基于所述浏览轨迹和所述神经辐射场模型,生成所述目标场景对应于所述浏览轨迹的渲染图像,包括:
将浏览点的浏览位置和浏览视角输入所述目标场景的神经辐射场模型,得到所述目标场景对应于所述浏览点的渲染颜色和渲染密度数据,基于所述渲染颜色和渲染密度数据生成所述目标场景对应于所述浏览点的渲染图像。
7.根据权利要求6所述的方法,若所述渲染图像的质量评估结果低于预期,获取对应于所述渲染图像的补充样本图像,包括:
获取质量评估结果低于预期的渲染图像对应的浏览点;
基于获取的浏览点,发起所述目标场景对应于所述浏览点的样本图像补充采集,以获取所述渲染图像的补充样本图像。
8.根据权利要求1所述的方法,所述基于所述目标场景对应于所述浏览轨迹的渲染图像,生成所述目标场景的全景视频之后,还包括:
对所述全景视频进行风格化处理。
9.根据权利要求1所述的方法,所述基于所述目标场景对应于所述浏览轨迹的渲染图像,生成所述目标场景的全景视频之后,还包括:
对所述全景视频进行超分辨率调优处理。
10.视频生成装置,包括:
图像获取模块,获取目标场景的样本图像集合,所述样本图像集合包括多张关于所述目标场景的原始样本图像;
图像处理模块,基于所述样本图像集合,生成所述目标场景的浏览轨迹和所述目标场景的神经辐射场模型;
渲染模块,基于所述浏览轨迹和所述神经辐射场模型,生成所述目标场景对应于所述浏览轨迹的渲染图像;
质量评估及补充采集模块,对所述渲染图像进行质量评估,得到各所述渲染图像的质量评估结果;若所述渲染图像的质量评估结果低于预期,获取对应于所述渲染图像的补充样本图像;将所述补充样本图像添加至所述样本图像集合,得到更新后的样本图像集合;基于更新后的样本图像集合重新生成所述目标场景的神经辐射场模型,得到更新后的神经辐射场模型;基于所述浏览轨迹和更新后的神经辐射场模型,重新生成所述目标场景对应于所述浏览轨迹的渲染图像;重复本步骤,直至所述目标场景对应于所述浏览轨迹的渲染图像的质量评估结果均不低于预期;
视频生成模块,基于所述目标场景对应于所述浏览轨迹的渲染图像,生成所述目标场景的全景视频。
11.根据权利要求10所述的装置,所述图像处理模块包括:
特征匹配及位姿估计单元,对所述样本图像集合进行特征点匹配和位姿估计;
轨迹生成单元,基于所述特征点匹配和所述位姿估计的结果,生成所述目标场景的粗重建表示,基于所述目标场景的粗重建表示,生成所述目标场景的浏览轨迹;
模型训练单元,基于所述特征点匹配和所述位姿估计的结果,生成所述目标场景的神经辐射场模型。
12.根据权利要求11所述的装置,所述轨迹生成单元,包括:
三维点云处理子单元,所述基于所述特征点匹配和所述位姿估计的结果,提取所述目标场景的稀疏三维点云数据,基于所述稀疏三维点云数据,生成所述目标场景的粗重建模型;
轨迹生成子单元,基于所述目标场景的粗重建模型,生成所述目标场景的浏览轨迹。
13.根据权利要求10所述的装置,还包括;
风格化处理模块,对所述全景视频进行风格化处理。
14.根据权利要求10所述的装置,还包括:
调优模块,对所述全景视频进行超分辨调优处理。
15.计算机可存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1-9中任一项所述的方法的步骤。
16.电子设备,包括:
一个或多个处理器,以及
与所述一个或多个处理器关联的存储器,所述存储器用于存储程序指令,所述程序指令在被所述一个或多个处理器读取执行时,执行所述权利要求1-9中任一项所述的方法的步骤。
CN202311338422.5A 2023-10-16 2023-10-16 视频生成方法及装置 Pending CN117544829A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311338422.5A CN117544829A (zh) 2023-10-16 2023-10-16 视频生成方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311338422.5A CN117544829A (zh) 2023-10-16 2023-10-16 视频生成方法及装置

Publications (1)

Publication Number Publication Date
CN117544829A true CN117544829A (zh) 2024-02-09

Family

ID=89781432

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311338422.5A Pending CN117544829A (zh) 2023-10-16 2023-10-16 视频生成方法及装置

Country Status (1)

Country Link
CN (1) CN117544829A (zh)

Similar Documents

Publication Publication Date Title
US9177381B2 (en) Depth estimate determination, systems and methods
CN110998659B (zh) 图像处理系统、图像处理方法、及程序
US8811674B2 (en) Incorporating video meta-data in 3D models
JP6669063B2 (ja) 画像処理装置および方法
CN110874818B (zh) 图像处理和虚拟空间构建方法、装置、系统和存储介质
CN113220251B (zh) 物体显示方法、装置、电子设备及存储介质
Wang et al. Neural light field estimation for street scenes with differentiable virtual object insertion
Pintore et al. Mobile mapping and visualization of indoor structures to simplify scene understanding and location awareness
CN116524088B (zh) 珠宝虚拟试戴方法、装置、计算机设备和存储介质
Kim et al. Multimodal visual data registration for web-based visualization in media production
CN117544829A (zh) 视频生成方法及装置
Saran et al. Augmented annotations: Indoor dataset generation with augmented reality
Li et al. 3d reconstruction system for foot arch detecting based on openmvg and openmvs
Kim et al. Vision-based all-in-one solution for augmented reality and its storytelling applications
Gilbert et al. Inpainting of wide-baseline multiple viewpoint video
Jiang et al. Mirror world: creating digital twins of the space and persons from video streamings
CN116681818B (zh) 新视角重建方法、新视角重建网络的训练方法及装置
CN113592875B (zh) 数据处理方法、图像处理方法、存储介质及计算设备
Zhao et al. Initialization and alignment for adversarial texture optimization
US20220245890A1 (en) Three-dimensional modelling from photographs in series
CN116664770A (zh) 拍摄实体的图像处理方法、存储介质及系统
Chen Research on Post-Processing System of Computer 3D Animation Visual Communication
Wahsh et al. Optimizing Image Rectangular Boundaries with Precision: A Genetic Algorithm Based Approach with Deep Stitching.
CN115830227A (zh) 三维建模方法、装置、存储介质、电子设备及产品
CN114187326A (zh) 图像处理方法、装置、电子设备和可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination