CN117834793A - 一种基于静态图像的视频生成方法及装置 - Google Patents
一种基于静态图像的视频生成方法及装置 Download PDFInfo
- Publication number
- CN117834793A CN117834793A CN202311865081.7A CN202311865081A CN117834793A CN 117834793 A CN117834793 A CN 117834793A CN 202311865081 A CN202311865081 A CN 202311865081A CN 117834793 A CN117834793 A CN 117834793A
- Authority
- CN
- China
- Prior art keywords
- image
- candidate
- candidate image
- static target
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 116
- 230000003068 static effect Effects 0.000 title claims abstract description 92
- 230000008569 process Effects 0.000 claims abstract description 59
- 230000008859 change Effects 0.000 claims abstract description 52
- 230000000007 visual effect Effects 0.000 claims abstract description 52
- 230000000694 effects Effects 0.000 claims abstract description 45
- 230000002708 enhancing effect Effects 0.000 claims abstract description 18
- 238000009792 diffusion process Methods 0.000 claims description 25
- 238000003860 storage Methods 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 15
- 230000009467 reduction Effects 0.000 claims description 5
- 230000006870 function Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 230000006872 improvement Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 238000012549 training Methods 0.000 description 7
- 230000018109 developmental process Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 229920001296 polysiloxane Polymers 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000010979 ruby Substances 0.000 description 1
- 229910001750 ruby Inorganic materials 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
- G06F16/538—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/23424—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for inserting or substituting an advertisement
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44016—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for substituting a video clip
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Library & Information Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Marketing (AREA)
- Business, Economics & Management (AREA)
- Image Processing (AREA)
Abstract
本说明书公开了一种基于静态图像的视频生成方法及装置。在本说明书提供的基于静态图像的视频生成方法中,获取静态目标图像,并确定在根据所述静态目标图像生成视频时需要的视角变化过程;根据所述视角变化过程获取所述静态目标图像的候选图像序列,所述候选图像序列中包含若干帧视角不完全相同的候选图像;针对每个候选图像,根据预设的动态效果对该候选图像进行增强,得到该候选图像对应的增强图像;根据各候选图像在所述候选图像序列中的位置关系,将各候选图像对应的增强图像拼接为目标视频。
Description
技术领域
本说明书涉及计算机技术领域,尤其涉及一种基于静态图像的视频生成方法及装置。
背景技术
如今,随着神经网络与人工智能(Artificial Intelligence,AI)技术的发展,基于AI构建的生成式模型越来越广泛地应用于各个领域。其中,采用生成式模型进行的视频生成视频是近年来较为热门的研究领域之一。
视频生成依赖于模型的图像生成能力,通过不同的时序设计实现视频帧序列的生成。但目前,现有的视频生成模型无法显式控制生成视频时的视角变化,生成视频的视角强依赖于训练数据分布,这大大降低了视频生成的可控性。同时,使用特定视角变化的数据训练模型又会降低生成的多样性,得不偿失。
因此,如何较好地控制在生成视频时的视角变化是一个亟待解决的问题。
发明内容
本说明书提供一种基于静态图像的视频生成方法及装置,以至少部分地解决现有技术存在的上述问题。
本说明书采用下述技术方案:
本说明书提供了一种基于静态图像的视频生成方法,包括:
获取静态目标图像,并确定在根据所述静态目标图像生成视频时需要的视角变化过程;
根据所述视角变化过程获取所述静态目标图像的候选图像序列,所述候选图像序列中包含若干帧视角不完全相同的候选图像;
针对每个候选图像,根据预设的动态效果对该候选图像进行增强,得到该候选图像对应的增强图像;
根据各候选图像在所述候选图像序列中的位置关系,将各候选图像对应的增强图像拼接为目标视频。
可选地,所述静态目标图像为二维图像;
根据所述视角变化过程获取所述静态目标图像的候选图像序列,具体包括:
确定所述静态目标图像中各像素点的深度;
对所述各像素点的深度进行聚类,并根据所述聚类结果确定深度阈值;
根据所述深度阈值构建所述静态目标图像对应的三维场景模型;
根据所述视角变化过程,获取所述三维场景模型在不同视角下的图像;
根据所述三维场景模型在不同视角下的图像确定所述静态目标图像的候选图像序列。
可选地,根据所述深度阈值构建所述静态目标图像对应的三维场景模型,具体包括:
根据所述深度阈值与所述各像素点的深度,确定所述静态目标图像中的前景区域和背景区域;
根据所述背景区域中各像素点的深度与颜色,对所述前景区域的背景进行填充,得到填充像素点;
根据所述静态目标图像中各像素点的深度与各填充像素点的深度,构建所述静态目标图像对应的三维场景模型。
可选地,根据所述视角变化过程,获取所述三维场景模型在不同视角下的图像,具体包括:
根据所述视角变化过程确定在根据所述静态目标图像生成视频时需要的各采集位姿;
根据所述各采集位姿采集所述三维场景模型在不同视角下的图像。
可选地,针对每个候选图像,根据预设的动态效果对该候选图像进行增强,得到该候选图像对应的增强图像,具体包括:
针对每个候选图像,对该候选图像进行编码,得到该候选图像的图像特征;
根据预设的动态效果对所述图像特征进行增强,得到该候选图像的增强特征;
对所述增强特征进行解码,得到该候选图像的增强图像。
可选地,根据预设的动态效果对所述图像特征进行增强,得到该候选图像的增强特征,具体包括:
根据预设的动态效果对所述图像特征进行加扰,得到该候选图像的加扰特征;
将所述加扰特征输入预先训练的扩散模型,得到所述扩散模型输出的该候选图像的增强特征。
可选地,将所述加扰特征输入预先训练的扩散模型,得到所述扩散模型输出的该候选图像的增强特征,具体包括:
获取所述静态目标图像的文本描述,并提取所述文本描述的文本特征;
将所述加扰特征与所述文本特征输入预先训练的扩散模型,使所述扩散模型根据所述文本特征对所述加扰特征进行降噪处理,得到该候选图像的增强特征。
本说明书提供的一种视频生成装置,所述装置包括:
获取模块,用于获取静态目标图像,并确定在根据所述静态目标图像生成视频时需要的视角变化过程;
采集模块,用于根据所述视角变化过程获取所述静态目标图像的候选图像序列,所述候选图像序列中包含若干帧视角不完全相同的候选图像;
增强模块,用于针对每个候选图像,根据预设的动态效果对该候选图像进行增强,得到该候选图像对应的增强图像;
拼接模块,用于根据各候选图像在所述候选图像序列中的位置关系,将各候选图像对应的增强图像拼接为目标视频。
本说明书提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述基于静态图像的视频生成方法。
本说明书提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述基于静态图像的视频生成方法。
本说明书采用的上述至少一个技术方案能够达到以下有益效果:
在本说明书提供的基于静态图像的视频生成方法中,获取静态目标图像,并确定在根据所述静态目标图像生成视频时需要的视角变化过程;根据所述视角变化过程获取所述静态目标图像的候选图像序列,所述候选图像序列中包含若干帧视角不完全相同的候选图像;针对每个候选图像,根据预设的动态效果对该候选图像进行增强,得到该候选图像对应的增强图像;根据各候选图像在所述候选图像序列中的位置关系,将各候选图像对应的增强图像拼接为目标视频。
在采用本说明书提供的基于静态图像的视频生成方法生成带有视角变化的动态视频时,可首先确定出需要的视角变化过程,并通过三维运镜的方式采集到相应的候选图像序列;随后根据预设的动态效果分别对每个候选图像进行增强,并最终将得到的增强图像拼接为目标视频。采用本方法生成视频可根据用户的需求自由把控视频的视角变化,同时,能够使生成出的视频具有用户希望的动态效果,在解决了视角不可控的问题的同时,增加了对视频动态效果的控制,显著提升了生成出的视频的效果。
附图说明
此处所说明的附图用来提供对本说明书的进一步理解,构成本说明书的一部分,本说明书的示意性实施例及其说明用于解释本说明书,并不构成对本说明书的不当限定。在附图中:
图1为本说明书中一种基于静态图像的视频生成方法的流程示意图;
图2为本说明书提供的一种基于静态图像的视频生成装置的示意图;
图3为本说明书提供的对应于图1的电子设备示意图。
具体实施方式
采用AI来基于一张给定的静态图像,生成动态视频是目前较为热门的技术之一。基于AI构建的生成式模型具有随机输出的特点,在训练样本所涵盖的范围内,生成式模型对同一输入可能会给出不同的输出,且差异较大。对应于本方法所涉及的视频生成领域,在采用生成式模型生成视频时,在训练样本随机分配的情况下,生成式模型每次生成的视频的视角变化都是随机的。换句话说,生成出的视频的视角变化是不可控的。
由于神经网络模型的输出强依赖于训练样本,因此,在使用特定视角变化下的视频作为样本对生成式模型进行训练的情况下,可以生成出视角变化固定的视频。但这种方法会使生成出的视频仅具有一种视角变化过程,十分单一。而若想要生成其它视角的视频,又需要重新采用另一批特定的训练样本重新训练出一个新的生成式模型。可以看出,这一过程过于繁琐、复杂,实际应用效果并不好。
为解决上述问题,本说明书提供了一种视角可控且简单高效的基于静态图像的视频生成方法。
为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
图1为本说明书中一种基于静态图像的视频生成方法的流程示意图,具体包括以下步骤:
S100:获取静态目标图像,并确定在根据所述静态目标图像生成视频时需要的视角变化过程。
本说明书所提供的基于静态图像的视频生成方法中的所有步骤均可由任何具有计算功能的电子设备实现,例如终端、服务器等设备。
本说明书所提供的基于静态图像的视频生成方法,主要应用于根据一张给定的静态图像,生成存在视角变化与动态效果的视频。基于此,可在此步骤中,首先获取给定的静态目标图像。一般地,静态目标图像中可存在可以运动的目标物作为前景,静态目标图像中其它区域为背景。
在获取静态目标图像后,可进一步确定出在根据静态目标图像生成视频时需要的视角变化过程。在生成视频时,视频中的任意一帧图像的生成过程为通过图像采集程序对静态目标图像进行观察并采集观察到的内容,作为图像。其中,视角可理解为生成视频中的一帧图像时,图像采集程序观察静态目标图像的角度以及距离。不难理解,生成一段视频的过程实际上就是连续生成多帧图像的过程,在生成一段视频中的每帧图像时,视角不断发生改变的过程就是视角变化过程。其中,视角变化过程可根据需要生成的视频进行任意设置,且在生成不同视频时可进行任意更改。例如,可以根据视频的不同种类预先设置不同的视角变化过程的模板;再例如,可在每次生成视频时直接由用户自行设置本次需要的视角变化过程,这一过程具有较强的可控性。
S102:根据所述视角变化过程获取所述静态目标图像的候选图像序列,所述候选图像序列中包含若干帧视角不完全相同的候选图像。
在确定出需要的视角变化过程后,可依照确定出的视角变化过程,采集出若干连续的候选图像,作为候选图像序列。在候选图像序列中,跟随着视角变化过程采集出的各候选图像的视角也会发生改变。当然,在视角不断变化的过程中,也可能会出现若干处视角重复的情况。因此,可能会存在一些视角相同的候选图像,但通常情况下各候选图像的视角不会完全相同。在极端情况下,可以存在各候选图像的视角完全相同的情况,但该种情况下也就不需要设置视角变化过程了,可以直接采用更加简单的方式生成视频。而本方法主要聚焦于生成视角不断发生变化且变化可控的视频,因此本方法在此不考虑该种极端情况。
更进一步地,在视角不断变化的过程中,对静态目标图像的采集效果也会随之发生改变。由于静态目标图像为二维图像,受限制与平面,在视角的角度不断增大的过程中,能够采集到的有效信息会越来越少。因此,为解决这一问题,在本方法中,可在基于静态目标图像构建出对应的三维场景模型后,再进行候选图像的采集。具体地,可确定所述静态目标图像中各像素点的深度;对所述各像素点的深度进行聚类,并根据所述聚类结果确定深度阈值;根据所述深度阈值构建所述静态目标图像对应的三维场景模型;根据所述视角变化过程,获取所述三维场景模型在不同视角下的图像;根据所述三维场景模型在不同视角下的图像确定所述静态目标图像的候选图像序列。
在根据所述视角变化过程,获取所述三维场景模型在不同视角下的图像时,可具体地,根据所述视角变化过程确定在根据所述静态目标图像生成视频时需要的各采集位姿;根据所述各采集位姿采集所述三维场景模型在不同视角下的图像。
依照确定出的在生成视频时的视角变化过程,可以相应地确定出在采集每个不同视角下的三维场景模型的图像时,需要的采集位姿,也就是采集图像的视角源头所处的位置和姿态。在采集图像时,可通过图像采集程序模拟图像采集设备实现图像的采集。每个不同的视角唯一对应了视角源头应处于的一个不同的位姿。因此,既定的视角变化过程可以确定出一个唯一的目标运行轨迹。按照确定出的目标运行轨迹运行图像采集程序,并在运行途中令图像采集程序以预设周期不断地采集候选图像即可。其中,预设周期可按照具体需求进行设置,本说明书对此不做具体限制。
在本方法中,一个像素点的深度表示在采集静态目标图像时,该像素点所对应的实际位置与采集该静态目标图像的设备之间的距离。在确定静态目标图像中各像素点的深度时,可采用已经较为成熟的技术,例如单目深度估计模型等,本说明书对此不做具体限制。
在确定出静态目标图像中各像素点的深度后,可进一步地,对确定出的各深度值进行聚类。通过聚类可确定出静态目标图像的深度值的分布情况,进而确定出静态目标图像中前景和背景在深度上的分割界限,也就是深度阈值。一般情况下,静态目标图像中前景和背景实际所处的位置会有所不同,因此前景和背景的深度也会存在一定的差异。借助确定出的深度阈值,即可构建出静态目标图像所对应的三维场景模型。
具体地,可根据所述深度阈值与所述各像素点的深度,确定所述静态目标图像中的前景区域和背景区域;根据所述背景区域中各像素点的深度与颜色,对所述前景区域的背景进行填充,得到填充像素点;根据所述静态目标图像中各像素点的深度与各填充像素点的深度,构建所述静态目标图像对应的三维场景模型。
通过确定出的深度阈值,可将静态目标图像中的前景与背景分割开来。一般情况下,静态目标图像中的前景的深度会小于背景,也就是前景一般会处于背景的前方,遮挡住一部分背景,这部分背景在静态目标图像中是无法体现出来的。因此,在构建目标场景时,需要首先将静态目标图像的前景区域中,被前景遮挡的背景还原回来。由于已经得知了背景区域中其它像素点的深度信息,以及像素点的颜色信息,因此,可以较为为准确借助这些信息填充出前景区域中的背景,将填充得到的各像素点作为填充像素点。至此,根据静态目标图像中原本存在的各像素点的深度以及各填充像素点的深度,可以确定每个像素点映射到三维空间时所处的位置,进而构建出相应的三维场景模型。
对构建出的三维的三维场景模型进行多视角的采集,便能够采集出在不同视角下均内容丰富的候选图像。
S104:针对每个候选图像,根据预设的动态效果对该候选图像进行增强,得到该候选图像对应的增强图像。
在步骤S102,采集候选图像的过程中,静态目标图像,或是说构建出的三维场景模型始终是处于静态的,没有发生过任何运动。因此,若直接采用步骤S102中得到的候选图像序列拼接为视频,得到的视频将只有视角的变化,却没有任何动态效果。因此,需要在此步骤中,进一步为将要生成的视频添加动态效果。
其中,需要为视频添加的动态效果可根据具体需求进行预先设置。根据预设的整体的动态效果,可进而确定出动态效果划分到每一帧候选图像上时需要对候选图像进行的调整。因此,可根据预设的动态效果对各候选图像进行增强,得到增强图像。增强图像在不改变候选图像的视角的基础上,额外增加了在生成视频中实现预设的动态效果时,需要对候选图像进行的调整,例如候选图像中包含的目标物的位置、动作等。
在实际操作的过程中,根据动态效果对候选图像进行增强的方式可存在多种,本说明书在此提供一种具体实施例以供参考。具体地,可针对每个候选图像,对该候选图像进行编码,得到该候选图像的图像特征;根据预设的动态效果对所述图像特征进行增强,得到该候选图像的增强特征;对所述增强特征进行解码,得到该候选图像的增强图像。
通过对候选图像进行编码,可提取出候选图像的图像特征;根据预设的动态效果可对候选图像的图像特征进行相应的增强调整,得到增强特征;最终可通过解码操作将增强特征重塑为调整后的图像,也就是增强图像。
其中,在对图像特征进行增强时,可具体地,根据预设的动态效果对所述图像特征进行加扰,得到该候选图像的加扰特征;将所述加扰特征输入预先训练的扩散模型,得到所述扩散模型输出的该候选图像的增强特征。
通过扩散模型对加噪的特征进行降噪已经是较为成熟的技术手段。根据预设的动态效果,可以确定出候选图像的图像特征中需要调整的部分,并对该部分特征进行加扰,随后,通过扩散模型对加扰特征进行降噪时,可额外构建出需要的动态效果所对应的特征。换句话说,对候选图像的图像特征进行加噪与去噪的过程,实际上就是调整图像特征以得到动态效果所需要的特征的过程。
更进一步地,在扩散模型对加扰特征进行降噪时,可额外增加对静态目标图像的文本描述,以使扩散模型在构建动态效果所需要的特征的同时,不会丢失原本的静态目标图像中所包含的信息。具体地,可获取所述静态目标图像的文本描述,并提取所述文本描述的文本特征;将所述加扰特征与所述文本特征输入预先训练的扩散模型,使所述扩散模型根据所述文本特征对所述加扰特征进行降噪处理,得到该候选图像的增强特征。
结合从对静态目标图像的文本描述中提取出的文本特征,扩散模型可在保证能够较为准确地还原静态目标图像中原本的内容的同时,额外增加需要的动态效果,以得到最终的增强特征。
S106:根据各候选图像在所述候选图像序列中的位置关系,将各候选图像对应的增强图像拼接为目标视频。
在步骤S102中采集候选图像时,根据每个候选图像被采集的时间顺序,可由先到后的将各候选图像排列为候选图像序列。即,采集时间越靠前的候选图像,在候选图像序列中的排序也就越靠前。按照同样的顺序,可将各候选图像对应的增强图像也进行相应的排序,并在排序后可按照顺序将各增强图像拼接为最终的目标视频。
额外地,考虑到执行方法时的整体效率,当需要处理的数据量过多时,可选择采集候选图像序列时合理地削减一些采集的候选图像的个数,并在后续通过插帧的方式以较低的数据处理量补回需要的帧数。具体地,可在生成目标视频时,针对每个增强图像,根据该增强图像对应的候选图像在所述候选图像中的位置,确定该增强图像的位置;根据各增强图像的位置构建增强图像序列;对所述增强图像序列进行插帧处理,得到优化增强图像序列;对所述优化增强图像序列中的各帧图像进行拼接,得到目标视频。
在构建出的增强图像序列中,可对每两个相邻的增强图像进行一次插帧,得到一张新的图像,设置于该两个增强图像之间,得到优化增强图像序列。经过插帧得到的优化增强图像序列可有效提升最终得到的图像的数量。
在采用本说明书提供的基于静态图像的视频生成方法生成带有视角变化的动态视频时,可首先确定出需要的视角变化过程,并通过三维运镜的方式采集到相应的候选图像序列;随后根据预设的动态效果分别对每个候选图像进行增强,并最终将得到的增强图像拼接为目标视频。采用本方法生成视频可根据用户的需求自由把控视频的视角变化,同时,能够使生成出的视频具有用户希望的动态效果,在解决了视角不可控的问题的同时,增加了对视频动态效果的控制,显著提升了生成出的视频的效果。
以上是本说明书提供的基于静态图像的视频生成方法,基于同样的思路,本说明书还提供了相应的视频生成装置,如图2所示。
图2为本说明书提供的一种视频生成装置示意图,具体包括:
获取模块200,用于获取静态目标图像,并确定在根据所述静态目标图像生成视频时需要的视角变化过程;
采集模块202,用于根据所述视角变化过程获取所述静态目标图像的候选图像序列,所述候选图像序列中包含若干帧视角不完全相同的候选图像;
增强模块204,用于针对每个候选图像,根据预设的动态效果对该候选图像进行增强,得到该候选图像对应的增强图像;
拼接模块206,用于根据各候选图像在所述候选图像序列中的位置关系,将各候选图像对应的增强图像拼接为目标视频。
可选地,所述静态目标图像为二维图像;
所述采集模块202,具体用于确定所述静态目标图像中各像素点的深度;对所述各像素点的深度进行聚类,并根据所述聚类结果确定深度阈值;根据所述深度阈值构建所述静态目标图像对应的三维场景模型;根据所述视角变化过程,获取所述三维场景模型在不同视角下的图像;根据所述三维场景模型在不同视角下的图像确定所述静态目标图像的候选图像序列。
可选地,所述采集模块202,具体用于根据所述深度阈值与所述各像素点的深度,确定所述静态目标图像中的前景区域和背景区域;根据所述背景区域中各像素点的深度与颜色,对所述前景区域的背景进行填充,得到填充像素点;根据所述静态目标图像中各像素点的深度与各填充像素点的深度,构建所述静态目标图像对应的三维场景模型。
可选地,所述采集模块202,具体用于根据所述视角变化过程确定在根据所述静态目标图像生成视频时需要的各采集位姿;根据所述各采集位姿采集所述三维场景模型在不同视角下的图像。
可选地,所述增强模块204,具体用于针对每个候选图像,对该候选图像进行编码,得到该候选图像的图像特征;根据预设的动态效果对所述图像特征进行增强,得到该候选图像的增强特征;对所述增强特征进行解码,得到该候选图像的增强图像。
可选地,所述增强模块204,具体用于根据预设的动态效果对所述图像特征进行加扰,得到该候选图像的加扰特征;将所述加扰特征输入预先训练的扩散模型,得到所述扩散模型输出的该候选图像的增强特征。
可选地,所述增强模块204,具体用于获取所述静态目标图像的文本描述,并提取所述文本描述的文本特征;将所述加扰特征与所述文本特征输入预先训练的扩散模型,使所述扩散模型根据所述文本特征对所述加扰特征进行降噪处理,得到该候选图像的增强特征。
本说明书还提供了一种计算机可读存储介质,该存储介质存储有计算机程序,计算机程序可用于执行上述图1提供的基于静态图像的视频生成方法。
本说明书还提供了图3所示的电子设备的示意结构图。如图3所述,在硬件层面,该电子设备包括处理器、内部总线、网络接口、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述图1所述的基于静态图像的视频生成方法。当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。
Claims (10)
1.一种基于静态图像的视频生成方法,其特征在于,包括:
获取静态目标图像,并确定在根据所述静态目标图像生成视频时需要的视角变化过程;
根据所述视角变化过程获取所述静态目标图像的候选图像序列,所述候选图像序列中包含若干帧视角不完全相同的候选图像;
针对每个候选图像,根据预设的动态效果对该候选图像进行增强,得到该候选图像对应的增强图像;
根据各候选图像在所述候选图像序列中的位置关系,将各候选图像对应的增强图像拼接为目标视频。
2.如权利要求1所述的方法,其特征在于,所述静态目标图像为二维图像;
根据所述视角变化过程获取所述静态目标图像的候选图像序列,具体包括:
确定所述静态目标图像中各像素点的深度;
对所述各像素点的深度进行聚类,并根据所述聚类结果确定深度阈值;
根据所述深度阈值构建所述静态目标图像对应的三维场景模型;
根据所述视角变化过程,获取所述三维场景模型在不同视角下的图像;
根据所述三维场景模型在不同视角下的图像确定所述静态目标图像的候选图像序列。
3.如权利要求2所述的方法,其特征在于,根据所述深度阈值构建所述静态目标图像对应的三维场景模型,具体包括:
根据所述深度阈值与所述各像素点的深度,确定所述静态目标图像中的前景区域和背景区域;
根据所述背景区域中各像素点的深度与颜色,对所述前景区域的背景进行填充,得到填充像素点;
根据所述静态目标图像中各像素点的深度与各填充像素点的深度,构建所述静态目标图像对应的三维场景模型。
4.如权利要求2所述的方法,其特征在于,根据所述视角变化过程,获取所述三维场景模型在不同视角下的图像,具体包括:
根据所述视角变化过程确定在根据所述静态目标图像生成视频时需要的各采集位姿;
根据所述各采集位姿采集所述三维场景模型在不同视角下的图像。
5.如权利要求1所述的方法,其特征在于,针对每个候选图像,根据预设的动态效果对该候选图像进行增强,得到该候选图像对应的增强图像,具体包括:
针对每个候选图像,对该候选图像进行编码,得到该候选图像的图像特征;
根据预设的动态效果对所述图像特征进行增强,得到该候选图像的增强特征;
对所述增强特征进行解码,得到该候选图像的增强图像。
6.如权利要求5所述的方法,其特征在于,根据预设的动态效果对所述图像特征进行增强,得到该候选图像的增强特征,具体包括:
根据预设的动态效果对所述图像特征进行加扰,得到该候选图像的加扰特征;
将所述加扰特征输入预先训练的扩散模型,得到所述扩散模型输出的该候选图像的增强特征。
7.如权利要求6所述的方法,其特征在于,将所述加扰特征输入预先训练的扩散模型,得到所述扩散模型输出的该候选图像的增强特征,具体包括:
获取所述静态目标图像的文本描述,并提取所述文本描述的文本特征;
将所述加扰特征与所述文本特征输入预先训练的扩散模型,使所述扩散模型根据所述文本特征对所述加扰特征进行降噪处理,得到该候选图像的增强特征。
8.一种基于静态图像的视频生成装置,其特征在于,包括:
获取模块,用于获取静态目标图像,并确定在根据所述静态目标图像生成视频时需要的视角变化过程;
采集模块,用于根据所述视角变化过程获取所述静态目标图像的候选图像序列,所述候选图像序列中包含若干帧视角不完全相同的候选图像;
增强模块,用于针对每个候选图像,根据预设的动态效果对该候选图像进行增强,得到该候选图像对应的增强图像;
拼接模块,用于根据各候选图像在所述候选图像序列中的位置关系,将各候选图像对应的增强图像拼接为目标视频。
9.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述权利要求1~7任一项所述的方法。
10.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现上述权利要求1~7任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311865081.7A CN117834793A (zh) | 2023-12-29 | 2023-12-29 | 一种基于静态图像的视频生成方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311865081.7A CN117834793A (zh) | 2023-12-29 | 2023-12-29 | 一种基于静态图像的视频生成方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117834793A true CN117834793A (zh) | 2024-04-05 |
Family
ID=90516775
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311865081.7A Pending CN117834793A (zh) | 2023-12-29 | 2023-12-29 | 一种基于静态图像的视频生成方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117834793A (zh) |
-
2023
- 2023-12-29 CN CN202311865081.7A patent/CN117834793A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112819944B (zh) | 三维人体模型重建方法、装置、电子设备及存储介质 | |
CN112884881B (zh) | 三维人脸模型重建方法、装置、电子设备及存储介质 | |
CN117372631B (zh) | 一种多视角图像生成模型的训练方法、应用方法 | |
CN108765334A (zh) | 一种图像去噪方法、装置以及电子设备 | |
CN116977525B (zh) | 一种图像渲染方法、装置、存储介质及电子设备 | |
CN117880444B (zh) | 一种长短时特征引导的人体康复运动视频数据生成方法 | |
CN112950739A (zh) | 纹理生成方法、装置、设备及存储介质 | |
CN114022497A (zh) | 一种图像处理方法及装置 | |
CN115240102A (zh) | 基于图像和文本的模型训练方法及装置 | |
CN115240100A (zh) | 基于视频帧的模型训练方法及装置 | |
CN113688832A (zh) | 一种模型训练及图像处理方法、装置 | |
CN117834793A (zh) | 一种基于静态图像的视频生成方法及装置 | |
CN115623221A (zh) | 一种视频编码方法、装置、存储介质及图像采集设备 | |
CN115240099A (zh) | 基于多模态关联数据的模型训练方法及装置 | |
CN117726760B (zh) | 一种用于视频的三维人体重建模型的训练方法及装置 | |
CN113887326B (zh) | 一种人脸图像处理方法及装置 | |
CN117808976B (zh) | 一种三维模型构建方法、装置、存储介质及电子设备 | |
CN117974493B (zh) | 图像处理方法和相关装置 | |
CN117911630B (zh) | 一种三维人体建模的方法、装置、存储介质及电子设备 | |
CN117830564B (zh) | 一种姿态分布指导的三维虚拟人模型重建方法 | |
CN117689822B (zh) | 一种三维模型构建方法、装置、存储介质及电子设备 | |
CN116740182B (zh) | 一种鬼影区域确定方法、装置、存储介质及电子设备 | |
CN117221504B (zh) | 一种视频抠像方法及装置 | |
CN116389789A (zh) | 一种移动端视频画质增强的方法、装置、介质及电子设备 | |
CN117522717B (zh) | 一种图像的合成方法、装置及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |