CN110458919B - 一种动态纹理视频生成方法、装置、服务器及存储介质 - Google Patents
一种动态纹理视频生成方法、装置、服务器及存储介质 Download PDFInfo
- Publication number
- CN110458919B CN110458919B CN201910838615.4A CN201910838615A CN110458919B CN 110458919 B CN110458919 B CN 110458919B CN 201910838615 A CN201910838615 A CN 201910838615A CN 110458919 B CN110458919 B CN 110458919B
- Authority
- CN
- China
- Prior art keywords
- texture image
- sample
- texture
- output result
- video stream
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Signal Processing (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Generation (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例提供一种动态纹理视频生成方法、装置、服务器及存储介质,通过接收输入的纹理图像,基于接收到的纹理图像和纹理图像生成模型生成纹理图像序列(所述纹理图像序列中的首个纹理图像是所接收的纹理图像,针对纹理图像序列中的任意两帧相邻的纹理图像,后一帧纹理图像是所述纹理图像生成模型对前一帧纹理图像的输出结果),使得可根据纹理图像序列生成动态纹理视频,从而实现了对接收到的纹理图像对应的动态纹理视频的生成,在保证生成的动态纹理视频能够从时间和空间上有效表达图像纹理的基础上,提高了动态纹理视频的生成效率。
Description
本申请为申请日为2018年02月07日,申请号为:201810123812.3,发明名称为:一种动态纹理视频生成方法、装置、服务器及存储介质的分案申请。
技术领域
本发明涉及数据处理技术领域,具体涉及一种动态纹理视频生成方法、装置、服务器及存储介质。
背景技术
为了增加图片的趣味性,可以对图片中的纹理部分(如水流部分、火焰部分、瀑布部分等)进行动态化处理,以得到与图像对应的一段具有动态纹理内容的视频。
现有技术通常是利用采样和重构的思想并基于迭代-优化的方式对纹理图像进行动态化处理以得到与纹理图像对应的动态纹理视频,然而,此种方式往往存在如下问题:第一、因利用采样和重构思想实现对纹理图像的动态化处理,故通常会存在生成的动态纹理视频无法从时间和空间上有效表达图像纹理的问题;第二、因基于迭代-优化的方式实现对纹理图像的动态化处理,故通常会存在生成动态纹理视频效率低的问题。
有鉴于此,提供一种动态纹理视频生成方法、装置、服务器及存储介质,以在保证生成的动态纹理视频能够从时间和空间上有效表达图像纹理的基础上,提高动态纹理视频的生成效率,是亟待解决的问题。
发明内容
有鉴于此,本发明实施例提供一种动态纹理视频生成方法、装置、服务器及存储介质,以在保证生成的动态纹理视频能够从时间和空间上有效表达图像纹理的基础上,提高动态纹理视频的生成效率。
为实现上述目的,本发明实施例提供如下技术方案:
一种动态纹理视频生成方法,包括:
接收输入的纹理图像;
基于所述纹理图像和纹理图像生成模型生成纹理图像序列;所述纹理图像序列中的首个纹理图像是所接收的纹理图像,针对纹理图像序列中的任意两帧相邻的纹理图像,后一帧纹理图像是所述纹理图像生成模型对前一帧纹理图像的输出结果;
其中,所述纹理图像生成模型是以卷积神经网络对纹理图像样本的输出结果趋于视频流样本中与该纹理图像样本对应的下一帧纹理图像为目标,训练所述卷积神经网络得到的;所述纹理图像样本为所述视频流样本中的纹理图像或所述卷积神经网络对所述视频流样本中的纹理图像的输出结果。
一种动态纹理视频生成装置,包括:
纹理图像接收单元,用于接收输入的纹理图像;
纹理图像序列生成单元,用于基于所述纹理图像和纹理图像生成模型生成纹理图像序列;所述纹理图像序列中的首个纹理图像是所接收的纹理图像,针对纹理图像序列中的任意两帧相邻的纹理图像,后一帧纹理图像是所述纹理图像生成模型对前一帧纹理图像的输出结果;
其中,所述纹理图像生成模型是以卷积神经网络对纹理图像样本的输出结果趋于视频流样本中与该纹理图像样本对应的下一帧纹理图像为目标,训练所述卷积神经网络得到的;所述纹理图像样本为所述视频流样本中的纹理图像或所述卷积神经网络对所述视频流样本中的纹理图像的输出结果。
一种服务器,包括:至少一个存储器和至少一个处理器;所述存储器存储有程序,所述处理器调用所述存储器存储的程序,所述程序用于:
接收输入的纹理图像;
基于所述纹理图像和纹理图像生成模型生成纹理图像序列;所述纹理图像序列中的首个纹理图像是所接收的纹理图像,针对纹理图像序列中的任意两帧相邻的纹理图像,后一帧纹理图像是所述纹理图像生成模型对前一帧纹理图像的输出结果;
其中,所述纹理图像生成模型是以卷积神经网络对纹理图像样本的输出结果趋于视频流样本中与该纹理图像样本对应的下一帧纹理图像为目标,训练所述卷积神经网络得到的;所述纹理图像样本为所述视频流样本中的纹理图像或所述卷积神经网络对所述视频流样本中的纹理图像的输出结果。
一种存储介质,所述存储介质存储有适于处理器执行的程序,所述程序用于:
接收输入的纹理图像;
基于所述纹理图像和纹理图像生成模型生成纹理图像序列;所述纹理图像序列中的首个纹理图像是所接收的纹理图像,针对纹理图像序列中的任意两帧相邻的纹理图像,后一帧纹理图像是所述纹理图像生成模型对前一帧纹理图像的输出结果;
其中,所述纹理图像生成模型是以卷积神经网络对纹理图像样本的输出结果趋于视频流样本中与该纹理图像样本对应的下一帧纹理图像为目标,训练所述卷积神经网络得到的;所述纹理图像样本为所述视频流样本中的纹理图像或所述卷积神经网络对所述视频流样本中的纹理图像的输出结果。
本申请实施例提供一种动态纹理视频生成方法、装置、服务器及存储介质,通过接收输入的纹理图像,基于接收到的纹理图像和纹理图像生成模型生成纹理图像序列(所述纹理图像序列中的首个纹理图像是所接收的纹理图像,针对纹理图像序列中的任意两帧相邻的纹理图像,后一帧纹理图像是所述纹理图像生成模型对前一帧纹理图像的输出结果),使得可根据纹理图像序列生成动态纹理视频,从而实现了对接收到的纹理图像对应的动态纹理视频的生成,在保证生成的动态纹理视频能够从时间和空间上有效表达图像纹理的基础上,提高了动态纹理视频的生成效率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请实施例提供的一种动态纹理视频生成方法流程图;
图2为本申请实施例提供的另一种动态纹理视频生成方法流程图;
图3为本申请实施例提供的一种纹理图像序列的生成过程示意图;
图4为本申请实施例提供的一种用于生成纹理图像生成模型的生成系统框架图;
图5为本申请实施例提供的一种模型生成模块中的卷积神经网络的结构示意图;
图6为本申请实施例提供的一种纹理图像生成模型构建方法流程图;
图7为本申请实施例提供的一种确定所述输出结果到所述视频流样本的欧式距离的方法流程图;
图8为本申请实施例提供的另一种纹理图像生成模型构建方法程图;
图9为本申请实施例提供的又一种纹理图像生成模型构建方法流程图;
图10为本发明实施例提供的动态纹理视频生成装置的结构框图;
图11为本申请实施例提供的一种纹理图像生成模型训练单元的详细结构示意图;
图12为服务器的硬件结构框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例:
本申请实施例提供的动态纹理视频生成方法涉及人工智能中的计算机视觉技术以及机器学习技术等,下面先对人工智能技术、计算机视觉技术和机器学习技术进行说明。
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
计算机视觉技术(Computer Vision,CV)计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、OCR、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。
机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
下面结合如下具体实施例对动态纹理视频生成方法涉及的人工智能的计算机视觉技术以及机器学习技术进行说明。
图1为本申请实施例提供的一种动态纹理视频生成方法流程图,该方法可应用于服务器(如动态纹理视频生成服务器,或者其他专门设置的服务设备),由服务器基于接收到的输入的纹理图像生成纹理图像序列,以便于可以通过生成的纹理图像序列生成动态纹理视频。
如图1所示,该方法包括:
S101、接收输入的纹理图像;
可选的,服务器中设置有纹理图像生成模型,所述纹理图像生成模型的生成与人工智能的计算机视觉技术以及机器学习技术有关,作为本申请实施例的一种优选实施方式,纹理图像生成模型以卷积神经网络对纹理图像样本的输出结果趋于视频流样本中与该纹理图像样本对应的下一帧纹理图像为目标,训练所述卷积神经网络得到。
在本申请实施例中,优选的,纹理图像样本的个数为至少一个,所述纹理图像样本为所述视频流样本中的纹理图像或所述卷积神经网络对所述视频流样本中的纹理图像的输出结果。
也就是说,本申请实施例可以采用多个纹理图像样本对卷积神经网络进行训练以生成纹理图像生成模型,并且,这多个纹理图像样本中可以既包括第一纹理图像样本(此处的第一纹理图像样本为视频流样本中的纹理图像),也可以包括第二纹理图像样本【此处的第二纹理图像样本是在对卷积神经网络进行训练的过程中,卷积神经网络对视频流样本中的纹理图像的输出结果(即,在对卷积神经网络进行训练的过程中,将视频流样本中的纹理图像作为输入信息输入至卷积神经网络所得到的输出结果)】。
可选的,当纹理图像样本为所述视频流样本中的纹理图像时,将视频流样本中的与该纹理图像样本相邻的下一帧纹理图像,确定为视频流样本中与该纹理图像样本对应的下一帧纹理图像。比如,视频流样本由3个依次排序的纹理图像构成(视频流样本由纹理图像1、纹理图像2和纹理图像3构成,并且,纹理图像1、纹理图像2和纹理图像3依次排序);若纹理图像样本为视频流样本中的纹理图像1时,将视频流样本中的纹理图像2确定为视频流样本中与纹理图像样本对应的下一帧纹理图像。
可选的,当纹理图像样本为卷积神经网络对所述视频流样本中的纹理图像的输出结果时,确定视频流样本中与该纹理图像相邻的下一帧纹理图像,进而将视频流样本中与所确定的下一帧纹理图像相邻的下一帧纹理图像作为视频流样本中与该纹理图像样本对应的下一帧纹理图像。比如,视频流样本由3个依次排序的纹理图像构成(视频流样本由纹理图像1、纹理图像2和纹理图像3构成,并且,纹理图像1、纹理图像2和纹理图像3依次排序);若纹理图像样本为卷积神经网络对视频流样本中的纹理图像1的输出结果时,将视频流样本中的纹理图像3确定为视频流样本中与纹理图像样本对应的下一帧纹理图像。
在本申请实施例中,优选的,纹理图像生成模型的输入信息是一帧纹理图像,纹理图像生成模型对输入信息的输出结果也是一帧纹理图像,并且,从纹理图像序列生成的角度来看,纹理图像生成模型对输入信息的输出结果是与该输入信息相邻的下一帧纹理图像。
也就是说,在生成纹理图像序列的过程中,若纹理图像生成模型的输入信息是待生成的纹理图像序列中的一帧纹理图像(在此称为目标帧纹理图像);那么,纹理图像生成模型对该输入信息的输出结果便是该待生成的纹理图像序列中的与该目标帧纹理图像相邻的下一帧纹理图像。
在本申请实施例中,优选的,在接收到用户输入的纹理图像后,首先将接收到的用户输入的该纹理图像作为待生成的纹理图像序列中的首个纹理图像(即,待生成的纹理图像序列中的第一帧纹理图像);将纹理图像生成模型对第一帧纹理图像的输出结果,作为待生成的纹理图像序列中的与第一帧纹理图像相邻的下一帧纹理图像(即,待生成的纹理图像序列中的第二帧纹理图像);并将纹理图像生成模型对第二帧纹理图像的输出结果,作为待生成的纹理图像序列中的与第二帧纹理图像相邻的下一帧纹理图像(即,待生成的纹理图像序列中的第三帧纹理图像);并将纹理图像生成模型对该第三帧纹理图像的输出结果,作为待生成的纹理图像序列中的与该第三帧纹理图像相邻的下一帧纹理图像…以此类推,直至待生成的纹理图像序列中包括的纹理图像的帧数满足要求,便可不再继续执行。
S102、基于所述纹理图像和纹理图像生成模型生成纹理图像序列;所述纹理图像序列中的首个纹理图像是所接收的纹理图像,针对纹理图像序列中的任意两帧相邻的纹理图像,后一帧纹理图像是所述纹理图像生成模型对前一帧纹理图像的输出结果。
可选的,应用服务器接收到用户输入的纹理图像后,将该接收到的用户输入的纹理图像作为待生成的纹理图像序列中的首个纹理图像,进而根据该待生成的纹理图像序列中的首个纹理图像便可生成纹理图像序列,基于该生成的纹理图像序列便可生成动态纹理视频(该动态纹理视频便是与接收到的输入的纹理图像对应的动态纹理视频)。
为了便于对本申请实施例提供的一种动态纹理视频生成方法的理解,现提供另一种动态纹理视频生成方法流程图,请参见图2。
如图2所示,该方法包括:
S201、接收输入的纹理图像,并将接收到的纹理图像作为待生成纹理图像序列中的首个纹理图像存入所述待生成纹理图像序列;
S202、调用纹理图像生成模型,所述纹理图像生成模型是以卷积神经网络对纹理图像样本的输出结果趋于视频流样本中与该纹理图像样本对应的下一帧纹理图像为目标,训练所述卷积神经网络得到的,所述纹理图像样本为所述视频流样本中的纹理图像或所述卷积神经网络对所述视频流样本中的纹理图像的输出结果;
可选的,将视频流样本中的纹理图像作为纹理图像样本,以及将卷积神经网络对视频流样本中的纹理图像的输出结果作为纹理图像样本来训练卷积神经网络的方式,使得训练得到的纹理图像生成模型捕获纹理图像的时间-空间信息以生成下一帧纹理图像,实现对图像纹理的时间-空间信息的有效表达,以提高纹理图像生成的精确性。
S203、将所述待生成纹理图像序列中的最后一个纹理图像确定为所述纹理图像生成模型的输入信息,输入至所述纹理图像生成模型得到输出结果,并将所述输出结果作为所述待生成纹理图像序列中的最后一个纹理图像存入所述待生成纹理图像序列;
S204、确定所述待生成纹理图像序列中的纹理图像的个数是否达到预设动态纹理视频生成条件;若否,执行步骤S203;若是,执行步骤S205;
可选的,所述预设动态纹理视频生成条件包括预先设置的用于生成动态纹理视频的纹理图像的个数。也就是说,若确定待生成纹理图像序列中的纹理图像的个数达到预先设置的用于生成动态纹理视频的纹理图像的个数时,则说明所述待生成纹理图像序列中的纹理图像的个数达到预设动态纹理视频生成条件;若确定待生成纹理图像序列中的纹理图像的个数未达到预先设置的用于生成动态纹理视频的纹理图像的个数时,则说明所述待生成纹理图像序列中的纹理图像的个数未达到预设动态纹理视频生成条件。
S205、将所述待生成纹理图像序列确定为用于生成动态纹理视频的纹理图像序列。
可选的,基于步骤S205中的纹理图像序列便可生成与接收到的纹理图像对应的动态纹理视频。
本申请实施例中,优选的,所述服务器可以向用户返回与其输入的纹理图像对应的用于生成动态纹理视频的纹理图像序列,也可以在基于生成的纹理图像序列生成相应的动态纹理视频后,向用户返回动态纹理视频。
如图3所示,为本申请实施例提供的一种纹理图像序列的生成过程示意图。
参见图3可知,本申请实施例中,服务器接收到用户输入的纹理图像1,将纹理图像1确定为待生成纹理图像序列中的首个纹理图像;将纹理图像1作为输入信息输入至纹理图像生成模型得到输出结果,将输出结果确定为待生成纹理图像序列中与纹理图像1相邻的下一帧纹理图像2;将纹理图像2作为输入信息输入至纹理图像生成模型得到输出结果,将输出结果确定为待生成纹理图像序列中与纹理图像2相邻的下一帧纹理图像3…一直到待生成纹理图像序列中的纹理图像的个数满足预设的动态纹理视频生成条件,则不再将纹理图像生成模型当前的输出结果作为输入信息输入至所述纹理图像生成模型。
在本申请实施例中,优选的,将纹理图像生成模型对待生成纹理图像序列中当前最后一帧纹理图像的输出结果,作为待生成纹理图像序列中新的最后一帧纹理图像,实现了纹理图像序列生成过程中的前向传播,相对于现有技术采用的迭代-优化方式而言,有效提高了纹理图像序列的生成效率、即,提高了动态纹理视频的生成效率。
图4为本申请实施例提供的一种用于生成纹理图像生成模型的生成系统框架图。
如图4所示,所述生成系统包括:存储模块41、模型生成模块42、第一构建模块43、第二构建模块44以及合成模块45。
其中,所述模型生成模块中设置有卷积神经网络,卷积神经网络用于将一帧纹理图像作为输入信息输入至所述卷积神经网络得到输出结果;存储模块不仅用于存储包括至少一个纹理图像的视频流样本,还用于存储卷积神经网络的输出结果。
相应的,模型生成模块从存储模块中确定一张纹理图像作为卷积神经网络的输入信息输入至卷积神经网络,得到输出结果;第一构建模块用于接收所述卷积神经网络的输入信息和输出信息,并根据视频流样本构建第一损失函数;第二构建模块用于接收所述卷积神经网络的输入信息和输出信息,并基于接收到的输入信息和输出信息构建第二损失函数;合成模块用于接收第一构建模块构建的第一损失函数和第二构建模块构建的第二损失函数,并根据第一损失函数和第二损失函数构建联合损失函数,并基于构建的联合损失函数对所述卷积神经网络中的参数进行优化,以使得卷积神经网络生成接近真实的纹理图像。
在本申请实施例中,优选的,第一构建模块为VGG19网络模块。
图5为本申请实施例提供的一种模型生成模块中的卷积神经网络的结构示意图。如图5所示,卷积神经网络包括至少一个用于对视频流的时空信息进行捕获的控制门残差模块51,所述控制门残差模块51由并联的控制门支路61、卷积层支路62和加法层63构成,其中,所述控制门支路包括卷积模块71,所述卷积层支路包括至少一个串联的卷积模块71,所述卷积模块71包括卷积层81、实例化规一层82和激活函数层83。
在本申请实施例中,优选的,控制门支路残差模块的支路结构请参见表1,其中,卷积层支路-1对应卷积层支路中串联的第一个卷积模块,卷积层支路-2对应卷积层支路中串联的第二个卷积模块。
表1
支路 | 层类别 | 尺寸 | 步长 | 通道数 | 激活函数 |
卷积层支路-1 | Conv | 3 | 1 | 48 | ReLU |
卷积层支路-2 | Conv | 3 | 1 | 48 | ReLU |
控制门支路 | Conv | 3 | 1 | 48 | ReLU |
加法层 | - | - | - | - |
在本申请实施例中,优选的,卷积神经网络中的卷积模块包括卷积层、实例化规一层和激活函数层(如图5所示,除第一个卷积模块和最后一个卷积模块不包含实例化规一层)。具体的,卷积神经网络的结构请参见表2。
表2
其中,ReLU为线性整流函数,Tanh为反切函数。
在本申请实施例中,基于上述实施例提供的卷积神经网络的结构,提供一种纹理图像生成模型构建方法,具体请参见图6。
如图6所示,该方法包括:
S601、获取视频流样本,所述视频流样本由至少一个依次排序的纹理图像构成;
S602、确定纹理图像样本;
S603、获取卷积神经网络对纹理图像样本的输出结果;
S604、确定所述输出结果到所述视频流样本的欧式距离;
图7为本申请实施例提供的一种确定所述输出结果到所述视频流样本的欧式距离的方法流程图。
如图7所示,该方法包括:
S701、确定由所述纹理图像样本与所述输出结果构成的格拉姆矩阵;
假设纹理图像样本为输入帧xt,卷积神经网络对纹理图像样本xt的输出结果为生成帧分别将输入帧xt和生成帧输入到第一构建模块(VGG19网络)中,获取第一构建模块每个卷积模块的第一线性整流函数(ReLU)的输出,对应层名为:“ReLU1_1”,“ReLU2_1”,“ReLU3_1”,“ReLU4_1”和“ReLU5_1”。对于每一层l,输入为x,其特征记为φl(x),那么对于输入帧xt和生成帧生成时空-格拉姆矩阵为:
S702、确定用于表征所述视频流样本的平均格拉姆矩阵;
可选的,对于视频流样本,使用平均格拉姆矩阵(在此称为平均的时空-格拉姆矩阵)表征,即:
S703、通过最小化所述平均格拉姆矩阵和所述格拉姆矩阵的欧氏距离,构造用于表征所述输出结果到所述视频流样本的欧式距离的第一损失函数。
可选的,通过最小化平均的时空-格拉姆矩阵和生成时空-格拉姆矩阵的欧氏距离构造第一损失函数。所述第一损失函数为:
S605、以最小化所述欧式距离为训练目标,更新所述卷积神经网络的参数,直至递归卷积神经网络达到收敛,得到纹理图像生成模型。
图8为本申请实施例提供的另一种纹理图像生成模型构建方法程图。
如图8所示,该方法包括:
S801、获取视频流样本,所述视频流样本由至少一个依次排序的纹理图像构成;
S802、确定纹理图像样本;
S803、获取卷积神经网络对纹理图像样本的输出结果;
S804、确定所述输出结果到所述视频流样本的欧式距离;
S805、确定所述视频流样本中与所述输出结果对应的下一帧纹理图像;
S806、确定所述输出结果到所确定的下一帧纹理图像的映射距离;
在本申请实施例中,优选的,所述确定所述输出结果到所确定的下一帧纹理图像的映射距离,包括:通过最小化所述输出结果到所确定的下一帧纹理图像的映射距离,构造用于表征所述输出结果到所确定的下一帧纹理图像的映射距离的第二损失函数。
可选的,采用最小二程的对抗生成网络损失函数对模型生成模块和第一构建模块进行训练,目的是为了提升生成纹理图片的视觉质量。具体而言,对于第一构建模块d,其目标是判别输入的纹理图片样本是视频流样本中真实的纹理图片x,还是卷积神经网络生成的输出结果纹理图片其损失函数定义为:
对于模型生成模块中的卷积神经网络,其目标是生成出使得第一构建模块判别错误的纹理图片,具体的,第二损失函数定义为:
S807、以最小化所述欧氏距离和映射距离的总和为训练目标,更新所述卷积神经网络的参数,直至递归卷积神经网络达到收敛,得到纹理图像生成模型。
可选的,可以通过基于第一损失函数和第二损失函数构造联合损失函数,以对我们提出的卷积神经网络框架进行参数优化,使得该卷积神经网络能生成接近真实的动态纹理视频。
可选的,联合损失函数为:
图9为本申请实施例提供的又一种纹理图像生成模型构建方法流程图。
如图9所示,该方法包括:
S901、获取视频流样本,所述视频流样本由至少一个依次排序的纹理图像构成;
S902、确定至少两个纹理图像样本;
S903、分别获取卷积神经网络对每个纹理图像样本的输出结果;
S904、分别确定每个所述输出结果到所述视频流样本的欧式距离;
S905、基于所确定各个所述欧式距离,确定平均欧式距离;
可选的,基于所确定的各个所述欧式距离确定平均欧式距离的方式包括:计算所确定的各个欧式距离的总和,利用计算得到的总和除以所述至少两个纹理图像样本中纹理图像样本的数量,所得的结果为平均欧式距离。
可选的,在执行完成步骤S905后,可以以最小化所述平均欧式距离为训练目标,更新所述卷积神经网络的参数,直至递归卷积神经网络达到收敛,得到纹理图像生成模型。
进一步的,在本申请实施例提供的一种纹理图像生成模型构建方法中,还可以执行步骤S906。
S906、确定所述视频流样本中与所述输出结果对应的下一帧纹理图像;
S907、确定所述输出结果到所确定的下一帧纹理图像的映射距离;
S908、计算所确定的各个映射距离的平均映射距离;
可选的,计算所确定的各个映射距离的平均映射距离的方式包括:计算所确定的各个映射距离的总和,利用计算得到的总和除以所述至少两个纹理图像样本中纹理图像样本的数量,所得的结果作为平均映射距离。
S909、以最小化所述平均欧式距离和平均映射距离的总和为训练目标,更新所述卷积神经网络的参数,直至递归卷积神经网络达到收敛,得到纹理图像生成模型。
可选的,若不执行步骤S906-S907,则以最小化所述平均欧式距离为训练目标,更新所述卷积神经网络的参数,直至递归卷积神经网络达到收敛,得到纹理图像生成模型;若执行步骤S906-S907则以最小化所述平均欧式距离和平均映射距离的总和为训练目标,更新所述卷积神经网络的参数,直至递归卷积神经网络达到收敛,得到纹理图像生成模型。
本申请实施例提供一种动态纹理视频生成方法,通过接收输入的纹理图像,基于接收到的纹理图像和纹理图像生成模型生成纹理图像序列(所述纹理图像序列中的首个纹理图像是所接收的纹理图像,针对纹理图像序列中的任意两帧相邻的纹理图像,后一帧纹理图像是所述纹理图像生成模型对前一帧纹理图像的输出结果),使得可根据纹理图像序列生成动态纹理视频,从而实现了对接收到的纹理图像对应的动态纹理视频的生成,在保证生成的动态纹理视频能够从时间和空间上有效表达图像纹理的基础上,提高了动态纹理视频的生成效率。
下面对本发明实施例提供的动态纹理视频生成装置进行介绍,下文描述的动态纹理视频生成装置可认为是,服务器为实现本发明实施例提供的动态纹理视频生成方法,所需设置的程序模块。下文描述的动态纹理视频生成装置内容,可与上文描述的动态纹理视频生成方法内容相互对应参照。
图10为本发明实施例提供的动态纹理视频生成装置的结构框图,该装置可应用于服务器,参照图10,该动态纹理视频生成装置可以包括:
纹理图像接收单元101,用于接收输入的纹理图像;
纹理图像序列生成单元102,用于基于所述纹理图像和纹理图像生成模型生成纹理图像序列;所述纹理图像序列中的首个纹理图像是所接收的纹理图像,针对纹理图像序列中的任意两帧相邻的纹理图像,后一帧纹理图像是所述纹理图像生成模型对前一帧纹理图像的输出结果;
其中,所述纹理图像生成模型是以卷积神经网络对纹理图像样本的输出结果趋于视频流样本中与该纹理图像样本对应的下一帧纹理图像为目标,训练所述卷积神经网络得到的;所述纹理图像样本为所述视频流样本中的纹理图像或所述卷积神经网络对所述视频流样本中的纹理图像的输出结果。
本申请实施例提供的一种动态纹理视频生成装置还包括纹理图像生成模型训练单元。图11为本申请实施例提供的一种纹理图像生成模型训练单元的详细结构示意图,如图11所示,该纹理图像生成模型训练单元包括:
视频流样本获取单元111,用于获取视频流样本,所述视频流样本由至少一个依次排序的纹理图像构成;
纹理图像样本确定单元112,用于确定纹理图像样本;
输出结果确定单元113,用于获取卷积神经网络对纹理图像样本的输出结果;
欧式距离确定单元114,用于确定所述输出结果到所述视频流样本的欧式距离;
递归单元115,用于以最小化所述欧式距离为训练目标,更新所述卷积神经网络的参数,直至递归卷积神经网络达到收敛,得到纹理图像生成模型。
进一步的,本申请实施例提供的一种所述纹理图像生成模型训练单元还包括映射距离确定单元,所述映射距离确定单元,用于:确定所述视频流样本中与所述输出结果对应的下一帧纹理图像;确定所述输出结果到所确定的下一帧纹理图像的映射距离;所述递归单元,具体用于:以最小化所述欧氏距离和映射距离的总和为训练目标,更新所述卷积神经网络的参数,直至递归卷积神经网络达到收敛,得到纹理图像生成模型。
可选的,所述欧式距离确定单元具体用于:确定由所述纹理图像样本与所述输出结果构成的格拉姆矩阵;确定用于表征所述视频流样本的平均格拉姆矩阵;通过最小化所述平均格拉姆矩阵和所述格拉姆矩阵的欧氏距离,构造用于表征所述输出结果到所述视频流样本的欧式距离的第一损失函数;
可选的,所述映射单元具体用于:通过最小化所述输出结果到所确定的下一帧纹理图像的映射距离,构造用于表征所述输出结果到所确定的下一帧纹理图像的映射距离的第二损失函数。
在本申请实施例中,优选的,所述纹理图像生成模型训练单元还包括平均欧式距离确定单元,所述平均欧式距离确定单元,用于基于所确定的分别与每个纹理图像样本对应的欧式距离,确定平均欧式距离;所述递归单元具体用于:以最小化所述平均欧式距离为训练目标,更新所述卷积神经网络的参数,直至递归卷积神经网络达到收敛,得到纹理图像生成模型。
在本申请实施例中,优选的,所述纹理图像生成模型训练单元还包括平均映射距离确定单元,所述平均映射距离确定单元,用于基于所确定的分别与每个所述纹理图像样本对应的映射距离,确定平均映射距离;所述递归单元具体用于以最小化所述平均欧式距离和平均映射距离的总和为训练目标,更新所述卷积神经网络的参数,直至递归卷积神经网络达到收敛,得到纹理图像生成模型。
在本申请实施例中,优选的,所述卷积神经网络包括至少一个用于对视频流的时空信息进行捕获的控制门残差模块,所述控制门残差模块由并联的控制门支路、卷积层支路和加法层构成;所述控制门支路包括卷积模块,所述卷积层支路包括至少一个串联的卷积模块;所述卷积模块包括卷积层、实例化规一层和激活函数层。
本发明实施例提供的动态纹理视频生成装置可应用于服务器;可选的,图12示出了服务器的硬件结构框图,参照图12,服务器的硬件结构可以包括:至少一个处理器121,至少一个通信接口122,至少一个存储器123和至少一个通信总线124;
在本发明实施例中,处理器121、通信接口122、存储器123、通信总线124的数量为至少一个,且处理器121、通信接口122、存储器3通过通信总线124完成相互间的通信;
处理器121可能是一个中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路等;
存储器123可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory)等,例如至少一个磁盘存储器;
其中,存储器存储有程序,处理器可调用存储器存储的程序,所述程序用于:
接收输入的纹理图像;
基于所述纹理图像和纹理图像生成模型生成纹理图像序列;所述纹理图像序列中的首个纹理图像是所接收的纹理图像,针对纹理图像序列中的任意两帧相邻的纹理图像,后一帧纹理图像是所述纹理图像生成模型对前一帧纹理图像的输出结果;
其中,所述纹理图像生成模型是以卷积神经网络对纹理图像样本的输出结果趋于视频流样本中与该纹理图像样本对应的下一帧纹理图像为目标,训练所述卷积神经网络得到的;所述纹理图像样本为所述视频流样本中的纹理图像或所述卷积神经网络对所述视频流样本中的纹理图像的输出结果。
可选的,所述程序的细化功能和扩展功能可参照上文描述。
本发明实施例还提供一种存储介质,该存储介质可存储有适于处理器执行的程序,所述程序用于:
接收输入的纹理图像;
基于所述纹理图像和纹理图像生成模型生成纹理图像序列;所述纹理图像序列中的首个纹理图像是所接收的纹理图像,针对纹理图像序列中的任意两帧相邻的纹理图像,后一帧纹理图像是所述纹理图像生成模型对前一帧纹理图像的输出结果;
其中,所述纹理图像生成模型是以卷积神经网络对纹理图像样本的输出结果趋于视频流样本中与该纹理图像样本对应的下一帧纹理图像为目标,训练所述卷积神经网络得到的;所述纹理图像样本为所述视频流样本中的纹理图像或所述卷积神经网络对所述视频流样本中的纹理图像的输出结果。
可选的,所述程序的细化功能和扩展功能可参照上文描述。
本申请实施例提供一种动态纹理视频生成装置、服务器及存储介质,通过接收输入的纹理图像,基于接收到的纹理图像和纹理图像生成模型生成纹理图像序列(所述纹理图像序列中的首个纹理图像是所接收的纹理图像,针对纹理图像序列中的任意两帧相邻的纹理图像,后一帧纹理图像是所述纹理图像生成模型对前一帧纹理图像的输出结果),使得可根据纹理图像序列生成动态纹理视频,从而实现了对接收到的纹理图像对应的动态纹理视频的生成,在保证生成的动态纹理视频能够从时间和空间上有效表达图像纹理的基础上,提高了动态纹理视频的生成效率。
随着人工智能技术研究和进步,人工智能技术在多个领域展开研究和应用,例如常见的智能家居、智能穿戴设备、虚拟助理、智能音箱、智能营销、无人驾驶、自动驾驶、无人机、机器人、智能医疗、智能客服等,相信随着技术的发展,人工智能技术将在更多的领域得到应用,并发挥越来越重要的价值。
本申请实施例提供的动态纹理视频生成技术可以应用于以上任意领域。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的核心思想或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (10)
1.一种动态纹理视频生成方法,其特征在于,包括:
接收输入的纹理图像;
基于所述纹理图像和纹理图像生成模型生成纹理图像序列;所述纹理图像序列中的首个纹理图像是所接收的纹理图像,针对纹理图像序列中的任意两帧相邻的纹理图像,后一帧纹理图像是所述纹理图像生成模型对前一帧纹理图像的输出结果;
其中,所述纹理图像生成模型是以最小化平均欧式距离和平均映射距离的总和为目标训练卷积神经网络得到的;
所述平均欧式距离的计算方式包括:针对至少一个纹理图像样本中的每个所述纹理图像样本,计算所述卷积神经网络对所述纹理图像样本的输出结果到视频流样本的欧式距离;根据所述至少一个纹理图像样本中各个所述纹理图像样本对应的欧式距离的总和以及所述至少一个纹理图像样本中纹理图像的数量确定平均欧氏距离;
所述平均映射距离根据所述卷积神经网络对所述纹理图像样本的输出结果到所述视频流样本中的与所述输出结果对应的下一帧纹理图像的映射距离确定;
所述纹理图像样本为所述视频流样本中的纹理图像或所述卷积神经网络对所述视频流样本中的纹理图像的输出结果。
2.根据权利要求1所述的方法,其特征在于,还包括:
获取视频流样本,所述视频流样本由至少一个依次排序的纹理图像构成;
确定至少一个纹理图像样本;
获取卷积神经网络对所述纹理图像样本的输出结果;
确定所述输出结果到所述视频流样本的欧式距离;
确定所述视频流样本中与所述输出结果对应的下一帧纹理图像;
确定所述输出结果到所确定的下一帧纹理图像的映射距离;
基于所确定的分别与每个所述纹理图像样本对应的欧式距离,确定平均欧式距离;
基于所确定的分别与每个所述纹理图像样本对应的映射距离,确定平均映射距离;
以最小化所述平均欧式距离和平均映射距离的总和为训练目标,更新所述卷积神经网络的参数,直至递归卷积神经网络达到收敛,得到纹理图像生成模型。
3.根据权利要求2所述的方法,其特征在于,所述确定所述输出结果到所述视频流样本的欧式距离,包括:
确定由所述纹理图像样本与所述输出结果构成的格拉姆矩阵;
确定用于表征所述视频流样本的平均格拉姆矩阵;
通过最小化所述平均格拉姆矩阵和所述格拉姆矩阵的欧氏距离,构造用于表征所述输出结果到所述视频流样本的欧式距离的第一损失函数。
4.根据权利要求2所述的方法,其特征在于,所述确定所述输出结果到所确定的下一帧纹理图像的映射距离,包括:
通过最小化所述输出结果到所确定的下一帧纹理图像的映射距离,构造用于表征所述输出结果到所确定的下一帧纹理图像的映射距离的第二损失函数。
5.根据权利要求1-4任意一项所述的方法,其特征在于,所述卷积神经网络包括至少一个用于对视频流的时空信息进行捕获的控制门残差模块,所述控制门残差模块由并联的控制门支路、卷积层支路和加法层构成;所述控制门支路包括卷积模块,所述卷积层支路包括至少一个串联的卷积模块;所述卷积模块包括卷积层、实例化规一层和激活函数层。
6.一种动态纹理视频生成装置,其特征在于,包括:
纹理图像接收单元,用于接收输入的纹理图像;
纹理图像序列生成单元,用于基于所述纹理图像和纹理图像生成模型生成纹理图像序列;所述纹理图像序列中的首个纹理图像是所接收的纹理图像,针对纹理图像序列中的任意两帧相邻的纹理图像,后一帧纹理图像是所述纹理图像生成模型对前一帧纹理图像的输出结果;
其中,所述纹理图像生成模型是以最小化平均欧式距离和平均映射距离的总和为目标训练卷积神经网络得到的;
所述平均欧式距离的计算方式包括:针对至少一个纹理图像样本中的每个所述纹理图像样本,计算所述卷积神经网络对所述纹理图像样本的输出结果到视频流样本的欧式距离;根据所述至少一个纹理图像样本中各个所述纹理图像样本对应的欧式距离的总和以及所述至少一个纹理图像样本中纹理图像的数量确定平均欧氏距离;
所述平均映射距离根据所述卷积神经网络对所述纹理图像样本的输出结果到所述视频流样本中的与所述输出结果对应的下一帧纹理图像的映射距离确定;
所述纹理图像样本为所述视频流样本中的纹理图像或所述卷积神经网络对所述视频流样本中的纹理图像的输出结果。
7.根据权利要求6所述的装置,其特征在于,还包括纹理图像生成模型训练单元,所述纹理图像生成模型训练单元,包括:
视频流样本获取单元,用于获取视频流样本,所述视频流样本由至少一个依次排序的纹理图像构成;
纹理图像样本确定单元,用于确定至少一个纹理图像样本;
输出结果确定单元,用于获取卷积神经网络对所述纹理图像样本的输出结果;
欧式距离确定单元,用于确定所述输出结果到所述视频流样本的欧式距离;
映射距离确定单元,用于确定所述视频流样本中与所述输出结果对应的下一帧纹理图像;确定所述输出结果到所确定的下一帧纹理图像的映射距离;
平均映射距离确定单元,用于基于所确定的分别与每个所述纹理图像样本对应的映射距离,确定平均映射距离;
平均欧式距离确定单元,用于基于所确定的分别与每个所述纹理图像样本对应的欧式距离,确定平均欧式距离;
递归单元,用于以最小化所述平均欧式距离和所述平均映射距离的总和为训练目标,更新所述卷积神经网络的参数,直至递归卷积神经网络达到收敛,得到纹理图像生成模型。
8.根据权利要求6-7任意一项所述的装置,其特征在于,所述卷积神经网络包括至少一个用于对视频流的时空信息进行捕获的控制门残差模块,所述控制门残差模块由并联的控制门支路、卷积层支路和加法层构成;所述控制门支路包括卷积模块,所述卷积层支路包括至少一个串联的卷积模块;所述卷积模块包括卷积层、实例化规一层和激活函数层。
9.一种服务器,其特征在于,包括:至少一个存储器和至少一个处理器;所述存储器存储有程序,所述处理器调用所述存储器存储的程序,所述程序用于:
接收输入的纹理图像;
基于所述纹理图像和纹理图像生成模型生成纹理图像序列;所述纹理图像序列中的首个纹理图像是所接收的纹理图像,针对纹理图像序列中的任意两帧相邻的纹理图像,后一帧纹理图像是所述纹理图像生成模型对前一帧纹理图像的输出结果;
其中,所述纹理图像生成模型是以最小化平均欧式距离和平均映射距离的总和为目标训练所述卷积神经网络得到的;
所述平均欧式距离的计算方式包括:针对至少一个纹理图像样本中的每个所述纹理图像样本,计算所述卷积神经网络对所述纹理图像样本的输出结果到视频流样本的欧式距离;根据所述至少一个纹理图像样本中各个所述纹理图像样本对应的欧式距离的总和以及所述至少一个纹理图像样本中纹理图像的数量确定平均欧氏距离;
所述平均映射距离根据所述卷积神经网络对所述纹理图像样本的输出结果到所述视频流样本中的与所述输出结果对应的下一帧纹理图像的映射距离确定;
所述纹理图像样本为所述视频流样本中的纹理图像或所述卷积神经网络对所述视频流样本中的纹理图像的输出结果。
10.一种存储介质,其特征在于,所述存储介质存储有适于处理器执行的程序,所述程序用于:
接收输入的纹理图像;
基于所述纹理图像和纹理图像生成模型生成纹理图像序列;所述纹理图像序列中的首个纹理图像是所接收的纹理图像,针对纹理图像序列中的任意两帧相邻的纹理图像,后一帧纹理图像是所述纹理图像生成模型对前一帧纹理图像的输出结果;
其中,所述纹理图像生成模型是以最小化平均欧式距离和平均映射距离的总和为目标训练所述卷积神经网络得到的;
所述平均欧式距离的计算方式包括:针对至少一个纹理图像样本中的每个所述纹理图像样本,计算所述卷积神经网络对所述纹理图像样本的输出结果到视频流样本的欧式距离;根据所述至少一个纹理图像样本中各个所述纹理图像样本对应的欧式距离的总和以及所述至少一个纹理图像样本中纹理图像的数量确定平均欧氏距离;
所述平均映射距离根据所述卷积神经网络对所述纹理图像样本的输出结果到所述视频流样本中的与所述输出结果对应的下一帧纹理图像的映射距离确定;所述纹理图像样本为所述视频流样本中的纹理图像或所述卷积神经网络对所述视频流样本中的纹理图像的输出结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910838615.4A CN110458919B (zh) | 2018-02-07 | 2018-02-07 | 一种动态纹理视频生成方法、装置、服务器及存储介质 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810123812.3A CN110120085B (zh) | 2018-02-07 | 2018-02-07 | 一种动态纹理视频生成方法、装置、服务器及存储介质 |
CN201910838615.4A CN110458919B (zh) | 2018-02-07 | 2018-02-07 | 一种动态纹理视频生成方法、装置、服务器及存储介质 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810123812.3A Division CN110120085B (zh) | 2018-02-07 | 2018-02-07 | 一种动态纹理视频生成方法、装置、服务器及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110458919A CN110458919A (zh) | 2019-11-15 |
CN110458919B true CN110458919B (zh) | 2022-11-08 |
Family
ID=67520124
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910838615.4A Active CN110458919B (zh) | 2018-02-07 | 2018-02-07 | 一种动态纹理视频生成方法、装置、服务器及存储介质 |
CN201910838614.XA Active CN110533749B (zh) | 2018-02-07 | 2018-02-07 | 一种动态纹理视频生成方法、装置、服务器及存储介质 |
CN201910838616.9A Active CN110517335B (zh) | 2018-02-07 | 2018-02-07 | 一种动态纹理视频生成方法、装置、服务器及存储介质 |
CN201810123812.3A Active CN110120085B (zh) | 2018-02-07 | 2018-02-07 | 一种动态纹理视频生成方法、装置、服务器及存储介质 |
Family Applications After (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910838614.XA Active CN110533749B (zh) | 2018-02-07 | 2018-02-07 | 一种动态纹理视频生成方法、装置、服务器及存储介质 |
CN201910838616.9A Active CN110517335B (zh) | 2018-02-07 | 2018-02-07 | 一种动态纹理视频生成方法、装置、服务器及存储介质 |
CN201810123812.3A Active CN110120085B (zh) | 2018-02-07 | 2018-02-07 | 一种动态纹理视频生成方法、装置、服务器及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (4) | CN110458919B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111882048A (zh) * | 2020-09-28 | 2020-11-03 | 深圳追一科技有限公司 | 一种神经网络结构搜索方法及相关设备 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5774125A (en) * | 1993-11-18 | 1998-06-30 | Sony Corporation | Texture mapping method in which 3-D image data is transformed into 2-D data and mapped onto a surface of an object for display |
KR100612852B1 (ko) * | 2003-07-18 | 2006-08-14 | 삼성전자주식회사 | GoF/GoP의 질감 표현 방법과, 이를 이용한GoF/GoP 검색 방법 및 장치 |
EP1498848A3 (en) * | 2003-07-18 | 2007-03-07 | Samsung Electronics Co., Ltd. | GoF/GoP texture description, and texture-based GoF/GoP retrieval |
US8442309B2 (en) * | 2009-06-04 | 2013-05-14 | Honda Motor Co., Ltd. | Semantic scene segmentation using random multinomial logit (RML) |
CN101710945A (zh) * | 2009-11-30 | 2010-05-19 | 上海交通大学 | 基于粒子纹理的流体视频合成方法 |
US8811477B2 (en) * | 2010-09-01 | 2014-08-19 | Electronics And Telecommunications Research Institute | Video processing method and apparatus based on multiple texture images using video excitation signals |
KR20140147729A (ko) * | 2013-06-20 | 2014-12-30 | (주)로딕스 | 렌더링 시스템에서 스트림 영상 기반의 동적 텍스처링을 위한 장치 및 그 방법 |
US9355464B2 (en) * | 2014-05-30 | 2016-05-31 | Apple Inc. | Dynamic generation of texture atlases |
CN107463949B (zh) * | 2017-07-14 | 2020-02-21 | 北京协同创新研究院 | 一种视频动作分类的处理方法及装置 |
CN107274381A (zh) * | 2017-07-20 | 2017-10-20 | 深圳市唯特视科技有限公司 | 一种基于双识别流卷积网络的动态纹理合成方法 |
CN107578455B (zh) * | 2017-09-02 | 2019-11-01 | 西安电子科技大学 | 基于卷积神经网络的任意尺寸样本纹理合成方法 |
CN107578017B (zh) * | 2017-09-08 | 2020-11-17 | 百度在线网络技术(北京)有限公司 | 用于生成图像的方法和装置 |
-
2018
- 2018-02-07 CN CN201910838615.4A patent/CN110458919B/zh active Active
- 2018-02-07 CN CN201910838614.XA patent/CN110533749B/zh active Active
- 2018-02-07 CN CN201910838616.9A patent/CN110517335B/zh active Active
- 2018-02-07 CN CN201810123812.3A patent/CN110120085B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN110517335B (zh) | 2022-11-11 |
CN110120085B (zh) | 2023-03-31 |
CN110533749A (zh) | 2019-12-03 |
CN110120085A (zh) | 2019-08-13 |
CN110533749B (zh) | 2022-11-11 |
CN110458919A (zh) | 2019-11-15 |
CN110517335A (zh) | 2019-11-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110659723B (zh) | 基于人工智能的数据处理方法、装置、介质及电子设备 | |
CN110472002B (zh) | 一种文本相似度获取方法和装置 | |
CN113435520A (zh) | 神经网络的训练方法、装置、设备及计算机可读存储介质 | |
CN110781413A (zh) | 兴趣点确定方法及装置、存储介质、电子设备 | |
CN113066034A (zh) | 人脸图像的修复方法与装置、修复模型、介质和设备 | |
CN113761153A (zh) | 基于图片的问答处理方法、装置、可读介质及电子设备 | |
CN112132770A (zh) | 图像修复的方法、装置、计算机可读介质及电子设备 | |
CN115205150A (zh) | 图像的去模糊方法、装置、设备、介质及计算机程序产品 | |
CN111833360B (zh) | 一种图像处理方法、装置、设备以及计算机可读存储介质 | |
CN114612902A (zh) | 图像语义分割方法、装置、设备、存储介质及程序产品 | |
CN113570685A (zh) | 图像处理方法及装置、电子设备、存储介质 | |
CN110807379A (zh) | 一种语义识别方法、装置、以及计算机存储介质 | |
CN113627163A (zh) | 一种注意力模型、特征提取方法及相关装置 | |
CN113158970B (zh) | 一种基于快慢双流图卷积神经网络的动作识别方法与系统 | |
CN110458919B (zh) | 一种动态纹理视频生成方法、装置、服务器及存储介质 | |
CN113793341A (zh) | 一种自动驾驶场景语义分割方法、电子设备及可读介质 | |
CN111914809A (zh) | 目标对象定位方法、图像处理方法、装置和计算机设备 | |
CN113537267A (zh) | 对抗样本的生成方法和装置、存储介质及电子设备 | |
CN113516972A (zh) | 语音识别方法、装置、计算机设备及存储介质 | |
CN112668608A (zh) | 一种图像识别方法、装置、电子设备及存储介质 | |
Wollowski et al. | Constructing mutual context in human-robot collaborative problem solving with multimodal input | |
CN114328802A (zh) | 对象处理方法、装置、设备、存储介质和计算机程序产品 | |
CN113705234A (zh) | 命名实体识别方法、装置、计算机可读介质及电子设备 | |
CN117011857A (zh) | 一种语义信息识别方法、装置、电子设备及存储介质 | |
CN116977543A (zh) | 三维重建方法、装置、设备、存储介质及程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |