CN111898701B - 模型训练、帧图像生成、插帧方法、装置、设备及介质 - Google Patents
模型训练、帧图像生成、插帧方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN111898701B CN111898701B CN202010816094.5A CN202010816094A CN111898701B CN 111898701 B CN111898701 B CN 111898701B CN 202010816094 A CN202010816094 A CN 202010816094A CN 111898701 B CN111898701 B CN 111898701B
- Authority
- CN
- China
- Prior art keywords
- frame image
- sample
- module
- target
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种模型训练、帧图像生成、插帧方法、装置、设备及介质,涉及模型训练技术领域。应用于神经网络模型,采用第一特征提取模块,提取样本前后帧图像的局部特征;采用第二特征提取模块,提取样本前后帧图像的非局部特征;采用帧合成模块,根据局部特征和非局部特征的合成特征,生成样本中间帧图像;根据样本中间帧图像和对应的标签中间帧图像,对神经网络模型进行训练,得到训练后的神经网络模型。基于该方式所训练得到的神经网络模型,扩大了感受野,增强了对前后帧图像中存在较大变化的学习能力,基于该训练好的神经网络模型对前后帧图像处理时,使得生成的中间帧图像更加准确。
Description
技术领域
本发明涉及模型训练技术领域,具体而言,涉及一种模型训练、帧图像生成、插帧方法、装置、设备及介质。
背景技术
帧速率是指在显示器上显示连续图像的频率,在一定范围内当帧速率越高,画面就越流畅。由于成本问题、硬件限制、网络传输等不可抗力,通常只能获得低帧速率的画面,因此,可以通过插帧的方式在现有帧之间生成中间帧,使得画面更加流畅。
相关技术中,通过核估计的方式,对前帧图像和后帧图像中每个像素训练一个卷积核,通过若干独立的卷积核与前后帧进行卷积操作,生成中间帧图像。
但是,相关技术中,采用的核估计方式,基于卷积核对图像的局部信息进行处理,当前帧图像和后帧图像变化较大的时,容易造成生成的中间帧图像不准确的问题。
发明内容
本发明的目的在于,针对上述现有技术中的不足,提供一种模型训练、帧图像生成、插帧方法、装置、设备及介质,以便解决相关技术中,采用的核估计方式,基于卷积核对图像的局部信息进行处理,当前帧图像和后帧图像变化较大的时,容易造成生成的中间帧图像不准确的问题。
为实现上述目的,本发明实施例采用的技术方案如下:
第一方面,本发明实施例提供了一种模型训练方法,应用于神经网络模型,所述神经网络模型包括:第一特征提取模块、多个第二特征提取模块和帧合成模块,包括:
采用各所述第一特征提取模块,提取样本前后帧图像的局部特征;
采用所述第二特征提取模块,提取所述样本前后帧图像的非局部特征;
采用所述帧合成模块,根据所述局部特征和所述非局部特征的合成特征,生成样本中间帧图像;
根据所述样本中间帧图像和对应的标签中间帧图像,对所述神经网络模型进行训练,得到训练后的神经网络模型。
可选的,所述第二特征提取模块包括:依次连接的多组第一子模块、自注意力模块、多组第二子模块和上采样层,其中,每组所述第一子模块包括:降采样层和残差模块;每组所述第二子模块包括:所述上采样层和所述残差模块;所述采用所述第二特征提取模块,提取所述样本前后帧图像的非局部特征,包括:
采用多组所述第一子模块,缩小所述样本前后帧图像的尺寸,得到缩小后的特征图;
采用所述自注意力模块,对所述缩小后的特征图进行加权,得到目标特征图,所述目标特征图包含有所述样本前后帧图像的非局部特征;
采用多组所述第二子模块和所述上采样层,放大所述目标特征图。
可选的,所述自注意力模块包括:第一卷积层、第二卷积层、第三卷积层、第四卷积层;所述采用所述自注意力模块,对缩小后的所述样本前后帧图像进行加权,得到特征图,包括:
分别采用所述第一卷积层、第二卷积层、第三卷积层对所述缩小后的特征图进行维度调整,得到第一调整结果、第二调整结果、第三调整结果;
根据所述第一调整结果和第二调整结果,确定权重参数;
根据所述权重参数和所述第三调整结果进行加权,得到加权结果;
采用所述第四卷积层对所述加权结果进行维度恢复,得到维度恢复特征,并根据缩小后的所述样本前后帧图像和所述维度恢复特征,确定所述目标特征图。
可选的,多个所述第一特征提取模块包括:光流估计模块、深度估计模块、核估计模块;所述采用各所述第一特征提取模块,提取样本前后帧图像的局部特征,包括:
采用所述光流估计模块,计算所述样本前后帧图像的前向光流和后向光流,所述前向光流为样本前帧图像至样本后帧图像的像素位移,所述后向光流为所述样本后帧图像至所述样本前帧图像的像素位移;
采用所述深度估计模块,确定所述样本前后帧图像中对象间的位置关系;
采用所述核估计模块,生成所述样本前后帧图像中各像素的卷积核;所述局部特征包括:所述前向光流、所述后向光流、所述对象间的位置关系、所述各像素的卷积核。
可选的,所述神经网络模型包括深度感知投影模块,在所述采用所述帧合成模块,根据所述局部特征和所述非局部特征的合成特征,生成样本中间帧图像之前,所述方法还包括:
采用所述深度感知投影模块,根据所述对象间的位置关系,重新计算所述前向光流和所述后向光流,得到目标前向光流和目标后向光流;
根据所述样本前后帧图像、所述目标前向光流、所述目标后向光流、所述非局部特征、所述各像素的卷积核确定所述合成特征。
可选的,所述神经网络模型包括自适应变形层、特征连接层,根据所述样本前后帧图像、所述目标前向光流、所述目标后向光流、所述非局部特征、所述各像素的卷积核确定所述合成特征,包括:
采用所述自适应变形层,根据所述各像素的卷积核、所述前向光流和所述后向光流,对所述样本前后帧图像进行采样,得到采样结果;
采用所述自适应变形层,对所述样本前后帧图像、所述目标前向光流、所述目标后向光流、所述非局部特征进行变形处理,得到多个变形结果;
采用所述特征连接层,对所述采样结果和多个所述变形结果进行连接,得到所述合成特征。
可选的,所述帧合成模块包括依次连接的多个残差模块,所述采用所述帧合成模块,根据所述局部特征和所述非局部特征的合成特征,生成样本中间帧图像,包括:
采用多个所述残差模块,根据所述局部特征和所述非局部特征的合成特征,生成所述样本中间帧图像。
可选的,根据所述样本中间帧图像和对应的标签中间帧图像,对所述神经网络模型进行训练,包括:
根据所述样本中间帧图像和对应的标签中间帧图像,确定初始神经网络模型的损失函数值;
根据所述损失函数值,对所述神经网络模型的参数进行调节,直至调节后的神经网络模型的损失函数值收敛。
可选的,所述根据所述样本中间帧图像和对应的标签中间帧图像,确定初始神经网络模型的损失函数值,包括:
根据所述样本中间帧图像和对应的标签中间帧图像,确定初始神经网络模型的像素损失和对抗损失,所述像素损失用于表示所述样本中间帧图像和对应的标签中间帧图像之间的相似度;
根据所述像素损失和所述对抗损失,确定所述神经网络模型的损失函数值。
可选的,所述根据所述样本中间帧图像和对应的标签中间帧图像,确定初始神经网络模型的对抗损失,包括:
采用判别器,确定所述样本中间帧图像比所述标签中间帧图像真实的概率,以及所述标签中间帧图像比所述样本中间帧图像虚假的概率;
根据所述真实的概率和所述虚假的概率,确定所述对抗损失。
第二方面,本发明实施例还提供了一种视频插帧方法,所述方法包括:
从视频中获取目标前后帧图像;
采用预设的神经网络模型对所述目标前后帧图像进行处理,得到目标中间帧图像;其中,所述神经网络模型为采用第一方面任一所述的训练方法得到的所述神经网络模型;
根据所述目标中间帧图像对所述目标前后帧图像进行插帧处理。
可选的,所述从视频中获取目标前后帧图像,包括:
检测所述视频中的至少一个重复帧标识;
根据所述重复帧标识从所述视频中的多个帧图像中,确定所述目标前后帧图像。
可选的,所述检测所述视频中的至少一个重复帧标识,包括:
计算所述视频中的相邻两个帧图像之间的像素损失,所述相邻两个帧图像包括:前一帧图像和后一帧图像;
若所述像素损失小于或者等于预设阈值,则将所述后一帧图像的标识确定为所述重复帧标识。
可选的,所述根据所述目标中间帧图像对所述目标前后帧图像进行插帧处理,包括:
将所述重复帧标识对应的帧图像,替换为所述目标中间帧图像。
第三方面,本发明实施例还提供了一种模型训练装置,应用于神经网络模型,所述神经网络模型包括:第一特征提取模块、多个第二特征提取模块和帧合成模块,包括:
提取模块,用于采用各所述第一特征提取模块,提取样本前后帧图像的局部特征;采用所述第二特征提取模块,提取所述样本前后帧图像的非局部特征;
生成模块,用于采用所述帧合成模块,根据所述局部特征和所述非局部特征的合成特征,生成样本中间帧图像;
训练模块,用于根据所述样本中间帧图像和对应的标签中间帧图像,对所述神经网络模型进行训练,得到训练后的神经网络模型。
可选的,所述第二特征提取模块包括:依次连接的多组第一子模块、自注意力模块、多组第二子模块和上采样层,其中,每组所述第一子模块包括:降采样层和残差模块;每组所述第二子模块包括:所述上采样层和所述残差模块;所述提取模块,还用于采用多组所述第一子模块,缩小所述样本前后帧图像的尺寸,得到缩小后的特征图;采用所述自注意力模块,对所述缩小后的特征图进行加权,得到目标特征图,所述目标特征图包含有所述样本前后帧图像的非局部特征;采用多组所述第二子模块和所述上采样层,放大所述目标特征图。
可选的,所述自注意力模块包括:第一卷积层、第二卷积层、第三卷积层、第四卷积层;所述提取模块,还用于分别采用所述第一卷积层、第二卷积层、第三卷积层对所述缩小后的特征图进行维度调整,得到第一调整结果、第二调整结果、第三调整结果;根据所述第一调整结果和第二调整结果,确定权重参数;根据所述权重参数和所述第三调整结果进行加权,得到加权结果;采用所述第四卷积层对所述加权结果进行维度恢复,得到维度恢复特征,并根据缩小后的所述样本前后帧图像和所述维度恢复特征,确定所述目标特征图。
可选的,多个所述第一特征提取模块包括:光流估计模块、深度估计模块、核估计模块;所述提取模块,还用于采用所述光流估计模块,计算所述样本前后帧图像的前向光流和后向光流,所述前向光流为样本前帧图像至样本后帧图像的像素位移,所述后向光流为所述样本后帧图像至所述样本前帧图像的像素位移;采用所述深度估计模块,确定所述样本前后帧图像中对象间的位置关系;采用所述核估计模块,生成所述样本前后帧图像中各像素的卷积核;所述局部特征包括:所述前向光流、所述后向光流、所述对象间的位置关系、所述各像素的卷积核。
可选的,所述神经网络模型包括深度感知投影模块,在所述采用所述帧合成模块,所述装置还包括:
计算模块,用于采用所述深度感知投影模块,根据所述对象间的位置关系,重新计算所述前向光流和所述后向光流,得到目标前向光流和目标后向光流;
确定模块,用于根据所述样本前后帧图像、所述目标前向光流、所述目标后向光流、所述非局部特征、所述各像素的卷积核确定所述合成特征。
可选的,所述神经网络模型包括自适应变形层、特征连接层,所述确定模块,还用于采用所述自适应变形层,根据所述各像素的卷积核、所述前向光流和所述后向光流,对所述样本前后帧图像进行采样,得到采样结果;采用所述自适应变形层,对所述样本前后帧图像、所述目标前向光流、所述目标后向光流、所述非局部特征进行变形处理,得到多个变形结果;采用所述特征连接层,对所述采样结果和多个所述变形结果进行连接,得到所述合成特征。
可选的,所述帧合成模块包括依次连接的多个残差模块,所述生成模块,还用于采用多个所述残差模块,根据所述局部特征和所述非局部特征的合成特征,生成所述样本中间帧图像。
可选的,所述训练模块,还用于根据所述样本中间帧图像和对应的标签中间帧图像,确定初始神经网络模型的损失函数值;根据所述损失函数值,对所述神经网络模型的参数进行调节,直至调节后的神经网络模型的损失函数值收敛。
可选的,所述训练模块,还用于根据所述样本中间帧图像和对应的标签中间帧图像,确定初始神经网络模型的像素损失和对抗损失,所述像素损失用于表示所述样本中间帧图像和对应的标签中间帧图像之间的相似度;
根据所述像素损失和所述对抗损失,确定所述神经网络模型的损失函数值。
可选的,所述训练模块,还用于采用判别器,确定所述样本中间帧图像比所述标签中间帧图像真实的概率,以及所述标签中间帧图像比所述样本中间帧图像虚假的概率;根据所述真实的概率和所述虚假的概率,确定所述对抗损失。
第四方面,本发明实施例还提供了一种视频插帧装置,所述装置包括:
获取模块,用于从视频中获取目标前后帧图像;采用预设的神经网络模型对所述目标前后帧图像进行处理,得到目标中间帧图像;其中,所述神经网络模型为采用第一方面任一所述的训练方法得到的所述神经网络模型;
处理模块,用于根据所述目标中间帧图像对所述目标前后帧图像进行插帧处理。
可选的,所述获取模块,还用于检测所述视频中的至少一个重复帧标识;
根据所述重复帧标识从所述视频中的多个帧图像中,确定所述目标前后帧图像。
可选的,所述获取模块,还用于计算所述视频中的相邻两个帧图像之间的像素损失,所述相邻两个帧图像包括:前一帧图像和后一帧图像;若所述像素损失小于或者等于预设阈值,则将所述后一帧图像的标识确定为所述重复帧标识。
可选的,所述处理模块,还用于将所述重复帧标识对应的帧图像,替换为所述目标中间帧图像。
第五方面,本发明实施例还提供了一种电子设备,包括:存储器和处理器,所述存储器存储有所述处理器可执行的计算机程序,所述处理器执行所述计算机程序时实现上述第一方面和第二方面任一项所述的方法。
第六方面,本发明实施例还提供了一种存储介质,所述存储介质上存储有计算机程序,所述计算机程序被读取并执行时,实现上述第一方面和第二方面任一项所述的方法。
本发明的有益效果是:本申请实施例提供一种模型训练方法,应用于神经网络模型,采用第一特征提取模块,提取样本前后帧图像的局部特征;采用第二特征提取模块,提取样本前后帧图像的非局部特征;采用帧合成模块,根据局部特征和非局部特征的合成特征,生成样本中间帧图像;根据样本中间帧图像和对应的标签中间帧图像,对神经网络模型进行训练,得到训练后的神经网络模型。在提取样本前后帧图像的局部特征的基础上,还通过第二特征提取模块提取非局部特征,基于该方式所训练得到的神经网络模型,扩大了感受野,增强了对前后帧图像中存在较大变化的学习能力,基于该训练好的神经网络模型对变化较大的前后帧图像进行处理时,可以使得生成的中间帧图像更加准确。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明实施例提供的一种模型训练方法的流程示意图;
图2为本发明实施例提供的第二特征提取模块的结构示意图;
图3为本发明实施例提供的一种模型训练方法的流程示意图;
图4为本发明实施例提供的自注意力模块的处理示意图;
图5为本发明实施例提供的一种模型训练方法的流程示意图;
图6为本发明实施例提供的神经网络模型的生成器的结构示意图;
图7为本发明实施例提供的一种模型训练方法的流程示意图;
图8为本发明实施例提供的一种模型训练方法的流程示意图;
图9为本发明实施例提供的一种模型训练方法的流程示意图;
图10为本发明实施例提供的一种模型训练方法的流程示意图;
图11为本发明实施例提供的一种模型训练方法的流程示意图;
图12为本发明实施例提供的一种模型训练方法的流程示意图;
图13为本发明实施例提供的一种视频插帧方法的流程示意图;
图14为本发明实施例提供的一种模型训练装置的结构示意图;
图15为本发明实施例提供的一种视频插帧装置的结构示意图;
图16为本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。
因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
此外,在不冲突的情况下,本申请的实施例中的特征可以相互结合。
帧速率是指在显示器上显示连续图像的频率,在一定范围内当帧速率越高,画面就越流畅。由于成本问题、硬件限制、网络传输等不可抗力,通常只能获得低帧速率的画面,因此,可以通过插帧的方式在现有帧之间生成中间帧,使得视频的画面更加流畅。
相关技术中,通过核估计的方式,对前帧图像和后帧图像中每个像素训练一个卷积核,通过若干独立的卷积核与前后帧进行卷积操作,生成中间帧图像。但是,相关技术中,采用的核估计方式,基于卷积核对图像的局部信息进行处理,当前帧图像和后帧图像变化较大的时,容易造成生成的中间帧图像不准确的问题。
本申请实施例提供一种模型训练方法,在提取样本前后帧图像的局部特征的基础上,还通过第二特征提取模块提取非局部特征,基于该方式所训练得到的神经网络模型,扩大了感受野,增强了对前后帧图像中存在较大变化的学习能力,使用该训练好的神经网络模型对变化较大的前后帧图像进行处理时,可以使得生成的中间帧图像更加准确,从而解决了相关技术中所存在的问题。
下述对本申请实施例所涉及的名词进行解释说明。
神经网络:由若干个神经元及其之间的连接(神经网络的参数)组成。卷积神经网络是神经网络的一种,它将若干个神经元组织成一个卷积层,数据从输入开始,靠神经元之间的连接,在若干卷积层中顺序传播,直至最终输出。生成对抗网络具有两个卷积神经网络,分别称为生成器和判别器,它们彼此之间进行博弈,交替迭代优化。
视频插帧:一种视频处理技术,即通过插值的方式在现有帧之间生成中间动画帧,使动画更流畅,以弥补运动模糊,生成“假”慢动作效果。该技术可广泛应用于影视后期处理、游戏动画生成以及活动推广宣传中,或者用于清晰化视频中模糊的帧。
自注意力机制:自注意力机制是注意力机制的改进,其减少了对外部信息的依赖,更擅长捕捉数据或特征的内部相关性。
本申请实施例提供的一种模型训练方法,其执行主体可以为电子设备,该电子设备可以为终端,也可以为服务器,还可以其它类型的处理设备,本申请实施例对此不进行具体限制。当电子设备为终端时,终端可以为台式电脑、笔记本电脑等计算机设备,下述以终端为执行主体,对本申请实施例提供的模型训练方法进行解释说明。
图1为本发明实施例提供的一种模型训练方法的流程示意图,应用于神经网络模型,神经网络模型包括:第一特征提取模块、多个第二特征提取模块和帧合成模块,如图1所示,该方法可以包括:
S101、采用各第一特征提取模块,提取样本前后帧图像的局部特征。
其中,样本前后帧图像可以包括:样本前帧图像和样本后帧图像。样本前后帧图像均可以为颜色通道的图像,该颜色通道可以为RGB(Red,Green,Blue,红色,绿色,蓝色)三个通道,样本前帧图像和样本后帧图像可以表示RGB三个通道中各个通道的像素信息。
在一些实施方式中,每个第一特征提取模块,所提取的样本前后帧图像的局部特征可以不同。样本前后帧图像的局部特征可以表示样本前后帧图像中各像素和/或各区域的局部变化。
S102、采用第二特征提取模块,提取样本前后帧图像的非局部特征。
其中,该第二特征提取模块中引入了自注意力机制,即该第二特征提取模块为基于自注意力机制的特征提取模块。本申请实施例提供的第二特征提取模块包含一个神经网络。
在本申请实施例中,采用第二特征提取模块,提取样本前后帧图像的非局部特征,可以扩大神经网络的感受野,使得在合成中间帧图像时,能够感知更大乃至全局的特征,优化模型对于前后帧图像中可能存在的较大动作变化的能力,提高了神经网络模型对前后帧图像汇总存在较大动作变化的处理能力。
S103、采用帧合成模块,根据局部特征和非局部特征的合成特征,生成样本中间帧图像。
其中,样本中间帧图像也具有RGB三个通道,帧合成模块也可以称为帧合成网络,帧合成模块可以由多个卷积层组成。
在一些实施方式中,终端可以对部分局部特征进行处理,得到第一处理结果,对部分局部特征和非局部特征进行处理,得到第二处理结果,继而基于第一处理结果和第二处理结果得到合成特征,继而由多个卷积层组成的帧合成网络可以生成样本中间帧图像。
S104、根据样本中间帧图像和对应的标签中间帧图像,对神经网络模型进行训练,得到训练后的神经网络模型。
其中,标签中间帧图像作为标签,可以引导神经网络模型生成质量接近的中间帧图像。
在一种可能的实施中,终端可以根据样本中间帧图像和对应的标签中间帧图像,对第一特征提取模块和第二特征提取模块进行协同训练,对每个第一特征提取模块、第二特征提取模块、帧合成模块中的参数进行优化,实现对神经网络模型的训练,得到训练后的神经网络模型。
在实际应用中,终端可以将待处理前后帧图像,即相邻的两帧图像,输入上述训练后的神经网络模型中,该神经网络模型可以对该待处理前后帧图像进行处理,得到中间帧图像。训练后的神经网络模型可以广泛应用于影视后期处理、游戏动画生成以及活动推广宣传中,或者用于清晰化视频中模糊的帧中。
需要说明的是,训练后的神经网络模型可以关注待处理前后帧图像的全局信息,当待处理前后帧图像变化较大时,训练后的神经网络模型可以准确的输出中间帧图像。
综上所述,本申请实施例提供一种模型训练方法,应用于神经网络模型,采用第一特征提取模块,提取样本前后帧图像的局部特征;采用第二特征提取模块,提取样本前后帧图像的非局部特征;采用帧合成模块,根据局部特征和非局部特征的合成特征,生成样本中间帧图像;根据样本中间帧图像和对应的标签中间帧图像,对神经网络模型进行训练,得到训练后的神经网络模型。在提取样本前后帧图像的局部特征的基础上,还通过第二特征提取模块提取非局部特征,基于该方式所训练得到的神经网络模型,扩大了感受野,增强了对前后帧图像中存在较大变化的学习能力,基于该训练好的神经网络模型对变化较大的前后帧图像进行处理时,可以使得生成的中间帧图像更加准确。
可选的,图2为本发明实施例提供的第二特征提取模块的结构示意图,如图2所示,上述第二特征提取模块包括:依次连接的多组第一子模块、自注意力模块205、多组第二子模块和上采样层,其中,每组第一子模块包括:降采样层202和残差模块203;每组第二子模块包括:上采样层204和残差模块203。
图3为本发明实施例提供的一种模型训练方法的流程示意图,如图3所示,上述S102的过程,可以包括:
S301、采用多组第一子模块,缩小样本前后帧图像的尺寸,得到缩小后的特征图。
在一些实施方式中,样本前帧图像和样本后帧图像可以通过通道进行连接,样本前帧图像和样本后帧图像各有3通道图像,进行通道连接201后可以得到6通道图像。终端可以采用多组第一子模块,将样本前后帧图像缩小为预设倍数。不同的预设倍数对应的多组第一子模块的结构和/或参数不同。如图2所示,该通道连接201、多组第一子模块、自注意力模块205、多组多组第二子模块和上采样层204依次顺序连接。
例如,如图2所示,多组第一子模块的数量可以为4,每组第一子模块可以包括:降采样层202和残差模块203,该降采样层202可以为2倍的平均池化层,即每2*2个像素,取4个像素的平均值作为输出(1个像素)则可以将通道中的特征图宽度和高度缩小为原来的二分之一。
当然,多组第一子模块还可以为其他结构或者参数,以将通道中的特诊图缩小为便于自注意力模块进行处理的其他倍数,本申请实施例对此不进行具体限制。例如,可以缩小为原来的三分之一,或者四分之一。
S302、采用自注意力模块,对缩小后的特征图进行加权,得到目标特征图,目标特征图包含有样本前后帧图像的非局部特征。
其中,自注意力模块可以由多个卷积层构成。自注意力模块通过在空间维度上对整个特征图进行加权,打破了卷积核的局部性。
在本申请实施例中,终端可以采用自注意力模块,对缩小后的整个特征图分别在空间维度上进行加权,打破了卷积核的局部性,增加了神经网络的学习能力,以使神经网络可以自适应的关注该缩小后的特征图中的重要部分,得到目标特征图,即非局部特征图。
S303、采用多组第二子模块和上采样层,放大目标特征图。
其中,上采样层包括双线性插值操作与一个卷积层。
在一种可能的实施方式中,缩小的倍数和放大倍数是相对应的,放大后的目标特征图应当与通道中所输入的特征图大小相同。根据缩小倍数设定相应的放大倍数,多组第二子模块和上采样层的结构和/或参数也可以根据预设放大倍数进行设定。
例如,如图2所示,多组第二子模块的数量可以为3,上采样层的数量可以为1,每组第二子模块可以包括:上采样层和残差模块,目标特征图依次通过3组第二子模块、上采样层,得到目标特征图。上采样层中的双线性插值可以将输入特征图的宽度与高度放大为原来的两倍,并通过上采样层中的卷积层对放大的结果进行微调,继而可以得到放大后的目标特征图。
在本申请实施例中,残差模块可以由两个顺序连接的卷积层组成。
综上所述,采用多组第一子模块,获取缩小后的特征图,可以便于自注意力模块对整个特征图的加权,采用自注意力模块获取目标特征图,可以进一步扩大感受野,使得合成中间帧图像时能够感知更大乃至全局的特征,以便神经网路模型生成的中间帧图像更加准确。采用多组第二子模块和上采样层,放大目标特征图,可以便于后续对目标特征图的处理,以生成中间帧图像。
可选的,图4为本发明实施例提供的自注意力模块的处理示意图,如图4所示,自注意力模块包括:第一卷积层、第二卷积层、第三卷积层、第四卷积层。
图5为本发明实施例提供的一种模型训练方法的流程示意图,如图5所示,上述S302的过程可以包括:
S501、分别采用第一卷积层、第二卷积层、第三卷积层对缩小后的特征图进行维度调整,得到第一调整结果、第二调整结果、第三调整结果。
在一些实施方式中,第一卷积层、第二卷积层和第三卷积层的卷积核大小可以相同。终端可以通过第一卷积层、第二卷积层和第三卷积层对输入的缩小后的特征图的维度进行调整,以适应硬件算力,便于后续处理。
需要说明的是,第一卷积层、第二卷积层和第三卷积层的卷积核大小可以为预设值,该预设值可以根据经验值进行设定,例如,该预设值可以为1*1*1。
S502、根据第一调整结果和第二调整结果,确定权重参数。
S503、根据权重参数和第三调整结果进行加权,得到加权结果。
其中,终端可以对第一调整结果和第二调整结果进行相乘,得到每个像素的权重参数。
在本申请实施例中,终端可以对各像素对应的权重参数和第三调整结果中的各像素相乘,以实现对权重参数和所述第三调整结果进行加权,得到加权结果。
S504、采用第四卷积层对加权结果进行维度恢复,得到维度恢复特征,并根据缩小后的样本前后帧图像和维度恢复特征,确定目标特征图。
其中,第四卷积层与上述第一卷积层、第二卷积层和第三卷积层的卷积核大小也可以相同。
如图4所示,在本申请实施例中,通过第四卷积层可以将加权结果对应的特征图,恢复至与输入的特征图相同的维度,即恢复至与输入的缩小后的特征图相同的维度,得到维度恢复特征,继而将缩小后的样本前后帧图像和维度恢复特征进行相加,得到目标特征图。
综上所述,采用S501至S504的过程,获取目标特征图,打破了卷积核的局部性,使得获取的目标特征图包含非局部特征,整个实现过程也更加高效和准确。
可选的,图6为本发明实施例提供的神经网络模型的生成器的结构示意图,如图6所示,生成器可以包括:第一特征提取模块、多个第二特征提取模块,多个第一特征提取模块包括:光流估计模块、深度估计模块、核估计模块。
图7为本发明实施例提供的一种模型训练方法的流程示意图,如图7所示,上述S101的过程,可以包括:
S701、采用光流估计模块,计算样本前后帧图像的前向光流和后向光流。
其中,采用光流估计模块可以计算样本前后帧图像中的像素位移信息。像素位移信息包括:前向光流和后向光流。前向光流可以为样本前帧图像至样本后帧图像的像素位移,后向光流可以为样本后帧图像至样本前帧图像的像素位移。
另外,光流估计模块的神经网络结构可以为预设神经网络结构,例如,该预设神经网络结构可以为PWC-Net(光流学习网络)结构。
需要说明的是,样本前后帧图像的前向光流和后向光流可以为包括有前向光流和后向光流的特征图。
S702、采用深度估计模块,确定样本前后帧图像中对象间的位置关系。
在本申请实施例中,由于单一的光流估计模块无法为生成中间帧的估计提供足够的特征,因此,终端可以采用深度估计模块,估计样本前帧图像和样本后帧图像中对象间的相对关系,以提取样本前后帧图像的深度信息,使得确定的局部特征更加丰富、准确。
另外,样本前后帧图像中对象间的位置关系可以为包括有对象间的位置关系的深度图。
S703、采用核估计模块,生成样本前后帧图像中各像素的卷积核。
其中,局部特征包括:前向光流、后向光流、对象间的位置关系、各像素的卷积核。核估计模块,可以使得光流估计模型的关注区域扩大为一个领域,以增加神经网络模型的学习能力。
在一种可能的实施方式中,终端可以采用核估计模块,基于样本前后帧图像中对应位置周围和预设数量个像素,为每个像素训练一个卷积核,以便后续根据各像素的卷积核和样本前后帧图像进行卷积操作,确定中间帧图像。
需要说明的是,核估计模块可以使用U-net(一种包含下采样和上采样的网络结构)网络,上述各像素的卷积核可以相同,各像素的卷积核可以为预设值,例如,各像素的卷积核可以为4*4。
综上所述,本申请实施例中,采用光流估计模块、深度估计模块、核估计模块对样本前后帧图像进行处理,得到前向光流、后向光流、对象间的位置关系、各像素的卷积核等。使得生成的局部特征包含的信息更多、更全面,基于该局部特征生成中间帧图像时,有利于中间帧图像的准确生成。
可选的,在上述S103之前,图8为本发明实施例提供的一种模型训练方法的流程示意图,如图8所示,该方法还可以包括:
S801、根据对象间的位置关系,重新计算前向光流和后向光流,得到目标前向光流和目标后向光流。
其中,神经网络模型的生成器还可以包括深度感知投影模块。
在本申请实施例中,由于光流估计模块,计算的前向光流和后向光流不能指向正确的对象或像素,因此,如图6所示,终端可以采用深度感知投影方式,根据对象间的位置关系的深度图,重新计算前向光流和后向光流,以生成指向更准确像素的光流向量,即生成目标前向光流和目标后向光流。
S802、根据样本前后帧图像、目标前向光流、目标后向光流、非局部特征、各像素的卷积核确定合成特征。
需要说明的是,终端可以对样本前后帧图像、目标前向光流和目标后向光流对应的特征图、非局部特征对应的特征图,以及各像素的卷积核确定合成的特征。
综上所述,上述合成特征中既包含了详细且准确的局部特征、还包含了非局部的特征,对于变化较大的样本前后帧图像,基于该合成特征确定的样本中间帧图像更加准确。
可选的,图9为本发明实施例提供的一种模型训练方法的流程示意图,如图9所示,如图6所示,神经网络模型的生成器可以包括自适应变形层、特征连接层,上述S802的过程可以包括:
S901、采用自适应变形层,根据各像素的卷积核、前向光流和后向光流对样本前后帧图像进行采样,得到采样结果。
在一种可能的实施方式中,终端可以采用自适应变形层,通过一个预设的局部窗口,根据各像素的卷积核对样本前后帧图像进行采样,确定多个合成的像素,该多个合成的像素为采样结果。
其中,终端可以根据前向光流和后向光流,确定杉树预设的局部窗口的位置。
S902、采用自适应变形层,对样本前后帧图像、目标前向光流、目标后向光流、非局部特征进行变形处理,得到多个变形结果。
S903、采用特征连接层,对采样结果和多个变形结果进行连接,得到合成特征。
在本申请实施例中,终端可以采用特征连接层,在通道维度上对采样结果和多个变形结果进行连接以保证特征信息不丢失,便于后续的计算和学习,可以使得生成的样本中间帧图像更加准确。
综上所述,采用上述S901至S903的过程确定合成特征,可以使得获取的合成特征更加准确,使得合成特征所包含的局部特征和非局部特征更加丰富,便于后续对样本中间帧图像的生成。
可选的,帧合成模块包括依次连接的多个残差模块,上述S103的过程,可以包括:
采用多个残差模块,根据局部特征和非局部特征的合成特征,生成样本中间帧图像。
其中,残差模块的数量可以为预设数量,例如,该预设数量可以为3。
在一种可能的实施方式中,终端可以采用多个残差模块,根据合成特征,生成样本中间帧图像,终端还可以多个残差模块,终端线性混合了多个变形结果计算得到多个变形结果,加强了标签中间帧图像和生成中间帧图像之间的残差。
另外,由于合成特征中所表示的多个变形结果已经经过光流对齐,这可以使得帧合成模块侧重于增强细节,使输出的中间帧图像分辨率更加高。
在本申请实施例中,样本前帧图像可以用It-1表示,样本后帧图像可以用It+1表示,标签中间帧图像可以用It表示,样本中间帧图像可以用表示。
可选的,图10为本发明实施例提供的一种模型训练方法的流程示意图,如图10所示,上述S104的过程,可以包括:
S1001、根据样本中间帧图像和对应的标签中间帧图像,确定初始神经网络模型的损失函数值。
其中,标签中间帧图像为样本前后帧图像的标准中间帧图像。
在一种可能的实施方式中,终端可以根据样本中间帧图像和对应的标签中间帧图像确定第一损失,根据和第二损失值,继而可以对第一损失值和第二损失值进行计算,最终确定损失函数值。
S1002、根据损失函数值,对神经网络模型的参数进行调节,直至调节后的神经网络模型的损失函数值收敛。
其中,终端可以采用预设的梯度下降算法,对神经网络模型的参数进行调节,直至调节后的神经网络模型的损失函数值收敛。
在一些实施方式中,终端可以采用链式求导法则,对损失函数值进行计算,得到损失在神经网络模型的生成器和判别器各参数上的梯度,进而对神经网络模型中生成器和判别器的参数进行调节,以优化各参数,降低相应的损失。当调节后的神经网络模型的损失函数值收敛,得到训练好的神经网络模型。
需要说明的是,当神经网络模型的损失函数值收敛时,可以得到训练后的神经网络模型,将变化较大的前后帧图像输入训练好的神经网络模型时,神经网络模型可以准确的生成中间帧图像。
在本申请实施例中,终端可以根据损失函数值对生成器中的第一特征提取模块、多个第二特征提取模块、帧合成模块的参数进行优化。终端可以保存训练好的神经网络模型。
可选的,图11为本发明实施例提供的一种模型训练方法的流程示意图,如图11所示,上述S1001的过程,可以包括:
S1101、根据样本中间帧图像和对应的标签中间帧图像,确定初始神经网络模型的像素损失和对抗损失。
其中,像素损失用于表示样本中间帧图像和对应的标签中间帧图像之间的相似度。
在一些实施方式中,终端可以根据样本中间帧图像和对应的标签中间帧图像,确定初始神经网络模型的对抗损失。终端可以采用预设像素损失计算公式,根据判别器的输出结果、样本中间帧图像和对应的标签中间帧图像,确定初始神经网络模型的像素损失。
上述预设像素损失计算公式可以表示为:其中,It(x)为标签中间帧图像,/>为样本中间帧图像,/>x代表图像中的坐标点,ε是预设常数,例如该预设常数可以为10-6。生成的中间帧图像与标签中间帧图像相似度越高,/>越小。
S1102、根据像素损失和对抗损失,确定神经网络模型的损失函数值。
在本发明实施例中,终端可以采用预设的加权算法,根据像素损失值和对抗损失值,确定神经网络模型的损失函数值。损失函数值可以用于对神经网络模型的参数进行优化。当损失函数值收敛时,则指示模型训练完成。
需要说明的是,终端可以基于预设加权公式,确定损失函数值,预设加权公式可以表示为:其中λ为权重参数,/>为像素损失,/>为对抗损失。权重参数越大,训练过程中对损失相关的参数的梯度越大,训练得到的神经网络模型生成的中间帧图像也随之产生变化。
可选的,图12为本发明实施例提供的一种模型训练方法的流程示意图,如图12所示,上述S1101中,根据样本中间帧图像和对应的标签中间帧图像,确定初始神经网络模型的对抗损失的过程,可以包括:
S1201、采用判别器,确定样本中间帧图像比标签中间帧图像真实的概率,以及标签中间帧图像比样本中间帧图像虚假的概率。
其中,判别器可以为相对判别器,相对判别器的网络结构可以为VGG-13。
需要说明的是,标准判别器可以估计一个样本中间帧图像是真实和自然的概率,相对于标准判别器,相对判别器可以估计标签中间帧图像比样本中间帧图像更真实的概率,即判别器对样本中间帧图像和标签中间帧图像的判真概率均接近0.5,这可以增加模型训练过程的速度和稳定性。
S1202、根据真实的概率和虚假的概率,确定对抗损失。
其中,对抗损失可以用于衡量生成器的生成能力和判别器的判断能力。终端可以采用对抗损失生成公式,根据真实的概率和虚假的概率,确定对抗损失。
上述抗损失生成公式可以表示为: 其中/>表示样本中间帧图像比标签中间帧图像更真实的概率,/>表示标签中间帧图像比样本中间帧图像更虚假的概率。当/>收敛时,表明判别器几乎无法区分生成器生成的中间帧图像与标签中间帧图像,生成器与判别器达到均衡状态。
综上所述,本申请实施例中生成的中间帧图像中,存在过于平滑的细节与其他不必要的视觉伪影。本发明在训练模型时,引入生成对抗网络的训练方法,增加判别器,对标签中间帧图像与样本中间帧图像进行判别,提高神经网络模型模型生成中间帧图像的逼真度。
图13为本发明实施例提供的一种视频插帧方法的流程示意图,如图13所示,该视频插帧方法可以包括:
S1301、从视频中获取目标前后帧图像。
其中,上述视频可以为不稳定帧率的视频。例如,不稳定帧率的视频可以为卡顿视频。
在一种可能的实施方式中,终端可以采用预设算法,对视频进行检测,根据检测结果确定至少一个目标前后帧图像。终端也可以通过其他应用程序或者平台,确定视频中的目标前后帧图像,本申请实施例对此不进行具体限制。其中,目标前后帧图像包括目标前帧图像和目标后帧图像。
S1302、采用预设的神经网络模型对目标前后帧图像进行处理,得到目标中间帧图像。
其中,神经网络模型为采用上述图1-图12任一所述的训练方法得到的神经网络模型。
在本申请实施例中,当S1301中检测到多个目标前后帧图像时,可以将目标前后帧图像依次输入预设的神经网络模型中,以使的预设的神经网络模型可以依次对目标前后帧图像进行处理,进而依次输出各目标前后帧图像对应的目标中间帧图像。
S1303、根据目标中间帧图像对目标前后帧图像进行插帧处理。
需要说明的是,当目标前后帧图像数量为多个时,目标中间帧图像的数量也为多个,目标中间帧图像与目标前后帧图像相对应,终端可以根据目标中间帧图像对对应的目标前后帧图像进行插帧处理,当对各目标前后帧图像均完成插帧处理时,则完成了对于视频的插帧处理。
另外,上述获取的目标中间帧图像可以为插于目标前后帧图像之间,上述获取的目标中间帧图像该可以替换目标前后帧图像中的一个图像,终端还可以基于目标中间帧图像进行其他方式的视频插帧处理,本申请实施例对此不进行具体限制。
综上所述,从视频中获取目标前后帧图像,采用预设的神经网络模型对目标前后帧图像进行处理,得到目标中间帧图像,根据目标中间帧图像对目标前后帧图像进行插帧处理。基于图1-图12任一所述的训练方法得到的神经网络模型生成的目标中间帧图像,对目标前后帧图像进行插帧处理,可以使得插帧后的视频更加稳定。
可选的,上述S1301的过程,可以包括:检测视频中的至少一个重复帧标识;根据重复帧标识从视频中的多个帧图像中,确定目标前后帧图像。
在本申请实施例中,终端可以对视屏中每个相邻两帧图像进行检测,得到检测结果,若检测结果不满足预设条件时,可以根据该相邻两帧图像的标识,确定重复帧标识,重复帧标识可以存储于终端中。
终端还可以存储视频中的多个帧图像,每个帧图像具有对应的帧标识,终端可以确定与重复帧标识相匹配的目标帧标识,该目标帧标识对应的帧图像为目标帧图像,该目标帧图像的前帧图像和目标帧图像的后帧图像确定为目标前后帧图像。
需要说明的是,终端可以通过临时目录存储重复帧标识和多个帧图像。
例如,至少一个重复帧标识也可以称为掉帧序号序列,可以表示为:[t1,t2,…,tM],终端存储的视频中的多个帧图像可以表示为:[I1,I2,…,IN],终端可以依次确定[t1,t2,…,tM]中对应的目标前后帧图像目标前后帧图像对应的目标中间帧图像可以用/>表示。其中,N为总帧数,M为总重复帧数量,1≤m≤M<<N。
可选的,上述检测视频中的至少一个重复帧标识,包括:
计算视频中的相邻两个帧图像之间的像素损失;若像素损失小于或者等于预设阈值,则将后一帧图像的标识确定为重复帧标识。
其中,相邻两个帧图像可以包括:前一帧图像和后一帧图像。
需要说明的是,终端可以采用预设像素损失计算公式,计算视频中的相邻两个帧图像之间的像素损失。该采用预设像素损失计算公式可以表示为:其中,It(x)为前一帧图像,It+1(x)为后一帧图像。
其中,当时,视It+1为重复帧,则在记录目录中记录的重复帧标识可以为t+1,t+1也可以称为掉帧序号。T为预设阈值参数,受图像分辨率的影响。
可选的,上述根据目标中间帧图像对目标前后帧图像进行插帧处理的过程,可以包括:将重复帧标识对应的帧图像,替换为目标中间帧图像。
在本申请实施例中,将所有的重复帧标识对应的帧图像,均替换为目标中间帧图像时,则可以得到的替换重复帧后的连续帧序列,继而按原始帧率合成视频,合成的视频即为帧率稳定的视频。另外,终端可以删除临时目录。
例如,原视频中多个帧图像可以为a,b,c,d,对应的帧标识可以为1,2,3,4;重复帧图像可以为a和b,则重复帧标识可以为2。终端可以确定的目标前后帧图像的标识可以为1和3,即目标前后帧图像可以为a和b,终端将a和b输入预设的神经网络模型中,得到目标中间帧图像x,并将b替换为x,则插针处理后的视频中多个帧图像可以为a,x,c,d。
需要说明的是,本申请实施例提供的视频插帧方法,可以部署于具有CUDA(Compute Unified Device Architecture,统一计算设备架构)核心的GPU(GraphicsProcessing Unit,图形处理器)终端上,也可部署于具有CUDA核心的GPU服务器端上,可以通过网络服务的方式提供调用接口。
综上所述,本申请实施例提供的视频插帧方法,可以实现自动检测掉帧位置,可以实现不稳定帧率视频的自动优化。经过实验验证,本发明在图像质量上优于其他现有技术方案,且可以较好地解决不稳定帧率视频的自动优化问题。
图14为本发明实施例提供的一种模型训练装置的结构示意图,该装置应用于神经网络模型,所述神经网络模型包括:第一特征提取模块、多个第二特征提取模块和帧合成模块,如图14所示,包括:
提取模块1401,用于采用各第一特征提取模块,提取样本前后帧图像的局部特征;采用第二特征提取模块,提取样本前后帧图像的非局部特征;
生成模块1402,用于采用帧合成模块,根据局部特征和非局部特征的合成特征,生成样本中间帧图像;
训练模块1403,用于根据样本中间帧图像和对应的标签中间帧图像,对神经网络模型进行训练,得到训练后的神经网络模型。
可选的,第二特征提取模块包括:依次连接的多组第一子模块、自注意力模块、多组第二子模块和上采样层,其中,每组第一子模块包括:降采样层和残差模块;每组第二子模块包括:上采样层和残差模块;提取模块1401,还用于采用多组第一子模块,缩小样本前后帧图像的尺寸,得到缩小后的特征图;采用自注意力模块,对缩小后的特征图进行加权,得到目标特征图,目标特征图包含有样本前后帧图像的非局部特征;采用多组第二子模块和上采样层,放大目标特征图。
可选的,自注意力模块包括:第一卷积层、第二卷积层、第三卷积层、第四卷积层;提取模块1401,还用于分别采用第一卷积层、第二卷积层、第三卷积层对缩小后的特征图进行维度调整,得到第一调整结果、第二调整结果、第三调整结果;根据第一调整结果和第二调整结果,确定权重参数;根据权重参数和第三调整结果进行加权,得到加权结果;采用第四卷积层对加权结果进行维度恢复,得到维度恢复特征,并根据缩小后的样本前后帧图像和维度恢复特征,确定目标特征图。
可选的,多个第一特征提取模块包括:光流估计模块、深度估计模块、核估计模块;提取模块1401,还用于采用光流估计模块,计算样本前后帧图像的前向光流和后向光流,前向光流为样本前帧图像至样本后帧图像的像素位移,后向光流为样本后帧图像至样本前帧图像的像素位移;采用深度估计模块,确定样本前后帧图像中对象间的位置关系;采用核估计模块,生成样本前后帧图像中各像素的卷积核;局部特征包括:前向光流、后向光流、对象间的位置关系、各像素的卷积核。
可选的,神经网络模型包括深度感知投影模块,在采用帧合成模块,装置还包括:
计算模块,用于采用深度感知投影模块,根据对象间的位置关系,重新计算前向光流和后向光流,得到目标前向光流和目标后向光流;
确定模块,用于根据样本前后帧图像、目标前向光流、目标后向光流、非局部特征、各像素的卷积核确定合成特征。
可选的,神经网络模型包括自适应变形层、特征连接层,确定模块,还用于采用自适应变形层,根据各像素的卷积核、前向光流和后向光流,对样本前后帧图像进行采样,得到采样结果;采用自适应变形层,对样本前后帧图像、目标前向光流、目标后向光流、非局部特征进行变形处理,得到多个变形结果;采用特征连接层,对采样结果和多个变形结果进行连接,得到合成特征。
可选的,帧合成模块包括依次连接的多个残差模块,生成模块1402,还用于采用多个残差模块,根据局部特征和非局部特征的合成特征,生成样本中间帧图像。
可选的,训练模块1403,还用于根据样本中间帧图像和对应的标签中间帧图像,确定初始神经网络模型的损失函数值;根据损失函数值,对神经网络模型的参数进行调节,直至调节后的神经网络模型的损失函数值收敛。
可选的,训练模块1403,还用于根据样本中间帧图像和对应的标签中间帧图像,确定初始神经网络模型的像素损失和对抗损失,像素损失用于表示样本中间帧图像和对应的标签中间帧图像之间的相似度;
根据像素损失和对抗损失,确定神经网络模型的损失函数值。
可选的,训练模块1403,还用于采用判别器,确定样本中间帧图像比标签中间帧图像真实的概率,以及标签中间帧图像比样本中间帧图像虚假的概率;根据真实的概率和虚假的概率,确定对抗损失。
图15为本发明实施例提供的一种视频插帧装置的结构示意图,如图15所示,该装置包括:
获取模块1501,用于从视频中获取目标前后帧图像;采用预设的神经网络模型对目标前后帧图像进行处理,得到目标中间帧图像;其中,神经网络模型为采用第一方面任一的训练方法得到的神经网络模型;
处理模块1502,用于根据目标中间帧图像对目标前后帧图像进行插帧处理。
可选的,获取模块1501,还用于检测视频中的至少一个重复帧标识;根据重复帧标识从视频中的多个帧图像中,确定目标前后帧图像。
可选的,获取模块1501,还用于计算视频中的相邻两个帧图像之间的像素损失,相邻两个帧图像包括:前一帧图像和后一帧图像;若像素损失小于或者等于预设阈值,则将后一帧图像的标识确定为重复帧标识。
可选的,处理模块1502,还用于将重复帧标识对应的帧图像,替换为目标中间帧图像。
上述装置用于执行前述实施例提供的方法,其实现原理和技术效果类似,在此不再赘述。
以上这些模块可以是被配置成实施以上方法的一个或多个集成电路,例如:一个或多个特定集成电路(Application Specific Integrated Circuit,简称ASIC),或,一个或多个微处理器(digital singnal processor,简称DSP),或,一个或者多个现场可编程门阵列(Field Programmable Gate Array,简称FPGA)等。再如,当以上某个模块通过处理元件调度程序代码的形式实现时,该处理元件可以是通用处理器,例如中央处理器(CentralProcessing Unit,简称CPU)或其它可以调用程序代码的处理器。再如,这些模块可以集成在一起,以片上系统(system-on-a-chip,简称SOC)的形式实现。
图16为本发明实施例提供的一种电子设备的结构示意图,如图16所示该电子设备包括:处理器1601、存储器1602。
存储器1602用于存储程序,处理器1601调用存储器1602存储的程序,以执行上述方法实施例。具体实现方式和技术效果类似,这里不再赘述。
可选地,本发明还提供一种程序产品,例如计算机可读存储介质,包括程序,该程序在被处理器执行时用于执行上述方法实施例。
在本发明所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(英文:processor)执行本发明各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(英文:Read-Only Memory,简称:ROM)、随机存取存储器(英文:Random Access Memory,简称:RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (17)
1.一种模型训练方法,其特征在于,应用于神经网络模型,所述神经网络模型包括:多个第一特征提取模块、多个第二特征提取模块和帧合成模块,其中,多个所述第一特征提取模块包括:光流估计模块、深度估计模块、核估计模块,包括:
采用各所述第一特征提取模块,提取样本前后帧图像的局部特征;
采用所述第二特征提取模块,提取所述样本前后帧图像的非局部特征;
采用所述帧合成模块,根据所述局部特征和所述非局部特征的合成特征,生成样本中间帧图像;
根据所述样本中间帧图像和对应的标签中间帧图像,对所述神经网络模型进行训练,得到训练后的神经网络模型;
所述第二特征提取模块包括:依次连接的多组第一子模块、自注意力模块、多组第二子模块和上采样层,其中,每组所述第一子模块包括:降采样层和残差模块;每组所述第二子模块包括:所述上采样层和所述残差模块;所述采用所述第二特征提取模块,提取所述样本前后帧图像的非局部特征,包括:
采用多组所述第一子模块,缩小所述样本前后帧图像的尺寸,得到缩小后的特征图;
采用所述自注意力模块,对所述缩小后的特征图进行加权,得到目标特征图,所述目标特征图包含有所述样本前后帧图像的非局部特征;
采用多组所述第二子模块和所述上采样层,放大所述目标特征图。
2.如权利要求1所述的方法,其特征在于,所述自注意力模块包括:第一卷积层、第二卷积层、第三卷积层、第四卷积层;所述采用所述自注意力模块,对缩小后的所述样本前后帧图像进行加权,得到特征图,包括:
分别采用所述第一卷积层、第二卷积层、第三卷积层对所述缩小后的特征图进行维度调整,得到第一调整结果、第二调整结果、第三调整结果;
根据所述第一调整结果和第二调整结果,确定权重参数;
根据所述权重参数和所述第三调整结果进行加权,得到加权结果;
采用所述第四卷积层对所述加权结果进行维度恢复,得到维度恢复特征,并根据缩小后的所述样本前后帧图像和所述维度恢复特征,确定所述目标特征图。
3.如权利要求1所述的方法,其特征在于,所述采用各所述第一特征提取模块,提取样本前后帧图像的局部特征,包括:
采用所述光流估计模块,计算所述样本前后帧图像的前向光流和后向光流,所述前向光流为样本前帧图像至样本后帧图像的像素位移,所述后向光流为所述样本后帧图像至所述样本前帧图像的像素位移;
采用所述深度估计模块,确定所述样本前后帧图像中对象间的位置关系;
采用所述核估计模块,生成所述样本前后帧图像中各像素的卷积核;所述局部特征包括:所述前向光流、所述后向光流、所述对象间的位置关系、所述各像素的卷积核。
4.如权利要求3所述的方法,其特征在于,所述神经网络模型包括深度感知投影模块,在所述采用所述帧合成模块,根据所述局部特征和所述非局部特征的合成特征,生成样本中间帧图像之前,所述方法还包括:
采用所述深度感知投影模块,根据所述对象间的位置关系,重新计算所述前向光流和所述后向光流,得到目标前向光流和目标后向光流;
根据所述样本前后帧图像、所述目标前向光流、所述目标后向光流、所述非局部特征、所述各像素的卷积核确定所述合成特征。
5.如权利要求4所述的方法,其特征在于,所述神经网络模型包括自适应变形层、特征连接层,根据所述样本前后帧图像、所述目标前向光流、所述目标后向光流、所述非局部特征、所述各像素的卷积核确定所述合成特征,包括:
采用所述自适应变形层,根据所述各像素的卷积核、所述前向光流和所述后向光流,对所述样本前后帧图像进行采样,得到采样结果;
采用所述自适应变形层,对所述样本前后帧图像、所述目标前向光流、所述目标后向光流、所述非局部特征进行变形处理,得到多个变形结果;
采用所述特征连接层,对所述采样结果和多个所述变形结果进行连接,得到所述合成特征。
6.如权利要求1所述的方法,其特征在于,所述帧合成模块包括依次连接的多个残差模块,所述采用所述帧合成模块,根据所述局部特征和所述非局部特征的合成特征,生成样本中间帧图像,包括:
采用多个所述残差模块,根据所述局部特征和所述非局部特征的合成特征,生成所述样本中间帧图像。
7.如权利要求1所述的方法,其特征在于,根据所述样本中间帧图像和对应的标签中间帧图像,对所述神经网络模型进行训练,包括:
根据所述样本中间帧图像和对应的标签中间帧图像,确定初始神经网络模型的损失函数值;
根据所述损失函数值,对所述神经网络模型的参数进行调节,直至调节后的神经网络模型的损失函数值收敛。
8.如权利要求7所述的方法,其特征在于,所述根据所述样本中间帧图像和对应的标签中间帧图像,确定初始神经网络模型的损失函数值,包括:
根据所述样本中间帧图像和对应的标签中间帧图像,确定初始神经网络模型的像素损失和对抗损失,所述像素损失用于表示所述样本中间帧图像和对应的标签中间帧图像之间的相似度;
根据所述像素损失和所述对抗损失,确定所述神经网络模型的损失函数值。
9.如权利要求8所述的方法,其特征在于,所述根据所述样本中间帧图像和对应的标签中间帧图像,确定初始神经网络模型的对抗损失,包括:
采用判别器,确定所述样本中间帧图像比所述标签中间帧图像真实的概率,以及所述标签中间帧图像比所述样本中间帧图像虚假的概率;
根据所述真实的概率和所述虚假的概率,确定所述对抗损失。
10.一种视频插帧方法,其特征在于,所述方法包括:
从视频中获取目标前后帧图像;
采用预设的神经网络模型对所述目标前后帧图像进行处理,得到目标中间帧图像;其中,所述神经网络模型为采用权利要求1-9任一所述的训练方法得到的所述神经网络模型;
根据所述目标中间帧图像对所述目标前后帧图像进行插帧处理。
11.根据权利要求10所述的方法,其特征在于,所述从视频中获取目标前后帧图像,包括:
检测所述视频中的至少一个重复帧标识;
根据所述重复帧标识从所述视频中的多个帧图像中,确定所述目标前后帧图像。
12.如权利要求11所述的方法,其特征在于,所述检测所述视频中的至少一个重复帧标识,包括:
计算所述视频中的相邻两个帧图像之间的像素损失,所述相邻两个帧图像包括:前一帧图像和后一帧图像;
若所述像素损失小于或者等于预设阈值,则将所述后一帧图像的标识确定为所述重复帧标识。
13.如权利要求12所述的方法,其特征在于,所述根据所述目标中间帧图像对所述目标前后帧图像进行插帧处理,包括:
将所述重复帧标识对应的帧图像,替换为所述目标中间帧图像。
14.一种模型训练装置,其特征在于,应用于神经网络模型,所述神经网络模型包括:多个第一特征提取模块、多个第二特征提取模块和帧合成模块,其中,多个所述第一特征提取模块包括:光流估计模块、深度估计模块、核估计模块,包括:
提取模块,用于采用各所述第一特征提取模块,提取样本前后帧图像的局部特征;采用所述第二特征提取模块,提取所述样本前后帧图像的非局部特征;
生成模块,用于采用所述帧合成模块,根据所述局部特征和所述非局部特征的合成特征,生成样本中间帧图像;
训练模块,用于根据所述样本中间帧图像和对应的标签中间帧图像,对所述神经网络模型进行训练,得到训练后的神经网络模型;
所述第二特征提取模块包括:依次连接的多组第一子模块、自注意力模块、多组第二子模块和上采样层,其中,每组所述第一子模块包括:降采样层和残差模块;每组所述第二子模块包括:所述上采样层和所述残差模块;所述提取模块,还用于采用多组所述第一子模块,缩小所述样本前后帧图像的尺寸,得到缩小后的特征图;采用所述自注意力模块,对所述缩小后的特征图进行加权,得到目标特征图,所述目标特征图包含有所述样本前后帧图像的非局部特征;采用多组所述第二子模块和所述上采样层,放大所述目标特征图。
15.一种视频插帧装置,其特征在于,所述装置包括:
获取模块,用于从视频中获取目标前后帧图像;采用预设的神经网络模型对所述目标前后帧图像进行处理,得到目标中间帧图像;其中,所述神经网络模型为采用权利要求1-9任一所述的训练方法得到的所述神经网络模型;
处理模块,用于根据所述目标中间帧图像对所述目标前后帧图像进行插帧处理。
16.一种电子设备,其特征在于,包括:存储器和处理器,所述存储器存储有所述处理器可执行的计算机程序,所述处理器执行所述计算机程序时实现上述权利要求1-13任一项所述的方法。
17.一种存储介质,其特征在于,所述存储介质上存储有计算机程序,所述计算机程序被读取并执行时,实现上述权利要求1-13任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010816094.5A CN111898701B (zh) | 2020-08-13 | 2020-08-13 | 模型训练、帧图像生成、插帧方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010816094.5A CN111898701B (zh) | 2020-08-13 | 2020-08-13 | 模型训练、帧图像生成、插帧方法、装置、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111898701A CN111898701A (zh) | 2020-11-06 |
CN111898701B true CN111898701B (zh) | 2023-07-25 |
Family
ID=73229046
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010816094.5A Active CN111898701B (zh) | 2020-08-13 | 2020-08-13 | 模型训练、帧图像生成、插帧方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111898701B (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112422870B (zh) * | 2020-11-12 | 2021-09-17 | 复旦大学 | 一种基于知识蒸馏的深度学习视频插帧方法 |
CN112565653B (zh) * | 2020-12-01 | 2023-04-07 | 咪咕文化科技有限公司 | 一种视频插帧方法、系统、电子设备及存储介质 |
CN112584076B (zh) * | 2020-12-11 | 2022-12-06 | 北京百度网讯科技有限公司 | 视频的插帧方法、装置及电子设备 |
CN112804561A (zh) * | 2020-12-29 | 2021-05-14 | 广州华多网络科技有限公司 | 视频插帧方法、装置、计算机设备及存储介质 |
CN112633236A (zh) * | 2020-12-31 | 2021-04-09 | 深圳追一科技有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN113592986B (zh) * | 2021-01-14 | 2023-05-23 | 腾讯科技(深圳)有限公司 | 基于神经网络的动作生成方法、装置及计算设备 |
CN112698196B (zh) * | 2021-03-24 | 2021-06-08 | 深圳市三和电力科技有限公司 | 一种高压开关机械特性监测装置 |
CN113065533B (zh) * | 2021-06-01 | 2021-11-02 | 北京达佳互联信息技术有限公司 | 一种特征提取模型生成方法、装置、电子设备和存储介质 |
CN113627468B (zh) * | 2021-07-01 | 2024-06-21 | 浙江安防职业技术学院 | 基于无监督学习的非局部神经网络图像处理方法及系统 |
CN113365110B (zh) * | 2021-07-14 | 2023-01-31 | 北京百度网讯科技有限公司 | 模型训练、视频插帧方法,装置,设备以及存储介质 |
CN113610731B (zh) * | 2021-08-06 | 2023-08-08 | 北京百度网讯科技有限公司 | 用于生成画质提升模型的方法、装置及计算机程序产品 |
CN113891027B (zh) * | 2021-12-06 | 2022-03-15 | 深圳思谋信息科技有限公司 | 视频插帧模型训练方法、装置、计算机设备和存储介质 |
CN114677684A (zh) * | 2022-03-23 | 2022-06-28 | 平安普惠企业管理有限公司 | 扭曲图像校正方法、装置、设备及计算机可读存储介质 |
CN115002379B (zh) * | 2022-04-25 | 2023-09-26 | 武汉大学 | 视频插帧方法、训练方法、装置、电子设备和存储介质 |
CN117274106B (zh) * | 2023-10-31 | 2024-04-09 | 荣耀终端有限公司 | 一种照片修复的方法、电子设备及相关介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1956053A (zh) * | 2005-10-28 | 2007-05-02 | 精工爱普生株式会社 | 动态图像显示装置和动态图像显示方法 |
CN1959803A (zh) * | 2005-11-04 | 2007-05-09 | 精工爱普生株式会社 | 动态图像显示装置和动态图像显示方法 |
JP2010062955A (ja) * | 2008-09-04 | 2010-03-18 | Japan Science & Technology Agency | 映像信号変換システム |
CN105187721A (zh) * | 2015-08-31 | 2015-12-23 | 广州市幸福网络技术有限公司 | 一种快速提取人像特征的证照相机及方法 |
CN108431834A (zh) * | 2015-12-01 | 2018-08-21 | 首选网络株式会社 | 异常检测系统、异常检测方法、异常检测程序及学得模型的生成方法 |
WO2019091464A1 (zh) * | 2017-11-12 | 2019-05-16 | 北京市商汤科技开发有限公司 | 目标检测方法和装置、训练方法、电子设备和介质 |
CN110191299A (zh) * | 2019-04-15 | 2019-08-30 | 浙江大学 | 一种基于卷积神经网络的多重帧插值方法 |
CN110636291A (zh) * | 2018-06-25 | 2019-12-31 | 天开数码媒体有限公司 | 一种视频编码初始量化参数优化方法 |
CN111107427A (zh) * | 2019-11-20 | 2020-05-05 | Oppo广东移动通信有限公司 | 图像处理的方法及相关产品 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7558320B2 (en) * | 2003-06-13 | 2009-07-07 | Microsoft Corporation | Quality control in frame interpolation with motion analysis |
US10776688B2 (en) * | 2017-11-06 | 2020-09-15 | Nvidia Corporation | Multi-frame video interpolation using optical flow |
-
2020
- 2020-08-13 CN CN202010816094.5A patent/CN111898701B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1956053A (zh) * | 2005-10-28 | 2007-05-02 | 精工爱普生株式会社 | 动态图像显示装置和动态图像显示方法 |
CN1959803A (zh) * | 2005-11-04 | 2007-05-09 | 精工爱普生株式会社 | 动态图像显示装置和动态图像显示方法 |
JP2010062955A (ja) * | 2008-09-04 | 2010-03-18 | Japan Science & Technology Agency | 映像信号変換システム |
CN105187721A (zh) * | 2015-08-31 | 2015-12-23 | 广州市幸福网络技术有限公司 | 一种快速提取人像特征的证照相机及方法 |
CN108431834A (zh) * | 2015-12-01 | 2018-08-21 | 首选网络株式会社 | 异常检测系统、异常检测方法、异常检测程序及学得模型的生成方法 |
WO2019091464A1 (zh) * | 2017-11-12 | 2019-05-16 | 北京市商汤科技开发有限公司 | 目标检测方法和装置、训练方法、电子设备和介质 |
CN110636291A (zh) * | 2018-06-25 | 2019-12-31 | 天开数码媒体有限公司 | 一种视频编码初始量化参数优化方法 |
CN110191299A (zh) * | 2019-04-15 | 2019-08-30 | 浙江大学 | 一种基于卷积神经网络的多重帧插值方法 |
CN111107427A (zh) * | 2019-11-20 | 2020-05-05 | Oppo广东移动通信有限公司 | 图像处理的方法及相关产品 |
Non-Patent Citations (1)
Title |
---|
应用残差生成对抗网络的路况视频帧预测模型;袁帅;秦贵和;晏婕;;西安交通大学学报(10) * |
Also Published As
Publication number | Publication date |
---|---|
CN111898701A (zh) | 2020-11-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111898701B (zh) | 模型训练、帧图像生成、插帧方法、装置、设备及介质 | |
US10853916B2 (en) | Convolution deconvolution neural network method and system | |
CN110827200B (zh) | 一种图像超分重建方法、图像超分重建装置及移动终端 | |
CN109671023B (zh) | 一种人脸图像超分辨率二次重建方法 | |
CN111369440B (zh) | 模型训练、图像超分辨处理方法、装置、终端及存储介质 | |
CN108304755B (zh) | 用于图像处理的神经网络模型的训练方法和装置 | |
CN108122197B (zh) | 一种基于深度学习的图像超分辨率重建方法 | |
EP3951702A1 (en) | Method for training image processing model, image processing method, network device, and storage medium | |
CN102576454B (zh) | 利用空间图像先验的图像去模糊法 | |
CN110909790A (zh) | 图像的风格迁移方法、装置、终端及存储介质 | |
CN111951164B (zh) | 一种图像超分辨率重建网络结构及图像重建效果分析方法 | |
CN112580473B (zh) | 一种融合运动特征的视频超分辨率重构方法 | |
CN112801904B (zh) | 一种基于卷积神经网络的混合退化图像增强方法 | |
CN113673545A (zh) | 光流估计方法、相关装置、设备及计算机可读存储介质 | |
CN111985281A (zh) | 图像生成模型的生成方法、装置及图像生成方法、装置 | |
CN114170167A (zh) | 基于注意力引导上下文校正的息肉分割方法和计算机设备 | |
CN115496663A (zh) | 基于d3d卷积组内融合网络的视频超分辨率重建方法 | |
CN115713462A (zh) | 超分辨模型训练方法、图像识别方法、装置及设备 | |
CN110570375B (zh) | 一种图像处理方法、装置、电子设置以及存储介质 | |
CN115700731A (zh) | 一种基于双通道卷积神经网络的水下图像增强方法 | |
CN113379606B (zh) | 一种基于预训练生成模型的人脸超分辨方法 | |
CN112489103B (zh) | 一种高分辨率深度图获取方法及系统 | |
CN110880183A (zh) | 一种图像分割方法、设备和计算机可存储介质 | |
CN110895790B (zh) | 基于后验降质信息估计的场景图像超分辨方法 | |
CN113674154B (zh) | 一种基于生成对抗网络的单幅图像超分辨率重建方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |