CN112016683A - 数据增强学习、训练方法、电子设备、可读存储介质 - Google Patents

数据增强学习、训练方法、电子设备、可读存储介质 Download PDF

Info

Publication number
CN112016683A
CN112016683A CN202010773773.9A CN202010773773A CN112016683A CN 112016683 A CN112016683 A CN 112016683A CN 202010773773 A CN202010773773 A CN 202010773773A CN 112016683 A CN112016683 A CN 112016683A
Authority
CN
China
Prior art keywords
video
data
sample
frame
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010773773.9A
Other languages
English (en)
Other versions
CN112016683B (zh
Inventor
王金鹏
王金桥
赵朝阳
胡建国
林格
张海
朱贵波
唐明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nexwise Intelligence China Ltd
Original Assignee
Nexwise Intelligence China Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nexwise Intelligence China Ltd filed Critical Nexwise Intelligence China Ltd
Priority to CN202010773773.9A priority Critical patent/CN112016683B/zh
Publication of CN112016683A publication Critical patent/CN112016683A/zh
Application granted granted Critical
Publication of CN112016683B publication Critical patent/CN112016683B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例提供一种数据增强学习、训练方法、电子设备、可读存储介质,包括:将一个静态图像按照尺度因子混合到样本视频的每一帧中。本发明实施例利用数据增强方法TCA指导整个神经网络的学习目标,TCA可以简单的集成在任意一个神经网络之中,具体是将一个静态图像按照尺度因子混合到样本视频的每一帧中,通过选择适当的尺度因子,可以保留时间线索不同空间语境下的相似性。此外TCA可以通过简单的矩阵操作实现,计算开销非常小,本发明实施例的方法在三个数据集上均取得了最优效果,验证了数据增强方法的有效性,TCA避免了对真实标签的需求,可以拓展到自监督以及半监督学习中。

Description

数据增强学习、训练方法、电子设备、可读存储介质
技术领域
本发明涉及视频处理技术领域,尤其涉及一种数据增强学习、训练方法、电子设备、可读存储介质。
背景技术
数据增强(Data Augmentation)是在深度学习中非常常用的技术。在图像分类中,输入图像通常会发生弹性变形或者添加噪波,这样可以大大改变图像的像素内容而不需要改变标签。在此基础上,提出了许多增强技术旋转,比如翻转和彩色抖动。数据增强可以提高样本的多样性,并且大幅度提升模型的鲁棒性。
现有的MixUp是一种实用的图像分类数据增强方法,在基于图像的领域验证了有效性,该方法对于数据集中的样本,在训练过程中,首先将所有样本划分为不同的批次并且随机采样其中一个批次。对于一个批次中的样本,进行两两配对组成不同的pairs。而后从伯努利分布中随机采样选择一个在0到1之间的超参λ。根据超参λ,首先对输入的两幅图像进行插值得到新的样本,并且对两个样本对应标签进行线性插值生成一个smooth向量作为生成样本对应的标签。MixUP有两个样本组成pair后线性插值生成的新样本对应真实标签是由线性矩阵给出one-hot向量的插值。从形式上而言,降低了one-hot的影响。然而,MixUp显著的缺点是必须有真实的数据标签故只能用在有监督的场景之下,不可以集成到无监督或半监督学习。此外,mixup只在图像领域验证了其有效性,在视频领域中还不能应用。以上这些困难的存在导致长期以来对于视频数据增强的探索都只停留在简单的旋转和颜色抖动。
发明内容
本发明实施例提供一种数据增强学习、训练方法、电子设备、可读存储介质,以视频数据增强避免对真实标签的需求,实现拓展到自监督以及半监督学习中。
本发明实施例提供一种数据增强学习方法,包括:
将一个静态图像按照尺度因子混合到样本视频的每一帧中;
所述尺度因子的计算公式为:
Figure BDA0002617603690000021
其中,α代表尺度因子;I函数代表原视频;δ函数代表一帧随机选取图像;t为t时刻视频帧;x,y为t时刻视帧的像素索引;k为阶导数。
根据本发明一个实施例的数据增强学习方法,还包括:通过所述尺度因子计算出所述样本视频各个时刻的视频帧,计算公式为:
Figure BDA0002617603690000022
其中,
Figure BDA0002617603690000023
代表视频i在时刻j的视频帧;L代表视频长度;
Figure BDA0002617603690000024
代表0-1的掩膜;
Figure BDA0002617603690000025
代表全局噪声。
根据本发明一个实施例的数据增强学习方法,所述是从[0.5,1]中的均匀分布随机采样的结果,掩膜
Figure BDA0002617603690000026
和全局噪声
Figure BDA0002617603690000027
都和所述样本视频中第一帧图像的大小一样。
根据本发明一个实施例的数据增强学习方法,还包括:
随机选择一个固定大小的预设区域,并将预设区域的
Figure BDA0002617603690000028
设为0,所述预设区域占整个所述静态图像面积的0.1以内;
Figure BDA0002617603690000029
中所有元素均为1,并从所述样本视频中随机选择一个图像帧作为
Figure BDA0002617603690000031
将所有帧的
Figure BDA0002617603690000032
设为1,并随机选择一个除所述样本视频以外的其它视频中的帧作为
Figure BDA0002617603690000033
本发明实施例提供一种数据增强训练方法,采用所述的数据增强学习方法得到生成样本,还包括:通过深度学习训练所述生成样本与样本视频的一致性。
根据本发明一个实施例的数据增强训练方法,所述通过深度学习训练所述生成样本与样本视频的一致性具体包括:
对训练集中所有样本视频进行随机打乱,并从中取一个批处理的数据;
对批处理的数据进行随机打乱,并对每个样本视频进行数据增强学习后得到生成样本;
把样本视频和生成样本分别输入到训练模型中,得到两个输出值,通过平方损失函数度量两个输出值之间的差异,并基于差异对所述训练模型进行梯度下降。
本发明实施例提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现所述的数据增强学习方法的步骤。
本发明实施例提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现所述的数据增强学习方法的步骤。
本发明实施例提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现所述的数据增强训练方法的步骤。
本发明实施例提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现所述的数据增强训练方法的步骤。
本发明实施例提出了一种新的数据增强学习、训练方法、电子设备、可读存储介质,利用数据增强方法TCA指导整个神经网络的学习目标,TCA可以简单的集成在任意一个神经网络之中,具体是将一个静态图像按照尺度因子混合到样本视频的每一帧中,通过选择适当的尺度因子,可以保留时间线索不同空间语境下的相似性。此外TCA可以通过简单的矩阵操作实现,计算开销非常小,本发明实施例的方法在三个数据集上均取得了最优效果,验证了数据增强方法的有效性,TCA避免了对真实标签的需求,可以拓展到自监督以及半监督学习中。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的数据增强学习方法的流程示意图;
图2是本发明实施例提供的数据增强学习方法的流程示意图;
图3是本发明实施例提供的数据增强训练方法的流程示意图;
图4是本发明实施例提供的一种电子设备的结构示意图。
附图标记:
810:处理器;820:通信接口;830:存储器;840:通信总线。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
一致性正则化将数据增强应用到半监督学习中,利用了分类器对于相同分布视频应该输出相同内容的思想。有很多半监督学习的方法都是基于一致性正则化。在本发明实施例中提出了一种新的形式的一致性正则化。通过使用时空变换和视频内混合,引入一致性正则化的到自监督学习中,另外还涉及到在全监督设置下注意力一致性的几何变换。但是保持视觉注意的一致性依赖于类激活映射(CAM)并且需要分类标签。而本案实施例中只对高维特征图进行约束,沿着时间维度添加一致性约束。
由于视频是3D信号,包含1维时间和2维空间两个层面的信息。此外,时间和空间维度天然具有不对称性。时间信息是模糊抽象的,难以定义和识别。在早期的基于手工视频特征进行分类的方法中,帧间的差异被用来提供有用的指示的运动。沿着这些方法的思路,时间导数可以用来测量时间信息的变化。特别地,视频可以被认为是一个时空函数,而时间导数在任意顺序下保持一致应用于具有常数的加法或乘法运算时空的功能。本发明实施例通过深入探究视频数据增强这种方案并针对视频设计了一种新颖有效的数据增强方法,Temporal Consistent Augmentation(TCA)。TCA避免了对真实标签的需求,可以拓展到自监督以及半监督学习中。
基于上述TCA,下面结合图1描述本发明实施例的一种数据增强学习方法,包括:
S1:将一个静态图像按照尺度因子混合到样本视频的每一帧中;
所述尺度因子的计算公式为:
Figure BDA0002617603690000051
其中,α代表尺度因子;I函数代表原视频;δ函数代表一帧随机选取图像;t为t时刻视频帧;x,y为t时刻视帧的像素索引;k为阶导数,k为自然数。
上述尺度因子的计算公式的原理是:视频中关于时间维度的微分可以用来度量时序信息的变化程度和幅度。因此,考虑将时序上的尺缩效应引入视频中。具体而言,在保留时间导数的同时,可以将额外的空间上下文(图像)引入时空函数(视频)中用一个比例因子α来保持任何顺序的一致性。也就是说,时序微分一致性可以看作是一个静态的图像等比例混合到视频的每一帧中。通过选择适当的尺度因子,可以保留时间线索不同空间语境下的相似性。α尽量不要太大,样本视频中每一帧的比例因子α保持一致,样本视频中每一帧的比例因子α是统一的,就是取一帧固定图像与视频的每一帧插值。
通过引入视频一致性正则,并将图像混合到每一帧用来改变像素的空间分布,同时保持时间上变化的相似性。考虑到一个视频的长度,使用0-1的掩膜
Figure BDA0002617603690000061
和全局噪声
Figure BDA0002617603690000062
具体的,数据增强学习方法还包括:
S2:通过所述尺度因子计算出所述样本视频各个时刻的视频帧,计算公式为:
Figure BDA0002617603690000063
其中,
Figure BDA0002617603690000064
代表视频i在时刻j的视频帧;L代表视频长度;
Figure BDA0002617603690000065
代表0-1的掩膜;
Figure BDA0002617603690000066
代表全局噪声;α代表尺度因子,与上述α是一致的。
所述α是从[0.5,1]中的均匀分布随机采样的结果,掩膜
Figure BDA0002617603690000067
和全局噪声
Figure BDA0002617603690000068
都和所述样本视频中第一帧图像的大小一样。
如图2所示,S2具体还包括:
S21:随机选择一个固定大小的预设区域,并将预设区域的
Figure BDA0002617603690000069
设为0,所述预设区域占整个所述静态图像面积的0.1以内;
随机选择是根据均匀分布采样的算法随机选择的。通过设置掩膜选取预设区域,
Figure BDA00026176036900000610
设为0,就是把像素抹去。
S22:设
Figure BDA0002617603690000071
中所有元素均为1,并从所述样本视频中随机选择一个图像帧作为
Figure BDA0002617603690000072
掩膜全1就是不做操作,
Figure BDA0002617603690000073
中所有元素均为1就是不做S21。
S23:将所有帧的
Figure BDA0002617603690000074
设为1,并随机选择一个除所述样本视频以外的其它视频中的帧作为
Figure BDA0002617603690000075
具体可以从训练时的一小批次视频中选取除了样本视频以外的其它视频的帧作为
Figure BDA0002617603690000076
也可以随机选取一个任意的视频中的帧作为
Figure BDA0002617603690000077
从样本间和样本内选择全局噪声可以大幅度丰富空间语境的多样性。在本发明中,时态一致性增强(TCA)是这三种数据增强的级联,这三种数据增强的级联就是值按线性顺序执行S21、S22、S23。
进一步的,可以通过训练原始样本和生成样本一致性,来指导整个模型的学习,因此,本发明实施例提供一种数据增强训练方法,采用所述的数据增强学习方法得到生成样本,还包括:通过深度学习训练所述生成样本与样本视频的一致性。
如图3所示,所述通过深度学习训练所述生成样本与样本视频的一致性具体包括:
S31:对训练集中所有样本视频进行随机打乱,并从中取一个批处理的数据;训练集中包含多个样本视频,随机打乱是通过均匀分布采样实现的。
S32:对批处理的数据进行随机打乱,并对每个样本视频进行数据增强学习后得到生成样本;随机打乱是通过均匀分布采样实现的。
S33:把样本视频和生成样本分别输入到训练模型中,得到两个输出值,通过平方损失函数度量两个输出值之间的差异,并基于差异对所述训练模型进行梯度下降。训练模型是指深度学习的神经网络,最终学习得到的训练模型对时序信息更加敏感。
本发明实施例提出了一种新的视频数据增强方法TCA来指导整个神经网络的学习目标,TCA可以简单的集成在任意一个神经网络之中。此外TCA可以通过简单的矩阵操作实现,计算开销非常小,本发明实施例的方法在三个数据集上均取得了最优效果,验证了数据增强方法的有效性。
图4示例了一种电子设备的实体结构示意图,该电子设备可以包括:处理器(processor)810、通信接口(Communications Interface)820、存储器(memory)830和通信总线840,其中,处理器810,通信接口820,存储器830通过通信总线840完成相互间的通信。处理器810可以调用存储器830中的逻辑指令,以执行数据增强学习方法,该方法包括:
将一个静态图像按照尺度因子混合到样本视频的每一帧中;
所述尺度因子的计算公式为:
Figure BDA0002617603690000081
其中,α代表尺度因子;I函数代表原视频;δ函数代表一帧随机选取图像;t为t时刻视频帧;x,y为t时刻视帧的像素索引;k为阶导数。
此外,上述的存储器830中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
另一方面,本发明实施例还提供一种计算机程序产品,所述计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,计算机能够执行上述各方法实施例所提供的数据增强学习方法,该方法包括:
将一个静态图像按照尺度因子混合到样本视频的每一帧中;
所述尺度因子的计算公式为:
Figure BDA0002617603690000091
其中,α代表尺度因子;I函数代表原视频;δ函数代表一帧随机选取图像;t为t时刻视频帧;x,y为t时刻视帧的像素索引;k为阶导数。
又一方面,本发明实施例还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各实施例提供的数据增强学习方法,该方法包括:
将一个静态图像按照尺度因子混合到样本视频的每一帧中;
所述尺度因子的计算公式为:
Figure BDA0002617603690000092
其中,α代表尺度因子;I函数代表原视频;δ函数代表一帧随机选取图像;t为t时刻视频帧;x,y为t时刻视帧的像素索引;k为阶导数。
本发明实施例还提供了另一种电子设备,该电子设备可以包括:处理器(processor)810、通信接口(Communications Interface)820、存储器(memory)830和通信总线840,其中,处理器810,通信接口820,存储器830通过通信总线840完成相互间的通信。处理器810可以调用存储器830中的逻辑指令,以执行数据增强训练方法,该方法包括:
对训练集中所有样本视频进行随机打乱,并从中取一个批处理的数据;
对批处理的数据进行随机打乱,并对每个样本视频进行数据增强学习后得到生成样本;
把样本视频和生成样本分别输入到训练模型中,得到两个输出值,通过平方损失函数度量两个输出值之间的差异,并基于差异对所述训练模型进行梯度下降。
此外,上述的存储器830中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
另一方面,本发明实施例还提供一种计算机程序产品,所述计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,计算机能够执行上述各方法实施例所提供的数据增强训练方法,该方法包括:
对训练集中所有样本视频进行随机打乱,并从中取一个批处理的数据;
对批处理的数据进行随机打乱,并对每个样本视频进行数据增强学习后得到生成样本;
把样本视频和生成样本分别输入到训练模型中,得到两个输出值,通过平方损失函数度量两个输出值之间的差异,并基于差异对所述训练模型进行梯度下降。
又一方面,本发明实施例还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各实施例提供的数据增强训练方法,该方法包括:
对训练集中所有样本视频进行随机打乱,并从中取一个批处理的数据;
对批处理的数据进行随机打乱,并对每个样本视频进行数据增强学习后得到生成样本;
把样本视频和生成样本分别输入到训练模型中,得到两个输出值,通过平方损失函数度量两个输出值之间的差异,并基于差异对所述训练模型进行梯度下降。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (10)

1.一种数据增强学习方法,其特征在于,包括:
将一个静态图像按照尺度因子混合到样本视频的每一帧中;
所述尺度因子的计算公式为:
Figure FDA0002617603680000011
其中,α代表尺度因子;I函数代表原视频;δ函数代表一帧随机选取图像;t为t时刻视频帧;x,y为t时刻视帧的像素索引;k为阶导数。
2.根据权利要求1所述的数据增强学习方法,其特征在于,还包括:通过所述尺度因子计算出所述样本视频各个时刻的视频帧,计算公式为:
Figure FDA0002617603680000012
其中,
Figure FDA0002617603680000013
代表视频i在时刻j的视频帧;L代表视频长度;
Figure FDA0002617603680000016
代表0-1的掩膜;
Figure FDA0002617603680000014
代表全局噪声。
3.根据权利要求2所述的数据增强学习方法,其特征在于,所述α是从[0.5,1]中的均匀分布随机采样的结果,掩膜
Figure FDA0002617603680000017
和全局噪声
Figure FDA0002617603680000018
都和所述样本视频中第一帧图像的大小一样。
4.根据权利要求2所述的数据增强学习方法,其特征在于,还包括:
随机选择一个固定大小的预设区域,并将预设区域的
Figure FDA0002617603680000019
设为0,所述预设区域占整个所述静态图像面积的0.1以内;
Figure FDA00026176036800000110
中所有元素均为1,并从所述样本视频中随机选择一个图像帧作为
Figure FDA00026176036800000113
将所有帧的
Figure FDA00026176036800000112
设为1,并随机选择一个除所述样本视频以外的其它视频中的帧作为
Figure FDA0002617603680000015
5.一种数据增强训练方法,其特征在于,采用如权利要求1-4任一所述的数据增强学习方法得到生成样本,还包括:通过深度学习训练所述生成样本与样本视频的一致性。
6.一种根据权利要求5所述的数据增强训练方法,其特征在于,所述通过深度学习训练所述生成样本与样本视频的一致性具体包括:
对训练集中所有样本视频进行随机打乱,并从中取一个批处理的数据;
对批处理的数据进行随机打乱,并对每个样本视频进行数据增强学习后得到生成样本;
把样本视频和生成样本分别输入到训练模型中,得到两个输出值,通过平方损失函数度量两个输出值之间的差异,并基于差异对所述训练模型进行梯度下降。
7.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-4任一所述的数据增强学习方法的步骤。
8.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1-4任一所述的数据增强学习方法的步骤。
9.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求5所述的数据增强训练方法的步骤。
10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求5所述的数据增强训练方法的步骤。
CN202010773773.9A 2020-08-04 2020-08-04 数据增强学习、训练方法、电子设备、可读存储介质 Active CN112016683B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010773773.9A CN112016683B (zh) 2020-08-04 2020-08-04 数据增强学习、训练方法、电子设备、可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010773773.9A CN112016683B (zh) 2020-08-04 2020-08-04 数据增强学习、训练方法、电子设备、可读存储介质

Publications (2)

Publication Number Publication Date
CN112016683A true CN112016683A (zh) 2020-12-01
CN112016683B CN112016683B (zh) 2023-10-31

Family

ID=73499230

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010773773.9A Active CN112016683B (zh) 2020-08-04 2020-08-04 数据增强学习、训练方法、电子设备、可读存储介质

Country Status (1)

Country Link
CN (1) CN112016683B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113469289A (zh) * 2021-09-01 2021-10-01 成都考拉悠然科技有限公司 视频自监督表征学习方法、装置、计算机设备和介质

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11341356A (ja) * 1998-05-29 1999-12-10 Fujitsu Ltd 画像復号装置
US9225889B1 (en) * 2014-08-18 2015-12-29 Entropix, Inc. Photographic image acquisition device and method
WO2018169639A1 (en) * 2017-03-17 2018-09-20 Nec Laboratories America, Inc Recognition in unlabeled videos with domain adversarial learning and knowledge distillation
CN109376611A (zh) * 2018-09-27 2019-02-22 方玉明 一种基于3d卷积神经网络的视频显著性检测方法
CN109816625A (zh) * 2018-11-27 2019-05-28 广东电网有限责任公司 一种视频质量评分实现方法
CN109871790A (zh) * 2019-01-30 2019-06-11 天津大学 一种基于混合神经网络模型的视频去色方法
KR20190091806A (ko) * 2018-01-29 2019-08-07 한국과학기술원 생성적 적대 네트워크를 이용한 비디오 시퀀스 생성 시스템 및 그 방법
CN110677624A (zh) * 2019-10-21 2020-01-10 浙江大学 基于深度学习的面向监控视频的前景和背景并行压缩方法
US20200043135A1 (en) * 2018-08-06 2020-02-06 Apple Inc. Blended neural network for super-resolution image processing
CN110929622A (zh) * 2019-11-15 2020-03-27 腾讯科技(深圳)有限公司 视频分类方法、模型训练方法、装置、设备及存储介质
KR20200050892A (ko) * 2018-11-02 2020-05-12 주식회사 에이아이인사이트 의료영상 자동판독을 위한 딥러닝 아키텍처 시스템
US20200160065A1 (en) * 2018-08-10 2020-05-21 Naver Corporation Method for training a convolutional recurrent neural network and for semantic segmentation of inputted video using the trained convolutional recurrent neural network
CN111242846A (zh) * 2020-01-07 2020-06-05 福州大学 基于非局部增强网络的细粒度尺度图像超分辨率方法

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11341356A (ja) * 1998-05-29 1999-12-10 Fujitsu Ltd 画像復号装置
US9225889B1 (en) * 2014-08-18 2015-12-29 Entropix, Inc. Photographic image acquisition device and method
WO2018169639A1 (en) * 2017-03-17 2018-09-20 Nec Laboratories America, Inc Recognition in unlabeled videos with domain adversarial learning and knowledge distillation
KR20190091806A (ko) * 2018-01-29 2019-08-07 한국과학기술원 생성적 적대 네트워크를 이용한 비디오 시퀀스 생성 시스템 및 그 방법
US20200043135A1 (en) * 2018-08-06 2020-02-06 Apple Inc. Blended neural network for super-resolution image processing
US20200160065A1 (en) * 2018-08-10 2020-05-21 Naver Corporation Method for training a convolutional recurrent neural network and for semantic segmentation of inputted video using the trained convolutional recurrent neural network
CN109376611A (zh) * 2018-09-27 2019-02-22 方玉明 一种基于3d卷积神经网络的视频显著性检测方法
KR20200050892A (ko) * 2018-11-02 2020-05-12 주식회사 에이아이인사이트 의료영상 자동판독을 위한 딥러닝 아키텍처 시스템
CN109816625A (zh) * 2018-11-27 2019-05-28 广东电网有限责任公司 一种视频质量评分实现方法
CN109871790A (zh) * 2019-01-30 2019-06-11 天津大学 一种基于混合神经网络模型的视频去色方法
CN110677624A (zh) * 2019-10-21 2020-01-10 浙江大学 基于深度学习的面向监控视频的前景和背景并行压缩方法
CN110929622A (zh) * 2019-11-15 2020-03-27 腾讯科技(深圳)有限公司 视频分类方法、模型训练方法、装置、设备及存储介质
CN111242846A (zh) * 2020-01-07 2020-06-05 福州大学 基于非局部增强网络的细粒度尺度图像超分辨率方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
张荣祥;邓志辉;: "实时视频图像降噪增强解决方案", 中国公共安全, no. 18 *
袁帅;秦贵和;晏婕;: "应用残差生成对抗网络的路况视频帧预测模型", 西安交通大学学报, no. 10 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113469289A (zh) * 2021-09-01 2021-10-01 成都考拉悠然科技有限公司 视频自监督表征学习方法、装置、计算机设备和介质

Also Published As

Publication number Publication date
CN112016683B (zh) 2023-10-31

Similar Documents

Publication Publication Date Title
Qiu et al. Semanticadv: Generating adversarial examples via attribute-conditioned image editing
CN108122234B (zh) 卷积神经网络训练及视频处理方法、装置和电子设备
Natsume et al. Rsgan: face swapping and editing using face and hair representation in latent spaces
Natsume et al. Fsnet: An identity-aware generative model for image-based face swapping
US10936919B2 (en) Method and apparatus for detecting human face
Liang et al. Understanding mixup training methods
CN108229276B (zh) 神经网络训练及图像处理方法、装置和电子设备
CN112016682B (zh) 视频表征学习、预训练方法及装置、电子设备、存储介质
CN109413510B (zh) 视频摘要生成方法和装置、电子设备、计算机存储介质
Zhang et al. Detail-preserving cyclegan-adain framework for image-to-ink painting translation
Despois et al. AgingMapGAN (AMGAN): High-resolution controllable face aging with spatially-aware conditional GANs
Lee et al. Resolution-preserving generative adversarial networks for image enhancement
Sun et al. An information theoretic approach for attention-driven face forgery detection
Chen et al. Patch selection denoiser: An effective approach defending against one-pixel attacks
Liu et al. Block shuffling learning for deepfake detection
CN112016683A (zh) 数据增强学习、训练方法、电子设备、可读存储介质
Yang et al. Denoising vision transformers
Pinetz et al. Actual Impact of GAN Augmentation on CNN Classification Performance.
CN107729992B (zh) 一种基于反向传播的深度学习方法
Shi et al. Semantic-driven context aggregation network for underwater image enhancement
Gorpincenko et al. Extending temporal data augmentation for video action recognition
Chen et al. Perspective preserving style transfer for interior portraits
Yu et al. Foreground and background separated image style transfer with a single text condition
CN109712094A (zh) 图像处理方法及装置
CN112016554B (zh) 语义分割方法、装置、电子设备与存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant