CN111325316A - 一种训练数据的生成方法及装置 - Google Patents

一种训练数据的生成方法及装置 Download PDF

Info

Publication number
CN111325316A
CN111325316A CN202010060470.2A CN202010060470A CN111325316A CN 111325316 A CN111325316 A CN 111325316A CN 202010060470 A CN202010060470 A CN 202010060470A CN 111325316 A CN111325316 A CN 111325316A
Authority
CN
China
Prior art keywords
data
feature
feature set
training
loss
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010060470.2A
Other languages
English (en)
Other versions
CN111325316B (zh
Inventor
顾林松
胡文泽
王孝宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Intellifusion Technologies Co Ltd
Original Assignee
Shenzhen Intellifusion Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Intellifusion Technologies Co Ltd filed Critical Shenzhen Intellifusion Technologies Co Ltd
Priority to CN202010060470.2A priority Critical patent/CN111325316B/zh
Publication of CN111325316A publication Critical patent/CN111325316A/zh
Application granted granted Critical
Publication of CN111325316B publication Critical patent/CN111325316B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本申请适用于数据处理技术领域,提供了一种训练数据的生成方法,包括:将第一数据输入预训练特征提取网络模型中,获得攻击特征集合;将第二数据输入预训练特征提取网络模型中,获得内容特征集合;将原始数据输入预训练特征提取网络模型中,获得空白特征集合;对攻击特征集合和空白特征集合进行计算,获得特征损失;对内容特征集合和空白特征集合进行计算,获得内容损失;通过特征损失和内容损失对空白特征集合进行处理,获得目标训练数据。本申请通过将不同类型的数据输入预训练特征提取模型,获得对应的特征集合,计算获得特征损失和内容损失并进行处理,生成大量目标训练数据,降低了训练数据的获取成本,提高了对神经网络模型的训练效率。

Description

一种训练数据的生成方法及装置
技术领域
本申请属于数据处理技术领域,尤其涉及一种训练数据的生成方法及装置。
背景技术
目前,在任一领域应用神经网络模型的过程中,均需要获取大量的训练数据对神经网络模型进行训练,获得具有目标功能的训练后的神经网络模型。其中,训练数据多为具有攻击性的数据。
在实际应用中,如人脸活体检测技术领域内,所应用的各种算法都需要大量的训练数据来优化,以得到好的泛化性能。然而,实际情况中存在训练数据(如图片攻击数据、纸张攻击数据)的数量小,获取成本高,且不同场景下获得的不同训练数据具有极大的差别的问题,影响了对神经网络模型的训练效果。
发明内容
本申请实施例提供了一种训练数据的生成方法及装置,可以解决训练数据的数量小,获取成本高,且获得的不同训练数据具有极大的差别,影响了对神经网络模型的训练效果问题。
第一方面,本申请实施例提供了一种训练数据的生成方法,包括:
将第一数据输入预训练特征提取网络模型中,获得攻击特征集合;其中,第一数据为非真实数据;所述非真实数据包括非真实图片攻击数据、纸张攻击数据、电子设备攻击数据或非真实视频攻击数据;
将第二数据输入所述预训练特征提取网络模型中,获得内容特征集合;其中,第二数据为真实数据;所述真实数据包括图片数据或视频数据;
将原始数据输入所述预训练特征提取网络模型中,获得空白特征集合;其中,所述原始数据为内容为空的数据;所述原始数据包括图片数据或视频数据;
对所述攻击特征集合和空白特征集合进行计算,获得特征损失;
对所述内容特征集合和空白特征集合进行计算,获得内容损失;
通过特征损失和内容损失对所述空白特征集合进行处理,获得目标训练数据。
第二方面,本申请实施例提供了一种训练数据的生成装置,包括:
第一输入模块,用于将第一数据输入预训练特征提取网络模型中,获得攻击特征集合;其中,第一数据为非真实数据;所述非真实数据包括非真实图片攻击数据、纸张攻击数据、电子设备攻击数据或非真实视频攻击数据;
第二输入模块,用于将第二数据输入所述预训练特征提取网络模型中,获得内容特征集合;其中,第二数据为真实数据;所述真实数据包括图片数据或视频数据;
第三输入模块,用于将原始数据输入所述预训练特征提取网络模型中,获得空白特征集合;其中,所述原始数据为内容为空的数据;所述原始数据包括图片数据或视频数据;
第一计算模块,用于对所述攻击特征集合和空白特征集合进行计算,获得特征损失;
第二计算模块,用于对所述内容特征集合和空白特征集合进行计算,获得内容损失;
处理模块,用于通过特征损失和内容损失对所述空白特征集合进行处理,获得目标训练数据。
第三方面,本申请实施例提供了一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上述第一方面中任一项所述的训练数据的生成方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上述第一方面中任一项所述的训练数据的生成方法。
第五方面,本申请实施例提供了一种计算机程序产品,当计算机程序产品在终端设备上运行时,使得终端设备执行上述第一方面中任一项所述的训练数据的生成方法。
可以理解的是,上述第二方面至第五方面的有益效果可以参见上述第一方面中的相关描述,在此不再赘述。
本申请实施例通过将第一数据、第二数据和原始数据输入预设的特征提取模型中,获得对应的攻击特征集合、内容特征集合和空白特征集合,并通过计算,获得特征损失和内容损失,通过对特征损失和内容损失进行处理,生成具有差异性的目标训练数据,降低了训练数据的获取成本,提高了训练数据对神经网络模型的训练效果。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一实施例提供的训练数据的生成方法的流程示意图;
图2-4是本申请一实施例提供的基于训练数据的生成方法的应用流程示意图;
图5是本申请一实施例提供的训练数据的生成方法的流程示意图;
图6是本申请一实施例提供的训练数据的生成方法的流程示意图;
图7是本申请一实施例提供的训练数据的生成装置的结构示意图;
图8是本申请一实施例提供的第一计算模块的结构示意图;
图9是本申请一实施例提供的第二计算模块的结构示意图;
图10是本申请一实施例提供的训练数据的生成方法所适用于的人脸识别终端的结构示意图;
图11是本申请一实施例提供的训练数据的生成方法的所适用于的软件架构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
应当理解,当在本申请说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本申请说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
另外,在本申请说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
在本申请说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本申请的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。
实施例一
本申请实施例提供的训练数据的生成方法可以应用于手机、平板电脑、人脸识别终端、门禁机、车载设备、笔记本电脑、超级移动个人计算机(Ultra-Mobile PersonalComputer,UMPC)、上网本、个人数字助理(Personal Digital Assistant,PDA)等终端设备上,本申请实施例对终端设备的具体类型不作任何限制。
例如,所述终端设备可以是WLAN中的站点(STAION,ST),可以是蜂窝电话、无绳电话、会话启动协议(Session Initiation Protocol,SIP)电话、无线本地环路(WirelessLocal Loop,WLL)站、个人数字处理(Personal Digital Assistant,PDA)设备、具有无线通信功能的手持设备、计算设备或连接到无线调制解调器的其它处理设备、车载设备、车联网终端、电脑、膝上型计算机、手持式通信设备、手持式计算设备、卫星无线设备、无线调制解调器卡、电视机顶盒(Set Top Box,STB)、用户驻地设备(Customer Ppremise Equipment,CPE)和/或用于在无线系统上进行通信的其它设备以及下一代通信系统,例如,5G网络中的移动终端或者未来演进的公共陆地移动网络(Public Land Mobile Network,PLMN)网络中的移动终端等。
图1示出了本申请提供的训练数据的生成方法的示意性流程图,作为示例而非限定,该方法可以应用于人脸识别终端中。
S101、将第一数据输入预训练特征提取网络模型中,获得攻击特征集合;其中,第一数据为非真实数据;所述非真实数据包括非真实图片攻击数据、纸张攻击数据、电子设备攻击数据或非真实视频攻击数据。
在具体应用中,第一数据是指非真实的数据。第一数据包括但不限于非真实图片攻击数据、纸张攻击数据、电子设备攻击数据或非真实视频攻击数据。例如,在人脸识别过程中,第一数据可以是伪造的包含人脸的图像、包含人脸的画像或包含人脸的视频。
特征提取网络模型包括但不限于深度神经网络学习模型。
攻击特征集合用于集合第一数据中的特征。攻击特征集合包括第一数据在特征提取网络模型中提取到的每层网络层中每个通道的特征数据,每一特征数据包括特征图,特征图所在的网络层、通道数和特征图的高以及特征图的宽中的至少一种。
S102、将第二数据输入所述预训练特征提取网络模型中,获得内容特征集合;其中,第二数据为真实数据;所述真实数据包括图片数据或视频数据。
在具体应用中,第二数据是指具有真实内容的数据。例如,在人脸识别过程中,真实数据为能提取到真实人脸内容的图片或视频。
内容特征集合用于集合第二数据中的特征。内容特征集合包括第二数据在特征提取网络模型中提取到的每层网络层中每个通道的特征数据,每一特征数据包括特征图,特征图所在的网络层、通道数和特征图的高以及特征图的宽中的至少一种。
S103、将原始数据输入所述预训练特征提取网络模型中,获得空白特征集合;其中,原始数据为内容为空的数据;所述原始数据包括图片数据或视频数据。
在具体应用中,原始数据是指内容为空的数据。例如,在人脸识别的过程中,原始数据可以是内容为空的图片或视频,即其中不包括任何人脸或其他元素。
空白特征集合的特征数据包括但不限于像素、大小和清晰度中的至少一种。
在本实施例中,在原始数据为图片时,设定其像素为127。
S104、对所述攻击特征集合和空白特征集合进行计算,获得特征损失。
在具体应用中,通过预设计算方法对空白特征集合的特征数据和一个以上的攻击特征集合的特征数据进行计算,获得特征损失(Style loss);预设计算方法包括但不限于格拉姆(Gram)矩阵、协方差算法、KL松散度法(KL Divergence,KLD)、瓦瑟斯坦距离法(Wasserstein Distance,WD)、最大均值差异法(Maximum Mean Discrepancy,MMD)和海林格距离法(Hellinger Distance,HD)中的至少一种。
通过对多个不同类型的攻击特征集合进行计算,获得特征损失具有一定的差异性,能够提高目标训练数据的差异性,进而提高对神经网络模型训练的效果。
S105、对所述内容特征集合和空白特征集合进行计算,获得内容损失。
在具体应用中,通过对内容特征集合的特征数据(特征数据包括特征图,特征图所在的网络层、通道数以及该特征图的高和宽中的至少一种)以及空白特征集合的特征数据(特征数据包括特征图,特征图所在的网络层、通道数以及该特征图的高和宽中的至少一种)进行计算,获得任一特征集合的特征数据从最小值到最大值的情况下,对应的内容特征集合的特征数据与对应的空白特征集合的特征数据之间的距离,并求取距离之和,获得内容损失(Content loss)。
在本实施例中,计算在任一特征集合(包括内容特征集合与空白特征集合中的任意一个)的特征数据从最小值到最大值的情况下,对应的内容特征集合的特征数据与对应的空白特征集合的特征数据之间的距离的和,作为内容损失。
作为示例而非限定,内容特征集合的特征数据从最小值到最大值的情况包括:
内容特征集合的特征图所在的层数从初始值i至最大值(在本实施例中,设定初始值i为0,最大值通过l表示);
内容特征集合中特征图所在的任一层的通道数从初始值j到最大值(在本实施例中,初始值j设定为0,最大值通过c表示);
内容特征集合中特征图的高从初始值p到最大值(在本实施例中,初始值p设定为0,最大值通过h表示);
以及内容特征集合中特征图的宽从初始值q到最大值(在本实施例中,初始值设定为0,最大值通过w表示)中的至少一种。
例如,当任一特征集合的特征图所在的层数为l,特征图所在的任一层的通道数为c,特征图的高为h,特征图的宽为w时,对应的内容特征集合的特征数据可通过fcijpq表示,对应的空白特征集合的特征数据可通过ffijpq表示。
还例如,任一特征集合的特征图所在的层数为2,特征图所在的任一层的通道数为2,特征图的高为2,特征图的宽为2时,对应的内容特征集合的特征数据可通过fc2222表示,对应的空白特征集合的特征数据可通过ff2222表示。
在一个实施例中,可通过对攻击特征集合的特征数据、内容特征集合的特征数据和空白特征集合的特征数据进行计算,获得感知损失(Perceptual loss),通过感知损失优化空白特征集合(即通过感知损失将攻击特征集合的特征数据和内容特征集合的特征数据迁移至空白特征集合中),获得目标训练数据。其中,感知损失包括特征损失和内容损失。
其计算方法为:感知损失=第一超参数*特征损失+第二超参数*内容损失。其中,第一超参数+第二超参数=1,在一般情况下,第一超参数和第二超参数均设置为0.5。
因此,一般情况下,感知损失=特征损失+内容损失。
S106、通过特征损失和内容损失对所述空白特征集合进行处理,获得目标训练数据。
在具体应用中,将特征损失和内容损失迁移至空白特征集合中,并对特征损失、内容损失和空白特征集合的特征数据进行数据融合,获得具有第一数据的特征数据和第二数据的特征数据的目标训练数据。
例如,在人脸识别过程中,通过对攻击特征集合进行计算获得纹理特征数据(即特征损失),通过对内容特征集合进行计算获得真实人脸的五官定位数据(即内容损失)。并将纹理特征数据和人脸的五官定位数据迁移至空白特征集合中,并将纹理特征数据、空白特征集合的像素(空白特征集合的特征数据)与真实人脸的五官定位数据有效融合在空白特征集合中,获得仿真的人脸图像数据(即目标训练数据)。
在一个实施例中,步骤S106,包括:
将特征损失和内容损失迁移至所述空白特征集合;
对特征损失、内容损失和所述空白特征集合的特征数据进行数据融合,获得目标训练数据。
如图2-4所示,提供了一种基于训练数据的生成方法的应用流程示意图;
图2具体为将获得的攻击特征集合的特征数据和空白特征集合的特征数据进行处理,获得特征损失(Style loss);
图3具体为将获得的内容特征集合的特征数据和空白特征集合的特征数据进行处理,获得内容损失(Content loss)。
图4具体为将获取到的特征损失(Style loss)和内容损失(Content loss)迁移至空白特征集合中,并与空白特征集合的特征数据进行融合,获得目标训练数据。
在一个实施例中,步骤S101,包括:
通过预训练数据对特征提取网络模型进行预训练,获取预训练特征提取网络模型;其中,所述预训练特征提取网络模型用于识别预训练数据的类型,并生成与预训练数据的类型对应的特征集合,预训练数据的类型包括第一数据、第二数据或原始数据。
在具体应用中,可采用深度卷积网络通过预训练数据来对特征提取网络模型进行训练。预训练数据包括但不限于不同类型的第一数据、不同类型的第二数据和不同类型的原始数据中的至少一种。通过预训练数据对特征提取网络模型进行预训练,使得获得预训练特征提取网络模型能够识别预训练数据的类型,并生成与预训练数据的类型对应的特征集合,其中,与预训练数据的类型对应的特征集合包括但不限于攻击特征集合、内容特征集合或空白特征集合;与预训练数据的类型对应的特征集合用于集合预训练数据的特征。预训练数据的类型与对应的特征集合之间的映射关系可由特征集合的l、c、h以及w中的至少一种特征数据(index)得到;l为任一特征集合的特征图所在的层数,c为任一特征集合中特征图所在的任一层的通道数;h为任一特征集合中特征图的高,w为任一特征集合中特征图的宽。
例如,在人脸识别过程中,通过大量不同类型的攻击图片、真人图片和空白图片对特征提取网络模型进行预训练,使得预训练特征提取网络模型能够识别输入数据为攻击图片、真人图片还是空白图片。若输入数据为攻击图片,则生成对应的攻击特征集合,其中,攻击特征集合用于提取攻击图片的特征。
通过大量的预训练数据对特征提取网络模型进行预训练,提高了预训练特征提取网络模型的识别能力,提高了生成与输入数据类型对应的模型的效率。
本实施例通过将第一数据、第二数据和原始数据输入预设的特征提取模型中,获得对应的攻击特征集合、内容特征集合和空白特征集合,并通过计算,获得特征损失和内容损失,通过对特征损失和内容损失进行处理,生成具有差异性的目标训练数据,降低了训练数据的获取成本,提高了训练数据对神经网络模型的训练效果。
实施例二
如图5所示,本实施例是对实施例一中的方法步骤的进一步说明。在本实施例中,步骤S104,包括:
S1041、根据空白特征集合计算任一攻击特征集合的损失。
在具体应用中,获取空白特征集合的特征数据和任意一个攻击特征集合的特征数据,通过预设算法分别对空白特征集合的特征数据和任一攻击特征集合的特征数据进行计算,获得第一计算结果和第二计算结果;获取第一计算结果和第二计算结果之间的距离并求和,获取任一攻击特征集合的损失;其中,预设算法包括格拉姆矩阵、协方差算法、KL松散度法、瓦瑟斯坦距离法、最大均值差异法和海林格距离法中的至少一种。
具体的,可通过通过预设算法分别对空白特征集合的特征数据和任一攻击特征集合的特征数据进行计算,获得第一计算结果和第二计算结果。其中,预设算法包括但不限于格拉姆(Gram)矩阵、协方差算法、KL松散度法(KL Divergence,KLD)、瓦瑟斯坦距离法(Wasserstein Distance,WD)、最大均值差异法(Maximum Mean Discrepancy,MMD)和海林格距离法(Hellinger Distance,HD)中的至少一种。
使用不同的预设算法可产生不同的第一计算结果和第二计算结果。例如,当预设算法为格拉姆矩阵时,第一计算结果和第二计算结果分别是空白特征集合的特征数据的格拉姆矩及攻击特征集合的特征数据的格拉姆矩阵。
再对第一计算结果和第二计算结果(如空白特征集合的特征数据的格拉姆矩阵和攻击特征集合的特征数据的格拉姆矩阵)之间的距离进行计算,并求和,获得任一攻击特征集合的损失。
其中,格拉姆矩阵的计算公式为:
Figure BDA0002374292160000091
式中,l为任一特征集合的特征图所在的层数,c为任一特征集合中特征图所在的任一层的通道数;h为任一特征集合中特征图的高,w为任一特征集合中特征图的宽。p为特征图的高的初始值,一般情况下设定为0。q为特征图的宽的初始值,一般情况下设定为0。
以预设算法为格拉姆矩阵为例,获取第一计算结果和第二计算结果之间的距离并求和,获取任一攻击特征集合的损失的计算公式如下:
Figure BDA0002374292160000101
式中,LSk为第k个攻击特征集合的损失,fski为第i个攻击特征集合的特征数据,ffi为空白特征集合的特征数据;
i=0表示任一特征集合的层数l的初始值,一般情况下设定为0。
上式可以理解为:计算任一特征集合(包括攻击特征集合与空白特征集合中的任意一个)的特征图所在的层数从初始值i到最大值l的情况下,对应的攻击特征集合的gram矩阵和对应的空白特征集合的gram矩阵之间的距离,并求取距离之和,距离之和即为任一攻击特征集合的损失。
通过拉姆矩阵对空白特征集合的特征数据和攻击特征集合的特征数据进行计算,获取任意一个攻击特征集合的损失,能够优化将攻击特征集合的特征数据迁移至空白特征集合的精准度,提高攻击特征集合的特征数据和空白特征集合的特征数据融合的可行性。
S1042、通过加权算法对一个以上的攻击特征集合的损失和预设的权重进行计算,获得特征损失。
在具体应用中,通过预设方法获取任意一个攻击特征集合对应的权重。
其中,预设方法可根据实际情况进行具体设定。
在本实施例中,预设方法为:任一攻击特征集合对应的权重为1/攻击特征集合的数量。例如,若攻击特征集合的数量为5,则任一攻击特征集合对应的权重为1/5。
用公式表示如下:
θk为第k个攻击特征集合对应的权重,
Figure BDA0002374292160000102
其中,N为攻击特征集合的顺序值。
通过加权算法计算特征损失(LS)的公式如下:
Figure BDA0002374292160000103
式中,
Figure BDA0002374292160000104
由于第一数据的数量越小会使攻击特征集合的异常值影响越大,而第一数据的数量越大,会使攻击特征集合的特征数据愈趋于平均。因此,需将第一数据的数量设定为一个中间值。
根据实验可知,第一数据的数量可设定为5,即N=5时,可提取出异常值影响较小的目标训练数据。
或者,首先对所有攻击特征集合进行随机排序,获取任意一个攻击特征集合的顺序值。
然后获取1/(顺序值+1),作为上述攻击特征集合对应的权重。例如,若某一个攻击特征集合排在第五位,则某一攻击特征集合的顺序值为5,该攻击特征集合对应的权重为1/6。N的值越大,
Figure BDA0002374292160000111
越趋近于1。
在一个实施例中,步骤S1031,包括:
获取空白特征集合的特征数据和任一攻击特征集合的特征数据;
通过预设算法分别对空白特征集合的特征数据和任一攻击特征集合的特征数据进行计算,获得第一计算结果和第二计算结果;
获取第一计算结果和第二计算结果之间的距离并求和,获取任一攻击特征集合的损失。
本实施例通过对空白特征集合的特征数据进行计算,获得多个攻击特征集合的损失,并通过加权算法对多个攻击特征集合的损失进行计算,获得特征损失,平衡了多个不同类型的第一数据的特征,提高了将特征损失与空白特征集合的特征数据融合的可行性。
根据对不同攻击特征集合的损失设定不同的权重,可通过置换或改变权重生成具有差异性的特征损失,进而提高目标训练数据的生成数量。
实施例三
如图6所示,本实施例是对实施例一中的方法步骤的进一步说明。在本实施例中,步骤S105,包括:
S1051、获取所述内容特征集合的特征数据。
在具体应用中,获取内容特征集合的参数,根据内容特征集合的参数计算获得内容特征集合的特征数据;其中,内容特征集合的参数包括但不限于内容特征集合中的特征图、特征图所在的层数,内容特征集合中特征图所在的任一层的通道(channel)数、内容特征集合的特征图(feature map)的高以及内容特征集合的特征图(feature map)的宽。
S1052、计算所述内容特征集合的特征数据以及空白特征集合的特征数据之间的距离的和,获得内容损失。
在具体应用中,计算在任一特征集合(包括内容特征集合与空白特征集合中的任意一个)的特征数据(特征数据包括特征图,特征图所在的网络层、通道数以及该特征图的高和宽中的至少一种)从最小值到最大值的情况下,对应的内容特征集合的特征数据与对应的空白特征集合的特征数据之间的距离的和,获得的和作为内容损失。
在本实施例中,步骤S1052的计算公式可表示为:
Figure BDA0002374292160000121
式中,Lc为内容损失,fcijpq为内容特征集合的特征数据,ffijpq为空白特征集合的特征数据。l为内容特征集合的特征图所在的层数,c为内容特征集合中特征图所在的任一层的通道数;h为内容特征集合中特征图的高,w为内容特征集合中特征图的宽。i为内容特征集合的特征图所在的层数l的初始值,一般情况下设定为0;j为内容特征集合中特征图所在的任一层的通道数c的初始值,一般情况下设定为0。p为内容特征集合中特征图的高h的初始值,一般情况下设定为0,q为内容特征集合中特征图的宽w的初始值,一般情况下设定为0。
本实施例根据内容特征集合的特征数据和空白特征集合的特征数据进行计算,获得内容损失,提高将内容损失迁移至空白特征集合,并与空白特征集合的特征数据融合的可行性。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
实施例四
对应于上文实施例所述的训练数据的生成方法,图7示出了本申请实施例提供的训练数据的生成装置100的结构框图,为了便于说明,仅示出了与本申请实施例相关的部分。
参照图7,该装置100包括:
第一输入模块101,用于将第一数据输入预训练特征提取网络模型中,获得攻击特征集合;其中,第一数据为非真实数据;所述非真实数据包括非真实图片攻击数据、纸张攻击数据、电子设备攻击数据或非真实视频攻击数据;
第二输入模块102,用于将第二数据输入所述预训练特征提取网络模型中,获得内容特征集合;其中,第二数据为真实数据;所述真实数据包括图片数据或视频数据;
第三输入模块103,用于将原始数据输入所述预训练特征提取网络模型中,获得空白特征集合;其中,所述原始数据为内容为空的数据;所述原始数据包括图片数据或视频数据;
第一计算模块104,用于对所述攻击特征集合和空白特征集合进行计算,获得特征损失;
第二计算模块105,用于对所述内容特征集合和空白特征集合进行计算,获得内容损失;
处理模块106,用于通过特征损失和内容损失对所述空白特征集合进行处理,获得目标训练数据。
在一个实施例中,训练数据的生成装置100,还包括:
预训练模块,用于通过预训练数据对特征提取网络模型进行预训练,获取预训练特征提取网络模型;其中,所述预训练特征提取网络模型用于识别预训练数据的类型,并生成与预训练数据的类型对应的特征集合,预训练数据的类型包括第一数据、第二数据或原始数据。
本实施例将第一数据、第二数据和原始数据输入预设的特征提取模型中,获得对应的攻击特征集合、内容特征集合和空白特征集合,并通过计算,获得特征损失和内容损失,通过对特征损失和内容损失进行处理,生成具有差异性的目标训练数据,降低了训练数据的获取成本,提高了训练数据对神经网络模型的训练效果。
实施例五
如图8所示,在本实施例中,实施例三中的第一计算模块104,还包括用于执行实施例三中方法步骤的以下结构:
第一计算单元1041,用于根据空白特征集合计算任一攻击特征集合的损失;
加权计算单元1042,用于通过加权算法对一个以上的攻击特征集合的损失和预设的权重进行计算,获得特征损失。
在一个实施例中,第一计算单元1041,包括:
获取子单元,用于获取空白特征集合的特征数据和任一攻击特征集合的特征数据;
计算子单元,用于通过预设算法分别对空白特征集合的特征数据和任一攻击特征集合的特征数据进行计算,获得第一计算结果和第二计算结果;
求和子单元,用于获取第一计算结果和第二计算结果之间的距离并求和,获取任一攻击特征集合的损失。
本实施例通过对空白特征集合的特征数据进行计算,获得多个攻击特征集合的损失,并通过加权算法对多个攻击特征集合的损失进行计算,获得特征损失,平衡了多个不同类型的第一数据的特征,提高了将特征损失与空白特征集合的特征数据融合的可行性。
根据对不同攻击特征集合的损失设定不同的权重,可通过置换或改变权重生成具有差异性的特征损失,进而提高目标训练数据的生成数量。
实施例六
如图9所示,在本实施例中,实施例三中的第二计算模块105,还包括用于执行实施例三中方法步骤的以下结构:
获取单元1051,用于获取所述内容特征集合的特征数据。
第二计算单元1052,用于计算所述内容特征集合的特征数据以及空白特征集合的特征数据之间的距离的和,获得内容损失。
本实施例根据内容特征集合的特征数据和空白特征集合的特征数据进行计算,获得内容损失,提高将内容损失迁移至空白特征集合,并与空白特征集合的特征数据融合的可行性。
需要说明的是,上述装置/单元之间的信息交互、执行过程等内容,由于与本申请方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
实施例七
以所述终端设备为人脸识别终端200为例。图10示出的是与本申请实施例提供的人脸识别终端的部分结构的框图。参考图10,人脸识别终端200包括:射频(RadioFrequency,RF)电路110、存储器120、输入单元130、显示单元140、传感器150、音频电路160、无线保真(Wireless fidelity,WiFi)模块170、处理器180、以及电源190等部件。本领域技术人员可以理解,图10中示出的人脸识别终端200结构并不构成对人脸识别终端200的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
下面结合图10对人脸识别终端200的各个构成部件进行具体的介绍:
RF电路110可用于接收数据或识别过程中,信号的接收和发送,特别地,将基站的下行信息接收后,给处理器180处理;另外,将设计上行的数据发送给基站。通常,RF电路包括但不限于天线、至少一个放大器、耦合器、低噪声放大器(Low Noise Amplifier,LNA)、双工器等。此外,RF电路110还可以通过无线通信与网络和其他设备通信。上述无线通信可以使用任一通信标准或协议,包括但不限于全球移动通讯系统(Global System of Mobilecommunication,GSM)、通用分组无线服务(General Packet Radio Service,GPRS)、码分多址(Code Division Multiple Access,CDMA)、宽带码分多址(Wideband Code DivisionMultiple Access,WCDMA)、长期演进(Long Term Evolution,LTE))、电子邮件、短消息服务(Short Messaging Service,SMS)等。
存储器120可用于存储软件程序以及模块,处理器180通过运行存储在存储器120的软件程序以及模块,从而执行人脸识别终端200的各种功能应用以及数据处理。存储器120可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如图片显示功能、视频播放功能等)等;存储数据区可存储根据人脸识别终端200的使用所创建的数据(比如音频数据、视频数据等)等。此外,存储器120可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
输入单元130可用于接收输入的数字或字符信息,以及产生与人脸识别终端200的用户设置以及功能控制有关的键信号输入。具体地,输入单元130可包括触控面板131以及其他输入设备132。触控面板131,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板131上或在触控面板131附近的操作),并根据预先设定的程式驱动相应的连接装置。可选的,触控面板131可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器180,并能接收处理器180发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板131。除了触控面板131,输入单元130还可以包括其他输入设备132。具体地,其他输入设备132可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。
显示单元140可用于显示由用户输入的信息或提供给用户的信息以及人脸识别终端200的各种菜单。显示单元140可包括显示面板141,可选的,可以采用液晶显示器(LiquidCrystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板141。进一步的,触控面板131可覆盖显示面板141,当触控面板131检测到在其上或附近的触摸操作后,传送给处理器180以确定触摸事件的类型,随后处理器180根据触摸事件的类型在显示面板141上提供相应的视觉输出。虽然在图10中,触控面板131与显示面板141是作为两个独立的部件来实现人脸识别终端200的输入和输入功能,但是在某些实施例中,可以将触控面板131与显示面板141集成而实现人脸识别终端200的输入和输出功能。
人脸识别终端200还可包括至少一种传感器150,比如光传感器及其他传感器。具体地,光传感器可包括环境光传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板141的亮度。至于人脸识别终端200还可配置的陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。
音频电路160、扬声器161,传声器162可提供用户与人脸识别终端200之间的音频接口。音频电路160可将接收到的音频数据转换后的电信号,传输到扬声器161,由扬声器161转换为声音信号输出;另一方面,传声器162将收集的声音信号转换为电信号,由音频电路160接收后转换为音频数据,再将音频数据输出处理器180处理后,经RF电路110以发送给比如另一人脸识别终端200,或者将音频数据输出至存储器120以便进一步处理。
WiFi属于短距离无线传输技术,人脸识别终端200通过WiFi模块170可以获取用户的相关数据等,它为用户提供了无线的宽带互联网访问。虽然图10示出了WiFi模块170,但是可以理解的是,其并不属于人脸识别终端200的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。
处理器180是人脸识别终端200的控制中心,利用各种接口和线路连接整个人脸识别终端200的各个部分,通过运行或执行存储在存储器120内的软件程序和/或模块,以及调用存储在存储器120内的数据,执行人脸识别终端200的各种功能和处理数据,从而对人脸识别终端200进行整体监控。可选的,处理器180可包括一个或多个处理单元;优选的,处理器180可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器180中。
人脸识别终端200还包括给各个部件供电的电源190(比如电池),优选的,电源可以通过电源管理系统与处理器180逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
尽管未示出,人脸识别终端200还可以包括摄像头。可选地,摄像头在人脸识别终端200的上的位置可以为前置的,也可以为后置的,本申请实施例对此不作限定。
可选地,人脸识别终端200可以包括单摄像头、双摄像头或三摄像头等,本申请实施例对此不作限定。
例如,人脸识别终端200可以包括三摄像头,其中,一个为主摄像头、一个为广角摄像头、一个为长焦摄像头。
可选地,当人脸识别终端200包括多个摄像头时,这多个摄像头可以全部前置,或者全部后置,或者一部分前置、另一部分后置,本申请实施例对此不作限定。
另外,尽管未示出,人脸识别终端200还可以包括蓝牙模块等,在此不再赘述。
图11是本申请实施例的人脸识别终端200的软件结构示意图。以人脸识别终端200操作系统为Android系统为例,在一些实施例中,将Android系统分为四层,分别为应用程序层、应用程序框架层(Framework,FWK)、系统层以及硬件抽象层,层与层之间通过软件接口通信。
如图11所示,所述应用程序层可以一系列应用程序包,应用程序包可以包括音频、相机,视频,导航,图库,等应用程序。
应用程序框架层为应用程序层的应用程序提供应用编程接口(ApplicationProgramming Interface,API)和编程框架。应用程序框架层可以包括一些预先定义的函数,例如用于接收应用程序框架层所发送的事件的函数。
如图11所示,应用程序框架层可以包括窗口管理器、资源管理器以及通知管理器等。
窗口管理器用于管理窗口程序。窗口管理器可以获取显示屏大小,判断是否有状态栏,锁定屏幕,截取屏幕等。内容提供器用来存放和获取数据,并使这些数据可以被应用程序访问。所述数据可以包括视频,图像,音频等。
资源管理器为应用程序提供各种资源,比如本地化字符串,图标,图片,视频文件等等。
通知管理器使应用程序可以在状态栏中显示通知信息,可以用于传达告知类型的消息,可以短暂停留后自动消失,无需用户交互。比如通知管理器被用于告知下载完成,消息提醒等。通知管理器还可以是以图表或者滚动条文本形式出现在系统顶部状态栏的通知,例如后台运行的应用程序的通知,还可以是以对话窗口形式出现在屏幕上的通知。例如在状态栏提示文本信息,发出提示音,电子设备振动,指示灯闪烁等。
应用程序框架层还可以包括:
视图系统,所述视图系统包括可视控件,例如显示文字的控件,显示图片的控件等。视图系统可用于构建应用程序。显示界面可以由一个或多个视图组成的。例如,包括信息通知图标的显示界面,可以包括显示文字的视图以及显示图片的视图。
系统层可以包括多个功能模块。例如:传感器服务模块,物理状态识别模块,三维图形处理库(例如:OpenGL ES)等。
传感器服务模块,用于对硬件层各类传感器上传的传感器数据进行监测,确定人脸识别终端200的物理状态;
物理状态识别模块,用于对用户手势、肢体动作等进行分析和识别;
三维图形处理库用于实现三维图形绘图,图像渲染,合成,和图层处理等。
系统层还可以包括:
表面管理器用于对显示子系统进行管理,并且为多个应用程序提供了2D和3D图层的融合。
媒体库支持多种常用的音频,视频格式回放和录制,以及静态图像文件等。媒体库可以支持多种音视频编码格式,例如:MPEG4,H.264,MP3,AAC,AMR,JPG,PNG等。
硬件抽象层是硬件和软件之间的层。硬件抽象层可以包括显示驱动,摄像头驱动,传感器驱动等,用于驱动硬件层的相关硬件,如显示屏、摄像头、传感器等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本申请实施例还提供了一种终端设备,该终端设备包括:至少一个处理器、存储器以及存储在所述存储器中并可在所述至少一个处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述任意各个方法实施例中的步骤。
本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现可实现上述各个方法实施例中的步骤。
本申请实施例提供了一种计算机程序产品,当计算机程序产品在移动终端上运行时,使得移动终端执行时实现可实现上述各个方法实施例中的步骤。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,可以通过计算机程序指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质至少可以包括:能够将计算机程序代码携带到拍照装置/终端设备的任何实体或装置、记录介质、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random AccessMemory)、电载波信号、电信信号以及软件分发介质。例如U盘、移动硬盘、磁碟或者光盘等。在某些司法管辖区,根据立法和专利实践,计算机可读介质不可以是电载波信号和电信信号。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置/网络设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/网络设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

Claims (10)

1.一种训练数据的生成方法,其特征在于,包括:
将第一数据输入预训练特征提取网络模型中,获得攻击特征集合;其中,第一数据为非真实数据;所述非真实数据包括非真实图片攻击数据、纸张攻击数据、电子设备攻击数据或非真实视频攻击数据;
将第二数据输入所述预训练特征提取网络模型中,获得内容特征集合;其中,第二数据为真实数据;所述真实数据包括图片数据或视频数据;
将原始数据输入所述预训练特征提取网络模型中,获得空白特征集合;其中,所述原始数据为内容为空的数据;所述原始数据包括图片数据或视频数据;
对所述攻击特征集合和空白特征集合进行计算,获得特征损失;
对所述内容特征集合和空白特征集合进行计算,获得内容损失;
通过特征损失和内容损失对所述空白特征集合进行处理,获得目标训练数据。
2.如权利要求1所述的训练数据的生成方法,其特征在于,所述将第一数据输入预训练特征提取网络模型中,获得攻击特征集合之前,所述方法包括:
通过预训练数据对特征提取网络模型进行预训练,获取预训练特征提取网络模型;其中,所述预训练特征提取网络模型用于识别预训练数据的类型,并生成与预训练数据的类型对应的特征集合,预训练数据的类型包括第一数据、第二数据或原始数据。
3.如权利要求1所述的训练数据的生成方法,其特征在于,对所述攻击特征集合和空白特征集合进行计算,获得特征损失,包括:
根据空白特征集合计算任一攻击特征集合的损失;
通过加权算法对一个以上的攻击特征集合的损失和预设的权重进行计算,获得特征损失。
4.如权利要求3所述的训练数据的生成方法,其特征在于,所述根据空白特征集合计算任一攻击特征集合的损失,包括:
获取空白特征集合的特征数据和任一攻击特征集合的特征数据;
通过预设算法分别对空白特征集合的特征数据和任一攻击特征集合的特征数据进行计算,获得第一计算结果和第二计算结果;
获取第一计算结果和第二计算结果之间的距离并求和,获取任一攻击特征集合的损失。
5.如权利要求1所述的训练数据的生成方法,其特征在于,所述对所述内容特征集合和空白特征集合进行计算,获得内容损失,包括:
获取所述内容特征集合的特征数据;
计算所述内容特征集合的特征数据以及空白特征集合的特征数据之间的距离的和,以获得内容损失。
6.如权利要求1所述的训练数据的生成方法,其特征在于,通过特征损失和内容损失对所述空白特征集合进行处理,获得目标训练数据,包括:
将特征损失和内容损失迁移至所述空白特征集合;
对特征损失、内容损失和所述空白特征集合的特征数据进行数据融合,获得目标训练数据。
7.一种训练数据的生成装置,其特征在于,包括:
第一输入模块,用于将第一数据输入预训练特征提取网络模型中,获得攻击特征集合;其中,第一数据为非真实数据;所述非真实数据包括非真实图片攻击数据、纸张攻击数据、电子设备攻击数据或非真实视频攻击数据;
第二输入模块,用于将第二数据输入所述预训练特征提取网络模型中,获得内容特征集合;其中,第二数据为真实数据;所述真实数据包括图片数据或视频数据;
第三输入模块,用于将原始数据输入所述预训练特征提取网络模型中,获得空白特征集合;其中,所述原始数据为内容为空的数据;所述原始数据包括图片数据或视频数据;
第一计算模块,用于对所述攻击特征集合和空白特征集合进行计算,获得特征损失;
第二计算模块,用于对所述内容特征集合和空白特征集合进行计算,获得内容损失;
处理模块,用于通过特征损失和内容损失对所述空白特征集合进行处理,获得目标训练数据。
8.如权利要求7所述的训练数据的生成装置,其特征在于,还包括:
预训练模块,用于通过预训练数据对特征提取网络模型进行预训练,获取预训练特征提取网络模型;其中,所述预训练特征提取网络模型用于识别预训练数据的类型,并生成与预训练数据的类型对应的特征集合,预训练数据的类型包括第一数据、第二数据或原始数据。
9.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至6任一项所述的方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6任一项所述的方法。
CN202010060470.2A 2020-01-19 2020-01-19 一种训练数据的生成方法及装置 Active CN111325316B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010060470.2A CN111325316B (zh) 2020-01-19 2020-01-19 一种训练数据的生成方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010060470.2A CN111325316B (zh) 2020-01-19 2020-01-19 一种训练数据的生成方法及装置

Publications (2)

Publication Number Publication Date
CN111325316A true CN111325316A (zh) 2020-06-23
CN111325316B CN111325316B (zh) 2023-08-01

Family

ID=71172803

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010060470.2A Active CN111325316B (zh) 2020-01-19 2020-01-19 一种训练数据的生成方法及装置

Country Status (1)

Country Link
CN (1) CN111325316B (zh)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107563283A (zh) * 2017-07-26 2018-01-09 百度在线网络技术(北京)有限公司 生成攻击样本的方法、装置、设备及存储介质
US20180150947A1 (en) * 2016-11-28 2018-05-31 Adobe Systems Incorporated Facilitating sketch to painting transformations
US20180204121A1 (en) * 2017-01-17 2018-07-19 Baidu Online Network Technology (Beijing) Co., Ltd Audio processing method and apparatus based on artificial intelligence
CN108711137A (zh) * 2018-05-18 2018-10-26 西安交通大学 一种基于深度卷积神经网络的图像色彩表达模式迁移方法
CN109034365A (zh) * 2018-07-06 2018-12-18 电子科技大学 深度学习模型的训练方法及装置
CN109147758A (zh) * 2018-09-12 2019-01-04 科大讯飞股份有限公司 一种说话人声音转换方法及装置
CN109284729A (zh) * 2018-10-08 2019-01-29 北京影谱科技股份有限公司 基于视频获取人脸识别模型训练数据的方法、装置和介质
CN109543735A (zh) * 2018-11-14 2019-03-29 北京工商大学 视频拷贝检测方法及其系统
CN109766895A (zh) * 2019-01-03 2019-05-17 京东方科技集团股份有限公司 用于图像风格迁移的卷积神经网络的训练方法和图像风格迁移方法
CN110163082A (zh) * 2019-04-02 2019-08-23 腾讯科技(深圳)有限公司 一种图像识别网络模型训练方法、图像识别方法及装置
CN110378842A (zh) * 2019-07-25 2019-10-25 厦门大学 一种图像纹理滤波方法、终端设备及存储介质

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180150947A1 (en) * 2016-11-28 2018-05-31 Adobe Systems Incorporated Facilitating sketch to painting transformations
US20180204121A1 (en) * 2017-01-17 2018-07-19 Baidu Online Network Technology (Beijing) Co., Ltd Audio processing method and apparatus based on artificial intelligence
CN107563283A (zh) * 2017-07-26 2018-01-09 百度在线网络技术(北京)有限公司 生成攻击样本的方法、装置、设备及存储介质
CN108711137A (zh) * 2018-05-18 2018-10-26 西安交通大学 一种基于深度卷积神经网络的图像色彩表达模式迁移方法
CN109034365A (zh) * 2018-07-06 2018-12-18 电子科技大学 深度学习模型的训练方法及装置
CN109147758A (zh) * 2018-09-12 2019-01-04 科大讯飞股份有限公司 一种说话人声音转换方法及装置
CN109284729A (zh) * 2018-10-08 2019-01-29 北京影谱科技股份有限公司 基于视频获取人脸识别模型训练数据的方法、装置和介质
CN109543735A (zh) * 2018-11-14 2019-03-29 北京工商大学 视频拷贝检测方法及其系统
CN109766895A (zh) * 2019-01-03 2019-05-17 京东方科技集团股份有限公司 用于图像风格迁移的卷积神经网络的训练方法和图像风格迁移方法
CN110163082A (zh) * 2019-04-02 2019-08-23 腾讯科技(深圳)有限公司 一种图像识别网络模型训练方法、图像识别方法及装置
CN110378842A (zh) * 2019-07-25 2019-10-25 厦门大学 一种图像纹理滤波方法、终端设备及存储介质

Also Published As

Publication number Publication date
CN111325316B (zh) 2023-08-01

Similar Documents

Publication Publication Date Title
CN111061574B (zh) 一种对象分享方法及电子设备
CN110891144B (zh) 一种图像显示方法及电子设备
CN109495616B (zh) 一种拍照方法及终端设备
CN110795007A (zh) 一种获取截图信息的方法及装置
CN112423138A (zh) 一种搜索结果展示方法及终端设备
CN113220848B (zh) 用于人机交互的自动问答方法、装置和智能设备
CN112001741A (zh) 多任务处理模型的构建方法、装置、电子设备及存储介质
CN109753202B (zh) 一种截屏方法和移动终端
CN109246351B (zh) 一种构图方法及终端设备
CN110703972A (zh) 一种文件控制方法及电子设备
CN114154068A (zh) 媒体内容推荐方法、装置、电子设备及存储介质
CN111124231B (zh) 图片生成方法及电子设备
CN110276404A (zh) 模型训练方法、装置及存储介质
CN112835493A (zh) 截屏显示方法、装置和终端设备
CN113763931B (zh) 波形特征提取方法、装置、计算机设备及存储介质
WO2021197260A1 (zh) 便签创建方法及电子设备
CN113409041B (zh) 一种电子卡的选取方法、装置、终端以及存储介质
CN114691860A (zh) 文本分类模型的训练方法、装置、电子设备及存储介质
CN109639880B (zh) 一种天气信息显示方法及终端设备
CN111275607A (zh) 界面显示方法、装置、计算机设备及存储介质
CN111325316B (zh) 一种训练数据的生成方法及装置
CN115082202A (zh) 用于房屋抵押的信息处理方法、装置、设备及存储介质
CN113031838B (zh) 屏幕录制方法、装置及电子设备
CN111414496B (zh) 基于人工智能的多媒体文件的检测方法和装置
CN110933305B (zh) 电子设备及对焦方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant