CN113158948B - 信息生成方法、装置、终端设备 - Google Patents
信息生成方法、装置、终端设备 Download PDFInfo
- Publication number
- CN113158948B CN113158948B CN202110477425.1A CN202110477425A CN113158948B CN 113158948 B CN113158948 B CN 113158948B CN 202110477425 A CN202110477425 A CN 202110477425A CN 113158948 B CN113158948 B CN 113158948B
- Authority
- CN
- China
- Prior art keywords
- image
- neural network
- network model
- sample
- target face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000003062 neural network model Methods 0.000 claims description 69
- 238000012549 training Methods 0.000 claims description 48
- 238000000605 extraction Methods 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 10
- 238000011176 pooling Methods 0.000 claims description 8
- 230000004044 response Effects 0.000 claims description 8
- 238000005457 optimization Methods 0.000 claims description 5
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 230000006870 function Effects 0.000 description 12
- 238000012545 processing Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000009977 dual effect Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 208000033748 Device issues Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本公开的实施例公开了信息生成方法、装置、终端设备。该方法的一具体实施方式包括:获取目标人脸图像;基于目标人脸图像,生成基准图像集合;基于目标人脸图像和基准图像集合,生成结果信息集合;将结果信息集合推送至目标设备,以控制目标设备进行目标操作。该方法生成参数可控的基准图像集合,通过将基准图像集合与目标人脸图像进行匹配,生成可控的表征图像相似度的结果信息集合,能够满足图像生成的需要。
Description
技术领域
本公开的实施例涉及计算机技术领域,具体涉及信息生成方法、装置、终端设备。
背景技术
人脸引擎都是不开源的,它提供的诸多接口,比如“人脸图片一比一比对”的接口,也是不开放源码或内部逻辑的。所以对外面是黑盒。但作为调用人脸引擎的上层应用平台,为了测试或模拟某种情况,则需要此接口返回不同的结果来控制黑盒的人脸引擎的黑盒的“人脸图片一比一对比”的人脸相似度匹配值的变化。
然而,当需要大量的人脸图像以及人脸相似度匹配值时,经常会存在如下技术问题:
第一,通过手动的方式制备图像,效率较低,无法大量复制,而且无法控制相似度的匹配值。很难达到制备数据,模拟创造返回值的目的。
第二,采用计算机自动生成图像时,通过直接生成人脸图像的方式无法控制图像的相似度匹配值,不能满足后续的图像使用需求。
发明内容
本公开的内容部分用于以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。本公开的内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
本公开的一些实施例提出了信息生成方法、装置、终端设备,来解决以上背景技术部分提到的技术问题中的一项或多项。
第一方面,本公开的一些实施例提供了一种信息生成方法,该方法包括:基于目标人脸图像,生成基准图像集合;基于目标人脸图像和基准图像集合,生成结果信息集合;将结果信息集合推送至目标设备,以控制目标设备进行目标操作。
在一些实施例中,所述基于所述控制参数集合和所述目标图像,生成所述基准图像集合,包括:
对于所述控制参数集合中的每个控制参数,利用下式,生成所述基准图像,以得到所述基准图像集合:
{xf,yf:
其中,xf,yf分别表示所述基准图像中的横坐标和纵坐标,xp,yp分别表示所述目标图像中的横坐标和纵坐标,f用于表征所述基准图像,p用于表征所述目标图像,W、H分别表示所述目标图像的宽度和高度,所述基准图像的宽度和高度都为W,θ表示该控制参数。
第二方面,本公开的一些实施例提供了信息生成装置,该装置包括:接收单元,被配置成获取目标人脸图像;第一生成单元,被配置成基于目标人脸图像,生成基准图像集合;第二生成单元,被配置成基于目标人脸图像和基准图像集合,生成结果信息集合;控制单元,被配置成将结果信息集合推送至目标设备,以控制目标设备进行目标操作。
第三方面,本公开的一些实施例提供了一种终端设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面中任一的方法。
第四方面,本公开的一些实施例提供了一种计算机可读介质,其上存储有计算机程序,其中程序被处理器执行时实现如第一方面中任一的方法。
本公开的上述各个实施例具有如下有益效果:通过本公开的一些实施例的信息生成方法能够生成参数可控的基准图像集合,通过将基准图像集合与目标人脸图像进行匹配,生成可控的表征图像相似度的结果信息集合,能够满足图像生成的需要。具体来说,发明人发现,造成目前生成能够表征图像相似度匹配效果的结果信息集合水平较低的原因在于:需要大量复制图像,且复制出的图像相似度结果信息不可控。基于此,首先,本公开的一些实施例获取目标人脸图像。然后,基于目标人脸图像,生成基准图像集合。最后,基于目标人脸图像和基准图像集合,生成结果信息集合。其中,结果信息为图像相似度匹配值。通过生成满足正态分布的图像生成控制参数集合,生成可控的基准图像集合。将基准图像集合与目标人脸图像进行比对以得到符合预期要求的相似度匹配值,以满足后续测试人脸引擎或对接上层应用系统的需求。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。
图1是本公开的一些实施例可以应用于其中的示例性系统的架构图;
图2是根据本公开的信息生成方法的一些实施例的流程图;
图3是根据本公开的用于训练神经网络模型的训练步骤的流程图;
图4是根据本公开的信息生成装置的一些实施例的流程图;
图5是适于用来实现本公开的一些实施例的终端设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例。相反,提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
下面将参考附图并结合实施例来详细说明本公开。
图1示出了可以应用本公开的信息生成方法的实施例的示例性系统架构100。
如图1所示,示例性系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如数据处理应用、信息生成应用、数据分析应用等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是具有显示屏的各种终端设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的终端设备中。其可以实现成多个软件或软件模块(例如用来提供目标人脸图像等),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103输入的目标人脸图像服务器等。服务器可以对接收到的目标人脸图像进行处理,并将处理结果(例如结果信息集合)反馈给终端设备。
需要说明的是,本公开实施例所提供的信息生成方法可以由服务器105,也可以由终端设备执行。
需要指出的是,服务器105的本地也可以直接存储目标人脸图像,服务器105可以直接提取本地的目标人脸图像通过处理后得到结果信息集合,此时,示例性系统架构100可以不包括终端设备101、102、103和网络104。
还需要指出的是,终端设备101、102、103中也可以安装有信息生成应用,此时,处理方法也可以由终端设备101、102、103执行。此时,示例性系统架构100也可以不包括服务器105和网络104。
需要说明的是,服务器105可以是硬件,也可以是软件。当服务器105为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块(例如用来提供信息生成服务),也可以实现成单个软件或软件模块。在此不做具体限定。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本公开的信息生成方法的一些实施例的流程200。该信息生成方法,包括以下步骤:
步骤201,获取目标人脸图像。
在一些实施例中,信息生成方法的执行主体(例如图1所示的服务器)获取目标人脸图像。具体的,目标人脸图像是待生成比对图像的目标人脸图像。
步骤202,基于目标人脸图像,生成基准图像集合。
在一些实施例中,上述执行主体基于目标人脸图像,生成基准图像集合。
可选的,确定图像生成控制参数集合。其中,图像生成控制参数集合符合正态分布,图像生成控制参数集合包括第一数目个图像生成控制参数。具体的,执行第一数目次下述步骤一,生成图像生成控制参数集合:
步骤一,随机生成[0,1]范围内的数u。利用下式,生成图像控制参数:
其中,u为随机生成的数,erf-1()表示误差函数,θ为图像控制参数。
基于图像生成控制参数集合和目标人脸图像,生成基准图像集合。其中,基准图像集合中包括第一数目个基准图像。可选的,对于图像生成控制参数集合中的每个图像生成控制参数,利用下式,生成基准图像,以得到基准图像集合:
{xf,yf:
其中,xf,yf分别表示基准图像中的横坐标和纵坐标,xp,yp分别表示目标人脸图像中的横坐标和纵坐标。f用于表征基准图像,p用于表征目标人脸图像。W、H分别表示目标人脸图像的宽度和高度。基准图像的宽度和高度都为W,θ表示该图像生成控制参数。
上述步骤202中的可选内容,即:“利用符合正态分布的图像生成控制参数集合,生成基准图像集合的技术内容”作为本公开的实施例的一个发明点,解决了背景技术提及的技术问题二“采用计算机自动生成图像时,通过直接生成人脸图像的方式无法控制图像的相似度匹配值,不能满足后续的图像使用需求。”。导致相似度匹配值不能满足后续需求的因素往往如下:生成图像不可控,简单复制图像又不能满足不同需要。如果解决了上述因素,就能达到提高相似度匹配值水平的效果。为了达到这一效果,本公开引入满足正态分布的图像生成控制参数集合生成基准图像集合。首先,生成满足正态分布的图像生成控制参数集合。然后,利用图像生成控制参数集合生成基准图像集合。具体的,基准图像可以是鱼眼图像。其中,生成鱼眼图像的参数是图像生成控制参数。图像生成控制参数集合满足正态分布,利用图像生成控制参数集合生成的基准图像不单一。通过生成鱼眼图像集合即基准图像集合,能够利用图像生成控制参数集合生成不单一的基准图像,从而控制鱼眼图像与目标人脸图像比对的相似度匹配值,使能够根据后续图像使用需求生成相应的图像,返回不单一的相似度匹配值,从而提升了相似度匹配值水平,能够根据后续的图像使用需求,针对具体需求调整控制参数集合,得到满足需求的相似度匹配值,从而解决了技术问题二。
步骤203,基于目标人脸图像和基准图像集合,生成结果信息集合。
在一些实施例中,上述执行主体基于目标人脸图像和基准图像集合,生成结果信息集合。可选的,对于基准图像集合中的每个基准图像,确定该基准图像与目标人脸图像的结果信息,以得到结果信息集合。其中,所述结果信息为图像相似度匹配值。
可选的,对于基准图像集合中的每个基准图像,将目标人脸图像和该基准图像输入预先训练的神经网络模型,以得到结果信息。可选的,预先训练的神经网络模型包括特征提取模块和判别模块。特征提取模块包括第一卷积层、第一池化层、第二卷积层、第二池化层和第三卷积层。将目标人脸图像和该基准图像输入特征提取模块,生成目标特征集合和基准特征集合。可选的,基于目标人脸图像和该基准图像,生成双通道图像。具体的,可以将灰度图像看作一个单通道图像。可以将两个灰度图像看作一个双通道图像。目标人脸图像和该基准图像可以分别是(1,64,64)单通道的图像。将两个单通道图像看作一个双通道图像可以是(2,64,64)。将双通道图像输入特征提取模块,生成目标特征集合和基准特征集合。将目标特征集合和基准特征集合输入判别模块,以得到结果信息。
步骤204,将结果信息集合推送至目标设备,以控制目标设备进行目标操作。
在一些实施例中,上述执行主体将结果信息集合推送至目标设备,以控制目标设备进行目标操作。其中,目标设备可以是与上述执行主体通信连接的设备,可以根据接收到的结果信息集合进行目标操作。目标设备可以是“手机”,也可以是“电脑”。目标操作可以是“页面显示”,也可以是发出提示信息。例如,当目标设备发出提示文字时,提示文字可以是生成的结果信息集合。通过显示出结果信息集合,可以辅助完成后续的图像处理使用需求。
图2给出的一个实施例具有如下有益效果:获取目标人脸图像;基于目标人脸图像,生成基准图像集合;基于目标人脸图像和基准图像集合,生成结果信息集合;将结果信息集合推送至目标设备,以控制目标设备进行目标操作。该方法生成参数可控的基准图像集合,通过将基准图像集合与目标人脸图像进行匹配,生成可控的表征图像相似度的结果信息集合,能够满足图像生成的需要。
继续参考图3,示出了根据本公开的预先训练的神经网络模型的训练步骤的一个实施例的流程300。该训练步骤可以包括以下步骤:
步骤301,确定初始神经网络模型的网络结构以及初始化初始神经网络模型的网络参数。
在本实施例中,该训练步骤的执行主体可以与信息生成方法的执行主体(例如图1所示的终端设备)相同或者不同。如果相同,则该训练步骤的执行主体可以在训练得到神经网络模型后将训练好的网络结构信息和网络参数的参数值存储在本地。如果不同,则该训练步骤的执行主体可以在训练得到神经网络模型后将训练好的网络结构信息和网络参数的参数值发送给信息生成方法的执行主体。
在本实施例中,该训练步骤的执行主体可以首先确定初始神经网络模型的网络结构。例如,需要确定初始神经网络模型包括哪些层,层与层之间的连接顺序关系,以及每层都包括哪些神经元,每个神经元对应的权重(weight)和偏置项(bias),每层的激活函数等等。可选的,神经网络模型可以包括特征提取模块和判别模块。可选的,初始神经网络模型包括特征提取模块和判别模块。特征提取模块包括第一卷积层、第一池化层、第二卷积层、第二池化层和第三卷积层。
然后,该训练步骤的执行主体可以初始化初始神经网络模型的网络参数。实践中,可以将初始神经网络模型的各个网络参数(例如,权值参数和偏置参数)用一些不同的小随机数进行初始化。“小随机数”用来保证网络不会因权值过大而进入饱和状态,从而导致训练失败,“不同”用来保证网络可以正常地学习。
步骤302,获取训练样本集。
在本实施例中,该训练步骤的执行主体可以本地或者远程地从与上述执行主体网络连接的其他终端设备获取训练样本集。其中,训练样本包括样本目标人脸图像和样本基准图像的样本集合,以及和对应于样本集合的样本结果信息。
步骤303,从所述样本集中选取样本,将该样本包括的样本集合作为输入,将对应的预先得到的对应于样本集合的样本结果信息作为期望输出,训练神经网络。
在本实施例中,该训练步骤的执行主体可以执行步骤一,训练神经网络模型。
步骤一,神经网络模型训练过程。
首先,将选取的训练样本集合中的训练样本包括的样本集合输入至初始神经网络模型,得到选取的样本的结果信息。
第二,将选取的样本的结果信息与对应的样本结果信息进行比较。具体地,可以首先利用预设的损失函数计算所选取的样本的结果信息与对应的样本结果信息之间的差异。例如,可以使用交叉熵损失函数计算所选取的样本的结果信与对应的样本结果信之间的差异,在交叉熵损失函数中使用sigmoid函数在梯度下降时能避免机器学习速率降低的问题。
第三,响应于确定初始神经网络模型达到优化目标,将初始神经网络模型作为训练完成的预先训练的神经网络模型,训练结束。具体的,这里预设的优化目标可以包括但不限于以下至少一项:训练时间超过预设时长;训练次数超过预设次数;计算所得的差异小于预设差异阈值。
步骤304,响应于确定初始神经网络模型未训练完成,调整初始神经网络模型中的相关参数,以及从样本集中重新选取样本,使用调整后的初始神经网络模型作为初始神经网络模型,再次执行训练步骤。
在本实施例中,该训练步骤的执行主体响应于确定初始神经网络模型未训练完成,具体的,可以是响应于初始神经网络模型未达到优化目标,调整初始神经网络模型中的相关参数。具体的,可以采用各种实现方式基于所选取的样本的结果信息与对应的样本结果信息之间的差异调整初始神经网络模型的网络参数。例如,可以采用Adam、BP(BackPropagation,反向传播)算法或者SGD(Stochastic Gradient Descent,随机梯度下降)算法来调整初始神经网络模型的网络参数。
可选的,上述执行主体从样本集中重新选取样本。将该样本包括的样本集合作为输入,将对应的预先得到的对应于样本集合的样本结果信息作为期望输出,使用调整后的初始神经网络模型作为初始神经网络模型,执行上述步骤一,再次训练神经网络模型。
在本实施例中,该训练步骤的执行主体将训练得到的初始神经网络模型确定为预先训练的神经网络模型。
图3给出的一个实施例具有如下有益效果:基于样本集合和对应于样本集合的样本结果信息训练得到神经网络模型。该神经网络模型可以直接应用于判断输入的目标人脸图像和基准图像相匹配的结果信息。该方法中直接将目标人脸图像和基准图像组成的集合确定为双通道图像,经过预先训练的神经网络模型中的特征提取模块中第一层卷积层后,目标人脸图像和基准图像的像素直接进行了加权组合及映射。在进入特征提取模块和判别模块中其余神经网络各层,目标人脸图像和基准图像是作为一张图像处理的,从而提高了图像相似度匹配值的准确程度。
进一步参考图4,作为对上述各图上述方法的实现,本公开提供了一种信息生成装置的一些实施例,这些装置实施例与图2上述的那些方法实施例相对应,该装置具体可以应用于各种终端设备中。
如图4所示,一些实施例的信息生成装置400,装置包括:接收单元401,第一生成单元402、第二生成单元403、控制单元404。其中,接收单元401,被配置成获取目标人脸图像。第一生成单元402,被配置成基于目标人脸图像,生成基准图像集合。第二生成单元403,被配置成基于目标人脸图像和基准图像集合,生成结果信息集合。控制单元404,被配置成将结果信息集合推送至目标设备,以控制目标设备进行目标操作。
可以理解的是,该装置400中记载的诸单元与参考图2描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作、特征以及产生的有益效果同样适用于装置400及其中包含的单元,在此不再赘述。
下面参考图5,其示出了适于用来实现本公开实施例的终端设备的计算机系统500的结构示意图。图5示出的终端设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图5所示,计算机系统500包括中央处理单元(CPU,Central Processing Unit)501,其可以根据存储在只读存储器(ROM,Read Only Memory)502中的程序或者从存储部分508加载到随机访问存储器(RAM,Random Access Memory)503中的程序而执行各种适当的动作和处理。在RAM503中,还存储有系统500操作所需的各种程序和数据。CPU 501、ROM 502以及RAM 503通过总线504彼此相连。输入/输出(I/O,Input/Output)接口505也连接至总线504。
以下部件连接至I/O接口505:包括硬盘等的存储部分506;以及包括诸如LAN(局域网,Local Area Network)卡、调制解调器等的网络接口卡的通信部分507。通信部分507经由诸如因特网的网络执行通信处理。驱动器508也根据需要连接至I/O接口505。可拆卸介质509,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器508上,以便于从其上读出的计算机程序根据需要被安装入存储部分506。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分507从网络上被下载和安装,和/或从可拆卸介质509被安装。在该计算机程序被中央处理单元(CPU)501执行时,执行本公开的方法中限定的上述功能。需要说明的是,本公开所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如C语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (4)
1.一种信息生成方法,包括:
获取目标人脸图像;
基于所述目标人脸图像,生成基准图像集合,基准图像是鱼眼图像;
基于所述目标人脸图像和所述基准图像集合,生成结果信息集合,其中,所述结果信息集合中的结果信息为图像相似度匹配值;
将所述结果信息集合推送至目标设备,以控制所述目标设备进行目标操作;
其中,所述基于所述目标人脸图像,生成基准图像集合,包括:
确定图像生成控制参数集合,其中,所述图像生成控制参数集合符合正态分布,所述图像生成控制参数集合包括第一数目个图像生成控制参数;
基于所述图像生成控制参数集合和所述目标人脸图像,生成所述基准图像集合,其中,所述基准图像集合中包括第一数目个基准图像;
其中,所述图像生成控制参数集合中的图像生成控制参数通过以下方式生成:随机生成[0,1]范围内的数u,利用下式生成图像生成控制参数:其中,u为随机生成的数,erf-1()表示误差函数,θ为图像生成控制参数;
其中,所述基于所述图像生成控制参数集合和所述目标人脸图像,生成所述基准图像集合,包括:
对于所述图像生成控制参数集合中的每个图像生成控制参数,利用下式生成所述基准图像,以得到所述基准图像集合:
{xf,yf:
其中,xf,yf分别表示基准图像中的横坐标和纵坐标,xp,yp分别表示目标人脸图像中的横坐标和纵坐标,f用于表征基准图像,p用于表征目标人脸图像,W、H分别表示目标人脸图像的宽度和高度,基准图像的宽度和高度都为W,θ表示该图像生成控制参数;
其中,所述确定该基准图像与所述目标人脸图像的结果信息,包括:
将所述目标人脸图像和该基准图像输入预先训练的神经网络模型,以得到所述结果信息;
其中,所述预先训练的神经网络模型包括特征提取模块和判别模块;以及
所述将所述目标人脸图像和该基准图像输入预先训练的神经网络模型,以得到所述结果信息,包括:
将所述目标人脸图像和该基准图像输入所述特征提取模块,生成目标特征集合和基准特征集合;
将所述目标特征集合和所述基准特征集合输入所述判别模块,以得到所述结果信息;
其中,所述特征提取模块包括第一卷积层、第一池化层、第二卷积层、第二池化层和第三卷积层;以及
所述将所述目标人脸图像和该基准图像输入所述特征提取模块,生成目标特征集合和基准特征集合,包括:
基于所述目标人脸图像和该基准图像,生成双通道图像;
将所述双通道图像输入所述特征提取模块,生成目标特征集合和基准特征集合;
其中,所述预先训练的神经网络模型包括以下步骤:
确定初始神经网络模型的网络结构以及初始化初始神经网络模型的网络参数;
获取训练样本集,训练样本包括样本目标人脸图像和样本基准图像的样本集合,以及和对应于样本集合的样本结果信息;
从所述样本集中选取样本,将该样本包括的样本集合作为输入,将对应的预先得到的对应于样本集合的样本结果信息作为期望输出,训练神经网络,训练神经网络模型包括:将选取的训练样本集合中的训练样本包括的样本集合输入至初始神经网络模型,得到选取的样本的结果信息;将选取的样本的结果信息与对应的样本结果信息进行比较;响应于确定初始神经网络模型达到优化目标,将初始神经网络模型作为训练完成的预先训练的神经网络模型;
响应于确定初始神经网络模型未训练完成,调整初始神经网络模型中的相关参数,以及从样本集中重新选取样本,使用调整后的初始神经网络模型作为初始神经网络模型,再次执行训练步骤。
2.一种信息生成装置,包括:
接收单元,被配置成获取目标人脸图像;
第一生成单元,被配置成基于所述目标人脸图像,生成基准图像集合,基准图像是鱼眼图像;
第二生成单元,被配置成基于所述目标人脸图像和所述基准图像集合,生成结果信息集合;
控制单元,被配置成将所述结果信息集合推送至目标设备,以控制所述目标设备进行目标操作;
其中,所述第一生成单元,进一步被配置成:确定图像生成控制参数集合,其中,所述图像生成控制参数集合符合正态分布,所述图像生成控制参数集合包括第一数目个图像生成控制参数;基于所述图像生成控制参数集合和所述目标人脸图像,生成所述基准图像集合,其中,所述基准图像集合中包括第一数目个基准图像;其中,所述图像生成控制参数集合中的图像生成控制参数通过以下方式生成:随机生成[0,1]范围内的数u,利用下式生成图像生成控制参数:其中,u为随机生成的数,erf-1()表示误差函数,θ为图像生成控制参数;其中,所述基于所述图像生成控制参数集合和所述目标人脸图像,生成所述基准图像集合,包括:对于所述图像生成控制参数集合中的每个图像生成控制参数,利用下式生成所述基准图{xf,yf:
像,以得到所述基准图像集合:其中,xf,yf分别表示基准图像中的横坐标和纵坐标,xp,yp分别表示目标人脸图像中的横坐标和纵坐标,f用于表征基准图像,p用于表征目标人脸图像,W、H分别表示目标人脸图像的宽度和高度,基准图像的宽度和高度都为W,θ表示该图像生成控制参数;
其中,所述确定该基准图像与所述目标人脸图像的结果信息,包括:
将所述目标人脸图像和该基准图像输入预先训练的神经网络模型,以得到所述结果信息;
其中,所述预先训练的神经网络模型包括特征提取模块和判别模块;以及
所述将所述目标人脸图像和该基准图像输入预先训练的神经网络模型,以得到所述结果信息,包括:
将所述目标人脸图像和该基准图像输入所述特征提取模块,生成目标特征集合和基准特征集合;
将所述目标特征集合和所述基准特征集合输入所述判别模块,以得到所述结果信息;
其中,所述特征提取模块包括第一卷积层、第一池化层、第二卷积层、第二池化层和第三卷积层;以及
所述将所述目标人脸图像和该基准图像输入所述特征提取模块,生成目标特征集合和基准特征集合,包括:
基于所述目标人脸图像和该基准图像,生成双通道图像;
将所述双通道图像输入所述特征提取模块,生成目标特征集合和基准特征集合;
其中,所述预先训练的神经网络模型包括以下步骤:
确定初始神经网络模型的网络结构以及初始化初始神经网络模型的网络参数;
获取训练样本集,训练样本包括样本目标人脸图像和样本基准图像的样本集合,以及和对应于样本集合的样本结果信息;
从所述样本集中选取样本,将该样本包括的样本集合作为输入,将对应的预先得到的对应于样本集合的样本结果信息作为期望输出,训练神经网络,训练神经网络模型包括:将选取的训练样本集合中的训练样本包括的样本集合输入至初始神经网络模型,得到选取的样本的结果信息;将选取的样本的结果信息与对应的样本结果信息进行比较;响应于确定初始神经网络模型达到优化目标,将初始神经网络模型作为训练完成的预先训练的神经网络模型;
响应于确定初始神经网络模型未训练完成,调整初始神经网络模型中的相关参数,以及从样本集中重新选取样本,使用调整后的初始神经网络模型作为初始神经网络模型,再次执行训练步骤。
3.一种终端设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1所述的方法。
4.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110477425.1A CN113158948B (zh) | 2021-04-29 | 2021-04-29 | 信息生成方法、装置、终端设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110477425.1A CN113158948B (zh) | 2021-04-29 | 2021-04-29 | 信息生成方法、装置、终端设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113158948A CN113158948A (zh) | 2021-07-23 |
CN113158948B true CN113158948B (zh) | 2024-08-02 |
Family
ID=76872675
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110477425.1A Active CN113158948B (zh) | 2021-04-29 | 2021-04-29 | 信息生成方法、装置、终端设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113158948B (zh) |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3903783B2 (ja) * | 2001-12-14 | 2007-04-11 | 日本電気株式会社 | 顔メタデータ生成方法および装置、並びに顔類似度算出方法および装置 |
CN109902546B (zh) * | 2018-05-28 | 2020-11-06 | 华为技术有限公司 | 人脸识别方法、装置及计算机可读介质 |
CN109165570A (zh) * | 2018-08-03 | 2019-01-08 | 北京字节跳动网络技术有限公司 | 用于生成信息的方法和装置 |
CN109741247B (zh) * | 2018-12-29 | 2020-04-21 | 四川大学 | 一种基于神经网络的肖像漫画生成方法 |
CN111476222B (zh) * | 2020-06-11 | 2020-10-09 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机设备和计算机可读存储介质 |
CN112069916B (zh) * | 2020-08-14 | 2024-02-20 | 五邑大学 | 人脸美丽预测方法、装置、系统及可读存储介质 |
CN112258387A (zh) * | 2020-10-30 | 2021-01-22 | 北京航空航天大学 | 一种基于人脸照片生成漫画人像的图像转换系统及方法 |
-
2021
- 2021-04-29 CN CN202110477425.1A patent/CN113158948B/zh active Active
Non-Patent Citations (2)
Title |
---|
Learning to compare image patches via convolutional neural networks;Zagoruyko et al.;《Proceedings of the IEEE conference on computer vision and pattern recognition》;第4353-4360页 * |
Toward multimodal image-to-image translation;Zhu et al.;《Advances in neural information processing systems 30》;第1-9页 * |
Also Published As
Publication number | Publication date |
---|---|
CN113158948A (zh) | 2021-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107766940B (zh) | 用于生成模型的方法和装置 | |
CN108520220B (zh) | 模型生成方法和装置 | |
WO2020155907A1 (zh) | 用于生成漫画风格转换模型的方法和装置 | |
CN108427939B (zh) | 模型生成方法和装置 | |
CN108197652B (zh) | 用于生成信息的方法和装置 | |
KR20200110400A (ko) | 학습 데이터 증강 정책 | |
CN111523640B (zh) | 神经网络模型的训练方法和装置 | |
CN107609506B (zh) | 用于生成图像的方法和装置 | |
CN107507153B (zh) | 图像去噪方法和装置 | |
CN113128419B (zh) | 一种障碍物识别方法和装置、电子设备及存储介质 | |
US11922281B2 (en) | Training machine learning models using teacher annealing | |
CN110021052B (zh) | 用于生成眼底图像生成模型的方法和装置 | |
CN111046027A (zh) | 时间序列数据的缺失值填充方法和装置 | |
EP3485433A1 (en) | Generating video frames using neural networks | |
JP7354463B2 (ja) | データ保護方法、装置、サーバ及び媒体 | |
CN112149699B (zh) | 用于生成模型的方法、装置和用于识别图像的方法、装置 | |
CN110084317B (zh) | 用于识别图像的方法和装置 | |
US11514313B2 (en) | Sampling from a generator neural network using a discriminator neural network | |
WO2020093724A1 (zh) | 生成信息的方法和装置 | |
CN114612688B (zh) | 对抗样本生成方法、模型训练方法、处理方法及电子设备 | |
CN110008926B (zh) | 用于识别年龄的方法和装置 | |
CN112241761B (zh) | 模型训练方法、装置和电子设备 | |
CN117454935A (zh) | 模型训练方法、信息生成方法、装置、设备和介质 | |
CN114581966A (zh) | 用于信息处理的方法、电子设备和计算机程序产品 | |
CN113158948B (zh) | 信息生成方法、装置、终端设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |