CN110956127A - 用于生成特征向量的方法、装置、电子设备和介质 - Google Patents

用于生成特征向量的方法、装置、电子设备和介质 Download PDF

Info

Publication number
CN110956127A
CN110956127A CN201911189574.7A CN201911189574A CN110956127A CN 110956127 A CN110956127 A CN 110956127A CN 201911189574 A CN201911189574 A CN 201911189574A CN 110956127 A CN110956127 A CN 110956127A
Authority
CN
China
Prior art keywords
face
sample
feature vector
training
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911189574.7A
Other languages
English (en)
Inventor
张韵东
周学武
康珮珮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing Zhongxing Micro Artificial Intelligence Chip Technology Co Ltd
Original Assignee
Chongqing Zhongxing Micro Artificial Intelligence Chip Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing Zhongxing Micro Artificial Intelligence Chip Technology Co Ltd filed Critical Chongqing Zhongxing Micro Artificial Intelligence Chip Technology Co Ltd
Priority to CN201911189574.7A priority Critical patent/CN110956127A/zh
Publication of CN110956127A publication Critical patent/CN110956127A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本公开的实施例公开了用于生成特征向量的方法、装置、电子设备和介质。该方法的一具体实施方式包括:获取人脸图像;将该人脸图像输入至预先训练的第一人脸识别网络,生成与该人脸图像的人脸特征向量,其中,该第一人脸识别网络是通过以下步骤得到的:获取训练样本集合,训练样本包括样本人脸图像和该样本人脸图像对应的样本特征向量;将该训练样本集合中的训练样本的样本人脸图片作为输入,将与输入的样本人脸图片对应的样本特征向量作为期望输出,训练得到该第一人脸识别网络。该实施方式提高了人脸识别网络的识别精度。

Description

用于生成特征向量的方法、装置、电子设备和介质
技术领域
本公开的实施例涉及计算机技术领域,具体涉及用于生成特征向量的方法、装置、电子设备和介质。
背景技术
人脸识别是基于人的脸部特征信息进行身份识别的一种生物识别技术。除了安防、金融这两大领域外,人脸识别还在交通、教育、医疗、警务、电子商务等诸多场景实现了广泛应用,且呈现出显著应用价值。随着计算机视觉技术的不断进步,人脸识别也得到飞速的发展。近年来,深度学习的发展逐渐成熟,用数据去学习特征,替代了传统算法中手工设计特征,在很多领域取得了较大进步。基于深度学习的人脸识别算法凭借其识别率高的优势一举超越传统人脸识别算法,逐步成为整个人脸识别领域的主流技术。在当前众多基于深度学习的人脸识别算法中,识别率提高是最重要的目标。
发明内容
本发明内容部分用于以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。本发明内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
本公开的一些实施例提出了用于生成特征向量的方法、装置、电子设备和介质,来解决以上背景技术部分提到的技术问题。
第一方面,本公开的一些实施例提供了一种用于生成特征向量的方法、装置、电子设备和介质,该方法包括:获取人脸图像;将上述人脸图像输入至预先训练的第一人脸识别网络,生成与上述人脸图像对应的人脸特征向量,其中,上述第一人脸识别网络是通过以下步骤得到的:获取训练样本集合,训练样本包括样本人脸图像和上述样本人脸图像对应的样本特征向量;将上述训练样本集合中的训练样本的样本人脸图片作为输入,将与输入的样本人脸图片对应的样本特征向量作为期望输出,训练得到上述第一人脸识别网络。
在一些实施例中,上述训练样本是通过以下步骤得到的:从人脸数据集中获取第一人脸图像,其中,上述人脸数据集用于存储人脸图片和对应的样本人脸特征向量;将上述第一人脸图像依次输入上述第一人脸识别网络和第二人脸识别网络,分别得到第一人脸特征向量和第二人脸特征向量;将上述第一人脸特征向量和上述第二人脸特征向量进行处理,得到第三人脸特征向量;将上述第三人脸特征向量输入预先训练的融合网络中的编码器中,得到第四人脸特征向量,将上述第一人脸图像作为上述样本人脸图像,将上述第四人脸特征向量作为上述样本人脸图像对应的样本特征向量。
在一些实施例中,上述融合网络是通过以下步骤得到的:获取样本集,其中,样本包括上述样本第三人脸特征向量和上述样本第三人脸特征向量对应的人脸图片在上述人脸数据集中的样本人脸特征向量;将上述样本集中的样本中的样本第三人脸特征向量作为输入,将与输入的样本第三人脸特征向量对应的人脸图片在上述人脸数据集中的样本人脸特征向量作为期望输出,训练得到上述融合网络。
在一些实施例中,上述第一人脸识别网络的识别精度小于上述第二人脸识别网络的识别精度;上述融合网络的识别精度大于上述第一人脸识别网络的识别精度。
在一些实施例中,上述融合网络的结构是编码器-解码器结构。
在一些实施例中,上述将上述样本集中的样本中的样本第三人脸特征向量作为输入,将与输入的样本第三人脸特征向量对应的人脸图片在上述人脸数据集中的样本人脸特征向量作为期望输出,训练得到上述融合网络,包括:从上述样本集中选取样本,执行以下训练步骤:将选取的样本的样本第三人脸特征向量输入初始融合网络,得到与上述样本第三人脸特征向量对应的人脸特征向量;将上述人脸特征向量与对应的样本人脸特征向量进行分析,确定第一损失值;将上述第一损失值与预设阈值进行比较;根据比较结果确定初始融合网络是否训练完成;响应于确定初始融合网络训练完成,将初始融合网络确定为融合网络。
在一些实施例中,上述方法还包括:响应于确定初始融合网络未训练完成,调整初始融合网络中的相关参数,以及从上述样本集中重新选取样本,使用调整后的初始融合网络作为初始融合网络,继续执行上述训练步骤。
第二方面,本公开的一些实施例提供了一种用于生成特征向量的装置,装置包括:第一获取单元,被配置成获取人脸图像;生成单元,被配置成将上述人脸图像输入至预先训练的第一人脸识别网络,生成与上述人脸图像对应的人脸特征向量,其中,上述第一人脸识别网络是通过以下步骤得到的:获取训练样本集合,训练样本包括样本人脸图像和上述样本人脸图像对应的样本特征向量;将上述训练样本集合中的训练样本的样本人脸图片作为输入,将与输入的样本人脸图片对应的样本特征向量作为期望输出,训练得到上述第一人脸识别网络。
第三方面,本公开的一些实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面中任一的方法。
第四方面,本公开的一些实施例提供了一种计算机可读介质,其上存储有计算机程序,其中,程序被处理器执行时实现如第一方面中任一的方法。
本公开的上述各个实施例中的一个实施例具有如下有益效果:通过将获取到的人脸图像,输入至预先训练的第一人脸识别网络,生成与上述人脸图像的人脸特征向量,通过对比上述第一人脸识别网络输出的人脸特征向量和预先训练的第一人脸识别网络输出的人脸特征向量,提高了人脸识别网络的识别精度。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。
图1是根据本公开的一些实施例的用于生成特征向量的方法的一个应用场景的示意图;
图2是根据本公开的用于生成特征向量的方法的一些实施例的流程图;
图3是根据本公开的融合网络的训练方法的一些实施例的流程图;
图4是根据本公开的用于生成特征向量的装置的一些实施例的结构示意图;
图5是适于用来实现本公开的一些实施例的电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例。相反,提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
下面将参考附图并结合实施例来详细说明本公开。
图1是根据本公开的一些实施例的用于生成特征向量的方法的一个应用场景的示意图。在图1的应用场景中,执行主体可以是服务器(例如,图1中所示服务器101)。当执行主体101接收到人脸图像,将上述人脸图像输入预先训练好的第一人脸识别网络,得到上述人脸图像对应的人脸特征向量。其中,上述人脸特征向量是通过深度学习网络对上述人脸图像进行分析得到的,其中,上述深度学习网络已通过训练样本集合进行了训练。上述训练样本集合包括样本人脸图像和上述样本人脸图像对应的样本特征向量,上述深度学习网络是以上述样本人脸图像作为输入并以上述样本人脸图像对应的样本特征向量用于作为期望输出进行训练的。上述人脸特征向量可以是512维的向量。
需要说明的是,上述执行主体可以是硬件,也可以是软件。当执行主体为硬件时,可以实现成多个服务器或终端设备组成的分布式集群,也可以实现成单个服务器或单个终端设备。当执行主体体现为软件时,可以实现成例如用来提供分布式服务的多个软件或软件模块,也可以实现成单个软件或软件模块。还可以是一个线程或进程。在此不做具体限定。
应该理解,图1中的服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的服务器。
继续参考图2,示出了根据本公开的用于生成特征向量的方法的一些实施例的流程200。该用于生成特征向量的方法,包括以下步骤:
步骤201,获取人脸图像。
在一些实施例中,首先,用于生成特征向量的方法的执行主体(例如图1所示的服务器101)可以通过有线连接方式或者无线连接方式获取人脸图像。其中,上述人脸图像可以是用户存储在本地的图片,还可以是用户从网上下载的图片。
需要指出的是,上述无线连接方式可以包括但不限于3G/4G连接、WiFi连接、蓝牙连接、WiMAX连接、Zigbee连接、UWB(ultra wideband)连接、以及其他现在已知或将来开发的无线连接方式。
步骤202,将上述人脸图像输入至预先训练的第一人脸识别网络,生成与上述人脸图像对应的人脸特征向量。
在一些实施例中,基于步骤201中得到的人脸图像,上述执行主体将上述人脸图像输入至预先训练的第一人脸识别网络,从而生成与上述人脸图像对应的人脸特征向量。其中,上述预先训练的第一人脸识别网络是通过以下步骤(包括步骤2021-步骤2022)得到的。上述人脸特征向量可以是用于表征上述人脸图像的人脸特征的向量。例如,可以是512维的向量。
在一些实施例中,上述步骤包括如下步骤:
步骤2021,获取训练样本集合,训练样本包括样本人脸图像和上述样本人脸图像对应的样本特征向量。
在一些实施例中,训练第一人脸识别网络的执行主体(如图1所示的服务器101)可以通过有线连接方式或者无线连接方式获取训练样本集合。其中,上述训练样本集合中的训练样本包括样本人脸图像和上述样本人脸图像对应的样本特征向量。上述执行主体可以从服务器中获取存储于其中的现有的训练样本。也可以通过与上述执行主体有通信连接的终端设备来获取训练样本。
在一些实施例的一些可选的实现方式中,训练样本可以通过以下步骤得到:首先,从人脸数据集中获取第一人脸图像,其中,上述人脸数据集用于存储人脸图片和对应的人脸特征向量;上述人脸数据集可以是用户自己创建的,也可以是在网络上下载的开源的人脸数据集。其次,将上述第一人脸图像依次输入上述第一人脸识别网络和第二人脸识别网络,分别得到第一人脸特征向量和第二人脸特征向量;上述第一人脸特征向量和上述第二人脸特征向量都可以是一组512维的向量。再次,将上述第一人脸特征向量和上述第二人脸特征向量进行处理,得到第三人脸特征向量;上述处理可以是将上述第一人脸特征向量和上述第二人脸特征向量进行拼接,可以得到一组1024维的向量。最后,将上述第三人脸特征向量输入预先训练的融合网络中的编码器中,得到第四人脸特征向量,将上述第一人脸图像作为上述样本人脸图像,将上述第四人脸特征向量作为上述样本人脸图像对应的样本特征向量。上述第四人脸特征向量可以是是一组512维的向量。
步骤2022,将上述训练样本集合中的训练样本的样本人脸图片作为输入,将与输入的样本人脸图片对应的样本特征向量作为期望输出,训练得到上述第一人脸识别网络。
在一些实施例中,基于训练样本集合执行以下训练步骤:将训练样本集合中的至少一个训练样本的样本人脸图片分别输入至初始机器学习模型,得到上述至少一个训练样本中的每个样本人脸图片对应的特征向量;将上述至少一个训练样本中的每个样本人脸图片对应的特征向量与对应的样本特征向量进行比较;根据比较结果确定上述初始机器学习模型的预测准确率;确定上述预测准确率是否大于预设准确率阈值;响应于确定上述准确率大于上述预设准确率阈值,则将上述初始机器学习模型作为训练完成的第一人脸识别网络;响应于确定上述准确率不大于上述预设准确率阈值,调整上述初始机器学习模型的参数,以及使用未使用过的训练样本组成训练样本集合,使用调整后的初始机器学习模型作为初始机器学习模型,再次执行上述训练步骤。
作为示例,上述融合网络是通过以下步骤得到的:获取样本集,其中,样本包括上述样本第三人脸特征向量和上述样本第三人脸特征向量对应的人脸图片在上述人脸数据集中的样本人脸特征向量;将上述样本集中的样本中的样本第三人脸特征向量作为输入,将与输入的样本第三人脸特征向量对应的人脸图片在上述人脸数据集中的样本人脸特征向量作为期望输出,训练得到上述融合网络。作为示例,融合网络可以是基于样本集执行以下训练步骤得到的。基于样本集执行以下训练步骤:将样本集中的至少一个样本的样本第三人脸特征向量分别输入至初始机器学习模型,得到上述至少一个样本中的每个样本第三人脸特征向量对应的人脸图片在上述人脸数据集中的人脸特征向量;将上述至少一个样本中的每个样本第三人脸特征向量对应的人脸图片在上述人脸数据集中的人脸特征向量与对应的样本人脸特征向量进行比较;根据比较结果确定上述初始机器学习模型的预测准确率;确定上述预测准确率是否大于预设准确率阈值;响应于确定上述准确率大于上述预设准确率阈值,则将上述初始机器学习模型作为训练完成的融合网络;响应于确定上述准确率不大于上述预设准确率阈值,调整上述初始机器学习模型的参数,以及使用未使用过的样本组成样本集,使用调整后的初始机器学习模型作为初始机器学习模型,再次执行上述训练步骤。
在一些实施例的一些可选的实现方式中,上述融合网络的结构是编码器-解码器结构。作为示例,常用的编解码器是稀疏自编码器(Sparse Autoencoder),其可以自动从无标注数据中学习特征,可以给出比原始数据更好的特征描述。
在一些实施例的一些可选的实现方式中,上述第一人脸识别网络的识别精度小于上述第二人脸识别网络的识别精度;上述融合网络的识别精度大于上述第一人脸识别网络的识别精度。上述识别精度可以通过利用LFW数据集对网络进行测试得到。上述LFW数据集主要用于测试人脸识别的准确率。
本公开的一些实施例公开了一种用于生成特征向量的方法,通过对比上述第一人脸识别网络输出的人脸特征向量和预先训练的第一人脸识别网络输出的人脸特征向量,提高了人脸识别网络的识别精度。
进一步参考图3,其示出了根据本公开的融合网络的训练方法的一些实施例的流程300。该融合网络的训练方法,包括以下步骤:
步骤301,获取样本集。
在一些实施例中,首先,融合网络的训练方法的执行主体(例如图1所示的服务器101)可以通过有线连接方式或者无线连接方式获取样本集。其中,上述样本集中的样本包括上述第三人脸特征向量和上述第三人脸特征向量对应的人脸图片在上述人脸数据集中的样本人脸特征向量。上述执行主体可以从数据库服务器中获取存储于其中的现有的样本集。也可以通过与上述执行主体有通信连接的终端设备来收集样本。这样,执行主体可以接收终端所收集的样本,并将这些样本存储在本地,从而生成样本集。
步骤302,从样本集中选取样本。
在一些实施例中,执行主体可以从步骤301中获取的样本集中选取样本,以及执行步骤303至步骤307的训练步骤。其中,样本的选取方式和选取数量在本公开中并不限制。例如,可以是随机选取至少一个样本。
步骤303,将选取的样本的样本第三人脸特征向量输入初始融合网络,得到与上述样本第三人脸特征向量对应的人脸特征向量。
在一些实施例中,基于步骤302所选取的样本,上述执行主体可以将选取的样本的样本第三人脸特征向量输入初始融合网络,得到与上述样本第三人脸特征向量对应的人脸特征向量。这里,上述执行主体可以将样本第三人脸特征向量从初始融合网络的输入侧输入,依次经过初始融合网络中的各层的参数的处理,并从初始融合网络的输出侧输出,输出侧输出的信息即为该样本第三人脸特征向量所对应的人脸特征向量。其中,初始融合网络可以是未经训练的融合网络或未训练完成的融合网络,其各层设置有初始参数,初始参数在融合网络的训练过程中可以被不断地调整。
步骤304,将上述人脸特征向量与对应的样本人脸特征向量进行分析,确定第一损失值。
在一些实施例中,执行主体将从步骤203中获取到的人脸特征向量与对应的样本人脸特征向量进行分析从而确定第一损失值。例如,可以将上述人脸特征向量和对应的样本人脸特征向量作为参数,输入指定的损失函数(loss function)中,从而可以计算得到两者之间损失值。在这里,上述人脸特征向量可以是一组512维的向量。
在一些实施例中,损失函数通常是用来估量模型的预测值(如样本人脸特征向量)与真实值(如人脸特征向量)的不一致程度。它是一个非负实值函数。一般情况下,损失函数越小,模型的鲁棒性就越好。损失函数可以根据实际需求来设置。
步骤305,将上述第一损失值与预设阈值进行比较。
在一些实施例中,执行主体将从步骤304中获取的第一损失值与预设阈值进行比较。预设阈值一般可以用于表示预测值(即样本人脸特征向量)与真值(人脸特征向量)之间的不一致程度的理想情况。也就是说,当损失值达到预设阈值时,可以认为预测值接近或近似真值。预设阈值可以根据实际需求来设置。需要说明的是,若步骤302中选取有多个(至少两个)样本,则执行主体可以将每个样本的第一损失值分别与预设阈值进行比较。从而可以确定每个样本的第一损失值是否达到预设阈值。
步骤306,根据比较结果,确定初始融合网络是否训练完成。
在一些实施例中,根据步骤305中的比较结果,执行主体可以确定初始融合网络是否训练完成。作为示例,如果步骤302中选取有多个样本,那么在每个样本的第一损失值均达到预设阈值的情况下,执行主体可以确定初始融合网络训练完成。再例如,执行主体可以统计第一损失值达到预设阈值的样本占选取的样本的比例。且在该比例达到预设样本比例(如95%),可以确定初始融合网络训练完成。
在本实施例中,若执行主体确定初始融合网络已训练完成,则可以继续执行步骤307。若执行主体确定初始融合网络未训练完成,则可以调整初始融合网络中的相关参数。例如采用反向传播技术修改初始融合网络中各卷积层中的权重。以及可以返回步骤302,从样本集中重新选取样本。从而可以继续执行上述训练步骤。
需要说明的是,这里的选取方式在本公开中也不限制。例如在样本集中有大量样本的情况下,执行主体可以从中选取未被选取过的样本。
步骤307,响应于确定初始融合网络训练完成,将初始融合网络确定为融合网络。
在一些实施例中,若执行主体确定初始融合网络训练完成,则可以将该初始融合网络(即训练完成的初始融合网络)作为融合网络。
可选地,执行主体可以将生成的融合网络存储在本地,也可以将其发送给终端或数据库服务器。
本公开的一些实施例公开了一种融合网络的训练方法,通过将选取的样本的第三人脸特征向量输入初始融合网络,得到与上述第三人脸特征向量对应的人脸特征向量,以及与对应的样本人脸特征向量进行比较,根据比较结果确定初始融合网络是否训练完成,从而实现了融合网络的生成。
进一步参考图4,作为对上述各图上述方法的实现,本公开提供了一种用于生成特征向量的装置的一些实施例,这些装置实施例与图2上述的那些方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图4所示,一些实施例的用于生成特征向量的装置400包括:第一获取单元401和生成单元402。其中,第一获取单元401,被配置成获取人脸图像;生成单元402,被配置成将上述人脸图像输入至预先训练的第一人脸识别网络,生成与上述人脸图像的人脸特征向量,其中,上述第一人脸识别网络是通过以下步骤得到的:获取训练样本集合,训练样本包括样本人脸图像和上述样本人脸图像对应的样本特征向量;将上述训练样本集合中的训练样本的样本人脸图片作为输入,将与输入的样本人脸图片对应的样本特征向量作为期望输出,训练得到上述第一人脸识别网络。
在一些实施例中,用于生成特征向量的装置400中的生成单元402中的训练样本是通过以下步骤得到的:从人脸数据集中获取第一人脸图像,其中,上述人脸数据集用于存储人脸图片和对应的样本人脸特征向量;将上述第一人脸图像依次输入上述第一人脸识别网络和第二人脸识别网络,分别得到第一人脸特征向量和第二人脸特征向量;将上述第一人脸特征向量和上述第二人脸特征向量进行处理,得到第三人脸特征向量;将上述第三人脸特征向量输入预先训练的融合网络中的编码器中,得到第四人脸特征向量,将上述第一人脸图像作为上述样本人脸图像,将上述第四人脸特征向量作为上述样本人脸图像对应的样本特征向量。
在一些实施例中,用于生成特征向量的装置400中的融合网络是通过以下步骤得到的:获取样本集,其中,样本包括上述样本第三人脸特征向量和上述样本第三人脸特征向量对应的人脸图片在上述人脸数据集中的样本人脸特征向量;将上述样本集中的样本中的样本第三人脸特征向量作为输入,将与输入的样本第三人脸特征向量对应的人脸图片在上述人脸数据集中的样本人脸特征向量作为期望输出,训练得到上述融合网络。
在一些实施例中,用于生成特征向量的装置400进一步被配置成:上述第一人脸识别网络的识别精度小于上述第二人脸识别网络的识别精度;上述融合网络的识别精度大于上述第一人脸识别网络的识别精度。
在一些实施例中,用于生成特征向量的装置400进一步被配置成:融合网络的结构是编码器-解码器结构。
在一些实施例中,用于生成特征向量的装置400进一步被配置成:从上述样本集中选取样本,执行以下训练步骤:将选取的样本的样本第三人脸特征向量输入初始融合网络,得到与上述样本第三人脸特征向量对应的人脸特征向量;将上述人脸特征向量与对应的样本人脸特征向量进行分析,确定第一损失值;将上述第一损失值与预设阈值进行比较;根据比较结果确定初始融合网络是否训练完成;响应于确定初始融合网络训练完成,将初始融合网络确定为融合网络。
在一些实施例中,用于生成特征向量的装置400进一步被配置成:响应于确定初始融合网络未训练完成,调整初始融合网络中的相关参数,以及从上述样本集中重新选取样本,使用调整后的初始融合网络作为初始融合网络,继续执行上述训练步骤。
本公开的一些实施例公开了一种用于生成特征向量的装置,通过对比上述第一人脸识别网络输出的人脸特征向量和预先训练的第一人脸识别网络输出的人脸特征向量,提高了人脸识别网络的识别精度。
下面参考图5,其示出了适于用来实现本公开的一些实施例的电子设备(例如图1中的终端设备)500的结构示意图。本公开的一些实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图5示出的终端设备仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图5所示,电子设备500可以包括处理装置(例如中央处理器、图形处理器等)501,其可以根据存储在只读存储器(ROM)502中的程序或者从存储装置508加载到随机访问存储器(RAM)503中的程序而执行各种适当的动作和处理。在RAM 503中,还存储有电子设备500操作所需的各种程序和数据。处理装置501、ROM 502以及RAM503通过总线504彼此相连。输入/输出(I/O)接口505也连接至总线504。
通常,以下装置可以连接至I/O接口505:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置506;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置507;包括例如存储卡等的存储装置508;以及通信装置509。通信装置509可以允许电子设备500与其他设备进行无线或有线通信以交换数据。虽然图5示出了具有各种装置的电子设备500,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图5中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的一些实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的一些实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的一些实施例中,该计算机程序可以通过通信装置509从网络上被下载和安装,或者从存储装置508被安装,或者从ROM 502被安装。在该计算机程序被处理装置501执行时,执行本公开的一些实施例的方法中限定的上述功能。
需要说明的是,本公开的一些实施例上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的一些实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的一些实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取人脸图像;将上述人脸图像输入至预先训练的第一人脸识别网络,生成与上述人脸图像的人脸特征向量,其中,上述第一人脸识别网络是通过以下步骤得到的:获取训练样本集合,训练样本包括样本人脸图像和上述样本人脸图像对应的样本特征向量;将上述训练样本集合中的训练样本的样本人脸图片作为输入,将与输入的样本人脸图片对应的样本特征向量作为期望输出,训练得到上述第一人脸识别网络。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的一些实施例的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开的一些实施例中的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括第一获取单元和生成单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,第一获取单元还可以被描述为“获取人脸图像的单元”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
以上描述仅为本公开的一些较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (10)

1.一种用于生成特征向量的方法,包括:
获取人脸图像;
将所述人脸图像输入至预先训练的第一人脸识别网络,生成与所述人脸图像对应的人脸特征向量,其中,所述第一人脸识别网络是通过以下步骤得到的:
获取训练样本集合,训练样本包括样本人脸图像和所述样本人脸图像对应的样本特征向量;
将所述训练样本集合中的训练样本的样本人脸图片作为输入,将与输入的样本人脸图片对应的样本特征向量作为期望输出,训练得到所述第一人脸识别网络。
2.根据权利要求1所述的方法,其中,所述训练样本是通过以下步骤得到的:
从人脸数据集中获取第一人脸图像,其中,所述人脸数据集用于存储人脸图片和对应的样本人脸特征向量;
将所述第一人脸图像依次输入所述第一人脸识别网络和第二人脸识别网络,分别得到第一人脸特征向量和第二人脸特征向量;
将所述第一人脸特征向量和所述第二人脸特征向量进行处理,得到第三人脸特征向量;
将所述第三人脸特征向量输入预先训练的融合网络中的编码器中,得到第四人脸特征向量,将所述第一人脸图像作为所述样本人脸图像,将所述第四人脸特征向量作为所述样本人脸图像对应的样本特征向量。
3.根据权利要求2所述的方法,其中,所述融合网络是通过以下步骤得到的:
获取样本集,其中,样本包括所述样本第三人脸特征向量和所述样本第三人脸特征向量对应的人脸图片在所述人脸数据集中的样本人脸特征向量;
将所述样本集中的样本中的样本第三人脸特征向量作为输入,将与输入的样本第三人脸特征向量对应的人脸图片在所述人脸数据集中的样本人脸特征向量作为期望输出,训练得到所述融合网络。
4.根据权利要求2所述的方法,其中,所述第一人脸识别网络的识别精度小于所述第二人脸识别网络的识别精度;所述融合网络的识别精度大于所述第一人脸识别网络的识别精度。
5.根据权利要求2所述的方法,其中,所述融合网络的结构是编码器-解码器结构。
6.根据权利要求3所述的方法,其中,所述将所述样本集中的样本中的样本第三人脸特征向量作为输入,将与输入的样本第三人脸特征向量对应的人脸图片在所述人脸数据集中的样本人脸特征向量作为期望输出,训练得到所述融合网络,包括:
从所述样本集中选取样本,执行以下训练步骤:将选取的样本的样本第三人脸特征向量输入初始融合网络,得到与所述样本第三人脸特征向量对应的人脸特征向量;将所述人脸特征向量与对应的样本人脸特征向量进行分析,确定第一损失值;将所述第一损失值与预设阈值进行比较;根据比较结果确定初始融合网络是否训练完成;响应于确定初始融合网络训练完成,将初始融合网络确定为融合网络。
7.根据权利要求6所述的方法,其中,所述方法还包括:
响应于确定初始融合网络未训练完成,调整初始融合网络中的相关参数,以及从所述样本集中重新选取样本,使用调整后的初始融合网络作为初始融合网络,继续执行所述训练步骤。
8.一种用于生成特征向量的装置,包括:
第一获取单元,被配置成获取人脸图像;
生成单元,被配置成将所述人脸图像输入至预先训练的第一人脸识别网络,生成与所述人脸图像对应的人脸特征向量,其中,所述第一人脸识别网络是通过以下步骤得到的:
获取训练样本集合,训练样本包括样本人脸图像和所述样本人脸图像对应的样本特征向量;
将所述训练样本集合中的训练样本的样本人脸图片作为输入,将与输入的样本人脸图片对应的样本特征向量作为期望输出,训练得到所述第一人脸识别网络。
9.一种电子设备/终端/服务器,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7中任一所述的方法。
10.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-7中任一所述的方法。
CN201911189574.7A 2019-11-28 2019-11-28 用于生成特征向量的方法、装置、电子设备和介质 Pending CN110956127A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911189574.7A CN110956127A (zh) 2019-11-28 2019-11-28 用于生成特征向量的方法、装置、电子设备和介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911189574.7A CN110956127A (zh) 2019-11-28 2019-11-28 用于生成特征向量的方法、装置、电子设备和介质

Publications (1)

Publication Number Publication Date
CN110956127A true CN110956127A (zh) 2020-04-03

Family

ID=69978726

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911189574.7A Pending CN110956127A (zh) 2019-11-28 2019-11-28 用于生成特征向量的方法、装置、电子设备和介质

Country Status (1)

Country Link
CN (1) CN110956127A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111797696A (zh) * 2020-06-10 2020-10-20 武汉大学 一种现场自主学习的人脸识别系统和方法
CN113537028A (zh) * 2021-07-09 2021-10-22 中星电子股份有限公司 用于人脸识别系统的控制方法、装置、设备和介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108427939A (zh) * 2018-03-30 2018-08-21 百度在线网络技术(北京)有限公司 模型生成方法和装置
CN109543548A (zh) * 2018-10-26 2019-03-29 桂林电子科技大学 一种人脸识别方法、装置及存储介质
CN109800732A (zh) * 2019-01-30 2019-05-24 北京字节跳动网络技术有限公司 用于生成漫画头像生成模型的方法和装置
CN109858445A (zh) * 2019-01-31 2019-06-07 北京字节跳动网络技术有限公司 用于生成模型的方法和装置
CN110119746A (zh) * 2019-05-08 2019-08-13 北京市商汤科技开发有限公司 一种特征识别方法及装置、计算机可读存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108427939A (zh) * 2018-03-30 2018-08-21 百度在线网络技术(北京)有限公司 模型生成方法和装置
CN109543548A (zh) * 2018-10-26 2019-03-29 桂林电子科技大学 一种人脸识别方法、装置及存储介质
CN109800732A (zh) * 2019-01-30 2019-05-24 北京字节跳动网络技术有限公司 用于生成漫画头像生成模型的方法和装置
CN109858445A (zh) * 2019-01-31 2019-06-07 北京字节跳动网络技术有限公司 用于生成模型的方法和装置
CN110119746A (zh) * 2019-05-08 2019-08-13 北京市商汤科技开发有限公司 一种特征识别方法及装置、计算机可读存储介质

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111797696A (zh) * 2020-06-10 2020-10-20 武汉大学 一种现场自主学习的人脸识别系统和方法
CN113537028A (zh) * 2021-07-09 2021-10-22 中星电子股份有限公司 用于人脸识别系统的控制方法、装置、设备和介质
CN113537028B (zh) * 2021-07-09 2022-11-08 中星电子股份有限公司 用于人脸识别系统的控制方法、装置、设备和介质

Similar Documents

Publication Publication Date Title
CN108520220B (zh) 模型生成方法和装置
CN109800732B (zh) 用于生成漫画头像生成模型的方法和装置
EP3893125A1 (en) Method and apparatus for searching video segment, device, medium and computer program product
CN110021052B (zh) 用于生成眼底图像生成模型的方法和装置
CN110009059B (zh) 用于生成模型的方法和装置
CN110084317B (zh) 用于识别图像的方法和装置
CN111539903B (zh) 训练人脸图像合成模型的方法和装置
CN112650841A (zh) 信息处理方法、装置和电子设备
CN110046571B (zh) 用于识别年龄的方法和装置
CN111738010A (zh) 用于生成语义匹配模型的方法和装置
CN112685799B (zh) 设备指纹生成方法、装置、电子设备和计算机可读介质
CN112149699A (zh) 用于生成模型的方法、装置和用于识别图像的方法、装置
CN116128055A (zh) 图谱构建方法、装置、电子设备和计算机可读介质
CN110956127A (zh) 用于生成特征向量的方法、装置、电子设备和介质
CN114420135A (zh) 基于注意力机制的声纹识别方法及装置
CN111126159A (zh) 用于实时跟踪行人的方法、装置、电子设备和介质
CN112183388B (zh) 图像处理方法、装置、设备和介质
CN110335237B (zh) 用于生成模型的方法、装置和用于识别图像的方法、装置
CN114639072A (zh) 人流量信息生成方法、装置、电子设备和计算机可读介质
CN111754984B (zh) 文本选取的方法、装置、设备和计算机可读介质
CN111582456B (zh) 用于生成网络模型信息的方法、装置、设备和介质
CN110956129A (zh) 用于生成人脸特征向量的方法、装置、设备和介质
CN114373465A (zh) 声纹识别方法、装置、电子设备和计算机可读介质
CN111797931A (zh) 图像处理方法、图像处理网络训练方法、装置、设备
CN111243607A (zh) 用于生成说话人信息的方法、装置、电子设备和介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination