CN112949780A - 特征模型训练方法、装置、设备及存储介质 - Google Patents

特征模型训练方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN112949780A
CN112949780A CN202110426522.8A CN202110426522A CN112949780A CN 112949780 A CN112949780 A CN 112949780A CN 202110426522 A CN202110426522 A CN 202110426522A CN 112949780 A CN112949780 A CN 112949780A
Authority
CN
China
Prior art keywords
class
loss function
sample
neural network
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110426522.8A
Other languages
English (en)
Other versions
CN112949780B (zh
Inventor
黄振杰
李德紘
张少文
吴志伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Huazhiyuan Information Engineering Co ltd
Guangzhou Jiadu Technology Software Development Co ltd
Guangzhou Xinke Jiadu Technology Co Ltd
PCI Technology Group Co Ltd
Original Assignee
Guangdong Huazhiyuan Information Engineering Co ltd
Guangzhou Jiadu Technology Software Development Co ltd
Guangzhou Xinke Jiadu Technology Co Ltd
PCI Technology Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Huazhiyuan Information Engineering Co ltd, Guangzhou Jiadu Technology Software Development Co ltd, Guangzhou Xinke Jiadu Technology Co Ltd, PCI Technology Group Co Ltd filed Critical Guangdong Huazhiyuan Information Engineering Co ltd
Publication of CN112949780A publication Critical patent/CN112949780A/zh
Application granted granted Critical
Publication of CN112949780B publication Critical patent/CN112949780B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明实施例公开了一种特征模型训练方法、装置、设备及存储介质,涉及度量学习技术领域,其包括:获取训练数据集,所述训练数据集中每个样本对应一个标签,所述标签用于标识对应样本所属的类别;将训练数据集输入至神经网络模型,以得到每个样本的特征向量;根据训练数据集中各样本对应的特征向量以及所属的类别,构建类内损失函数和类间损失函数;根据类内损失函数和类间损失函数确定神经网络模型的损失函数;对包含损失函数的神经网络模型进行训练,直到损失函数收敛为止。采用上述方案可以解决现有技术中卷积神经网络无法扩大不同类别的样本之间特征向量的距离导致无法对不同类别的样本进行有效区分的技术问题。

Description

特征模型训练方法、装置、设备及存储介质
技术领域
本发明实施例涉及度量学习技术领域,尤其涉及一种特征模型训练方法、装置、设备及存储介质。
背景技术
度量学习也可以理解为相似度学习,其目的是使相同类别的样本之间相似度高,不同类别的样本之间相似度低。随着深度学习的发展,可以通过卷积神经网络的方式实现度量学习。现有技术中,卷积神经网络在处理过程中会得到各样本的特征向量,并将同一类别下的特征向量聚集在一起,即同类样本的特征向量之间的距离较近。但是,对于不同类别的样本而言,卷积神经网络无法扩大不同类别的样本之间特征向量的距离,这样会出现卷积神经网络中不同类别的样本之间特征向量距离较近,进而基于特征向量无法对不同类别的样本进行有效区分,即影响度量学习的学习效果。此时,尤其对于样本数量较多的应用场景,如百万级或千万级的用户身份识别(如地铁过闸、安防监控、门禁安检等)应用场景,由于用户数量较多,因此,若不同用户的特征向量之间没有明显的区别,使得不同用户的特征向量之间相似度比较相近,这样会不利于用户的身份识别。
发明内容
本发明提供了一种特征模型训练方法、装置、设备及存储介质,以解决现有技术中卷积神经网络无法扩大不同类别的样本之间特征向量的距离导致无法对不同类别的样本进行有效区分的技术问题。
第一方面,本发明实施例提供了一种特征模型训练方法,包括:
获取训练数据集,所述训练数据集中每个样本对应一个标签,所述标签用于标识对应样本所属的类别,所述样本为图片;
将所述训练数据集输入至神经网络模型,以得到每个所述样本的特征向量,所述特征向量用于确定所述样本的类别,所述神经网络模型用于实现度量学习;
根据所述训练数据集中各样本对应的特征向量以及所属的类别,构建类内损失函数和类间损失函数;
根据所述类内损失函数和所述类间损失函数确定所述神经网络模型的损失函数;
对包含所述损失函数的所述神经网络模型进行训练,直到所述损失函数收敛为止。
进一步的,所述根据所述训练数据集中各样本对应的特征向量以及所属的类别,构建类内损失函数和类间损失函数包括:
获取所述神经网络模型中全连接层的权重参数矩阵,所述权重参数矩阵中第p列的权重参数表示第p个类别对应的权重参数向量;
根据所述权重参数矩阵确定各类别对应的簇中心;
根据各所述簇中心以及各所述类别下的特征向量确定类内损失函数;
根据各所述簇中心确定类间损失函数。
进一步的,所述根据各所述簇中心以及各所述类别下的特征向量确定类内损失函数包括:
根据特征向量所属的类别确定可学习角度;
根据所述特征向量、目标簇中心和所述可学习角度确定所述特征向量与所述目标簇中心之间的第一类内距离,所述目标簇中心为所述特征向量所属类别对应的簇中心,每个特征向量对应一个第一类内距离;
根据所述特征向量和其他簇中心确定所述特征向量和所述其他簇中心之间的第二类内距离,所述其他簇中心为全部簇中心中除去相应目标簇中心外的簇中心,每个特征向量对应一组其他簇中心,每个其他簇中心对应一个第二类内距离;
根据全部类别的可学习角度确定惩罚项;
根据第一类内距离、第二类内距离以及所述惩罚项确定类内损失函数。
进一步的,所述类内损失函数的计算公式为:
Figure BDA0003029734430000021
其中,Sintra表示类内损失函数,M为神经网络模型训练过程中每次迭代过程选取的样本数量,s为比例因子,ω1为第一平衡因子,Rjm为第j个样本的特征向量yj对应的第一类内距离,
Figure BDA0003029734430000031
Figure BDA0003029734430000032
为yj与yj对应的目标簇中心之间的角度,
Figure BDA0003029734430000033
Wy表示yj对应的目标簇中心,yj属于第y个类别,m1为第一超参数,my为第y个类别对应的可学习角度,Rji为yj与第i个其他簇中心之间的第二类内距离,Rji=Wi Tyj,Wi为第i个其他簇中心,C为类别的总数量,Lm为惩罚项,
Figure BDA0003029734430000034
进一步的,所述根据各所述簇中心确定类间损失函数包括:
根据各所述簇中心计算不同类别之间的第一类间距离;
在每个类别对应的全部第一类间距离中选择大于距离阈值的第二类间距离,并计算每个类别的第二类间距离和值;
根据每个类别对应的第二类间距离和值确定类间损失函数。
进一步的,所述类间损失函数的计算公式为:
Figure BDA0003029734430000035
其中,Sinter表示类间损失函数,C为类别的总数量,Dz为第z个类别对应的第二类间距离和值,
Figure BDA0003029734430000036
Figure BDA0003029734430000037
为第z个类别与第q个类别之间的第一类间距离,m2为第二超参数。
进一步的,所述神经网络模型的损失函数的计算公式为:Sloss=ω2Sinter+Sintra,其中,Sloss表示损失函数,Sintra表示类内损失函数,Sinter表示类间损失函数,ω2为第二平衡因子。
进一步的,所述对包含所述损失函数的所述神经网络模型进行训练,直到所述损失函数收敛为止包括:
利用梯度下降算法更新包含所述损失函数的所述神经网络模型,直到所述损失函数满足稳定条件;
对所述训练数据集中的每个样本初始化一个采样概率,每个所述样本初始化的采样概率相同;
基于所述训练数据集对包含所述损失函数的所述神经网络模型进行迭代训练;
在迭代训练过程中,确定所述训练数据集中被正确分类的样本以及被错误分类的样本;
将所述被正确分类的样本的采样概率减小第一数值,并将所述被错误分类的样本的采样概率增加第二数值;
在所述训练数据集中删除采样概率低于概率阈值的样本,并继续进行迭代训练,直到所述损失函数收敛为止。
进一步的,所述样本为人脸图片或人掌静脉图片,所述类别为所述人脸图片或人掌静脉图片对应的用户身份。
进一步的,还包括:
获取待分类样本,所述待分类样本为人脸图片或人掌静脉图片;
将所述待分类样本输入至神经网络模型,得到对应的实际特征向量,所述神经网络模型通过类内损失函数和类间损失函数实现同一类别下各样本间的特征向量相似度高于不同类别下各样本间的特征向量相似度;
将所述实际特征向量与预先存储的各参考特征向量进行匹配,所述参考特征向量对应参考样本,每个所述参考样本均有所属的类别,所述参考特征向量通过所述神经网络模型确定;
选择匹配度最高的参考特征向量,并将匹配度最高的参考特征向量对应的类别作为所述待分类样本的类别。
第二方面,本发明实施例还提供了一种特征模型训练装置,包括:
数据获取模块,用于获取训练数据集,所述训练数据集中每个样本对应一个标签,所述标签用于标识对应样本所属的类别,所述样本为图片;
特征确定模块,用于将所述训练数据集输入至神经网络模型,以得到每个所述样本的特征向量,所述特征向量用于确定所述样本的类别,所述神经网络模型用于实现度量学习;
第一构建模块,用于根据所述训练数据集中各样本对应的特征向量以及所属的类别,构建类内损失函数和类间损失函数;
第二构建模块,用于根据所述类内损失函数和所述类间损失函数确定所述神经网络模型的损失函数;
模型训练模块,用于对包含所述损失函数的所述神经网络模型进行训练,直到所述损失函数收敛为止。
第三方面,本发明实施例还提供了一种特征模型训练设备,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如第一方面所述的特征模型训练方法。
第四方面,本发明实施例还提供了一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如第一方面所述的特征模型训练方法。
上述特征模型训练方法、装置、设备及存储介质,通过获取带有类别标签的训练数据集,之后,根据神经网络模型获取训练数据集中各样本的特征向量,并根据特征向量以及样本所属的类别构建类内损失函数和类间损失函数,之后,根据类内损失函数和类间损失函数构建神经网络模型的损失函数,并对包含损失函数的神经网络模型进行训练,直到损失函数收敛为止的技术方案,可以解决现有技术中卷积神经网络无法扩大不同类别的样本之间特征向量的距离导致无法对不同类别的样本进行有效区分的技术问题。在构建损失函数时,不仅考虑各样本的特征向量构建类内损失函数,还考虑不同类别构建类间损失函数,进而在神经网络模型提取特征向量时,可以使得相同类别样本的特征向量距离更近,不同类别样本的特征向量距离更远,实现更优的度量学习结果。尤其在百万级或千万级的用户身份识别(如地铁过闸、安防监控、门禁安检等)应用场景,由于用户数量较多,因此,利用上述神经网络模型可以使得同一用户的特征向量之间相似度高,不同用户的特征向量之间相似度低,以保证更准确识别用户身份。
附图说明
图1为本发明实施例一提供的一种特征模型训练方法的流程图;
图2为本发明实施例二提供的一种特征模型训练方法的流程图;
图3为本发明实施例三提供的一种特征模型训练方法的流程图;
图4为本发明实施例四提供的一种特征模型训练装置的结构示意图;
图5为本发明实施例五提供的一种特征模型训练设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1为本发明实施例一提供的一种特征模型训练方法的流程图。实施例中提供的特征模型训练方法可以由特征模型训练装置执行,该特征模型训练装置可以通过软件和/或硬件的方式实现,并集成在特征模型训练设备中。其中,特征模型训练设备可以是平板电脑、台式电脑等具有数据处理及分析能力的智能设备,特征模型训练设备可以为一个独立的智能设备,或由多个可进行数据通信的智能设备组成。
具体的,参考图1,该特征模型训练方法具体包括:
步骤110、获取训练数据集,所述训练数据集中每个样本对应一个标签,所述标签用于标识对应样本所属的类别。
示例性的,训练数据集是指用于训练特征模型的样本的集合。一个实施例中,特征模型的主要作用在于可以识别样本的特征,即特征模型可以识别样本的特征,并映射至特征空间中,进而基于特征识别的结果调整特征模型的参数,以使特征模型后续工作过程中,实现相似度高的特征在特征空间中距离较近,相似度低的特征在特征空间中距离较远。可理解,该特征模型识别样本的特征后,还可以基于特征确定样本的类别,即对样本进行分类。可选的,训练数据集中样本的数量及类型可以根据实际情况设定。典型的,训练数据集中各样本的类型相同,例如,训练数据中的样本均为图片类型。一个实施例中,样本具体为人脸图片或人掌静脉图片,人脸图片是指对人脸进行拍摄得到的图像,此时,通过人脸识别的方式可确定对应的用户身份,人掌静脉图片是指对人手掌内静脉进行拍摄得到的图像,此时,通过掌静脉识别可以确定对应的用户身份。需说明,掌静脉识别时,需要在掌活体时才可以进行掌静脉识别。需说明,实施例中不限定训练数据集中各样本的采集方式。例如,地铁过闸场景下,在地铁闸门处安装摄像头,以拍摄人脸图片或人掌静脉图片。
典型的,训练数据集中每个样本均有一个标签。该标签用于标识样本所属的类别,其中,标签中类别的显示格式实施例不做限定。当样本为人脸图片或人掌静脉图片时,对应的类别为用户身份,即标签用于描述样本的用户身份。此时,训练数据集中的样本是预先明确其所属类别的样本,换言之,样本为人脸图片或人掌静脉图片时,预先可以明确各人脸图片或人掌静脉图片对应的用户身份。需说明,每个样本均有一个对应的类别,且同一类别下可以存在至少一个样本。举例而言,训练样本集中包含n个样本,那么,对应的标签集合中包含n个标签,每个样本对应一个标签,不同标签中可能记载相同的类别,当样本为人脸图片时,每张人脸图片对应一个标签,不同标签中可能记载相同的用户身份,如某两张人脸图片为同一用户的人脸图片,那么,这两张人脸图片的标签中均记载有该用户的用户身份。
步骤120、将所述训练数据集输入至神经网络模型,以得到每个所述样本的特征向量。
本实施例中,特征模型为神经网络模型,其中,神经网络模型可选为深度神经网络模型,其具体网络结构可以根据实际情况设定,实施例中以神经网络模型的最后一层为全连接层进行描述。具体的,将训练数据集中各样本输入至神经网络模型中,通过神经网络模型学习各样本的特征,并获取要输入至全连接层的数据,即获取除全连接层外神经网络模型的输出。举例而言,样本为人脸图片时,将训练数据集中各张人脸图片输入至神经网络模型,并获取除全连接层外神经网络模型的输出,该输出为多串数值,其中,每串数值对应一张人脸图片,并表示该人脸图片上的特点,因此,将每串数值分别作为对应人脸图片(即样本)的特征,实施例中,将该输出的每串数值记为特征向量,其中,每个样本对应一个特征向量。该特征向量可以理解为神经网络模型对于样本的特征学习结果,例如,样本为人脸图片时,特征向量表示该人脸的特征,不同人脸对应的特征不同,样本为人掌静脉图片时,特征向量表示静脉特征,不同人掌下采集的静脉特征不同。特征向量的维度可以根据实际情况设定,实施例对此不做限定。可理解,神经网络模型初次学习样本的特征时,神经网络模型中的参数是随机初始化的,在后续训练过程中,神经网络模型的参数可以根据特征向量构建的损失函数进行更新。
可选的,本实施例中全连接层用于识别特征向量的类别,即对特征向量进行分类(如样本为人脸图片或人掌静脉图片,样本的类别为用户身份时,全连接层用于识别特征向量的用户身份),以便于后续训练过程中,基于分类结果选择难例样本进行训练。当神经网络模型训练结束后,应用神经网络模型时可以删除全连接层,此时,神经网络模型用于提取样本的特征向量。
步骤130、根据所述训练数据集中各样本对应的特征向量以及所属的类别,构建类内损失函数和类间损失函数。
损失函数(loss function)是将随机事件或其有关随机变量的取值映射为非负实数以表示该随机事件的“风险”或“损失”的函数。在应用中,损失函数通常作为学习准则与优化问题相联系,即通过最小化损失函数求解和评估模型。实施例中通过收敛神经网络模型中的损失函数使得神经网络模型稳定。实施例中,在构建损失函数时,根据各类别下的样本对应的特征向量在特征空间中的分布构建类内损失函数,根据各类别对应的簇中心在特征空间中的分布构建类间损失函数,进而,根据类内损失函数和类间损失函数确定损失函数。其中,簇中心在特征空间中的位置受到对应类别下样本的特征向量的影响。
其中,类内损失函数考虑到了各类别下特征向量在特征空间中的分布情况,目的是为了使样本经过神经网络模型时,同一类别下的特征向量在特征空间中更加紧凑,以优化不同类别下特征向量之间的距离。示例性的,在用户身份识别场景下,通过类内损失函数可以体现同一用户身份下各特征向量之间的相似度,即经过类内损失函数,可以使得同一用户身份下各特征向量在特征空间中更加紧凑。类内损失函数的具体构建方式可以根据实际情况设定。举例而言,计算每个特征向量与每个簇中心之间的距离。可选的,在计算特征向量与其所属类别的簇中心之间的距离时,可以加入可学习角度,以使同一类别内的特征向量距离更加紧凑。之后,根据各距离利用softmax损失函数构建类内损失函数。可选的,为了让可学习角度取较大的值,在类内损失函数中加入惩罚项,以提高类内损失函数的效果。其中,随着后续训练过程的进行,训练数据集中属于同一类别的样本对应的特征向量在特征空间中距离会越来越近,即会被聚集为一簇。进一步的,每个类别对应一个簇中心,簇中心的确定方式可以根据实际情况设定,例如,在全连接层中设置不同类别对应的权重参数向量,以使每个类别下的特征向量映射到对应的权重参数向量附近,此时,可以将每个类别的权重参数向量作为对应类别下的簇中心。可以理解,在神经网络模型首次学习过程中,该权重参数向量为随机初始化,后续过程中,可以结合学习得到的特征向量更新权重参数向量。可选的,可以应用向量夹角公式计算特征向量与簇中心之间的距离,也可以采用其他方式计算特征向量与簇中心之间的距离。可选的,可以通过计算全部类别对应的可学习角度的均值得到惩罚项,也可以采用其他方式计算惩罚项。需说明,构建类内损失函数时,涉及到的其他参数可以根据实际情况设定,例如,softmax损失函数中batch size的大小可以根据实际情况设定。
类间损失函数考虑到了不同类别下簇中心在特征空间中的分布情况,类间损失函数可以认为是一个正则项,目的是为了使不同类别下的特征向量在特征空间中的距离更远,进而使同一类别下的特征向量在特征空间中更加紧凑。实施例中,在用户身份识别场景下,通过类间损失函数可以体现不同用户身份下各特征向量之间的相似度,即经过类间损失函数,可以使得不同用户身份的各特征向量在特征空间中距离更远,类间损失函数的具体构建方式可以根据实际情况设定。举例而言,假设当前共有M个类别,计算每个类别对应的簇中心与其他M-1个簇中心之间的距离,即得到M-1个类间距离,之后,对于每个类别而言,在M-1个类间距离中,选择满足设定条件的类间距离并求和,得到当前类别对应的总距离。其中,设定条件可以根据实际情况设定,通过设定条件使得类间损失函数实现使不同类别的特征距离之间的距离更远,例如,设定条件为大于设定距离阈值,此时,仅选择大于距离阈值的类间距离,以对大于距离阈值的类间距离进行惩罚。进一步的,得到每个类别对应的总距离后,取总距离的平均作为类间损失函数。
步骤140、根据所述类内损失函数和所述类间损失函数确定所述神经网络模型的损失函数。
基于类内损失函数和类间损失函数构建损失函数,其中,损失函数可以采用加权和的方式构建,即对类内损失函数和类间损失函数进行加权和,以得到损失函数。可以理解,进行加权和时,权值的大小可以根据实际情况设定。需说明,通过加权和方式构建损失函数仅是一个可选方式,实际应用中,还可以采用其他方式构建损失函数。
步骤150、对包含所述损失函数的所述神经网络模型进行训练,直到所述损失函数收敛为止。
一个实施例中,构建的损失函数作为神经网络模型的损失函数,并对神经网络模型进行训练。其中,由于训练数据集中各样本均有标识类别的标签,因此,在训练神经网络模型时,可以直接采用训练数据集进行训练。即将训练数据集中各样本输入至神经网络模型,并获取神经网络模型输出结果,该输出结果为神经网络模型识别各样本所属的类别,之后,根据输出结果与样本标签中标识的类别调节神经网络模型的相应参数,重复上述操作,直到损失函数稳定,即神经网络输出结果稳定。此时,可以认为训练结束。例如,将已知用户身份的多张人脸图片输入至神经网络模型,并获取神经网络模型输出结果,该输出结果经过全连接层,其为神经网络模型识别各人脸图片所属的用户身份,之后,根据输出结果与人脸图片标签中标识的用户身份调节神经网络模型的相应参数,重复上述操作,直到损失函数稳定,即神经网络输出结果稳定。可选的,为了保证神经网络模型的精确度,在损失函数稳定后,采用难例挖掘的方式,在训练数据集中选择更有价值的样本对神经网络模型进行迭代训练,并根据神经网络模型的输出结果再次调节神经网络模型的相应参数,直到损失函数收敛为止,此时,得到的神经网络模型输出结果精确度更佳。其中,难例挖掘的方式可以根据实际情况设定,例如,选择困难样本,即选择神经网络模型类别识别错误率较高的样本作为困难样本,之后,将各困难样本作为难例挖掘到的样本,并根据困难样本对神经网络模型进行迭代训练,直到损失函数收敛为止。例如,某两个用户身份的人脸图片输入至神经网络模型后,其对应的特征向量之间的相似度并没有很低,因此,可以将两个用户身份的人脸图片作为困难样本,并继续训练神经网络模型。当损失函数收敛,说明神经网络模型稳定且准确率达到了期望的效果,可以直接应用。
上述,通过获取带有类别标签的训练数据集,之后,根据神经网络模型获取训练数据集中各样本的特征向量,并根据特征向量以及样本所属的类别构建类内损失函数和类间损失函数,之后,根据类内损失函数和类间损失函数构建神经网络模型的损失函数,并对包含损失函数的神经网络模型进行训练,直到损失函数收敛为止的技术方案,可以解决现有技术中卷积神经网络无法扩大不同类别的样本之间特征向量的距离导致无法对不同类别的样本进行有效区分的技术问题。在构建损失函数时,不仅考虑各样本的特征向量构建类内损失函数,还考虑不同类别构建类间损失函数,进而使得神经网络模型在提取特征向量时,可以使相同类别样本的特征向量距离更近,不同类别样本的特征向量距离更远,实现更优的度量学习结果。尤其在百万级或千万级的用户身份识别(如地铁过闸、安防监控、门禁安检等)应用场景,由于用户数量较多,因此,利用上述神经网络模型可以使得同一用户的特征向量之间相似度高,不同用户的特征向量之间相似度低,以保证更准确识别用户身份。
实施例二
图2为本发明实施例二提供的一种特征模型训练方法的流程图。本实施例是在上述实施例的基础上,进行具体化。具体的,参考图2,本实施例提供的特征模型训练方法具体包括:
步骤210、获取训练数据集,所述训练数据集中每个样本对应一个标签,所述标签用于标识对应样本所属的类别。
例如,该样本为人脸图片或人掌静脉图片,所属的类别为用户身份。
步骤220、将所述训练数据集输入至神经网络模型,以得到每个所述样本的特征向量。
当样本为人脸图片时,特征向量表示人脸的特点,当样本为人掌静脉图片时,特征向量表示静脉特征。特征向量用于确定样本的类别,神经网络模型用于实现度量学习。
步骤230、获取所述神经网络模型中全连接层的权重参数矩阵,所述权重参数矩阵中第p列的权重参数表示第p个类别对应的权重参数向量。
具体的,神经网络模型中全连接层设置有权重参数矩阵,通过权重参数矩阵以及输入至全连接层的特征向量可以得到样本的分类结果,即得到样本所属的用户身份。权重参数矩阵中包含多个权重参数,各权重参数的数值可以根据实际情况设定。在神经网络模型首次学习过程中,各权重参数为随机初始化,后续过程中,可以结合学习得到的特征向量更新权重参数。进一步的,设定权重参数矩阵记为W,W∈RK×C,即W的大小为K×C,其中,K为特征向量的总维度,假设,特征向量为512维,那么权重参数矩阵中K的值为512。C为训练数据集中各样本对应的类别的总数量,K和C的数值可以根据实际情况设定。其中,W中第p列的权重参数表示第p个类别对应的权重参数向量,p≤C。
步骤240、根据所述权重参数矩阵确定各类别对应的簇中心。
具体的,通过权重参数矩阵可以确定各类别对应的权重参数向量。当神经网络模型基于样本得到特征向量时,特征向量会分布在相应类别的权重参数向量附近,因此,可以将每个类别的权重参数向量作为该类别对应的簇中心,即该类别下所有特征向量的簇中心。该簇中心可以体现特征向量的近似值,例如,用户身份识别场景下,该簇中心可以体现某个用户身份对应的各样本的特征向量的近似值。
步骤250、根据各所述簇中心以及各所述类别下的特征向量确定类内损失函数。
具体的,确定每个类别下样本的特征向量以及每个类别的簇中心后,便可以构建类内损失函数。实施例中,通过计算特征向量和簇中心的距离构建类内损失函数,此时,设定本步骤具体包括步骤251-步骤255:
步骤251、根据所述特征向量所属的类别确定可学习角度。
实施例中加入了可学习角度,可学习角度的具体数值可以随着神经网络模型的训练过程而不断更新,典型的,每个类别对应一个可学习角度,不同类别对应的可学习角度可能相同或不同。可学习角度可以理解为对角度添加一个参数,以在映射特征向量时,使相同类别下(即同一用户身份)的特征向量之间的距离更加紧凑。其中,上述角度是指特征向量与其所属类别对应的簇中心之间夹角的度数。需说明,某些情况下,可学习角度的数值可以为0,例如,当相同类别下的特征向量之间已经足够紧凑时,可学习角度可以被设置为0。
步骤252、根据所述特征向量、目标簇中心和所述可学习角度确定所述特征向量与所述目标簇中心之间的第一类内距离,所述目标簇中心为所述特征向量所属类别对应的簇中心,每个特征向量对应一个第一类内距离。
具体的,第一类内距离是指特征向量与对应目标簇中心之间的距离,其可以通过角度的余弦体现,即该距离可以理解为特征向量与目标簇中心之间的角度距离。其中,将某个样本所属的类别对应的簇中心记为该样本对应的目标簇中心。一个实施例中,在距离中加入了可学习角度。示例性的,在计算第一类内距离时,先计算当前特征向量与目标簇中心之间角度的余弦,即先计算当前特征向量与目标簇中心之间的距离。在计算该距离时,可以利用向量夹角公式,并对特征向量及目标簇中心进行L2正则化的方式。举例而言,将当前计算距离的特征向量记为当前特征向量,且以第j个样本对应的特征向量为当前特征向量进行描述,此时,可以将当前特征向量记为yj,当前特征向量属于第y个类别,yj对应的目标簇中心记为Wy,yj与Wy之间的角度(即夹角)记为
Figure BDA0003029734430000131
此时,当前特征向量与对应的目标簇中心之间的距离可以表示为:
Figure BDA0003029734430000132
通过该公式可知,
Figure BDA0003029734430000133
的余弦可以通过yj和Wy得到。对yj和Wy应用L2正则化时,向量的模,也就是||Wy||2和||yj||2的值为1。得到该距离后,在该距离中加入可学习角度,其中,第y个类别对应的可学习角度记为my。此时,在距离中加入可学习角度和超参数以得到第一类内距离。将第j个样本对应的第一类内距离表示为Rjm,此时,
Figure BDA0003029734430000134
其中,m1为计算第一类内距离时使用的超参数,实施例中,将m1记为第一超参数。可以理解,超参数是在开始学习过程之前设置的参数,而不是通过训练得到的参数数据,其具体的数值可以根据实际情况设定。设置第一超参数的好处是可以使特征向量与目标簇中心之间的角度更小。可以理解,两个特征向量之间的角度越小,说明它们越相似,如果两个特征向量之间的角度越大,说明它们差异越大。例如,两张人脸图片的特征向量之间的角度越小,说明特征向量越相似,即两张人脸图片中的人脸越相近,两张人脸图片的特征向量之间的角度越大,说明特征向量差异越大,即两张人脸图片中的人脸差异越大。需说明,按照上述方式可以计算得到每个特征向量对应的第一类内距离。
步骤253、根据所述特征向量和其他簇中心确定所述特征向量和所述其他簇中心之间的第二类内距离,所述其他簇中心为全部簇中心中除去相应目标簇中心外的簇中心,每个特征向量对应一组其他簇中心,每个其他簇中心对应一个第二类内距离。
典型的,对于当前处理的特征向量而言,各簇中心中,除了目标簇中心外,其他类别对应的簇中心被记为其他簇中心。假设类别的总数量为C,那么针对当前处理的特征向量而言,其他簇中心的数量为C-1。此时,每个特征向量均对应C-1个其他簇中心,且相同类别下的特征向量对应的其他簇中心相同。
典型的,将当前处理的特征向量记为当前特征向量。具体的,计算当前特征向量和对应的其他簇中心之间的距离,并记为第二类内距离,该距离同样可以理解为当前特征向量与其他簇中心之间角度的余弦。此时,当前特征向量与每个其他簇中心之间存在一个第二类内距离。可以理解,第二类内距离可以利用向量夹角公式,并对特征向量及其他簇中心进行L2正则化的方式。举例而言,当前特征向量为第j个样本对应的特征向量,并记为yj,yj属于第y个类别,第i个其他簇中心记为Wi,i≠y,yj与Wi之间的角度记为
Figure BDA0003029734430000141
典型的,将第j个样本对应的yj与第i个其他簇中心之间的第二类内距离记为Rji,此时,
Figure BDA0003029734430000142
通过该公式可知,
Figure BDA0003029734430000143
的余弦可以通过yj和Wi得到。对yj和Wi应用L2正则化时,向量的模,也就是||Wi||2和||yj||2的值为1。此时,针对当前特征向量而言,每个其他簇中心对应一个第二类内距离。按照上述方式,便可以计算得到每个特征向量对应的第二类内距离。
步骤254、根据全部类别的可学习角度确定惩罚项。
惩罚项也可以理解为正则化惩罚项,实施例中加入惩罚项的目的是为了使可学习角度的取值更大。惩罚项的计算公式为
Figure BDA0003029734430000144
其中,C为类别的总数量,Lm为惩罚项,my为第y个类别对应的可学习角度。
可以理解,步骤252、步骤253以及步骤254之间的执行顺序实施例不作限定,例如,步骤252、步骤253以及步骤254可以同时执行,或者是,步骤254在步骤252之后执行等。
步骤255、根据第一类内距离、第二类内距离以及所述惩罚项确定类内损失函数。
采用softmax损失函数作为类内损失函数,此时,类内损失函数的计算公式为:
Figure BDA0003029734430000151
其中,Sintra表示类内损失函数,M为神经网络模型训练过程中每次迭代过程选取的样本数量,s为比例因子,ω1为第一平衡因子,Rjm为第j个样本的特征向量yj对应的第一类内距离,
Figure BDA0003029734430000152
Figure BDA0003029734430000153
为yj与yj对应的目标簇中心之间的角度,
Figure BDA0003029734430000154
Wy表示yj对应的目标簇中心,yj属于第y个类别,m1为第一超参数,my为第y个类别对应的可学习角度,Rji为yj与第i个其他簇中心之间的第二类内距离,Rji=Wi Tyj,Wi为第i个其他簇中心,C为类别的总数量,Lm为惩罚项,
Figure BDA0003029734430000155
此时,s、M、ω1的具体数值可以根据实际情况设定,例如,结合实际情况设定s为32、64或128等数值。公式中
Figure BDA0003029734430000156
可以理解为第j个样本属于类别y的后验概率,以通过人脸图片进行用户身份识别为例,
Figure BDA0003029734430000157
可以理解为第j张人脸图片属于用户身份y的后验概率,其考虑了特征向量与各簇中心的距离,有效地保证了相同类别(即同一用户身份)的特征向量之间距离紧凑。
步骤260、根据各所述簇中心确定类间损失函数。
由于不同类别的簇中心为不均匀分布,有些簇中心之间的距离较近,有些簇中心之间的距离较远,因此,实施例中通过惩罚角度距离的方式使得距离较近的簇中心之间的距离更远,即使得不同类别(即不同用户身份)的簇中心之间距离更远。此时,类间损失函数可以通过不同簇中心之间的距离构建。据此,实施例中设定步骤260具体包括步骤261-步骤263:
步骤261、根据各所述簇中心计算不同类别之间的第一类间距离。
具体的,计算任意两个簇中心之间的距离,并记为第一类间距离,该距离可以通过两个簇中心之间角度的余弦体现。其中,第一类间距离也可以利用向量夹角公式,并对两个簇中心进行L2正则化的方式计算得到。举例而言,第z个类别对应的簇中心记为Wz,z≤C,第q个类别对应的簇中心记为Wq,q≤C,q≠z。此时,第z个类别对应的簇中心与第q个类别对应的簇中心之间的第一类间距离为
Figure BDA0003029734430000161
其中,
Figure BDA0003029734430000162
为第一类间距离。此时,针对每个样本对应的簇中心而言,均有C-1个第一类间距离。其中,对Wz和Wq应用L2正则化时,向量的模,也就是||Wz||2和||Wq||2的值为1。
步骤262、在每个类别对应的全部第一类间距离中选择大于距离阈值的第二类间距离,并计算每个类别的第二类间距离和值。
具体的,为了实现惩罚角度距离,针对当前的簇中心而言,在当前簇中心对应的第一类间距离中查找与当前簇中心距离较远的簇中心,并将查找到的簇中心对应的第一类间距离记为第二类间距离。可选的,通过设定距离阈值的方式查找第二类间距离,即在当前簇中心对应的第一类间距离中,查找大于距离阈值的第一类间距离,并记为第二类间距离。其中,距离阈值可以根据实际情况设定。每个簇中心均对应至少一个第二类间距离,之后,将每个簇中心对应的第二类间距离相加,以得到第二类间距离和值,此时,每个类别对应一个第二类间距离和值。
举例而言,当前的簇中心为第z个类别对应的簇中心,对应的第二类间距离和值用Dz表示,则
Figure BDA0003029734430000163
其中,m2为第二超参数,其具体数值可以根据实际情况设定,通过设置m2可以得到距离阈值,即只保留大于cos(m2)的第一类间距离,并求和得到对应的第二类间距离和值。可以理解,每个簇中心对应一个第二类间距离和值。
步骤263、根据每个类别对应的第二类间距离和值确定类间损失函数。
具体的,对第二类间距离和值进行求平均值,以构建类间损失函数,此时,所述类间损失函数的计算公式为:
Figure BDA0003029734430000164
其中,Sinter表示类间损失函数,C为类别的总数量,Dz为第z个类别对应的第二类间距离和值,
Figure BDA0003029734430000171
Figure BDA0003029734430000172
为第z个类别与第q个类别之间的第一类间距离,m2为第二超参数。
步骤270、根据所述类内损失函数和所述类间损失函数确定所述神经网络模型的损失函数。
其中,所述神经网络模型的损失函数的计算公式为:Sloss=ω2Sinter+Sintra,其中,Sloss表示损失函数,Sintra表示类内损失函数,Sinter表示类间损失函数,ω2为第二平衡因子,第二平衡因子也可以理解为类间损失函数的权值,该权值可以平衡类内损失函数和类间损失函数的重要程度,进而使得神经网络模型更好的区分不同用户身份的样本,权值的具体数值可以根据实际情况设定。
步骤280、利用梯度下降算法更新包含所述损失函数的所述神经网络模型,直到所述损失函数满足稳定条件。
具体的,梯度下降算法(gradient descent)是一个最优化算法,在机器学习和人工智能中,可以用来递归性地逼近最小偏差模型。构建损失函数后,利用梯度下降算法对神经网络模型进行迭代训练,以实现训练神经网络模型。其中,将训练数据集中的样本作为训练数据对神经网络模型进行训练。在训练过程中,可以对神经网络模型中的参数(如权重参数等)进行更新,直到损失函数满足稳定条件。其中,稳定条件可以根据实际情况设定,当损失函数满足稳定条件后,神经网络模型的输出结果较为稳定,且结果偏差较小,即神经网络模型可以准确得到用户身份后确定满足稳定条件。可以理解,训练过程中,每次迭代过程时根据损失函数可以算出一个损失值,根据这个值可以反向更新神经网络模型中的参数,即每次迭代过程均可能更新神经网络模型中的参数。
步骤290、对所述训练数据集中的每个样本初始化一个采样概率,每个所述样本初始化的采样概率相同。
具体的,神经网络模型稳定后,通过难例挖掘的方式对神经网络模型进行训练,以进一步提高神经网络模型的精准度。进行难例挖掘时,先为训练数据集中每个样本初始化一个采样概率,且每个样本的采样概率相同,例如,样本为人脸图片时,每个人脸图片对应一个相同的初始化概率。其中,采样概率表示神经网络模型训练过程中,对应样本被采样到的概率。初始化的采样概率的具体数值可以根据实际情况设定,实施例对此不做限定。
步骤2100、基于所述训练数据集对包含所述损失函数的所述神经网络模型进行迭代训练。
步骤2110、在迭代训练过程中,确定所述训练数据集中被正确分类的样本以及被错误分类的样本。
具体的,以一次训练过程为例,此时,获取神经网络模型针对本次训练过程中采样的样本的分类结果。之后,比较分类结果和相应样本的标签中记载的类别,若分类结果与标签中记载的类别相同,则说明相应样本被神经网络模型正确分类,若分类结果与标签中记载的类别不同,则说明相应样本被神经网络模型错误分类。举例而言,获取神经网络模型针对本次训练过程中采样的人脸图片的用户身份识别结果。之后,比较用户身份识别结果和相应人脸图片的标签中记载的用户身份,若用户身份识别结果与标签中记载的用户身份相同,则说明相应人脸图片被神经网络模型正确分类,若用户身份识别结果与标签中记载的用户身份不同,则说明相应人脸图片被神经网络模型错误分类。可以理解,每次训练过程中,均可以得到被正确分类的样本以及被错误分类的样本。
步骤2120、将所述被正确分类的样本的采样概率减小第一数值,并将所述被错误分类的样本的采样概率增加第二数值。
具体的,一次训练过程中,当样本被正确分类时,说明神经网络模型可以准确识别该样本,那么,可以降低该样本的采样概率。实施例中降低采样概率的方式为对采样概率减小第一数值,其中,第一数值可以根据实际情况设定。相应的,一次训练过程中,当样本被错误分类时,说明神经网络模型无法准确识别该样本,那么,可以增加该样本的采样概率。实施例中增加采样概率的方式为对采样概率增加第二数值,其中,第二数值可以根据实际情况设定,其与第一数值可以相同也可以不同。在迭代训练过程中,每次训练完成后,都会对正确分类的样本的采样概率减小第一数值,对错误分类的样本的采样概率增加第二数值。随着迭代训练的进行,正确分类的样本被神经网络模型采样的概率越来越小,错误分类的样本被神经网络模型采样的概率越来越大。举例而言,当样本为人脸图片时,减小被正确识别用户身份的人脸图片的采样概率,增加被错误识别用户身份的人脸图片的采样概率,以便于后续训练过程中,被错误识别用户身份的人脸图片被采样的概率越来越大,进而使得神经网络模型在后续训练过程中准确识别人脸图片的用户身份。
步骤2130、在所述训练数据集中删除采样概率低于概率阈值的样本,并继续进行迭代训练,直到所述损失函数收敛为止。
一个实施例中,概率阈值的数值可以根据实际情况设定,当采样概率低于概率阈值时,说明该采样概率对应的样本被神经网络模型准确识别的概率高。因此,可以删除训练数据集中该样本,保留不能被神经网络模型准确识别的样本,即保留采样概率高的样本,此时,可以认为是对训练数据集进行了难例挖掘。可选的,每完成一次训练,可以通过概率阈值筛选一次样本。在神经网络模型后续的迭代训练过程中,可以只针对采样概率高的样本进行训练,即在训练过程中逐渐针对易被错误识别的样本进行训练,并在训练过程中调节神经网络模型的参数,直到损失函数收敛为止。
上述,获取训练数据集,并通过神经网络模型确定训练数据集中每个样本的特征向量,之后,获取神经网络模型中全连接层的权重参数矩阵,并根据权重参数矩阵确定每个类别对应的簇中心,之后,根据簇中心和特征向量构建类内损失函数,根据簇中心构建类间损失函数,并根据类内损失函数和类间损失函数构建神经网络模型的损失函数,之后,训练神经网络模型直到损失函数收敛的技术方案,可以解决现有技术中卷积神经网络无法扩大不同类别的样本之间特征向量的距离导致无法对不同类别的样本进行有效区分的技术问题。在构建损失函数时,不仅考虑各样本的特征向量以构建类内损失函数,还考虑不同类别的簇中心构建类间损失函数。且在构建类内损失函数时加入了可学习角度,以限制同一类别下的特征向量之间的距离,同时,加入了惩罚项,以增大可学习角度,进而使得同一类别下的特征向量之间更加紧凑。在构建类间损失函数时,通过设置距离阈值,实现惩罚距离以使得不同类别下的特征向量之间的距离更远。同时,在训练神经网络模型时,通过识别结果更改各样本的采样概率,可以挖掘神经网络模型迭代训练过程中的难例样本,进而基于难例样本训练神经网络模型,以进一步提高神经网络模型的处理精准度。
实施例三
图3为本发明实施例三提供的一种特征模型训练方法的流程图。本实施例提供的特征模型训练方法用于描述上述训练完成的神经网络模型的应用过程。本实施例中,神经网络模型用于根据人脸图片或人掌静脉图片进行人脸识别。
具体的,参考图3,该特征模型应用方法具体包括:
步骤510、获取待分类样本,所述待分类样本为人脸图片或人掌静脉图片。
待分类样本是指当前需要确定所属类别的样本,一个实施例中,待分类样本与上述神经网络模型训练过程中使用的样本为类型相同的样本,例如,待分类样本为人脸图像或人掌静脉图片,相应的,待分类样本所属的类别是指人脸图片或人掌静脉图片所对应的用户身份。其中,人脸图片是指对人脸进行拍摄得到的图像,此时,通过人脸识别的方式可确定对应的用户身份,人掌静脉图片是指对人手掌内静脉进行拍摄得到的图像,此时,通过掌静脉识别可以确定对应的用户身份。需说明,掌静脉识别时,需要在掌活体时才可以进行掌静脉识别。进一步的,人脸图片或人掌静脉图片的获取方式不作限定。例如,地铁过闸场景下,在地铁闸门处安装摄像头,以拍摄人脸图片或人掌静脉图片。
步骤520、将所述待分类样本输入至神经网络模型,得到对应的实际特征向量,所述神经网络模型通过类内损失函数和类间损失函数实现同一类别下各样本间的特征向量相似度高于不同类别下各样本间的特征向量相似度。
实施例中,神经网络模型为上述实施例中预先训练好的神经网络模型,神经网络模型可以识别样本的特征,并输出特征向量,该特征向量可以理解为一串固定长度的数值,特征向量可以体现样本的特征。实施例中,神经网络模型具体识别人脸图片得到人脸特征或者识别人掌静脉图片以得到掌静脉特征。可理解,掌静脉特征具体是识别人掌静脉图片中手掌内部静脉图像而得到,而不是识别手掌表面的图像特征,因此,不存在任何由于手掌表面的损伤、磨损、干燥或太湿等带来的识别障碍。
可理解,神经网络模型训练过程中可以预先采集大量已知用户身份的人脸图片或人掌静脉图片,之后,利用人脸图片或人掌静脉图片和对应的用户身份训练神经网络模型,在训练过程中,神经网络模型的损失函数包括类内损失函数和类间损失函数,其中,类内损失函数和类间损失函数均可通过神经网络模型识别样本后得到的特征向量以及对应的类别确定。实施例中,训练时,神经网络模型识别得到人脸特征或掌静脉特征后,结合用户身份构建类内损失函数和类间损失函数。其中,类内损失函数考虑到了各用户身份下特征向量在特征空间中的分布情况,目的是为了使同一用户身份下的特征向量在特征空间中更加紧凑,以优化不同用户身份下特征向量之间的距离。类间损失函数考虑到了不同类别下簇中心在特征空间中的分布情况,类间损失函数可以认为是一个正则项,目的是为了使不同用户身份下的特征向量在特征空间中的距离更远,进而使同一用户身份下的特征向量在特征空间中更加紧凑。换言之,通过类内损失函数和类间损失函数可以使得同一用户身份下的特征向量之间的相似度高于不同用户身份下特征向量之间的相似度。进一步的,神经网络模型的训练过程可参考上述实施例。
进一步的,将待分类样本输入至神经网络模型后,可以使神经网络模型输出待分类样本的特征向量,实施例中,将该特征向量记为待分类样本的实际特征向量。
步骤530、将所述实际特征向量与预先存储的各参考特征向量进行匹配,所述参考特征向量对应参考样本,每个所述参考样本均有所属的类别,所述参考特征向量通过所述神经网络模型确定。
参考样本是指明确所属类别的样本。在身份识别场景下,参考样本是指明确用户身份的样本,如明确用户身份的人脸图片或人掌静脉图片。参考特征向量是指根据参考样本得到的特征向量,参考特征向量可以通过上述神经网络模型得到。一个实施例中,当用户注册时,获取用户身份以及参考样本,并利用神经网络模型获取参考样本对应的参考特征向量,之后,保存用户身份、参考样本以及参考特征向量。
由于神经网络模型通过类内损失函数和类间损失函数可使得同一用户身份下的特征向量之间相似度高,不同用户身份下的特征向量之间相似度低,因此,实施例中,得到待分类样本的实际特征向量后,与明确所属类别(即明确用户身份)的各参考特征向量进行匹配,此时,若实际特征向量和参考特征向量属于同一用户身份,那么,两者之间的相似度会很高,否则,两者之间的相似度很低,进而通过匹配结果可以确定待分类样本的类别,即确定待分类样本的用户身份。其中,匹配手段可以根据实际情况设定。例如,采用计算实际特征向量和参考特征向量之间的欧氏距离或余弦相似度的方式确定两者之间的相似度,进而将相似度作为匹配结果。
步骤540、选择匹配度最高的参考特征向量,并将匹配度最高的参考特征向量对应的类别作为所述待分类样本的类别。
将实际特征向量与各参考特征向量进行匹配后,选择匹配度最高的参考特征向量。其中,匹配度最高也可以理解为相似度最高。之后,将匹配度最高的参考特征向量对应的类别作为待分类样本的类别,即将匹配度最高的参考特征向量对应的用户身份作为待分类样本的用户身份。
一个实施例中,选择匹配度最高的参考特征向量后,确定该匹配度是否大于预设的阈值,若大于预设的阈值,则将匹配度最高的参考特征向量对应的用户身份作为待分类样本的用户身份,否则,确定无法识别用户身份。其中,该阈值可以根据实际情况设定,该阈值用于限定识别用户身份时需要满足的最小匹配度,即同一类别下各样本的特征向量间的相似度高于该阈值,不同类别下各样本的特征向量间的相似度低于该阈值。
下面对本实施例提供的方案进行示例性描述:在安防监控领域中,当各用户注册时,获取该用户的人脸图片以及对应的用户身份,之后,利用神经网络模型提取该人脸图片的特征向量,并与用户身份、人脸图片关联保存。之后,当前某个用户进入安防监控区域时,拍摄该用户的人脸图片,并利用神经网络模型得到该人脸图片的特征向量,之后,将该特征向量与各已注册用户的特征向量进行匹配,选择相似度最高的已注册用户的特征向量,之后,若所选择的相似度高于预设阈值,则将相应已注册用户的用户身份确定为当前用户的用户身份,否则,确定当前用户不是注册用户,并进行安全提示,防止非法用户进入安防监控区域。
上述,通过获取待分类样本,之后,将待分类样本输入至神经网络模型,得到实际特征向量,该神经网络模型通过类内损失函数可以使同类别下样本间特征向量相似度高并通过类间损失函数可以使不同类别下样本间特征向量相似度低,之后,根据实际特征向量与参考特征向量的匹配结果确定待分类样本所属的类别的技术手段,可使得相同类别样本的特征向量距离更近,不同类别样本的特征向量距离更远,进而在根据特征向量确定样本类别时,使得样本类别更加准确,尤其对于样本数量较多的应用场景,如百万级或千万级的用户身份识别(如地铁过闸、安防监控、门禁安检等)应用场景,可以使得同一用户的特征向量之间相似度高,不同用户的特征向量之间相似度低,以保证更准确识别用户身份。
实施例四
图4为本发明实施例四提供的一种特征模型训练装置的结构示意图。参考图4,本实施例提供的特征模型训练装置包括:数据获取模块301、特征确定模块302、第一构建模块303、第二构建模块304以及模型训练模块305。
其中,数据获取模块301,用于获取训练数据集,所述训练数据集中每个样本对应一个标签,所述标签用于标识对应样本所属的类别,所述样本为图片;特征确定模块302,用于将所述训练数据集输入至神经网络模型,以得到每个所述样本的特征向量,所述特征向量用于确定所述样本的类别,所述神经网络模型用于实现度量学习;第一构建模块303,用于根据所述训练数据集中各样本对应的特征向量以及所属的类别,构建类内损失函数和类间损失函数;第二构建模块304,用于根据所述类内损失函数和所述类间损失函数确定所述神经网络模型的损失函数;模型训练模块305,用于对包含所述损失函数的所述神经网络模型进行训练,直到所述损失函数收敛为止。
上述,通过获取带有类别标签的训练数据集,之后,根据神经网络模型获取训练数据集中各样本的特征向量,并根据特征向量以及样本所属的类别构建类内损失函数和类间损失函数,之后,根据类内损失函数和类间损失函数构建神经网络模型的损失函数,并对包含损失函数的神经网络模型进行训练,直到损失函数收敛为止的技术方案,可以解决现有技术中卷积神经网络无法扩大不同类别的样本之间特征向量的距离导致无法对不同类别的样本进行有效区分的技术问题。在构建损失函数时,不仅考虑各特征向量构建类内损失函数,还考虑不同类别构建类间损失函数,进而使得神经网络模型在提取特征向量时,可以使得相同类别样本的特征向量距离更近,不同类别样本的特征向量距离更远,实现更优的度量学习结果。
在上述实施例的基础上,第一构建模块303包括:参数获取单元,用于获取所述神经网络模型中全连接层的权重参数矩阵,所述权重参数矩阵中第p列的权重参数表示第p个类别对应的权重参数向量;簇中心确定单元,用于根据所述权重参数矩阵确定各类别对应的簇中心;类内损失函数确定单元,用于根据各所述簇中心以及各所述类别下的特征向量确定类内损失函数;类间损失函数确定单元,用于根据各所述簇中心确定类间损失函数。
在上述实施例的基础上,类内损失函数确定单元包括:可学习角度确定子单元,用于根据特征向量所属的类别确定可学习角度;第一距离确定子单元,用于根据所述特征向量、目标簇中心和所述可学习角度确定所述特征向量与所述目标簇中心之间的第一类内距离,所述目标簇中心为所述特征向量所属类别对应的簇中心,每个特征向量对应一个第一类内距离;第二距离确定子单元,用于根据所述特征向量和其他簇中心确定所述特征向量和所述其他簇中心之间的第二类内距离,所述其他簇中心为全部簇中心中除去相应目标簇中心外的簇中心,每个特征向量对应一组其他簇中心,每个其他簇中心对应一个第二类内距离;惩罚项确定子单元,用于根据全部类别的可学习角度确定惩罚项;类内损失函数构建子单元,用于根据第一类内距离、第二类内距离以及所述惩罚项确定类内损失函数。
在上述实施例的基础上,所述类内损失函数的计算公式为:
Figure BDA0003029734430000241
其中,Sintra表示类内损失函数,M为神经网络模型训练过程中每次迭代过程选取的样本数量,s为比例因子,ω1为第一平衡因子,Rjm为第j个样本的特征向量yj对应的第一类内距离,
Figure BDA0003029734430000242
Figure BDA0003029734430000243
为yj与yj对应的目标簇中心之间的角度,
Figure BDA0003029734430000244
Wy表示yj对应的目标簇中心,yj属于第y个类别,m1为第一超参数,my为第y个类别对应的可学习角度,Rji为yj与第i个其他簇中心之间的第二类内距离,Rji=Wi Tyj,Wi为第i个其他簇中心,C为类别的总数量,Lm为惩罚项,
Figure BDA0003029734430000245
在上述实施例的基础上,类间损失函数确定单元包括:第三距离确定子单元,用于根据各所述簇中心计算不同类别之间的第一类间距离;第四距离确定子单元,用于在每个类别对应的全部第一类间距离中选择大于距离阈值的第二类间距离,并计算每个类别的第二类间距离和值;类间损失函数构建子单元,用于根据每个类别对应的第二类间距离和值确定类间损失函数。
在上述实施例的基础上,所述类间损失函数的计算公式为:
Figure BDA0003029734430000251
其中,Sinter表示类间损失函数,C为类别的总数量,Dz为第z个类别对应的第二类间距离和值,
Figure BDA0003029734430000252
Figure BDA0003029734430000253
为第z个类别与第q个类别之间的第一类间距离,m2为第二超参数。
在上述实施例的基础上,所述神经网络模型的损失函数的计算公式为:Sloss=ω2Sinter+Sintra,其中,Sloss表示损失函数,Sintra表示类内损失函数,Sinter表示类间损失函数,ω2为第二平衡因子。
在上述实施例的基础上,模型训练模块305包括:模型更新单元,用于利用梯度下降算法更新包含所述损失函数的所述神经网络模型,直到所述损失函数满足稳定条件;概率初始单元,用于对所述训练数据集中的每个样本初始化一个采样概率,每个所述样本初始化的采样概率相同;迭代训练单元,用于基于所述训练数据集对包含所述损失函数的所述神经网络模型进行迭代训练;样本识别单元,用于在迭代训练过程中,确定所述训练数据集中被正确分类的样本以及被错误分类的样本;概率更新单元,用于将所述被正确分类的样本的采样概率减小第一数值,并将所述被错误分类的样本的采样概率增加第二数值;样本删除单元,用于在所述训练数据集中删除采样概率低于概率阈值的样本,并继续进行迭代训练,直到所述损失函数收敛为止。
在上述实施例的基础上,所述样本为人脸图片或人掌静脉图片,所述类别为所述人脸图片或人掌静脉图片对应的用户身份。
在上述实施例的基础上,还包括:待分类样本获取模块,用于获取待分类样本,所述待分类样本为人脸图片或人掌静脉图片;实际特征确定模块,用于将所述待分类样本输入至神经网络模型,得到对应的实际特征向量,所述神经网络模型通过类内损失函数和类间损失函数实现同一类别下各样本间的特征向量相似度高于不同类别下各样本间的特征向量相似度;特征匹配模块,用于将所述实际特征向量与预先存储的各参考特征向量进行匹配,所述参考特征向量对应参考样本,每个所述参考样本均有所属的类别,所述参考特征向量通过所述神经网络模型确定;类别确定模块,用于选择匹配度最高的参考特征向量,并将匹配度最高的参考特征向量对应的类别作为所述待分类样本的类别。
本实施例提供的特征模型训练装置包含在特征模型训练设备中,可以用于执行上述任意实施例提供的特征模型训练方法,具备相应的功能和有益效果。
实施例五
图5为本发明实施例五提供的一种特征模型训练设备的结构示意图。具体的,如图5所示,该特征模型训练设备包括处理器40、存储器41、输入装置42以及输出装置43;该特征模型训练设备中处理器40的数量可以是一个或多个,图5中以一个处理器40为例;该特征模型训练设备中的处理器40、存储器41、输入装置42以及输出装置43可以通过总线或其他方式连接,图5中以通过总线连接为例。
存储器41作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块,如本发明实施例中的特征模型训练方法中的程序指令/模块(例如,特征模型训练装置中的数据获取模块301、特征确定模块302、第一构建模块303、第二构建模块304以及模型训练模块305)。处理器40通过运行存储在存储器41中的软件程序、指令以及模块,从而执行特征模型训练设备的各种功能应用以及数据处理,即实现上述任意实施例提供的特征模型训练方法。
存储器41可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据特征模型训练设备的使用所创建的数据等。此外,存储器41可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实例中,存储器41可进一步包括相对于处理器40远程设置的存储器,这些远程存储器可以通过网络连接至特征模型训练设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置42可用于接收输入的数字或字符信息,以及产生与特征模型训练设备的用户设置以及功能控制有关的键信号输入。输出装置43可包括显示屏、扬声器等设备。特征模型训练设备还可以包括通信装置(图未示),可用于与其他设备进行数据通信。
上述特征模型训练设备包含实施例四提供的特征模型训练装置,可以用于执行本发明任意实施例提供的特征模型训练方法,具备相应的功能和有益效果。
实施例六
本发明实施例还提供一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行一种特征模型训练方法,该方法包括:
获取训练数据集,所述训练数据集中每个样本对应一个标签,所述标签用于标识对应样本所属的类别;
将所述训练数据集输入至神经网络模型,以得到每个所述样本的特征向量;
根据所述训练数据集中各样本对应的特征向量以及所属的类别,构建类内损失函数和类间损失函数;
根据所述类内损失函数和所述类间损失函数确定所述神经网络模型的损失函数;
对包含所述损失函数的所述神经网络模型进行训练,直到所述损失函数收敛为止。
当然,本发明实施例所提供的一种包含计算机可执行指令的存储介质,其计算机可执行指令不限于如上所述的方法操作,还可以执行本发明任意实施例所提供的特征模型训练方法中的相关操作。
通过以上关于实施方式的描述,所属领域的技术人员可以清楚地了解到,本发明可借助软件及必需的通用硬件来实现,当然也可以通过硬件实现,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如计算机的软盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、闪存(FLASH)、硬盘或光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的特征模型训练方法。
值得注意的是,上述特征模型训练装置的实施例中,所包括的各个单元和模块只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。

Claims (13)

1.一种特征模型训练方法,其特征在于,包括:
获取训练数据集,所述训练数据集中每个样本对应一个标签,所述标签用于标识对应样本所属的类别,所述样本为图片;
将所述训练数据集输入至神经网络模型,以得到每个所述样本的特征向量,所述特征向量用于确定所述样本的类别,所述神经网络模型用于实现度量学习;
根据所述训练数据集中各样本对应的特征向量以及所属的类别,构建类内损失函数和类间损失函数;
根据所述类内损失函数和所述类间损失函数确定所述神经网络模型的损失函数;
对包含所述损失函数的所述神经网络模型进行训练,直到所述损失函数收敛为止。
2.根据权利要求1所述的特征模型训练方法,其特征在于,所述根据所述训练数据集中各样本对应的特征向量以及所属的类别,构建类内损失函数和类间损失函数包括:
获取所述神经网络模型中全连接层的权重参数矩阵,所述权重参数矩阵中第p列的权重参数表示第p个类别对应的权重参数向量;
根据所述权重参数矩阵确定各类别对应的簇中心;
根据各所述簇中心以及各所述类别下的特征向量确定类内损失函数;
根据各所述簇中心确定类间损失函数。
3.根据权利要求2所述的特征模型训练方法,其特征在于,所述根据各所述簇中心以及各所述类别下的特征向量确定类内损失函数包括:
根据特征向量所属的类别确定可学习角度;
根据所述特征向量、目标簇中心和所述可学习角度确定所述特征向量与所述目标簇中心之间的第一类内距离,所述目标簇中心为所述特征向量所属类别对应的簇中心,每个特征向量对应一个第一类内距离;
根据所述特征向量和其他簇中心确定所述特征向量和所述其他簇中心之间的第二类内距离,所述其他簇中心为全部簇中心中除去相应目标簇中心外的簇中心,每个特征向量对应一组其他簇中心,每个其他簇中心对应一个第二类内距离;
根据全部类别的可学习角度确定惩罚项;
根据第一类内距离、第二类内距离以及所述惩罚项确定类内损失函数。
4.根据权利要求3所述的特征模型训练方法,其特征在于,所述类内损失函数的计算公式为:
Figure FDA0003029734420000021
其中,Sintra表示类内损失函数,M为神经网络模型训练过程中每次迭代过程选取的样本数量,s为比例因子,ω1为第一平衡因子,Rjm为第j个样本的特征向量yj对应的第一类内距离,
Figure FDA0003029734420000022
Figure FDA0003029734420000023
为yj与yj对应的目标簇中心之间的角度,
Figure FDA0003029734420000024
Wy表示yj对应的目标簇中心,yj属于第y个类别,m1为第一超参数,my为第y个类别对应的可学习角度,Rji为yj与第i个其他簇中心之间的第二类内距离,Rji=Wi Tyj,Wi为第i个其他簇中心,C为类别的总数量,Lm为惩罚项,
Figure FDA0003029734420000025
5.根据权利要求2所述的特征模型训练方法,其特征在于,所述根据各所述簇中心确定类间损失函数包括:
根据各所述簇中心计算不同类别之间的第一类间距离;
在每个类别对应的全部第一类间距离中选择大于距离阈值的第二类间距离,并计算每个类别的第二类间距离和值;
根据每个类别对应的第二类间距离和值确定类间损失函数。
6.根据权利要求5所述的特征模型训练方法,其特征在于,所述类间损失函数的计算公式为:
Figure FDA0003029734420000026
其中,Sinter表示类间损失函数,C为类别的总数量,Dz为第z个类别对应的第二类间距离和值,
Figure FDA0003029734420000027
Figure FDA0003029734420000028
为第z个类别与第q个类别之间的第一类间距离,m2为第二超参数。
7.根据权利要求1所述的特征模型训练方法,其特征在于,所述神经网络模型的损失函数的计算公式为:Sloss=ω2Sinter+Sintra,其中,Sloss表示损失函数,Sintra表示类内损失函数,Sinter表示类间损失函数,ω2为第二平衡因子。
8.根据权利要求1所述的特征模型训练方法,其特征在于,所述对包含所述损失函数的所述神经网络模型进行训练,直到所述损失函数收敛为止包括:
利用梯度下降算法更新包含所述损失函数的所述神经网络模型,直到所述损失函数满足稳定条件;
对所述训练数据集中的每个样本初始化一个采样概率,每个所述样本初始化的采样概率相同;
基于所述训练数据集对包含所述损失函数的所述神经网络模型进行迭代训练;
在迭代训练过程中,确定所述训练数据集中被正确分类的样本以及被错误分类的样本;
将所述被正确分类的样本的采样概率减小第一数值,并将所述被错误分类的样本的采样概率增加第二数值;
在所述训练数据集中删除采样概率低于概率阈值的样本,并继续进行迭代训练,直到所述损失函数收敛为止。
9.根据权利要求1所述的特征模型训练方法,其特征在于,所述样本为人脸图片或人掌静脉图片,所述类别为所述人脸图片或人掌静脉图片对应的用户身份。
10.根据权利要求9所述的特征模型训练方法,其特征在于,还包括:
获取待分类样本,所述待分类样本为人脸图片或人掌静脉图片;
将所述待分类样本输入至神经网络模型,得到对应的实际特征向量,所述神经网络模型通过类内损失函数和类间损失函数实现同一类别下各样本间的特征向量相似度高于不同类别下各样本间的特征向量相似度;
将所述实际特征向量与预先存储的各参考特征向量进行匹配,所述参考特征向量对应参考样本,每个所述参考样本均有所属的类别,所述参考特征向量通过所述神经网络模型确定;
选择匹配度最高的参考特征向量,并将匹配度最高的参考特征向量对应的类别作为所述待分类样本的类别。
11.一种特征模型训练装置,其特征在于,包括:
数据获取模块,用于获取训练数据集,所述训练数据集中每个样本对应一个标签,所述标签用于标识对应样本所属的类别,所述样本为图片;
特征确定模块,用于将所述训练数据集输入至神经网络模型,以得到每个所述样本的特征向量,所述特征向量用于确定所述样本的类别,所述神经网络模型用于实现度量学习;
第一构建模块,用于根据所述训练数据集中各样本对应的特征向量以及所属的类别,构建类内损失函数和类间损失函数;
第二构建模块,用于根据所述类内损失函数和所述类间损失函数确定所述神经网络模型的损失函数;
模型训练模块,用于对包含所述损失函数的所述神经网络模型进行训练,直到所述损失函数收敛为止。
12.一种特征模型训练设备,其特征在于,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-10中任一所述的特征模型训练方法。
13.一种包含计算机可执行指令的存储介质,其特征在于,所述计算机可执行指令在由计算机处理器执行时用于执行如权利要求1-10中任一所述的特征模型训练方法。
CN202110426522.8A 2020-04-21 2021-04-20 特征模型训练方法、装置、设备及存储介质 Active CN112949780B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010319373.0A CN111553399A (zh) 2020-04-21 2020-04-21 特征模型训练方法、装置、设备及存储介质
CN2020103193730 2020-04-21

Publications (2)

Publication Number Publication Date
CN112949780A true CN112949780A (zh) 2021-06-11
CN112949780B CN112949780B (zh) 2022-09-20

Family

ID=72005834

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202010319373.0A Pending CN111553399A (zh) 2020-04-21 2020-04-21 特征模型训练方法、装置、设备及存储介质
CN202110426522.8A Active CN112949780B (zh) 2020-04-21 2021-04-20 特征模型训练方法、装置、设备及存储介质

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN202010319373.0A Pending CN111553399A (zh) 2020-04-21 2020-04-21 特征模型训练方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (2) CN111553399A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114118370A (zh) * 2021-11-19 2022-03-01 北京的卢深视科技有限公司 模型训练方法、电子设备和计算机可读存储介质
CN114549938A (zh) * 2022-04-25 2022-05-27 广州市玄武无线科技股份有限公司 模型训练方法、图像信息管理方法、图像识别方法及装置
CN114611694A (zh) * 2022-03-16 2022-06-10 上海交通大学 提升图像分类网络模型鲁棒性的损失函数方法及系统
CN114792398A (zh) * 2022-06-23 2022-07-26 阿里巴巴(中国)有限公司 图像分类的方法和目标数据分类模型的构建方法
CN115035463A (zh) * 2022-08-09 2022-09-09 阿里巴巴(中国)有限公司 行为识别方法、装置、设备和存储介质
CN115328871A (zh) * 2022-10-12 2022-11-11 南通中泓网络科技有限公司 一种基于机器学习模型的版式数据流文件转换的评估方法
CN115809702A (zh) * 2022-11-11 2023-03-17 中南大学 Acgan模型构建方法、图像生成方法及服装设计方法
CN117807434A (zh) * 2023-12-06 2024-04-02 中国信息通信研究院 一种通信数据集处理方法和装置

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111931059A (zh) * 2020-08-19 2020-11-13 创新奇智(成都)科技有限公司 一种对象的确定方法、装置及存储介质
CN112015659A (zh) * 2020-09-02 2020-12-01 三维通信股份有限公司 基于网络模型的预测方法及装置
CN112149717B (zh) * 2020-09-03 2022-12-02 清华大学 基于置信度加权的图神经网络训练方法及装置
CN112101550B (zh) * 2020-09-25 2024-05-03 平安科技(深圳)有限公司 分诊融合模型训练方法、分诊方法、装置、设备及介质
CN112132092A (zh) * 2020-09-30 2020-12-25 四川弘和通讯有限公司 一种基于卷积神经网络的灭火器和灭火毯的识别方法
CN113762005B (zh) * 2020-11-09 2024-06-18 北京沃东天骏信息技术有限公司 特征选择模型的训练、对象分类方法、装置、设备及介质
CN112435230B (zh) * 2020-11-20 2021-07-16 哈尔滨市科佳通用机电股份有限公司 一种基于深度学习的数据集生成方法及系统
CN112686295B (zh) * 2020-12-28 2021-08-24 南京工程学院 一种个性化听力损失建模方法
CN112633407B (zh) * 2020-12-31 2023-10-13 深圳云天励飞技术股份有限公司 分类模型的训练方法、装置、电子设备及存储介质
CN112766379B (zh) * 2021-01-21 2023-06-20 中国科学技术大学 一种基于深度学习多权重损失函数的数据均衡方法
WO2022178775A1 (zh) * 2021-02-25 2022-09-01 东莞理工学院 基于特征多样性学习的深度集成模型训练方法
CN113011529B (zh) * 2021-04-28 2024-05-07 平安科技(深圳)有限公司 文本分类模型的训练方法、装置、设备及可读存储介质
CN113011532A (zh) * 2021-04-30 2021-06-22 平安科技(深圳)有限公司 分类模型训练方法、装置、计算设备及存储介质
CN113780378B (zh) * 2021-08-26 2023-11-28 北京科技大学 一种疾病高危人群预测装置
CN113947701B (zh) * 2021-10-18 2024-02-23 北京百度网讯科技有限公司 训练方法、对象识别方法、装置、电子设备以及存储介质
US20230386450A1 (en) * 2022-05-25 2023-11-30 Samsung Electronics Co., Ltd. System and method for detecting unhandled applications in contrastive siamese network training
CN116310648B (zh) * 2023-03-23 2023-12-12 北京的卢铭视科技有限公司 模型训练方法、人脸识别方法、电子设备和存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107103281A (zh) * 2017-03-10 2017-08-29 中山大学 基于聚集损失深度度量学习的人脸识别方法
CN107977609A (zh) * 2017-11-20 2018-05-01 华南理工大学 一种基于cnn的指静脉身份验证方法
CN108009528A (zh) * 2017-12-26 2018-05-08 广州广电运通金融电子股份有限公司 基于Triplet Loss的人脸认证方法、装置、计算机设备和存储介质
CN108681708A (zh) * 2018-05-16 2018-10-19 福州精益精科技有限责任公司 一种基于Inception神经网络模型的掌静脉图像识别方法、装置及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107103281A (zh) * 2017-03-10 2017-08-29 中山大学 基于聚集损失深度度量学习的人脸识别方法
CN107977609A (zh) * 2017-11-20 2018-05-01 华南理工大学 一种基于cnn的指静脉身份验证方法
CN108009528A (zh) * 2017-12-26 2018-05-08 广州广电运通金融电子股份有限公司 基于Triplet Loss的人脸认证方法、装置、计算机设备和存储介质
WO2019128367A1 (zh) * 2017-12-26 2019-07-04 广州广电运通金融电子股份有限公司 基于Triplet Loss的人脸认证方法、装置、计算机设备和存储介质
CN108681708A (zh) * 2018-05-16 2018-10-19 福州精益精科技有限责任公司 一种基于Inception神经网络模型的掌静脉图像识别方法、装置及存储介质

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114118370A (zh) * 2021-11-19 2022-03-01 北京的卢深视科技有限公司 模型训练方法、电子设备和计算机可读存储介质
CN114611694A (zh) * 2022-03-16 2022-06-10 上海交通大学 提升图像分类网络模型鲁棒性的损失函数方法及系统
CN114611694B (zh) * 2022-03-16 2022-09-23 上海交通大学 提升图像分类网络模型鲁棒性的损失函数方法及系统
CN114549938A (zh) * 2022-04-25 2022-05-27 广州市玄武无线科技股份有限公司 模型训练方法、图像信息管理方法、图像识别方法及装置
CN114549938B (zh) * 2022-04-25 2022-09-09 广州市玄武无线科技股份有限公司 模型训练方法、图像信息管理方法、图像识别方法及装置
CN114792398A (zh) * 2022-06-23 2022-07-26 阿里巴巴(中国)有限公司 图像分类的方法和目标数据分类模型的构建方法
CN115035463A (zh) * 2022-08-09 2022-09-09 阿里巴巴(中国)有限公司 行为识别方法、装置、设备和存储介质
CN115035463B (zh) * 2022-08-09 2023-01-17 阿里巴巴(中国)有限公司 行为识别方法、装置、设备和存储介质
CN115328871A (zh) * 2022-10-12 2022-11-11 南通中泓网络科技有限公司 一种基于机器学习模型的版式数据流文件转换的评估方法
CN115809702A (zh) * 2022-11-11 2023-03-17 中南大学 Acgan模型构建方法、图像生成方法及服装设计方法
CN117807434A (zh) * 2023-12-06 2024-04-02 中国信息通信研究院 一种通信数据集处理方法和装置

Also Published As

Publication number Publication date
CN112949780B (zh) 2022-09-20
CN111553399A (zh) 2020-08-18

Similar Documents

Publication Publication Date Title
CN112949780B (zh) 特征模型训练方法、装置、设备及存储介质
CN113378632B (zh) 一种基于伪标签优化的无监督域适应行人重识别方法
Wang et al. Relaxed multiple-instance SVM with application to object discovery
CN108681746B (zh) 一种图像识别方法、装置、电子设备和计算机可读介质
CN111523621A (zh) 图像识别方法、装置、计算机设备和存储介质
CN110738247B (zh) 一种基于选择性稀疏采样的细粒度图像分类方法
CN112149705A (zh) 分类模型的训练方法、系统、计算机设备及存储介质
JP2022141931A (ja) 生体検出モデルのトレーニング方法及び装置、生体検出の方法及び装置、電子機器、記憶媒体、並びにコンピュータプログラム
Mao et al. Feature representation using deep autoencoder for lung nodule image classification
Li et al. Adaptive metric learning for saliency detection
US10423817B2 (en) Latent fingerprint ridge flow map improvement
Yeh et al. Human-centered concept explanations for neural networks
US20190147218A1 (en) User specific classifiers for biometric liveness detection
US20220230648A1 (en) Method, system, and non-transitory computer readable record medium for speaker diarization combined with speaker identification
CN114463829B (zh) 模型训练方法、亲属关系识别方法、电子设备及存储介质
CN115497124A (zh) 身份识别方法和装置及存储介质
US10755074B2 (en) Latent fingerprint pattern estimation
CN111352926B (zh) 数据处理的方法、装置、设备及可读存储介质
Jiang et al. Dynamic proposal sampling for weakly supervised object detection
CN111783088B (zh) 一种恶意代码家族聚类方法、装置和计算机设备
CN114387304A (zh) 目标跟踪方法、计算机程序产品、存储介质及电子设备
Ma et al. Rethinking safe semi-supervised learning: Transferring the open-set problem to a close-set one
Lim et al. More powerful selective kernel tests for feature selection
CN110059180B (zh) 文章作者身份识别及评估模型训练方法、装置及存储介质
CN111079145B (zh) 基于图处理的恶意程序检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant