CN108256583A - 一种基于匹配学习的多标签分类学习方法 - Google Patents

一种基于匹配学习的多标签分类学习方法 Download PDF

Info

Publication number
CN108256583A
CN108256583A CN201810072493.8A CN201810072493A CN108256583A CN 108256583 A CN108256583 A CN 108256583A CN 201810072493 A CN201810072493 A CN 201810072493A CN 108256583 A CN108256583 A CN 108256583A
Authority
CN
China
Prior art keywords
tag
embedded
characterization
training
label
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810072493.8A
Other languages
English (en)
Other versions
CN108256583B (zh
Inventor
翟书杰
李晨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Dongfang Kenuo Technology Development Co Ltd
Original Assignee
Beijing Dongfang Kenuo Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Dongfang Kenuo Technology Development Co Ltd filed Critical Beijing Dongfang Kenuo Technology Development Co Ltd
Priority to CN201810072493.8A priority Critical patent/CN108256583B/zh
Publication of CN108256583A publication Critical patent/CN108256583A/zh
Application granted granted Critical
Publication of CN108256583B publication Critical patent/CN108256583B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes

Abstract

本发明提供的基于匹配学习的多标签分类学习方法,首先对客户端数据进行特征值计算,得到训练集;设定训练集中的正负标签;然后计算训练集中特征集合的嵌入式表征E;计算正标签的嵌入式表征Z+和负标签的嵌入式表征Z;接着对E和Z+作损失计算,对E与Z作损失计算;依据正负损失值,采用梯度下降算法对训练集进行模型训练;当训练模型的损失值不再下降时,训练结束,否则再次训练;最后采用测试集测试该训练模型。本发明考虑了长尾标签对传统极大规模多标签分类模型学习的不利影响,提出利用特征集合和标签集合的匹配学习方法。此外,为保证模型能够扩展到大规模数据集上,采用梯度下降算法的模型学习方式,既可保证模型并行化学习,还可支持模型在线增量学习。

Description

一种基于匹配学习的多标签分类学习方法
技术领域
本发明涉及机器学习技术领域,尤其涉及一种基于匹配学习和神经网络模型的极大规模多标签分类学习方法。
背景技术
随着Web 2.0技术的迅速发展,互联网中积累了大量用户相关甚至是用户生成的内容。在种类繁多的海量数据中,蕴含着丰富的且能够反应用户特征的信息,是对用户进行画像的重要数据支撑。在社会计算的研究中,用户画像一直是一个重要问题。用户画像,即用户信息标签化,为企业提供了用户的基本信息,能够帮助企业快速找到精准用户群体以及用户需求等更为广泛的反馈信息。用户画像的核心任务就是为用户打“标签”。如何利用数据挖掘或机器学习的手段实现对用户自动打标签对于企业而言是一个巨大的挑战。
通常,上述任务可以转化为机器学习中的多标签分类问题。但是,在海量社交媒体数据背景下,标签的数量通常能够达到数万、数十万甚至更多。传统的多标签分类学习算法难以扩展到如此规模的标签数据上。并且,标签数量上一定的规模后,会有长尾标签等新问题出现。因此,需要设计新的模型和算法来处理这样的数据。
目前一种主流的大规模标签分类学习算法是基于嵌入的多标签学习。这类算法采用低秩空间的假设,不能够很好地处理长尾标签。虽然近年来有针对长尾标签的改进算法被提出,但是仍有着各自的缺陷。因此需要一种更加鲁棒性的基于嵌入的大规模多标签学习方法。
发明内容
本发明有鉴于大规模多标签学习时面临特征、标签维度非常高,样本量巨大以及标签存在明显长尾分布等特点,构建了一种基于匹配学习的极大规模多标签分类学习方法。
为了实现上述目的,本发明采取了如下技术方案:
本发明提供了一种基于匹配学习的多标签分类学习方法,包括如下步骤:
S1:收集互联网中的客户端数据,对所述客户端数据进行特征值计算,得到训练集D;
S2:遍历所述训练集D,设定所述训练集D中的负标签集合和正标签集合;
S3:计算所述训练集D中特征集合的嵌入式表征E;
S4:计算所述正标签集合的嵌入式表征Z+和所述负标签集合的嵌入式表征Z-
S5:对所述嵌入式表征E和所述嵌入式表征Z+作损失计算得到正标签损失值,对所述嵌入式表征E与所述嵌入式表征Z-作损失计算得到负标签损失值;
S6:依据所述正标签损失值和所述负标签损失值,采用梯度下降算法对所述训练集D进行训练,得到训练模型;
S7:当所述训练模型的损失值不再下降时,训练结束,并保存所述嵌入式表征Z+和与所述嵌入式表征Z+对应的正标签集合,否则返回S2;
S8:设定测试集,利用所述测试集对所述训练模型进行测试。
进一步地,所述S1还包括:
所述客户端数据包括客户端标签数据,提取所述客户端标签数据的文本特征和图像特征,并作特征值计算,从而得到多标签学习的训练集D={(x1,w1,y1)...(xn,wn,yn)},其中x表示特征集合,w表示所述x对应的特征值集合,y表示标签集合,1...n表示集合中数量。
进一步地,所述S2还包括:
S201:对所述训练集D作随机混洗;
S202:以步长为M遍历随机混洗后的训练集,每步长产生一个特征集合Dm
S203:在每个所述特征集合Dm中随机采样N个负标签,得到所述标签集合y中的负标签集合,所述标签集合y中除去所述负标签集合剩余的标签为正标签集合。
进一步地,所述S3还包括:
通过模型的特征嵌入层得到所述特征集合x对应的嵌入向量集合ex,对所述嵌入向量集合ex作加权平均得到所述特征集合x的特征嵌入式表征E,即
其中,K表示所述特征集合x中的特征数量,k表示所述特征集合x中第k个元素。
进一步地,所述S4还包括:
1)通过模型的标签嵌入层得到所述正标签集合对应的嵌入向量集合z+ y,对所述嵌入向量集合z+ y作加权平均得到所述正标签集合的嵌入式表征Z+,即
其中,K'表示所述标签集合y中的正标签数量,k表示所述标签集合y中第k个元素;
2)通过模型的标签嵌入层得到所述负标签集合对应的嵌入向量集合z- y,对所述嵌入向量集合z- y作加权平均得到所述负标签集合的嵌入式表征Z-,即
其中,K'表示所述标签集合y中的负标签数量,k表示所述标签集合y中第k个元素。
进一步地,所述S5还包括:
1)利用NCL函数对所述嵌入式表征E和所述嵌入式表征Z+作损失计算,得到正标签损失值L+(E,Z+),即
其中,当所述嵌入式表征E和所述嵌入式表征Z+之间的余弦相似度较高时,NCL较小,反之则NCL较大;
2)利用NCL函数对所述嵌入式表征E和所述嵌入式表征Z-作损失计算,得到负标签损失值L-(E,Z-),即
其中,当所述嵌入式表征E和所述嵌入式表征Z-之间的余弦相似度较高时,NCL较大,反之则NCL较小。
进一步地,所述S8还包括:
设定测试集(xt,wt),利用所述测试集(xt,wt)对所述训练模型进行测试,具体的测试流程如下:
S801:根据S3中方式计算所述测试集(xt,wt)的特征集合的嵌入式表征Et
S802:所述嵌入式表征Z+和与所述嵌入式表征Z+对应的正标签集合共同表示为训练集标签表征{Z},对所述嵌入式表征Et和所述训练集标签表征{Z}作余弦计算,返回所述训练集D与所述测试集(xt,wt)最相似的客户端数据所对应的标签集合;
S803:统计所述返回的标签集合中的标签频率,返回频率最高的K个标签作为预测结果。
由上述本发明提供的技术方案可以看出,本发明考虑了长尾标签对传统极大规模多标签分类模型学习的不利影响,提出利用特征集合和标签集合的匹配学习方法。此外,为了保证模型能够扩展到大规模数据集上,模型的学习采用了mini-batch的学习方式。这种方式既可以保证模型并行化学习,还可以支持模型在线增量学习。
本发明附加的方面和优点将在下面的描述中部分给出,这些将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的基于匹配学习的多标签分类学习方法的流程图。
具体实施方式
下面详细描述本发明的实施方式,所述实施方式的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施方式是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本发明的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。应该理解,当我们称元件被“连接”或“耦接”到另一元件时,它可以直接连接或耦接到其他元件,或者也可以存在中间元件。此外,这里使用的“连接”或“耦接”可以包括无线连接或耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的任一单元和全部组合。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语)具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样定义,不会用理想化或过于正式的含义来解释。
为便于对本发明实施例的理解,下面将结合附图以几个具体实施例为例做进一步的解释说明,且各个实施例并不构成对本发明实施例的限定。
实施例一
本实施例提供一种基于匹配学习的极大规模多标签的分类学习方法,结合图1所示,具体步骤如下:
步骤一、收集互联网中的用户数据,包含用户标签。
步骤二、从用户文本、图像等数据中提取特征,并做特征值计算。从而获得多标签学习的数据集D={(x1,w1,y1)...(xn,wn,yn)}。其中x为特征集合,w为对应的特征值集合,y为标签集合。
步骤三、从数据集中随机抽样一个作梯度下降mini-batch,准备对多标签模型的参数进行优化,具体步骤如下:
步骤301、对数据集D做随机混洗。
步骤302、以步长M遍历混洗后的数据集,每步产生一个mini-batch Dm
步骤303、为Dm中每个数据点随机采样N个负标签集合。负标签集合从全部数据中随机采样获得。
步骤四、计算Dm中每个数据特征集合的嵌入式表征E。计算方法是首先通过模型的特征嵌入层得到一个数据点每个特征x对应的嵌入向量ex,然后对K个特征的嵌入向量做加权平均得到数据点对应的特征嵌入式表征,计算公式为:
步骤五、计算batch中每个数据点正标签集合以及负标签集合的嵌入式表征Z。计算方法为,通过模型的标签嵌入层得到一个数据点每个正确标签对应的嵌入向量zy,然后对K'正确标签的嵌入向量求平均得到标签集的嵌入式表征,计算公式为:负例的标签嵌入式表征计算同正例。
步骤六、将步骤四和步骤五中计算出的嵌入式表征输入到Noise ContrastiveLoss(简称NCL)函数中计算损失。对于特征表征E和它匹配的标签表征Z+,NCL的计算如下:
对于E和对应的负例Z-,NCL的计算如下:
当数据点的特征表征和正确的标签表征之间余弦相似度较高时,NCL较小,反之则NCL较大。当特征表征和错误的标签表征之间的余弦相似度较高时,NCL较大,反之则NCL较小。通过最小化所有数据点正负例NCL之和,可以达到匹配正确的特征和标签的嵌入式表征的目的。
步骤七、利用mini-batch梯度下降算法,根据NCL函数计算得到的损失值之后,对batch中数据对应的参数进行更新。
步骤八、当所有数据点都训练完一次后,回到步骤三进入下一轮更新。对所有数据点进行多轮的更新后,当模型的损失不再下降,则训练结束。之后,将所有数据点正确标签的嵌入式表征Z以及对应的标签集合y保存下来。
步骤九、给定一个测试数据点(xt,wt),具体的测试流程如下:
步骤901、根据步骤四计算测试数据点的特征集合嵌入式表征Et
步骤902、用得到的表征Et和步骤八保存的全部训练集标签表征{Z}做cos(·)计算,返回最相似的Top K数据点对应的标签集合。
步骤903、统计返回的标签集合中的标签频率,返回Top K的标签做为预测结果。
本实施例所述的基于匹配学习的极大规模多标签分类学习方法,对训练数据的类型未做假设,因此适用于各种大数据场景下的极大规模多标签分类。
本实施例所述的基于匹配学习的极大规模多标签分类学习方法,通过匹配学习缓解了长尾标签对模型精度的不利影响。
本实施例所述的极大规模多标签分类学习方法,通过mini-batch优化的方式进行参数更新,非常容易实现大规模并行化计算,即学习算法具备可扩展性。此外,mini-batch优化的方式支持在线学习,方便模型对增量数据进行增量学习。
实施例二
本实施例提供了一种基于匹配学习的多标签分类学习方法,包括如下步骤:
S1:收集互联网中的客户端数据,对所述客户端数据进行特征值计算,得到训练集D;
S2:遍历所述训练集D,设定所述训练集D中的负标签集合和正标签集合;
S3:计算所述训练集D中特征集合的嵌入式表征E;
S4:计算所述正标签集合的嵌入式表征Z+和所述负标签集合的嵌入式表征Z-
S5:对所述嵌入式表征E和所述嵌入式表征Z+作损失计算得到正标签损失值,对所述嵌入式表征E与所述嵌入式表征Z-作损失计算得到负标签损失值;
S6:依据所述正标签损失值和所述负标签损失值,采用梯度下降算法对所述训练集D进行训练,得到训练模型;
S7:当所述训练模型的损失值不再下降时,训练结束,并保存所述嵌入式表征Z+和与所述嵌入式表征Z+对应的正标签集合,否则返回S2;
S8:设定测试集,利用所述测试集对所述训练模型进行测试。
在本实施中,所述S1还包括:
所述客户端数据包括客户端标签数据,提取所述客户端标签数据的文本特征和图像特征,并作特征值计算,从而得到多标签学习的训练集D={(x1,w1,y1)...(xn,wn,yn)},其中x表示特征集合,w表示所述x对应的特征值集合,y表示标签集合,1...n表示集合中数量。
在本实施中,所述S2还包括:
S201:对所述训练集D作随机混洗;
S202:以步长为M遍历随机混洗后的训练集,每步长产生一个特征集合Dm
S203:在每个所述特征集合Dm中随机采样N个负标签,得到所述标签集合y中的负标签集合,所述标签集合y中除去所述负标签集合剩余的标签为正标签集合。
在本实施中,所述S3还包括:
通过模型的特征嵌入层得到所述特征集合x对应的嵌入向量集合ex,对所述嵌入向量集合ex作加权平均得到所述特征集合x的特征嵌入式表征E,即
其中,K表示所述特征集合x中的特征数量,k表示特征集合x中第k个元素。
在本实施中,所述S4还包括:
1)通过模型的标签嵌入层得到所述正标签集合对应的嵌入向量集合z+ y,对所述嵌入向量集合z+ y作加权平均得到所述正标签集合的嵌入式表征Z+,即
其中,K'表示所述标签集合y中的正标签数量,k表示标签集合y中第k个元素。
2)通过模型的标签嵌入层得到所述负标签集合对应的嵌入向量集合z- y,对所述嵌入向量集合z- y作加权平均得到所述负标签集合的嵌入式表征Z-,即
其中,K'表示所述标签集合y中的负标签数量,k表示标签集合y中第k个元素。
在本实施中,所述S5还包括:
1)利用NCL函数对所述嵌入式表征E和所述嵌入式表征Z+作损失计算,得到正标签损失值L+(E,Z+),即
其中,当所述嵌入式表征E和所述嵌入式表征Z+之间的余弦相似度较高时,NCL较小,反之则NCL较大;
2)利用NCL函数对所述嵌入式表征E和所述嵌入式表征Z-作损失计算,得到负标签损失值L-(E,Z-),即
其中,当所述嵌入式表征E和所述嵌入式表征Z-之间的余弦相似度较高时,NCL较大,反之则NCL较小。
在本实施中,所述S8还包括:
设定测试集(xt,wt),利用所述测试集(xt,wt)对所述训练模型进行测试,具体的测试流程如下:
S801:根据S3中方式计算所述测试集(xt,wt)的特征集合的嵌入式表征Et
S802:所述嵌入式表征Z+和与所述嵌入式表征Z+对应的正标签集合共同表示为训练集标签表征{Z},对所述嵌入式表征Et和所述训练集标签表征{Z}作余弦计算,返回所述训练集D与所述测试集(xt,wt)最相似的客户端数据所对应的标签集合;
S803:统计所述返回的标签集合中的标签频率,返回频率最高的K个标签作为预测结果。
综上所述,本发明对训练数据的类型未做假设,因此方法适用于各种大数据场景下的极大规模多标签分类。本发明通过匹配学习缓解了长尾标签对模型精度的不利影响;本发明通过mini-batch优化的方式进行参数更新,非常容易实现大规模并行化计算,即学习算法具备可扩展性。此外,mini-batch优化的方式支持在线学习,方便模型对增量数据进行增量学习。
本领域普通技术人员可以理解:附图只是一个实施例的示意图,附图中的模块或流程并不一定是实施本发明所必须的。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本发明可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例或者实施例的某些部分所述的方法。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置或系统实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的装置及系统实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求的保护范围为准。

Claims (7)

1.一种基于匹配学习的多标签分类学习方法,其特征在于,包括如下步骤:
S1:收集互联网中的客户端数据,对所述客户端数据进行特征值计算,得到训练集D;
S2:遍历所述训练集D,设定所述训练集D中的负标签集合和正标签集合;
S3:计算所述训练集D中特征集合的嵌入式表征E;
S4:计算所述正标签集合的嵌入式表征Z+和所述负标签集合的嵌入式表征Z-
S5:对所述嵌入式表征E和所述嵌入式表征Z+作损失计算得到正标签损失值,对所述嵌入式表征E与所述嵌入式表征Z-作损失计算得到负标签损失值;
S6:依据所述正标签损失值和所述负标签损失值,采用梯度下降算法对所述训练集D进行训练,得到训练模型;
S7:当所述训练模型的损失值不再下降时,训练结束,并保存所述嵌入式表征Z+和与所述嵌入式表征Z+对应的正标签集合,否则返回S2;
S8:设定测试集,利用所述测试集对所述训练模型进行测试。
2.根据权利要求1所述的多标签分类学习方法,其特征在于,所述S1还包括:
所述客户端数据包括客户端标签数据,提取所述客户端标签数据的文本特征和图像特征,并作特征值计算,从而得到多标签学习的训练集D={(x1,w1,y1)...(xn,wn,yn)},其中x表示特征集合,w表示所述x对应的特征值集合,y表示标签集合,1...n表示集合中数量。
3.根据权利要求2所述的多标签分类学习方法,其特征在于,所述S2还包括:
S201:对所述训练集D作随机混洗;
S202:以步长为M遍历随机混洗后的训练集,每步长产生一个特征集合Dm
S203:在每个所述特征集合Dm中随机采样N个负标签,得到所述标签集合y中的负标签集合,所述标签集合y中除去所述负标签集合剩余的标签为正标签集合。
4.根据权利要求3所述的多标签分类学习方法,其特征在于,所述S3还包括:
通过模型的特征嵌入层得到所述特征集合x对应的嵌入向量集合ex,对所述嵌入向量集合ex作加权平均得到所述特征集合x的特征嵌入式表征E,即
其中,K表示所述特征集合x中的特征数量,k表示所述特征集合x中第k个元素。
5.根据权利要求4所述的多标签分类学习方法,其特征在于,所述S4还包括:
1)通过模型的标签嵌入层得到所述正标签集合对应的嵌入向量集合z+ y,对所述嵌入向量集合z+ y作加权平均得到所述正标签集合的嵌入式表征Z+,即
其中,K'表示所述标签集合y中的正标签数量,k表示所述标签集合y中第k个元素;
2)通过模型的标签嵌入层得到所述负标签集合对应的嵌入向量集合z_ y,对所述嵌入向量集合z_ y作加权平均得到所述负标签集合的嵌入式表征Z-,即
其中,K'表示所述标签集合y中的负标签数量,k表示所述标签集合y中第k个元素。
6.根据权利要求5所述的多标签分类学习方法,其特征在于,所述S5还包括:
1)利用NCL函数对所述嵌入式表征E和所述嵌入式表征Z+作损失计算,得到正标签损失值L+(E,Z+),即
其中,当所述嵌入式表征E和所述嵌入式表征Z+之间的余弦相似度较高时,NCL较小,反之则NCL较大;
2)利用NCL函数对所述嵌入式表征E和所述嵌入式表征Z-作损失计算,得到负标签损失值L_(E,Z_),即
其中,当所述嵌入式表征E和所述嵌入式表征Z-之间的余弦相似度较高时,NCL较大,反之则NCL较小。
7.根据权利要求6所述的多标签分类学习方法,其特征在于,所述S8还包括:
设定测试集(xt,wt),利用所述测试集(xt,wt)对所述训练模型进行测试,具体的测试流程如下:
S801:根据S3中方式计算所述测试集(xt,wt)的特征集合的嵌入式表征Et
S802:所述嵌入式表征Z+和与所述嵌入式表征Z+对应的正标签集合共同表示为训练集标签表征{Z},对所述嵌入式表征Et和所述训练集标签表征{Z}作余弦计算,返回所述训练集D与所述测试集(xt,wt)最相似的客户端数据所对应的标签集合;
S803:统计所述返回的标签集合中的标签频率,返回频率最高的K个标签作为预测结果。
CN201810072493.8A 2018-01-25 2018-01-25 一种基于匹配学习的多标签分类学习方法 Expired - Fee Related CN108256583B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810072493.8A CN108256583B (zh) 2018-01-25 2018-01-25 一种基于匹配学习的多标签分类学习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810072493.8A CN108256583B (zh) 2018-01-25 2018-01-25 一种基于匹配学习的多标签分类学习方法

Publications (2)

Publication Number Publication Date
CN108256583A true CN108256583A (zh) 2018-07-06
CN108256583B CN108256583B (zh) 2020-12-01

Family

ID=62742213

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810072493.8A Expired - Fee Related CN108256583B (zh) 2018-01-25 2018-01-25 一种基于匹配学习的多标签分类学习方法

Country Status (1)

Country Link
CN (1) CN108256583B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111126515A (zh) * 2020-03-30 2020-05-08 腾讯科技(深圳)有限公司 基于人工智能的模型训练方法和相关装置

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103377296A (zh) * 2012-04-19 2013-10-30 中国科学院声学研究所 一种多指标评价信息的数据挖掘方法
CN104573708A (zh) * 2014-12-19 2015-04-29 天津大学 组合降采样极限学习机
CN104615767A (zh) * 2015-02-15 2015-05-13 百度在线网络技术(北京)有限公司 搜索排序模型的训练方法、搜索处理方法及装置
CN105809473A (zh) * 2016-02-29 2016-07-27 北京百度网讯科技有限公司 匹配模型参数的训练方法、服务推荐方法及对应装置
US20160328841A1 (en) * 2015-05-08 2016-11-10 Siemens Aktiengesellschaft Region Clustering Forest for Analyzing Medical Imaging Data
CN106570148A (zh) * 2016-10-27 2017-04-19 浙江大学 一种基于卷积神经网络的属性抽取方法
CN106919909A (zh) * 2017-02-10 2017-07-04 华中科技大学 一种行人重识别的度量学习方法和系统
CN106980650A (zh) * 2017-03-01 2017-07-25 平顶山学院 一种面向Twitter观点分类的情感增强词嵌入学习方法
CN106980868A (zh) * 2016-01-15 2017-07-25 奥多比公司 用于具有多个文本标签的图像的嵌入空间
CN107247940A (zh) * 2017-06-18 2017-10-13 天津大学 一种面部识别和聚类的联合嵌入方法
CN107305640A (zh) * 2016-04-25 2017-10-31 中国科学院声学研究所 一种不均衡数据分类的方法
CN107590195A (zh) * 2017-08-14 2018-01-16 百度在线网络技术(北京)有限公司 文本分类模型训练方法、文本分类方法及其装置

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103377296A (zh) * 2012-04-19 2013-10-30 中国科学院声学研究所 一种多指标评价信息的数据挖掘方法
CN104573708A (zh) * 2014-12-19 2015-04-29 天津大学 组合降采样极限学习机
CN104615767A (zh) * 2015-02-15 2015-05-13 百度在线网络技术(北京)有限公司 搜索排序模型的训练方法、搜索处理方法及装置
US20160328841A1 (en) * 2015-05-08 2016-11-10 Siemens Aktiengesellschaft Region Clustering Forest for Analyzing Medical Imaging Data
CN106980868A (zh) * 2016-01-15 2017-07-25 奥多比公司 用于具有多个文本标签的图像的嵌入空间
CN105809473A (zh) * 2016-02-29 2016-07-27 北京百度网讯科技有限公司 匹配模型参数的训练方法、服务推荐方法及对应装置
CN107305640A (zh) * 2016-04-25 2017-10-31 中国科学院声学研究所 一种不均衡数据分类的方法
CN106570148A (zh) * 2016-10-27 2017-04-19 浙江大学 一种基于卷积神经网络的属性抽取方法
CN106919909A (zh) * 2017-02-10 2017-07-04 华中科技大学 一种行人重识别的度量学习方法和系统
CN106980650A (zh) * 2017-03-01 2017-07-25 平顶山学院 一种面向Twitter观点分类的情感增强词嵌入学习方法
CN107247940A (zh) * 2017-06-18 2017-10-13 天津大学 一种面部识别和聚类的联合嵌入方法
CN107590195A (zh) * 2017-08-14 2018-01-16 百度在线网络技术(北京)有限公司 文本分类模型训练方法、文本分类方法及其装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DYER, CHRIS: "Notes on Noise Contrastive Estimation and Negative Sampling", 《COMPUTER SCIENCE》 *
FACEBOOK: "pytorch/torch/nn/modules/loss.py", 《HTTPS://GITHUB.COM/PYTORCH/PYTORCH/BLOB/V0.1.12/TORCH/NN/MODULES/LOSS.PY》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111126515A (zh) * 2020-03-30 2020-05-08 腾讯科技(深圳)有限公司 基于人工智能的模型训练方法和相关装置
CN111126515B (zh) * 2020-03-30 2020-07-24 腾讯科技(深圳)有限公司 基于人工智能的模型训练方法和相关装置

Also Published As

Publication number Publication date
CN108256583B (zh) 2020-12-01

Similar Documents

Publication Publication Date Title
Shi et al. Multi-class imbalanced graph convolutional network learning
Xian et al. Zero-shot learning-the good, the bad and the ugly
Nech et al. Level playing field for million scale face recognition
Shang et al. Federated learning on heterogeneous and long-tailed data via classifier re-training with federated features
CN108596902A (zh) 基于选通卷积神经网络的多任务全参考图像质量评价方法
CN108009593B (zh) 一种迁移学习最优算法选取方法及系统
CN109784325A (zh) 开集识别方法和设备及计算机可读存储介质
CN110221965A (zh) 测试用例生成、测试方法、装置、设备及系统
CN110851621B (zh) 基于知识图谱预测视频精彩级别的方法、装置及存储介质
CN110363233A (zh) 一种基于块检测器及特征融合的卷积神经网络的细粒度图像识别方法及系统
CN106601243A (zh) 一种视频文件识别方法及装置
CN109376763A (zh) 基于多样本推理神经网络的样本分类方法、系统及介质
CN109740655A (zh) 基于矩阵分解及神经协同过滤的物品评分预测方法
CN107169031A (zh) 一种基于深度表达的图片素材推荐方法
CN110347791A (zh) 一种基于多标签分类卷积神经网络的题目推荐方法
CN110472050A (zh) 一种团伙聚类方法和装置
CN107633058A (zh) 一种基于深度学习的数据动态过滤系统及其方法
CN106326904A (zh) 获取特征排序模型的装置和方法以及特征排序方法
Belouadah et al. Active class incremental learning for imbalanced datasets
CN108256583A (zh) 一种基于匹配学习的多标签分类学习方法
Fung et al. Enhancing learning paths with concept clustering and rule-based optimization
CN112052795B (zh) 一种基于多尺度时空特征聚合的视频行为识别方法
CN110008348A (zh) 结合节点和边进行网络图嵌入的方法和装置
Selvapandian et al. An efficient sentiment analysis on feedback assessment from student to provide better education
Sihag et al. Detecting community structure based on traffic at node in networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20201201

CF01 Termination of patent right due to non-payment of annual fee