CN107122327A - 一种利用训练数据训练模型的方法和训练系统 - Google Patents

一种利用训练数据训练模型的方法和训练系统 Download PDF

Info

Publication number
CN107122327A
CN107122327A CN201610105840.3A CN201610105840A CN107122327A CN 107122327 A CN107122327 A CN 107122327A CN 201610105840 A CN201610105840 A CN 201610105840A CN 107122327 A CN107122327 A CN 107122327A
Authority
CN
China
Prior art keywords
characteristic series
value
characteristic
series
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610105840.3A
Other languages
English (en)
Other versions
CN107122327B (zh
Inventor
代斌
李屾
姜晓燕
杨旭
漆远
褚崴
王少萌
付子豪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Tmall Technology Co Ltd
Original Assignee
Alibaba Group Holding Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Group Holding Ltd filed Critical Alibaba Group Holding Ltd
Priority to CN201610105840.3A priority Critical patent/CN107122327B/zh
Priority to TW106104130A priority patent/TWI740891B/zh
Priority to PCT/CN2017/073340 priority patent/WO2017143914A1/zh
Publication of CN107122327A publication Critical patent/CN107122327A/zh
Priority to US16/112,592 priority patent/US11615346B2/en
Application granted granted Critical
Publication of CN107122327B publication Critical patent/CN107122327B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2137Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on criteria of topology preservation, e.g. multidimensional scaling or self-organising maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Mathematics (AREA)
  • Algebra (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Complex Calculations (AREA)

Abstract

本申请公开一种利用训练数据训练模型的方法和系统,所述训练数据包括多个样本,每一个样本包括N个特征,所述多个样本中对应的特征构成N个特征列,所述训练方法包括:计算每一个特征列的重要程度值;判断每一个特征列的重要程度值是否小于对应的阈值;当判断出所述N个特征列中的M个特征列的重要程度值小于对应的阈值时,将所述M个特征列进行降维处理,生成P个特征列,其中M<N,且P<M;将重要程度值大于或等于对应的阈值的(N‑M)个特征列和降维处理后生成的P个特征列合并;以及将合并后的所述多个样本输入机器学习算法模型,训练所述机器学习算法模型。本申请实施例能够对重要特征和辅助特征进行区别处理,达到训练特征参数可控,并提高模型训练的准确性的目的。

Description

一种利用训练数据训练模型的方法和训练系统
技术领域
本申请涉及数据处理领域,尤其涉及一种利用训练数据训练模型的方法和训练系统。
背景技术
在数据挖掘的业务场景中,经常需要利用大规模的训练数据训练机器学习算法模型,进行分类或者回归计算。只有用大量数据训练该机器学习算法模型之后,才有可能获得预测精度较高的该算法模型,进而才能在后续根据输入的数据进行各种行为的预测。
在当前互联网的环境下,训练数据的数据规模经常达到数十亿甚至上千亿,每个训练数据的特征规模随着业务扩展,也会到一个非常大的数量级。
以CTR(Click-Through Rate)预估为例,CTR预估是互联网计算广告中的关键环节,预估准确性直接影响公司广告收入。CTR预估使用特定的算法模型,输入该算法模型进行计算的训练数据可能达到千亿规模,每个训练数据的特征维度也可能达到百亿的规模。如此庞大的规模输入算法模型中,容易造成机器学习算法模型的计算难度增大、效率降低。
为了减少计算难度并提高计算的效率,常规的解决方案是使用并行计算的方式处理训练数据,例如使用LR(Logistic Regression)模型进行处理。LR是广义线性模型,可以进行并行化处理,即将原本海量的训练数据分发到N个不同的计算处理器(worker)中计算,每个计算处理器处理的数据量为总数据量的1/N。
利用上述方式可以对一定数量级的数据进行处理,但是对于百亿特征*千亿数据的规模下,数据总量可能超过PB级别,超出了一般计算集群的计算范围。即使可以利用超大规模的计算集群进行计算,得到最终最优结果的时间也非常长,导致运行效率低,满足不了业务的更新需求。
另外,在一种相反的情况下,训练数据可能会存在维度过低、数据量过小的问题,同样影响机器学习模型的训练精度。
发明内容
鉴于上述问题,提出了本申请实施例以便提供一种克服上述问题或者至少部分地解决上述问题的利用训练数据训练模型的方法和训练系统。
为解决上述问题,本申请一实施例公开一种利用训练数据训练模型的方法,所述训练数据包括多个样本,每一个样本包括N个特征,所述多个样本中对应的特征构成N个特征列,所述训练方法包括:
计算每一个特征列的重要程度值;
判断每一个特征列的重要程度值是否小于对应的阈值;
当判断出所述N个特征列中的M个特征列的重要程度值小于对应的阈值时,将所述M个特征列进行降维处理,生成P个特征列,其中M<N,且P<M;
将重要程度值大于或等于对应的阈值的(N-M)个特征列和降维处理后生成的P个特征列合并,得到(N-M+P)个特征列;以及
将包括所述(N-M+P)个特征列的训练数据输入机器学习算法模型,训练所述机器学习算法模型。
本申请另一实施例公开一种利用训练数据训练模型的方法,所述训练数据包括多个样本,每一个样本包括N个特征,所述多个样本中对应的特征构成N个特征列,所述训练方法包括:
计算每一个特征列的重要程度值;
判断每一个特征列的重要程度值是否大于对应的阈值;
当判断出所述N个特征列中的Q个特征列的重要程度值大于对应的阈值时,将所述Q个特征列进行升维处理,生成R个特征列,其中R>Q,且Q<N;
将升维处理后生成的R个特征列和重要程度值小于或等于对应的阈值的(N-Q)个特征列合并,得到(R+N-Q)个特征列;以及
将包括所述(R+N-Q)个特征列的训练数据输入机器学习算法模型,训练所述机器学习算法模型。
本申请再一实施例公开一种利用训练数据训练模型的系统,所述训练数据包括多个样本,每一个样本包括N个特征,所述多个样本中对应的特征构成N个特征列,所述训练系统包括:
第一计算模块,用于计算每一个特征列的重要程度值;
第一判断模块,用于判断每一个特征列的重要程度值是否小于对应的阈值;
第一降维模块,用于当判断出所述N个特征列中的M个特征列的重要程度值小于对应的阈值时,将所述M个特征列进行降维处理,生成P个特征列,其中M<N,且P<M;
第一合并模块,用于将重要程度值大于或等于对应的阈值的(N-M)个特征列和降维处理后生成的P个特征列合并,得到(N-M+P)个特征列;以及
第一训练模块,用于将包括所述(N-M+P)个特征列的训练数据输入机器学习算法模型,训练所述机器学习算法模型。
本申请再另一实施例公开一种利用训练数据训练模型的系统,所述训练数据包括多个样本,每一个样本包括N个特征,所述多个样本中对应的特征构成N个特征列,所述训练系统包括:
第二计算模块,用于计算每一个特征列的重要程度值;
第二判断模块,用于判断每一个特征列的重要程度值是否大于对应的阈值;
升维模块,用于当判断出所述N个特征列中的Q个特征列的重要程度值大于对应的阈值时,将所述Q个特征列进行升维处理,生成R个特征列,其中R>Q,且Q<N;
第二合并模块,用于将将升维处理后生成的R个特征列和重要程度值小于或等于对应的阈值的(N-Q)个特征列合并,得到(R+N-Q)个特征列;以及
第二训练模块,用于将包括所述(R+N-Q)个特征列的训练数据输入机器学习算法模型,训练所述机器学习算法模型。
本申请实施例至少具有以下优点:
本申请实施例通过判断每一个特征列的重要程度值,对重要特征和辅助特征进行区别处理,采用保留重要特征、将辅助特征进行降维的方式,或者对应地采用将重要特征升维的方式,对于较大规模的训练数据,能够降低原本特征维度较高的训练数据的维度,在将该降维后的训练数据输入模型进行训练时,能够达到训练特征参数可控、训练数据大幅降低、运行效率提升的目的。同时由于本申请实施例的方法中保留了重要特征,而对辅助特征进行降维,最大限度地减小了该模型的预测准确度的降低程度。同时,本申请实施例通过判断每一个特征列的重要程度值,对于较小规模的训练数据,能够升高重要程度值较高的训练数据的维度,能够达到训练特征参数可控、提高模型训练的准确性的问题。
附图说明
图1是本申请实施例的训练数据的示意图。
图2是本申请第一实施例的利用训练数据训练模型的方法的流程图。
图3是本申请实施例的特征列的重要程度值输出的结果的示意图。
图4是本申请第二实施例的利用训练数据训练模型的方法的流程图。
图5是本申请第三实施例的利用训练数据训练模型的方法的流程图。
图6是本申请第四实施例的利用训练数据训练模型的系统的方框图。
图7是本申请第五实施例的利用训练数据训练模型的系统的方框图。
图8是本申请第六实施例的利用训练数据训练模型的系统的方框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员所获得的所有其他实施例,都属于本申请保护的范围。
本申请的核心思想之一在于,提出一种利用训练数据训练模型的方法和系统,该方法或系统中首先进行特征列选择,通过计算每一个特征列的重要程度值并判断每一个特征列的重要程度值是否小于对应的阈值,选择出重要特征列和辅助特征列。之后将多个辅助特征列进行降维处理,最后将重要特征列和降维处理后的辅助特征列合并,并输入机器学习算法模型,对机器学习算法模型进行训练。
第一实施例
本申请第一实施例提出一种利用训练数据训练模型的方法,图1是本申请一实施例的训练数据的示意图。图2是利用训练数据训练模型的方法的流程图。本申请第一实施例提出的利用训练数据训练模型的方法可以用于训练各种机器学习算法模型,特别地,本申请第一实施例提出的利用训练数据训练模型的方法可以应用于具有高维稀疏特征的训练数据。如图1所示,所述的训练数据包括多个样本,每一个样本包括N个特征,所述多个样本中对应的特征构成N个特征列。
如图2所示,本申请第一实施例的利用训练数据训练模型的方法可以包括如下步骤:
S101,计算每一个特征列的重要程度值;
在这一步骤中,该重要程度值用于评估该特征列对该模型在训练后的预测准确度的重要程度。举例来说,该重要程度值可以是该特征列的信息值IV(Information Value,后称IV值)或信息增益IG(Information Gain,后称IG值)。
当该重要程度值为该特征列的信息值IV时,举例来说,以二分模型为例,可以通过如下公式计算:
WoE=ln(pctl Good/pctlBad) (1)
MIV=WoE*(pctlGood-pctlBad) (2)
IV=∑MIV (3)
该二分模型可以为国外广泛使用的信用卡评分模型,该二分模型尤其在信用风险评估以及金融风险控制领域更是得到了广泛的使用,其原理是将模型变量WoE编码方式离散化之后运用logistic回归模型进行的一种二分类变量的广义线性模型。在该模型中,每一个训练数据即是每一个信用卡用户的信息,该训练数据包括多个特征,例如信用卡用户的年龄、职业、性别等。每一个训练数据对应一个标签值,当该信用卡用户为违约用户时,该标签值记为1,当该信用卡用户为正常用户时,该标签值记为0。
在上述公式(1)中,WoE为显著性权重(Weight of Evidence),计算IV值之前首先需要进行WoE值计算。
公式(1)中的pctlGood和pctlBad分别是通过多个训练数据的特征列中的特征以及每一个数据对应的标签值计算得出。其中pctlGood表示将某一特征列(例如“信用卡用户的年龄”)进行离散处理后,每一个区间内对应的标签值为1的信用卡用户个数与全部区间内对应的标签值为1的信用卡用户个数,pctlBad表示每一个区间内对应的标签值为0的信用卡用户个数与全部区间内对应的标签值为0的信用卡用户个数。
例如,表1所示为将信用卡用户的年龄进行离散处理后获得的每个年龄区间对应的WoE值。
Age #Good #Bad WoE
0-10 50 200 =ln((50/100)/(200/1000))=ln((50/200)/(100/1000))
10-18 20 200 =ln((20/100)/(200/1000))=ln((20/200)/(100/1000))
18-35 5 200 =ln((5/100)/(200/1000))=ln((5/200)/(100/1000))
35-50 15 200 =ln((15/100)/(200/1000))=ln((15/200)/(100/1000))
50以上 10 200 =ln((10/100)/(200/1000))=ln((10/200)/(100/1000))
汇总 100 1000
表1
在完成WoE计算之后,通过公式(2)计算出针对每个年龄区间的MIV值,再通过公式(3)计算出每个年龄区间的MIV值的总和,从而得出该特征列的全部年龄区间的IV值。
当该重要程度值为该特征列的信息增益IG时,该信息增益Gain(S,A)被定义为:
在上述公式(4)中,其中Entropy(S)为数据集合S的熵,V(A)是某一特征列A所有可能值的集合,Sv是S中某一特征列A的值为v的子集,权值为某一特征列Sv的样例占原始样例S的比例|Sv|/|S|,即Gain(S,A)是由于给定特征列A的值而得到的关于目标函数值的信息。
在计算出IV值和/或IG值之后,可以对计算获得的IV值和/或IG值进行输出。图3所示为输出的结果的示意图,图3中,col列为特征名,IV为信息值,IG为信息增益。
以上对每一个特征列的IV值和IG值的计算方法进行了举例描述。本领域技术人员应当可以明确的是,本领域还有其他多种能够用于评估该特征列对该模型在训练后的预测准确度的重要程度的值,并且计算方法也多种多样,本申请并不特别限制该重要程度值的类型和计算方法。
步骤S102,判断每一个特征列的重要程度值是否小于对应的阈值;
在这一步骤中,举例来说,可以根据步骤S101中计算出的每一个特征列的重要程度值,判断该重要程度值是否小于对应的阈值。
例如,可以根据步骤S101中计算出的每一特征列的IV值,判断该IV值是否小于对应的阈值。特征列的IV值对应的阈值例如为第一阈值B,在这一步骤中,用每一个特征列的IV值与该第一阈值B进行比较。
同样地,可以根据步骤S101中计算出的每一特征列的IG值,判断该IG值是否小于对应的阈值。特征列的IG值对应的阈值例如为第二阈值C,在这一步骤中,用每一个特征列的IG值与该第二阈值C进行比较。
此外,还可以同时判断每一个特征列的IV值和IG值是否同时小于对应的阈值。例如,针对每一个特征列,判断该特征列的IV值是否小于上述的第一阈值B,再判断该特征列的IG值是否小于上述的第二阈值C。
步骤S103,当判断出所述N个特征列中的M个特征列的重要程度值小于对应的阈值时,将所述M个特征列进行降维处理,生成P个特征列,其中M<N,且P<M;
在这一步骤中,通过信息值和/或信息增益与对应的阈值比较,可以确定哪些特征列为重要特征,哪些特征列为辅助特征。即,哪些特征列对该模型在训练后的预测准确度影响较大,即可以视为重要特征,哪些特征列对该模型在训练后的预测准确度影响较小,即可以视为辅助特征。
如果仅用IV值进行比较,则可以认为IV值小于上述的第一阈值B的特征列为辅助特征,IV值大于或等于上述的第一阈值B的特征列为重要特征。
如果仅用IG值进行比较,则可以认为IG值小于上述的第二阈值C的特征列为辅助特征,IG值大于或等于上述的第二阈值C的特征列为重要特征。
如果同时用IV值和IG值进行比较,则可以认为IV值小于上述的第一阈值B的特征列为辅助特征,或者IG值小于上述的第二阈值C的特征列为辅助特征,只有IV值大于或等于上述的第一阈值B,且IG值大于或等于上述的第二阈值C的特征列才可以认为是重要特征。
以下通过一个示例,描述将所述M个信息值和/或信息增益小于对应阈值的特征列进行降维处理的步骤。
某个训练数据包括三个样本,每个样本包括N个特征,三个样本分别为:
A1(a11,a12,a13,......a1N)
A2(a21,a22,a23,......a2N)
A3(a31,a32,a33,......a3N)
在步骤S101中计算每一个特征列的重要程度值的步骤,例如是计算a11,a21,a31构成的特征列的信息值和/或信息增益、a12,a22,a32构成的特征列的信息值和/或信息增益、a13,a23,a33构成的特征列的信息值和/或信息增益,直到a1N,a2N,a3N构成的特征列的信息值和/或信息增益。
在步骤S103中,根据步骤S102中得出的每一个特征列的重要程度值是否小于对应的阈值,将多个特征列分为重要特征和辅助特征。在本示例中,重要特征例如是(a11,a21,a31)构成的特征列,以及(a12,a22,a32)构成的特征列.....直到(a1(N-M),a2(N-M),a3(N-M))构成的特征列;辅助特征是后M列即(a1(N-M+1),a2(N-M+1),a3(N-M+1))构成的特征列......直到(a1N,a2N,a3N)构成的特征列。
在步骤S103中,可以将M个重要程度值小于阈值得辅助特征进行降维处理,转换成P个特征列。即,原先的(a1(N-M+1),a1(N-M+2)......a1N)、(a2 (N-M+1),a2(N-M+2)......a2N)、(a3(N-M+1),a3(N-M+2)......a3N)可以分别经过降维处理,转换为(a’1(N-M+1),a’1(N-M+2)......a’1(N-M+P))、(a’2(N-M+1),a’2 (N-M+2)......a’2(N-M+P))、(a’3(N-M+1),a’3(N-M+2)......a’3(N-M+P))。
这一步骤S103例如可以通过minwise hashing算法实现。minwisehashing算法广泛的应用于海量数据下的信息检索,在这一算法中,将(b=64位)缩小到b位,降低了存储空间和计算时间。
该算法的实现例如为:
通过minwise hashing算法后,原先辅助特征被转化为一个k*2b维度的向量,其中k,b为算法指定参数,即,步骤S103中的P=k*2b
另外,正如本领域技术人员所知,步骤S103并不限于通过minwisehashing算法完成,同样可以使用主成分分析算法(PCA)、Linear DiscriminantAnalysis(LDa)、局部线性嵌入(LLE)、拉普拉斯特征映射(LaplacianEigenmaps)等算法,在此并不特别限定。
步骤S104,将重要程度值大于或等于对应的阈值的(N-M)个特征列和降维处理后生成的P个特征列合并,得到(N-M+P)个特征列;
在这一步骤中,可以将步骤S102中判断出的重要程度值大于或等于对应的阈值的(N-M)个特征列与降维处理后生成的P个特征列合并,得到包括(N-M+P)个特征列的新的训练数据。
举例来说,重要程度大于或等于对应阈值的(N-M)个特征列例如为:
A1”(a11,a12......a1(N-M))
A2”(a21,a22......a2(N-M))
A3”(a31,a32......a3(N-M)),
上述降维处理后生成的辅助特征为:
A1”’(a’1(N-M+1),a’1(N-M+2)......a’1(N-M+P))
A2”’(a’2(N-M+1),a’2(N-M+2)......a’2(N-M+P))
A3”’(a’3(N-M+1),a’3(N-M+2)......a’3(N-M+P))
将上述重要程度值大于或等于对应的阈值的(N-M)个特征列和降维处理后生成的P个特征列合并的结果为:
A1””(a11,a12,......a1(N-M),......a1(N-M+P))
A2””(a21,a22,......a2(N-M),......a2(N-M+P))
A3””(a31,a32,......a3(N-M),......a3(N-M+P))
上述合并后生成的训练数据可以称为特征指纹。合并后生成的训练数据的特征维度为(N-M+P)个,短于原先的N个。以训练数据包括1亿特征列为例,取k=200,b=12,重要特征取前10000个特征列,所生成特征列为2000*2^12+10000=829100个,降维比约为829100/1000000000=0.008292,特征和数据不到原先的1%。
S105,将包括所述(N-M+P)个特征列的训练数据输入机器学习算法模型,训练所述机器学习算法模型。
在这一步骤中,将合并后的多个样本输入机器学习算法模型,对机器学习算法模型进行训练,或者使用机器学习算法模型进行预测。机器学习算法模型可以是分类算法模型或回归算法模型,例如逻辑回归(LR)算法模型、随机森林算法模型、Gradient Boost Decision Tree算法模型等等,本申请并不以此为限。
根据本申请第一实施例提出的利用训练数据训练模型的方法,通过判断每一个特征列的信息值和/或信息增益,采用保留重要特征、将辅助特征进行降维的方式,降低原本特征维度较高的训练数据的维度,在将该降维后的训练数据输入模型进行训练时,能够达到训练特征参数可控、训练数据大幅降低、运行效率提升的目的。同时由于本申请实施例的方法中保留了重要特征,而对辅助特征进行降维,最大限度地减小了该模型的预测准确度的降低程度。本申请提出的利用训练数据训练模型的方法应用在高维稀疏特征的训练数据中的效果尤其明显,例如在广告CTR数据中,通过上述的改动,在广告CTR的1亿特征数据上,AUC较全量训练提升2‰,数据大小为原先数据量1%。
第二实施例
本申请第二实施例提出一种利用训练数据训练模型的方法,图4所示为本申请第二实施例的利用训练数据训练模型的方法的流程图。本申请第二实施例提出的利用训练数据训练模型的方法可以用于训练各种机器学习算法模型,特别地,本申请提出的利用训练数据训练模型的方法可以应用于具有高维稀疏特征的训练数据。高维稀疏矩阵,例如总维度与有数值的维度的比例为100:1或者1000:1以上。所述的训练数据包括多个样本,每一个样本包括N个特征,所述多个样本中对应的特征构成N个特征列。
如图4所示,本申请第二实施例的利用训练数据训练模型的方法可以包括如下步骤:
S201,计算每一个特征列的信息值和/或信息增益;
在这一步骤中,该信息值(Information Value,后称IV值)或信息增益(Information Gain,后称IG值)均能够评估该特征列对该模型在训练后的预测准确度的重要程度。
当该重要程度值为该特征列的信息值IV时,举例来说,以二分模型为例,可以通过步骤S101中列出的公式(1)至公式(3)计算,通过上述方法计算出IV值和/或IG值之后,可以对计算获得的IV值和/或IG值进行输出。图3所示为输出的结果的示意图,图3中,col列为特征名,IV为信息值,IG为信息增益。
步骤S202,判断每一个特征列的信息值和/或信息增益是否小于对应的阈值;
在这一步骤中,举例来说,可以根据步骤S201中计算出的每一个特征列的信息值和/或信息增益,判断该信息值和/或信息增益是否小于对应的阈值。
例如,可以根据步骤S201中计算出的每一特征列的IV值,判断该IV值是否小于对应的阈值。特征列的IV值对应的阈值例如为第一阈值B,在这一步骤中,用每一个特征列的IV值与该第一阈值B进行比较。
同样地,可以根据步骤S201中计算出的每一特征列的IG值,判断该IG值是否小于对应的阈值。特征列的IG值对应的阈值例如为第二阈值C,在这一步骤中,用每一个特征列的IG值与该第二阈值C进行比较。
此外,还可以同时判断每一个特征列的IV值和IG值是否同时小于对应的阈值。例如,针对每一个特征列,判断该特征列的IV值是否小于上述的第一阈值B,再判断该特征列的IG值是否小于上述的第二阈值C。
步骤S203,当判断出所述N个特征列中的M个特征列的信息值和/或信息增益小于对应的阈值时,将所述M个特征列进行降维处理,生成P个特征列,其中M<N,且P<M;
在这一步骤中,通过信息值和/或信息增益与对应的阈值比较,可以确定哪些特征列为重要特征,哪些特征列为辅助特征。即,哪些特征列对该模型在训练后的预测准确度影响较大,即可以视为重要特征,哪些特征列对该模型在训练后的预测准确度影响较小,即可以视为辅助特征。
如果仅用IV值进行比较,则可以认为IV值小于上述的第一阈值B的特征列为辅助特征,IV值大于或等于上述的第一阈值B的特征列为重要特征。
如果仅用IG值进行比较,则可以认为IG值小于上述的第二阈值C的特征列为辅助特征,IG值大于或等于上述的第二阈值C的特征列为重要特征。
如果同时用IV值和IG值进行比较,则可以认为IV值小于上述的第一阈值B的特征列为辅助特征,或者IG值小于上述的第二阈值C的特征列为辅助特征,只有IV值大于或等于上述的第一阈值B,且IG值大于或等于上述的第二阈值C的特征列才可以认为是重要特征。
这一步骤S203例如可以通过minwise hashing算法实现。minwisehashing算法广泛的应用于海量数据下的信息检索,在这一算法中国,将(b=64位)缩小到b位,降低了存储空间和计算时间。
该算法可以使用与第一实施例提出的具体实现方式来实现,在此不再赘述。
通过minwise hashing算法后,原先辅助特征被转化为一个k*2b维度的向量,其中k,b为算法指定参数,即,步骤S203中的P=k*2b
步骤S204,将重要程度值大于或等于对应的阈值的(N-M)个特征列和降维处理后生成的P个特征列合并,得到(N-M+P)个特征列;
在这一步骤中,可以将步骤S202中判断出的信息值和/或信息增益大于或等于对应的阈值的(N-M)个特征列与降维处理后生成的P个特征列合并,得到新的训练数据。
举例来说,信息值和/或信息增益大于或等于对应阈值的(N-M)个特征列例如为:
A1”(a11,a12......a1(N-M))
A2”(a21,a22......a2(N-M))
A3”(a31,a32......a3(N-M)),
上述降维处理后生成的辅助特征为:
A1”’(a’1(N-M+1),a’1(N-M+2)......a’1(N-M+P))
A2”’(a’2(N-M+1),a’2(N-M+2)......a’2(N-M+P))
A3”’(a’3(N-M+1),a’3(N-M+2)......a’3(N-M+P))
将上述信息值和/或信息增益大于或等于对应的阈值的(N-M)个特征列和降维处理后生成的P个特征列合并的结果为:
A1””(a11,a12,......a1(N-M),......a1(N-M+P))
A2””(a21,a22,......a2(N-M),......a2(N-M+P))
A3””(a31,a32,......a3(N-M),......a3(N-M+P))
上述合并后生成的训练数据可以称为特征指纹。合并后生成的训练数据的特征维度为(N-M+P)个,短于原先的N个。以训练数据包括1亿特征列为例,取k=200,b=12,重要特征取前10000个特征列,所生成特征列为2000*2^12+10000=829100个,降维比约为829100/1000000000=0.008292,特征和数据不到原先的1%。同时由于本申请实施例的方法中保留了重要特征,而对辅助特征进行降维,该特征指纹仍然可以全面反映原先的训练数据,并不会降低训练的准确度。
S205,将包括所述(N-M+P)个特征列的训练数据输入机器学习算法模型,训练所述机器学习算法模型。
在这一步骤中,将合并后的多个样本输入机器学习算法模型,对机器学习算法模型进行训练,或者使用机器学习算法模型进行预测。机器学习算法模型可以是分类算法模型或回归算法模型,例如逻辑回归(LR)算法模型、随机森林算法模型、Gradient Boost Decision Tree算法模型等等,本申请并不以此为限。
根据本申请第二实施例提出的利用训练数据训练模型的方法,通过判断每一个特征列的信息值和/或信息增益,采用保留重要特征、将辅助特征进行降维的方式,降低原本特征维度较高的训练数据的维度,在将该降维后的训练数据输入模型进行训练时,能够达到训练特征参数可控、训练数据大幅降低、运行效率提升的目的。同时由于本申请实施例的方法中保留了重要特征,而对辅助特征进行降维,该特征指纹仍然可以全面反映原先的训练数据,最大限度地减小了该模型的预测准确度的降低程度。本申请提出的利用训练数据训练模型的方法应用在高维稀疏特征的训练数据中的效果尤其明显,例如在广告CTR数据中,通过上述的改动,在广告CTR的1亿特征数据上,AUC较全量训练提升2‰,数据大小为原先数据量1%。
第三实施例
本申请第三实施例提出一种利用训练数据训练模型的方法,图5所示为本申请第三实施例的利用训练数据训练模型的方法的流程图。本申请第三实施例提出的利用训练数据训练模型的方法可以用于训练各种机器学习算法模型,特别地,本申请提出的利用训练数据训练模型的方法可以应用于具有高维稀疏特征的训练数据。高维稀疏矩阵,例如总维度与有数值的维度的比例为100:1或者1000:1以上。所述的训练数据包括多个样本,每一个样本包括N个特征,所述多个样本中对应的特征构成N个特征列。
如图5所示,本申请第三实施例的利用训练数据训练模型的方法可以包括如下步骤:
S301,计算每一个特征列的重要程度值;
S302,判断每一个特征列的重要程度值是否大于对应的阈值;
S303,当判断出所述N个特征列中的Q个特征列的重要程度值大于对应的阈值时,将所述Q个特征列进行升维处理,生成R个特征列,其中R>Q,且Q<N;
S304,将升维处理后生成的R个特征列和重要程度值小于或等于对应的阈值的特征列合并;以及
S305,将合并的训练数据输入机器学习算法模型,训练所述机器学习算法模型。
其中,步骤S301和步骤S305可与第二实施例中的步骤S201和S205相同或相似,在此不再赘述。
在步骤S302中,相比于步骤S102,本实施例中是判断重要程度值是否大于对应的阈值,具体的判断方式与步骤S102相似,在此不再赘述。
在步骤S303中,例如可以参考步骤S103中的方法,根据步骤S302中得出的每一个特征列的重要程度值是否大于对应的阈值,将多个特征列分为重要特征和辅助特征。在本示例中,重要特征例如是(a11,a21,a31)构成的特征列,以及(a12,a22,a32)构成的特征列.....直到(a1Q,a2Q,a3Q)构成的特征列;辅助特征是后N-Q列即(a1(Q+1),a2(Q+2),a3(Q+3))构成的特征列......直到(a1N,a2N,a3N)构成的特征列。
在步骤S303中,可以将Q个重要程度值大于阈值的重要特征进行升维处理,转换成R个特征列。即,原先的(a11,a12......a1Q)、(a21,a22......a2Q)、(a31,a32......a3Q)可以分别经过升维处理,转换为(a’11,a’12......a’1R)、(a’21,a’22......a’2R)、(a’31),a’32......a’3R)。
这一步骤S303例如可以通过minwise hashing算法实现。minwisehashing算法广泛的应用于海量数据下的信息检索,在这一算法中,通过参数的设定,将(b=64位)扩大到b位,提升重要特征的维度。
该算法的实现可以参考步骤S103所述,在此不再赘述。
在S304中,例如可以将升维处理后生成的R个特征列和重要程度值小于或等于对应的阈值的(N-Q)个特征列合并,可以参考步骤S103,在此不再赘述。
另外,在步骤S303中,当判断出所述N个特征列中的Q个特征列的重要程度值大于对应的阈值时,可以利用minwise Hashing算法对所述Q个特征列进行升维处理,生成R个特征列,其中P=k*2b,k和b为算法指定参数。
优选地,上述重要程度值可以为第二实施例中的信息值或信息增益。在此不再赘述。
另外,在步骤S302之后,该方法还可以包括:
S302a,当判断出所述N个特征列中的M个特征列的重要程度值小于对应的阈值时,将所述M个特征列进行降维处理,生成P个特征列,其中M<N,且P<M;
步骤S304即将升维处理后生成的R个特征列和重要程度值小于或等于对应的阈值的特征列合并的步骤例如可以包括:
将升维处理后生成的R个特征列和所述降维处理后生成的P个特征列合并,生成(R+P)个特征列。
在步骤S305中,例如,可以将上述合并的(R+P)个特征列训练数据输入机器学习算法模型,训练所述机器学习算法模型。
根据本申请第三实施例提出的利用训练数据训练模型的方法,通过判断每一个特征列的重要程度值,采用将重要特征升维的方式,对于较小规模的训练数据,能够升高重要程度值较高的训练数据的维度,提高模型训练的准确性的问题。
第四实施例
本申请第四实施例公开一种利用训练数据训练模型的系统,所述训练数据包括多个样本,每一个样本包括N个特征,所述多个样本中对应的特征构成N个特征列,如图6所示为本申请第四实施例的利用训练数据训练模型的系统以及训练数据的示意图。所述训练系统400包括:
第一计算模块401,用于计算每一个特征列的重要程度值;
第一判断模块402,用于判断每一个特征列的重要程度值是否小于对应的阈值;
第一降维模块403,用于当判断出所述N个特征列中的M个特征列的重要程度值小于对应的阈值时,将所述M个特征列进行降维处理,生成P个特征列,其中M<N,且P<M;
第一合并模块404,用于将重要程度值大于或等于对应的阈值的(N-M)个特征列和降维处理后生成的P个特征列合并;以及
第一训练模块405,用于将合并后的所述多个样本输入机器学习算法模型,训练所述机器学习算法模型。
根据本申请第四实施例提出的利用训练数据训练模型的系统,通过判断每一个特征列的重要程度值,采用保留重要特征、将辅助特征进行降维的方式,降低原本特征维度较高的训练数据的维度,在将该降维后的训练数据输入模型进行训练时,能够达到训练特征参数可控、训练数据大幅降低、运行效率提升的目的。同时由于本申请实施例的方法中保留了重要特征,而对辅助特征进行降维,降维后的数据能够最大限度地减小了该模型的预测准确度的降低程度。
第五实施例
本申请第五实施例公开一种利用训练数据训练模型的系统,所述训练数据包括多个样本,每一个样本包括N个特征,所述多个样本中对应的特征构成N个特征列,如图7所示为本申请第五实施例的利用训练数据训练模型的系统以及训练数据的示意图。所述训练系统500包括:
第一计算模块501,用于计算每一个特征列的重要程度值;
第一判断模块502,用于判断每一个特征列的重要程度值是否小于对应的阈值;
第一降维模块503,用于当判断出所述N个特征列中的M个特征列的重要程度值小于对应的阈值时,将所述M个特征列进行降维处理,生成P个特征列,其中M<N,且P<M;
第一合并模块504,用于将重要程度值大于或等于对应的阈值的(N-M)个特征列和降维处理后生成的P个特征列合并;以及
第一训练模块505,用于将合并后的所述多个样本输入机器学习算法模型,训练所述机器学习算法模型。
在一优选实施例中,所述训练数据还包括对应于每一个样本的标签值,所述重要程度值为信息值和/或信息增益,所述计算模块501包括:
信息值计算模块51,用于利用每一个样本对应的标签值和所述特征列中的多个特征,计算出所述特征列的信息值;和/或
信息增益计算模块52,用于利用每一个样本对应的标签值和所述特征列中的多个特征,计算出所述特征列的信息增益。
在一优选实施例中,所述信息值对应的阈值为第一阈值,所述信息增益对应的阈值为第二阈值。
在一优选实施例中,所述降维模块用于:
利用minwise Hashing算法对所述M个特征列进行降维处理,生成P个特征列,其中P=k*2b,k和b为算法指定参数。
在一优选实施例中,所述机器学习算法模型为分类算法模型或回归算法模型。
根据本申请第五实施例提出的利用训练数据训练模型的系统,通过判断每一个特征列的信息值和/或信息增益,采用保留重要特征、将辅助特征进行降维的方式,降低原本特征维度较高的训练数据的维度,在将该降维后的训练数据输入模型进行训练时,能够达到训练特征参数可控、训练数据大幅降低、运行效率提升的目的。同时由于本申请实施例的方法中保留了重要特征,而对辅助特征进行降维,该特征指纹仍然可以全面反映原先的训练数据,最大限度地减小了该模型的预测准确度的降低程度。本申请提出的利用训练数据训练模型的方法应用在高维稀疏特征的训练数据中的效果尤其明显,例如在广告CTR数据中,通过上述的改动,在广告CTR的1亿特征数据上,AUC较全量训练提升2‰,数据大小为原先数据量1%。
第六实施例
本申请第六实施例公开一种利用训练数据训练模型的系统,所述训练数据包括多个样本,每一个样本包括N个特征,所述多个样本中对应的特征构成N个特征列,如图8所示为本申请第六实施例的利用训练数据训练模型的系统以及训练数据的示意图。所述训练系统600包括:
第二计算模块601,用于计算每一个特征列的重要程度值;
第二判断模块602,用于判断每一个特征列的重要程度值是否小于对应的阈值;
升维模块603,用于当判断出所述N个特征列中的Q个特征列的重要程度值大于对应的阈值时,将所述Q个特征列进行升维处理,生成R个特征列,其中R>Q,且Q<N;
第二合并模块604,用于将将升维处理后生成的R个特征列和重要程度值小于或等于对应的阈值的(N-Q)个特征列合并,得到(R+N-Q)个特征列;以及
第二训练模块605,用于将包括所述(R+N-Q)个特征列的训练数据输入机器学习算法模型,训练所述机器学习算法模型。
在一优选实施例中,所述升维模块603用于:
利用minwise Hashing算法对所述M个特征列进行升维处理,生成R个特征列,其中P=k*2b,k和b为算法指定参数。
在一优选实施例中,所述机器学习算法模型为分类算法模型或回归算法模型。
在一优选实施例中,所述系统还包括:
第二降维模块602a,用于当判断出所述N个特征列中的M个特征列的重要程度值小于对应的阈值时,将所述M个特征列进行降维处理,生成P个特征列,其中M<N,且P<M;
所述第二合并模块604用于:
所述将升维处理后生成的R个特征列和所述降维处理后生成的P个特征列合并。
根据本申请第六实施例提出的利用训练数据训练模型的系统,通过判断每一个特征列的重要程度值,采用将重要特征升维的方式,对于较小规模的训练数据,能够升高重要程度值较高的训练数据的维度,提高模型训练的准确性的问题。
对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
本领域内的技术人员应明白,本申请实施例的实施例可提供为方法、装置、或计算机程序产品。因此,本申请实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
在一个典型的配置中,所述计算机设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信号存储。信号可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信号。按照本文中的界定,计算机可读介质不包括非持续性的电脑可读媒体(transitory media),如调制的数据信号和载波。
本申请实施例是参照根据本申请实施例的方法、终端设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理终端设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理终端设备上,使得在计算机或其他可编程终端设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程终端设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本申请实施例的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请实施例范围的所有变更和修改。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制的情况下,由语句“包括一个......”限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的相同要素。
以上对本申请所提供的一种利用训练数据训练模型的方法和系统,进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。

Claims (18)

1.一种利用训练数据训练模型的方法,所述训练数据包括多个样本,每一个样本包括N个特征,所述多个样本中对应的特征构成N个特征列,其特征在于,所述训练方法包括:
计算每一个特征列的重要程度值;
判断每一个特征列的重要程度值是否小于对应的阈值;
当判断出所述N个特征列中的M个特征列的重要程度值小于对应的阈值时,将所述M个特征列进行降维处理,生成P个特征列,其中M<N,且P<M;
将重要程度值大于或等于对应的阈值的(N-M)个特征列和降维处理后生成的P个特征列合并,得到(N-M+P)个特征列;以及
将包括所述(N-M+P)个特征列的训练数据输入机器学习算法模型,训练所述机器学习算法模型。
2.如权利要求1所述的训练模型的方法,其特征在于,当判断出所述N个特征列中的M个特征列的重要程度值小于对应的阈值时,将所述多个特征列进行降维处理,生成P个特征列的步骤包括:
当判断出所述N个特征列中的M个特征列的重要程度值小于对应的阈值时,利用minwise Hashing算法对所述M个特征列进行降维处理,生成P个特征列,其中P=k*2b,k和b为算法指定参数。
3.如权利要求1所述的训练模型的方法,其特征在于,所述训练数据还包括对应于每一个样本的标签值,所述计算每一个特征列的重要程度值的步骤包括:
利用每一个样本对应的标签值和所述特征列中的多个特征,计算出所述特征列的信息值和/或信息增益,以所述信息值和/或信息增益作为重要程度值。
4.如权利要求3所述的训练模型的方法,其特征在于,所述信息值对应的阈值为第一阈值,所述信息增益对应的阈值为第二阈值。
5.如权利要求1所述的训练模型的方法,其特征在于,所述机器学习算法模型为分类算法模型或回归算法模型。
6.一种利用训练数据训练模型的方法,所述训练数据包括多个样本,每一个样本包括N个特征,所述多个样本中对应的特征构成N个特征列,其特征在于,所述训练方法包括:
计算每一个特征列的重要程度值;
判断每一个特征列的重要程度值是否大于对应的阈值;
当判断出所述N个特征列中的Q个特征列的重要程度值大于对应的阈值时,将所述Q个特征列进行升维处理,生成R个特征列,其中R>Q,且Q<N;
将升维处理后生成的R个特征列和重要程度值小于或等于对应的阈值的特征列合并;以及
将合并的训练数据输入机器学习算法模型,训练所述机器学习算法模型。
7.如权利要求6所述的训练模型的方法,其特征在于,当判断出所述N个特征列中的Q个特征列的重要程度值大于对应的阈值时,将所述Q个特征列进行升维处理,生成R个特征列的步骤包括:
当判断出所述N个特征列中的Q个特征列的重要程度值大于对应的阈值时,利用minwise Hashing算法对所述Q个特征列进行升维处理,生成R个特征列,其中P=k*2b,k和b为算法指定参数。
8.如权利要求6所述的训练模型的方法,其特征在于,所述训练数据还包括对应于每一个样本的标签值,所述计算每一个特征列的重要程度值的步骤包括:
利用每一个样本对应的标签值和所述特征列中的多个特征,计算出所述特征列的信息值和/或信息增益,以所述信息值和/或信息增益作为重要程度值。
9.如权利要求6所述的训练模型的方法,其特征在于,所述判断每一个特征列的重要程度值是否大于对应的阈值的步骤之后,所述方法还包括:
当判断出所述N个特征列中的M个特征列的重要程度值小于对应的阈值时,将所述M个特征列进行降维处理,生成P个特征列,其中M<N,且P<M;
所述将升维处理后生成的R个特征列和重要程度值小于或等于对应的阈值的特征列合并的步骤包括:
将升维处理后生成的R个特征列和所述降维处理后生成的P个特征列合并。
10.一种利用训练数据训练模型的系统,所述训练数据包括多个样本,每一个样本包括N个特征,所述多个样本中对应的特征构成N个特征列,其特征在于,所述训练系统包括:
第一计算模块,用于计算每一个特征列的重要程度值;
第一判断模块,用于判断每一个特征列的重要程度值是否小于对应的阈值;
第一降维模块,用于当判断出所述N个特征列中的M个特征列的重要程度值小于对应的阈值时,将所述M个特征列进行降维处理,生成P个特征列,其中M<N,且P<M;
第一合并模块,用于将重要程度值大于或等于对应的阈值的(N-M)个特征列和降维处理后生成的P个特征列合并,得到(N-M+P)个特征列;以及
第一训练模块,用于将包括所述(N-M+P)个特征列的训练数据输入机器学习算法模型,训练所述机器学习算法模型。
11.如权利要求10所述的训练模型的系统,其特征在于,所述降维模块用于:
利用minwise Hashing算法对所述M个特征列进行降维处理,生成P个特征列,其中P=k*2b,k和b为算法指定参数。
12.如权利要求10所述的训练模型的系统,其特征在于,所述训练数据还包括对应于每一个样本的标签值,所述第一计算模块包括:
信息值计算模块,用于利用每一个样本对应的标签值和所述特征列中的多个特征,计算出所述特征列的信息值,以所述信息值作为所述重要程度值;和/或
信息增益计算模块,用于利用每一个样本对应的标签值和所述特征列中的多个特征,计算出所述特征列的信息增益,以所述信息增益作为所述重要程度值。
13.如权利要求10所述的训练模型的系统,其特征在于,所述信息值对应的阈值为第一阈值,所述信息增益对应的阈值为第二阈值。
14.如权利要求10所述的训练模型的系统,其特征在于,所述机器学习算法模型为分类算法模型或回归算法模型。
15.一种利用训练数据训练模型的系统,所述训练数据包括多个样本,每一个样本包括N个特征,所述多个样本中对应的特征构成N个特征列,其特征在于,所述训练系统包括:
第二计算模块,用于计算每一个特征列的重要程度值;
第二判断模块,用于判断每一个特征列的重要程度值是否大于对应的阈值;
升维模块,用于当判断出所述N个特征列中的Q个特征列的重要程度值大于对应的阈值时,将所述Q个特征列进行升维处理,生成R个特征列,其中R>Q,且Q<N;
第二合并模块,用于将将升维处理后生成的R个特征列和重要程度值小于或等于对应的阈值的(N-Q)个特征列合并,得到(R+N-Q)个特征列;以及
第二训练模块,用于将包括所述(R+N-Q)个特征列的训练数据输入机器学习算法模型,训练所述机器学习算法模型。
16.如权利要求15所述的训练模型的系统,其特征在于,所述升维模块用于:
利用minwise Hashing算法对所述M个特征列进行升维处理,生成R个特征列,其中P=k*2b,k和b为算法指定参数。
17.如权利要求15所述的训练模型的系统,其特征在于,所述训练数据还包括对应于每一个样本的标签值,所述计算模块包括:
信息值计算模块,用于利用每一个样本对应的标签值和所述特征列中的多个特征,计算出所述特征列的信息值,以所述信息值作为所述重要程度值;和/或
信息增益计算模块,用于利用每一个样本对应的标签值和所述特征列中的多个特征,计算出所述特征列的信息增益,以所述信息增益作为所述重要程度值。
18.如权利要求15所述的训练模型的系统,其特征在于,所述系统还包括:
第二降维模块,用于当判断出所述N个特征列中的M个特征列的重要程度值小于对应的阈值时,将所述M个特征列进行降维处理,生成P个特征列,其中M<N,且P<M;
所述第二合并模块用于:
所述将升维处理后生成的R个特征列和所述降维处理后生成的P个特征列合并。
CN201610105840.3A 2016-02-25 2016-02-25 一种利用训练数据训练模型的方法和训练系统 Active CN107122327B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201610105840.3A CN107122327B (zh) 2016-02-25 2016-02-25 一种利用训练数据训练模型的方法和训练系统
TW106104130A TWI740891B (zh) 2016-02-25 2017-02-08 利用訓練資料訓練模型的方法和訓練系統
PCT/CN2017/073340 WO2017143914A1 (zh) 2016-02-25 2017-02-13 一种利用训练数据训练模型的方法和训练系统
US16/112,592 US11615346B2 (en) 2016-02-25 2018-08-24 Method and system for training model by using training data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610105840.3A CN107122327B (zh) 2016-02-25 2016-02-25 一种利用训练数据训练模型的方法和训练系统

Publications (2)

Publication Number Publication Date
CN107122327A true CN107122327A (zh) 2017-09-01
CN107122327B CN107122327B (zh) 2021-06-29

Family

ID=59685834

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610105840.3A Active CN107122327B (zh) 2016-02-25 2016-02-25 一种利用训练数据训练模型的方法和训练系统

Country Status (4)

Country Link
US (1) US11615346B2 (zh)
CN (1) CN107122327B (zh)
TW (1) TWI740891B (zh)
WO (1) WO2017143914A1 (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108108848A (zh) * 2017-12-29 2018-06-01 英特尔产品(成都)有限公司 缺陷率预测模型的训练方法、装置及系统
WO2019080501A1 (zh) * 2017-10-27 2019-05-02 平安科技(深圳)有限公司 电子装置、多模型样本训练方法、系统和计算机可读存储介质
CN110335134A (zh) * 2019-04-15 2019-10-15 梵界信息技术(上海)股份有限公司 一种基于woe转换实现信贷客户资质分类的方法
CN110825966A (zh) * 2019-10-31 2020-02-21 广州市百果园信息技术有限公司 一种信息推荐的方法、装置、推荐服务器和存储介质
CN110852443A (zh) * 2019-09-26 2020-02-28 支付宝(杭州)信息技术有限公司 特征稳定性检测方法、设备及计算机可读介质
CN111353626A (zh) * 2018-12-21 2020-06-30 阿里巴巴集团控股有限公司 数据的审核方法、装置及设备
CN114090601A (zh) * 2021-11-23 2022-02-25 北京百度网讯科技有限公司 一种数据筛选方法、装置、设备以及存储介质

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107122327B (zh) 2016-02-25 2021-06-29 阿里巴巴集团控股有限公司 一种利用训练数据训练模型的方法和训练系统
JP2022523564A (ja) 2019-03-04 2022-04-25 アイオーカレンツ, インコーポレイテッド 機械学習を使用するデータ圧縮および通信
JP7215324B2 (ja) * 2019-05-17 2023-01-31 富士通株式会社 予測プログラム、予測方法及び予測装置
CN112085205A (zh) * 2019-06-14 2020-12-15 第四范式(北京)技术有限公司 用于自动训练机器学习模型的方法和系统
CN112541776A (zh) * 2019-09-20 2021-03-23 北京达佳互联信息技术有限公司 数据处理方法、装置、电子设备及存储介质
CN115039110A (zh) 2020-02-07 2022-09-09 瑞典爱立信有限公司 使用数据优先级的数据传输
US11797372B2 (en) 2020-03-26 2023-10-24 Shenzhen Institutes Of Advanced Technology Method and apparatus for generating time series data based on multi-condition constraints, and medium
KR20230115752A (ko) * 2022-01-27 2023-08-03 삼성전자주식회사 애플리케이션을 백그라운드 프로세스에서 실행하는 전자 장치 및 그 동작 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020169735A1 (en) * 2001-03-07 2002-11-14 David Kil Automatic mapping from data to preprocessing algorithms
CN104376326A (zh) * 2014-11-02 2015-02-25 吉林大学 一种用于图像场景识别的特征提取方法
CN104680121A (zh) * 2013-11-27 2015-06-03 腾讯科技(深圳)有限公司 一种人脸图像的处理方法及装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007096849A1 (en) * 2006-02-20 2007-08-30 University College Cork - National University Of Ireland, Cork A voltammetric analysis system
CN102609714B (zh) * 2011-12-31 2017-07-07 哈尔滨理工大学 基于信息增益和在线支持向量机的新型分类器及分类方法
IL226747B (en) * 2013-06-04 2019-01-31 Verint Systems Ltd A system and method for studying malware detection
CN104239351B (zh) * 2013-06-20 2017-12-19 阿里巴巴集团控股有限公司 一种用户行为的机器学习模型的训练方法及装置
US9082084B2 (en) * 2013-06-28 2015-07-14 Linkedin Corporation Facilitating machine learning in an online social network
US8957984B2 (en) * 2013-06-30 2015-02-17 Konica Minolta Laboratory U.S.A., Inc. Ghost artifact detection and removal in HDR image processsing using multi-scale normalized cross-correlation
US9305358B2 (en) * 2013-07-01 2016-04-05 Kabushiki Kaisha Toshiba Medical image processing
US9324022B2 (en) * 2014-03-04 2016-04-26 Signal/Sense, Inc. Classifying data with deep learning neural records incrementally refined through expert input
CN104050242B (zh) * 2014-05-27 2018-03-27 哈尔滨理工大学 基于最大信息系数的特征选择、分类方法及其装置
CN104239485B (zh) * 2014-09-05 2018-05-01 中国科学院计算机网络信息中心 一种基于统计机器学习的互联网暗链检测方法
CN104715021B (zh) * 2015-02-27 2018-09-11 南京邮电大学 一种基于哈希方法的多标记学习的学习方法
CN105243139B (zh) * 2015-10-10 2018-10-23 天津大学 一种基于深度学习的三维模型检索方法及其检索装置
CN107122327B (zh) 2016-02-25 2021-06-29 阿里巴巴集团控股有限公司 一种利用训练数据训练模型的方法和训练系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020169735A1 (en) * 2001-03-07 2002-11-14 David Kil Automatic mapping from data to preprocessing algorithms
CN104680121A (zh) * 2013-11-27 2015-06-03 腾讯科技(深圳)有限公司 一种人脸图像的处理方法及装置
CN104376326A (zh) * 2014-11-02 2015-02-25 吉林大学 一种用于图像场景识别的特征提取方法

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019080501A1 (zh) * 2017-10-27 2019-05-02 平安科技(深圳)有限公司 电子装置、多模型样本训练方法、系统和计算机可读存储介质
CN108108848A (zh) * 2017-12-29 2018-06-01 英特尔产品(成都)有限公司 缺陷率预测模型的训练方法、装置及系统
CN108108848B (zh) * 2017-12-29 2019-08-13 英特尔产品(成都)有限公司 缺陷率预测模型的训练方法、装置及系统
CN111353626A (zh) * 2018-12-21 2020-06-30 阿里巴巴集团控股有限公司 数据的审核方法、装置及设备
CN111353626B (zh) * 2018-12-21 2023-05-26 阿里巴巴集团控股有限公司 数据的审核方法、装置及设备
CN110335134A (zh) * 2019-04-15 2019-10-15 梵界信息技术(上海)股份有限公司 一种基于woe转换实现信贷客户资质分类的方法
CN110852443A (zh) * 2019-09-26 2020-02-28 支付宝(杭州)信息技术有限公司 特征稳定性检测方法、设备及计算机可读介质
CN110852443B (zh) * 2019-09-26 2023-02-21 支付宝(杭州)信息技术有限公司 特征稳定性检测方法、设备及计算机可读介质
CN110825966A (zh) * 2019-10-31 2020-02-21 广州市百果园信息技术有限公司 一种信息推荐的方法、装置、推荐服务器和存储介质
CN110825966B (zh) * 2019-10-31 2022-03-04 广州市百果园信息技术有限公司 一种信息推荐的方法、装置、推荐服务器和存储介质
CN114090601A (zh) * 2021-11-23 2022-02-25 北京百度网讯科技有限公司 一种数据筛选方法、装置、设备以及存储介质
CN114090601B (zh) * 2021-11-23 2023-11-03 北京百度网讯科技有限公司 一种数据筛选方法、装置、设备以及存储介质

Also Published As

Publication number Publication date
WO2017143914A1 (zh) 2017-08-31
TW201738780A (zh) 2017-11-01
TWI740891B (zh) 2021-10-01
US11615346B2 (en) 2023-03-28
CN107122327B (zh) 2021-06-29
US20180365521A1 (en) 2018-12-20

Similar Documents

Publication Publication Date Title
CN107122327A (zh) 一种利用训练数据训练模型的方法和训练系统
US11636314B2 (en) Training neural networks using a clustering loss
CN103810101B (zh) 一种软件缺陷预测方法和软件缺陷预测系统
CN110111198A (zh) 用户金融风险预估方法、装置、电子设备及可读介质
CN108733644B (zh) 一种文本情感分析方法、计算机可读存储介质及终端设备
CN104915423A (zh) 获取目标用户的方法和装置
CN107133190A (zh) 一种机器学习系统的训练方法和训练系统
CN111882426B (zh) 业务风险分类器训练方法、装置、设备及存储介质
CN112308173B (zh) 基于多评价因子融合的多目标对象评价方法及其相关设备
CN110647995A (zh) 规则训练方法、装置、设备及存储介质
CN112785005A (zh) 多目标任务的辅助决策方法、装置、计算机设备及介质
CN113706291A (zh) 欺诈风险预测方法、装置、设备及存储介质
CN106897282A (zh) 一种用户群的分类方法和设备
Li et al. Using feature entropy to guide filter pruning for efficient convolutional networks
CN112990583A (zh) 一种数据预测模型的入模特征确定方法及设备
CN113761193A (zh) 日志分类方法、装置、计算机设备和存储介质
Winker et al. Optimal lag structure selection in VEC-models
CN116777646A (zh) 基于人工智能的风险识别方法、装置、设备及存储介质
Elrefai et al. Using artificial intelligence in enhancing banking services
CN114202337A (zh) 风险识别方法、装置、设备及存储介质
CN104809098A (zh) 基于期望最大确定统计模型参数的方法和装置
CN114266653A (zh) 集成学习的客户贷款风险预估方法
CN111401475A (zh) 一种生成攻击样本的方法和系统
CN112884028A (zh) 一种系统资源调整方法、装置及设备
CN106997472A (zh) 用户信用模型的用户特征分类方法、用户信用评估方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 1243517

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20211109

Address after: Room 507, floor 5, building 3, No. 969, Wenyi West Road, Wuchang Street, Yuhang District, Hangzhou City, Zhejiang Province

Patentee after: ZHEJIANG TMALL TECHNOLOGY Co.,Ltd.

Address before: A four-storey 847 mailbox in Grand Cayman Capital Building, British Cayman Islands

Patentee before: ALIBABA GROUP HOLDING Ltd.