CN105930875A - 用户退课行为预测方法及装置 - Google Patents

用户退课行为预测方法及装置 Download PDF

Info

Publication number
CN105930875A
CN105930875A CN201610292389.0A CN201610292389A CN105930875A CN 105930875 A CN105930875 A CN 105930875A CN 201610292389 A CN201610292389 A CN 201610292389A CN 105930875 A CN105930875 A CN 105930875A
Authority
CN
China
Prior art keywords
user
training set
weak classifier
classifier
weight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610292389.0A
Other languages
English (en)
Inventor
唐杰
张茜
刘德兵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN201610292389.0A priority Critical patent/CN105930875A/zh
Publication of CN105930875A publication Critical patent/CN105930875A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24147Distances to closest patterns, e.g. nearest neighbour classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Strategic Management (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Development Economics (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种用户退课行为预测方法及装置,其中,该方法包括:获取基于用户日志的用户行为、基于用户论坛行为的社交关系以及基于时间序列的用户行为作为训练集;选择部分弱分类器分别对训练集进行集成学习得到强分类器和强分类器的权重和参数;根据强分类器的权重和参数对测试集进行测试,输出测试结果。该方法通过集成学习提高了对用户退课行为预测的准确度。本发明还提出了一种用户退课行为预测装置。

Description

用户退课行为预测方法及装置
技术领域
本发明涉及网络信息技术领域,尤其涉及一种用户退课行为预测方法及装置。
背景技术
高退课率和低参与度是当前的大规模在线公开课程平台面临的重要问题,对潜在退课用户的行为进行细粒度的分析对设计更好的在线教育平台及设计调整课程至关重要。大规模在线开放课程完整的记录了用户和课程进行交互的过程,这提供给研究者一个细粒度分析用户学习行为的前所未有的机会。
相关技术中,一种是使用用户的社会行为来预测用户的退课;一种是按照学习模式对用户进行分类;一种是分析了影响用户参与大规模在线公开课程(Mass Open OnlineCourse,MOOC)的关键因素,并且观察到了用户之间显著的行为和学习模式的差异,并且提出了一个基于动态因子图的模型来预测用户的学习表现和证书获得;还有提出了一个隐表示模型用来抽象学习模式并且预测退课。
但是,相关技术的研究对于预测结果的准确度还是不够的,我们也注意到高退课率和低参与度是当前的大规模在线公开课程(MOOC)平台面临的重要问题,对潜在退课用户的行为进行细粒度的分析对设计更好的MOOC的平台至关重要。
发明内容
本发明的目的旨在至少在一定程度上解决上述的技术问题之一。
为此,本发明的第一个目的在于提出一种用户退课行为预测方法。该方法通过集成学习提高了对用户退课行为预测的准确度。
本发明的第二个目的在于提出了一种用户退课行为预测装置。
为达上述目的,本发明第一方面实施例的用户退课行为预测方法,包括:S1,获取基于用户日志的用户行为、基于用户论坛行为的社交关系以及
基于时间序列的用户行为作为训练集;S2,选择部分弱分类器分别对所述训练集进行集成学习得到强分类器和所述强分类器的权重和参数;S3,根据所述强分类器的权重和参数对测试集进行测试,输出测试结果。
本发明实施例的用户退课行为预测方法,首先获取基于用户日志的用户行为、基于用户论坛行为的社交关系以及基于时间序列的用户行为作为训练集,接着选择部分弱分类器分别对训练集进行集成学习得到强分类器和强分类器的权重和参数,最后根据强分类器的权重和参数对测试集进行测试,输出测试结果。该方法通过集成学习提高了对用户退课行为预测的准确度。
在一些示例中,所述部分弱分类器包括:SVM(Support Vector Machine,支持向量机)、Logistic Regression(虫口模型)、AdaboostM1,、KNN(k-Nearest Neighbor,K最近邻)、PosKNN和Attribute WKNN。
在一些示例中,步骤S2,包括:S21,赋予所述训练集中的每个样本同样大小的初始权重值,权重向量记为D;S22,选择部分弱分类器分别对所述训练集进行训练,并计算各个弱分类器的分类错误率并选择所述分类错误率最低对应的所述弱分类器存储,其中,所述分类错误率是未被正确分类的样本数目占所有数目的比例;S23,调整所述每个样本的权重值,并在同一个训练集上再次训练,并找到分类错误率最低对应的所述弱分类器存储并记录训练次数t;S24,当t小于T时,重复执行所述步骤S22和S23,直到t等于T,固定次数为T次,其中,T为正整数,赋予每一个存储的弱分类器一个权重值α,所述弱分类器的错误率为ε,预设阈值为p,将所述权重值α大于p对应的弱分类器加权投票,得到最终的强分类器和所述强分类器的权重和参数,其中,p在0至1之间。
在一些示例中,所述权重值的调整原则为:加大/减小被上次存储的分类器分类错误/正确的样本的权重值,并再次找到错误率最低的那个分类器存储起来。
在一些示例中,所述训练集为(x1,y1),...,(xN,yN),其中,yi∈{1,-1},xi为正确的类别标签,所述训练集的样本的初始分布为其中,i=1,...,N,计算弱分类器ht:X→{-1,1},对t=1,...,T,其中,T为循环次数,所述分类器在分布Dt上的误差为:计算所述弱分类器的权重:更新所述训练集的样本的分布:其中Zt为归一化常数,如果αt<P,更新:αt=0,最后的强分类器为:
为达上述目的,本发明第二方面实施例的用户退课行为预测装置,包括:获取模块,用于获取基于用户日志的用户行为、基于用户论坛行为的社交关系以及基于时间序列的用户行为作为训练集;集成学习模块,用于选择部分弱分类器分别对所述训练集进行集成学习得到强分类器和所述强分类器的权重和参数;测试模块,用于根据所述强分类器的权重和参数对测试集进行测试,输出测试结果。
本发明实施例的用户退课行为预测装置,首先获取模块获取基于用户日志的用户行为、基于用户论坛行为的社交关系以及基于时间序列的用户行为作为训练集,接着集成学习模块选择部分弱分类器分别对训练集进行集成学习得到强分类器和强分类器的权重和参数,最后测试模块根据强分类器的权重和参数对测试集进行测试,输出测试结果。该装置通过集成学习提高了对用户退课行为预测的准确度。
在一些示例中,所述部分弱分类器包括:SVM(Support Vector Machine,支持向量机)、Logistic Regression(虫口模型)、adaboostM1,、KNN(k-Nearest Neighbor,K最近邻)、PosKNN和Attribute WKNN。
在一些示例中,所述集成学习模块包括::S21,赋予所述训练集中的每个样本同样大小的初始权重值,权重向量记为D;S22,选择部分弱分类器分别对所述训练集进行训练,并计算弱分类器的分类错误率并选择所述分类错误率最低对应的所述弱分类器存储,其中,所述分类错误率是未被正确分类的样本数目占所有数目的比例;S23,调整所述每个样本的权重值,并在同一个训练集上再次训练,并找到分类错误率最低对应的所述弱分类器存储并记录训练次数t;S24,当t小于T时,重复执行所述步骤S22和S23,直到t等于T,固定次数为T次,其中,T为正整数,赋予每一个存储的弱分类器一个权重值α,所述弱分类器的错误率为ε,预设阈值为p,将所述权重值α大于p对应的弱分类器加权投票,得到最终的强分类器和所述强分类器的权重和参数,其中,p在0至1之间。
在一些示例中,所述权重值的调整原则为:加大/减小被上次存储的分类器分类错误/正确的样本的权重值,并再次找到错误率最低的那个分类器存储起来。
在一些示例中,所述训练集为(x1,y1),...,(xN,yN),其中,yi∈{1,-1},xi为正确的类别标签,所述训练集的样本的初始分布为其中,i=1,...,N,计算弱分类器ht:X→{-1,1},对t=1,...,T,其中,T为循环次数,所述分类器在分布Dt上的误差为:计算所述弱分类器的权重:更新所述训练集的样本的分布:其中Zt为归一化常数,如果αt<P,更新:αt=0,最后的强分类器为:
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1是根据本发明一个实施例的用户退课行为预测方法的流程图;
图2是根据本发明一个实施例的状态机的示意图;
图3是根据本发明一个实施例的集成学习方法的流程图;
图4是根据本发明一个实施例的用户退课行为预测装置的示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
首先,预测只针对该课程的选课用户。由于课程间的差异性较大,各个课程的训练模型参数和测试是相互独立的。模型中,正例为1,表示用户在预测时间内会继续访问课程;负例为0,表示用户会流失。统计证明,那些在预测时间段内(在本模型中即为预测前一个月)没来访问课程的选课用户,有99%在接下来的10天没来,因此本模型只对在预测前一个月内有行为的选课用户使用算法预测,其余选课用户则默认已流失,即流失率为100%。
图1是根据本发明一个实施例的用户退课行为预测方法的流程图。
如图1所示,该用户退课行为预测方法可以包括:
S1,获取基于用户日志的用户行为、基于用户论坛行为的社交关系以及基于时间序列的用户行为作为训练集。
需要说明的是,每条特征向量对应于一门课程的选课用户。特征向量主要用到是基于用户日志的用户行为、基于用户论坛行为的社交关系以及基于时间序列的用户行为。
可以理解的是,基于用户日志的用户行为可以是从用户日志中解析出来的行为模型。例如,从用户日志中解析出来的行为类型;我们设计了一个基于自动机的用户日志分析算法。如图2所示,状态机由三个状态组成空闲(Idle)、视频(Video)和作业(Assignment),我们假设用户在任何时刻都处于这三个状态中的一个。举例来说,当用户点击播放课程视频时,他的状态就会转移到视频状态,而当用户点击暂停时,他的状态又会跳回到空闲状态。我们还设置了一个时间阈值,当用户长处于视频或者作业状态时超过这个时间阈值时,他的状态就会回到空闲。此外,我们还从用户的访问log日志中提取出的行为类型主要有以下7种:Video,Page_Close,Problem,Access,Discussion,Wiki,Navigate。在过滤掉一些无效的用户访问行为后,统计用户在预测前一个月内的各种行为类型的次数,按照时间依次罗列。无效访问行为定义:如果在访问记录中,如果用户访问某一页面的持续时间太短,如用户的连续两次访问记录间隔<=5秒,则认为用户前一次访问无效。
可以理解的是,基于用户论坛行为的社交关系可以是用户论坛“朋友”的访问情况。其中,“朋友”的定义是曾经和该用户在论坛里有过交流的用户。例如,统计在预测前10天内访问过该课程的用户“朋友”数。
可以理解的是,基于时间序列的用户行为可以是用户访问时间模式和估计。例如,统计用户访问的课程的总天数count以及平均访问时间频率interval,并依照该用户最后访问的时间以及最近的访问时间间隔推算该用户下一次访问的时间,计算该时间和预测时间段的偏差bias。
S2,选择部分弱分类器分别对训练集进行集成学习得到强分类器和强分类器的权重和参数。
在一些示例中,部分弱分类器包括:SVM(Support Vector Machine,支持向量机)、Logistic Regression(虫口模型)、adaboostM1,、KNN(k-Nearest Neighbor,K最近邻)、PosKNN和Attribute WKNN。
需要说明的是,SVM、Logistic regression、adaboostM1、KNN这四种模型都是现有的经典模型,在此不再赘述。而PosKNN和Attribute WKNN则是在经典KNN算法的基础上进行了改进的算法。因此接下来重点介绍模型的前提假设、所用特征的选取、所用的改进算法以及boosting集成过程。
例如,PosKNN算法原理是:分别选取与训练纪录汉明码距离最近的前k个正例和前k个负例,然后计算这k个正例和k个负例与训练纪录的平均距离,如果正(负)例的平均距离较小,则最终分类结果就为正(负)例。这个算法原理较简单,过程和经典KNN相差无几,在此不再赘述。
例如,Attribute WKNN算法我们一直致力于设计一个既准确又快速的分类算法,其中一种很简单但非常准确的分类算法就是上文所述的KNN(k-nearest neighborclassification)算法。但是KNN算法也有其不足之处,当在对属性较多的训练样本进行分类时,由于假定各个属性权重相同,而现实中却往往不是如此,此时KNN的分类精度就会大大降低,效果不是很理想。因此,为了弥补这一缺陷,本文提出一种基于特征属性加权的KNN改进算法——Attribute WKNN(attribute weight k-nearest neighborclassification)算法。该算法考虑到,由于在实际生活中,不同的特征对于最终的分类结果的贡献是不可能会完全同等的,因而给各个特征赋予了不同大小的权重。这样一来,就能使重要特征的作用得到提升,从而提高了算法的性能。更具体而言,Attribute WKNN算法的基本思想是,为每个特征属性训练出一个合理的权重值,然后根据特征属性的相似性,找到与新的数据属性最为相似的k条训练数据,然后对于新数据的分类决策则是依赖于这k条记录的类别的。大概过程如下:第一步,给每个特征属性一个初始权重值W,并将训练数据集TA均分成为N个小数据集NK,然后进行N次交叉验证。即对于每一个数据子集NK(K=1,…,N),将其作为测试集TEK,而其余的N-1个子集则汇集成一个新训练集TAK。TAK通过内部循环处理来训练特征属性权重参数W,最后测试TEK在TAK上的准确率。第二步,在整个训练集TA上进行一遍内部循环处理训练特征属性权重参数W。
为了本领域人员更加清楚Attribute WKNN算法,下面详细说明:对于一条新测试记录X,有:第一距离:可以是欧氏距离,余弦距离等。在本实施例中,对训练集中的一条记录Y,X和Y之间的距离定义为:
&part; = &Sigma; i = 1 k &lsqb; w i ( x i - y i ) &rsqb; 2 - - - ( 1 )
其中,k为特征的数目,wi为第i个特征的权重值,xi和yi分别是记录X和Y在第i个特征上的取值。第二K邻居:指的是与X距离最为接近的K条记录。第三投票分类法:平均投票:每个邻居的权重相同,并且少数服从多数,哪个类别多就分为哪类。加权投票法:基于相似度的大小,给每个邻居的分类权重值是不一样的。第四Gradient Descent(梯度下降):该方法的运行原理是:沿着递度下降/上升的方向求解极小/大值。为了更加清晰的阐述其原理,可以将函数看做一座山。而位置就处于山坡的顶端,思考从哪个方向可以最快的下山。方法:确定Learning rate。即向下一步的步伐大小;任意给定一个初始值:θ01;确定好一个方向,并按照上述的步伐大小向下走,然后更新θ01;当下降高度低于了所设置的门槛值时,就终止;核心算法如下所示,其中,convergence是终止条件,α是Learning rate,它决定了下降的步伐大小,太小函数收敛很慢,太大则可能无法找到极值,甚至函数无法收敛。决定了下降的方向。
其中,特点:类似于贪心算法,只能求得一个局部最优值;随着下降高度对门槛值的逐渐逼近,下降速度也会逐渐变慢。第五交叉验证,交叉验证(Cross validation),也称为循环估计。是一种首先将数据集均分成若干个子集的算法。可以设置最开始的那个子集为训练集X,它被当做分析的对象;而其余的子集则成为测试集Y,它用来做验证。我们可以用交叉验证来评判学习方法的泛化能力(generalize)。该方法需要尽可能满足以下条件:训练数据集的比重够大,一般在50%以上;对训练集和测试集的抽样要均匀。交叉验证主要有:
k-folder cross-validation:将数据集等分为k个子集,对每一个子集X,都有:X当做测试集,而其余子集则成为训练集。这样重复k次交叉验证后,将k次测试集的测试准确率的均值作为最终结果。优点:所有的样本都被验证一次,且曾被用作为训练集以及测试集。10-folder通常被使用。或者是K*2 folder cross-validation是k-folder cross-validation的一个变体,对每一个folder,都平均分成两个集合S0,S1。我们先将S0作训练S1作测试,然后反过来。优点:所有的样本都能被用作训练集和测试集,且测试集和训练集的规模数量足够的大。一般使用k=10。least-one-out cross-validation(loocv),假设数据集中有N个样本,那LOOCV也就是N-CV。对每个样本X都有:X作一次测试集,而剩余N-1个则为训练集。优点:几乎所有的样本用来训练模型,这样可以有效的降低泛化误差。实验过程可复制。缺点:当样本总数过多时,由于很高的计算成本,LOOCV在实际操作的效率会大大降低。
例如,Attribute WKNN算法数据集如表1所示:
表1数据集
feature class T feature
d1 1,2,1 1 t1 0,0,2
d2 0,1,0 0 t2 1,3,0
d3 1,3,2 2
d4 0,0,1 1
d5 3,0,1 0
d6 1,3,0 2
训练数据集为D。共有6条纪录:d1,d2,d3,d4,d5,d6。测试数据集为T。共有2条记录:t1,t2。每条记录均有3个特征属性:f1,f2,f3。其对应的值为v1,v2,v3。初始参数设置:学习比率α=0.2,“邻居”数k=1,训练子集总数N=3,特征属性对应权重w1、w2、w3分别初始化值为0.2、0.5、0.1。算法具体过程如下:交叉验证训练,将训练集D均分为N=3个子训练集D1(d1,d2)、D2(d3,d4)和D3(d5,d6)对每个子训练集有如下过程(以D2为例):设置D2为验证集,新训练集D(1+3)=D1+D3,即(d1,d2,d5,d6),对于D(1+3)里的每一个d,有(以d2为例):计算在D(1+3)里除了d2的剩余记录(d1,d5,d6)与d2的距离: 同理可得,θ(d2,d5)≈0.7874,θ(d2,d6)≈1.0198。找到d2的k(k=1)邻居,由上可知与d2距离最小的是d1,返回k邻居投票值,因为k=1,所以投票值就为d1的分类值1,由于d2的真实分类值0≠投票值1,所以用梯度下降法修改特征权重:Error=真实分类值-投票值=0-1=-1,对每个特征权重wi,有:w1=w1+α*Error*V1=0.2+0.2*(-1)*0=0.2。同理可得w2=0.3,w3=0.1,对验证集D2里的每一个d,有:找到与d距离最小的k邻居并得到投票分类值;计算分类准确率A:在整个训练集上训练对训练集D里的记录d,有:找到与d距离最小的k邻居并得到投票分类值;如果真实分类值≠投票值,则用梯度下降法修改特征权重:Error=真实分类值-投票值对每个特征属性权重wk,有:wk=wk+α*Error*Vk。对整个训练集D里的d,有:找到与d距离最小的k邻居并得到投票分类值;计算分类准确率A:测试数据集T对T里的每一个d,有:找到与d距离最小的k邻居并得到投票分类值,计算分类准确率A,
其中,如图3所示,在一些示例中,步骤S2,包括:
S21,赋予训练集中的每个样本同样大小的初始权重值,权重向量记为D。
S22,选择部分弱分类器分别对训练集进行训练,并计算各个弱分类器的分类错误率并选择分类错误率最低对应的弱分类器存储,其中,分类错误率是未被正确分类的样本数目占所有数目的比例。
S23,调整每个样本的权重值,并在同一个训练集上再次训练,并找到分类错误率最低对应的弱分类器存储并记录训练次数t。
S24,当t小于T时,重复执行步骤S22和S23,直到t等于T,固定次数为T次,其中,T为正整数,赋予每一个存储的弱分类器一个权重值α,弱分类器的错误率为ε,预设阈值为p,将权重值α大于p对应的弱分类器加权投票,得到最终的强分类器和强分类器的权重和参数,其中,p在0至1之间。
在一些示例中,权重值的调整原则为:加大/减小被上次存储的分类器分类错误/正确的样本的权重值,并再次找到分类错误率最低的那个分类器存储起来。
更具体地,在一些示例中,训练集为(x1,y1),...,(xN,yN),其中,yi∈{1,-1},xi为正确的类别标签,训练集的样本的初始分布为其中,i=1,...,N,计算弱分类器ht:X→{-1,1},对t=1,...,T,其中,T为循环次数,分类器在分布Dt上的误差为:计算弱分类器的权重:更新训练集的样本的分布:其中Zt为归一化常数,如果αt<P,更新:αt=0,最后的强分类器为:
其中,在计算中的代码表示可以如下表示:
S3,根据强分类器的权重和参数对测试集进行测试,输出测试结果。
举例而言,可以选择xuetangX上的财务分析与决策(2014春)课程测试,得到各模型测试结果如表2所示:
表2各模型测试结果
从表2可以看出,通过集成学习,的确改善了预测结果。
本发明实施例的用户退课行为预测方法,首先获取基于用户日志的用户行为、基于用户论坛行为的社交关系以及基于时间序列的用户行为作为训练集,接着选择部分弱分类器分别对训练集进行集成学习得到强分类器和强分类器的权重和参数,最后根据强分类器的权重和参数对测试集进行测试,输出测试结果。该方法通过集成学习提高了对用户退课行为预测的准确度。
与上述实施例提供的用户退课行为预测方法相对应,本发明的一种实施例还提供一种用户退课行为预测装置,由于本发明实施例提供的用户退课行为预测装置与上述实施例提供的用户退课行为预测方法具有相同或相似的技术特征,因此在前述用户退课行为预测方法的实施方式也适用于本实施例提供的用户退课行为预测装置,在本实施例中不再详细描述。如图4所示,该用户退课行为预测装置可包括:获取模块10、集成学习模块20和测试模块30。
其中,获取模块10用于获取基于用户日志的用户行为、基于用户论坛行为的社交关系以及基于时间序列的用户行为作为训练集。
集成学习模块20用于选择部分弱分类器分别对训练集进行集成学习得到强分类器和强分类器的权重和参数。
测试模块30用于根据强分类器的权重和参数对测试集进行测试,输出测试结果。
在一些示例中,部分弱分类器包括:SVM、Logistic Regression、adaboostM1,、KNN、PosKNN和Attribute WKNN。
在一些示例中,集成学习模块20包括::S21,赋予训练集中的每个样本同样大小的初始权重值,权重向量记为D;S22,选择部分弱分类器分别对训练集进行训练,并计算弱分类器的分类错误率并选择分类错误率最低对应的弱分类器存储,其中,分类错误率是未被正确分类的样本数目占所有数目的比例;S23,调整所述每个样本的权重值,并在同一个训练集上再次训练,并找到分类错误率最低对应的所述弱分类器存储并记录训练次数t;S24,当t小于T时,重复执行所述步骤S22和S23,直到t等于T,固定次数为T次,其中,T为正整数,赋予每一个存储的弱分类器一个权重值α,所述弱分类器的错误率为ε,预设阈值为p,将所述权重值α大于p对应的弱分类器加权投票,得到最终的强分类器和所述强分类器的权重和参数,其中,p在0至1之间。
在一些示例中,权重值的调整原则为:加大/减小被上次存储的分类器分类错误/正确的样本的权重值,并再次找到错误率最低的那个分类器存储起来。
在一些示例中,训练集为(x1,y1),...,(xN,yN),其中,yi∈{1,-1},xi为正确的类别标签,训练集的样本的初始分布为其中,i=1,...,N,计算弱分类器ht:X→{-1,1},对t=1,...,T,其中,T为循环次数,弱分类器在分布Dt上的误差为:计算弱分类器的权重:更新训练集的样本的分布:其中Zt为归一化常数,如果αt<P,更新:αt=0,最后的强分类器为:
本发明实施例的用户退课行为预测装置,首先获取模块获取基于用户日志的用户行为、基于用户论坛行为的社交关系以及基于时间序列的用户行为作为训练集,接着集成学习模块选择部分弱分类器分别对训练集进行集成学习得到强分类器和强分类器的权重和参数,最后测试模块根据强分类器的权重和参数对测试集进行测试,输出测试结果。该装置通过集成学习提高了对用户退课行为预测的准确度。
在本发明的描述中,需要理解的是,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (10)

1.一种用户退课行为预测方法,其特征在于,包括以下步骤:
S1,获取基于用户日志的用户行为、基于用户论坛行为的社交关系以及基于时间序列的用户行为作为训练集;
S2,选择部分弱分类器分别对所述训练集进行集成学习得到强分类器和所述强分类器的权重和参数;
S3,根据所述强分类器的权重和参数对测试集进行测试,输出测试结果。
2.如权利要求1所述的用户退课行为预测方法,其特征在于,所述部分弱分类器包括:SVM、Logistic Regression、adaboostM1,、KNN、PosKNN和Attribute WKNN。
3.如权利要求1所述的用户退课行为预测方法,其特征在于,步骤S2,包括:
S21,赋予所述训练集中的每个样本同样大小的初始权重值,权重向量记为D;
S22,选择部分弱分类器分别对所述训练集进行训练,并计算各个弱分类器的分类错误率并选择所述分类错误率最低对应的所述弱分类器存储,其中,所述分类错误率是未被正确分类的样本数目占所有数目的比例;
S23,调整所述每个样本的权重值,并在同一个训练集上再次训练,并找到分类错误率最低对应的所述弱分类器存储并记录训练次数t;
S24,当t小于T时,重复执行所述步骤S22和S23,直到t等于T,固定次数为T次,其中,T为正整数,赋予每一个存储的弱分类器一个权重值α,所述弱分类器的错误率为ε,预设阈值为p,将所述权重值α大于p对应的弱分类器加权投票,得到最终的强分类器和所述强分类器的权重和参数,其中,p在0至1之间。
4.如权利要求3所述的用户退课行为预测方法,其特征在于,所述权重值的调整原则为:加大/减小被上次存储的分类器分类错误/正确的样本的权重值,并再次找到分类错误率最低的那个分类器存储起来。
5.如权利要求3所述的用户退课行为预测方法,其特征在于,所述训练集为(x1,y1),...,(xN,yN),其中,yi∈{1,-1},xi为正确的类别标签,所述训练集的样本的初始分布为其中,i=1,...,N,计算弱分类器ht:X→{-1,1},对t=1,...,T,其中,T为循环次数,所述弱分类器在分布Dt上的误差为:计算所述弱分类器的权重:更新所述训练集的样本的分布:其中Zt为归一化常数,如果αt<P,更新:αt=0,最后的强分类器为:
6.一种用户退课行为预测装置,其特征在于,包括:
获取模块,用于获取基于用户日志的用户行为、基于用户论坛行为的社交关系以及基于时间序列的用户行为作为训练集;
集成学习模块,用于选择部分弱分类器分别对所述训练集进行集成学习得到强分类器和所述强分类器的权重和参数;
测试模块,用于根据所述强分类器的权重和参数对测试集进行测试,输出测试结果。
7.如权利要求6所述的用户退课行为预测装置,其特征在于,所述部分弱分类器包括:SVM、Logistic Regression、adaboostM1,、KNN、PosKNN和Attribute WKNN。
8.如权利要求6所述的用户退课行为预测装置,其特征在于,所述集成学习模块包括::
S21,赋予所述训练集中的每个样本同样大小的初始权重值,权重向量记为D;
S22,选择部分弱分类器分别对所述训练集进行训练,并计算弱分类器的分类错误率并选择所述分类错误率最低对应的所述弱分类器存储,其中,所述分类错误率是未被正确分类的样本数目占所有数目的比例;
S23,调整所述每个样本的权重值,并在同一个训练集上再次训练,并找到分类错误率最低对应的所述弱分类器存储并记录训练次数t;
S24,当t小于T时,重复执行所述步骤S22和S23,直到t等于T,固定次数为T次,其中,T为正整数,赋予每一个存储的弱分类器一个权重值α,所述弱分类器的错误率为ε,预设阈值为p,将所述权重值α大于p对应的弱分类器加权投票,得到最终的强分类器和所述强分类器的权重和参数,其中,p在0至1之间。
9.如权利要求8所述的用户退课行为预测装置,其特征在于,所述权重值的调整原则为:加大/减小被上次存储的分类器分类错误/正确的样本的权重值,并再次找到错误率最低的那个分类器存储起来。
10.如权利要求8所述的用户退课行为预测装置,其特征在于,所述训练集为(x1,y1),...,(xN,yN),其中,yi∈{1,-1},xi为正确的类别标签,所述训练集的样本的初始分布为其中,i=1,...,N,计算弱分类器ht:X→{-1,1},对t=1,...,T,其中,T为循环次数,所述弱分类器在分布Dt上的误差为:计算所述弱分类器的权重:更新所述训练集的样本的分布:其中Zt为归一化常数,如果αt<P,更新:αt=0,最后的强分类器为:
CN201610292389.0A 2016-05-05 2016-05-05 用户退课行为预测方法及装置 Pending CN105930875A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610292389.0A CN105930875A (zh) 2016-05-05 2016-05-05 用户退课行为预测方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610292389.0A CN105930875A (zh) 2016-05-05 2016-05-05 用户退课行为预测方法及装置

Publications (1)

Publication Number Publication Date
CN105930875A true CN105930875A (zh) 2016-09-07

Family

ID=56835153

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610292389.0A Pending CN105930875A (zh) 2016-05-05 2016-05-05 用户退课行为预测方法及装置

Country Status (1)

Country Link
CN (1) CN105930875A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108510000A (zh) * 2018-03-30 2018-09-07 北京工商大学 复杂场景下行人细粒度属性的检测与识别方法
CN108874959A (zh) * 2018-06-06 2018-11-23 电子科技大学 一种基于大数据技术的用户动态兴趣模型建立方法
CN109636443A (zh) * 2018-11-17 2019-04-16 南京中数媒介研究有限公司 客户流失预测的深度学习方法及装置
CN109993339A (zh) * 2017-12-29 2019-07-09 上海诺悦智能科技有限公司 一种出国金融业务潜在用户的预测方法
CN112734105A (zh) * 2021-01-08 2021-04-30 浙江工业大学 一种预防在线教育中辍学行为的方法
CN114626618A (zh) * 2022-03-17 2022-06-14 南开大学 基于自注意力机制的学生退课行为可解释预测方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109993339A (zh) * 2017-12-29 2019-07-09 上海诺悦智能科技有限公司 一种出国金融业务潜在用户的预测方法
CN108510000A (zh) * 2018-03-30 2018-09-07 北京工商大学 复杂场景下行人细粒度属性的检测与识别方法
CN108510000B (zh) * 2018-03-30 2021-06-15 北京工商大学 复杂场景下行人细粒度属性的检测与识别方法
CN108874959A (zh) * 2018-06-06 2018-11-23 电子科技大学 一种基于大数据技术的用户动态兴趣模型建立方法
CN109636443A (zh) * 2018-11-17 2019-04-16 南京中数媒介研究有限公司 客户流失预测的深度学习方法及装置
CN112734105A (zh) * 2021-01-08 2021-04-30 浙江工业大学 一种预防在线教育中辍学行为的方法
CN114626618A (zh) * 2022-03-17 2022-06-14 南开大学 基于自注意力机制的学生退课行为可解释预测方法
CN114626618B (zh) * 2022-03-17 2024-08-20 南开大学 基于自注意力机制的学生退课行为可解释预测方法

Similar Documents

Publication Publication Date Title
CN105930875A (zh) 用户退课行为预测方法及装置
CN105589806B (zh) 一种基于SMOTE+Boosting算法的软件缺陷倾向预测方法
Zhang et al. Categorizing and mining concept drifting data streams
CN109492765A (zh) 一种基于迁移模型的图像增量学习方法
Lin et al. Machine learning templates for QCD factorization in the search for physics beyond the standard model
CN106980877A (zh) 一种基于粒子群算法优化支持向量机的爆破振动预测方法
Shi et al. Multi-label ensemble learning
CN103605711B (zh) 支持向量机分类器的构造方法及装置、分类方法及装置
CN103631758A (zh) 一种改进和声搜索算法求解非线性规划及绝对值方程的方法
Yue et al. Effective, efficient and robust neural architecture search
Dole et al. A decision support system for predicting student performance
Dewantoro et al. A decision support system for undergraduate students admissions using educational data mining
CN104537108A (zh) 一种高维数据特征选择方法
Rokach et al. Selective voting—getting more for less in sensor fusion
Kumar et al. Review of gene subset selection using modified k-nearest neighbor clustering algorithm
CN113761193A (zh) 日志分类方法、装置、计算机设备和存储介质
CN105354644A (zh) 一种基于集成经验模态分解和1-范数支持向量机分位数回归的金融时间序列预测方法
Bandyopadhyay et al. Automated label generation for time series classification with representation learning: Reduction of label cost for training
Yamada et al. Weight Features for Predicting Future Model Performance of Deep Neural Networks.
CN107403391A (zh) 一种用于油田开发预安排项目的优化筛选方法
Subarkah et al. Comparison of Different Classification Techniques to Predict Student Graduation
Serramazza et al. Evaluating explanation methods for multivariate time series classification
CN107220490A (zh) 水文序列均值跳跃变异的识别与分级方法
Gao et al. CILIATE: Towards fairer class-based incremental learning by dataset and training refinement
Peng et al. Cross-validation and ensemble analyses on multiple-criteria linear programming classification for credit cardholder behavior

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20160907