CN109711424A - 一种基于决策树的行为规则获取方法、装置及设备 - Google Patents
一种基于决策树的行为规则获取方法、装置及设备 Download PDFInfo
- Publication number
- CN109711424A CN109711424A CN201811341746.3A CN201811341746A CN109711424A CN 109711424 A CN109711424 A CN 109711424A CN 201811341746 A CN201811341746 A CN 201811341746A CN 109711424 A CN109711424 A CN 109711424A
- Authority
- CN
- China
- Prior art keywords
- characteristic information
- decision
- training
- decision tree
- tree
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003066 decision tree Methods 0.000 title claims abstract description 196
- 238000000034 method Methods 0.000 title claims abstract description 91
- 238000012549 training Methods 0.000 claims abstract description 225
- 238000012360 testing method Methods 0.000 claims abstract description 115
- 230000008569 process Effects 0.000 claims abstract description 56
- 239000003550 marker Substances 0.000 claims abstract description 41
- 230000006399 behavior Effects 0.000 claims description 119
- 238000012545 processing Methods 0.000 claims description 26
- 238000013138 pruning Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 11
- 238000012216 screening Methods 0.000 claims description 10
- 238000000605 extraction Methods 0.000 claims description 7
- 238000001914 filtration Methods 0.000 claims description 4
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 230000008901 benefit Effects 0.000 description 6
- 230000009471 action Effects 0.000 description 4
- 230000003862 health status Effects 0.000 description 4
- 238000009966 trimming Methods 0.000 description 4
- 239000003795 chemical substances by application Substances 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 239000012141 concentrate Substances 0.000 description 2
- 238000005194 fractionation Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请属于人工智能领域,公开了一种基于决策树的行为规则获取方法、装置及设备,其中方法包括:将收集的测试人员的特征信息和对应的行为标记代码进行拆分,拆分成两组分别作为训练集和测试集,并根据训练集生成与测试人员所属的领域相同的初级决策树,然后再利用训练集对初级决策树进行训练,每完成一次训练,就将训练过程中训练集的所有不吻合特征信息筛选出来,并从测试集中随机等量的特征信息来进行替换,利用替换后的训练集再次对初级决策树进行训练,并迭代这个过程直至得到的不吻合特征信息的数量为0。这样,即使训练集和测试集的数量相对较少,也能够得到精准的最终决策树模型,使得根据最终决策树模型得到的每个行为规则更精准。
Description
技术领域
本申请涉及人工智能技术领域,特别是涉及一种基于决策树的行为规则获取方法、装置及设备。
背景技术
各行各业的人的行为都有一定的行为规则,一些公司为了能够更加准确的了解客户的需求,需要对公司客户的行为规则进行研究。
目前,根据人的行为形成的规则的提取,通常采用决策树来进行处理。决策树方法人们把决策问题的自然状态或条件出现的概率、行动方案、益损值、预测结果等,用一个树状图表示出来,并利用该图反映出人们思考、预测、决策的全过程。决策树是一种从无次序、无规则的样本数据集中推理出决策树表示形式的分类规则方法。它采用自顶向下的递归方式,在决策树的内部节点进行属性值的比较并根据不同的属性值判断从该节点向下的分支,在决策树的叶节点得到结论。因此从根节点到叶节点的一条路径就对应着一条规则。整棵决策树就对应着一组表达式规则。
但是,目前训练决策树通常需将样本集随机拆分为训练集和测试集,而模型准确度受样本影响较大,如果训练集中的样本包含的信息少,则会造成模型较大的误差。
发明内容
有鉴于此,本申请提供了一种基于决策树的行为规则获取方法、装置及设备。主要目的在于解决目前训练得到的决策树的准确度受训练样本的影响较大,致使决策树获取的行为规则的误差较大的技术问题。
依据本申请的第一方面,提供了一种基于决策树的行为规则获取方法,所述方法的步骤包括:
将收集的每个测试人员的特征信息和对应的行为标记代码作为样本集;
将所述样本集拆分成训练集和测试集;
根据所述训练集生成初级决策树;
利用所述初级决策树对所述训练集的特征信息进行训练处理,将所述训练集中每个特征信息对应的训练结果与对应的行为标记代码进行比对,将不匹配的训练结果按照对应行为标记代码进行修改,完成对所述初级决策树的训练过程;
将不匹配的训练结果对应的特征信息筛选出来作为不吻合特征信息,利用所述测试集中的特征信息等量替换训练集中不吻合特征信息,利用替换后的训练集对所述初级决策树进行再次训练过程,并重复等量替换和训练过程,直至筛选出来的不吻合特征信息的数量为0,获取每次重复训练后得到的至少一个决策树模型;
从至少一个决策树模型中筛选出一个最终决策树模型;
提取所述最终决策树模型中的各个支路,得到与每个支路一一对应的行为规则。
依据本申请的第二方面,提供了一种基于决策树的行为规则获取装置,所述装置包括:
收集单元,用于将收集的每个测试人员的特征信息和对应的行为标记代码作为样本集;
拆分单元,用于将所述样本集拆分成训练集和测试集;
生成单元,用于根据所述训练集生成初级决策树;
训练单元,用于利用所述初级决策树对所述训练集的特征信息进行训练处理,将所述训练集中每个特征信息对应的训练结果与对应的行为标记代码进行比对,将不匹配的训练结果按照对应行为标记代码进行修改,完成对所述初级决策树的训练过程;
所述训练单元,还用于将不匹配的训练结果对应的特征信息筛选出来作为不吻合特征信息,利用所述测试集中的特征信息等量替换训练集中不吻合特征信息,利用替换后的训练集对所述初级决策树进行再次训练过程,并重复等量替换和训练过程,直至筛选出来的不吻合特征信息的数量为0,获取每次重复训练后得到的至少一个决策树模型;
筛选单元,用于从至少一个决策树模型中筛选出一个最终决策树模型;
规则提取单元,用于提取所述最终决策树模型中的各个支路,得到与每个支路一一对应的行为规则。
依据本申请的第三方面,提供了一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现第一方面所述的基于决策树的行为规则获取方法的步骤。
依据本申请的第四方面,提供了一种计算机存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现第一方面所述的基于决策树的行为规则获取方法的步骤。
借由上述技术方案,本申请提供的一种基于决策树的行为规则获取方法、装置及设备,将收集的测试人员的特征信息和对应的行为标记代码进行拆分,拆分成两组分别作为训练集和测试集,并根据训练集生成与测试人员所属的领域相同的初级决策树,然后再利用训练集对初级决策树进行训练,每完成一次训练,就将训练过程中训练集的所有不吻合特征信息筛选出来,并从测试集中随机等量的特征信息来进行替换,利用替换后的训练集再次对初级决策树进行训练,并迭代这个过程直至得到的不吻合特征信息的数量为0。这样能够使训练集和测试集的特征信息进行充分利用,即使训练集和测试集的数量相对较少,也能够得到精准的最终决策树模型,同时还能有效提高根据最终决策树模型得到的每个行为规则的准确率。
上述说明仅是本申请技术方案的概述,为了能够更清楚了解本申请的技术手段,而可依照说明书的内容予以实施,并且为了让本申请的上述和其它目的、特征和优点能够更明显易懂,以下特举本申请的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本申请的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1为本申请的基于决策树的行为规则获取方法的一个实施例的流程图;
图2为本申请的基于决策树的行为规则获取装置的一个实施例的结构框图;
图3为本申请的计算机设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
本申请实施例提供了一种基于决策树的行为规则获取方法,将训练集中经过训练得到的不吻合特征信息利用测试集进行等量替换,然后再利用替换后的训练集进行再次训练,这样迭代这个过程,得到最终决策树模型更加精确,有效提高根据最终决策树模型得到的每个行为规则的准确率。
如图1所示,本申请实施例提供了一种基于决策树的行为规则获取方法,步骤包括:
步骤101,将收集的每个测试人员的特征信息和对应的行为标记代码作为样本集。
步骤102,将样本集拆分成训练集和测试集。
在上述步骤中,当某公司(例如,银行、保险公司、金融理财公司、房地产公司、软件开发公司等)想要对客户的行为规则进行研究,分析出客户的需求,并根据客户的需求制定一些发展计划时。需要收集公司客户(即,测试人员)的特征信息,以及对应的行为标记代码,并将客户姓名、特征信息和行为标记代码进行关联,并列表存储。
其中,特征信息包括:心理状态、健康状态、消费习惯、兴趣偏好、购买产品,以及得到的收益值和损失值。
行为标记代码,是根据每个测试人员的行为得出的行为结论,并将该结论利用代码的形式表示出来。例如,行为结论是高风险大额投保客户对应的行为标记代码为4,低风险大额投保客户对应的行为标记代码为3,高风险小额投保客户对应的行为标记代码为2,低风险小额投保客户对应的行为标记代码为1。
另外,测试人员还可以是公司的员工,对应的特征信息包括:教育水平、工资收入、工作岗位、性别、年龄以及对当前岗位的满意度和不满意度(与收益值和损失值等价)等,对应的行为标记代码为:是绩优员工为1,非绩优员工为0。特征信息的选取内容以及行为标记代码的数值可以根据实际情况进行相应调整。
步骤103,根据训练集生成初级决策树。
在该步骤中,需要预先生成一个与训练集领域相关的初级决策树,这样就可以利用该初级决策树对训练集进行训练。
步骤104,利用初级决策树对训练集的特征信息进行训练处理,将训练集中每个特征信息对应的训练结果与对应的行为标记代码进行比对,将不匹配的训练结果按照对应行为标记代码进行修改,完成对初级决策树的训练过程。
在该步骤中,将训练集中的特征信息输入初级决策树模型,每个特征信息中包含多个数据,需要将各个数据按照初级决策树的各个节点的特点进行输入,经过初级决策树的处理之后,就会在初级决策树最后一个节点中输出该特征信息对应的行为结果(即,训练结果)。然后与该特征信息对应的行为标记代码进行比对,若二者相同,则将下一个特征信息输入初级决策树模型进行训练,若二者不同,证明该初级决策树的输出的行为结果是错误的,需要对其进行修改,修改为与该特征信息对应的行为标记代码,再将下一个特征信息输入初级决策树模型进行训练,直至训练集中所有的特征信息全部训练完成为止。
步骤105,将不匹配的训练结果对应的特征信息筛选出来作为不吻合特征信息,利用测试集中的特征信息等量替换训练集中不吻合特征信息,利用替换后的训练集对初级决策树进行再次训练过程,并重复等量替换和训练过程,直至筛选出来的不吻合特征信息的数量为0,获取每次重复训练后得到的至少一个决策树模型。
在该步骤中,每次利用训练集完成一次对初级决策树的训练之后,就将训练集在训练过程中的训练结果与对应的行为标记代码不匹配的特征信息筛选出来,作为不吻合特征信息,并从测试集中随机选取等量的特征信息来进行替换这些不吻合特征信息,替换完成后,返回步骤104,不断重复这个过程,直至筛选出来的不吻合特征信息的数量为0。这样迭代的进行替换和训练过程,能够使训练集和测试集的特征信息进行充分利用,即使训练集和测试集的数量相对较少,也能够得到精准的决策树模型。
步骤106,从至少一个决策树模型中筛选出一个最终决策树模型。
在该步骤中,若上述重复训练的次数为P,则得到P个决策树模型,需要从这P个决策树模型中筛选出一个最精准的决策树模型,作为最终决策树模型。
步骤107,提取最终决策树模型中的各个支路,得到与每个支路一一对应的行为规则。
在上述步骤中,每一条支路都是一个行为规则,这样将最终决策树模型中所有支路对应的行为规则逐条整理出来,并进行存储,然后,将这些行为规则推送至显示屏,显示给用户。
例如,测试人员是保险公司的客户,经过上述过程筛选出来的行为规则有:心理状态为消极→健康状态等级为低级→消费习惯为高水平→投保金额大的行为,即:这样的规则路径的人员一般都会投保金额较大,可以为这样的人员推荐保额较大的保险服务。通过这种方式,能够根据获得的行为规则来准确的规划客户的投资种类、保险种类等。
通过上述技术方案,将收集的测试人员的特征信息和对应的行为标记代码进行拆分,拆分成两组分别作为训练集和测试集,并根据训练集生成与测试人员所属的领域相同的初级决策树,然后再利用训练集对初级决策树进行训练,每完成一次训练,就将训练过程中训练集的所有不吻合特征信息筛选出来,并从测试集中随机等量的特征信息来进行替换,利用替换后的训练集再次对初级决策树进行训练,并迭代这个过程直至得到的不吻合特征信息的数量为0。这样能够使训练集和测试集的特征信息进行充分利用,即使训练集和测试集的数量相对较少,也能够得到精准的最终决策树模型,同时还能有效提高根据最终决策树模型得到的每个行为规则的准确率。
步骤103具体包括:
步骤1031,从训练集中随机选取至少一个特征信息作为决策节点。
步骤1032,为该决策节点随机选取除决策节点对应的特征信息之外的至少一个特征信息,作为决策节点的状态节点。
步骤1033,将状态节点上特征信息能够出现的至少一种行为状态作为该状态节点的概率枝。
在该步骤中,概率枝上的行为状态是指用户根据状态节点对应的特征信息,结合自己的实际生活经验,得出的该特征信息可能对应的一种或多种行为状态(例如,消费水平的高低、寿命的长短等等)。
例如,状态节点对应的特征信息为用户平时每年消费20023.5元,根据生活经验该用户可能是高消费用户、或中等消费用户、或低等消费用户,则对应的概率枝有三个,分别为高消费用户、中等消费用户、低等消费用户。
步骤1034,将决策节点作为根节点、状态节点作为分支节点、概率枝作为叶节点,生成树状图。
步骤1035,对树状图进行剪枝处理得到初级决策树。
在上述技术方案中,用户可以根据实际情况选取相应的决策节点,如果该决策节点有一个则可以对应生成一棵树,如果决策点有多个则对应生成多棵树,对应的树状图就是由多棵树组成。
由于树状图中有些概率枝或状态节点是无用的,因此为了节省树状图的占用空间,以及提高树状图的处理效率,需要将这些无用的概率枝或状态节点剪除,将修剪后的树状图作为初级决策树。
步骤1035具体包括:
步骤10351,从训练集中的特征信息中提取相应的行为状态,其中,特征信息中包括:与每个测试人员相对应的行为状态。
如果测试人员是某保险公司的客户,则行为状态包括:高消费习惯(即,每月消费金额大于两万元),中消费习惯(即,每月消费金额在五千元至两万元之间),低消费习惯(即,每月消费金额低于五千元),超期结算行为,按期结算行为等。
各个测试人员之间的行为状态有的相同有的不同,因此为了后续步骤能够更好的进行,需要从所有行为状态中将各不相同的行为状态筛选出来。
步骤10352,获取每个概率枝对应的行为状态,并从训练集的行为状态中进行搜寻。
步骤10353,将搜索结果为空的概率枝剪掉,得到初级决策树。
在上述步骤中,每个概率枝的行为状态可以相同也可以不同,将相同行为状态的概率枝组合在一起,并按照行为状态的名称从上述步骤10351中得到的训练集的各不相同的行为状态名称中,进行搜寻,如果某一个或者某一组概率枝的行为状态在训练集中没有搜寻到,证明该概率枝无用,需要将其剪掉。
然后,修剪完概率枝之后,若某个状态节点上的概率枝全部被剪掉了,证明该状态节点也是无用的,不能输出任何结果,因此将没有概率枝的状态节点也修剪掉。
最后,将修剪完的树状图作为初级决策树,这样得到的初级决策树的占用空间更小,处理速度更快。
步骤10354,将训练集中相同的行为状态归结为一类,为训练集的行为状态进行类别划分,并按照行为状态的类别为训练集的特征信息进行分类。
在该步骤中,按照训练集中各个行为状态的名称进行分类,并利用行为状态的名称为各个类别命名,例如,行为状态名称包括:高消费习惯、中消费习惯、低消费习惯、超期结算行为、按期结算行为,则对应的类别包括:高消费习惯类、中消费习惯类、低消费习惯类、超期结算行为类、按期结算行为类。
然后,将各个类别的行为状态与相应的特征信息进行关联,这样特征信息也就归到对应行为状态的类别中了。
最后,将行为状态以及相应的特征信息按照类别,存储在数据库中。
步骤10355,将每个概率枝的行为状态的类别作为概率枝类别。
在该步骤中,提取每个概率枝的行为状态,并按照概率枝行为状态的名称查找相应的类别。例如,某概率枝的行为状态为高消费习惯,则将高消费习惯类最为该概率枝的概率枝类别。
步骤10356,从每个概率枝类别对应的至少一个特征信息中,提取收益值 {S1,S2,…,SA}和损失值{Z1,Z2,…,ZB},其中,特征信息中还包括:每个测试人员进行投资的收益值和损失值,A为概率枝类别中收益值的数量,B 为概率枝类别中损失值的数量,A+B=训练集中对应概率枝类别的行为状态的总数。
步骤10357,计算各个概率枝的收益平均值(S1+S2+…+SA)/A、收益概率损失平均值(Z1+Z2+…+ZB)/B和损失概率
步骤10358,根据公式:收益平均值*收益概率-损失平均值*损失概率,计算各个概率枝的收益期望值。
步骤10359,将初级决策树中收益期望值小于预定期望值的概率枝剪掉,对初级决策树进行剪枝处理,得到剪枝后的初级决策树。
其中,预定期望值为有经验的人员根据实际情况进行设定,具体数值可以调整。
则步骤104中,利用初级决策树对训练集的特征信息进行训练处理,具体包括:利用剪枝后的初级决策树对训练集的特征信息进行训练处理。
在上述技术方案中,从数据库中调取概率枝类别对应的所有行为状态对应的特征信息,并计算该概率枝类别中行为状态的总数,从这些特征信息中提取测试人员投资的A个收益值和B个损失值。将各个概率枝类别对应的收益值和损失值存储在临时存储库中,方便直接调用,来计算收益平均值、收益概率、损失平均值、损失概率以及收益期望值,并将收益期望值标注在对应的概率枝上,便于根据概率枝的收益期望值,确定是否将其进行修剪。
修剪完概率枝之后,若某个状态节点上的概率枝全部被剪掉了,证明该状态节点也是无用的,不能输出任何结果,因此将没有概率枝的状态节点也修剪掉。进而完成再次修剪的过程,然后利用修剪后的初级决策树进行后续的训练和测试过程。
步骤106具体包括:
步骤1061,将测试集的特征信息输入每个决策树模型进行测试处理,得到与每个决策树模型对应的测试结果。
步骤1062,将每个决策树模型对应的测试结果与测试集中对应的行为标记代码进行比对。
步骤1063,计算测试集中匹配的测试结果的数量占测试集总数量的匹配概率,并将每个决策树模型和相应的匹配概率进行关联。
步骤1064,将最大匹配概率对应的决策树模型作为最终决策树模型。
在上述技术方案中,如果得到的决策树模型有Q个,需要从这Q个决策树模型中提取一个准确度最高的决策树模型作为最终决策树模型。而确定决策树模型的准确度的方式,就是利用测试集对每一个决策树模型进行测试,得到与每一个决策树模型相应的匹配概率(即,决策树模型的准确率)。最大匹配概率对应的决策树模型即是准确度最高的决策树模型,根据这个决策树模型得到的行为规则最准确。
另外,还可以将测试集作为训练集,将训练集作为测试集,利用测试集对得到的最终决策树模型进行进一步的训练,训练过程与上述步骤104和步骤 105同理。得到更加精确的多个最终决策树模型,并利用训练集对多个最终决策树模型进行测试,测试过程与上述步骤1061-1064同理,筛选出一个准确度更高的决策树模型。
在步骤1061之前还包括:
步骤1061’,获取训练集的特征信息的总数M,以及每个决策树模型在训练过程中得到的所有不吻合特征信息的数量N。
步骤1062’,计算每个决策树模型在训练过程中得到的所有不吻合特征信息占训练集的比例值N/M。
步骤1063’,将所述比例值小于等于预定比例值的的决策树模型筛选出来。
则步骤1061具体包括:将所述测试集的特征信息输入每个筛选出来的决策树模型进行测试处理,得到与每个筛选出来的决策树模型对应的测试结果。
在上述技术方案中,得到的不吻合特征信息的数量越少,则计算得出的比例值N/M越小,证明该决策树的准确度越高,为了减少测试集测试的时间,将比例值大于预定比例值的决策树模型剔除出去,筛选出比例值小于等于预定比例值的的一个或多个决策树模型。然后再利用测试集对筛选出来一个或多个决策树模型进行测试处理,对筛选出来的决策树模型进行进一步筛选,得到准确度最高的最终决策树模型。
通过上述技术方案,在利用测试集进行测试之前,先对得到的决策树模型进行一次筛选过程,这样能够减少测试时间,有效提高获取最终决策树模型的效率。
另外,也可以直接将最后一次重复训练得到的决策树模型作为最终决策树模型。这样,就无需进行筛选和测试筛选的过程,更加方便快捷的获取最终决策树模型。
步骤102具体包括:
步骤102A,从样本集中筛选预定数量的特征信息和对应的行为标记代码作为训练集,将剩余的特征信息和对应的行为标记代码作为测试集。
或者,
步骤102B,将样本集按照预定比例拆分成训练集和测试集。
在上述技术方案中,可以按照预定数量对训练集和测试集进行筛选拆分,也可以按照预定比例进行拆分。其中,预定数量可以根据选取的样本集的数量或者用户的实际需要进行设定,同样,预定比例也可以根据实际情况进行设定。
另外,还可以通过下述方式对训练集和测试集进行拆分。
先计算样本集的数量与预定数量的比值,如果该比值大于等于预定比值 (例如,3/2),则直接从样本集中筛选预定数量的特征信息和对应的行为标记代码作为训练集,剩余的作为测试集。如果该比值小于预定比值,则按照预定比例将样本集拆分成训练集和测试集。
通过本实施例的上述方案,将训练集中经过训练得到的不吻合特征信息利用测试集进行等量替换,然后再利用替换后的训练集进行再次训练,这样迭代这个过程使训练集和测试集的特征信息进行充分利用,即使训练集和测试集的数量相对较少,也能够得到精准的最终决策树模型,同时还能有效提高根据最终决策树模型得到的每个行为规则的准确率。
在本申请的另一个实施例的基于决策树的行为规则获取方法,包括如下步骤:
一、生成决策树
收集测试人员个人信息的特征信息和标签(即,行为标记代码),特征信息包括:心理状态,健康状态,消费习惯,风险偏好,兴趣偏好,人员行为(例如高消费人员、中消费人员、低消费人员等),投资产品,以及投资产品对应的收益值或损失值等,如果测试人员是某保险公司的保险代理人,则对应标签表示该代理人是否是绩优代理人,例如,用0,1表示测试人员是否绩优(1 为绩优,0为非绩优),将这些特征信息和标签作为样本集。
将样本集随机拆分为训练集和测试集(可以是对半拆分,或者按照一定比例进行拆分),根据训练集的数据生成相应的决策树。
决策树的具体生成过程为:
(1)从训练集中任意选取一个或多个特征信息作为决策节点(即,根节点),并为该决策节点随机选取一个或多个特征信息作为决策节点的各个方案的状态节点(即,分枝节点)来绘制树状图,根据状态节点上特征信息可能出现的一个或多个人员行为作为该状态节点的概率枝(即叶节点),每个概率枝表示一种自然的人员行为状态。
(2)对根据特征信息中的人员行为对训练集进行分类,获取训练集中每类人员行为对应的A个收益值{S1,S2,…,SA}、B个损失值{Z1,Z2,…,ZB},计算每类人员行为的收益平均值(S1+S2+…+SA)/A和收益概率以及损失平均值(Z1+Z2+…+ZB)/B和损失概率将收益平均值、收益概率、损失平均值、损失概率与相应类别的人员行为进行关联,建立对应的损益数据库。
获取状态节点各个概率枝的人员行为,从损益数据库中获取对应的行为的收益平均值、收益概率、损失平均值、损失概率标于概率枝上。
(3)计算各个概率枝的期望值(收益平均值*收益概率+损失平均值*损失概率)并将其标于对应的概率枝上,将期望值小于预定期望值的劣等方案的概率枝剪掉,进而生成相应的决策树。
上述生成的决策树还不够精确,需要利用训练集和测试集对其进行进一步训练和测试才可。
二、训练和测试决策树
(1)将训练集中的特征信息输入决策树,利用决策树对特征信息进行预测处理,得到相应的处理结果。
(2)将处理结果与训练集中存储的该特征信息的标签进行对比,若吻合则对应的特征信息为吻合的特征信息,反之为不吻合的特征信息。例如,训练集中第一特征信息的真实的标签是1,但是用决策树去预测该特征信息的标签,得到结果为0,这种情况即为不吻合的特征信息。
(3)根据决策树对训练集中的特征信息的处理结果,获取训练集中不吻合的特征信息N个,对这N个不吻合的特征信息用测试集中随机选择的N个特征信息进行替换。
(4)将替换后的训练集中的特征信息输入决策树,利用决策树对特征信息进行预测处理,若处理结果与对应的特征信息的标签不吻合,修改决策树中该特征信息的输出结果,进而完成对决策树的训练得到一个训练好的决策树。
(5)将测试集中的特征信息输入训练后的决策树,进行测试处理,将测试集中每个特征信息对应的测试结果与测试集中的相应的标签进行对比,计算测试集的测试准确率。
重新获取训练好的决策树对替换后的训练集中的特征信息进行处理后得到的不吻合特征信息,并重复步骤(3)-(5)直至训练集中不存在不吻合的特征信息为止。
每重复一次得到一个训练好的决策树以及该决策树对应的测试准确率,若重复次数为M,则得到M个训练好的决策树和对应M个测试准确率,选取测试准确率最高的决策树作为最终的决策树模型。
三、将最终的决策树模型中包含的各个支路对应的规则路径整理出来。这些规则路径即是测试人员的各种行为规则,根据各种行为规则来对测试人员的各种行为进行研究。
例如,得出的规则路径是人员投保金额大的行为,即:心理状态为消极→健康状态等级为低级→消费习惯为高水平,这样的规则路径的人员一般都会投保金额较大,可以为这样的人员推荐保额较大的保险服务。
通过这种方式,能够根据人员的规则路径来准确的规划人员的投资种类、保险种类等。
上述实施例的方案,能够使训练集和测试集的特征信息进行充分利用,即使训练集和测试集的数量相对较少,也能够得到精准的最终决策树模型,同时还能有效提高根据最终决策树模型得到的每个行为规则的准确率。
进一步的,作为图1方法的具体实现,本申请实施例提供了一种基于决策树的行为规则获取装置,如图2所示,装置包括:收集单元21、拆分单元22、生成单元23、训练单元24、筛选单元25和规则提取单元26。
收集单元21,用于将收集的每个测试人员的特征信息和对应的行为标记代码作为样本集;
拆分单元22,用于将样本集拆分成训练集和测试集;
生成单元23,用于根据训练集生成初级决策树;
训练单元24,用于利用初级决策树对训练集的特征信息进行训练处理,将训练集中每个特征信息对应的训练结果与对应的行为标记代码进行比对,将不匹配的训练结果按照对应行为标记代码进行修改,完成对初级决策树的训练过程;
训练单元24,还用于将不匹配的训练结果对应的特征信息筛选出来作为不吻合特征信息,利用测试集中的特征信息等量替换训练集中不吻合特征信息,利用替换后的训练集对初级决策树进行再次训练过程,并重复等量替换和训练过程,直至筛选出来的不吻合特征信息的数量为0,获取每次重复训练后得到的至少一个决策树模型;
筛选单元25,用于从至少一个决策树模型中筛选出一个最终决策树模型;
规则提取单元26,用于提取最终决策树模型中的各个支路,得到与每个支路一一对应的行为规则。
在具体实施例中,生成单元23具体包括:
选取模块,用于从训练集中随机选取至少一个特征信息作为决策节点;
选取模块,还用于为该决策节点随机选取除决策节点对应的特征信息之外的至少一个特征信息,作为决策节点的状态节点;
概率枝确定模块,用于将状态节点上特征信息能够出现的至少一种行为状态作为该状态节点的概率枝;
生成模块,用于将决策节点作为根节点、状态节点作为分支节点、概率枝作为叶节点,生成树状图;
剪枝模块,用于对树状图进行剪枝处理得到初级决策树。
在具体实施例中,剪枝模块具体包括:
提取模块,用于从训练集中的特征信息中提取相应的行为状态,其中,特征信息中包括:与每个测试人员相对应的行为状态;
搜寻模块,用于获取每个概率枝对应的行为状态,并从训练集的行为状态中进行搜寻;将搜索结果为空的概率枝剪掉,得到初级决策树。
在具体实施例中,剪枝模块还包括:
分类模块,用于将训练集中相同的行为状态归结为一类,为训练集的行为状态进行类别划分,并按照行为状态的类别为训练集的特征信息进行分类;将每个概率枝的行为状态的类别作为概率枝类别;
提取模块,还用于从每个概率枝类别对应的至少一个特征信息中,提取收益值{S1,S2,…,SA}和损失值{Z1,Z2,…,ZB},其中,特征信息中还包括:每个测试人员进行投资的收益值和损失值,A为概率枝类别中收益值的数量,B为概率枝类别中损失值的数量,A+B=训练集中对应概率枝类别的行为状态的总数;
计算模块,用于计算各个概率枝的收益平均值(S1+S2+…+SA)/A、收益概率损失平均值(Z1+Z2+…+ZB)/B和损失概率根据公式:收益平均值*收益概率-损失平均值*损失概率,计算各个概率枝的收益期望值;
初级决策树确定模块,将初级决策树中收益期望值小于预定期望值的概率枝剪掉,对初级决策树进行剪枝处理,得到剪枝后的初级决策树;
则训练单元24中,利用初级决策树对训练集的特征信息进行训练处理,具体包括:利用剪枝后的初级决策树对训练集的特征信息进行训练处理。
在具体实施例中,筛选单元25具体包括:
测试模块,用于将测试集的特征信息输入每个决策树模型进行测试处理,得到与每个决策树模型对应的测试结果;
比对模块,用于将每个决策树模型对应的测试结果与测试集中对应的行为标记代码进行比对;
关联模块,用于计算测试集中匹配的测试结果的数量占测试集总数量的匹配概率,并将每个决策树模型和相应的匹配概率进行关联;
确定模块,将最大匹配概率对应的决策树模型作为最终决策树模型。
在具体实施例中,筛选单元25还包括:
获取模块,用于获取训练集的特征信息的总数M,以及每个决策树模型在训练过程中得到的所有不吻合特征信息的数量N;
比例计算模块,用于计算每个决策树模型在训练过程中得到的所有不吻合特征信息占训练集的比例值N/M;将比例值小于等于预定比例值的的决策树模型筛选出来;
则测试模块,还用于将测试集的特征信息输入每个筛选出来的决策树模型进行测试处理,得到与每个筛选出来的决策树模型对应的测试结果。
在具体实施例中,拆分单元22,还用于从样本集中筛选预定数量的特征信息和对应的行为标记代码作为训练集,将剩余的特征信息和对应的行为标记代码作为测试集;
或者,还用于将样本集按照预定比例拆分成训练集和测试集。
基于上述图1所示方法和图2所示装置的实施例,为了实现上述目的,本申请实施例还提供了一种计算机设备,如图3所示,包括存储器32和处理器 31,其中存储器32和处理器31均设置在总线33上存储器32存储有计算机程序,处理器31执行计算机程序时实现图1所示的基于决策树的行为规则获取方法。
基于这样的理解,本申请的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储器(可以是CD-ROM,U盘,移动硬盘等)中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施场景所述的方法。
可选地,该设备还可以连接用户接口、网络接口、摄像头、射频(Radio Frequency,RF)电路,传感器、音频电路、WI-FI模块等等。用户接口可以包括显示屏(Display)、输入单元比如键盘(Keyboard)等,可选用户接口还可以包括USB接口、读卡器接口等。网络接口可选的可以包括标准的有线接口、无线接口(如蓝牙接口、WI-FI接口)等。
本领域技术人员可以理解,本实施例提供的一种计算机设备的结构并不构成对该实体设备的限定,可以包括更多或更少的部件,或者组合某些部件,或者不同的部件布置。
基于上述如图1所示方法和图2所示装置的实施例,相应的,本申请实施例还提供了一种存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述如图1所示的基于决策树的行为规则获取方法。
存储介质中还可以包括操作系统、网络通信模块。操作系统是管理计算机设备硬件和软件资源的程序,支持信息处理程序以及其它软件和/或程序的运行。网络通信模块用于实现存储介质内部各组件之间的通信,以及与计算机设备中其它硬件和软件之间通信。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到本申请可以借助软件加必要的通用硬件平台的方式来实现,也可以通过硬件实现。
通过应用本申请的技术方案,将收集的测试人员的特征信息和对应的行为标记代码进行拆分,拆分成两组分别作为训练集和测试集,并根据训练集生成与测试人员所属的领域相同的初级决策树,然后再利用训练集对初级决策树进行训练,每完成一次训练,就将训练过程中训练集的所有不吻合特征信息筛选出来,并从测试集中随机等量的特征信息来进行替换,利用替换后的训练集再次对初级决策树进行训练,并迭代这个过程直至得到的不吻合特征信息的数量为0。这样能够使训练集和测试集的特征信息进行充分利用,即使训练集和测试集的数量相对较少,也能够得到精准的最终决策树模型,同时还能有效提高根据最终决策树模型得到的每个行为规则的准确率。
本领域技术人员可以理解附图只是一个优选实施场景的示意图,附图中的模块或流程并不一定是实施本申请所必须的。本领域技术人员可以理解实施场景中的装置中的模块可以按照实施场景描述进行分布于实施场景的装置中,也可以进行相应变化位于不同于本实施场景的一个或多个装置中。上述实施场景的模块可以合并为一个模块,也可以进一步拆分成多个子模块。
上述本申请序号仅仅为了描述,不代表实施场景的优劣。以上公开的仅为本申请的几个具体实施场景,但是,本申请并非局限于此,任何本领域的技术人员能思之的变化都应落入本申请的保护范围。
Claims (10)
1.一种基于决策树的行为规则获取方法,其特征在于,所述方法的步骤包括:
将收集的每个测试人员的特征信息和对应的行为标记代码作为样本集;
将所述样本集拆分成训练集和测试集;
根据所述训练集生成初级决策树;
利用所述初级决策树对所述训练集的特征信息进行训练处理,将所述训练集中每个特征信息对应的训练结果与对应的行为标记代码进行比对,将不匹配的训练结果按照对应行为标记代码进行修改,完成对所述初级决策树的训练过程;
将不匹配的训练结果对应的特征信息筛选出来作为不吻合特征信息,利用所述测试集中的特征信息等量替换训练集中不吻合特征信息,利用替换后的训练集对所述初级决策树进行再次训练过程,并重复等量替换和训练过程,直至筛选出来的不吻合特征信息的数量为0,获取每次重复训练后得到的至少一个决策树模型;
从至少一个决策树模型中筛选出一个最终决策树模型;
提取所述最终决策树模型中的各个支路,得到与每个支路一一对应的行为规则。
2.根据权利要求1所述的行为规则获取方法,其特征在于,所述根据所述训练集生成初级决策树,具体包括:
从所述训练集中随机选取至少一个特征信息作为决策节点;
为该决策节点随机选取除所述决策节点对应的特征信息之外的至少一个特征信息,作为决策节点的状态节点;
将状态节点上特征信息能够出现的至少一种行为状态作为该状态节点的概率枝;
将所述决策节点作为根节点、所述状态节点作为分支节点、所述概率枝作为叶节点,生成树状图;
对所述树状图进行剪枝处理得到初级决策树。
3.根据权利要求2所述的行为规则获取方法,其特征在于,对所述树状图进行剪枝处理得到初级决策树,具体包括:
从所述训练集中的特征信息中提取相应的行为状态,其中,特征信息中包括:与每个测试人员相对应的行为状态;
获取每个概率枝对应的行为状态,并从所述训练集的行为状态中进行搜寻;
将搜索结果为空的概率枝剪掉,得到初级决策树。
4.根据权利要求3所述的行为规则获取方法,其特征在于,所述将搜索结果为空的概率枝剪掉,得到初级决策树之后,所述方法还包括:
将所述训练集中相同的行为状态归结为一类,为训练集的行为状态进行类别划分,并按照行为状态的类别为训练集的特征信息进行分类;
将每个概率枝的行为状态的类别作为概率枝类别;
从每个概率枝类别对应的至少一个特征信息中,提取收益值{S1,S2,…,SA}和损失值{Z1,Z2,…,ZB},其中,特征信息中还包括:每个测试人员进行投资的收益值和损失值,A为概率枝类别中收益值的数量,B为概率枝类别中损失值的数量,A+B=训练集中对应概率枝类别的行为状态的总数;
计算各个概率枝的收益平均值(S1+S2+…+SA)/A、收益概率损失平均值(Z1+Z2+…+ZB)/B和损失概率
根据公式:收益平均值*收益概率-损失平均值*损失概率,计算各个概率枝的收益期望值;
将初级决策树中所述收益期望值小于预定期望值的概率枝剪掉,对所述初级决策树进行剪枝处理,得到剪枝后的初级决策树;
则利用所述初级决策树对所述训练集的特征信息进行训练处理,具体包括:
利用剪枝后的初级决策树对所述训练集的特征信息进行训练处理。
5.根据权利要求1所述的行为规则获取方法,其特征在于,从所述至少一个决策树模型中筛选出一个最终决策树模型,具体包括:
将所述测试集的特征信息输入每个决策树模型进行测试处理,得到与每个决策树模型对应的测试结果;
将每个决策树模型对应的测试结果与测试集中对应的行为标记代码进行比对;
计算所述测试集中匹配的测试结果的数量占所述测试集总数量的匹配概率,并将每个决策树模型和相应的匹配概率进行关联;
将最大匹配概率对应的决策树模型作为最终决策树模型。
6.根据权利要求5所述的行为规则获取方法,其特征在于,在将所述测试集的特征信息输入每个决策树模型进行测试处理,得到与每个决策树模型对应的测试结果之前,所述方法还包括:
获取训练集的特征信息的总数M,以及每个决策树模型在训练过程中得到的所有不吻合特征信息的数量N;
计算每个决策树模型在训练过程中得到的所有不吻合特征信息占训练集的比例值N/M;
将所述比例值小于等于预定比例值的的决策树模型筛选出来;
则将所述测试集的特征信息输入每个决策树模型进行测试处理,得到与每个决策树模型对应的测试结果,具体包括:
将所述测试集的特征信息输入每个筛选出来的决策树模型进行测试处理,得到与每个筛选出来的决策树模型对应的测试结果。
7.根据权利要求1所述的行为规则获取方法,其特征在于,将所述样本集拆分成训练集和测试集,具体包括:
从所述样本集中筛选预定数量的特征信息和对应的行为标记代码作为训练集,将剩余的特征信息和对应的行为标记代码作为测试集;
或者,
将所述样本集按照预定比例拆分成训练集和测试集。
8.一种基于决策树的行为规则获取装置,其特征在于,所述装置包括:
收集单元,用于将收集的每个测试人员的特征信息和对应的行为标记代码作为样本集;
拆分单元,用于将所述样本集拆分成训练集和测试集;
生成单元,用于根据所述训练集生成初级决策树;
训练单元,用于利用所述初级决策树对所述训练集的特征信息进行训练处理,将所述训练集中每个特征信息对应的训练结果与对应的行为标记代码进行比对,将不匹配的训练结果按照对应行为标记代码进行修改,完成对所述初级决策树的训练过程;
所述训练单元,还用于将不匹配的训练结果对应的特征信息筛选出来作为不吻合特征信息,利用所述测试集中的特征信息等量替换训练集中不吻合特征信息,利用替换后的训练集对所述初级决策树进行再次训练过程,并重复等量替换和训练过程,直至筛选出来的不吻合特征信息的数量为0,获取每次重复训练后得到的至少一个决策树模型;
筛选单元,用于从至少一个决策树模型中筛选出一个最终决策树模型;
规则提取单元,用于提取所述最终决策树模型中的各个支路,得到与每个支路一一对应的行为规则。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述的基于决策树的行为规则获取方法的步骤。
10.一种计算机存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的基于决策树的行为规则获取方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811341746.3A CN109711424B (zh) | 2018-11-12 | 2018-11-12 | 一种基于决策树的行为规则获取方法、装置及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811341746.3A CN109711424B (zh) | 2018-11-12 | 2018-11-12 | 一种基于决策树的行为规则获取方法、装置及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109711424A true CN109711424A (zh) | 2019-05-03 |
CN109711424B CN109711424B (zh) | 2023-10-27 |
Family
ID=66254895
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811341746.3A Active CN109711424B (zh) | 2018-11-12 | 2018-11-12 | 一种基于决策树的行为规则获取方法、装置及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109711424B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111242164A (zh) * | 2019-12-27 | 2020-06-05 | 天津幸福生命科技有限公司 | 一种决策结果的确定方法、装置及设备 |
CN111709468A (zh) * | 2020-06-05 | 2020-09-25 | 内蒙古中孚明丰农业科技有限公司 | 一种定向人工智能的训练方法、装置及存储介质 |
CN111914880A (zh) * | 2020-06-18 | 2020-11-10 | 北京百度网讯科技有限公司 | 决策树的生成方法、装置、电子设备及存储介质 |
CN112559900A (zh) * | 2021-02-26 | 2021-03-26 | 深圳索信达数据技术有限公司 | 产品推荐方法、装置、计算机设备和存储介质 |
CN112711755A (zh) * | 2020-12-26 | 2021-04-27 | 重庆扬成大数据科技有限公司 | 科技特派员通过云平台进行信息筛选工作方法 |
CN112819069A (zh) * | 2021-01-29 | 2021-05-18 | 中国农业银行股份有限公司 | 一种事件的定级方法及装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030069652A1 (en) * | 2001-10-05 | 2003-04-10 | Lee Shih-Jong J. | Regulation of hierarchic decisions in intelligent systems |
US20050278322A1 (en) * | 2004-05-28 | 2005-12-15 | Ibm Corporation | System and method for mining time-changing data streams |
US20060218169A1 (en) * | 2005-03-22 | 2006-09-28 | Dan Steinberg | Constrained tree structure method and system |
CN104850862A (zh) * | 2015-05-27 | 2015-08-19 | 广西师范大学 | 一种基于单位代价收益敏感决策树的分类方法 |
CN106096748A (zh) * | 2016-04-28 | 2016-11-09 | 武汉宝钢华中贸易有限公司 | 基于聚类分析和决策树算法的装车工时预测模型 |
CN108304974A (zh) * | 2018-02-26 | 2018-07-20 | 中国民航信息网络股份有限公司 | 一种基于优化C5.0和Apriori的民航NOSHOW预测及强因子分析方法 |
CN108711103A (zh) * | 2018-06-04 | 2018-10-26 | 中国平安人寿保险股份有限公司 | 个人贷款偿还风险预测方法、装置、计算机设备以及介质 |
-
2018
- 2018-11-12 CN CN201811341746.3A patent/CN109711424B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030069652A1 (en) * | 2001-10-05 | 2003-04-10 | Lee Shih-Jong J. | Regulation of hierarchic decisions in intelligent systems |
US20050278322A1 (en) * | 2004-05-28 | 2005-12-15 | Ibm Corporation | System and method for mining time-changing data streams |
US20060218169A1 (en) * | 2005-03-22 | 2006-09-28 | Dan Steinberg | Constrained tree structure method and system |
CN104850862A (zh) * | 2015-05-27 | 2015-08-19 | 广西师范大学 | 一种基于单位代价收益敏感决策树的分类方法 |
CN106096748A (zh) * | 2016-04-28 | 2016-11-09 | 武汉宝钢华中贸易有限公司 | 基于聚类分析和决策树算法的装车工时预测模型 |
CN108304974A (zh) * | 2018-02-26 | 2018-07-20 | 中国民航信息网络股份有限公司 | 一种基于优化C5.0和Apriori的民航NOSHOW预测及强因子分析方法 |
CN108711103A (zh) * | 2018-06-04 | 2018-10-26 | 中国平安人寿保险股份有限公司 | 个人贷款偿还风险预测方法、装置、计算机设备以及介质 |
Non-Patent Citations (2)
Title |
---|
冯少荣 等: "基于样本选取的决策树改进算法", 西南交通大学学报, vol. 44, no. 05, pages 643 - 647 * |
郭景峰 等: "对一种新的决策树建立方法的研究", 计算机科学, vol. 29, no. 06, pages 121 - 129 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111242164A (zh) * | 2019-12-27 | 2020-06-05 | 天津幸福生命科技有限公司 | 一种决策结果的确定方法、装置及设备 |
CN111709468A (zh) * | 2020-06-05 | 2020-09-25 | 内蒙古中孚明丰农业科技有限公司 | 一种定向人工智能的训练方法、装置及存储介质 |
CN111709468B (zh) * | 2020-06-05 | 2021-10-26 | 内蒙古中孚明丰农业科技有限公司 | 一种定向人工智能的训练方法、装置及存储介质 |
CN111914880A (zh) * | 2020-06-18 | 2020-11-10 | 北京百度网讯科技有限公司 | 决策树的生成方法、装置、电子设备及存储介质 |
CN112711755A (zh) * | 2020-12-26 | 2021-04-27 | 重庆扬成大数据科技有限公司 | 科技特派员通过云平台进行信息筛选工作方法 |
CN112819069A (zh) * | 2021-01-29 | 2021-05-18 | 中国农业银行股份有限公司 | 一种事件的定级方法及装置 |
CN112559900A (zh) * | 2021-02-26 | 2021-03-26 | 深圳索信达数据技术有限公司 | 产品推荐方法、装置、计算机设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN109711424B (zh) | 2023-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109711424A (zh) | 一种基于决策树的行为规则获取方法、装置及设备 | |
CN107766929B (zh) | 模型分析方法及装置 | |
CN109409677A (zh) | 企业信用风险评估方法、装置、设备及存储介质 | |
US10521748B2 (en) | Retention risk determiner | |
CN110956273A (zh) | 融合多种机器学习模型的征信评分方法及系统 | |
CN108549954A (zh) | 风险模型训练方法、风险识别方法、装置、设备及介质 | |
CN110516910A (zh) | 基于大数据的保单核保模型训练方法和核保风险评估方法 | |
CN112559900B (zh) | 产品推荐方法、装置、计算机设备和存储介质 | |
CN106156809A (zh) | 用于更新分类模型的方法及装置 | |
CN108877905A (zh) | 一种基于Xgboost框架的医院门诊就诊量预测方法 | |
CN106875206A (zh) | 信息获取、评估、问卷调查方法、装置及服务器 | |
CN108898476A (zh) | 一种贷款客户信用评分方法和装置 | |
CN112418653A (zh) | 一种基于机器学习算法的携号转网潜客识别系统及方法 | |
Chen et al. | Extracting performance rules of suppliers in the manufacturing industry: an empirical study | |
CN108846695A (zh) | 终端更换周期的预测方法及装置 | |
CN109767269A (zh) | 一种游戏数据的处理方法和装置 | |
Umayaparvathi et al. | Attribute selection and customer churn prediction in telecom industry | |
CN111986027A (zh) | 基于人工智能的异常交易处理方法、装置 | |
Rezaee | Using Shapley value in multi-objective data envelopment analysis: power plants evaluation with multiple frontiers | |
CN110147389A (zh) | 帐号处理方法和装置、存储介质及电子装置 | |
CN116205355B (zh) | 电力负荷的预测方法、装置以及存储介质 | |
CN113918806A (zh) | 自动推荐培训课程的方法及相关设备 | |
CN103942604B (zh) | 基于森林区分度模型的预测方法及系统 | |
CN109978074A (zh) | 基于深度多任务学习的图像美感和情感联合分类方法及系统 | |
CN114021425A (zh) | 电力系统运行数据建模与特征选择方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |