CN113095501A - 一种基于深度强化学习的不平衡分类决策树生成方法 - Google Patents
一种基于深度强化学习的不平衡分类决策树生成方法 Download PDFInfo
- Publication number
- CN113095501A CN113095501A CN202110500508.8A CN202110500508A CN113095501A CN 113095501 A CN113095501 A CN 113095501A CN 202110500508 A CN202110500508 A CN 202110500508A CN 113095501 A CN113095501 A CN 113095501A
- Authority
- CN
- China
- Prior art keywords
- decision tree
- decision
- node
- generation process
- score
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003066 decision tree Methods 0.000 title claims abstract description 106
- 238000000034 method Methods 0.000 title claims abstract description 71
- 230000002787 reinforcement Effects 0.000 title claims abstract description 19
- 230000008569 process Effects 0.000 claims abstract description 44
- 230000009471 action Effects 0.000 claims abstract description 35
- 239000013598 vector Substances 0.000 claims abstract description 18
- 238000011156 evaluation Methods 0.000 claims abstract description 17
- 230000006870 function Effects 0.000 claims abstract description 8
- 238000007781 pre-processing Methods 0.000 claims abstract description 4
- 239000003795 chemical substances by application Substances 0.000 claims description 15
- 230000003993 interaction Effects 0.000 claims description 10
- 238000005192 partition Methods 0.000 claims description 8
- 239000011159 matrix material Substances 0.000 claims description 7
- 230000001186 cumulative effect Effects 0.000 claims description 6
- 238000013461 design Methods 0.000 claims description 4
- 230000000877 morphologic effect Effects 0.000 claims description 4
- 230000007613 environmental effect Effects 0.000 claims description 3
- BULVZWIRKLYCBC-UHFFFAOYSA-N phorate Chemical compound CCOP(=S)(OCC)SCSCC BULVZWIRKLYCBC-UHFFFAOYSA-N 0.000 claims description 3
- 239000004576 sand Substances 0.000 claims description 3
- 238000012163 sequencing technique Methods 0.000 claims description 3
- 230000008901 benefit Effects 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 6
- 206010028980 Neoplasm Diseases 0.000 description 3
- 201000011510 cancer Diseases 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 206010000117 Abnormal behaviour Diseases 0.000 description 1
- 238000012952 Resampling Methods 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于深度强化学习的不平衡分类决策树生成方法,包括以下步骤:步骤(1):数据预处理;对数据集D包含特征进行依次编号,同时把数据集归一化到[0,1]区间并且提取每个特征的p分位数;步骤(2):决策树生成过程的状态空间表示;对决策树中的决策节点以及决策树整体进行向量表示;步骤(3):决策树生成过程的动作空间表示;把决策树生成过程中节点位置选择、节点操作选择、划分特征选择以及划分阈值选择对应到马尔可夫决策过程中的动作空间;步骤(4):利用常见的不平衡分类评估指标设计奖励函数;步骤(5):把决策树生成过程建模成标准的马尔可夫决策过程,并运用已有的深度强化学习算法进行求解最优生成策略和决策树结构。
Description
技术领域
本发明属于机器学习领域,涉及一种用于不平衡分类的决策树生成方法,可适用于数据偏斜、特征连续情况下的二分类问题。
背景技术
近十年机器学习算法被广泛应用于实际问题并取得巨大成功。然而,异常检测、疾病诊断和异常行为识别等领域收集的数据通常存在不平衡的问题,这是机器学习算法在实际应用过程中必须要解决的困难之一。更重要的是,少数类样本要比多数类更为重要。例如,在癌症诊断中,健康个体的样本数可以是癌症患者样本的上千倍,但算法的目的是要正确诊断出患有癌症的个体。许多机器学习算法最初提出时并没有考虑数据偏斜的情况,所以这些算法在处理不平衡的分类问题时失效。随着机器学习的发展,解决不平衡分类的算法也陆续提出,总体上可分类两大类:数据层面和算法层面。前者的主要思想是通过不同的重采样技术重新平衡数据的分布,如随机欠采样(RUS),随机过采样(ROS)和SMOTE等。相比之下,后者则通过给不同的类或样本分配权值或代价调整原始算法,减少类别间样本量造成的偏差。
决策树不仅是机器学习领域最为简单的算法之一,并且拥有良好的解释性。通常,决策树模型的构建过程可以被认为是一个贪心算法,即在每一个决策节点都选择局部最优的特征对数据进行划分。经典决策树算法的划分准则是信息增益(Information Gain,IG),它是一种基于样本不纯度的划分方式。但是因为在信息增益的计算中必须要使用样本类别信息的先验概率,这使得基于信息增益的决策树算法在面临数据不平衡的情况时偏向于多数类,从而降低分类性能。为了改进经典决策树算法无法适用于不平衡分类的缺点,两种新的节点划分准则被提出,分别是海林格距离(Hellinger Distance)和类别置信比例(ClassConfidence Proportion,CCP)。海林格距离是F散度的一种,它能够衡量两个分布之间的相似程度。通过使用各个划分的标准化频率代替类别的先验概率,因此海林格距离是一种对数据分布不敏感的衡量方式。类别置信比例是对C4.5决策树算法的一种改进,它用于代替原算法中的置信度。基于上述两种改进划分准则的决策树算法尽管能在数据不平衡的情况下具有优异的性能表现。但是,基于海林格距离的决策树算法通过计算不同类别条件下的误差生成更高纯度的叶子节点,这会导致算法在平衡数据集上效果欠佳。同样地,基于类别置信比例的决策树算法在面临两种划分的信息增益相同时,应用海林格距离做进一步区分,所以该算法也面临同样的问题。
深度强化学习(Deep Reinforcement Learning,DRL)是深度学习与强化学习的结合,主要用于解决序列决策问题,被广泛应用在机器人控制和游戏领域。在强化学习中,问题通常被建模成一个马尔可夫决策过程(Markov Decision Process,MDP),它可以表示为一个五元组(S,A,R,T,γ),其中S和A分别代表状态空间以及动作空间,R是从环境中获得的奖励,T是状态转移概率,γ是折扣率并用于计算智能体未来所能获得的回报。智能体和环境是强化学习中两个重要主体,一个完整的强化学习交互过程可以描述为:智能体在时刻t观测到环境的状态st,然后根据自己的策略选择执行动作at,接下来环境根据概率p=P(st+1|S=st,A=at)转移到下一时刻的状态st+1并反馈給智能体奖励rt。深度强化学习的目的就是通过控制智能体与环境进行一系列的交互从而学习一个最优策略π,最大化智能体获得的总回报。近些年,鉴于深度强化学习强大的学习能力,研究者们逐渐开始把它与不平衡分类问题相结合并取得一系列成果。目前,两者结合的方式主要有两种。第一,把数据样本按顺序排列,然后数据采样的过程被建模成MDP,进而学习出一个最优采样器。第二,把数据样本按顺序排列,直接把分类过程建模成MDP,学习一个最优分类策略。这两种结合的思路都具有两个缺点。首先,当面临海量数据时,MDP决策链将变得非常长,智能体很容易对过去的信息遗忘。其次,每一次训练都必须将样本排列顺序打乱,并且状态的转移概率本质上属于一个均匀分布,即上一时刻状态st转移到下一时刻状态st+1与智能体执行的动作at没有关系。
发明内容
有鉴于此,本发明的目的在于提供一种能同时很好处理平衡数据和不平衡数据的基于深度强化学习的不平衡分类决策树生成方法。
为了达到上述目的,本发明是这样实现的:一种基于深度强化学习的不平衡分类决策树生成方法,其特征在于,包括以下步骤:步骤(1):数据预处理;对数据集D包含特征进行依次编号,同时把数据集归一化到[0,1]区间并且提取每个特征的p分位数;步骤(2):决策树生成过程的状态空间表示;对决策树中的决策节点以及决策树整体进行向量表示;步骤(3):决策树生成过程的动作空间表示;把决策树生成过程中节点位置选择、节点操作选择、划分特征选择以及划分阈值选择对应到马尔可夫决策过程中的动作空间;步骤(4):利用常见的不平衡分类评估指标设计奖励函数;步骤(5):把决策树生成过程建模成标准的马尔可夫决策过程,并运用已有的深度强化学习算法进行求解最优生成策略和决策树结构。
其中,所述步骤(1)中对于任意一个包含m个连续特征的数据集D,把特征依次编码为ID={1,2,3,...,m},在把数据集归一化到[0,1]区间后,提取每个特征的n个分位数,得到一个阈值矩阵K
其中kij表示第j个特征的第i个分位数,0<i<n,0<i<m,通常n=9,即k·j={10%,20%,30%,40%,50%,60%,70%,80%,90%}分位数。
在所述步骤(2)中,针对任意二分类决策树结构,编码时均忽略叶子节点,只对决策节点进行编码。
在所述步骤(2)中,对于一个以第m个特征,阈值k作为划分的决策节点Nodekm,它的向量表示为[IDm,k],向量化的决策树与原始决策树保持相同的结构。
在所述步骤(3)中,在定义决策树生成的动作空间时,需首先给定满二叉决策树的最大节点数N,并对节点按照层次遍历或先序遍历等方式对节点位置进行编号,节点位置选择的动作空间Ap={1,2,...,N},决策节点操作有添加、删除、修改三种方式,得节点操作选择的动作空间Ao={add,delete,update};再根据步骤(1)对特征的编码ID以及阈值矩阵K,划分特征选择和划分阈值选择的动作空间分别为Af={1,2,...,m}以及As={1,2,...,n},最终,决策树生成过程的动作空间A={Ap,Ao,Af,As}。
在所述步骤(4)中,奖励函数的设计依赖于生成过程每一棵中间形态决策树分类结果,假设在时刻t,对应的中间形态决策树Tt,可直接使用Tt对数据集D进行分类,根据分类结果应用F-measure、G-mean等常见的不平衡分类评价指标对Tt的分类性能进行评估,得到评估结果scoret。最后scoret与上一时刻的评估结果相减即可得到当前时刻的奖励rt;将score0设为0.5或则0,当score0=0时,累计奖励则等同于最终决策树模型的评估得分,而score0=0.5相当于给最终决策树模型增加一个基准线,即最终决策树模型相比随机分类性能优异多少,
rt=scoret-scoret-1。
在所述步骤(5)中,决策树的生成过程对应的马尔可夫决策过程可以描述为如下:在某一时刻t,智能体观测到环境中的决策树Tt并根据自身的策略做出动作at=(apt,aot,aft,ast),紧接着环境根据动作at对决策树Tt做出更新;环境对Tt的第apt位置进行aot操作,若aot为添加操作,则在apt位置添加一个以第aft个特征和该特征的第ast个分位数作为划分的节点;若aot为修改操作,则把apt位置的节点的划分特征和阈值修改成第aft个特征和该特征的第ast个分位数;若aot为删除操作,则直接删除apt位置的节点;在更新后,决策树Tt变为Tt+1,并使用Tt+1对数据集D进行分类,同时计算奖励rt;最终环境反馈给智能体决策树Tt+1和奖励rt,交互结束的条件是交互次数达到最大值或则累计奖励收敛不再增长。
有益效果:
本发明提出了一种基于深度强化学习的决策树生成方法。该方法解决了现有决策树算法无法同时很好处理平衡数据和不平衡数据的缺陷。在本发明中,使用者能够根据不同的使用场景选择不同的分类器性能评估指标来设计奖励函数,如在数据相对平衡时选择准确率,在数据不平衡时则选择F-measure等。同时,相比于现有的基于深度强化学习解决不平衡分类的方法,本发明通过把决策树的生成过程建模成马尔可夫决策过程,能够很好地避免马尔可夫决策链过长的问题,决策链的长度可由使用者自定义的最大交互次数决定。
附图说明
图1为实例中的流程框架图。
具体实施方式
下面结合附图对本发明的具体实施方式作进一步详细的说明,但本发明并不局限于这些实施方式,任何在本实施例基本精神上的改进或代替,仍属于本发明权利要求所要求保护的范围。
实施例:如图1所示,本实施例提供一种基于深度强化学习的不平衡分类决策树生成方法,其特征在于,包括以下步骤:
步骤(1):数据预处理;对数据集D包含特征进行依次编号,同时把数据集归一化到[0,1]区间并且提取每个特征的p分位数;
步骤(2):决策树生成过程的状态空间表示;对决策树中的决策节点以及决策树整体进行向量表示;
步骤(3):决策树生成过程的动作空间表示;把决策树生成过程中节点位置选择、节点操作选择、划分特征选择以及划分阈值选择对应到马尔可夫决策过程中的动作空间;
步骤(4):利用常见的不平衡分类评估指标设计奖励函数;
步骤(5):把决策树生成过程建模成标准的马尔可夫决策过程,并运用已有的深度强化学习算法进行求解最优生成策略和决策树结构。
在所述步骤(1)中对于任意一个包含m个连续特征的数据集D,把特征依次编码为ID={1,2,3,...,m},在把数据集归一化到[0,1]区间后,提取每个特征的n个分位数,得到一个阈值矩阵K
其中kij表示第j个特征的第i个分位数,0<i<n,0<i<m,通常n=9,即k·j={10%,20%,30%,40%,50%,60%,70%,80%,90%}分位数。
在所述步骤(2)中,针对任意二分类决策树结构,编码时均忽略叶子节点,只对决策节点进行编码。
在所述步骤(2)中,对于一个以第m个特征,阈值k作为划分的决策节点Nodekm,它的向量表示为[IDm,k],向量化的决策树与原始决策树保持相同的结构。
如图1所示,为了保持决策树的结构信息不变,向量化的决策树与原始决策树保持相同的结构。为此,与图像卷积相类似,在算法实现时可运用基于树的卷积层把整个向量化决策树转化为一维特征向量。
在所述步骤(3)中,在定义决策树生成的动作空间时,需首先给定满二叉决策树的最大节点数N,并对节点按照层次遍历或先序遍历等方式对节点位置进行编号,节点位置选择的动作空间Ap={1,2,...,N},常见的决策节点操作有添加、删除、修改三种方式,易得节点操作选择的动作空间Ao={add,delete,update};再根据步骤(1)对特征的编码ID以及阈值矩阵K,划分特征选择和划分阈值选择的动作空间分别为Af={1,2,...,m}以及As={1,2,...,n},最终,决策树生成过程的动作空间A={Ap,Ao,Af,As}。
在所述步骤(4)中,奖励函数的设计依赖于生成过程每一棵中间形态决策树分类结果,假设在时刻t,对应的中间形态决策树Tt,可直接使用Tt对数据集D进行分类,根据分类结果应用F-measure、G-mean等常见的不平衡分类评价指标对Tt的分类性能进行评估,得到评估结果scoret。最后scoret与上一时刻的评估结果相减即可得到当前时刻的奖励rt;将score0设为0.5或则0,当score0=0时,累计奖励则等同于最终决策树模型的评估得分,而score0=0.5相当于给最终决策树模型增加一个基准线,即最终决策树模型相比随机分类性能优异多少,
rt=scoret-scoret-1。
在所述步骤(5)中,决策树的生成过程对应的马尔可夫决策过程可以描述为如下:在某一时刻t,智能体观测到环境中的决策树Tt并根据自身的策略做出动作at=(apt,aot,aft,ast),紧接着环境根据动作at对决策树Tt做出更新。具体地,环境对Tt的第apt位置进行aot操作,若aot为添加操作,则在apt位置添加一个以第aft个特征和该特征的第ast个分位数作为划分的节点;若aot为修改操作,则把apt位置的节点的划分特征和阈值修改成第aft个特征和该特征的第ast个分位数;若aot为删除操作,则直接删除apt位置的节点;在更新后,决策树Tt变为Tt+1,并使用Tt+1对数据集D进行分类,同时计算奖励rt;最终环境反馈给智能体决策树Tt+1和奖励rt,交互结束的条件是交互次数达到最大值或则累计奖励收敛不再增长。
以下提供一个实例:如图1所示分为以下步骤:
步骤1:初始化
步骤1.1:输入数据集D,最大节点数N,每个特征提取的分位数个数n、探索概率ε、每次采样经验数batch_size、最大迭代次数max-episode以及最大交互次数max_step。
步骤1.2:初始化神经网络Qπ的参数θ,θ-。
步骤1.3:生成阈值矩阵K,设置episode=0。
步骤1.4:初始化一棵节点集合为空的决策树,设置step=0。
步骤2:根据策略π选择动作at。
步骤2.1:生成一个[0,1]之间的随机数α。若α<ε则随机动作at,进入步骤3。若α≥ε则进入步骤2.2。
步骤2.2:把t时刻的决策树Tt作为树卷积层的输入,得到状态向量st。
步骤2.3:状态向量st通过5个不同的全连接层,分别得到状态值V(s)、节点位置选择Advantage向量A(s,ap),节点操作选择Advantage向量A(s,ao),节点位置选择Advantage向量A(s,af),节点位置选择Advantage向量A(s,as)。
步骤2.4:分别计算节点位置选择Q-value向量Q(s,ap),节点操作选择Q-value向量Q(s,ao),节点位置选择Q-value向量Q(s,af),节点位置选择Q-value向量Q(s,as)。
步骤2.5:获得动作at。
步骤3:智能体执行at。
步骤4:环境返回下一时刻的决策树Tt+1和奖励rt。
步骤4.1:环境根据智能体的动作at更新决策树Tt并生成新的决策树Tt+1。
步骤4.2:使用决策树Tt+1对训练数据集D进行分类,得到分类结果Yt。
步骤4.3:利用分类结果Yt和F-measure等合适的指标对决策树Tt+1的性能进行评估并计算奖励rt,同时判断step是否达到max_step,若是,则donet=True,否则donet=False。
步骤4.4:输出决策树Tt+1和奖励rt和结束标志donet。
步骤5:存储经验并更新网络权重。
步骤5.1:把经验元组(Tt,at+1,rt,Tt+1,donet)存储到经验池中。
步骤5.2:从经验池中随机采样batch_size组经验B,并计算损失,更新网络Qπ。
步骤6:结束判断。
步骤6.1:episode累加1。
步骤6.2:判断episode是否达到max_episode。若是,则结束并输出Tt和策略网络Qπ。否则进入步骤6.3。
步骤6.3判断donet=True,若是则重回步骤1.4。
Claims (7)
1.一种基于深度强化学习的不平衡分类决策树生成方法,其特征在于,包括以下步骤:
步骤(1):数据预处理;对数据集D包含特征进行依次编号,同时把数据集归一化到[0,1]区间并且提取每个特征的p分位数;
步骤(2):决策树生成过程的状态空间表示;对决策树中的决策节点以及决策树整体进行向量表示;
步骤(3):决策树生成过程的动作空间表示;把决策树生成过程中节点位置选择、节点操作选择、划分特征选择以及划分阈值选择对应到马尔可夫决策过程中的动作空间;
步骤(4):利用常见的不平衡分类评估指标设计奖励函数;
步骤(5):把决策树生成过程建模成标准的马尔可夫决策过程,并运用已有的深度强化学习算法进行求解最优生成策略和决策树结构。
3.如权利要求2所述的基于深度强化学习的不平衡分类决策树生成方法,其特征在于:在所述步骤(2)中,针对任意二分类决策树结构,编码时均忽略叶子节点,只对决策节点进行编码。
4.如权利要求3所述的基于深度强化学习的不平衡分类决策树生成方法,其特征在于:在所述步骤(2)中,对于一个以第m个特征,阈值k作为划分的决策节点Nodekm,它的向量表示为[IDm,k],向量化的决策树与原始决策树保持相同的结构。
5.如权利要求4所述的基于深度强化学习的不平衡分类决策树生成方法,其特征在于:在所述步骤(3)中,在定义决策树生成的动作空间时,需首先给定满二叉决策树的最大节点数N,并对节点按照层次遍历或先序遍历等方式对节点位置进行编号,节点位置选择的动作空间Ap={1,2,...,N},决策节点操作有添加、删除、修改三种方式,得节点操作选择的动作空间Ao={add,delete,update};再根据步骤(1)对特征的编码ID以及阈值矩阵K,划分特征选择和划分阈值选择的动作空间分别为Af={1,2,...,m}以及As={1,2,...,n},最终,决策树生成过程的动作空间A={Ap,Ao,Af,As}。
6.如权利要求4所述的基于深度强化学习的不平衡分类决策树生成方法,其特征在于:在所述步骤(4)中,奖励函数的设计依赖于生成过程每一棵中间形态决策树分类结果,假设在时刻t,对应的中间形态决策树Tt,可直接使用Tt对数据集D进行分类,根据分类结果应用F-measure、G-mean等常见的不平衡分类评价指标对Tt的分类性能进行评估,得到评估结果scoret。最后scoret与上一时刻的评估结果相减即可得到当前时刻的奖励rt;将score0设为0.5或则0,当score0=0时,累计奖励则等同于最终决策树模型的评估得分,而score0=0.5相当于给最终决策树模型增加一个基准线,即最终决策树模型相比随机分类性能优异多少,
rt=scoret-scoret-1。
7.如权利要求6所述的基于深度强化学习的不平衡分类决策树生成方法,其特征在于:在所述步骤(5)中,决策树的生成过程对应的马尔可夫决策过程可以描述为如下:在某一时刻t,智能体观测到环境中的决策树Tt并根据自身的策略做出动作at=(apt,aot,aft,ast),紧接着环境根据动作at对决策树Tt做出更新;环境对Tt的第apt位置进行aot操作,若aot为添加操作,则在apt位置添加一个以第aft个特征和该特征的第ast个分位数作为划分的节点;若aot为修改操作,则把apt位置的节点的划分特征和阈值修改成第aft个特征和该特征的第ast个分位数;若aot为删除操作,则直接删除apt位置的节点;在更新后,决策树Tt变为Tt+1,并使用Tt+1对数据集D进行分类,同时计算奖励rt;最终环境反馈给智能体决策树Tt+1和奖励rt,交互结束的条件是交互次数达到最大值或则累计奖励收敛不再增长。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110500508.8A CN113095501A (zh) | 2021-05-08 | 2021-05-08 | 一种基于深度强化学习的不平衡分类决策树生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110500508.8A CN113095501A (zh) | 2021-05-08 | 2021-05-08 | 一种基于深度强化学习的不平衡分类决策树生成方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113095501A true CN113095501A (zh) | 2021-07-09 |
Family
ID=76664892
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110500508.8A Pending CN113095501A (zh) | 2021-05-08 | 2021-05-08 | 一种基于深度强化学习的不平衡分类决策树生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113095501A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113744083A (zh) * | 2021-08-27 | 2021-12-03 | 暨南大学 | 一种基于环境不平衡数据的水质预测方法 |
CN114491525A (zh) * | 2021-12-16 | 2022-05-13 | 四川大学 | 基于深度强化学习的安卓恶意软件检测特征提取方法 |
-
2021
- 2021-05-08 CN CN202110500508.8A patent/CN113095501A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113744083A (zh) * | 2021-08-27 | 2021-12-03 | 暨南大学 | 一种基于环境不平衡数据的水质预测方法 |
CN113744083B (zh) * | 2021-08-27 | 2024-04-23 | 暨南大学 | 一种基于环境不平衡数据的水质预测方法 |
CN114491525A (zh) * | 2021-12-16 | 2022-05-13 | 四川大学 | 基于深度强化学习的安卓恶意软件检测特征提取方法 |
CN114491525B (zh) * | 2021-12-16 | 2023-04-07 | 四川大学 | 基于深度强化学习的安卓恶意软件检测特征提取方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110263227B (zh) | 基于图神经网络的团伙发现方法和系统 | |
Kukačka et al. | Regularization for deep learning: A taxonomy | |
Rahman et al. | Discretization of continuous attributes through low frequency numerical values and attribute interdependency | |
CN111814897A (zh) | 一种基于多层次shapelet的时间序列数据分类方法 | |
CN106997474A (zh) | 一种基于深度学习的图节点多标签分类方法 | |
CN114548591B (zh) | 一种基于混合深度学习模型和Stacking的时序数据预测方法及系统 | |
CN117076993A (zh) | 基于云原生的多智能体博弈决策系统及方法 | |
Al Iqbal et al. | Knowledge based decision tree construction with feature importance domain knowledge | |
CN113095501A (zh) | 一种基于深度强化学习的不平衡分类决策树生成方法 | |
CN106874963A (zh) | 一种基于大数据技术的配电网故障诊断方法及系统 | |
CN109409434A (zh) | 基于随机森林的肝脏疾病数据分类规则提取的方法 | |
CN117520954A (zh) | 一种基于孤立森林对抗网络的异常数据重构方法及系统 | |
Aoun et al. | Particle swarm optimisation with population size and acceleration coefficients adaptation using hidden Markov model state classification | |
JP3896868B2 (ja) | パターンの特徴選択方法及び分類方法及び判定方法及びプログラム並びに装置 | |
Farooq | Genetic algorithm technique in hybrid intelligent systems for pattern recognition | |
CN115937568B (zh) | 一种玄武岩构造背景分类方法、系统、装置及存储介质 | |
CN111310857A (zh) | 特征提取方法、电子装置及医疗案例相似度模型构建方法 | |
de Sá et al. | A hyper-heuristic evolutionary algorithm for learning bayesian network classifiers | |
CN115131646A (zh) | 基于离散系数的深度网络模型压缩方法 | |
Bengoetxea et al. | Solving graph matching with EDAs using a permutation-based representation | |
Hassan et al. | Rough neural classifier system | |
Jarraya et al. | Evolutionary multi-objective optimization for evolving hierarchical fuzzy system | |
Galindo et al. | Faster quantum alternative to softmax selection in deep learning and deep reinforcement learning | |
CN110046708A (zh) | 一种基于无监督深度学习算法的信用评分方法 | |
CN115620807B (zh) | 靶点蛋白分子与药物分子之间相互作用强度的预测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210709 |
|
RJ01 | Rejection of invention patent application after publication |