CN109783464B - 一种基于Spark平台的频繁项集挖掘方法 - Google Patents
一种基于Spark平台的频繁项集挖掘方法 Download PDFInfo
- Publication number
- CN109783464B CN109783464B CN201811570307.XA CN201811570307A CN109783464B CN 109783464 B CN109783464 B CN 109783464B CN 201811570307 A CN201811570307 A CN 201811570307A CN 109783464 B CN109783464 B CN 109783464B
- Authority
- CN
- China
- Prior art keywords
- item
- transaction
- items
- generated
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及一种基于Spark平台的频繁项集挖掘方法,属于数据挖掘技术领域。本发明基于Spark大数据处理框架,提出了一种新颖的BitMapFIM‑Miner算法,并行化处理数据集,且不需要对数据集进行多次扫描,基于分治的思想,对事务长度大于一定阈值的事务进行分割,然后使用位操作的方法分别计算生成频繁项集,最后将各部分得到的频繁项集进行汇总合并。使用位操作的方法加速了频繁项集的挖掘速度,大大提高了算法的执行效率;通过理论分析和实验验证发现对过长的事务进行分割,在保证结果准确的同时可以高效地得到频繁项集,为频繁项集挖掘方法提供了一种新的思路。
Description
技术领域
本发明涉及一种基于Spark平台的频繁项集挖掘方法,属于数据挖掘技术领域。
背景技术
如何在海量数据集中提高频繁项集的挖掘性能是目前研究的热点。传统的Apriori算法和FP-Growth算法及其改进的算法在处理小规模数据时,都表现出一定的优越性。随着大数据时代的来临,单机版的算法已经不能满足数据处理的时间和空间要求,基于Hadoop和Spark云计算平台的分布式算法不断出现,但是都无法完全移除Apriori算法和FP-Growth算法的弊病,Apriori算法存在多次扫描数据库,生成候选项集过多的问题;当数据量过大时,FP-Growth算法递归的抽取条件模式树时也会花费大量时间。为此,许多移植到Hadoop平台上的算法不断涌现,Hadoop相比Spark存在I/O瓶颈问题,频繁地读入读出数据集会消耗大量不必要的时间。综上,无论是基于Apriori的算法还是基于FP-Growth的算法或者是移植到Hadoop平台上的算法,面对海量数据,都存在频繁项集挖掘时间过长、内存消耗过大的问题,都无法满足快速高效挖掘的性能要求。
发明内容
本发明要解决的技术问题是为了克服上述现有技术存在的缺陷而提供一种基于Spark平台的频繁项集挖掘方法。
本发明的技术方案是:一种基于Spark平台的频繁项集挖掘方法,具体步骤为:
(1)将原始数据文件从外部存储介质(本地磁盘,HDFS)读取到内存中,根据事务的总数设定最小支持度阈值;
(2)对全部数据集中的每条事务包含的不同数据项进行计数,过滤掉计数小于最小支持度阈值的数据项,得到频繁1项集,然后剔除掉每条事务中不属于频繁1项集的数据项,并对每一条事务进行编号;
(3)经过步骤(1)、(2)处理过后的数据集,按照事务长度进行划分;
(4)对长度小于某个值的所有事务分别利用位操作函数产生其所有可能的数值型项集;
(5)将长度小于某个值的所有事务分别产生的数值型项集通过解析函数转化为真实的项集;
(6)对长度大于等于某个值的所有事务进行拆分,将拆分后的每条事务的两部分分别使用位操作函数产生数值型项集;
(7)将长度大于等于某个值的所有事务的两部分产生的数值型项集分别转化为真实的项集;
(8)读取步骤(7)中的数据集,对属于同一事务的两部分产生的真实项集进行自然连接运算,交叉产生项集;
(9)合并所有局部产生的频繁项集,得到最终的频繁项集。
所述步骤(1)具体包括以下步骤:
11)创建SparkConf对象,通过该对象来设置程序运行时所需的参数;
12)利用SparkConf对象初始化SparkContext对象,SparkContext对象是应用程序与Spark集群之间通信的接口;
13)利用SparkContext对象将数据集文件从HDFS(分布式文件系统)读到内存中并指定分区数量;
14)根据事务的总条数计算支持度阈值
设I={i1,i2,……,im}是一个由m个数据项构成的集合,T={t1,t2,t3,……,tn}是事务型数据库,每一条事务ti都是由I中不同的项构成的集合,并且满足最小支持度阈值min_sup=ζ*|T|,其中ζ是0到1之间的任意实数,|T|表示数据库中事务的数目。
所述步骤(2)具体包括以下步骤:
21)将每条事务按照空格进行分割,把每个数据项的初始计数设为1;
22)扫描所有数据项,遇到相同的数据项则该数据项的计数加1;
23)过滤掉所有计数值小于最小支持度阈值的数据项,得到频繁1项集;
24)每条事务与频繁1项集做交集,保留频繁1项集中的数据项;
25)对每一条事务编号。
所述步骤(3)具体包括以下步骤:
31)长度小于某个值(根据不同数据集确定)的所有事务划分为一个RDD(弹性分布式数据集,Spark中特有的数据存储结构),长度大于某个值的所有事务划分为另外一个RDD。
所述步骤(4)具体包括以下步骤:
41)计算每条事务的长度;
42)将事务的长度传入位操作函数中,结果返回一系列的数字集合,每个数字表示一个项集。比如1表示“A”,2表示“B”,3表示“AB”。
所述步骤(5)具体包括以下步骤:
51)调用解析函数,将每个用数字表示的项集转换为真实的项集。比如1->“A”,2->“B”,3->“AB”;
52)将真实的项集进行聚合操作。
所述步骤(6)具体包括以下步骤:
61)在所有长度大于等于某个值的事务中获取事务长度最大的事务;
62)获取长度最大的事务中中间位置的数据项;
63)对于所有长度大于等于某个值的事务,以步骤62)获取的数据项为基元素,每一条事务中小于该数据项的数据项划分为一组,大于等于该数据项的数据项划分为另一组;
64)将拆分后事务的第一部分的长度传入位操作函数中,计算生成数值型项集;
65)将拆分后事务的第二部分的长度传入位操作函数中,计算生成数值型项集。
所述步骤(7)具体包括以下步骤:
71)对步骤64)产生的数值型项集,调用解析函数,将每个用数字表示的项集转换为真实的项集;
72)对步骤71)生成的真实项集做聚合操作;
73)对步骤65)产生的数值型项集,调用解析函数,将每个用数字表示的项集转换为真实的项集;
74)对步骤73)生成的真实项集做聚合操作。
所述步骤(8)具体包括以下步骤:
81)将步骤52)、步骤72)、步骤74)生成的项集做并集运算;
82)对步骤81)生成的项集进行聚合,过滤掉计数小于最小支持度阈值的项集;
83)将步骤72)产生的项集与步骤82)产生的项集做交集运算;
84)将步骤74)产生的项集与步骤82)产生的项集做交集运算;
85)将步骤83)产生的项集与步骤84)产生的项集做自然连接运算,产生交叉项集。
所述步骤(9)具体包括以下步骤:
91)聚合步骤85)、步骤81)产生的项集,过滤掉非频繁的项集(支持度计数小于最小支持度阈值),得到最终的频繁项集。
本发明的有益效果是:本发明使用位操作的方法加速了频繁项集的挖掘速度,大大提高了算法的执行效率;通过理论分析和实验验证发现对过长的事务进行分割,在保证结果准确的同时可以高效地得到频繁项集,为频繁项集挖掘方法提供了一种新的思路。
附图说明
图1是本发明Spark工作方式的过程图;
图2是本发明的流程图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明进一步地详细描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
如图1所示,Spark通过分配任务的方式,将海量数据分区并将对海量数据的处理任务分配给各个Worker节点,每个Worker节点会启动相应数量的Executor进程来执行Task任务,最后整合各个Worker节点的计算结果得到最终结果。
如图2所示,针对一种基于Spark的频繁项集挖掘方法,其特征在于,包括以下步骤:
1、将原始数据文件从外部存储介质(本地磁盘,HDFS)读取到内存中,根据事务的总数设定最小支持度阈值。假设表1为原数据集,如下:
表1
设I={i1,i2,……,im}是一个由m个数据项构成的集合,T={t1,t2,t3,……,tn}是事务数据库,每一条事务ti都是由I中不同的项构成的集合,并且满足最小支持度阈值min_sup=ζ*|T|,其中ζ是0到1之间的任意实数,此例中设为0.3,|T|表示数据库中事务的数目,此例中|T|为10,所以最小支持度阈值min_sup=ζ*|T|=0.3*10=3。
2、使用flatmap函数将每条事务按照空格进行分割,使用map函数将每个数据项的初始计数设为1,使用reducebykey函数对相同的数据项进行聚合,结果如表2所示:
表2
数据项 | 支持度计数 |
A | 3 |
B | 4 |
C | 8 |
D | 6 |
E | 6 |
F | 4 |
H | 1 |
K | 3 |
使用filter函数过滤掉支持度计数小于3的数据项,得到频繁1项集,如表3所示:
表3
数据项 | 支持度计数 |
A | 3 |
B | 4 |
C | 8 |
D | 6 |
E | 6 |
F | 4 |
K | 3 |
使用intersection函数剔除掉每条事务中不属于频繁1项集的数据项,使用zipwithindex函数对每一条事务进行编号,如表4所示:
表4
事务 |
(1,AC D E F K) |
(2,D F) |
(3,A C E) |
(4,D E) |
(5,B C D E K) |
(6,B C) |
(7,C D E F) |
(8,B C) |
(9,C D E F K) |
(10,A B C) |
3、使用filter函数按照事务长度(此例中设为5)将数据集划分为两组,事务长度小于5的划分为一组,如表5所示:
表5
事务 |
(2,D F) |
(3,A C E) |
(4,D E) |
(6,B C) |
(7,C D E F) |
(8,B C) |
(10,A B C) |
事务长度大于等于5的划分为另外一组,如表6所示:
表6
事务 |
(1,AC D E F K) |
(5,B C D E K) |
(9,C D E F K) |
4、对长度小于5的所有事务分别利用位操作函数bitmap产生其所有可能的数值型项集,如表7所示:
表7
5、将长度小于5的所有事务分别产生的数值型项集通过解析函数numbertotrue转化为真实的项集,如表8所示:
表8
对真实项集使用aggregatebykey函数做聚合操作,如表9所示:
表9
真实项集 | 支持度计数 |
D | 3 |
F | 2 |
DF | 2 |
A | 2 |
C | 5 |
E | 3 |
AC | 1 |
AE | 1 |
CE | 2 |
ACE | 1 |
DE | 2 |
B | 3 |
BC | 3 |
CD | 1 |
CF | 1 |
EF | 1 |
CDE | 1 |
CDF | 1 |
CEF | 1 |
DEF | 1 |
CDEF | 1 |
AB | 1 |
AC | 1 |
ABC | 1 |
6、在长度大于等于5的所有事务中找到事务长度最长的那一条事务,此例中是事务(1,AC D E F K),找到该条事务中中间位置的数据项,可以是D,也可以是E,此例中选择E,根据字典顺序,排在E前面的属于一组,排在E后面的(包括E)属于另一组,这样就把事务长度大于等于5的事务划分为两部分,两部分之间通过事务号关联,如表10所示:
表10
第一部分 | 第二部分 |
(1,AC D) | (1,E F K) |
(5,B C D) | (5,E K) |
(9,C D) | (9,E F K) |
对第一部分的数据使用位操作函数bitmap产生所有可能的数值型项集,如表11所示:
表11
第一部分 | 项集(每个数字表示一个项集) |
(1,AC D) | (1,1 2 3 4 5 6 7) |
(5,B C D) | (5,1 2 3 4 5 6 7) |
(9,C D) | (9,1 2 3) |
对第二部分的数据使用位操作函数bitmap产生所有可能的数值型项集,如表12所示:
表12
第二部分 | 项集(每个数字表示一个项集) |
(1,E F K) | (1,1 2 3 4 5 6 7) |
(5,E K) | (5,1 2 3) |
(9,E F K) | (9,1 2 3 4 5 6 7) |
7、将步骤6中第一部分产生的数值型项集利用解析函数numbertotrue转变为真实的项集,如表13所示:
表13
项集(每个数字表示一个项集) | 真实项集 |
(1,1 2 3 4 5 6 7) | (1,ACDAC AD CD ACD) |
(5,1 2 3 4 5 6 7) | (5,B C D BC BD CD BCD) |
(9,1 2 3) | (9,CDCD) |
将步骤6中第二部分产生的数值型项集利用解析函数numbertotrue转变为真实的项集,如表14所示:
表14
项集(每个数字表示一个项集) | 真实项集 |
(1,1 2 3 4 5 6 7) | (1,E F K EF EK FK EFK) |
(5,1 2 3) | (5,EKEK) |
(9,1 2 3 4 5 6 7) | (9,E F K EF EK FK EFK) |
8、将步骤7生成的两部分的真实项集(表13表14)与步骤5生成的真实项集(表9)使用union函数做并集运算,然后使用aggregatebykey函数进行聚合,如表15所示:
表15
使用filter函数过滤掉支持度计数小于3的项集,如表16所示:
表16
使用intersection函数将步骤7中第一部分生成的真实项集(表13)与表16中的项集做交集运算,过滤掉步骤7中第一部分生成的真实项集中非频繁的项集(支持度计数小于3),如表17所示:
表17
真实项集 |
(1,ACD CD) |
(5,B C D BC CD) |
(9,CDCD) |
使用intersection函数将步骤7中第二部分生成的真实项集(表14)与表16中的项集做交集运算,过滤掉步骤7中第二部分生成的真实项集中非频繁的项集(支持度计数小于3),如表18所示:
表18
真实项集 |
(1,E F K EF EK) |
(5,EKEK) |
(9,E F K EF EK) |
将表17中的真实项集与表18中的真实项集按照事务号,使用join函数做自然连接运算生成交叉项集,如表19所示:
表19
9、使用aggregatebykey函数聚合表19和表15中的真实项集,如表20所示:
表20
使用filter函数过滤掉支持度计数小于3的项集,得到最终的频繁项集,如表21所示:
表21
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (10)
1.一种基于Spark平台的频繁项集挖掘方法,其特征在于:
(1)将原始数据文件从外部存储介质读取到内存中,根据事务的总数设定最小支持度阈值;
(2)对全部数据集中的每条事务包含的不同数据项进行计数,过滤掉计数小于最小支持度阈值的数据项,得到频繁1项集,然后剔除掉每条事务中不属于频繁1项集的数据项,并对每一条事务进行编号;
(3)经过步骤(1)、(2)处理过后的数据集,按照事务长度进行划分;
(4)对长度小于某个值的所有事务分别利用位操作函数产生其所有可能的数值型项集;
(5)将长度小于某个值的所有事务分别产生的数值型项集通过解析函数转化为真实的项集;
(6)对长度大于等于某个值的所有事务进行拆分,将拆分后的每条事务的两部分分别使用位操作函数产生数值型项集;
(7)将长度大于等于某个值的所有事务的两部分产生的数值型项集分别转化为真实的项集;
(8)读取步骤(7)中的数据集,对属于同一事务的两部分产生的真实项集进行自然连接运算,交叉产生项集;
(9)合并所有局部产生的频繁项集,得到最终的频繁项集。
2.根据权利要求1所述的基于Spark平台的频繁项集挖掘方法,其特征在于:所述步骤(1)具体包括以下步骤:
11)创建SparkConf对象,通过该对象来设置程序运行时所需的参数;
12)利用SparkConf对象初始化SparkContext对象,SparkContext对象是应用程序与Spark集群之间通信的接口;
13)利用SparkContext对象将数据集文件从HDFS读到内存中并指定分区数量;
14)根据事务的总条数计算支持度阈值
设I={i1,i2,……,im}是一个由m个数据项构成的集合,T={t1,t2,t3,……,tn}是事务型数据库,每一条事务ti都是由I中不同的项构成的集合,并且满足ti⊆I;最小支持度阈值min_sup=ζ*|T|,其中ζ是0到1之间的任意实数,|T|表示数据库中事务的数目。
3.根据权利要求1所述的基于Spark平台的频繁项集挖掘方法,其特征在于:所述步骤(2)具体包括以下步骤:
21)将每条事务按照空格进行分割,把每个数据项的初始计数设为1;
22)扫描所有数据项,遇到相同的数据项则该数据项的计数加1;
23)过滤掉所有计数值小于最小支持度阈值的数据项,得到频繁1项集;
24)每条事务与频繁1项集做交集,保留频繁1项集中的数据项;
25)对每一条事务编号。
4.根据权利要求1所述的基于Spark平台的频繁项集挖掘方法,其特征在于:所述步骤(3)具体包括以下步骤:
31)长度小于某个值的所有事务划分为一个RDD,长度大于某个值的所有事务划分为另外一个RDD。
5.根据权利要求1所述的基于Spark平台的频繁项集挖掘方法,其特征在于:所述步骤(4)具体包括以下步骤:
41)计算每条事务的长度;
42)将事务的长度传入位操作函数中,结果返回一系列的数字集合,每个数字表示一个项集。
6.根据权利要求1所述的基于Spark平台的频繁项集挖掘方法,其特征在于:所述步骤(5)具体包括以下步骤:
51)调用解析函数,将每个用数字表示的项集转换为真实的项集;
52)将真实的项集进行聚合操作。
7.根据权利要求6所述的基于Spark平台的频繁项集挖掘方法,其特征在于:所述步骤(6)具体包括以下步骤:
61)在所有长度大于等于某个值的事务中获取事务长度最大的事务;
62)获取长度最大的事务中中间位置的数据项;
63)对于所有长度大于等于某个值的事务,以步骤62)获取的数据项为基元素,每一条事务中小于该数据项的数据项划分为一组,大于等于该数据项的数据项划分为另一组;
64)将拆分后事务的第一部分的长度传入位操作函数中,计算生成数值型项集;
65)将拆分后事务的第二部分的长度传入位操作函数中,计算生成数值型项集。
8.根据权利要求7所述的基于Spark平台的频繁项集挖掘方法,其特征在于:所述步骤(7)具体包括以下步骤:
71)对步骤64)产生的数值型项集,调用解析函数,将每个用数字表示的项集转换为真实的项集;
72)对步骤71)生成的真实项集做聚合操作;
73)对步骤65)产生的数值型项集,调用解析函数,将每个用数字表示的项集转换为真实的项集;
74)对步骤73)生成的真实项集做聚合操作。
9.根据权利要求8所述的基于Spark平台的频繁项集挖掘方法,其特征在于:所述步骤(8)具体包括以下步骤:
81)将步骤52)、步骤72)、步骤74)生成的项集做并集运算;
82)对步骤81)生成的项集进行聚合,过滤掉计数小于最小支持度阈值的项集;
83)将步骤72)产生的项集与步骤82)产生的项集做交集运算;
84)将步骤74)产生的项集与步骤82)产生的项集做交集运算;
85)将步骤83)产生的项集与步骤84)产生的项集做自然连接运算,产生交叉项集。
10.根据权利要求9所述的基于Spark平台的频繁项集挖掘方法,其特征在于:所述步骤(9)具体包括以下步骤:
91)聚合步骤85)、步骤81)产生的项集,过滤掉非频繁的项集,得到最终的频繁项集。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811570307.XA CN109783464B (zh) | 2018-12-21 | 2018-12-21 | 一种基于Spark平台的频繁项集挖掘方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811570307.XA CN109783464B (zh) | 2018-12-21 | 2018-12-21 | 一种基于Spark平台的频繁项集挖掘方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109783464A CN109783464A (zh) | 2019-05-21 |
CN109783464B true CN109783464B (zh) | 2022-11-04 |
Family
ID=66497487
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811570307.XA Active CN109783464B (zh) | 2018-12-21 | 2018-12-21 | 一种基于Spark平台的频繁项集挖掘方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109783464B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102298716B1 (ko) * | 2020-01-15 | 2021-09-06 | 성기운 | 통신 노드, 이의 동작 방법 및 협업 시스템 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110084698A (ko) * | 2010-01-18 | 2011-07-26 | 연세대학교 산학협력단 | 롱 트랜잭션 데이터 스트림을 위한 빈발항목집합 탐색 방법 |
CN103593400A (zh) * | 2013-12-13 | 2014-02-19 | 陕西省气象局 | 一种基于改进Apriori算法的雷电活动数据统计方法 |
CN105740245A (zh) * | 2014-12-08 | 2016-07-06 | 北京邮电大学 | 频繁项集挖掘方法 |
CN107229751A (zh) * | 2017-06-28 | 2017-10-03 | 济南大学 | 一种面向流式数据的并行增量式关联规则挖掘方法 |
KR20180007248A (ko) * | 2016-07-12 | 2018-01-22 | 세종대학교산학협력단 | 다양한 아이템 중요도를 가지는 불확실 데이터로부터 빈발한 아이템셋을 마이닝하기 위한 방법 및 이를 수행하는 불확실 가중화 빈발 아이템 마이닝 장치 |
CN108509531A (zh) * | 2018-03-15 | 2018-09-07 | 昆明理工大学 | 一种基于Spark平台的不确定数据集频繁项挖掘方法 |
CN108520027A (zh) * | 2018-03-20 | 2018-09-11 | 大连理工大学 | 一种基于cuda框架的gpu加速的频繁项集挖掘算法 |
-
2018
- 2018-12-21 CN CN201811570307.XA patent/CN109783464B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110084698A (ko) * | 2010-01-18 | 2011-07-26 | 연세대학교 산학협력단 | 롱 트랜잭션 데이터 스트림을 위한 빈발항목집합 탐색 방법 |
CN103593400A (zh) * | 2013-12-13 | 2014-02-19 | 陕西省气象局 | 一种基于改进Apriori算法的雷电活动数据统计方法 |
CN105740245A (zh) * | 2014-12-08 | 2016-07-06 | 北京邮电大学 | 频繁项集挖掘方法 |
KR20180007248A (ko) * | 2016-07-12 | 2018-01-22 | 세종대학교산학협력단 | 다양한 아이템 중요도를 가지는 불확실 데이터로부터 빈발한 아이템셋을 마이닝하기 위한 방법 및 이를 수행하는 불확실 가중화 빈발 아이템 마이닝 장치 |
CN107229751A (zh) * | 2017-06-28 | 2017-10-03 | 济南大学 | 一种面向流式数据的并行增量式关联规则挖掘方法 |
CN108509531A (zh) * | 2018-03-15 | 2018-09-07 | 昆明理工大学 | 一种基于Spark平台的不确定数据集频繁项挖掘方法 |
CN108520027A (zh) * | 2018-03-20 | 2018-09-11 | 大连理工大学 | 一种基于cuda框架的gpu加速的频繁项集挖掘算法 |
Non-Patent Citations (3)
Title |
---|
一种改进的关联规则挖掘算法研究;刘林东;《广东第二师范学院学报》;20180630;第38卷(第3期);全文 * |
基于位表的关联规则挖掘算法研究;赵官宝;《中国优秀硕士学位论文全文数据库 信息科技辑》;20160115;全文 * |
基于关联规则挖掘Apriori算法的改进;邵文爽;《中国优秀硕士学位论文全文数据库 信息科技辑》;20180715;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN109783464A (zh) | 2019-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107102999B (zh) | 关联分析方法和装置 | |
US10049134B2 (en) | Method and system for processing queries over datasets stored using hierarchical data structures | |
CN104200369B (zh) | 一种确定商品配送范围的方法和装置 | |
CN109241159B (zh) | 一种数据立方体的分区查询方法、系统及终端设备 | |
CN111159184B (zh) | 元数据追溯方法、装置及服务器 | |
CN106325756B (zh) | 一种数据存储、数据计算方法和设备 | |
CN111143578B (zh) | 基于神经网络抽取事件关系的方法、装置和处理器 | |
US20160253366A1 (en) | Analyzing a parallel data stream using a sliding frequent pattern tree | |
US20150032708A1 (en) | Database analysis apparatus and method | |
Xu et al. | Distributed maximal clique computation | |
CN111967521B (zh) | 跨境活跃用户识别方法及装置 | |
US20160070763A1 (en) | Parallel frequent sequential pattern detecting | |
CN109145003B (zh) | 一种构建知识图谱的方法及装置 | |
US11669301B2 (en) | Effectively fusing database tables | |
CN105608135A (zh) | 一种基于Apriori算法的数据挖掘方法及系统 | |
CN111680085A (zh) | 数据处理任务分析方法、装置、电子设备和可读存储介质 | |
CN105205052A (zh) | 一种数据挖掘方法及装置 | |
CN109783464B (zh) | 一种基于Spark平台的频繁项集挖掘方法 | |
CN107577531B (zh) | 负载均衡方法及装置 | |
US20140324861A1 (en) | Block Partitioning For Efficient Record Processing In Parallel Computing Environment | |
CN108334532B (zh) | 一种基于Spark的Eclat并行化方法、系统及装置 | |
CN110888888A (zh) | 人员关系分析方法、装置、电子设备及存储介质 | |
CN110807286A (zh) | 一种结构网格识别方法 | |
CN106776704B (zh) | 统计信息收集方法和装置 | |
CN115033616A (zh) | 一种基于多轮采样的数据筛查规则验证方法及其装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |