CN106204293B - 一种基于Hadoop平台的社区发现算法 - Google Patents
一种基于Hadoop平台的社区发现算法 Download PDFInfo
- Publication number
- CN106204293B CN106204293B CN201610501484.7A CN201610501484A CN106204293B CN 106204293 B CN106204293 B CN 106204293B CN 201610501484 A CN201610501484 A CN 201610501484A CN 106204293 B CN106204293 B CN 106204293B
- Authority
- CN
- China
- Prior art keywords
- node
- data
- value
- key
- community
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000013467 fragmentation Methods 0.000 claims abstract description 4
- 238000006062 fragmentation reaction Methods 0.000 claims abstract description 4
- 238000000034 method Methods 0.000 claims description 44
- 230000003068 static effect Effects 0.000 claims description 7
- 239000003638 chemical reducing agent Substances 0.000 claims description 6
- 230000011218 segmentation Effects 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000012986 modification Methods 0.000 claims description 4
- 230000004048 modification Effects 0.000 claims description 4
- 206010023230 Joint stiffness Diseases 0.000 claims description 2
- 238000013500 data storage Methods 0.000 claims description 2
- 239000012634 fragment Substances 0.000 claims description 2
- 238000012544 monitoring process Methods 0.000 claims description 2
- 238000012163 sequencing technique Methods 0.000 claims description 2
- 238000009412 basement excavation Methods 0.000 abstract description 4
- 235000005156 Brassica carinata Nutrition 0.000 description 4
- 244000257790 Brassica carinata Species 0.000 description 4
- 238000005192 partition Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000003012 network analysis Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/01—Social networking
Landscapes
- Business, Economics & Management (AREA)
- Engineering & Computer Science (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Tourism & Hospitality (AREA)
- Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种基于Hadoop平台的社区发现算法,在MapReduce架构下实现,包括四个步骤:①读入社会网络数据,构建无向图G,通过数据分片得到节点n、相关节点个数D;②计算每两个节点之间的紧密度,并将处理后的数据写出到文件;③分割数据行为边和紧密度,完成节点集,将数据以(节点,节点集编号)的形式存储在数据结构Hashtable中;④根据步骤三的数据,找出未加入节点集的节点,将其划入与其有联系的相关节点所在节点集中。本发明显著提高了算法的数据处理能力,将运算规模提高到上亿次,大幅提高了对大规模社交网络的挖掘和分析能力,实时性高;本发明基于全网络进行分析和搜索,采用从社区核心向外逐渐扩散的挖掘方式,提高了社区算法的效率,准确度高。
Description
技术领域
本发明涉及社区发现算法,具体涉及一种基于Hadoop平台的社区发现算法。
背景技术
社区是指网络中满足同一类型的节点及这些节点之间的连接构成的子图。在网络中自动搜寻或发现社区具有重要的实用价值,如:社会网络中的社区代表有共同兴趣或相似背景的真实社会团体;引文网络中的社区代表针对同一方向的相关论文;万维网中的社区就是讨论相关主题的若干网站;生物化学网络或者电子电路网络中的社区则是某一类功能单元;音乐论坛中的社区可以是喜好相近的一些用户发起的若干主题,或者兴趣取向相近的用户组成的用户群等等。揭示和发现网络中的社区结构,对了解网络结构与分析网络特性十分重要,有助于更加有效地理解和开发这些网络。
社区发现是网络分析的一种重要方法,可以发现网络中内部联系紧密的社区。随着对网络性质的物理意义和数学特性的深入研究,大量实证研究表明,许多网络是异构的,即网络不是由一大批性质完全相同的节点随机地连接在一起,而是许多类型节点的组合,相同类型的节点之间存在的连接较多,不同类型节点之间存在的连接相对较少。因此,社区发现是进行传播分析之前必须要做的基础工作,是当前社交网络研究和应用领域的前沿技术。当前社区发现算法有很多,但是没有能够适应分布式系统上运行的社区发现算法,如果在分布式系统下能够运行社区发现算法,可以提高社区发现的实时性。
发明内容
为解决现有技术存在的上述问题,本发明的目的在于提供一种基于Hadoop平台的社区发现算法,显著增强了算法的数据处理能力,提高运算速度。
为实现上述目的,本发明所采用的技术方案为:
一种基于Hadoop平台的社区发现算法,所述社区发现算法在hadoop平台的MapReduce架构下实现,包括以下四个步骤:
步骤一:读入社会网络数据,根据网络中成员的关系,构建一个相互连接的无向图G,将无向图G中的成员用节点n表示,成员与成员之间的关系用边m表示;在配置有Hadoop环境的计算集群上完成数据分片,数据作为Mapper输入;计算得到节点n、以及与每个节点有关联的相关节点个数D,确定系统中最大相关节点个数Dmax,将节点n、相关节点个数D的数据存储在数据结构Hashtable中;
步骤二:查询步骤一的Hashtable数据,计算每两个节点之间的紧密度,并将紧密度作为key、边作为value使用Context上下文对象写出,修改Compare方法使数据按倒叙排序;Reduce过程中的key为重写的DoubleWritable,value集合里面只包含一条数据,通过迭代,将数据使用上下文对象写出到一个HDFS文件,并再存储一份以边为key、以紧密度为value的Hashtable;
步骤三:以步骤二写出的HDFS文件所在目录为输入目录,分割数据行为边和紧密度两部分,将当前边以静态字符串形式存储在程序中;任意选择一条边作为第一条边,判断边两端的两个节点是否在节点列表,若在节点列表中,则放入当前节点集,将所有与当前节点集合中节点紧密度最大的节点依次加入节点集,直至符合要求的节点被全部找出,结束添加、完成一个节点集;对节点集进行编号,以节点集编号为key、节点为value的形式使用上下文对象Context写出;Reduce过程以节点集编号作为key、节点为value作为输入,将数据以(节点,节点集编号)的形式存储在数据结构Hashtable中;
步骤四:根据步骤三的数据,找出未加入节点集的节点,将其划入与其有联系的相关节点所在节点集中;在Map过程将Hashtable中的社区数据一次性写出;在Reduce过程将Map写出的数据以(节点集编号,节点)的形式写出在HDFS文件上。
进一步地,所述步骤一中,
节点n的具体计算方法为:分片数据输入后,首先编写继承Mapper和Reducer的类,在Mapper类中重写Map方法,Map方法以数据的一行以Text类的形式作为一次输入,使用StringTokenizer分割边关系得到节点n,通过将节点对边的正向和反向都输出一遍的方式用Mapper调用节点上下文对象Context写出数据,将无向图转变为有向图;
相关节点个数的计算方法为:Map调用上下文对象Context写出数据后,经Shuffle过程将节点排序并按照(key,value)集合的形式将数据合并,Reduce通过继承Reducer并实现其Reduce方法后,以一个key、多个values值的形式将数据传入,在一个Key的Reduce过程里面包含其所有的value值,通过迭代value值来得到与这个节点有关联的所有节点所组成的字符串,统计迭代次数,所述迭代次数即为该节点的相关节点个数D;迭代次数最多的节点即为最大相关节点个数Dmax。
进一步地,所述步骤二中,
节点间紧密度的计算方法为:以数据目录作为输入目录,将边分割成节点之后,查询步骤一的Hashtable数据,得到与某个节点的相关节点个数及相关节点列表,然后通过两个节点的相关节点列表和相关节点个数计算出这两者之间的紧密度;
将紧密度作为key、边作为value时,key的数据类型DoubleWritable为重写了Hadoop数据类型DoubleWritable的Compare方法的类。
进一步地,所述步骤三中,
数据分割方法为:以步骤二写出的HDFS文件目录为输入目录,在继承了Mapper类重写了Map方法内每次读入一行,把数据分割为边、与节点联系的紧密度两部分,将当前边以静态字符串形式存储在程序中,以便于监控模块的查询;
节点集完成后,将节点集按照程序的静态变量进行编号;
Reduce过程以节点集编号作为key,节点为value作为输入,此时的value为Map过程中同key的value集合,遍历该节点的集合,将数据以节点,节点集编号的形式存储在Hashtable中。
进一步地,所述步骤一、步骤二、步骤三中,待数据计算、数据存储结束后,将Mapper类、Reducer类、以及Job所需要的参数,调用方法封装成一个运行类。
本发明的有益效果是:
本发明将社区发现算法应用到hadoop平台中,显著提高了算法的数据处理能力,将运算规模提高到上亿次,从而大幅提高了对大规模社交网络的挖掘和分析能力,实时性高。本发明方法使用hadoop平台的MapReduce架构,基于全网络进行分析和搜索,采用从社区核心向外逐渐扩散的挖掘方式,大大提高了社区算法的效率,准确度高。
本发明方法对社区的核心和边界进行了清晰的定义,核心是基于边的邻里互惠度的排序,边界是基于社区的膨胀度变化趋势;核心确定后,就可以将社区划分的工作合理分配给各个Map流程,从而实现并行的社区发现流程。
附图说明
图1为实施例1使用Echart绘制的力导向图;
图2为实施例2使用Echart绘制的力导向图。
具体实施方式
下面通过具体实施例对本发明作进一步详细说明,但实施例不是本发明保护范围的限制。
实施例1
Zachary空手道俱乐部是美国一所空手道俱乐部成员构成的社交网络,是在20世纪70年代初期,Wayne Zarchary耗时两年时间来观察美国一所大学中的空手道俱乐部人员之间的关系,根据他们之间的关系所建立的网络。这所俱乐部由于主管和校长对是否抬高俱乐部的收费问题而发生了矛盾,导致这所俱乐部实际上分裂成了以校长为核心的和以主管为核心的两个小俱乐部。
基于Hadoop平台的社区发现算法,其具体计算过程为:
步骤一:
读入网络数据,构建Zachary空手道俱乐部的无向图G。将无向图G中的成员用节点n表示,成员与成员之间的关系用边m表示;在配置有Hadoop环境的计算集群上完成数据分片,数据作为Mapper输入,表1-1表示Mapper的输入。
表1-1 步骤一 Mapper输入数据
由表1-1看出,系统中共包含34个节点n,78条边m;计算与某节点有关联的相关节点个数D,将节点n、相关节点个数D的数据存储在数据结构Hashtable中,见表1-2。通过表1-2看出,系统中最大相关节点个数Dmax=10。
表1-2 步骤一 Hashtable存储数据
步骤二:查询步骤一的Hashtable数据,计算每两个节点之间的紧密度,并将紧密度作为key、边作为value使用Context上下文对象写出,修改Compare方法使数据按倒叙排序,所述数据如表1-3所示;
表1-3 步骤二 倒叙排序后的数据表
Reduce过程中的key为重写的DoubleWritable,value集合里面只包含一条数据,通过迭代,将数据使用上下文对象写出到HDFS文件,并在存储一份以边为key、以边的紧密度为value的Hashtable,如表1-4所示;
表1-4 步骤二 Hashtable存储数据
步骤三:以步骤二写出的HDFS文件所在目录为输入目录,分割数据行为节点边和强度两部分,将当前边以静态字符串形式存储在程序中;从第一条边开始选择一条边,判断边两端的两个节点是否在节点列表,若在节点列表中,则放入当前节点集,依次将所有与当前节点集合中的节点紧密度最大的节点依次加入节点集,当没有符合要求的节点时,结束添加、完成一个节点集;对节点集编号,以节点集编号为key、节点为value的形式使用上下文对象Context写出;Reduce过程以节点集编号作为key、节点为value作为输入,将数据以(节点,节点集编号)的形式存储在数据结构Hashtable中,如表1-5所示;
表1-5 步骤三 Hashtable存储数据
步骤四:根据步骤三的数据,找出未加入节点集的节点,将其划入与其有联系的相关节点所在节点集中;在Map过程将Hashtable中的社区数据一次性写出;在Reduce过程将Map写出的数据以(节点集编号,节点)的形式写出在HDFS文件上,如表1-6所示。
表1-6 社区划分结果表
经算法划分后,将该社交网络分成了3个社区。其中,节点1为主管,节点33为校长;社区1为主管社区,社区0、为校长社区。
实施例2
本实施例社区是一个极端稀疏网络社区。如图2所示。
基于Hadoop平台的社区发现算法,其具体计算过程为:
步骤一:
读入网络数据,构建该社区的无向图G。将无向图G中的成员用节点n表示,成员与成员之间的关系用边m表示;在配置有Hadoop环境的计算集群上完成数据分片,数据作为Mapper输入,表2-1表示Mapper的输入。
表2-1 步骤一 Mapper输入数据
由表2-1看出,系统中共包含19个节点n,21条边m;计算与某节点有关联的相关节点个数D,将节点n、相关节点个数D的数据存储在数据结构Hashtable中,见表2-2。通过表2-2看出,系统中最大相关节点个数Dmax=6。
表2-2 步骤一 Hashtable存储数据
节点ID | 节点的相关节点个数D |
1 | 2 |
2 | 3 |
3 | 2 |
4 | 3 |
5 | 4 |
6 | 4 |
7 | 2 |
8 | 3 |
9 | 2 |
10 | 6 |
11 | 2 |
12 | 1 |
13 | 1 |
14 | 1 |
15 | 1 |
16 | 1 |
17 | 1 |
18 | 2 |
19 | 1 |
步骤二:查询步骤一的Hashtable数据,计算每两个节点之间的紧密度,并将紧密度作为key、边作为value使用Context上下文对象写出,修改Compare方法使数据按倒叙排序,所述数据如表2-3所示;
表2-3 步骤二 倒叙排序后的数据表
Reduce过程中的key为重写的DoubleWritable,value集合里面只包含一条数据,通过迭代,将数据使用上下文对象写出到HDFS文件,并再存储一份以边为key、以边的紧密度为value的Hashtable,如表2-4所示;表2-4步骤二Hashtable存储数据
步骤三:以步骤二写出的HDSF文件所在目录为输入目录,分割数据行为节点边和强度两部分,将当前边以静态字符串形式存储在程序中;从第一条边开始选择一条边,判断边两端的两个节点是否在节点列表,若在节点列表中,则放入当前节点集,依次将所有与当前节点集合中的节点紧密度最大的节点依次加入节点集,当没有符合要求的节点时,结束添加、完成一个节点集;对节点集编号,以节点集编号为key、节点为value的形式使用上下文对象Context写出;Reduce过程以节点集编号作为key、节点为value作为输入,将数据以(节点,节点集编号)的形式存储在数据结构Hashtable中,如表2-5所示;
表2-5 步骤三 Hashtable存储数据
节点ID | 节点集ID |
1 | 0 |
2 | 0 |
3 | 0 |
4 | 0 |
5 | 0 |
6 | 0 |
7 | 0 |
8 | 0 |
9 | 0 |
10 | 1 |
11 | 1 |
12 | 1 |
13 | 1 |
14 | 1 |
15 | 1 |
16 | 1 |
17 | 2 |
18 | 2 |
19 | 2 |
步骤四:根据步骤三的数据,找出未加入节点集的节点,将其划入与其有联系的相关节点所在节点集中;在Map过程将Hashtable中的社区数据一次性写出;在Reduce过程将Map写出的数据以(节点集编号,节点)的形式写出在HDFS文件上,如表2-6所示。
表2-6社区划分结果表
社区划分ID | 节点ID |
1 | 11,12,13,14,15,16 |
2 | 17,18,19 |
0 | 1、2、3、4、5、6、7、8、9 |
经算法划分后,将该社交网络分成了3个社区,社区1为星状社区,社区2为线装社区,社区3为网状社区。
Claims (5)
1.一种基于Hadoop平台的社区发现算法,其特征在于:所述社区发现算法在hadoop平台的MapReduce架构下实现,包括以下四个步骤:
步骤一:读入社会网络数据,根据网络中成员的关系,构建一个相互连接的无向图G,将无向图G中的成员用节点n表示,成员与成员之间的关系用边m表示;在配置有Hadoop环境的计算集群上完成数据分片,数据作为Mapper输入;计算得到节点n、以及与每个节点有关联的相关节点个数D,确定系统中最大相关节点个数Dmax,将节点n、相关节点个数D的数据存储在数据结构Hashtable中;
步骤二:查询步骤一的Hashtable数据,计算每两个节点之间的紧密度,并将紧密度作为key、边作为value使用Context上下文对象写出,修改Compare方法使数据按倒叙排序;Reduce过程中的key为重写的DoubleWritable,value集合里面只包含一条数据,通过迭代,将数据使用上下文对象写出到一个HDFS文件,并再存储一份以边为key、以紧密度为value的Hashtable;
步骤三:以步骤二写出的HDFS文件所在目录为输入目录,分割数据行为边和紧密度两部分,将当前边以静态字符串形式存储在程序中;任意选择一条边作为第一条边,判断边两端的两个节点是否在节点列表,若在节点列表中,则放入当前节点集,将所有与当前节点集合中节点紧密度最大的节点依次加入节点集,直至符合要求的节点被全部找出,结束添加、完成一个节点集;对节点集进行编号,以节点集编号为key、节点为value的形式使用上下文对象Context写出;Reduce过程以节点集编号作为key、节点为value作为输入,将数据以(节点,节点集编号)的形式存储在数据结构Hashtable中;
步骤四:根据步骤三的数据,找出未加入节点集的节点,将其划入与其有联系的相关节点所在节点集中;在Map过程将Hashtable中的社区数据一次性写出;在Reduce过程将Map写出的数据以(节点集编号,节点)的形式写出在HDFS文件上。
2.如权利要求1所述的一种基于Hadoop平台的社区发现算法,其特征在于:所述步骤一中,
节点n的具体计算方法为:分片数据输入后,首先编写继承Mapper和Reducer的类,在Mapper类中重写Map方法,Map方法以数据的一行以Text类的形式作为一次输入,使用StringTokenizer分割边关系得到节点n,通过将节点对边的正向和反向都输出一遍的方式用Mapper调用节点上下文对象Context写出数据,将无向图转变为有向图;
相关节点个数的计算方法为:Map调用上下文对象Context写出数据后,经Shuffle过程将节点排序并按照(key,value)集合的形式将数据合并,Reduce通过继承Reducer并实现其Reduce方法后,以一个key、多个values值的形式将数据传入,在一个Key的Reduce过程里面包含其所有的value值,通过迭代value值来得到与这个节点有关联的所有节点所组成的字符串,统计迭代次数,所述迭代次数即为该节点的相关节点个数D;迭代次数最多的节点即为最大相关节点个数Dmax。
3.如权利要求2所述的一种基于Hadoop平台的社区发现算法,其特征在于:所述步骤二中,
节点间紧密度的计算方法为:以数据目录作为输入目录,将边分割成节点之后,查询步骤一的Hashtable数据,得到与某个节点的相关节点个数及相关节点列表,然后通过两个节点的相关节点列表和相关节点个数计算出这两者之间的紧密度;
将紧密度作为key、边作为value时,key的数据类型DoubleWritable为重写了Hadoop数据类型DoubleWritable的Compare方法的类。
4.如权利要求3所述的一种基于Hadoop平台的社区发现算法,其特征在于:所述步骤三中,
数据分割方法为:以步骤二写出的HDFS文件目录为输入目录,在继承了Mapper类重写了Map方法内每次读入一行,把数据分割为边、与节点联系的紧密度两部分,将当前边以静态字符串形式存储在程序中,以便于监控模块的查询;
节点集完成后,将节点集按照程序的静态变量进行编号;
Reduce过程以节点集编号作为key,节点为value作为输入,此时的value为Map过程中同key的value集合,遍历该节点的集合,将数据以节点,节点集编号的形式存储在Hashtable中。
5.如权利要求2所述的一种基于Hadoop平台的社区发现算法,其特征在于:所述步骤一、步骤二、步骤三中,待数据计算、数据存储结束后,将Mapper类、Reducer类、以及Job所需要的参数,调用方法封装成一个运行类。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610501484.7A CN106204293B (zh) | 2016-06-30 | 2016-06-30 | 一种基于Hadoop平台的社区发现算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610501484.7A CN106204293B (zh) | 2016-06-30 | 2016-06-30 | 一种基于Hadoop平台的社区发现算法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106204293A CN106204293A (zh) | 2016-12-07 |
CN106204293B true CN106204293B (zh) | 2019-05-31 |
Family
ID=57462512
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610501484.7A Expired - Fee Related CN106204293B (zh) | 2016-06-30 | 2016-06-30 | 一种基于Hadoop平台的社区发现算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106204293B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108920105B (zh) * | 2018-07-03 | 2020-08-04 | 清华大学 | 基于社区结构的图数据分布式存储方法及装置 |
CN113010612B (zh) * | 2021-03-02 | 2024-04-12 | 中国工商银行股份有限公司 | 一种图数据可视化构建方法、查询方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102779142A (zh) * | 2011-06-28 | 2012-11-14 | 安徽大学 | 基于社区紧密度的快速社区发现方法 |
CN103747033A (zh) * | 2013-12-17 | 2014-04-23 | 西安交通大学 | 一种社区发现的方法 |
CN104978382A (zh) * | 2014-12-31 | 2015-10-14 | 深圳市华傲数据技术有限公司 | MapReduce平台上基于本地密度的聚类方法 |
CN104991912A (zh) * | 2015-06-19 | 2015-10-21 | 四川大学 | 一种基于MapReduce架构的大规模图数据聚类算法 |
-
2016
- 2016-06-30 CN CN201610501484.7A patent/CN106204293B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102779142A (zh) * | 2011-06-28 | 2012-11-14 | 安徽大学 | 基于社区紧密度的快速社区发现方法 |
CN103747033A (zh) * | 2013-12-17 | 2014-04-23 | 西安交通大学 | 一种社区发现的方法 |
CN104978382A (zh) * | 2014-12-31 | 2015-10-14 | 深圳市华傲数据技术有限公司 | MapReduce平台上基于本地密度的聚类方法 |
CN104991912A (zh) * | 2015-06-19 | 2015-10-21 | 四川大学 | 一种基于MapReduce架构的大规模图数据聚类算法 |
Also Published As
Publication number | Publication date |
---|---|
CN106204293A (zh) | 2016-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Benjamini et al. | The mixing time of the giant component of a random graph | |
Walsh | Search in a small world | |
Motik et al. | Incremental update of datalog materialisation: the backward/forward algorithm | |
CN102214169B (zh) | 关键词信息与目标信息的提供方法及装置 | |
JP5950285B2 (ja) | 予め決められた複数のビット幅のデータに対して操作を行う命令を使用してツリーの検索を行うための方法、並びに、当該命令を使用してツリーの検索を行うためのコンピュータ及びそのコンピュータ・プログラム | |
CN104281652B (zh) | 度量空间中逐个支撑点数据划分方法 | |
US10713429B2 (en) | Joining web data with spreadsheet data using examples | |
CN107169010A (zh) | 一种推荐搜索关键词的确定方法及装置 | |
WO2020177743A1 (en) | System and method for intelligent guided shopping | |
WO2012001096A2 (en) | Method and system for using an information system | |
Luna et al. | Efficient mining of top-k high utility itemsets through genetic algorithms | |
US10528328B2 (en) | Learning from input patterns in Programing-By-Example | |
Wu et al. | Mining compact high utility itemsets without candidate generation | |
CN108052670A (zh) | 一种相机特效的推荐方法及装置 | |
CN106204293B (zh) | 一种基于Hadoop平台的社区发现算法 | |
Levi et al. | Constructing near spanning trees with few local inspections | |
CN103761298B (zh) | 一种基于分布式架构的实体匹配方法 | |
Guyet et al. | Incremental mining of frequent serial episodes considering multiple occurrences | |
CN109543113B (zh) | 确定点击推荐词的方法、装置、存储介质及电子设备 | |
CN109144498A (zh) | 一种面向对象实例化任务的api自动推荐方法及装置 | |
CN110309214A (zh) | 一种指令执行方法及其设备、存储介质、服务器 | |
CN116628136A (zh) | 基于声明式推理的协同查询处理方法、系统、电子设备 | |
Huebler et al. | Constructing semi-directed level-1 phylogenetic networks from quarnets | |
US20130179393A1 (en) | Method for analyzing data utilizing weighted suffix tree | |
CN108664630A (zh) | 试题去重方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20190531 Termination date: 20210630 |