CN103914556A - 大规模图数据处理方法 - Google Patents

大规模图数据处理方法 Download PDF

Info

Publication number
CN103914556A
CN103914556A CN201410148977.8A CN201410148977A CN103914556A CN 103914556 A CN103914556 A CN 103914556A CN 201410148977 A CN201410148977 A CN 201410148977A CN 103914556 A CN103914556 A CN 103914556A
Authority
CN
China
Prior art keywords
global
summit
message
working node
iteration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201410148977.8A
Other languages
English (en)
Inventor
陈群
白松
李战怀
勾志营
索勃
潘巍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN201410148977.8A priority Critical patent/CN103914556A/zh
Publication of CN103914556A publication Critical patent/CN103914556A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/54Interprogram communication

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

本发明公开了一种大规模图数据处理方法,用于解决现有大规模图数据处理方法效率低的技术问题。技术方案是将每个并行作业转换为一系列全局迭代作业,每次迭代分为计算、全局通信和栅栏同步三个有序阶段。计算分为全局计算和本地计算,其中本地计算由一系列连续的内部迭代组成;全局通信阶段每个工作节点把当前全局迭代的消息发送给进行下一次全局迭代的工作节点;栅栏同步阶段主节点等待所有工作节点消息传递完成,然后开始下一次全局迭代。由于处理过程采用了多次内部迭代,减少了全局迭代次数。对美国东北地区的公路数据处理单源最短路径需要迭代次数由背景技术的3800多次降低到25次;执行时间从背景技术的1200s减少为60s。

Description

大规模图数据处理方法
技术领域
本发明涉及一种数据处理方法,特别是涉及一种大规模图数据处理方法。
背景技术
随着社交网络分析、生物信息网络分析、机器学习等新兴应用的快速增长,对上亿顶点级别大规模图的处理能力的需求愈加迫切。现有的大规模图数据处理方法主要有基于MapReduce模型和基于BSP模型的方法。
文献“Pregel:A System for Large-Scale Graph Processing,SIGMOD,2010,p135-145”公开了一种基于BSP模型的方法。该方法由一系列全局迭代组成,在每次迭代过程中,每个图顶点接受上一次迭代发送的消息,然后修改自己的值,最后发送消息给邻接顶点。该方法能有效解决大规模图数据的处理问题,但收敛性较慢,并且通信代价很大。例如执行单源最短路径算法时,同步和通信时间要占总时间的80-90%,导致运行总时间过长,效率较低。
该方法对美国东北地区的公路数据处理单源最短路径需要迭代3800多次,执行时间为1200s。
发明内容
为了解决现有大规模图数据处理方法效率低的技术问题,本发明提供一种大规模图数据处理方法。该方法将每个并行作业转换为一系列全局迭代作业,每次迭代分为计算、全局通信和栅栏同步三个有序阶段。计算阶段分为全局计算和本地计算两部分,其中本地计算由一系列连续的内部迭代组成;全局通信阶段每个工作节点把当前全局迭代的消息发送给进行下一次全局迭代的工作节点;栅栏同步阶段主节点等待所有工作节点消息传递完成,然后开始下一次全局迭代。由于处理过程采用了多次内部迭代,减少了全局迭代次数;在全局通信时,只需要向临界顶点发送消息,降低了通信代价,减少了执行时间。
本发明解决其技术问题所采用的技术方案是:一种大规模图数据处理方法,其特点是采用以下步骤:
步骤一、数据分区和数据加载。输入有向图或无向图,采用邻接表形式存储,每个顶点有一个全局唯一的顶点ID。G=<V,E>表示原图,V是顶点的集合,E是边的集合。在分区后把G分为k个子图分区:P1,P2…Pk,并且P1∪P2∪…∪Pk=V, METIS分区的结果是给每个顶点一个分区ID,为了保证数据加载时,每个分区上的子图能加载到同一个工作节点上,需要按照公式(1)对顶点ID进行修改。
u'=u*k+p         (1)
式中,u为顶点的ID,k为分区的数目,p表示顶点的分区ID,u'是修改后的顶点ID。
数据分区后进行数据加载。每个工作节点加载一个子图,k个子图分区对应k个工作节点。对各个工作节点进行一次数据再分布的过程,使工作节点Wi加载子图分区Pi的数据。
每个工作节点首先加载本地的子图数据加载到内存中,然后对加载的图数据进行一次再分布的过程,以确定消息通信时的路由地址。
工作节点Wi可能存储的是子图分区Pj,再分布时按照公式(2)对Pj上的每个顶点得到目的工作节点的序号i,然后把该顶点及其邻接表发送给目的工作节点Wi
i=u'modk (1≤i≤k)           (2)
步骤二、数据加载成功后,每个工作节点开始计算。计算阶段分为全局计算和本地计算两部分,其中本地计算由一系列连续的内部迭代组成。本地顶点参与本地计算,临界顶点参与全局计算。根据图顶点的定义,本地计算不需要与其他工作节点进行通信,全局计算需要与其他工作节点进行通信。
第一次全局迭代的全局计算时,每个顶点都是活跃的,调用它的compute方法。后续迭代的全局计算,只考虑临界顶点,每个临界顶点接受其他工作节点上的顶点在上一次全局迭代发送的消息,然后调用它的compute方法,最后向邻接顶点发送消息。全局计算完成后,每个工作节点不需要进行全局同步就直接进入本地计算阶段,开始对本地节点进行处理。
全局计算只有一次,而本地计算是由一系列连续的内部迭代组成,每个工作节点独立的进行内部迭代,不需要与其他工作节点进行消息传递和同步。当前内部迭代完成后,若还有活跃顶点或者有消息传递时,则直接开始下一次内部迭代;否则每个分区上本地计算就终止,开始进行全局通信。
步骤三、全局通信阶段。当本地计算完成后,就开始进行全局通信,每个顶点利用消息传递机制把当前全局迭代的消息发送给进行下一次全局迭代的顶点。在全局计算和本地计算过程中,缓存了向临界顶点发送的消息。在内部迭代完成后,只需要把所有缓存的消息在下一次全局迭代开始前发送到目的临界顶点。
步骤四、栅栏同步阶段。每个工作节点发送完消息后,就开始进入全局同步阶段。发送完消息的节点进入全局的栅栏,然后开始等待其他工作节点进入。等所有节点都进入全局的栅栏后,每个节点把收到的消息队列赋值给参与下一次计算的顶点,然后离开栅栏进入步骤二,开始进行下一次全局迭代的计算。后续迭代和第一次迭代相同,都有多次内部迭代。在同步完成后,若主节点发现每个工作节点上的顶点都不活跃并且工作节点间没有消息传递时,就结束整个作业,输出计算结果。
本发明的有益效果是:该方法将每个并行作业转换为一系列全局迭代作业,每次迭代分为计算、全局通信和栅栏同步三个有序阶段。计算阶段分为全局计算和本地计算两部分,其中本地计算由一系列连续的内部迭代组成;全局通信阶段每个工作节点把当前全局迭代的消息发送给进行下一次全局迭代的工作节点;栅栏同步阶段主节点等待所有工作节点消息传递完成,然后开始下一次全局迭代。由于处理过程采用了多次内部迭代,减少了全局迭代次数;在全局通信时,只需要向临界顶点发送消息,降低了通信代价。对美国东北地区的公路数据处理单源最短路径需要迭代次数由背景技术的3800多次降低到25次;同时通信量减少1000倍,执行时间从背景技术的1200s减少为60s。
下面结合附图和具体实施方式对本发明作详细说明。
附图说明
图1是本发明大规模图数据处理方法的流程图。
具体实施方式
参照图1。
该方法中有一个主节点和多个工作节点。主节点负责各工作节点的管理;分配和调度任务到所有工作节点;控制全局同步,在栅栏同步成功后,主节点会指示工作节点进行下一次全局迭代。工作节点用于执行具体的任务,同时负责消息的发送和接收;工作节点定期向主节点发送“心跳”信息,该信息包含每个工作节点的状态,可用的系统内存等。
该方法采用以顶点为中心进行编程,需要用户书重写顶点的compute方法,每个顶点的compute方法相同。针对不同的算法,顶点的compute方法不尽相同。但总体上分为三大步骤:(1)接收上一次迭代发送的消息;(2)更新顶点的值和状态;(3)向邻接顶点发送消息。在该方法中,用户只需要为顶点编程,不需要考虑整个分布式架构,该方法会自动调用用户书写的compute方法来完成对整个大图的计算。
1、数据分区和数据加载。输入有向图或无向图,采用邻接表形式存储,每个顶点有一个全局唯一的顶点ID。G=<V,E>表示原图,V是顶点的集合,E是边的集合。在分区后把G分为k个子图分区:P1,P2…Pk,并且P1∪P2∪…∪Pk=V, METIS分区的结果是给每个顶点一个分区ID,为了保证数据加载时,每个分区上的子图能加载到同一个工作节点上,需要按照公式(1)对顶点ID进行修改。
u'=u*k+p            (1)
式中,u为顶点的ID,k为分区的数目,p表示顶点的分区ID,u'是修改后的顶点ID。
数据分区后,然后进行数据加载。每个工作节点加载一个子图,那么k个子图分区就对应k个工作节点。由于在分布式环境下,数据是分块后随机存储在工作节点上的,不能保证分区Pi的数据正好加载到工作节点Wi上,因此各个工作节点要进行一次数据再分布的过程,使工作节点Wi加载子图分区Pi的数据。
每个工作节点首先加载本地的子图数据加载到内存中,然后对加载的图数据进行一次再分布的过程,以确定消息通信时的路由地址。该步骤是根据哈希映射策略,将读入的数据重新分发到对应的工作节点,此后在该工作节点上参与计算。
工作节点Wi可能存储的是子图分区Pj,再分布时按照公式(2)对Pj上的每个顶点得到目的工作节点的序号i,然后把该顶点及其邻接表发送给目的工作节点Wi
i=u'modk (1≤i≤k)           (2)
数据迁移过程中既有磁盘I/O又有网络通信,开销很大。但是一个作业仅需要一次数据迁移,在之后的迭代计算过程中,除了消息通信之外,不再需要进行数据的迁移。
2、数据加载成功后,每个工作节点开始计算。计算阶段分为全局计算和本地计算两部分,其中本地计算由一系列连续的内部迭代组成。根据图顶点的定义可知,本地计算不需要与其他工作节点进行通信,但全局计算恰恰相反。全局计算的计算过程和通信机制如下:
(1)第一次全局迭代的全局计算时,每个顶点都是活跃的,调用它的compute方法。后续迭代的全局计算,只考虑临界顶点,每个临界顶点接受其他工作节点上的顶点在上一次全局迭代发送的消息,然后调用它的compute方法,最后向邻接顶点发送消息。
(2)临界顶点计算完成后可能向本地顶点或临界顶点发送消息。若目标顶点是本地顶点,该消息会被本地计算的第1次内部迭代处理;若目标顶点是临界顶点,该消息会被缓存下来,等到当前全局迭代完成后进行全局通信时再发送,将在下一次全局迭代的全局计算阶段处理。
(3)在该计算方法中,任何顶点收到消息后都会被自动激活,然后参与计算。由于临界顶点只能在全局同步后收到其他子图分区发送的消息,因此每次全局迭代的全局计算只有一次。
全局计算完成后,每个工作节点不需要进行全局同步就直接进入本地计算阶段,开始对本地节点进行处理。本地计算的计算过程和通信机制如下:
(1)本地计算由一系列连续的内部迭代组成,每个工作节点独立的进行内部迭代,不需要与其他工作节点进行消息传递和同步。
(2)第1次内部迭代接受来自该工作节点全局计算阶段的消息,调用本地顶点的compute方法,然后向邻接顶点发送消息。若目标顶点是本地顶点,该消息会被下一次内部迭代处理,与全局通信阶段不同,内部迭代直接通过内存完成消息传递;若目标顶点是临界顶点,则与全局计算阶段的处理相同。后续的内部迭代则接受该工作节点上一次内部迭代的消息。
(3)当前内部迭代完成后,若还有活跃顶点或者有消息传递时,则直接开始下一次内部迭代;否则每个分区上本地计算就终止,开始进行全局通信。
3、全局通信阶段。当本地计算完成后,就开始进行全局通信,每个顶点利用消息传递机制把当前全局迭代的消息发送给进行下一次全局迭代的顶点。在全局计算和本地计算过程中,缓存了向临界顶点发送的消息。因此,在内部迭代完成后,只需要把所有缓存的消息在下一次全局迭代开始前发送到目的临界顶点。所以,该方法只需要为每次全局迭代进行一次分布式通信。
4、栅栏同步阶段。每个工作节点发送完消息后,就开始进入全局同步阶段。发送完消息的节点进入全局的栅栏,然后开始等待其他工作节点进入。等所有节点都进入全局的栅栏后,每个节点把收到的消息队列赋值给参与下一次计算的顶点,然后离开栅栏进入第2步,开始进行下一次全局迭代的计算。后续迭代和第一次迭代相同,都有多次内部迭代。在同步完成后,若主节点发现每个工作节点上的顶点都不活跃并且工作节点间没有消息传递时,就结束整个作业,输出计算结果。图1中进行了m次全局迭代.
总之,本方法采用多次内部迭代来减少全局迭代次数和通信量,与现在方法相比,计算效率提高很大。

Claims (1)

1.一种大规模图数据处理方法,其特征在于包括以下步骤:
步骤一、数据分区和数据加载;输入有向图或无向图,采用邻接表形式存储,每个顶点有一个全局唯一的顶点ID;G=<V,E>表示原图,V是顶点的集合,E是边的集合;在分区后把G分为k个子图分区:P1,P2…Pk,并且P1∪P2∪…∪Pk=V, METIS分区的结果是给每个顶点一个分区ID,为了保证数据加载时,每个分区上的子图能加载到同一个工作节点上,需要按照公式(1)对顶点ID进行修改;
u'=u*k+p        (1)
式中,u为顶点的ID,k为分区的数目,p表示顶点的分区ID,u'是修改后的顶点ID;
数据分区后进行数据加载;每个工作节点加载一个子图,k个子图分区对应k个工作节点;对各个工作节点进行一次数据再分布的过程,使工作节点Wi加载子图分区Pi的数据;
每个工作节点首先加载本地的子图数据加载到内存中,然后对加载的图数据进行一次再分布的过程,以确定消息通信时的路由地址;
工作节点Wi可能存储的是子图分区Pj,再分布时按照公式(2)对Pj上的每个顶点得到目的工作节点的序号i,然后把该顶点及其邻接表发送给目的工作节点Wi
i=u'modk (1≤i≤k)         (2)
步骤二、数据加载成功后,每个工作节点开始计算;计算阶段分为全局计算和本地计算两部分,其中本地计算由一系列连续的内部迭代组成;本地顶点参与本地计算,临界顶点参与全局计算;根据图顶点的定义,本地计算不需要与其他工作节点进行通信,全局计算需要与其他工作节点进行通信;
第一次全局迭代的全局计算时,每个顶点都是活跃的,调用它的compute方法;后续迭代的全局计算,只考虑临界顶点,每个临界顶点接受其他工作节点上的顶点在上一次全局迭代发送的消息,然后调用它的compute方法,最后向邻接顶点发送消息;全局计算完成后,每个工作节点不需要进行全局同步就直接进入本地计算阶段,开始对本地节点进行处理;
全局计算只有一次,而本地计算是由一系列连续的内部迭代组成,每个工作节点独立的进行内部迭代,不需要与其他工作节点进行消息传递和同步;当前内部迭代完成后,若还有活跃顶点或者有消息传递时,则直接开始下一次内部迭代;否则每个分区上本地计算就终止,开始进行全局通信;
步骤三、全局通信阶段;当本地计算完成后,就开始进行全局通信,每个顶点利用消息传递机制把当前全局迭代的消息发送给进行下一次全局迭代的顶点;在全局计算和本地计算过程中,缓存了向临界顶点发送的消息;在内部迭代完成后,只需要把所有缓存的消息在下一次全局迭代开始前发送到目的临界顶点;
步骤四、栅栏同步阶段;每个工作节点发送完消息后,就开始进入全局同步阶段;发送完消息的节点进入全局的栅栏,然后开始等待其他工作节点进入;等所有节点都进入全局的栅栏后,每个节点把收到的消息队列赋值给参与下一次计算的顶点,然后离开栅栏进入步骤二,开始进行下一次全局迭代的计算;后续迭代和第一次迭代相同,都有多次内部迭代;在同步完成后,若主节点发现每个工作节点上的顶点都不活跃并且工作节点间没有消息传递时,就结束整个作业,输出计算结果。
CN201410148977.8A 2014-04-15 2014-04-15 大规模图数据处理方法 Pending CN103914556A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410148977.8A CN103914556A (zh) 2014-04-15 2014-04-15 大规模图数据处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410148977.8A CN103914556A (zh) 2014-04-15 2014-04-15 大规模图数据处理方法

Publications (1)

Publication Number Publication Date
CN103914556A true CN103914556A (zh) 2014-07-09

Family

ID=51040236

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410148977.8A Pending CN103914556A (zh) 2014-04-15 2014-04-15 大规模图数据处理方法

Country Status (1)

Country Link
CN (1) CN103914556A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106815080A (zh) * 2017-01-09 2017-06-09 北京航空航天大学 分布式图数据处理方法和装置
CN109388733A (zh) * 2018-08-13 2019-02-26 国网浙江省电力有限公司 一种面向图数据处理引擎的优化方法
CN110647406A (zh) * 2019-08-29 2020-01-03 湖北工业大学 粗粒度的图数据异步迭代更新方法
CN110704630A (zh) * 2019-04-15 2020-01-17 中国石油大学(华东) 一种标识化关联图谱自优化机制
CN110780947A (zh) * 2019-10-21 2020-02-11 深圳大学 用于社交图数据的PageRank并行计算加速方法
CN112912865A (zh) * 2018-07-27 2021-06-04 浙江天猫技术有限公司 一种图数据存储方法、系统及电子设备
CN113726342A (zh) * 2021-09-08 2021-11-30 中国海洋大学 面向大规模图迭代计算的分段差值压缩与惰性解压方法
CN114514569A (zh) * 2019-10-10 2022-05-17 日本电信电话株式会社 秘密多重迭代计算装置、方法以及程序

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
GRZEGORZ MALEWICZ等: "Pregel: A System for Large-Scale Graph Processing", 《HTTPS://KOWSHIK.GITHUB.IO/JPREGEL/PREGEL_PAPER.PDF》 *
LUIS M. VAQUERO等: "xDGP: A Dynamic Graph Processing System with Adaptive Partitioning", 《HTTPS://ARXIV.ORG/PDF/1309.1049.PDF》 *
林子雨: "图计算", 《大数据技术基础》 *
潘巍等: "基于消息传递机制的MapReduce图算法研究", 《计算机学报》 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106815080B (zh) * 2017-01-09 2020-01-14 北京航空航天大学 分布式图数据处理方法和装置
CN106815080A (zh) * 2017-01-09 2017-06-09 北京航空航天大学 分布式图数据处理方法和装置
CN112912865A (zh) * 2018-07-27 2021-06-04 浙江天猫技术有限公司 一种图数据存储方法、系统及电子设备
CN109388733A (zh) * 2018-08-13 2019-02-26 国网浙江省电力有限公司 一种面向图数据处理引擎的优化方法
CN109388733B (zh) * 2018-08-13 2022-01-07 国网浙江省电力有限公司 一种面向图数据处理引擎的优化方法
CN110704630A (zh) * 2019-04-15 2020-01-17 中国石油大学(华东) 一种标识化关联图谱自优化机制
CN110647406A (zh) * 2019-08-29 2020-01-03 湖北工业大学 粗粒度的图数据异步迭代更新方法
CN110647406B (zh) * 2019-08-29 2022-11-29 湖北工业大学 粗粒度的图数据异步迭代更新方法
CN114514569A (zh) * 2019-10-10 2022-05-17 日本电信电话株式会社 秘密多重迭代计算装置、方法以及程序
CN114514569B (zh) * 2019-10-10 2024-03-01 日本电信电话株式会社 秘密多重迭代计算装置、方法以及记录介质
CN110780947A (zh) * 2019-10-21 2020-02-11 深圳大学 用于社交图数据的PageRank并行计算加速方法
CN110780947B (zh) * 2019-10-21 2023-10-13 深圳大学 用于社交图数据的PageRank并行计算加速方法
CN113726342A (zh) * 2021-09-08 2021-11-30 中国海洋大学 面向大规模图迭代计算的分段差值压缩与惰性解压方法
CN113726342B (zh) * 2021-09-08 2023-11-07 中国海洋大学 面向大规模图迭代计算的分段差值压缩与惰性解压方法

Similar Documents

Publication Publication Date Title
CN103914556A (zh) 大规模图数据处理方法
US10990561B2 (en) Parameter server and method for sharing distributed deep learning parameter using the same
CN104636204B (zh) 一种任务调度方法与装置
CN110297699B (zh) 调度方法、调度器、存储介质及系统
CN103078941B (zh) 一种分布式计算系统的任务调度方法
CN115248728A (zh) 面向智能计算的分布式训练任务调度方法、系统和装置
US20220129408A1 (en) Data actor and data processing method thereof
US20150170316A1 (en) Subgraph-based distributed graph processing
WO2022012576A1 (zh) 路径规划方法、装置、路径规划设备及存储介质
CN105589748A (zh) 一种业务请求处理方法及装置
CN110928697B (zh) 拓扑图转换系统及其方法
US11329747B2 (en) Scheduling deterministic flows in time synchronized networks
CN114356578A (zh) 自然语言处理模型的并行计算方法、装置、设备及介质
CN110689174A (zh) 基于公共交通的人员路线规划方法及装置
CN108415760A (zh) 一种基于移动机会网络的群智计算在线任务分配方法
CN107392387A (zh) 一种agv最优管制时间的调度方法
CN111510334A (zh) 一种基于粒子群算法的vnf在线调度方法
CN115514696A (zh) 一种传递算力资源信息的方法、装置及设备
CN102760073A (zh) 一种任务调度方法、系统及装置
CN102427420B (zh) 基于图模式匹配的虚拟网络映射方法及装置
CN108833294B (zh) 面向数据中心广域网的低带宽开销的流量调度方法
CN104239520B (zh) 一种基于历史信息的hdfs数据块放置策略
CN105740249A (zh) 一种大数据作业并行调度过程中的处理方法及其系统
JP2013089236A (ja) And/orグラフ探索における並列エッジ分割のためのシステム及び方法
CN107430510A (zh) 数据处理方法、装置和系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20140709

WD01 Invention patent application deemed withdrawn after publication