CN106169094A - 一种基于分布式神经元的rnnlm系统及其设计方法 - Google Patents

一种基于分布式神经元的rnnlm系统及其设计方法 Download PDF

Info

Publication number
CN106169094A
CN106169094A CN201610533389.5A CN201610533389A CN106169094A CN 106169094 A CN106169094 A CN 106169094A CN 201610533389 A CN201610533389 A CN 201610533389A CN 106169094 A CN106169094 A CN 106169094A
Authority
CN
China
Prior art keywords
neuron
distributed
module
distributed neuron
rnnlm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610533389.5A
Other languages
English (en)
Inventor
牛德姣
蔡涛
彭长生
薛瑞
詹永照
埃法·金斯利
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JIANGSU KING INTELLIGENT SYSTEM CO Ltd
Jiangsu University
Original Assignee
JIANGSU KING INTELLIGENT SYSTEM CO Ltd
Jiangsu University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JIANGSU KING INTELLIGENT SYSTEM CO Ltd, Jiangsu University filed Critical JIANGSU KING INTELLIGENT SYSTEM CO Ltd
Priority to CN201610533389.5A priority Critical patent/CN106169094A/zh
Publication of CN106169094A publication Critical patent/CN106169094A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种基于分布式神经元的RNNLM系统及其设计方法,针对串行和基于GPU的RNNLM系统中未模拟生物神经元并行执行特性、训练时间开销大、难以包含大量神经元等问题,通过以能并发运行的分布式神经元为中心改变RNNLM系统的结构,设计基于分布式神经元的RNNLM系统来工作;包括基于分布式神经元的结构、分布式神经元自主训练方法和分布式神经元协调方法。本发明能模拟生物神经元的并行执行,有效减少RNNLM的训练时间开销,从而在保证减少训练时间开销的前提下能增加RNNLM中神经元数量和训练样本,提高RNNLM的实用性。

Description

一种基于分布式神经元的RNNLM系统及其设计方法
技术领域
本发明属于基于统计的自然语言处理领域,具体涉及基于神经网络语言模型,设计了一种基于分布式神经元的RNNLM系统。主要改变RNNLM结构,通过分布式训练的方法,减少RNNLM系统的训练时间开销,从而在保证减少训练时间开销的前提下能增加RNNLM中神经元数量和训练样本,提高RNNLM的实用性。
背景技术
Recurrent neural network(RNN)是一种特殊的神经网络,与传统深层神经网络中单向输入数据和处理不同,使用循环连接的隐藏层代替固定的多个层次的隐藏层,这使得RNN可以保存所有的历史信息,构建了理论上近乎完美的神经网络。当前RNN已经广泛应用与非线性任务应用领域,如语音识别、文本检查与生成、SQL攻击检测等,其中RNNLM是当前基于神经网络语言模型领域中的研究热点。但由于需要保存大量历史信息和完成大量矩阵运算,增加隐藏层节点数或训练数据量,均会导致训练时间开销的爆炸性增长,从而难以构建有效的RNNLM;此外当前的神经网络还仅模拟生物神经系统的功能,没有真正具备生物神经元并行的特性,从而导致了增加隐藏层节点数量后训练开销急剧增加的问题。因此提高训练效率是当前RNNLM研究中的关键问题。
随着计算机系统结构和高性能计算计算的发展,出现了各类新型计算硬件和平台,如GPU、高性能计算集群、Hadoop和Spark等。RNN在每次训练过程中均需要大量规模与隐藏层节点数密切相关的的矩阵运算,同时需要通过大量训练和多次迭代不断优化模型,因此矩阵计算量、训练数据量和迭代次数是影响RNN训练开销的主要因素;增加隐藏层节点数量能有效提高RNN的准确率,但在训练时会导致更大规模的矩阵运算;增加训练数据量同样能提高RNN的准确率,但在训练时会导致更多的矩阵运算和增加迭代次数;这两者均会导致RNN训练时间过长而无法实用。GPU具有很强的矩阵计算能力,但适应矩阵变化能力很弱,矩阵较大后需要进行切割进行多次计算,同时数据在GPU和主机之间的传输效率也较低;传统的高性能计算集群能将计算任务分布到计算节点中,但以计算为中心的结构,在处理大量训练数据集和隐藏层节点间参数传输时效率较低;Hadoop具有处理海量数据的能力,但由于基于磁盘,完成迭代计算任务时效率较低;Spark是一个分布式内存计算平台,具有实时性强和适合迭代计算等优势,能为构建高效的RNNLM提供支撑。
发明内容
本发明的目的在于提供一种基于分布式神经元的RNNLM系统及其设计方法,以解决神经元并发训练的问题,提高RNNLM的训练效率,从而在保证减少训练时间开销的前提下能增加RNNLM中神经元数量和训练样本,提高RNNLM的实用性。
一种基于分布式神经元的RNNLM系统设计方法,其特征在于:通过以能并发运行的分布式神经元为中心改变RNNLM系统的结构,设计基于分布式神经元的RNNLM系统来工作;所述设计方法还包括基于分布式神经元的结构设计、分布式神经元自主训练方法和分布式神经元协调方法。
所述的分布式神经元自主训练方法包括以下过程:
过程一,获取参数;
分布式神经元模块从神经元交互节点模块获取与该分布式神经元模块相关的参数,包括输入词在输入层中的位置m,该分布式神经元模块与输入层之间的连接U、分布式神经元模块与输出层之间的连接V、分布式神经元模块与神经元模块之间的连接W、前一次迭代分布式神经元模块的准确率S’.ac、输入层节点的准确率S.ac和输出层节点的错误率Y.er;所述m∈[1,M],M是输入和输出层节点的数量;
过程二,计算分布式神经元正确率;
第i个分布式神经元模块使用计算正确率,i(i∈[1,I],I是分布式神经元的数量)表示该分布式神经元的序号,f是一个sigmoid函数。过程三,计算分布式神经元错误率;
第i个分布式神经元模块使用计算错误率;
过程四,更新与输出层的连接;
第i个分布式神经元模块判断连接更新间隔,如不足连接更新阈值num(num∈N+),使用Vim=V'im+Ym.er*Si.ac*α更新分布式神经元模块与输出层之间的连接,其中α(α∈(0,1))表示连接调节率;相反使用Vim=V'im+Ym.er*Si.ac*α-V'im*β更新分布式神经元模块与输出层之间的连接,其中β(β∈(0,1))表示连接修正率。
过程五,更新与上一次隐藏层的连接;
第i个分布式神经元模块判断连接更新间隔,如不足连接更新阈值num,使用Wni=W'ni+α*Si.er*S'n.ac更新分布式神经元模块与前一次迭代隐藏层之间的连接,n(n∈[1,I])是前一次迭代隐藏层中节点的位置;相反使用Wni=W'ni+α*Si.er*S'n.ac-W'ni*β更新分布式神经元模块与前一次迭代隐藏层之间的连接;
过程六,更新与输入层的连接;
第i个分布式神经元模块判断连接更新间隔,如不足连接更新阈值num,使用Umi=U'mi+α*Si.er*Xm.ac更新分布式神经元模块与输入层之间的连接;相反使用Umi=U'mi+α*Si.er*Xm.ac-U'mi*β更新分布式神经元模块与输入层之间的连接。
所述分布式神经元协调方法包括下列步骤:
步骤一,分布式神经元交互节点模块提取训练样本中的一个单词,计算输入词在输入层中的位置m;
步骤二,分布式神经元节点模块执行过程一;
步骤三,分布式神经元节点模块执行过程二;
步骤四,分布式神经元交互节点模块使用计算输出层中节点的正确率,其中g是一个softmax函数,所述k是输出层中节点的位置,k∈[1,M];
步骤五,分布式神经元交互节点模块使用Yk.er=1-Yk.ac计算出层中节点的错误率;
步骤六,分布式神经元节点模块执行过程三;
步骤七,分布式神经元节点模块执行过程四;
步骤八,分布式神经元节点模块执行过程五;
步骤九,分布式神经元节点模块执行过程六;
步骤十,分布式神经元交互节点模块收集所有分布式神经元模块发送回的正确率、错误率、U、V、W,进行汇总更新,并构建上一次隐藏层;
步骤十一,如训练样本中还有未处理的单词,则读取下一个单词,返回步骤一;否则结束本轮迭代训练,转到步骤十二;
步骤十二,判断本轮迭代训练结束后神经元的准确率与上一论的差值是否达到系统设定,如达到则结束RNNLM训练,返回训练样本中的第一个单词,转到步骤一,开始下一轮迭代训练。
基于分布式神经元的结构设计具体包括分布式神经元节点模块和分布式神经元交互节点模块的设计;
所述分布式神经元节点模块负责维护该神经元的状态、以及与输入层、输出层和之间的连接,包括获取参数、计算正确率、计算错误率、更新与输入层连接、更新与上一次隐藏层连接、更新与输出层连接等功能;
所述分布式神经元交互节点模块实现分布式神经元之间的协调,完成初始化、输入训练语料、维护输入与输出层状态等,包括参数分布、参数收集和参数汇聚更新等功能。
一种基于分布式神经元的RNNLM系统,包括一个分布式神经元交互节点模块服务器和多个分布式神经元节点模块服务器,其特征在于:分布式神经元交互节点模块服务器和分布式神经元节点模块服务器之间用Infiniband进行连接,分布式神经元节点模块服务器和分布式神经元交互节点模块服务器之间的交互使用RDMA协议。训练样本由多个分布式神经元节点模块服务器和一个分布式神经元交互节点模块服务器共同完成处理,合作完成RNNLM的训练过程,并共同对外提供服务。
本发明具有有益效果。本发明出于提高RNNLM训练效率的考虑,以能并发执行的神经元为中心,改变RNNLM结构,通过分布式训练的方法,减少RNNLM系统的训练时间开销。本发明针对RNNLM的训练过程和特点,引入分布式技术,改变RNNLM结构,以能并发执行的神经元为中心,使用分布式训练的方法,设计了基于分布式神经元的结构、分布式神经元自主训练方法和分布式神经元协调方法,减少RNNLM系统的训练时间开销,从而在保证减少训练时间开销的前提下能增加RNNLM中神经元数量和训练样本,提高RNNLM的实用性。
附图说明
图1是本发明的结构图;
图2是本发明的工作流程图;
图3是分布式神经元数不同时的训练时间开销测试结果图;
图4是首次和后续迭代的训练时间开销测试结果图;
图5是准确率的测试结果图。
具体实施方式
实施例1
如图1所示,一种基于分布式神经元的RNNLM系统,包括一个分布式神经元交互节点模块服务器和多个分布式神经元节点模块服务器,其中分布着获取参数、计算正确率、计算错误率、更新与输入层连接、更新与上一次隐藏层连接、更新与输出层连接、训练初始与分布、更新输出层、结果汇聚与更新等模块,模块在两类服务器中的分布和功能说明如表1所示。
表1基于分布式神经元的RNNLM系统中各类型服务器和各功能模块
一种基于分布式神经元的RNNLM系统中其,分布式神经元交互节点模块服务器和分布式神经元节点模块服务器之间的交互过程如图2所示。
实施例2
依据RNNLM开源的代码,使用Scala在Spark中实现了基于分布式神经元的RNNLM系统,用三台服务器搭建了测试环境,每台服务器配有Intel(R)Xeon(R)E5606 2.13GHz处理器2个,64G内存,操作系统是Centos6.7,Spark版本是RDMA-Spark-0.9.1,网络是40GB的Infiniband,通信协议是RDMA;Driver节点作为分布式神经元交互节点模块服务器,Worker节点作为分布式神经元节点模块服务器,一个Worker节点运行多个分布式神经元节点模块从而支持大量的分布式神经元。同时在1台服务器中使用RNNLM开源的代码,搭建了单机RNNLM系统,工作与一台服务器中,服务器配置与运行基于分布式神经元RNNLM系统的服务器相同。
测试训练样本包括:Microsoft公布的ptb.train(4M),RNNLM Toolkit中的word_projections 80(64M)、swb.rnn.model(87M)和word_projections 640(500M)。
设置不同的分布式神经元数(基于分布式神经元的RNNLM系统)和隐藏层节点数(单机RNNLM系统),测试和比较完成10次迭代训练所需的时间开销。神经元数分别设置为200、500和1000,训练的迭代次数均设置为10次,结果如表2所示。
表2改变布式神经元数和隐藏层节点数的训练时间开销
改变训练语料的大小,分别使用4M、87M和500M的训练样本,将神经元数量分别设置为200、500和100,训练的迭代次数仍然设置为10次,测试基于分布式神经元RNNLM系统的训练时间开销,结果如图3所示。
测试基于分布式神经元RNNLM系,分别试用4M和87M训练样本时,首次迭代和后续迭代所需的时间开销,不同训练迭代次数时,训练的时间开销,结果如图4所示。
RNNLM Toolkit中word_projections 80(64M)训练样本,分布式神经元数分别设置为200、500和1000个,迭代次数为10次,测试基于分布式神经元RNNLM系统的准确率结果如图5所示。

Claims (5)

1.一种基于分布式神经元的RNNLM系统设计方法,其特征在于:通过以能并发运行的分布式神经元为中心改变RNNLM系统的结构,设计基于分布式神经元的RNNLM系统来工作;所述设计方法还包括基于分布式神经元的结构设计、分布式神经元自主训练方法和分布式神经元协调方法。
2.根据权利要求1所述的一种基于分布式神经元的RNNLM系统设计方法,其特征在于:所述的分布式神经元自主训练方法包括以下过程:
过程一,获取参数;
分布式神经元模块从神经元交互节点模块获取与该分布式神经元模块相关的参数,包括输入词在输入层中的位置m,该分布式神经元模块与输入层之间的连接U、分布式神经元模块与输出层之间的连接V、分布式神经元模块与神经元模块之间的连接W、前一次迭代分布式神经元模块的准确率S’.ac、输入层节点的准确率S.ac和输出层节点的错误率Y.er;所述m∈[1,M],M是输入和输出层节点的数量;
过程二,计算分布式神经元正确率;
第i个分布式神经元模块使用计算正确率,i(i∈[1,I],I是分布式神经元的数量)表示该分布式神经元的序号,f是一个sigmoid函数。过程三,计算分布式神经元错误率;
第i个分布式神经元模块使用计算错误率;
过程四,更新与输出层的连接;
第i个分布式神经元模块判断连接更新间隔,如不足连接更新阈值num(num∈N+),使用Vim=V'im+Ym.er*Si.ac*α更新分布式神经元模块与输出层之间的连接,其中α(α∈(0,1))表示连接调节率;相反使用Vim=V'im+Ym.er*Si.ac*α-V'im*β更新分布式神经元模块与输出层之间的连接,其中β(β∈(0,1))表示连接修正率。
过程五,更新与上一次隐藏层的连接;
第i个分布式神经元模块判断连接更新间隔,如不足连接更新阈值num,使用Wni=W'ni+α*Si.er*S'n.ac更新分布式神经元模块与前一次迭代隐藏层之间的连接,n(n∈[1,I])是前一次迭代隐藏层中节点的位置;相反使用Wni=W'ni+α*Si.er*S'n.ac-W'ni*β更新分布式神经元模块与前一次迭代隐藏层之间的连接;
过程六,更新与输入层的连接;
第i个分布式神经元模块判断连接更新间隔,如不足连接更新阈值num,使用Umi=U'mi+α*Si.er*Xm.ac更新分布式神经元模块与输入层之间的连接;相反使用Umi=U'mi+α*Si.er*Xm.ac-U'mi*β更新分布式神经元模块与输入层之间的连接。
3.根据权利要求1或所述的一种基于分布式神经元的RNNLM系统设计方法,其特征在于:所述分布式神经元协调方法包括下列步骤:
步骤一,分布式神经元交互节点模块提取训练样本中的一个单词,计算输入词在输入层中的位置m;
步骤二,分布式神经元节点模块执行过程一;
步骤三,分布式神经元节点模块执行过程二;
步骤四,分布式神经元交互节点模块使用计算输出层中节点的正确率,其中g是一个softmax函数,所述k是输出层中节点的位置,k∈[1,M];
步骤五,分布式神经元交互节点模块使用Yk.er=1-Yk.ac计算出层中节点的错误率;
步骤六,分布式神经元节点模块执行过程三;
步骤七,分布式神经元节点模块执行过程四;
步骤八,分布式神经元节点模块执行过程五;
步骤九,分布式神经元节点模块执行过程六;
步骤十,分布式神经元交互节点模块收集所有分布式神经元模块发送回的正确率、错误率、U、V、W,进行汇总更新,并构建上一次隐藏层;
步骤十一,如训练样本中还有未处理的单词,则读取下一个单词,返回步骤一;否则结束本轮迭代训练,转到步骤十二;
步骤十二,判断本轮迭代训练结束后神经元的准确率与上一论的差值是否达到系统设定,如达到则结束RNNLM训练,返回训练样本中的第一个单词,转到步骤一,开始下一轮迭代训练。
4.根据权利要求1所述的一种基于分布式神经元的RNNLM系统设计方法,其特征在于:基于分布式神经元的结构设计具体包括分布式神经元节点模块和分布式神经元交互节点模块的设计;
所述分布式神经元节点模块负责维护该神经元的状态、以及与输入层、输出层和之间的连接,包括获取参数、计算正确率、计算错误率、更新与输入层连接、更新与上一次隐藏层连接、更新与输出层连接等功能;
所述分布式神经元交互节点模块实现分布式神经元之间的协调,完成初始化、输入训练语料、维护输入与输出层状态等,包括参数分布、参数收集和参数汇聚更新等功能。
5.一种基于分布式神经元的RNNLM系统,包括一个分布式神经元交互节点模块服务器和多个分布式神经元节点模块服务器,其特征在于:利用权利要求1所述的设计方法设计而得;分布式神经元交互节点模块服务器和分布式神经元节点模块服务器之间用Infiniband进行连接,分布式神经元节点模块服务器和分布式神经元交互节点模块服务器之间的交互使用RDMA协议。训练样本由多个分布式神经元节点模块服务器和一个分布式神经元交互节点模块服务器共同完成处理,合作完成RNNLM的训练过程,并共同对外提供服务。
CN201610533389.5A 2016-07-07 2016-07-07 一种基于分布式神经元的rnnlm系统及其设计方法 Pending CN106169094A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610533389.5A CN106169094A (zh) 2016-07-07 2016-07-07 一种基于分布式神经元的rnnlm系统及其设计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610533389.5A CN106169094A (zh) 2016-07-07 2016-07-07 一种基于分布式神经元的rnnlm系统及其设计方法

Publications (1)

Publication Number Publication Date
CN106169094A true CN106169094A (zh) 2016-11-30

Family

ID=58066143

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610533389.5A Pending CN106169094A (zh) 2016-07-07 2016-07-07 一种基于分布式神经元的rnnlm系统及其设计方法

Country Status (1)

Country Link
CN (1) CN106169094A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111753997A (zh) * 2020-06-28 2020-10-09 北京百度网讯科技有限公司 分布式训练方法、系统、设备及存储介质
CN112036563A (zh) * 2019-06-03 2020-12-04 国际商业机器公司 使用起源数据的深度学习模型洞察

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104978601A (zh) * 2015-06-26 2015-10-14 深圳市腾讯计算机系统有限公司 神经网络模型训练系统和方法
CN105007118A (zh) * 2015-06-10 2015-10-28 重庆邮电大学 一种用于室内可见光通信系统的神经网络均衡方法
EP3029669A1 (en) * 2014-12-02 2016-06-08 Samsung Electronics Co., Ltd. Method and apparatus for speech recognition

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3029669A1 (en) * 2014-12-02 2016-06-08 Samsung Electronics Co., Ltd. Method and apparatus for speech recognition
CN105007118A (zh) * 2015-06-10 2015-10-28 重庆邮电大学 一种用于室内可见光通信系统的神经网络均衡方法
CN104978601A (zh) * 2015-06-26 2015-10-14 深圳市腾讯计算机系统有限公司 神经网络模型训练系统和方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
TOMAS MIKOLOV: "Statistical Language Models Based on Neural Networks", 《PHD THESIS,BRNO UNIVERSITY OF TECHNOLOGY》 *
刘章等: "联合无监督词聚类的递归神经网络语言模型", 《计算机系统应用》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112036563A (zh) * 2019-06-03 2020-12-04 国际商业机器公司 使用起源数据的深度学习模型洞察
CN111753997A (zh) * 2020-06-28 2020-10-09 北京百度网讯科技有限公司 分布式训练方法、系统、设备及存储介质

Similar Documents

Publication Publication Date Title
Zhang et al. ANODEV2: A coupled neural ODE framework
Hallgren et al. The biodiversity and climate change virtual laboratory: Where ecology meets big data
Gong et al. Multi-objective parameter optimization of common land model using adaptive surrogate modeling
CN106022521B (zh) 基于Hadoop架构的分布式BP神经网络的短期负荷预测方法
Zeng et al. Matrix representation of spiking neural P systems
CN107704625A (zh) 字段匹配方法和装置
CN112257815A (zh) 模型生成方法、目标检测方法、装置、电子设备及介质
Liu et al. Feedback message passing for inference in Gaussian graphical models
CN105373517A (zh) 基于Spark的分布式稠密矩阵求逆并行化运算方法
CN107729995A (zh) 用于加速神经网络处理器的方法和系统及神经网络处理器
CN110166289A (zh) 一种识别目标信息资产的方法及装置
CN106169094A (zh) 一种基于分布式神经元的rnnlm系统及其设计方法
CN109697511A (zh) 数据推理方法、装置及计算机设备
CN107122472A (zh) 大规模非结构化数据提取方法、其系统、分布式数据管理平台
CN106844533A (zh) 一种数据分组聚集方法及装置
Qian et al. Minimal model structure analysis for input reconstruction in federated learning
Gora et al. Investigating performance of neural networks and gradient boosting models approximating microscopic traffic simulations in traffic optimization tasks
Urgese et al. Benchmarking a many-core neuromorphic platform with an MPI-based dna sequence matching algorithm
Gál et al. Modified bacterial memetic algorithm used for fuzzy rule base extraction
Broomhead et al. A practical comparison of the systolic and wavefront array processing architectures
CN112488248A (zh) 一种基于卷积神经网络的代理模型的构建方法
Hui et al. Dynamics of a single predator multiple prey model with stochastic perturbation and seasonal variation
Baxter et al. Parallelising algorithms to exploit heterogeneous architectures for real-time control systems
CN105117224A (zh) 一种基于多智能体进化的软件模块聚类分析方法
Jha et al. Fast parallel prefix on multi-mesh of trees

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20161130

RJ01 Rejection of invention patent application after publication