CN114637720B - 一种基于增长型环形som神经网络的片上光网络映射方法 - Google Patents
一种基于增长型环形som神经网络的片上光网络映射方法 Download PDFInfo
- Publication number
- CN114637720B CN114637720B CN202111519491.7A CN202111519491A CN114637720B CN 114637720 B CN114637720 B CN 114637720B CN 202111519491 A CN202111519491 A CN 202111519491A CN 114637720 B CN114637720 B CN 114637720B
- Authority
- CN
- China
- Prior art keywords
- neuron
- neural network
- matrix
- winning
- core
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 96
- 238000013507 mapping Methods 0.000 title claims abstract description 75
- 238000000034 method Methods 0.000 title claims abstract description 44
- 230000003287 optical effect Effects 0.000 title claims abstract description 35
- 210000002569 neuron Anatomy 0.000 claims abstract description 208
- 239000013598 vector Substances 0.000 claims abstract description 138
- 239000011159 matrix material Substances 0.000 claims abstract description 119
- 238000004891 communication Methods 0.000 claims abstract description 48
- 238000010586 diagram Methods 0.000 claims abstract description 27
- 238000012549 training Methods 0.000 claims abstract description 13
- 230000002860 competitive effect Effects 0.000 claims description 24
- 238000006243 chemical reaction Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 9
- 238000004422 calculation algorithm Methods 0.000 description 12
- 238000012545 processing Methods 0.000 description 7
- 230000009471 action Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000007514 neuronal growth Effects 0.000 description 2
- 238000002922 simulated annealing Methods 0.000 description 2
- 241000251468 Actinopterygii Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F15/00—Digital computers in general; Data processing equipment in general
- G06F15/16—Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
- G06F15/163—Interprocessor communication
- G06F15/173—Interprocessor communication using an interconnection network, e.g. matrix, shuffle, pyramid, star, snowflake
- G06F15/17356—Indirect interconnection networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04Q—SELECTING
- H04Q11/00—Selecting arrangements for multiplex systems
- H04Q11/0001—Selecting arrangements for multiplex systems using optical switching
- H04Q11/0062—Network aspects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04Q—SELECTING
- H04Q11/00—Selecting arrangements for multiplex systems
- H04Q11/0001—Selecting arrangements for multiplex systems using optical switching
- H04Q11/0062—Network aspects
- H04Q2011/009—Topology aspects
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Hardware Design (AREA)
- Computer Networks & Wireless Communication (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本发明公开了一种基于增长型环形SOM神经网络的片上光网络映射方法,包括:获取核图中的IP核连通关系矩阵和网络拓扑中的节点通信损耗矩阵;利用节点通信损耗矩阵中的行向量对增长型环形SOM神经网络进行训练,获得经训练的增长型环形SOM神经网络;利用经训练的增长型环形SOM神经网络分别获取节点通信损耗矩阵中每个行向量的获胜神经元索引号以及IP核连通关系矩阵中每个行向量的获胜神经元索引号;根据IP核连通关系矩阵的获胜神经元索引号和节点通信损耗矩阵的获胜神经元索引号获得核图中IP核与网络拓扑节点之间的映射矩阵。本发明通过自适应方式在保证结果稳定的条件下降低了映射方法复杂度,减少了求解时间。
Description
技术领域
本发明属于片上网络技术领域,具体涉及一种基于增长型环形SOM(Self-Organizing Map,自组织映射)神经网络的片上光网络映射方法。
背景技术
片上光网络具有高带宽、快传输速率和抗干扰等许多传统电互连不可比拟的优点,是未来超大规模集成电路的一个发展方向。在片上光网络中,映射是需要关注的一个关键方面;在满足一定映射要求的前提下,映射将核图中的IP核和拓扑中的节点进行对应。IP核映射在网络拓扑中的位置会极大地影响网络的性能,因此,如何在满足一定性能需求的前提下、将核图中的IP核合理地映射到网络拓扑中是需要解决的问题。
现有的映射算法主要可使用精确算法和群智能类、模拟退火、遗传等启发式算法。然而,现有的算法计算复杂度较高、求解时间较长、且容易陷入局部最优解。
发明内容
为了解决现有技术中存在的上述问题,本发明提供了一种基于增长型环形SOM神经网络的片上光网络映射方法。本发明要解决的技术问题通过以下技术方案实现:
本发明提供了一种基于增长型环形SOM神经网络的片上光网络映射方法,包括:
S1:获取核图中的IP核连通关系矩阵和网络拓扑中的节点通信损耗矩阵;
S2:利用所述节点通信损耗矩阵中的行向量对增长型环形SOM神经网络进行训练,获得经训练的增长型环形SOM神经网络;
S3:利用所述经训练的增长型环形SOM神经网络分别获取节点通信损耗矩阵中每个行向量的获胜神经元索引号以及IP核连通关系矩阵中每个行向量的获胜神经元索引号;
S4:根据IP核连通关系矩阵的获胜神经元索引号和节点通信损耗矩阵的获胜神经元索引号获得核图中IP核与网络拓扑节点之间的映射矩阵。
在本发明的一个实施例中,所述S2包括:
S21:对所述节点通信损耗矩阵S进行抽象化转换,转化为网络拓扑中每个节点对应的特征向量;
S22:将网络拓扑中每个节点对应的特征向量依次输入所述增长型环形SOM神经网络中以对所述增长型环形SOM神经网络进行训练。
在本发明的一个实施例中,所述S22包括:
S221:对所述增长型环形SOM神经网络的参数进行初始化;
S222:将所述S21中获得的节点通信损耗矩阵S的特征向量输入至所述增长型环形SOM神经网络的输入层,分别计算竞争层每个神经元的权值向量以及输入特征向量的欧式距离;
S223:根据所述欧式距离选择获胜神经元并对获胜神经元及其左右邻域神经元的权值向量进行更新;
S224:继续输入节点通信损耗矩阵S的其余特征向量,重复步骤S222-S223完成一次迭代;
S225:迭代预定次数之后,在所述竞争层中增加新神经元并获得新神经元的权值向量;
S226:新神经元增加完成后,转至步骤S222开始下一次迭代,直至迭代次数到达最大迭代次数Tmax时结束迭代,获得经训练的增长型环形SOM神经网络。
在本发明的一个实施例中,所述S221包括:
设置增长型环形SOM神经网络的初始竞争层中神经元数量N(0),对神经元随机赋予权值向量;
设置第一迭代次数Tint、每个神经元的初始获胜次数C[]、学习率η以及最大迭代次数Tmax,其中,所述第一迭代次数Tint表示每迭代Tint次,在竞争层增加一个新神经元。
在本发明的一个实施例中,所述S223包括:
选择竞争层中欧式距离最小值对应的神经元y作为当前输入特征向量对应节点的获胜神经元,对获胜神经元及其左右邻域的两个神经元y+1和y-1进行权值向量更新:
Wy=Wy+η(Si-Wy)
Wy+1=Wy+1+η(Si-Wy+1)
Wy-1=Wy-1+η(Si-Wy-1)
其中,η表示学习率,更新结束后,将获胜神经元y的获胜次数C(y)加1。
在本发明的一个实施例中,所述S225包括:
每迭代Tint次后,在竞争层增加一个新神经元r,将新神经元r增加到获胜次数最多的神经元I与其相距较远的相邻神经元f之间,且新神经元r的权值向量为获胜次数最多的神经元I与其相距较远的相邻神经元f权值向量的均值,同时将获胜次数最多的神经元I的获胜次数减半给新神经元r:
Wr=0.5(Wf+WI)
C(I)=C(r)=0.5C(I)。
在本发明的一个实施例中,所述S3包括:
S31:将所述矩阵S的N个行向量输入所述经训练的增长型环形SOM神经网络,依据欧氏距离获得矩阵S每个行向量对应的获胜神经元索引号。
S32:将所述矩阵P的N个行向量输入所述经训练的增长型环形SOM神经网络,依据欧氏距离获得矩阵P每个行向量对应的获胜神经元索引号。
在本发明的一个实施例中,所述S4包括:
S41:将矩阵S每个行向量对应的获胜神经元索引号按照从小到大的顺序排列;
S42:将矩阵P每个行向量对应的获胜神经元索引号按照从小到大的顺序排列;
S43:分别将获胜神经元索引号从小到大对应的核图IP核映射到网络拓扑节点,得到最终的映射方案矩阵V。
本发明的另一方面提供了一种存储介质,所述存储介质中存储有计算机程序,所述计算机程序用于执行上述实施例中任一项所述基于SOM神经网络的片上光网络映射方法的步骤。
本发明的又一方面提供了一种电子设备,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器调用所述存储器中的计算机程序时实现如上述实施例中任一项所述基于SOM神经网络的片上光网络映射方法的步骤。
与现有技术相比,本发明的有益效果在于:
1、本发明基于增长型环形SOM神经网络的片上光网络映射方法,通过自适应方式在保证结果稳定的条件下降低了映射方法复杂度,减少了求解时间。
2、本发明采用的增长型环形SOM神经网络的网络结构是动态变化的,具有持续的自适应能力,使得所求解的有效性、准确性大大增加。
3、本发明采用的增长型环形SOM神经网络的方法求解简便、正确、稳定,所采用的神经网络控制参数少且对收敛性能影响较小,具有良好的容错性。
以下将结合附图及实施例对本发明做进一步详细说明。
附图说明
图1是本发明实施例提供的一种基于增长型环形SOM神经网络的片上光网络映射方法的流程图;
图2是本发明实施例提供的一种竞争层为矩形的SOM神经网络的拓扑结构图;
图3是本发明实施例提供的一种竞争层为环形的SOM神经网络的拓扑结构图;
图4是本发明实施例提供的一种增长型环形SOM神经网络的竞争层神经元数量从3增长到4的示意图;
图5是本发明实施例提供的一种增长型环形SOM神经网络竞争层中神经元增长变化过程图示意;
图6是本发明实施例提供的一种增长型环形SOM神经网络训练流程图;
图7是本发明实施例提供的一种映射方案矩阵V获取流程图。
具体实施方式
为了进一步阐述本发明为达成预定发明目的所采取的技术手段及功效,以下结合附图及具体实施方式,对依据本发明提出的一种基于增长型环形SOM神经网络的片上光网络映射方法进行详细说明。
有关本发明的前述及其他技术内容、特点及功效,在以下配合附图的具体实施方式详细说明中即可清楚地呈现。通过具体实施方式的说明,可对本发明为达成预定目的所采取的技术手段及功效进行更加深入且具体地了解,然而所附附图仅是提供参考与说明之用,并非用来对本发明的技术方案加以限制。
应当说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的物品或者设备中还存在另外的相同要素。
请参见图1,图1是本发明实施例提供的一种基于增长型环形SOM神经网络的片上光网络映射方法的流程图。该片上光网络映射方法包括:
S1:获取核图中的IP核连通关系矩阵P和网络拓扑中的节点通信损耗矩阵S。
需要说明的是,本发明实施例所面向的片上光网络的映射问题旨在将核图中的若干核图IP核一一映射到网络拓扑中的节点,获得最佳映射方案,使该映射方案下的最坏情况损耗在所有有效映射方案中是最小,即优化最坏情况损耗,以减小功耗。
核图IP核映射到网络拓扑节点后,在网络拓扑中,映射后的节点按照核图中的IP核连通关系进行信号传输与通信,求解具有通信关系的节点在传输过程中产生的最大损耗,即最坏情况损耗。
对于N个核图IP核到N个网络拓扑节点的映射,可以使用一个映射矩阵V对映射方案进行表示,映射矩阵V的大小为N×N。在映射矩阵V中,核图IP核i映射到网络拓扑节点j时将映射矩阵V中对应位置的元素V(i,j)置1,其余不满足此关系的元素置0。由于以一一映射进行,即一个核图IP核只能映射到一个网络拓扑节点中,一个网络拓扑节点只能被一个核图IP核映射,这使得映射矩阵V为一个置换矩阵,满足以下三个规则:
(1)映射矩阵V中每一行元素中有且仅有一个元素为1,其他元素为0;
(2)映射矩阵V中每一列元素中有且仅有一个元素为1,其他元素为0;
(3)映射矩阵V中所有元素之和等于N。
一般地,片上光网络的映射问题中,从已知的核图和网络拓扑,可以获得一些条件,如核图中IP核连通关系矩阵P以及网络拓扑中节点通信损耗矩阵S。具体获得的方法为:核图中包含了IP核之间的连通关系,连通关系采用箭头的形式注明,基于此可以获得IP核连通关系矩阵P;同时,在仅考虑损耗且路由算法确定的情况下,在已知的网络拓扑中,可以依据损耗参数计算出节点间通信损耗矩阵S。其中,IP核连通关系矩阵P和节点通信损耗矩阵S的大小均为N×N,在IP核连通关系矩阵P中,若核图中IP核i连通到核图中IP核j,则P(i,j)为1,其余不满足此关系的置0;在节点间通信损耗矩阵S中,S(i,j)表示网络拓扑中节点i到节点j通信所产生的损耗。在这两个条件下,本实施例利用增长型环形SOM神经网络求解出映射问题对应的映射矩阵V。
S2:利用所述节点通信损耗矩阵S中的行向量对增长型环形SOM神经网络进行训练,获得经训练的增长型环形SOM神经网络。
SOM神经网络是一种竞争学习网络,可以通过神经元之间的竞争实现大脑神经系统中的“近兴奋远抑制”功能,具有将高维输入映射到低维的能力。当输入某类模式时,输出层某节点得到最大刺激而获胜,获胜节点周围的节点因侧向作用也受到刺激,此时网络进行一次学习操作,获胜节点及周围节点的连接权值向量向输入模式的方向做相应的修正。当输入模式类别发生变化时,二维平面上的获胜节点也从原来的节点转移到其他节点。这样,网络通过自组织方式用大量样本数据来调整其连接权值,最后使网络输出层特征图能够反映样本数据的分布情况。整个过程主要是:竞争、合作、自适应。典型SOM网络为两层,输入层和竞争层,其中竞争层结构多为矩形,也有环形结构。请参见图2,图2是本发明实施例提供的一种竞争层为矩形的SOM神经网络的拓扑结构图,可以看出,输入层是一个N维向量,竞争层为矩形。请参见图3,图3是本发明实施例提供的一种竞争层为环形的SOM神经网络的拓扑结构图,可以看出,输入层是一个N维向量,竞争层为环形,竞争层的神经元数目是固定不变的。
在环形结构的基础上提出了一种增长型环形SOM神经网络,请参见图4,该增长型环形SOM神经网络的输入层是一个N维向量,竞争层是增长的环形结构,其特点是竞争层中的神经元数量会随着迭代次数的增加而增加,不是固定不变的;对于获胜神经元的邻域始终为其左右两个神经元。当输入层进行一次输入,竞争层中对应的获胜神经元与其邻域神经元会向着当前输入向量更接近的方向调整权值向量,通过不断的迭代更新,最终每个输入在竞争层中会对应一个最接近的获胜神经元。
请参见图5,图5是本发明实施例提供的一种增长型环形SOM神经网络竞争层中神经元增长变化过程图示意。假设输入向量数量为8个,竞争层初始神经元数量为3个,神经元的权值矩阵为W=(W1,W2,W3)T,每个神经元权值向量Wi=(wi1,wi2,···,wiN),每个神经元获胜次数C=(2,4,2)。
在第一次迭代时,每次输入一个输入向量,寻找获胜的神经元并令其获胜次数C(i)加1。全部输入向量依次输入完毕后一次迭代结束,在获胜次数最多的神经元与其相距较远的相邻神经元间增加新的神经元,新神经元的权值向量为获胜次数最多的神经元与其相距较远的相邻神经元权值向量的均值,同时将获胜次数最多的神经元的获胜次数减半给新神经元。新的竞争层神经元数量为4个,权值矩阵W中神经元权值向量对应的索引号和每个神经元获胜次数C进行了更新,权值矩阵W=(W1,W2,W3,W4)T,每个神经元获胜次数C=(2,2,2,2)。
继续下一次迭代,迭代结束后,同样在获胜次数最多的神经元与其相距较远的相邻神经元间增加新的神经元,依次这样处理直到迭代结束。第二次迭代结束后,每个神经元获胜次数C=(4,3,3,6),此时索引号为4的神经元获胜次数最多,增加新的神经元在神经元4和神经元1之间。
需要说明的是,本实施例假设每迭代1次增加1个神经元,也可以迭代2次增加1个神经元,神经元的增加数量可以根据实际情况设置。
如上所述,在映射问题上,已知的条件为核图中的IP核连通关系矩阵P和网络拓扑中的节点通信损耗矩阵S,本实施例使用节点通信损耗矩阵S中的N个行向量作为输入对所述增长型环形SOM神经网络进行训练。
具体地,本实施例的S2包括:
S21:对所述节点通信损耗矩阵S进行抽象化转换,转化为网络拓扑中每个节点对应的特征向量;
本实施例以一个8IP核的PIP核图到8节点的mesh网络映射问题为例。其中,mesh网络的损耗矩阵S如表1.mesh网络的损耗矩阵S所示。
表1.mesh网络的损耗矩阵S
mesh网络 | 节点1 | 节点2 | 节点3 | 节点4 | 节点5 | 节点6 | 节点7 | 节点8 |
节点1 | 0 | 0.2672 | 0.2985 | 0.3286 | 0.222 | 0.32 | 0.3491 | 0.377 |
节点2 | 0.2362 | 0 | 0.2672 | 0.2985 | 0.3332 | 0.222 | 0.32 | 0.3491 |
节点3 | 0.2822 | 0.2362 | 0 | 0.2672 | 0.3734 | 0.3332 | 0.222 | 0.32 |
节点4 | 0.3255 | 0.2822 | 0.2362 | 0 | 0.4112 | 0.3734 | 0.3332 | 0.222 |
节点5 | 0.2527 | 0.3734 | 0.4002 | 0.4259 | 0 | 0.2672 | 0.2985 | 0.3286 |
节点6 | 0.3208 | 0.2527 | 0.3734 | 0.4002 | 0.2362 | 0 | 0.2672 | 0.2985 |
节点7 | 0.3617 | 0.3208 | 0.2527 | 0.3734 | 0.2822 | 0.2362 | 0 | 0.2672 |
节点8 | 0.4002 | 0.3617 | 0.3208 | 0.2527 | 0.3255 | 0.2822 | 0.2362 | 0 |
在本实施例中,对损耗矩阵S进行一个抽象化理解,将其列向量改为属性,这样处理后,可以看作mesh网络的每个拓扑节点有八个属性,转化为表2所示。
表2.mesh网络的损耗矩阵S的抽象化转化
mesh网络 | 属性1 | 属性2 | 属性3 | 属性4 | 属性5 | 属性6 | 属性7 | 属性8 |
节点1 | 0 | 0.2672 | 0.2985 | 0.3286 | 0.222 | 0.32 | 0.3491 | 0.377 |
节点2 | 0.2362 | 0 | 0.2672 | 0.2985 | 0.3332 | 0.222 | 0.32 | 0.3491 |
节点3 | 0.2822 | 0.2362 | 0 | 0.2672 | 0.3734 | 0.3332 | 0.222 | 0.32 |
节点4 | 0.3255 | 0.2822 | 0.2362 | 0 | 0.4112 | 0.3734 | 0.3332 | 0.222 |
节点5 | 0.2527 | 0.3734 | 0.4002 | 0.4259 | 0 | 0.2672 | 0.2985 | 0.3286 |
节点6 | 0.3208 | 0.2527 | 0.3734 | 0.4002 | 0.2362 | 0 | 0.2672 | 0.2985 |
节点7 | 0.3617 | 0.3208 | 0.2527 | 0.3734 | 0.2822 | 0.2362 | 0 | 0.2672 |
节点8 | 0.4002 | 0.3617 | 0.3208 | 0.2527 | 0.3255 | 0.2822 | 0.2362 | 0 |
经过上述对损耗矩阵S进行处理后,得到网络拓扑每个节点对应的特征向量。对于N个核图IP核到N个网络拓扑节点的映射问题,对已知的损耗矩阵S转化后,会得到N个网络拓扑节点的特征向量,每一个特征向量为N维。
例如,表2中对应的mesh网络节点1的特征向量可以表示为:S1=(0,0.2672,0.2985,0.3286,0.2220,0.3200,0.3491,0.3770)。随后,将损耗矩阵S中得到的这N个N维特征向量作为输入去训练所述增长型环形SOM神经网络。
S22:将网络拓扑中每个节点对应的特征向量依次输入所述增长型环形SOM神经网络中以对所述增长型环形SOM神经网络进行训练。
具体地,请参见图6,图6是本发明实施例提供的一种增长型环形SOM神经网络训练流程图。所述S22包括:
S221:对所述增长型环形SOM神经网络的网络参数进行初始化。
在训练过程中包括以下参数:第一迭代次数Tint(Tint表示每迭代Tint次,在竞争层增加一个新的神经元)、学习率η、最大迭代次数Tmax、每次迭代中竞争层里神经元数量N(t)、记录竞争层中每个神经元i的获胜次数C(i)(C为一个数组,里面存放竞争层中所有神经元的获胜次数)、所有神经元权值向量组成的权值矩阵W,W=(W1,W2,...,Wlength(W))T,其中,length(W)表示权值矩阵W的长度。权值矩阵W中每增加一个新的神经元权值向量,则一些神经元对应的索引号会发生变化。
在本实施例中,设置增长型环形SOM神经网络的初始竞争层中神经元数量N(0)=3,对这3个神经元随机赋予权值向量Wi(i=1,2,3)(每个神经元的权值向量维度与输入向量维度相同,为N维);设置第一迭代次数Tint=1,即每迭代一次后,在竞争层中增加一个新的神经元;每个神经元的初始获胜次数C[]=0;学习率η=0.1;当前迭代次数t=0;最大迭代次数Tmax。
S222:将所述S21中获得的节点通信损耗矩阵S的特征向量输入至所述增长型环形SOM神经网络的输入层,分别计算竞争层每个神经元的权值向量以及输入特征向量的欧式距离。
具体地,第i个输入的特征向量为:Si=(si1,si2,...,siN),竞争层中第j个神经元权值向量为:Wj=(wj1,wj2,...,wjN),则第j个神经元与第i个输入的特征向量的欧式距离dj计算公式为:
在第一次迭代中,由于初始化竞争层神经元数量N(0)=3,分别计算欧式距离得到d1、d2和d3。
S223:根据所述欧式距离选择获胜神经元并对获胜神经元及其左右邻域神经元的权值向量进行更新。
具体地,选择竞争层中欧式距离最小值对应的神经元y作为当前输入特征向量对应节点的获胜神经元,获胜神经元的邻域为其左右相连的两个神经元,相应的索引号分别为y+1和y-1。对这三个神经元的权值向量进行更新;
Wy=Wy+η(Si-Wy)
Wy+1=Wy+1+η(Si-Wy+1)
Wy-1=Wy-1+η(Si-Wy-1)
更新结束后,将获胜神经元y的获胜次数C(y)加1。
S224:继续输入节点通信损耗矩阵S的其余特征向量,重复步骤S222-S223完成一次迭代。
具体地,继续输入网络拓扑其他节点对应的特征向量至所述增长型环形SOM神经网络的输入层(每次只输入一个向量,输入顺序可以按照某一固定分布,也可以依次输入),分别按照步骤S222-S223进行处理,当矩阵S中的N个特征向量全部输入并更新完成后,视为一次迭代结束。
S225:迭代预定次数之后,在所述竞争层中增加新神经元并获得新神经元的权值向量。
具体地,每迭代Tint次后,本实施例中,Tint=1,即每迭代一次,在竞争层增加一个新神经元r,新神经元r增加到获胜次数最多的神经元I与其相距较远的相邻神经元f之间,新神经元r的权值向量为获胜次数最多的神经元I与其相距较远的相邻神经元f权值向量的均值,同时将获胜次数最多的神经元I的获胜次数减半给新神经元r:
Wr=0.5(Wf+WI)
C(I)=C(r)=0.5C(I)
增加新神经元后,竞争层中神经元的数量+1。
S226:新神经元增加完成后,转至步骤S222开始下一次迭代,直至迭代次数到达最大迭代次数Tmax时结束迭代,获得经训练的增长型环形SOM神经网络。
需要说明的是,迭代的结束条件可以为迭代次数;当每个输入的特征向量对应的获胜神经元权值向量调整完以后与之前的权值向量相比相差都较小时,也可以作为迭代结束条件。本实施例使用了迭代次数作为结束条件。
具体地,首先将增长型环形SOM神经网络的参数进行初始化赋值,包括:学习率η、最大迭代次数Tmax、起始竞争层神经元数量N(0)、第一迭代次数Tint、每个神经元的初始获胜次数C、当前迭代次数t、每次迭代中已输入的输入向量数量计数a、每个神经元权值向量随机赋值存入权值矩阵W;当前迭代次数t<Tmax时,将矩阵S中的N个行向量依次输入至网络,每次输入一个行向量,依据欧氏距离获得对应的获胜神经元,更新获胜神经元和其邻域的权值向量,同时该获胜神经元的获胜次数加1,然后当前迭代中已输入向量数量计数a=a+1;直至a=N,N个行向量输入并训练完成,此次迭代结束,令计数a=0;迭代Tint次后增加新的神经元并对新的神经元赋权值向量和获胜次数,同时竞争层中神经元数量N(t+1)=N(t)+1;将迭代次数t=t+1,开始下一次迭代训练,直至t达到Tmax结束。如上所述,使用损耗矩阵S中的N个特征向量输入到增长型环形SOM神经网络中,反复迭代训练,使竞争层中对应的获胜神经元与其邻域神经元权值向量不断的向当前特征向量方向调整靠近,最终在增长型环形SOM神经网络中,每个输入的特征向量在竞争层中会对应一个最接近的获胜神经元,即神经元的权值向量和输入特征向量的欧式距离最小。
S3:利用所述经训练的增长型环形SOM神经网络分别获取矩阵S中每个行向量的获胜神经元索引号以及矩阵P中每个行向量的获胜神经元索引号。
使用损耗矩阵S中的N个向量将增长型环形SOM神经网络训练好之后,保持训练后神经元的权值向量都不变。首先,将所述矩阵S的N个行向量输入所述经训练的增长型环形SOM神经网络,依据欧氏距离获得矩阵S每个行向量对应的获胜神经元索引号。具体地,类似于步骤S2的训练过程,将损耗矩阵S的行向量依次输入至所述增长型环形SOM神经网络的输入层,分别计算竞争层每个神经元的权值向量以及输入特征向量的欧式距离。
具体地,第i个输入的特征向量为:Si=(si1,si2,...,siN),竞争层中第j个神经元权值向量为:Wj=(wj1,wj2,...,wjN),则第j个神经元与第i个输入的特征向量的欧式距离dj计算公式为:
选择竞争层中欧式距离最小值对应的神经元y作为当前输入特征向量对应节点的获胜神经元,记录获胜神经元的索引号。
在本实施例中,将mesh网络的八个节点的特征向量分别输入经训练的增长型环形SOM神经网络,获得八个神经元接近于mesh网络的这八个节点,记录这八个获胜神经元的索引号,如表2所示:
表2本实施例中八个输入特征向量接近的神经元索引号
mesh节点 | 节点1 | 节点2 | 节点3 | 节点4 | 节点5 | 节点6 | 节点7 | 节点8 |
获胜神经元索引号 | 12 | 5 | 51 | 60 | 20 | 29 | 35 | 43 |
其中,增长型环形SOM神经网络中最终的神经元数量为Tmax+3,初始化为3个,每次迭代增加1个,共迭代了Tmax次。在本实施例中,设置Tmax=60,因此共有63个神经元。
接着,将所述矩阵P的N个行向量输入所述经训练的增长型环形SOM神经网络,依据欧氏距离获得矩阵P每个行向量对应的获胜神经元索引号。
具体地,将IP核连通关系矩阵P中的行向量输入经训练的增长型环形SOM神经网络。类似于损耗矩阵S的处理,将矩阵P的行向量作为输入,分别计算竞争层每个神经元的权值向量以及输入特征向量的欧式距离,选择欧式距离最小的一个神经元作为输入向量Pi对应的获胜神经元。
具体的,在本实施例中,矩阵P为表4所示。
表4.核图中的IP核连通关系矩阵P
核图中IP核 | IP核1 | IP核2 | IP核3 | IP核4 | IP核5 | IP核6 | IP核7 | IP核8 |
IP核1 | 1 | 1 | ||||||
IP核2 | 1 | |||||||
IP核3 | 1 | |||||||
IP核4 | 1 | |||||||
IP核5 | 1 | |||||||
IP核6 | 1 | |||||||
IP核7 | 1 | |||||||
IP核8 |
类似地,首先,将矩阵P进行抽象化转换,将列坐标改为属性,获得核图中IP核对应的特征向量,如表5所示。
表5.IP核连通关系矩阵P的抽象化转化
核图中IP核 | 属性1 | 属性2 | 属性3 | 属性4 | 属性5 | 属性6 | 属性7 | 属性8 |
IP核1 | 1 | 1 | ||||||
IP核2 | 1 | |||||||
IP核3 | 1 | |||||||
IP核4 | 1 | |||||||
IP核5 | 1 | |||||||
IP核6 | 1 | |||||||
IP核7 | 1 | |||||||
IP核8 |
具体地,获得八个输入向量,通过观察发现核图中中IP核4和IP核6的特征向量相同。这样计算出来的最小欧式距离对应的是同一个获胜神经元,为将其进行一个区分,在不影响结果的基础上,将矩阵P改为如下表6所示。
表3.IP核连通关系矩阵P的最终调整
核图中IP核 | 属性1 | 属性2 | 属性3 | 属性4 | 属性5 | 属性6 | 属性7 | 属性8 |
IP核1 | 1 | 1 | 1 | |||||
IP核2 | 1 | 1 | ||||||
IP核3 | 1 | 1 | ||||||
IP核4 | 1 | 1 | ||||||
IP核5 | 1 | 1 | ||||||
IP核6 | 1 | 1 | ||||||
IP核7 | 1 | 1 | ||||||
IP核8 | 1 |
具体地,将矩阵P的对角线分别赋值1,区分开八个核向量,这样调整后,对最终的求解结果不会产生影响,因为在计算损耗时,表2中的对角线均为0。随后,将最终调整的八个向量分别输入到已训练的增长型环形SOM神经网络,找出每一个向量对应的获胜神经元索引号,如表7所示。
表4.获胜神经元索引号的分布
mesh节点 | 节点1 | 节点2 | 节点3 | 节点4 | 节点5 | 节点6 | 节点7 | 节点8 |
获胜神经元索引号 | 12 | 5 | 51 | 60 | 20 | 29 | 35 | 43 |
核图中IP核 | 核1 | 核2 | 核3 | 核4 | 核5 | 核6 | 核7 | 核8 |
获胜神经元索引号 | 43 | 20 | 25 | 17 | 58 | 57 | 11 | 1 |
总之,将矩阵S的N个行向量输入经训练的增长型环形SOM神经网络中,依据欧式距离获得矩阵S每个行向量对应的获胜神经元索引号,然后将矩阵P的N个行向量输入经训练的增长型环形SOM神经网络中,依据欧式距离获得矩阵P每个行向量对应的获胜神经元索引号。S4:根据IP核连通关系矩阵P的获胜神经元索引号和节点通信损耗矩阵S的获胜神经元索引号获得核图中IP核与网络拓扑节点之间的映射矩阵V。
最后需要完成核图IP核到网络拓扑节点的一一映射,本实施例的原则是尽可能将获胜神经元索引号靠近的核图IP核映射到网络拓扑节点,同时还要满足一一映射的关系。因此将网络拓扑中节点对应的获胜神经元索引号从小到大进行排序,对核图IP核对应的获胜神经元同样处理,如表8所示。
表5.获胜神经元索引号从小到大排序
mesh节点 | 节点2 | 节点1 | 节点5 | 节点6 | 节点7 | 节点8 | 节点3 | 节点4 |
获胜神经元索引号 | 5 | 12 | 20 | 29 | 35 | 43 | 51 | 60 |
核图中IP核 | IP核8 | IP核7 | IP核4 | IP核2 | IP核3 | IP核1 | IP核6 | IP核5 |
获胜神经元索引号 | 1 | 11 | 17 | 20 | 25 | 43 | 57 | 58 |
这样处理后,分别将获胜神经元索引号从小到大对应的核图IP核映射到网络拓扑节点,得到最终的映射方案矩阵V。具体地,从表8可以看出,将IP核8映射到节点2、IP核7映射到节点1,等等,获得对应的矩阵V,如表9所示。
表6.实施例的映射方案矩阵V
PIP\mesh | 节点1 | 节点2 | 节点3 | 节点4 | 节点5 | 节点6 | 节点7 | 节点8 |
IP核1 | 1 | |||||||
IP核2 | 1 | |||||||
IP核3 | 1 | |||||||
IP核4 | 1 | |||||||
IP核5 | 1 | |||||||
IP核6 | 1 | |||||||
IP核7 | 1 | |||||||
IP核8 | 1 |
具体地,如图7所示,使用损耗矩阵S中的N个行向量将增长型环形SOM神经网络训练好之后,保持训练后神经元的权值向量都不变。将矩阵S中的N个行向量依次输入至经训练的增长型环形SOM神经网络,每次输入一个行向量,依据欧氏距离获得每个行向量对应的获胜神经元索引号。并令计数a=a+1。a=N时表示N个向量输入完成,将N个输入得到的N个获胜神经元按照索引号从小到大排序。接着,将矩阵P中的N个向量同样处理,分别获得每个行向量对应的获胜神经元索引号,N个向量输入完成,将N个输入得到的N个获胜神经元按照索引号从小到大排序,得到表48所示的结果,最后将获胜神经元索引号从小到大对应的核图IP核映射到网络拓扑节点,得到映射方案矩阵V。接着,分别利用本发明实施例的片上光网络映射方法与其他现有算法进行片上光网络映射过程,获得相应的处理时间,其中,本发明实施例的片上光网络映射方法的处理时间为0.3秒左右,而现有技术的粒子群算法为0.95s,人工蜂群算法为0.67s,人工鱼群算法为0.67s,模拟退火算法为0.67s,连续型霍普菲尔德神经网络(Continuous Hopfield Neural Network,CHNN)算法为0.65s,遍历算法为1.02s。可以发现,增长型环形SOM神经网络可以处理片上光网络映射问题,且在求解时间上有大的优势。
本发明实施例基于SOM神经网络的片上光网络映射方法,通过自适应方式在保证结果稳定的条件下降低了映射方法复杂度,减少了求解时间。
本发明的又一实施例提供了一种存储介质,所述存储介质中存储有计算机程序,所述计算机程序用于执行上述实施例中所述基于SOM神经网络的片上光网络映射方法步骤。本发明的再一方面提供了一种电子设备,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器调用所述存储器中的计算机程序时实现如上述实施例所述基于SOM神经网络的片上光网络映射方法的步骤。具体地,上述以软件功能模块的形式实现的集成的模块,可以存储在一个计算机可读取存储介质中。上述软件功能模块存储在一个存储介质中,包括若干指令用以使得一台电子设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random AccessMemory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。
Claims (10)
1.一种基于增长型环形SOM神经网络的片上光网络映射方法,其特征在于,包括:
S1:获取核图中的IP核连通关系矩阵和网络拓扑中的节点通信损耗矩阵;
S2:利用所述节点通信损耗矩阵中的行向量对增长型环形SOM神经网络进行训练,获得经训练的增长型环形SOM神经网络;
S3:利用所述经训练的增长型环形SOM神经网络分别获取节点通信损耗矩阵中每个行向量的获胜神经元索引号以及IP核连通关系矩阵中每个行向量的获胜神经元索引号;
S4:根据IP核连通关系矩阵的获胜神经元索引号和节点通信损耗矩阵的获胜神经元索引号获得核图中IP核与网络拓扑节点之间的映射矩阵。
2.根据权利要求1所述的基于增长型环形SOM神经网络的片上光网络映射方法,其特征在于,所述S2包括:
S21:对所述节点通信损耗矩阵S进行抽象化转换,转化为网络拓扑中每个节点对应的特征向量;
S22:将网络拓扑中每个节点对应的特征向量依次输入所述增长型环形SOM神经网络中以对所述增长型环形SOM神经网络进行训练。
3.根据权利要求2所述的基于增长型环形SOM神经网络的片上光网络映射方法,其特征在于,所述S22包括:
S221:对所述增长型环形SOM神经网络的参数进行初始化;
S222:将所述S21中获得的节点通信损耗矩阵S的特征向量输入至所述增长型环形SOM神经网络的输入层,分别计算竞争层每个神经元的权值向量以及输入特征向量的欧式距离;
S223:根据所述欧式距离选择获胜神经元并对获胜神经元及其左右邻域神经元的权值向量进行更新;
S224:继续输入节点通信损耗矩阵S的其余特征向量,重复步骤S222-S223完成一次迭代;
S225:迭代预定次数之后,在所述竞争层中增加新神经元并获得新神经元的权值向量;
S226:新神经元增加完成后,转至步骤S222开始下一次迭代,直至迭代次数到达最大迭代次数Tmax时结束迭代,获得经训练的增长型环形SOM神经网络。
4.根据权利要求3所述的基于增长型环形SOM神经网络的片上光网络映射方法,其特征在于,所述S221包括:
设置增长型环形SOM神经网络的初始竞争层中神经元数量N(0),对神经元随机赋予权值向量;
设置第一迭代次数Tint、每个神经元的初始获胜次数C[]、学习率η以及最大迭代次数Tmax,其中,所述第一迭代次数Tint表示每迭代Tint次,在竞争层增加一个新神经元。
5.根据权利要求3所述的基于增长型环形SOM神经网络的片上光网络映射方法,其特征在于,所述S223包括:
选择竞争层中欧式距离最小值对应的神经元y作为当前输入特征向量对应节点的获胜神经元,对获胜神经元及其左右邻域的两个神经元y+1和y-1进行权值向量更新:
Wy=Wy+η(Si-Wy)
Wy+1=Wy+1+η(Si-Wy+1)
Wy-1=Wy-1+η(Si-Wy-1)
其中,η表示学习率,更新结束后,将获胜神经元y的获胜次数C(y)加1。
6.根据权利要求3所述的基于增长型环形SOM神经网络的片上光网络映射方法,其特征在于,所述S225包括:
每迭代Tint次后,在竞争层增加一个新神经元r,将新神经元r增加到获胜次数最多的神经元I与其相距较远的相邻神经元f之间,且新神经元r的权值向量为获胜次数最多的神经元I与其相距较远的相邻神经元f权值向量的均值,同时将获胜次数最多的神经元I的获胜次数减半给新神经元r:
Wr=0.5(Wf+WI)
C(I)=C(r)=0.5C(I)。
7.根据权利要求1所述的基于增长型环形SOM神经网络的片上光网络映射方法,其特征在于,所述S3包括:
S31:将所述矩阵S的N个行向量输入所述经训练的增长型环形SOM神经网络,依据欧氏距离获得矩阵S每个行向量对应的获胜神经元索引号。
S32:将所述矩阵P的N个行向量输入所述经训练的增长型环形SOM神经网络,依据欧氏距离获得矩阵P每个行向量对应的获胜神经元索引号。
8.根据权利要求1所述的基于增长型环形SOM神经网络的片上光网络映射方法,其特征在于,所述S4包括:
S41:将矩阵S每个行向量对应的获胜神经元索引号按照从小到大的顺序排列;
S42:将矩阵P每个行向量对应的获胜神经元索引号按照从小到大的顺序排列;
S43:分别将获胜神经元索引号从小到大对应的核图IP核映射到网络拓扑节点,得到最终的映射方案矩阵V。
9.一种存储介质,其特征在于,所述存储介质中存储有计算机程序,所述计算机程序用于执行权利要求1至6中任一项所述基于增长型环形SOM神经网络的片上光网络映射方法的步骤。
10.一种电子设备,其特征在于,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器调用所述存储器中的计算机程序时实现如权利要求1至6任一项所述基于增长型环形SOM神经网络的片上光网络映射方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111519491.7A CN114637720B (zh) | 2021-12-13 | 2021-12-13 | 一种基于增长型环形som神经网络的片上光网络映射方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111519491.7A CN114637720B (zh) | 2021-12-13 | 2021-12-13 | 一种基于增长型环形som神经网络的片上光网络映射方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114637720A CN114637720A (zh) | 2022-06-17 |
CN114637720B true CN114637720B (zh) | 2024-04-30 |
Family
ID=81946425
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111519491.7A Active CN114637720B (zh) | 2021-12-13 | 2021-12-13 | 一种基于增长型环形som神经网络的片上光网络映射方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114637720B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115276820B (zh) * | 2022-07-29 | 2023-09-01 | 西安电子科技大学 | 一种应用映射辅助的片上光互连光源功率梯度设置方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106156844A (zh) * | 2015-03-23 | 2016-11-23 | 日本电气株式会社 | 用于构建时空神经网络和利用其进行预测的方法和设备 |
CN108833145A (zh) * | 2018-05-30 | 2018-11-16 | 厦门大学 | 一种使用自组织映射网络的分段二维预失真系统及方法 |
CN110737777A (zh) * | 2019-08-28 | 2020-01-31 | 南京航空航天大学 | 一种基于ghsom算法的知识地图构建方法 |
CN110837891A (zh) * | 2019-10-23 | 2020-02-25 | 南京大学 | 基于simd架构的自组织映射方法及系统 |
WO2020073925A1 (zh) * | 2018-10-09 | 2020-04-16 | 上海寒武纪信息科技有限公司 | 运算方法、装置、计算机设备和存储介质 |
CN111241289A (zh) * | 2020-01-17 | 2020-06-05 | 北京工业大学 | 一种基于图理论的som算法 |
CN113424169A (zh) * | 2019-03-15 | 2021-09-21 | 英特尔公司 | 用于临时缓冲的片上密集存储器 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160026915A1 (en) * | 2001-01-05 | 2016-01-28 | In-Depth Test Llc | Methods and Apparatus for Data Analysis |
-
2021
- 2021-12-13 CN CN202111519491.7A patent/CN114637720B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106156844A (zh) * | 2015-03-23 | 2016-11-23 | 日本电气株式会社 | 用于构建时空神经网络和利用其进行预测的方法和设备 |
CN108833145A (zh) * | 2018-05-30 | 2018-11-16 | 厦门大学 | 一种使用自组织映射网络的分段二维预失真系统及方法 |
WO2020073925A1 (zh) * | 2018-10-09 | 2020-04-16 | 上海寒武纪信息科技有限公司 | 运算方法、装置、计算机设备和存储介质 |
CN113424169A (zh) * | 2019-03-15 | 2021-09-21 | 英特尔公司 | 用于临时缓冲的片上密集存储器 |
CN110737777A (zh) * | 2019-08-28 | 2020-01-31 | 南京航空航天大学 | 一种基于ghsom算法的知识地图构建方法 |
CN110837891A (zh) * | 2019-10-23 | 2020-02-25 | 南京大学 | 基于simd架构的自组织映射方法及系统 |
CN111241289A (zh) * | 2020-01-17 | 2020-06-05 | 北京工业大学 | 一种基于图理论的som算法 |
Non-Patent Citations (3)
Title |
---|
"A Loss-Aware Growing Ring Self-Organizing Map(GRSOM)-based Mapping Algorithm in Optical Network-on-Chip(ONoC)";Yuxiang Niu;《2022 IEEE 22nd International Conference on Communication Technology (ICCT)》;20221114;第216-220页 * |
"Failure prediction for linear ball bearings based on wavelet transformation and self-organizing map";Jiankang Zhong;《2018 IEEE 4th Information Technology and Mechatronics Engineering Conference(ITOEC)》;20181216;第34-38页 * |
"基于推荐算法的智慧餐饮系统的设计与实现";李崭;《中国优秀硕士学位论文全文数据库 信息科技辑》;20180815(第2018年08期);第I138-169页 * |
Also Published As
Publication number | Publication date |
---|---|
CN114637720A (zh) | 2022-06-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Pedrycz et al. | Linguistic interpretation of self-organizing maps | |
US11042802B2 (en) | System and method for hierarchically building predictive analytic models on a dataset | |
Bakhshi et al. | Fast automatic optimisation of CNN architectures for image classification using genetic algorithm | |
CN114637720B (zh) | 一种基于增长型环形som神经网络的片上光网络映射方法 | |
Liu et al. | Comprehensive graph gradual pruning for sparse training in graph neural networks | |
Su et al. | Improving the self-organizing feature map algorithm using an efficient initialization scheme | |
CN114511021A (zh) | 基于改进乌鸦搜索算法的极限学习机分类算法 | |
Parekh et al. | Constructive neural network learning algorithms for multi-category real-valued pattern classification | |
CN115359298A (zh) | 基于稀疏神经网络的联邦元学习图像分类方法 | |
Du et al. | CGaP: Continuous growth and pruning for efficient deep learning | |
CN117670586A (zh) | 一种基于图神经网络的电网节点碳因子预测方法及系统 | |
Ahmed et al. | Branchconnect: Image categorization with learned branch connections | |
CN115906959A (zh) | 基于de-bp算法的神经网络模型的参数训练方法 | |
CN115470889A (zh) | 基于强化学习的片上网络自主最优映射探索系统及方法 | |
Yang et al. | MTiling-a constructive neural network learning algorithm for multi-category pattern classification | |
Park et al. | The weights initialization methodology of unsupervised neural networks to improve clustering stability | |
CN112766412A (zh) | 一种基于自适应稀疏图学习的多视图聚类方法 | |
US20230289563A1 (en) | Multi-node neural network constructed from pre-trained small networks | |
Purbey et al. | Using self-organizing maps for recommender systems | |
JP7197624B2 (ja) | タスクネットワークを選択するための方法、並びにセンシングデータに基づいて行動を決定するためのシステム及び方法 | |
CN113705858B (zh) | 多目标区域的最短路径规划方法、系统、设备及存储介质 | |
CN113824802B (zh) | 一种去中心化分布式训练拓扑结构、训练系统及方法 | |
US20220207285A1 (en) | Classifier system and method for generating classification models in a distributed manner | |
Chen et al. | Pagerank centrality based graph convolutional networks for semi-supervised node classification | |
Zhang et al. | Tree structured artificial immune network with self-organizing reaction operator |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |