CN112016667A - 优化装置和优化方法 - Google Patents
优化装置和优化方法 Download PDFInfo
- Publication number
- CN112016667A CN112016667A CN202010448953.XA CN202010448953A CN112016667A CN 112016667 A CN112016667 A CN 112016667A CN 202010448953 A CN202010448953 A CN 202010448953A CN 112016667 A CN112016667 A CN 112016667A
- Authority
- CN
- China
- Prior art keywords
- neuron
- update
- value
- target
- update target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000005457 optimization Methods 0.000 title claims abstract description 75
- 238000000034 method Methods 0.000 title claims abstract description 32
- 210000002569 neuron Anatomy 0.000 claims abstract description 247
- 238000004364 calculation method Methods 0.000 claims abstract description 24
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 230000000717 retained effect Effects 0.000 claims 1
- 230000008859 change Effects 0.000 description 22
- 238000012545 processing Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 14
- 238000002922 simulated annealing Methods 0.000 description 10
- XOFYZVNMUHMLCC-ZPOLXVRWSA-N prednisone Chemical compound O=C1C=C[C@]2(C)[C@H]3C(=O)C[C@](C)([C@@](CC4)(O)C(=O)CO)[C@@H]4[C@@H]3CCC2=C1 XOFYZVNMUHMLCC-ZPOLXVRWSA-N 0.000 description 9
- 238000000137 annealing Methods 0.000 description 8
- 238000000605 extraction Methods 0.000 description 7
- 230000007704 transition Effects 0.000 description 7
- 238000001514 detection method Methods 0.000 description 5
- 230000007423 decrease Effects 0.000 description 4
- 238000010187 selection method Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 3
- 238000000342 Monte Carlo simulation Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 210000004027 cell Anatomy 0.000 description 2
- 230000005284 excitation Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005283 ground state Effects 0.000 description 1
- -1 isooctyl Chemical group 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 208000011580 syndromic disease Diseases 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Neurology (AREA)
- Probability & Statistics with Applications (AREA)
- Algebra (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Feedback Control In General (AREA)
Abstract
提供了优化装置和优化方法。一种优化装置包括多个神经元电路和更新控制电路,多个神经元电路分别包括:第一存储器,该第一存储器存储组合目的地信息,接收指示更新目标神经元的更新目标信息,以及输出指示与更新目标信息一致的组合目的地信息的信号;第二存储器,该第二存储器存储加权系数,以及输出与由从第一存储器输出的信号指示的组合目的地信息相对应的加权系数;以及计算电路,该计算电路通过使用加权系数和更新目标神经元的值来随机地允许目标神经元的值的更新,以及输出指示目标神经元的值是否被允许更新的确定结果;该更新控制电路被配置成基于多个确定结果来确定更新目标神经元,更新该更新目标神经元的值,以及输出更新目标信息。
Description
技术领域
本文讨论的实施方式涉及优化装置和优化方法。
背景技术
作为解决不易被诺伊曼型(Neumann-type)计算机处理的多变量组合优化问题的方法,存在使用伊辛型(Ising-type)能量函数的优化装置(也可以被称为伊辛机或玻尔兹曼机)。优化装置通过用伊辛模型替换问题来计算要计算的问题,该伊辛模型是表示磁体的自旋行为的模型。
优化装置还能够通过例如使用神经网络来执行建模。在这种情况下,对应于伊辛模型中包括的多个自旋的多个状态变量中的每一个都用作神经元,该神经元根据另一状态变量的值和指示另一状态变量与自身状态变量的值之间的相互作用的大小的加权系数来输出0或1。优化装置使用例如概率搜索方法诸如模拟退火,以便找到从其获得如上所描述的能量函数的值(称为能量)中的最小值的相应状态变量的值的组合作为解。
在相关技术中,存在一种优化装置,其通过使用数字电路执行模拟退火来计算能量被最小化的相应的状态变量的值的组合。
在使用神经网络的技术中存在一种通过学习根据点火状态添加或删除神经元的技术。
作为相关技术,例如,公开了日本公开特许公报第2001-331839号、日本公开特许公报第2017-219952号、日本公开特许公报第2018-10474号和国际公布第WO 2015/132883号。
发明内容
同时,响应于问题规模的增加,加权系数的数量随着状态变量的数量增加而增加。例如,在用伊辛模型替换问题时具有优越的灵活性并且可以考虑所有状态变量之间的相互作用的总组合类型优化装置(例如,日本公开特许公报第2017-219952号和日本公开特许公报第2018-10474号)中,加权系数的数量随着状态变量的数量增加而迅速增加。
为此,例如,在通过具有一个芯片的半导体集成电路实现优化装置的情况下,存储加权系数的存储单元的容量增加。存在将加权系数存储在优化装置外部的存储器中的方法或通过使用多个芯片来配置优化装置的方法,但是存在由于从存储器读取加权系数或用于芯片之间的通信的时间而导致计算速度降低的问题。
作为一个方面,本公开内容提供了能够减小存储加权系数的存储单元的容量的优化装置和优化方法。
根据实施方式的一方面,一种优化装置包括多个神经元电路和更新控制电路,多个神经元电路分别包括:第一存储器,该第一存储器存储组合目的地信息,组合目的地信息指示要与目标神经元组合的组合目的地神经元,目标神经元是与通过转换优化问题而获得的伊辛模型的多个自旋相对应的多个神经元之一,第一存储器接收指示值要被更新的更新目标神经元的更新目标信息,以及输出指示与更新目标信息一致的组合目的地信息的信号;第二存储器,该第二存储器存储指示目标神经元与组合目的地神经元之间的组合强度的加权系数,以及输出与由从第一存储器输出的信号指示的组合目的地信息相对应的加权系数;以及计算电路,该计算电路通过使用从第二存储器输出的加权系数和更新目标神经元的值来随机地允许目标神经元的值的更新,以及输出指示是否允许更新目标神经元的值的确定结果,以及多个神经元电路被分别配置成输出针对彼此不同的目标神经元的确定结果;该更新控制电路被配置成基于从多个神经元电路输出的多个确定结果来确定更新目标神经元,更新该更新目标神经元的值,以及输出更新目标信息。
[本发明的有益效果]
根据实施方式,可以减少存储加权系数的存储装置的容量。
附图说明
图1是示出根据第一实施方式的优化装置的示例的图;
图2是示出根据第二实施方式的优化装置的示例的图;
图3是示出神经元电路的示例的图;
图4是示出CAM的示例的图;
图5是示出根据第二实施方式的优化装置的示例的操作的流程的流程图;
图6是示出根据第三实施方式的优化装置的示例的图;
图7是示出根据第三实施方式的优化装置中的CAM的示例的图;
图8是示出根据第三实施方式的优化装置中的更新控制电路的示例的图;以及
图9是示出根据第三实施方式的优化装置的示例的操作的流程的流程图。
具体实施方式
在下文中,将参照附图来描述本公开内容的实施方式。
以下描述的优化装置搜索与通过转换优化问题而获得的伊辛模型中的多个自旋相对应的多个神经元的值(在下文中,被称为“位值”)的组合之中当能量变为最小时的每个神经元的位值的组合。
例如,通过以下等式(1)定义伊辛型能量函数E(x)。
针对所有神经元的所有组合,在不重叠和遗漏的情况下,通过将两个神经元的位值(0或1)与加权系数的乘积进行累加来获得右侧的第一项。xi是通过标识信息(以下称为id)表示神经元i的位值的变量(也称为状态变量),并且xj是表示id=j的神经元的位值的变量。Wij是指示id=i,j的神经元的相互作用的大小(组合的强度)的加权系数。在这种情况下,满足Wii=0。在许多情况下满足Wij=Wji(例如,在许多情况下,加权系数的系数矩阵是对称矩阵)。Wij具有预定的位宽(例如,16位、32位、64位、128位等)。
通过计算所有神经元的偏置系数与神经元的位值的乘积之和来获得右侧的第二项。bi表示id=i的神经元的偏置系数。
当xi变为1-xi时,xi的增量表示为Δxi=(1-xi)-xi=1-2xi。响应于自旋反转(神经元的位值的变化)的能量变化ΔEi由下面的等式(2)表示。
在等式(2)中,当xi从1变为0时,Δxi成为-1,而当xi从0变为1时,Δxi成为1。hi被称为局部字段,并且hi与根据Δxi的符号(+1或-1)的乘积为ΔEi。当hi小于0时,通过将xi从1更新为0,总能量减少;并且当hi大于0时,通过将xi从0更新为1,总能量减少。
当xj从0变为1时的hi的变化(Δhi)用+Wij表示,并且当xj从1变为0时的Δhi用-Wij表示。因此,当根据状态转变而更新的神经元的位值为1或0时,可以通过向原始hi加上Wij或从原始hi减去Wij来更新hi。
(第一实施方式)
图1是示出根据第一实施方式的优化装置的示例的图。
根据第一实施方式的优化装置10包括神经元电路11a1、11a2……和11an,以及更新控制电路12。在图1的示例中,将指示n个神经元中的任何一个神经元的id分配给神经元电路11a1至11an中的每个神经元电路。在图1的示例中,将id=1分配给神经元电路11a1,将id=2分配给神经元电路11a2,并且将id=n分配给神经元电路11an。
神经元电路11a1包括存储单元11b1和11c1以及计算单元11d1。
存储单元11b1保持组合目的地信息,该组合目的地信息指示要与作为多个(n个)神经元之一的目标神经元组合的组合目的地神经元。存储单元11b1接收指示值要被更新的更新目标神经元的更新目标信息,并输出指示与更新目标信息一致的组合目的地信息的信号。
图1示出了保持在存储单元11b1中的组合目的地信息的示例。神经元电路11a1中的目标神经元是id=1的神经元,并且组合目的地信息指示与id=1的神经元进行组合的神经元。在图1的示例中,要与id=1的神经元组合的神经元的id(2、5……和n-1)被保持在存储单元11b1中作为组合目的地信息。在接收idj=2作为更新目标信息(idj)的情况下,存储单元11b1保持有与idj=2一致的组合目的地信息(id=2),使得输出指示id=2的信号。在接收到idj=n的情况下,存储单元11b1未保持与idj=n一致的组合目的地信息,使得存储单元11b1不输出指示组合目的地信息的信号。
存储单元11b1可以例如由内容可寻址存储器(CAM)实现。存储单元11b1可以通过使用随机存取存储器(RAM)、比较器等来实现。
存储单元11c1保持指示目标神经元与组合目的地神经元之间的组合强度的加权系数,并输出与由从存储单元11b1输出的信号指示的组合目的地信息相对应的加权系数。
图1示出了保持在存储单元11c1中的加权系数的示例。在id=1的神经元与以上描述的id=2、5……和n-1的神经元组合的情况下,存储单元11c1保持W12、W15……和W1,n-1作为加权系数。在存储单元11b1输出指示id=2的信号的情况下,存储单元11c1输出W12。
存储单元11cl可以通过例如RAM、寄存器等来实现。
例如,通过控制装置(未示出)将优化问题转换成由能量函数诸如等式(1)表示的伊辛模型来获得组合目的地信息或加权系数。组合目的地信息或加权系数在优化装置10的初始设置处理中从控制装置被提供给优化装置10,并且被写入到存储单元11b1和11c1中。
计算单元11d1使用从存储单元11c1输出的加权系数和更新目标神经元的位值,以便随机地允许目标神经元的值的更新,并且输出指示是否允许更新目标神经元的值的确定结果(f1)。
例如,计算单元11d1通过使用从存储单元11c1输出的加权系数和更新目标神经元的位值来更新以上描述的局部字段(h1),并且基于等式(2)来更新能量变化(ΔE1)。计算单元11d1基于根据温度参数和随机数确定的热噪声以及ΔE1来确定是否允许更新id=1的神经元的位值。温度参数从例如控制电路(未示出)或更新控制电路12输入。
如上所描述的,在针对id=i的神经元的hi小于0且xi为1的情况下,通过将xi从1更新为0来减少总能量。在hi大于0且xi等于0的情况下,通过将xi从0更新为1来减少总能量。另一方面,在hi小于0且xi为0的情况下,通过将xi从0更新为1来增加总能量。在hi大于0且xi为1的情况下,通过将xi从1更新为0来增加总能量。
为了减少伊辛模型的状态陷入非基态(最优解)的局部解中,计算单元11d1还通过使用热噪声来产生能量以预定的概率增加的状态转变。温度参数越大,热噪声的噪声宽度越大。在执行模拟退火的情况下,将温度参数控制为逐渐变小。
计算单元11d1由计算ΔE1的逻辑电路、通过使用随机数生成器诸如线性反馈移位寄存器(LFSR)来生成热噪声的电路、比较器来实现。
其他神经元电路11a2至11an具有与神经元电路11a1的元件相同的元件,并且输出针对不同目标神经元的确定结果。例如,分配有id=2的神经元电路11a2包括存储单元11b2和11c2以及计算单元11d2,并且输出指示是否允许更新id=2的神经元的位值的确定结果(f2)。分配有id=n的神经元电路11an包括存储单元11bn、11cn以及计算单元11dn,并且输出指示是否允许更新id=n的神经元的位值的确定结果(fn)。
更新控制电路12基于从神经元电路11a1至11an输出的确定结果(f1至fn)来确定一个更新目标神经元,更新该更新目标神经元的位值(xj),以及输出更新目标信息(idj)。
例如,在存在多个允许被更新的神经元的情况下,通过使用选择电路来实现更新控制电路12,该选择电路基于随机数、保持每个神经元的位值的寄存器等来选择一个神经元作为更新目标神经元。例如,在日本公开特许公报第2018-041351号中的图5至图7中描述了基于随机数选择一个神经元作为更新目标神经元的选择电路的示例。
在下文中,将描述根据第一实施方式的优化装置10的操作示例。
首先,在初始设置处理中,将从控制装置(未示出)供给的组合目的地信息或加权系数写入到存储单元11b1至11bn和11c1至11cn中。通过控制装置在计算单元11d1至11dn的每一个中设置每个神经元的局部字段的初始值,并且在更新电路12的寄存器(未示出)中设置每个神经元的位值的初始值。在执行模拟退火的情况下,通过控制装置设置退火条件(诸如温度参数的变更安排或计算的重复次数)。
此后,计算单元11d1至11dn基于每个神经元的位值或通过初始设置处理获得的局部字段的初始值来计算能量变化。计算单元11d1至11dn基于针对每个神经元的计算出的能量变化和热噪声来输出指示是否允许更新的确定结果(f1至fn)。在下面的描述中,假设在fi=1的情况下允许更新id=i的神经元。
更新控制电路12基于从神经元电路11a1至11an输出的f1至fn来确定更新目标神经元。在存在多个允许被更新的神经元的情况下,更新控制电路12例如基于随机数确定一个神经元作为更新目标神经元。更新控制电路12更新该更新目标神经元的位值(xj),并输出更新目标信息(idj)。在不存在允许被更新的神经元的情况下,不执行位值的更新。
为了减少解限于局部解,计算单元11d1至11dn可以在每当不发生更新位值的情况时将偏移值与能量变化相加并增加偏移值,从而促进更新。
在更新控制电路12输出idj的情况下以及在存在与idj相对应的组合目的地信息的情况下,存储单元11b1至11bn输出指示组合目的地信息的信号。例如,如上所描述的,在idj=2并且存储单元11b1保持有id=2作为组合目的地信息的情况下,存储单元11b1输出指示id=2的信号。
存储单元11c1至11cn输出与由从存储单元11b1至11bn输出的信号指示的组合目的地信息相对应的加权系数。
计算单元11d1至11dn基于从存储单元11c1至11cn输出的加权系数以及xj来更新局部字段,并且更新能量变化。此后,重复基于更新后的能量变化和热噪声输出f1至fn、确定更新目标神经元以及更新xj。
在执行模拟退火的情况下,将以上描述的处理重复预定次数,同时逐渐降低热噪声。输出在以上描述的处理重复预定次数之后获得的每个神经元的位值作为优化问题的解。更新控制电路12可以通过使用由于更新目标神经元的更新而引起的能量变化来更新能量,并且可以保持在最小值时的每个神经元的位值,并且最小值是在能量为到目前为止的最小值的情况下获得的。在这种情况下,可以输出在以上描述的处理的重复次数达到预定次数时所保持的能量为最小值时的每个神经元的位值作为解。
如上所描述的,在根据第一实施方式的优化装置10中,不进行组合的神经元之间的加权系数未保持在存储单元11cl至11cn中。例如,在不将id=1的神经元和id=n的神经元进行组合的情况下,加权系数(W1n)为0。在这种情况下,当等式(1)中的i=1且j=n时,W1nx1xn=0,而与x1和xn的值无关,因此W1n不影响能量。出于该原因,存储单元11c1可以不保持W1n。
通过不保持这样的加权系数,可以减小存储单元11cl至11cn的容量。因此,例如,可以在具有一个芯片的优化装置10中计算较大规模的优化问题。
尽管每个神经元的组合目的地根据问题而变化,但是可以根据问题通过改变存储单元11b1至11bn和11c1至11cn的保持内容来应对各种组合状态。
(第二实施方式)
图2是示出根据第二实施方式的优化装置的示例的图。
根据第二实施方式的优化装置20包括神经元电路21a1、21a2……和21an、更新控制电路22和控制电路23。优化装置20耦接至控制装置25。
神经元电路21a1至21an执行与图1所示的神经元电路11a1至11an相同的功能。以下将描述神经元电路21a1至21an的电路示例。
更新控制电路22执行与图1所示的更新控制电路12的功能相同的功能。更新控制电路22包括例如保持单元22a,保持单元22a保持每个神经元的位值。保持单元22a可以通过例如寄存器、RAM等来实现。
控制电路23基于从控制装置25供给的信息来执行优化装置20的初始设置处理等。在执行模拟退火的情况下,控制电路23例如在每当确定更新目标神经元的处理重复一定次数时基于退火条件减小温度参数的值。
在确定更新目标神经元的处理重复预定次数之后,控制电路23获得保持在保持单元22a中的每个神经元的位值,并将所获得的位值作为优化问题的解发送至控制装置25。
在保持单元22a保持在获得最小值或能量的最小值时每个神经元的位值的情况下,控制电路23可以获得在确定更新目标神经元的处理重复预定次数之后的信息,并将该信息发送至控制装置25。
例如,控制电路23可以由专用电子电路诸如专用集成电路(ASIC)、现场可编程门阵列(FPGA)等来实现。控制电路23可以是处理器诸如中央处理单元(CPU)、数字信号处理器(DSP)。在这样的情况下,处理器通过执行存储在存储器(未示出)中的程序来执行上面描述的处理。
执行控制电路23的功能的一部分或全部的元件可以包括在更新控制电路22或控制装置25中。
控制装置25基于由用户输入的优化问题的信息将优化问题转换成伊辛模型(公式化成等式(1)中的能量函数)。经转换的伊辛模型的信息包括加权系数和偏置系数。基于加权系数,控制装置25将针对每个神经元的组合目的地的神经元的id作为组合目的地信息发送至优化装置20。控制装置25将局部字段的初始值(例如,偏置系数)、其值不为0的加权系数、退火条件等发送至优化装置20。在从优化装置20接收解(每个神经元的位值)的情况下,控制装置25可以在显示装置(未示出)上显示解。
控制装置25可以是计算机诸如个人计算机(PC)或处理器诸如CPU或DSP。
(神经元电路21a1至21an的示例)
图3是示出神经元电路的示例的图。虽然图3示出了神经元电路21a1的示例,但是其他神经元电路21a2至21an也由相同的电路实现。
神经元电路21al包括CAM 30、RAM 31和计算单元32。
CAM 30保持指示要与id=1的神经元组合的组合目的地神经元的id。CAM 30接收指示值要被更新的更新目标神经元的idj,并在保持有与idj相对应的id的情况下输出指示id的信号。下面将描述CAM 30的示例(参照图4)。
RAM 31保持指示id=1的神经元与组合目的地神经元之间的组合强度的加权系数,并输出与由从CAM 30输出的信号指示的id相对应的加权系数。
计算单元32包括ΔE计算单元32a和状态转变确定单元32b。
ΔE计算单元32a包括选择电路32al、乘法器32a2、加法器32a3、寄存器32a4、乘法器32a5和选择电路32a6。
选择电路32al实现对更新目标神经元(id=idj的神经元)的位值的变化的计算。当更新目标神经元的位值(xj)从1变为0时,变化(Δxj)变为-1,而当xj从0变为1时,Δxj变为1。当从更新控制电路22供给的xj(更新之后的值)为0时,选择电路32a1选择并输出-1,而当xj为1时,选择电路32a1选择并输出1。
乘法器32a2输出从RAM 31输出的加权系数与从选择电路32al输出的值的乘积。在图3的示例中,加权系数W1j被输入至乘法器32a2。乘法器32a2的输出表示由于xj的变化而引起的局部字段(h1)的变化(Δh1)。
加法器32a3输出通过将由乘法器32a2输出的值与存储在寄存器32a4中的值相加而获得的值。
寄存器32a4与时钟信号(未示出)同步地获取由加法器32a3输出的值(h1)。寄存器32a4例如是触发器。在将所有神经元的位值的初始值设置为0的情况下,存储在寄存器32a4中的h1的初始值是偏置系数(b1)。
乘法器32a5输出从寄存器32a4输出的h1与从选择电路32a6输出的值的乘积。该乘积是等式(2)中的由于id=1的神经元的位值的变化而引起的能量变化(ΔE1)。
选择电路32a6实现等式(2)中-Δxi的计算。当作为从更新控制电路22供给的id=1的神经元的位值的x1为0时,选择电路32a6输出-1,而当x1为1时,选择电路32a6输出1。
状态转变确定单元32b包括符号反转单元32bl、偏移加法单元32b2、随机数生成电路32b3、选择方法应用单元32b4、乘法器32b5和比较电路32b6。
符号反转单元32b1通过将ΔE1乘以-1来使符号反转。
偏移加法单元32b2将偏移值与符号反转单元32b1的输出值(-ΔE1)相加。当从更新控制电路22接收到指示不存在允许被更新的神经元的信号(fj=0)时,偏移加法单元32b2增加偏移值。另一方面,当从更新控制电路22接收到指示存在允许被更新的神经元的信号(fj=1)时,偏移加法单元32b2将偏移值设置为0。当偏移值变大时,更容易允许神经元的位值的更新,并且在当前状态存在于局部解中(每个神经元的位值的组合)的情况下,促进跳出局部解。
随机数生成电路32b3生成等于或大于0且等于或小于1的均匀随机数r。
选择方法应用单元34b4基于用于执行模拟退火的选择方法(蒙特卡洛方法或吉布斯方法)输出值。
在执行模拟退火的情况下,当如在以下等式(3)和(4)中确定引起一定能量变化的状态转变的允许概率A(ΔE,T)时,已知该状态在无限的时间限制(迭代的次数)处达到最优解。
A(ΔE,T)=f(-ΔE/T) (3)
在等式(3)和(4)中,T是以上描述的温度参数。
在使用由等式(3)和(4)表示的允许概率A(ΔE,T)的情况下,当在充分迭代之后达到正常状态时,对于热力学中的热平衡状态,每个状态的占有概率遵循玻尔兹曼分布。由于当温度从高温度逐渐降低时低能量状态的占有概率增加,所以可以在温度充分降低时获得低能量状态。由于该行为类似于当对材料进行退火时的状态改变,因此该方法被称为模拟退火。此时,能量增加的状态转变随机地发生的情况对应于物理学中的热激发。
可以通过比较器来实现输出确定结果(=1)的电路,该确定结果(=1)指示以允许概率A(ΔE,T)引起能量变化的状态转变被允许,该比较器基于等式(3)和(4)中的f(-ΔE/T)与均匀随机数r的比较结果而输出值。
同时,即使在进行以下修改时,也可以实现相同的功能。即使在将相同的单调递增函数应用于两个数时,它们之间的大小关系也不会改变。因此,即使在将相同的单调递增函数应用于比较器的两个输入时,比较器的输出也不会改变。例如,可以使用作为f(-ΔE/T)的反函数的f-1(-ΔE/T)作为作用于f(-ΔE/T)的单调递增函数,并且使用通过将f-1(-ΔE/T)的-ΔE/T设置为r而获得的f-1(r)作为作用于均匀随机数(r)的单调递增函数。在这种情况下,具有与以上描述的比较器相同功能的电路可以是当-ΔE/T大于f-1(r)时输出1的电路。由于T为正,因此该电路可以是当-ΔE大于T·f-1(r)时输出1的电路。
选择方法应用单元32b4通过使用用于将输入r转换成上面描述的f-1(r)的值的转换表来输出f-1(r)的值。在使用蒙特卡洛方法的情况下,f-1(r)等于log(r)。转换表被存储在例如存储器诸如RAM或闪存中。
乘法器32b5输出从控制电路23供给的T与f-1(r)的乘积(T·f-1(r))。T·f-1(r)对应于以上描述的热噪声(热激发能)。
比较电路32b6将偏移加法单元32b2的相加结果与T·f-1(r)进行比较。在相加结果大于T·f-1(r)的情况下,比较电路32b6输出指示允许更新id=1的神经元的确定结果(f1=1),并且在该相加结果小于T·f-1(r)的情况下,比较电路32b6输出指示不允许更新的确定结果(f1=0)。
(CAM 30的示例)
图4是示出CAM的示例的图。
CAM 30包括输入寄存器30a、一致性确定电路30b1、30b2、30b3……和30bm以及编码器30c。
输入寄存器30a保持指示更新目标神经元的idj。在图4的示例中,假设作为全部神经元的数目的n为1024。在这种情况下,如图4所示,id和idj的位数为10位。在每个神经元的组合数的最大值为32的情况下,例如,设置32个一致性确定电路30b1至30bm。
一致性确定电路30b1至30bm中的每一个包括寄存器,该寄存器保持id,该id指示要与分配给包括CAM 30的神经元电路21a1的id=1的神经元组合的神经元。一致性确定电路30b1至30bm中的每一个在保持的id与输入寄存器30a中保持的idj一致的情况下输出1,并且在id与idj不一致的情况下输出0。
编码器30c对从一致性确定电路30bl至30bm输出的值进行编码并且输出编码结果。
例如,在图4的示例中,在一致性确定电路30b2的寄存器中保持的id与idj一致,使得一致性确定电路30b2输出1。在这种情况下,编码器30c输出例如“01”。
在CAM 30包括如上所描述的编码器30c的情况下,RAM 31包括解码器31a。解码器31a输出用于指定存储区域的信号,在该存储区域中存储有与由从编码器30c输出的编码结果所指示的id相对应的加权系数。在图4的示例中,RAM 31包括保持8位的加权系数的存储区域31b1、31b2、31b3……和31bm。
在通过解码器31a输出用于指定存储区域31b2的信号的情况下,读出保持在存储区域31b2中的加权系数(W1j=00100011)。
CAM 30可以不包括编码器30c。在这种情况下,RAM 31可以不包括解码器31a。在这种情况下,RAM 31通过根据从一致性确定电路30b1至30bm输出的值来指定存储区域31b1至31bm中的任何一个来读出加权系数。
(根据第二实施方式的优化装置20的操作示例(优化方法的示例))
图5是示出根据第二实施方式的优化装置的示例的操作的流程的流程图。
当优化装置20的操作开始时(例如,当供电时),首先执行初始设置处理(步骤S10)。在初始设置处理中,控制电路23将例如CAM 30或RAM 31中的保持内容、保持单元22a中的保持内容、寄存器32a4中的保持内容等一次初始化为0。控制电路23从控制装置25接收要与每个神经元组合的神经元的id和值不为0的加权系数,并将该id和加权系数写入到相对应的神经元电路的CAM 30或RAM 31中。控制电路23从控制装置25接收局部字段的初始值(例如,偏置系数),并将初始值写入到相对应的神经元电路的寄存器32a4中。控制电路23还从控制装置25接收退火条件。
此后,控制电路23将指示重复次数的变量(t)设置为0(步骤S11)。
神经元电路21a1至21an中的每一个首次基于通过初始设置处理获得的每个神经元的位值、局部字段的初始值等来计算能量变化或热噪声。神经元电路21a1至21an中的每一个基于能量变化和热噪声来确定是否允许更新每个神经元(是否允许更新)(步骤S12)。神经元电路21a1至21an中的每一个在第二次和后续次中基于每个更新后的神经元的位值和更新后的能量变化来执行相同的处理。
更新控制电路22基于从神经元电路21a1至21an输出的确定结果(f1至fn)来确定一个更新目标神经元,并更新位值(步骤S13)。在存在多个允许更新的神经元的情况下,更新控制电路22例如基于随机数将一个神经元确定为更新目标神经元。更新控制电路22将指示确定的更新目标神经元的idj和更新后的位值(xj)提供给神经元电路21a1至21an中的每一个(步骤S14)。在不存在允许被更新的神经元的情况下,更新控制电路22不更新位值,并且输出fj=0以增加以上描述的偏移值。
在神经元电路21a1至21an中的每一个中包括的CAM 30保持有与idj一致的id的情况下,从RAM 31读取与该id相对应的加权系数(步骤S15)。在从RAM 31读取加权系数的情况下,神经元电路21a1至21an中的每一个中包括的计算单元32基于加权系数和更新目标神经元的位值(xj)来更新能量变化。(步骤S16)。
此后,控制电路23将指示重复次数的t设置为+1(步骤S17),并确定t是否大于预定次数(k)(步骤S18)。在t等于或小于k的情况下,控制电路23使神经元电路21a1至21an重复从步骤S12开始的处理。
尽管在图5中未示出,但是在执行模拟退火的情况下,每当t增加预定次数时,控制电路23根据退火条件来降低温度参数的值。
在t大于k的情况下,控制电路23获得保持在保持单元22a中的每个神经元的位值,输出(发送至控制装置25)作为优化问题的解(步骤S19),并终止优化装置20的操作。
在保持单元22a保持在获得最小值或能量的最小值时的每个神经元的位值的情况下,在确定更新目标神经元的处理重复预定次数之后控制电路23获得保持的信息。控制电路23可以将获得的信息发送至控制装置25。
如上所描述的,根据第二实施方式的优化装置20具有与根据第一实施方式的优化装置10的优点相同的优点。例如,可以减少如图4所示存储加权系数的RAM 31的容量。例如,在每个神经元的组合数的最大值为32的情况下,可以使用具有保持32个加权系数的容量的RAM 31。因此,例如,可以通过具有一个芯片的优化装置20计算较大规模的优化问题。
由于CAM 30通常具有较小的延迟时间,因此计算时间几乎没有由于添加了CAM 30而减少。
(第三实施方式)
图6是示出根据第三实施方式的优化装置的示例的图。在图6中,与图3中所示的元件相同的元件被分配有相同的附图标记。在图6中,未示出图2所示的控制单元23。
在根据第三实施方式的优化装置40中,神经元电路41a1的CAM 42输出指示是否保持有与idj相对应的组合目的地信息(id)的一致性确定信息(MHIT1)。在下面的描述中,假定在保持有与idj相对应的id的情况下,CAM 42输出MHIT1=0,而未保持与idj相对应的id的情况下,CAM 42输出MHIT1=1。
神经元电路41a2至41an具有与神经元电路41a1的电路配置相同的电路配置。神经元电路41a2至41an输出是否允许更新id=2至n的神经元的确定结果(f2至fn),并且还输出指示是否保持有与idj相对应的id的一致性确定信息(MHIT2至MHITn)。
在由神经元电路41a1至41an之中的输出值为1的一致性确定信息的神经元电路输出的确定结果允许神经元的更新的情况下,更新控制电路43将该神经元确定为更新目标神经元之一。
(根据第三实施方式的优化装置40中的CAM 42的示例)
图7是示出根据第三实施方式的优化装置中的CAM的示例的图。在图7中,与图4中所示的元件相同的元件被分配有相同的附图标记。
CAM 42包括异或(NOR)电路42a。异或电路42a输出MHIT1,该MHIT1是各个一致性确定电路30b1至30bm的输出值的异或。
如图7所示,在一致性确定电路30b1至30bm全部均未保持与idj一致的id的情况下,一致性确定电路30b1至30bm的输出值变为0,并且异或电路42a输出MHIT1=1。在一致性确定电路30b1至30bm中的任何一个中保持有与idj一致的id的情况下,一致性确定电路30b1至30bm中的任何一个的输出值成为1,并且异或电路42a输出MHIT1=0。
(根据第三实施方式的优化装置40中的更新控制电路43的示例)
图8是示出根据第三实施方式的优化装置中的更新控制电路的示例的图。
更新控制电路43包括存储器43a、id提取电路43b、加法电路43c、神经元选择电路43d、组合神经元检测电路43e、id存在检测电路43f和位值更新电路43g。
存储器43a存储指示每个神经元的ID。例如可以使用半导体存储装置诸如寄存器、RAM和闪存作为存储器43a。在神经元电路41a1至41an中的每一个保持自身的id并且该id与f1至fn以及MHIT1至MHITn一起被供给至更新控制电路43的情况下,可以不设置存储器43a。
id提取电路43b从存储器43a中提取分配给神经元电路的id,该神经元电路输出从神经元电路41a1至41an中的每一个输出的确定结果(f1至fn)之中的值为1的确定结果,并且id提取电路43b输出id。id提取电路43b在f1至fn全部为0的情况下输出fj=0,并且在f1至fn中至少一个的值为1的情况下输出fj=1。
在存在由id提取电路43b提取的多个id的情况下,加法电路43c删除多个id之中的由神经元选择电路43d输出的idj和由组合神经元检测电路43e输出的idc。
神经元选择电路43d从自加法电路43c输出的id中选择指示更新目标神经元的idj。例如,在存在多个从加法电路43c输出的id的情况下,神经元选择电路43d随机选择id之一或者选择具有最小(或最大)值的id作为idj。
基于从各个神经元电路41a1至41an输出的MHIT1至MHITn,组合神经元检测电路43e从存储器43a中提取指示要与由idj表示的更新目标神经元组合的神经元的id,并将该id作为idc输出。在MHIT1至MHITn之中,将分配给输出值为0的一致性确定信息的神经元电路的id作为idc输出。例如,将要与更新目标神经元组合的神经元的id作为idc输出。
id存在检测电路43f检测从加法电路43c输出的id的存在与否。从id存在检测电路43f输出的检测结果被供给至位值更新电路43g,并且还被供给至控制电路23。
位值更新电路43g具有保持单元保持每个神经元的位值的保持单元(未示出),更新(从0反转为1或从1反转为0)由idj指示的更新目标神经元的位值,并输出更新后的位值(xj)。在id存在检测电路43f检测到不存在id的情况下,位值更新电路43g不更新位值。
在更新控制电路43中,允许对除要与基于MHIT1至MHITn检测到的更新目标神经元组合的神经元以外的神经元进行更新。例如,在f1,f2=1的情况下,id提取电路43b输出id=1、2。神经元选择电路43d例如将id=1作为idj输出。因此,更新id=1的神经元的位值。
在id=1的神经元和id=2的神经元没有彼此组合的情况下,MHIT2=1。因此,不将id=2作为idc输出。此时,由于加法电路43c删除id=1、2之中的由神经元选择电路43d输出的id=1,因此神经元选择电路43d将id=2作为idj输出。因此,更新id=2的神经元的位值。
(根据第三实施方式的优化装置40的操作示例(优化方法的示例))
图9是示出根据第三实施方式的优化装置的示例的操作的流程的流程图。
步骤S20、S21和S22中的处理与图5中所示的步骤S10至S12中的处理相同。在步骤S23中的处理中,图8所示的更新控制电路43的神经元选择电路43d确定一个更新目标神经元,并且位值更新电路43g更新该更新目标神经元的位值(xj)。在步骤S24的处理中,将从神经元选择电路43d输出的idj和从位值更新电路43g输出的xj分别供给至神经元电路41a1至41an。步骤S25和S26的后续处理与图5所示的步骤S15和S16的处理相同。
在步骤S27的处理中,图8所示的更新控制电路43的加法电路43c从自id提取电路43b输出的id中删除idc和idj。在步骤S28的处理中,id存在检测电路43f检测是否存在从加法电路43c输出的id(id是否保留)。在id保留的情况下,重复从步骤S23开始的处理。在未保留id的情况下,执行步骤S29中的处理。步骤S29、S30和S31中的处理与图5中所示的步骤S17至S19中的处理相同。
尽管在图9中未示出,但是在执行模拟退火的情况下,每当t增加预定次数时,控制电路23根据退火条件来降低温度参数的值。
如上所描述的,根据第三实施方式的优化装置40具有与根据第二实施方式的优化装置20的优点相同的优点。根据优化装置40,在允许更新多个神经元的位值的情况下,同时可以针对没有组合的神经元更新位值。即使当同时针对没有组合的神经元更新位值时,向最优解的收敛也不会劣化。
通过使用如上所描述的MHIT1至MHITn,即使在未保持值为0的加权系数时,也可以检测未与更新目标神经元组合的神经元。
如上所描述的,已经根据实施方式描述了实施方式的优化装置和优化方法的一个方面,这样的方面仅是示例,并且不限于以上描述。
Claims (4)
1.一种优化装置,包括:
多个神经元电路,所述多个神经元电路分别包括:
第一存储器,其存储组合目的地信息,所述组合目的地信息指示要与目标神经元组合的组合目的地神经元,所述目标神经元是与通过转换优化问题而获得的伊辛模型的多个自旋相对应的多个神经元之一;接收指示值要被更新的更新目标神经元的更新目标信息;以及输出指示与所述更新目标信息一致的所述组合目的地信息的信号,
第二存储器,其存储指示所述目标神经元与所述组合目的地神经元之间的组合强度的加权系数,以及输出与由从所述第一存储器输出的所述信号指示的所述组合目的地信息相对应的所述加权系数,以及
计算电路,其通过使用从所述第二存储器输出的所述加权系数和所述更新目标神经元的值来随机地允许所述目标神经元的值的更新,以及输出指示所述目标神经元的值是否被允许更新的确定结果,以及
所述多个神经元电路被分别配置成输出针对彼此不同的目标神经元的确定结果;以及
更新控制电路,所述更新控制电路被配置成:基于从所述多个神经元电路输出的多个确定结果来确定所述更新目标神经元,更新所述更新目标神经元的值,以及输出所述更新目标信息。
2.根据权利要求1所述的优化装置,
其中,所述第一存储器输出指示是否保持有与所述更新目标信息一致的所述组合目的地信息的一致性确定信息,以及
当所述多个神经元电路中的输出指示未保持与所述更新目标信息一致的所述组合目的地信息的一致性确定信息的神经元电路输出指示所述目标神经元的值被允许更新的确定结果时,所述更新控制电路将所述目标神经元确定为更新目标神经元之一。
3.根据权利要求1所述的优化装置,
其中,所述第一存储器是内容可寻址存储器。
4.一种优化方法,包括:
通过包括在多个神经元电路中的每个神经元电路中的第一存储器,存储组合目的地信息,所述组合目的地信息指示要与目标神经元组合的组合目的地神经元,所述目标神经元是与通过转换优化问题而获得的伊辛模型的多个自旋相对应的多个神经元之一,所述目标神经元在所述多个神经元电路中是不同的;接收指示值要被更新的更新目标神经元的更新目标信息;以及输出指示与所述更新目标信息一致的所述组合目的地信息的信号;
通过包括在所述多个神经元电路中的每个神经元电路中的第二存储器,存储指示所述目标神经元与所述组合目的地神经元之间的组合强度的加权系数,并且输出与由从所述第一存储器输出的所述信号指示的所述组合目的地信息相对应的所述加权系数;
通过包括在所述多个神经元电路中的每个神经元电路中的计算电路,通过使用从所述第二存储器输出的所述加权系数和所述更新目标神经元的值来随机地允许所述目标神经元的值的更新,以及输出指示所述目标神经元的值是否被允许更新的确定结果;以及
通过更新控制电路,基于分别从所述多个神经元电路的计算电路输出的多个确定结果来确定所述更新目标神经元,更新所述更新目标神经元的值,以及输出所述更新目标信息。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019-100622 | 2019-05-29 | ||
JP2019100622A JP7208529B2 (ja) | 2019-05-29 | 2019-05-29 | 最適化装置及び最適化方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112016667A true CN112016667A (zh) | 2020-12-01 |
Family
ID=70779601
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010448953.XA Pending CN112016667A (zh) | 2019-05-29 | 2020-05-25 | 优化装置和优化方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11526740B2 (zh) |
EP (1) | EP3745319A1 (zh) |
JP (1) | JP7208529B2 (zh) |
CN (1) | CN112016667A (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022165250A (ja) | 2021-04-19 | 2022-10-31 | 富士通株式会社 | プログラム、データ処理方法及びデータ処理装置 |
JP2024062514A (ja) | 2022-10-25 | 2024-05-10 | 富士通株式会社 | データ処理装置、データ処理方法およびプログラム |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103646283A (zh) * | 2013-11-21 | 2014-03-19 | 中国民航大学 | 能量可控的连续Hopfield神经网络及优化求解方法 |
CN106203616A (zh) * | 2015-05-04 | 2016-12-07 | 富士通株式会社 | 神经网络模型训练装置和方法 |
US20170351947A1 (en) * | 2016-06-06 | 2017-12-07 | Fujitsu Limited | Information processing apparatus, ising device, and information processing apparatus control method |
US20180018563A1 (en) * | 2016-07-13 | 2018-01-18 | Fujitsu Limited | Information processing apparatus, ising device, and control method for information processing apparatus |
US20180075342A1 (en) * | 2016-09-09 | 2018-03-15 | Fujitsu Limited | Information processing apparatus, ising unit, and information processing apparatus control method |
US20180107172A1 (en) * | 2016-10-14 | 2018-04-19 | Fujitsu Limited | Optimization apparatus and optimization apparatus control method |
CN109154798A (zh) * | 2016-05-09 | 2019-01-04 | 1Qb信息技术公司 | 用于改进随机控制问题的策略的方法和系统 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05233586A (ja) * | 1992-02-25 | 1993-09-10 | Mitsubishi Electric Corp | デジタル神経回路およびその駆動方法 |
JP2001331839A (ja) | 2000-05-22 | 2001-11-30 | Glory Ltd | 紙幣識別方法及び装置 |
WO2015073771A2 (en) * | 2013-11-15 | 2015-05-21 | Saffron Technology, Inc. | Methods, systems and computer program products for using a distributed associative memory base to determine data correlations and convergence therein |
JP6177993B2 (ja) | 2014-03-04 | 2017-08-09 | 株式会社日立製作所 | 半導体装置および情報処理装置 |
JP6468247B2 (ja) | 2016-06-06 | 2019-02-13 | 富士通株式会社 | イジング装置及びイジング装置の制御方法 |
US10242311B2 (en) | 2016-08-11 | 2019-03-26 | Vivante Corporation | Zero coefficient skipping convolution neural network engine |
JP6501939B2 (ja) | 2018-03-15 | 2019-04-17 | ヤフー株式会社 | モデル生成装置、情報配信装置、モデル生成方法、情報配信方法、モデル生成プログラム、情報配信プログラム、推定装置および推定方法 |
-
2019
- 2019-05-29 JP JP2019100622A patent/JP7208529B2/ja active Active
-
2020
- 2020-05-15 US US16/874,735 patent/US11526740B2/en active Active
- 2020-05-20 EP EP20175618.6A patent/EP3745319A1/en not_active Withdrawn
- 2020-05-25 CN CN202010448953.XA patent/CN112016667A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103646283A (zh) * | 2013-11-21 | 2014-03-19 | 中国民航大学 | 能量可控的连续Hopfield神经网络及优化求解方法 |
CN106203616A (zh) * | 2015-05-04 | 2016-12-07 | 富士通株式会社 | 神经网络模型训练装置和方法 |
CN109154798A (zh) * | 2016-05-09 | 2019-01-04 | 1Qb信息技术公司 | 用于改进随机控制问题的策略的方法和系统 |
US20170351947A1 (en) * | 2016-06-06 | 2017-12-07 | Fujitsu Limited | Information processing apparatus, ising device, and information processing apparatus control method |
US20180018563A1 (en) * | 2016-07-13 | 2018-01-18 | Fujitsu Limited | Information processing apparatus, ising device, and control method for information processing apparatus |
US20180075342A1 (en) * | 2016-09-09 | 2018-03-15 | Fujitsu Limited | Information processing apparatus, ising unit, and information processing apparatus control method |
US20180107172A1 (en) * | 2016-10-14 | 2018-04-19 | Fujitsu Limited | Optimization apparatus and optimization apparatus control method |
Also Published As
Publication number | Publication date |
---|---|
US11526740B2 (en) | 2022-12-13 |
US20200380346A1 (en) | 2020-12-03 |
JP7208529B2 (ja) | 2023-01-19 |
EP3745319A1 (en) | 2020-12-02 |
JP2020194442A (ja) | 2020-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6623947B2 (ja) | 情報処理装置、イジング装置及び情報処理装置の制御方法 | |
EP3816873A1 (en) | Neural network circuit device, neural network processing method, and neural network execution program | |
US20190073591A1 (en) | Execution of a genetic algorithm having variable epoch size with selective execution of a training algorithm | |
CN114418105B (zh) | 一种基于量子线路处理量子应用问题的方法及装置 | |
US11748645B2 (en) | Optimization apparatus and control method thereof | |
US11244026B2 (en) | Optimization problem arithmetic method and optimization problem arithmetic device | |
JP7410395B2 (ja) | 最適化装置及び最適化方法 | |
CN112016667A (zh) | 优化装置和优化方法 | |
CN111077768B (zh) | 优化装置及优化装置的控制方法 | |
EP3885999A1 (en) | Optimization apparatus, optimization method, and program | |
US20200272682A1 (en) | Information processing apparatus and method for controlling sampling apparatus | |
JP2019139323A (ja) | 最適化システム、最適化装置及び最適化システムの制御方法 | |
WO2021036362A1 (zh) | 用于处理数据的方法、装置以及相关产品 | |
CN117316333A (zh) | 基于通用的分子图表示学习模型的逆合成预测方法及装置 | |
CN114077805A (zh) | 信息处理系统 | |
Turk et al. | Identification of linear parameter-varying systems: A reweighted ℓ2, 1-norm regularization approach | |
CN112668706A (zh) | 在低功率控制器上执行遗传算法 | |
CN113222160B (zh) | 一种量子态的转换方法及装置 | |
JP7256378B2 (ja) | 最適化システムおよび最適化システムの制御方法 | |
US11106761B2 (en) | Optimization problem arithmetic method and optimization problem arithmetic apparatus | |
CN115881209B (zh) | 一种rna二级结构预测的处理方法和装置 | |
CN116911224A (zh) | 用于优化数字逻辑电路的方法、计算机设备及存储介质 | |
CN115510780B (zh) | 一种基于ppa预测的门级网表自动生成方法 | |
CN115577798A (zh) | 基于随机加速梯度下降的半联邦学习方法及装置 | |
WO2021037082A1 (zh) | 用于处理数据的方法、装置以及相关产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |