CN108694442B - 计算机系统以及使用了递归神经网络的运算方法 - Google Patents

计算机系统以及使用了递归神经网络的运算方法 Download PDF

Info

Publication number
CN108694442B
CN108694442B CN201810156156.7A CN201810156156A CN108694442B CN 108694442 B CN108694442 B CN 108694442B CN 201810156156 A CN201810156156 A CN 201810156156A CN 108694442 B CN108694442 B CN 108694442B
Authority
CN
China
Prior art keywords
input
time
series data
output
streams
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810156156.7A
Other languages
English (en)
Other versions
CN108694442A (zh
Inventor
奥村忠嗣
田井光春
高桥宏昌
安藤正彦
龟代典史
永田真斗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of CN108694442A publication Critical patent/CN108694442A/zh
Application granted granted Critical
Publication of CN108694442B publication Critical patent/CN108694442B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2458Special types of queries, e.g. statistical queries, fuzzy queries or distributed queries
    • G06F16/2477Temporal data queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/067Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using optical means
    • G06N3/0675Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using optical means using electro-optical, acousto-optical or opto-electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Probability & Statistics with Applications (AREA)
  • Databases & Information Systems (AREA)
  • Neurology (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Fuzzy Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Operations Research (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Algebra (AREA)
  • Design And Manufacture Of Integrated Circuits (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Complex Calculations (AREA)
  • Optical Communication System (AREA)

Abstract

一种计算机系统以及使用了递归神经网络的运算方法,计算机系统执行使用了由输入部、储备池部以及输出部构成的递归神经网络的运算处理,输入部包括接收多个时间序列数据的输入节点,储备池部包括伴随时间延迟的至少一个非线性节点,输出部包括计算输出值的输出节点,输入部对所接收的多个时间序列数据的每一个执行采样以及保持处理以及掩蔽处理,从而计算多个输入流,对多个输入流的每一个执行给予时间偏差的时移处理,通过将执行了时移处理的多个输入流的每一个进行叠加来计算输入数据。据此,在将多个时间序列数据作为输入来处理的储备池计算中,实现高精度且高速的处理。

Description

计算机系统以及使用了递归神经网络的运算方法
技术领域
本发明涉及储备池计算(reservoir computing)。
背景技术
近年来,在机器学习中利用了模仿了脑神经网络的神经网络。神经网络由输入层、输出层以及隐藏层构成。在隐藏层中,通过反复单纯的变换,将输入数据变换为高维数据,从而能够获得信息的识别以及预测等期望的输出。
作为隐藏层的变换的一例,有模仿了神经元的放电现象的非线性变换。神经元的放电现象,已知为在对神经元输入了超过阈值的电位的情况下,膜电位急剧上升,输出发生变化的非线性现象。为了再现前述的现象,例如,使用了式(1)所示的S型(sigmoid)函数。
【数式1】
Figure BDA0001581123390000011
在图像等的识别中使用的神经网络称为前馈网络。前馈网络将某时刻的独立的数据群用作输入,数据依次送到输入层、隐藏层、输出层。
在视频以及语言等的识别中使用的神经网络称为递归神经网络(recurrentneural network)。为了识别随时间变化的数据,需要进行包括时间轴上的数据的相关的解析,所以输入时间序列数据。因此,在递归神经网络的隐藏层中,执行处理过去数据以及当前数据的处理。
递归神经网络存在学习过程比前馈网络复杂的问题。此外,还存在学习过程的计算成本较高的问题。因此,一般,递归神经网络的神经元数被设定得较少。
作为解决该课题的方法,已知一种称为储备池计算的方式(例如,参照专利文献1、专利文献2)。在储备池计算中,构成相当于隐藏层的储备池的网络的连接是固定的,对于储备池以及输出层的连接进行学习。
作为能够封装于计算机的储备池计算,提出了由伴随时间延迟的一个非线性节点以及延迟循环构成的储备池(例如,非专利文献1)。在非专利文献1中,记载了通过将延迟间隔进行N等分,将各点视为虚拟节点,从而构筑储备池的网络。非专利文献1所记载的储备池因为结构简单所以能够容易地封装于计算机。
这里,使用图9来示出包括非专利文献1所记载的储备池的储备池计算。
在输入层输入的数据,被执行采样以及保持处理。在平坦化处理中,按照宽度T的每个区间进行采样。这里,T对应于延迟时间。进而,在输入层输入的数据,被执行将一个区间进行N等分并且进行调制的掩蔽(mask)处理。执行了前述处理的输入信号按照每个宽度T进行处理。宽度T中包括的N个值作为虚拟节点的状态来处理。
在输入层输入的数据无论是连续时间的数据还是离散时间的数据,都被变换为离散化了的数据。在储备池中,向输出层输出将各虚拟节点的状态以及权重进行相乘得到的值的总和。
在先技术文献
专利文献
专利文献1:JP特愿2002-535074号公报
专利文献2:JP特开2004-249812号公报
非专利文献
非专利文献1:L.Larger,M.C.Soriano,D.Brunner,L.Appeltant,J.M.Gutierrez,L.Pesquera,C.R.Mirasso,and I.Fischer,光学快报(OpticsExpress),20,2012年,p.3241.
非专利文献2:JordiFonollosa,Sadique Sheik,Ramón Huerta,and SantiagoMarcob,传感器和执行器B(Sensors and Actuators B:Chemical),215,2015年,p.618.
发明内容
发明要解决的课题
在非专利文献1所记载的储备池计算的情况下,构成储备池的一个非线性节点作为从输入层发送的数据的输入端口发挥功能。因此,被输入的数据的序列数受输入端口的数量限制。
在使用了不同的输入数据的复杂的处理的情况下,非专利文献1所记载的储备池不能一次处理多个输入数据。作为复杂的处理,例如有非专利文献2所记载的处理。在非专利文献2中,记载了识别混合气体的成分的处理。具体而言,记载了如下处理,即,使用十六个传感器输出的数据,输出混合了两种气体的混合气体中的各种气体的浓度的处理。
作为使用非专利文献1的储备池计算来实现前述处理的方法,可以考虑图10A、图10B以及图10C所示那样的方法。
图10A示出并行方式。在该方法中,根据输入数据的种类的数量,将输入层以及储备池并行化。在该方法的情况下,因为实现规模变大,所以存在装置大型化的问题。
图10B示出串行方式。在该方法中,在储备池的输入侧以及输出侧设置临时存储数据的存储器。装置依次处理输入数据。
装置在对输入数据1完成了处理的情况下,在输出侧的存储器以及输入侧的存储器存储处理结果。在对输入数据2执行处理的情况下,装置使用输入侧的存储器中存储的输入数据1的处理结果以及输入数据2来执行处理。以下,执行同样的处理。
在该方法的情况下,因为处理时间与输入数据的数量成比例地变长,所以难以实现高速的处理。此外,因为需要存储前后的处理结果的存储器,所以也存在装置大型化的问题。
图10C示出另一种串行方式。在该方法中,根据输入数据的数量,增加虚拟节点的数量,将多个输入数据交替地输入到储备池。虚拟节点的间隔依赖于切换速度。
在该方法的情况下,因为延迟网络的尺寸,即,延迟时间变长,所以处理速度降低。此外,使用光电路来实现的情况下,光波导的长度变长,所以存在装置大型化的问题。在使用电子电路来实现的情况下,需要增大用于保持各输入数据的值的存储器容量。
在本说明书中,在记载为并行方式的情况下,表示图10A的方式。此外,在记载为串行方式的情况下,表示图10B或图10C的方式。
本发明的目的是提供一种能够不使装置规模变大地实现、并且能够高精度且高速地处理多个时间序列数据的系统以及方法。
用于解决课题的手段
若示出本申请中所公开的发明的有代表性的一例,则如下所述。即,计算机系统执行使用了由输入部、储备池部以及输出部构成的递归神经网络的运算处理,所述计算机系统的特征在于,所述计算机系统具备至少一个计算机,所述至少一个计算机具有运算装置以及连接于所述运算装置的存储器,所述输入部包括接收多个时间序列数据的输入节点,所述储备池部包括接收所述输入部输出的输入数据并且伴随时间延迟的至少一个非线性节点,所述输出部包括接收所述储备池部的输出并且计算输出值的输出节点,所述输入部,接收多个时间序列数据,将所述多个时间序列数据的每一个分割为第一时间宽度,对于所述多个时间序列数据的每一个,通过对所述第一时间宽度中包括的时间序列数据执行采样以及保持处理,从而计算第一输入流,通过对于多个第一输入流的每一个执行以第二时间宽度调制所述第一输入流的掩蔽处理,从而计算多个第二输入流,对于所述多个第二输入流的每一个,执行给予时间偏差的时移处理,通过将执行了所述时移处理的多个第二输入流的每一个进行叠加来计算第三输入流,将所述第三输入流输入到所述非线性节点。
发明效果
根据本发明,能够不使装置规模变大地实现,此外,能够高精度且高速地处理多个时间序列数据。上述以外的课题、结构以及效果,通过以下的实施例的说明而变得清楚。
附图说明
图1是示出实现实施例1的储备池计算的计算机的构成例的图。
图2是示出实施例1的储备池计算的概念的图。
图3是说明实施例1的输入部执行的处理的流程图。
图4A是示出实施例1的输入部执行的处理的概念的图。
图4B是示出实施例1的输入部执行的处理的概念的图。
图4C是示出实施例1的输入部执行的处理的概念的图。
图4D是示出实施例1的输入部执行的处理的概念的图。
图4E是示出实施例1的输入部执行的处理的概念的图。
图4F是示出实施例1的输入部执行的处理的概念的图。
图5A是示出向实施例1的计算机输入的时间序列数据的一例的图。
图5B是示出以往的并行方式的输出结果的图形。
图5C是示出实施例1的储备池部的输出结果的图形。
图6是示出实施例1的方式的性能的图。
图7A是示出实施例2的计算机的结构的一例的图。
图7B是示出实施例2的计算机的结构的一例的图。
图8是示出实施例3的光电路芯片的结构的一例的图。
图9是示出以往的储备池计算的逻辑结构的图。
图10A是示出以往技术的储备池计算中的课题的解决方法的图。
图10B是示出以往技术的储备池计算中的课题的解决方法的图。
图10C是示出以往技术的储备池计算中的课题的解决方法的图。
附图标记说明
100:计算机;
101:运算装置;
102:存储器;
103:网络接口;
111:输入部;
112:储备池部;
113:输出部;
200:非线性节点;
201:虚拟节点;
711、806:掩蔽电路;
712:移位寄存器;
713、721:运算器;
722:激光器;
723:MZ光调制器;
724:光电二极管;
725:放大器;
731、811:读出电路;
732、812:积分电路;
750:学习部;
751:教师数据;
752:学习器;
800:光电路芯片;
801、804:基板;
802:氮化硅光电路;
803:硅光电路;
805:采样电路;
807:延迟电路;
808:调制器驱动电路;
809:递归信号放大器;
810:跨阻放大器。
具体实施方式
以下,使用附图来说明本发明的实施方式。另外,在用于说明实施方式的全部图中,对具有同一功能的位置标注同一标记,省略其重复说明。另外,以下所示的图只不过是说明实施方式的实施例,图的大小和本实施例中记载的比例尺不一定一致。
【实施例1】
图1是示出实现实施例1的储备池计算的计算机100的构成例的图。
计算机100具有运算装置101、存储器102以及网络接口103。
运算装置101按照程序来执行处理。运算装置101可以考虑处理器以及FPGA(FieldProgrammable Gate Array,现场可编程门阵列)等。通过运算装置101按照程序来执行处理从而实现规定功能部。在以下的说明中,将功能部作为主语说明处理的情况下,表示运算装置101执行实现该功能部的程序。
存储器102存储运算装置101执行的程序以及程序使用的信息。此外,存储器102包括程序临时使用的工作区。
网络接口103是通过网络与传感器等外部装置进行连接的接口。
另外,计算机100可以具有与键盘和鼠标等输入装置以及显示器等输出装置连接的输入输出接口。
本实施例的存储器102存储实现用于实现递归神经网络的输入部111、储备池部112以及输出部113的程序。
输入部111执行与储备池计算的输入层对应的处理。储备池部112执行与储备池计算的储备池对应的处理。输出部113执行与储备池计算的输出层对应的处理。
图2是示出实施例1的储备池计算的概念的图。
输入部111包括接收多个时间序列数据的输入节点。输入部111通过执行数据变换处理从而根据多个时间序列数据生成输入数据x(t),并且将输入数据x(t)输出给储备池部112。
储备池部112包括伴随时间延迟的一个非线性节点200。另外,在储备池部112中,也可以包括两个以上的非线性节点200。非线性节点200从输入部111接收了输入数据x(t)的情况下,按每个时间宽度T对输入数据x(t)进行分割,并且执行将时间宽度T作为一个处理单位的运算处理。
这里,T表示延迟时间(延迟网络的长度)。另外,分割后的输入数据x(t)作为N维向量来处理。N表示虚拟节点的数量。
在运算处理中,储备池部112执行式(2)所示的非线性变换,计算N维的数据q(t)。另外,数据q(t)的各分量如式(3)那样进行表示。
【数式2】
q(t)=f(x(t)+cq(t-T))...(2)
【数式3】
q(t)=(q(t),q(t+τM),q(t+2τM),...,q(t+(N-1)τM))...(3)
这里,式(2)的c表示递归系数。函数f是非线性函数,例如,如式(4)那样给出。
【数式4】
Figure BDA0001581123390000081
这里,系数a、b是能够调整的参数。在式(2)中,函数f的括号内的第二项表示延迟信号。
另外,本发明不限定于非线性变换处理中使用的数式。例如,也可以是使用了任意三角函数等的非线性变换处理。
数据q(t)被发送到由虚拟节点201构成的延迟网络。具体而言,式(3)的各分量的值作为虚拟节点201的状态值进行仿真。在以下的说明中,将式(3)的各分量的值记载为qi(t)。另外,下标i是1至N的值。
从延迟网络输出的数据y(t),如式(2)所示,再次被输入到延迟网络。据此,能够实现不同数据的叠加。
输出部113包括接收从储备池部112输入的数据的输出节点。另外,从储备池部112输入式(5)所示那样的运算处理的结果。
【数式5】
Figure BDA0001581123390000082
这里,wi表示权重系数。数据y(t)是标量值。
对输入部111执行的具体处理进行说明。图3是说明实施例1的输入部111执行的处理的流程图。图4A、图4B、图4C、图4D、图4E以及图4F是示出实施例1的输入部111执行的处理的概念的图。
输入部111接收多个时间序列数据uj(t)(步骤S101)。此时,输入部111将计数值m初始化为0。这里,上标j是识别时间序列数据的值。例如,输入部111接收图4A所示的时间序列数据uj(t)。
接下来,输入部111从时间序列数据选择目标时间序列数据uj(t)(步骤S102)。此时,输入部111对计数值m加1。
接下来,输入部111对目标时间序列数据uj(t)执行采样以及保持处理,计算流Aj(t)(步骤S103)。另外,采样周期设为T。对于图4A所示的时间序列数据uj(t),进行图4B那样的采样,进而执行采样以及保持处理,由此得到图4C那样的流Aj(t)。
在以下的说明中,将一个区间的流Aj(t)记载为流[A]j k(t)。另外,如图4C所示,流[A]j k(t)在一个区间中为恒定值。
接下来,输入部111对各流[A]j k(t)执行按每个时间宽度τM调制强度的掩蔽处理,计算输入流aj(t)(步骤S104)。例如,得到图4D那样的输入流aj(t)。在本实施例中,在-1至+1的范围内进行强度调制。这里,τM表示虚拟节点间的间隔,满足式(6)。
【数式6】
T=N×τM...(6)
另外,调制可以是振幅调制或者相位调制的任一种。具体的调制,通过对流Aj(t)乘以随机比特串来进行。
另外,随机比特串可以是二进制的随机比特串,也可以是8值或16值等的离散的多级随机比特串。此外,可以是表示连续的强度变化的信号序列。在使用了二进制的随机比特串的调制的情况下,存在如下优点,即,能够使系统结构简单,此外,能够使用现有设备来实现。在使用多级随机比特串进行调制的情况下,能够再现复杂的动态变化(dynamics),所以具有计算精度提高这样的优点。
在以下的说明中,将一个区间的输入流a1(t)记载为输入流[a]j k(t)。另外,输入流[a]j k(t)是N维向量,如下式(7)那样表示。在图4E中,示出了输入流[a]j k(t)的详细情况。
【数式7】
Figure BDA0001581123390000091
接下来,输入部111通过执行用于产生基于计数值m的时间偏差的时移处理,从而将输入流aj(t)变换为输入流αj(t)(步骤S105)。之后,输入部111前进至步骤S107。
时移处理可以是使时间延迟的处理,也可以是使时间提前的处理。例如,进行式(8)所示的时移处理。
【数式8】
aj(t)→αj(t)=aj(t+(m-1)τM)...(8)
式(8)是将任意输入流aj(t)作为基准来对其他输入流aj(t)给予延迟的时移处理。如式(8)所示,计数值m为“1”的输入流成为基准。
另外,延迟的产生方法不限定于前述方法。例如,也可以按照τM的整数倍来产生延迟。此外,也可以与计数值m无关地,随机地产生延迟。
另外,计数值m为p的输入流αp(t)比输入流α1(t)延迟了pτM。该延迟在N较大的情况下相较于时间T足够小。
接下来,输入部111判断是否对全部时间序列数据完成了处理(步骤S106)。
在判断为没有对全部时间序列数据完成处理的情况下,输入部111返回到步骤S102执行同样的处理。
在判断为对全部时间序列数据完成了处理的情况下,输入部111通过将各输入流αj(t)进行叠加,来计算输入数据x(t)(步骤S107)。输入流αj(t)的叠加,例如由式(9)定义。通过该处理,得到图4F所示那样的输入数据x(t)。
【数式9】
Figure BDA0001581123390000101
接下来,输入部111将输入数据x(t)输入到储备池部112的非线性节点200(步骤S108)。之后,输入部111结束处理。
另外,作为另外的处理方法,可以考虑如下方法。在步骤S104的处理完成后,输入部111将输入流aj(t)临时存储到存储器102的工作区,之后,执行步骤S106的处理。在步骤S106的判断结果为“是”的情况下,调整各输入流aj(t)的读出定时,进行叠加。通过调整读出定时,能够给予时间偏差。
如以上所说明的那样,本实施例的输入部111将对延迟了的多个时间序列数据进行叠加所得的输入数据x(t)输入给储备池部112的非线性节点200。
接下来,对使用了实施例1的储备池计算的具体例进行说明。这里,将非专利文献2所记载的处理用作模型。在非专利文献2中记载了如下处理,即,接收关于混合气体的多个输入信息,输出混合气体中的气体X以及气体Y的浓度的处理。
在本识别处理中,处理从十六个气体传感器输入的时间序列数据。即,时间序列数据uj(t)的上标j为1至16的值。在该情况下,目标时间序列数据uj(t)变换为输入流αj(t)。
另外,为了避免向延迟网络输入的输入数据的信号强度变大,预先进行了调整以使输入数据的强度衰减到5%之后,将输入数据输出到储备池部112。
对于与气体X相关的教师数据y’(t),进行了权重系数wi的学习,使得式(10)的值变为最小。另外,作为教师数据,使用了气体流量控制器的设定值。另外,下标1表示被输出的数据y(t)的数量。
【数式10】
Figure BDA0001581123390000111
另外,在本实施例中,使用最小二乘法来决定权重系数wi。具体而言,根据式(11)的N元一次方程来计算出权重系数wi
【数式11】
Figure BDA0001581123390000121
对于与气体Y相关的教师数据z’(t),也进行了同样的学习。
图5A是示出输入到实施例1的计算机100的时间序列数据的一例的图。图5A的上面的图形表示气体流量计的设置值,下面的图形表示来自一个传感器的输出值。另外,黑色的实线表示气体X的值,灰色的实线表示气体Y的值。
图5B是示出以往的并行方式的输出结果的图形。图5B的上面的图形表示关于气体X的输出,下面的图形表示关于气体Y的输出。
图5C是示出实施例1的储备池部112的输出结果的图形。
另外,图5B以及图5C的黑色的虚线,相当于气体流量计的设定值,表示教师数据。实线是使用从十六个传感器输出的值而计算出的气体浓度的估计值。
如图5B以及图5C所示,实施例1的方式,与以往的并行方式同样地能够获得精度较高的结果。
图6是示出实施例1的方式的性能的图。
这里,将实施例1的方式与以往的并行方式的性能差作为一例来进行示出。另外,使用市售的台式个人计算机进行了性能差的测试。横轴表示周期T的分割数,即,虚拟节点的数量。纵轴表示时间序列数每点的计算速度。
如图6所示,与以往的方式相比,实施例1的方式的虚拟节点的数量较少。即,示出了能够削减计算量。因此,确认了相较于以往的方式,计算速度提高了一位数以上。
在实施例1的储备池计算中,能够高精度且高速地削减计算成本。此外,因为储备池部112是以往的储备池部,所以能够防止装置规模的大型化。
【实施例2】
在实施例1中,作为软件实现了输入部111、储备池部112以及输出部113,而在实施例2中,使用硬件来实现它们。以下,说明实施例2的详细情况。
储备池部112的非线性节点200能够使用电子电路以及光学元件等的硬件来实现。作为电子电路,能够使用Macky-Glass电路、以及MOSFET的源漏电流。作为光学元件,能够使用MZ干涉仪以及示出饱和吸收等非线性特性的光波导。
在实施例2中,说明使用光波导来实现储备池部112的计算机。
光设备具有通信的高速性以及光波导中的传播损失较低的网络特性,所以可以期待灵活应用于高速且抑制了功耗的处理。
在使用光波导来实现储备池计算的情况下,可以使用马赫-策德尔(Mach-Zehnder)干涉仪型光调制器(MZ-modulator)或者激光器作为非线性节点200。因此,为了处理多个时间序列数据而构筑多个延迟网络的情况下,存在装置规模大型化的课题。
对多个时间序列数据使用一个延迟网络相继执行处理的情况下,能够抑制处理的延迟,但是用于临时蓄积数据的存储器的容量变大,所以存在装置规模大型化的课题。
在实施例2中,通过将实施例1的输入部111实现为硬件,从而解决了上述课题。
图7A以及图7B是示出实施例2的计算机100的结构的一例的图。另外,在实施例2中,作为一例示出了用于识别混合气体的浓度的参数。
本实施例的计算机100从十六个气体传感器接收时间序列数据。将输入时间序列数据的气体传感器的采样频率设为100Hz,此外,将延迟网络的重启频率设为10kHz。因此,延迟网络中的处理速度相较于气体传感器的采样足够高速。
本实施例中,延迟网络的周期T设为100微秒,此外,虚拟节点的数量设为100。因此,储备池部112以1MHz动作。
首先,对图7A的计算机100的结构进行说明。
输入部111包括掩蔽电路711、多个移位寄存器712以及运算器713。
掩蔽电路711对所输入的各个时间序列数据执行与步骤S103以及步骤S104的处理对应的运算处理。掩蔽电路711将通过对一个时间序列数据进行处理而得到的输入流aj(t)输出到一个移位寄存器712。
移位寄存器712对输入流aj(t)执行与步骤S105的处理对应的运算处理。移位寄存器712将计算出的输入流αj(t)输出给运算器713。在本实施例中,使用移位寄存器712实现了使输入流aj(t)产生延迟的延迟电路。但是,作为延迟电路,也可以是以由电容器以及线圈构成的梯形传输电路网构成的延迟电路。
运算器713使用从各移位寄存器712输入的输入流αj(t)来执行与步骤S107的处理对应的运算处理。运算器713将运算结果输出给储备池部112。
储备池部112包括运算器721、激光器722、MZ光调制器723、光电二极管724以及放大器725。另外,MZ光调制器723以及光电二极管724通过光纤进行连接。
运算器721执行式(2)所示的运算处理。即,运算器721将从输入部111输入的输入数据x(t)和储备池部112输出的数据q(t)进行叠加。运算器721将运算结果作为信号而输出给MZ光调制器723。
激光器722向MZ光调制器723输入任意强度的激光。本实施例的激光器722照射波长为1310nm的激光。
MZ光调制器723是实现非线性节点200的硬件。在本实施例中,使用了光纤耦合型的LN(LiNbO3)-MZ调制器。MZ光调制器723使用从运算器721输入的信号,对从激光器722输入的激光的强度进行调制。MZ光调制器723的光透射特性对应于输入电信号的正弦波的平方,所以振幅被非线性变换。
另外,在本实施例中,输入电信号从0.4V被调整为1V。
MZ光调制器723与光电二极管724之间连接的光纤的长度,为从MZ光调制器723输出的激光的传输需要规定时间的长度。激光的传输所需要的时间成为延迟网络的周期。在本实施例中,使用20km的长度的光纤来连接MZ光调制器723以及光电二极管724。因此,信号的传输花费100微秒。
光电二极管724将所输入的激光变换为电信号,并且使电信号进行分支,将一个电信号输出给输出部113,将另一个电信号输出给放大器725。
放大器725将从光电二极管724输入的信号放大或衰减之后,将该信号输出给运算器721。
输出部113包括多个读出电路731以及积分电路732。
读出电路731读出从储备池部112输出的信号。读出电路731与掩蔽电路711同步地工作。另外,关于读出电路731的动作速度,放大率以1MHz变动,此外,以10kHz的周期动作。放大率通过学习处理来决定。读出电路731将读出的信号输出给积分电路。
积分电路732以规定时间对信号进行积分,输出处理结果。本实施例的积分电路732按照每100微秒对信号强度进行积分。
接下来,对图7B的结构进行说明。图7B的计算机100具有的输入部111、储备池部112以及输出部113的结构,与图7A的计算机100具有的相同。但是,光电二极管724将电信号输出给学习器752这一点不同。
学习部750包括教师数据751以及学习器752。教师数据751是学习处理中使用的数据。学习器752执行如下学习处理,即,使用教师数据751以及从光电二极管724输入的电信号来决定连接虚拟节点201和输出层的节点的权重系数。另外,在学习处理中,在需要比较输出部113输出的运算处理的结果和教师数据751的情况下,输出部113向学习器752输出运算处理的结果。
根据实施例2,能够实现高速且抑制了功耗的储备池计算。此外,能够抑制装置的规模。此外,因为能够使用现有的储备池部112以及输出部113,所以能够削减实现上的成本。
【实施例3】
在实施例3中,说明使用光电路芯片来实现实施例1的储备池计算的计算机100。
图8是示出实施例3的光电路芯片的结构的一例的图。另外,图8对应于光电路芯片的俯视图。
光电路芯片800在基板801上搭载多个功能芯片。另外,光电路对于电子电路搭载在层叠方向上,所以在附图中未出现MZ调制器以及光电二极管等光学元件。
光电路芯片800包括基板801、氮化硅光电路802、硅光电路803、基板804、采样电路805、掩蔽电路806、延迟电路807、调制器驱动电路808、递归信号放大器809、跨阻放大器810、读出电路811以及积分电路812。
采样电路805、掩蔽电路806、延迟电路807、调制器驱动电路808、递归信号放大器809、跨阻放大器810、读出电路811以及积分电路812集成在同一芯片上。
在本实施例中,将延迟网络的周期设定为10纳秒,所以使用将氮化硅作为波导层的氮化硅光电路802。另外,为了确保10纳秒的延迟时间,需要长度为约1.5米的光波导。
包括MZ调制器的硅波导形成在硅光电路803上,延迟用的氮化硅的波导形成在氮化硅光电路802上。通过使用折射或反射镜使光相互在基面方向进出,从而能够确保光耦合。另外,可以在包括MZ调制器的硅光电路803上的一部分形成氮化硅区域,设置延迟用的氮化硅波导。
另外,MZ调制器具有40GHz的频带,具有能够追随从以10GHz工作的掩蔽电路806输出的信号的性能。此外,光电二极管可以倒装芯片安装在硅光电路803,也可以作为集成在硅光电路803的Ge光电二极管来实现。光电二极管将从MZ调制器输入的光信号变换为电信号,并且将电信号输出给跨阻放大器810以及读出电路811。
采样电路805、掩蔽电路806以及延迟电路807是构成输入部111的电路。
采样电路805是对时间序列数据执行采样以及保持处理的电路。掩蔽电路806是执行掩蔽处理的电路。延迟电路807是使从掩蔽电路806输出的输入流aj(t)产生延迟的电路。另外,掩蔽电路806以10GHz动作。
氮化硅光电路802、硅光电路803、调制器驱动电路808、递归信号放大器809以及跨阻放大器810是构成储备池部112电路。
照射激光的半导体激光器的芯片倒装芯片安装在硅光电路803,能够对光学集成电路的硅波导提供连续光。
调制器驱动电路808是驱动MZ调制器的电路。
跨阻放大器810将光电二极管输出的信号放大,输出给递归信号放大器809以及读出电路811。
递归信号放大器809将从跨阻放大器810输入的信号经由布线输入到MZ调制器。
读出电路811从跨阻放大器810读出信号,输出给积分电路812。
积分电路812对所输入的信号执行积分运算,输出运算结果。
另外,设计光电路芯片800的各电路,使得布线以及光波导的延迟时间的总和与延迟网络的周期一致。
根据实施例3,通过使用光电路芯片,能够在小型机器人以及无人机实现本发明的储备池计算。
另外,本发明不限定于上述的实施例,包括各种变形例。此外,例如,上述的实施例为了易于理解地说明本发明而详细地说明了结构,不是限定于必定具备所说明的全部结构。此外,对于各实施例的结构的一部分,可以在其他结构中追加、删除、置换。
此外,上述各构成、功能、处理部、处理手段等,可以将它们的一部分或全部通过例如集成电路设计等用硬件来实现。此外,本发明也可以通过实现实施例的功能的软件的程序代码来实现。在该情况下,将记录有程序代码的非临时性存储介质提供给计算机,该计算机具备的处理器读出非临时性存储介质中所存储的程序代码。在该情况下,从非临时性存储介质读出的程序代码本身用于实现前述的实施例的功能,该程序代码本身以及存储了该程序代码的非临时性存储介质构成本发明。作为用于提供这种程序代码的存储介质,例如可以使用软盘、CD-ROM、DVD-ROM、硬盘、SSD(Solid State Drive,固态硬盘)、光盘、光磁盘、CD-R、磁带、非易失性存储卡、ROM等。
此外,实现本实施例所记载的功能的程序代码,例如可以用汇编、C/C++、perl、Shell、PHP、Java(注册商标)等的广泛的程序或者脚本语言来实现。
进而,也可以通过网络分发实现实施例的功能的软件的程序代码,从而将其存储到计算机的硬盘、存储器等存储单元或者CD-RW、CD-R等存储介质,计算机具备的处理器将该存储单元、该存储介质中存储的程序代码读出并执行。
在上述的实施例中,对于控制线、信息线,示出了说明上认为必要的控制线、信息线,不局限于在产品上必定示出全部控制线、信息线。全部结构可以相互连接。

Claims (8)

1.一种计算机系统,执行使用了由输入部、储备池部以及输出部构成的递归神经网络的运算处理,所述计算机系统的特征在于,
所述计算机系统具备至少一个计算机,
所述至少一个计算机具有运算装置以及连接于所述运算装置的存储器,
所述输入部包括接收多个时间序列数据的输入节点,
所述储备池部包括接收所述输入部输出的输入数据并且伴随时间延迟的至少一个非线性节点,
所述输出部包括接收来自所述储备池部的输出的输出节点,
所述输入部,
接收多个时间序列数据,
将所述多个时间序列数据的每一个分割为第一时间宽度,
对于所述多个时间序列数据的每一个,通过对所述第一时间宽度中包括的时间序列数据执行采样以及保持处理,从而计算第一输入流,
通过对于多个第一输入流的每一个执行以第二时间宽度调制所述第一输入流的掩蔽处理,从而计算多个第二输入流,
针对所述多个第二输入流的每一个,执行给予时间偏差的时移处理,
通过将执行了所述时移处理的多个第二输入流的每一个进行叠加来计算所述输入数据。
2.根据权利要求1所述的计算机系统,其特征在于,
对所述多个第一输入流的每一个给予的延迟的大小不同。
3.根据权利要求2所述的计算机系统,其特征在于,
所述输入部包括:
掩蔽电路,其计算所述第一输入流以及所述第二输入流;
多个移位寄存器,其对所述多个第二输入流的每一个给予所述时间偏差;和
运算电路,其将执行了所述时移处理的多个第二输入流的每一个进行叠加。
4.根据权利要求2所述的计算机系统,其特征在于,
在所述时移处理中,
所述输入部将所述多个第二输入流临时存储到所述存储器,
所述输入部调整读出定时,从所述存储器读出所述多个第二输入流的每一个。
5.一种具有至少一个计算机的计算机系统中的使用了递归神经网络的运算方法,其特征在于,
所述至少一个计算机具有运算装置以及连接于所述运算装置的存储器,
所述递归神经网络由输入部、储备池部以及输出部构成,
所述输入部包括接收多个时间序列数据的输入节点,
所述储备池部包括接收所述输入部输出的输入数据并且伴随时间延迟的至少一个非线性节点,
所述输出部包括接收来自所述储备池部的输出的输出节点,
所述运算方法包括:
所述输入部接收多个时间序列数据的第一步骤;
所述输入部将所述多个时间序列数据的每一个分割为第一时间宽度的第二步骤;
所述输入部对于所述多个时间序列数据的每一个,通过对所述第一时间宽度中包括的时间序列数据执行采样以及保持处理,从而计算第一输入流的第三步骤;
所述输入部通过对于多个第一输入流的每一个执行以第二时间宽度调制所述第一输入流的掩蔽处理,从而计算多个第二输入流的第四步骤;
所述输入部对于所述多个第二输入流的每一个,执行给予时间偏差的时移处理的第五步骤;和
所述输入部通过将执行了所述时移处理的多个第二输入流的每一个进行叠加来计算所述输入数据的第六步骤。
6.根据权利要求5所述的使用了递归神经网络的运算方法,其特征在于,
对所述多个第一输入流的每一个给予的延迟的大小不同。
7.根据权利要求6所述的使用了递归神经网络的运算方法,其特征在于,
所述输入部包括:
掩蔽电路,其计算所述第一输入流以及所述第二输入流;
多个移位寄存器,其对所述多个第二输入流的每一个给予所述时间偏差;和
运算电路,其将执行了所述时移处理的多个第二输入流的每一个进行叠加。
8.根据权利要求6所述的使用了递归神经网络的运算方法,其特征在于,
所述第五步骤包括:
所述输入部将所述多个第二输入流临时存储到所述存储器的步骤;和
所述输入部调整读出定时,从所述存储器读出所述多个第二输入流的每一个的步骤。
CN201810156156.7A 2017-04-05 2018-02-23 计算机系统以及使用了递归神经网络的运算方法 Active CN108694442B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-075587 2017-04-05
JP2017075587A JP6791800B2 (ja) 2017-04-05 2017-04-05 計算機システム及び再帰型ニューラルネットワークを用いた演算方法

Publications (2)

Publication Number Publication Date
CN108694442A CN108694442A (zh) 2018-10-23
CN108694442B true CN108694442B (zh) 2021-08-17

Family

ID=63711645

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810156156.7A Active CN108694442B (zh) 2017-04-05 2018-02-23 计算机系统以及使用了递归神经网络的运算方法

Country Status (3)

Country Link
US (1) US20180293495A1 (zh)
JP (1) JP6791800B2 (zh)
CN (1) CN108694442B (zh)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3104973A1 (en) * 2018-06-27 2020-01-02 Ohio State Innovation Foundation Rapid time-series prediction with hardware-based reservoir computer
JP7110822B2 (ja) * 2018-08-22 2022-08-02 日本電信電話株式会社 光信号処理装置
WO2020121527A1 (ja) * 2018-12-14 2020-06-18 三菱電機株式会社 学習識別装置、学習識別方法、及び、学習識別プログラム
JP7206898B2 (ja) * 2018-12-25 2023-01-18 富士通株式会社 学習装置、学習方法および学習プログラム
EP3937088A4 (en) * 2019-03-04 2022-03-23 Transtron Inc. METHOD FOR GENERATION OF A NEURAL NETWORK MODEL AND CONTROL DEVICE WITH NEURAL NETWORK MODEL
JP2020177509A (ja) * 2019-04-19 2020-10-29 株式会社日立製作所 計算機及びデータ処理方法
CN110247298B (zh) * 2019-05-13 2021-04-09 上海大学 一种确定半导体激光器储备池工作点的方法
JP7164489B2 (ja) * 2019-06-06 2022-11-01 株式会社日立製作所 演算システムおよび方法
JP7301295B2 (ja) * 2019-06-17 2023-07-03 国立大学法人九州工業大学 情報処理装置
CN110503196A (zh) * 2019-08-26 2019-11-26 光子算数(北京)科技有限责任公司 一种光子神经网络芯片以及数据处理系统
JP7265965B2 (ja) * 2019-08-30 2023-04-27 株式会社日立製作所 機械学習装置および機械学習方法
JP2021043791A (ja) * 2019-09-12 2021-03-18 富士通株式会社 リザーバコンピュータ、リザーバ設計方法及びリザーバ設計プログラム
US11527059B2 (en) * 2020-01-28 2022-12-13 International Business Machines Corporation Reservoir computing
WO2021205581A1 (ja) 2020-04-08 2021-10-14 富士通株式会社 情報処理システム、情報処理装置、情報処理方法及び情報処理プログラム
EP4181023B1 (en) * 2020-07-07 2024-07-17 Fujitsu Limited Information processing device and information processing method
JP6973692B1 (ja) * 2020-12-03 2021-12-01 Tdk株式会社 リザボア素子
CN112560288A (zh) * 2020-12-29 2021-03-26 苏州大学 一种基于光泵自旋vcsel的储备池计算装置
WO2022155722A1 (en) * 2021-01-25 2022-07-28 Huawei Technologies Canada Co., Ltd. Multicolor tunable reservoir computing method and system
TWI770922B (zh) * 2021-03-31 2022-07-11 財團法人工業技術研究院 低精度神經網路的資料特徵擴增系統及方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04118741A (ja) * 1990-09-10 1992-04-20 Toshiba Corp ニューラルネットワーク装置
JPH06325270A (ja) * 1993-05-18 1994-11-25 Hochiki Corp 火災判定装置及びニューラルネットワークの学習方法
CN102422144A (zh) * 2009-05-11 2012-04-18 株式会社日立高新技术 自动分析装置
CN104899656A (zh) * 2015-06-05 2015-09-09 三峡大学 一种基于总体平均经验模态分解与改进Elman神经网络的风功率组合预测方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4208485B2 (ja) * 2001-05-31 2009-01-14 キヤノン株式会社 パルス信号処理回路、並列処理回路、パターン認識装置、及び画像入力装置
US20140108094A1 (en) * 2012-06-21 2014-04-17 Data Ventures, Inc. System, method, and computer program product for forecasting product sales
US9165246B2 (en) * 2013-01-29 2015-10-20 Hewlett-Packard Development Company, L.P. Neuristor-based reservoir computing devices
US10395168B2 (en) * 2015-10-26 2019-08-27 International Business Machines Corporation Tunable optical neuromorphic network
US9852372B1 (en) * 2016-06-03 2017-12-26 International Business Machines Corporation Reservoir computing device using external-feedback laser system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04118741A (ja) * 1990-09-10 1992-04-20 Toshiba Corp ニューラルネットワーク装置
JPH06325270A (ja) * 1993-05-18 1994-11-25 Hochiki Corp 火災判定装置及びニューラルネットワークの学習方法
CN102422144A (zh) * 2009-05-11 2012-04-18 株式会社日立高新技术 自动分析装置
CN104899656A (zh) * 2015-06-05 2015-09-09 三峡大学 一种基于总体平均经验模态分解与改进Elman神经网络的风功率组合预测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Information processing using a single dynamical;L.Appeltant;《nature communication》;20110913 *

Also Published As

Publication number Publication date
CN108694442A (zh) 2018-10-23
US20180293495A1 (en) 2018-10-11
JP6791800B2 (ja) 2020-11-25
JP2018180701A (ja) 2018-11-15

Similar Documents

Publication Publication Date Title
CN108694442B (zh) 计算机系统以及使用了递归神经网络的运算方法
Larger et al. High-speed photonic reservoir computing using a time-delay-based architecture: Million words per second classification
CN109784486B (zh) 一种光学神经网络处理器及其训练方法
Nguimdo et al. Simultaneous computation of two independent tasks using reservoir computing based on a single photonic nonlinear node with optical feedback
EP3796229A1 (en) Methods and systems for implementing dynamic neural networks
US9704094B2 (en) Mapping of algorithms to neurosynaptic hardware
EP2715942B1 (en) Spike domain circuit and modeling method
CN112232503B (zh) 计算装置、计算方法以及计算系统
US11436480B2 (en) Reservoir and reservoir computing system
Liu et al. H∞ filtering for sampled-data stochastic systems with limited capacity channel
CN111753977B (zh) 光学神经网络卷积层芯片、卷积计算方法和电子设备
US10831860B2 (en) Alignment techniques to match symmetry point as zero-weight point in analog crosspoint arrays
CN109784485B (zh) 一种光学神经网络处理器及其计算方法
CN107251090A (zh) 尖峰域卷积电路
Schneider et al. Using digital masks to enhance the bandwidth tolerance and improve the performance of on-chip reservoir computing systems
CN112101540B (zh) 光学神经网络芯片及其计算方法
Sentoni et al. State‐space nonlinear process modeling: Identification and universality
CN112639603B (zh) 尖峰神经装置及组合最优化问题计算装置
JP6832833B2 (ja) リザーバコンピューティングのリザーバ層の演算を実現するデバイス及び計算機
Wu et al. Photonic bayesian neural network using programmed optical noises
Zang et al. Optoelectronic convolutional neural networks based on time-stretch method
JP2023549346A (ja) 振動ニューラルネットワークによる特徴認識
CN112232487B (zh) 光学神经网络芯片及其计算方法
US9916530B2 (en) Neuromorphic circuit model simulation that facilitates information routing and processing
US11526735B2 (en) Neuromorphic neuron apparatus for artificial neural networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant