JP6791800B2 - 計算機システム及び再帰型ニューラルネットワークを用いた演算方法 - Google Patents

計算機システム及び再帰型ニューラルネットワークを用いた演算方法 Download PDF

Info

Publication number
JP6791800B2
JP6791800B2 JP2017075587A JP2017075587A JP6791800B2 JP 6791800 B2 JP6791800 B2 JP 6791800B2 JP 2017075587 A JP2017075587 A JP 2017075587A JP 2017075587 A JP2017075587 A JP 2017075587A JP 6791800 B2 JP6791800 B2 JP 6791800B2
Authority
JP
Japan
Prior art keywords
input
unit
time
neural network
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017075587A
Other languages
English (en)
Other versions
JP2018180701A (ja
Inventor
忠嗣 奥村
忠嗣 奥村
田井 光春
光春 田井
高橋 宏昌
宏昌 高橋
安藤 正彦
正彦 安藤
典史 亀代
典史 亀代
真斗 永田
真斗 永田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2017075587A priority Critical patent/JP6791800B2/ja
Priority to US15/900,826 priority patent/US20180293495A1/en
Priority to CN201810156156.7A priority patent/CN108694442B/zh
Publication of JP2018180701A publication Critical patent/JP2018180701A/ja
Application granted granted Critical
Publication of JP6791800B2 publication Critical patent/JP6791800B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2458Special types of queries, e.g. statistical queries, fuzzy queries or distributed queries
    • G06F16/2477Temporal data queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/067Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using optical means
    • G06N3/0675Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using optical means using electro-optical, acousto-optical or opto-electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Probability & Statistics with Applications (AREA)
  • Databases & Information Systems (AREA)
  • Neurology (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Fuzzy Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Operations Research (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Algebra (AREA)
  • Design And Manufacture Of Integrated Circuits (AREA)
  • Optical Communication System (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Complex Calculations (AREA)

Description

本発明はリザーバコンピューティングに関する。
近年、脳神経ネットワークを模倣したニューラルネットワークが機械学習で利用されている。ニューラルネットワークは、入力層、出力層、及び隠れ層から構成される。隠れ層では、単純な変換を繰り返して、入力データを高次元のデータに変換することによって、情報の識別及び予測等、所望の出力を得ることができる。
隠れ層の変換の一例として、ニューロンの発火現象を模した非線形変換がある。ニューロンの発火現象は、ニューロンに対して閾値を超える電位の入力があった場合に、急激に膜電位が上昇し、出力が変化する非線形現象として知られている。前述の現象を再現するために、例えば、式(1)に示すシグモイド関数が用いられている。
画像等の認識で用いられるニューラルネットワークは、フィードフォワードネットワークと呼ばれる。フィードフォワードネットワークは、ある時刻の独立したデータ群を入力として扱い、データは入力層、隠れ層、出力層の順に送られる。
動画及び言語等の識別で用いられるニューラルネットワークは、リカレントニューラルネットワーク(再帰型ニューラルネットワーク)と呼ばれる。時間変化するデータを識別するためには、時間軸上のデータの相関を含めた解析が必要となるため時系列データが入力される。そのため、リカレントニューラルネットワークの隠れ層では、過去のデータ及び現在のデータを扱った処理が実行される。
リカレントニューラルネットワークは、学習プロセスがフィードフォワードネットワークに比べて複雑となるという問題がある。また、学習プロセスの計算コストが高いという問題もある。そのため、一般的に、リカレントニューラルネットワークのニューロン数は少なく設定されている。
この課題を解決する手法として、リザーバコンピューティングという方式が知られている(例えば、特許文献1、特許文献2参照)。リザーバコンピューティングでは、隠れ層に相当するリザーバを構成するネットワークの接続は固定し、リザーバ及び出力層の接続について学習が行われる。
計算機に実装可能なリザーバコンピューティングとし、時間遅延を伴う一つの非線形ノード及び遅延ループから構成されるリザーバが提案されている(例えば、非特許文献1)。非特許文献1には、遅延間隔をN等分し、各点を仮想ノードと見なすことによって、リザーバのネットワークを構築することが記載されている。非特許文献1に記載のリザーバは、構成がシンプルであるため、容易に計算機に実装できる。
ここで、図9を用いて、非特許文献1に記載のリザーバを含むリザーバコンピューティングを示す。
入力層に入力されたデータは、サンプル及びホールド処理が実行される。平坦化処理では、幅Tの区間ごとにサンプリングが行われる。ここで、Tは、遅延時間に対応する。さらに、入力層に入力されたデータは、一つの区間をN等分し、変調するマスク処理が実行される。前述の処理が実行された入力信号は、幅Tごとに処理される。幅Tに含まれるN個の値が仮想ノードの状態として扱われる。
入力層に入力されるデータが連続時間のデータ及び離散時間のデータのいずれであっても、離散化されたデータに変換される。リザーバでは、各仮想ノードの状態及び重みを乗算した値の総和が出力層に出力される。
特願2002−535074号公報 特開2004−249812号公報
L. Larger, M. C. Soriano, D. Brunner, L. Appeltant, J. M. Gutierrez, L. Pesquera, C. R. Mirasso, and I. Fischer, オプティクス エクスプレス(Optics Express), 20, 2012年, p.3241. Jordi Fonollosa, Sadique Sheik, Ramon Huerta, and Santiago Marcob, センサーズ.アンド.アクチュエーターズB (Sensors and Actuators B: Chemical), 215, 2015年, p.618.
非特許文献1に記載のリザーバコンピューティングの場合、リザーバを構成する一つの非線形ノードが入力層から送信されるデータの入力ポートとして機能する。そのため、入力されるデータの系列数は、入力ポートの数に制限される。
異なる入力データを用いる複雑な処理の場合、非特許文献1に記載のリザーバは、複数の入力データを一度に扱うことができない。複雑な処理としては、例えば、非特許文献2に記載の処理がある。非特許文献2では、混合ガスの成分を識別する処理が記載されている。具体的には、十六個のセンサが出力したデータを用いて、二種類のガスが混在した混合ガス中におけるそれぞれのガスの濃度を出力する処理が記載されている。
非特許文献1のリザーバコンピューティングを用いて前述の処理を実現する方法として、図10A、図10B、及び図10Cに示すような方法が考えられる。
図10Aは、並列方式を示す。当該方法では、入力データの種類の数に合わせて、入力層及びリザーバを並列化する。当該方法の場合、実装規模が大きくなるため、装置が大型化するという問題がある。
図10Bは、直列方式を示す。当該方法では、リザーバの入力側及び出力側に一時的にデータを格納するメモリを設ける。装置は、入力データを逐次処理する。
装置は、入力データ1について処理が完了した場合、出力側のメモリ及び入力側のメモリに処理結果を格納する。入力データ2について処理を実行する場合、装置は、入力側のメモリに格納される入力データ1の処理結果及び入力データ2を用いて処理を実行する。以下、同様の処理が実行される。
当該方法の場合、入力データの数に比例して処理時間が長くなるため、高速な処理を実現できない。また、前後の処理結果を格納するメモリが必要なるため、装置が大型化するという問題もある。
図10Cは、別の直列方式を示す。当該方法では、入力データの数に合わせて、仮想ノードの数を増やし、複数の入力データを交互にリザーバに入力する。仮想ノードの間隔は、スイッチング速度に依存する。
当該方法の場合、遅延ネットワークのサイズ、すなわち、遅延時間が長くなるため処理速度が低下する。また、光回路を用いて実装する場合、光導波路の長さが長くなるため装置が大型になるという問題がある。電子回路を用いて実装する場合、各入力データの値を保持するためのメモリ容量を大きくする必要がある。
本明細書では、並列方式と記載する場合、図10Aの方式を示す。また、直列方式と記載する場合、図10B又は図10Cの方式を示す。
本発明は、装置規模を大きくすることなく実装でき、高精度かつ高速に複数の時系列データを処理することができるシステム及び方法を提供することを目的とする。
本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、入力部、リザーバ部、及び出力部から構成されるニューラルネットワークを用いた演算処理を実行する計算機システムであって、前記計算機システムは、少なくとも一つの計算機を備え、前記少なくとも一つの計算機は、演算装置及び前記演算装置に接続されるメモリを有し、前記入力部は、複数の時系列データを受け付ける入力ノードを含み、前記リザーバ部は、前記入力部が出力するデータを受け取る、時間遅延を伴う一つの非線形ノードを含み、前記出力部は、前記リザーバ部の出力を受け付け、出力値を算出する出力ノードを含み、前記入力部は、複数の時系列データを受け付け、前記複数の時系列データの各々を第1の時間幅に分割し、前記複数の時系列データの各々について、前記第1の時間幅に含まれる時系列データに対してサンプル及びホールド処理を実行することによって、第1の入力ストリームを算出し、複数の第1の入力ストリームの各々について、前記第1の入力ストリームを第2の時間幅で変調するマスク処理を実行することによって、複数の第2の入力ストリームを算出し、前記複数の第2の入力ストリームの各々に対して、時間のズレを与える時間シフト処理を実行し、前記時間シフト処理が実行された複数の第2の入力ストリームの各々を重ね合わせることによって第3の入力ストリームを算出し、前記第3の入力ストリームを前記非線形ノードに入力することを特徴とする。
本発明によれば、装置規模を大きくすることなく実装でき、また、高精度かつ高速に複数の時系列データを処理できる。上記した以外の課題、構成及び効果は、以下の実施例の説明により明らかにされる。
実施例1のリザーバコンピューティングを実現する計算機の構成例を示す図である。 実施例1のリザーバコンピューティングの概念を示す図である。 実施例1の入力部が実行する処理を説明するフローチャートである。 実施例1の入力部が実行する処理の概念を示す図である。 実施例1の入力部が実行する処理の概念を示す図である。 実施例1の入力部が実行する処理の概念を示す図である。 実施例1の入力部が実行する処理の概念を示す図である。 実施例1の入力部が実行する処理の概念を示す図である。 実施例1の入力部が実行する処理の概念を示す図である。 施例1の計算機に入力される時系列データの一例を示す図である。 従来の並列方式の出力結果を示すグラフである。 実施例1の計算機の出力結果を示すグラフである。 実施例1の方式の性能を示す図である。 実施例2の計算機の構成の一例を示す図である。 実施例2の計算機の構成の一例を示す図である。 実施例3の光回路チップの構成の一例を示す図である。 従来のリザーバコンピューティングの論理構造を示す図である。 従来技術のリザーバコンピューティングにおける課題の解決方法を示す図である。 従来技術のリザーバコンピューティングにおける課題の解決方法を示す図である。 従来技術のリザーバコンピューティングにおける課題の解決方法を示す図である。
以下、本発明の実施形態について図面を用いて説明する。なお、実施形態を説明するための全図において、同一の機能を有する箇所には同一の符号を付し、その繰り返しの説明は省略する。なお、以下に示す図は、あくまで、実施形態の実施例を説明するものであって、図の大きさと本実施例に記載の縮尺は必ずしも一致するものではない。
図1は、実施例1のリザーバコンピューティングを実現する計算機100の構成例を示す図である。
計算機100は、演算装置101、メモリ102、及びネットワークインタフェース103を有する。
演算装置101は、プログラムにしたがって処理を実行する。演算装置101は、プロセッサ及びFPGA(Field Programmable Gate Array)等が考えられる。演算装置101がプログラムにしたがって処理を実行することによって所定の機能部を実現する。以下の説明では、機能部を主語に処理を説明する場合、演算装置101が当該機能部を実現するプログラムを実行していることを示す。
メモリ102は、演算装置101が実行するプログラム及びプログラムが使用する情報を格納する。また、メモリ102は、プログラムが一時的に使用するワークエリアを含む。
ネットワークインタフェース103は、ネットワークを介して、センサ等の外部装置と接続するインタフェースである。
なお、計算機100は、キーボード及びマウス等の入力装置及びディスプレイ等の出力装置と接続する入出力インタフェースを有してもよい。
本実施例のメモリ102は、再帰型ニューラルネットワークを実現する入力部111、リザーバ部112、及び出力部113を実現するプログラムを格納する。
入力部111は、リザーバコンピューティングの入力層に対応する処理を実行する。リザーバ部112は、リザーバコンピューティングのリザーバに対応する処理を実行する。出力部113は、リザーバコンピューティングの出力層に対応する処理を実行する。
図2は、実施例1のリザーバコンピューティングの概念を示す図である。
入力部111は、複数の時系列データを受け付ける入力ノードを含む。入力部111は、データ変換処理を実行することによって複数の時系列データから入力データx(t)を生成し、リザーバ部112に入力データx(t)を出力する。
リザーバ部112は、時間遅延を伴う一つの非線形ノード200から構成される。なお、リザーバ部112には、二つ以上の非線形ノード200を含んでもよい。非線形ノード200は、入力部111から入力データx(t)を受け付けた場合、時間幅Tずつに入力データx(t)を分割し、時間幅Tを一つの処理単位とした演算処理を実行する。
ここで、Tは遅延時間(遅延ネットワークの長さ)を表す。なお、分割した入力データx(t)はN次元のベクトルとして扱われる。Nは仮想ノードの数を表す。
演算処理では、リザーバ部112は、式(2)に示す非線形変換を実行して、N次元のデータq(t)を算出する。なお、データq(t)の各成分は式(3)のように表される。
ここで、式(2)のcは再帰係数を表す。関数fは、非線形関数であり、例えば、式(4)のように与えられる。
ここで、係数a、bは調整可能なパラメータである。式(2)において、関数fの括弧内の二項目は遅延信号を表す。
なお、本発明は非線形変換処理で用いる数式に限定されない。例えば、任意の三角関数等を用いた非線形変換処理でもよい。
データq(t)は、仮想ノード201から構成される遅延ネットワークに送信される。具体的には、式(3)の各成分の値が仮想ノード201の状態値としてエミュレーションされる。以下の説明では、式(3)の各成分の値をq(t)と記載する。なお、添字iは1からNまでの値である。
遅延ネットワークから出力されるデータy(t)は、式(2)に示すように、再び、遅延ネットワークに入力される。これによって、異なるデータの重ね合わせを実現できる。
出力部113は、リザーバ部112から入力されたデータを受け付ける出力ノードを含む。なお、リザーバ部112からは式(5)に示すような演算処理の結果が入力される。
ここで、wは重み係数を表す。データy(t)はスカラー値である。
入力部111が実行する具体的な処理について説明する。図3は、実施例1の入力部111が実行する処理を説明するフローチャートである。図4A、図4B、図4C、図4D、図4E、及び図4Fは、実施例1の入力部111が実行する処理の概念を示す図である。
入力部111は、複数の時系列データu(t)を受け付ける(ステップS101)。このとき、入力部111は、カウンタ値mを0に初期化する。ここで、添字jは時系列データを識別する値である。例えば、入力部111は、図4Aに示す時系列データu(t)を受け付ける。
次に、入力部111は、時系列データからターゲット時系列データu(t)を選択する(ステップS102)。このとき、入力部111は、カウンタ値mに1を加算する。
次に、入力部111は、ターゲット時系列データu(t)に対してサンプル及びホールド処理を実行し、ストリームA(t)を算出する(ステップS103)。なお、サンプルの周期はTとする。図4Aに示す時系列データu(t)に対して、図4Bのようなサンプリングが行われ、さらに、サンプル及びホールド処理が実行されることによって、図4CのようなストリームA(t)が得られる。
以下の説明では、一つの区間のストリームA(t)をストリーム[A] (t)と記載する。なお、ストリーム[A] (t)は、図4Cに示すように、一つの区間において一定値となる。
次に、入力部111は、各ストリーム[A] (t)に対して、時間幅τMごとに強度を変調するマスク処理を実行し、入力ストリームa(t)を算出する(ステップS104)。例えば、図4Dのような入力ストリームa(t)が得られる。本実施例では、−1から+1の範囲で強度変調が行われる。ここで、τMは、仮想ノード間の間隔を表し、式(6)を満たす。
なお、変調は、振幅変調又は位相変調のいずれでもよい。具体的な変調は、ランダムビット列をストリームA(t)に乗算することで行われる。
なお、ランダムビット列は、バイナリのランダムビット列でもよし、8値又は16値等の離散的な多値ランダムビット列でもよい。また、連続的な強度変化を示す信号系列でよい。バイナリのランダムビット列を用いた変調の場合、システム構成を単純にでき、また、既存のデバイスを用いて実現できるという長所がある。多値ランダムビット列を用いて変調の場合、複雑なダイナミクスを再現できるため、計算精度が向上するという長所がある。
以下の説明では、一つの区間の入力ストリームa(t)を入力ストリーム[a] (t)と記載する。なお、入力ストリーム[a] (t)は、N次元のベクトルであり、下式(7)のように表される。図4Eには、入力ストリーム[a] (t)の詳細を示している。
次に、入力部111は、カウンタ値mに基づいた時間のズレを発生させる時間シフト処理を実行することによって、入力ストリームa(t)を入力ストリームα(t)に変換する(ステップS105)。その後、入力部111は、ステップS107に進む。
時間シフト処理は、時間を遅らせる処理でもよいし、時間を進める処理でもよい。例えば、式(8)に示す時間シフト処理が行われる。
式(8)は、任意の入力ストリームa(t)を基準として、他の入力ストリームa(t)に遅延を与える時間シフト処理である。式(8)に示すように、カウンタ値mが「1」である入力ストリームが基準となる。
なお、遅延の発生方法は、前述のものに限定されない。例えば、τMの整数倍ごとに遅延を発生させてもよい。また、カウンタ値mにかかわらず、ランダムに遅延を発生させてもよい。
なお、カウンタ値mがpである入力ストリームα(t)は、入力ストリームα(t)よりpτMだけ遅延している。当該遅延は、Nが大きい場合、時間Tより十分小さくなる。
次に、入力部111は、全ての時系列データについて処理が完了したか否かを判定する(ステップS106)。
全ての時系列データについて処理が完了していないと判定された場合、入力部111は、ステップS102に戻り、同様の処理を実行する。
全ての時系列データについて処理が完了したと判定された場合、入力部111は、各入力ストリームα(t)を重ね合わせることによって、入力データx(t)を算出する(ステップS107)。入力ストリームα(t)の重ね合わせは、例えば式(9)で定義する。当該処理によって、図4Fに示すような入力データx(t)が得られる。
次に、入力部111は、入力データx(t)をリザーバ部112の非線形ノード200に入力する(ステップS108)。その後、入力部111は処理を終了する。
なお、別の処理方法としては以下のようなものが考えられる。ステップS104の処理が完了した後、入力部111は、入力ストリームa(t)をメモリ102のワークエリアに一旦格納し、その後、ステップS106の処理を実行する。ステップS106の判定結果がYESの場合、各入力ストリームa(t)の読出タイミングを調整し、重ね合わせる。読出タイミングを調整することによって、時間のズレを与えることができる。
以上で説明したように、本実施例の入力部111は、遅延させた複数の時系列データを重ね合わせた入力データx(t)をリザーバ部112の非線形ノード200に入力する。
次に、実施例1のリザーバコンピューティングを用いた具体例について説明する。ここでは、非特許文献2に記載の処理をモデルとして用いる。非特許文献2には、混合ガスに関する複数の入力情報を受け付け、混合ガス中のガスX及びガスYの濃度を出力する処理が記載されている。
本識別処理では、十六個のガスセンサから入力された時系列データを扱う。すなわち、時系列データu(t)の添字jは1から16までの値となる。この場合、ターゲット時系列データu(t)は、入力ストリームα(t)に変換される。
なお、遅延ネットワークへ入力する入力データの信号強度が大きくなるのを避けるため、予め、入力データの強度を5%に減衰させた後、リザーバ部112に入力データを出力するように調整した。
ガスXに関する教師データy’(t)に対して、式(10)の値が最小となるように、重み係数wの学習を行った。なお、教師データとしてガス流量制御器の設定値を用いている。なお、添字lは、出力されたデータy(t)の数を表す。
なお、本実施例では、最小自乗法を用いて重み係数wを決定した。具体的には、式(11)のN元一次方程式から重み係数wを算出した。
ガスYに関する教師データz’(t)についても同様の学習を行った。
図5Aは、実施例1の計算機100に入力される時系列データの一例を示す図である。図5Aの上のグラフはガス流量計の設定値を示し、下のグラフは一つのセンサからの出力値を示す。なお、黒色の実線はガスXの値を示し、灰色の実線はガスYの値を示す。
図5Bは、従来の並列方式の出力結果を示すグラフである。図5Bの上のグラフはガスXに関する出力を示し、下のグラフはガスYに関する出力を示す。
図5Cは、実施例1の計算機100の出力結果を示すグラフである。
なお、図5B及び図5Cの黒色の破線は、ガス流量計の設定値に相当し、教師データを示す。実線は十六個のセンサから出力された値を用いて算出されたガス濃度の推定値である。
図5B及び図5Cに示すように、実施例1の方式は、従来の並列方式と同様に精度の高い結果が得られる。
図6は、実施例1の方式の性能を示す図である。
ここでは、実施例1の方式と、従来の並列方式との性能差を一例として示す。なお、市販のデスクトップ型パーソナルコンピュータを用いて性能差のテストを行った。横軸は、周期Tの分割数、すなわち、仮想ノードの数を示す。縦軸は、時系列データ1ポイント当たりの計算速度を示す。
図6に示すように、実施例1の方式の方が、従来の方式より、仮想ノードの数が少ない。すなわち、計算量を削減できることが示されている。したがって、従来の方式より計算速度が1桁以上向上することが確認できた。
実施例1のリザーバコンピューティングでは、高精度かつ高速に計算コストが削減できる。また、リザーバ部112は従来のものであるため、装置規模の大型化を防ぐことができる。
実施例1では、入力部111、リザーバ部112、及び出力部113をソフトウェアとして実現していたが、実施例2では、ハードウェアを用いてこれらを実現する。以下、実施例2の詳細について説明する。
リザーバ部112の非線形ノード200は、電子回路及び光素子等のハードウェアを用いて実現できる。電子回路としては、Macky−Glass回路、及びMOSFETのソースドレイン電流を用いることができる。光素子としては、MZ干渉計及び飽和吸収等の非線形特性を示す光導波路を用いることができる。
実施例2では、光導波路を用いてリザーバ部112を実現する計算機を説明する。
光デバイスは通信の高速性及び光導波路中での伝搬損失も低いというネットワーク特性を有するため、高速かつ消費電力を抑えた処理に活用することが期待されている。
光導波路を用いてリザーバコンピューティングを実現する場合、マッハツェンダー干渉計型の光変調器(MZ−modulator)又はレーザが非線形ノード200として用いられる。そのため、複数の時系列データを処理するために、複数の遅延ネットワークを構築する場合、装置の規模が大型になるという課題がある。
複数の時系列データを一つの遅延ネットワークを用いてシーケンシャルに処理を実行する場合、処理の遅延を抑制できるが、一時的にデータを蓄積するためのメモリの容量が大きくなるため、装置の規模が大型になるという課題がある。
実施例2では、実施例1の入力部111をハードウェアとして実装することによって、上記課題を解決する。
図7A及び図7Bは、実施例2の計算機100の構成の一例を示す図である。なお、実施例2では、混合ガスの濃度の識別するためにパラメータを一例として示す。
本実施例の計算機100は、十六個のガスセンサから時系列データを受け付ける。時系列データを入力するガスセンサのサンプリング周波数を100Hzとし、また、遅延ネットワークの再起周波数は10kHzとしている。したがって、遅延ネットワークにおける処理速度はガスセンサのサンプリングより十分高速である。
本実施例で遅延ネットワークの周期Tは100マイクロ秒とし、また、仮想ノードの数は100としている。したがって、リザーバ部112は、1MHzで動作する。
まず、図7Aの計算機100の構成について説明する。
入力部111は、マスク回路711、複数のシフトレジスタ712、及び演算器713を含む。
マスク回路711は、入力された時系列データの各々に対して、ステップS103及びステップS104の処理に対応する演算処理を実行する。マスク回路711は、一つの時系列データを処理することによって得られた入力ストリームa(t)を、一つのシフトレジスタ712に出力する。
シフトレジスタ712は、入力ストリームa(t)に対して、ステップS105の処理に対応する演算処理を実行する。シフトレジスタ712は、算出した入力ストリームα(t)を演算器713に出力する。本実施例では、シフトレジスタ712を用いて入力ストリームa(t)に遅延を発生させる遅延回路を実現している。ただし、遅延回路としては、コンデンサ及びコイルから構成されるはしご型伝送回路網で構成される遅延回路でもよい。
演算器713は、各シフトレジスタ712から入力された入力ストリームα(t)を用いて、ステップS107の処理に対応する演算処理を実行する。演算器713は、演算結果をリザーバ部112に出力する。
リザーバ部112は、演算器721、レーザ722、MZ光変調器723、フォトダイオード724、及びアンプ725を含む。なお、MZ光変調器723及びフォトダイオード724は光ファイバを介して接続される。
演算器721は、式(2)に示す演算処理を実行する。すなわち、演算器721は、入力部111から入力された入力データx(t)と、リザーバ部112が出力するデータq(t)とを重ね合わせる。演算器721は、演算結果を信号として、MZ光変調器723に出力する。
レーザ722は、MZ光変調器723に任意の強度のレーザ光を入力する。本実施例のレーザ722は、波長が1310nmのレーザ光を照射する。
MZ光変調器723は、非線形ノード200を実現するハードウェアである。本実施例では、ファイバ結合型のLN(LiNbO)−MZ変調器を用いた。MZ光変調器723は、演算器721から入力された信号を用いて、レーザ722から入力されたレーザ光の強度を変調する。MZ光変調器723の光透過特性は、入力電気信号に対して正弦波の二乗に対応するため、振幅が非線形変換される。
なお、本実施例では、入力電気信号が0.4Vから1Vとなるように調整されている。
MZ光変調器723とフォトダイオード724との間の接続する光ファイバの長さは、MZ光変調器723から出力されるレーザ光の伝達に所定時間要する長さとなっている。レーザ光の伝達に要する時間が、遅延ネットワークの周期となる。本実施例では、20kmの長さの光ファイバを用いてMZ光変調器723及びフォトダイオード724が接続される。したがって、信号の伝達には100マイクロ秒かかる。
フォトダイオード724は、入力されたレーザ光を電気信号に変換し、さらに、電気信号を分岐し、一つの電気信号を出力部113に出力し、もう一つの電気信号をアンプ725に出力する。
アンプ725は、フォトダイオード724から入力された信号を増幅又は減衰した後、当該信号を演算器721に出力する。
出力部113は、複数の読出回路731及び積分回路732を含む。
読出回路731は、リザーバ部112から出力される信号を読み出す。読出回路731は、マスク回路711と同期するように稼働する。なお、読出回路731の動作速度は、1MHzで増幅率が変動し、また、10kHzの周期で動作する。増幅率は学習処理によって決定される。読出回路731は、読み出した信号を積分回路に出力する。
積分回路732は、所定の時間で信号を積分し、処理結果を出力する。本実施例の積分回路732は、100マイクロ秒ごとに信号強度を積分する。
次に、図7Bの構成について説明する。図7Bの計算機100が有する入力部111、リザーバ部112、及び出力部113の構成は、図7Aの計算機100が有するものと同一である。ただし、フォトダイオード724は、電気信号を学習器752に出力する点が異なる。
学習部750は、教師データ751及び学習器752を含む。教師データ751は、学習処理に使用するデータである。学習器752は、教師データ751及びフォトダイオード724から入力された電気信号を用いて仮想ノード201と出力層のノードとを接続する重み係数を決定するための学習処理を実行する。なお、学習処理において、出力部113が出力する演算処理の結果と教師データ751とを比較する必要がある場合、出力部113は、学習器752に演算処理の結果を出力する。
実施例2によれば、高速かつ消費電力を抑えたリザーバコンピューティングを実現できる。また、装置の規模を抑えることができる。また、既存のリザーバ部112及び出力部113を用いることができるため、実装にかかるコストを削減できる。
実施例3では、光回路チップを用いて、実施例1のリザーバコンピューティングを実装する計算機100を説明する。
図8は、実施例3の光回路チップの構成の一例を示す図である。なお、図8は、光回路チップの上面図に対応する。
光回路チップ800は、基板801上に複数の機能チップを搭載する。なお、光回路は、電子回路に対して積層方向に搭載されているため、MZ変調器及びフォトダイオード等の光素子は図面中に現れていない。
光回路チップ800は、基板801、窒化シリコン光回路802、シリコン光回路803、基板804、サンプリング回路805、マスク回路806、遅延回路807、変調器駆動回路808、再帰信号増幅器809、トランスインピーダンスアンプ810、読出回路811、及び積分回路812を含む。
サンプリング回路805、マスク回路806、遅延回路807、変調器駆動回路808、再帰信号増幅器809、トランスインピーダンスアンプ810、読出回路811、及び積分回路812は、同一のチップに集積される。
本実施例では、遅延ネットワークの周期を10ナノ秒に設定しているため、窒化ケイ素を導波路層とする窒化シリコン光回路802を用いる。なお、10ナノ秒の遅延時間を確保するためには、長さが約1.5メートルの光導波路が必要である。
MZ変調器を含むシリコン導波路はシリコン光回路803に形成され、遅延用の窒化ケイ素の導波路は窒化シリコン光回路802に形成される。回折又はミラーを用いて互いに基盤面方向に光を入出することによって、光結合を確保できる。なお、MZ変調器を含むシリコン光回路803上の一部に窒化ケイ素領域を形成し、遅延用の窒化経ケイ素の導波路を設けてもよい。
なお、MZ変調器は40GHzの帯域を有しており、10GHzで稼働するマスク回路806から出力される信号に追随できる性能を有する。また、フォトダイオードは、シリコン光回路803にフリップチップ実装されてもよいし、シリコン光回路803に集積されたGeフォトダイオードとして実装されてもよい。フォトダイオードは、MZ変調器から入力された光信号を電気信号に変換し、電気信号をトランスインピーダンスアンプ810及び読出回路811に出力する。
サンプリング回路805、マスク回路806、及び遅延回路807は、入力部111を構成する回路である。
サンプリング回路805は、時系列データに対してサンプリング及びホールド処理を実行する回路である。マスク回路806は、マスク処理を実行する回路である。遅延回路807は、マスク回路806から出力された入力ストリームa(t)に遅延を発生させる回路である。なお、マスク回路806は、10GHzで動作する。
窒化シリコン光回路802、シリコン光回路803、変調器駆動回路808、再帰信号増幅器809、及びトランスインピーダンスアンプ810は、リザーバ部112を構成する回路である。
レーザ光を照射する半導体レーザのチップは、シリコン光回路803にフリップチップ実装されており、連続光を光集積回路のシリコン導波路に供給できる。
変調器駆動回路808は、MZ変調器を駆動する回路である。
トランスインピーダンスアンプ810は、フォトダイオードが出力した信号を増幅し、再帰信号増幅器809及び読出回路811に出力する。
再帰信号増幅器809は、トランスインピーダンスアンプ810から入力された信号を、配線を介してMZ変調器に入力する。
読出回路811は、トランスインピーダンスアンプ810から信号を読み出し、積分回路812に出力する。
積分回路812は、入力された信号に対して積分演算を実行し、演算結果を出力する。
なお、配線及び光導波路の遅延時間の総和が、遅延ネットワークの周期と一致するように光回路チップ800の各回路が設計されている。
実施例3によれば、光回路チップを用いることによって、小型ロボット及びドローンに本発明のリザーバコンピューティングを実装することができる。
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。また、例えば、上記した実施例は本発明を分かりやすく説明するために構成を詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、各実施例の構成の一部について、他の構成に追加、削除、置換することが可能である。
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、本発明は、実施例の機能を実現するソフトウェアのプログラムコードによっても実現できる。この場合、プログラムコードを記録した非一時的記憶媒体をコンピュータに提供し、そのコンピュータが備えるプロセッサが非一時的記憶媒体に格納されたプログラムコードを読み出す。この場合、非一時的記憶媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコード自体、及びそれを記憶した非一時的記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、CD−ROM、DVD−ROM、ハードディスク、SSD(Solid State Drive)、光ディスク、光磁気ディスク、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどが用いられる。
また、本実施例に記載の機能を実現するプログラムコードは、例えば、アセンブラ、C/C++、perl、Shell、PHP、Java(登録商標)等の広範囲のプログラム又はスクリプト言語で実装できる。
さらに、実施例の機能を実現するソフトウェアのプログラムコードを、ネットワークを介して配信することによって、それをコンピュータのハードディスクやメモリ等の記憶手段又はCD−RW、CD−R等の記憶媒体に格納し、コンピュータが備えるプロセッサが当該記憶手段や当該記憶媒体に格納されたプログラムコードを読み出して実行するようにしてもよい。
上述の実施例において、制御線や情報線は、説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。全ての構成が相互に接続されていてもよい。
100 計算機
101 演算装置
102 メモリ
103 ネットワークインタフェース
111 入力部
112 リザーバ部
113 出力部
200 非線形ノード
201 仮想ノード
711、806 マスク回路
712 シフトレジスタ
713、721 演算器
722 レーザ
723 MZ光変調器
724 フォトダイオード
725 アンプ
731、811 読出回路
732、812 積分回路
750 学習部
751 教師データ
752 学習器
800 光回路チップ
801、804 基板
802 窒化シリコン光回路
803 シリコン光回路
805 サンプリング回路
807 遅延回路
808 変調器駆動回路
809 再帰信号増幅器
810 トランスインピーダンスアンプ

Claims (8)

  1. 入力部、リザーバ部、及び出力部から構成される再帰型ニューラルネットワークを用いた演算処理を実行する計算機システムであって、
    前記計算機システムは、少なくとも一つの計算機を備え、
    前記少なくとも一つの計算機は、演算装置及び前記演算装置に接続されるメモリを有し、
    前記入力部は、複数の時系列データを受け付ける入力ノードを含み、
    前記リザーバ部は、前記入力部が出力する入力データを受け取る、時間遅延を伴う少なくとも一つの非線形ノードを含み、
    前記出力部は、前記リザーバ部からの出力を受け付ける出力ノードを含み、
    前記入力部は、
    複数の時系列データを受け付け、
    前記複数の時系列データの各々を第1の時間幅に分割し、
    前記複数の時系列データの各々について、前記第1の時間幅に含まれる時系列データに対してサンプル及びホールド処理を実行することによって、第1の入力ストリームを算出し、
    複数の第1の入力ストリームの各々について、前記第1の入力ストリームを第2の時間幅で変調するマスク処理を実行することによって、複数の第2の入力ストリームを算出し、
    前記複数の第2の入力ストリームの各々に対して、時間のズレを与える時間シフト処理を実行し、
    前記時間シフト処理が実行された複数の第2の入力ストリームの各々を重ね合わせることによって前記入力データを算出することを特徴とする計算機システム。
  2. 請求項1に記載の計算機システムであって、
    前記複数の第1の入力ストリームの各々に与える遅延の大きさが異なることを特徴とする計算機システム。
  3. 請求項2に記載の計算機システムであって、
    前記入力部は、
    前記第1の入力ストリーム及び前記第2の入力ストリームを算出するマスク回路と、
    前記複数の第2の入力ストリームの各々に前記時間のズレを与える複数のシフトレジスタと、
    前記時間シフト処理が実行された複数の第2の入力ストリームの各々を重ね合わせる演算回路と、から構成されることを特徴とする計算機システム。
  4. 請求項2に記載の計算機システムであって、
    前記時間シフト処理では、
    前記入力部が、前記複数の第2の入力ストリームを前記メモリに一時的に格納し、
    前記入力部が、読出タイミングを調整して、前記メモリから前記複数の第2の入力ストリームの各々を読み出すことを特徴とする計算機システム。
  5. 少なくとも一つの計算機を有する計算機システムにおける再帰型ニューラルネットワークを用いた演算方法であって、
    前記少なくとも一つの計算機は、演算装置及び前記演算装置に接続されるメモリを有し、
    前記再帰型ニューラルネットワークは、入力部、リザーバ部、及び出力部から構成され、
    前記入力部は、複数の時系列データを受け付ける入力ノードを含み、
    前記リザーバ部は、前記入力部が出力する入力データを受け取る、時間遅延を伴う少なくとも一つの非線形ノードを含み、
    前記出力部は、前記リザーバ部からの出力を受け付ける出力ノードを含み、
    前記演算方法は、
    前記入力部が、複数の時系列データを受け付ける第1のステップと、
    前記入力部が、前記複数の時系列データの各々を第1の時間幅に分割する第2のステップと、
    前記入力部が、前記複数の時系列データの各々について、前記第1の時間幅に含まれる時系列データに対してサンプル及びホールド処理を実行することによって、第1の入力ストリームを算出する第3のステップと、
    前記入力部が、複数の第1の入力ストリームの各々について、前記第1の入力ストリームを第2の時間幅で変調するマスク処理を実行することによって、複数の第2の入力ストリームを算出する第4のステップと、
    前記入力部が、前記複数の第2の入力ストリームの各々に対して、時間のズレを与える時間シフト処理を実行する第5のステップと、
    前記入力部が、前記時間シフト処理が実行された複数の第2の入力ストリームの各々を重ね合わせることによって前記入力データを算出する第6のステップとを含む、ことを特徴とする再帰型ニューラルネットワークを用いた演算方法。
  6. 請求項5に記載の再帰型ニューラルネットワークを用いた演算方法であって、
    前記複数の第1の入力ストリームの各々に与える遅延の大きさが異なることを特徴とする再帰型ニューラルネットワークを用いた演算方法。
  7. 請求項6に記載の再帰型ニューラルネットワークを用いた演算方法であって、
    前記入力部は、
    前記第1の入力ストリーム及び前記第2の入力ストリームを算出するマスク回路と、
    前記複数の第2の入力ストリームの各々に前記時間のズレを与える複数のシフトレジスタと、
    前記時間シフト処理が実行された複数の第2の入力ストリームの各々を重ね合わせる演算回路と、から構成されることを特徴とする再帰型ニューラルネットワークを用いた演算方法。
  8. 請求項6に記載の再帰型ニューラルネットワークを用いた演算方法であって、
    前記第5のステップは、
    前記入力部が、前記複数の第2の入力ストリームを前記メモリに一時的に格納するステップと、
    前記入力部が、読出タイミングを調整して、前記メモリから前記複数の第2の入力ストリームの各々を読み出すステップと、を含むことを特徴とする再帰型ニューラルネットワークを用いた演算方法。
JP2017075587A 2017-04-05 2017-04-05 計算機システム及び再帰型ニューラルネットワークを用いた演算方法 Active JP6791800B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017075587A JP6791800B2 (ja) 2017-04-05 2017-04-05 計算機システム及び再帰型ニューラルネットワークを用いた演算方法
US15/900,826 US20180293495A1 (en) 2017-04-05 2018-02-21 Computer system and computation method using recurrent neural network
CN201810156156.7A CN108694442B (zh) 2017-04-05 2018-02-23 计算机系统以及使用了递归神经网络的运算方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017075587A JP6791800B2 (ja) 2017-04-05 2017-04-05 計算機システム及び再帰型ニューラルネットワークを用いた演算方法

Publications (2)

Publication Number Publication Date
JP2018180701A JP2018180701A (ja) 2018-11-15
JP6791800B2 true JP6791800B2 (ja) 2020-11-25

Family

ID=63711645

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017075587A Active JP6791800B2 (ja) 2017-04-05 2017-04-05 計算機システム及び再帰型ニューラルネットワークを用いた演算方法

Country Status (3)

Country Link
US (1) US20180293495A1 (ja)
JP (1) JP6791800B2 (ja)
CN (1) CN108694442B (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3104973A1 (en) * 2018-06-27 2020-01-02 Ohio State Innovation Foundation Rapid time-series prediction with hardware-based reservoir computer
WO2020121527A1 (ja) * 2018-12-14 2020-06-18 三菱電機株式会社 学習識別装置、学習識別方法、及び、学習識別プログラム
JP7206898B2 (ja) * 2018-12-25 2023-01-18 富士通株式会社 学習装置、学習方法および学習プログラム
JP7264408B2 (ja) * 2019-03-04 2023-04-25 株式会社トランストロン ニューラルネットワークモデルの生成方法、及びニューラルネットワークモデルを用いた制御装置
JP2020177509A (ja) * 2019-04-19 2020-10-29 株式会社日立製作所 計算機及びデータ処理方法
CN110247298B (zh) * 2019-05-13 2021-04-09 上海大学 一种确定半导体激光器储备池工作点的方法
JP7164489B2 (ja) * 2019-06-06 2022-11-01 株式会社日立製作所 演算システムおよび方法
JP7301295B2 (ja) * 2019-06-17 2023-07-03 国立大学法人九州工業大学 情報処理装置
CN110503196A (zh) * 2019-08-26 2019-11-26 光子算数(北京)科技有限责任公司 一种光子神经网络芯片以及数据处理系统
JP7265965B2 (ja) * 2019-08-30 2023-04-27 株式会社日立製作所 機械学習装置および機械学習方法
JP2021043791A (ja) * 2019-09-12 2021-03-18 富士通株式会社 リザーバコンピュータ、リザーバ設計方法及びリザーバ設計プログラム
US11527059B2 (en) * 2020-01-28 2022-12-13 International Business Machines Corporation Reservoir computing
CN115443473A (zh) 2020-04-08 2022-12-06 富士通株式会社 信息处理系统、信息处理装置、信息处理方法以及信息处理程序
JP7425370B2 (ja) 2020-07-07 2024-01-31 富士通株式会社 情報処理装置及び情報処理方法
US20230419094A1 (en) * 2020-12-03 2023-12-28 Tdk Corporation Reservoir element
WO2022155722A1 (en) * 2021-01-25 2022-07-28 Huawei Technologies Canada Co., Ltd. Multicolor tunable reservoir computing method and system
TWI770922B (zh) * 2021-03-31 2022-07-11 財團法人工業技術研究院 低精度神經網路的資料特徵擴增系統及方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04118741A (ja) * 1990-09-10 1992-04-20 Toshiba Corp ニューラルネットワーク装置
JP3032402B2 (ja) * 1993-05-18 2000-04-17 ホーチキ株式会社 火災判定装置及びニューラルネットワークの学習方法
JP4208485B2 (ja) * 2001-05-31 2009-01-14 キヤノン株式会社 パルス信号処理回路、並列処理回路、パターン認識装置、及び画像入力装置
JP5193940B2 (ja) * 2009-05-11 2013-05-08 株式会社日立ハイテクノロジーズ 自動分析装置
US20140108094A1 (en) * 2012-06-21 2014-04-17 Data Ventures, Inc. System, method, and computer program product for forecasting product sales
US9165246B2 (en) * 2013-01-29 2015-10-20 Hewlett-Packard Development Company, L.P. Neuristor-based reservoir computing devices
CN104899656A (zh) * 2015-06-05 2015-09-09 三峡大学 一种基于总体平均经验模态分解与改进Elman神经网络的风功率组合预测方法
US10395168B2 (en) * 2015-10-26 2019-08-27 International Business Machines Corporation Tunable optical neuromorphic network
US9852372B1 (en) * 2016-06-03 2017-12-26 International Business Machines Corporation Reservoir computing device using external-feedback laser system

Also Published As

Publication number Publication date
CN108694442A (zh) 2018-10-23
US20180293495A1 (en) 2018-10-11
JP2018180701A (ja) 2018-11-15
CN108694442B (zh) 2021-08-17

Similar Documents

Publication Publication Date Title
JP6791800B2 (ja) 計算機システム及び再帰型ニューラルネットワークを用いた演算方法
Bangari et al. Digital electronics and analog photonics for convolutional neural networks (DEAP-CNNs)
Larger et al. High-speed photonic reservoir computing using a time-delay-based architecture: Million words per second classification
EP3796229A1 (en) Methods and systems for implementing dynamic neural networks
US9704094B2 (en) Mapping of algorithms to neurosynaptic hardware
EP2821942B1 (en) Reservoir computing using passive optical systems
JP7115691B2 (ja) フォトニックリザーバコンピューティングシステムのトレーニング
Toole et al. Photonic implementation of spike-timing-dependent plasticity and learning algorithms of biological neural systems
US11436480B2 (en) Reservoir and reservoir computing system
JP7350847B2 (ja) 人工ニューラル・ネットワークを用いた変調信号の復調方法、復調器、およびその変調システム
CN112101540B (zh) 光学神经网络芯片及其计算方法
JP6832833B2 (ja) リザーバコンピューティングのリザーバ層の演算を実現するデバイス及び計算機
Ribeiro et al. Beyond occam’s razor in system identification: Double-descent when modeling dynamics
Tsirigotis et al. Unconventional integrated photonic accelerators for high-throughput convolutional neural networks
US11188454B2 (en) Reduced memory neural network training
JP2018205864A (ja) ニューラルネットワーク光学習装置
Antonik et al. Online training of an opto-electronic reservoir computer
JP6534987B2 (ja) 摂動学習装置とその方法
CN112232487B (zh) 光学神经网络芯片及其计算方法
US20230259155A1 (en) Method and system for determining a guided random data sampling
Bilodeau et al. Neuromorphic Silicon Photonics
JP2020067984A (ja) 情報処理システム及び情報処理方法
Howard et al. Photonic long-short term memory neural networks with analog memory
JP7273342B2 (ja) 光情報処理装置
US20230281437A1 (en) Radio-Frequency Photonic Architecture for Deep Neural Networks, Signal Processing, and Computing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201105

R150 Certificate of patent or registration of utility model

Ref document number: 6791800

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150