JP2020500363A - 発振記憶神経形態学的回路のための学習アルゴリズム - Google Patents

発振記憶神経形態学的回路のための学習アルゴリズム Download PDF

Info

Publication number
JP2020500363A
JP2020500363A JP2019522731A JP2019522731A JP2020500363A JP 2020500363 A JP2020500363 A JP 2020500363A JP 2019522731 A JP2019522731 A JP 2019522731A JP 2019522731 A JP2019522731 A JP 2019522731A JP 2020500363 A JP2020500363 A JP 2020500363A
Authority
JP
Japan
Prior art keywords
circuit
neuromorphological
learning
neuron
learning network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019522731A
Other languages
English (en)
Inventor
ジャック・ディ・ケンドール
フアン・シー・ニノ
Original Assignee
ユニバーシティ オブ フロリダ リサーチ ファンデーション インコーポレーティッド
ユニバーシティ オブ フロリダ リサーチ ファンデーション インコーポレーティッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ユニバーシティ オブ フロリダ リサーチ ファンデーション インコーポレーティッド, ユニバーシティ オブ フロリダ リサーチ ファンデーション インコーポレーティッド filed Critical ユニバーシティ オブ フロリダ リサーチ ファンデーション インコーポレーティッド
Publication of JP2020500363A publication Critical patent/JP2020500363A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • G06N3/065Analogue means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Neurology (AREA)
  • Feedback Control In General (AREA)
  • Image Analysis (AREA)
  • Medicines Containing Plant Substances (AREA)

Abstract

発振記憶神経形態学的回路のための学習アルゴリズムが説明される。実施形態では、神経形態学的回路学習ネットワークは、各々が認知ニューロンユニットと生成ニューロンユニットとを含む複数の神経形態学的回路ノードを含む。学習ネットワークは、神経形態学的回路ノード中の認知ニューロン単位間の複数の神経形態学的回路フィードフォワード結合と、神経形態学的回路ノード中の生成ニューロンユニット間の複数の神経形態学的フィードバック結合とを含む。学習ネットワークはまた、モードにおいて学習のための認知ニューロンユニット間の活動を駆動し、他のモードにおいて学習のための認知ニューロンユニットを訓練するように構成された学習コントローラを含む。学習ネットワークには様々な深層学習アルゴリズムが実装され得る。2つの例は、教師なしニューラルネットワーク及びターゲット伝播のための覚醒睡眠アルゴリズムが含まれる。

Description

関連出願への相互参照.
本願は、2016年10月27日出願の米国仮出願第62/413673号に基づく優先権を主張し、その内容は全体を通して、参照により本明細書に組み込まれる。
本開示は、発振記憶神経形態学的回路のための学習アルゴリズムに関する。
メモリスタは、受動的な非線形2端子電子素子である。メモリスタ内において、デバイスの電気抵抗は、直前にデバイスを通って流れた電流の履歴に依存する。従って、任意の与えられた時刻におけるメモリスタの抵抗又はインピーダンスは、直前にどれだけの量の電荷が、どの方向に流れたかに依存する。
シナプスネットワークのためのメモリスタの使用は、神経形態学的回路の発展の分野における有望なアプローチとして提案されてきた。メモリスタは、結合部前部及び結合部後部の電圧制御のための相補型金属酸化物半導体(CMOS)ベースの回路とともに、クロスバーシナプスネットワークに組み込まれてきた。それらの回路は、CMOSベースの電圧制御及び電流制御がメモリスタの抵抗又はインピーダンス(例えばメモリ)における変化を生むのに用いられ得るということを実証する。
ある実施例において、神経形態学的回路学習ネットワークは、複数の神経形態学的回路ノードを含み、各神経形態学的回路ノードは、認知ニューロンユニット及び生成ニューロンユニットを含む。ネットワークは、神経形態学的回路ノード内の認知ニューロンユニット同士の間の複数の神経形態学的回路フィードフォワード結合と、神経形態学的回路ノード内の生成ニューロンユニット同士の間の複数の神経形態学的回路フィードバック結合とをさらに含む。第1のモードにおいて、学習コントローラは、神経形態学的回路フィードフォワード結合を通じて認知ニューロンユニット内の活動を駆動し、神経形態学的回路を通じた学習のために生成ニューロンユニットを訓練するように構成される。第2のモードにおいて、学習コントローラは、神経形態学的回路フィードバック結合を通じて生成ニューロンユニット中の活動を駆動し、神経形態学的回路を通じた学習のために認知ニューロンネットワークを訓練するようにさらに構成される。
様々な例において、神経形態学的回路フィードフォワード結合及び神経形態学的回路フィードバック結合は、1つ以上のメモリスタを含み得る。メモリスタは長期間デプレッション(LTD)メモリスタと並列に配置された長期間増強(LTP)メモリスタを含んでよく、フィードフォワード結合及びフィードバック結合は、LTPメモリスタ及びLTDメモリスタからの出力信号の間の差に基づいて差動信号を生成する差動増幅回路も含んでよい。
別の実施形態では、神経形態学的回路学習ネットワークの訓練の方法は、第1のモードにおいて、複数の神経形態学的回路ノード中のフィードフォワード結合を通じた複数の神経形態学的回路ノード中の認知ニューロンにおける活動を駆動するステップを含む。方法はさらに、複数の神経形態学的回路ノード中の複数のフィードバック結合を通じて学習のための複数の神経形態学的回路ノード中の生成ニューロンユニットを訓練するステップを含む。
第2のモードにおいて、方法はさらに、フィードバック結合を通じて複数の神経形態学的回路中の生成ユニットにおける活動を駆動し、フィードフォワード結合を通じて学習のための認知ニューロンユニットを訓練するステップを含む。
他の態様において、神経形態学的回路ノードは神経形態学的回路学習ネットワークにおける複数の階層を形成し、方法はさらに、前記第1のモードにおける神経形態学的回路ネットワークの最下位層に訓練用の例を提示するステップを含み得る。方法は、第2のモードにおいて、神経形態学的回路学習ネットワークにおける最上位層にランダムなベクトルを提示するステップも含み得る。
本開示の多くの態様は、以下の図面を参照してよりよく理解される。図面中の構成要素は必ずしも一定の縮尺で描かれているわけではなく、かわりに本開示の原理を明確に示すことに重点が置かれている。図面において、同様の参照番号は、いくつかの図を通して対応する部分を示す。
本開示に記述される様々な実施例に係る、記憶学習のために用いられる電圧信号の例を示す図 本開示に記述される様々な実施例に係る、記憶学習のために用いられる電圧信号の例を示す図 本開示に記述される様々な実施例に係る、記憶学習の概念を組み込んだ神経形態学的回路の例を示す図 本開示に記述される様々な実施例に係る、図2に示される神経形態学的回路の例をさらに示す図 本開示に記述される様々な実施例に係る、神経形態学的回路ネットワークの例を示す図 本開示に記述される様々な実施例に係る、図4の神経形態学的回路ネットワークの一部分を示す図 本開示に記述される様々な実施例に係る、図4及び図5に示す神経形態学的回路ネットワークを訓練する手順の例を示す図
上述のように、シナプスネットワークに対するメモリスタの使用は、神経形態学的回路の発達の分野において提案されてきた。メモリスタは例えば、シナプス前電圧及びシナプス後の電圧のための相補型酸化物半導体(CMOS)ベースの回路とともに、クロスバーシナプスネットワークに組み込まれた。それらの回路は、CMOSベースの電圧制御及び電流制御がメモリスタの抵抗またはインピーダンス(例えばメモリ)に変化を生じるのに使われ得ることを示す。
本明細書に示す概念は、記憶シナプス及び発振ニューロンを用いるハードウェアベースのニューラルネットワーク(例えば、神経形態学的回路及びハードウェア)、並びにそのようなネットワークを訓練するための方法向けである。アプローチは局所化され、重みの更新、パルスの発生、又はイベント検出に外部回路を必要としない。本明細書に記述される学習規則の目的は、ニューラルネットワークを訓練するために用いられるデルタルールを近似することである。機械学習において、デルタルールは、単層ニューラルネットワークにおける人工ニューロンへの入力の重みを更新するための勾配降下学習ルールである。
線形ニューロンに対して、デルタルールは次式の形式を有する。
Figure 2020500363
等式(1)において、Δwjiはニューロンiからニューロンjへの重みの変化であり、αは定数の学習速度であり、xはニューロンiの出力である。
もしニューロンjの実出力が目的値よりも小さい場合、重みの更新は正の方向である。これにより同じ入力が再度提示された場合のニューロンjの出力は効率的に増加し、誤差が減少される。同様に、実出力が目的値よりも大きい場合、重みの更新は負の方向となる。重みは誤差の大きさを最小化するために更新されるべきであるから、これは直感的に理解できる。
異なる活動関数を持つ異なるニューロンの種類は、異なるバージョンのデルタルールを生じる。しかしながら、誤差t−yへの依存性は同じままであり、デルタルールの最もクリティカルな部分である。従って、デルタルールの近似は、誤差t−yへの依存性を保存する。
標準的な速度ベースのニューロンは電流又は電圧の形の実数値のみを表現できるのに対し、発振ベースのニューロンは大きさと位相の両方で複素数を表すことができる。本明細書に記載される学習の概念は、発振の位相が他の発振ベースへの接続強度を変更するために用いられる一方で、情報を他の発振ベースのニューロンに伝達するために、x及びyを表す発振ベースのニューロンの発振の大きさを用いる。
2つのニューロンの発振信号は、しきい値電圧として知られるメモリスタの特性を利用することにより、それらの間の接続重みを更新するために用いることができる。メモリスタのしきい値電圧よりも低いところでは、抵抗(ひいては重み)に変化は起こらない。しかしながら、このしきい値よりも高いところでは、抵抗はメモリスタを横切る電圧降下の方向(例えば極性)に応じて増減する。この特性は、スパイクタイミング依存可塑性(STDP)を実装するためにスパイクニューロンモデルにおいて利用されてきた。しかしながら、発振及び位相ベースのニューロンモデルに対する類似のルールはまだ説明されていない。
図1A及び図1Bは、本明細書で説明される様々な実施例に係る、記憶学習のために用いられる電圧信号の例を示す。図1A及び図1Bにおいて、2つの異なる発振器により生成された2つの電圧信号は重ね合わせられる。電圧信号は、経時的に、メモリスタの逆の端点(すなわち、メモリスタの前後の端点)における電圧にそれぞれ対応する。メモリスタ後のシナプス電圧信号は未整流の正弦波(破線)である一方で、メモリスタ前のシナプス電圧信号は整流された正弦波(実線)である。図1Aにおいて、メモリスタの前後の電圧信号は同位相である。
図1Aにおいて、メモリスタの前後の電圧信号は同位相である。その場合におけるメモリスタの両端の最大電圧降下は0.5Vであり、これはメモリスタのしきい値電圧よりも低くなり得る。従って、メモリスタにおいて抵抗の変化は起こらない。図1Bにおいて、メモリスタの前後の電圧信号は位相がずれている。その場合におけるメモリスタの両端の最大電圧降下は1.5Vであり、これはメモリスタのしきい値電圧よりも大きくなり得る。従って、図1Bの場合にはメモリスタにおける抵抗の変化が起こり得るが、図1Aの場合は起こりえない。この構成の下で、重み(例えば、動作特性又はメモリスタの抵抗)が変更又は更新されたか否かは、メモリスタの前後の電圧の相対位相に依存する。これは、STDPと同様に、2つの発振器又は2つの発振ベースのニューロンの間の相対位相を変化させることにより、メモリスタの抵抗は変化し得ることを示す。
典型的なフィードフォワードニューラルネットワークにおいて、ニューロンの活動は、即時の誤差又は未来の重み更新により影響されることはない。このため、特定のニューロンの活動が、その誤差により、又は所与の時刻においてその重みが変化する方向により、影響されることはない。従って、提案された学習の概念において、活動を決定する発振ベースのニューロンの発振の大きさは、学習を制御して誤差により誘導される発振ベースニューロンの発振の位相とは独立に制御され得る。
図1A及び図1Bに示されるメモリスタの前後の電圧信号のいずれかがメモリスタの両端に加えられるならば、メモリスタを通る総電流が図1A及び図1Bに示される電圧信号の間の位相差とは独立であることが示される。これは図1A及び図1Bを観察することによって理解することができる。上述の基準を満たすために、シナプス前のニューロンからシナプス後のニューロンへと流れる電流は、2つの発振ベースのニューロンの相対位相と独立であるべきである。これは、シナプスメモリスタの直後、シナプス後発振ベースのニューロンに入る前に、リーキー積分、ローパスフィルタ、又は移動平均フィルタを追加することにより、便利に達成することができる。純粋な正弦波の積分は0のため、シナプス前のニューロンからの整流された正弦波だけが、シナプス後ニューロンに流れる電流に寄与する。
換言すると、図1A及び図1Bの両方に示されるメモリスタ後の電圧信号(破線)の積分は同じであるため、メモリスタの両端に図1A及び図1Bに示すどの対の信号が適用されるかに関わらず、その対の相対位相とは独立して、総電流値は同じとなる。その知見に基づいて、デルタルールに対する効率的な近似を実現するためのアーキテクチャを以下で説明する。
図2は、本明細書に記載の様々な実施例に係る記憶学習の概念を組み込んだ例示的な神経形態学的回路10を示す。図2に示すように、アーキテクチャは、2つの異なるニューロンの代表となる2つの発振器X及びYを観測することにより理解できる。発振器X及びYは、例えば位相同期ループ等の任意の適切な種類の発振器として実装され得る。従って、発振器X及びYは、入力信号の位相に関連する位相を有する出力信号を生成する制御システムを含み得る。一例として、発振器X及びYは、フィードバック制御ループ内で互いに結合された可変周波数発振器及び位相検出器を含み得る。発振器は周期的かつ発振する出力信号を生成することができ、位相検出器は出力信号の位相を周期的な入力信号の位相と比較することができる。位相検出器の出力は、入力信号と出力信号の位相を一致させておくために、可変周波数発振器への入力として供給され得る。
2つの発振ベースのニューロンX及びYは、2つのメモリスタ21,22を含むシナプス20により結合される。発振ベースのニューロンX及びYの両方からの電圧出力は、一例では純粋な正弦波であると想定できる(例えば図2の波形A及びGを参照)が、他の波形も使用可能である。図2に示す構造では、シナプス後の発振ベースのニューロンYは、シナプス前の発振ベースのニューロンXから入力を受け取る。加えて、メモリスタ21,22は、2つの発振ベースのニューロンX,Yの間の接続「重み」を表すシナプスの代表である。2つのメモリスタ21,22は単一のシナプスを表し、後述のように正の接続及び負の接続の両方を可能にする。
様々な実施形態において、メモリスタ21,22は、しきい値電圧を有し、かつそれを通って以前に流れた電荷量に基づいて、又はそれに従って電流の流れを調整する、任意の適切なメモリスタとして実施され得る。例えば、メモリスタ21,22のそれぞれの電気抵抗は一定ではなく、それらのそれぞれを通って以前に流れた電流量の履歴に依存する。従って、各メモリスタ21,22のそれぞれの抵抗は、任意の所与の時間において、以前にどのような量の電荷がデバイスを通って流れたか、及びどの方向に流れたかに依存する。
シナプス20内のメモリスタ21,22のうちの一方は、長期間増強(LTP)メモリスタとして指定することができ、もう一方は長期間デプレッション(LTD)メモリスタとして指定することができる。LTPメモリスタのコンダクタンスを増加させることにより、2つの発振器X及びYの間の接続強度は強化される。一方で、LTDメモリスタのコンダクタンスを増加させることにより、2つの発振器X及びYjの間の接続は弱くなる。
発振ベースのニューロンXの出力点には、ダイオード30が設けられる。ダイオード30は、図2の波形Bに示すように、発振器Xの正弦波出力を整流する。この整流された信号は次に、2つのメモリスタ21,22を含むシナプス20に渡される。シナプス20内のメモリスタ21,22も、発振ベースのニューロンYの誤差に基づいて個別のメモリ後の正弦波フィードバック信号を受け取る。その後、これらのフィードバック信号は、シナプス20が強化されるべきか弱化されるべきかに応じて、それらの位相を変更することによりメモリスタ21,22のうちの一方の抵抗を変更する。
シナプス20の後、2つのメモリスタ21,22の間に流れる電流の差は、差動増幅回路40により決定され、差分フィードバック信号として提供され得る。差動増幅回路40の出力は、差分フィードバック信号を積分し、入力信号とフィードバック信号との間の位相差の影響を排除するローパスフィルタ42に通され得る。ローパスフィルタ42からの比較的安定した電流は、次に、発振ベースのニューロンYへの入力として提供される。
神経形態学的回路10は、2つの理由から、1メモリスタのシナプスではなく、2メモリスタのシナプスを用いる。第1の理由は、2メモリシナプスにより、正の重みと負の重みの両方を実際に実施することができるという理由である。一方のメモリスタ(例えばLTDメモリスタ)を負の重みとして作用させ、他方のメモリスタ(例えばLTPメモリスタ)を正の重みとして作用させることにより、正又は負のいずれかである電流を与えるために、それぞれを通る電流は減算され得る。
第2の理由は、提案された学習概念が、Xにおける電圧がどのように整流されるかに応じて、一度に2つのメモリスタ21,22のうちの片方のみを強化または弱化させることができるという理由である。正と負のメモリスタの両方を有することにより、シナプス20が正のメモリスタを単純に強化することができる。一方で、負のメモリスタを強化することによりシナプス20は弱化され得る。
両方のメモリスタ21,22の飽和が常に強化されることを防ぐために、(例えばダイオード30等の)電圧整流の方向は、発振ベースのニューロンX及びYからの電流を同時に反転させながら変更され得る。こうすることで、ダイナミクスは同じであり続け、しかしながらメモリスタ21,22の各々は強化されず、むしろ弱化される。これらの制度を交互に行うことにより、飽和を防ぐことができる。
図3は、図2に示す神経形態学的回路10の実施例をさらに示す。2つの発振ベースのニューロンX,Y同士の間の接続「重み」を更新するために、比較器52は、目標出力T及び出力Yとの間の差を決定する。比較器52の出力は、目標出力と実際の出力Yとの間の誤差を示す。これが正であれば、例えば負のメモリスタ22へのフィードバック信号はその入力信号と同位相のままであり、一方で正のメモリスタ21へのフィードバック信号は、それがその入力信号と逆位相となるように、例えば遅延ステージ54を通過する。従って、これはデルタルールにより要求されるように、シナプス20を強化する。逆の場合、正のメモリスタ21へのフィードバック信号は同位相のまま、負のメモリスタ22へのフィードバック信号は逆位相となる。このようにして、学習率αが十分に低い限り、訓練の事例の各々についての誤差の大きさは減少する。入力信号が同期している限り、これは複数の入力ユニット及び複数の出力ユニットの場合に一般化が可能である。
学習アルゴリズムに目を向けると、上述の発振ベースの記憶学習の概念を用いて、神経形態学的回路ハードウェアに様々な種類の深層学習アルゴリズムを実装することができる。それらのアルゴリズムの2つの例は、教師なしニューラルネットワーク用の覚醒睡眠アルゴリズム及び教師付きニューラルネットワーク用のターゲット伝播法を含む。ターゲット伝播法のアプローチは、誤差逆伝播アルゴリズムへの効率的な近似である。これらのアルゴリズムの各々は、重み更新のために純粋に局所的なデルタルールを利用し、従って上述の発振ベースの記憶学習の概念と互換性がある。文脈のため、学習アルゴリズムのより詳細な説明に移る前に、上記の概念を含む例示的な神経形態学的回路ネットワークを紹介する。
図4は、本明細書に記載の様々な実施例に係る神経形態学的回路ネットワーク100の例を示す。神経形態学的回路ネットワーク100は、ノード50,51の第1の入力層、ノード60〜62の第1の隠れ層、ノード70,71の第2の隠れ層を含む。ネットワーク100は代表的なものであり、他の場合には、他の神経形態学的回路ネットワークは、他の任意の適切な数の層を含み、1層ごとに任意の適切な数のノードを含むことができる。
図5を参照して、以下でさらに詳細に説明するように、ノード50,51,60〜62,70,71の各々は、発振ベースのニューロンと同様に、一対の発振ベースのニューロン又はユニットを含むことができる。これは図2及び図3に示す発振ベースのニューロン又はユニットX,Yと同様である。発振ベースのニューロンの一方は、「認知」ニューロン又はユニットとして説明され、神経形態学的回路ネットワーク100内のフィードフォワードネットワークの一部を構成する。発振ベースのニューロンの他方は、「生成」ニューロン又はユニットとして説明され、神経形態学的回路ネットワーク100内のフィードバックネットワークの一部を構成する。上述のように、発振ベースのニューロンの各々は、振幅として符号化された活動レベルと、位相として符号化された学習のための誤差とを伝播する。
神経形態学的回路ネットワーク100は、図4に示すように、(特筆して)複数の神経形態学的回路フィードフォワード80,81及び(特筆して)フィードバック結合90,91も含む。特に、神経形態学的回路ネットワーク100は、ノード50,51,60〜62,70,71内の認知ニューロンの間の、複数の神経形態学的回路フィードフォワード結合を含む。各フィードフォワード結合は、図2及び図3に示す神経形態学的回路シナプス20と同様の、一対のメモリスタを含む神経形態学的回路シナプスとして実施することができる。さらに、神経形態学的回路ネットワーク100は、ノード50,51,60〜62,70,71内の生成ニューロン間に、複数の神経形態学的回路フィードバック結合を含む。各フィードバック結合は、図2及び図3に示す神経形態学的回路シナプス20と同様の、神経形態学的回路シナプスとして実施することができる。
図5は、本明細書に記載の様々な実施例に係る、図4に示す死刑形態学的回路ネットワーク100の一部を示す図である。図5は、入力層のノード50における発振ベースの認知ニューロンRa及び生成ニューロンGa、第1隠れ層のノード60における認知ニューロンRb及び生成ニューロンGb、並びに第2の隠れ層のノード70における認知ニューロンRc及び生成ニューロンGcを示す。繰り返すが、ネットワーク100は代表的なものであり、他の場合には、任意の適切な数の層を含み、1層ごとに任意の適切な数のノードを含み得る。
図5に示すように、神経形態学的回路ネットワーク100は、認知ニューロンRa,Rb,Rc(及び他のノード内の他の認知ニューロン)の間に、いくつかのフィードフォワード結合も含む。各フィードフォワード結合は、図2及び図3を参照して上述したように、一対のメモリスタ及び他の回路要素を含む神経形態学的回路シナプスとして実施され得る。神経形態学的回路ネットワーク100の層間接続ノード構造を説明するために、神経形態学的ネットワークフィードフォワードシナプスは、それぞれの先行レベルノードからそれぞれの後続レベルノードへの活動(例えば振幅)を電気的に結合するように構成され得る。図5では、これらのフィードフォワード接続のいくつかは点線を用いて、代表的なやり方で描かれている。従って、任意の所与の認知ニューロンへのアクティビティ入力は、先行レベルノード内の全ての認知ニューロンからの活動の、結合または統合されたレベルの一種として形成され得る。
神経形態学的回路ネットワーク100は、生成ニューロンGc,Gb,Ga(及び他のノード内の他の生成ニューロン)の間の複数のフィードバック結合も含む。各フィードバック結合は、図2及び図3を参照して上述したように、一対のメモリスタ及び他の回路要素を含む神経形態学的回路シナプスとして実施され得る。繰り返すが、神経形態学的回路ネットワーク100の層間接続のノード構造を説明するために、神経形態学的回路フィードバックシナプスは、各先行レベルのノードから各後続レベルのノードに活動(例えば振幅)を電気的に結合するように構成され得る。図5では、これらのフィードバック接続のいくつかは、点線を用いて代表的なやり方で描かれている。従って、任意の所与の生成ニューロンへ入力される活動は、先行レベルノード中の全ての生成ニューロンからの結合レベル又は統合レベルの一種として形成され得る。
神経形態学的回路ネットワーク100は、本明細書に記載の神経形態学回路ネットワーク100の動作を調整するコントローラ200も含む。コントローラ200は、本明細書に記載のアルゴリズムを調整するために、1つ以上の状態機械、プログラマブルゲートアレイ、汎用プロセッサ、特定用途向け集積回路、又は関連するメモリデバイスを含む他の処理回路を含む任意の適切な処理回路として実施され得る。
神経形態学的回路ネットワーク100を参照して、覚醒睡眠アルゴリズムは、時間の経過とともに、多数の覚醒段階及び睡眠段階、又は覚醒モード及び睡眠モードで進行する。覚醒段階では、訓練例がネットワークの最下層(例えばノード50,51)及び振幅として符号化され得る各認知ニューロンRa,Rb及びRcの活動に示される。認知ニューロンRa,Rb,Rcの各々において、フィードフォワード結合を介して神経形態学的回路ネットワーク100を駆動する。
覚醒段階中、各生成ニューロンGc,Gb,Gaもまた学習のために訓練される。生成ニューロンGcは、認知ニューロンRcの活動レベルに基づいて、本明細書に記載のデルタルールを用いて学習のために訓練され、認知ニューロンRcは訓練のためのターゲットとして作用する。同様に、生成ニューロンGbは認知ニューロンRbの活動レベルに基づいて学習のために訓練され、認知ニューロンRbは訓練のターゲットとして作用し、生成ニューロンGbは学習のための活動レベルに基づいて学習のために訓練され、認知ニューロンRaは訓練のためのターゲットとして作用する。
生成ニューロンGbを学習のために訓練することのより特定の例として、もし生成ニューロンGbの活動レベルが認知ニューロンRbよりも低い(例えば振幅が小さい)ならば、生成ニューロンGbが訓練される(すなわち、同位相に調整される)。これにより、より低い活動レベルを有する先行レベル生成ニューロンとのフィードバック結合が強化され、及び/又はより高い活動レベルを有する先行レベルの生成ニューロンとのフィードバック結合が弱化される。一方で、生成ニューロンGbの活動レベルが認知ニューロンRbよりも高い(例えば振幅が大きい)ならば、生成ニューロンGb
睡眠段階中は、覚醒段階と逆のことが起こる。ランダムな原因ベクトルがネットワーク内の最上位層に示され、神経形態学的回路ネットワーク100の下で活動を駆動するために生成ニューロンGc,Gb,Gaが用いられる。その後、認知ニューロンRa,Rb,Rcが、神経形態学的回路ネットワーク100内でこの活動を再現するように訓練される。
しかしながら、比較器及び遅延ステージを用いて各ステージで誤差を計算するかわりに、神経形態学的回路ネットワーク100では、2つの個別の相補的ニューラルネットワークが用いられる。相補的ニューラルネットワークは認知経路及び生成経路を支配する。従って、覚醒睡眠アルゴリズムは、ネットワークが覚醒状態にあるか睡眠状態にあるかによって認知ユニット及び生成ユニットが互いにターゲットとして機能することで、図4及び図5に示される神経形態学的回路ネットワーク100を用いて実装することができる。その後、神経形態学的回路シナプスについての重みは、図2及び図3を参照して上述した発振ベースの記憶学習ルールに従って(例えば、シナプス結合重みを調整するための情報をニューロンの位相に符号化することにより)更新することができる。
覚醒睡眠アルゴリズムを超えて、ターゲット伝播法は、誤差逆伝播法アルゴリズムに対する局所的な近似として機能することを目的とした学習アルゴリズムである。デルタルールは単層ニューラルネットワークのために設計されているため、その一般化である誤差逆伝播法は、多層又は深層のニューラルネットワークに用いることができる。しかしながら、誤差逆伝播法は局所学習アルゴリズムではないため、神経形態学的回路には理想的でない。実際の脳と同様に、学習アルゴリズムは、各重みが神経形態学的回路で接続している2つのニューロンからの情報のみを必要とする場合に、最も簡単となる。これが学習アルゴリズムにおける「局所性」の本質である。ターゲット伝播法は、この局所性を維持しながら、誤差逆伝播法を効率的に近似する。
ターゲット伝播法を理解するためには、誤差逆伝播法のアルゴリズムがどのように機能するのかを理解することが役立つ。多層ニューラルネットワークの最後の層では、ネットワークの実際のターゲットが即座に利用可能であるため、重み更新ルールはデルタルールと同じである。しかしながら、中間層又は「隠れ」層では、これらのニューロンが累計二乗誤差にどのように影響するかは明らかではない。ただしこの総計二乗誤差はネットワークが最小化しようとする値である。従って、それらの活動を増加させるべきか減少させるべきかを知ることは不可能である。
隠れ層のニューロンの重みを変更するための重要な測定基準は、それらの隠れ層ニューロンによって引き起こされる、又は隠れ層ニューロンに起因するエラーへの寄与である。例えば、隠れ層ニューロンの活動が増加した場合に、その変化は総計二乗誤差を増加又は減少させるだろうか。もしそれが誤差を減少させるならば、それは総計二乗誤差を減少させるのだから、当該ニューロンへの活動の重み又はバランスは増加されるべきである。従って、誤差逆伝播法は、総計二条誤差に関する導関数をとることにより、これらの寄与を解析的に計算することで機能する。
ターゲット伝播法では、総計二乗誤差に対するこれらの寄与が推定される。これは、各隠れ層でデルタルールを用いて動作する単層フィードバックネットワークを用いることにより行われる。このネットワークは、前方ネットワーク又は一次ネットワークの重みを反転するように訓練されているため、各二乗誤差に対する隠れ層ニューロンの寄与の効率的な推定量である。これは、誤差への実際の寄与がニューロンのフィードフォワード重みと、出力点又はターゲット層中のニューロンの誤差にのみ依存するから可能である。もし誤差がフィードバック重みを介して送り返されるならば、このことは、単数又は複数の隠れ層内の各ニューロンに対して、誤差への寄与の良好な近似値を与える。誤差への寄与が計算された後、このことは、後にデルタルールを用いて訓練される隠れ層ニューロンのための新たなターゲットとして用いられ得る。その後、ネットワーク全体が訓練されるまで、このプロセスがネットワーク内の核隠れ層に対して繰り返される。
このアルゴリズムは、上位層の活動を返すのではなく上位層の誤差が返されることを除いて、覚醒睡眠アルゴリズムについて上述したのと同じ技法を用いて実装することができる。フィードバック重みを訓練してフィードフォワード重みを逆転させるために、ネットワークはオートエンコーダとして訓練され得る。すなわち、出力層は1組のターゲットを示され、活動はフィードバック重みを通過させられ、その後、活動はターゲットの「再構築」を得るために、フィードフォワード重みを通過して戻される。その後、フィードバック重みは、Yとしての再構成とTとしての元のターゲットとを用いて、デルタルールに従って訓練される。
図6は、本明細書に記載の様々な実施例に係る、図4及び図5に示される神経形態学的回路を訓練するためのプロセスの例を示す。図6に示すプロセス図は、神経形態学的回路ネットワークを訓練するために用いることができる一連のステップの一例を提供している。図6に示されるステップの配置は、図4及び図5に示される神経形態学的回路ネットワークを参照して代表的な例として提供されるが、他の種類の神経形態学的回路ネットワークを訓練するためにも用いられ得る。ステップの順序も、図示のものとは異なり得る。例えば、2つ以上のステップの実行順序は、示されている順序に対して混ぜられていてもよい。また、場合によっては、2つ以上のステップは同時又は部分的に同時に実行されてもよく、1つ以上のステップはスキップまたは省略されてもよい。さらに、プロセスは、訓練が例えばデルタルール等の学習規則、又はアルゴリズムの適切なしきい値若しくは目標値に達するまで、所定の期間ループまたは継続されてもよい。
ステップ102から開始して、プロセスは、神経形態学的回路ネットワーク内の最下位層に訓練情報を与えることを含み、ここで、神経形態学的ネットワークは、いくつかの神経形態学的回路ネットワークノードを含む。一例として、図4及び図5に示す神経形態学的回路ネットワーク100を参照する。ステップ102において、コントローラ200は、神経形態学的回路ネットワーク100の最下位層(例えばノード50,51)に訓練例を与えるか又は示すことができる。訓練例は、神経形態学的回路ネットワーク100を訓練するための任意の適切な情報を含み得る。
ステップ104において、プロセスは、フィードフォワード結合を介して神経形態学的回路ノード内の認知ニューロンユニット内の活動を駆動することを含む。例えば、図5の認知ニューロンRa,Rb,Rcの間の活動は、認知ニューロンRa,Rb,Rcの各々における振幅として符号化することができ、フィードフォワード結合80,81等を介して神経形態学的回路ネットワーク100を駆動することができる。
ステップ106において、プロセスは、フィードバック結合を介して学習するための複数の神経形態学的回路ノード内の生成ニューロンユニットを訓練するステップを含む。一例として図5を参照すると、各生成ニューロンGc,Gb,Gaは、ステップ106で学習のために訓練される。生成ニューロンGcは、認知ニューロンGcの活動レベルに基づいて、本明細書に記載のデルタルールを用いて学習のために訓練することができ、認知ニューロンRcは訓練のためのターゲットとして作用する。同様に、生成ニューロンGbは認知ニューロンRbの活動レベルに基づいて学習のために訓練することができ、認知ニューロンRbは訓練のためのターゲットとして作用する。かつ、生成ニューロンGaは認知ニューロンRaの活動レベルに基づいて学習のために訓練することができ、認知ニューロンRaは訓練のためのターゲットとして作用する。
場合によっては、ステップ102,104,106のうちの1つ以上は、第1の段階又は動作モード(例えば覚醒段階)において、同時に又は部分的に同時に実行することができる。必要な範囲で、コントローラ200は、ステップ102,104,106の間に神経形態学的回路ネットワーク100のための訓練の動作を指示することができる。
ステップ108に移ると、プロセスは、ランダムな原因のベクトルをネットワーク内の最上位層に与えるステップを含む。一例として図4及び図5に示す神経形態学的回路ネットワーク100を参照して、ステップ108で、コントローラ200は、神経形態学的回路100内の最上位層(例えばノード70,71)にランダムな原因のベクトルを与えるか又は示すことができる。ランダムな原因のベクトルは、任意の適切なランダム情報又はランダムデータを含み得る。
ランダムな原因のベクトルが与えられた状態で、プロセスはステップ110で生成されたニューロンユニットの間でフィードバック結合を介して活動を駆動するステップを含む。ここで、第2の段階又は動作モード(例えば睡眠段階)のお間に、覚醒段階と逆のことが起きる。生成ニューロンGc,Gb,Gaは、ステップ110において、フィードバック結合90,91等を介して神経形態学的ネットワーク100の活動を下げるために用いられる。さらに、ステップ112において、認知ニューロンRa,Rb,Rcは、神経形態学的回路ネットワーク100においてこの活動を再現するように、フィードフォワード結合80,81等を介して訓練される。
場合によっては、ステップ108,110,112の内の1つ以上は、同時に、又は第2の段階又は動作モード(例えば睡眠段階)における部分的な同時発生とともに実行することができる。必要な範囲で、コントローラ200は、ステップ108,110,112の間に神経形態学的回路ネットワーク100のための訓練動作を指示することができる。さらに、プロセスは、例えば訓練が適切なしきい値又は目標値に達するまで等、所定の期間ループ又は継続することができる。
コントローラ200は、少なくとも1つの処理回路を含み得る。処理回路は、ローカルの内部インターフェースを介して互いに結合された1つ以上のプロセッサ及び1つ以上の記憶装置を含み得る。記憶装置は、処理回路の1つ以上のプロセッサにより実行可能なデータまたは構成要素を格納し得る。
ハードウェアテクノロジは、1つ以上のマイクロプロセッサ、1つ以上のデータ信号の印加時に様々な論理機能を実施するための論理ゲートを有するディスクリート論理回路、適切な論理ゲートを持つASIC、プログラマブル論理デバイス(例えばフィールドプログラマブルゲートアレイ(FPGA)、複合プログラマブル論理デバイス(CPLD)など)を含み得る。
また、本明細書に記載の、ソフトウェア又はプログラム命令を含む1つ以上又はそれ以上の構成要素は、コンピュータシステム又は他のシステム内のプロセッサ等の命令実行システムにより、又はそれと接続して用いるための、任意の非一時的コンピュータ可読媒体中で実施され得る。コンピュータ可読媒体は、命令実行システムにより、又は命令実行システムに接続して用いるためのソフトウェア又はプログラム命令を含み、格納し、又は維持することができる。
コンピュータ可読媒体は、磁気、光学、半導体または他の適切な媒体等の物理的媒体を含み得る。適切なコンピュータ可読媒体としては、ソリッドステートドライブ、磁気ドライブ、フラッシュメモリ等が挙げられるが、これらに限定されない。さらに、本明細書に記載の任意の論理または構成要素は、様々な方法で実装及び構造化することができる。
本明細書では実施形態を詳細に説明してきたが、記載は例示的なものである。本明細書に記載の実施形態の特徴は代表的なものであり、代替の実施形態では、特定の特及び要素を追加又は省略することができる。さらに、本明細書に記載された実施形態の態様に関する変更は、添付の特許請求の範囲に画定された本発明の理念及び範囲から逸脱することなく、当業者によりなされ得る。その範囲は、修正及び均等の構造を包含するように、最も広い解釈に従うべきである。

Claims (20)

  1. 認知ニューロンユニット及び生成ニューロンユニットをそれぞれ含む複数の神経形態学的回路ノードと、
    前記神経形態学的回路ノード中の前記認知ニューロンユニット間の複数の神経形態学的回路フィードフォワード結合と、
    前記神経形態学的回路ノード中の前記生成ニューロンユニット間の複数の神経形態学的回路フィードバック結合と、
    学習コントローラとを備え、
    前記学習コントローラは、第1のモードにおいて、
    前記神経形態学的回路フィードフォワード結合を介して前記認知ニューロンユニット間の活動を駆動し、
    前記神経形態学的回路フィードバック結合を介して学習のための前記生成ニューロンユニットを訓練するように構成される、
    神経形態学的回路学習ネットワーク。
  2. 前記学習コントローラは、前記第1のモードにおいて、前記活動に基づいて第2のモード中に学習のための前記生成ニューロンユニットを訓練するようにさらに構成される、
    請求項1に記載の神経形態学的回路学習ネットワーク。
  3. 前記学習コントローラは、第2のモードにおいて、
    前記神経形態学的回路フィードバック結合を介して前記認知ニューロンユニット間の活動を駆動し、
    前記神経形態学的回路フィードフォワード結合を介して学習のための認知ニューロンユニットを訓練するようにさらに構成される、
    請求項2に記載の神経形態学的回路学習ネットワーク。
  4. 前記学習コントローラは、前記第2のモードにおいて、前記生成ニューロンユニットの活動に基づいて、前記第1のモード中に学習のための認知ニューロンユニットを訓練するようにさらに構成される、
    請求項3に記載の神経形態学的回路学習ネットワーク。
  5. 前記複数の神経形態学的回路ノードは、前記神経形態学的回路学習ネットワークにおいて複数の層を形成し、
    前記第1のモードにおいて、前記神経形態学的回路学習ネットワーク中の最下位層に訓練例が示される、
    請求項1に記載の神経形態学的回路学習ネットワーク。
  6. 前記複数の神経形態学的回路ノードは、前記神経形態学的回路学習ネットワークにおいて複数の層を形成し、
    第2のモードにおいて、前記神経形態学的回路学習ネットワークの最上位層にランダムなベクトルが示される、
    請求項2に記載の神経形態学的回路学習ネットワーク。
  7. 前記学習コントローラは、オートエンコーダとして動作するためのフィードバック重みを訓練するようにさらに構成される、
    請求項2に記載の神経形態学的回路学習ネットワーク。
  8. 前記複数の神経形態学的回路フィードフォワード結合のうちの少なくとも1つ、又は前記複数の神経形態学的回路フィードフォワード結合のうちの少なくとも1つは、少なくとも1つのメモリスタを備える、
    請求項1に記載の神経形態学的回路学習ネットワーク。
  9. 複数の神経形態学的回路フィードフォワード結合のうちの少なくとも1つ、又は複数の神経形態学的回路フィードフォワード結合のうちの少なくとも1つは、
    長期間デプレッション(LTD)メモリスタと並列に配置された長期間増強(LTP)メモリスタと、
    前記LTPメモリスタからの出力信号と前記LTDメモリスタからの出力信号との間の差分に基づいて差分信号を生成する差動増幅回路とを備える、
    請求項1に記載の神経形態学的回路学習ネットワーク。
  10. 認知ニューロンユニット及び生成ニューロンユニットをそれぞれ含む複数の神経形態学的回路ノードと、
    前記神経形態学的回路ノード中の前記認知ニューロンユニット間の複数の神経形態学的回路フィードフォワード結合と、
    前記神経形態学的回路ノード中の前記生成ニューロンユニット間の複数の神経形態学的回路フィードバック結合と、
    前記認知ニューロンユニット間の活動を駆動し、前記学習のための生成ニューロンユニットを訓練するように構成された学習コントローラとを備え、
    前記認知ニューロンユニットの間の活動を駆動し、学習のために前記生成ニューロンユニットを訓練するように構成される、
    神経形態学的回路学習ネットワーク。
  11. 前記学習コントローラは、前記生成ニューロンユニット間の活動を駆動し、学習のための前記認知ニューロンユニットを訓練するようにさらに構成される、
    請求項10に記載の神経形態学的回路学習ネットワーク。
  12. 前記学習コントローラは、第1のモードにおいて、第2のモード中に前記神経形態学的回路フィードバック結合を介して学習するための前記生成ニューロンユニットを訓練するようにさらに構成される、
    請求項10に記載の神経形態学的回路学習ネットワーク。
  13. 前記学習コントローラは、第2のモードにおいて、第1のモード中に神経形態学的回路フィードフォワード結合を通して学習するための認知ニューロンユニットを訓練するようにさらに構成される、
    請求項10に記載の神経形態学的回路学習ネットワーク。
  14. 前記複数の神経形態学的回路フィードフォワード結合のうちの少なくとも1つ、又は前記複数の神経形態学的回路フィードフォワード結合のうちの少なくとも1つは、少なくとも1つのメモリスタを備える、
    請求項10に記載の神経形態学的回路学習ネットワーク。
  15. 前記複数の神経形態学的回路フィードフォワード結合のうちの少なくとも1つ、又は複数の神経形態学的回路フィードフォワード結合のうちの少なくとも1つは、
    長期間デプレッション(LTD)メモリスタと並列に配置された長期間増強(LTP)メモリスタと、
    前記LTPメモリからの出力信号及び前記LTDメモリスタからの出力信号の差分に基づいて差分信号を生成する差動増幅回路とを備える、
    請求項10に記載の神経形態学的回路学習ネットワーク。
  16. 神経形態学的回路学習ネットワークを訓練する訓練方法であって、第1のモードにおいて、
    複数の認知ニューロンユニットの間の活動を、前記複数の神経形態学的回路ノード間のフィードフォワード結合を介して駆動するステップと、
    前記複数の神経形態学的回路ノード中の学習のための生成ニューロンユニットを、前記複数の神経形態学的回路ノード内のフィードバック結合を介して訓練するステップとを含む、
    神経形態学的回路学習ネットワークを訓練する方法。
  17. 前記訓練するステップは、前記活動に基づいて、第2のモード中に、前記学習のための生成ニューロンユニットを訓練するステップを含む、
    請求項16に記載の訓練方法。
  18. 前記第2のモードにおいて、
    前記フィードバック結合を介して、前記複数の神経形態学的回路中の前記生成ニューロンユニットの間の活動を駆動するステップと、
    前記フィードフォワード結合を介して、前記学習のための認知ユニットを訓練するステップとをさらに含む、
    請求項16に記載の神経形態学的回路学習ネットワークを訓練する方法。
  19. 前記複数の神経形態学的回路ノードが、前記神経形態学的回路学習ネットワーク中に複数の層を形成し、
    前記方法は、
    前記第1のモードにおいて、前記神経形態学的回路学習ネットワーク中の最下位層に訓練例を示すステップをさらに含む、
    請求項16に記載の神経形態学的回路学習ネットワークを訓練する方法。
  20. 前記複数の神経形態学的回路ノードが、前記神経形態学的回路学習ネットワーク中に複数の層を形成し、
    前記方法は、
    前記第1のモードにおいて、前記神経形態学的回路学習ネットワーク中の最上位層にランダムなベクトルを示すステップをさらに含む、
    請求項18に記載の神経形態学的回路学習ネットワークを訓練する方法。
JP2019522731A 2016-10-27 2017-10-27 発振記憶神経形態学的回路のための学習アルゴリズム Pending JP2020500363A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662413673P 2016-10-27 2016-10-27
US62/413,673 2016-10-27
PCT/US2017/058816 WO2018081600A1 (en) 2016-10-27 2017-10-27 Learning algorithms for oscillatory memristive neuromorphic circuits

Publications (1)

Publication Number Publication Date
JP2020500363A true JP2020500363A (ja) 2020-01-09

Family

ID=62024081

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019522731A Pending JP2020500363A (ja) 2016-10-27 2017-10-27 発振記憶神経形態学的回路のための学習アルゴリズム

Country Status (7)

Country Link
US (1) US20190318242A1 (ja)
EP (1) EP3532999A4 (ja)
JP (1) JP2020500363A (ja)
KR (1) KR20190069552A (ja)
CN (1) CN110121720A (ja)
AU (1) AU2017348380A1 (ja)
WO (1) WO2018081600A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11250316B2 (en) * 2018-08-10 2022-02-15 International Business Machines Corporation Aggregate adjustments in a cross bar neural network
US11354572B2 (en) * 2018-12-05 2022-06-07 International Business Machines Corporation Multi-variables processing neurons and unsupervised multi-timescale learning for spiking neural networks
JPWO2020141597A1 (ja) * 2019-01-04 2021-11-18 学校法人慶應義塾 機械学習デバイス、及びその制御方法
JP6818116B1 (ja) 2019-11-22 2021-01-20 ウィンボンド エレクトロニクス コーポレーション クロスバーアレイを用いた電子装置およびデータ処理方法
EP4105832A1 (en) 2021-06-14 2022-12-21 ETH Zurich Neural network circuit for deep artificial neuronal networks using deep feedback control

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5723870B2 (ja) * 2009-04-30 2015-05-27 ユニバーシティ オブ フロリダ リサーチ ファウンデーション,インク.University Of Florida Reseatch Foundation,Inc. 単層カーボンナノチューブを主材料とする空気極
FR2977350B1 (fr) * 2011-06-30 2013-07-19 Commissariat Energie Atomique Reseau de neurones artificiels a base de dispositifs memristifs complementaires
US8930291B1 (en) * 2012-05-03 2015-01-06 Hrl Laboratories, Llc Cortical neuromorphic network, system and method
US9275326B2 (en) * 2012-11-30 2016-03-01 Brain Corporation Rate stabilization through plasticity in spiking neuron network
FR3003062B1 (fr) * 2013-03-05 2015-06-05 Univ Bordeaux 1 Organe a neurone artificiel et memristor
CN103455843B (zh) * 2013-08-16 2016-03-02 华中科技大学 一种反馈型人工神经网络训练方法及计算系统
KR20150034900A (ko) * 2013-09-26 2015-04-06 삼성전자주식회사 뉴런 회로들을 연결하는 시냅스 회로, 뉴로모픽 회로를 구성하는 단위 셀 및 뉴로모픽 회로
CN103810497B (zh) * 2014-01-26 2017-04-19 华中科技大学 一种基于忆阻器的图像识别系统及方法

Also Published As

Publication number Publication date
AU2017348380A1 (en) 2019-05-16
CN110121720A (zh) 2019-08-13
KR20190069552A (ko) 2019-06-19
EP3532999A4 (en) 2020-06-24
WO2018081600A1 (en) 2018-05-03
EP3532999A1 (en) 2019-09-04
US20190318242A1 (en) 2019-10-17

Similar Documents

Publication Publication Date Title
JP2020500363A (ja) 発振記憶神経形態学的回路のための学習アルゴリズム
Macukow Neural networks–state of art, brief history, basic models and architecture
US9542643B2 (en) Efficient hardware implementation of spiking networks
US9330355B2 (en) Computed synapses for neuromorphic systems
US20150278680A1 (en) Training, recognition, and generation in a spiking deep belief network (dbn)
JP2019537792A (ja) 神経形態学的回路のための記憶学習
TW201541372A (zh) 使用尖峰發放神經元的人工神經網路和感知器學習
KR20160136381A (ko) 신경 네트워크들에서의 차분 인코딩
US20150242741A1 (en) In situ neural network co-processing
TW201626293A (zh) 由知識圖譜偏置的資料分類
TW201602807A (zh) Cold神經元尖峰時序反向傳播
US20150212861A1 (en) Value synchronization across neural processors
TW201531965A (zh) 配置用於實現低尖峰發放率的神經網路
US9652711B2 (en) Analog signal reconstruction and recognition via sub-threshold modulation
US20150088796A1 (en) Methods and apparatus for implementation of group tags for neural models
US20150206049A1 (en) Monitoring neural networks with shadow networks
TW201533668A (zh) 基於突觸前尖峰的短期突觸記憶
US9710749B2 (en) Methods and apparatus for implementing a breakpoint determination unit in an artificial nervous system
Katte Recurrent neural network and its various architecture types
KR101825933B1 (ko) 좌표 변환을 위한 위상 코딩
CN112437929A (zh) 带泄漏尖峰神经网络中的时间编码
US9418332B2 (en) Post ghost plasticity
US20150213356A1 (en) Method for converting values into spikes
CN111582470A (zh) 基于stdp的自适应非监督学习图像识别方法及系统
US20150278684A1 (en) Time synchronization of spiking neuron models on multiple nodes