JP2019003547A - 人工ニューラルネットワーク回路の訓練方法、訓練プログラム、及び訓練装置 - Google Patents

人工ニューラルネットワーク回路の訓練方法、訓練プログラム、及び訓練装置 Download PDF

Info

Publication number
JP2019003547A
JP2019003547A JP2017119686A JP2017119686A JP2019003547A JP 2019003547 A JP2019003547 A JP 2019003547A JP 2017119686 A JP2017119686 A JP 2017119686A JP 2017119686 A JP2017119686 A JP 2017119686A JP 2019003547 A JP2019003547 A JP 2019003547A
Authority
JP
Japan
Prior art keywords
voltage
write
memristor
training
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017119686A
Other languages
English (en)
Other versions
JP6724870B2 (ja
Inventor
イリナ カタエヴァ
Kataeva Irina
イリナ カタエヴァ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2017119686A priority Critical patent/JP6724870B2/ja
Priority to PCT/JP2018/018299 priority patent/WO2018235449A1/ja
Publication of JP2019003547A publication Critical patent/JP2019003547A/ja
Priority to US16/710,267 priority patent/US11537897B2/en
Application granted granted Critical
Publication of JP6724870B2 publication Critical patent/JP6724870B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C11/00Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor
    • G11C11/54Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using elements simulating biological cells, e.g. neuron
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • G06N3/065Analogue means
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C13/00Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00
    • G11C13/0002Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00 using resistive RAM [RRAM] elements
    • G11C13/0004Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00 using resistive RAM [RRAM] elements comprising amorphous/crystalline phase transition cells
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C13/00Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00
    • G11C13/0002Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00 using resistive RAM [RRAM] elements
    • G11C13/0021Auxiliary circuits
    • G11C13/0069Writing or programming circuits or methods
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C2213/00Indexing scheme relating to G11C13/00 for features not covered by this group
    • G11C2213/70Resistive array aspects
    • G11C2213/77Array wherein the memory element being directly connected to the bit lines and word lines without any access device being used

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Neurology (AREA)
  • Computer Hardware Design (AREA)
  • Memory System (AREA)
  • Read Only Memory (AREA)
  • Semiconductor Memories (AREA)

Abstract

【課題】メモリスタの書込電圧閾値バラツキによる訓練精度低減を抑えることができる、人工ニューラルネットワーク回路の訓練方法を提供する。
【解決手段】書込電圧VWRITEによりコンダクタンスを更新させる対象である選択メモリスタの一端及び他端が接続されている入力バー及び出力バーに印加する電圧V50、51として、VTH+dV≦|V50−V51|=|VWRITE|≦2VTH−2dVを満たす電圧を設定すると共に、その他の入力バー及び出力バーに印加する電圧として、選択メモリスタ以外のメモリスタである各非選択メモリスタの両端にVTH−dVよりも小さい電圧差を生じさせる電圧を設定する印加電圧設定ステップS120,S130と、設定された電圧を、入力バー及び出力バーに印加する電圧印加ステップS140と、を含み、正のマージン電圧dVが書込電圧閾値バラツキに基づいて設定されている。
【選択図】図7

Description

本発明は、メモリスタを有するクロスバー回路を備えた人工ニューラルネットワーク(以下、人工NNと略す)回路の訓練方法、訓練プログラム及び訓練装置に関する。
近年、ディープニューラルネットワークなどの人工NNが、例えば画像認識の分野において、従来の機械学習による認識性能を凌駕している。人工NNは、典型的に、演算負荷が高い。このため、人工NNは、高効率な並列計算に適したGPU(graphic processing unit)を用いた所謂GPGPU(general-purpose computing on GPU)によりソフトウェア的に実現されることがある。
しかし、GPGPUは、大型であると共に、消費電力が大きい。この点について、クラウドコンピューティングベースのアプリケーション(以下、APP)でも問題となり得るが、非クラウドコンピューティングベースのAPPでは大きな問題となり得る。非クラウドコンピューティングベースのAPPとは、例えば、低消費電力及び小型化に加えて、ネットワーク障害に対するロバスト性及びリアルタイム性が求められる車両用障害物認識APP等である。そこで、低電力消費、高速、且つ、小型の人工NN専用ハードウェア回路が望まれている。
国際公開第2017/010048号 国際公開第2017/010049号
このような人工NN専用ハードウェア回路の一つとして、本願発明者は、可変コンダクタンス素子(以下、メモリスタ)を有するクロスバー回路を備えた人工NN回路の研究を進めてきた。その研究結果は、例えば、ここに参照により援用する特許文献1及び特許文献2に開示されている。
クロスバー回路は、複数の入力バーと複数の出力バーとが交差するように配列され、各交点において入力バーと出力バーとがメモリスタを介して接続されることによって構成される。クロスバー回路の入力バーに、前段ニューロンの出力としての電圧信号が入力されると、各電圧信号はメモリスタのコンダクタンス値を重みとして乗じられた後、出力バー上において総和される。そして、総和された電圧信号が、後段ニューロンへの入力として、出力される。このようにして、人工NNにおけるシナプスが、クロスバー回路を用いて、ハードウェア的に実現される。
クロスバー回路を備えた人工NN回路を訓練する際には、シナプスの重みに対応するメモリスタのコンダクタンス値が更新される。メモリスタのコンダクタンス更新は、メモリスタの以下の特性に基づいて行われる。
メモリスタは、印加電圧によって、最小値と最大値との間で、異なるコンダクタンスに設定することが可能である。例えば、メモリスタのコンダクタンスは、電圧印加装置を用いて、負の書込電圧を印加することにより増加させることができ、正の書込電圧を印加することにより減少させることができる。そして、メモリスタは、正負の書込電圧閾値以上の大きさの電圧が印加されない限り、設定されたコンダクタンス値を維持する。
このようなメモリスタとして使用可能な素子としては、Pt/TiO2/Pt金属酸化物素子、相変化メモリ、磁気トンネル接合メモリ、などがある。
特許文献1及び2には、このようなメモリスタの特性に基づいた人工NN回路の訓練方法が開示されている。特許文献1及び2の訓練方法では、クロスバー回路を構成するメモリスタに対して、書込電圧閾値以上の大きさの書込電圧を印加して、コンダクタンスを更新する。
しかし、特許文献1及び2の訓練方法では、クロスバー回路を構成する各メモリスタの書込電圧閾値が均一であると仮定されていた。言い換えると、クロスバー回路を構成する各メモリスタの書込電圧閾値は、規定値を持つと仮定されていた。このため、書込電圧閾値が規定値に対してばらついていると、コンダクタンス更新を意図するメモリスタのコンダクタンスが更新されなかったり、コンダクタンス更新を意図しないメモリスタのコンダクタンスが変化したりして、その結果、訓練精度が低減し得ることを本願発明者は見出した。
本発明は、上述した点に鑑みてなされたものであり、メモリスタの書込電圧閾値バラツキによる訓練精度低減を抑えることができる人工NN回路の訓練方法、訓練プログラム、及び訓練装置を提供することを目的とする。
上記目的を達成するための本発明にかかる人工NN回路の訓練方法は、
複数の入力バー(50)と、
複数の入力バーと交差する複数の出力バー(51)と、
複数の入力バーと複数の出力バーとの各交点に設けられた可変コンダクタンス素子であるメモリスタ(53)と、を有するクロスバー回路(44)を備え、
各メモリスタは、書込電圧閾値(VTH SET、VTH RESET)以上の大きさを持つ電圧である書込電圧VWRITEが印加された場合にコンダクタンスが更新され、該書込電圧閾値よりも小さい電圧が印加された場合にはコンダクタンスが維持される特性を有すると共に、該書込電圧閾値の大きさが規定値VTHに対してバラツキを持つ人工NN回路(40)の訓練方法であって、
該訓練方法において訓練装置(61)が実施するステップとして、
メモリスタのうち、書込電圧VWRITEによりコンダクタンスを更新させる対象であるメモリスタを選択メモリスタとし、該選択メモリスタ以外のメモリスタを非選択メモリスタとすると、選択メモリスタの一端が接続されている入力バー及び該選択メモリスタの他端が接続されている出力バーそれぞれに印加する電圧V50、51として、
TH+dV≦|V50−V51|=|VWRITE|≦2(VTH−dV)
但し、dVは、正のマージン電圧
を満たす電圧を設定すると共に、
その他の入力バー及び出力バーそれぞれに印加する電圧として、各非選択メモリスタの両端にVTH−dVよりも小さい電圧差を生じさせる電圧を設定する印加電圧設定ステップ(S120,S130)と、
印加電圧設定ステップにて設定された電圧を、電圧印加装置(65)を用いて、複数の入力バー及び複数の出力バーに印加する電圧印加ステップ(S140)と、
を含み、
マージン電圧dVの大きさが、メモリスタの書込電圧閾値バラツキ(σ)に基づいて、設定されている
人工NN回路の訓練方法である。
この訓練方法によれば、電圧印加ステップにおいて、選択メモリスタに対して、VTH+dV以上の大きさの書込電圧が印加される。ここで、dVは、メモリスタの書込電圧閾値バラツキに基づいて設定される正のマージン電圧である。このため、選択メモリスタの実際の書込電圧閾値が、書込電圧閾値バラツキが原因で、規定値VTHより大きくても、書込電圧閾値以上の大きさの電圧が選択メモリスタに印加される可能性が高まる。よって、選択メモリスタのコンダクタンスが、意図に反して更新されない可能性を低減できる。
クロスバー回路においては、選択メモリスタの一端及び他端が接続されている入力バー及び出力バーそれぞれに、他のメモリスタが接続されている。この他のメモリスタが非選択メモリスタの場合、選択メモリスタへの書込電圧によって、そのコンダクタンスを変化させないことが好適である。
そこで、本訓練方法では、非選択メモリスタに印加される電圧の大きさがVTH−dV以下となるように、その他の入力バー及び出力バーそれぞれには印加する電圧を設定している。これによれば、電圧印加ステップにおいて、非選択メモリスタにはVTH−dV以下の大きさの電圧が印加される。このため、非選択メモリスタの実際の書込電圧閾値が、書込電圧閾値バラツキが原因で、規定値VTHより小さくても、非選択メモリスタに書込電圧閾値以上の大きさの電圧が印加される可能性が低減する。よって、非選択メモリスタのコンダクタンスが、意図に反して変化する可能性を低減できる。
さらに、本訓練方法では、選択メモリスタへの書込電圧最大値として、2(VTH−dV)を規定している。これによれば、非選択メモリスタへの印加電圧をVTH−dV以下にするための各バーへの印加電圧設定が容易になる。
また、上記目的を達成するための本発明にかかる人工NN回路の訓練プログラムは、上記印加電圧設定ステップ及び電圧印加ステップを、訓練装置を構成するコンピュータに実施させるためのプログラムである。このプログラムによっても、人工NN回路の訓練方法と同じ効果が得られる。プログラムは、電気通信回線を通じて提供されるものであってもよいし、記憶媒体(non-transitory storage medium)に格納されて提供されるものであってもよい。
また、上記目的を達成するための本発明にかかる人工NN回路の訓練装置は、上記印加電圧設定ステップ及び電圧印加ステップを実施する訓練装置である。この訓練装置によっても、人工NN回路の訓練方法と同じ効果が得られる。
なお、上記括弧内の参照番号は、本発明の理解を容易にすべく、後述する実施形態における具体的な構成との対応関係の一例を示すものにすぎず、なんら本発明の範囲を制限することを意図したものではない。
また、上述した特徴以外の、特許請求の範囲の各請求項に記載した技術的特徴に関しては、後述する実施形態の説明及び添付図面から明らかになる。
人工NN回路でハードウェア的に実現される人工NNの一例を概念的に示す図である。 人工NN回路を構成するクロスバー回路について説明するための説明図である。 メモリスタのコンダクタンスが書込電圧に対して変化する様子の一例を示した図である。 クロスバー回路について説明するための説明図である。 クロスバー回路について説明するための説明図である。 クロスバー回路を備えた人工NN回路の訓練装置を説明する図である。 書込制御装置によって実施される人工NN回路の訓練処理を示すフローチャートである。 クロスバー回路を構成するメモリスタのコンダクタンスが意図に反して更新されない具体的、及び、意図に反して変更される具体例を示す説明図である。 コンダクタンスマップの一例を示す図である。 コンダクタンスマップの一例を示す図である。 クロスバー回路に、V/2バイアス方法により書込電圧を印加する例を示す図である。 クロスバー回路に、V/2バイアス方法により書込電圧を印加する他の例を示す図である。 クロスバー回路の各バーへの印加電圧最大値について説明するための説明図である。 クロスバー回路に、V/3バイアス方法により書込電圧を印加する例を示す図 クロスバー回路に、V/4バイアス方法により書込電圧を印加する例を示す図である。 数値実験でエミュレーションされた人工NN回路の構成を示す図である。 第1数値実験の結果を示す図である。 設定印加電圧の具体的数値を例示する図である。 第2数値実験の結果を示す図である。 第3数値実験の結果を示す図である。
本発明にかかる人工NN回路の訓練方法の実施形態を、図面を参照しつつ説明する。以下、人工NNと、これをハードウェア的に実現する人工NN回路の構成と、を先ず説明する。その後、人工NN回路の訓練方法を説明する。
図1は、本実施形態の人工NN回路でハードウェア的に実現される人工NN20の一例を概念的に示す。図1に示すように、人工NN20は、入力層21と、中間層22と、出力層23と、を備える。各層は、ニューロン24を有する。中間層22は、隠れ層とも呼ばれる。
人工NN20に対して入力データが入力層21に入力されると、入力層21の各ニューロン24から、入力データに対応する出力x、x、…が出力される。そして、出力x、x、…に対して、シナプスとしての重みw,w、…が乗じられ、これらの総和Σwが中間層22のニューロン24に入力される。中間層22のニューロン24は、入力Σwを、ReLUやtanhなどの活性化関数fにより変換する。そして、変換された値f(Σwixi)を、後段層に向けて出力する。この後段層は、人工NNが3層の場合、出力層23となる。4層以上の場合、後段中間層(図示なし)となる。このように入力データが変換されて、最終的に、出力層23に入力される。出力層23のニューロン24は、例えば、ソフトマックス関数によって入力を変換して出力する。
このような人工NN20は、入力データとしての画像(例えば、MNISTデータセット)を用いて、画像を複数のカテゴリ(例えば、0〜9の数字)に分類する用途に適用できる。この場合、入力層21への入力データは、画像のピクセル値(例えば、0〜255)とすることができる。出力層30の各ニューロン24からの出力を、入力データとしての画像が各カテゴリの属する確率とするように、構成できる。そして、出力層23が出力する確率の中で最も高い確率に対応するカテゴリを選択することにより、入力データとしての画像を、複数のカテゴリに分類することができる。もちろん、人工NN20は、その他の用途に適用することも可能である。例えば、物体や人の検出、人の顔の認識、あるいは、道路標識の認識などにも適用することが可能である。なお、人工NN20のシナプスの重みは学習によって決定される。
次に、図2〜6を参照して、人工NN20をハードウェア的に実現する人工NN回路40を説明する。
図2に示すように、人工NN回路40は、シナプスをハードウェア的に実現するクロスバー回路44と、ニューロン24をハードウェア的に実現するCMOS回路55、56と、を備える。クロスバー回路44は、入力バー50と、入力バー50と交差する出力バー51と、入力バー50と出力バー51との交点に設けられたメモリスタ53と、を有する。入力バー50と出力バー51とは、メモリスタ53を介して接続されている。CMOS回路55は、入力バー50に接続されている。CMOS回路56は、出力バー51に接続されている。CMOS回路55、56は、CMOS回路基板に形成され得る。クロスバー回路44を構成する入力バー50及び出力バー51は、CMOS回路55、56が形成されたCMOS回路基板上に形成され得る。
なお、典型的なクロスバー回路44は、複数の入力バー50と、複数の出力バー51と、これら入力バー50と出力バー51との各交点に設けられたメモリスタ53と、を有する。
メモリスタ53は、最小値GMINと最大値GMAXとの間で、異なる抵抗状態(コンダクタンス)を有する抵抗変化型メモリである。このようなメモリスタのコンダクタンスについての理論モデルは、ここに参照により援用する刊行物1に開示されている。
「刊行物1」:“Phenomenological Modeling of Memristive Device” Applied Physics A, vol. 118, pp. 770-786, 2015
メモリスタ53は、印加電圧によって、最小値GMINと最大値GMAXとの間で、異なるコンダクタンスに設定することが可能である。例えば、メモリスタ53のコンダクタンスは、電圧印加装置を用いて、負の書込電圧VSETを印加することにより増加させることができ、正の書込電圧VRESETを印加することにより減少させることができる。そして、メモリスタ53は、正負の書込電圧閾値VSET TH、VRESET TH以上の大きさの電圧が印加されない限り、設定されたコンダクタンスを維持する。このようなメモリスタ53として使用可能な素子としては、Pt/TiO2/Pt金属酸化物素子、相変化メモリ、磁気トンネル接合メモリ、などがある。本明細書では、負の書込電圧VSETと正の書込電圧VRESETを纏めて、書込電圧VWRITEと称することがある。また、正負の書込電圧閾値VSET TH、VRESET THを纏めて、書込電圧閾値と称することがある。
図3は、正負の書込電圧パルスを、印加時間10μsの間、コンダクタンスGを持つメモリスタに印加した場合のコンダクタンス変化量ΔGの一例を示すである。このメモリスタは、Pt/TiO2/Pt金属酸化物素子である。図3の横軸は、書込電圧印加前のコンダクタンスGを示し、縦軸は、正負の書込電圧印加後のコンダクタンス変化量ΔGを示す。正負の書込電圧それぞれに対するメモリスタのコンダクタンス変化量ΔGは、書込電圧印加前のコンダクタンスG、並びに、書込電圧(典型的にはパルス電圧)の振幅及び印加時間に依存する。
図4は、図2に示すクロスバー回路44の構成を、電気回路的に示す図である。図4に示すように、CMOS回路56によって演算増幅器が形成されている。さらに、この演算増幅器の入出力間に抵抗Rが接続されることにより、加算器が構成されている。複数の入力バー50に、CMOS回路55から、入力信号(電圧信号)V1、V2が入力されると、電圧信号V1、V2は、メモリスタ53によるコンダクタンスG1、G2がそれぞれ掛け合わされた上で、加算される。この加算結果は、加算器においてR倍される。加算器が出力する電圧は、以下の数式1に示される。
(数1)
加算器の出力電圧=RΣViGi
そして、加算器の出力電圧信号は、CMOS回路56内に構成される活性化関数処理回路(図示なし)に出力され、活性化関数fにより変換される。この変換された電圧信号が、CMOS回路56から出力される。
典型的な人工NN20では、シナプスの重みは、正負の値を持ち得る。このような正負の重みを人工NN回路40で実現するために、本実施形態のクロスバー回路44では、図5の構成が用いられる。
図5の構成では、各入力バー50が、コンダクタンスGを有するメモリスタ53とコンダクタンスGを有するメモリスタ53からなるメモリスタペアを介して、2つの出力バー51に接続されている。この2つの出力バー51の一方は、CMOS回路56内に構成される差動演算増幅器54の非反転入力端子に接続され、他方は、差動演算増幅器54の反転入力端子に接続されている。なお、図5では、図4で示した加算器は省略されている。実際には、加算器は、差動演算増幅器54の入力側に設けられる。さらに、図5では、上述した活性化関数処理回路も省略されている。実際には、活性化関数処理回路は、差動演算増幅器54の出力側に設けられる。
図5のクロスバー回路44では、複数の入力バー50に、入力信号(電圧信号)V1、V2・・・Viが入力されると、出力バー51のペアに接続された各差動演算増幅器54からの出力電圧は、以下の式で表される。
(数2)
差動演算増幅器54の出力電圧=RΣVi(Gi―Gi)
(Gi―Gi)は、正負の範囲[GMIN−GMAX;GMAX−GMIN]内の値となる。すなわち、ある入力信号に対して正の重みを掛け合わせる場合には、非反転入力端子に接続された出力バー51と入力バー50との間に設けられたメモリスタ53のコンダクタンスを、反転入力端子に接続された出力バー51と入力バー50との間に設けられたメモリスタ53のコンダクタンスよりも、設定しようとしている正の重み分だけ大きく設定すれば良い。逆に、ある入力信号に対して負の重みを掛け合わせる場合には、反転入力端子に接続された出力バー51と入力バー50との間に設けられたメモリスタ53のコンダクタンスを、非反転入力端子に接続された出力バー51と入力バー50との間に設けられたメモリスタ53のコンダクタンスよりも、設定しようとしている負の重み分だけ大きく設定すれば良い。このようにして、本実施形態のクロスバー回路44は、正負のシナプスの重みを具現化する。
次に、クロスバー回路44を備えた人工NN回路40の訓練方法を説明する。以下、クロスバー回路44を備えた人工NN回路40の学習について先ず概説する。その後、人工NN回路40の訓練装置を説明し、続けて、人工NN回路40の訓練方法を説明する。
クロスバー回路44を備えた人工NN回路40の学習を概説する。クロスバー回路44を備えた人工NN回路40の学習は、シナプスの重みに対応するメモリスタ53のコンダクタンスを更新することで具現化される。
このような人工NN回路40の学習として、例えば、人工NN回路40内にアナログ電圧信号を伝播させて行う学習(オンチップでの学習)がある。オンチップでの学習は、具体的には、以下のようにして行うことができる。
人工NN回路40の入力側に対して、例えば教師データとしての入力データ(例えば、MNISTデータセット)であるアナログ電圧信号xを入力する。そして、人工NN回路40からのアナログ出力電圧yを計測し、誤認識率(例えば、MNISTカテゴリ分類の誤認識率)に対応する、所望のアナログ出力電圧targetと実際のアナログ出力電圧yとの差e=target−yを得る。これは、順伝播に相当する。そして、人工NN回路40の出力側から誤認識率e=target−yに対応する電圧信号を入力して、人工NN回路40の入力側からの出力電圧を測定する。これは、逆伝播に相当する。逆伝播における電圧信号は、各CMOS回路55,56内において、活性化関数処理回路をバイパスして、微分活性化関数処理回路(図示無し)で変換されつつ伝播する。微分活性化関数処理回路とは、活性化関数fを微分した関数を具現化する回路である。
そして、順伝播において得られた誤認識率と、逆伝播において得られた出力電圧と、に基づいて、クロスバー回路44を構成する各メモリスタ53のコンダクタンスについて、コンダクタンス更新量ΔGを算出する。そして、コンダクタンス更新量ΔGを実現するために各メモリスタ53の印加すべき書込電圧を算出する。この書込電圧をメモリスタ53に印加して、メモリスタ53のコンダクタンスを更新する。
上述の人工NN回路40の学習における順伝播及び逆伝播、並びにこれらに基づいたコンダクタンス更新量ΔGの算出方法、についての詳細は、本願発明者による特許文献1及び特許文献2に記載されており、ここに参照により援用する。
以下では、コンダクタンス更新量ΔGを各メモリスタ53に実現する、本実施形態にかかる訓練装置及び訓練方法を説明する。
図6は、コンダクタンス更新量ΔGに基づいて、メモリスタ53のコンダクタンスを更新する訓練装置を示す。訓練装置60は、書込制御装置61と、電圧印加装置65と、を備える。
書込制御装置61は、プロセッサ62及び記憶装置63等を備えたコンピュータにより構成される。記憶装置63は、書換可能な記憶媒体を有する。記憶装置63は、コンダクタンス更新量ΔGと書込電圧VWRITEとの間の対応関係を示すコンダクタンスマップ(マップ)64を記憶する。コンダクタンスマップ64の詳細は、後述する。記憶装置63は、さらに、プロセッサ62に、コンダクタンス更新処理を実施させるためのプログラムを記憶している。コンダクタンス更新処理の詳細は、後述する。
電圧印加装置65は、クロスバー回路44の各入力バー50と各出力バー51それぞれに対して任意の電圧を印加できるように、クロスバー回路44に接続される。図6の例では、電圧印加装置65は、ニューロンを具現化するCMOS回路55、56をバイパスして、入力バー50と出力バー51とに接続される。このため、図6では、CMOS回路55、56を省略している。電圧印加装置65は、D/A変換器を備え、書込制御装置61の制御の下に、書込制御装置61から入力された印加電圧デジタルデータに従い、入力バー50と出力バー51それぞれにアナログ電圧を印加する。これにより、メモリスタ53のコンダクタンスが更新される。
次に、書込制御装置61によって実施されるコンダクタンス更新処理を、図7を参照して説明する。
図7は、書込制御装置61(詳しくはプロセッサ62)が実施するコンダクタンス更新処理を示すフローチャートである。
S110において、書込制御装置61は、各メモリスタ53について、上述の順伝播及び逆伝播により得られたコンダクタンス更新量ΔGを取得し、記憶装置63に記憶する。
S120において、書込制御装置61は、クロスバー回路44を構成するメモリスタ53の書込電圧閾値バラツキに基づいたコンダクタンスマップ64を用いて、S110で得られたコンダクタンス更新量ΔGに対応する書込電圧VSET、VRESETを算出する。そして、書込制御装置61は、算出した書込電圧VSET、VRESETを記憶装置63に記憶する。以下、書込電圧閾値バラツキについて先ず説明し、その後、コンダクタンスマップ64について説明する。
書込電圧閾値バラツキについて説明する。クロスバー回路44を構成する各メモリスタ53は、その書込電圧閾値VSET TH、VRESET THとして、規定値VTHを持つことが理想である。しかし、実際には、製造誤差などの様々な理由で、各メモリスタ53の書込電圧閾値は、規定値を中心に、ある程度のばらついしまう。この場合、あるメモリスタ53の書込電圧閾値が規定値よりも大きいと、書込電圧を印加しても、意図通りこのメモリスタ53のコンダクタンスが更新されない場合があり得る。また、あるメモリスタ53の書込電圧閾値が規定値よりも小さいと、このメモリスタ53のコンダクタンスが、他のメモリスタ53に対する書込電圧によって、意図に反して変化され得る。
図8は、このような意図に反したコンダクタンスの非更新及び変化の具体例を示す。図8のクロスバー回路44では、複数の入力バー50が、複数の入力バーWRiとして示されている。複数の出力バー51が、複数の出力バーWLiとして示されている。さらに、複数のメモリスタ53が符号Gijを用いて示されている。図8は、メモリスタG21及びメモリスタG41のコンダクタンスを更新すること意図して、入力バーWRi及び出力バーWLiそれぞれに、電圧印加装置65を用いて電圧を印加している様子を示している。具体的には、複数の入力バーWRiのうち、入力バーWR1に対して電圧V=−(VTH−dV)を印加し、その他の入力バーに基準電圧としてのゼロ電圧を印加している。さらに、複数の出力バーWLiのうち、出力バーWL2に対して電圧V=(VTH−dV)を印加し、出力バーWL4に対して電圧V=dVを印加すると共に、その他の出力バーには、基準電圧としてのゼロ電圧を印加している。ここで、dVは、任意の正のマージン電圧とする。
図8のように電圧を印加すると、コンダクタンス更新を意図するメモリスタG21に、電圧V=2(VTH−dV)が印加されると共に、コンダクタンス更新を意図する他のメモリスタG41に、電圧V=VTHが印加される。このとき、メモリスタG41の書込電圧閾値が規定値VTHであれば、メモリスタG41のコンダクタンスは意図どおり更新される。しかし、書込電圧閾値バラツキが理由で、メモリスタG41の書込電圧閾値が規定値VTHより大きいと、意図に反してメモリスタG41のコンダクタンスが更新されなくなる。また、図8のように各バーに電圧を印加すると、コンダクタンス更新を意図しないメモリスタG23にも、電圧V=(VTH−dV)が印加される。このとき、メモリスタG23の書込電圧閾値が規定値VTHであれば、メモリスタG23のコンダクタンスは意図どおり変化しない。しかし、書込電圧閾値バラツキが理由で、メモリスタG23の書込電圧閾値が規定値VTHより小さいと、意図に反してメモリスタG23のコンダクタンスが変化し得る。このように、各メモリスタ53の書込電圧閾値が、規定値に対してバラツキがあると、意図に反してメモリスタ53のコンダクタンスが更新されなかったり、変化したりする。
そこで、本実施形態では、意図に反したコンダクタンス非更新及びコンダクタンス変化を低減すべく、以後の処理において、書込電圧閾値バラツキを考慮した書込電圧を、コンダクタンスマップ64を用いて算出する。さらに、書込電圧をメモリスタ53に印加するためにクロスバー回路44の入力バー50及び出力バー51それぞれへ印加する電圧を、再度、書込電圧閾値バラツキを考慮して、設定している。
なお、書込電圧閾値バラツキは、規定値に対するバラツキがガウス分布で近似可能ならば、規定値を中心した書込電圧閾値の標準偏差σとすればよい。この場合、規定値に対するバラツキが大きいほど、標準偏差σが大きくなる。或いは、他の分布関数で近似できるならば、この分布関数の典型的な幅を表す量を用いればよい。以下の説明では、書込電圧閾値バラツキとして、標準偏差σを用いる例を説明する。書込電圧閾値の標準偏差(バラツキ)は、本処理が適用されるクロスバー回路44について事前に測定したものでもよいし、クロスバー回路44のサプライヤ(製造元)から提供されたものでもよいし、他の方法により得られたものでもよい。
次に、コンダクタンスマップ64について図9及び図10を参照して説明する。コンダクタンスマップ64とは、コンダクタンス更新量ΔGと、これを実現する書込電圧VSET、VRESETとの関係を示す、予め定められたマップである。図9及び図10の点線は、特許文献1及び特許文献2に開示されたコンダクタンスマップの例である。図9及び図10の実線は、本実施形態のコンダクタンスマップ64の例である。
図9及び図10に示すように、点線で示したコンダクタンスマップでは、書込電圧最小値は、書込電圧閾値の規定値VTHとされている。書込電圧最大値は、印加許容電圧最大値VIDEAL MAXとされる。印加許容電圧最大値VIDEAL MAXとは、これより大きな電圧がメモリスタ53に印加されると、メモリスタ53の意図しない誤作動などの不具合を生じ得る電圧値である。このように、特許文献1及び特許文献2のコンダクタンスマップでは、書込電圧の範囲として、規定値VTHと印加許容電圧最大値VIDEAL MAXとの間の電圧がマップに定められている。
なお、一般に、あるコンダクタンス値Gを持つメモリスタ53に対して書込電圧Vを印加時間Δtだけ印加した場合のコンダクタンス変化量ΔGは、コンダクタンス値Gと、書込電圧Vと、印加時間Δtとに依存する。この点に関し、コンダクタンス変化量ΔGが印加時間Δtに略比例する程度まで印加時間Δtを小さくすることが可能である。この場合、コンダクタンス変化量ΔGは印加時間Δtに比例すると近似できる。この近似により、コンダクタンスマップが印加時間Δtを陽に含まないものとされている。また、図9及び図10の点線のマップは、コンダクタンス変化量ΔGが、コンダクタンス値Gに依存しない態様でモデル化されたものである。このモデル化の詳細は、特許文献1及び2に記載されているので、その記載をここに参照により援用する。
図9及び図10において実線で示した本実施形態のコンダクタンスマップ64は、特許文献1及び2のマップを、以下の通り改良したものである。すなわち、本実施形態のコンダクタンスマップ64によって規定される書込電圧最小値は、以下で表される。
(数3)
書込電圧最小値VWRITE MIN=VTH+dV
マージン電圧dV=Nσ、但しNは1以上の実数
この式は、書込電圧最小値が、規定値VTHに対してマージン電圧dVを加算したものに設定されることを示す。そして、マージン電圧dVは、書込電圧閾値の標準偏差σに対して、予め定められた1以上の実数であるNを乗算したものである。Nの値を予め定める方法は、後述する。本実施形態のコンダクタンスマップ64によって規定される書込電圧最大値は、以下の式で表される。
(数4)
書込電圧最大値VWRITE MAX=min(VIDEAL MAX、2(VTH―dV))
この式は、書込電圧最大値が、規定値VTHからマージン電圧dVを減算したものを2倍したもの、及び、印加許容電圧最大値VIDEAL MAX、のうち、小さい方であることを意味する。すなわち、書込電圧最大値は、高くとも、2(VTH―dV)である。この技術的意義は、後述する。
数式3と数式4を纏めると、S120で算出される書込電圧は、以下の範囲内となる。
(数5)
書込電圧範囲=[Vth+dV;min(VIDEAL MAX、2(Vth―dV)]
このように、本実施形態のコンダクタンスマップ64では、設定可能な書込電圧範囲が、書込電圧閾値の標準偏差を考慮した分、特許文献1及び特許文献2のコンダクタンスマップと比べて、狭い。なお、図9及び図10に示される具体的数値は、使用するメモリスタ53に依存するデバイス依存値である。つまり、図9及び図10に示す具体的数値は、例示である。また、図9及び図10において、コンダクタンス変化量を示す横軸を、正規化された単位無し値(unitless value)としている。
図7に示すコンダクタンス更新処理の説明に戻る。
S130において、書込制御装置61は、S120で算出した書込電圧VWRITEをメモリスタ53に印加するためにクロスバー回路44の入力バー50及び出力バー51それぞれに印加する電圧を、設定する。さらに、算出した設定印加電圧データを記憶装置63に記憶する。電圧設定は、各バーに印加される電圧の大きさの最大値をV1/2とすると、以下の条件を満たすように行われる。
(数6)
各バーへの印加電圧最大値V1/2=VTH−dV
(数7)
1/2+V1/2≦VWRITE MAX
数式7は、任意の入力バーへの印加電圧と任意の出力バーへの印加電圧の和が、VWRITE MAXが以下であることを意味する。このような条件を満たす具体的な電圧設定方法として、例えば、V/2バイアス方法に基づく電圧設定がある。
V/2バイアス方法を図11〜図12を参照して説明する。V/2バイアス方法では、書込電圧VWRITEによりコンダクタンスを更新させる対象である選択メモリスタの一端が接続された入力バー50にV50=1/2VWRITEを印加する。そして、この選択メモリスタの他端が接続された出力バー51にV51=―1/2VWRITEを印加する。その他の入力バー50及び出力バー51に基準電圧としてのゼロ電圧を印加する。
図11は、V/2バイアス方法に基づいて設定された、クロスバー回路44の各入力バー50及び出力バー51への印加電圧の例を示す。図11に示されるように、書込電圧VWRITEによりコンダクタンスを更新させる対象であるメモリスタ53である選択メモリスタには、書込電圧VWRITEが印加される。選択メモリスタ以外のメモリスタ53である非選択メモリスタには、電圧V=VWRITE/2或いはゼロ電圧が印加される。
図11に電圧印加において、書込電圧VWRITEの大きさは、数式5に示されるように、VTH+dV以上である。さらに、マージン電圧dVは、数式3に示されるように、書込電圧閾値の標準偏差σに基づいて設定される。このため、選択メモリスタの実際の書込電圧閾値が、書込電圧閾値バラツキが原因で、規定値VTHよりも大きくても、選択メモリスタに書込電圧閾値以上の大きさの電圧が印加される可能性が高まる。これは、選択メモリスタのコンダクタンスが、意図に反して更新されない可能性を低減する。
さらに、各非選択メモリスタに印加される電圧の大きさは、高くとも、VWRITE/2=VTH―dVである。つまり、各非選択メモリスタに印加される電圧は、VTH―dV以下である。このため、各非選択メモリスタの実際の書込電圧閾値が、書込電圧閾値バラツキが原因で、規定値VTHよりも小さくても、非選択メモリスタに書込電圧閾値以上の大きさの電圧が印加される可能性が低減する。これは、非選択メモリスタのコンダクタンスが、意図に反して変化してしまう可能性を低減する。
図12は、V/2バイアス方法に基づいて設定された、クロスバー回路44の各バーへの印加電圧の他の例を示す。図12の例では、クロスバー回路44の各バーへの電圧印加によって、2つの選択メモリスタに、書込電圧VWRITEが印加されている。さらに、この2つの選択メモリスタ以外のメモリスタ53である各非選択メモリスタには、電圧V=VWRITE/2或いはゼロ電圧が印加される。このように、V/2バイアス方法を用いて、複数の選択メモリスタのコンダクタンスを一度に更新することも可能である。
次に、数式4において、書込電圧最大値が、高くとも、2(VTH―dV)と規定されている意義を、図13を参照して説明する。図13では、VWRITE=2(VTH+dV)と設定された上で、V/2バイアス方法に基づいてクロスバー回路44に電圧が印加されている例である。図13に示されるように、一部の非選択メモリスタに、書込電圧閾値の規定値よりも大きい電圧VTH+dVが印加される。この例から分かるように、数式4の条件は、非選択メモリスタに、書込電圧閾値の規定値よりも大きい電圧が印加されることを防止するために設けられている。
図7のコンダクタンス更新処理の説明に戻る。
S140において、書込制御装置61は、設定印加電圧データを、電圧印加装置65に送信して、クロスバー回路44の入力バー50及び出力バー51それぞれに設定電圧を印加させる。このようにして、本実施形態の書込制御装置61は、クロスバー回路44を構成する各メモリスタ53のコンダクタンスを更新する。
上記コンダクタンス更新処理におけるS120及びS130が、本発明の訓練方法における印加電圧設定ステップの実施形態であり、S140が、電圧印加ステップの実施形態である。書込制御装置61が、訓練装置の実施形態である。書込制御装置61にコンダクタンス更新処理を実施させるプログラムが、訓練プログラムの実施形態である。
上述の例では、書込制御装置61は、V/2バイアス方法に基づいて、クロスバー回路44への印加電圧を設定したが、数式6〜7の条件を満たすならば、他の方法により印加電圧を設定してもよい。例えば、以下に説明するV/3バイアス方法或いはV/4バイアス方法を用いることもできる。
図14は、クロスバー回路44に、V/3バイアス方法により書込電圧を印加する例を示す。V/3バイアス方法では、選択メモリスタの一端が接続された入力バー50に電圧V50=2/3VWRITEを印加し、他の入力バー50にゼロ電圧を印加する。さらに、選択メモリスタの他端が接続された出力バー51に電圧V51=―1/3VWRITEを印加し、その他の出力バー51に電圧V=1/3VWRITEを印加する。この場合、一見、数式6の条件を満たしていないようであるが、全てのバ−に対して、電圧V=―1/3VWRITEだけ、余分に電圧を印加すると、数式6の条件を満たすことが分かる。図14のようにクロスバー回路44に電圧を印加すると、非選択メモリスタに印加される電圧の大きさは、VWRITE/2よりも小さいVWRITE/3となる。よって、V/3バイアス方法は、V/2バイアス方法と同様に、選択メモリスタのコンダクタンスが意図に反して更新されない可能性、及び、非選択メモリスタのコンダクタンスが意図に反して変化する可能性、両方を低減する。なお、V/3バイアス方法でも、図12の説明と同じ考え方を用いて、クロスバー回路44への一度の電圧印加によって、複数の選択メモリスタのコンダクタンスを更新することも可能である。
図15は、クロスバー回路44に、V/4バイアス方法により書込電圧を印加する例を示す。V/4バイアス方法では、選択メモリスタの一端が接続された入力バー50に電圧V50=1/2VWRITEを印加し、他の入力バー50に電圧V=―1/4VWRITEを印加する。さらに、選択メモリスタの他端が接続された出力バー51に電圧V51=―1/2VWRITEを印加し、その他の出力バー51に電圧V=―1/4VWRITEを印加する。このようにクロスバー回路44に電圧を印加すると、図15に示すように、選択メモリスタに書込電圧VWRITEが印加されると共に、非選択メモリスタに印加される電圧の大きさは、高くともVWRITE/2となる。よって、V/4バイアス方法は、V/2バイアス方法と同様に、選択メモリスタのコンダクタンスが意図に反して更新されない可能性、及び、非選択メモリスタのコンダクタンスが意図に反して変化する可能性、両方を低減する。なお、V/4バイアス方法でも、図12の説明と同じ考え方を用いて、クロスバー回路44への一度の電圧印加によって、複数の選択メモリスタのコンダクタンスを更新することも可能である。
次に、上述の訓練方法についての数値実験(シミュレーション)を説明する。数値実験は、コンピュータ上でソフトウェアエミュレーションした人工NN回路40を、上述の本実施形態の訓練方法で訓練することにより行った。以下、エミュレーションした人工NN回路40の構成を先ず説明する。その後、数値実験の詳細を説明する。
図16は、エミュレーションした人工NN回路40の構成を示す。図16に示すように、人工NN回路40の構成として、中間層22が一層であるものを用いた。入力層21を構成するニューロン25の数は、785である。中間層22を構成するニューロン25の数は、300である。出力層23を構成するニューロン25の数は、10である。入力データセットして、MNISTデータセットを用いた。各入力データは、28x28ピクセルのグレー画像であって、0〜9の何れかの手書きの数字の画像データである。画像の各ピクセルは、0〜255までの値をとる。さらに、それぞれに画像データに対して、「7」「2」「1」といったように、対応するラベルが付されている。このため、入力層を構成するニューロンの数を、28x28+1=785としている。MNISTデータセットでは、60000個の訓練用画像と、10000個のテスト用画像と、が用意されている。以下の数値実験では、60000個の訓練用画像のうち、50000を訓練に用い、残りの10000を評価に用いた。
以上の人工NN回路40の構成と、入力データと、を用いて、第1〜第3数値実験を行った。各数値実験において、正負の書込電圧閾値の規定値を、それぞれ、VTH=1.4V、VTH=−0.9Vとした。クロスバー回路44を構成する複数のメモリスタ53の正負の書込電圧閾値は、この規定値に対して標準偏差σで規定されるガウス分布に従うとした。標準偏差σ=0V,0.1V、0.05V、0.025V、0.1V、0Vの6つ場合それぞれについて、数値実験を行った。つまり、メモリスタ53の書込電圧閾値バラツキの程度が異なる複数のクロスバー回路44について、数値実験を行った。マージン電圧dV=Nσを規定するNとして、複数の異なる値N=1、2、3、3.5、4の5つ場合それぞれについて、数値実験を行った。クロスバー回路44へは、V/2バイアス方法により電圧を印加した。
第1数値実験について図17を参照して説明する。第1数値実験では、書込電圧の印加による、意図に反した非選択メモリスタのコンダクタンス変化を考慮していない。
図17は、第1数値実験の結果を示す。横軸は、書込電圧閾値の標準偏差σを示す。図17の右側ほど、メモリスタ53の書込電圧閾値バラツキの程度が大きいクロスバー回路44についての結果を示す。縦軸は、訓練後における評価用画像データの誤認識率を示す。図17の下側ほど、誤認識率が低い。言い換えると、図17の下側ほど、訓練後における認識精度が高い。図中の複数のグラフは、異なるNに対応する。比較のために、標準偏差σ=0の場合、即ち、各メモリスタの書込電圧閾値が、規定値を持つ場合の結果を、「比較実験1」とラベルして図示している。なお、比較実験1の結果は、横軸におけるσ=0の箇所に図示されるべきだが、σ>0の結果との比較を容易にするために、図17のように示した。
図17に示されるように、書込電圧閾値の標準偏差σが何れの場合でも、Nを大きくすると、訓練後の誤認識率が下がる。言い換えると、書込電圧閾値バラツキによる訓練精度低減が、大きく抑えられる。特に、Nを3以上とすると、誤認識率が、標準偏差σ=0の場合に、略一致する。この理由は、以下の通りである。
Nが3以上であるので、数式3より、VTH+3σ以上の大きさの電圧が選択メモリスタに印加される。ここで、σが規定値VTHを中心した書込電圧閾値の標準偏差であるところ、選択メモリスタの実際の書込電圧閾値が、書込電圧閾値バラツキが原因で、VTH+3σより小さくなる確率は、98.9%以上となる。つまり、書込電圧閾値以上の大きさの電圧が選択メモリスタに印加される可能性を、98.9%以上にできる。
以上の結果が示す特性に基づいて、マージン電圧dVの大きさを規定するNを、予め定めることができる。例えば、Nの値を3と設定する。或いは、各Nの値について予め推定された訓練後における認識精度(100%−誤認率)のN依存性と、予め定められた認識精度の許容範囲と、に基づいて、Nの値を設定する。具体的には、例えば、以下のようにする。
上述のように人工NN回路40をソフトウェアエミュレーションすることにより、認識精度のN依存性を予め推定する。或いは、同じ構成を持つ人工NN回路40について、様々なNの値、即ち、様々な値のマージン電圧dVについて訓練を行って、訓練後の人工NN回路40の認識精度を実際に測定することにより、認識精度のN依存性を予め推定する。この認識精度のN依存性と、認識精度の許容範囲と、を比較して、許容範囲内の認識精度が実現され得るNの値を、マージン電圧を規定するNの値として用いる。なお、認識精度の許容範囲は、人工NN回路40にて実現されるアプリケーションの種類やアプリケーションの用途等に応じて予め適宜設定されるものである。アプリケーションの種類とは、画像認識、音声認識用などである。アプリケーションの用途とは、車両の自動運転用、車両におけるエンターテイメント用などである。
許容範囲内の認識精度が実現され得るNのうち、最小のNを設定してもよい。その理由は、以下の通りである。数式5に示されるように、Nを大きくすると、設定可能な書込電圧範囲が狭くなる。このため、設定可能な書込電圧範囲を確保するという観点からは、Nは小さい方が好適である。一方、上述したように、認識精度向上の観点からは、Nが大きい方が好適である。そこで、これらを両立するため、許容範囲内の認識精度が実現されるNのうち、最小のNを用いる。なお、設定可能な書込電圧範囲を大きくすると、例えば、以下の利点がある。図9及び図10、並び、これらに関する上記説明から分かるように、設定可能書込電圧の範囲を大きくすれば、一度の電圧印加で実現可能なコンダクタンス変化量が大きくなる。つまり、設定可能な書込電圧範囲を大きくすれば、所望のコンダクタンス変化を実現するまでの訓練時間を短くすることができる。
数式3〜数式7で規定される書込電圧最小値、書込電圧最大値、及び、各バーへの印加電圧の具体的数値例を、図18に示す。メモリスタの特徴量として、以下が用いられている。正負の書込電圧閾値の規定値は、それぞれ、VRESET TH=1.4V、VSET TH=−0.9Vである。正負の書込電圧閾値の標準偏差は、σ=0.05Vである。印加許容電圧最大値は、正負それぞれについて、VIDEAL MAX=2.64V、−1.41Vである。
図18の上部は、各Nの値についての、数式3、数式4、及び数式6を用いて算出される書込電圧最大値VMAX、書込電圧最小値VMIN、及び各バーへの印加電圧最大値V1/2を示す。N=1,2,3の場合、書込電圧最大値VMAXは、印加許容電圧最大値VIDEAL MAXとなる。つまり、N=1,2,3の場合、印加許容電圧最大値VIDEAL MAXは、2(VTH−Nσ)よりも小さい。図18の中部及ぶ下部は、書込電圧最大値VMAXと、各バーへの印加電圧最大値V1/2と、の差を示す。このように、各バーの印加電圧最大値の2倍が、必ずしも、数式7を満たす訳ではない。この点が、数式7の意義といえる。
次に、第2数値実験について、図19を参照して説明する。第2数値実験では、第1実験とは異なり、選択メモリスタに対する書込電圧印加による非選択メモリスタのコンダクタンス変化を考慮している。
図19は、第2数値実験の結果と、用いたパラメタを示す。図中の比較実験1は、図17の比較実験1と同じものである。さらに、比較のために「比較実験2」を図示している。比較実験2では、図19の下部に示す標準偏差σ=0.01V,0.05V,0.1Vを用いてクロスバー回路44への印加を、数式5〜数式7を通じて設定する。しかし、比較実験2では、この設定印加電圧が印加されるクロスバー回路44を構成する各メモリスタは、書込電圧閾値として規定値をもつとして数値実験を行った。比較実験1と比較実験2との相違点は、数式5で決まる書込電圧の範囲が、比較実験1よりも比較実験2の方が狭いことにある。図18に示される結果から分かるように、認識率低減の要因は、数式5で決まる書込電圧の範囲である利用可能電圧範囲と、書込電圧閾値と、を含む。
次に第3数値実験について、図20を参照して説明する。図20は、第3数値実験の結果を、第2実験の結果と共に示す。第3数値実験では、クロスバー回路44に3/Vバイアス法により電圧を印加した。図20に示されるように、V/3バイアス法を用いる方が、V/2バイアス法を用いるよりも、高認識率を得られることが分かる。
S140において、V/2バイアス方法、V/3バイアス方法、及びV/4バイアス方法のうち、何れを用いるかは、例えば、以下の観点から決定できる。
電圧印加方法として、1/2バイアス方法、1/3バイアス方法、及び1/4バイアス方法の何れを用いても、選択メモリスタに印加される電圧は、書込電圧VWRITEである。一方で、非選択メモリスタに印加される電圧の大きさは、図11〜12及び14〜15に示すように、電圧印加方法によって異なる。具体的には、1/2バイアス方法を用いた場合は、ある非選択メモリスタに対して(1/2)VWRITE、他の非選択メモリスタに対して基準電圧(ゼロ電圧)である。1/3バイアス方法を用いた場合は、ある非選択メモリスタに対して(1/3)VWRITE、他の非選択メモリスタに対して(―1/3)VWRITEである。1/4バイアス方法を用いた場合は、ある非選択メモリスタに対して(1/4)VWRITE、他の非選択メモリスタに対して基準電圧(―1/2)VWRITEである。
このため、非選択メモリスタのコンダクタンスが意図に反して変化する可能性を低減させるという観点からは、第3数値実験で示したとおり、1/2バイアス方法よりも、V/3バイアス方法が好適である。なぜなら、V/2バイアス方法を用いた場合よりも、V/3バイアス方法を用いた場合の方が、非選択メモリスタに印加される電圧の大きさが、総じて、小さくなるためである。また、非選択メモリスタのコンダクタンスが意図に反して変化する可能性を低減させるという観点からは、1/2バイアス方法よりも、V/4バイアス方法が好適な場合がある。これは、非選択メモリスタに印加される電圧の大きさが共に、高くとも(1/2)VWRITEであるが、その極性が逆であるためである。詳しくは、図9及び図10に示すように、典型的には、メモリスタに印加する電圧の極性によって、書込電圧閾値の大きさが異なる。このため、V/2バイアス方法よりも、V/4バイアス方法が好適な場合が生じる。
一方で、クロスバー回路44の各バ−への電圧印加による電力消費という観点からは、V/2バイアス方法が、V/3バイアス方法及びV/4バイアス方法よりも好適である。なぜなら、選択メモリスタが接続されている入力バー50及び出力バー51を除く他のバーすべてに対して、V/2バイアス方法では、基準電圧(ゼロ電圧)を印加すればよいが、V/3バイアス方法及びV/4バイアス方法では、基準電圧(ゼロ電圧)を印加すればよい訳ではない。
これらの点を考慮して、S130において、何れの電圧印加方法を用いるかを決定できる。具体的には、各電圧印加方法について予め推定された訓練後における入力データ認識精度の電圧印加方法依存性と、予め定められた認識精度の許容範囲と、に基づいて、用いる電圧印加方法を決定してもよい。例えば、何れの電圧印加方法であっても、認識精度が許容範囲となるように訓練可能であるならば、消費電力の小さいV/2バイアス方法を用いて電圧を印加する。V/2バイアス方法では認識精度が許容範囲となる訓練が可能ではないが、V/3又はV/4バイアス方法では認識精度が許容範囲となる訓練が可能である場合は、消費電力が大きくとも認識精度を担保できるV/3又はV/4バイアス方法を用いるという具合である。
入力データ認識精度の電圧印加方法依存性を、予め推定する方法としては、様々な方法を用いることができる。例えば、上記数値実験で示したように、ソフトウェアエミュレーションした人工NN回路40をコンピュータ上で訓練することにより、入力データ認識精度の電圧印加方法依存性を予め推定してもよい。或いは、各電圧印加方法を用いて人工NN回路40をオンチップで訓練を行い、認識精度を実際に測定することにより、入力データ認識精度の電圧印加方法依存性を、予め推定することできる。認識精度の許容範囲は、人工NN回路40に実装されるアプリケーションの種類やアプリケーションの用途等に応じて、予め適宜設定されるものである。
以上、本発明の好ましい実施形態について説明したが、本発明は上述した実施形態になんら制限されることなく、本発明の主旨を逸脱しない範囲において、種々変形して実施することが可能である。
例えば、上記実施形態では、人工NN回路40においてニューロン24を具現化する構成として、CMOS回路55,56を例示した。しかし、ニューロン24は、他の専用回路によって具現化されてもよいし、汎用コンピュータによって具現化されてもよいし、これらの組み合わせとして具現化されてもよい。
また、上記実施形態では、マージン電圧dVが、書込電圧閾値の標準偏差σと、1以上の実数であるNと、を用いてdV=Nσと設定されている例を説明した。しかし、書込電圧閾値のバラツキ以外の要因を考慮して、マージン電圧dVが、dV=N(σ+α)≧Nσと設定されてもよい。例えば、電圧印加装置65の電圧印加精度を表す印加電圧誤差の大きさαを考慮して、マージン電圧がdV=N(σ+α)と設定されてもよい。このようにすれば、電圧印加装置65の印加電圧誤差による訓練精度低減を、抑えることができる。
電圧印加ステップS150において用いる電圧印加装置65の印加電圧誤差αを、書込電圧閾値の標準偏差σに基づいて予め設定すると好適である。例えば、印加電圧誤差αを書込電圧閾値の標準偏差σよりも小さくして、印加電圧誤差αが訓練精度低減の主要因となることを予め防止するという具合である。
40…人工NN回路、44…クロスバー回路、50…入力バー、51…出力バー、53…メモリスタ、61…書込制御装置(訓練装置)、65…電圧印加装置

Claims (12)

  1. 複数の入力バー(50)と、
    前記複数の入力バーと交差する複数の出力バー(51)と、
    前記複数の入力バーと前記複数の出力バーとの各交点に設けられた可変コンダクタンス素子であるメモリスタ(53)と、を有するクロスバー回路(44)を備え、
    各メモリスタは、書込電圧閾値(VTH SET、VTH RESET)以上の大きさを持つ電圧である書込電圧VWRITEが印加された場合にコンダクタンスが更新され、該書込電圧閾値よりも小さい電圧が印加された場合にはコンダクタンスが維持される特性を有すると共に、該書込電圧閾値の大きさが規定値VTHに対してバラツキを持つ人工ニューラルネットワーク回路(40)の訓練方法であって、
    該訓練方法において訓練装置(61)が実施するステップとして、
    前記メモリスタのうち、前記書込電圧VWRITEによりコンダクタンスを更新させる対象であるメモリスタを選択メモリスタとし、該選択メモリスタ以外のメモリスタを非選択メモリスタとすると、前記選択メモリスタの一端が接続されている入力バー及び該選択メモリスタの他端が接続されている出力バーそれぞれに印加する電圧V50、V51として、
    TH+dV≦|V50−V51|=|VWRITE|≦2(VTH−dV)
    但し、dVは、正のマージン電圧
    を満たす電圧を設定すると共に、
    その他の入力バー及び出力バーそれぞれに印加する電圧として、各非選択メモリスタの両端にVTH−dVよりも小さい電圧差を生じさせる電圧を設定する印加電圧設定ステップ(S120,S130)と、
    前記印加電圧設定ステップにて設定された電圧を、電圧印加装置(65)を用いて、前記複数の入力バー及び前記複数の出力バーに印加する電圧印加ステップ(S140)と、
    を含み、
    前記マージン電圧の大きさが、前記メモリスタの書込電圧閾値バラツキ(σ)に基づいて、設定されている
    人工ニューラルネットワーク回路の訓練方法。
  2. 前記メモリスタの書込電圧閾値バラツキを、前記規定値VTHを中心した書込電圧閾値の標準偏差σとし、Nを1以上の実数とすると、
    前記マージン電圧は、dV≧Nσを満たす
    請求項1に記載の人工ニューラルネットワーク回路の訓練方法。
  3. Nは、3以上の実数である
    請求項2に記載の人工ニューラルネットワーク回路の訓練方法。
  4. 各Nの値について予め推定された訓練後における入力データ認識精度のN依存性と、予め定められた認識精度の許容範囲と、に基づいて、Nの値が設定されている
    請求項2又は3に記載の人工ニューラルネットワーク回路の訓練方法。
  5. 前記認識精度のN依存性と、前記認識精度の許容範囲と、に基づいて、Nの値が、前記認識精度の許容範囲内最小値に対応する値に設定されている
    請求項4に記載の人工ニューラルネットワーク回路の訓練方法。
  6. 前記電圧印加ステップでは、
    前記選択メモリスタが接続されている入力バー及び該選択メモリスタの他端が接続されている出力バーそれぞれに印加される電圧V50、51として、
    50=VWRITE/2
    51=−VWRITE/2
    TH+dV≦|VWRITE|≦2(VTH−dV)
    の関係を満たす電圧が印加されると共に、
    その他の入力バー及び出力バーそれぞれに印加される電圧として、基準電圧としてのゼロ電圧が印加される、V/2バイアス方法によって電圧を印加する
    請求項1ないし5何れか一項に記載の人工ニューラルネットワーク回路の訓練方法。
  7. 前記電圧印加ステップでは、
    前記V/2バイアス方法に加えて、
    前記選択メモリスタの一端が接続されている入力バー及び該選択メモリスタの他端が接続されている出力バーそれぞれに印加される電圧V50、V51として、
    50=VWRITE(2/3)
    51=−VWRITE(1/3)
    TH+dV≦|VWRITE|≦2(VTH−dV)
    の関係を満たす電圧が印加されると共に、
    前記選択メモリスタの一端が接続された入力バーを除く前記複数の入力バーそれぞれに印加される電圧として、前記基準電圧としてのゼロ電圧が印加され、前記選択メモリスタの他端が接続されている出力バーを除く前記複数の出力バーそれぞれに印加する電圧として、電圧VWRITE(1/3)が印加される、V/3バイアス方法、
    及び、
    前記選択メモリスタの一端が接続されている入力バー及び該選択メモリスタの他端が接続されている出力バーそれぞれに印加される電圧V50、51として、
    50=VWRITE(1/2)
    51=−VWRITE(1/2)
    TH+dV≦|VWRITE|≦2(VTH−dV)
    の関係を満たす電圧が印加されると共に、
    前記選択メモリスタの一端が接続された入力バーを除く前記複数の入力バーそれぞれに印加される電圧として、電圧―VWRITE(1/4)が印加され、前記選択メモリスタの他端が接続された出力バーを除く前記複数の出力バーそれぞれに印加される電圧として、電圧+VWRITE(1/4)が印加される、V/4バイアス方法
    を用いて電圧を印加可能であり、
    前記印加電圧設定ステップにおいて、
    前記V/2バイアス方法、V/3バイアス方法、及びV/4バイアス方法のうち、何れの電圧印加方法を前記電圧印加ステップにおいて用いるかを、各電圧印加方法について予め推定された訓練後における入力データ認識精度の電圧印加方法依存性と、予め定められた認識精度の許容範囲と、に基づいて、決定する
    請求項6に記載の人工ニューラルネットワーク回路の訓練方法。
  8. 前記印加電圧設定ステップにおいて設定される、前記複数の入力バー及び前記複数の出力バーそれぞれへの印加電圧の大きさの最大値V1/2は、
    1/2=VTH−Nσ
    であり、
    前記メモリスタの許容印加電圧最大値をVIDEAL MAXとすると、前記印加電圧設定ステップにおいて設定される、前記選択メモリスタへの書込電圧最大値VMAXは、
    MAX=min(VIDEAL MAX、2(VTH−Nσ))
    であり、任意の入力バーへの印加電圧と任意の出力バーへの印加電圧との和が
    1/2+V1/2≦VMAX
    を満たす
    請求項2ないし7何れか一項に記載の人工ニューラルネットワーク回路の訓練方法。
  9. 前記電圧印加装置の電圧印加精度を表す印加電圧誤差の大きさをαとすると、
    前記マージン電圧は、dV=N(σ+α)である
    請求項2ないし8何れか一項に記載の人工ニューラルネットワーク回路の訓練方法。
  10. 前記電圧印加ステップにおいて用いられる電圧印加装置は、少なくとも前記メモリスタの書込電圧閾値の標準偏差σに基づいて設定された印加電圧誤差αを持つものである
    請求項9に記載の人工ニューラルネットワーク回路の訓練方法。
  11. 請求項1ないし10何れか一項に記載の印加電圧設定ステップ及び電圧印加ステップを、訓練装置(61)を構成するコンピュータに実施させるための、人工ニューラルネットワーク回路の訓練プログラム。
  12. 請求項1ないし10何れか一項に記載の印加電圧設定ステップ及び電圧印加ステップを実施する
    人工ニューラルネットワーク回路の訓練装置。
JP2017119686A 2017-06-19 2017-06-19 人工ニューラルネットワーク回路の訓練方法、訓練プログラム、及び訓練装置 Active JP6724870B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017119686A JP6724870B2 (ja) 2017-06-19 2017-06-19 人工ニューラルネットワーク回路の訓練方法、訓練プログラム、及び訓練装置
PCT/JP2018/018299 WO2018235449A1 (ja) 2017-06-19 2018-05-11 人工ニューラルネットワーク回路の訓練方法、訓練プログラム、及び訓練装置
US16/710,267 US11537897B2 (en) 2017-06-19 2019-12-11 Artificial neural network circuit training method, training program, and training device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017119686A JP6724870B2 (ja) 2017-06-19 2017-06-19 人工ニューラルネットワーク回路の訓練方法、訓練プログラム、及び訓練装置

Publications (2)

Publication Number Publication Date
JP2019003547A true JP2019003547A (ja) 2019-01-10
JP6724870B2 JP6724870B2 (ja) 2020-07-15

Family

ID=64735711

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017119686A Active JP6724870B2 (ja) 2017-06-19 2017-06-19 人工ニューラルネットワーク回路の訓練方法、訓練プログラム、及び訓練装置

Country Status (3)

Country Link
US (1) US11537897B2 (ja)
JP (1) JP6724870B2 (ja)
WO (1) WO2018235449A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020196586A1 (ja) * 2019-03-25 2020-10-01 株式会社エヌエスアイテクス ニューラルネットワークの演算装置
JP2022539751A (ja) * 2019-07-03 2022-09-13 マイクロン テクノロジー,インク. ニューラルネットワークメモリ
JP2023041581A (ja) * 2021-09-12 2023-03-24 浙江大学 メモリスタ誤差に対するメモリスタメモリニューラルネットワークトレーニング方法
JP7548598B2 (ja) 2019-11-01 2024-09-10 清華大学 メモリスタに基づくニューラルネットワークのトレーニング方法及びそのトレーニング装置

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6724869B2 (ja) 2017-06-19 2020-07-15 株式会社デンソー 多層ニューラルネットワークのニューロンの出力レベル調整方法
US11195089B2 (en) * 2018-06-28 2021-12-07 International Business Machines Corporation Multi-terminal cross-point synaptic device using nanocrystal dot structures
WO2020141597A1 (ja) * 2019-01-04 2020-07-09 学校法人慶應義塾 機械学習デバイス、及びその制御方法
JP2020126426A (ja) * 2019-02-04 2020-08-20 ソニー株式会社 演算装置、及び積和演算システム
JP2020126427A (ja) * 2019-02-04 2020-08-20 ソニー株式会社 演算装置、積和演算システム及び設定方法
US20200387789A1 (en) * 2019-06-06 2020-12-10 Riskfuel Analytics Inc. Neural network training
CN110443168A (zh) * 2019-07-23 2019-11-12 华中科技大学 一种基于忆阻器的神经网络人脸识别系统
KR102398449B1 (ko) * 2019-11-21 2022-05-16 서울시립대학교 산학협력단 뉴런 회로 및 이의 제어 방법
JP2022125660A (ja) 2021-02-17 2022-08-29 キオクシア株式会社 記憶装置及び記憶方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8463723B2 (en) 2009-03-01 2013-06-11 International Business Machines Corporation Electronic synapse
US8447714B2 (en) 2009-05-21 2013-05-21 International Business Machines Corporation System for electronic learning synapse with spike-timing dependent plasticity using phase change memory
US8250010B2 (en) 2009-05-21 2012-08-21 International Business Machines Corporation Electronic learning synapse with spike-timing dependent plasticity using unipolar memory-switching elements
US8527438B2 (en) 2009-12-22 2013-09-03 International Business Machines Corporation Producing spike-timing dependent plasticity in an ultra-dense synapse cross-bar array
US8433665B2 (en) 2010-07-07 2013-04-30 Qualcomm Incorporated Methods and systems for three-memristor synapse with STDP and dopamine signaling
US9092736B2 (en) 2010-07-07 2015-07-28 Qualcomm Incorporated Communication and synapse training method and hardware for biologically inspired networks
US8694452B2 (en) 2010-07-07 2014-04-08 Qualcomm Incorporated Methods and systems for CMOS implementation of neuron synapse
US8655813B2 (en) 2010-12-30 2014-02-18 International Business Machines Corporation Synaptic weight normalized spiking neuronal networks
FR2977350B1 (fr) * 2011-06-30 2013-07-19 Commissariat Energie Atomique Reseau de neurones artificiels a base de dispositifs memristifs complementaires
US8832009B2 (en) 2012-05-15 2014-09-09 The United States Of America As Represented By The Secretary Of The Air Force Electronic charge sharing CMOS-memristor neural circuit
US10109348B2 (en) 2014-10-30 2018-10-23 Hewlett Packard Enterprise Development Lp Double bias memristive dot product engine for vector processing
US9934463B2 (en) 2015-05-15 2018-04-03 Arizona Board Of Regents On Behalf Of Arizona State University Neuromorphic computational system(s) using resistive synaptic devices
US10332004B2 (en) 2015-07-13 2019-06-25 Denso Corporation Memristive neuromorphic circuit and method for training the memristive neuromorphic circuit
US10074050B2 (en) 2015-07-13 2018-09-11 Denso Corporation Memristive neuromorphic circuit and method for training the memristive neuromorphic circuit
JP6481667B2 (ja) 2016-07-20 2019-03-13 株式会社デンソー ニューラルネットワーク回路
US9646243B1 (en) * 2016-09-12 2017-05-09 International Business Machines Corporation Convolutional neural networks using resistive processing unit array
JP6724863B2 (ja) 2017-05-29 2020-07-15 株式会社デンソー 畳み込みニューラルネットワーク
JP6724869B2 (ja) 2017-06-19 2020-07-15 株式会社デンソー 多層ニューラルネットワークのニューロンの出力レベル調整方法
JP6805984B2 (ja) 2017-07-06 2020-12-23 株式会社デンソー 畳み込みニューラルネットワーク

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020196586A1 (ja) * 2019-03-25 2020-10-01 株式会社エヌエスアイテクス ニューラルネットワークの演算装置
JP2020160564A (ja) * 2019-03-25 2020-10-01 株式会社エヌエスアイテクス ニューラルネットワークの演算装置
JP7316073B2 (ja) 2019-03-25 2023-07-27 株式会社エヌエスアイテクス ニューラルネットワークの演算装置
JP2022539751A (ja) * 2019-07-03 2022-09-13 マイクロン テクノロジー,インク. ニューラルネットワークメモリ
JP7548598B2 (ja) 2019-11-01 2024-09-10 清華大学 メモリスタに基づくニューラルネットワークのトレーニング方法及びそのトレーニング装置
JP2023041581A (ja) * 2021-09-12 2023-03-24 浙江大学 メモリスタ誤差に対するメモリスタメモリニューラルネットワークトレーニング方法

Also Published As

Publication number Publication date
WO2018235449A1 (ja) 2018-12-27
US20200111008A1 (en) 2020-04-09
JP6724870B2 (ja) 2020-07-15
US11537897B2 (en) 2022-12-27

Similar Documents

Publication Publication Date Title
JP6724870B2 (ja) 人工ニューラルネットワーク回路の訓練方法、訓練プログラム、及び訓練装置
JP6724869B2 (ja) 多層ニューラルネットワークのニューロンの出力レベル調整方法
US20180121802A1 (en) Method of converting neural network and recognition apparatus using the same
EP3136304A1 (en) Methods and systems for performing reinforcement learning in hierarchical and temporally extended environments
US20170017879A1 (en) Memristive neuromorphic circuit and method for training the memristive neuromorphic circuit
EP3287957A1 (en) Methods and systems for implementing dynamic neural networks
EP3593291B1 (en) Making object-level predictions of the future state of a physical system
WO2017010048A1 (en) Memristive neuromorphic circuit and method for training the memristive neuromorphic circuit
JP7196803B2 (ja) 人工ニューラルネットワーク回路及び人工ニューラルネットワーク回路における学習値切替方法
KR20180089769A (ko) 행동 결정 장치 및 방법, 컴퓨터 판독 가능한 저장 매체
JP7383528B2 (ja) スパイキングニューラルネットワーク装置およびスパイキングニューラルネットワーク装置の学習方法
JP6881693B2 (ja) ニューロモーフィック回路、ニューロモーフィックアレイの学習方法およびプログラム
JP2020057278A (ja) 人工ニューラルネットワーク回路
CN114626500A (zh) 一种神经网络计算方法及相关设备
CN117273109A (zh) 基于量子神经元的混合神经网络的构建方法及装置
CN116863295A (zh) 感算一体目标高精度检测识别系统及方法
EP1837807A1 (en) Pattern recognition method
EP3782083A1 (en) A neuronal network topology for computing conditional probabilities
CN113269313B (zh) 突触权重训练方法、电子设备和计算机可读介质
CN115796252A (zh) 权重写入方法及装置、电子设备和存储介质
CN111582461B (zh) 神经网络训练方法、装置、终端设备和可读存储介质
CN111582462B (zh) 权值原位更新方法、装置、终端设备和可读存储介质
US11443171B2 (en) Pulse generation for updating crossbar arrays
US10740673B2 (en) Scalable refresh for asymmetric non-volatile memory-based neuromorphic circuits
JP7148445B2 (ja) 情報推定装置及び情報推定方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190619

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200608

R151 Written notification of patent or utility model registration

Ref document number: 6724870

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250