JP2010123072A - Back propagation learning method for pulse neuron model - Google Patents
Back propagation learning method for pulse neuron model Download PDFInfo
- Publication number
- JP2010123072A JP2010123072A JP2008298487A JP2008298487A JP2010123072A JP 2010123072 A JP2010123072 A JP 2010123072A JP 2008298487 A JP2008298487 A JP 2008298487A JP 2008298487 A JP2008298487 A JP 2008298487A JP 2010123072 A JP2010123072 A JP 2010123072A
- Authority
- JP
- Japan
- Prior art keywords
- neuron model
- output
- pulse
- layer
- pulse neuron
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本発明は、ニューラルネットワークのためのバックプロパゲーション学習方法に関し、特に、パルスニューロンモデルにより構築されたニューラルネットワーク(以下、「パルスニューラルネットワーク」という。)に適したバックプロパゲーション学習法に関する。 The present invention relates to a back-propagation learning method for a neural network, and more particularly, to a back-propagation learning method suitable for a neural network constructed by a pulse neuron model (hereinafter referred to as “pulse neural network”).
ニューラルネットワークで一般的な非線形問題を解くためには、入力層と出力層との間に中間層を有する3階層以上の階層型ニューラルネットワークにする必要があり、階層型ニューラルネットワークの学習法としてはバックプロパゲーション法(誤差逆伝播法)が知られている。 In order to solve a general non-linear problem with a neural network, it is necessary to use a hierarchical neural network with three or more layers having an intermediate layer between an input layer and an output layer. A back propagation method (error back propagation method) is known.
また、パルスニューラルネットワークのための教師あり学習法として、下記非特許文献1に記載された手法がある。
As a supervised learning method for a pulse neural network, there is a method described in Non-Patent
さらに、ディジタルパーセプトロンのための双対性を利用したバックプロパゲーション法として、下記非特許文献2に記載された手法がある。
Furthermore, as a back-propagation method using duality for a digital perceptron, there is a method described in Non-Patent
なお、下記非特許文献3には、パルスニューロンモデルのハードウェア化手法が記載されている。
しかし、一般的に用いられているバックプロパゲーション法では、誤差を最小化することを目的とするため、誤差関数を微分する計算を行う。しかし、パルスニューロンモデルでは出力関数が微分不可能であるために、この計算ができず、一般的なバックプロパゲーション法を適用できないという問題があった。 However, the commonly used back-propagation method aims to minimize the error, and therefore performs a calculation that differentiates the error function. However, since the output function cannot be differentiated in the pulse neuron model, there is a problem that this calculation cannot be performed and a general back propagation method cannot be applied.
また、上記非特許文献1の手法は、入力層と出力層の2階層構造のみ考慮したものであり、階層型パルスニューラルネットワーク(3階層以上のパルスニューラルネットワーク)には適用できないという問題があった。
Further, the method of Non-Patent
さらに、上記非特許文献2の手法は、ディジタルパーセプトロンのための手法であり、入出力がパルスである階層型パルスニューラルネットワークに対する適用はなされていなかった。
Further, the technique of Non-Patent
この発明は、上述した問題を解決するものであり、階層型パルスニューラルネットワークに適用可能なバックプロパゲーション学習法を提供することを目的とする。 An object of the present invention is to solve the above-described problem and to provide a back-propagation learning method applicable to a hierarchical pulse neural network.
本発明のパルスニューロンモデルのためのバックプロパゲーション学習法は、パルスニューロンモデルの双対性を利用して教師信号を生成し、該教師信号を用いて学習を行うことを特徴とする。 The back-propagation learning method for the pulse neuron model of the present invention is characterized in that a teacher signal is generated using the duality of the pulse neuron model and learning is performed using the teacher signal.
これによれば、階層型パルスニューラルネットワークに適用可能なバックプロパゲーション学習法を提供できる。 According to this, a back-propagation learning method applicable to a hierarchical pulse neural network can be provided.
ここで、請求項2記載のように、中間層のj番目のパルスニューロンモデルに与えられる教師信号をTj、前記中間層を前段としたときの後段の層(以下、「出力層」という。)のk番目のパルスニューロンモデルの出力電位をpO k(t)(但し、tは時間)、前記出力層のk番目のパルスニューロンモデルの教師電位をpT k(t)、前記中間層のj番目のパルスニューロンモデルの出力をHj(t)、前記中間層のj番目のパルスニューロンモデルと前記出力層のk番目のパルスニューロンモデルとの間の結合重みをwO kj(t)、学習係数をαO、前記出力層のパルスニューロンモデルの数をK、経過時間をA、膜電位の減衰定数をβ≡exp(−1/τ)(但し、τは入力電位の時定数)としたとき、下記[数12]により計算される教師信号Tjにより前記中間層のj番目のパルスニューロンモデルが学習を行うこととできる。
Here, as described in
(2)ΔTj<−θlearnの場合、Tj=0とする。 (2) When ΔT j <−θ learn , T j = 0.
(3)ΔTj>θlearnの場合、Tj=1とする。 (3) When ΔT j > θ learn , T j = 1.
また、請求項4記載のように、中間層のj番目のパルスニューロンモデルに与えられる教師信号をTj、出力層のk番目のパルスニューロンモデルの時間tにおける出力信号をOk、前記出力層のk番目のパルスニューロンモデルへの時間tにおける教師信号をTO k、前記中間層のj番目のパルスニューロンモデルの出力をHj(t)、前記中間層のj番目のパルスニューロンモデルと前記出力層のk番目のパルスニューロンモデルとの間の結合重みをwO kj(t)、学習係数をαO、前記出力層のパルスニューロンモデルの数をK、学習のための閾値をθlearnとしたとき、下記[数15]のように定義された誤差ΔTjを計算し、下記(1)〜(3)に従って教師信号Tjを決定し、該教師信号Tjにより前記中間層のj番目のパルスニューロンモデルを学習させることとしてもよい。
In addition, as described in
(2)ΔTj<−θlearnの場合、Tj=0とする。 (2) When ΔT j <−θ learn , T j = 0.
(3)ΔTj>θlearnの場合、Tj=1とする。 (3) When ΔT j > θ learn , T j = 1.
本発明の学習・識別装置は、上記いずれかのパルスニューロンモデルのためのバックプロパゲーション学習法により学習を行い、入力データを識別することを特徴とする。 The learning / identification apparatus of the present invention is characterized in that learning is performed by the back-propagation learning method for any one of the above-described pulse neuron models, and input data is identified.
本発明の演算回路は、請求項4記載のパルスニューロンモデルのためのバックプロパゲーション学習法の教師信号Tjを生成することを特徴とする。
The arithmetic circuit according to the present invention is characterized by generating a teacher signal T j of a back-propagation learning method for a pulse neuron model according to
例えば、上記演算回路は、kを前記出力層のニューロン番号(k=1〜K)としたとき、前記教師信号TO kと前記出力信号Okと前記結合重みwO kj(t)とから、TO k=0かつOk=0のとき0を、TO k=0かつOk=1のとき−wO kj(t)を、TO k=1かつOk=0のときwO kj(t)を、TO k=1かつOk=1のとき0を出力するK個の論理回路と、前記各論理回路からの出力を加算する加算器と、前記加算器からの出力に対してビットシフトを行って前記学習係数αOの乗算を行い、誤差ΔTjを算出するシフト演算器と、前記シフト演算器から出力された誤差ΔTjと中間層からの出力Hj(t)とを比較して、上記ルール(1)〜(3)に従って教師信号Tjを出力する比較器と、を備えるものとすることができる。 For example, in the arithmetic circuit, when k is a neuron number (k = 1 to K) of the output layer, the arithmetic signal T O k , the output signal O k, and the connection weight w O kj (t) are used. , T O k = 0 and O k = 0, 0 when T O k = 0 and O k = 1, -w O kj (t), w when T O k = 1 and O k = 0 O kj (t) is K logic circuits that output 0 when T O k = 1 and O k = 1, an adder that adds outputs from the respective logic circuits, and an output from the adder performs multiplication of the learning coefficient alpha O performing a bit shift with respect to the error [Delta] t and a shift computing unit for calculating a j, output H j (t from the error [Delta] t j and the intermediate layer output from the shift calculator ) by comparing the, a comparator for outputting a teacher signal T j according to the above rule (1) to (3), It can be made with.
本発明のバックプロパゲーション学習法によれば、誤差関数を微分する計算が必要でなく、階層型パルスニューラルネットワークに適用可能である。 According to the back-propagation learning method of the present invention, calculation for differentiating the error function is not required, and the method can be applied to a hierarchical pulse neural network.
〔第1実施形態〕
まず、第1実施形態に係るバックプロパゲーション学習法である提案手法1について説明する。提案手法1では、図1に示すような従来のパルスニューロンモデル(上記非特許文献1参照)に対して、図2に示すように、出力電位pO(t)を計算・保持する部分と、教師電位pT(t)を計算・保持する部分と、固定値で上昇する入力電位(入力ポテンシャル)Inpk(t)を計算・保持する部分とを構成要素として加えた新規なパルスニューロンモデルを用いる。
[First Embodiment]
First, the proposed
図2に示すパルスニューロンモデルでは、図1に示すパルスニューロンモデルと同様に、入力パルスINk(t)がk番目のシナプスに到着したとき、局所膜電位pk(t)が結合重みwkの値だけ増加する。局所膜電位pk(t)は、時間の経過とともに次式[数1]に従って減少する。そして、パルスニューロンモデルの内部電位I(t)は次式[数2]によって計算され、出力o(t)は、次式[数3]によって計算される。なお、τは時定数、nは入力の総数、θは閾値、Hは単位ステップ関数(unit step function)であり、tは時間でΔt=1とする。 In the pulse neuron model shown in FIG. 2, as in the pulse neuron model shown in FIG. 1, when the input pulse IN k (t) arrives at the k-th synapse, the local membrane potential p k (t) becomes the connection weight w k. Increase by the value of. The local membrane potential p k (t) decreases according to the following equation [Equation 1] with the passage of time. The internal potential I (t) of the pulse neuron model is calculated by the following equation [Equation 2], and the output o (t) is calculated by the following equation [Equation 3]. Note that τ is a time constant, n is the total number of inputs, θ is a threshold value, H is a unit step function, t is time, and Δt = 1.
提案手法1では、以上のように構成されたパルスニューロンモデルの双対性を利用する。ニューロンモデルの双対性については上記非特許文献2に記載されているが、ここで簡単に説明すると、一般的なニューロンモデルの出力は次式[数4]で計算される。
In Proposed
次式[数6]は、結合重みベクトルの更新に用いられる関数であるが、次式[数7]に示すように、ニューロンモデルの双対性により入力ベクトルの更新にも同じ関数が使用できる。なお、wnewは更新後の結合重みベクトルであり、inewは更新後の入力ベクトルである。 The following equation [Equation 6] is a function used for updating the connection weight vector, but as shown in the following equation [Equation 7], the same function can also be used for updating the input vector due to the duality of the neuron model. Note that w new is the updated connection weight vector, and i new is the updated input vector.
以上のことを踏まえて、提案手法1について説明する。以下の説明において、Hj(t)は中間層のj番目のパルスニューロンモデルの出力、Inpj(t)は中間層のj番目のパルスニューロンモデルからの入力による入力ポテンシャル、pO k(t)は出力層(すなわち、前記中間層を前段としたときの後段の層)のk番目のパルスニューロンモデルの出力電位、pT k(t)は出力層のk番目のパルスニューロンモデルの教師電位、wO kj(t)は中間層のj番目のパルスニューロンモデルと出力層のk番目のパルスニューロンモデルとの間の結合重み、αOは学習係数である。
Based on the above, the proposed
パルスニューロンモデルの重みの更新は、上記非特許文献1の記載からも分かるように、次式[数8]で表せる。
The update of the weight of the pulse neuron model can be expressed by the following equation [Equation 8], as can be seen from the description of
かかる提案手法1を用いて学習を行い、入力データを識別する学習・識別装置の構成例を図3に示す。図3は、入力層1、中間層2、及び、出力層3を有した3階層のパルスニューラルネットワークの例であるが、中間層2のパルスニューロンモデルの数Jと同じ数の教師信号生成素子5を有する教師信号生成素子層4を備えている。出力層3のパルスニューロンモデルの数はKとする。中間層2からの出力Hj、出力層3からの出力Ok、及び、出力層3に与えられる教師信号Tkは、各教師信号生成素子5にも与える。なお、中間層2にはバイアス入力が与えられる。また、出力層の各パルスニューロンモデルの重み(結合重み)は、対応する教師信号生成素子5にコピーされる。入力層1の各パルスニューロンモデルは図1に示すパルスニューロンモデルであり、中間層2及び出力層3の各パルスニューロンモデルは図2に示すパルスニューロンモデルである。なお、入力層1は、入力パルスをそのままのパターンで中間層2に与えるように構成されている。
FIG. 3 shows a configuration example of a learning / identification device that performs learning using the proposed
そして、この学習・識別装置の学習時の動作について、図4に基づいて説明すると、この学習・識別装置は、処理開始後、まず、入力層1、中間層2、及び、出力層3の各パルスニューロンモデルを初期化する(ステップS101)。次に、出力層3の各重みwO kj(t)(k=1〜K)を、j番目の教師信号生成素子5にコピーする(S102)。なお、j=1〜Jである。
The operation of the learning / identification device at the time of learning will be described with reference to FIG. 4. After the processing starts, the learning / identification device starts with each of the
そして、学習を開始し(S103)、入力層1、中間層2、及び、出力層3の各素子(パルスニューロンモデル)が従来通りの前向き演算を行う(S104)。出力層3の各素子は、外部から与えられた教師信号TO k(t)を元に重みwO kj(t)を更新する(S105)。一方、各教師信号生成素子5は、コピーしておいた重みwO kj(t)と、出力層3からの出力Ok(t)と、教師信号TO k(t)とから上記[数12]に従って教師信号Tj(t)を計算し出力する(S106)。なお、学習係数αOは、予め各教師信号生成素子5に与えられているものとする。ステップS106で求められた教師信号Tj(t)は、中間層2のj番目の素子に与えられ、中間層2の各素子はこの教師信号Tj(t)に基づいて重みを更新する(S107)。ステップS105〜107を終えると、ステップS102に戻って、以下、所定の学習回数、ステップS102〜107を繰り返す。
Then, learning is started (S103), and each element (pulse neuron model) in the
なお、図3に示す構成例、及び、図4に示す動作フローは、後述する提案手法2及び提案手法3にも適用可能であるが、後述するように、提案手法2では下記[数13]、提案手法3では下記[数15]に従って、誤差ΔTjを計算し、下記ルール(1)〜(3)に従って教師信号Tj(t)を出力する。
The configuration example shown in FIG. 3 and the operation flow shown in FIG. 4 are also applicable to the proposed
提案手法1によれば、誤差関数を微分する一般的なバックプロパゲーション法とは全く異なった手法で、階層型パルスニューラルネットワークを学習させることができる。
According to the proposed
〔第2実施形態〕
次に、提案手法1を改良した第2実施形態に係る提案手法2について説明する。上記[数12]では、教師信号Tjは実数値となってしまい、そのままではパルスニューロンモデルによる扱いが容易とは言えない。そこで、β≡exp(−1/τ)<1であり、a=0の場合以外は、βaは十分小さく、βawO kj(t−a)は無視できるとして、[数12]を次式[数13]のように変換する。
[Second Embodiment]
Next, a proposed
(1)|ΔTj|≦θlearnの場合、Hj(t)は望ましい出力Tjに一致しているとして、Tj=Hj(t)とし、学習を続ける。 (1) When | ΔT j | ≦ θ learn , it is assumed that H j (t) matches the desired output T j , T j = H j (t), and learning is continued.
(2)ΔTj<−θlearnの場合、Hjは望ましくない出力1であるので、Tj=0とし、中間層のj番目のパルスニューロンモデルが1を出力しないように、結合重みを更新する。
(2) When ΔT j <−θ learn , H j is an
(3)ΔTj>θlearnの場合、Hjは出力1であるべきなので、Tj=1とし、中間層のj番目のパルスニューロンモデルが1を出力するように、結合重みを更新する。
(3) When ΔT j > θ learn , H j should be
このように、提案手法2では、上記[数13]に従ってΔTjを算出し、上記(1)〜(3)のルールに従ってTjを定めて学習を行う。上記(1)〜(3)のルールによれば、教師信号Tjがパルス(0または1)となるので、パルスニューロンモデルによる扱いが容易となり、ハードウェア化も容易となる。提案手法2の実験例を以下に示す。
As described above, in the proposed
〈実験1〉
実験1では、コンピュータ上にソフトウェアにより図3に示すような3階層型パルスニューラルネットワークを有した学習・識別装置を構成し、簡単な非線形問題としてXOR(排他的論理和)を学習し識別させた。実験に用いた各層の素子数、及び、各種パラメタは、表1のとおりである。なお、入力層の1素子は、常に1を中間層の素子に入力するバイアス入力のための素子である。
<
In
かかる入力及び教師信号を用いて学習を行った後、図5と同じ入力パルスを入力し識別させたときの結果を図6に示す。図6は上から順に、中間層の教師パルス列、中間層の出力パルス列、出力層の教師パルス列、出力層の出力パルス列を表す。また、図6においては、図3と同様に、X軸は時間であり、Y軸はニューロン番号である。図6中ニューロン番号は省略されているが、出力層の出力パルス列、教師パルス列は、それぞれ下から順に番号1、2であり、中間層の出力パルス列、教師パルス列は、それぞれ、下から順に番号1、2、3、4である。また、色の濃淡は図5と同様にパルス頻度を表す。図6から、出力層の出力パルス列は、パルス頻度は全体に少ないものの、出力層に対する教師パルス列にパターンが一致しており、学習の結果正しい識別を行うようになったことが分かる。
FIG. 6 shows the result when the same input pulse as that in FIG. 5 is input and discriminated after learning using the input and the teacher signal. FIG. 6 shows, in order from the top, an intermediate layer teacher pulse train, an intermediate layer output pulse train, an output layer teacher pulse train, and an output layer output pulse train. In FIG. 6, as in FIG. 3, the X axis is time, and the Y axis is a neuron number. In FIG. 6, the neuron number is omitted, but the output pulse train and teacher pulse train of the output layer are
〈実験2〉
実験2では、コンピュータ上にソフトウェアにより図3に示すような3階層型パルスニューラルネットワークを有した学習・識別装置を構成し、目覚まし時計のアラーム音(以下、「アラーム」という。)、インターフォンの呼び出し音(以下、「インターフォン」という。)、笛吹きケトルの沸騰音(以下、「ケトル」という。)、電話のベル音(以下、「電話」という。)、人の声、及び、ホワイトノイズの6種の音を周波数帯域毎のパルス列に変換した音データを入力して、提案手法2により学習させた。実験に用いた各層の素子数、及び、各種パラメタは、表2のとおりである。なお、入力層の1素子は、バイアス入力のための素子である。出力層は、上記6種の音を学習する6つの素子を有する。
In
学習後、学習に用いた6種の音データをそれぞれ入力して認識させた結果を、表3に示す。 Table 3 shows the results of inputting and recognizing the six types of sound data used for learning after learning.
提案手法2によれば、学習の結果略正しい認識を行えるとともに、教師信号Tjをパルスにすることができるので、パルスニューロンモデルによる扱いが容易であり、階層型パルスニューラルネットワークに好適である。
According to the proposed
〔第3実施形態〕
次に、提案手法2を、階層型パルスニューラルネットワークのハードウェア化に好適なものとした第3実施形態に係る提案手法3について説明する。
[Third Embodiment]
Next, the proposed
提案手法2では、ΔTjの計算がデジタル回路で実現するのに適していない。そこで、[数13]の出力電位pO k(t)、教師電位pT k(t)を、それぞれ、時間tにおける出力層のk番目のパルスニューロンモデルの出力信号Ok、時間tにおける出力層のk番目のパルスニューロンモデルへの教師信号TO k(Tkとも表記。)に置き換えて、[数13]を次式[数14]のように変換する。Ok、TO kはいずれもパルス(0又は1)である。
In the proposed
〈実験3〉
コンピュータ上にソフトウェアにより図3に示すような3階層型パルスニューラルネットワークを有した学習・識別装置を構成し、実験1と同様の実験を行った。すなわち、実験に用いた各層の素子数、及び、各種パラメタは、表1のとおりであり、図5の下段に示すように入力層に入力パルスを入力するとともに、図5の上段に示すように出力層に教師パルスTkを与えて、提案手法3により学習を行った。
<
A learning / identification apparatus having a three-layer pulse neural network as shown in FIG. 3 was configured on a computer by software, and an experiment similar to
学習後、図5と同じ入力パルスを入力し識別させた結果を図7に示す。図7は、図6と同様に、上から順に、中間層の教師パルス列、中間層の出力パルス列、出力層の教師パルス列、出力層の出力パルス列を表し、X軸は時間、Y軸はニューロン番号であるが、ニューロン番号は省略されている。また、色の濃淡は図5と同様にパルス頻度を表す。図7から、出力層の出力パルス列は、パルス頻度は全体に少ないものの、出力層に対する教師パルス列にパターンが一致しており、学習の結果正しい識別を行うようになったことが分かる。 FIG. 7 shows the result of inputting and identifying the same input pulse as in FIG. 5 after learning. FIG. 7 shows the intermediate layer teacher pulse train, the intermediate layer output pulse train, the output layer teacher pulse train, and the output layer output pulse train in order from the top, as in FIG. 6, where the X axis is time, and the Y axis is the neuron number. However, the neuron number is omitted. The color shading represents the pulse frequency as in FIG. FIG. 7 shows that although the output pulse train of the output layer has a low pulse frequency as a whole, the pattern coincides with the teacher pulse train for the output layer, and correct identification is performed as a result of learning.
〈実験4〉
コンピュータ上にソフトウェアにより図3に示すような3階層型パルスニューラルネットワークを有した学習・識別装置を構成し、実験2と同様の実験を行った。すなわち、実験に用いた各層の素子数、及び、各種パラメタは、表2のとおりであり、実験2で用いたアラーム、インターフォン、ケトル、電話、人の声、及び、ホワイトノイズの6種の音から生成された音データを入力して、提案手法3により学習を行った。
<
A learning / identification device having a three-layer pulse neural network as shown in FIG. 3 was configured on a computer by software, and an experiment similar to
学習後、学習に用いた6種の音データをそれぞれ入力して認識させた結果を、表4に示す。 Table 4 shows the results of inputting and recognizing the six types of sound data used for learning after learning.
提案手法3によれば、学習の結果略正しい認識を行え、教師信号Tjをパルスにすることができるとともに、ΔTjの計算がデジタル回路で容易に実現できるため、階層型パルスニューラルネットワークのハードウェア化に好適である。
According to the proposed
例えば、教師信号生成素子5は、図8に示すようにデジタル回路で実現可能である。図8において、符号10は、表5に示すように、教師パルスTO kと出力パルスOkと重みwO kj(t)とから0、wO kj(t)または−wO kj(t)を出力する論理回路であり、符号11は各論理回路10からの出力を加算する加算器であり、符号12は加算器11からの出力に対してαOの乗算を実現するためのビットシフトを行うシフト演算器であり、符号13はシフト演算器12からの出力すなわちΔTjと中間層からの出力Hjとを比較して、上記ルール(1)〜(3)に従って、教師信号Tjを出力する比較器である。なお、比較器13は、学習閾値θlearnを保有し又は入力として受け取る。
For example, the teacher signal generation element 5 can be realized by a digital circuit as shown in FIG. 8,
以上述べたように、提案手法3はデジタル回路において容易に実現可能であり、FPGA(Field Programmable Gate Arrays)上に実装することも可能である。すなわち、提案手法1〜3はいずれも一般のコンピュータ上でソフトウェアにより実現可能であるが、処理の高速化のためにはハードウェア化が望ましく、提案手法3は特にハードウェア化に好適である。
As described above, the proposed
なお、提案手法1〜3は、勿論、上記出力層を更に中間層とするような、中間層を複数有した4階層以上の階層型パルスニューラルネットワークにも適用可能である。
The proposed
1…入力層
2…中間層
3…出力層
4…教師電位生成素子層
5…教師電位生成素子
10…論理回路
11…加算器
12…シフト演算器
13…比較器
DESCRIPTION OF
Claims (7)
(2)ΔTj<−θlearnの場合、Tj=0とする。
(3)ΔTj>θlearnの場合、Tj=1とする。 The teacher signal given to the jth pulse neuron model of the intermediate layer is T j , and the output potential of the kth pulse neuron model of the subsequent layer (hereinafter referred to as “output layer”) when the intermediate layer is the previous stage. P O k (t) (where t is time), the teacher potential of the k-th pulse neuron model of the output layer is p T k (t), and the output of the j-th pulse neuron model of the intermediate layer is H j (t), the connection weight between the j-th pulse neuron model of the intermediate layer and the k-th pulse neuron model of the output layer is w O kj (t), the learning coefficient is α O , and the output layer When the number of pulse neuron models is K and the learning threshold is θ learn , an error ΔT j defined as the following equation is calculated, and the teacher signal T j is determined according to the following (1) to (3). and,該教teacher signal T Back propagation learning method for pulsed neuron model according to claim 1, wherein the train the j-th pulse neuron model of the intermediate layer by.
(2) When ΔT j <−θ learn , T j = 0.
(3) When ΔT j > θ learn , T j = 1.
(2)ΔTj<−θlearnの場合、Tj=0とする。
(3)ΔTj>θlearnの場合、Tj=1とする。 The teacher signal given to the j-th pulse neuron model of the intermediate layer is T j , and the time t of the k-th pulse neuron model of the subsequent layer (hereinafter referred to as “output layer”) when the intermediate layer is the previous stage. Is the output signal at O k , the teacher signal at time t to the k-th pulse neuron model of the output layer is T O k , the output of the j-th pulse neuron model of the intermediate layer is H j (t), and the intermediate The connection weight between the j-th pulse neuron model of the layer and the k-th pulse neuron model of the output layer is w O kj (t), the learning coefficient is α O , and the number of pulse neuron models of the output layer is K , when the threshold value for the learning and theta learn, to calculate a defined error [Delta] T j by the following equation to determine the teacher signal T j according to the following (1) to (3),該教teacher signal T j More backpropagation learning method for pulsed neuron model according to claim 1, wherein the train the j-th pulse neuron model of the intermediate layer.
(2) When ΔT j <−θ learn , T j = 0.
(3) When ΔT j > θ learn , T j = 1.
前記各論理回路からの出力を加算する加算器と、
前記加算器からの出力に対してビットシフトを行って前記学習係数αOの乗算を行い、誤差ΔTjを算出するシフト演算器と、
前記シフト演算器から出力された誤差ΔTjと中間層からの出力Hj(t)とを比較して、上記ルール(1)〜(3)に従って教師信号Tjを出力する比較器と、
を備えることを特徴とする請求項6記載の演算回路。 When k is the neuron number of the output layer (k = 1 to K), T O k = 0 and T k from the teacher signal T O k , the output signal O k and the connection weight w O kj (t) 0 when O k = 0, the -w O kj (t) when T O k = 0 and O k = 1, when T O k = 1 and O k = 0 w O kj a (t), K logic circuits that output 0 when T O k = 1 and O k = 1,
An adder for adding outputs from the logic circuits;
A shift computing unit that performs bit shift on the output from the adder and multiplies the learning coefficient α O to calculate an error ΔT j ;
A comparator that compares the error ΔT j output from the shift calculator with the output H j (t) from the intermediate layer and outputs the teacher signal T j according to the rules (1) to (3);
The arithmetic circuit according to claim 6, further comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008298487A JP2010123072A (en) | 2008-11-21 | 2008-11-21 | Back propagation learning method for pulse neuron model |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008298487A JP2010123072A (en) | 2008-11-21 | 2008-11-21 | Back propagation learning method for pulse neuron model |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010123072A true JP2010123072A (en) | 2010-06-03 |
Family
ID=42324338
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008298487A Withdrawn JP2010123072A (en) | 2008-11-21 | 2008-11-21 | Back propagation learning method for pulse neuron model |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010123072A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101907448A (en) * | 2010-07-23 | 2010-12-08 | 华南理工大学 | Depth measurement method based on binocular three-dimensional vision |
JP2017538137A (en) * | 2014-12-15 | 2017-12-21 | バイドゥ・ユーエスエイ・リミテッド・ライアビリティ・カンパニーBaidu USA LLC | System and method for audio transcription |
DE102017129849A1 (en) | 2016-12-28 | 2018-06-28 | Toyo Tire & Rubber Co., Ltd. | Process for making a wet rubber masterbatch |
CN111699496A (en) * | 2018-03-14 | 2020-09-22 | 欧姆龙株式会社 | Neural network type image processing apparatus |
CN112541578A (en) * | 2020-12-23 | 2021-03-23 | 中国人民解放军总医院 | Retina neural network model |
CN113435577A (en) * | 2021-06-25 | 2021-09-24 | 安徽知陉智能科技有限公司 | Gradient function learning framework replacement method based on training deep pulse neural network |
CN114668408A (en) * | 2022-05-26 | 2022-06-28 | 中科南京智能技术研究院 | Membrane potential data generation method and system |
WO2022145232A1 (en) * | 2021-01-02 | 2022-07-07 | 天海 金 | Information processing device, information processing method, and program |
-
2008
- 2008-11-21 JP JP2008298487A patent/JP2010123072A/en not_active Withdrawn
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101907448A (en) * | 2010-07-23 | 2010-12-08 | 华南理工大学 | Depth measurement method based on binocular three-dimensional vision |
JP2017538137A (en) * | 2014-12-15 | 2017-12-21 | バイドゥ・ユーエスエイ・リミテッド・ライアビリティ・カンパニーBaidu USA LLC | System and method for audio transcription |
US11562733B2 (en) | 2014-12-15 | 2023-01-24 | Baidu Usa Llc | Deep learning models for speech recognition |
DE102017129849A1 (en) | 2016-12-28 | 2018-06-28 | Toyo Tire & Rubber Co., Ltd. | Process for making a wet rubber masterbatch |
DE102017129849B4 (en) | 2016-12-28 | 2022-02-24 | Toyo Tire & Rubber Co., Ltd. | Process for making a wet rubber masterbatch |
CN111699496A (en) * | 2018-03-14 | 2020-09-22 | 欧姆龙株式会社 | Neural network type image processing apparatus |
CN111699496B (en) * | 2018-03-14 | 2023-08-29 | 欧姆龙株式会社 | Neural network type image processing device, appearance inspection device, and appearance inspection method |
CN112541578A (en) * | 2020-12-23 | 2021-03-23 | 中国人民解放军总医院 | Retina neural network model |
WO2022145232A1 (en) * | 2021-01-02 | 2022-07-07 | 天海 金 | Information processing device, information processing method, and program |
CN113435577A (en) * | 2021-06-25 | 2021-09-24 | 安徽知陉智能科技有限公司 | Gradient function learning framework replacement method based on training deep pulse neural network |
CN113435577B (en) * | 2021-06-25 | 2023-12-26 | 安徽知陉智能科技有限公司 | Gradient function learning framework replacement method based on training deep pulse neural network |
CN114668408A (en) * | 2022-05-26 | 2022-06-28 | 中科南京智能技术研究院 | Membrane potential data generation method and system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010123072A (en) | Back propagation learning method for pulse neuron model | |
Andersson et al. | Deep convolutional networks in system identification | |
KR102616351B1 (en) | Apparatus and method for student-teacher transfer learning network using knowledge bridge | |
US11449684B2 (en) | Contrastive pre-training for language tasks | |
Hughes et al. | Recurrent neural networks for voice activity detection | |
CN107301864A (en) | A kind of two-way LSTM acoustic models of depth based on Maxout neurons | |
WO2016101688A1 (en) | Continuous voice recognition method based on deep long-and-short-term memory recurrent neural network | |
CN108734276A (en) | A kind of learning by imitation dialogue generation method generating network based on confrontation | |
CN108292305A (en) | Method for handling sentence | |
CN108269569A (en) | Audio recognition method and equipment | |
CN107293288A (en) | A kind of residual error shot and long term remembers the acoustic model modeling method of Recognition with Recurrent Neural Network | |
KR20160089210A (en) | Method and apparatus for training language model, method and apparatus for recognizing language | |
KR101624926B1 (en) | Speech recognition method using feature compensation based on deep neural network | |
KR20160134019A (en) | Method for training top-down selective attention in artificial neural networks | |
CN107871496A (en) | Audio recognition method and device | |
Nugaliyadde et al. | Language modeling through Long-Term memory network | |
CN106203628A (en) | A kind of optimization method strengthening degree of depth learning algorithm robustness and system | |
CN114912142A (en) | Data desensitization method and device, electronic equipment and storage medium | |
CN114861980A (en) | BP-LSTM model-based carbon prediction method | |
CN113821724A (en) | Graph neural network recommendation method based on time interval enhancement | |
CN112287120A (en) | Knowledge inference method of dual-system knowledge graph based on reinforcement learning | |
JP2545982B2 (en) | Pattern recognition method and standard pattern learning method | |
WO2003096270A1 (en) | Information processing apparatus and method | |
Binh et al. | A high-performance speech-recognition method based on a nonlinear neural network | |
KR20200063318A (en) | Apparatus and method for generating predictive information based on time |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20120207 |