JP2010123072A - Back propagation learning method for pulse neuron model - Google Patents

Back propagation learning method for pulse neuron model Download PDF

Info

Publication number
JP2010123072A
JP2010123072A JP2008298487A JP2008298487A JP2010123072A JP 2010123072 A JP2010123072 A JP 2010123072A JP 2008298487 A JP2008298487 A JP 2008298487A JP 2008298487 A JP2008298487 A JP 2008298487A JP 2010123072 A JP2010123072 A JP 2010123072A
Authority
JP
Japan
Prior art keywords
neuron model
output
pulse
layer
pulse neuron
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008298487A
Other languages
Japanese (ja)
Inventor
Akira Iwata
彰 岩田
Susumu Kuroyanagi
奨 黒柳
Kaname Iwasa
要 岩佐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagoya Institute of Technology NUC
Original Assignee
Nagoya Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagoya Institute of Technology NUC filed Critical Nagoya Institute of Technology NUC
Priority to JP2008298487A priority Critical patent/JP2010123072A/en
Publication of JP2010123072A publication Critical patent/JP2010123072A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a back propagation learning method applicable to a hierarchal pulse neural network. <P>SOLUTION: In this back propagation learning method for pulse neuron model, a teacher signal is generated using the duality of the pulse neuron model, and learning is performed using the teacher signal. By generating the teacher signal using the duality of the pulse neuron model, calculation of differentiating an error function is not required, and the method becomes applicable to the hierarchal pulse neural network. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、ニューラルネットワークのためのバックプロパゲーション学習方法に関し、特に、パルスニューロンモデルにより構築されたニューラルネットワーク(以下、「パルスニューラルネットワーク」という。)に適したバックプロパゲーション学習法に関する。   The present invention relates to a back-propagation learning method for a neural network, and more particularly, to a back-propagation learning method suitable for a neural network constructed by a pulse neuron model (hereinafter referred to as “pulse neural network”).

ニューラルネットワークで一般的な非線形問題を解くためには、入力層と出力層との間に中間層を有する3階層以上の階層型ニューラルネットワークにする必要があり、階層型ニューラルネットワークの学習法としてはバックプロパゲーション法(誤差逆伝播法)が知られている。   In order to solve a general non-linear problem with a neural network, it is necessary to use a hierarchical neural network with three or more layers having an intermediate layer between an input layer and an output layer. A back propagation method (error back propagation method) is known.

また、パルスニューラルネットワークのための教師あり学習法として、下記非特許文献1に記載された手法がある。   As a supervised learning method for a pulse neural network, there is a method described in Non-Patent Document 1 below.

さらに、ディジタルパーセプトロンのための双対性を利用したバックプロパゲーション法として、下記非特許文献2に記載された手法がある。   Furthermore, as a back-propagation method using duality for a digital perceptron, there is a method described in Non-Patent Document 2 below.

なお、下記非特許文献3には、パルスニューロンモデルのハードウェア化手法が記載されている。
黒柳奨、岩田彰、「パルスニューロンモデルのための教師あり学習則」、電子情報通信学会技術研究報告、社団法人電子情報通信学会、1998年3月、NC97−151、p.95−102 山田 樹一、黒柳奨、岩田彰、「ニューロンモデルに存在する双対性を利用したニューラルネットワークのための教師あり学習手法」、電子情報通信学会論文誌(D−II)、2004年2月、第J87−D−II巻、第2号、p.399−406 二俣宣義、黒柳奨、岩田彰、「FPGAのためのパルスニューロンモデルの実装方法」、電子情報通信学会NC研究会技術研究報告、社団法人電子情報通信学会、2002年3月、NC2001−211、p.121−128
The following Non-Patent Document 3 describes a hardware method for a pulse neuron model.
Kuroyanagi Shu, Akira Iwata, “Supervised Learning Rules for Pulsed Neuron Model”, IEICE Technical Report, IEICE, March 1998, NC97-151, p. 95-102 K. Yamada, S. Kuroyanagi, Akira Iwata, "Supervised learning method for neural network using duality existing in neuron model", IEICE Transactions (D-II), February 2004, No. J87-D-II, No. 2, p. 399-406 Noriyoshi Futaki, Susumu Kuroyanagi, Akira Iwata, “Implementation Method of Pulsed Neuron Model for FPGA”, IEICE NC Research Technical Report, The Institute of Electronics, Information and Communication Engineers, March 2002, NC2001-211, p . 121-128

しかし、一般的に用いられているバックプロパゲーション法では、誤差を最小化することを目的とするため、誤差関数を微分する計算を行う。しかし、パルスニューロンモデルでは出力関数が微分不可能であるために、この計算ができず、一般的なバックプロパゲーション法を適用できないという問題があった。   However, the commonly used back-propagation method aims to minimize the error, and therefore performs a calculation that differentiates the error function. However, since the output function cannot be differentiated in the pulse neuron model, there is a problem that this calculation cannot be performed and a general back propagation method cannot be applied.

また、上記非特許文献1の手法は、入力層と出力層の2階層構造のみ考慮したものであり、階層型パルスニューラルネットワーク(3階層以上のパルスニューラルネットワーク)には適用できないという問題があった。   Further, the method of Non-Patent Document 1 considers only a two-layer structure of an input layer and an output layer, and has a problem that it cannot be applied to a hierarchical pulse neural network (a pulse neural network having three or more layers). .

さらに、上記非特許文献2の手法は、ディジタルパーセプトロンのための手法であり、入出力がパルスである階層型パルスニューラルネットワークに対する適用はなされていなかった。   Further, the technique of Non-Patent Document 2 is a technique for a digital perceptron and has not been applied to a hierarchical pulse neural network in which input / output is a pulse.

この発明は、上述した問題を解決するものであり、階層型パルスニューラルネットワークに適用可能なバックプロパゲーション学習法を提供することを目的とする。   An object of the present invention is to solve the above-described problem and to provide a back-propagation learning method applicable to a hierarchical pulse neural network.

本発明のパルスニューロンモデルのためのバックプロパゲーション学習法は、パルスニューロンモデルの双対性を利用して教師信号を生成し、該教師信号を用いて学習を行うことを特徴とする。   The back-propagation learning method for the pulse neuron model of the present invention is characterized in that a teacher signal is generated using the duality of the pulse neuron model and learning is performed using the teacher signal.

これによれば、階層型パルスニューラルネットワークに適用可能なバックプロパゲーション学習法を提供できる。   According to this, a back-propagation learning method applicable to a hierarchical pulse neural network can be provided.

ここで、請求項2記載のように、中間層のj番目のパルスニューロンモデルに与えられる教師信号をT、前記中間層を前段としたときの後段の層(以下、「出力層」という。)のk番目のパルスニューロンモデルの出力電位をp (t)(但し、tは時間)、前記出力層のk番目のパルスニューロンモデルの教師電位をp (t)、前記中間層のj番目のパルスニューロンモデルの出力をH(t)、前記中間層のj番目のパルスニューロンモデルと前記出力層のk番目のパルスニューロンモデルとの間の結合重みをw kj(t)、学習係数をα、前記出力層のパルスニューロンモデルの数をK、経過時間をA、膜電位の減衰定数をβ≡exp(−1/τ)(但し、τは入力電位の時定数)としたとき、下記[数12]により計算される教師信号Tにより前記中間層のj番目のパルスニューロンモデルが学習を行うこととできる。 Here, as described in claim 2, the teacher signal given to the j-th pulse neuron model of the intermediate layer is T j , and the latter layer when the intermediate layer is the previous stage (hereinafter referred to as “output layer”). ), The output potential of the kth pulse neuron model of the output layer is p O k (t) (where t is time), the teacher potential of the kth pulse neuron model of the output layer is p T k (t), and the intermediate layer H j (t) is the output of the jth pulse neuron model of the first layer, and w O kj (t) is the connection weight between the jth pulse neuron model of the intermediate layer and the kth pulse neuron model of the output layer. , The learning coefficient is α O , the number of pulse neuron models in the output layer is K, the elapsed time is A, the membrane potential decay constant is β≡exp (−1 / τ) (where τ is the time constant of the input potential) When the following [Equation 12] Ri j th pulse neuron model of the intermediate layer by calculated the teacher signal T j can and to perform learning.

Figure 2010123072
また、請求項3記載のように、中間層のj番目のパルスニューロンモデルに与えられる教師信号をT、出力層のk番目のパルスニューロンモデルの出力電位をp (t)(但し、tは時間)、前記出力層のk番目のパルスニューロンモデルの教師電位をp (t)、前記中間層のj番目のパルスニューロンモデルの出力をH(t)、前記中間層のj番目のパルスニューロンモデルと前記出力層のk番目のパルスニューロンモデルとの間の結合重みをw kj(t)、学習係数をα、前記出力層のパルスニューロンモデルの数をK、学習のための閾値をθlearnとしたとき、下記[数13]のように定義された誤差ΔTを計算し、下記(1)〜(3)に従って教師信号Tを決定し、該教師信号Tにより前記中間層のj番目のパルスニューロンモデルを学習させることとしてもよい。
Figure 2010123072
Further, as described in claim 3, the teacher signal given to the j-th pulse neuron model in the intermediate layer is T j , and the output potential of the k-th pulse neuron model in the output layer is p O k (t) (where t is time), the teacher potential of the k-th pulse neuron model of the output layer is p T k (t), the output of the j-th pulse neuron model of the intermediate layer is H j (t), j of the intermediate layer The connection weight between the kth pulse neuron model of the output layer and the kth pulse neuron model of the output layer is w O kj (t), the learning coefficient is α O , the number of pulse neuron models of the output layer is K, When the threshold value for the learning is θ learn , an error ΔT j defined as in the following [Equation 13] is calculated, the teacher signal T j is determined according to the following (1) to (3), and the teacher signal T j J of the intermediate layer It may be learned eye pulse neuron model.

Figure 2010123072
(1)|ΔT|≦θlearnの場合、T=H(t)とする。
Figure 2010123072
(1) When | ΔT j | ≦ θ learn , T j = H j (t).

(2)ΔT<−θlearnの場合、T=0とする。 (2) When ΔT j <−θ learn , T j = 0.

(3)ΔT>θlearnの場合、T=1とする。 (3) When ΔT j > θ learn , T j = 1.

また、請求項4記載のように、中間層のj番目のパルスニューロンモデルに与えられる教師信号をT、出力層のk番目のパルスニューロンモデルの時間tにおける出力信号をO、前記出力層のk番目のパルスニューロンモデルへの時間tにおける教師信号をT 、前記中間層のj番目のパルスニューロンモデルの出力をH(t)、前記中間層のj番目のパルスニューロンモデルと前記出力層のk番目のパルスニューロンモデルとの間の結合重みをw kj(t)、学習係数をα、前記出力層のパルスニューロンモデルの数をK、学習のための閾値をθlearnとしたとき、下記[数15]のように定義された誤差ΔTを計算し、下記(1)〜(3)に従って教師信号Tを決定し、該教師信号Tにより前記中間層のj番目のパルスニューロンモデルを学習させることとしてもよい。 In addition, as described in claim 4, the teacher signal given to the jth pulse neuron model of the intermediate layer is T j , the output signal at time t of the kth pulse neuron model of the output layer is O k , and the output layer the k-th T O k teacher signal at time t to the pulse neuron model, the output H j of the j-th pulse neuron model of the intermediate layer (t), the a j-th pulse neuron model of the intermediate layer The connection weight with the k-th pulse neuron model in the output layer is w O kj (t), the learning coefficient is α O , the number of pulse neuron models in the output layer is K, and the learning threshold is θ learn when, to calculate the defined error [Delta] T j as follows Equation 15], the following (1) to determine the teacher signal T j in accordance with ~ (3), j th of said intermediate layer by該教teacher signal T j It may be learned pulsed neuron model.

Figure 2010123072
(1)|ΔT|≦θlearnの場合、T=H(t)とする。
Figure 2010123072
(1) When | ΔT j | ≦ θ learn , T j = H j (t).

(2)ΔT<−θlearnの場合、T=0とする。 (2) When ΔT j <−θ learn , T j = 0.

(3)ΔT>θlearnの場合、T=1とする。 (3) When ΔT j > θ learn , T j = 1.

本発明の学習・識別装置は、上記いずれかのパルスニューロンモデルのためのバックプロパゲーション学習法により学習を行い、入力データを識別することを特徴とする。   The learning / identification apparatus of the present invention is characterized in that learning is performed by the back-propagation learning method for any one of the above-described pulse neuron models, and input data is identified.

本発明の演算回路は、請求項4記載のパルスニューロンモデルのためのバックプロパゲーション学習法の教師信号Tを生成することを特徴とする。 The arithmetic circuit according to the present invention is characterized by generating a teacher signal T j of a back-propagation learning method for a pulse neuron model according to claim 4.

例えば、上記演算回路は、kを前記出力層のニューロン番号(k=1〜K)としたとき、前記教師信号T と前記出力信号Oと前記結合重みw kj(t)とから、T =0かつO=0のとき0を、T =0かつO=1のとき−w kj(t)を、T =1かつO=0のときw kj(t)を、T =1かつO=1のとき0を出力するK個の論理回路と、前記各論理回路からの出力を加算する加算器と、前記加算器からの出力に対してビットシフトを行って前記学習係数αの乗算を行い、誤差ΔTを算出するシフト演算器と、前記シフト演算器から出力された誤差ΔTと中間層からの出力H(t)とを比較して、上記ルール(1)〜(3)に従って教師信号Tを出力する比較器と、を備えるものとすることができる。 For example, in the arithmetic circuit, when k is a neuron number (k = 1 to K) of the output layer, the arithmetic signal T O k , the output signal O k, and the connection weight w O kj (t) are used. , T O k = 0 and O k = 0, 0 when T O k = 0 and O k = 1, -w O kj (t), w when T O k = 1 and O k = 0 O kj (t) is K logic circuits that output 0 when T O k = 1 and O k = 1, an adder that adds outputs from the respective logic circuits, and an output from the adder performs multiplication of the learning coefficient alpha O performing a bit shift with respect to the error [Delta] t and a shift computing unit for calculating a j, output H j (t from the error [Delta] t j and the intermediate layer output from the shift calculator ) by comparing the, a comparator for outputting a teacher signal T j according to the above rule (1) to (3), It can be made with.

本発明のバックプロパゲーション学習法によれば、誤差関数を微分する計算が必要でなく、階層型パルスニューラルネットワークに適用可能である。   According to the back-propagation learning method of the present invention, calculation for differentiating the error function is not required, and the method can be applied to a hierarchical pulse neural network.

〔第1実施形態〕
まず、第1実施形態に係るバックプロパゲーション学習法である提案手法1について説明する。提案手法1では、図1に示すような従来のパルスニューロンモデル(上記非特許文献1参照)に対して、図2に示すように、出力電位p(t)を計算・保持する部分と、教師電位p(t)を計算・保持する部分と、固定値で上昇する入力電位(入力ポテンシャル)Inp(t)を計算・保持する部分とを構成要素として加えた新規なパルスニューロンモデルを用いる。
[First Embodiment]
First, the proposed method 1, which is a back-propagation learning method according to the first embodiment, will be described. In the proposed method 1, as shown in FIG. 2, a part for calculating and holding the output potential p O (t) as compared with the conventional pulse neuron model (see Non-Patent Document 1) as shown in FIG. A new pulse neuron model in which a part for calculating and holding the teacher potential p T (t) and a part for calculating and holding the input potential (input potential) Inp k (t) rising at a fixed value are added as components. Use.

図2に示すパルスニューロンモデルでは、図1に示すパルスニューロンモデルと同様に、入力パルスIN(t)がk番目のシナプスに到着したとき、局所膜電位p(t)が結合重みwの値だけ増加する。局所膜電位p(t)は、時間の経過とともに次式[数1]に従って減少する。そして、パルスニューロンモデルの内部電位I(t)は次式[数2]によって計算され、出力o(t)は、次式[数3]によって計算される。なお、τは時定数、nは入力の総数、θは閾値、Hは単位ステップ関数(unit step function)であり、tは時間でΔt=1とする。 In the pulse neuron model shown in FIG. 2, as in the pulse neuron model shown in FIG. 1, when the input pulse IN k (t) arrives at the k-th synapse, the local membrane potential p k (t) becomes the connection weight w k. Increase by the value of. The local membrane potential p k (t) decreases according to the following equation [Equation 1] with the passage of time. The internal potential I (t) of the pulse neuron model is calculated by the following equation [Equation 2], and the output o (t) is calculated by the following equation [Equation 3]. Note that τ is a time constant, n is the total number of inputs, θ is a threshold value, H is a unit step function, t is time, and Δt = 1.

Figure 2010123072
Figure 2010123072

Figure 2010123072
Figure 2010123072

Figure 2010123072
また、図2に示すパルスニューロンモデルにおいては、入力パルス「1」がk番目のシナプスに到達すると、入力ポテンシャルInp(t)は固定重み1だけ増加し、時定数τで減衰する(下記[数9]参照)。出力電位p(t)は、パルスニューロンモデルが発火したとき固定重み1だけ増加し、時定数τで上記[数1]と同様に減衰する。教師電位p(t)は、教師信号「1」を受け取ったとき固定重みwだけ増加し、時定数τで上記[数1]と同様に減衰する。
Figure 2010123072
In the pulse neuron model shown in FIG. 2, when the input pulse “1” reaches the k-th synapse, the input potential Inp k (t) increases by a fixed weight 1 and attenuates with a time constant τ (see below [ (See Equation 9]). The output potential p O (t) increases by a fixed weight 1 when the pulse neuron model is ignited, and attenuates in the same manner as in [Equation 1] with the time constant τ O. When the teacher signal “1” is received, the teacher potential p T (t) increases by a fixed weight w T and is attenuated by the time constant τ T in the same manner as in the above [Equation 1].

提案手法1では、以上のように構成されたパルスニューロンモデルの双対性を利用する。ニューロンモデルの双対性については上記非特許文献2に記載されているが、ここで簡単に説明すると、一般的なニューロンモデルの出力は次式[数4]で計算される。   In Proposed Method 1, the duality of the pulse neuron model configured as described above is used. The duality of the neuron model is described in Non-Patent Document 2 described above. To explain briefly, the output of a general neuron model is calculated by the following equation [Equation 4].

Figure 2010123072
なお、上記[数4]及び以下の[数5]〜[数7]において、wは結合重みベクトル、iは入力ベクトル、θは結合重み以外のパラメタのベクトル、fは出力関数である。出力が結合重みベクトルと入力ベクトルの内積で決まるニューロンモデルは双対性を有しており、その出力は、次式[数5]に示すように、結合重みベクトルwと入力ベクトルiの値を入れ替えた双対ニューロンモデルの出力と同じである。
Figure 2010123072
In the above [Equation 4] and the following [Equation 5] to [Equation 7], w is a coupling weight vector, i is an input vector, θ is a vector of parameters other than the coupling weight, and f is an output function. The neuron model whose output is determined by the inner product of the connection weight vector and the input vector has duality, and the output replaces the values of the connection weight vector w and the input vector i as shown in the following formula [5]. This is the same as the output of the dual neuron model.

Figure 2010123072
パルスニューロンモデルも、上記式[数1]〜[数3]から分かるように、双対性を有し、結合重みwと入力INとは交換可能である。
Figure 2010123072
The pulse neuron model also has duality as can be seen from the above equations [Expression 1] to [Expression 3], and the connection weight w k and the input IN k can be exchanged.

次式[数6]は、結合重みベクトルの更新に用いられる関数であるが、次式[数7]に示すように、ニューロンモデルの双対性により入力ベクトルの更新にも同じ関数が使用できる。なお、wnewは更新後の結合重みベクトルであり、inewは更新後の入力ベクトルである。 The following equation [Equation 6] is a function used for updating the connection weight vector, but as shown in the following equation [Equation 7], the same function can also be used for updating the input vector due to the duality of the neuron model. Note that w new is the updated connection weight vector, and i new is the updated input vector.

Figure 2010123072
Figure 2010123072

Figure 2010123072
双対性を有するニューロンモデルに対して、ある学習則に基づく関数gによって、望ましい結合重みが求められるとき、関数gの引数の結合重みベクトルと入力ベクトルとを入れ替えることで、望ましい入力を求めることができる。ニューロンモデルに対する望ましい入力は、その前段のニューロンモデルの望ましい出力、すなわち、教師信号となる。
Figure 2010123072
When a desired connection weight is obtained for a neuron model having duality by a function g based on a certain learning rule, a desired input can be obtained by replacing the connection weight vector of the argument of the function g and the input vector. it can. A desirable input to the neuron model is a desirable output of the preceding neuron model, that is, a teacher signal.

以上のことを踏まえて、提案手法1について説明する。以下の説明において、H(t)は中間層のj番目のパルスニューロンモデルの出力、Inp(t)は中間層のj番目のパルスニューロンモデルからの入力による入力ポテンシャル、p (t)は出力層(すなわち、前記中間層を前段としたときの後段の層)のk番目のパルスニューロンモデルの出力電位、p (t)は出力層のk番目のパルスニューロンモデルの教師電位、w kj(t)は中間層のj番目のパルスニューロンモデルと出力層のk番目のパルスニューロンモデルとの間の結合重み、αは学習係数である。 Based on the above, the proposed method 1 will be described. In the following description, H j (t) is the output of the jth pulse neuron model of the intermediate layer, Inp j (t) is the input potential from the jth pulse neuron model of the intermediate layer, and p O k (t ) Is the output potential of the kth pulse neuron model of the output layer (that is, the subsequent layer when the intermediate layer is the previous stage), and p T k (t) is the teacher potential of the kth pulse neuron model of the output layer. , W O kj (t) is a connection weight between the j-th pulse neuron model in the intermediate layer and the k-th pulse neuron model in the output layer, and α O is a learning coefficient.

パルスニューロンモデルの重みの更新は、上記非特許文献1の記載からも分かるように、次式[数8]で表せる。   The update of the weight of the pulse neuron model can be expressed by the following equation [Equation 8], as can be seen from the description of Non-Patent Document 1.

Figure 2010123072
Inp(t)は、次式[数9]で更新される。
Figure 2010123072
Inp j (t) is updated by the following equation [Equation 9].

Figure 2010123072
τを定数とすると、βも定数となる。また、Aは経過時間である。[数9]により、[数8]は次式[数10]のように書き換えられる。
Figure 2010123072
If τ is a constant, β is also a constant. A is the elapsed time. From [Equation 9], [Equation 8] can be rewritten as the following equation [Equation 10].

Figure 2010123072
ここで、Hは中間層のj番目のパルスニューロンモデルから出力層のk番目のパルスニューロンモデルへの入力に相当するので、パルスニューロンモデルの双対性から、w kjとHとを入れ替えることにより、中間層のj番目のパルスニューロンモデルから出力層のk番目のパルスニューロンモデルへの望ましい入力Tkjが次式[数11]で求められることとなる。
Figure 2010123072
Here, since H j corresponds to an input from the j-th pulse neuron model in the intermediate layer to the k-th pulse neuron model in the output layer, w O kj and H j are switched from the duality of the pulse neuron model. Thus, a desirable input T kj from the j-th pulse neuron model of the intermediate layer to the k-th pulse neuron model of the output layer is obtained by the following equation [Equation 11].

Figure 2010123072
そして、望ましい入力Tkjをk=1〜K(K:出力層のパルスニューロンモデルの総数)について集めたものが、中間層のj番目のパルスニューロンモデルの望ましい出力、すなわち、中間層のj番目のパルスニューロンモデルに対する教師信号Tとなることから、中間層のj番目のパルスニューロンモデルに対する教師信号Tは次式[数12]で計算できる。
Figure 2010123072
A collection of desirable inputs T kj for k = 1 to K (K: the total number of pulse neuron models in the output layer) is the desired output of the j th pulse neuron model in the intermediate layer, that is, the j th in the intermediate layer. since the teacher signal T j of relative pulse neuron model, the teacher signal T j for the j-th pulse neuron model of the intermediate layer can be calculated by the following formula [formula 12].

Figure 2010123072
提案手法1は、上記[数12]により計算される教師信号Tにより、中間層のj番目のパルスニューロンモデルを学習させる。すなわち、提案手法1では、前段の層の出力(すなわち、後段の層の入力)H、後段の層の出力電位p 、後段の層の教師電位p 、及び、前段の層と後段の層との間の結合重みw kjから、前段の層の教師信号を算出して、その教師信号により前段の層を学習させる。
Figure 2010123072
In Proposed Method 1, the j-th pulse neuron model of the intermediate layer is learned by the teacher signal T j calculated by the above [Equation 12]. That is, in the proposed method 1, the output of the preceding layer (that is, the input of the succeeding layer) H j , the output potential p O k of the succeeding layer, the teacher potential p T k of the succeeding layer, and the preceding layer A teacher signal of the preceding layer is calculated from the connection weight w O kj with the succeeding layer, and the preceding layer is learned by the teacher signal.

かかる提案手法1を用いて学習を行い、入力データを識別する学習・識別装置の構成例を図3に示す。図3は、入力層1、中間層2、及び、出力層3を有した3階層のパルスニューラルネットワークの例であるが、中間層2のパルスニューロンモデルの数Jと同じ数の教師信号生成素子5を有する教師信号生成素子層4を備えている。出力層3のパルスニューロンモデルの数はKとする。中間層2からの出力H、出力層3からの出力O、及び、出力層3に与えられる教師信号Tは、各教師信号生成素子5にも与える。なお、中間層2にはバイアス入力が与えられる。また、出力層の各パルスニューロンモデルの重み(結合重み)は、対応する教師信号生成素子5にコピーされる。入力層1の各パルスニューロンモデルは図1に示すパルスニューロンモデルであり、中間層2及び出力層3の各パルスニューロンモデルは図2に示すパルスニューロンモデルである。なお、入力層1は、入力パルスをそのままのパターンで中間層2に与えるように構成されている。 FIG. 3 shows a configuration example of a learning / identification device that performs learning using the proposed method 1 and identifies input data. FIG. 3 shows an example of a three-layer pulse neural network having an input layer 1, an intermediate layer 2, and an output layer 3. The number of teacher signal generation elements is the same as the number J of pulse neuron models in the intermediate layer 2. A teacher signal generation element layer 4 having 5 is provided. The number of pulse neuron models in the output layer 3 is K. The output H j from the intermediate layer 2, the output O k from the output layer 3, and the teacher signal T k given to the output layer 3 are also given to each teacher signal generation element 5. A bias input is given to the intermediate layer 2. Further, the weight (connection weight) of each pulse neuron model in the output layer is copied to the corresponding teacher signal generation element 5. Each pulse neuron model of the input layer 1 is a pulse neuron model shown in FIG. 1, and each pulse neuron model of the intermediate layer 2 and the output layer 3 is a pulse neuron model shown in FIG. The input layer 1 is configured to give the input pulse to the intermediate layer 2 in the same pattern.

そして、この学習・識別装置の学習時の動作について、図4に基づいて説明すると、この学習・識別装置は、処理開始後、まず、入力層1、中間層2、及び、出力層3の各パルスニューロンモデルを初期化する(ステップS101)。次に、出力層3の各重みw kj(t)(k=1〜K)を、j番目の教師信号生成素子5にコピーする(S102)。なお、j=1〜Jである。 The operation of the learning / identification device at the time of learning will be described with reference to FIG. 4. After the processing starts, the learning / identification device starts with each of the input layer 1, the intermediate layer 2, and the output layer 3. The pulse neuron model is initialized (step S101). Next, each weight w O kj (t) (k = 1 to K) of the output layer 3 is copied to the j-th teacher signal generation element 5 (S102). Note that j = 1 to J.

そして、学習を開始し(S103)、入力層1、中間層2、及び、出力層3の各素子(パルスニューロンモデル)が従来通りの前向き演算を行う(S104)。出力層3の各素子は、外部から与えられた教師信号T (t)を元に重みw kj(t)を更新する(S105)。一方、各教師信号生成素子5は、コピーしておいた重みw kj(t)と、出力層3からの出力O(t)と、教師信号T (t)とから上記[数12]に従って教師信号T(t)を計算し出力する(S106)。なお、学習係数αは、予め各教師信号生成素子5に与えられているものとする。ステップS106で求められた教師信号T(t)は、中間層2のj番目の素子に与えられ、中間層2の各素子はこの教師信号T(t)に基づいて重みを更新する(S107)。ステップS105〜107を終えると、ステップS102に戻って、以下、所定の学習回数、ステップS102〜107を繰り返す。 Then, learning is started (S103), and each element (pulse neuron model) in the input layer 1, the intermediate layer 2, and the output layer 3 performs a forward-looking calculation as usual (S104). Each element of the output layer 3 updates the weight w O kj (t) based on the teacher signal T O k (t) given from the outside (S105). On the other hand, each teacher signal generation element 5 calculates the above [number] from the copied weight w O kj (t), the output O k (t) from the output layer 3, and the teacher signal T O k (t). 12], the teacher signal T j (t) is calculated and output (S106). It is assumed that the learning coefficient α O is previously given to each teacher signal generation element 5. The teacher signal T j (t) obtained in step S106 is given to the j-th element of the intermediate layer 2, and each element of the intermediate layer 2 updates the weight based on the teacher signal T j (t) ( S107). When steps S105 to 107 are completed, the process returns to step S102, and thereafter, steps S102 to 107 are repeated for a predetermined number of times of learning.

なお、図3に示す構成例、及び、図4に示す動作フローは、後述する提案手法2及び提案手法3にも適用可能であるが、後述するように、提案手法2では下記[数13]、提案手法3では下記[数15]に従って、誤差ΔTを計算し、下記ルール(1)〜(3)に従って教師信号T(t)を出力する。 The configuration example shown in FIG. 3 and the operation flow shown in FIG. 4 are also applicable to the proposed method 2 and the proposed method 3, which will be described later. In the proposed method 3, the error ΔT j is calculated according to the following [Equation 15], and the teacher signal T j (t) is output according to the following rules (1) to (3).

提案手法1によれば、誤差関数を微分する一般的なバックプロパゲーション法とは全く異なった手法で、階層型パルスニューラルネットワークを学習させることができる。   According to the proposed method 1, the hierarchical pulse neural network can be learned by a method completely different from a general back-propagation method for differentiating an error function.

〔第2実施形態〕
次に、提案手法1を改良した第2実施形態に係る提案手法2について説明する。上記[数12]では、教師信号Tは実数値となってしまい、そのままではパルスニューロンモデルによる扱いが容易とは言えない。そこで、β≡exp(−1/τ)<1であり、a=0の場合以外は、βは十分小さく、β kj(t−a)は無視できるとして、[数12]を次式[数13]のように変換する。
[Second Embodiment]
Next, a proposed method 2 according to the second embodiment obtained by improving the proposed method 1 will be described. In the above [Equation 12], the teacher signal T j becomes a real value, and as it is, it cannot be easily handled by the pulse neuron model. Therefore, assuming that β≡exp (−1 / τ) <1, β a is sufficiently small, and β a w O kj (ta) is negligible except for a = 0, [Equation 12] It converts like following Formula [Formula 13].

Figure 2010123072
そして、ΔTと学習のための閾値θlearn(≧0)を用いて、次の(1)〜(3)のように教師信号Tを出力する。
Figure 2010123072
Then, using ΔT j and the learning threshold θ learn (≧ 0), the teacher signal T j is output as in the following (1) to (3).

(1)|ΔT|≦θlearnの場合、H(t)は望ましい出力Tに一致しているとして、T=H(t)とし、学習を続ける。 (1) When | ΔT j | ≦ θ learn , it is assumed that H j (t) matches the desired output T j , T j = H j (t), and learning is continued.

(2)ΔT<−θlearnの場合、Hは望ましくない出力1であるので、T=0とし、中間層のj番目のパルスニューロンモデルが1を出力しないように、結合重みを更新する。 (2) When ΔT j <−θ learn , H j is an undesirable output 1, so T j = 0 and the connection weight is updated so that the jth pulse neuron model in the intermediate layer does not output 1 To do.

(3)ΔT>θlearnの場合、Hは出力1であるべきなので、T=1とし、中間層のj番目のパルスニューロンモデルが1を出力するように、結合重みを更新する。 (3) When ΔT j > θ learn , H j should be output 1, so T j = 1, and the connection weight is updated so that the j-th pulse neuron model in the intermediate layer outputs 1.

このように、提案手法2では、上記[数13]に従ってΔTを算出し、上記(1)〜(3)のルールに従ってTを定めて学習を行う。上記(1)〜(3)のルールによれば、教師信号Tがパルス(0または1)となるので、パルスニューロンモデルによる扱いが容易となり、ハードウェア化も容易となる。提案手法2の実験例を以下に示す。 As described above, in the proposed method 2, ΔT j is calculated according to the above [Equation 13], and learning is performed by determining T j according to the rules (1) to (3). According to the above rules (1) to (3), the teacher signal T j is a pulse (0 or 1), so that the handling by the pulse neuron model is facilitated and the hardware is also facilitated. An experimental example of the proposed method 2 is shown below.

〈実験1〉
実験1では、コンピュータ上にソフトウェアにより図3に示すような3階層型パルスニューラルネットワークを有した学習・識別装置を構成し、簡単な非線形問題としてXOR(排他的論理和)を学習し識別させた。実験に用いた各層の素子数、及び、各種パラメタは、表1のとおりである。なお、入力層の1素子は、常に1を中間層の素子に入力するバイアス入力のための素子である。
<Experiment 1>
In Experiment 1, a learning / identification device having a three-layer pulse neural network as shown in FIG. 3 was configured on a computer by software, and XOR (exclusive OR) was learned and identified as a simple nonlinear problem. . Table 1 shows the number of elements in each layer and various parameters used in the experiment. One element of the input layer is an element for bias input in which 1 is always input to the element of the intermediate layer.

Figure 2010123072
そして、図5の下段に示すように入力層に入力パルスを入力するとともに、図5の上段に示すように出力層に教師パルスTを与えて、提案手法2により学習を行った。図5において、X軸(横軸)は時間であり、Y軸(縦軸)はパルスニューロンモデルの番号(ニューロン番号)である。色の濃淡はパルス頻度を表し、白い部分は0(パルスが無い状態)を表し、色が濃いほどパルス頻度が高く、黒い部分は1(常にパルスがある状態)を表す。実験1では、XOR問題を学習するので、(ニューロン番号1の素子に与えられる信号,ニューロン番号2の素子に与えられる信号)と表記したとき、図5に示すように、入力が(0,0)の場合は教師信号(0,1)、入力が(1,0)の場合は教師信号(1,0)、入力が(0,1)の場合は教師信号(1,0)、入力が(1,1)の場合は教師信号(0,1)を与える。
Figure 2010123072
Then, an input pulse was input to the input layer as shown in the lower part of FIG. 5, and a teacher pulse T k was given to the output layer as shown in the upper part of FIG. In FIG. 5, the X-axis (horizontal axis) is time, and the Y-axis (vertical axis) is the pulse neuron model number (neuron number). The shade of the color represents the pulse frequency, the white part represents 0 (no pulse), the darker the color, the higher the pulse frequency, and the black part 1 (always with a pulse). In Experiment 1, since the XOR problem is learned, when expressed as (signal given to the element of neuron number 1, signal given to the element of neuron number 2), the input is (0, 0) as shown in FIG. ) Is the teacher signal (0, 1), the input is (1, 0), the teacher signal (1, 0), the input is (0, 1), the teacher signal (1, 0), and the input is In the case of (1, 1), a teacher signal (0, 1) is given.

かかる入力及び教師信号を用いて学習を行った後、図5と同じ入力パルスを入力し識別させたときの結果を図6に示す。図6は上から順に、中間層の教師パルス列、中間層の出力パルス列、出力層の教師パルス列、出力層の出力パルス列を表す。また、図6においては、図3と同様に、X軸は時間であり、Y軸はニューロン番号である。図6中ニューロン番号は省略されているが、出力層の出力パルス列、教師パルス列は、それぞれ下から順に番号1、2であり、中間層の出力パルス列、教師パルス列は、それぞれ、下から順に番号1、2、3、4である。また、色の濃淡は図5と同様にパルス頻度を表す。図6から、出力層の出力パルス列は、パルス頻度は全体に少ないものの、出力層に対する教師パルス列にパターンが一致しており、学習の結果正しい識別を行うようになったことが分かる。   FIG. 6 shows the result when the same input pulse as that in FIG. 5 is input and discriminated after learning using the input and the teacher signal. FIG. 6 shows, in order from the top, an intermediate layer teacher pulse train, an intermediate layer output pulse train, an output layer teacher pulse train, and an output layer output pulse train. In FIG. 6, as in FIG. 3, the X axis is time, and the Y axis is a neuron number. In FIG. 6, the neuron number is omitted, but the output pulse train and teacher pulse train of the output layer are numbers 1 and 2 in order from the bottom, and the output pulse train and teacher pulse train of the intermediate layer are number 1 in order from the bottom. 2, 3, 4 The color shading represents the pulse frequency as in FIG. FIG. 6 shows that although the output pulse train of the output layer has a low pulse frequency as a whole, the pattern coincides with the teacher pulse train for the output layer, and correct identification is performed as a result of learning.

〈実験2〉
実験2では、コンピュータ上にソフトウェアにより図3に示すような3階層型パルスニューラルネットワークを有した学習・識別装置を構成し、目覚まし時計のアラーム音(以下、「アラーム」という。)、インターフォンの呼び出し音(以下、「インターフォン」という。)、笛吹きケトルの沸騰音(以下、「ケトル」という。)、電話のベル音(以下、「電話」という。)、人の声、及び、ホワイトノイズの6種の音を周波数帯域毎のパルス列に変換した音データを入力して、提案手法2により学習させた。実験に用いた各層の素子数、及び、各種パラメタは、表2のとおりである。なお、入力層の1素子は、バイアス入力のための素子である。出力層は、上記6種の音を学習する6つの素子を有する。

Figure 2010123072
<Experiment 2>
In Experiment 2, a learning / identification device having a three-layered pulse neural network as shown in FIG. 3 is configured on a computer by software, and an alarm clock alarm sound (hereinafter referred to as “alarm”) and interphone call are configured. Sound (hereinafter referred to as “interphone”), boiling sound of whistling kettle (hereinafter referred to as “kettle”), telephone bell sound (hereinafter referred to as “telephone”), human voice, and white noise. Sound data obtained by converting six kinds of sounds into a pulse train for each frequency band was input and learned by Proposed Method 2. Table 2 shows the number of elements in each layer and various parameters used in the experiment. One element of the input layer is an element for bias input. The output layer has six elements for learning the six types of sounds.
Figure 2010123072

学習後、学習に用いた6種の音データをそれぞれ入力して認識させた結果を、表3に示す。   Table 3 shows the results of inputting and recognizing the six types of sound data used for learning after learning.

Figure 2010123072
表3の数字は、左から順に、アラーム、インターフォン、ケトル、電話、人の声、ホワイトノイズを学習した素子の認識率(=出力層における全発火数に対する当該素子の発火数)を表す。例えば、入力信号がアラームであるとき、アラームを学習した素子の認識率は100%であり、他の素子の認識率は0%である。表3から、学習の結果、6種の音を略誤り無く認識できていることが分かる。
Figure 2010123072
The numbers in Table 3 represent, from the left, the recognition rate (= number of firings of the element relative to the number of all firings in the output layer) of learning an alarm, interphone, kettle, telephone, human voice, and white noise. For example, when the input signal is an alarm, the recognition rate of the element that has learned the alarm is 100%, and the recognition rate of the other elements is 0%. From Table 3, it can be seen that, as a result of learning, six types of sounds can be recognized without substantial error.

提案手法2によれば、学習の結果略正しい認識を行えるとともに、教師信号Tをパルスにすることができるので、パルスニューロンモデルによる扱いが容易であり、階層型パルスニューラルネットワークに好適である。 According to the proposed method 2, with perform substantially correct recognition result of learning, so the teacher signal T j may be a pulse, is easy to handle by the pulse neuron model is suitable for a hierarchical pulse neural network.

〔第3実施形態〕
次に、提案手法2を、階層型パルスニューラルネットワークのハードウェア化に好適なものとした第3実施形態に係る提案手法3について説明する。
[Third Embodiment]
Next, the proposed method 3 according to the third embodiment in which the proposed method 2 is suitable for hardware implementation of a hierarchical pulse neural network will be described.

提案手法2では、ΔTの計算がデジタル回路で実現するのに適していない。そこで、[数13]の出力電位p (t)、教師電位p (t)を、それぞれ、時間tにおける出力層のk番目のパルスニューロンモデルの出力信号O、時間tにおける出力層のk番目のパルスニューロンモデルへの教師信号T (Tとも表記。)に置き換えて、[数13]を次式[数14]のように変換する。O、T はいずれもパルス(0又は1)である。 In the proposed method 2, the calculation of ΔT j is not suitable for realization with a digital circuit. Therefore, the output potential p O k (t) and the teacher potential p T k (t) of [Equation 13] are output as the output signal O k of the k-th pulse neuron model of the output layer at time t and the output at time t, respectively. Substituting the teacher signal T O k (also expressed as T k ) for the k-th pulse neuron model of the layer, [Equation 13] is transformed into the following equation [Equation 14]. Both O k and T O k are pulses (0 or 1).

Figure 2010123072
そして、次式[数15]のようにΔTを定義し、学習のための閾値θlearnを用いて、上記(1)〜(3)のルールに従って教師信号Tを出力する。
Figure 2010123072
Then, ΔT j is defined as in the following equation [Formula 15], and the teacher signal T j is output according to the rules (1) to (3) using the threshold θ learn for learning.

Figure 2010123072
提案手法3は、上記[数15]を用いてΔTを計算し、閾値θlearnを用いて上記(1)〜(3)のように教師信号Tを中間層のj番目のパルスニューロンモデルに与えることを特徴とする。提案手法3を用いた実験例を以下に示す。
Figure 2010123072
The proposed method 3 calculates ΔT j using the above [Equation 15], and uses the threshold θ learn to convert the teacher signal T j into the j-th pulse neuron model of the intermediate layer as in the above (1) to (3). It is characterized by giving to. An experiment example using the proposed method 3 is shown below.

〈実験3〉
コンピュータ上にソフトウェアにより図3に示すような3階層型パルスニューラルネットワークを有した学習・識別装置を構成し、実験1と同様の実験を行った。すなわち、実験に用いた各層の素子数、及び、各種パラメタは、表1のとおりであり、図5の下段に示すように入力層に入力パルスを入力するとともに、図5の上段に示すように出力層に教師パルスTを与えて、提案手法3により学習を行った。
<Experiment 3>
A learning / identification apparatus having a three-layer pulse neural network as shown in FIG. 3 was configured on a computer by software, and an experiment similar to Experiment 1 was performed. That is, the number of elements in each layer and various parameters used in the experiment are as shown in Table 1. As shown in the lower part of FIG. 5, an input pulse is input to the input layer, and as shown in the upper part of FIG. The teaching pulse T k was given to the output layer, and learning was performed by the proposed method 3.

学習後、図5と同じ入力パルスを入力し識別させた結果を図7に示す。図7は、図6と同様に、上から順に、中間層の教師パルス列、中間層の出力パルス列、出力層の教師パルス列、出力層の出力パルス列を表し、X軸は時間、Y軸はニューロン番号であるが、ニューロン番号は省略されている。また、色の濃淡は図5と同様にパルス頻度を表す。図7から、出力層の出力パルス列は、パルス頻度は全体に少ないものの、出力層に対する教師パルス列にパターンが一致しており、学習の結果正しい識別を行うようになったことが分かる。   FIG. 7 shows the result of inputting and identifying the same input pulse as in FIG. 5 after learning. FIG. 7 shows the intermediate layer teacher pulse train, the intermediate layer output pulse train, the output layer teacher pulse train, and the output layer output pulse train in order from the top, as in FIG. 6, where the X axis is time, and the Y axis is the neuron number. However, the neuron number is omitted. The color shading represents the pulse frequency as in FIG. FIG. 7 shows that although the output pulse train of the output layer has a low pulse frequency as a whole, the pattern coincides with the teacher pulse train for the output layer, and correct identification is performed as a result of learning.

〈実験4〉
コンピュータ上にソフトウェアにより図3に示すような3階層型パルスニューラルネットワークを有した学習・識別装置を構成し、実験2と同様の実験を行った。すなわち、実験に用いた各層の素子数、及び、各種パラメタは、表2のとおりであり、実験2で用いたアラーム、インターフォン、ケトル、電話、人の声、及び、ホワイトノイズの6種の音から生成された音データを入力して、提案手法3により学習を行った。
<Experiment 4>
A learning / identification device having a three-layer pulse neural network as shown in FIG. 3 was configured on a computer by software, and an experiment similar to Experiment 2 was performed. In other words, the number of elements in each layer and various parameters used in the experiment are as shown in Table 2, and the six types of sounds of alarm, intercom, kettle, telephone, human voice, and white noise used in Experiment 2 were used. The sound data generated from the above is input and learning is performed by the proposed method 3.

学習後、学習に用いた6種の音データをそれぞれ入力して認識させた結果を、表4に示す。   Table 4 shows the results of inputting and recognizing the six types of sound data used for learning after learning.

Figure 2010123072
表4の数字は、左から順に、アラーム、インターフォン、ケトル、電話、人の声、ホワイトノイズを学習した素子の認識率を表す。表4から、学習の結果、6種の音を略誤り無く認識できていることが分かる。
Figure 2010123072
The numbers in Table 4 represent the recognition rate of elements that have learned alarms, intercoms, kettles, telephones, human voices, and white noise in order from the left. From Table 4, it can be seen that, as a result of learning, six types of sounds can be recognized without substantial error.

提案手法3によれば、学習の結果略正しい認識を行え、教師信号Tをパルスにすることができるとともに、ΔTの計算がデジタル回路で容易に実現できるため、階層型パルスニューラルネットワークのハードウェア化に好適である。 According to the proposed method 3, the learning signal can be recognized substantially correctly, the teacher signal T j can be converted into a pulse, and ΔT j can be easily calculated by a digital circuit. Therefore, the hardware of the hierarchical pulse neural network can be realized. Suitable for wear.

例えば、教師信号生成素子5は、図8に示すようにデジタル回路で実現可能である。図8において、符号10は、表5に示すように、教師パルスT と出力パルスOと重みw kj(t)とから0、w kj(t)または−w kj(t)を出力する論理回路であり、符号11は各論理回路10からの出力を加算する加算器であり、符号12は加算器11からの出力に対してαの乗算を実現するためのビットシフトを行うシフト演算器であり、符号13はシフト演算器12からの出力すなわちΔTと中間層からの出力Hとを比較して、上記ルール(1)〜(3)に従って、教師信号Tを出力する比較器である。なお、比較器13は、学習閾値θlearnを保有し又は入力として受け取る。 For example, the teacher signal generation element 5 can be realized by a digital circuit as shown in FIG. 8, reference numeral 10, as shown in Table 5, the teacher pulse T O k and the output pulse O k and a weight w O kj (t) from the 0, w O kj (t) or -w O kj (t ) Is an adder for adding outputs from the respective logic circuits 10, and reference numeral 12 is a bit shift for realizing α O multiplication on the output from the adder 11. The reference numeral 13 compares the output from the shift calculator 12, that is, ΔT j with the output H j from the intermediate layer, and in accordance with the rules (1) to (3), the teacher signal T j Is a comparator that outputs The comparator 13 holds or receives the learning threshold value θ learn as an input.

Figure 2010123072
また、図1、2に示すようなパルスニューロンモデルも、上記非特許文献3に記載されているように、デジタル回路で実現可能である。したがって、提案手法3によって学習し入力データを識別する学習・識別装置は、デジタル回路で実現可能である。
Figure 2010123072
The pulse neuron model as shown in FIGS. 1 and 2 can also be realized by a digital circuit as described in Non-Patent Document 3 above. Therefore, the learning / identification device that learns by the proposed method 3 and identifies input data can be realized by a digital circuit.

以上述べたように、提案手法3はデジタル回路において容易に実現可能であり、FPGA(Field Programmable Gate Arrays)上に実装することも可能である。すなわち、提案手法1〜3はいずれも一般のコンピュータ上でソフトウェアにより実現可能であるが、処理の高速化のためにはハードウェア化が望ましく、提案手法3は特にハードウェア化に好適である。   As described above, the proposed method 3 can be easily realized in a digital circuit, and can also be implemented on FPGA (Field Programmable Gate Arrays). That is, all of the proposed methods 1 to 3 can be realized by software on a general computer, but hardware is desirable for speeding up the processing, and the proposed method 3 is particularly suitable for hardware.

なお、提案手法1〜3は、勿論、上記出力層を更に中間層とするような、中間層を複数有した4階層以上の階層型パルスニューラルネットワークにも適用可能である。   The proposed methods 1 to 3 can of course be applied to a hierarchical pulse neural network having four or more layers having a plurality of intermediate layers, in which the output layer is an intermediate layer.

従来のパルスニューロンモデルの構成図である。It is a block diagram of the conventional pulse neuron model. 本発明の実施形態に係るパルスニューロンモデルの構成図である。It is a block diagram of the pulse neuron model which concerns on embodiment of this invention. 同実施形態に係る学習・識別装置の構成図である。It is a block diagram of the learning and identification apparatus which concerns on the same embodiment. 同実施形態に係る学習・識別装置の学習時の動作を示すフローチャートである。It is a flowchart which shows the operation | movement at the time of learning of the learning / identification apparatus based on the embodiment. 実験1及び実験3における入力層の入力パルス列及び出力層の教師パルス列を示す図である。It is a figure which shows the input pulse train of the input layer in Experiment 1 and Experiment 3, and the teacher pulse train of an output layer. 実験1における中間層の出力パルス列及び教師パルス列、及び、出力層の出力パルス列及び教師パルス列を示す図である。It is a figure which shows the output pulse train and teacher pulse train of the intermediate | middle layer in Experiment 1, and the output pulse train and teacher pulse train of an output layer. 実験3における中間層の出力パルス列及び教師パルス列、及び、出力層の出力パルス列及び教師パルス列を示す図である。It is a figure which shows the output pulse train and teacher pulse train of the intermediate | middle layer in Experiment 3, and the output pulse train and teacher pulse train of an output layer. 教師信号生成素子をデジタル回路化した例である。This is an example in which a teacher signal generation element is formed into a digital circuit.

符号の説明Explanation of symbols

1…入力層
2…中間層
3…出力層
4…教師電位生成素子層
5…教師電位生成素子
10…論理回路
11…加算器
12…シフト演算器
13…比較器
DESCRIPTION OF SYMBOLS 1 ... Input layer 2 ... Intermediate layer 3 ... Output layer 4 ... Teacher potential generation element layer 5 ... Teacher potential generation element 10 ... Logic circuit 11 ... Adder 12 ... Shift computing unit 13 ... Comparator

Claims (7)

パルスニューロンモデルの双対性を利用して教師信号を生成し、該教師信号を用いて学習を行うことを特徴とするパルスニューロンモデルのためのバックプロパゲーション学習法。   A back-propagation learning method for a pulse neuron model, characterized in that a teacher signal is generated using the duality of a pulse neuron model and learning is performed using the teacher signal. 中間層のj番目のパルスニューロンモデルに与えられる教師信号をT、前記中間層を前段としたときの後段の層(以下、「出力層」という。)のk番目のパルスニューロンモデルの出力電位をp (t)(但し、tは時間)、前記出力層のk番目のパルスニューロンモデルの教師電位をp (t)、前記中間層のj番目のパルスニューロンモデルの出力をH(t)、前記中間層のj番目のパルスニューロンモデルと前記出力層のk番目のパルスニューロンモデルとの間の結合重みをw kj(t)、学習係数をα、前記出力層のパルスニューロンモデルの数をK、経過時間をA、膜電位の減衰定数をβ≡exp(−1/τ)(但し、τは入力電位の時定数)としたとき、下記式により計算される教師信号Tにより前記中間層のj番目のパルスニューロンモデルが学習を行うことを特徴とする請求項1記載のパルスニューロンモデルのためのバックプロパゲーション学習法。
Figure 2010123072
The teacher signal given to the jth pulse neuron model of the intermediate layer is T j , and the output potential of the kth pulse neuron model of the subsequent layer (hereinafter referred to as “output layer”) when the intermediate layer is the previous stage. P O k (t) (where t is time), the teacher potential of the k-th pulse neuron model of the output layer is p T k (t), and the output of the j-th pulse neuron model of the intermediate layer is H j (t), the connection weight between the j-th pulse neuron model of the intermediate layer and the k-th pulse neuron model of the output layer is w O kj (t), the learning coefficient is α O , and the output layer When the number of pulse neuron models is K, the elapsed time is A, and the membrane potential decay constant is β≡exp (−1 / τ) (where τ is the time constant of the input potential), wherein in the signal T j Back propagation learning method for pulsed neuron model according to claim 1, wherein the j-th pulse neuron model layers and performs the learning.
Figure 2010123072
中間層のj番目のパルスニューロンモデルに与えられる教師信号をT、前記中間層を前段としたときの後段の層(以下、「出力層」という。)のk番目のパルスニューロンモデルの出力電位をp (t)(但し、tは時間)、前記出力層のk番目のパルスニューロンモデルの教師電位をp (t)、前記中間層のj番目のパルスニューロンモデルの出力をH(t)、前記中間層のj番目のパルスニューロンモデルと前記出力層のk番目のパルスニューロンモデルとの間の結合重みをw kj(t)、学習係数をα、前記出力層のパルスニューロンモデルの数をK、学習のための閾値をθlearnとしたとき、下記式のように定義された誤差ΔTを計算し、下記(1)〜(3)に従って教師信号Tを決定し、該教師信号Tにより前記中間層のj番目のパルスニューロンモデルを学習させることを特徴とする請求項1記載のパルスニューロンモデルのためのバックプロパゲーション学習法。
Figure 2010123072
(1)|ΔT|≦θlearnの場合、T=H(t)とする。
(2)ΔT<−θlearnの場合、T=0とする。
(3)ΔT>θlearnの場合、T=1とする。
The teacher signal given to the jth pulse neuron model of the intermediate layer is T j , and the output potential of the kth pulse neuron model of the subsequent layer (hereinafter referred to as “output layer”) when the intermediate layer is the previous stage. P O k (t) (where t is time), the teacher potential of the k-th pulse neuron model of the output layer is p T k (t), and the output of the j-th pulse neuron model of the intermediate layer is H j (t), the connection weight between the j-th pulse neuron model of the intermediate layer and the k-th pulse neuron model of the output layer is w O kj (t), the learning coefficient is α O , and the output layer When the number of pulse neuron models is K and the learning threshold is θ learn , an error ΔT j defined as the following equation is calculated, and the teacher signal T j is determined according to the following (1) to (3). and,該教teacher signal T Back propagation learning method for pulsed neuron model according to claim 1, wherein the train the j-th pulse neuron model of the intermediate layer by.
Figure 2010123072
(1) When | ΔT j | ≦ θ learn , T j = H j (t).
(2) When ΔT j <−θ learn , T j = 0.
(3) When ΔT j > θ learn , T j = 1.
中間層のj番目のパルスニューロンモデルに与えられる教師信号をT、前記中間層を前段としたときの後段の層(以下、「出力層」という。)のk番目のパルスニューロンモデルの時間tにおける出力信号をO、前記出力層のk番目のパルスニューロンモデルへの時間tにおける教師信号をT 、前記中間層のj番目のパルスニューロンモデルの出力をH(t)、前記中間層のj番目のパルスニューロンモデルと前記出力層のk番目のパルスニューロンモデルとの間の結合重みをw kj(t)、学習係数をα、前記出力層のパルスニューロンモデルの数をK、学習のための閾値をθlearnとしたとき、下記式のように定義された誤差ΔTを計算し、下記(1)〜(3)に従って教師信号Tを決定し、該教師信号Tにより前記中間層のj番目のパルスニューロンモデルを学習させることを特徴とする請求項1記載のパルスニューロンモデルのためのバックプロパゲーション学習法。
Figure 2010123072
(1)|ΔT|≦θlearnの場合、T=H(t)とする。
(2)ΔT<−θlearnの場合、T=0とする。
(3)ΔT>θlearnの場合、T=1とする。
The teacher signal given to the j-th pulse neuron model of the intermediate layer is T j , and the time t of the k-th pulse neuron model of the subsequent layer (hereinafter referred to as “output layer”) when the intermediate layer is the previous stage. Is the output signal at O k , the teacher signal at time t to the k-th pulse neuron model of the output layer is T O k , the output of the j-th pulse neuron model of the intermediate layer is H j (t), and the intermediate The connection weight between the j-th pulse neuron model of the layer and the k-th pulse neuron model of the output layer is w O kj (t), the learning coefficient is α O , and the number of pulse neuron models of the output layer is K , when the threshold value for the learning and theta learn, to calculate a defined error [Delta] T j by the following equation to determine the teacher signal T j according to the following (1) to (3),該教teacher signal T j More backpropagation learning method for pulsed neuron model according to claim 1, wherein the train the j-th pulse neuron model of the intermediate layer.
Figure 2010123072
(1) When | ΔT j | ≦ θ learn , T j = H j (t).
(2) When ΔT j <−θ learn , T j = 0.
(3) When ΔT j > θ learn , T j = 1.
請求項1〜4のいずれかに記載のパルスニューロンモデルのためのバックプロパゲーション学習法により学習を行い、入力データを識別することを特徴とする学習・識別装置。   5. A learning / identification apparatus, wherein learning is performed by the back-propagation learning method for the pulse neuron model according to claim 1 to identify input data. 請求項4記載のパルスニューロンモデルのためのバックプロパゲーション学習法の教師信号Tを生成することを特徴とする演算回路。 An arithmetic circuit that generates a teacher signal T j of a back-propagation learning method for the pulse neuron model according to claim 4. kを前記出力層のニューロン番号(k=1〜K)としたとき、前記教師信号T と前記出力信号Oと前記結合重みw kj(t)とから、T =0かつO=0のとき0を、T =0かつO=1のとき−w kj(t)を、T =1かつO=0のときw kj(t)を、T =1かつO=1のとき0を出力するK個の論理回路と、
前記各論理回路からの出力を加算する加算器と、
前記加算器からの出力に対してビットシフトを行って前記学習係数αの乗算を行い、誤差ΔTを算出するシフト演算器と、
前記シフト演算器から出力された誤差ΔTと中間層からの出力H(t)とを比較して、上記ルール(1)〜(3)に従って教師信号Tを出力する比較器と、
を備えることを特徴とする請求項6記載の演算回路。
When k is the neuron number of the output layer (k = 1 to K), T O k = 0 and T k from the teacher signal T O k , the output signal O k and the connection weight w O kj (t) 0 when O k = 0, the -w O kj (t) when T O k = 0 and O k = 1, when T O k = 1 and O k = 0 w O kj a (t), K logic circuits that output 0 when T O k = 1 and O k = 1,
An adder for adding outputs from the logic circuits;
A shift computing unit that performs bit shift on the output from the adder and multiplies the learning coefficient α O to calculate an error ΔT j ;
A comparator that compares the error ΔT j output from the shift calculator with the output H j (t) from the intermediate layer and outputs the teacher signal T j according to the rules (1) to (3);
The arithmetic circuit according to claim 6, further comprising:
JP2008298487A 2008-11-21 2008-11-21 Back propagation learning method for pulse neuron model Withdrawn JP2010123072A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008298487A JP2010123072A (en) 2008-11-21 2008-11-21 Back propagation learning method for pulse neuron model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008298487A JP2010123072A (en) 2008-11-21 2008-11-21 Back propagation learning method for pulse neuron model

Publications (1)

Publication Number Publication Date
JP2010123072A true JP2010123072A (en) 2010-06-03

Family

ID=42324338

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008298487A Withdrawn JP2010123072A (en) 2008-11-21 2008-11-21 Back propagation learning method for pulse neuron model

Country Status (1)

Country Link
JP (1) JP2010123072A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101907448A (en) * 2010-07-23 2010-12-08 华南理工大学 Depth measurement method based on binocular three-dimensional vision
JP2017538137A (en) * 2014-12-15 2017-12-21 バイドゥ・ユーエスエイ・リミテッド・ライアビリティ・カンパニーBaidu USA LLC System and method for audio transcription
DE102017129849A1 (en) 2016-12-28 2018-06-28 Toyo Tire & Rubber Co., Ltd. Process for making a wet rubber masterbatch
CN111699496A (en) * 2018-03-14 2020-09-22 欧姆龙株式会社 Neural network type image processing apparatus
CN112541578A (en) * 2020-12-23 2021-03-23 中国人民解放军总医院 Retina neural network model
CN113435577A (en) * 2021-06-25 2021-09-24 安徽知陉智能科技有限公司 Gradient function learning framework replacement method based on training deep pulse neural network
CN114668408A (en) * 2022-05-26 2022-06-28 中科南京智能技术研究院 Membrane potential data generation method and system
WO2022145232A1 (en) * 2021-01-02 2022-07-07 天海 金 Information processing device, information processing method, and program

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101907448A (en) * 2010-07-23 2010-12-08 华南理工大学 Depth measurement method based on binocular three-dimensional vision
JP2017538137A (en) * 2014-12-15 2017-12-21 バイドゥ・ユーエスエイ・リミテッド・ライアビリティ・カンパニーBaidu USA LLC System and method for audio transcription
US11562733B2 (en) 2014-12-15 2023-01-24 Baidu Usa Llc Deep learning models for speech recognition
DE102017129849A1 (en) 2016-12-28 2018-06-28 Toyo Tire & Rubber Co., Ltd. Process for making a wet rubber masterbatch
DE102017129849B4 (en) 2016-12-28 2022-02-24 Toyo Tire & Rubber Co., Ltd. Process for making a wet rubber masterbatch
CN111699496A (en) * 2018-03-14 2020-09-22 欧姆龙株式会社 Neural network type image processing apparatus
CN111699496B (en) * 2018-03-14 2023-08-29 欧姆龙株式会社 Neural network type image processing device, appearance inspection device, and appearance inspection method
CN112541578A (en) * 2020-12-23 2021-03-23 中国人民解放军总医院 Retina neural network model
WO2022145232A1 (en) * 2021-01-02 2022-07-07 天海 金 Information processing device, information processing method, and program
CN113435577A (en) * 2021-06-25 2021-09-24 安徽知陉智能科技有限公司 Gradient function learning framework replacement method based on training deep pulse neural network
CN113435577B (en) * 2021-06-25 2023-12-26 安徽知陉智能科技有限公司 Gradient function learning framework replacement method based on training deep pulse neural network
CN114668408A (en) * 2022-05-26 2022-06-28 中科南京智能技术研究院 Membrane potential data generation method and system

Similar Documents

Publication Publication Date Title
JP2010123072A (en) Back propagation learning method for pulse neuron model
Andersson et al. Deep convolutional networks in system identification
KR102616351B1 (en) Apparatus and method for student-teacher transfer learning network using knowledge bridge
US11449684B2 (en) Contrastive pre-training for language tasks
Hughes et al. Recurrent neural networks for voice activity detection
CN107301864A (en) A kind of two-way LSTM acoustic models of depth based on Maxout neurons
WO2016101688A1 (en) Continuous voice recognition method based on deep long-and-short-term memory recurrent neural network
CN108734276A (en) A kind of learning by imitation dialogue generation method generating network based on confrontation
CN108292305A (en) Method for handling sentence
CN108269569A (en) Audio recognition method and equipment
CN107293288A (en) A kind of residual error shot and long term remembers the acoustic model modeling method of Recognition with Recurrent Neural Network
KR20160089210A (en) Method and apparatus for training language model, method and apparatus for recognizing language
KR101624926B1 (en) Speech recognition method using feature compensation based on deep neural network
KR20160134019A (en) Method for training top-down selective attention in artificial neural networks
CN107871496A (en) Audio recognition method and device
Nugaliyadde et al. Language modeling through Long-Term memory network
CN106203628A (en) A kind of optimization method strengthening degree of depth learning algorithm robustness and system
CN114912142A (en) Data desensitization method and device, electronic equipment and storage medium
CN114861980A (en) BP-LSTM model-based carbon prediction method
CN113821724A (en) Graph neural network recommendation method based on time interval enhancement
CN112287120A (en) Knowledge inference method of dual-system knowledge graph based on reinforcement learning
JP2545982B2 (en) Pattern recognition method and standard pattern learning method
WO2003096270A1 (en) Information processing apparatus and method
Binh et al. A high-performance speech-recognition method based on a nonlinear neural network
KR20200063318A (en) Apparatus and method for generating predictive information based on time

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120207