JP2015210747A - Learning system and learning method of hierarchical neural network - Google Patents
Learning system and learning method of hierarchical neural network Download PDFInfo
- Publication number
- JP2015210747A JP2015210747A JP2014093374A JP2014093374A JP2015210747A JP 2015210747 A JP2015210747 A JP 2015210747A JP 2014093374 A JP2014093374 A JP 2014093374A JP 2014093374 A JP2014093374 A JP 2014093374A JP 2015210747 A JP2015210747 A JP 2015210747A
- Authority
- JP
- Japan
- Prior art keywords
- signal
- input
- neural network
- output
- hierarchical neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、各種制御、認識、診断等に利用できる階層型ニューラルネットワークの学習システム及び方法に関するものである。 The present invention relates to a learning system and method for a hierarchical neural network that can be used for various types of control, recognition, diagnosis, and the like.
ニューラルネットワークは学習能力を持ち、非線形性、パターンマッチング性能に優れており、各種制御、認識、診断等の多くの分野に用いられている。このニューラルネットワークとして、従来より多くのパターンが提案されているが、その代表的なものとして、階層型ニューラルネットワークがある。階層型ニューラルネットワークは、外部からの入力信号を受け取る複数の入力層ニューロンを含む入力層と、外部に出力信号を送出する複数の出力層ニューロンを含む出力層と、入力層ニューロンと出力層ニューロンとの間に設けられる複数の中間層ニューロンを含む1層以上の中間層とを有してなる。各層は、SOM(Self-Organizing Map)に分割され、各SOMに属するニューロンは、隣接する層のニューロンと結合を構成するものとなっている。このような結合の構造は、結合荷重値等で表され、結合荷重値を調整することにより出力信号を目標信号に近付ける学習を行う。 Neural networks have learning ability, are excellent in non-linearity and pattern matching performance, and are used in many fields such as various controls, recognition, and diagnosis. As this neural network, many patterns have been proposed conventionally, and a typical example is a hierarchical neural network. The hierarchical neural network includes an input layer including a plurality of input layer neurons that receive an input signal from the outside, an output layer including a plurality of output layer neurons that transmit an output signal to the outside, an input layer neuron, and an output layer neuron. And one or more intermediate layers including a plurality of intermediate layer neurons. Each layer is divided into SOMs (Self-Organizing Maps), and the neurons belonging to each SOM form a connection with the neurons in the adjacent layers. Such a coupling structure is represented by a coupling load value or the like, and learning is performed in which the output signal is brought close to the target signal by adjusting the coupling load value.
このような学習方法においては、特に教師あり学習を用いた信号判別課題において非常に高い性能を示している。この教師あり学習は、一般に逆誤差伝播学習法(BP法)が用いられている(例えば、非特許文献1参照。)。このBP法では、与えられた入力信号とニューラルネットワークの出力の誤差が小さくなるように各ニューロンの結合荷重値を更新する。 Such a learning method shows very high performance especially in a signal discrimination task using supervised learning. In this supervised learning, the reverse error propagation learning method (BP method) is generally used (for example, see Non-Patent Document 1). In this BP method, the connection weight value of each neuron is updated so that an error between a given input signal and the output of the neural network becomes small.
ところで、上述した従来のBP法では、教師信号を、ニューラルネットワークの出力層から入力層に向けて逆方向に逆誤差伝播させることにより学習させるものである。実際にこのニューラルネットワークにおいて伝播する信号の情報量は、入力層から出力層に向けて層を経るに従い少なくなる。このため、出力層から教師信号を入力するということは、この出力層の不足した情報量に基づいてニューラルネットワーク全体を学習させることに他ならないものであり、学習効率を向上させることができない。更に単一の判別課題においては出力層の出力は基本的にスパースな形態を示すことから、学習のベースとなる教師信号に対する誤差情報についても必然的にスパースなものとなる。その結果、学習情報の不足が顕著なものとなり、同様に学習効率を向上させることができない。 By the way, in the above-described conventional BP method, the teacher signal is learned by causing reverse error propagation in the reverse direction from the output layer to the input layer of the neural network. Actually, the information amount of the signal propagated in this neural network decreases as the layer passes from the input layer to the output layer. For this reason, inputting a teacher signal from the output layer is nothing but learning of the entire neural network based on the insufficient amount of information in the output layer, and the learning efficiency cannot be improved. Furthermore, since the output of the output layer basically shows a sparse form in a single discrimination task, the error information with respect to the teacher signal that is the basis of learning is inevitably sparse. As a result, the shortage of learning information becomes remarkable, and the learning efficiency cannot be improved as well.
近年において提案されている自己符号化器においては、これを解決するために層毎の学習を繰り返す積層自己符号化という手法が用いられている(例えば、非特許文献2参照。)。しかしながら、この非特許文献2の開示技術では、追加学習が困難になるという問題点があった。 In recent years, a self-encoder proposed in recent years employs a technique called stacked self-encoding that repeats learning for each layer in order to solve this problem (see, for example, Non-Patent Document 2). However, the disclosed technique of Non-Patent Document 2 has a problem that additional learning becomes difficult.
そこで本発明は、上述した問題点に鑑みて案出されたものであり、その目的とするところは、正確かつ高速なニューラルネットワークの学習を実現できる階層型ニューラルネットワークの学習システム及び方法を提供することにある。 The present invention has been devised in view of the above-described problems, and an object of the present invention is to provide a learning system and method for a hierarchical neural network capable of realizing accurate and high-speed learning of a neural network. There is.
本発明に係る階層型ニューラルネットワークの学習システムは、外部からの入力信号を受け取る複数の入力層ニューロンを含む入力層と、外部に出力信号を送出する複数の出力層ニューロンを含む出力層と、上記入力層ニューロンと上記出力層ニューロンとの間に設けられる複数の中間層ニューロンを含む1層以上の中間層とを有する階層型ニューラルネットワークの各層間の結合荷重値を調整することにより出力信号を目標信号に近付ける学習を行う階層型ニューラルネットワークの学習システムにおいて、予め用意した入力信号と目標信号の組からなる学習セットにおける入力信号を上記階層型ニューラルネットワークの入力層に対して入力して伝播させる信号入力手段と、上記階層型ニューラルネットワークの各層を構成する各SOM(Self-Organizing Map)の各ニューロンにつながる経路のうち伝播する信号と結合荷重値との適合度が最も高い経路、又は当該経路とその近傍の経路のみ選択し、それ以外の経路はスパースとみなす処理を当該SOM単位で行うスパース処理手段と、上記スパース処理手段による処理が行われた上記階層型ニューラルネットワークに上記信号入力手段により入力された上記入力信号を順方向に伝播させて出力信号を取得する出力信号取得手段と、上記出力信号取得手段により取得された出力信号と、上記入力信号と組になっている目標信号とを比較し、これらの一致度合に応じて上記選択した経路を伝播する信号と結合荷重値との適合度を増減させる調整を行う結合荷重値調整手段とを備えることを特徴とする。 A learning system for a hierarchical neural network according to the present invention includes an input layer including a plurality of input layer neurons for receiving an input signal from the outside, an output layer including a plurality of output layer neurons for transmitting an output signal to the outside, Targeting an output signal by adjusting a connection weight value between layers of a hierarchical neural network having one or more intermediate layers including a plurality of intermediate layer neurons provided between an input layer neuron and the output layer neuron In a learning system of a hierarchical neural network that performs learning approaching a signal, a signal that propagates an input signal in a learning set consisting of a set of a prepared input signal and a target signal to the input layer of the hierarchical neural network. Input means and each SOM constituting each layer of the hierarchical neural network Selects only the path that has the highest degree of matching between the propagation signal and the connection weight value among the paths connected to each neuron of the Self-Organizing Map), or the path and its neighboring paths, and treats the other paths as sparse. Sparse processing means for performing the processing in SOM units, and the input signal input by the signal input means is propagated in the forward direction to the hierarchical neural network processed by the sparse processing means to obtain an output signal A signal that compares the output signal acquired by the output signal acquisition means, the output signal acquired by the output signal acquisition means, and the target signal paired with the input signal, and propagates through the selected path according to the degree of coincidence thereof And a combined load value adjusting means for adjusting to increase / decrease the degree of fitness between the combined load value and the combined load value.
本発明に係る階層型ニューラルネットワークの学習システムは、外部からの入力信号を受け取る複数の入力層ニューロンを含む入力層と、外部に出力信号を送出する複数の出力層ニューロンを含む出力層と、上記入力層ニューロンと上記出力層ニューロンとの間に設けられる複数の中間層ニューロンを含む1層以上の中間層とを有する階層型ニューラルネットワークの各層間の結合荷重値を調整することにより出力信号を目標信号に近付ける表現学習を行う階層型ニューラルネットワークの学習システムにおいて、入力信号群から選択した任意の入力信号を代表入力信号として、これを上記階層型ニューラルネットワークの入力層に対して入力して伝播させる信号入力手段と、上記階層型ニューラルネットワークの各層を構成する各SOM(Self-Organizing Map)の各ニューロンにつながる経路のうち伝播する信号と結合荷重値との適合度が最も高い経路、又は当該経路とその近傍の経路のみ選択し、それ以外の経路はスパースとみなす処理を当該SOM単位で行うスパース処理手段と、上記スパース処理手段による処理が行われた上記階層型ニューラルネットワークに上記信号入力手段により入力された上記代表入力信号を順方向に伝播させて得られる代表出力信号を取得する出力信号取得手段と、上記入力信号群の中から上記代表入力信号とは異なる他の入力信号が上記信号入力手段により入力されて上記スパース処理手段による上記処理を経て上記出力信号取得手段により取得された出力信号と、上記目標信号とみなした上記代表出力信号とを比較し、これらの一致度合に応じて上記選択した経路を伝播する信号と結合荷重値との適合度を増減させる調整を行う結合荷重値調整手段とを備えることを特徴とする。 A learning system for a hierarchical neural network according to the present invention includes an input layer including a plurality of input layer neurons for receiving an input signal from the outside, an output layer including a plurality of output layer neurons for transmitting an output signal to the outside, Targeting an output signal by adjusting a connection weight value between layers of a hierarchical neural network having one or more intermediate layers including a plurality of intermediate layer neurons provided between an input layer neuron and the output layer neuron In a learning system of a hierarchical neural network that performs expression learning approaching a signal, an arbitrary input signal selected from an input signal group is used as a representative input signal, and this is input to the input layer of the hierarchical neural network and propagated. Signal input means and each SOM (S In the elf-Organizing Map), select the path that has the highest degree of matching between the propagation signal and the connection weight value from the paths connected to each neuron, or select only the path and its neighboring paths, and treat the other paths as sparse. And a representative output obtained by propagating the representative input signal input by the signal input means to the hierarchical neural network processed by the sparse processing means in the forward direction. Output signal acquisition means for acquiring signals, and another input signal different from the representative input signal from the input signal group is input by the signal input means, and the output signal acquisition is performed through the processing by the sparse processing means. The output signal acquired by the means is compared with the representative output signal regarded as the target signal, and the output is increased according to the degree of coincidence. Characterized in that it comprises a coupling weight value adjusting means for adjusting to increase or decrease the fit between the signals and the coupling weight value to propagate the selected route.
本発明に係る階層型ニューラルネットワークの学習方法は、外部からの入力信号を受け取る複数の入力層ニューロンを含む入力層と、外部に出力信号を送出する複数の出力層ニューロンを含む出力層と、上記入力層ニューロンと上記出力層ニューロンとの間に設けられる複数の中間層ニューロンを含む1層以上の中間層とを有する階層型ニューラルネットワークの各層間の結合荷重値を調整することにより出力信号を目標信号に近付ける学習を行う階層型ニューラルネットワークの学習方法において、予め用意した入力信号と目標信号の組からなる学習セットにおける入力信号を上記階層型ニューラルネットワークの入力層に対して入力して伝播させる信号入力ステップと、上記階層型ニューラルネットワークの各層を構成する各SOM(Self-Organizing Map)の各ニューロンにつながる経路のうち伝播する信号と結合荷重値との適合度が最も高い経路、又は当該経路とその近傍の経路のみ選択し、それ以外の経路はスパースとみなす処理を当該SOM単位で行うスパース処理ステップと、上記スパース処理ステップにおける処理が行われた上記階層型ニューラルネットワークに上記信号入力手段により入力された上記入力信号を順方向に伝播させて出力信号を取得する出力信号取得ステップと、上記出力信号取得ステップにおいて取得された出力信号と、上記入力信号と組になっている目標信号とを比較し、これらの一致度合に応じて上記選択した経路を伝播する信号と結合荷重値との適合度を増減させる調整を行う結合荷重値調整ステップとを有することを特徴とする。 A learning method of a hierarchical neural network according to the present invention includes an input layer including a plurality of input layer neurons that receive an input signal from the outside, an output layer including a plurality of output layer neurons that transmit an output signal to the outside, Targeting an output signal by adjusting a connection weight value between layers of a hierarchical neural network having one or more intermediate layers including a plurality of intermediate layer neurons provided between an input layer neuron and the output layer neuron In a learning method of a hierarchical neural network that performs learning approaching a signal, a signal that propagates an input signal in a learning set consisting of a set of an input signal and a target signal prepared in advance to the input layer of the hierarchical neural network. An input step and each SOM (Self -Organizing Map) Select the path that has the highest degree of matching between the propagation signal and the connection weight value among the paths connected to each neuron, or the path and its neighboring paths, and treat the other paths as sparse. A sparse processing step performed in units of the SOM, and an output for acquiring an output signal by propagating the input signal input by the signal input means to the hierarchical neural network subjected to the processing in the sparse processing step in the forward direction A signal acquisition step, the output signal acquired in the output signal acquisition step, a target signal paired with the input signal, and a signal propagating on the selected path according to the degree of coincidence thereof And a combined load value adjusting step for performing an adjustment to increase or decrease the fitness with the combined load value.
本発明に係る階層型ニューラルネットワークの学習方法は、外部からの入力信号を受け取る複数の入力層ニューロンを含む入力層と、外部に出力信号を送出する複数の出力層ニューロンを含む出力層と、上記入力層ニューロンと上記出力層ニューロンとの間に設けられる複数の中間層ニューロンを含む1層以上の中間層とを有する階層型ニューラルネットワークの各層間の結合荷重値を調整することにより出力信号を目標信号に近付ける表現学習を行う階層型ニューラルネットワークの学習方法において、入力信号群から選択した任意の入力信号を代表入力信号として、これを上記階層型ニューラルネットワークの入力層に対して入力して伝播させる信号入力ステップと、上記階層型ニューラルネットワークの各層を構成する各SOM(Self-Organizing Map)の各ニューロンにつながる経路のうち伝播する信号と結合荷重値との適合度が最も高い経路、又は当該経路とその近傍の経路のみ選択し、それ以外の経路はスパースとみなす処理を当該SOM単位で行うスパース処理ステップと、上記スパース処理ステップにおける処理が行われた上記階層型ニューラルネットワークに上記信号入力手段により入力された上記代表入力信号を順方向に伝播させて得られる代表出力信号を取得する出力信号取得ステップと、上記入力信号群の中から上記代表入力信号とは異なる他の入力信号が上記信号入力手段により入力されて上記スパース処理ステップにおける上記処理を経て上記出力信号取得手段により取得された出力信号と、上記目標信号とみなした上記代表出力信号とを比較し、これらの一致度合に応じて上記選択した経路を伝播する信号と結合荷重値との適合度を増減させる調整を行う結合荷重値調整ステップとを有することを特徴とする。 A learning method of a hierarchical neural network according to the present invention includes an input layer including a plurality of input layer neurons that receive an input signal from the outside, an output layer including a plurality of output layer neurons that transmit an output signal to the outside, Targeting an output signal by adjusting a connection weight value between layers of a hierarchical neural network having one or more intermediate layers including a plurality of intermediate layer neurons provided between an input layer neuron and the output layer neuron In a learning method of a hierarchical neural network that performs expression learning approaching a signal, an arbitrary input signal selected from an input signal group is used as a representative input signal, which is input to the input layer of the hierarchical neural network and propagated. The signal input step and each SOM (Self-Or Select the path that has the highest degree of matching between the propagation signal and the connection weight value among the paths connected to each neuron in the ganizing Map), or select the path and its neighboring paths, and treat the other paths as sparse. A sparse processing step performed in SOM units, and a representative output signal obtained by propagating the representative input signal input by the signal input means to the hierarchical neural network subjected to the processing in the sparse processing step in the forward direction An output signal acquisition step to be acquired, and another input signal different from the representative input signal from the input signal group is input by the signal input means, and after the processing in the sparse processing step, by the output signal acquisition means The obtained output signal is compared with the representative output signal regarded as the target signal, and one of these is compared. And having a coupling weight value adjusting step of adjusting to increase or decrease the fit between the signals and the coupling weight value to propagate the selected route according to the degree.
上述した構成からなる本発明によれば、正確かつ高速なニューラルネットワークの学習を実現できる。また、本発明によれば、従来技術のように出力層の不足した情報量に基づいてニューラルネットワーク全体を学習させる必要もなくなることから、大規模化に適した構造を持つと共に、大脳皮質の神経回路をより模したものとなっている。また本発明によれば、他の神経回路の学習手法との親和性をも向上させることができる。 According to the present invention having the above-described configuration, accurate and high-speed neural network learning can be realized. Further, according to the present invention, it is not necessary to learn the entire neural network based on the amount of information lacking in the output layer as in the prior art, so that it has a structure suitable for large scale and has a nerve structure of the cerebral cortex. It is a more imitation of the circuit. Further, according to the present invention, the affinity with other neural circuit learning techniques can also be improved.
以下、本発明を適用した階層型ニューラルネットワークの学習システムを実施するための形態について図面を参照しながら詳細に説明をする。 DESCRIPTION OF EMBODIMENTS Hereinafter, a mode for carrying out a hierarchical neural network learning system to which the present invention is applied will be described in detail with reference to the drawings.
図1は、本発明を適用した階層型ニューラルネットワークの学習システム1のブロック構成を示している。この学習システム1は、例えばパーソナルコンピュータ等の電子機器等、あるいはこれらに実装されるコンピュータプログラムとして具体化されるものであって、外部からの入力信号を入力するための信号入力部11と、この信号入力部11に接続された演算部13と、演算部13に接続された出力部12とを備えている。演算部13は、目標信号記憶部22と、この目標信号記憶部22に接続される出力信号生成部24と、結合荷重値調整部25とを有し、更にこの出力信号生成部24は、階層型ニューラルネットワーク記憶部23が接続される。結合荷重値調整部25は、目標信号記憶部22と、階層型ニューラルネットワーク記憶部23とに接続される。
FIG. 1 shows a block configuration of a learning system 1 of a hierarchical neural network to which the present invention is applied. The learning system 1 is embodied as an electronic device such as a personal computer, or a computer program mounted thereon, and includes a
信号入力部11は、外部から入力信号が入力される。実際には、この入力信号は検査対象に基づくデータであり、仮に検査対象が音声であれば音声データが入力信号として入力され、検査対象が画像であれば画像データが入力信号として入力されることとなる。この信号入力部11は、音声データを入力信号として受け付ける場合には、マイクロフォン等として具現化され、画像データを入力信号として受け付ける場合には、撮像装置等として具現化されるものであってもよい。また信号入力部11は、他のあらゆるセンシング手段を含む概念であり、検査対象の物理的、化学的性質に関わる測定量、特に人間の五感に関する測定量を電気信号にして出力可能なセンサであればよい。またユーザ側がキーボード等のユーザインターフェースを介して直接的にデータを入力可能なデバイスとして構成されるものであってもよい。
The
目標信号記憶部22は、後述する目標信号を記憶するためのメモリ、ハードディスク等を始めとした記憶手段により構成される。この目標信号は、信号入力部11に入力される入力信号との間で組を構成する学習セットとなり得る場合もあるが、かかる場合においても同様にこの目標信号記憶部22に記憶される。ちなみに、この目標信号記憶部22へ記憶すべき目標信号の入力は、上述した信号入力部11を介して行われるものであってもよいし、予めシステム内において記憶されているものであってもよい。
The target
階層型ニューラルネットワーク記憶部23には、図2に示すような階層型ニューラルネットワーク3が記憶される。この階層型ニューラルネットワーク3は、外部からの入力信号を受け取る複数の入力層ニューロンを含む入力層31と、外部に出力信号を送出する複数の出力層ニューロンを含む出力層33と、入力層ニューロンと出力層ニューロンとの間に設けられる複数の中間層ニューロンを含む1層以上の中間層32とを有する階層型として構成される。階層型ニューラルネットワーク3は、入力層31に入力信号が供給され、これが中間層32を伝播して出力層33へと到達するが、この伝播方向を、以下、順方向という。
The hierarchical neural
入力層31は、複数のSOM(Self-Organizing Map)41に分割されており、更に個々のSOM41内には複数の入力層ニューロンが配置される。中間層32は、複数のSOM42に分割されており、更に個々のSOM42内には複数の中間層ニューロンが配置される。出力層33は、1つのSOM43からなり、このSOM43内には複数の出力層ニューロンが配置される。
The
図3は、これら各SOM41とSOM42aにおけるニューロンの詳細な接続関係を示している。
FIG. 3 shows the detailed connection relationship of neurons in these
SOM41内にある各入力層ニューロン51は、SOM42a内にある中間層ニューロン52と完全結合の経路で結ばれている。学習を通じて入力層ニューロン51と、中間層ニューロン52との間における経路につき接続重み付けを変化させる。ニューロン51、52間における経路の重み付けは結合荷重値wとして表される。このような結合荷重値wが設定されている前提の下、入力信号が入力層31に入力された場合には、これに基づいて伝播する信号と結合荷重値wとの内積等で表される適合度を算出していくこととなる。ちなみにこの伝播する信号と結合荷重値wとの適合度は、これらの内積に限定されるものではなく、例えば、伝播する信号と結合荷重値2とを引数とする任意の評価関数を用いるようにしてもよい。かかる場合において、結合荷重値wとの適合度は、シグモイド等特殊な関数を挟んだものを用いるようにしてもよいし、カルバック・ライブラー情報量を用いるようにしてもよい。なお、この図3は、SOM41とSOM42aの関係について示しているが、SOM42aとSOM42b、SOM42bとSOM43との関係についても同様に完全結合の経路とされており、またその経路間の重み付けは、結合荷重値wを介して表されるものとなる。
Each
ちなみに、この階層型ニューラルネットワーク3に行われる演算は、従来における通常の計算ロジックを適用するものであり、特段異なる計算ロジックを使用するものではない。
Incidentally, the calculation performed on the hierarchical
出力信号生成部24は、階層型ニューラルネットワーク記憶部23に記憶されているニューラルネットワーク3にアクセスし、その演算を全て制御する。出力信号生成部24は、信号入力部11から取得した入力信号を、階層型ニューラルネットワーク3における入力層31に入力する処理を行う。この出力信号生成部24は、この階層型ニューラルネットワーク3中を伝播する信号について最終的に出力層33から出力される出力信号を取得し、これを出力部12へと出力する。
The output
結合荷重値調整部25は、目標信号記憶部22に記憶されている目標信号を読み出し、これを各種制御に利用する。また結合荷重値調整部25は、階層型ニューラルネットワーク3を構成するニューロンの経路について、後述するスパースとみなす処理を施す。結合荷重値調整部25は、階層型ニューラルネットワーク3におけるニューロンの伝播する信号と結合荷重値wとの内積等で表される適合度が高くなるように、或いは低くなるように調整を行う。
The combined load
出力部12は、出力信号生成部24により生成された出力信号を出力する。この出力部12は、例えばユーザが画面上で出力信号を確認するためのディスプレイ等であり、或いはこれらの出力信号を外部に出力するためのインターフェース等である。出力部12は、この出力信号を記憶するための固定型又は可搬型のメモリ等で構成されていてもよい。出力部12は、出力信号に関するデータを次回以降の学習に利用するために、これを出力信号生成部24や結合荷重値調整部25にフィードバックさせるようにしてもよい。また出力部12からの出力信号に基づくデータを目標信号記憶部22に記憶させるようにしてもよい。
The
次に、本発明を適用した階層型ニューラルネットワークの学習システム1の動作について説明をする。この学習において使用される入力信号は、図4に示すように同一のカテゴリーからなる群で構成されている。以下の例では、この入力信号のカテゴリーとして、手書きで描いた文字を画像情報として検出したデータとする。 Next, the operation of the learning system 1 of the hierarchical neural network to which the present invention is applied will be described. The input signals used in this learning are composed of groups of the same category as shown in FIG. In the following example, the input signal category is data obtained by detecting hand-drawn characters as image information.
この入力信号の部分集合として教師信号がある。この教師信号は、これは入力信号のセットの中から目標信号と対応付けられた学習セットとして構成されたものである。つまり教師信号はカテゴリーとしては入力信号に属するものであり、換言すれば入力信号の中で目標信号と1対1で関連付けられているものを教師信号として定義している。例えば、目標信号が図4に示すように、「5」を表すニューロンだけが発火した状態である場合に、この目標信号「5」と関連付けて記憶されている、きれいな筆跡の「5」からなる画像情報で構成される入力信号が、教師信号となる。ちなみに、汚い筆跡で書かれたものであっても、目標信号と関連付けられている場合には、教師信号になり得ることは勿論である。 There is a teacher signal as a subset of this input signal. This teacher signal is configured as a learning set associated with the target signal from the set of input signals. That is, the teacher signal belongs to the input signal as a category. In other words, the input signal is defined as the teacher signal that is associated with the target signal on a one-to-one basis. For example, as shown in FIG. 4, when only the neuron representing “5” is in a fired state as shown in FIG. 4, the target signal is composed of “5” of a beautiful handwriting stored in association with the target signal “5”. An input signal composed of image information becomes a teacher signal. Incidentally, even if it is written with dirty handwriting, it can of course be a teacher signal if it is associated with the target signal.
これに対して、入力信号の中で目標信号と関連付けられていないものは、教師信号ではなく、あくまで通常の入力信号である。この教師信号を除く入力信号は、いわばこの階層型ニューラルネットワークの学習システム1において、これから学習させる信号である。図4においては、これから学習させる入力信号の例として、汚い筆跡の「5」の画像を示している。 On the other hand, what is not associated with the target signal among the input signals is not a teacher signal but a normal input signal. The input signals excluding the teacher signal are signals to be learned from the learning system 1 of the hierarchical neural network. In FIG. 4, a dirty handwriting “5” image is shown as an example of an input signal to be learned.
本発明を適用した階層型ニューラルネットワークの学習システム1では、入力信号の中の教師信号を順方向に伝播させることを特徴とする。即ち、汚い筆跡の「5」の画像からなる入力信号を学習させるためには、先ずきれいな筆跡の「5」の画像からなる教師信号を入力信号として信号入力部11に入力する。信号入力部に入力された教師信号としての入力信号は、演算部13に送られる。この演算部13において教師信号としての入力信号を受け付けた場合には、これをニューラルネットワークにおける入力層31に入力する。図5は、この階層型ニューラルネットワーク記憶部23に記憶される階層型ニューラルネットワーク3を簡略化した概念図である。この順方向に向けて入力層31、中間層32a、32b、出力層33が配列され、各SOM41〜43内には、簡単のためそれぞれ4つのニューロン51〜54が含まれているものと仮定する。
The hierarchical neural network learning system 1 to which the present invention is applied is characterized in that a teacher signal in an input signal is propagated in the forward direction. That is, in order to learn an input signal composed of an image of “5” with a dirty handwriting, first, a teacher signal composed of an image of “5” with a clean handwriting is input to the
このような階層型ニューラルネットワーク3に上述した教師信号としての入力信号が入力された場合に、入力層31に入力された信号は、入力層31から順方向に向けて伝播していくことになる。このとき、順方向に向けて隣接するニューロン51〜54間に形成されるそれぞれの経路について、伝播していく信号と、結合荷重値wとの内積等で表される適合度を求める。図5では、より適合度が高い経路が順方向に向けて出力層33に至るまで連結されている状態が示されている。適合度の高い経路が連結するニューロン51〜54、適合度が中程度の経路が連結するニューロンについては、図中において色分けして表示している。実際に演算を行う際において、従来では、この適合度の高い経路のみならず、適合度が中程度並びに適合度が低いものも全て演算式に含めて演算を行っている。このため、実際に適合度が低くて殆どニューロン51〜54間で連結経路を形成しないものも含めて演算を行うため、演算量が膨大なものとなってしまっている。特に連結経路を形成しない、言い換えれば僅かにしか活動しないニューロンについて演算に含めても、学習効率を特段向上させることができない。
When the input signal as the teacher signal described above is input to such a hierarchical
このため本発明では、入力信号の中の教師信号を順方向に伝播させる際において、図6に示すように、各SOM41〜43内において伝播する信号と結合荷重値との適合度が最も高い経路を先ず選択する。そして、伝播する信号と結合荷重値との適合度が最も高い経路を抽出後、それ以外の経路はスパースとみなす処理を行う。図6の例では、各SOMの中で適合度が最も高い経路のみが残り、それ以外の経路はスパースとみなされて図中から削除されている状態が示されている。かかる処理を全てのSOM41〜43について実行する。
Therefore, in the present invention, when the teacher signal in the input signal is propagated in the forward direction, as shown in FIG. 6, the path having the highest degree of matching between the signal propagated in each of the
そして、この選択された適合度の高い経路(ニューロン)を優先的に利用して、信号を入力層31から出力層33に至るまで順方向に向けて伝播させ、出力信号を取得する。この過程で、伝播する信号が、何れの経路を辿って順方向に進むかが明確化され、また適合度を通じて当該経路を通過する量(頻度)が明確になる。
Then, using the selected path (neuron) with a high degree of fitness preferentially, the signal is propagated in the forward direction from the
出力信号生成部24は、取得したこの出力信号を出力部12に向けて出力する。また出力信号生成部24は、取得した出力信号と、教師信号としての入力信号と組になっている目標信号とを比較する。即ち、この出力信号は、教師信号としての入力信号を階層型ニューラルネットワーク3に入力し、これを順方向に伝播させることで得られたものであり、当該入力信号と関連付けられている目標信号と比較することにより、この階層型ニューラルネットワーク3による出力が正解であるか否かを判定することができる。
The output
図6の例では、出力層33から出力された出力信号の値が「5」であり、目標信号と一致していた場合の例である。このように、出力信号と目標信号とが一致している場合には、階層型ニューラルネットワーク3において選択した経路がより正解を導き出す上で重要なものであり、また信号が伝播する確率が高いことが示されている。
In the example of FIG. 6, the value of the output signal output from the
かかる場合には、上述の選択した経路を伝播する信号と結合荷重値との適合度が増加するように調整する。かかる調整は、結合荷重値調整部25による制御を通じて行われる。このようにして適合度が増加するように調整が行われることで、階層型ニューラルネットワーク3を構成する経路がより正解を導く上で好適なものに更新されることとなる。また、上述の適合度は、あくまで今回入力した入力信号と結合荷重値との適合度ではあるが、これを増加させることで、同じ目標信号を持つ他の教師信号としての入力信号の適合度を向上させることができる。
In such a case, adjustment is made so that the degree of matching between the signal propagating through the selected route and the combined load value increases. Such adjustment is performed through control by the combined load
図7の例では、出力層33から出力された出力信号の値が「5」であり、目標信号と不一致の場合の例である。このように、出力信号と目標信号とが不一致の場合には、階層型ニューラルネットワーク3において選択した経路がより正解を導き出す上であまり重要なものではなく、また信号が伝播する確率が低いことが示されている。
In the example of FIG. 7, the value of the output signal output from the
かかる場合には、上述の選択した経路を伝播する信号と結合荷重値との適合度が減少するように調整する。かかる調整も同様に結合荷重値調整部25による制御を通じて行われる。このようにして適合度が減少するように調整が行われることで、階層型ニューラルネットワーク3を構成する経路がより不正解を導かないようなものとなるように更新されることとなる。また、上述の適合度は、あくまで今回入力した入力信号と結合荷重値との適合度ではあるが、これを減少させることで、同じ目標信号を持つ他の教師信号としての入力信号の適合度を減少させ、今回の経路を極力使用しないように制御することで、不正解になるのを防止するように調整される。
また本発明によれば、出力信号と目標信号との一致もしくは不一致の判定は、必ずしも離散的な2択を意味するものではない。出力信号と目標信号との差異に基づく一致度合に基づいて、結合荷重値との適合度を増加させ、又は減少させるようにしてもよい。この一致度合は、連続的な値を持つものであってもよい。
In such a case, adjustment is performed so that the degree of matching between the signal propagating through the selected path and the combined load value is reduced. Such adjustment is similarly performed through control by the combined load
Further, according to the present invention, the determination of whether the output signal matches the target signal or not does not necessarily mean a discrete two-choice. The degree of matching with the combined load value may be increased or decreased based on the degree of matching based on the difference between the output signal and the target signal. This degree of coincidence may have a continuous value.
このような教師ありの先行伝播学習を繰り返し行うことにより、階層型ニューラルネットワーク3の学習効率を向上させることができる。その結果、学習速度をより向上させることができる。
By repeating such supervised advance propagation learning, the learning efficiency of the hierarchical
なお、上述した実施の形態においては、各SOM41〜43内において伝播する信号と結合荷重値との適合度が最も高い経路を先ず選択する場合を例にとり説明をしたが、これに限定されるものではない。結合荷重値との適合度が最も高い経路に加え、その近傍にある経路も同様に選択するようにしてもよい。かかる場合には、選択される経路が、適合度が最も高い経路及びその近傍にある経路と複数に亘ることとなり、それ以外の経路がスパースであるものとみなされる。また、適合度が最も高い経路の近傍の経路の意味するところは、当該適合度が最も高い経路の両側に隣接する経路に限定されるものではなく、更にその外側に向けて隣接するいかなる数の経路も含む。
In the above-described embodiment, an example has been described in which a route having the highest degree of matching between the signal propagating in each of the
また目標信号と一致したものと判定された入力信号を新たに教師信号とみなし、この教師信号を新たに階層型ニューラルネットワーク3の入力層31に入力し順方向に伝播させ、選択された正しい経路の情報を記憶するようにしてもよい。この正しい経路の情報は、例えば目標信号記憶部22又は図示しないメモリやハードディスク等の記憶装置に記憶させる。次に他の学習セットの入力信号が信号入力部11に入力され、これを階層型ニューラルネットワーク3中を伝播させる上で、上記記憶した正しい経路の情報を読み出し、更に当該正しい経路の情報に基づいてスパース処理を行うようにしてもよい。
Also, the input signal determined to match the target signal is newly regarded as a teacher signal, this teacher signal is newly input to the
ここで、上述した正しい経路の情報が反映された先行伝播信号をxadvとし、他の学習セットの入力信号をxtargetとする。このとき、学習の目的となるxtargetを先行伝播信号xadvの残効の下で処理する。このとき、実際の階層型ニューラルネットワーク3に入力されるxinputは、以下の式で表すことが可能となる。
Here, the preceding propagation signal information correct path described above is reflected by the x adv, the input signal of the other training set and x target. At this time, the target x target is processed under the aftereffect of the preceding propagation signal xadv . At this time, x input inputted to the actual hierarchical
xinput=βxadv+(1−β)xtarget x input = βx adv + (1-β) x target
βは、全体の入力に対する先行伝播信号をxadvの比率を表している。入力ベクトルxinputは、目標信号を、教師信号である先行伝播信号をxadvの残効によって修正したものとなる。先行伝播信号xadvをどの程度反映させるかは、システムの設計時においてケースバイケースで設定されるものであるが、ユーザ側において自由に変更可能とされていてもよいことは勿論である。例えば、学習が進展してくれば、経路もかなり固まってくるため、学習の進展に応じてβを徐々に下げることにより先行伝播信号xadvの比率下げるようにしてもよい。 β represents the ratio of the preceding propagation signal to the entire input x adv . The input vector x input is obtained by correcting the target signal and the preceding propagation signal that is the teacher signal by the aftereffect of xadv. The extent to which the preceding propagation signal xadv is reflected is set on a case-by-case basis at the time of designing the system, but it goes without saying that it may be freely changeable on the user side. For example, as learning progresses, the path becomes considerably solidified. Therefore, the ratio of the preceding propagation signal x adv may be decreased by gradually decreasing β according to the progress of learning.
また、本発明によれば、各SOM41〜43内における各経路の結合荷重値の適合度の競合度を利用し、結合荷重値を調整するようにしてもよい。ここでいう各経路の結合荷重値の適合度の競合度とは、それぞれのSOM41〜43内において、経路の結合荷重値の適合度がどの程度競合しているかの度合いを示すものである。例えば図5の例の場合には、ある一つのSOM41〜43内において、適合度の高い経路が1つあり、残りの3つの経路は何れも適合度が低い場合には、当該適合度の高い経路にとって競合する経路が少ないため、競合度が低いということができる。これに対して、適合度中の経路が2つあり、残りの2つの経路は何れも適合度が低い場合には、当該適合度中の経路にとって競合する経路が比較的多いため、競合度が高いということができる。
Further, according to the present invention, the combined load value may be adjusted using the competition degree of the combined load value of each path in each of the
このようにして各SOM41〜43内における経路の適合度を相対的に比較し、その相対的な大小関係を数値化した競合度を求め、更にこの求めた競合度に基づいて、結合荷重値の調整量を変化させることを当該SOM41〜43毎に行う。かかる場合において適合度の競合度が高いSOM41〜43については、今後において特に学習が必要ないことを判別することができる。かかる場合には、他のSOM41〜43と比較して結合荷重値の調整量を低くするように設定する。また、適合度の競合度が低いSOM41〜43については、今後において特に学習が必要であることを判別することができる。かかる場合には、他のSOM41〜43と比較して結合荷重値の調整量を高くするように設定する。これにより、学習が必要なSOM41〜43に焦点を当てて集中的に学習させることが可能となる。
In this way, the degree of compatibility of the paths in each of the
また本発明を適用した階層型ニューラルネットワークの学習システム1では、いわゆる表現学習を行わせるものであってもよい。 In the learning system 1 of the hierarchical neural network to which the present invention is applied, so-called expression learning may be performed.
かかる場合には、先ず入力信号群から選択した任意の入力信号を代表入力信号とする。この代表入力信号を階層型ニューラルネットワーク3の入力層31に対して入力して順方向に伝播させる。このとき、上述と同様に各SOM41〜43の各ニューロン51〜54につながる経路のうち伝播する信号と結合荷重値との適合度が最も高い経路、又は当該経路とその近傍の経路のみ選択し、それ以外の経路はスパースとみなす処理をSOM41〜43単位で行う。そして、このようなスパース処理が行われた階層型ニューラルネットワーク3から出力される出力信号を取得する。この代表入力信号を順方向に伝播させることにより得られる出力信号(以下、代表出力信号という。)を一時的に記憶しておく。
In such a case, first, an arbitrary input signal selected from the input signal group is set as the representative input signal. This representative input signal is input to the
次に代表入力信号とは異なる他の入力信号を階層型ニューラルネットワーク3の入力層31に対して入力して順方向に伝播させる。このとき、上述と同様に各SOM41〜43の各ニューロン51〜54につながる経路のうち伝播する信号と結合荷重値との適合度が最も高い経路、又は当該経路とその近傍の経路のみ選択し、それ以外の経路はスパースとみなす処理をSOM41〜43単位で行う。このようにして得られた出力信号と、目標信号とみなした代表出力信号とを比較し、これらが一致している場合には、選択した経路を伝播する他の信号と結合荷重値との適合度が増加するように調整し、これらが不一致の場合には、選択した経路を伝播する他の信号と結合荷重値との適合度が減少するように調整する。
Next, another input signal different from the representative input signal is input to the
これらの動作を繰り返し実行することにより、同様に階層型ニューラルネットワーク3の学習効率を向上させることができる。その結果、学習速度をより向上させることができる。
By repeatedly executing these operations, the learning efficiency of the hierarchical
ちなみに従来の教師あり学習では学習を安定させるために層ごとの学習(layer-wised learning) を繰り返すのが一般的であるが、本発明によれば、階層型ニューラルネットワーク3全体を一括して学習する。この階層型ニューラルネットワーク3全体に伝達される学習情報として、あくまで出力信号が目標信号と一致しているか否かの判別結果のみ使用し、局所的にはこれを順方向に伝播する信号そのものを教師信号として利用する。
Incidentally, in conventional supervised learning, it is common to repeat layer-wise learning in order to stabilize the learning. However, according to the present invention, the entire hierarchical
また、本発明によれば、従来技術のように出力層の不足した情報量に基づいてニューラルネットワーク全体を学習させる必要もなくなることから、大規模化に適した構造を持つと共に、大脳皮質の神経回路をより模したものとなっている。また本発明によれば、他の神経回路の学習手法との親和性をも向上させることができる。 Further, according to the present invention, it is not necessary to learn the entire neural network based on the amount of information lacking in the output layer as in the prior art, so that it has a structure suitable for large scale and has a nerve structure of the cerebral cortex. It is a more imitation of the circuit. Further, according to the present invention, the affinity with other neural circuit learning techniques can also be improved.
また、本発明を自然画像認識等に応用する場合においても、新規の自然画像を、学習済みの人工的でクリーンなデータと関連付けられる可能性が考えられ、これによって自然画像内の文字認識等も可能となる。また先行伝播させる教師信号としての入力信号についても、単一の信号のみならず、これを多重化したもの(例えば、「赤く」て「丸い」果物として「りんご」を学習する) も可能である。これにより、自然界のマルチモーダルな情報の統合(例えば画像と音など) が実現できる可能性もある。 Even when the present invention is applied to natural image recognition or the like, there is a possibility that a new natural image may be associated with learned artificial and clean data. It becomes possible. Also, the input signal as a teacher signal to be propagated in advance can be not only a single signal but also a multiplexed signal (for example, learning “apple” as “red” and “round” fruit). . Thus, there is a possibility that multimodal information integration (for example, images and sounds) in the natural world can be realized.
以下、本発明の効果を検証する上で行ったシミュレーションについて説明をする。シミュレーションにおいて使用した階層型ニューラルネットワーク3のパラメータを表1に示す。
Hereinafter, a simulation performed for verifying the effect of the present invention will be described. Table 1 shows the parameters of the hierarchical
個々のSOM41〜43をモジュールの基本単位として構成している。また個々のSOM41〜43モジュールは100個のニューロンにより構成され、モジュール毎に一つ前の層から受容野(Receptive Field:RF)に基づいた部分入力を受け取る。1層目のネットワークは、上述した入力層31に相当し、2層目のネットワークは、中間層32aに、3層目のネットワークは中間層32bに、4層目のネットワークは、出力層33に相当する。表1によれば、1層目のネットワークは、49個のSOM、即ち4900個のニューロンから構成され、個々のニューロンは、28×28ピクセルの入力画像のうちの受容野に相当する6×6ピクセルからの入力を受け、層全体で176400個のシナプスを構成する。シナプスの重みの初期値は、一様乱数によって生成し、重みベクトルは、各ニューロンについて2ノルムで規格化している。
The
個々のニューロン(これにつながる経路)は、伝播する信号と、結合荷重値との内積を計算し、上述のようにSOM内において最も大きな内積値を持つニューロン(経路)の出力を1.0とし、その近隣のニューロン(経路)が距離に依存して減衰する値を出力するようにする。距離による減衰は、ガウス関数G(d)=exp(-d2/2σ2)を用いた。dはあるニューロンと最も大きな内積値を持つニューロンとのSOM内での距離を表している。σは標準偏差であるが、いわばガウス関数における距離減衰係数に相当するものであり、今回のシミュレーションでは0.4としている。 Each neuron (path leading to it) calculates the inner product of the signal to propagate and the connection weight value, and the output of the neuron (path) having the largest inner product value in the SOM is 1.0 as described above. The neighboring neurons (paths) output a value that attenuates depending on the distance. Attenuation due to distance was performed using a Gaussian function G (d) = exp (−d 2 / 2σ 2 ). d represents the distance in a SOM between a certain neuron and the neuron having the largest inner product value. σ is a standard deviation, which is equivalent to a distance attenuation coefficient in a Gaussian function, and is 0.4 in this simulation.
このシミュレーションでは、最初に事前学習を行っている。この事前学習では、教師なしの競合学習を用いている。この競合学習では、入力信号(入力ベクトル)と結合荷重値との内積を求め、得られる内積値が最大となるニューロン(経路)及びその近傍のニューロン(経路)について、結合荷重値を入力ベクトルに近づけるように更新する。またそれ以外のニューロン(経路)については上述と同様にスパースとみなす処理を行う。結合荷重値の更新の規則は、以下のように記述できる。 In this simulation, preliminary learning is performed first. This pre-learning uses unsupervised competitive learning. In this competitive learning, the inner product of the input signal (input vector) and the connection weight value is obtained, and the connection weight value is used as the input vector for the neuron (path) having the maximum inner product value and the neighboring neurons (path). Update to get closer. For other neurons (paths), processing that is regarded as sparse is performed as described above. The rules for updating the combined load value can be described as follows.
Δw=αxinput exp(-d2/2σ2) Δw = αx input exp (-d 2 / 2σ 2 )
ここでwは重みベクトル、xinputは入力ベクトル、αは学習係数である。この学習係数αは、初期値1.00から学習セッション終了時の値0.00まで単調に減少するように設定している。ガウス関数による距離減衰係数σも同様に初期値3.5から終了時の0.0へと減少するモデルとしている。重みベクトルは、以下の式のように値の更新毎に規格化される。 Here, w is a weight vector, x input is an input vector, and α is a learning coefficient. The learning coefficient α is set so as to monotonously decrease from an initial value 1.00 to a value 0.00 at the end of the learning session. Similarly, the distance attenuation coefficient σ by the Gaussian function is a model that decreases from the initial value 3.5 to 0.0 at the end. The weight vector is normalized every time the value is updated as in the following equation.
wnew=(w+Δw)/|w+Δw| w new = (w + Δw) / | w + Δw |
入力信号としては、MNISTの手書き数字の画像データセットを利用する。事前学習では、層毎に学習を進めていく方式を利用している。先ず1層目について10000サンプルで学習され、次に2層目が追加された状態で10000サンプル学習され、層を増やす毎に10000サンプル学習させる。その結果、最終的には、第1層目が40000サンプル、第2層目が30000サンプル、第3層目が20000サンプル、第4層目が10000サンプルで学習されることとなる。 As an input signal, an image data set of handwritten numerals of MNIST is used. In the pre-learning, a method of promoting learning for each layer is used. First, 10000 samples are learned for the first layer, then 10000 samples are learned with the second layer added, and 10,000 samples are learned each time the layer is increased. As a result, the first layer is learned with 40000 samples, the second layer with 30000 samples, the third layer with 20000 samples, and the fourth layer with 10,000 samples.
事前学習を行わせた後に、教師ありの先行伝播学習を行わせる。この先行伝播学習の詳細は、上述した実施の形態に示すとおりであるが、その詳細は、(Ahalt,S.C., Krishnamurthy, A.K., Chen, P. & Melton D.E.: Competitive learning algorithms for vector quantization, Neural Networks, 3(3), pp. 277-290(1990))に記載されているLearning Vector Quantization(LVQ)に基づくものである。具体的には、このLVQを階層型ニューラルネットワーク3に対応させて、上述した教師信号を順方向へ伝播させる。この教師ありの先行伝播学習においても、事前学習と同様にスパース処理が行われる。
After pre-learning is performed, supervised advance propagation learning is performed. The details of this pre-propagation learning are as shown in the above-described embodiment. 3 (3), pp. 277-290 (1990)), based on Learning Vector Quantization (LVQ). More specifically, the LVQ is made to correspond to the hierarchical
以上に加え、階層型ニューラルネットワークにおける各層に対応する項と、SOM内での距離減衰の項を加えた学習の式は、以下のように記述できる。 In addition to the above, the learning equation including the terms corresponding to each layer in the hierarchical neural network and the term of distance attenuation in the SOM can be described as follows.
Δw=rn-kα(βxadv+(1−β)xtarget)exp(-d2/2σ2) Δw = r nk α (βx adv + (1-β) x target ) exp (-d 2 / 2σ 2 )
ここでrは、層から層への学習の減衰係数であり、nは階層型ニューラルネットワークの層の総数、kは学習を適用する層となる。これにより、1層目では最も弱い学習が行われ、順方向に進むにつれて強い学習が行われる。 Here, r is an attenuation coefficient of learning from layer to layer, n is the total number of layers of the hierarchical neural network, and k is a layer to which learning is applied. As a result, the weakest learning is performed in the first layer, and the stronger learning is performed in the forward direction.
この教師ありの先行伝播学習では、上述した事前学習の結果において,それぞれの目標信号(「0」から「9」までの数値) に対して最大の値を出力したニューロンを代表ニューロンとし、これを発火させる入力信号を先行伝播学習法のための教師信号として用いた。 In this supervised pre-propagation learning, the neuron that outputs the maximum value for each target signal (numerical value from “0” to “9”) in the result of the pre-learning described above is used as the representative neuron. The input signal to ignite was used as a teacher signal for the preceding propagation learning method.
図8は、教師ありの先行伝播学習法によるエラー率の変化を示している。それぞれ横軸は、学習セットの適用回数(学習回数)であり、縦軸は、エラー率を示している。事前学習直後では、エラー率が17.2±1.0%であったの対して、先行伝播学習法によれば20回の学習回数を経てエラー率を5.6±0.1%にまで低下させることができることが示されている。このため、学習効率を向上させることができることがシミュレーションを通じて検証された。 FIG. 8 shows a change in error rate by the supervised preceding propagation learning method. The horizontal axis represents the number of times the learning set is applied (the number of learning times), and the vertical axis represents the error rate. Immediately after prior learning, the error rate was 17.2 ± 1.0%, whereas the prior propagation learning method showed that the error rate could be reduced to 5.6 ± 0.1% after 20 learning cycles. ing. For this reason, it was verified through simulation that learning efficiency could be improved.
1 階層型ニューラルネットワークの学習システム
3 階層型ニューラルネットワーク
11 信号入力部
12 出力部
13 演算部
22 目標信号記憶部
23 階層型ニューラルネットワーク記憶部
24 出力信号生成部
25 結合荷重値調整部
31 入力層
32 中間層
33 出力層
41、42、43 SOM
51〜54 ニューロン
DESCRIPTION OF SYMBOLS 1 Learning system of hierarchical
51-54 neurons
Claims (6)
予め用意した入力信号と目標信号の組からなる学習セットにおける入力信号を上記階層型ニューラルネットワークの入力層に対して入力して伝播させる信号入力手段と、
上記階層型ニューラルネットワークの各層を構成する各SOM(Self-Organizing Map)の各ニューロンにつながる経路のうち伝播する信号と結合荷重値との適合度が最も高い経路、又は当該経路とその近傍の経路のみ選択し、それ以外の経路はスパースとみなす処理を当該SOM単位で行うスパース処理手段と、
上記スパース処理手段による処理が行われた上記階層型ニューラルネットワークに上記信号入力手段により入力された上記入力信号を順方向に伝播させて出力信号を取得する出力信号取得手段と、
上記出力信号取得手段により取得された出力信号と、上記入力信号と組になっている目標信号とを比較し、これらの一致度合に応じて上記選択した経路を伝播する信号と結合荷重値との適合度を増減させる調整を行う結合荷重値調整手段とを備えること
を特徴とする階層型ニューラルネットワークの学習システム。 Provided between an input layer including a plurality of input layer neurons that receive external input signals, an output layer including a plurality of output layer neurons that transmit output signals to the outside, and the input layer neurons and the output layer neurons Hierarchical neural network learning system for learning to bring an output signal closer to a target signal by adjusting a connection weight value between each layer of a hierarchical neural network having one or more intermediate layers including a plurality of intermediate layer neurons In
A signal input means for inputting and propagating an input signal in a learning set composed of a set of an input signal and a target signal prepared in advance to the input layer of the hierarchical neural network;
Of the paths connected to each neuron of each SOM (Self-Organizing Map) constituting each layer of the hierarchical neural network, the path having the highest matching degree between the propagated signal and the connection weight value, or the path in the vicinity thereof Sparse processing means for selecting only the other path, and processing other than the path as sparse in units of the SOM,
Output signal acquisition means for propagating the input signal input by the signal input means in the forward direction to the hierarchical neural network processed by the sparse processing means, and acquiring an output signal;
The output signal acquired by the output signal acquisition means is compared with the target signal paired with the input signal, and the signal propagated through the selected path according to the degree of coincidence and the combined load value A learning system for a hierarchical neural network, comprising: a combined load value adjusting means for adjusting to increase or decrease the fitness.
上記スパース処理手段は、他の学習セットの入力信号が上記信号入力手段に入力された場合に、上記記憶手段により記憶された正しい経路の情報に基づいて上記処理を行うこと
を特徴とする請求項1記載の階層型ニューラルネットワークの学習システム。 The input signal determined to be coincident with the target signal by the combined load value adjusting unit is regarded as a teacher signal, the teacher signal is input to the signal input unit, propagated in the forward direction, and selected by the sparse processing unit. It further comprises storage means for storing correct route information,
The sparse processing unit performs the processing based on information on a correct path stored by the storage unit when an input signal of another learning set is input to the signal input unit. The learning system for hierarchical neural networks according to 1.
を特徴とする請求項1又は2記載の階層型ニューラルネットワークの学習システム。 The degree of competition of the matching degree of the combined load value of each path in each SOM is obtained, and the adjustment amount of the combined load value for each SOM is changed based on the obtained degree of competition. The learning system of the described hierarchical neural network.
入力信号群から選択した任意の入力信号を代表入力信号として、これを上記階層型ニューラルネットワークの入力層に対して入力して伝播させる信号入力手段と、
上記階層型ニューラルネットワークの各層を構成する各SOM(Self-Organizing Map)の各ニューロンにつながる経路のうち伝播する信号と結合荷重値との適合度が最も高い経路、又は当該経路とその近傍の経路のみ選択し、それ以外の経路はスパースとみなす処理を当該SOM単位で行うスパース処理手段と、
上記スパース処理手段による処理が行われた上記階層型ニューラルネットワークに上記信号入力手段により入力された上記代表入力信号を順方向に伝播させて得られる代表出力信号を取得する出力信号取得手段と、
上記入力信号群の中から上記代表入力信号とは異なる他の入力信号が上記信号入力手段により入力されて上記スパース処理手段による上記処理を経て上記出力信号取得手段により取得された出力信号と、上記目標信号とみなした上記代表出力信号とを比較し、これらの一致度合に応じて上記選択した経路を伝播する信号と結合荷重値との適合度を増減させる調整を行う結合荷重値調整手段とを備えること
を特徴とする階層型ニューラルネットワークの学習システム。 Provided between an input layer including a plurality of input layer neurons that receive external input signals, an output layer including a plurality of output layer neurons that transmit output signals to the outside, and the input layer neurons and the output layer neurons Learning of a hierarchical neural network that performs expression learning that brings an output signal closer to a target signal by adjusting a connection weight value of each layer of the hierarchical neural network having one or more intermediate layers including a plurality of intermediate layer neurons. In the system,
Any input signal selected from the input signal group as a representative input signal, and this is input to the input layer of the hierarchical neural network and propagated,
Of the paths connected to each neuron of each SOM (Self-Organizing Map) that constitutes each layer of the hierarchical neural network, the path having the highest matching degree between the propagated signal and the connection weight value, or the path in the vicinity thereof Sparse processing means for selecting only the other path, and processing other than the path as sparse in units of the SOM,
Output signal acquisition means for acquiring a representative output signal obtained by propagating the representative input signal input by the signal input means in the forward direction to the hierarchical neural network processed by the sparse processing means;
The other input signal different from the representative input signal from the input signal group is input by the signal input means, the output signal acquired by the output signal acquisition means through the processing by the sparse processing means, and A combined load value adjusting unit that compares the representative output signal regarded as a target signal and adjusts the degree of matching between the signal propagating through the selected path and the combined load value according to the degree of coincidence thereof. A hierarchical neural network learning system characterized by comprising:
予め用意した入力信号と目標信号の組からなる学習セットにおける入力信号を上記階層型ニューラルネットワークの入力層に対して入力して伝播させる信号入力ステップと、
上記階層型ニューラルネットワークの各層を構成する各SOM(Self-Organizing Map)の各ニューロンにつながる経路のうち伝播する信号と結合荷重値との適合度が最も高い経路、又は当該経路とその近傍の経路のみ選択し、それ以外の経路はスパースとみなす処理を当該SOM単位で行うスパース処理ステップと、
上記スパース処理ステップにおける処理が行われた上記階層型ニューラルネットワークに上記信号入力手段により入力された上記入力信号を順方向に伝播させて出力信号を取得する出力信号取得ステップと、
上記出力信号取得ステップにおいて取得された出力信号と、上記入力信号と組になっている目標信号とを比較し、これらが一致している場合には、上記選択した経路を伝播する信号と結合荷重値との適合度が増加するように調整し、これらの一致度合に応じて上記選択した経路を伝播する信号と結合荷重値との適合度を増減させる調整を行う結合荷重値調整ステップとを有すること
を特徴とする階層型ニューラルネットワークの学習方法。 Provided between an input layer including a plurality of input layer neurons that receive external input signals, an output layer including a plurality of output layer neurons that transmit output signals to the outside, and the input layer neurons and the output layer neurons A learning method for a hierarchical neural network that performs learning to bring an output signal closer to a target signal by adjusting a connection load value between layers of the hierarchical neural network having one or more intermediate layers including a plurality of intermediate layer neurons. In
A signal input step of inputting and propagating an input signal in a learning set composed of a set of an input signal and a target signal prepared in advance to an input layer of the hierarchical neural network;
Of the paths connected to each neuron of each SOM (Self-Organizing Map) that constitutes each layer of the hierarchical neural network, the path having the highest matching degree between the propagated signal and the connection weight value, or the path in the vicinity thereof A sparse processing step that performs processing in which the other path is regarded as sparse in units of the SOM;
An output signal acquisition step of acquiring an output signal by propagating the input signal input by the signal input means in the forward direction to the hierarchical neural network subjected to the processing in the sparse processing step;
The output signal acquired in the output signal acquisition step is compared with the target signal paired with the input signal, and if they match, the signal propagating on the selected path and the combined load And a combined load value adjusting step for adjusting to increase or decrease the fitness of the signal propagating through the selected path and the combined load value according to the degree of coincidence. A learning method for a hierarchical neural network characterized by
入力信号群から選択した任意の入力信号を代表入力信号として、これを上記階層型ニューラルネットワークの入力層に対して入力して伝播させる信号入力ステップと、
上記階層型ニューラルネットワークの各層を構成する各SOM(Self-Organizing Map)の各ニューロンにつながる経路のうち伝播する信号と結合荷重値との適合度が最も高い経路、又は当該経路とその近傍の経路のみ選択し、それ以外の経路はスパースとみなす処理を当該SOM単位で行うスパース処理ステップと、
上記スパース処理ステップにおける処理が行われた上記階層型ニューラルネットワークに上記信号入力手段により入力された上記代表入力信号を順方向に伝播させて得られる代表出力信号を取得する出力信号取得ステップと、
上記入力信号群の中から上記代表入力信号とは異なる他の入力信号が上記信号入力手段により入力されて上記スパース処理ステップにおける上記処理を経て上記出力信号取得手段により取得された出力信号と、上記目標信号とみなした上記代表出力信号とを比較し、これらの一致度合に応じて上記選択した経路を伝播する信号と結合荷重値との適合度を増減させる調整を行う結合荷重値調整ステップとを有すること
を特徴とする階層型ニューラルネットワークの学習方法。 Provided between an input layer including a plurality of input layer neurons that receive external input signals, an output layer including a plurality of output layer neurons that transmit output signals to the outside, and the input layer neurons and the output layer neurons Learning of a hierarchical neural network that performs expression learning that brings an output signal closer to a target signal by adjusting a connection weight value of each layer of the hierarchical neural network having one or more intermediate layers including a plurality of intermediate layer neurons. In the method
An arbitrary input signal selected from the input signal group as a representative input signal, and a signal input step for causing the input signal to propagate to the input layer of the hierarchical neural network,
Of the paths connected to each neuron of each SOM (Self-Organizing Map) that constitutes each layer of the hierarchical neural network, the path having the highest matching degree between the propagated signal and the connection weight value, or the path in the vicinity thereof A sparse processing step that performs processing in which the other path is regarded as sparse in units of the SOM;
An output signal acquisition step of acquiring a representative output signal obtained by propagating the representative input signal input by the signal input means in the forward direction to the hierarchical neural network subjected to the processing in the sparse processing step;
The other input signal different from the representative input signal from the input signal group is input by the signal input means, the output signal acquired by the output signal acquisition means through the processing in the sparse processing step, and A combined load value adjustment step for comparing the representative output signal regarded as a target signal and adjusting to increase or decrease the degree of matching between the signal propagated through the selected path and the combined load value according to the degree of coincidence thereof. A learning method for a hierarchical neural network characterized by comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014093374A JP6327926B2 (en) | 2014-04-30 | 2014-04-30 | Hierarchical neural network learning system and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014093374A JP6327926B2 (en) | 2014-04-30 | 2014-04-30 | Hierarchical neural network learning system and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015210747A true JP2015210747A (en) | 2015-11-24 |
JP6327926B2 JP6327926B2 (en) | 2018-05-23 |
Family
ID=54612857
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014093374A Expired - Fee Related JP6327926B2 (en) | 2014-04-30 | 2014-04-30 | Hierarchical neural network learning system and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6327926B2 (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111401425A (en) * | 2020-03-11 | 2020-07-10 | 北京慧飒科技有限责任公司 | Non-invasive electrical cluster load electrical performance autonomous learning processing method |
WO2020223278A1 (en) * | 2019-04-29 | 2020-11-05 | Advanced Micro Devices, Inc. | Data sparsity monitoring during neural network training |
US20200380372A1 (en) * | 2017-01-30 | 2020-12-03 | Deepmind Technologies Limited | Multi-task neural networks with task-specific paths |
US10915812B2 (en) | 2016-11-09 | 2021-02-09 | Samsung Electronics Co., Ltd. | Method and system of managing computing paths in an artificial neural network |
US11113361B2 (en) | 2018-03-07 | 2021-09-07 | Samsung Electronics Co., Ltd. | Electronic apparatus and control method thereof |
JP2022512460A (en) * | 2019-02-28 | 2022-02-03 | ディープキューブ リミテッド | Partial activation of multiple paths in a neural network |
US11580194B2 (en) | 2017-11-01 | 2023-02-14 | Nec Corporation | Information processing apparatus, information processing method, and program |
JP7389575B2 (en) | 2019-07-02 | 2023-11-30 | キヤノン株式会社 | Data processing device, data processing method, learning device, learning method, neural network, and program |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1185719A (en) * | 1997-09-03 | 1999-03-30 | Matsushita Electric Ind Co Ltd | Parameter estimation device |
JP2007299365A (en) * | 2006-04-06 | 2007-11-15 | Sony Corp | Data processor, data processing method and program |
-
2014
- 2014-04-30 JP JP2014093374A patent/JP6327926B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1185719A (en) * | 1997-09-03 | 1999-03-30 | Matsushita Electric Ind Co Ltd | Parameter estimation device |
JP2007299365A (en) * | 2006-04-06 | 2007-11-15 | Sony Corp | Data processor, data processing method and program |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10915812B2 (en) | 2016-11-09 | 2021-02-09 | Samsung Electronics Co., Ltd. | Method and system of managing computing paths in an artificial neural network |
US20200380372A1 (en) * | 2017-01-30 | 2020-12-03 | Deepmind Technologies Limited | Multi-task neural networks with task-specific paths |
US11790238B2 (en) * | 2017-01-30 | 2023-10-17 | Deepmind Technologies Limited | Multi-task neural networks with task-specific paths |
US11580194B2 (en) | 2017-11-01 | 2023-02-14 | Nec Corporation | Information processing apparatus, information processing method, and program |
US11113361B2 (en) | 2018-03-07 | 2021-09-07 | Samsung Electronics Co., Ltd. | Electronic apparatus and control method thereof |
JP2022512460A (en) * | 2019-02-28 | 2022-02-03 | ディープキューブ リミテッド | Partial activation of multiple paths in a neural network |
JP7111908B2 (en) | 2019-02-28 | 2022-08-02 | ディープキューブ リミテッド | Partial Activation of Multiple Paths in Neural Networks |
WO2020223278A1 (en) * | 2019-04-29 | 2020-11-05 | Advanced Micro Devices, Inc. | Data sparsity monitoring during neural network training |
JP7389575B2 (en) | 2019-07-02 | 2023-11-30 | キヤノン株式会社 | Data processing device, data processing method, learning device, learning method, neural network, and program |
CN111401425A (en) * | 2020-03-11 | 2020-07-10 | 北京慧飒科技有限责任公司 | Non-invasive electrical cluster load electrical performance autonomous learning processing method |
Also Published As
Publication number | Publication date |
---|---|
JP6327926B2 (en) | 2018-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6327926B2 (en) | Hierarchical neural network learning system and method | |
US11023806B2 (en) | Learning apparatus, identifying apparatus, learning and identifying system, and recording medium | |
Song et al. | Spiking neural P systems with learning functions | |
KR102492318B1 (en) | Model training method and apparatus, and data recognizing method | |
US10635978B2 (en) | Ensembling of neural network models | |
US10832138B2 (en) | Method and apparatus for extending neural network | |
Schuman et al. | An evolutionary optimization framework for neural networks and neuromorphic architectures | |
US20190294955A1 (en) | Information processing apparatus, method, and computer readable storage medium | |
CN107516132A (en) | The simplification device and method for simplifying of artificial neural networks | |
KR20210060146A (en) | Method and apparatus for processing data using deep neural network model, method and apparatus for trining deep neural network model | |
Wang et al. | Recurrent spiking neural network with dynamic presynaptic currents based on backpropagation | |
Ma et al. | Temporal dependent local learning for deep spiking neural networks | |
Ding et al. | College English online teaching model based on deep learning | |
US20240095535A1 (en) | Executing a genetic algorithm on a low-power controller | |
Zamani et al. | A bidirectional associative memory based on cortical spiking neurons using temporal coding | |
Putri et al. | Enhancing Pneumonia Disease Classification using Genetic Algorithm-Tuned DCGANs and VGG-16 Integration | |
Hourdakis et al. | Computational modeling of cortical pathways involved in action execution and action observation | |
JP6980263B2 (en) | Heterogeneous data deep learning device, heterogeneous data deep learning method, and heterogeneous data deep learning program | |
CN112352248A (en) | Apparatus and method for constructing a neural network with feedforward and feedback paths using a parametric genome characterizing neural network connections as building blocks | |
JP5458791B2 (en) | Associative memory device, associative memory method, and program | |
Mondal | Evolution of convolution neural network architectures using genetic algorithm | |
JPH04501327A (en) | pattern transfer neural network | |
KR102574165B1 (en) | Apparatus for classifying sounds basde on neural code in spiking neural network and method thereof | |
Ikuta et al. | Multi-layer perceptron with impulse glial network | |
Larisch et al. | A neural spiking approach compared to deep feedforward networks on stepwise pixel erasement |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170315 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180410 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180417 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6327926 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |