JPH09311846A - Neural network - Google Patents

Neural network

Info

Publication number
JPH09311846A
JPH09311846A JP8150055A JP15005596A JPH09311846A JP H09311846 A JPH09311846 A JP H09311846A JP 8150055 A JP8150055 A JP 8150055A JP 15005596 A JP15005596 A JP 15005596A JP H09311846 A JPH09311846 A JP H09311846A
Authority
JP
Japan
Prior art keywords
unit
group
value
learning
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8150055A
Other languages
Japanese (ja)
Inventor
Toshiyuki Ogawa
敏幸 小河
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyo Electric Manufacturing Ltd
Original Assignee
Toyo Electric Manufacturing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyo Electric Manufacturing Ltd filed Critical Toyo Electric Manufacturing Ltd
Priority to JP8150055A priority Critical patent/JPH09311846A/en
Publication of JPH09311846A publication Critical patent/JPH09311846A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Character Discrimination (AREA)

Abstract

PROBLEM TO BE SOLVED: To attain higher learning and generalization capability by grouping the units of an output layer for learning, recognition and estimation, and then using an optimum unit in the group. SOLUTION: When various set values of a learning pattern, a teacher pattern, etc., are inputted to an input device 5, these input value store every pattern in a working memory 2 via an input control part 3. Then each input value is inputted to a neural network 1, and the learning is performed based on the set value of learning and teacher patterns, etc., of the memory 2 and the coupling coefficient is updated. The coupling coefficient is stored in the network 1, and the learning result is outputted to an output/display device and displayed there via an output control part 4. In such a constitution, the units of an output layer are divided into groups and the optimum unit of each group represents the group. Thus, the square error of the output value is reduced for the teacher value.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、情報処理における
ニューラルネットワーク型パターン識別装置や値推定装
置及びその学習手段に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a neural network type pattern discriminating apparatus and a value estimating apparatus for information processing and learning means for the same.

【0002】[0002]

【従来の技術】ニューラルネットワーク(多層階層構造
型神経回路網)の構造及び学習手段としては、代表的な
誤差逆伝播法(バックプロパゲーション法)がある。
(例えば「神経回路網モデルとコネクショニズム」、甘
利俊一著、東京大学出版会に掲載されている。) この概要を図3のユニット内部状態説明図により説明す
ると、入力層以外のユニットiの入出力関係は(1)、
(2)、(3)式に示され、ユニットiに対する入力を
Oj(j=1からN)、各Ojに対する結合係数(重
み)をWijで表す。このとき、結合係数Wijは、乱
数等で初期設定する。
2. Description of the Related Art A typical error back-propagation method (back propagation method) is used as a structure and learning means of a neural network (multi-layered hierarchical neural network).
(For example, "Neural network model and connectionism", Shunichi Amari, published in The University of Tokyo Press.) This outline is explained by the unit internal state explanatory diagram of FIG. The relationship is (1),
In the expressions (2) and (3), the input for the unit i is represented by Oj (j = 1 to N), and the coupling coefficient (weight) for each Oj is represented by Wij. At this time, the coupling coefficient Wij is initialized by a random number or the like.

【0003】 入力の積和 Xi=Σ WijOj ・・・・・・・・・・(1) (1)式を関数f(Xi)に適用し変換する。関数とし
ては一般に微分可能な次の(2)式のようなシグモイド
関数を使うことが多い。 f(Xi)=1/{1+exp(−Xi)} ・・・・・・・・・・(2) 出力 Yi=f(Xi) ・・・・・・・・・・(3) ここで Yiの値は0から1の間の数となる。他方、入
力層のユニットは入力値をそのまま出力値とする。
Input sum of products Xi = Σ WijOj (1) The equation (1) is applied to the function f (Xi) for conversion. As a function, a sigmoid function like the following formula (2) that is generally different is generally used. f (Xi) = 1 / {1 + exp (−Xi)} ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ (2) Output Yi = f (Xi) ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ (3) where Yi The value of is a number between 0 and 1. On the other hand, the input layer unit uses the input value as it is as the output value.

【0004】誤差逆伝播法とは、学習パターンXk か
ら得られる出力パターンYi と学習パターンに対する
所望の出力値Ii (以後教師パターンと言う)とのユ
ニットの2乗誤差を最小化する学習方法である。ここで
は図2のような3層構造の例について説明するが、多層
の場合も同様である。結合係数の学習は次のようにす
る。まず出力層の学習は損失関数をE(二乗誤差)とす
ると、(4)式に示され、iは出力層のユニット番号、
jは中間層のユニット番号、kは入力層のユニット番
号、Oj は中間層の出力、Wijは中間層と出力層間
の結合係数、Yi は出力層の出力、Ii は教師パタ
ーンである。 E(W)=1/2Σ(Yi−Ii)・(Yi−Ii) ・・・・・・・(4) WはすべてのWijを示す。
The error backpropagation method is a learning method for minimizing the square error of a unit between an output pattern Yi obtained from a learning pattern Xk and a desired output value Ii (hereinafter referred to as a teacher pattern) for the learning pattern. . Here, an example of a three-layer structure as shown in FIG. 2 will be described, but the same applies to the case of multiple layers. The coupling coefficient is learned as follows. First, assuming that the loss function is E (square error), learning of the output layer is represented by equation (4), where i is the unit number of the output layer,
j is the unit number of the intermediate layer, k is the unit number of the input layer, Oj is the output of the intermediate layer, Wij is the coupling coefficient between the intermediate layer and the output layer, Yi is the output of the output layer, and Ii is the teacher pattern. E (W) = 1 / 2.SIGMA. (Yi-Ii). (Yi-Ii) .... (4) W represents all Wij.

【0005】最急降下法(確率的降下法)を適用する
と、(5)式を学習信号として(6)式に示すように結
合係数を変えればよい。 δE/δWij=(Yi−Ii)f’(ΣWijOj)Oj ・・・・(5) 新Wij=旧Wij−cδE/ΣWij ・・・・・・・・(6) ここで、cは学習定数、Oj は中間層の出力である。
When the steepest descent method (stochastic descent method) is applied, the coupling coefficient may be changed as shown in the equation (6) using the equation (5) as a learning signal. δE / δWij = (Yi−Ii) f ′ (ΣWijOj) Oj (5) New Wij = old Wij−c δE / ΣWij (6) Here, c is a learning constant, Oj is the output of the middle layer.

【0006】(2)式のシグモイド関数は、一般的には
次の(7)式で表せ、これを微分すると、元の関数を使
い、(8)式のように表される。 f(x)=1/{1+exp(−x)} ・・・・・・・・・・(7) f’(x)=f(x)(1−f(x)) ・・・・・・・・・・・(8) 実際にはf(ΣWijOj)=Yiであるから、(8)
式は、 f’(ΣWijOj)=Yi(1−Yi) で示され、(5)式は(9)式となる。 δE/δWij=(Yi−Ii)Yi(1−Yi)Oj ・・・・・(9) したがってc=1とすると、(6)式は、 新Wij=旧Wij−(Yi−Ii)Yi(1−Yi)Oj ・・・・(10) で示される。 ここで、D1i=(Ii−Yi)Yi
(1−Yi)とすると、(10)式は(11)式で表され
る。 新Wij=旧Wij+D1iOj ・・・・・・・・(11) 中間層の学習も損失関数をE(二乗誤差)とすると、
(12)式で表される。 E(V)=1/2(Yi−Ii)(Yi−Ii) ・・・・・・・・(12) VはすべてのVjkのことである。ここで、Vjkは中
間層と入力層間の結合係数を表す。最急降下法(確率的
降下法)を適用すると、(13)式を学習信号として(1
4)式に示すように結合係数を変えればよい。
The sigmoid function of the expression (2) can be generally expressed by the following expression (7), and when differentiated, the original function is used and expressed as the expression (8). f (x) = 1 / {1 + exp (-x)} ... (7) f '(x) = f (x) (1-f (x)) ... (8) Actually, f (ΣWijOj) = Yi, so (8)
The formula is represented by f ′ (ΣWijOj) = Yi (1-Yi), and the formula (5) becomes the formula (9). [delta] E / [delta] Wij = (Yi-Ii) Yi (1-Yi) Oj (9) Therefore, if c = 1, then equation (6) gives new Wij = old Wij- (Yi-Ii) Yi ( 1-Yi) Oj ... (10) Here, D1i = (Ii−Yi) Yi
Assuming (1-Yi), equation (10) is represented by equation (11). New Wij = old Wij + D1iOj ... (11) In the learning of the intermediate layer, if the loss function is E (square error),
It is expressed by equation (12). E (V) = 1/2 (Yi-Ii) (Yi-Ii) (12) V is all Vjk. Here, Vjk represents a coupling coefficient between the intermediate layer and the input layer. When the steepest descent method (stochastic descent method) is applied, equation (13) is used as the learning signal (1
Change the coupling coefficient as shown in equation (4).

【0007】 δE/δVjk=δE/δOj・δOj/δVjk =Σ(Yi−Ii)δYi/δOj・δOj/δVjk ={Σ(Yi−Ii)f’(WijOj)Wij} ×f’(ΣVjkXk)Xk ・・・(13) 新Vi=旧Vi−cδE/δVjkより ・・・・・・・・・(14) (14)式は(15)〜(18)式を用いて変換し、(19)式
を得る。 Dj =−{Σ(Yi−Ii)f’(WijOj)Wij} =ΣD1iWij ・・・・・・・・・(15) f’(ΣVjkXk)Xk=Oj(1−Oj)Xk ・・・・・・・(16) δE/δVjk=−DjOj(1−Oj)Xk ・・・・・・・・(17) なお、Xkは入力層の出力である。したがってc=1と
すると 新Vjk=旧Vjk+DjOj(1−Oj)Xk ・・・・・・・・(18) ここで D2j=DjOj(1−Oj) とする。 したがって、新Vjk=旧Vjk+D2jXk ・・・・・・・・(19) このようにして、入力層中間層間の結合係数の学習式も
表すことが出来る。結合係数の計算は出力層のユニット
から始めて中間層のユニットへ移り、次々に前段の中間
層へ移っていく。従って学習は次のように進み、まず学
習用のパターンを入力し、結果を計算する。結果の教師
パターンとの誤差を減らすように全ての結合係数を変更
する。再び、学習用パターンを入力する。これを収束す
るまで繰り返す。
ΔE / δVjk = δE / δOj · δOj / δVjk = Σ (Yi-Ii) δYi / δOj · δOj / δVjk = {Σ (Yi-Ii) f ′ (WijOj) Wij} × f ′ (ΣVjkXk) Xk・ ・ ・ (13) New Vi = Old Vi-cδE / δVjk ・ ・ ・ ・ ・ ・ (14) Equation (14) is converted using Equations (15) to (18), and (19) Get the expression. Dj = − {Σ (Yi−Ii) f ′ (WijOj) Wij} = ΣD1iWij ... (15) f ′ (ΣVjkXk) Xk = Oj (1-Oj) Xk .. (16) .delta.E / .delta.Vjk = -DjOj (1-Oj) Xk (17) where Xk is the output of the input layer. Therefore, if c = 1, new Vjk = old Vjk + DjOj (1-Oj) Xk (18) where D2j = DjOj (1-Oj). Therefore, new Vjk = old Vjk + D2jXk (19) In this way, the learning equation for the coupling coefficient between the input layers and the intermediate layer can also be expressed. The calculation of the coupling coefficient starts from the unit of the output layer, moves to the unit of the intermediate layer, and successively moves to the intermediate layer of the previous stage. Therefore, learning proceeds as follows. First, a learning pattern is input and the result is calculated. Change all coupling coefficients to reduce the error with the resulting teacher pattern. The learning pattern is input again. This is repeated until it converges.

【0008】[0008]

【発明が解決しようとする課題】従来の技術では、次の
ような欠点がある。 (1)従来の多層階層構造型ニューラルネットワークの
学習時に於ける出力層の各ユニットの出力値と対応する
教師値の比較は1対1で行われていたため、出力層の特
定のユニットの学習が進まないため、ネットワーク全体
として学習が進まない恐れが十分ある。 (2)従来の多層階層構造型ニューラルネットワークの
未知データに対する認識時に於ける出力層の各ユニット
の出力値と対応する教師値の比較は1対1で行われてい
たため、出力層の特定のユニットの値が異なることによ
り、ネットワーク全体としての認識結果を誤る恐れが十
分ある。 (3)学習を一定の回数だけ学習させる、あるいは局所
極小に落ち込むまで学習させた結果、各学習パターンの
出力と教師パターンとの差にばらつきがある、あるい
は、教師パターンに一致しない学習パターンが出る事が
多々ある。 そして、これを解決しようとして学習回数を増やすだけ
では実行時間がかかるし、学習回数だけ増やしても特定
の学習パターンは収束しないことがある。
However, the conventional techniques have the following drawbacks. (1) Since the comparison between the output value of each unit of the output layer and the corresponding teacher value at the time of learning of the conventional multi-layer hierarchical structure type neural network is performed on a one-to-one basis, learning of a specific unit of the output layer is performed. Since there is no progress, there is a sufficient risk that learning will not progress as a whole network. (2) Since the comparison between the output value of each unit of the output layer and the corresponding teacher value at the time of recognizing unknown data of the conventional multi-layer hierarchical structure type neural network is performed on a one-to-one basis, a specific unit of the output layer Due to the different values of, there is a sufficient risk that the recognition result of the entire network will be erroneous. (3) As a result of learning a fixed number of times, or learning until it falls to a local minimum, there is variation in the difference between the output of each learning pattern and the teacher pattern, or there is a learning pattern that does not match the teacher pattern. There are many things. In order to solve this, it takes execution time just to increase the number of times of learning, and a specific learning pattern may not converge even if the number of times of learning is increased.

【0009】[0009]

【課題を解決するための手段】本発明は上述した点に鑑
みて創案されたもので、その目的とするところは、ニュ
ーラルネットワークに対して次の改良手段を施すことに
ある。 請求項1において、多層階層構造型神経回路網にお
いて、出力層のユニットをグループ化し、各グループの
最適なユニットがそのグループを代表するようにして、
教師値に対する出力値の二乗誤差が小さくなるような学
習手段を構成したことにある。 請求項2において、未知データの認識判定時に前記
出力層のユニットの各グループの最適なユニットがその
グループを代表するようにし、認識判定が行う手段を持
つよう構成したものである。 請求項3において、多層階層構造型神経回路網にお
いて、出力層のユニットをグループ化し、各グループの
最適なユニットがそのグループを代表するようにして、
教師値に対する出力値の二乗誤差が小さくなるような学
習手段と、未知データの認識判定時に前記出力層のユニ
ットの各グループの最適なユニットがそのグループを代
表するようにし、認識判定が行う手段を持つよう構成し
たものである。
SUMMARY OF THE INVENTION The present invention has been made in view of the above points, and has as its object to provide the following improvement means for a neural network. The multilayer hierarchical structure type neural network according to claim 1, wherein the units of the output layer are grouped, and the optimum unit of each group represents the group,
The learning means is configured so that the squared error of the output value with respect to the teacher value becomes small. According to the present invention, the optimum unit of each group of the units of the output layer is made to represent the group at the time of recognition judgment of unknown data, and the means for recognition recognition is provided. In the multi-layer hierarchical structure type neural network according to claim 3, the units of the output layer are grouped, and the optimum unit of each group represents the group,
Learning means for reducing the squared error of the output value with respect to the teacher value, and means for performing the recognition determination such that the optimum unit of each group of the units in the output layer at the time of recognition determination of unknown data represents that group. It is configured to have.

【0010】 請求項4において、出力層のユニット
をグループ化し、各グループの最適なユニットすなわち
対応する教師データに最も近い値を持つユニットが、そ
のグループを代表するようにして、各代表ユニットの値
と教師パターンの二乗誤差の合計値を学習終了条件の一
つとする学習手段を持つ請求項1記載のニューラルネッ
トワークである。 請求項5において、未知データの認識判定時には各
教師パターンと各グループ内のユニットとを比較し、最
も近い値を持つユニットをそのグループの代表ユニット
とし、各代表ユニット値と最も近い教師パターンを認識
判定結果に使用するよう構成した請求項2記載のニュー
ラルネットワークである。 請求項6において、出力層のユニットをグループ化
し、各グループの最適なユニットすなわち対応する教師
データに最も近い値を持つユニットがそのグループを代
表するようにして、各代表ユニットの値と教師パターン
の二乗誤差の合計値を学習終了条件の一つとする学習手
段と、未知データの認識判定時には各教師パターンと各
グループ内のユニットとを比較し最も近い値を持つユニ
ットをそのグループの代表ユニットとし、各代表ユニッ
ト値と最も近い教師パターンを認識判定結果に使用する
よう構成した請求項3記載のニューラルネットワークで
ある。
In claim 4, the units of the output layer are grouped, and the optimum unit of each group, that is, the unit having the value closest to the corresponding teacher data is made to represent that group, and the value of each representative unit is set. 2. The neural network according to claim 1, further comprising a learning unit that makes one of learning end conditions the sum of squared errors of the teacher pattern. In claim 5, when determining the recognition of unknown data, each teacher pattern is compared with a unit in each group, the unit having the closest value is set as the representative unit of the group, and the teacher pattern closest to each representative unit value is recognized. The neural network according to claim 2, wherein the neural network is configured to be used for a determination result. 7. The unit of the output layer according to claim 6, wherein the optimum unit of each group, that is, the unit having the value closest to the corresponding teacher data represents that group, and the value of each representative unit and the teacher pattern Learning means that uses the total value of the squared error as one of the learning end conditions, and at the time of recognition determination of unknown data, each teacher pattern and the unit in each group are compared and the unit with the closest value is set as the representative unit of that group, The neural network according to claim 3, wherein the teacher pattern closest to each representative unit value is used for the recognition determination result.

【0011】その作用は、後述する実施例において詳細
に説明するが、ニューラルネットワークにおいて、文字
データ、各種判別データを学習する際、汎化能力を増す
ように、また、認識判定時には認識精度を上げるよう
に、ニューラルネットワークの出力層の各ユニットをグ
ループ化することにある。以下、本発明の神経回路網の
実施例を、図面に基づいて詳述する。
The operation will be described in detail in the embodiments to be described later. In the neural network, the generalization ability is increased when learning character data and various discrimination data, and the recognition accuracy is increased at the time of recognition determination. Thus, each unit of the output layer of the neural network is grouped. Hereinafter, embodiments of the neural network of the present invention will be described in detail with reference to the drawings.

【0012】[0012]

【発明の実施の形態】図1は本発明のニューラルネット
ワークを含む学習認識装置の一実施例の全体の構成図
で、10は神経回路網学習認識装置、1はニューラルネッ
トワーク、2はワーキングメモリ(一時的に入力あるい
は演算したものを記憶しておく場所)、3は入力制御
部、4は出力制御部、5は入力装置、6は出力・表示を
行う装置である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 is an overall configuration diagram of an embodiment of a learning and recognizing device including a neural network of the present invention. 10 is a neural network learning and recognizing device, 1 is a neural network, 2 is a working memory ( A place for temporarily storing what is input or calculated) 3 is an input control unit, 4 is an output control unit, 5 is an input device, and 6 is a device for performing output / display.

【0013】神経回路網学習認識装置10において、学習
パターン、教師パターン等各種設定値を入力装置5に入
力すると、入力された値は、入力制御部3を介してワー
キングメモリ2にそれぞれのパターンが記憶される。そ
れぞれの入力値はニューラルネットワーク1に入力さ
れ、ここで、ワーキングメモリー上の学習パターン、教
師パターン、各種設定値をもとに学習を行い結合係数を
更新する。結合係数はニューラルネットワーク1の内部
に蓄えられ、学習結果を、出力制御部4を介して、出力
・表示を行う装置6に出力・表示する。また神経回路網
学習認識装置10において、未知パターンを入力すると、
前述したと同様に、入力された値は入力制御部3を介し
てワーキングメモリ2に記憶される。ニューラルネット
ワーク1は、結合係数をもとに認識または値推定を行
い、結果を出力制御部4を介して、出力・表示を行う装
置6に出力・表示する。
In the neural network learning and recognition device 10, when various set values such as a learning pattern and a teacher pattern are input to the input device 5, the input values are stored in the working memory 2 via the input control unit 3. Remembered. Each input value is input to the neural network 1, where learning is performed based on the learning pattern on the working memory, the teacher pattern, and various set values to update the coupling coefficient. The coupling coefficient is stored in the neural network 1, and the learning result is output / displayed via the output control unit 4 to the device 6 for outputting / displaying. In the neural network learning and recognition device 10, if an unknown pattern is input,
As described above, the input value is stored in the working memory 2 via the input control unit 3. The neural network 1 performs recognition or value estimation based on the coupling coefficient and outputs / displays the result via the output control unit 4 to the device 6 for outputting / displaying.

【0014】次に図2〜図7により本発明の一実施例を
説明する。図2は入力、中間、出力層からなるニューラ
ルネットワークのユニットによる結合状態を示す概説
図、図3は1ユニットの内部状態説明図である。図4は
数字認識を行うニューラルネットワークの一実施例であ
り、入力パターンとしては数字データの特徴量を与え、
出力パターンにより、いずれの数字か判別するシステム
である。
Next, one embodiment of the present invention will be described with reference to FIGS. FIG. 2 is a schematic diagram showing a coupling state by a unit of a neural network including input, intermediate and output layers, and FIG. 3 is an explanatory diagram of an internal state of one unit. FIG. 4 shows an example of a neural network for recognizing numbers, in which a feature quantity of number data is given as an input pattern,
It is a system that discriminates which number based on the output pattern.

【0015】このニューラルネットワークは、入力層
のユニットは文字の特徴量を表わす64ユニット、中間層
のユニットは各入力層のユニットと結合係数で結ばれ
た8ユニット、出力層は1〜9と0の数字を示す20ユ
ニットからなり、順番に各2ユニットずつグループ化の
指定をし、10グループからなる。この例の場合教師パタ
ーンとしては、例えば数字1の場合は1000000000のパタ
ーンを与える。この意味するところは最初の1はグルー
プ1が1であることを示し、次の0はグループ2が0で
あることを示す、以下同様にグループ3からグループ0
まで0であることを示す。他の数字も同様に教師パター
ンを作成する。各グループの教師パターンの値はグルー
プ内の各ユニットに同一の値を対応させ、学習時、認識
判定時にはこの値を使用する。誤差合計値、判定時に最
適ユニットを選出する場合は、例えば出力層のユニット
の計算した値が順に0.9 、0.5 、0.3 、0.5 、・・・
・、0.1 、0.2 の場合グループ1は値が0.9 のユニット
を選び、グループ2は0.3 のユニットを選び、最後のグ
ループ0は0.1 のユニットを選ぶようにする。このよう
にすればグループ内のいずれかのユニットが教師値に近
ければ良いので学習回数の削減、認識精度の向上が図れ
る。
In this neural network, the unit of the input layer is 64 units representing the characteristic amount of characters, the unit of the intermediate layer is 8 units connected to the units of each input layer by a coupling coefficient, and the output layer is 1 to 9 and 0. It is made up of 20 units, each of which is designated by 2 units in turn, and consists of 10 groups. In the case of this example, as the teacher pattern, for example, in the case of the number 1, a pattern of 1000000000 is given. This means that the first 1 indicates that group 1 is 1, the next 0 indicates that group 2 is 0, and so on.
Up to 0. Other numbers similarly create teacher patterns. As the value of the teacher pattern of each group, the same value is associated with each unit in the group, and this value is used at the time of learning and recognition determination. When selecting the optimum unit for the total error value and the judgment, for example, the calculated values of the units in the output layer are 0.9, 0.5, 0.3, 0.5, ...
・ If 0.1, 0.2, select a unit with a value of 0.9 for group 1, select a unit of 0.3 for group 2, and select a unit of 0.1 for the final group 0. In this way, it is sufficient if any unit in the group is close to the teacher value, so that the number of learnings can be reduced and the recognition accuracy can be improved.

【0016】図5、図6はニューラルネットワークの学
習手段を説明するフローチャートで、入力、中間、出力
層を構成するユニット数をIN、HN、ONとする。図
7はニューラルネットワークの認識手段を説明するフロ
ーチャートである。以下、図5、図6のフローチャート
を用いて学習を行う手順を示す。 101 ・・・処理開始。 102 ・・・ニューラルネットワークモデル名設定。学習
パターン番号を0に初期化する。繰り返しカウントを0
に初期化する。繰り返し終了回数を設定する。入力層、
中間層、出力層の各ユニット数をIN、HN、ONと値
を設定する。学習終了条件の目標値等の各種パラメータ
の値を設定する。 103 ・・・全ての学習パターンと教師値をワーキングメ
モリー2に設定する。学習パターン数を設定する。 104 ・・・乱数等により入力層と中間層間の各結合係数
を初期化する。中間層と出力層間の結合係数を乱数等に
より初期化する。
FIGS. 5 and 6 are flowcharts for explaining the learning means of the neural network, where the numbers of units forming the input, intermediate and output layers are IN, HN and ON. FIG. 7 is a flow chart for explaining the recognition means of the neural network. Hereinafter, the procedure for performing learning will be described using the flowcharts in FIGS. 5 and 6. 101 --- Start processing. 102 ・ ・ ・ Neural network model name setting. The learning pattern number is initialized to 0. Repeat count 0
Initialize to Set the repeat count. Input layer,
The numbers of units in the intermediate layer and the output layer are set to IN, HN, and ON. The value of various parameters such as the target value of the learning end condition is set. 103 ・ ・ ・ Sets all learning patterns and teacher values in working memory 2. Set the number of learning patterns. 104 ... Initializes each coupling coefficient between the input layer and the intermediate layer by a random number or the like. The coupling coefficient between the intermediate layer and the output layer is initialized by random numbers or the like.

【0017】105 ・・・学習パターンを入力層の各ユニ
ットに設定する。 106 ・・・入力層の各ユニットと入力層と中間層間の結
合係数により中間層ユニットの出力値を計算する。中間
層の各ユニットと中間層と出力層間の結合係数により出
力層ユニットの出力値を計算する。 107 ・・・教師値と出力層ユニットの出力値との誤差値
を計算する。さらに、出力層ユニットの誤差値を中間層
側に伝搬させ中間層の誤差値を計算する。 108 ・・・誤差値により、中間層と出力層間の結合係数
を更新する。同様に、入力層と中間層間の結合係数も更
新する。 109 ・・・学習パターン番号をカウントアップする。 110 ・・・学習パターンが終了か判定する。YESの場
合は次へ、NOの場合は105 へ行く。 111 ・・・誤差値の合計が指定値以下か判定する。YE
Sの場合は115 へ、NOの場合は次へ行く。
105 ... Set a learning pattern in each unit of the input layer. 106 ・ ・ ・ The output value of the intermediate layer unit is calculated by the coupling coefficient between each unit of the input layer and the input layer and the intermediate layer. The output value of the output layer unit is calculated according to the coupling coefficient between each unit of the intermediate layer and the output layer. 107 ・ ・ ・ Calculates the error value between the teacher value and the output value of the output layer unit. Further, the error value of the output layer unit is propagated to the intermediate layer side to calculate the error value of the intermediate layer. 108 ... Updates the coupling coefficient between the intermediate layer and the output layer according to the error value. Similarly, the coupling coefficient between the input layer and the intermediate layer is also updated. 109 ・ ・ ・ Count up the learning pattern number. 110 ・ ・ ・ Determines whether the learning pattern is finished. If yes, go to next, if no go to 105. 111 ・ ・ ・ Determine if the sum of error values is less than the specified value. YE
If S, go to 115, and if NO, go to the next.

【0018】112 ・・・全出力パターンと教師パターン
は一致しているか判定する。各グループの代表のユニッ
トで判定する。YESの場合は115 へ、NOの場合は次
へ行く。 113 ・・・繰り返しカウントをカウントアップする。学
習パターン番号を0に再初期化する。 114 ・・・繰り返しは終了か判定する。YESの場合は
次へ、NOの場合は105 へ行く。 115 ・・・ニューラルネットワークモデル名を保存す
る。入力層、中間層、出力層のユニット数を保存する。
各種パラメータ値を保存する。結合係数を保存する。 116 ・・・終了。
112: It is determined whether all the output patterns and the teacher pattern match. Judgment is made by the representative unit of each group. If yes, go to 115; if no, go to next. 113 ・ ・ ・ Count up the repeat count. The learning pattern number is reinitialized to 0. 114 ・ ・ ・ Determines whether the repetition is completed. If yes, go to next, if no go to 105. 115 ... Save the neural network model name. Stores the number of units in the input layer, hidden layer, and output layer.
Save various parameter values. Save the coupling coefficient. 116 ・ ・ ・ End.

【0019】次に、図7のフローチャートを用いて認識
を行う手順を示す。 201 ・・・処理開始。 202 ・・・ニューラルネットワークモデル名読み込み設
定する。入力層、中間層、出力層の各ユニット数を読み
込みIN、HN、ONと値を設定する。各種パラメータ
の値を読み込み設定する。学習済み結合係数を読み込み
設定する。 203 ・・・未知データを入力する。 204 ・・・未知データを入力層に設定し、各結合係数値
により中間層、出力層ユニットの出力値を計算する。 205 ・・・出力層ユニットの出力値と判定条件より判定
結果を計算する。各グループの代表のユニットで判定す
る。 206 ・・・判定結果の出力・表示を行う。 207 ・・・終了か? YESのとき次へ、NOのとき20
3 へ。 208 ・・・終了。
Next, the procedure for recognition will be described with reference to the flowchart of FIG. 201 ・ ・ ・ Start processing. 202 ・ ・ ・ Read and set the neural network model name. The number of each unit of the input layer, the intermediate layer, and the output layer is read, and IN, HN, and ON are set. Read and set the values of various parameters. Read and set the learned coupling coefficients. 203 ・ ・ ・ Enter unknown data. 204 ・ ・ ・ Set unknown data in the input layer and calculate the output value of the intermediate layer and the output layer unit by each coupling coefficient value. 205 ・ ・ ・ Calculates the judgment result from the output value of the output layer unit and the judgment condition. Judgment is made by the representative unit of each group. 206 ・ ・ ・ Output and display the judgment result. 207 ... End? If yes, go next, if no, 20
To 3 208 ・ ・ ・ End.

【0020】[0020]

【発明の効果】以上説明したように本発明のニューラル
ネットワークによれば、文字データ、各種判別データ等
の学習、認識及び推定に出力層の各ユニットをグループ
化し、グループ内で最適なユニットを使用するようにし
たので、従来より高い学習能力および汎化能力を得るこ
とが出来る。
As described above, according to the neural network of the present invention, each unit of the output layer is grouped for learning, recognition and estimation of character data, various discrimination data, etc., and the optimum unit is used within the group. Since this is done, higher learning ability and generalization ability than before can be obtained.

【図面の簡単な説明】[Brief description of drawings]

【図1】図1は本発明によるニューラルネットワークを
採用した一実施例のシステム構成図である。
FIG. 1 is a system configuration diagram of an embodiment adopting a neural network according to the present invention.

【図2】図2は3層構造神経回路網のユニット結合概説
図である。
FIG. 2 is a schematic diagram of unit connection of a three-layered neural network.

【図3】図3はユニット内部状態説明図である。FIG. 3 is an explanatory diagram of the internal state of the unit.

【図4】図4は数字認識を行うニューラルネットワーク
の一実施例の説明図である。
FIG. 4 is an explanatory diagram of an embodiment of a neural network for performing numeral recognition.

【図5】図5は出力層のユニットをグループ化して構成
するニューラルネットワークの学習手段を説明するフロ
ーチャートである。
FIG. 5 is a flowchart illustrating a learning means of a neural network configured by grouping units in an output layer.

【図6】図6は出力層のユニットをグループ化して構成
するニューラルネットワークの学習手段を説明するフロ
ーチャートである。
FIG. 6 is a flowchart for explaining learning means of a neural network configured by grouping units in an output layer.

【図7】図7は出力層のユニットをグループ化して構成
するニューラルネットワークの認識および推定手段を説
明するフローチャートである。
FIG. 7 is a flowchart illustrating a recognition and estimation unit of a neural network configured by grouping output layer units.

【符号の説明】[Explanation of symbols]

1 ニューラルネットワーク 2 ワーキングメモリー 3 入力制御部 4 出力制御部 5 入力装置 6 出力・表示を行う装置 10 神経回路網学習認識装置 1 Neural network 2 Working memory 3 Input control unit 4 Output control unit 5 Input device 6 Output / display device 10 Neural network learning recognition device

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 多層階層構造型神経回路網において、出
力層のユニットをグループ化し、各グループの最適なユ
ニットがそのグループを代表するようにして、教師値に
対する出力値の二乗誤差が小さくなるような学習手段を
構成するニューラルネットワーク。
1. In a multi-layered hierarchical neural network, units in an output layer are grouped so that an optimum unit of each group represents the group so that a squared error of an output value with respect to a teacher value becomes small. Neural network that constitutes various learning means.
【請求項2】 未知データの認識判定時に前記出力層の
ユニットの各グループの最適なユニットがそのグループ
を代表するようにし、認識判定が行う手段を持つよう構
成したニューラルネットワーク。
2. A neural network configured so that an optimum unit of each group of the units in the output layer represents the group at the time of recognition judgment of unknown data, and has a means for recognition judgment.
【請求項3】 多層階層構造型神経回路網において、出
力層のユニットをグループ化し、各グループの最適なユ
ニットがそのグループを代表するようにして、教師値に
対する出力値の二乗誤差が小さくなるような学習手段
と、未知データの認識判定時に前記出力層のユニットの
各グループの最適なユニットがそのグループを代表する
ようにし、認識判定が行う手段を持つよう構成したニュ
ーラルネットワーク。
3. In a multi-layered hierarchical neural network, units in the output layer are grouped so that the optimum unit of each group represents that group so that the square error of the output value with respect to the teacher value becomes small. A neural network configured so that the learning unit and the optimum unit of each group of the units in the output layer at the time of recognition determination of unknown data represent that group, and the recognition determination unit is provided.
【請求項4】 出力層のユニットをグループ化し、各グ
ループの最適なユニットすなわち対応する教師データに
最も近い値を持つユニットが、そのグループを代表する
ようにして、各代表ユニットの値と教師パターンの二乗
誤差の合計値を学習終了条件の一つとする学習手段を持
つ請求項1記載のニューラルネットワーク。
4. The units of the output layer are grouped, and the optimum unit of each group, that is, the unit having the value closest to the corresponding teacher data is represented as the group, and the value of each representative unit and the teacher pattern. The neural network according to claim 1, further comprising a learning unit that makes one of the learning end conditions the sum of squared errors of
【請求項5】 未知データの認識判定時には各教師パタ
ーンと各グループ内のユニットとを比較し、最も近い値
を持つユニットをそのグループの代表ユニットとし、各
代表ユニット値と最も近い教師パターンを認識判定結果
に使用するよう構成した請求項2記載のニューラルネッ
トワーク。
5. When recognizing unknown data, each teacher pattern is compared with a unit in each group, the unit having the closest value is set as a representative unit of the group, and the teacher pattern closest to each representative unit value is recognized. The neural network according to claim 2, which is configured to be used for a determination result.
【請求項6】 出力層のユニットをグループ化し、各グ
ループの最適なユニットすなわち対応する教師データに
最も近い値を持つユニットがそのグループを代表するよ
うにして、各代表ユニットの値と教師パターンの二乗誤
差の合計値を学習終了条件の一つとする学習手段と、未
知データの認識判定時には各教師パターンと各グループ
内のユニットとを比較し最も近い値を持つユニットをそ
のグループの代表ユニットとし、各代表ユニット値と最
も近い教師パターンを認識判定結果に使用するよう構成
した請求項3記載のニューラルネットワーク。
6. The units in the output layer are grouped, and the optimum unit of each group, that is, the unit having the value closest to the corresponding teacher data represents that group, and the value of each representative unit and the teacher pattern Learning means that uses the total value of the squared error as one of the learning end conditions, and at the time of recognition determination of unknown data, each teacher pattern and the unit in each group are compared and the unit with the closest value is set as the representative unit of that group, The neural network according to claim 3, wherein the teacher pattern closest to each representative unit value is used as a recognition determination result.
JP8150055A 1996-05-21 1996-05-21 Neural network Pending JPH09311846A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8150055A JPH09311846A (en) 1996-05-21 1996-05-21 Neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8150055A JPH09311846A (en) 1996-05-21 1996-05-21 Neural network

Publications (1)

Publication Number Publication Date
JPH09311846A true JPH09311846A (en) 1997-12-02

Family

ID=15488528

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8150055A Pending JPH09311846A (en) 1996-05-21 1996-05-21 Neural network

Country Status (1)

Country Link
JP (1) JPH09311846A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019101959A (en) * 2017-12-07 2019-06-24 ヤフー株式会社 Extraction device, extraction method, extraction program and model

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019101959A (en) * 2017-12-07 2019-06-24 ヤフー株式会社 Extraction device, extraction method, extraction program and model

Similar Documents

Publication Publication Date Title
US5107454A (en) Pattern associative memory system
KR0170505B1 (en) Learning method of multi-layer perceptrons with n-bit data precision
JPH09311846A (en) Neural network
JPH096881A (en) Neural network
JP2000172662A (en) Learning method for neural network
JPH11175494A (en) Neural network
JPH10187649A (en) Neural network
JP4267726B2 (en) Device for determining relationship between operation signal and operation amount in control device, control device, data generation device, input / output characteristic determination device, and correlation evaluation device
JPH06175998A (en) Time series prediction method
JPH117435A (en) Neural network
JP3273568B2 (en) Hierarchical neural network and learning method thereof
JPH08297715A (en) Neural network
JPH04328669A (en) Unified neural network and its learning system
JP2607351B2 (en) Error Signal Generation Method for Efficient Learning of Multilayer Perceptron Neural Network
JP3608237B2 (en) Neural network learning device
JP3289517B2 (en) Associative memory and thinking simulator
JPH05128087A (en) Neural network and its method for learning
JP3368619B2 (en) Spatiotemporal pattern classifier
JPH01282687A (en) Neural circuit network type pattern discriminator
JPH03100778A (en) Pattern classifying device
JPH0682354B2 (en) Learning method in neural network
JPH0895940A (en) Learning device for neural network
JPH0784984A (en) Neural network circuit
JPH0581226A (en) Method for learning neural circuit network and device using the method
JPH0749847A (en) Learning system for series connection type recurrent neural network