JPH04175986A - Pattern identification processor - Google Patents

Pattern identification processor

Info

Publication number
JPH04175986A
JPH04175986A JP2304382A JP30438290A JPH04175986A JP H04175986 A JPH04175986 A JP H04175986A JP 2304382 A JP2304382 A JP 2304382A JP 30438290 A JP30438290 A JP 30438290A JP H04175986 A JPH04175986 A JP H04175986A
Authority
JP
Japan
Prior art keywords
neural circuit
input pattern
maximum value
threshold value
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2304382A
Other languages
Japanese (ja)
Inventor
Yoshimasa Kimura
木村 義政
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2304382A priority Critical patent/JPH04175986A/en
Publication of JPH04175986A publication Critical patent/JPH04175986A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To automatically determine the structure of a multi-layered neural circuit by providing a decision means which sends an input pattern signal to a multi-layered neural circuit of a trailing stage and a storage means which adds information on the reason of decision making to a rejected input pattern signal. CONSTITUTION:Multistage structure wherein multi-layered neural circuits 1 and 3 and a decision part 2 are cascaded alternately is employed and when the decision part 2 decides that the maximum value of output layer elements of the multi-layered neural circuits 1 and 3 is larger than a predetermined threshold value and the difference between the maximum value and a following large value is larger than a predetermined threshold value, a category corresponding to the element which outputs the maximum value is regarded as an identification result. When the conditions are not satisfied, the identification result is rejected and the input pattern is sent out to the multi-layered neural circuit of the trailing stage. Consequently, the structure of the multi-layered neural circuits 1 and 3 which identifies the input pattern with a complicate distribution is automatically determined.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、神経回路を用いてパターンを識別す〜 る技術に関するものであり、特に、複雑な分布を有する
学習パターンを識別可能とする神経回路に関するもので
ある。
[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to a technique for identifying patterns using neural circuits, and in particular, relates to a technique for identifying patterns using neural circuits. It is related to circuits.

〔従来技術〕[Prior art]

多層神経回路による従来の学習方式として、パーセプト
ロン、バックプロパゲーション等による方式が知られて
いる。    ′ 第5図は、従来の多層神経回路を用いたパックプロパゲ
ーション学習を行うパターン識別処理装置の一例を示す
概略構成図である。
As conventional learning methods using multilayer neural circuits, methods using perceptron, backpropagation, etc. are known. ' FIG. 5 is a schematic configuration diagram showing an example of a pattern recognition processing device that performs pack propagation learning using a conventional multilayer neural circuit.

第5図において、10は多層神経回路、101は入力パ
ターン、11は中間層神経回路素子の荷重ベクトル、1
2は中間層神経回路素子のしきい値、13は中間層神経
回路素子の出方、14は出力層神経回路素子の荷重ベク
トル、15は出力層神経回路素子のしきい値、16は出
力層神経回路素子の出力、102は出力ベクトル、1o
3は教師信号ベクトル、17は神経回路素子である。
In FIG. 5, 10 is a multilayer neural circuit, 101 is an input pattern, 11 is a load vector of an intermediate layer neural circuit element, 1
2 is the threshold value of the intermediate layer neural circuit element, 13 is the output of the intermediate layer neural circuit element, 14 is the weight vector of the output layer neural circuit element, 15 is the threshold value of the output layer neural circuit element, and 16 is the output layer Output of neural circuit element, 102 is output vector, 1o
3 is a teacher signal vector, and 17 is a neural circuit element.

前記多層神経回路10は、第5図に示すように。The multilayer neural circuit 10 is as shown in FIG.

入力層、中間層、出力層からなる3層構造の神経回路で
あって、下位層の神経回路素子から1つ上位の層の神経
回路素子に限って結線が存在し、層内の神経回路素子間
での結線は存在しない。
It is a neural circuit with a three-layer structure consisting of an input layer, a middle layer, and an output layer, and connections exist only from the neural circuit elements in the lower layer to the neural circuit elements in the next higher layer, and the neural circuit elements in the layer There are no connections between them.

第6図は、第5図における1つの神経回路素子の機能ブ
ロック図である。
FIG. 6 is a functional block diagram of one neural circuit element in FIG. 5.

第5図における各神経回路素子17は、第6図に示す機
能を具備している。
Each neural circuit element 17 in FIG. 5 has the functions shown in FIG. 6.

第6図において、18は膜電位算出回路、19は飽和型
関数計算回路である。膜電位算出回路18は各神経回路
素子17に入力される入力信号ごとにそれに対応する荷
重ベクトル14(11)の荷重値を乗じて総和をとった
値を求める。飽和型関数計算回路19は先に求めた総和
に神経回路素子17のしきい値15(12)を減じた値
に飽和型関数を作用させた値を出力16(13)とする
In FIG. 6, 18 is a membrane potential calculation circuit, and 19 is a saturation type function calculation circuit. The membrane potential calculation circuit 18 multiplies each input signal input to each neural circuit element 17 by the load value of the corresponding load vector 14 (11) and calculates a total value. The saturation type function calculation circuit 19 outputs a value obtained by applying a saturation type function to a value obtained by subtracting the threshold value 15 (12) of the neural circuit element 17 from the previously obtained sum as an output 16 (13).

バックプロパゲーションは、入力パターン1゜1から得
られる出力ベクトル102と教師信号ベクトル103と
の2乗誤差を最小化すべく各神経回路素子17の荷重を
調整する、これにより各入力パターンを識別できる機構
が多層神経回路10の内部に自然に構築される。
Backpropagation is a mechanism that adjusts the load of each neural circuit element 17 in order to minimize the squared error between the output vector 102 obtained from the input pattern 1°1 and the teacher signal vector 103, and thereby allows each input pattern to be identified. is naturally constructed inside the multilayer neural circuit 10.

しかし、前記従来の技術では、入力パターンが複雑な分
布をなしている場合、1つの多層神経回路でパターン識
別を行うのが困難となる。
However, in the conventional technique, when an input pattern has a complicated distribution, it is difficult to perform pattern identification using one multilayer neural circuit.

例えば、第、71!(カテゴリc2とカテゴリc2に属
するパターンを識別する原理図)に示すように。
For example, the 71st! As shown in (diagram of principle for identifying category c2 and patterns belonging to category c2).

カテゴリC□に属するパターン(0印で表わす)とカテ
ゴリC2に属するパターン(X印で表わす)の分布の分
離度が良い場合は、単純な分離超平面Ω□で分離可能で
ある。しかし、第8図に示すように、カテゴリC,,C
,に属するパターンが複雑に込み入った分布をなす場合
は、複雑な分離超平面Ω2を発見することが要求される
が、このために必要な多層神経回路の暦数、各層の素子
数を求める方法は明らかにされない、さらに、一般には
分布の分っている対象を扱うことは稀であり、多くの場
合、分布は分っていない。
If the degree of separation between the distributions of patterns belonging to category C□ (represented by 0 marks) and patterns belonging to category C2 (represented by X marks) is good, they can be separated by a simple separation hyperplane Ω□. However, as shown in Figure 8, categories C,,C
, when the patterns belonging to , have a complicated distribution, it is required to discover a complicated separating hyperplane Ω2, but there is a method to find the number of ephemerides of the multilayer neural circuit and the number of elements in each layer necessary for this purpose. Furthermore, it is rare to deal with objects whose distributions are known, and in many cases the distributions are unknown.

識別率を向上させる方法として、神経回路の暦数、中間
層神経回路素子数、学習パラメータを変えて識別実験を
行い、最も高い識別率を示した神経回路を採用する方法
が従来から知られている(例えば、電子情報通信学会技
術研究報告PRU88−58.pp79〜86参照)。
As a method to improve the classification rate, it has been known to conduct a classification experiment by changing the number of neural circuits, the number of intermediate layer neural circuit elements, and the learning parameters, and then adopt the neural circuit that showed the highest classification rate. (For example, see IEICE technical research report PRU88-58.pp79-86).

しかしながら、前記神経回路の暦数、中間層神経回路素
子数、学習パラメータを変えて生成させる神経回路の数
は膨大であり、実験には多大な時間を要する。しかも、
その中に最適な解が存在する保証はない。
However, the number of neural circuits to be generated by changing the number of neural circuits, the number of intermediate layer neural circuit elements, and learning parameters is enormous, and experiments require a large amount of time. Moreover,
There is no guarantee that an optimal solution will exist among them.

また、学習初期には、主として分布の中心に相当するも
のを学習させておき、学習終期には、主として分離超平
面の近傍に存在するパターンを学習させる方法もあるが
(例えば、電子情報通信学会技術研究報告PRU88−
94.pp23〜30参照)、多層神経回路の構造が決
定している以上、エラー率の最小化を図っているに過ぎ
ず8、エラーを積極的に救済する方法とはなり得ない。
In addition, there is a method in which at the initial stage of learning, the pattern corresponding to the center of the distribution is mainly learned, and at the end of the learning stage, the pattern existing mainly in the vicinity of the separating hyperplane is learned (for example, the IEICE Technical research report PRU88-
94. (See pp. 23-30), as long as the structure of the multilayer neural circuit has been determined, this is merely an attempt to minimize the error rate8, and cannot be a method for actively relieving errors.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

本発明は、前記問題点を解決するためになされたもので
ある。
The present invention has been made to solve the above problems.

本発明の目的は、パターン識別処理装置において、複雑
な分布をなす入力パターンに対して、これを識別可能と
する多層神経回路の構造を自動的に決定し得ることがで
きる技術を提供することができる。
It is an object of the present invention to provide a technique that allows a pattern recognition processing device to automatically determine the structure of a multilayer neural circuit that allows input patterns with a complex distribution to be identified. can.

本発明の前記ならびにその他の目的と新規な特徴は、本
明細書の記述及び添付図面によって明らかになるであろ
う。
The above and other objects and novel features of the present invention will become apparent from the description of this specification and the accompanying drawings.

〔課題を解決するための手段〕[Means to solve the problem]

前記目的を達成するために、本発明のパターン識別処理
装置においては、複数個の神経回路素子から入力パター
ン信号を取り込み、各入力パターン信号に対応した荷重
値を乗じて総和をとった値に飽和型関数を作用させて1
個の出力を得る神経回路素子からなり、各神経回路素子
を並べて構成した層を最下位の入力層から1層以上の順
位付けられた中間層へ続き、最上位の出力層へと続く配
列で構成され、最下位の層の神経回路素子から上位の層
の神経回路素子へ結線した多層神経回路を用いて、入力
パターンの識別を行うパターン識別処理装置であって、
前記出力層の神経回路の出力の最大値が予め定めた第1
のしきい値以上であり。
In order to achieve the above object, the pattern recognition processing device of the present invention takes in input pattern signals from a plurality of neural circuit elements, multiplies each input pattern signal by a weight value corresponding to the total value, and saturates the sum of the signals. Apply type function 1
It consists of neural circuit elements that obtain individual outputs, and the layers constructed by arranging each neural circuit element are arranged from the lowest input layer to one or more ranked intermediate layers, and then to the highest output layer. A pattern identification processing device that identifies an input pattern using a multilayer neural circuit configured and connected from a lowest layer neural circuit element to an upper layer neural circuit element,
The maximum value of the output of the neural circuit of the output layer is a predetermined first value.
is above the threshold.

かつ、該最大値と次大値との差分が予め定められた第2
のしきい値以上である2つの条件を満足したとき、該最
大値を出力した神経回路素子に対応するカテゴリを識別
結果とし、前記2つの条件を満足しない場合は、識別結
果がリジェクトされ。
and the difference between the maximum value and the next maximum value is a predetermined second value.
When the two conditions that are equal to or greater than the threshold value are satisfied, the category corresponding to the neural circuit element that outputs the maximum value is set as the identification result, and when the two conditions are not satisfied, the identification result is rejected.

前記入力パターン信号が次段の多層神経回路に送出され
る判定手段と、該判定手段において、リジェクトとなっ
た入力パターン信号に判定理由の情報を付与して格納さ
れる格納手段を具備することを最も主要な特徴とする。
The method further comprises a determining means for sending the input pattern signal to a next-stage multilayer neural circuit, and a storing means for adding information about the reason for determination to input pattern signals rejected in the determining means and storing the resultant information. The most important feature.

また、前記判定手段における前記第1のしきい値及び第
2のしきい値は、学習に用いたパターン信号に対する前
記多層神経回路の前記最大値及び差分のヒストグラムを
用いて決定され、呈示された入力パターン信号に対する
前記多層神経回路の前記最大値及び差分が前記ヒストグ
ラムに重畳され、該ヒストグラムを用いて前記第1のし
きい値及び第2のしきい値の設定変更を可能とする手段
を備えたことを特徴とする。
Further, the first threshold value and the second threshold value in the determination means are determined using the maximum value and the histogram of the difference of the multilayer neural circuit with respect to the pattern signal used for learning, and are presented. The maximum value and the difference of the multilayer neural circuit with respect to the input pattern signal are superimposed on the histogram, and the method includes means for making it possible to change the settings of the first threshold value and the second threshold value using the histogram. It is characterized by:

〔作用〕[Effect]

前述の手段によれば、多層神経回路と判定部とを交互に
縦続接続した多段構成をとることにより、判定部におい
て当該多層神経回路の出力層素子の最大値が予め定めら
れたしきい値01以上であり、かつ、当該最大値と次大
値との差分が予め定められたしきい値02以上の条件を
満足する場合は、当該最大値を出力した素子に対応する
カテゴリを識別結果とし、当該条件を満足しない場合は
、識別結果はりジエクトとし、入力パターンを次段の多
層神経回路に送出することにより、複雑な分布をなす入
力パターンに対し暦数あるいは中間層の神経回路素子数
の最適化で対処するのではなく、比較的小規模な多層神
経回路を縦続接続し、各多層神経回路は、各々識別可能
な分布のみを担当し、それ以外の分布は他の多層神経回
路で行うといった任務分担の構成を採るので、複雑な分
布をなす入力パターンに対して、これを識別可能とする
多層神経回路の構造を自動的に決定し得る(自動作成す
る)ことができる。
According to the above-mentioned means, by adopting a multi-stage configuration in which the multilayer neural circuit and the determination unit are alternately connected in cascade, the maximum value of the output layer element of the multilayer neural circuit in the determination unit is set to the predetermined threshold value 01. If the above is the case, and the difference between the maximum value and the next maximum value satisfies the predetermined threshold value 02 or more, the category corresponding to the element that outputs the maximum value is set as the identification result, If the conditions are not satisfied, the identification result is rejected and the input pattern is sent to the next stage multilayer neural circuit, thereby determining the optimal number of calendars or the number of intermediate layer neural circuit elements for the input pattern with a complex distribution. Instead of dealing with this problem by structuring, relatively small-scale multilayer neural circuits are connected in cascade, and each multilayer neural circuit is responsible for only the distribution that can be identified, and other distributions are handled by other multilayer neural circuits. Since the system adopts the structure of allocating tasks, it is possible to automatically determine (automatically create) the structure of a multilayer neural circuit that can identify input patterns that have a complex distribution.

〔発明の実施例〕[Embodiments of the invention]

以下、本発明の一実施例を図面を用いて具体的に説明す
る。
Hereinafter, one embodiment of the present invention will be specifically described using the drawings.

なお、実施例を説明するための全回において。In addition, in all the times for explaining the example.

同一機能を有するものは同一符号を付け、その繰り返し
の説明は省略する。
Components having the same function are given the same reference numerals, and repeated explanations thereof will be omitted.

第1図は、本発明の第1の実施例を説明するための図で
あって、多層神経回路を2段用いたものである。
FIG. 1 is a diagram for explaining a first embodiment of the present invention, which uses two stages of multilayer neural circuits.

第1図において、101は入力パターン、1は第1多層
神経回路、102は出力ベクトル、103は教師信号ベ
クトル、104はヒストグラムメモリ部、2は判定部、
3は第2多層神経回路、302は出力ベクトル、304
はヒストグラムメモリ部、4は判定部、5は識別結果メ
モリ部、6は入力パターンメモリ部、7は制御部である
In FIG. 1, 101 is an input pattern, 1 is a first multilayer neural circuit, 102 is an output vector, 103 is a teacher signal vector, 104 is a histogram memory section, 2 is a judgment section,
3 is the second multilayer neural circuit, 302 is the output vector, 304
4 is a histogram memory section, 4 is a determination section, 5 is an identification result memory section, 6 is an input pattern memory section, and 7 is a control section.

まず、最初に学習時の動作について説明する。First, the operation during learning will be explained.

第1多層神経回路1は、入力パターン101に対する出
力ベクトル102と教師信号ベクトル1o3とを用いて
、当該第1多層神経回路1の荷重を変更することにより
、入力パターン101を識則すべく学習を行う。
The first multilayer neural circuit 1 performs learning to recognize the input pattern 101 by changing the load of the first multilayer neural circuit 1 using the output vector 102 and the teacher signal vector 1o3 for the input pattern 101. conduct.

判定部2は1本発明の主要な要素をなすものであり、学
習がかなり進んだ時点で、入力パターン101が第1多
層神経回路lを用いて識別するのに妥当か否かを判定し
、否の場合は入力パターン101を入力パターンメモリ
部6に格納する。
The determining unit 2 constitutes a main element of the present invention, and determines whether or not the input pattern 101 is appropriate for identification using the first multilayer neural circuit l at the point when learning has progressed considerably, If not, the input pattern 101 is stored in the input pattern memory section 6.

判定部2の動作の詳細を第2図を用いて説明する。The details of the operation of the determining section 2 will be explained using FIG. 2.

第2図において、21は最大値・次大値検出回路、22
は第1判定回路、23は第2判定回路、24は照合回路
である。
In FIG. 2, 21 is a maximum value/next maximum value detection circuit, 22
23 is a first judgment circuit, 23 is a second judgment circuit, and 24 is a verification circuit.

最大値・次大値検出回路21は出力ベクトル102の要
素の中から最大値m1.及び次大値m2を検出する。
The maximum value/next maximum value detection circuit 21 detects the maximum value m1 . and detect the next largest value m2.

第1判定回路22は予め定められたしきい値θ、と、最
大値m1を比較し、m工≧01なら第2判定回路23の
処理に進む0m1〈θ1なら識別結果はりジェクトとし
、制御部7は入力パターン101に入力パターンメモリ
部6に第1判定回路でリジェクトとなった情報を付与し
て格納する信号を送品する。
The first judgment circuit 22 compares the predetermined threshold value θ and the maximum value m1, and if m<>01, the process proceeds to the second judgment circuit 23. If 0m1<θ1, the identification result is ejected, and the control unit 7 sends a signal to the input pattern 101 to be stored in the input pattern memory section 6 with information rejected by the first determination circuit.

第2判定回路23は予め定められたしきい値θ、と最大
値と次大値の差m□−m2を比較し、ml−m2≧θ2
なら照合回路24にm、を出力した神経回路素子に該当
するカテゴリ(第1候補カテゴリ)と教師信号ベクトル
103を示すカテゴリ(正解カテゴリ)との一致/不一
致を判定する。
The second determination circuit 23 compares a predetermined threshold value θ with the difference m□−m2 between the maximum value and the next largest value, and determines that ml−m2≧θ2
Then, it is determined whether the category corresponding to the neural circuit element that outputs m to the matching circuit 24 (first candidate category) and the category indicating the teacher signal vector 103 (correct category) match/mismatch.

mニーm、<82なら、識別結果はりジェクトとし、制
御部7は入力パターン101を第2判定回路23でリジ
ェクトとなった情報を付与して入力パターンメモリ部6
に格納する信号を送出する。
If m<82, the identification result is determined to be rejected, and the control unit 7 adds information indicating that the input pattern 101 was rejected by the second determination circuit 23 and stores it in the input pattern memory unit 6.
Sends a signal to be stored in.

さらに、第1候補カテゴリが正解カテゴリか否か、及び
m工≧θ19mニーm2≧θ2の条件を満足したか否か
により当該m□2m2に対応するヒストグラムメモリ部
104の内容を更新する。
Furthermore, the contents of the histogram memory unit 104 corresponding to m□2m2 are updated depending on whether the first candidate category is the correct category and whether the conditions of m-k≧θ19mknee m2≧θ2 are satisfied.

ヒストグラムメモリ部104には、第3図に示す内容と
等価な情報が格納されている。
The histogram memory unit 104 stores information equivalent to the contents shown in FIG.

第3図における横軸はmlの値、縦軸は学習したパター
ンの頻度であり、第1候補カテゴリが正解カテゴリであ
り、かつ、m□≧θ□を満すmlの分布をaで示す、ま
た、第1候補カテゴリが正解カテゴリでありかつm、<
θ、を満たすm8の分布をbで示し、単にm、(θ、を
満す分布をCで示す。
In FIG. 3, the horizontal axis is the value of ml, the vertical axis is the frequency of the learned pattern, and the distribution of ml where the first candidate category is the correct category and satisfies m□≧θ□ is indicated by a. Also, if the first candidate category is the correct category and m, <
The distribution of m8 that satisfies θ is denoted by b, and the distribution that simply satisfies m, (θ) is denoted by C.

第3図において、θ、は学習パターンα%(aの分布に
対するハツチングを施した部分の割合)を満足するよう
に設定されているものとする。
In FIG. 3, it is assumed that θ is set to satisfy the learning pattern α% (ratio of the hatched portion to the distribution of a).

さらに、学習パターンが増加した場合、前述した処理に
よりm、に対応するヒストグラムが加算され、第4図に
示すように1分布aがa′に、bがb′に、CがC′に
変化したものとする。このときθ1をθ□′に変更する
ことによりαを一定に保つことが可能となる。θ3(図
示していない)もθ1と同様な方法で変更できる。
Furthermore, when the number of learning patterns increases, the histogram corresponding to m is added by the process described above, and as shown in Figure 4, 1 distribution a changes to a', b to b', and C to C'. It shall be assumed that At this time, by changing θ1 to θ□', it becomes possible to keep α constant. θ3 (not shown) can also be changed in the same manner as θ1.

第1多層神経回路1の学習が進み予め設定した性能を達
成すると制御部7は入力パターンメモリ部6に格納され
た入力パターンを第2多層神経回113に呈示し、第1
多層神経回路1を学習させたのと同様の方法で第2多層
神経回路3を学習させる。かくして、多段構成の多層神
経回路の学習が行われる。 本実施例では、2段構成の
例を説明したが、3段以上の場合も前述した方法を繰り
返すことにより学習可能である。
When the learning of the first multilayer neural circuit 1 progresses and a preset performance is achieved, the control section 7 presents the input pattern stored in the input pattern memory section 6 to the second multilayer neural circuit 113.
The second multilayer neural circuit 3 is trained in the same manner as the multilayer neural circuit 1 is trained. In this way, learning of a multilayer neural circuit with a multistage configuration is performed. In this embodiment, an example of a two-stage configuration has been described, but learning can also be performed in the case of three or more stages by repeating the above-described method.

また1本実施例では2人カバターンメモリ部6に格納さ
九たすべての入力パターンを用いて第2多層神経回路3
を学習させる例を説明したが、入力パターンメモリ部6
に格納されたパターンを例えば1m□くθ1なるパター
ンの集合1m3くθ2なるパターンの集合に分けて、こ
れらの集合毎に多層神経回路を構成することも可能であ
る。
In addition, in this embodiment, the second multilayer neural circuit 3 uses all nine input patterns stored in the two-person cover turn memory section 6.
Although we have explained an example of learning the input pattern memory unit 6
It is also possible to divide the patterns stored in, for example, into a set of patterns 1m□ x θ1 and a set of patterns 1m3 x θ2, and configure a multilayer neural circuit for each of these sets.

さらに9本実施例では学習方式はバックプロパゲーショ
ンを想定したが、出力ベクトル102が得られる方式で
あるならば何であってもよい。
Furthermore, although back propagation is assumed as the learning method in this embodiment, any method may be used as long as the output vector 102 can be obtained.

次に、II別時の動作について、第1図を用いて説明す
る。
Next, the operation at the time of II will be explained using FIG. 1.

入力パターン101は、第1多層神経回路1で処理され
出力ベクトル102が得られる0判定部2は出力ベクト
ル102より、最大値mい次大値m2を検出し、予め定
めたしきい値θ1.θ3を用いて次の判定を行う。
The input pattern 101 is processed by the first multilayer neural circuit 1 and an output vector 102 is obtained.The zero determination unit 2 detects the maximum value m times the largest value m2 from the output vector 102, and sets the value to a predetermined threshold value θ1. The following determination is made using θ3.

(i)m1≧θ、かつm2≧θ2のとき、識別結果は、
第1候補カテゴリとし、li別結果は識別結果メモリ部
5に格納される。ms + m zはm工≧019m2
≧02の情報を付与されてヒストグラムメモリ部104
の分布に重畳される。
(i) When m1≧θ and m2≧θ2, the identification result is
The result for each li is stored in the identification result memory section 5 as the first candidate category. ms + m z is m engineering ≧019m2
The histogram memory unit 104 is given the information of ≧02.
is superimposed on the distribution of

(…)m工〈θ、又はm2<θ2のとき、識別結果はり
ジェクトとし、入力パターン101は多層神経回路3に
送出される@ mz Hrn2はm工くθ□又はm2〈
θ2の情報を付与されてヒストグラムメモリ部104の
分布に重畳される。
(...) When m<θ, or m2<θ2, the identification result is determined to be ejected, and the input pattern 101 is sent to the multilayer neural circuit 3 @ mz Hrn2 is m<θ□ or m2<
Information about θ2 is given and superimposed on the distribution in the histogram memory unit 104.

前記(ii)の場合は、多層神経回路3において得られ
た出力ベクトル302を判定部4で処理し。
In the case of (ii) above, the output vector 302 obtained in the multilayer neural circuit 3 is processed by the determination unit 4.

その結果は、識別結果メモリ部5に格納され、識別処理
は終了する。この処理の中で出力ベクトル302から抽
出したm工2m2は判定部4での情報を付与してヒスト
グラムメモリ部304の分布に重畳される。
The result is stored in the identification result memory section 5, and the identification process ends. In this process, m-process 2m2 extracted from the output vector 302 is superimposed on the distribution in the histogram memory unit 304 with information from the determination unit 4 added thereto.

以上1本発明を実施例にもとづき具体的に説明したが1
本発明は、前記実施例に限定されるものではなく、その
要旨を逸脱しない範囲において種々変更可能であること
は言うまでもない。
The present invention has been specifically described above based on examples.
It goes without saying that the present invention is not limited to the embodiments described above, and can be modified in various ways without departing from the spirit thereof.

〔発明の効果〕〔Effect of the invention〕

以上、説明したように2本発明によれば、多層神経回路
と判定部とを交互に縦続接続した多段構成をとることに
より、各段における多層神経回路における識別可否の判
定を行いながら順次処理を進めていくので、複雑な分布
をなす入力パターンに対してこれを識別可能とする多層
神経回路を自動作成することができる。
As described above, according to the second aspect of the present invention, by adopting a multi-stage configuration in which multi-layer neural circuits and determination units are alternately connected in cascade, sequential processing is performed while determining whether discrimination is possible in the multi-layer neural circuit at each stage. As the process progresses, it is possible to automatically create a multilayer neural circuit that can identify input patterns with complex distributions.

また、判定部では入力パターンを処理する都度に得られ
る出力ベクトルの要素の最大値・次大値をヒストグラム
に重畳し、当該ヒストグラムを用いて1判定に用いるし
きい値を変更することにより、識別性能を一定に保持す
ることができる。
In addition, the determination unit superimposes the maximum value and the largest value of the elements of the output vector obtained each time an input pattern is processed on a histogram, and uses the histogram to change the threshold value used for 1 determination. Performance can be maintained constant.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は、本発明の一実施例を説明するための多層神経
回路の機能ブロック図。 第2図は1本実施例の判定部の一実施例を示す機能ブロ
ック図。 第3図は1本実施例のヒストグラムの一例を示す図、 第4図は1本実施例の学習パターンが増加したときのヒ
ストグラムの一例を示す図。 第5図は1通常の多層神経回路の構成図、第6図は、第
5図における1個の神経回路素子の構成図。 第7図は1分離度の良い分布の一例を示す図、第8図は
1分離の困難な分布の一例を示す図である。 図中、1・・・第1多層神経回路、2・・・判定部、3
・・・第2多層神経回路、4・・・判定部、5・・・識
別結果メモリ部、6・・・入力パターンメモリ部、7・
・・制御部、11・・・中間層神経回路素子の荷重ベク
トル、12・・・中間層神経回路素子のしきい値、13
・・・中間層神経回路素子の出力、14・・・出力層神
経回路素子の荷重ベクトル、15・・・出力層神経回路
素子のしきい値、16・・・出力層神経回路素子の出力
、17・・・神経回路素子、18・・・膜電位算出回路
、19・・・飽和型関数計算回路、21・・・最大値・
次大値検出回路、22・・・第1判定回路、23・・・
第2判定回路、24・・・照合回路、101・・・入力
パターン。 102・・・出力ベクトル、103・・・教師信号ベク
トル、104・・・ヒストグラムメモリ部、302・・
・出力ベクトル、304・・・ヒストグラムメモリ部。
FIG. 1 is a functional block diagram of a multilayer neural circuit for explaining one embodiment of the present invention. FIG. 2 is a functional block diagram showing one embodiment of the determination section of this embodiment. FIG. 3 is a diagram showing an example of the histogram of the first embodiment, and FIG. 4 is a diagram showing an example of the histogram when the number of learning patterns is increased in the first embodiment. FIG. 5 is a block diagram of one ordinary multilayer neural circuit, and FIG. 6 is a block diagram of one neural circuit element in FIG. FIG. 7 is a diagram showing an example of a distribution with a good one-separation degree, and FIG. 8 is a diagram showing an example of a distribution with a difficult one-separation degree. In the figure, 1... first multilayer neural circuit, 2... determination section, 3
. . . second multilayer neural circuit, 4. determination unit, 5. identification result memory unit, 6. input pattern memory unit, 7.
...control unit, 11...load vector of the middle layer neural circuit element, 12...threshold value of the middle layer neural circuit element, 13
... Output of the intermediate layer neural circuit element, 14... Load vector of the output layer neural circuit element, 15... Threshold value of the output layer neural circuit element, 16... Output of the output layer neural circuit element, 17... Neural circuit element, 18... Membrane potential calculation circuit, 19... Saturation type function calculation circuit, 21... Maximum value
Next largest value detection circuit, 22...first judgment circuit, 23...
Second judgment circuit, 24... Verification circuit, 101... Input pattern. 102... Output vector, 103... Teacher signal vector, 104... Histogram memory section, 302...
- Output vector, 304... histogram memory section.

Claims (2)

【特許請求の範囲】[Claims] (1)複数個の神経回路素子から入力パターン信号を取
り込み、各入力パターン信号に対応した荷重値を乗じて
総和をとった値に飽和型関数を作用させて1個の出力を
得る神経回路素子からなり、各神経回路素子を並べて構
成した層を最下位の入力層から1層以上の順位付けられ
た中間層へ続き、最上位の出力層へと続く配列で構成さ
れ、最下位の層の神経回路素子から上位の層の神経回路
素子へ結線した多層神経回路を用いて、入力パターンの
識別を行うパターン識別処理装置であって、前記出力層
の神経回路の出力の最大値が予め定められた第1のしき
い値以上であり、かつ、該最大値と次大値との差分が予
め定められた第2のしきい値以上である2つの条件を満
足したとき、該最大値を出力した神経回路素子に対応す
るカテゴリを識別結果とし、前記2つの条件を満足しな
い場合は、識別結果がリジェクトされ、前記入力パター
ン信号が次段の多層神経回路に送出される判定手段と、
該判定手段において、リジェクトとなった入力パターン
信号に判定理由の情報を付与して格納される格納手段を
具備することを特徴とするパターン識別処理装置。
(1) A neural circuit element that receives input pattern signals from multiple neural circuit elements, multiplies each input pattern signal by a corresponding weight value, and applies a saturation function to the summed value to obtain one output. It consists of a layer in which each neural circuit element is lined up, starting from the lowest input layer, continuing to one or more ranked intermediate layers, and continuing to the highest output layer. A pattern identification processing device that identifies an input pattern using a multilayer neural circuit connected from a neural circuit element to an upper layer neural circuit element, wherein the maximum value of the output of the output layer neural circuit is predetermined. output the maximum value when two conditions are met: the maximum value is equal to or greater than a first threshold value, and the difference between the maximum value and the next maximum value is equal to or greater than a predetermined second threshold value. determining means for determining a category corresponding to the neural circuit element that has been selected as an identification result, and rejecting the identification result if the two conditions are not satisfied, and sending the input pattern signal to a next-stage multilayer neural circuit;
A pattern identification processing apparatus characterized in that the determining means includes a storage means for storing rejected input pattern signals with information on the reason for the determination added thereto.
(2)前記判定手段における前記第1のしきい値及び第
2のしきい値は、学習に用いたパターン信号に対する前
記多層神経回路の前記最大値及び差分のヒストグラムを
用いて決定され、呈示された入力パターン信号に対する
前記多層神経回路の前記最大値及び差分が前記ヒストグ
ラムに重畳され、該ヒストグラムを用いて前記第1のし
きい値及び第2のしきい値の設定変更を可能とする手段
を備えたことを特徴とする請求項(1)記載のパターン
識別処理装置。
(2) The first threshold value and the second threshold value in the determination means are determined using the maximum value and histogram of the difference of the multilayer neural circuit with respect to the pattern signal used for learning, and are presented. means for superimposing the maximum value and the difference of the multilayer neural circuit with respect to the input pattern signal on the histogram, and using the histogram to change the settings of the first threshold value and the second threshold value; The pattern identification processing device according to claim 1, further comprising: a pattern identification processing device;
JP2304382A 1990-11-09 1990-11-09 Pattern identification processor Pending JPH04175986A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2304382A JPH04175986A (en) 1990-11-09 1990-11-09 Pattern identification processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2304382A JPH04175986A (en) 1990-11-09 1990-11-09 Pattern identification processor

Publications (1)

Publication Number Publication Date
JPH04175986A true JPH04175986A (en) 1992-06-23

Family

ID=17932347

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2304382A Pending JPH04175986A (en) 1990-11-09 1990-11-09 Pattern identification processor

Country Status (1)

Country Link
JP (1) JPH04175986A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004167158A (en) * 2002-11-22 2004-06-17 Glory Ltd Medicine recognition device
JP2009189875A (en) * 2009-06-02 2009-08-27 Takazono Sangyo Co Ltd Dispensing inspection support system for packaged medicament

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004167158A (en) * 2002-11-22 2004-06-17 Glory Ltd Medicine recognition device
JP2009189875A (en) * 2009-06-02 2009-08-27 Takazono Sangyo Co Ltd Dispensing inspection support system for packaged medicament
JP4560126B2 (en) * 2009-06-02 2010-10-13 高園産業株式会社 Dispensing audit support system for packaging drugs

Similar Documents

Publication Publication Date Title
KR100442835B1 (en) Face recognition method using artificial neural network, and the apparatus using thereof
EP0591921B1 (en) Learning and recognition machine
WO2016182672A1 (en) Reduced computational complexity for fixed point neural network
US5265224A (en) Recognition unit and recognizing and judging apparatus employing same
CN110069959A (en) A kind of method for detecting human face, device and user equipment
US5528700A (en) Character recognition system based on a neural network
JPH04175986A (en) Pattern identification processor
US5293454A (en) Learning method of neural network
Xu et al. Design of an expert system based on neural network ensembles for missile fault diagnosis
Oliveira et al. Improving RBF-DDA performance on optical character recognition through parameter selection
CN113989601A (en) Feature fusion network, sample selection method, target detection method and device
JPH02235170A (en) Method for learning neural network
US5329594A (en) Recognizing and judging apparatus
JP3318958B2 (en) Learning type waveform recognition processor
JPH08115387A (en) Pattern recognition device
Verikas et al. Selecting neural networks for a committee decision
Dagher et al. Ordered Fuzzy ARTMAP: a Fuzzy ARTMAP algorithm with a fixed order of pattern presentation
JPH05258114A (en) Character recognition device
JPH02300876A (en) Character recognizing device
Prampero et al. Classifier combination for vehicle silhouettes recognition
JP2684857B2 (en) Recognition judgment device
JPH06139362A (en) Pattern discriminating device
JPH041870A (en) Method and device for recognizing pattern
JPS63265372A (en) Signal pattern identifying device
JPH064677A (en) Recognition judgement device