JP2699622B2 - Pattern learning device - Google Patents

Pattern learning device

Info

Publication number
JP2699622B2
JP2699622B2 JP2198924A JP19892490A JP2699622B2 JP 2699622 B2 JP2699622 B2 JP 2699622B2 JP 2198924 A JP2198924 A JP 2198924A JP 19892490 A JP19892490 A JP 19892490A JP 2699622 B2 JP2699622 B2 JP 2699622B2
Authority
JP
Japan
Prior art keywords
pattern
learning
layer
input
category name
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2198924A
Other languages
Japanese (ja)
Other versions
JPH0484281A (en
Inventor
敬嗣 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2198924A priority Critical patent/JP2699622B2/en
Publication of JPH0484281A publication Critical patent/JPH0484281A/en
Application granted granted Critical
Publication of JP2699622B2 publication Critical patent/JP2699622B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、パターン認識に必要とされる学習装置に関
するものである。
Description: TECHNICAL FIELD The present invention relates to a learning device required for pattern recognition.

〔従来の技術〕[Conventional technology]

従来のパターン認識での学習は、予め多数の実際のデ
ータをサンプルしておき、そのデータに正しいカテゴリ
名を付加して記憶しておいて、学習に用いる。判別分析
や因子分析や重回帰分析等の線形分析が用いられる場合
では、入力パターンと出力信号との線形な対応付けを統
計的に求める。多層神経回路網での学習ではパターンを
入力してその理想的な出力を教師信号として、文献
(“An Introduction to Computing with Neural Nets"
by R.P.Lippmann:IEEE.ASSP:April 1987,00.4−22)に
示される逆伝播学習法により、入力パターンと出力信号
との非線形な対応付けを逐次的に学習する。
In the conventional learning in pattern recognition, a large number of actual data are sampled in advance, the data are added with correct category names, stored, and used for learning. When linear analysis such as discriminant analysis, factor analysis, or multiple regression analysis is used, a linear association between an input pattern and an output signal is statistically obtained. In learning in a multilayer neural network, a pattern is input, and its ideal output is used as a teacher signal, as described in the literature (“An Introduction to Computing with Neural Nets”).
by RPLippmann: IEEE.ASSP: April 1987, 00.4-22), and sequentially learns a nonlinear correspondence between an input pattern and an output signal.

〔発明が解決しようとする課題〕[Problems to be solved by the invention]

以上述べた学習方法では、予めサンプルしたパターン
にカテゴリ名を付与して、それらの対応付けを学習す
る。学習用のパターンは、母集団となるパターン集合を
良好に表現できるように、充分多くのパターンをサンプ
ルしなければならない。実際の認識対象となるパターン
を、母集団を充分に表現できるほどサンプルすること
は、現れるパターンの変形を予測して、そのような変形
パターンをサンプルしなければならず、非常に多くの作
業を要する。しかし、認識対象となる全てのパターンを
学習に用いることは不可能であり、それどころか母集団
を充分表現できるほど多くの学習サンプルパターンを収
集することすら困難である。また、学習に用いられる適
当な数のサンプルパターンが母集団を良好に表現してい
る保証はなく、特にカテゴリの境界付近でのパターンは
少なく、学習されたカテゴリ境界は曖昧になる。また、
リジェクトパターンを実データからサンプルすることは
困難であり、リジェクトすべき部分の学習が充分にでき
ない。
In the learning method described above, a category name is given to a pattern sampled in advance, and the association between them is learned. As for the learning patterns, a sufficiently large number of patterns must be sampled so that a pattern set serving as a population can be expressed well. To sample the pattern to be actually recognized enough to sufficiently represent the population, it is necessary to predict the deformation of the pattern to appear and to sample such a deformed pattern. It costs. However, it is impossible to use all patterns to be recognized for learning, and it is even more difficult to collect as many learning sample patterns as can sufficiently express a population. In addition, there is no guarantee that an appropriate number of sample patterns used for learning express the population well, and in particular, there are few patterns near category boundaries, and the learned category boundaries become ambiguous. Also,
It is difficult to sample a reject pattern from actual data, and it is not possible to sufficiently learn a part to be rejected.

本発明の目的は、これらの問題点を解決したパターン
学習装置を提供することにある。
An object of the present invention is to provide a pattern learning device that solves these problems.

〔課題を解決するための手段〕[Means for solving the problem]

第1の発明により得られるパターン学習装置は、 逆伝播法により学習を行う入力層,中間層,出力層か
らなる多層神経回路網計算部と、 学習すべきパターンを記憶する学習パターン記憶部
と、 記憶パターンを多層神経回路網の入力層に入力して、
そのカテゴリ名を教師信号として入力して多層信号回路
網の重み値を学習することを制御する手段と、 学習パターンを多層神経回路網の入力層に入力し、変
形目的のカテゴリ名を入力して、多層神経回路網により
目的カテゴリに属するように入力パターンを変形する変
形処理を制御する手段と、 変形途中及び結果の生成されたパターンを表示して、
生成されたパターン毎に正解のカテゴリ名を入力する手
段と、 生成されたパターン毎に、入力された正解のカテゴリ
名を付加した上で、前記生成されたパターンを学習パタ
ーン記憶部に登録する手段と、 パターンの生成と学習との繰り返しを制御する手段
と、 4を備えることを特徴とする。
A pattern learning device obtained by the first invention comprises: a multilayer neural network calculation unit including an input layer, an intermediate layer, and an output layer for learning by a back propagation method; a learning pattern storage unit for storing a pattern to be learned; Inputting the memory pattern to the input layer of the multilayer neural network,
Means for controlling learning of the weight value of the multilayer signal network by inputting the category name as a teacher signal; inputting the learning pattern to the input layer of the multilayer neural network; inputting the category name for the purpose of transformation; Means for controlling a transformation process for transforming an input pattern so as to belong to a target category by a multi-layer neural network;
Means for inputting a correct category name for each generated pattern; means for adding the input correct category name for each generated pattern, and registering the generated pattern in a learning pattern storage unit Means for controlling repetition of pattern generation and learning; and 4.

第2の発明により得らるパターン学習装置は、 逆伝播法により学習を行う入力層,中間層,出力層か
らなる多層神経回路網計算部と、 学習すべきパターンを記憶する学習パターン記憶部
と、 記憶パターンを多層神経回路網の入力層に入力して、
そのカテゴリ名を教師信号として入力して多層信号回路
網の重み値を学習することを制御する手段と、 学習パターンを多層神経回路網の入力層に入力して、
その出力信号が正しい場合には、予め記憶しておいた結
果カテゴリと類似したカテゴリの名前を変形目的のカテ
ゴリ名として定め、出力信号が誤っている場合には、出
力信号から得られたカテゴリ名を変形目的のカテゴリ名
として定める手段と、 定めた変形目的カテゴリに属するように、多層神経回
路網により入力パターンを変形する変形処理を制御する
手段と、 変形途中及び結果の生成されたパターンを表示して、
生成されたパターン毎に正解のカテゴリ名を入力する手
段と、 生成されたパターン毎に、入力された正解のカテゴリ名
を付加した上で、前記生成されたパターンを学習パター
ン記憶部に登録する手段と、 パターンの生成と学習との繰り返しを制御する手段
と、 を備えることを特徴とする。
A pattern learning device obtained by the second invention includes a multilayer neural network calculation unit including an input layer, an intermediate layer, and an output layer for learning by a back propagation method, and a learning pattern storage unit for storing a pattern to be learned. Input the memory pattern to the input layer of the multilayer neural network,
Means for controlling the learning of the weight value of the multilayer signal network by inputting the category name as a teacher signal; and inputting the learning pattern to the input layer of the multilayer neural network.
If the output signal is correct, a category name similar to the previously stored result category is determined as a category name for the purpose of transformation, and if the output signal is incorrect, the category name obtained from the output signal is determined. Means for defining a transformation target category name, means for controlling a transformation process for transforming an input pattern by a multilayer neural network so as to belong to the decided transformation target category, and displaying a pattern in the middle of the transformation and a result generated. do it,
Means for inputting a correct category name for each generated pattern; means for adding the input correct category name for each generated pattern, and registering the generated pattern in a learning pattern storage unit And means for controlling repetition of pattern generation and learning.

第3の発明により得られるパターン学習装置は、 逆伝播法により学習を行う入力層,中間層,出力層か
らなる多層神経回路網計算部と、 学習すべきパターンを記憶する学習パターン記憶部
と、 記憶パターンを多層神経回路網の入力層に入力して、
そのカテゴリ名を教師信号として入力して多層信号回路
網の重み値を学習することを制御する手段と、 学習パターンを多層神経回路網の入力層に入力して、
その出力信号が誤っている場合にのみ、予め記憶してお
いた結果カテゴリと類似したカテゴリの名前と、出力信
号から得られたカテゴリ名の両方を変形目的のカテゴリ
名として定める手段と、 定めた変形目的カテゴリに属するように、多層神経回
路網により入力パターンを変形する変形処理を制御する
手段と、 変形途中及び結果の生成されたパターンを表示して、
生成されたパターン毎に正解のカテゴリ名を入力する手
段と、 生成されたパターン毎に、入力された正解のカテゴリ
名を付加した上で、前記生成されたパターンを学習パタ
ーン記憶部に登録する手段と、 パターンの生成と学習との繰り返しを制御する手段
と、 を備えることを特徴とする。
The pattern learning device obtained by the third invention comprises: a multi-layer neural network calculating unit including an input layer, an intermediate layer, and an output layer for learning by the back propagation method; a learning pattern storage unit for storing a pattern to be learned; Inputting the memory pattern to the input layer of the multilayer neural network,
Means for controlling the learning of the weight value of the multilayer signal network by inputting the category name as a teacher signal; and inputting the learning pattern to the input layer of the multilayer neural network.
Only when the output signal is incorrect, means for determining both the name of the category similar to the result category stored in advance and the category name obtained from the output signal as the category name for the purpose of transformation, Means for controlling a transformation process for transforming an input pattern by a multilayer neural network so as to belong to the transformation target category; and displaying a pattern in the middle of the transformation and a result generated,
Means for inputting a correct category name for each generated pattern; means for adding the input correct category name for each generated pattern, and registering the generated pattern in a learning pattern storage unit And means for controlling repetition of pattern generation and learning.

〔作用〕[Action]

第1の発明では、初期的な学習パターンを多層神経回
路網によって学習し、学習パターンまたは学習パターン
を雑音重畳等により変形したものを初期パターンとし
て、入力したカテゴリに属するように多層神経回路網を
用いて変形する。この過程を模式的に表現すると第4図
のようになり、カテゴリ1(境界を409で示す)に属す
る初期パターン401を与えて、カテゴリ2(境界を410で
示す)に属するようにそのパターンを徐々に変形する
と、初期パターン401からパターン402,403,404,405,40
6,407と変化していき、最終的にパターン408となったと
ころで止まる。その過程のパターン401から408にカテゴ
リ名またはリジェクト信号を付与して、学習パターンに
登録する。これによって、境界付近のパターンやリジェ
クトパターンを生成できる。このように生成され登録さ
れたパターンを学習して、上記の手続きを繰り返すこと
によりカテゴリの境界付近のパターンの分布を学習でき
る。
In the first invention, an initial learning pattern is learned by a multi-layer neural network, and the multi-layer neural network is configured to belong to an input category by using the learning pattern or a modified learning pattern by noise superimposition or the like as an initial pattern. Use to deform. This process is schematically represented in FIG. 4, where an initial pattern 401 belonging to category 1 (boundary indicated by 409) is given, and the pattern is changed to belong to category 2 (boundary indicated by 410). When gradually deformed, patterns 402, 403, 404, 405, 40
It changes to 6,407 and stops when the pattern 408 is finally reached. A category name or a reject signal is given to the patterns 401 to 408 in the process, and registered as a learning pattern. Thereby, a pattern or a reject pattern near the boundary can be generated. By learning the pattern thus generated and registered and repeating the above procedure, the distribution of the pattern near the boundary of the category can be learned.

以下に上記の原理を述べる。ここで、第5図に示すよ
うに多層神経回路網を入力層501、1層の中間層502、出
力層503の計3層からなるものとして説明するが、これ
は本質的な問題ではなく、2層の場合、4層以上の場合
についても、容易に拡張可能である。まず、第5図を用
いて学習の説明をする。学習では逆伝播学習法を用い
る。ここでは、典型的な逆伝播学習法について説明する
が、多層神経回路網の学習であれがどのようなものでも
よい。
The above principle will be described below. Here, as shown in FIG. 5, the multilayer neural network will be described as being composed of a total of three layers: an input layer 501, an intermediate layer 502, and an output layer 503, but this is not an essential problem. In the case of two layers, even in the case of four or more layers, it can be easily expanded. First, the learning will be described with reference to FIG. In the learning, a back propagation learning method is used. Here, a typical backpropagation learning method will be described, but any learning method for a multilayer neural network may be used.

学習は、入力パターンと教師信号を繰り返し与えるこ
とによりなされるが、1つの入力パターンと1つの教師
信号を与えた場合について説明する。予め、各ユニット
へ結合する重みマトリクスを初期化しておく。
Learning is performed by repeatedly providing an input pattern and a teacher signal. A case where one input pattern and one teacher signal are provided will be described. A weight matrix to be connected to each unit is initialized in advance.

まず、入力パターンから出力信号を計算するフィード
フォワードの処理を説明する。入力パターンはベクトル
値として入力値501に入力される。入力されるベクトル
値をoi 0(1≦i≦N0)とし、第1層重みマトリクスをw
ij1(1≦i≦N0,1≦i≦N1)、中間層502の値をo′j 1
(1≦j≦N1)とすると、中間層502は、 なる計算を行う。ただし、ここでθj 1はバイアス値であ
る。結果のoj 1(1≦j≦N1)は各々、 o′j 1={1+tanh(oj 1)}/2 (2) なる計算によりo′j 1を求め、中間層502の出力とす
る。
First, a feedforward process for calculating an output signal from an input pattern will be described. The input pattern is input to the input value 501 as a vector value. The input vector value is set to o i 0 (1 ≦ i ≦ N 0 ), and the first layer weight matrix is set to w
ij 1 (1 ≦ i ≦ N 0 , 1 ≦ i ≦ N 1 ), and the value of the intermediate layer 502 is represented by o ′ j 1
If (1 ≦ j ≦ N 1 ), the intermediate layer 502 Perform the following calculation. Here, θ j 1 is a bias value. Results of o j 1 (1 ≦ j ≦ N 1) each, o seek j 1 'j 1 = {1 + tanh (o j 1)} / 2 (2) calculation o by comprising', and the output of the intermediate layer 502 I do.

中間層502から出力層503に結合する重みマトリクスを
wjk 2(1≦j≦N1,1≦k≦N2)とし、バイアス値をθk 2
とすると出力値503では、 なる計算を行う。結果のok 2(1≦k≦N2)はそれぞれ o′k 2={1+tanh(ok 2)}/2 (4) なる計算により出力層503の出力信号o′k 2を求める。
出力信号の要素は、認識対象のカテゴリに対応付けられ
ているものとする。
The weight matrix coupled from the hidden layer 502 to the output layer 503 is
w jk 2 (1 ≦ j ≦ N 1 , 1 ≦ k ≦ N 2 ) and the bias value is θ k 2
Then, with the output value 503, Perform the following calculation. Results of o k 2 (1 ≦ k ≦ N 2) , respectively o 'k 2 = {1 + tanh (o k 2)} / 2 (4) comprising computing the output signal o of the output layer 503' obtains the k 2.
It is assumed that the elements of the output signal are associated with the category to be recognized.

次に、重みマトリクスの修正を行う逆伝播処理の説明
をする。
Next, the backpropagation processing for correcting the weight matrix will be described.

上述のフィードフォワード処理により求められた出力
信号に対し、その理想的な値である教師信号504を入力
して、その値tk(1≦k≦N2)と出力層503の出力信号
o′k 2とを誤差計算(ブロック505)して、誤差信号
d′k 2を、 d′k 2=tk−o′k 2(1≦k≦N2) (5) として計算して、さらに出力信号o′k 2とから逆伝播誤
差を評価し、 dk 2=d′k 2×o′k 2×(1−o′k 2) (6) なる式を実行する計算によりdk 2(1≦k≦N2)を求め
る。
A teacher signal 504, which is an ideal value, is input to the output signal obtained by the above-described feedforward processing, and the value t k (1 ≦ k ≦ N 2 ) and the output signal o ′ of the output layer 503 are input. k 2 and an error calculation (block 505), and an error signal d ′ k 2 is calculated as d ′ k 2 = t k −o ′ k 2 (1 ≦ k ≦ N 2 ) (5). 'evaluates the back propagation error from k 2 Prefecture, d k 2 = d' output signal o k 2 × o 'k 2 × (1-o' k 2) (6) becomes d k 2 by calculation executing the formula (1 ≦ k ≦ N 2 ) is obtained.

ブロック506では、式(6)によって得られた誤差評
価値dk 2から wjk 2=wjk 2+a×dk 2×o′j 1 (7) θj 2=θj 2+b×dk 2 (8) なる計算により第2層重みマトリクスを修正する。ここ
で、a,bは正値の係数である。
In block 506, w jk 2 = w jk 2 + a × d k 2 × o ′ j 1 (7) θ j 2 = θ j 2 + b × d k from the error evaluation value d k 2 obtained by the equation (6). 2 (8) The second layer weight matrix is corrected by the following calculation. Here, a and b are positive value coefficients.

式(6)により求められたdk 2は、ブロック507におい
て、 の計算をし、さらに dj 1=d′j 1×o′j 1×(1−o′j 1) (10) なる式によりdj 1(1≦j≦N1)を求めた後に、 wij 1=wij 1+a×dj 1×oi 0 (11) θi 1=θi 1+b×dj 1 (12) なる式により、ブロック508において第1層重みマトリ
クスを修正する。
The d k 2 obtained by the equation (6) is calculated in block 507 as follows: After calculating d j 1 = d ′ j 1 × o ′ j 1 × (1−o ′ j 1 ) (10), d j 1 (1 ≦ j ≦ N 1 ) is obtained. the w ij 1 = w ij 1 + a × d j 1 × o i 0 (11) θ i 1 = θ i 1 + b × d j 1 (12) becomes equation, corrects the first Soomomi matrix in block 508.

以上の式(1)から式(12)までの計算を各学習パタ
ーンに対して繰り返し行うことにより、多層神経回路網
の学習を実行できる。
By repeatedly performing the above-described equations (1) to (12) for each learning pattern, learning of the multilayer neural network can be executed.

次に上記の手順により学習された多層神経回路網を用
いて、パターン認識処理とパターンの変形処理を行う。
学習に用いたパターン、または学習パターンをアフィン
変換等により少々変形したパターン、または学習パター
ンにランダムな雑音を重畳したパターン、または学習パ
ターン以外のパターンを多層神経回路網の入力層501に
入力する。式(1),式(2),式(3),式(4)に
従った計算を順に行うことにより、出力層503の出力信
号を得る。この要素のうちで最大値を持つ信号に対応す
るカテゴリを認識結果とする。入力層501に入力したパ
ターンと認識結果を表示することにより、パターンを変
化せさたい場合には、パターンを変更する目的のカテゴ
リ名を入力する。
Next, pattern recognition processing and pattern deformation processing are performed using the multilayer neural network learned by the above procedure.
A pattern used for learning, a pattern obtained by slightly modifying the learning pattern by affine transformation or the like, a pattern obtained by superimposing random noise on the learning pattern, or a pattern other than the learning pattern is input to the input layer 501 of the multilayer neural network. An output signal of the output layer 503 is obtained by sequentially performing calculations according to Expressions (1), (2), (3), and (4). The category corresponding to the signal having the maximum value among the elements is set as the recognition result. If the user wants to change the pattern by displaying the input pattern and the recognition result on the input layer 501, he or she inputs a category name for the purpose of changing the pattern.

第5図を用いてパターンを変化させる方法について説
明する。入力層501へ初期パターンoi 0(1≦i≦N0)入
力し、変化させる目的のカテゴリ名を表す教師信号504
(tk:1≦k≦N2)を入力する。入力パターンは、前述の
式(1)から式(4)までに示す処理に従って計算され
た出力層503の信号o′k 3と教師信号504からブロック50
5での誤差計算において式(5)で示される計算により
出力信号と教師信号との誤差が求められ、式(6),
(9),(10)で示される計算を実行することにより誤
差が出力層から逆伝播し、中間層での誤差信号dj 1(1
≦j≦N1)が評価される。ブロック509において、この
誤差信号を入力層に伝播させた場合の誤差値di 0を、 によって評価し、これを入力層501に保持されるパター
ンに加え、 pi=oi 0+c×di 0 (14) なる計算によって入力層のパターンpi(1≦i≦N0)を
修正する。ここでcは、正値の係数であり0.2程度の値
とするが、特にこの値に限るものではない。パターンpi
をoi 0として再び中間層502を通して出力層503の信号を
求める。この出力信号と教師信号504とから誤差を求め
た上で、それより なる計算に従って誤差量Dを求める。
A method of changing the pattern will be described with reference to FIG. A teacher signal 504 that inputs an initial pattern o i 0 (1 ≦ i ≦ N 0 ) to the input layer 501 and indicates a target category name to be changed
(T k : 1 ≦ k ≦ N 2 ) is input. The input pattern is a block 50 from the signal o ′ k 3 of the output layer 503 and the teacher signal 504 calculated according to the processing shown in the above-described equations (1) to (4).
In the error calculation in 5, the error between the output signal and the teacher signal is obtained by the calculation shown in Expression (5).
By performing the calculations shown in (9) and (10), the error is back-propagated from the output layer, and the error signal d j 1 (1
≦ j ≦ N 1 ) is evaluated. In block 509, an error value d i 0 when this error signal is propagated to the input layer is Is added to the pattern held in the input layer 501, and the pattern p i (1 ≦ i ≦ N 0 ) of the input layer is corrected by the calculation of p i = o i 0 + c × d i 0 (14) I do. Here, c is a positive coefficient and is a value of about 0.2, but is not particularly limited to this value. Pattern p i
Is set to o i 0 , and the signal of the output layer 503 is obtained again through the intermediate layer 502. After calculating the error from this output signal and the teacher signal 504, The error amount D is obtained according to the following calculation.

誤差量Dとしきい値とを比較し、誤差量Dの方が小さ
いならば入力層パターンの修正処理を終了し、その時間
でのパターンpiを変形結果とする。しきい値よりも誤差
量の方が大きいならば、パターン変形が完了していない
として誤差信号d′k 2を前述の処理と同様にして逆伝播
させ、入力層501の修正を行う。これを誤差量Dがしき
い値以下になるまで繰り返し、最終的に与えた教師信号
が表すカテゴリに属するように変形されたパターンを得
る。
Comparing the error amount D and the threshold value, and terminates the correction processing of the input layer pattern if towards the error amount D is small, the deformation results pattern p i at that time. If the error amount is larger than the threshold value, it is determined that the pattern deformation has not been completed, and the error signal d ′ k 2 is back-propagated in the same manner as the above-described processing, and the input layer 501 is corrected. This is repeated until the error amount D becomes equal to or less than the threshold value, and a pattern deformed to finally belong to the category represented by the given teacher signal is obtained.

これにより第4図に示したように、初期パターンは与
えたカテゴリに属するように徐々に変形する。この過程
で、カテゴリの境界付近のパターンにそのカテゴリ名ま
たはリジェクト信号を付与して、学習パターン集合に付
加する。これを一定回数繰り返した後に、学習パターン
の生成処理を終了して、前述の式(1)から式(12)ま
でを用いてパターンの学習を行い、さらにパターンの変
形と学習パターンの生成処理を前述のように行う。学習
パターンの生成処理の終了条件としては、類似の変形パ
ターンが一定確率以上で得られるかどうかという判定基
準などもあるが、この判定基準は本質的な問題ではな
く、どのようなものでもよい。この学習と学習パターン
の生成処理との繰り返しを、一定回数または学習パター
ンの生成処理の段階で、誤認識の確率がしきい値以下に
なった場合に、この処理を終了する。
Thereby, as shown in FIG. 4, the initial pattern is gradually deformed so as to belong to the given category. In this process, the category name or the reject signal is added to the pattern near the boundary of the category, and the pattern is added to the learning pattern set. After repeating this process a predetermined number of times, the learning pattern generation processing is terminated, the pattern learning is performed using the above-described equations (1) to (12), and the pattern deformation and the learning pattern generation processing are performed. Perform as described above. As a condition for terminating the process of generating the learning pattern, there is a criterion for determining whether or not a similar deformation pattern can be obtained with a certain probability or more, but this criterion is not an essential problem and may be any. This process is repeated a predetermined number of times of the learning and the generation process of the learning pattern, or when the probability of erroneous recognition becomes equal to or less than the threshold value at the stage of the generation process of the learning pattern, the process is terminated.

第2の発明では、初期的な学習パターンを多層神経回
路網によって第1の発明と同様の手順により学習し、学
習パターンまたは学習パターンを変形したものを初期パ
ターンとして多層神経回路網に入力する。入力した初期
パターンに対して式(1)から式(4)に従って認識処
理を行い、その結果が誤りかを入力する。その結果が正
しい場合には、予めクラスタリングにより類似した形状
のカテゴリ名を対にして定めておき、認識結果のカテゴ
リ名と対になるカテゴリ名を変形目的のカテゴリ名とす
る。また、認識結果が誤っている場合には、誤認識され
たカテゴリ名を変形目的のカテゴリ名とする。その後、
第1の発明と同様の手順により初期パターンを定めたカ
テゴリに属するように多層神経回路網を用いて変形す
る。その過程のパターンにカテゴリ名またはリジェクト
信号を付与して、学習パターンに登録する。これによっ
て、境界付近のパターンやリジェクトパターンを生成で
きる。このように生成され登録されたパターンを学習す
る手続きを繰り返すことにより、カテゴリの境界付近の
パターンの分布を学習できる。
In the second invention, an initial learning pattern is learned by a multilayer neural network in the same procedure as in the first invention, and a learning pattern or a modified learning pattern is input to the multilayer neural network as an initial pattern. Recognition processing is performed on the input initial pattern according to equations (1) to (4), and whether or not the result is an error is input. If the result is correct, a category name having a similar shape is previously determined as a pair by clustering, and the category name paired with the category name of the recognition result is set as the category name for the purpose of transformation. If the recognition result is incorrect, the category name that is incorrectly recognized is used as the category name for the purpose of transformation. afterwards,
According to the same procedure as that of the first invention, the initial pattern is deformed by using a multilayer neural network so that the initial pattern belongs to a category. The pattern in the process is given a category name or a reject signal and registered as a learning pattern. Thereby, a pattern or a reject pattern near the boundary can be generated. By repeating the procedure for learning the generated and registered pattern, the distribution of the pattern near the boundary of the category can be learned.

第4図に示すように初期パターン401が、カテゴリ1
の境界409の内側にあり正しく認識される場合には、近
接する異なるカテゴリ名を与えて、初期パターン401を
変形させることにより、パターンは徐々に変形してカテ
ゴリ1の境界409を横断してリジェクトパターン404,405
となり、さらにカテゴリ2の境界410を横断して、パタ
ーンはカテゴリ2に属するパターン406,407,408に変形
される。カテゴリ境界付近のリジェクトパターンを生成
して、学習パターンに付加することができる。
As shown in FIG. 4, the initial pattern 401 is a category 1
If it is inside the boundary 409 and is correctly recognized, the initial pattern 401 is deformed by giving a different category name that is close to it, and the pattern is gradually deformed and rejected across the boundary 409 of category 1. Pattern 404,405
Then, across the boundary 410 of category 2, the pattern is transformed into patterns 406, 407, 408 belonging to category 2. A reject pattern near the category boundary can be generated and added to the learning pattern.

また、第6図に示すように、カテゴリ1に属する初期
パターン604が誤ってカテゴリ2に属すると認識された
場合には、カテゴリ2の境界が点線の境界602のように
学習されていると考えられる。そこで、カテゴリ1のパ
ターンがカテゴリ2に属すると誤認識された場合には、
カテゴリ2に属するパターンに変形することにより、初
期パターン604は、真のカテゴリ1の境界601を横断し
て、リジェクトパターン605,606になり、さらにカテゴ
リ2の真の境界603を横断して、カテゴリ2に属するパ
ターン607,608に変形される。これにより、カテゴリ境
界付近のリジェクトパターンを生成して学習パターンに
付加することができる。
Also, as shown in FIG. 6, when the initial pattern 604 belonging to category 1 is erroneously recognized as belonging to category 2, it is considered that the boundary of category 2 has been learned like the dotted boundary 602. Can be Therefore, when the pattern of category 1 is erroneously recognized as belonging to category 2,
By transforming into a pattern belonging to category 2, the initial pattern 604 traverses the boundary 601 of the true category 1 to become reject patterns 605 and 606, and further traverses the true boundary 603 of the category 2 to become the category 2. It is transformed into the belonging patterns 607,608. Thereby, a reject pattern near the category boundary can be generated and added to the learning pattern.

第3の発明では、初期的な学習パターンを多層神経回
路網によって第1の発明と同様の手順により学習し、学
習パターンまたは学習パターンを変形したものを初期パ
ターンとして多層神経回路網に入力する。入力した初期
パターンに対して式(1)から式(4)に従って認識処
理を行い、その結果が正解か誤りかを入力する。その結
果が正しい場合には、その付近は正しく学習されている
と考えパターンの変形処理は行わない。認識結果が誤っ
ている場合には、誤認識されたカテゴリ名と正しいカテ
ゴリ名の両方を、変形目的のカテゴリ名として、第1の
発明と同様の手順により初期パターンを定めたカテゴリ
に属するように多層神経回路網を用いて変形する。その
過程のパターンにカテゴリ名またはリジェクト信号を付
与して、学習パターンに登録する。これによって、境界
付近のパターンやリジェクトパターンを生成できる。こ
のように生成され登録されたパターンを学習して、上記
の手続きを繰り返すことによりカテゴリの境界付近のパ
ターンの分布を学習できる。
In the third invention, an initial learning pattern is learned by a multilayer neural network in the same procedure as in the first invention, and a learning pattern or a modified learning pattern is input to the multilayer neural network as an initial pattern. Recognition processing is performed on the input initial pattern according to equations (1) to (4), and whether the result is correct or incorrect is input. If the result is correct, it is considered that the vicinity has been correctly learned, and the pattern deformation processing is not performed. If the recognition result is incorrect, both the misrecognized category name and the correct category name are used as the category names for the transformation purpose so as to belong to the category for which the initial pattern is determined by the same procedure as in the first invention. Deform using a multilayer neural network. The pattern in the process is given a category name or a reject signal and registered as a learning pattern. Thereby, a pattern or a reject pattern near the boundary can be generated. By learning the pattern thus generated and registered and repeating the above procedure, the distribution of the pattern near the boundary of the category can be learned.

〔実施例〕〔Example〕

第1の発明の実施例を第1図,第7図,第8図,第9
図を参照して説明する。第1図は第1の発明のパターン
学習装置の一実施例を示すブロック図、第7図は第1図
中の多層神経回路網計算部103の一例を示す図、第8図
は第1図中の学習制御部112の一例を示す図、第9図は
第1図中の全学習制御部111の一例を示す図である。
FIGS. 1, 7, 8, and 9 show an embodiment of the first invention.
This will be described with reference to the drawings. FIG. 1 is a block diagram showing an embodiment of a pattern learning apparatus according to the first invention, FIG. 7 is a diagram showing an example of a multilayer neural network calculation unit 103 in FIG. 1, and FIG. FIG. 9 is a diagram showing an example of the learning control unit 112 in FIG. 9, and FIG. 9 is a diagram showing an example of the entire learning control unit 111 in FIG.

初期的な学習パターンは、学習パターン記憶部106に
記憶しておく。初期的に学習制御部112では、学習信号
生成部806から学習信号が端子807を通して、多層神経回
路網計算部103,パターンセレクタ104,教師カテゴリ名セ
レクタ107,パターン変更部105に送出され、学習が行わ
れる。パターン変更部105では、学習制御部112からの学
習信号を受けて、学習パターン記憶部106から送出され
るパターンに変更を加えず、パターンセレクタ104に送
る。パターンセレクタ104では、学習信号を受けて、多
層神経回路網計算部103からの信号を遮断し、パターン
変更部105から受けたパターンをパターン記憶部102に送
る。教師カテゴリ名セレクタ107では、学習信号を受け
て、カテゴリ名入力部114からの信号を遮断し、学習パ
ターン記憶部106からのカテゴリ名を教師信号生成部108
に送る。学習信号を受けた場合の多層神経回路網計算部
103の学習動作を、第7図を用いて説明する。
The initial learning pattern is stored in the learning pattern storage unit 106. Initially, the learning control unit 112 sends a learning signal from the learning signal generation unit 806 to the multilayer neural network calculation unit 103, the pattern selector 104, the teacher category name selector 107, and the pattern change unit 105 via the terminal 807, and the learning is performed. Done. The pattern change unit 105 receives the learning signal from the learning control unit 112 and sends the pattern to the pattern selector 104 without changing the pattern sent from the learning pattern storage unit 106. The pattern selector 104 receives the learning signal, cuts off the signal from the multilayer neural network calculation unit 103, and sends the pattern received from the pattern change unit 105 to the pattern storage unit 102. The teacher category name selector 107 receives the learning signal, cuts off the signal from the category name input unit 114, and outputs the category name from the learning pattern storage unit 106 to the teacher signal generation unit 108.
Send to Multi-layer neural network calculator when receiving a learning signal
The learning operation of 103 will be described with reference to FIG.

端子716から入力された学習信号は、第1層重みマト
リクス修正部713,第2層重みマトリクス修正部712,入力
パターン修正部714に送られ、重みマトリクス修正を起
動し、入力パターンの修正を停止する。
The learning signal input from the terminal 716 is sent to the first layer weight matrix correction unit 713, the second layer weight matrix correction unit 712, and the input pattern correction unit 714, and starts the weight matrix correction and stops the correction of the input pattern. I do.

端子701を通して入力されるベクトル値をoi 0(1≦i
≦N0)とし、第1層重みマトリクス記憶部711に保持さ
れるマトリクス値をwij1(1≦i≦N0,1≦j≦N1)、中
間層記憶部704に保持されるベクトル値をo′j 1(1≦
j≦N1)とすると、マトリクス積演算部702では、式
(1)に従った計算を実行する。ただし、ここでθj 1
バイアス値であり、第1層重みマトリクス記憶部711に
記憶される。結果のoj 1(1≦j≦N1)は各々、S関数
部703において式(2)に従った計算によりo′j 1とし
て中間層記憶部704に記憶する。
The vector value input through the terminal 701 is represented by o i 0 (1 ≦ i
≦ N 0 ), the matrix value held in the first layer weight matrix storage unit 711 is w ij 1 (1 ≦ i ≦ N 0 , 1 ≦ j ≦ N 1 ), and the vector held in the intermediate layer storage unit 704 The value is o ' j 1 (1 ≦
Assuming that j ≦ N 1 ), the matrix product calculation unit 702 executes the calculation according to the equation (1). Here, θ j 1 is a bias value, which is stored in the first-layer weight matrix storage unit 711. The resulting o j 1 (1 ≦ j ≦ N 1 ) is stored in the intermediate layer storage unit 704 as o ′ j 1 by the calculation according to the equation (2) in the S function unit 703.

第2層重みマトリクス記憶部710に記憶される重みマ
トリクスをwjk 2(1≦j≦N1,1≦k≦N2)とし、この記
憶部710に記憶されるバイアス値をθk 2とすると、マト
リクス積演算部705では式(3)に従った決算を実行す
る。結果のok 2(1≦k≦N2)は各々、S関数部706にお
いて式(4)に従った計算を実行してo′k 2を求め、出
力信号として端子707から出力される。
The weight matrix stored in the second-layer weight matrix storage unit 710 is w jk 2 (1 ≦ j ≦ N 1 , 1 ≦ k ≦ N 2 ), and the bias values stored in the storage unit 710 are θ k 2 Then, the matrix product calculation unit 705 executes settlement in accordance with Expression (3). Results of o k 2 (1 ≦ k ≦ N 2) each of which obtains a o 'k 2 by executing a calculation in accordance with Equation (4) In the S function unit 706, is output from the terminal 707 as an output signal.

端子707から出力された信号は誤差計算部109におい
て、教師信号生成部108から送出される教師信号と式
(5)に従った計算により誤差を計算し、それを端子70
8から多層神経回路計算部103内の第2層重みマトリクス
修正部712に送り、式(6)に従った計算を実行してdk 2
(1≦k≦N2)を求めた後に、式(7),式(8)の計
算により第2層重みマトリクスを修正し、結果を再び第
2層重みマトリクス記憶部710に記憶する。第2層重み
マトリクス修正部712で、式(6)を実行する計算によ
り求められたdk 2は、第1層重みマトリクス修正部713に
送られ、式(9),式(10)の計算をし、式(11),式
(12)を実行する計算により第1層重みマトリクスを修
正し、結果を再び第1層重みマトリクス記憶部710に記
憶する。
An error of the signal output from the terminal 707 is calculated by an error calculator 109 by a calculation according to equation (5) with the teacher signal sent from the teacher signal generator 108, and the error is calculated by the terminal 70.
8 to the second-layer weight matrix correction unit 712 in the multi-layer neural circuit calculation unit 103, and calculates d k 2
After obtaining (1 ≦ k ≦ N 2 ), the second-layer weight matrix is corrected by the calculation of Expressions (7) and (8), and the result is stored in the second-layer weight matrix storage unit 710 again. The d k 2 obtained by the calculation for executing the equation (6) in the second-layer weight matrix correcting section 712 is sent to the first-layer weight matrix correcting section 713, and the equations (9) and (10) are calculated. Then, the first layer weight matrix is corrected by calculation for executing equations (11) and (12), and the result is stored in the first layer weight matrix storage unit 710 again.

また誤差計算部109で求められた誤差は、端子801を通
して学習制御部112に送られ、誤差量計算部802で、式
(15)に従った計算により誤差量を計算し、それをしき
い値記憶部803中の学習しきい値と比較器804で比較し
て、しきい値よりも小さい場合にはカウンタ811におい
てその数を計数し、その結果を学習信号生成部806に送
出する。全学習パターンに対して以上の学習処理を繰り
返し行い、カウンタ811の内容が学習パターン記憶部106
の記憶されている全てのパターンの数に一致するならば
学習を終了し、学習信号生成部806から、変形処理開始
信号を端子807を通して送出する。全学習パターンの学
習終了後にも拘わらず、カウンタ811の数が全学習パタ
ーン数より小さい場合には、カウンタ811をリセットし
て、再度学習パターンの学習を続ける。
The error calculated by the error calculation unit 109 is sent to the learning control unit 112 through the terminal 801. The error amount calculation unit 802 calculates the error amount by the calculation according to the equation (15), The comparator 804 compares the learning threshold value in the storage unit 803 with the learning threshold value. If the threshold value is smaller than the threshold value, the counter 811 counts the number and sends the result to the learning signal generation unit 806. The above learning process is repeated for all the learning patterns, and the contents of the counter 811 are stored in the learning pattern storage unit 106.
If the number of patterns matches the number of all stored patterns, the learning is terminated, and a learning process generation signal is sent from the learning signal generation unit 806 through the terminal 807. If the number of the counters 811 is smaller than the total number of learning patterns despite the completion of the learning of all the learning patterns, the counter 811 is reset and learning of the learning patterns is continued again.

変形処理開始信号が端子807を通してパターン変更部1
05,パターンセレクタ104,教師カテゴリ各セレクタ107,
多層神経回路網計算部103に送出されると、学習パター
ン記憶部106からランダムに選出されたパターンがパタ
ーン変更部105に送られ、パターンにランダム雑音が重
畳され、パターンセレクタ104を通してパターン記憶部1
02に送られる。この際、パターンセレクタ104では、変
形処理開始信号を受けて多層神経回路網103からの信号
を遮断する。パターン記憶部102に入力されたパターン
は、パターン表示部101に表示され、変形目的のカテゴ
リ名の入力を促す。変形処理開始信号は同時に教師カテ
ゴリ名セレクタ107に送られ、学習パターン記憶部106か
らの信号を遮断して、カテゴリ名入力部114から入力さ
れたカテゴリ名を教師信号生成部108に送出する。
The transformation start signal is sent to the pattern
05, pattern selector 104, teacher category selector 107,
When the pattern is sent to the multilayer neural network calculation unit 103, a pattern randomly selected from the learning pattern storage unit 106 is sent to the pattern change unit 105, and random noise is superimposed on the pattern.
Sent to 02. At this time, the pattern selector 104 cuts off the signal from the multilayer neural network 103 in response to the deformation processing start signal. The pattern input to the pattern storage unit 102 is displayed on the pattern display unit 101, and prompts the user to input a category name for the purpose of transformation. The transformation process start signal is sent to the teacher category name selector 107 at the same time, interrupts the signal from the learning pattern storage unit 106, and sends the category name input from the category name input unit 114 to the teacher signal generation unit 108.

多層神経回路網計算部103では、端子716から入力され
た変形処理開始信号を受けて、第1層重みマトリクス修
正部713及び第2層重みマトリクス修正部712での重みマ
トリクスの修正処理を停止する。さらに、入力パターン
修正部714を起動する。パターン記憶部102からの端子70
1を通して入力されたパターンは、マトリクス積演算部7
02,S関数部703,中間層記憶部704,マトリクス積演算部70
5,S関数部706において前述の式(1)から式(4)まで
に示す処理に従って出力信号o′k 3を求め、端子707か
ら誤差計算部109に転送する。さらに、誤差計算部109に
おいて式(5)で示される計算により出力信号と教師信
号との誤差が求められ、再び端子708を通して第2層重
みマトリクス修正部712に送られ、式(6)に従った計
算が実行され、その結果は第1層重みマトリクス修正部
713に送られて、式(9),式(10)で示される計算を
実行することにより誤差が出力層から逆伝播し、中間層
での誤差信号dj 1(1≦j≦N1)が評価される。この誤
差信号をパターン修正部714に送り、そこで誤差信号を
入力層に伝播させた場合の誤差値di 0を式(13)によっ
て評価し、式(14)に従って、誤差値を端子701から入
力されるパターンに加えてパターンpi(1≦i≦N0)を
求め、端子715を通してパターンセレクタ104に送出す
る。
The multilayer neural network calculation unit 103 receives the deformation processing start signal input from the terminal 716 and stops the weight matrix correction processing in the first layer weight matrix correction unit 713 and the second layer weight matrix correction unit 712. . Further, the input pattern correction unit 714 is activated. Terminal 70 from pattern storage unit 102
The pattern input through 1 is the matrix product
02, S function section 703, intermediate layer storage section 704, matrix product operation section 70
5. The S function unit 706 obtains the output signal o ′ k 3 according to the processing shown in the above equations (1) to (4), and transfers the output signal o ′ k 3 from the terminal 707 to the error calculation unit 109. Further, an error between the output signal and the teacher signal is obtained by the calculation shown in Expression (5) in the error calculation unit 109, sent to the second layer weight matrix correction unit 712 again via the terminal 708, and according to Expression (6). Is calculated, and the result is calculated by the first-layer weight matrix correction unit.
Sent to the 713, the error is back-propagated from the output layer by performing the calculations shown in equations (9) and (10), and the error signal d j 1 (1 ≦ j ≦ N 1 ) in the intermediate layer Is evaluated. Sends the error signal to the pattern modifying unit 714, where an error value d i 0 when the error signal is propagated to the input layer were evaluated by the equation (13), the input according to the equation (14), an error value from the terminal 701 A pattern p i (1 ≦ i ≦ N 0 ) is obtained in addition to the pattern to be transmitted, and is sent to the pattern selector 104 through the terminal 715.

多層神経回路網計算部103の端子707からの出力信号と
教師信号生成部108からの信号とを誤差計算部109に送
り、式(5)に従って求められた誤差ベクトルは端子70
8から多層神経回路網計算部103へ送るのと同時に、学習
制御部112に送る。端子801より入力された誤差ベクトル
は、誤差量計算部802において式(15)に従って誤差量
Dを求め、比較器804に送る。誤差量Dは、しきい値記
憶部803内の変形処理しきい値と比較され、誤差量Dの
方が小さいならば学習信号生成部806を通して変形終了
信号が送出され、誤差量Dの方が大きいならば変形継続
信号が送出される。変形継続信号がパターンセレクタ10
4に送られると、パターン変更部105からの信号を遮断
し、多層神経回路網計算部103の端子715から送出される
パターンをパターン記憶部102に入力する。
The output signal from the terminal 707 of the multilayer neural network calculation unit 103 and the signal from the teacher signal generation unit 108 are sent to the error calculation unit 109, and the error vector obtained according to equation (5) is
8 and to the learning control unit 112 at the same time as sending to the multilayer neural network calculation unit 103. From the error vector input from the terminal 801, an error amount D is obtained by an error amount calculation unit 802 according to equation (15), and is sent to a comparator 804. The error amount D is compared with the deformation processing threshold value in the threshold value storage unit 803. If the error amount D is smaller, a deformation end signal is sent through the learning signal generator 806, and the error amount D is If so, a deformation continuation signal is sent. Deformation continuation signal is pattern selector 10
When the pattern is sent to 4, the signal from the pattern change unit 105 is cut off, and the pattern sent from the terminal 715 of the multilayer neural network calculation unit 103 is input to the pattern storage unit 102.

変形されたパターンは、パターン記憶部102からパタ
ーン表示部101に送られ表示される。このとき、そのパ
ターンを学習パターンとして登録するならば、カテゴリ
名入力部114からカテゴリ名を入力することにより、パ
ターン記憶部102内のパターンは学習パターン記憶部106
に送られ、入力されたカテゴリ名と共に記憶される。変
形処理カウンタ810では、学習信号生成部806において変
形終了信号が発生する度にそれを計数し、変形処理を行
ったパターンの数を数える。その数をしきい値記憶部80
9内部の値と比較器808で比較し、もししきい値よりも大
きな値である場合には、学習信号生成部806に信号を送
り、変形継続信号を停止し、端子807から学習信号を送
出して、学習パターン記憶部106内に記憶されたパター
ンを前述の手順に従って多層神経回路網計算部103で学
習する。もし、しきい値記憶部809の値よりも変形処理
カウンタ810の値の方が小さいという信号が比較器808か
ら得られた場合には、学習信号生成部806からは変形処
理開始信号が端子807を通して送出され、学習パターン
記憶部106から選出された別のパターンに対して前述の
パターン変形処理が再度行われる。
The deformed pattern is sent from the pattern storage unit 102 to the pattern display unit 101 and displayed. At this time, if the pattern is registered as a learning pattern, by inputting a category name from the category name input unit 114, the pattern in the pattern storage unit 102 is changed to the learning pattern storage unit 106.
And stored with the entered category name. The transformation processing counter 810 counts each time a transformation end signal is generated in the learning signal generation unit 806, and counts the number of patterns subjected to the transformation processing. The number is stored in the threshold storage unit 80
9 Compare the internal value with the comparator 808, and if the value is larger than the threshold value, send a signal to the learning signal generation unit 806, stop the deformation continuation signal, and send the learning signal from the terminal 807. Then, the multilayer neural network calculation unit 103 learns the patterns stored in the learning pattern storage unit 106 according to the above-described procedure. If a signal indicating that the value of the modification processing counter 810 is smaller than the value of the threshold value storage unit 809 is obtained from the comparator 808, the learning signal generation unit 806 outputs a modification processing start signal to the terminal 807. , And the above-described pattern deformation process is performed again on another pattern selected from the learning pattern storage unit 106.

全学習制御部111では、学習制御部112から送出される
信号をモニタリングし、端子807から入力される信号が
変形継続信号から学習信号に変化した場合の回数を学習
変形処理カウント部909において計数し、その数をしき
い値記憶部910内の値と比較器908で比較して、カウント
数の方が大きい場合には学習変形処理停止信号発生部90
5から停止信号を端子906を通して送出し、学習変形の両
処理を停止する。さらに、認識結果検出部110の結果が
正解,誤認識の信号として端子901から入力され認識率
カウント部902で計数される。それがしきい値記憶部904
内の値と比較器903で比較され、もし認識率がしきい値
よりも大きくなった場合には、学習変形処理停止信号発
生部905から上記同様に停止信号が送出される。
In the all learning control unit 111, the signal transmitted from the learning control unit 112 is monitored, and the number of times when the signal input from the terminal 807 changes from the deformation continuation signal to the learning signal is counted in the learning deformation processing counting unit 909. The number is compared with the value in the threshold value storage unit 910 by the comparator 908, and if the count number is larger, the learning deformation process stop signal generation unit 90
A stop signal is sent from the terminal 5 through the terminal 906, and both processes of learning transformation are stopped. Further, the result of the recognition result detection unit 110 is input from the terminal 901 as a signal of correct or incorrect recognition, and is counted by the recognition rate counting unit 902. That is the threshold storage unit 904
Are compared by the comparator 903. If the recognition rate becomes larger than the threshold value, a stop signal is transmitted from the learning transformation process stop signal generator 905 in the same manner as described above.

全学習を停止した後には、端子116から入力されたパ
ターンに対して学習後の重みマトリクスを用いて認識を
行い、その結果を端子115から出力する。
After stopping all the learning, the pattern input from the terminal 116 is recognized using the weight matrix after learning, and the result is output from the terminal 115.

次に第2の発明の実施例を、第2図,第7図,第8
図,第9図を参照して説明する。第2図は、第2の発明
のパターン学習装置の一実施例を示すブロック図であ
る。
Next, an embodiment of the second invention will be described with reference to FIGS.
This will be described with reference to FIGS. FIG. 2 is a block diagram showing an embodiment of the pattern learning apparatus according to the second invention.

第8図の学習制御部112の動作と第9図の全学習制御
部111の動作は、第1の発明での説明と同じであるの
で、ここでは説明を省略する。また、第2図の学習パタ
ーン記憶部106内のパターンを学習するための動作も第
1の発明と同様であるので説明は省略する。第2の発明
では、パターンを変形する際の目的のカテゴリ名を生成
する部分が第1の発明と異なる。
The operation of the learning control unit 112 in FIG. 8 and the operation of the entire learning control unit 111 in FIG. 9 are the same as those described in the first invention, and thus description thereof is omitted here. Also, the operation for learning the pattern in the learning pattern storage unit 106 in FIG. 2 is the same as that of the first invention, and the description is omitted. The second invention is different from the first invention in that a part for generating a target category name when deforming a pattern is used.

変形処理開始信号が端子807を通して送出されると学
習パターン記憶部106からランダムに選出されたパター
ンがパターン変更部105に送られ、パターンにランダム
雑音が重畳され、パターンセレクタ104を通してパター
ン記憶部102に送られる。この際、パターンセレクタ104
では、多層神経回路網計算部103からの信号は遮断され
る。パターン記憶部102に入力されたパターンは、パタ
ーン表示部101に表示される。多層神経回路網計算部103
の端子707から出力された信号は認識結果検出部110でカ
テゴリ名に変換され、学習パターン記憶部106から入力
された正解カテゴリ名と照合され正解か誤認識かが判定
される。その正解信号または誤認識信号は、認識結果の
カテゴリ名と共に変形目的カテゴリ名セレクタ202に送
られる。
When the transformation processing start signal is transmitted through the terminal 807, a pattern randomly selected from the learning pattern storage unit 106 is transmitted to the pattern change unit 105, and random noise is superimposed on the pattern, and the pattern noise is superimposed on the pattern storage unit 102 through the pattern selector 104. Sent. At this time, the pattern selector 104
Then, the signal from the multilayer neural network calculation unit 103 is cut off. The pattern input to the pattern storage unit 102 is displayed on the pattern display unit 101. Multi-layer neural network calculator 103
The signal output from the terminal 707 is converted into a category name by the recognition result detection unit 110, and is collated with the correct category name input from the learning pattern storage unit 106 to determine whether it is correct or incorrectly recognized. The correct answer signal or the incorrect recognition signal is sent to the transformation target category name selector 202 together with the category name of the recognition result.

変形目的カテゴリ名セレクタ202では、正解信号が入
力された場合には、類似カテゴリ記憶部201に、認識結
果カテゴリ名を送り、それと対に記憶されているカテゴ
リ名を受け取り、それを変形目的カテゴリ名とする。こ
こで類似カテゴリ記憶部201は、予め学習パターンをク
ラスタリングし、類似したカテゴリを対にして記憶して
いるものとする。変形目的カテゴリ名セレクタ202に誤
認識信号が入力された場合には、認識結果のカテゴリ名
を変形目的カテゴリ名とする。
In the modified target category name selector 202, when the correct answer signal is input, the recognition result category name is sent to the similar category storage unit 201, the category name stored in pair therewith is received, and the modified target category name is And Here, it is assumed that the similar category storage unit 201 clusters learning patterns in advance and stores similar categories in pairs. When an erroneous recognition signal is input to the modification target category name selector 202, the category name of the recognition result is set as the modification target category name.

以上のように定められた変形目的カテゴリ名は教師信
号カテゴリ名セレクタ107に送り、パターンの変形処理
を行い、その過程のパターンにカテゴリ名入力部114か
らカテゴリ名を与え、そのパターンとカテゴリ名を学習
パターン記憶部106に登録する。変形処理の動作と変形
処理、学習の制御は、第1の発明と同様にして行うので
ここでは説明を省略する。
The transformation target category name determined as described above is sent to the teacher signal category name selector 107 to perform a pattern transformation process, give a category name to the pattern in the process from the category name input unit 114, and enter the pattern and the category name. Registered in the learning pattern storage unit 106. The operation of the transformation process, the transformation process, and the control of the learning are performed in the same manner as in the first invention, and the description is omitted here.

次に第3の発明の実施例を、第3図,第7図,第8
図,第9図を参照して説明する。第3図は、第3の発明
のパターン学習装置の一実施例を示すブロック図であ
る。
Next, an embodiment of the third invention will be described with reference to FIGS.
This will be described with reference to FIGS. FIG. 3 is a block diagram showing one embodiment of the pattern learning apparatus of the third invention.

第8図の学習制御部の動作と第9図の全学習制御部の
動作は、第1の発明での説明と同じであるので、ここで
は説明を省略する。また、第3図の学習パターン記憶部
106内のパターンを学習するための動作も第1の発明と
同様であるので説明は省略する。第3の発明では、パタ
ーンを変形する際の目的のカテゴリ名を生成する部分が
第1の発明,第2の発明と異なる。
The operation of the learning control unit in FIG. 8 and the operation of all the learning control units in FIG. 9 are the same as those described in the first invention, and thus description thereof is omitted here. The learning pattern storage unit shown in FIG.
The operation for learning the pattern in 106 is the same as that of the first invention, and therefore the description is omitted. The third invention is different from the first and second inventions in that a part for generating a target category name when deforming a pattern is used.

変形処理開始信号が端子807を通して送出されると、
学習パターン記憶部106からランダムに選出されたパタ
ーンがパターン変更部105に送られ、パターンにランダ
ム雑音が重畳され、パターンセレクタ104を通してパタ
ーン記憶部102に送られる。この際、パターンセレクタ1
04では、多層神経回路網計算部103からの信号は遮断さ
れる。パターン記憶部102に入力されたパターンは、パ
ターン表示部101に表示される。多層神経回路網計算部1
03の端子707から出力された信号は認識結果検出部110で
結果のカテゴリ名に変換され、学習パターン記憶部106
から入力された正解カテゴリ名と照合され正解か誤認識
かが判定される。その正解信号または誤認識信号は、認
識結果のカテゴリ名と共に変形目的カテゴリ名記憶制御
部302に送られる。
When the transformation processing start signal is transmitted through the terminal 807,
A pattern randomly selected from the learning pattern storage unit 106 is sent to the pattern change unit 105, a random noise is superimposed on the pattern, and sent to the pattern storage unit 102 through the pattern selector 104. At this time, the pattern selector 1
In 04, the signal from the multilayer neural network calculation unit 103 is cut off. The pattern input to the pattern storage unit 102 is displayed on the pattern display unit 101. Multi-layer neural network calculator 1
The signal output from the terminal 707 of 03 is converted into a category name of the result by the recognition result detection unit 110, and the result is stored in the learning pattern storage unit 106.
Is checked against the correct answer category name input from the above to determine whether the answer is correct or incorrect. The correct answer signal or the incorrect recognition signal is sent to the transformation target category name storage control section 302 together with the category name of the recognition result.

変形目的カテゴリ名記憶制御部302では、正解信号が
入力された場合には、変形処理スキップ信号を端子906
を通して学習制御部112に送り、学習信号生成部806から
変形処理開始信号を送出し、変形処理を行わずに、学習
パターン記憶部106から別のパターンを読みだして変形
処理を行う。
When a correct answer signal is input, the transformation target category name storage control unit 302 outputs a transformation processing skip signal to a terminal 906.
To the learning control unit 112, and sends a transformation process start signal from the learning signal generation unit 806 to read another pattern from the learning pattern storage unit 106 and perform the transformation process without performing the transformation process.

変形目的カテゴリ名記憶制御部302に誤認識信号が入
力された場合には、類似カテゴリ名記憶部301に認識結
果カテゴリ名を送り、それと対に記憶されているカテゴ
リ名を受け取り、それを第1の変形目的カテゴリ名と
し、認識結果のカテゴリ名を第2の変形目的カテゴリ名
とする。ここで類似カテゴリ記憶部301は、予め学習パ
ターンをクラスタリングし、類似したカテゴリを対にし
て記憶しているものとする。
When an erroneous recognition signal is input to the modified target category name storage control unit 302, the recognition result category name is sent to the similar category name storage unit 301, and the category name stored as a pair is received. , And the category name of the recognition result is the second modified target category name. Here, it is assumed that the similar category storage unit 301 clusters learning patterns in advance and stores similar categories in pairs.

まず、第1の変形目的カテゴリ名は教師信号カテゴリ
名セレクタ107に送り、パターンの変形処理を行い、変
形処理の過程のパターンにカテゴリ名入力部114から入
力したカテゴリ名を付加して、学習パターン記憶部106
に登録する。変形処理の動作と変形処理、学習の制御
は、第1の発明と同様にして行うのでここでは説明を省
略する。第1の変形目的カテゴリの変形が終了した段階
で、学習制御部111から学習開始信号が変形目的カテゴ
リ名記憶制御部302に到達すると、パターン記憶部102に
新たな初期パターンが入力される前に、変形目的カテゴ
リ名記憶制御部302から第2の変形目的カテゴリ名を教
師信号名セレクタ107に送出すると共に、学習制御部112
に再変形信号を送出し、学習制御部112では変形継続信
号を送出することにより、パターン記憶部102に記憶さ
れている第1の変形目的カテゴリに対する変形結果のパ
ターンを初期値として、第2の変形目的カテゴリを目標
として変形処理を行う。その変形過程のパターンにカテ
ゴリ名入力部114から入力したカテゴリ名を付加して、
学習パターン記憶部106に登録する。
First, the first transformation target category name is sent to the teacher signal category name selector 107, the pattern transformation processing is performed, and the category name input from the category name input section 114 is added to the pattern in the course of the transformation processing, and the learning pattern Storage unit 106
Register with. The operation of the transformation process, the transformation process, and the control of the learning are performed in the same manner as in the first invention, and the description is omitted here. When the learning start signal from the learning control unit 111 reaches the deformation target category name storage control unit 302 at the stage when the deformation of the first deformation target category is completed, before the new initial pattern is input to the pattern storage unit 102, The second modification target category name is sent from the modification target category name storage control unit 302 to the teacher signal name selector 107, and the learning control unit 112
The learning control unit 112 transmits a re-deformation signal and the learning control unit 112 transmits a re-deformation continuation signal, so that the pattern of the deformation result for the first deformation target category stored in the pattern storage unit 102 is used as an initial value, The transformation process is performed with the transformation target category as a target. By adding the category name input from the category name input unit 114 to the pattern of the deformation process,
Registered in the learning pattern storage unit 106.

この処理の終了後の学習制御部111での動作は、第1
の発明と同様でありここでは、説明を省略する。
The operation of the learning control unit 111 after the end of this processing is the first operation.
The description is omitted here.

〔発明の効果〕〔The invention's effect〕

以上の説明で明らかなように、本発明は従来学習され
た結果が実際のパターンの分布を正確に反映しているか
どうかの認識が困難であった問題点を解決し、誤認識が
起こっているパターンの付近では、学習された結果が実
際のパターンの分布を反映していないものとして、意図
したカテゴリに属するようにパターンの変形を行うこと
によりカテゴリ境界付近のパターンを生成し、それを再
度学習することによって、カテゴリ境界付近のパターン
の分布をより正確に学習することが可能となる。
As is clear from the above description, the present invention solves the problem that it was difficult to recognize whether or not the result of learning conventionally accurately reflects the actual pattern distribution, and erroneous recognition has occurred. In the vicinity of the pattern, it is assumed that the learned result does not reflect the distribution of the actual pattern, so that the pattern is deformed so that it belongs to the intended category, and a pattern near the category boundary is generated. By doing so, it is possible to learn the distribution of the pattern near the category boundary more accurately.

第1の発明では、変形目的のカテゴリ名を入力して与
えるために、使用者が確認しながら、比較的自由に変形
パターンを生成できるために、使用者が学習の過程を観
察しながら、柔軟に学習を制御して、高度な学習を行う
ことができる。
In the first invention, the user can input a given transformation target category name and give it, and the user can check the learning pattern relatively freely and generate a deformation pattern. Learning can be controlled to perform advanced learning.

第2の発明では、常に使用者が変形目的カテゴリ名を
入力する必要はなく、認識,誤認識の結果に合わせて装
置が自動的に変形目的カテゴリ名を決定するので、使用
者の負担を軽減することができる。
In the second invention, the user does not always need to input the transformation target category name, and the apparatus automatically determines the transformation target category name in accordance with the result of recognition or misrecognition, so that the burden on the user is reduced. can do.

さらに、第3の発明では、誤認識の場合のみにパター
ンの変形処理を行うので、生成パターンにカテゴリ名を
与える作業負担を軽減し、より正確に学習を行うべき誤
認識パターンの周辺のパターンを重点的に生成すること
ができる。
Furthermore, in the third invention, since the pattern deformation processing is performed only in the case of erroneous recognition, the burden of assigning a category name to the generated pattern is reduced, and the pattern around the erroneous recognition pattern to be learned more accurately is determined. Can be generated with emphasis.

【図面の簡単な説明】 第1図〜第3図,第7図〜第9図は、本発明の実施例を
示す図、 第4図は、正解となったパターンの変形を模式的に示す
図、 第5図は、多層神経回路網の処理概念を示す図、 第6図は、誤認識されたパターンの変形を模式的に示す
図である。 101……パターン表示部 102……パターン記憶部 103……多層神経回路網計算部 104……パターンセレクタ 105……パターン変更部 106……学習パターン記憶部 107……教師カテゴリ名セレクタ 108……教師信号生成部 109……誤差計算部 110……認識結果検出部 111……全学習制御部 112……学習制御部 114……カテゴリ名入力部 115……認識結果出力端子 116……パターン入力端子 201,301……類似カテゴリ名記憶部 202……変形目的カテゴリ名セレクタ 302……変形目的カテゴリ名記憶制御部 401……パターン変形の初期パターン 402,403……カテゴリ1に属する変形パターン 404,405……変形により得られたリジェクトパターン 406,407,408……カテゴリ2に属する変形パターン 409……カテゴリ1の境界 410……カテゴリ2の境界 501……入力層 502……中間層 503……出力層 504……教師信号 505……出力層誤差 506……第2層重みマトリクスの修正ブロック 507……中間層推定誤差 508……第1層重みマトリクスの修正ブロック 509……入力層の推定誤差 601……カテゴリ1の真の境界 602……カテゴリ2の誤って学習された境界 603……カテゴリ2の真の境界 604……変形の初期パターン 605,606……リジェクトパターン 607,608……カテゴリ2に属する変形パターン 701……パターン入力端子 702……第1層マトリクス積演算部 703……第1層S関数部 704……中間層記憶部 705……第2層マトリクス積演算部 706……第2層S関数部 707……出力信号端子 708……誤差信号入力端子 710……第2層重みマトリクス記憶部 711……第1層重みマトリクス記憶部 712……第2層重みマトリクス修正部 713……第1層重みマトリクス修正部 714……入力パターン修正部 715……変形パターン出力端子 716……学習・変形処理切り替え信号入力端子 801……誤差入力端子 802……誤差量計算部 803,809……しきい値記憶部 804,808……比較器 806……学習信号生成部 807……制御信号出力端子 810……変形処理カウンタ 811……カウンタ 901……認識結果入力端子 902……認識率カウント部 903,908……比較器 904,910……しきい値記憶部 905……学習変形処理停止信号発生部 906……信号出力端子 909……学習変形処理カウント部
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 to FIG. 3 and FIG. 7 to FIG. 9 are views showing an embodiment of the present invention, and FIG. FIG. 5, FIG. 5 is a diagram showing a processing concept of the multilayer neural network, and FIG. 6 is a diagram schematically showing deformation of a misrecognized pattern. 101: Pattern display unit 102: Pattern storage unit 103: Multilayer neural network calculation unit 104: Pattern selector 105: Pattern change unit 106: Learning pattern storage unit 107: Teacher category name selector 108: Teacher Signal generator 109 Error calculator 110 Recognition result detector 111 All learning controller 112 Learning controller 114 Category name input unit 115 Recognition result output terminal 116 Pattern input terminals 201 and 301 ... Similar category name storage unit 202 ... Modified target category name selector 302 ... Modified target category name storage control unit 401 ... Initial pattern of pattern deformation 402,403 ... Deformed patterns belonging to category 1 404,405 obtained by deformation Reject pattern 406, 407, 408... Deformation pattern belonging to category 2 409... Boundary of category 1 410... Boundary of category 2 501... Input layer 502... Intermediate layer 503. 4 ... Teacher signal 505 ... Output layer error 506 ... Modification block of second layer weight matrix 507 ... Intermediate layer estimation error 508 ... Modification block of first layer weight matrix 509 ... Estimation error of input layer 601 ... ... True boundary of category 1 602... Incorrectly learned boundary of category 2 603... True boundary of category 2 604... Initial pattern of deformation 605, 606... Reject pattern 607, 608. …… Pattern input terminal 702 …… First layer matrix product operation unit 703 …… First layer S function unit 704 …… Intermediate layer storage unit 705 …… Second layer matrix product operation unit 706 …… Second layer S function unit 707 output signal terminal 708 error signal input terminal 710 second layer weight matrix storage section 711 first layer weight matrix storage section 712 second layer weight matrix correction section 713 first layer weight Matrix correction unit 714 Correction section 715: deformation pattern output terminal 716: learning / deformation processing switching signal input terminal 801: error input terminal 802: error amount calculation section 803, 809: threshold value storage section 804, 808: comparator 806 … Learning signal generation unit 807… Control signal output terminal 810… Transformation processing counter 811… Counter 901… Recognition result input terminal 902… Recognition rate counting unit 903,908… Comparator 904,910 …… Learning transformation processing stop signal generator 906 …… Signal output terminal 909 …… Learning transformation processing counting section

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】逆伝播法により学習を行う入力層,中間
層,出力層からなる多層神経回路網計算部と、 学習すべきパターンを記憶する学習パターン記憶部と、 記憶パターンを多層神経回路網の入力層に入力して、そ
のカテゴリ名を教師信号として入力して多層信号回路網
の重み値を学習することを制御する手段と、 学習パターンを多層神経回路網の入力層に入力し、変形
目的のカテゴリ名を入力して、多層神経回路網により目
的カテゴリに属するように入力パターンを変形する変形
処理を制御する手段と、 変形途中及び結果の生成されたパターンを表示して、生
成されたパターン毎に正解のカテゴリ名を入力する手段
と、 生成されたパターン毎に、入力された正解のカテゴリ名
を付加した上で、前記生成されたパターンを学習パター
ン記憶部に登録する手段と、 パターンの生成と学習との繰り返しを制御する手段と、 を備えることを特徴とするパターン学習装置。
1. A multi-layer neural network calculation section comprising an input layer, an intermediate layer, and an output layer for learning by a back propagation method, a learning pattern storage section for storing a pattern to be learned, and a multi-layer neural network for storing a storage pattern. Means for inputting the category name as a teacher signal to control learning of the weight value of the multilayer signal network; and inputting the learning pattern to the input layer of the multilayer neural network, Means for inputting a target category name and controlling a deformation process for deforming the input pattern so as to belong to the target category by the multi-layer neural network; and displaying the generated pattern during the deformation and as a result. Means for inputting a correct category name for each pattern; and adding the input correct category name for each generated pattern, and storing the generated pattern in a learning pattern. Pattern learning device comprising means for registering, and means for controlling the repetition of the generation and learning pattern, in that it comprises a.
【請求項2】逆伝播法により学習を行う入力層,中間
層,出力層からなる多層神経回路網計算部と、 学習すべきパターンを記憶する学習パターン記憶部と、 記憶パターンを多層神経回路網の入力層に入力して、そ
のカテゴリ名を教師信号として入力して多層信号回路網
の重み値を学習することを制御する手段と、 学習パターンを多層神経回路網の入力層に入力して、そ
の出力信号が正しい場合には、予め記憶しておいた結果
カテゴリと類似したカテゴリの名前を変形目的のカテゴ
リ名として定め、出力信号が誤っている場合には、出力
信号から得られたカテゴリ名を変形目的のカテゴリ名と
して定める手段と、 定めた変形目的カテゴリに属するように、多層神経回路
網により入力パターンを変形する変形処理を制御する手
段と、 変形途中及び結果の生成されたパターンを表示して、生
成されたパターン毎に正解のカテゴリ名を入力する手段
と、 生成されたパターン毎に、入力された正解のカテゴリ名
を付加した上で、前記生成されたパターンを学習パター
ン記憶部に登録する手段と、 パターンの生成と学習との繰り返しを制御する手段と、 を備えることを特徴とするパターン学習装置。
2. A multi-layer neural network calculation section comprising an input layer, an intermediate layer, and an output layer for learning by a back propagation method, a learning pattern storage section for storing a pattern to be learned, and a multi-layer neural network for storing a storage pattern. Means for controlling learning of the weight value of the multilayer signal network by inputting the category name as a teacher signal, and inputting the learning pattern to the input layer of the multilayer neural network; If the output signal is correct, a category name similar to the previously stored result category is determined as a category name for the purpose of transformation, and if the output signal is incorrect, the category name obtained from the output signal is determined. Means for defining a transformation target category name, means for controlling a transformation process for transforming an input pattern by a multilayer neural network so as to belong to the decided transformation target category, and Means for displaying the generated pattern as a result and inputting the correct category name for each generated pattern; and adding the input correct category name for each generated pattern, A pattern learning apparatus, comprising: means for registering the obtained pattern in a learning pattern storage unit; and means for controlling repetition of pattern generation and learning.
【請求項3】逆伝播法により学習を行う入力層,中間
層,出力層からなる多層神経回路網計算部と、 学習すべきパターンを記憶する学習パターン記憶部と、 記憶パターンを多層神経回路網の入力層に入力して、そ
のカテゴリ名を教師信号として入力して多層信号回路網
の重み値を学習することを制御する手段と、 学習パターンを多層神経回路網の入力層に入力して、そ
の出力信号が誤っている場合にのみ、予め記憶しておい
た結果カテゴリと類似したカテゴリの名前と、出力信号
から得られたカテゴリ名の両方を変形目的のカテゴリ名
として定める手段と、 定めた変形目的カテゴリに属するように、多層神経回路
網により入力パターンを変形する変形処理を制御する手
段と、 変形途中及び結果の生成されたパターンを表示して、生
成されたパターン毎に正解のカテゴリ名を入力する手段
と、 生成されたパターン毎に、入力された正解のカテゴリ名
を付加した上で、前記生成されたパターンを学習パター
ン記憶部に登録する手段と、 パターンの生成と学習との繰り返しを制御する手段と、 を備えることを特徴とするパターン学習装置。
3. A multi-layer neural network calculating section comprising an input layer, an intermediate layer, and an output layer for learning by a back propagation method, a learning pattern storing section for storing a pattern to be learned, and a multi-layer neural network for storing a storage pattern. Means for controlling learning of the weight value of the multilayer signal network by inputting the category name as a teacher signal, and inputting the learning pattern to the input layer of the multilayer neural network; Only when the output signal is incorrect, means for determining both the name of the category similar to the result category stored in advance and the category name obtained from the output signal as the category name for the purpose of transformation, Means for controlling a transformation process for transforming an input pattern by a multi-layer neural network to belong to a transformation target category; Means for inputting a correct category name for each pattern, means for adding the input correct category name for each generated pattern, and registering the generated pattern in a learning pattern storage unit; Means for controlling repetition of generation and learning of the pattern learning device.
JP2198924A 1990-07-26 1990-07-26 Pattern learning device Expired - Lifetime JP2699622B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2198924A JP2699622B2 (en) 1990-07-26 1990-07-26 Pattern learning device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2198924A JP2699622B2 (en) 1990-07-26 1990-07-26 Pattern learning device

Publications (2)

Publication Number Publication Date
JPH0484281A JPH0484281A (en) 1992-03-17
JP2699622B2 true JP2699622B2 (en) 1998-01-19

Family

ID=16399230

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2198924A Expired - Lifetime JP2699622B2 (en) 1990-07-26 1990-07-26 Pattern learning device

Country Status (1)

Country Link
JP (1) JP2699622B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06259606A (en) * 1993-03-03 1994-09-16 Nec Corp Character learning system using neural network
JP6989790B2 (en) * 2019-08-27 2022-01-12 キヤノンマーケティングジャパン株式会社 Information processing system, its control method, and program

Also Published As

Publication number Publication date
JPH0484281A (en) 1992-03-17

Similar Documents

Publication Publication Date Title
EP0554083A2 (en) Neural network learning system
Huang et al. Robust interval regression analysis using neural networks
JP2019152964A (en) Learning method and learning device
WO2019082166A1 (en) Unit-level uncertainty and propagation
Bianchi et al. Model structure selection for switched NARX system identification: a randomized approach
CN110335466B (en) Traffic flow prediction method and apparatus
CN113541985A (en) Internet of things fault diagnosis method, training method of model and related device
JP2699622B2 (en) Pattern learning device
JP3631118B2 (en) Plant diagnostic equipment
US11941594B2 (en) User interaction artificial intelligence chat engine for integration of automated machine generated responses
CN110334244B (en) Data processing method and device and electronic equipment
Wong et al. Hybrid data regression model based on the generalized adaptive resonance theory neural network
JP2020177318A (en) Collation device, learning device, method, and program
JP3751982B2 (en) Learning method of neural network
JPH10187649A (en) Neural network
US11941586B2 (en) System for applying an artificial intelligence engine in real-time to affect course corrections and influence outcomes
JP3347435B2 (en) Pattern Recognition Method Using Hierarchical Neural Network
JP2002324226A (en) Neuro-system and method for constructing the same
JPH0490076A (en) Method for extracting feature of medical image
JPH05108601A (en) Neural network learning device
KR102397147B1 (en) Method for image processing to improve recognition rate and apparatus thereof
CN114496263B (en) Neural network model establishing method and storage medium for body mass index estimation
JP3037832B2 (en) Automatic shape control device
JPH11175494A (en) Neural network
Vural et al. A comparative study on computerised diagnostic performance of hepatitis disease using ANNs

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080926

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080926

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090926

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090926

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100926

Year of fee payment: 13

EXPY Cancellation because of completion of term