JP2002358499A - Allocation device for neural network tutor signal and storage medium stored with program thereof - Google Patents

Allocation device for neural network tutor signal and storage medium stored with program thereof

Info

Publication number
JP2002358499A
JP2002358499A JP2001164704A JP2001164704A JP2002358499A JP 2002358499 A JP2002358499 A JP 2002358499A JP 2001164704 A JP2001164704 A JP 2001164704A JP 2001164704 A JP2001164704 A JP 2001164704A JP 2002358499 A JP2002358499 A JP 2002358499A
Authority
JP
Japan
Prior art keywords
signal
input data
teacher signal
output
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001164704A
Other languages
Japanese (ja)
Inventor
Yotaro Hachitsuka
陽太郎 八塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2001164704A priority Critical patent/JP2002358499A/en
Publication of JP2002358499A publication Critical patent/JP2002358499A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a tutor signal allocating device which can efficiently perform tutor signal allocating operation. SOLUTION: A main neural network means which is made to learn with basic learning data and one or more subordinate neural network means which are made to learn by using mutually different tutor signal arrangements obtained by converting the arrangement of basic tuner signals for the basic learning input data are connected in parallel and tutor signal allocation and discrimination to generated input data is carried out by using at least output matching state detection between the main output signal sent out by the main neural network means and the conversion output obtained through an output converting means which reverse-converts the tutor signal arrangement conversion rule of output signals of the subordinate neural network means and tutor signal matching state detection between the tutor signal corresponding to the basic learning input data on which the generated input data are based and the main and conversion output signals, thereby allocating the tutor signals.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、インターネットを
初めとする通信ネットワーク障害処理システムやパター
ン認識、音声認識、画像認識などの分野に適用可能なニ
ューラルネットワーク処理の為の入力データへの教師信
号割当て方法及びシステムに関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for allocating a teacher signal to input data for neural network processing which can be applied to communication network fault processing systems such as the Internet, and fields such as pattern recognition, voice recognition and image recognition. It relates to a method and a system.

【0002】[0002]

【従来の技術】従来のニューラルネットワークには、多
層(階層)ニューラルネットワークや相互結合ニューラ
ルネットワークなど種々のニューラルネットワークがあ
る。特に、学習入力データと分類カテゴリに対応した教
師信号とからなる学習データを用いて、学習させた多層
(階層)ニューラルネットワークが種々幅広く実用され
ている。これまでの多くのニューラルネットワークに関
する処理としては、学習データを用いたニューラルネッ
トワークの学習処理と学習後の結合重み係数を用いて行
う実行処理とがある。
2. Description of the Related Art Conventional neural networks include various neural networks such as a multilayer (hierarchical) neural network and an interconnected neural network. In particular, multilayer (hierarchical) neural networks that have been learned using learning data including learning input data and teacher signals corresponding to the classification categories have been widely and widely used. As processes related to many neural networks up to now, there are a neural network learning process using learning data and an execution process performed using a connection weight coefficient after learning.

【0003】ここで、多層ニューラルネットワークを例
に、学習処理に関して簡単に説明する。多層ニューラル
ネットワークへの学習入力データはエレメントを持った
ベクトルから構成され、ニューラルネットワークの対応
した入力層のそれぞれのユニットに入力された後、更に
中間層の各ユニット(隠れユニット)にそれぞれ重み付
けされ出力される。中間層では、入力層の各ユニットか
らの重み付けされた出力の総和を入力とし、バイアスを
差し引いた後、シグモイド関数と呼ばれる非線形入出力
特性を持った関数を介して出力される。出力層において
も中間層と同様な入出力処理が行われた後、各出力層ユ
ニットからそれぞれ対応した出力信号を送出する。更
に、これらの出力層出力信号を2値化スレショルド回路
を介して2値出力信号に変換し、送出する場合もある。
Here, a learning process will be briefly described by taking a multilayer neural network as an example. The learning input data to the multilayer neural network is composed of a vector having elements. After input to each unit of the corresponding input layer of the neural network, each unit of the intermediate layer (hidden unit) is further weighted and output. Is done. In the hidden layer, the sum of weighted outputs from each unit in the input layer is used as an input, and after subtracting a bias, it is output via a function having a nonlinear input / output characteristic called a sigmoid function. In the output layer, after the same input / output processing as that of the intermediate layer is performed, each output layer unit sends a corresponding output signal. In some cases, these output layer output signals are converted into binary output signals via a binarization threshold circuit and transmitted.

【0004】多層ニューラルネットワークの結合重み係
数学習アルゴリズムとしては、例えば、バック・プロパ
ゲーション・アルゴリズムがある。結合重み係数に対し
て乱数などを用いて初期値設定した後、予め用意された
分類カテゴリに対応した教師信号と、入力層に入力され
る学習入力データとを用いて、バック・プロパゲーショ
ン・アルゴリズムの基に、出力信号と教師信号との平均
誤差電力が最小となるよう結合重み係数を適応更新し、
教師信号にできるだけ近い出力信号が出力層から送出さ
れるよう学習を行う。ここで、平均誤差電力が予め定め
られたスレショルド以下となると、収束したとして学習
を終了する。或いは、全ての学習入力データに対する2
値出力信号が対応した2値教師信号と同一となり、正答
出力信号となると学習を終了する。
[0004] As a connection weight coefficient learning algorithm of the multilayer neural network, for example, there is a back propagation algorithm. After initial values are set using random numbers or the like for the connection weight coefficients, a back propagation algorithm is performed using a teacher signal corresponding to a prepared classification category and learning input data input to the input layer. Based on the above, adaptively update the connection weight coefficient so that the average error power between the output signal and the teacher signal is minimized,
Learning is performed so that an output signal as close as possible to the teacher signal is transmitted from the output layer. Here, when the average error power becomes equal to or smaller than a predetermined threshold, the learning is terminated assuming that the convergence has been achieved. Alternatively, 2 for all learning input data
The learning ends when the value output signal becomes the same as the corresponding binary teacher signal and becomes the correct answer output signal.

【0005】次に、学習により得られた結合重み係数
(ここでは、バイアスも結合重み係数に含み取り扱うこ
ととする)を用いて、実行処理ニューラルネットワーク
を構成し、予め準備されたテスト入力データとそれに対
応した所望の教師信号からなるテストデータを用いて、
テスト入力データ数に対する正答となる出力信号数の割
合を示す汎化率を評価するテスト処理などが行われる。
テスト入力データを入力した際に、所望の出力信号、即
ち正答な出力信号を送出する場合と、誤った出力信号、
即ち誤答の出力信号を送出する場合とがある。特に、学
習の結果、ニューラルネットワークがローカルミニマム
の状態で収束した場合には、誤答の出力信号を送出しや
すく、汎化率があまり高くない。
Next, an execution processing neural network is constructed by using the connection weighting factors obtained by learning (here, biases are also included in the connection weighting factors and handled), and the test input data prepared in advance and the Using test data consisting of the desired teacher signal corresponding to that,
For example, a test process for evaluating a generalization rate indicating a ratio of the number of output signals that are correct to the number of test input data is performed.
When a test input data is input, a desired output signal, that is, a case where a correct output signal is transmitted, and a case where an incorrect output signal is output,
That is, an output signal of an incorrect answer may be transmitted. In particular, when the neural network converges in a local minimum state as a result of learning, an output signal of an incorrect answer is easily transmitted, and the generalization rate is not so high.

【0006】上記の学習処理、或いは更にテスト処理を
経た後、パターン認識やネットワーク障害検出処理など
に於ける実行処理では、学習処理によって得られた結合
重み係数を設定した実行処理ニューラルネットワークを
用いて、未知入力データに対する出力信号を得る。ここ
で、学習処理に用いた学習入力データが少なく、而もロ
ーカルミニマムに収束し汎化率が劣っている場合には、
学習入力データの近傍の入力データに対しても所望の出
力信号が得られず、多くの誤答の出力信号が発生する。
[0006] After the above-mentioned learning processing or further test processing, in the execution processing in the pattern recognition, the network failure detection processing, and the like, an execution processing neural network in which the connection weight coefficient obtained by the learning processing is set is used. , To obtain an output signal for unknown input data. Here, if the learning input data used in the learning process is small, and the convergence to the local minimum is also low and the generalization rate is inferior,
A desired output signal cannot be obtained even for input data in the vicinity of the learning input data, and many incorrect output signals are generated.

【0007】従って、多くの入力データをできるだけ事
前に収集し、学習データ或いはテストデータとして用い
る必要がある。しかしながら、一般に、学習データやテ
ストデータの十分な事前収集は、困難な場合が多い。
Accordingly, it is necessary to collect as much input data as possible in advance and use it as learning data or test data. However, in general, it is often difficult to sufficiently collect training data and test data in advance.

【0008】また、高い汎化能力や高性能なカテゴリ分
離能力を実現する為に、多くの入力データを収集した際
に、入力データに分類カテゴリに対応した教師信号を割
当てる作業が膨大となり、機械的に割り振ると割当てミ
スが発生しやすい。更に、集められた入力データがどの
ような性質か、即ち、カテゴリ分離境界領域に近いデー
タか、或いは離れているかが解らず、単にむやみに収集
し、それらを学習させても必ずしも性能向上にはつなが
らず、而も演算量が膨大となり、場合によっては収束さ
せることが不可能になる。また、学習データに対してオ
ーバフィッティング状態となり、性能劣化を生じる場合
もある。
Further, in order to realize a high generalization ability and a high-performance category separation ability, when a large amount of input data is collected, the work of assigning a teacher signal corresponding to a classification category to the input data becomes enormous, and When allocation is performed in a tentative manner, allocation errors are likely to occur. Furthermore, it is not clear what kind of property the collected input data is, that is, whether the data is close to or separated from the category separation boundary area. Even if the data is simply collected and learned, it is not always necessary to improve the performance. However, the amount of calculation becomes enormous, and in some cases, it is impossible to converge. In addition, the learning data may be in an overfitting state, resulting in performance degradation.

【0009】ここで、従来の教師信号割当て方法の構成
例を図2に示す。これらの構成とそれらの動作について
簡単に説明する。
FIG. 2 shows a configuration example of a conventional teacher signal allocating method. These configurations and their operations will be briefly described.

【0010】本構成に於て、入力データ生成手段37で
は、入力データを生成し、データ表示入力処理手段40
を介してニューラルネットワーク設計者に表示する。こ
れに対して、ニューラルネットワーク設計者は、与えら
れた生成入力データに対して正しい教師信号を入力し、
それらを生成データとし、生成データ記憶手段39に格
納する。
In this configuration, the input data generating means 37 generates input data, and the data display input processing means 40
Display to the neural network designer via. On the other hand, the neural network designer inputs a correct teacher signal for the given generated input data,
These are generated data and stored in the generated data storage means 39.

【0011】ここで、入力データ生成手段37に於て、
生成入力データ発生時に、同一の生成入力データが既に
生成データ記憶手段39内に存在していないかを調べる
為に、既存入力データ検出手段38に於て、同一生成入
力データの検出を行ない、もし存在している場合には、
その生成入力データを破棄する。このように重複生成デ
ータの単純な破棄処理を行なっている。
Here, in the input data generating means 37,
When the generated input data is generated, in order to check whether the same generated input data already exists in the generated data storage means 39, the existing input data detecting means 38 detects the same generated input data. If present,
Discard the generated input data. As described above, the simple destruction processing of the duplicate generation data is performed.

【0012】この他には、実際に発生する入力データを
収集し、これらデータをニューラルネットワーク設計者
に表示し、対応した教師信号を割当てているが、いずれ
の方法に於ても、ニューラルネットワーク設計者の教師
信号割当て作業は膨大となる。これまで、カテゴリ分離
境界を正しく形成する為の学習データをシステマティッ
クに上手く収集する方法がなく、また、収集された膨大
なデータから学習データとしての選択方法も明らかでな
い。従って、クロスバリデーション法(Computer Syste
ms That Learn by Sholom M. Weiss and Casimir A. Ku
likowski, Morgan Kaufmann Publishers, Inc)など、
データ間の種々の組み合わせによる学習データの作成や
経験などに基づいた学習データの選択を行なっている。
このため、学習データに依存した不完全な分離境界面の
形成や学習によるオーバフィッテイングなどの問題が発
生しやすく、全て正答な出力信号を送出させるよう学習
させ、而も高い汎化能力を実現することが困難である。
In addition, input data actually generated is collected, the data is displayed to a neural network designer, and a corresponding teacher signal is allocated. The task of assigning teacher signals to a teacher is enormous. Until now, there has been no method for systematically and successfully collecting learning data for correctly forming a category separation boundary, and it is not clear how to select learning data from a huge amount of collected data. Therefore, the cross-validation method (Computer Syste
ms That Learn by Sholom M. Weiss and Casimir A. Ku
likowski, Morgan Kaufmann Publishers, Inc)
Learning data is created by various combinations of data and learning data is selected based on experience.
For this reason, problems such as the formation of incomplete separation boundaries depending on the learning data and overfitting due to learning are likely to occur, and learning is performed so that all correct output signals are sent out, achieving high generalization ability. Is difficult to do.

【0013】一方、基本学習入力データからの近傍入力
データを機械的に生成し、単純な目視により教師信号を
割当てることは生成する生成入力データ量が多いと膨大
な労力が必要となり、而も割当てミスも発生する。更
に、どの生成入力データが学習及びテストの為にそれぞ
れ有効且つ効果的かは解らず、全ての発生した生成入力
データを学習に用いると演算処理量が膨大となり、また
無駄な生成入力データを学習することとなるなど欠点が
多い。
On the other hand, mechanically generating neighboring input data from basic learning input data and allocating teacher signals by simple visual observation requires a great deal of labor when the amount of generated input data to be generated is large. Mistakes also occur. Furthermore, it is not known which generated input data is effective and effective for learning and testing, respectively. If all generated input data is used for learning, the amount of calculation processing becomes enormous, and unnecessary generated input data is learned. There are many drawbacks, such as

【0014】[0014]

【発明が解決しようとする課題】上記の如く、従来技術
では、高性能なニューラルネットワークを構築する際
に、ニューラルネットワーク設計者にとって、学習デー
タやテストデータの収集や教師信号割当ての準備が膨大
な作業量となり、時間と労力を要し、割当てミスもおか
しやすい。特に、入力データが持っているカテゴリ分離
境界面への影響も全く解らず、機械的に教師信号を割当
てることから、カテゴリ分離境界面形成に有効な学習デ
ータ及びテストデータを効率よく選択することが出来
ず、必要以上に広範囲のデータを収集する必要がある。
また、クロスバリデーション法のように結果的にこれら
データを色々と組み合わせて学習及びテストすることか
ら、学習及びテストの為の演算処理量が膨大になると共
に、高性能なカテゴリ分離能力を持ったニューラルネッ
トワークを得ることが困難であるなどの欠点がある。
As described above, according to the prior art, when constructing a high-performance neural network, the neural network designer needs a great deal of preparation for collecting learning data and test data and allocating teacher signals. It is an amount of work, requires time and effort, and is easy to make mistakes in allocation. In particular, since the influence of the input data on the category separation boundary is not known at all and the teacher signal is mechanically assigned, it is possible to efficiently select the learning data and test data effective for forming the category separation boundary. No, it is necessary to collect more extensive data than necessary.
In addition, as a result of learning and testing by combining these data in various ways, such as the cross-validation method, the amount of arithmetic processing for learning and testing becomes enormous and a neural network with high-performance category separation capability There are drawbacks such as difficulty in obtaining a network.

【0015】従って、大規模のパターン認識システムや
ネットワーク障害検出探索システムなどの実用システム
に於て、高性能なニューラルネットワークを実現するた
めの学習データやテストデータを効率良く準備して利用
することができない。更に、その実行処理ニューラルネ
ットワークの使用環境にあった性能改善や汎化能力の改
善などが効果的にできないなどの欠点もある。
Therefore, in practical systems such as a large-scale pattern recognition system and a network fault detection and search system, it is possible to efficiently prepare and use learning data and test data for realizing a high-performance neural network. Can not. Further, there is a drawback that performance improvement and generalization ability cannot be effectively improved according to the use environment of the execution processing neural network.

【0016】本発明は、これらの問題を解決する為の方
法及びシステム、更にそのプログラムを格納した記憶媒
体を提供することを目的とする。
An object of the present invention is to provide a method and a system for solving these problems and a storage medium storing the program.

【0017】[0017]

【課題を解決するための手段】以下に解決する為の主な
方法とそれを用いたシステムを示す。
The main method for solving the problem and a system using the same will be described below.

【0018】第1の解決手段として、基本学習入力デー
タと分類カテゴリに対応した教師信号とを基本学習デー
タとし、該基本学習データと異なる結合重み係数初期値
とを用いて学習させ、並列接続された2つ以上のニュー
ラルネットワーク手段と、前記基本学習入力データを基
に生成入力データを発生する入力データ生成手段と、該
生成入力データを入力し、前記並列接続されたニューラ
ルネットワーク手段からそれぞれ送出される出力信号間
の出力一致状態を検出し出力一致状態信号を送出する出
力一致状態検出手段と、該生成入力データの基となった
基本学習入力データに対応した教師信号と該出力信号と
の間の教師信号一致状態を検出し教師信号一致状態信号
を送出する教師信号一致状態検出手段と、少なくとも該
出力一致状態信号と該教師信号一致状態信号とを該生成
入力データへの教師信号割当ての為に識別する教師信号
割当て識別手段とを少なくとも具備し、少なくとも該識
別の結果を基に該生成入力データに教師信号を割当てる
ことを特徴とするニューラルネットワーク教師信号割当
て装置により解決する。
As a first solving means, basic learning input data and a teacher signal corresponding to a classification category are used as basic learning data, and learning is performed using the basic learning data and a different initial value of a connection weight coefficient. Two or more neural network means, input data generating means for generating generated input data based on the basic learning input data, and inputting the generated input data, which are sent from the parallel connected neural network means. Output coincidence detecting means for detecting an output coincidence state between output signals and transmitting an output coincidence signal, and detecting an output coincidence state between the teacher signal and the output signal corresponding to basic learning input data on which the generated input data is based. Teacher signal matching state detecting means for detecting a teacher signal matching state signal and sending a teacher signal matching state signal, and at least the output matching state signal At least teacher signal assignment identifying means for identifying the teacher signal coincidence state signal for assignment of the teacher signal to the generated input data, and allocating the teacher signal to the generated input data based on at least the result of the identification. The problem is solved by a neural network teacher signal allocating device.

【0019】第2の解決手段として、基本学習入力デー
タと分類カテゴリに対応した教師信号とを基本学習デー
タとし、該基本学習データで学習させ主出力信号を送出
する主ニューラルネットワーク手段と、互いに異なる変
換則により該基本学習データの教師信号配置を変換し該
基本学習入力データに教師信号を割当てた変換学習デー
タを学習させ、前記主ニューラルネットワーク手段と並
列接続された1つ以上の副ニューラルネットワーク手段
と、前記基本学習入力データを基に生成入力データを発
生する入力データ生成手段と、該副ニューラルネットワ
ーク手段の出力信号を、該変換学習データの教師信号配
置を該基本学習データの教師信号配置となるよう変換す
る逆変換則により変換し変換出力信号を送出する出力変
換手段と該生成入力データを該並列接続されたニューラ
ルネットワーク手段に入力し、得られた該主出力信号と
該変換出力信号間の出力一致状態を検出し出力一致状態
信号を送出する出力一致状態検出手段と、該生成入力デ
ータの基となった基本学習入力データに対応した教師信
号と該主及び変換出力信号との間の教師信号一致状態を
検出し教師信号一致状態信号を送出する教師信号一致状
態検出手段と、少なくとも該出力一致状態信号と該教師
信号一致状態信号とを該生成入力データへの教師信号割
当ての為識別する教師信号割当て識別手段とを少なくと
も具備し、少なくとも該識別の結果を基に該生成入力デ
ータに教師信号を割当てることを特徴とするニューラル
ネットワーク教師信号割当て装置により解決する。
As a second solving means, the main neural network means which uses the basic learning input data and the teacher signal corresponding to the classification category as basic learning data and learns with the basic learning data and sends out a main output signal is different from the main neural network means. Transforming the teacher signal arrangement of the basic learning data according to a conversion rule and learning conversion learning data in which a teacher signal is assigned to the basic learning input data; and learning one or more sub-neural network means connected in parallel with the main neural network means An input data generating means for generating generated input data based on the basic learning input data; and an output signal of the sub-neural network means, a teacher signal arrangement of the conversion learning data and a teacher signal arrangement of the basic learning data. Output conversion means for performing conversion according to an inverse conversion rule for converting and outputting a converted output signal; Output matching state detecting means for inputting data to the neural network means connected in parallel, detecting an output matching state between the obtained main output signal and the converted output signal, and sending out an output matching state signal; Teacher signal matching state detecting means for detecting a teacher signal matching state between the teacher signal corresponding to the basic learning input data on which the input data is based and the main and converted output signals and transmitting a teacher signal matching state signal; At least teacher signal assignment identifying means for identifying the output match state signal and the teacher signal match state signal for assignment of the teacher signal to the generated input data, and at least based on the result of the identification, The problem is solved by a neural network teacher signal allocating apparatus characterized by allocating a teacher signal to data.

【0020】第3の解決手段として、前記ニューラルネ
ットワーク手段に於て、それぞれ異なる結合重み係数初
期値を設定して前記基本学習入力データを用い学習させ
たことを特徴とする第2の解決手段に記載のニューラル
ネットワーク教師信号割当て装置により解決する。
As a third solving means, the neural network means sets different initial values of connection weights and performs learning using the basic learning input data. The problem is solved by the described neural network teacher signal assignment device.

【0021】第4の解決手段として、前記ニューラルネ
ットワーク手段に於て、同一の結合重み係数初期値を設
定して前記基本学習入力データを用い学習させたことを
特徴とする第2の解決手段に記載のニューラルネットワ
ーク教師信号割当て装置により解決する。
According to a fourth aspect of the present invention, the neural network means sets the same initial value of the connection weight coefficient and performs learning using the basic learning input data. The problem is solved by the described neural network teacher signal assignment device.

【0022】第5の解決手段として、前記出力一致状態
検出手段に於て入力された全ての前記出力信号が一致し
たことを示す出力一致状態信号と、更に、前記教師信号
一致状態検出手段に於て入力された前記生成入力データ
の基となった基本学習入力データに対応した前記教師信
号と該出力信号とが一致したことを示す教師信号一致状
態信号とが、前記教師信号割当て識別手段に於て入力さ
れると、これを識別し、該生成入力データに該教師信号
を割当てることを特徴とする第1、2、3及び4の解決
手段の何れかに記載のニューラルネットワーク教師信号
割当て装置により解決する。
As a fifth solution means, an output coincidence state signal indicating that all the output signals inputted by the output coincidence state detection means coincide with each other; The teacher signal corresponding to the basic learning input data on which the generated input data is input and the teacher signal matching state signal indicating that the output signal matches are output by the teacher signal assignment identifying means. And inputting the teacher signal to the generated input data by the neural network teacher signal allocating apparatus according to any one of the first, second, third and fourth means. Resolve.

【0023】第6の解決手段として、前記生成データを
少なくとも第3の生成データとしてとして記憶すること
を特徴とする第5の解決手段に記載のニューラルネット
ワーク教師信号割当て装置により解決する。
According to a sixth aspect of the present invention, there is provided a neural network teacher signal allocating apparatus according to the fifth aspect, wherein the generated data is stored as at least third generated data.

【0024】第7の解決手段として、前記出力一致状態
検出手段に於て入力された前記出力信号の少なくとも何
れかが異なることを示す出力一致状態信号と、前記教師
信号一致状態検出手段に於て入力された少なくともいず
れかの該出力信号が前記生成入力データの基となった前
記基本学習入力データに対応した前記教師信号と一致し
たことを示す教師信号一致状態信号とが、前記教師信号
割当て識別手段に於て入力されると、これを識別し、第
1の教師信号割当て要求信号を、更に、いずれの前記出
力信号も前記生成入力データの基となった前記基本学習
入力データに対応した前記教師信号と不一致であること
を示す教師信号一致状態信号が前記教師信号割当て識別
手段に於て入力されると、これを識別し、第2の教師信
号割当て要求信号を、少なくとも送出し、外部から入力
された情報を基に該生成入力データに教師信号を割当て
ることを特徴とする第1、2、3、4、5及び6の解決
手段の何れかに記載のニューラルネットワーク教師信号
割当て装置により解決する。
As a seventh solving means, an output matching state signal indicating that at least one of the output signals inputted in the output matching state detecting means is different, and A teacher signal matching state signal indicating that at least one of the input output signals matches the teacher signal corresponding to the basic learning input data on which the generated input data is based; When input by the means, it is identified, a first teacher signal assignment request signal is generated, and further, any of the output signals corresponds to the basic learning input data on which the generated input data is based. When a teacher signal matching state signal indicating that there is no match with the teacher signal is input to the teacher signal assignment identifying means, it is identified and a second teacher signal assignment request signal is output. The neural network according to any one of the first, second, third, fourth, fifth and sixth means, wherein at least the transmitting means allocates a teacher signal to the generated input data based on information input from the outside. The problem is solved by a network teacher signal assignment device.

【0025】第8の解決手段として、前記第1の教師信
号割当て要求信号を基に、教師信号が割当てられた前記
生成データを第1の生成データとし、前記第2の教師信
号割当て要求信号を基に、教師信号が割当てられた前記
生成データを第2の生成データとして記憶することを特
徴とする第7の解決手段に記載のニューラルネットワー
ク教師信号割当て装置により解決する。
According to an eighth aspect of the present invention, the generated data to which the teacher signal is allocated is defined as first generated data based on the first teacher signal allocation request signal, and the second teacher signal allocation request signal is defined as the first generated data. Based on the above, the generated data to which the teacher signal has been allocated is stored as the second generated data.

【0026】第9の解決手段として、前記入力データ生
成手段で生成された前記生成入力データと、記憶された
既存の前記生成データの既存生成入力データとが一致す
ると、既存入力データ検出信号を前記教師信号割当て識
別手段へ送出する既存入力データ検出手段を設け、前記
教師信号割当て識別手段に於て、該既存入力データ検出
信号を識別すると、教師信号割当て再確認要求信号を送
出し、外部から正しい教師信号が入力されると、該教師
信号を該既存生成入力データに割当て既存の前記生成デ
ータを書き換え記憶することを特徴とする第6及び8の
解決手段の何れかに記載のニューラルネットワーク教師
信号割当て装置により解決する。
As a ninth solution means, when the generated input data generated by the input data generating means matches the existing generated input data of the stored existing generated data, the existing input data detection signal is sent to the input data detecting signal. An existing input data detecting means for transmitting to the teacher signal assignment identifying means is provided. When the existing input data detecting signal is identified by the teacher signal assignment identifying means, a teacher signal assignment reconfirmation request signal is sent out, and a correct The neural network teacher signal according to any one of the sixth and eighth solving means, wherein when the teacher signal is input, the teacher signal is assigned to the existing generated input data, and the existing generated data is rewritten and stored. Solved by the assigning device.

【0027】また、上記解決手段を実現するプログラム
を記憶したプログラム記憶媒体により解決する。
Further, the problem is solved by a program storage medium storing a program for realizing the above solution.

【0028】本発明のニューラルネットワーク教師信号
割当て装置では、入力データのカテゴリ分離の為に、代
表的及び特徴ある基本学習入力データと対応した教師信
号からなる基本学習データを用いて学習させたニューラ
ルネットワーク手段と、基本学習データに於ける教師信
号配置を変換し得られた、それぞれ異なる教師信号配置
からなる変換学習データを用いて学習させた、一つ以上
のニューラルネットワーク手段とを並列接続し、入力デ
ータに対して等価的に若干ずれたカテゴリ分離境界面を
形成し、分離境界領域に近い入力データの検出と、出力
信号の正誤答の推定とを教師信号割当てに利用してい
る。
In the neural network teacher signal allocating apparatus of the present invention, a neural network trained using basic learning data composed of teacher signals corresponding to representative and characteristic basic learning input data in order to separate categories of input data. The means and one or more neural network means, which are obtained by converting the teacher signal arrangement in the basic learning data and are trained using the conversion learning data having different teacher signal arrangements, are connected in parallel, and A category separation boundary plane slightly deviated from data is formed, and detection of input data close to the separation boundary area and estimation of correct or incorrect answer of an output signal are used for teacher signal allocation.

【0029】即ち、基本学習入力データを基に、例えば
距離が近い生成入力データ(近傍入力データ)を発生し
入力して、基本学習データを用いて学習させたニューラ
ルネットワーク手段からの主出力信号と、それぞれ異な
る教師信号配置からなる変換学習データを用いて学習し
たニューラルネットワーク手段の出力信号を教師信号配
置変換した変換則と逆方向の逆変換則によって変換し得
られた変換出力信号との間の出力一致状態検出を行な
う。これにより、生成入力データの等価的なカテゴリ分
離境界面上での位置関係、即ち分離境界領域の周辺か離
れているかの情報を得る。更に、その生成入力データに
対する主出力信号及び変換出力信号と基本学習入力デー
タに対応した教師信号(参照教師信号)との間の第2の
一致状態検出により、それぞれの出力信号の正誤答推定
を行ない、これらの情報を基に、教師信号割当てモード
を識別して、教師信号自動割当て、教師信号確認割当
て、或いは教師信号問い合わせ割当てを行なうシステム
である。
That is, based on the basic learning input data, for example, generation input data (neighboring input data) having a short distance is generated and input, and the main output signal from the neural network means learned using the basic learning data and Between the conversion rule obtained by converting the output signal of the neural network means learned using the conversion learning data having different teacher signal arrangements by the teacher signal arrangement conversion and the inverse conversion rule in the reverse direction. Output matching state detection is performed. As a result, the positional relationship of the generated input data on the equivalent category separation boundary surface, that is, information on whether the generated input data is around or separated from the separation boundary region is obtained. Further, by detecting a second matching state between the main output signal and the converted output signal corresponding to the generated input data and the teacher signal (reference teacher signal) corresponding to the basic learning input data, it is possible to estimate the correct or incorrect answer of each output signal. In this system, a teacher signal assignment mode is identified based on these pieces of information, and teacher signal automatic assignment, teacher signal confirmation assignment, or teacher signal inquiry assignment is performed.

【0030】主及び変換出力信号全てが一致し、而も参
照教師信号と同一の場合、生成入力データが分離境界領
域から離れ、而も正答出力信号と見做せ、その出力信号
を教師信号として教師信号自動割当てを行なう。また、
主及び変換出力信号の全ては一致せず、而も何れかが参
照教師信号と同一の場合、生成入力データが分離境界領
域に近く、主及び変換出力信号のいずれかの出力信号が
正答の可能性が高いことから、その出力信号を教師信号
割当ての候補とし確認をニューラルネットワーク設計者
に要求する教師信号確認割当てを行なう。
If all of the main and converted output signals match and are also the same as the reference teacher signal, the generated input data departs from the separation boundary area and can be regarded as a correct answer output signal, and the output signal is used as the teacher signal. A teacher signal is automatically assigned. Also,
If all of the main and converted output signals do not match, and one of them is the same as the reference teacher signal, the generated input data is close to the separation boundary area, and either the main or converted output signal can be correct. Since the output signal is high, the output signal is set as a candidate for teacher signal assignment, and teacher signal confirmation assignment for requesting a neural network designer to confirm is performed.

【0031】更に、主及び変換出力信号が全て不一致
で、而も参照教師信号とも不一致の場合、生成入力デー
タが分離境界領域に近く、而も分離境界面の形成が不十
分で、全ての出力信号が誤答の可能性が高いことから、
正しい教師信号を設計者に問い合わせする教師信号問い
合わせ割当てを行なう。これらの結果、得られた生成入
力データと割当てられた教師信号とを生成データ(近傍
データ)として記憶する。
Further, if the main and converted output signals do not all match, and also the reference teacher signal does not match, the generated input data is close to the separation boundary area and the formation of the separation boundary is insufficient, and all the output Because the signal is likely to be wrong,
A teacher signal inquiry assignment for inquiring a designer of a correct teacher signal is performed. As a result, the generated input data and the assigned teacher signal are stored as generated data (neighbor data).

【0032】このようなニューラルネットワーク教師信
号割当て装置により、基本学習入力データから近距離の
生成入力データに対して、殆ど自動的に教師信号割当て
を行なうことが出来、ニューラルネットワーク設計者に
よる教師信号割当て作業量の大幅な削減を行なうことが
できる。即ち、教師信号の確認や、問い合わせの場合だ
け、ニューラルネットワーク設計者に正しい教師信号の
入力要求をし、その他の場合には教師信号自動割当てを
行なうことにより、従来に比べ、教師信号割当て作業量
が大幅に減る。また、既存生成データと発生された生成
データとの比較と出力信号と参照教師信号の出力表示に
より、分離境界面上の入力データを把握出来、教師信号
割当てのミスを無くすこともできる。
With such a neural network teacher signal allocating device, teacher signal allocation can be performed almost automatically from basic learning input data to short-range generated input data. The amount of work can be significantly reduced. That is, a teacher signal input request is made to the neural network designer only when a teacher signal is confirmed or an inquiry is made, and the teacher signal is automatically allocated in other cases. Is greatly reduced. Further, by comparing the existing generated data with the generated data, and displaying the output signal and the reference teacher signal, the input data on the separation boundary surface can be grasped, and the teacher signal assignment error can be eliminated.

【0033】更に、上記のようにシステマティックに収
集された生成データに関して、確認割当て、問い合わせ
割当て、或いは、更に再確認モードに於て教師信号ミス
があった場合に、生成データを学習データとして、自動
割当ての生成データをテストデータとして利用すること
により、より正確なカテゴリ分離境界面の形成を効率よ
く実施でき、カテゴリ分離特性及び汎化能力に優れたニ
ューラルネットワーク手段を実現できる。
Further, with respect to the generated data systematically collected as described above, when there is a teacher signal error in the confirmation assignment, the query assignment, or further in the reconfirmation mode, the generated data is automatically set as learning data. By using the generated data of the assignment as test data, it is possible to efficiently form a more accurate category separation boundary surface, and to realize a neural network means excellent in category separation characteristics and generalization ability.

【0034】[0034]

【発明の実施の形態】以下に本発明に於ける第1の実施
形態のニューラルネットワーク教師信号割当て装置を例
にあげ、その構成及びその動作について、詳細に説明す
る。ここでは、簡単の為に2値教師信号を用いた場合を
例にあげ説明する。但し、本発明は、教師信号として、
2値教師信号に限るものではなく、多値或いは連続値で
あってもよい。また、教師信号を用いて学習するニュー
ラルネットワークならば、如何なる構造のものでもよ
い。基本学習入力データを基に、近距離の生成入力デー
タを近傍入力データとして使用する場合について具体的
に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The configuration and operation of a neural network teacher signal allocating apparatus according to a first embodiment of the present invention will be described below in detail. Here, for the sake of simplicity, a case where a binary teacher signal is used will be described as an example. However, in the present invention, as the teacher signal,
The present invention is not limited to the binary teacher signal, and may be a multi-value or continuous value. Also, any structure may be used as long as it is a neural network that learns using a teacher signal. A case in which short-range generated input data is used as nearby input data based on basic learning input data will be specifically described.

【0035】[第1の実施形態]本発明の第1の実施形
態としてのニューラルネットワーク教師信号割当て装置
の1構成例を図1に示す。
[First Embodiment] FIG. 1 shows an example of a configuration of a neural network teacher signal allocating apparatus according to a first embodiment of the present invention.

【0036】基本学習データ記憶手段1と、入力データ
生成手段2と、既存入力データ検出手段3と、生成デー
タ記憶手段4と、主学習データ記憶手段6と、主ニュー
ラルネットワーク手段6と、第1副ニューラルネットワ
ーク手段7と、第1副学習データ記憶手段8と、教師信
号配置変換手段9、12と、第2副ニューラルネットワ
ーク手段10と、第2副学習データ記憶手段11と、出
力変換手段13、14と、出力一致状態検出手段15
と、教師信号一致状態検出手段16と、教師信号割当て
識別手段17と、データ表示入力処理手段20とから構
成される。
The basic learning data storing means 1, the input data generating means 2, the existing input data detecting means 3, the generated data storing means 4, the main learning data storing means 6, the main neural network means 6, the first Sub-neural network means 7, first sub-learning data storage means 8, teacher signal arrangement conversion means 9 and 12, second sub-neural network means 10, second sub-learning data storage means 11, output conversion means 13 , 14 and output coincidence state detecting means 15
And a teacher signal matching state detecting means 16, a teacher signal assignment identifying means 17, and a data display input processing means 20.

【0037】これらの詳細な構成と動作について以下に
説明する。
The detailed configuration and operation will be described below.

【0038】基本学習データ記憶手段1に於て、入力デ
ータをカテゴリ毎に分離する際に中心となる代表的な、
或いは更に特徴的な入力データとその分離されたカテゴ
リ毎に対応した教師信号とからなる基本学習データを予
め記憶しており、これを基本として、主ニューラルネッ
トワーク手段6、第1副ニューラルネットワーク手段7
及び第2副ニューラルネットワーク手段10をそれぞれ
学習させる。先ず、主ニューラルネットワーク手段6を
学習させる場合には、基本学習入力データと対応した教
師信号とからなる基本学習データを主学習データ記憶手
段5に記憶させ、これらを読みだし、主ニューラルネッ
トワーク手段6に予め用意されている結合重み係数初期
値を設定した後学習させ、出力信号が全て正答となる収
束状態まで学習を続ける。
In the basic learning data storage means 1, a typical representative
Alternatively, basic learning data composed of further characteristic input data and teacher signals corresponding to the separated categories is stored in advance, and based on the basic learning data, the main neural network means 6 and the first sub neural network means 7 are used.
And the second sub-neural network means 10 are learned. First, when the main neural network means 6 is to be learned, basic learning data including basic learning input data and a corresponding teacher signal is stored in the main learning data storage means 5, and these are read out. After the initial value of the connection weight coefficient prepared in advance is set, learning is performed, and learning is continued until a convergence state in which all output signals are correct.

【0039】次に、第1副ニューラルネットワーク手段
7に於て、基本学習データ記憶手段1から読み出された
基本学習データの内、教師信号だけを教師信号配置変換
手段9を介して、予め与えられた変換則に従って配置変
換し、学習入力データと共に第1副学習データとして、
第1副学習データ記憶手段8に記憶させ、これらを用い
て、第1副ニューラルネットワーク手段7に予め用意さ
れている主ニューラルネットワーク手段6と同様の結合
重み係数初期値を設定した後学習させ、出力信号が全て
正答となる収束状態まで学習を続ける。
Next, in the first sub-neural network means 7, only the teacher signal of the basic learning data read out from the basic learning data storage means 1 is given in advance via the teacher signal arrangement conversion means 9. According to the obtained conversion rule, the layout is changed, and together with the learning input data, as the first sub-learning data,
It is stored in the first sub-learning data storage means 8 and, using these, the same connection weight coefficient initial value as that of the main neural network means 6 prepared in advance in the first sub-neural network means 7 is set, and then learning is performed. Learning is continued until a convergence state in which all output signals are correct.

【0040】同様に、教師信号配置変換手段12に於
て、教師信号を変換するが、その変換則は、第1副学習
データに対するものとは異なるものを予め準備してお
く。配置変換された教師信号と学習入力データとを第2
副学習データとして第2副学習データ記憶手段11に記
憶させ、これらを用いて、第2副ニューラルネットワー
ク手段10に予め用意されている主ニューラルネットワ
ーク手段6と同様の結合重み係数初期値を設定した後学
習させ、出力信号が全て正答となる収束状態まで学習を
続ける。
Similarly, the teacher signal arrangement conversion means 12 converts the teacher signal, and a conversion rule different from that for the first sub-learning data is prepared in advance. The placement-transformed teacher signal and learning input data are
The second sub-learning data storage means 11 stores the data as sub-learning data, and using these, the same connection weight coefficient initial values as those of the main neural network means 6 prepared in advance in the second sub-neural network means 10 are set. After learning, the learning is continued until the convergence state in which all output signals are correct.

【0041】これらの一連の学習処理に於て、主ニュー
ラルネットワーク手段6、第1副ネットワーク手段7、
第2副ネットワーク手段10は、それぞれ同一の学習入
力データに対して、異なった教師信号配置で学習させて
いることから、汎化能力は殆ど同じであるが、汎化領域
が等価的に少しずれた異なる特性を持つ。即ち、分離境
界領域が複雑で狭い所などでは、入力データに対して、
正答となる出力信号を送出するニューラルネットワーク
手段と誤答となる出力信号を送出するニューラルネット
ワーク手段が存在する。一方、分離境界面から離れ、基
本学習入力データに近い入力データに対しては、全て正
答の出力信号を送出する。従って、並列ニューラルネッ
トワーク手段6、7、10に於て、それぞれ若干分離境
界面形成の違いによる出力一致状態や正誤答の差が生じ
ることを利用することによって分離境界領域近傍の入力
データを効果的に検出し、出力信号の正誤推定ができ
る。
In these series of learning processes, the main neural network means 6, the first sub network means 7,
Since the second sub-network means 10 learns the same learning input data with different teacher signal arrangements, the generalization ability is almost the same, but the generalization area is slightly shifted equivalently. With different characteristics. In other words, where the separation boundary area is complicated and narrow,
There are neural network means for sending an output signal that is a correct answer and neural network means for sending an output signal that is an incorrect answer. On the other hand, for input data far from the separation boundary and close to the basic learning input data, an output signal of a correct answer is sent out. Therefore, in the parallel neural network means 6, 7, 10, the input data in the vicinity of the separation boundary area can be effectively made by utilizing the fact that the output coincidence state and the difference between correct and incorrect answers due to the slight difference in the formation of the separation boundary plane occur. , And correct / incorrect estimation of the output signal can be performed.

【0042】ここでは、ニューラルネットワーク手段を
効率良く学習及びテストする為に必要となる学習データ
及びテストデータをシステマティックに準備する為に、
先ず、代表的な、特徴ある基本学習入力データを中心に
距離が小さい近傍入力データを生成入力データとして発
生させ、カテゴリ分離境界面が等価的に僅かにずれた並
列ニューラルネットワーク手段6、7、10を用いて、
カテゴリ分離境界領域に近く位置する近傍入力データ
と、分離境界領域から離れて位置するものとを識別する
と共に、近傍入力データに対するそれら出力信号の正誤
答を推定し、それら情報を参考に近傍入力データに対応
した教師信号割当てを行なう。
Here, in order to systematically prepare learning data and test data necessary for efficiently learning and testing the neural network means,
First, near-neighbor input data having a small distance centered on representative basic learning input data is generated as generated input data, and the parallel neural network means 6, 7, 10 in which the category separation boundary surface is slightly shifted equivalently. Using,
Identify the neighboring input data that is located near the category separation boundary area and the data that is located far from the separation boundary area, estimate the correct answer of those output signals with respect to the neighborhood input data, and refer to the information to refer to the information. Is performed in accordance with the teacher signal.

【0043】上記の処理を実現する為に、先ず、上述の
学習処理が終了すると、各ニューラルネットワーク手段
6、7、10を並列接続し、各ニューラルネットワーク
手段6、7、10から近傍入力データに対する出力信号
を送出させる。近傍入力データとしては、基本学習デー
タ記憶手段1から基本学習データを順次読み出し、入力
データ生成手段2に於て、基本学習入力データの周辺の
入力データを生成し、近傍入力データとして用いる。生
成方法の一例として、2値入力データを仮定した場合に
は、近傍入力データとして、まず基本学習入力データか
らハミング距離1程離れたものから順次生成する。
In order to realize the above-mentioned processing, first, when the above-mentioned learning processing is completed, the respective neural network means 6, 7, 10 are connected in parallel, and the respective neural network means 6, 7, 10 are connected to the neighboring input data. Send an output signal. As the nearby input data, the basic learning data is sequentially read from the basic learning data storage unit 1, and input data around the basic learning input data is generated by the input data generating unit 2 and used as the nearby input data. As an example of the generation method, when binary input data is assumed, first, data close to the hamming distance by about one from the basic learning input data are sequentially generated as the neighboring input data.

【0044】この時、既存入力データ検出手段3にて、
その近傍入力データが、それまでに既に生成されてお
り、それと割当てられた教師信号とからなる近傍データ
が生成データ記憶手段4に格納されているかどうか、ま
た、同様に基本学習データとして基本学習データ記憶手
段1に格納されているかどうかを調べる。存在(衝突)
してなければ、近傍入力データを並列接続されたニュー
ラルネットワーク手段6、7、10及び教師信号割当て
識別手段17に入力する。更に、近傍入力データの生成
に利用した基本学習入力データに対応した、基本学習デ
ータ記憶手段1からの教師信号(参照教師信号)と近傍
入力信号とを教師信号割当て識別手段17にそれぞれ送
出する。
At this time, the existing input data detecting means 3
Whether or not the neighborhood input data has already been generated so far and the neighborhood data including the assigned teacher signal is stored in the generated data storage means 4. It is checked whether or not it is stored in the storage means 1. Existence (collision)
If not, the neighboring input data is input to the neural network means 6, 7, 10 and the teacher signal assignment identifying means 17 connected in parallel. Further, a teacher signal (reference teacher signal) from the basic learning data storage unit 1 and a nearby input signal corresponding to the basic learning input data used for generating the nearby input data are sent to the teacher signal assignment identifying unit 17, respectively.

【0045】一方、既に存在(衝突)しており、それが
基本学習入力データであれば、それを破棄する。また、
既存の近傍入力データの場合には、既存入力データ検出
手段3から既存近傍入力データとの衝突を示す既存入力
データ検出信号と、近傍入力データの生成に利用した基
本学習入力データに対応した教師信号(参照教師信号)
と、入力データ生成手段2からの衝突している近傍入力
信号とを教師信号割当て識別手段17にそれぞれ送出す
る。また、生成データ記憶手段4からは衝突した既存近
傍データをデータ表示入力手段20に送出する。更に、
この近傍入力データを主ニューラルネットワーク手段
6、第1副ニューラルネットワーク手段7及び第2副ニ
ューラルネットワーク手段10にそれぞれ入力する。
On the other hand, if it already exists (collides) and it is the basic learning input data, it is discarded. Also,
In the case of existing neighborhood input data, the existing input data detection signal indicating the collision with the existing neighborhood input data from the existing input data detection means 3 and the teacher signal corresponding to the basic learning input data used for generating the neighborhood input data (Reference teacher signal)
And the colliding neighboring input signal from the input data generating means 2 are transmitted to the teacher signal assignment identifying means 17. The generated data storage unit 4 sends the existing neighboring data that has collided to the data display input unit 20. Furthermore,
This neighborhood input data is input to the main neural network means 6, the first auxiliary neural network means 7, and the second auxiliary neural network means 10, respectively.

【0046】主ニューラルネットワーク手段6からの近
傍入力データに対する出力信号は、そのまま、主出力信
号として送出される。一方、第1及び第2副ニューラル
ネットワーク手段7、10からの出力信号は、それぞれ
教師信号配置変換手段9、12に於て用いられた変換則
に対して逆方向の逆変換則をそれぞれ持った出力変換手
段13、14に入力される。この結果、出力変換手段1
3から得られる第1変換出力信号、及び出力変換手段1
4から得られる第2変換出力信号は、それぞれ主出力信
号と同じ教師信号配置の関係を持つこととなる。従っ
て、近傍入力データに対して、等価的に僅かにずれたカ
テゴリ分離境界面を形成し、上記の出力信号をそれぞれ
送出することができる。
The output signal for the neighboring input data from the main neural network means 6 is sent out as it is as the main output signal. On the other hand, the output signals from the first and second sub-neural network means 7 and 10 have inverse conversion rules in the reverse direction to the conversion rules used in the teacher signal arrangement conversion means 9 and 12, respectively. It is input to output conversion means 13 and 14. As a result, output conversion means 1
3 and a first converted output signal obtained from
4 have the same teacher signal arrangement relationship as the main output signal. Therefore, it is possible to form a category separation boundary plane which is slightly deviated equivalently from the neighboring input data, and transmit each of the output signals.

【0047】これらの3つの出力信号間の出力一致状態
としては、主出力信号、第1変換出力信号及び第2変換
出力信号全て一致する状態、何れか2つの出力信号が一
致する状態、即ち、主出力信号と第1変換出力信号の一
致、主出力信号と第2変換出力信号の一致、或いは第1
出力信号と第2出力信号の一致の状態と、更にこれらの
出力信号が何れとも一致しない、全て不一致状態のいず
れかの状態となる。
The output coincidence state between these three output signals includes a state in which the main output signal, the first converted output signal, and the second converted output signal all match, a state in which any two output signals match, A match between the main output signal and the first converted output signal, a match between the main output signal and the second converted output signal, or
The output signal and the second output signal are in a state of coincidence, and further, these output signals are not in agreement with each other, that is, are in any state of non-coincidence.

【0048】出力一致状態検出手段15にて、これらの
出力信号間の出力一致状態を検出し、出力一致状態信号
として、教師信号割当て識別手段17に入力する。一
方、教師信号一致状態検出手段16に於て、これらの出
力信号と、参照教師信号との間の一致状態を検出し、教
師信号一致状態信号として、教師信号割当て識別手段1
7に入力する。
The output coincidence detecting means 15 detects the output coincidence between these output signals, and inputs the output coincidence signal to the teacher signal assignment identifying means 17 as an output coincidence signal. On the other hand, the teacher signal matching state detecting means 16 detects a matching state between these output signals and the reference teacher signal, and determines the matching state signal as a teacher signal matching state signal.
Enter 7

【0049】教師信号割当て識別手段17では、出力一
致状態信号、教師信号一致状態信号、主出力信号、第1
変換出力信号、第2変換出力信号、生成された近傍入力
データとが入力され、更に生成された近傍入力データの
基となった基本学習入力データに対応した教師信号が参
照教師信号として入力される。また、既存入力データ検
出手段3からの既存入力データ検出信号も入力される。
これらの入力された信号を基に近傍入力データへの教師
信号割当てモードを識別する。
The teacher signal assignment identifying means 17 outputs an output coincidence state signal, a teacher signal coincidence state signal, a main output signal,
The converted output signal, the second converted output signal, and the generated nearby input data are input, and a teacher signal corresponding to the basic learning input data on which the generated nearby input data is based is input as a reference teacher signal. . Further, an existing input data detection signal from the existing input data detection means 3 is also input.
Based on these input signals, a teacher signal allocation mode to nearby input data is identified.

【0050】ここでは、教師信号割当ての識別として、
教師信号自動割当てモード、教師信号確認割当てモー
ド、教師信号問い合わせ割当てモード及び教師信号割当
て再確認モードを設けた場合について、それらの動作を
説明する。
Here, as the identification of the teacher signal assignment,
The operation of the case where the teacher signal automatic assignment mode, the teacher signal confirmation assignment mode, the teacher signal inquiry assignment mode, and the teacher signal assignment reconfirmation mode are provided will be described.

【0051】教師信号自動割当てモードは、出力一致状
態として、近傍入力データに対する主出力信号、第1副
出力信号、第2副出力信号とも全て一致したことを示す
出力一致状態信号が入力され、更に、教師信号一致状態
として、それらが全て参照教師信号とも一致したことを
示す教師信号一致状態信号が入力されたことを識別した
場合であり、間違いなく正答であると見做せる。従っ
て、自動的に出力信号を近傍入力データの教師信号とし
て割当て、生成データ記憶手段4に格納し、データ表示
入力処理手段20を介して自動割当て信号、出力一致状
態信号、主出力信号、第1変換出力信号、第2変換出力
信号、入力された近傍入力データ、参照教師信号、教師
信号一致状態信号とをそれぞれ表示する。ニューラルネ
ットワーク設計者には、一応これらデータを表示するだ
けで、特別な作業を要求しない。
In the teacher signal automatic assignment mode, as the output coincidence state, an output coincidence state signal indicating that the main output signal, the first sub-output signal, and the second sub-output signal for the neighboring input data have all coincided is input. In this case, it is determined that a teacher signal matching state signal indicating that all of them match the reference teacher signal is input as the teacher signal matching state, and it can be regarded as a correct answer. Therefore, the output signal is automatically assigned as a teacher signal of the neighborhood input data, stored in the generated data storage means 4, and automatically assigned signal, output coincidence signal, main output signal, first output signal through the data display input processing means 20. The converted output signal, the second converted output signal, the input neighborhood input data, the reference teacher signal, and the teacher signal matching state signal are displayed. Neural network designers only need to display these data for the time being and do not require any special work.

【0052】一般に、僅かにずれた分離境界面を持った
ニューラルネットワークを上手く設計し、並列接続する
ことにより、この状態が非常に多く発生する。従って、
ニューラルネットワーク設計者の教師信号割当て作業
を、殆ど自動化でき、例えば、従来の10%程度以下の
作業量に大幅に削減出来る。また、これらの近傍データ
は、正答であることから、必ずしも学習させる必要はな
く、テストデータとして利用できる。従って、自動割当
てされた近傍データを自動割当て近傍データとして生成
データ記憶手段4に格納し、テストデータとして用いて
もよい。
Generally, when a neural network having a slightly shifted separation boundary surface is well designed and connected in parallel, this state occurs very often. Therefore,
The teacher signal assignment work of the neural network designer can be almost automatically automated, and can be greatly reduced to, for example, about 10% or less of the conventional work. Further, since these neighborhood data are correct answers, they need not always be learned, and can be used as test data. Therefore, the automatically assigned neighborhood data may be stored as automatically assigned neighborhood data in the generated data storage unit 4 and used as test data.

【0053】教師信号確認割当てモードは、出力一致状
態として、全出力信号は一致していないことを示す出力
一致状態信号が入力され、教師信号一致状態として、何
れかの出力信号が少なくとも参照教師信号と一致した状
態を示す教師信号一致状態信号が入力されたことを識別
した場合で、参照教師信号と同じ出力信号が正答である
可能性が非常に高い。従って、出力信号全てが一致して
いないことから、正しい教師信号の候補として参照教師
信号を表示し、ニューラルネットワーク設計者に確認を
要求する第1の教師信号割当て要求信号、即ち確認割当
て信号を送出する。データ表示入力処理手段20を介し
て確認割当て信号、出力一致状態信号、主出力信号、第
1変換出力信号、第2変換出力信号、入力された近傍入
力データ、参照教師信号、及び教師信号一致状態信号と
をそれぞれ表示する。
In the teacher signal confirmation assignment mode, an output matching state signal indicating that all output signals do not match is input as an output matching state, and at least one of the output signals is referred to as a teacher signal matching state. It is highly likely that the same output signal as the reference teacher signal is a correct answer when it is determined that the teacher signal matching state signal indicating the state of matching with the reference teacher signal has been input. Therefore, since all the output signals do not match, the reference teacher signal is displayed as a candidate for the correct teacher signal, and the first teacher signal assignment request signal for requesting the neural network designer to confirm, that is, the confirmation assignment signal is transmitted. I do. Confirmation assignment signal, output matching state signal, main output signal, first converted output signal, second converted output signal, input neighborhood input data, reference teacher signal, and teacher signal matching state via data display input processing means 20 And signals are displayed.

【0054】ニューラルネットワーク設計者に、参照教
師信号と一致する出力信号が正答であるかを確認要求し
た後、データ表示入力処理手段20へ正答判定信号が入
力されると、近傍入力データとその出力信号とを近傍デ
ータとして生成データ記憶手段4に格納する。誤答判定
信号が入力されると、入力要求をして得られた正しい教
師信号と近傍入力データと合わせて、確認近傍データと
して生成データ記憶手段4に格納する。
After requesting the neural network designer to confirm whether the output signal matching the reference teacher signal is a correct answer, when a correct answer determination signal is input to the data display input processing means 20, the neighborhood input data and its output are output. The signal is stored in the generated data storage unit 4 as neighborhood data. When an incorrect answer determination signal is input, the generated data is stored in the generated data storage means 4 as confirmation neighborhood data together with a correct teacher signal and neighborhood input data obtained by making an input request.

【0055】教師信号問い合わせ割当てモードは、出力
一致状態は無関係に、教師信号一致状態として、出力信
号がいずれも参照教師信号と異なる状態を示す教師信号
一致状態信号が入力されたことを識別した場合で、参照
教師信号と異なる出力信号は、誤答である可能性が非常
に高い。従って、ニューラルネットワーク設計者に問い
合わせ、正しい出力信号を教師信号として入力するよう
要求する第2の教師信号割当て要求信号、即ち問い合わ
せ割当て信号を送出する。データ表示入力処理手段20
を介して問い合わせ割当て信号、出力一致状態信号、主
出力信号、第1変換出力信号、第2変換出力信号、入力
された近傍入力データ、及び参照教師信号と、教師信号
一致状態信号とをそれぞれ表示する。
In the teacher signal inquiry assignment mode, regardless of the output coincidence state, it is determined that a teacher signal coincidence state signal indicating that each output signal is different from the reference teacher signal is input as the teacher signal coincidence state. Thus, an output signal different from the reference teacher signal is very likely to be a wrong answer. Therefore, a second teacher signal assignment request signal, that is, a query assignment signal, which requests the neural network designer to input a correct output signal as a teacher signal, is transmitted. Data display input processing means 20
, An inquiry assignment signal, an output matching state signal, a main output signal, a first converted output signal, a second converted output signal, input neighborhood input data, a reference teacher signal, and a teacher signal matching state signal are displayed, respectively. I do.

【0056】データ表示入力処理手段20へ正答判定信
号が入力されると、近傍入力データとその出力信号とを
近傍データとして生成データ記憶手段4に格納する。誤
答判定信号が入力されると、入力要求をして得られた正
しい教師信号と近傍入力データと合わせて、問い合わせ
近傍データとして生成データ記憶手段4に格納する。
When a correct answer determination signal is input to the data display input processing means 20, the neighborhood input data and its output signal are stored in the generated data storage means 4 as neighborhood data. When an incorrect answer determination signal is input, it is stored in the generated data storage unit 4 as inquiry neighborhood data together with a correct teacher signal and neighborhood input data obtained by making an input request.

【0057】教師信号割当て再確認モードは、新に生成
された近傍入力データが既存の近傍入力データと衝突し
ている状態を既存入力データ検出信号により識別する。
基本学習データとしては、代表的な、及び特徴的なデー
タが与えられており、これらを基に距離が近い近傍入力
データを順次生成していることから、新に生成された近
傍入力データが既に生成データ記憶手段4に存在してい
る近傍データ内の近傍入力データと衝突することは、カ
テゴリ分離の観点から非常に重要な情報を持つ。即ち、
衝突した近傍入力データは、生成した際の基となった夫
々の基本学習入力データから等距離の入力データであ
り、本質的にカテゴリ分類上分離境界面上にあり、カテ
ゴリ分離に於て曖昧性を発生しやすい入力データであ
る。また、衝突した際には、近傍入力データの基となっ
ている基本入力データに対して割当てられている教師信
号と既存の近傍データの割当てられている教師信号とが
異なっていることを意味している。従って、既存の近傍
入力データに割当てられている教師信号の割当てミスを
見つける為にも、既存の教師信号割当ての再確認を要求
する。
In the teacher signal assignment reconfirmation mode, a state in which newly generated neighboring input data collides with existing neighboring input data is identified by the existing input data detection signal.
As the basic learning data, representative and characteristic data are given, and near input data having a short distance is sequentially generated based on these data. Collision with neighboring input data in neighboring data existing in the generated data storage means 4 has very important information from the viewpoint of category separation. That is,
The colliding neighboring input data is input data equidistant from the respective basic learning input data upon which it was generated, and is essentially on the separation boundary in the category classification, and the ambiguity in the category separation Is input data that easily causes Further, when a collision occurs, it means that the teacher signal assigned to the basic input data on which the neighboring input data is based is different from the teacher signal assigned to the existing neighboring data. ing. Therefore, re-confirmation of the existing teacher signal assignment is required in order to find an assignment error of the teacher signal assigned to the existing neighboring input data.

【0058】既存入力データ検出手段3にて衝突を検出
すると、それを単純に破棄して処理しても良いが、ここ
では、分離境界面上の重要なデータであることから、既
存入力データ検出信号を教師信号割当て識別手段17に
入力すると共に、並列ニューラルネットワーク手段6、
7、10に衝突した近傍入力データを入力し、出力一致
状態信号、主出力信号、第1変換出力信号、第2変換出
力信号、衝突した近傍入力データ、参照教師信号、教師
信号一致状態信号及び既存入力データ検出信号とをデー
タ表示入力処理手段20を介して表示する。また、生成
データ記憶手段4から衝突している既存生成データをデ
ータ表示入力処理手段20を介して表示する。
When a collision is detected by the existing input data detecting means 3, the collision may be simply discarded and processed. However, since the data is important data on the separation boundary, the existing input data detection means 3 detects the collision. The signal is input to the teacher signal assignment identifying means 17, and the parallel neural network means 6,
7 and 10 are input with the collided neighboring input data, and the output coincidence state signal, the main output signal, the first converted output signal, the second converted output signal, the collided neighboring input data, the reference teacher signal, the teacher signal coincidence state signal, The existing input data detection signal is displayed via the data display input processing means 20. In addition, the existing generated data that has collided from the generated data storage unit 4 is displayed via the data display input processing unit 20.

【0059】ニューラルネットワーク設計者に、第3の
教師信号割当て要求信号により、既存近傍入力データに
割当てられている教師信号の正誤の再確認を要求し、デ
ータ表示入力処理手段20へ正答確認信号が入力される
と、既存近傍データをそのままとし、誤答確認信号が入
力されると、正しい教師信号入力を要求し、既存近傍デ
ータを正しい教師信号で修正し、生成データ記憶手段4
に格納する。この時、衝突したこと、及び再確認したこ
とを示す情報を付加し格納してもよい。
The neural network designer is requested by the third teacher signal assignment request signal to reconfirm the correctness of the teacher signal assigned to the existing neighboring input data, and the correct answer confirmation signal is sent to the data display input processing means 20. When input, the existing neighborhood data is left as it is, and when an incorrect answer confirmation signal is input, a correct teacher signal input is requested, and the existing neighborhood data is corrected with the correct teacher signal.
To store. At this time, information indicating collision and reconfirmation may be added and stored.

【0060】上記の如く、生成された近傍入力データ
と、並列ニューラルネットワーク手段6、7、10から
それぞれ送出された出力信号を基に、自動的に、或いは
ニューラルネットワーク設計者への確認要求、更には問
い合わせ要求や再確認要求によって、明かとなった教師
信号と近傍入力データとを近傍データとして記憶する。
このように、与えられた距離条件下で、全ての基本学習
入力データを基に生成された近傍入力データに対して教
師信号割当てを行なった後、更に、基本学習入力データ
からの距離が次第に離れた生成入力データを順次発生し
同様に処理することにより、次第に幅広い範囲の近傍デ
ータもシステマティックに収集出来る。これらの得られ
た近傍データを用いてニューラルネットワーク手段の学
習やテストを実施することにより、性能(学習能力や汎
化能力)の改善を図ることが効率良く出来る。これらの
ニューラルネットワーク手段を単独に実行処理させ種々
の応用に適用しても良いし、並列ニューラルネットワー
ク手段として実行処理させ応用しても良い。
As described above, based on the generated neighborhood input data and the output signals respectively sent from the parallel neural network means 6, 7, and 10, the confirmation request is automatically or to the neural network designer. Stores the teacher signal and the neighboring input data that are revealed by the inquiry request or the reconfirmation request as the neighboring data.
As described above, under the given distance condition, after the teacher signal is assigned to the neighboring input data generated based on all the basic learning input data, the distance from the basic learning input data gradually increases. By sequentially generating the generated input data and processing the generated input data in the same manner, it is possible to systematically collect neighboring data in a wider range. By performing learning and testing of the neural network means using the obtained neighborhood data, it is possible to efficiently improve performance (learning ability and generalization ability). These neural network means may be executed independently and applied to various applications, or may be executed as parallel neural network means and applied.

【0061】尚、近傍データを教師信号割当てモードに
従ってそれぞれ区別して格納する場合を説明したが、そ
れらを区別することなく格納してもよい。
Although the case has been described where the neighboring data is stored separately according to the teacher signal assignment mode, they may be stored without being distinguished.

【0062】次に、上記の第1の実施形態のプログラム
に関する処理フローを図4に示す。
Next, FIG. 4 shows a processing flow relating to the program of the first embodiment.

【0063】プログラム記憶媒体51からプログラムを
ダウンロードした後、変換学習データ処理52に於て、
基本学習データメモリから基本学習データを読み込み、
基本入力データに対応している教師信号配置を変換し、
ニューラルネットワーク手段の並列接続数−1の数ほど
の新に異なる教師信号配置を準備し、変換学習データを
生成する。
After downloading the program from the program storage medium 51, the conversion learning data processing 52
Read basic learning data from basic learning data memory,
Convert the teacher signal arrangement corresponding to the basic input data,
As many different teacher signal arrangements as the number of parallel connections of the neural network means minus one are prepared, and conversion learning data is generated.

【0064】更に、並列接続されるニューラルネットワ
ーク手段に並列ニューラルネットワークパラメータメモ
リから読み出されたそれぞれのニューラルネットワーク
学習パラメータ設定処理53を行ない、並列ニューラル
ネットワークをそれぞれ個別に学習処理55を行なう。
基本学習入力データに対して、全て正しい出力信号が送
出されると学習を終了し、結合重み係数を並列ニューラ
ルネットワークパラメータメモリにそれぞれ格納する。
次に、基本学習入力データ毎の近傍入力データ生成処理
55に於て、与えられた基本学習入力データを基に指定
された距離の近傍入力データを生成し、更に対応した教
師信号を参照教師信号として、設定する。
Further, the neural network means connected in parallel perform the neural network learning parameter setting processing 53 read from the parallel neural network parameter memory, and individually perform the learning processing 55 on the parallel neural networks.
When all correct output signals are transmitted for the basic learning input data, the learning is terminated, and the connection weight coefficients are stored in the parallel neural network parameter memories.
Next, in a neighborhood input data generation processing 55 for each basic learning input data, neighborhood input data of a designated distance is generated based on the given basic learning input data, and a corresponding teacher signal is referred to as a reference teacher signal. Set as

【0065】既存近傍入力データ検出処理56に於て
は、生成された近傍入力データが既に他の基本学習入力
データを基に生成されたものと同じかどうか、また他の
基本学習入力データと同じかどうかを、基本学習データ
メモリ及び生成データメモリを介して検索し、基本学習
入力データと同じであれば、その生成された近傍入力デ
ータを破棄し、新たな近傍入力データを生成して再度調
べる。
In the existing neighborhood input data detection processing 56, it is determined whether the generated neighborhood input data is the same as that already generated based on other basic learning input data, and the same as the other basic learning input data. Is searched through the basic learning data memory and the generated data memory, and if it is the same as the basic learning input data, the generated nearby input data is discarded, new nearby input data is generated and checked again. .

【0066】既に近傍入力データとして存在しておれ
ば、既存入力データ検出信号と既存の近傍データとをデ
ータ表示入力処理63を介して設計者に送出する為に記
憶する。その後、生成された近傍入力データを並列ニュ
ーラルネットワーク手段に入力し、並列ニューラルネッ
トワーク実行処理57に於て、それぞれのニューラルネ
ットワーク手段から出力信号を得る。異なる教師信号配
置を用いて学習した並列ニューラルネットワーク手段の
それぞれの出力信号を出力変換処理59を介して変換出
力信号を得、出力一致状態検出処理60にて、基本学習
データを用いて学習した並列ニューラルネットワーク手
段からの主出力信号と、第1及び第2変換出力信号との
一致状態を調べ、出力一致状態信号を送出し記憶する。
また、教師信号一致状態検出処理61にて、主及び第1
及び第2変換出力信号と参照教師信号との一致状態を調
べ、教師信号一致状態信号を送出し記憶する。
If the input data already exists as the neighboring input data, the existing input data detection signal and the existing neighboring data are stored for transmission to the designer via the data display input processing 63. Thereafter, the generated neighborhood input data is input to the parallel neural network means, and in parallel neural network execution processing 57, an output signal is obtained from each neural network means. Each output signal of the parallel neural network means learned using different teacher signal arrangements is converted through an output conversion process 59 to obtain a converted output signal. In an output coincidence state detection process 60, the parallel output learned using the basic learning data is used. A match state between the main output signal from the neural network means and the first and second converted output signals is checked, and an output match state signal is transmitted and stored.
In the teacher signal coincidence state detection processing 61, the main and first
Then, a matching state between the second converted output signal and the reference teacher signal is checked, and a teacher signal matching state signal is transmitted and stored.

【0067】教師信号割当て識別処理62では、出力一
致状態信号と、主出力信号と、第1及び第2変換出力信
号と、生成された近傍入力データと、その参照教師信号
と、教師信号一致状態信号と既存入力データ検出信号と
を用いて、教師信号自動割当てモード、確認割当てモー
ド、問い合わせ割当てモード及び割当て再確認モードの
識別を行なう。更に、これらデータと、識別されたモー
ドと、既存近傍入力データ検出処理56に於ける既存入
力データが検出されている場合にはそれらの既存近傍デ
ータとをデータ表示入力処理63を介して設計者に表示
する。確認モード、問い合わせモード及び再確認モード
では、設計者からの正しい教師信号の入力或いは指定を
要請し、入力或いは指定された教師信号と生成された近
傍入力データとを近傍データとして近傍データ格納処理
64を介して生成データメモリに格納する。自動割当て
モードでは、生成された近傍入力データと教師信号とし
ての主出力信号とを近傍データとして生成データメモリ
に格納する。
In the teacher signal assignment identifying process 62, the output matching state signal, the main output signal, the first and second converted output signals, the generated nearby input data, the reference teacher signal, and the teacher signal matching state The signal and the existing input data detection signal are used to identify the teacher signal automatic assignment mode, the confirmation assignment mode, the inquiry assignment mode, and the assignment reconfirmation mode. Further, if the data, the identified mode, and the existing input data in the existing neighborhood input data detection processing 56 are detected, the existing neighborhood data is output to the designer via the data display input processing 63. To be displayed. In the confirmation mode, the inquiry mode, and the reconfirmation mode, the designer requests input or designation of a correct teacher signal, and uses the input or designated teacher signal and the generated neighborhood input data as neighborhood data as neighborhood data storage processing 64 And stores it in the generated data memory. In the automatic assignment mode, the generated neighborhood input data and the main output signal as a teacher signal are stored as neighborhood data in the generated data memory.

【0068】与えられた基本学習入力データに於て、設
定された距離の全ての近傍入力データが生成されたかを
近傍入力データ全生成判定処理65にて判定し、生成さ
れていなければ、近傍入力データ生成処理55へ戻り、
次の近傍データを生成し、一連の処理をする。また、生
成されておれば、最終基本学習入力データ判定処理66
に於て、与えられた基本学習入力データが最終基本学習
入力データであるかどうか判定し、最終で無ければ、次
基本学習入力データ設定処理67に於て、次の基本学習
入力データを設定して、近傍入力データ生成処理55に
戻り、一連の処理を行なう。最終基本学習入力データで
あれば、距離判定処理68を行なう。生成された近傍入
力データと基本学習入力データと間の設定された距離が
予め指定された距離スレショルド(Th)以下であれば、
距離増加設定処理69を介して生成の為の距離を増加さ
せ設定し、近傍入力データ生成処理55へ戻り、一連の
処理を行なう。指定された距離スレショルドとなると、
近傍入力データへの教師信号割当て処理を全て終了す
る。
In the given basic learning input data, it is determined in the neighborhood input data full generation determination processing 65 whether or not all neighborhood input data of the set distance have been generated. Returning to the data generation processing 55,
The next neighborhood data is generated, and a series of processing is performed. If it has been generated, the final basic learning input data determination process 66
It is determined whether the given basic learning input data is the final basic learning input data, and if not, the next basic learning input data is set in the next basic learning input data setting processing 67. Then, the process returns to the neighborhood input data generation processing 55 to perform a series of processing. If the input data is the final basic learning input data, a distance determination process 68 is performed. If the set distance between the generated neighboring input data and the basic learning input data is equal to or less than a predetermined distance threshold (Th),
The distance for generation is increased and set via the distance increase setting processing 69, and the process returns to the neighborhood input data generation processing 55 to perform a series of processing. When the specified distance threshold is reached,
The process of allocating the teacher signal to the nearby input data is all ended.

【0069】ここでは、全ての基本学習入力データに対
して近傍入力データが生成されると、基本学習入力デー
タからの距離を増やして、同様の処理を行なっている。
しかしながら、逆に、設定した距離が与えられた距離ス
レショルドとなると、基本学習入力データを変更して、
近傍入力データを生成し、同様の処理を行ない、全ての
学習入力データに対して近傍入力データを生成すると、
近傍入力データへの教師信号割当て処理を終了させても
よい。
Here, when the neighborhood input data is generated for all the basic learning input data, the distance from the basic learning input data is increased, and the same processing is performed.
However, conversely, when the set distance reaches the given distance threshold, the basic learning input data is changed,
When the neighborhood input data is generated, the same processing is performed, and the neighborhood input data is generated for all the learning input data,
The process of allocating the teacher signal to the nearby input data may be ended.

【0070】上記の実施形態に於て得られた各近傍デー
タに於て、確認割当てモード及び問い合わせ割当てモー
ドの場合、或いは、更に再確認モードの場合のそれぞれ
得られた近傍データ(生成データ)は、学習データとし
て記憶してもよい。また、自動割当てモードで得られた
自動割当て近傍データは、テストデータとして記憶して
もよい。これら学習データを基本学習データと共に用い
て、記憶されている結合重み係数を設定し学習処理を、
更にこれらテストデータを用いてテスト処理をすること
により、並列ニューラルネットワーク手段の高性能化を
図ることが簡単に出来る。
In each of the neighborhood data obtained in the above embodiment, the neighborhood data (generated data) obtained in the confirmation assignment mode and the inquiry assignment mode, or further in the case of the reconfirmation mode, , May be stored as learning data. In addition, the automatic assignment neighborhood data obtained in the automatic assignment mode may be stored as test data. Using these learning data together with the basic learning data, the stored coupling weight coefficient is set and the learning process is performed.
Further, by performing test processing using these test data, it is possible to easily improve the performance of the parallel neural network means.

【0071】[第2の実施形態]本発明の第2の実施形
態としてのニューラルネットワーク教師信号割当て装置
の1構成例を図2に示す。
[Second Embodiment] FIG. 2 shows an example of the configuration of a neural network teacher signal allocating apparatus according to a second embodiment of the present invention.

【0072】図1と同様な、基本学習データ記憶手段1
と、入力データ生成手段2と、既存入力データ検出手段
3と、生成データ記憶手段4と、主ニューラルネットワ
ーク手段6と、第1副ニューラルネットワーク手段7
と、第2副ニューラルネットワーク手段10と、出力一
致状態検出手段15と、教師信号一致状態検出手段16
と、教師信号割当て識別手段17と、データ表示入力処
理手段20とを用い、更に、学習データ記憶手段33、
及び主結合重み係数初期値記憶手段30、31、32と
を用いて構成される。本実施形態では、各ニューラルネ
ットワーク手段6、7、10の学習条件が第1の実施形
態とは異なっている。
Basic learning data storage means 1 similar to FIG.
Input data generation means 2, existing input data detection means 3, generated data storage means 4, main neural network means 6, first sub-neural network means 7,
Second sub-neural network means 10, output coincidence state detecting means 15, teacher signal coincidence state detecting means 16,
, The teacher signal assignment identifying means 17, and the data display input processing means 20.
And main coupling weight coefficient initial value storage means 30, 31, 32. In the present embodiment, the learning conditions of each of the neural network means 6, 7, 10 are different from those of the first embodiment.

【0073】従って、これらの異なっている部分につい
てのみ詳細な構成と動作を中心に以下に説明する。各ニ
ューラルネットワーク手段6、7、10では、全て学習
データ記憶手段33に記憶されている基本学習データを
用い、更に主結合重み係数初期値記憶手段30、第1副
結合重み係数初期値記憶手段31及び第2副結合重み係
数初期値記憶手段32に記憶されているそれぞれ異なる
結合重み係数初期値を設定して学習させる。これによ
り、各ニューラルネットワーク手段6、7、10は、第
1の実施形態の場合と同様に、僅かにずれたカテゴリ分
離境界面を形成することが出来る。即ち、基本学習入力
データに近距離の近傍入力データに対して、僅かに異な
ったカテゴリ分離境界面を持った並列接続されたニュー
ラルネットワーク手段6、7、10からの主出力信号、
第1副出力信号及び第2副出力信号間の一致状態を調
べ、分離境界領域に近い入力データと離れた入力データ
とを区別する。
Therefore, only the different parts will be described below, focusing on the detailed configuration and operation. Each of the neural network means 6, 7, 10 uses the basic learning data stored in the learning data storage means 33, and further stores a main connection weight coefficient initial value storage means 30 and a first sub connection weight coefficient initial value storage means 31. And different initial values of the connection weighting factors stored in the second sub-connection weighting factor initial value storage means 32 are set and learned. As a result, each of the neural network means 6, 7, and 10 can form a slightly shifted category separation boundary surface as in the first embodiment. That is, the main output signals from the parallel-connected neural network means 6, 7, 10 having slightly different category separation boundaries for the neighboring input data at a short distance from the basic learning input data,
The matching state between the first sub-output signal and the second sub-output signal is checked, and input data near the separation boundary region and input data far from the separation boundary region are distinguished.

【0074】しかしながら、第1の実施形態と異なり、
全て同一教師信号配置を用いており、単に結合重み係数
初期値だけが異なった学習条件により得られたカテゴリ
分離境界面であることから、僅かにずれているものの多
くが似た分離境界面が形成される。この場合には、全出
力信号が一致した状態に於ても、参照教師信号とは異な
り誤答出力信号を発生しやすくなる。従って、第1の実
施形態より教師信号問い合わせ割当てが多くなるが、教
師信号割当て識別手段17に於て、同様の教師信号割当
て識別を行ない、近傍入力データに教師信号割当てを行
なうことが出来る。
However, unlike the first embodiment,
All use the same teacher signal constellation, and since only the initial value of the connection weight coefficient is a category separation boundary surface obtained under different learning conditions, a separation boundary surface that is slightly shifted but similar is formed. Is done. In this case, even when all the output signals match, unlike the reference teacher signal, a wrong answer output signal is easily generated. Therefore, although teacher signal inquiry assignment is larger than that in the first embodiment, teacher signal assignment identifying means 17 can perform similar teacher signal assignment identification and assign teacher signal to nearby input data.

【0075】第2の実施形態のプログラムの教師信号割
当て処理フローは、第1の実施形態に於ける教師信号割
当て処理フローに於ける変換学習データ処理52が不要
であり、すべて同じ基本学習データと、異なる結合重み
係数初期値をそれぞれのニューラルネットワーク手段に
設定し並列ニューラルネットワーク個別学習処理54、
55にて学習させる。また、出力変換処理59も不要で
あるが、その他の処理は、第1の実施形態のプログラム
に於ける処理フローと同一である。従って、ここでは、
これらの動作の説明は省略する。
The teacher signal allocation processing flow of the program according to the second embodiment does not require the conversion learning data processing 52 in the teacher signal allocation processing flow according to the first embodiment, and all of them have the same basic learning data. , Different initial values of the connection weighting factors are set in the respective neural network means, and the parallel neural network individual learning process 54,
Learning is performed at 55. The output conversion process 59 is also unnecessary, but the other processes are the same as the process flow in the program of the first embodiment. Therefore, here
The description of these operations is omitted.

【0076】第1の実施形態と同様に、近傍データに於
て、確認割当てモード及び問い合わせ割当てモードの場
合、或いは、更に再確認モードの場合のそれぞれ得られ
た近傍データ(生成データ)は、学習データとして記憶
してもよい。また、自動割当てモードで得られた近傍デ
ータは、テストデータとして記憶してもよい。これら学
習データを基本学習データと共に用いて、記憶されてい
る結合重み係数を設定し学習処理を、更にこれらテスト
データを用いてテスト処理をすることにより、並列ニュ
ーラルネットワーク手段の高性能化を図ることが簡単に
出来る。当然のことであるが並列接続されたニューラル
ネットワーク手段も高性能になる。
As in the first embodiment, in the neighborhood data, the neighborhood data (generation data) obtained in the confirmation assignment mode and the inquiry assignment mode, or further in the case of the reconfirmation mode, is learned. It may be stored as data. Further, the neighborhood data obtained in the automatic assignment mode may be stored as test data. By using these learning data together with the basic learning data, setting the stored connection weighting coefficients and performing learning processing, and further performing test processing using these test data, the performance of the parallel neural network means is improved. Can be easily done. Naturally, neural network means connected in parallel also have high performance.

【0077】上記の第1及び第2の実施形態に於て説明
したそれぞれの学習条件を組み合わせる、即ち、異なる
教師信号配置と異なる結合重み係数初期値とを組み合わ
せることも簡単に出来る。ここでは、詳細説明は省略す
るが、各ニューラルネットワーク手段6、7、10に対
して、第1の実施形態でのそれぞれ異なる教師信号配置
と、更に第2の実施形態でのそれぞれ異なる結合重み係
数初期値とを準備し、これらを用いて学習させる方法で
ある。個別学習処理が完了した後、並列接続し実行処理
を行なう際には、当然のことであるが、出力変換手段1
3、14を第1の実施形態と同様に用いる。このような
構成の基に、第1及び第2の実施形態と同様な教師信号
割当て識別を行なえばよい。各ニューラルネットワーク
手段6、7、10は、よりランダムな結合重み係数初期
値と異なる教師信号配置の環境下で学習が行われること
から、比較的安定にカテゴリ分離境界面をずらすことが
出来、分離境界領域周辺の近傍入力データをバランスよ
く検出することが出来る。
It is also easy to combine the respective learning conditions described in the first and second embodiments, that is, to combine different teacher signal arrangements with different initial values of connection weighting coefficients. Although not described in detail here, different neural network means 6, 7, 10 are provided with different teacher signal arrangements in the first embodiment and further different connection weighting factors in the second embodiment. This is a method of preparing initial values and learning using these. When the parallel connection and the execution processing are performed after the individual learning processing is completed, it is natural that the output conversion means 1
3, 14 are used in the same manner as in the first embodiment. Based on such a configuration, the same teacher signal assignment identification as in the first and second embodiments may be performed. Since each of the neural network means 6, 7, and 10 learns under the environment of the teacher signal arrangement different from the more random initial value of the connection weight coefficient, the category separation boundary surface can be relatively stably shifted. Near input data around the boundary area can be detected in a well-balanced manner.

【0078】上記の実施形態では、基本学習入力データ
からの距離が近い近傍入力データから順次生成する例を
示したが、与えられた距離内の近傍入力データのランダ
ム生成を用いてもよい。
In the above embodiment, an example has been shown in which the neighboring input data is sequentially generated from the nearby input data whose distance from the basic learning input data is short. However, random generation of nearby input data within a given distance may be used.

【0079】尚、上記の実施形態の出力一致状態検出手
段15及び教師信号一致状態検出手段16に於て、ここ
では、出力信号として、整数値を仮定して説明したが、
整数値に限るものではない。出力信号や教師信号が連続
値の場合には、並列された各ニューラルネットワーク手
段6、7、10に於ける出力層ユニット毎のユニット出
力信号間の差の絶対値や、或いはその合計が与えられた
条件を満たせば、一致したと判定すればよい。
In the output matching state detecting means 15 and the teacher signal matching state detecting means 16 of the above embodiment, the output signal has been described assuming an integer value.
It is not limited to an integer value. When the output signal or the teacher signal is a continuous value, the absolute value of the difference between the unit output signals of the output layer units in the parallel neural network means 6, 7, 10 or the sum thereof is given. If these conditions are satisfied, it may be determined that they match.

【0080】また、入力データ生成手段2に於て、近傍
入力データの生成の際に、対応した基本学習入力データ
との距離に関して、2値入力データを仮定しハミング距
離を用いた場合について説明したが、連続値の場合には
ユークリッド距離を、多値の場合にはリー距離をそれぞ
れ用いてもよい。並列度についても、上記の第1及び第
2の実施形態に於て、3並列の場合を具体的に説明した
が、この並列度に限るものではない。
Further, the case where the input data generating means 2 uses the Hamming distance assuming binary input data with respect to the distance to the corresponding basic learning input data when generating the neighboring input data is described. However, the Euclidean distance may be used for continuous values, and the Lie distance may be used for multi-valued values. As for the degree of parallelism, the case of three parallels has been specifically described in the first and second embodiments, but is not limited to this degree of parallelism.

【0081】更に、既存入力データ検出手段3に於て、
生成入力データ発生の度毎に、生成データ記憶手段4や
基本学習データ記憶手段1の衝突検索を行なうのではな
く、予め、衝突する生成入力データを生成する距離の範
囲内で調べ、衝突生成入力データを記憶し処理しても良
い。
Further, in the existing input data detecting means 3,
Instead of performing a collision search of the generated data storage unit 4 or the basic learning data storage unit 1 every time the generated input data is generated, a search is made in advance within the range of the distance in which the generated generated input data is generated. Data may be stored and processed.

【0082】[0082]

【発明の効果】以上述べたように、従来技術では、高性
能なニューラルネットワークを実現する為に必要とな
る、学習データやテストデータとしての多くの入力デー
タへの教師信号割当て作業に於て、ニューラルネットワ
ーク設計者が、学習データが形成するであろうカテゴリ
分離境界面の情報を全く利用することなく、単に準備さ
れた全ての入力データを見ながら、それぞれ教師信号割
当てを個々に決定しており、教師信号割当て作業が膨大
で多くの時間と労力を必要とする。また、入力データ規
模が大きくなると人為的な割当てミスも発生しやすい。
As described above, in the prior art, in the work of allocating teacher signals to many input data as learning data and test data, which is necessary for realizing a high-performance neural network, Neural network designers individually determine teacher signal assignments by simply looking at all prepared input data without using any information on the category separation boundary that would be formed by the training data. In addition, the task of allocating teacher signals is enormous and requires much time and labor. In addition, if the input data size is large, an artificial assignment error is likely to occur.

【0083】而も、準備された全ての入力データに対し
て単純な人為的な教師信号割当てを行なっているだけで
あることから、高い汎化能力を達成する為に有効な学習
データやカテゴリ分離境界領域情報の収集や、それを考
慮した近傍データの効率良い収集ができない。
Since only simple artificial teacher signal assignment is performed for all prepared input data, learning data and category separation effective for achieving high generalization ability are achieved. Collection of boundary area information and efficient collection of neighboring data in consideration of the information cannot be performed.

【0084】即ち、どのようなカテゴリ分離境界面をニ
ューラルネットワークが形成するかも全く解らない環境
下で、教師信号割当て作業を行っており、特に、高性能
で高い汎化性を得る為のシステマティックで効率の良い
学習データとテストデータの収集/選択を行なっていな
いことから、最適な学習とテストによる分離境界面形成
の迅速且つ効率的な実施やそれらに必要な演算量を削減
することもできない。
That is, the teacher signal assignment work is performed in an environment in which the neural network does not know what category separation boundary forms at all. In particular, a systematic method for obtaining high performance and high generalization is used. Since efficient collection and selection of learning data and test data are not performed, it is not possible to quickly and efficiently execute the formation of a separation boundary by optimal learning and testing, and to reduce the amount of computation required for them.

【0085】一方、本発明では、準備された、基本的且
つ主な特徴を持った基本学習入力データに対して予め学
習を行なったニューラルネットワーク手段を並列接続し
ていることから、それぞれのニューラルネットワーク手
段からの出力信号間の出力一致状態検出による、カテゴ
リ分離境界領域に近い入力データの検出や、更に全不一
致状態検出による、カテゴリ分離境界面形成の不十分さ
などの検出が出来る。また、並列出力された出力信号間
の出力一致状態と、参照教師信号と出力信号との一致状
態、即ち教師信号一致状態とを利用することから、カテ
ゴリ分離境界面の形成状況や出力信号の正誤答の推定な
どができ、教師信号の自動割当て、確認、問い合わせ、
更に生成入力データの衝突の際の再確認と、出力信号の
信頼度に応じて、教師信号割当てをシステマティックに
行なうことが出来る。
On the other hand, according to the present invention, the neural network means which has learned in advance the basic learning input data having the basic and main characteristics prepared in advance are connected in parallel. It is possible to detect input data close to the category separation boundary region by detecting an output coincidence state between output signals from the means, and to detect insufficient formation of a category separation boundary surface by detecting all mismatch states. Further, since the output matching state between the output signals output in parallel and the matching state between the reference teacher signal and the output signal, that is, the teacher signal matching state, are used, the formation state of the category separation boundary surface and the correctness of the output signal are used. Answer estimation, automatic assignment of teacher signals, confirmation, inquiry,
Further, it is possible to systematically assign a teacher signal according to the reconfirmation at the time of collision of generated input data and the reliability of an output signal.

【0086】即ち、教師信号割当て作業を行なう時に、
ニューラルネットワーク設計者は、ニューラルネットワ
ーク手段が形成する分離境界面の情報を得ながら、作業
を進めることが出来、自動割当ての場合は、殆ど注意を
必要とせず、確認の場合は、候補の教師信号を確認し、
問い合わせの場合は、注意深く教師信号を割当てするよ
う、また、生成入力データが衝突の際には、既存生成デ
ータに於ける教師信号割当ての再確認を設計者に要求す
ることが出来る。
That is, when performing the teacher signal assignment operation,
The neural network designer can proceed with the work while obtaining information on the separation boundary formed by the neural network means. In the case of automatic assignment, little attention is required. In the case of confirmation, the candidate teacher signal is used. Check
In the case of an inquiry, it is possible to request the designer to carefully assign a teacher signal, and to reconfirm the teacher signal assignment in the existing generated data when the generated input data collides.

【0087】従って、ニューラルネットワーク設計者に
よる正しい教師信号割当て作業を効率良く、而も作業ミ
スもなく行なうことが出来る。
Therefore, the correct teacher signal assignment work by the neural network designer can be performed efficiently and without any work mistake.

【0088】また、出力信号の確認や問い合わせ、更に
は再確認した入力データを学習データとして、優先的に
学習させ、特性改善を図ることが簡単に出来る。正答な
出力信号を送出する近傍入力データは、用いられた学習
データによりカテゴリ分離が正しくできていることを意
味することから、必ずしも学習に用いなくても良く、演
算量を大幅に削減することが出来る。従って、教師信号
の自動割当てが行われた近傍入力データとそれに対応付
けられた教師信号とをテストデータとして記憶し、汎化
特性の評価として用いることが出来る。
Further, it is easy to preferentially learn output data by confirming or inquiring, and furthermore, re-confirmed input data as learning data to improve characteristics. Neighboring input data that sends a correct output signal means that the category separation has been correctly performed by the learning data used, so that it is not always necessary to use it for learning, and the amount of computation can be significantly reduced. I can do it. Therefore, the neighborhood input data to which the teacher signal is automatically assigned and the teacher signal associated therewith can be stored as test data and used as evaluation of generalization characteristics.

【0089】以上述べたように、従来技術ではニューラ
ルネットワーク設計者の教師信号割当て作業が困難で且
つ作業量も膨大で、非常に多くの時間と労力を要し、而
も効果的な学習データの選択が困難で、高性能なニュー
ラルネットワーク手段を簡単に実現できなかったが、本
発明の並列ニューラルネットワークを用いた教師信号割
当て装置を利用することにより、膨大な入力データに対
する効果的な教師信号割当てと、正答出力送出能力や汎
化能力の向上に有効な学習データ及びテストデータの迅
速な収集/選択と、それに基づいた演算量の少ないニュ
ーラルネットワーク学習を行なうことが出来き、高性能
化と高汎化能力化が簡単に図れる。
As described above, in the prior art, it is difficult for a neural network designer to assign a teacher signal and the amount of work is enormous, requiring a great deal of time and effort, and effectively learning learning data. Although the selection is difficult and high-performance neural network means cannot be easily realized, the teacher signal allocating apparatus using the parallel neural network of the present invention makes it possible to effectively allocate teacher signal to a huge amount of input data. In addition, it is possible to quickly collect / select learning data and test data effective for improving correct answer output sending ability and generalization ability, and to perform neural network learning with a small amount of calculation based on the collection / selection. Generalization ability can be easily achieved.

【0090】従って、高性能で且つ高い汎化能力を持っ
たニューラルネットワークが必要となる実用分野に対し
て、非常に有効である。即ち、必要な学習データとテス
トデータの広範囲の収集が効果的に出来ることから、汎
化能力も簡単に改善でき、使用環境にあった実行処理ニ
ューラルネットワークを実現出来き、而も、保守性に優
れたシステム構築が出来る。
Therefore, the present invention is very effective in a practical field where a neural network having high performance and high generalization ability is required. In other words, since the necessary learning data and test data can be effectively collected over a wide range, the generalization ability can be easily improved, and an execution processing neural network suitable for the usage environment can be realized. An excellent system can be constructed.

【0091】この結果、各種パターン認識システムは無
論のこと、非常に高性能で高い汎化能力が要求される人
口知能システムやネットワーク障害検出探索システム、
ネットワークセキュリティシステム、情報検索システ
ム、画像処理システムなどへの幅広い応用ができるな
ど、その効果は非常に大きい。
As a result, it goes without saying that various pattern recognition systems are required, such as artificial intelligence systems, network fault detection and search systems,
Its effects are very large, as it can be widely applied to network security systems, information retrieval systems, image processing systems, and the like.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施形態におけるニューラルネ
ットワーク教師信号割当て装置の1構成例である。
FIG. 1 is a configuration example of a neural network teacher signal assignment device according to a first embodiment of the present invention.

【図2】従来技術よるニューラルネットワーク教師信号
割当て装置である。
FIG. 2 is a conventional neural network teacher signal allocating device.

【図3】本発明の第2の実施形態におけるニューラルネ
ットワーク教師信号割当て装置の1構成例である。
FIG. 3 is a configuration example of a neural network teacher signal assignment device according to a second embodiment of the present invention.

【図4】第1の実施形態に於ける教師信号割当て処理フ
ローである。
FIG. 4 is a flowchart of a teacher signal assignment process according to the first embodiment.

【符号の説明】[Explanation of symbols]

1 基本学習データ記憶手段 2 入力データ生成手段 3 既存入力データ検出手段 4 生成データ記憶手段 5 主教師信号記憶手段 6 主ニューラルネットワーク手段 7 副第1ニューラルネットワーク手段 8 副第1教師信号記憶手段 9 教師信号配置変換手段 10 副第2ニューラルネットワーク手段 11 副第2教師信号記憶手段 12 教師信号配置変換手段 13 出力変換手段 14 出力変換手段 15 出力一致状態検出手段 16 教師信号一致状態検出手段 17 教師信号割当て識別手段 20 データ表示入力処理手段 30 主結合重み係数初期値記憶手段 31 第1副結合重み係数初期値記憶手段 32 第2副結合重み係数初期値記憶手段 33 学習データ記憶手段 37 入力データ生成手段 38 既存入力データ検出手段 39 生成データ記憶手段 40 データ表示入力処理手段 51 プログラム記憶媒体 52 変換学習データ処理 53 ニューラルネットワーク学習パラメータ設定処理 54 並列ニューラルネットワーク個別学習処理 55 近傍入力データ生成処理 56 既存近傍入力データ検出処理 57 並列ニューラルネットワーク実行処理 59 出力変換処理 60 出力一致状態検出処理 61 教師信号一致状態検出処理 62 教師信号割当て識別処理 63 データ表示入力処理 64 近傍データ格納処理 65 近傍入力データ全生成判定処理 66 最終基本学習入力データ判定処理 67 次基本学習入力データ設定処理 68 距離判定処理 69 距離増加設定処理 DESCRIPTION OF SYMBOLS 1 Basic learning data storage means 2 Input data generation means 3 Existing input data detection means 4 Generated data storage means 5 Main teacher signal storage means 6 Main neural network means 7 Secondary first neural network means 8 Secondary first teacher signal storage means 9 Teacher Signal arrangement conversion means 10 Secondary second neural network means 11 Secondary second teacher signal storage means 12 Teacher signal arrangement conversion means 13 Output conversion means 14 Output conversion means 15 Output coincidence state detection means 16 Teacher signal coincidence state detection means 17 Teacher signal assignment Identification means 20 data display input processing means 30 main connection weight coefficient initial value storage means 31 first sub-connection weight coefficient initial value storage means 32 second sub-connection weight coefficient initial value storage means 33 learning data storage means 37 input data generation means 38 Existing input data detection means 39 Generated data storage Step 40 Data display input processing means 51 Program storage medium 52 Conversion learning data processing 53 Neural network learning parameter setting processing 54 Parallel neural network individual learning processing 55 Neighbor input data generation processing 56 Existing neighbor input data detection processing 57 Parallel neural network execution processing 59 Output conversion processing 60 Output coincidence state detection processing 61 Teacher signal coincidence state detection processing 62 Teacher signal assignment identification processing 63 Data display input processing 64 Neighbor data storage processing 65 Neighbor input data all generation determination processing 66 Final basic learning input data determination processing 67 Next Basic learning input data setting processing 68 Distance judgment processing 69 Distance increase setting processing

Claims (14)

【特許請求の範囲】[Claims] 【請求項1】 基本学習入力データと分類カテゴリに対
応した教師信号とを基本学習データとし、 該基本学習データと異なる結合重み係数初期値とを用い
て学習させ、並列接続された2つ以上のニューラルネッ
トワーク手段(6、7、10)と、 前記基本学習入力データを基に生成入力データを発生す
る入力データ生成手段(2)と、 該生成入力データを入力し、前記並列接続されたニュー
ラルネットワーク手段(6、7、10)からそれぞれ送
出される出力信号間の出力一致状態を検出し出力一致状
態信号を送出する出力一致状態検出手段(15)と、 該生成入力データの基となった基本学習入力データに対
応した教師信号と該出力信号との間の教師信号一致状態
を検出し教師信号一致状態信号を送出する教師信号一致
状態検出手段(16)と、 少なくとも該出力一致状態信号と該教師信号一致状態信
号とを該生成入力データへの教師信号割当ての為に識別
する教師信号割当て識別手段(17)とを少なくとも具
備し、少なくとも該識別の結果を基に該生成入力データ
に教師信号を割当てることを特徴とするニューラルネッ
トワーク教師信号割当て装置。
1. Basic learning input data and a teacher signal corresponding to a classification category are used as basic learning data, and learning is performed using the basic learning data and a different initial value of a connection weight coefficient. Neural network means (6, 7, 10); input data generating means (2) for generating generated input data based on the basic learning input data; and the parallel connected neural network receiving the generated input data Output matching state detecting means (15) for detecting an output matching state between output signals respectively sent from the means (6, 7, 10) and sending out an output matching state signal; A teacher signal matching state detecting means (1) for detecting a teacher signal matching state between the teacher signal corresponding to the learning input data and the output signal and transmitting a teacher signal matching state signal. ), And at least a teacher signal assignment identifying means (17) for identifying the output coincidence state signal and the teacher signal coincidence state signal for assignment of the teacher signal to the generated input data. A neural network teacher signal assignment device, wherein a teacher signal is assigned to the generated input data based on a result.
【請求項2】 基本学習入力データと分類カテゴリに対
応した教師信号とを基本学習データとし、該基本学習デ
ータで学習させ主出力信号を送出する主ニューラルネッ
トワーク手段(6)と、 互いに異なる変換則により該基本学習データの教師信号
配置を変換し該基本学習入力データに教師信号を割当て
た変換学習データを学習させ、前記主ニューラルネット
ワーク手段(6)と並列接続された1つ以上の副ニュー
ラルネットワーク手段(7、10)と、 前記基本学習入力データを基に生成入力データを発生す
る入力データ生成手段(2)と、 該副ニューラルネットワーク手段(7、10)の出力信
号を、該変換学習データの教師信号配置を該基本学習デ
ータの教師信号配置となるよう変換する逆変換則により
変換し変換出力信号を送出する出力変換手段(13、1
4)と、 該生成入力データを該並列接続されたニューラルネット
ワーク手段(6、7、10)に入力し、得られた該主出
力信号と該変換出力信号間の出力一致状態を検出し出力
一致状態信号を送出する出力一致状態検出手段(15)
と、 該生成入力データの基となった基本学習入力データに対
応した教師信号と該主及び変換出力信号との間の教師信
号一致状態を検出し教師信号一致状態信号を送出する教
師信号一致状態検出手段(16)と、 少なくとも該出力一致状態信号と該教師信号一致状態信
号とを該生成入力データへの教師信号割当ての為識別す
る教師信号割当て識別手段(17)とを少なくとも具備
し、少なくとも該識別の結果を基に該生成入力データに
教師信号を割当てることを特徴とするニューラルネット
ワーク教師信号割当て装置。
2. A main neural network means (6) for using basic learning input data and a teacher signal corresponding to a classification category as basic learning data, learning with the basic learning data and transmitting a main output signal, and different conversion rules. Transforms the teacher signal arrangement of the basic learning data, and trains the conversion learning data in which the teacher signal is assigned to the basic learning input data. One or more sub-neural networks connected in parallel with the main neural network means (6) Means (7, 10); input data generating means (2) for generating generation input data based on the basic learning input data; output signals of the sub-neural network means (7, 10); Is converted according to the inverse conversion rule of converting the teacher signal arrangement of the basic learning data into the teacher signal arrangement, and a converted output signal is transmitted. Output conversion means (13, 1
And 4) inputting the generated input data to the neural network means (6, 7, 10) connected in parallel, detecting an output matching state between the obtained main output signal and the converted output signal, and matching the output. Output coincidence state detection means for transmitting a state signal (15)
A teacher signal matching state for detecting a teacher signal matching state between the teacher signal corresponding to the basic learning input data on which the generated input data is based and the main and converted output signals and transmitting a teacher signal matching state signal Detecting means (16), and at least a teacher signal assignment identifying means (17) for identifying the output coincidence state signal and the teacher signal coincidence state signal for assignment of the teacher signal to the generated input data. A neural network teacher signal assignment device, wherein a teacher signal is assigned to the generated input data based on the result of the identification.
【請求項3】 前記ニューラルネットワーク手段(6、
7、10)に於て、それぞれ異なる結合重み係数初期値
を設定して前記基本学習入力データを用い学習させたこ
とを特徴とする請求項2に記載のニューラルネットワー
ク教師信号割当て装置。
3. The neural network means (6,
7. The neural network teacher signal allocating apparatus according to claim 2, wherein in (7) and (10), different connection weighting coefficient initial values are set and learning is performed using the basic learning input data.
【請求項4】 前記ニューラルネットワーク手段(6、
7、10)に於て、同一の結合重み係数初期値を設定し
て前記基本学習入力データを用い学習させたことを特徴
とする請求項2に記載のニューラルネットワーク教師信
号割当て装置。
4. The neural network means (6,
7. The neural network teacher signal allocating apparatus according to claim 2, wherein the same connection weighting coefficient initial value is set and learning is performed using the basic learning input data.
【請求項5】 前記出力一致状態検出手段(15)に於
て入力された全ての前記出力信号が一致したことを示す
出力一致状態信号と、更に、前記教師信号一致状態検出
手段(16)に於て入力された前記生成入力データの基
となった基本学習入力データに対応した前記教師信号と
該出力信号とが一致したことを示す教師信号一致状態信
号とが、前記教師信号割当て識別手段(17)に於て入
力されると、これを識別し、該生成入力データに該教師
信号を割当てることを特徴とする請求項1、2、3及び
4の何れかに記載のニューラルネットワーク教師信号割
当て装置。
5. An output coincidence state signal indicating that all of the output signals input by the output coincidence state detection means (15) coincide with each other, and further, the teacher signal coincidence state detection means (16) The teacher signal corresponding to the basic learning input data on which the generated input data is input and a teacher signal matching state signal indicating that the output signal is matched with the teacher signal assignment identifying means ( The neural network teacher signal assignment according to any one of claims 1, 2, 3 and 4, wherein when the signal is inputted in (17), the input signal is identified and the teacher signal is assigned to the generated input data. apparatus.
【請求項6】 前記生成入力データと割当てられた前記
教師信号とを第3の生成データとして記憶することを特
徴とする請求項5に記載のニューラルネットワーク教師
信号割当て装置。
6. The neural network teacher signal allocating apparatus according to claim 5, wherein said generated input data and said assigned teacher signal are stored as third generated data.
【請求項7】 前記出力一致状態検出手段(15)に於
て入力された前記出力信号の少なくとも何れかが異なる
ことを示す出力一致状態信号と、前記教師信号一致状態
検出手段(16)に於て入力された少なくともいずれか
の該出力信号が前記生成入力データの基となった前記基
本学習入力データに対応した前記教師信号と一致したこ
とを示す教師信号一致状態信号とが、前記教師信号割当
て識別手段(17)に於て入力されると、これを識別
し、 更に、いずれの前記出力信号も前記生成入力データの基
となった前記基本学習入力データに対応した前記教師信
号と不一致であることを示す教師信号一致状態信号が前
記教師信号割当て識別手段(17)に於て入力される
と、これを識別し、 前記第1の教師割当て要求信号と第2の教師信号割当て
要求信号の、少なくとも一方を送出し、 外部から入力された情報を基に該生成入力データに教師
信号を割当てることを特徴とする請求項1、2、3、
4、5及び6の何れかに記載のニューラルネットワーク
教師信号割当て装置。
7. An output coincidence state signal indicating that at least one of the output signals input to the output coincidence state detection means (15) is different, and an output coincidence state detection means (16). And a teacher signal matching state signal indicating that at least one of the output signals received as input matches the teacher signal corresponding to the basic learning input data on which the generated input data is based. When input by the identification means (17), the identification signal is identified, and further, any of the output signals does not match the teacher signal corresponding to the basic learning input data on which the generated input data is based. When the teacher signal assignment state signal indicating the above is input to the teacher signal assignment identifying means (17), it is identified, and the first teacher assignment request signal and the second teacher signal assignment are identified. The request signal, transmits at least one, claim, characterized in that assigning a teacher signal to the generating input data based on information inputted from the outside 1,2,3,
7. The neural network teacher signal allocating device according to any one of 4, 5, and 6.
【請求項8】 前記第1の教師信号割当て要求信号を基
に、割当てられた前記教師信号と前記生成入力データと
を第1の生成データとし、前記第2の教師信号割当て要
求信号を基に、割当てられた前記教師信号を第2の生成
データとしてそれぞれ記憶することを特徴とする請求項
7に記載のニューラルネットワーク教師信号割当て装
置。
8. A method according to claim 1, wherein said assigned teacher signal and said generated input data are defined as first generated data based on said first teacher signal allocation request signal, and said second teacher signal allocation request signal is determined based on said second teacher signal allocation request signal. The neural network teacher signal allocating apparatus according to claim 7, wherein the allocated teacher signal is stored as second generated data.
【請求項9】 前記入力データ生成手段(2)で生成さ
れた前記生成入力データと、記憶された既存の前記生成
データの既存生成入力データとが一致すると、既存入力
データ検出信号を前記教師信号割当て識別手段(17)
へ送出する既存入力データ検出手段(3)を設け、前記
教師信号割当て識別手段(17)に於て、該既存入力デ
ータ検出信号を識別すると、教師信号割当て再確認要求
信号を送出し、 外部から正しい教師信号が入力されると、該教師信号を
該既存生成入力データに割当て、記憶されている既存の
前記生成データを書き換え記憶することを特徴とする請
求項6及び8の何れかに記載のニューラルネットワーク
教師信号割当て装置。
9. When the generated input data generated by the input data generating means (2) matches the existing generated input data of the stored existing generated data, the existing input data detection signal is changed to the teacher signal. Assignment identification means (17)
When the existing input data detection signal is identified by the teacher signal assignment identification means (17), a teacher signal assignment reconfirmation request signal is sent out from the outside. 9. The method according to claim 6, wherein when a correct teacher signal is input, the teacher signal is assigned to the existing generated input data, and the stored existing generated data is rewritten and stored. Neural network teacher signal assignment device.
【請求項10】 基本学習入力データと分類カテゴリに
対応した教師信号とを基本学習データとし、 該基本学習データと異なる結合重み係数初期値とを用い
て学習させ、並列接続された2つ以上のニューラルネッ
トワーク処理と、 前記基本学習入力データを基に生成入力データを発生す
る入力データ生成処理と、 該生成入力データを入力し、前記並列接続されたニュー
ラルネットワーク処理からそれぞれ送出される出力信号
間の出力一致状態を検出し出力一致状態信号を送出する
出力一致状態検出処理と、 該生成入力データの基となった基本学習入力データに対
応した教師信号と該出力信号との間の教師信号一致状態
を検出し教師信号一致状態信号を送出する教師信号一致
状態検出処理と、 少なくとも該出力一致状態信号と該教師信号一致状態信
号とを該生成入力データへの教師信号割当ての為に識別
する教師信号割当て識別処理とを少なくとも行なうプロ
グラムを具備し、少なくとも該識別の結果を基に該生成
入力データに教師信号を割当てることを特徴とするニュ
ーラルネットワーク教師信号割当て処理を実行するプロ
グラムを記憶した記録媒体。
10. Basic learning input data and a teacher signal corresponding to a classification category are used as basic learning data, and learning is performed using the basic learning data and a different initial value of a connection weight coefficient. Neural network processing, input data generating processing for generating generated input data based on the basic learning input data, and inputting the generated input data between output signals respectively output from the parallel-connected neural network processing. An output matching state detection process for detecting an output matching state and transmitting an output matching state signal, and a teacher signal matching state between a teacher signal corresponding to basic learning input data on which the generated input data is based and the output signal And a teacher signal matching state detection process for sending a teacher signal matching state signal, and at least the output matching state signal and the teacher signal matching state signal. A program for performing at least a teacher signal assignment identification process for identifying a status signal for assignment of a teacher signal to the generated input data, and allocating a teacher signal to the generated input data based on at least the result of the identification. A recording medium storing a program for executing a neural network teacher signal assignment process characterized by the above-mentioned.
【請求項11】 基本学習入力データと分類カテゴリに
対応した教師信号とを基本学習データとし、該基本学習
データで学習させ主出力信号を送出する主ニューラルネ
ットワーク処理と、 互いに異なる変換則により該基本学習データの教師信号
配置を変換し該基本学習入力データに教師信号を割当て
た変換学習データを学習させ、前記主ニューラルネット
ワーク処理と並列接続された1つ以上の副ニューラルネ
ットワーク処理と、 前記基本学習入力データを基に生成入力データを発生す
る入力データ生成処理と、 該副ニューラルネットワーク処理の出力信号を、該変換
学習データの教師信号配置を該基本学習データの教師信
号配置となるよう変換する逆変換則により変換し変換出
力信号を送出する出力変換処理と、 該生成入力データを該並列接続されたニューラルネット
ワーク処理に入力し、得られた該主出力信号と該変換出
力信号間の出力一致状態を検出し出力一致状態信号を送
出する出力一致状態検出処理と、 該生成入力データの基となった基本学習入力データに対
応した教師信号と該主及び変換出力信号との間の教師信
号一致状態を検出し教師信号一致状態信号を送出する教
師信号一致状態検出処理と、 少なくとも該出力一致状態信号と該教師信号一致状態信
号とを該生成入力データへの教師信号割当ての為識別す
る教師信号割当て識別処理とを少なくとも行なうプログ
ラムを具備し、少なくとも該識別の結果を基に該生成入
力データに教師信号を割当てることを特徴とするニュー
ラルネットワーク教師信号割当て処理を実行するプログ
ラムを記憶した記憶媒体。
11. A main neural network process for using basic learning input data and a teacher signal corresponding to a classification category as basic learning data, learning with the basic learning data, and transmitting a main output signal; One or more sub-neural network processes connected in parallel with the main neural network process, by converting a teacher signal arrangement of the learning data and learning conversion learning data in which a teacher signal is assigned to the basic learning input data; An input data generation process of generating generation input data based on the input data; and an inverse process of converting an output signal of the sub-neural network process so that a teacher signal arrangement of the conversion learning data becomes a teacher signal arrangement of the basic learning data. An output conversion process of converting according to a conversion rule and sending out a converted output signal; An output matching state detecting process for inputting to the connected neural network processing, detecting an output matching state between the obtained main output signal and the converted output signal, and sending out an output matching state signal; A teacher signal matching state detection process for detecting a teacher signal matching state between the teacher signal corresponding to the basic learning input data and the main and converted output signals and transmitting a teacher signal matching state signal; A program for performing at least a teacher signal assignment identifying process for identifying a state signal and the teacher signal matching state signal for assignment of the teacher signal to the generated input data, and at least based on the result of the identification, A storage medium storing a program for executing a neural network teacher signal assigning process, wherein a teacher signal is assigned to the same.
【請求項12】 前記出力一致状態検出処理に於て入力
された全ての前記出力信号が一致したことを示す出力一
致状態信号と、更に、前記教師信号一致状態検出処理に
於て入力された前記生成入力データの基となった基本学
習入力データに対応した前記教師信号と該出力信号とが
一致したことを示す教師信号一致状態信号とが、前記教
師信号割当て識別処理に於て入力されると、これを識別
し、該生成入力データに該教師信号を割当てることを特
徴とする請求項10及び11の何れかに記載のニューラ
ルネットワーク教師信号割当て処理を実行するプログラ
ムを記憶した記憶媒体。
12. An output match state signal indicating that all of the output signals input in the output match state detection processing match each other, and further, an output match state signal input in the teacher signal match state detection processing. When the teacher signal corresponding to the basic learning input data on which the generated input data is based and the teacher signal matching state signal indicating that the output signal matches are input in the teacher signal assignment identification processing. 12. The storage medium storing a program for executing a neural network teacher signal assignment process according to claim 10, wherein the program is identified and the teacher signal is assigned to the generated input data.
【請求項13】 前記出力一致状態検出処理に於て入力
された前記出力信号の少なくとも何れかが異なることを
示す出力一致状態信号と、前記教師信号一致状態検出処
理に於て入力された少なくともいずれかの該出力信号が
前記生成入力データの基となった前記基本学習入力デー
タに対応した前記教師信号と一致したことを示す教師信
号一致状態信号とが、前記教師信号割当て識別処理に於
て入力されると、これを識別し、 更に、いずれの前記出力信号も前記生成入力データの基
となった前記基本学習入力データに対応した前記教師信
号と不一致であることを示す教師信号一致状態信号が前
記教師信号割当て識別処理に於て入力されると、これを
識別し、 前記第1の教師信号割当て要求信号と、第2の教師信号
割当て要求信号の、少なくとも一方を送出し、 外部から入力された情報を基に該生成入力データに教師
信号を割当てることを特徴とする請求項10、11及び
12の何れかに記載のニューラルネットワーク教師信号
割当て処理を実行するプログラムを記憶した記憶媒体。
13. An output match state signal indicating that at least one of the output signals input in the output match state detection processing is different, and at least one of the output signal input in the teacher signal match state detection processing. A teacher signal matching state signal indicating that the output signal matches the teacher signal corresponding to the basic learning input data on which the generated input data is based; Then, a teacher signal matching state signal indicating that any of the output signals does not match the teacher signal corresponding to the basic learning input data on which the generated input data is based is identified. When input in the teacher signal assignment identifying process, the input signal is identified, and at least one of the first teacher signal assignment request signal and the second teacher signal assignment request signal is identified. 13. The neural network teacher signal assignment process according to claim 10, wherein a teacher signal is assigned to the generated input data based on information input from the outside. A storage medium that stores a program.
【請求項14】 前記生成入力データと前記割当てられ
た教師信号とを生成データとして、記憶しておき、前記
入力データ生成処理で生成された前記生成入力データ
と、記憶された既存の前記生成データの既存生成入力デ
ータとが一致すると、既存入力データ検出信号を前記教
師信号割当て識別処理へ送出する既存入力データ検出処
理を設け、前記教師信号割当て識別処理に於て、該既存
入力データ検出信号を識別すると、教師信号割当て再確
認要求信号を送出し、 外部から正しい教師信号が入力されると、該教師信号を
該既存生成入力データに割当て、記憶されている既存の
前記生成データを書き換え記憶することを特徴とする請
求項10、11、12及び13の何れかに記載のニュー
ラルネットワーク教師信号割当て処理を実行するプログ
ラムを記憶した記憶媒体。
14. The generated input data and the assigned teacher signal are stored as generated data, and the generated input data generated in the input data generating process and the stored existing generated data are stored. When there is a match with the existing generated input data, an existing input data detection process for sending an existing input data detection signal to the teacher signal assignment identification process is provided. In the teacher signal assignment identification process, the existing input data detection signal Upon identification, a teacher signal assignment reconfirmation request signal is transmitted. When a correct teacher signal is input from the outside, the teacher signal is assigned to the existing generated input data, and the stored existing generated data is rewritten and stored. 14. A program for executing a neural network teacher signal assignment process according to claim 10, wherein The storage medium storing the ram.
JP2001164704A 2001-05-31 2001-05-31 Allocation device for neural network tutor signal and storage medium stored with program thereof Withdrawn JP2002358499A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001164704A JP2002358499A (en) 2001-05-31 2001-05-31 Allocation device for neural network tutor signal and storage medium stored with program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001164704A JP2002358499A (en) 2001-05-31 2001-05-31 Allocation device for neural network tutor signal and storage medium stored with program thereof

Publications (1)

Publication Number Publication Date
JP2002358499A true JP2002358499A (en) 2002-12-13

Family

ID=19007489

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001164704A Withdrawn JP2002358499A (en) 2001-05-31 2001-05-31 Allocation device for neural network tutor signal and storage medium stored with program thereof

Country Status (1)

Country Link
JP (1) JP2002358499A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021043888A (en) * 2019-09-13 2021-03-18 Kddi株式会社 Classification apparatus, learning apparatus, method, and program
CN113673803A (en) * 2020-05-13 2021-11-19 丰田自动车株式会社 Vehicle distribution device, vehicle and terminal

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021043888A (en) * 2019-09-13 2021-03-18 Kddi株式会社 Classification apparatus, learning apparatus, method, and program
JP7118938B2 (en) 2019-09-13 2022-08-16 Kddi株式会社 CLASSIFIER, LEARNING DEVICE, METHOD AND PROGRAM
CN113673803A (en) * 2020-05-13 2021-11-19 丰田自动车株式会社 Vehicle distribution device, vehicle and terminal
CN113673803B (en) * 2020-05-13 2024-05-28 丰田自动车株式会社 Car distribution device, car and terminal

Similar Documents

Publication Publication Date Title
Olson Recognizing places using spectrally clustered local matches
CN110516718A (en) The zero sample learning method based on depth embedded space
CN113011973B (en) Method and equipment for financial transaction supervision model based on intelligent contract data lake
CN102721941A (en) Method for fusing and diagnosing fault information of circuit of electric meter on basis of SOM (self-organized mapping) and D-S (Dempster-Shafer) theories
CN114528896A (en) Model training method, data enhancement method, device, electronic equipment and storage medium
CN117472789B (en) Software defect prediction model construction method and device based on ensemble learning
CN112801268B (en) Positioning method based on graph convolution and multilayer perceptron hybrid network
CN110084423A (en) A kind of link prediction method based on local similarity
JP2001051969A (en) Neural network means having right/wrong answer discriminating function
JP2002358499A (en) Allocation device for neural network tutor signal and storage medium stored with program thereof
JP2002342739A (en) Neural network processing system through communication network and program storage medium with its program stored
CN111026919A (en) Adaptive two-stage weighted target community discovery and detection method based on double views
CN115470333A (en) Knowledge reasoning question-answering method fusing semantic information
CN115601745A (en) Multi-view three-dimensional object identification method facing application end
JP3855665B2 (en) Parallel neural network processing system with output state judgment function
Rogova et al. Distributed reinforcement learning for sequential decision making
CN115455302A (en) Knowledge graph recommendation method based on optimized graph attention network
JP3855580B2 (en) Parallel neural network device
CN112437485B (en) Positioning method and device of fingerprint space interpolation method based on neural network
Canales et al. Modification of the growing neural gas algorithm for cluster analysis
Nasir et al. An improved multi-objective optimization algorithm based on fuzzy dominance for risk minimization in biometric sensor network
Nashnush et al. EBNO: Evolution of cost‐sensitive Bayesian networks
JP2004252646A (en) Parallel neural network means having correct/wrong answer deciding function
JP2001175636A (en) Method and device for optimizing number of multi- layered neural network units
Vijjappu Distributed decentralised visual SLAM for multi-agent systems

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080805