JPH06309293A - Constituting method for multilayer structure type neural network - Google Patents

Constituting method for multilayer structure type neural network

Info

Publication number
JPH06309293A
JPH06309293A JP5099693A JP9969393A JPH06309293A JP H06309293 A JPH06309293 A JP H06309293A JP 5099693 A JP5099693 A JP 5099693A JP 9969393 A JP9969393 A JP 9969393A JP H06309293 A JPH06309293 A JP H06309293A
Authority
JP
Japan
Prior art keywords
neural network
partial
rule
learning
connection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5099693A
Other languages
Japanese (ja)
Inventor
Mina Maruyama
美奈 丸山
Nobuo Tsuda
伸生 津田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP5099693A priority Critical patent/JPH06309293A/en
Publication of JPH06309293A publication Critical patent/JPH06309293A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To easily constitute in a little learning processing time and a little processes for even the multilayer structure type neural network of four layers or more having a complicated classifying function by operating a learning processing by using an appropriate learning sample for each small-scaled neural network in which logically organized initial classifying functions are set. CONSTITUTION:This device is equipped with a partial neural network 108 and a connecting neural network 109, and a total assembling processing 800 is performed by each output. Then, a learning processing 700 is performed to each partial neural network 108 by using a corresponding partial sample group 107. Afterwards, the connecting neural network 109 is connected with the partial neural network 108, and the total assembling processing 800 of the multilayer structure type neural network is performed, or the total assembling processing 800 is performed and then a learning processing 900 is performed to each partial neural network 108 by using the corresponding partial sample group 107.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、多層構造型ニューラル
ネットワークの構成方法に係り、特に、多次元特徴ベク
トルで表現された対象データの分類処理を行う多層構造
型ニューラルネットワークの構成方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for constructing a multi-layered neural network, and more particularly to a method for constructing a multi-layered neural network for classifying target data represented by multidimensional feature vectors.

【0002】[0002]

【従来の技術】従来より、データの分類処理を目的に、
多層構造型ニューラルネットワークが用いられている。
このような多層構造型ニューラルネットワークの構成に
ついて説明する。
2. Description of the Related Art Conventionally, for the purpose of data classification processing,
A multilayer structure type neural network is used.
The configuration of such a multilayer structure neural network will be described.

【0003】図9は多層構造型ニューラルネットワーク
の構成例を示す図である。
FIG. 9 is a diagram showing an example of the structure of a multilayer structure type neural network.

【0004】同図のニューラルネットワークは、分類対
象データのベクトル要素を入力する入力層11、分類結
果を出力する出力層12、入力層11と出力層12の間
には、1層乃至それ以上の中間層13により構成され
る。各層のユニット10の入力は、その前段の層の各々
のユニットの出力に結合されている。各々のユニットの
出力は以下の式に従って決定される。
The neural network shown in FIG. 1 has an input layer 11 for inputting vector elements of classification target data, an output layer 12 for outputting classification results, and one or more layers between the input layer 11 and the output layer 12. It is composed of the intermediate layer 13. The input of the unit 10 in each layer is coupled to the output of each unit in the preceding layer. The output of each unit is determined according to the following equation.

【0005】[0005]

【数1】 [Equation 1]

【0006】ここで、oj (k) は、k層(k≧1、k=
1が入力層)のj番目のユニットの出力値、w
ij (k) は、k−1層のi番目のユニットからk層のj番
目のユニットへの結合荷重、N(k-1) は、k−1層のユ
ニットの総数である。但し、w0j (k) はk層のj番目に
ユニットにバイアスを与えるための結合荷重で、o0
(k-1) は常に1とする。
Here, o j (k) is k layers (k ≧ 1, k =
1 is the output value of the j-th unit in the input layer), w
ij (k) is the coupling load from the i-th unit of the k-1 layer to the j-th unit of the k layer, and N (k-1) is the total number of units of the k-1 layer. However, w 0j (k) is a coupling weight for biasing the j-th unit in the k-layer, and o 0
(k-1) is always 1.

【0007】また、入力層(k=1)の各ユニットは入
力されたベクトル要素の値をそのまま出力する。このよ
うなニューラルネットワークに対象データの分類処理を
行わせるには、入力層11のユニットに対象データのサ
ンプルのベクトル要素を与えた時に、そのサンプルが属
する分類カテゴリに対応する出力層ユニットのみが高い
値を出力し、他の出力層ユニットが低い値を出力するよ
うに、前述の各ユニット間の結合荷重値wij (k) を設定
する必要がある。
Each unit in the input layer (k = 1) outputs the input vector element value as it is. In order to cause such a neural network to perform the classification process of the target data, when the vector element of the sample of the target data is given to the unit of the input layer 11, only the output layer unit corresponding to the classification category to which the sample belongs is high. It is necessary to set the above-mentioned coupling load value w ij (k) between each unit so that the value is output and the other output layer units output a low value.

【0008】このため、多層構造型ニューラルネットワ
ークを構成するための従来の第1の方法として、対象デ
ータのサンプルのベクトル要素を入力したときの実際の
出力値と望ましい出力値の誤差が減少するように、結合
荷重値wij (k) を微少量ずつ繰り返し調整する逆誤差伝
搬学習方式が広く用いられている。
Therefore, as a first conventional method for constructing a multilayered neural network, an error between an actual output value and a desired output value when a vector element of a sample of target data is input is reduced. In addition, an inverse error propagation learning method is widely used in which the coupling weight value w ij (k) is repeatedly adjusted in small amounts.

【0009】この方法で用いる対象データのサンプルの
うち、学習に用いるものを学習サンプル群と呼ぶ。
Of the samples of the target data used in this method, those used for learning are called a learning sample group.

【0010】ここで、従来の第1の方法について説明す
る。
Here, the first conventional method will be described.

【0011】図10は従来の第1の方法のフローチャー
トを示す。まず、構造設定処理としてニューラルネット
ワークの層数k及び各層でのユニット数Nを設定する
(ステップ21)。次に、結合荷重ランダム設定処理と
して各ユニットの結合荷重値wij (k) にランダムな初期
値を設定する(ステップ22)。次に、逆誤差伝搬学習
方式により学習サンプル群を用いて事例学習を行い(学
習処理)、分類機能を設定する(ステップ23)。ここ
で、この従来の第1の方法における構造設定処理(ステ
ップ21)と結合荷重値ランダム設定処理(ステップ2
2)をランダム型形成処理(ステップ20)とする。
FIG. 10 shows a flowchart of the first conventional method. First, as a structure setting process, the number k of layers of the neural network and the number N of units in each layer are set (step 21). Next, a random initial value is set to the connection weight value w ij (k) of each unit as a connection weight random setting process (step 22). Next, case learning is performed using the learning sample group by the inverse error propagation learning method (learning processing), and the classification function is set (step 23). Here, the structure setting process (step 21) and the joint load value random setting process (step 2) in the conventional first method are performed.
2) is a random type forming process (step 20).

【0012】このように従来の第1の方法は、ニューラ
ルネットワークの層数やユニット数からなるニューラル
ネットワークの構造を経験に基づいて設定し、対象デー
タを分類するための分類機能の設定を事例学習で行う。
As described above, according to the first conventional method, the structure of the neural network including the number of layers and the number of units of the neural network is set based on experience, and the classification function for classifying the target data is set as a case study. Done in.

【0013】次に、従来の第2の方法について説明す
る。
Next, the second conventional method will be described.

【0014】従来の第2の方法は、対象データに関して
概ね正しいと考えられる比較と積和論理で表現された概
略分類規則が既知である場合に、この概略分類規則と等
価な初期分類機能を有するように、ニューラルネットワ
ークの構造と結合荷重値を初期設定し、しかる後、逆誤
差伝搬学習方式により学習サンプル群を用いた事例学習
を行い、結合荷重値を調整し、分類機能の詳細化を行う
ものである(特開平4−76660“ニューラルネット
ワークの学習方式”)。
The second conventional method has an initial classification function equivalent to the rough classification rule when the rough classification rule expressed by the comparison and product-sum logic that is considered to be almost correct for the target data is known. As described above, the structure of the neural network and the connection weight value are initialized, and after that, case learning using the learning sample group is performed by the inverse error propagation learning method, the connection weight value is adjusted, and the classification function is refined. (Japanese Patent Laid-Open No. 4-76660 "Neural Network Learning Method").

【0015】図11は従来の第2の方法のフローチャー
トを示す。
FIG. 11 shows a flowchart of the second conventional method.

【0016】今、対象データのベクトル要素x1,x
2,x3,x4から対象データのサンプルがカテゴリy
1,y2のいずれに属するかを分類する。以下の概ね正
しい概略分類規則が既知であるとする。 IF (x1≧a1) or (x2≧a2) THEN y’ (3) IF (y’and (x3≧x4) or (x4≧a3) THEN y’ (4) IF not y’or not (x4≧a3) THEN y2 (5) (a1,a2,a3は定数値) 規則(3)は、「(x1≧a1)または、(x2≧a
2)であれば、対象データのサンプルは、サブカテゴリ
y’に属する」ことを意味している。規則(4)は「対
象データのサンプルがサブカテゴリy’に属し、且つ
(x3≧x4)かまたは(x4≧a3)であれば当該サ
ンプルはカテゴリy1に属する」、規則(5)は「対象
データのサンプルがサブカテゴリy’に属さないか、ま
たは、(x4≧a3)でなければ当該サンプルはカテゴ
リy2に属する」ことを意味している。
Now, vector elements x1, x of the target data
The sample of the target data from 2, x3, x4 is the category y
Which of 1 and y2 it belongs to is classified. It is assumed that the following roughly correct rough classification rules are known. IF (x1 ≧ a1) or (x2 ≧ a2) THEN y ′ (3) IF (y′and (x3 ≧ x4) or (x4 ≧ a3) THEN y ′ (4) IF not y'or not (x4 ≧ a3 ) THEN y2 (5) (a1, a2, a3 are constant values) Rule (3) is “(x1 ≧ a1) or (x2 ≧ a
If it is 2), it means that the sample of the target data belongs to the subcategory y '. Rule (4) is “if the sample of the target data belongs to subcategory y ′ and (x3 ≧ x4) or (x4 ≧ a3), then the sample belongs to category y1”, rule (5) is “target data Of the sample does not belong to the sub-category y ′, or if (x4 ≧ a3), the sample belongs to the category y2 ”.

【0017】まず、規則/論理式変換処理は、これらの
規則はサブカテゴリを取り除いた論理式に変換され、さ
らに、以下の積和標準形論理式に変換される(ステップ
31)。
First, in the rule / logical formula conversion processing, these rules are converted into logical formulas with subcategories removed, and further converted into the following sum of products standard form logical formulas (step 31).

【0018】 y1=((x1≧a1)*(x3≧x4) +((x2≧a2)*(x3≧x4) +(x4≧a3) (6) y2=(¬(x1≧a1)*¬(x2≧a2)) +¬(x4≧a3) (7) ここで、¬は否定を示し、ニューラルネットワークで
は、ユニットの入力極性の反転で実現される。
Y1 = ((x1 ≧ a1) * (x3 ≧ x4) + ((x2 ≧ a2) * (x3 ≧ x4) + (x4 ≧ a3) (6) y2 = (¬ (x1 ≧ a1) * ¬ (X2 ≧ a2)) + ¬ (x4 ≧ a3) (7) Here, ¬ indicates negative, and is realized by reversing the input polarity of the unit in the neural network.

【0019】次に、初期構造形成処理は、この積和標準
形論理式に従ってニューラルネットワークの構造と結合
荷重値を以下の手順で設定する(ステップ32)。
Next, in the initial structure forming process, the structure of the neural network and the connection weight value are set in the following procedure according to this product-sum standard form logical expression (step 32).

【0020】ここで、従来の第2の方法によるニューラ
ルネットワークの例を示して説明する。図12は従来の
第2の方法によるニューラルネットワークの例を示す。
ニューラルネットワーク1の構造は、同図に示すよう
に、論理演算式の右辺に現れる変数毎に一つの入力層1
1のユニットを割り当てて入力ユニット41とし、比較
演算毎に一つの第1中間層13のユニットを割り当てて
比較ユニット43とし、乗法項毎に一つの第2中間層1
4のユニットを割り当て、加法項毎に出力層12のユニ
ットを割り当てて加法ユニット42が設定される。結合
荷重wの決定方法は、特開平4−76660に詳細に記
述されているが、ここでは設定のための計算式を示す。
An example of a neural network according to the second conventional method will be described below. FIG. 12 shows an example of a neural network according to the second conventional method.
The structure of the neural network 1 is, as shown in the figure, one input layer 1 for each variable appearing on the right side of the logical operation expression.
1 unit is assigned as an input unit 41, and one unit of the first intermediate layer 13 is assigned for each comparison operation to be a comparison unit 43. One second intermediate layer 1 is assigned for each multiplication term.
4 units are allocated, the units of the output layer 12 are allocated for each additive term, and the additive unit 42 is set. The method for determining the coupling load w is described in detail in Japanese Patent Laid-Open No. 4-76660, but here the calculation formula for setting is shown.

【0021】1.加法ユニット42(出力層12) n−入力加法ユニットを考える。入力信号Ii ,(1≦
i≦n)が、−1≦I i ≦−dの場合「偽」、d≦Ii
≦1]の場合「真」とする。出力信号oが、−1≦o≦
−d’の場合「偽」、d’≦o≦1]の場合「真」とす
る。以上の条件で、加法機能を実現するには、結合荷重
i (1≦i≦n)とバイアスw0 を以下のように設定
する。
1. Additive Unit 42 (Output Layer 12) Consider an n-input additive unit. Input signal Ii, (1 ≦
i ≦ n) is −1 ≦ I i“False” if ≦ −d, d ≦ Ii
In the case of ≦ 1], it is “true”. The output signal o is −1 ≦ o ≦
-False if d ', true if d'≤o≤1]
It Under the above conditions, to realize the additive function,
wi(1 ≦ i ≦ n) and bias w0Set as follows
To do.

【0022】[0022]

【数2】 [Equation 2]

【0023】但し、入力が否定項である場合(y=a+
¬bのb)は、wi =−wとする。また、dは、d>
(n−1)/(n+1)という条件を満たす必要があ
る。
However, when the input is a negative term (y = a +
In b) of b, w i = −w. Also, d is d>
It is necessary to satisfy the condition of (n-1) / (n + 1).

【0024】2.乗法ユニット44(第2中間層14) n,d,d’を加法の場合と同様に定義する。乗法機能
を実現するには、結合荷重wi (1≦i≦n)とバイア
スw0 を以下のように設定する。
2. Multiplication unit 44 (second intermediate layer 14) n, d, d ′ are defined in the same manner as in the case of addition. In order to realize the multiplicative function, the coupling weight w i (1 ≦ i ≦ n) and the bias w 0 are set as follows.

【0025】[0025]

【数3】 [Equation 3]

【0026】但し、入力が否定項である場合(y=a・
¬bのb)は、wi =−wとする。また、dは、d>
(n−1)/(n+1)という条件を満たす必要があ
る。
However, when the input is a negative term (y = a ·
In b) of b, w i = −w. Also, d is d>
It is necessary to satisfy the condition of (n-1) / (n + 1).

【0027】3.比較ユニット43(第1中間層13) 入力Iが定数Aより大きい時に「真」を出力するユニッ
トの結合荷重w1 とバイアスw0 の関係は以下のように
設定する。
3. Comparison unit 43 (first intermediate layer 13) The relation between the coupling load w 1 and the bias w 0 of the unit that outputs “true” when the input I is larger than the constant A is set as follows.

【0028】 w0 =−w1 A (12) なお、入力ユニット41は、従来の第1の方法と同様
に、入力がそのまま出力されるように設定する。また、
ユニット及びユニット間の結合には上記論理式に対応し
ない余分のものがあってもよく、これらの結合は上記で
設定した結合荷重よりも絶対値が充分小さいランダムな
値に設定する。また、論理式に乗法演算、或いは、加法
演算が含まれていない場合、その層は省略される。
W 0 = −w 1 A (12) The input unit 41 is set so that the input is output as it is, as in the first method of the related art. Also,
There may be extra units and couplings between the units that do not correspond to the above formula, and these couplings are set to random values whose absolute values are sufficiently smaller than the coupling loads set above. Further, when the logical expression does not include the multiplication operation or the addition operation, the layer is omitted.

【0029】次に、学習処理を行う。学習処理では、得
られたニューラルネットワーク1に対して従来の第1の
方法と同じ逆誤差伝搬学習方式により、学習サンプル群
を用いて学習を行い、結合荷重値の調整を行って分類機
能の詳細化を行う。なお、この学習処理では、従来の第
1の方法の場合より、一般に結合荷重の変更パラメータ
及び同一学習サンプルの学習回数は少なく設定する(ス
テップ23)。
Next, a learning process is performed. In the learning process, the obtained neural network 1 is learned by the same inverse error propagation learning method as the conventional first method using a learning sample group, and the weighting value is adjusted to classify the classification function in detail. To convert. In this learning process, generally, the parameter for changing the connection weight and the number of times of learning of the same learning sample are set to be smaller than those in the case of the first conventional method (step 23).

【0030】ここで、従来の第2の方法における規則/
論理式変換処理(ステップ31)と初期構造形成処理
(ステップ32)を機能埋め込み型形成処理(ステップ
30)と呼ぶ。
Here, the rule in the second conventional method /
The logical expression conversion process (step 31) and the initial structure formation process (step 32) are referred to as a function embedded type formation process (step 30).

【0031】このように、従来の第2の方法では、初期
分類機能を有するニューラルネットワークの構造が一義
的に設定され、事例学習は分類機能の詳細化のみに使用
される。
As described above, in the second conventional method, the structure of the neural network having the initial classification function is uniquely set, and the case learning is used only for refining the classification function.

【0032】[0032]

【発明が解決しようとする課題】しかしながら、上記の
多層構造型ニューラルネットワークの従来構成方法のう
ち、第1の方法は、ニューラルネットワークの層数やユ
ニット数からなる構造を経験に基づいて設定し、その分
類機能を設定を全て事例学習で行うため、妥当な分類精
度が得られるまでに学習を収束させるには、多大な学習
処理時間と工数を必要とするという問題がある。特に、
対象データを表現する特徴ベクトルの次元数、分類すべ
きカテゴリ数、カテゴリ毎のベクトル要素値の変動範
囲、特徴ベクトルの空間等が大きく、かつ設定すべき分
類機能が複雑な場合には、予め用意した範囲の対象デー
タの学習サンプル群では学習が収束せず、期待する分類
機能を設定できない場合が生じるという問題がある。
However, of the above-mentioned conventional methods of constructing a multilayered neural network, the first method is to set a structure consisting of the number of layers and the number of units of the neural network based on experience, Since all the classification functions are set by case learning, there is a problem that a large amount of learning processing time and man-hours are required to converge learning before obtaining appropriate classification accuracy. In particular,
Prepared in advance when the dimension number of the feature vector expressing the target data, the number of categories to be classified, the variation range of vector element values for each category, the space of feature vectors, etc. are large and the classification function to be set is complicated. There is a problem that the learning does not converge in the learning sample group of the target data in the range, and the expected classification function cannot be set in some cases.

【0033】一方、従来の第2の方法は、分類対象デー
タの概略分類規則が既知である場合に、多層構造型ニュ
ーラルネットワークを簡便に構成する方法である。この
方法では、初期分類機能を有するニューラルネットワー
クの構造が一義的に設定され、事例学習は、分類機能の
詳細化のみに用いられる。このため、第1の方法と比較
すれば、学習処理時間と工数は大幅に削減される。しか
し、特徴ベクトルがなす空間が大きくかつ、設定すべき
分類機能が複雑な場合には、従来の第1の方法の場合と
同様に、予め用意した範囲の対象データの学習サンプル
群では分類機能の詳細化のための学習が収束せず、分類
精度をかえって劣化させる場合が生じるという問題があ
る。
On the other hand, the second conventional method is a method of simply constructing a multilayer structure type neural network when the rough classification rule of the classification target data is known. In this method, the structure of the neural network having the initial classification function is uniquely set, and the case learning is used only for refining the classification function. Therefore, compared to the first method, the learning processing time and man-hours are significantly reduced. However, when the space formed by the feature vectors is large and the classification function to be set is complicated, the classification function of the learning sample group of the target data in the range prepared in advance is set as in the case of the first conventional method. There is a problem that the learning for refinement does not converge and the classification accuracy may deteriorate rather.

【0034】また、上記従来の第1及び第2の方法で事
例学習に用いる逆誤差伝搬学習方式で機能設定できる多
層構造型ニューラルネットワークの層数は、一般には入
力層を加えて4層程度であり、それ以上の多層構造型ニ
ューラルネットワークを容易に構成するには、何等かの
新規な発明を必要とする。
Further, the number of layers of the multilayer structure type neural network which can set the function by the inverse error propagation learning method used for case learning in the above-mentioned first and second conventional methods is generally about four layers including the input layer. Yes, some new inventions are needed to easily construct more multilayer neural networks.

【0035】本発明は、上記の点に鑑みなされたもの
で、上記従来の問題点を解決し、複雑な分類機能を有す
る4層以上の多層構造型ニューラルネットワークであっ
ても、少ない学習処理時間及び工数で、容易に実現で
き、さらに、対象を形状や色など多面的に観測する際の
分類処理用の多層構造型ニューラルネットワークをその
分類処理の論理的性質をそのまま反映し、容易に構成で
きる多層構造型ニューラルネットワークの構成方法を提
供することを目的とする。
The present invention has been made in view of the above points, and solves the above-mentioned problems of the related art, and even if it is a multilayer structure type neural network of four or more layers having a complicated classification function, a small learning processing time is required. It can be easily realized by the number of man-hours, and further, a multilayer structure type neural network for classification processing when observing an object in various aspects such as shape and color can be easily configured by directly reflecting the logical nature of the classification processing. It is an object of the present invention to provide a method for constructing a multilayered neural network.

【0036】[0036]

【課題を解決するための手段】図1は本発明の原理を説
明するための図である。
FIG. 1 is a diagram for explaining the principle of the present invention.

【0037】複数のベクトル要素から成る特徴ベクトル
で表現された対象データに関して、比較と積和論理で表
現された階層構造の概略分類規則が既知である場合に、
対象データの分類処理を行う多層構造型ニューラルネッ
トワークの構成方法であって、多層構造型ニューラルネ
ットワークの全体を、複数個の部分ニューラルネットワ
ークと部分ニューラルネットワークの出力を入力とする
接続ニューラルネットワークとを含むように構成する場
合に、概略分類規則の階層構造に応じて、特徴ベクトル
がなすベクトル空間101をベクトル要素の種類別或い
は、ベクトル要素のレベル別に複数個の部分空間102
に分割するベクトル空間分割処理100に準拠して、概
略分類規則103を、部分空間の相互の関係に対応する
接続規則104と、部分空間に対応する部分規則105
とに仕分ける概略規則仕分け処理200のステップと、
対象データの学習サンプル群106を部分空間の各々に
対応する部分サンプル群107に分割する学習サンプル
群分割処理300のステップと、部分空間102の数及
び部分サンプル群107ともとの学習サンプル群106
との関係に基づいて構成すべき部分ニューラルネットワ
ーク数と、部分ニューラルネットワークと接続ニューラ
ルネットワークとの接続関係を決定する全体構成決定処
理400ステップを行い、接続ニューラルネットワーク
109と、部分ニューラルネットワーク108のうち対
応する部分規則が存在するものについては、接続規則1
04と部分規則105の論理構造に応じて、予め比較、
積、和の論理機能のそれぞれを結合荷重値により設定し
てあるニューロンユニットを組み合わせることにより、
接続規則104と部分規則105と等価な初期分類機能
を有するニューラルネットワークを形成する機能埋め込
み型形成処理500のステップと、部分ニューラルネッ
トワークのうち対応する部分規則が存在しないものにつ
いては、ニューロンユニットの結合荷重値をランダムに
設定したニューラルネットワークを設置するランダム型
形成処理600のステップとを行い、部分ニューラルネ
ットワーク108の各々に対して、対応する部分サンプ
ル群107を用いて学習処理700を行い、しかる後
に、接続ニューラルネットワークと部分ニューラルネッ
トワークとを接続して多層構造型ニューラルネットワー
クの全体を組み上げる全体組み上げ処理800のステッ
プを行うか、または、全体組み上げ処理800のステッ
プを行い、しかる後に、部分ニューラルネットワークの
各々に対して、対応する部分サンプル群107を用いて
学習処理900のステップを行う。
When the rough classification rule of the hierarchical structure represented by the comparison and product-sum logic is known for the target data represented by the feature vector composed of a plurality of vector elements,
A method for constructing a multi-layered neural network for classifying target data, comprising: a multi-layered neural network as a whole including a plurality of partial neural networks and a connection neural network having outputs of the partial neural networks as inputs. In such a configuration, the vector space 101 formed by the feature vectors is divided into a plurality of subspaces 102 according to the type of vector element or the level of vector element according to the hierarchical structure of the rough classification rule.
In accordance with the vector space division processing 100 that divides into, the rough classification rule 103, the connection rule 104 corresponding to the mutual relation of the subspaces, and the subrule 105 corresponding to the subspaces.
And a step of the general rule sorting processing 200
The step of the learning sample group division processing 300 for dividing the learning sample group 106 of the target data into the partial sample groups 107 corresponding to the respective subspaces, the number of the partial spaces 102, the partial learning sample groups 107, and the original learning sample group 106.
Based on the relationship between the number of partial neural networks to be configured and the connection relationship between the partial neural network and the connection neural network, the overall configuration determination processing 400 steps is performed, and among the connection neural network 109 and the partial neural network 108, If there is a corresponding partial rule, connect rule 1
04 and the partial rule 105 according to the logical structure,
By combining the neuron units for which the logical functions of product and sum are set by the connection weight value,
For the step of the function-embedded forming process 500 for forming a neural network having an initial classification function equivalent to the connection rule 104 and the partial rule 105, and for a partial neural network for which no corresponding partial rule exists, connect neuron units. The step of random type formation processing 600 for installing a neural network in which weight values are set randomly is performed, and the learning processing 700 is performed for each partial neural network 108 using the corresponding partial sample group 107. , The connection neural network and the partial neural network are connected to assemble the entire multilayer structure type neural network, or the steps of the overall assembly processing 800 are performed, or the steps of the entire assembly processing 800 are performed, and thereafter, For each of the partial neural network, it performs the steps of the learning process 900 using the corresponding parts sample group 107.

【0038】[0038]

【作用】本発明は、複数のベクトル要素から成る特徴ベ
クトルで表現された対象データに関して比較と論理演算
で表現された階層構造の概略分類規則が既知である場合
に、対象データの分類処理を行う多層構造型ニューラル
ネットワークの全体構成を概略分類規則の階層構造に準
拠して複数個の部分ニューラルネットワークと部分ニュ
ーラルネットワークの出力を入力とする接続ニューラル
ネットワークとを含むように構成し、従来の第2の方法
により接続ニューラルネットワークに初期分類規則を設
定できることを利用して、事例学習を部分ニューラルネ
ットワークの各々に対応するように分割して実行する方
法である。このように概略分類規則の階層構造に従っ
て、特徴ベクトルがなす空間を分割することにより、多
層構造型ニューラルネットワークの全体に設定すべき分
類機能がその論理的性質に応じて分割され、小規模な部
分ニューラルネットワークと接続ニューラルネットワー
クとに割り付けられる。この際に、概略分類規則の同一
規則には、論理的に関連が深いベクトル要素が含まれて
いるため、部分ニューラルネットワークと接続ニューラ
ルネットワークには、論理的にまとまった分類機能が割
り付けられる。また、分割された空間に対応して、これ
らのニューラルネットワークを構成するための初期構造
設定用の概略分類規則と、学習処理に用いる学習サンプ
ル群が部分サンプル群に分割されて一義的に割り付けら
れる。
According to the present invention, when the rough classification rule of the hierarchical structure expressed by comparison and logical operation is known for the target data expressed by the feature vector composed of a plurality of vector elements, the target data is classified. The overall structure of the multilayer structure type neural network is configured to include a plurality of partial neural networks and a connection neural network that receives the outputs of the partial neural networks as inputs, in accordance with the hierarchical structure of the rough classification rule. This is a method of dividing the case learning so as to correspond to each of the partial neural networks by utilizing the fact that the initial classification rule can be set in the connected neural network by the method of. In this way, by dividing the space formed by the feature vectors according to the hierarchical structure of the rough classification rule, the classification function to be set for the whole of the multilayer neural network is divided according to its logical property, and the small-scale part is divided. It is assigned to a neural network and a connection neural network. At this time, since the same rule of the rough classification rule includes vector elements that are logically related to each other, the classification function logically organized is assigned to the partial neural network and the connection neural network. Further, corresponding to the divided space, a rough classification rule for initial structure setting for configuring these neural networks, and a learning sample group used for learning processing are divided into partial sample groups and uniquely assigned. .

【0039】以上により、学習処理は、論理的にまとま
った初期分類機能が設定された個々の小規模なニューラ
ルネットワークに対して適切な学習サンプルを用いて行
われるために、学習処理で設定すべき機能が大幅に単純
化され、学習自体の収束が極めて容易になる。
As described above, since the learning process is performed by using the appropriate learning sample for each small neural network for which the logically integrated initial classification function is set, the learning process should be set. The function is greatly simplified, and the learning itself can be extremely easily converged.

【0040】[0040]

【実施例】以下、図面と共に本発明の実施例を説明す
る。
Embodiments of the present invention will be described below with reference to the drawings.

【0041】図2は本発明の多層構造型ニューラルネッ
トワークの例を示す。同図に示すニューラルネットワー
クは、入力層11、接続ニューラルネットワーク51、
部分ニューラルネットワーク52、53により構成され
る。同図の例は、多層構造型ニューラルネットワークの
全体を2個の部分ニューラルネットワーク52、53と
これらの出力を入力とする1個の接続ニューラルネット
ワークで構成した例であるが、一般には、部分ニューラ
ルネットワークの数は拡張できる。
FIG. 2 shows an example of the multilayer structure type neural network of the present invention. The neural network shown in the figure includes an input layer 11, a connection neural network 51,
It is composed of partial neural networks 52 and 53. In the example of the same figure, the whole of the multilayer structure type neural network is composed of two partial neural networks 52 and 53 and one connection neural network which inputs these outputs. The number of networks can be expanded.

【0042】また、本発明の方法では、接続ニューラル
ネットワーク51と部分ニューラルネットワーク52、
53は、基本的には、前述の従来の第2の方法における
機能埋め込み型形成処理30によって初期分類機能を設
定したものを用いるが、部分ニューラルネットワークの
一部には、前述従来の第1の方法におけるランダム型形
成処理20によって事例学習のみで機能設定するものを
組み合わせることは可能である。この例では、部分ニュ
ーラルネットワーク52は、前述の従来の第2の方法に
従って、初期分類機能を設定した後に事例学習により分
類機能の詳細化を行ったニューラルネットワークであ
り、部分ニューラルネットワーク53は前述の従来の第
1の方法に従って事例学習のみで分類機能を設定したニ
ューラルネットワークである。
In the method of the present invention, the connection neural network 51 and the partial neural network 52,
As for 53, basically, the one in which the initial classification function is set by the function-embedded forming process 30 in the above-mentioned second conventional method is used, but a part of the partial neural network uses the above-mentioned first conventional method. It is possible to combine those whose functions are set only by case learning by the random type forming processing 20 in the method. In this example, the partial neural network 52 is a neural network in which the initial classification function is set and then the classification function is refined by case learning according to the above-described second conventional method, and the partial neural network 53 is described above. This is a neural network in which a classification function is set only by learning a case according to the first conventional method.

【0043】また、同図において、ニューロンユニット
41は入力ユニット、ニューロンユニット42は加法ユ
ニット、ニューロンユニット43は、比較ユニット、ニ
ューロンユニット44は乗法ユニットを示す。
In the figure, the neuron unit 41 is an input unit, the neuron unit 42 is an addition unit, the neuron unit 43 is a comparison unit, and the neuron unit 44 is a multiplication unit.

【0044】《第1の実施例》図3は、本発明の第1の
実施例の分類処理を行う場合の対象データの例を示す。
同図は、上記の方法で構成される多層構造型ニューラル
ネットワークで分類処理を行う複数のベクトル要素から
なる特徴ベクトルで表現された対象データ(ベクトル要
素と学習サンプル群)の例を示す。
<< First Embodiment >> FIG. 3 shows an example of target data when the classification processing of the first embodiment of the present invention is performed.
This figure shows an example of target data (vector element and learning sample group) represented by a feature vector composed of a plurality of vector elements that perform classification processing by the multilayer structure type neural network configured by the above method.

【0045】ここでは、「縦幅」x1、「横幅」x2の
2種類のベクトル要素(特徴要素)で特徴が与えられる
サンプルが1種類のカテゴリy1に含まれるか否かを分
類するニューラルネットワークを構成することが問題で
ある。
Here, a neural network for classifying whether or not a sample whose characteristics are given by two kinds of vector elements (characteristic elements) of "vertical width" x1 and "horizontal width" x2 is included in one kind of category y1. Configuration is a problem.

【0046】以上の対象データに関して、比較と積和論
理で表現された概ね正しい以下の階層構造の概略分類規
則が既知であるとする。
For the above target data, it is assumed that the following approximate classification rules having a substantially correct hierarchical structure expressed by comparison and sum-of-products logic are known.

【0047】 IF 縦長 or 横長 THEN y1 (13) IF(縦幅> 0.8 and 横幅<0.2) THEN 縦長 (14) ここで、規則(13)は上位に階層の規則、規則(1
4)は下位階層の規則である。規則(13)の条件部の
変数項「縦長」と「横長」はサブカテゴリであり、この
規則(13)でこれらのサブカテゴリ間の概略的な論理
関係が規定されている。
IF vertical or horizontal THEN y1 (13) IF (vertical width> 0.8 and horizontal width <0.2) THEN vertical (14) Here, the rule (13) is the rule of the upper layer, the rule (1).
4) is a lower layer rule. The variable terms “vertical” and “horizontal” in the conditional part of rule (13) are subcategories, and the rule (13) defines a schematic logical relationship between these subcategories.

【0048】一方、下位階層の規則(14)では、サブ
カテゴリ「縦長」のみについてベクトル要素である「縦
幅」x1と「横幅」x2を変数(入力)としてその分類
のための概略的な論理関係が規定されている。
On the other hand, in the rule (14) of the lower hierarchy, the schematic logical relationship for classification is defined by using the vector elements "height" x1 and "width" x2 for only the subcategory "height" as variables (input). Is specified.

【0049】図4は本発明の第1の実施例の多層構造型
ニューラルネットワークの構成方法のフローチャートを
示す。
FIG. 4 shows a flow chart of a method for constructing a multilayer structure type neural network according to the first embodiment of the present invention.

【0050】ステップ1)初めに、概略分類規則の階層
構図に応じて、特徴ベクトルがなす空間をベクトル要素
の種類別あるいは、ベクトル要素のレベル別に複数個の
部分空間に分割するベクトル空間分割処理60を行う。
本実施例では、上位階層の規則(13)で「縦長」と
「横長」というベクトル要素のレベルに関する2個のサ
ブカテゴリを変数とし、下位階層の規則(14)でこれ
らのサブカテゴリのうちに1個に関する規則を与えてい
る。このため、図3に示すように、特徴ベクトルがなす
空間をベクトル要素のレベル別に2個の部分空間72、
73に分割する。このベクトル空間の分割の方法は、以
下に述べる概略規則仕分け処理61から全体構成決定処
理63までに反映される。
Step 1) First, according to the hierarchical composition of the rough classification rule, the vector space division processing 60 for dividing the space formed by the feature vectors into a plurality of subspaces for each type of vector element or each level of vector element. I do.
In the present embodiment, two subcategories relating to the levels of vector elements “vertical” and “horizontal” are used as variables in the upper layer rule (13), and one of these subcategories is set in the lower layer rule (14). Gives the rules regarding. Therefore, as shown in FIG. 3, the space formed by the feature vectors is divided into two subspaces 72 for each level of vector elements.
Divide into 73. The method of dividing the vector space is reflected in the general rule sorting processing 61 to the overall configuration determination processing 63 described below.

【0051】ステップ2)概略分類規則を部分空間7
2、73の相互の関係に対応する接続規則と部分空間7
2、73に対応する部分規則とに仕分ける概略規則仕分
け処理61を行う。本実施例では、規則(13)を接続
規則、規則(14)を部分規則に仕分ける。
Step 2) Set the rough classification rule to the subspace 7
Subspace 7 and connection rules corresponding to the mutual relationship of 2, 73
A general rule sorting process 61 is performed for sorting into partial rules corresponding to Nos. 2 and 73. In this embodiment, the rule (13) is classified into a connection rule and the rule (14) into a partial rule.

【0052】ステップ3)対象データの学習サンプル群
を部分空間の各々の対応する部分サンプル群に分割する
学習サンプル群分割処理62を行う。本実施例では、図
3の対象データで示すように、特徴ベクトルがなす空間
に対応する学習サンプル群71は、分割された2個の部
分空間に対応する2個の部分サンプル群72と73に分
割する。
Step 3) A learning sample group division process 62 for dividing the learning sample group of the target data into corresponding partial sample groups of each subspace is performed. In this embodiment, as shown by the target data in FIG. 3, the learning sample group 71 corresponding to the space formed by the feature vectors is divided into two partial sample groups 72 and 73 corresponding to the two divided partial spaces. To divide.

【0053】ステップ4)部分空間の数及び部分サンプ
ル群のもとの学習サンプル群との関係に基づいて構成す
べき部分ニューラルネットワーク数と部分ニューラルネ
ットワークと接続ニューラルネットワークとの接続関係
を決定する全体構成決定処理63を行う。本実施例で
は、図5に示すように、入力層11を共通とする2個の
部分ニューラルネットワーク52と53を設け、これら
の出力を接続ニューラルネットワーク51の入力とす
る。
Step 4) An overall procedure for determining the number of partial neural networks to be constructed based on the number of subspaces and the relationship between the partial sample group and the original learning sample group, and the connection relationship between the partial neural network and the connection neural network. The configuration determination process 63 is performed. In the present embodiment, as shown in FIG. 5, two partial neural networks 52 and 53 having the same input layer 11 are provided, and these outputs are used as the input of the connection neural network 51.

【0054】ステップ5)接続ニューラルネットワーク
51の形成処理81、部分ニューラルネットワーク5
2、53の形成処理82、83を行う。
Step 5) Forming process 81 of connection neural network 51, partial neural network 5
The formation processes 82 and 83 of 2 and 53 are performed.

【0055】ここでは、接続ニューラルネットワーク5
1と部分ニューラルネットワーク52、53のうち対応
する部分規則が存在するものについては、接続規則と部
分規則の論理構造に応じて、予め比較、積、和の論理機
能のそれぞれを結合荷重値により設定してあるニューロ
ンユニットを組み合わせることにり、接続規則と部分規
則と等価な初期分類機能を有するニューラルネットワー
クを形成する機能埋め込み型形成処理30を行う。本実
施例では、接続ニューラルネットワーク51には接続規
則(13)、部分ニューラルネットワーク52には、部
分規則(14)が対応しているため、これらのニューラ
ルネットワークに対してこの処理を行う。
Here, the connection neural network 5
1 and the partial neural networks 52 and 53 having corresponding partial rules, the respective logical functions of comparison, product, and sum are set in advance by the connection weight value according to the logical structure of the connection rule and the partial rule. By combining certain neuron units, a function-embedded forming process 30 for forming a neural network having an initial classification function equivalent to the connection rule and the partial rule is performed. In this embodiment, since the connection rule (13) corresponds to the connection neural network 51 and the partial rule (14) corresponds to the partial neural network 52, this processing is performed for these neural networks.

【0056】また、部分ニューラルネットワークのうち
対応する部分規則が存在しないものについては、ニュー
ロンユニットの結合荷重値をランダムに設定したニュー
ラルネットワークを設置するランダム型形成処理20を
行う。本実施例では、部分ニューラルネットワーク53
には対応する部分規則が存在しないため、この処理を行
う。
For a partial neural network that does not have a corresponding partial rule, a random type forming process 20 for installing a neural network in which the connection weight values of the neuron units are randomly set is performed. In this embodiment, the partial neural network 53
This processing is performed because there is no corresponding partial rule for.

【0057】次いで、本実施例では、部分ニューラルネ
ットワークの形成処理82と83において、部分ニュー
ラルネットワーク52と53の各々の学習処理23を対
応する部分サンプル群72、73を用いて個別に行う。
ここで、部分ニューラルネットワーク52に対する学習
処理23は、機能埋め込み型形成処理30で初期設定し
た分類機能に対する詳細化のための事例学習であり、部
分ニューラルネットワーク53に対する学習処理23
は、ランダム型形成処理20で構造のみを設定したニュ
ーラルネットワークに分類機能を事例学習のみにより設
定するためのものである。
Next, in this embodiment, in the partial neural network forming processes 82 and 83, the learning process 23 of each of the partial neural networks 52 and 53 is individually performed using the corresponding partial sample groups 72 and 73.
Here, the learning process 23 for the partial neural network 52 is a case learning for detailing the classification function initialized in the function embedded type forming process 30, and the learning process 23 for the partial neural network 53.
Is for setting the classification function only in the case learning to the neural network in which only the structure is set in the random type forming process 20.

【0058】なお、本実施例は、ベクトル空間分割処理
60において、特徴ベクトルがなす空間をベクトル要素
のレベル別に2個の部分空間に分割した例であり、学習
サンプル群分割処理62で作成したこれらの部分空間に
含まれる部分サンプル群72と73には、図3に示すよ
うに、カテゴリy1の情報が各部分サンプル群に固有に
付記されている。即ち、カテゴリy1をサブカテゴリと
見なすことが可能である。このため、カテゴリy1が付
記されたこれらの部分サンプル群を用いることにより、
部分ニューラルネットワークを個別に学習することが可
能である。
The present embodiment is an example in which the space formed by the feature vectors is divided into two subspaces according to the levels of vector elements in the vector space division processing 60, and these are created by the learning sample group division processing 62. In the partial sample groups 72 and 73 included in the partial space of, as shown in FIG. 3, information of the category y1 is uniquely added to each partial sample group. That is, it is possible to regard the category y1 as a subcategory. Therefore, by using these partial sample groups to which the category y1 is added,
It is possible to learn partial neural networks individually.

【0059】ステップ6)しかる後に、接続ニューラル
ネットワーク51と部分ニューラルネットワーク52、
53とを接続して多層構造型ニューラルネットワーク1
の全体を組み上げる全体組み上げ処理64を行う。
Step 6) Thereafter, the connection neural network 51 and the partial neural network 52,
Multilayer structure type neural network 1 by connecting with 53
The whole assembling process 64 for assembling the whole is performed.

【0060】以上の処理により、図5に示す多層構造型
ニューラルネットワーク1が、接続ニューラルネットワ
ーク51に初期分類機能が設定され、部分ニューラルネ
ットワーク52と53には事例学習による詳細な分類機
能が設定された状態で構成される。
With the above processing, in the multilayer structure type neural network 1 shown in FIG. 5, the initial classification function is set in the connection neural network 51, and the detailed classification function by case learning is set in the partial neural networks 52 and 53. It is composed of

【0061】ステップ7)次いで、追加学習処理84に
おいて、学習サンプル群71を用いて組み上げられた多
層構造ニューラルネットワークの全体に接続されている
接続ニューラルネットワーク51の詳細化のための学習
処理23を行う。なお、この追加学習処理84は、多層
構造型ニューラルネットワーク1の全体に対して実施す
ることも可能であり、また、接続ニューラルネットワー
ク51の分類機能が単純な場合は、省略することも可能
である。
Step 7) Next, in the additional learning process 84, the learning process 23 for detailing the connection neural network 51 connected to the whole of the multilayer structure neural network assembled by using the learning sample group 71 is performed. . It should be noted that this additional learning process 84 can be performed for the entire multilayer structure type neural network 1, and can be omitted if the connection neural network 51 has a simple classification function. .

【0062】以上をもって、多層構造型ニューラルネッ
トワーク1の構成処理は完了する。
With the above processing, the construction process of the multilayer structure type neural network 1 is completed.

【0063】このように、本実施例では、多層構造型ニ
ューラルネットワークを構成する際の事例学習をその構
成要素である部分ニューラルネットワークと接続ニュー
ラルネットワークのそれぞれで個別に実施することが可
能となり、学習の収束を容易にすることができる。
As described above, in the present embodiment, it is possible to individually carry out case learning when constructing a multilayer structure type neural network for each of the partial neural network and the connection neural network which are its constituent elements. Can be easily converged.

【0064】《第2の実施例》次に本発明の第2の実施
例について説明する。
<< Second Embodiment >> Next, a second embodiment of the present invention will be described.

【0065】本実施例は、対象データを表現する特徴ベ
クトルがなす空間をベクトル要素の種類別に分割する例
であり、上述の第1の実施例とは、接続ニューラルネッ
トワークと部分ニューラルネットワーク対して行う学習
処理23と全体の組み上げ処理64を実施する順序が異
なる。
The present embodiment is an example in which the space formed by the feature vectors expressing the target data is divided according to the types of vector elements. The first embodiment described above is performed for a connection neural network and a partial neural network. The order of performing the learning process 23 and the overall assembling process 64 is different.

【0066】図6は、本発明の第2の実施例の分類処理
を行う場合の対象データの例を示す。同図は、本実施例
で構成する多層構造型ニューラルネットワークで分類処
理を行う複数のベクトル要素から成る特徴ベクトルで表
現された対象データの例(ベクトル要素と学習サンプル
群)を示す。ベクトル要素(特徴要素)には、「縦幅」
x1、「横幅」x2、「色相」x3、「明度」x4の4
種類がある。また、サンプルの分類先となるカテゴリに
はy1とy2がある。ここでは、これらの4種類のベク
トル要素(特徴要素)で特徴が与えられるサンプルが2
種類のカテゴリy1,y2に含まれるか否かを分類する
ニューラルネットワークを構成するのが問題である。
FIG. 6 shows an example of target data when the classification processing of the second embodiment of the present invention is performed. This figure shows an example (vector element and learning sample group) of target data represented by a feature vector composed of a plurality of vector elements that perform classification processing by the multilayer structure type neural network configured in the present embodiment. For the vector element (feature element), "vertical width"
x1, "width" x2, "hue" x3, "lightness" x4 4
There are types. Further, there are y1 and y2 as categories to which the samples are classified. Here, there are 2 samples whose features are given by these four types of vector elements (feature elements).
The problem is to construct a neural network that classifies whether or not the type is included in the categories y1 and y2.

【0067】以上の対象データに関して、比較と積和論
理で表現された概ね正しい以下の階層構造の概略規則が
既知であるとする。
Regarding the above target data, it is assumed that the following general rule of the hierarchical structure represented by the comparison and product-sum logic is known.

【0068】 IF(縦長 and (水色 or 紫色)) THEN y1 (15) IF((縦長 or 横長) and 紫色) THEN y2 (16) IF(縦長> 0.8 and 横幅 < 0.2) THEN 縦長 (17) IF(縦幅<0.2 and 横幅 > 0.8) THEN 横長 (18) ここで、規則(15)と(16)は上位階層の概略分類
規則、規則(17)と(18)は下位階層の概略分類規
則である。上位階層の規則(15)と(16)の条件部
の変数項「縦長」と「横長」はサブカテゴリであり、下
位階層の規則(17)と(18)によりこれらのサブカ
テゴリについてベクトル要素「縦幅」x1と「横幅」x
2を変数(入力)とした分類のための概略的な論理関係
が規定されている。一方、上位階層の規則(15)と
(16)の条件部には変数項「水色」と「紫色」が含ま
れている。これらの変数項はベクトル要素「色相」x3
と「明度」x4で規定されるサブカテゴリであるが、こ
れらの関係を規定する下位階層の概略分類規則は存在し
ない。
IF (vertical and (light blue or purple)) THEN y1 (15) IF ((vertical or horizontal) and purple) THEN y2 (16) IF (vertical> 0.8 and horizontal <0.2) THEN vertical ( 17) IF (length <0.2 and width> 0.8) THEN width (18) Here, rules (15) and (16) are general classification rules of the upper hierarchy, and rules (17) and (18) are It is a rough classification rule of the lower hierarchy. The variable terms “vertical” and “horizontal” in the condition part of the upper layer rules (15) and (16) are subcategories, and the vector element “vertical width” is set for these subcategories according to the lower layer rules (17) and (18). "X1" and "width" x
A general logical relationship for classification with 2 as a variable (input) is defined. On the other hand, the condition parts of the upper layer rules (15) and (16) include the variable terms “light blue” and “purple”. These variable terms are vector elements "hue" x3
Is a subcategory defined by “lightness” x4, but there is no general classification rule of the lower hierarchy that defines these relationships.

【0069】図7は、本発明の第2の実施例において構
成される多層構造型ニューラルネットワークを示す。同
図に示すニューラルネットワークは入力層11を有する
部分ニューラルネットワーク52、53及び接続ニュー
ラルネットワーク51により構成される。このニューラ
ルネットワークにおいて部分ニューラルネットワーク5
2の入力層11には、縦幅x1,横幅x2が入力され、
比較ユニット43で比較され、乗法ユニット44で乗算
され、加法ユニット42で加算され、接続ニューラルネ
ットワーク51に出力される。また、部分ニューラルネ
ットワーク53の入力層11には色相x3,明度x4が
入力され、他は、部分ニューラルネットワーク52と同
様である。
FIG. 7 shows a multi-layer structure type neural network constructed in the second embodiment of the present invention. The neural network shown in the figure comprises partial neural networks 52 and 53 having an input layer 11 and a connection neural network 51. In this neural network, the partial neural network 5
The vertical width x1 and the horizontal width x2 are input to the second input layer 11,
It is compared in the comparison unit 43, multiplied in the multiplication unit 44, added in the addition unit 42, and output to the connection neural network 51. Further, the hue x3 and the brightness x4 are input to the input layer 11 of the partial neural network 53, and the other parts are the same as those of the partial neural network 52.

【0070】接続ニューラルネットワーク51は、部分
ニューラルネットワーク52、53からの出力が乗法ユ
ニット44に入力され、加法ユニット42から分類結果
y1,y2として出力される。
In the connection neural network 51, the outputs from the partial neural networks 52 and 53 are input to the multiplication unit 44, and the addition unit 42 outputs the classification results y1 and y2.

【0071】また、図8は、本発明の第2の実施例の多
層構造型ニューラルネットワークの構成方法のフローチ
ャートである。
FIG. 8 is a flow chart of the method of constructing the multilayer structure type neural network of the second embodiment of the present invention.

【0072】以下、これらの図に従って具体的な手順を
説明する。
The specific procedure will be described below with reference to these figures.

【0073】ステップ100)初めにベクトル空間分割
処理60を行う。本実施例では、上位階層の規則(1
5)と(16)で「縦長」と「横長」という形状に関す
るサブカテゴリと「水色」と「紫色」という色に関する
未知のサブカテゴリを変数としている。また、下位階層
の規則(17)と(18)で形状に関する2個のサブカ
テゴリに関する規則を与えている。このため、図6に示
すように、特徴ベクトルがなす空間をベクトル要素の種
類別に、形状に関するx1とx2、色に関するxx3と
x4の2個の部分空間に分割する。このベクトル空間の
分割の仕方は、第1の実施例の場合と同様に、以下に述
べる概略規則仕分け処理61からから全体構成決定処理
63までに反映される。
(Step 100) First, the vector space division processing 60 is performed. In this embodiment, the rule (1
In 5) and (16), the subcategories related to the shapes “vertical” and “horizontal” and the unknown subcategories related to the colors “light blue” and “purple” are used as variables. In addition, rules (17) and (18) in the lower hierarchy give rules for two subcategories regarding shapes. Therefore, as shown in FIG. 6, the space formed by the feature vectors is divided into two subspaces x1 and x2 regarding the shape and xx3 and x4 regarding the color according to the vector element type. This way of dividing the vector space is reflected in the general rule sorting process 61 to the overall configuration determining process 63 described below, as in the case of the first embodiment.

【0074】ステップ101)概略規則仕分け処理61
では、規則(15)と(16)、規則(17)と(1
8)をそのまま接続規則と部分規則に仕分ける。
Step 101) General rule sorting processing 61
Then, rules (15) and (16), rules (17) and (1
8) is sorted as it is into a connection rule and a partial rule.

【0075】ステップ102)学習サンプル群分割処理
62では、図6に示すように、特徴ベクトルがなす空間
に対応する学習サンプル群71を部分空間に対応する2
個の部分サンプル群72と73に分割する。
Step 102) In the learning sample group division processing 62, as shown in FIG. 6, the learning sample group 71 corresponding to the space formed by the feature vectors is divided into two corresponding to the partial space.
It is divided into individual partial sample groups 72 and 73.

【0076】ステップ103)全体構成決定処理63で
は、図7に示すように、それぞれ独自の入力層11を持
つ2個の部分ニューラルネットワーク52と53とを設
け、これらの出力を接続ニューラルネットワーク51の
入力とする。
Step 103) In the overall configuration determining process 63, as shown in FIG. 7, two partial neural networks 52 and 53 each having its own input layer 11 are provided, and these outputs are connected to the connection neural network 51. Input it.

【0077】ステップ104)次いで、接続ニューラル
ネットワーク51の形成処理81と部分ニューラルネッ
トワーク52と53の形成処理82と83を行う。ここ
では、接続ニューラルネットワークと部分ニューラルネ
ットワークのすべてに対して機能埋め込み型形成処理3
0あるいは、ランダム型形成処理20のみを行う。な
お、ランダム型形成処理は、対応する部分規則が存在し
ない部分ニューラルネットワーク53に対して行う。
Step 104) Next, the formation processing 81 of the connection neural network 51 and the formation processing 82 and 83 of the partial neural networks 52 and 53 are performed. Here, the function-embedded formation processing 3 is performed for all of the connection neural network and the partial neural network.
0 or only the random type forming process 20 is performed. The random type forming process is performed on the partial neural network 53 for which the corresponding partial rule does not exist.

【0078】ステップ105)次に、学習処理23を実
施する以前に、接続ニューラルネットワーク51と部分
ニューラルネットワーク52と53とを接続して多層構
造型ニューラルネットワーク1の全体を組み上げる全体
の組み上げ処理64を行う。
Step 105) Next, before carrying out the learning process 23, an entire assembling process 64 for assembling the whole of the multilayer structure type neural network 1 by connecting the connection neural network 51 and the partial neural networks 52 and 53. To do.

【0079】ステップ106)組み上げられた多層構造
型ニューラルネットワーク1の全体に含まれる部分ニュ
ーラルネットワーク52と接続ニューラルネットワーク
51、部分ニューラルネットワーク53と接続ニューラ
ルネットワーク51の2組に対して対応する部分サンプ
ル群72と73を用いて学習処理23を同時にかつ同期
して行う。ここで、部分ニューラルネットワーク52を
含む組に対する学習処理23は、当該部分ニューラルネ
ットワークと接続ニューラルネットワーク51の分類機
能の詳細化のための事例学習であり、部分ニューラルネ
ットワーク53を含む組に対する学習処理23は、ラン
ダム型形成処理20で構造のみを設定した部分ニューラ
ルネットワーク53に、分類機能を事例学習のみにより
設定するためと、接続ニューラルネットワーク51の詳
細化の2つの意味を持つ。
Step 106) Partial sample groups corresponding to the two sets of the partial neural network 52 and the connection neural network 51, and the partial neural network 53 and the connection neural network 51 included in the whole of the assembled multilayer structure type neural network 1. The learning process 23 is simultaneously and synchronously performed by using 72 and 73. Here, the learning process 23 for the set including the partial neural network 52 is a case learning for refining the classification function of the partial neural network and the connection neural network 51, and the learning process 23 for the set including the partial neural network 53. Has two meanings: to set the classification function in the partial neural network 53 in which only the structure is set in the random type formation processing 20 by only case learning, and to make the connection neural network 51 detailed.

【0080】なお、本実施例において、以上の学習処理
の手順をとる理由は、ベクトル空間分割処理60におい
て、特徴ベクトルがなす空間をベクトル要素の種類別に
2個の部分空間に分割したために、図6に示すように学
習サンプル群分割処理62で作成したこれらの部分空間
に含まれる部分サンプル群72と73に、カテゴリy1
とy2の情報をそれぞれに独自に付記できないためであ
る。即ち、特徴ベクトルがなす空間をベクトル要素の種
類別に分割した場合は、カテゴリy1とy2をサブカテ
ゴリとみなすことはできない。このため、学習処理23
は、個々の部分ニューラルネットワークに接続ニューラ
ルネットワーク51を接続した状態で、カテゴリy1と
y2が付記された部分サンプル群72と73とを用いて
行う。
In the present embodiment, the reason for taking the above learning processing procedure is that the space formed by the feature vectors is divided into two subspaces according to the vector element type in the vector space division processing 60. As shown in 6, the partial sample groups 72 and 73 included in these partial spaces created by the learning sample group dividing process 62 are assigned to the category y1.
This is because the information of y2 and y2 cannot be added individually. That is, when the space formed by the feature vectors is divided according to the types of vector elements, the categories y1 and y2 cannot be regarded as subcategories. Therefore, the learning process 23
Is performed using the partial sample groups 72 and 73 to which the categories y1 and y2 are added while the connection neural network 51 is connected to the individual partial neural networks.

【0081】本実施例では、接続ニューラルネットワー
クの学習処理は、上記に含まれるため追加学習の必要は
なく、以上により多層構造型ニューラルネットワーク1
の構成処理が完了する。
In the present embodiment, the learning processing of the connected neural network is not included in the above, and thus additional learning is not necessary.
Is completed.

【0082】上記の第2の実施例においても学習処理2
3を行うに当たり、接続ニューラルネットワークには初
期分類機能が設定されており、部分ニューラルネットワ
ークの各々は対応する部分サンプル群を用いて、事例学
習が行われる。このため、前述の第1の実施例で述べた
部分ニューラルネットワークの各々を分離して学習する
場合と同様に、事例学習を分割することにより、学習の
収束を容易化することができる。
Also in the second embodiment described above, the learning process 2 is performed.
When performing 3, the initial classification function is set in the connected neural network, and each partial neural network performs case learning using the corresponding partial sample group. Therefore, as in the case of separating and learning each of the partial neural networks described in the first embodiment, by dividing the case learning, the convergence of learning can be facilitated.

【0083】なお、上記第1及び第2の実施例では、部
分ニューラルネットワークが2個で、接続ニューラルネ
ットワークが1個の場合を説明したが、一般には、部分
ニューラルネットワークの数を拡張すること、小規模な
ニューラルネットワークを更に多段に組み合わせた多層
構造型ニューラルネットワークにおいて、本実施例で述
べた接続ニューラルネットワークと部分ニューラルネッ
トワークの関係を繰り返し適用して全体を構成するこ
と、機能埋め込み型形成処理とランダム型形成処理とを
同一部分ニューラルネットワークあるいは、同一接続ニ
ューラルネットワークにおいて、組み合わせて実施する
ことは可能である。
In the first and second embodiments, the case where the number of partial neural networks is two and the number of connected neural networks is one has been described. However, in general, the number of partial neural networks should be expanded. In a multilayer structure type neural network in which small-scale neural networks are further combined in multiple stages, the relationship between the connection neural network and the partial neural network described in the present embodiment is repeatedly applied to form the whole, and a function-embedded forming process is performed. It is possible to combine the random type formation processing with the same partial neural network or the same connection neural network.

【0084】[0084]

【発明の効果】上述のように、本発明によれば、事例学
習を分割実施することでその収束を容易化できるため、
従来の技術では実現しなかった複雑な分類機能を有する
4層以上の多層構造型ニューラルネットワークであって
も、少ない学習処理時間及びその工数で容易に実現でき
る。
As described above, according to the present invention, it is possible to facilitate the convergence of the case learning by dividing the case learning.
Even a multi-layered neural network having four or more layers having a complicated classification function, which has not been realized by the conventional technique, can be easily realized with a short learning processing time and man-hours.

【0085】また、部分ニューラルネットワークの各々
には、ベクトル要素(特徴要素)の種類及び要素値のレ
ベルに反映される対象データの性質に沿って分類機能を
分類して設定できる。このため、対象を形状や色など多
面的に観測する際の分類処理用の多層構造型ニューラル
ネットワークをその分類処理の論理的性質をそのまま反
映して容易に構成できる効果が得られる。
Further, in each of the partial neural networks, a classification function can be classified and set according to the nature of the target data reflected in the type of vector element (feature element) and the level of element value. Therefore, it is possible to obtain an effect that a multilayer structure type neural network for classification processing when observing an object from various aspects such as shape and color can be easily configured by directly reflecting the logical nature of the classification processing.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の原理を説明するための図である。FIG. 1 is a diagram for explaining the principle of the present invention.

【図2】本発明の多層構造型ニューラルネットワークの
例を示す図である。
FIG. 2 is a diagram showing an example of a multilayer structure type neural network of the present invention.

【図3】本発明の第1の実施例の分類処理を行う場合の
対象データの例を示す図である。
FIG. 3 is a diagram showing an example of target data when performing a classification process according to the first embodiment of this invention.

【図4】本発明の第1の実施例の多層構造型ニューラル
ネットワークの構成方法のフローチャートである。
FIG. 4 is a flow chart of a method for constructing a multilayer structure type neural network according to the first embodiment of the present invention.

【図5】本発明の第1の実施例において構成される多層
構造ニューラルネットワークを示す図である。
FIG. 5 is a diagram showing a multilayered neural network constructed in the first embodiment of the present invention.

【図6】本発明の第2の実施例の分類処理を行う場合の
対象データの例を示す図である。
FIG. 6 is a diagram showing an example of target data when performing a classification process according to a second embodiment of the present invention.

【図7】本発明の第2の実施例において構成される多層
構造ニューラルネットワークを示す図である。
FIG. 7 is a diagram showing a multi-layered neural network constructed in a second embodiment of the present invention.

【図8】本発明の第2の実施例の多層構造型ニューラル
ネットワークの構成方法のフローチャートである。
FIG. 8 is a flow chart of a method of constructing a multilayer structure type neural network according to a second embodiment of the present invention.

【図9】多層構造型ニューラルネットワークの構成例を
示す図である。
FIG. 9 is a diagram showing a configuration example of a multilayer structure type neural network.

【図10】従来の第1の方法のフローチャートである。FIG. 10 is a flowchart of a first conventional method.

【図11】従来の第2の方法のフローチャートである。FIG. 11 is a flowchart of a second conventional method.

【図12】従来の第2の方法によるニューラルネットワ
ークの例を示す図である。
FIG. 12 is a diagram showing an example of a neural network according to a second conventional method.

【符号の説明】[Explanation of symbols]

1 ニューラルネットワーク 10 ニューロン 11 入力層 12 出力層 13 中間層 41 入力層ユニット 42 加法ユニット 43 比較ユニット 44 乗法ユニット 51 接続ニューラルネットワーク 52、53 部分ニューラルネットワーク 60 ベクトル空間分割処理 61 概略規則仕分け処理 62 学習サンプル群分割処理 63 全体構成決定処理 64 全体組み上げ処理 71 学習サンプル群 72、73 部分サンプル群 81 接続ニューラルネットワークの形成処理 82、83 部分ニューラルネットワークの形成処理 84 追加学習処理 100 ベクトル空間分割処理 101 ベクトル空間 102 部分空間 103 概略分類規則 104 接続規則 105 部分規則 106 学習サンプル群 107 部分サンプル群 108 部分ニューラルネットワーク 109 接続ニューラルネットワーク 200 概略規則仕分け処理 300 学習サンプル群分割処理 400 全体構成決定処理 500 機能埋め込み型形成処理 600 ランダム型形成処理 700 学習処理 800 全体組み上げ処理 900 学習処理 1 Neural Network 10 Neurons 11 Input Layer 12 Output Layer 13 Intermediate Layer 41 Input Layer Unit 42 Additive Unit 43 Comparison Unit 44 Multiplication Unit 51 Connection Neural Network 52, 53 Partial Neural Network 60 Vector Space Division Processing 61 General Rule Sorting Processing 62 Learning Samples Group division processing 63 Overall configuration determination processing 64 Overall assembly processing 71 Learning sample groups 72, 73 Partial sample groups 81 Connection neural network formation processing 82, 83 Partial neural network formation processing 84 Additional learning processing 100 Vector space division processing 101 Vector space 102 subspace 103 rough classification rule 104 connection rule 105 partial rule 106 learning sample group 107 partial sample group 108 partial neural network Over click 109 connected neural network 200 schematically rules sorting process 300 the learning sample group division process 400 overall configuration determination process 500 functions embedded form process 600 randomly-type forming process 700 learning process 800 whole assembled process 900 learning process

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 複数のベクトル要素から成る特徴ベクト
ルで表現された対象データに関して、比較と積和論理で
表現された階層構造の概略分類規則が既知である場合
に、該対象データの分類処理を行う多層構造型ニューラ
ルネットワークの構成方法であって、 該多層構造型ニューラルネットワークの全体を、複数個
の部分ニューラルネットワークと該部分ニューラルネッ
トワークの出力を入力とする接続ニューラルネットワー
クとを含むように構成する場合に、該概略分類規則の階
層構造に応じて、該特徴ベクトルがなす空間をベクトル
要素の種類別或いは、ベクトル要素のレベル別に複数個
の部分空間に分割するベクトル空間分割処理に準拠し
て、該概略分類規則を、該部分空間の相互の関係に対応
する接続規則と、該部分空間に対応する部分規則とに仕
分ける概略規則仕分け処理のステップと、 該対象データの学習サンプル群を該部分空間の各々に対
応する部分サンプル群に分割する学習サンプル群分割処
理のステップと、 該部分空間の数及び該部分サンプル群ともとの学習サン
プル群との関係に基づいて構成すべき部分ニューラルネ
ットワーク数と、該部分ニューラルネットワークと該接
続ニューラルネットワークとの接続関係を決定する全体
構成決定処理ステップを行い、 該接続ニューラルネットワークと、該部分ニューラルネ
ットワークのうち対応する部分規則が存在するものにつ
いては、該接続規則と該部分規則の論理構造に応じて、
予め比較、積、和の論理機能のそれぞれを結合荷重値に
より設定してあるニューロンユニットを組み合わせるこ
とにより、該接続規則と該部分規則と等価な初期分類機
能を有するニューラルネットワークを形成する機能埋め
込み型形成処理のステップと、 該部分ニューラルネットワークのうち対応する部分規則
が存在しないものについては、ニューロンユニットの結
合荷重値をランダムに設定したニューラルネットワーク
を設置するランダム型形成処理のステップとを行い、 該部分ニューラルネットワークの各々に対して、対応す
る該部分サンプル群を用いて学習処理を行い、しかる後
に、該接続ニューラルネットワークと該部分ニューラル
ネットワークとを接続して該多層構造型ニューラルネッ
トワークの全体を組み上げる全体組み上げ処理のステッ
プを行うか、または、該全体組み上げ処理のステップを
行い、しかる後に、該部分ニューラルネットワークの各
々に対して、対応する該部分サンプル群を用いて学習処
理のステップを行うことを特徴とする多層構造型ニュー
ラルネットワークの構成方法。
1. When a rough classification rule of a hierarchical structure represented by comparison and product-sum logic is known for target data represented by a feature vector composed of a plurality of vector elements, the target data is classified. A method for constructing a multi-layered neural network, wherein the whole of the multi-layered neural network is configured to include a plurality of partial neural networks and a connection neural network whose output is an input of the partial neural networks. In this case, according to the hierarchical structure of the general classification rule, in accordance with a vector space division process for dividing the space formed by the feature vector into a plurality of subspaces according to the type of vector element or the level of the vector element, The rough classification rule corresponds to the connection rule corresponding to the mutual relation of the subspaces and the subspace. A general rule sorting process for sorting into a rule and a learning sample group splitting process for splitting a learning sample group of the target data into partial sample groups corresponding to each of the subspaces; Performing an overall configuration determination processing step of determining the number of partial neural networks to be configured based on the relationship between the partial sample group and the original learning sample group, and the connection relationship between the partial neural network and the connection neural network, For the connection neural network and the one having the corresponding partial rule among the partial neural networks, according to the logical structure of the connection rule and the partial rule,
A function-embedded type that forms a neural network having an initial classification function equivalent to the connection rule and the partial rule by combining neuron units in which logical functions of comparison, product, and sum are set in advance by connection weight values. The step of formation processing and the step of random formation processing of installing a neural network in which the connection weight value of the neuron unit is randomly set are performed for the partial neural network having no corresponding partial rule. A learning process is performed on each of the partial neural networks using the corresponding partial sample group, and thereafter, the connection neural network and the partial neural network are connected to assemble the entire multilayer structure type neural network. Overall assembly Or a step of the whole assembling process, and thereafter, a learning process is performed for each of the partial neural networks by using the corresponding partial sample group. Method for constructing multi-layered neural network.
JP5099693A 1993-04-26 1993-04-26 Constituting method for multilayer structure type neural network Pending JPH06309293A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5099693A JPH06309293A (en) 1993-04-26 1993-04-26 Constituting method for multilayer structure type neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5099693A JPH06309293A (en) 1993-04-26 1993-04-26 Constituting method for multilayer structure type neural network

Publications (1)

Publication Number Publication Date
JPH06309293A true JPH06309293A (en) 1994-11-04

Family

ID=14254130

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5099693A Pending JPH06309293A (en) 1993-04-26 1993-04-26 Constituting method for multilayer structure type neural network

Country Status (1)

Country Link
JP (1) JPH06309293A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006350973A (en) * 2005-06-14 2006-12-28 Junichi Takeno Consciousness system
JPWO2006078015A1 (en) * 2005-01-24 2008-08-07 国立大学法人横浜国立大学 Categorical color perception system
WO2014188940A1 (en) * 2013-05-23 2014-11-27 独立行政法人情報通信研究機構 Method and device for learning deep neural network, and device for learning category-independent sub-network
KR20160117516A (en) * 2014-01-31 2016-10-10 구글 인코포레이티드 Generating vector representations of documents
JP2018180354A (en) * 2017-04-17 2018-11-15 日本電信電話株式会社 Acoustic model learning device, method for the same, and program
JP2021507378A (en) * 2017-12-13 2021-02-22 アドバンスト・マイクロ・ディバイシズ・インコーポレイテッドAdvanced Micro Devices Incorporated Simultaneous training of functional subnetworks of neural networks
JP2021518932A (en) * 2019-06-06 2021-08-05 北京小米智能科技有限公司Beijing Xiaomi Intelligent Technology Co.,Ltd. Super network training methods and equipment, programs, and recording media
JP2022502733A (en) * 2018-10-11 2022-01-11 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Data representation for dynamic accuracy in neural network cores

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2006078015A1 (en) * 2005-01-24 2008-08-07 国立大学法人横浜国立大学 Categorical color perception system
JP4625962B2 (en) * 2005-01-24 2011-02-02 国立大学法人横浜国立大学 Categorical color perception system
JP2006350973A (en) * 2005-06-14 2006-12-28 Junichi Takeno Consciousness system
WO2014188940A1 (en) * 2013-05-23 2014-11-27 独立行政法人情報通信研究機構 Method and device for learning deep neural network, and device for learning category-independent sub-network
JP2014229124A (en) * 2013-05-23 2014-12-08 独立行政法人情報通信研究機構 Learning method of deep neural network, storage medium storing parameter of subnetwork of deep neural network, and computer program
KR20160117516A (en) * 2014-01-31 2016-10-10 구글 인코포레이티드 Generating vector representations of documents
US11853879B2 (en) 2014-01-31 2023-12-26 Google Llc Generating vector representations of documents
JP2018180354A (en) * 2017-04-17 2018-11-15 日本電信電話株式会社 Acoustic model learning device, method for the same, and program
JP2021507378A (en) * 2017-12-13 2021-02-22 アドバンスト・マイクロ・ディバイシズ・インコーポレイテッドAdvanced Micro Devices Incorporated Simultaneous training of functional subnetworks of neural networks
US11836610B2 (en) 2017-12-13 2023-12-05 Advanced Micro Devices, Inc. Concurrent training of functional subnetworks of a neural network
JP2022502733A (en) * 2018-10-11 2022-01-11 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Data representation for dynamic accuracy in neural network cores
JP2021518932A (en) * 2019-06-06 2021-08-05 北京小米智能科技有限公司Beijing Xiaomi Intelligent Technology Co.,Ltd. Super network training methods and equipment, programs, and recording media

Similar Documents

Publication Publication Date Title
Tanno et al. Adaptive neural trees
Žalik et al. Memetic algorithm using node entropy and partition entropy for community detection in networks
CN111862140A (en) Panoramic segmentation network and method based on collaborative module level search
Van Broekhoven et al. Monotone Mamdani–Assilian models under mean of maxima defuzzification
CN113781385B (en) Combined attention-seeking convolution method for automatic classification of brain medical images
JPH06309293A (en) Constituting method for multilayer structure type neural network
JP2747104B2 (en) neural network
CN111723285A (en) Depth spectrum convolution collaborative filtering recommendation method based on scores
CN115546525A (en) Multi-view clustering method and device, electronic equipment and storage medium
CN114969367A (en) Cross-language entity alignment method based on multi-aspect subtask interaction
JPH08123778A (en) Automatic generation method for non-linear model
Jiang et al. Exploiting node-feature bipartite graph in graph convolutional networks
CN116204719A (en) Knowledge enhancement multitask recommendation method under hyperbolic space
CN108470251B (en) Community division quality evaluation method and system based on average mutual information
Yager Criteria importances in OWA aggregation: an application of fuzzy modeling
JPH06111038A (en) Neural network and operating method thereof
WO2020085114A1 (en) Information processing device, information processing method, and program
JPH08286922A (en) Fuzzy neural network device
CN115169521A (en) Graph neural network interpretation method for keeping prediction sequence and structure dependency relationship
US5361328A (en) Data processing system using a neural network
CN114741429A (en) Web API (application program interface) associated pattern mining method based on graph neural network
Petersohn Assessment of clusteranalysis and self-organizing maps
JPH05314090A (en) Method and device for recognizing pattern by using neural network
JP3337597B2 (en) Learning type recognition judgment device
CN113408798B (en) Barrier-free VR teaching resource color optimization method for people with abnormal color vision