JP2686023B2 - Pattern sorter - Google Patents

Pattern sorter

Info

Publication number
JP2686023B2
JP2686023B2 JP4205572A JP20557292A JP2686023B2 JP 2686023 B2 JP2686023 B2 JP 2686023B2 JP 4205572 A JP4205572 A JP 4205572A JP 20557292 A JP20557292 A JP 20557292A JP 2686023 B2 JP2686023 B2 JP 2686023B2
Authority
JP
Japan
Prior art keywords
pattern
input
network
learning
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP4205572A
Other languages
Japanese (ja)
Other versions
JPH0652137A (en
Inventor
阪 信 治 脇
田 伸 夫 住
恭 秀 鉄
尾 清 明 西
崎 裕 之 宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Steel Corp
Original Assignee
Nippon Steel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Steel Corp filed Critical Nippon Steel Corp
Priority to JP4205572A priority Critical patent/JP2686023B2/en
Publication of JPH0652137A publication Critical patent/JPH0652137A/en
Application granted granted Critical
Publication of JP2686023B2 publication Critical patent/JP2686023B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、所謂ニュ−ラルネット
ワ−クを用いて入力信号のパタ−ンを分類するパタ−ン
分類装置及びそのネットワ−クの作成を支援する装置に
関する。このパタ−ン分類装置は、例えば、製鉄所にお
ける高炉の温度分布パタ−ンの分類に利用しうる。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a pattern classifying device for classifying a pattern of an input signal by using a so-called neural network and a device for supporting the creation of the network. This pattern classifying device can be used, for example, for classifying a temperature distribution pattern of a blast furnace in an iron mill.

【0002】[0002]

【従来の技術】パタ−ンの分類処理などを自動的に実施
しようとする分野においては、最近ではニュ−ラルネッ
トワ−クの技術がよく利用される。この種のニュ−ラル
ネットワ−クに関しては、既に様々な分野で利用するた
めの研究が進められており、ニュ−ラルネットワ−クを
利用した製品の開発及び市販も様々な分野で行なわれて
いる。また、ニュ−ラルネットワ−クの作成を支援する
ツ−ルも各社で市販されている。この種のニュ−ラルネ
ットワ−クの従来技術としては、例えば、特開平2−1
57981号公報及び特開平3−33968号公報に開
示されたものが知られている。
2. Description of the Related Art In the field of automatically performing pattern classification processing and the like, recently, a technique of a neural network is often used. Studies on this type of neural network have already been made for use in various fields, and development and commercialization of products using the neural network are also being carried out in various fields. Also, tools that support the creation of the neural network are commercially available from various companies. As a conventional technique of this kind of neural network, for example, Japanese Patent Laid-Open No. 2-1
Those disclosed in Japanese Patent No. 57981 and Japanese Patent Laid-Open No. 3-33968 are known.

【0003】[0003]

【発明が解決しようとする課題】ニュ−ラルネットワ−
クの性能は、一般にネットワ−クの構造(層数や各層の
ユニット数),学習回数,学習アルゴリズム,学習の際
に利用するデ−タの種類等々によって大きく変化し、し
かもパタ−ン分類が適用される分野に応じて条件が様々
に変わるので、実際に性能の良いニュ−ラルネットワ−
クを作成するのは非常に難しい。
[Problems to be Solved by the Invention] A neural network
In general, the performance of the network greatly changes depending on the network structure (the number of layers and the number of units in each layer), the number of learnings, the learning algorithm, the type of data used for learning, etc. The conditions will vary depending on the field to which it is applied.
It is very difficult to create a ku.

【0004】例えば製鉄所においては、高炉の水平面内
で検出される円周状の温度分布パタ−ンに関して、炉壁
部付着物の形成状況を識別する必要があるので、平均温
度及び活性部位のバランスが重要であり、例えば図5に
示す8種類のパタ−ンに分類し、現在の炉況がいずれの
パタ−ン分類に属するかに応じて炉の制御を実施する必
要がある。
[0004] For example, in a steel mill, it is necessary to identify the state of formation of deposits on the wall of the furnace with respect to the circumferential temperature distribution pattern detected in the horizontal plane of the blast furnace. Balance is important, and for example, it is necessary to classify into eight types of patterns shown in FIG. 5, and control the furnace according to which pattern classification the current furnace condition belongs to.

【0005】この温度分布パタ−ンの信号に対して、一
般的なニュ−ラルネットワ−クを用いてシミュレ−ショ
ンにより分類処理を実施したが、低い正解率(熟練者と
同じ分類結果が得られる率)しか得られなかった。この
結果については、次のようにいくつかの原因が考えられ
る。
The signal of this temperature distribution pattern was subjected to a classification process by simulation using a general neural network, but a low accuracy rate (the same classification result as an expert can be obtained). Rate). There are several possible causes for this result as follows.

【0006】即ち、同一種類に分類すべき形状のパタ−
ンであっても、複数のパタ−ンの間に水平面内で位置の
回転があると、それらのパタ−ンに大きな変化が生じる
ので、この変化が分類能力を下げる原因になる。また、
図5のパタ−ン分類では、入力デ−タ(温度)そのもの
よりも、パタ−ンの特徴を重視しているので、温度デ−
タ群をそのままネットワ−クに入力するだけではパタ−
ンの特徴が結果に反映され難い。更に、割当てられた複
数の分類パタ−ンの一部に他と比べて差の大きなものが
含まれている場合、一部の分類パタ−ンに対する正解率
を上げようとすると残りの分類パタ−ンに対する正解率
が低下してしまう。例えば図5のパタ−ン1及び2は、
それ以外のパタ−ンに比べて差が大きいので、単一のニ
ュ−ラルネットワ−クを用いて全てのパタ−ンを分類し
ようとする場合、パタ−ン1及び2に対する学習量を増
やすとそれらに対する正解率が向上する代わりにパタ−
ン3〜8に対する正解率が下がり、パタ−ン3〜8に対
する学習量を増やすとそれらに対する正解率が向上する
代わりにパタ−ン1及び2に対する正解率が下がってし
まう。
That is, patterns of shapes to be classified into the same type.
However, if there is a rotation of the position in the horizontal plane between a plurality of patterns, a large change occurs in those patterns, and this change causes a decrease in the classification ability. Also,
In the pattern classification of FIG. 5, since the characteristics of the pattern are emphasized rather than the input data (temperature) itself, the temperature data
Pattern by just inputting the data group into the network as it is.
It is difficult for the characteristics of the computer to be reflected in the results. Furthermore, if some of the assigned classification patterns have a large difference from the others, an attempt to increase the accuracy rate for some of the classification patterns will result in the remaining classification patterns. The correct answer rate will be lower. For example, patterns 1 and 2 in FIG.
Since the difference is large compared to other patterns, if you try to classify all patterns using a single neural network, increase the learning amount for patterns 1 and 2 Instead of improving the accuracy rate for
The correct answer rate for patterns 3 to 8 decreases, and if the learning amount for patterns 3 to 8 increases, the correct answer rate for patterns 3 and 8 decreases, but the correct answer rate for patterns 1 and 2 decreases.

【0007】従って本発明は、分類能力の高いパタ−ン
分類装置を提供することを課題とする。
Therefore, an object of the present invention is to provide a pattern classifying device having a high classifying ability.

【0008】[0008]

【課題を解決するための手段】上記課題を解決するため
に、複数の入力端子と複数の出力端子を備えるネットワ
ークを含み該ネットワークの入力端子に複数の入力信号
を印加して入力信号の組合わせパターンの分類を示す信
号を出力するパターン分類装置において、属性の類似し
た複数の入力信号を原点から等角度の放射線上で該入力
信号の大きさに応じた点に配置し、各配置点を結んだ平
面上の多角形とし、該多角形の幾何学的形状に対して
転処理を行い、予め決定した評価に基づき入力信号をな
らび変えて出力する回転処理手段と、前記複数の入力信
号を標本値として求めた統計的特徴量と前記幾何学的形
状から求めた統計的特徴量を出力する統計量計算処理手
段と、前記回転処理手段と前記統計量計算処理手段の各
出力を入力し、入力信号の組合わせパターンの分類信号
を出力するネットワーク手段を備える
[MEANS FOR SOLVING THE PROBLEMS]
, In pattern classification apparatus for outputting a signal indicating a classification of a combination pattern of a plurality of input signals is applied an input signal to the input terminal of the network comprises a network having an input terminal and a plurality of output terminals of the multiple, Attributes similar
Input multiple input signals on the radiation at the same angle from the origin.
Place the points according to the signal size and connect each point
A polygon on the surface is processed , the geometrical shape of the polygon is rotated , and the input signal is processed based on a predetermined evaluation.
The rotation processing means for changing the output and the plurality of input signals.
Feature values and geometric shapes obtained by using the number of samples as sample values
Statistics calculation processor that outputs the statistical features calculated from the
Stage, each of the rotation processing means and the statistic calculation processing means
Input the output and classify signals of the combination pattern of the input signals
Network means for outputting

【0009】望ましくは、前記回転処理手段は、前記幾
何学的形状をなす入力信号全体の並び順を回転させ、パ
ターン分類毎に予め決定した基準信号との相関係数が最
大となる回転位置を選択して入力信号を出力する。
Preferably, the rotation processing means is
Rotate the sequence of the entire input signal that has a geometric shape to
The correlation coefficient with the predetermined reference signal for each turn classification is the highest.
The input signal is output by selecting the rotation position that is the largest.

【0010】また、前記統計量計算処理手段は、前記複
数の入力信号を標本値として求めた統計的特徴量と前記
幾何学的形状から隣接する3点から求めた山の形状に関
する統計的特徴量を出力する。
Further, the statistic calculation processing means is
Number of input signals as sample values
The shape of the mountain obtained from the three adjacent points from the geometrical shape
Output the statistical feature amount.

【0011】更に、ニューラルネットワークは、特定の
入力信号パターンの出現比率を高めた第1組の学習デー
タに対して重み係数の学習が実施された第1組のネット
ワーク手段と、前記特定の入力信号パターンの出現比率
を下げた第2組の学習データに対して重み係数の学習が
実施された第2組のネットワーク手段、及び未知の入力
信号が前記第1組及び第2組のネットワーク手段に印加
された時に、第1組のネットワーク手段が入力信号を前
記特定パターンとして分類した時には第1組のネットワ
ーク手段の出力を選択し、第1組のネットワーク手段が
入力信号を前記特定パターン以外として分類した時には
第2組のネットワーク手段の出力を選択し、選択した分
類信号を出力する、出力選択手段を備える。
In addition, neural networks are
The first set of learning data with a high appearance ratio of input signal patterns
The first set of nets for which the weighting coefficient learning is performed
Work means and appearance ratio of the specific input signal pattern
Learning of the weighting coefficient for the second set of learning data
The second set of network measures performed and unknown inputs
A signal is applied to the first and second sets of network means
The first set of network means forwards the input signal when
When classified as a specific pattern, the first set of networks
The output of the network means and the first set of network means
When the input signal is classified as other than the specific pattern
Select the output of the second set of network means and select
An output selection means for outputting a class signal is provided.

【0012】[0012]

【作用】複数の入力信号全体の並び順を回転して(図7
参照)位置合せ補償した信号をネットワ−クの入力端子
に印加するので、例えば高炉の温度分布信号のように入
力信号のパタ−ンが回転を生じるものであっても、その
回転方向の位置は基準パタ−ン(即ち学習するパタ−
ン)の回転方向位置と一致するように揃えられてネット
ワ−クに印加される。従って、入力信号パタ−ンの回転
位置はネットワ−クに影響を及ぼさない。これによっ
て、ネットワ−クのパタ−ン分類能力が大幅に向上す
る。
[Function] By rotating the arrangement order of all the plurality of input signals (see FIG.
Since the position-compensated signal is applied to the input terminal of the network, even if the pattern of the input signal causes rotation such as the temperature distribution signal of the blast furnace, the position in the direction of rotation is Reference pattern (that is, learning pattern)
Is applied to the network after being aligned so as to coincide with the position in the rotation direction. Therefore, the rotational position of the input signal pattern does not affect the network. As a result, the pattern classification ability of the network is greatly improved.

【0013】第1組のネットワ−ク手段は特定の入力信
号パタ−ンに対する分類能力が高くなるがその他のパタ
−ンに対する分類能力は低くなり、第2組のネットワ−
ク手段は前記特定の入力信号パタ−ンに対する分類能力
が低くなる代わりにその他のパタ−ンに対する分類能力
が高くなる。ニュ−ラルネットワ−クを通常の方法、即
ちバックプロパゲ−ションで学習させる場合、学習によ
る重み係数の更新はほとんど全てのユニット(神経細
胞)に適用される。従って、例えばパタ−ンA/Bの分
類に関して既に充分な学習が済んでいる状態で、別のパ
タ−ンC/Dの分類に関する学習を実行すると、既に学
習されたA/B分類に関する重み係数までも更新され、
A/B分類の能力(正解率)は低下する。このような分
類能力の低下傾向は、形状差の大きい複数パタ−ンの分
類(例えば図5の活性型パタ−ンと小活性型・不活性型
パタ−ンの分類)と形状差の小さい複数パタ−ンの分類
(例えば図5のパタ−ン3〜8の分類)とを同時に実施
しようとする場合に顕著になる。本発明では、学習デ−
タの変更によって分類能力を異ならせた第1組のネット
ワ−ク手段と第2組のネットワ−ク手段とが備わってい
るので、例えば形状差の大きい複数パタ−ンの分類を第
1組のネットワ−ク手段で実施し、形状差の小さい複数
パタ−ンの分類を第2組のネットワ−ク手段で実施する
ことによって、形状差の大きい複数パタ−ンと形状差の
小さい複数パタ−ンのいずれに対しても高い分類能力が
得られる。
The first set of network means has a high classification ability for a specific input signal pattern but a low classification ability for other patterns, and the second set of network means.
The clock means has a low classification ability for the specific input signal pattern, but has a high classification ability for other patterns. When the neural network is trained by the usual method, that is, back propagation, the updating of the weighting factor by learning is applied to almost all units (neurons). Therefore, for example, when the learning for another pattern C / D classification is executed in the state where the learning for the pattern A / B classification has already been completed, the weighting coefficient for the already learned A / B classification. Is also updated,
A / B classification ability (correct answer rate) decreases. The tendency of the classification ability to decrease is such that a plurality of patterns having a large difference in shape (for example, an active pattern and a small active / inactive pattern in FIG. 5) have a small difference in shape. This becomes remarkable when the pattern classification (for example, the classification of patterns 3 to 8 in FIG. 5) is attempted at the same time. In the present invention, the learning data
Since the network means of the first set and the network means of the second set, which have different classification capabilities by changing the data, are provided, for example, classification of a plurality of patterns having a large difference in shape is performed in the first set. By using the network means and classifying the plurality of patterns having a small shape difference by the second set of network means, a plurality of patterns having a large shape difference and a plurality of patterns having a small shape difference can be obtained. High classification ability is obtained for any of the above.

【0014】ネットワ−クは入力信号とその信号の統計
量(例えば複数信号の平均値など)とを組合せたパタ−
ンを入力してそれを分類する。例えば図5に示した高炉
の水平面温度分布パタ−ンの分類においては、デ−タの
値そのものよりも、温度デ−タ全体のパタ−ンの特徴を
重視して分類しているので、温度デ−タのみをネットワ
−クに入力しても、高い分類能力は期待できない。しか
し本発明では、統計量をも特徴量として入力信号ととも
にネットワ−クに入力して両方の組合せパタ−ンを分類
するので、高い分類能力が期待できる。
The network is a pattern in which an input signal and a statistical amount of the signal (for example, an average value of a plurality of signals) are combined.
Type in to classify it. For example, in the classification of the horizontal plane temperature distribution pattern of the blast furnace shown in FIG. 5, the characteristics of the pattern of the entire temperature data are emphasized rather than the value of the data itself. Even if only data is input to the network, high classification ability cannot be expected. However, in the present invention, the statistical amount is also input as a feature amount to the network together with the input signal to classify both combination patterns, so that high classifying ability can be expected.

【0015】[0015]

【実施例】一実施例のパタ−ン分類装置の構成を図1に
示す。この実施例のパタ−ン分類装置は、図3に示すよ
うに高炉の壁面に配置された多数の温度センサ(熱電
対)によって検出される、所定位置の水平面内温度分布
を示す温度信号群(12点の温度)を入力して、図5に
示すようなステ−ブ温度円周バランスパタ−ンの分類を
実施するものであり、図10に示した構成のワ−クステ
−ション上及びプロセス用コンピュ−タ上で動く、ソフ
トウェア処理として構成されている。勿論、図1の装置
をハ−ドウェアのみ、もしくはハ−ドウェアとソフトウ
ェアの組合せに置き替えて構成することも可能である。
FIG. 1 shows the configuration of a pattern classification device according to an embodiment. The pattern classification device of this embodiment has a temperature signal group (which indicates a temperature distribution in a horizontal plane at a predetermined position, which is detected by a large number of temperature sensors (thermocouples) arranged on the wall surface of the blast furnace as shown in FIG. The temperature of 12 points) is input to classify the steve temperature circumferential balance pattern as shown in FIG. 5, and the work station and process having the configuration shown in FIG. It is configured as a software process that runs on a computer. Of course, it is also possible to replace the apparatus of FIG. 1 with only hardware, or replace it with a combination of hardware and software.

【0016】図1を参照すると、このパタ−ン分類装置
は、回転処理部1,統計計算処理部2,ニュ−ラルネッ
トワ−ク3,4及びデ−タセレクタ部5で構成されてい
る。高炉で得られる12点の温度信号は、回転処理部1
を通って2組のニュ−ラルネットワ−ク3及び4に入力
される。また、12点の温度信号は、統計計算処理部2
にも入力される。ニュ−ラルネットワ−ク3,4の入力
層は16ユニットで構成されており、そのうちの12個
に回転処理部の出力が印加され、統計計算処理部2が出
力する4種類の統計信号a,b,c及びdが、ニュ−ラ
ルネットワ−クの残りの入力ユニットに印加される。
Referring to FIG. 1, this pattern classifying device comprises a rotation processing section 1, a statistical calculation processing section 2, neural networks 3 and 4, and a data selector section 5. The 12 temperature signals obtained in the blast furnace are the rotation processing unit 1
And is input to the two sets of neural networks 3 and 4 through. In addition, the temperature signals of 12 points are calculated by the statistical calculation processing unit 2
Is also entered. The input layers of the neural networks 3 and 4 are composed of 16 units, and the output of the rotation processing unit is applied to 12 of them, and four types of statistical signals a and b output by the statistical calculation processing unit 2 are output. , C and d are applied to the remaining input units of the neural network.

【0017】回転処理部1は、12点の温度信号の並び
順を回転させて位置合せするものである。即ち、この実
施例ではパタ−ンの形状を重視して分類することが必要
であるので、基準となる典型的パタ−ンを回転したパタ
−ンは、元の典型的パタ−ンと同じグル−プに分類する
必要がある(図5参照)。しかし、特定のパタ−ン(典
型的パタ−ン)のみをニュ−ラルネットワ−クで学習し
た場合、回転したパタ−ンに対して分類を誤る可能性が
高い。そこでこの例では、回転処理部1で、12点の温
度信号(D1〜D12)の並び順を図7に示すように回
転し位置合わせした後で、各ニュ−ラルネットワ−クに
印加している。
The rotation processing unit 1 rotates the alignment order of the temperature signals of 12 points and aligns them. That is, in this embodiment, since it is necessary to classify the pattern shape with emphasis on it, the pattern obtained by rotating the reference typical pattern is the same as the original typical pattern. -There is a need to classify (see Figure 5). However, if only a specific pattern (typical pattern) is learned by the neural network, there is a high possibility that the rotated pattern will be misclassified. Therefore, in this example, in the rotation processing unit 1, the temperature signals (D1 to D12) of 12 points are rotated and aligned as shown in FIG. 7, and then applied to each neural network. .

【0018】回転処理部1の具体的な処理の内容とし
て、最初に、デ−タの最大値の位置が典型的パタ−ンと
入力信号パタ−ンとで一致するように入力信号を回転し
て位置合せを実施した。その結果、位置合せしない場合
に比べて分類能力が向上したが、更に性能を改善する必
要が認められた。そこでこの実施例では、更に改良した
図6に示す回転処理を実施している。
As the concrete contents of the processing of the rotation processing section 1, first, the input signal is rotated so that the position of the maximum value of the data coincides with the typical pattern and the input signal pattern. Alignment was performed. As a result, the classification ability was improved compared to the case without alignment, but it was necessary to further improve the performance. Therefore, in this embodiment, the further improved rotation process shown in FIG. 6 is performed.

【0019】図6を参照して、回転処理を説明する。ス
テップS1では12点の温度信号を入力し、次のステッ
プS2では入力した温度信号の値を正規化する。続くス
テップS3では、予め作成してある基準パタ−ン1〜8
(図5の典型的パタ−ンの1〜8)のデ−タを読込む。
ステップS4では、正規化した入力温度信号と各基準パ
タ−ンとの相関係数を計算する。計算の結果は保存して
おく。ステップS5では対比する基準パタ−ンを他のも
のと交換する。そして全ての基準パタ−ンとの相関係数
の計算が終了するまで、ステップS4の処理を繰り返
す。ステップS7では、12点の入力温度信号の位置
を、図7に示すように1ステップ(1点分)回転する。
そして再びステップS4に進み、回転後の入力温度信号
と各基準パタ−ンとの相関係数をそれぞれ計算する。全
ての回転位置について相関係数の計算が終了すると、ス
テップS8からS9に進む。ステップS9では、ステッ
プS4で計算された相関係数のうち、最大のものを捜
し、最大の相関係数が得られた回転位置を検出する。次
のステップS10では、検出した回転位置になるよう
に、12点の入力温度信号を位置合せする。
The rotation process will be described with reference to FIG. In step S1, 12 temperature signals are input, and in the next step S2, the value of the input temperature signal is normalized. In a succeeding step S3, reference patterns 1 to 8 which are created in advance.
Read the data (1-8 of the typical pattern in FIG. 5).
In step S4, the correlation coefficient between the normalized input temperature signal and each reference pattern is calculated. Save the calculation results. In step S5, the reference pattern to be compared is exchanged with another one. Then, the process of step S4 is repeated until the calculation of the correlation coefficient with all the reference patterns is completed. In step S7, the positions of the 12 input temperature signals are rotated by one step (one point) as shown in FIG.
Then, the process proceeds to step S4 again to calculate the correlation coefficient between the input temperature signal after rotation and each reference pattern. When the calculation of the correlation coefficient is completed for all the rotational positions, the process proceeds from step S8 to S9. In step S9, the largest one is searched among the correlation coefficients calculated in step S4, and the rotational position where the maximum correlation coefficient is obtained is detected. In the next step S10, the 12 input temperature signals are aligned so that the detected rotational position is reached.

【0020】次に統計計算処理部2の処理内容を説明す
る。この実施例では、統計計算処理部2は図8に示す処
理を実施している。即ち、ステップS21では12点の
温度信号x(i)を入力し、ステップS22ではx(i)の平
均値aを計算し、ステップS23ではx(i)のうち前記
平均値aより小さいものに関する平均値bを計算し、ス
テップS24では入力温度信号パタ−ン(図4,図9参
照)の各山の角度を検出し、次のステップS25では前
記山の角度が110度以内のポイント数cを検出し、続
くステップS26では平均値+1シグマより大きいx
(i)の数dを計数し、最後のステップS27では、検出
した4つの統計値a,b,c及びdを出力する。
Next, the processing contents of the statistical calculation processing unit 2 will be described. In this embodiment, the statistical calculation processing section 2 carries out the processing shown in FIG. That is, the temperature signals x (i) of 12 points are input in step S21, the average value a of x (i) is calculated in step S22, and the average value a of x (i) in step S23 is smaller than the average value a. The average value b is calculated, and in step S24 the angle of each crest of the input temperature signal pattern (see FIGS. 4 and 9) is detected. In the next step S25, the number c of points where the crest angle is 110 degrees or less. Is detected, and in the subsequent step S26, x larger than the average value + 1 sigma is detected.
The number d of (i) is counted, and in the final step S27, the four detected statistical values a, b, c and d are output.

【0021】ステップS24で検出する山の角度につい
て説明する。この実施例においては、温度パタ−ンの形
状を図4に示すチャ−トで表現している。図4において
は、円の中心が0℃で、その中心から放射状に直線的に
温度の目盛が高くなっており、内側の円の位置が50
℃、外側の円の位置が125℃を表わし、各センサの位
置は30度毎にずらした円周方向の位置で示してある。
このチャ−ト上の温度パタ−ンのi番目の各山の角度
は、図9に示すα[i+1]+β[i]であり、図9のように処
理して計算される。即ち、i番目及びi+1番目のセン
サの検出した温度の値を示す点とチャ−ト中心との距離
をそれぞれL[i]及びL[i+1]とする場合には、各点の条
件に応じて、次のようにα[i]及びβ[i]が計算される。
The mountain angle detected in step S24 will be described. In this embodiment, the shape of the temperature pattern is represented by the chart shown in FIG. In FIG. 4, the center of the circle is 0 ° C., and the temperature scale is increased linearly from the center, and the position of the inner circle is 50 °.
The outer circle position is 125 ° C., and the position of each sensor is shown in the circumferential direction position shifted by 30 °.
The angle of each i-th peak of the temperature pattern on this chart is α [i + 1] + β [i] shown in FIG. 9, and is calculated by processing as shown in FIG. That is, when the distance between the point indicating the temperature value detected by the i-th sensor and the i + 1-th sensor and the center of the chart is L [i] and L [i + 1], respectively, the condition of each point is Accordingly, α [i] and β [i] are calculated as follows.

【0022】L[i]=L[i+1]の時: α[i]=β[i]=(π-π/6)/2 [rad] L[i]>L[i+1]の時: la=L[i+1]×Cos(π/6) lb=L[i]−la t=L[i+1]×Sin(π/6) α[i]=arctan(t/lb) [rad] β[i]=π-π/6−α[i] [rad] L[i]<L[i+1]の時: la=L[i]×Cos(π/6) lb=L[i+1]−la t=L[i]×Sin(π/6) β[i]=arctan(t/lb) [rad] α[i]=π-π/6−β[i] [rad] このようにして各点のα[i]及びβ[i]を求め、その結果
を利用して、各山の角度α[i+1]+β[i]を求める。
When L [i] = L [i + 1]: α [i] = β [i] = (π-π / 6) / 2 [rad] L [i]> L [i + 1] When: la = L [i + 1] × Cos (π / 6) lb = L [i] −la t = L [i + 1] × Sin (π / 6) α [i] = arctan (t / lb) [rad] β [i] = π-π / 6−α [i] [rad] When L [i] <L [i + 1]: la = L [i] × Cos (π / 6) lb = L [i + 1] −la t = L [i] × Sin (π / 6) β [i] = arctan (t / lb) [rad] α [i] = π−π / 6−β [ i] [rad] In this way, α [i] and β [i] at each point are obtained, and the result is used to obtain the angle α [i + 1] + β [i] of each mountain.

【0023】図1に示すパタ−ン分類装置では、二組の
ニュ−ラルネットワ−ク3,4を用いてあるが、これら
2つは学習内容を除き、良く似た構成になっている。ニ
ュ−ラルネットワ−ク3,4の構成は、図2に示すよう
に、入力層,中間層及び出力層の3層構成になってお
り、ネットワ−ク3は入力層が16ユニット、出力層は
7ユニットでそれぞれ構成され、ネットワ−ク4は入力
層が16ユニット、出力層は6ユニットでそれぞれ構成
されている。入力層の16ユニットのうち12ユニット
に、回転処理により位置合せされた12点の温度信号が
印加され、残りの4ユニットに、統計値a,b,c及び
dがそれぞれ印加される。ネットワ−ク3の出力層の1
番目のユニットはパタ−ン1及び2に割り当てられ、2
番目,3番目,4番目,5番目,6番目及び7番目のユ
ニットは、それぞれパタ−ン3,パタ−ン4,パタ−ン
5,パタ−ン6,パタ−ン7及びパタ−ン8に割り当て
てある。
In the pattern classifying apparatus shown in FIG. 1, two sets of neural networks 3 and 4 are used, but these two have a similar structure except the learning contents. As shown in FIG. 2, the structure of the neural networks 3 and 4 is a three-layer structure of an input layer, an intermediate layer and an output layer. In the network 3, the input layer has 16 units and the output layer has The network 4 has 16 units in the input layer and 6 units in the output layer. The temperature signals of 12 points aligned by the rotation process are applied to 12 units out of 16 units of the input layer, and the statistical values a, b, c and d are applied to the remaining 4 units, respectively. 1 of output layer of network 3
The second unit is assigned to patterns 1 and 2 and 2
The 3rd, 3rd, 4th, 5th, 6th and 7th units are, respectively, pattern 3, pattern 4, pattern 5, pattern 6, pattern 7 and pattern 8 Assigned to.

【0024】図5に示すように、この実施例の典型的パ
タ−ンは8種類に区分されているが、パタ−ン1とパタ
−ン2については両者の混同が激しく、また両者は共に
活性型であり実用上分類の必要性がないので、これらを
同一の分類に統合した結果、図1の装置は7種類のパタ
−ンを分類するように構成された。
As shown in FIG. 5, typical patterns of this embodiment are divided into eight types, but pattern 1 and pattern 2 are highly confused with each other, and both are also Since they are active and do not require classification in practice, as a result of integrating them into the same classification, the device of FIG. 1 was configured to classify 7 types of patterns.

【0025】なお、ニュ−ラルネットワ−ク3,4を構
成する各ユニット(細胞)の構成は、基本的に従来より
公知の技術と同様であり、例えば1〜nの入力端子を有
するユニットの出力値は、i番目の入力端子に関する入
力値及び重み係数(即ち結合係数)を、それぞれD(i)
及びw(i)とする場合、D(i)×w(i)のi=1〜nの総
和に対する関数(例えばシグモイド関数)の出力値にな
る。
The structure of each unit (cell) constituting the neural networks 3 and 4 is basically the same as that of a conventionally known technique, for example, the output of a unit having 1 to n input terminals. For the value, the input value and the weighting coefficient (that is, the coupling coefficient) for the i-th input terminal are respectively set to D (i)
And w (i) are output values of a function (for example, a sigmoid function) with respect to the sum of i = 1 to n of D (i) × w (i).

【0026】この実施例では、一方のニュ−ラルネット
ワ−ク3を学習させるための学習デ−タとして、図5に
示すパタ−ン1及びパタ−ン2に分類されるデ−タをそ
れぞれ5種類、それ以外に分類されるパタ−ンを20種
類用意し、合計で30種類のパタ−ン(グル−プB)に
ついて各々所定回数の学習を実施した。学習のアルゴリ
ズムとしては公知のバックプロパゲ−ションを用いた。
またもう一方のニュ−ラルネットワ−ク4を学習させる
ための学習デ−タとしては、図5に示すパタ−ン3,
4,5,6,7又は8に属するものについて合計で24
種類のパタ−ン(グル−プA)を用意し、各々のパタ−
ンについて所定回数の学習を実施した。学習のアルゴリ
ズムとしてはバックプロパゲ−ションを用いた。
In this embodiment, as the learning data for learning one neural network 3, the data classified into patterns 1 and 2 shown in FIG. Twenty types of patterns classified into types and other types were prepared, and learning was performed a predetermined number of times for a total of 30 types of patterns (group B). A known back propagation was used as a learning algorithm.
As learning data for learning the other neural network 4, the pattern 3 shown in FIG.
24 in total for items belonging to 4, 5, 6, 7 or 8
Prepare different types of patterns (group A), each pattern
Training was conducted a predetermined number of times. Back-propagation was used as a learning algorithm.

【0027】従って、一方のニュ−ラルネットワ−ク3
は、パタ−ン1及び2とそれ以外のパタ−ンとの分類能
力が高く、他方のニュ−ラルネットワ−ク4は、パタ−
ン1及び2に属さないものをパタ−ン3〜8のいずれか
に分類する能力が高い。そこで、図1に示すように、ニ
ュ−ラルネットワ−ク3のパタ−ン1,2の分類出力を
利用して、デ−タセレクタ5の切替制御を実施し、ニュ
−ラルネットワ−ク3が未知のパタ−ンをパタ−ン1,
2に分類した時にはニュ−ラルネットワ−ク3のパタ−
ン3〜パタ−ン8の分類出力をデ−タセレクタで選択
し、ニュ−ラルネットワ−ク3が未知のパタ−ンをパタ
−ン1,2以外に分類した時にはニュ−ラルネットワ−
ク4のパタ−ン3〜パタ−ン8の分類出力をデ−タセレ
クタで選択し、選択されたパタ−ン3〜パタ−ン8の分
類出力と、ニュ−ラルネットワ−ク3のパタ−ン1,2
の分類出力を、このパタ−ン分類装置の分類結果として
選択的に出力するように構成してある。正確には、ニュ
−ラルネットワ−ク3は、パタ−ン1,2の検出専用に
なっている。
Accordingly, one of the neural networks 3
Has a high classification ability between patterns 1 and 2 and the other patterns, and the other neural network 4 has a pattern.
The ability to classify those that do not belong to patterns 1 and 2 into any of patterns 3 to 8 is high. Therefore, as shown in FIG. 1, the switching control of the data selector 5 is performed by utilizing the classification outputs of the patterns 1 and 2 of the neural network 3, and the neural network 3 is unknown. Pattern 1, Pattern 1,
When classified into 2, the pattern of the neural network 3
When the classification output of patterns 3 to 8 is selected by the data selector, and the neural network 3 classifies an unknown pattern into a pattern other than patterns 1 and 2, the neural network 3 is selected.
The classification outputs of patterns 3 to 8 of group 4 are selected by the data selector, and the classification outputs of patterns 3 to 8 selected and the pattern of neural network 3 are selected. 1,2
The classification output of (1) is selectively output as the classification result of the pattern classification device. To be precise, the neural network 3 is dedicated to detecting the patterns 1 and 2.

【0028】このパタ−ン分類装置の分類能力を熟練オ
ペレ−タと比較し、同一の分類結果になったものを正解
としたところ、約85%の正解率が得られた。また、不
正解であったデ−タについては、いずれのパタ−ンに分
類すべきか判断するのが極めて微妙なものが多く、実際
の操業にこのパタ−ン分類装置を使用しても何ら支障は
生じないことが分かった。
The classification ability of this pattern classifier was compared with that of a skilled operator, and if the same classification result was regarded as the correct answer, a correct answer rate of about 85% was obtained. In addition, it is very delicate to judge which pattern should be classified for incorrect data, and even if this pattern classifier is used for actual operation, there is no problem. Was found not to occur.

【0029】以上説明したようなパタ−ン分類装置を効
率的に開発するのに役立つ、ネットワ−ク作成装置の実
施例について以下に説明する。
An embodiment of the network creating device which is useful for efficiently developing the pattern classifying device as described above will be described below.

【0030】この実施例のネットワ−ク作成装置は、図
10に示すワ−クステ−ション上に構成されている。図
10を参照すると、このワ−クステ−ションは、中央処
理装置CPU,表示装置CRT,キ−ボ−ドKB,マウ
スMS,主記憶装置MM,補助記憶装置HD,プリンタ
PR及び通信装置CUで構成されており、通信装置CU
はロ−カルエリアネットワ−クに接続されている。補助
記憶装置HD上には、基本ソフトウェア(即ちオペレ−
ティングシステム)とネットワ−ク作成装置のためのア
プリケ−ションソフトウェアが組込まれている。ワ−ク
ステ−ションの電源を投入してオペレ−ティングシステ
ムを起動した後、システムにログインし、更にキ−ボ−
ドKB又はマウスMSによって所定の入力操作を実施す
ることによって、ネットワ−ク作成装置のシステムが起
動する。このシステムを起動すると、図18に示す処理
が開始される。
The network creating apparatus of this embodiment is constructed on the workstation shown in FIG. Referring to FIG. 10, this work station includes a central processing unit CPU, a display unit CRT, a keyboard KB, a mouse MS, a main storage unit MM, an auxiliary storage unit HD, a printer PR and a communication unit CU. Configured, communication unit CU
Is connected to the local area network. On the auxiliary storage device HD, basic software (that is, operating software)
Application system) and application software for a network creation device. After turning on the workstation and starting the operating system, log in to the system and then use the keyboard.
The system of the network creation device is activated by performing a predetermined input operation with the mouse KB or the mouse MS. When this system is activated, the processing shown in FIG. 18 is started.

【0031】図18の最初のステップS31ではメイン
メニュ−を表示装置CRT上に表示する。これによっ
て、例えば図11に示すようなメニュ−画面が表示され
る。このメニュ−画面においては、操作可能なキ−とし
て終了キ−K1a,モデル登録キ−K1b,構造設定キ
−K1c,学習モ−ドキ−K1d,取消キ−K1e,モ
デル削除キ−K1f,実機転送キ−K1g及び評価モ−
ドキ−K1hが設けられており、更にモデルNO領域A
1a,モデル一覧表領域A1b,層数一覧表領域A1c
が設けられている。
In the first step S31 of FIG. 18, the main menu is displayed on the display device CRT. As a result, a menu screen as shown in FIG. 11, for example, is displayed. On this menu screen, as an operable key, an end key K1a, a model registration key K1b, a structure setting key K1c, a learning mode key K1d, a cancel key K1e, a model deletion key K1f, and an actual machine transfer Key K1g and evaluation mode
Doki-K1h is provided, and model NO area A
1a, model list area A1b, layer number list area A1c
Is provided.

【0032】画面上のモデル登録キ−K1bをマウス又
はキ−ボ−ドから操作することによって、図18のステ
ップS43が実行される。この時には、モデル一覧表領
域A1bの各欄に対して、モデルNO,モデル名及びメ
モを入力することができる。入力された情報はメモリ上
に登録され、モデル一覧表上に表示される。
By operating the model registration key K1b on the screen with the mouse or the keyboard, step S43 of FIG. 18 is executed. At this time, the model number, the model name, and the memo can be input to each column of the model list area A1b. The entered information is registered in the memory and displayed on the model list.

【0033】また、画面上のモデルNO領域A1aを指
示することによって、図18のステップS44が実行さ
れる。この時には、予め登録したモデル(モデル一覧表
に表示されているモデル)の中から1つのモデルを番号
を指定して選択することができる。選択したモデルの番
号は、メモリ上に登録され、モデルNO領域A1aに表
示される。
By designating the model NO area A1a on the screen, step S44 of FIG. 18 is executed. At this time, one model can be selected and designated from the models registered in advance (the models displayed in the model list). The number of the selected model is registered in the memory and displayed in the model NO area A1a.

【0034】画面上の構造設定キ−K1cをマウス又は
キ−ボ−ドから操作することによって、図18のステッ
プS45が実行される。この時には、層数一覧表領域A
1cに対して、各層の細胞数を入力することができる。
入力された各層の細胞数は、その時に選択しているモデ
ルに対する各層の構造情報としてメモリに登録され、更
新された情報は層数一覧表領域A1cに表示される。
By operating the structure setting key K1c on the screen with the mouse or the keyboard, step S45 of FIG. 18 is executed. At this time, the layer number list area A
The number of cells in each layer can be input for 1c.
The input cell number of each layer is registered in the memory as structural information of each layer for the model selected at that time, and the updated information is displayed in the layer number list area A1c.

【0035】取消キ−K1eを操作すると、図18のス
テップS47が実行されるが、その前にS45で構造設
定が完了していると、S47において、メモリ上に1つ
のニュ−ラルネットワ−クが作成される。具体的には、
予め用意されたC言語のソ−スファイルと設定された層
数及び各層の細胞数のパラメ−タの情報に基づいて、ソ
−スファイルのコンパイルが実行され、ネットワ−クの
デ−タ構造とそのネットワ−クに対する計算を実施する
オブジェクトプログラムが作成される。なおこのネット
ワ−クは、学習用モデルと評価用モデルの2組で構成さ
れる。
When the cancel key K1e is operated, step S47 in FIG. 18 is executed. However, if the structure setting is completed in step S45 before that, one neural network is created in the memory in step S47. Created. In particular,
The source file is compiled based on the information of the C language source file prepared in advance, the set number of layers and the parameter of the number of cells in each layer, and the network data structure. And an object program that executes calculations for the network are created. This network is composed of two sets, a learning model and an evaluation model.

【0036】作成されたニュ−ラルネットワ−クは、学
習を実施することによって所望のパタ−ン分類機能が備
わる。図11の画面上で学習モ−ドキ−K1dを操作す
ることによって、図18のステップ48が実行される
が、これによって図19に示す学習モ−ドの処理に進む
ことができる。
The created neural network is provided with a desired pattern classification function by performing learning. By operating the learning mode key K1d on the screen of FIG. 11, step 48 of FIG. 18 is executed, which allows the processing to proceed to the learning mode shown in FIG.

【0037】図19の最初のステップS51では学習メ
ニュ−を表示装置CRT上に表示する。これによって、
例えば図12に示すようなメニュ−画面が表示される。
このメニュ−画面においては、操作可能なキ−として終
了キ−K2a,学習NO登録キ−K2b,デ−タ作成キ−
K2c,細胞割付キ−K2d,取消キ−K2e,デ−タ
削除キ−K2f,学習モ−ド設定キ−K2g,学習キ−
K2h及びデ−タ解析キ−K2iが設けられており、更
にモデルNO領域A2a,学習NO領域A2b,実機デ
−タファイル領域A2c,学習モ−ド領域A2e,終了
条件領域A2f,学習終了値領域A2g,学習デ−タ一
覧表領域A2h及び学習状況領域A2iが設けられてい
る。
In the first step S51 of FIG. 19, the learning menu is displayed on the display device CRT. by this,
For example, a menu screen as shown in FIG. 12 is displayed.
On this menu screen, the operable keys are the end key K2a, the learning NO registration key K2b, and the data creation key.
K2c, cell allocation key K2d, cancel key K2e, data deletion key K2f, learning mode setting key K2g, learning key
K2h and a data analysis key K2i are provided, and further, a model NO area A2a, a learning NO area A2b, a real machine data file area A2c, a learning mode area A2e, an end condition area A2f, and a learning end value area A2g. , A learning data list area A2h and a learning status area A2i are provided.

【0038】画面上の学習NO登録キ−K2bをマウス又
はキ−ボ−ドから操作することによって、図19のステ
ップS63が実行される。この時には、学習デ−タの番
号とデ−タ名を入力することができる。入力された情報
はメモリ上に登録され、学習デ−タ一覧表上に表示され
る。
By operating the learning NO registration key K2b on the screen with the mouse or the keyboard, step S63 of FIG. 19 is executed. At this time, the learning data number and data name can be entered. The input information is registered in the memory and displayed on the learning data list.

【0039】また、学習NO領域A2bをマウス又はキ
−ボ−ドで指示することによって、図19のステップS
64が実行される。この時には、登録された学習デ−タ
(一覧表に表示されているデ−タ)の1つを選択するこ
とができる。選択された学習デ−タの番号はメモリに登
録され、学習NO領域A2bに表示される。
Further, by pointing the learning NO area A2b with the mouse or the keyboard, step S in FIG.
64 is executed. At this time, one of the registered learning data (data displayed in the list) can be selected. The number of the selected learning data is registered in the memory and displayed in the learning NO area A2b.

【0040】学習デ−タを選択した後で、デ−タ作成キ
−K2cを指示することによって、図19のステップS
66が実行される。このステップでは、学習デ−タの内
容をオペレ−タの入力操作によって作成し登録する。実
際には、図15に示すような画面が表示されるので、こ
の画面において入力する行を指定し、各行でパタ−ン
名,学習デ−タ及び教師デ−タを入力する。図15に示
された例は、ネットワ−クの入力層が6ユニット(統計
値のユニットを除く)で構成され、出力層が4ユニット
で構成される場合を示している。例えば、1行目のデ−
タの場合、50.0,54.0,50.0,44.5,35.0及び16.4が入
力層の6つのユニットに印加される時に、出力層の1番
目,2番目,3番目及び4番目のユニットの教師デ−タ
がそれぞれ1.0,0.0,0.0及び0.0になる。
After selecting the learning data, by instructing the data preparation key K2c, step S in FIG.
66 is executed. In this step, the contents of the learning data are created and registered by the input operation of the operator. Actually, since a screen as shown in FIG. 15 is displayed, a line to be input is designated on this screen, and a pattern name, learning data and teacher data are input in each line. The example shown in FIG. 15 shows a case where the input layer of the network is composed of 6 units (excluding the unit of the statistical value) and the output layer is composed of 4 units. For example, the data on the first line
For example, when 50.0, 54.0, 50.0, 44.5, 35.0 and 16.4 are applied to the 6 units of the input layer, the teacher data of the 1st, 2nd, 3rd and 4th units of the output layer are It becomes 1.0, 0.0, 0.0 and 0.0 respectively.

【0041】図12の表示画面において、細胞割付キ−
K2dをマウス又はキ−ボ−ドで指示すると、図19の
ステップS67が実行され、これによって図20に示す
処理に進む。図20の最初のステップS81では、例え
ば図13に示すような細胞割付画面を表示する。図13
の例は、ネットワ−クの入力層が7つのユニット(細
胞)で構成されている場合を示している。各々のユニッ
トに割当てられるデ−タに関する情報をこの画面で指定
する。指定できる項目としては、NO,入力デ−タ名,
返り値NO,正規化方法,正規化定数及び正規化関数名
がある。NOはデ−タを割付ける細胞の番号を示す。
On the display screen of FIG. 12, the cell allocation key
When K2d is designated by the mouse or the keyboard, step S67 of FIG. 19 is executed, and the process shown in FIG. In the first step S81 of FIG. 20, a cell allocation screen as shown in FIG. 13, for example, is displayed. FIG.
The above example shows the case where the input layer of the network is composed of seven units (cells). Information about the data assigned to each unit is specified on this screen. Items that can be specified are NO, input data name,
There are return value NO, normalization method, normalization constant and normalization function name. NO indicates the cell number to which data is assigned.

【0042】図13の表示画面において入力キ−K3b
をマウス又はキ−ボ−ドで指示すると、図20のステッ
プ93が実行され、図21の処理に進む。この場合、ス
テップS101の実行によって、画面の表示内容は図14の
ようにチョイスウインドゥが開き、新たにキ−K4b,
K4c,K4e及びK4fが表示される。図14の画面
でキ−K4b,K4c,K4e及びK4fを指示するこ
とによって、原デ−タ,直接指定,統計値,及びユ−ザ
指定を入力デ−タの種類として選択することができる。
On the display screen of FIG. 13, the input key K3b
Is designated by the mouse or the keyboard, step 93 of FIG. 20 is executed and the process proceeds to FIG. In this case, by executing step S101, the displayed content of the screen opens a choice window as shown in FIG. 14, and a new key K4b,
K4c, K4e and K4f are displayed. By designating keys K4b, K4c, K4e and K4f on the screen shown in FIG. 14, original data, direct designation, statistical value, and user designation can be selected as the type of input data.

【0043】原デ−タの選択は、図15に示す画面で作
成されたデ−タを正規化して各細胞に入力することを意
味し、直接指定の選択は図15に示す画面で作成された
デ−タを正規化せず直接に各細胞に入力することを意味
し、統計値の選択は図15に示す画面で作成されたデ−
タの統計値を各細胞に入力することを意味し、ユ−ザ指
定の選択は、図15に示す画面で作成されたデ−タを、
予めユ−ザが作成した関数(サブル−チン)によって処
理した結果を各細胞に入力することを意味する。また、
統計値を選択した場合には、更に次の選択項目が表示さ
れ、基本統計値の中のいずれを割付るのかを選択するこ
とができる。この実施例では、基本統計値として、平均
値,標準偏差,偏差平方和,分散,標準誤差,最大値,
最小値,範囲,メジアン,及び最大値の位置を用意して
ある。この中のいずれかが選択される。図13及び図1
4に示した例では、ネットワ−クの入力層の1番〜6番
のユニットに原デ−タを割付け、7番のユニットに統計
値の中の平均値を割付けた場合を示している。
The selection of original data means that the data created on the screen shown in FIG. 15 is normalized and input to each cell, and the selection directly specified is created on the screen shown in FIG. It means that the obtained data is directly input to each cell without normalization, and the selection of the statistical value is performed by the data created on the screen shown in FIG.
It means that the statistical value of the data is input to each cell, and the selection by the user selects the data created on the screen shown in FIG.
This means inputting the result of processing by a function (subroutine) created by the user in advance to each cell. Also,
When the statistic value is selected, the following selection items are further displayed, and it is possible to select which of the basic statistic values is to be assigned. In this embodiment, as the basic statistical values, the average value, standard deviation, sum of squared deviations, variance, standard error, maximum value,
The minimum, range, median, and maximum position are provided. One of these is selected. FIG. 13 and FIG.
In the example shown in FIG. 4, the original data is assigned to the units 1 to 6 in the input layer of the network, and the average of the statistical values is assigned to the unit 7.

【0044】返り値NOは、ユ−ザ指定関数からの戻り
値を割り付ける細胞を示す。正規化方法は、入力デ−タ
を正規化して細胞に印加する場合の正規化処理を指定す
るものであり、この例では、デ−タを一定値で割る方
法,幅で割る(列ごとの最大及び最小値によって正規化
する)方法,及びユ−ザ指定関数によって正規化する方
法の3種類の中から選択できる。正規化定数は、正規化
方法として、デ−タを一定値で割る方法を選択した場合
の一定値を示す。正規化関数名は、正規化方法としてユ
−ザ指定関数を選択した場合に使用する関数の名称を示
す。
The return value NO indicates the cell to which the return value from the user specifying function is assigned. The normalization method specifies a normalization process when input data is normalized and applied to cells. In this example, the data is divided by a constant value and divided by a width (for each column). It is possible to select from three types: a method of normalizing by maximum and minimum values) and a method of normalizing by a user specification function. The normalization constant indicates a constant value when the method of dividing data by a constant value is selected as the normalization method. The normalization function name indicates the name of the function used when the user specification function is selected as the normalization method.

【0045】図12の画面において、学習モ−ド設定キ
−K2gを指定した場合、図19のステップS68が実
行される。この時には、学習モ−ド,終了条件,及び学
習終了値が設定される。学習モ−ドについては、新規学
習と既存の学習ファイル(重み係数ファイル)の更新学
習のいずれかを選択でき、終了条件については、学習を
終了する条件として、学習回数,誤差,及び自動のいず
れかを選択でき、条件として学習回数を選択した時には
学習終了値として学習回数を指定し、条件として誤差を
選択した時には学習終了値としてネットワ−クの出力と
教師デ−タとの誤差(収束値)を指定する。設定した条
件は、登録され、画面上の領域A2e,A2f及びA2
gに表示される。
When the learning mode setting key K2g is designated on the screen of FIG. 12, step S68 of FIG. 19 is executed. At this time, the learning mode, the end condition, and the learning end value are set. As for the learning mode, either new learning or update learning of an existing learning file (weighting coefficient file) can be selected, and as for the end condition, the number of times of learning, error, and automatic are used as conditions for ending the learning. When the number of times of learning is selected as a condition, the number of times of learning is specified as a learning end value, and when an error is selected as a condition, an error between the network output and the teacher data is set as a learning end value (convergence value ) Is specified. The set conditions are registered, and the areas A2e, A2f and A2 on the screen are registered.
It is displayed in g.

【0046】上記のように操作して学習の準備を整えた
後、図12に示す画面において、学習キ−K2hを指示
すると、図19のステップS69に進み、学習処理を実
行する。この学習処理では、バックプロパゲ−ションの
アルゴリズムが用いられている。即ち、指定された学習
デ−タを必要に応じて正規化し、必要に応じて統計処理
を実施し、指定された入力層のユニットに入力し、ネッ
トワ−クの計算を実行し、その結果ネットワ−クの出力
層の各ユニットに得られる値と、指定された学習デ−タ
に付随する教師デ−タ(図15参照)とを比較し、両者
の誤差を0に近づけるように、出力層から入力層に向か
って、各ユニットの重み係数(結合係数)の値を少しず
つ修正する。この動作を何回も繰り返し実行する。学習
の状況は、図12に示す画面の領域A2iに、学習回数
と誤差との対応の変化を示す学習曲線として表示され
る。
After preparing for learning by operating as described above, when the learning key K2h is instructed on the screen shown in FIG. 12, the process proceeds to step S69 in FIG. 19 and the learning process is executed. In this learning process, a backpropagation algorithm is used. That is, the specified learning data is normalized as necessary, statistical processing is performed as necessary, input to the specified input layer unit, network calculation is executed, and the result is calculated. -The value obtained in each unit of the output layer of the output data is compared with the teacher data (see FIG. 15) accompanying the specified learning data, and the error between the two is approximated to 0. From the to the input layer, the value of the weighting coefficient (coupling coefficient) of each unit is modified little by little. This operation is repeated many times. The learning situation is displayed in a region A2i of the screen shown in FIG. 12 as a learning curve showing a change in the correspondence between the learning number and the error.

【0047】図12に示す表示画面においてデ−タ解析
キ−K2iを指示すると、図19のステップS71が実
行される。この処理においては、指定した学習デ−タ
(図15参照)の特徴分析のために、学習デ−タのグラ
フ表示,学習デ−タの印刷,学習デ−タの統計値の計算
及び印刷をオペレ−タの指示によって処理することがで
きる。学習デ−タをグラフ表示する場合には、折れ線グ
ラフとレ−ダチャ−トの2種類のグラフを選択的に表示
することができ、グラフ上の各要素の表示位置を移動
(折れ線グラフの場合には軸方向への移動,レ−ダチャ
−トの場合には回転)することもできる。
When the data analysis key K2i is designated on the display screen shown in FIG. 12, step S71 of FIG. 19 is executed. In this process, in order to analyze the characteristics of the designated learning data (see FIG. 15), the learning data is displayed as a graph, the learning data is printed, and the statistical value of the learning data is calculated and printed. It can be processed according to the operator's instruction. When displaying learning data as a graph, it is possible to selectively display two types of graphs, a line graph and a radar chart, and move the display position of each element on the graph (in the case of a line graph Can be moved in the axial direction and rotated in the case of radar chart).

【0048】学習が終了した後、図11に示す画面に戻
り、評価モ−ドキ−K1hをマウス又はキ−ボ−ドで指
示すると、図18のステップS49を実行し、図22に
示す評価モ−ド処理に進む。この場合、まずステップS1
21で、図16に示すような評価メニュ−を表示する。図
16の画面には、終了キ−K6a,評価NO登録キ−K
6b,デ−タ作成キ−K6c,細胞割付キ−K6d,前
処理生成キ−K6e,取消キ−K6f,デ−タ削除キ−
K6g,入力モ−ドキ−K6h,表示仕様キ−K6i,
割付コピ−キ−K6j,評価キ−K6k,表示取消キ−
K6l,モデルNO領域A6a,学習NO領域A6b,
評価NO領域A6c,入力モ−ド領域A6d,表示モ−
ド領域A6e,グラフモ−ド領域A6f,スケ−ル領域
A6g,及び表示デ−タ一覧表領域A6hが備わってい
る。
After the learning is completed, the screen shown in FIG. 11 is returned to. When the evaluation mode key K1h is designated by the mouse or the keyboard, step S49 of FIG. 18 is executed and the evaluation mode shown in FIG. -Go to processing. In this case, first step S1
At 21, the evaluation menu as shown in FIG. 16 is displayed. On the screen of FIG. 16, the end key K6a, the evaluation NO registration key K
6b, data creation key K6c, cell allocation key K6d, pretreatment generation key K6e, cancel key K6f, data deletion key
K6g, input mode key K6h, display specification key K6i,
Assignment copy key K6j, evaluation key K6k, display cancel key
K6l, model NO area A6a, learning NO area A6b,
Evaluation NO area A6c, input mode area A6d, display mode
A display area A6e, a graph mode area A6f, a scale area A6g, and a display data list area A6h are provided.

【0049】この評価モ−ドでは、作成したニュ−ラル
ネットワ−クに未知のデ−タパタ−ンを入力し、ネット
ワ−クが出力する分類結果を調べることができる。この
評価を実施する場合には、まず評価NO登録キ−K6b
を操作した後で評価の番号と名称を入力する。入力した
情報は登録され、評価デ−タ一覧表領域A6h上に表示
される。次に学習NO領域A6bをマウス又はキ−ボ−
ドで指示すると、図22のステップS144が実行されるの
で、ここで重み係数デ−タを選択する。即ち、評価する
ネットワ−クについて学習モ−ドで予め作成してある1
つ又は複数の重み係数デ−タファイルの中から1つを選
択する。学習が終了していないネットワ−クを評価する
ことはできない。
In this evaluation mode, an unknown data pattern can be input to the created neural network and the classification result output by the network can be examined. When carrying out this evaluation, first the evaluation NO registration key K6b
After operating, enter the evaluation number and name. The entered information is registered and displayed on the evaluation data list area A6h. Next, the learning NO area A6b is moved to the mouse or keyboard.
22 is executed, the weighting factor data is selected here. That is, the network to be evaluated is created in advance in the learning mode.
One is selected from one or a plurality of weight coefficient data files. It is not possible to evaluate a network that has not completed learning.

【0050】次に、評価NO領域A6cをマウス又はキ
−ボ−ドで指示すると、図22のステップS145が実行さ
れるので、ここで予め登録してある評価デ−タ(領域A
6hに表示されているデ−タ)の1つを選択する。続い
て、デ−タ作成キ−K6cを指示すると、図22のステ
ップS146が実行される。ここで選択された評価デ−タの
内容を入力し評価デ−タの本体を作成する。この場合、
図示しないが、例えば図15に示す学習デ−タの作成画
面と同様な画面が表示されるので、その場合と同様にし
て、評価対象となる未知のデ−タパタ−ンを入力する。
学習モ−ドの場合には、学習デ−タと教師デ−タを入力
する必要があるが、評価モ−ドでは評価対象となるデ−
タ(ニュ−ラルネットワ−クの入力層に印加するデ−
タ)のみを入力する。
Next, when the evaluation NO area A6c is designated by the mouse or the keyboard, step S145 in FIG. 22 is executed. Therefore, the evaluation data (area A registered in advance) (area A) is executed.
Select one of the data displayed in 6h). Then, when the data creation key K6c is instructed, step S146 in FIG. 22 is executed. The contents of the evaluation data selected here are input to create the main body of the evaluation data. in this case,
Although not shown, for example, a screen similar to the learning data creation screen shown in FIG. 15 is displayed, and similarly to that case, an unknown data pattern to be evaluated is input.
In the learning mode, it is necessary to input the learning data and the teacher data, but in the evaluation mode, the data to be evaluated.
Data (data applied to the input layer of the neural network)
Enter only).

【0051】続いて、細胞割付キ−K6dをマウス又は
キ−ボ−ドで指示すると、図22のステップS147が実行
される。ここで評価デ−タをネットワ−クの各ユニット
に割当てる。この細胞割付では、学習モ−ドにおける細
胞割付の場合と同様の処理が実施される。
Then, when the cell allocation key K6d is designated by the mouse or the keyboard, step S147 of FIG. 22 is executed. Here, the evaluation data is assigned to each unit of the network. In this cell allocation, the same processing as in the cell allocation in the learning mode is performed.

【0052】次に、前処理生成キ−K6eをマウス又は
キ−ボ−ドで指示すると、図22のステップS148が実行
される。この処理では、ステップS147で設定されたデ−
タ割付に基づいて、前処理用モジュ−ルが作成される。
この前処理用モジュ−ルは、例えば図1における回転処
理部1に相当するものであり、評価対象入力デ−タを前
処理(図1の例では回転方向の位置合せ)してからニュ
−ラルネットワ−クに印加する。
Next, when the mouse or the keyboard is used to instruct the pretreatment generation key K6e, step S148 of FIG. 22 is executed. In this process, the data set in step S147
A pretreatment module is created based on the data allocation.
This pre-processing module corresponds to, for example, the rotation processing unit 1 in FIG. 1, and is used after pre-processing the input data to be evaluated (alignment in the rotation direction in the example of FIG. 1). Apply to Lar network.

【0053】入力モ−ドキ−K6hを指示すると、図2
2のステップS150が実行される。ここで、評価対象のデ
−タを予め用意した評価デ−タファイルから読込んで入
力するか、又はキ−ボ−ドから直接入力するかを選択で
きる。また、表示仕様キ−K6iを指示すると、評価結
果を表示する画面における表示仕様を変更することがで
きる。
When the input mode key K6h is designated, as shown in FIG.
Step S150 of 2 is executed. Here, it is possible to select whether the data to be evaluated is read from a previously prepared evaluation data file and input, or directly input from the keyboard. In addition, when the display specification key K6i is designated, the display specification on the screen displaying the evaluation result can be changed.

【0054】次に、評価キ−K6kを指示すると、図2
2のステップS151が実行される。入力モ−ドとしてファ
イルを選択した場合には、ファイルの番号を入力する
と、そのファイルのデ−タを評価対象デ−タとして読込
んで、ネットワ−クに印加し、評価を開始する。即ち、
評価デ−タに対してネットワ−クの計算を実施し、ネッ
トワ−クの出力層の各ユニットの出力値を評価値として
表示し、その中で最も高い評価結果が得られたユニット
の分類パタ−ンを評価結果として表示する。また、評価
対象デ−タ及び学習デ−タをグラフ表示する。これによ
って、例えば図17のような画面が表示される。なお図
17の例では評価対象デ−タが折線グラフで表示されて
いるが、表示仕様を変更すれば、レ−ダチャ−トによっ
て、例えば図4のように評価対象デ−タを表示すること
もできる。
Next, when the evaluation key K6k is designated, as shown in FIG.
The second step S151 is executed. When a file is selected as the input mode, when the file number is input, the data of the file is read as the evaluation target data, applied to the network, and the evaluation is started. That is,
The network is calculated for the evaluation data, the output value of each unit in the output layer of the network is displayed as the evaluation value, and the classification pattern of the unit with the highest evaluation result is displayed. -Is displayed as the evaluation result. Also, the evaluation target data and the learning data are displayed in a graph. As a result, a screen as shown in FIG. 17, for example, is displayed. In the example of FIG. 17, the evaluation target data is displayed as a line graph, but if the display specifications are changed, the evaluation target data can be displayed by the radar chart as shown in FIG. 4, for example. You can also

【0055】また、図16に示す表示画面において、割
付コピ−キ−K6jを指示すると、選択された学習NO
のデ−タについて学習モ−ドで学習を実施した時に設定
された細胞割付と一致するように、登録されたその情報
を参照して自動的に細胞割付が実施される。即ち、各々
のネットワ−クについて、各モ−ドで指定した情報は、
そのネットワ−クに対応付けたデ−タファイルとして、
主記憶装置MM上又は補助記憶装置HD上に保存されて
いるので、学習モ−ドの際に指定した細胞割付の情報、
つまり各々の入力層ユニットに対応付けられた原デ−
タ,直接指定,統計値(平均値,標準偏差等の区分も含
む)及びユ−ザ指定の区分情報や、正規化のための情報
を読み出して、その情報を評価モ−ドでも利用する。こ
の自動細胞割付を実施する場合には、評価モ−ドで改め
て細胞割付のための入力を実施する必要がなく、学習モ
−ドの際と同じ条件を自動的に再現してネットワ−クの
評価を実施することができる。これによって、ネットワ
−クの入力情報としていずれの種類の統計値を選択する
のがパタ−ン分類に効果的であるかを、容易に調べるこ
とができる。
When the allocation copy key K6j is designated on the display screen shown in FIG. 16, the selected learning NO.
The cell allocation is automatically performed with reference to the registered information so that the data matches the cell allocation set when the learning is performed in the learning mode. That is, the information specified in each mode for each network is
As a data file associated with that network,
Since the data is stored in the main memory MM or the auxiliary memory HD, the cell allocation information specified in the learning mode,
That is, the original data associated with each input layer unit
Data, direct designation, statistical values (including categories such as average value and standard deviation) and user-designated category information, and information for normalization are read out, and the information is also used in the evaluation mode. When performing this automatic cell allocation, it is not necessary to input again for cell allocation in the evaluation mode, and the same conditions as in the learning mode are automatically reproduced and the network An evaluation can be carried out. As a result, it is possible to easily check which kind of statistical value is effective as the input information of the network for pattern classification.

【0056】[0056]

【発明の効果】以上のとおり、本発明のパタ−ン分類装
置によれば、複数の入力信号全体の並び順を回転して位
置合せ補償した信号をネットワ−クの入力端子に印加す
るので、例えば高炉の温度分布信号のように入力信号の
パタ−ンが回転を生じるものであっても、その回転方向
の位置は基準パタ−ン(即ち学習するパタ−ン)の回転
方向位置と一致するように揃えられてネットワ−クに印
加される。従って、入力信号パタ−ンの回転位置はネッ
トワ−クに影響を及ぼさない。これによって、ネットワ
−クのパタ−ン分類能力が大幅に向上する。
As described above, according to the pattern classifying apparatus of the present invention , the alignment order of the entire plurality of input signals is rotated and the alignment-compensated signal is applied to the input terminal of the network. For example, even if the pattern of the input signal causes rotation like the temperature distribution signal of the blast furnace, the position in the direction of rotation coincides with the position in the direction of rotation of the reference pattern (that is, the pattern to be learned). Are aligned and applied to the network. Therefore, the rotational position of the input signal pattern does not affect the network. As a result, the pattern classification ability of the network is greatly improved.

【0057】1組のネットワ−ク手段は特定の入力信
号パタ−ンに対する分類能力が高くなるがその他のパタ
−ンに対する分類能力は低くなり、第2組のネットワ−
ク手段は前記特定の入力信号パタ−ンに対する分類能力
が低くなる代わりにその他のパタ−ンに対する分類能力
が高くなる。ニュ−ラルネットワ−クを通常の方法、即
ちバックプロパゲ−ションで学習させる場合、学習によ
る重み係数の更新はほとんど全てのユニットに適用され
るので、例えばパタ−ンA/Bの分類に関して既に充分
な学習が済んでいる状態で、別のパタ−ンC/Dの分類
に関する学習を実行すると、既に学習されたA/B分類
に関する重み係数までも更新され、A/B分類の能力は
低下する。このような分類能力の低下傾向は、形状差の
大きい複数パタ−ンの分類(例えば図5の活性型パタ−
ンと小活性型・不活性型パタ−ンの分類)と形状差の小
さい複数パタ−ンの分類(例えば図5のパタ−ン3〜8
の分類)とを同時に実施しようとする場合に顕著にな
る。本発明では、学習デ−タの変更によって分類能力を
異ならせた第1組のネットワ−ク手段と第2組のネット
ワ−ク手段とが備わっているので、例えば形状差の大き
い複数パタ−ンの分類を第1組のネットワ−ク手段で実
施し、形状差の小さい複数パタ−ンの分類を第2組のネ
ットワ−ク手段で実施することによって、形状差の大き
い複数パタ−ンと形状差の小さい複数パタ−ンのいずれ
に対しても高い分類能力が得られる。
The first set of network means has a high classification ability for a specific input signal pattern, but has a low classification ability for other patterns, and the second set of network means.
The clock means has a low classification ability for the specific input signal pattern, but has a high classification ability for other patterns. When the neural network is trained by a normal method, that is, back propagation, the weighting factor update by learning is applied to almost all units, so that, for example, the learning of pattern A / B is already sufficient. If the learning for another pattern C / D classification is executed in the state that has already been completed, the weighting coefficient for the already learned A / B classification is also updated, and the ability of A / B classification decreases. Such a tendency of the classification ability to decrease is classified into a plurality of patterns having a large difference in shape (for example, the active pattern of FIG. 5).
And small active / inactive patterns) and a plurality of patterns with a small shape difference (for example, patterns 3 to 8 in FIG. 5).
It becomes remarkable when trying to carry out at the same time. In the present invention, since the first set of network means and the second set of network means having different classification capabilities by changing the learning data are provided, for example, a plurality of patterns having a large difference in shape. Classification is performed by the first set of network means, and classification of a plurality of patterns having a small shape difference is performed by the second set of network means, whereby a plurality of patterns and shapes having a large shape difference are formed. High classification ability can be obtained for any of a plurality of patterns with a small difference.

【0058】ットワ−クは入力信号とその信号の統計
量とを組合せたパタ−ンを入力してそれを分類するの
で、高い分類能力が期待できる。
[0058] Ne Ttowa - click the pattern combines the statistics of the input signal and the signal - so by entering the down classify it can be expected high classification ability.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 実施例のパタ−ン分類装置の構成を示すブロ
ック図である。
FIG. 1 is a block diagram showing a configuration of a pattern classification device according to an embodiment.

【図2】 1つのネットワ−クの構成を示すブロック図
である。
FIG. 2 is a block diagram showing the configuration of one network.

【図3】 高炉と温度センサの位置関係を示す斜視図で
ある。
FIG. 3 is a perspective view showing a positional relationship between a blast furnace and a temperature sensor.

【図4】 1つの入力信号パタ−ンを示すレ−ダチャ−
トである。
FIG. 4 is a radar chart showing one input signal pattern.
It is.

【図5】 代表的な信号パタ−ンの分類を示すレ−ダチ
ャ−トである。
FIG. 5 is a radar chart showing a classification of typical signal patterns.

【図6】 回転処理の内容を示すフロ−チャ−トであ
る。
FIG. 6 is a flowchart showing the contents of rotation processing.

【図7】 回転処理前と処理後の信号の並びを示すマッ
プである。
FIG. 7 is a map showing a sequence of signals before and after rotation processing.

【図8】 統計計算処理の内容を示すフロ−チャ−トで
ある。
FIG. 8 is a flowchart showing the contents of statistical calculation processing.

【図9】 1つの入力信号パタ−ンを示すレ−ダチャ−
トである。
FIG. 9 is a radar chart showing one input signal pattern.
It is.

【図10】 装置のハ−ドウェア構成を示すブロック図
である。
FIG. 10 is a block diagram showing a hardware configuration of the device.

【図11】 ネットワ−ク作成装置の表示画面の例を示
す正面図である。
FIG. 11 is a front view showing an example of a display screen of the network creation device.

【図12】 ネットワ−ク作成装置の表示画面の例を示
す正面図である。
FIG. 12 is a front view showing an example of a display screen of the network creation device.

【図13】 ネットワ−ク作成装置の表示画面の例を示
す正面図である。
FIG. 13 is a front view showing an example of a display screen of the network creation device.

【図14】 ネットワ−ク作成装置の表示画面の例を示
す正面図である。
FIG. 14 is a front view showing an example of a display screen of the network creation device.

【図15】 ネットワ−ク作成装置の表示画面の例を示
す正面図である。
FIG. 15 is a front view showing an example of a display screen of the network creation device.

【図16】 ネットワ−ク作成装置の表示画面の例を示
す正面図である。
FIG. 16 is a front view showing an example of a display screen of the network creation device.

【図17】 ネットワ−ク作成装置の表示画面の例を示
す正面図である。
FIG. 17 is a front view showing an example of a display screen of the network creation device.

【図18】 ネットワ−ク作成装置の処理の一部を示す
フロ−チャ−トである。
FIG. 18 is a flowchart showing a part of the processing of the network creation device.

【図19】 ネットワ−ク作成装置の処理の一部を示す
フロ−チャ−トである。
FIG. 19 is a flowchart showing a part of the processing of the network creation device.

【図20】 ネットワ−ク作成装置の処理の一部を示す
フロ−チャ−トである。
FIG. 20 is a flowchart showing a part of the processing of the network creation device.

【図21】 ネットワ−ク作成装置の処理の一部を示す
フロ−チャ−トである。
FIG. 21 is a flowchart showing a part of the processing of the network creation device.

【図22】 ネットワ−ク作成装置の処理の一部を示す
フロ−チャ−トである。
FIG. 22 is a flowchart showing a part of the processing of the network creation device.

【符号の説明】[Explanation of symbols]

1:回転処理部 2:統計計算処理部 3,4:ニュ−ラルネットワ−ク 5:デ−タセレクタ 1: rotation processing unit 2: statistical calculation processing unit 3, 4: neural network 5: data selector

───────────────────────────────────────────────────── フロントページの続き (72)発明者 西 尾 清 明 東海市東海町5−3 新日本製鐵株式会 社 名古屋製鐵所内 (72)発明者 宮 崎 裕 之 富津市新富20−1 新日本製鐵株式会社 技術開発本部内 (56)参考文献 特開 平4−112277(JP,A) 特開 平2−165288(JP,A) 特開 平1−251288(JP,A) 特開 平4−195267(JP,A) 特開 平2−81279(JP,A) 特開 平2−287860(JP,A) 特開 平2−101586(JP,A) 特開 平2−310780(JP,A) 大塚喜久 「ニューラルネットワーク の高炉データ認識への応用」 システム /制御/情報 VOL.35,NO.1, PP.41−46,1991 ─────────────────────────────────────────────────── ─── Continued Front Page (72) Inventor Kiyoaki Nishio 5-3 Tokai-cho, Tokai-shi Nippon Steel Co., Ltd. Inside the Nagoya Works (72) Inventor Hiroyuki Miyazaki 20-1 Shintomi, Futtsu-shi (56) References JP-A-4-112277 (JP, A) JP-A-2-165288 (JP, A) JP-A 1-251288 (JP, A) JP-A-hei 4-195267 (JP, A) JP 2-81279 (JP, A) JP 2-287860 (JP, A) JP 2-101586 (JP, A) JP 2-310780 (JP, A) Yoshihisa Otsuka "Application of neural network to blast furnace data recognition" System / Control / Information VOL. 35, NO. 1, PP. 41-46, 1991

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】複数の入力端子と複数の出力端子を備える
ネットワークを含み該ネットワークの入力端子に複数の
入力信号を印加して入力信号の組合わせパターンの分類
を示す信号を出力するパターン分類装置において、属性
の類似した複数の入力信号を原点から等角度の放射線上
で該入力信号の大きさに応じた点に配置し、各配置点を
結んだ平面上の多角形とし、該多角形の幾何学的形状に
対して回転処理を行い、予め決定した評価に基づき入力
信号をならび変えて出力する回転処理手段と、前記複数
の入力信号を標本値として求めた統計的特徴量と前記幾
何学的形状から求めた統計的特徴量を出力する統計量計
算処理手段と、前記回転処理手段と前記統計量計算処理
手段の各出力を入力し、入力信号の組合わせパターンの
分類信号を出力するネットワーク手段を備えるパターン
分類装置。
1. A pattern classifying apparatus including a network having a plurality of input terminals and a plurality of output terminals, applying a plurality of input signals to the input terminals of the network and outputting a signal indicating a classification of a combination pattern of the input signals. in, attribute
Of multiple similar input signals on the radiation at the same angle from the origin
And place each point according to the size of the input signal.
As a polygon on the connected plane, the geometrical shape of the polygon
Rotation processing is performed on the contrary, and input based on a predetermined evaluation
A rotation processing unit that rearranges and outputs signals, and
The statistical feature value obtained by using the input signal of
A statistic meter that outputs statistical features calculated from geometric shapes
Arithmetic processing means, the rotation processing means, and the statistic calculation processing
Input each output of the means, and
A pattern classification device comprising network means for outputting a classification signal .
【請求項2】前記回転処理手段は、前記幾何学的形状を
なす入力信号全体の並び順を回転させ、パターン分類毎
に予め決定した基準信号との相関係数が最大となる回転
位置を選択して入力信号を出力することを特徴とする請
求項1記載のパターン分類装置。
2. The rotation processing means transforms the geometric shape into
Rotate the order of the entire input signal to make each pattern classification
Rotation that maximizes the correlation coefficient with the predetermined reference signal
A contract characterized by selecting a position and outputting an input signal
The pattern classification device according to claim 1 .
【請求項3】前記統計量計算処理手段は、前記複数の入
力信号を標本値として求めた統計的特徴量と前記幾何学
的形状から隣接する3点から求めた山の形状に関する統
計的特徴量を出力することを特徴とする請求項1記載の
パターン分類装置。
3. The statistic calculation processing means is configured to process the plurality of inputs.
The statistical feature and the geometry obtained by using the force signal as a sample value
On the shape of the mountain obtained from three adjacent points from the geometrical shape
2. The method according to claim 1, wherein the characteristic feature quantity is output.
Pattern classifier.
【請求項4】複数の入力端子と複数の出力端子を備える
ネットワークを含み該ネットワークの入力端子に複数の
入力信号を印加して入力信号の組合わせパターンの分類
を示す信号を出力するパターン分類装置において、属性
の類似した複数の入力信号を原点から等角度の放射線上
で該入力信号の大きさに応じた点に配置し、各配置点を
結んだ平面上の多角形とし、該多角形の幾何学的形状を
なす入力信号全体の並び順を回転させ、パターン分類毎
に予め決定した基準信号との相関係数が最大となる回転
位置を選択して入力信号を出力する回転処理手段と、前
記複数の入力信号を標本値として求めた統計的特徴量と
前記幾何学的形状から隣接する3点から求めた山の角度
の統計的特徴量を出力する統計量計算処理手段と、特定
の入力信号パターンの出現比率を高めた第1組の学習デ
ータに対して重み係数の学習が実施された第1組のネッ
トワーク手段と、前記特定の入力信号パターンの出現比
率を下げた第2組の学習データに対して重み係数の学習
が実施された第2組のネットワーク手段、及び未知の入
力信号が前記第1組及び第2組のネットワーク手段に印
加された時に、第1組のネットワーク手段が入力信号を
前記特定パターンとして分類した時には第1組のネット
ワーク手段の出力を選択し、第1組のネットワーク手段
が入力信号を前記特定パターン以外として分類した時に
は第2組のネットワーク手段の出力を選択し、選択した
分類信号を出力する、出力選択手段を備えるパターン分
類装置。
4. A plurality of input terminals and a plurality of output terminals are provided.
A network, including multiple input terminals
Apply input signals and classify combination patterns of input signals
In a pattern classification device that outputs a signal indicating
Of multiple similar input signals on the radiation at the same angle from the origin
And place each point according to the size of the input signal.
Let the polygon on the connected plane be the geometrical shape of the polygon.
Rotate the order of the entire input signal to make each pattern classification
Rotation that maximizes the correlation coefficient with the predetermined reference signal
Rotation processing means for selecting a position and outputting an input signal;
A statistic calculation processing means for outputting the statistical characteristic amount of the angle of the mountain determined from three points adjacent the serial plurality of input signals from the geometry as statistical characteristic amount obtained as a sample value, specific The first set of network means in which the weighting coefficient is learned with respect to the first set of learning data in which the appearance ratio of the input signal pattern is increased, and the second set in which the appearance ratio of the specific input signal pattern is decreased When the unknown input signal is applied to the first set and the second set of network means, the first set of network means performs weighting coefficient learning on the learning data. When the input signal is classified as the specific pattern, the output of the first set of network means is selected, and when the first set of network means classifies the input signal as other than the specific pattern, the second set of nets is selected. Selects the output of the over-click means outputs the classification signal selected, pattern classification apparatus comprising an output selection means.
JP4205572A 1992-07-31 1992-07-31 Pattern sorter Expired - Lifetime JP2686023B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4205572A JP2686023B2 (en) 1992-07-31 1992-07-31 Pattern sorter

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4205572A JP2686023B2 (en) 1992-07-31 1992-07-31 Pattern sorter

Publications (2)

Publication Number Publication Date
JPH0652137A JPH0652137A (en) 1994-02-25
JP2686023B2 true JP2686023B2 (en) 1997-12-08

Family

ID=16509116

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4205572A Expired - Lifetime JP2686023B2 (en) 1992-07-31 1992-07-31 Pattern sorter

Country Status (1)

Country Link
JP (1) JP2686023B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3411847B2 (en) * 1999-03-01 2003-06-03 日本電信電話株式会社 Color reproduction method and apparatus for input device, and recording medium recording program of this method

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01251288A (en) * 1988-03-31 1989-10-06 Toshiba Corp Picture processor for inspection system
JPH0281279A (en) * 1988-09-19 1990-03-22 Fujitsu Ltd Pattern recognizing device
JP2982814B2 (en) * 1988-10-11 1999-11-29 工業技術院長 Adaptive learning type general-purpose image measurement method
JPH02165288A (en) * 1988-12-19 1990-06-26 Hitachi Eng Co Ltd Picture processor
JPH02287860A (en) * 1989-04-28 1990-11-27 Omron Corp Information processor
JPH02310780A (en) * 1989-05-26 1990-12-26 Matsushita Electric Ind Co Ltd Adaptive image filter
JPH04112277A (en) * 1990-08-31 1992-04-14 Toyobo Co Ltd Shape discriminating method
JPH04195267A (en) * 1990-10-03 1992-07-15 Advantest Corp Pattern recognizing device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
大塚喜久 「ニューラルネットワークの高炉データ認識への応用」 システム/制御/情報 VOL.35,NO.1,PP.41−46,1991

Also Published As

Publication number Publication date
JPH0652137A (en) 1994-02-25

Similar Documents

Publication Publication Date Title
JP4155363B2 (en) Data display device, data display method, and recording medium on which data display program is recorded
Lucca et al. CC-integrals: Choquet-like copula-based aggregation functions and its application in fuzzy rule-based classification systems
Got et al. Hybrid filter-wrapper feature selection using whale optimization algorithm: A multi-objective approach
Chen et al. Financial credit risk assessment: a recent review
US7603329B2 (en) Data set modification using training algorithm that grows the data set
Chen et al. A simple approach to ranking a group of aggregated fuzzy utilities
Anselin GeoDa 0.9 user’s guide
JPH07219977A (en) Method for generating mesh
US7159208B2 (en) Programming toolkit for use in the development of knowledge enhanced electronic logic programs
CN109360105A (en) Product risks method for early warning, device, computer equipment and storage medium
Liu et al. Clustering by growing incremental self-organizing neural network
US5222210A (en) Method of displaying the state of an artificial neural network
US6525745B1 (en) Sheet metal geometric modeling system
Wang et al. Imbalance data processing strategy for protein interaction sites prediction
CN110210625A (en) Modeling method, device, computer equipment and storage medium based on transfer learning
CN111311702B (en) Image generation and identification module and method based on BlockGAN
US5515293A (en) Method and apparatus for generating a linked data structure for integrated circuit layout
CN114780619A (en) Abnormity early warning method for automatic engineering audit data
Simula et al. The self-organizing map in industry analysis
US5841949A (en) Learning/inference method for artificial intelligence and apparatus therefor
JP2686023B2 (en) Pattern sorter
JPH0652136A (en) Network generation device
JP2006318232A (en) Analytical mesh correction device
Chang et al. Using ART1 neural networks with destructive solid geometry for design retrieving systems
Koza Simultaneous discovery of detectors and a way of using the detectors via genetic programming

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19970722