JPH0652137A - パタ−ン分類装置 - Google Patents
パタ−ン分類装置Info
- Publication number
- JPH0652137A JPH0652137A JP4205572A JP20557292A JPH0652137A JP H0652137 A JPH0652137 A JP H0652137A JP 4205572 A JP4205572 A JP 4205572A JP 20557292 A JP20557292 A JP 20557292A JP H0652137 A JPH0652137 A JP H0652137A
- Authority
- JP
- Japan
- Prior art keywords
- pattern
- network
- input
- data
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
Abstract
(57)【要約】
【目的】 高炉温度の円周バランスのような回転するパ
タ−ンに対する分類能力の改善。変化の大きい分類と変
化の小さい分類とが共存する分類に対する能力の改善。
パタ−ンの一部の特徴を重視する分類に対する能力の改
善。 【構成】 回転して基準パタ−ンに位置合せした信号を
ネットワ−クに入力する。変化の大きい分類と変化の小
さい分類を独立した専用のネットワ−クで分類処理す
る。入力信号に対する統計値をも、パタ−ンの特徴とし
てネットワ−クに入力する。統計値の種類を複数の中か
ら選択して指定する。
タ−ンに対する分類能力の改善。変化の大きい分類と変
化の小さい分類とが共存する分類に対する能力の改善。
パタ−ンの一部の特徴を重視する分類に対する能力の改
善。 【構成】 回転して基準パタ−ンに位置合せした信号を
ネットワ−クに入力する。変化の大きい分類と変化の小
さい分類を独立した専用のネットワ−クで分類処理す
る。入力信号に対する統計値をも、パタ−ンの特徴とし
てネットワ−クに入力する。統計値の種類を複数の中か
ら選択して指定する。
Description
【0001】
【産業上の利用分野】本発明は、所謂ニュ−ラルネット
ワ−クを用いて入力信号のパタ−ンを分類するパタ−ン
分類装置及びそのネットワ−クの作成を支援する装置に
関する。このパタ−ン分類装置は、例えば、製鉄所にお
ける高炉の温度分布パタ−ンの分類に利用しうる。
ワ−クを用いて入力信号のパタ−ンを分類するパタ−ン
分類装置及びそのネットワ−クの作成を支援する装置に
関する。このパタ−ン分類装置は、例えば、製鉄所にお
ける高炉の温度分布パタ−ンの分類に利用しうる。
【0002】
【従来の技術】パタ−ンの分類処理などを自動的に実施
しようとする分野においては、最近ではニュ−ラルネッ
トワ−クの技術がよく利用される。この種のニュ−ラル
ネットワ−クに関しては、既に様々な分野で利用するた
めの研究が進められており、ニュ−ラルネットワ−クを
利用した製品の開発及び市販も様々な分野で行なわれて
いる。また、ニュ−ラルネットワ−クの作成を支援する
ツ−ルも各社で市販されている。この種のニュ−ラルネ
ットワ−クの従来技術としては、例えば、特開平2−1
57981号公報及び特開平3−33968号公報に開
示されたものが知られている。
しようとする分野においては、最近ではニュ−ラルネッ
トワ−クの技術がよく利用される。この種のニュ−ラル
ネットワ−クに関しては、既に様々な分野で利用するた
めの研究が進められており、ニュ−ラルネットワ−クを
利用した製品の開発及び市販も様々な分野で行なわれて
いる。また、ニュ−ラルネットワ−クの作成を支援する
ツ−ルも各社で市販されている。この種のニュ−ラルネ
ットワ−クの従来技術としては、例えば、特開平2−1
57981号公報及び特開平3−33968号公報に開
示されたものが知られている。
【0003】
【発明が解決しようとする課題】ニュ−ラルネットワ−
クの性能は、一般にネットワ−クの構造(層数や各層の
ユニット数),学習回数,学習アルゴリズム,学習の際
に利用するデ−タの種類等々によって大きく変化し、し
かもパタ−ン分類が適用される分野に応じて条件が様々
に変わるので、実際に性能の良いニュ−ラルネットワ−
クを作成するのは非常に難しい。
クの性能は、一般にネットワ−クの構造(層数や各層の
ユニット数),学習回数,学習アルゴリズム,学習の際
に利用するデ−タの種類等々によって大きく変化し、し
かもパタ−ン分類が適用される分野に応じて条件が様々
に変わるので、実際に性能の良いニュ−ラルネットワ−
クを作成するのは非常に難しい。
【0004】例えば製鉄所においては、高炉の水平面内
で検出される円周状の温度分布パタ−ンに関して、炉壁
部付着物の形成状況を識別する必要があるので、平均温
度及び活性部位のバランスが重要であり、例えば図5に
示す8種類のパタ−ンに分類し、現在の炉況がいずれの
パタ−ン分類に属するかに応じて炉の制御を実施する必
要がある。
で検出される円周状の温度分布パタ−ンに関して、炉壁
部付着物の形成状況を識別する必要があるので、平均温
度及び活性部位のバランスが重要であり、例えば図5に
示す8種類のパタ−ンに分類し、現在の炉況がいずれの
パタ−ン分類に属するかに応じて炉の制御を実施する必
要がある。
【0005】この温度分布パタ−ンの信号に対して、一
般的なニュ−ラルネットワ−クを用いてシミュレ−ショ
ンにより分類処理を実施したが、低い正解率(熟練者と
同じ分類結果が得られる率)しか得られなかった。この
結果については、次のようにいくつかの原因が考えられ
る。
般的なニュ−ラルネットワ−クを用いてシミュレ−ショ
ンにより分類処理を実施したが、低い正解率(熟練者と
同じ分類結果が得られる率)しか得られなかった。この
結果については、次のようにいくつかの原因が考えられ
る。
【0006】即ち、同一種類に分類すべき形状のパタ−
ンであっても、複数のパタ−ンの間に水平面内で位置の
回転があると、それらのパタ−ンに大きな変化が生じる
ので、この変化が分類能力を下げる原因になる。また、
図5のパタ−ン分類では、入力デ−タ(温度)そのもの
よりも、パタ−ンの特徴を重視しているので、温度デ−
タ群をそのままネットワ−クに入力するだけではパタ−
ンの特徴が結果に反映され難い。更に、割当てられた複
数の分類パタ−ンの一部に他と比べて差の大きなものが
含まれている場合、一部の分類パタ−ンに対する正解率
を上げようとすると残りの分類パタ−ンに対する正解率
が低下してしまう。例えば図5のパタ−ン1及び2は、
それ以外のパタ−ンに比べて差が大きいので、単一のニ
ュ−ラルネットワ−クを用いて全てのパタ−ンを分類し
ようとする場合、パタ−ン1及び2に対する学習量を増
やすとそれらに対する正解率が向上する代わりにパタ−
ン3〜8に対する正解率が下がり、パタ−ン3〜8に対
する学習量を増やすとそれらに対する正解率が向上する
代わりにパタ−ン1及び2に対する正解率が下がってし
まう。
ンであっても、複数のパタ−ンの間に水平面内で位置の
回転があると、それらのパタ−ンに大きな変化が生じる
ので、この変化が分類能力を下げる原因になる。また、
図5のパタ−ン分類では、入力デ−タ(温度)そのもの
よりも、パタ−ンの特徴を重視しているので、温度デ−
タ群をそのままネットワ−クに入力するだけではパタ−
ンの特徴が結果に反映され難い。更に、割当てられた複
数の分類パタ−ンの一部に他と比べて差の大きなものが
含まれている場合、一部の分類パタ−ンに対する正解率
を上げようとすると残りの分類パタ−ンに対する正解率
が低下してしまう。例えば図5のパタ−ン1及び2は、
それ以外のパタ−ンに比べて差が大きいので、単一のニ
ュ−ラルネットワ−クを用いて全てのパタ−ンを分類し
ようとする場合、パタ−ン1及び2に対する学習量を増
やすとそれらに対する正解率が向上する代わりにパタ−
ン3〜8に対する正解率が下がり、パタ−ン3〜8に対
する学習量を増やすとそれらに対する正解率が向上する
代わりにパタ−ン1及び2に対する正解率が下がってし
まう。
【0007】従って本発明は、分類能力の高いパタ−ン
分類装置を提供することを課題とする。
分類装置を提供することを課題とする。
【0008】
【課題を解決するための手段】上記課題を解決するた
め、本発明の第1番のパタ−ン分類装置には、複数の入
力端子と複数の出力端子を備えるネットワ−クを含み該
ネットワ−クの入力端子に複数の入力信号を印加して入
力信号の組合せパタ−ンの分類を示す信号を出力するパ
タ−ン分類装置において、複数の入力信号全体の並び順
を回転して位置合せ補償した信号を前記ネットワ−クの
複数の入力端子に印加する、回転処理手段(1)を設け
る。
め、本発明の第1番のパタ−ン分類装置には、複数の入
力端子と複数の出力端子を備えるネットワ−クを含み該
ネットワ−クの入力端子に複数の入力信号を印加して入
力信号の組合せパタ−ンの分類を示す信号を出力するパ
タ−ン分類装置において、複数の入力信号全体の並び順
を回転して位置合せ補償した信号を前記ネットワ−クの
複数の入力端子に印加する、回転処理手段(1)を設け
る。
【0009】また本発明の第2番のパタ−ン分類装置に
は、特定の入力信号パタ−ンの出現比率を高めた第1組
の学習デ−タに対して重み係数の学習が実施された第1
組のネットワ−ク手段(3);前記特定の入力信号パタ−
ンの出現比率を下げた第2組の学習デ−タに対して重み
係数の学習が実施された第2組のネットワ−ク手段
(4);及び未知の入力信号が前記第1組及び第2組のネ
ットワ−ク手段に印加された時に、第1組のネットワ−
ク手段が入力信号を前記特定パタ−ンとして分類した時
には第1組のネットワ−ク手段の出力を選択し、第1組
のネットワ−ク手段が入力信号を前記特定パタ−ン以外
として分類した時には第2組のネットワ−ク手段の出力
を選択し、選択した分類信号を出力する出力選択手段
(5);を設ける。
は、特定の入力信号パタ−ンの出現比率を高めた第1組
の学習デ−タに対して重み係数の学習が実施された第1
組のネットワ−ク手段(3);前記特定の入力信号パタ−
ンの出現比率を下げた第2組の学習デ−タに対して重み
係数の学習が実施された第2組のネットワ−ク手段
(4);及び未知の入力信号が前記第1組及び第2組のネ
ットワ−ク手段に印加された時に、第1組のネットワ−
ク手段が入力信号を前記特定パタ−ンとして分類した時
には第1組のネットワ−ク手段の出力を選択し、第1組
のネットワ−ク手段が入力信号を前記特定パタ−ン以外
として分類した時には第2組のネットワ−ク手段の出力
を選択し、選択した分類信号を出力する出力選択手段
(5);を設ける。
【0010】また本発明の第3番のパタ−ン分類装置に
は、複数の入力端子と複数の出力端子を備えるネットワ
−クを含み該ネットワ−クの入力端子に複数の入力信号
を印加して入力信号の組合せパタ−ンの分類を示す信号
を出力するパタ−ン分類装置において、複数の入力信号
の統計量を計算する統計量計算手段(2)を設け、前記ネ
ットワ−クの入力端子に、前記入力信号自体を受入れる
第1組の端子と統計量計算手段が出力する統計量を受入
れる第2組の端子とを設ける。
は、複数の入力端子と複数の出力端子を備えるネットワ
−クを含み該ネットワ−クの入力端子に複数の入力信号
を印加して入力信号の組合せパタ−ンの分類を示す信号
を出力するパタ−ン分類装置において、複数の入力信号
の統計量を計算する統計量計算手段(2)を設け、前記ネ
ットワ−クの入力端子に、前記入力信号自体を受入れる
第1組の端子と統計量計算手段が出力する統計量を受入
れる第2組の端子とを設ける。
【0011】なお上記括弧内に示した記号は、後述する
実施例中の対応する要素の符号を参考までに示したもの
であり、本発明の各構成要素は実施例中の具体的な要素
のみに限定されるものではない。
実施例中の対応する要素の符号を参考までに示したもの
であり、本発明の各構成要素は実施例中の具体的な要素
のみに限定されるものではない。
【0012】
【作用】第1番の発明によれば、複数の入力信号全体の
並び順を回転して(図7参照)位置合せ補償した信号を
ネットワ−クの入力端子に印加するので、例えば高炉の
温度分布信号のように入力信号のパタ−ンが回転を生じ
るものであっても、その回転方向の位置は基準パタ−ン
(即ち学習するパタ−ン)の回転方向位置と一致するよ
うに揃えられてネットワ−クに印加される。従って、入
力信号パタ−ンの回転位置はネットワ−クに影響を及ぼ
さない。これによって、ネットワ−クのパタ−ン分類能
力が大幅に向上する。
並び順を回転して(図7参照)位置合せ補償した信号を
ネットワ−クの入力端子に印加するので、例えば高炉の
温度分布信号のように入力信号のパタ−ンが回転を生じ
るものであっても、その回転方向の位置は基準パタ−ン
(即ち学習するパタ−ン)の回転方向位置と一致するよ
うに揃えられてネットワ−クに印加される。従って、入
力信号パタ−ンの回転位置はネットワ−クに影響を及ぼ
さない。これによって、ネットワ−クのパタ−ン分類能
力が大幅に向上する。
【0013】第2番の発明においては、第1組のネット
ワ−ク手段は特定の入力信号パタ−ンに対する分類能力
が高くなるがその他のパタ−ンに対する分類能力は低く
なり、第2組のネットワ−ク手段は前記特定の入力信号
パタ−ンに対する分類能力が低くなる代わりにその他の
パタ−ンに対する分類能力が高くなる。ニュ−ラルネッ
トワ−クを通常の方法、即ちバックプロパゲ−ションで
学習させる場合、学習による重み係数の更新はほとんど
全てのユニット(神経細胞)に適用される。従って、例
えばパタ−ンA/Bの分類に関して既に充分な学習が済
んでいる状態で、別のパタ−ンC/Dの分類に関する学
習を実行すると、既に学習されたA/B分類に関する重
み係数までも更新され、A/B分類の能力(正解率)は
低下する。このような分類能力の低下傾向は、形状差の
大きい複数パタ−ンの分類(例えば図5の活性型パタ−
ンと小活性型・不活性型パタ−ンの分類)と形状差の小
さい複数パタ−ンの分類(例えば図5のパタ−ン3〜8
の分類)とを同時に実施しようとする場合に顕著にな
る。本発明では、学習デ−タの変更によって分類能力を
異ならせた第1組のネットワ−ク手段と第2組のネット
ワ−ク手段とが備わっているので、例えば形状差の大き
い複数パタ−ンの分類を第1組のネットワ−ク手段で実
施し、形状差の小さい複数パタ−ンの分類を第2組のネ
ットワ−ク手段で実施することによって、形状差の大き
い複数パタ−ンと形状差の小さい複数パタ−ンのいずれ
に対しても高い分類能力が得られる。
ワ−ク手段は特定の入力信号パタ−ンに対する分類能力
が高くなるがその他のパタ−ンに対する分類能力は低く
なり、第2組のネットワ−ク手段は前記特定の入力信号
パタ−ンに対する分類能力が低くなる代わりにその他の
パタ−ンに対する分類能力が高くなる。ニュ−ラルネッ
トワ−クを通常の方法、即ちバックプロパゲ−ションで
学習させる場合、学習による重み係数の更新はほとんど
全てのユニット(神経細胞)に適用される。従って、例
えばパタ−ンA/Bの分類に関して既に充分な学習が済
んでいる状態で、別のパタ−ンC/Dの分類に関する学
習を実行すると、既に学習されたA/B分類に関する重
み係数までも更新され、A/B分類の能力(正解率)は
低下する。このような分類能力の低下傾向は、形状差の
大きい複数パタ−ンの分類(例えば図5の活性型パタ−
ンと小活性型・不活性型パタ−ンの分類)と形状差の小
さい複数パタ−ンの分類(例えば図5のパタ−ン3〜8
の分類)とを同時に実施しようとする場合に顕著にな
る。本発明では、学習デ−タの変更によって分類能力を
異ならせた第1組のネットワ−ク手段と第2組のネット
ワ−ク手段とが備わっているので、例えば形状差の大き
い複数パタ−ンの分類を第1組のネットワ−ク手段で実
施し、形状差の小さい複数パタ−ンの分類を第2組のネ
ットワ−ク手段で実施することによって、形状差の大き
い複数パタ−ンと形状差の小さい複数パタ−ンのいずれ
に対しても高い分類能力が得られる。
【0014】第3番の発明のパタ−ン分類装置では、ネ
ットワ−クは入力信号とその信号の統計量(例えば複数
信号の平均値など)とを組合せたパタ−ンを入力してそ
れを分類する。例えば図5に示した高炉の水平面温度分
布パタ−ンの分類においては、デ−タの値そのものより
も、温度デ−タ全体のパタ−ンの特徴を重視して分類し
ているので、温度デ−タのみをネットワ−クに入力して
も、高い分類能力は期待できない。しかし本発明では、
統計量をも特徴量として入力信号とともにネットワ−ク
に入力して両方の組合せパタ−ンを分類するので、高い
分類能力が期待できる。
ットワ−クは入力信号とその信号の統計量(例えば複数
信号の平均値など)とを組合せたパタ−ンを入力してそ
れを分類する。例えば図5に示した高炉の水平面温度分
布パタ−ンの分類においては、デ−タの値そのものより
も、温度デ−タ全体のパタ−ンの特徴を重視して分類し
ているので、温度デ−タのみをネットワ−クに入力して
も、高い分類能力は期待できない。しかし本発明では、
統計量をも特徴量として入力信号とともにネットワ−ク
に入力して両方の組合せパタ−ンを分類するので、高い
分類能力が期待できる。
【0015】
【実施例】一実施例のパタ−ン分類装置の構成を図1に
示す。この実施例のパタ−ン分類装置は、図3に示すよ
うに高炉の壁面に配置された多数の温度センサ(熱電
対)によって検出される、所定位置の水平面内温度分布
を示す温度信号群(12点の温度)を入力して、図5に
示すようなステ−ブ温度円周バランスパタ−ンの分類を
実施するものであり、図10に示した構成のワ−クステ
−ション上及びプロセス用コンピュ−タ上で動く、ソフ
トウェア処理として構成されている。勿論、図1の装置
をハ−ドウェアのみ、もしくはハ−ドウェアとソフトウ
ェアの組合せに置き替えて構成することも可能である。
示す。この実施例のパタ−ン分類装置は、図3に示すよ
うに高炉の壁面に配置された多数の温度センサ(熱電
対)によって検出される、所定位置の水平面内温度分布
を示す温度信号群(12点の温度)を入力して、図5に
示すようなステ−ブ温度円周バランスパタ−ンの分類を
実施するものであり、図10に示した構成のワ−クステ
−ション上及びプロセス用コンピュ−タ上で動く、ソフ
トウェア処理として構成されている。勿論、図1の装置
をハ−ドウェアのみ、もしくはハ−ドウェアとソフトウ
ェアの組合せに置き替えて構成することも可能である。
【0016】図1を参照すると、このパタ−ン分類装置
は、回転処理部1,統計計算処理部2,ニュ−ラルネッ
トワ−ク3,4及びデ−タセレクタ部5で構成されてい
る。高炉で得られる12点の温度信号は、回転処理部1
を通って2組のニュ−ラルネットワ−ク3及び4に入力
される。また、12点の温度信号は、統計計算処理部2
にも入力される。ニュ−ラルネットワ−ク3,4の入力
層は16ユニットで構成されており、そのうちの12個
に回転処理部の出力が印加され、統計計算処理部2が出
力する4種類の統計信号a,b,c及びdが、ニュ−ラ
ルネットワ−クの残りの入力ユニットに印加される。
は、回転処理部1,統計計算処理部2,ニュ−ラルネッ
トワ−ク3,4及びデ−タセレクタ部5で構成されてい
る。高炉で得られる12点の温度信号は、回転処理部1
を通って2組のニュ−ラルネットワ−ク3及び4に入力
される。また、12点の温度信号は、統計計算処理部2
にも入力される。ニュ−ラルネットワ−ク3,4の入力
層は16ユニットで構成されており、そのうちの12個
に回転処理部の出力が印加され、統計計算処理部2が出
力する4種類の統計信号a,b,c及びdが、ニュ−ラ
ルネットワ−クの残りの入力ユニットに印加される。
【0017】回転処理部1は、12点の温度信号の並び
順を回転させて位置合せするものである。即ち、この実
施例ではパタ−ンの形状を重視して分類することが必要
であるので、基準となる典型的パタ−ンを回転したパタ
−ンは、元の典型的パタ−ンと同じグル−プに分類する
必要がある(図5参照)。しかし、特定のパタ−ン(典
型的パタ−ン)のみをニュ−ラルネットワ−クで学習し
た場合、回転したパタ−ンに対して分類を誤る可能性が
高い。そこでこの例では、回転処理部1で、12点の温
度信号(D1〜D12)の並び順を図7に示すように回
転し位置合わせした後で、各ニュ−ラルネットワ−クに
印加している。
順を回転させて位置合せするものである。即ち、この実
施例ではパタ−ンの形状を重視して分類することが必要
であるので、基準となる典型的パタ−ンを回転したパタ
−ンは、元の典型的パタ−ンと同じグル−プに分類する
必要がある(図5参照)。しかし、特定のパタ−ン(典
型的パタ−ン)のみをニュ−ラルネットワ−クで学習し
た場合、回転したパタ−ンに対して分類を誤る可能性が
高い。そこでこの例では、回転処理部1で、12点の温
度信号(D1〜D12)の並び順を図7に示すように回
転し位置合わせした後で、各ニュ−ラルネットワ−クに
印加している。
【0018】回転処理部1の具体的な処理の内容とし
て、最初に、デ−タの最大値の位置が典型的パタ−ンと
入力信号パタ−ンとで一致するように入力信号を回転し
て位置合せを実施した。その結果、位置合せしない場合
に比べて分類能力が向上したが、更に性能を改善する必
要が認められた。そこでこの実施例では、更に改良した
図6に示す回転処理を実施している。
て、最初に、デ−タの最大値の位置が典型的パタ−ンと
入力信号パタ−ンとで一致するように入力信号を回転し
て位置合せを実施した。その結果、位置合せしない場合
に比べて分類能力が向上したが、更に性能を改善する必
要が認められた。そこでこの実施例では、更に改良した
図6に示す回転処理を実施している。
【0019】図6を参照して、回転処理を説明する。ス
テップS1では12点の温度信号を入力し、次のステッ
プS2では入力した温度信号の値を正規化する。続くス
テップS3では、予め作成してある基準パタ−ン1〜8
(図5の典型的パタ−ンの1〜8)のデ−タを読込む。
ステップS4では、正規化した入力温度信号と各基準パ
タ−ンとの相関係数を計算する。計算の結果は保存して
おく。ステップS5では対比する基準パタ−ンを他のも
のと交換する。そして全ての基準パタ−ンとの相関係数
の計算が終了するまで、ステップS4の処理を繰り返
す。ステップS7では、12点の入力温度信号の位置
を、図7に示すように1ステップ(1点分)回転する。
そして再びステップS4に進み、回転後の入力温度信号
と各基準パタ−ンとの相関係数をそれぞれ計算する。全
ての回転位置について相関係数の計算が終了すると、ス
テップS8からS9に進む。ステップS9では、ステッ
プS4で計算された相関係数のうち、最大のものを捜
し、最大の相関係数が得られた回転位置を検出する。次
のステップS10では、検出した回転位置になるよう
に、12点の入力温度信号を位置合せする。
テップS1では12点の温度信号を入力し、次のステッ
プS2では入力した温度信号の値を正規化する。続くス
テップS3では、予め作成してある基準パタ−ン1〜8
(図5の典型的パタ−ンの1〜8)のデ−タを読込む。
ステップS4では、正規化した入力温度信号と各基準パ
タ−ンとの相関係数を計算する。計算の結果は保存して
おく。ステップS5では対比する基準パタ−ンを他のも
のと交換する。そして全ての基準パタ−ンとの相関係数
の計算が終了するまで、ステップS4の処理を繰り返
す。ステップS7では、12点の入力温度信号の位置
を、図7に示すように1ステップ(1点分)回転する。
そして再びステップS4に進み、回転後の入力温度信号
と各基準パタ−ンとの相関係数をそれぞれ計算する。全
ての回転位置について相関係数の計算が終了すると、ス
テップS8からS9に進む。ステップS9では、ステッ
プS4で計算された相関係数のうち、最大のものを捜
し、最大の相関係数が得られた回転位置を検出する。次
のステップS10では、検出した回転位置になるよう
に、12点の入力温度信号を位置合せする。
【0020】次に統計計算処理部2の処理内容を説明す
る。この実施例では、統計計算処理部2は図8に示す処
理を実施している。即ち、ステップS21では12点の
温度信号x(i)を入力し、ステップS22ではx(i)の平
均値aを計算し、ステップS23ではx(i)のうち前記
平均値aより小さいものに関する平均値bを計算し、ス
テップS24では入力温度信号パタ−ン(図4,図9参
照)の各山の角度を検出し、次のステップS25では前
記山の角度が110度以内のポイント数cを検出し、続
くステップS26では平均値+1シグマより大きいx
(i)の数dを計数し、最後のステップS27では、検出
した4つの統計値a,b,c及びdを出力する。
る。この実施例では、統計計算処理部2は図8に示す処
理を実施している。即ち、ステップS21では12点の
温度信号x(i)を入力し、ステップS22ではx(i)の平
均値aを計算し、ステップS23ではx(i)のうち前記
平均値aより小さいものに関する平均値bを計算し、ス
テップS24では入力温度信号パタ−ン(図4,図9参
照)の各山の角度を検出し、次のステップS25では前
記山の角度が110度以内のポイント数cを検出し、続
くステップS26では平均値+1シグマより大きいx
(i)の数dを計数し、最後のステップS27では、検出
した4つの統計値a,b,c及びdを出力する。
【0021】ステップS24で検出する山の角度につい
て説明する。この実施例においては、温度パタ−ンの形
状を図4に示すチャ−トで表現している。図4において
は、円の中心が0℃で、その中心から放射状に直線的に
温度の目盛が高くなっており、内側の円の位置が50
℃、外側の円の位置が125℃を表わし、各センサの位
置は30度毎にずらした円周方向の位置で示してある。
このチャ−ト上の温度パタ−ンのi番目の各山の角度
は、図9に示すα[i+1]+β[i]であり、図9のように処
理して計算される。即ち、i番目及びi+1番目のセン
サの検出した温度の値を示す点とチャ−ト中心との距離
をそれぞれL[i]及びL[i+1]とする場合には、各点の条
件に応じて、次のようにα[i]及びβ[i]が計算される。
て説明する。この実施例においては、温度パタ−ンの形
状を図4に示すチャ−トで表現している。図4において
は、円の中心が0℃で、その中心から放射状に直線的に
温度の目盛が高くなっており、内側の円の位置が50
℃、外側の円の位置が125℃を表わし、各センサの位
置は30度毎にずらした円周方向の位置で示してある。
このチャ−ト上の温度パタ−ンのi番目の各山の角度
は、図9に示すα[i+1]+β[i]であり、図9のように処
理して計算される。即ち、i番目及びi+1番目のセン
サの検出した温度の値を示す点とチャ−ト中心との距離
をそれぞれL[i]及びL[i+1]とする場合には、各点の条
件に応じて、次のようにα[i]及びβ[i]が計算される。
【0022】L[i]=L[i+1]の時: α[i]=β[i]=(π-π/6)/2 [rad] L[i]>L[i+1]の時: la=L[i+1]×Cos(π/6) lb=L[i]−la t=L[i+1]×Sin(π/6) α[i]=arctan(t/lb) [rad] β[i]=π-π/6−α[i] [rad] L[i]<L[i+1]の時: la=L[i]×Cos(π/6) lb=L[i+1]−la t=L[i]×Sin(π/6) β[i]=arctan(t/lb) [rad] α[i]=π-π/6−β[i] [rad] このようにして各点のα[i]及びβ[i]を求め、その結果
を利用して、各山の角度α[i+1]+β[i]を求める。
を利用して、各山の角度α[i+1]+β[i]を求める。
【0023】図1に示すパタ−ン分類装置では、二組の
ニュ−ラルネットワ−ク3,4を用いてあるが、これら
2つは学習内容を除き、良く似た構成になっている。ニ
ュ−ラルネットワ−ク3,4の構成は、図2に示すよう
に、入力層,中間層及び出力層の3層構成になってお
り、ネットワ−ク3は入力層が16ユニット、出力層は
7ユニットでそれぞれ構成され、ネットワ−ク4は入力
層が16ユニット、出力層は6ユニットでそれぞれ構成
されている。入力層の16ユニットのうち12ユニット
に、回転処理により位置合せされた12点の温度信号が
印加され、残りの4ユニットに、統計値a,b,c及び
dがそれぞれ印加される。ネットワ−ク3の出力層の1
番目のユニットはパタ−ン1及び2に割り当てられ、2
番目,3番目,4番目,5番目,6番目及び7番目のユ
ニットは、それぞれパタ−ン3,パタ−ン4,パタ−ン
5,パタ−ン6,パタ−ン7及びパタ−ン8に割り当て
てある。
ニュ−ラルネットワ−ク3,4を用いてあるが、これら
2つは学習内容を除き、良く似た構成になっている。ニ
ュ−ラルネットワ−ク3,4の構成は、図2に示すよう
に、入力層,中間層及び出力層の3層構成になってお
り、ネットワ−ク3は入力層が16ユニット、出力層は
7ユニットでそれぞれ構成され、ネットワ−ク4は入力
層が16ユニット、出力層は6ユニットでそれぞれ構成
されている。入力層の16ユニットのうち12ユニット
に、回転処理により位置合せされた12点の温度信号が
印加され、残りの4ユニットに、統計値a,b,c及び
dがそれぞれ印加される。ネットワ−ク3の出力層の1
番目のユニットはパタ−ン1及び2に割り当てられ、2
番目,3番目,4番目,5番目,6番目及び7番目のユ
ニットは、それぞれパタ−ン3,パタ−ン4,パタ−ン
5,パタ−ン6,パタ−ン7及びパタ−ン8に割り当て
てある。
【0024】図5に示すように、この実施例の典型的パ
タ−ンは8種類に区分されているが、パタ−ン1とパタ
−ン2については両者の混同が激しく、また両者は共に
活性型であり実用上分類の必要性がないので、これらを
同一の分類に統合した結果、図1の装置は7種類のパタ
−ンを分類するように構成された。
タ−ンは8種類に区分されているが、パタ−ン1とパタ
−ン2については両者の混同が激しく、また両者は共に
活性型であり実用上分類の必要性がないので、これらを
同一の分類に統合した結果、図1の装置は7種類のパタ
−ンを分類するように構成された。
【0025】なお、ニュ−ラルネットワ−ク3,4を構
成する各ユニット(細胞)の構成は、基本的に従来より
公知の技術と同様であり、例えば1〜nの入力端子を有
するユニットの出力値は、i番目の入力端子に関する入
力値及び重み係数(即ち結合係数)を、それぞれD(i)
及びw(i)とする場合、D(i)×w(i)のi=1〜nの総
和に対する関数(例えばシグモイド関数)の出力値にな
る。
成する各ユニット(細胞)の構成は、基本的に従来より
公知の技術と同様であり、例えば1〜nの入力端子を有
するユニットの出力値は、i番目の入力端子に関する入
力値及び重み係数(即ち結合係数)を、それぞれD(i)
及びw(i)とする場合、D(i)×w(i)のi=1〜nの総
和に対する関数(例えばシグモイド関数)の出力値にな
る。
【0026】この実施例では、一方のニュ−ラルネット
ワ−ク3を学習させるための学習デ−タとして、図5に
示すパタ−ン1及びパタ−ン2に分類されるデ−タをそ
れぞれ5種類、それ以外に分類されるパタ−ンを20種
類用意し、合計で30種類のパタ−ン(グル−プB)に
ついて各々所定回数の学習を実施した。学習のアルゴリ
ズムとしては公知のバックプロパゲ−ションを用いた。
またもう一方のニュ−ラルネットワ−ク4を学習させる
ための学習デ−タとしては、図5に示すパタ−ン3,
4,5,6,7又は8に属するものについて合計で24
種類のパタ−ン(グル−プA)を用意し、各々のパタ−
ンについて所定回数の学習を実施した。学習のアルゴリ
ズムとしてはバックプロパゲ−ションを用いた。
ワ−ク3を学習させるための学習デ−タとして、図5に
示すパタ−ン1及びパタ−ン2に分類されるデ−タをそ
れぞれ5種類、それ以外に分類されるパタ−ンを20種
類用意し、合計で30種類のパタ−ン(グル−プB)に
ついて各々所定回数の学習を実施した。学習のアルゴリ
ズムとしては公知のバックプロパゲ−ションを用いた。
またもう一方のニュ−ラルネットワ−ク4を学習させる
ための学習デ−タとしては、図5に示すパタ−ン3,
4,5,6,7又は8に属するものについて合計で24
種類のパタ−ン(グル−プA)を用意し、各々のパタ−
ンについて所定回数の学習を実施した。学習のアルゴリ
ズムとしてはバックプロパゲ−ションを用いた。
【0027】従って、一方のニュ−ラルネットワ−ク3
は、パタ−ン1及び2とそれ以外のパタ−ンとの分類能
力が高く、他方のニュ−ラルネットワ−ク4は、パタ−
ン1及び2に属さないものをパタ−ン3〜8のいずれか
に分類する能力が高い。そこで、図1に示すように、ニ
ュ−ラルネットワ−ク3のパタ−ン1,2の分類出力を
利用して、デ−タセレクタ5の切替制御を実施し、ニュ
−ラルネットワ−ク3が未知のパタ−ンをパタ−ン1,
2に分類した時にはニュ−ラルネットワ−ク3のパタ−
ン3〜パタ−ン8の分類出力をデ−タセレクタで選択
し、ニュ−ラルネットワ−ク3が未知のパタ−ンをパタ
−ン1,2以外に分類した時にはニュ−ラルネットワ−
ク4のパタ−ン3〜パタ−ン8の分類出力をデ−タセレ
クタで選択し、選択されたパタ−ン3〜パタ−ン8の分
類出力と、ニュ−ラルネットワ−ク3のパタ−ン1,2
の分類出力を、このパタ−ン分類装置の分類結果として
選択的に出力するように構成してある。正確には、ニュ
−ラルネットワ−ク3は、パタ−ン1,2の検出専用に
なっている。
は、パタ−ン1及び2とそれ以外のパタ−ンとの分類能
力が高く、他方のニュ−ラルネットワ−ク4は、パタ−
ン1及び2に属さないものをパタ−ン3〜8のいずれか
に分類する能力が高い。そこで、図1に示すように、ニ
ュ−ラルネットワ−ク3のパタ−ン1,2の分類出力を
利用して、デ−タセレクタ5の切替制御を実施し、ニュ
−ラルネットワ−ク3が未知のパタ−ンをパタ−ン1,
2に分類した時にはニュ−ラルネットワ−ク3のパタ−
ン3〜パタ−ン8の分類出力をデ−タセレクタで選択
し、ニュ−ラルネットワ−ク3が未知のパタ−ンをパタ
−ン1,2以外に分類した時にはニュ−ラルネットワ−
ク4のパタ−ン3〜パタ−ン8の分類出力をデ−タセレ
クタで選択し、選択されたパタ−ン3〜パタ−ン8の分
類出力と、ニュ−ラルネットワ−ク3のパタ−ン1,2
の分類出力を、このパタ−ン分類装置の分類結果として
選択的に出力するように構成してある。正確には、ニュ
−ラルネットワ−ク3は、パタ−ン1,2の検出専用に
なっている。
【0028】このパタ−ン分類装置の分類能力を熟練オ
ペレ−タと比較し、同一の分類結果になったものを正解
としたところ、約85%の正解率が得られた。また、不
正解であったデ−タについては、いずれのパタ−ンに分
類すべきか判断するのが極めて微妙なものが多く、実際
の操業にこのパタ−ン分類装置を使用しても何ら支障は
生じないことが分かった。
ペレ−タと比較し、同一の分類結果になったものを正解
としたところ、約85%の正解率が得られた。また、不
正解であったデ−タについては、いずれのパタ−ンに分
類すべきか判断するのが極めて微妙なものが多く、実際
の操業にこのパタ−ン分類装置を使用しても何ら支障は
生じないことが分かった。
【0029】以上説明したようなパタ−ン分類装置を効
率的に開発するのに役立つ、ネットワ−ク作成装置の実
施例について以下に説明する。
率的に開発するのに役立つ、ネットワ−ク作成装置の実
施例について以下に説明する。
【0030】この実施例のネットワ−ク作成装置は、図
10に示すワ−クステ−ション上に構成されている。図
10を参照すると、このワ−クステ−ションは、中央処
理装置CPU,表示装置CRT,キ−ボ−ドKB,マウ
スMS,主記憶装置MM,補助記憶装置HD,プリンタ
PR及び通信装置CUで構成されており、通信装置CU
はロ−カルエリアネットワ−クに接続されている。補助
記憶装置HD上には、基本ソフトウェア(即ちオペレ−
ティングシステム)とネットワ−ク作成装置のためのア
プリケ−ションソフトウェアが組込まれている。ワ−ク
ステ−ションの電源を投入してオペレ−ティングシステ
ムを起動した後、システムにログインし、更にキ−ボ−
ドKB又はマウスMSによって所定の入力操作を実施す
ることによって、ネットワ−ク作成装置のシステムが起
動する。このシステムを起動すると、図18に示す処理
が開始される。
10に示すワ−クステ−ション上に構成されている。図
10を参照すると、このワ−クステ−ションは、中央処
理装置CPU,表示装置CRT,キ−ボ−ドKB,マウ
スMS,主記憶装置MM,補助記憶装置HD,プリンタ
PR及び通信装置CUで構成されており、通信装置CU
はロ−カルエリアネットワ−クに接続されている。補助
記憶装置HD上には、基本ソフトウェア(即ちオペレ−
ティングシステム)とネットワ−ク作成装置のためのア
プリケ−ションソフトウェアが組込まれている。ワ−ク
ステ−ションの電源を投入してオペレ−ティングシステ
ムを起動した後、システムにログインし、更にキ−ボ−
ドKB又はマウスMSによって所定の入力操作を実施す
ることによって、ネットワ−ク作成装置のシステムが起
動する。このシステムを起動すると、図18に示す処理
が開始される。
【0031】図18の最初のステップS31ではメイン
メニュ−を表示装置CRT上に表示する。これによっ
て、例えば図11に示すようなメニュ−画面が表示され
る。このメニュ−画面においては、操作可能なキ−とし
て終了キ−K1a,モデル登録キ−K1b,構造設定キ
−K1c,学習モ−ドキ−K1d,取消キ−K1e,モ
デル削除キ−K1f,実機転送キ−K1g及び評価モ−
ドキ−K1hが設けられており、更にモデルNO領域A
1a,モデル一覧表領域A1b,層数一覧表領域A1c
が設けられている。
メニュ−を表示装置CRT上に表示する。これによっ
て、例えば図11に示すようなメニュ−画面が表示され
る。このメニュ−画面においては、操作可能なキ−とし
て終了キ−K1a,モデル登録キ−K1b,構造設定キ
−K1c,学習モ−ドキ−K1d,取消キ−K1e,モ
デル削除キ−K1f,実機転送キ−K1g及び評価モ−
ドキ−K1hが設けられており、更にモデルNO領域A
1a,モデル一覧表領域A1b,層数一覧表領域A1c
が設けられている。
【0032】画面上のモデル登録キ−K1bをマウス又
はキ−ボ−ドから操作することによって、図18のステ
ップS43が実行される。この時には、モデル一覧表領
域A1bの各欄に対して、モデルNO,モデル名及びメ
モを入力することができる。入力された情報はメモリ上
に登録され、モデル一覧表上に表示される。
はキ−ボ−ドから操作することによって、図18のステ
ップS43が実行される。この時には、モデル一覧表領
域A1bの各欄に対して、モデルNO,モデル名及びメ
モを入力することができる。入力された情報はメモリ上
に登録され、モデル一覧表上に表示される。
【0033】また、画面上のモデルNO領域A1aを指
示することによって、図18のステップS44が実行さ
れる。この時には、予め登録したモデル(モデル一覧表
に表示されているモデル)の中から1つのモデルを番号
を指定して選択することができる。選択したモデルの番
号は、メモリ上に登録され、モデルNO領域A1aに表
示される。
示することによって、図18のステップS44が実行さ
れる。この時には、予め登録したモデル(モデル一覧表
に表示されているモデル)の中から1つのモデルを番号
を指定して選択することができる。選択したモデルの番
号は、メモリ上に登録され、モデルNO領域A1aに表
示される。
【0034】画面上の構造設定キ−K1cをマウス又は
キ−ボ−ドから操作することによって、図18のステッ
プS45が実行される。この時には、層数一覧表領域A
1cに対して、各層の細胞数を入力することができる。
入力された各層の細胞数は、その時に選択しているモデ
ルに対する各層の構造情報としてメモリに登録され、更
新された情報は層数一覧表領域A1cに表示される。
キ−ボ−ドから操作することによって、図18のステッ
プS45が実行される。この時には、層数一覧表領域A
1cに対して、各層の細胞数を入力することができる。
入力された各層の細胞数は、その時に選択しているモデ
ルに対する各層の構造情報としてメモリに登録され、更
新された情報は層数一覧表領域A1cに表示される。
【0035】取消キ−K1eを操作すると、図18のス
テップS47が実行されるが、その前にS45で構造設
定が完了していると、S47において、メモリ上に1つ
のニュ−ラルネットワ−クが作成される。具体的には、
予め用意されたC言語のソ−スファイルと設定された層
数及び各層の細胞数のパラメ−タの情報に基づいて、ソ
−スファイルのコンパイルが実行され、ネットワ−クの
デ−タ構造とそのネットワ−クに対する計算を実施する
オブジェクトプログラムが作成される。なおこのネット
ワ−クは、学習用モデルと評価用モデルの2組で構成さ
れる。
テップS47が実行されるが、その前にS45で構造設
定が完了していると、S47において、メモリ上に1つ
のニュ−ラルネットワ−クが作成される。具体的には、
予め用意されたC言語のソ−スファイルと設定された層
数及び各層の細胞数のパラメ−タの情報に基づいて、ソ
−スファイルのコンパイルが実行され、ネットワ−クの
デ−タ構造とそのネットワ−クに対する計算を実施する
オブジェクトプログラムが作成される。なおこのネット
ワ−クは、学習用モデルと評価用モデルの2組で構成さ
れる。
【0036】作成されたニュ−ラルネットワ−クは、学
習を実施することによって所望のパタ−ン分類機能が備
わる。図11の画面上で学習モ−ドキ−K1dを操作す
ることによって、図18のステップ48が実行される
が、これによって図19に示す学習モ−ドの処理に進む
ことができる。
習を実施することによって所望のパタ−ン分類機能が備
わる。図11の画面上で学習モ−ドキ−K1dを操作す
ることによって、図18のステップ48が実行される
が、これによって図19に示す学習モ−ドの処理に進む
ことができる。
【0037】図19の最初のステップS51では学習メ
ニュ−を表示装置CRT上に表示する。これによって、
例えば図12に示すようなメニュ−画面が表示される。
このメニュ−画面においては、操作可能なキ−として終
了キ−K2a,学習NO登録キ−K2b,デ−タ作成キ−
K2c,細胞割付キ−K2d,取消キ−K2e,デ−タ
削除キ−K2f,学習モ−ド設定キ−K2g,学習キ−
K2h及びデ−タ解析キ−K2iが設けられており、更
にモデルNO領域A2a,学習NO領域A2b,実機デ
−タファイル領域A2c,学習モ−ド領域A2e,終了
条件領域A2f,学習終了値領域A2g,学習デ−タ一
覧表領域A2h及び学習状況領域A2iが設けられてい
る。
ニュ−を表示装置CRT上に表示する。これによって、
例えば図12に示すようなメニュ−画面が表示される。
このメニュ−画面においては、操作可能なキ−として終
了キ−K2a,学習NO登録キ−K2b,デ−タ作成キ−
K2c,細胞割付キ−K2d,取消キ−K2e,デ−タ
削除キ−K2f,学習モ−ド設定キ−K2g,学習キ−
K2h及びデ−タ解析キ−K2iが設けられており、更
にモデルNO領域A2a,学習NO領域A2b,実機デ
−タファイル領域A2c,学習モ−ド領域A2e,終了
条件領域A2f,学習終了値領域A2g,学習デ−タ一
覧表領域A2h及び学習状況領域A2iが設けられてい
る。
【0038】画面上の学習NO登録キ−K2bをマウス又
はキ−ボ−ドから操作することによって、図19のステ
ップS63が実行される。この時には、学習デ−タの番
号とデ−タ名を入力することができる。入力された情報
はメモリ上に登録され、学習デ−タ一覧表上に表示され
る。
はキ−ボ−ドから操作することによって、図19のステ
ップS63が実行される。この時には、学習デ−タの番
号とデ−タ名を入力することができる。入力された情報
はメモリ上に登録され、学習デ−タ一覧表上に表示され
る。
【0039】また、学習NO領域A2bをマウス又はキ
−ボ−ドで指示することによって、図19のステップS
64が実行される。この時には、登録された学習デ−タ
(一覧表に表示されているデ−タ)の1つを選択するこ
とができる。選択された学習デ−タの番号はメモリに登
録され、学習NO領域A2bに表示される。
−ボ−ドで指示することによって、図19のステップS
64が実行される。この時には、登録された学習デ−タ
(一覧表に表示されているデ−タ)の1つを選択するこ
とができる。選択された学習デ−タの番号はメモリに登
録され、学習NO領域A2bに表示される。
【0040】学習デ−タを選択した後で、デ−タ作成キ
−K2cを指示することによって、図19のステップS
66が実行される。このステップでは、学習デ−タの内
容をオペレ−タの入力操作によって作成し登録する。実
際には、図15に示すような画面が表示されるので、こ
の画面において入力する行を指定し、各行でパタ−ン
名,学習デ−タ及び教師デ−タを入力する。図15に示
された例は、ネットワ−クの入力層が6ユニット(統計
値のユニットを除く)で構成され、出力層が4ユニット
で構成される場合を示している。例えば、1行目のデ−
タの場合、50.0,54.0,50.0,44.5,35.0及び16.4が入
力層の6つのユニットに印加される時に、出力層の1番
目,2番目,3番目及び4番目のユニットの教師デ−タ
がそれぞれ1.0,0.0,0.0及び0.0になる。
−K2cを指示することによって、図19のステップS
66が実行される。このステップでは、学習デ−タの内
容をオペレ−タの入力操作によって作成し登録する。実
際には、図15に示すような画面が表示されるので、こ
の画面において入力する行を指定し、各行でパタ−ン
名,学習デ−タ及び教師デ−タを入力する。図15に示
された例は、ネットワ−クの入力層が6ユニット(統計
値のユニットを除く)で構成され、出力層が4ユニット
で構成される場合を示している。例えば、1行目のデ−
タの場合、50.0,54.0,50.0,44.5,35.0及び16.4が入
力層の6つのユニットに印加される時に、出力層の1番
目,2番目,3番目及び4番目のユニットの教師デ−タ
がそれぞれ1.0,0.0,0.0及び0.0になる。
【0041】図12の表示画面において、細胞割付キ−
K2dをマウス又はキ−ボ−ドで指示すると、図19の
ステップS67が実行され、これによって図20に示す
処理に進む。図20の最初のステップS81では、例え
ば図13に示すような細胞割付画面を表示する。図13
の例は、ネットワ−クの入力層が7つのユニット(細
胞)で構成されている場合を示している。各々のユニッ
トに割当てられるデ−タに関する情報をこの画面で指定
する。指定できる項目としては、NO,入力デ−タ名,
返り値NO,正規化方法,正規化定数及び正規化関数名
がある。NOはデ−タを割付ける細胞の番号を示す。
K2dをマウス又はキ−ボ−ドで指示すると、図19の
ステップS67が実行され、これによって図20に示す
処理に進む。図20の最初のステップS81では、例え
ば図13に示すような細胞割付画面を表示する。図13
の例は、ネットワ−クの入力層が7つのユニット(細
胞)で構成されている場合を示している。各々のユニッ
トに割当てられるデ−タに関する情報をこの画面で指定
する。指定できる項目としては、NO,入力デ−タ名,
返り値NO,正規化方法,正規化定数及び正規化関数名
がある。NOはデ−タを割付ける細胞の番号を示す。
【0042】図13の表示画面において入力キ−K3b
をマウス又はキ−ボ−ドで指示すると、図20のステッ
プ93が実行され、図21の処理に進む。この場合、ス
テップS101の実行によって、画面の表示内容は図14の
ようにチョイスウインドゥが開き、新たにキ−K4b,
K4c,K4e及びK4fが表示される。図14の画面
でキ−K4b,K4c,K4e及びK4fを指示するこ
とによって、原デ−タ,直接指定,統計値,及びユ−ザ
指定を入力デ−タの種類として選択することができる。
をマウス又はキ−ボ−ドで指示すると、図20のステッ
プ93が実行され、図21の処理に進む。この場合、ス
テップS101の実行によって、画面の表示内容は図14の
ようにチョイスウインドゥが開き、新たにキ−K4b,
K4c,K4e及びK4fが表示される。図14の画面
でキ−K4b,K4c,K4e及びK4fを指示するこ
とによって、原デ−タ,直接指定,統計値,及びユ−ザ
指定を入力デ−タの種類として選択することができる。
【0043】原デ−タの選択は、図15に示す画面で作
成されたデ−タを正規化して各細胞に入力することを意
味し、直接指定の選択は図15に示す画面で作成された
デ−タを正規化せず直接に各細胞に入力することを意味
し、統計値の選択は図15に示す画面で作成されたデ−
タの統計値を各細胞に入力することを意味し、ユ−ザ指
定の選択は、図15に示す画面で作成されたデ−タを、
予めユ−ザが作成した関数(サブル−チン)によって処
理した結果を各細胞に入力することを意味する。また、
統計値を選択した場合には、更に次の選択項目が表示さ
れ、基本統計値の中のいずれを割付るのかを選択するこ
とができる。この実施例では、基本統計値として、平均
値,標準偏差,偏差平方和,分散,標準誤差,最大値,
最小値,範囲,メジアン,及び最大値の位置を用意して
ある。この中のいずれかが選択される。図13及び図1
4に示した例では、ネットワ−クの入力層の1番〜6番
のユニットに原デ−タを割付け、7番のユニットに統計
値の中の平均値を割付けた場合を示している。
成されたデ−タを正規化して各細胞に入力することを意
味し、直接指定の選択は図15に示す画面で作成された
デ−タを正規化せず直接に各細胞に入力することを意味
し、統計値の選択は図15に示す画面で作成されたデ−
タの統計値を各細胞に入力することを意味し、ユ−ザ指
定の選択は、図15に示す画面で作成されたデ−タを、
予めユ−ザが作成した関数(サブル−チン)によって処
理した結果を各細胞に入力することを意味する。また、
統計値を選択した場合には、更に次の選択項目が表示さ
れ、基本統計値の中のいずれを割付るのかを選択するこ
とができる。この実施例では、基本統計値として、平均
値,標準偏差,偏差平方和,分散,標準誤差,最大値,
最小値,範囲,メジアン,及び最大値の位置を用意して
ある。この中のいずれかが選択される。図13及び図1
4に示した例では、ネットワ−クの入力層の1番〜6番
のユニットに原デ−タを割付け、7番のユニットに統計
値の中の平均値を割付けた場合を示している。
【0044】返り値NOは、ユ−ザ指定関数からの戻り
値を割り付ける細胞を示す。正規化方法は、入力デ−タ
を正規化して細胞に印加する場合の正規化処理を指定す
るものであり、この例では、デ−タを一定値で割る方
法,幅で割る(列ごとの最大及び最小値によって正規化
する)方法,及びユ−ザ指定関数によって正規化する方
法の3種類の中から選択できる。正規化定数は、正規化
方法として、デ−タを一定値で割る方法を選択した場合
の一定値を示す。正規化関数名は、正規化方法としてユ
−ザ指定関数を選択した場合に使用する関数の名称を示
す。
値を割り付ける細胞を示す。正規化方法は、入力デ−タ
を正規化して細胞に印加する場合の正規化処理を指定す
るものであり、この例では、デ−タを一定値で割る方
法,幅で割る(列ごとの最大及び最小値によって正規化
する)方法,及びユ−ザ指定関数によって正規化する方
法の3種類の中から選択できる。正規化定数は、正規化
方法として、デ−タを一定値で割る方法を選択した場合
の一定値を示す。正規化関数名は、正規化方法としてユ
−ザ指定関数を選択した場合に使用する関数の名称を示
す。
【0045】図12の画面において、学習モ−ド設定キ
−K2gを指定した場合、図19のステップS68が実
行される。この時には、学習モ−ド,終了条件,及び学
習終了値が設定される。学習モ−ドについては、新規学
習と既存の学習ファイル(重み係数ファイル)の更新学
習のいずれかを選択でき、終了条件については、学習を
終了する条件として、学習回数,誤差,及び自動のいず
れかを選択でき、条件として学習回数を選択した時には
学習終了値として学習回数を指定し、条件として誤差を
選択した時には学習終了値としてネットワ−クの出力と
教師デ−タとの誤差(収束値)を指定する。設定した条
件は、登録され、画面上の領域A2e,A2f及びA2
gに表示される。
−K2gを指定した場合、図19のステップS68が実
行される。この時には、学習モ−ド,終了条件,及び学
習終了値が設定される。学習モ−ドについては、新規学
習と既存の学習ファイル(重み係数ファイル)の更新学
習のいずれかを選択でき、終了条件については、学習を
終了する条件として、学習回数,誤差,及び自動のいず
れかを選択でき、条件として学習回数を選択した時には
学習終了値として学習回数を指定し、条件として誤差を
選択した時には学習終了値としてネットワ−クの出力と
教師デ−タとの誤差(収束値)を指定する。設定した条
件は、登録され、画面上の領域A2e,A2f及びA2
gに表示される。
【0046】上記のように操作して学習の準備を整えた
後、図12に示す画面において、学習キ−K2hを指示
すると、図19のステップS69に進み、学習処理を実
行する。この学習処理では、バックプロパゲ−ションの
アルゴリズムが用いられている。即ち、指定された学習
デ−タを必要に応じて正規化し、必要に応じて統計処理
を実施し、指定された入力層のユニットに入力し、ネッ
トワ−クの計算を実行し、その結果ネットワ−クの出力
層の各ユニットに得られる値と、指定された学習デ−タ
に付随する教師デ−タ(図15参照)とを比較し、両者
の誤差を0に近づけるように、出力層から入力層に向か
って、各ユニットの重み係数(結合係数)の値を少しず
つ修正する。この動作を何回も繰り返し実行する。学習
の状況は、図12に示す画面の領域A2iに、学習回数
と誤差との対応の変化を示す学習曲線として表示され
る。
後、図12に示す画面において、学習キ−K2hを指示
すると、図19のステップS69に進み、学習処理を実
行する。この学習処理では、バックプロパゲ−ションの
アルゴリズムが用いられている。即ち、指定された学習
デ−タを必要に応じて正規化し、必要に応じて統計処理
を実施し、指定された入力層のユニットに入力し、ネッ
トワ−クの計算を実行し、その結果ネットワ−クの出力
層の各ユニットに得られる値と、指定された学習デ−タ
に付随する教師デ−タ(図15参照)とを比較し、両者
の誤差を0に近づけるように、出力層から入力層に向か
って、各ユニットの重み係数(結合係数)の値を少しず
つ修正する。この動作を何回も繰り返し実行する。学習
の状況は、図12に示す画面の領域A2iに、学習回数
と誤差との対応の変化を示す学習曲線として表示され
る。
【0047】図12に示す表示画面においてデ−タ解析
キ−K2iを指示すると、図19のステップS71が実
行される。この処理においては、指定した学習デ−タ
(図15参照)の特徴分析のために、学習デ−タのグラ
フ表示,学習デ−タの印刷,学習デ−タの統計値の計算
及び印刷をオペレ−タの指示によって処理することがで
きる。学習デ−タをグラフ表示する場合には、折れ線グ
ラフとレ−ダチャ−トの2種類のグラフを選択的に表示
することができ、グラフ上の各要素の表示位置を移動
(折れ線グラフの場合には軸方向への移動,レ−ダチャ
−トの場合には回転)することもできる。
キ−K2iを指示すると、図19のステップS71が実
行される。この処理においては、指定した学習デ−タ
(図15参照)の特徴分析のために、学習デ−タのグラ
フ表示,学習デ−タの印刷,学習デ−タの統計値の計算
及び印刷をオペレ−タの指示によって処理することがで
きる。学習デ−タをグラフ表示する場合には、折れ線グ
ラフとレ−ダチャ−トの2種類のグラフを選択的に表示
することができ、グラフ上の各要素の表示位置を移動
(折れ線グラフの場合には軸方向への移動,レ−ダチャ
−トの場合には回転)することもできる。
【0048】学習が終了した後、図11に示す画面に戻
り、評価モ−ドキ−K1hをマウス又はキ−ボ−ドで指
示すると、図18のステップS49を実行し、図22に
示す評価モ−ド処理に進む。この場合、まずステップS1
21で、図16に示すような評価メニュ−を表示する。図
16の画面には、終了キ−K6a,評価NO登録キ−K
6b,デ−タ作成キ−K6c,細胞割付キ−K6d,前
処理生成キ−K6e,取消キ−K6f,デ−タ削除キ−
K6g,入力モ−ドキ−K6h,表示仕様キ−K6i,
割付コピ−キ−K6j,評価キ−K6k,表示取消キ−
K6l,モデルNO領域A6a,学習NO領域A6b,
評価NO領域A6c,入力モ−ド領域A6d,表示モ−
ド領域A6e,グラフモ−ド領域A6f,スケ−ル領域
A6g,及び表示デ−タ一覧表領域A6hが備わってい
る。
り、評価モ−ドキ−K1hをマウス又はキ−ボ−ドで指
示すると、図18のステップS49を実行し、図22に
示す評価モ−ド処理に進む。この場合、まずステップS1
21で、図16に示すような評価メニュ−を表示する。図
16の画面には、終了キ−K6a,評価NO登録キ−K
6b,デ−タ作成キ−K6c,細胞割付キ−K6d,前
処理生成キ−K6e,取消キ−K6f,デ−タ削除キ−
K6g,入力モ−ドキ−K6h,表示仕様キ−K6i,
割付コピ−キ−K6j,評価キ−K6k,表示取消キ−
K6l,モデルNO領域A6a,学習NO領域A6b,
評価NO領域A6c,入力モ−ド領域A6d,表示モ−
ド領域A6e,グラフモ−ド領域A6f,スケ−ル領域
A6g,及び表示デ−タ一覧表領域A6hが備わってい
る。
【0049】この評価モ−ドでは、作成したニュ−ラル
ネットワ−クに未知のデ−タパタ−ンを入力し、ネット
ワ−クが出力する分類結果を調べることができる。この
評価を実施する場合には、まず評価NO登録キ−K6b
を操作した後で評価の番号と名称を入力する。入力した
情報は登録され、評価デ−タ一覧表領域A6h上に表示
される。次に学習NO領域A6bをマウス又はキ−ボ−
ドで指示すると、図22のステップS144が実行されるの
で、ここで重み係数デ−タを選択する。即ち、評価する
ネットワ−クについて学習モ−ドで予め作成してある1
つ又は複数の重み係数デ−タファイルの中から1つを選
択する。学習が終了していないネットワ−クを評価する
ことはできない。
ネットワ−クに未知のデ−タパタ−ンを入力し、ネット
ワ−クが出力する分類結果を調べることができる。この
評価を実施する場合には、まず評価NO登録キ−K6b
を操作した後で評価の番号と名称を入力する。入力した
情報は登録され、評価デ−タ一覧表領域A6h上に表示
される。次に学習NO領域A6bをマウス又はキ−ボ−
ドで指示すると、図22のステップS144が実行されるの
で、ここで重み係数デ−タを選択する。即ち、評価する
ネットワ−クについて学習モ−ドで予め作成してある1
つ又は複数の重み係数デ−タファイルの中から1つを選
択する。学習が終了していないネットワ−クを評価する
ことはできない。
【0050】次に、評価NO領域A6cをマウス又はキ
−ボ−ドで指示すると、図22のステップS145が実行さ
れるので、ここで予め登録してある評価デ−タ(領域A
6hに表示されているデ−タ)の1つを選択する。続い
て、デ−タ作成キ−K6cを指示すると、図22のステ
ップS146が実行される。ここで選択された評価デ−タの
内容を入力し評価デ−タの本体を作成する。この場合、
図示しないが、例えば図15に示す学習デ−タの作成画
面と同様な画面が表示されるので、その場合と同様にし
て、評価対象となる未知のデ−タパタ−ンを入力する。
学習モ−ドの場合には、学習デ−タと教師デ−タを入力
する必要があるが、評価モ−ドでは評価対象となるデ−
タ(ニュ−ラルネットワ−クの入力層に印加するデ−
タ)のみを入力する。
−ボ−ドで指示すると、図22のステップS145が実行さ
れるので、ここで予め登録してある評価デ−タ(領域A
6hに表示されているデ−タ)の1つを選択する。続い
て、デ−タ作成キ−K6cを指示すると、図22のステ
ップS146が実行される。ここで選択された評価デ−タの
内容を入力し評価デ−タの本体を作成する。この場合、
図示しないが、例えば図15に示す学習デ−タの作成画
面と同様な画面が表示されるので、その場合と同様にし
て、評価対象となる未知のデ−タパタ−ンを入力する。
学習モ−ドの場合には、学習デ−タと教師デ−タを入力
する必要があるが、評価モ−ドでは評価対象となるデ−
タ(ニュ−ラルネットワ−クの入力層に印加するデ−
タ)のみを入力する。
【0051】続いて、細胞割付キ−K6dをマウス又は
キ−ボ−ドで指示すると、図22のステップS147が実行
される。ここで評価デ−タをネットワ−クの各ユニット
に割当てる。この細胞割付では、学習モ−ドにおける細
胞割付の場合と同様の処理が実施される。
キ−ボ−ドで指示すると、図22のステップS147が実行
される。ここで評価デ−タをネットワ−クの各ユニット
に割当てる。この細胞割付では、学習モ−ドにおける細
胞割付の場合と同様の処理が実施される。
【0052】次に、前処理生成キ−K6eをマウス又は
キ−ボ−ドで指示すると、図22のステップS148が実行
される。この処理では、ステップS147で設定されたデ−
タ割付に基づいて、前処理用モジュ−ルが作成される。
この前処理用モジュ−ルは、例えば図1における回転処
理部1に相当するものであり、評価対象入力デ−タを前
処理(図1の例では回転方向の位置合せ)してからニュ
−ラルネットワ−クに印加する。
キ−ボ−ドで指示すると、図22のステップS148が実行
される。この処理では、ステップS147で設定されたデ−
タ割付に基づいて、前処理用モジュ−ルが作成される。
この前処理用モジュ−ルは、例えば図1における回転処
理部1に相当するものであり、評価対象入力デ−タを前
処理(図1の例では回転方向の位置合せ)してからニュ
−ラルネットワ−クに印加する。
【0053】入力モ−ドキ−K6hを指示すると、図2
2のステップS150が実行される。ここで、評価対象のデ
−タを予め用意した評価デ−タファイルから読込んで入
力するか、又はキ−ボ−ドから直接入力するかを選択で
きる。また、表示仕様キ−K6iを指示すると、評価結
果を表示する画面における表示仕様を変更することがで
きる。
2のステップS150が実行される。ここで、評価対象のデ
−タを予め用意した評価デ−タファイルから読込んで入
力するか、又はキ−ボ−ドから直接入力するかを選択で
きる。また、表示仕様キ−K6iを指示すると、評価結
果を表示する画面における表示仕様を変更することがで
きる。
【0054】次に、評価キ−K6kを指示すると、図2
2のステップS151が実行される。入力モ−ドとしてファ
イルを選択した場合には、ファイルの番号を入力する
と、そのファイルのデ−タを評価対象デ−タとして読込
んで、ネットワ−クに印加し、評価を開始する。即ち、
評価デ−タに対してネットワ−クの計算を実施し、ネッ
トワ−クの出力層の各ユニットの出力値を評価値として
表示し、その中で最も高い評価結果が得られたユニット
の分類パタ−ンを評価結果として表示する。また、評価
対象デ−タ及び学習デ−タをグラフ表示する。これによ
って、例えば図17のような画面が表示される。なお図
17の例では評価対象デ−タが折線グラフで表示されて
いるが、表示仕様を変更すれば、レ−ダチャ−トによっ
て、例えば図4のように評価対象デ−タを表示すること
もできる。
2のステップS151が実行される。入力モ−ドとしてファ
イルを選択した場合には、ファイルの番号を入力する
と、そのファイルのデ−タを評価対象デ−タとして読込
んで、ネットワ−クに印加し、評価を開始する。即ち、
評価デ−タに対してネットワ−クの計算を実施し、ネッ
トワ−クの出力層の各ユニットの出力値を評価値として
表示し、その中で最も高い評価結果が得られたユニット
の分類パタ−ンを評価結果として表示する。また、評価
対象デ−タ及び学習デ−タをグラフ表示する。これによ
って、例えば図17のような画面が表示される。なお図
17の例では評価対象デ−タが折線グラフで表示されて
いるが、表示仕様を変更すれば、レ−ダチャ−トによっ
て、例えば図4のように評価対象デ−タを表示すること
もできる。
【0055】また、図16に示す表示画面において、割
付コピ−キ−K6jを指示すると、選択された学習NO
のデ−タについて学習モ−ドで学習を実施した時に設定
された細胞割付と一致するように、登録されたその情報
を参照して自動的に細胞割付が実施される。即ち、各々
のネットワ−クについて、各モ−ドで指定した情報は、
そのネットワ−クに対応付けたデ−タファイルとして、
主記憶装置MM上又は補助記憶装置HD上に保存されて
いるので、学習モ−ドの際に指定した細胞割付の情報、
つまり各々の入力層ユニットに対応付けられた原デ−
タ,直接指定,統計値(平均値,標準偏差等の区分も含
む)及びユ−ザ指定の区分情報や、正規化のための情報
を読み出して、その情報を評価モ−ドでも利用する。こ
の自動細胞割付を実施する場合には、評価モ−ドで改め
て細胞割付のための入力を実施する必要がなく、学習モ
−ドの際と同じ条件を自動的に再現してネットワ−クの
評価を実施することができる。これによって、ネットワ
−クの入力情報としていずれの種類の統計値を選択する
のがパタ−ン分類に効果的であるかを、容易に調べるこ
とができる。
付コピ−キ−K6jを指示すると、選択された学習NO
のデ−タについて学習モ−ドで学習を実施した時に設定
された細胞割付と一致するように、登録されたその情報
を参照して自動的に細胞割付が実施される。即ち、各々
のネットワ−クについて、各モ−ドで指定した情報は、
そのネットワ−クに対応付けたデ−タファイルとして、
主記憶装置MM上又は補助記憶装置HD上に保存されて
いるので、学習モ−ドの際に指定した細胞割付の情報、
つまり各々の入力層ユニットに対応付けられた原デ−
タ,直接指定,統計値(平均値,標準偏差等の区分も含
む)及びユ−ザ指定の区分情報や、正規化のための情報
を読み出して、その情報を評価モ−ドでも利用する。こ
の自動細胞割付を実施する場合には、評価モ−ドで改め
て細胞割付のための入力を実施する必要がなく、学習モ
−ドの際と同じ条件を自動的に再現してネットワ−クの
評価を実施することができる。これによって、ネットワ
−クの入力情報としていずれの種類の統計値を選択する
のがパタ−ン分類に効果的であるかを、容易に調べるこ
とができる。
【0056】
【発明の効果】以上のとおり、第1番の発明のパタ−ン
分類装置によれば、複数の入力信号全体の並び順を回転
して位置合せ補償した信号をネットワ−クの入力端子に
印加するので、例えば高炉の温度分布信号のように入力
信号のパタ−ンが回転を生じるものであっても、その回
転方向の位置は基準パタ−ン(即ち学習するパタ−ン)
の回転方向位置と一致するように揃えられてネットワ−
クに印加される。従って、入力信号パタ−ンの回転位置
はネットワ−クに影響を及ぼさない。これによって、ネ
ットワ−クのパタ−ン分類能力が大幅に向上する。
分類装置によれば、複数の入力信号全体の並び順を回転
して位置合せ補償した信号をネットワ−クの入力端子に
印加するので、例えば高炉の温度分布信号のように入力
信号のパタ−ンが回転を生じるものであっても、その回
転方向の位置は基準パタ−ン(即ち学習するパタ−ン)
の回転方向位置と一致するように揃えられてネットワ−
クに印加される。従って、入力信号パタ−ンの回転位置
はネットワ−クに影響を及ぼさない。これによって、ネ
ットワ−クのパタ−ン分類能力が大幅に向上する。
【0057】第2番の発明のパタ−ン分類装置において
は、第1組のネットワ−ク手段は特定の入力信号パタ−
ンに対する分類能力が高くなるがその他のパタ−ンに対
する分類能力は低くなり、第2組のネットワ−ク手段は
前記特定の入力信号パタ−ンに対する分類能力が低くな
る代わりにその他のパタ−ンに対する分類能力が高くな
る。ニュ−ラルネットワ−クを通常の方法、即ちバック
プロパゲ−ションで学習させる場合、学習による重み係
数の更新はほとんど全てのユニットに適用されるので、
例えばパタ−ンA/Bの分類に関して既に充分な学習が
済んでいる状態で、別のパタ−ンC/Dの分類に関する
学習を実行すると、既に学習されたA/B分類に関する
重み係数までも更新され、A/B分類の能力は低下す
る。このような分類能力の低下傾向は、形状差の大きい
複数パタ−ンの分類(例えば図5の活性型パタ−ンと小
活性型・不活性型パタ−ンの分類)と形状差の小さい複
数パタ−ンの分類(例えば図5のパタ−ン3〜8の分
類)とを同時に実施しようとする場合に顕著になる。本
発明では、学習デ−タの変更によって分類能力を異なら
せた第1組のネットワ−ク手段と第2組のネットワ−ク
手段とが備わっているので、例えば形状差の大きい複数
パタ−ンの分類を第1組のネットワ−ク手段で実施し、
形状差の小さい複数パタ−ンの分類を第2組のネットワ
−ク手段で実施することによって、形状差の大きい複数
パタ−ンと形状差の小さい複数パタ−ンのいずれに対し
ても高い分類能力が得られる。
は、第1組のネットワ−ク手段は特定の入力信号パタ−
ンに対する分類能力が高くなるがその他のパタ−ンに対
する分類能力は低くなり、第2組のネットワ−ク手段は
前記特定の入力信号パタ−ンに対する分類能力が低くな
る代わりにその他のパタ−ンに対する分類能力が高くな
る。ニュ−ラルネットワ−クを通常の方法、即ちバック
プロパゲ−ションで学習させる場合、学習による重み係
数の更新はほとんど全てのユニットに適用されるので、
例えばパタ−ンA/Bの分類に関して既に充分な学習が
済んでいる状態で、別のパタ−ンC/Dの分類に関する
学習を実行すると、既に学習されたA/B分類に関する
重み係数までも更新され、A/B分類の能力は低下す
る。このような分類能力の低下傾向は、形状差の大きい
複数パタ−ンの分類(例えば図5の活性型パタ−ンと小
活性型・不活性型パタ−ンの分類)と形状差の小さい複
数パタ−ンの分類(例えば図5のパタ−ン3〜8の分
類)とを同時に実施しようとする場合に顕著になる。本
発明では、学習デ−タの変更によって分類能力を異なら
せた第1組のネットワ−ク手段と第2組のネットワ−ク
手段とが備わっているので、例えば形状差の大きい複数
パタ−ンの分類を第1組のネットワ−ク手段で実施し、
形状差の小さい複数パタ−ンの分類を第2組のネットワ
−ク手段で実施することによって、形状差の大きい複数
パタ−ンと形状差の小さい複数パタ−ンのいずれに対し
ても高い分類能力が得られる。
【0058】第3番の発明のパタ−ン分類装置では、ネ
ットワ−クは入力信号とその信号の統計量とを組合せた
パタ−ンを入力してそれを分類するので、高い分類能力
が期待できる。
ットワ−クは入力信号とその信号の統計量とを組合せた
パタ−ンを入力してそれを分類するので、高い分類能力
が期待できる。
【図1】 実施例のパタ−ン分類装置の構成を示すブロ
ック図である。
ック図である。
【図2】 1つのネットワ−クの構成を示すブロック図
である。
である。
【図3】 高炉と温度センサの位置関係を示す斜視図で
ある。
ある。
【図4】 1つの入力信号パタ−ンを示すレ−ダチャ−
トである。
トである。
【図5】 代表的な信号パタ−ンの分類を示すレ−ダチ
ャ−トである。
ャ−トである。
【図6】 回転処理の内容を示すフロ−チャ−トであ
る。
る。
【図7】 回転処理前と処理後の信号の並びを示すマッ
プである。
プである。
【図8】 統計計算処理の内容を示すフロ−チャ−トで
ある。
ある。
【図9】 1つの入力信号パタ−ンを示すレ−ダチャ−
トである。
トである。
【図10】 装置のハ−ドウェア構成を示すブロック図
である。
である。
【図11】 ネットワ−ク作成装置の表示画面の例を示
す正面図である。
す正面図である。
【図12】 ネットワ−ク作成装置の表示画面の例を示
す正面図である。
す正面図である。
【図13】 ネットワ−ク作成装置の表示画面の例を示
す正面図である。
す正面図である。
【図14】 ネットワ−ク作成装置の表示画面の例を示
す正面図である。
す正面図である。
【図15】 ネットワ−ク作成装置の表示画面の例を示
す正面図である。
す正面図である。
【図16】 ネットワ−ク作成装置の表示画面の例を示
す正面図である。
す正面図である。
【図17】 ネットワ−ク作成装置の表示画面の例を示
す正面図である。
す正面図である。
【図18】 ネットワ−ク作成装置の処理の一部を示す
フロ−チャ−トである。
フロ−チャ−トである。
【図19】 ネットワ−ク作成装置の処理の一部を示す
フロ−チャ−トである。
フロ−チャ−トである。
【図20】 ネットワ−ク作成装置の処理の一部を示す
フロ−チャ−トである。
フロ−チャ−トである。
【図21】 ネットワ−ク作成装置の処理の一部を示す
フロ−チャ−トである。
フロ−チャ−トである。
【図22】 ネットワ−ク作成装置の処理の一部を示す
フロ−チャ−トである。
フロ−チャ−トである。
1:回転処理部 2:統計計算処理部 3,4:ニュ−ラルネットワ−ク 5:デ−タセレクタ
───────────────────────────────────────────────────── フロントページの続き (72)発明者 西 尾 清 明 東海市東海町5−3 新日本製鐵株式会社 名古屋製鐵所内 (72)発明者 宮 崎 裕 之 富津市新富20−1 新日本製鐵株式会社技 術開発本部内
Claims (3)
- 【請求項1】 複数の入力端子と複数の出力端子を備え
るネットワ−クを含み該ネットワ−クの入力端子に複数
の入力信号を印加して入力信号の組合せパタ−ンの分類
を示す信号を出力するパタ−ン分類装置において、複数
の入力信号全体の並び順を回転して位置合せ補償した信
号を前記ネットワ−クの複数の入力端子に印加する、回
転処理手段を設けたことを特徴とする、パタ−ン分類装
置。 - 【請求項2】 特定の入力信号パタ−ンの出現比率を高
めた第1組の学習デ−タに対して重み係数の学習が実施
された第1組のネットワ−ク手段;前記特定の入力信号
パタ−ンの出現比率を下げた第2組の学習デ−タに対し
て重み係数の学習が実施された第2組のネットワ−ク手
段;及び未知の入力信号が前記第1組及び第2組のネッ
トワ−ク手段に印加された時に、第1組のネットワ−ク
手段が入力信号を前記特定パタ−ンとして分類した時に
は第1組のネットワ−ク手段の出力を選択し、第1組の
ネットワ−ク手段が入力信号を前記特定パタ−ン以外と
して分類した時には第2組のネットワ−ク手段の出力を
選択し、選択した分類信号を出力する、出力選択手段;
を備えるパタ−ン分類装置。 - 【請求項3】 複数の入力端子と複数の出力端子を備え
るネットワ−クを含み該ネットワ−クの入力端子に複数
の入力信号を印加して入力信号の組合せパタ−ンの分類
を示す信号を出力するパタ−ン分類装置において、 複数の入力信号の統計量を計算する統計量計算手段を設
け、前記ネットワ−クの入力端子に、前記入力信号自体
を受入れる第1組の端子と統計量計算手段が出力する統
計量を受入れる第2組の端子とを設けたことを特徴とす
るパタ−ン分類装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4205572A JP2686023B2 (ja) | 1992-07-31 | 1992-07-31 | パタ−ン分類装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4205572A JP2686023B2 (ja) | 1992-07-31 | 1992-07-31 | パタ−ン分類装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0652137A true JPH0652137A (ja) | 1994-02-25 |
JP2686023B2 JP2686023B2 (ja) | 1997-12-08 |
Family
ID=16509116
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP4205572A Expired - Lifetime JP2686023B2 (ja) | 1992-07-31 | 1992-07-31 | パタ−ン分類装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2686023B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000251057A (ja) * | 1999-03-01 | 2000-09-14 | Nippon Telegr & Teleph Corp <Ntt> | 入力機器用色再現方法及び装置、並びにこの方法のプログラムを記録した記録媒体 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01251288A (ja) * | 1988-03-31 | 1989-10-06 | Toshiba Corp | 検査システム用画像処理装置 |
JPH0281279A (ja) * | 1988-09-19 | 1990-03-22 | Fujitsu Ltd | パターン認識装置 |
JPH02101586A (ja) * | 1988-10-11 | 1990-04-13 | Agency Of Ind Science & Technol | 適応学習型汎用画像計測方式 |
JPH02165288A (ja) * | 1988-12-19 | 1990-06-26 | Hitachi Eng Co Ltd | 画像処理装置 |
JPH02287860A (ja) * | 1989-04-28 | 1990-11-27 | Omron Corp | 情報処理装置 |
JPH02310780A (ja) * | 1989-05-26 | 1990-12-26 | Matsushita Electric Ind Co Ltd | 適応型画像フィルタ |
JPH04112277A (ja) * | 1990-08-31 | 1992-04-14 | Toyobo Co Ltd | 形状識別方法 |
JPH04195267A (ja) * | 1990-10-03 | 1992-07-15 | Advantest Corp | パターン認識装置 |
-
1992
- 1992-07-31 JP JP4205572A patent/JP2686023B2/ja not_active Expired - Lifetime
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01251288A (ja) * | 1988-03-31 | 1989-10-06 | Toshiba Corp | 検査システム用画像処理装置 |
JPH0281279A (ja) * | 1988-09-19 | 1990-03-22 | Fujitsu Ltd | パターン認識装置 |
JPH02101586A (ja) * | 1988-10-11 | 1990-04-13 | Agency Of Ind Science & Technol | 適応学習型汎用画像計測方式 |
JPH02165288A (ja) * | 1988-12-19 | 1990-06-26 | Hitachi Eng Co Ltd | 画像処理装置 |
JPH02287860A (ja) * | 1989-04-28 | 1990-11-27 | Omron Corp | 情報処理装置 |
JPH02310780A (ja) * | 1989-05-26 | 1990-12-26 | Matsushita Electric Ind Co Ltd | 適応型画像フィルタ |
JPH04112277A (ja) * | 1990-08-31 | 1992-04-14 | Toyobo Co Ltd | 形状識別方法 |
JPH04195267A (ja) * | 1990-10-03 | 1992-07-15 | Advantest Corp | パターン認識装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000251057A (ja) * | 1999-03-01 | 2000-09-14 | Nippon Telegr & Teleph Corp <Ntt> | 入力機器用色再現方法及び装置、並びにこの方法のプログラムを記録した記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
JP2686023B2 (ja) | 1997-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4155363B2 (ja) | データ表示装置、データ表示方法、およびデータ表示用プログラムを記録した記録媒体 | |
CN110929697B (zh) | 一种基于残差结构的神经网络目标识别方法及系统 | |
Anselin | GeoDa 0.9 user’s guide | |
Chen et al. | A simple approach to ranking a group of aggregated fuzzy utilities | |
US5835916A (en) | Document preparing apparatus capable of relocating cells forming a table and resetting cell size | |
Zamuda et al. | Structured population size reduction differential evolution with multiple mutation strategies on CEC 2013 real parameter optimization | |
JPH07219977A (ja) | メッシュ生成法 | |
CN109360105A (zh) | 产品风险预警方法、装置、计算机设备和存储介质 | |
US5897627A (en) | Method of determining statistically meaningful rules | |
US5222210A (en) | Method of displaying the state of an artificial neural network | |
US4891763A (en) | NC program editing and programming device | |
Yacoubi et al. | A multi-objective chaos game optimization algorithm based on decomposition and random learning mechanisms for numerical optimization | |
US5386498A (en) | Expert system having a knowledge base compiler and a certainty factor manager | |
US5841949A (en) | Learning/inference method for artificial intelligence and apparatus therefor | |
JP2686023B2 (ja) | パタ−ン分類装置 | |
US5818415A (en) | Graphic form inputting apparatus | |
JPH0652136A (ja) | ネットワ−ク作成装置 | |
US6223327B1 (en) | Cell hierarchy verification method and apparatus for LSI layout | |
JPH07295776A (ja) | データ配置構造変換方法およびそのシステム並びにクライアントサーバシステム | |
EP0435099B1 (en) | A method of selecting characteristics data for a data processing system | |
US5799296A (en) | System for continuous logic computation and method of using same | |
Durán-Peña | A MIXED-INTEGER NONLINEAR PROGAMMING APPROACH FOR THE SYSTEMATIC SYNTHESIS OF ENGINEERING SYSTEMS (PROCESS SYNTHESIS, NONDIFFERENTIABLE OPTIMIZATION, HEAT INTEGRATION, OPERATIONS RESEARCH, COMPUTER-AIDED DESIGN) | |
JPH0253102A (ja) | フアジイ・ルール発生装置および方法,ならびに確認装置および方法 | |
Abd et al. | A methodology for fuzzy multi-criteria decision-making approach for scheduling problems in robotic flexible assembly cells | |
Nair | Identifying technology horizons for strategic investment decisions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 19970722 |