JPH09330406A - 学習支援装置およびパターン認識装置 - Google Patents

学習支援装置およびパターン認識装置

Info

Publication number
JPH09330406A
JPH09330406A JP8147453A JP14745396A JPH09330406A JP H09330406 A JPH09330406 A JP H09330406A JP 8147453 A JP8147453 A JP 8147453A JP 14745396 A JP14745396 A JP 14745396A JP H09330406 A JPH09330406 A JP H09330406A
Authority
JP
Japan
Prior art keywords
neural network
learning
pattern
pattern information
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP8147453A
Other languages
English (en)
Inventor
Hideaki Uekusa
秀明 植草
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Fuji Facom Corp
Original Assignee
Fuji Electric Co Ltd
Fuji Facom Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Co Ltd, Fuji Facom Corp filed Critical Fuji Electric Co Ltd
Priority to JP8147453A priority Critical patent/JPH09330406A/ja
Publication of JPH09330406A publication Critical patent/JPH09330406A/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 ニューラルネットワークを用いたパターン認
識における最適な認識カテゴリー毎の学習データの自動
選択と最適な特徴量の選択の実現によって認識時間、学
習時間、及び認識性能の向上を実現させ、また、環境の
変化に起因する認識性能の低下を防止することにある。 【解決手段】 特徴量演算部102は、各画像データ1
01に対し、特徴量を演算する。統計解析部105は、
各画像データ101に対応する特徴量の各組に対して、
クラスタ分析を実行することによって、上記各特徴量の
組を、画像データ101の各カテゴリに対応する複数の
クラスタに分類し、分類された各クラスタを代表する特
徴量の組を、学習データとして選択する。これらの特徴
量の組は、正規化部103で正規化された後、ニューラ
ルネットワーク部104の学習に使用される。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、神経細胞を模擬し
た画像等のパターン認識用のニューラルネットワークの
学習支援技術、及びそのようにして学習されたニューラ
ルネットワークを用いたパターン認識装置に関する。
【0002】
【従来の技術】画像認識等のパターン認識技術は、工場
の生産ラインにおける部品等の傷/汚れ検査や自動峻
別、プラント設備等の監視/異常検知をはじめ、様々な
産業分野で利用されている。
【0003】画像認識を例にとると、第1の従来技術と
して、次のような技術が知られている。まず、テレビカ
メラ等のセンサから得られ、雑音除去・位置及び大きさ
の正規化等の前処理が施された後の入力画像データか
ら、例えば輪郭情報、円形度、面積、色度等の画像特徴
量が抽出される。次に、このようにして得られる入力画
像データの画像特徴量と、記憶媒体に記憶されたモデル
画像の画像特徴量との間で、パターンマッチング処理が
実行される。そして、最もマッチング度が高いと認識さ
れたモデル画像の識別情報が、画像認識結果として出力
される。
【0004】画像認識の第2の従来技術として、次のよ
うな技術が知られている。まず、認識したい画像が基準
画像として記憶され、その画像の特徴部位が決定され
る。次に、判別したい入力画像が取り込まれ、上記特徴
部位に関して、入力画像と基準画像との間で、パターン
マッチング処理が実行される。その後、画像全体の相関
値に基づいて、認識画像が決定される。
【0005】画像認識の第3の従来技術として、ニュー
ラルネットワークを用いた技術が知られている。ニュー
ラルネットワークは、神経細胞のネットワークを電子回
路によって模擬したものであり、学習によって自分自身
が入力に対して最適な出力が得られるように自律的にネ
ットワーク構造を変化させることができ、また、それ自
身のもつ汎化作用により、学習時に用いた基本的な入力
パターンの中間の入力パターンに対しても妥当な出力を
与えることができる等、優れた利点を有している。この
場合、ニューラルネットワークを構成する各重み係数
は、モデル画像の画像特徴量とその画像認識結果に基づ
いて、最適な値となるように予め学習させられる。認識
時には、入力画像データの画像特徴量がニューラルネッ
トワークを構成する入力ニューロンに入力され、出力ニ
ューロンをアクティブにする。アクティブにされた出力
ニューロンのうち最も値が大きなものに割り当てられた
識別情報が、入力画像データの画像認識結果となる。
【0006】本特許出願の出願人は、画像認識の第4の
従来技術であるニューラルネットワークを利用した画像
認識技術として、特願平4−164409号特許出願を
出願している。
【0007】
【発明が解決しようとする課題】しかし、前述した第1
及び第2の従来技術は、以下の問題点を有している。第
1の問題点として、多数種類の画像を認識可能とするた
めに、多数種類のモデル画像の画像特徴量を記憶する必
要があるため、記憶容量の増大によるシステム規模の増
大と、認識時間の増大による応答性能の低下を招いてし
まう。この結果、応答性能を向上させるために、認識処
理のための応用ソフトウエアの開発コストの増大や、専
用処理装置化による製品コストの増大等を招いていた。
【0008】第2の問題点として、パターンマッチング
処理において、入力画像の画像特徴量とモデル画像の画
像特徴量との類似度を演算するための最適な評価基準を
決定するのが難しかった。
【0009】一方、ニューラルネットワークを利用した
前述した第3の従来技術は、上述の第1及び第2の従来
技術の第1の問題点として示されるようなモデル画像を
記憶する必要はない。また、上述の第1及び第2の従来
技術の第2の問題点として示されるような類似度の評価
基準を決定する必要もない。しかし、多数種類の画像を
認識可能とし画像認識率を向上させるためには、認識モ
デルの学習において、ニューラルネットワークに対して
多数種類のモデル画像についての学習処理を繰り返す必
要があり、学習処理に膨大な時間を要するという問題点
を有していた。この結果、プラント等における現地作業
での機器調整時間の長時間化を招き、現地調整コストの
増大を招いていた。
【0010】更に、前述した第1〜第3の従来技術に共
通する問題点として、下記のような環境の変化に依存し
て、入力画像から得られる画像特徴量は不完全なものと
なってしまう。
【0011】・撮像カメラの振動による入力画像の位置
ずれ。 ・点検員の撮像範囲への侵入による入力画像の変化。 ・照明の点灯/消灯による入力画像の明るさの変化。
【0012】・撮像場所の汚れによる入力画像の変化。 ・プラントの指示札等の揺れによる入力画像の微小変
化。 この結果、認識誤りが増大してしまうという問題点を有
していた。
【0013】これらの問題点に対して、本特許出願の出
願人による前述した第4の従来技術である特願平4−1
64409号特許出願では、複数枚のモデル画像データ
間で論理演算を実行することによって得られる画像デー
タを学習用画像データとすることにより学習に用いるデ
ータ数を削減することを可能にしている。しかし、この
先行技術は、本発明が達成するような、最適な認識カテ
ゴリー毎の学習データの自動選択や、最適な特徴量の選
択を実現するものではなく、アプローチが異なる。ま
た、この先行特許出願では、学習時及び画像認識時にニ
ューラルネットワークへ入力される画像データに対して
画像強調処理を施すことにより、雑音を多く含み又は画
像の一部が欠落した不完全な画像データであっても、画
像認識率の低下防止を可能としている。しかし、画像強
調のみでは、全ての外乱要因に対して動的に対応するこ
とは難しかった。
【0014】以上に示した従来の問題点は、画像認識技
術に限定されるものではなく、音声やその他の物理量に
関連するパターン認識技術において同様に発生する可能
性がある。
【0015】本発明の課題は、ニューラルネットワーク
を用いたパターン認識における最適な認識カテゴリー毎
の学習データの自動選択と最適な特徴量の選択の実現に
よって認識時間、学習時間、及び認識性能の向上を実現
させ、また、環境の変化に起因する認識性能の低下を防
止することにある。
【0016】
【課題を解決するための手段】本発明は、入力用のニュ
ーロンに認識対象のパターンデータ(画像データ10
1)から得られるパターン情報の組(特徴量の組)を入
力し、認識されるべきカテゴリーの識別情報が割り当て
られた出力用のニューロンの出力に基づいてパターンデ
ータのパターン認識結果を出力するニューラルネットワ
ーク(ニューラルネットワーク部104)に対して、そ
の学習を行わせるための学習支援装置を前提とする。
【0017】そして、本発明の第1の態様は、パターン
情報の組の集合を、統計演算処理により複数のカテゴリ
に分類し、その分類されたパターン情報の組の集合のう
ち各カテゴリを代表するパターン情報の組の集合を、ニ
ューラルネットワークに対して学習を行わせるための学
習データとして選択する学習データ選択手段(統計解析
部105、学習データ選択部701)を有する。
【0018】このような構成を有する本発明の第1の態
様では、学習データとして選択されたパターン情報の組
の集合は、各カテゴリの特徴を代表するような組となっ
ており、このような特徴量の組のみを用いてニューラル
ネットワークの学習を行わせることによって、各カテゴ
リを構成する全てのパターン情報の組を用いなくても十
分な学習効果を期待することができる。これにより、学
習データの数を大幅に削減させることが可能となる。
【0019】本発明の第2の態様は、例えば本発明の第
1の態様の構成により学習を行ったニューラルネットワ
ークに対し、信号の伝送方向が出力側から入力側に向か
う逆向きに構成される逆向きニューラルネットワーク手
段(逆向きニューラルネットワーク部104′)と、そ
の逆向きニューラルネットワークの入力側に正解値を入
力し、その結果逆向きニューラルネットワークの出力側
に得られる相関値に基づいて、パターン情報の組を構成
するパターン情報のうち認識に有意なパターン情報を選
択し、その選択されたパターン情報の組の集合に基づい
てニューラルネットワークに対して再学習を行わせるパ
ターン情報選択手段(逆向きニューラルネットワーク部
104′、統計解析部105)を有する。
【0020】このような構成を有する本発明の第2の態
様では、パターン情報の組を構成するパターン情報のう
ち認識に有意なパターン情報のみが選択されそれらを用
いて再学習が行われることにより、システム規模の縮小
と学習時間の短縮を実現することができる。
【0021】上述の本発明の第1又は第2の態様の構成
において、パターン情報は、パターンデータの特徴を示
す特徴量情報と、パターンデータの原データ情報とを合
わせたものであるように構成することができる。
【0022】これにより、プラント等の現場の環境の変
化に依存する画像の変化も合わせてニューラルネットワ
ークに学習させることができ、認識性能の向上を期待す
ることができる。
【0023】また、上述の学習支援装置によって学習さ
れたニューラルネットワークを有することを特徴とする
パターン認識装置も、本発明の範囲である。
【0024】
【発明の実施の形態】以下、図面を参照しながら本発明
の実施の形態について詳細に説明する。 <本発明の第1の実施の形態の説明>図1〜図6は、本
発明の第1の実施の形態の構成図である。
【0025】まず、図1において、特徴量演算部102
は、モデル用の画像データ101のそれぞれに対して、
特徴量を演算する。特徴量の組としては、例えば、画素
値のヒストグラム(特徴量A)、画像変化推移(特徴量
B)、色度(特徴量C)、及び円形度(特徴量D)等か
らなる組が演算される。
【0026】次に、統計解析部105は、上記各画像デ
ータ101に対応する特徴量の各組に対して、統計解析
の1つの手法であるクラスタ分析を実行することによっ
て、上記各特徴量の組を、画像データ101の各カテゴ
リに対応する複数のクラスタに分類する。クラスタ分析
は周知の分析手法であり、その具体的処理は、例えば文
献1:「'92 日本機械学会〔No.920-55 〕計測制御講演
論文集(VOL.A) 」、又は文献2:「'93 日本機械学会
〔No.930-60 〕第3回 FANシンポジウム」等に開示され
ている。
【0027】この結果、統計解析部105は、分類され
た各クラスタを代表する特徴量の組(例えば各クラスタ
内の特徴量の平均値の組、或いは、その平均値の組から
一定距離内にある特徴量の組の集合)を、学習データと
して選択し、正規化部103へ出力する。このように選
択された特徴量の組は、画像データ101の各カテゴリ
の特徴を代表するような組となっており、このような特
徴量の組のみを用いてニューラルネットワーク部104
の学習を行わせることによって、各クラスタを構成する
全ての特徴量の組を用いなくても十分な学習効果を期待
することができる。これにより、学習データの数を大幅
に削減させることが可能となる。
【0028】このように学習データとして選択された特
徴量の組の集合は、正規化部103において、例えばそ
れぞれの特徴量の値が0〜1の範囲の値になるように正
規化される。
【0029】そして、上述のように選択され正規化され
た特徴量の組の集合を用いて、ニューラルネットワーク
部104に対する学習処理が実行される。図2は、ニュ
ーラルネットワーク部104内の各ニューロンに対応す
る、生理学で調べられているニューロンの数学的モデル
を示した図である。このモデルによれば入力信号y
i (t) と出力信号x(t) の関係は次式で表現できる。但
し、括弧内の「t」は、それぞれが時間の関数であるこ
とを示している。
【0030】
【数1】
【0031】ここに、wi は重み係数、また非線形関数
fとしては、通常、図3に示すような特性を有するsigm
oid 関数が用いられる。sigmoid 関数としては次式がよ
く用いられる。
【0032】
【数2】
【0033】xは、関数fの引数、eは自然対数の底を
示す。次に、上述のニューロンを構成要素として実現さ
れるニューラルネットワーク部104の構成例を図4に
示す。
【0034】図4に示されるニュラルネットワーク部1
04は、それぞれ多数のニューロン(各ニューロンは図
2に対応する)を持つ入力層、中間層及び出力層(図4
の各縦の列)から成る。そして、或る層の全てのニュー
ロンは、その左側の層内の全てのニューロンと、また、
その右側の層内の全てのニューロンと、重み付きの有向
リンクで結合している。有向リンクの向きは左側の層内
のニューロンを入力とし、右側の層内のニューロンを出
力としている。ニューロンjからニューロンiに到るリ
ンクの重みはwijで表現される。また、同じ層にあるニ
ューロンは、相互に結合しない。
【0035】入力層の各ニューロンは、前述した正規化
部103から出力される各特徴量と対応しており、各ニ
ューロンには、各特徴量の値に応じた刺激の強さが与え
られる。従って、入力層のニューロンの数は、1組の全
特徴量数に等しくなる。
【0036】そして、最右の出力層の各ニューロンの出
力値が、ニューラルネットワークの出力となる。即ち、
認識時には、出力層の1つのニューロンの出力がアクテ
ィブとなれば、そのニューロンに予め割り当てられてい
る認識対象が、認識結果となる。
【0037】このようなニューラルネットワーク部10
4の構成のもとで前述の数1式を拡張すると以下のよう
になる。即ち、第k番目の入力パターンに対する或る層
(これを第s層と呼ぶ)の第i番目のニューロンの出力
をxipとし、その1つ左の層(第s−1層)の第j番目
のニューロンの出力をyjpとし、その層のニューロンの
個数をNs-1とすると、
【0038】
【数3】
【0039】
【数4】
【0040】となる。従って、図1のニューラルネット
ワーク部104は、図4の入力層、中間層、出力層の各
層の重み係数wijを記憶するメモリと、その重み係数と
正規化部103から出力される1組分の特徴量の値を一
時記憶するバッファメモリと、それらのメモリの内容に
基づいて、各層毎に上述の数3式及び数4式を順次演算
する演算回路と、出力層のニューロンの出力のうち、値
が最大となるものの識別対象を認識結果として出力する
回路とによって実現できる。
【0041】以上のような構成を有するニューラルネッ
トワーク部104に対して、統計解析部105によって
選択され正規化部103によって正規化された特徴量の
組の集合を用いて、学習処理が実行される。ニューラル
ネットワークに対する学習処理の手法としては様々な手
法が知られており、例えば仮想インピーダンス法を採用
することができる。このような学習手法は周知であるた
め、その具体的な処理については省略するが、その基本
的な処理は以下の通りである。
【0042】即ち、1つの学習データである1組分の特
徴量が入力層の各ニューロンに与えられる毎に、まず、
現在までに定まっているニューロン間の各重み係数wij
の値を用い、入力層から出力層に向けて各ニューロンの
出力値が計算される。
【0043】次に、上述の1つの学習データに対する出
力層の各ニューロンの正解出力(教師出力)が、出力層
から入力層へ向かう逆方向に入力されることにより、現
在までに定まっているニューロン間の各重み係数wij
値が、正解出力を出力する方向に更新される。ここで、
正解出力とは、例えば認識対象1の入力画像データ10
1が与えられた場合は、その認識対象1の識別情報が割
り当てられた出力層のニューロンの出力が1となり、他
の出力層の各ニューロンの出力が0となるような出力で
ある。
【0044】このような各重み係数wijの値の更新処理
が、学習データである特徴量の組の集合に対して繰り返
し実行されることによって、ニューラルネットワーク部
104が最適に学習される。
【0045】次に、図5に示されるように、図1におい
て学習処理が完了したニューラルネットワーク部104
に対して、信号の伝送方向が出力層から入力層に向かう
ような逆向きのニューラルネットワーク部である逆向き
ニューラルネットワーク部104′が構成される。即
ち、例えば図4に示されるニューラルネットワーク部1
04に対して、ニューロン間の入出力関係が逆方向とな
るような逆向きニューラルネットワーク部104′が構
成される。
【0046】続いて、このように構成される逆向きニュ
ーラルネットワーク部104′の入力層(ニューラルネ
ットワーク部104の出力層に対応)を構成するニュー
ロンの1つに、正解値1.0 が入力され、学習済みのニュ
ーラルネットワーク部104から得られるニューロン間
の各重み係数wijの値を用いて、逆向きニューラルネッ
トワーク部104′の入力層から出力層(ニューラルネ
ットワーク部104の入力層に対応)に向かって、各ニ
ューロンの出力値が計算される。
【0047】そして、逆向きニューラルネットワーク部
104′の出力層を構成するニューロンのうち、その出
力値の絶対値が一定値以上(例えば±0.4 以上)となる
ニューロン、即ち、高い相関値を示すニューロンが選択
される。
【0048】以上の処理が、逆向きニューラルネットワ
ーク部104′の入力層を構成する全てのニューロンに
対して実行され、その結果、逆向きニューラルネットワ
ーク部104′の出力層を構成するニューロンのうち選
択回数が所定回数以下のニューロンが抽出される。そし
て、そのように抽出されたニューロンに対応する元のニ
ューラルネットワーク部104の入力層のニューロンに
割り当てられている特徴量が、認識において有意ではな
い特徴量として捨てられる。図5の例では、特徴量B
(画像変化推移)と特徴量C(色度)が捨てられる。
【0049】このように、本実施の形態では、認識現場
に最適な特徴量を自動的に選択することができることも
大きな特徴である。この結果、図6に示されるように、
有意な特徴量として捨てられなかった特徴量のみを用い
て、統計解析部105により各特徴量の組が複数のクラ
スタに再分類されて各クラスタを代表する有意な特徴量
の組が学習データとして選択され、それらが正規化部1
03で正規化される。そして、このようにして得られた
再学習データを用いて、ニューラルネットワーク部10
4が再学習させられる。この場合に、特徴量の削減に伴
って、ニューラルネットワーク部104の規模も縮小さ
れる。
【0050】以上のようにして、再学習が完了したニュ
ーラルネットワーク部104が、現場での認識処理に使
用される。即ち、入力画像データ101について、図6
に示される特徴量演算部102が有意な特徴量のみを演
算し、その結果得られる有意な特徴量の組が正規化部1
03において正規化され、その結果得られる正規化され
た有意な特徴量の組がニューラルネットワーク部104
の入力層のニューロンに入力される。そして、ニューラ
ルネットワーク部104において演算処理が実行され、
出力層のニューロンから認識結果が出力される。
【0051】以上説明したように、本発明の第1の実施
の形態では、少ない数の最適な学習データを統計解析部
105の処理により自動的に選択することができると共
に、認識現場に最適な特徴量を逆向きニューラルネット
ワーク部104′の処理により自動的に選択することが
できる。この結果、ニューラルネットワークの採用と最
適な特徴量の選択によって、応用ソフトウエアの開発コ
ストの削減と、システム規模の縮小化による製品コスト
の削減を図ることができ、また、少ない数の最適な学習
データの選択と最適な特徴量の選択によって、学習処理
時間を削減し、プラント等における現地作業での機器調
整時間の短時間化を図ることがき、現地調整コストの削
減が実現される。 <本発明の第2の実施の形態の説明>図7及び図8は、
本発明の第2の実施の形態の構成図である。図7及び図
8において、図1と同じ番号が付された部分は図1の場
合と同じ機能を有する。
【0052】図7において、特徴量演算部102は、モ
デル用の画像データ101のそれぞれに対して、特徴量
を演算する。特徴量の組としては、本発明の第1の実施
の形態の場合と同様に、例えば、画素値のヒストグラム
(特徴量A)、画像変化推移(特徴量B)、色度(特徴
量C)、及び円形度(特徴量D)等からなる組が演算さ
れる。
【0053】次に、学習データ選択部701は、図1の
統計解析部105と同様の処理を実行する。即ち、この
学習データ選択部701は、上記各画像データ101に
対応する特徴量の各組に対して、統計解析の1つの手法
であるクラスタ分析を実行することによって、上記各特
徴量の組を、画像データ101の各カテゴリに対応する
複数のクラスタに分類する。
【0054】この結果、学習データ選択部701は、分
類された各クラスタを代表する特徴量の組を、学習デー
タとして選択し、正規化部103へ出力する。このとき
同時に、学習データ選択部701は、選択した特徴量の
組に対応する画像データ101(例えば、選択した特徴
量の組に最も近い距離を示す入力特徴量の組に対応する
画像データ101)を、上記選択した特徴量の組と合わ
せて、学習データとして正規化部103へ出力する。こ
の画像データ101は、例えば、64画素×64画素の
画素データである。このように、画像データ101の各
カテゴリの特徴を代表する特徴量の組と合わせて、それ
に対応する画像データ101そのものも加えてニューラ
ルネットワーク部104の学習を行わせることによっ
て、プラント等の現場の環境の変化に依存する画像の変
化も合わせてニューラルネットワーク部104に学習さ
せることができ、認識性能の向上を期待できる。
【0055】このように学習データとして選択された特
徴量の組の集合とそれぞれに対応する画像データ101
の集合は、正規化部103において、例えばそれぞれの
特徴量の値及び画素値が0〜1の範囲の値になるように
正規化される。
【0056】そして、上述のように選択され正規化され
た特徴量の組の集合及び画像データ101の集合を用い
て、本発明の第1の実施の形態の場合と同様にして、ニ
ューラルネットワーク部104に対する学習処理が実行
される。
【0057】次に、本発明の第1の実施の形態における
図5の場合と同様にして、図7において学習処理が完了
したニューラルネットワーク部104に対して、信号の
伝送方向が出力層から入力層に向かうような逆向きのニ
ューラルネットワーク部である逆向きニューラルネット
ワーク部104′が構成される。
【0058】続いて、本発明の第1の実施の形態の場合
と同様にして、逆向きニューラルネットワーク部10
4′の入力層(ニューラルネットワーク部104の出力
層に対応)を構成するニューロンの1つに、正解値1.0
が入力され、学習済みのニューラルネットワーク部10
4から得られるニューロン間の各重み係数wijの値を用
いて、逆向きニューラルネットワーク部104′の入力
層から出力層(ニューラルネットワーク部104の入力
層に対応)に向かって、各ニューロンの出力値が計算さ
れる。
【0059】そして、本発明の第1の実施の形態の場合
と同様にして、逆向きニューラルネットワーク部10
4′の出力層を構成するニューロンのうち、その出力値
の絶対値が一定値以上(例えば±0.4 以上)となるニュ
ーロン、即ち、高い相関値を示すニューロンが選択され
る。
【0060】以上の処理が、逆向きニューラルネットワ
ーク部104′の入力層を構成する全てのニューロンに
対して実行され、その結果、逆向きニューラルネットワ
ーク部104′の出力層を構成するニューロンのうち一
度も選択されなかったニューロンが抽出される。そし
て、そのように抽出されたニューロンに対応する元のニ
ューラルネットワーク部104の入力層のニューロンに
割り当てられている特徴量が、認識において有意ではな
い特徴量として捨てられる。図7→図8の例でにおい
て、特徴量B(画像変化推移)と特徴量C(色度)が捨
てられる。なお、本発明の第1の実施の形態では、逆向
きニューラルネットワーク部104′の出力層を構成す
るニューロンのうち選択回数が所定回数以下のニューロ
ンが有意でないニューロンとして抽出されたが、本発明
の第2の実施の形態では、上述のように、逆向きニュー
ラルネットワーク部104′の出力層を構成するニュー
ロンのうち一度も選択されなかったニューロンが有意で
ないニューロンとして抽出される。これは、一度でも高
い相関値を示すニューロンは、プラント等の現場の環境
の変化に依存する画像の変化を示す特徴量に対応するも
のであると考えられるからである。
【0061】この結果、有意な特徴量として捨てられな
かった特徴量のみを用いて、学習データ選択部701に
より各特徴量の組が複数のクラスタに再分類されて各ク
ラスタを代表する有意な特徴量の組とそれに対応する画
像データ101が学習データとして選択され、それらが
正規化部103で正規化される。そして、このようにし
て得られた再学習データを用いて、ニューラルネットワ
ーク部104が再学習させられる。
【0062】以上のようにして、再学習が完了したニュ
ーラルネットワーク部104が、現場での認識処理に使
用される。即ち、入力画像データ101について、図8
に示される特徴量演算部102が有意な特徴量のみを演
算し、その結果得られる有意な特徴量の組と入力画像デ
ータ101が正規化部103において正規化され、その
結果得られる正規化された有意な特徴量の組と入力画像
データ101を構成する各正規化された画素値がニュー
ラルネットワーク部104の入力層のニューロンに入力
される。そして、ニューラルネットワーク部104にお
いて演算処理が実行され、出力層のニューロンから認識
結果が出力される。
【0063】以上説明したように、本発明の第2の実施
の形態では、本発明の第1の実施の形態の効果に加え
て、プラント等の現場の環境の変化に依存する画像の変
化に応じて、柔軟にニューラルネットワーク部104を
学習させることができる。
【0064】
【発明の効果】本発明の第1の態様によれば、学習デー
タとして選択されたパターン情報の組の集合は、各カテ
ゴリの特徴を代表するような組となっており、このよう
な特徴量の組のみを用いてニューラルネットワークの学
習を行わせることによって、各カテゴリを構成する全て
のパターン情報の組を用いなくても十分な学習効果を期
待することができる。これにより、学習データの数を大
幅に削減させることが可能となる。
【0065】本発明の第2の態様によれば、パターン情
報の組を構成するパターン情報のうち認識に有意なパタ
ーン情報のみが選択されそれらを用いて再学習が行われ
ることにより、システム規模の縮小と学習時間の短縮を
実現することができる。
【0066】このように本発明によれば、少ない数の最
適な学習データを自動的に選択することができると共
に、認識現場に最適なパターン情報を逆向きニューラル
ネットワークの処理により自動的に選択することができ
る。この結果、ニューラルネットワークの採用と最適な
パターン情報の選択によって、応用ソフトウエアの開発
コストの削減と、システム規模の縮小化による製品コス
トの削減を図ることができ、また、少ない数の最適な学
習データの選択と最適なパターン情報の選択によって、
学習処理時間を削減し、プラント等における現地作業で
の機器調整時間の短時間化を図ることがき、現地調整コ
ストの削減が実現される。
【0067】更に、本発明では、パターン情報として、
パターンデータの特徴を示す特徴量情報と、パターンデ
ータの原データ情報とを合わせたものとすることによ
り、プラント等の現場の環境の変化に依存する画像の変
化も合わせてニューラルネットワークに学習させること
ができ、認識性能の向上を期待することができる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態の構成図(その1)
である。
【図2】ニューロンの数学的モデルを示した図である。
【図3】sigmoid 関数を示した図である。
【図4】ニューラルネットワークの構成図である。
【図5】本発明の第1の実施の形態の構成図(その2)
である。
【図6】本発明の第1の実施の形態の構成図(その3)
である。
【図7】本発明の第2の実施の形態の構成図(その1)
である。
【図8】本発明の第2の実施の形態の構成図(その2)
である。
【符号の説明】
101 画像データ 102 特徴量演算部 103 正規化部 104 ニューラルネットワーク部 105 統計解析部 104′ 逆向きニューラルネットワーク部 701 学習データ選択部

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】 入力用のニューロンに認識対象のパター
    ンデータから得られるパターン情報の組を入力し、認識
    されるべきカテゴリーの識別情報が割り当てられた出力
    用のニューロンの出力に基づいて前記パターンデータの
    パターン認識結果を出力するニューラルネットワークに
    対して、その学習を行わせるための学習支援装置であっ
    て、 前記パターン情報の組の集合を、統計演算処理により複
    数のカテゴリに分類し、該分類されたパターン情報の組
    の集合のうち前記各カテゴリを代表するパターン情報の
    組の集合を、前記ニューラルネットワークに対して学習
    を行わせるための学習データとして選択する学習データ
    選択手段を有する、 ことを特徴とする学習支援装置。
  2. 【請求項2】 入力用のニューロンに認識対象のパター
    ンデータから得られるパターン情報の組を入力し、認識
    されるべきカテゴリーの識別情報が割り当てられた出力
    用のニューロンの出力に基づいて前記パターンデータの
    パターン認識結果を出力するニューラルネットワークに
    対して、その学習を行わせるための学習支援装置であっ
    て、 学習を行った前記ニューラルネットワークに対し、信号
    の伝送方向が出力側から入力側に向かう逆向きに構成さ
    れる逆向きニューラルネットワーク手段と、 該逆向きニューラルネットワークの入力側に正解値を入
    力し、その結果該逆向きニューラルネットワークの出力
    側に得られる相関値に基づいて、前記パターン情報の組
    を構成するパターン情報のうち認識に有意なパターン情
    報を選択し、該選択されたパターン情報の組の集合に基
    づいて前記ニューラルネットワークに対して再学習を行
    わせるパターン情報選択手段と、 を有することを特徴とする学習支援装置。
  3. 【請求項3】 入力用のニューロンに認識対象のパター
    ンデータから得られるパターン情報の組を入力し、認識
    されるべきカテゴリーの識別情報が割り当てられた出力
    用のニューロンの出力に基づいて前記パターンデータの
    パターン認識結果を出力するニューラルネットワークに
    対して、その学習を行わせるための学習支援装置であっ
    て、 前記パターン情報の組の集合を、統計演算処理により複
    数のカテゴリに分類し、該分類されたパターン情報の組
    の集合のうち前記各カテゴリを代表するパターン情報の
    組の集合を、前記ニューラルネットワークに対して学習
    を行わせるための学習データとして選択する学習データ
    選択手段と、 該学習データ選択手段によって選択された学習データを
    用いて学習を行った前記ニューラルネットワークに対
    し、信号の伝送方向が出力側から入力側に向かう逆向き
    に構成される逆向きニューラルネットワーク手段と、 該逆向きニューラルネットワークの入力側に正解値を入
    力し、その結果該逆向きニューラルネットワークの出力
    側に得られる相関値に基づいて、前記パターン情報の組
    を構成するパターン情報のうち認識に有意なパターン情
    報を選択し、該選択されたパターン情報の組の集合に基
    づいて前記ニューラルネットワークに対して再学習を行
    わせるパターン情報選択手段と、 を有することを特徴とする学習支援装置。
  4. 【請求項4】 前記パターン情報は、前記パターンデー
    タの特徴を示す特徴量情報と、前記パターンデータの原
    データ情報とを合わせたものである、 ことを特徴とする請求項1乃至3の何れか1項に記載の
    学習支援装置。
  5. 【請求項5】 請求項1乃至4の何れか1項に記載の学
    習支援装置によって学習されたニューラルネットワーク
    を有することを特徴とするパターン認識装置。
JP8147453A 1996-06-10 1996-06-10 学習支援装置およびパターン認識装置 Withdrawn JPH09330406A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8147453A JPH09330406A (ja) 1996-06-10 1996-06-10 学習支援装置およびパターン認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8147453A JPH09330406A (ja) 1996-06-10 1996-06-10 学習支援装置およびパターン認識装置

Publications (1)

Publication Number Publication Date
JPH09330406A true JPH09330406A (ja) 1997-12-22

Family

ID=15430706

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8147453A Withdrawn JPH09330406A (ja) 1996-06-10 1996-06-10 学習支援装置およびパターン認識装置

Country Status (1)

Country Link
JP (1) JPH09330406A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001202522A (ja) * 1999-12-14 2001-07-27 Eastman Kodak Co 消費者画像の強調及び魅力の自動評価方法
JP2005215988A (ja) * 2004-01-29 2005-08-11 Canon Inc パターン認識用学習方法、パターン認識用学習装置、画像入力装置、コンピュータプログラム、及びコンピュータ読み取り可能な記録媒体
US9710877B2 (en) 2012-12-28 2017-07-18 Fujitsu Limited Image processing apparatus and feature detection method
KR20170134508A (ko) * 2015-03-20 2017-12-06 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 인공 신경망들에 대한 관련성 스코어 할당

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001202522A (ja) * 1999-12-14 2001-07-27 Eastman Kodak Co 消費者画像の強調及び魅力の自動評価方法
JP2005215988A (ja) * 2004-01-29 2005-08-11 Canon Inc パターン認識用学習方法、パターン認識用学習装置、画像入力装置、コンピュータプログラム、及びコンピュータ読み取り可能な記録媒体
JP4532915B2 (ja) * 2004-01-29 2010-08-25 キヤノン株式会社 パターン認識用学習方法、パターン認識用学習装置、画像入力装置、コンピュータプログラム、及びコンピュータ読み取り可能な記録媒体
US9710877B2 (en) 2012-12-28 2017-07-18 Fujitsu Limited Image processing apparatus and feature detection method
KR20170134508A (ko) * 2015-03-20 2017-12-06 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 인공 신경망들에 대한 관련성 스코어 할당
JP2018513507A (ja) * 2015-03-20 2018-05-24 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ 人工ニューラルネットワークの関連性スコア割当て

Similar Documents

Publication Publication Date Title
CN111310862B (zh) 复杂环境下基于图像增强的深度神经网络车牌定位方法
CN109584248B (zh) 基于特征融合和稠密连接网络的红外面目标实例分割方法
CN111291809B (zh) 一种处理装置、方法及存储介质
US5048100A (en) Self organizing neural network method and system for general classification of patterns
CN109101897A (zh) 水下机器人的目标检测方法、系统及相关设备
CN108510194A (zh) 风控模型训练方法、风险识别方法、装置、设备及介质
CN111985370A (zh) 一种基于改进混合注意力模块的农作物病虫害的细粒度识别方法
CN109685765B (zh) 一种基于卷积神经网络的x光片肺炎结果预测装置
JP2015095215A (ja) 学習装置、学習プログラム、及び学習方法
CN113011567B (zh) 一种卷积神经网络模型的训练方法及装置
CN112884712B (zh) 一种显示面板缺陷分类的方法及相关装置
CN113205507B (zh) 一种视觉问答方法、系统及服务器
JPH06348853A (ja) 信号の分類方法
CN111612051A (zh) 一种基于图卷积神经网络的弱监督目标检测方法
CN114581456B (zh) 一种多图像分割模型的构建方法、图像检测方法及装置
CN113449811B (zh) 一种基于ms-wsda的低照度目标检测方法
CN112364747A (zh) 一种有限样本下的目标检测方法
CN116168240A (zh) 基于注意力增强的任意方向密集舰船目标检测方法
CN115240259A (zh) 一种基于yolo深度网络的课堂环境下人脸检测方法及其检测系统
JPH09330406A (ja) 学習支援装置およびパターン認識装置
CN110334703B (zh) 一种昼夜图像中的船舶检测和识别方法
CN117253192A (zh) 用于桑蚕养殖的智能系统及方法
CN115272814B (zh) 一种远距离空间自适应多尺度的小目标检测方法
CN115147639A (zh) 一种基于域自适应机制的复杂背景下目标检测方法
Bidwai et al. Bird Classification using Deep Learning

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20030902