JPH0535707A - ニユ−ラルネツトを利用したパタ−ン分類方法および装置 - Google Patents
ニユ−ラルネツトを利用したパタ−ン分類方法および装置Info
- Publication number
- JPH0535707A JPH0535707A JP3186089A JP18608991A JPH0535707A JP H0535707 A JPH0535707 A JP H0535707A JP 3186089 A JP3186089 A JP 3186089A JP 18608991 A JP18608991 A JP 18608991A JP H0535707 A JPH0535707 A JP H0535707A
- Authority
- JP
- Japan
- Prior art keywords
- pattern
- neural net
- input pattern
- learning data
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/40—Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
- G06F18/41—Interactive pattern learning with a human teacher
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S706/00—Data processing: artificial intelligence
- Y10S706/902—Application using ai with detail of the ai system
- Y10S706/925—Business
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】
【目的】 パタ−ン分類のためのニュ−ラルネットにお
ける出力パタ−ンの信頼度を判断することができ、正解
率の低下を検出できるようなニュ−ラルネットを利用し
たパタ−ン分類装置とその処理方法を実現する。 【構成】 ニュ−ラルネットに与えられた入力パタ−ン
と学習用デ−タとを比較し、さらにパタ−ン分類の実行
履歴を蓄積しながらこの実行履歴を監視して、正解率が
低下したとき、利用者に対してその旨を通知し、ニュ−
ラルネットの再学習を行わせる。
ける出力パタ−ンの信頼度を判断することができ、正解
率の低下を検出できるようなニュ−ラルネットを利用し
たパタ−ン分類装置とその処理方法を実現する。 【構成】 ニュ−ラルネットに与えられた入力パタ−ン
と学習用デ−タとを比較し、さらにパタ−ン分類の実行
履歴を蓄積しながらこの実行履歴を監視して、正解率が
低下したとき、利用者に対してその旨を通知し、ニュ−
ラルネットの再学習を行わせる。
Description
【0001】
【産業上の利用分野】本発明は、ニュ−ラルネットを用
いたパタ−ン分類方法および装置に関し、特に分類対象
となる入力パタ−ンが学習用デ−タの入力パタ−ンの分
布から外れる可能性がある場合や、ニュ−ラルネットの
学習を行った後に問題の構造が変化して、分類対象の入
力パタ−ンとそれに対する正解出力パタ−ンの組が学習
用デ−タの内容と矛盾する可能性がある場合に、それら
を修正して適切な分類を行うことが可能なニュ−ラルネ
ットを利用したパタ−ン分類方法および装置に関する。
いたパタ−ン分類方法および装置に関し、特に分類対象
となる入力パタ−ンが学習用デ−タの入力パタ−ンの分
布から外れる可能性がある場合や、ニュ−ラルネットの
学習を行った後に問題の構造が変化して、分類対象の入
力パタ−ンとそれに対する正解出力パタ−ンの組が学習
用デ−タの内容と矛盾する可能性がある場合に、それら
を修正して適切な分類を行うことが可能なニュ−ラルネ
ットを利用したパタ−ン分類方法および装置に関する。
【0002】
【従来の技術】従来、入力パタ−ンを予め決められたカ
テゴリ−に分類するパタ−ン分類処理に、ニュ−ラルネ
ットを用いて行う方法は、『ニュ−ラルネットワ−ク情
報処理』麻生英樹著(産業図書)1988に記載されてい
る。ここでは、階層的なネットワ−クの情報処理は、パ
タ−ンの識別またはパタ−ンの変換であり、また、ネッ
トワ−クの学習は、変換の例を提示されることにより、
ネットワ−クが望ましい変換を真似することであると述
べている。図4は、従来におけるニュ−ラルネットの原
理を示す模式図である。ニュ−ラルネット11は、神経
細胞を真似したノ−ド41を階層形に配列し、隣り合う
層のノ−ド41間をア−ク42で結合したネットワ−ク
状の計算モデルである。ア−ク42には結合の重み付け
が行われているので、ノ−ド41間を伝達する信号の強
弱を調節することができる構造となっている。また、ノ
−ド41には閾値が付与されており、前の層の各ノ−ド
41から伝達される入力の総和がこの閾値より大きくな
ると、次の層のノ−ド41に信号が伝達される。入力パ
タ−ン18は、第1層の各ノ−ド41の状態値として付
与される。これに従って、第2層、第3層に順次ノ−ド
41の状態値が求められ、ネットワ−クの出力パタ−ン
19は最終層のノ−ドの状態値として得られる。
テゴリ−に分類するパタ−ン分類処理に、ニュ−ラルネ
ットを用いて行う方法は、『ニュ−ラルネットワ−ク情
報処理』麻生英樹著(産業図書)1988に記載されてい
る。ここでは、階層的なネットワ−クの情報処理は、パ
タ−ンの識別またはパタ−ンの変換であり、また、ネッ
トワ−クの学習は、変換の例を提示されることにより、
ネットワ−クが望ましい変換を真似することであると述
べている。図4は、従来におけるニュ−ラルネットの原
理を示す模式図である。ニュ−ラルネット11は、神経
細胞を真似したノ−ド41を階層形に配列し、隣り合う
層のノ−ド41間をア−ク42で結合したネットワ−ク
状の計算モデルである。ア−ク42には結合の重み付け
が行われているので、ノ−ド41間を伝達する信号の強
弱を調節することができる構造となっている。また、ノ
−ド41には閾値が付与されており、前の層の各ノ−ド
41から伝達される入力の総和がこの閾値より大きくな
ると、次の層のノ−ド41に信号が伝達される。入力パ
タ−ン18は、第1層の各ノ−ド41の状態値として付
与される。これに従って、第2層、第3層に順次ノ−ド
41の状態値が求められ、ネットワ−クの出力パタ−ン
19は最終層のノ−ドの状態値として得られる。
【0003】図4において、入力パタ−ン18がm個の
要素Xi(i=1,2,・・m)からなる場合には、入
力パタ−ン18は以下に示すようなベクトルXとして表
わされる。 X=(X1,X2,・・・・Xm) ・・・・・・・・・・・・・・(1) いま、入力パタ−ン18をn個のカテゴリ−のいずれか
に分類しようとする場合、分類結果である出力パタ−ン
19は、n個の要素Yi(i=1,2,・・・n)から
なる以下に示すようなベクトルYとして表わされる。 Y=(Y1,Y2,・・・・Yn) ・・・・・・・・・・・・・(2) なお、入力パタ−ン18がi番目のカテゴリ−に属する
ときには、Yi=1となり、i番目に属さないときに
は、Yi=0となる。ニュ−ラルネット11の学習を行
う場合、先ず、ニュ−ラルネット11に入力パタ−ンで
あるベクトルXを入力して、出力パタ−ンであるベクト
ルYを計算させる。そして、これら入力パタ−ンXに対
する望ましい出力パタ−ンとしての教師パタ−ンTを教
示する。ここで、TはYと同じようにn個の要素T1〜
Tnからなるベクトルである。Tを教示されることによ
り、ニュ−ラルネット11は、現状の出力パタ−ンYと
望ましい出力パタ−ンTとの差を減少させる方向に各ア
−クの重みを修正する。このようにして、変換の例示と
重み修正の過程を入力パタ−ンXと教師パタ−ンTの組
の全てに対して、繰り返し行うことにより、ニュ−ラル
ネット11は入力パタ−ンXから出力パタ−ンYへの望
ましい変換を真似るようになる。
要素Xi(i=1,2,・・m)からなる場合には、入
力パタ−ン18は以下に示すようなベクトルXとして表
わされる。 X=(X1,X2,・・・・Xm) ・・・・・・・・・・・・・・(1) いま、入力パタ−ン18をn個のカテゴリ−のいずれか
に分類しようとする場合、分類結果である出力パタ−ン
19は、n個の要素Yi(i=1,2,・・・n)から
なる以下に示すようなベクトルYとして表わされる。 Y=(Y1,Y2,・・・・Yn) ・・・・・・・・・・・・・(2) なお、入力パタ−ン18がi番目のカテゴリ−に属する
ときには、Yi=1となり、i番目に属さないときに
は、Yi=0となる。ニュ−ラルネット11の学習を行
う場合、先ず、ニュ−ラルネット11に入力パタ−ンで
あるベクトルXを入力して、出力パタ−ンであるベクト
ルYを計算させる。そして、これら入力パタ−ンXに対
する望ましい出力パタ−ンとしての教師パタ−ンTを教
示する。ここで、TはYと同じようにn個の要素T1〜
Tnからなるベクトルである。Tを教示されることによ
り、ニュ−ラルネット11は、現状の出力パタ−ンYと
望ましい出力パタ−ンTとの差を減少させる方向に各ア
−クの重みを修正する。このようにして、変換の例示と
重み修正の過程を入力パタ−ンXと教師パタ−ンTの組
の全てに対して、繰り返し行うことにより、ニュ−ラル
ネット11は入力パタ−ンXから出力パタ−ンYへの望
ましい変換を真似るようになる。
【0004】
【発明が解決しようとする課題】ところで、前述した従
来の技術では、ニュ−ラルネットが入力パタ−ンの全範
囲にわたる学習用デ−タを用いて学習を行った場合を前
提としているが、もし全範囲にわたる学習用デ−タを用
いて学習を行ったという保証がない場合には、ニュ−ラ
ルネットによる分類結果はどのようになるか不明であ
り、これについては、前述の文献には何も述べられてい
ない。すなわち、例えば、時系列に得られるデ−タから
なる入力パタ−ンが分類の対象である場合、学習用デ−
タとして利用できるものは現在までに得られている過去
のデ−タだけである。そして、これ以降の将来に得られ
るデ−タから作られる入力パタ−ンが、過去の入力パタ
−ンのいずれにも似ていない場合が起り得る。過去には
現われなかった入力パタ−ンが入力された場合にも、ニ
ュ−ラルネットは何らかの出力パタ−ンを分類結果とし
て出力するが、従来の文献では、このような場合の出力
パタ−ンの解釈方法については全く触れていなかった。
本発明の目的は、このような従来の課題を解決し、入力
パタ−ンが学習用デ−タの入力パタ−ンの分布から外れ
ているときでもそれを判断して、正解率の低下を検出で
き、出力パタ−ンの信頼度を判断できるニュ−ラルネッ
トを利用したパタ−ン分類方法および装置を提供するこ
とにある。
来の技術では、ニュ−ラルネットが入力パタ−ンの全範
囲にわたる学習用デ−タを用いて学習を行った場合を前
提としているが、もし全範囲にわたる学習用デ−タを用
いて学習を行ったという保証がない場合には、ニュ−ラ
ルネットによる分類結果はどのようになるか不明であ
り、これについては、前述の文献には何も述べられてい
ない。すなわち、例えば、時系列に得られるデ−タから
なる入力パタ−ンが分類の対象である場合、学習用デ−
タとして利用できるものは現在までに得られている過去
のデ−タだけである。そして、これ以降の将来に得られ
るデ−タから作られる入力パタ−ンが、過去の入力パタ
−ンのいずれにも似ていない場合が起り得る。過去には
現われなかった入力パタ−ンが入力された場合にも、ニ
ュ−ラルネットは何らかの出力パタ−ンを分類結果とし
て出力するが、従来の文献では、このような場合の出力
パタ−ンの解釈方法については全く触れていなかった。
本発明の目的は、このような従来の課題を解決し、入力
パタ−ンが学習用デ−タの入力パタ−ンの分布から外れ
ているときでもそれを判断して、正解率の低下を検出で
き、出力パタ−ンの信頼度を判断できるニュ−ラルネッ
トを利用したパタ−ン分類方法および装置を提供するこ
とにある。
【0005】
【課題を解決するための手段】上記目的を達成するた
め、本発明によるニュ−ラルネットを利用したパタ−ン
分類方法は、(イ)与えられた入力パタ−ンに対するニ
ュ−ラルネットの出力パタ−ンと、入力パタ−ンについ
て後から出力される正解出力パタ−ンとを比較し、比較
結果を実行履歴として順次蓄積しておき、常時、蓄積さ
れた結果を監視して、結果の異常を検出することに特徴
がある。また、本発明によるニュ−ラルネットを利用し
たパタ−ン分類装置は、(ロ)与えられた入力パタ−ン
と上記ニュ−ラルネットの学習に用いる学習用デ−タの
入力パタ−ンとを比較する入力パタ−ン監視モジュ−
ル、学習用デ−タを格納する学習用デ−タファイル、与
えられた入力パタ−ンに対するニュ−ラルネットの出力
パタ−ンと入力パタ−ンについての正解出力パタ−ンと
を比較して、比較結果を履歴として蓄積し、比較結果か
ら異常を判断する実行履歴監視モジュ−ル、比較結果の
履歴を格納する実行履歴ファイル、および実行履歴ファ
イルの内容と学習用デ−タファイルの内容を読み出し、
新たに学習用デ−タを作成してファイル内容を更新する
学習用デ−タ更新処理モジュ−ルを具備することに特徴
がある。また、(ハ)入力パタ−ン監視モジュ−ルは、
分類対象として与えられた入力パタ−ンが全学習用デ−
タの入力パタ−ンの分布上のどこに位置するかを計算す
るとともに、分類対象として与えられた上記入力パタ−
ンに類似する入力パタ−ンを持つ学習用デ−タを検索す
ることにも特徴がある。また、(ニ)実行履歴監視モジ
ュ−ルは、分類対象として与えられた入力パタ−ンと、
入力パタ−ンについてのニュ−ラルネットの出力パタ−
ンと、入力パタ−ンについての正解出力パタ−ンとを、
実行履歴として実行履歴ファイルに蓄積することにも特
徴がある。また、(ホ)実行履歴監視モジュ−ルは、分
類対象である入力パタ−ンについてのニュ−ラルネット
の出力パタ−ンと、入力パタ−ンについての正解出力パ
タ−ンとの間の誤差を全実行履歴について平均した平均
誤差を算出して、算出結果を実行履歴ファイルに保持
し、平均誤差が予め定められた閾値を越えたときには、
ニュ−ラルネットの再学習を行う必要があることを利用
者に通知することにも特徴がある。さらに、(ヘ)ニュ
−ラルネットの再学習では、前回の学習に用いた学習用
デ−タに、前回の学習以後に得られた実行履歴を加えた
ものを新たに学習用デ−タとして用い、前回の学習用デ
−タのうち実行履歴中のデ−タと矛盾するものを再学習
の対象から除去することにも特徴がある。
め、本発明によるニュ−ラルネットを利用したパタ−ン
分類方法は、(イ)与えられた入力パタ−ンに対するニ
ュ−ラルネットの出力パタ−ンと、入力パタ−ンについ
て後から出力される正解出力パタ−ンとを比較し、比較
結果を実行履歴として順次蓄積しておき、常時、蓄積さ
れた結果を監視して、結果の異常を検出することに特徴
がある。また、本発明によるニュ−ラルネットを利用し
たパタ−ン分類装置は、(ロ)与えられた入力パタ−ン
と上記ニュ−ラルネットの学習に用いる学習用デ−タの
入力パタ−ンとを比較する入力パタ−ン監視モジュ−
ル、学習用デ−タを格納する学習用デ−タファイル、与
えられた入力パタ−ンに対するニュ−ラルネットの出力
パタ−ンと入力パタ−ンについての正解出力パタ−ンと
を比較して、比較結果を履歴として蓄積し、比較結果か
ら異常を判断する実行履歴監視モジュ−ル、比較結果の
履歴を格納する実行履歴ファイル、および実行履歴ファ
イルの内容と学習用デ−タファイルの内容を読み出し、
新たに学習用デ−タを作成してファイル内容を更新する
学習用デ−タ更新処理モジュ−ルを具備することに特徴
がある。また、(ハ)入力パタ−ン監視モジュ−ルは、
分類対象として与えられた入力パタ−ンが全学習用デ−
タの入力パタ−ンの分布上のどこに位置するかを計算す
るとともに、分類対象として与えられた上記入力パタ−
ンに類似する入力パタ−ンを持つ学習用デ−タを検索す
ることにも特徴がある。また、(ニ)実行履歴監視モジ
ュ−ルは、分類対象として与えられた入力パタ−ンと、
入力パタ−ンについてのニュ−ラルネットの出力パタ−
ンと、入力パタ−ンについての正解出力パタ−ンとを、
実行履歴として実行履歴ファイルに蓄積することにも特
徴がある。また、(ホ)実行履歴監視モジュ−ルは、分
類対象である入力パタ−ンについてのニュ−ラルネット
の出力パタ−ンと、入力パタ−ンについての正解出力パ
タ−ンとの間の誤差を全実行履歴について平均した平均
誤差を算出して、算出結果を実行履歴ファイルに保持
し、平均誤差が予め定められた閾値を越えたときには、
ニュ−ラルネットの再学習を行う必要があることを利用
者に通知することにも特徴がある。さらに、(ヘ)ニュ
−ラルネットの再学習では、前回の学習に用いた学習用
デ−タに、前回の学習以後に得られた実行履歴を加えた
ものを新たに学習用デ−タとして用い、前回の学習用デ
−タのうち実行履歴中のデ−タと矛盾するものを再学習
の対象から除去することにも特徴がある。
【0006】
【作用】本発明においては、入力パタ−ン監視モジュ−
ルにより、入力パタ−ンとニュ−ラルネットの学習に用
いる各学習用デ−タの入力パタ−ンとを比較するととも
に、入力パタ−ンと学習用デ−タの入力パタ−ン全体の
分布とを比較する。すなわち、与えられた入力パタ−ン
の学習用デ−タの入力パタ−ン全体の分布における位置
を計算し、かつ与えられた入力パタ−ンに類似した入力
パタ−ンを持つ学習用デ−タを検索する。これにより、
与えられた入力パタ−ンがどの学習用デ−タの入力パタ
−ンとも類似していない場合には、この事実を検出する
ことができるので、利用者は与えられた入力パタ−ンに
対しての分類結果の信頼度が低いことを知ることができ
る。さらに、実行履歴監視モジュ−ルにより、出力パタ
−ンと後に得られる入力パタ−ンに対する正解出力パタ
−ンとを比較し、その結果を実行履歴として蓄積して、
蓄積された実行履歴を監視し、正解率が低下した場合に
ニュ−ラルネットの再学習の必要性を通知する。すなわ
ち、与えられた入力パタ−ンについての正解出力パタ−
ンが得られた時点で、与えられた入力パタ−ンに対する
ニュ−ラルネットの出力パタ−ンと正解出力パタ−ンと
を比較し、その結果を実行履歴として蓄積する。次に、
蓄積された実行履歴からニュ−ラルネットの出力パタ−
ンと正解出力パタ−ンとの間の平均誤差(分類の誤りの
頻度)が増加したときには、これを検出して、利用者に
この事実を通知する。これにより、利用者は、現状のニ
ュ−ラルネットのままでは問題があるので、これまでに
蓄積していた実行履歴デ−タを新たに学習用デ−タに追
加して、ニュ−ラルネットの学習を再度実行する必要が
あることを知る。
ルにより、入力パタ−ンとニュ−ラルネットの学習に用
いる各学習用デ−タの入力パタ−ンとを比較するととも
に、入力パタ−ンと学習用デ−タの入力パタ−ン全体の
分布とを比較する。すなわち、与えられた入力パタ−ン
の学習用デ−タの入力パタ−ン全体の分布における位置
を計算し、かつ与えられた入力パタ−ンに類似した入力
パタ−ンを持つ学習用デ−タを検索する。これにより、
与えられた入力パタ−ンがどの学習用デ−タの入力パタ
−ンとも類似していない場合には、この事実を検出する
ことができるので、利用者は与えられた入力パタ−ンに
対しての分類結果の信頼度が低いことを知ることができ
る。さらに、実行履歴監視モジュ−ルにより、出力パタ
−ンと後に得られる入力パタ−ンに対する正解出力パタ
−ンとを比較し、その結果を実行履歴として蓄積して、
蓄積された実行履歴を監視し、正解率が低下した場合に
ニュ−ラルネットの再学習の必要性を通知する。すなわ
ち、与えられた入力パタ−ンについての正解出力パタ−
ンが得られた時点で、与えられた入力パタ−ンに対する
ニュ−ラルネットの出力パタ−ンと正解出力パタ−ンと
を比較し、その結果を実行履歴として蓄積する。次に、
蓄積された実行履歴からニュ−ラルネットの出力パタ−
ンと正解出力パタ−ンとの間の平均誤差(分類の誤りの
頻度)が増加したときには、これを検出して、利用者に
この事実を通知する。これにより、利用者は、現状のニ
ュ−ラルネットのままでは問題があるので、これまでに
蓄積していた実行履歴デ−タを新たに学習用デ−タに追
加して、ニュ−ラルネットの学習を再度実行する必要が
あることを知る。
【0007】
【実施例】以下、本発明の実施例を、図面により詳細に
説明する。図2は、本発明の一実施例を示すパタ−ン分
類装置のハ−ドウェア構成図である。本発明のパタ−ン
分類装置は、ニュ−ラルネットを利用してパタ−ンを分
類するコンピュ−タ21と、ニュ−ラルネツトの学習の
ための学習用デ−タおよびパタ−ン分類の実行結果の履
歴を格納しておくための補助記憶装置22と、分類対象
である入力パタ−ンを外部から受け付けるパタ−ン入力
装置23と、パタ−ン分類の結果を表示するディスプレ
イ装置24と、利用者からの指示を受け付けるキ−ボ−
ド25とを具備している。本発明の特徴は、このハ−ド
ウェア構成にあるのではなく、パタ−ン分類を実行する
コンピュ−タ21内の機能モジュ−ルの構成にある。以
下、図1により機能モジュ−ルの構成を説明する。
説明する。図2は、本発明の一実施例を示すパタ−ン分
類装置のハ−ドウェア構成図である。本発明のパタ−ン
分類装置は、ニュ−ラルネットを利用してパタ−ンを分
類するコンピュ−タ21と、ニュ−ラルネツトの学習の
ための学習用デ−タおよびパタ−ン分類の実行結果の履
歴を格納しておくための補助記憶装置22と、分類対象
である入力パタ−ンを外部から受け付けるパタ−ン入力
装置23と、パタ−ン分類の結果を表示するディスプレ
イ装置24と、利用者からの指示を受け付けるキ−ボ−
ド25とを具備している。本発明の特徴は、このハ−ド
ウェア構成にあるのではなく、パタ−ン分類を実行する
コンピュ−タ21内の機能モジュ−ルの構成にある。以
下、図1により機能モジュ−ルの構成を説明する。
【0008】図1は、本発明の一実施例を示すパタ−ン
分類装置の機能ブロック図である。図1に示すように、
ニュ−ラルネット11、入力パタ−ン監視処理部12、
実行履歴監視処理部13、学習用デ−タ更新処理部1
4、およびこれらの起動を制御する制御処理部15が、
コンピュ−タ21内にプログラムモジュ−ルとして内蔵
されている。また、学習用デ−タファイル16および実
行履歴ファイル17が、補助記憶装置22内に格納され
ている。ニュ−ラルネット11は、分類実行時には、パ
タ−ン入力装置23を介して外部から入力された入力パ
タ−ン18を変換して、分類結果である出力パタ−ン1
9を出力する。また、ニュ−ラルネット11は、学習実
行時には、学習用デ−タファイル16から学習用デ−タ
を読み込み、学習用デ−タの入力パタ−ンから出力パタ
−ンへの変換を真似るように、ニュ−ラルネット11内
部のパラメ−タを修正する。次に、入力パタ−ン監視処
理部12は、パタ−ン入力装置23から入力パタ−ン1
8を、また学習用デ−タファイル16から学習用デ−タ
を、それぞれ入力して、入力パタ−ン監視結果110を
出力する。さらに、実行履歴監視処理部13は、パタ−
ン入力装置23からの入力パタ−ン18と、パタ−ン入
力装置23からの正解出力パタ−ンと、ニュ−ラルネッ
ト11からの出力パタ−ンとを、それぞれ入力して、こ
れらを実行履歴ファイル17に追加記録する。また、実
行履歴監視処理部13は、内部に保持している平均誤差
に基づいて実行履歴監視結果112を出力する。学習用
デ−タ更新処理部14は、再学習の指示があったとき
に、実行履歴ファイル17の内容と学習用デ−タファイ
ル16の内容を読み込み、新たに学習用デ−タを作成し
て、学習用デ−タファイル16に追加記録する。
分類装置の機能ブロック図である。図1に示すように、
ニュ−ラルネット11、入力パタ−ン監視処理部12、
実行履歴監視処理部13、学習用デ−タ更新処理部1
4、およびこれらの起動を制御する制御処理部15が、
コンピュ−タ21内にプログラムモジュ−ルとして内蔵
されている。また、学習用デ−タファイル16および実
行履歴ファイル17が、補助記憶装置22内に格納され
ている。ニュ−ラルネット11は、分類実行時には、パ
タ−ン入力装置23を介して外部から入力された入力パ
タ−ン18を変換して、分類結果である出力パタ−ン1
9を出力する。また、ニュ−ラルネット11は、学習実
行時には、学習用デ−タファイル16から学習用デ−タ
を読み込み、学習用デ−タの入力パタ−ンから出力パタ
−ンへの変換を真似るように、ニュ−ラルネット11内
部のパラメ−タを修正する。次に、入力パタ−ン監視処
理部12は、パタ−ン入力装置23から入力パタ−ン1
8を、また学習用デ−タファイル16から学習用デ−タ
を、それぞれ入力して、入力パタ−ン監視結果110を
出力する。さらに、実行履歴監視処理部13は、パタ−
ン入力装置23からの入力パタ−ン18と、パタ−ン入
力装置23からの正解出力パタ−ンと、ニュ−ラルネッ
ト11からの出力パタ−ンとを、それぞれ入力して、こ
れらを実行履歴ファイル17に追加記録する。また、実
行履歴監視処理部13は、内部に保持している平均誤差
に基づいて実行履歴監視結果112を出力する。学習用
デ−タ更新処理部14は、再学習の指示があったとき
に、実行履歴ファイル17の内容と学習用デ−タファイ
ル16の内容を読み込み、新たに学習用デ−タを作成し
て、学習用デ−タファイル16に追加記録する。
【0009】図3は、本発明の一実施例を示すパタ−ン
分類装置の処理フロ−チャ−トである。先ず制御処理部
15は、ディスプレイ装置24の画面にガイダンス表示
を行って、利用者に対し学習実行か、あるいは分類実行
か、いずれかの指示を入力するように要求する。制御処
理部15は、これに対する利用者からの指示をキ−ボ−
ド25を介して受け付け、これをコンピュ−タに入力す
る(ステップ31)。利用者からの指示が学習実行であ
る場合には、制御処理部15はニュ−ラルネット11を
起動して、学習実行を命令する。これにより、起動され
たニュ−ラルネット11は、学習用デ−タファイル16
から学習用デ−タを読み込み、この学習用デ−タを用い
て学習を実行する(ステップ32)。利用者からの指示
が分類実行である場合には、制御処理部15はニュ−ラ
ルネット11を起動して、分類実行を命令するととも
に、入力パタ−ン監視処理部12、実行履歴監視処理部
13を起動する。ニュ−ラルネット11は、入力パタ−
ン18がパタ−ン入力装置23を介して外部から入力さ
れると、入力パタ−ン18を変換して分類結果である出
力パタ−ン19を、ディスプレイ装置24と実行履歴監
視処理部13に出力する(ステップ33,34)。次
に、入力パタ−ン監視処理部12は、入力パタ−ン18
と学習用デ−タファイル16から読み込んだ学習用デ−
タとを入力し、入力パタ−ン監視結果110をディスプ
レイ装置24に出力する(ステップ35)。さらに、実
行履歴監視処理部13は、入力パタ−ン18と、ニュ−
ラルネット11の出力パタ−ン19とを入力し、これら
の値を保持しておく(ステップ36)。そして、ステッ
プ33に戻る。
分類装置の処理フロ−チャ−トである。先ず制御処理部
15は、ディスプレイ装置24の画面にガイダンス表示
を行って、利用者に対し学習実行か、あるいは分類実行
か、いずれかの指示を入力するように要求する。制御処
理部15は、これに対する利用者からの指示をキ−ボ−
ド25を介して受け付け、これをコンピュ−タに入力す
る(ステップ31)。利用者からの指示が学習実行であ
る場合には、制御処理部15はニュ−ラルネット11を
起動して、学習実行を命令する。これにより、起動され
たニュ−ラルネット11は、学習用デ−タファイル16
から学習用デ−タを読み込み、この学習用デ−タを用い
て学習を実行する(ステップ32)。利用者からの指示
が分類実行である場合には、制御処理部15はニュ−ラ
ルネット11を起動して、分類実行を命令するととも
に、入力パタ−ン監視処理部12、実行履歴監視処理部
13を起動する。ニュ−ラルネット11は、入力パタ−
ン18がパタ−ン入力装置23を介して外部から入力さ
れると、入力パタ−ン18を変換して分類結果である出
力パタ−ン19を、ディスプレイ装置24と実行履歴監
視処理部13に出力する(ステップ33,34)。次
に、入力パタ−ン監視処理部12は、入力パタ−ン18
と学習用デ−タファイル16から読み込んだ学習用デ−
タとを入力し、入力パタ−ン監視結果110をディスプ
レイ装置24に出力する(ステップ35)。さらに、実
行履歴監視処理部13は、入力パタ−ン18と、ニュ−
ラルネット11の出力パタ−ン19とを入力し、これら
の値を保持しておく(ステップ36)。そして、ステッ
プ33に戻る。
【0010】正解出力パタ−ン111がパタ−ン入力装
置23を介して入力された場合には(ステップ33)、
実行履歴監視処理部13は、保持していた入力パタ−ン
と出力パタ−ンと入力された正解出力パタ−ン111と
を、実行履歴ファイル17に格納していく。また、分類
開始時点から保持していた平均誤差を更新する(ステッ
プ37)。もし、平均誤差が予め設定されている一定値
を越えた場合には(ステップ38)、ディスプレイ装置
24の画面に実行履歴監視結果112を出力表示し、平
均誤差が増加したことを利用者に通知する。制御処理部
15は、ニュ−ラルネット11の再学習を行うか否かの
指示を入力するように、利用者に要求する。そして、利
用者からの指示をキ−ボ−ド25を介して入力する(ス
テップ39)。利用者からの指示が再学習である場合に
は、制御処理部15は学習用デ−タ更新処理部14を起
動する。起動された学習用デ−タ更新処理部14は、実
行履歴ファイル17の内容と学習用デ−タファイル16
の内容を読み込んで、新たに学習用デ−タを作成する。
そして、作成した学習用デ−タを学習用デ−タファイル
16に記録し、次に実行履歴ファイル17の内容を消去
する(ステップ310)。再びステップ32に戻って、
制御処理部15はニュ−ラルネット11を起動し、学習
を実行させる。
置23を介して入力された場合には(ステップ33)、
実行履歴監視処理部13は、保持していた入力パタ−ン
と出力パタ−ンと入力された正解出力パタ−ン111と
を、実行履歴ファイル17に格納していく。また、分類
開始時点から保持していた平均誤差を更新する(ステッ
プ37)。もし、平均誤差が予め設定されている一定値
を越えた場合には(ステップ38)、ディスプレイ装置
24の画面に実行履歴監視結果112を出力表示し、平
均誤差が増加したことを利用者に通知する。制御処理部
15は、ニュ−ラルネット11の再学習を行うか否かの
指示を入力するように、利用者に要求する。そして、利
用者からの指示をキ−ボ−ド25を介して入力する(ス
テップ39)。利用者からの指示が再学習である場合に
は、制御処理部15は学習用デ−タ更新処理部14を起
動する。起動された学習用デ−タ更新処理部14は、実
行履歴ファイル17の内容と学習用デ−タファイル16
の内容を読み込んで、新たに学習用デ−タを作成する。
そして、作成した学習用デ−タを学習用デ−タファイル
16に記録し、次に実行履歴ファイル17の内容を消去
する(ステップ310)。再びステップ32に戻って、
制御処理部15はニュ−ラルネット11を起動し、学習
を実行させる。
【0011】図5は、図1における学習用デ−タファイ
ルの内部構成図である。学習用デ−タファイル16に
は、入力パタ−ン51と教師パタ−ン52の組である学
習用デ−タ、および学習終了後のニュ−ラルネット11
が入力パタ−ン51に対して出力した出力パタ−ン53
からなるデ−タが複数個格納されている。また、このフ
ァイル16には、全ての学習用デ−タの入力パタ−ン5
1の分布を表わす量が格納される。すなわち、全ての学
習用デ−タの入力パタ−ン51についての平均54と、
標準偏差55と、最小値56と、最大値57とが、それ
ぞれ格納されている。いま、学習用デ−タファイル16
に格納された学習用デ−タの個数をNLとし、第j番目
の学習用デ−タの入力パタ−ン51を次のように置く。 XL(j)=(XL(j)1,XL(j)2,・・・・,XL(j)m) ここでj=1,・・・,NL ・・・・・・・・・・・(3) この場合には、平均54と標準偏差55は、それぞれ次
の値で示される。 M=(M1,M2,・・・,Mm) ・・・・・・・・・・・・・(4) S=(S1,S2,・・・,Sm) ・・・・・・・・・・・・・(5) ただし、上記MiとSi(i=1,・・・,m)は、次
式により得られる。
ルの内部構成図である。学習用デ−タファイル16に
は、入力パタ−ン51と教師パタ−ン52の組である学
習用デ−タ、および学習終了後のニュ−ラルネット11
が入力パタ−ン51に対して出力した出力パタ−ン53
からなるデ−タが複数個格納されている。また、このフ
ァイル16には、全ての学習用デ−タの入力パタ−ン5
1の分布を表わす量が格納される。すなわち、全ての学
習用デ−タの入力パタ−ン51についての平均54と、
標準偏差55と、最小値56と、最大値57とが、それ
ぞれ格納されている。いま、学習用デ−タファイル16
に格納された学習用デ−タの個数をNLとし、第j番目
の学習用デ−タの入力パタ−ン51を次のように置く。 XL(j)=(XL(j)1,XL(j)2,・・・・,XL(j)m) ここでj=1,・・・,NL ・・・・・・・・・・・(3) この場合には、平均54と標準偏差55は、それぞれ次
の値で示される。 M=(M1,M2,・・・,Mm) ・・・・・・・・・・・・・(4) S=(S1,S2,・・・,Sm) ・・・・・・・・・・・・・(5) ただし、上記MiとSi(i=1,・・・,m)は、次
式により得られる。
【数1】
【数2】
最小値と最大値は、それぞれ次の式で表わされる。
A=(A1,A2,・・・・,Am) ・・・・・・・・・・・(6)
B=(B1,B2,・・・・,Bm) ・・・・・・・・・・・(7)
ここで、上記AiとBi(i=1,2,・・・,m)
は、次式により得られる。
は、次式により得られる。
【0012】図6は、本発明における入力パタ−ン監視
処理部の処理フロ−チャ−トである。ここでは、先ず学
習用デ−タファイル16の中の入力パタ−ン51の分布
上での現在の入力パタ−ン18の位置Pを計算する(ス
テップ61)。入力パタ−ン18を次式で置くと、 X=(X1,X2,・・・,Xm) ・・・・・・・・・・・・(10) 位置Pは次式で与えられる。 P=(P1,P2,・・・・,Pm) ・・・・・・・・・・・(11) ただし、Pi(i=1,・・・,m)は、次式により得
られる。 Pi=(Xi−Mi)/Si ・・・・・・・・・・・・・・・(12) つまり、PiはXiの平均Miからの偏差を標準偏差S
iで規格化して表現したものである。これにより、利用
者は入力パタ−ンXが分布のどこに位置するかを知るこ
とができる。Piの絶対値が大きいほど、入力パタ−ン
18の第i要素は非常に希な位置、つまり分布の端の方
に位置していることが判る。
処理部の処理フロ−チャ−トである。ここでは、先ず学
習用デ−タファイル16の中の入力パタ−ン51の分布
上での現在の入力パタ−ン18の位置Pを計算する(ス
テップ61)。入力パタ−ン18を次式で置くと、 X=(X1,X2,・・・,Xm) ・・・・・・・・・・・・(10) 位置Pは次式で与えられる。 P=(P1,P2,・・・・,Pm) ・・・・・・・・・・・(11) ただし、Pi(i=1,・・・,m)は、次式により得
られる。 Pi=(Xi−Mi)/Si ・・・・・・・・・・・・・・・(12) つまり、PiはXiの平均Miからの偏差を標準偏差S
iで規格化して表現したものである。これにより、利用
者は入力パタ−ンXが分布のどこに位置するかを知るこ
とができる。Piの絶対値が大きいほど、入力パタ−ン
18の第i要素は非常に希な位置、つまり分布の端の方
に位置していることが判る。
【0013】次に、学習用デ−タで、現在の入力パタ−
ン18に最も似ている入力パタ−ン51を持つものを検
索する。ここでは、学習用デ−タの個数をNL、第j番
目の学習用デ−タの入力パタ−ンをXL(j)、教師パ
タ−ンをTL(j)、入力パタ−ンXL(j)について
の学習後のニュ−ラルネットの出力パタ−ンをYL
(j)とする。 XL(j)=(XL(j)1,XL(j)2,・・,XL(j)m) j=1,・・・,NL ・・・・・・・・・(13) TL(j)=(TL(j)1,TL(j)2,・・,TL(j)m) j=1,・・・,NL ・・・・・・・・・(14) YL(j)=(YL(j)1,YL(j)2,・・,YL(j)m) j=1,・・・,NL ・・・・・・・・・(15) 現在の入力パタ−ンXと上記学習用デ−タの入力パタ−
ンXL(j)との距離D(j)を、j=1,・・・,N
Lについてそれぞれ計算する(ステップ62)。なお、
距離D(j)は、次の式により求められる。 D(j)=sqrt(D(j)12+D(j)22+・・+D (j)2m) sqrtは√を示す。 ・・・・・・・・・・・・・(16) ただし、D(j)i=abs((Xi−XL(j)i)/S
i) (i=1,・・・,m、またabsは絶対値記号を示す。)・・・・(17) 次に、学習用デ−タを、上記距離Djが小さいものか
ら順に並べ替える。求められた第jmin番の学習用デ
−タについて、入力パタ−ンXL(jmin)、教師パ
タ−ンTL(jmin)、入力パタ−ンXL(jmi
n)についての学習後のニュ−ラルネットの出力パタ−
ンYL(jmin)をディスプレイ装置24に出力し
て、利用者に知らせる(ステップ63)。
ン18に最も似ている入力パタ−ン51を持つものを検
索する。ここでは、学習用デ−タの個数をNL、第j番
目の学習用デ−タの入力パタ−ンをXL(j)、教師パ
タ−ンをTL(j)、入力パタ−ンXL(j)について
の学習後のニュ−ラルネットの出力パタ−ンをYL
(j)とする。 XL(j)=(XL(j)1,XL(j)2,・・,XL(j)m) j=1,・・・,NL ・・・・・・・・・(13) TL(j)=(TL(j)1,TL(j)2,・・,TL(j)m) j=1,・・・,NL ・・・・・・・・・(14) YL(j)=(YL(j)1,YL(j)2,・・,YL(j)m) j=1,・・・,NL ・・・・・・・・・(15) 現在の入力パタ−ンXと上記学習用デ−タの入力パタ−
ンXL(j)との距離D(j)を、j=1,・・・,N
Lについてそれぞれ計算する(ステップ62)。なお、
距離D(j)は、次の式により求められる。 D(j)=sqrt(D(j)12+D(j)22+・・+D (j)2m) sqrtは√を示す。 ・・・・・・・・・・・・・(16) ただし、D(j)i=abs((Xi−XL(j)i)/S
i) (i=1,・・・,m、またabsは絶対値記号を示す。)・・・・(17) 次に、学習用デ−タを、上記距離Djが小さいものか
ら順に並べ替える。求められた第jmin番の学習用デ
−タについて、入力パタ−ンXL(jmin)、教師パ
タ−ンTL(jmin)、入力パタ−ンXL(jmi
n)についての学習後のニュ−ラルネットの出力パタ−
ンYL(jmin)をディスプレイ装置24に出力し
て、利用者に知らせる(ステップ63)。
【0014】図7は、ニュ−ラルネットの出力結果と入
力パタ−ン監視処理部の出力結果を表示した画面の図で
ある。図7に示すように、画面の上部には、与えられた
入力パタ−ンX18と、これに対する分類結果であるニ
ュ−ラルネット11の出力パタ−ンY19とが表示され
ている。また、画面の中央部には、学習用デ−タファイ
ル16内の学習用デ−タの入力パタ−ン全体の分布が表
示されている。具体的には、上方から順に最小値A5
6、最大値B57、平均値M54、標準偏差S55が表
示され、さらにその下方の行には、上記分布における入
力パタ−ン18の位置P71が表示されている。さら
に、画面の下部には、学習用デ−タファイル16内の学
習用デ−タの中で与えられた入力パタ−ンX18に類似
した入力パタ−ンを持つものを検索した結果が表示され
る。画面では、入力パタ−ン間の距離72、入力パタ−
ンXL(jmin)51、教師パタ−ンTL(jmi
n)52、学習後のニュ−ラルネット11の出力パタ−
ンYL(jmin)53の順序で表示される。
力パタ−ン監視処理部の出力結果を表示した画面の図で
ある。図7に示すように、画面の上部には、与えられた
入力パタ−ンX18と、これに対する分類結果であるニ
ュ−ラルネット11の出力パタ−ンY19とが表示され
ている。また、画面の中央部には、学習用デ−タファイ
ル16内の学習用デ−タの入力パタ−ン全体の分布が表
示されている。具体的には、上方から順に最小値A5
6、最大値B57、平均値M54、標準偏差S55が表
示され、さらにその下方の行には、上記分布における入
力パタ−ン18の位置P71が表示されている。さら
に、画面の下部には、学習用デ−タファイル16内の学
習用デ−タの中で与えられた入力パタ−ンX18に類似
した入力パタ−ンを持つものを検索した結果が表示され
る。画面では、入力パタ−ン間の距離72、入力パタ−
ンXL(jmin)51、教師パタ−ンTL(jmi
n)52、学習後のニュ−ラルネット11の出力パタ−
ンYL(jmin)53の順序で表示される。
【0015】図8は、本発明における実行履歴監視処理
部の処理フロ−チャ−トである。先ず、入力パタ−ンX
と出力パタ−ンYが得られると、これらを時系列に保持
しておく(ステップ81)。正解出力パタ−ンTが得ら
れた時点で、これに対応した入力パタ−ンXと、そのX
に対するニュ−ラルネット11の出力パタ−ンYと、正
解出力パタ−ンTとを実行履歴ファイル17に時系列に
記録していく(ステップ82)。次に、出力パタ−ンY
と正解出力パタ−ンTの誤差(Y−T)を用いて平均誤
差Eを求め、これを実行履歴ファイル17に記録する
(ステップ83)。平均誤差Eが閾値より大きいときに
は(ステップ84)、利用者に対して平均誤差Eが増加
したことを通知する(ステップ85)。これにより、利
用者は再学習を実行する。平均出力誤差Eの監視と、通
知については、次の図9によりさらに詳述する。
部の処理フロ−チャ−トである。先ず、入力パタ−ンX
と出力パタ−ンYが得られると、これらを時系列に保持
しておく(ステップ81)。正解出力パタ−ンTが得ら
れた時点で、これに対応した入力パタ−ンXと、そのX
に対するニュ−ラルネット11の出力パタ−ンYと、正
解出力パタ−ンTとを実行履歴ファイル17に時系列に
記録していく(ステップ82)。次に、出力パタ−ンY
と正解出力パタ−ンTの誤差(Y−T)を用いて平均誤
差Eを求め、これを実行履歴ファイル17に記録する
(ステップ83)。平均誤差Eが閾値より大きいときに
は(ステップ84)、利用者に対して平均誤差Eが増加
したことを通知する(ステップ85)。これにより、利
用者は再学習を実行する。平均出力誤差Eの監視と、通
知については、次の図9によりさらに詳述する。
【0016】図9は、本発明における実行履歴ファイル
の内部構成図である。このファイル17には、入力パタ
−ンXH91、入力パタ−ンXH91に対するニュ−ラ
ルネット11の出力パタ−ンYH92、後で得られる正
解出力パタ−ンTH93、および出力パタ−ン間の誤差
94が時系列に格納される。また、出力誤差の累積誤差
95および平均誤差96も、記録される。平均出力誤差
96をEとし、分類が始まってから現在までにファイル
17に蓄積された履歴デ−タの個数をNHとすると、E
は次式により算出される。
の内部構成図である。このファイル17には、入力パタ
−ンXH91、入力パタ−ンXH91に対するニュ−ラ
ルネット11の出力パタ−ンYH92、後で得られる正
解出力パタ−ンTH93、および出力パタ−ン間の誤差
94が時系列に格納される。また、出力誤差の累積誤差
95および平均誤差96も、記録される。平均出力誤差
96をEとし、分類が始まってから現在までにファイル
17に蓄積された履歴デ−タの個数をNHとすると、E
は次式により算出される。
【数3】
実行履歴監視処理部13は、保持している平均出力誤差
Eを監視して、Eが予め設定された閾値を越えたときに
は、利用者にニュ−ラルネットの再学習を行う必要があ
ることを通知する(図8のステップ84,85)。
Eを監視して、Eが予め設定された閾値を越えたときに
は、利用者にニュ−ラルネットの再学習を行う必要があ
ることを通知する(図8のステップ84,85)。
【0017】ニュ−ラルネットの再学習では、前回の学
習に用いた学習用デ−タと、前回の学習以後に得られた
実行履歴の両方を学習用デ−タとして用いる。先ず、実
行履歴ファイル17の中の入力パタ−ン91および正解
出力パタ−ン93を、学習用デ−タファイル16に入力
パタ−ンおよび教師パタ−ンとして追加記録する。ただ
し、前回の学習用デ−タ中のデ−タで、実行履歴ファイ
ル17中のデ−タと矛盾するものは学習の対象から除外
する。再学習が開始されると、ニュ−ラルネット11は
学習用デ−タファイル16の中の入力パタ−ン51と教
師パタ−ン52の組を提示されることにより、学習を実
行する。本実施例では、利用者は図7に示す画面を見る
ことにより、次の事項を確認することができる。 (イ)入力パタ−ンXと学習用デ−タの入力パタ−ンX
L(jmin)との距離が大きい場合には、入力パタ−
ンXが過去に学習したどの入力パタ−ンとも似ていない
ことを意味するので、入力パタ−ンXに対するニュ−ラ
ルネットの出力結果である出力パタ−ンYの信頼度は低
いと判断することができる。 (ロ)入力パタ−ンXと学習用デ−タの入力パタ−ンX
L(jmin)との距離が小さく、かつ学習後の出力パ
タ−ンYL(jmin)と教師パタ−ンTL(jmi
n)とが等しく、出力パタ−ンYが学習後の出力パタ−
ンYL(jmin)と類似である場合には、出力パタ−
ンYの信頼度は高いと判断することができる 。(ハ)また、実行履歴監視処理部13は、保持してい
る平均出力誤差Eを常に監視し、Eが予め設定された閾
値を越えたときには、利用者に対して平均誤差が増加し
たことを通知するので、それにより利用者はニュ−ラル
ネットの再学習を行う必要のあることを知ることができ
る。
習に用いた学習用デ−タと、前回の学習以後に得られた
実行履歴の両方を学習用デ−タとして用いる。先ず、実
行履歴ファイル17の中の入力パタ−ン91および正解
出力パタ−ン93を、学習用デ−タファイル16に入力
パタ−ンおよび教師パタ−ンとして追加記録する。ただ
し、前回の学習用デ−タ中のデ−タで、実行履歴ファイ
ル17中のデ−タと矛盾するものは学習の対象から除外
する。再学習が開始されると、ニュ−ラルネット11は
学習用デ−タファイル16の中の入力パタ−ン51と教
師パタ−ン52の組を提示されることにより、学習を実
行する。本実施例では、利用者は図7に示す画面を見る
ことにより、次の事項を確認することができる。 (イ)入力パタ−ンXと学習用デ−タの入力パタ−ンX
L(jmin)との距離が大きい場合には、入力パタ−
ンXが過去に学習したどの入力パタ−ンとも似ていない
ことを意味するので、入力パタ−ンXに対するニュ−ラ
ルネットの出力結果である出力パタ−ンYの信頼度は低
いと判断することができる。 (ロ)入力パタ−ンXと学習用デ−タの入力パタ−ンX
L(jmin)との距離が小さく、かつ学習後の出力パ
タ−ンYL(jmin)と教師パタ−ンTL(jmi
n)とが等しく、出力パタ−ンYが学習後の出力パタ−
ンYL(jmin)と類似である場合には、出力パタ−
ンYの信頼度は高いと判断することができる 。(ハ)また、実行履歴監視処理部13は、保持してい
る平均出力誤差Eを常に監視し、Eが予め設定された閾
値を越えたときには、利用者に対して平均誤差が増加し
たことを通知するので、それにより利用者はニュ−ラル
ネットの再学習を行う必要のあることを知ることができ
る。
【0018】
【発明の効果】以上説明したように、本発明によれば、
入力パタ−ンと学習用デ−タとを比較して、入力パタ−
ンが学習用デ−タの入力パタ−ンの分布から外れている
か否かを知ることができるので、利用者はニュ−ラルネ
ットの出力パタ−ンの信頼度を判断することができる。
また、実行履歴の監視により、正解率の低下を検出で
き、再学習の通知を受けるので、利用者はニュ−ラルネ
ットの再学習を行って信頼度を向上させることができ
る。
入力パタ−ンと学習用デ−タとを比較して、入力パタ−
ンが学習用デ−タの入力パタ−ンの分布から外れている
か否かを知ることができるので、利用者はニュ−ラルネ
ットの出力パタ−ンの信頼度を判断することができる。
また、実行履歴の監視により、正解率の低下を検出で
き、再学習の通知を受けるので、利用者はニュ−ラルネ
ットの再学習を行って信頼度を向上させることができ
る。
【0019】
【図1】本発明の一実施例を示すパタ−ン分類装置の機
能ブロック図である。
能ブロック図である。
【図2】本発明の一実施例を示すパタ−ン分類装置のハ
−ドウェア構成図である。
−ドウェア構成図である。
【図3】図1におけるパタ−ン分類装置の処理フロ−チ
ャ−トである。
ャ−トである。
【図4】従来のニュ−ラルネットの動作原理を示す図で
ある。
ある。
【図5】図1における学習用デ−タファイルの内部構成
図である。
図である。
【図6】図1における入力パタ−ン監視処理部の処理フ
ロ−チャ−トである。
ロ−チャ−トである。
【図7】図1における入力パタ−ン監視結果の画面を示
す図である。
す図である。
【図8】図1における実行履歴監視処理部の処理フロ−
チャ−トである。
チャ−トである。
【図9】図1における実行履歴ファイルの内部構成図で
ある。
ある。
11 ニュ−ラルネット、12 入力パタ−ン監視処理
部、13 実行履歴監視処理部、14 学習用デ−タ更
新処理部、15 制御処理部、16 学習用デ−タファ
イル、17 実行履歴ファイル、18 入力パタ−ン、
19 出力パタ−ン、110 入力パタ−ン監視結果、
111 正解出力パタ−ン、112 実行履歴監視結
果、21 コンピュ−タ、22 補助記憶装置、23
パタ−ン入力装置、24 ディスプレイ装置、25 キ
−ボ−ド、41 ニュ−ラルネットのノ−ド、42 ニ
ュ−ラルネットのア−ク、51 学習用デ−タファイル
内の入力パタ−ン、52 教師パタ−ン、53 ニュ−
ラルネットの出力パタ−ン、54 入力パタ−ン全体の
平均、55 入力パタ−ン全体の標準偏差、56 入力
パタ−ンの最小値、57 入力パタ−ンの最大値、71
学習用デ−タの入力パタ−ン分布の現在の入力パタ−
ンの位置、72 入力パタ−ンと学習用デ−タの入力パ
タ−ンの距離、91 実行履歴ファイル内の入力パタ−
ン、92 同じく出力パタ−ン、93 同じく正解出力
パタ−ン、94 同じく出力パタ−ン間の誤差、95
同じく出力パタ−ン間の誤差の累積値、96 同じく出
力パタ−ン間の誤差の平均値。
部、13 実行履歴監視処理部、14 学習用デ−タ更
新処理部、15 制御処理部、16 学習用デ−タファ
イル、17 実行履歴ファイル、18 入力パタ−ン、
19 出力パタ−ン、110 入力パタ−ン監視結果、
111 正解出力パタ−ン、112 実行履歴監視結
果、21 コンピュ−タ、22 補助記憶装置、23
パタ−ン入力装置、24 ディスプレイ装置、25 キ
−ボ−ド、41 ニュ−ラルネットのノ−ド、42 ニ
ュ−ラルネットのア−ク、51 学習用デ−タファイル
内の入力パタ−ン、52 教師パタ−ン、53 ニュ−
ラルネットの出力パタ−ン、54 入力パタ−ン全体の
平均、55 入力パタ−ン全体の標準偏差、56 入力
パタ−ンの最小値、57 入力パタ−ンの最大値、71
学習用デ−タの入力パタ−ン分布の現在の入力パタ−
ンの位置、72 入力パタ−ンと学習用デ−タの入力パ
タ−ンの距離、91 実行履歴ファイル内の入力パタ−
ン、92 同じく出力パタ−ン、93 同じく正解出力
パタ−ン、94 同じく出力パタ−ン間の誤差、95
同じく出力パタ−ン間の誤差の累積値、96 同じく出
力パタ−ン間の誤差の平均値。
Claims (6)
- 【請求項1】 ニュ−ラルネットを用いて分類対象であ
る入力パタ−ンを分類結果である出力パタ−ンに変換す
るパタ−ン分類方法において、与えられた入力パタ−ン
に対する上記ニュ−ラルネットの出力パタ−ンと、該入
力パタ−ンについて後から出力される正解出力パタ−ン
とを比較し、比較結果を実行履歴として順次蓄積してお
き、常時、蓄積された結果を監視して、結果の異常を検
出することを特徴とするニュ−ラルネットを利用したパ
タ−ン分類方法。 - 【請求項2】 ニュ−ラルネットを用いて分類対象であ
る入力パタ−ンを分類結果である出力パタ−ンに変換す
るパタ−ン分類装置において、与えられた入力パタ−ン
と上記ニュ−ラルネットの学習に用いる学習用デ−タの
入力パタ−ンとを比較する入力パタ−ン監視モジュ−
ル、学習用デ−タを格納する学習用デ−タファイル、与
えられた入力パタ−ンに対する上記ニュ−ラルネットの
出力パタ−ンと該入力パタ−ンについての正解出力パタ
−ンとを比較して、比較結果を履歴として蓄積し、該比
較結果から異常を判断する実行履歴監視モジュ−ル、該
比較結果の履歴を格納する実行履歴ファイル、および該
実行履歴ファイルの内容と上記学習用デ−タファイルの
内容を読み出し、新たに学習用デ−タを作成してファイ
ル内容を更新する学習用デ−タ更新処理モジュ−ルを具
備することを特徴とするニュ−ラルネットを利用したパ
タ−ン分類装置。 - 【請求項3】 請求項2に記載のニュ−ラルネットを利
用したパタ−ン分類装置において、上記入力パタ−ン監
視モジュ−ルは、分類対象として与えられた入力パタ−
ンが全学習用デ−タの入力パタ−ンの分布上のどこに位
置するかを計算するとともに、分類対象として与えられ
た上記入力パタ−ンに類似する入力パタ−ンを持つ学習
用デ−タを検索することを特徴とするニュ−ラルネット
を利用したパタ−ン分類装置。 - 【請求項4】 請求項2に記載のニュ−ラルネットを利
用したパタ−ン分類装置において、上記実行履歴監視モ
ジュ−ルは、分類対象として与えられた入力パタ−ン
と、該入力パタ−ンについてのニュ−ラルネットの出力
パタ−ンと、該入力パタ−ンについての正解出力パタ−
ンとを、実行履歴として実行履歴ファイルに蓄積するこ
とを特徴とするニュ−ラルネットを利用したパタ−ン分
類装置。 - 【請求項5】 請求項2に記載のニュ−ラルネットを利
用したパタ−ン分類装置において、上記実行履歴監視モ
ジュ−ルは、分類対象である入力パタ−ンについてのニ
ュ−ラルネットの出力パタ−ンと、該入力パタ−ンにつ
いての正解出力パタ−ンとの間の誤差を全実行履歴につ
いて平均した平均誤差を算出して、算出結果を実行履歴
ファイルに保持し、該平均誤差が予め定められた閾値を
越えたときには、上記ニュ−ラルネットの再学習を行う
必要があることを利用者に通知することを特徴とするニ
ュ−ラルネットを利用したパタ−ン分類装置。 - 【請求項6】 請求項5に記載のニュ−ラルネットを利
用したパタ−ン分類装置において、上記ニュ−ラルネッ
トの再学習では、前回の学習に用いた学習用デタに、前
回の学習以後に得られた実行履歴を加えたものを新たに
学習用デ−タとして用い、前回の学習用デ−タのうち実
行履歴中のデ−タと矛盾するものを該再学習の対象から
除去することを特徴とするニュ−ラルネットを利用した
パタ−ン分類装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP18608991A JP3334807B2 (ja) | 1991-07-25 | 1991-07-25 | ニュ−ラルネットを利用したパタ−ン分類方法および装置 |
US07/916,541 US5577166A (en) | 1991-07-25 | 1992-07-20 | Method and apparatus for classifying patterns by use of neural network |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP18608991A JP3334807B2 (ja) | 1991-07-25 | 1991-07-25 | ニュ−ラルネットを利用したパタ−ン分類方法および装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0535707A true JPH0535707A (ja) | 1993-02-12 |
JP3334807B2 JP3334807B2 (ja) | 2002-10-15 |
Family
ID=16182177
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP18608991A Expired - Fee Related JP3334807B2 (ja) | 1991-07-25 | 1991-07-25 | ニュ−ラルネットを利用したパタ−ン分類方法および装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US5577166A (ja) |
JP (1) | JP3334807B2 (ja) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017139019A (ja) * | 2017-05-01 | 2017-08-10 | 東芝テック株式会社 | 情報処理装置、及びプログラム |
WO2017168865A1 (ja) * | 2016-03-28 | 2017-10-05 | ソニー株式会社 | 情報処理装置及び情報処理方法 |
KR20180040452A (ko) * | 2016-10-12 | 2018-04-20 | 삼성에스디에스 주식회사 | 설비 노화 지수를 이용한 이상 감지 방법 및 장치 |
JP2019513001A (ja) * | 2016-03-05 | 2019-05-16 | パノラミック・パワー・リミテッドPanoramic Power Ltd. | 電流消費モニタリングおよびその機械学習に基づくデバイス状態の決定のためのシステムおよびその方法 |
JP2020009156A (ja) * | 2018-07-09 | 2020-01-16 | キヤノン株式会社 | システム、システムの制御方法及びプログラム |
CN111382866A (zh) * | 2018-12-27 | 2020-07-07 | 瑞萨电子株式会社 | 用于机器学习的系统和方法 |
JP2020154785A (ja) * | 2019-03-20 | 2020-09-24 | 富士通株式会社 | 予測方法、予測プログラムおよびモデル学習方法 |
JP2021135892A (ja) * | 2020-02-28 | 2021-09-13 | 沖電気工業株式会社 | 学習処理装置、学習処理方法及び学習処理プログラム、並びに分類処理装置、分類処理方法及び分類処理プログラム |
JP2022518286A (ja) * | 2019-01-28 | 2022-03-14 | コーニンクレッカ フィリップス エヌ ヴェ | 被訓練モデルへの母集団記述子の関連付け |
JP2022169507A (ja) * | 2017-11-27 | 2022-11-09 | ホーチキ株式会社 | 行動監視システム |
Families Citing this family (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5619619A (en) * | 1993-03-11 | 1997-04-08 | Kabushiki Kaisha Toshiba | Information recognition system and control system using same |
US5706364A (en) * | 1995-04-28 | 1998-01-06 | Xerox Corporation | Method of producing character templates using unsegmented samples |
US5805730A (en) * | 1995-08-08 | 1998-09-08 | Apple Computer, Inc. | Method for training an adaptive statistical classifier with improved learning of difficult samples |
US5805731A (en) * | 1995-08-08 | 1998-09-08 | Apple Computer, Inc. | Adaptive statistical classifier which provides reliable estimates or output classes having low probabilities |
US5768422A (en) * | 1995-08-08 | 1998-06-16 | Apple Computer, Inc. | Method for training an adaptive statistical classifier to discriminate against inproper patterns |
GB9720720D0 (en) * | 1997-10-01 | 1997-11-26 | Rolls Royce Plc | An apparatus and a method for locating a source of acoustic emissions in an article |
GB9824552D0 (en) * | 1998-11-09 | 1999-01-06 | Royal Holloway University Of L | Data classification apparatus and method thereof |
US6901383B1 (en) * | 1999-05-20 | 2005-05-31 | Ameritrade Holding Corporation | Stock purchase indices |
US8266025B1 (en) | 1999-08-09 | 2012-09-11 | Citibank, N.A. | System and method for assuring the integrity of data used to evaluate financial risk or exposure |
US20050091151A1 (en) * | 2000-08-23 | 2005-04-28 | Ronald Coleman | System and method for assuring the integrity of data used to evaluate financial risk or exposure |
US8458059B2 (en) * | 2000-12-13 | 2013-06-04 | Capguard.Com, Inc. | Apparatus and method for assessing market conditions |
EP1225517B1 (en) * | 2001-01-17 | 2006-05-17 | International Business Machines Corporation | System and methods for computer based searching for relevant texts |
US20030130991A1 (en) * | 2001-03-28 | 2003-07-10 | Fidel Reijerse | Knowledge discovery from data sets |
EP1388812A1 (en) * | 2002-07-04 | 2004-02-11 | Ronald E. Dr. Kates | Method for training a learning-capable system |
US7113636B2 (en) * | 2002-08-30 | 2006-09-26 | Lockheed Martin Corporation | Method and computer program product for generating training data for a new class in a pattern recognition classifier |
US20050208457A1 (en) * | 2004-01-05 | 2005-09-22 | Wolfgang Fink | Digital object recognition audio-assistant for the visually impaired |
JP4963110B2 (ja) * | 2008-01-25 | 2012-06-27 | インターナショナル・ビジネス・マシーンズ・コーポレーション | サービス検索システム、方法及びプログラム |
JP6109037B2 (ja) * | 2013-10-23 | 2017-04-05 | 本田技研工業株式会社 | 時系列データ予測装置、時系列データ予測方法、及びプログラム |
JP6671397B2 (ja) * | 2016-01-20 | 2020-03-25 | 三菱電機株式会社 | 異常検知装置及び異常検知システム |
JP6333871B2 (ja) * | 2016-02-25 | 2018-05-30 | ファナック株式会社 | 入力画像から検出した対象物を表示する画像処理装置 |
CN106127248A (zh) * | 2016-06-24 | 2016-11-16 | 平安科技(深圳)有限公司 | 基于深度学习的车牌分类方法及系统 |
JP2018060268A (ja) * | 2016-10-03 | 2018-04-12 | 株式会社日立製作所 | 認識装置および学習システム |
US10902318B2 (en) | 2017-11-06 | 2021-01-26 | Neuralmagic Inc. | Methods and systems for improved transforms in convolutional neural networks |
US20190156214A1 (en) | 2017-11-18 | 2019-05-23 | Neuralmagic Inc. | Systems and methods for exchange of data in distributed training of machine learning algorithms |
US11449363B2 (en) | 2018-05-31 | 2022-09-20 | Neuralmagic Inc. | Systems and methods for improved neural network execution |
US10832133B2 (en) | 2018-05-31 | 2020-11-10 | Neuralmagic Inc. | System and method of executing neural networks |
US10963787B2 (en) | 2018-05-31 | 2021-03-30 | Neuralmagic Inc. | Systems and methods for generation of sparse code for convolutional neural networks |
US11216732B2 (en) | 2018-05-31 | 2022-01-04 | Neuralmagic Inc. | Systems and methods for generation of sparse code for convolutional neural networks |
US10965708B2 (en) * | 2018-06-06 | 2021-03-30 | Whitehat Security, Inc. | Systems and methods for machine learning based application security testing |
CN108960328A (zh) * | 2018-07-04 | 2018-12-07 | 温州大学 | 一种基于汉克尔矩阵的诊断汽车轮毂轴承故障的方法 |
JP6795562B2 (ja) * | 2018-09-12 | 2020-12-02 | ファナック株式会社 | 検査装置及び機械学習方法 |
WO2020072274A1 (en) * | 2018-10-01 | 2020-04-09 | Neuralmagic Inc. | Systems and methods for neural network pruning with accuracy preservation |
US11544559B2 (en) | 2019-01-08 | 2023-01-03 | Neuralmagic Inc. | System and method for executing convolution in a neural network |
CN109738790B (zh) * | 2019-01-28 | 2020-05-15 | 北京航空航天大学 | 考虑模糊组预判别的组合神经网络电路故障诊断方法 |
US11126898B2 (en) | 2019-05-29 | 2021-09-21 | Markov Llc | Computer vision classifier using item micromodels |
US11195095B2 (en) | 2019-08-08 | 2021-12-07 | Neuralmagic Inc. | System and method of accelerating execution of a neural network |
JP2021144415A (ja) * | 2020-03-11 | 2021-09-24 | 本田技研工業株式会社 | 情報処理方法、情報処理装置、異常判定システム、異常判定装置、異常判定方法、及びプログラム |
US11556757B1 (en) | 2020-12-10 | 2023-01-17 | Neuralmagic Ltd. | System and method of executing deep tensor columns in neural networks |
US20220343153A1 (en) * | 2021-04-26 | 2022-10-27 | Micron Technology, Inc. | Artificial neural network retraining in memory |
US11960982B1 (en) | 2021-10-21 | 2024-04-16 | Neuralmagic, Inc. | System and method of determining and executing deep tensor columns in neural networks |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4805225A (en) * | 1986-11-06 | 1989-02-14 | The Research Foundation Of The State University Of New York | Pattern recognition method and apparatus |
US4914708A (en) * | 1987-06-19 | 1990-04-03 | Boston University | System for self-organization of stable category recognition codes for analog input patterns |
US4979124A (en) * | 1988-10-05 | 1990-12-18 | Cornell Research Foundation | Adaptive, neural-based signal processor |
US5003490A (en) * | 1988-10-07 | 1991-03-26 | Hughes Aircraft Company | Neural network signal processor |
US4912653A (en) * | 1988-12-14 | 1990-03-27 | Gte Laboratories Incorporated | Trainable neural network |
US4941122A (en) * | 1989-01-12 | 1990-07-10 | Recognition Equipment Incorp. | Neural network image processing system |
US5041976A (en) * | 1989-05-18 | 1991-08-20 | Ford Motor Company | Diagnostic system using pattern recognition for electronic automotive control systems |
US5140523A (en) * | 1989-09-05 | 1992-08-18 | Ktaadn, Inc. | Neural network for predicting lightning |
US5282261A (en) * | 1990-08-03 | 1994-01-25 | E. I. Du Pont De Nemours And Co., Inc. | Neural network process measurement and control |
-
1991
- 1991-07-25 JP JP18608991A patent/JP3334807B2/ja not_active Expired - Fee Related
-
1992
- 1992-07-20 US US07/916,541 patent/US5577166A/en not_active Expired - Lifetime
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019513001A (ja) * | 2016-03-05 | 2019-05-16 | パノラミック・パワー・リミテッドPanoramic Power Ltd. | 電流消費モニタリングおよびその機械学習に基づくデバイス状態の決定のためのシステムおよびその方法 |
WO2017168865A1 (ja) * | 2016-03-28 | 2017-10-05 | ソニー株式会社 | 情報処理装置及び情報処理方法 |
JPWO2017168865A1 (ja) * | 2016-03-28 | 2019-02-07 | ソニー株式会社 | 情報処理装置及び情報処理方法 |
KR20180040452A (ko) * | 2016-10-12 | 2018-04-20 | 삼성에스디에스 주식회사 | 설비 노화 지수를 이용한 이상 감지 방법 및 장치 |
JP2017139019A (ja) * | 2017-05-01 | 2017-08-10 | 東芝テック株式会社 | 情報処理装置、及びプログラム |
JP2022169507A (ja) * | 2017-11-27 | 2022-11-09 | ホーチキ株式会社 | 行動監視システム |
JP2020009156A (ja) * | 2018-07-09 | 2020-01-16 | キヤノン株式会社 | システム、システムの制御方法及びプログラム |
CN111382866A (zh) * | 2018-12-27 | 2020-07-07 | 瑞萨电子株式会社 | 用于机器学习的系统和方法 |
JP2020107012A (ja) * | 2018-12-27 | 2020-07-09 | ルネサスエレクトロニクス株式会社 | 演算処理装置および機械学習方法 |
US11568226B2 (en) | 2018-12-27 | 2023-01-31 | Renesas Electronics Corporation | System and method for machine-learning |
JP2022518286A (ja) * | 2019-01-28 | 2022-03-14 | コーニンクレッカ フィリップス エヌ ヴェ | 被訓練モデルへの母集団記述子の関連付け |
JP2020154785A (ja) * | 2019-03-20 | 2020-09-24 | 富士通株式会社 | 予測方法、予測プログラムおよびモデル学習方法 |
JP2021135892A (ja) * | 2020-02-28 | 2021-09-13 | 沖電気工業株式会社 | 学習処理装置、学習処理方法及び学習処理プログラム、並びに分類処理装置、分類処理方法及び分類処理プログラム |
Also Published As
Publication number | Publication date |
---|---|
US5577166A (en) | 1996-11-19 |
JP3334807B2 (ja) | 2002-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH0535707A (ja) | ニユ−ラルネツトを利用したパタ−ン分類方法および装置 | |
US11087227B2 (en) | Anomaly detection in spatial and temporal memory system | |
Ribeiro | Reinforcement learning agents | |
US20140129499A1 (en) | Value oriented action recommendation using spatial and temporal memory system | |
CN114678080B (zh) | 转炉终点磷含量预测模型及构建方法、磷含量预测方法 | |
Hu et al. | Handling dynamic multiobjective optimization environments via layered prediction and subspace-based diversity maintenance | |
TW202006652A (zh) | 具輔助判斷功能之產品測試系統及應用於其上的產品測試輔助方法 | |
CN111222762A (zh) | 太阳能电池板镀膜工艺状态监控及质量控制系统 | |
CN114330090A (zh) | 一种缺陷检测方法、装置、计算机设备和存储介质 | |
JPH07168799A (ja) | ニューラルネットワークの学習装置 | |
EP3614314B1 (en) | Method and apparatus for generating chemical structure using neural network | |
Östermark | A hybrid genetic fuzzy neural network algorithm designed for classification problems involving several groups | |
Gong et al. | Interactive Genetic Algorithms with Individual Fitness Not Assigned by Human. | |
Fukuda et al. | Computational intelligence in robotics and mechatronics | |
Temponi et al. | A fuzzy neural architecture for customer satisfaction assessment | |
CN115269845B (zh) | 一种基于社交网络用户人格的网络对齐方法及系统 | |
JP4662702B2 (ja) | 外れ値度計算装置 | |
JPH07107667A (ja) | 電力系統監視装置 | |
Zeng et al. | Learning evolving Mamdani fuzzy systems based on parameter optimization | |
CN117764536B (zh) | 一种基于人工智能的创新创业项目辅助管理系统 | |
WO2024128090A1 (ja) | 情報処理装置、制御システム、探索方法、および探索プログラム | |
US20230214724A1 (en) | Removing Undesirable Inferences from a Machine Learning Model | |
Derner | Data-Efficient Methods for Model Learning and Control in Robotics | |
Enab | Genetic algorithm for identifying self-generating radial basis neural networks | |
JPH0660049A (ja) | パターン分類装置と環境認識装置と空調機 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
LAPS | Cancellation because of no payment of annual fees |