JPH06215163A - ニューラルネット構築支援方法及び装置、ニューラルネットテスト装置、薬注制御システム - Google Patents

ニューラルネット構築支援方法及び装置、ニューラルネットテスト装置、薬注制御システム

Info

Publication number
JPH06215163A
JPH06215163A JP5006248A JP624893A JPH06215163A JP H06215163 A JPH06215163 A JP H06215163A JP 5006248 A JP5006248 A JP 5006248A JP 624893 A JP624893 A JP 624893A JP H06215163 A JPH06215163 A JP H06215163A
Authority
JP
Japan
Prior art keywords
neural network
learning
construction
data
test
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5006248A
Other languages
English (en)
Inventor
Yoshikane Sugimura
好謙 杉村
Katsumi Omori
勝美 大森
Seizo Mori
清三 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP5006248A priority Critical patent/JPH06215163A/ja
Publication of JPH06215163A publication Critical patent/JPH06215163A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【目的】 ニューラルネットワークの構築を正確かつ効
率的に行う。 【構成】 学習/テストデータの妥当性を解析するため
の関数近似用解析手段110及びパターン認識用解析手
段111、関数近似に適したBP学習手段106および
パターン認識に適した高速学習法学習手段107、評価
のための関数近似用テスト手段108及びパターン認識
用テスト手段109を設け、構築手段記憶装置104に
予め入力した利用目的にしたがってニューラルネットワ
ーク構築管理装置102が上記手段を選択し、ニューラ
ルネットワークの構築を行う。 【効果】 最初の目的設定だけでニューラルネットワー
クの利用目的に適した解析、学習、評価手段が自動的に
選択されるから、ニューラルネットワークの構築作業が
正確かつ効率的に行える。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、ニューラルネットの構
築を支援するためのニューラルネット構築支援方法及び
装置並びにテスト装置、更にそれを利用した薬注制御シ
ステムに関するものである。
【0002】
【従来技術】関数の近似計算やパターン認識へのニュー
ラルネットワークの応用が広く開発されつつあるが、こ
れらのニューラルネットの多くは、図23に示すような
3層構造を持っている。ここで入力層はニューロン23
01〜2302とバイアスニューロン2303から構成
され、中間層はニューロン2304〜2305とバイア
スニューロン2306から構成され、出力層はニューロ
ン2307〜2308から構成される。X1 、‥‥、X
Lはニューラルネットへの入力値、Oi(1)は入力層のi番
目のニューロンの出力、 Wim(1)は入力層のi番目のニ
ューロンと中間層のm番目のニューロンの間の結合の重
み、Om(2)は中間層のm番目のニューロンの出力、 Wmn
(2)は中 間層のm番目のニューロンと出力層のn番目のニ
ューロンの間の結合の重み、Y1 、‥‥、YNはニュー
ラルネットの出力をそれぞれ表している。
【0003】ニューラルネットの学習は、入力値に対し
て望ましい出力値を決め、その出力値に実際のニューラ
ルネットの出力値が近づくように、ニューロン間の結合
の重みを修正することで行われる。この重みを修正する
方法にはバックプロパゲーション法が広く用いられてい
る。ニューラルネットの出力計算のアルゴリズムやバッ
クプロパゲーション法による重み変更のアルゴリズムの
詳細は、例えば、麻生英樹著「ニューラルネットワーク
情報処理」(産業図書)p10〜p14およびp50〜p54に述べ
られている。
【0004】次に、上記のようなニューラルネットを構
築する際の手順について説明する。ニューラルネット構
築の一般的な手順を図2に示す。ステップ201では、
ユーザはニューラルネットに記憶させる入力とそれに対
応する望ましい出力の組からなるデータを用意する。そ
れを学習に使う教師データセットと、学習には使わず、
テストのみに使うテストデータセットに分けておく。次
のステップ202では、データの解析、検証を行う。デ
ータの検証は教師データがそのニューラルネットの出力
の値域を網羅しているかどうかを確かめるものである。
もし、教師データセットに偏りがあった場合、そのデー
タの少ない部分で出力精度が保証できないという問題が
起こるからである。ステップ201、202で教師デー
タ、テストデータが揃い、データの検証が終了すると、
次のステップ203では、ニューラルネットの構成を決
定する。ニューラルネットの入力層・出力層のニューロ
ン数は教師データあるいはテストデータに依存して決定
できる。これに対し、中間層数、各中間層のニューロン
数は経験的知識などに頼って決定される。教師データが
用意でき、ニューラルネットの構成が決まると、ステッ
プ204ではその教師データを使って、ニューラルネッ
トの出力が教師データの望ましい出力値に近づくように
ニューロンの結合の重みを修正する学習を始める。この
修正にはバックプロパゲーション法等が用いられる。学
習が終了すると、ステップ205で教師データ以外のデ
ータが入力されても適切な値を出力するかどうかのテス
トを行う。このテストにはステップ201で用意した、
学習に使っていないテストデータが使われる。
【0005】以上がニューラルネット構築の手順であ
り、本発明の装置はこうしたニューラルネット構築を効
率よく行えるように支援するものである。ところで、ニ
ューラルネットの主な利用目的としては、パターン認識
や関数近似があり、この利用目的によってニューラルネ
ットの学習やデータ解析法には異なったものが必要にな
る。
【0006】まず学習については、パターン認識の場合
は、入力パターンがどのカテゴリに属するかを判定する
ものであり、分類したいカテゴリの数だけ出力ニューロ
ンを用意し、各パターンに対しそれが属するカテゴリの
ニューロンだけが“1”を出力し、他のカテゴリのニュ
ーロンが“0”を出力するように学習させる。一方、関
数近似は文字どおりある連続関数の出力値をニューラル
ネットで近似しようとするもので、近似しようとする関
数の入力値、出力値を[0、1]の範囲の値をとるよう
に規格化し、それからニューラルネットの出力値と望ま
しい出力値の誤差が小さくなるように学習させる。ま
た、データ解析では、異なる解析方法が必要である。す
なわち関数近似の場合は、出力値の値域を分割して、そ
れぞれの小区間に出力値を持つデータ数によりデータに
よる値域の網羅状態を確かめる必要があり、パターン認
識の場合は、一つ一つの出力ノードについてデータの網
羅状態を見るのではなく、出力層が全体としてどのよう
なパターンを出力して、それぞれのパターンに対応する
データの数は均一になっているかを確かめる必要があ
る。
【0007】こうした利用目的に応じてニューラルネッ
トの構築を行うために、たとえばパターン認識の場合
に、認識すべきパターンがどのカテゴリに属するかを決
定できればそれで学習を終了すれば良い、という点に着
目して学習の高速化を行う方法が、阿部重夫他、”パタ
ーン認識用ニューラルネットのチューニング法”、第42
回情報処理全国大会Vol.2、pp. 153-154に述べられてい
る。また、従来の構築支援装置におけるテスト方法は、
ニューラルネットの利用目的に関わらず、実際の出力と
テストデータの出力教師値の誤差によりニューラルネッ
トの性能を判断するものが用いられていた。
【0008】
【発明が解決しようとする課題】上記従来技術のよう
に、それぞれのニューラルネットの利用目的に応じ、ニ
ューラルネット構築の各段階に適用できる技術があり、
また従来の構築支援装置ではそれらを利用できるように
していた。しかし、どの技法を構築の各段階で用いるか
の選択はユーザの判断にまかされていた。ところが、ニ
ューラルネットの構築に際しては、各段階の処理を何回
も繰り返し行う必要があるので、その繰り返しの度にそ
の段階の処理方法を間違えないように選ぶ必要があり、
わずらわしさ及び間違いの可能性という点で効率的とは
いえなかった。また、テスト段階においては、利用目的
に応じた適切なテスト方法が提供されていないという問
題があった。
【0009】本発明の目的は、ニューラルネットの構築
に際して、最初に一度その利用目的を設定するだけで、
途中ではその目的を意識しなくても構築が行えるように
したニューラルネットの構築支援装置を提供するにあ
り、またその設定した利用目的に適したテスト方法でテ
ストを行える支援装置及びテスト装置、並びにそれを利
用した薬注制御システムを提供するにある。
【0010】
【課題を解決するための手段】上記の目的は、構築する
ニューラルネットの利用目的を個々のニューラルネット
と対応づけて記憶する利用目的記憶手段と、上記利用目
的ごとに用意されたニューラルネット構築のための構築
支援手段と、ニューラルネット構築時に上記利用目的記
憶手段に記憶された利用目的に応じた構築支援手段を自
動的に選択してニューラルネット構築作業の支援を行え
るようにする管理手段とを設けることにより達成され、
また、ニューラルネットの利用目的に応じた性能判定手
段を具備する事により達成される。
【0011】
【作用】ユーザが最初にこれから構築するニューラルネ
ットの利用目的を入力して、利用目的記憶手段に記憶し
ておけば、学習/テストデータの解析、学習手段、及び
評価手段などがその利用目的対応で自動的に選ばれるの
で、ニューラルネットの構築作業が正確かつ効率的に行
える。また、利用目的に適した評価手段を用いること
で、ニューラルネットの評価を目的にかなった形で行え
る。
【0012】
【実施例】以下、本発明の実施例を図面に基づいて説明
する。図1は、本発明になるニューラルネット構築支援
装置の一実施例を示すブロック図である。本実施例は、
構築支援装置とユーザの間の情報の伝達を行う情報入出
力装置101と、ユーザからの命令やニューラルネット
の利用目的に応じて適切な構築手段の実行を管理するニ
ューラルネット構築管理装置102と、ニューラルネッ
ト構築管理装置102の命令で指定された構築手段を実
行する構築手段実行装置103と、ニューラルネットの
構築手段を記憶する構築手段記憶装置104と、ニュー
ラルネットのニューロンの結合の構成や結合の重み、さ
らにそのニューラルネットの利用目的を記憶するニュー
ラルネット情報記憶装置112と、テストデータを記憶
するテストデータ記憶装置113と、教師データを記憶
する教師データ記憶装置114とから構成される。ここ
で構築手段実行装置103は、複数ニューラルネットの
構築を同時に進めることができるようにするために、同
装置が複数個設けられているとする。また、構築手段記
憶装置104には、構築手段としてニューラルネットの
初期化を行うための初期化手段105と、学習手段とし
てのBP(バックプロパゲーション)法学習手段106
および高速学習法学習手段107と、テスト手段として
の関数近似用テスト手段108およびパターン認識用テ
スト手段109と、データ解析手段としての関数近似用
データ解析手段110およびパターン認識用データ解析
手段111とが記憶されている。
【0013】以上に示した本実施例の動作の大まかな流
れは、従来技術の説明でも用いた図2のフローチャート
に示されている。以下、この図に従って本実施例の動作
を説明する。まずステップ201では学習用データ、テ
スト用データおよびニューラルネットの構成をユーザが
用意し、入力する。この内の学習用データは、これから
構築するニューラルネットに覚えさせる入力値と、その
入力値に対応する望ましい出力値の組の集合であり、入
力されたデータは、図1の学習用データ記憶装置113
に記憶される。
【0014】図3は、記憶装置113に記憶される学習
用データの形式を示すもので、入力層のニューロン数が
L個、出力層のニューロン数がN個、学習用データのケ
ース数がK個であるとしている。データの横1行が一組
の学習データに対応し、たとえばデータの1行目は、入
力層の1、2、・・・L番目のニューロンに0.8,0.2,・
・・0.0がそれぞれ入力されたときに、出力層の1、
2、・・・N番目のニューロンから1.0,0.0,・・・0.0
をそれぞれ出力する場合の学習用データのケースを表し
ている。また、テスト用データも上記学習用データと同
様に入力値とそれに対応する望ましい出力値の組から成
り、テスト用データ記憶装置114に図3と同様の形式
で記憶される。また、ニューラルネットの構成は、ユー
ザが情報入出力装置101を通じて、各層のニューロン
数を入力する事により決定される。ただし、入力層と出
力層は学習用データに依存して自動的に決定することも
できる。ニューラルネット構築管理装置102は、入力
されたニューロン数を受け取り、ニューロン間の結合の
重みの初期値を決定するように構築手段実行装置103
に命令を送る。構築手段実行装置103は、初期化手段
105によりニューラルネットの初期化を行う。こうし
て決定されたニューロン数とニューロン間の結合の重み
は、ニューラルネット情報記憶装置112に記憶され
る。
【0015】次に図2のステップ202では、ユーザは
構築支援装置にニューラルネットの利用目的が、関数近
似かパターン認識かをまず入力する。利用目的は、情報
入出力装置101から入力され、ニューラルネット構築
管理装置102で対象となるニューラルネットと対応づ
けられて、ニューラルネット情報記憶装置112に記憶
される。ここで設定された利用目的に従って、以降のデ
ータ解析/学習/テストのそれぞれの段階で利用目的特
有の方法が自動的に選択され、適用される。このように
ニューラルネットの利用目的を入力し、記憶して以降の
処理で用いる点は、従来行われていなかったものであ
る。
【0016】図4は、ステップ201、202でニュー
ラルネット情報記憶装置112に記憶されるデータの形
式を示しており、入力層、中間層および出力層のニュー
ロン数がそれぞれ10個、8個、5個であり、入力層と
中間層のニューロン間の結合の重みを記憶しているテー
ブル402へのポインタと、中間層と出力層とのニュー
ロン間の結合の重みを記憶しているテーブル403への
ポインタと、本発明の特徴である利用目的とが記憶され
ており、この場合は“パターン認識”であることが示さ
れている。結合の重みを記憶するテーブル402は、横
方向に入力層のニューロンと一個のバイアスニューロ
ン、縦方向には中間層のニューロンと1個のバイアスニ
ューロンを示しており、テーブル403では横方向に中
間層のニューロンと一個のバイアスニューロン、縦方向
に出力層のニューロンを示しており、たてよこ方向の交
差する位置にその2つのニューロン間の重みが示されて
いる。例えば、テーブル402で入力層の2番目のニュ
ーロンと中間層の2番目のニューロンは重み -3.6 で結
合していることを示している。
【0017】以上の入力が終わると、次にデータ解析が
開始される。この段階で、図1のニューラルネット構築
管理装置102の指示により構築手段実行装置103で
学習用/テスト用データの解析を行い、その結果を情報
入出力装置101を通じてユーザに提示する。これは学
習用/テスト用データに偏りがないかを確かめるもので
ある。本構築支援装置において、解析方法はニューラル
ネットの利用目的によって異なる方法が自動的に選択、
適用される。すなわちパターン認識の場合は、学習用デ
ータ/テスト用データをその望ましい出力値のパターン
で分類し、それぞれのパターンを出力値に持つデータ数
が均一かどうかを確かめる。これによって偏ったデータ
セットになっていないかを確かめることができる。一
方、関数近似の場合は、出力ノードの値域を小区間に分
割し、それぞれの小区間に出力値を持つかどうかでデー
タを分類する。そこでパターン認識の場合と同様に、そ
れぞれの小区間のデータ数が均一かどうかを確かめる。
この場合も、偏ったデータがないかどうかを確かめるこ
とができる。このように、利用目的に応じて異なる方法
で解析する理由は次にようである。まず、利用目的がパ
ターン認識の場合のデータに関数近似の解析方法を適用
したとすると、関数近似の解析方法は出力ノード毎にデ
ータの分布が計算されるので、出力ノード全体のパター
ンについて偏りがないかを確かめることはできないから
である。逆に、関数近似のデータにパターン認識の解析
方法を適用しようとした場合は、データ解析装置は出力
ノード全体としてのパターン毎にデータを分類するが、
関数近似では出力は区間[0、1]内の任意の値になる
から、出力パターンが無数にできてしまい、データの偏
りを確かめることはできないからである。
【0018】図2のステップ203では、まず学習に必
要な学習パラメータを情報入出力装置101から入力す
る。学習パラメータには、学習回数、学習係数、安定化
係数、打ち切り誤差があり、構築管理装置102によっ
てニューラルネット情報記憶装置112へ記憶される。
【0019】図2のステップ204では、ニューラルネ
ットの学習を行う。学習方法は、利用目的が関数近似の
場合の通常のバックプロパゲーション法のみ用いた学習
法と、パターン認識の場合の高速学習法とがある。この
両者は利用目的によって厳密に分けて適用する必要があ
る。ニューラルネットの利用目的が関数近似の場合は、
2乗誤差を小さくするバックプロパゲーション法で問題
はない。しかし、パターン認識の場合は2乗誤差ではな
く、入力されたパターンが正しいカテゴリに属している
かどうかで学習状況を確かめるべきである。阿部重夫
他、”パターン認識用ニューラルネットのチューニング
法”、第42回情報処理全国大会Vol.2、pp. 153-154
ではその目的にあったパターン認識の学習方法が示され
ている。この方法は、全ての教師データのパターンに対
し、“0”を出力すべきニューロンは 0.5より小さな値
を、“1”を出力すべきニューロンは 0.5 より大きな
値を出力するようになった時点で結合重みの修正を終了
する。その後、バックプロパゲーション法とは別の手法
により、出力がそれぞれ“0”または“1”に近づくよ
うに重みの修正を一括して行う。この方法は、バックプ
ロパゲーション法とは異なり、“0”または“1”に収
束するまで学習を進めるわけではなく、“0”/“1”
に分離できたあとの重みの修正は一括してで行えるの
で、学習が早くすむという利点もある。ニューラルネッ
トの構築においては、学習の時間がその大半を占めてい
るので、学習時間を短縮することは構築の効率アップに
つながる。以下、この学習方法を”高速学習法”と呼ぶ
ことにする。しかし、この高速学習法を利用目的が関数
近似のニューラネットに適用することはできない。なぜ
なら、高速学習法は、ニューラルネットの出力が“0”
または“1”であることを仮定しているからである。
【0020】そこで、学習に当たっては、図1のニュー
ラルネット情報記憶装置112に記憶されている利用目
的をニューラルネット構築管理装置102が参照して、
ニューラルネットの利用目的が関数近似ならBP法学習
手段106を選択し、利用目的がパターン認識なら高速
学習法学習手段107を選択する。その選択された学習
方法を用いて、構築手段実行装置103が学習を実行す
る。学習結果はニューラルネット情報記憶装置112に
記憶される。
【0021】上記の二つの学習の進め方を表したのが図
5、図6である。まず、図5の関数近似の場合には、ス
テップ501で構築手段実行装置103が、ニューラル
ネット情報記憶装置112と学習用データ記憶措置11
3の情報を基に、1回のバックプロパゲーション法によ
りノード間の結合重みの修正を行う。次のステップ50
2では、図2のステップ203で設定した学習パラメー
タのうち、学習回数や打ち切り誤差といった学習の終了
条件が成立しているかどうかをチェックする。ステップ
503の段階では上記チェックにより、条件が成立して
いれば学習を終了する。もし、成立していなければステ
ップ501に戻り、もう一度バックプロパゲーション法
による学習を再び行い、これを終了条件が成立するまで
繰り返す。
【0022】図6のパターン認識の場合の高速学習法で
は、最初にステップ601ですべての教師データについ
てバックプロパゲーション法で学習を行う。次に、ステ
ップ602、603でこの高速学習法の特徴である
“0”/“1”の収束判定を行う。この判定で、“0”
と“1”の出力が分離して認識できる場合、バックプロ
パゲーション法による結合重みの修正を終え、ステップ
604で結合重みの一括修正を行い、学習を終了する。
一方、まだ分離して判定できない場合は、ステップ60
5、606で、先に設定した学習パラメータの学習終了
条件が成立しているかをチェックする。もし成立してい
れば学習を終了するが、成立していなければステップ6
01に戻って、バックプロパゲーション法によるニュー
ロン間の結合重みの修正から繰り返す。
【0023】このように、本実施例では、ニューラルネ
ットの利用目的に応じた学習方法の選択は自動的に行わ
れる。従来の装置ではユーザが利用目的を意識して学習
方法を選択する必要があり、また誤った学習方法を適用
すると学習に時間が掛かりすぎるなどの問題があった
が、本実施例ではこれらが自動化され、学習方法の選択
に煩わされることがなくなる。
【0024】学習が終了すると、次のステップ205で
本構築支援装置はニューラルネットのテストを行う。こ
こでのテスト方法も、ニューラルネットの利用目的に応
じて次のものが用いられる。パターン認識では、出力値
が“0”か“1”かをデジタル的に判定する必要がある
ので、いくら以上を“1”とし、いくら以下を“0”と
判断するかのしきい値を定め、そのしきい値で出力値が
正しいかどうかを判断する。これに対し関数近似では、
ニューラルネットの出力値と望ましい出力値の誤差の大
きさをアナログ的に評価する必要があるので、「望まし
い値の出力値との誤差が 0.2 以下であれば良い」とい
うような出力値に関する許容誤差を定め、ニューラルネ
ットの出力値が正しいかどうかを判定する。また、この
テスト方式を利用するため、本発明では、前記のデータ
解析・学習の段階で使用した方法と同じやり方で、情報
入出力装置101からユーザのテスト開始の命令を受け
ると、ニューラルネット構築管理装置102がニューラ
ルネット情報記憶装置112の利用目的を参照し、その
利用目的に合致したニューラルネットのテスト方法を自
動的に選択し、構築手段実行装置103がその選択に応
じてテストを実行する。
【0025】図7は、テストデータの処理方法とそのテ
スト結果の評価方法の実施例を示すPAD図で、この実
施例のテストでは、ニューラルネットの学習状況を次の
基準で判断する。
【数1】正解率(%)={正解であったケース数}/{テ
ストデータのケース数}×100 ここで、「正解」とはユーザがあらかじめ定めた出力の
判定規準によりニューラルネットの出力値が正しい場合
のことで、正解率が高いほど良いニューラルネットとい
うことになる。そして、ニューラルネットの出力値の判
定規準は、ニューラルネットの利用目的によって変わっ
てくるから、本発明の装置ではニューラルネット情報記
憶装置112の利用目的を参照し、関数近似の場合は各
出力ニューロンについて許容誤差のみを設定することが
でき、パターン認識の場合には、しきい値のみを設定す
ることができるように制限を加える。ユーザによって入
力された条件は、ニューラルネット情報記憶装置112
に、対象となるニューラルネットと組み合わせて、利用
目的によって違うテーブルに記憶される。具体的には、
関数近似の場合は図8のようなテーブル形式でそれぞれ
の出力ニューロンの許容誤差を格納する。図8の例で
は、出力層の1、2、・・・N番目のニューロンの出力
誤差がそれぞれ 0.02,0.1,・・・0.05 以下であれば許
容できることを示している。一方パターン認識の場合
は、図9のようなテーブル形式で“0”“1”を判別す
るためのしきい値を格納する。図9の例では、0.1 以下
を“0”と判定し、0.9 以上を“1”と判定する条件を
示している。
【0026】このような判定基準が入力されると、図1
の関数近似用テスト手段108またはパターン認識用テ
スト手段109を用いて図7の処理が行われる。まずス
テップ701で、正解のケース数を数える変数 true を
0にする。次にステップ702でテストデータのケース
数の繰り返しをセットし、ステップ703でテストデー
タのそれぞれのケースを学習ずみのニューラルネットに
入力して出力値を計算する。次にステップ704でニュ
ーラルネットの利用目的が関数近似かパターン認識かを
判定し、それぞれの場合の出力ノード数の繰り返しをス
テップ705または709で設定する。次に関数近似の
場合は、ステップ706で、教師データの望ましい出力
値と実際のニューラルネットの出力値の差の絶対値を求
め、ステップ707でその誤差がテスト条件記憶装置1
09に記憶されている許容誤差より小さいかどうかを確
かめる。このテストを全ての出力ニューロンについて繰
り返し、すべて許容誤差以下となったときは、そのこと
をステップ708で判定し、そのテストデータのケース
は正解であるとして、ステップ713で変数 trueを1
増加させ、次のテストデータのケースへと進む。一方、
パターン認識の場合は、ステップ710でニューラルネ
ット情報記憶装置112内に記憶されている図9のよう
なしきい値に応じて、ニューラルネットの出力が“0”
であるか“1”であるかを判定する。この判定で全出力
ニューロンの出力が“0”か“1”であると判定でき、
かつその判定結果が教師データの望ましい出力値と等し
ければ、そのことをステップ711、712で判定し、
ステップ713で変数 true を1増加させて次のテスト
データのケースへ移る。以上の処理をテストデータのケ
ース数だけ繰り返すと、正解であるケース数が変数 tru
e の値として得られる。こうして全ケース数が終了する
と、ステップ714へ移り、
【数2】正解率(%)=true/{テストデータのケース
数}×100 により正解率を算出する。これをニューラルネットのテ
スト結果として出力する。
【0027】従来の装置では、以上に述べたような、利
用目的に応じたテスト方法は提供されておらず、パター
ン認識、関数近似に関わらず、ユーザは装置が出力する
ニューラルネットの出力値と望ましい出力値を比較し
て、ニューラルネットの性能を判断しなければならなか
った。しかし本実施例では、自動的に利用目的に応じた
評価法で評価が行われるから、ユーザは確実にかつ容易
にニューラルネットの評価を行うことができる。
【0028】次に、浄水場における薬注制御システムへ
の本発明の実施例を説明する。浄水場では、ろ過の初期
の段階で、まず取水した原水にポリ塩化アルミニウムを
注入し、原水に含まれる不純物をフロックと呼ばれる塊
とし、このフロックを沈澱させて取り除く。この浄水作
業を効率よく実施するためには、適切な形と大きさのフ
ロックを形成させる必要があり、フロック形成の調節は
凝集剤であるポリ塩化アルミニウムの注入量の制御によ
り行われている。そしてこの制御は、熟練操作員の経験
に従って決定されていたが、ここで述べる薬注制御シス
テムは、この従来の方法による熟練操作員負担を軽減す
るために、ニューラルネットを応用した制御システムで
ある。
【0029】このような薬注制御システムでは、2つの
ニューラルネットが用いられている。それは、原水の濁
度が低い場合に用いられる低濁度用ニューラルネット
と、濁度が高い場合に用いられる高濁度用ニューラルネ
ットの2つである。2つのニューラルネットが用いられ
ている理由は、出力値である薬剤の注入量の値域が広
く、一つのニューラルネットでその値域をすべてカバー
しようとすると、精度がでなくなるからである。こうし
て2つのニューラルネットを用いたとき、どちらを用い
て注入量を決定するかの選択は、原水濁度の高低によ
り、あるしきい値以上の場合は高濁度用ニューラルネッ
トを用い、しきい値より小さい場合には低濁度用ニュー
ラルネットというように行われている。しかし、原水の
アルカリ度やその時の雨量によって低濁度の範囲内であ
っても、高濁度の場合と同様の操作を行うというよう
に、濁度だけからは単純に判断できない場合も存在す
る。例えば、アルカリ度が高い場合、そのアルカリを中
和するために通常より多めの凝集剤を注入するといった
操作が熟練操作員によって行われている。そのような場
合も、凝集剤の注入量を自動的に決定するために、この
ニューラルネットの選択もニューラルネットで行う事が
考えられる。
【0030】そこでここでは、高濁度用ニューラルネッ
ト、低濁度用ニューラルネットの他に、そのどちらで薬
剤の注入量を決めるかの選択用ニューラルネットの3つ
のニューラルネットから構成される薬注制御システムを
考え、その構築への本発明の適用例を述べる。図10は
上記3つのニューラルネットの構成例を示しており、高
濁度用ニューラルネットワークの部分は図示を省略して
いる。選択用ニューラルネットワーク1001は、薬注
量の決定を高濁度用ニューラルネットで行うか低濁度用
ニューラルネットで行うかを決定するもので、入力値は
原水の濁度、アルカリ度、および雨量である。そして高
濁度用ニューラルネットが用いられる場合は、そのニュ
ーラルネットに対応する出力ニューロンが“1”を出力
し、他方は“0”を出力する。逆に、低濁度用ニューラ
ルネットが必要とされる場合は、低濁度用ニューラルネ
ットに対応する出力ニューロンが“1”を出力し、他方
が“0”を出力する。一方、注入量決定用ニューラルネ
ットワーク1002は、凝集剤の注入量を決定するもの
で、入力値は現在の水温、濁度、ph、アルカリ度、お
よび原水流量の値と、その5つの項目の5時間前の値
と、更にその5項目の現在の値と5時間前の値との差の
合計15項目であり、出力は凝集剤の注入量である。こ
こで、選択用ニューラルネット1001は、3つの入力
値に対して、凝集剤の注入量の決定に高濁度用ニューラ
ルネットを用いるか、低濁度用ニューラルネットを用い
るかという観点での2つのカテゴリに分けるという意味
で、ニューラルネットの”パターン認識”的用法であ
る。また、高濁度用ニューラルネットと低濁度用ニュー
ラルネットは、15項目の入力に対してそれに応じた値
(薬注量)を出力するので、ニューラルネットの”関数
近似”的用法である。
【0031】このような、複数のニューラルネットが組
み合わされて使用されるシステムを構築する場合、それ
ぞれのニューラルネットを個々に構築するよりも、全体
を同時平行に構築し、全体を組み合わせてテストしなが
ら構築を進めていく方が効率的である。また、ニューラ
ルネットの構築においては、学習時間がニューラルネッ
ト構築の大部分の時間を占めている。そのため、学習中
はその他のニューラルネットの構造の検討や、学習用/
テスト用データの解析といった作業が行えると構築作業
が効率よくなる。この様に複数のニューラルネットを同
時並行に構築していく場合、従来の構築支援装置では、
それぞれのニューラルネットの利用目的を意識しなが
ら、解析/学習/テストの各構築段階の方法を毎回選択
する必要があった。これは、ニューラルネットが繰り返
し、試行錯誤的に構築が進められることを考えると、ユ
ーザには更に大きな負担になることがある。また、その
負担のために、ユーザによる誤りが入り込み、品質のよ
くないニューラルネットが構築される可能性があった。
【0032】本実施例はこうした問題の解決を図ったも
ので、複数のニュ−ラルネットの構築を簡単にするため
に、入出力手段としてウィンドウシステムを用いること
にし、まずユーザが図11に示したニューラルネット一
覧ウィンドウから、薬注制御システムに用いられるニュ
ーラルネット名と、本構築支援装置の特徴であるニュ−
ラルネットの利用目的をあわせて設定する。ここでは、
ニューラルネット名設定欄1101に3つのニューラル
ネット名“選択用ニューラルネット”、“低濁度用ニュ
ーラルネット”、及び“高濁度用ニューラルネット”を
設定し、また利用目的設定欄1102に各ニューラルネ
ットの利用目的を設定する。この情報は、図1の情報入
出力装置101からユーザによって入力され、ニューラ
ルネット構築管理装置102によってニューラルネット
情報記憶装置112に記憶され、デ−タの解析/学習/
テストの各段階における構築手段の選択時にニューラル
ネット構築管理装置102によって参照される。
【0033】以上の設定についで、それぞれのニューラ
ルネットの構築が行われるが、各々のニューラルネット
の構築に際しては、図12に示したようなニューラルネ
ット編集ウィンドウを開き、その上で作業を行う。この
ウィンドウには、ニューラルネットのデータ解析/学習
/テスト等のウィンドウを開くメニュー1201と、ニ
ューラルネットの編集領域1202が設けられている。
【0034】図13は3つのニューラルネットワーク構
築の進め方の一例を、横軸を時間軸にとってタイムチャ
ートで示したもので、作業項目としては3つのニューラ
ルネットワークの個々の構築と、それらの組み合わせテ
ストの4つの項目を取っている。ユーザはまず、図13
の処理1301で、“低濁度用ニューラルネット”の構
築を始める。即ち、図11のニューラルネット一覧ウィ
ンドウから、“低濁度用ニューラルネット”を選択し、
図12のニューラルネット編集ウィンドウを開く。さら
にこの編集ウィンドウから、ユーザは学習用/テスト用
データを解析するため、”解析”メニューを選択し、デ
ータ解析ウィンドウを開く。この場合、ニューラルネッ
ト情報記憶装置112に設定されている“低濁度用ニュ
ーラルネット”の利用目的が“関数近似”であるから、
ニューラルネット構築管理装置102は情報入出力装置
101に、図14に示したような関数近似用の解析ウィ
ンドウを表示する。こうして解析を行うと、解析ウィン
ドウのグラフ表示部1404には、出力ノードごとの値
域の出現頻度を示すグラフが表示される。これは値域を
下限値1401と上限値1402からきめ、その間を刻
み幅1403で区切った個々の区間に対応するデータの
個数を棒グラフで表示したものである。利用目的が関数
近似の場合の解析の結果については、次のような判断を
行うことができる。解析結果のグラフが図15の様にな
った場合、値域全体に渡ってほぼ均一にデータが散らば
っている。そのため、値域を網羅した、よいデータセッ
トであるといえる。一方、解析結果のグラフが図16の
様になった場合、データが値域を網羅していない。その
ため、データが学習用データであった場合はその部分に
対する学習が不十分になるし、テスト用データの場合は
その部分に対するテストが不十分になる可能性があり、
よいデータセットとは言えない。
【0035】データ解析が済むと、ユーザは編集ウィン
ドウに戻ってニューラルネットの構造を設定し、次に、
編集ウィンドウの“学習”メニューを選択する。図17
はこのとき表示される学習ウィンドウを示しており、こ
のウィンドウでユーザは学習用データセット等を設定欄
1701に設定し、学習の終了条件1702も設定す
る。この設定までの進捗は、図13の解析・設定段階1
301で行われる。こうして全ての設定が済むと、ユー
ザは学習ウィンドウの“実行”ボタンを押下して学習を
始める。“実行”ボタンが押下されたタイミングでニュ
ーラルネット構築管理装置102は構築手段実行装置1
03に命令を出し、構築手段実行装置103は学習用デ
ータ記憶装置113の学習用データセットの情報とニュ
ーラルネット情報記憶装置112の情報を基に学習を行
う。この場合も、利用目的が関数近似のであるため、ニ
ューラルネット構築管理装置102が学習手段として構
築手段記憶装置104のBP法学習手段を選択するの
で、図12に示した通常のバックプロパゲーション法の
手順を用いて学習が行われる。そしてグラフ1703に
は、学習の進行に伴う誤差のグラフが表示される。図1
3の学習1302は、この学習中の時間帯を示してい
る。
【0036】この低濁度用ニューラルネットの学習時間
中は、ユーザは低濁度用ニューラルネットワークに対し
て何もすることがないから、他のニューラルネットの構
築にその時間を当てることができる。そこで図13の解
析・設定1303の段階で、ユーザは高濁度用ニューラ
ルネットの解析・設定を行い、つづいてその学習を開始
する。このニューラルネットの利用目的は関数近似であ
るので、上記の低濁度用ニューラルネットの構築と同様
の手段で構築が行われる。
【0037】こうして高濁度用ニューラルネットの学習
が開始されるが、この学習中もユーザは手空きとなるの
で、3つめのニューラルネットである選択用ニューラル
ネットのためのデータ解析・設定1304を行う。この
場合には、選択用ニューラルネットの利用目的が“パタ
ーン認識”であるので、“関数近似”の場合とは異なる
構築手段が自動的に選択、適用される。すなわちデータ
の解析段階では、図18のパターン認識用の解析ウィン
ドウが表示される。この場合も、ニューラルネット構築
管理装置102がデータ解析手段としてパターン認識用
データ解析手段111を選択し、構築手段実行装置10
3が解析を実行する。この構築手段実行装置103とし
ては、今、学習に用いられているものとは別のものが、
ニューラルネット構築管理装置102により選ばれ、解
析が行われる。図18に示したウィンドウでは、出力ノ
ード名1801の各ノードに対する出力パターン180
2、1803と、このパターンを出力値として持つデー
タの個数1804が表示される。図18の結果は、ノー
ド“低濁度用”が“1”を出力し、ノード“高濁度用”
が“0”を出力するパターンを望ましい出力として持つ
データが32件あり、逆のパターンを持つデータが38
件あることを表している。もし図19に示した様に、一
方のパターンにデータが偏っている場合は、学習/テス
トにおいて偏ったものになることが考えられる。この場
合、低濁度ノードが“0”を、高濁度ノードが“1”を
出力するパターンに関しては精度よく出力されるが、逆
のパターンの出力は正しく出力されない。
【0038】こうして選択用ニューラルネットの学習が
開始されると、どれかの学習の終了待になる。図13で
は高濁度用ニューラルネットの学習が先に終了するの
で、このニューラルネットワークのテスト1305が開
始される。すなわち、高濁度用ニューラルネットの編集
ウィンドウからテストメニューを選択すると、ニューラ
ルネット構築管理装置102が、利用目的が関数近似で
あることから構築手段記憶装置104の関数近似用テス
ト手段108を選択し、図20のような関数近似用テス
トウィンドウが情報入出力装置101に表示される。こ
の関数近似用のテストウィンドウは、テストデータセッ
ト名2001とテストデータセット毎の正解率2002
が表示される。また本装置では、テストデータセットを
複数個持つことがき、それぞれについてテストを行うこ
とができる。下の遷移ボタン2003は、ノード別許容
誤差の設定ウィンドウへの遷移を行うためのものであ
る。このボタンを押下すると、図21に示したようなノ
ード別許容誤差設定ウィンドウが表示される。このウィ
ンドウでは、出力ノードのノード名2101と各ノード
に対する許容誤差2102が表示される。この許容誤差
はユーザが設定するもので、図21ではノード名として
“薬注量”、ノードの許容誤差が“0.1”と設定されて
いる。この設定が終わると、ユーザは“実行”ボタンを
押下してテストを実行する。この実行結果は、テストデ
ータごとの正解率として図20に示したテストウィンド
ウに表示されるから、ユーザはこれを見て高濁度用ニュ
ーラルネットワークの評価を行い、よければ次に低濁度
用ニューラルネットワークについて上記と同様なテスト
・検討1306を行う。そしてこの例では、ニューラル
ネットワークの性能として不十分として改めてニューラ
ルネットワーク設定を変更し、学習を始めている。
【0039】この低濁度用ニューラルネットワークの2
度目の学習が開始されると、ユーザは選択用ニューラル
ネットのテスト1307を開始する。これは図12のニ
ューラルネット編集ウィンドウから“テスト”メニュー
を選択することから始まる。この選択により、ニューラ
ルネット構築管理装置102は利用目的がパターン認識
であることから、パターン認識用テスト手段109を自
動的に選択し、これによって情報入出力装置101に
は、図22に示したようなパターン認識用テストウィン
ドウが表示される。このウィンドウで、テストデータセ
ット名設定欄2201にテストデータをセットし、
“0”と判定するしきい値2203及び“1”と判定す
るしきい値2204をそれぞれ設定して“実行”ボタン
を押下すると、テストが開始される。こうして実行され
たテスト結果は、正解率2202に表示される。
【0040】この選択用ニューラルネットワークの性能
が十分であれば、低濁度用ニューラルネットワークの2
度目の学習を待ってそのテスト・検討1308を行う。
その結果が良好なら3つのニューラルネットワークは一
応目的とする性能を持つから、それらの組合せテストを
行い、結果が不十分ならこの例では高濁度用ニューラル
ネットワークの学習データなどを変更し、その解析13
10と学習を行う。以下、こうした繰り返しを、全体の
性能が満足されるまで繰り返す。
【0041】以上のように、複数のニューラルネットを
同時並行に構築していくと、作業の途中でニューラルネ
ットワークの利用目的が変わる場合が出てくるが、その
たびにユーザはそのニューラルネットの利用目的を意識
して、構築機能を間違いなく選択していく必要がある。
しかし本実施例によれば、構築の最初の段階で、ニュー
ラルネットワーク毎の利用目的を入力して記憶し、構築
機能の選択に利用してる。従って、構築対象を変えなが
らの作業を行うときでもユーザは余計な負担を受けるこ
となく、構築を進めていくことができる。
【0042】
【発明の効果】本発明によれば、ニューラルネットの構
築を始める前にニューラルネットの利用目的をユーザが
設定し、その設定された利用目的に基づきニューラルネ
ットの構築手順の各段階で構築技法が自動的に選択され
る。従って、ユーザの構築技法の選択のまちがいによ
り、ニューラルネットの性能が低下することを防ぐこと
ができ、同時にユーザが構築技法を覚えておいて選択す
るという負担がなくなる。また、利用目的に応じたテス
ト方法を提供したことにより、より的確なニューラルネ
ットの性能評価を行える効果がある。
【図面の簡単な説明】
【図1】本発明の装置の一実施例を示すブロック図であ
る。
【図2】ニューラルネットの一般的な構築手順を示すフ
ローチャートである。
【図3】教師データ及びテストデータを格納するテーブ
ルの例を示す図である。
【図4】ニューラルネットの情報を格納するテーブルの
例を示す図である。
【図5】通常のバックプロパゲーション学習法を示すフ
ローチャートである。
【図6】パターン認識用の高速学習法の手順を示すフロ
ーチャートである。
【図7】本発明でのテスト方法を示すPAD図である。
【図8】関数近似の出力許容誤差を格納するテーブルの
例を示す図である。
【図9】パターン認識の判定用しきい値を格納するテー
ブルの例を示す図である。
【図10】薬注制御システム用ニューラルネットの構成
図である。
【図11】ニューラルネット一覧ウィンドウを示す図で
ある。
【図12】ニューラルネット編集ウィンドウを示す図で
ある。
【図13】薬注制御システム構築手順の一例を示すタイ
ムチャートである。
【図14】関数近似用データ解析ウィンドウを示す図で
ある。
【図15】良好な関数近似用データの例を示す図であ
る。
【図16】よくない関数近似用データの例を示す図であ
る。
【図17】学習用ウィンドウを示す図である。
【図18】パターン認識用データ解析ウィンドウを示す
図である。
【図19】パターン認識用データの解析結果の例を示す
図である。
【図20】関数近似用テストウィンドウを示す図であ
る。
【図21】ノード別許容誤差設定ウィンドウを示す図で
ある。
【図22】パターン認識用テストウィンドウを示す図で
ある。
【図23】ニューラルネットの一般的な構成の例を示す
図である。
【符号の説明】
101 情報入出力装置 102 ニューラルネット構築管理装置 103 構築手段実行装置 104 構築手段記憶装置 106 BP法学習手段 107 高速学習法学習手段 108 関数近似用テスト手段 109 パターン認識用テスト手段 110 関数近似用データ解析手段 111 パターン認識用データ解析手段 112 ニューラルネット情報記憶装置 113 学習用データ記憶装置 114 テスト用データ記憶装置

Claims (9)

    【特許請求の範囲】
  1. 【請求項1】 構築するニューラルネットの利用目的を
    個々のニューラルネットと対応づけて記憶し、ニューラ
    ルネット構築時に上記記憶された利用目的に応じて、利
    用目的ごとに用意された構築支援手段を自動的に選択し
    てニューラルネット構築作業の支援を行うようにするこ
    とを特徴とするニューラルネット構築支援方法。
  2. 【請求項2】 構築するニューラルネットの利用目的を
    個々のニューラルネットと対応づけて記憶する利用目的
    記憶手段と、上記利用目的ごとに用意されたニューラル
    ネット構築のための構築支援手段と、ニューラルネット
    構築時に上記利用目的記憶手段に記憶された利用目的に
    応じた構築支援手段を自動的に選択してニューラルネッ
    ト構築作業の支援を行えるようにする管理手段とを備え
    たことを特徴とするニューラルネット構築支援装置。
  3. 【請求項3】 前記利用目的は、関数近似とパターン認
    識であることを特徴とする請求項2記載のニューラルネ
    ット構築支援装置。
  4. 【請求項4】 前記構築支援手段は、ニューラルネット
    の利用目的に応じた教師/テストデータの解析手段を含
    むことを特徴とする請求項2または3に記載のニューラ
    ルネット構築支援装置。
  5. 【請求項5】 前記構築支援手段は、ニューラルネット
    の利用目的に応じた学習手段を含むことを特徴とする請
    求項2または3に記載のニューラルネット構築支援装
    置。
  6. 【請求項6】 前記構築支援手段は、ニューラルネット
    の利用目的に応じた性能判定手段を含むことを特徴とす
    る請求項2または3に記載のニューラルネット構築支援
    装置。
  7. 【請求項7】 ニューラルネットの利用目的に応じた性
    能判定手段を具備したことを特徴とするニューラルネッ
    トテスト装置。
  8. 【請求項8】 請求項7に記載のニューラルネットテス
    ト装置を、構築するニューラルネットの評価手段として
    用いたことを特徴とするニューラルネット構築支援装
    置。
  9. 【請求項9】 請求項1〜6、8のいずれか1つのニュ
    ーラルネット構築支援装置を、浄水場における温度の高
    低に応じた2つのニューラルネットの構築に用いた薬注
    制御システム。
JP5006248A 1993-01-18 1993-01-18 ニューラルネット構築支援方法及び装置、ニューラルネットテスト装置、薬注制御システム Pending JPH06215163A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5006248A JPH06215163A (ja) 1993-01-18 1993-01-18 ニューラルネット構築支援方法及び装置、ニューラルネットテスト装置、薬注制御システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5006248A JPH06215163A (ja) 1993-01-18 1993-01-18 ニューラルネット構築支援方法及び装置、ニューラルネットテスト装置、薬注制御システム

Publications (1)

Publication Number Publication Date
JPH06215163A true JPH06215163A (ja) 1994-08-05

Family

ID=11633196

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5006248A Pending JPH06215163A (ja) 1993-01-18 1993-01-18 ニューラルネット構築支援方法及び装置、ニューラルネットテスト装置、薬注制御システム

Country Status (1)

Country Link
JP (1) JPH06215163A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017168862A1 (ja) * 2016-03-28 2017-10-05 ソニー株式会社 情報処理装置、情報処理方法および情報提供方法
KR101889510B1 (ko) * 2018-02-05 2018-08-17 문경훈 심층 신경망을 이용한 정수 처리에서의 응집제 주입률 예측 방법
JP2019003603A (ja) * 2017-04-10 2019-01-10 株式会社クロスコンパス 人工知能モジュール開発方法、人工知能モジュール開発システム及び人工知能モジュール開発統合システム
WO2019234810A1 (ja) * 2018-06-05 2019-12-12 三菱電機株式会社 学習装置、推論装置、方法、及びプログラム
JP2020004030A (ja) * 2018-06-27 2020-01-09 株式会社クロスコンパス 人工知能パッケージの流通環境を提供する流通環境提供システム
JP2020017112A (ja) * 2018-07-26 2020-01-30 株式会社スカイディスク 正誤判定システム
JP2021507349A (ja) * 2017-12-13 2021-02-22 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 抵抗処理ユニット・アレイのクロスポイント・デバイスに重みを記憶するための方法、そのクロスポイント・デバイス、ニューラル・ネットワークを実施するためのクロスポイント・アレイ、そのシステム、およびニューラル・ネットワークを実施するための方法
JP2021177266A (ja) * 2020-04-17 2021-11-11 株式会社鈴康 プログラム、情報処理装置、情報処理方法及び学習モデルの生成方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017168862A1 (ja) * 2016-03-28 2017-10-05 ソニー株式会社 情報処理装置、情報処理方法および情報提供方法
JP2019003603A (ja) * 2017-04-10 2019-01-10 株式会社クロスコンパス 人工知能モジュール開発方法、人工知能モジュール開発システム及び人工知能モジュール開発統合システム
JP2019012555A (ja) * 2017-04-10 2019-01-24 株式会社クロスコンパス 人工知能モジュール開発システム及び人工知能モジュール開発統合システム
JP2021507349A (ja) * 2017-12-13 2021-02-22 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 抵抗処理ユニット・アレイのクロスポイント・デバイスに重みを記憶するための方法、そのクロスポイント・デバイス、ニューラル・ネットワークを実施するためのクロスポイント・アレイ、そのシステム、およびニューラル・ネットワークを実施するための方法
US11875249B2 (en) 2017-12-13 2024-01-16 International Business Machines Corporation Counter based resistive processing unit for programmable and reconfigurable artificial-neural-networks
KR101889510B1 (ko) * 2018-02-05 2018-08-17 문경훈 심층 신경망을 이용한 정수 처리에서의 응집제 주입률 예측 방법
WO2019234810A1 (ja) * 2018-06-05 2019-12-12 三菱電機株式会社 学習装置、推論装置、方法、及びプログラム
JP6632770B1 (ja) * 2018-06-05 2020-01-22 三菱電機株式会社 学習装置、学習推論装置、方法、及びプログラム
JP2020004030A (ja) * 2018-06-27 2020-01-09 株式会社クロスコンパス 人工知能パッケージの流通環境を提供する流通環境提供システム
JP2020017112A (ja) * 2018-07-26 2020-01-30 株式会社スカイディスク 正誤判定システム
JP2021177266A (ja) * 2020-04-17 2021-11-11 株式会社鈴康 プログラム、情報処理装置、情報処理方法及び学習モデルの生成方法

Similar Documents

Publication Publication Date Title
US5479573A (en) Predictive network with learned preprocessing parameters
US6144952A (en) Predictive network with learned preprocessing parameters
US5752007A (en) System and method using separators for developing training records for use in creating an empirical model of a process
US5729661A (en) Method and apparatus for preprocessing input data to a neural network
US6243696B1 (en) Automated method for building a model
US6002839A (en) Predictive network with graphically determined preprocess transforms
CN108830376B (zh) 针对时间敏感的环境的多价值网络深度强化学习方法
CN109858714B (zh) 基于改进神经网络的烟丝质检指标预测方法、装置及系统
CN113591954B (zh) 一种工业系统中缺失的时序数据的填充方法
CN105652845B (zh) 一种基于即时学习局部模型的发酵过程故障监测方法
CN110010201A (zh) 一种rna选择性剪接位点识别方法及系统
JPH06215163A (ja) ニューラルネット構築支援方法及び装置、ニューラルネットテスト装置、薬注制御システム
CN112037179B (zh) 一种脑疾病诊断模型的生成方法、系统及设备
El-Bouri et al. A neural network for dispatching rule selection in a job shop
CN114169505A (zh) 一种产量预测模型的训练方法、系统及相关设备
Riehl et al. Control of stochastic evolutionary games on networks
US6941176B2 (en) Method and apparatus for changing and controlling characteristics of device
US20050246298A1 (en) Device for context-dependent data analysis
EP0441547B1 (en) Simulation of human performance of a process operation procedure
CN106156845A (zh) 一种用于构建神经网络的方法和设备
Bazzan Evolution of coordination as a metaphor for learning in multi-agent systems
US20020198853A1 (en) Controlling the self learning behavior of an autonomous agent
KR20060038954A (ko) 결정모델의 설계 및 사용 시스템
JPH0561848A (ja) 最適アルゴリズムの選定及び実行のための装置及び方法
JP4153671B2 (ja) 離散事象制御システムと離散事象制御システムを用いた生産工程シミュレーション方法