JPH0895607A - 事例ベースモデリング方法及びその装置 - Google Patents

事例ベースモデリング方法及びその装置

Info

Publication number
JPH0895607A
JPH0895607A JP6226316A JP22631694A JPH0895607A JP H0895607 A JPH0895607 A JP H0895607A JP 6226316 A JP6226316 A JP 6226316A JP 22631694 A JP22631694 A JP 22631694A JP H0895607 A JPH0895607 A JP H0895607A
Authority
JP
Japan
Prior art keywords
data
case
model
modeling method
observed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6226316A
Other languages
English (en)
Inventor
Hiroshi Narasaki
博司 楢崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kobe Steel Ltd
Original Assignee
Kobe Steel Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kobe Steel Ltd filed Critical Kobe Steel Ltd
Priority to JP6226316A priority Critical patent/JPH0895607A/ja
Publication of JPH0895607A publication Critical patent/JPH0895607A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

(57)【要約】 【目的】 モデル作成やメンテナンス時間が大幅に短縮
できる事例ベースモデリング方法及びその装置。 【構成】 本方法は,観測された入出力データの中から
代表的なデータよりなる事例ベースを抽出して記憶し
(S1),ある入力データを,上記記憶された事例ベー
ス中の該入力データの近傍のデータを用いて凸結合表現
することによりモデル化し(S2),上記モデルの結合
係数に基づいて少なくとも上記ある入力データに対応す
る出力データを予測する(S3)ように構成されてい
る。上記構成によりモデル作成やメンテナンス時間が大
幅に短縮できる。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は事例ベースモデリング方
法及びその装置に係り,例えば炉,圧延などのプロセス
のモデリングに適用可能な事例ベースモデリング方法及
びその装置に関するものであって,特に厳密で精度の良
い数学モデルが存在しないような対象,および非線形特
性をもつ対象のモデリングに好適である。
【0002】
【従来の技術】一般にプロセスの運転方案を作成した
り,制御系を設計するにあたっては,まず対象のモデル
を作成する必要がある。モデリングには次の2つの目的
がある。 1)対象の特性を把握する(安定なシステムか,時間遅
れは大きいかなど解析的側面)。 2)状態がどのように変化するかを予測する(目標値追
従制御,安定化制御など予測,制御的側面)。 モデリングするに当たっては,まずモデルの表現形式お
よび構造を決定しなければならない。例えば線形式,多
項式,ニューラルネットワークのいずれを用いるかなど
を決定する。今,対象の特性を表す状態方程式を次のよ
うに抽象的に表す。 y=f(xv ) ここで, xv =(x1 ,x2 ,…,xn ) yv =(y1 ,y2 ,…,ym ) であるとする。ただし,xv は変数,yv は出力(動的
システムのモデリングの場合には,m=n,yv =(x
v )′であり,ダッシュ(′)は時間微分となる),添
字のvはベクトルであることを表す(以下同様)。f
(・)の実際の形は,用いるモデル表現形式に応じて,
線形式であったりニューラルネットワークであったりす
る。今,モデルf(・)に含まれるパラメータを次式で
表す。 pv =(p1 ,p2 ,…,pk ) 以下では,モデルが,ある特定のパラメータ値に依存す
ることを示すために yv =f(xv ;pv ) と書くことにする。そして,パラメータpv の値を,収
集したデータ(以下トレーニングデータと呼ぶ)から何
らかの意味で最適に決定するシステム同定を行う。今,
トレーニングデータを次式で表す。 D={d1 ,d2 ,…,dN
【0003】ここで,要素di は,ある変数xv の値x
oi v と,それに対応する出力yv の値yoi v とのペア, di =(xoi,yoi) である。例えば,よく用いられるものとして,下のよう
な最小二乗規範Jがある。 J=Σj=1,2,...,N ‖yoj v −f(xoj v ;pv )‖2 最小二乗法は,この規範Jを最小化するようにパラメー
タpv の値を決定する方法である。次に,パラメータp
v の値を少し変化させた時,モデルの出力yv の値が,
変数xv の定義域(X⊆Rn と書くことにする)のどの
範囲で変化するかについて考える。例えば,モデルが線
形式 y=f(xv ;pv )=<pv v > で与えられる時(<・・>は内積を表す),パラメータ
v の値を微小値δpだけ変化させれば,その影響は,
全ての変数x∈Xに対して δy=<δp x> だけ表れる。このように,モデルパラメータの変動が定
義域Xの全領域におよぶようなモデルを「大局的モデ
ル」とよぶことにする。それに対し,ファジィモデルに
代表される「局所的モデル」を用いるパラメータ推論方
法がある(菅野道夫,「ファジィ制御」,日刊工業新聞
社 参照)。
【0004】ここでは,次のようなルールRi の集合=
{Ri ;i=1,2,…,M}から出力yv の値を計算
するようなファジィモデルを考える。Ri :“もしxv
がxi v のあたりであれば,yv はyi v のあたりの値
をとる”ファジィ推論方法にはいろいろな種類のものが
あるが,基本的には,以下に述べるような「内挿」の考
え方に基づいている。まず,「xv がxi v のあたり」
という曖昧な表現を定量化するために,メンバシップ関
数μx i v (xv )∈〔0.1〕を定義する。メンバシ
ップ関数の定義にもいろいろな方法が考えられるが,通
常は,次の条件を満たすようなものが用いられる。 1.μxi v(xi v )=1 2.Dist(xi v ,xj v )≦Dist(xi v
k v )ならばμxi v(xj v )≧μxi v(xk v ) 但し, Dist(・,・)∈〔0,∞〕は距離関数を表
す。一番目の条件は,中心点xi v においてメンバシッ
プ関数の値(以下,メンバシップ値という)は1である
ことを意味している(このようなメンバシップ関数は
「正規化」されていると呼ばれる)。二番目の条件は,
この中心点xi v から遠ざかれば遠ざかるほど,メンバ
シップ値は小さくなっていくということを意味してい
る。これらは「xv がxi v あたり」という命題の常識
的解釈に沿っている。
【0005】出力yv の値の計算方法の一つは,yi v
の重みつき平均を計算することである。即ち,出力yv
の予測値は,次式により計算される。 ycalc v =Σi=1,2,,Mμx i v (xv )・yi /Σj=1,2,,Mμxj v(xv ) …(1) ファジィモデルにおけるパラメータとは,メンバシップ
関数のことであるが,メンバシップ関数の(形状の)変
化は,μxi v(xv )=0なる変数xv には影響をおよ
ばさないか,あるいは,変数xv がxi v から離れるに
つれて,その影響は小さくなっていく。これが「局所的
モデル」の特徴であり,「大局的モデル」との差異点で
ある。局所的モデルの利点は非線形性への適応能力であ
る。例えば,図11のような関数の変動,あるいは特性
の変化を考える。モデル式に線形式y=axを用いてい
る場合は,当然このような変化には適応できない。改め
て,変数xの高次多項式を選び,パラメータの決定計算
を行う必要がある。しかし,ファジィモデルであれば,
ルールR3 の後部の値を微小値Δだけ変化させるだけで
よい。すなわち,「もしxがx3 あたりならば,yはy
3 +Δあたりの値をとる」に修正する。以上のように,
従来のモデリング方法は,予めモデル式を決めておき,
そのモデル内のパラメータを最小二乗法などの方法によ
り決定するものである。しかし,数学モデルを作成する
のが困難な対象,あるいは非線形特性を有する対象の場
合,十分な精度を確保するのがむづかしい。そこで,観
測データからのみモデルを構築するMODEL−FRE
Eアプローチに従うニューラルネットワークやファジィ
モデルが応用され,そのような対象に対して有効に作用
せしめている。
【0006】
【発明が解決しようとする課題】上記したような従来の
モデリングにニューラルネットワークやファジィモデル
を応用した場合では,ニューロンの構造,あるいはファ
ジィメンバシップ関数のチューニング作業において,人
手が必要であるため時間がかかり,開発コストがかさむ
という問題があった。本発明は,上記事情に鑑みてなさ
れたものであり,その目的とするところは,チューニン
グ作業が一切不要であり,モデル作成やメンテナンスの
時間が大幅に短縮できる事例ベースモデリング方法及び
その装置を提供することである。
【0007】
【課題を解決するための手段】上記目的を達成する,第
1の発明は,観測された入出力データの中から代表的な
データよりなる事例ベースを抽出して記憶し,ある入力
データを,上記記憶された事例ベース中の該入力データ
の近傍のデータを用いて凸結合表現することによりモデ
ル化し,上記モデルの結合係数に基づいて少なくとも上
記ある入力データに対応する出力データを予測してなる
事例ベースモデリング方法として構成されている。さら
には,上記近傍のデータを,上記入力データに近い順
で,かつ,凸結合表現可能なデータのみからなるように
上記事例ベース中から検索する事例ベースモデリング方
法である。さらには,上記出力データの予測結果と実際
の観測結果との間の誤差に基づいて上記事例ベースの抽
出を行う事例ベースモデリング方法である。さらには,
上記観測された入出力データが,予め用意されたトレー
ニングデータである事例ベースモデリング方法である。
さらには,上記観測された入出力データが,時系列系に
観測されるオンラインデータである事例ベースモデリン
グ方法である。さらには,上記事例ベース中の古いデー
タを忘却させる事例ベースモデリング方法である。さら
には,上記モデルの結合係数に基づいて該モデルのルー
ル表現を行う事例ベースモデリング方法である。さらに
は,上記モデルの結合係数に基づいて該モデルの安定性
を判別する事例ベースモデリング方法である。さらに
は,上記モデルの結合係数に基づいて該モデルの定常性
を判別する事例ベースモデリング方法である。
【0008】第2の発明は,観測された入出力データの
中から抽出された代表的なデータよりなる事例ベースを
記憶する記憶部と,時系列的に観測されるオンラインデ
ータ又は予め用意されたトレーニングデータ中のある入
力データを,上記記憶部に記憶された事例ベース中の該
ある入力データの近傍のデータを用いて凸結合表現する
ことによりモデル化するモデル化部,上記モデルの結合
係数に基づいて少なくとも上記ある入力データに対応す
る出力データを予測する予測部及び上記出力データの予
測結果と実際の観測結果との間の誤差に基づいて上記事
例ベースの抽出を行う抽出部からなるオンライン/オフ
ライン評価機構と,上記オンライン/オフライン評価機
構の少なくとも予測部による予測結果を表示する説明機
構と,上記記憶部に記憶された事例ベース中の古いデー
タを忘却させるデータメンテナンス機構とを具備してな
る事例ベースモデリング装置である。
【0009】
【作用】本発明によれば,観測された入出力データの中
から代表的なデータよりなる事例ベースが抽出されて記
憶され,ある入力データが,上記記憶された事例ベース
中の該入力データの近傍のデータを用いて凸結合表現さ
れることによりモデル化され,上記モデルの結合係数に
基づいて少なくとも上記ある入力データに対応する出力
データが予測される。従って,従来例のようなチューニ
ング作業が一切不要であり,モデルが自動的に作成され
る。よって,モデル作成の時間が大幅に短縮できる。さ
らに,上記近傍のデータを,上記入力データに近い順
で,かつ,凸結合表現可能なデータのみからなるように
上記事例ベース中から検索すれば,モデル作成を確実に
行うことができる。さらに,上記出力データの予測結果
と実際の観測結果との間の誤差に基づいて上記事例ベー
スの抽出を行えば,モデルの精度向上を図ることができ
る。さらに,上記観測された入出力データとしては,予
め用意されたトレーニングデータあるいは時系列的に観
測されるオンラインデータといった種々のデータを扱う
ことができる。さらに,上記事例ベース中の古いデータ
を忘却させて自動的にメンテナンスを行うこともできる
ため,メンテナンス時間が大幅に短縮できる。さらに,
上記モデルの結合係数に基づいて該モデルのルール表現
を行ったり,安定性や定常性を判別すれば,観測対象で
あるプロセスの特性や状態を容易に把握できる。
【0010】
【実施例】以下添付図面を参照して,本発明を具体化し
た実施例につき説明し,本発明の理解に供する。尚,以
下の実施例は,本発明を具体化した一例であって,本発
明の技術的範囲を限定する性格のものではない。ここ
に,図1は第1の発明の一実施例(第1の実施例)に係
る事例ベースモデリング方法の概略構成を示すフロー
図,図2はYcalc v の計算方法を示すフロー図,図3は
凸結合係数の求め方を示す説明図,図4は事例ベースの
抽出方法を示すフロー図,図5は第2の発明の一実施例
(第2の実施例)に係る事例ベースモデリング装置0の
概略構成を示す模式図,図6は装置0によるシミュレー
ション結果を示す図,図7はニューラルネットワークを
用いた場合を示す説明図,図8は縦横方向線素を示す説
明図,図9はペリフェラル特徴量を示す説明図,図10
はキャビティ特徴量を示す説明図である。図1に示す如
く,第1の発明の一実施例(第1の実施例)に係る事例
ベースモデリング方法は,観測された入出力データの中
から代表的なデータよりなる事例ベースを抽出して記憶
し(S1),ある入力データを,上記記憶された事例ベ
ース中の該入力データの近傍のデータを用いて凸結合表
現することによりモデル化し(S2),上記モデルの結
合係数に基づいて少なくとも,上記ある入力データに対
応する出力データを予測する(S3)ように構成されて
いる。さらに,上記近傍のデータを,上記入力データに
近い順で,かつ,凸結合表現可能なデータのみからなる
ように上記事例ベース中から検索することとしてもよ
い。さらに,上記出力データの予測結果と実際の観測結
果との間の誤差に基づいて上記事例ベースの抽出を行う
ようにしてもよい。さらに,上記観測された入出力デー
タが,予め用意されたトレーニングデータであるとして
もよい。さらに,上記観測された入出力データが,時系
列系に観測されるオンラインデータであるとしてもよ
い。さらに,上記事例ベース中の古いデータを忘却させ
ることとしてもよい。さらに,上記モデルの結合係数に
基づいて該モデルのルール表現を行うこととしてもよ
い。さらに,上記モデルの結合係数に基づいて該モデル
の安定性を判別することとしてもよい。さらに,上記モ
デルの結合係数に基づいて該モデルの定常性を判別する
こととしてもよい。
【0011】尚,ここで述べる方法は,前記「局所的モ
デル」の考え方にもとづくものであり,また従来例で述
べたファジィモデリングと同様,「内挿」の考え方を用
いている。以下,上記方法の各ステップS1,S2,…
の順にその基本原理を説明する。 (ステップS1)まず,変数xv の値と,それに対応し
た出力yv の値のペアci を集めた事例ベースCBが与
えられていると仮定する(添字vはベクトルを表す。以
下同様)。 CB={ci ;i=1,2,…,L} ci =(xi v ,yi v ) 前述したファジィモデルとの関連でいえば,ペアc
i は,ファジィモデルのルールRi に相当する。実際に
は,事例ベースCBはトレーニングデータDの部分集合
である。即ち,トレーニングデータDから代表的なもの
を選び出したのがCBである。ある観測された変数xv
に対する出力yv の予測値を計算するに当たっては,事
例ベースCBの個々の要素となるペアci をファジィモ
デルのルールRi として解釈する。本方法が,前記ファ
ジィモデリングと異なるのは,以下述べるように,メン
バシップ関数を予め定義する必要がない点である。即
ち,本方法ではメンバシップ関数の値(以下メンバシッ
プ値という)μxi v(xv )は事例ベースCBに基づい
て自動的に決定される。従って,従来多大な人手とコス
トとを要したメンテナンス関数のチューニング作業は一
切不要である。その代わり,後で述べるような事例ベー
スCBの抽出作業が必要となる。しかし,この抽出作業
は,従来行われていたメンバシップ関数のチューニング
作業に比べると,はるかに単純で自動化しやすい。
【0012】(ステップS2) サブステップS2−1:メンバシップ値を決定する。ま
ず,変数x(ある入力データに相当)が与えられた時,
事例ベースCB内のデータ{xi v ;i=1,2,…,
M}の中から,変数xv を囲む「できるだけ小さな」単
体を生成する。単体とは,ベクトル集合 Z={xi v ;i=1,2,…,n+1} を用いて,以下のような凸結合によって表現される領域
である。 xv =Σj=1,2...,n+1λj j v ,Σj=1,2...,n+1λj =1, 0≦λj ≦1 …(2) そして,メンバシップ値を μx i v (xv )=λj ,xi v ∈Z μx i v (xv )=0,上記以外 と決める。即ち,メンバシップ値は,変数xv を上記
(2)式のようにZ内のベクトルの凸結合として表現し
た場合の結合係数λj で与えられる。従って,事例ベー
スCBを固定すれば,Zが存在するような変数xに対し
ては,メンバシップ値は一意に決まり,メンバシップ関
数のチューニング作業は不要である。但し,トレーニン
グデータDから事例ベースCBを抽出する操作と,与え
られた変数xv に対して上記(2)式のような凸結合表
現を探索する操作とが必要になる。Zの存在の有無を含
めて,上記操作について以下に説明する。 サブステップS2−2:Zを探索する。ここでは,与え
られた変数xv に対して凸結合表現を探索する操作につ
いて述べる。
【0013】まず,Zを選ぶ必要があるが,そのために
次のような発見的方法を用いる。 サブステップS2−2−1:事例ベースCB内のデータ
{xi v :i=1,2,…,M}を変数xv に近い順に
並べる。今,添字iは,近いものから順につけられてい
ると仮定しても一般性を失わない。そこで, Dist(xi v ,xv )≦Dist(xj v
v ),i≦j であると仮定する。 サブステップS2−2−2:Z={xi v :i=1,
2,…,n+1}とする。つまり,変数xv に最も近い
n+1個のベクトルをZに入れる。 サブステップS2−2−3:凸結合係数λj を計算す
る。その方法を以下に示す。
【数1】 上記計算結果として次の3通りの場合があり得る。 ケース1:0≦λj ≦1であるような凸結合係数λj
計算できる場合 ケース2:Z内のベクトルが本来の単体を形成せず,結
合係数λj が計算できない場合(例えばZ内の点が一直
線上に並んでいるような場合) ケース3:結合係数λj は計算できるが,0≦λq ≦1
を満足しないようなλ q が存在する場合(変数xv がZ
によって形成される単体の外にある場合) ケース1の場合は,メンバシップ値を決定し,出力yv
の値を計算できる。
【0014】ケース2および3の場合には,Z内のベク
トルを入れ換える必要がある。基本的には,Zの中の問
題のあるベクトルをZ以外のベクトルの中で変数xv
最も近いものと入れ換える。まず,入れ換え候補ベクト
ルの添字rをn+2に初期化する。簡単化のため, Z={z1 v ,z2 v ,…,zn+1 v } と書くことにする。そして,ケース2の場合には,候補
n+1 v をxr v と入れ換え,添字rの値をr←r+1
と更新する。ケース3の場合には,候補zq v をxr v
と入れ換え,添字rの値をr←r+1と更新する。上記
サブステップS2−2−1〜S2−2−3の操作を,0
≦λj ≦1であるような凸結合係数λi が計算できるよ
うなZが得られるまで繰り返す。このようにして事例ベ
ースCB中から上記近傍のデータを検索すると共に,凸
結合係数λ j からなるモデルを自動生成する。上記アル
ゴリズムを図2に,又,凸結合係数λj が求められる様
子を図3(a)に示す。もし,Zが得られなかった場
合,即ちr>Lとなってしまった場合には,出力yの値
は,「計算不能」ということになる。実際には,このよ
うな事態が起こらないように,事例ベースCBに十分の
数のデータを格納しておく必要がある。即ち,精度,お
よび上で述べた「計算不能」という事態をさけるために
は,事例ベースCBのサイズは十分大きい方が良い。一
方,計算およびメモリ効率の点からは事例ベースCBの
サイズは小さい方がよい。事例ベースCBの抽出に当た
っては,このような相反する要因を考慮する必要があ
る。
【0015】(ステップS3)次に,上記モデルを構成
する凸係合係数λj に基づいて,前記(1)式の加重平
均方式と全く同様に,出力yv の予測計算を行う。 ycalc v =Σλj j v …(3) 凸結合係数λj を用いてycalc v を計算する様子を図3
(b)に示す。再びステップS1に戻り,このように計
算された結果に基づいて事例ベースCBの抽出を行う。
以下,事例ベースCBの抽出について説明する。ここで
は,トレーニングデータDから事例ベースCBを抽出す
る方法について述べる。ただし,トレーニングデータの
代わりにオンラインデータを用いてもよい(その方法に
ついては後述する)。まず,モデルで計算された出力y
v の計算値ycalc v (予測結果に相当)が実際の値y
act v (実際の観測結果に相当)に「十分近いかどう
か」を評価するための関数を決めなければならない。そ
のため関数 Test(ycalc v ,yact v ,xv ) を定義する。この関数は,次のようなふるまいをするも
のとする。 ・計算値ycalc v が実際の値yact v に十分近ければ1
を返す。 ・そうでなければ0を返す。
【0016】このような関数の実現方法はいろいろ考え
られるが,例えば,次のように定めることができる。 例1)距離関数Dist(ycalc v ,yact v )が予め
与えられた,あるしきい値より小さい場合には1を,そ
うでない場合には0を返す。 例2)ベクトル量子化手法(中川,「確率モデルによる
音声認識」,電子情報通信学会 参照)により,出力y
v をNc個のクラス {Yj ;j=1,2,…,Nc} に分類する。そのために,「分類器」C(y)を予め作
っておく。これは,ある出力yv に対し, yv ∈Yw であるような整数w,1≦w≦Nc,を対応させる関数
である。さて,予測精度は,次のように判定する。 ・C(ycalc v )=C(yact v )ならば1返す。 ・そうでなければ0を返す。 即ち,計算値と実際の値とが同じクラスに属するか否か
で判断する。さて,関数Test(ycalc v
act v ,xv )とトレーニングデータDとが与えられ
た時,次の手順により事例ベースCBを抽出する。 サブステップS1−0:事例ベースCB=Dとする。 サブステップS1−1:事例ベースCBよりペアci
(xi v ,yi v )をランダムに選び出す。 サブステップS1−2:変数xi v に対して,上述の方
法で,出力yv の値y calc v を計算する。即ち, サブステップS1−2−1:Zを選びだす。 サブステップS1−2−2:凸結合係数λj を用いてメ
ンバシップ値を決め,ycalc v を計算する。
【0017】但し, ケース1:計算不能であれば,ペアci を事例ベースC
Bに返す。 ケース2:関数Test(ycalc v ,yi v ,xi v
が1を返せば,ペアc i を事例ベースCBから削除す
る。 ケース3:関数Test(ycalc v ,yi v ,xi v
が0を返せば,ペアc i を事例ベースCBに返す。 サブステップS1−3:サブステップS1−1に戻る。 上記手順を図4に示す。上記説明で明らかなように,事
例ベースCBの抽出手順は無限ループである。繰り返し
を重ねるうちに,ケース1または3のみになり,新たな
ペアci はもはや削除されなくなる。上記第1の実施例
方法では,あるトレーニングデータDが与えられた時,
どのようにして事例ベースCBを生成するかについて述
べたが,オンラインデータを活用することもできる。以
下,上記第1の実施例方法を具現化した装置を用いてオ
ンラインデータを活用する方法について説明する。図5
に示す如く,第2の発明の一実施例(第2の実施例)に
係る事例ベースモデリング装置0は,観測された入出力
データの中から抽出された代表的なデータよりなる事例
ベースを記憶する記憶部1と,時系列的に観測されるオ
ンラインデータ又は予め用意されたトレーニングデータ
の中のある入力データを,上記記憶部1に記憶された事
例ベース中の該ある入力データの近傍のデータを用いて
凸結合表現することによりモデル化するモデル化部2,
上記モデルの結合係数に基づいて少なくとも上記ある入
力データに対応する出力データを予測する予測部3及び
上記出力データの予測結果と実際の観測結果との間の誤
差に基づいて上記事例ベースの抽出を行う抽出部4から
なるオンライン/オフライン評価機構5と,上記オンラ
イン/オフライン評価機構5の少なくとも予測部3によ
る予測結果を表示する説明機構6と,上記記憶部1に記
憶された事例ベース中の古いデータを忘却させるデータ
メンテナンス機構7等を具備している。
【0018】尚,図中では上記オンライン/オフライン
評価機構5を,説明の便宜上,オンライン評価機構5a
と,オフライン構成機構5bとに分けて表現している
が,両機構は同様の構成要素からなるので一体のものと
してもよい。また,本装置0によれば,上記第1の実施
例方法のステップS1を記憶部1とオンライン/オフラ
イン構成機構5(5a,5b)の抽出部4とにより,ス
テップS2をモデル化部2により,ステップS3を少な
くとも予測部3によりそれぞれ実行する。このため,本
装置0の各構成要素は例えばコンピュータ内のメモリ領
域に記憶される実行形式のプログラムとして構築されて
いる。ただし,各構成要素の一部又は全部をハードウエ
アにより構成しても何ら支障はない。また,本装置0で
はオンラインデータを扱うため,プロセス8より時系列
的に得られるデータを計測器9により常時監視してい
る。そして,オンライン評価機構5a,オフライン評価
機構5bおよびデータメンテナンス機構7により,プロ
セス8の特性の経時的変化を反映させた事例ベースCB
を生成し,記憶部1に記憶し処理する。本装置0はプロ
セス8の状態変化を,これまでに述べたような,凸結合
表現にもとづく計算によって予測することは無論,説明
機構6によりプロセス8の特性に対して「説明文」を出
力するものでもある。上記各機構についてさらに具体的
に述べる。 〈オンライン評価機構5a〉本機構5aは,時系列的に
観測されるデータを事例ベースCBに追加するか否かを
決める機構である。基本的には,次の考え方に従う。あ
るデータ(xact v ,yact v )が観測された時,それ
を事例ベースCBに追加するかどうかを以下のようにし
て決定する。 ステップS11:現在の事例ベースCBから変数xact
v に対応する出力yvの値ycalc v を計算する。計算不
能であれば,あるデータ(xact v ,yact v)を事例
ベースCBに追加する。
【0019】ステップS12:計算可能である場合,前
述の関数Test(ycalc v ,yac t v ,xact v )を
用いて計算値ycalc v が実測値yact v に十分近いかど
うかを判断する。そして,十分近ければ(戻り値が
1),あるデータ(xact v ,y act v )を捨てる。そ
うでなければ(戻り値が0),あるデータ(xact v
act v )を事例ベースCBに追加する。 〈オフライン評価機構5b〉オンライン評価機構5aが
動作していない場合,あるいは,予め収集されているデ
ータを事例ベースCBに追加する際には,第1の実施例
方法で述べたオフライン処理が活用できる。即ち, ステップS21:事例ベースCBから,あるペアci
(xi v ,yi v )を取り出す。 ステップS22:変数xi v に対して,事例ベースCB
に基づいてycalc v を計算する。 ステップS23:計算値ycalc v が出力yi v に十分近
ければ(前述の関数Testを用いる),ペアci を事
例ベースCBより削除する。 〈データメンテナンス機構7〉実際には,プロセス8の
特性は時間的に変動する。そのためには,事例ベースC
Bの中から古いデータを削除し,新しいデータと入れ換
えていく必要がある。具体的には,各々の事例のペアc
i に対して次のような加齢関数fi を定義する。 fi =e-gt ここで,tはペアci が事例ベースCBに加わってから
の時間であり,g(>0)は加齢度合を表す正数パラメ
ータである。そして,加齢関数fi が予め決められたし
きい値εを下回った時点,即ち, fi <ε となった時刻にペアci を事例ベースCBより削除す
る。
【0020】〈説明機構6〉本装置0の特徴の一つは,
この説明機構6にある。説明機構の主な機能としてここ
で述べるのは,出力の予測,モデルのルール表現,出力
v が入力xv の時間微分,即ち,yv =dxv /dt
であるような動的システムのモデリングにおける安定性
の分析,定常性の分析の4点である。ただし,ある変数
v に対する,出力yv の値の予測は,これまでに述べ
た方法を用いることによりできるので,最初の「予測機
能」については,ここでは,その説明を割愛する。以下
残りの3点について説明する。 (1)モデルのルール表現 従来の言語モデリング手法は,対象の特性をファジィル
ールRi のようなルールの集合として表現しようとする
ものである(安川,菅野「システムモデルにもとづく定
性的制御ルールの設計」第8回ファジィシステムシンポ
ジウム,26−28頁,1992参照)。ここでは,事
例ベースCB内の事例のペアci をRiのようにルール
表現にするのは,極めて容易である。但し,ファジィ言
語モデリングでは,「xv の値がxi v あたり」という
表現を,変数xv の値が「小さい」,「大きい」といっ
た,予め辞書内に定義された言語ラベルと,「やや」あ
るいは「たいへん」といった修飾語で表現しなおすこと
により,読みやすさを向上させるというアプローチがと
られている。ここにおいても同じアプローチを適用する
ことはできるが,従来例で既述した通りであるのでここ
では述べない。しかし,ここで主に述べたいのは,本装
置0により観測対象であるプロセス8の非線形性および
定常性に関する情報(説明)が抽出できることである。
以下,本装置0による動的システムの予測誤差の評価
と,その上限に関する考察を述べる。まず,Z=
{x1 ,x2 ,…,xn+1 }内の実際の軌道x(t)
と,予測軌道ξ(t)との誤差e(t)=x(t)−ξ
(t)の評価を行う。
【0021】今,実際の軌道x(t)と予測軌道ξ
(t)とは次のように凸結合表現できるものとする。
【数2】 この時,凸結合係数λj (t),νj (t)はいずれも
時間tの関数となる。上記(4)式を,(6)式に用い
て次のように変形する。
【数3】
【0022】
【数4】
【数5】 これより以下のことがわかる。 係数σ>0は大きい方が累積誤差‖e(0)‖の減衰
が速い。 関数f(x)の非線形性が小さい方が,あるいは,Z
は小さい方が係数K1の値は小さくなり,誤差が小さく
なる。 Zは小さい方が,時刻Γの値は0に近く,|1−ex
p(−σΓ)|は小さくなり,誤差が小さくなる。
【0023】従って,行列FX-1の固有値に着目するこ
とにより,次の情報が得られる。 (2)安定性の判別 プロセス8の安定性は,行列FX-1の固有値の実部が負
であるかどうかで,以下のケースに分類できる。 ・「全安定」:全ての単体において行列FX-1の固有値
の実部が負である。 ・「部分安定」:行列FX-1の固有値の実部が正のもの
を含むような単体が存在する。 ・「全不安定」:全ての単体において行列FX-1の固有
値の実部が正である。当然,「全安定」及び「全不安
定」は,事例ベースCBに蓄えられているデータの範囲
において判断されることになる。そして,行列FX-1
固有値を監視することにより不安定領域を同定できる。
換言すれば,「xv がxi v のあたりの時,システムは
安定(または不安定)」という説明が得られる。 (3)定常性の判別 プロセス8の定常性は,行列FX-1の固有値が変数Xの
上でどのように変化するかに関わっている。線形系にお
いては,行列FX-1は定義域の全領域上で定数行列とな
り,当然ながら固有値も一定である。非線形系の場合に
は,定義域の場所により固有値は変化する。今,実部の
値の最も大きい固有値をsとすれば, ・「安定な領域(固有値sの実部が負)」では,固有値
sは最も減衰の遅いモードを表している。 ・「不安定な領域(固有値sの実部が正)」では,固有
値sは最も散逸の早いモードを表している。
【0024】従って,固有値sの実部の値(Re(s)
と書くことにする)により,例えば ・Re(s)<z1 <0ならば「安定な領域」 ・z1 ≦Re(s)<0ならば「やや安定な領域」 ・0≦Re(s)<z3 ならば「不安定な領域」 ・z3 ≦Re(s)ならば「散逸領域」 というように区分し,例えば「xv がxi v のあたりは
やや安定」といった説明文を出力することができる。た
だし,z1 ,z3 は候補である。さらに,事例データの
分布密度によっても定常性を判断できる。特性が線形で
あれば,ここで述べた出力計算方法による誤差は0であ
る。従って,事例は,上に述べた単体発見アルゴリズム
が単体の発見に成功するか否かだけが問題となる。ここ
では,次のような「事例密度」の計算方法を考える。 ステップS31:事例ベースCBが収束したとする。即
ち,どの1つも取り除くことができないとする。 ステップS32:事例ベースCB中の全ての変数xv
対し以下の処理を繰り返す。 サブステップS32−1:はじめに変数xv を囲む単体
を探す。 サブステップS32−2:もし単体が存在すれば,変数
v に対し,次のような「平均半径」r(xv )を計算
する。 r(xv )=Σj=1,2,..,n+1 ‖xv −xj v ‖/(n
+1) これは,変数xv から単体の端点xj v への平均距離で
ある。 サブステップS32−3:もし単体が存在しなければ,
平均半径r(xv )=−1とし,処理を終了する。
【0025】今,平均半径r(xv )が正であるものに
ついて平均値をrav,その分散をrsigとする。事
例が一様に分布している場合,線形性が強ければ,平均
値ravは大きく,分散rsigは小さくなる。逆に非
線形性が強い場合,一般には平均値ravは小さくな
る。もし,非線形性が一様(なだらかなカーブ)であれ
ば,分散rsigは小さいが,急峻な山谷があるような
場合には分散rsigは大きくなる。このようにして本
装置0により,対象の非線形性を分析することができ
る。以下,本装置0によるシミュレーション結果を示
す。 〈シミュレーション条件〉 (1)まずデータ収集を行う。即ち,〔−1.0,1.
0〕の中からランダムに初期状態を選び,20Δ秒間
(Δはサンプリング間隔)にわたり状態ベクトルを記録
する。この試行を100回繰り返す。従って,ここでは
全部で200点のデータが採集される。 (2)事例ベースCBの抽出操作を3000回行う。即
ち, ランダムにデータを取り出す。 他のデータから予測テストを行い,事例ベースCB内
にこのデータを残すか否かを決定する。 すると,以下のデータが得られる。 今,事例ベースCB内にn点のデータが残ったとす
る。n点の事例データは次のように分類できる。 タイプA:その点を囲む単体が見つけられず,それ故他
の点からの予測ができないもの。即ち,単体を生成する
のに必要なデータ。 タイプB:その点を他の点から予測することはできる
が,精度が所定のレベルに達しないもの。即ち,精度を
保つのに必要なデータ。
【0026】タイプAのデータがn1個,タイプBのデ
ータがn2個とすれば,総数はn=n1+n2である。 単体の平均半径をr,その分散をσrとする。 尚,予測精度は「ユークリッド距離(ノルム)」√(Σ
(xi −yi 2 )で評価し,予め決められたしきい値
εよりノルムが小さいか否かで事例ベースCBに残すか
否かを決める。 〈シミュレーション結果〉 例1′)線形系
【数6】 線形であるので,予測誤差は存在しない。従って,事例
ベースCB内に残るデータは,全てタイプAのものであ
る(事例ベース内に残るデータは,単体を作るのに必要
なもののみである)。シミュレーション結果,タイプA
のデータ数n1=58であった。ここでは,平均半径
r,分散σrは定義されない。 例2′)非線形系1
【数7】 これは,「部分安定」な非線形系である。
【0027】今,予測誤差しきい値εを0.1とした場
合,結果は次の通りであった。 総数n=192 タイプAのデータ数:n1=49 タイプBのデータ数:n2=143 平均半径r=1.96,分散σr=3.39 これは単体の大きさにバラツキがあり,非線形性が強い
ことを示している。今,得られた事例ベースCB
(x1 ,x2 ,x3 )=(−0.3,0.1,0.3)
を用いて予測テストを行った結果を図6(a)に示す。
同図より発散するにつれ,予測誤差が拡大しているのが
分かる。次に,予測誤差のしきい値をε=0.01とし
て,同様のシミュレーションを行った。結果は次の通り
であった。 係数n=906 タイプAのデータ数:n1=237 タイプBのデータ数:n2=669 平均半径r=0.579 分散σr=1.37 同じく(x1 ,x2 ,x3 )=(−0.3,0.1,
0.3)より始めた予測テスト結果を図6(b)に示
す。同図より,発散とともに誤差が拡がる傾向に変わり
はないが,予測精度自体は改善されていることが分る。 例3′)非線形系2
【数8】
【0028】これは「全安定」な非線形系である。しき
い値ε=0.1のもとで事例ベースCB内には総数n=
86が残った。内訳は次の通りであった。 タイプAのデータ数:n1=40 タイプBのデータ数:n2=46 平均半径r=0.48,分散σr=0.099 従って,空間内が一様に分割されている。上記例1′,
2′と同じく初期状態を(x1 ,x2 ,x3 )=(−
0.3,0.1,0.3)として行った予測テスト結果
を図6(c)に示す。同図より,非常に良好な結果とな
っていることが分る。尚,上記第1の実施例方法(第2
の実施例装置も同様)では y=f(x) において,例えばy=x′の場合について述べている
が,出力yは必ずしも変数xの時間微分x′である必要
はない。以下,他の実施例について考察する。 例1″)文字認識に適用した場合 今,文字“A”を認識する問題を考える。この時, x:画像解析により得られた特徴ベクトル y:その画像が“A”であると考えられる度合 とする。一般に,アルファベット認識の場合,y=
(“A”である度合,“B”である度合,…,“Z”で
ある度合)という26次元ベクトルになる。例えば,ニ
ューラルネットワークを用いた場合,モデルは図7
(a)に示すような形になり,例えば周知のバックプロ
パゲーション法でトレーニングデータを用いて,入出力
データ(x,y)の対応づけを学習させることになる。
【0029】この時,ニューラルネットワークは連続関
数 y=f(x) を学習する。上記第1の実施例方法はニューラルネット
ワークの代替となるものであり,図7(b)に示すよう
な形で実現される。図7(a)の例でニューラルネット
ワークが有効に作用するのであれば,本方法によって
も,入出力データ(x,y)の対応づけが適切にできる
ことは,理論的に保証される。変数xの一例を以下に述
べる。ここでは,画像は64×48ドットとする。ま
た,この時用いる特徴量として,縦,横の方向線素の特
徴量,1次,2次,3次のペリフェラル特徴量及びキャ
ビティ特徴量を考える。これらの特徴量はいずれも文字
認識に通常用いられるものである。 縦,横の方向線素 方向線素としては,32×24ドットのマトリクスを考
える。図8(a)より明らかなように,64×48の画
像の縦,横を各々4分割したメッシュを作ると,32×
24のマトリクスが9個取り出せる。次に,各々32×
24のマトリクスの中に縦線,横線,斜線があるかどう
かを調べる。縦線の例を図8(b)に示す。ここでは,
長さl0 ドットの縦線がある。この時,このマトリクス
に対し,縦方向線素特徴量としてl0 /32を割り当て
る。又,斜線の場合を図8(c)に示す。この場合,斜
め方向線素特徴量としてl0 /32を割り当てる。図8
(d)は横方向の例で特徴量としてl0 /24を割り当
てたものである。
【0030】以上より,9個のマトリクスに対し,縦,
横,斜めの各方向線素特徴が考えられるので,3×9=
27次元のベクトルとして表現できる。 ペリフェラル特徴量 例えば,図9(a)に示すように最初に黒点に出合うま
での距離がl1 ,2番目に黒点に出合うまでの距離がl
2 ,3番目に黒点に出合うまでの距離がl3 ,縦長さが
Lであるとする。この時矢印「↓」方向の1次,2次,
3次のペリフェラル特徴量は,各々l1 /L,l2
L,l3 /Lとなる。実際には,まず64×48ドット
の画像を8×6のメッシュに分割する。例えば図9
(b)で,矢印「↓」の位置の1次,2次,3次のペリ
フェラル特徴量は,各々(のドット数)/(64×
8),(+のドット数)/(64×8),(+
+のドット数)/(64×8)である。ペリフェラル
特徴量は,図9(c)のような4方向に対して定義でき
るので,(8×2+6×2)×3=28×3=84次元
のベクトルとして表現できる。 キャビティ特徴量 例えば図10(a)に示すような点は,矢印「→」方向
のキャビティ特徴量を持つある点に対し,図11(b)
〜(e)に示すような「→」「←」「↑」「↓」の5次
元ベクトルでキャビティ特徴量ベクトルを与えることが
できる。今,64×48ドットの画像を8×6のメッシ
ュにきる。1つのセル(8×6ドット)内の点に対し,
キャビティ特徴量ベクトルを計算する。この時,キャビ
ティ特徴量ベクトル(10000)である点がn個あっ
たとすれば,キャビティ特徴量の矢印「→」に対応する
値をn/48で与える。このようにして,1つのセルに
対し,5次元のキャビティ特徴量ベクトルを決めること
ができる。従って,キャビティ特徴量は,8×6×5=
240次元ベクトルで表現できる。
【0031】以上より特徴量ベクトルxは,方向線素の
特徴量で27次元,ペリフェラル特徴量で84次元,キ
ャビティ特徴量で240次元の合計351次元のベクト
ルで表現できる。そして,(x,y)のトレーニングデ
ータを与えると,上記第1の実施例方法に従って,y=
f(x)のモデリングができる。 例2″)ダイナミカルシステムに適用した場合 ダイナミカルシステムの一種であるルーパ系の特性は伝
達関数表現で
【数9】 で表される。ここに,θはルーパ角度,ωは周波数,κ
とξは係数,L0 はむだ時間,Sはラプラス演算子,V
はミルスピードである。
【0032】むだ時間L0 は既知かつ一定であるとし
て, θ″+2ζ3ωθ′+ω2 θ=κω2 V(t−L0 ) と表現できる。ここに,θ″は角加速度,θ′は角速度
を示す。つまり,
【数10】 である。ここで, η=col.(θ,θ′) ξ=col.(θ,θ′,V(t−L0 )) とすれば,上記モデルは η=f(ξ) である。従って,(ξ,η)のデータを収集し,上記方
法を適用することにより,モデリングが実施できる。 例3″)制御へ応用した場合 オペレータの操作量をu,観測されたセンサ信号をxと
して, u=f(x) のモデリングを行えば,制御を学習できる。例えば,以
下のようなドラフトスケジュール決定に応用できる。
【0033】即ち,特開平5−38511号公報におい
ては, x=(板厚,板幅,ロール粗さ,圧延材材質) から, ηi (第iスタンド圧下率) をニューラルネットワークで決定する方法が示されてい
る。この時,次式が成立する。 ηi =f(x) これをニューラルネットワークで構成する代りに,本方
法のとおりに構成することができる。以上のように,い
ずれの実施例においても従来例のようなチューニング作
業が一切不要であり,モデルが自動的に作成される。よ
って,モデル作成の時間が大幅に短縮できる。さらに,
上記近傍のデータを,上記入力データに近い順で,か
つ,凸結合表現可能なデータのみからなるように上記事
例ベース中から検索すれば,モデル作成を確実に行うこ
とができる。さらに,上記出力データの予測結果と実際
の観測結果との間の誤差に基づいて上記事例ベースの抽
出を行えば,モデルの精度向上を図ることができる。さ
らに,上記観測された入出力データとしては,予め用意
されたトレーニングデータあるいは時系列的に観測され
るオンラインデータといった種々のデータを扱うことが
できる。さらに,上記事例ベース中の古いデータを忘却
させて自動的にメンテナンスを行うこともできるため,
メンテナンス時間が大幅に短縮できる。さらに,上記モ
デルの結合係数に基づいて該モデルのルール表現を行っ
たり,安定性や定常性を判別すれば,観測対象であるプ
ロセスの特性や状態を容易に把握できる。
【0034】
【発明の効果】第1〜第3の発明に係る事例ベースモデ
リング方法及びその装置は,上記したように構成されて
いるため,従来例のようなチューニング作業が一切不要
であり,モデルが自動的に作成される。よって,モデル
作成の時間が大幅に短縮できる。さらに,上記近傍のデ
ータを,上記入力データに近い順で,かつ,凸結合表現
可能なデータのみからなるように上記事例ベース中から
検索すれば,モデル作成を確実に行うことができる。さ
らに,上記出力データの予測結果と実際の観測結果との
間の誤差に基づいて上記事例ベースの抽出を行えば,モ
デルの精度向上を図ることができる。さらに,上記観測
された入出力データとしては,予め用意されたトレーニ
ングデータあるいは時系列的に観測されるオンラインデ
ータといった種々のデータを扱うことができる。さら
に,上記事例ベース中の古いデータを忘却させて自動的
にメンテナンスを行うこともできるため,メンテナンス
時間が大幅に短縮できる。さらに,上記モデルの結合係
数に基づいて該モデルのルール表現を行ったり,安定性
や定常性を判別すれば,観測対象であるプロセスの特性
や状態を容易に把握できる。
【図面の簡単な説明】
【図1】 第1の発明の一実施例(第1の実施例)に係
る事例ベースモデリング方法の概略構成を示すフロー
図。
【図2】 ycalc v の計算方法を示すフロー図。
【図3】 凸結合係数の求め方を示す説明図。
【図4】 事例ベースの抽出方法を示すフロー図。
【図5】 第2の発明の一実施例(第2の実施例)に係
る事例ベースモデリング装置0の概略構成を示す模式
図。
【図6】 装置0によるシミュレーション結果を示す
図。
【図7】 ニューラルネットワークを用いた場合を示す
説明図。
【図8】 縦横方向線素を示す説明図。
【図9】 ペリフェラル特徴量を示す説明図。
【図10】 キャビティ特徴量を示す説明図。
【図11】 ファジィモデルのメンバシップ値の変化を
示す説明図。
【符号の説明】
0…事例ベースモデリング装置 1…記憶部(ステップS1を実行) 2…モデル化部(ステップS2を実行) 3…予測部(ステップS3を実行) 4…抽出部(ステップS1を実行) 5a…オンライン評価機構 5b…オフライン評価機構 6…説明機構 7…データメンテナンス機構

Claims (10)

    【特許請求の範囲】
  1. 【請求項1】 観測された入出力データの中から代表的
    なデータよりなる事例ベースを抽出して記憶し,ある入
    力データを,上記記憶された事例ベース中の該入力デー
    タの近傍のデータを用いて凸結合表現することによりモ
    デル化し,上記モデルの結合係数に基づいて少なくとも
    上記ある入力データに対応する出力データを予測してな
    る事例ベースモデリング方法。
  2. 【請求項2】 上記近傍のデータを,上記入力データに
    近い順で,かつ,凸結合表現可能なデータのみからなる
    ように上記事例ベース中から検索する請求項1記載の事
    例ベースモデリング方法。
  3. 【請求項3】 上記出力データの予測結果と実際の観測
    結果との間の誤差に基づいて上記事例ベースの抽出を行
    う請求項1又は2記載の事例ベースモデリング方法。
  4. 【請求項4】 上記観測された入出力データが,予め用
    意されたトレーニングデータである請求項1〜3のいず
    れかに記載の事例ベースモデリング方法。
  5. 【請求項5】 上記観測された入出力データが,時系列
    系に観測されるオンラインデータである請求項1〜3の
    いずれかに記載の事例ベースモデリング方法。
  6. 【請求項6】 上記事例ベース中の古いデータを忘却さ
    せる請求項5記載の事例ベースモデリング方法。
  7. 【請求項7】 上記モデルの結合係数に基づいて該モデ
    ルのルール表現を行う請求項1〜6のいずれかに記載の
    事例ベースモデリング方法。
  8. 【請求項8】 上記モデルの結合係数に基づいて該モデ
    ルの安定性を判別する請求項1〜6のいずれかに記載の
    事例ベースモデリング方法。
  9. 【請求項9】 上記モデルの結合係数に基づいて該モデ
    ルの定常性を判別する請求項1〜6のいずれかに記載の
    事例ベースモデリング方法。
  10. 【請求項10】 観測された入出力データの中から抽出
    された代表的なデータよりなる事例ベースを記憶する記
    憶部と,時系列的に観測されるオンラインデータ又は予
    め用意されたトレーニングデータ中のある入力データ
    を,上記記憶部に記憶された事例ベース中の該ある入力
    データの近傍のデータを用いて凸結合表現することによ
    りモデル化するモデル化部,上記モデルの結合係数に基
    づいて少なくとも上記ある入力データに対応する出力デ
    ータを予測する予測部及び上記出力データの予測結果と
    実際の観測結果との間の誤差に基づいて上記事例ベース
    の抽出を行う抽出部からなるオンライン/オフライン評
    価機構と,上記オンライン/オフライン評価機構の少な
    くとも予測部による予測結果を表示する説明機構と,上
    記記憶部に記憶された事例ベース中の古いデータを忘却
    させるデータメンテナンス機構とを具備してなる事例ベ
    ースモデリング装置。
JP6226316A 1994-09-21 1994-09-21 事例ベースモデリング方法及びその装置 Pending JPH0895607A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6226316A JPH0895607A (ja) 1994-09-21 1994-09-21 事例ベースモデリング方法及びその装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6226316A JPH0895607A (ja) 1994-09-21 1994-09-21 事例ベースモデリング方法及びその装置

Publications (1)

Publication Number Publication Date
JPH0895607A true JPH0895607A (ja) 1996-04-12

Family

ID=16843293

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6226316A Pending JPH0895607A (ja) 1994-09-21 1994-09-21 事例ベースモデリング方法及びその装置

Country Status (1)

Country Link
JP (1) JPH0895607A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017076384A (ja) * 2015-10-09 2017-04-20 フィッシャー−ローズマウント システムズ,インコーポレイテッド 分散型工業パフォーマンス監視用のデータ分析サービス
CN109426067A (zh) * 2017-08-29 2019-03-05 中芯国际集成电路制造(上海)有限公司 光学临近修正的建模方法及用于其的图形权重生成方法
US11886155B2 (en) 2015-10-09 2024-01-30 Fisher-Rosemount Systems, Inc. Distributed industrial performance monitoring and analytics

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017076384A (ja) * 2015-10-09 2017-04-20 フィッシャー−ローズマウント システムズ,インコーポレイテッド 分散型工業パフォーマンス監視用のデータ分析サービス
US11886155B2 (en) 2015-10-09 2024-01-30 Fisher-Rosemount Systems, Inc. Distributed industrial performance monitoring and analytics
CN109426067A (zh) * 2017-08-29 2019-03-05 中芯国际集成电路制造(上海)有限公司 光学临近修正的建模方法及用于其的图形权重生成方法

Similar Documents

Publication Publication Date Title
Zimmer et al. Safe active learning for time-series modeling with gaussian processes
Ahmed et al. Adaptive fuzzy logic-based framework for software development effort prediction
Zhang et al. Equipment health indicator learning using deep reinforcement learning
EP1197899A1 (en) Method and apparatus for determining one or more statistical estimators of customer behaviour
Baldacchino et al. Variational Bayesian mixture of experts models and sensitivity analysis for nonlinear dynamical systems
Ribeiro Reinforcement learning agents
Wabersich et al. Scalable synthesis of safety certificates from data with application to learning-based control
CN104869126A (zh) 一种网络入侵异常检测方法
JPH10111862A (ja) 再帰型ニューラルネットワークに基づく時系列解析装置および方法
Beckers An introduction to gaussian process models
Anaissi et al. Adaptive online one-class support vector machines with applications in structural health monitoring
Christophersen et al. Efficient evaluation of piecewise control laws defined over a large number of polyhedra
Bamer et al. A Monte Carlo simulation approach in non-linear structural dynamics using convolutional neural networks
Kocijan et al. Gas–liquid separator modelling and simulation with Gaussian-process models
Anaissi et al. Self-advised incremental one-class support vector machines: An application in structural health monitoring
Salgado Rule generation for hierarchical collaborative fuzzy system
Li et al. Detection-averse optimal and receding-horizon control for Markov decision processes
JPH0895607A (ja) 事例ベースモデリング方法及びその装置
Klenke et al. Damage identification with probabilistic neural networks
Platho et al. Learning driving situations and behavior models from data
JPH06332506A (ja) 非線形制御装置
CN114003511A (zh) 针对模型解释工具的评测方法和装置
JP2643295B2 (ja) ファジィ制御演算装置およびファジィ推論方法
Degrave et al. Quinoa: a Q-function you infer normalized over actions
Chen Bayesian estimation by sequential Monte Carlo sampling for nonlinear dynamic systems