JP2000112915A - 学習装置 - Google Patents

学習装置

Info

Publication number
JP2000112915A
JP2000112915A JP10281407A JP28140798A JP2000112915A JP 2000112915 A JP2000112915 A JP 2000112915A JP 10281407 A JP10281407 A JP 10281407A JP 28140798 A JP28140798 A JP 28140798A JP 2000112915 A JP2000112915 A JP 2000112915A
Authority
JP
Japan
Prior art keywords
learning
data
update
level
evaluation function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10281407A
Other languages
English (en)
Inventor
Yoshikazu Oba
義和 大場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP10281407A priority Critical patent/JP2000112915A/ja
Publication of JP2000112915A publication Critical patent/JP2000112915A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Feedback Control In General (AREA)

Abstract

(57)【要約】 【課題】 学習の偏りによる局所解の収束を抑制す
ることにある。 【解決手段】 学習データを保存するデータ保存手段1
と、この保存される学習データを入力データとし、多項
式の演算またはニューラルネットワークによる演算を行
う学習装置本体部2,7と、この演算出力と学習データ
の教師信号との出力誤差をもとに、現在設定レベルを満
たすか否かを判断する多段階設定レベルの評価関数レベ
ルチェック手段4と、前記現在設定レベルが最終目標レ
ベルを満足するか否かを判断する学習終了チェック手段
5と、この学習終了チェック手段から満足しない結果が
得られたとき、前記設定レベルをより激しい設定レベル
に変更し、かつ、更新継続を指示する評価関数目標レベ
ル更新手段6と、この更新指示に従って前記多項式のパ
ラメータまたはニューラルネットワークの重み係数を更
新する学習更新アルゴリズム3,8とを設けた学習装置
である。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、複数のパラメータ
をもつ多項式やニューラルネットワークを用いた学習装
置に関する。
【0002】
【従来の技術】近年、各種の産業分野でニューラルネッ
トワークの応用研究が盛んに行われている。これらネッ
トワークの研究対象は、階層型のニューラルネットワー
クが最も多く、その学習方法もバックプロパゲーション
法(誤差逆伝播法)が多く用いられている。
【0003】ところで、このようなバックプロパゲーシ
ョン法は、局所解に陥ることが多く、適切な解答が得ら
れないという問題がある。そこで、かかる問題を克服す
るために、重みの更新式を変えたり、局所部分に陥入っ
たときにある確率のもとに脱出を試みる確率的なアルゴ
リズムを入れるなどの方法が考え出されている。
【0004】
【発明が解決しようとする課題】しかしながら、以上の
ような方法では、アルゴリズムが非常に複雑になるなど
の課題を抱えており、未だ改良の余地が残されている。
また、道路交通関係でもニューラルネットワークが使用
されている。特に、非線形である交通流特性を学習する
ためにニューラルネットワークが利用されることが多い
が、学習の精度や局所解の問題などから、未だ決め手と
なるところまできておらず、この分野でも改良の余地が
残されている。
【0005】従って、従来のニューラルネットワークを
用いた学習方法は、学習時に局所解に陥りやすいとか、
局所解に陥ることを回避するために重みの更新式や確率
的なアルゴリズムの改良がなされているが、アルゴリズ
ムが複雑化するなどの課題があり、さらに道路交通関係
に応用する場合にも同様の問題を抱えている。
【0006】本発明は上記事情にかんがみてなされたも
ので、局所解に陥りにくい学習を実現する学習装置を提
供することにある。また、本発明の他の目的は、全ての
学習データの出力誤差を抑えるように学習し、学習デー
タに偏りのないように学習する学習装置を提供すること
にある。
【0007】
【課題を解決するための手段】上記課題を解決するため
に、本発明は、学習データを保存する学習データ保存手
段と、この保存手段に保存される学習データを入力デー
タとし、複数のパラメータをもつ多項式の演算またはニ
ューラルネットワークによる演算を行う学習装置本体部
と、この学習装置本体部の演算出力と前記学習データで
ある教師信号との出力誤差をもとに、評価関数の現在設
定レベルを満たすか否かをチェックする多段階設定レベ
ルをもつ評価関数レベルチェック手段と、この評価関数
レベルチェック手段において現在設定レベルを満たす状
態にあるとき、前記現在設定レベルが最終目標レベルを
満足するか否かを判断し、満足するときに学習終了とす
る学習終了チェック手段と、この学習終了チェック手段
から満足しない結果が得られたとき、前記評価関数レベ
ルチェック手段の設定レベルを所定の取決めに従ってよ
り激しい設定レベルに変更し、かつ、更新継続を指示す
る評価関数目標レベル更新手段と、この更新手段の更新
継続に従って出力誤差が小さくなるように前記多項式の
パラメータまたはニューラルネットワークの重み係数を
更新する学習更新アルゴリズムとを設けた学習装置であ
る。
【0008】この発明は、以上のような手段を講じたこ
とにより、評価関数レベルチェック手段は、多項式の演
算またはニューラルネットワークによる演算の出力と学
習データである教師信号との出力誤差をもとに、現在設
定レベルを満たすか否かをチェックし、満たしている場
合には学習終了チェック手段は現在設定レベルが最終目
標レベルを満足するか否かを判断し、満足できない場合
にはより激しい設定レベルに変更し、多項式のパラメー
タまたはニューラルネットワークの重み係数を更新し、
学習を繰り返すので、極端なパラメータや重み係数の変
更を抑えられ、局所解の収束を抑制でき、最適な学習を
実現できる。
【0009】また、別の発明は、交通流データを学習デ
ータとして使用する場合には交通流データを正規化する
ことにより、学習ややり易いとか、学習に適するデータ
とすることができる。
【0010】さらに、別の発明は、各学習データごとの
入力データごとに多項式の演算またはニューラルネット
ワークによる演算を行い、各演算結果と前記各学習デー
タである教師信号との出力誤差およびこれら各出力誤差
から各パラメータ更新分または各重み係数更新分を求め
る各入力学習データ毎の更新分演算手段を設け、これら
の更新分演算手段からの出力誤差の合計が最終目標レベ
ルを満足するとき、最終目標レベルを満足するか否かを
判断し、満足しないときに各学習データに対する各パラ
メータ更新分または各重み係数更新分の合計を求め、こ
の合計に基づいて各多項式のパラメータまたは各ニュー
ラルネットワークの重み係数を更新することにより、学
習レベル全てに対して一様に学習を進めることができ、
学習の偏りによる局所解の収束を回避できる。
【0011】
【発明の実施の形態】以下、本発明装置の実施の形態に
ついて図面を参照して説明する。 (実施の形態1)図1は請求項1に係わる学習装置の一
実施の形態を示すブロック構成図である。
【0012】同図において1は各種のシステムデータ、
センサ信号、教師信号などの学習元データ(以下、学習
データと呼ぶ)を保存する学習データ保存手段であっ
て、この保存されている学習データは複数のパラメータ
をもつ多項式を演算する多項式演算部2に導入され、ま
た教師信号として出力される。この多項式演算部2の演
算結果と教師信号との出力誤差はパラメータ更新アルゴ
リズム3および評価関数チェック手段4に送られる。
【0013】このパラメータ更新アルゴリズム3は、例
えばカルマンフィルタなどが設けられ、出力誤差が小さ
くなるように多項式演算部2の多項式のパラメータを更
新する機能をもっている。
【0014】前記評価関数チェック手段4は、予め複数
段階の設定レベルが設定され、出力誤差をもとに評価関
数が現在設定レベルを満足しているか否かをチェックす
る。この評価関数は一般的には出力誤差の絶対値が使用
されることが多く、本装置においても同様であると考え
るものとする。従って、評価関数チェックは、出力誤差
の絶対値が現在設定レベルより小さいか否かをチェック
する。
【0015】5は学習の終了か否かをチェックする学習
終了チェック手段であって、評価関数チェック手段4の
出力である現在設定レベルが最終目標レベルを満足して
いるかどうかをチェックし、そのチェック結果を評価関
数目標レベル更新手段6に送出するとともに、満足して
いるときに学習終了とする。
【0016】この評価関数目標レベル更新手段6は、学
習終了チェック手段5から満足していないという結果を
受けたとき、評価関数レベルチェック手段4に対し、学
習の指標とする評価関数の設定レベルとして1段階激し
い設定レベルへの変更指示を出し、かつ、パラメータ更
新を指示する信号をパラメータ更新アルゴリズム3に送
出する機能をもっている。従って、パラメータ更新アル
ゴリズム3は、パラメータの更新指示を受ける限り、出
力誤差が小さくするように多項式演算部2の多項式のパ
ラメータを更新し学習を継続する。
【0017】次に、以上のような学習装置の動作につい
て説明する。予め学習データ保存手段1に保存されてい
る学習データを入力データとし、多項式演算部2が下記
(1)式で表す多項式の演算を行う。
【0018】 Y(i) =α1・X1(i) +α2・X2(i) +α3・X3(i) +……+αn・Xn(i) …(1) Y(i) :i番目の学習データに対する多項式の出力
(演算結果) α1〜αn:パラメータ(可変) X1(i) 〜Xn(i) :i番目の学習データ(入力デー
タ) その後、多項式演算部2によって演算された演算結果と
学習データ保存手段1に保存されている学習データの教
師信号とを用いて、下記(2)式により出力誤差を求め
る。
【0019】 E(i) =T(i) −Y(i) …(2) E(i) :i番目の学習データに対する出力誤差 T(i) :i番目の学習データの教師信号 Y(i) :i番目の学習データに対する多項式の出力(演
算結果) 以上のようにして求められた出力誤差はパラメータ更新
アルゴリズム3および評価関数レベルチェック手段4に
送られる。パラメータ更新アルゴリズム3は評価関数目
標レベル更新手段6からパラメータ更新不要の指示を受
けるまで、出力誤差が小さくなる方向に多項式のパラメ
ータを更新する。
【0020】この評価関数レベルチェック手段4は、出
力誤差が現在設定レベルより小さいか否かをチェックす
るものであって、出力誤差が現在設定レベルを満たして
いないとき、パラメータ更新アルゴリズム3にて現在設
定レベルのまま、多項式のパラメータの更新を行う。一
方、出力誤差が現在設定レベルより小さく、現在設定レ
ベルを満たしていると判断したとき、その判断結果を学
習終了チェック手段5に送出する。
【0021】この学習終了チェック手段5は、現在設定
レベルが最終目標の設定レベルを満足しているかどうか
をチェックし、満足していれば学習終了とし、満足して
いないとき,つまり学習未終了とする結果信号を評価関
数目標レベル更新手段6に送出する。
【0022】評価関数目標レベル更新手段6は、学習終
了チェック手段5から満足していない結果信号を受ける
と、1段階激しい学習の指標とする評価関数の設定レベ
ルに変更させるための指示を評価関数レベルチェック手
段4に出す。評価関数レベルチェック手段4は、再度出
力誤差が1段階激しい現在設定レベルよりも小さいか否
かをチェックする。一般的には、評価関数である出力誤
差の絶対値を小さくすることが学習の目的であることが
多いので、現在設定レベルに対し、例えば1/2とか、
1/5程度小さくした設定レベルに変更し、出力誤差が
新たな現在設定レベルより小さいか否かをチェックす
る。
【0023】一方、評価関数目標レベル更新手段6は、
目標となる設定レベルが更新された後には更新された設
定レベルをもとにパラメータ更新をパラメータ更新アル
ゴリズム3に指示する。ここで、パラメータ更新アルゴ
リズム3は、多項式の演算出力が教師信号に近づくよう
に、多項式のパラメータを更新する。
【0024】以上のような一連の動作は、学習データ全
てに対し、学習終了条件を満たすまで継続する。図2は
請求項1に係わる学習装置の他の実施の形態を示すブロ
ック構成図である。
【0025】この実施の形態は、多項式演算部2および
パラメータ更新アルゴリズム3に代えてニューラルネッ
トワーク7およびニューラルネットワーク学習アルゴリ
ズム8を用いた構成例であり、その他の構成は図1とほ
ぼ同様の構成であるので、図1と同じ構成部分には同一
符号に添字aを付し、その詳しい説明は省略する。
【0026】このニューラルネットワーク7は、入力
層,中間層,出力層の3層からなる階層型ニューラルネ
ットワークやフィードバック要素を含むリカレント型ニ
ューラルネットワーク等があるが、一般的には階層型が
多く使用されているので、ここでは階層型ニューラルネ
ットワークを用いた場合について説明する。
【0027】以下、図2に示す装置の動作を説明する。
ニューラルネットワーク7は、学習データ保存手段1に
保存されている学習データを入力データとし、順次重み
係数を可変し下記する演算を実行し、演算結果を出力す
る。
【0028】 YN(i) =NN{XN1(i) ,XN2(i) ,…,XNn(i) ,w}…(3) YN(i) :i番目の学習データに対するネットワー
クの出力 w :重み係数(ここでは総括してwとするが、複
数個ある) XN1(i) 〜XNn(i) :i番目の学習データのニュー
ラルネットワークに対する入力 この(3)式の演算によってニューラルネットワーク7
の出力を得た後、教師信号を用いて、下記(4)式によ
り出力誤差を求め、ニューラルネットワーク学習アルゴ
リズム8および評価関数レベルチェック手段4aに送出
する。
【0029】 E(i) =TN(i) −YN(i) …(4) E(i) :i番目の学習データに対する出力誤差 TN(i) :i番目の学習データの教師信号 YN(i) :i番目の学習データに対するニューラルネ
ットワークの出力 ここで、評価関数レベルチェック手段4a、学習終了チ
ェック手段5aおよび評価関数目標レベル更新手段6a
の動作は図1と同様であるので、ここではその説明は省
略する。
【0030】前記ニューラルネットワーク学習アルゴリ
ズム8は、出力誤差に基づいて重み係数の更新分を演算
し、ニューラルネットワーク7の重み係数を更新する。
ここで、ニューラルネットワーク学習アルゴリズム8
は、階層型の場合には一般的にはバックプロパゲーショ
ン法(誤差逆伝播法)が用いられる。
【0031】従って、以上のような実施の形態によれ
ば、予め評価関数レベルチェック手段4,4aに多段階
の設定レベルを設定し、最初は最も大きな設定レベルを
設定し、出力誤差が設定レベルを満たすか否かをチェッ
クし、満たす場合には学習終了でないことを前提に順次
激しい方向に設定レベルを変更し、出力誤差が小さくな
るように多項式のパラメータまたはニューラルネットワ
ーク7の重み係数を更新し学習するので、学習初期段階
におけるパラメータまたは重み係数の集中を回避し、局
所解に陥りにくい状態で学習することができる。 (実施の形態2)図3は請求項2に係わる学習装置の一
実施の形態を示す構成図である。
【0032】この実施の形態は交通流特性の学習に図1
または図2に示す学習装置を適用する例である。本装置
においては、交通流を調査する場所に所要とする計測器
等を設置し、これら計測器により交通量、密度、空間平
均速度等の交通流データを計測し、交通流データ保存手
段11に保存する。この交通流データ保存手段11に
は、計測器等から入手したある一定の過去交通流データ
(例えば過去2時間分,過去1日分,過去1週間分等)
および現在交通流データ(例えば交通量,密度,空間平
均速度等)が保存される。
【0033】データ正規化手段12は、交通流データ保
存手段11に保存されている交通流データを正規化し、
学習用のデータに正規化したデータを作成する。ここ
で、対象とする学習データとしては図1に示す多項式演
算部2またはニューラルネットワーク7の入力データお
よび教師信号を含むものである。
【0034】正規化の方法としては、例えば関数変換に
より正規分布に変換する手法が用いられる。例えば交通
流データを例にとると、交通流データQの最大値Qmax
(考えられるデータの最大値+αもしくは入手データ内
の最大値+α)と最小値Qmin (考えられるデータの最
小値+αもしくは入手データ内の最小値+α)を決定
し、全ての学習データがある一定の範囲Rmin 〜Rmax
内に収まるようにデータ変換を行うものである。
【0035】例えば学習データとして例えば交通量デー
タQ、密度データK、空間平均速度データVが存在する
場合、以下のようなステップにより正規化を行う。 ステップ1:各交通流データの最大値、最小値を決定す
る。
【0036】交通量データの最大値Qmax 、最小値Qmi
n 、密度データの最大値Kmax 、最小値Kmin 、空間平
均速度データの最大値Vmax 、最小値Vmin を決定す
る。 ステップ2:学習データを納めたい範囲を決定する。
【0037】学習データを納めたい範囲の最大値Rmax
、最小値Rmin を決定する。一般的にはRmin =−Rm
ax である。 ステップ3:各交通流データがRmax 〜Rmin に収まる
ように正規化する。
【0038】先ず、各種のデータを±1に座標変換す
る。例えば交通量データの場合、正規化係数RGq 、交
通量データの中点Q0 とすると、それぞれ下記演算式に
より求める。
【0039】 正規化係数RGq =(|Qmax −Qmin |)/2 …(5) 中点Q0 =Qmax −RGq …(6) よって、交通量データQは下記の(7)式により±1の
範囲に変換できる。
【0040】 Q′=(Q−Q0 )/RGq …(7) ±1位内のデータに変換後、Q′にRmax を掛け合わせ
ることにより、目標の正規化範囲のデータに変換する。
ここでは、Rmin =−Rmax とする。
【0041】図4は正規化の状態をイメージで表した図
である。縮尺等は特に考慮していない。この際、±1に
変換するための元データによっては微小な違いがでない
場合があるので、この場合には±100に変換したり、
変換後に違いが出るように学習データを選択する必要が
ある。また、変換後のデータとしてはデータ間の違いが
顕著に現れるように学習データを選択する必要がある。
【0042】このような正規化作業は他の種類のデータ
(例えば密度や速度等)に対しても同様に行う。つま
り、学習データにおける入力データおよび教師信号の正
規化を行うことになる。
【0043】以上のようにして正規化された学習データ
は多項式演算部2またはニューラルネットワーク7の入
力データおよび教師信号として用い、多項式演算または
ニューラルネットワーク7による演算を実施し、これら
の演算結果と教師信号との出力誤差を取出す。そして、
図1または図2に示す評価関数レベルチェック手段4ま
たは4aは、得られた出力誤差が現在設定レベルを満た
すか否かを判断し、満たさない場合にはアルゴリズム
3,8が出力誤差を小さくするように多項式のパラメー
タまたはニューラルネットワーク7の重み係数を更新
し、一方、出力誤差が現在設定レベルを満たす場合には
学習を終了する。
【0044】その他の動作は図1、図2の装置と同様で
あり、ここではその説明は省略する。従って、以上のよ
うな実施の形態によれば、交通流データとして様々な各
種のデータが存在する場合でも、正規化し、同じ範囲の
データとすることにより、効率よく実施の形態1の学習
装置を使用することができる。また、学習データである
入力データと教師信号とを同じ範疇に正規化しているの
で、学習しやすいといった利点がある。
【0045】さらに、正規化の際、ニューラルネットワ
ーク7の学習にとって都合が良いように正規化すること
ができる。例えば交通量データの分布状況を調べ、前述
した(6)式の中点に当たる値を、最頻値にし、正規分
布となるように変換を行う。
【0046】よって、図1または図2の学習装置を交通
流特性の学習に適用すれば、複雑なアルゴリズムを採用
するなく、交通流特性を最適に学習できる。 (実施の形態3)図5は請求項3に係わる学習装置の一
実施の形態を示す構成図である。
【0047】この実施の形態は全ての学習データに対し
て一様に出力誤差が少なくなるように学習する例であ
る。この学習装置は、図1,図2と同様な学習データ保
存手段1と、各学習データ1,2,…,nごとに設けら
れたパラメータ更新分演算手段14−1,14−2,
…,14−nと、全ての学習データに対する出力誤差の
絶対値を合計演算する出力誤差絶対値合計手段15と、
この出力誤差絶対値合計手段15の出力である演算合計
値を基に学習終了か否かをチェックする学習終了チェッ
ク手段16と、各学習データに対する各パラメータ更新
分を合計演算するパラメータ更新分合計手段17と、こ
の各パラメータ更新分合計に基づいて各多項式演算部2
−1,2−2,…,2−nのパラメータを更新する多項
式パラメータ更新手段18とによって構成されている。
【0048】前記パラメータ更新分演算手段14−1,
14−2,…,14−nは、各学習データ1,2,…,
n入力信号ごとの多項式演算部2−1,2−2,…,2
−nの他、これら多項式演算部の演算結果と各学習デー
タ1,2,…,n教師信号とから出力誤差を求める出力
誤差演算部と、これら出力誤差演算部から得られる出力
誤差から各パラメータ更新分を求めるパラメータ更新分
演算部19−1,19−2,…,19−nとが設けられ
ている。
【0049】次に、図5に示す装置の動作について説明
する。各パラメータ更新分演算手段14−i(i=1,
2,…,n)は、学習データ保存手段1からi番目の学
習データiの入力データを入手し、多項式演算部2−i
にて多項式の演算を実行し、その演算結果を出力する。
そして、この演算出力と学習データiの教師信号とから
i番目の学習データに対する出力誤差を演算する。さら
に、このi番目の学習データに対する出力誤差を基にi
番目の学習データに対する各パラメータ更新分を演算す
る。これら演算動作は全ての学習データ1,2,…,n
に対して行い、各学習データ1,2,…nに対する出力
誤差が出力誤差絶対値合計手段15に送られ、また各学
習データ1,2,…nに対する各パラメータ更新分がパ
ラメータ更新分合計手段17に送られる。
【0050】この出力誤差絶対値合計手段15は、各パ
ラメータ更新分演算手段14−1,14−2,…,14
−nにて演算される全ての学習データ1,2,…,nに
対する出力誤差の絶対値を合計して学習終了チェック手
段16に送出する。
【0051】この学習終了チェック手段16は、出力誤
差絶対値の合計を基に学習終了か否かをチェックする。
この学習終了チェックに関しては、図1,図2の学習終
了チェック手段5,5aと同様に合計値が予め定める最
終目標設定値を満足しているかどうかをチェックし、満
足していれば学習を終了し、満足していない場合にはパ
ラメータ更新分合計手段17に学習未終了を通知する。
【0052】ここで、パラメータ更新分合計手段17
は、満足していない学習未終了の通知を受けると、パラ
メータ更新分演算部19−1,19−2,…,19−n
により演算された全ての学習データに対するパラメータ
更新分を各パラメータ毎に合計し、その後、多項式パラ
メータ更新手段18は各パラメータ毎のパラメータ更新
分の合計を基に多項式のパラメータを更新する。
【0053】以上のような一連の処理は学習終了条件を
満たすまで学習を繰り返す。図6は請求項3に係わる学
習装置の他の実施の形態を示す構成図である。この実施
の形態は、多項式演算に代えてニューラルネットワーク
7−1,7−2,…,7−nを用いた例である。
【0054】この学習装置は、各パラメータ更新分演算
手段14−1,14−2,…,14−nに代えて重み係
数更新分演算手段20−1,20−2,…,20−nを
設け、また各パラメータ更新分演算部19−1,19−
2,…,19−nに代えて各重み係数更新分演算部21
−1,21−2,…,21−nを設けたものであるさら
に、図5と同様に出力誤差絶対値合計手段15a、学習
終了チェック手段16a、重み係数更新分合計手段22
およびニューラルネットワーク重み係数更新手段23が
設けられている。
【0055】このような学習装置によれば、重み係数更
新分演算手段20−i(i=1,2,…,n)では、学
習データ保存手段1よりi番目の学習データiの入力デ
ータを入手し、ニューラルネットワーク7−iにて重み
係数のもとに演算を実行し、その演算結果を出力する。
そして、この演算出力と学習データiの教師信号とから
i番目の学習データに対する出力誤差を演算する。さら
に、このi番目の学習データに対する出力誤差を基にi
番目の学習データに対する各重み係数更新分を演算す
る。これらの演算動作は全ての学習データ1,2,…,
nに対して行い、各学習データ1,2,…nに対する出
力誤差が出力誤差絶対値合計手段15aに送られ、また
各学習データ1,2,…nに対する各重み係数更新分が
重み係数更新分合計手段22に送られる。
【0056】この出力誤差絶対値合計手段15aは、重
み係数更新分演算手段20−1,20−2,…,20−
nにて演算される全ての学習データ1,2,…,nに対
する出力誤差の絶対値を合計して学習終了チェック手段
16aに送出する。
【0057】この学習終了チェック手段16aは、出力
誤差絶対値の合計を基に学習終了か否かをチェックす
る。この学習終了チェックは図5と同じ動作を行い、満
足していれば学習を終了し、満足していない場合には重
み係数更新分合計手段22に学習未終了を通知する。
【0058】ここで、重み係数更新分合計手段22は、
学習未終了の通知を受けると、各重み係数更新分演算部
21−1,21−2,…,21−nにより演算された全
ての学習データに対する重み係数更新分を各重み係数毎
に合計し、その後、ニューラルネットワーク重み係数更
新手段23にて各重み係数毎の重み係数更新分の合計を
基にニューラルネットワーク7−1,7−2,…,7−
nの重み係数を更新する。
【0059】以上のような一連の処理は学習終了条件を
満たすまで学習を繰り返す。従って、以上のような実施
の形態によれば、対象となる学習データ全てに対して一
様に出力誤差を抑えるように学習を進めることができ、
学習のかたよりや学習の偏りによる局所解への収束を減
らすことができる。 (実施の形態4)図7は請求項4に係わる学習装置の一
実施の形態を示すブロック構成図である。
【0060】この実施の形態は図1の構成と図5の構成
とを組合わせた例である。この学習装置は、図5と同様
の学習データ保存手段1およびパラメータ更新分演算手
段14−1,14−2,…,14−nの他、各学習デー
タに対する出力誤差の絶対値を合計演算する出力誤差絶
対値合計手段15、この合計手段15の出力誤差絶対値
の合計を基に評価関数の現在設定レベルを満足している
か否かをチェックする評価関数レベルチェック手段4
b、学習終了チェック手段5b、学習終了でないときに
評価関数レベルチェック手段4bに対して順次より激し
い設定レベルへの変更指示を送出し、またパラメータ更
新分合計手段17aに対してパラメータ更新を指示する
評価関数目標レベル更新手段6b、各学習データに対す
る各パラメータ更新分を合計演算するパラメータ更新分
合計手段17aおよび多項式パラメータ更新手段18a
によって構成されている。
【0061】次に、以上のような装置の動作について説
明する。先ず、各パラメータ更新分演算手段14−1,
14−2,…,14−nから各学習データに対する出力
誤差が得られると、出力誤差絶対値合計手段15では各
学習データに対する出力誤差絶対値の合計演算を行い、
評価関数レベルチェック手段4bに送出する。
【0062】この評価関数レベルチェック手段4bは、
出力誤差絶対値合計手段15から得られる出力誤差絶対
値の合計を基に評価関数の現在設定レベルを満足してい
るか否かについてチェックする。
【0063】この評価関数レベルチェック手段4bにお
いて現在設定レベルを満たしていると判断されたとき、
学習終了チェック手段5bにて現在設定レベルが最終目
標の設定レベルを満足しているか否かをチェックし、満
足していれば学習を終了させる。現在設定レベルが最終
目標の設定レベルを満足していない場合、評価関数目標
レベル更新手段6bは、学習の指標とする評価関数の設
定レベルの変更指示を評価関数レベルチェック手段4b
に送出する。
【0064】この評価関数レベルチェック手段4bは、
変更指示を受けると前回の設定レベルよりも1段階激し
い設定レベルに変更し、当該設定レベルを満たすか否か
をチェックする。
【0065】また、評価関数目標レベル更新手段6b
は、学習終了チェック手段5bから満足していない結果
を受けると、パラメータ更新分合計手段17aにパラメ
ータの更新継続を通知する。
【0066】ここで、パラメータ更新分合計手段17a
は、パラメータ更新分演算部19−1,19−2,…,
19−nにより演算される全ての学習データに対するパ
ラメータ更新分を各パラメータ毎に合計する。その後、
多項式パラメータ更新手段18aは各パラメータ毎の合
計に基づいて各多項式演算部2−1,2−2,…のパラ
メータを更新する。
【0067】以上のような一連の処理は学習終了条件を
満たすまで学習を繰り返し続ける。図8は請求項4に係
わる学習装置の他の実施の形態を示す構成図である。こ
の実施の形態は、図1の構成と図6の構成とを組合わせ
た例であり、パラメータ更新分演算手段14−1,14
−2,…,14−nに代えてニューラルネットワーク7
−1,7−2,…,7−nおよび各重み係数更新分演算
部21−1,21−2,…,21−nをもつ重み係数更
新分演算手段20−1,20−2,…,20−nを設け
たものであり、重み係数を扱うことを除けば、図7と同
様の動作を行う。
【0068】以下、ニューラルネットワークを用いる学
習装置(図2、図6および図8)の学習処理動作につい
て図9を参照して説明する。 ステップS1:各重み係数更新分演算手段20−1,2
0−2,…,20−nは学習データ保存手段1に保存さ
れている学習データを呼び出す。この学習データは入力
データと教師信号とにより構成され、複数の入力データ
と教師信号との組によって構成される。入力データはニ
ューラルネットワーク7−1,7−2,…,7−nの入
力となり、これらニューラルネットワーク7−1,7−
2,…,7−nは、ニューラルネットワーク出力が教師
信号に近づくように学習を行う。
【0069】ステップS2:各重み係数更新分演算手段
20−1,20−2,…,20−nは学習データを呼び
出した後、学習データに対する出力誤差の演算および重
み係数更新分の演算を行う。
【0070】この重み係数更新分演算手段20−i(i
=1,2,…)の演算処理は図10に示す通りである。
つまり、学習データ保存手段1から得られる学習データ
のうち、1組目の学習データの入力データをニューラル
ネットワーク7に入力し、重み係数をのもとに演算を実
行する。そして、ニューラルネットワーク7の出力YN
(1) と学習データの中の1組目の学習データの教師信号
TN1とを用いて出力誤差Eを演算する(S11〜S1
4)。ここで、ニューラルネットワーク7の出力の演算
は前記(3)式を用いて行い、出力誤差の演算は例えば
前記(4)式を用いて行う。
【0071】次に、出力誤差をもとに、ニューラルネッ
トワーク出力が教師信号に近づくための重み係数w1,
w2,…,wmの更新すべき量△w1,△w2,…,△
wmを演算する。この演算方法は、例えばバックプロパ
ゲーション法を用い、出力誤差の各重み係数に対する偏
微分を演算することにより求めることが可能である(S
15〜S18)。例えば1組目の学習データに対する重
み係数の更新すべき量(更新分)は下記式等を用いて求
める(S20〜S22)。
【0072】
【数1】
【0073】wj:重み係数(j=1〜m) △wj:重み係数wjの更新分(j=1〜m) αj :パラメータ E(1) :1組目の学習データに対する出力誤差 学習データの全てに対し、上記演算を行い、学習データ
全てに対する出力誤差(S11〜S14,S19)およ
び重み係数更新分の演算を行う(S15〜S23)。 ステップS3:出力誤差の絶対値の合計および学習のレ
ベルチェック。この出力誤差の絶対値の合計は下記
(9)式を用いて求める。
【0074】
【数2】
【0075】以上のようにして演算された出力誤差絶対
値の合計をもとに、評価関数レベルチェック手段4a,
4cが現在設定レベルLを満足しているか否かをチェッ
クする。ここでは、学習の進度を判断する指標となる評
価関数を出力誤差の絶対値の合計Eallを総学習デー
タ数で割り算したものを使用する。このEallを総学
習データ数で割ったものが現在の設定レベルL以下であ
るか否かをチェックする。L以下の場合には(Eall
<L)、ステップS4に進む。L以上の場合(Eall
>L)にはステップS5に進む。
【0076】ステップS4:ここでは、学習終了チェッ
ク手段5cにて最終目標レベルのチェックを行う。つま
り、ステップS3において満足されたと判断された現在
設定レベルが学習の最終目標であるか否かをチェックす
る。最終目標である場合には学習を終了とする。最終目
標でない場合にはステップS6に進む。
【0077】ステップS5:ステップS3におけるレベ
ルチェックにて現在設定レベルが満足されていなかった
とき、ステップS2において演算された前学習データに
対する各重み係数の更新分を各重み係数毎に合計したも
のをもとに、重み係数の更新を行う。重み係数の更新は
例えば(10)式のように行う。
【0078】 wj=wpj+△wallj …(10) wj :重み係数(j=1〜m) wpj:更新する前の重み係数(j=1〜m) △wallj:重み係数wjの更新分を全学習データ分
を合計したもの(j=1〜m) また、下記(11)式のように慣性項を追加する方法も
一般である。
【0079】 wj=wpj+△wallj+βj△wpallj …(11) 但し、上式において△wpallj:前回更新したとき
の重み係数wjの更新分を全学習データ分合計したもの
(j=1〜m)、βj:パラメータである。
【0080】そして、以上のようにして重み係数の更新
後はステップS2に戻る。 ステップS6:ステップS4において最終目標レベルを
満足したいない場合には、1段階激しい設定レベルに変
更する。ここでは、評価関数(出力誤差絶対値の合計値
を総学習データ数で割ったもの)が小さくなるように学
習を進めていることから、1段階激しいレベル、例えば
現在設定レベルの1/2または1/5等に変更し、この
レベル更新後にはステップS2に戻る。
【0081】以上のようにしてステップS1〜S6まで
の処理は学習が終了するまで繰り返し実行する。従っ
て、以上のような実施の形態によれば、対象となる学習
データ全てに対して一様に学習を進めることができ、学
習データによる学習のかたまりや学習の偏りによる局所
解への収束が従来より減少させることができる。
【0082】また、学習を数段階のレベルに分けること
により、極端な重み係数の変更を少くすることができ、
ニューロン素子の出力の飽和を減少でき、局所解への収
束が従来よりも大幅に減らすことができる。
【0083】なお、本実施の形態だけでなく、他の実施
の形態においてもニューラルネットワークを用いたもの
には同様の効果を奏することができる。 (実施の形態5)図11は請求項5に係わる学習装置の
一実施の形態を示す構成図である。
【0084】この実施の形態は、図7、図8に示す装置
を交通流特性の学習に適用した例である。この交通流特
性を学習する学習装置は、図3と全く同様な構成であっ
て、過去および現在の交通流データを保存する交通流デ
ータ保存手段11と、この保存手段11に保存されてい
る交通流データを、パラメータ更新分演算手段14−
1,…または重み係数更新分演算手段20−1,…の学
習に最適とする学習データ(入力データおよび教師信
号)に正規化する正規化手段12とが設けられ、ここで
正規化された学習データは入力データおよび教師信号と
して用いられる。
【0085】なお、正規化方法は前述した通りである。
従って、以上のような実施の形態によれば、交通流デー
タとして各種のデータが存在する場合でも、正規化し、
同じ範囲のデータとすることにより、効率良く学習装置
に適用できる。また、学習データである入力信号および
教師信号を同じ範疇で正規化するので、学習がやりやす
い等の効果を有する。
【0086】さらに、正規化の際、ニューラルネットワ
ーク7の学習にとって取扱い易いように正規化できる。 (実施の形態6)図12は請求項6に係わる学習装置の
一実施の形態を示す構成図である。
【0087】この実施の形態は、交通流データの他、走
行所要時間データを用いて正規化し、図7、図8の学習
装置に適用する例である。具体的には、過去および現在
の交通流データを保存する交通流データ保存手段11、
計測器などから得られる過去および現在の走行所要時間
データを保存する走行所要時間データ保存手段26およ
びこれら保存手段11,26に保存されている交通流デ
ータ、走行所要時間データを学習用に正規化するデータ
正規化手段12aが設けられ、ここで正規化された学習
データは図7、図8の入力データおよび教師は信号とし
て用いるものである。
【0088】従って、以上のような実施の形態によれ
ば、交通流データだけでなく、走行所要時間データ等の
入力データおよび出力データに各種のデータが存在する
場合でも、正規化し、同じ範囲のデータとすることによ
り、図7,図8に示す装置の学習に効率良いデータを提
供できる。また、学習データである入力データ(ここで
は交通流データ)と教師信号(ここでは走行所要時間デ
ータ)とを同じ範疇で正規化しているので、学習がやり
やすいという利点がある。 (その他の実施の形態)上記実施の形態では、交通流デ
ータ、走行所要時間データ等(必ず正のデータ)の交通
関係データについて述べたが、学習データに正負が混在
している場合でも、正規化を適切に行うことにより、図
7、図8に示す装置に適用可能である。
【0089】また、学習データは複数の入力データと教
師信号との組みでできているものを対象としたが、これ
を1グループとし、複数の学習データグループに対して
も適用できる。この場合には、学習したいデータを特徴
のある学習データグループに分割し学習を行うことが有
効である。例えば交通流データを例にとると、学習デー
タグループを、平日データ、休日データ、休日前デー
タ、連休データ等のグループに分割し、それぞれの学習
データグループを学習し終わるまで学習を続ければよ
い。
【0090】
【発明の効果】以上説明したように本発明によれば、学
習を数段階のレベルに分け、極端なパラメータや重み係
数の変更を抑えつつより激しいレベルを設定しながら学
習でき、例えばニューロン素子の出力の飽和を抑制し、
従来と比較し局所解への収束を減らすことができる。
【0091】また、対象となる学習データ全てに対して
一様に学習を進めることができ、学習データによる学習
の偏りや、学習の偏りによる局所解への収束を抑制でき
る。さらに、交通流データとして各種のデータが存在す
る場合でも、正規化し、同じ範囲のデータとすることに
より、効率良く学習装置に適用できる。また、学習デー
タである入力信号および教師信号を同じ範疇で正規化す
るので、学習がやりやすい等の効果を有する。
【図面の簡単な説明】
【図1】 請求項1に係わる学習装置の一実施の形態を
示すブロック構成図。
【図2】 請求項1に係わる学習装置の他の実施の形態
を示すブロック構成図。
【図3】 請求項2に係わる学習装置の一実施の形態を
示すブロック構成図。
【図4】 正規化のイメージを表す図。
【図5】 請求項3に係わる学習装置の一実施の形態を
示すブロック構成図。
【図6】 請求項3に係わる学習装置の他の実施の形態
を示すブロック構成図。
【図7】 請求項4に係わる学習装置の一実施の形態を
示すブロック構成図。
【図8】 請求項4に係わる学習装置の他の実施の形態
を示すブロック構成図。
【図9】 ニューラルネットワークを用いた学習装置の
動作を説明するフローチャート。
【図10】 全学習データに対する重み係数更新分を求
めるフローチャート。
【図11】 請求項5に係わる学習装置の一実施の形態
を示すブロック構成図。
【図12】 請求項6に係わる学習装置の他の実施の形
態を示すブロック構成図。
【符号の説明】
1…学習データ保存手段 2…多項式演算部 3…パラメータ更新アルゴリズム 4,4a…評価関数レベルチェック手段 5,5a…学習終了チェック手段 6,6a…評価関数目標レベル更新手段 7…ニューラルネットワーク 8…ニューラルネットワーク学習アルゴリズム 14−1,14−2,… …パラメータ更新分演算手段 15,15a…出力誤差絶対値合計手段 16,16a…学習終了チェック手段 17…パラメータ更新分合計手段 18…多項式パラメータ更新手段 20−1,20−2,… …重み係数更新分演算手段 22…重み係数更新分合計手段 23…ニューラルネットワーク重み係数更新手段

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】 学習データを保存する学習データ保存手
    段と、 この保存手段に保存される学習データを入力データと
    し、複数のパラメータをもつ多項式の演算またはニュー
    ラルネットワークによる演算を行う学習装置本体部と、 この学習装置本体部の演算出力と前記学習データである
    教師信号との出力誤差をもとに、評価関数の現在設定レ
    ベルを満たすか否かをチェックする多段階設定レベルを
    もつ評価関数レベルチェック手段と、 この評価関数レベルチェック手段において現在設定レベ
    ルを満たす状態にあるとき、前記現在設定レベルが最終
    目標レベルを満足するか否かを判断し、満足するときに
    学習終了とする学習終了チェック手段と、 この学習終了チェック手段から満足しない結果が得られ
    たとき、前記評価関数レベルチェック手段の設定レベル
    を所定の取決めに従ってより激しい設定レベルに変更
    し、かつ、更新継続を指示する評価関数目標レベル更新
    手段と、 この更新手段の更新継続に従って出力誤差が小さくなる
    ように前記多項式のパラメータまたはニューラルネット
    ワークの重み係数を更新する学習更新アルゴリズムとを
    備えたことを特徴とする学習装置。
  2. 【請求項2】 請求項1に記載する学習装置において、 交通流データを保存する交通流データ保存手段と、この
    交通流データ保存手段に保存されている交通流データを
    正規化し、入力データおよび教師信号をもつ学習データ
    を取得するデータ正規化手段とを設けたことを特徴とす
    る学習装置。
  3. 【請求項3】 学習データを保存する学習データ保存手
    段と、 この保存手段に保存される各学習データごとに入力デー
    タとし、それぞれ複数のパラメータをもつ多項式の演算
    またはニューラルネットワークによる演算を行い、各演
    算結果と前記各学習データである教師信号との出力誤差
    およびこれら各出力誤差から各パラメータ更新分または
    各重み係数更新分を求める各入力学習データ毎の更新分
    演算手段と、 これら更新分演算手段からの出力誤差を合計演算する出
    力誤差合計手段と、 この出力誤差合計手段からの出力誤差の合計値が最終目
    標レベルを満足するか否かを判断し、満足するときに学
    習終了とする学習終了チェック手段と、 この学習終了チェック手段から満足しない結果が得られ
    たとき、各入力学習データ毎更新分演算手段からの各学
    習データに対する各パラメータ更新分または各重み係数
    更新分の合計を求める更新分合計手段と、 この更新分合計手段によって得られる各パラメータ更新
    分または各重み係数更新分の合計に基づいて前記多項式
    のパラメータまたはニューラルネットワークの重み係数
    を更新する更新手段とを備えたことを特徴とする学習装
    置。
  4. 【請求項4】 学習データを保存する学習データ保存手
    段と、 この保存手段に保存される各学習データごとに入力デー
    タとし、それぞれ複数のパラメータをもつ多項式の演算
    またはニューラルネットワークによる演算を行い、各演
    算結果と前記各学習データである教師信号との出力誤差
    およびこれら各出力誤差から各パラメータ更新分または
    各重み係数更新分を求める各入力学習データ毎の更新分
    演算手段と、 これら更新分演算手段からの出力誤差を合計する出力誤
    差合計手段と、 この出力誤差合計手段からの出力誤差の合計値が評価関
    数の現在設定レベルを満たすか否かをチェックする多段
    階の設定レベルをもつ評価関数レベルチェック手段と、 この評価関数レベルチェック手段において現在設定レベ
    ルを満たす状態にあるとき、前記現在設定レベルが最終
    目標レベルを満足するか否かを判断し、満足するときに
    学習終了とする学習終了チェック手段と、 この学習終了チェック手段から満足しない結果が得られ
    たとき、前記評価関数レベルチェック手段の設定レベル
    を所定の取決めに従ってより激しい設定レベルに変更
    し、かつ、更新継続を出力する評価関数目標レベル更新
    手段と、 この更新手段から更新継続を受けたとき、前記更新分演
    算手段からの各学習データに対する各パラメータ更新分
    または各重み係数更新分の合計を求める更新分合計手段
    と、 この更新分合計手段によって得られる各パラメータ更新
    分または各重み係数更新分の合計に基づいて前記多項式
    のパラメータまたはニューラルネットワークの重み係数
    を更新する更新手段とを備えたことを特徴とする学習装
    置。
  5. 【請求項5】 請求項3または請求項4に記載する学習
    装置において、 交通流データを保存する交通流データ保存手段と、この
    交通流データ保存手段に保存されている交通流データを
    正規化し、入力データおよび教師信号をもつ学習データ
    を取得するデータ正規化手段とを設けたことを特徴とす
    る学習装置。
  6. 【請求項6】 請求項3または請求項4に記載する学習
    装置において、 交通流データを保存する交通流データ保存手段と、走行
    所要時間データを保存する走行所要時間データ保存手段
    と、これら交通流データおよび走行所要時間データを正
    規化し、入力データおよび教師信号をもつ学習データを
    取得するデータ正規化手段とを設けたことを特徴とする
    学習装置。
JP10281407A 1998-10-02 1998-10-02 学習装置 Pending JP2000112915A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10281407A JP2000112915A (ja) 1998-10-02 1998-10-02 学習装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10281407A JP2000112915A (ja) 1998-10-02 1998-10-02 学習装置

Publications (1)

Publication Number Publication Date
JP2000112915A true JP2000112915A (ja) 2000-04-21

Family

ID=17638729

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10281407A Pending JP2000112915A (ja) 1998-10-02 1998-10-02 学習装置

Country Status (1)

Country Link
JP (1) JP2000112915A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009244933A (ja) * 2008-03-28 2009-10-22 Hitachi Ltd プラントの制御装置および火力発電プラントの制御装置
JP2022045456A (ja) * 2020-09-09 2022-03-22 シャープ株式会社 移動時間予想装置および移動時間予想方法
JP7436335B2 (ja) 2020-09-09 2024-02-21 シャープ株式会社 自動配車システムおよび自動配車方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009244933A (ja) * 2008-03-28 2009-10-22 Hitachi Ltd プラントの制御装置および火力発電プラントの制御装置
JP4627553B2 (ja) * 2008-03-28 2011-02-09 株式会社日立製作所 プラントの制御装置および火力発電プラントの制御装置
US8214062B2 (en) 2008-03-28 2012-07-03 Hitachi, Ltd. Plant control system and thermal power generation plant control system
JP2022045456A (ja) * 2020-09-09 2022-03-22 シャープ株式会社 移動時間予想装置および移動時間予想方法
JP7436335B2 (ja) 2020-09-09 2024-02-21 シャープ株式会社 自動配車システムおよび自動配車方法
JP7453102B2 (ja) 2020-09-09 2024-03-19 シャープ株式会社 移動時間予想装置および移動時間予想方法

Similar Documents

Publication Publication Date Title
CN111754000A (zh) 质量感知的边缘智能联邦学习方法及系统
CN112202928A (zh) 传感边缘云区块链网络可信卸载协作节点选择系统及方法
CN115906954A (zh) 一种基于图神经网络的多变量时间序列预测方法及装置
Martignon Comparing Fast and Frugal
CN114564304A (zh) 一种边缘计算的任务卸载方法
CN110310199B (zh) 借贷风险预测模型的构建方法、系统及借贷风险预测方法
JP2000112915A (ja) 学習装置
CN114219078A (zh) 一种神经网络模型交互训练方法、装置及存储介质
Vega-Amaya Zero-sum average semi-Markov games: fixed-point solutions of the Shapley equation
CN115842668A (zh) 一种信息传播源的确定方法、系统、电子设备及存储介质
Saito et al. Discovery of relevant weights by minimizing cross-validation error
CN115099535A (zh) 一种双目标群智感知激励机制方法
Liu et al. Online task dispatching and pricing for quality-of-service-aware sensing data collection for mobile edge clouds
JPH02231670A (ja) ニューラル・ネットワークの学習装置
WO2022004957A1 (ko) 투자자문방법 및 그 장치
JP3208084B2 (ja) 電波伝搬損失推定方法及び装置
CN117579136B (zh) Tdma中网控系统对反向突发的aupc及acm控制方法
JPH06186064A (ja) システムモデリング装置
CN108596235A (zh) 基于SPeLUs函数的神经网络图像分类方法
CN110650187B (zh) 一种边缘节点的节点类型确定方法及目标网络
CN110807706B (zh) 一种基于互联网的反洗钱监控系统
WO2021220450A1 (ja) 識別装置、識別方法及び記録媒体
JP3412700B2 (ja) 神経回路網型パターン学習方法およびパターン処理装置
JP2000250885A (ja) 集合型予測装置
JP3355539B2 (ja) 性能推定方法及び性能推定装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050301

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051025

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060228