JPH05265993A - ニューラルネットの制御方式 - Google Patents
ニューラルネットの制御方式Info
- Publication number
- JPH05265993A JPH05265993A JP4063780A JP6378092A JPH05265993A JP H05265993 A JPH05265993 A JP H05265993A JP 4063780 A JP4063780 A JP 4063780A JP 6378092 A JP6378092 A JP 6378092A JP H05265993 A JPH05265993 A JP H05265993A
- Authority
- JP
- Japan
- Prior art keywords
- pattern
- input
- learning
- output
- control parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Character Discrimination (AREA)
Abstract
(57)【要約】
【目的】 学習した入出力パタンの間で中間的な出力を
得る。 【構成】 ニューラルネットワークにおいて 入力パタ
ンと教師パタンのセットを2以上用意し、各入力パタン
同士は同一であるが、教師パタン同士は異なるものとす
る。学習にあたり、第1の組の学習時には制御パラメー
タを任意のXとする。第2の組の学習時には制御パラメ
ータを任意のYとする。この結果、同一の入力パタンに
対し、制御パラメータとしてXとYの中間値に対し、第
1の教師パタンと第2の教師パタンの中間値が学習され
ている結果となり、未学習入力パタンとともに制御パラ
メータを入力すると、前記学習パタンセットの中間の出
力が得られる。
得る。 【構成】 ニューラルネットワークにおいて 入力パタ
ンと教師パタンのセットを2以上用意し、各入力パタン
同士は同一であるが、教師パタン同士は異なるものとす
る。学習にあたり、第1の組の学習時には制御パラメー
タを任意のXとする。第2の組の学習時には制御パラメ
ータを任意のYとする。この結果、同一の入力パタンに
対し、制御パラメータとしてXとYの中間値に対し、第
1の教師パタンと第2の教師パタンの中間値が学習され
ている結果となり、未学習入力パタンとともに制御パラ
メータを入力すると、前記学習パタンセットの中間の出
力が得られる。
Description
【0001】
【産業上の利用分野】本発明はニューラルネットの制御
方式に係り、入力に対する出力を可変とする技術に関す
る。
方式に係り、入力に対する出力を可変とする技術に関す
る。
【0002】
【従来の技術】ニューラルネットワークは、入力パタン
に対する望ましい出力パタンを教師パタンとして与える
ことで、その入出力関係を学習する。その学習後、未学
習入力パタンを入力するとニューラルネットワークは学
習規則に従って未学習入力に対応する出力パタンを生成
して出力する。
に対する望ましい出力パタンを教師パタンとして与える
ことで、その入出力関係を学習する。その学習後、未学
習入力パタンを入力するとニューラルネットワークは学
習規則に従って未学習入力に対応する出力パタンを生成
して出力する。
【0003】このように、従来のニューラルネットワー
クは、一旦学習が収束した後は、その収束結果に基づき
出力パタンを生成するだけである。
クは、一旦学習が収束した後は、その収束結果に基づき
出力パタンを生成するだけである。
【0004】
【発明が解決しようとする課題】このようなニューラル
ネットワークは様々な分野の情報処理に利用されるよう
になってきたが、扱う情報によっては、理想的な出力パ
タンを単に得るだけでなく、その教師パタンと入力パタ
ンとの間の中間的な出力をも得られるのが好ましい場合
がある。
ネットワークは様々な分野の情報処理に利用されるよう
になってきたが、扱う情報によっては、理想的な出力パ
タンを単に得るだけでなく、その教師パタンと入力パタ
ンとの間の中間的な出力をも得られるのが好ましい場合
がある。
【0005】例えば、音声合成をニューラルネットワー
クで行う場合、コーヒー豆のブレンド制御をニューラル
ネットワークで行う場合、物の製造工程のプロセス制御
において、原料の調整をニューラルネットワークで行う
場合などである。
クで行う場合、コーヒー豆のブレンド制御をニューラル
ネットワークで行う場合、物の製造工程のプロセス制御
において、原料の調整をニューラルネットワークで行う
場合などである。
【0006】このような場合、目標として当初設定した
量を可変して出力したい場合がある。音声合成では、教
師パタンとした音程より入力パタンにより近い音程とし
たという場合、コーヒー豆のブレンドを行う場合、当初
設定したものよりブレンド量を変えたい場合、物の製造
工程のプロセス制御において、原料の投入量を目標設定
より少なくする場合などである。
量を可変して出力したい場合がある。音声合成では、教
師パタンとした音程より入力パタンにより近い音程とし
たという場合、コーヒー豆のブレンドを行う場合、当初
設定したものよりブレンド量を変えたい場合、物の製造
工程のプロセス制御において、原料の投入量を目標設定
より少なくする場合などである。
【0007】このような要請を従来のニューラルネット
ワークで行う場合には、再度新たな教師パタンを与えて
学習をやり直す必要があり、時間と労力をかける結果と
なる。
ワークで行う場合には、再度新たな教師パタンを与えて
学習をやり直す必要があり、時間と労力をかける結果と
なる。
【0008】本発明は以上の点に関しなされたもので、
再度教師パタンを作成しなくとも、その教師パタンと入
力パタンの間の中間的な出力を得ることができるように
することを課題とする。
再度教師パタンを作成しなくとも、その教師パタンと入
力パタンの間の中間的な出力を得ることができるように
することを課題とする。
【0009】
【課題を解決するための手段】図1に示したように、ニ
ューラルネットワークの入力層に、入力パタンを入力す
るノードの他に、制御パラメータを入力するためのノー
ドを少なくとも1つ設けた。
ューラルネットワークの入力層に、入力パタンを入力す
るノードの他に、制御パラメータを入力するためのノー
ドを少なくとも1つ設けた。
【0010】ニューラルネットワークには、ある入力パ
タンの集合A0 と、この集合A0 個々の要素について1
対1の対応関係がある教師パタンの集合B0 とを与える
ことで、A0 とB0 との対応関係を学習する学習部が存
在する。
タンの集合A0 と、この集合A0 個々の要素について1
対1の対応関係がある教師パタンの集合B0 とを与える
ことで、A0 とB0 との対応関係を学習する学習部が存
在する。
【0011】さらに、ニューラルネットワークには、制
御パラメータを入力する制御パラメータ入力用ノードが
少なくとも1つ設けられている。そして、学習に際して
は、入力パタンと教師パタンのセットを2以上用意す
る。この各入力パタンと教師パタンの組において、入力
パタン同士は同一であるが、教師パタン同士は異なるも
のである。
御パラメータを入力する制御パラメータ入力用ノードが
少なくとも1つ設けられている。そして、学習に際して
は、入力パタンと教師パタンのセットを2以上用意す
る。この各入力パタンと教師パタンの組において、入力
パタン同士は同一であるが、教師パタン同士は異なるも
のである。
【0012】これらパタンセットが順次ニューラルネッ
トワークに与えられて学習が行われる。各パタンセット
の内、第1の組の学習時には制御パラメータを任意のX
とする。Xは例えば0である。第2の組の学習時には制
御パラメータを任意のYとする。Yは例えば1である。
トワークに与えられて学習が行われる。各パタンセット
の内、第1の組の学習時には制御パラメータを任意のX
とする。Xは例えば0である。第2の組の学習時には制
御パラメータを任意のYとする。Yは例えば1である。
【0013】この結果、同一の入力パタンに対し、制御
パラメータとしてXとYの中間値に対し、第1の教師パ
タンと第2の教師パタンの中間値が学習されている結果
となる。
パラメータとしてXとYの中間値に対し、第1の教師パ
タンと第2の教師パタンの中間値が学習されている結果
となる。
【0014】
【作用】本発明に係るニューラルネットワークは、複数
の入力用ノードからなる入力層と複数の出力用ノードか
らなる出力層との少なくとも2つの層を備えたている。
そして、前記入力層は、制御パラメータを入力する制御
パラメータ入力用ノードを少なくとも1つ備えている。
ここで、前記制御パラメータ入力用ノードはスイッチか
らなり、このスイッチのオン・オフで制御パラメータが
設定される。
の入力用ノードからなる入力層と複数の出力用ノードか
らなる出力層との少なくとも2つの層を備えたている。
そして、前記入力層は、制御パラメータを入力する制御
パラメータ入力用ノードを少なくとも1つ備えている。
ここで、前記制御パラメータ入力用ノードはスイッチか
らなり、このスイッチのオン・オフで制御パラメータが
設定される。
【0015】本発明に係るニューラルネットワークで
は、未学習の入力パタンを与えるとき、制御パラメータ
にXとYの間の中間値を与えると、学習させたパタンセ
ットの中間的な値を出力する。これは、ニューラルネッ
トワークの補間機能を利用したものである。
は、未学習の入力パタンを与えるとき、制御パラメータ
にXとYの間の中間値を与えると、学習させたパタンセ
ットの中間的な値を出力する。これは、ニューラルネッ
トワークの補間機能を利用したものである。
【0016】ここで、第1の組の学習時には制御パラメ
ータを0とするとともに、教師パタンとして入力パタン
と同一パタンを与えるようにすると、0とYとの間の中
間値を制御パラメータに設定すると、入力パタンと教師
パタンとの間の中間値が出力される。ところで、複数セ
ットのパタンを学習させようとする場合、いろいろなパ
ラメータの設定方法があるので、それぞれ使う場面に応
じて使い分ける必要がある。
ータを0とするとともに、教師パタンとして入力パタン
と同一パタンを与えるようにすると、0とYとの間の中
間値を制御パラメータに設定すると、入力パタンと教師
パタンとの間の中間値が出力される。ところで、複数セ
ットのパタンを学習させようとする場合、いろいろなパ
ラメータの設定方法があるので、それぞれ使う場面に応
じて使い分ける必要がある。
【0017】ここでは代表的な使い方として3つの例を
示す。今入力パタンと教師パタンとのセットがn組ある
と考える。 <方法1>(実施例で行っている方法) ここでは、制御パラメータ用の入力ノードとして、(n
−1)個のノードを設ける。
示す。今入力パタンと教師パタンとのセットがn組ある
と考える。 <方法1>(実施例で行っている方法) ここでは、制御パラメータ用の入力ノードとして、(n
−1)個のノードを設ける。
【0018】
【表1】 第0セットは全ノードの入力を0にしており、方法1で
はこのセットを基準にして位置づける。基本セットから
第iセット(i=1〜9)の方向へ出力結果をシフトし
た出力結果を得たい場合に、制御パラメータを表1のよ
うに設定して学習を行う。 <方法2>ここでは、制御パラメータ用の入力ノードと
して、n個のノードを設ける。
はこのセットを基準にして位置づける。基本セットから
第iセット(i=1〜9)の方向へ出力結果をシフトし
た出力結果を得たい場合に、制御パラメータを表1のよ
うに設定して学習を行う。 <方法2>ここでは、制御パラメータ用の入力ノードと
して、n個のノードを設ける。
【0019】
【表2】 方式2は、第0セットから第9セットまでの学習パタン
をニューラルネット的に融合した結果を出力させたいと
きの学習方法である。実行時に各セットの制御パラメー
タ用ノードの和が1になるように入力することで、それ
ぞれのセットの割合を任意に混ぜ合わせた出力結果を得
ることができる。 <方法3>制御パラメータ用の入力ノードとして、m個
(m≧log2 n, mは整数)のノードを設ける。
をニューラルネット的に融合した結果を出力させたいと
きの学習方法である。実行時に各セットの制御パラメー
タ用ノードの和が1になるように入力することで、それ
ぞれのセットの割合を任意に混ぜ合わせた出力結果を得
ることができる。 <方法3>制御パラメータ用の入力ノードとして、m個
(m≧log2 n, mは整数)のノードを設ける。
【0020】
【表3】 方式3は、制御パラメータ用ノードの数を最も少なくす
る設定方法である。ノード数を減らすことで、学習時間
を短くすることが期待できるが、方法1や方法2のよう
なノードの意味付けは一般的にはできない。
る設定方法である。ノード数を減らすことで、学習時間
を短くすることが期待できるが、方法1や方法2のよう
なノードの意味付けは一般的にはできない。
【0021】ところで、本発明はあらゆる階層型ニュー
ラルネットワークの他、種々の形式のニューラルネット
ワークを使用できる。ニューラルネットワークの例は図
2から図4に示した。ニューラルネットワークについて
は、特開平2−64788,特開平2−226382,
特開平2−22878に開示されているものを用いるこ
とが出来る。但し、これらに限定されるものではない。
ラルネットワークの他、種々の形式のニューラルネット
ワークを使用できる。ニューラルネットワークの例は図
2から図4に示した。ニューラルネットワークについて
は、特開平2−64788,特開平2−226382,
特開平2−22878に開示されているものを用いるこ
とが出来る。但し、これらに限定されるものではない。
【0022】階層型ニューラルネットワーク(NN)と
しては、明確に区別された入力層と出力層の2つの層を
少なくとも備えている。元来、この2つの層だけでもあ
る程度の処理は可能であるが、これらの層の間に隠れ層
という1層以上の中間層を入れたものがより有効的であ
る。
しては、明確に区別された入力層と出力層の2つの層を
少なくとも備えている。元来、この2つの層だけでもあ
る程度の処理は可能であるが、これらの層の間に隠れ層
という1層以上の中間層を入れたものがより有効的であ
る。
【0023】ニューラルネットワーク(NN)では、入
力パタンに対して望ましい出力がでるようにネットワー
クを調整する、すなわち学習する必要があり、その方法
の代表的なものがバックプロパゲーション法である。
力パタンに対して望ましい出力がでるようにネットワー
クを調整する、すなわち学習する必要があり、その方法
の代表的なものがバックプロパゲーション法である。
【0024】本発明では、ニューラルネットワーク(N
N)は学習部(A)を有し、この学習部(A)での学習
が終了した後、重み更新部13の重みを使って未学習の
データを評価するものが好適に使用される。
N)は学習部(A)を有し、この学習部(A)での学習
が終了した後、重み更新部13の重みを使って未学習の
データを評価するものが好適に使用される。
【0025】ここで、前記学習部(A)は、前記ニュー
ラルネットワーク(NN)への入力とそれに対する望ま
しい出力である教師パタンを保持する入出力パタン保持
部10と、この入出力パタン保持部10の入力パタンを
ニューラルネットワーク(NN)に入力し出力値を計算
する学習実行部11と、所定の学習規則と学習パラメー
タを保持する学習パラメータ保持部12と、前記学習規
則及び学習パラメータに基づいて、前記学習実行部11
でのネットワークの出力と入出力パタン保持部10の教
師パタンとを比較し、ネットワークの重みを更新する重
み更新部13と、更新されたネットワークの重みを任意
の学習段階で記憶する結合の重み記憶部14とを備えた
構成を例示できる。
ラルネットワーク(NN)への入力とそれに対する望ま
しい出力である教師パタンを保持する入出力パタン保持
部10と、この入出力パタン保持部10の入力パタンを
ニューラルネットワーク(NN)に入力し出力値を計算
する学習実行部11と、所定の学習規則と学習パラメー
タを保持する学習パラメータ保持部12と、前記学習規
則及び学習パラメータに基づいて、前記学習実行部11
でのネットワークの出力と入出力パタン保持部10の教
師パタンとを比較し、ネットワークの重みを更新する重
み更新部13と、更新されたネットワークの重みを任意
の学習段階で記憶する結合の重み記憶部14とを備えた
構成を例示できる。
【0026】また、階層型ニューラルネットワーク(N
N)の一つの形態として、Elman型リカレントネッ
トワークを用いることができる。Elman型リカレン
トネットワークとは、図示しないが、入力層、隠れ層、
出力層を有し、かつ、隠れ層の出力データを複写して保
持するとともに保持した出力データを再度隠れ層に入力
するコンテキスト層を備えたニューラルネットワーク
(NN)である。入力層、隠れ層、出力層の各層はそれ
ぞれ1以上のノードを有している。
N)の一つの形態として、Elman型リカレントネッ
トワークを用いることができる。Elman型リカレン
トネットワークとは、図示しないが、入力層、隠れ層、
出力層を有し、かつ、隠れ層の出力データを複写して保
持するとともに保持した出力データを再度隠れ層に入力
するコンテキスト層を備えたニューラルネットワーク
(NN)である。入力層、隠れ層、出力層の各層はそれ
ぞれ1以上のノードを有している。
【0027】そして、時刻tにおける隠れ層の出力値w
をコンテキスト層にコピーし、このコンテキスト層と入
力層の値が時刻t+1における隠れ層の出力となる。従
って、このコンテキスト層が過去の入力データの履歴を
保持することになる。
をコンテキスト層にコピーし、このコンテキスト層と入
力層の値が時刻t+1における隠れ層の出力となる。従
って、このコンテキスト層が過去の入力データの履歴を
保持することになる。
【0028】階層型ニューラルネットワーク(NN)を
より詳細に説明する。階層型ニューラルネットワーク
(NN)は、図2のように、学習部(A)を有し、この
学習部(A)での学習が終了した後、重み更新部13の
重みを使って未学習のデータを評価する。
より詳細に説明する。階層型ニューラルネットワーク
(NN)は、図2のように、学習部(A)を有し、この
学習部(A)での学習が終了した後、重み更新部13の
重みを使って未学習のデータを評価する。
【0029】ニューラルネットワーク(NN)は、入力
層、隠れ層、出力層を有し、各層はそれぞれ複数のノー
ド(ユニット)を有している。各層を構成する複数のユ
ニットは互いにある重みで結合されている。このネット
ワークに入力パタンと望ましい出力パタン(教師パタ
ン)の組を与えることによりネットワークの重みを学習
させることができる。
層、隠れ層、出力層を有し、各層はそれぞれ複数のノー
ド(ユニット)を有している。各層を構成する複数のユ
ニットは互いにある重みで結合されている。このネット
ワークに入力パタンと望ましい出力パタン(教師パタ
ン)の組を与えることによりネットワークの重みを学習
させることができる。
【0030】学習は以下のように進められる。まず、ネ
ットワークにある入力パタンを与え出力を得る。実際の
出力と正しい出力の差の情報をとりだす。するとネット
ワークは正しい出力値と実際の出力値の差が減少するよ
うにネットワークの内部構造(結合の強さ=重み)を調
整する。これを何度も繰り返すことにより、ネットワー
クはある入出力関係を満たすような重みを自動的に探索
していく。この学習アルゴリズムがバックプロパゲーシ
ョン法である。
ットワークにある入力パタンを与え出力を得る。実際の
出力と正しい出力の差の情報をとりだす。するとネット
ワークは正しい出力値と実際の出力値の差が減少するよ
うにネットワークの内部構造(結合の強さ=重み)を調
整する。これを何度も繰り返すことにより、ネットワー
クはある入出力関係を満たすような重みを自動的に探索
していく。この学習アルゴリズムがバックプロパゲーシ
ョン法である。
【0031】このようにして学習したネットワークを用
いると、学習させた入力パタンについては表示した正し
い出力を返すが更に学習させていない入力パタンについ
ても学習した入出力パタンに準じた出力パタンを返す。
これがニューラルネットワーク(NN)の大きな特徴と
なっている。
いると、学習させた入力パタンについては表示した正し
い出力を返すが更に学習させていない入力パタンについ
ても学習した入出力パタンに準じた出力パタンを返す。
これがニューラルネットワーク(NN)の大きな特徴と
なっている。
【0032】このように、ニューラルネットワーク(N
N)は学習部(A)を有し、この学習部(A)での学習
が終了した後、重み更新部13の重みを使って未学習の
データを処理する。
N)は学習部(A)を有し、この学習部(A)での学習
が終了した後、重み更新部13の重みを使って未学習の
データを処理する。
【0033】ここで、学習部(A)は、前記ニューラル
ネットワーク(NN)への入力とそれに対する望ましい
出力である教師パタンを保持する入出力パタン保持部1
0と、この入出力パタン保持部10の入力パタンをニュ
ーラルネットワーク(NN)に入力し出力値を計算する
学習実行部11と、所定の学習規則と学習パラメータを
保持する学習パラメータ保持部12と、前記学習規則及
び学習パラメータに基づいて、前記学習実行部11での
ネットワークの出力と入出力パタン保持部10の教師パ
タンとを比較し、ネットワークの重みを更新する重み更
新部13と、更新されたネットワークの重みを任意の学
習段階で記憶する結合の重み記憶部14を備えている。
ネットワーク(NN)への入力とそれに対する望ましい
出力である教師パタンを保持する入出力パタン保持部1
0と、この入出力パタン保持部10の入力パタンをニュ
ーラルネットワーク(NN)に入力し出力値を計算する
学習実行部11と、所定の学習規則と学習パラメータを
保持する学習パラメータ保持部12と、前記学習規則及
び学習パラメータに基づいて、前記学習実行部11での
ネットワークの出力と入出力パタン保持部10の教師パ
タンとを比較し、ネットワークの重みを更新する重み更
新部13と、更新されたネットワークの重みを任意の学
習段階で記憶する結合の重み記憶部14を備えている。
【0034】学習実行部11をさらに詳細に説明する。
前記したようにニューラルネットワーク(NN)は多層
のネットワーク構造となっていて、各層は多くのユニッ
トから構成され、各ユニット間にはそれぞれ結合の重み
Wが定義される。
前記したようにニューラルネットワーク(NN)は多層
のネットワーク構造となっていて、各層は多くのユニッ
トから構成され、各ユニット間にはそれぞれ結合の重み
Wが定義される。
【0035】各ユニットは以下に示すようにしてネット
ワークの出力値を計算する。あるユニットが複数のユニ
ットから入力を受けた場合、その重み付け総和に各ユニ
ットの閾値θを加えたものが入力値 netとなる(図3参
照)。
ワークの出力値を計算する。あるユニットが複数のユニ
ットから入力を受けた場合、その重み付け総和に各ユニ
ットの閾値θを加えたものが入力値 netとなる(図3参
照)。
【0036】net = ΣwijOj+θ wij:ユニットUjからユニットUiへの結合の重み Oj :ユニットUjの出力 ユニットの出力値はこの入力の総和net に、活性化関数
を適用して計算される。活性化関数には微分可能な非線
形関数であるシグモイド関数を使用する。すると、ユニ
ットUi の出力値Oi は Oi = 1/{1+exp(−neti)} となる。
を適用して計算される。活性化関数には微分可能な非線
形関数であるシグモイド関数を使用する。すると、ユニ
ットUi の出力値Oi は Oi = 1/{1+exp(−neti)} となる。
【0037】バックプロパゲーション法で用いるネット
ワークは、前記したような多層のネットワークである
が、ここでは図4のような入力層、隠れ層、出力層の3
層からなる場合について述べる。
ワークは、前記したような多層のネットワークである
が、ここでは図4のような入力層、隠れ層、出力層の3
層からなる場合について述べる。
【0038】隠れ層の各ユニットは入力層のすべてのユ
ニットと結合している。出力層の各ユニットは入力層と
隠れ層の各ユニットとすべて結合している。そして各層
内でのユニット同士の結合はない。
ニットと結合している。出力層の各ユニットは入力層と
隠れ層の各ユニットとすべて結合している。そして各層
内でのユニット同士の結合はない。
【0039】入力層の各ユニットにはネットワークへの
入力データが与えられる。従って、隠れ層の各ユニット
の出力値hは、 hj = 1/{1+exp(−neti)} dK :k番目の入力ユニットの出力値 hj :j番目の隠れユニットの出力値 wjk:k番目の入力ユニットとj番目の隠れユニット間
の結合の重み θj :j番目の隠れユニットの閾値 となる。
入力データが与えられる。従って、隠れ層の各ユニット
の出力値hは、 hj = 1/{1+exp(−neti)} dK :k番目の入力ユニットの出力値 hj :j番目の隠れユニットの出力値 wjk:k番目の入力ユニットとj番目の隠れユニット間
の結合の重み θj :j番目の隠れユニットの閾値 となる。
【0040】また、出力層の各ユニットの出力値oは、 Oi = 1/{1+exp(−neti)}・・(12)式に
より hj :j番目の隠れユニットの出力値 oi :i番目の出力ユニットの出力値 wij:j番目の隠れユニットとi番目の出力ユニット間
の結合の重み θi :i番目の出力ユニットの閾値 となる。
より hj :j番目の隠れユニットの出力値 oi :i番目の出力ユニットの出力値 wij:j番目の隠れユニットとi番目の出力ユニット間
の結合の重み θi :i番目の出力ユニットの閾値 となる。
【0041】次に、重み更新部13を更に詳細に説明す
る。
る。
【0042】この重み更新部13ではネットワークの出
力が望ましい出力となるようにネットワークの重みを変
える。あるパタンpを与えた時の実際の出力値(opi)
と、望ましい出力値(tpi)の平均2乗誤差Epをと
る。
力が望ましい出力となるようにネットワークの重みを変
える。あるパタンpを与えた時の実際の出力値(opi)
と、望ましい出力値(tpi)の平均2乗誤差Epをと
る。
【0043】Ep = (1/2)(tpi−opi)2 学習させるためには、この誤差を減らすように、ネット
ワーク中の全ての重みを変える。
ワーク中の全ての重みを変える。
【0044】出力層についての学習規則は i) 隠れ層のユニット− 出力層の各ユニットの間
の重みの変化 ii) 入力層のユニット− 出力層のユニット間の重
みの変化 n:学習回数 α:モーメンタム δpi = (tpi−opi){opi(1−opi)} 隠れ層についての学習規則は 入力層のユニット − 隠れ層のユニットの間の重みの
変化 δpj = hpj(1−hpj)Σδpiwij である。
の重みの変化 ii) 入力層のユニット− 出力層のユニット間の重
みの変化 n:学習回数 α:モーメンタム δpi = (tpi−opi){opi(1−opi)} 隠れ層についての学習規則は 入力層のユニット − 隠れ層のユニットの間の重みの
変化 δpj = hpj(1−hpj)Σδpiwij である。
【0045】次に結合の重み記憶部14はネットワーク
の重みを任意の学習段階で保存する。出力装置は、重み
記憶部14に保存してあるネットワークの重みをロード
し、入力パタンを与えると、ネットワークの出力を計算
する。以上のように学習したネットワークを用いると、
学習させた入力パタンについては正しい出力を返すが、
更に学習させていない入力パタンについても学習した入
出力パタンを基にしたような出力パタンを返す。
の重みを任意の学習段階で保存する。出力装置は、重み
記憶部14に保存してあるネットワークの重みをロード
し、入力パタンを与えると、ネットワークの出力を計算
する。以上のように学習したネットワークを用いると、
学習させた入力パタンについては正しい出力を返すが、
更に学習させていない入力パタンについても学習した入
出力パタンを基にしたような出力パタンを返す。
【0046】このようなニューラルネットワークで制御
パラメータの値を変化させると、関連するユニットの出
力(つまりシグモイド関数の出力)は、図23で示した
ように、瀬制御パラメータの0〜1への変化に伴って、
A1からA2へと変化します。この作用が各ユニットで生
じ、全体として補間しているように振る舞う。
パラメータの値を変化させると、関連するユニットの出
力(つまりシグモイド関数の出力)は、図23で示した
ように、瀬制御パラメータの0〜1への変化に伴って、
A1からA2へと変化します。この作用が各ユニットで生
じ、全体として補間しているように振る舞う。
【0047】
【実施例】本実施例は、ニューラルネットワークにおい
て、原型の文字群に対する希望の装飾等を施した変形文
字群を用意して、その両者間の変形規則を学習させ、学
習した変形規則に従って変形文字(文字フォント)を得
る場合の例である。
て、原型の文字群に対する希望の装飾等を施した変形文
字群を用意して、その両者間の変形規則を学習させ、学
習した変形規則に従って変形文字(文字フォント)を得
る場合の例である。
【0048】文字のフォントというものは、原型文字に
対して、1つのスタイルに沿って変形したものである。
例えば明朝体というのは、一の横の棒の、右の端に兜と
よばれる盛り上がりをつける、という変形を加えてい
る。各社のワープロでは、この変形が僅かずつ異なる
が、それも一定のルールに沿って、全ての字について変
形して作成される。
対して、1つのスタイルに沿って変形したものである。
例えば明朝体というのは、一の横の棒の、右の端に兜と
よばれる盛り上がりをつける、という変形を加えてい
る。各社のワープロでは、この変形が僅かずつ異なる
が、それも一定のルールに沿って、全ての字について変
形して作成される。
【0049】従って、原型の文字に、一定の変形規則に
従って、変形を加えれば、1セットのフォントができあ
がる。よって、原型の文字群に対する希望の装飾文字群
を用意して、その両者間の変形規則をニューラルネット
ワークで学習させる。そして、学習していない文字を入
力すると、学習した変形規則に従って新たな装飾文字を
自動的に行える。
従って、変形を加えれば、1セットのフォントができあ
がる。よって、原型の文字群に対する希望の装飾文字群
を用意して、その両者間の変形規則をニューラルネット
ワークで学習させる。そして、学習していない文字を入
力すると、学習した変形規則に従って新たな装飾文字を
自動的に行える。
【0050】以下、文字フォント作成のための実施例を
説明する。 <実施例1>この実施例の手順を図5のフローチャート
で説明する。
説明する。 <実施例1>この実施例の手順を図5のフローチャート
で説明する。
【0051】(a)まず、取得したい文字のセット(た
とえば教育漢字、JIS第一水準など)の、原型となる
フォントを一定の電子的な方法、ここでは文字を表す曲
線を複数の連続した直線からなる折れ線に近似させ、近
似した折れ線の各線分(セグメント)を座標画面の上の
ベクトル(起点の座標データ、線分の長さデータ、及
び、線分の向きを示す角度データ)で表現する。
とえば教育漢字、JIS第一水準など)の、原型となる
フォントを一定の電子的な方法、ここでは文字を表す曲
線を複数の連続した直線からなる折れ線に近似させ、近
似した折れ線の各線分(セグメント)を座標画面の上の
ベクトル(起点の座標データ、線分の長さデータ、及
び、線分の向きを示す角度データ)で表現する。
【0052】原型となるフォントは、文字の飾りを取り
払った、エッセンス的なものである。なお、既存のフォ
ント例えばゴシック体などを原型とすべきフォントとし
て使用してもい。このように表現された文字を、原型文
字群Aと呼ぶことにする。
払った、エッセンス的なものである。なお、既存のフォ
ント例えばゴシック体などを原型とすべきフォントとし
て使用してもい。このように表現された文字を、原型文
字群Aと呼ぶことにする。
【0053】(b)つぎに、変換したいスタイルを持っ
た文字のサンプルを用意する。その全集合こそが今求め
たい文字セットである。これをスタイル文字群Bと呼
ぶ。スタイル文字群のサンプルはB1,B2,..Bn
と表現し、これも、前記(a)と同じくベクトルデータ
として保持しておく。
た文字のサンプルを用意する。その全集合こそが今求め
たい文字セットである。これをスタイル文字群Bと呼
ぶ。スタイル文字群のサンプルはB1,B2,..Bn
と表現し、これも、前記(a)と同じくベクトルデータ
として保持しておく。
【0054】(c)ニューラルネットワークの入力に、
サンプルのB1・・・Bnに対応する原型文字群Aの内
の部分集合A1,A2,..Anを与える(ステップ1
01)。
サンプルのB1・・・Bnに対応する原型文字群Aの内
の部分集合A1,A2,..Anを与える(ステップ1
01)。
【0055】(d)教師パタンには、B1,B2,..
Bnを与える(ステップ102)。ニューラルネットワ
ークの学習部は、これら入力データを元に、AからBへ
の変形規則を学習する(ステップ103)。学習が収束
しなくとも、学習を終了させることは可能である(ステ
ップ106) (e)学習が終了したら、学習していないAの集合の残
り全てを、学習済みのニューラルネットに次々に入力す
る(ステップ107)。すると、学習していないAの集
合の残り全てに対して前記変形規則に従った変形が加え
られ(ステップ108)、所望のすべてのスタイル文字
セットBが得られる(ステップ109)。
Bnを与える(ステップ102)。ニューラルネットワ
ークの学習部は、これら入力データを元に、AからBへ
の変形規則を学習する(ステップ103)。学習が収束
しなくとも、学習を終了させることは可能である(ステ
ップ106) (e)学習が終了したら、学習していないAの集合の残
り全てを、学習済みのニューラルネットに次々に入力す
る(ステップ107)。すると、学習していないAの集
合の残り全てに対して前記変形規則に従った変形が加え
られ(ステップ108)、所望のすべてのスタイル文字
セットBが得られる(ステップ109)。
【0056】このようにして、文字データを適当なデー
タ表現にして、ニューラルネットワークに学習させるこ
とで、個人の文字の特徴を反映させた文字を生成するこ
とができる。
タ表現にして、ニューラルネットワークに学習させるこ
とで、個人の文字の特徴を反映させた文字を生成するこ
とができる。
【0057】以上の手順に従い、以下のような学習条件
でシミュレーション実験を行った。ここでは、同一の原
型文字に対し、T氏とY氏がそれぞれ所望の手書き文字
を希望する変形文字として教師パタンとして入力した。
学習終了後、未学習の原型文字を入力し、ニューラルネ
ットワークの出力としてその原型文字に対する変形文字
を得た。そのシミュレーション結果を、図8から図13
に示す。 教師パタン、入力パタンの作成方式 ここでは、図9,図10のように 「国」、「田」、「固」、「亜」、「弟」、「自」の漢
字について入力パタンのベクトルデータを作成した。
でシミュレーション実験を行った。ここでは、同一の原
型文字に対し、T氏とY氏がそれぞれ所望の手書き文字
を希望する変形文字として教師パタンとして入力した。
学習終了後、未学習の原型文字を入力し、ニューラルネ
ットワークの出力としてその原型文字に対する変形文字
を得た。そのシミュレーション結果を、図8から図13
に示す。 教師パタン、入力パタンの作成方式 ここでは、図9,図10のように 「国」、「田」、「固」、「亜」、「弟」、「自」の漢
字について入力パタンのベクトルデータを作成した。
【0058】パタン作成に当たっては、図6のように、
まず、原型となる文字を表す曲線を複数の連続した直線
からなる折れ線に近似させる。そして、近似した折れ線
の内、第1の線分の起点座標(XI0、YI0)、第1の線
分の長さ(LI0)、第1の線分が前記起点座標を含む水
平線に対してなす角度(AI0)を得る。次いで、この第
1の線分に続く第2の線分についても、その起点座標
(XI1、YI1)、長さ(LI1)、角度(AI1)を得る。
そして、第n番目の線分についても、その起点座標(X
In、YIn)、長さ(LIn)、角度(AIn)を求めてお
く。
まず、原型となる文字を表す曲線を複数の連続した直線
からなる折れ線に近似させる。そして、近似した折れ線
の内、第1の線分の起点座標(XI0、YI0)、第1の線
分の長さ(LI0)、第1の線分が前記起点座標を含む水
平線に対してなす角度(AI0)を得る。次いで、この第
1の線分に続く第2の線分についても、その起点座標
(XI1、YI1)、長さ(LI1)、角度(AI1)を得る。
そして、第n番目の線分についても、その起点座標(X
In、YIn)、長さ(LIn)、角度(AIn)を求めてお
く。
【0059】次いで、図9,図10のように、T氏とY
氏の2名に、「国」、「田」、「固」、「亜」、
「弟」、「自」の漢字を手書きで書いてもらい、希望の
変形文字とした。
氏の2名に、「国」、「田」、「固」、「亜」、
「弟」、「自」の漢字を手書きで書いてもらい、希望の
変形文字とした。
【0060】この変形文字についても、文字を構成する
一つのストロークからなる曲線を複数の連続した直線か
らなる折れ線に近似させ、ベクトルデータを得た。すな
わち、近似した折れ線の内、第1の線分の起点座標(X
O0、YO0)、第1の線分の長さ(LO0)、第1の線分が
前記起点座標を含む水平線に対してなす角度(AO0)を
得る。次いで、この第1の線分に続く第2の線分につい
ても、その起点座標(XO1、YO1)、長さ(LO1)、角
度(AO1)、第n番目の線分についても、その起点座標
(XOn、YOn)、長さ(LOn)、角度(AOn)を求めて
おく。 ニューラルネットワーク 使用したニューラルネットワークは図6のように4つの
入力ノード、1つの制御パラメータ入力ノード、4つの
出力ノードを有する。
一つのストロークからなる曲線を複数の連続した直線か
らなる折れ線に近似させ、ベクトルデータを得た。すな
わち、近似した折れ線の内、第1の線分の起点座標(X
O0、YO0)、第1の線分の長さ(LO0)、第1の線分が
前記起点座標を含む水平線に対してなす角度(AO0)を
得る。次いで、この第1の線分に続く第2の線分につい
ても、その起点座標(XO1、YO1)、長さ(LO1)、角
度(AO1)、第n番目の線分についても、その起点座標
(XOn、YOn)、長さ(LOn)、角度(AOn)を求めて
おく。 ニューラルネットワーク 使用したニューラルネットワークは図6のように4つの
入力ノード、1つの制御パラメータ入力ノード、4つの
出力ノードを有する。
【0061】・構造 units =(5 5 4) ・学習係数 epsilon =(5 1) alpha =(0.8 0.3) ・学習許容誤差 allowance =0.01 ・最大学習回数 iteration =10000 ・ランダムシート random_seed=5 ・初期値 weight =random(0.5 -0.01 0.
01) threshold =random(0.5 -0.01 0.01) 学習 前記構成のニューラルネットワークに(XI0、YI0、L
I0、AI0)を入力パタンとし、(XO0、YO0、LO0、A
O0)を教師パタンとして与え、続いて、(XI1、YI1、
LI1、AI1)を入力パタンとし、(XO1、YO1、LO1、
AO1)を教師パタンとして与え、これを最後のn番目の
線分の入力パタン(XIn、YIn、LIn、AIn)、及び出
力パタン(教師パタン)(XOn、YOn、LOn、AOn)に
ついてまで繰返し行い、一つのストローク情報について
の学習を行う。
01) threshold =random(0.5 -0.01 0.01) 学習 前記構成のニューラルネットワークに(XI0、YI0、L
I0、AI0)を入力パタンとし、(XO0、YO0、LO0、A
O0)を教師パタンとして与え、続いて、(XI1、YI1、
LI1、AI1)を入力パタンとし、(XO1、YO1、LO1、
AO1)を教師パタンとして与え、これを最後のn番目の
線分の入力パタン(XIn、YIn、LIn、AIn)、及び出
力パタン(教師パタン)(XOn、YOn、LOn、AOn)に
ついてまで繰返し行い、一つのストローク情報について
の学習を行う。
【0062】学習にあたっては、「国」、「田」、
「固」、「亜」、「弟」、「自」それぞれの文字につい
て、下の2つの変換を学習させた。 原型文字(入力パタン)→原型文字(教師パタン)(制
御ハ゜ラメータ=0) 原型文字(入力パタン)→変形文字(教師パタン)(制
御ハ゜ラメータ=1) なお、前記ニューラルネットワークにおいて、学習は収
束しなかったので最大学習回数の10000回で打ち切っ
た。このとき、T氏のネットワークの最大2乗誤差
は、0.005320で、誤差平均は0.000419であった。
「固」、「亜」、「弟」、「自」それぞれの文字につい
て、下の2つの変換を学習させた。 原型文字(入力パタン)→原型文字(教師パタン)(制
御ハ゜ラメータ=0) 原型文字(入力パタン)→変形文字(教師パタン)(制
御ハ゜ラメータ=1) なお、前記ニューラルネットワークにおいて、学習は収
束しなかったので最大学習回数の10000回で打ち切っ
た。このとき、T氏のネットワークの最大2乗誤差
は、0.005320で、誤差平均は0.000419であった。
【0063】また、Y氏のネットワークの最大2乗誤差
は、0.007625、誤差平均は0.000623であった。 フォントの生成 前記学習パタンの学習後、未学習の「回」、「中」、
「首」の3文字について入力し、学習した変形規則に基
づいて変形した後の文字を得た。結果を図11,図1
2,図13に示す。ただし、それぞれの文字について、
制御パラメータを0から1まで、0.2ごとに、6通り
変化させている。
は、0.007625、誤差平均は0.000623であった。 フォントの生成 前記学習パタンの学習後、未学習の「回」、「中」、
「首」の3文字について入力し、学習した変形規則に基
づいて変形した後の文字を得た。結果を図11,図1
2,図13に示す。ただし、それぞれの文字について、
制御パラメータを0から1まで、0.2ごとに、6通り
変化させている。
【0064】前記制御パラメータの値は、図中では、c_
para=??????で示している。T氏、Y氏の学習させた個
人文字により近い出力を得たい場合は、制御パラメータ
を1に近い値とし、原型文字により近い出力を得たい場
合は、0に近い値を入力すればよいことが図11,図1
2,図13からわかる。
para=??????で示している。T氏、Y氏の学習させた個
人文字により近い出力を得たい場合は、制御パラメータ
を1に近い値とし、原型文字により近い出力を得たい場
合は、0に近い値を入力すればよいことが図11,図1
2,図13からわかる。
【0065】以上のように制御パラメータを変えること
で中間的な出力を得ることができる。 <実施例2>以下の条件以外は実施例1と同一の条件で
文字フォントを自動的に生成した。 ニューラルネットワーク 以下のネットワークを使用してアルファベットを学習し
た。
で中間的な出力を得ることができる。 <実施例2>以下の条件以外は実施例1と同一の条件で
文字フォントを自動的に生成した。 ニューラルネットワーク 以下のネットワークを使用してアルファベットを学習し
た。
【0066】・構造 units =(524) ・学習係数 epsilon =(5.00000 1.00000) alpha =(0.80000 0.30000) ・学習許容誤差 allowance =0.1 ・最大学習回数 iteration =5000 ・ランダムシート random_seed=5 ・重み weight =random(0.2 -0.1 0.
1) ・しきい値 threshold =random(0.2 -0.1 0.
1) random(a b c)は重みを割合aだけbからcまでの乱
数で設定するということを示す(それ以外は0にす
る)。 学習パタン 学習パタンとして、図14,図15のようにアルファベ
ット「A」、「T」、「H」、「M」の文字について、
下の2つの変換を学習させた。
1) ・しきい値 threshold =random(0.2 -0.1 0.
1) random(a b c)は重みを割合aだけbからcまでの乱
数で設定するということを示す(それ以外は0にす
る)。 学習パタン 学習パタンとして、図14,図15のようにアルファベ
ット「A」、「T」、「H」、「M」の文字について、
下の2つの変換を学習させた。
【0067】原型文字→個人文字(変形文字)(制御ハ゜
ラメータ=1) 原型文字→原型文字(制御ハ゜ラメータ=0) フォントの作成 前記学習パタンの学習後、未学習の「K」、「E」、
「I」、「L」の4文字について入力し、図16,図1
7,図18,図19のように、学習した変形規則に基づ
いて変形した後の文字を得た。ただし、それぞれの文字
について、制御パラメータを0から1まで、0.2ごと
に、6通り変化させている。制御パラメータを変化させ
ることで、前記したように入力パタンと教師パタンとの
中間に位置する変形文字が得られる。 <実施例3>図20,図21,図23に実施例3を示
す。
ラメータ=1) 原型文字→原型文字(制御ハ゜ラメータ=0) フォントの作成 前記学習パタンの学習後、未学習の「K」、「E」、
「I」、「L」の4文字について入力し、図16,図1
7,図18,図19のように、学習した変形規則に基づ
いて変形した後の文字を得た。ただし、それぞれの文字
について、制御パラメータを0から1まで、0.2ごと
に、6通り変化させている。制御パラメータを変化させ
ることで、前記したように入力パタンと教師パタンとの
中間に位置する変形文字が得られる。 <実施例3>図20,図21,図23に実施例3を示
す。
【0068】これは、コーヒー豆のブレンドを自動で行
う場合である。図20のようにコーヒーミル50の上方
に異なる種類のコーヒー豆を収容したホッパ52が複数
設けられ、各ホッパ52の下部には弁54を介しコーヒ
ーミル50に続く搬送管が接続されている。
う場合である。図20のようにコーヒーミル50の上方
に異なる種類のコーヒー豆を収容したホッパ52が複数
設けられ、各ホッパ52の下部には弁54を介しコーヒ
ーミル50に続く搬送管が接続されている。
【0069】そしてニューラルネットワークを備えた制
御部56により、各弁54の開閉を行い、コーヒー豆を
ブレンドするようになっている。ここで、ブレンド学習
パタンとして、図22のように、 学習パタンA 標準ブレンド−標準ブレンド 入力パタン 教師パタン コーヒー豆(a)100g・・・コーヒー豆(a)100g コーヒー豆(b)100g・・・コーヒー豆(a)100g コーヒー豆(c)100g・・・コーヒー豆(a)100g コーヒー豆(d)100g・・・コーヒー豆(a)100g 学習パタンB 標準ブレンド−苦みが強いブレンド コーヒー豆(a)100g・・・コーヒー豆(a)150g コーヒー豆(b)100g・・・コーヒー豆(b)150g コーヒー豆(c)100g・・・コーヒー豆(c) 50g コーヒー豆(d)100g・・・コーヒー豆(d) 50g 学習パタンC 標準ブレンド−苦みが弱いブレンド コーヒー豆(a)100g・・・コーヒー豆(a) 50g コーヒー豆(b)100g・・・コーヒー豆(b) 50g コーヒー豆(c)100g・・・コーヒー豆(c)150g コーヒー豆(d)100g・・・コーヒー豆(d)150g の3つの学習パタンが用意されている。
御部56により、各弁54の開閉を行い、コーヒー豆を
ブレンドするようになっている。ここで、ブレンド学習
パタンとして、図22のように、 学習パタンA 標準ブレンド−標準ブレンド 入力パタン 教師パタン コーヒー豆(a)100g・・・コーヒー豆(a)100g コーヒー豆(b)100g・・・コーヒー豆(a)100g コーヒー豆(c)100g・・・コーヒー豆(a)100g コーヒー豆(d)100g・・・コーヒー豆(a)100g 学習パタンB 標準ブレンド−苦みが強いブレンド コーヒー豆(a)100g・・・コーヒー豆(a)150g コーヒー豆(b)100g・・・コーヒー豆(b)150g コーヒー豆(c)100g・・・コーヒー豆(c) 50g コーヒー豆(d)100g・・・コーヒー豆(d) 50g 学習パタンC 標準ブレンド−苦みが弱いブレンド コーヒー豆(a)100g・・・コーヒー豆(a) 50g コーヒー豆(b)100g・・・コーヒー豆(b) 50g コーヒー豆(c)100g・・・コーヒー豆(c)150g コーヒー豆(d)100g・・・コーヒー豆(d)150g の3つの学習パタンが用意されている。
【0070】そして、制御パラメータは、 学習パタンA = (00) 学習パタンB = (10) 学習パタンC = (01) となっている。
【0071】この学習を行った後、制御パラメータを
(0,0.4)に変えることで、うことにより、苦みが
やや弱いブレンド コーヒー豆(a) 80g コーヒー豆(b) 80g コーヒー豆(c)120g コーヒー豆(d)120g といった中間的な出力を得ることができる。
(0,0.4)に変えることで、うことにより、苦みが
やや弱いブレンド コーヒー豆(a) 80g コーヒー豆(b) 80g コーヒー豆(c)120g コーヒー豆(d)120g といった中間的な出力を得ることができる。
【0072】
【発明の効果】本発明によれば、学習した入出力パタン
の間で中間的な出力を得ることが制御パラメータのよう
な外部制御によりできる。
の間で中間的な出力を得ることが制御パラメータのよう
な外部制御によりできる。
【図1】本発明の原理図
【図2】ニューラルネットワークの一例を示したブロッ
ク図
ク図
【図3】ネットワークの入出力特性を示す図
【図4】ネットワークの構造を示す図
【図5】本発明による文字フォント作成のフローチャー
ト図
ト図
【図6】実施例1のニューラルネットワークの構成図
【図7】入力パタン、教師パタンの作成方式2を示す図
【図8】実施例1の学習パタン
【図9】実施例1における学習パタン1を示し、図19
(a)は原型文字、図19(b)は教師パタンである個
人文字(T氏)、図19(c)は教師パタンである個人
文字(Y氏)
(a)は原型文字、図19(b)は教師パタンである個
人文字(T氏)、図19(c)は教師パタンである個人
文字(Y氏)
【図10】実施例1における学習パタン2を示し、図1
9(a)は原型文字、図19(b)は教師パタンである
個人文字(T氏)、図19(c)は教師パタンである個
人文字(Y氏)
9(a)は原型文字、図19(b)は教師パタンである
個人文字(T氏)、図19(c)は教師パタンである個
人文字(Y氏)
【図11】実施例1の未学習パタンの実行結果1
【図12】実施例1の未学習パタンの実行結果2
【図13】実施例1の未学習パタンの実行結果3
【図14】実施例2における入力パタンと教師パタン1
【図15】実施例2における入力パタンと教師パタン2
【図16】実施例2の未学習パタンの実行結果1
【図17】実施例2の未学習パタンの実行結果2
【図18】実施例2の未学習パタンの実行結果3
【図19】実施例2の未学習パタンの実行結果4
【図20】実施例3の構成図
【図21】実施例3のニューラルネットワークの構成図
【図22】実施例3の学習パタンを示す図
【図23】シグモイド関数と制御パラメータの変化との
関係を示したグラフ図
関係を示したグラフ図
10・・・入出力パタン保持部 11・・・学習実行部 12・・・学習パラメータ保持部 13・・・重み更新部 14・・・重み記憶部 50・・・コーヒーミル 52・・・ホッパ 54・・・弁 NN・・・ニューラルネットワーク
Claims (3)
- 【請求項1】 ある入力パタンの集合A0と、この集合
A0 個々の要素について1対1の対応関係がある教師パ
タンの集合B0とを与えることで、A0とB0との対応関
係を学習するニューラルネットワークにおいて、 制御パラメータを入力する制御パラメータ入力用ノード
を少なくとも1つ設ける一方、入力パタンと教師パタン
の組を2以上用意し、しかも、各入力パタンと教師パタ
ンの組は、入力パタン同士が同一で、教師パタン同士が
異なるものとし、その組の内、第1の組の学習時には制
御パラメータを任意のXとし、第2の組の学習時には制
御パラメータを任意のYとし、 未学習の入力パタンを与えるとき、制御パラメータにX
とYの間の中間値を与えることで、学習させたパタンセ
ットの中間的な値を出力させることを特徴とするニュー
ラルネットワークの制御方式。 - 【請求項2】 1つ以上の入力用ノードからなる入力層
と1つ以上の出力用ノードからなる出力層との少なくと
も2つの層を備えた階層型ニューラルネットワークにお
いて、 前記入力層は、制御パラメータを入力する制御パラメー
タ入力用ノードを少なくとも1つ備えていることを特徴
とするニューラルネットワーク。 - 【請求項3】 前記制御パラメータ入力用ノードはスイ
ッチからなり、このスイッチのオン・オフで制御パラメ
ータが設定されことを特徴とする請求項2記載のニュー
ラルネットワーク。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4063780A JPH05265993A (ja) | 1992-03-19 | 1992-03-19 | ニューラルネットの制御方式 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4063780A JPH05265993A (ja) | 1992-03-19 | 1992-03-19 | ニューラルネットの制御方式 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH05265993A true JPH05265993A (ja) | 1993-10-15 |
Family
ID=13239241
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP4063780A Withdrawn JPH05265993A (ja) | 1992-03-19 | 1992-03-19 | ニューラルネットの制御方式 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH05265993A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004030628A (ja) * | 2002-05-10 | 2004-01-29 | Sony Corp | 情報処理装置および方法、プログラム格納媒体、並びにプログラム |
-
1992
- 1992-03-19 JP JP4063780A patent/JPH05265993A/ja not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004030628A (ja) * | 2002-05-10 | 2004-01-29 | Sony Corp | 情報処理装置および方法、プログラム格納媒体、並びにプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109389207A (zh) | 一种自适应神经网络学习方法及神经网络系统 | |
Narendra et al. | Learning automata approach to hierarchical multiobjective analysis | |
US7062476B2 (en) | Student neural network | |
CN113569033A (zh) | 政务问题生成方法及装置 | |
CN115272774A (zh) | 基于改进自适应差分进化算法的对抗样本攻击方法及系统 | |
US5630020A (en) | Learning method and neural network structure | |
Zurada | Lambda learning rule for feedforward neural networks | |
JPH05265993A (ja) | ニューラルネットの制御方式 | |
Denton et al. | A comparison of nonlinear optimization methods for supervised learning in multilayer feedforward neural networks | |
Suddarth et al. | A symbolic-neural method for solving control problems | |
JPH05265994A (ja) | ニューラルネットワークにおける学習高速化方式 | |
Heimes et al. | Traditional and evolved dynamic neural networks for aircraft simulation | |
JPH05265995A (ja) | 学習パタン選択方式 | |
JP2770523B2 (ja) | 図形着色方式 | |
Kappen | Using Boltzmann Machines for probability estimation | |
JPH0962645A (ja) | 専門家の階層混合モデルの構築的学習方法 | |
Krishnapuram et al. | Determination Of The Structure Of Uncertainty Management Networks | |
JPH11175494A (ja) | ニューラルネットワーク | |
Ongart et al. | The improved training algorithm of deep learning with self-adaptive learning rate | |
Jones et al. | Optimization techniques applied to neural networks: Line search implementation for back propagation | |
JPH05242063A (ja) | ニューラルネットワークシステム | |
JP2000122991A (ja) | 制御装置の製造方法、制御装置、データ生成装置、入出力特性決定方法及び相関関係評価方法 | |
Nikravesh et al. | Process control of nonlinear time variant processes via artificial neural network | |
Takanashi et al. | Image Classification Using l 1-fidelity Multi-layer Convolutional Sparse Representation | |
Smith et al. | The evolution of a feedforward neural network trained under backpropagation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 19990608 |