JPH0447475A - ニューラルネットワークを用いた画像処理方式 - Google Patents
ニューラルネットワークを用いた画像処理方式Info
- Publication number
- JPH0447475A JPH0447475A JP2153939A JP15393990A JPH0447475A JP H0447475 A JPH0447475 A JP H0447475A JP 2153939 A JP2153939 A JP 2153939A JP 15393990 A JP15393990 A JP 15393990A JP H0447475 A JPH0447475 A JP H0447475A
- Authority
- JP
- Japan
- Prior art keywords
- layer
- neural
- elements
- output
- intermediate layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 32
- 230000001537 neural effect Effects 0.000 claims abstract description 37
- 230000008878 coupling Effects 0.000 claims abstract description 24
- 238000010168 coupling process Methods 0.000 claims abstract description 24
- 238000005859 coupling reaction Methods 0.000 claims abstract description 24
- 238000000034 method Methods 0.000 claims description 24
- 230000000873 masking effect Effects 0.000 claims description 16
- 238000003672 processing method Methods 0.000 claims description 12
- 230000006872 improvement Effects 0.000 abstract description 2
- 239000010410 layer Substances 0.000 description 117
- 230000008569 process Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 4
- 238000005070 sampling Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 241001591005 Siga Species 0.000 description 1
- 230000000739 chaotic effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000011229 interlayer Substances 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
Landscapes
- Image Processing (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
[産業上の利用分野]
本発明は、例えばマスキング処理等の画像処理に際して
、ニューラルネットワークを用いた画像処理方式に関し
、詳しくは、前記ニューラルネットワークの小規模化と
そのニューラル素子の結合係数を学習する際の効率化の
両立に関する。
、ニューラルネットワークを用いた画像処理方式に関し
、詳しくは、前記ニューラルネットワークの小規模化と
そのニューラル素子の結合係数を学習する際の効率化の
両立に関する。
[従来の技術]
従来では、ニューラルネットワークによる画像処理はほ
とんど行なわれていないというのが実情である。
とんど行なわれていないというのが実情である。
少ない例の中で、ニューラルネットワークによる画像処
理例では、数字・漢字等の文字認識や画像圧縮処理が試
みられているが、自然画像に対してのニューラルネット
ワークによる処理や、また、その他の空間フィルタリン
グ処理や画像変換に関する検討はまだ行なわれていない
のが現状である。マスキング処理についての検討が、画
像処理電子学会研究会予稿(1989年1月3日)に報
告されている。
理例では、数字・漢字等の文字認識や画像圧縮処理が試
みられているが、自然画像に対してのニューラルネット
ワークによる処理や、また、その他の空間フィルタリン
グ処理や画像変換に関する検討はまだ行なわれていない
のが現状である。マスキング処理についての検討が、画
像処理電子学会研究会予稿(1989年1月3日)に報
告されている。
第2図はその研究会予稿に発表されたマスキング処理の
ためのネットワークの概略ブロック図である。同図にお
いて、入力層にはY、M、Cのデータが与えられ、出力
層は同じくマスキング処理後のY’ 、M” 、C’の
出力素子より成り、中間層として2層が設けられている
。その各中間層は10又は20個のノードにニューラル
素子)より成る。尚、第2図において、図示の都合上、
中間層は1層のみを示している。
ためのネットワークの概略ブロック図である。同図にお
いて、入力層にはY、M、Cのデータが与えられ、出力
層は同じくマスキング処理後のY’ 、M” 、C’の
出力素子より成り、中間層として2層が設けられている
。その各中間層は10又は20個のノードにニューラル
素子)より成る。尚、第2図において、図示の都合上、
中間層は1層のみを示している。
[発明が解決しようとしている課題]
しかしながら、前記の構成では、中間層の素子数が10
個と多(、しかも2層の中間層より成るので、学習時や
実行時には計算時間も長いものとなっていた。
個と多(、しかも2層の中間層より成るので、学習時や
実行時には計算時間も長いものとなっていた。
この点について発明者達は次のような考察を行なった。
即ち、第2図においては、前段の中間層のニューラル素
子と後段のニューラル素子とは対等に結合されている。
子と後段のニューラル素子とは対等に結合されている。
また、後段の中間層のニューラル素子と出力層のニュー
ラル素子も対等に結合されている。そのために、結合定
数の学習に際して、中間層のニューラル素子間では差異
がないために、その結合定数の学習の収束に方向性を与
えることができない。
ラル素子も対等に結合されている。そのために、結合定
数の学習に際して、中間層のニューラル素子間では差異
がないために、その結合定数の学習の収束に方向性を与
えることができない。
一方、Y、M、Cの画像信号は互いに独立した性質のも
のであり、学習時には、入力層のY。
のであり、学習時には、入力層のY。
M、Cの各素子には夫々Y、M、Cの学習用画像信号が
与えられ、出力層のY’ 、M’ 、C’にはマスキン
グ後のY’ 、M’ 、C’の理想信号が与えられる。
与えられ、出力層のY’ 、M’ 、C’にはマスキン
グ後のY’ 、M’ 、C’の理想信号が与えられる。
換言すれば、互いに独立した性質を有するY。
M、Cの学習信号が入力されると、入力層と中間層との
間、前段の中間層と後段の中間層との間の結合定数は、
その結合定数の学習の収束は無秩序であり、従って収束
に時間がかかり、結局、後段の中間層と出力層の素子間
の結合定数のみについてなされた学習結果だけが、互い
に独立した性質を保持しつつマスキング処理に適したネ
ットワークを形成することに寄与することになる。更に
説明すると、中間層の素子と出力層の3素子との結合係
数以外の係数は、Y′、M′、C’、BK’の出力層て
に都合が良いように係数が決まるために、例えば、Y′
の理想出力が精度良くても、他の理想出力が精度良くな
かったり、またその逆であったりして、学習を繰り返し
ても結合係数がある一定幅で振動してしまうことが発生
していたわけである。
間、前段の中間層と後段の中間層との間の結合定数は、
その結合定数の学習の収束は無秩序であり、従って収束
に時間がかかり、結局、後段の中間層と出力層の素子間
の結合定数のみについてなされた学習結果だけが、互い
に独立した性質を保持しつつマスキング処理に適したネ
ットワークを形成することに寄与することになる。更に
説明すると、中間層の素子と出力層の3素子との結合係
数以外の係数は、Y′、M′、C’、BK’の出力層て
に都合が良いように係数が決まるために、例えば、Y′
の理想出力が精度良くても、他の理想出力が精度良くな
かったり、またその逆であったりして、学習を繰り返し
ても結合係数がある一定幅で振動してしまうことが発生
していたわけである。
そこで、振動幅を小さく抑えて精度良いマスキングを行
なおうとすると、中間層を2層にしたり、各中間層数も
増やさねばならないというジレンマに陥っていた。即ち
、後段の中間層と出力層の素子間でのみマスキング処理
のための学習が実質的に決定されるようになるために、
中間層の数を増やさなければならず、その結果、学習の
収束に時間がかかる結果となってしまうのである。また
、入力層と中間層間の結合定数がマスキング処理に関与
しない結果となるので、マスキング処理の精度は高いも
のとならず、たとえ、中間層の素子数をこれ以上増やし
ても、精度の向上はのぞめない。
なおうとすると、中間層を2層にしたり、各中間層数も
増やさねばならないというジレンマに陥っていた。即ち
、後段の中間層と出力層の素子間でのみマスキング処理
のための学習が実質的に決定されるようになるために、
中間層の数を増やさなければならず、その結果、学習の
収束に時間がかかる結果となってしまうのである。また
、入力層と中間層間の結合定数がマスキング処理に関与
しない結果となるので、マスキング処理の精度は高いも
のとならず、たとえ、中間層の素子数をこれ以上増やし
ても、精度の向上はのぞめない。
尚、このような問題は、本質的には画像信号同志のよう
に、互いに相関が少ない画像信号間に発生するものであ
るから、マスキング処理だけに、また、Y、M、Cの画
像信号を用いるときのみに発生するものではなく、多く
の一般的な画像処理にも発生し得ることである。
に、互いに相関が少ない画像信号間に発生するものであ
るから、マスキング処理だけに、また、Y、M、Cの画
像信号を用いるときのみに発生するものではなく、多く
の一般的な画像処理にも発生し得ることである。
そこで本発明は、ニューラルネットワークを用いた画像
処理方式において、ニューラルネットワークの小規模化
とそのニューラル素子の結合係数を学習する際の効率化
の両立を果たした画像処理方式を提案するものである。
処理方式において、ニューラルネットワークの小規模化
とそのニューラル素子の結合係数を学習する際の効率化
の両立を果たした画像処理方式を提案するものである。
[課題を解決するための手段]
上記課題を達成するための本発明の構成は、入力層、中
間層、出力層とからなるニューラルネットワークを用い
、前記入力層に画像データを入力し、このネットワーク
内で所定の画像処理を行ない、前記出力層から処理され
た画像データを出力する画像処理方式であって、前記中
間層は複数のニューラル素子から構成されているととも
に、この複数のニューラル素子は出力層のニューラル素
子の数と同数のグループに分割され、前記出力層内の各
々のニューラル素子は、上記1つのグループ内のニュー
ラル素子のみと結合されていることを特徴とする。
間層、出力層とからなるニューラルネットワークを用い
、前記入力層に画像データを入力し、このネットワーク
内で所定の画像処理を行ない、前記出力層から処理され
た画像データを出力する画像処理方式であって、前記中
間層は複数のニューラル素子から構成されているととも
に、この複数のニューラル素子は出力層のニューラル素
子の数と同数のグループに分割され、前記出力層内の各
々のニューラル素子は、上記1つのグループ内のニュー
ラル素子のみと結合されていることを特徴とする。
即ち、出力層の各素子は夫々、独自のグループの中間層
の素子グループのみと結合し、それらは互いに独立して
いるために、学習の収束が速やかになり、その分、学習
精度が高められ、結果的には、速度や精度が向上した分
だけ、中間層を減らすことが可能となる。
の素子グループのみと結合し、それらは互いに独立して
いるために、学習の収束が速やかになり、その分、学習
精度が高められ、結果的には、速度や精度が向上した分
だけ、中間層を減らすことが可能となる。
[実施例]
以下添付図面を参照しつつ、本発明のニューラルネット
ワークを用いた画像処理方式を、画像信号Y、M、Cか
らY’、M’、C’、BK’を得るマスキング処理に適
用した実施例を説明する。
ワークを用いた画像処理方式を、画像信号Y、M、Cか
らY’、M’、C’、BK’を得るマスキング処理に適
用した実施例を説明する。
第1図はこの実施例のネットワークの構成図である。シ
ステム全体での出力はY“、M”、C’、BKoの4出
力であり、夫々の出力に対応して互いに全く独立した各
々1つづつの単色処理部がニューラルネットワークによ
り形成されている。
ステム全体での出力はY“、M”、C’、BKoの4出
力であり、夫々の出力に対応して互いに全く独立した各
々1つづつの単色処理部がニューラルネットワークによ
り形成されている。
各単色処理部のネットワークの入力層にはY。
M、Cに対応する3人力があり、次に中間層がある。中
間層は1層の場合には素子数は多めに与え(例えば15
)、中間層を2層にする場合には素子数を少なめ(例え
ば各中間層の素子数nニア)に与える。出力層の素子数
は1とする。
間層は1層の場合には素子数は多めに与え(例えば15
)、中間層を2層にする場合には素子数を少なめ(例え
ば各中間層の素子数nニア)に与える。出力層の素子数
は1とする。
例えば、2つの中間層を設けた場合、中間層間の結合数
は、各中間層素子数をnとすると、最大n2となり、従
って、nが半分になると、結合数は1/4となる。
は、各中間層素子数をnとすると、最大n2となり、従
って、nが半分になると、結合数は1/4となる。
又、中間層と入力層、中間層と出力層の結合数も、nに
比例する。又、中間層を一層にすることにより、中間層
同士の結合がな(なるために、やはり素子数、結合数が
大幅に減る。
比例する。又、中間層を一層にすることにより、中間層
同士の結合がな(なるために、やはり素子数、結合数が
大幅に減る。
この実施例の特徴は、Y、M、C(同様にBKも)が互
いに相関の少ない画像信号であることに鑑みて、夫々の
単色処理部を互いに独立したニューラルネットワークで
構成したことにある。本来互いに相関の少ない画像信号
の各々に対応するネットワークを互いに独立したことに
より、ニューラルネットワークの学習の収束速度が向上
する。
いに相関の少ない画像信号であることに鑑みて、夫々の
単色処理部を互いに独立したニューラルネットワークで
構成したことにある。本来互いに相関の少ない画像信号
の各々に対応するネットワークを互いに独立したことに
より、ニューラルネットワークの学習の収束速度が向上
する。
換言すれば、収束速度が向上した分だけ中間層のニュー
ラル素子の数を増やすことができ、その結果、学習効率
とマスキング処理精度の両立が図れる。
ラル素子の数を増やすことができ、その結果、学習効率
とマスキング処理精度の両立が図れる。
また、夫々の単色処理部を互いに独立したニューラルネ
ットワークで構成したことにより、即ち、本来互いに相
関の少ない画像信号の各々に対応するネットワークを互
いに独立したことにより、相対的にマスキング処理精度
が向上し、学習効率も向上するように結合定数を決定で
きる。従って、その向上した分だけ、従来例に比して、
中間層の全素子数を相対的に減少させることができるよ
うになる。即ち、装置の小規模性と処理精度及び処理速
度の両立が図れる。
ットワークで構成したことにより、即ち、本来互いに相
関の少ない画像信号の各々に対応するネットワークを互
いに独立したことにより、相対的にマスキング処理精度
が向上し、学習効率も向上するように結合定数を決定で
きる。従って、その向上した分だけ、従来例に比して、
中間層の全素子数を相対的に減少させることができるよ
うになる。即ち、装置の小規模性と処理精度及び処理速
度の両立が図れる。
次に、第1図ネットワークシステムのための学習につい
て説明する。この実施例では、学習方法として、所謂バ
ックプロパゲーション法を採用する。
て説明する。この実施例では、学習方法として、所謂バ
ックプロパゲーション法を採用する。
第3A図は学習用の入力画像信号(Y、M。
C)を示す図である。また、第3B図は学習用の理想信
号(Y ’、M ’、C’、B K ’)を示す図であ
る。
号(Y ’、M ’、C’、B K ’)を示す図であ
る。
これらの図中、(x+ 、y+)は画素位置を示す。
学習の際の入力画像信号及び理想信号のネットワークへ
の入力は、夫々、(x+ 、y+)で指定されたものを
入力するようにする。
の入力は、夫々、(x+ 、y+)で指定されたものを
入力するようにする。
次に、ニューラルネットワークの学習手順の概略を第1
図を用いて説明する。
図を用いて説明する。
先ず、学習データとして、第3A図のような学習用の入
力画像信号(Y、M、C)と、第3B図のような理想信
号(Y ’、M ’、C’、B K ’)を用意する。
力画像信号(Y、M、C)と、第3B図のような理想信
号(Y ’、M ’、C’、B K ’)を用意する。
この理想出力信号は教師信号(teach信号)を生成
するために使用される。そして、入力層と中間層間の結
合強度W、lと中間層と出力層間の結合強度WIIJを
初期的に適当に決定してから、この初期値に基づいて結
合されたネットワークに入力画像信号(Y、M、C)を
入力し、出力のY゛M’、C’、BK’ (=kou
t; k=1〜4)を得る。
するために使用される。そして、入力層と中間層間の結
合強度W、lと中間層と出力層間の結合強度WIIJを
初期的に適当に決定してから、この初期値に基づいて結
合されたネットワークに入力画像信号(Y、M、C)を
入力し、出力のY゛M’、C’、BK’ (=kou
t; k=1〜4)を得る。
この出力と前記理想出力信号とを比較し、この比較から
教師信号(teach)を生成する。この過程を第1図
では、■に)■の過程として示している。この教師信号
から、バックプロパゲーション法により学習しながら、
前記w、、、 WmJを修正してい(。この過程は、第
1図では、■呻■として示されている。この学習を繰返
すと、結合強度W、。
教師信号(teach)を生成する。この過程を第1図
では、■に)■の過程として示している。この教師信号
から、バックプロパゲーション法により学習しながら、
前記w、、、 WmJを修正してい(。この過程は、第
1図では、■呻■として示されている。この学習を繰返
すと、結合強度W、。
Wk、は、マスキング処理に適切なものとして修正され
ていく。学習の結果として得られた結合強度W j i
HW 11 Jはネットワーク内に保持される。
ていく。学習の結果として得られた結合強度W j i
HW 11 Jはネットワーク内に保持される。
第4A図、第4B図を用いて学習のための手順を詳細に
説明する。
説明する。
同図のステップ5402では、入力層と中間層の結びつ
きの強さを示す重み係数W4.、中間層と出力層の結び
つきの強さを示す重み係数W k、に初期値を与える部
分である。初期値として、学習過程の収束を考慮して、
−〇、5〜+0.5の範囲の値を選択する。ステップ5
404では、学習用の入力データのなかから、任意(x
+、yい)の注目画素を選択する。ステップ8404〜
ステツプ5406は、ニューラルネットワークへの入出
力データのセットの手順である。即ち、ステップ540
6では、(x + 、 y +)のY、M、Cを、12
個の入力層のニューラル素子にセットする。ステップ8
406では、入力層の各素子を、1out(i)(ここ
で、i=1〜12)で示す。尚、入力層に与える信号は
画像データが8ビツト0〜255とすると、255で割
った0〜1.0までの値が与えられる。
きの強さを示す重み係数W4.、中間層と出力層の結び
つきの強さを示す重み係数W k、に初期値を与える部
分である。初期値として、学習過程の収束を考慮して、
−〇、5〜+0.5の範囲の値を選択する。ステップ5
404では、学習用の入力データのなかから、任意(x
+、yい)の注目画素を選択する。ステップ8404〜
ステツプ5406は、ニューラルネットワークへの入出
力データのセットの手順である。即ち、ステップ540
6では、(x + 、 y +)のY、M、Cを、12
個の入力層のニューラル素子にセットする。ステップ8
406では、入力層の各素子を、1out(i)(ここ
で、i=1〜12)で示す。尚、入力層に与える信号は
画像データが8ビツト0〜255とすると、255で割
った0〜1.0までの値が与えられる。
次に、ステップ5408では、理想出力信号としての(
Y ’、M’、C’、B K ’)を用意する。尚、ス
テップ8408では、出力層の各素子を、1dealo
ut (k)とで表わし、Y ’、M ’、C’、B
K ’に対して、夫々に=1.2,3.4とする。
Y ’、M’、C’、B K ’)を用意する。尚、ス
テップ8408では、出力層の各素子を、1dealo
ut (k)とで表わし、Y ’、M ’、C’、B
K ’に対して、夫々に=1.2,3.4とする。
ステップ5410は、与えられた変換係数に基づき出力
kout (k)を計算する手順を示している。
kout (k)を計算する手順を示している。
即ち、入力層からのi番目のデータ1out(i)
(1=1−12)に中間層の係数W J lを掛け、そ
のiについての総和Sumriを、 SuI!1FJ=Σ、WJI (j、i) * 1ou
t(i) = = ・・(1)で計算し、次に5番目の
中間層の出力jout(]を、0/1に正規化するため
にsigmoid関数を用いて、 計算する。ここでSumy、のFは前向き(Forwa
rd)を意味する。同様にして、中間層から出力層への
出力値koutは次のようにして求める。まず、(1)
と同様に、出力層の係数Wう、と中間層からの出力値j
out(j)とによる積の総和を求めその値Sumr5
を得る。
(1=1−12)に中間層の係数W J lを掛け、そ
のiについての総和Sumriを、 SuI!1FJ=Σ、WJI (j、i) * 1ou
t(i) = = ・・(1)で計算し、次に5番目の
中間層の出力jout(]を、0/1に正規化するため
にsigmoid関数を用いて、 計算する。ここでSumy、のFは前向き(Forwa
rd)を意味する。同様にして、中間層から出力層への
出力値koutは次のようにして求める。まず、(1)
と同様に、出力層の係数Wう、と中間層からの出力値j
out(j)とによる積の総和を求めその値Sumr5
を得る。
Sumr11=ΣLJ(k、j)*jout(j) −
−−−−−(3)次に、O/1に正規化するためにsL
gmoid関数を用いて、 に従って出力層にの出力kout (k)を得る。ここ
で、kはに=1〜4であり、Y’、M 、C、BKに対
して、夫々に=1.2,3.4とする。
−−−−−(3)次に、O/1に正規化するためにsL
gmoid関数を用いて、 に従って出力層にの出力kout (k)を得る。ここ
で、kはに=1〜4であり、Y’、M 、C、BKに対
して、夫々に=1.2,3.4とする。
こうして、1組のサンプルデータについてのFORWA
RD方向の計算を終了する。以下は、BACKWAR
Dの演算、即ち、上記入力と理想出力の組からなるサン
プルデータからの学習により結合強度を補正するための
手順である。
RD方向の計算を終了する。以下は、BACKWAR
Dの演算、即ち、上記入力と理想出力の組からなるサン
プルデータからの学習により結合強度を補正するための
手順である。
ステップ5412で、初期値(ステップ5402でセッ
ト)のW J l 、 W kJから計算した出力値k
outと、予め用意しである理想出力1deajout
(k)とを比較する。即ち、この比較により、出力層
の教師信号teach k(k)を、 teach k(k)= (ideal out(k)
−kout(k))*kout(k)*(1−kou
t(k))・・・・・・(5) 計算する。(5)式中のkout(k)*(1−kou
t(k))はsigmoid関数の微分値の意義を有す
る。次に、ステップ5414で、出力層の結合度の変化
幅△W kJ (k、j)を求める。即ち、△wi、J
(k、、i)= β 傘jout(j)傘teach
k(k)+α本△L、 (k、 j) ・・・・
・・ (6)を計算する。尚、α、βは固定値の係数で
、この実施例では、0.5とした。ステップ5415で
は、この変化幅△L4(k、j)に基づいて、中間層と
出力相関の結合度wkJ(+<、j)を更新する、即ち
、学習する。
ト)のW J l 、 W kJから計算した出力値k
outと、予め用意しである理想出力1deajout
(k)とを比較する。即ち、この比較により、出力層
の教師信号teach k(k)を、 teach k(k)= (ideal out(k)
−kout(k))*kout(k)*(1−kou
t(k))・・・・・・(5) 計算する。(5)式中のkout(k)*(1−kou
t(k))はsigmoid関数の微分値の意義を有す
る。次に、ステップ5414で、出力層の結合度の変化
幅△W kJ (k、j)を求める。即ち、△wi、J
(k、、i)= β 傘jout(j)傘teach
k(k)+α本△L、 (k、 j) ・・・・
・・ (6)を計算する。尚、α、βは固定値の係数で
、この実施例では、0.5とした。ステップ5415で
は、この変化幅△L4(k、j)に基づいて、中間層と
出力相関の結合度wkJ(+<、j)を更新する、即ち
、学習する。
L7 (k、 j) =△LJ(k、j)+L>(k、
j)・・・・・・(7) 次に、ステップ8416で、中間層の教師信号teac
h j(j)を計算する。即ち、先ず、Sums、
= Jteach−k(k)申L=(k、j)、
、、 0. (8。
j)・・・・・・(7) 次に、ステップ8416で、中間層の教師信号teac
h j(j)を計算する。即ち、先ず、Sums、
= Jteach−k(k)申L=(k、j)、
、、 0. (8。
に基づいて、中間層の各ニューラルにおける、出力層か
らのB A CKWA RD方向の寄与を演算する。そ
して、この寄与を、次式に従ってsiga+oLd関数
の微分値を用いて正規化することにより、中間層の教師
信号teach j(j)を演算する。
らのB A CKWA RD方向の寄与を演算する。そ
して、この寄与を、次式に従ってsiga+oLd関数
の微分値を用いて正規化することにより、中間層の教師
信号teach j(j)を演算する。
teachj(j)= jout(j)傘(1−jou
t(j))*SumsJ・・・・・・(9) 尚、(9)式のteachj (j)は中間層における
理想信号としての意義を有する。
t(j))*SumsJ・・・・・・(9) 尚、(9)式のteachj (j)は中間層における
理想信号としての意義を有する。
次に、ステップ5418で、この教師信号teach
j(j)を用いて、中間層の結合度の変化幅△WJI(
j、i)を演算する。即ち、△WJ l(j、i)=
β*1out(il中teach j(j)+α傘
△WJ + (j、 i)・・・・・・ (10)そし
て、ステップ5420では結合度W Jl (J、 1
)を更新する。即ち、 W、l(j、 i) = WJ+ (、+、1)+△W
J + (J、’)である。
j(j)を用いて、中間層の結合度の変化幅△WJI(
j、i)を演算する。即ち、△WJ l(j、i)=
β*1out(il中teach j(j)+α傘
△WJ + (j、 i)・・・・・・ (10)そし
て、ステップ5420では結合度W Jl (J、 1
)を更新する。即ち、 W、l(j、 i) = WJ+ (、+、1)+△W
J + (J、’)である。
こうして、1out(i)としてのY、M、Cと、これ
に対応する理想出力データとしてのマスキング処理され
たデータ1deal outとから、バックプロパゲー
ション法に基づいて、結合度WJIとWkJとが一回、
学習された。
に対応する理想出力データとしてのマスキング処理され
たデータ1deal outとから、バックプロパゲー
ション法に基づいて、結合度WJIとWkJとが一回、
学習された。
ステップ5422では、このような操作を、全組のサン
プリング入力データについて行なったかを調べ、全組の
サンプリングデータについて実行するまでステップ84
04〜ステツプ5420の手順を繰返す。
プリング入力データについて行なったかを調べ、全組の
サンプリングデータについて実行するまでステップ84
04〜ステツプ5420の手順を繰返す。
全組のサンプリングデータについての学習を1回だけ行
なったのでは精度が低いと考えられるので、ステップ5
424での判断により、この精度が高(なったと考えら
れるまで、ステップ5404〜ステツプ5422の処理
を繰返す。
なったのでは精度が低いと考えられるので、ステップ5
424での判断により、この精度が高(なったと考えら
れるまで、ステップ5404〜ステツプ5422の処理
を繰返す。
尚、ステップ5404で指定されるブロックの位置はシ
ーケンシャルでな(ランダムに指定される方がよい。
ーケンシャルでな(ランダムに指定される方がよい。
以上が、実施例におけるバックプロパゲーション法に基
づいた学習手順の説明である。
づいた学習手順の説明である。
尚、学習時゛に与える理想信号及び入力層に与える信号
は、サンプル数を増やし、しかもあらゆる色空間にまん
べんなくサンプルをとることが好ましい。
は、サンプル数を増やし、しかもあらゆる色空間にまん
べんなくサンプルをとることが好ましい。
本発明はその主旨を逸脱しない範囲で種々の変形が可能
である。
である。
例えば、入力層では何も処理しないことを前提にして、
単色処理部の各入力層を共有するように変形すれば、結
果として、各出力層の素子に結合する中間層や、さらに
入力層に至るまで、ニューラルネットワークにより結合
するすべての中間層の素子が、全く共有されていない1
個のニューラルネットワークとしてみなすことが可能で
ある。
単色処理部の各入力層を共有するように変形すれば、結
果として、各出力層の素子に結合する中間層や、さらに
入力層に至るまで、ニューラルネットワークにより結合
するすべての中間層の素子が、全く共有されていない1
個のニューラルネットワークとしてみなすことが可能で
ある。
また、以下のような変形例を提案する。
前述したように、出力層を1素子とすれば、1間層を2
層にして各素子数を減らしても良いし、中間層を1層に
して素子数を増やしても良い。
層にして各素子数を減らしても良いし、中間層を1層に
して素子数を増やしても良い。
特に出力層の理想出力が大きく異なる属性を1する場合
には、上記実施例を適用するとよい。θえば、入力層に
は、ある注目画素とその周囲の姿画素を与える。そして
出力層にはエツジ強調借上を与えて学習や実行を行ない
、別のニューラル博ットワークに対しては、同じ入力に
対して出力層の理想信号としてスムージング(平滑化)
信号令与えると非常に有効である。
には、上記実施例を適用するとよい。θえば、入力層に
は、ある注目画素とその周囲の姿画素を与える。そして
出力層にはエツジ強調借上を与えて学習や実行を行ない
、別のニューラル博ットワークに対しては、同じ入力に
対して出力層の理想信号としてスムージング(平滑化)
信号令与えると非常に有効である。
さらに上記実施例の中では、全く同じ構成の;ユーラル
ネットワークである単色処理部を4つ4色分)使用して
いるが、各単色処理部毎に中rJ層の素子が数が事なっ
ても構わない。さらに各累子間の結合についても実施例
中では、すべての素子同士の組み合せで結合されいてる
が、中間層のある素子と次のある素子との間に結合がな
い場合があっても良い。
ネットワークである単色処理部を4つ4色分)使用して
いるが、各単色処理部毎に中rJ層の素子が数が事なっ
ても構わない。さらに各累子間の結合についても実施例
中では、すべての素子同士の組み合せで結合されいてる
が、中間層のある素子と次のある素子との間に結合がな
い場合があっても良い。
[発明の効果]
以上説明した本発明の画像処理方式は、入力層、中間層
、出力層とからなるニューラルネットワークを用い、前
記入力層に画像データを入力し、このネットワーク内で
所定の画像処理を行ない、前記出力層から処理された画
像データを出力する画像処理方式であって、前記中間層
は複数のニューラル素子から構成されているとともに、
この複数のニューラル素子は出力層のニューラル素子の
数と同数のグループに分割され、前記出力層内の各々の
ニューラル素子は、上記1つのグループ内のニューラル
素子のみと結合されていることを特徴とする。
、出力層とからなるニューラルネットワークを用い、前
記入力層に画像データを入力し、このネットワーク内で
所定の画像処理を行ない、前記出力層から処理された画
像データを出力する画像処理方式であって、前記中間層
は複数のニューラル素子から構成されているとともに、
この複数のニューラル素子は出力層のニューラル素子の
数と同数のグループに分割され、前記出力層内の各々の
ニューラル素子は、上記1つのグループ内のニューラル
素子のみと結合されていることを特徴とする。
即ち、出力層の各素子は夫々、独自のグループの中間層
の素子グループのみと結合しているので、それらは互い
に独立しているために、学習の収束が速やかになり、そ
の分、学習精度が高められ、結果的には、速度や精度が
向上した分だけ、中間層を減らすことが可能となる。即
ち、ニューラルネットワークの小規模化とそのニューラ
ル素子の結合係数を学習する際の効率化の両立が果たさ
れる。
の素子グループのみと結合しているので、それらは互い
に独立しているために、学習の収束が速やかになり、そ
の分、学習精度が高められ、結果的には、速度や精度が
向上した分だけ、中間層を減らすことが可能となる。即
ち、ニューラルネットワークの小規模化とそのニューラ
ル素子の結合係数を学習する際の効率化の両立が果たさ
れる。
第1図は実施例に用いられるニューラルネットワークの
構成を示す図、 第2図は従来技術の構成を説明する図、第3A図、第3
B図は第1図実施例のネットワークの学習に用いられる
入力信号データ、理想出力信号データを示す図、 第4A図、第4B図は実施例の学習のための制御手順の
フローチャートである。 ζニー−ニジ 第 図 X Σ
構成を示す図、 第2図は従来技術の構成を説明する図、第3A図、第3
B図は第1図実施例のネットワークの学習に用いられる
入力信号データ、理想出力信号データを示す図、 第4A図、第4B図は実施例の学習のための制御手順の
フローチャートである。 ζニー−ニジ 第 図 X Σ
Claims (5)
- (1) 入力層、中間層、出力層とからなるニユーラル
ネツトワークを用い、前記入力層に画像データを入力し
、このネツトワーク内で所定の画像処理を行ない、前記
出力層から処理された画像データを出力する画像処理方
式であって、 前記中間層は複数のニューラル素子から構成されている
とともに、この複数のニューラル素子は出力層のニュー
ラル素子の数と同数のグループに分割され、 前記出力層内の各々のニューラル素子は、上記1つのグ
ループ内のニューラル素子のみと結合されていることを
特徴とするニューラルネツトワークを用いた画像処理方
式。 - (2) 前記出力層の各々のニューラル素子の出力は、
互いに独立の性質を有する画像信号を表わす事を特徴と
する請求項の第1項に記載のニューラルネツトワークを
用いた画像処理方式。 - (3) 前記中間層の全ニューラル素子の各々と入力層
の全ニューラル素子の各々との間の全ての結合定数は互
いに独立に設定されている事を特徴とする請求項の第1
項に記載のニューラルネツトワークを用いた画像処理方
式。 - (4) 前記所定の画像処理はマスキング処理である事
を特徴とする請求項の第1項に記載のニューラルネツト
ワークを用いた画像処理方式。 - (5) 前記ニューラルネツトワークの学習方法として
バックプロパゲーション法を適用する事を特徴とする請
求項の第1項に記載のニューラルネツトワークを用いた
画像処理方式。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2153939A JPH0447475A (ja) | 1990-06-14 | 1990-06-14 | ニューラルネットワークを用いた画像処理方式 |
DE69130656T DE69130656T2 (de) | 1990-06-14 | 1991-06-13 | Neuronale Netzwerke |
EP91305363A EP0461902B1 (en) | 1990-06-14 | 1991-06-13 | Neural network |
US08/026,093 US5719955A (en) | 1990-06-14 | 1993-03-04 | Data processing using neural networks having conversion tables in an intermediate layer |
US08/969,832 US6243490B1 (en) | 1990-06-14 | 1997-11-13 | Data processing using neural networks having conversion tables in an intermediate layer |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2153939A JPH0447475A (ja) | 1990-06-14 | 1990-06-14 | ニューラルネットワークを用いた画像処理方式 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0447475A true JPH0447475A (ja) | 1992-02-17 |
Family
ID=15573384
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2153939A Pending JPH0447475A (ja) | 1990-06-14 | 1990-06-14 | ニューラルネットワークを用いた画像処理方式 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0447475A (ja) |
-
1990
- 1990-06-14 JP JP2153939A patent/JPH0447475A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5293456A (en) | Object recognition system employing a sparse comparison neural network | |
CN109961396B (zh) | 一种基于卷积神经网络的图像超分辨率重建方法 | |
EP0358459A2 (en) | Picture processing apparatus | |
JPH09319866A (ja) | 画像処理方法 | |
US5491776A (en) | Signal processing apparatus and learning method therefor | |
US6301381B1 (en) | Neurofilter, and method of training same to operate on image data such as to discriminate between text and picture regions of an image which is expressed by image data | |
EP0444878B1 (en) | Neural network | |
JPH0451384A (ja) | ニューラルネットワークの構築方法 | |
JPH0981723A (ja) | 画像処理装置 | |
JPH0447475A (ja) | ニューラルネットワークを用いた画像処理方式 | |
JPH076146A (ja) | 並列データ処理システム | |
JPH05101028A (ja) | 複数特徴量の統合判定方法 | |
JPH0272491A (ja) | 画像変換処理装置 | |
JP2699447B2 (ja) | 信号処理装置 | |
JPH04237388A (ja) | ニューロプロセッサ | |
JPH0535710A (ja) | ニユーラルネツトワークの学習方法および学習装置 | |
JPH02299081A (ja) | テクスチュア解折方法及びアナライザ | |
KR20210037406A (ko) | 단일 피드 포워드 네트워크를 이용한 이미지 스타일 변환 방법 | |
JPH0447474A (ja) | ニューラルネットワークを用いた画像処理方式 | |
JP2859377B2 (ja) | ニューラルネットを用いた画像処理方法および画像処理装置 | |
EP0395112B1 (en) | Neural network | |
CN115050065B (zh) | 一种基于曲线的皮肤滤镜建模方法 | |
JP2979562B2 (ja) | 学習処理装置 | |
JPH11175494A (ja) | ニューラルネットワーク | |
JP3393511B2 (ja) | 文字認識装置及び方法 |