JP2005234706A - 知識ルール抽出方法及び装置、ファジィ推論型ニューラルネットワーク - Google Patents
知識ルール抽出方法及び装置、ファジィ推論型ニューラルネットワーク Download PDFInfo
- Publication number
- JP2005234706A JP2005234706A JP2004040426A JP2004040426A JP2005234706A JP 2005234706 A JP2005234706 A JP 2005234706A JP 2004040426 A JP2004040426 A JP 2004040426A JP 2004040426 A JP2004040426 A JP 2004040426A JP 2005234706 A JP2005234706 A JP 2005234706A
- Authority
- JP
- Japan
- Prior art keywords
- output
- input
- output layer
- value
- intermediate layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
【課題】 複数の出力に対して簡潔なファジィルールを容易に獲得できる知識ルール抽出方法及び装置、並びに、これらの方法や装置の実現に好適なファジィ推論型ニューラルネットワークを提供する。
【解決手段】 ファジィ推論ネットワーク(FINN)10を構成する中間層ニューロンM1 〜MN2は、いずれも出力層ニューロンO1 〜ON3の中のいずれか一つに接続される。このため、中間層ニューロンMj を指定してファジィ推論ルールを抽出した場合、そのルールがどの出力層のニューロンに対して獲得されたものであるかを明確に特定できる。また、着目した一つの出力層ニューロンOk に接続された全ての中間層ニューロンMj と、着目した一つの入力層ニューロンINi との間の重みwijの出現頻度分布に基づいてファジィ推論ルールを抽出するため、多入力多出力であっても、各出力毎に、各入力に対する簡潔なファジィルールを自動的に獲得できる。
【選択図】 図1
【解決手段】 ファジィ推論ネットワーク(FINN)10を構成する中間層ニューロンM1 〜MN2は、いずれも出力層ニューロンO1 〜ON3の中のいずれか一つに接続される。このため、中間層ニューロンMj を指定してファジィ推論ルールを抽出した場合、そのルールがどの出力層のニューロンに対して獲得されたものであるかを明確に特定できる。また、着目した一つの出力層ニューロンOk に接続された全ての中間層ニューロンMj と、着目した一つの入力層ニューロンINi との間の重みwijの出現頻度分布に基づいてファジィ推論ルールを抽出するため、多入力多出力であっても、各出力毎に、各入力に対する簡潔なファジィルールを自動的に獲得できる。
【選択図】 図1
Description
本発明は、ファジィ推論型ニューラルネットワーク、並びにこれを用いた知識ルールの抽出方法及び装置に関する。
従来より、各分野における熟練者の経験的な知識や感覚をコンピュータ上でシミュレートし、人間特有の柔軟かつ的確な判断や制御をコンピュータ上に実現するものとして、ファジィシステムが知られている。
一般に、ファジィシステムでは、入力と出力とが、ある指標に対して持つ適応度を0〜1までの数値で与えるメンバシップ関数により対応付けられている。
例えば、入力が年齢を表す場合、「中年である」という指標を表すには、図14に示すように、入出力特性のグラフが最大値を一つもつ釣鐘型の形状(ガウス分布)を有したメンバシップ関数を用いることができる。
例えば、入力が年齢を表す場合、「中年である」という指標を表すには、図14に示すように、入出力特性のグラフが最大値を一つもつ釣鐘型の形状(ガウス分布)を有したメンバシップ関数を用いることができる。
なお、図14に示されたメンバシップ関数は、指標「中年である」に対する適応度は、「40歳」のときに最も高く、「40歳」から年齢が離れるほど低くなるという経験的な知識を模擬したものである。
ところで、ファジィシステムでは,メンバシップ関数の形状を自動で決定する方法が確立されていないという問題点があった.
これに対して、メンバシップ関数の形状をニューラルネットワークと組み合わせることによって自動で決定することを可能としたファジィ推論ニューラルネットワーク(FINN)が提案されている(例えば、非特許文献1参照。)。
これに対して、メンバシップ関数の形状をニューラルネットワークと組み合わせることによって自動で決定することを可能としたファジィ推論ニューラルネットワーク(FINN)が提案されている(例えば、非特許文献1参照。)。
このFINNでは、ニューラルネットワークの持つ学習能力を利用することにより各メンバシップ関数を最適化することができ、また、その最適化された個々のメンバシップ関数に基づいてIf-then 型のファジィ推論ルールを抽出することが可能となる。
例えば、FINNを学習することによって、図14に示すようなメンバシップ関数が与えられた場合には、これに基づいて「If 年齢≒40 then 中年らしさ≒1」というファジー推論ルールを抽出することができる。
[FINNの概要]
以下、FINNの概要について説明する。
[FINNの概要]
以下、FINNの概要について説明する。
FINNは、図12(a)に示すように、入力層(非特許文献1では「入出力層の入力部」。以下同様。),中間層(「ルール層」),出力層(「入出力層の出力部」)を備え、入力層を構成する各入力層ニューロンと中間層を構成する各中間層ニューロンとの間、及び各中間層ニューロンと出力層を構成する各出力層ニューロンとの間は全結合とされている(但し、図中では、結合関係を見易くするために、結合の一部のみ図示。)。更に、各入力層ニューロンと各中間層ニューロンとの間の各結合部分にそれぞれ配置されたメンバシップ関数からなる関数群FFが設けられている。
ここで、入力層ニューロンの数をN1、中間層ニューロンの数をN2、出力層ニューロンの数をN3として、FINNの動作を説明する。なお、FINNへの入力は、(1)に示すように、ベクトルUにて表し、FINNからの出力は、(2)に示すように、ベクトルYにて表すものとする。但し、ui は入力層ニューロンINi (i=1,2…,N1)の入力値であり、yk は出力層ニューロンOk (k=1,2…,N3)の出力値である。
U=(u1,u2…,ui…,uN1) (1)
Y=(y1,y2…,yk…,yN3) (2)
また、入力層ニューロンINi から中間層ニューロンMj (j=1,2…,N2)へのメンバシップ関数は、図12(b)に示すように、入出力特性のグラフが釣鐘型の形状を有しており、(3)にて与えられるものとする。但し、wijは出力値がピークとなる時の入力値(中心値)、σijはピークの幅を規定する分散値、μijは入力値ui に対する出力値(中間層ニューロンMj への入力値)である。
Y=(y1,y2…,yk…,yN3) (2)
また、入力層ニューロンINi から中間層ニューロンMj (j=1,2…,N2)へのメンバシップ関数は、図12(b)に示すように、入出力特性のグラフが釣鐘型の形状を有しており、(3)にて与えられるものとする。但し、wijは出力値がピークとなる時の入力値(中心値)、σijはピークの幅を規定する分散値、μijは入力値ui に対する出力値(中間層ニューロンMj への入力値)である。
μij=exp{−(ui−wij)2 /σij 2 } (3)
つまり、中間層ニューロンMj には、μ1j,μ2j…μN1jが入力される。そして、中間層ニューロンMj では、(4)式に示すように、全入力値μ1j,μ2j…μN1j中の最小値を出力値(適応度)ρj とする。
つまり、中間層ニューロンMj には、μ1j,μ2j…μN1jが入力される。そして、中間層ニューロンMj では、(4)式に示すように、全入力値μ1j,μ2j…μN1j中の最小値を出力値(適応度)ρj とする。
ρj =min[μ1j,μ2j…,μij,…μN1j] (4)
また、出力層ニューロンOk では、(5)に示すように、全ての中間層ニューロンM1 〜MN2から入力される適応度ρj の重み付け平均を求めることによって出力yk を得るものとする。但し、wjkは、中間層ニューロンMj から出力層ニューロンOk への重みであり、後件部定数とも称する。
また、出力層ニューロンOk では、(5)に示すように、全ての中間層ニューロンM1 〜MN2から入力される適応度ρj の重み付け平均を求めることによって出力yk を得るものとする。但し、wjkは、中間層ニューロンMj から出力層ニューロンOk への重みであり、後件部定数とも称する。
このように構成されたFINNが与えられた場合、中間層ニューロンMj に着目すれば、(6)に示すようなファジー推論ルールを読み取る(抽出する)ことができる。
If (u1 is *w1j), and …,(ui is *wij), …,(uN1 is *wN1j) then (yk is wjk) (6)
但し、*wijはσijの大きさによるwijの近傍である。
[FINNの構成手順]
次に、このようなFINNを構成する手順について説明する。
If (u1 is *w1j), and …,(ui is *wij), …,(uN1 is *wN1j) then (yk is wjk) (6)
但し、*wijはσijの大きさによるwijの近傍である。
[FINNの構成手順]
次に、このようなFINNを構成する手順について説明する。
まず、自己組織化マップ(SOM)を用いて、全てのメンバシップ関数の中心値wijと、全ての後件部定数wjkとを仮決定する。
このとき、入力空間と出力空間とを総合的に扱うために、(1)(2)にて示したN1次元の入力ベクトルUとN3次元の出力ベクトルYを、(7)に示すように、(N1+N3)次元の学習ベクトルIに統合する(図13参照)。
このとき、入力空間と出力空間とを総合的に扱うために、(1)(2)にて示したN1次元の入力ベクトルUとN3次元の出力ベクトルYを、(7)に示すように、(N1+N3)次元の学習ベクトルIに統合する(図13参照)。
I=(U,0)+(0,Y)
=(u1,u2…,ui…,uN1,y1,y2…,yk…,yN3) (7)
また、SOMは、入力層LIから中間層ニューロンMj への結合ベクトルWj U=(w1j,w2j…,wij…,wN1j)と、中間層ニューロンMj から出力層LOへの結合ベクトルWj Y=(wj1,wj2…,wjk…,wjN3)とをまとめた重みベクトルWj ((8)参照)の集合体である。
=(u1,u2…,ui…,uN1,y1,y2…,yk…,yN3) (7)
また、SOMは、入力層LIから中間層ニューロンMj への結合ベクトルWj U=(w1j,w2j…,wij…,wN1j)と、中間層ニューロンMj から出力層LOへの結合ベクトルWj Y=(wj1,wj2…,wjk…,wjN3)とをまとめた重みベクトルWj ((8)参照)の集合体である。
Wj =(Wj U,0)+(0,Wj Y)
=(w1j,w2j…,wij…,wN1j,wj1,wj2…,wjk…,wjN3) (8)
この学習ベクトルIに対してKohonen の自己組織化アルゴリズム用いて、重みベクトルWj の値の更新を繰り返すと、SOM上で、類似した重みベクトルWj 同士が近くに配置される。つまり、入力と出力との関係が特徴毎に自動的に分類されることになる。なお、Kohonen の自己組織化アルゴリズムは周知のものであるため、ここではその詳細についての説明を省略する。
=(w1j,w2j…,wij…,wN1j,wj1,wj2…,wjk…,wjN3) (8)
この学習ベクトルIに対してKohonen の自己組織化アルゴリズム用いて、重みベクトルWj の値の更新を繰り返すと、SOM上で、類似した重みベクトルWj 同士が近くに配置される。つまり、入力と出力との関係が特徴毎に自動的に分類されることになる。なお、Kohonen の自己組織化アルゴリズムは周知のものであるため、ここではその詳細についての説明を省略する。
このようにして得られたSOM上の重みベクトルについて、任意の二つの重みベクトルのユークリッド距離があるしきい値より小さければ、これらを統合して、両ベクトルの平均ベクトルを新たな重みベクトルとする。
そして、この操作を繰り返すことにより、最終的に得られた重みベクトルの各要素を用いて、FINNを構成するメバシップ関数の中心値wij、及びFINNの中間層出力の重み(後件部定数)wijを初期設定する。
最後に、このように初期設定されたFINNを、教師あり学習であるLMS(Least Mean Square )学習則を用いて学習することにより、メンバシップ関数の分散値σijを決定すると共に、メンバシップ関数の中心値wijや後件部定数wjkの調整(最適化)を行う。
彌富仁,萩原将文著、「ファジー推論ニューラルネットワークを用いた風景画像からの知識抽出と認識」電子情報通信学会論文誌D−II、Vol.J82-D-II No.4 pp.685-693、1999年4月
彌富仁,萩原将文著、「ファジー推論ニューラルネットワークを用いた風景画像からの知識抽出と認識」電子情報通信学会論文誌D−II、Vol.J82-D-II No.4 pp.685-693、1999年4月
しかし、上述のFINNでは、中間層ニューロンM1 〜MN2のいずれもが、全ての出力層ニューロンO1 〜ON3に影響を与えるため、上述の(6)に示したように中間層ニューロンMj を指定してファジィ推論ルールを抽出した場合、そのルールがどの出力層ニューロンに対して獲得されたものであるかを明確にすることができないという問題があった。
また、FINNからは、膨大な数のファジィ推論ルールが獲得され、その中には、役に立たないルールも多数含まれている。このため、どのルールが実際の出力を簡潔に表現した有用なものであるか、最終的には設計者が判断する必要がある。しかし、このような判断は、設計者の経験に委ねられているため、客観性に乏しいだけでなく膨大な手間を要するという問題もあった。
本発明は、上記問題点を解決するために、複数の出力に対して簡潔なファジィルールを容易に獲得できる知識ルール抽出方法及び装置、並びに、これらの方法や装置の実現に好適なファジィ推論型ニューラルネットワークを提供することを目的とする。
上記目的を達成するためになされた第一発明の知識ルール抽出方法では、まず、第1のステップにおいて、ニューラルネットワークを、中間層を構成する中間層ニューロンのそれぞれが、出力層を構成する出力層ニューロンのいずれか一つに接続されるように構成する。
続く第2のステップにおいて、予め設定された学習則に従ってニューラルネットワークの学習を行うことにより、メンバシップ関数の入出力特性を規定する特徴パラメータを取得する。
更に第3のステップにおいて、出力層ニューロン毎に、その出力層ニューロンに基づいて後件部が規定され、その出力層ニューロンに関連するメンバシップ関数の特徴パラメータに基づいて前件部が規定されるファジィ推論ルールを抽出する。
この場合、中間層ニューロンは、いずれも単一の出力層ニューロンにしか接続されていないため、中間層ニューロンを指定してファジィ推論ルールを抽出した場合、そのルールがどの出力層のニューロンに対して獲得されたものであるかは一目瞭然である。
つまり、本発明によれば、複数の出力があっても、各出力についての簡潔なファジィルールを容易に獲得することができる。
次に第二発明の知識ルール抽出装置では、初期設定手段が、ニューラルネットワークを、中間層を構成する中間層ニューロンのそれぞれが、出力層を構成する出力層ニューロンのいずれか一つに接続されるように構成する。そして、学習手段が、予め設定された学習則に従って、初期設定手段により初期設定されたニューラルネットワークの学習を行うことにより、メンバシップ関数の入出力特性を規定する特徴パラメータを取得する。すると、ルール抽出手段が、出力層ニューロン毎に、該出力層ニューロンに基づいて後件部が規定され、該出力層ニューロンに関連するメンバシップ関数の特徴パラメータに基づいて前件部が規定されるファジィ推論ルールを抽出する。
次に第二発明の知識ルール抽出装置では、初期設定手段が、ニューラルネットワークを、中間層を構成する中間層ニューロンのそれぞれが、出力層を構成する出力層ニューロンのいずれか一つに接続されるように構成する。そして、学習手段が、予め設定された学習則に従って、初期設定手段により初期設定されたニューラルネットワークの学習を行うことにより、メンバシップ関数の入出力特性を規定する特徴パラメータを取得する。すると、ルール抽出手段が、出力層ニューロン毎に、該出力層ニューロンに基づいて後件部が規定され、該出力層ニューロンに関連するメンバシップ関数の特徴パラメータに基づいて前件部が規定されるファジィ推論ルールを抽出する。
つまり、本発明の知識ルール抽出装置は、第一発明の方法を実現する装置であり、従って第一発明と同様の効果を得ることができる。
なお、初期設定手段では、出力層ニューロンの各々に接続する中間層ニューロンの数や特徴パラメータの初期値を、出力層ニューロン毎に設定した自己組織化マップを用いて求めることが望ましい。
なお、初期設定手段では、出力層ニューロンの各々に接続する中間層ニューロンの数や特徴パラメータの初期値を、出力層ニューロン毎に設定した自己組織化マップを用いて求めることが望ましい。
つまり、非特許文献1に記載の従来装置では、出力層全体を一括した自己組織化マップを用いてニューラルネットワークの初期値を求めているが、本発明では、初期設定手段が構成すべきニューラルネットワークに適した初期値が得られるように、自己組織化マップを分割しているのである。また、自己組織化マップを分割することにより、個々のマップの規模が小さくなるため、全体を一括して処理する従来装置と比較して、処理量を大幅に削減することができる。
ところで、ルール抽出手段は、例えば、特徴パラメータの値の出現頻度分布を求め、該出現頻度分布を単一の正規分布で近似し、該近似した正規分布の中心値を、ファジィ推論ルールの前件部を規定する情報として抽出するように構成すればよい。
また、ルール抽出手段は、より単純には、例えば、特徴パラメータの値の出現頻度分布を求め、該出現頻度分布の中で出現頻度が最大となるものを、ファジィ推論ルールの前件部を規定する情報として抽出するように構成してもよい。
これらのように、ルール抽出手段にて統計的な手法を用いることにより、膨大な数のルールの中から有効なルールの抽出を、設計者の主観に頼ることなく自動的に行うことができる。
また、学習手段は、出力層ニューロンのそれぞれについて、該出力層ニューロンに関連する入力層ニューロン及び中間層ニューロンからなる部分ニューラルネットワークを設定し、この部分ニューラルネットワーク毎に学習を実行することが望ましい。
この場合、部分ニューラルネットワークの学習結果から、その部分ニューラルネットワークとは関係のない出力層ニューロンの影響を確実に排除することができ、より精度の高い学習結果を得ることができる。
ここで、メンバシップ関数は、例えば、入出力特性を表すグラフが釣鐘型の形状を有したものを用いることができる。この場合、特徴パラメータとして、出力値がピークとなる時の入力値である中心値、及びグラフのピーク幅を規定する分散値を用いればよい。
そして、このようなメンバシップ関数を用いる非特許文献1では、LMS学習において、メンバシップ関数の特徴パラメータである分散値σijを更新する際に(9)式を用いることが記載されている。但し、εσは学習係数である。
しかし、この式を用いて学習を繰り返した場合、図10(b)に示すように、分散値σijが発散して非常に大きな値となってしまうことがある。なお、図10(b)は、学習の進捗に従って分散値σijが変化する様子をシミュレーションにより求めた結果である。但し、シミュレーションの条件は、εP=0.01,学習回数は35回,σの初期値は0.6から1.0の範囲でランダムに設定し、wの初期値は0.0から0.5の範囲でランダムに設定し、初期値を変えて試行は10回行っている。この条件において、図7に示した領域分割した画像の各領域の特徴量を入力し認識結果を出力するファジィ推論ニューラルネットワークにおいて、学習回数によってファジィメンバシップ関数の分散値σ5,14の変化の様子を示したものである。
そして、分散値が非常に大きな値に設定されたメンバシップ関数は、釣鐘状とはならず,ほとんどの入力に対して出力が「1」となり、メンバシップ関数として有効に作用しないため、正しい学習結果を得ることができなくなってしまう。
そこで、学習手段では、特徴パラメータである分散値を増減するための更新値に、値域が0〜1の値を取る飽和型関数を作用させることが望ましい。なお、飽和型関数として具体的には、例えば、シグモイド関数やステップ関数等がある。
この場合、個々の学習における更新値の上限が制限されるため、分散値の発散を抑制することができる。なお、図10(a)は、図10(b)の場合と同じ条件で、(9)式の代わりに、分散値の更新値にシグモイド関数を作用させた(10)式を用いて行ったシミュレーションの結果であり、学習の進捗に従って、分散値が収束する様子が示されている。但し、(10)式を用いる場合、出力層ニューロン毎に計算が実行され、N2kは、着目する出力層ニューロンに接続された中間層ニューロンの数である。
また、図11は、従来装置でも分散値の発散が発生しない条件において、一つの入力層ニューロンに着目し、学習後に得られるその入力層ニューロンに関するメンバシップ関数の中心値wij(図中(a)参照)及び分散値σij(図中(b)参照)の値についての出現頻度分布を、シミュレーションにより求めた結果である。但し、図中上段の出現頻度分布は、特徴パラメータの更新に(9)式を用いた場合、図中下段の出現頻度分布は、特徴パラメータの更新に(10)式を用いた場合である。また、シミュレーションの条件は、上記と同じである。
この図11には、(10)式を適用することで、特徴パラメータのばらつきが抑制される様子が示されている。
次に、第三発明のファジィ推論型ニューラルネットワークは、中間層を構成する各中間層ニューロンと、出力層を構成する各出力層ニューロンとの接続関係を任意に設定する接続手段を備えることを特徴とする。
次に、第三発明のファジィ推論型ニューラルネットワークは、中間層を構成する各中間層ニューロンと、出力層を構成する各出力層ニューロンとの接続関係を任意に設定する接続手段を備えることを特徴とする。
このように構成されたファジィ推論型ニューラルネットワークでは、接続手段を適宜設定することによって、中間層ニューロンのそれぞれが、出力層ニューロンのいずれか一つに接続された形態を簡単に実現することができ、上述した第一発明の知識ルール抽出方法を実施する際や、第二発明の知識ルール抽出装置を構成する際に、好適に用いることができる。
以下に本発明の実施形態を図面と共に説明する。
図1は、(a)本発明が適用された知識ルール抽出装置1の構成を示すブロック図、(b)は知識ルール抽出装置1の構成要素であるファジィ推論ニューラルネットワーク10の構成を示す説明図である。
図1は、(a)本発明が適用された知識ルール抽出装置1の構成を示すブロック図、(b)は知識ルール抽出装置1の構成要素であるファジィ推論ニューラルネットワーク10の構成を示す説明図である。
図1(a)に示すように、知識ルール抽出装置1は、ファジィ推論ニューラルネットワーク(FINN)10と、FINN10への入出力データを格納するデータ格納部11と、データ格納部11に格納されたデータに基づいてFINN10の初期設定を行うネットワーク初期設定部12と、ネットワーク初期設定部12により初期設定されたFINN10の学習を、データ格納部11に格納されたデータを用い、LMS学習則に従って実行するLMS学習部13と、学習後のFINN10から得られる各種パラメータに基づいてファジィ推論ルールを抽出するルール抽出部14とを備えている。
なお、知識ルール抽出装置1は、ワークステーション等、CPU,ROM,RAM,I/Oポートを中心に構成された周知の汎用計算機上に構成される。具体的には、FINN10はRAM上に構成され、データ格納部11はI/Oポートを介して接続される外部記憶装置により構成され、その他の各部12〜14は、CPUが実行する処理として実現される。
また、ネットワーク初期設定部12が設定するFINN10は、図1(b)に示すように、入力層LI、中間層LM、出力層LOからなる3層構造を有している。そして、入力層LIを構成する各入力層ニューロンINi (i=1,2…,N1)と中間層LMを構成する各中間層ニューロンMj (j=1,2…,N2)とは全結合とされ、各入力層ニューロンINi と各中間層ニューロンMj との結合部分にそれぞれ配置されたメンバシップ関数からなる関数群FFが設けられている。また、各中間層ニューロンMj と出力層LOを構成する各出力層ニューロンOk (k=1,2…,N3)とは、中間層ニューロンINi のそれぞれが、出力層ニューロンOk のいずれか一つに接続されるように結合されている。但し、N1は入力層ニューロンの数、N2は中間層ニューロンの数、N3は出力層ニューロンの数である。
以下では、入力層ニューロンINi の入力値をui 、出力層ニューロンOk の出力値をyk とし、FINN10への入力は、(11)に示すように、ベクトルUにて表し、FINN10からの出力は、(12)に示すように、ベクトルYにて表すものとする。
U=(u1,u2…,ui…,uN1) (11)
Y=(y1,y2…,yk…,yN3) (12)
また、入力層ニューロンINi から中間層ニューロンMj へのメンバシップ関数は、図12(b)に示したように、入出力特性のグラフが釣鐘型の形状(ガウス分布)を有しており、(13)にて与えられるものとする。但し、wijは出力値がピークとなる時の入力値(中心値)、σijはピークの幅を規定する分散値、μijは入力値ui に対する出力値(中間層ニューロンMj への入力値)である。
Y=(y1,y2…,yk…,yN3) (12)
また、入力層ニューロンINi から中間層ニューロンMj へのメンバシップ関数は、図12(b)に示したように、入出力特性のグラフが釣鐘型の形状(ガウス分布)を有しており、(13)にて与えられるものとする。但し、wijは出力値がピークとなる時の入力値(中心値)、σijはピークの幅を規定する分散値、μijは入力値ui に対する出力値(中間層ニューロンMj への入力値)である。
μij=exp{−(ui−wij)2 /σij 2 } (13)
つまり、中間層ニューロンMj には、μ1j,μ2j…μN1jが入力され、その中間層ニューロンMj では、(14)式に示したように、全入力値μ1j,μ2j…μN1j中の最小値を出力値(適応度)ρj とするものとする。
つまり、中間層ニューロンMj には、μ1j,μ2j…μN1jが入力され、その中間層ニューロンMj では、(14)式に示したように、全入力値μ1j,μ2j…μN1j中の最小値を出力値(適応度)ρj とするものとする。
ρj =min[μ1j,μ2j…,μij,…μN1j] (14)
更に、出力層ニューロンOk では、(15)に示すように、自身に接続された中間層ニューロンMj から入力される適応度ρj の重み付け平均を求めることによって出力yk を得るものとする。但し、N2k は、出力層ニューロンOk に接続された中間層ニューロンMj の数、wjkは、中間層ニューロンMj から出力層ニューロンOk への重み(「後件部定数」とも称する。)である。
更に、出力層ニューロンOk では、(15)に示すように、自身に接続された中間層ニューロンMj から入力される適応度ρj の重み付け平均を求めることによって出力yk を得るものとする。但し、N2k は、出力層ニューロンOk に接続された中間層ニューロンMj の数、wjkは、中間層ニューロンMj から出力層ニューロンOk への重み(「後件部定数」とも称する。)である。
このように構成された知識ルール抽出装置1では、図2のフローチャートに示すように、まず、ネットワーク初期設定部12によるネットワーク初期設定処理(S110)が実行され、次に、LMS学習部13による学習処理(S120)が実行され、最後に、ルール抽出部14によるルール抽出処理(S130)が実行される。
以下、各処理の詳細について説明する。
まず、S110にて実行するネットワーク初期設定処理を、図3に示すフローチャートに沿って説明する。
まず、S110にて実行するネットワーク初期設定処理を、図3に示すフローチャートに沿って説明する。
本処理は、自己組織化マップ(SOM)を用いて、全てのメンバシップ関数の中心値wijと、全ての後件部定数wjkとを仮決定する(初期値を求める)ものである。但し、従来装置(図13参照)とは異なり、図4に示すように、出力層ニューロンO1 〜ON3毎に構成したSOMを用いる。
このため、本処理では、まず、出力層LOの中から一つの出力層ニューロンOk を選択し(S210)、データ格納部11に格納されたデータに基づき、(16)に示すように、その選択された出力層ニューロンOk に関する(N1+1)次元の学習ベクトルIk を生成する(S220)。
Ik =(U,0)+(0,yk )
=(u1,u2…,ui…,uN1,yk ) (16)
これと共に、選択した出力層ニューロンOk についてのSOMを生成し、そのSOMを乱数を用いて初期化する(S230)。
=(u1,u2…,ui…,uN1,yk ) (16)
これと共に、選択した出力層ニューロンOk についてのSOMを生成し、そのSOMを乱数を用いて初期化する(S230)。
なお、SOMは、出力層ニューロンOk に接続された中間層ニューロンをMj として、入力層LIから中間層ニューロンMj への結合ベクトルWj U=(w1j,w2j…,wij…,wN1j)と、中間層ニューロンMj から出力層ニューロンOk への重みwjkとをまとめた重みベクトルWj ((17)参照)の集合体である。但し、重みベクトルWj は、出力層ニューロンOk に接続すべき中間層ニューロンの数だけ用意される。
Wj =(Wj U,0)+(0,wjk)
=(w1j,w2j…,wij…,wN1j,wjk) (17)
つまり、本ステップでは、この重みベクトルWj の各要素が初期化されることになる。
=(w1j,w2j…,wij…,wN1j,wjk) (17)
つまり、本ステップでは、この重みベクトルWj の各要素が初期化されることになる。
次に、S220にて生成した学習ベクトルIk を用い、S230にて生成したSOMの重みベクトルWj を、Kohonen の自己組織化アルゴリズムに従って更新するSOM学習処理を実行する(S240)。
具体的には、SOMを構成する各重みベクトルWj と、学習ベクトルIk とのユークリッド距離||Wj−Ik||を計算し、最も距離の小さい重みベクトルWj を、勝ちニューロンとする。そして、勝ちニューロンとその近傍の重みベクトルを、学習ベクトルIk に近づくように更新する。但し、勝ちニューロンに近いものほど、更新量が大きく、また、更新を繰り返すほど、更新範囲が次第に狭くなるようにされている。
なお、Kohonen の自己組織化アルゴリズムは周知のものであるため、これ以上の説明については省略する。
このようなSOMの学習を繰り返すことで、SOM上では、類似した重みベクトルWj 同士が近くに配置される。つまり、入力と出力との関係が特徴毎に自動的に分類されることになる。
このようなSOMの学習を繰り返すことで、SOM上では、類似した重みベクトルWj 同士が近くに配置される。つまり、入力と出力との関係が特徴毎に自動的に分類されることになる。
次に、全ての出力層ニューロンO1 〜ON3について、上述の処理(S210〜S240)を実行したか否かを判断し(S250)、未処理の出力層ニューロンOk が存在すれば、S210に戻って同様の処理を繰り返す。一方、全ての出力層ニューロンO1 〜ON3について処理が終了していれば、SOM学習処理の結果からFINN10を構成して(S260)、本処理を終了する。
なお、FINN10を構成する際には、SOMを構成する重みベクトルWj を、それぞれ一つの中間層ニューロンMj に対応させる。具体的には、重みwijは、入力層ニューロンINi と中間層ニューロンMj との間に配置されたメンバシップ関数の中心値とされ、重みwjkは、中間層ニューロンMj から出力層ニューロンOk への重みとされる。
次に、S120にて実行するLMS学習処理を、図5に示すフローチャートに沿って説明する。
本処理では、まず、出力層LOの中から一つの出力層ニューロンOk を選択し(S310)、その選択した出力層ニューロンOk に対応した教師入力データUt=(ut1 ,ut2 …,utN1)及び教師出力データytk (以下では両者を合わせて「教師データ」と称する。)を、データ格納部11から取得する(S320)。そして、取得した教師入力データUtをFINN10に入力し、FINN10の出力を推論結果データyk として取得する(S330)。
本処理では、まず、出力層LOの中から一つの出力層ニューロンOk を選択し(S310)、その選択した出力層ニューロンOk に対応した教師入力データUt=(ut1 ,ut2 …,utN1)及び教師出力データytk (以下では両者を合わせて「教師データ」と称する。)を、データ格納部11から取得する(S320)。そして、取得した教師入力データUtをFINN10に入力し、FINN10の出力を推論結果データyk として取得する(S330)。
S320にて取得した教師出力データytk と、S330にて取得した推論結果データyk とに基づいて、重みwjkを(18)により微調整すると共に、メンバシップ関数の分散値σijを(19)により更新する(S350)。
次に、S310にて選択された出力層ニューロンOk に対応する全ての教師データIk を処理したか否かを判断し(S350)、未処理の教師データIk があればS320に戻って、上述の処理(S320〜S340)を繰り返す。一方、出力層ニューロンOk に対応する全ての教師データIk について処理が終了していれば、今度は、全ての出力層ニューロンO1 〜ON3について、上述の処理(S320〜S350)を実行したか否かを判断する(S360)。そして、未処理の出力層ニューロンOk があれば、S310に戻って同様の処理を繰り返し、全ての出力層ニューロンO1 〜ON3について処理が終了していれば、本処理を終了する。
つまり、本処理では、選択された一つの出力層ニューロンOk と、その出力層ニューロンOk に接続された中間層ニューロンと、全ての入力層ニューロンとからなる部分ニューラルネットワーク毎に、LMS学習を実行するようにされている。
次に、S130にて実行するルール抽出処理を、図6に示すフローチャートに沿って説明する。
本処理では、まず、出力層LOの中から一つの出力層ニューロンOk を選択し(S410)、続けて入力層LIの中から一つの入力層ニューロンINi を選択する(S420)。
本処理では、まず、出力層LOの中から一つの出力層ニューロンOk を選択し(S410)、続けて入力層LIの中から一つの入力層ニューロンINi を選択する(S420)。
そして、S410にて選択された出力層ニューロンOk に接続された全ての中間層ニューロンMj と、S420にて選択された入力層ニューロンINi との間の重み(メンバシップ関数の中心値)wijを抽出し、その重みwijの値の出現頻度分布を算出する(S430)。
更に、S430で算出した出現頻度分布を正規分布を用いて近似し、その正規分布の中心値Ci を算出する(S440)。具体的には、正規分布の平均値を(20)により算出する、いわゆる最尤推定法を用いることができる。
そして、S440にて算出された中心値Ciを用いて「If ui≒Ci then yk≒1」というファジィ推論ルールを抽出する(S450)。
次に、全ての入力層ニューロンIN1 〜INN1について、上述の処理(S420〜S450)を実行したか否かを判断し(S460)、未処理の入力層ニューロンINi があれば、S420に戻って未処理の入力層ニューロンINi について同様の処理を繰り返し、全ての入力層ニューロンIN1 〜INN1について処理が終了していれば、今度は、全ての出力層ニューロンO1 〜ON3について、上述の処理(S410〜S460)を実行したか否かを判断する(S470)。そして、未処理の出力層ニューロンOk があれば、S410に戻って、未処理の出力層ニューロンOk に対して同様の処理を繰り返し、全ての出力層ニューロンO1 〜ON3について処理が終了していれば、本処理を終了する。
次に、全ての入力層ニューロンIN1 〜INN1について、上述の処理(S420〜S450)を実行したか否かを判断し(S460)、未処理の入力層ニューロンINi があれば、S420に戻って未処理の入力層ニューロンINi について同様の処理を繰り返し、全ての入力層ニューロンIN1 〜INN1について処理が終了していれば、今度は、全ての出力層ニューロンO1 〜ON3について、上述の処理(S410〜S460)を実行したか否かを判断する(S470)。そして、未処理の出力層ニューロンOk があれば、S410に戻って、未処理の出力層ニューロンOk に対して同様の処理を繰り返し、全ての出力層ニューロンO1 〜ON3について処理が終了していれば、本処理を終了する。
つまり、一つの出力層ニューロンOk に着目した場合、各入力層ニューロンIN1 〜INN1それぞれについて、中間層ニューロンの数(N2個)ずつ生成されるルールを、各入力層ニューロンIN1 〜INN1毎にそれぞれ一つのルールに自動的に統合して抽出するようにされている。換言すれば、抽出されるルール数を1/N2に圧縮するようにされている。
以上説明したように、本実施形態の知識ルール抽出装置1によれば、FINN10を構成する中間層ニューロンM1 〜MN2は、いずれも出力層ニューロンO1 〜ON3の中のいずれか一つにしか接続されていないため、中間層ニューロンMj を指定してファジィ推論ルールを抽出した場合、そのルールがどの出力層のニューロンに対して獲得されたものであるかを明確に特定することができる。
また、本実施形態では、着目した出力層ニューロンOk に接続された全ての中間層ニューロンMj と、着目した一つの入力層ニューロンINi との間の重みwijの出現頻度分布を求め、その出現頻度分布に基づいて、着目した入力層ニューロンINi と出力層ニューロンOk との関係を表すファジィ推論ルールを抽出しているため、多入力多出力であっても、各出力毎に、各入力に対する簡潔なファジィルールを自動的に獲得することができる。
更に、本実施形態では、LMS学習処理において、メンバシップ関数の分散値σijを更新する際に、分散値を増減する更新値に対してシグモイド関数を作用させて分散値σijの発散を抑制しているため、信頼性の高い学習結果を得ることができ、ひいては信頼性の高いファジィ推論ルールを取得することができる。
本実施形態の知識ルール抽出装置1を画像認識に適用した実施例を以下に説明する。
ここでは、車載カメラで撮影された画像に基づき、その画像を分割してなる各領域が、予め設定された対象物のいずれであるかを特定するためのファジィ推論ルールを抽出する例について説明する。
ここでは、車載カメラで撮影された画像に基づき、その画像を分割してなる各領域が、予め設定された対象物のいずれであるかを特定するためのファジィ推論ルールを抽出する例について説明する。
なお、領域の特徴量(即ち、FINN10の入力層ニューロンINi )としては、領域の大きさS (=領域を構成する画素数)、領域の色情報(R,G,B)の平均輝度値、領域の重心座標(Gx,Gy)、領域に外接する矩形の座標(x1,y1,x2,y2)、充填率、ひずみ率(Hx,Hy)の13種類(N1=13)を用いるものとする。
また、充填率とは,領域の大きさSと、外接矩形の大きさS’との比率S/S’である。また、ひずみ率(Hx,Hy)とは,外接矩形の中心座標(Cx,Cy)と領域の重心座標(Gx,Gy)とのずれを比率(0〜1)で表したものであり、(21)(21)により算出される値である。なお、中心座標と重心座標とが一致していれば、(Hx,Hy)=(0.5,0.5)となる。
Hx=0.5−(Gx−Cx)/(x2−x1) (21)
Hy=0.5−(Gy−Cy)/(y2−y1) (22)
これら充填率,ひずみ率に限らず他の特徴量も、0〜1までの値に正規化したものを用いる。これはFINN10で扱う数値のスケールが統一されていない場合、学習する重みの精度が変わってしまうことにより、学習がうまく収束しない事態を避けるための処置である。
Hy=0.5−(Gy−Cy)/(y2−y1) (22)
これら充填率,ひずみ率に限らず他の特徴量も、0〜1までの値に正規化したものを用いる。これはFINN10で扱う数値のスケールが統一されていない場合、学習する重みの精度が変わってしまうことにより、学習がうまく収束しない事態を避けるための処置である。
なお、使用する特徴量は上述したものに限定されるものではなく、例えば,領域のテクスチャを表す分散値のような指標や、領域に含まれる最大輝度値・最小輝度値、周囲に隣接する領域の数・平均面積等を用いてもよい。
一方、特定すべき対象物(即ち、FINN10の出力層ニューロンOk )としては、道路,空,建物,樹木,歩道,それ以外の6種類(N3=6)を用い、FINN10の中間層ニューロンMj の数は、210個(N2=210)とした。
まず、知識ルール抽出装置1を作動させる以前に実施する前処理として、図7に示すように、認識すべき対象物が撮影されている元画像(図中(a)参照)を、元画像の各画素の輝度値差が一定値以下となる領域毎に領域分割した画像(図中(b)参照)を作成する。この領域分割の具体的な手法としては、例えば、領域成長法,ウォーターシッド法などの公知技術を用いることができる。
次に、分割した各領域毎に、上述の特徴量を抽出し、これをFINN10への入力Uとして、その領域が表す対象物と対応付けてデータ格納部11に格納する。但し、各対象物についての入力Uが、必要な数だけ(例えば20個以上ずつ)格納されるまで、元画像を変えながら上述の処理を繰り返す。
このようにして、データ格納部11に、必要な数のデータが格納されると、知識ルール抽出装置1を作動させ、FINN10の設定,学習、更には、学習結果に基づくファジィ推論ルールの抽出を行う。
ここで、対象物(出力層ニューロンOk )として道路に着目し、特徴量(入力層ニューロンINi )として色情報B及び重心情報Gyに着目し、この着目したパラメータについて、S430にて求められた出現頻度分布を、図8に示す。
なお、図8には、比較のため、中間層ニューロンM1 〜MN2と出力層ニューロンO1 〜ON3との間を全結合としたFINNを用いた従来装置から得られた出現頻度分布も示す。
この出現頻度分布図に基づいて、色情報B及び重心情報Gyについて、以下のファジィ推論ルールが抽出される。
この出現頻度分布図に基づいて、色情報B及び重心情報Gyについて、以下のファジィ推論ルールが抽出される。
「If B≒0.4 then 道路≒1」
「If Gy≒0.8 then 道路≒1」
従来装置では、その出現頻度分布図を見れば明らかなように、どの結果が、道路を表すルールとして妥当なものであるかを特定することが極めて困難であるのに対して、本実施例では、妥当なファジィ推論ルールを自動的に得ることができた。
[他の実施形態]
以上、本発明の一実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、様々な態様にて実施することが可能である。
「If Gy≒0.8 then 道路≒1」
従来装置では、その出現頻度分布図を見れば明らかなように、どの結果が、道路を表すルールとして妥当なものであるかを特定することが極めて困難であるのに対して、本実施例では、妥当なファジィ推論ルールを自動的に得ることができた。
[他の実施形態]
以上、本発明の一実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、様々な態様にて実施することが可能である。
上記実施形態では、FINN10をRAM上に構成したが、ハードウェアにより構成してもよい。この場合、FINN10は、図9に示すように、中間層ニューロンM1 〜MN2と出力層ニューロンO1 〜ON3との間を全結合とする各結合部分にスイッチを設け、中間層ニューロンM1 〜MN2と出力層ニューロンO1 〜ON3との結合関係を任意に設定できるように構成したものを用いればよい。
上記実施形態では、S340において分散値σijの値を更新する更新値にシグモイド関数を作用させているが、シグモイド関数の代わりにステップ関数を作用させてもよい。また、分散値σijに限らず、中心値wijの値を更新する更新値にも同様に、シグモイド関数或いはステップ関数を作用させるように構成してもよい。
上記実施形態では、S430において出現頻度分布を求める際に、重みwijの値をそのまま用いたが、これに分散値σijを乗じた値σij×wijを用いるようにしてもよい。
上記実施形態では、S440において、ファジィ推論ルールの前件部の情報として、出現頻度分布を正規分布で近似し、その近似した正規分布の中心値を抽出しているが、正規分布にて近似することなく、単純に出現頻度分布のなかで最大値を有するもの抽出するように構成してもよい。この場合、ルール抽出処理をより簡易なものとすることができる。
上記実施形態では、S440において、ファジィ推論ルールの前件部の情報として、出現頻度分布を正規分布で近似し、その近似した正規分布の中心値を抽出しているが、正規分布にて近似することなく、単純に出現頻度分布のなかで最大値を有するもの抽出するように構成してもよい。この場合、ルール抽出処理をより簡易なものとすることができる。
上記実施形態では、FINN10は、中間層ニューロンM1 〜MN2は、それぞれ、出力層ニューロンO1 〜ON3のいずれか一つに接続するように構成されているが、S240で得られる複数のSOMの間で、互いに同じ(或いは非常に近似した)重みベクトルWが存在する場合には、その重みベクトルWに基づいて設定される中間層ニューロンを、異なる出力層ニューロン間で共有させるように構成してもよい。
1…知識ルール抽出装置、10…ファジィ推論ニューラルネットワーク(FINN)、11…データ格納部、12…ネットワーク初期設定部、13…LMS学習部、14…ルール抽出部、FF…関数群、LI…入力層、LM…中間層、LO…出力層、INi …入力層ニューロン、Mj …中間層ニューロン、Ok …出力層ニューロン。
Claims (9)
- 入力層,中間層,および出力層からなり、前記入力層からの入力値を予め設定されたメンバシップ関数に従って変換して前記中間層へ出力するファジィ推論型ニューラルネットワークを用いて、if-then 型のファジー推論ルールを抽出する知識ルール抽出方法であって、
前記ニューラルネットワークを、前記中間層を構成する中間層ニューロンのそれぞれが、前記出力層を構成する出力層ニューロンのいずれか一つに接続されるように構成する第1のステップと、
予め設定された学習則に従って前記ニューラルネットワークの学習を行うことにより、前記メンバシップ関数の入出力特性を規定する特徴パラメータを取得する第2のステップと、
前記出力層ニューロン毎に、該出力層ニューロンに基づいて後件部が規定され、該出力層ニューロンに関連する前記メンバシップ関数の特徴パラメータに基づいて前件部が規定される前記ファジィ推論ルールを抽出する第3のステップと、
からなることを特徴とする知識ルール抽出方法。 - 入力層,中間層,および出力層からなり、前記入力層からの入力値を予め設定されたメンバシップ関数に従って変換して前記中間層へ出力するファジィ推論型ニューラルネットワークを用いて、if-then 型のファジー推論ルールを抽出する知識ルール抽出装置であって、
前記ニューラルネットワークを、前記中間層を構成する中間層ニューロンのそれぞれが、前記出力層を構成する出力層ニューロンのいずれか一つに接続されるように構成する初期設定手段と、
予め設定された学習則に従って、前記初期設定手段により初期設定されたニューラルネットワークの学習を行うことにより、前記メンバシップ関数の入出力特性を規定する特徴パラメータを取得する学習手段と、
前記出力層ニューロン毎に、該出力層ニューロンに基づいて後件部が規定され、該出力層ニューロンに関連する前記メンバシップ関数の特徴パラメータに基づいて前件部が規定される前記ファジィ推論ルールを抽出するルール抽出手段と、
を備えることを特徴とする知識ルール抽出装置。 - 前記初期設定手段は、
前記出力層ニューロンの各々に接続する前記中間層ニューロンの数や前記特徴パラメータの初期値を、前記出力層ニューロン毎に設定した自己組織化マップを用いて求めることを特徴とする請求項2に記載の知識ルール抽出装置。 - 前記ルール抽出手段は、
前記特徴パラメータの値の出現頻度分布を求め、該出現頻度分布を単一の正規分布で近似し、該近似した正規分布の中心値を、前記前件部を規定する情報として抽出することを特徴とする請求項2又は3に記載の知識ルール抽出装置。 - 前記ルール抽出手段は、
前記特徴パラメータの値の出現頻度分布を求め、該出現頻度分布の中で出現頻度が最大となるものを、前記前件部を規定する情報として抽出することを特徴とする請求項2又は3に記載の知識ルール抽出装置。 - 前記学習手段は、
前記出力層ニューロンのそれぞれについて、該出力層ニューロンに関連する前記入力層ニューロン及び前記中間層ニューロンと共に構成される部分ニューラルネットワークを設定し、該部分ニューラルネットワーク毎に、学習を実行することを特徴とする請求項2〜5のいずれかに記載の知識ルール抽出装置。 - 前記メンバシップ関数は、入出力特性を表すグラフが釣鐘型の形状を有し、
前記特徴パラメータとして、出力値が前記グラフのピークとなる時の入力値である中心値、及び前記グラフのピーク幅を規定する分散値を用いることを特徴とする請求項2〜6のいずれかに記載の知識ルール抽出装置。 - 前記学習手段は、
前記特徴パラメータである分散値を増減するための更新値に、値域が0〜1の値を取る飽和型関数を作用させること
を特徴とする請求項7に記載の知識ルール抽出装置。 - 入力層,中間層,および出力層からなり、前記入力層からの入力値を予め設定されたメンバシップ関数に従って変換して前記中間層へ出力するファジィ推論型ニューラルネットワークにおいて、
前記中間層を構成する各中間層ニューロンと、前記出力層を構成する各出力層ニューロンとの接続関係を任意に設定する接続手段を備えることを特徴とするファジィ推論型ニューラルネットワーク。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004040426A JP2005234706A (ja) | 2004-02-17 | 2004-02-17 | 知識ルール抽出方法及び装置、ファジィ推論型ニューラルネットワーク |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004040426A JP2005234706A (ja) | 2004-02-17 | 2004-02-17 | 知識ルール抽出方法及び装置、ファジィ推論型ニューラルネットワーク |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005234706A true JP2005234706A (ja) | 2005-09-02 |
Family
ID=35017620
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004040426A Pending JP2005234706A (ja) | 2004-02-17 | 2004-02-17 | 知識ルール抽出方法及び装置、ファジィ推論型ニューラルネットワーク |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005234706A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018155232A1 (ja) * | 2017-02-23 | 2018-08-30 | ソニー株式会社 | 情報処理装置、情報処理方法、並びにプログラム |
CN112559734A (zh) * | 2019-09-26 | 2021-03-26 | 中国科学技术信息研究所 | 简报生成方法、装置、电子设备及计算机可读存储介质 |
-
2004
- 2004-02-17 JP JP2004040426A patent/JP2005234706A/ja active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018155232A1 (ja) * | 2017-02-23 | 2018-08-30 | ソニー株式会社 | 情報処理装置、情報処理方法、並びにプログラム |
JPWO2018155232A1 (ja) * | 2017-02-23 | 2019-12-12 | ソニー株式会社 | 情報処理装置、情報処理方法、並びにプログラム |
JP7095675B2 (ja) | 2017-02-23 | 2022-07-05 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、並びにプログラム |
CN112559734A (zh) * | 2019-09-26 | 2021-03-26 | 中国科学技术信息研究所 | 简报生成方法、装置、电子设备及计算机可读存储介质 |
CN112559734B (zh) * | 2019-09-26 | 2023-10-17 | 中国科学技术信息研究所 | 简报生成方法、装置、电子设备及计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103927531B (zh) | 一种基于局部二值和粒子群优化bp神经网络的人脸识别方法 | |
CN109255364A (zh) | 一种基于深度卷积生成对抗网络的场景识别方法 | |
CN104517284B (zh) | 基于深度置信网的极化sar图像分割 | |
CN109344731B (zh) | 基于神经网络的轻量级的人脸识别方法 | |
JP6192271B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
CN105488528A (zh) | 基于改进自适应遗传算法的神经网络图像分类方法 | |
Araújo et al. | Local adaptive receptive field self-organizing map for image color segmentation | |
CN114663685B (zh) | 一种行人重识别模型训练的方法、装置和设备 | |
CN113298024A (zh) | 一种基于轻量化神经网络的无人机对地小目标识别方法 | |
CN111079790A (zh) | 一种构建类别中心的图像分类方法 | |
CN114897728A (zh) | 图像增强方法、装置、终端设备以及存储介质 | |
Nalla et al. | Image dehazing for object recognition using faster RCNN | |
JP2014063359A (ja) | 信号処理装置および信号処理方法、出力装置および出力方法、並びにプログラム | |
CN117292283B (zh) | 一种基于无人机的目标识别方法 | |
JP2018081684A (ja) | 人工知能超深層学習モデルの構築方法、人工知能超深層学習装置、人工知能超深層学習モデルが搭載された汎用モバイル端末装置、及び人工知能超深層学習モデルのプログラム | |
CN112329818B (zh) | 基于图卷积网络嵌入表征的高光谱图像非监督分类方法 | |
CN106022293A (zh) | 一种基于自适应共享小生境进化算法的行人再识别方法 | |
JP2005234706A (ja) | 知識ルール抽出方法及び装置、ファジィ推論型ニューラルネットワーク | |
Aria et al. | Generalized cooccurrence matrix to classify IRS-1D images using neural network | |
CN115761240A (zh) | 一种混沌反向传播图神经网络的图像语义分割方法及装置 | |
CN112560824A (zh) | 一种基于多特征自适应融合的人脸表情识别方法 | |
Ghamisi | A novel method for segmentation of remote sensing images based on hybrid GA-PSO | |
Gangloff et al. | A general parametrization framework for pairwise Markov models: An application to unsupervised image segmentation | |
Seow et al. | Recurrent network as a nonlinear line attractor for skin color association | |
Hagenbuchner et al. | A supervised self-organizing map for structures |