JPH03229378A - 画像の分類・識別装置およびそのための方法 - Google Patents
画像の分類・識別装置およびそのための方法Info
- Publication number
- JPH03229378A JPH03229378A JP2025699A JP2569990A JPH03229378A JP H03229378 A JPH03229378 A JP H03229378A JP 2025699 A JP2025699 A JP 2025699A JP 2569990 A JP2569990 A JP 2569990A JP H03229378 A JPH03229378 A JP H03229378A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- facial
- classification
- parts
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000007781 pre-processing Methods 0.000 claims abstract description 37
- 238000013528 artificial neural network Methods 0.000 claims abstract description 22
- 239000000284 extract Substances 0.000 claims abstract description 4
- 238000012545 processing Methods 0.000 claims description 21
- 238000011156 evaluation Methods 0.000 claims description 9
- 230000006870 function Effects 0.000 abstract description 11
- 238000013507 mapping Methods 0.000 abstract description 2
- 238000003475 lamination Methods 0.000 abstract 1
- 230000001815 facial effect Effects 0.000 description 51
- 238000000605 extraction Methods 0.000 description 10
- 238000000034 method Methods 0.000 description 8
- 210000003128 head Anatomy 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 230000001537 neural effect Effects 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 3
- 230000000704 physical effect Effects 0.000 description 3
- 210000005069 ears Anatomy 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 210000001331 nose Anatomy 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
[産業上の利用分野]
本発明は1顔画像分類・認識を例にとると知的画像通信
への適用やセキュリティシステムにおける個人識別など
に用いられる画像の分類・識別装置に関する。
への適用やセキュリティシステムにおける個人識別など
に用いられる画像の分類・識別装置に関する。
(従来の技術)
画像の分類・認識に関する従来の技術は、一般に画像か
ら得られる物理的時@量を基に分類 識別するものであ
る。例えば、対象が顔である場合には顔の部品ごとに特
徴量を定義し、統計処理に基づいて判別するようにされ
る。それは1頭部品の全体部と局所部とのそれぞれにつ
いて、形状特徴ベクトルと位置特徴ベクトルとに分け、
これらの特徴ベクトルと標準顔画像データの特徴ベクト
ルとのなす関係から導かれる判別関数を用いて分類、・
識別している。
ら得られる物理的時@量を基に分類 識別するものであ
る。例えば、対象が顔である場合には顔の部品ごとに特
徴量を定義し、統計処理に基づいて判別するようにされ
る。それは1頭部品の全体部と局所部とのそれぞれにつ
いて、形状特徴ベクトルと位置特徴ベクトルとに分け、
これらの特徴ベクトルと標準顔画像データの特徴ベクト
ルとのなす関係から導かれる判別関数を用いて分類、・
識別している。
また神経回路網を用いて3文字、R画像では濃淡画像を
そのまま分類・識別したものがある。
そのまま分類・識別したものがある。
線形な関数を用いて画像を判別する方法では。
特徴ベクトル空間を複雑に区分できないため、適切な分
類・識別ができない欠点がある。また、神経回路網を用
いた方法は多大な学習時間がかかるとともに、高い認識
率が得られない欠点がある。
類・識別ができない欠点がある。また、神経回路網を用
いた方法は多大な学習時間がかかるとともに、高い認識
率が得られない欠点がある。
さらに、顔画像を例にとった場合、従来の顔画像の分類
・識別では、既に登録済みのデータの中から選択するも
のであり、未知のデータを分類できるものはなかった。
・識別では、既に登録済みのデータの中から選択するも
のであり、未知のデータを分類できるものはなかった。
(課題を解決するための手段〕
このため、学習機能を有し、非線形の写像が可能な神経
回路網を並列かつ層状に組み合わせること、ならびに分
類・識別するための要素として人間の主観評価量を組み
入れることを特徴とする。
回路網を並列かつ層状に組み合わせること、ならびに分
類・識別するための要素として人間の主観評価量を組み
入れることを特徴とする。
(作 用〕
このように1画像の特徴量として物理的特徴量に加えて
人間の主観評価量を用い、各要素部分ごとに専用の神経
回路網を設けて、それらを組み合わせることにより、未
知画像に対しても分類・識別が可能となる。
人間の主観評価量を用い、各要素部分ごとに専用の神経
回路網を設けて、それらを組み合わせることにより、未
知画像に対しても分類・識別が可能となる。
[実施例]
例えば分類・識別対象が顔画像である場合について実施
例1に示す。第1図は本発明の実施例全体を示す。1は
顔画像データ入力部、 2−1. 22、・・・2−
nは前置処理回路、3は主処理神経回路網、4は結果出
力部である。
例1に示す。第1図は本発明の実施例全体を示す。1は
顔画像データ入力部、 2−1. 22、・・・2−
nは前置処理回路、3は主処理神経回路網、4は結果出
力部である。
動作は事前の学習過程と実際の未知データに対する処理
過程との2つからなる。但し、構成は同一である。
過程との2つからなる。但し、構成は同一である。
学習過程は次のとおりである。
第1図において、顔画像データ入力部1はテレビカメラ
あるいはスキャナ等により、予め分類・識別結果の分か
っている学習用顔画像データを取り込み、これを前置処
理回路2に送り込む。前置処理回路2は、顔画像の要素
部分(以下部品と呼ぶ)ごとに設置され、顔画像データ
入力部1の出力である顔画像データから、各部品を正し
く特徴抽出あるいは分類・識別するよう繰り返し学習す
る。このとき、各前置処理回路2の学習は、いわゆる「
教師あり学習Jが一般的であるが、「教師なしの競合学
習等」でもよい。学習が終了すると各前置処理回路2は
それぞれ正しい分類結果を主処理神経回路′IA3に出
力する。但し、前置処理回路2が学習機能をもたず決め
られた算術演算のみでよい場合もあり、このときは当該
前置処理回路2は部品対応に適切な処理がされるよう構
成されている。
あるいはスキャナ等により、予め分類・識別結果の分か
っている学習用顔画像データを取り込み、これを前置処
理回路2に送り込む。前置処理回路2は、顔画像の要素
部分(以下部品と呼ぶ)ごとに設置され、顔画像データ
入力部1の出力である顔画像データから、各部品を正し
く特徴抽出あるいは分類・識別するよう繰り返し学習す
る。このとき、各前置処理回路2の学習は、いわゆる「
教師あり学習Jが一般的であるが、「教師なしの競合学
習等」でもよい。学習が終了すると各前置処理回路2は
それぞれ正しい分類結果を主処理神経回路′IA3に出
力する。但し、前置処理回路2が学習機能をもたず決め
られた算術演算のみでよい場合もあり、このときは当該
前置処理回路2は部品対応に適切な処理がされるよう構
成されている。
次に、主処理神経回路網3は、これらのデータから顔画
像を正しく分類・識別するよう繰り返し学習する。この
とき、主処理神経回路網3の学習は、前置処理回路2と
同様、「教師あり学習」でも「教師なし学習等Jでもよ
い。学習が終了すると主処理神経回路網3は当該顔画像
の正しい分類識別結果を結果出力部4に出力する。
像を正しく分類・識別するよう繰り返し学習する。この
とき、主処理神経回路網3の学習は、前置処理回路2と
同様、「教師あり学習」でも「教師なし学習等Jでもよ
い。学習が終了すると主処理神経回路網3は当該顔画像
の正しい分類識別結果を結果出力部4に出力する。
以上の学習過程は一つの顔画像データに対して繰り返し
実施されるのみでなく、多種の顔画像データに対しても
繰り返し実施される。一般に精度を上げるためには多く
の学習データが必要である。
実施されるのみでなく、多種の顔画像データに対しても
繰り返し実施される。一般に精度を上げるためには多く
の学習データが必要である。
こうして、全体の学習が終了すると、未知の顔画像デー
タに対する分類・識別が可能となる。動作は繰り返しの
学習動作がないだけで上記と同様となる。
タに対する分類・識別が可能となる。動作は繰り返しの
学習動作がないだけで上記と同様となる。
すなわち、顔画像データ入力部1は未知の顔画像データ
を取り込み、これを前置処理回路2に送り込む。前置処
理回路2は、事前に多種の顔画像データにより学習され
た機能により、顔画像データ人力部1の出力である顔画
像データから各部品の特徴を抽出するとともに当該部品
を分類する。
を取り込み、これを前置処理回路2に送り込む。前置処
理回路2は、事前に多種の顔画像データにより学習され
た機能により、顔画像データ人力部1の出力である顔画
像データから各部品の特徴を抽出するとともに当該部品
を分類する。
各前置処理回路2の出力は主処理神経回路網3に集めら
れ、主処理神経回路W43は、これも事前に学習された
機能により、lt1画像を分類・識別する。
れ、主処理神経回路W43は、これも事前に学習された
機能により、lt1画像を分類・識別する。
次に、前置処理回路2の実施例をのべる。第2図(a)
ないし第2図(C)は、夫々、各顔部品の特徴抽出ある
いは分類をする前置処理回路の内部を示す図であり1図
中の符号21あるいは21′は顔部品の物理的特徴量抽
出部722は顔部品の分類部である。
ないし第2図(C)は、夫々、各顔部品の特徴抽出ある
いは分類をする前置処理回路の内部を示す図であり1図
中の符号21あるいは21′は顔部品の物理的特徴量抽
出部722は顔部品の分類部である。
第2図(a)は顔部品の物理的特徴を抽出する前置処理
回路2タイプa(以下2aと記述)の例である。
回路2タイプa(以下2aと記述)の例である。
この場合、前置処理回路2aは、顔部品の物理的性微量
抽出部21のみを有し、顔画像データ入力部lの直像デ
ータから各顔部品の形態を表す物理的特徴量を算出する
。例えば、顔部品である目については、目の長さ1幅、
傾き、目の面積、黒目の面積、黒目の位買、目尻の長さ
1 目尻の傾きなどを算出する。これらの特徴データは
すべて主処理神経回路vA3へ送られる。
抽出部21のみを有し、顔画像データ入力部lの直像デ
ータから各顔部品の形態を表す物理的特徴量を算出する
。例えば、顔部品である目については、目の長さ1幅、
傾き、目の面積、黒目の面積、黒目の位買、目尻の長さ
1 目尻の傾きなどを算出する。これらの特徴データは
すべて主処理神経回路vA3へ送られる。
同様に、他の顔部品として5鼻、耳1ロ、眉顔輪郭など
の特徴が、対応する前置処理回路で抽出され、これらの
結果は主処理神経回路y43に送られる。主処理神経回
路網3は、これらの全特徴データから顔画像の分類・識
別を行う。
の特徴が、対応する前置処理回路で抽出され、これらの
結果は主処理神経回路y43に送られる。主処理神経回
路網3は、これらの全特徴データから顔画像の分類・識
別を行う。
第2図℃)は、顔部品の物理的特徴から人間の主観評価
により、当該部品を分類する前置処理回路2タイプb(
以下2bと記述)の例である。
により、当該部品を分類する前置処理回路2タイプb(
以下2bと記述)の例である。
この場合、前置処理回路2bは、顔部品の物理的性微量
抽出部21′と顔部品の分類部22とを有し、顔部品の
物理的性微量抽出部21′で顔画像データ入力部1の画
像データから各頭部品の物理的特徴量を算出し、この特
徴データから主観評価に基づいて、顔部品の分類部22
で当該部品を分類する。例えば顔部品である目について
は、まず。
抽出部21′と顔部品の分類部22とを有し、顔部品の
物理的性微量抽出部21′で顔画像データ入力部1の画
像データから各頭部品の物理的特徴量を算出し、この特
徴データから主観評価に基づいて、顔部品の分類部22
で当該部品を分類する。例えば顔部品である目について
は、まず。
前置処理回路2aの場合と同様、顔部品の物理的性微量
抽出部21′において、目の長さ2幅9等の物理的時@
量を算出する。次に顔部品の分類部22は、これらの物
理的特徴量から主観評価実験に基づいて、得られた分類
項目(目の大きさの度合い、目の丸みの度合い、目の傾
き度合いなど)に分ける。
抽出部21′において、目の長さ2幅9等の物理的時@
量を算出する。次に顔部品の分類部22は、これらの物
理的特徴量から主観評価実験に基づいて、得られた分類
項目(目の大きさの度合い、目の丸みの度合い、目の傾
き度合いなど)に分ける。
このような分類項目は次に示すような評価実験を行って
決定する。被験者に顔データを呈示し目に関する形容詞
を与え、それに対してあてはまる度合いを3段階で評定
させる。その結果を分析して分類項目を決定する。また
、このときの教師信号は、評価実験によって得られたデ
ータより算出する。なお、顔部品の物理的性微量抽出部
21′は、第2図(alの顔部品の物理的性微量抽出部
21と同一でも、あるいは頭部品の分類のためにこれを
変更したものでもよい。
決定する。被験者に顔データを呈示し目に関する形容詞
を与え、それに対してあてはまる度合いを3段階で評定
させる。その結果を分析して分類項目を決定する。また
、このときの教師信号は、評価実験によって得られたデ
ータより算出する。なお、顔部品の物理的性微量抽出部
21′は、第2図(alの顔部品の物理的性微量抽出部
21と同一でも、あるいは頭部品の分類のためにこれを
変更したものでもよい。
これらの結果は主処理神経回路#i13に送られ主処理
神経回路網3は、これらの顔部品の分類データから顔画
像の分類・識別を行う。
神経回路網3は、これらの顔部品の分類データから顔画
像の分類・識別を行う。
第2図(C)は、顔部品の物理的特徴と、この特徴から
当該部品の分類結果との両者を出力する。前置処理回路
2タイプC(以下2cと記述)の例である。
当該部品の分類結果との両者を出力する。前置処理回路
2タイプC(以下2cと記述)の例である。
この場合1前置処理回路2cは、前置処理回路2bと同
様、顔部品の物理的性微量抽出部21’と顔部品の分類
部22とを有し、顔画像データ入力部lの画像データか
ら各頭部品の物理的特徴量を算出し1 これを出力する
とともに1 この特徴データから主観評価に基づいて当
該部品を分類しこれを出力する。これらの結果は主処理
神経回路網3に送られ7主処理神経回路網3は、これら
の顔部品の物理的特徴と分類データから顔画像の分類・
識別を行う。
様、顔部品の物理的性微量抽出部21’と顔部品の分類
部22とを有し、顔画像データ入力部lの画像データか
ら各頭部品の物理的特徴量を算出し1 これを出力する
とともに1 この特徴データから主観評価に基づいて当
該部品を分類しこれを出力する。これらの結果は主処理
神経回路網3に送られ7主処理神経回路網3は、これら
の顔部品の物理的特徴と分類データから顔画像の分類・
識別を行う。
前置処理回路2a、2b、2cは応用形態によって選択
や組み合わせが可能である。例えば、1tfi部品を物
理的特徴のみで表したければ、前置処理回路2aのみを
部品数だけ用いればよい。また頭部品をすべて分類した
ければ、前置処理回路2bのみを部品数だけ用いればよ
い。
や組み合わせが可能である。例えば、1tfi部品を物
理的特徴のみで表したければ、前置処理回路2aのみを
部品数だけ用いればよい。また頭部品をすべて分類した
ければ、前置処理回路2bのみを部品数だけ用いればよ
い。
第3図は本発明の場合の構成例を示す。
図中の符号は第1図、第2図に対応している。
この場合、前置処理回路2の部分は、前置処理回路2a
と前置処理回路2bとを組み合わせたものであり9例え
ば、目1ロ、鼻、耳などは前置処理回路2bでそれぞれ
を分類し、一方、目と眉との距離、目と鼻との距離など
部品間の位置関係は。
と前置処理回路2bとを組み合わせたものであり9例え
ば、目1ロ、鼻、耳などは前置処理回路2bでそれぞれ
を分類し、一方、目と眉との距離、目と鼻との距離など
部品間の位置関係は。
前置処理回路2aで物理的特徴量として算出するもので
ある。主処理神経回路網3は、これらの顔部品の物理的
特徴と分類データとから顔画像の分類・識別を行う。こ
の例と前置処理回路2〔を用いる場合との違いは、前者
が部品ごとに特徴データと分類データとを使い分けるの
に対し、後者は同じ部品の中に特徴データと分類データ
とが混在することにある。
ある。主処理神経回路網3は、これらの顔部品の物理的
特徴と分類データとから顔画像の分類・識別を行う。こ
の例と前置処理回路2〔を用いる場合との違いは、前者
が部品ごとに特徴データと分類データとを使い分けるの
に対し、後者は同じ部品の中に特徴データと分類データ
とが混在することにある。
〔発明の効果1
以上説明した如く1本発明によれば
(1)非線形関数を含んだ神経回路網を組み合わせるこ
とにより、複雑な特徴空間を分けることが可能になり、
従来に比べ適切な分類・識別が可能となる。
とにより、複雑な特徴空間を分けることが可能になり、
従来に比べ適切な分類・識別が可能となる。
(2)また1画像の特徴量として物理的特徴量に加えて
人間の主観評価量を用いることにより、従来に比べて人
間に近い分類・識別が可能となる。
人間の主観評価量を用いることにより、従来に比べて人
間に近い分類・識別が可能となる。
(3)神経回路網は学習機能を有しているために学習時
に多種にわたる顔画像を用いることにより未知顔画像に
対しても分類・識別が可能となる。
に多種にわたる顔画像を用いることにより未知顔画像に
対しても分類・識別が可能となる。
(4) さらに1画像の要素部分ごとに専用の神経回
路網を設けることにより、学習時間を大幅に低減できる
。
路網を設けることにより、学習時間を大幅に低減できる
。
第1図は本発明の顔画像に通用した場合の全体構成を示
す回、第2 Ua (a)(b) (clは夫々前置処
理回路の構成例を示す図、第3図は前置処理回路タイプ
aと前置処理回路タイプbとの組み合わせによる構成の
例を示す。 図中、lは顔画像データ入力部、2−1は前置処理回路
、3は主処理神経回路網、4は結果出力部、21は顔部
品の物理的性微量抽出部521′は顔部品の物理的性微
量抽出部、22は顔部品の分類部を表す。
す回、第2 Ua (a)(b) (clは夫々前置処
理回路の構成例を示す図、第3図は前置処理回路タイプ
aと前置処理回路タイプbとの組み合わせによる構成の
例を示す。 図中、lは顔画像データ入力部、2−1は前置処理回路
、3は主処理神経回路網、4は結果出力部、21は顔部
品の物理的性微量抽出部521′は顔部品の物理的性微
量抽出部、22は顔部品の分類部を表す。
Claims (2)
- (1)画像データから画像を構成する要素部分ごとに特
徴を抽出し当該部分を分類する前置処理回路と、これら
の出力データから全体の画像を分類・識別する主処理神
経回路網を有することを特徴とする画像の分類・識別装
置。 - (2)前置処理回路は、画像を構成する要素部分の長さ
、幅、傾き、面積などの物理的特徴量を入力とし、当該
の要素部分に対する人間の主観評価量を用いて当該要素
部分を分類することを特徴とする請求項(1)記載の画
像の分類・識別装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2025699A JPH03229378A (ja) | 1990-02-05 | 1990-02-05 | 画像の分類・識別装置およびそのための方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2025699A JPH03229378A (ja) | 1990-02-05 | 1990-02-05 | 画像の分類・識別装置およびそのための方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH03229378A true JPH03229378A (ja) | 1991-10-11 |
Family
ID=12173039
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2025699A Pending JPH03229378A (ja) | 1990-02-05 | 1990-02-05 | 画像の分類・識別装置およびそのための方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH03229378A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2000046747A1 (fr) * | 1999-02-01 | 2000-08-10 | Cai Co., Ltd. | Systeme de reconnaissance de signal d'entree a fonction de croissance par reinjection |
JP2006039657A (ja) * | 2004-07-22 | 2006-02-09 | Konica Minolta Photo Imaging Inc | 画像処理方法、画像処理装置及び画像処理プログラム |
JP2006285956A (ja) * | 2005-03-11 | 2006-10-19 | Fuji Photo Film Co Ltd | 赤目検出方法および装置並びにプログラム |
JP4739297B2 (ja) * | 2007-08-28 | 2011-08-03 | 八洲商事株式会社 | 魚油抽出法 |
-
1990
- 1990-02-05 JP JP2025699A patent/JPH03229378A/ja active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2000046747A1 (fr) * | 1999-02-01 | 2000-08-10 | Cai Co., Ltd. | Systeme de reconnaissance de signal d'entree a fonction de croissance par reinjection |
JP2006039657A (ja) * | 2004-07-22 | 2006-02-09 | Konica Minolta Photo Imaging Inc | 画像処理方法、画像処理装置及び画像処理プログラム |
JP2006285956A (ja) * | 2005-03-11 | 2006-10-19 | Fuji Photo Film Co Ltd | 赤目検出方法および装置並びにプログラム |
JP4739297B2 (ja) * | 2007-08-28 | 2011-08-03 | 八洲商事株式会社 | 魚油抽出法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Trujillo et al. | Automatic feature localization in thermal images for facial expression recognition | |
CN109389074B (zh) | 一种基于人脸特征点提取的表情识别方法 | |
Borkar et al. | Real-time implementation of face recognition system | |
US20070172099A1 (en) | Scalable face recognition method and apparatus based on complementary features of face image | |
Divya et al. | Facial expression recognition by calculating euclidian distance for eigen faces using PCA | |
Zhao et al. | Applying contrast-limited adaptive histogram equalization and integral projection for facial feature enhancement and detection | |
Moallem et al. | Fuzzy inference system optimized by genetic algorithm for robust face and pose detection | |
Julina et al. | Facial emotion recognition in videos using hog and lbp | |
Ali et al. | Fusion based fastica method: Facial expression recognition | |
Verma et al. | Local invariant feature-based gender recognition from facial images | |
Upadhyay et al. | A review on different facial feature extraction methods for face emotions recognition system | |
Ghojogh et al. | A fusion-based gender recognition method using facial images | |
Silva et al. | POEM-based facial expression recognition, a new approach | |
Mandal et al. | Face recognition based on logarithmic local binary patterns | |
JPH03229378A (ja) | 画像の分類・識別装置およびそのための方法 | |
Kurita et al. | Feature Ordering by Cross Validation for Face Detection. | |
Paul et al. | Face detection using skin color recursive clustering and recognition using multilinear PCA | |
Kumar et al. | A pragmatic approach to face recognition using a novel deep learning algorithm | |
Shreedevi et al. | An improved local binary pattern algorithm for face recognition applications | |
Bagga et al. | Facial expression representation and classification using LBP, 2DPCA and their combination | |
Gilewski et al. | Education Aspects: Handwriting Recognition-Neural Networks-Fuzzy Logic | |
Hassan | Recognizing emotions conveyed through facial expressions | |
Al-Ghanim et al. | Face Identification Under Disguise and Makeup Based on Hybrid Deep Learning | |
Jirka et al. | Face recognition system with automatic training samples selection using self-organizing map | |
Hengaju et al. | Artificial neural network for face detection and recognition |