JP4668680B2 - 属性識別システムおよび属性識別辞書生成装置 - Google Patents

属性識別システムおよび属性識別辞書生成装置 Download PDF

Info

Publication number
JP4668680B2
JP4668680B2 JP2005144267A JP2005144267A JP4668680B2 JP 4668680 B2 JP4668680 B2 JP 4668680B2 JP 2005144267 A JP2005144267 A JP 2005144267A JP 2005144267 A JP2005144267 A JP 2005144267A JP 4668680 B2 JP4668680 B2 JP 4668680B2
Authority
JP
Japan
Prior art keywords
attribute
filter
attribute identification
image
histogram
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005144267A
Other languages
English (en)
Other versions
JP2006323507A (ja
Inventor
睦 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Motor Co Ltd
Original Assignee
Yamaha Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Motor Co Ltd filed Critical Yamaha Motor Co Ltd
Priority to JP2005144267A priority Critical patent/JP4668680B2/ja
Publication of JP2006323507A publication Critical patent/JP2006323507A/ja
Application granted granted Critical
Publication of JP4668680B2 publication Critical patent/JP4668680B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

この発明は、画像中の対象の属性を識別するための属性識別システムに関する。また、この発明は、属性の識別のための辞書を作成するための属性識別辞書作成装置に関する
市場における消費者の消費傾向を調査し、経営計画を適切に策定するには、商品やサービスを購入する客層の把握が不可欠である。たとえば、コンビニエンスストアでは、店員は、支払いのためにレジカウンターに現れた客の外観を観察し、年齢、性別その他の属性を判断する。店員は、判断した属性をキャッシュレジスターに入力し、さらに、商品情報等の入力を行う。キャッシュレジスターに入力された情報は、たとえば、ネットワークを介して情報センターに集められ、統計処理が施される。こうして、個々の商品の購買客層の傾向を表すデータが作成され、これを用いて経営計画が策定される。
しかし、店員の主観的な判断には個人差があるから、必ずしも正確な属性が収集されるとは限らない。したがって、収集される情報の信頼性は必ずしも高くなく、このような情報に基づく経営判断は、不適切であるおそれがある。
この問題は、顧客の属性判断を機械化することによって緩和される。たとえば、下記特許文献1には、未知の顔画像を入力して、人の性別や年齢層などの属性を識別する人物属性識別装置の発明が開示されている。
この特許文献1の装置では、多数の学習用顔画像が、性別、年齢層などの属性毎にグループ化され、人物の顔画像と各グループの顔画像との類似度が求められる。そして、顧客の顔画像と最も類似する顔画像グループの属性が、当該顧客の属性であると判断される。
特開平11−175724号公報 Yoav Freundら著、「Experiments with a New Boosting Algorithm」、Machine Learning: Proceedings of the Thirteenth International Conference, 1996
このように、特許文献1の発明では、顔画像の類似度が判定され、これを基に人物の属性の判定が行われている。
ところが、顔の類似度と属性の一致/不一致とは判定基準が同じではないから、顔の類似度の判定を基礎とした属性判定では、必ずしも正確な結果が得られない。
すなわち、顔認識技術では、人物間の差異になるべく反応し、かつ、同一人物内差異にはなるべく反応しない識別器が求められる。しかし、このような識別器の特性は、年齢、性別その他の人物属性を識別する属性識別には必ずしも適していない。
たとえば、顔画像から抽出される複数種類の特徴量を個々の次元に採った多次元空間に複数の顔画像をプロットしたときに、図16に図解的に示す結果が得られたとする。ただし、「○」はaさんの複数の顔画像、「▽」はbさんの複数の顔画像、「□」はcさんの複数の顔画像、「△」はdさんの複数の顔画像、「☆」は識別対象の未知の顔画像であるとする。同一人物の複数の顔画像が同一点にプロットされないのは、同じ人物の顔画像であっても、表情、照明条件その他の変動要因でばらつきが生じるからである。
このような場合に、未知の顔画像「☆」の人物が誰であるかを特定するときには、未知の顔画像「☆」は顔画像群「○」に対応した「aさん」と判定されることが好ましい。より具体的に説明すると、未知の顔画像「☆」の近くには、2つの顔画像群「○」および顔画像群「□」がプロットされている。そして、顔画像群「○」は、図16の空間において上下方向に分布してプロットされている。これに対して顔画像群「□」は、図16の空間において左右方向に分布してプロットされている。したがって、未知の顔画像「☆」は、顔画像群「○」の広がり方向に位置しているが、顔画像群「□」の広がり方向には位置していない。そのため、未知の顔画像「☆」は顔画像群「○」と同一人物の顔画像であると判定するのが適切である。
一方、未知の顔画像「☆」の人物の属性を特定する場合には、事情は異なる。たとえば、顔画像群「○」のaさんと顔画像群「▽」のbさんとが、共通の属性Aのクラスに分類され、顔画像群「□」のcさんと顔画像群「△」のdさんとが共通の属性Bのクラスに分類される場合を想定する。そうすると、属性Aの顔画像群「▽」および「○」は、図16の空間において左右方向に広がって分布している。これに対して、属性Bの顔画像群「□」および「△」は、図16の空間において上下方向に広がって分布している。したがって、未知の顔画像「☆」は、属性Aの顔画像群の広がり方向には位置しておらず、属性Bの顔画像群の広がり方向に位置していると言える。よって、その人物の属性は「B」であると判定するのが適切である。
このように、画像中の対象の同定とその属性の識別とは、判定の内容が異なるがゆえに、同じ基準では、必ずしも適切な判断することができない。
そこで、この発明の目的は、画像に含まれる対象の属性を正確に識別することができる属性識別システムを提供することである。
また、この発明の他の目的は、画像に含まれる対象の属性を正確に識別することができる属性識別辞書を生成する属性識別辞書生成装置を提供することである。
上記の目的を達成するための請求項1記載の発明は、画像中に含まれる対象の属性を識別するための属性識別システムであって、属性が既知の対象をそれぞれ含む複数枚の画像に対応した複数のサンプル画像データと個々のサンプル画像データ中に含まれる対象の属性とを対応付けた学習サンプルデータを蓄積する学習サンプル蓄積手段と、この学習サンプル蓄積手段に蓄積された学習サンプルデータを用いた学習によって、画像中に含まれる対象の属性を識別するための属性識別辞書を生成する属性識別辞書生成手段と、この属性識別辞書生成手段によって生成された属性識別辞書に基づいて、属性が未知の対象を含む画像に対応した画像データを処理し、当該対象の属性を判定する属性判定手段とを含み、前記属性識別辞書生成手段は、画像中のエッジ部(明暗部)を検出するために画像データに適用される複数種類のフィルタを生成するフィルタ生成手段と、このフィルタ生成手段によって生成される個々のフィルタをサンプル画像データに適用して得られるフィルタ応答値のヒストグラム(好ましくは正規化したもの)を個々の属性毎(より正確には識別しようとする属性のクラス毎)に作成するヒストグラム作成手段と、このヒストグラム作成手段によって作成された各ヒストグラムについて、フィルタ応答最大値からフィルタ応答最小値に向かって個々のフィルタ応答値までの累積頻度値を求め、この累積頻度値を各フィルタ応答値に対応付けた第1方向累積ヒストグラムと、フィルタ応答最小値からフィルタ応答最大値に向かって個々のフィルタ応答値までの累積頻度値を求め、この累積頻度値を各フィルタ応答値に対応付けた第2方向累積ヒストグラムとを作成する方向付き累積ヒストグラム作成手段と、前記学習サンプル蓄積手段に蓄積された学習サンプルデータに対して、前記方向付き累積ヒストグラム作成手段によって作成された前記第1方向および第2方向累積ヒストグラムを弱仮説として用いたAdaBoost.M2アルゴリズムを適用することにより、画像中に含まれる対象の属性を識別するための特徴量の集合として、フィルタおよび弱仮説の組の群を生成する辞書データ生成手段とを含むものであることを特徴とする属性識別システムである。「画像データ」は、画像を構成する複数の画素の各輝度値を表すデータである。
この構成によれば、サンプル画像データとその画像中に含まれる対象の属性とを対応付けた学習サンプルデータを用いた学習によって、対象の属性を識別するための属性識別辞書が生成される。したがって、この属性識別辞書は、画像の類似度という観点からではなく、属性の識別という観点から最適化されている。そのため、この属性識別辞書を判断基準として用いることによって、未知の画像中に含まれる対象の属性を正確に識別することができる。
前記「対象」の例としては、人、動物、植物(果実、樹木、野菜など)その他の生物、および缶、ビン、箱その他の無生物を挙げることができる。一般に、その一部または全部が撮像可能な対象については、この発明を適用することができる。
画像データは、識別対象の全部を撮影して得られたものであってもよいし、その一部を撮影して得られたものであってもよい。たとえば、対象が人や動物の場合には、画像データ中に対象全体が含まれていてもよいが、顔や頭部のような一部のみが含まれていてもよい。より具体的には、同一個体内での変動の少ない部分を選択して抽出した画像データを用いて属性識別を行うことが好ましい。さらに具体的には、人物の属性を識別する場合には、髪型や服装の影響を受けないように、頭髪や着衣の部分を排除した顔画像部分の画像データを用いて属性識別を行うことが好ましい。
前記「属性」としては、人または動物の年齢、性別および人種を挙げることができる。属性は、静的な属性であってもよく、動的な属性であってもよい。静的な属性としては、対象が人である場合に、醤油顔/ソース顔、金持顔/貧乏顔、文系顔/理系顔といった属性を挙げることができる。また、動的な属性としては、表情によって分類される属性、感情によって分類される属性、疲労による分類される属性を例示することができる。
さらに、対象が樹木や果物のような場合には、その種類を属性とすることができる。
前記「属性識別辞書」とは、サンプル画像データ中に含まれる対象の属性の識別に適した特徴量データの集合である
AdaBoost.M2アルゴリズムは、サンプル番号i=1,2,……,m(mは2以上の整数)として、入力ベクトルxi(サンプル画像データ)とこれに対応する出力ラベルyi(サンプル画像データに対応する属性のクラスを表すもの)との組がm個与えられたときに、新たな入力ベクトルx(属性が未知の入力画像)に対応する出力ラベルy(入力画像に含まれる対象が属すべき属性のクラス)を言い当てる判別基準を導出する多値識別アルゴリズムである。ただし、ラベルyiは、属性をk個(kは2以上の整数)のクラスに分類する場合、集合Y={1,2,……,k}に属する(つまり、yi∈Y)。たとえば、人の顔画像に基づいてその性別を属性として識別することとし、男を「クラス1」に分類し、女を「クラス2」に分類する場合を例にとれば、集合Y={1,2}である。
このようなAdaBoost.M2アルゴリズムを用いた学習によって、画像中に含まれる対象の属性を正確に識別できる特徴量の集合を得ることができる。この特徴量の集合を属性識別辞書として用いることによって、未知の入力画像中に含まれる対象の属性を正確に識別することができる
この発明では、画像中のエッジ部(明暗部)を検出する複数種類のフィルタが生成される。これにより、画像中の特徴を効果的に抽出できるから、より正確に属性の識別を行うことができる。
前記複数種類のフィルタは、画像中に適用される位置、大きさ、形状、エッジ検出方向およびエッジ検出手法のうちの少なくとも一つが異なる複数種類のフィルタを含むことが好ましい。これにより、画像中のさまざまな特徴を抽出できるから、属性の識別を正確に行える。
この発明によれば、フィルタ応答値のヒストグラムを用いて、さらに、方向付きの累積ヒストグラム(第1方向および第2方向累積ヒストグラム)が作成される。つまり、個々のフィルタ毎に、分類すべき複数の属性(正確には、属性の個々のクラス)に対応した第1方向および第2方向累積ヒストグラムが作成される。
或る属性(正確にはクラス)について求めた第1方向および第2方向累積ヒストグラムにおいて、識別対象を含む画像に対するフィルタ応答値に対応した頻度値(累積頻度値)は、当該フィルタを尺度としたときに、当該識別対象が当該属性を有する(当該クラスに属する)確からしさ(尤度)を表す。すなわち、第1方向および第2方向累積ヒストグラムは、いずれも、入力画像に含まれる対象の属性を識別するための独立した弱仮説として用いることができる。
そこで、学習によって、属性の誤識別が最小となるフィルタおよび弱仮説(当該フィルタに対応した第1方向累積ヒストグラムまたは第2方向累積ヒストグラム)の組の群が、属性識別のための特徴量の集合として生成される。このような特徴量の集合を含む属性識別辞書を用いることによって、より正確な属性識別が可能となる。
たとえば、対象の属性をk個のクラスに分類する場合に、各フィルタに関して、第1方向および第2方向累積ヒストグラムがk個のクラス毎に作成される。つまり、1つのフィルタに対して、2k個の方向付き累積ヒストグラムが作成されることになる。この場合、1つのフィルタについて、2k通りの方向付き累積ヒストグラムの組合せが可能となる。
AdaBoost.M2アルゴリズムにおいて繰り返されるT回の学習の各ラウンドでは、前記2k個の組み合わせのなかから、重み付けされた学習サンプルデータに関して、属性の誤識別が最小となる組み合わせが弱仮説テーブルとして抽出されるとよい。こうして、すべてのフィルタに関して、弱仮説テーブルが求められたあとで、複数のフィルタのなかから、誤識別が最小となるフィルタが選択されるとよい。
したがって、前記辞書データ生成手段は、学習サンプルデータに重み配分する重み配分手段と、この重み配分手段によって重み配分された学習サンプルデータを個々のフィルタの弱仮説の組み合わせ(2k通りの方向付き累積ヒストグラムの組み合わせ)に適用してロス(pseudo-loss)を演算するロス演算手段と、このロス演算手段によって演算されるロスが最小となる弱仮説の組み合わせを弱仮説テーブルとして個々のフィルタ毎に求める弱仮説テーブル演算手段と、この弱仮説テーブル演算手段によってすべてのフィルタに関して求められた弱仮説テーブルのなかからロスが最小のフィルタを選択するフィルタ選択手段と、このフィルタ選択手段によって選択されたフィルタおよびそれに対応する前記弱仮説テーブルを特徴量の集合の要素として属性識別辞書に加える手段とを含むことが好ましい。
請求項記載の発明は、前記複数種類のフィルタは、画像中における輝度値(画素値)の空間変動を検出する微分フィルタを含むことを特徴とする請求項記載の属性識別システムである。この構成により、画像の特徴を効率的に抽出できる。
請求項に記載されているように、前記微分フィルタは、所定方向に関する輝度値の空間変動を検出する一次微分フィルタを含むことが好ましい。一次微分フィルタにより、画像のエッジ部を検出できる。
また、請求項に記載されているように、前記微分フィルタは、所定方向に関する輝度値の空間変動を検出する二次微分フィルタを含むことが好ましい。二次微分フィルタにより、画像中の輝度の極部(極大部、極小部)を検出できる。
前記微分フィルタは、ガウシアン微分フィルタ(とくに、一次微分フィルタおよび/または二次微分フィルタ)を含んでいてもよい。
また、微分フィルタによる輝度値空間変動の検出方向は、複数種類に設定されてもよい。この場合、検出方向が異なる微分フィルタは、異なる種類のフィルタである
請求項記載の発明は、画像中に含まれる対象の属性を識別するために用いられる属性識別辞書を生成する属性識別辞書生成装置であって、属性が既知の対象をそれぞれ含む複数枚の画像に対応した複数のサンプル画像データと個々のサンプル画像データ中に含まれる対象の属性とを対応付けた学習サンプルデータを蓄積する学習サンプル蓄積手段と、
この学習サンプル蓄積手段に蓄積された学習サンプルデータを用いた学習によって、画像中に含まれる対象の属性を識別するための属性識別辞書を生成する属性識別辞書生成手段とを含み、前記属性識別辞書生成手段は、画像中のエッジ部(明暗部)を検出するために画像データに適用される複数種類のフィルタを生成するフィルタ生成手段と、このフィルタ生成手段によって生成される個々のフィルタをサンプル画像データに適用して得られるフィルタ応答値のヒストグラム(好ましくは正規化したもの)を個々の属性毎(より正確には識別しようとする属性のクラス毎)に作成するヒストグラム作成手段と、このヒストグラム作成手段によって作成された各ヒストグラムについて、フィルタ応答最大値からフィルタ応答最小値に向かって個々のフィルタ応答値までの累積頻度値を求め、この累積頻度値を各フィルタ応答値に対応付けた第1方向累積ヒストグラムと、フィルタ応答最小値からフィルタ応答最大値に向かって個々のフィルタ応答値までの累積頻度値を求め、この累積頻度値を各フィルタ応答値に対応付けた第2方向累積ヒストグラムとを作成する方向付き累積ヒストグラム作成手段と、前記学習サンプル蓄積手段に蓄積された学習サンプルデータに対して、前記方向付き累積ヒストグラム作成手段によって作成された前記第1方向および第2方向累積ヒストグラムを弱仮説として用いたAdaBoost.M2アルゴリズムを適用することにより、画像中に含まれる対象の属性を識別するための特徴量の集合として、フィルタおよび弱仮説の組の群を生成する辞書データ生成手段とを含むものであることを特徴とする属性識別辞書生成装置である。
この構成によれば、属性識別の観点から属性識別辞書が作成されるので、対象の属性を直接的に識別することができる属性識別辞書を提供できる。これにより、属性識別の精度の向上に寄与することができる
さらに、この発明では、フィルタ応答値にヒストグラムから方向付き累積ヒストグラムが作成され、これを弱仮説として用いてAdaBoost.M2を実行することによって、属性の正確な識別が可能な属性識別辞書を生成できる。
請求項記載の発明は、前記複数種類のフィルタは、画像中における輝度値(画素値)の空間変動を検出する微分フィルタを含むことを特徴とする請求項記載の属性識別辞書生成装置である。この構成により、微分フィルタによって画像中の特徴を効果的に抽出できるから、属性をより正確に識別できる属性識別辞書を生成できる。
前記複数種類の微分フィルタは、請求項に記載されているように、所定方向に関する輝度値の空間変動を検出する一次微分フィルタを含んでいてもよいし、請求項に記載されているように、所定方向に関する輝度値の空間変動を検出する二次微分フィルタを含んでいてもよい
以下では、この発明の実施の形態を、添付図面を参照して詳細に説明する。
図1は、この発明の一実施形態に係る人物属性識別システムの構成を示す図解的なブロック図である。この人物属性識別システムは、たとえば、コンビニエンスストアやスーパーマーケットのレジカウンターのような所定の場所に現れた人物の属性を自動的に識別し、その識別結果を蓄積するために用いられる。
この人物属性識別システムは、前述のような所定の場所に配置され、この場所に現れた者の顔画像を撮像する撮像手段としてのカメラ1と、このカメラ1にケーブル2を介して接続された属性識別装置本体としてのコンピュータ3とを備えている。これらはオンライン動作システムとしての属性識別装置を構成している。コンピュータ3は、たとえば、ネットワークを介して情報センター4との間の通信を行うことができる。
コンピュータ3は、属性識別辞書生成装置としてのコンピュータ33によって作成された属性識別辞書に基づいて、カメラ1によって撮像された人物の属性を識別する。このコンピュータ33は、オフライントレーニングシステムを構成しており、この実施形態の人物属性識別システムの構成要素の一部をなす。
図2は、コンピュータ3のハードウェア構成を説明するためのブロック図である。このコンピュータ3には、マンマシンインタフェースとしてのディスプレイ5および入力操作部6(たとえば、キーボードおよびマウス)が接続されている。コンピュータ3は、CPU10、ROM11およびRAM12を備え、これらがバス13に接続された一般的な構成のものである。バス13には、さらに、外部記憶装置としてのハードディスクドライブ(HDD)14、記録媒体の一例であるCD−ROM8に記録されたデータを読み取ることができる記録媒体読取装置としてのCD−ROMドライブ15、ディスプレイ5の制御のためのディスプレイコントローラ16、および入力操作部6の制御のための入力部コントローラ17(たとえば、キーボードコントローラおよびマウスコントローラ)が接続されている。また、カメラ1から生成される撮像画像に対応した画像データを受け入れるための画像入力インタフェース部18が、バス13に接続されている。
このコンピュータ3のハードディスクドライブ14内の一部の記憶領域である属性識別辞書記憶部20(属性識別辞書記憶手段)には、人物の顔画像に基づいてその属性を識別するための属性識別辞書が予め格納されている。
前述の所定の場所に現れた者の画像は、カメラ1によって撮像される。撮像された画像を表す画像データは、コンピュータ3へと伝送され、RAM12内に格納される。この画像データからその者の顔画像データを抽出するための顔検出処理が行われる。この抽出された顔画像データが、前記属性識別辞書に従って処理され、当該顔画像の人物の属性が識別される。識別結果は、ハードディスクドライブ14内の一部の記憶領域である識別結果蓄積部21に蓄積される。その後の適当なタイミングで、情報センター4(図1参照)に伝送される。
コンピュータ3によるこのような働きを実現するための属性識別用コンピュータプログラムは、たとえば、記録媒体の一例であるCD−ROM8に記録されて提供されてもよい。この場合、このCD−ROM8をCD−ROMドライブ15に装填し、所定のインストール操作を行って、当該コンピュータプログラムをコンピュータ3にインストールすることによって、コンピュータ3は、前述のような機能を実現可能となる。
図3は、人物の属性を識別するための指標となる属性識別辞書を作成するコンピュータ33のハードウェア構成を説明するためのブロック図である。このコンピュータ33には、マンマシンインタフェースとしてのディスプレイ35および入力操作部36(たとえば、キーボードおよびマウス)が接続されている。コンピュータ33は、CPU40、ROM41およびRAM42を備え、これらがバス43に接続された一般的な構成のものである。バス43には、さらに、外部記憶装置としてのハードディスクドライブ(HDD)44、記録媒体の一例であるCD−ROM48に記録されたデータを読み取ることができる記録媒体読取装置としてのCD−ROMドライブ45、ディスプレイ35の制御のためのディスプレイコントローラ46、および入力操作部36の制御のための入力部コントローラ47(たとえば、キーボードコントローラおよびマウスコントローラ)が接続されている。
属性識別辞書の作成は、属性が既知の人物の顔画像に対応した多数(たとえば、16000枚)のサンプル画像データと、個々のサンプル画像データの人物の属性(既知の属性)とを対応付けた学習サンプルデータを用いた学習によって行われる。このような学習サンプルデータは、たとえば、ハードディスクドライブ44内の一部の記憶領域である学習サンプル蓄積部51(学習サンプル蓄積手段)に予め蓄積される。たとえば、学習サンプルデータは、CD−ROM等の記録媒体の形態で入手されてもよいし、コンピュータ33に接続されたネットワークを介して入手されてもよい。なんらかの形態で入手された学習サンプルデータが、学習サンプル蓄積部51に予め蓄積される。この学習サンプルデータを用いた学習がCPU40などの働きによって実行され、この学習によって作成された属性識別辞書は、ハードディスクドライブ44内の一部の記憶領域である属性識別辞書記憶部60に格納される。
コンピュータ33によるこのような働きを実現するための属性識別辞書作成用コンピュータプログラムは、たとえば、記録媒体の一例であるCD−ROM48に記録されて提供されてもよい。この場合、このCD−ROM48をCD−ROMドライブ45に装填し、所定のインストール操作を行って、当該コンピュータプログラムをコンピュータ33にインストールすることによって、コンピュータ33は、前述のような機能を実現可能となる。
属性識別辞書記憶部60に格納された属性識別辞書は、書き込み可能な記録媒体に書き出し、この記録媒体を介してコンピュータ3のハードディスクドライブ14に格納することができる。むろん、ネットワークを介して、属性辞書作成装置としてのコンピュータ33から属性識別装置本体としてのコンピュータ3へと属性識別辞書データを転送するようにしてもよい。
この実施形態の人物属性識別システムでは、コンピュータ33によって属性識別辞書を作成するためのオフライン処理を行い、別のコンピュータ3によって、属性識別辞書を用いた人物属性識別のためのオンライン処理を行うようにしている。しかし、一つのコンピュータによって、前述のようなオフライン処理およびオンライン処理の両方を行うようにしてもよいことは言うまでもない。
図4は、前記属性識別辞書作成用コンピュータプログラムの実行状態におけるコンピュータ33の機能的な構成を説明するためのブロック図である。コンピュータ33は、CPU40によって前記コンピュータプログラムを実行させることにより、このCPU40がROM41、RAM42その他のハードウェア資源と協働することによって実現される複数の機能処理部を実質的に備えることになる。この複数の機能処理部は、学習サンプル蓄積部51に蓄積された学習サンプルに対して、学習の前処理としての加工を施す学習サンプル加工処理部61と、この学習サンプル加工処理部61によって加工された学習サンプルデータを用いた学習によって属性識別辞書データを生成する属性識別辞書生成部62(属性識別辞書生成手段)とを備えている。
たとえば、学習サンプル蓄積部51に、下記表1に示すm個(この例ではm=6)の学習サンプルデータが蓄積されているとする(むろん、実際には、もっと大量の学習サンプルデータが必要である)。
この学習サンプルデータは、サンプル番号i(i=1,2,……,m)、このサンプル番号iに対応した顔画像データxi、およびこの顔画像データxiに対応した属性データ(この例では、性別、年齢および人種のデータ)を含む。顔画像データxiは、たとえば、32画素×32画素の矩形画像であり、画像を構成する各画素の輝度値を表す。
この場合において、たとえば、人物の属性を次のようなk個(kは2以上の整数。次の例ではk=4)のクラスに分類して識別する場合を想定する。
クラス1:女性 40歳未満
クラス2:男性 40歳未満
クラス3:女性 40歳以上
クラス4:男性 40歳以上
この場合、学習サンプル加工処理部61は、各学習サンプルデータに対して、当該学習サンプルデータが分類されるべき正しいクラスのラベル(真ラベル)yi(yi∈Y={1,2,……,k}を求め、これを原学習サンプルデータに付加する。すなわち、表1の学習サンプルデータに対して加工を施したのちの学習サンプルデータは、次の表2のとおりである。この加工後の学習サンプルデータのうち、属性識別辞書生成のための学習に用いられるのは、顔画像データxiおよびこれに対応するラベルyiである。
属性識別辞書生成部62は、顔画像の特徴を検出するための多数種類のフィルタ(たとえば、48720種類の画像フィルタ)から、人物の属性の識別に適した複数のフィルタの集合(組合せ)を選択するフィルタ選択手段として機能する。前記多数種類のフィルタを表すデータは、ハードディスクドライブ44内の記憶領域であるフィルタ蓄積部52(フィルタ生成手段)に蓄積されている。
具体的には、属性識別辞書生成部62は、フィルタ蓄積部52に蓄積されているフィルタを学習サンプルデータを構成する顔画像データに適用し、その適用結果であるフィルタ応答値を演算するフィルタ処理部63と、このフィルタ処理部63によって演算されたフィルタ応答値のヒストグラムを作成するヒストグラム作成処理部64(ヒストグラム作成手段)とを備えている。このヒストグラム作成処理部64は、たとえば、人物の属性をk個のクラスに分類する場合に、個々のクラスk(すなわち、個々のラベルy)ごとのヒストグラムを作成する。より具体的には、前記加工後の学習サンプルデータを同一クラスのデータ毎に処理して、フィルタ応答値のヒストグラムが作成される。この処理が、すべてのクラスに関して行われ、さらに同様の処理が、フィルタ蓄積部52に蓄積されているすべてのフィルタに関して実行される。
作成されたヒストグラムは、ハードディスクドライブ44内の記憶領域であるヒストグラム記憶部53に格納される。
属性識別辞書生成部62は、さらに、ヒストグラム記憶部53に格納された各ヒストグラムの方向付き累積ヒストグラムを作成する方向付き累積ヒストグラム作成処理部65(方向付き累積ヒストグラム作成手段)を備えている。方向付き累積ヒストグラムは、第1方向累積ヒストグラムと、第2方向累積ヒストグラムとを含む。第1方向累積ヒストグラムは、前記ヒストグラムにおいて、フィルタ応答最大値からフィルタ応答最小値に向かって個々のフィルタ応答値までの累積頻度値を求め、この累積頻度値を各フィルタ応答値に対応付けたものである。第2方向累積ヒストグラムは、前記ヒストグラムにおいて、フィルタ応答最小値からフィルタ応答最大値に向かって個々のフィルタ応答値までの累積頻度値を求め、この累積頻度値を各フィルタ応答値に対応付けたものである。
図5に、ヒストグラム作成処理部64によって作成されるヒストグラムの例を示し、図6に方向付き累積ヒストグラム作成処理部65によって作成される方向付き累積ヒストグラムの例を示す。図5に示すヒストグラムは、ラベルy(y∈Y={1,2,……,k}が既知の学習サンプルデータ(xi,yi)に対する、或る一つのフィルタの出力(フィルタ応答値)f(xi)をビンにとった正規化ヒストグラムHyである。図5では、クラス1,2,3に対応したヒストグラムH1,H2,H3が示されている。
一方、前述の第1方向累積ヒストグラムh+は下記(1)式により表され、第2方向累積ヒストグラムh-は下記(2)式により表される。ただし、いずれも正規化されており、下記(3)式が成立する。なお、式中、fmaxはフィルタ応答最大値であり、fminはフィルタ応答最小値である。
図6では、クラス1およびクラス2のヒストグラムH1,H2にそれぞれ対応した第1方向累積ヒストグラムh+と、クラス3のヒストグラムH3に対応した第2方向累積ヒストグラムh-とが表されている。
前記式(1)および(2)の方向付き累積ヒストグラムは、いずれも、サンプル画像xがクラスyに属する尤もらしさ(xのyらしさ)を表す弱仮説として用いられる。すなわち、たとえば、或る画像について求めたフィルタ応答値を図6に示す方向付き累積ヒストグラムによって評価するとする。この場合に、フィルタ応答値f(x)が、図6に示す「A」であったとすると、この画像の人物がクラス1に属する尤もらしさは「0.03」、クラス2に属する尤もらしさは「0.1」、クラス3に属する尤もらしさは「0.6」と見積もられる。
再び、図4を参照する。
方向付き累積ヒストグラム作成処理部65は、すべてのフィルタについて求められたヒストグラムに関して、識別しようとする属性の個々のクラス毎に、前記第1方向および第2方向累積ヒストグラムh+,h-を演算し、これを方向付き累積ヒストグラム記憶部54に格納する。この方向付き累積ヒストグラム記憶部54は、ハードディスクドライブ44内の記憶領域である。
属性識別辞書生成部62は、さらに、AdaBoost.M2アルゴリズム(非特許文献1参照)による学習によって、顔画像データに基づいて人物の属性を識別するのに適した特徴量の集合を演算する学習処理部66(辞書データ生成手段)を備えている。この学習処理部66は、特徴量の集合として、人物の属性を識別するのに適したフィルタおよび弱仮説の組(弱識別器)の群を生成する。
より具体的には、学習処理部66は、学習サンプルデータの偽ラベル(後述)に重み付けする重み付け処理部67と、弱仮説テーブル作成処理部68と、弱識別器作成処理部69と、弱識別器に付与すべき重み係数αを演算する重み演算部70とを備えている。
表2の学習サンプルデータを例にとると、顔画像xiに対する真ラベル(正しいクラスのラベル)yiの対応関係は、それぞれ次のとおりである。
1,y1=1
2,y2=4
3,y3=2
4,y4=3
5,y5=1
6,y6=4
これに対して、「偽ラベル」とは、顔画像xiに対して真ラベルyi以外のラベルy(≠yi)である。したがって、表2の学習サンプルデータの場合に、顔画像xiに対する偽ラベルの対応関係は、それぞれ次のとおりである。
1:y=2,3,4
2:y=1,2,3
3:y=1,3,4
4:y=1,2,4
5:y=2,3,4
6:y=1,2,3
T回の学習のうちの第1回目の学習に当たり、重み付け処理部67は、すべての偽ラベルyに対して、初期配分重みD1を、次の(4)式の値に等しく定める。ただし、mはサンプル数であり、kはクラス数である。
1=1/(m×(k−1)) ……(4)
すなわち、下記表3にまとめて示すとおりとなる。
弱仮説テーブル作成処理部68は、各フィルタについてクラス毎に求められた第1および第2方向累積ヒストグラムh+,h-に基づいて、弱学習を行う。属性をk個のクラスに分類する場合、個々のフィルタの各クラスは2つの方向付き累積ヒストグラムを持つ。したがって、各フィルタについて、方向付き累積ヒストグラムの組み合わせは、2k個存在する。前述の「弱学習」とは、前記2k個の組み合わせのなかから、重み付け処理部67によって重み付けされた偽ラベルyに対して最小のロス(pseudo-loss。誤識別の程度を表す。)が得られる組み合わせを見つける処理を言う。この組み合わせを表すデータは、当該フィルタに対応した弱仮説テーブルとして弱仮説テーブル記憶部55に格納される。この弱仮説テーブル記憶部55は、ハードディスクドライブ44内の記憶領域である。この弱仮説テーブル記憶部55には、すべてのフィルタについての弱仮説テーブルが格納されることになる。
弱仮説テーブル作成処理部68は、ロス演算部71を備えている。このロス演算部71は、各フィルタについて、方向付き累積ヒストグラムの任意の組み合わせに関するロス(pseudo-loss)を演算するものである。このロスが最小となる方向付き累積ヒストグラムの組み合わせが前記弱仮説テーブルとして弱仮説テーブル記憶部55に格納される。このとき、当該弱仮説テーブルのロスも、弱仮説テーブル記憶部55に併せて格納される。
図7は、前述の表2に示す学習サンプルデータに或る一つのフィルタを適用してフィルタ応答値f(x)を求め、そのヒストグラム(正規化したもの)を作成した例である。この例では、クラス1,2および3に対しては第1方向累積ヒストグラムh+を選択し、クラス4に対しては第2方向累積ヒストグラムh-を選択するとロスが小さくなる。したがって、この場合の弱仮説テーブルは、図8のように表される。
一方、画像サンプルxiのフィルタ応答値f(xi)が下記表4のとおりであったとする。この表4には、各画像サンプルxiの偽ラベルy、初期重みD1、真ラベルyiの弱仮説h(xi,yi)の値、偽ラベルyの弱仮説h(xi,y)(ただし、y≠yi)の値が併せて示されている。弱仮説(方向付き累積ヒストグラム)の値とは、フィルタ応答値f(xi)に対応する当該方向付き累積ヒストグラムの頻度値(正規化された値)である。
AdaBoost.M2アルゴリズムにおいて、第t(t=1,2,……,T。Tは学習の回数を表す。)ラウンドにおけるロス(pseudo-loss)は、次の(5)式によって与えられる。
これに表4の各欄の値を当てはめて、第1ラウンドのロスを計算すると、次のとおりである。このような計算がロス演算部71によって行われる。
図4を再び参照する。弱識別器作成処理部69は、弱仮説テーブル記憶部55を参照して、前記ロスが最も少ないフィルタを選択する。そして、このフィルタと、このフィルタに対応した弱仮説テーブルとの組合せが、弱識別器とされる。この弱識別器は、属性識別のための特徴量の集合の要素として、属性識別辞書記憶部60に格納される。
重み演算部70は、第tラウンドの学習で求められた弱識別器に付与すべき重み係数αtを演算する。この重み係数αtは、弱仮説テーブル記憶部55に格納されているロスεt(当該弱識別器に対応するロス)に基づいて求められる。この重み係数αtは、属性識別辞書の要素として属性識別辞書記憶部60に格納される。重み係数αtは、次の(6)式により求められる。
重み付け処理部67は、弱識別器作成処理部69によって生成された弱識別器と、前記重み演算部70によって演算された重み係数αとに基づいて、偽ラベルに対して重みDを再配分する。第t+1番目のラウンドの配分重みDt+1は、次の(7)式で与えられる。
学習処理部66を構成する処理部67〜71は、同様の処理を、所定回数T(たとえば、T=1000)だけ繰り返し実行する。これにより、T個の弱識別器(フィルタおよび弱仮説の組)と、各弱識別器に対応する重み係数α1〜αTとが求まり、これが属性識別辞書データとして、属性識別辞書記憶部60に格納される。こうして、T回の学習によって、次の(8)式で示す最尤属性判断式が得られる。
すなわち、T個の弱識別器に対応した弱仮説h1(x,y)〜hT(x,y)に重み付け係数α1〜αTをそれぞれ乗じて総和を求めた場合に、その総和が最大となるラベルyが、最終識別結果hfin(x)とされる。こうして、顔画像xが属すべきクラスyを求めることができる。
図9は、学習に用いられるサンプル顔画像の例を示す。この例の顔画像は、32画素×32画素の正方形画像であり、画像中の顔の傾きおよびサイズが正規化されている。この例では、顔画像のうち、髪型の影響を受けにくく、かつ、発話時の顎の上下動の影響を受けにくい領域が切り出されている。より具体的には、左右方向に関しては両目尻の間を含み、上下方向に関しては眉から口元までの範囲を含む矩形領域が顔画像領域として切り出されている。
このような顔画像の特徴の抽出には、画像中のエッジ部(明暗部)を抽出する微分フィルタが適している。より具体的には、ガウシアン微分フィルタを適用することができる。
2n×2n(nは2以上の自然数)の正方領域におけるガウシアンは、次の(9)式で与えられ、そのイメージは、図10Aに表されている。
これに対するx方向の一次微分g1 0°およびy方向の一次微分g1 90°は、下記(10)式および(11)式によってそれぞれ与えられる。これらを用いて、z方向まわりの任意の回転角φの方向に関する一次微分g1 φは、下記(12)式によって与えられる。また、図10Bには、φ=0のときのガウシアン一次微分のイメージを示す。
同様にして、x方向の二次微分g2 0°およびy方向の二次微分g2 90°は、下記(13)式および(14)式によってそれぞれ与えられる。これらを用いて、z方向まわりの任意の回転角φの方向に関する二次微分g2 φは、下記(15)式によって与えられる。また、図10Cには、φ=0のときのガウシアン二次微分のイメージを示す。
ここで、たとえば、U=6として、φ=uπ/U(u=0,1,2,3,4,5)とおけば、一次微分および二次微分のそれぞれに関して、6段階に微分方向(フィルタの方向)を操作することができる。むろん、Uは6以外の任意の自然数であってもよい。
図11は、u=0,1,2,3,4,5としたときの、ガウシアン一次微分フィルタおよびガウシアン二次微分フィルタを表す。また、図12は、n=2,u=0のガウシアン一次微分フィルタを表す。
32画素×32画素の領域内において、(2n+1)×(2n+1)画素のサイズの領域は、(32−(2n+1)+1)2個の位置を採りうる。そして、32画素×32画素の領域内では、n=2,3,……,15のみが許される。そうすると、全体で4060個の矩形特徴領域をサンプル顔画像内に定義できる。さらに、ガウシアン一次微分フィルタおよびガウシアン二次微分フィルタのそれぞれに関して、サイズまたは位置の異なる4060個のフィルタを定義でき、それらの個々について微分方向の異なる6個のフィルタを定義できる。そうすると、総数で、48720(=4060×2×6)個のガウシアン微分フィルタが定義される。この48720個のフィルタを表すデータが、フィルタ蓄積部52(図4参照)に予め蓄積される。
フィルタ処理部63(図4参照)は、サンプル顔画像の各画素値(個々の画素の輝度を表す。)に対して、フィルタの各画素位置の値を掛け、個々の画素について求めた乗算値の総和をフィルタ応答値として演算する。
図13は、属性識別辞書生成部62による処理をまとめて示すフローチャートである。属性識別辞書生成部62は、学習サンプル加工処理部61によって加工された学習サンプルデータに対してAdaBoost.M2アルゴリズムによる学習を適用することによって、最尤属性判断式(式(8))を構成する弱識別器(フィルタおよび弱仮説テーブルの組)およびその重み係数αtを求める。
具体的には、まず、重み付け処理部67は、初期化処理として、すべての偽ラベルに一律に初期重みD1を配分する(ステップS1)。
フィルタ処理部63はフィルタ蓄積部52からフィルタを読み出してすべての学習サンプルデータの顔画像に適用し、フィルタ応答値を求める。このフィルタ応答値に基づいて、ヒストグラム作成処理部64によってヒストグラムが作成される。さらに、方向付き累積ヒストグラム作成処理部65によって、第1方向および第2方向累積ヒストグラムが作成される。このような処理が、フィルタ蓄積部52に蓄積されたすべてのフィルタに関して実行される(ステップS2)。
次に、最尤属性判断式を構成すべきT個の弱識別器ht(x,y)(画像xに対する第t番目のフィルタの応答値f(x)に適用すべきラベルy毎の弱仮説htの組)を求めるためのT回の学習(for t=1 to T ループ)が開始される(ステップS3)。
具体的には、まず、弱仮説テーブル作成処理部68により、個々のフィルタ(特徴量)について、ロスが最小となるように、各クラスのヒストグラム累積方向が定められる。これにより、すべてのフィルタに関して、弱仮説テーブルが求まる(ステップS4)。
次に、弱識別器作成処理部69は、ロスが最小のフィルタ(特徴量)を選択する。これにより、第t番目の弱識別器(フィルタおよび弱仮説テーブルの組)が定まる(ステップS5)。
さらに、重み演算部70は、選択されたフィルタおよび弱仮説テーブルに基づいて、第t弱識別器に付与すべき重み係数αtを演算する(ステップS6)。
次いで、重み付け処理部67は、第t弱識別器とその重み係数αtに基づき、第(t+1)回の学習のために、すべての偽ラベルに重みDt+1を再配分する(ステップS7)。
同様の操作をT個の弱識別器h1〜hTが得られるまで繰り返す。こうして、属性識別辞書記憶部60には、T個の弱識別器h1〜hTと、これらに付与される重み係数α1〜αTとが、属性識別辞書データとして格納されることになる。この属性識別辞書データが、属性識別装置本体としてのコンピュータ3の属性識別辞書記憶部20に格納されて活用される。
図14は、属性識別辞書データの一例を示す図である。弱識別器の番号である特徴番号1,2,……,Tに対応して、フィルタ(特徴量)を特定する特徴量データ、重み係数、弱仮説テーブルが対応付けられている。特徴量データは、フィルタの種類(ガウシアン一次微分フィルタまたはガウシアン二次微分フィルタ)、フィルタの原点(矩形のフィルタの左下隅)のx座標およびy座標、フィルタのサイズ、ならびにフィルタの方向(微分方向)を表すデータの組からなる。このデータに基づいて、コンピュータ3は、微分フィルタを生成することができる。むろん、微分フィルタを逐次生成する代わりには、必要なフィルタを予め作成して、ハードディスクドライブ14の記憶領域内のフィルタ蓄積部(図示せず)に蓄積しておくようにしてもよい。この場合には、属性識別辞書データには、フィルタ蓄積部に蓄積されたフィルタを特定するフィルタ識別情報を特徴番号毎に含めておけばよい。
図15は、前述の属性識別用コンピュータプログラムの実行状態におけるコンピュータ3の機能的な構成を説明するためのブロック図である。コンピュータ3は、CPU10によって前記コンピュータプログラムを実行させることにより、このCPU10がROM11、RAM12その他のハードウェア資源と協働することによって実現される複数の機能処理部を実質的に備えることになる。この複数の機能処理部は、カメラ1が生成した画像データから顔画像の領域を抽出して顔画像データを生成する顔画像検出部80(識別対象領域抽出手段)と、この顔画像検出部80が抽出した顔画像データに基づいて、当該顔画像中の人物の属性を識別する属性識別処理部81(属性判定手段)と、この属性識別処理部81による識別結果の出力処理を行う出力処理部82とを備えている。
顔画像検出部80は、入力画像データから顔画像領域を切り出し、さらに、サイズおよび傾き(左右の傾き)を正規化した顔画像データを被識別顔画像データとして出力する。切り出される顔画像領域は、たとえば、髪型の影響を受けにくく、かつ、発話時の顎の上下動の影響を受けにくい領域である。より具体的には、たとえば、左右方向に関しては両目尻の間を含み、上下方向に関しては眉から口元までの範囲を含む矩形領域が顔画像領域として切り出される。正規化された顔画像データは、たとえば、32画素×32画素の正方形画像に対応する。
属性識別処理部81は、顔画像検出部80によって検出される被識別顔画像データに対して、属性識別辞書記憶部20に記憶された属性識別辞書を適用して、最尤属性を判断する。より具体的には、属性識別処理部81は、フィルタ処理部85と、弱仮説演算部86と、重み係数乗算部87と、加算処理部88と、最尤属性判断部89とを備えている。フィルタ処理部85は、被識別顔画像データに対して、特徴番号t(t=1,2,3,……,T)のフィルタを適用して、そのフィルタ応答値を出力する。弱仮説演算部86は、フィルタ処理部85によって求められたフィルタ応答値ft(x)に対応する弱仮説ht(x,y)をすべてのクラスyに関して求める。重み係数乗算部87は、弱仮説演算部86によってクラスy毎に求められた弱仮説ht(x,y)に重み係数αtを乗じる。加算処理部88は、重み係数αtによる重みが与えられた弱仮説ht(x,y)のクラスyごとの総和Σαtt(x,y)(t=1〜Tについての総和)を演算する。最尤属性判断部89は、加算処理部88によって求められる総和Σαtt(x,y)が最大となるラベルyを、識別結果hfin(x)として求める。
このようにして、属性識別処理部81は、属性識別辞書を用いて、前記最尤属性判断式(8)に基づき、被識別顔画像に含まれている対象の属性を判断する。
出力処理部82は、属性識別処理部81による判断結果をディスプレイ5に表示したり、識別結果蓄積部21に蓄積したりする処理を行う。このようにして、被識別者がカメラ1の前に立つだけで、その者の性別および年代といった属性を正確に判別でき、その判別結果を表示したり蓄積したりすることができる。
以上のようにこの実施形態によれば、サンプル顔画像データとこれに対応した属性とを含む学習サンプルデータを用いてAdaBoost.M2アルゴリズムによる学習を行い、人物の属性を顔画像に基づいて識別するための属性識別辞書が作成される。したがって、この属性識別辞書は、属性の識別に最適化された判断基準を提供する。そのため、顔画像データに基づく人物の属性識別を高精度に行うことができる。すなわち、前述のような属性識別辞書に基づく人物の属性識別は、顔画像の類似/非類似の判断を前提とした間接的な識別ではなく、顔画像データに基づいて人物の属性を直接的に識別するものである。こうして、顔画像の類似/非類似の判断とは全く独立した判断基準に基づいて属性識別を行うことができ、属性識別の精度を高めることができる。
以上、この発明の一実施形態について説明したが、この発明は、さらに他の形態で実施することが可能である。たとえば、前述の実施形態では、微分フィルタとして、ガウシアン一次微分フィルタおよびガウシアン二次微分フィルタを適用した例について説明したが、ガウシアン一次微分フィルタのみを適用することとしてもよい。また、ガウシアン微分フィルタに限らず、ハールウェーブレットやガボールウェーブレットなどの他の種類のフィルタが適用されてもよい。
また、前述の実施形態では、女性40歳未満、男性40歳未満、女性40歳以上および男性40歳以上の4つのクラスに属性を分類する例について説明したが、どのような属性分類をするかは、任意であり、属性識別の用途に応じて適宜定めればよい。たとえば、国内の消費者マーケティングの分野では、次の表5に示す10クラス分類が一般的に用いられる。
また、前述の実施形態では、コンビニエンスストアやスーパーマーケットのレジカウンターのような所定の場所に現れた人物の属性を自動的に識別し、これをマーケティングに利用する例について説明したが、むろん、他の用途にこの発明を適用することもできる。たとえば、テーマパークのようなクローズドエリアで運行するランドカーに応用し、性別や年代に適合した案内プランを提供する用途に、この発明が適用されてもよい。
さらに、前述の実施形態では、人物の属性識別を行う例について説明したが、この発明は、人以外の動物その他の生物の属性識別や無生物の属性識別にも適用可能である。より広くは、外観に基づいて属性の識別が可能な対象に対して、この発明の適用が可能である。
その他、特許請求の範囲に記載された事項の範囲で種々の設計変更を施すことが可能である。
この発明の一実施形態に係る人物属性識別システムの構成を示す図解的なブロック図である。 属性識別装置本体としてのコンピュータのハードウェア構成を説明するためのブロック図である。 人物の属性を識別するための指標となる属性識別辞書を作成する属性識別辞書生成装置としてのコンピュータのハードウェア構成を説明するためのブロック図である。 属性識別辞書作成用コンピュータプログラムの実行状態におけるコンピュータの機能的な構成を説明するためのブロック図である。 フィルタ応答値のヒストグラムの例を示す。 方向付き累積ヒストグラムの例を示す。 学習サンプルデータに或る一つのフィルタを適用してフィルタ応答値を求め、そのヒストグラムを作成した例を示す。 弱仮説テーブルの例を示す図である。 学習に用いられるサンプル顔画像の例を示す。 ガウシアン微分フィルタを説明するための図である。図10Aはガウシアン、図10Bはガウシアン一次微分フィルタ、図10Cはガウシアン二次微分フィルタをそれぞれ示す。 微分方向を様々に設定したガウシアン一次微分フィルタおよびガウシアン二次微分フィルタを示す。 最小サイズのガウシアン一次微分フィルタを示す。 属性識別辞書生成部による処理をまとめて示すフローチャートである。 属性識別辞書データの一例を示す図である。 前述の属性識別用コンピュータプログラムの実行状態におけるコンピュータの機能的な構成を説明するためのブロック図である。 顔認識処理と属性識別処理との相違点を説明するための図解図である。
符号の説明
1 カメラ
3 コンピュータ
4 情報センター
5 ディスプレイ
6 入力操作部
8 CD−ROM
10 CPU
11 ROM
12 RAM
14 ハードディスクドライブ
15 CD−ROMドライブ
16 ディスプレイコントローラ
17 入力部コントローラ
18 画像入力インタフェース部
20 属性識別辞書記憶部
21 識別結果蓄積部
33 コンピュータ
35 ディスプレイ
36 入力操作部
40 CPU
41 ROM
42 RAM
44 ハードディスクドライブ
45 CD−ROMドライブ
46 ディスプレイコントローラ
47 入力部コントローラ
48 CD−ROM
51 学習サンプル蓄積部
52 フィルタ蓄積部
53 ヒストグラム記憶部
54 方向付き累積ヒストグラム記憶部
55 弱仮説テーブル記憶部
60 属性識別辞書記憶部
61 学習サンプル加工処理部
62 属性識別辞書生成部
63 フィルタ処理部
64 ヒストグラム作成処理部
65 方向付き累積ヒストグラム作成処理部
66 学習処理部
67 重み付け処理部
68 弱仮説テーブル作成処理部
69 弱識別器作成処理部
70 重み演算部
71 ロス演算部
80 顔画像検出部
81 属性識別処理部
82 出力処理部
85 フィルタ処理部
86 弱仮説演算部
87 重み係数乗算部
88 加算処理部
89 最尤属性判断部

Claims (8)

  1. 画像中に含まれる対象の属性を識別するための属性識別システムであって、
    属性が既知の対象をそれぞれ含む複数枚の画像に対応した複数のサンプル画像データと個々のサンプル画像データ中に含まれる対象の属性とを対応付けた学習サンプルデータを蓄積する学習サンプル蓄積手段と、
    この学習サンプル蓄積手段に蓄積された学習サンプルデータを用いた学習によって、画像中に含まれる対象の属性を識別するための属性識別辞書を生成する属性識別辞書生成手段と、
    この属性識別辞書生成手段によって生成された属性識別辞書に基づいて、属性が未知の対象を含む画像に対応した画像データを処理し、当該対象の属性を判定する属性判定手段とを含み、
    前記属性識別辞書生成手段は、
    画像中のエッジ部を検出するために画像データに適用される複数種類のフィルタを生成するフィルタ生成手段と、
    このフィルタ生成手段によって生成される個々のフィルタをサンプル画像データに適用して得られるフィルタ応答値のヒストグラムを個々の属性毎に作成するヒストグラム作成手段と、
    このヒストグラム作成手段によって作成された各ヒストグラムについて、フィルタ応答最大値からフィルタ応答最小値に向かって個々のフィルタ応答値までの累積頻度値を求め、この累積頻度値を各フィルタ応答値に対応付けた第1方向累積ヒストグラムと、フィルタ応答最小値からフィルタ応答最大値に向かって個々のフィルタ応答値までの累積頻度値を求め、この累積頻度値を各フィルタ応答値に対応付けた第2方向累積ヒストグラムとを作成する方向付き累積ヒストグラム作成手段と、
    前記学習サンプル蓄積手段に蓄積された学習サンプルデータに対して、前記方向付き累積ヒストグラム作成手段によって作成された前記第1方向および第2方向累積ヒストグラムを弱仮説として用いたAdaBoost.M2アルゴリズムを適用することにより、画像中に含まれる対象の属性を識別するための特徴量の集合として、フィルタおよび弱仮説の組の群を生成する辞書データ生成手段とを含むものであることを特徴とする属性識別システム。
  2. 前記複数種類のフィルタは、画像中における輝度値の空間変動を検出する微分フィルタを含むことを特徴とする請求項記載の属性識別システム。
  3. 前記微分フィルタは、所定方向に関する輝度値の空間変動を検出する一次微分フィルタを含むことを特徴とする請求項記載の属性識別システム。
  4. 前記微分フィルタは、所定方向に関する輝度値の空間変動を検出する二次微分フィルタを含むことを特徴とする請求項または記載の属性識別システム。
  5. 画像中に含まれる対象の属性を識別するために用いられる属性識別辞書を生成する属性識別辞書生成装置であって、
    属性が既知の対象をそれぞれ含む複数枚の画像に対応した複数のサンプル画像データと個々のサンプル画像データ中に含まれる対象の属性とを対応付けた学習サンプルデータを蓄積する学習サンプル蓄積手段と、
    この学習サンプル蓄積手段に蓄積された学習サンプルデータを用いた学習によって、画像中に含まれる対象の属性を識別するための属性識別辞書を生成する属性識別辞書生成手段とを含み、
    前記属性識別辞書生成手段は、
    画像中のエッジ部を検出するために画像データに適用される複数種類のフィルタを生成するフィルタ生成手段と、
    このフィルタ生成手段によって生成される個々のフィルタをサンプル画像データに適用して得られるフィルタ応答値のヒストグラムを個々の属性毎に作成するヒストグラム作成手段と、
    このヒストグラム作成手段によって作成された各ヒストグラムについて、フィルタ応答最大値からフィルタ応答最小値に向かって個々のフィルタ応答値までの累積頻度値を求め、この累積頻度値を各フィルタ応答値に対応付けた第1方向累積ヒストグラムと、フィルタ応答最小値からフィルタ応答最大値に向かって個々のフィルタ応答値までの累積頻度値を求め、この累積頻度値を各フィルタ応答値に対応付けた第2方向累積ヒストグラムとを作成する方向付き累積ヒストグラム作成手段と、
    前記学習サンプル蓄積手段に蓄積された学習サンプルデータに対して、前記方向付き累積ヒストグラム作成手段によって作成された前記第1方向および第2方向累積ヒストグラムを弱仮説として用いたAdaBoost.M2アルゴリズムを適用することにより、画像中に含まれる対象の属性を識別するための特徴量の集合として、フィルタおよび弱仮説の組の群を生成する辞書データ生成手段とを含むものであることを特徴とする属性識別辞書生成装置。
  6. 前記複数種類のフィルタは、画像中における輝度値の空間変動を検出する微分フィルタを含むことを特徴とする請求項記載の属性識別辞書生成装置。
  7. 前記微分フィルタは、所定方向に関する輝度値の空間変動を検出する一次微分フィルタを含むことを特徴とする請求項記載の属性識別辞書生成装置。
  8. 前記微分フィルタは、所定方向に関する輝度値の空間変動を検出する二次微分フィルタを含むことを特徴とする請求項または記載の属性識別辞書生成装置。
JP2005144267A 2005-05-17 2005-05-17 属性識別システムおよび属性識別辞書生成装置 Active JP4668680B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005144267A JP4668680B2 (ja) 2005-05-17 2005-05-17 属性識別システムおよび属性識別辞書生成装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005144267A JP4668680B2 (ja) 2005-05-17 2005-05-17 属性識別システムおよび属性識別辞書生成装置

Publications (2)

Publication Number Publication Date
JP2006323507A JP2006323507A (ja) 2006-11-30
JP4668680B2 true JP4668680B2 (ja) 2011-04-13

Family

ID=37543156

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005144267A Active JP4668680B2 (ja) 2005-05-17 2005-05-17 属性識別システムおよび属性識別辞書生成装置

Country Status (1)

Country Link
JP (1) JP4668680B2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4956273B2 (ja) * 2007-05-17 2012-06-20 日本放送協会 投球球種識別装置、識別器生成装置、投球球種識別プログラム及び識別器生成プログラム
JP2009140234A (ja) * 2007-12-06 2009-06-25 Yamaha Motor Co Ltd 自動販売機
WO2009116049A2 (en) 2008-03-20 2009-09-24 Vizi Labs Relationship mapping employing multi-dimensional context including facial recognition
US9143573B2 (en) 2008-03-20 2015-09-22 Facebook, Inc. Tag suggestions for images on online social networks
JP5188865B2 (ja) * 2008-04-16 2013-04-24 株式会社クレオ テレビ会議システム、情報処理装置、情報処理方法、およびプログラム
AU2011358100B2 (en) * 2011-02-03 2016-07-07 Facebook, Inc. Systems and methods for image-to-text and text-to-image association
JP2012208710A (ja) * 2011-03-29 2012-10-25 Panasonic Corp 属性推定装置
JP5899472B2 (ja) 2012-05-23 2016-04-06 パナソニックIpマネジメント株式会社 人物属性推定システム、及び学習用データ生成装置
CN110546644B (zh) * 2017-04-10 2022-10-21 富士通株式会社 识别装置、识别方法以及记录介质
CN107330412B (zh) * 2017-07-06 2021-03-26 湖北科技学院 一种基于深度稀疏表示的人脸年龄估计方法
JP7082647B2 (ja) * 2020-08-28 2022-06-08 アニコム ホールディングス株式会社 保険料算出システム及び保険料算出方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003242486A (ja) * 2002-02-21 2003-08-29 Japan Science & Technology Corp 人物属性推定装置
JP2004318501A (ja) * 2003-04-16 2004-11-11 Victor Co Of Japan Ltd 人物認証装置
JP2005044330A (ja) * 2003-07-24 2005-02-17 Univ Of California San Diego 弱仮説生成装置及び方法、学習装置及び方法、検出装置及び方法、表情学習装置及び方法、表情認識装置及び方法、並びにロボット装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11175724A (ja) * 1997-12-11 1999-07-02 Toshiba Tec Corp 人物属性識別装置
US7362919B2 (en) * 2002-12-12 2008-04-22 Eastman Kodak Company Method for generating customized photo album pages and prints based on people and gender profiles

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003242486A (ja) * 2002-02-21 2003-08-29 Japan Science & Technology Corp 人物属性推定装置
JP2004318501A (ja) * 2003-04-16 2004-11-11 Victor Co Of Japan Ltd 人物認証装置
JP2005044330A (ja) * 2003-07-24 2005-02-17 Univ Of California San Diego 弱仮説生成装置及び方法、学習装置及び方法、検出装置及び方法、表情学習装置及び方法、表情認識装置及び方法、並びにロボット装置

Also Published As

Publication number Publication date
JP2006323507A (ja) 2006-11-30

Similar Documents

Publication Publication Date Title
JP4668680B2 (ja) 属性識別システムおよび属性識別辞書生成装置
Santra et al. A comprehensive survey on computer vision based approaches for automatic identification of products in retail store
US9633045B2 (en) Image ranking based on attribute correlation
US8379937B1 (en) Method and system for robust human ethnicity recognition using image feature-based probabilistic graphical models
US8254645B2 (en) Image processing apparatus and method, and program
US20140172643A1 (en) System and method for categorizing an image
US9477905B2 (en) Image congealing via efficient feature selection
Saberi Anari A hybrid model for leaf diseases classification based on the modified deep transfer learning and ensemble approach for agricultural aiot-based monitoring
WO2016190814A1 (en) Method and system for facial recognition
Soleimanipour et al. A vision-based hybrid approach for identification of Anthurium flower cultivars
Pereira et al. Goat leather quality classification using computer vision and machine learning
Yurtkan et al. Entropy-based feature selection for improved 3D facial expression recognition
Mayer et al. Adjusted pixel features for robust facial component classification
JP6958719B2 (ja) 画像解析装置、画像解析方法および画像解析プログラム
Fendri et al. Multi-level semantic appearance representation for person re-identification system
Kumar et al. Predictive analytics on gender classification using machine learning
Hasnat et al. A proposed system for gender classification using lower part of face image
Ouanan et al. A novel face recognition system based on Gabor and Zernike features
Cherpanath et al. Food Image Recognition and Calorie Prediction Using Faster R-CNN and Mask R-CNN
Caroppo et al. Facial expression recognition in ageing adults: A comparative study
Kumar et al. Real-Time Facial Components Detection Using Haar Classifiers
JP6547280B2 (ja) 設定装置、情報分類装置、設定装置の分類面設定方法、情報分類装置の情報分類方法及びプログラム
Lee et al. Local age group modeling in unconstrained face images for facial age classification
Cui et al. Robust facial landmark localization using classified random ferns and pose-based initialization
Pazzaglia et al. A deep learning approach for product detection in intelligent retail environment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080403

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101021

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110106

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140121

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4668680

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250