JP5290401B2 - 被写体識別方法、被写体識別プログラムおよび被写体識別装置 - Google Patents

被写体識別方法、被写体識別プログラムおよび被写体識別装置 Download PDF

Info

Publication number
JP5290401B2
JP5290401B2 JP2011505767A JP2011505767A JP5290401B2 JP 5290401 B2 JP5290401 B2 JP 5290401B2 JP 2011505767 A JP2011505767 A JP 2011505767A JP 2011505767 A JP2011505767 A JP 2011505767A JP 5290401 B2 JP5290401 B2 JP 5290401B2
Authority
JP
Japan
Prior art keywords
discriminator
aggregate
aggregation
weight
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011505767A
Other languages
English (en)
Other versions
JPWO2010109644A1 (ja
Inventor
亨 米澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Glory Ltd
Original Assignee
Glory Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Glory Ltd filed Critical Glory Ltd
Publication of JPWO2010109644A1 publication Critical patent/JPWO2010109644A1/ja
Application granted granted Critical
Publication of JP5290401B2 publication Critical patent/JP5290401B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、ブースティング手法を用いて所定の被写体画像と非被写体画像とを分離する学習を行うことで所定の被写体を識別する被写体識別方法、被写体識別プログラムおよび被写体識別装置に関し、特に、被写体の検出精度を向上しつつ、検出処理に要する時間を短縮することができる被写体識別方法、被写体識別プログラムおよび被写体識別装置に関するものである。
従来から、監視カメラや認証用カメラによって撮像された画像に人の顔が含まれているか否かを自動的に識別する顔画像識別手法が知られている。そして、かかる顔画像識別手法には、部分空間法などの技術が一般的に用いられている。
たとえば、Integral Image法を用いた顔画像識別手法としては、画像中に複数の矩形領域を設定したうえで、各矩形領域に含まれるすべての画素の特徴量を合算することで得られる合算値に基づいて顔画像を検出する技術がある(特許文献1、特許文献2および非特許文献1参照)。
特開2004−362468号公報 特開2007−34723号公報 Paul Viola, Michael Jones, "Rapid Object Detection using a Boosted Cascade of Simple Features", In Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition, Volume 1, pp.511-518, December 2001
しかしながら、上述した従来技術には、顔画像の検出処理に要する時間をさらに短縮しつつ、検出精度を向上させることが難しいという問題があった。
具体的には、部分空間法を用いて顔画像を検出する場合、部分空間法は演算量が多いので、顔画像検出処理に要する処理時間がかさんでしまう。
また、Integral Image法を用いた顔画像識別手法によって顔画像を検出する場合、顔画像検出処理に要する処理時間を短縮するためには、特徴量合算値の算出対象となる矩形領域の面積を比較的大きく設定する必要がある。しかし、矩形領域の面積を大きくすると、直射日光が顔に当たっている画像などでは、直射日光の影響で特徴量合算値が大きく変動し、顔画像の検出精度が低下してしまう。
また、非特許文献1の技術は、矩形特徴ごとに閾値をもつ必要があるため、特に、判別初期段階で、非顔画像を排除する能力に乏しいという問題もあった。
これらのことから、顔画像の検出精度を向上しつつ、検出処理に要する時間を短縮することができる顔画像識別方法、顔画像識別プログラムあるいは顔画像識別装置をいかにして実現するかが大きな課題となっている。なお、かかる課題は、顔画像を識別対象とする場合にのみ発生する課題ではなく、特定の被写体を識別対象とする場合についても同様に発生する課題である。
本発明は、上述した従来技術の課題を解決するためになされたものであり、被写体の検出精度を向上しつつ、検出処理に要する時間を短縮することができる被写体識別方法、被写体識別プログラムおよび被写体識別装置を提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、ブースティング手法を用いて所定の被写体画像と非被写体画像とを分離する学習を行うことで所定の被写体を識別する被写体識別方法であって、被写体画像サンプルと非被写体画像サンプルとの分離に用いる所定の特徴量にそれぞれ対応する2値化判別器の中から最も誤り率が低い最良判別器を選択するとともに、当該最良判別器に対応する重み係数を決定し、次の学習では当該最良判別器を誤り率が0.5である判別器とするように当該重み係数に基づくサンプル重みの更新を繰り返す繰返工程と、前記繰返工程によって所定個数の前記最良判別器が選択されたならば、前記繰返工程によって既に選択された前記最良判別器からなる判別器群について該最良判別器のそれぞれに保持される未2値化データを用いて線形判別分析を行うことによって当該判別器群に対応する集約判別器を導出する集約判別器導出工程と、前記集約判別器導出工程によって導出された前記集約判別器が次の学習では前記誤り率が0.5である判別器となるように当該集約判別器に対応する集約重み係数を決定する集約重み係数決定工程と、前記集約重み係数決定工程によって決定された前記集約重み係数に基づいて前記繰返工程によって用いられる前記サンプル重みを更新するサンプル重み更新工程と、前記集約判別器導出工程によって導出された前記集約判別器および前記集約重み係数決定工程によって決定された前記集約重み係数に基づいて前記被写体画像と前記非被写体画像とを分離する最終判別器を決定する最終判別器決定工程とを含んだことを特徴とする。
また、本発明は、上記の発明において、前記集約判別器導出工程は、所定の最小個数以上であって所定の最大個数以下となる前記所定個数ごとに前記集約判別器の候補をそれぞれ導出し、導出した前記候補の中から1つの前記集約判別器を選択することを特徴とする。
また、本発明は、上記の発明において、前記集約判別器導出工程は、前記最小個数から前記最大個数までの範囲において前記所定個数までの範囲では前記非被写体画像に対する全面スキャンを行ったうえで前記所定個数より大きい範囲では前記全面スキャンで排除できなかったエリアに対する部分スキャンを行うと仮定した場合に、前記全面スキャンおよび前記部分スキャンによるスキャン面積の総和が最小となる前記候補を前記集約判別器として選択することを特徴とする。
また、本発明は、上記の発明において、前記集約判別器導出工程は、既に導出した前記集約判別器に含まれる前記2値化判別器の組合せとは異なるように、あらたに導出する前記集約判別器に含まれる前記2値化判別器の組合せを決定することを特徴とする。
また、本発明は、上記の発明において、前記集約判別器導出工程は、既に導出した前記集約判別器に含まれる前記2値化判別器を含まないように、あらたに導出する前記集約判別器に含まれる前記2値化判別器を決定することを特徴とする。
また、本発明は、ブースティング手法を用いて所定の被写体画像と非被写体画像とを分離する学習を行うことで所定の被写体を識別する被写体識別プログラムであって、被写体画像サンプルと非被写体画像サンプルとの分離に用いる所定の特徴量にそれぞれ対応する2値化判別器の中から最も誤り率が低い最良判別器を選択するとともに、当該最良判別器に対応する重み係数を決定し、次の学習では当該最良判別器を誤り率が0.5である判別器とするように当該重み係数に基づくサンプル重みの更新を繰り返す繰返手順と、前記繰返手順によって所定個数の前記最良判別器が選択されたならば、前記繰返手順によって既に選択された前記最良判別器からなる判別器群について該最良判別器のそれぞれに保持される未2値化データを用いて線形判別分析を行うことによって当該判別器群に対応する集約判別器を導出する集約判別器導出手順と、前記集約判別器導出手順によって導出された前記集約判別器が次の学習では前記誤り率が0.5である判別器となるように当該集約判別器に対応する集約重み係数を決定する集約重み係数決定手順と、前記集約重み係数決定手順によって決定された前記集約重み係数に基づいて前記繰返手順によって用いられる前記サンプル重みを更新するサンプル重み更新手順と、前記集約判別器導出手順によって導出された前記集約判別器および前記集約重み係数決定手順によって決定された前記集約重み係数に基づいて前記被写体画像と前記非被写体画像とを分離する最終判別器を決定する最終判別器決定手順とをコンピュータに実行させることを特徴とする。
また、本発明は、ブースティング手法を用いて所定の被写体画像サンプルと非被写体画像サンプルとを分離する学習を行うことで所定の被写体を識別する被写体識別装置であって、被写体画像サンプルと非被写体画像サンプルとの分離に用いる所定の特徴量にそれぞれ対応する2値化判別器の中から最も誤り率が低い最良判別器を選択するとともに、当該最良判別器に対応する重み係数を決定し、次の学習では当該最良判別器を誤り率が0.5である判別器とするように当該重み係数に基づくサンプル重みの更新を繰り返す繰返手段と、前記繰返手段によって所定個数の前記最良判別器が選択されたならば、前記繰返手段によって既に選択された前記最良判別器からなる判別器群について該最良判別器のそれぞれに保持される未2値化データを用いて線形判別分析を行うことによって当該判別器群に対応する集約判別器を導出する集約判別器導出手段と、前記集約判別器導出手段によって導出された前記集約判別器が次の学習では前記誤り率が0.5である判別器となるように当該集約判別器に対応する集約重み係数を決定する集約重み係数決定手段と、前記集約重み係数決定手段によって決定された前記集約重み係数に基づいて前記繰返手段によって用いられる前記サンプル重みを更新するサンプル重み更新手段と、前記集約判別器導出手段によって導出された前記集約判別器および前記集約重み係数決定手段によって決定された前記集約重み係数に基づいて前記被写体画像と前記非被写体画像とを分離する最終判別器を決定する最終判別器決定手段とを備えたことを特徴とする。
本発明によれば、被写体画像サンプルと非被写体画像サンプルとの分離に用いる所定の特徴量にそれぞれ対応する2値化判別器の中から最も誤り率が低い最良判別器を選択するとともに、選択された最良判別器に対応する重み係数を決定し、次の学習ではこの最良判別器を誤り率が0.5である判別器とするように、決定された重み係数に基づくサンプル重みの更新を繰り返し、所定個数の最良判別器が選択されたならば、既に選択された最良判別器からなる判別器群について最良判別器のそれぞれに保持される未2値化データを用いて線形判別分析を行うことによって判別器群に対応する集約判別器を導出し、導出された集約判別器が次の学習では誤り率が0.5である判別器となるようにこの集約判別器に対応する集約重み係数を決定し、決定された集約重み係数に基づいてサンプル重みを更新し、導出された集約判別器および集約重み係数に基づいて被写体画像と非被写体画像とを分離することとしたので、複数の未2値化判別器を線形判別分析で集約することによって集約判別器を導出し、導出した集約判別器を用いて最終判別器を決定することで、被写体の検出精度を向上しつつ、検出処理に要する時間を短縮することができるという効果を奏する。
また、本発明によれば、所定の最小個数以上であって所定の最大個数以下となる所定個数ごとに集約判別器の候補をそれぞれ導出し、導出した候補の中から1つの集約判別器を選択することとしたので、集約判別器の選択を柔軟に行うことができるという効果を奏する。また、複数の集約判別器候補を比較することで最適な集約判別器を選択することができるという効果を奏する。
また、本発明によれば、最小個数から最大個数までの範囲において所定個数までの範囲では非被写体画像に対する全面スキャンを行ったうえで所定個数より大きい範囲では全面スキャンで排除できなかったエリアに対する部分スキャンを行うと仮定した場合に、全面スキャンおよび部分スキャンによるスキャン面積の総和が最小となる候補を集約判別器として選択することとしたので、排除対象を効率的に排除することができるという効果を奏する。
また、本発明によれば、既に導出した集約判別器に含まれる2値化判別器の組合せとは異なるように、あらたに導出する集約判別器に含まれる2値化判別器の組合せを決定することとしたので、集約判別器の重複を回避することで、判別精度を向上させることができるという効果を奏する。
また、本発明によれば、既に導出した集約判別器に含まれる2値化判別器を含まないように、あらたに導出する集約判別器に含まれる2値化判別器を決定することとしたので、集約対象とならない2値化判別器をなくすことで、各2値化判別器を有効活用することができるという効果を奏する。
図1は、本発明に係る被写体識別手法の概要を示す図である。 図2は、本実施例に係る顔画像識別装置の構成を示すブロック図である。 図3は、サンプル画像から特徴量を取得する処理を示す図である。 図4は、集約判別器候補を算出する処理を示す図である。 図5は、集約判別器候補のオフセットを算出する処理を示す図である。 図6は、集約判別器選択の一例を示す図である。 図7は、集約判別器を導出する処理を示す図である。 図8は、顔画像識別装置が実行する処理手順を示すフローチャートである。 図9は、集約判別器決定処理の処理手順を示すフローチャートである。 図10は、アダブースト手法の概要を示す図である。
符号の説明
10 顔画像識別装置
11 制御部
11a アダブースト処理部
11b 集約判別器導出部
11c 集約重み係数決定部
11d サンプル重み更新部
11e 最終判別器決定部
12 記憶部
12a 顔画像サンプル
12b 非顔画像サンプル
12c 集約判別器候補
12d 集約判別器
12e 集約重み係数
以下に、添付図面を参照して、本発明に係る被写体識別手法の好適な実施例を詳細に説明する。なお、以下では、ブースティング学習手法として広く用いられているアダブースト(AdaBoost)手法について図10を用いて、本発明に係る被写体識別手法の概要について図1を用いて、それぞれ説明した後に、本発明に係る被写体識別手法を適用した顔画像識別装置についての実施例を説明する。また、以下では、識別対象とする被写体を、顔画像とした場合について説明することとする。
図10は、アダブースト手法の概要を示す図である。アダブースト手法は、YES/NO、正/負といった2値化された判別結果を出力する2値化判別器を学習結果に基づいて多数組み合わせることによって、正答率が高い最終判別器を導出する学習手法である。
ここで、組合せ対象となる判別器は、正答率が50%を若干超える程度の弱い判別器(以下、「弱判別器」と記載する)である。すなわち、アダブースト手法では、正答率が低い弱判別器を多数組み合わせることで、正答率が高い最終判別器を導出する。
まず、アダブースト手法に用いられる数式について説明する。なお、以下では、顔画像のサンプル群をクラスA、非顔画像のサンプル群をクラスBとし、クラスAとクラスBとを判別する場合について説明することとする。
アダブースト手法において、学習回数をs(1≦s≦S)、各特徴量をx、特徴量xに対応する判別器をh-(x)、判別器h(x)の重み係数をαとすると、最終判別器H(x)は、
Figure 0005290401
式(1−1)のようにあらわされる。
ここで、関数sign()は、かっこ内の値が0以上であれば+1、0未満であれば−1とする2値化関数である。また、式(1−2)に示したように、判別器h(x)は、−1または+1の値をとる2値化判別器であり、クラスAと判別した場合には+1の値をとり、クラスBと判別した場合には−1の値をとる。
アダブースト手法では、式(1−1)に示した判別器h(x)を1回の学習で1つずつ選択するとともに、選択した判別器h(x)に対応する重み係数αを逐次決定していく処理を繰り返すことで、最終判別器H(x)を導出する。以下では、アダブースト手法についてさらに詳細に説明する。
を各特徴量とし、yを{−1,+1}(上記したクラスAは+1、上記したクラスBは−1)とすると、学習サンプルは、{(x,y),(x,y),…,(x,y)}とあらわされる。ここで、Nは、判別対象とする特徴量の総数である。
また、D(i)を、i番目の学習サンプルに対してs回目の学習を行った場合のサンプル重みとすると、D(i)の初期値は、式「D(i)=1/N」であらわされる。そして、各特徴量xに対応する判別器をh(x)、各判別器の重み係数をαとすると、アダブースト手法に用いられる各数式は、
Figure 0005290401
となる。
以下では、図10を用いながら、上記した式(2−1)〜式(2−4)についてそれぞれ説明する。同図の(1)に示したように、1回目の学習では、サンプル重みD(i)を1/Nとしたうえで、判別器hごとの学習サンプル分布を算出する。このようにすることで、同図に示したように、クラスAの分布とクラスBの分布とが得られる。
そして、同図の(2)に示したように、式(2−1)を用いて判別器hごとの誤り率(たとえば、クラスAのサンプルをクラスBと誤判別した確率)εを算出し、最も誤り率εが低い、すなわち、最も良好な判別を行った判別器hを最良判別器として選択する。
つづいて、同図の(3−1)に示したように、式(2−2)を用いて判別器h(同図の(2)で選択された最良判別器)の重み係数αを決定する。そして、式(2−3)を用いて次回の学習における各学習サンプル重みDs+1を更新する。なお、式(2−3)の分母であるZは、式(2−4)であらわされる。
このようにして、次回の学習サンプル重みDs+1が更新されると、同図の(4)に示したように、判別器hごとの学習サンプル分布は、同図の(1)に示した分布とは異なるものとなる。そして、学習回数sをカウントアップし、同図の(4)で算出された分布で同図の(1)に示した分布を更新したうえで、同図の(2)以降の処理を繰り返す。
ここで、式(2−3)は、同図の(2)で選択された最良判別器が、次回の学習では、誤り率が0.5である判別器となるように次回の学習サンプル重みDs+1を決定することを示している。すなわち、最良判別器が最も苦手とする学習サンプル重みを用いて次の最良判別器を選択する処理を行うことになる。
このように、アダブースト手法は、学習を繰り返すことで、判別器の選択と各判別器の重み係数の最適化とを行い、最終的には、正答率が高い最終判別器を導出することができる。しかし、式(1−2)に示したように、アダブースト手法によって選択される判別器h(x)は、2値化判別器であり、判別器内部で保持する値を最終的には2値に変換したうえで出力する。すなわち、2値変換に伴う判断分岐が必要となり、演算量がかさむという問題がある。
なお、リアルブースト(RealBoost)手法では、多値判別器を用いるので、アダブースト手法で発生する判断分岐による演算量増大の問題を回避することができるが、多値判別器が保持する多値それぞれに対応した重み係数を保持する必要があるため、メモリ使用量が増大するという問題がある。
そこで、本発明に係る被写体識別手法では、アダブースト手法を改良することで、判断分岐による演算量増大という問題を回避するとともに、リアルブースト手法のように大きなメモリを必要とすることなく識別精度を向上させることとした。以下では、本発明に係る被写体識別手法の概要について図1を用いて説明する。
図1は、本発明に係る被写体識別手法の概要を示す図である。なお、同図の(A)には、図10を用いて説明したアダブースト手法の概要について、同図の(B)には、本発明に係る被写体識別手法の概要についてそれぞれ示している。また、同図の(A)に示したhは2値化判別器を、同図の(B)に示したfは、hが所定の閾値で2値化する前の関数である未2値化判別器を、それぞれあらわしている。
図1の(A)に示したように、アダブースト手法では、1回目の学習で、誤り率が最小の判別器をhとして決定する(同図の(A−1)参照)。そして、hの重み係数を決定し(同図の(A−2)参照)、次回の学習では、hが、誤り率が0.5である判別器となるように、各サンプルに対するサンプル重みを更新する(同図の(A−3)参照)。
そして、判別器の選択、選択した判別器に対する重み係数の決定およびサンプル重みの更新を繰り返すことで、最終判別器を導出する。
一方、図1の(B)に示したように、本発明に係る被写体識別手法では、所定個数の未2値化判別器fiをLDA(Linear Discriminant Analysis)法を用いて集約することで集約判別器を導出し、導出した1個または複数個の集約判別器に基づいて1個の最終判別器を導出する点に主たる特徴がある。
具体的には、所定の手順に従って未2値化判別器を集約し(同図の(B−1)参照)、LDAを用いて集約判別器を導出する(同図の(B−2)参照)。また、導出した集約判別器の重み係数を決定するとともに(同図の(B−3)参照)、各サンプルに対するサンプル重みを更新する(同図の(B−4)参照)。
そして、集約判別器の選択、選択した集約判別器に対する重み係数の決定およびサンプル重みの更新を繰り返すことで、1個の最終判別器を導出する。このように、本発明に係る被写体識別手法では、所定数の未2値化判別器を線形結合するので、判別処理に伴う演算量を削減することができる。
すなわち、排除対象(上記したクラスB)をある程度分離することができるようになるまで未2値化判別器を集約するので、無駄な判断分岐(図1の(A)に示したhが必ず行う2値変換に伴う判断分岐)を削減することができる。また、図1の(A)に示したアダブースト手法では考慮されていなかった特徴量間の関係を、あらたな特徴として捉えることができるので、判別精度を向上させることができる。
なお、以下では、図1の(B)に示した手法を、「LDAArray法」と呼ぶこととする。また、以下では、かかるLDAArray法を、顔画像と非顔画像(たとえば、背景画像)との識別を行う顔画像識別装置に適用した場合について説明する。なお、LDAArray法は、画像識別の分野には限らず、アダブースト手法が対象とする分野についても広く適用することができる。
図2は、本実施例に係る顔画像識別装置10の構成を示すブロック図である。同図に示すように、顔画像識別装置10は、制御部11と、記憶部12とを備えている。また、制御部11は、アダブースト処理部11aと、集約判別器導出部11bと、集約重み係数決定部11cと、サンプル重み更新部11dと、最終判別器決定部11eとをさらに備えている。そして、記憶部12は、顔画像サンプル12aと、非顔画像サンプル12bと、集約判別器候補12cと、集約判別器12dと、集約重み係数12eとを記憶する。
制御部11は、上記したLDAArray法を用いた学習によって最終判別器を導出する処理を行う処理部である。なお、図2では、最終判別器を決定するために用いられる処理部のみを示しているが、最終判別器決定部11eによって決定された最終判別器を用いて顔画像の識別処理を行う処理部等を含むように顔画像識別装置10を構成することとしてもよい。
アダブースト処理部11aは、図10を用いて既に説明したアダブースト手法を実行する処理を行う処理部である。また、アダブースト処理部11aは、記憶部12から読み出した顔画像サンプル12aおよび非顔画像サンプル12bをサンプルとする学習を繰り返し、選択した2値化判別器と決定した重み係数との組を集約判別器導出部11bに渡す処理を併せて行う。
そして、アダブースト処理部11aは、サンプル重み更新部11dから更新後のサンプル重みを受け取った場合には、受け取ったサンプル重みでサンプル重みD(図10参照)を更新する。つづいて、アダブースト処理部11aは、2値化判別器の選択を最初からやり直す。すなわち、図10に示した学習回数sを1としたうえで、2値化判別器の選択処理等を繰り返す。
ここで、アダブースト処理部11aの学習に用いられる顔画像サンプル12aおよび非顔画像サンプル12bについて図3を用いて説明しておく。図3は、サンプル画像から特徴量を取得する処理を示す図である。
なお、同図の(A)には、顔画像から特徴量を取得する処理の流れを、同図の(B)には、背景画像のような非顔画像から特徴量を取得する処理の流れを、それぞれ示している。また、同図に示した各顔画像および各非顔画像は、事前の拡大/縮小処理によってサイズ合わせがなされているものとする。
同図の(A)に示したように、顔画像を所定サイズのブロックに分割し(同図の(A−1)参照)、各ブロックについて、エッジ方向とその強度(太さ)、全体強度といった特徴量を抽出する(同図の(A−2)参照)。
たとえば、顔画像の左目に相当するブロック31については、上向きエッジ強度32a、右上向きエッジ強度32a、右向きエッジ強度32b、右下向きエッジ強度32c、ブロック31の全体強度32dといった特徴量が抽出される。なお、32a〜32eに示した矢印の太さは強度をあらわしている。また、同図に示した32a〜32eは、特徴量の一例であり、特徴量の種類は問わない。
このように、各ブロックについて特徴量を抽出する処理を顔画像全体について繰り返すことで、1枚の顔画像についての特徴量が揃うことになる。そして、同様の処理を他の複数枚の顔画像に対しても行うことで、顔画像サンプル12aが得られる。
また、同図の(B)に示したように、非顔画像についても顔画像と同様のブロック分割を行い(同図の(B−1)参照)、各ブロックについて、顔画像と同様の手順で特徴量を抽出する(同図の(B−2)参照)。たとえば、顔画像のブロック31に対応する位置のブロック33についても、上向きエッジ強度34a、右上向きエッジ強度34a、右向きエッジ強度34b、右下向きエッジ強度34c、ブロック33の全体強度34dといった特徴量が抽出される。
このように、各ブロックについて特徴量を抽出する処理を非顔画像全体について繰り返すことで、1枚の非顔画像についての特徴量が揃うことになる。そして、同様の処理を他の複数枚の非顔画像に対しても行うことで、非顔画像サンプル12bが得られる。
集約判別器導出部11bは、上記したLDAArray法における集約判別器12dを導出する処理を行う処理部である。具体的には、この集約判別器導出部11bは、アダブースト処理部11aによって所定個数の2値化判別器が選択されると、選択された2値化判別器と決定された重み係数との組を受け取り、これらの2値化判別器をLDAによって結合することで、集約判別器を導出する処理を行う処理部である。
また、集約判別器導出部11bは、集約判別器の候補となる集約判別器候補12cを2値化判別器の個数に応じてそれぞれ導出し、導出した集約判別器候補12cの中から1つの集約判別器12dを決定する処理を併せて行う。
ここで、LDAArray法について各数式を用いて説明しておく。集約判別器の導出回数をあらわす集約カウンタをt(1≦t≦T)、特徴量をx、特徴量xに対応する集約判別器をK(x)、所定のオフセット値をthとすると、最終判別器F(x)は、
Figure 0005290401
式(3−1)のようにあらわされる。ここで、関数sign()は、かっこ内の値が0以上であれば+1、0未満であれば−1とする2値化関数である。なお、オフセット値thは、図5を用いて後述するoffsetの算出手順と同様の手順で算出することができる。
また、未2値化判別器をfts(x)、LDAによって算出されるfts(x)の重みをβts、所定のオフセット値をoffsetとすると、集約判別器K(x)は、式(3−2)のようにあらわされる。
なお、オフセット値offsetの算出手順については、図5を用いて後述する。また、式(3−2)のオフセット値offsetは必須ではなく、オフセット値offsetを省略したうえで、式(3−1)のオフセット値thで最終的な調整を行うこととしてもよい。
ここで、未2値化判別器f(i)と、2値化判別器h(i)との関係は、
Figure 0005290401
式(4)であらわされる。すなわち、未2値化判別器f(i)を関数sign()で2値化したものが2値化判別器h(i)となる。
LDAarray法では、集約カウンタtごとに、複数の集約判別器候補の中から集約判別器Kt(x)を1つずつ選択するとともに、選択した集約判別器K(x)に対応する重み係数αを逐次決定していく処理を繰り返すことで、最終判別器F(x)を導出する。以下では、LDAarray法についてさらに詳細に説明する。
を各特徴量とし、yを{−1,+1}(上記したクラスAは+1、上記したクラスBは−1)とすると、学習サンプルは、{(x,y),(x,y),…,(x,y)}とあらわされる。ここで、Nは、判別対象とする特徴量の総数である。
また、L(i)を、i番目の学習サンプルについて、t回目の判別器集約を行った場合のサンプル重みとすると、Lt(i)の初期値は、式「L(i)=1/N」であらわされる。そして、特徴量xに対応する集約判別器をK(x)とすると、LDAarray法に用いられる各数式は、
Figure 0005290401
となる。
LDAarray法では、式(5−1)を用いて集約判別器Kごとの誤り率(たとえば、クラスAのサンプルをクラスBと誤判別した確率)εを算出する。そして、式(5−1)で算出された誤り率εおよび式(5−2)を用いて集約判別器Kの重み係数αを決定する。さらに、式(5−3)を用いて次回の集約における各学習サンプル重みLt+1を更新する。なお、式(5−3)の分母であるZは、Lt+1を「ΣLt+1(i)=1」とするための規格化因子であり、式(5−4)であらわされる。
ここで、式(5−3)は、集約判別器Kが、次回の集約では、誤り率が0.5である判別器となるように次回の学習サンプル重みLt+1を決定することを示している。
このようにして、次回の集約における学習サンプル重みLt+1が更新されると、LDAarray法では、学習サンプル重みLを、アダブースト処理における学習サンプル重みDへコピーする。そして、アダブースト処理では、LDAarray法によって更新された学習サンプル重みDを初期値として判別器選択処理を繰り返すことになる。
図2の説明に戻り、集約判別器導出部11bについての説明をつづける。集約判別器導出部11bは、最小LDA次元数(min_lda_dim)および最大LDA次元数(max_lda_dim)という2つの次元数を有している。ここで、「次元数」とは、たとえば、特徴量の数をあらわすものとする。また、上記した2つの次元数(最小LDA次元数および最大LDA次元数)としては、処理時間と精度との兼ね合いから導出した値(経験値)を用いることができる。
そして、アダブースト処理部11aによって選択された判別器の個数(s)が最小LDA次元数(min_lda_dim)以上となると、LDAによって集約判別器候補12cを導出する。そして、集約判別器候補12cの導出処理を、判別器の個数(s)が最大LDA次元数(max_lda_dim)と等しくなるまで繰り返す。
たとえば、最小LDA次元数(min_lda_dim)が2であり、最大LDA次元数(max_lda_dim)が5である場合には、2個の判別器を集約した集約判別器候補12c、3個の判別器を集約した集約判別器候補12c、4個の判別器を集約した集約判別器候補12c、5個の判別器を集約した集約判別器候補12cをそれぞれ導出し、導出した集約判別器候補12cの中から1つの集約判別器12dを選択する。
ここで、集約判別器導出部11bが行う集約判別器候補算出処理の概要について図4を用いて説明しておく。図4は、集約判別器候補を算出する処理を示す図である。なお、同図では、最小LDA次元数(min_lda_dim)が4であり、最大LDA次元数(max_lda_dim)が20である場合について示している。
集約判別器導出部11bは、アダブースト処理部11aによって選択された判別器の個数(s)が4、すなわち、最小LDA次元数(min_lda_dim)と等しくなると、クラスA(顔画像サンプル12a)およびクラスB(非顔画像サンプル12b)を用いてLDAによる判別分析を行う。このようにして、sが4である場合の集約判別器の候補kt4(x)を算出する。そして、同様の処理をsが20、すなわち、最大LDA次元数(max_lda_dim)と等しくなるまで繰り返す。
ここで、図4に示した各オフセット値(offsettn)の算出手順について図5を用いて説明しておく。図5は、集約判別器候補12cのオフセットを算出する処理を示す図である。なお、同図に示す51a、52aおよび53aは、クラスA(顔画像サンプル12a)の確率密度分布をあらわすグラフを、同図に示す51b、52bおよび53bは、クラスB(非顔画像サンプル12b)の確率密度分布をあらわすグラフを、それぞれ示している。また、同図に示した横軸は各集約判別器候補(k)の値を、同図に示した縦軸は確率密度を、それぞれあらわしている。
図5に示したように、offsett4は、クラスAのグラフ51aとクラスBのグラフ51bとが、交差する点に対応する横軸値として算出される。すなわち、offsett4は、顔画像を非顔画像と誤認識した確率と非顔画像を顔画像と誤認識した確率とが等しいように調整される。また、誤り率εt4は、同図に示した斜線部の面積として算出される。
なお、図5に示したように、LDA次元数(s)の変化にともなって、offsettnの値も変化する。このため、集約判別器導出部11bは、LDA次元数(s)ごとにoffsettnをそれぞれ算出する。
集約判別器導出部11bは、図4および図5に示した処理を行うことで、各集約判別器の候補ktn(x)を、それぞれ算出する。つづいて、集約判別器導出部11bは、算出した集約判別器候補12cの中から1つの集約判別器12dを選択する処理を行う。ここで、かかる選択処理の一例について図6を用いて説明しておく。
図6は、集約判別器選択の一例を示す図である。なお、同図には、最小LDA次元数(min_lda_dim)から最大LDA次元数(max_lda_dim)までの間で1回だけLDA関数を実行させると仮定した場合におけるスキャン総面積(クラスBなどのサンプル画像に対するスキャン総面積)の変化をあらわすグラフ61を示している。また、同図では、グラフ61が、LDA次元数(s)が6のときに最小値62をとる場合について例示している。
たとえば、LDA関数を実行させるLDA次元数(s)をnとすると、スキャン総面積は、n×画像面積+(max_lda_dim−n)×(n回の全面スキャンで排除できなかったエリアの面積)となる。このようにして算出されたスキャン総面積とnとの関係は、たとえば、グラフ61のようになる。
ここで、同図では、LDA次元数(s)が6の場合に最小値62をとる場合について示したが、集約カウンタをtが変化すると、スキャン総面積が最小となる次元数も変化する。このため、集約判別器導出部11bは、集約カウンタtに対応する集約判別器候補12cを用いて図6に示した判定処理を行い、スキャン総面積が最小となるLDA次元数(s)の候補ktnを、集約判別器Kとして選択する。
なお、図6では、スキャン総面積が最小となるLDA次元数(s)を有する候補ktnを、集約判別器Kとして選択する場合について示したが、LDA次元数(s)を固定することとしてもよい。このようにすることで、LDA処理の処理負荷が集約カウンタtによって変化しないので、並列処理が可能となる。したがって、処理時間の短縮を図ることができる。
図2の説明に戻り、集約重み係数決定部11cについて説明する。集約重み係数決定部11cは、集約判別器導出部11bが集約判別器Kを導出した場合に、集約判別器Kに対する重み係数(集約重み係数α)を決定し、集約重み係数12eとして記憶部12へ記憶させる処理を行う処理部である。なお、集約重み係数αは、上記した式(5−2)を用いて算出される。
サンプル重み更新部11dは、集約判別器導出部11bによって導出された集約判別器Kおよび集約重み係数決定部11cによって決定された集約重み係数αに基づいて次回の集約における各学習サンプル重みLt+1を更新する処理(式(5−3)参照)を行う処理部である。また、サンプル重み更新部11dは、学習サンプル重みLを、アダブースト処理部11aが用いる学習サンプル重みDへコピーする処理を行う処理部でもある。
このようにして、集約カウンタtをカウントアップしながら、集約カウンタtに対応する集約判別器12dおよび集約重み係数12eが記憶部12へ記憶されていく。そして、最終判別器決定部11eは、集約判別器12d(K)および集約重み係数12e(α)を用いた最終判別器Fの正答率が所定値以上となったことを条件として集約カウンタtを用いたループを終了する。なお、最終判別器決定部11eは、集約対象とする2値化判別器(h)がない場合にもかかるループを終了する。
ここで、制御部11によって行われる集約判別器導出処理についてまとめておく。図7は、集約判別器Kを導出する処理を示す図である。同図に示したように、制御部11は、LDA候補(集約判別器候補)抽出を行い(同図の(A)参照)、学習1回目の集約判別器Kを決定する(同図の(B)参照)。
そして、Kを決定したならば、つづいて、Kの決定処理を開始し(同図の(C)参照)、Kを決定する(同図の(D)参照)。さらに、Kの決定処理を開始し(同図の(E)参照)、K、Kを順次決定していく。なお、同図では、KのLDA次元数が4で、KのLDA次元数が5である場合について示しているが、このように、後続のKになるほどLDA次元数が増加するとは限らない。
図2の説明に戻り、記憶部12について説明する。記憶部12は、不揮発性メモリやハードディスクドライブといった記憶デバイスで構成される記憶部であり、顔画像サンプル12aと、非顔画像サンプル12bと、集約判別器候補12cと、集約判別器12dと、集約重み係数12eとを記憶する。なお、記憶部12に記憶される各情報については、制御部11の説明において既に説明したので、ここでの説明は省略する。
次に、顔画像識別装置10が実行する処理手順について図8を用いて説明する。図8は、顔画像識別装置10が実行する処理手順を示すフローチャートである。同図に示すように、最小LDA次元(min_lda_dim)および最大LDA次元(max_lda_dim)を設定し(ステップS101)、集約カウンタ(t)を1とするとともに(ステップS102)、アダブーストカウンタ(s)を1とする(ステップS103)。なお、集約カウンタ(t)およびアダブーストカウンタ(s)を用いて図7における判別器fをあらわすと、ft−sとなる。
そして、アダブースト処理部11aは、最良判別器(h)を選択し(ステップS104)、ステップS104で選択された最良判別器(h)の重み係数(α)を算出するとともに(ステップS105)、各サンプルに対するサンプル重み(D)を更新する(ステップS106)。
つづいて、集約判別器導出部11bは、アダブーストカウンタ(s)が最小LDA次元数(min_lda_dim)以上であるか否かを判定し(ステップS107)、アダブーストカウンタ(s)が最小LDA次元数(min_lda_dim)未満である場合には(ステップS107,No)、アダブーストカウンタ(s)をカウントアップし(ステップS110)、ステップS104以降の処理を繰り返す。
一方、アダブーストカウンタ(s)が最小LDA次元数(min_lda_dim)以上である場合には(ステップS107,Yes)、未2値化判別器(f〜f)についてLDAを行い、集約判別器候補(k)を算出する(ステップS108)。
つづいて、アダブーストカウンタ(s)が最大LDA次元数(max_lda_dim)と等しいか否かを判定し(ステップS109)、アダブーストカウンタ(s)が最大LDA次元数(max_lda_dim)と等しくない場合には(ステップS109,No)、アダブーストカウンタ(s)をカウントアップし(ステップS110)、ステップS104以降の処理を繰り返す。
一方、アダブーストカウンタ(s)が最大LDA次元数(max_lda_dim)と等しい場合には(ステップS109,Yes)、集約判別器(K)を決定する処理を行う(ステップS111)。なお、ステップS111の詳細な処理手順については、図9を用いて後述することとする。
つづいて、集約重み係数決定部11cは、集約判別器(K)の重み係数(α)を決定し(ステップS112)、サンプル重み更新部11dは、サンプル重み(L)を更新する(ステップS113)。そして、最終判別器決定部11eは、最終判別器(F)による判別結果に基づいてクラスAとクラスBとの分離が十分であるか、または、未集約判別器がないか、のいずれかの条件を満たすか否かを判定する(ステップS114)。
そして、ステップS114の判定条件を満たした場合には(ステップS114,Yes)、最終判別器(F)を決定して処理を終了する。一方、ステップS114の判定条件を満たさなかった場合には(ステップS114,No)、集約判別器導出部11bが用いるサンプル重み(L)をアダブースト処理部11aが用いるサンプル重み(D)へコピーする(ステップS115)。そして、集約カウンタ(t)をカウントアップし(ステップS116)、ステップS103以降の処理を繰り返す。
次に、図8のステップS111に示した集約判別器決定処理の詳細な処理手順について図9を用いて説明する。図9は、集約判別器決定処理の処理手順を示すフローチャートである。同図に示すように、集約判別器導出部11bは、LDA次元数(s)の初期値を最小LDA次元数(min_lda_dim)とし(ステップS201)、全面スキャン総面積(s×全面積)を算出する(ステップS202)。
つづいて、s回の全面スキャンで排除できなかったエリアの面積を残存面積としたうえで(ステップS203)、部分スキャン総面積((max_lda_dim−s)×残存面積)を算出する(ステップS204)。そして、総スキャン面積(全面スキャン総面積+部分スキャン総面積)を算出する(ステップS205)。
つづいて、sが最大LDA次元数(max_lda_dim)と等しいか否かを判定し(ステップS206)、sが最大LDA次元数(max_lda_dim)と等しくない場合には(ステップS206,No)、sをカウントアップしたうえで(ステップS207)、ステップS202以降の処理を繰り返す。一方、sが最大LDA次元数(max_lda_dim)と等しい場合には(ステップS206,Yes)、総スキャン面積が最も小さいLDA次元数(s)に対応する集約判別器候補(k)を集約判別器(K)とし(ステップS208)、処理を終了する。
上述してきたように、本実施例では、アダブースト処理部が、被写体画像サンプルと非被写体画像サンプルとの分離に用いる所定の特徴量にそれぞれ対応する2値化判別器の中から最も誤り率が低い最良判別器を選択するとともに、選択された最良判別器に対応する重み係数を決定し、次の学習ではこの最良判別器を誤り率が0.5である判別器とするように、決定済の重み係数に基づくサンプル重みの更新を繰り返し、集約判別器導出部が、所定個数の最良判別器が選択されたならば、既に選択された最良判別器からなる判別器群について最良判別器のそれぞれに保持される未2値化データを用いて線形判別分析を行うことによって判別器群に対応する集約判別器を導出し、集約重み係数決定部が、導出された集約判別器が次の学習では誤り率が0.5である判別器となるようにこの集約判別器に対応する集約重み係数を決定し、サンプル重み更新部が、決定された集約重み係数に基づいてアダブースト処理部が用いるサンプル重みを更新し、導出された集約判別器および集約重み係数に基づいて最終判別器決定部が決定した最終判別器を用いて被写体画像と非被写体画像とを分離するように顔画像識別装置を構成した。
したがって、アダブースト手法における判断分岐による演算量増大という問題を回避するとともに、リアルブースト手法のように大きなメモリを必要とすることなく識別精度を向上させることができる。すわなち、被写体の検出精度を向上しつつ、検出処理に要する時間を短縮することが可能となる。
以上のように、本発明に係る被写体識別方法、被写体識別プログラムおよび被写体識別装置は、所定の画像から特定の被写体を検出する処理を高速かつ高精度に行いたい場合に有用であり、特に、背景画像から顔画像を検出する処理に適している。

Claims (7)

  1. ブースティング手法を用いて所定の被写体画像と非被写体画像とを分離する学習を行うことで所定の被写体を識別する被写体識別方法であって、
    被写体画像サンプルと非被写体画像サンプルとの分離に用いる所定の特徴量にそれぞれ対応する2値化判別器の中から最も誤り率が低い最良判別器を選択するとともに、当該最良判別器に対応する重み係数を決定し、次の学習では当該最良判別器を誤り率が0.5である判別器とするように当該重み係数に基づくサンプル重みの更新を繰り返す繰返工程と、
    前記繰返工程によって所定個数の前記最良判別器が選択されたならば、前記繰返工程によって既に選択された前記最良判別器からなる判別器群について該最良判別器のそれぞれに保持される未2値化データを用いて線形判別分析を行うことによって当該判別器群に対応する集約判別器を導出する集約判別器導出工程と、
    前記集約判別器導出工程によって導出された前記集約判別器が次の学習では前記誤り率が0.5である判別器となるように当該集約判別器に対応する集約重み係数を決定する集約重み係数決定工程と、
    前記集約重み係数決定工程によって決定された前記集約重み係数に基づいて前記繰返工程によって用いられる前記サンプル重みを更新するサンプル重み更新工程と、
    前記集約判別器導出工程によって導出された前記集約判別器および前記集約重み係数決定工程によって決定された前記集約重み係数に基づいて前記被写体画像と前記非被写体画像とを分離する最終判別器を決定する最終判別器決定工程と
    を含んだことを特徴とする被写体識別方法。
  2. 前記集約判別器導出工程は、
    所定の最小個数以上であって所定の最大個数以下となる前記所定個数ごとに前記集約判別器の候補をそれぞれ導出し、導出した前記候補の中から1つの前記集約判別器を選択することを特徴とする請求項1に記載の被写体識別方法。
  3. 前記集約判別器導出工程は、
    前記最小個数から前記最大個数までの範囲において前記所定個数までの範囲では前記非被写体画像に対する全面スキャンを行ったうえで前記所定個数より大きい範囲では前記全面スキャンで排除できなかったエリアに対する部分スキャンを行うと仮定した場合に、前記全面スキャンおよび前記部分スキャンによるスキャン面積の総和が最小となる前記候補を前記集約判別器として選択することを特徴とする請求項2に記載の被写体識別方法。
  4. 前記集約判別器導出工程は、
    既に導出した前記集約判別器に含まれる前記2値化判別器の組合せとは異なるように、あらたに導出する前記集約判別器に含まれる前記2値化判別器の組合せを決定することを特徴とする請求項1、2または3に記載の被写体識別方法。
  5. 前記集約判別器導出工程は、
    既に導出した前記集約判別器に含まれる前記2値化判別器を含まないように、あらたに導出する前記集約判別器に含まれる前記2値化判別器を決定することを特徴とする請求項1、2または3に記載の被写体識別方法。
  6. ブースティング手法を用いて所定の被写体画像と非被写体画像とを分離する学習を行うことで所定の被写体を識別する被写体識別プログラムであって、
    被写体画像サンプルと非被写体画像サンプルとの分離に用いる所定の特徴量にそれぞれ対応する2値化判別器の中から最も誤り率が低い最良判別器を選択するとともに、当該最良判別器に対応する重み係数を決定し、次の学習では当該最良判別器を誤り率が0.5である判別器とするように当該重み係数に基づくサンプル重みの更新を繰り返す繰返手順と、
    前記繰返手順によって所定個数の前記最良判別器が選択されたならば、前記繰返手順によって既に選択された前記最良判別器からなる判別器群について該最良判別器のそれぞれに保持される未2値化データを用いて線形判別分析を行うことによって当該判別器群に対応する集約判別器を導出する集約判別器導出手順と、
    前記集約判別器導出手順によって導出された前記集約判別器が次の学習では前記誤り率が0.5である判別器となるように当該集約判別器に対応する集約重み係数を決定する集約重み係数決定手順と、
    前記集約重み係数決定手順によって決定された前記集約重み係数に基づいて前記繰返手順によって用いられる前記サンプル重みを更新するサンプル重み更新手順と、
    前記集約判別器導出手順によって導出された前記集約判別器および前記集約重み係数決定手順によって決定された前記集約重み係数に基づいて前記被写体画像と前記非被写体画像とを分離する最終判別器を決定する最終判別器決定手順と
    をコンピュータに実行させることを特徴とする被写体識別プログラム。
  7. ブースティング手法を用いて所定の被写体画像サンプルと非被写体画像サンプルとを分離する学習を行うことで所定の被写体を識別する被写体識別装置であって、
    被写体画像サンプルと非被写体画像サンプルとの分離に用いる所定の特徴量にそれぞれ対応する2値化判別器の中から最も誤り率が低い最良判別器を選択するとともに、当該最良判別器に対応する重み係数を決定し、次の学習では当該最良判別器を誤り率が0.5である判別器とするように当該重み係数に基づくサンプル重みの更新を繰り返す繰返手段と、
    前記繰返手段によって所定個数の前記最良判別器が選択されたならば、前記繰返手段によって既に選択された前記最良判別器からなる判別器群について該最良判別器のそれぞれに保持される未2値化データを用いて線形判別分析を行うことによって当該判別器群に対応する集約判別器を導出する集約判別器導出手段と、
    前記集約判別器導出手段によって導出された前記集約判別器が次の学習では前記誤り率が0.5である判別器となるように当該集約判別器に対応する集約重み係数を決定する集約重み係数決定手段と、
    前記集約重み係数決定手段によって決定された前記集約重み係数に基づいて前記繰返手段によって用いられる前記サンプル重みを更新するサンプル重み更新手段と、
    前記集約判別器導出手段によって導出された前記集約判別器および前記集約重み係数決定手段によって決定された前記集約重み係数に基づいて前記被写体画像と前記非被写体画像とを分離する最終判別器を決定する最終判別器決定手段と
    を備えたことを特徴とする被写体識別装置。
JP2011505767A 2009-03-27 2009-03-27 被写体識別方法、被写体識別プログラムおよび被写体識別装置 Active JP5290401B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/056229 WO2010109644A1 (ja) 2009-03-27 2009-03-27 被写体識別方法、被写体識別プログラムおよび被写体識別装置

Publications (2)

Publication Number Publication Date
JPWO2010109644A1 JPWO2010109644A1 (ja) 2012-09-27
JP5290401B2 true JP5290401B2 (ja) 2013-09-18

Family

ID=42780353

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011505767A Active JP5290401B2 (ja) 2009-03-27 2009-03-27 被写体識別方法、被写体識別プログラムおよび被写体識別装置

Country Status (2)

Country Link
JP (1) JP5290401B2 (ja)
WO (1) WO2010109644A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5706131B2 (ja) * 2010-11-05 2015-04-22 グローリー株式会社 被写体検出方法および被写体検出装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003044853A (ja) * 2001-05-22 2003-02-14 Matsushita Electric Ind Co Ltd 顔検出装置、顔向き検出装置、部分画像抽出装置及びそれらの方法
JP2008217589A (ja) * 2007-03-06 2008-09-18 Toshiba Corp 学習装置及びパターン認識装置
WO2008151577A1 (en) * 2007-06-14 2008-12-18 Tsinghua University Tracking method and device adopting a series of observation models with different lifespans

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003044853A (ja) * 2001-05-22 2003-02-14 Matsushita Electric Ind Co Ltd 顔検出装置、顔向き検出装置、部分画像抽出装置及びそれらの方法
JP2008217589A (ja) * 2007-03-06 2008-09-18 Toshiba Corp 学習装置及びパターン認識装置
WO2008151577A1 (en) * 2007-06-14 2008-12-18 Tsinghua University Tracking method and device adopting a series of observation models with different lifespans

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CSNG200400220006; 村田昇: 'Boostingの幾何学的考察' 電子情報通信学会技術研究報告 Vol.102 No.381 第102巻 第381号, 20021010, 頁37〜42, 社団法人電子情報通信学会 *
CSNG200800621002; 菅野裕揮 外2名: '多段粒子フィルタを用いた物体認識の並列実装' 電子情報通信学会技術研究報告 Vol.108 No.85 第108巻 第85号, 20080605, 頁11〜16, 社団法人電子情報通信学会 *
JPN6013024874; 菅野裕揮 外2名: '多段粒子フィルタを用いた物体認識の並列実装' 電子情報通信学会技術研究報告 Vol.108 No.85 第108巻 第85号, 20080605, 頁11〜16, 社団法人電子情報通信学会 *
JPN6013024875; 村田昇: 'Boostingの幾何学的考察' 電子情報通信学会技術研究報告 Vol.102 No.381 第102巻 第381号, 20021010, 頁37〜42, 社団法人電子情報通信学会 *

Also Published As

Publication number Publication date
WO2010109644A1 (ja) 2010-09-30
JPWO2010109644A1 (ja) 2012-09-27

Similar Documents

Publication Publication Date Title
Li et al. Background data resampling for outlier-aware classification
US10002290B2 (en) Learning device and learning method for object detection
US20110085728A1 (en) Detecting near duplicate images
JP5335536B2 (ja) 情報処理装置及び情報処理方法
US20100290700A1 (en) Information processing device and method, learning device and method, programs, and information processing system
JP6897749B2 (ja) 学習方法、学習システム、および学習プログラム
CN101937513A (zh) 信息处理设备、信息处理方法和程序
JP2007193740A (ja) 顔検出方法および装置並びにプログラム
TWI567660B (zh) 多類別物件分類方法及系統
WO2022001137A1 (zh) 一种行人重识别方法、装置、设备及介质
CN107169503B (zh) 一种室内场景的分类方法及装置
WO2010043954A1 (en) Method, apparatus and computer program product for providing pattern detection with unknown noise levels
WO2019188054A1 (en) Method, system and computer readable medium for crowd level estimation
WO2018107492A1 (zh) 基于直觉模糊随机森林的目标跟踪方法及装置
JP5214679B2 (ja) 学習装置、方法及びプログラム
JP5706131B2 (ja) 被写体検出方法および被写体検出装置
WO2010109645A1 (ja) 被写体識別方法、被写体識別プログラムおよび被写体識別装置
US11494906B2 (en) Object detection device, object detection method, and program
JP2016071800A (ja) 情報処理装置、情報処理方法及びプログラム
JP5290401B2 (ja) 被写体識別方法、被写体識別プログラムおよび被写体識別装置
KR20140112635A (ko) 특징점 기반 영상처리 장치 및 그 영상 처리 방법
Koch et al. Exploring the open world using incremental extreme value machines
JP5769488B2 (ja) 認識装置、認識方法及びプログラム
Merjildo et al. Enhancing the performance of adaboost algorithms by introducing a frequency counting factor for weight distribution updating
WO2024012179A1 (zh) 模型训练方法、目标检测方法及装置

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130605

R150 Certificate of patent or registration of utility model

Ref document number: 5290401

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150