JP2011198181A - 判別器生成装置および方法並びにプログラム - Google Patents

判別器生成装置および方法並びにプログラム Download PDF

Info

Publication number
JP2011198181A
JP2011198181A JP2010065537A JP2010065537A JP2011198181A JP 2011198181 A JP2011198181 A JP 2011198181A JP 2010065537 A JP2010065537 A JP 2010065537A JP 2010065537 A JP2010065537 A JP 2010065537A JP 2011198181 A JP2011198181 A JP 2011198181A
Authority
JP
Japan
Prior art keywords
learning
discriminator
class
branch
learning data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010065537A
Other languages
English (en)
Other versions
JP5394959B2 (ja
Inventor
Yi Hu
軼 胡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2010065537A priority Critical patent/JP5394959B2/ja
Priority to US13/024,959 priority patent/US20110235901A1/en
Publication of JP2011198181A publication Critical patent/JP2011198181A/ja
Application granted granted Critical
Publication of JP5394959B2 publication Critical patent/JP5394959B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7747Organisation of the process, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Geometry (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】マルチクラス、マルチビューの判別を行う判別器を生成するに際し、判別器における木構造の問題点を解決して、判別精度および判別速度を両立させる高性能の判別器を生成する。
【解決手段】検出対象画像から抽出した特徴量を用いて、検出対象画像に含まれるオブジェクトを判別する、複数の弱判別器が組み合わされてなる判別器であって、オブジェクトについて判別するクラスが複数あるマルチクラスの判別を行う判別器を生成する。その際に、複数のクラス間の弱判別器の分岐位置および分岐構造を、各クラスにおける弱判別器の学習結果に応じて決定する。
【選択図】図1

Description

本発明は、マルチクラス、マルチビューのオブジェクト判別を行うための木構造を有する判別器を生成する判別器生成装置および方法並びに判別器生成方法をコンピュータに実行させるためのプログラムに関するものである。
従来、デジタルカメラによって撮影されたスナップ写真における人物の顔領域の色分布を調べてその肌色を補正したり、監視システムのデジタルビデオカメラで撮影されたデジタル映像中の人物を認識したりすることが行われている。このような場合、デジタル画像あるいはデジタル映像から人物を検出する必要があるため、人物を検出するための様々な手法がこれまでに提案されている。その中で、とくにマシンラーニングの手法を用いて構築したアピアレンスモデルによる検出手法が知られている。アピアレンスモデルによる検出手法は、膨大な数のサンプル画像を用いて、マシンラーニングの学習により複数の弱い判別器を結合したものであることから、検出精度およびロバスト性が優れている。
デジタル画像中の画像を検出する手法として、このアピアレンスモデルによる検出手法を説明する。この手法は、複数の異なる顔のサンプル画像からなる顔サンプル画像群と、顔でないことが分かっている複数の異なる非顔サンプル画像とからなる非顔サンプル画像群とを学習データとして用いて、顔であることの特徴を学習させ、ある画像が顔の画像であるか否かを判別できる判別器を生成して用意しておき、顔の検出対象となる画像(以下、検出対象画像という)において部分画像を順次切り出し、その部分画像が顔であるか否かを上記の判別器を用いて判別し、顔であると判別した部分画像の領域を抽出することにより、検出対象画像上の顔を検出する手法である。
ところで、上述した判別器には、顔が正面を向いた画像のみならず、顔が画像平面上において回転している(以下「面内回転」という)画像や、顔が画像平面内において回転している(以下、「面外回転」という)画像が入力される。様々な向きの顔の(顔のマルチビュー)からなる学習データを用いて学習を行う場合、顔の向きのばらつきが大きいため、すべての向きの顔を検出できる汎用的な判別器を実現することは困難である。例えば、1つの判別器が判別可能な顔の回転範囲は限られており、面内回転している画像では30度程度、面外回転している画像では30度〜60度程度回転した顔のみしか判別することがでない。このため、顔という検出対象の統計的な特徴を効率的に抽出するため、および顔の向きの情報を取得するために、顔の判別器は、複数の顔の向き毎に各顔の向きの顔を判別する複数の強判別器から構成される。具体的には、それぞれの向きの画像を判別可能にマルチクラスの学習を行った複数の強判別器を用意し、すべての強判別器に、特定の向きの顔であるか否かの判別を行わせ、最終的な各強判別器の出力から顔であるか否かを判定するマルチクラス判別手法が提案されている。
マルチクラスの判別手法として、例えば特許文献1〜3に記載された手法が提案されている。以下、これらの手法について説明する。なお、ここでは説明を分かりやすくするために判別対象を顔として説明する。また、判別する顔のクラスは、左を向いた顔のクラスC1、正面を向いた顔のクラスC2、右を向いた顔のクラスC3とする。
まず、特許文献1に記載された手法について説明する。この手法においては、クラス毎の強判別器がそれぞれ独立して構築される。すなわち、図22に示すように、クラスC1〜C3について、それぞれhi C1,hi C2,hi C2の弱判別器からなる強判別器HC1,HC2,HC2をブースティングによる学習方法によって作成する。なお、各クラスの学習は2クラスの学習で行う。例えば、クラスC1の強判別器を構築する際、クラスC1にとっての正の教師データと負の教師データとを用いてブースティングにより学習を行う。この際、図23に示すように、クラスC1〜C3の強判別器における先頭のm個の弱判別器が木構造のルート部分となる。与えられたパターンの判別時においては、このルート部分のそれぞれのクラスC1〜C3の弱判別器により、中間の判別結果を表すスコアHm C1,Hm C2,Hm C2が算出される。そしてこの中間の判別結果を利用して分岐条件が決定される。図23においては、一番高いスコアが算出されたクラスのインデックスを分岐条件として分岐先が決定される。なお、作成された各クラスC1〜C3の強判別器において、先頭のm個の弱判別器を除いた弱判別器の集合が木構造の枝となる。
次いで、特許文献2に記載された手法について説明する。特許文献2に記載された手法においては、木構造のルート部分は、顔と非顔とを判別するための判別器から構成されている。特許文献2に記載された手法の特徴は、図24に示すように、木構造のルート部分においては、クラスC1〜C3は区別されず、顔と非顔とを判別するための学習が行われる点にある。木構造のルートに続いて、図24に示すように、クラスC1〜C3のそれぞれに反応するフィルタが作成され、フィルタの反応結果を利用して、分岐先が決定される。なお、分岐後の判別器の学習は、分岐前の結果を利用することなく行われる。また、フィルタの構築はマシンラーニングの学習を使用する。また、分岐時期(すなわち、どこで分岐をするか)、分岐条件および分岐後の枝の数は、判別器を設計する際に決定されている。なお、分岐後において、複数クラスが共存するような枝を構築することも可能である。また、分岐を繰り返すことにより、複数の分岐を有するように判別器を構築することも可能である。
次いで、特許文献3に記載された手法について説明する。特許文献3に記載された手法においては、マルチクラス、マルチビューの判別器が、例えばAda Boost.MH、LogitBoost、あるいはJoint Boostの学習を用いて構築される。図25にJoint Boostを用いて構築した判別器の構造を示す。この構造は特許文献1,2に記載されたものとは異なり、判別構造において明確な分岐がないものとなっている。なお、Joint Boostの手法は、各クラス間において弱判別器を共有させることにより、全体の弱判別器数を少なくして、判別器の判別性能を高めた手法である(非特許文献1参照)。
特開2009−116401号公報 特開2009−151395号公報 特開2006−251955号公報 「Antonio Torralba, Kevin P. Murphy and William T. Freeman, Sharing Visual Features for Multiclass and Mutliview Object Detection, Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), pp762-769, 2004」
しかしながら、上記特許文献1〜3の手法には下記のような問題がある。すなわち、特許文献1に記載された手法は、各クラスの学習が単独で行われるため実装しやすいものの、木構造のルート部分における各クラスのm個の弱判別器の数を、検出速度の高速化を図るために少なくせざるを得ない。しかしながら、このように木構造のルート部分における弱判別器の数が少ないと検出精度が低下する。逆に木構造のルート部分における弱判別器の数を多くすると、検出速度が低下する。また、各クラスの間に明確な境界が存在しないケースが多く、各クラスの強判別器を独立して学習する際に、境界に存在する学習データの扱いによっては、境界に近いパターンを柔軟に分岐させて判別することができない。また、各クラスの強判別器は独立して学習されるため、パターン判別時における特徴量算出のための演算量が多くなる。さらに、多くの分岐を持つ木構造の判別器を構築することは困難である。
また、特許文献2に記載された手法は、多数の分岐を持つ木構造の判別器の構築が可能であるが、分岐時期および分岐構造を適切に設計することは困難である。また、判別器の判別性能が設計者の知識および経験に依存するため、設計が適切でないと判別精度および判別速度が低くなる。また、試行錯誤にて判別器を構築することとなるため、学習に長時間を要するものとなる。また、分岐先を決定するためのフィルタは、クラス毎に単独で構築されるケースが多く、この場合、クラス間の相関性を利用していないことから、フィルタの構築のための演算量も多くなる。さらに、分岐前後の学習はクラスの性質が大きく変化するため、分岐前の学習結果を継承できないことから(すなわち、分岐前後において、学習データの重みづけがシームレスに繋がっていないことから)判別器全体の判別性能が低下することとなる。
また、特許文献3に記載された手法は、クラスが共同して学習を行うため、クラス間の相関性を最大限に利用することができる。しかしながら、明確な分岐がないため、最終的な判別結果を得るためには、各クラスのすべての弱判別器において判別を行う必要があり、その結果、判別のための演算に長時間を要するものとなる。ここで、画像や映像における顔および人物検出のためのアプリケーションにおいては、検出速度およびリアルタイムでの検出の実行が要求されているため、判別器は分岐を多数有する木構造であることが好ましい。しかしながら、Joint Boostの手法におけるクラス間の特徴量の共有は、弱判別器自体の共有であることから、クラス間の識別能力が低く、木構造の分岐要求を満足させることができない。
本発明は上記事情に鑑みなされたものであり、マルチクラス、マルチビューの判別を行う判別器を生成するに際し、判別器における木構造の問題点を解決して、判別精度および判別速度を両立させる高性能の判別器を生成することを目的とする。
本発明による判別器生成装置は、検出対象画像から抽出した特徴量を用いて、該検出対象画像に含まれるオブジェクトを判別する、複数の弱判別器が組み合わされてなる判別器であって、前記オブジェクトについて判別するクラスが複数あるマルチクラスの判別を行う判別器を生成する判別器生成装置において、
前記複数のクラス間の弱判別器の分岐位置および分岐構造を、前記各クラスにおける前記弱判別器の学習結果に応じて決定する学習手段を備えたことを特徴とするものである。
「弱判別器」は、オブジェクトの判別を行うために、画像から取得した特徴量についてオブジェクトであるか否かを判別するものである。
「分岐構造」とは分岐条件および分岐先の枝数を含む。分岐条件とは、分岐後にクラス間においてどのように学習データを分岐させて特徴量を共有させるかを定める条件である。具体的には、図26に示すように、クラス数が5の場合において、分岐位置までは第1から第5のすべてのクラスにおいて特徴量を共有した学習を行うが、分岐後は、第1および第2のクラスと、第3から第5のクラスとの2つに分岐し、2つの分岐先のそれぞれにおいて、特徴量を共有した学習を行うというように分岐条件を設定することができる。
なお、本発明による判別器生成装置においては、前記学習手段を、前記複数のクラス間における前記弱判別器に、前記特徴量のみを共有させた学習を行う手段としてもよい。
ここで、上記Joint Boostの手法においては、学習の際に、特徴量のみならず、弱判別器、より詳細には弱判別器における判別の仕方を規定する判別機構をもクラス間において共有している。「特徴量のみを共有する学習」は、Joint Boostの手法とは異なり、特徴量のみを共有し、弱判別器における判別機構を共有しないものである。
また、本発明による判別器生成装置においては、前記弱判別器を前記複数のクラス毎に学習するための複数の正負の学習データを入力する学習データ入力手段と、
前記学習データから前記特徴量を抽出する複数のフィルタを記憶するフィルタ記憶手段とをさらに備えるものとし、
前記学習手段を、該フィルタ記憶手段から選択されたフィルタにより、前記学習データから前記特徴量を抽出し、該特徴量により前記学習を行う手段としてもよい。
「特徴量を抽出するフィルタ」としては、画像上における特徴量算出のために用いる画素の位置、その画素の位置における画素値を用いた特徴量の算出方法、およびクラス間での特徴量の共有関係を定義するものである。
また、本発明による判別器生成装置においては、前記学習手段を、前記学習に使用するすべての前記学習データに対して、学習対象のクラスの正の学習データとの類似度に応じて学習を安定させるためにラベリングを行って、前記学習を行う手段としてもよい。
また、本発明による判別器生成装置においては、前記学習手段を、前記複数のクラスにおける同一段の弱判別器のそれぞれについて、前記ラベルと入力された特徴量に対する該弱判別器の出力との重み付け二乗誤差の、前記学習データについての総和を定義し、該総和の前記複数のクラスについての総和またはクラスの重要度に応じた重み付け総和を分類損失誤差として定義し、該分類損失誤差が最小となるように前記弱判別器を決定するように、前記学習を行う手段としてもよい。
また、本発明による判別器生成装置においては、前記学習手段を、分岐を行うか否かを判定する対象段の前記各クラスの弱判別器について前記分類損失誤差を算出し、該分類損失誤差と該対象段の前段の弱判別器について算出された前段分類損失誤差との変化量が所定の閾値以下となったときに、前記対象段の弱判別器を分岐位置に決定する手段としてもよい。
ここで、分岐構造により各クラスのすべての正の学習データを分岐させた際に、本来であれば、あるクラスの正の学習データは、そのクラスが属する分岐先に分岐されるものである。しかしながら、分岐時期までのマルチクラスの判別器において、学習データのパターンが複雑であるためにすべての学習データを正しく分類するレベルに判別器が到っていない、学習データのばらつきが大きく有効な特徴が見つからない、またはフィルタと学習データとの特性が合っていない等、判別器の能力が十分でない、もしくは分岐構造における分岐条件が適切でない等の理由により、そのクラスの正の学習データがそのクラスが属さない分岐先に分岐されてしまう場合がある。この場合、そのクラスが属さない分岐先に分岐された学習データは、分岐後の学習には使用しない方が学習精度を高めるために好ましい。したがって、そのクラスが属さない分岐先に分岐された学習データは、分岐により失われる、すなわち分岐により損失することとなる。ここで、損失した学習データの割合は、そのクラスの正の学習データ数に対するそのクラスが属する分岐先に分岐された正の学習データの数の割合を、1から減算することにより算出することができる。「分岐損失誤差」とは、分岐構造により得られる、すべてのクラスについての損失した学習データの割合の重み付け積算値として算出することができる。なお、判別器の性能(すなわち判別速度および判別精度)を最大とするために、利用可能な分岐構造群を含む分岐構造プールから、分岐損失誤差が最小となる分岐構造を選択して、木構造を有する判別器の分岐部分を決定する。
また、本発明による判別器生成装置においては、あらかじめ定められた複数の分岐構造を記憶する記憶手段をさらに備えるものとし、
前記学習手段を、前記複数の分岐構造のうち、分岐による前記対象段の分岐損失誤差が最小となる分岐構造を選択する手段としてもよい。
また、本発明による判別器生成装置においては、前記学習手段を、分岐後の前記弱判別器の学習に、分岐前までの学習結果を継承する手段としてもよい。
本発明による判別器生成方法は、検出対象画像から抽出した特徴量を用いて、該検出対象画像に含まれるオブジェクトを判別する、複数の弱判別器が組み合わされてなる判別器であって、前記オブジェクトについて判別するクラスが複数あるマルチクラスの判別を行う判別器を生成する判別器生成方法において、
前記複数のクラス間の弱判別器の分岐位置および分岐構造を、前記各クラスにおける前記弱判別器の学習結果に応じて決定することを特徴とするものである。
本発明によるプログラムは、本発明による判別器生成装置の機能をコンピュータに実行させることを特徴とするものである。
本発明は、複数のクラス間の弱判別器の分岐位置および分岐構造を、各クラスにおける弱判別器の学習結果に応じて決定するようにしたものである。このため、マルチクラスの学習を行う際に、弱判別器の分岐位置および分岐構造が設計者に依存することがなくなり、その結果、生成された判別器を用いることにより、オブジェクトの判別を精度良くかつ高速に行うことができる。また分岐位置および分岐構造を設計者が決定する場合と比較して、学習が収束しなくなるようなことがなくなり、その結果、学習の収束性を向上させることができる。
また、分岐後の弱判別器の学習に、分岐前までの学習結果を継承させることにより、分岐前後において弱判別器がシームレスに繋がるため、本発明により生成された判別器において、判別構造の一貫性を保つことができる。したがって、判別器の判別精度および判別速度を両立させることができる。
本発明の実施形態による判別器生成装置の構成を示す概略ブロック図 m+1分のクラスの学習データを示す図 学習データの例を示す図 フィルタの例を示す図 本発明の実施形態による判別器生成装置において行われる処理の概念図 クラス数が9の場合の学習データのラベリング結果を示す図 本実施形態により構成される木構造を有するマルチクラスの判別器を模式的に示す図 図7Aに示す判別器の弱判別器を模式的に示す図 学習の処理を示すフローチャート 4つのクラスの弱判別器についての弱判別器の数tと分類損失誤差Jwseとの関係を示す図 分岐構造を示す図 3クラスの分岐構造の例を示す図 分岐損失誤差の算出を説明するための図 5クラスの学習に際して決定された分岐構造の例を示す図 分岐前の各クラスの正の学習データの数を示す図 各リーフノードに分岐された各クラスの正の学習データの数を示す図 分岐後に各リーフノードにおいて使用される学習データを示す図 学習の終了により生成された判別器を示す図 ヒストグラムの例を示す図 ヒストグラムの量子化を示す図 作成したヒストグラムの例を示す図 決定木に対する入力と出力との関係を示す図 特許文献1に記載されたマルチクラス判別手法を説明するための図(その1) 特許文献1に記載されたマルチクラス判別手法を説明するための図(その2) 特許文献2に記載されたマルチクラス判別手法を説明するための図 特許文献3に記載されたマルチクラス判別手法を説明するための図 分岐条件の設定を説明するための図
以下、図面を参照して本発明の実施形態について説明する。図1は本発明の実施形態による判別器生成装置の構成を示す概略ブロック図である。図1に示すように本発明による判別器生成装置1は、学習データ入力部10、特徴量プール20、初期化部30、学習部40および分岐構造候補プール50を備える。
学習データ入力部10は、判別器の学習に使用する学習データを判別器生成装置1に入力するためのものである。ここで、本実施形態による生成される判別器は、マルチクラスの判別を行う判別器である。例えば、判別対象のオブジェクトが顔である場合、画像平面上における向きが異なる顔および画像内における向きが異なる顔をそれぞれ判別するマルチクラスの判別を行う判別器である。したがって、本実施形態による判別器生成装置1は、例えば判別可能な顔の向きが異なるmクラスの判別器を生成するためのものである。このため、学習データ入力部10からは、クラス毎に異なる(すなわち顔の向きが異なる)学習データxi Cu(i=1〜NCu、u=1〜m、NCuはクラスCuに対応する学習データの数)が入力される。なお、本実施形態においては、学習データはサイズおよび含まれるオブジェクトにおける特徴点(例えば目および鼻等)の位置が正規化された画像データである。
また、本実施形態においては、mクラスの学習データに加えて、判別対象のオブジェクトのいずれのクラスにも属さない背景のオブジェクトの学習データxi bkg(データ数Nbkg)も入力される。したがって、本実施形態においては、図2に示すようにm+1クラス分の学習データが入力され、判別器の生成に使用される。
図3は学習データの例を示す図である。なお、図3は顔を判別するための判別器に使用する学習データを示すものである。図3に示すように学習データは、あらかじめ定められた画像サイズを有し、そのサイズの画像の設定位置(例えば中央)に配置された顔が30°ずつ回転した12種類の画像からなる面内回転(in-plane)画像(図3(a))、および設定位置(例えば中央)に配置された顔の向きが0°および±30°ずつ回転した3種類の画像からなる面外回転(out-plane)画像(図3(b))からなる。このように学習データを用意することにより、12×3=36クラスの判別器が生成されることとなる。なお、各クラスの判別器は複数の弱判別器が結合されてなるものである。
特徴量プール20は、弱判別器の学習に使用する、判別対象の画像データが所定のクラスに属するか否かを判別するために用いる特徴量を、学習データから抽出する複数のフィルタftをあらかじめ記憶する。このフィルタftは、学習データにおける特徴量抽出のための画素位置、およびその画素位置の画素値からの特徴量の算出方法およびクラス間での特徴量の共有関係を定義する。図4はフィルタの例を示す図である。図4に示すフィルタftは、判別対象の画像データにおけるあらかじめ定められたk点またはk個のブロック(α1〜αk)の画素値を取得し、取得した画素値についてα1〜αk間においてフィルタ関数ψを用いて演算を行うことを定義している。なお、画素値α1〜αkがフィルタftの入力、フィルタ関数ψによる演算結果がフィルタftの出力となる。また、特徴量の共有関係については、例えば3クラスC1〜C3の場合、共有関係は、(C1,C2,C3)、(C1,C2)、(C1,C3)、(C2,C3)、(C1)、(C2)、(C3)の7種類となる。学習を行う際の共有関係の探索時間、およびマルチクラスの判別器を効率よく作成するために、多くのクラスがフィルタftを共有できるようにフィルタftを定義することが好ましい。なお、すべてのクラス間において特徴量を共有するように共有関係を定義してもよい。また、学習データおよび特徴量プール20のフィルタftは、あらかじめユーザにより定義されて用意されてなるものである。
図5は本発明の実施形態による判別器生成装置1において行われる処理の概念図である。図5に示すように、本実施形態においては、判別対象であるオブジェクトについて、マルチクラスの学習データおよび特徴量プール20からのフィルタftを用いて、本実施形態の特徴である特徴量のみを共有する学習アルゴリズムにより学習を行って、木構造を有するマルチクラスの判別器を生成するものである。
初期化部30は、学習データのラベリング、学習データ数の正規化、学習データの重み設定および判別器の初期化の処理を行う。以下、初期化部30が行う各処理について説明する。なお、初期化部30は、学習データのラベリングを行うラベリング部30A、学習データ数の正規化を行う正規化部30B、学習データの重み設定を行う重み設定部30C、および判別器の初期化の処理を行う判別器初期化部30Dを有する。まず、学習データのラベリングについて説明する。学習データのラベリングは、学習データを用いて各クラスの弱判別器の学習を行う際に、学習データが学習対象のクラスに属するか否かを示すためのものであり、下記に示すように、1つの学習データxi Cに対して、全クラス分のラベルが設定される。なお、全クラス分のラベルを設定するのは、与えられた学習データxi C(クラスCに属する)について、学習データが、クラスCuの学習時に正の教師データとして扱われるか、負の教師データとして扱われるかを明確にするためである。学習データが正の教師データとして扱われるか、負の教師データとして扱われるかは、ラベルにより決定されることとなる。
i C→(zi C1,zi C2,・・・zi Cm
ここで、C∈{C1,C2,・・・Cm、bkg}であるとすると、C=Cu(u=1〜m、すなわち学習データが背景以外)の場合、初期化部30のラベリング部30Aは、ラベルの値を+1(zi Cu=+1)に、C=bkg(すなわち学習データが背景)の場合、ラベルの値を−1(zi Cu=−1)に設定する。また、学習データが背景以外の場合においては、さらに以下のようにラベルの値を設定する。例えば、学習する対象の弱判別器のクラスがC1である場合に、学習に使用する学習データのクラスがC3である場合(例えば学習データxi C3)のように、学習対象の弱判別器のクラスと、学習に使用する学習データのクラスとが一致しない場合は、学習対象の弱判別器のクラスの学習データと他のクラスの学習データとの類似度に応じてラベルの値を設定する。例えば学習対象の弱判別器のクラスがC3である場合に、学習に使用する学習データのクラスがC2またはC4である場合のように、学習対象の弱判別器のクラスの学習データと、他のクラスの学習データとが類似する場合にはラベルの値を0(zi Cu=0)に設定する。また、学習対象の弱判別器のクラスがC3である場合に、学習に使用する学習データのクラスがC1またはC6である場合のように、学習対象の弱判別器のクラスの学習データと他のクラスの学習データとが類似しない場合には、ラベルの値を−1(zi Cu=−1)に設定する。なお、ラベルの値を+1に設定された学習データは正の教師データ、−1に設定された学習データは負の教師データとなる。
なお、学習対象の弱判別器のクラス(Caとする)の学習データと他のクラス(Cbとする)の学習データとが類似するか否かの判定は、クラスCbにより表されるアピアレンス空間が、クラスCaにより表されるアピアレンス空間と隣接している、あるいは空間の一部が重なっている場合、クラスCbのデータはクラスCaのデータと類似すると判定し、そうでない場合にはクラスCbのデータはクラスCaのデータと類似しないと判定するようにする。
ここで、顔検出および顔の向きの検出の判別のためには、左に向く真横顔から右を向く真横顔まで、顔の向きを20度毎に割り当てる7クラスの学習を行うことが必要であり、その場合の学習データのラベリング結果を図6に示す。図6に示すように、クラスC1〜C7はそれぞれ異なる顔の向きに対応するが、隣接するクラス間には明確な境界線が存在しない。このため、例えば学習対象の弱判別器のクラスがC3である場合、クラスC3の学習データのラベルzi C3の値は+1、クラスC3に隣接するクラスC2,C4の学習データのラベルzi C2,zi C4の値は0、それ以外のクラスの学習データのラベルの値は−1に設定される。よって、本実施形態においては、ラベルzi Cuの値は、−1,0,+1の3通りとなる。学習データxi Cを用いてクラスCuの弱判別器を学習する際、上述したようにラベルを設定することにより、学習の安定性を高めることができる。
なお、学習データが類似するか否かの判定は、クラス間の学習データ同志の相関を算出し、相関が一定以上の場合に類似すると判定するようにしてもよく、ユーザがマニュアル操作により類似するか否かを判定するようにしてもよい。
次いで、正規化部30Bが行う学習データ数の正規化の処理について説明する。学習データは上述したようにクラス毎に用意されているが、クラス毎に学習データの数が異なる場合がある。また、本実施形態による判別器生成装置1においては、弱判別器の学習の際には、学習対象の弱判別器のクラスについて、+1および−1のラベルzi Cuの値が設定されたクラスの学習データのみが使用され、0のラベルzi Cuの値が設定されたクラスの学習データは後述するように重みが0とされることから使用されない。ここで、あるクラスCuについて値が+1のラベルzi Cuが設定された学習データを正の学習データ、値が−1のラベルzi Cuが設定された学習データを負の学習データとし、あるクラスCuの正の学習データ数N+ Cu、負の学習データ数N- Cuとすると、あるクラスCuの学習データ数Ntchr Cuは、N+ Cu+N- Cuと表すことができる。
本実施形態においては、すべてのクラスCuの学習データ数Ntchr Cuのうち、最も少ない学習データ数minNtchr Cuとなるように、すべてのクラスCuの学習データ数Ntchr Cuを正規化する。なお、最も少ない学習データ数minNtchr Cuとなるクラス以外は、学習データ数Ntchr Cuを少なくする必要があるが、その際、背景のオブジェクトの学習データxi bkgからランダムに選択した学習データを、負の学習データから除外することにより、学習データ数を少なくする。そして、正規化した数の学習データにより、各クラスCuの学習データ数Ntchr Cuを更新して、学習データの正規化処理を終了する。
次いで、重み設定部30Cが行う学習データの重み設定の処理について説明する。重みとは、各クラスCuの弱判別器の学習を行う場合における学習データに対する重みであり、下記に示すように、1つの学習データxi Cに対して、mクラス分の重みが設定される。
i C→wi(wi C1 ,wi C2 ,・・・wi Cm
ここで、C∈{C1,C2,・・・Cm、bkg}であるとすると、クラスCuにおけるある学習データxi Cuに対する重みwi Cuを、重み付ける学習データxi Cuのラベルzi Cuの値に応じて設定する。具体的には、あるクラスCuにおいて、ラベルzi Cuの値が+1である正の学習データについてはwi Cu=1/(2N+ Cu)に、ラベルzi Cuの値が−1である負の学習データについてはwi Cu=1/(2N- Cu)に、ラベルzi Cuの値が0である学習データについてはwi Cu=0に設定する。したがって、ラベルの値が0の学習データは、そのクラスの学習に使用されないこととなる。なお、N+ CuはあるクラスCuの正の学習データ数、N- CuはあるクラスCuの負の学習データ数である。
なお、判別器初期化部30Dは、各クラスCuについて、弱判別器の数を0、すなわち弱判別器が全く存在しないものとなるように判別器を初期化して判別器の初期値を0(HC1 =HC2 =・・・HCm=0)とする。
学習部40は、枝学習部40A、終了判定部40B、分岐時期判定部40C、分岐構造決定部40D、学習データ決定部40Eおよび再帰学習部40Fを有する。以下、学習部40が行う学習の処理について説明する。本実施形態において生成されるマルチクラスの判別器は、各クラスCuにおいて複数の弱判別器ht Cu(t=1〜n、nは弱判別器の段数)を木構造を有するように結合したもの(すなわちHCu=Σht Cu)となる。
図7Aはこのように構成されるマルチクラスの木構造の判別器を模式的に示す図である。図7Aに示すマルチクラスの判別器は木構造を有し、その構造の中において、1つのクラスの判別器が複数の判別ルートを有するものとなっている。1つの判別ルートはそのクラスの1つの判別器(強判別器)である。与えられた未知のデータについて、どのような判別ルートを通って判別するについては、木構造における分岐により決定される。また、各クラスCuの判別器は複数の弱判別器から構成されている。また、木構造におけるマルチクラスの弱判別器の間において、特徴量を共有している。図7Bは弱判別器を模式的に示す図である。図7Bに示すように、弱判別器はh=g{f(I)}(g:判別関数、f(I):未知のデータIの特徴量)により表される。本実施形態による判別器が従来の判別器と大きく異なる点は、図7Bに示すように、特徴量を共有し、判別関数がクラス毎にそれぞれ異なり、その結果クラス毎の弱判別器が異なることにある。
図8は学習の処理を示すフローチャートである。なお、図8に示すフローチャートの処理は、判別器における木構造を構成する各枝において行われるが、分岐前は枝は木構造のルートとなる。まず、学習データ入力部10が、判別器の学習に使用する学習データを判別器生成装置1に入力する(ステップST1)。次いで初期化部30が初期化処理を行う(ステップST2)。初期化処理は、上述したように、学習データのラベリング、学習データ数の正規化、学習データの重み設定および判別器の初期化の処理を含む。一方、学習部40が行う学習は、判別器の各段における弱判別器ht Cuをクラス毎に順次決定することにより、枝学習部40Aにおいて進められる。まず、学習部40の枝学習部40Aは、特徴量プール20から任意の1つのフィルタftを選択する。そして、枝(またはルート)に含まれるすべてのクラスについて、フィルタftを用いて、すべての学習データxから特徴量ft(xi)を抽出する。ここで、弱判別器ht Cuにおける特徴量ft(xi)から判別のためのスコアを算出するための判別機構をgt Cuとすると、学習データxiが入力された弱判別器ht Cuが、特徴量を用いて行う処理は、ht Cu(xi)=gt Cu(ft(xi))と表すことができる。なお、ht Cu(xi)は選択されたフィルタftを用いて算出された特徴量によりその弱判別器ht Cuが出力するその学習データについてスコアである。
なお、本実施形態においては、判別機構としてヒストグラム型判別関数を使用するものとし、学習データから得た特徴量の値に対するスコアを決定するようにヒストグラムを作成することにより、弱判別器を決定する。ヒストグラム型判別関数の判別機構においては、スコアが正の方向に大きいほど判別対象のクラスのオブジェクトである可能性が高く、負の方向に大きいほど判別対象のクラスのオブジェクトでない可能性が高いこととなる。
ここで、学習は、弱判別器を決定することを目的とするものである。このため学習部40は、弱判別器を決定するために、各クラスCuの学習データxiに対するラベルzi Cuおよび重みwi Cuを用いて、各クラスCu毎に、ラベルzi Cuとスコアとの重み付け二乗誤差を損失誤差として定義し、すべての学習データxiについての損失誤差の総和を定義する。例えば、クラスC1についての損失誤差JC1は下記の式(1)により定義することができる。なお、式(1)におけるNtchrは学習データの総数である。
Figure 2011198181
そして、枝学習部40Aは、各枝(またはルート)のすべてのクラスについての損失誤差JCuの総和を、分類損失誤差Jwseとして、下記の式(2)により定義する。なお、式(2)は、学習している各クラスの重要度が均一の場合の分類損失誤差を算出する式である。学習している各クラスの重要度が均一でない場合は、その重要度を反映させるために、式(2)に各クラスの重要度を重みづけてもよい。重要度を重みづけた分類損失誤差は式(2′)により算出できる。
Figure 2011198181
次いで、枝学習部40Aは、分類損失誤差Jwseが最小となるように弱判別器ht Cuを決定する(ステップST3)。本実施形態においては、判別機構がヒストグラム型判別関数であるため、学習データから得た特徴量に対するスコアを決定するようにヒストグラムを作成することにより弱判別器ht Cuを決定する。なお、弱判別器ht Cuの決定については後述する。このようにして弱判別器ht Cuを決定した後、下記の式(3)に示すように学習データxi Cuに対する重みwi Cuを更新する(ステップST4)。なお、更新した重みwi Cuは下記の式(4)に示すように正規化される。式(3)において、ht Cuは、学習データxi Cuにより弱判別器が出力するスコアを意味する。
Figure 2011198181
ここで、ある学習データについて、弱判別器ht Cuが出力するスコアが正の場合には判別対象のクラスのオブジェクトである可能性が高く、負の場合には判別対象のクラスのオブジェクトである可能性が低い。このため、ラベルzi Cuの値が+1の場合においてスコアが正の場合には、その学習データの重みwi Cuは小さくなるように更新され、スコアが負の場合には重みwi Cuは大きくなるように更新される。一方、ラベルzi Cuの値が−1の場合においてスコアが正の場合には、その学習データの重みwi Cuは大きくなるように更新され、スコアが負の場合には重みwi Cuは小さくなるように更新される。これは、正の学習データを用いてその弱判別器ht Cuにより判別を行った場合において、スコアが正の場合にはその学習データに対する重みがより小さくされ、スコアが負の場合にはその学習データに対する重みがより大きくされることを意味する。また、負の学習データを用いてその弱判別器ht Cuにより判別を行った場合においてスコアが正の場合には、その学習データの重みがより大きくされ、スコアが負の場合にはその学習データの重みがより小さくされる。
このようにして、各枝(またはルート)の各クラスにおける弱判別器ht Cuを決定し、重みwi Cuを更新した後、枝学習部40Aは、各クラスにおいてすでに決定した弱判別器に、新たに決定した弱判別器ht Cuを追加する(ステップST5)。なお、1回目の処理においては、各クラスの弱判別器はないため、1回目の処理により、各クラスの1段目の弱判別器ht Cuが決定される。また、2回目以降の処理により、新たに決定された弱判別器が追加される。
このように、各クラスに新たな弱判別器ht Cuを追加した後、学習部40の終了判定部40Bが、学習を終了するか否かを判定する。具体的には、各クラスについて、それまでに決定したn個の弱判別器ht Cuの組み合せHCu=Σht Cuの正答率、すなわち、それまでに決定した弱判別器ht Cuを組み合せて使用して、各クラスについての正の学習データを判別した結果が、実際に判別対象のクラスのオブジェクトであるか否かの答えと一致する率が、所定の閾値Th1を超えたか否かを判定する(ステップST6)。正答率が所定の閾値Th1を超えた場合は、それまでに決定した弱判別器ht Cuを用いれば判別対象のオブジェクトを十分に高い確率で判別できるため、そのクラスについての判別器を確定し(ステップST7)、学習は終了する。
一方、正答率が所定の閾値Th1以下である場合は、終了判定部40Bは各クラスにおいて現在の弱判別器ht Cuの数が所定の閾値Th2に達したか否かを判定する(ステップST8)。弱判別器ht Cuの数が所定の閾値Th2に達した場合には、それ以上弱判別器ht Cuの数を増やすことは、学習の処理および判別器の判別処理に長時間を要するものとなることから、ステップST7に進んでそのクラスについての判別器を確定し、学習は終了する。
弱判別器ht Cuの数が閾値Th2に達していない場合には、学習部40の分岐時期判定部40Cが、学習が分岐時期となったか否かを判定する(ステップST9)。具体的には、枝(またはルート)に含まれるすべてのクラスCuについて、決定した弱判別器ht Cuを用いて算出される分類損失誤差Jwseと、1つ前の処理において決定した弱判別器ht Cuを用いて算出される分類損失誤差Jwse-1との差分ΔJwseを算出し、すべてのクラスにおいて差分ΔJwseが所定の閾値Th3未満となったか否かを判定することにより、分岐時期となったか否かを判定する。
ここで、本実施形態による学習の処理においては、学習が進むにつれて弱判別器の数が増加し、これに伴い分類損失誤差が減少する。図9は4つのクラスC1〜C4の弱判別器についての弱判別器の数tと分類損失誤差Jwseとの関係を示す図である。図9に示すように分類損失誤差Jwseは、弱判別器ht Cuの数tが少ない学習の初期の段階においては、弱判別器ht Cuの数tが増加すると大きく減少するが、学習が進むにつれて、弱判別器ht Cuの数tの増加に対する分類損失誤差Jwseの減少量が少なくなる。ここで、分類損失誤差Jwseの減少量が少ないと言うことは、これ以上弱判別器ht Cuを増加させても、判別性能の向上の程度が少ないということを意味する。
このため、本実施形態においては、分岐時期判定部40Cは、各枝(またはルート)に含まれるすべてのクラスCuについて、差分ΔJwseが所定の閾値Th3未満となったか否かを判定し、すべてのクラスCuの差分ΔJwseが所定の閾値Th3未満となった場合に、そこまでに決定した弱判別器ht Cuの位置を分岐位置に決定する(ステップST10)。次いで、学習部40の分岐構造決定部40Dが、その分岐位置における分岐構造を決定する(ステップST11)。分岐構造の決定については後述する。分岐構造を決定した後、学習部40の学習データ決定部40Eは、分岐後の枝における各クラスCuに使用する学習データを決定する(ステップST12)。クラスCu毎に使用する学習データの決定についても後述する。学習データの決定後は、再帰学習部40Fが、分岐後の枝においても分岐前までと同一の学習を行うべく、初期化部30に、重み設定以外の初期化処理、すなわち、学習データのラベリング、学習データ数の正規化、および判別器の初期化の処理を行わせる(ステップST13)。そして、再帰学習部40Fが、分岐先の枝毎に特徴量を共有した学習を行って、分岐前までに決定した弱判別器ht Cuと結合するための追加の弱判別器ht Cuを決定するために、ステップST3に戻って処理を繰り返す。この場合、各クラスの学習データに対する重みwi Cuは、ステップST4において更新された重みwi Cuが引き続き使用される。なお、2回目以降の学習における特徴量のフィルタftは任意に選択される。このため、学習が完了するまでに同じフィルタftが再度選択されることもあり得る。
なお、ステップST9において分岐時期でないと判定された場合、すなわちすべてのクラスの損失誤差ΔJwseが閾値Th3未満とならない場合には、それまでに決定した弱判別器ht Cuと結合するための追加の弱判別器ht Cuを決定するために、ステップST3に戻って学習の処理を繰り返す。この場合においても、2回目以降の学習における特徴量のフィルタftは任意に選択されるため、学習が完了するまでに同じフィルタftが再度選択されることもあり得る。
また、決定された弱判別器ht Cuは、決定された順に線形結合される。また、各弱判別器ht Cuについては、それぞれ作成されたヒストグラムを基に、特徴量に応じてスコアを算出するためのスコアテーブルが生成される。なお、ヒストグラム自身をスコアテーブルとして用いることもでき、この場合、ヒストグラムの判別ポイントがそのままスコアとなる。このようにして、クラス毎に判別器の学習を行うことにより、マルチクラスの判別器が作成される。
次いで、分岐構造決定部40Dが行う分岐構造の決定の処理について説明する。本実施形態における分岐構造は、分岐条件および分岐先の枝数を定めるものである。分岐条件とは、分岐後に分岐先においてクラス間においてどのように学習データを分岐させて特徴量を共有させるかを定める条件である。分岐構造候補プール50は、判別器における各種分岐条件および分岐先の枝数を規定した複数の分岐構造の候補を記憶する。図10は分岐構造の例を示す図である。図10に示すように分岐構造Xbrは、分岐ノードSおよび複数(b個)のリーフノードGr1〜Grbからなる。分岐ノードSは入力された学習データをいずれかのリーフノードGr1〜Grbに分岐させるための分岐条件を規定する。なお、各リーフノードGr1〜Grbにおいて、分岐後に特徴量を共有した学習がなされるものであり、リーフノードGr1〜Grb間においては異なる特徴量を共有した学習がなされる。
図11は3クラスの分岐構造の例を示す図である。なお、図11に示す5種類の分岐構造は単なる例示であり、これ以外にも各種の分岐構造を採用しうることはもちろんである。なお、図11においては、分岐ノードをS1〜S5により示し、リーフノードGr1〜Gr3をクラスC1〜C3の組み合わせにより示している。図11に示す分岐構造Xbr1は、分岐後に各クラスそれぞれで異なる特徴量により学習を行う分岐条件が規定されている。分岐構造Xbr2は、分岐後に、クラスC1,C2と、クラスC2,3と、クラスC1,C3とでそれぞれ特徴量を共有して学習を行う分岐条件が規定されている。分岐構造Xbr3は、分岐後にクラスC2,C3において特徴量を共有して学習を行う分岐条件が、分岐構造Xbr4は、分岐後にクラスC1,C3において特徴量を共有して学習を行う分岐条件が、分岐構造Xbr5は、分岐後にクラスC1,C2において特徴量を共有して学習を行う分岐条件がそれぞれ規定されている。
ここで、分岐構造Xbr1について、どのように学習データxi Cuを分岐させるかについて詳細に説明する。分岐構造Xbr1は、ある学習データxi Cuについて、分岐前までに作成されている各クラスの弱判別器を用いてその学習データxi CuのスコアScorex Cu(u=1〜3)を算出する。そして、算出したスコアが最も大きいクラスに対応するリーフノードにその学習データを分岐させる。例えば、スコアScorex C1が最も大きい場合には、その学習データはリーフノードGr1に分岐される。
また、分岐構造Xbr2について、どのように学習データxi Cuを分岐させるかについて詳細に説明する。分岐構造Xbr2は、ある学習データxi Cuについて、分岐前までに作成されている各クラスの弱判別器を用いてその学習データxi CuのスコアScorex Cu(u=1〜3)を算出する。そして、算出したスコアをランク付けし、上位2つのクラスに対応するリーフノードにその学習データを分岐させる。例えば、スコアScorex C1およびScorex C2が上位2つのクラスに対応する場合、その学習データはC1C2のリーフノードGr1に分岐される。また、分岐構造Xbr3〜Xbr5については、分岐構造Xbr2と同様にスコアScorex Cu(u=1〜3)を算出し、算出したスコアをランク付けする。そして、最もスコアが大きいクラスに対応するリーフノードにその学習データを分岐させる。例えば、分岐構造Xbr5については、スコアScorex C3が最も大きい場合には、その学習データは、C3のリーフノードGr1に分岐される。一方、スコアScorex C1またはScorex C2が最も大きい場合には、その学習データはC1C2のリーフノードGr2に分岐される。
ここで、分岐構造により各クラスのすべての正の学習データを分岐させた際に、本来であれば、あるクラスの正の学習データは、そのクラスが属する分岐先に分岐されるものである。しかしながら、分岐時期までのマルチクラスの判別器において、すべての学習データを正しく分類できない、あるいは分岐構造における分岐条件が適切でない等の理由により、そのクラスの正の学習データがそのクラスが属さない分岐先に分岐されてしまう場合がある。この場合、そのクラスが属さない分岐先に分岐された学習データは、分岐後の学習には使用しない方が学習精度を高めるために好ましい。したがって、そのクラスが属さない分岐先に分岐された学習データは、分岐により損失することとなる。本実施形態においては、この損失を分岐損失誤差と定義し、学習部40において、以下のようにして分岐損失誤差を算出する。
図12は分岐損失誤差の算出を説明するための図である。図12に示すように各クラスC1〜Cmのそれぞれについての正の学習データの個数はp1〜pmであるとする。学習部40は、クラス毎に学習データを分岐構造Xbrにより分岐し、分岐された学習データのリーフノードGr1〜Grb毎の個数をクラス毎にカウントする。ここで、クラスCuのpu個の学習データのうち、リーフノードGrd(d=1〜b)に分岐された学習データの個数をqudとする。そして、下記の式(5)によりクラスCuの分岐構造Xbrによる分岐損失誤差BLXbr Cuを算出する。なお、式(5)の{}内は、クラスCuがリーフノードGrdに属する場合の分岐された学習データの個数を表す。例えば、クラスがC1である場合において分岐構造が図11に示すXbr2であった場合、式(5)の{}内において表される分岐された学習データの個数は、リーフノードGr1およびリーフノードGr3に分岐された学習データの個数q11およびq13となる。また、この場合において、クラスC1の学習データ数が1000個、q11が400個、q13が550個の場合、分岐損失誤差BLXbr Cuは0.05となる。
Figure 2011198181
分岐構造決定部40Dは、さらに下記の式(6)により、すべてのクラスCuについての分岐損失誤差BLXbr Cuを重み付け加算して学習データ全体についての分岐損失誤差BLXbr Tchrを算出する。なお、式(6)において、wBLuはクラスCuに対する分岐損失誤差BLXbr Cuへの重みである。ここで、重みwBLuは設計者により設定される。例えば、学習している各クラスの重要度が同一の場合にはwBLu=1.0に設定する。一方、学習している各クラスの重要度が一定でない場合、例えば正面顔のクラスについては他のクラスと比較して重みwBLuを大きく設定する。そして、学習部40はすべての分岐構造を用いて、分岐構造毎に分岐損失誤差BLXbr Tchrを算出し、分岐損失誤差BLXbr Tchrが最小となる分岐構造を選択することにより、分岐構造を決定する。
Figure 2011198181
次いで、学習データ決定部40Eが行う分岐後の学習データの決定の処理について説明する。学習データ決定部40Eは、分岐先のリーフノードGrdにおいて各クラスCu毎に使用する学習データを決定する。学習データの決定は、分岐構造を決定する際に行った、分岐された学習データのリーフノードGr1〜Grb毎の個数のカウント結果をそのまま使用する。例えば、図11に示す複数の分岐構造のうち、分岐構造Xbr2に決定された場合において、クラスC1の1000個の学習データのうち、リーフノードGr1およびリーフノードGr3に分岐された学習データの個数がそれぞれ400個、550個の場合、リーフノードGr1以降におけるクラスC1の学習には分岐された400個の学習データが、リーフノードGr3以降におけるクラスC1の学習には分岐された550個の学習データがそれぞれ使用される。この場合、リーフノードGr1およびリーフノードGr3のいずれにも分岐されなかった50個の学習データは、損失した学習データであり、分岐後の学習には使用されないこととなる。
そして分岐後は決定した分岐構造の分岐条件に従って、リーフノードGrd毎に特徴量を共有した学習が続けられる。
以下、分岐構造を決定した後の学習についてより具体的に説明する。図13は5クラスC1〜C5の学習に際して決定された分岐構造の例を示す図である。図13に示すように分岐前までに特徴量を共有する学習により各クラスC1〜C5において60個の弱判別器が決定されており、決定された分岐構造Xbrは4つのリーフノードGr1〜Gr4を有し、そのそれぞれにクラスC1,C2、クラスC2,C3、クラスC3,C4およびクラスC4,C5が属するように分岐条件が設定されている。このため、クラスC1はリーフノードGr1に、クラスC2はリーフノードGr1,Gr2に、クラスC3はリーフノードGr2,Gr3に、クラスC4はリーフノードGr3,Gr4に、クラスC5はリーフノードGr4に属することとなる。
図14は分岐前の各クラスの正の学習データの数を、図15は各リーフノードGr1〜Gr4に分岐された各クラスの正の学習データの数をそれぞれ示す。図15に示す太枠は、分岐後に各リーフノードGr1〜Gr4において学習に使用される学習データの個数であり、太枠以外のリーフノードGr1〜Gr4に分岐された学習データは損失した学習データであり、分岐後の学習には使用されないこととなる。したがって、分岐後に各リーフノードGr1〜Gr4において使用される学習データは図16に示すものとなる。なお、背景の学習データについても決定された分岐構造により各リーフノードGr1〜Gr4に分岐できるため、各リーフノードGr1〜Gr4に分岐された学習データをその後の弱判別器の決定に使用する。
図13に示す各クラスC1〜C5の弱判別器は、そこまでに決定した弱判別器以降は、決定された分岐構造Xbrにより分岐して、リーフノードGr1〜Gr4毎に特徴量を共有した学習が進められる。
なお、分岐後は、各リーフノードGr1〜Gr4における各クラスの学習データ数が等しくなるように、分岐前と同様に学習データ数の正規化が行われる。また、各リーフノードGr1〜Gr4において、各クラスの判別器の数が0となるように判別器の初期化も行われる。なお、学習データに対する重みは初期化されず、分岐前までの重みが分岐後においても継承される。
また、分岐後についても、リーフノードGr1〜Gr4毎に上記図8に示すフローチャートにしたがって弱判別器が決定され、必要があればさらに分岐がなされて学習が進められる。図17は学習の終了により生成された判別器を示す図である。図17に示すように、リーフノードGr1,Gr4においては、40個の弱判別器が決定された後に分岐され、さらに分岐後にクラス毎に特徴量が異なる学習がなされ、クラスC1については380個、クラスC2については170個、クラスC4については170個、クラスC5については380個の弱判別器が決定された時点で学習が終了している。また、リーフノードGr2,Gr3については、それぞれ特徴量を共有する学習がなされ、各クラスにおいて160個の弱判別器が決定された時点で学習が終了している。
ここで、リーフノードGr2,Gr3が、リーフノードGr1,Gr4のように再分岐していない理由は、特徴量を共有するマルチクラスC2,C3の学習の結果が、望ましい分類性能を既に達成しているためである。図17に示すマルチクラスの判別器は、複数の判別器から構成され、クラスC2,C3,C4は分岐により複数のルートが存在するため、対応する判別器も複数存在することとなる。
次いで、枝学習部40Aが行う弱判別器の決定の処理について説明する。本実施形態においては、判別機構としてヒストグラム型判別関数を使用するものである。図18はヒストグラム型判別関数の例を示す図である。図18に示すように弱判別器ht Cuの判別機構としてのヒストグラムは、横軸が特徴量の値であり、縦軸がその特徴量が対象とするオブジェクトであることを示す確率、すなわちスコアである。なお、スコアは−1〜+1の間の値をとる。本実施形態においては、判別機構であるヒストグラムを作成すること、より具体的にはヒストグラムにおける各特徴量に対応するスコアを決定することにより、弱判別器を決定する。以下、ヒストグラム型判別関数の作成について説明する。
本実施形態においては、分類損失誤差Jwseが最小となるように弱判別器ht Cuの判別機構であるヒストグラムを作成することにより、弱判別器ht Cuを決定するものである。ここで、本実施形態においては、各段の弱判別器ht Cuはクラス間において特徴量を共有するものであるが、一般的な処理を説明するために、クラス間において特徴量を共有しないものも存在するものとして説明する。これにより、上記式(2)の分類損失誤差Jwseは、下記の式(7)のように、特徴量を共有するクラスについての損失誤差Jshareと特徴量を共有しないクラスについての損失誤差Junshareとの和となるように変形することができる。なお、ht Cu(xi)=gt Cu(ft(xi))であることから、式(7)においては、ヒストグラムの横軸の値を簡易に示すために、ft(xi)=riに置き換えている。また、式(7)において、Σの下に付与されている「share」および「unshare」は、特徴量を共有しているクラスについての損失誤差の総和、および特徴量を共有していないクラスについての損失誤差の総和を算出することをそれぞれ示している。
Figure 2011198181
式(7)において、分類損失誤差Jwseを最小とするためには、損失誤差Jshareおよび損失誤差Junshareの双方を最小とすればよいこととなる。このため、まず特徴量を共有するクラスについての損失誤差Jshareを最小とすることを考える。特徴量を共有するクラスの数がkであるとすると、損失誤差Jshareは下記の式(8)により表すことができる。なお、式(8)において、s1〜skは、判別器全体のクラスCuのうちの、特徴量を共有するクラスについて改めて付与したクラスの番号を示す。式(8)において、右辺の各項をそれぞれJCs1 share〜JCsk shareと表すと、式(8)は式(9)となる。
Figure 2011198181
式(9)において、損失誤差Jshareを最小とするためには、式(9)の右辺の各項である、特徴量を共有する各クラスについての損失誤差JCs1 share〜JCsk shareをそれぞれ最小とすればよいこととなる。ここで、損失誤差JCs1 share〜JCsk shareを最小とするための演算は、各クラスにおいて同一であることから、以降の説明においては、ある1つのクラスCsj(j=1〜k)についての損失誤差JCsj shareを最小とするための演算について説明する。
ここで、特徴量がとり得る値は、所定範囲に限定されている。膨大な数の学習データから、特徴量の統計的な情報を効率的に表すために、および判別器を実装する場合におけるメモリや検出速度の要求等に応じて、本実施形態においては、ヒストグラムの横軸の範囲を、図19に示すように適当な数値幅で区切ってP1〜Pvの区分に量子化する(例えばv=100)。なお、ヒストグラムの縦軸は、すべての学習データから特徴量を算出し、後述する式(13)により算出される統計情報により決定される。これにより、作成したヒストグラムは、判別対象のオブジェクトの統計的な情報が反映されるため、判別能力が高くなる。また、ヒストグラムを作成するための演算および判別時の演算量を低減することができる。損失誤差JCsj shareは、ヒストグラムにおける各区分P1〜Pv毎の損失誤差の総和となることから、損失誤差JCsj shareは、下記の式(10)に示すように変形できる。なお、式(10)において、Σの下に付与されているri∈Pq(q=1〜v)等は、特徴量riが区分Pqに属する場合の損失誤差の総和を算出することを意味する。
Figure 2011198181
ヒストグラムは図19に示すように区分P1〜Pvに量子化されているため、各区分におけるスコアの値gt Csj(ri)は各区分においては定数となる。したがって、gt Csj(ri)=θq Csjと表すことができ、これにより式(10)を下記の式(11)に変形することができる。
Figure 2011198181
ここで、式(11)におけるラベルzi Csjの値は+1または−1である。したがって、式(11)の(zi Csj−θq Csj)は、(1−θq Csj)または(−1−θq Csj)のいずれかとなる。したがって、式(11)は下記の式(12)のように変形することができる。
Figure 2011198181
損失誤差JCsj shareを最小とするためには、式(12)が最小となるようにすればよい。式(12)を最小とするためには、式(12)をθq Csjにより偏微分した値が0となるように各区分Pqにおけるθq Csjの値を決定すればよい。したがって、θq Csjは、下記の式(13)のように算出することができる。
Figure 2011198181
ここで、Wq Csj+は、特徴量を共有するクラスCsjにおいて、ラベルの値が1に設定された学習データ、すなわち正の学習データxiに対する重みwi Csjの、ヒストグラムの区分Pqにおける総和、Wq Csj-は、特徴量を共有するクラスCsjにおいて、ラベルの値が−1に設定された学習データ、すなわち負の学習データxiに対する重みwi Csjの、ヒストグラムの区分Pqにおける総和である。重みwi Csjは既知であるため、Wq Csj+およびWq Csj-は算出することができ、よって、区分Pqにおけるヒストグラムの縦軸すなわちスコアθq Csjは上記式(13)により算出することができる。
以上より、特徴量を共有するクラスCsjについては、弱判別器ht Cuの判別機構であるヒストグラムのすべての区分P1〜Pvにおける縦軸の値、すなわちスコアθq Csjを式(13)により算出することにより、損失誤差JCsj shareを最小とするようにヒストグラムを作成して、弱判別器ht Cuを決定することができる。作成したヒストグラムの例を図20に示す。なお、図20において、区分P1,P2,P3のスコアをそれぞれθ1,θ2,θ3として示している。
次に特徴量を共有しないクラスについての損失誤差Junshareを最小とすることを考える。特徴量を共有しないクラスのうちのあるクラスCsjについての損失係数JCsj unshareは、下記の式(14)により表すことができる。ここで、本実施形態においては、特徴量を共有することを特徴とするものであるため、特徴量を共有しないクラスについては、スコアgt Cu(ri)を式(15)に示すように定数ρCsjとして、損失誤差JCsj unshareを最小とする定数ρCsjを決定するものとする。
Figure 2011198181
損失誤差JCsj unshareを最小とするためには、式(15)が最小となるようにすればよい。式(15)を最小とするためには、式(15)をρCsjにより偏微分した値が0となるようにρCsjの値を決定すればよい。したがって、ρCsjは、下記の式(16)のように算出することができる。ここで、重みwi Csjおよびスコアzi Csjは既知であるため、定数ρCsjを式(16)により算出することができる。
Figure 2011198181
このように、本実施形態によれば、複数のクラス間の弱判別器の分岐位置および分岐構造を、各クラスにおける弱判別器の学習結果に応じて決定するようにしたものである。このため、マルチクラスの学習を行う際に、弱判別器の分岐位置および分岐構造が設計者に依存することがなくなり、その結果、生成された判別器を用いることにより、オブジェクトの判別を精度良くかつ高速に行うことができる。また、分岐位置および分岐構造を設計者が決定する場合と比較して、学習が収束しなくなるようなことがなくなり、その結果、学習の収束性を向上させることができる。
また、分岐後の弱判別器の学習に、分岐前までの学習結果を継承させることにより、分岐前後において弱判別器がシームレスに繋がるため、本実施形態により生成された判別器において、判別構造の一貫性を保つことができる。したがって、判別器の判別精度および判別速度を両立させることができる。
また、本出願人による実験の結果、本発明により作成された判別器は従来のJoint Boostの手法により作成された判別器と比較して、学習の安定性および柔軟性が高いことが分かった。また、作成された判別器の精度および検出速度も、本発明の判別器の方が高いことが分かった。
なお、上記実施形態においては、判別機構としてヒストグラム型判別関数を用いているが、判別機構として決定木を用いることも可能である。以下、判別機構を決定木とした場合の弱判別器の決定について説明する。ここで、判別機構として決定木を用いた場合においても、分類損失誤差Jwseが最小となるように弱判別器ht Cuを決定することには変わりはない。このため、判別器を決定木とした場合においても、説明のために、式(9)における、特徴量を共有するある1つのクラスCsjについての損失誤差JCsj shareを最小とするための演算について説明する。なお、以下の説明においては、決定木を下記の式(17)に示すように定義するものとする。式(17)におけるφt Csjは閾値であり、特徴量のフィルタに定義されているものである。またδ()は、ri>φt Csjの場合に1、それ以外の場合に0となるデルタ関数である。また、at Csjおよびbt Csjはパラメータである。このように決定木を定義することにより、決定木に対する入力と出力との関係は図21に示すものとなる。
Figure 2011198181
判別機構が決定木の実施形態において、特徴量を共有するクラスCsjの損失誤差JCsj shareは、下記の式(18)となる。
Figure 2011198181
損失誤差JCsj shareを最小とするためには、式(18)を最小となるようにすればよい。式(18)を最小とするためには、式(18)をパラメータat Csjおよびbt Csjのそれぞれにより偏微分した値が0となるように、at Csj+bt Csjおよびbt Csjの値を決定すればよい。at Csj+bt Csjの値は、式(18)をat Csjにより偏微分することにより、下記の式(19)に示すように決定することができる。なお、式(19)におけるΣの下のri>φt Csjは、ri>φt Csjのときにおける重みwi Csjの総和、および重みwi Csjとラベルzi Csjの乗算値の総和を算出することを意味する。したがって、式(19)は式(20)と同義である。
Figure 2011198181
一方、bt Csjの値は、式(18)をbt Csjにより偏微分した値が0となるように、下記の式(22)に示すように決定することができる。
Figure 2011198181
なお、判別機構を決定木とした場合における特徴量を共有しないクラスについては、判別機構をヒストグラム型判別関数とした場合と同様に、決定木が出力する値を定数ρCsjとし、損失誤差JCsj unshareを最小とする定数ρCsjを決定すればよい。この場合、定数ρCsjは上記式(16)と同様に決定することができる。
このように、判別機構を決定木とした場合においても、本実施形態は、複数のクラス間の弱判別器の分岐位置および分岐構造を、各クラスにおける弱判別器の学習結果に応じて決定するようにしたものである。このため、マルチクラスの学習を行う際に、弱判別器の分岐位置および分岐構造がユーザに依存することがなくなり、その結果、生成された判別器を用いることにより、オブジェクトの判別を精度良く行うことができる。また、分岐位置および分岐構造をユーザが決定する場合と比較して、学習が収束しなくなるようなことがなくなり、その結果、学習の収束性を向上させることができる。
以上、本発明の実施形態に係る装置1について説明したが、コンピュータを、上記の学習データ入力部10、特徴量プール20、初期化部30、学習部40および分岐構造候補ブール50に対応する手段として機能させ、図8に示すような処理を行わせるプログラムも、本発明の実施形態の1つである。また、そのようなプログラムを記録したコンピュータ読取り可能な記録媒体も、本発明の実施形態の1つである。
1 判別器生成装置
10 学習データ入力部
20 特徴量プール
30 初期化部
30A ラベリング部
30B 正規化部
30C 重み設定部
30D 判別器初期化部
40 学習部
40A 枝学習部
40B 終了判定部
40C 分岐時期判定部
40D 分岐構造決定部
40E 学習データ決定部
40F 再帰学習部
50 分岐構造候補プール

Claims (10)

  1. 検出対象画像から抽出した特徴量を用いて、該検出対象画像に含まれるオブジェクトを判別する、複数の弱判別器が組み合わされてなる判別器であって、前記オブジェクトについて判別するクラスが複数あるマルチクラスの判別を行う判別器を生成する判別器生成装置において、
    前記複数のクラス間の弱判別器の分岐位置および分岐構造を、前記各クラスにおける前記弱判別器の学習結果に応じて決定する学習手段を備えたことを特徴とする判別器生成装置。
  2. 前記学習手段は、前記複数のクラス間における前記弱判別器に、前記特徴量のみを共有させた学習を行う手段であることを特徴とする請求項1記載の判別器生成装置。
  3. 前記弱判別器を前記複数のクラス毎に学習するための複数の正負の学習データを入力する学習データ入力手段と、
    前記学習データから前記特徴量を抽出する複数のフィルタを記憶するフィルタ記憶手段とをさらに備え、
    前記学習手段は、該フィルタ記憶手段から選択されたフィルタにより、前記学習データから前記特徴量を抽出し、該特徴量により前記学習を行う手段であることを特徴とする請求項2記載の判別器生成装置。
  4. 前記学習手段は、前記学習に使用するすべての前記学習データに対して、学習対象のクラスの正の学習データとの類似度に応じて学習を安定させるためにラベリングを行って、前記学習を行う手段であることを特徴とする請求項3記載の判別器生成装置。
  5. 前記学習手段は、前記複数のクラスにおける同一段の弱判別器のそれぞれについて、前記ラベルと入力された特徴量に対する該弱判別器の出力との重み付け二乗誤差の、前記学習データについての総和を定義し、該総和の前記複数のクラスについての総和またはクラスの重要度に応じた重み付け総和を分類損失誤差として定義し、該分類損失誤差が最小となるように前記弱判別器を決定するように、前記学習を行う手段であることを特徴とする請求項4項記載の判別器生成装置。
  6. 前記学習手段は、分岐を行うか否かを判定する対象段の前記各クラスの弱判別器について前記分類損失誤差を算出し、該分類損失誤差と該対象段の前段の弱判別器について算出された前段分類損失誤差との変化量が所定の閾値以下となったときに、前記対象段の弱判別器を分岐位置に決定する手段であることを特徴とする請求項5記載の判別器生成装置。
  7. あらかじめ定められた複数の分岐構造を記憶する記憶手段をさらに備え、
    前記学習手段は、前記複数の分岐構造のうち、分岐による前記対象段の分岐損失誤差が最小となる分岐構造を選択する手段であることを特徴とする請求項1から6のいずれか1項記載の判別器生成装置。
  8. 前記学習手段は、分岐後の前記弱判別器の学習に、分岐前までの学習結果を継承する手段であることを特徴とする請求項1から7のいずれか1項記載の判別器生成装置。
  9. 検出対象画像から抽出した特徴量を用いて、該検出対象画像に含まれるオブジェクトを判別する、複数の弱判別器が組み合わされてなる判別器であって、前記オブジェクトについて判別するクラスが複数あるマルチクラスの判別を行う判別器を生成する判別器生成方法において、
    前記複数のクラス間の弱判別器の分岐位置および分岐構造を、前記各クラスにおける前記弱判別器の学習結果に応じて決定することを特徴とする判別器生成方法。
  10. コンピュータを、検出対象画像から抽出した特徴量を用いて、該検出対象画像に含まれるオブジェクトを判別する、複数の弱判別器が組み合わされてなる判別器であって、前記オブジェクトについて判別するクラスが複数あるマルチクラスの判別を行う判別器を生成する判別器生成装置として機能させるためのプログラムにおいて、
    前記プログラムを、前記複数のクラス間の弱判別器の分岐位置および分岐構造を、前記各クラスにおける前記弱判別器の学習結果に応じて決定する学習手段として機能させることを特徴とするプログラム。
JP2010065537A 2010-03-23 2010-03-23 判別器生成装置および方法並びにプログラム Expired - Fee Related JP5394959B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010065537A JP5394959B2 (ja) 2010-03-23 2010-03-23 判別器生成装置および方法並びにプログラム
US13/024,959 US20110235901A1 (en) 2010-03-23 2011-02-10 Method, apparatus, and program for generating classifiers

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010065537A JP5394959B2 (ja) 2010-03-23 2010-03-23 判別器生成装置および方法並びにプログラム

Publications (2)

Publication Number Publication Date
JP2011198181A true JP2011198181A (ja) 2011-10-06
JP5394959B2 JP5394959B2 (ja) 2014-01-22

Family

ID=44656550

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010065537A Expired - Fee Related JP5394959B2 (ja) 2010-03-23 2010-03-23 判別器生成装置および方法並びにプログラム

Country Status (2)

Country Link
US (1) US20110235901A1 (ja)
JP (1) JP5394959B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015146113A1 (ja) * 2014-03-28 2015-10-01 日本電気株式会社 識別辞書学習システム、識別辞書学習方法および記録媒体
JP2016151805A (ja) * 2015-02-16 2016-08-22 大日本印刷株式会社 オブジェクト検出装置、オブジェクト検出方法、及びプログラム
JP2020057386A (ja) * 2018-09-28 2020-04-09 オラクル・インターナショナル・コーポレイション 反復的な人工知能を用いて、通信決定木を通る経路の方向を指定する

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101853389A (zh) * 2009-04-01 2010-10-06 索尼株式会社 多类目标的检测装置及检测方法
JP5285748B2 (ja) * 2011-07-08 2013-09-11 富士フイルム株式会社 オブジェクト検出装置、方法およびプログラム
US9535995B2 (en) * 2011-12-13 2017-01-03 Microsoft Technology Licensing, Llc Optimizing a ranker for a risk-oriented objective
JP5989576B2 (ja) * 2013-03-07 2016-09-07 株式会社東芝 パターン識別装置、パターン識別方法、プログラム、学習装置および学習方法
CN103984927B (zh) * 2014-05-19 2017-05-24 联想(北京)有限公司 一种信息处理方法及电子设备
WO2016025396A1 (en) * 2014-08-11 2016-02-18 Coldlight Solutions, Llc An automated methodology for inductive bias selection and adaptive ensemble choice to optimize predictive power
CN104573743B (zh) * 2015-01-14 2018-12-18 南京烽火星空通信发展有限公司 一种人脸图像检测过滤方法
JP6687894B2 (ja) * 2016-05-20 2020-04-28 富士ゼロックス株式会社 クラス推定装置及びプログラム
CN110020592B (zh) * 2019-02-03 2024-04-09 平安科技(深圳)有限公司 物体检测模型训练方法、装置、计算机设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07325797A (ja) * 1994-06-01 1995-12-12 Matsushita Electric Ind Co Ltd 学習型認識判断装置
JP2005284487A (ja) * 2004-03-29 2005-10-13 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7203669B2 (en) * 2003-03-17 2007-04-10 Intel Corporation Detector tree of boosted classifiers for real-time object detection and tracking
JP2005044330A (ja) * 2003-07-24 2005-02-17 Univ Of California San Diego 弱仮説生成装置及び方法、学習装置及び方法、検出装置及び方法、表情学習装置及び方法、表情認識装置及び方法、並びにロボット装置
JP4891197B2 (ja) * 2007-11-01 2012-03-07 キヤノン株式会社 画像処理装置および画像処理方法
JP4948379B2 (ja) * 2007-12-18 2012-06-06 キヤノン株式会社 パターン識別器生成方法、情報処理装置、プログラム及び記憶媒体

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07325797A (ja) * 1994-06-01 1995-12-12 Matsushita Electric Ind Co Ltd 学習型認識判断装置
JP2005284487A (ja) * 2004-03-29 2005-10-13 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015146113A1 (ja) * 2014-03-28 2015-10-01 日本電気株式会社 識別辞書学習システム、識別辞書学習方法および記録媒体
JPWO2015146113A1 (ja) * 2014-03-28 2017-04-13 日本電気株式会社 識別辞書学習システム、識別辞書学習方法および識別辞書学習プログラム
US10380456B2 (en) 2014-03-28 2019-08-13 Nec Corporation Classification dictionary learning system, classification dictionary learning method and recording medium
JP2020053073A (ja) * 2014-03-28 2020-04-02 日本電気株式会社 学習方法、学習システム、および学習プログラム
JP2016151805A (ja) * 2015-02-16 2016-08-22 大日本印刷株式会社 オブジェクト検出装置、オブジェクト検出方法、及びプログラム
JP2020057386A (ja) * 2018-09-28 2020-04-09 オラクル・インターナショナル・コーポレイション 反復的な人工知能を用いて、通信決定木を通る経路の方向を指定する
JP7350590B2 (ja) 2018-09-28 2023-09-26 オラクル・インターナショナル・コーポレイション 反復的な人工知能を用いて、通信決定木を通る経路の方向を指定する

Also Published As

Publication number Publication date
JP5394959B2 (ja) 2014-01-22
US20110235901A1 (en) 2011-09-29

Similar Documents

Publication Publication Date Title
JP5394959B2 (ja) 判別器生成装置および方法並びにプログラム
Luo et al. Action unit memory network for weakly supervised temporal action localization
US10747989B2 (en) Systems and/or methods for accelerating facial feature vector matching with supervised machine learning
Farfade et al. Multi-view face detection using deep convolutional neural networks
Wang et al. Transferring rich feature hierarchies for robust visual tracking
Zhang et al. Improving multiview face detection with multi-task deep convolutional neural networks
Wang et al. Relaxed multiple-instance SVM with application to object discovery
Rota Bulo et al. Neural decision forests for semantic image labelling
Lucchi et al. Learning for structured prediction using approximate subgradient descent with working sets
US20150235079A1 (en) Learning device, learning method, and program
JP2016099734A (ja) 画像処理装置、情報処理方法及びプログラム
JP2011181016A (ja) 判別器生成装置および方法並びにプログラム
Xia et al. Face occlusion detection using deep convolutional neural networks
Sun et al. Visual tracking via joint discriminative appearance learning
Zhao et al. Heterogeneous pseudo-supervised learning for few-shot person re-identification
Kodama et al. Open-set recognition with supervised contrastive learning
Dewan et al. Fish detection and classification
Farfan-Escobedo et al. Towards accurate building recognition using convolutional neural networks
CN116309466A (zh) 一种基于对比学习的跨域目标检测方法
CN113887509A (zh) 一种基于图像集合的快速多模态视频人脸识别方法
Zhong et al. A dbn-crf for spectral-spatial classification of hyperspectral data
Zhang et al. Joint head attribute classifier and domain-specific refinement networks for face alignment
Shanmugasundaram et al. Detection accuracy improvement on one-stage object detection using ap-loss-based ranking module and resnet-152 backbone
Jiang et al. Cross-Scenario Unknown-Aware Face Anti-Spoofing With Evidential Semantic Consistency Learning
Pelossof et al. Speeding-up margin based learning via stochastic curtailment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120703

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130701

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130924

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131017

R150 Certificate of patent or registration of utility model

Ref document number: 5394959

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees