JP2010529529A - 特定被写体検出装置及びその学習装置と学習方法 - Google Patents

特定被写体検出装置及びその学習装置と学習方法 Download PDF

Info

Publication number
JP2010529529A
JP2010529529A JP2010509667A JP2010509667A JP2010529529A JP 2010529529 A JP2010529529 A JP 2010529529A JP 2010509667 A JP2010509667 A JP 2010509667A JP 2010509667 A JP2010509667 A JP 2010509667A JP 2010529529 A JP2010529529 A JP 2010529529A
Authority
JP
Japan
Prior art keywords
unit
optimization
learning
specific subject
target loss
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010509667A
Other languages
English (en)
Other versions
JP5197737B2 (ja
Inventor
海舟 艾
源 李
世紅 労
隆義 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Publication of JP2010529529A publication Critical patent/JP2010529529A/ja
Application granted granted Critical
Publication of JP5197737B2 publication Critical patent/JP5197737B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7747Organisation of the process, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Geometry (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Image Analysis (AREA)

Abstract

本発明では特定被写体検出装置及びその学習装置と学習方法が公開されている。当該特定被写体検出装置は、検出対象画像を入力するための入力ユニットと、各々が、弱分類テンプレートを使用して画像を弱分類するための1つまたはより多くの弱分類ユニットを含み、画像を強分類するための1つまたはより多くの強分類ユニットと、前記弱分類ユニットが使用するテンプレートを記憶する記憶ユニットと、強分類ユニットの分類結果に基づき、画像が特定被写体を含むか否かを判断する判断ユニットとを含み、当該特定被写体検出装置は、増分学習用のデータ、つまり増分学習サンプル、言い換えると、当該またはその他の特定被写体検出装置が検出漏れまたは誤報したデータを入力するための増分サンプル入力ユニットと、増分サンプル入力ユニットが入力した増分学習サンプルに基づき、記憶ユニットが記憶する弱分類テンプレートを更新する学習ユニットとを更に含む。

Description

本発明は特定被写体検出装置及びその学習装置と学習方法に関するものであり、より具体的には強分類器及び弱分類器に対して学習訓練を実施する学習装置と学習方法並びに前記学習装置及び学習方法を使用する特定被写体検出装置に関するものである。
顔の検出(face detection)とは、任意1枚の与えられた画像に対して、一定の戦略を採用してその中に顔が含まれているか否かを検索して確定することを指し、イエスの場合は、顔の位置、大きさ及び姿勢に戻る。通常、顔は非常に豊富な生物学的特徴情報を有しており、マンマシン相互作用、追跡管理、身分識別などの分野に用いることができ、顔関連情報を抽出する最初のステップは顔領域の位置決めである。そのため顔検出技術は尋常ではない意味及び極めて広範な応用の前途を有している。顔検出の実用性は検出精度及び検出速度の両者の向上により決定される。
図1に示されているのは従来技術における検出器の機能階層ブロック図である。図1に示されている通り、従来技術における検出器の階層構造は、上から下に、検出器、強分類器、弱分類器、特徴抽出及び関数マッピングである。言い換えると、従来技術における検出器は互いに直列接続の複数の強分類器を含み、各強分類器は互いに直列接続の複数の弱分類器を含み、各弱分類器は特徴抽出部及びマッピング部を含む。特徴抽出部は粗密粒度特徴などの特徴抽出方式を採用して特徴を抽出し(本特許出願人の第200610072576.4号中国特許出願を参照可能であり、それを引用して本明細書内に組み入れることにより、本明細書内において完全に説明したことと同様となる)、マッピング部はルックアップテーブル法(Look Up Table)に基づく区分線形関数などの方法を採用して弱分類を実施する。
検出器を使用する前に、検出器に対して訓練を実施しなければならない。検出器に対して固定されたオフライン訓練を実施することは本分野では公知である。固定されたオフライン訓練アルゴリズムについて述べると、ひとたび訓練に用いるサンプル集合(つまり顔写真及び背景写真)が確定されると、学習により得られる顔検出器にはあまり大きな変化は発生しない。オフライン訓練サンプル採集過程の局限性により、通常、サンプル集合は一般環境条件下における顔モデル及び非顔モデルの分布状況を描写することができるだけである。しかし、末端ユーザの違い、環境及び目標の変化により、検出器は往々にして一連の特殊な状況に直面しなければならない。一方において、サングラスやマフラーなどの装飾品を着用すると顔の一部が遮蔽され、激烈な光線照射の変化は更に顔の表出モデルを極めて大きく改変する。これら特殊環境条件下における顔モデルは稀であるため、通常はオフライン訓練に用いる顔サンプル集合中にはほとんど出現しない。他方において、本発明者らは数多くの背景写真集合を収集するとともに、その中から大量の走査ウィンドウを非顔訓練サンプルとして抽出することができるが、依然としてすべてをカバーすることができる背景類型を確保することはできない。言い換えると、オフライン訓練サンプル集合(顔及び非顔の両部分を含む)が描写する一般状況とオンライン検出過程で処理すべき実際状況との間には比較的大きな差異が存在する。この種の回避が困難な差異はオフライン訓練で得られる検出器が常にオンライン検出の応用環境にあまり十分には適応できない事態を招き、比較的多くの検出漏れまたは誤報を発生する。
結局のところ、この種の不適応性はオフライン訓練サンプルがオンライン状況を反映することができないためにより引き起こされる。この問題を克服するため、人々はオンライン学習に対して大量の研究を実施している。
オンライン学習とは、訓練データに基づき特徴を収集して専門に設計された持続的な学習アルゴリズムである。オフライン学習過程におけるすべての訓練データは予め収集されている点と異なり、オンライン学習過程では不断に収集されるデータ流を処理しなければならない。全体としてのデータ量が非常に膨大であるため、オンライン学習ではすべての収集済みのデータを保存することができない。言い換えると、各項訓練データは使用された後には破棄されなければならない。オンライン学習はオフライン訓練により得られた結果を基礎とする必要はなく、それは単純な学習の枠組である。
現在まで、大多数のオンライン学習関連の作業は伝統的なマシン学習法、例えば、P.Utgoffらにより提出されたデシジョンツリーモデルに基づくオンライン学習アルゴリズム、N.Littlestoneにより提出されたWinnowアルゴリズム、N.Littlestone及びM.Warmuthにより採用されたWMA(Weighted Majority Algorithm)アルゴリズムに基づいている。従来技術において、Boostingアルゴリズムは前世紀の90年代の初頭に誕生し、現在まで僅か10数年しか経過しておらず、非常に若いマシン学習アルゴリズムであると言うことができる。そのため、それに関連したオンライン学習の研究はあまり多くない。L.Breimanは自身の論文中に「ブロック状」オンラインBoostingアルゴリズムを引用し、オンライン訓練サンプル集合を若干の大きさが同じサブ集合に区分するとともに、順次各弱分類器のオンライン訓練に用いている。A.Fern及びR.Givanは別のArc−4x法に基づくオンラインBoostingアルゴリズムを提出しており、分類エラーの訓練サンプルの重みを高めることにより各弱分類器を再学習する。関連作業のうちでもっとも代表的であるのはN.Ozaらが離散AdaBoost.M1アルゴリズムに基づき提出したオンラインBoostingアルゴリズムであり、その流れは図2に示されている通りである。
当該アルゴリズムは現在最新の訓練サンプルを利用し、前から後の順に従って順次強分類器中の各弱分類器及びそれに対応する組合せ係数を再訓練する。それはデシジョンツリーモデルを弱分類器構造として採用し、サンプルの現在の重み(つまり分類エラーの程度)に基づきポアソン分布を満足するランダム数kを生成し、現在のサンプルを使用して弱分類器を再訓練する回数とする。訓練の結果により弱分類器が現在のサンプルを正確に分類可能となると、現在のサンプルの重みを弱分類器の正確な分類回数λsc 中に加え、弱分類器のエラー率eを調整するとともに、当該エラー率に基づき現在のサンプルの重みλを更新する。そうでない場合は、現在のサンプルの重みを弱分類器のエラー分類回数λsw 中に加え、類似して弱分類器のエラー率eを調整するとともに、現在のサンプルの重みλを更新することも必要である。N.OzaらのオンラインBoostingアルゴリズムはフロー構造上において、それが対応するオンラインバージョンであるAdaBoost.M1アルゴリズムを遵守していることを見出すことは困難ではない。
N.Ozaらにより提出されたオンラインBoostingアルゴリズム、O.Javedら及びH.Grabnerらによりそれぞれ提起された各々のオンラインBoostingシステムに基づき、多くの実際におけるコンピュータ視覚問題の解決に用いる。O.JavedらはN.Ozaらにより提出されたオンラインBoostingアルゴリズムを共訓練の枠組(co−training framework)と結合して、通行人及び車両に用いる検出システムの性能を向上させており、H.Grabnerらは特徴選択システムを導入することにより、オンラインBoostingアルゴリズムを各種コンピュータの視覚問題中に広範に用いており、それには背景の建築、物体の検出及び追跡が含まれている。
しかし、上記これらのオンラインBoostingアルゴリズムが例外なく採用してい
るのはいずれも二値出力の弱分類器形式であり、伝統的な離散AdaBoostアルゴリズムに対応している。現在、まだ連続AdaBoostアルゴリズムについてのオンライン学習Boostingアルゴリズムはない。
オンライン学習アルゴリズムは現在の検出器を適当に調整して、例えば上記で言及済みの遮蔽、光線照射の変化などのサンプルに代表される特殊な情景をより良好に処理することが可能である。
しかし、能力及び容量のいずれもが有限である条件下において、検出器が特定の情景をより良好に処理する能力を備えようとする場合、通常は一連の一般的環境を処理する能力を喪失することになる。甚だしい場合には、検出器の調整過程において過度にオンラインサンプルに依存すると、増分学習の効果が大幅に下落し、一般応用条件下における性能が顕著に低下するばかりではなく、場合によっては、直面する特殊環境下においても過訓練現象が出現する可能性もある。そのため、現在、オフライン訓練サンプルの不足問題を補うばかりではなく、検出器の性能も大幅に低下させない検出器訓練方法が必要とされている。また、連続AdaBoostアルゴリズムについての検出器訓練アルゴリズムも必要とされている。
そのため、本発明の1つの目的は、増分学習の方法を利用してオフライン訓練サンプルの不足問題を補うことができ、検出器の性能も大幅に低下させない特定被写体検出装置及び検出方法を提供することにある。
本発明の一方の面に基づき、本発明では特定被写体検出装置が提供されており、当該特定被写体検出装置は、検出対象画像を入力するための入力ユニットと、各々が、前記画像を弱分類するための1つまたはより多くの弱分類ユニットを含み、前記検出対象画像を強分類するための1つまたはより多くの強分類ユニットと、前記弱分類ユニットが使用するテンプレートを記憶する記憶ユニットと、前記強分類ユニットの分類結果に基づき、前記画像が前記特定被写体を含むか否かを判断する判断ユニットとを含み、その特徴は、前記特定被写体検出装置は、増分学習用のデータ、つまり増分学習サンプル、言い換えると、当該またはその他の特定被写体検出装置が検出漏れまたは誤報したデータを入力するための増分サンプル入力ユニットと、前記増分サンプル入力ユニットが入力した前記増分学習サンプルに基づき、前記記憶ユニットが記憶する前記弱分類テンプレートを更新するための学習ユニットとを更に含む点にある。
本発明の別の面に基づくと、特定被写体検出装置の学習装置が提供されており、前記特定被写体検出装置は、1つまたはより多くの強分類ユニットを含み、前記強分類ユニットは、弱分類テンプレートを利用して入力された画像に対して特定被写体を含むか否かの判断を実施する1つまたはより多くの弱分類ユニットを含み、前記学習装置は、当該またはその他の特定被写体検出装置の運転中に検出漏れまたは誤報されたデータである増分学習サンプルを利用して前記弱分類テンプレートを更新し、前記学習装置は、入力された増分学習サンプルに基づき、最適化パラメータを利用して弱分類テンプレートに対して最適化を実施する最適化度を算出するための最適化度算出部と、前記最適化度算出部の算出結果に基づき、前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化は一定の条件を満足しているか否かを判断する判断ユニットと、前記判断ユニットが前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化は一定の条件を満足していないと判断すると、前記最適化パラメータを更新する最適化パラメータ更新ユニットと、前記判断ユニットが前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化は一定の条件を満足していると判断すると、前記弱分類テンプレートを更新するテンプレート更新ユニットとを含む。
本発明の更に別の面に基づくと、本発明では特定被写体検出装置の学習方法が提供されており、前記特定被写体検出装置は、1つまたはより多くの強分類ユニットを含み、前記強分類ユニットは、弱分類テンプレートを利用して入力された画像に対して特定被写体を含むか否かの判断を実施する1つまたはより多くの弱分類ユニットを含み、前記学習方法は、各弱分類器に対する、当該またはその他の特定被写体検出装置の運転中に検出漏れまたは誤報されたデータである増分学習サンプルを入力する入力ステップと、入力された増分学習サンプルに基づき、最適化パラメータを利用して弱分類テンプレートに対して最適化を実施する最適化度を算出するための最適化度取得ステップと、前記最適化度取得ステップの算出結果に基づき、前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化は一定の条件を満足しているか否かを判断する判断ステップと、前記判断ステップで前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化は一定の条件を満足していないと判断されると、前記最適化パラメータを更新する最適化パラメータ更新ステップと、前記判断ステップで前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化は一定の条件を満足していると判断されると、前記弱分類テンプレートを更新するテンプレート更新ステップとを含む。
注意すべきは、上記の概要説明及び以下の詳細説明はいずれも例示しているに過ぎず、その主旨は本発明に対して解釈説明を実施することにあり、本発明の保護範囲を制限するものではない点である。
以下においては、添付図を参照して本発明の実施例について詳細に説明する。添付図において、
図1には従来技術における検出器の機能階層ブロック図が示されている。 図2には従来技術におけるオンラインBoostingアルゴリズムの流れが示されている。 図3には増分学習の顔検出の枠組における位置が示されている。 図4には本発明に基づく1つの実施例における特定被写体検出装置10の機能ブロック図が示されている。 図5には強分類器ユニットのウォーターフォールモード接続及びベクトルツリーモード接続の見取図が示されている。 図6には弱分類ユニットの機能ブロック図が示されている。 図7には本発明に基づく1つの実施例における学習ユニットの機能ブロック図が示されている。 図8には本発明に基づく1つの実施例における最適化度算出部131のブロック図が示されている。 図9には本発明に基づく1つの実施例における最適化度算出ユニット1314のブロック図が示されている。 図10には本発明に基づく別の実施例における最適化度算出ユニット1314のブロック図が示されている。 図11にはオンラインサンプルに基づき修正される各類別の尤度関数が示されている。 図12には領域分割弱分類器からなる強分類器の予測の流れが示されている。 図13には強分類器の予測過程において関連する3つの空間及び2つの段階が示されている。 図14には本発明に基づく実施例の増分学習法の流れ図が示されている。 図15には最適化度を算出する1つの実施例の流れ図が示されている。 図16は文字記述方式で示された本発明における増分学習法の流れ図である。 図17には増分学習アルゴリズム及び連合学習アルゴリズムのオフライン測定サンプル及びオンライン測定サンプル上におけるエラー率の変化情況が示されている。 図18にはオンライン訓練サンプル数がそれぞれ0、10、100及び200である場合における増分学習法及び連合学習法のオフライン測定試験エラー率及びオンライン測定試験エラー率が示されている。 図19には増分学習法が検出器を支援して特殊環境下における顔検出問題の処理を向上させる効果が示されている。 図20には増分学習前後における検出器のCMU+MIT正面顔測定集合上での検出精度の変化情況が示されている。
以下においては、添付図を参照して本発明の実施例について詳細に説明する。本発明では増分学習法が採用されている。図3には増分学習の顔検出の枠組における位置が示されている。図3に示されている通り、顔検出の枠組全体において、増分学習は「オフライン訓練の有益な補充」との役割を果たす。オフライン訓練過程に採用されている訓練サンプル(「顔写真」及び「背景写真」)はすべての応用条件をカバーできないため、実際のオンライン検出過程においては、常に検出漏れ及び誤報が出現する。特に一連の特殊な環境条件下において(例えば光線の照射が非常に劣る、顔部に明らかな遮蔽が出現するなどの場合)、オフライン訓練により得られる検出器は往々にして満足のゆく検出精度に到達することはできない。そのため、本明細書では増分学習法が提出されており、末端ユーザがオンライン検出過程で収集した検出漏れ及び誤報を利用し、現在の顔検出器に対して速やかかつ効果的な調整を実施して、特殊な応用環境により良好に適応させるとともに、検出器本来の良好な拡張性能は保有されるため、依然として一般条件下における顔検出問題に用いることは可能である。時間と労力を費やすオフライン学習過程と異なり、検出器の増分学習過程では末端ユーザの非常に少ない計算資源(計算時間及び記憶空間の両方面を含む)を消費する必要があるだけであるため、各種の顔検出プラットホーム及び設備上に広範に応用可能である。
注意すべきは、本明細書では顔の検出を例として本発明における特定被写体検出方法及び検出装置について説明しているが、本発明で言及される特定被写体には顔以外の事物、例えば自動車、特定の動物などとすることもできる点である。
図4には本発明に基づく1つの実施例における特定被写体検出装置10の機能ブロック図が示されている。図4に示されている通り、本発明に基づく1つの実施例の特定被写体検出装置(以下においては、理解の便宜を図るため、顔検出装置とも称する)10には、前記特定被写体検出装置が検出モードと学習モードとの間で互いに切り換わるように、前記特定被写体検出装置のモードのモード状態を切り換えるための切換ユニット(切換装置)11と、前記切換ユニット11が前記特定被写体検出装置10のモード状態を検出モードに切り換える際に検出対象画像を入力し、前記切換ユニット11が前記特定被写体検出装置10のモード状態を学習モードに切り換える際に増分学習用のデータ、つまり増分学習サンプルを入力する(その際、当該入力ユニットは増分サンプル入力ユニットとも称される)入力ユニット12と、各々が、前記画像を弱分類するための1つまたはそれよりも多い弱分類ユニット18を含み、前記画像を強分類するための1つまたはそれよりも多い強分類ユニット14と、前記弱分類器18が使用する弱分類テンプレート及び/または前記強分類器14が使用する強分類テンプレートを記憶する記憶ユニット15と、前記強分類ユニットの分類結果に基づき、前記画像が前記特定被写体を含んでいるか否かを判断する判断ユニット16と、前記切換ユニット11が前記特定被写体検出装置10のモード状態を学習モードに切り換える際に、前記増分サンプル入力ユニット12により入力された増分学習サンプルに基づき、前記記憶ユニットが記憶する前記テンプレートを更新する学
習ユニット13とが含まれる。簡潔を期するため、図内には強分類器だけが示されている。
注意すべきは、図4で示されているブロック図において、学習ユニットは検出装置(検出器)10内に、検出装置の1つのモジュールとして組み込まれている点であるが、別の実施例において、学習ユニットは検出装置10のその他のモジュールと分離することも可能である。この場合には、学習モジュールを検出装置10と接続する際に、増分学習を実施する。その際には、切換ユニット11を省略することが可能である。
また、本明細書において、前後の文章に基づき、「検出対象画像」とは、識別対象の画像全体を指すことができ、検出器により前処理(例えばウィンドウ処理など)が施された後の弱分類器により処理すべき画像または画像ブロックを指すこともできる。
本発明において、増分学習サンプルはユーザが収集した少量の検出漏れ及び誤報である。これらの検出漏れ及び誤報は当該検出装置自身からとすることができ、当該検出装置と同一のその他の検出装置からとすることもできる。前記検出漏れ及び誤報が当該検出装置自身からである場合、前記増分サンプル入力ユニットは、当該検出装置の運転中において検出漏れまたは誤報した画像を記録するための記録ユニットを含むことができる。前記検出漏れ及び誤報がその他の検出装置である場合、当該検出装置はネットワーク(例えばインターネット、内部ネットワーク、ローカルエリアネットワークなど)を介してこれらのデータを受信するか、または磁気ディスク、CD、VCD、DVD、フラッシュメモリなどのメディアを介してそれらの検出漏れまたは誤報を受信することができ、この場合、前記増分サンプル入力ユニットは、前記その他の検出装置の運転中において検出漏れまたは誤報した画像を受信するための受信ユニットを含むことができる。明らかに、入力ユニットは前記登録ユニット及び受信ユニットの両者とすることができる。
本発明において、前記1つまたはそれよりも多い強分類ユニットはウォーターフォールモードで接続することができ、ベクトルツリーモードで接続することもできる。図5には強分類器ユニットのウォーターフォールモード接続及びベクトルツリーモード接続の見取図が示されている。そのため、前後の文章に基づくと、強分類ユニットに対する更新、訓練は、おそらく当該強分類ユニットを構成する弱分類ユニットに対する更新、訓練でもあることを指す。また、前後の文章に基づくと、強分類ユニットに対する描写は弱分類ユニットに対する描写でもある。このような前後の文章において、このような描写は当業者の混乱または誤解は引き起こさない。
図6には弱分類器ユニット18の機能ブロック図が示されている。図6に示されている通り、前記弱分類ユニット18には、入力されたサンプルを実例空間における一連の互いに交わらないサブ区間のうちの1つに区分するためのサブ区間判定ユニット181と、前記サブ区間判定ユニットの判定結果に基づき、サブ区間弱分類テンプレートに応じて前記サンプルに対して弱分類を実施する弱分類確定ユニット182とが含まれる。前記サブ区間判定ユニット181には、特徴抽出ユニット1811及び空間マッピング部1812が含まれる。好適には、特徴抽出ユニット1811は入力された対象の粗密粒度の特徴を抽出し、当然ながらその他の特徴も抽出する。空間マッピング部1812は区分線形関数を利用して前記特徴抽出ユニット1811により抽出された特徴に基づき前記入力された対象を実例空間に区分された若干の互いに交わらないサブ空間にマッピングする。当然ながら区分線形関数を採用せず、その他の関数を採用することもでき、本実施例においては、領域分割の弱分類器の要求を満足するだけでよい。つまり、本発明において、上記の粗密粒度の特徴を区分線形関数に結合しているのは1つの例に過ぎない。弱分類確定ユニット182はサブ区間弱分類テンプレートを利用してサブ区間判定ユニット181の判定結果に基づき前記入力された対象を弱分類するために用いる。後ほど、弱分類器の操作につい
てより詳細に記述する。
前記記憶ユニット15は前記サブ区間弱分類テンプレートを記憶し、前記学習ユニット13は前記入力ユニット12により入力された増分学習サンプルに基づき、前記記憶ユニットが記憶する各前記サブ区間弱分類テンプレートを更新する。
本発明において、サブ区間弱分類テンプレートは二次元テーブル(分類表)、関数などとすることができ、当業者が熟知する各種の形式を採用することができ、それを利用して空間マッピング部1812のマッピング結果(サブ区間のインデックス、名称などとすることができる)に基づき検出対象を分類することができるだけでよい。
図7には本発明に基づく1つの実施例における学習ユニットの機能ブロック図が示されている。図7に示されている通り、本発明に基づく1つの実施例の学習ユニット13には、最適化度算出部131、判断ユニット132、最適化パラメータ更新ユニット133、テンプレート更新ユニット134、及び増分学習サンプル集合更新ユニット135が含まれている。最適化度算出部131は入力された増分学習サンプルに基づき最適化パラメータを利用して弱分類テンプレートに対して最適化を実施する最適化度を算出するために用いる。後記の通り、学習ユニットの学習過程は実際には増分学習サンプルに基づき最も適正化された最適化パラメータ(Δc)を取得する過程である。この過程では最適化パラメータを不断に取得するとともに、当該最適化パラメータの適合性を判断する過程である。過程を開始する際には、最初の最適化パラメータ(例えば、Δcを0に設定する)を無作為に設定することができる。当該過程は後述の最速下降法を採用して実現することができ、その他の方法を採用して実現することもできる。最速下降法に代替可能なアルゴリズムは非常に多く、例えばニュートン法、擬似ニュートン法である。最適化度は後述の目標損失関数の傾きとすることができる。最適化パラメータはテンプレートの調整量に対応し、後述のルックアップテーブルの調整量にも対応する。
判断ユニット132は前記最適化度算出部の算出結果に基づき、前記最適化パラメータを利用して前記弱分類テンプレート(例えば、サブ区間弱分類テンプレート)に対して実施する最適化は一定の条件(例えば、前記傾きは所定値を下回っているか否か)を満足しているか否かを判断する。前記判断ユニットが前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化は一定の条件を満足していないと判断すると、前記最適化パラメータ更新ユニット133が前記最適化パラメータを更新する、つまり新たな最適化パラメータを取得する。0.618法などにより組合せ係数を取得し、当該組合せ係数を利用して新たな最適化パラメータを取得することができる。ここにおける0.618法は例に過ぎず、その他の方法を採用することもできる。0.618法は最速下降法と組み合わせて使用する線形探索法として、Fibonacci法、補間法により代替可能である。実際に目標損失関数の分析性が非常に良好であるのは、凸関数であるため、多くの最適化法を共に当該目標関数の最適化に用いることができる。前記判断ユニット132が前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化は前記条件を満足していると判断すると、前記テンプレート更新ユニット134が前記弱分類テンプレートを更新する。同時に、前記学習ユニット13は、前記判断ユニットが前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化は一定の条件を満足していると判断すると、前記増分学習サンプルにより構成される集合中の増分学習サンプルを減少させて、新たな前記増分学習サンプルの集合を得て、後記の弱分類器のテンプレートの更新に用いる増分学習サンプル更新ユニット135を更に含む。具体的には、前記増分学習サンプルにおける更新された後の弱分類器のサンプルを破棄する。本明細書の前後の文章において、弱分類テンプレートの更新は時には弱分類器の更新とも称される。
前記弱分類器の弱分類テンプレートの更新が完了すると、学習ユニットの役割は終了する。
図8には本発明に基づく1つの実施例における最適化度算出部131のブロック図が示されている。図8に示されている通り、本発明に基づく最適化度算出部131には、増分学習サンプルの修正係数を確定するための修正係数確定ユニット1311と、前記最適化パラメータを利用して前記サブ区間弱分類テンプレートに対して実施する最適化がもたらす第一目標損失を算出するための第一目標損失算出ユニット1312と、入力された前記増分学習サンプルに基づき、前記最適化パラメータを利用して前記サブ区間弱分類テンプレートに対して実施する最適化がもたらす第二目標損失を算出するための第二目標損失算出ユニット1313と、前記第一目標損失算出ユニット1312が算出した第一目標損失、前記第二目標損失算出ユニット1313が算出した第二目標損失、及び前記修正係数確定ユニット1311が確定した増分サンプルの修正係数に基づき、前記最適化パラメータを利用して前記サブ区間弱分類テンプレートに対して最適化を実施する最適化度を算出する最適化度算出ユニット1314とが含まれる。
第一目標損失は最適化の一般環境処理能力に対する影響を示しており、後記における損失関数のオフライン部分に対応している。第二目標損失は最適化の特定情景処理能力に対する影響を示しており、後記における損失関数のオンライン部分に対応している。後ほどこの両部分の計算についてより詳細に記述する。前記第一目標損失算出ユニットはナイーブ・ベイズ法を採用して前記第一目標損失を算出することができる。後ほど前記第一目標損失算出ユニット1312の第一目標損失に対する計算及び前記第二目標損失算出ユニット1313の第二目標損失に対する計算について詳細に記述する。
図9には本発明に基づく1つの実施例における最適化度算出ユニット1314のブロック図が示されている。図9に示されている通り、本発明に基づく最適化度算出ユニット1314には、第一乗算部13141、第二乗算部13142、加算部13143、及び導出部13144が含まれ、前記第一乗算部13141は1と前記修正係数確定ユニット1311により確定された前記修正係数との差と前記第一目標損失とを互いに乗じるために用い、前記第二乗算部13142は前記修正係数と前記第二目標損失とを互いに乗じるために用い、前記加算部13143は前記第一乗算部の乗算結果と前記第二乗算部の乗算結果とを互いに加算するために用い、前記導出部13144は前記加算部の加算結果に対して導出を実施するために用いる。後ほど式2及び式30を結合して修正係数について詳細に説明する。
図10には本発明に基づく別の実施例における最適化度算出ユニット1314のブロック図が示されている。図10に示されている通り、本発明に基づく最適化度算出ユニット1313には、第一乗算部13141、第二乗算部13142、第一導出部13146、第二導出部13147及び加算部13143が含まれ、前記第一乗算部13141は1と前記修正係数との差と前記第一目標損失とを互いに乗じるために用い、前記第二乗算部13142は前記修正係数と前記第二目標損失とを互いに乗じるために用い、前記第一導出部13146は前記第一乗算部13141の乗算結果に対して導出を実施するために用い、前記第二導出部13147は前記第二乗算部13142の乗算結果に対して導出を実施するために用い、前記加算部13143は前記第一導出部の導出結果と前記第二導出部の導出結果とを互いに加算するために用いる。
以下においては、領域分割の連続AdaBoostを例として本発明の実施例についてより詳細な解釈並びに説明を実施する。
先ず、本発明における領域分割の連続AdaBoostの増分学習アルゴリズムについ
て紹介する。
AdaBoostアルゴリズムの本質は、加法モデル(additive model)を利用して指数損失に基づく目標関数(以下においては、損失関数とも称する)を徐々に最適化し、最終的にlogistic回帰(logistic regression)の目的に到達することにある。その鍵となる目標関数(損失関数)は式(1)に示されている通りである。
Figure 2010529529

数学的期待に基づき表示される損失関数形式において、実例x及び類別ラベルyは2つのランダム変数(y=+1が正例に対応し、y=−1が反例に対応する)と見なされ、数学的期待はそれらにより構成される結合確率密度p(x,y)に基づく。上記式1において、(x,y)は第iのサンプルを示し、xは実例、yは類別ラベルである。L(F(x))は強分類器F(x)が対応する目標損失関数を示し、w は第iのサンプルの初期重みを示し、p(x,y)は実例及び類別ラベルを2つのランダム変数とする結合確率密度関数を示す。
オンラインサンプル(本発明においては増分学習サンプルに対応する)の導入によりこの結合確率密度関数には一定程度の変化が発生する。正反例サンプルの間で相互に干渉しないことを前提とし、式2に示されている通り、当該変化はそれぞれ2つの類別の尤度(likelihood)に対して線形修正を実施することにより体現することができる。
Figure 2010529529

そのうち、Poff(x|y)及びPon(x|y)はそれぞれオフラインサンプル及びオンラインサンプルに対応する類別yの尤度関数であり、αは類別yに対する線形修正係数である。この修正過程は図11により示すことができる。図11にはオンラインサンプルに基づき修正される各類別の尤度関数が示されている。
当該修正後の尤度関数に基づくと、AdaBoostアルゴリズムの損失関数(式1)は以下の通りとなる。
Figure 2010529529

そのうち、
Figure 2010529529

は、それぞれ類別yのオフラインサンプル及びオンラインサンプル上における損失関数を示す。この場合、4つの部分の損失関数(オフライン/オンライン、正例/反例)は2つの類別の先験確率P(y)及び修正係数αにより線形組合せが実施されて、オンラインサンプルに導入された後のAdaBoostアルゴリズムの混合目標損失関数(hybrid objective loss fuction)が得られる。そのため、AdaBoostアルゴリズムの枠組下において、増分学習アルゴリズムのテーマは、既存の強分類器F(x)に対してどのように適当な調整を実施し、更新後の確率分布状況(式2)下においてできるだけ小さい損失値を取得するかである。言い換えると、AdaBoostアルゴリズムを基礎とする増分学習過程は式3に示されている損失関数に対して最適化を実施する過程である。
増分学習アルゴリズムの最適化過程には、主に以下の3つの面の問題がある。
先ず、学習機器(learning machine)として、強分類器F(x)には大量の調整可能なパラメータが含まれる。そのうちどのパラメータが増分学習過程における調整に適合しているのか、どのパラメータはオフライン学習時に確定されて改変不能であるのか、これは最適化アルゴリズムがまず直面しなければならない問題である。選択を誤った最適化対象はおそらく最適化アルゴリズムの複雑度の程度を大幅に高めることになる。
次に、オンライン訓練サンプルが提供されているため、増分学習アルゴリズムは非常に簡単に式5内の数学的期待値を重み付き和分に転化させて混合目標損失関数(式3)中のオンライン部分を計算することができる。しかし、オンライン学習に類似し、増分学習も使用済みの訓練データは保存していない。従って、オフライン訓練サンプルは増分学習過程について述べると使用不可である。そのため、どのようにして混合目標損失関数中のオフライン部分(つまり式4)に対して有効な計算を実施するのかが増分学習アルゴリズムの鍵を握る問題となり、アルゴリズム全体の主な難点でもある。
最後に、混合目標損失関数はオフライン及びオンラインの2つの部分から線形修正係数αを組み合わせることにより得られる。実質上、係数αの採用値の大きさが増分学習アルゴリズムの最適化過程におけるオフラインサンプル及びオンラインサンプルに対する着目の程度を決定する。係数αを調整することにより、増分学習後に得られる強分類器の一般環境(オフラインサンプルにより描写)及び特殊状況(オンラインサンプルにより描写)に対する着目の程度を評価することができる。従って、どのようにして適当な修正係数を組み合わせるかも増分学習が回避できない問題である。
以下においては、先ず方向性の問題から着手し、領域分割の連続AdaBoostアルゴリズムの分類予測の流れを分析することにより、増分学習過程における強分類器内の調整可能なパラメータを確定し、次いで、ナイーブ・ベイズ法と同一の戦略を採用して、混合目標損失関数中のオフライン部分に対して合理的な近似を実施し、その後、混合目標損失関数におけるオンライン部分の計算方法、及び増分学習過程の混合目標損失関数をどのようにして最適化するのかについて簡単に紹介し、最後に、線形修正係数αの自己適応調整方法を提出する。
その他の伝統的なBoostingアルゴリズムはどのようにして適当な弱分類器の組合せ係数を選択するのかに着目しているのとは異なり、弱分類器が任意の大きさの実数を出力して分類予測結果に対する信頼度を示すことが許容されているため、R.E.Schapire及びY.Singerにより提出されている領域分割の連続AdaBoostアルゴリズム中には式として明記されている弱分類器の組合せ係数選択過程はなく、弱分類器の訓練過程に組み入れられている。簡単に述べると、領域分割の弱分類器の設計理念は、弱分類器f(x)に領域分割関数r(x)の助けにより、サンプルが属する実例空間
X(instance space)を一連の互いに交わらないサブ区間{X,…,Xn}に区分させるとともに、第zのサブ空間に入るすべての実例に対して同一の弱分類予測結果cを出力するというものであり、つまり以下の通りである。
Figure 2010529529

この弱分類予測過程において、zは実例xの領域分割関数r(x)下における観測結果(observation)と見なすことができる。ルックアップテーブル関数(look−up−table function)を用いると、s(z)は観測量zから予測結果cまでのマッピング関係を示すため、弱分類器f(x)は以下の通り表示することが可能となる。
Figure 2010529529

強分類器
Figure 2010529529
が実例xに対して実施する分類予測は、例えば図12に示されている流れとして表示することができる。
そのうち、観測結果z,…,zはそれぞれ異なる弱分類器に属する。それらを1つに組み合わせると、当該強分類器の予測過程における実例xに対する観測ベクトル
Figure 2010529529
が構成され、そのうちZはこのベクトルが属するT次元観測空間(observation space)を示している。これらの異なる弱分類器に属する観測量からそれぞれ対応するルックアップテーブルにより算出される弱予測結果が累算されると、強分類器F(x)の実例xに対する予測の最終結果y´∈Y⊆Rが得られ、そのうち、Yは強分類器の予測空間(prediction space)を示している。この最終的な予測結果の符号は強分類器による当該実例が属する類別に対する判定を示しており、その絶対値の大きさは強分類器のこの類別に対する判定結果の信頼の程度を示している。このような方式により、強分類器F(x)は入力としての実例xと出力としての予測結果y´との間にある種の有効なマッピング関係を構築する。観測空間Zの導入は、強分類器の予測の流れF(x):X→Yを2つの異なる段階:R(x):X→Z及びS(z):Z→Yに分割する。そのうち前者は結合領域分割関数(joint domain−partitioning function)であり、
Figure 2010529529

それは実例空間Xから観測空間Zへの変換を達成している。後者は集約ルックアップテーブル関数(aggregated look−up−table function)であり、
Figure 2010529529

それは観測ベクトルzに基づき強分類器の予測結果の計算を実施する。そのうち
Figure 2010529529

は、第iの弱分類器内のルックアップテーブル関数の第zのサブ区間に対する定数予測結果である(前記式6参照)。結合領域分割関数R(x)、集約ルックアップテーブル関数S(z)と強分類器F(x)との間の関係、及び実例空間X、観測空間Zと予測空間Yとの間の関係は、図13により明確に表示することができる。
結合領域分割関数R(x)は強分類器中における各々の弱分類器の実例空間Xに対する区分方式を決定する。オフライン学習過程においては、適当な区分方式を確定するため、訓練アルゴリズムはある種の区分性判別準則−例えばKL発散やBhattacharyya距離など−の助けにより各類別の実例空間X内における分布状況について細緻な非パラメータ化分析を実施しなければならない。これは大量の訓練サンプルがあってはじめて完成する作業であるが、増分学習過程はこの条件を備えていない。少量のオンライン訓練サンプルを有するだけであるため、増分学習アルゴリズムはR(x)を改変して大きな程度で混合目標損失関数に影響を及ぼすオフライン部分(式4)を効果的に予測することができない。これは強分類器F(x)にとっては、R(x)中のパラメータに対して一連の微小な調整を実施するだけであれば、オフライン訓練サンプルに代表される一般環境を処理する際に、想定外の重大な結果を招く可能性があることを意味している。そのため、本発明者らが提出する増分学習アルゴリズムではどのようにして少量のオンライン訓練サンプルに基づき集約ルックアップテーブル関数S(z)を適当に調整することのみに着目しており、結合領域分割関数R(x)はサンプルが充足するオフライン学習過程において一回性で確定し、かつ、増分学習過程においては改変しない。
本明細書の特定被写体(例えば、顔)の検出アルゴリズムにおいて、弱分類器は粗密粒度特徴により入力としての高次元実例を一次元特徴空間にマッピングした後、区分線形関数に基づきそれを等間隔に区分するとともに、それにより最終的な分類予測結果を算出する。この種の方法は正にR.E.Schapire及びY.Singerにより提出されている領域分割の弱分類器概念の具体的な実現形式である。オフライン訓練過程において、強分類器の結合領域分割関数R(x)は各々の弱分類器の粗密粒度特徴と区分線形関数の上下境界及びサブ区間の数量により確定され、集約ルックアップテーブル関数S(z)は各々のサブ区間内に位置する正例及び反例サンプルの重み分布状況に基づく計算により得られる。
S(z)は各々の弱分類器のルックアップテーブルの出力結果をパラメータとするため(式9参照)、それはS(z:c)と表示することもできる。そのうちc=(c11,c12,…,c21,…,cT1,…)であり、すべてルックアップテーブルの出力結果により構成されるパラメータベクトルである。その場合、増分学習アルゴリズムの役割は、実際上、オフライン訓練により確定される集約ルックアップテーブル関数S(z:c)を基礎として、適当なパラメータ調整量Δcを探索し、パラメータ更新後の強分類器F(x)=S(R(x):c+Δc)を最適化可能とさせるとともに、オフライン及びオンラインサンプルのAdaBoostアルゴリズムの混合目標損失関数(式3)を考慮することである。
混合目標損失関数におけるオフライン部分の近似計算
以下においては、第一目標損失算出ユニット1312の計算に対応するように、混合目標損失関数におけるオフライン部分の近似計算について紹介する。
結合領域分割関数R(x)は実例空間Xから観測空間Zへのマッピング関係を唯一確定するため(図13参照)、R(x)が与えられることを前提として、増分学習アルゴリズムは混合目標損失関数におけるオフライン部分(式4)の計算を実例空間Xから観測空間Z中に、以下の通り変換することができ、
Figure 2010529529

そのうち
Figure 2010529529

は、類別yの観測空間Zにおける尤度関数である。
定義式9に基づくと、パラメータ更新後の集約ルックアップテーブル関数は実際には以下の通り2つの部分の和である。
Figure 2010529529

そのため、混合目標損失関数におけるオフライン部分(式11)は以下のようにも表示することができる。
Figure 2010529529

そのうち、L(Poff(x|y):c)及びL(Poff(x|y):c+Δc)はそれぞれ更新前後の強分類器の混合目標損失関数におけるオフライン部分に対応する略記形式であり(完全な形式はそれぞれL(Poff(x|y),S(R(x):c))及びL(Poff(x|y),S(R(x):c+Δc))、
Figure 2010529529

は、更新前の集約ルックアップテーブル関数S(z:c)に基づく指数損失の重み付け後の、類別yの観測空間Zにおける尤度関数である。
Figure 2010529529
であるため、それは依然として確率分布である。
明らかに、混合目標損失関数のオフライン部分の計算過程において、どのようにしてこの重み付き尤度関数
Figure 2010529529
を取得するのかが鍵を握る問題となる。しかし、増分学習過程においては何らのオフライン訓練サンプルも保存されないため、当該アルゴリズムはサンプリング和分方式によりこの重み付き尤度関数をシミュレートすることはできない。同時に、オフライン訓練過程において記録されているこの尤度関数の分布状況もおそらくは不利であるため、弱分類器の数量の増加に伴い、記録に必要とされる記憶空間は指数級数的な増加傾向を呈することになる。そのため、本発明者らは増分学習アルゴリズムにおいて、以下の通り、各観測量上の周辺分布の積を採用して当該重み付き尤度関数を近似させるように提起している。
Figure 2010529529

そのうち、
Figure 2010529529

は、重み付き尤度関数
Figure 2010529529
の観測量z上における周縁確率密度関数である。
この種の近似方程式は実際上はナイーブ・ベイズ法である。それは増分学習アルゴリズムが記録した結合確率密度関数の各観測量上における周辺分布状況だけを必要としている。そのため、弱分類器の数量(つまり観測量の数量)の増加に伴う重み付き尤度関数を記録する記憶空間の増加速度は、元来の指数級数レベルから線形級数レベルに低下する。この種の近似方法を式16に示されている混合目標損失関数のオフライン部分(式14)の計算過程中に応用すると、集約ルックアップテーブル関数S(z:c)の線形性質に基づき(式9参照)、以下の通りとなる。
Figure 2010529529

そのうち、
Figure 2010529529
は、混合目標損失関数のオフライン部分の近似結果を示しており、
Figure 2010529529

は、観測量z上の重み付き周辺尤度関数
Figure 2010529529
がパラメータ調整量Δcの導入により被った指数損失を示している。このように、求積及び和分の前後順を調整すると、前記で紹介した記憶空間の複雑度と同様に、混合目標損失関数のオフライン部分の計算時間の複雑度も指数級数レベルから線形級数レベルに低下する。
ここで指摘すべきは、Δc=0、つまり集約ルックアップテーブル関数のパラメータに何らの調整も施さないと、M=1,i=1,…,Tとなる点である。そのため、以下の通りとなる。
Figure 2010529529

このようであるばかりではなく、Δcのうちのいずれか1つのパラメータΔcpq(つまり第pのルックアップテーブル関数が第qのサブ区間に出力する予測結果)に対して偏導関数を計算すると、式6−14に基づき、以下の通りとなり、
Figure 2010529529

式18に基づき、以下の通りとなる。
Figure 2010529529

Δc=0の場合は、式21及び式22に基づき、更に以下の通りとなる。
Figure 2010529529

従って、この2つの混合目標損失関数はΔc=0の場合には、同一の関数値を有するばかりではなく(式20)、その傾きも完全に同一である(式23)。従って、テイラー展開の角度から述べると、周辺分布関数を採用して計算された
Figure 2010529529
は、
Figure 2010529529
があまり大きくないとの条件下において、結合分布関数を採用して計算された
Figure 2010529529
の合理的な近似である。
ここまでですでに証明されている通り、周辺分布関数の積を採用して結合分布関数に近似させるこの種の方法は、混合目標損失関数におけるオフライン部分の計算過程の空間的複雑度及び時間的複雑度を指数級数レベルから線形級数レベルに低下させて、アルゴリズムを実際問題の解決に用いることが可能とさせるばかりではなく、パラメータ調整量Δcの変化が大きくないとの条件下で、近似計算の結果が十分な精度を有することを確保することも可能である。
この種の近似計算における鍵を握る部分として、式17に示されているオフライン重み付き周辺分布関数
Figure 2010529529
は、増分学習前−つまりオフライン学習過程において−オフラインサンプルの各観測量上における分布に対して統計を取ることにより得られる。その計算過程は以下に示されている通りである。
Figure 2010529529

そのうち、N offは類別yのオフラインサンプル数であり、
Figure 2010529529
混合目標損失関数におけるオンライン部分の正確な計算
現在、すでにどのようにして増分学習アルゴリズム中にナイーブ・ベイズ法を採用して混合目標損失関数におけるオフライン部分を近似計算するのかについては紹介済みである。そのオンライン部分の計算(式5)、つまり第二目標損失算出ユニット1313に対応する計算については、オンライン訓練サンプルによりそれが対応する結合分布関数をシミュレートすることが可能であるため、以下の通りとなる。
Figure 2010529529

そのうち、N onは類別yのオンライン訓練サンプル数であり、Δci,ri(xk)は第kのサンプルの第iの弱分類器ルックアップテーブル関数における対応するサブ区間予測出力の調整量であり、
Figure 2010529529

は、類別yにおける第kのオンラインサンプルの増分学習過程における対応する初期重みである。それは実質的にはオフライン学習に基づき得られる強分類器の出力S(R(x):c)に対して調整を実施して得られる。この重みの含意は従来からのBoostingアルゴリズムと同様であり、体現しているのはいずれも現在の強分類器の当該サンプルに対する区分エラーの程度である。
この混合目標損失関数のオンライン部分の任意のパラメータ調整量Δcpqに対する偏導関数は以下の通りである。
Figure 2010529529
混合目標損失関数の最適化方法
現在、本発明者らは増分学習過程における混合目標損失関数(式3)のオフライン部分及びオンライン部分に対してそれぞれ近似的及び正確な計算方法を提出済みである。増分学習過程において実際に直面する最適化問題を解決するため、以下に示されている近似形式を採用して異なるパラメータ調整量Δcに対応する混合目標損失関数値を計算するように提起する。
Figure 2010529529

それと正確な結果L(p(x,y),c+Δc)との唯一の違いは、オフライン部分がナイーブ・ベイズ法により近似計算されている点である。前記ですでに証明されている通り、テイラー展開の角度から述べると、
Figure 2010529529
が大きくないとの条件下において、この近似方法は十分な精度を有している。従って、式28は増分学習過程における混合目標損失関数に対する合理的な近似である。
式28は増分学習過程における混合目標損失関数である。式25はそのうちオンラインの部分であり、式18はそのうちオフラインの部分である。注意すべきは、式18においては、ナイーブ・ベイズ法を採用してオフライン部分の目標損失関数に対して合理的な近似を実施している点である。そのため、式28において、
Figure 2010529529
は正確な目標損失関数であり、
Figure 2010529529
はこの種のオフライン近似法を採用した近似目標損失関数である。当然ながら前記の通り、オフライン部分の目標損失関数を正確に計算することは可能であるが、その場合には計算負担が増大する。
式27に示されている近似混合目標損失関数はパラメータΔcに対しては凸関数であることを証明することは困難ではない。この点については、最速下降法を採用して、式22及び式26中の偏導関数に基づき、近似混合目標損失関数の傾きを計算し、更に0.618法を結合して傾き方向上の線形探索を実施することが可能である。最終的には若干回数の逐次代入の後にその最適化結果が得られる(式29参照)。つまり、Δcはルックアップテーブルのある調整量を代表しており、Δcはすべての調整量中で目標損失関数を最適化可能な調整量である。
Figure 2010529529

ここにおいて、argminが示しているのはすべての引き数(ここではΔc)の採用値範囲内で関数
Figure 2010529529
を最小化可能な値であり、つまり
Figure 2010529529
はすべての可能な目標損失関数値における最小の1つである。
増分学習の結果は更新後の強分類器F(x)=S(R(x),c+Δc)である。特に指摘すべきは、従来のオンラインBoostingアルゴリズムの各々の弱分類器に対する調整過程はシーケンシャルな過程(sequential process)であり、調整後に得られる強分類器は逐次最適化の結果(stage−wise optimization)であるが、本明細書で提出されている増分学習アルゴリズムはすべての弱分類器の調整過程についてパラレルに同期可能であり(parallel process)、調整後に得られる強分類器は全面的な最適化の結果(global optimization)である点である。
修正係数α の自己適応選択方法
式2に基づくと、各オフラインサンプル及び各オンラインサンプルの修正尤度関数に対する貢献はそれぞれ(1−α)/N off及びα/N onであることを発見することは困難ではない。そのうち、N off及びN onはそれぞれ類別yのオフラインサンプル数及びオンラインサンプル数を示している。ここで以下の通り定義可能な
Figure 2010529529

は、類別yのオンラインサンプル増強比率(reinforce ratio of online samples)であり、各オンラインサンプルの尤度関数に対する貢献は数個のオフラインサンプルに相当していることを示している。
実際の応用において、通常、オンラインサンプルはユーザの手作業の標定により徐々に累積されるため、増分学習過程において、オンラインサンプルの数量は常に非常に大きく変化する。その場合、サンプルの数量状況を考慮せずに修正係数αの大きさを直接指定すると、式30に基づく、平均での各オンラインサンプルの尤度関数に対する貢献−つまりオンラインサンプルの増強比率λ−には激烈な変動が発生する。より合理的な方式は、増分学習過程において、安定したオンラインサンプル増強比率λを保持すべきであるというものである。このような場合には、修正係数αがオンラインサンプル数Non の変化に基づき相応の調整を施す。オンラインサンプルが多いほど、増分学習の最適化過程の混合目標損失関数におけるオンライン部分に対する着目の程度も高くなり、逆もまた然りである。事実上、この種の自己適応のパラメータ選択方法の中心概念は、各オンラインサンプルが発揮する作用がオンラインサンプル総数の変化の影響を受けない点にある。言い換えると、この種のアルゴリズムでは、各オンラインサンプルの損失の目標損失関数における重み付き係数α/N onとオフラインサンプルの損失の目標損失関数における重み付き係数(1−α)/N offとの比較値を不変に保持させなければならない(式30参照)。当該作業は修正係数確定ユニット1311により達成可能である。
以上においては連続AdaBoostに基づくアルゴリズムの増分学習装置及び増分学習法について紹介した。本発明は領域分割のVector Boostingに基づくアルゴリズムの増分学習装置及び増分学習法にも応用可能である。事実上、連続AdaBoostに基づくアルゴリズムと領域分割のVector Boostingに基づくアルゴリズムには本質的な違いはない。前記のR(x)、S(z)の概念は依然として不変であり、S(z)の出力だけがスカラー量からベクトル量となる。
Vector Boostingアルゴリズムは連続AdaBoostアルゴリズムを基礎とする多類別分類アルゴリズムである。両者は同様に指数損失関数に基づき訓練サンプルが分類エラーされる重大さの程度を計測し、また両者は同様に加法モデルを採用して目標損失関数を最適化する。両者の間の最も主要な違いは、連続AdaBoostアルゴリズムが処理するのは二分類問題であり、分類器の出力はスカラー量の予測結果F(x)であり、訓練サンプル(x,y)の分類境界(margin)はyF(x)であるが、Vector Boostingアルゴリズムが処理すべきはより複雑な多類別分類問題であり、分類器の出力はベクトル化された予測結果F(x)であり、訓練サンプル
Figure 2010529529
の分類境界は
Figure 2010529529
と定義され、その本質投影ベクトル量
Figure 2010529529
と予測結果F(x)との同時座標空間内におけるスカラー積である点にある。しかし、領域分割の弱分類器を採用とするとの前提の下、Vector Boostingアルゴリズムに対応する増分学習アルゴリズムは連続AdaBoostアルゴリズムと本質的な差異はない。その理由は以下の通りである。
Vector Boostingアルゴリズムの枠組下において、増分学習過程の混合目標損失関数は以下の通りである。
Figure 2010529529

そのうち、
Figure 2010529529

である。
連続AdaBoostアルゴリズムに対応する式3、式4及び式5と比べ、主な違いは、元の類別属性を示すための二値化ランダムスカラー量yが多値化されたランダムベクトル量
Figure 2010529529
となっており、分類境界の表示方式もyF(x)から相応に
Figure 2010529529
となっている点にある。但し、これらの変化は本明細書における強分類器観測空間Zに対する分析及び把握には影響を及ぼさない。そのため、Vector Boostingアルゴリズムの枠組下においては、同様にオフライン訓練過程により結合分割関数R(x)が確定され、増分学習過程はどのようにしてベクトル化出力の集約ルックアップテーブル関数S(z)を調整するのかのみに着目する。
前記の方法と同様に、Vector Boostingアルゴリズムの枠組下において、増分学習アルゴリズムは依然としてナイーブ・ベイズ法を採用して混合目標損失関数のオフライン部分を近似計算することができ(式32)、その結果は以下に示されている通りである。
Figure 2010529529

そのうち、Δci,ziが示しているのは第iの弱分類器における第zのサブ区間の出力結果の変化量である。注意すべきは、その際のルックアップテーブルにおける要素はベクトル量であり、スカラー量ではない点である。その他、式34は連続AdaBoostアルゴリズムの対応する式18とほぼ完全に同一である。混合目標損失関数のオンライン部分(式33)も同様に式25と極めて類似した形式で表示することができる。
Figure 2010529529

ここで、Vector Boostingアルゴリズムに対応する増分学習過程には前記と同様の傾き下降法を採用することができ、式31に示されている混合目標損失関数に対して逐次最適化操作を実施して、最終的にオンラインサンプルの調整に基づき得られる強分類器F(x)=S(R(x):c+Δc)を取得する。
以下においては、本発明における検出器の増分学習アルゴリズムについて紹介する。
図14には本発明に基づく実施例の増分学習法の流れ図が示されている。図14に示されている通り、それには次のステップが含まれる。先ず、ステップ101において、適当な増強比率(当該増強比率は10〜100の間とすることができる)、既存検出器の各層強分類器の分類器テンプレート、オンラインサンプルの集合を入力する。ここで、各層強分類器の分類器テンプレート、つまり各強分類器が含む弱分類器のテンプレートは、本発明において具体的には、各弱分類器のサブ区間分類テンプレートである。また、ここでの入力は広義に理解すべきであり、ネットワーク上から受信、記憶媒体から取得、手作業での入力など各種の形式を指すことができる。その後、ステップ102において、初期化を実施し、初期最適化パラメータ(テンプレート調整量)を設定する。例えばそれをゼロに設定する。ステップ103においては、入力された増分学習サンプルに基づき、前記初期最適化パラメータを利用して実施する最適化の最適化度を取得する。本実施例において、前記最適化度とは混合目標関数の傾きを指している。
図15には最適化度を算出する1つの実施例の流れ図が示されている。図15に示されている通り、前記最適化度の算出は、修正係数確定ステップ201、第一目標損失算出ステップ202、第二目標損失算出ステップ203、最適化度算出ステップ204を含むことができる。
修正係数確定ステップ201は、増分学習サンプルの修正係数を確定するために用い、例えば前記式30に基づき初期化ステップにおいて取得された増強比率を利用して当該修正係数を算出することができる。
第一目標損失算出ステップ202では、前記最適化パラメータを利用して前記サブ区間弱分類器テンプレートに対して実施する最適化によりもたらされる第一目標損失を算出する。
第二目標損失算出ステップ203では、入力された前記増分学習サンプルに基づき、前記最適化パラメータを利用して前記サブ区間弱分類テンプレートに対して実施する最適化によりもたらされる第二目標損失を算出する。
最適化度算出ステップ204では、前記第一目標損失算出ステップ202で算出した第一目標損失、前記第二目標損失算出ステップ203で算出した第二目標損失、及び前記修
正係数確定ステップ201で確定した増分サンプルの修正係数に基づき、前記最適化パラメータを利用して前記弱分類テンプレートに対して最適化を実施する最適化度を算出する。当該ステップ204は、第一乗算ステップ、第二乗算ステップ、第一導出ステップ、第二導出ステップ及び加算ステップを含むことができ、前記第一乗算ステップでは、1と前記修正係数との差と前記第一目標損失とを互いに乗じ、前記第二乗算ステップでは、前記修正係数と前記第二目標損失とを互いに乗じ、前記第一導出ステップでは、前記第一乗算ステップの乗算結果に対して導出を実施し、前記第二導出ステップでは、前記第二乗算ステップの乗算結果に対して導出を実施し、前記加算ステップでは、前記第一導出ステップの導出結果と前記第二導出ステップの導出結果とを互いに加算する。当該最適化度算出ステップ204は第一乗算ステップ、第二乗算ステップ、加算ステップ及び導出ステップを含むこともでき、前記第一乗算ステップでは、1と前記修正係数との差と前記第一目標損失とを互いに乗じ、前記第二乗算ステップでは、前記修正係数と前記第二目標損失とを互いに乗じ、前記加算ステップでは、前記第一乗算ステップの乗算結果と前記第二乗算ステップの乗算結果とを互いに加算し、前記導出ステップでは、前記加算ステップの加算結果に対して導出を実施する。
当業者であれば、本出願の指導の下、上記式を参照すると、上記ステップを完全理解可能であるため、改めて論述はしない。また、当業者であれば、本出願の指導に基づき、上記式に従ってその他の計算方法を創出することも可能であるが、それらはいずれも本発明の範囲内である。
ここで図14に戻ると、ステップ104では、前記最適化度取得ステップ103で取得された算出結果に基づき、前記最適化パラメータは前記弱分類テンプレートに対して最適化を実施する受け入れ可能な最適化パラメータであるか否かを判断する。これは前記算出結果は一定の条件を満足しているか否かを判断することにより実施可能であり、例えば前記最適化パラメータは所定の範囲内であるか否かを判断することであり、例えば所定値を下回っているかである。
ステップ104の判断が肯定である場合には、ステップ105及びステップ106に進み、前記最適化パラメータを利用して前記テンプレートを更新するとともに、増分学習サンプルの集合を更新し、その後、当該弱分類テンプレートに対する処理を終了する。
ステップ104の判断が否定である場合には、ステップ107に進み、最適化パラメータを更新し、その後、ステップ104の判断が肯定となるまで、ステップ103及び104、107の処理を繰り返す。
図16は文字記述方式で示された本発明における増分学習法の流れ図である。図16の流れ図において、解釈すべきは、増分学習サンプルは検出漏れまたは誤報されたサンプルであるため、最適化増分Δcを初期に0と設定すると、混合目標損失関数の傾きは所定の閾値よりも大きくなる点である。また、符号||g||はgのモジュールを示している。
以下においては、連合学習法と比較することにより本発明の利点について説明する。
前記の通り、各種のオンラインBoostingアルゴリズムはいずれも離散AdaBoostを基礎として発展したものであり、それらはいずれも本明細書で採用されている領域分割の弱分類器に基づく連続AdaBoostアルゴリズム(多類別の分類問題を処理する際にはVector Boostingアルゴリズム)には適用することができない。顔検出器のオフライン訓練過程において、領域分割の連続AdaBoostアルゴリズムが示す学習能力は伝統的な離散AdaBoostアルゴリズムよりも明らかに優れている。本発明の利点をより明らかに説明するため、本明細書では連合学習法を増分学習法
の比較対象として採用する。
連合学習(combined learning)とは、オフラインサンプルとオンラインサンプルとを直接1つに併合し、AdaBoostアルゴリズムに基づき強分類器中の各弱分類器に対して順に訓練を再度実施する方法である。本明細書の顔検出アルゴリズムの枠組において、それは増分学習アルゴリズムと同様であり、オンラインサンプルに基づき各類別の尤度関数を修正した後、結合領域子分割関数R(x)を不変に保持するとの前提の下で、集約ルックアップテーブル関数S(z)を調整して混合目標損失関数を最適化する(式3)。しかし、連合学習法ではオフライン訓練過程で使用済みの訓練サンプルをすべて留保する必要があるが、増分学習法では各観測量z上の重み付き周辺分布が記録されるだけである。この本質的な差異により2種類のアルゴリズムは混合目標損失関数のオフライン部分(式4)の計算過程において明らかに異なる方法を採用しており、連合学習は伝統的なオフライン訓練と同様であり、いずれも大量のオフラインサンプルを採用してオフライン部分に対応する尤度関数をシミュレートするが、増分学習はナイーブ・ベイズ法を採用し、各観測量z上の周辺分布の積によりオフライン部分に属する重み付き尤度関数を近似的に推定する。
実験では正面の直立した顔の検出問題を例とし、増分学習アルゴリズム及び連合学習アルゴリズムについて、少量の光線照射条件が非常に劣るオンライン顔訓練サンプルに基づき、オフライン訓練で得られた強分類器の修正状況を検討した。実験に用いたサンプルは下記表1に示されている通りである。本発明者らはFERETデータベース中から20000個の光線照射が均一な正面直立顔サンプルを抽出して、一般状況下における顔検出問題を代表させた。そのうち半分は訓練に用い、残り半分は測定試験に用いた。他方、本発明者らはCMU PIEデータベース中から1425枚の写真を選択するとともに、それらに対して適当な摂動を実施した後に計4275個の正面直立顔サンプルを得た。そのうち200個は訓練用とし、残りの4075個は測定試験用とした。それらの顔画像はいずれも各種の極端な光線条件下で撮影されたものであり、特殊条件下における顔検出問題を代表することが可能である。反例としての非顔訓練サンプルはそれぞれ2つの独立した背景写真データベースから取り出し、その数量は顔サンプル数と一対一で対応している。
表1 オフラインサンプル及びオンラインサンプルの例
(括弧内の斜線の前の数字は訓練サンプル数であり、斜線の後の数字は測定試験サンプル数である)
Figure 2010529529
領域分割の連続AdaBoostアルゴリズムを採用し、オフライン訓練により25の弱分類器により構成される強分類器を得た。この強分類器のオフライン測定試験エラー率(オフライン測定試験サンプル上でのエラー率)は僅か0.37%であったが、オフライン訓練中に各種の極端な光線照射の影響を考慮しなかったため、この強分類器のオンライン測定試験エラー率(オンライン測定試験サンプル上でのエラー率)は6.27%にも達した。各種の特殊な光線照射下における顔検出問題をより効果的に処理するため、増分学習法及び連合学習法をそれぞれ採用し、不断に累積されるオンライン訓練サンプル(0個から徐々に200個まで増加)に基づき、異なるオンラインサンプル増強比率(λ=10、n=0,…,8)により、オフライン学習で得られた強分類器に対して相応の調整
を実施するとともに、図17に示されている通り、そのオフライン測定試験エラー率及びオンライン測定試験エラー率の変化状況を記録した。
図17において、“COM 1EO”はλ=10の連合学習アルゴリズム(combined learning)に対応しており、“INC 1E4”はλ≒10の増分学習アルゴリズム(incremental learning)に対応している。横軸にはアルゴリズムに採用されているオンライン訓練サンプル数が示されており、左側サブ図の縦軸及び右側サブ図の縦軸にはそれぞれ調整後の強分類器のオフライン測定試験エラー率及びオンライン測定試験エラー率が示されている。図17の全体としての傾向をみると、より多くのオンラインサンプルが訓練に関与すればするほど、増分学習法であるか連合学習法であるかに拘わらずいずれも比較的効果的に元来の強分類器のオンライン測定試験エラー率を低減させているとともに、そのオフライン測定試験エラー率も異なる程度で上昇している。実際上、これは2種類の学習アルゴリズムがオフラインサンプルに代表される“一般状況”及びオンラインサンプルに代表される“特殊状況”の間で再度評価した結果であり、過訓練現象ではない。λ=10の増分学習法を例とすると、それは僅か200個のオンライン訓練サンプルにより、強分類器のオンライン測定試験エラー率を6.27%から2.94%まで低減させるが、そのオフライン測定試験エラー率は僅か0.37%から0.77%に上昇する。元来一般問題の処理に用いる検出器により良好に特殊条件下における顔検出問題を処理させるために、この種の程度のエラー率の交換はマイナスではない。
オンラインサンプル増強比率λが増分学習法及び連合学習法において果たす作用について更に研究するため、図17に対して“切片”を実施することにより、同一数量のオンライン訓練サンプルを採用することを前提として、λの採用値がオフライン測定試験エラー率及びオンライン測定試験エラー率に対して及ぼす影響について考察した。実験結果は図18に示されている通りである。
図18の4つのサブ図は、左上から右下にかけて、それぞれオンライン訓練サンプル数が0、10、100及び200である場合の状況を示している。図中の横軸はオンラインサンプル増強比率λを示しており、採用値範囲はλ=10、n=0,…,8である。“COM OFF”は連合学習法のオフライン測定試験エラー率を示しており、“INC ON”は増分学習法のオンライン測定試験エラー率を示している。これらの“切片”結果を観察した場合、オンラインサンプルの増強比率λが増大する−つまりオンラインサンプルの修正係数αが増大すると、増分学習及び連合学習に対して最適化過程において混合目標損失関数のオンライン部分を更に着目させることができるが、この方法ではオンライン測定試験エラー率の低下を確保することはできず、オフライン測定試験エラー率は終始上昇傾向を保持させることになる。この種の現象は連合学習法に特に突出して現れることが判明した。図18の右上に示されているオンライン訓練のサンプル数が僅か10の場合には、λが10まで不断に増大する、つまりαが徐々に1に接近すると(αとλとの間の関係については式30を参照)、連合学習法のオフライン測定試験エラー率及びオンライン測定試験エラー率は共に顕著な上昇傾向を呈する。これは実際には過訓練現象であり、その原因は、オンライン訓練サンプルの数量は非常に少ないが、オンライン部分は混合目標損失関数において主要な地位を占めているからである。
他方、増分学習法の各種の状況下におけるこの種の過訓練現象に対する抑制能力は明らかに連合学習法よりも優れている。この違いが生まれる根本的な原因は2種類の方法が混合目標損失関数のオフライン部分に対して全く異なる計算方式を採用している点にある。連合学習法では混合目標損失関数のオフライン部分を計算する際に、オフライン訓練サンプルにより観測空間内における尤度関数の連合分布状況をシミュレートしなければならない(式12)。通常、観測空間の次元数は非常に高いため(弱分類器の個数と同一)、こ
のサンプリング過程は十分ではない。オンライン部分が主要な地位を占めていると、アルゴリズムは強分類器に対して比較的大きな調整を実施しなければ混合目標損失関数を最適化することができない。その際、連合学習法のサンプリングが不十分であるとの問題が突出し、混合目標損失関数のオフライン部分の計算結果と真実の値との間に極めて大きな誤差を発生させる。増分学習法の場合はナイーブ・ベイズ法を採用しており、尤度関数の各測量上における周辺関数の積によりその連合分布を近似する。これにより増分学習法のサンプリング数量に対する依存性は大幅に低下し、連合学習法のような巨大な誤差には至らない。事実上、図18の実験結果によれば、増分学習法はパラメータλに対してあまり敏感ではなく、相当大きな範囲内でλを任意に変更しても増分学習の結果に対して非常に大きな影響は及ぼさない。そうであるばかりではなく、オフライン測定試験エラー率であるか、オンライン測定試験エラー率であるかに拘わらず、増分学習法は共に連合学習法に遜色ない性能を示し、前者のエラー率はほぼ常に後者のエラー率も低いかまたは少なくとも同等の水準上に保持される。連合学習法を使用する前提はすべてのオフラインサンプルを保存することであることを考慮すると、増分学習法の方が明らかに優勢である。
図18左上のサブ図には更に興味深い現象が示されている。オンライン訓練サンプル数が0の場合、増分学習法のオフライン測定試練エラー率は0.34%であり、オンライン測定試験エラー率は6.18%であり、結局いずれも10000のオフラインサンプルを使用して訓練を実施した連合学習法を下回った(それぞれ0.37%及び6.27%)。実際上、これは2種類の学習方法が異なる最適化戦略を採用しているからである。知るところでは、AdaBoostアルゴリズムは実際には加法モデルを採用して目標損失関数を徐々に最適化する過程である。その他、目標損失関数について述べると、オフラインにより得られる強分類器は全面的には最適化されていない。オンライン訓練サンプル数が0の場合、連合学習法は実際にはオフライン訓練時のAdaBoostアルゴリズムであるため、その学習により得られるのは依然として逐次最適化の結果である。しかし増分学習法は若干異なっている。それは並行化された弱分類器調整戦略により目標損失関数の全面的な最適化の結果を得るため、オフライン学習により得られる強分類器は増分学習法により更に最適化されることが可能である。実際にこれも増分学習法がオフライン及びオンライン測定試練エラー率方面で連合学習法よりも優れているもう1つの理由である。
また、当該増分学習アルゴリズムが検出器に対して効果的に適当な調整を実施することができるか否かを検査するため、3種類の特殊環境下における顔検出問題を選択して独立した測定試験を実施した。そのうちサングラス及びマフラーを着用した正面直立顔写真はARデータベースからで、それぞれ765枚の異なる顔写真であり、顔が一部遮蔽されている場合に属する。逆光の半側面写真はCMU PIEデータベースからで、計340枚の異なる顔写真であり、光線照射条件が極端に不良な場合に属する。測定試験方法では一般の末端ユーザの操作方式に倣い、写真中の顔検出漏れが標定されるごとに、それに対応する若干のサンプルを生成して既存のオンライン訓練サンプルの集合に加え、更に増分学習アルゴリズムにより検出器に対して適当な調整を施した。具体的な実験においては、標定された各顔に適度な摂動を加えるとともに16個のサンプルを生成した。上記の実験ではすでに説明済みである通り、強分類器の増分学習過程はオンラインサンプル増強比率に対して敏感ではない。そのため、直接かつ経験的にλ+1=16を選択した。λ−1については、この実験で採用した写真集合(ARデータベース及びCMU PIEデータベース)の背景は非常に簡単であり、実験においては終始いずれかの検出器の誤報を反例として収集して増分学習を実施することができなかったため、反例のオンラインサンプル増強比率の多少はあまり大した問題ではない。実験の結果は図19に示されている通りであり、左サブ図はARデータベースにおける正面直立顔の2種類の状況(サングラス及びマフラー)に対応しており、右サブ図はCMU PIEデータベースにおける半側面顔の逆光状況に対応している。
いずれのオンラインサンプルも標定していない場合(図内のx軸が0の場合)、オフライン訓練により得られた顔検出器の3つの測定試験集合上における検出率はまったく理想的ではなく、いずれも大量の顔写真が検出漏れとなった。しかし、手作業で15枚(サングラス)、19枚(マフラー)及び8枚(半側面逆光)の検出漏れ顔写真に標注すると、上記検出器の増分学習アルゴリズムによりそれぞれ3つの検出率が100%の顔検出器を得ることができた。これは本発明者らが提出した増分学習アルゴリズムは少量のオンライン訓練サンプルに基づき既存の顔検出器を効果的に調整して、速やかに特殊な応用環境に適応させることができることを意味している。
しかし、これだけでは不十分であり、増分学習後に得られた検出器は依然として一般状況下における顔検出問題を処理する能力を保有していなければならない。そのため、サングラスを着用した正面顔検出問題を例として、増分学習前後における検出器をCMU+MIT正面顔測定試験集合上で比較し、図20に示されているROC曲線の比較結果を得た。
図20において、“OFF”は当該検出器の増分学習前(つまりオフライン訓練の結果)のROC曲線を示しており、“INC”は当該検出器が増分学習によりサングラスを着用した顔の検出率が100%に達した後に(図19の左サブ図参照)、訓練集合と無関係なCMU+MIT正面顔測定試験集合上で取得したROC曲線を示している。CMU+MIT正面顔測定試験集合のような一般状況下の顔検出問題を処理する際、増分学習により得られた顔検出器はオフライン学習により得られた顔検出器よりも若干劣るが、図19における増分学習前後の特殊環境処理時の能力の巨大な差異を考慮すれば、このような微小の程度の退歩は受け入れ可能であることは容易に見出すことができる。
分析を進めるうちに、増分学習後における検出器の精度低下の原因は検出率の下降ではないことが判明した。同様の検出条件下において、増分学習前の検出器に比べ、サングラスを着用した顔サンプルの増分学習後の検出器は写真中からより多くの困難な顔(四角枠は増分学習前の結果であり、丸囲いは増分学習後の結果である)を検出可能である。検出器の精度下降を招く本当の原因は誤報率が増分学習後に上昇したことである。問題の根源は、サングラスを着用した顔サンプルの増分学習過程において、非顔訓練サンプルにまったく配慮されていないことにある。これにより増分学習アルゴリズムは検出器の調整においてそれを特殊な顔サンプルに適応させると同時に、一部のこれらのオンライン訓練サンプルに似た非顔モードを誤って通過させることにもなる。実際には、検出器が発生した誤報を収集して、非顔オンライン訓練サンプルとし、その後、更に検出器に対して増分学習を実施するだけで、検出過程においてこれらの誤報を効果的に排除することができる。図20における“INC+”曲線は正に再度増分学習を実施した後に得られた結果である。この検出器の誤報数はほぼ一貫して0前後に保持されており、増分学習ではサングラスを着用した顔状況を考慮しているため、その検出率はオフライン訓練の結果よりも一部上昇している。従って、この再度増分学習を実施した後に得られる検出器は検出精度面においてオフライン訓練及び第一次増分学習の結果よりも明らかに優れている。
上記をまとめると、本発明の一方の面に基づき、本発明では特定被写体検出装置が提供されており、当該特定被写体検出装置は、検出対象画像を入力するための入力ユニットと、各々が、弱分類テンプレートを使用して前記検出対象画像を弱分類するための1つまたはより多くの弱分類ユニットを含み、前記画像を強分類するための1つまたはより多くの強分類ユニットと、前記弱分類ユニットが使用するテンプレートを記憶する記憶ユニットと、前記強分類ユニットの分類結果に基づき、前記画像が前記特定被写体を含むか否かを判断する判断ユニットとを含み、その特徴は、前記特定被写体検出装置は、増分学習用のデータ、つまり増分学習サンプル、言い換えると、当該種特定被写体検出装置が検出漏れまたは誤報したデータを入力するための増分サンプル入力ユニットと、前記増分サンプル入力ユニットが入力した前記増分学習サンプルに基づき、前記記憶ユニットが記憶する前
記弱分類テンプレートを更新するための学習ユニットとを更に含む点にある。
本発明の別の面に基づくと、本発明では特定被写体検出装置の学習装置が提供されており、前記特定被写体検出装置は、1つまたはより多くの強分類ユニットを含み、前記強分類ユニットは、弱分類テンプレートを利用して入力された画像に対して特定被写体を含むか否かの判断を実施する1つまたはより多くの弱分類ユニットを含み、前記学習装置は、当該種特定被写体検出装置の運転中に検出漏れまたは誤報されたデータである増分学習サンプルを利用して前記弱分類テンプレートを更新し、前記学習装置は、入力された増分学習サンプルに基づき、最適化パラメータを利用して弱分類テンプレートに対して最適化を実施する最適化度を算出するための最適化度算出部と、前記最適化度算出部の算出結果に基づき、前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化は一定の条件を満足しているか否かを判断する判断ユニットと、前記判断ユニットが前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化は一定の条件を満足していないと判断すると、前記最適化パラメータを更新する最適化パラメータ更新ユニットと、前記判断ユニットが前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化は一定の条件を満足していると判断すると、前記弱分類テンプレートを更新するテンプレート更新ユニットとを含む。
好適には、前記弱分類ユニットは、実例空間に対する区分に基づき、入力された前記検出対象画像を互いに交差しない複数のサブ区間中のあるサブ区間に分類するためのサブ区間判定ユニットと、前記サブ区間判定ユニットの判定結果に基づき、サブ区間弱分類テンプレートに応じて、前記検出対象画像が属する分類に対する予測結果を出力する弱分類確定ユニットとを含み、前記記憶ユニットは、前記サブ区間弱分類テンプレートを記憶しており、前記学習ユニットは、前記増分サンプル入力ユニットが入力した増分学習サンプルに基づき、前記記憶ユニットが記憶する各前記サブ区間弱分類テンプレートを更新する。
好適には、前記学習ユニットは、入力された増分学習サンプルに基づき、最適化パラメータを利用して前記サブ区間弱分類テンプレートに対して最適化を実施する最適化度を算出するための最適化度算出部と、前記最適化度算出部の算出結果に基づき、前記最適化パラメータを利用して前記サブ区間弱分類テンプレートに対して実施する最適化は一定の条件を満足しているか否かを判断するための判断ユニットと、前記判断ユニットが前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化は一定の条件を満足していないと判断すると、前記最適化パラメータを更新する最適化パラメータ更新ユニットと、前記判断ユニットが前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化は一定の条件を満足していると判断すると、前記弱分類テンプレートを更新するテンプレート更新ユニットとを含む。
好適には、前記最適化度算出部は、増分学習サンプルの修正係数を確定するための修正係数確定ユニットと、前記最適化パラメータを利用して前記サブ区間弱分類テンプレートに対して実施する最適化がもたらす第一目標損失を算出するための第一目標損失算出ユニットと、入力された前記増分学習サンプルに基づき、前記最適化パラメータを利用して前記サブ区間弱分類テンプレートに対して実施する最適化がもたらす第二目標損失を算出するための第二目標損失算出ユニットと、前記第一目標損失算出ユニットが算出した第一目標損失、前記第二目標損失算出ユニットが算出した第二目標損失、及び前記修正係数確定ユニットが確定した増分サンプルの修正係数に基づき、前記最適化パラメータを利用して前記サブ区間弱分類テンプレートに対して最適化を実施する最適化度を算出する最適化度算出ユニットとを含む。
好適には、前記最適化度算出ユニットは、1と前記修正係数との差と前記第一目標損失とを互いに乗じるための第一乗算部と、前記修正係数と前記第二目標損失とを互いに乗じ
るための第二乗算部と、前記第一乗算部の乗算結果に対して導出を実施するための第一導出部と、前記第二乗算部の乗算結果に対して導出を実施するための第二導出部と、前記第一導出部の導出結果と前記第二導出部の導出結果とを互いに加算するための加算部とを含む。
好適には、前記最適化度算出ユニットは、1と前記修正係数との差と前記第一目標損失とを互いに乗じるための前記第一乗算部と、前記修正係数と前記第二目標損失とを互いに乗じるための第二乗算部と、前記第一乗算部の乗算結果と前記第二乗算部の乗算結果とを互いに加算するための加算部と、前記加算部の加算結果に対して導出を実施するための導出部とを含む。
好適には、前記修正係数確定ユニットは、増分学習サンプルの作用が増分学習サンプル総数の変化の影響を受けないように、オンラインサンプルの数量に基づき前記修正係数を確定する。
好適には、前記学習ユニットは、前記増分学習サンプルにより構成される集合中の増分学習サンプルを減少させて、新たな前記増分学習サンプルの集合を得るための増分学習サンプル更新ユニットを更に含む。
好適には、前記第一目標損失算出ユニットは、ナイーブ・ベイズアルゴリズムを採用して前記第一目標損失を算出する。
好適には、前記最適化パラメータ更新ユニットは、0.618法に基づき前記最適化パラメータを更新する。
好適には、前記サブ区間判定ユニットは、先ず前記検出対象画像の特徴を抽出し、その後、区分関数の等間隔区分方式に基づき、前記検出対象画像を前記実例空間中のあるサブ区間に分類する。
好適には、前記増分学習サンプルは、前記特定被写体検出装置の運転中に検出漏れまたは誤報された画像であり、前記増分サンプル入力ユニットは、前記特定被写体検出装置の運転中に検出漏れまたは誤報された画像を記録するための記録ユニットを含む。
好適には、前記増分学習サンプルは、前記特定被写体検出装置以外の前記特定被写体検出装置と同一のその他の特定被写体検出装置の運転中に検出漏れまたは誤報された画像であり、前記増分サンプル入力ユニットは、前記その他の特定被写体検出装置が運転中に検出漏れまたは誤報した画像を受信するための受信ユニットを含む。
そのうち、前記特定被写体は、人の顔を指す。
そのうち、前記1つまたはそれより多くの強分類ユニットは、ウォーターフォールモードまたはベクトルツリーモードに従って接続される。
好適には、前記特定被写体検出装置が検出モードと学習モードとの間で互いに切り換わるように、前記特定被写体検出装置のモード状態を切り換えるための切換装置を含み、前記増分サンプル入力ユニット及び前記学習ユニットは、前記切換装置が前記特定被写体検出装置を学習モードに切り換えた際に動作する。
本発明の更に別の面に基づくと、本発明では特定被写体検出装置の学習方法が提供されており、前記特定被写体検出装置は、1つまたはより多くの強分類ユニットを含み、前記
強分類ユニットは、弱分類テンプレートを利用して入力された画像に対して特定被写体を含むか否かの判断を実施する1つまたはより多くの弱分類ユニットを含み、前記学習方法は、各弱分類器に対する、当該またはその他の特定被写体検出装置の運転中に検出漏れまたは誤報されたデータである増分学習サンプルを入力する入力ステップと、入力された増分学習サンプルに基づき、最適化パラメータを利用して弱分類テンプレートに対して最適化を実施する最適化度を算出するための最適化度取得ステップと、前記最適化度取得ステップの算出結果に基づき、前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化は一定の条件を満足しているか否かを判断する判断ステップと、前記判断ステップで前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化は一定の条件を満足していないと判断されると、前記最適化パラメータを更新する最適化パラメータ更新ステップと、前記判断ステップで前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化は一定の条件を満足していると判断されると、前記弱分類テンプレートを更新するテンプレート更新ステップとを含む。
好適には、前記最適化度取得ステップは、増分学習サンプルの修正係数を確定するための修正係数確定ステップと、前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化がもたらす第一目標損失を算出するための第一目標損失算出ステップと、入力された前記増分学習サンプルに基づき、前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化がもたらす第二目標損失を算出するための第二目標損失算出ステップと、前記第一目標損失算出ステップで算出した第一目標損失、前記第二目標損失算出ステップで算出した第二目標損失、及び前記修正係数確定ステップで確定した増分サンプルの修正係数に基づき、前記最適化パラメータを利用して前記弱分類テンプレートに対して最適化を実施する最適化度を算出する最適化度算出ステップとを含む。
好適には、前記最適化度算出ステップは、1と前記修正係数との差と前記第一目標損失とを互いに乗じるための第一乗算ステップと、前記修正係数と前記第二目標損失とを互いに乗じるための第二乗算ステップと、前記第一乗算ステップの乗算結果に対して導出を実施するための第一導出ステップと、前記第二乗算ステップの乗算結果に対して導出を実施するための第二導出ステップと、前記第一導出ステップの導出結果と前記第二導出ステップの導出結果とを互いに加算するための加算ステップとを含む。
好適には、前記最適化度算出ステップは、1と前記修正係数との差と前記第一目標損失とを互いに乗じるための前記第一乗算ステップと、前記修正係数と前記第二目標損失とを互いに乗じるための第二乗算ステップと、前記第一乗算ステップの乗算結果と前記第二乗算ステップの乗算結果とを互いに加算するための加算ステップと、前記加算ステップの加算結果に対して導出を実施するための導出ステップとを含む。
好適には、前記修正係数確定ステップは、増分学習サンプルの作用が増分学習サンプル総数の変化の影響を受けないように、オンラインサンプルの数量に基づき前記修正係数を確定する。
好適には、前記学習方法は、前記増分学習サンプルにより構成される集合中の増分学習サンプルを減少させて、新たな前記増分学習サンプルの集合を得るための増分学習サンプル更新ステップを更に含む。
好適には、前記第一目標損失算出ステップは、周辺分布関数法またはナイーブ・ベイズアルゴリズムを採用して前記第一目標損失を算出する。
そのうち、前記弱分類ユニットは、実例空間に対する区分に基づき、入力された前記検
出対象画像を互いに交差しない複数のサブ区間中のあるサブ区間に分類するためのサブ区間判定ユニットと、前記サブ区間判定ユニットの判定結果に基づき、サブ区間弱分類テンプレートに応じて、前記検出対象画像が属する分類に対する予測結果を出力する弱分類確定ユニットとを含み、前記学習方法は、前記増分学習サンプルに基づき、各前記サブ区間弱分類テンプレートを更新する。
好適には、前記最適化パラメータ更新ステップは、0.618法を利用して前記最適化パラメータを更新する。
そのうち、前記増分学習サンプルは、前記特定被写体検出装置の運転中に検出漏れまたは誤報された画像であるか、または前記特定被写体検出装置以外の前記特定被写体検出装置と同一のその他の特定被写体検出装置の運転中に検出漏れまたは誤報された画像である。
そのうち、前記特定被写体は、人の顔を指す。
また、本発明のもう1つ面に基づき、本発明では、コンピュータより実行されると、コンピュータを上記特定被写体検出装置として動作させることが可能なコンピュータプログラムが提供されている。
また、本発明のもう1つの面に基づき、本発明では、コンピュータより実行されると、コンピュータを上記学習装置として動作させることが可能なコンピュータプログラムが提供されている。
また、本発明のもう1つの面に基づき、本発明では、コンピュータより実行されると、コンピュータに上記学習方法を実現させることが可能なコンピュータプログラムが提供されている。
また、本発明のもう1つの面に基づき、本発明では、上記コンピュータを上記特定被写体検出装置として動作させることが可能なコンピュータプログラムを記憶するコンピュータ読取可能な記録媒体が提供されている。
また、本発明のもう1つの面に基づき、本発明では、上記コンピュータを上記学習装置として動作させることが可能なコンピュータプログラムを記憶するコンピュータ読取可能な記録媒体が提供されている。
また、本発明のもう1つの面に基づき、本発明では、上記コンピュータに上記学習方法を実現させることが可能なコンピュータプログラムを記憶するコンピュータ読取可能な記録媒体が提供されている。
前記コンピュータ読取可能な記録媒体は、ソフトディスク、DVD、VCD、CD、磁気ディスク、ハードディスク、Flsah、磁気光ディスクなど当業者に公知のいずれかのコンピュータ読取可能な記録媒体である。
以下においては、本発明を理解するために有益な参考文献を列記する。それを引用して本明細書内に組み入れることにより、本明細書内において完全に説明したことと同様となる。
[1] R. E. Schapire and Y. Singer. Improved Boosting Algorithms Using Confidence-rated Predictions. In: MachineLearning, vol. 37, pp. 297-336, 1999.
[2] V. N. Vapnik. The nature of statistical learning theory. Berlin, Germany:
Springer-Verlag, 1995.
[3] J. Friedman, T. Hastie, and R. Tibshirani. Additive logistic regression: A statistical view of boosting. In: Annals of Statistics, vol. 28, pp. 337-374, 2000.
[4] P. Utgoff, N. Berkman, and J. Clouse. Decision tree induction based on efficient tree restructuring. In: Machine Learning, 29(1), 5-44. 1997.
[5] N. Littlestone. Learning quickly when irrelevant attributes abound: A new linear threshold algorithm. In: Machine Learning, 2, 285-318. 1988.
[6] N. Littlestone, and M. Warmuth. The weighted majority algorithm. In: Information and Computation, 108, 212-261. 1994.
[7] L. Breiman. Pasting small votes for classification in large databases and on-line. In: Machine Learning, 36, 85-103. 1999.
[8] A. Fern and R. Givan. Online ensemble learning: An empirical study. In: Proc. ICML, pp. 151279-286, 2000.
[9] N. Oza and S. Russel. Online bagging and boosting. In: Proc. Artificial Intelligence and Statistics, 2001.
[10] N. Oza. Online ensemble learning. Ph.D. thesis, Universityof California, Berkeley, 2001.
[11] O. Javed, S. Ali, and M. Shah. Online detection and classification of moving objects using progressively improving detectors. In: Proc. CVPR, 2005.
[12] H. Grabner and H. Bischof. Online Boosting and Vision. In: Proc. CVPR, 2006.
[13] R. O. Duda, P. E. Hart, and D. G Stork. Pattern Classification, 3S Second Edition. John Wiley & Sons, Inc. pp 62-64, 2001.
[14] T. Sim, S. Baker, and M. Bsat. The CMU pose, illumination, and expression database. IEEE Trans. PAMI, 25(12), 1615-1618, 2003.

Claims (38)

  1. 検出対象画像を入力するための入力ユニットと、
    各々が、弱分類テンプレートを使用して前記検出対象画像を弱分類するための1つまたはより多くの弱分類ユニットを含み、前記検出対象画像を強分類するための1つまたはより多くの強分類ユニットと、
    前記弱分類ユニットが使用する弱分類テンプレートを記憶する記憶ユニットと、
    前記強分類ユニットの分類結果に基づき、前記検出対象画像が前記特定被写体を含むか否かを判断する判断ユニットと、を含む特定被写体検出装置であり、
    前記特定被写体検出装置は、
    増分学習用のデータ、つまり増分学習サンプル、言い換えると、当該またはその他の特定被写体検出装置が検出漏れまたは誤報したデータを入力するための増分サンプル入力ユニットと、
    前記増分サンプル入力ユニットが入力した前記増分学習サンプルに基づき、前記記憶ユニットが記憶する前記弱分類テンプレートを更新するための学習ユニットと、を更に含むことを特徴とする特定被写体検出装置。
  2. 前記弱分類ユニットは、実例空間に対する区分に基づき、入力された前記検出対象画像を互いに交差しない複数のサブ区間中のあるサブ区間に分類するためのサブ区間判定ユニットと、前記サブ区間判定ユニットの判定結果に基づき、サブ区間弱分類テンプレートに応じて、前記検出対象画像が属する分類に対する予測結果を出力する弱分類確定ユニットとを含み、
    前記記憶ユニットは、前記サブ区間弱分類テンプレートを記憶しており、
    前記学習ユニットは、前記増分サンプル入力ユニットが入力した増分学習サンプルに基づき、前記記憶ユニットが記憶する各前記サブ区間弱分類テンプレートを更新することを特徴とする請求項1記載の特定被写体検出装置。
  3. 前記学習ユニットは、
    入力された増分学習サンプルに基づき、最適化パラメータを利用して前記サブ区間弱分類テンプレートに対して最適化を実施する最適化度を算出するための最適化度算出部と、
    前記最適化度算出部の算出結果に基づき、前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化は一定の条件を満足しているか否かを判断するための判断ユニットと、
    前記判断ユニットが前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化は一定の条件を満足していないと判断すると、前記最適化パラメータを更新する最適化パラメータ更新ユニットと、
    前記判断ユニットが前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化は一定の条件を満足していると判断すると、前記弱分類テンプレートを更新するテンプレート更新ユニットと、を含むことを特徴とする請求項2記載の特定被写体検出装置。
  4. 前記最適化度算出部は、
    増分学習サンプルの修正係数を確定するための修正係数確定ユニットと、
    前記最適化パラメータを利用して前記サブ区間弱分類テンプレートに対して実施する最適化がもたらす第一目標損失を算出するための第一目標損失算出ユニットと、
    入力された前記増分学習サンプルに基づき、前記最適化パラメータを利用して前記サブ区間弱分類テンプレートに対して実施する最適化がもたらす第二目標損失を算出するための第二目標損失算出ユニットと、
    前記第一目標損失算出ユニットが算出した第一目標損失、前記第二目標損失算出ユニットが算出した第二目標損失、及び前記修正係数確定ユニットが確定した増分サンプルの修
    正係数に基づき、前記最適化パラメータを利用して前記弱分類テンプレートに対して最適化を実施する最適化度を算出する最適化度算出ユニットと、を含むことを特徴とする請求項3記載の特定被写体検出装置。
  5. 前記最適化度算出ユニットは、
    1と前記修正係数との差と前記第一目標損失とを互いに乗じるための第一乗算部と、
    前記修正係数と前記第二目標損失とを互いに乗じるための第二乗算部と、
    前記第一乗算部の乗算結果に対して導出を実施するための第一導出部と、
    前記第二乗算部の乗算結果に対して導出を実施するための第二導出部と、
    前記第一導出部の導出結果と前記第二導出部の導出結果とを互いに加算するための加算部と、を含むこととを特徴とする請求項4記載の特定被写体検出装置。
  6. 前記最適化度算出ユニットは、
    1と前記修正係数との差と前記第一目標損失とを互いに乗じるための第一乗算部と、
    前記修正係数と前記第二目標損失とを互いに乗じるための第二乗算部と、
    前記第一乗算部の乗算結果と前記第二乗算部の乗算結果とを互いに加算するための加算部と、
    前記加算部の加算結果に対して導出を実施するための導出部と、を含むことを特徴とする請求項4記載の特定被写体検出装置。
  7. 前記修正係数確定ユニットは、増分学習サンプルの作用が増分学習サンプル総数の変化の影響を受けないように、オンラインサンプルの数量に基づき前記修正係数を確定することを特徴とする請求項4記載の特定被写体検出装置。
  8. 前記学習ユニットは、前記増分学習サンプルにより構成される集合中の増分学習サンプルを減少させて、新たな前記増分学習サンプルの集合を得るための増分学習サンプル更新ユニットを更に含むことを特徴とする請求項3記載の特定被写体検出装置。
  9. 前記第一目標損失算出ユニットは、ナイーブ・ベイズアルゴリズムを採用して前記第一目標損失を算出することを特徴とする請求項4記載の特定被写体検出装置。
  10. 前記最適化パラメータ更新ユニットは、0.618法に基づき前記最適化パラメータを更新することを特徴とする請求項3記載の特定被写体検出装置。
  11. 前記サブ区間判定ユニットは、先ず前記検出対象画像の特徴を抽出し、その後、区分関数の等間隔区分方式に基づき、前記検出対象画像を前記実例空間中のあるサブ区間に分類することを特徴とする請求項2記載の特定被写体検出装置。
  12. 前記増分学習サンプルは、前記特定被写体検出装置の運転中に検出漏れまたは誤報された画像であり、前記増分サンプル入力ユニットは、前記特定被写体検出装置の運転中に検出漏れまたは誤報された画像を記録するための記録ユニットを含むことを特徴とする請求項1〜11のいずれか1項に記載の特定被写体検出装置。
  13. 前記増分学習サンプルは、前記特定被写体検出装置以外の前記特定被写体検出装置と同一のその他の特定被写体検出装置の運転中に検出漏れまたは誤報された画像であり、前記増分サンプル入力ユニットは、前記その他の特定被写体検出装置が運転中に検出漏れまたは誤報した画像を受信するための受信ユニットを含むことを特徴とする請求項1〜11のいずれか1項に記載の特定被写体検出装置。
  14. 前記特定被写体は、人の顔を指すことを特徴とする請求項1〜11のいずれか1項に記
    載の特定被写体検出装置。
  15. 前記1つまたはそれより多くの強分類ユニットは、ウォーターフォールモードまたはベクトルツリーモードに従って接続されることを特徴とする請求項1〜11のいずれか1項に記載の特定被写体検出装置。
  16. 前記特定被写体検出装置が検出モードと学習モードとの間で互いに切り換わるように、前記特定被写体検出装置のモード状態を切り換えるための切換装置を含み、
    前記増分サンプル入力ユニット及び前記学習ユニットは、前記切換装置が前記特定被写体検出装置を学習モードに切り換えた際に動作することを特徴とする請求項1〜11のいずれか1項に記載の特定被写体検出装置。
  17. 1つまたはより多くの強分類ユニットを含み、前記強分類ユニットは、弱分類テンプレートを利用して入力された画像に対して特定被写体を含むか否かの判断を実施する1つまたはより多くの弱分類ユニットを含む特定被写体検出装置の学習装置であり、当該またはその他の特定被写体検出装置の運転中に検出漏れまたは誤報されたデータである増分学習サンプルを利用して前記弱分類テンプレートを更新する特定被写体検出装置の学習装置において、前記学習装置は、
    入力された増分学習サンプルに基づき、最適化パラメータを利用して弱分類テンプレートに対して最適化を実施する最適化度を算出するための最適化度算出部と、
    前記最適化度算出部の算出結果に基づき、前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化は一定の条件を満足しているか否かを判断する判断ユニットと、
    前記判断ユニットが前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化は一定の条件を満足していないと判断すると、前記最適化パラメータを更新する最適化パラメータ更新ユニットと、
    前記判断ユニットが前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化は一定の条件を満足していると判断すると、前記弱分類テンプレートを更新するテンプレート更新ユニットと、を含む、特定被写体検出装置の学習装置。
  18. 前記最適化度算出部は、
    増分学習サンプルの修正係数を確定するための修正係数確定ユニットと、
    前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化がもたらす第一目標損失を算出するための第一目標損失算出ユニットと、
    入力された前記増分学習サンプルに基づき、前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化がもたらす第二目標損失を算出するための第二目標損失算出ユニットと、
    前記第一目標損失算出ユニットが算出した第一目標損失、前記第二目標損失算出ユニットが算出した第二目標損失、及び前記修正係数確定ユニットが確定した増分サンプルの修正係数に基づき、前記最適化パラメータを利用して前記弱分類テンプレートに対して最適化を実施する最適化度を算出する最適化度算出ユニットと、を含むことを特徴とする請求項17記載の学習装置。
  19. 前記最適化度算出ユニットは、
    1と前記修正係数との差と前記第一目標損失とを互いに乗じるための第一乗算部と、
    前記修正係数と前記第二目標損失とを互いに乗じるための第二乗算部と、
    前記第一乗算部の乗算結果に対して導出を実施するための第一導出部と、
    前記第二乗算部の乗算結果に対して導出を実施するための第二導出部と、
    前記第一導出部の導出結果と前記第二導出部の導出結果とを互いに加算するための加算部と、を含むことを特徴とする請求項18記載の学習装置。
  20. 前記最適化度算出ユニットは、
    1と前記修正係数との差と前記第一目標損失とを互いに乗じるための第一乗算部と、
    前記修正係数と前記第二目標損失とを互いに乗じるための第二乗算部と、
    前記第一乗算部の乗算結果と前記第二乗算部の乗算結果とを互いに加算するための加算部と、
    前記加算部の加算結果に対して導出を実施するための導出部と、を含むことを特徴とする請求項18記載の学習装置。
  21. 前記修正係数確定ユニットは、増分学習サンプルの作用が増分学習サンプル総数の変化の影響を受けないように、オンラインサンプルの数量に基づき前記修正係数を確定することを特徴とする請求項18記載の学習装置。
  22. 前記学習ユニットは、前記増分学習サンプルにより構成される集合中の増分学習サンプルを減少させて、新たな前記増分学習サンプルの集合を得るための増分学習サンプル更新ユニットを更に含むことを特徴とする請求項17記載の学習装置。
  23. 前記第一目標損失算出ユニットは、ナイーブ・ベイズアルゴリズムを採用して前記第一目標損失を算出することを特徴とする請求項18記載の学習装置。
  24. 前記弱分類ユニットは、実例空間に対する区分に基づき、入力された前記検出対象画像をその中のあるサブ区間に分類するためのサブ区間判定ユニットと、前記サブ区間判定ユニットの判定結果に基づき、サブ区間弱分類テンプレートを検索することにより、前記検出対象画像が属する分類に対する予測結果を出力する弱分類確定ユニットとを含み、
    前記学習ユニットは、前記増分学習サンプルに基づき、各前記サブ区間弱分類テンプレートを更新することを特徴とする請求項17記載の学習装置。
  25. 前記増分学習サンプルは、前記特定被写体検出装置の運転中に検出漏れまたは誤報された画像であり、前記特定被写体検出装置は、前記特定被写体検出装置の運転中に検出漏れまたは誤報された画像を記録するための記録ユニットを含むことを特徴とする請求項17〜24のいずれか1項に記載の学習装置。
  26. 前記増分学習サンプルは、前記特定被写体検出装置以外の前記特定被写体検出装置と同一のその他の特定被写体検出装置の運転中に検出漏れまたは誤報された画像であり、前記特定被写体検出装置は、前記その他の特定被写体検出装置が運転中に検出漏れまたは誤報した画像を受信するための受信ユニットを含むことを特徴とする請求項17〜24のいずれか1項に記載の学習装置。
  27. 前記特定被写体は、人の顔を指すことを特徴とする請求項17〜24のいずれか1項に記載の学習装置。
  28. 1つまたはより多くの強分類ユニットを含み、前記強分類ユニットは、弱分類テンプレートを利用して入力された画像に対して特定被写体を含むか否かの判断を実施する1つまたはより多くの弱分類ユニットを含む特定被写体検出装置の学習方法であり、前記学習方法は、各弱分類器に対する、
    増分学習サンプルを入力する入力ステップと、
    当該またはその他の特定被写体検出装置の運転中に検出漏れまたは誤報されたデータである入力された増分学習サンプルに基づき、最適化パラメータを利用して弱分類テンプレートに対して最適化を実施する最適化度を算出するための最適化度取得ステップと、
    前記最適化度取得ステップの算出結果に基づき、前記最適化パラメータを利用して前記
    弱分類テンプレートに対して実施する最適化は一定の条件を満足しているか否かを判断する判断ステップと、
    前記判断ステップで前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化は一定の条件を満足していないと判断されると、前記最適化パラメータを更新する最適化パラメータ更新ステップと、
    前記判断ステップで前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化は一定の条件を満足していると判断されると、前記弱分類テンプレートを更新するテンプレート更新ステップと、を含む、特定被写体検出装置の学習方法。
  29. 前記最適化度取得ステップは、
    増分学習サンプルの修正係数を確定するための修正係数確定ステップと、
    前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化がもたらす第一目標損失を算出するための第一目標損失算出ステップと、
    入力された前記増分学習サンプルに基づき、前記最適化パラメータを利用して前記弱分類テンプレートに対して実施する最適化がもたらす第二目標損失を算出するための第二目標損失算出ステップと、
    前記第一目標損失算出ステップで算出した第一目標損失、前記第二目標損失算出ステップで算出した第二目標損失、及び前記修正係数確定ステップで確定した増分学習サンプルの修正係数に基づき、前記最適化パラメータを利用して前記弱分類テンプレートに対して最適化を実施する最適化度を算出する最適化度算出ステップと、を含むことを特徴とする請求項28記載の学習方法。
  30. 前記最適化度算出ステップは、
    1と前記修正係数との差と前記第一目標損失とを互いに乗じるための第一乗算ステップと、
    前記修正係数と前記第二目標損失とを互いに乗じるための第二乗算ステップと、
    前記第一乗算ステップの乗算結果に対して導出を実施するための第一導出ステップと、
    前記第二乗算ステップの乗算結果に対して導出を実施するための第二導出ステップと、
    前記第一導出ステップの導出結果と前記第二導出ステップの導出結果とを互いに加算するための加算ステップと、を含むことを特徴とする請求項29記載の学習方法。
  31. 前記最適化度算出ステップは、
    1と前記修正係数との差と前記第一目標損失とを互いに乗じるための第一乗算ステップと、
    前記修正係数と前記第二目標損失とを互いに乗じるための第二乗算ステップと、
    前記第一乗算ステップの乗算結果と前記第二乗算ステップの乗算結果とを互いに加算するための加算ステップと、
    前記加算ステップの加算結果に対して導出を実施するための導出ステップと、を含むことを特徴とする請求項29記載の学習方法。
  32. 前記修正係数確定ステップは、増分学習サンプルの作用が増分学習サンプル総数の変化の影響を受けないように、オンラインサンプルの数量に基づき前記修正係数を確定することを特徴とする請求項29記載の学習方法。
  33. 前記学習方法は、前記増分学習サンプルにより構成される集合中の増分学習サンプルを減少させて、新たな前記増分学習サンプルの集合を得るための増分学習サンプル更新ステップを更に含むことを特徴とする請求項28記載の学習方法。
  34. 前記第一目標損失算出ステップは、周辺分布関数法またはナイーブ・ベイズアルゴリズムを採用して前記第一目標損失を算出することを特徴とする請求項29記載の学習方法。
  35. 前記弱分類ユニットは、実例空間に対する区分に基づき、入力された前記検出対象画像を互いに交差しない複数のサブ区間中のあるサブ区間に分類するためのサブ区間判定ユニットと、前記サブ区間判定ユニットの判定結果に基づき、サブ区間弱分類テンプレートに応じて、前記検出対象画像が属する分類に対する予測結果を出力する弱分類確定ユニットとを含み、
    前記学習方法は、前記増分学習サンプルに基づき、各前記サブ区間弱分類テンプレートを更新することを特徴とする請求項28記載の学習方法。
  36. 前記最適化パラメータ更新ステップは、0.618法を利用して前記最適化パラメータを更新することを特徴とする請求項28記載の学習方法。
  37. 前記増分学習サンプルは、前記特定被写体検出装置の運転中に検出漏れまたは誤報された画像であるか、または前記特定被写体検出装置以外の前記特定被写体検出装置と同一のその他の特定被写体検出装置の運転中に検出漏れまたは誤報された画像であることを特徴とする請求項28〜36のいずれか1項に記載の学習方法。
  38. 前記特定被写体は、人の顔を指すことを特徴とする請求項28〜36のいずれか1項に記載の学習方法。
JP2010509667A 2007-06-01 2008-05-30 特定被写体検出装置及びその学習装置と学習方法 Expired - Fee Related JP5197737B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN200710109876.X 2007-06-01
CN200710109876XA CN101315670B (zh) 2007-06-01 2007-06-01 特定被摄体检测装置及其学习装置和学习方法
PCT/CN2008/071156 WO2008148343A1 (fr) 2007-06-01 2008-05-30 Dispositif de détection d'objet photographié spécial et dispositif d'apprentissage et procédé associé

Publications (2)

Publication Number Publication Date
JP2010529529A true JP2010529529A (ja) 2010-08-26
JP5197737B2 JP5197737B2 (ja) 2013-05-15

Family

ID=40093190

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010509667A Expired - Fee Related JP5197737B2 (ja) 2007-06-01 2008-05-30 特定被写体検出装置及びその学習装置と学習方法

Country Status (5)

Country Link
US (1) US8457391B2 (ja)
EP (1) EP2164025A4 (ja)
JP (1) JP5197737B2 (ja)
CN (1) CN101315670B (ja)
WO (1) WO2008148343A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9602783B2 (en) 2014-06-12 2017-03-21 Panasonic Intellectual Property Management Co., Ltd. Image recognition method and camera system
WO2017150230A1 (en) 2016-03-01 2017-09-08 Canon Kabushiki Kaisha Diagnosis support apparatus, control method for diagnosis support apparatus, and computer-readable storage medium
US9773322B2 (en) 2014-07-02 2017-09-26 Canon Kabushiki Kaisha Image processing apparatus and image processing method which learn dictionary
JP2018148367A (ja) * 2017-03-03 2018-09-20 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法、及びプログラム
US10255517B2 (en) 2014-03-27 2019-04-09 Canon Kabushiki Kaisha Information processing apparatus and information processing method

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CL2007002345A1 (es) * 2007-08-10 2009-09-11 Pablo Zegers Fernandez Metodo para la resolucion de problemas complejos mediante el aprendisaje en cascada.
CN101470802B (zh) * 2007-12-28 2012-05-09 清华大学 物体检测装置和方法
CN101853389A (zh) * 2009-04-01 2010-10-06 索尼株式会社 多类目标的检测装置及检测方法
JP5472976B2 (ja) * 2009-08-18 2014-04-16 Necソフト株式会社 対象物検出装置、対象物検出方法、プログラムおよび記録媒体
US9684957B2 (en) 2011-02-11 2017-06-20 Arizona Board Of Regents, A Body Corporate Of The State Of Arizona, Acting For And On Behalf Of Arizona State University Systems methods, and media for detecting an anatomical object in a medical device image using a multi-stage classifier
WO2012109676A1 (en) 2011-02-11 2012-08-16 Arizona Board Of Regents For And On Behalf Of Arizona State University Methods, systems, and media for determining carotid intima-media thickness
US9330336B2 (en) * 2011-09-16 2016-05-03 Arizona Board of Regents, a body corporate of the State of Arizona, acting for and on behalf of, Arizona State University Systems, methods, and media for on-line boosting of a classifier
US8699752B2 (en) * 2011-09-29 2014-04-15 Nec Laboratories America, Inc. Adaptive cross partition for learning weak classifiers
US9603554B2 (en) 2012-02-03 2017-03-28 The Arizona Board Of Regents Systems, methods, and media for monitoring the condition of a patient's heart
EP2690582B1 (en) * 2012-07-27 2016-05-11 Honda Research Institute Europe GmbH System for controlling an automated device
US8948454B2 (en) * 2013-01-02 2015-02-03 International Business Machines Corporation Boosting object detection performance in videos
JP6160196B2 (ja) 2013-04-15 2017-07-12 オムロン株式会社 識別器更新装置、識別器更新プログラム、情報処理装置、および識別器更新方法
CN103258216A (zh) * 2013-05-15 2013-08-21 中国科学院自动化研究所 一种基于在线学习的局部可形变目标检测方法及其系统
CN103258217A (zh) * 2013-05-15 2013-08-21 中国科学院自动化研究所 一种基于增量学习的行人检测方法
CN103593672A (zh) * 2013-05-27 2014-02-19 深圳市智美达科技有限公司 Adaboost分类器在线学习方法及系统
CN103366163B (zh) * 2013-07-15 2016-07-20 北京丰华联合科技有限公司 基于增量学习的人脸检测系统和方法
JP6433187B2 (ja) * 2014-08-07 2018-12-05 キヤノン株式会社 情報処理装置、その制御方法およびコンピュータプログラム
CN104951802A (zh) * 2015-06-17 2015-09-30 中国科学院自动化研究所 一种分类器更新方法
CN105279382B (zh) * 2015-11-10 2017-12-22 成都数联易康科技有限公司 一种医疗保险异常数据在线智能检测方法
CN105844286A (zh) * 2016-03-11 2016-08-10 博康智能信息技术有限公司 新增车标的识别方法和装置
CN105930808A (zh) * 2016-04-26 2016-09-07 南京信息工程大学 一种基于vector boosting模板更新的运动目标跟踪方法
JP6629678B2 (ja) * 2016-06-16 2020-01-15 株式会社日立製作所 機械学習装置
CN106548210B (zh) 2016-10-31 2021-02-05 腾讯科技(深圳)有限公司 基于机器学习模型训练的信贷用户分类方法及装置
US11283991B2 (en) * 2019-06-04 2022-03-22 Algolux Inc. Method and system for tuning a camera image signal processor for computer vision tasks
CN108984628B (zh) * 2018-06-20 2020-01-24 北京达佳互联信息技术有限公司 内容描述生成模型的损失值获取方法及装置
US11853394B2 (en) * 2018-11-21 2023-12-26 Datalogic Ip Tech S.R.L. Image multiprocessing method for vision systems
CN109886340B (zh) * 2019-02-26 2021-03-19 山东星蓝信息科技有限公司 一种遥感影像分类方法
US11080558B2 (en) 2019-03-21 2021-08-03 International Business Machines Corporation System and method of incremental learning for object detection
US11067786B2 (en) * 2019-06-07 2021-07-20 Leica Microsystems Inc. Artifact regulation methods in deep model training for image transformation
US10929677B1 (en) * 2019-08-07 2021-02-23 Zerofox, Inc. Methods and systems for detecting deepfakes
CN111639688B (zh) * 2020-05-19 2021-02-05 华中科技大学 一种基于线性核svm的物联网智能模型的局部解释方法
US11390249B2 (en) * 2020-08-05 2022-07-19 Ford Global Technologies, Llc Vehicle vision system
CN112633495B (zh) * 2020-12-18 2023-07-18 浙江大学 一种用于小样本类增量学习的多粒度快慢学习方法
CN112819110B (zh) * 2021-04-19 2021-06-29 中国科学院自动化研究所 基于权重生成的增量式小样本目标检测方法及系统
CN114611720B (zh) * 2022-03-14 2023-08-08 抖音视界有限公司 联邦学习模型训练方法、电子设备及存储介质
CN116400600B (zh) * 2023-04-23 2023-11-03 重庆市畜牧科学院 一种基于智能全局优化的猪场通风动态调控系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005115525A (ja) * 2003-10-06 2005-04-28 Fuji Photo Film Co Ltd 識別処理に用いる特徴量の種類と識別条件を決定する装置、プログラムならびにプログラムを記録した記録媒体、および特定内容のデータを選別する装置
JP2005122720A (ja) * 2003-09-25 2005-05-12 Fuji Photo Film Co Ltd 特定シーンの画像を選別する装置、プログラムおよびプログラムを記録した記録媒体
JP2007004721A (ja) * 2005-06-27 2007-01-11 Toyota Motor Corp 対象物検出装置、及び対象物検出方法
JP2007034723A (ja) * 2005-07-27 2007-02-08 Glory Ltd 顔画像検出装置、顔画像検出方法および顔画像検出プログラム
JP5036580B2 (ja) * 2007-02-28 2012-09-26 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド ブースト分類器を新たなサンプルに対して適応させる方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001009821A1 (en) * 1999-07-30 2001-02-08 Litton Systems, Inc. Automatic image characterization by class correlation processing
CN1234094C (zh) * 2002-12-23 2005-12-28 北京邮电大学 基于贝叶斯分类器的文字字体判断设备及其方法
CN100336070C (zh) * 2005-08-19 2007-09-05 清华大学 复杂背景图像中的鲁棒人脸检测方法
CN101325691B (zh) * 2007-06-14 2010-08-18 清华大学 融合不同生存期的多个观测模型的跟踪方法和跟踪装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005122720A (ja) * 2003-09-25 2005-05-12 Fuji Photo Film Co Ltd 特定シーンの画像を選別する装置、プログラムおよびプログラムを記録した記録媒体
JP2005115525A (ja) * 2003-10-06 2005-04-28 Fuji Photo Film Co Ltd 識別処理に用いる特徴量の種類と識別条件を決定する装置、プログラムならびにプログラムを記録した記録媒体、および特定内容のデータを選別する装置
JP2007004721A (ja) * 2005-06-27 2007-01-11 Toyota Motor Corp 対象物検出装置、及び対象物検出方法
JP2007034723A (ja) * 2005-07-27 2007-02-08 Glory Ltd 顔画像検出装置、顔画像検出方法および顔画像検出プログラム
JP5036580B2 (ja) * 2007-02-28 2012-09-26 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド ブースト分類器を新たなサンプルに対して適応させる方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
JPN6012014297; Grabner, H.; Bischof, H.;: 'On-line Boosting and Vision' Computer Vision and Pattern Recognition, 2006 IEEE Computer Society Conference on , 20060617, 260 - 267ページ *
JPN6012014298; Chang Huang, Haizhou Ai, Yuan Li, Shihong Lao: 'Vector Boosting for Rotation Invariant Multi-View Face Detection' ICCV '05 Proceedings of the Tenth IEEE International Conference on Computer Vision (ICCV'05) , 2005 *
JPN6012014299; Nikunj C. Oza , Stuart Russell: 'Online Bagging and Boosting' In Artificial Intelligence and Statistics 2001 , 2001 *
JPN6012014300; Li Xu; Yamashita, T.; Shihong Lao; Kawade, M.; Feihu Qi;: 'Online Real Boosting for Object Tracking Under Severe Appearance Changes and Occlusion' Acoustics, Speech and Signal Processing, 2007. ICASSP 2007. IEEE International Conference on , 20070415, I-925 &min *
JPN6012057357; Chang Huang,Haizhou Ai ; Yamashita, T. ; Shihong Lao ; Kawade, M.: 'Incremental Learning of Boosted Face Detector' Computer Vision, 2007. ICCV 2007. IEEE 11th International Conference on , 20071014, 1-8pages *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10255517B2 (en) 2014-03-27 2019-04-09 Canon Kabushiki Kaisha Information processing apparatus and information processing method
US9602783B2 (en) 2014-06-12 2017-03-21 Panasonic Intellectual Property Management Co., Ltd. Image recognition method and camera system
US9773322B2 (en) 2014-07-02 2017-09-26 Canon Kabushiki Kaisha Image processing apparatus and image processing method which learn dictionary
WO2017150230A1 (en) 2016-03-01 2017-09-08 Canon Kabushiki Kaisha Diagnosis support apparatus, control method for diagnosis support apparatus, and computer-readable storage medium
US11270216B2 (en) 2016-03-01 2022-03-08 Canon Kabushiki Kaisha Diagnosis support apparatus, control method for diagnosis support apparatus, and computer-readable storage medium
JP2018148367A (ja) * 2017-03-03 2018-09-20 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法、及びプログラム

Also Published As

Publication number Publication date
US8457391B2 (en) 2013-06-04
WO2008148343A1 (fr) 2008-12-11
CN101315670B (zh) 2010-08-11
EP2164025A4 (en) 2014-04-16
EP2164025A1 (en) 2010-03-17
US20100202681A1 (en) 2010-08-12
JP5197737B2 (ja) 2013-05-15
CN101315670A (zh) 2008-12-03

Similar Documents

Publication Publication Date Title
JP5197737B2 (ja) 特定被写体検出装置及びその学習装置と学習方法
Saatci et al. Bayesian gan
CN100472556C (zh) 特定被摄体检测装置及方法
CN112884742B (zh) 一种基于多算法融合的多目标实时检测、识别及跟踪方法
CN113111814B (zh) 基于正则化约束的半监督行人重识别方法及装置
CN113408605A (zh) 基于小样本学习的高光谱图像半监督分类方法
CN109086660A (zh) 多任务学习深度网络的训练方法、设备及存储介质
CN109033953A (zh) 多任务学习深度网络的训练方法、设备及存储介质
CN104484890A (zh) 基于复合稀疏模型的视频目标跟踪方法
CN109101869A (zh) 多任务学习深度网络的测试方法、设备及存储介质
CN106599856A (zh) 一种联合人脸检测、定位和识别的方法
Ihou et al. Variational-based latent generalized Dirichlet allocation model in the collapsed space and applications
Seyedhosseini et al. Fast adaboost training using weighted novelty selection
Sudhakar et al. Ada-SISE: adaptive semantic input sampling for efficient explanation of convolutional neural networks
Sun et al. Visual tracking via joint discriminative appearance learning
Kokilambal Intelligent content based image retrieval model using adadelta optimized residual network
CN108257148B (zh) 特定对象的目标建议窗口生成方法及其在目标跟踪的应用
Taghikhah et al. Quantile-based maximum likelihood training for outlier detection
KR20200123507A (ko) 교사-학생 프레임워크 기반의 소프트 타겟 학습방법을 이용한 보행자 포즈 방향 추정 방법 및 시스템
Han et al. A fast cloud detection approach by integration of image segmentation and support vector machine
Yilmaz et al. A Comprehensive guide to Generative Adversarial Networks (GANs) and application to individual electricity demand
Shi Image Recognition of Skeletal Action for Online Physical Education Class based on Convolutional Neural Network
Li et al. Abundance estimation based on band fusion and prioritization mechanism
Javed et al. Leveraging uncertainty in adversarial learning to improve deep learning based segmentation
Pelletier et al. Pixel‐based Classification Techniques for Satellite Image Time Series

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20100730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120321

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130205

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160215

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5197737

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees