JP2011154500A - 学習装置、学習方法、識別装置、識別方法、及びプログラム - Google Patents

学習装置、学習方法、識別装置、識別方法、及びプログラム Download PDF

Info

Publication number
JP2011154500A
JP2011154500A JP2010015087A JP2010015087A JP2011154500A JP 2011154500 A JP2011154500 A JP 2011154500A JP 2010015087 A JP2010015087 A JP 2010015087A JP 2010015087 A JP2010015087 A JP 2010015087A JP 2011154500 A JP2011154500 A JP 2011154500A
Authority
JP
Japan
Prior art keywords
feature
image
generation
feature point
identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010015087A
Other languages
English (en)
Inventor
Yoshiaki Iwai
嘉昭 岩井
Shunichi Honma
俊一 本間
Takayuki Ashigahara
隆之 芦ヶ原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010015087A priority Critical patent/JP2011154500A/ja
Priority to US12/938,620 priority patent/US8340403B2/en
Priority to CN2010105995249A priority patent/CN102147868A/zh
Publication of JP2011154500A publication Critical patent/JP2011154500A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • G06V10/464Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2136Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on sparsity criteria, e.g. with an overcomplete basis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/2163Partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • G06V10/765Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

【課題】識別対象の識別に用いる特徴量を、異なる識別対象間で共有する。
【解決手段】特徴点抽出部24は、複数の生成用画像それぞれから特徴点を抽出し、特徴量抽出部25は、生成用画像から、抽出された特徴点の特徴を表す特徴点特徴量を抽出し、全体特徴量算出部26は、異なる識別対象をそれぞれ識別する識別器の生成に共通して用いられる生成用特徴量を含む共有コードブックに基づいて、生成用画像の特徴点特徴量から、生成用画像全体の特徴を表す全体特徴量を算出し、識別器生成部27は、生成用画像の全体特徴量と、生成用画像がポジティブ画像であるかネガティブ画像であるかを表す正解ラベルとに基づいて、識別器を生成する。本発明は、例えば、所定の識別対象を識別する識別器を生成するための学習装置に適用できる。
【選択図】図1

Description

本発明は、学習装置、学習方法、識別装置、識別方法、及びプログラムに関し、特に、画像上に存在する被写体が所定の識別対象であるか否かを識別する場合に用いて好適な学習装置、学習方法、識別装置、識別方法、及びプログラムに関する。
カメラで取得した画像から、その画像上に存在する識別対象としての物体を識別(認識)する従来の識別方法として、識別対象を大局的に記述したテンプレートを用いたマッチングを行う識別方法が存在する。
この識別方法では、識別対象を大局的に記述したテンプレート、具体的には、識別対象全体のテクスチャのテンプレートを用意しておき、そのテンプレートと、識別を行う対象の画像(処理対象画像)とのマッチングが行われる。
しかしながら、識別対象を大局的に記述したテンプレートを用いたマッチングでは、処理対象画像上に存在する識別対象の部分的な隠れや歪み等に対して対応することが困難であった。
そこで、処理対象画像の局所領域に注目して、各局所領域から特徴量を抽出し、各局所領域の特徴量を組み合わせたもの(局所領域の特徴量の集合)、すなわち、例えば、各局所領域の特徴量を要素とするベクトルを用いて、識別を行う識別方法が提案されている。
局所領域の特徴量の集合を用いる識別方法によれば、識別対象を大局的に記述したテンプレートを用いる識別方法では対応することが困難であった、識別対象の部分的な隠れや歪み等の問題を、ある程度解消し、精度の高い識別を行うことができる。
局所領域の特徴量は、個別の物体の識別の他、物体のカテゴリの識別にも用いられる。例えば、局所領域の特徴量を用いて、人の顔等の特定のカテゴリを識別する識別方法が提案されている(例えば、非特許文献1を参照)。
また、カテゴリの識別には、様々な識別方法が提案されている。カテゴリの識別に提案されている識別方法としては、例えば、BoF(Bag of Features)ヒストグラムを用いる識別方法(例えば、非特許文献2を参照)や、特徴量の相関を用いる識別方法(例えば、特許文献1を参照)等がある。
例えば、BoFヒストグラムを用いる識別方法では、Visual codebookと呼ばれる代表的な特徴量を用いることで、画像表現の次元を抑制するようにしている。
しかしながら、このようなVisual codebookを用いる場合には、画像領域における特徴量の出現位置の情報が失われるため、識別の精度が低下することが生じ得る。
そこで、このような問題を解決するために、画像領域をグリッド(grid、格子)状に分割することで、弱い位置拘束を与える方法(例えば、非特許文献3を参照)が提案されている。
特開2007−128195号公報
P.Viola, M. Jones. Robust Real-time Face Detection, cvpr2001 G. Csurka, C. Bray, C. Dance, and L. Fan. Visual categorization with bags of keypoint, ECCV2004 S.Lazebnik, C.Schmid, J.Ponce "Beyond Bags of Features: Spatial Pyramid Matching for Recognizing Natural Scene Categories", CVPR2006
しかしながら、上述したVisual codebookを用いて画像表現の次元を抑制するようにしても、複数のカテゴリ(マルチクラス)の識別に適用する場合には、カテゴリ別に、カテゴリの識別に用いる複数の特徴量の集合である特徴量プールを作成する必要があり、カテゴリ数が多くなった場合に、各カテゴリに対応する特徴量が膨大となってしまう。
このため、Visual codebookを用いてカテゴリの識別を行なう場合には、例えば、Visual codebookを記憶するためのメモリの容量が増加してしまっていた。
また、画像領域をグリッド状に分割して弱い位置拘束を与える方法では、位置拘束が各カテゴリで共通であるため、識別対象を識別する精度が低下してしまう。
この場合、識別の精度の低下を抑止するために、各カテゴリ固有のVisual codebookを生成して識別の精度を向上させる必要があり、特徴量が膨大となってしまい、やはり、Visual codebookを記憶するためのメモリの容量が増加してしまっていた。
本発明は、このような状況に鑑みてなされたものであり、個別の物体や識別対象のカテゴリの識別に用いる特徴量を識別対象どうしで共通化(共有)することにより、特徴量の増加を抑止し、識別対象を精度良く検出するものである。
本発明の第1の側面の学習装置は、画像上に存在する被写体が所定の識別対象であるか否かを識別するための識別器を生成するために用いられる複数の生成用画像であって、且つ、前記識別対象が画像上に存在するポジティブ画像と、前記識別対象が画像上に存在しないネガティブ画像とにより構成される前記複数の生成用画像それぞれから特徴点を抽出する特徴点抽出手段と、前記生成用画像から、前記特徴点の特徴を表す特徴点特徴量を抽出する特徴点特徴量抽出手段と、異なる識別対象をそれぞれ識別する識別器の生成に共通して用いられる生成用特徴量を含む共有コードブックに基づいて、前記生成用画像の前記特徴点特徴量から、前記生成用画像全体の特徴を表す全体特徴量を算出する全体特徴量算出手段と、前記生成用画像の前記全体特徴量と、前記生成用画像が前記ポジティブ画像であるか前記ネガティブ画像であるかを表す正解ラベルとに基づいて、前記識別器を生成する識別器生成手段とを含む学習装置である。
本発明の第1の側面の学習装置において、複数の前記生成用特徴量それぞれを、前記生成用特徴量を識別するための識別子に対応づけて保持するコードブックと、異なる識別対象をそれぞれ識別する識別器毎に作成された複数の共有情報であって、且つ、前記複数の生成用特徴量のうち、前記全体特徴量を算出する際に用いる前記生成用特徴量の前記識別子を有する共有情報とにより構成される共有コードブックを記憶している共有コードブック記憶手段をさらに設けることができ、前記全体特徴量算出手段では、前記コードブックが保持する前記複数の生成用特徴量のうち、前記識別器生成手段により生成される前記識別器について作成された前記共有情報が有する前記識別子に対応付けられている生成用特徴量を用いて、前記全体特徴量を算出することができる。
本発明の第1の側面の学習装置において、前記複数の共有情報のうちの所定の共有情報は、他の共有情報が有する前記識別子と同一の識別子を有しているようにすることができる。
本発明の第1の側面の学習装置において、前記所定の共有情報は、前記ポジティブ画像であるモデル画像から抽出された特徴点も対応付けられた前記識別子を有しており、前記全体特徴量算出手段では、前記識別子に対応付けられている生成用特徴量と、前記生成用画像上の全範囲のうち、前記識別子に対応付けられている前記特徴点に基づき決定される範囲上に存在する特徴点の特徴点特徴量とを用いて、前記全体特徴量を算出することができる。
本発明の第1の側面の学習装置において、前記所定の共有情報が有する前記識別子には、前記他の共有情報が有する同一の前記識別子に対応付けられている特徴点とは異なる特徴点が対応付けられているようにすることができる。
前記ポジティブ画像であるモデル画像から特徴点を抽出するモデル画像特徴点抽出手段と、前記モデル画像の特徴点における頻度分布に基づいて、前記特徴点を量子化する量子化手段とをさらに設けることができ、前記共有情報は、量子化後の前記特徴点が対応付けられた前記識別子を有するようにすることができる。
本発明の第1の側面の学習装置において、前記全体特徴量算出手段では、前記全体特徴量として、前記共有コードブックに含まれる前記生成用特徴量と、前記生成用画像の前記特徴点特徴量との相関を表す相関値を算出することができる。
本発明の第1の側面の学習装置において、前記識別器生成手段では、複数の次元のベクトルにより表される前記全体特徴量の各次元の要素である複数の次元特徴量のうち、前記ポジティブ画像、及び前記ネガティブ画像の識別を誤る度合いを表すエラー値を小さくする前記次元特徴量を用いて識別を行なう前記識別器と、前記エラー値を小さくする前記次元特徴量の次元を表す次元情報とを生成することができる。
本発明の第1の側面の学習方法は、所定の識別対象を識別するための識別器を学習する学習装置の学習方法であって、前記学習装置は、特徴点抽出手段と、特徴点特徴量抽出手段と、全体特徴量算出手段と、識別器生成手段とを含み、前記特徴点抽出手段が、画像上に存在する被写体が所定の識別対象であるか否かを識別するための識別器を生成するために用いられる複数の生成用画像であって、且つ、前記識別対象が画像上に存在するポジティブ画像と、前記識別対象が画像上に存在しないネガティブ画像とにより構成される前記複数の生成用画像それぞれから特徴点を抽出し、前記特徴点特徴量抽出手段が、前記生成用画像から、前記特徴点の特徴を表す特徴点特徴量を抽出し、前記全体特徴量算出手段が、異なる識別対象をそれぞれ識別する識別器の生成に共通して用いられる生成用特徴量を含む共有コードブックに基づいて、前記生成用画像の前記特徴点特徴量から、前記生成用画像全体の特徴を表す全体特徴量を算出し、前記識別器生成手段が、前記生成用画像の前記全体特徴量と、前記生成用画像が前記ポジティブ画像であるか前記ネガティブ画像であるかを表す正解ラベルとに基づいて、前記識別器を生成するステップを含む学習方法である。
本発明の第1の側面の第1のプログラムは、コンピュータを、画像上に存在する被写体が所定の識別対象であるか否かを識別するための識別器を生成するために用いられる複数の生成用画像であって、且つ、前記識別対象が画像上に存在するポジティブ画像と、前記識別対象が画像上に存在しないネガティブ画像とにより構成される前記複数の生成用画像それぞれから特徴点を抽出する特徴点抽出手段と、前記生成用画像から、前記特徴点の特徴を表す特徴点特徴量を抽出する特徴点特徴量抽出手段と、異なる識別対象をそれぞれ識別する識別器の生成に共通して用いられる生成用特徴量を含む共有コードブックに基づいて、前記生成用画像の前記特徴点特徴量から、前記生成用画像全体の特徴を表す全体特徴量を算出する全体特徴量算出手段と、前記生成用画像の前記全体特徴量と、前記生成用画像が前記ポジティブ画像であるか前記ネガティブ画像であるかを表す正解ラベルとに基づいて、前記識別器を生成する識別器生成手段として機能させるためのプログラムである。
本発明の第1の側面によれば、画像上に存在する被写体が所定の識別対象であるか否かを識別するための識別器を生成するために用いられる複数の生成用画像であって、且つ、前記識別対象が画像上に存在するポジティブ画像と、前記識別対象が画像上に存在しないネガティブ画像とにより構成される前記複数の生成用画像それぞれから特徴点が抽出され、前記生成用画像から、前記特徴点の特徴を表す特徴点特徴量が抽出され、異なる識別対象をそれぞれ識別する識別器の生成に共通して用いられる生成用特徴量を含む共有コードブックに基づいて、前記生成用画像の前記特徴点特徴量から、前記生成用画像全体の特徴を表す全体特徴量が算出され、前記生成用画像の前記全体特徴量と、前記生成用画像が前記ポジティブ画像であるか前記ネガティブ画像であるかを表す正解ラベルとに基づいて、前記識別器が生成される。
本発明の第2の側面の識別装置は、画像上に存在する被写体が所定の識別対象であるか否かを識別する処理の対象とする処理対象画像から特徴点を抽出する特徴点抽出手段と、前記処理対象画像から、前記特徴点の特徴を表す特徴点特徴量を抽出する特徴点特徴量抽出手段と、異なる識別対象をそれぞれ識別する識別器の生成に共通して用いられた生成用特徴量を含む共有コードブックに基づいて、前記処理対象画像の特徴点特徴量から、前記処理対象画像全体の特徴を表す全体特徴量を算出する全体特徴量算出手段と、画像上に存在する被写体が所定の識別対象であるか否かを識別する識別器と、前記全体特徴量とに基づいて、前記処理対象画像上に存在する被写体が所定の識別対象であるか否かを識別する識別手段とを含む識別装置である。
本発明の第2の側面の識別装置において、複数の前記生成用特徴量それぞれを、前記生成用特徴量を識別するための識別子に対応づけて保持するコードブックと、異なる識別対象をそれぞれ識別する識別器毎に作成された複数の共有情報であって、且つ、前記複数の生成用特徴量のうち、前記全体特徴量を算出する際に用いる前記生成用特徴量の前記識別子を有する共有情報とにより構成される共有コードブックを記憶している共有コードブック記憶手段をさらに設けることができ、前記全体特徴量算出手段では、前記コードブックが保持する前記複数の生成用特徴量のうち、前記識別手段で用いられる前記識別器について作成された前記共有情報が有する前記識別子に対応付けられている生成用特徴量を用いて、前記全体特徴量を算出することができる。
本発明の第2の側面の識別装置において、前記複数の共有情報のうちの所定の共有情報は、他の共有情報が有する前記識別子と同一の識別子を有しているようにすることができる。
本発明の第2の側面の識別装置において、前記所定の共有情報は、前記所定の識別対象が画像上に存在するモデル画像から抽出された特徴点も対応付けられた前記識別子を有しており、前記全体特徴量算出手段では、前記識別子に対応付けられている生成用特徴量と、前記処理対象画像上の全範囲のうち、前記識別子に対応付けられている前記特徴点に基づき決定される範囲上に存在する特徴点の特徴点特徴量とを用いて、前記全体特徴量を算出することができる。
本発明の第2の側面の識別装置において、前記共有情報が有する前記識別子には、前記他の共有情報が有する同一の前記識別子に対応付けられている特徴点とは異なる特徴点が対応付けられているようにすることができる。
本発明の第2の側面の識別装置において、前記全体特徴量算出手段では、前記全体特徴量として、前記共有コードブックに含まれる前記生成用特徴量と、前記処理対象画像の前記特徴点特徴量との相関を表す相関値を算出することができる。
本発明の第2の側面の識別装置において、前記全体特徴量算出手段では、前記共有コードブックに基づいて、前記処理対象画像の特徴点特徴量から、前記処理対象画像全体の特徴を表す全体特徴量であって、且つ、複数の次元特徴量により構成される前記全体特徴量を算出し、前記識別手段では、画像上に存在する被写体が所定の識別対象であるか否かを識別する識別器に対して、前記全体特徴量を構成する前記複数の次元特徴量のうち、所定の次元特徴量を入力として与えることで、前記処理対象画像上に存在する被写体が所定の識別対象であるか否かを識別することができる。
本発明の第2の側面の識別装置において、前記識別手段では、画像上に存在する被写体が所定の識別対象であるか否かを識別する識別器に対して、前記全体特徴量を構成する前記複数の次元特徴量のうち、次元情報が表す次元の次元特徴量を入力として与えることで、前記処理対象画像に写っている被写体が所定の識別対象であるか否かを識別し、前記識別器は、前記全体特徴量を表す前記複数の次元特徴量のうち、前記識別対象が画像上に存在するポジティブ画像、及び前記識別対象が画像上に存在しないネガティブ画像の識別を誤る度合いを表すエラー値を小さくする前記次元特徴量を用いて識別を行なうものであり、前記次元情報は、前記エラー値を小さくする前記次元特徴量の次元を表すものであるようにすることができる。
本発明の第2の側面の識別方法は、画像に写っている被写体が所定の識別対象であるか否かを識別する識別装置の識別方法であって、前記識別装置は、特徴点抽出手段と、特徴点特徴量抽出手段と、全体特徴量算出手段と、識別手段とを含み、前記特徴点抽出手段が、画像上に存在する被写体が所定の識別対象であるか否かを識別する処理の対象とする処理対象画像から特徴点を抽出し、前記特徴点特徴量抽出手段が、前記処理対象画像から、前記特徴点の特徴を表す特徴点特徴量を抽出し、前記全体特徴量算出手段が、異なる識別対象をそれぞれ識別する識別器の生成に共通して用いられた生成用特徴量を含む共有コードブックに基づいて、前記処理対象画像の特徴点特徴量から、前記処理対象画像全体の特徴を表す全体特徴量を算出し、前記識別手段が、画像上に存在する被写体が所定の識別対象であるか否かを識別する識別器と、前記全体特徴量とに基づいて、前記処理対象画像上に存在する被写体が所定の識別対象であるか否かを識別するステップを含む識別方法である。
本発明の第2の側面の第2のプログラムは、コンピュータを、画像上に存在する被写体が所定の識別対象であるか否かを識別する処理の対象とする処理対象画像から特徴点を抽出する特徴点抽出手段と、前記処理対象画像から、前記特徴点の特徴を表す特徴点特徴量を抽出する特徴点特徴量抽出手段と、異なる識別対象をそれぞれ識別する識別器の生成に共通して用いられた生成用特徴量を含む共有コードブックに基づいて、前記処理対象画像の特徴点特徴量から、前記処理対象画像全体の特徴を表す全体特徴量を算出する全体特徴量算出手段と、画像上に存在する被写体が所定の識別対象であるか否かを識別する識別器と、前記全体特徴量とに基づいて、前記処理対象画像上に存在する被写体が所定の識別対象であるか否かを識別する識別手段として機能させるためのプログラムである。
本発明の第2の側面によれば、画像上に存在する被写体が所定の識別対象であるか否かを識別する処理の対象とする処理対象画像から特徴点が抽出され、前記処理対象画像から、前記特徴点の特徴を表す特徴点特徴量が抽出され、異なる識別対象をそれぞれ識別する識別器の生成に共通して用いられた生成用特徴量を含む共有コードブックに基づいて、前記処理対象画像の特徴点特徴量から、前記処理対象画像全体の特徴を表す全体特徴量が算出され、画像上に存在する被写体が所定の識別対象であるか否かを識別する識別器と、前記全体特徴量とに基づいて、前記処理対象画像上に存在する被写体が所定の識別対象であるか否かが識別される。
本発明によれば、画像上に存在する被写体が所定の識別対象であるか否かを識別する場合において、識別に用いる特徴量の増加を抑止し、識別対象を精度良く検出することが可能となる。
本発明を適用した学習装置の第1の構成例を示すブロック図である。 共有コードブック生成部の構成例を示すブロック図である。 特徴量置換部及び量子化部が行なう処理の一例を説明するための図である。 共有コードブックの一例を示す図である。 量子化部が行なう処理の一例を説明するための図である。 図1の全体特徴量算出部が行う処理の一例を説明するための図である。 識別器の生成方法の一例を説明するための図である。 図1の学習装置が行う学習処理を説明するためのフローチャートである。 共有コードブック生成処理を説明するためのフローチャートである。 コードブック生成処理を説明するためのフローチャートである。 識別器生成処理を説明するためのフローチャートである。 図1の学習装置の学習により生成された識別器を用いて識別対象を識別する第1の識別装置の構成例を示すブロック図である。 図12の識別装置が行なう識別処理を説明するためのフローチャートである。 本発明を適用した学習装置の第2の構成例を示すブロック図である。 範囲決定部が行なう処理の一例を説明するための図である。 図14の全体特徴量算出部が行う処理の一例を説明するための図である。 図14の学習装置が行なう学習処理を説明するためのフローチャートである。 範囲決定処理を説明するためのフローチャートである。 図14の学習装置の学習により生成された識別器を用いて識別対象を識別する第2の識別装置の構成例を示すブロック図である。 図19の識別装置が行なう識別処理を説明するためのフローチャートである。 コンピュータの構成例を示すブロック図である。
以下、発明を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1. 第1の実施の形態(特徴点特徴量を異なる識別対象で共通して用いる例)
2. 第2の実施の形態(識別対象毎に異なる検索範囲を用いる例)
3. 変形例
<1.第1の実施の形態>
[学習装置1の構成例]
図1は、本発明を適用した学習装置1の構成例を示している。
この学習装置1は、学習用画像を用いて、画像上に存在する被写体が所定の識別対象であるか否かを識別する識別器(関数)と、後述する次元情報とを生成する。
ここで、学習用画像は、識別器の生成(学習)に用いられる画像であり、複数のモデル画像、複数のプリミティブ画像、及び複数の生成用画像を含む。
モデル画像は、識別対象とされ得る被写体(例えば、ノート型パーソナルコンピュータ(ノートパソコン)や自動車等)が画像上に存在する画像である。また、プリミティブ画像は、特定の識別対象に依存しない複数の特徴量を有する画像、すなわち、特定の識別対象の特徴量に限らず、様々な特徴量を抽出するために用いられる画像である。
なお、プリミティブ画像としては、例えば、人工のオブジェクトや、風景等の自然物が画像上に存在する画像が採用される。
また、生成用画像は、識別対象(例えば、ノートパソコン)が画像上に存在するポジティブ画像と、識別対象が画像上に存在しないネガティブ画像との両方を含む。
さらに、生成用画像には、正解ラベルが付加されている。この正解ラベルは、生成用画像毎に存在し、各生成用画像が、ポジティブ画像、又はネガティブ画像のいずれかであるかを表す。
すなわち、この学習装置1は、複数のプリミティブ画像から抽出した特徴量を、識別対象となり得る被写体(例えば、ノートパソコンや自動車等)の特徴量として共有する共有コードブックを生成する。
そして、学習装置1は、生成した共有コードブックを用いて、画像上に存在する被写体が所定の識別対象(例えば、自動車)であるか否かを識別する識別器と、対応する次元情報とを生成する。
学習装置1は、入力部21、共有コードブック生成部22、共有コードブック記憶部23、特徴点抽出部24、特徴量抽出部25、全体特徴量算出部26、及び識別器生成部27により構成される。
入力部21には、学習用画像として、複数のモデル画像、複数のプリミティブ画像、及び複数の生成用画像が供給される。入力部21は、供給される複数のモデル画像、及び複数のプリミティブ画像を、共有コードブック生成部22に入力(供給)する。
また、入力部21は、供給される複数の生成用画像を、特徴点抽出部24に入力する。
共有コードブック生成部22は、入力部21からの複数のモデル画像、及び複数のプリミティブ画像に基づいて、識別対象となり得る被写体の特徴量を共有する共有コードブックを生成し、共有コードブック記憶部23に供給して記憶させる。
なお、共有コードブック生成部22の詳細については、図2を参照して後述する。
共有コードブック記憶部23は、共有コードブック生成部22からの共有コードブックを記憶する。
特徴点抽出部24は、入力部21からの複数の生成用画像それぞれを、順次、注目生成用画像とし、注目生成用画像から特徴点を抽出する。そして、特徴点抽出部24は、抽出した特徴点を、注目生成用画像とともに、特徴量抽出部25に供給する。
ここで、画像の局所的な情報は、コーナ(corner)点に含まれることが多いため、特徴点抽出部24は、コーナ点(となっている画素)を、特徴点として抽出する。
コーナ点の抽出は、ハリーズコーナ検出器(Harris Corner Detector)を用いて行うことができる。ハリーズコーナ検出器では、ある位置(x,y)の画素の画素値(例えば、輝度)を、I(x,y)と表すとすると、次式(1)により求められる輝度勾配の2次モーメントLの2つの固有値が所定の閾値以上の画素が、コーナ点として検出される。
Figure 2011154500
・・・(1)
なお、式(1)では、画素値I(x,y)を、(x,y)を省略して、Iと記述している。
また、特徴点抽出部24は、特徴点として、コーナ点の他、例えば、エッジとなっている画素や、所定の固定の位置の画素等を採用するようにしてもよい。
特徴量抽出部25は、特徴点抽出部24からの注目生成用画像から、特徴点抽出部24からの特徴点の特徴を表す特徴点特徴量を抽出し、全体特徴量算出部26に供給する。また、特徴量抽出部25は、特徴点抽出部24からの注目生成用画像に付加されている正解ラベルを抽出し、全体特徴量算出部26に供給する。
全体特徴量算出部26は、共有コードブック記憶部23に記憶されている共有コードブックに基づいて、特徴量抽出部25からの特徴点特徴量から、その注目生成用画像全体の特徴を表す全体特徴量を算出する。
ここで、全体特徴量とは、例えば、複数の次元のベクトル(複数の値を要素として有するベクトル)により表される。
全体特徴量算出部26は、算出した注目生成用画像の全体特徴量を、特徴量抽出部25からの、注目生成用画像の正解ラベルとともに、識別器生成部27に供給する。
識別器生成部27は、全体特徴量算出部26から、複数の生成用画像それぞれについて、対応する全体特徴量及び正解ラベルが供給されたことに対応して、複数の生成用画像それぞれの全体特徴量と、複数の生成用画像それぞれの正解ラベルとを用いて、識別器を生成する(識別器を規定するパラメータを算出する学習を行う)。
ここで、全体特徴量としての複数の次元のベクトルの要素を、次元特徴量ということとすると、全体特徴量は、複数(ベクトルの次元に等しい数)の次元特徴量から構成される。
識別器生成部27は、全体特徴量を構成する次元特徴量のすべてではなく、全体特徴量を構成する次元特徴量の中から選択した一部の次元特徴量を用いて識別を行なう識別器を生成する。
また、識別器生成部27は、この識別器が識別に用いる次元特徴量の次元を表す情報(次元特徴量が、全体特徴量としてのベクトルの何番目の要素であるかを表す情報)を、次元情報として生成する。
[共有コードブック生成部22の構成例]
図2は、共有コードブック生成部22の詳細な構成例を示している。
この共有コードブック生成部22は、特徴点抽出部41、特徴量抽出部42、コードブック生成部43、コードブック記憶部44、特徴点抽出部45、特徴量抽出部46、特徴量置換部47、及び量子化部48により構成される。
特徴点抽出部41には、入力部21から複数のプリミティブ画像が入力される。特徴点抽出部41は、入力部21からの複数のプリミティブ画像それぞれを、順次、注目プリミティブ画像とする。そして、特徴点抽出部41は、注目プリミティブ画像から特徴点を抽出し、注目プリミティブ画像とともに、特徴量抽出部42に供給する。
特徴量抽出部42は、特徴点抽出部41からの注目プリミティブ画像から、同じく特徴点抽出部41からの特徴点の特徴を表す特徴点特徴量を抽出して、コードブック生成部43に供給する。
すなわち、特徴量抽出部42は、特徴点抽出部41において注目プリミティブ画像とされる複数のプリミティブ画像それぞれから抽出した複数の特徴点特徴量を、コードブック生成部43に供給する。
コードブック生成部43は、特徴量抽出部42から供給される複数の特徴点特徴量を、特徴量空間において、例えばk-means方法等のクラスタリング方法により、幾つかのグループにグループ分けする。そして、コードブック生成部43は、グループ分けにより得られる幾つかのグループ毎に、そのグループに属する特徴点特徴量のセントロイド(重心)を、グループを代表する特徴点特徴量に決定する。
コードブック生成部43は、幾つかのグループ毎に決定した特徴点特徴量に、その特徴点特徴量を一意に識別する識別子Cbn(n=1,2,..,N)を対応付ける。また、コードブック生成部43は、識別子Cbnが対応付けられた特徴点特徴量を含むコードブックを生成し、コードブック記憶部44に供給して記憶させる。
コードブック記憶部44は、識別子Cbnと、識別子Cbnにより識別される特徴点特徴量とが対応付けられたコードブックを記憶する。
特徴点抽出部45には、入力部21から複数のモデル画像が入力される。特徴点抽出部45は、入力部21から入力される複数のモデル画像を、モデル画像上に存在する被写体のカテゴリ別に、複数のグループにグループ分けする。なお、モデル画像には、画像上に存在する被写体のカテゴリを表すカテゴリ情報が含まれており、特徴点抽出部45は、モデル画像に含まれるカテゴリ情報に基づいてグループ分けを行なうものとする。
そして、特徴点抽出部45は、カテゴリ別にグループ分けされた複数のグループそれぞれを、順次、注目グループとする。
さらに、特徴点抽出部45は、注目グループに含まれる複数のモデル画像それぞれを、順次、注目モデル画像とする。そして、特徴点抽出部45は、注目モデル画像から特徴点を抽出し、注目モデル画像とともに、特徴量抽出部46に供給する。
特徴量抽出部46は、特徴点抽出部45からの注目モデル画像から、同じく特徴点抽出部45からの特徴点の特徴を表す特徴点特徴量を抽出する。そして、特徴量抽出部46は、抽出した特徴点特徴量に、特徴点抽出部45からの特徴点を対応付ける。
これにより、特徴量抽出部46は、注目グループに含まれる複数のモデル画像それぞれから抽出した複数の特徴点特徴量であって、且つ、対応する特徴点が対応付けられた特徴点特徴量を含む初期特徴量プールを取得する。
特徴量抽出部46は、取得した初期特徴量プールを、特徴量置換部47に供給する。
特徴量置換部47は、特徴量抽出部46からの初期特徴量プールに含まれる特徴点特徴量を、コードブック記憶部44に記憶されているコードブックが有する識別子Cbnに置き換える(置換する)。
すなわち、例えば、特徴量置換部47は、コードブック記憶部44からコードブックを読み出す。そして、特徴量置換部47は、特徴量抽出部46からの初期特徴量プールに含まれる特徴点特徴量を、読み出したコードブックが含む複数の特徴点特徴量のうち、最も類似する特徴点特徴量を識別する識別子Cbnに置き換える。
このようにして、特徴量置換部47は、特徴量抽出部46からの初期特徴量プールに含まれる複数の特徴点特徴量それぞれを、コードブック記憶部44に記憶されているコードブックが含む識別子Cbnに置き換える。
これにより、特徴量置換部47は、特徴点が対応付けられた特徴点特徴量を含む初期特徴量プールから、特徴点が対応付けられた識別子Cbnを含む特徴量プールを生成する。特徴量置換部47は、生成した特徴量プールを、量子化部48に供給する。
また、特徴量置換部47は、コードブック記憶部44から読み出したコードブックを、量子化部48に供給する。
量子化部48は、特徴量置換部47からの特徴量プールに含まれる識別子Cbnに対応付けられた特徴点を量子化し、その結果得られる量子化特徴量プールを取得する。
また、量子化部48は、取得した量子化特徴量プールが含む識別子Cbnのうち、同一の識別子Cbnどうしをグループ化して得られる共有情報を取得する。
そして、量子化部48は、カテゴリ毎に取得した共有情報と、特徴量置換部47からのコードブックとの組合せを、共有コードブックとして、共有コードブック記憶部23に供給して記憶させる。
[特徴量置換部47及び量子化部48が行なう処理の一例]
次に、図3は、特徴量置換部47及び量子化部48が行なう処理の一例を示している。
なお、図3に示されるコードブック61は、コードブック記憶部44に記憶されているコードブックであって、識別子Cbnと、識別子Cbnにより識別される特徴点特徴量fvecとを含む。
特徴量置換部47は、コードブック記憶部44からコードブック61を読み出す。また、特徴量置換部47は、特徴量抽出部46から供給される、所定のカテゴリにおける複数の特徴点特徴量(十文字で示す)を含む初期特徴量プール62から、所定の特徴点特徴量を抽出し、順次、注目特徴点特徴量fvec'とする。
そして、特徴量置換部47は、注目特徴点特徴量fvec'を、読み出したコードブック61が含む識別子Cbnに置き換える。すなわち、例えば、特徴量置換部47は、注目特徴点特徴量fvec'を、読み出したコードブック61が含む複数の特徴点特徴量のうち、注目特徴点特徴量fvec'と最も類似する特徴点特徴量fvecを識別する識別子Cbnに置き換える。
特徴量置換部47は、初期特徴量プール62が含む複数の特徴点特徴量すべてを、注目特徴点特徴量fvec’とすることにより、初期特徴量プール62が含む複数の特徴点特徴量fvec'すべてを、識別子Cbnに置き換える。
これにより、特徴量置換部47は、注目特徴点特徴量fvec'に、対応する特徴点(x,y)が対応付けられた初期特徴量プール62を、識別子Cbnに、注目特徴点特徴量fvec'に対応する特徴点(x,y)が対応付けられた特徴量プール63に変換する。
特徴量置換部47は、変換後の特徴量プール63を、コードブック記憶部44から読み出したコードブック61とともに、量子化部48に供給する。
量子化部48は、特徴量置換部47からの特徴量プール63が含む幾つかの特徴点を、1点の特徴点に変換する量子化を行い、その結果得られる量子化特徴量プール64を取得する。なお、量子化部48が行なう量子化の詳細は、図4を参照して後述する。
また、量子化部48は、取得した量子化特徴量プール64が含む識別子Cbnのうち、同一の識別子Cbnどうしをグループ化し、その結果得られる共有情報65を、共有コードブック記憶部23に供給して記憶させる。
すなわち、例えば、量子化部48は、量子化特徴量プール64に含まれる識別子Cbnのうち、同一の識別子Cbnが対応付けられた特徴点をグループ化することにより、識別子Cbn毎に、1又は複数の特徴点が対応付けられた共有情報65を生成する。
そして、量子化部48は、生成した共有情報65と、特徴量置換部47からのコードブック61との組合せを、共有コードブック81として、共有コードブック記憶部23に供給して記憶させる。
なお、共有情報65は、複数のカテゴリ毎に、そのカテゴリにおける初期特徴量プール62に基づいて生成される。したがって、共有コードブック記憶部23には、複数のカテゴリ毎に生成された共有情報65mと、コードブック61とにより構成される共有コードブック81が記憶されることとなる。
また、量子化部48は、上述したように、量子化特徴量プール64が含む識別子Cbnのうち、同一の識別子Cbnどうしをグループ化することにより共有情報65を取得するようにしたが、これに限定されない。
すなわち、例えば、量子化部48は、特徴量置換部47からの特徴量プール63を量子化せずに、量子化特徴量プール64ではなく特徴量プール63が含む識別子Cbnのうち、同一の識別子Cbnどうしをグループ化することにより共有情報65を取得することができる。
[共有コードブックの一例]
次に、図4は、共有コードブック生成部22により生成されて、共有コードブック記憶部23に記憶される共有コードブック81の一例を示している。
図4に示される共有コードブック81は、コードブック61、ノートパソコンが属するカテゴリAにおける共有情報651、自動車が属するカテゴリBにおける共有情報652等により構成される。
共有情報651は、カテゴリAにおける複数の特徴点特徴量を含む初期特徴量プール62に基づいて生成された共有情報である。
共有情報651においては、識別子Cb2に、特徴点(x1,y1)及び(x2,y2)が対応付けられている。また、共有情報651においては、識別子Cb30に、特徴点(x3,y3)が対応付けられている。
共有情報652は、カテゴリBにおける複数の特徴点特徴量を含む初期特徴量プール62に基づいて生成された共有情報である。
共有情報652においては、識別子Cb30に、特徴点(x4,y4)及び(x5,y5)が対応付けられている。また、共有情報652においては、識別子Cb45に、特徴点(x6,y6)及び(x7,y7)が対応付けられている。
すなわち、コードブック61に含まれる、特徴点特徴量fvecと特徴点特徴量fvecを識別するための識別子Cb30との組合せ61aにおいて、組合せ61aの識別子Cb30には、カテゴリAにおける特徴点(x3,y3)、並びにカテゴリBにおける特徴点(x4,y4)及び(x5,y5)が対応付けられている。
したがって、カテゴリAを識別する場合と、カテゴリBを識別する場合とのいずれの場合にも、識別子Cb30により識別される特徴点特徴量fvecが共通して用いられることとなる。
また、例えば、カテゴリAにおけるモデル画像、及びカテゴリBにおけるモデル画像それぞれから抽出される特徴点は、一般的に異なる。このため、カテゴリAにおける識別子Cb30に対応付けられている特徴点(x3,y3)と、カテゴリBにおける識別子Cb30に対応付けられている特徴点(x4,y4)及び(x5,y5)とは異なるものとなっている。
したがって、カテゴリAを識別する場合と、カテゴリBを識別する場合とで、それぞれ異なる特徴点が用いられることとなる。
[量子化部48が行なう量子化の一例]
次に、図5を参照して、量子化部48が行なう量子化の詳細を説明する。図5は、量子化部48が行なう量子化の詳細を説明するための図である。
図5Aには、例えば、被写体としてノートパソコンが画像上に存在する4枚のモデル画像が示されている。なお、図5Aに示されている4枚のモデル画像には、特徴点として、例えばコーナ点(十文字で示す)が示されている。
図5Bには、図5Aに示される4枚のモデル画像において、特徴点が存在する頻度(度合い)を輝度値として有する画素により構成されている特徴点頻度画像101が示されている。
図5Cには、図5Bに示される特徴点頻度画像101において、周囲の画素よりも輝度値が大きい画素(の位置)を特徴点(十文字で示す)として選択した様子の一例を示している。
量子化部48は、特徴量置換部47からの特徴量プール63に含まれる特徴点、すなわち、例えば、図5Aに示されるモデル画像それぞれのコーナ点(十文字で示す)を、順次、注目特徴点とする。
また、量子化部48は、図5Aに示されるモデル画像と同一の大きさであって、且つ、いずれの画素の輝度値も0である特徴点頻度画像101を用意する。
そして、量子化部48は、用意した特徴点頻度画像101を構成する複数の画素のうち、注目特徴点に対応する画素、及びその画素の周囲の画素の輝度値に、ガウス重み(ガウス分布に従った重み)に応じた値を投票(加算)する。
これにより、特徴点頻度画像101において、注目特徴点に対応する画素の輝度値には1が投票され、その画素の位置から離れた位置に存在する画素ほど、小さな値が投票されることとなる。
量子化部48は、特徴量プール63に含まれる特徴点すべてを注目特徴点とし、投票を行なうことにより、図5Bに示されるような、特徴点が存在する頻度に応じて明るさが異なる特徴点頻度画像101を生成する。
そして、量子化部48は、生成した特徴点頻度画像101に対して、周囲の画素よりも輝度値が大きい画素に対応する特徴点を、代表特徴点として抽出するnon maximum suppression処理を行なう。
すなわち、例えば、量子化部48は、特徴点頻度画像101を構成する画素の輝度値のうち、最大の輝度値を有する画素の位置を、代表特徴点として抽出する。そして、量子化部48は、抽出した代表特徴点を含む、その代表特徴点の周囲の領域を、新たな代表特徴点を抽出する処理対象から除外する。
次に、量子化部48は、抽出した代表特徴点の周囲の領域を処理対象から除外後の特徴点頻度画像101を構成する画素の輝度値のうち、最大の輝度値を有する画素の位置を、代表特徴点として抽出する。そして、量子化部48は、抽出した代表特徴点を含む、その代表特徴点の周囲の領域を処理対象から除外して、それ以降同様の処理を繰り返す。
このように、量子化部48は、図5Cに示されるように、特徴点頻度画像101から所定数の代表特徴点(十文字で示す)を抽出した場合に、non maximum suppression処理を終了する。
量子化部48は、特徴量プール63が含む特徴点を、non maximum suppression処理により抽出した複数の代表特徴点のうちのいずれかに量子化する。
すなわち、例えば、量子化部48は、特徴量プール63が含む特徴点を、順次、注目特徴点とする。そして、量子化部48は、注目特徴点を、複数の代表特徴点のうち、注目特徴点と最も近い位置に存在する代表特徴点に変換する量子化を行う。
量子化部48は、特徴量プール63が含む特徴点すべてを、複数の代表特徴点のうちのいずれかに量子化し、その量子化により得られる量子化特徴量プール64を取得する。
そして、量子化部48は、上述したように、量子化特徴量プール64が含む複数の識別子Cbnを、同一の識別子Cbnどうしでグループ化する。また、量子化部48は、そのグループ化により得られる共有情報65と、特徴量置換部47からのコードブック61との組合せを、共有コードブック81として、共有コードブック記憶部23に供給して記憶させる。
[相関値の算出の一例]
次に、図6を参照して、全体特徴量算出部26が行う、全体特徴量を算出する処理の一例を説明する。
図6では、識別対象が自動車のカテゴリBに属するものであるか否かを識別するための識別器及び次元情報を生成するための全体特徴量として、例えば、相関値を算出する全体特徴量算出部26について説明する。
すなわち、図6は、全体特徴量算出部26が、共有コードブック記憶部23に記憶されている共有コードブック81において、自動車のカテゴリBにおける共有情報652と、コードブック61とを用いて、生成用画像の全体特徴量を算出する場合の一例を示している。
図6上側には、共有コードブック81に含まれるコードブック61が有する複数の特徴点特徴量のうち、共有情報652が有する識別子Cbnそれぞれに対応する特徴点特徴量1211乃至12110が示されている。
また、図6下側には、特徴点抽出部24において特徴点が抽出され、特徴量抽出部25において特徴点特徴量が抽出された生成用画像141乃至145が示されている。
全体特徴量算出部26は、共有コードブック81に含まれる共有情報652が有する識別子Cbnそれぞれに対応する特徴点特徴量1211乃至12110それぞれと、生成用画像141乃至145それぞれとの相関値を、全体特徴量として算出する。
具体的には、例えば、全体特徴量算出部26は、生成用画像141を構成する全領域のうち、特徴点特徴量121n(nは1から10までの自然数)に対応する特徴点に基づく所定の領域(例えば、特徴点特徴量121nの特徴点に対応する位置を中心とした矩形領域等)を、検索範囲とする。
全体特徴量算出部26は、特徴点特徴量121nと、生成用画像141の検索範囲上に存在する特徴点の特徴点特徴量それぞれとの相関値を算出し、その算出により得られる複数の相関値のうち、最大の相関値を、注目特徴点特徴量121nと生成用画像141との最終的な相関値161nとする。
全体特徴量算出部26は、生成用画像141について、特徴点特徴量1211乃至12110それぞれとの相関値1611乃至16110を算出し、算出した相関値1611乃至16110を要素とするベクトルを、生成用画像141の全体特徴量とする。
全体特徴量算出部26は、生成用画像141の全体特徴量を算出した場合と同様にして、生成用画像142乃至145それぞれの全体特徴量を算出する。
全体特徴量算出部26は、複数の生成用画像141乃至145それぞれの全体特徴量を、識別器生成部27に供給する。
[識別器生成部27が行なう処理]
次に、図7は、識別器生成部27が行なう処理の概要を示している。
識別器生成部27は、例えば、ブースティング(Boosting)のアルゴリズムに従い、全体特徴量算出部26からの全体特徴量を構成する次元特徴量の中から、識別に用いる次元特徴量(の次元)を選択するとともに、その次元特徴量を用いて識別を行う識別器を生成する。
すなわち、識別器生成部27は、全体特徴量算出部26(図1)からの全体特徴量を構成する複数の次元特徴量(ベクトルの要素)のうち、ポジティブ画像、及びネガティブ画像の識別を誤る度合いを表すエラー値を小さくする次元特徴量を用いて識別を行う識別器と、エラー値を小さくする次元特徴量の次元を表す次元情報とを生成する。
具体的には、いま、生成用画像として、複数であるN枚の画像が存在し、全体特徴量算出部26において、図7に示すように、N枚の生成用画像のNサンプルの全体特徴量x1,x2,・・・,xNとしてのベクトルが得られたこととする。
さらに、全体特徴量xi(i=1,2,・・・,N)は、図7に示すように、複数であるM個の要素(次元特徴量)xi,1,xi,2,・・・,xi,Mを有するM次元のベクトルであるとする。
また、識別器生成部27には、図1で説明したように、全体特徴量算出部26から正解ラベルが供給されるが、第iサンプルxi(i枚目の生成用画像)の正解ラベルを、yiと表す。正解ラベルyiは、i枚目の生成用画像がポジティブ画像である場合に、例えば、+1になっており、i枚目の生成用画像がネガティブ画像である場合に、例えば、-1になっていることとする。
識別器生成部27が生成する識別器は、全体特徴量xiを構成するM個の次元特徴量xi,1乃至xi,Mのうちの、ポジティブ画像、及びネガティブ画像の識別を誤る度合いを表すエラー値を小さくする次元特徴量xi,dを用いて識別を行う関数であり、複数の弱仮説器(Weak learner)ht,d(xi,d)から構成される。
ここで、弱仮説器ht,d(xi,d)のサフィックスtは、弱仮説器ht,d(xi,d)の個数をカウントする変数であり、識別器は、複数であるT個の弱仮説器h1,d(xi,d),h2,d(xi,d),・・・,hT,d(xi,d)から構成されることとする。
弱仮説器ht,d(xi,d)の個数Tとしては、例えば、経験的に、あるいは、識別器による識別の識別率がある程度の値以上となるように、M以下の値が設定される。
弱仮説器ht,d(xi,d)は、生成用画像の全体特徴量xiの第d次元の次元特徴量(全体特徴量xiとしてのベクトルのd番目の要素)xi,dを入力として、生成用画像が、ポジティブ画像、又はネガティブ画像である旨の識別結果を出力する関数であり、ポジティブ画像である旨の識別結果としては、例えば、+1を、ネガティブ画像である旨の識別結果としては、例えば、-1を、それぞれ出力する。
いま、弱仮説器ht,d(xi,d)の識別結果のエラー値を、εt,dと表すこととすると、識別器生成部27は、弱仮説器ht,d(xi,d)を、エラー値εt,dを小さくするように決定する。
なお、ここでは、説明を簡単にするため、弱仮説器ht,d(xi,d)として、例えば、引数である第d次元の次元特徴量xi,dが、所定の閾値以上である場合に、ポジティブ画像である旨の識別結果を表す+1を出力し、第d次元の次元特徴量xi,dが、所定の閾値未満である場合に、ネガティブ画像である旨の識別結果を表す-1を出力する関数を採用することとする。
この場合、エラー値εt,dを小さくするように、弱仮説器ht,d(xi,d)を決定するとは、弱仮説器ht,d(xi,d)の閾値を決定することを意味する。弱仮説器ht,d(xi,d)の閾値には、引数となりうるN個の第d次元の次元特徴量x1,d,x2,d,・・・,xN,dのうちの最小値以上で、且つ、最大値以下の値が決定される。
識別器生成部27は、エラー値εt,1,εt,2,・・・,εt,Mそれぞれを小さくするように、弱仮説器ht,1(xi,1),ht,2(xi,2),・・・,ht,M(xi,M)それぞれを決定し、エラー値εt,1乃至εt,Mのうちの最小値が得られる次元(以下、最小エラー次元という)d(t)を求める。
また、識別器生成部27は、弱仮説器ht,d(xi,d)によるi番目の生成用画像の識別結果が、正解ラベルyiと一致するか否か、つまり、式ht,d(xi,d)=yiが成り立つか、又は、式ht,d(xi,d)≠yiが成り立つかによって、生成用画像の識別結果の誤りをエラー値εt,dに影響させる重みDt(i)を、生成用画像ごとに求める。
ここで、エラー値εt,dは、N枚の生成用画像のうち、弱仮説器ht,d(xi,d)による識別結果が誤る生成用画像の重みDt(i)を加算することで求められる。
識別器生成部27は、以上の、弱仮説器ht,d(xi,d)を、エラー値εt,dを小さくするように決定すること、弱仮説器ht,d(xi,d)による生成用画像の識別結果のエラー値εt,1乃至εt,Mのうちの最小値が得られる次元(最小エラー次元)d(t)を求めること、及び、エラー値εt,dを計算するのに用いる重みDt(i)を求めることを、T回だけ繰り返すことで、T個の弱仮説器h1,d(xi,d),h2,d(xi,d),・・・,hT,d(xi,d)から構成される識別器H(x)と、最小エラー次元d(1),d(2),・・・,d(T)を表す次元情報とを生成する。
[学習装置1の動作説明]
次に、図8のフローチャートを参照して、学習装置1が行う学習処理(以下、第1の学習処理という)について説明する。
この第1の学習処理は、入力部21に学習用画像が供給されたときに開始される。このとき、入力部21は、供給される学習用画像としての生成用画像、プリミティブ画像、及びモデル画像のうち、プリミティブ画像及びモデル画像を、共有コードブック生成部22に供給し、生成用画像を特徴点抽出部24に供給する。
ステップS1において、共有コードブック生成部22は、入力部21からのプリミティブ画像及びモデル画像に基づいて、共有コードブック81を生成して共有コードブック記憶部23に記憶させる共有コードブック生成処理を行なう。なお、共有コードブック生成処理の詳細は、図9のフローチャートを参照して後述する。
ステップS2において、特徴点抽出部24は、入力部21からの複数の生成用画像それぞれを、順次、注目生成用画像とする。
ステップS3において、特徴点抽出部24は、注目生成用画像から特徴点を抽出し、注目生成用画像とともに、特徴量抽出部25に供給する。
ステップS4において、特徴量抽出部25は、特徴点抽出部24からの注目生成用画像から、同じく特徴点抽出部24からの特徴点の特徴を表す特徴点特徴量を抽出し、特徴点抽出部24からの特徴点に対応付けて、全体特徴量算出部26に供給する。
また、特徴量抽出部25は、特徴点抽出部24からの注目生成用画像に付加されている正解ラベルを抽出し、全体特徴量算出部26に供給する。
ステップS5において、全体特徴量算出部26は、共有コードブック記憶部23に記憶されている共有コードブック81に基づいて、特徴量抽出部25からの特徴点特徴量から、その注目生成用画像全体の特徴を表す全体特徴量を算出する。
すなわち、例えば、図6を参照して説明したように、全体特徴量算出部26は、共有コードブック81に含まれる共有情報65(例えば、識別対象が、自動車のカテゴリBに属するものであるか否かを識別する識別器及び次元情報を生成する場合には共有情報652)が有する識別子Cbnそれぞれに対応付けられている特徴点特徴量に基づき、注目生成用画像の全体特徴量を算出する。
全体特徴量算出部26は、算出した注目生成用画像の全体特徴量を、特徴量抽出部25からの正解ラベルとともに、識別器生成部27に供給する。
ステップS6において、特徴点抽出部24は、入力部21からの複数の生成用画像すべてを、注目生成用画像としたか否かを判定し、入力部21からの複数の生成用画像すべてを、まだ注目生成用画像としていないと判定した場合、処理をステップS2に戻す。
そして、ステップS2では、特徴点抽出部24は、入力部21からの複数の生成用画像のうち、まだ注目生成用画像とされていない生成用画像を、新たに注目生成用画像とし、処理はステップS3に進められ、それ以降、同様の処理が行なわれる。
また、ステップS6において、特徴点抽出部24は、入力部21からの複数の生成用画像すべてを、注目生成用画像としたと判定した場合、処理はステップS7に進められる。
ステップS7において、識別器生成部27は、全体特徴量算出部26から、複数の生成用画像それぞれについて、対応する全体特徴量及び正解ラベルが供給されたことに対応して、複数の生成用画像それぞれの全体特徴量と、複数の生成用画像それぞれの正解ラベルとを用いて、識別器及び次元情報を生成する識別器生成処理を行なう。以上で第1の学習処理は終了される。なお、識別器生成処理の詳細は、図11のフローチャートを参照して後述する。
[共有コードブック生成処理の詳細]
次に、図9のフローチャートを参照して、図8のステップS1における共有コードブック生成処理の詳細について説明する。
ステップS21において、共有コードブック生成部22の特徴点抽出部41乃至コードブック生成部43は、入力部21からの複数のプリミティブ画像から抽出した特徴点特徴量に、その特徴点特徴量を一意に識別する識別子Cbを対応付けたコードブックを生成し、コードブック記憶部44に供給して記憶させるコードブック生成処理を行なう。なお、コードブック生成処理の詳細は、図10のフローチャートを参照して後述する。
ステップS22において、特徴点抽出部45は、入力部21からの複数のモデル画像のうち、所定のカテゴリに属する識別対象(例えば、ノートパソコン)が画像上に存在するモデル画像を取得する。
ステップS23において、特徴点抽出部45は、ステップS22の処理で取得したモデル画像それぞれを、順次、注目モデル画像とする。
ステップS24において、特徴点抽出部45は、注目モデル画像から特徴点を抽出し、注目モデル画像とともに、特徴量抽出部46に供給する。
ステップS25において、特徴量抽出部46は、特徴点抽出部45からの注目モデル画像から、同じく特徴点抽出部45からの特徴点の特徴を表す特徴点特徴量を抽出する。そして、特徴量抽出部46は、抽出した特徴点特徴量に、特徴点抽出部45からの特徴点を対応付ける。
ステップS26において、特徴点抽出部45は、ステップS22の処理で取得したモデル画像すべてを、注目モデル画像としたか否かを判定し、ステップS22の処理で取得したモデル画像すべてを、まだ注目モデル画像としていないと判定した場合、処理をステップS23に戻す。
そして、ステップS23では、特徴点抽出部45は、ステップS22の処理で取得したモデル画像のうち、まだ注目モデル画像とされていないモデル画像を、新たに注目モデル画像とし、処理をステップS24に進め、それ以降、同様の処理が行なわれる。
また、ステップS26において、特徴点抽出部45は、ステップS22の処理で取得したモデル画像すべてを、注目モデル画像としたと判定した場合、その旨を特徴量抽出部46に通知する。
特徴量抽出部46は、特徴点抽出部45からの通知に応じて、ステップS25の処理で抽出した特徴点特徴量を含む初期特徴量プール62を生成し、特徴量置換部47に供給して、処理をステップS27に進める。
ステップS27において、特徴量置換部47は、特徴量抽出部46からの初期特徴量プール62が含む特徴点特徴量を、コードブック記憶部44に記憶されているコードブック61が含む識別子Cbnに置き換える。
すなわち、例えば、特徴量置換部47は、コードブック記憶部44からコードブック61を読み出す。そして、特徴量置換部47は、特徴量抽出部46からの初期特徴量プール62が含む特徴点特徴量fvec'を、読み出したコードブック61が含む複数の特徴点特徴量のうち、特徴点特徴量fvec'と最も類似する特徴点特徴量fvecを識別する識別子Cbnに置き換える。
このようにして、特徴量置換部47は、特徴量抽出部46からの初期特徴量プール62が含む複数の特徴点特徴量それぞれを、コードブック記憶部44に記憶されているコードブック61が含む識別子Cbnに置き換える。
これにより、特徴量置換部47は、特徴点が対応付けられた特徴点特徴量fvec'を含む初期特徴量プール62から、特徴点が対応付けられた識別子Cbnを含む特徴量プール63を生成する。特徴量置換部47は、生成した特徴量プール63を、量子化部48に供給する。
また、特徴量置換部47は、コードブック記憶部44から読み出したコードブック61を、量子化部48に供給する。
ステップS28において、量子化部48は、特徴量置換部47からの特徴量プール63が含む識別子Cbnに対応付けられた特徴点を量子化し、その結果得られる量子化特徴量プール64を取得する。
そして、量子化部48は、取得した量子化特徴量プール64が含む識別子Cbnのうち、同一の識別子Cbnどうしをグループ化して得られる共有情報65を取得する。
ステップS29において、特徴点抽出部45は、入力部21からの複数のモデル画像のうち、すべてのカテゴリについてのモデル画像を、ステップS22の処理で取得したか否かを判定し、すべてのカテゴリについてのモデル画像を取得していないと判定した場合、処理をステップS22に戻す。
そして、ステップS22では、特徴点抽出部45は、入力部21からの複数のモデル画像のうち、まだ取得していないカテゴリに属する識別対象(例えば、自動車)のモデル画像を取得し、処理をステップS23に進め、それ以降、同様の処理が行なわれる。
また、ステップS29において、特徴点抽出部45は、入力部21からの複数のモデル画像のうち、すべてのカテゴリについてのモデル画像を取得したと判定した場合、処理をステップS30に進める。
ステップS30において、量子化部48は、カテゴリ毎に、ステップS28の処理で取得した共有情報65(例えば、カテゴリAの共有情報651や、カテゴリBの共有情報652等)と、特徴量置換部47からのコードブック61とを、共有コードブック81として、共有コードブック記憶部23に供給して記憶させ、処理を、図8のステップS1にリターンする。
[コードブック生成処理の詳細]
次に、図10のフローチャートを参照して、図9のステップS21において、共有コードブック生成部22の特徴点抽出部41乃至コードブック生成部43が行なう、コードブック61を生成するコードブック生成処理の詳細について説明する。
ステップS51において、特徴点抽出部41は、入力部21からの複数のプリミティブ画像それぞれを、順次、注目プリミティブ画像とする。
ステップS52において、特徴点抽出部41は、注目プリミティブ画像から特徴点を抽出し、注目プリミティブ画像とともに、特徴量抽出部42に供給する。
ステップS53において、特徴量抽出部42は、特徴点抽出部41からの注目プリミティブ画像から、同じく特徴点抽出部41からの特徴点の特徴を表す特徴点特徴量を抽出して、コードブック生成部43に供給する。
ステップS54において、特徴点抽出部41は、入力部21からの複数のプリミティブ画像すべてを、注目プリミティブ画像としたか否かを判定し、入力部21からの複数のプリミティブ画像すべてを、まだ注目プリミティブ画像としていないと判定した場合、処理をステップS51に戻す。
そして、ステップS51では、特徴点抽出部41は、入力部21からの複数のプリミティブ画像のうち、まだ注目プリミティブ画像とされていないプリミティブ画像を、新たに注目プリミティブ画像とし、処理をステップS52に進め、それ以降、同様の処理が行なわれる。
また、ステップS54において、特徴点抽出部41は、入力部21からの複数のプリミティブ画像すべてを、注目プリミティブ画像としたと判定した場合、処理をステップS55に進める。
ステップS55において、コードブック生成部43は、特徴量抽出部42から供給される複数の特徴点特徴量に基づいて、複数の特徴点特徴量それぞれがグループ分けされたグループを代表する特徴点特徴量からなるコードブックを生成する。
すなわち、例えば、コードブック生成部43は、特徴量抽出部42から供給される複数の特徴点特徴量を、特徴量空間において、k-means方法等のクラスタリング方法により、幾つかのグループにグループ分けする。そして、コードブック生成部43は、グループ分けにより得られる幾つかのグループ毎に、そのグループに属する特徴点特徴量のセントロイド(重心)を、グループを代表する特徴点特徴量に決定する。
また、コードブック生成部43は、幾つかのグループ毎に決定した特徴点特徴量に、その特徴点特徴量を一意に識別する識別子Cbnを対応付ける。さらに、コードブック生成部43は、識別子Cbnを対応付けた特徴点特徴量を含むコードブック61を生成し、コードブック記憶部44に供給して記憶させ、処理を図9のステップS21にリターンする。
[識別器生成処理の詳細]
次に、図11のフローチャートを参照して、図8のステップS7において、識別器生成部27が行なう、識別器と次元情報とを生成する識別器生成処理の詳細について説明する。
ステップS71において、識別器生成部27は、弱仮説器ht,d(xi,d)が識別を誤る度合いを表すエラー値εt,dに、i番目の生成用画像の識別結果の誤りを影響させる重みDt(i)の初期値D1(1),D1(2),・・・,D1(N)を、例えば、次式(2)に従って設定し、処理を、ステップS72に進める。
Figure 2011154500

・・・(2)
ステップS72において、識別器生成部27は、識別器H(x)を構成する弱仮説器ht,d(xi,d)の個数をカウントする変数tを、1に初期化して、処理を、ステップS73に進める。
ステップS73において、識別器生成部27は、全体特徴量xiの次元d=1,2,・・・,Mのそれぞれについて、重みDt(i)を用いて求められるエラー値εt,dが最小となるように、弱仮説器ht,d(xi,d)(の閾値THt,d)を決定し、処理を、ステップS74に進める。
ここで、ステップS73では、識別器生成部27は、例えば、次式(3)に従って計算されるエラー値εt,dが最小となるように、弱仮説器ht,d(xi,d)の閾値THt,dを決定する。
Figure 2011154500

・・・(3)
式(3)において、[yi≠ht,d(xi,d)]は、指示関数であり、式yi≠ht,d(xi,d)が成り立つ場合は、1となり、成り立たない場合は、0となる。
したがって、式(3)によれば、エラー値εt,dは、N枚の生成用画像のうち、弱仮説器ht,d(xi,d)による識別結果が誤る生成用画像(式yi≠ht,d(xi,d)が成り立つ生成用画像)の重みDt(i)のみを加算することで求められる。
ステップS74において、識別器生成部27は、直前のステップS73の処理で、次元d=1,2,・・・,Mのそれぞれについて決定された弱仮説器ht,d(xi,d)を用いて、式(3)に従って計算されるエラー値εt,1,εt,2,・・・,εt,Mの中の最小値εtを求める。さらに、識別器生成部27は、エラー値εt,1乃至εt,Mの中の最小値εtが得られる次元(最小エラー次元)d(t)(1乃至Mの範囲の整数値)を求め、処理を、ステップS75に進める。
ここで、最小エラー次元d(t)が、全体特徴量を構成する次元特徴量のうち、識別器H(x)による識別に用いられる次元特徴量の次元である。したがって、識別器H(x)による識別では、全体特徴量を構成する次元特徴量のうち、最小エラー次元d(t)の次元特徴量が選択されて、識別に用いられる。
また、エラー値εt,1,εt,2,・・・,εt,Mの中の最小値εtを、最小エラー値εtということとすると、その最小エラー値εtが得られる弱仮説器ht,d(t)(xi,d(t))が、識別器H(x)を構成するt番目の弱仮説器となる。
ステップS75において、識別器生成部27は、直前のステップS74の処理で求めた最小エラー値εtを用い、識別器H(x)を構成するt番目の弱仮説器ht,d(t)(xi,d(t))による生成用画像の識別の信頼性を表す信頼度αtを、次式(4)に従って求め、処理を、ステップS76に進める。
Figure 2011154500

・・・(4)
ここで、式(4)において、lnは自然対数を表しており、式(4)によれば、最小エラー値εtが大(、又は小)であるほど、値が小(、又は大)の信頼度αtが求められる。
ステップS76において、識別器生成部27は、重みDt(i)を、次式(5)に従い、重みDt+1(i)に更新して、処理をステップS77に進める。
Figure 2011154500

・・・(5)
ここで、式(5)において、係数Ztは、重みDt+1(i)の正規化のための係数であり、次式(6)で表される。
Figure 2011154500

・・・(6)
式(6)によれば、弱仮説器ht,d(t)(xi,d(t))による識別結果が正しいi枚目の生成用画像、つまり、識別結果が正解ラベルyiに一致する生成用画像については、重みDt(i)は、より小さい値の重みDt+1(i)に更新される。その結果、次のステップS73において、重みDt(i)を用いて計算されるエラー値εt,dは、小さくなる。
一方、弱仮説器ht,d(t)(xi,d(t))による識別結果が誤りとなるi枚目の生成用画像、つまり、識別結果が正解ラベルyiに一致しない生成用画像については、重みDt(i)は、より大きい値の重みDt+1(i)に更新される。その結果、次のステップS73において、重みDt(i)を用いて計算されるエラー値εt,dは、大きくなる。
ステップS77において、識別器生成部27は、変数tが、識別器H(x)を構成する弱仮説器ht,d(xi,d)の個数(以下、弱仮説器数ともいう)Tに等しいかどうかを判定する。
ステップS77において、識別器生成部27は、変数tが弱仮説器数Tに等しくないと判定した場合、処理をステップS78に進め、変数tを1だけインクリメントして、処理をステップS78からステップS73に戻し、以下、同様の処理が行なわれる。
また、ステップS77において、識別器生成部27は、変数tが弱仮説器数Tに等しいと判定した場合、すなわち、識別器H(x)を構成するT個の弱仮説器h1,d(1)(xi,d(1)),h2,d(2)(xi,d(2)),・・・,hT,d(T)(xi,d(T))と、T個の最小エラー次元d(1),d(2),・・・,d(T)とを生成した場合、処理を、ステップS79に進める。
ステップS79において、識別器生成部27は、T個の弱仮説器h1,d(1)(xi,d(1)),h2,d(2)(xi,d(2)),・・・,hT,d(T)(xi,d(T))と、T個の信頼度α1,α2,・・・,αTを、識別器H(x)(を規定するパラメータ)として出力する。
さらに、ステップS79では、識別器生成部27は、T個の最小エラー次元d(1),d(2),・・・,d(T)を、次元情報として出力し、識別器生成処理を終了して、処理を図8のステップS7にリターンする。
識別器生成部27では、以上のような、ブースティングによる統計学習(第1の学習処理)によって、全体特徴量を構成する次元特徴量の中で、識別対象を識別するのにより有効なT個の次元特徴量を表す次元(最小エラー次元)d(1)乃至d(T)と、その最小エラー次元d(t)の次元特徴量を用いて識別を行う識別器H(x)が求められる。
このように、学習装置1が行う第1の学習処理では、次元情報としての最小エラー次元d(1)乃至d(T)と、識別器H(x)を生成する場合において、コードブック61に含まれる特徴点特徴量(例えば、識別子Cb30により識別される特徴点特徴量fvec)を、異なる識別対象のカテゴリ(例えば、カテゴリA及びB)間で共有する共有コードブック81を用いるようにしている。
このため、第1の学習処理では、カテゴリ毎に生成されたコードブックを用いて、識別器等を生成する場合と比較して、共有コードブック81に含まれるコードブック61が有する特徴点特徴量を増やすことなく、異なる識別対象をそれぞれ識別する複数の識別器を生成することが可能となる。
また、第1の学習処理において、共有コードブック61が有する共有情報65は、各カテゴリ毎のモデル画像から抽出された特徴点を保持するようにしている。すなわち、例えば、共有情報651は、カテゴリAに属するノートパソコンが存在するモデル画像から抽出した特徴点を、共有情報652は、カテゴリBに属する自動車が存在するモデル画像から抽出した特徴点を、それぞれ保持するようにしている。
ここで、カテゴリAに属するノートパソコンが存在するモデル画像から抽出した特徴点と、カテゴリBに属する自動車が存在するモデル画像から抽出した特徴点とは、一般的に異なるものとなる。
したがって、共有コードブック61が有する共有情報65は、各カテゴリ毎に異なる特徴点を保持していることとなる。
このため、第1の学習処理のステップS5において、全体特徴量算出部26が全体特徴量を算出する場合、共有情報65が保持する特徴点に基づいて決定される、生成用画像上の検索範囲が存在する位置は、識別対象のカテゴリ毎に異なるものとなる。
このため、全体特徴量算出部26では、例えば、生成用画像上の全領域をグリッド状の検索範囲に分割して、カテゴリ間で共通の検索範囲(同一の位置に存在する検索範囲)を用いる場合と比較して、識別器の生成に用いられる全体特徴量を、より正確に算出することができる。
よって、第1の学習処理のステップS7において、識別器生成部27は、算出した全体特徴量に基づいて、より識別の精度が高い識別器(及び次元情報)を生成することが可能となる。
[識別装置181の構成例]
図12は、学習装置1により得られた識別器H(x)及び次元情報d(1),d(2),・・・,d(T)を用いて識別を行う識別装置181の構成例を示している。
この識別装置181は、学習装置1により得られた識別器H(x)と、次元情報としての最小エラー次元d(1)乃至d(T)とを用いて、処理対象画像上に存在する被写体が所定の識別対象であるか否か、具体的には、例えば、処理対象画像上に存在する被写体が所定のカテゴリに属するものであるか否かを識別する。
すなわち、この識別装置181は、共有コードブック記憶部201、次元情報記憶部202、識別器記憶部203、特徴点抽出部204、特徴量抽出部205、全体特徴量算出部206、及び識別部207により構成される。
共有コードブック記憶部201は、学習装置1の共有コードブック記憶部23(図1)に記憶されているのと同一の共有コードブック81を予め記憶している。
次元情報記憶部202は、学習装置1の識別器生成部27で所定の識別対象について得られた次元情報としての最小エラー次元d(1)乃至d(T)を予め記憶している。
識別器記憶部203は、学習装置1の識別器生成部27で所定の識別対象について得られた識別器H(x)としてのT個の弱仮説器h1,d(1)(xi,d(1)),h2,d(2)(xi,d(2)),・・・,hT,d(T)(xi,d(T))と、T個の信頼度α1,α2,・・・,αTとを予め記憶している。
特徴点抽出部204には、画像上に存在する被写体が所定の識別対象であるか否かを識別する処理対象である処理対象画像が供給される。特徴点抽出部204は、学習装置1の特徴点抽出部24と同様にして、供給される処理対象画像から、特徴点を抽出し、処理対象画像とともに、特徴量抽出部205に供給する。
特徴量抽出部205は、学習装置1の特徴量抽出部25と同様にして、特徴点抽出部204からの処理対象画像から、同じく特徴点抽出部204からの特徴点の特徴点特徴量を抽出する。
そして、特徴量抽出部205は、抽出した特徴点特徴量を、特徴点抽出部204からの特徴点に対応付けて、全体特徴量算出部206に供給する。
全体特徴量算出部206は、学習装置1の全体特徴量算出部26と同様にして、共有コードブック記憶部201に記憶された共有コードブック81に含まれる共有情報65(例えば、識別対象が自動車のカテゴリBに属するものであるか否かを識別する場合には、カテゴリBの共有情報652)が有する識別子Cbnそれぞれに対応する特徴点特徴量に基づき、特徴量抽出部205からの処理対象画像の特徴点特徴量から、その処理対象画像の全体特徴量を構成する次元特徴量を求める。
但し、全体特徴量算出部206では、処理対象画像の全体特徴量を構成するM個(M次元)の次元特徴量すべてではなく、そのM個の次元特徴量のうち、次元情報記憶部202に記憶された次元情報としての最小エラー次元d(1)乃至d(T)の次元特徴量が、選択的に求められる。
なお、全体特徴量算出部206では、最初から、処理対象画像の全体特徴量のうち、次元情報としての最小エラー次元d(1)乃至d(T)の次元特徴量だけを求めてもよいし、処理対象画像の全体特徴量を求め、その全体特徴量の中から、最小エラー次元d(1)乃至d(T)の次元特徴量を抽出してもよい。
ここで、M個の次元特徴量から構成される、処理対象画像の全体特徴量としての、例えば、M個の次元特徴量を要素とするベクトルを、x'と表す。また、処理対象画像の全体特徴量x'のM個の次元特徴量のうちのm番目を、xm'と表す。
この場合、処理対象画像の全体特徴量x'のM個の次元特徴量のうち、最小エラー次元d(1)乃至d(T)の次元特徴量は、xd(1)',xd(2)',・・・,xd(T)'と表される。
全体特徴量算出部206は、処理対象画像の全体特徴量x'のM個の次元特徴量のうち、最小エラー次元d(1)乃至d(T)のT個の次元特徴量xd(1)'乃至xd(T)'を選択し(選択的に求めて)、識別部207に供給する。
識別部207は、識別器記憶部203に記憶された識別器H(x')に対して、全体特徴量算出部206からの、処理対象画像の最小エラー次元d(1)乃至d(T)の次元特徴量xd(1)'乃至xd(T)'を、入力x'として与えることで、処理対象画像上に存在する被写体が所定の識別対象であるか否かを識別し、その識別結果を出力する。
すなわち、識別部207は、識別器記憶部203に記憶された識別器H(x')としてのT個の弱仮説器h1,d(1)(xd(1)'),h2,d(2)(xd(2)'),・・・,hT,d(T)(xd(T)')と、T個の信頼度α1,α2,・・・,αTとを用いて、識別器H(x')としての次式(7)の関数H(x')を演算する。
Figure 2011154500

・・・(7)
ここで、式(7)において、sign()は、かっこ()内の符号が正の場合は、例えば、+1を、符号が負の場合は、例えば、-1を、それぞれ出力する関数である。したがって、式(7)の関数H(x')の値は、+1又は-1となる。
式(7)の関数H(x')の値が+1である場合、処理対象画像上に存在する被写体が所定の識別対象であるという識別結果を表し、式(7)の関数H(x')の値が-1である場合、処理対象画像上に存在する被写体が所定の識別対象でないという識別結果を表す。
[識別装置181の動作説明]
次に、図13のフローチャートを参照して、識別装置181が行う識別処理(以下、第1の識別処理という)について説明する。
この第1の識別処理は、例えば、処理対象画像が、識別装置181の特徴点抽出部204に供給されたときに開始される。
ステップS91において、特徴点抽出部204は、供給される処理対象画像から、特徴点を抽出し、処理対象画像とともに、特徴量抽出部205に供給して、処理をステップS92に進める。
ステップS92において、特徴量抽出部205は、特徴点抽出部204から供給される処理対象画像から、同じく特徴点抽出部204からの特徴点の特徴点特徴量を抽出し、全体特徴量算出部206に供給して、処理をステップS93に進める。
ステップS93において、全体特徴量算出部206は、共有コードブック記憶部201に記憶されている共有コードブック81に基づき、特徴量抽出部205から供給される処理対象画像の特徴点特徴量から、その処理対象画像の全体特徴量を構成する次元特徴量のうち、次元情報記憶部202に記憶された次元情報としての最小エラー次元d(1)乃至d(T)の次元特徴量xd(1)'乃至xd(T)'を求める。
すなわち、例えば、全体特徴量算出部206は、共有コードブック81に含まれる共有情報65(例えば、識別対象が、自動車のカテゴリBに属するものであるか否かを識別する場合には共有情報652)が有する識別子Cbnそれぞれに対応付けられている特徴点特徴量に基づき、最小エラー次元d(1)乃至d(T)の次元特徴量xd(1)'乃至xd(T)'を求める。
そして、全体特徴量算出部206は、最小エラー次元d(1)乃至d(T)の次元特徴量xd(1)'乃至xd(T)'を、識別部207に供給して、処理をステップS94に進める。
ステップS94において、識別部207は、識別器記憶部203に記憶されている、式(7)で表される識別器H(x')に対して、全体特徴量算出部206からの、処理対象画像の最小エラー次元d(1)乃至d(T)の次元特徴量xd(1)'乃至xd(T)'を、入力x'として与えることで、処理対象画像上に存在する被写体が所定の識別対象であるか否かを識別し、その識別結果を出力して、第1の識別処理は終了される。
以上説明したように、識別装置181が行う第1の識別処理では、ステップS93において、全体特徴量算出部206が、次元特徴量xd(1)'乃至xd(T)'を求める場合に、コードブック61が有する特徴点特徴量(例えば、識別子Cb30により識別される特徴点特徴量fvec)を、異なる識別対象のカテゴリ(例えば、カテゴリA及びB)間で共有する共有コードブック81を用いるようにしている。
したがって、例えば、識別装置181において、識別対象とするカテゴリが複数存在する場合でも、複数のカテゴリ毎に異なるコードブックを生成する場合とは異なり、共有コードブック81に含まれるコードブック61が有する特徴点特徴量の増加を防止することが可能となる。
また、第1の識別処理のステップS93において、全体特徴量算出部206は、第1の学習処理のステップS5における全体特徴量算出部26と同様にして、処理対象画像の全体特徴量を構成する次元特徴量のうち、最小エラー次元d(1)乃至d(T)の次元特徴量xd(1)'乃至xd(T)'を算出するようにしている。
このため、全体特徴量算出部206では、全体特徴量算出部26と同様に、例えば、処理対象画像上の全領域をグリッド状の検索範囲に分割して、カテゴリ間で共通の検索範囲(同一の位置に存在する検索範囲)を用いる場合と比較して、処理対象画像の全体特徴量を構成する次元特徴量のうち、最小エラー次元d(1)乃至d(T)の次元特徴量xd(1)'乃至xd(T)'を、より正確に算出することができる。
よって、第1の識別処理のステップS94において、識別部207では、識別対象のカテゴリ間で共通の検索範囲を用いる場合と比較して、全体特徴量算出部206により算出された次元特徴量xd(1)'乃至xd(T)'に基づいて、識別対象をより正確に識別することが可能となる。
第1の実施の形態において、学習装置1の全体特徴量算出部26では、全体特徴量の要素(次元特徴量)として、例えば相関値を算出する場合に、識別対象の種類に拘らず、いずれの識別対象に対しても同一の大きさの検索範囲で、生成用画像の全体特徴量を算出するようにしたが、検索範囲の大きさは、識別対象に応じて異なる大きさとすることが望ましい。
すなわち、例えば、識別対象の形状が決まっている自動車等の場合には、比較的小さな検索範囲とするようにし、識別対象の形状が決まっていない動物等の場合には、比較的大きな検索範囲とすること等が考えられる。
また、識別対象が、比較的高い場所に存在する屋根である場合には、検索範囲を、特徴点を基準として上方向に大きくとることが考えられる。
このように、識別対象毎に適切な検索範囲を決定すれば、生成用画像の全体特徴量を、より正確に算出することができるので、全体特徴量に基づいて生成される識別器の識別の精度をより向上させることが可能となる。
<2.第2の実施の形態>
[学習装置221の構成例]
次に、図14は、共有コードブック81に含まれる共有情報65が有する特徴点毎に、検索範囲を決定して全体特徴量を算出する学習装置221について説明する。図14は、本発明を適用した学習装置221の構成例を示している。
なお、この学習装置221は、第1の実施の形態における図1の学習装置1と同様に構成される部分については同一の符号を付しているため、それらの説明は以下省略する。
すなわち、学習装置221は、新たに範囲決定部241が設けられているとともに、共有コードブック記憶部23及び全体特徴量算出部26に代えて、共有コードブック記憶部242及び全体特徴量算出部243が設けられている他は、学習装置1と同様に構成されている。
範囲決定部241には、入力部21から生成用画像が供給される。範囲決定部241は、共有コードブック記憶部242に記憶されている共有コードブック81を読み出す。
そして、範囲決定部241は、共有コードブック81に含まれる共有情報65が有する特徴点毎に、入力部21からの生成用画像との相関値を求めるために検索する生成用画像上の範囲を表す検索範囲を決定する範囲決定処理を行なう。なお、範囲決定部241が行なう範囲決定処理の詳細は、図15を参照して後述する。
範囲決定部241は、共有コードブック81に基づいて、決定した検索範囲を、共有コードブック81に含まれる共有情報65が有する特徴点に対応付けた共有コードブック81’を生成し、共有コードブック記憶部242に供給して記憶させる。
共有コードブック記憶部242は、共有コードブック生成部22からの共有コードブック81を記憶している。また、共有コードブック記憶部242は、範囲決定部241により生成されて供給されてくる共有コードブック81'を記憶する。
なお、共有コードブック生成部22が、生成した共有コードブック81を、共有コードブック記憶部242ではなく、範囲決定部241に供給するようにして、範囲決定部241が、共有コードブック生成部22からの共有コードブック81に基づいて、共有コードブック81'を生成し、共有コードブック記憶部242に供給して記憶させるようにしてもよい。
この場合、共有コードブック記憶部242は、範囲決定部241からの共有コードブック81'のみを記憶することとなる。
全体特徴量算出部243には、全体特徴量算出部26と同様に、特徴量抽出部25から、注目生成用画像の正解ラベル、及び注目生成用画像から抽出された特徴点特徴量が供給される。
全体特徴量算出部243は、共有コードブック記憶部242に記憶されている共有コードブック81'に基づいて、特徴量抽出部25からの特徴点特徴量から、その注目生成用画像全体の特徴を表す全体特徴量を算出する。なお、全体特徴量算出部243が行う処理については、図16を参照して後述する。
そして、全体特徴量算出部243は、算出した注目生成用画像の全体特徴量を、特徴量抽出部25からの、注目生成用画像の正解ラベルとともに、識別器生成部27に供給する。
[範囲決定部241が行う範囲決定処理]
図15は、範囲決定部241が行なう範囲決定処理の一例を示している。
図15左側には、共有コードブック81に含まれる共有情報65、及び生成用画像2611乃至2615が示されている。なお、生成用画像2611乃至2615のうち、生成用画像2611乃至2613はポジティブ画像を表しており、生成用画像2614及び2615はネガティブ画像を表している。
図15中央には、生成用画像2611乃至2615それぞれから算出される所定の次元の次元特徴量である相関値xi(Corr_1乃至Corr_5)、及び生成用画像2611乃至2615それぞれの正解ラベルyi(yiは+1又は−1のいずれかの値)が示されている。
図15右側には、検索範囲の候補である候補範囲毎に、生成用画像2611乃至2615それぞれが、ポジティブ画像であるか、又はネガティブ画像であるかの識別を誤る度合いを表す誤り率Error(矩形で示す)を保持するエラーマップ281が示されている。
なお、エラーマップ281において、横軸Search xは、候補範囲の横方向(x方向)における長さを表しており、縦軸Search yは、候補範囲の縦方向(y方向)における長さを表している。
したがって、エラーマップ281において、複数の矩形のうち、例えば矩形301は、10×10画素(横×縦)の候補範囲における誤り率Errorを示している。
ここで、誤り率Errorは、上述したエラー値と同様に、生成用画像(ポジティブ画像又はネガティブ画像)の識別を誤る度合いを表すエラー情報である点で一致する。
しかしながら、エラー値は、識別器及び次元情報を生成するために用いられるものであり、誤り率Errorは、複数の候補範囲の中から、検索範囲を決定するために用いられる点で異なるため、本明細書では、誤り率Errorとエラー値とを区別して記載するようにしている。
範囲決定部241は、共有コードブック記憶部242に記憶されている共有コードブック81を、共有コードブック記憶部242から読み出す。
範囲決定部241は、読み出した共有コードブック81に含まれる共有情報65それぞれ(例えば、共有情報651及び652)が有する複数の特徴点を、順次、注目特徴点とする。
そして、範囲決定部241は、注目特徴点の検索範囲の候補である複数の候補範囲毎に、誤り率Errorを計算する。
すなわち、例えば、範囲決定部241は、生成用画像2611について、注目特徴点に対応する、生成用画像2611上の位置261C1を中心とする10×10画素(横×縦)の候補範囲261S1で、注目特徴点に対応する特徴点特徴量との相関値xi(=Corr_1)を算出する。
範囲決定部241は、生成用画像2611の場合と同様にして、生成用画像2612乃至2615それぞれについて、注目特徴点に対応する特徴点特徴量との相関値xi(=Corr_2乃至Corr_5)を算出する。
そして、範囲決定部241は、生成用画像2611乃至2615それぞれについて算出した相関値xi(=Corr_1乃至Corr_5)と、生成用画像2611乃至2615それぞれの正解ラベルyiとに基づいて、10×10画素の検索範囲における誤り率を、次式(8)を用いて計算する。
Figure 2011154500
・・・(8)
なお、式(8)において、f(xi)は、相関値xiに基づいて生成用画像2611乃至2615それぞれがポジティブ画像であるのかネガティブ画像であるのかを識別するための関数である。
関数f(xi)は、相関値xiが閾値Thresh以上である場合に、対応する生成用画像をポジティブ画像として識別したことを表す値1を出力し、相関値xiが閾値Thresh未満である場合に、対応する生成用画像をネガティブ画像として識別したことを表す値−1を出力する。
なお、閾値Threshは、相関値xiのうちの最小値以上であって最大値以下の値とされ、正解ラベルyiと、対応する関数f(xi)の値との誤差が最小となる値、つまり、誤り率Errorが最小となる値とされる。
具体的には、例えば、算出した相関値xi(=Corr_1乃至Corr_5)を、それぞれ、閾値Threshの候補となる候補閾値とし、式(8)による誤り率Errorを算出する。そして、複数の候補閾値のうち、正解ラベルyiと、対応する関数f(xi)の値との誤差が最小となる候補閾値を、閾値Threshとする。
また、式(8)において、関数Ew[l((yi≠f(xi)))]は、正解ラベルyiと関数f(xi)の出力値とが一致しない場合に値1とされ、正解ラベルyiと関数f(xi)の出力値とが一致する場合に値0とされる。
範囲決定部241は、式(8)を用いて算出した、10×10画素の候補範囲における誤り率Errorを、対応するエラーマップ281に記憶させる。これにより、エラーマップ281は、10×10画素の候補範囲における誤り率Error(矩形301で示す)を保持することとなる。
範囲決定部241は、10×10画素の候補範囲における誤り率Errorを算出した場合と同様にして、10×20画素の候補範囲、20×30画素の候補範囲等の他の候補範囲における誤り率Errorを算出し、対応するエラーマップ281の誤り保持領域に保持する。
このようにして、範囲決定部241は、図15右側に示されるような、それぞれ異なる候補範囲毎の誤り率Errorを保持するエラーマップ281を生成する。
そして、範囲決定部241は、生成したエラーマップ281が有する複数の誤り率Errorのうち、最小の誤り率Errorに対応する候補範囲を、注目特徴点における検索範囲に決定する。
範囲決定部241は、決定した検索範囲(を表す情報)を、注目特徴点に対応付ける。このようにして、範囲決定部241は、検索範囲を対応付けた特徴点を有する共有情報65を含む共有コードブック81'を生成し、共有コードブック記憶部242に供給して記憶させる。
全体特徴量算出部243では、共有コードブック記憶部242に記憶されている共有コードブック81'を用いて、生成用画像の全体特徴量を算出することとなる。
[全体特徴量算出部243が行う相関値の算出の一例]
次に、図16は、全体特徴量算出部243が行う処理の一例を説明するための図である。
なお、図6と同様に構成されている部分については、同一の符号を付しているため、それらの説明は以下適宜省略する。
すなわち、共有コードブック81に代えて、共有コードブック81'が示されている他は、図6の場合と同様に構成されている。
全体特徴量算出部243は、共有コードブック81'に含まれる共有情報652が有する識別子Cbnそれぞれに対応する特徴点特徴量1211乃至12110毎に、決定された検索範囲で、生成用画像141乃至145の相関値を算出する。
具体的には、例えば、全体特徴量算出部243は、生成用画像141を構成する全領域(全範囲)のうち、特徴点特徴量121n(nは1から10までの自然数)に対応する特徴点に対応付けられている検索範囲を、共有コードブック81'に含まれる共有情報652から読み出す。
そして、全体特徴量算出部243は、特徴点特徴量121nと、読み出した生成用画像141の検索範囲上に存在する特徴点の特徴点特徴量それぞれとの相関値を算出し、その算出により得られる複数の相関値のうち、最大の相関値を、注目特徴点特徴量121nと生成用画像141との最終的な相関値161nとする。
全体特徴量算出部243は、生成用画像141について、特徴点特徴量1211乃至12110それぞれとの相関値1611乃至16110を算出し、算出した相関値1611乃至16110を要素とするベクトルを、生成用画像141の全体特徴量とする。
全体特徴量算出部243は、生成用画像141の全体特徴量を算出した場合と同様にして、生成用画像142乃至145それぞれの全体特徴量を算出する。
全体特徴量算出部243は、複数の生成用画像141乃至145それぞれの全体特徴量を、識別器生成部27に供給する。
[学習装置221の動作説明]
次に、図17のフローチャートを参照して、学習装置221が行う学習処理(以下、第2の学習処理という)について説明する。
この第2の学習処理は、入力部21に学習用画像が供給されたときに開始される。このとき、入力部21は、供給される学習用画像としての生成用画像、プリミティブ画像、及びモデル画像のうち、プリミティブ画像及びモデル画像を、共有コードブック生成部22に供給し、生成用画像を特徴点抽出部24及び範囲決定部241に供給する。
ステップS111において、図8のステップS1と同様の処理が行なわれる。
ステップS112において、範囲決定部241は、共有コードブック記憶部242に記憶されている共有コードブック81を読み出す。
そして、範囲決定部241は、共有コードブック81に含まれる共有情報65が有する特徴点毎に、入力部21からの生成用画像との相関値を求めるために検索する生成用画像上の範囲を表す検索範囲を決定する範囲決定処理を行なう。なお、範囲決定部241が行なう範囲決定処理の詳細は、図18のフローチャートを参照して後述する。
ステップS113乃至ステップS115において、図8のステップS2乃至ステップS4と同様の処理が行なわれる。
ステップS116において、全体特徴量算出部243は、共有コードブック記憶部242に記憶されている共有コードブック81'に基づいて、特徴量抽出部25からの特徴点特徴量から、その注目生成用画像全体の特徴を表す全体特徴量を算出する。
すなわち、例えば、図16において説明したように、全体特徴量算出部243は、共有コードブック81'に含まれる共有情報65(例えば、識別対象が、自動車のカテゴリBに属するものであるか否かを識別する識別器及び次元情報を生成する場合には共有情報652)が有する特徴点それぞれに対応付けられている検索範囲、及び共有情報65が有する識別子Cbnそれぞれに対応付けられている特徴点特徴量に基づき、注目生成用画像の全体特徴量を算出する。
そして、全体特徴量算出部243は、算出した注目生成用画像の全体特徴量を、特徴量抽出部25からの、注目生成用画像の正解ラベルとともに、識別器生成部27に供給する。
ステップS117において、特徴点抽出部24は、入力部21からの複数の生成用画像すべてを、注目生成用画像としたか否かを判定する。そして、特徴点抽出部24は、入力部21からの複数の生成用画像すべてを、まだ注目生成用画像としていないと判定した場合、処理をステップS113に戻す。
ステップS113では、特徴点抽出部24は、入力部21からの複数の生成用画像のうち、まだ注目生成用画像とされていない生成用画像を、新たに注目生成用画像とし、処理をステップS114に進め、それ以降、同様の処理が行なわれる。
また、ステップS117において、特徴点抽出部24は、入力部21からの複数の生成用画像すべてを、注目生成用画像としたと判定した場合、処理をステップS118に進める。
ステップS118において、ステップS7と同様の処理が行なわれる。以上で、第2の学習処理は終了される。
[範囲決定部241の動作説明]
次に、図18のフローチャートを参照して、図17のステップS112における、範囲決定部241が行なう範囲決定処理について説明する。
ステップS131において、範囲決定部241は、共有コードブック記憶部242に記憶されている共有コードブック81を、共有コードブック記憶部242から読み出す。
そして、範囲決定部241は、読み出した共有コードブック81に含まれる共有情報65(例えば、共有情報651や共有情報652)それぞれが有する複数の特徴点を、順次、注目特徴点とする。
ステップS132において、範囲決定部241は、入力部21からの複数の生成用画像(例えば、生成用画像2611乃至2615)に基づいて、注目特徴点における検索範囲の候補である複数の候補範囲のうちの1つを指定する。
すなわち、例えば、範囲決定部241は、複数の生成用画像について、注目特徴点に対応する候補範囲として、10×10画素(横×縦)の候補範囲を指定する。
ステップS133において、範囲決定部241は、複数の生成用画像それぞれにおいて、指定した候補範囲上に存在する特徴点の特徴点特徴量と、注目特徴点に対応する特徴点特徴量との相関値xiを算出する。
ステップS134において、範囲決定部241は、複数の生成用画像について算出した相関値xiと、複数の生成用画像の正解ラベルyiとに基づいて、直前のステップS132の処理で指定された検索範囲における誤り率を、式(8)を用いて計算する。
そして、範囲決定部241は、式(8)を用いて算出した、10×10画素の候補範囲における誤り率Errorを、対応するエラーマップ281の誤り保持領域(例えば、誤り保持領域301)に保持する。
ステップS135において、範囲決定部241は、複数の候補範囲すべてを指定したか否かを判定し、複数の候補範囲すべてを指定していないと判定した場合、処理をステップS132に戻す。
そして、ステップS132において、範囲決定部241は、複数の候補範囲のうち、まだ指定されていない候補範囲を指定して、処理をステップS133に進め、それ以降、同様の処理を行なう。
また、ステップS135において、範囲決定部241は、複数の候補範囲すべてを指定したと判定した場合、処理をステップS136に進める。
ステップS136において、範囲決定部241は、共有コードブック81に含まれる共有情報65それぞれが有する複数の特徴点すべてを、注目特徴点としたか否かを判定し、複数の特徴点すべてを、まだ注目特徴点としていないと判定した場合、処理を、ステップS131に戻す。
そして、ステップS131では、範囲決定部241は、共有情報65それぞれが有する複数の特徴点のうち、まだ注目特徴点とされていない特徴点を、新たに注目特徴点とし、処理をステップS132に進め、それ以降、同様の処理を行なう。
また、ステップS136において、範囲決定部241は、共有コードブック81に含まれる共有情報65それぞれが有する複数の特徴点すべてを、注目特徴点としたと判定した場合、処理を、図17のステップS112にリターンさせ、ステップS113に進ませ、ステップS113において、図17のフローチャートを参照して説明した処理が行なわれる。
以上説明したように、学習装置221が行う第2の学習処理では、共有コードブック81'に含まれる共有情報65(例えば、共有情報652)が有する特徴点毎に、生成用画像の識別を誤る誤り率Errorが最小となる大きさの範囲を検索範囲として決定し、決定した検索範囲を用いて、生成用画像の全体特徴量を構成する次元特徴量を算出するようにした。
したがって、第2の学習処理では、共有情報65が有する特徴点毎に、同一の大きさの検索範囲を用いて、生成用画像の全体特徴量を構成する次元特徴量を算出する場合と比較して、より正確な全体特徴量を算出することができる。このため、算出した全体特徴量を用いて、識別対象をより正確に識別することが可能な識別器を生成することが可能となる。
[識別装置321の構成例]
図19は、学習装置221の学習により得られた識別器及び次元情報に基づいて、処理対象画像上に存在する被写体の識別を行う識別装置321の構成例を示している。
この識別装置321は、学習装置221(図14)により得られた識別器H(x)、及び次元情報としての最小エラー次元d(1)乃至d(T)の他、範囲決定部241において決定された検索範囲を用いて、処理対象画像上に存在する被写体が所定の識別対象であるか否かを識別する。
なお、図12の識別装置181と同様に構成されている部分については、同一の符号を付しているため、それらの説明については以下省略する。
すなわち、図19の識別装置321は、共有コードブック記憶部201及び全体特徴量算出部206に代えて、共有コードブック記憶部341及び全体特徴量算出部342が設けられている他は、図12の識別装置181と同様に構成されている。
共有コードブック記憶部341は、学習装置221の共有コードブック記憶部242(図14)に記憶されているのと同一の共有コードブック81’を予め記憶している。
全体特徴量算出部342には、特徴量抽出部205から、処理対象画像の特徴点特徴量が供給される。
全体特徴量算出部342は、学習装置221の全体特徴量算出部243と同様にして、共有コードブック記憶部341に記憶された共有コードブック81'に基づき、特徴量抽出部205からの処理対象画像の特徴点特徴量から、その処理対象画像の全体特徴量を構成する次元特徴量を求める。
[識別装置321の動作説明]
次に、図20のフローチャートを参照して、識別装置321が行う識別処理(以下、第2の識別処理という)について説明する。
この第2の識別処理は、例えば、処理対象画像が、特徴点抽出部204に供給されたときに開始される。
ステップS151及びステップS152では、それぞれ、図13のステップS91及びステップS92と同様の処理が行なわれる。
ステップS153では、全体特徴量算出部342は、共有コードブック記憶部341に記憶された共有コードブック81'に基づいて、特徴量抽出部205からの処理対象画像の特徴点特徴量から、その処理対象画像の全体特徴量を構成する次元特徴量のうち、次元情報記憶部202に記憶された次元情報としての最小エラー次元d(1)乃至d(T)の次元特徴量xd(1)'乃至xd(T)'を求める。
すなわち、例えば、全体特徴量算出部342は、共有コードブック81'に含まれる共有情報65(例えば、識別対象が、自動車のカテゴリBに属するものであるか否かを識別する場合には共有情報652)が有する特徴点それぞれに対応付けられている検索範囲、及び共有情報65が有する識別子Cbnそれぞれに対応付けられている特徴点特徴量に基づき、最小エラー次元d(1)乃至d(T)の次元特徴量xd(1)'乃至xd(T)'を求める。
そして、全体特徴量算出部342は、最小エラー次元d(1)乃至d(T)の次元特徴量xd(1)'乃至xd(T)'を、識別部207に供給して、処理をステップS154に進める。
ステップS154では、図13のステップS94と同様の処理が行なわれる。以上で、第2の識別処理は終了される。
以上説明したように、第2の識別処理では、共有コードブック81'に含まれる共有情報65(例えば、共有情報652)が有する特徴点毎に、生成用画像の識別を誤る誤り率Errorが最小となる大きさの範囲を検索範囲として決定し、決定した検索範囲を用いて、最小エラー次元d(1)乃至d(T)の次元特徴量xd(1)'乃至xd(T)'を求めるようにした。
したがって、第2の識別処理では、共有情報65が有する特徴点毎に、同一の大きさの検索範囲を用いて次元特徴量xd(1)'乃至xd(T)'を求める場合と比較して、識別対象をより正確に識別することが可能となる。
<3.変形例>
第1の実施の形態では、全体特徴量算出部26が、相関値を次元特徴量とする全体特徴量を算出するようにしたが、全体特徴量は、これに限定されず、その他、例えば、全体特徴量として、生成用画像のヒストグラムを算出するようにしてもよい。
全体特徴量算出部26が、全体特徴量として、生成用画像のヒストグラムを算出する場合には、例えば、識別対象が属するカテゴリのK個の特徴点特徴量の値を階数とする。
そして、全体特徴量算出部26は、そのK個の階数のうち、生成用画像において注目している特徴点(注目特徴点)の特徴点特徴量の値との差分絶対値が最も小さい階数の頻度を、1だけ増加するようにして、生成用画像のヒストグラムを算出することとなる。
第1の実施の形態では、図7の識別器生成部27が、次元特徴量を選択するとともに、識別器を生成するために従うアルゴリズムとして、ブースティングのアルゴリズムを採用することとしたが、これに限定されない。
すなわち、識別器生成部27は、次元特徴量を選択するとともに、識別器を生成することが可能であれば、ブースティングのアルゴリズムの他、どのようなアルゴリズムに従うようにしてもよい。
また、第1の実施の形態では、学習装置1において、識別対象のカテゴリを識別するための次元情報を選択するとともに、識別器を生成し、識別装置181において、識別対象が、所定のカテゴリに属する識別対象であるか否かを識別するようにしたが、これに限定されない。
すなわち、例えば、学習装置1において、所定の物体そのものであるか否かを識別するための次元情報を選択するとともに、識別器を生成し、識別装置181において、識別対象が、所定の物体そのものであるか否かを識別するように構成することができる。この場合、共有コードブック81における共有情報65は、カテゴリ毎ではなく、物体毎に生成されることとなる。このことは、第2の実施の形態における学習装置221及び識別装置321についても同様のことが言える。
また、第1の実施の形態では、学習装置1と識別装置181とを別々の装置として構成するようにしたが、学習装置1と識別装置181とを1つの装置として構成するようにしてもよい。このことは、第2の実施の形態における学習装置221及び識別装置321についても同様である。
第2の実施の形態では、共有コードブック81に含まれる共有情報65が有する特徴点毎に検索範囲を決定するようにして、共有コードブック81'を生成するようにしたが、検索範囲を決定する対象は、これに限定されない。
すなわち、例えば、検索範囲を決定する対象としては、検索範囲を決定する必要があって、共有コードブック81と同様に用いられるものであれば、どのようなものでもよい。
ところで、上述した一連の処理は、専用のハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、いわゆる組み込み型のコンピュータ、又は、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等に、記録媒体からインストールされる。
[コンピュータの構成例]
次に、図21は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータの構成例を示している。
CPU(Central Processing Unit)361は、ROM(Read Only Memory)362、又は記憶部368に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)363には、CPU361が実行するプログラムやデータ等が適宜記憶される。これらのCPU361、ROM362、及びRAM363は、バス364により相互に接続されている。
CPU361にはまた、バス364を介して入出力インタフェース365が接続されている。入出力インタフェース365には、キーボード、マウス、マイクロホン等よりなる入力部366、ディスプレイ、スピーカ等よりなる出力部367が接続されている。CPU361は、入力部366から入力される指令に対応して各種の処理を実行する。そして、CPU361は、処理の結果を出力部367に出力する。
入出力インタフェース365に接続されている記憶部368は、例えばハードディスクからなり、CPU361が実行するプログラムや各種のデータを記憶する。通信部369は、インターネットやローカルエリアネットワーク等のネットワークを介して外部の装置と通信する。
また、通信部369を介してプログラムを取得し、記憶部368に記憶してもよい。
入出力インタフェース365に接続されているドライブ370は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等のリムーバブルメディア371が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータ等を取得する。取得されたプログラムやデータは、必要に応じて記憶部368に転送され、記憶される。
コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを記録(記憶)する記録媒体は、図21に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini-Disc)を含む)、もしくは半導体メモリ等よりなるパッケージメディアであるリムーバブルメディア371、又は、プログラムが一時的もしくは永続的に格納されるROM362や、記憶部368を構成するハードディスク等により構成される。記録媒体へのプログラムの記録は、必要に応じてルータ、モデム等のインタフェースである通信部369を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線又は無線の通信媒体を利用して行われる。
なお、本明細書において、上述した一連の処理を記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本発明の実施の形態は、上述した本実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
1 学習装置, 21 入力部, 22 共有コードブック生成部, 23 共有コードブック記憶部, 24 特徴点抽出部, 25 特徴量抽出部, 26 全体特徴量算出部, 27 識別器生成部, 41 特徴点抽出部, 42 特徴量抽出部, 43 コードブック生成部, 44 コードブック記憶部, 45 特徴点抽出部, 46 特徴量抽出部, 47 特徴量置換部, 48 量子化部, 181 識別装置, 201 共有コードブック記憶部, 202 次元情報記憶部, 203 識別器記憶部, 204 特徴点抽出部, 205 特徴量抽出部, 206 全体特徴量算出部, 207 識別部, 221 学習装置, 241 範囲決定部, 242 共有コードブック記憶部, 243 全体特徴量算出部, 321 識別装置, 341 共有コードブック記憶部, 342 全体特徴量算出部

Claims (20)

  1. 画像上に存在する被写体が所定の識別対象であるか否かを識別するための識別器を生成するために用いられる複数の生成用画像であって、且つ、前記識別対象が画像上に存在するポジティブ画像と、前記識別対象が画像上に存在しないネガティブ画像とにより構成される前記複数の生成用画像それぞれから特徴点を抽出する特徴点抽出手段と、
    前記生成用画像から、前記特徴点の特徴を表す特徴点特徴量を抽出する特徴点特徴量抽出手段と、
    異なる識別対象をそれぞれ識別する識別器の生成に共通して用いられる生成用特徴量を含む共有コードブックに基づいて、前記生成用画像の前記特徴点特徴量から、前記生成用画像全体の特徴を表す全体特徴量を算出する全体特徴量算出手段と、
    前記生成用画像の前記全体特徴量と、前記生成用画像が前記ポジティブ画像であるか前記ネガティブ画像であるかを表す正解ラベルとに基づいて、前記識別器を生成する識別器生成手段と
    を含む学習装置。
  2. 複数の前記生成用特徴量それぞれを、前記生成用特徴量を識別するための識別子に対応づけて保持するコードブックと、
    異なる識別対象をそれぞれ識別する識別器毎に作成された複数の共有情報であって、且つ、前記複数の生成用特徴量のうち、前記全体特徴量を算出する際に用いる前記生成用特徴量の前記識別子を有する共有情報と
    により構成される共有コードブックを記憶している共有コードブック記憶手段をさらに含み、
    前記全体特徴量算出手段は、前記コードブックが保持する前記複数の生成用特徴量のうち、前記識別器生成手段により生成される前記識別器について作成された前記共有情報が有する前記識別子に対応付けられている生成用特徴量を用いて、前記全体特徴量を算出する
    請求項1に記載の学習装置。
  3. 前記複数の共有情報のうちの所定の共有情報は、他の共有情報が有する前記識別子と同一の識別子を有している
    請求項2に記載の学習装置。
  4. 前記所定の共有情報は、前記ポジティブ画像であるモデル画像から抽出された特徴点も対応付けられた前記識別子を有しており、
    前記全体特徴量算出手段は、前記識別子に対応付けられている生成用特徴量と、前記生成用画像上の全範囲のうち、前記識別子に対応付けられている前記特徴点に基づき決定される範囲上に存在する特徴点の特徴点特徴量とを用いて、前記全体特徴量を算出する
    請求項3に記載の学習装置。
  5. 前記所定の共有情報が有する前記識別子には、前記他の共有情報が有する同一の前記識別子に対応付けられている特徴点とは異なる特徴点が対応付けられている
    請求項4に記載の学習装置。
  6. 前記ポジティブ画像であるモデル画像から特徴点を抽出するモデル画像特徴点抽出手段と、
    前記モデル画像の特徴点における頻度分布に基づいて、前記特徴点を量子化する量子化手段と
    をさらに含み、
    前記共有情報は、量子化後の前記特徴点が対応付けられた前記識別子を有する
    請求項5に記載の学習装置。
  7. 前記全体特徴量算出手段は、前記全体特徴量として、前記共有コードブックに含まれる前記生成用特徴量と、前記生成用画像の前記特徴点特徴量との相関を表す相関値を算出する
    請求項1に記載の学習装置。
  8. 前記識別器生成手段は、複数の次元のベクトルにより表される前記全体特徴量の各次元の要素である複数の次元特徴量のうち、前記ポジティブ画像、及び前記ネガティブ画像の識別を誤る度合いを表すエラー値を小さくする前記次元特徴量を用いて識別を行なう前記識別器と、前記エラー値を小さくする前記次元特徴量の次元を表す次元情報とを生成する
    請求項1に記載の学習装置。
  9. 所定の識別対象を識別するための識別器を学習する学習装置の学習方法において、
    前記学習装置は、
    特徴点抽出手段と、
    特徴点特徴量抽出手段と、
    全体特徴量算出手段と、
    識別器生成手段と
    を含み、
    前記特徴点抽出手段が、画像上に存在する被写体が所定の識別対象であるか否かを識別するための識別器を生成するために用いられる複数の生成用画像であって、且つ、前記識別対象が画像上に存在するポジティブ画像と、前記識別対象が画像上に存在しないネガティブ画像とにより構成される前記複数の生成用画像それぞれから特徴点を抽出し、
    前記特徴点特徴量抽出手段が、前記生成用画像から、前記特徴点の特徴を表す特徴点特徴量を抽出し、
    前記全体特徴量算出手段が、異なる識別対象をそれぞれ識別する識別器の生成に共通して用いられる生成用特徴量を含む共有コードブックに基づいて、前記生成用画像の前記特徴点特徴量から、前記生成用画像全体の特徴を表す全体特徴量を算出し、
    前記識別器生成手段が、前記生成用画像の前記全体特徴量と、前記生成用画像が前記ポジティブ画像であるか前記ネガティブ画像であるかを表す正解ラベルとに基づいて、前記識別器を生成する
    ステップを含む学習方法。
  10. コンピュータを、
    画像上に存在する被写体が所定の識別対象であるか否かを識別するための識別器を生成するために用いられる複数の生成用画像であって、且つ、前記識別対象が画像上に存在するポジティブ画像と、前記識別対象が画像上に存在しないネガティブ画像とにより構成される前記複数の生成用画像それぞれから特徴点を抽出する特徴点抽出手段と、
    前記生成用画像から、前記特徴点の特徴を表す特徴点特徴量を抽出する特徴点特徴量抽出手段と、
    異なる識別対象をそれぞれ識別する識別器の生成に共通して用いられる生成用特徴量を含む共有コードブックに基づいて、前記生成用画像の前記特徴点特徴量から、前記生成用画像全体の特徴を表す全体特徴量を算出する全体特徴量算出手段と、
    前記生成用画像の前記全体特徴量と、前記生成用画像が前記ポジティブ画像であるか前記ネガティブ画像であるかを表す正解ラベルとに基づいて、前記識別器を生成する識別器生成手段と
    して機能させるためのプログラム。
  11. 画像上に存在する被写体が所定の識別対象であるか否かを識別する処理の対象とする処理対象画像から特徴点を抽出する特徴点抽出手段と、
    前記処理対象画像から、前記特徴点の特徴を表す特徴点特徴量を抽出する特徴点特徴量抽出手段と、
    異なる識別対象をそれぞれ識別する識別器の生成に共通して用いられた生成用特徴量を含む共有コードブックに基づいて、前記処理対象画像の特徴点特徴量から、前記処理対象画像全体の特徴を表す全体特徴量を算出する全体特徴量算出手段と、
    画像上に存在する被写体が所定の識別対象であるか否かを識別する識別器と、前記全体特徴量とに基づいて、前記処理対象画像上に存在する被写体が所定の識別対象であるか否かを識別する識別手段と
    を含む識別装置。
  12. 複数の前記生成用特徴量それぞれを、前記生成用特徴量を識別するための識別子に対応づけて保持するコードブックと、
    異なる識別対象をそれぞれ識別する識別器毎に作成された複数の共有情報であって、且つ、前記複数の生成用特徴量のうち、前記全体特徴量を算出する際に用いる前記生成用特徴量の前記識別子を有する共有情報と
    により構成される共有コードブックを記憶している共有コードブック記憶手段をさらに含み、
    前記全体特徴量算出手段は、前記コードブックが保持する前記複数の生成用特徴量のうち、前記識別手段で用いられる前記識別器について作成された前記共有情報が有する前記識別子に対応付けられている生成用特徴量を用いて、前記全体特徴量を算出する
    請求項11に記載の識別装置。
  13. 前記複数の共有情報のうちの所定の共有情報は、他の共有情報が有する前記識別子と同一の識別子を有している
    請求項12に記載の識別装置。
  14. 前記所定の共有情報は、前記所定の識別対象が画像上に存在するモデル画像から抽出された特徴点も対応付けられた前記識別子を有しており、
    前記全体特徴量算出手段は、前記識別子に対応付けられている生成用特徴量と、前記処理対象画像上の全範囲のうち、前記識別子に対応付けられている前記特徴点に基づき決定される範囲上に存在する特徴点の特徴点特徴量とを用いて、前記全体特徴量を算出する
    請求項13に記載の識別装置。
  15. 前記共有情報が有する前記識別子には、前記他の共有情報が有する同一の前記識別子に対応付けられている特徴点とは異なる特徴点が対応付けられている
    請求項14に記載の識別装置。
  16. 前記全体特徴量算出手段は、前記全体特徴量として、前記共有コードブックに含まれる前記生成用特徴量と、前記処理対象画像の前記特徴点特徴量との相関を表す相関値を算出する
    請求項11に記載の識別装置。
  17. 前記全体特徴量算出手段は、前記共有コードブックに基づいて、前記処理対象画像の特徴点特徴量から、前記処理対象画像全体の特徴を表す全体特徴量であって、且つ、複数の次元特徴量により構成される前記全体特徴量を算出し、
    前記識別手段は、画像上に存在する被写体が所定の識別対象であるか否かを識別する識別器に対して、前記全体特徴量を構成する前記複数の次元特徴量のうち、所定の次元特徴量を入力として与えることで、前記処理対象画像上に存在する被写体が所定の識別対象であるか否かを識別する
    請求項11に記載の識別装置。
  18. 前記識別手段は、画像上に存在する被写体が所定の識別対象であるか否かを識別する識別器に対して、前記全体特徴量を構成する前記複数の次元特徴量のうち、次元情報が表す次元の次元特徴量を入力として与えることで、前記処理対象画像に写っている被写体が所定の識別対象であるか否かを識別し、
    前記識別器は、前記全体特徴量を表す前記複数の次元特徴量のうち、前記識別対象が画像上に存在するポジティブ画像、及び前記識別対象が画像上に存在しないネガティブ画像の識別を誤る度合いを表すエラー値を小さくする前記次元特徴量を用いて識別を行なうものであり、
    前記次元情報は、前記エラー値を小さくする前記次元特徴量の次元を表すものである
    請求項17に記載の識別装置。
  19. 画像に写っている被写体が所定の識別対象であるか否かを識別する識別装置の識別方法において、
    前記識別装置は、
    特徴点抽出手段と、
    特徴点特徴量抽出手段と、
    全体特徴量算出手段と、
    識別手段と
    を含み、
    前記特徴点抽出手段が、画像上に存在する被写体が所定の識別対象であるか否かを識別する処理の対象とする処理対象画像から特徴点を抽出し、
    前記特徴点特徴量抽出手段が、前記処理対象画像から、前記特徴点の特徴を表す特徴点特徴量を抽出し、
    前記全体特徴量算出手段が、異なる識別対象をそれぞれ識別する識別器の生成に共通して用いられた生成用特徴量を含む共有コードブックに基づいて、前記処理対象画像の特徴点特徴量から、前記処理対象画像全体の特徴を表す全体特徴量を算出し、
    前記識別手段が、画像上に存在する被写体が所定の識別対象であるか否かを識別する識別器と、前記全体特徴量とに基づいて、前記処理対象画像上に存在する被写体が所定の識別対象であるか否かを識別する
    ステップを含む識別方法。
  20. コンピュータを、
    画像上に存在する被写体が所定の識別対象であるか否かを識別する処理の対象とする処理対象画像から特徴点を抽出する特徴点抽出手段と、
    前記処理対象画像から、前記特徴点の特徴を表す特徴点特徴量を抽出する特徴点特徴量抽出手段と、
    異なる識別対象をそれぞれ識別する識別器の生成に共通して用いられた生成用特徴量を含む共有コードブックに基づいて、前記処理対象画像の特徴点特徴量から、前記処理対象画像全体の特徴を表す全体特徴量を算出する全体特徴量算出手段と、
    画像上に存在する被写体が所定の識別対象であるか否かを識別する識別器と、前記全体特徴量とに基づいて、前記処理対象画像上に存在する被写体が所定の識別対象であるか否かを識別する識別手段と
    して機能させるためのプログラム。
JP2010015087A 2010-01-27 2010-01-27 学習装置、学習方法、識別装置、識別方法、及びプログラム Withdrawn JP2011154500A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010015087A JP2011154500A (ja) 2010-01-27 2010-01-27 学習装置、学習方法、識別装置、識別方法、及びプログラム
US12/938,620 US8340403B2 (en) 2010-01-27 2010-11-03 Learning device, learning method, identifying device, identifying method, and program
CN2010105995249A CN102147868A (zh) 2010-01-27 2010-12-22 学习装置、学习方法、识别装置、识别方法和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010015087A JP2011154500A (ja) 2010-01-27 2010-01-27 学習装置、学習方法、識別装置、識別方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2011154500A true JP2011154500A (ja) 2011-08-11

Family

ID=44308988

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010015087A Withdrawn JP2011154500A (ja) 2010-01-27 2010-01-27 学習装置、学習方法、識別装置、識別方法、及びプログラム

Country Status (3)

Country Link
US (1) US8340403B2 (ja)
JP (1) JP2011154500A (ja)
CN (1) CN102147868A (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201128441A (en) * 2010-02-01 2011-08-16 Hon Hai Prec Ind Co Ltd Television system and remote controller thereof and method for selecting program and method for adjusting volume
CN102682091A (zh) * 2012-04-25 2012-09-19 腾讯科技(深圳)有限公司 基于云服务的视觉搜索方法和系统
JP6168876B2 (ja) * 2013-06-24 2017-07-26 オリンパス株式会社 検出装置、学習装置、検出方法、学習方法及びプログラム
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
US11259051B2 (en) * 2016-05-16 2022-02-22 Numeri Ltd. Pyramid algorithm for video compression and video analysis
CN107609573B (zh) * 2017-08-17 2020-11-10 东华大学 基于低秩分解和空谱约束的高光谱图像时变特征提取方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5619619A (en) * 1993-03-11 1997-04-08 Kabushiki Kaisha Toshiba Information recognition system and control system using same
JP4618098B2 (ja) 2005-11-02 2011-01-26 ソニー株式会社 画像処理システム
CN101030244B (zh) * 2006-03-03 2010-08-18 中国科学院自动化研究所 基于人体生理图像中排序测度特征的自动身份识别方法
JP5041229B2 (ja) * 2007-12-07 2012-10-03 ソニー株式会社 学習装置および方法、認識装置および方法、並びにプログラム

Also Published As

Publication number Publication date
US20110182515A1 (en) 2011-07-28
CN102147868A (zh) 2011-08-10
US8340403B2 (en) 2012-12-25

Similar Documents

Publication Publication Date Title
JP2011154501A (ja) 学習装置、学習方法、識別装置、識別方法、プログラム、及び情報処理システム
US7783581B2 (en) Data learning system for identifying, learning apparatus, identifying apparatus and learning method
JP6708385B2 (ja) 識別器作成装置、識別器作成方法、およびプログラム
He et al. Learning and incorporating top-down cues in image segmentation
US10395136B2 (en) Image processing apparatus, image processing method, and recording medium
JP2011013732A (ja) 情報処理装置、情報処理方法、およびプログラム
US20170220864A1 (en) Method for Implementing a High-Level Image Representation for Image Analysis
US8761510B2 (en) Object-centric spatial pooling for image classification
JP4720913B2 (ja) 学習装置、学習方法、識別装置、識別方法、及び、プログラム
US9563822B2 (en) Learning apparatus, density measuring apparatus, learning method, computer program product, and density measuring system
KR20150054258A (ko) 인식기 학습 방법 및 장치, 데이터 인식 방법 및 장치
CN103198292A (zh) 人脸特征向量构建
JP2008217589A (ja) 学習装置及びパターン認識装置
JP6897749B2 (ja) 学習方法、学習システム、および学習プログラム
JP2011150541A (ja) 学習装置、学習方法、及びプログラム
JP2011154500A (ja) 学習装置、学習方法、識別装置、識別方法、及びプログラム
CN114998220B (zh) 一种基于改进的Tiny-YOLO v4自然环境下舌像检测定位方法
JP2008015641A (ja) 人体領域抽出方法および装置並びにプログラム
JPWO2018207334A1 (ja) 画像認識装置、画像認識方法および画像認識プログラム
JP2012252447A (ja) 情報処理装置および方法、記録媒体、並びにプログラム
Parikh et al. Determining patch saliency using low-level context
CN116912796A (zh) 一种基于新型动态级联YOLOv8的自动驾驶目标识别方法及装置
CN115393666A (zh) 图像分类中基于原型补全的小样本扩充方法及系统
CN115203408A (zh) 一种多模态试验数据智能标注方法
JP2010009517A (ja) パターン検出器の学習装置、学習方法及びプログラム

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130402