JP2016062253A - オブジェクト識別装置、オブジェクト識別方法及びプログラム - Google Patents

オブジェクト識別装置、オブジェクト識別方法及びプログラム Download PDF

Info

Publication number
JP2016062253A
JP2016062253A JP2014189168A JP2014189168A JP2016062253A JP 2016062253 A JP2016062253 A JP 2016062253A JP 2014189168 A JP2014189168 A JP 2014189168A JP 2014189168 A JP2014189168 A JP 2014189168A JP 2016062253 A JP2016062253 A JP 2016062253A
Authority
JP
Japan
Prior art keywords
similarity
partial feature
unit
learning
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014189168A
Other languages
English (en)
Other versions
JP6544900B2 (ja
Inventor
佐藤 博
Hiroshi Sato
博 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014189168A priority Critical patent/JP6544900B2/ja
Priority to US14/853,777 priority patent/US9626553B2/en
Publication of JP2016062253A publication Critical patent/JP2016062253A/ja
Application granted granted Critical
Publication of JP6544900B2 publication Critical patent/JP6544900B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5854Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/772Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Library & Information Science (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)
  • Studio Devices (AREA)

Abstract

【課題】ユーザの利便性を保ちつつ、オンライン学習を有効に利用できるようにする。【解決手段】オブジェクト識別装置100は、登録画像内のオブジェクトの特徴部分の部分特徴量に対して設定された類似度に基づいて、オブジェクトの類似度を生成する生成手段と、その類似度に基づいてオブジェクトの識別処理に利用されるパラメータを学習する学習手段と、入力画像内のオブジェクトの特徴部分の部分特徴量と登録画像内のオブジェクトの部分特徴量との類似度を取得する取得手段と、取得された類似度と学習されたパラメータに基づいて、入力画像内のオブジェクトの識別をする識別手段とを有することにより、学習データの削減と学習処理の軽減をする。【選択図】図1

Description

本発明は、オブジェクト識別装置、オブジェクト識別方法及びプログラムに関する。
パターン認識における識別技術、特に画像データ中の被写体である個人が、別の画像中の被写体である個人と同一であるか否か識別する技術として、個人の顔を識別する顔識別技術がある。以下、本明細書では、オブジェクトの識別とは、オブジェクトの個体の違い(例えば、個人としての人物の違い)を判定することを意味する。一方、オブジェクトの検出とは、個体を区別せず同じ範疇に入るものを判定する(例えば、個人を区別せず、顔を検出する)ことを意味するものとする。
特許第4379459号公報
Qi Yin, Xiaoou Tang, and Jian Sun. "An Associate−Predict Model for Face Recognition." Computer Vision and Pattern Recognition (CVPR), 2011. P. Viola and M. Jones,"Robust real−time face detection", pp.747, Eighth International Conference on Computer Vision (ICCV'01) − Volume 2, 2001.
上記のような、パターン(画像中のオブジェクト、人物の顔等)の識別を行う装置及び方法においての識別性能を低下させる要因としては、登録用パターンと認証用パターンとの間の変動が挙げられる。即ち、識別対象である人物の顔等のオブジェクトの変動、具体的には、照明条件、向き・姿勢、他のオブジェクトによる隠れ、表情による変動等である。登録用パターンと認証用パターンとの間の変動が大きくなると、識別性能が大幅に低下してしまうという問題がある。
この問題に対するための従来技術には、画像中のオブジェクトの局所部分に注目するという技術がある。例えば、オブジェクトが人物の顔であるとして、ある個人を撮像した顔画像データについて、一般に上述のような変動の影響は、顔の全域で均一には現れない。例えば、表情変動の場合、表情のある画像と無表情の画像では、口や目に比べて、鼻付近の変動は少ないと期待される。同様に、照明変動の場合、斜光を受けた顔画像と全体に均一に照明が当たった顔画像との間の変動は、斜光が当たっている部分における変動のほうが、斜光が当たっていない部分における変動に比べて小さいと期待される。また、顔の向きが観察者に相対して左に向いた場合、顔の3次元形状から、顔の左側は奥行き方向に隠れるため、正面顔との変動は顔の右側よりも顔の左側の方が大きい。したがって、表情変動や、照明変動、顔向き変動等の変動が生じても、ある局所領域の変動が個人の識別が不可能なほどに大きくても、他の局所領域では個人の特定が可能な程度の変動である場合がある。即ち、比較的変動の少ない局所領域毎の類似度を選択的に統合して用いれば、良好な個人識別が可能となると考えられる。
また、大きな変動に対応するためには、予め登録用パターンに十分な変動を含ませることが、一般的に有効であるとされている。例えば人物の顔の場合、登録人物ごとに、照明条件、向き・姿勢、隠れ、表情等の変動をもつ画像を登録しておけばよい。撮影の際に起こりうる条件を予め登録画像に含めておけば、認識精度の向上が期待できる。
しかし、予め多数の登録画像を準備することは、ユーザの利便性とは相反する制約であり、さらに、精度向上に寄与する変動パターンを用意することも実用上は困難であるという問題がある。
上記問題に対して、特許文献1では、登録オブジェクトの3次元形状を用いて、1枚の画像から様々な変動画像を作り出し、擬似的に登録画像を増やす方式を提案している。
また、非特許文献1では、予め人種や、性別、年齢について十分な数のデータを準備しておき、そこから入ってきた画像に近い画像を再構成する方式を提案している。準備されたデータには、向きや照明条件について変動を加えたデータが予め紐づけられているので、例えば横を向いた画像から、正面を向いた画像を再構成することが可能になる。
認識精度の向上のために、登録オブジェクトに特化した識別器を個々に用意する手法も長く研究されている。この手法は、画像を登録した際に機械学習を行うので、オンライン学習とも呼ばれる。オンライン学習は精度向上のための有効な技術であるが、大きく2つの問題がある。1つ目の問題は、学習データの問題である。上述のようにユーザの利便性を考えると登録オブジェクトの画像は、少ない程よい。一方、識別器を登録オブジェクトに特化させるには、学習データはある程度十分な数が必要である。2つ目の問題は、計算量の問題である。一般に機械学習は、様々な統計処理や数値演算を駆使して行われることが多いが、デジタルカメラや携帯電話等限られた計算リソースしかないデバイスに組み込もうとする場合、その処理量が問題になる。1つ目の問題は、上述の特許文献1や非特許文献1の方法により、少ない登録画像から変動画像を作り出すことによって、回避できる可能性があるが、画像を入力とするので2つ目の問題を大きくする。即ち、画像のような高次元のデータを機械学習の入力とすると、処理負荷が大きくなる。一方、処理負荷を減らすために、学習データの量を減らすと、十分な変動を含むことができなくなり、精度向上が期待できなくなる。上記のような問題のために、ユーザの利便性を保ちつつ、オンライン学習を有効に用いることができなかった。
そこで、本発明は、ユーザの利便性を保ちつつ、オンライン学習を有効に利用できるようにすることを目的とする。
そこで、本発明のオブジェクト識別装置は、登録画像内のオブジェクトの特徴部分の部分特徴量に対応する部分特徴量に対して設定された類似度に基づいて、前記登録画像の前記特徴部分の部分特徴量の類似度を生成する生成手段と、前記生成手段により生成された前記類似度に基づいて、前記登録画像内のオブジェクトの識別処理に利用されるパラメータを学習する学習手段と、入力画像内のオブジェクトの前記特徴部分の部分特徴量と前記登録画像内のオブジェクトの前記特徴部分の部分特徴量との類似度を取得する取得手段と、前記取得手段により取得された類似度と、前記学習手段により学習されたパラメータとに基づいて、前記入力画像内のオブジェクトが前記登録画像内のオブジェクトと同一か否かを識別する識別手段と、を有する。
本発明によれば、ユーザの利便性を保ちつつ、オンライン学習を有効に利用できるようにすることができる。
オブジェクト識別装置のハードウェア構成の一例を示す図である。 オブジェクト識別装置の処理の一例を示すフローチャートである。 オブジェクト登録部の機能構成の一例を示す図である。 登録オブジェクト辞書データ生成部の機能構成の一例を示す図である。 識別器学習部の機能構成の一例を示す図である。 登録オブジェクト類似度生成部の機能構成の一例を示す図である。 オブジェクト類似度生成部の処理の一例を示すフローチャートである。 識別器学習部の処理の一例を示すフローチャートである。 入力オブジェクト識別部の機能構成の一例を示す図である。 入力オブジェクト識別部の処理の一例を示すフローチャートである。 入力オブジェクト識別用データ生成部の機能構成の一例を示す図である。 入力オブジェクト識別演算部の機能構成の一例を示す図である。 入力オブジェクト識別演算部の処理の一例を示すフローチャートである。 登録オブジェクト辞書データ生成部の機能構成の一例を示す図である。 部分特徴量選択部の処理の一例を示すフローチャートである。
以下、本発明の実施形態について図面に基づいて説明する。
<実施形態1>
図1は、オブジェクト識別装置100全体のハードウェア構成の一例を示す図である。オブジェクト識別装置100は、結像光学系1、撮像部2、撮像制御部3、画像記録部4、オブジェクト登録部5、入力オブジェクト識別部6、外部出力部7、接続バス8、を含む。
結像光学系1は、ズーム機構を備えた光学レンズを含み、パン・チルト軸方向の駆動機構を備えてもよい。
撮像部2は、映像センサとして典型的にはCCD又はCMOSイメージセンサを含み、センサ駆動回路からの読み出し制御信号に基づいて、予め定められた映像信号(サブサンプリング、ブロック読み出しして得られる信号等)を画像データとして出力する。
撮像制御部3は、撮影者の操作に基づく指示(画角調整指示、シャッター押下等)、オブジェクト登録部5や入力オブジェクト識別部6からの情報等に基づいて、実際に撮影が行われるタイミングを制御する。
画像記録部4は、半導体メモリ等を含み、撮像部2から転送された画像データを保持し、オブジェクト登録部5、入力オブジェクト識別部6からの要求に応じて、予め定められたタイミングで、画像データを転送する。
オブジェクト登録部5は、画像データから識別対象のオブジェクトの情報を抽出し、記録・保持する。オブジェクト登録部5の、詳細な構成及び行われる処理の内容の詳細については、図3〜8で後述する。
入力オブジェクト識別部6は、オブジェクト登録部5から取得した画像データ等の画像データに基づいて、オブジェクトの識別を行う。入力オブジェクト識別部6の、詳細な構成及び行われる処理の内容の詳細については、図9〜13で後述する。
外部出力部7は、典型的には、TFT液晶等のモニタを含み、撮像部2及び画像記録部4等から取得した画像データを、又は、画像データにオブジェクト登録部5、入力オブジェクト識別部6等の出力結果を重畳した画像データを、表示する。また、外部出力部7は、オブジェクト登録部5、入力オブジェクト識別部6の出力結果を電子データとして、外部メモリ等に出力してもよい。
接続バス8は、オブジェクト識別装置100の構成要素間の制御・データ接続を行うためのバスである。
撮像制御部3、オブジェクト登録部5、入力オブジェクト識別部6は、それぞれ専用回路(ASIC)、プロセッサ(リコンフィギュラブルプロセッサ、DSP、CPU等)等を有していてもよい。
また、撮像制御部3、オブジェクト登録部5、入力オブジェクト識別部6は、オブジェクト識別装置100にソフトウェア構成として実装されてもよい。即ち、オブジェクト識別装置100は、ハードウェア構成としてCPUとメモリとを更に有する。そして、CPUがメモリに記憶されているプログラムに基づき処理を実行することによって、撮像制御部3、オブジェクト登録部5、入力オブジェクト識別部6に機能を実現するようにしてもよい。
ただし、撮像制御部3、オブジェクト登録部5、入力オブジェクト識別部6がそれぞれ専用回路、プロセッサ等を有している場合、撮像制御部3、オブジェクト登録部5、入力オブジェクト識別部6の機能及び処理については、以下のようになる。即ち、前記専用回路、プロセッサ等が、ハードディスク装置又はROM等に記憶されたプログラムに基づき処理を実行することによって、前記機能及び処理が実現される。
[全体処理]
図2は、オブジェクト識別装置100の処理の一例を示すフローチャートである。図2を参照し、オブジェクト識別装置100が、入力オブジェクトの識別を行う実際の処理について説明する。入力オブジェクトは、入力画像内のオブジェクトである。なお、以下では、識別対象のオブジェクトが人物の顔であるとして説明するが、識別対象のオブジェクトは、人物の顔に限られず、人物の全体像、道路標識等であってもよい。
S00において、オブジェクト識別装置100は、起動処理を行う。オブジェクト識別装置100の各構成要素は、起動の際に行うよう設定されている処理を行う。オブジェクト登録部5、入力オブジェクト識別部6は、利用するパラメータをハードディスク装置、ROM等の記憶部から読み出す処理等を行う。
S01において、オブジェクト識別装置100は、画像記録部4から処理対象の画像データを取得する。前記画像データは入力画像の一例である。
S02において、オブジェクト識別装置100は、S01で取得した画像データに対して、人の顔の検出処理を行う。画像中から、人物の顔を検出する方法については、例えば、非特許文献2で提案されている技術等の公知の技術を用いればよい。
S03において、オブジェクト識別装置100は、S02の検出処理で、人の顔を検出したか否かを判定する。オブジェクト識別装置100は、S02の検出処理で、人の顔を検出した場合、S04の処理へ進む。オブジェクト識別装置100は、S02の検出処理で、人の顔を検出しなかった場合、処理を終了する。
S04において、オブジェクト識別装置100は、S02で検出した人の顔の識別処理を行う。より具体的には、オブジェクト識別装置100の構成要素である入力オブジェクト識別部6がS04の処理を行う。処理の詳細については、図9〜13で後述する。
S05において、オブジェクト識別装置100は、S04での識別処理の結果から、S02で検出した顔の人物と同一人物が登録済みの人物の中に存在するか否かを判定する。オブジェクト識別装置100は、S02で検出した顔の人物と同一人物が登録済みの人物の中に存在すると判定した場合、S08の処理へ進む。オブジェクト識別装置100は、S02で検出した顔の人物と同一人物が登録済みの人物の中に存在しないと判定した場合、S06の処理へ進む。
S06において、オブジェクト識別装置100は、S02で検出した顔の人物を登録するか否かを判定する。オブジェクト識別装置100は、予め定められた設定に基づいて、S02で検出した顔の人物を登録するか否かを判定してもよいし、操作部を介したユーザの操作に基づいて、S02で検出した顔の人物を登録するか否かを判定してもよい。オブジェクト識別装置100は、S02で検出した顔の人物を登録すると判定した場合、S07の処理へ進む。オブジェクト識別装置100は、S02で検出した顔の人物を登録しないと判定した場合、S08の処理へ進む。
S07において、オブジェクト識別装置100は、S02で検出した顔の人物について、顔の登録処理を行う。より具体的には、オブジェクト識別装置100の構成要素であるオブジェクト登録部5がS07の処理を行う。処理の詳細については、図3〜8で後述する。S02で検出した顔の人物について顔の登録処理が行われる場合、S01で取得された画像は、登録画像の一例である。
S08において、オブジェクト識別装置100は、S02で検出された人の顔全てについてS04〜S07の処理が完了したか否かを判定する。オブジェクト識別装置100は、S02で検出された人の顔全てについてS04〜S07の処理が完了したと判定した場合、S09の処理へ進む。オブジェクト識別装置100は、S02で検出された人の顔全てについてS04〜S07の処理が完了していないと判定した場合、S04の処理へ進む。
S09において、オブジェクト識別装置100は、S02で検出した顔の人物と同一人物が登録済みの人物の中に存在するか否かの識別処理の結果を、外部出力部7を介して出力する。オブジェクト識別装置100は、S07で新たに人物の顔の登録処理を行った場合、前記登録処理の結果を出力してもよい。
以上が、本実施形態にかかるオブジェクト識別装置100の全体の処理である。
[オブジェクト登録部]
オブジェクト登録処理について図3に基づいて、説明する。図3は、オブジェクト登録部5の機能構成の一例を示す図である。オブジェクト登録部5は、登録オブジェクト辞書データ生成部21、登録オブジェクト辞書データ保持部22、識別器学習部25、登録オブジェクトデータ選択部26、を含む。登録オブジェクト辞書データ保持部22は、属性データ保持部23、部分特徴量保持部24、を含む。
登録オブジェクト辞書データ生成部21は、画像記録部4から取得した画像データに基づいて、オブジェクトの個体を識別するために必要な登録オブジェクト辞書データを生成する。登録オブジェクト辞書データ生成部21で行われる処理の詳細については、図4で後述する。
登録オブジェクト辞書データ保持部22は、登録オブジェクト辞書データ生成部21で取得された登録オブジェクトの部分特徴量を辞書データとして保持する。登録オブジェクトは、登録画像内のオブジェクトである。登録オブジェクト辞書データ保持部22は、属性データを、登録オブジェクト辞書データ生成部21から取得してもよいが、登録の際に操作部へのユーザによる操作に基づいて取得してもよい。
属性データ保持部23は、登録するオブジェクトの属性、例えばオブジェクトが人物の顔である場合、性別、年齢、表情、顔の向き、等を保持する。
部分特徴量保持部24は、登録オブジェクト辞書データ生成部21によって抽出した部分特徴量を保持する。
識別器学習部25は、入力オブジェクト識別部6で用いられる識別器の学習を行う。識別器学習部25で行われる処理の詳細については、図5〜8で後述する。
登録オブジェクトデータ選択部26は、入力オブジェクト識別部6からの要求に応じて、以下の処理を行う。即ち、登録オブジェクトデータ選択部26は、登録オブジェクト辞書データ保持部22及び識別器学習部25から、識別に用いる辞書データ、識別器のパラメータ等を取得し、入力オブジェクト識別部6に転送する。
[登録オブジェクト辞書データ生成部]
図4は、登録オブジェクト辞書データ生成部の機能構成の一例を示す図である。登録オブジェクト辞書データ生成部21は、部分特徴量抽出部30を含む。部分特徴量抽出部30は、部分特徴量パラメータ決定部31、特徴ベクトル抽出部32、を含む。
部分特徴量抽出部30は、対象となるオブジェクトを含んだ画像から、特徴ベクトルを抽出する処理を行う。
部分特徴量パラメータ決定部31は、画像データに対して、特徴ベクトル抽出部32による特徴ベクトルの抽出処理に利用されるパラメータを決定する。前記パラメータは、典型的には、部分特徴量を抽出するために定めた位置や範囲、等である。また、前記パラメータには、部分特徴量を抽出する際の特徴量のパラメータも含まれる。以下では、部分特徴量を抽出するために定めた位置や範囲のことを部分領域という。部分領域は、特徴部分の一例である。部分特徴量パラメータ決定部31は、部分領域の位置と範囲、その他の特徴量のパラメータを、機械学習の方法等を用いて予め設定してもよい。部分特徴量パラメータ決定部31は、特徴量抽出する部分領域の数を、処理にかかる時間等を考慮して、予め設定してもよい。また、部分特徴量パラメータ決定部31は、前記パラメータを予め用意した学習用サンプルに対して、十分な識別性能を得られる値を計測して決める等してもよい。部分特徴量パラメータ決定部31は、1つの部分領域に対して複数パラメータを発行してもよい。1つの部分領域に複数の特徴量抽出パラメータを設定する場合の目的や効果については、特徴ベクトル抽出部32の説明において後述する。
特徴ベクトル抽出部32は、登録用オブジェクトの画像データから特徴ベクトルを抽出する。特徴ベクトル抽出部32は、対象オブジェクトが人物の顔である場合、顔を含む画像データから、識別に必要なデータを特徴ベクトルとして取り出す処理を行う。特徴ベクトル抽出部32は、識別に必要なデータを、部分特徴量パラメータ決定部31により設定された部分領域から、例えば、前記部分領域内の輝度値を特徴ベクトルとして抽出する。特徴ベクトル抽出部32は、輝度値による特徴ベクトル以外に、オブジェクトの部分領域の位置に対して不変な特徴量、位置の変動に頑健な特徴量、例えば、輝度の頻度分布等を特徴ベクトルとして抽出してもよい。
特徴ベクトル抽出部32は、輝度に基づいた特徴量を抽出する際に、照明変動に対して頑健になるように、前記画像データに対して前処理を行ってもよい。特徴ベクトル抽出部32は、前記画像データに対して、例えばガンマ補正やヒストグラム平坦化等の補正処理を行った後に、特徴量抽出を行うことで最終的な認証精度を向上させることができる。特徴ベクトル抽出部32は、補正処理のパラメータとして、部分特徴量パラメータ決定部31によって予め定められた値を適用する。
特徴ベクトル抽出部32は、部分特徴量パラメータ決定部31の説明で言及したように、1つの部分領域に対して、複数のパラメータを用いて、特徴量抽出を行うようにしてもよい。特徴ベクトル抽出部32は、異なるパラメータで抽出を行った部分特徴量を、それぞれ別の登録オブジェクト辞書データとして、登録オブジェクト辞書データ保持部22に記録する。1つの部分領域に対して、複数のパラメータを用いて特徴量抽出を行うことによって、擬似的に複数の条件で登録するのと同じような効果を期待できる。即ち、特徴ベクトル抽出部32は、登録の際と認証の際で照明条件等の条件が大きく異なる場合に対応するために、登録の際に複数の条件(パラメータ)で特徴量抽出を行うことにより、認証の際に起こりうる変動に近い条件の特徴量を事前に用意することができる。
特徴ベクトル抽出部32は、前記前処理のパラメータだけでなく、特徴量抽出のパラメータそのものを複数用意して、前記複数用意したパラメータに基づいて、複数の登録ベクトルを抽出してもよい。例えば、輝度を2値化したものを特徴量として抽出する場合、特徴ベクトル抽出部32は、2値化の閾値というパラメータを複数用意し、前記複数用意した閾値に基づいて、複数の特徴量を抽出してもよい。特徴ベクトル抽出部32は、顔認証で良く用いられるLocal Binary Pattern(LBP)特徴を用いる場合、注目画素と対象画素との輝度値の差でコード化を行うが、新たなパラメータとして閾値を導入してもよい。特徴ベクトル抽出部32は、輝度値の単純な大小ではなく、輝度値の差が閾値より大きい場合と閾値より小さい場合とで2値化することにより、照明変動に対して頑健な特徴量にすることができる。閾値を大きくすると、頑健になるが、個人差も失われるので、照明条件に応じて認証に適切な閾値が存在する。特徴ベクトル抽出部32は、閾値を複数用意して、特徴量抽出を行い、別の登録ベクトルとして登録を行うことによって、様々な照明変動に対応する。
[識別器学習部]
図5は、識別器学習部25の機能構成の一例を示す図である。識別器学習部25は、登録オブジェクト類似度生成部41、類似度特徴生成部42、識別器学習演算部43、識別器パラメータ保持部44、を含む。
識別器学習部25は、登録オブジェクトの辞書データに基づいて、前記登録オブジェクトと同一なオブジェクトを識別する識別器を学習する処理を行う。即ち、識別器学習部25は、登録オブジェクトの辞書データに基づいて、機械学習を行うために必要なデータを生成し、前記登録オブジェクト固有の識別器を個別に学習する。前記識別器は、2クラス識別器であるとする。2クラス識別器は、比較するオブジェクト同士が同一であるか否かの判定を行う識別器である。オブジェクトが人物の顔である場合、2クラス識別器は、本人同士(Intra−Personal Class)か、他人同士(Extra−Personal Class)かの判定を行うことになる。
登録オブジェクト類似度生成部41は、登録オブジェクト辞書データ保持部22から取得した部分特徴量に基づいて、登録オブジェクトの類似度を生成する。登録オブジェクト類似度生成部41で行われる具体的な処理の内容については、図6、7で後述する。
類似度特徴生成部42は、登録オブジェクト類似度生成部41で生成された登録オブジェクトの類似度データに基づいて、識別器学習演算部43の入力となる類似度特徴データを生成する。
識別器学習演算部43は、類似度特徴を入力とする識別器の学習を行う。
識別器パラメータ保持部44は、識別器学習演算部43で用いられるパラメータを保持する。
類似度特徴生成部42、識別器学習演算部43、及び、識別器パラメータ保持部44で行われる処理の詳細、パラメータの内容等は、図8で後述する。
[登録オブジェクト類似度生成部]
図6は、登録オブジェクト類似度生成部41の機能構成の一例を示す図である。登録オブジェクト類似度生成部41は、登録オブジェクト辞書データ保持部22から、対象となる登録オブジェクトの辞書データを取得し、識別器学習演算部43での学習処理に必要な登録オブジェクトに関する類似度データを生成する。登録オブジェクト類似度生成部41は、識別器に2クラス識別器を用いる場合、2つのクラスに属する類似度データを生成する。即ち、登録オブジェクト類似度生成部41は、同じクラスに属するオブジェクト同士の類似度と、違うクラスに属するオブジェクト同士の類似度を生成する。登録オブジェクト類似度生成部41は、オブジェクトが人物の顔である場合、同じ人物の顔から取得した部分特徴量間の類似度データと、異なる人物同士の部分特徴量間の類似度データを生成し、類似度データが属するクラスのラベル情報も一緒に出力する。
登録オブジェクト類似度生成部41は、部分特徴量比較部51、学習用部分特徴量保持部52、オブジェクト類似度選択部53、学習用部分特徴量類似度保持部54、を含む。
部分特徴量比較部51は、登録オブジェクトの部分特徴量と、学習用部分特徴量保持部52に格納してある部分特徴量とを比較し、登録オブジェクトの部分特徴量に最も近い部分特徴量を探し出す処理を行う。
学習用部分特徴量保持部52は、予め用意されたサンプルから予め抽出された部分特徴量を保持している。
オブジェクト類似度選択部53は、学習用部分特徴量類似度保持部54から、部分特徴量比較部51により探し出された部分特徴量の類似度を取得し、類似度データとして出力を行う。また、オブジェクト類似度選択部53は、前記類似度データが、どのクラスに属するのかのラベル情報も一緒に出力し、識別器学習演算部43の処理で前記ラベル情報を利用できるようにする。
学習用部分特徴量類似度保持部54は、次のような類似度データを保持する。前記類似度データは、学習用部分特徴量保持部52に格納してある部分特徴量と、学習用部分特徴量保持部52に格納してある前記部分特徴量の抽出元となるオブジェクトの前記部分特徴量を抽出した画像とは別の画像から抽出した部分特徴量と、の類似度である。
図7は、登録オブジェクト類似度生成部41の処理の一例を示すフローチャートである。以下、図7を用いて登録オブジェクト類似度生成部41の処理の内容を説明する。
S10において、登録オブジェクト類似度生成部41は、登録オブジェクトデータ選択部26を経由して、登録オブジェクト辞書データ保持部22から登録オブジェクト辞書データを取得する。前記登録オブジェクト辞書データは、1つの登録オブジェクトに関する辞書データであり、複数の部分特徴量から構成される。
S11において、登録オブジェクト類似度生成部41は、S10で取得された登録オブジェクト辞書データから、1つの部分特徴量を選択する。
S12において、部分特徴量比較部51は、学習用部分特徴量保持部52に保持してある部分特徴量から、S11で選択した部分特徴量の値に最も近い部分特徴量を選択する。部分特徴量比較部51は、部分特徴量に、オブジェクト上の位置情報を記録しておき、同じ位置に対応する部分特徴量の中で、S11で選択した部分特徴量の値に最も近い部分特徴量を選択する。部分特徴量比較部51は、例えばオブジェクトが人物の顔である場合、部分特徴量が目を含む部位を切り出したものだとすると、予め用意した様々な人物の目を含む特徴量の中から、登録する顔の目を含む特徴量と最も近いものを探す。
部分特徴量比較部51が学習用部分特徴量保持部52に保持してある部分特徴量からS11で選択した部分特徴量の値に最も近いものを選択する方法として、次のような手法がある。即ち、例えば、特徴量をベクトル(以下、特徴ベクトルと呼ぶ)として扱い、学習用部分特徴量保持部52に保持してある特徴ベクトルの1つ1つとS11で選択した特徴ベクトルとの内積を取って、値が最も大きいものを最も近いものとして選択する手法である。また、学習用部分特徴量保持部52に保持してある特徴ベクトルの1つ1つとS11で選択した特徴ベクトルとの間のL2距離(ユークリッド距離)を計算し、距離が最も小さいものを最も近いものとして選択するという手法でもよい。仮に、学習用部分特徴量保持部52に保持されている部分特徴量に、登録オブジェクトの部分特徴量と十分近い(閾値等で判断する)ものが存在しない場合、部分特徴量比較部51は、以下のような処理を行えばよい。部分特徴量比較部51は、例えば、学習用部分特徴量保持部52に保持された部分特徴量の重み付け和を求めればよい。即ち、部分特徴量比較部51は、合成部分特徴量を生成し、登録オブジェクトと十分に近い部分特徴量を探す処理を行う。合成部分特徴量を計算するための式は、数式1のようになる。
Figure 2016062253
数式1で、yは、登録オブジェクトの部分特徴ベクトルである。Aは、行列であり、学習用部分特徴量保持部52に格納された部分特徴ベクトルを縦に並べたものである。wは、Aの各部分特徴ベクトルに関する重みを表すベクトルである。eは、誤差を表すベクトルであり、前記誤差を表すベクトルの大きさ|e|が小さい程にS11で選択した部分特徴量と合成部分特徴量とが近いことになる。|e|を最小にするwを求めるには、公知の最適化技術を用いればよい。例えば、wの大きさに制約を課すことで、数式1はLassoと呼ばれる形式に定式化され、Orthogonal Matching Pursuit等のアルゴリズムを用いて解を求めることができる。部分特徴量比較部51は、登録オブジェクトに近い部分特徴量を、重み付け和で求めた場合、重み付け係数wを保持しておく。
フローチャートの説明に戻る。
S13において、オブジェクト類似度選択部53は、S12で選択又は合成した部分特徴量に対応する部分特徴量の類似度を、学習用部分特徴量類似度保持部54から選択する。部分特徴量を、学習用部分特徴量の重み付け和で表現した場合は、オブジェクト類似度選択部53は、対応するすべての部分特徴量の類似度を、同じ重み付け係数をかけて和をとればよい。1つの部分特徴量に対して、選択する学習用部分特徴量の類似度は、複数あってもよい。むしろ、識別器学習処理での十分な頑健性を持つ識別器の学習のためには、十分な変動を持つ類似度データが必要であり、オブジェクト類似度選択部53は、学習用部分特徴量類似度保持部54から積極的に複数の類似度データを選択する方が好適である。そのため、学習用部分特徴量類似度保持部54には、S12で選択された学習用部分特徴量と、前記学習用部分特徴量の抽出元となるオブジェクトの、前記学習用部分特徴量を抽出したものとは別の画像から抽出した部分特徴量との類似度データが格納されている。
また、学習用部分特徴量類似度保持部54には、抽出元とは異なる個体のオブジェクトから抽出された部分特徴量との類似度データも格納されている。オブジェクトが人物の顔の場合、同じ人物の異なる部分特徴量との類似度は、Intra−Personal Classのクラスに属する類似度データになる。また、異なる人物の部分特徴量との類似度は、Extra−Personal Classのクラスに属する類似度データになる。オブジェクト類似度選択部53は、類似度の属するクラスの情報であるラベル情報も類似度と一緒に出力する。類似度を求めるためのオブジェクトの画像の組み合わせは、様々な変動が与えられている方が好適である。変動の例としては、撮像した際の照明条件の違いである照明変動、オブジェクトの向きの違いである角度変動、撮影時期が異なるために生じる変動である経年変動、等がある。また、変動には、オブジェクトが人物の顔である場合、表情の違いである表情変動も含まれる。例えば、照明変動のある画像の組合せ、角度変動のある画像の組合せ、経年変動のある画像の組合せ等を用意するとよい。オブジェクトが人物の顔の場合、表情変動のある画像の組合せを用意してもよい。また、複数の変動が複合された画像の組合せを用意すると、より多様な変動に対応できる。学習用部分特徴量類似度保持部54は、多様な変動を持つ画像の組合せから算出された部分特徴量間の類似度を保持することによって、1枚の画像にある登録オブジェクトから抽出した部分特徴量に対して、多様な類似度データを導出可能になる。なお、一般的に、同じオブジェクト同士(顔の場合Intra−Personal Class)の組合せよりも、異なるオブジェクト同士(顔の場合Extra−Personal Class)の組合せの方が、数が圧倒的に多い。オブジェクト類似度選択部53は、両者のバランスをとるように調整するとよい。S13の処理で登録オブジェクトの1つの部分特徴量に対応する類似度選択が終了する。
S14において、登録オブジェクト類似度生成部41は、S10で取得された登録オブジェクト辞書データの全ての部分特徴量についてS11〜S13の処理が完了したか否かを判定する。登録オブジェクト類似度生成部41は、登録オブジェクトの全ての部分特徴量についてS11〜S13の処理が完了したと判定した場合、処理を終了する。登録オブジェクト類似度生成部41は、登録オブジェクトの全ての部分特徴量についてS11〜S13の処理が完了していないと判定した場合、S11の処理へ進む。
以上が、登録オブジェクト類似度生成部41が実行する処理の概要である。登録オブジェクト類似度生成部41は、登録オブジェクトの部分特徴量から、複数の類似度を生成することによって、識別器学習演算部43で識別器の学習を行うために必要な類似度データを提供することができる。即ち、登録オブジェクト類似度生成部41は、登録オブジェクトが1つしかない場合でも、多様な変動を持つ、同じクラスに属するオブジェクト同士の類似度データが生成できる。多様な変動を持つ類似度データの提供により、識別器学習演算部43で学習される登録オブジェクトを識別する識別器の精度向上が期待できる。
[識別器学習処理]
図8は、識別器学習部25の処理の一例を示すフローチャートである。以下、図8を用いて識別器学習部25の処理の内容について説明する。
S20において、類似度特徴生成部42は、登録オブジェクト類似度生成部41から登録オブジェクトの類似度データを取得する。
S21において、類似度特徴生成部42は、S20で取得した類似度データから、類似度特徴を生成する(S21)。類似度特徴とは、典型的には、1つのオブジェクトに対して複数ある部分特徴量の類似度を全て連結して、ベクトルとして表したものである。例えば、1つのオブジェクトに対して部分特徴量を30カ所から抽出した場合、類似度特徴の次元数は30になる。類似度特徴生成部42は、類似度を連結した類似度特徴とともに、前記類似度特徴が属するクラスのラベル情報も一緒に出力する。クラスのラベル情報は、オブジェクトが人物の顔の場合は、同一人物というラベル情報(Intra−Personal Class)と他人同士というラベル情報(Extra−Personal Class)の2クラスとなる。
S22において、識別器学習演算部43は、識別器パラメータ保持部44から識別器のパラメータ、学習に必要なパラメータ等を取得する。前記識別器のパラメータとは、典型的には、以下のものを指す。例えば、類似度特徴の識別器に、2クラス判別のためのサポートベクターマシン(SVM)を用いた場合、前記識別器のパラメータは、SVMの演算に必要なパラメータそのものである。識別器にサポートベクターやカーネル関数を用いる場合、前記識別器のパラメータは、カーネルパラメータ等を含む。前記識別器のパラメータは、予め用意した学習データで学習しておいたものが識別器パラメータ保持部44に保持されており、前記識別器の初期値として用いられる。学習に必要なパラメータには、2つのクラスに属する学習データの重み付けがある。また、学習に必要なパラメータには、学習データに関する識別誤りをどの程度許容するかを表すCパラメータ等もある。
S23において、識別器学習演算部43は、S22で取得したパラメータに基づいて、類似度特徴を評価する。識別器学習演算部43は、S21で類似度特徴生成部42により取得された類似度特徴の評価精度を、S20で取得した類似度データとともに取得した前記類似度データがどのクラスに属するかのラベル情報に基づいて、数値で表すことができる。
S24において、識別器学習演算部43は、前記評価精度が閾値を上回っているか否かを判定する。識別器学習演算部43は、前記評価精度が前記閾値を上回っていると判定した場合、処理を終了する。識別器学習演算部43は、前記評価精度が前記閾値を上回っていないと判定した場合、S25の処理へ進む。
S25において、識別器学習演算部43は、識別器のパラメータを更新する。識別器のパラメータの更新方法は、具体的な識別器のアルゴリズムに依存する。識別器学習演算部43は、識別器にSVMを用いる場合、識別器のパラメータの更新方法としてS21で類似度特徴生成部42により生成された類似度特徴に基づいて2次計画問題を解くことにより、登録オブジェクトに最適な識別器を構成することができる。
以上が、オブジェクト登録部5の説明である。
識別器学習部25で、類似度特徴を入力とする識別器を学習することの意味について説明する。類似度特徴は、部分特徴量間の類似度を連結したベクトルである。部分特徴量は、オブジェクトに対して、複数設定され、抽出されるが、一般に、部分特徴量の数は、限定的である。特に、部分特徴量の数は、画像の画素数よりは大幅に少なく設定されることが殆どである。例えば、処理対象のオブジェクトとして人物の顔を例に説明する。100x100ピクセルの顔画像があるとする。前記顔画像を縦横にそれぞれ10分割し、10x10ピクセルの部分特徴量をとると、部分特徴量は、LBP特徴ならば、画素と同じく、1つの部分領域について100次元となる。即ち、100次元の部分領域が100個あることになる。類似度特徴ではなくLBP特徴のような画像から直接得られる特徴量を入力とする識別器において、登録オブジェクトに特化した識別器学習の負荷は、類似度特徴を入力とする場合と比べて飛躍的に増加する。即ち、識別器は、登録オブジェクトと、前記登録オブジェクトの比較対象となる入力オブジェクトと、の2つのオブジェクトの対応する部分領域の特徴ベクトルを入力とする必要があるので、識別器への入力は、100次元以上になる。前記識別器への入力は、前記部分領域の特徴ベクトルを単純に連結したものであれば、2倍の200次元となる。更に、前記識別器は、部分領域ごとに入力を必要とするので、部分領域の数(100回)、前記識別器の学習処理を繰り返す必要がある。対して、類似度特徴を入力とする場合、入力である特徴次元は、部分領域の数である100であり、識別器の学習回数は、1回である。したがって、部分特徴量の数と同じ次元数を持つ類似度特徴を入力とする識別器の学習は、部分特徴量を入力とする識別器の学習に比べて、機械学習の負荷を減らすことができる。
また、類似度特徴を入力とする識別器は、学習に必要なデータの数も減らすことができる。部分特徴量を入力とする識別器の学習には、部分特徴量が必要であり、様々な変動に対応するためには、変動の組合せの数だけ部分特徴量が必要になる。上記の例において、部分特徴量1つは、100次元、類似度は、1次元(スカラー)である。更に、部分特徴量を入力とする識別器は、比較のために、入力オブジェクトと登録オブジェクトとの2つの特徴量が必要なり、実際には部分領域1つにつき、類似度を入力とする識別器に比べて、200倍のデータが入力として必要になる。
類似度特徴を入力とする識別器を利用することによって、必要なデータ量、学習の演算回数を減らすことが可能になり、組み込み機器等のリソースが限られている機器上での識別器のオンライン学習の応用が可能になる。
[入力オブジェクト識別部]
入力オブジェクト識別処理について説明する。図9は、入力オブジェクト識別部6の機能構成の一例を示す図である。入力オブジェクト識別部6は、入力オブジェクト識別用データ生成部61、登録オブジェクトデータ取得部62、入力オブジェクト識別演算部63、を含む。
入力オブジェクト識別用データ生成部61は、画像記録部4から取得した画像データに基づいて、対象オブジェクトの識別に必要な情報の抽出を行う。
登録オブジェクトデータ取得部62は、オブジェクト登録部5から入力オブジェクトの識別に必要な辞書データ及び識別器の情報を、入力オブジェクト識別用データ生成部61から得られる識別用データと比較可能な(特徴量の次元が一致)状態として、取得する。
入力オブジェクト識別演算部63は、入力オブジェクト識別用データ生成部61から取得した識別用データと、登録オブジェクトデータ取得部62から取得した辞書データと、に基づいて、入力オブジェクトの識別処理を行う。
図10は、入力オブジェクト識別部6の処理の一例を示すフローチャートである。
S31において、登録オブジェクトデータ取得部62は、オブジェクト登録部5から登録オブジェクトデータを取得する。
S32において、入力オブジェクト識別用データ生成部61は、画像記録部4より入力オブジェクトの画像データを取得する。
S33において、入力オブジェクト識別用データ生成部61は、入力オブジェクト識別用データ生成処理を行う。S33の処理の詳細については、図11で後述する。
S34において、入力オブジェクト識別演算部63は、入力オブジェクト識別演算処理を行う。S34の処理の出力の形式には、登録済みデータ(辞書データ)との一致をバイナリ(0又は1)で出力する形式と、正規化した出力値を尤度(例えば0〜1の実数値)として出力する形式と、がある。更に、入力オブジェクト識別演算部63は、登録オブジェクト(登録者)が複数(複数人)ある場合、それぞれの登録オブジェクト(登録者)に対して、尤度を出力してもよいし、最も良く一致した登録オブジェクトに対する識別結果だけを出力してもよい。また、入力オブジェクト識別演算部63は、登録オブジェクトに対する尤度ではなく、登録オブジェクトが属するクラスに対しての尤度を出力してもよい。即ち、入力オブジェクト識別演算部63は、識別対象が人物の場合には、個々の登録顔画像への結果ではなく、人物のID(名前)に対する尤度を出力するようにしてもよい。なお、S34の処理の詳細については、図12、13で後述する。
以上が、入力オブジェクト識別部6の処理の説明である。
[入力オブジェクト識別用データ生成部]
図11は、入力オブジェクト識別用データ生成部61の機能構成の一例を示す図である。入力オブジェクト識別用データ生成部61は、部分特徴量抽出部70を含む。部分特徴量抽出部70は、部分特徴量パラメータ決定部71、特徴ベクトル抽出部72、を含む。入力オブジェクト識別用データ生成部61の構成及び処理は、図4で説明した登録オブジェクト辞書データ生成部21の構成及び処理と同様である。
[入力オブジェクト識別演算処理]
図12は、入力オブジェクト識別演算部63の機能構成の一例を示す図である。入力オブジェクト識別演算部63は、入力オブジェクト識別用データ取得部81、登録オブジェクト辞書データ取得部82、部分特徴量類似度算出部83、類似度特徴生成部84、入力オブジェクト識別処理部85、を含む。
図13は、入力オブジェクト識別演算部63の処理の一例を示すフローチャートである。
S40において、入力オブジェクト識別用データ取得部81は、入力オブジェクト識別用データ生成部61から入力オブジェクト識別用データを取得する。
S41において、登録オブジェクト辞書データ取得部82は、登録オブジェクトデータ取得部62から登録オブジェクトの辞書データを取得する。
S42において、部分特徴量類似度算出部83は、S40で取得された入力オブジェクト識別用データの部分特徴量と、S41で取得された登録オブジェクトの辞書データの前記部分特徴量と対応する部分の部分特徴量と、に基づいて部分特徴量の類似度を算出する。前記類似度は、それぞれ対応する入力オブジェクトの部分特徴ベクトルと登録オブジェクトの部分特徴ベクトル間のユークリッド距離の逆数として表される。また、前記類似度は、ユークリッド距離ではなく、ベクトル間のなす角を類似度として表されてもよい。さらに一般的な距離として、以下の数式2で表されるミンコフスキー距離Lの逆数を採用してもよい。
Figure 2016062253
数式2において、2つのベクトルx、yは、それぞれd次元である。必要な2つのパラメータa、bは、予め、評価用のサンプルで、最も識別性能が良くなるように定めておけばよい。
S43において、入力オブジェクト識別演算部63は、S41で取得された登録オブジェクトの辞書データ内の部分特徴量全てについて、S41で取得された入力オブジェクト識別用データ内の部分特徴量との類似度を求めたか否かを判定する。入力オブジェクト識別演算部63は、前記辞書データ内の部分特徴量全てについて前記類似度を算出したと判定した場合、類似度特徴生成部84にS44の処理を実行させる。入力オブジェクト識別演算部63は、前記辞書データ内の部分特徴量全てについて前記類似度を算出していないと判定した場合、部分特徴量類似度算出部83にS42の処理を実行させる。
S44において、類似度特徴生成部84は、S42で算出された部分特徴量ごとの類似度に基づいて、類似度特徴を生成する。類似度特徴生成部84は、典型的には、複数の類似度を連結して1つのベクトルにする。
S45において、入力オブジェクト識別演算部63は、全ての登録してあるオブジェクトについての辞書データに対して、類似度特徴を生成したか否かを判定する。入力オブジェクト識別演算部63は、全ての登録してあるオブジェクトについての辞書データに対して、類似度特徴を生成したと判定した場合、入力オブジェクト識別処理部85にS46の処理を実行させる。入力オブジェクト識別演算部63は、全ての登録してあるオブジェクトについての辞書データに対して、類似度特徴を生成していないと判定した場合、登録オブジェクト辞書データ取得部82にS41の処理を実行させる。
S46において、入力オブジェクト識別処理部85は、入力オブジェクトの識別処理を行う。前記入力オブジェクトの識別処理は、登録してある全てのオブジェクトの辞書データとの類似度に基づいて、入力オブジェクトがどの登録オブジェクトに対応するか判定する処理である。入力オブジェクト識別処理部85は、典型的には、S44で取得した類似度特徴を、識別器学習部25から取得した登録オブジェクトごとに特化した識別器に入力し、入力オブジェクトが前記登録オブジェクトと同一であるか否かを判定する。入力オブジェクト識別処理部85は、判定を行う際に、尤度を取得し、複数の登録オブジェクトに対する尤度を比較し、前記複数のオブジェクトに対する尤度の中の最大値のものが、入力オブジェクトに対応する登録オブジェクトであるとしてもよい。入力オブジェクト識別処理部85は、入力オブジェクトがどの登録オブジェクトに対応するかを出力する。
本実施形態の処理によって、オブジェクト識別装置100は、ユーザの利便性を保ちつつ、オンライン学習を有効に利用することができるようになる。
オブジェクト識別装置100は、類似度特徴を識別器への入力とすることで、学習データの削減と学習処理の軽減とを実現できる。したがって、デジタルカメラや携帯電話等のリソースが限られた機器においても、オンライン学習が有効に実施可能となる。
また、オブジェクト識別装置100は、予め準備した学習用部分特徴量から登録オブジェクトの部分特徴量に近いものを探し、前記部分特徴量が変動を受けた場合の類似度を記憶しておき、学習データとして利用することで、次のような効果が得られる。即ち、オブジェクト識別装置100は、登録オブジェクトの画像が少数(典型的には1枚の)でも、識別器を学習する際に十分な学習データを用意することができるようになる。更に、オブジェクト識別装置100は、部分特徴量ではなく、類似度を記憶しておくことによって、様々な変動を受けた場合の部分特徴量(または画像)を記憶しておく必要がなくなり、大幅なデータ量の削減が可能になる。学習データの数が少量で済むためユーザの利便性を損ねることはない。
<実施形態2>
実施形態2は、実施形態1に対して、登録オブジェクトと入力オブジェクトとに対して、それぞれ学習用部分特徴量記憶部から最も近い部分特徴量を探し出し、変動条件を調整してから、類似度を求める処理を行う点が、異なる。
以下、本実施形態の処理について説明する。なお、以下の説明において、実施形態1と同じ部分は、省略する。
本実施形態におけるオブジェクト識別装置100全体のハードウェア構成は、実施形態1と同様である。
本実施形態の登録オブジェクト辞書データ生成部21と、入力オブジェクト識別用データ生成部61とは、実施形態1と構成の一部が異なる。本実施形態の処理は、実施形態1の処理と一部異なる。以下、実施形態1と異なる点を中心に説明する。
[登録オブジェクト辞書データ生成部]
図14は、登録オブジェクト辞書データ生成部21の機能構成の一例を示す図である。登録オブジェクト辞書データ生成部21は、部分特徴量抽出部30、学習用部分特徴量保持部33、部分特徴量選択部34、を含む。部分特徴量抽出部30は、部分特徴量パラメータ決定部31、特徴ベクトル抽出部32、を含む。学習用部分特徴量保持部33と部分特徴量選択部34が追加されている点が、実施形態1と異なる。学習用部分特徴量保持部33、部分特徴量選択部34以外の各構成要素の役割は、実施形態1と同様である。入力オブジェクト識別用データ生成部61についても、図14の構成と同様になる。
学習用部分特徴量保持部33は、事前に用意された様々なオブジェクトの部分特徴量を保持している。学習用部分特徴量保持部33は、オブジェクトが変動を受けた場合の部分特徴量も、同一のオブジェクトに関して対応づけて保持している。したがって、部分特徴量選択部34は、学習用部分特徴量保持部33が保持する部分特徴量の中の1つの部分特徴量に関してアクセスすると、同じオブジェクトの同じ部分領域の様々な変動を受けた部分特徴量についてもアクセスすることができる。
部分特徴量選択部34は、登録オブジェクトの部分特徴量について、学習用部分特徴量保持部33から、前記部分特徴量に最も近い部分特徴量を探し出す。部分特徴量選択部34は、更に、探し出した前記部分特徴量と紐づけられた同一オブジェクトに関する部分特徴量のうち、最も変動の少ないものを選択する。部分特徴量選択部34が行う処理の詳細については、図15で後述する。
図15は、部分特徴量選択部34の処理の一例を示すフローチャートである。
S100において、部分特徴量選択部34は、部分特徴量抽出部30から部分特徴量を取得する。
S101において、部分特徴量選択部34は、学習用部分特徴量保持部33に保持されている部分特徴量の中から、S100で取得した部分特徴量に最も近い部分特徴量の探索処理を行う。部分特徴量選択部34は、前記探索処理を、実施形態1の登録オブジェクト類似度生成部41の説明で説明した方法と同様に行えばよいが、以下の手法により、より高速に行えるようにしてもよい。即ち、学習用部分特徴量保持部33の格納形式について事前に処理を加えておくことで、高速な探索処理が行えるようにする手法である。より具体的には、学習用部分特徴量保持部33に保持されている部分特徴量について予めクラスタリングを行い、クラスタ中心となる代表部分特徴量を予め決定しておく。S101の処理の際、部分特徴量選択部34は、まず前記代表部分特徴量との比較を行うようにする。部分特徴量選択部34は、最も近い代表部分特徴量が求められたら、次は、前記代表部分特徴量が属するクラスタ内で最も近い部分特徴量を探索するようにすればよい。前記手法によって、S101の処理においての部分特徴量の比較の処理を大幅に減らすことが可能になる。オブジェクトの識別処理においては、入力画像が入力されるたびに学習用部分特徴量保持部33に保持されている部分特徴量の中から、入力オブジェクトの部分特徴量に最も近いものを探索する処理を行う必要があり、高速性が重要となる。したがって、前記手法のような探索手法は、単純な逐次探索手法よりも、処理の軽減、高速化等の効果は大きい。
S102において、部分特徴量選択部34は、S101で探索した部分特徴量のオブジェクトと同一のオブジェクトの部分特徴量の中で、最も変動の少ない部分特徴量を選択する。識別対象のオブジェクトとして人物の顔を例にとり説明する。登録する顔が横を向いた顔画像である場合、部分特徴量選択部34は、S101で事前に用意したサンプルの中から、似た人物の顔についての部分特徴量が選択する。前記部分特徴量は、横を向いた顔から抽出した部分特徴量である可能性が、変動のない又は横を向いている以外の変動を加えられた顔から抽出した部分特徴量である可能性よりも、高い。S102で、部分特徴量選択部34は、横を向いた部分特徴量から、同じ人物の顔について、最も変動の少ない部分特徴量、即ち、正面を向いた顔の部分特徴量を選択することになる。S102のような処理を行うことで、大きな変動を受けたオブジェクトが登録された場合、部分特徴量選択部34は、前記オブジェクトが変動を受けていない状態の部分特徴量を近似的に求めることが可能になる。また、オブジェクト識別装置100は、S102の処理を入力オブジェクトが入力された際に、行うことにより、登録オブジェクトと入力オブジェクトとが同じ条件で比較できるようになり、より識別の精度を向上できる。更には、オブジェクト識別装置100は、S102の処理によって、登録オブジェクトに特化した識別器の学習を行う際に、想定する変動範囲を狭めることが可能になり、識別器の負担を軽減できる。
S103において、部分特徴量選択部34は、全ての部分特徴量についてS101、S102の処理を行ったか否かを判定する。部分特徴量選択部34は、全ての部分特徴量についてS101、S102の処理を行ったと判定した場合、処理を終了する。部分特徴量選択部34は、全ての部分特徴量についてS101、S102の処理を行っていないと判定した場合、S100の処理へ進む。
以上が、実施形態2の処理の説明である。
本実施形態の処理により、オブジェクト識別装置100は、登録オブジェクトと入力オブジェクトと間の属性(顔向き、表情、照明条件等)変動の影響を軽減することができる。また、登録オブジェクトに特化した識別器を学習する際に、想定する登録オブジェクトと入力オブジェクトとの間の変動を小さく見積もることができ、学習の負荷を軽減(少ない学習データで高精度な識別器を学習)することができる。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100 オブジェクト識別装置、5 オブジェクト登録部、6 入力オブジェクト識別部

Claims (8)

  1. 登録画像内のオブジェクトの特徴部分の部分特徴量に対応する部分特徴量に対して設定された類似度に基づいて、前記オブジェクトの類似度を生成する生成手段と、
    前記生成手段により生成された前記類似度に基づいて、前記登録画像内のオブジェクトの識別処理に利用されるパラメータを学習する学習手段と、
    入力画像内のオブジェクトの前記特徴部分の部分特徴量と前記登録画像内のオブジェクトの前記特徴部分の部分特徴量との類似度を取得する取得手段と、
    前記取得手段により取得された類似度と、前記学習手段により学習されたパラメータとに基づいて、前記入力画像内のオブジェクトが前記登録画像内のオブジェクトと同一か否かを識別する識別手段と、
    を有するオブジェクト識別装置。
  2. 前記生成手段は、前記登録画像内のオブジェクトの特徴部分の部分特徴量に対応する部分特徴量の中で最も変動の少ない部分特徴量に対して設定された類似度に基づいて、前記オブジェクトの類似度を生成する請求項1記載のオブジェクト識別装置。
  3. 前記生成手段は、前記登録画像内のオブジェクトの特徴部分の部分特徴量に対応する部分特徴量と前記部分特徴量に対応するオブジェクトに対して設定された変動が加えられたオブジェクトの部分特徴量との類似度に基づいて、前記オブジェクトの類似度を生成する請求項1又は2記載のオブジェクト識別装置。
  4. 前記変動は、照明変動、角度変動、経年変動のうち、少なくとも1つを含む請求項3記載のオブジェクト識別装置。
  5. 前記オブジェクトは、人の顔である請求項1乃至4何れか1項記載のオブジェクト識別装置。
  6. 前記オブジェクトは、人の顔であり、前記変動は、表情変動である請求項3又は4記載のオブジェクト識別装置。
  7. オブジェクト識別装置が実行するオブジェクト識別方法であって、
    登録画像内のオブジェクトの特徴部分の部分特徴量に対応する部分特徴量に対して設定された類似度に基づいて、前記オブジェクトの類似度を生成する生成ステップと、
    前記生成ステップにより生成された前記類似度に基づいて、前記登録画像内のオブジェクトの識別処理に利用されるパラメータを学習する学習ステップと、
    入力画像内のオブジェクトの前記特徴部分の部分特徴量と前記登録画像内のオブジェクトの前記特徴部分の部分特徴量との類似度を取得する取得ステップと、
    前記取得ステップにより取得された類似度と、前記学習ステップにより学習されたパラメータとに基づいて、前記入力画像内のオブジェクトが前記登録画像内のオブジェクトと同一か否かを識別する識別ステップと、
    を含むオブジェクト識別方法。
  8. コンピュータに
    登録画像内のオブジェクトの特徴部分の部分特徴量に対応する部分特徴量に対して設定された類似度に基づいて、前記オブジェクトの類似度を生成する生成ステップと、
    前記生成ステップにより生成された前記類似度に基づいて、前記登録画像内のオブジェクトの識別処理に利用されるパラメータを学習する学習ステップと、
    入力画像内のオブジェクトの前記特徴部分の部分特徴量と前記登録画像内のオブジェクトの前記特徴部分の部分特徴量との類似度を取得する取得ステップと、
    前記取得ステップにより取得された類似度と、前記学習ステップにより学習されたパラメータとに基づいて、前記入力画像内のオブジェクトが前記登録画像内のオブジェクトと同一か否かを識別する識別ステップと、
    を実行させるためのプログラム。
JP2014189168A 2014-09-17 2014-09-17 オブジェクト識別装置、オブジェクト識別方法及びプログラム Active JP6544900B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014189168A JP6544900B2 (ja) 2014-09-17 2014-09-17 オブジェクト識別装置、オブジェクト識別方法及びプログラム
US14/853,777 US9626553B2 (en) 2014-09-17 2015-09-14 Object identification apparatus and object identification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014189168A JP6544900B2 (ja) 2014-09-17 2014-09-17 オブジェクト識別装置、オブジェクト識別方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2016062253A true JP2016062253A (ja) 2016-04-25
JP6544900B2 JP6544900B2 (ja) 2019-07-17

Family

ID=55455037

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014189168A Active JP6544900B2 (ja) 2014-09-17 2014-09-17 オブジェクト識別装置、オブジェクト識別方法及びプログラム

Country Status (2)

Country Link
US (1) US9626553B2 (ja)
JP (1) JP6544900B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019171440A1 (ja) * 2018-03-05 2019-09-12 日本電気株式会社 画像解析装置、画像解析方法および画像解析プログラム
WO2019216454A1 (ko) * 2018-05-08 2019-11-14 Kim Bong Gyun 객체의 동일성 판단 방법
JP2020502642A (ja) * 2016-11-30 2020-01-23 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 患者識別システムおよび方法
JP2021101390A (ja) * 2017-10-13 2021-07-08 日本電気株式会社 生体認証装置及び生体認証方法
WO2021192028A1 (ja) 2020-03-24 2021-09-30 ソニーグループ株式会社 学習装置及び学習方法
JP2023083563A (ja) * 2019-01-04 2023-06-15 株式会社DSi 識別システム

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6070936B2 (ja) * 2013-01-31 2017-02-01 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 情報処理装置、情報処理方法及びプログラム
WO2016095103A1 (zh) * 2014-12-16 2016-06-23 华为技术有限公司 存储空间管理方法及装置
WO2017048723A1 (en) 2015-09-18 2017-03-23 Commvault Systems, Inc. Data storage management operations in a secondary storage subsystem using image recognition and image-based criteria
JP6378664B2 (ja) * 2015-12-02 2018-08-22 株式会社オプティム 情報特定システム、情報特定方法及びそのプログラム
WO2019171416A1 (ja) * 2018-03-05 2019-09-12 日本電気株式会社 画像分類システム、画像分類方法および画像分類プログラム
US10574848B1 (en) * 2018-10-26 2020-02-25 Toshiba Tec Kabushiki Kaisha Information processing apparatus with registered image detection
CN112052706B (zh) * 2019-06-06 2022-07-29 鸿富锦精密工业(武汉)有限公司 电子装置及人脸识别方法
JP2022144895A (ja) * 2021-03-19 2022-10-03 三菱重工業株式会社 対象物検知装置、対象物検知方法及び対象物検知プログラム
CN115775401A (zh) * 2021-09-06 2023-03-10 京东科技信息技术有限公司 用于验证图像的方法和装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006004003A (ja) * 2004-06-15 2006-01-05 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム
JP2007042136A (ja) * 2006-10-16 2007-02-15 Nec Corp 物体照合方法,物体照合装置,およびそのプログラムを記録した記録媒体
JP2011086265A (ja) * 2009-10-19 2011-04-28 Canon Inc 画像処理装置及び方法、プログラム及び記憶媒体

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4657934B2 (ja) * 2006-01-23 2011-03-23 富士フイルム株式会社 顔検出方法および装置並びにプログラム
JP2008191816A (ja) * 2007-02-02 2008-08-21 Sony Corp 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム
JP5176572B2 (ja) * 2008-02-05 2013-04-03 ソニー株式会社 画像処理装置および方法、並びにプログラム
US8218880B2 (en) * 2008-05-29 2012-07-10 Microsoft Corporation Linear laplacian discrimination for feature extraction
US9183173B2 (en) * 2010-03-02 2015-11-10 Microsoft Technology Licensing, Llc Learning element weighting for similarity measures
KR101877981B1 (ko) * 2011-12-21 2018-07-12 한국전자통신연구원 가버 특징과 svm 분류기를 이용하여 위변조 얼굴을 인식하기 위한 시스템 및 그 방법
US9235782B1 (en) * 2012-12-24 2016-01-12 Google Inc. Searching images and identifying images with similar facial features
SG11201506229RA (en) * 2013-02-27 2015-09-29 Hitachi Ltd Image analysis device, image analysis system, and image analysis method
US20150235073A1 (en) * 2014-01-28 2015-08-20 The Trustees Of The Stevens Institute Of Technology Flexible part-based representation for real-world face recognition apparatus and methods
JP6470503B2 (ja) * 2014-05-20 2019-02-13 キヤノン株式会社 画像照合装置、画像検索システム、画像照合方法、画像検索方法およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006004003A (ja) * 2004-06-15 2006-01-05 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム
JP2007042136A (ja) * 2006-10-16 2007-02-15 Nec Corp 物体照合方法,物体照合装置,およびそのプログラムを記録した記録媒体
JP2011086265A (ja) * 2009-10-19 2011-04-28 Canon Inc 画像処理装置及び方法、プログラム及び記憶媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
井尻善久,外2名: "多様な属性に柔軟に対応できる人物属性認識の準教師付き学習フレームワーク", 電子情報通信学会技術研究報告 VOL.109 NO.249, vol. 第109巻, JPN6019017197, 2009, JP, pages 97 - 102, ISSN: 0004033904 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020502642A (ja) * 2016-11-30 2020-01-23 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 患者識別システムおよび方法
JP2021101390A (ja) * 2017-10-13 2021-07-08 日本電気株式会社 生体認証装置及び生体認証方法
JP7143915B2 (ja) 2017-10-13 2022-09-29 日本電気株式会社 生体認証装置及び生体認証方法
US11776302B2 (en) 2017-10-13 2023-10-03 Nec Corporation Biometric recognition apparatus and biometric recognition method
WO2019171440A1 (ja) * 2018-03-05 2019-09-12 日本電気株式会社 画像解析装置、画像解析方法および画像解析プログラム
JPWO2019171440A1 (ja) * 2018-03-05 2021-02-04 日本電気株式会社 画像解析装置、画像解析方法および画像解析プログラム
US11507780B2 (en) 2018-03-05 2022-11-22 Nec Corporation Image analysis device, image analysis method, and image analysis program
WO2019216454A1 (ko) * 2018-05-08 2019-11-14 Kim Bong Gyun 객체의 동일성 판단 방법
JP2023083563A (ja) * 2019-01-04 2023-06-15 株式会社DSi 識別システム
WO2021192028A1 (ja) 2020-03-24 2021-09-30 ソニーグループ株式会社 学習装置及び学習方法

Also Published As

Publication number Publication date
US20160078284A1 (en) 2016-03-17
US9626553B2 (en) 2017-04-18
JP6544900B2 (ja) 2019-07-17

Similar Documents

Publication Publication Date Title
JP6544900B2 (ja) オブジェクト識別装置、オブジェクト識別方法及びプログラム
US20230015107A1 (en) Method and apparatus with image fusion
US9098760B2 (en) Face recognizing apparatus and face recognizing method
JP5247480B2 (ja) オブジェクト識別装置及びオブジェクト識別方法
Vidya et al. Entropy based Local Binary Pattern (ELBP) feature extraction technique of multimodal biometrics as defence mechanism for cloud storage
JP5174045B2 (ja) 分類器チェーンを用いた照明検出
JP5424819B2 (ja) 画像処理装置、画像処理方法
TW202006602A (zh) 三維臉部活體檢測方法、臉部認證識別方法及裝置
US8498454B2 (en) Optimal subspaces for face recognition
JP6071002B2 (ja) 信頼度取得装置、信頼度取得方法および信頼度取得プログラム
JP5241606B2 (ja) オブジェクト識別装置及びオブジェクト識別方法
JP6351243B2 (ja) 画像処理装置、画像処理方法
JP2019057815A (ja) 監視システム
WO2020195732A1 (ja) 画像処理装置、画像処理方法、およびプログラムが格納された記録媒体
JP6410450B2 (ja) オブジェクト識別装置、オブジェクト識別方法及びプログラム
JP2010108494A (ja) 画像内の顔の特性を判断する方法及びシステム
Yin et al. A face anti-spoofing method based on optical flow field
WO2013181695A1 (en) Biometric verification
JP2017058833A (ja) オブジェクト識別装置、オブジェクト識別方法及びプログラム
JP5653003B2 (ja) オブジェクト識別装置及びオブジェクト識別方法
JP5791361B2 (ja) パターン識別装置、パターン識別方法およびプログラム
KR101031369B1 (ko) 얼굴 인식 장치 및 그 방법
Sun et al. Dual camera based feature for face spoofing detection
Chen Design and simulation of AI remote terminal user identity recognition system based on reinforcement learning
JP7103443B2 (ja) 情報処理装置、情報処理方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170919

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190618

R151 Written notification of patent or utility model registration

Ref document number: 6544900

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151