JP2011138387A - オブジェクト識別装置及びその制御方法 - Google Patents

オブジェクト識別装置及びその制御方法 Download PDF

Info

Publication number
JP2011138387A
JP2011138387A JP2009298819A JP2009298819A JP2011138387A JP 2011138387 A JP2011138387 A JP 2011138387A JP 2009298819 A JP2009298819 A JP 2009298819A JP 2009298819 A JP2009298819 A JP 2009298819A JP 2011138387 A JP2011138387 A JP 2011138387A
Authority
JP
Japan
Prior art keywords
registered
unit
identification
class
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009298819A
Other languages
English (en)
Other versions
JP5554987B2 (ja
Inventor
Toshiaki Nakano
俊亮 中野
Hiroshi Sato
博 佐藤
Katsuhiko Mori
克彦 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009298819A priority Critical patent/JP5554987B2/ja
Priority to US12/973,172 priority patent/US8705806B2/en
Publication of JP2011138387A publication Critical patent/JP2011138387A/ja
Application granted granted Critical
Publication of JP5554987B2 publication Critical patent/JP5554987B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/50Maintenance of biometric data or enrolment thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

【課題】入力された画像を、予め登録済みの画像と比較することにより、前記入力画像内のオブジェクトが予め登録済みのどのクラスに属するか識別するオブジェクト識別装置において、識別したい特定のクラスに対しての認識性能を向上させる。
【解決手段】入力画像に含まれているオブジェクトが、予め登録された複数のクラスのいずれに属するか識別するオブジェクト識別装置は、入力画像の識別に用いられる複数の登録画像を登録し、識別に使用する部分領域を指定する指定データを保持する。装置は、入力画像と複数の登録画像の各々から、指定データによって指定された部分領域の特徴量を抽出し、抽出された特徴量に基づいて前記入力画像が属するクラスを識別する。装置は、登録されている複数の登録画像に基づいて、識別手段の処理内容の更新が必要か否かを判定し、更新が必要であると判定された場合に、登録されている登録画像に基づいて、指定データによる部分領域の指定を更新する。
【選択図】 図2

Description

本発明は、入力データが属するクラスを識別するオブジェクト識別装置およびその制御方法に関する。
入力されたデータを、予め登録済みのデータと比較することにより、入力データ内のオブジェクトが予め登録されたどのクラスに属するかを識別する技術が多く提案されているおり、その応用分野として、例えば個人の顔を識別する顔識別技術がある。顔識別におけるクラスとは、個人を特定できる名前やIDであり、登録画像にはそのクラスの識別子があらかじめ付与されている。登録画像の撮影条件が様々であるとしても、同一人物が写っている登録画像は同一クラスに属するとする。以下、本明細書では、オブジェクトの識別とは、オブジェクトの個体の違い(例えば、人物の違い)を判定することを意味する。一方、オブジェクトの検出とは、個体を区別せず同じ範疇に入るものを判定する(例えば、個人を区別せず、顔を検出する)、ことを意味するものとする。
顔識別技術として、例えば、画像の部分的な特徴量(部分特徴量)を使って顔を識別する特許文献1のような方法がある。この方法では、まず入力画像中のいくつかの特徴的な部分領域から部分特徴量を抽出し、同時に登録画像においても、入力画像の部分領域に対応する部分領域から部分特徴量を抽出しておく。そして、入力画像と登録画像で対応する部分特徴量同士を比較して得られる類似度を統合し、入力画像と登録画像の類似度とする。最終的に、この入力画像との類似度が最も大きい登録画像が属するクラスが、入力画像に対応するクラスとして定められる。
上記のような、部分特徴量を求めるための部分領域は、例えば非特許文献1で用いられているAdaBoost法のような手法を用いて事前に求めておくことができる。一方、この事前学習に対して、非特許文献2のような、認識処理の運用中に教師データを逐次追加しながら認識性能を向上させていく逐次学習の方法が、画像処理に限らない幅広い分野で多く応用されている。
特開2003−323622
Shen, L., Bai,L., Bardsley, D., Wang, Y., Gabor feature selection for face recognition using improved adaboost learning. Proceedings of International Workshop on Biometric Recognition System, in conjunction with ICCV’05, 2005 Glenn Fung, O.L.Mangasarian, Incremental support vector machine classification, Proceedings of Second SIAM International Conference on Data Mining, 2002.
部分領域を用いる顔識別手法において、典型的には、あらゆる識別対象に対して平均的な識別性能が高くなるように、部分領域の位置や数が予め定められる。しかしながら、ある特定少数のクラスに属する対象のみを精度良く識別したい場合などにおいては、その平均的な識別性能では十分でない場合があることが課題である。また、非特許文献2に示されているような逐次学習の方法では、識別性能を向上させたい対象のデータを教師データとして逐次追加することで、ある特定の対象についての識別性能を改善することを目的としている。しかしながら、逐次型の学習によって獲得した識別手段は、教師データとして与えられたデータに過度に最適化されてしまう傾向がある。そのため、逐次学習を繰り返すことにより、その特定の対象以外の識別性能が極端に悪化してしまう、過学習という現象が起こる可能性がある。
本発明は、上記の課題に鑑みてなされたものであり、逐次学習型の識別手段を更新する際に現れる可能性がある、過学習による識別性能の劣化を抑えつつ、識別したい特定のオブジェクトについての識別性能を向上させることを目的とする。
上記の目的を達成するための本発明の一態様によるオブジェクト識別装置は以下の構成を備える。すなわち、
入力画像に含まれているオブジェクトが、予め登録された複数のクラスのいずれに属するか識別するオブジェクト識別装置であって、
入力画像の識別に用いる複数の登録画像を登録してある登録手段と、
使用すべき部分特徴を指定する指定データを保持する保持手段と、
前記入力画像と前記複数の登録画像の各々から、前記指定データによって指定された部分特徴における特徴量を抽出し、抽出された特徴量に基づいて前記入力画像が属するクラスを識別する識別手段と、
前記識別手段により識別された入力画像を用いて前記登録手段の登録内容を更新する登録更新手段と、
前記登録手段に登録されている前記複数の登録画像に基づいて、前記生成用データの更新の要否を判定する判定手段と、
前記判定手段により更新が必要であると判定された場合に、前記登録手段に登録されている登録画像に基づいて、前記指定データにおける部分特徴の指定を更新する第1更新手段とを備える。
本発明によれば、逐次学習型の識別手段を更新する際に現れる可能性がある、過学習による識別性能の劣化を抑えつつ、識別したい特定のオブジェクトについての識別性能を向上させることができる。
実施形態によるオブジェクト識別装置の構成例を示すブロック図。 実施形態のオブジェクト識別装置による入力画像の識別処理を示すフロー図。 オブジェクト識別部の一構成例を示したブロック図。 オブジェクト識別部で行われる識別処理の一例を示したフロー図。 部分特徴量抽出部の一構成例を示したブロック図。 特徴ベクトル生成用データ保持部に保存される部分領域の例を示す図。 識別部の一構成例を示したブロック図。 識別結果統合部の一構成例を示したブロック図。 画像登録部の位置構成例を示したブロック図。 画像登録部で行われる処理の一例を示したフロー図。 部分領域の学習処理の一例を示したフロー図。 SVM識別器の学習処理の一例を示したフロー図。 第3実施形態の画像登録部の一構成例を示すブロック図。 第5実施形態の画像登録部の一構成例を示すブロック図。
[第1実施形態]
以下、図面を参照して本発明の実施形態を詳細に説明する。図1の(a)は、第1実施形態によるオブジェクト識別装置100の構成例を示すブロック図である。画像を入力する画像入力部1は、識別すべき画像データを供給する装置であればよく、特定の機器に限定されるものではない。すなわち、光学レンズと映像センサを備えた撮像装置でも構わないし、画像データが保持され読み出し可能な半導体メモリでもよい。
外部出力部2は、オブジェクト識別部4の出力である、入力画像に対応するクラスを、適切な形で外部に出力する。典型的には、CRTやTFT液晶などのモニタであり、画像入力部1から取得した画像データを表示する。または、画像データにオブジェクト識別部4の出力を重畳表示する。また、外部出力部2は、オブジェクト識別部4の結果出力を電子データとして外部の記憶媒体などに出力する形態や、紙媒体に印刷する形態をとってもよい。なお、出力の手段は上に挙げた限りではなく、さらに、複数の手段を同時に行使してもよい。
登録画像記録部3は、画像入力部1より登録画像として入力された画像データを記録・保持する。典型的には、繰り返し書き換え可能な半導体メモリであるのがよい。登録画像記録部3は、画像データを数十枚もしくはそれ以上を保持するために十分な大容量を持つことが望ましいが、オブジェクト識別部4で使用する情報(例えば各画像の特徴量)を保持しておき、画像データそのものは保持しないという方法をとってもよい。
オブジェクト識別部4および画像登録部5は、例えば、それぞれ専用回路(ASIC)、プロセッサ(リコンフィギュラブルプロセッサ、DSP、CPUなど)で実現される。或いは、オブジェクト識別部4および画像登録部5は、単一の専用回路および汎用回路(PC用CPU)内部において実行されるプログラムとして存在してもよい。オブジェクト識別部4は、画像入力部1と登録画像記録部3から画像を取得し、入力画像中にあるオブジェクトを検出し、識別する。この部分の構成および処理の詳細については後で述べる。画像登録部5は、登録画像記録部3に登録画像を追加、あるいは既に登録画像記録部3に記録されている画像の削除・差し替えの処理を行い、オブジェクト識別部4の処理内容を更新する。この部分の構成および処理の詳細については後で述べる。接続バス6は、上述の構成要素間の制御・データ接続を行うためのバスである。
<全体フロー>
次に、図2を参照しながら、オブジェクト識別装置100が、画像からオブジェクトの識別を行う実際の処理について説明する。なお、以下では、識別するオブジェクトが人物の顔である場合について説明するが、本発明がこれに限るものでないことは、言うまでもない。
始めに、画像入力部1が画像データを取得する(S00)。続いて、オブジェクト識別部4は、取得した画像データに対して、対象オブジェクト検出処理(本実施形態では人の顔の検出処理)を行う(S01)。画像中から人物の顔を検出する方法については、公知の技術を用いればよい。例えば、特許第3078166号公報や特開2002−8032号公報で提案されているような技術を用いることが出来る。
対象オブジェクトである人物の顔の検出処理をしたのち、画像中に人の顔が存在するならば(S02でYesの場合)、オブジェクト識別部4は、個人の識別処理を行う(S03)。画像中に人の顔が存在しない場合(S02でNoの場合)には本処理を終了する。オブジェクト識別処理(S03)の具体的な処理内容については、あとで詳しく説明する。
画像登録部5は、オブジェクト識別処理の結果から、登録済みの人物に該当する顔が入力画像中にあるか判定する(S04)。対象オブジェクト検出処理(S01)で検出された顔と同一人物が、登録済みの人物の中にある場合(S04でYesの場合)には、S09の処理に進む。S09において、画像登録部5は、登録済み人物の画像を再登録するかどうかを判定する。また、検出された顔が登録済み人物の誰とも一致しない場合(S04でNoの場合)には、画像登録部5は、その人物を登録画像に追加するか判定する(S05)。S05、S09では、必ず登録されるようにする方法もあるが、例えばユーザが外部インターフェイスやGUIなどを通じて、その場で登録するかどうか決定するようにしても良い。登録すると判定された場合(S05或いはS09でYesの場合)、画像登録部5は、後述するオブジェクト(人物の顔)の登録処理を行う(S06)。登録を行わない場合(S05或いはS09でNoの場合)、そのままS07に処理を進める。S06の画像登録処理後、およびS05、S09で登録を行わないと判定された場合、オブジェクト識別部4は、検出されたオブジェクト全てについて処理が終わったかどうかを判定する(S07)。未処理のオブジェクトがある場合(S07でNoの場合)、S03へ処理を戻す。検出された全てのオブジェクトについて処理が終わった場合(S07でYesの場合)、オブジェクト識別部4は、一連のオブジェクト識別処理の結果を、外部出力部2に出力する。
なお、画像登録処理(S06)においては、画像中に未登録の顔が多数ある場合にユーザの操作が煩雑になるといえる。よって、この場合には画像中で大きく写っている数個の顔に処理を限定しても良い。さらに、図2に示すフローを介さずに画像入力部1から直接画像を転送して行う手段があってもよい。すなわち、登録画像のオブジェクト抽出・識別は、必ずしもこの装置で行わなくてもよい。このときの直接登録処理と識別処理の切り替えは、上述の外部インターフェイスやGUIなどを通じて行うなどがよい。
以上が、本実施形態にかかるオブジェクト識別装置の処理フローである。次に、S03で行われるオブジェクト識別処理について、続いて、S06で行われる画像登録処理について詳細を述べる。
<オブジェクト識別処理>
まず、図3を用いて、オブジェクト識別部4の構成を説明する。部分特徴量抽出部21は、画像入力部1から取得した入力画像と、登録画像記録部3から取得した登録画像に対して同じ処理を行い、オブジェクトの識別に必要な、入力画像と登録画像で対応する特徴量の抽出を行う。類似度計算部22は、部分特徴量抽出部21で得られた、入力画像と登録画像で対応する特徴量の類似度を算出する。識別部23は、類似度計算部22により求められた類似度から、登録画像が属するクラスに入力画像が属するかどうかを判断する。識別結果統合部24は、識別部23の判断結果を用いて、入力画像が属するクラスを最終的に判断する。このオブジェクト識別部4で行われる処理それぞれについては、後で詳しく説明する。
次に、オブジェクト識別部4が行うオブジェクト識別処理(S03)を、図4のフロー図を用いて説明する。まず、オブジェクト識別部4は、画像入力部1より入力画像を取得する(S10)。次に、オブジェクト識別部4は、登録画像記録部3から登録画像を1枚取得する(S11)。続いて、部分特徴量抽出部21は、両画像に対して部分特徴量抽出処理を行う(S12)。次に、類似度計算部22は、抽出された部分特徴量を用いて両画像間の類似度を計算する類似度計算処理を行う(S13)。そして、識別部23は、類似度計算部22により算出された類似度を用いて識別処理(S14)を行う。この識別処理の結果として、登録画像が属するクラスに入力画像が属するか判断しうる実数値が得られる。これら(S12)から(S14)の処理については、あとで詳しく説明する。そして登録画像記録部3に保持されている全ての登録画像について、(S11)から(S14)の一連の処理を行ったか判別し(S15)、未処理の登録画像があれば同様の処理を繰り返す。全ての登録画像について処理を完了すると、識別結果統合部24は、識別処理において最も大きい値が得られた登録画像が属するクラスに入力画像を分類し、その分類結果をオブジェクト識別部4の出力として外部出力部2に出力する(S16)。出力の形態は、最も良く一致した登録画像とその出力値あるいはクラスの識別子だけを出力しても良く、登録画像が複数ある場合にはそれぞれの登録画像について出力しても良い。
<部分特徴量抽出処理>
次に、部分特徴量抽出部21について図5を用いて説明する。部分特徴量抽出部21においては、入力画像および登録画像には同じ処理が施され、それぞれ対応する部分特徴量が抽出される。この実施形態では、オブジェクトが人物の顔である場合、典型的には部分特徴量として画像の部分領域を切り出し、所定の処理を施したものを特徴ベクトルとして抽出する。具体的には以下のようにすることができる。
特徴ベクトル抽出部31は、顔画像から、目、口、鼻など構成要素の端点を検出する。端点を検出するアルゴリズムは、例えば、特許第3078166号公報に記載の畳み込み神経回路網を用いた方法などを用いることが出来る。端点を検出した後、その端点を基準として、所定領域の輝度値を特徴ベクトルとして取得する。領域の数は任意であるが、典型的には、ひとつの部位の端点に対して端点とその周辺について数点をとる。局所領域の位置を決定する基準となる端点は、左右の目、口の両端点、鼻、など個人の特徴を現すと考えられる部位から予め選択しておく。また、輝度値を直接取得するのではなく、ガボアフィルタ、Local Binary Pattern(LBP)など何らかのフィルタ演算を施した結果から特徴ベクトルを抽出してもよい。なお、LBPについては「T.Ahonen, A. Hadid, M. Pietikainen, (2004) “Face recognition with local binary patterns”, Proc. of 8th European Conference onComputer Vision, ser. Lecture Notes in Computer Science, vol. 3021」を参照されたい。
続いて特徴ベクトル変換部32は、特徴ベクトル抽出部31によって抽出された特徴ベクトルに所定の変換を施す。特徴ベクトルの変換は、例えば、主成分分析(PCA)による次元圧縮や、独立成分分析(ICA)による次元圧縮などが行われる。また、フィッシャー判別分析(FDA)による次元圧縮を行ってもよい。特徴ベクトルの変換方法にPCAを用いた場合、その基底数(特徴ベクトルの次元削減数)や、どの基底を用いるか、などのパラメータが存在する。基底数の代わりに、基底ベクトルに対応する固有値の和、すなわち累積寄与率を指標としてもよい。これらのパラメータや変換方法は、部分領域ごとに異なったものにすることもできる。実際にどのようなパラメータを設定するかは後述する特徴ベクトル生成用データ保持部33から取得すればよい。また、部分領域の数、それぞれの位置や信頼度といえる重み、および変換方法などのパラメータも予め定められており、後述する特徴ベクトル生成用データ保持部33から取得され得る。すなわち、特徴ベクトル生成用データ保持部33は、識別処理において使用すべき特徴領域の指定と、その特徴ベクトルの変換方法の指定を含む指定データを保持している。これらの決め方は、画像登録部5の説明で述べることとする。
特徴ベクトル生成用データ保持部33は、特徴ベクトル抽出部31および特徴ベクトル変換部32において、特徴ベクトルの生成を行う際に必要なデータを保持している。具体的には、上述したような、検出された端点に対する部分領域の位置(すなわち使用すべき部分領域の指定)、部分領域ごとにどの変換を施すかなどの設定情報と、さらに実際の変換に必要な以下の情報が挙げられる。すなわち、特徴ベクトル変換部32で行う変換に主成分分析(PCA)による次元圧縮を用いる場合、分散共分散行列の固有ベクトルが含まれる。また、独立成分分析(ICA)による次元圧縮を行う場合は、独立成分の基底ベクトルが含まれる。
特徴ベクトル生成用データ保持部33に保存される部分領域は大きく分けて2種類存在する。この部分領域の種類を図6に示す。部分領域には、あらかじめ定められた標準型の部分領域Sと、登録画像記録部3の内容が図2に示す画像登録処理(S06)によって更新されたときに、登録画像に基づいて逐次求められる、適応型の部分領域がある。さらに適応型の部分領域には2種類存在する。標準型の部分領域と重複しない適応型の部分領域Aaddは、標準型の部分領域に追加される。また一方、標準型の部分領域と重複する適応型の部分領域Adelは、対応する位置に存在する標準型の部分領域に対して不要な部分領域であると設定される。実際に標準型と適応型の部分領域を定める方法については、画像登録部5で詳しく述べることにする。なお、上述したオブジェクト識別処理を高速化するために、登録画像においては予め部分特徴量抽出処理を行って得られた部分特徴量を別途用意した記録媒体に保存しておき、これら保存された部分特徴量を繰り返し利用するようにしてもよい。
<類似度計算処理>
次に、類似度計算部22について説明する。ここでは、入力画像と登録画像から抽出された特徴ベクトルと、部分特徴量抽出部21で使用した、部分領域ごとの重みを用いて、入力画像と登録画像の類似度を定める。類似度の定義は様々なものが考えられるが、ここでの一例として、登録画像と入力画像における同じ領域に対応する特徴ベクトル間での相関値(内積)を計算し、対応する部分領域の尤度をその相関値に乗じたものを成分とするベクトルを類似度ベクトルとする。この定義によれば、類似度ベクトルの次元数は、部分領域数と一致する。
<識別処理>
次に、識別部23および識別結果統合部24について説明する。ここでは、入力画像が属する登録済みクラスを、上記の類似度計算処理で得られた類似度ベクトルから判別する。その方法として、類似度ベクトルを、画像内の同一クラスに属するオブジェクト間の変動を表すクラス(intra-class)と、異なるクラスに属するオブジェクト間の変動を表すクラス(extra-class)の2クラスに分類する。顔を例にあげて説明すれば、intra-classに属する類似度ベクトルとは、同一人物だが顔向きや照明条件が異なる2画像から得られた類似度ベクトルである。一方extra-classに属する類似度ベクトルとは、異なる2人物の画像から得られた類似度ベクトルである。以下、識別部23について説明する。
多変量のデータを2クラスに識別する識別器として、典型的には、SVM識別器などの識別器を用いればよい。本実施形態では、SVM識別器を用いて判定する場合について説明する。図7の(a)に示すように、識別部23は、SVM識別器駆動部41、SVM識別器データ保持部42を含む。また、図8に示すように、識別結果統合部24は、出力値統合部51、統合用データ保持部52、統合結果記憶部53を含む。識別部23で用いるSVM識別器には、大きく分けて2種類存在する。予め画像内の同一クラスに属するオブジェクト間の変動クラス(intra-class)と、異なるクラスに属するオブジェクト間の変動クラス(extra-class)の2クラスを識別する識別器として学習させておいた標準型のSVM識別器を一つ備える。さらに識別部23は、図1における登録画像記録部3の内容が、図2における画像登録処理(S06)によって更新されたときに、登録画像を教師データとして逐次学習する適応型のSVM識別器を、登録済みクラスと対応する数だけ備える。適応型のSVM識別器は、ある特定のクラスに属するオブジェクト間の変動クラス(intra-class)と、それ以外の変動クラスを識別する。これらSVM識別器のパラメータは、SVM識別器データ保持部42に格納され、識別処理時にSVM識別器駆動部41に転送される。なお、SVMでの識別に関する技術は公知の文献、例えば「V.N. Vapnik (1998) “Statistical Learning Theory”」などによるものなので詳細な説明は割愛する。また適応型のSVM識別器を学習する手順については、画像登録部5の部分で述べることとする。
入力画像と登録画像の類似度ベクトルを識別する手順は以下のとおりである。まずSVM識別器駆動部41は、類似度ベクトルのうち、不要な適応型部分領域を含む標準型の部分領域とそうでない標準型の部分領域も含め、図6における標準型の部分領域Sに対応する成分のみを、標準型のSVM識別器に入力する。並行して、適応型のSVM識別器にも類似度ベクトルの一部成分を入力する。適応型のSVM識別器に入力される類似度ベクトルの成分は、図6における、追加する適応型の部分領域Aaddと、不要な適応型の部分領域Adelを除いた標準型の部分領域Sとに対応する類似度ベクトルの成分である。2つの識別器それぞれは、類似度ベクトルがintra-classに属するかどうか判断しうる実数値を一つ出力する。次に、両実数値を識別結果統合部24に入力する。識別結果統合部24の出力値統合部51は、識別部23から得られた実数値それぞれを、画像登録部5により設定された重みで乗じた上で加算し、最終的な出力値と定め、統合結果記憶部53に保持する。なお、本実施形態の出力値統合部51は2つのSVM識別器の出力を線形和で結合するが、この方法については別途関数を用意するなどしてもよい。なお、標準型と適応型のSVM識別器を訓練する方法と、その出力を結合する重みを決定する手順については、画像登録部5の説明で詳しく述べることにする。
SVM識別器駆動部41で得られた値が大きいほど、入力画像が登録画像の属するクラスに属する可能性が高いといえるが、あくまでも判断の基準である。そこで、識別結果統合部24においては、登録画像全てにおいて識別処理が完了した後、統合結果記憶部53に保持されている、統合後の出力値が最も大きい登録画像が属するクラスに入力画像のクラスを定める。あるいは、SVM識別器駆動部41で得られた最大の値がある閾値より小さければ、入力画像はどのクラスにも属さないと判断し、外部出力部2にその旨を出力する。この閾値の大きさは任意であるが、大きすぎれば多くの入力画像がどの登録済みクラスにも属さないと判別される。また小さすぎれば、本来登録済みクラスに属さない入力画像もいずれかの登録済みクラスに属すると判別される。この閾値は、あらかじめ調整を重ねて決めておくとよく、またユーザが設定できるようにしてもよい。
ところで、一般的に部分領域の数を増やすと、それだけ類似度ベクトルの次元数が増え、演算時間が増加する。SVMの演算時間を抑えるには、サポートベクター数を削減するアルゴリズムを適用することなどで、ある程度演算時間を短縮することは可能である。サポートベクター数を削減する方法は、「Burges, C.J.C (1996). “Simplified support vector decision rules.” International Conference on Machine Learning(pp.71-77).」に記載されているような公知の技術であるので、ここでは説明を割愛する。以上が、オブジェクト識別処理の説明である。続いて、図2における画像登録処理(S06)について詳細を説明する。
<画像登録部5>
画像登録部5およびその処理について説明する。まず、画像登録部5の構成を図9を参照して説明する。登録画像更新部61は、登録画像記録部3における登録内容の更新(登録更新処理)を行う。すなわち、登録画像記録部3に対して、登録画像を新規に追加、既存の登録画像を削除、差し替えなどを行う。登録画像情報取得部62は、登録画像記録部3に保存されている画像についての諸々の情報を抽出、あるいは計算する。部分特徴評価部63と識別処理評価部65は、それぞれ特徴ベクトル生成用データと識別用データの更新判定を行う。部分特徴評価部63は、登録画像情報取得部62で取得した情報に基づき、部分領域の更新が必要か否かを判断する、更新判定を行う。この更新判定で更新が必要と判断されると、特徴ベクトル生成用データ更新部64は、登録画像情報取得部62から得られる情報を用いて適応型の部分領域を選び、部分特徴量抽出部21内の特徴ベクトル生成用データ保持部33の内容を更新する(第1更新処理)。同様に、識別処理評価部65は登録画像情報取得部62で取得した情報に基づき、識別部23の更新が必要か判断する。そして、更新が必要と判断されると、識別用データ更新部66は、登録画像情報取得部62から得られる情報を用いて適応型のSVM識別器のパラメータを設定しなおし、SVM識別器データ保持部42の内容を更新する(第2更新処理)。また、識別処理評価部65は登録画像情報取得部62で取得した情報に基づき、識別結果統合部24の内容の更新が必要か判断する。そして、更新が必要と判断されると、識別用データ更新部66は、登録画像情報取得部62から得られる情報を用いて統合用データ保持部52内のパラメータを設定しなおし、識別結果統合部24の内容を更新する。例えば、統合時における各識別器の重みが更新される。
次に、図10を参照して、画像登録部5で行われる処理を説明する。まず、登録画像更新部61は、画像入力部1より取得した画像を、登録画像記録部3に保存する(S20)。次に、登録画像情報取得部62は、登録画像記録部3に保存されている全画像について、撮影日時或いは作成日時や画像解像度などいくつかの統計情報を取得する(S21)。部分特徴評価部63は、この情報を用いて、部分領域の更新が必要か判断する(S22)。例えば、日時の新しい画像や解像度の高い画像が登録された場合に、更新が必要と判断することができる。更新が必要と判断されると、特徴ベクトル生成用データ更新部64は、特徴ベクトルを求めるために用いる適応型の部分領域を選び、特徴ベクトル生成用データを更新する、第1更新処理を行う(S23)。続いて、識別処理評価部65は、登録画像情報取得処理(S22)で得られた情報を用いて、識別部23及び識別結果統合部24の更新が必要か判断する(S24)。更新が必要と判定されると、識別用データ更新部66は、識別部23が含むSVM識別器と、識別結果統合部24の統合基準を設定する、第2更新処理を行う(S25)。このS21からS25の処理は、登録画像記録部3の内容が更新されるたびに行っても良いが、ある一定枚数以上の登録画像に変化があるまでは処理を延期しておいても良い。また、登録画像記録部3の更新時だけでなく、本装置に電源が投入された際に行ってもよい。
<登録画像更新処理>
図9における登録画像更新部61は、画像入力部1より取得される画像を登録画像記録部3に転送する、登録画像記録部3に保存されている画像を削除する、取得した画像で登録画像記録部3に保存されている画像を差し替える、の3つの処理いずれかを行う。どの処理をどの画像に対して行うかの指示は、外部インターフェイスやGUIなどを通じて行われるのがよい。画像入力部1より取得される画像には、属する登録済みクラスを示す識別子がインターフェイスを通じて付与されており、また、入力される画像は一度に1枚に限らず複数枚でもよい。
<登録画像情報取得処理>
登録画像情報取得部62は、登録画像記録部3に保存されている画像それぞれについて、情報を算出・取得する。このとき、取得できる情報として、大きく分けて3種類ある。登録画像単体についての情報、クラスごとの登録画像についての統計情報、全登録画像についての統計情報である。
「登録画像単体についての情報」として、デジタルカメラで撮影された画像であれば、登録画像情報取得部62はEXIF情報から例えば画像作成からの経過時間、画像解像度を取得できる。さらに、登録画像に対して識別処理を行っておくことも良い。適応型の部分領域とSVM識別器を使用せずに、逐次学習していない初期状態、つまり標準型での識別処理を行う。そして登録画像に対して図10における登録画像更新処理(S20)で付与したクラスの識別子と、識別処理で得られたクラスの識別子との差異を求めれば、標準型での識別処理の信頼度が求められる。また、特徴ベクトル抽出部31で行う端点検出処理において、検出された各端点の尤度が得られる。具体的には、畳み込み神経網を用いる手法やAppearanceMatchingを用いる手法など複数の端点検出法を用いて得られた端点位置の差異量の逆数を、端点検出の尤度として取得できる。上記の端点検出手法に何を用いるかは任意であり、公知のものを用いればよい。
「クラスごとの登録画像についての統計情報」として、登録画像情報取得部62は、そのクラスに属する登録画像の枚数、上記の登録画像単体についての情報の合計、平均などを取得する。例えば登録画像に対する識別結果を集計すれば、このオブジェクト識別装置においてのクラスごとの識別率が得られる。
「全登録画像についての統計情報」としては、全登録画像数、クラスごとの登録画像数などが挙げられる。
なお、登録画像情報取得部62において、ひとつの登録画像についての不変の情報は、その画像が図1における登録画像記録部3に追加された際に算出しておいて、別途用意した記録媒体などに保存しておくのも良い。ただし、クラスや全ての登録画像をまたいだ総計などの統計情報はこの限りではない。
<部分特徴評価処理>
部分特徴評価部63は、以前に選んだ適応型の部分領域と、登録画像情報取得部62から取得できる情報に基づいて、適応型の部分領域を登録画像に基づいて更新すべきか判断する。判断の例として、登録画像の撮影日時或いは作成日時に基づく判断について説明する。識別すべきオブジェクトの性質によっては、時間経過によって外見が変化する場合がある。このような場合では、ある時点で取得した登録画像に基づいて選んだ適応型の部分領域が正しく識別に寄与しない可能性があるため、特徴ベクトル生成用データ更新処理の必要があると判断する。具体例としては、撮影されてからの時間が予め定められた日数を超過した登録画像が全体に対して所定の割合を上回る場合に、上記日数以内に撮影された登録画像のみで更新処理を行う判断ができる。同時に、このとき更新に用いることができる登録画像があらかじめ定められた数以下である場合に限っては、更新処理を実行しないなどの判断ができる。
別の判断の例として、適応型の部分領域における登録画像間の類似度に基づく判断を説明する。追加された適応型の部分領域において、登録画像同士の類似度を求める。同一クラスに属する登録画像同士(intra-class)での局所領域の類似度は大きく、異なるクラスに属する登録画像同士(extra-class)での局所領域の類似度が小さければ、類似度の分離度は大きい。そして、この類似度の分離度が大きければ、識別に関して有効な部分領域であるといえる。そこで、登録画像の更新により、追加された適応型の部分領域における類似度の分離度が所定の値を下回った場合には、特徴ベクトル生成用データ更新処理の必要があると判断する。具体的な分離度の定義として、intra-class、extra-classの類似度分布間のマハラノビス距離を導入するとよい。
<特徴ベクトル生成用データ更新処理>
特徴ベクトル生成用データ更新部64は、登録画像記録部3に保存されている登録画像と登録画像情報取得部62から取得できる情報を用いて、適応型の部分領域を選ぶ。例として、AdaBoostを用いた場合の手順について説明する。標準型の部分領域と適応型の部分領域の差異は、学習に用いるデータであり、手順はほぼ同一である。標準型の部分領域は教師データとして多様・多数の画像が与えられ、あらかじめ装置外でAdaBoost法が行われて選ばれる。適応型の部分領域は教師データとして登録画像が与えられ、装置内で逐次AdaBoost法が行われて選ばれる。なお、以下で説明するAdaBoostの処理は、概ね公知の技術に関するものなので、本発明の本質に関連する部分以外は、適宜説明を省略する。
図11は、部分領域の学習処理の一例を示したフロー図である。まず、特徴ベクトル生成用データ更新部64は教師データとなる画像を取得する(S30)。人物の顔を扱う場合は、教師データとして、クラスの識別子が付加された顔を含む画像を多数用意する。この際、1人あたりの画像数が十分用意されていることが望ましい。照明変動や、表情の変動に頑健な部分領域および特徴ベクトルの変換方法を学習するためには、教師データに上記の変動を十分含んだサンプルを用意することが重要だからである。次に、特徴ベクトル生成用データ更新部64は弱仮説の選択処理を行う(S31)。ここでの弱仮説とは、典型的には、部分領域と特徴ベクトル変換方法との組み合わせのことである。特徴ベクトル生成用データ更新部64は、顔の部分領域候補と、特徴ベクトル変換方法の全組み合わせを予め用意しておく。そして、S30で取得した教師データに対して、AdaBoostの枠組みに沿って、もっとも性能のよい弱仮説、すなわち、部分領域と特徴ベクトルの変換方法の組み合わせを選択する。性能評価を行うための具体的な手順としては、類似度計算部22の説明で述べた、類似度ベクトルの算出処理例が挙げられる。すなわち、教師データに対して、特徴ベクトルの相関値(内積)を求め、類似度ベクトルを生成し、SVM識別器に入力する。同一ラベルの人物間(画像は異なる)と、異なるラベルの人物間とで、それぞれ正しい識別結果になっているか判定し、教師データの重みつき誤り率を求める。
特徴ベクトル生成用データ更新部64は、もっとも性能のよい弱仮説を選択したら、その弱仮説の教師データに関する識別結果をもとに、教師データの重み付けを更新する(S32)。つぎに、特徴ベクトル生成用データ更新部64は、弱仮説数が所定数に達しているか判定する(S33)。所定数に達している場合(S33でYesの場合)、学習処理を終了する。所定数に達していない場合(S33でNoの場合)、新たな弱仮説の選択を行う。
なお、重みつき誤り率の算出や、教師データの重み付けの更新方法など、AdaBoostによる学習の詳細な手順は、「Viola&Jones (2001) “Rapid ObjectDetection using a Boosted Cascade of Simple Features”, Computer Vision and Pattern Recognition.」などに記載されている方法を適宜参照すればよい。以上が、特徴ベクトルを作る際に用いる部分領域を学習する手順であり、以下、本発明の説明に戻る。
適応型の部分領域を選ぶ過程においては、教師データとして十分な数の登録画像が得られない問題が想定できる。その対策の一例として、登録画像に変動を加えた画像を生成し、教師データとなる画像を増やすとよい。具体的な変動として、ノイズの付加、オブジェクトのモデルを用いた回転などの画像処理がある。変動画像の生成については公知の文献を参照すればよいので、ここでは説明を省略する。
別の問題として、AdaBoost法は計算負荷が大きい処理であるため、装置の計算性能や電源の仕様によっては、装置内でAdaBoost法を行うのは難しいことが想定できる。その問題を軽減する対策の一例として、あらかじめ上記部分領域候補の数を絞っておき、必要な計算量を減らしてもよい。標準型の部分領域を選ぶ際には部分領域候補として数百個を用意する。それに対して適応型の部分領域を選ぶ際には、部分領域候補として数十個を用意する。この数十個の部分領域候補自体も、標準型の部分領域と同様にAdaBoost法で事前に選んでおいてもよい。
次に、特徴ベクトル生成用データ更新部64は、選択された標準型と適応型の部分領域を組み合わせて、図3における部分特徴量抽出部21で用いる部分領域とする。組み合わせ方の一例として、以下のようにするのがよい。標準型の部分領域数以下の範囲で、AdaBoost法で得られた尤度が大きく、かつ標準型と異なる部分領域を複数個選び、標準型の部分領域に追加する。逆に尤度が小さく、かつ標準型の部分領域と重複する複数個の部分領域においては、その標準型の部分領域は不要であると設定する。さらに、追加された適応型の部分領域それぞれには、標準型の部分領域に対して相対的な重みが設定される。この重みについては、適応型の部分領域全てに同一の値を用いてもよく、それぞれ異なる値を設定してもよい。また、この重みの初期値として、典型的には、AdaBoost法で得られた尤度とするのがよい。
適応型の部分領域数と重みは、登録画像と登録画像情報取得部62で得られる情報に基づいて、例えば以下のような基準で定めることができる。下記の方法の1つ以上を組み合わせて適応型の部分領域数と重みを決定するのがよい。なお、以下の設定方法の例で用いる式中の記号を以下のように定義する。
n:全登録画像数
n[c] :登録済みクラスcに属する登録画像の数
Nstd:標準型の部分領域の数
Nadd:追加する適応型の部分領域の数
Ndel:不要とする標準型の部分領域の数
W:追加された部分領域に対する重み
ここでNstdは定数であり、適応型の部分領域の数Nadd、NdelについてはあらかじめNstd以下の初期値が与えられていることとする。また、適応型の部分領域の数Nadd、NdelがNstdの所定の割合を超えないよう、あらかじめ上限を設けておくとよい。また、以下に続く設定方法の例では、追加する適応型の部分領域と不要とする標準型の部分領域の数を同じとしているが、異なる値にしてもよい。
<全登録画像数に基づく適応型部分領域の設定方法>
登録画像記録部3に保存されている画像数nが大きければ、それだけ幅広い変動を含んだ教師データで学習していると仮定できる。従って、適応型の部分領域の数Nadd’、Ndel’あるいは追加する適応型の部分領域に対する重みW’を以下の式を用いて大きくするとよい。あるいは、登録画像数が予め定められた数nminに満たない場合には教師データが不足しているとして、適応型の部分領域を一切使わないようにしても良い。
Nadd’ = Nadd×(n÷nmin) (n < nminの場合はNadd’はゼロ)
Ndel’ = Ndel×(n÷nmin) (n < nminの場合はNdel’はゼロ)
W’ = W×(n÷nmin)
<識別処理結果に基づく適応型部分領域の設定方法>
各登録画像について、図10における登録画像情報取得処理(S21)で述べたような、適応型の部分領域とSVM識別器を使用せずに、逐次学習していない初期状態、つまり標準型での識別処理を行い、クラスの識別子が付与されているとする。このとき、図10における登録画像更新処理(S20)においてユーザが設定したクラスの識別子との差異を求めれば、標準型での識別処理の識別率Rstdが求められる。従ってこの識別率が、あらかじめ定められた基準の識別率Rthrより低ければ、標準型の部分領域を補う形で、適応型の部分領域数Nadd’、Ndel’あるいはそれらに対する重みW’を大きくするとよい。その方法として、例えば以下の式を示す。
Nadd’ = Nadd×(Rthr÷Rstd)
Ndel’ = Ndel×(Rthr÷Rstd)
W’ = W×(Rthr÷Rstd)
<端点検出結果に基づく適応型部分領域の設定方法>
図5における特徴ベクトル抽出部31で行う端点検出処理を行っていれば、上で述べたように端点それぞれの尤度を取得できる。ある端点に対する尤度を登録画像間で平均すれば、その端点における平均尤度が求められる。またそれを全端点間で平均すれば、登録画像における端点検出の平均尤度が求められる。登録画像における端点検出の平均尤度の大小は、登録画像においてオブジェクトが識別に適した姿勢で入力画像に写っているか、つまり登録画像として有効な画像なのか判断する手がかりとなり得る。登録画像における端点検出の平均尤度の大小に応じて、適応型の部分領域数や重みを大きくするとよい。端点検出尤度の基準をAstd、端点検出の平均尤度をAavgとしたとき、適応型の部分領域の数や重みは以下の式を用いて求めるとよい。
Nadd’ = Nadd×(Aavg÷Astd)
Ndel’ = Ndel×(Aavg÷Astd)
W’ = W×(Aavg÷Astd)
また、平均尤度が高い端点においては、入力画像に対しても小さい誤差で端点が検出できる可能性がある。従って、平均尤度が高い端点を基準に位置を定める部分領域については、その重みを大きくするとよい。ある端点iにおける検出尤度をA[i]とするとき、その端点を基準に位置を定める局所領域iの重みW[i]の更新後の値W[i]’は以下の式で求められる。
W[i]’ = W[i]×(A[i]÷Astd)
以上が特徴ベクトル生成用データ更新処理の説明である。続いて、識別手段評価処理について説明する。
<識別手段評価処理>
識別処理評価部65は登録画像情報取得部62から取得できる情報に基づいて、適応型の入力画像識別手段を更新すべきかと、標準型および適応型それぞれのSVM識別器の出力値を統合する基準を更新すべきかとを判断する。
判断の例として、登録画像の識別率について説明する。まず、登録画像それぞれに対して図4に示す識別処理を行い、クラスの識別子を推定する。また、登録画像情報取得部62から、標準型の部分特徴と識別器のみを用いて推定したクラスの識別子と、ユーザが設定したクラスの識別子を取得する。次に、上記識別子の情報から、標準型の部分特徴と識別手段のみを用いた場合の識別率と、現在の識別処理における識別率を算出する。登録画像の更新により、現在の識別処理における識別率が、前記標準型の部分特徴と識別手段のみを用いた場合の識別率を下回る、あるいは同程度になった場合に、SVM識別器更新処理の必要があると判断する。すなわち、識別処理評価部65は、標準型の識別器のみを用いた識別率と、標準型の識別器及び適応型の識別器を用いた識別率との大きさの関係に基づいて識別用データ行進処理の要否を判断する。
また別の判断基準として、図9における部分特徴評価部63と同様に登録画像の撮影日時を用いることができるが、ここでは割愛する。
<識別用データ更新処理>
識別用データ更新部66は、特徴ベクトル生成用データ更新部64での処理と同様に、登録画像記録部3に保存されている登録画像と登録画像情報取得部62から取得できる情報を用いて、適応型のSVM識別器を学習する。そして、標準型および適応型のSVM識別器の出力値を統合する基準を設定する。
まず、適応型のSVM識別器を学習する。標準型の部分領域と適応型のSVM識別器の差異は、教師データと学習のタイミングであり、学習の手順は同一とすることができる。標準型のSVM識別器は、教師データとして多数の画像が与えられ、あらかじめ装置外で学習が完了していることに対して、適応型のSVM識別器は、教師データとして登録画像が与えられ、装置内で逐次再学習が行われる。以下では、図12を参照して、識別用データ更新部66によるSVM識別器の学習手順を説明する。
まず、識別用データ更新部66は、教師データとなる画像を取得する(S40)。人物の顔を扱う場合は、教師データとして、個人の識別子を表すラベルのついた顔を含む画像を多数用意する。次に、識別用データ更新部66は、これらの画像の中から2つを取り出し、部分特徴量抽出部21および類似度計算部22で述べた方法で類似度ベクトルを生成する(S41)。続いて、識別用データ更新部66は、類似度ベクトルと、その類似度ベクトルがintra-classの類似度なのかextra-classの類似度なのかを表すラベルを併せて、SVMの学習器に与える(S42)。識別用データ更新部66は、この(S41)から(S42)の処理を取得した全ての画像の組み合わせについて行ったか判定する(S43)。完了していると判定された場合には、識別用データ更新部66は、intra-classとextra-classの類似度ベクトルを類似度ベクトル空間上で分離させる超曲面(分離平面)を導出する(S44)。以上がSVM識別器を学習させる手順の説明である。なお、ここで説明した処理は、概ね公知の技術に関するものなので、適宜省略してある。なお、適応型のSVM識別器については、初期状態からの再学習を必要とせず、追加された教師データのみで逐次学習する方式のSVM識別器を、適応型のSVM識別器に用いることもできる。この逐次学習型のSVMについては、「G.Cauwenberghs & T. Poggio (2001)“Incremental and decremental support vector machine Learning”, In Advances in NeuralInformation Processing Systems」などの公知の文献を参照されたい。
識別用データ更新部66は、登録済みクラスの数だけ、それぞれに対応する適応型のSVM識別器を生成する。登録画像更新部61の処理結果により、登録済みクラスが増加した場合にはその分だけ適応型のSVM識別器が追加され、クラスが減少した場合にはそのクラスに対応する適応型のSVM識別器が破棄される。
あるクラスに対応する適応型のSVM識別器を学習させる際には、
・そのクラスに属する登録画像同士から得られる類似度ベクトルをintra-classの教師データとして、
・そのクラスに属する登録画像とそれ以外のクラスに属する登録画像から得られる類似度ベクトルをextra-classの教師データとして、
それぞれSVM学習器に与える。
次に、識別結果統合部24で標準型のSVM識別器の出力値と適応型のSVM識別器の出力値とを統合する重みを定める。重みは適応型のSVM識別器それぞれ異なるものを定めても良いし、全て同じものを用いても良い。例えば重みの決め方として、以下のようなものがあり、下記の方法の1つ以上を組み合わせて重みを決定するのがよい。なお、以下の設定方法の例で用いる式中の記号を以下のように定義する。また上述の部分特徴評価処理での定義も併せて参照されたい。ここでrstdにはあらかじめ初期値が与えられていることとし、さらにrstdはゼロにならないよう下限を設けておくとよい。
rstd:Ostdが最終的な出力値に寄与する割合
rada:Oadaが最終的な出力値に寄与する割合(1.0− rstd)
Ostd:標準型のSVM識別器による出力値
Oada:適応型のSVM識別器による出力値
Ofin:標準型および適応型の出力値を統合した最終的な出力値
Ofin = Ostd×rstd + Oada×rada
<登録画像数に基づく適応型SVM識別器重みの設定方法>
登録画像の数nが大きければ、それだけ幅広い変動を含んだ教師データで学習していると仮定できる。従って適応型のSVM識別器に対しての重みradaを大きくするのが良い。あるいは、nが登録画像数の基準nminを下回っている場合には、適応型のSVM識別器の出力値に対する重みradaをゼロにしてしまう、つまり使用しない方法もよい。重みrada’は、例えば以下の式を用いて求めることができる。
rada’ = rada×(n÷nmin) (n < nminの場合はrada’はゼロ)
あるいは、登録済みクラスごとにそれぞれ異なる重みを求めることもできる。あるクラスに属する登録画像の数をn[c]、1つのクラスに属する登録画像数の基準をnmincとするとき、そのクラスに対応する適応型のSVM識別器から出力される値の重みrada[c]の更新後の値rada[c]’は以下の式で計算できる。
rada[c]’ = rada[c]×(n[c]÷nminc)
<識別処理結果に基づく適応型SVM識別器重みの設定方法>
各登録画像について、前記登録画像情報取得処理(S21)で述べたような、適応型の部分領域とSVM識別器を使用せずに、逐次学習していない初期状態、つまり標準型での識別処理を行い、クラスの識別子が付与されているとする。このとき、前記登録画像更新処理(S20)において人手から得られたクラスの識別子との差異を求めれば、標準型での識別処理の識別率Rstdが求められる。従って、この識別率Rstdが低ければ、適応型のSVM識別器を補う形で重みradaを大きくするとよい。例えば、あらかじめ定められた基準の識別率Rthrを用いて、以下に示す式で重みrada’を設定できる。
rada’ = rada×(Rthr÷Rstd)
あるいは上と同様に、登録済みクラスごとにそれぞれ異なる重みを求めることもできる。例えばあるクラスcにおける標準型での識別処理での識別率をRstd[c]とするとき、そのクラスに対応する適応型のSVM識別器による出力値の重みrada[c]の更新後の値rada[c]’は以下の式で計算できる。
rada[c]’ = rada[c]×(Rthr[c]÷Rstd)
以上が適応型のSVM識別器を学習しなおす処理であり、それぞれのSVM識別器の分離平面に関するパラメータをSVM識別器データ保持部42に転送し、出力値を統合する重みを、図8における統合用データ保持部52に転送する。
以上のように、第1実施形態によれば、過学習による識別性能の劣化を抑えつつ、識別したい特定のオブジェクトについての識別性能を向上させることが可能となる。
[第2実施形態]
第1実施形態では、識別処理の際、入力画像とどの登録済みクラスに属する登録画像とを比較するかによらず、常に同一の適応型の部分領域を入力画像および登録画像に設定した。それに対して第2実施形態は、登録済みクラスごとに異なる適応型の部分領域を選ぶ点で第1実施形態と異なる。以下、具体的に説明する。なお、重複を避けるため、以下の説明においては、前実施形態と同じ部分は省略する。各部の基本的な機能は第1実施形態と同一であるため、各部の説明は第1実施形態を参照されたい。
<特徴ベクトル生成用データ更新処理>
図9に示されている、画像登録部5内の特徴ベクトル生成用データ更新部64について、第1実施形態との差異を説明する。第1実施形態では、図11に示すAdaBoost法により適応型の部分領域を求める際、登録画像間での全ての組み合わせを教師データとして、弱仮説の選択(S31)から重み更新(S32)まで行う。これにより、登録済みクラスを識別する性能が平均的に高い適応型の部分領域が1セット選ばれる。部分特徴量抽出部21は、どんな入力画像と登録画像を比較する際にも、同一の適応型の部分領域を用いて標準型の部分領域に追加および削除を行った部分領域を、入力画像および登録画像に設定することとなる。
それに対して第2実施形態では、登録済みクラス毎に、その登録済みクラスを識別する性能が高くなる適応型の部分領域をそれぞれ選ぶ。つまり、適応型の部分領域のセットが、登録済みクラスと等しい数だけ選ばれることとなる。図3における部分特徴量抽出部21は、ある登録済みクラスに属する登録画像と入力画像を比較する際、その登録済みクラスと対応する適応型の部分領域で標準型の部分領域に追加および削除を行う。そして追加および削除を行った部分領域を入力画像および登録画像に設定する。
ある登録済みクラスに対応する適応型の部分領域をAdaBoost法で選ぶ際には、教師データとする登録画像間での組み合わせの全ては用いず、以下の組み合わせを教師データとして用いる。それは、対象となるクラスに属する登録画像同士の組み合わせと、対象となるクラスに属する登録画像と、それ以外のクラスに属する登録画像の組み合わせである。対象とならないクラスに属する登録画像同士の組み合わせは、教師データから除外する。
以上のように第2実施形態によれば、クラスごとに異なる適応型の部分領域が選ばれるので、第1実施形態の効果に加えて、クラス毎に適切な部分領域を選択することができる。
[第3実施形態]
第1実施形態では、適応型の部分領域が、AdaBoost法による機械学習で決定される。それに対して第3実施形態は、あらかじめ装置外でオブジェクトの平均画像を生成しておき、その平均画像と登録画像を比較することで、適応型の部分領域を選択する。以下、第3実施形態を具体的に説明する。なお、重複を避けるため、以下の説明においては、第1実施形態と同じ部分に関する説明は省略する。各部の基本的な機能は第1実施形態と同様であるため、各部の説明は第1実施形態を参照されたい。
<平均特徴量生成処理>
第3実施形態による画像登録部5について、図13を用いて説明する。第3実施形態の画像登録部5が第1実施形態と異なる点は、平均特徴量保持部67が追加されており、特徴ベクトル生成用データ更新部64がこれを参照する点である。平均特徴量保持部67には、オブジェクトの平均画像として、あらかじめ定められた部分特徴候補それぞれにおける部分特徴量の平均値(平均特徴量)が保持されている。この平均特徴量は、あらかじめ装置外で十分な量の教師データが与えられて生成されることが望ましい。以下では、第1実施形態にならい、部分特徴として画像の部分領域を用いる場合の平均特徴量生成について説明するが、平均の部分特徴量はいかなる種類の部分特徴からも生成できることは言うまでもない。
まず、平均特徴量保持部67は、与えられた平均特徴量生成用データとなる画像中の、あらかじめ定められている部分領域候補すべてにおいて、部分特徴量抽出部21について説明したような部分特徴量の抽出処理を施す。この処理で得られるものを全ての画像について平均すれば、部分領域候補それぞれについて平均特徴量が得られる。ただし、部分特徴量抽出部21で行われるどの時点での特徴量を平均するかは任意である。例えば、切り出された画像の部分領域そのもの、部分領域に対して輝度値を取り出すなどのフィルタ演算を施したもの、フィルタ演算を施した部分領域に対してPCAなどを用いて圧縮したものが挙げられる。なお、後で述べる特徴ベクトル生成用データ更新処理での計算量の観点から、最もデータ量が削減されているPCAなどを用いて次元を圧縮した特徴ベクトルを、教師データとなる画像間で平均して平均特徴量保持部67に保持しておくのが良い。
<特徴ベクトル生成用データ更新処理>
第3実施形態の特徴ベクトル生成用データ更新部64は、登録画像記録部3に保存されている登録画像、登録画像情報取得部62から取得できる情報、さらに平均特徴量保持部67に保持されている平均特徴量を用いて、適応型の部分領域とその重みを選ぶ。
まず、特徴ベクトル生成用データ更新部64は、登録画像それぞれについて、平均特徴量生成処理で教師データとなる画像に適用したものと同じ特徴量抽出処理を施し、あらかじめ定められている部分領域候補それぞれから部分特徴量を抽出する。続いて、特徴ベクトル生成用データ更新部64は、登録画像の特徴量と平均特徴量に基づいて、あらかじめ定められている部分領域候補それぞれについて重みを決定する。本実施形態における重みと適応型部分特徴の数の求め方は、第1実施形態における特徴ベクトル生成用データ更新処理で述べた設定方法に加えて、以下の設定方法で選ぶことができる。これらの1つ以上を組み合わせて適応型の部分領域の数と重みを決定するのがよい。
<平均特徴量との差分に基づく部分領域候補の重み設定方法>
ある部分領域候補pについて、平均特徴量と登録画像から得られた特徴量の差分を取る。この差分をあるクラスcに属する登録画像すべてに対して取得し、クラス内差分平均da[p][c]を得る。さらに、クラス内差分平均を全ての登録済みクラスにおいて平均することで、差分平均da[p]が取得できる。このクラス内差分平均の大きさとは、あるクラスのオブジェクトがこの部分領域候補において、平均的なオブジェクトと比較してどれほど特徴的であるか表す尺度といえる。差分平均da[p]に比べてクラス内差分平均da[p][c]が著しく大きい部分領域候補、例えば顔画像においては個人に特有のホクロなど目印となるような部分領域候補を積極的に用いれば、クラスcの識別性能を上げられる可能性がある。従って、部分領域候補を以下の式で評価することで、前記目印となりうる部分領域候補の重みW[p]’を大きくできる。また、そのクラスに属する登録画像の枚数n[c]が大きいほど差分平均の信頼性が上がるため、1つのクラスに属する登録画像数の基準nmincを用いて、以下の式からW[p]の重みを大きくするとよい。なお、式中の記号については、第1実施形態での前記部分特徴評価処理での定義も併せて参照されたい。
W[p]’ = W[p]×(da[p][c]÷da[p])×(n[c]÷nminc)
<同一クラス登録画像間との差分に基づく部分領域候補の重み設定方法>
ある部分領域候補pについて、ある同一クラスcに属する登録画像同士から得られた特徴量の差分を取る。この差分をそのクラスに属する登録画像同士の組み合わせすべてに対して取得し平均することで、自己差分平均d[p][c]を得る。この自己差分平均の大きさとは、あるクラスのオブジェクトがこの部分領域候補pにおいて、どれほど変化するかを表す尺度といえる。この自己差分平均が大きい部分領域候補とは、例えば顔画像においては、表情で大きく変化する目や、時間経過で変化が大きい髪の毛などであるといえる。この差分平均が小さい、つまり同一オブジェクトにおいて変化しにくい部分領域候補を積極的に用いることで、識別性能を上げられる可能性がある。従って、あるクラスに属する登録画像においてこの差分平均が小さい部分領域候補の重みを、差分平均が小さいほど大きくすると良い。また同時に、そのクラスに属する登録画像の枚数が大きいほど差分平均の信頼性が上がるため、前記差分平均が小さい部分領域候補の重みを大きくするとよい。例えば、以下の式からW[p]の重みを変更できる。なお、式中のdとは、自己差分平均を全登録済みクラスおよび全部分領域候補で平均をとったものである。
W[p]’ = W[p]×(d[p][c]÷d)×(n[c]÷nminc)
なお、上記の設定方法における差分の定義は任意であるが、ベクトルの内積を利用して0.0から1.0の範囲で求めるのが良い。以上が第3実施形態の説明である。
[第4実施形態]
第4実施形態は、第1実施形態に対して、オブジェクト識別部4が含む識別部と、画像登録部5が含む識別用データ更新部の処理内容が異なる。第1実施形態では、適応的に構成されるSVM識別器の出力が、標準型のSVM識別器の出力と線形和で結合されており、適宜追加される登録画像に基づいて線形和の重みを逐次更新していた。それに対して第4実施形態では、標準型のSVM識別器と適応型のSVM識別器が直列に配置され、順に駆動される。標準型のSVM識別器の出力値がある閾値を超えなければ、その時点で処理が打ち切られる。出力値がある閾値を超えた場合、適応型のSVM識別器の出力値により入力画像が属するクラスが判別される。閾値は、識別用データ更新部により更新される。以下、第4実施形態を具体的に説明する。重複を避けるため、以下の説明においては、第1実施形態と同様の構成についての説明は省略する。各部の基本的な機能は第1実施形態と同一であるため、各部の説明は第1実施形態を参照されたい。
<識別処理>
オブジェクト識別部4内の識別部について、第1実施形態との差異を説明する。ここでは第1実施形態と同じく、intra-class, extra-classの2クラス問題を、SVM識別器を用いて判定する場合について説明する。図7の(b)は、オブジェクト識別部4における識別部23の一構成例を示すブロック図である。識別部23は、SVM識別器駆動部41、SVM識別器データ保持部42を含む。SVM識別器駆動部41で用いる標準型および適応型のSVM識別器の性質や、適応型のSVM識別器を登録済みクラスと等しい数だけ備えることは、第1実施形態と同じである。ただし、SVM識別器駆動部41におけるSVM識別器の組み合わせ方が一部異なり、並列ではなく直列に結合される。識別部23が入力画像と登録画像の類似度ベクトルを識別する手順は以下のとおりである。
まずSVM識別器駆動部41は、類似度ベクトルのうち、不要な標準型の部分領域とそうでない標準型の部分領域も含め、標準型の部分領域に対応する成分のみを、標準型のSVM識別器に入力する。このとき、標準型のSVM識別器から出力される実数値が所定の閾値を超えない場合には、この登録画像が属するクラスに入力画像は属さないとして処理を打ち切る。閾値を超える場合には、続いて、類似度ベクトルの全ての成分を、登録画像が属するクラスに対応する適応型のSVM識別器に入力し、得られた出力値を識別結果統合部24に出力する。続く識別結果統合部24での処理において第1実施形態と異なる点は次のとおりである。すなわち、登録画像全てにおいて識別処理が完了した後、適応型のSVM識別器の出力が最も大きい登録画像が属するクラスに入力画像のクラスを必ず定め、該当する登録済みクラス無しと出力しないことである。閾値を決定する手順については、以下の識別用データ更新部で詳しく述べることにする。
<識別用データ更新処理>
画像登録部5内の識別用データ更新部66(図9)について、第1実施形態との差異を説明する。ここでは第1実施形態と同様に、まず登録画像記録部3に保存されている登録画像と登録画像情報取得部62から取得できる情報を用いて、適応型のSVM識別器を更新する。この適応型のSVM識別器の学習は第1実施形態と同じであるため、割愛する。
続いて、第1実施形態では標準型と適応型のSVM識別器の出力値を線形和で出力する重みを求めたが、本実施形態では、標準型のSVM識別器の出力値に対する閾値を求める。閾値はあらかじめ初期値が設定されていることとし、識別用データ更新処理でクラスcごとに異なる閾値Th[c]を定めても良いし、全ての登録済みクラスで同じ閾値Thを定めても良い。例えば重みの決め方として、以下のようなものがあり、下記の方法の1つ以上を組み合わせて重みを決定するのがよい。なお、設定方法で述べる式中の記号については、第1実施形態での前記部分特徴評価処理での定義も併せて参照するとよい。
<登録画像数に基づく適応型SVM識別器重みの設定方法>
あるクラスに属する登録画像が多ければ、そのクラスに対応する適応型のSVM識別器はそれだけ幅広い変動を含んだ教師データで学習しており、適応型のSVM識別器がそのクラスに対する類似を識別する性能は高くなると仮定できる。従って、標準型のSVM識別器でそのクラスに対する変動を識別する際の閾値Th[c]を下げ、適応型のSVM識別器に委ねるとよい。あるいは、あるクラスに属する登録画像数n[c]が予め定められた値を下回っている場合には、そのクラスに対応する適応型のSVM識別器を使用しない方法もよい。また、クラス毎の登録画像数に限らず、全登録画像数nの大小によって、全てのクラスに対して、閾値Thを一様に増減しても良い。
Th[c]’ = Th[c]×(nminc÷n[c]) (n[c] <nmincの場合はTh[c]’はゼロ)
Th’ = Th×(nmin÷n) (n < nminの場合はTh’はゼロ)
<識別処理結果に基づく適応型SVM識別器重みの設定方法>
各登録画像について、登録画像情報取得処理(S21)で述べたような、適応型の部分領域とSVM識別器を使用せずに、逐次学習していない初期状態、つまり標準型での識別処理を行い、クラスの識別子が付与されているとする。このとき、登録画像更新処理(S20)においてユーザから得られたクラスの識別子との差異を求めれば、標準型での識別処理の識別率が、クラスごとに求められる。あるクラスに対しての標準型のSVM識別器の識別率Rstd[c]が低ければ、標準型のSVM識別器でそのクラスに対する変動を識別する際の閾値Th[c]を下げ、適応型のSVM識別器に識別を委ねるとよい。
Th[c]’ = Th[c]×(Rstd[c]÷Rthr)
以上が適応型のSVM識別器を学習しなおす処理であり、それぞれのクラスに対応する適応型のSVM識別器のパラメータと閾値を、SVM識別器データ保持部42に転送する。以上が第4実施形態の説明である。
[第5実施形態]
第5実施形態は、第1実施形態に対して、特徴ベクトル抽出部と識別用データ更新部が用いる教師データとして、登録画像だけでなく、装置内にあらかじめ保存される教師画像を併用するという点で異なる。以下、具体的に説明する。重複を避けるため、以下の説明においては、第1実施形態と同様の構成の説明は省略する。各部の基本的な機能は第1実施形態と同様であるため、各部の説明は第1実施形態を参照されたい。
第5実施形態によるオブジェクト識別装置100の全体のハードウェア構成例を図1の(b)に示す。また、第5実施形態の画像登録部5の一構成例を図14に示す。第5実施形態が第1実施形態と異なる点は、教師画像記録部7が追加されていることである。教師画像記録部7には、教師データとして利用できる、オブジェクトの画像が多数保存されており、また、保存されている教師画像はどの登録済みクラスにも属さない。登録画像はユーザにより追加・削除・差し替えが行われることに対して、教師画像にはそのような操作は必要ない。
第1〜第4実施形態のように、登録画像のみで適応型の部分領域とSVM識別器の学習を行う場合、登録画像の枚数が少なすぎて、十分な学習結果が得られない場合がある。また、登録画像すべてがいずれかのクラスに属するオブジェクト画像であり、いずれのクラスにも属さないオブジェクト画像を学習に用いることができないため、登録画像に極端に特化した適応型の部分領域とSVM識別器の学習を行ってしまう可能性がある。本実施形態では、登録画像情報取得部62、特徴ベクトル生成用データ更新部64、識別用データ更新部66における処理では、登録画像記録部3に登録されている画像だけでなく、教師画像記録部7に保存されている教師画像も併せて使用する。
本発明は、上記第1乃至第5実施形態と同等の処理を、コンピュータプログラムでも実現できる。この場合、図1をはじめとする構成要素の各々は関数、もしくはCPUが実行するサブルーチンで機能させれば良い。また、通常、コンピュータプログラムは、CD−ROM等のコンピュータ可読記憶媒体に格納されており、それを、コンピュータが有する読取り装置(CD−ROMドライブ等)にセットし、システムにコピーもしくはインストールすることで実行可能になる。従って、かかるコンピュータ可読記憶媒体も本発明の範疇にあることは明らかである。

Claims (17)

  1. 入力画像に含まれているオブジェクトが、予め登録された複数のクラスのいずれに属するか識別するオブジェクト識別装置であって、
    入力画像の識別に用いられる複数の登録画像を登録してある登録手段と、
    識別に使用する部分領域を指定する指定データを保持する保持手段と、
    前記入力画像と前記複数の登録画像の各々から、前記指定データによって指定された部分領域の特徴量を抽出し、抽出された特徴量に基づいて前記入力画像が属するクラスを識別する識別手段と、
    前記登録手段の登録内容を更新する登録更新手段と、
    前記登録手段に登録されている前記複数の登録画像に基づいて、前記識別手段の処理内容の更新が必要か否かを判定する更新判定手段と、
    前記更新判定手段により更新が必要であると判定された場合に、前記登録手段に登録されている登録画像に基づいて、前記指定データによる部分領域の指定を更新する第1更新手段とを備えることを特徴とするオブジェクト識別装置。
  2. 前記識別手段は、
    前記入力画像と登録画像の特徴量に基づいて類似度ベクトルを取得する取得手段と、
    前記複数の登録画像の各々について前記取得手段が取得した類似度ベクトルを用いて、前記入力画像が登録画像の属しているクラスに属するかを判別する判別手段と、
    前記複数の登録画像についての前記判別手段による複数の判別の結果を統合して識別結果を生成する統合手段と、
    前記更新判定手段により、前記判別手段および前記統合手段で用いられるパラメータの更新が必要であると判定された場合に、前記登録手段に登録されている登録画像に基づいて、前記パラメータを更新する第2更新手段とを更に備えることを特徴とする請求項1に記載のオブジェクト識別装置。
  3. 前記更新判定手段は、前記複数の登録画像の作成日時に基づいて前記指定データの更新が必要か否かを判定することを特徴とする請求項1または2に記載のオブジェクト識別装置。
  4. 前記更新判定手段は、前記指定データが指定する部分領域に関して、同じクラスの登録画像間における類似度と、別のクラスの登録画像との間の類似度との比である分離度に基づいて前記指定データの更新が必要か否かを判定することを特徴とする請求項1または2に記載のオブジェクト識別装置。
  5. 前記判別手段は、複数の教師画像を用いた学習によりパラメータが設定された標準型の識別器と、前記登録手段に登録された登録画像を用いてパラメータが設定されたクラスごとの適応型の識別器とを有し、
    前記更新判定手段は、前記標準型の識別器のみを用いた識別率と、前記標準型の識別器及び前記適応型の識別器を用いた識別率との大きさの関係に基づいて、前記パラメータの更新の要否を判定することを特徴とする請求項2に記載のオブジェクト識別装置。
  6. 前記第2更新手段は、前記標準型の識別器及び前記適応型の識別器における分離平面を更新することを特徴とする請求項5に記載のオブジェクト識別装置。
  7. 前記第2更新手段は、前記標準型の識別器と前記適応型の識別器の各々の結果の出力に対する統合時の重み付けを更新することを特徴とする請求項5または6に記載のオブジェクト識別装置。
  8. 前記識別に使用する部分領域は、クラスに関わらず同じであることを特徴とする請求項1に記載のオブジェクト識別装置。
  9. 前記識別に使用する部分領域は、クラスごとに異なることを特徴とする請求項5に記載のオブジェクト識別装置。
  10. 複数の教師画像を用いて算出された各部分領域の特徴量の平均値を保持する平均特徴量保持手段を更に備え、
    前記第1更新手段は、同じクラスに属する登録画像を用いて算出された部分領域の特徴量の平均値と、対応する部分領域の前記平均特徴量保持手段に保持されている平均値とに基づいて、当該部分領域に対する重み値を更新することを特徴とする請求項1に記載のオブジェクト識別装置。
  11. 前記標準型の識別器と前記適応型の識別器は並列に接続され、
    前記統合手段は、前記標準型の識別器と前記適応型の識別器から得られた識別結果を統合することを特徴とする請求項5に記載のオブジェクト識別装置。
  12. 前記標準型の識別器と前記適応型の識別器は直列に接続され、
    前記統合手段は、前記適応型の識別器から得られた識別結果を統合することを特徴とする請求項5に記載のオブジェクト識別装置。
  13. 前記適応型の識別器は、前記標準型の識別器の識別結果が閾値を越えている場合にのみ処理を実行し、
    前記第2更新手段は、前記閾値を更新することを特徴とする請求項12に記載のオブジェクト識別装置。
  14. 前記適応型の識別器はクラスごとに設けられ、前記閾値はクラスごとに異なることを特徴とする請求項13に記載のオブジェクト識別装置。
  15. 複数の教師画像を記憶した教師画像記録手段を更に備え、
    前記第1更新手段と前記第2更新手段は、前記登録手段の登録画像が不足する場合に、前記教師画像記録手段に保持された教師画像を利用して更新処理を行うことを特徴とする請求項2に記載のオブジェクト識別装置。
  16. 入力画像の識別に用いられる複数の登録画像を登録してある登録手段と、
    識別に使用する部分領域を指定する指定データを保持する保持手段とを備え、
    入力画像に含まれているオブジェクトが、予め登録された複数のクラスのいずれに属するか識別するオブジェクト識別装置の制御方法であって、
    識別手段が、前記入力画像と前記複数の登録画像の各々から、前記指定データによって指定された部分領域の特徴量を抽出し、抽出された特徴量に基づいて前記入力画像が属するクラスを識別する識別工程と、
    登録更新手段が、前記登録手段の登録内容を更新する登録更新工程と、
    更新判定手段が、前記登録手段に登録されている前記複数の登録画像に基づいて、前記識別手段の処理内容の更新が必要か否かを判定する更新判定工程と、
    前記更新判定工程において更新が必要であると判定された場合に、前記登録手段に登録されている登録画像に基づいて、前記指定データによる部分領域の指定を更新する更新工程とを有することを特徴とするオブジェクト識別装置の制御方法。
  17. 請求項1乃至15のいずれか1項に記載のオブジェクト識別装置の各手段としてコンピュータを機能させるためのコンピュータプログラム。
JP2009298819A 2009-12-28 2009-12-28 オブジェクト識別装置及びその制御方法 Expired - Fee Related JP5554987B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009298819A JP5554987B2 (ja) 2009-12-28 2009-12-28 オブジェクト識別装置及びその制御方法
US12/973,172 US8705806B2 (en) 2009-12-28 2010-12-20 Object identification apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009298819A JP5554987B2 (ja) 2009-12-28 2009-12-28 オブジェクト識別装置及びその制御方法

Publications (2)

Publication Number Publication Date
JP2011138387A true JP2011138387A (ja) 2011-07-14
JP5554987B2 JP5554987B2 (ja) 2014-07-23

Family

ID=44187666

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009298819A Expired - Fee Related JP5554987B2 (ja) 2009-12-28 2009-12-28 オブジェクト識別装置及びその制御方法

Country Status (2)

Country Link
US (1) US8705806B2 (ja)
JP (1) JP5554987B2 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013196008A (ja) * 2012-03-15 2013-09-30 Omron Corp 登録判定装置、その制御方法および制御プログラム、並びに電子機器
JP2014130583A (ja) * 2012-12-18 2014-07-10 Canon Inc オブジェクト検出方法、オブジェクト検出装置及び撮像装置
EP2793171A1 (en) 2013-04-15 2014-10-22 Omron Corporation Classifier update device, information processing device, and classifier update method
JP2014219847A (ja) * 2013-05-08 2014-11-20 株式会社デンソー 物体識別装置
JP2015029355A (ja) * 2014-10-17 2015-02-12 株式会社東芝 機器制御装置、その方法、及び、そのプログラム
JP2015069580A (ja) * 2013-09-30 2015-04-13 大日本印刷株式会社 人物画像分類装置、人物画像分類方法、及び、プログラム
JP2015219797A (ja) * 2014-05-20 2015-12-07 キヤノン株式会社 画像照合装置、画像検索システム、画像照合方法、画像検索方法およびプログラム
JP2016133895A (ja) * 2015-01-16 2016-07-25 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
WO2017017900A1 (ja) * 2015-07-27 2017-02-02 パナソニックIpマネジメント株式会社 顔照合装置およびこれを備えた顔照合システムならびに顔照合方法
JP2017167968A (ja) * 2016-03-17 2017-09-21 株式会社東芝 算出装置及び認識装置
WO2020235268A1 (ja) 2019-05-23 2020-11-26 コニカミノルタ株式会社 物体検出装置、物体検出システム、物体検出方法、プログラムおよび記録媒体
WO2020235269A1 (ja) 2019-05-23 2020-11-26 コニカミノルタ株式会社 物体検出装置、物体検出方法、プログラムおよび記録媒体
KR20210085569A (ko) * 2019-12-30 2021-07-08 엘아이지넥스원 주식회사 표적 추적 시스템 및 방법

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2677495B1 (en) * 2011-02-15 2022-09-28 Fujitsu Limited Biometric authentication device, method and computer program
US9082179B2 (en) * 2011-02-23 2015-07-14 Koninklijke Philips N.V. Automatic projection of landmarks to generate additional correspondences in image registration
JP5792985B2 (ja) * 2011-04-20 2015-10-14 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
US8948522B2 (en) * 2011-08-04 2015-02-03 Seiko Epson Corporation Adaptive threshold for object detection
US9122914B2 (en) * 2013-05-09 2015-09-01 Tencent Technology (Shenzhen) Co., Ltd. Systems and methods for matching face shapes
US20140341443A1 (en) * 2013-05-16 2014-11-20 Microsoft Corporation Joint modeling for facial recognition
US9614724B2 (en) 2014-04-21 2017-04-04 Microsoft Technology Licensing, Llc Session-based device configuration
US9639742B2 (en) 2014-04-28 2017-05-02 Microsoft Technology Licensing, Llc Creation of representative content based on facial analysis
US9773156B2 (en) 2014-04-29 2017-09-26 Microsoft Technology Licensing, Llc Grouping and ranking images based on facial recognition data
US9384335B2 (en) 2014-05-12 2016-07-05 Microsoft Technology Licensing, Llc Content delivery prioritization in managed wireless distribution networks
US9384334B2 (en) 2014-05-12 2016-07-05 Microsoft Technology Licensing, Llc Content discovery in managed wireless distribution networks
US10111099B2 (en) 2014-05-12 2018-10-23 Microsoft Technology Licensing, Llc Distributing content in managed wireless distribution networks
US9430667B2 (en) 2014-05-12 2016-08-30 Microsoft Technology Licensing, Llc Managed wireless distribution network
US9874914B2 (en) 2014-05-19 2018-01-23 Microsoft Technology Licensing, Llc Power management contracts for accessory devices
US9367490B2 (en) 2014-06-13 2016-06-14 Microsoft Technology Licensing, Llc Reversible connector for accessory devices
US9460493B2 (en) 2014-06-14 2016-10-04 Microsoft Technology Licensing, Llc Automatic video quality enhancement with temporal smoothing and user override
US9373179B2 (en) 2014-06-23 2016-06-21 Microsoft Technology Licensing, Llc Saliency-preserving distinctive low-footprint photograph aging effect
JP6090286B2 (ja) * 2014-10-31 2017-03-08 カシオ計算機株式会社 機械学習装置、機械学習方法、分類装置、分類方法、プログラム
US20160350336A1 (en) * 2015-05-31 2016-12-01 Allyke, Inc. Automated image searching, exploration and discovery
RU2694021C1 (ru) * 2015-12-14 2019-07-08 Моушен Метрикс Интернешэнл Корп. Способ и устройство идентификации частей фрагментированного материала в пределах изображения
JP6872742B2 (ja) * 2016-06-30 2021-05-19 学校法人明治大学 顔画像処理システム、顔画像処理方法及び顔画像処理プログラム
US10528791B1 (en) * 2017-03-02 2020-01-07 Synaptics Incorporated Biometric template updating systems and methods
US10621473B1 (en) * 2019-01-30 2020-04-14 StradVision, Inc. Method for providing object detecting system capable of updating types of detectable classes in real-time by using continual learning and devices using the same
JP7187377B2 (ja) * 2019-04-23 2022-12-12 株式会社日立製作所 物体情報登録装置及び物体情報登録方法
CN110222789B (zh) * 2019-06-14 2023-05-26 腾讯科技(深圳)有限公司 图像识别方法及存储介质
US11507768B2 (en) * 2019-07-04 2022-11-22 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
US11164039B2 (en) 2019-10-23 2021-11-02 International Business Machines Corporation Framework for few-shot temporal action localization
CN111611874B (zh) * 2020-04-29 2023-11-03 杭州电子科技大学 基于ResNet和Canny的人脸口罩佩戴检测方法
US11366983B2 (en) * 2020-09-09 2022-06-21 International Business Machines Corporation Study-level multi-view processing system
CN112241836B (zh) * 2020-10-10 2022-05-20 天津大学 一种基于增量学习的虚拟负荷主导参数辨识方法
CN113569676A (zh) * 2021-07-16 2021-10-29 北京市商汤科技开发有限公司 图像处理方法、装置、电子设备及存储介质
TW202321130A (zh) * 2021-09-28 2023-06-01 美商卡爾戈科技股份有限公司 貨物管理系統及其方法
US20230101794A1 (en) * 2021-09-28 2023-03-30 Kargo Technologies Corp. Freight Management Systems And Methods

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001101418A (ja) * 1999-10-04 2001-04-13 Nec Corp パターン識別のための特徴抽出装置
JP2003317101A (ja) * 2002-04-23 2003-11-07 Samsung Electronics Co Ltd データベース自動更新方法を用いた顔検証方法及びそのシステム
JP2009053916A (ja) * 2007-08-27 2009-03-12 Sony Corp 顔画像処理装置及び顔画像処理方法、並びにコンピュータ・プログラム
JP2009087209A (ja) * 2007-10-02 2009-04-23 Sony Corp 画像処理装置、撮像装置、これらにおける処理方法およびプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6463176B1 (en) 1994-02-02 2002-10-08 Canon Kabushiki Kaisha Image recognition/reproduction method and apparatus
JP3078166B2 (ja) 1994-02-02 2000-08-21 キヤノン株式会社 物体認識方法
JP4478296B2 (ja) 2000-06-16 2010-06-09 キヤノン株式会社 パターン検出装置及び方法、画像入力装置及び方法、ニューラルネットワーク回路
US7054850B2 (en) 2000-06-16 2006-05-30 Canon Kabushiki Kaisha Apparatus and method for detecting or recognizing pattern by employing a plurality of feature detecting elements
KR100456619B1 (ko) * 2001-12-05 2004-11-10 한국전자통신연구원 에스.브이.엠(svm)을 이용한 얼굴 등록/인증 시스템 및방법
JP4161659B2 (ja) 2002-02-27 2008-10-08 日本電気株式会社 画像認識システム及びその認識方法並びにプログラム
JP4507281B2 (ja) * 2006-03-30 2010-07-21 富士フイルム株式会社 画像表示装置、撮像装置および画像表示方法
US8085995B2 (en) * 2006-12-01 2011-12-27 Google Inc. Identifying images using face recognition
JP4307496B2 (ja) * 2007-03-19 2009-08-05 株式会社豊田中央研究所 顔部位検出装置及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001101418A (ja) * 1999-10-04 2001-04-13 Nec Corp パターン識別のための特徴抽出装置
JP2003317101A (ja) * 2002-04-23 2003-11-07 Samsung Electronics Co Ltd データベース自動更新方法を用いた顔検証方法及びそのシステム
JP2009053916A (ja) * 2007-08-27 2009-03-12 Sony Corp 顔画像処理装置及び顔画像処理方法、並びにコンピュータ・プログラム
JP2009087209A (ja) * 2007-10-02 2009-04-23 Sony Corp 画像処理装置、撮像装置、これらにおける処理方法およびプログラム

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013196008A (ja) * 2012-03-15 2013-09-30 Omron Corp 登録判定装置、その制御方法および制御プログラム、並びに電子機器
JP2014130583A (ja) * 2012-12-18 2014-07-10 Canon Inc オブジェクト検出方法、オブジェクト検出装置及び撮像装置
US9171230B2 (en) 2012-12-18 2015-10-27 Canon Kabushiki Kaisha Object detection method, object detection apparatus and image pickup apparatus
EP2793171A1 (en) 2013-04-15 2014-10-22 Omron Corporation Classifier update device, information processing device, and classifier update method
US9324008B2 (en) 2013-04-15 2016-04-26 Omron Corporation Classifier update device, information processing device, and classifier update method
JP2014219847A (ja) * 2013-05-08 2014-11-20 株式会社デンソー 物体識別装置
US9367735B2 (en) 2013-05-08 2016-06-14 Denso Corporation Object identification device
JP2015069580A (ja) * 2013-09-30 2015-04-13 大日本印刷株式会社 人物画像分類装置、人物画像分類方法、及び、プログラム
JP2015219797A (ja) * 2014-05-20 2015-12-07 キヤノン株式会社 画像照合装置、画像検索システム、画像照合方法、画像検索方法およびプログラム
JP2015029355A (ja) * 2014-10-17 2015-02-12 株式会社東芝 機器制御装置、その方法、及び、そのプログラム
JP2016133895A (ja) * 2015-01-16 2016-07-25 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
WO2017017900A1 (ja) * 2015-07-27 2017-02-02 パナソニックIpマネジメント株式会社 顔照合装置およびこれを備えた顔照合システムならびに顔照合方法
JPWO2017017900A1 (ja) * 2015-07-27 2018-05-17 パナソニックIpマネジメント株式会社 顔照合装置およびこれを備えた顔照合システムならびに顔照合方法
US10558846B2 (en) 2015-07-27 2020-02-11 Panasonic Intellectual Property Management Co., Ltd. Face collation device, face collation system comprising same, and face collation method
JP2017167968A (ja) * 2016-03-17 2017-09-21 株式会社東芝 算出装置及び認識装置
US11443552B2 (en) 2016-03-17 2022-09-13 Kabushiki Kaisha Toshiba Image pattern similarity calculation device and recognition device
WO2020235268A1 (ja) 2019-05-23 2020-11-26 コニカミノルタ株式会社 物体検出装置、物体検出システム、物体検出方法、プログラムおよび記録媒体
WO2020235269A1 (ja) 2019-05-23 2020-11-26 コニカミノルタ株式会社 物体検出装置、物体検出方法、プログラムおよび記録媒体
KR20210085569A (ko) * 2019-12-30 2021-07-08 엘아이지넥스원 주식회사 표적 추적 시스템 및 방법
KR102349854B1 (ko) 2019-12-30 2022-01-11 엘아이지넥스원 주식회사 표적 추적 시스템 및 방법

Also Published As

Publication number Publication date
JP5554987B2 (ja) 2014-07-23
US8705806B2 (en) 2014-04-22
US20110158536A1 (en) 2011-06-30

Similar Documents

Publication Publication Date Title
JP5554987B2 (ja) オブジェクト識別装置及びその制御方法
US8542887B2 (en) Object identification apparatus and object identification method
JP5424819B2 (ja) 画像処理装置、画像処理方法
US9098760B2 (en) Face recognizing apparatus and face recognizing method
JP5247480B2 (ja) オブジェクト識別装置及びオブジェクト識別方法
Martinez et al. Local evidence aggregation for regression-based facial point detection
JP4543423B2 (ja) 対象物自動認識照合方法および装置
Marcel et al. On the recent use of local binary patterns for face authentication
JP5010905B2 (ja) 顔認証装置
US8498454B2 (en) Optimal subspaces for face recognition
JP5629803B2 (ja) 画像処理装置、撮像装置、画像処理方法
JP6544900B2 (ja) オブジェクト識別装置、オブジェクト識別方法及びプログラム
JP5241606B2 (ja) オブジェクト識別装置及びオブジェクト識別方法
JP2010271872A (ja) 画像認識装置、撮像装置及び画像認識方法
JP2005056387A (ja) 画像処理装置、撮像装置、画像処理方法
US9633284B2 (en) Image processing apparatus and image processing method of identifying object in image
JP2008217589A (ja) 学習装置及びパターン認識装置
WO2020195732A1 (ja) 画像処理装置、画像処理方法、およびプログラムが格納された記録媒体
JP2012221061A (ja) 画像認識装置、画像認識方法、及びプログラム
JP6166981B2 (ja) 表情解析装置及び表情解析プログラム
JP5653003B2 (ja) オブジェクト識別装置及びオブジェクト識別方法
JP2012234497A (ja) オブジェクト識別装置、オブジェクト識別方法、及びプログラム
Arriaga-Gómez et al. A comparative survey on supervised classifiers for face recognition
Nikisins et al. Reduced complexity automatic face recognition algorithm based on local binary patterns
Ren et al. Real-time head pose estimation on mobile platforms

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130930

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140502

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140530

LAPS Cancellation because of no payment of annual fees