JP2012238119A - 物体認識装置、物体認識装置の制御方法、およびプログラム - Google Patents

物体認識装置、物体認識装置の制御方法、およびプログラム Download PDF

Info

Publication number
JP2012238119A
JP2012238119A JP2011105647A JP2011105647A JP2012238119A JP 2012238119 A JP2012238119 A JP 2012238119A JP 2011105647 A JP2011105647 A JP 2011105647A JP 2011105647 A JP2011105647 A JP 2011105647A JP 2012238119 A JP2012238119 A JP 2012238119A
Authority
JP
Japan
Prior art keywords
recognition
recognition model
feature amount
image
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011105647A
Other languages
English (en)
Other versions
JP5719230B2 (ja
Inventor
Kotaro Yano
光太郎 矢野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011105647A priority Critical patent/JP5719230B2/ja
Priority to US13/461,585 priority patent/US9036863B2/en
Publication of JP2012238119A publication Critical patent/JP2012238119A/ja
Application granted granted Critical
Publication of JP5719230B2 publication Critical patent/JP5719230B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/1916Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/192Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
    • G06V30/194References adjustable by an adaptive method, e.g. learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Abstract

【課題】画像中から物体を追跡する処理において、一旦追跡を中止して背景の異なるシーンで追跡を再開する場合においても適切な認識モデルを使用した高精度の物体検出を行う。
【解決手段】画像を逐次取得する取得部と、画像から部分領域を抽出して当該部分領域から特徴量を抽出する抽出部と、抽出された特徴量と、対象物体を示す正事例の特徴量および対象物体の背景を示す負事例の特徴量を含む第1の認識モデルまたは正事例の特徴量を含む第2の認識モデルとに基づいて、部分領域が対象物体か否か認識する認識部と、認識の結果に基づいて、抽出された特徴量を第1の認識モデルへ追加して更新する更新部と、対象物体と認識された物体領域を出力する出力部と、を備え、認識部は、取得部により取得された前の画像について物体領域が出力されている場合、第1の認識モデルに基づいて認識し、前の画像について物体領域が出力されていない場合、第2の認識モデルに基づいて認識する。
【選択図】 図1

Description

本発明は、入力画像から所定の物体を検出する物体認識装置、物体認識装置の制御方法、およびプログラムに関する。
近年、デジタルスチルカメラやカムコーダにおいて、撮影中の画像から人の顔を検出して、物体を追跡する機能が急速に普及している。このような顔検出・追跡機能は、撮影対象の物体に自動的にピントや露出を合せるために非常に有用である。画像から顔を検出する技術は、非特許文献1で提案されているような技術を用いて、実用化が進んでいる。
一方、このような認識技術の応用においては使用状況やユーザ毎に認識したい対象は様々である。そして、様々な物体の認識を実現するためには、認識したい物体に応じて辞書を用意する必要がある。しかしながら、認識対象が多岐に及ぶ場合には、認識対象を含む画像パターンおよび認識対象を含まない画像パターンを人手で収集することは事実上不可能である。そこで、画像中の認識対象である物体を指定して、指定した物体を追跡することで使用状況やユーザ個別の物体の検出を行うアプローチが採られてきた。更に、指定した物体の追跡において、物体の見えの変化や背景によるドリフトに対応するために、非特許文献2では物体パターンを正事例、背景パターンを負事例としてオンラインで学習しながら追跡する方法が提案されている。
特開2008−217768号公報
Viola and Jones, "Rapid Object Detection using Boosted Cascade of Simple Features", Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR2001) Grabner and Bischof, "On-line Boosting and Vision", Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR2006) Lin et al, "Adaptive discriminative generative model and its applications", Neural Information Processing Systems Conference, 2004 Grabner et al, "Eigenboosting: Combining Discriminative and Generative Information", Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR2007)
しかし、物体を見失った場合など、一旦追跡を中止して背景の異なるシーンで追跡を再開しようとすると物体を再指定しなければならない。指定なしで画像中から物体を検出しようとすると、未学習の背景であるため誤検出が発生するという課題がある。これは、追跡中止前の背景パターンに偏って負事例を学習に使用したことが原因である。
上記の課題に鑑み、本発明は、一旦追跡が中止して背景の異なるシーンで追跡を再開する場合においても、適切な認識モデルを使用した高精度の物体検出を行うことを目的とする。
上記の目的を達成する本発明に係る物体認識装置は、
画像を逐次取得する取得手段と、
前記画像から部分領域を抽出して当該部分領域から特徴量を抽出する抽出手段と、
前記抽出された特徴量と、対象物体を示す正事例の特徴量および前記対象物体の背景を示す負事例の特徴量を含む第1の認識モデルまたは前記正事例の特徴量を含む第2の認識モデルとに基づいて、前記部分領域が前記対象物体か否か認識する認識手段と、
前記認識の結果に基づいて、前記抽出された特徴量を前記第1の認識モデルへ追加して更新する更新手段と、
前記対象物体と認識された物体領域を出力する出力手段と、を備え、
前記認識手段は、前記取得手段により取得された前の画像について前記物体領域が出力されている場合、前記第1の認識モデルに基づいて認識し、前記前の画像について前記物体領域が出力されていない場合、前記第2の認識モデルに基づいて認識することを特徴とする。
本発明によれば、一旦追跡が中止して背景の異なるシーンで追跡を再開する場合においても、適切な認識モデルを使用した高精度の物体検出を行うことができる。
本実施形態に係る物体認識装置の機能構成を示す図。 本実施形態に係る認識モデル作成の処理を説明する図。 本実施形態に係る追跡処理を説明する図。 本実施形態に係る検出処理を説明する図。
(第1実施形態)
以下、添付図面を参照して、本発明の第1実施形態について説明する。本実施形態では、前の時刻の物体領域が分かっているような物体追跡時には特定の背景である負事例の重みが大きい条件で追加学習した認識モデルを使用して物体を認識する。一方、物体を見失った場合など、前の時刻の物体領域が分からない場合には、負事例の重みが小さい条件(または重みがゼロの条件)で追加学習した認識モデルを使用して物体を認識する。これにより、一旦追跡を中止して背景の異なるシーンで追跡を再開する場合においても、適切な認識モデルを使用して物体を検出する。
図1は、本実施形態に係る物体認識装置の機能構成を示す。物体認識装置は、画像取得部10と、領域抽出部20と、特徴抽出部30と、物体認識部40と、物体領域出力部50と、第1の認識モデル記憶部60および第2の認識モデル記憶部70と、認識モデル更新部80と、統計量記憶部90と、検出処理制御部100と、認識モデル切替部110と、を備える。
画像取得部10は、カメラ等の撮像部で撮像した画像データを逐次取得する。領域抽出部20は、画像取得部10で取得した画像データから物体認識を行う部分領域画像を抽出して切り出す。
特徴抽出部30は、領域抽出部20で切り出した部分領域画像から所望の対象物体を認識するための特徴量を求める。物体認識部40は、特徴抽出部30で求めた特徴量から領域抽出部20で切り出した部分領域画像が認識対象である物体かどうかを判別する。
物体領域出力部50は、物体認識部40で認識した結果を出力する。例えば、物体認識部40で所望の物体であると判別した部分領域を他の画像領域と区別できるようにディスプレイに表示する。
第1の認識モデル記憶部60および第2の認識モデル記憶部70は、特徴抽出部30で求めた特徴量から物体認識部40で物体判別を行うための第1の認識モデルおよび第2の認識モデルを記憶するメモリである。
認識モデル更新部80は、物体認識部40で認識した結果から第1の認識モデル記憶部60および第2の認識モデル記憶部70に記憶されている第1の認識モデルおよび第2の認識モデルを更新する。
統計量記憶部90は、認識対象である物体のサンプル(正事例)および非認識対象のサンプル(負事例)の特徴量の統計量を記憶するメモリである。検出処理制御部100は、画像取得部10で取得した画像データから領域抽出部20で部分領域画像を切り出す処理の制御を行う。
認識モデル切替部110は、第1の認識モデルおよび第2の認識モデルを記憶する第1の認識モデル記憶部60および第2の認識モデル記憶部70から、物体認識部40が物体判別を行う際に使用される認識モデルを切り替える。
以下、デジタルスチルカメラ等の撮像部で特定人物を認識する場合を想定する。最初に画像中の人物を指定し、指定した人物を追跡する。そして、追跡中に人物を見失い、新たなシーンに背景が変わった場合に自動的に画像中から人物を検出して追跡を再開する場合の本実施形態の処理動作を説明する。
まず、図2を参照して、画像中の人物を指定して認識モデルを作成する処理について説明する。
S201において、画像取得部10は、カメラ等の撮像部で撮像した画像データを取得する。取得した画像データは画像取得部10のメモリに記憶される。
S202において、画像取得部10は、更に、取得した画像データを所望の画像サイズに縮小する。例えば、取得した画像データに対して0.8倍、更にその0.8倍(即ち0.82倍)、…、となるよう所定回数だけ縮小処理を行い、作成された異なる倍率の縮小画像を画像取得部10のメモリに記憶するようにする。これは、画像中から異なるサイズの物体を認識するためである。
S203において、画像取得部10で取得した画像データは不図示のディスプレイに表示され、認識対象の物体が現れたフレームにおいて、ユーザは不図示の入力インターフェースを介して認識対象とする物体を指定する。例えば、指定方法としては物体(ここでは人物)を囲む矩形領域をユーザが指定する。
S204において、領域抽出部20は、画像データ中でユーザが物体画像として指定した領域を部分領域画像として切り出す。このとき、ユーザが指定する領域の大きさや形状は様々である。そのため、指定された矩形領域が所定サイズに収まるように、S202で作成された縮小画像の中から最適な倍率の縮小画像を求めて、求めた縮小画像の最適な位置から認識を行う部分領域を切り出すようにする。また、検出処理制御部100は、ここで求めた部分領域の近傍の縮小画像(即ち、倍率)および位置の部分領域についても切り出すように制御を行う。
例えば、部分領域のサイズは20×20画素程度の領域とし、ユーザが指定した矩形領域に対して部分領域の90%以上が互いにオーバーラップするような範囲で部分領域を切り出す。切り出した部分領域の縮小画像の倍率と画像中の物体の位置を物体状態として記憶しておく。
S205において、特徴抽出部30は、領域抽出部20で切り出した物体画像である部分領域画像から特徴量を求める。部分領域のサイズが20×20画素の場合は、部分領域画像から輝度データを抽出し、400次元の特徴ベクトルに変換する。特徴ベクトルに変換する前にヒストグラム平滑化等の方法を用いて輝度データを正規化すれば撮影時の照明条件によらず安定した認識を行うことができる。また、特徴量としては輝度データの他に色、エッジを抽出しても良いし、それらを組合せて一つの特徴ベクトルとしても良い。ここで求めた特徴量は正事例の特徴量として認識モデル更新部80に出力する。
S204およびS205の各処理は、検出処理制御部100によって各部分領域画像に対して順次繰り返して行われるように制御される。
S206において、一方、領域抽出部20は、画像データ中のユーザが指定した以外の領域から部分領域画像を非物体画像として切り出す。ここでは非物体画像として人物以外の背景画像を切り出す。このとき、検出処理制御部100が切り出す部分領域のサイズは、S204で切り出された部分領域のサイズと同じである。また、切り出す範囲については、例えば、ユーザが指定した矩形領域に対して部分領域の90%以上がオーバーラップしない範囲で部分領域を切り出す。
S207において、特徴抽出部30は、S205と同様にして、領域抽出部20により切り出された非物体画像である部分領域画像から特徴量を求める。ここで求めた特徴量は負事例の特徴量として認識モデル更新部80に出力する。
S206およびS207の各処理は、検出処理制御部100によって各部分領域画像に対して順次繰り返して行われるように制御される。S208において、認識モデル更新部80は、特徴抽出部30により求められた正事例および負事例の特徴量から統計量を更新し、認識モデルを更新する。
本実施形態では、非特許文献3で提案されている適応的な学習が可能な認識モデルを用いて認識を行う場合について、本実施形態への適用方法を説明する。正事例の特徴量については、ここで収集された正事例の特徴ベクトルからその平均ベクトルおよび共分散行列を求める。そして、共分散行列を固有値分解し、大きい方から所定数の固有値および対応する固有ベクトルを統計量として平均ベクトルと共に統計量記憶部90に記憶する。固有値の数は、例えば、50程度である。
一方、負事例の特徴量については、一般的に背景パターンとなりうる様々な画像パターンを領域抽出部20で切り出す部分領域のサイズに合せて事前に収集しておき、特徴抽出部30により特徴量を求める。そして、正事例の特徴量と同様にして、固有値および固有ベクトルを統計量として平均ベクトルと共に統計量記憶部90に記憶しておく。更に、認識モデル更新部80は、非特許文献3で提案されている方法により、S207で求められた負事例の特徴量を追加サンプルとして負事例の特徴量の統計量を更新する。即ち、統計量記憶部90に事前に記憶された負事例の特徴量の統計量である平均ベクトル、固有値および固有ベクトルと、追加した負事例の特徴量とから更新を行い、新たに統計量記憶部90に記憶する。このとき、事前に求めておいた負事例の特徴量の統計量は記憶したままで、それとは別に更新した負事例の特徴量の統計量を記憶するようにする。なお、非特許文献3ではサンプルを追加して固有値および固有ベクトルを更新する際に忘却係数をパラメータとしている。この忘却係数を用いることにより、追加する負事例の重みを変えることができる。予め記憶されている負事例の特徴量の統計量に対して忘却係数の大きいものと小さいものとを用いた複数の更新処理により複数の負事例の特徴量の統計量を求めて統計量記憶部90に記憶するようにしてもよい。忘却係数が0(小さい)の場合は、事前に求めておいた負事例の特徴量の統計量を更新しないでそのまま記憶することに相当する。
認識モデル更新部80は、統計量記憶部90に記憶されている正事例および負事例の特徴量の統計量を用いて認識モデルを更新する。第1の認識モデルは、正事例の特徴量の統計量と、S207で求められた負事例の特徴量を追加して更新した負事例の特徴量の統計量と、により求められ、第1の認識モデル記憶部60に記憶される。一方、第2の認識モデルは、正事例の特徴量の統計量と、事前に一般的な背景パターンから求められた負事例の特徴量の統計量と、により求められ、第2の認識モデル記憶部70に記憶される。なお、この代わりに、第1の認識モデルを求める負事例の特徴量の統計量として、大きい忘却係数を用いて更新したもの、第2の認識モデルを求める負事例の特徴量の統計量として、小さい忘却係数を用いて更新したものを用いてもよい。ここで第1および第2の認識モデルは、それぞれ射影行列として記憶され、物体認識部40が判別処理を行うために用いられる。
次に、図3を参照して、画像中から人物を追跡する処理について説明する。
S301において、画像取得部10は、図2におけるS201と同様に、カメラ等の撮像部で撮像した画像データを取得する。
S302において、画像取得部10は、更に、S202と同様に、取得した画像データを所望の画像サイズに縮小する。
S303において、領域抽出部20は、物体認識を行う処理対象領域である部分領域画像を画像データ中から切り出す。このとき、検出処理制御部100は、画像取得部10により取得された画像および複数の縮小画像から、順次、前の時刻のフレームにおける人物領域の近傍の縮小画像および位置の部分領域を切り出すように制御を行う。即ち、前の時刻のフレームにおける物体の状態から画像中の物体の状態を推定して認識できるように部分領域を抽出する。例えば、前の時刻のフレームにおける物体領域に対して、ここで抽出する部分領域の50%以上が互いにオーバーラップするような範囲で物体認識を行うようにする。
S304において、特徴抽出部30は、S205と同様に、領域抽出部20により切り出された部分領域画像から所望の物体を認識するための特徴量を求める。
S305において、物体認識部40は、特徴抽出部30により求められた特徴量から領域抽出部20により切り出された部分領域画像が認識対象である物体かどうかを判別する。このとき、認識モデル切替部110は、物体認識部40が第1の認識モデル記憶部60に記憶されている第1の認識モデルを参照して処理を行うように認識モデルを切り替える。物体認識部40は、特徴抽出部30により求められた特徴ベクトルを射影行列を用いて射影し、射影平面との距離が所定の閾値以下のものを物体であると判別し、それ以外を物体でないと判別する。判別結果は処理を行った部分領域の位置や倍率の情報とともに物体領域出力部50に出力される。ここで、物体認識部40は、シーンに特有の負事例を追加して学習を行った認識モデルを使用して判別処理を行っているので同一のシーンにおいて精度良く判別ができる。また、物体認識部40により物体と判別された特徴量は正事例の特徴量として、物体でないと判別された特徴量は負事例の特徴量として、認識モデル更新部80に出力される。
S303乃至S305までの各処理が検出処理制御部100によって各部分領域画像に対して順次繰り返して行われるように制御される。S306において、物体領域出力部50は、物体認識部40による認識結果を出力する。このとき、画像中から所定の人物として認識された部分領域が複数ある場合は最も判別結果が高い(即ち、物体認識部40の距離算出結果が小さい値となる)部分領域を出力するようにする。
S307において、一方、認識モデル更新部80は、S208と同様に、特徴抽出部30により求められた正事例および負事例の特徴量から統計量を更新し、認識モデルを更新する。このとき、正事例においてもサンプルが追加されるので、負事例の特徴量における統計量の更新と同様にして正事例の特徴量の統計量を更新する。但し、正事例の特徴量の統計量は一般的にシーンに依存しないので本実施形態では一つの統計量を逐次更新していくようにする。もちろん、シーンに依存して人物や物体を区別したい場合には、負事例の特徴量の統計量と同様に追加サンプルの重みが異なる複数の統計量を求めるようにしてもよい。
S308において、不図示の制御部は、追跡すべき人物を見失ったか否かを判定する。追跡すべき人物を見失っていないと判定された場合(S308;YES)、S301へ戻る。S301からS307までの各処理は、CPU等の不図示の制御部により制御されており、画像取得部10が取得する入力フレームにおいて順次繰り返して行われる。一方、追跡すべき人物を見失ったと判定された場合(S308;NO)、処理を終了する。
次に、図4を参照して、追跡中に人物を見失い、新たなシーンに背景が変わった場合に行う人物を検出する処理について説明する。
S401において、画像取得部10は、S201と同様に、カメラ等の撮像部で撮像した画像データを取得する。S402において、画像取得部10は、更に、S202と同様に、取得した画像データを所望の複数の画像サイズに縮小する。
S403において、領域抽出部20は、物体認識を行う処理対象領域である部分領域画像を画像データ中から切り出す。このとき、検出処理制御部100は、画像取得部10により取得された画像および複数の縮小画像のそれぞれについて、順次、画像の上左端から下右端まで所定サイズの部分領域を所定量だけ位置をずらして切り出すように制御を行う。即ち、画像中から様々な位置、倍率の物体を認識できるように網羅的に部分領域を抽出する。事前に情報がなく、人物がどのような状態(位置、倍率)にあるのか推定できないためである。例えば、部分領域の縦横90%がオーバーラップするように切り出し位置をずらしていく。
S404において、特徴抽出部30は、S205と同様に、領域抽出部20により切り出された部分領域画像から所望の物体を認識するための特徴量を求める。
S405において、物体認識部40は、S305と同様に、特徴抽出部30により求められた特徴量から、領域抽出部20で切り出した部分領域画像が認識対象である物体かどうかを判別する。但し、認識モデル切替部110は、物体認識部40が第2の認識モデル記憶部70に記憶されている第2の認識モデルを参照して処理を行うように認識モデルを切り替える。ここで、物体認識部40は、シーンに特有の負事例を追加しないで学習を行った認識モデルを使用して判別処理を行っているので新たに出現したシーンにおいて精度良く判別ができる。即ち、以前のシーンで偏った負事例の追加によって学習した認識モデルを使用しないので誤検出の発生を低減できる。
S403乃至S405までの各処理は、検出処理制御部100によって画像中から様々な位置、倍率の部分領域で順次繰り返して行われるよう制御される。
S406において、物体領域出力部50は、S306と同様に、物体認識部40により認識された結果を出力する。S407において、一方、認識モデル更新部80は、S307と同様に、特徴抽出部30により求められた正事例および負事例の特徴量から統計量を更新し、認識モデルを更新する。
S408において、不図示の制御部は、画像中から人物を検出したか否かを判定する。画像中から人物を検出したと判定された場合(S408;YES)、本処理を終了して、図3を参照して説明した追跡処理へ移る。一方、画像中から人物を検出していないと判定された場合(S408;NO)、S401へ戻る。S401からS407までの各処理は、CPU等の不図示の制御部により制御されており、画像取得部10が逐次取得する入力フレームにおいて順次繰り返して行われる。
本実施形態では、追跡処理を行う場合はシーン特有の背景を負事例として学習した認識モデルを用いて認識を行い、検出処理を行う場合は一般的な背景を負事例として学習した認識モデルを用いて認識を行うようにした。従って、一旦追跡を中止して背景の異なるシーンで追跡を再開する場合においても、適切な認識モデルを使用して物体を検出することができる。
また、検出対象とする物体の正事例および負事例の特徴量の統計量を夫々別々に記憶するようにし、更には追加した負事例の重みが異なる複数の負事例の統計量を別々に記憶するようにした。これにより記憶した統計量を用いて、追加した負事例の重みが異なる複数の認識モデルを容易に更新することが可能となり、前述したように追跡処理および検出処理で適切な認識モデルを使用することができる。
なお、本実施形態ではサンプルを追加して学習を行い、認識を行う方法として非特許文献3に提案されている方法を適用する例を示したが、学習、認識の方法はそれに限定されるものではない。例えば、非特許文献2に提案されているオンラインのブースティング学習に基づく方法を適用することも可能である。例えば、非特許文献2を改良した特許文献1に提案されている学習、認識の方法は、ブースティング判別器を構成する弱判別器を追加サンプルに適応させるよう構成している。特許文献1における負事例の特徴量に関する記憶の期間が異なる統計量を用いて夫々認識モデルを更新し、追跡処理と検出処理で選択的に参照することができる。特許文献1における記憶の期間はサンプルの忘却を制御するという意味で本実施形態における負事例の重みと等価に用いられる。
(第2実施形態)
以下、添付図面を参照して、本発明の第2実施形態について説明する。本実施形態では、前の時刻の物体領域が分かっているような物体追跡時には特定の背景から抽出した負事例の特徴量を追加学習した認識モデルを使用して物体を認識する。一方、物体を見失った場合など、前の時刻の物体領域が分からない場合には、特定の背景に認識の特性が偏ることのないように正事例のみで学習した認識モデルを使用して物体を認識する。これにより、一旦追跡を中止して背景の異なるシーンで追跡を再開する場合においても、適切な認識モデルを使用して物体を検出する。
本実施形態に係る物体認識装置の機能構成は、第1実施形態で説明した構成と同様であるため、説明を省略する。以下、デジタルスチルカメラ等の撮像部で特定人物を認識する場合を想定する。最初に画像中の人物を指定し、指定した人物を追跡する。そして、追跡中に人物を見失い、新たなシーンに背景が変わった場合に自動的に画像中から人物を検出して追跡を再開する場合の本実施形態の処理動作を説明する。
まず、第1実施形態と同様に、図2を参照して、画像中の人物を指定して認識モデルを作成する処理について説明する。なお、第1実施形態と同様の処理については説明を省略し、異なる点について説明する。
S201乃至S203の各処理は、第1実施形態と同様である。S204において、領域抽出部20は、部分領域画像を物体画像として画像データ中のユーザが指定した領域から切り出す。このとき、ユーザが指定する領域の大きさや形状は様々である。そのため、指定された矩形領域が所定サイズに収まるようにS202で作成した縮小画像の中から最適な倍率の縮小画像を求めて、求めた縮小画像の最適な位置から認識を行う部分領域を切り出すようにする。また、検出処理制御部100はここで求めた部分領域の近傍の縮小画像(即ち、倍率)および位置の部分領域についても切り出すように制御を行う。例えば、ユーザが指定した矩形領域のサイズが200×100画素程度であれば概略同じ領域に相当する40×20画素の矩形領域を縮小画像の中から求め、部分領域の90%以上が互いにオーバーラップするような範囲で部分領域を切り出す。切り出した部分領域の縮小画像の倍率と画像中の物体の位置を物体状態として記憶しておく。
S205において、特徴抽出部30は、領域抽出部20で切り出した物体画像である部分領域画像から特徴量を求める。部分領域のサイズが40×20画素の場合は、部分領域画像から輝度データを抽出し、800次元の特徴ベクトルに変換する。ここで求めた特徴量は正事例の特徴量として認識モデル更新部80に出力する。
S206およびS207の各処理は、第1実施形態と同様である。S208において、認識モデル更新部80は、特徴抽出部30で求めた正事例および負事例の特徴量から統計量および認識モデルを求める。正事例の特徴量については、ここで収集した正事例の特徴ベクトルからその平均ベクトルおよび共分散行列を求める。そして、共分散行列を固有値分解し、大きい方から所定数の固有値および対応する固有ベクトルを統計量として平均ベクトルと共に統計量記憶部90に記憶する。固有値の数は、例えば、50程度である。一方、負事例の特徴量についても同様にして、固有値および固有ベクトルを統計量として平均ベクトルと共に統計量記憶部90に記憶する。そして、統計量記憶部90に記憶した正事例および負事例の特徴量の統計量を用いて認識モデルを求める。第1の認識モデルは正事例の特徴量の統計量と負事例の特徴量の統計量により求め、認識モデル記憶部70に記憶する。一方、第2の認識モデルは正事例の特徴量の統計量から求め、認識モデル記憶部60に記憶する。ここで第1の認識モデルおよび第2の認識モデルは夫々射影行列として記憶され、物体認識部40で判別処理を行うために用いられる。
次に、図3を参照して、画像中から人物を追跡する処理について説明する。なお、第1実施形態と同様の処理については説明を省略し、異なる点について説明する。
S301乃至S304の各処理は、第1実施形態と同様である。S305において、物体認識部40は、特徴抽出部30で求めた特徴量から領域抽出部20で切り出した部分領域画像が認識対象である物体かどうかを判別する。このとき、認識モデル切替部110は物体認識部40が第1の認識モデル記憶部60に記憶されている第1の認識モデルを参照して処理を行うように認識モデルを切り替える。物体認識部40では特徴抽出部30で求めた特徴ベクトルを射影行列を用いて射影し、射影平面との距離が所定の閾値以下のものを物体、それ以外を物体でないと判別する。判別結果は処理を行った部分領域の位置や倍率の情報とともに物体領域出力部50に出力される。ここで、物体認識部40は物体パターンである正事例とシーンに特有の負事例で学習を行った認識モデルを使用して判別処理を行っているので同一のシーンにおいて精度良く判別ができる。また、物体認識部40で物体と判別された特徴量は正事例の特徴量として、物体でないと判別された特徴量は負事例の特徴量として認識モデル更新部80に出力される。
S306の処理は、第1実施形態と同様である。S307において、認識モデル更新部80は、特徴抽出部30で求めた正事例および負事例の特徴量を追加して統計量を更新し、認識モデルを更新する。本実施形態では非特許文献3で提案されている適応的な学習を用いる。正事例の特徴量については、S305で判別された正事例の特徴量を追加して統計量記憶部90に記憶されている正事例の特徴量の統計量である平均ベクトル、固有値および固有ベクトルの更新を行う。負事例の特徴量についても同様にして統計量の更新を行う。夫々更新した特徴量は統計量記憶部90に記憶される。そして、S208と同様にして、統計量記憶部90に記憶した更新された正事例および負事例の特徴量の統計量を用いて認識モデルの更新を行う。S308の処理は、第1実施形態と同様である。
次に、図4を参照して、追跡中に人物を見失い、新たなシーンに背景が変わった場合に行う人物を検出する処理について説明する。なお、第1実施形態と同様の処理については説明を省略し、異なる点について説明する。
S401乃至S404の各処理は、第1実施形態と同様である。S405において、物体認識部40は、S305と同様に、特徴抽出部30で求めた特徴量から領域抽出部20で切り出した部分領域画像が認識対象である物体かどうかを判別する。但し、認識モデル切替部110は物体認識部40が第2の認識モデル記憶部70に記憶されている第2の認識モデルを参照して処理を行うように認識モデルを切り替える。ここで、物体認識部40はシーンに特有の負事例を追加しないで正事例のみで学習を行った認識モデルを使用して判別処理を行っているので新たに出現したシーンにおいて精度良く判別ができる。即ち、以前のシーンで偏った負事例の追加によって学習した認識モデルを使用しないので誤検出の発生を低減できる。
S406の処理は、第1実施形態と同様である。S407において、一方、認識モデル更新部80は、特徴抽出部30で求めた正事例および負事例の特徴量から統計量を更新し、認識モデルを更新する。正事例の特徴量については、S307と同様に、S405で判別された正事例の特徴量を追加して統計量記憶部90に記憶されている正事例の特徴量の統計量である平均ベクトル、固有値および固有ベクトルの更新を行う。一方、負事例の特徴量については、一旦、統計量記憶部90に記憶されている負事例の特徴量の統計量を初期化する。そして、S208と同様に、S405で判別された負事例の特徴量からその統計量を求めるようにする。即ち、正事例の特徴量の統計量は一般的にシーンに依存しないのでシーンが変わっても統計量を逐次更新していくようした。一方、負事例の特徴量の統計量はシーンに依存するので統計量を初期化して、シーンが変わった後の特徴量から統計量を求めるようした。S408の処理は、第1実施形態と同様である。
本実施形態では、追跡処理を行う場合は物体パターンである正事例と共にシーン特有の背景を負事例として学習した認識モデルを用いて認識を行い、検出処理を行う場合は正事例で学習した認識モデルを用いて認識を行うようにした。従って、一旦追跡を中止して背景の異なるシーンで追跡を再開する場合においても、適切な認識モデルを使用して物体を検出することができる。
また、検出対象とする物体の正事例および負事例の特徴量の統計量を夫々別々に記憶するようにした。それにより、記憶した統計量を用いて追加した正事例、負事例から正事例にもとづく認識モデルおよび正事例と負事例にもとづく認識モデル(識別モデル)を容易に更新することができる。その結果、前述のように追跡処理と検出処理で適切な認識モデルを使用することができる。
また、シーンが変わった場合に、背景に相当する負事例の特徴量の統計量を初期化するようにした。それにより、シーンが変わった場合に新たに求めた識別モデルによって高精度に対象とする物体を認識することができる。
なお、本実施例ではサンプルを追加して学習を行い、認識を行う方法として非特許文献3に提案されている方法を本発明に適用する例を示したが、学習、認識の方法はそれに限定されるものではない。
例えば、非特許文献4では正事例サンプルの学習をベースにした生成モデルと正事例および負事例の学習をベースにした識別モデルを組合せてブースティング判別器を構成する弱判別器を学習する方法が提案されている。ここではブースティング学習に用いる誤差関数を生成モデルによる誤差と識別モデルによる誤差を組合せて認識モデルを学習するようにしている。本実施形態に適用するには、夫々の誤差の組合せの重みを変えることで更新した正事例および負事例の特徴量の統計量から本実施例の第1の認識モデルまたは第2の認識モデルを学習するようにすればよい。即ち、誤差関数を生成モデルによる誤差のみで定義すれば第2の認識モデルを学習することができる。また、誤差関数を識別モデルによる誤差のみで定義すれば第1の認識モデルを学習することができる。また、それ以外に非特許文献4で提案されているような夫々の誤差を組合せた誤差関数で学習した認識モデルを追加して第1の認識モデルとするようにしてもよい。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (8)

  1. 画像を逐次取得する取得手段と、
    前記画像から部分領域を抽出して当該部分領域から特徴量を抽出する抽出手段と、
    前記抽出された特徴量と、対象物体を示す正事例の特徴量および前記対象物体の背景を示す負事例の特徴量を含む第1の認識モデルまたは前記正事例の特徴量を含む第2の認識モデルとに基づいて、前記部分領域が前記対象物体か否か認識する認識手段と、
    前記認識の結果に基づいて、前記抽出された特徴量を前記第1の認識モデルへ追加して更新する更新手段と、
    前記対象物体と認識された物体領域を出力する出力手段と、を備え、
    前記認識手段は、前記取得手段により取得された前の画像について前記物体領域が出力されている場合、前記第1の認識モデルに基づいて認識し、前記前の画像について前記物体領域が出力されていない場合、前記第2の認識モデルに基づいて認識することを特徴とする物体認識装置。
  2. 前記抽出手段は、前記前の画像について前記物体領域が出力されている場合、前記前の画像から前記対象物体の位置を推定して前記部分領域を抽出することを特徴とする請求項1に記載の物体認識装置。
  3. 前記第1の認識モデルは、前記正事例の特徴量の統計量および前記負事例の特徴量の統計量を含むことを特徴とする請求項1または2に記載の物体認識装置。
  4. 前記前の画像について前記物体領域が出力されなくなった場合、前記負事例の特徴量の統計量を初期化することを特徴とする請求項3に記載の物体認識装置。
  5. 前記第2の認識モデルは、予め収集された背景パターンの特徴量をさらに含むことを特徴とする請求項1に記載の物体認識装置。
  6. 前記第2の認識モデルは、前記正事例の特徴量の統計量を含むことを特徴とする請求項5に記載の物体認識装置。
  7. 取得手段と、抽出手段と、認識手段と、更新手段と、出力手段とを備える物体認識装置の制御方法であって、
    前記取得手段が、画像を逐次取得する取得工程と、
    前記抽出手段が、前記画像から部分領域を抽出して当該部分領域から特徴量を抽出する抽出工程と、
    前記認識手段が、前記抽出された特徴量と、対象物体を示す正事例の特徴量および前記対象物体の背景を示す負事例の特徴量を含む第1の認識モデルまたは前記正事例の特徴量を含む第2の認識モデルとに基づいて、前記部分領域が前記対象物体か否か認識する認識工程と、
    前記更新手段が、前記認識の結果に基づいて、前記抽出された特徴量を前記第1の認識モデルへ追加して更新する更新工程と、
    前記出力手段が、前記対象物体と認識された物体領域を出力する出力工程と、を備え、
    前記認識工程では、前記取得工程により取得された前の画像について前記物体領域が出力されている場合、前記第1の認識モデルに基づいて認識し、前記前の画像について前記物体領域が出力されていない場合、前記第2の認識モデルに基づいて認識することを特徴とする物体認識装置の制御方法。
  8. コンピュータに請求項7に記載の物体認識装置の制御方法の各工程を実行させるためのプログラム。
JP2011105647A 2011-05-10 2011-05-10 物体認識装置、物体認識装置の制御方法、およびプログラム Active JP5719230B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011105647A JP5719230B2 (ja) 2011-05-10 2011-05-10 物体認識装置、物体認識装置の制御方法、およびプログラム
US13/461,585 US9036863B2 (en) 2011-05-10 2012-05-01 Resuming tracking after losing target

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011105647A JP5719230B2 (ja) 2011-05-10 2011-05-10 物体認識装置、物体認識装置の制御方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2012238119A true JP2012238119A (ja) 2012-12-06
JP5719230B2 JP5719230B2 (ja) 2015-05-13

Family

ID=47141921

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011105647A Active JP5719230B2 (ja) 2011-05-10 2011-05-10 物体認識装置、物体認識装置の制御方法、およびプログラム

Country Status (2)

Country Link
US (1) US9036863B2 (ja)
JP (1) JP5719230B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015099559A (ja) * 2013-11-20 2015-05-28 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2017033175A (ja) * 2015-07-30 2017-02-09 株式会社リコー 画像処理装置、画像処理方法及びプログラム
WO2018235219A1 (ja) * 2017-06-22 2018-12-27 日本電気株式会社 自己位置推定方法、自己位置推定装置および自己位置推定プログラム
WO2021260899A1 (ja) * 2020-06-25 2021-12-30 日本電信電話株式会社 追跡装置、追跡システム、追跡方法、および、追跡プログラム
JP2022511151A (ja) * 2019-09-27 2022-01-31 センスタイム インターナショナル ピーティーイー.リミテッド 積み重ね物体を認識する方法及び装置、電子機器、記憶媒体及びコンピュータプログラム

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5907593B2 (ja) 2011-09-13 2016-04-26 キヤノン株式会社 画像認識装置、画像認識方法及びプログラム
JP5913940B2 (ja) 2011-12-01 2016-05-11 キヤノン株式会社 画像認識装置、画像認識装置の制御方法、およびプログラム
JP5836095B2 (ja) 2011-12-05 2015-12-24 キヤノン株式会社 画像処理装置、画像処理方法
JP6254836B2 (ja) 2013-11-29 2017-12-27 キヤノン株式会社 画像検索装置、画像検索装置の制御方法およびプログラム
US10083368B2 (en) 2014-01-28 2018-09-25 Qualcomm Incorporated Incremental learning for dynamic feature database management in an object recognition system
JP6532190B2 (ja) 2014-03-26 2019-06-19 キヤノン株式会社 画像検索装置、画像検索方法
WO2015163830A1 (en) * 2014-04-22 2015-10-29 Aselsan Elektronik Sanayi Ve Ticaret Anonim Sirketi Target localization and size estimation via multiple model learning in visual tracking
JP6664163B2 (ja) 2015-08-05 2020-03-13 キヤノン株式会社 画像識別方法、画像識別装置及びプログラム
WO2017071143A1 (en) 2015-10-30 2017-05-04 SZ DJI Technology Co., Ltd. Systems and methods for uav path planning and control
EP3353706A4 (en) * 2015-09-15 2019-05-08 SZ DJI Technology Co., Ltd. SYSTEM AND METHOD FOR MONITORING UNIFORM TARGET TRACKING
CN105913003B (zh) * 2016-04-07 2019-06-07 国家电网公司 一种多特征多模型的行人检测方法
GB2549941A (en) * 2016-04-29 2017-11-08 Kudan Ltd Method,apparatus and computer program product for tracking feature points in video frames
CN109074414B (zh) * 2016-05-02 2023-06-20 维纳尔电气系统有限公司 用于配置配电箱的方法及系统
JP6810892B2 (ja) * 2017-06-05 2021-01-13 京セラドキュメントソリューションズ株式会社 画像処理装置
JP7085812B2 (ja) 2017-08-02 2022-06-17 キヤノン株式会社 画像処理装置およびその制御方法
CN107818571B (zh) * 2017-12-11 2018-07-20 珠海大横琴科技发展有限公司 基于深度学习网络和均值漂移的船只自动跟踪方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008217768A (ja) * 2007-02-28 2008-09-18 Mitsubishi Electric Research Laboratories Inc ブースト分類器を新たなサンプルに対して適応させる方法
JP2008262331A (ja) * 2007-04-11 2008-10-30 Toshiba Corp オブジェクト追跡装置およびオブジェクト追跡方法
JP2009093230A (ja) * 2007-10-03 2009-04-30 Nippon Hoso Kyokai <Nhk> 顔画像検出装置、顔画像検出方法、及び顔画像検出プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101491075B (zh) 2006-07-07 2013-01-30 佳能株式会社 图像处理设备和图像处理方法
KR101457313B1 (ko) * 2010-06-22 2014-11-04 노키아 코포레이션 템플릿 스위칭 및 특징 적응을 이용한 오브젝트 추적을 제공하는 방법, 장치 및 컴퓨터 프로그램 제품
JP5675233B2 (ja) 2010-09-09 2015-02-25 キヤノン株式会社 情報処理装置、その認識方法及びプログラム
JP5701005B2 (ja) 2010-10-15 2015-04-15 キヤノン株式会社 物体検知装置、物体検知方法、監視カメラシステム、およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008217768A (ja) * 2007-02-28 2008-09-18 Mitsubishi Electric Research Laboratories Inc ブースト分類器を新たなサンプルに対して適応させる方法
JP2008262331A (ja) * 2007-04-11 2008-10-30 Toshiba Corp オブジェクト追跡装置およびオブジェクト追跡方法
JP2009093230A (ja) * 2007-10-03 2009-04-30 Nippon Hoso Kyokai <Nhk> 顔画像検出装置、顔画像検出方法、及び顔画像検出プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG201000918009; 佐竹 純二、三浦 純: '"ステレオビジョンを用いた移動ロボットの人物追従制御"' 日本ロボット学会誌 Vol.28, No.9, 20101115, p.33-41, 社団法人日本ロボット学会 *
JPN6015006428; 佐竹 純二、三浦 純: '"ステレオビジョンを用いた移動ロボットの人物追従制御"' 日本ロボット学会誌 Vol.28, No.9, 20101115, p.33-41, 社団法人日本ロボット学会 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015099559A (ja) * 2013-11-20 2015-05-28 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US9934446B2 (en) 2013-11-20 2018-04-03 Canon Kabushiki Kaisha Object detecting apparatus and method
JP2017033175A (ja) * 2015-07-30 2017-02-09 株式会社リコー 画像処理装置、画像処理方法及びプログラム
WO2018235219A1 (ja) * 2017-06-22 2018-12-27 日本電気株式会社 自己位置推定方法、自己位置推定装置および自己位置推定プログラム
JPWO2018235219A1 (ja) * 2017-06-22 2020-03-19 日本電気株式会社 自己位置推定方法、自己位置推定装置および自己位置推定プログラム
JP2022511151A (ja) * 2019-09-27 2022-01-31 センスタイム インターナショナル ピーティーイー.リミテッド 積み重ね物体を認識する方法及び装置、電子機器、記憶媒体及びコンピュータプログラム
WO2021260899A1 (ja) * 2020-06-25 2021-12-30 日本電信電話株式会社 追跡装置、追跡システム、追跡方法、および、追跡プログラム
JP7439925B2 (ja) 2020-06-25 2024-02-28 日本電信電話株式会社 追跡装置、追跡システム、追跡方法、および、追跡プログラム

Also Published As

Publication number Publication date
US9036863B2 (en) 2015-05-19
US20120288152A1 (en) 2012-11-15
JP5719230B2 (ja) 2015-05-13

Similar Documents

Publication Publication Date Title
JP5719230B2 (ja) 物体認識装置、物体認識装置の制御方法、およびプログラム
JP6664163B2 (ja) 画像識別方法、画像識別装置及びプログラム
CN110147721B (zh) 一种三维人脸识别方法、模型训练方法和装置
JP6631179B2 (ja) 前景画像分割方法及び装置、プログラム、並びに記録媒体
US11087169B2 (en) Image processing apparatus that identifies object and method therefor
JP6482195B2 (ja) 画像認識装置、画像認識方法及びプログラム
JP6032921B2 (ja) 物体検出装置及びその方法、プログラム
US8923554B2 (en) Information processing device, recognition method thereof and non-transitory computer-readable storage medium
US10748294B2 (en) Method, system, and computer-readable recording medium for image object tracking
US10929978B2 (en) Image processing apparatus, training apparatus, image processing method, training method, and storage medium
JP2018022360A (ja) 画像解析装置、画像解析方法およびプログラム
JP2016099982A (ja) 行動認識装置、行動学習装置、方法、及びプログラム
KR20190099537A (ko) 동작 학습 장치, 기능 판별 장치 및 기능 판별 시스템
CN109769326B (zh) 一种追光方法、装置及设备
WO2017168462A1 (en) An image processing device, an image processing method, and computer-readable recording medium
JP2011095862A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2021503139A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2017010224A (ja) 物体追尾装置、物体追尾方法及びプログラム
US20150356346A1 (en) Feature point position detecting appararus, feature point position detecting method and feature point position detecting program
CN108369739B (zh) 物体检测装置和物体检测方法
US10643096B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
CN112949453A (zh) 烟火检测模型的训练方法、烟火检测方法及设备
JP2015187769A (ja) 物体検出装置、物体検出方法及びプログラム
JP7253967B2 (ja) 物体対応付け装置、物体対応付けシステム、物体対応付け方法及びコンピュータプログラム
JP2012234500A (ja) パターン識別装置、パターン識別方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140509

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150320

R151 Written notification of patent or utility model registration

Ref document number: 5719230

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151