JP2010039788A - 画像処理装置及びその方法並びに画像処理プログラム - Google Patents

画像処理装置及びその方法並びに画像処理プログラム Download PDF

Info

Publication number
JP2010039788A
JP2010039788A JP2008202291A JP2008202291A JP2010039788A JP 2010039788 A JP2010039788 A JP 2010039788A JP 2008202291 A JP2008202291 A JP 2008202291A JP 2008202291 A JP2008202291 A JP 2008202291A JP 2010039788 A JP2010039788 A JP 2010039788A
Authority
JP
Japan
Prior art keywords
target object
feature
reliability
feature extraction
extraction units
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008202291A
Other languages
English (en)
Inventor
Satoshi Ito
聡 伊藤
Susumu Kubota
進 窪田
Tsukasa Ike
司 池
Tatsuo Kosakaya
達夫 小坂谷
Satoyuki Takeguchi
智行 武口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2008202291A priority Critical patent/JP2010039788A/ja
Priority to US12/535,765 priority patent/US20100034464A1/en
Publication of JP2010039788A publication Critical patent/JP2010039788A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2115Selection of the most significant subset of features by evaluating different subsets according to an optimisation criterion, e.g. class separability, forward selection or backward elimination

Abstract

【課題】ロバストでかつ高速な追跡を可能とする画像処理装置及びその方法並びに画像処理プログラムを提供すること。
【解決手段】画像処理装置100は、予め生成されたN個の特徴抽出部151を用いて、入力画像からN個の特徴量を抽出し、抽出された前記N個の特徴量から対象物体らしさを表す信頼度を算出する識別部152と、前記信頼度に基づいて前記入力画像に含まれる対象物体を検出する対象検出部120と、前記対象物体の前記信頼度とその背景の前記信頼度との分離度が、N個の特徴抽出部151を用いた場合よりも大きくなるように、N個の特徴抽出部151の中からM個の特徴抽出部を選択する特徴選択部130と、特徴選択部130で選択されたM個の特徴抽出部を用いて、前記入力画像からM個の特徴量を抽出し、抽出された前記M個の特徴量を用いて前記対象物体を追跡する対象追跡部140と、を備える。
【選択図】図1

Description

本発明は、画像処理装置及びその方法並びに画像処理プログラムに係り、特に、対象物体の追跡の高速化とロバスト性の向上が可能な画像処理装置及びその方法並びに画像処理プログラムに関する。
従来の画像処理装置は、入力画像における対象物体とその背景とを分離する識別器を更新しながら用いることにより、対象物体やその背景の経時的変化に対応しながら対象物体の追跡を行っている(特許文献1及び非特許文献1を参照)。この場合、識別器の更新時に行う学習において新たに特徴抽出部を生成する。そのため、例えば、人物が一瞬だけ手を挙げた場合などのように、一時的に対象物体が変化した場合などでは、特徴抽出部によって抽出される特徴量が必ずしも対象物体とその背景との分離に有効ではなく、追跡に失敗する恐れがあった。
特開2006−209755号公報(第11頁、図1) L.Lu and G.D.Hager,"A Nonparametric Treatment for Location/Segmentation Based Visual Tracking," Computer Vision and Pattern Recognition,2007
上述したように、従来技術では、新たに生成された特徴抽出部によって抽出される特徴量が必ずしも対象物体とその背景との分離に有効ではないため、追跡に失敗する恐れがあるという問題があった。
本発明は、上記従来技術の問題点を解決するためになされたものであって、ロバストでかつ高速な追跡を可能とする画像処理装置及びその方法並びに画像処理プログラムを提供することを目的とする。
上記目的を達成するために、本発明の画像処理装置は、予め生成されたN(Nは2以上の整数)個の特徴抽出部を用いて、入力画像からN個の特徴量を抽出し、抽出された前記N個の特徴量から対象物体らしさを表す信頼度を算出する識別部と、前記信頼度に基づいて前記入力画像に含まれる対象物体を検出する対象検出部と、前記対象物体の前記信頼度とその背景の前記信頼度との分離度が、前記N個の特徴抽出部を用いた場合よりも大きくなるように、前記N個の特徴抽出部の中からM(MはNよりも小さい1以上の整数)個の特徴抽出部を選択する特徴選択部と、前記特徴選択部で選択されたM個の特徴抽出部を用いて、前記入力画像からM個の特徴量を抽出し、抽出された前記M個の特徴量を用いて前記対象物体を追跡する対象追跡部と、を備えることを特徴とする。
本発明によれば、ロバストでかつ高速な追跡が可能となる。
以下、本発明の実施形態について説明する。
(第1の実施形態)
図1は、本発明の第1の実施形態に係る画像処理装置100を示すブロック図である。画像処理装置100は、取得部110と、対象検出部120と、特徴選択部130と、対象追跡部140と、記憶部150と、制御部160と、を備える。取得部110は、画像を入力する画像入力装置に接続され、画像入力装置から入力画像を取得する。対象検出部120は、後述する対象物体らしさを表す信頼度を用いて、入力画像に含まれる対象物体を検出する。特徴選択部130は、後述する対象物体とその背景との信頼度の分離度が、N個の特徴抽出部を用いた場合よりも大きくなるように、N個の特徴抽出部の中からM(MはNよりも小さい1以上の整数)個の特徴抽出部を選択する。対象追跡部140は、選択されたM(MはNよりも小さい1以上の整数)個の特徴抽出部によって抽出されたM個の特徴量を用いて、対象物体を追跡する。
図2に示すように、記憶部150は、N個の特徴抽出部151と、対象物体を識別するための識別器で構成された識別部152と、を記憶している。N個の特徴抽出部151は、識別器の学習によって予め生成されている。識別部152は、N個の特徴抽出部151によって抽出されたN個の特徴量を用いて、対象物体らしさを表す信頼度を算出する。なお、N個の特徴抽出部151は記憶部150に記憶されてもよいし、画像処理装置100の外部の記憶部に記憶されてもよい。制御部160は、画像処理装置100の各部を制御する。対象物体は、特定の物体に限定されず、人物、動物、物などの様々な物体を含む。
特徴選択部130は、対象検出部120の検出結果又は対象追跡部140の追跡結果に基づいて、抽出されたN個の特徴量を1つのグループとして複数のグループの特徴量を生成することができる。特徴選択部130は、生成した複数のグループの特徴量に基づいて、N個の特徴抽出部の中から対象物体とその背景とで信頼度の分離度が大きくなるようにM個の特徴抽出部を選択することができる。
取得部110で取得された画像列は、対象検出部120又は対象追跡部140に入力される。画像処理装置100は、対象検出部120の検出結果又は対象追跡部140の追跡結果を、対象検出部130又は対象追跡部140から出力する。対象検出部120、対象追跡部140及び特徴選択部130は、記憶部150とそれぞれ接続されている。対象検出部120は、対象物体の検出結果を対象追跡部140及び特徴選択部130に対しても出力する。対象追跡部140は、対象物体の追跡結果を対象検出部120及び特徴選択部130に対しても出力する。特徴選択部130は、特徴選択結果を対象追跡部140に出力する。
図3を参照して、本発明の第1の実施形態に係る画像処理装置の動作について説明する。なお、図3は、本発明の第1の実施形態に係る画像処理装置の動作を示すフローチャートである。
ステップS310では、制御部160は、取得部110で取得した画像列を記憶部150に記憶させる。
ステップS320では、制御部160は、現在のモードが追跡モードであるか否かを判定する。例えば、制御部160は、前の画像で対象物体の検出又は追跡に成功しており、ステップS350による特徴選択がなされている場合に、追跡モードであると判定する。制御部160は、追跡モードであると判定した場合(ステップS320で「Yes」)、ステップS340に進み、追跡モードでないと判定した場合(ステップS320で「No」)、ステップS330に進む。
ステップS330では、対象検出部120は、記憶部150に記憶されたN個の特徴抽出部151(g,g,…,g)によって抽出されるN個の特徴量を用いて対象物体の検出を行う。具体的には、入力画像の各位置で対象物体らしさを表す信頼度を計算し、この信頼度がピークをとる位置を対象物体の位置とする。このとき、信頼度cDは、抽出されたN個の特徴量x,x,…,xから数式1に基づいて算出することができる。ただし、xは特徴抽出部gによって抽出された特徴量を表す。
Figure 2010039788
関数fは、例えば、N個の特徴抽出部を生成するために予め学習した対象物体とその背景とを分離する識別器である。従って、関数fは非線形なものでもよいが、単純には数式2のように線形関数を用いる。なお、「背景」とは、画像中における対象物体を除く領域をいうものとする。実際には入力画像の各位置に対して、その位置を含んだ領域を設定し、その設定した領域から特徴量を抽出して識別を行うことで、その位置が対象物体であるか否かを識別する。従って、対象物体とその背景との境界付近の位置では、設定した領域が対象物体と背景とを含むことになるが、このような領域では、対象物体の占める割合がある一定以上の場合に、対象物体と識別する。
Figure 2010039788
数式2を満たすような識別器は、例えば、よく知られたAdaBoostを用いた学習によって実現できる。このとき、gはi番目の弱識別器、xはi番目の弱識別器の出力、aiはi番目の弱識別器に対する重みにそれぞれ対応する。
ステップS331では、制御部160は、対象物体の検出が成功したか否かを判定する。例えば、制御部160は、信頼度のピーク値がある閾値よりも小さい場合には、検出は失敗したと判定する。制御部160は、ステップS331で、対象物体の検出に失敗したと判定した場合には(ステップS331で「No」)、ステップS320に戻り、対象物体の検出に成功したと判定した場合には(ステップS331で「Yes」)、ステップS350に進む。
ステップS340では、対象追跡部140は、特徴選択部130で選択されているM個の特徴抽出部によって抽出されるM個の特徴量を用いて対象物体を追跡する。具体的には、入力画像の各位置で対象物体らしさを表す信頼度を計算し、この信頼度がピークをとる位置を追跡すべき対象物体の位置とする。ただし、信頼度のピーク値がある閾値よりも小さい場合には、追跡は失敗したものとする。信頼度CTは、抽出されたM個の第1の特徴量xσ1,xσ2,…,xσMから数式3に基づいて算出することができる。ただし、σ,σ,…,σ∈{1,2,…,N}かつi≠jのときσ≠σである。xσiは特徴抽出部gσiによって抽出された特徴量を表す。
Figure 2010039788
関数fは、例えば、対象物体の検出時に用いた関数fの入力をM個の特徴量に制限したものである。fが数式2のような線形関数の場合、fは数式4のように表される。
Figure 2010039788
単純には、b=aσi(i=1,2,…,M)である。信頼度cは、M個の第1の特徴量xσ1,xσ2,…,xσMと、既に検出又は追跡処理を完了した画像における対象物体から抽出されたM個の第2の特徴量yσ1,yσ2,…,yσMとの類似度により算出される。例えば、数式5のようにM個の第1の特徴量で構成される第1のベクトルと、M個の第2の特徴量で構成される第2のベクトルとの内積によって算出してもよい。ただし、yσiは特徴抽出部gσiによって抽出された特徴量を表す。
Figure 2010039788
また、数式5の積の部分が正の値をとるものだけを考慮した数式6を用いてもよい。
Figure 2010039788
また、数式5の積の部分の符号にのみ着目した数式7を用いてもよい。
Figure 2010039788
ここで、関数h(x)は数式6で用いたものと同じである。数式7は、M個の特徴抽出部によって抽出される特徴量のうち、前の画像の対象物体位置と入力画像の現在調べている位置とで、符号が一致する特徴量の割合を示している。
ステップS341では、制御部160は、対象物体の追跡に成功したか否かを判定する。制御部160は、対象物体の追跡に成功したと判定した場合には(ステップS341で「Yes」)、ステップS350に進み、対象物体の追跡に失敗したと判定した場合には(ステップS341で「No」)、ステップS330に進む。
ステップS350では、特徴選択部130は、対象物体やその背景の外観の変化に適応するために、対象物体とその背景とで対象物体らしさを表す信頼度cの分離度が大きくなるように、N個の特徴抽出部からM個の特徴抽出部を選択する。ただし、cの算出において、選択されていないN−M個の特徴抽出部の出力は0として扱う。特徴選択方法は、cの算出方法が数式2であるとすると、N個の特徴抽出部によって対象物体の位置から1つのグループとしての特徴量y,y,…,y(ただし、yはgによって抽出された特徴量を表す)を抽出し、a*yが大きい順にM個選ぶ。N個の特徴量をそのまま用いるかわりに、既に処理した複数枚の対象物体を含む画像毎に対象物体位置からそれぞれ抽出された他のグループとしてのN個の特徴量も考慮して各特徴抽出部gによって抽出される特徴量の平均値Myを算出し、a*Myが大きい順にM個選んでもよいし、分散などの高次統計量を組み込んでもよい。例えば、特徴抽出部gによって抽出される特徴量の標準偏差をsyとしたときに、a*(y−sy)又はa*(My−sy)の大きい順にM個選ぶ。また、N個の特徴抽出部を用いて対象物体の周辺の領域から抽出されたN個の特徴量z,z,…,z(ただし、zは特徴抽出部gによって抽出された特徴量を表す)を用いてa*(y−z)が大きい順にM個選んでもよい。この背景から抽出された特徴量zに関してもyと同様に、値をそのまま用いるかわりに、対象物体の周辺の領域の複数位置から抽出された特徴量や、既に処理した複数枚の画像における対象物体を含まない背景位置から抽出された特徴量の平均値Mz,Mz,…,Mzを用いてa*(y−Mz)又はa*(My−Mz)の大きい順にM個選んでもよいし、平均値だけでなく、特徴量の標準偏差sz,sz,…,szなどの高次統計量を組み込んでもよい。例えば、a*(My−sy−Mz−sz)の大きい順にM個選ぶといった具合である。また、zを抽出する周辺の領域の選び方は、例えば、対象物体位置の上下左右の4領域を選んでもよいし、さらにc又はcが大きい領域を選んでもよい。cの大きい領域は対象物体として誤検出しやすい領域、cの大きい領域は対象物体として誤追跡しやすい領域であり、この領域を選ぶことによって、この領域におけるcと対象物体位置におけるcとの差が大きくなり、cのピークが鋭敏になることが期待される。また、例えば、前述したa*yにおいて大きい順にM個選択するかわりに、設定した閾値を超えたa*yに対応する特徴抽出部だけを選択してもよいし、さらに、最低限選択する特徴抽出部の数をMとすることで、設定した閾値を超えるa*yがM個に満たない場合には、大きい順にM個選択するようにしてもよい。
また、入力画像からダウンサンプリングなどにより低解像画像を作成することで、複数の解像度の画像を入力とすることができる。このとき、対象検出部120及び対象追跡部140は、複数の解像度の画像に対して検出又は追跡を行う。対象物体の検出は、それぞれの解像度の画像でのcのピークのうち、最大となる解像度の画像における位置を対象物体の位置とする。対象物体の追跡も同様に、それぞれの解像度の画像でのcのピークのうち、最大となる解像度の画像における位置を対象物体の位置とする。特徴選択部130におけるサンプルの生成方法は、基本的には上述した通りであるが、対象物体の周辺の領域は、c又はcのピークが最大値となった解像度と同じ解像度だけでなく、異なる解像度の画像上にも存在することが異なる。従って、特徴選択に用いるサンプルは複数の解像度の画像から生成される。
このように、本実施形態に係る画像処理装置によれば、予め生成されたN個の特徴抽出部から対象物体とその背景とで対象物体らしさを表す信頼度の分離度が大きくなるようにM個の特徴抽出部を選択することで、対象物体やその背景の外観の変化に対応しつつ、高速な追跡が可能となる。
(第2の実施形態)
本実施形態では、対象物体の追跡ステップにおいて、対象物体らしさを表す信頼度cのピークが複数ある場合、すなわち対象物体の位置の候補が複数ある場合について、対象物体の候補位置の検証処理を導入する。
本発明の第2の実施形態に係る画像処理装置のブロック図は、第1の実施形態に係る画像処理装置のブロック図である図1と同じであるので、説明は省略する。また、本発明の第2の実施形態に係る画像処理装置の動作は、第1の実施形態に係る画像処理装置の動作を示すフローチャートである図3と概略的には同じである。しかしながら、対象物体の追跡ステップS340、S341が異なるので、この追跡ステップに関するフローチャートを図4を参照しながら説明する。
ステップS401では、現在のモードが追跡モードかどうかを判定するステップS320において、追跡モードであると判定された場合(ステップS320で「Yes」)、対象追跡部140は、数式3に示した対象物体らしさを表す信頼度cを、例えば、数式4、数式5、数式6及び数式7の何れか1つを用いて各画像上の位置で算出する。
ステップS402では、対象追跡部140は、ステップS401で算出した信頼度cのピークを取得する。
ステップS403では、対象追跡部140は、ステップS402で取得したピークの値がある閾値よりも小さい場合には、そのピークを除去する。
ステップS404では、制御部160は、残ったピークの数が0であるか否かを判定する。制御部160は、残ったピークの数が0であると判定した場合には(ステップS404で「Yes」)、追跡失敗となり、対象物体を検出し直すステップS330へ進む。制御部160は、残ったピークの数が0でない、すなわち1以上であると判定した場合には(ステップS404で「No」)、ステップS405へ進む。
ステップS405では、制御部160は、残ったピークの位置それぞれに対して、ピークの位置が対象物体の位置である、という仮説の検証を行う。仮説の検証は、ピーク位置における対象物体らしさを表す信頼度cを算出し、この信頼度がある閾値以上の場合に採択し、閾値以下の場合に棄却とすることで行う。制御部160は、全ての仮説が棄却された場合には、追跡失敗となり、対象物体を検出し直すステップS330へ進む。制御部160は、採択された仮説が複数ある場合には、cが最も大きい仮説のピーク位置を最終的な対象物体の位置として、特徴選択のステップS350へ進む。
仮説の検証で用いる対象物体らしさを表す信頼度cは、cを算出する手段とは別の手段によって算出される。最も単純にはcとしてcを用いることができる。これにより、対象物体らしくない位置の仮説を棄却することが可能となる。また、cとして、記憶部150で保持している特徴抽出部とは異なる、より高次の特徴抽出部を用いた識別器の出力を用いてもよい。一般に、高次の特徴抽出部は計算コストが大きいが、cの一枚の入力画像あたりの算出回数は、c、cと比べて少ないため、装置全体の処理時間にはそれほど影響しない点に注意する。高次の特徴抽出部としては、例えば、N.Dalal and B.Triggs,“Histograms of Oriented Gradients for Human Detection,”Computer Vision and Pattern Recognition,2005にあるようなエッジに基づく特徴を用いてもよい。また、cとして、前の入力画像における対象物体位置と現在の入力画像における仮説位置との類似度を用いてもよい。この類似度は、それぞれの位置を囲む2つの領域間の画素値の正規化相関でもよいし、画素値の分布の類似度でもよい。画素値の分布の類似度は、例えば、バタチャリヤ係数に基づくものでもよいし、2つの画素値ヒストグラムの共通部分の和でもよい。
このように、第2の実施形態に係る画像処理装置によれば、対象物体の追跡処理において検証処理を導入することによって、よりロバストな追跡が可能となる。
(第3の実施形態)
ここでは、対象物体が入力画像中に複数個ある場合について説明する。
本発明の第3の実施形態に係る画像処理装置のブロック図及び動作を示すフローチャートは、第1の実施形態に係る画像処理装置のブロック図(図1)及び動作を示すフローチャート(図3)と同様である。以下、図3のフローチャートを参照しながら説明する。
ステップS310では、制御部160は、画像入力部から入力された画像の画像列を記憶部に記憶させる。
ステップS320では、制御部160は、現在のモードが追跡モードであるか否かを判定する。例えば、制御部160は、前の画像で対象物体の検出又は追跡に成功しており、ステップS350によって特徴選択がなされた対象物体が1つ以上存在する場合に、追跡モードであると判定する。ただし、最後に対象物体の検出ステップS330を行ってから一定の枚数の画像を処理している場合は、現在のモードは追跡モードでないとする。
ステップS330では、対象検出部120は、記憶部150のN個の特徴抽出部g,g,…,gによって抽出されるN個の特徴量を用いて対象物体の検出を行う。具体的には、入力画像の各位置で対象物体らしさを表す信頼度cを計算し、この信頼度がピークをとる位置を全て取得し、それぞれ対象物体の位置とする。
ステップS331では、制御部160は、対象物体の検出が成功したか否かを判定する。例えば、制御部160は、得られた信頼度のピーク値の全てがある閾値よりも小さい場合には、検出は失敗したと判定する。このとき、信頼度cDは、例えば、数式2によって算出される。制御部160は、ステップS331で、対象物体の検出に失敗したと判定した場合には(ステップS331で「No」)、ステップS320に戻り、次の画像を処理する。制御部160は、ステップS331で、対象物体の検出に成功したと判定した場合には(ステップS331で「Yes」)、ステップS350に進む。
ステップS340では、対象追跡部140は、各々の対象物体について、特徴選択部130で各々の対象物体毎に選択されているM個の特徴抽出部によって抽出されるM個の特徴量を用いて追跡を行う。具体的には、各々の対象物体に対して、入力画像の各位置で対象物体らしさを表す信頼度cを計算し、この信頼度がピークをとる位置を対象物体の位置とする。
ステップS341では、制御部160は、対象物体の追跡に成功したか否かを判定する。制御部160は、全ての対象物体について、信頼度のピーク値がある閾値よりも小さい場合には、追跡は失敗したものとする(ステップS341で「No」)。また、1つ以上の対象物体について、信頼度のピーク値がある閾値よりも小さい場合には、追跡は失敗したものとしてもよい(ステップS341で「No」)。このとき、信頼度cは、例えば、数式4に基づいて算出することができる。制御部160は、対象物体の追跡に成功したと判定した場合には(ステップS341で「Yes」)、ステップS350に進み、対象物体の追跡に失敗したと判定した場合には(ステップS341で「No」)、ステップS330に進む。
ステップS350では、特徴選択部130は、特徴選択部130の各々の対象物体やその背景の外観の変化に適応するために、各々の対象物体とその背景とで対象物体らしさを表す信頼度cの分離度が大きくなるように、各々の対象物体毎にN個の特徴抽出部からM個の特徴抽出部を選択する。cの算出方法については、本発明の第1の実施形態において説明済みであるので省略する。
このように、第3の実施形態に係る画像処理装置によれば、対象物体が複数存在する場合においても、従来よりも高速かつロバストな追跡が可能となる。
(変形例)
対象物体らしさを表す信頼度cTの算出手段である数式5、数式6及び数式7を計算する前に、各特徴抽出部gσiの出力から、ある値θσiを減算してもよい。これは、数式5、数式6及び数式7のxσi、yσiをそれぞれxσi−θσi、yσi−θσiに置き換えることを意味する。θσiは、例えば、上述した特徴選択時に用いたyσiの平均値Myσiでもよいし、又はzσiの平均値Mzσiでもよいし、又はyσiとzσiの両方を含めた平均値でもよい。また、平均値の代わりに中間値を用いてもよい。又は、各特徴抽出部gの出力毎に、yσiとzσi(特徴選択時に生成したサンプルが複数個ある場合は、yσiもzσiも複数個存在する)を分離する識別器を学習し、その学習結果を用いてもよい。識別器は、例えば、l=ux−v(lはカテゴリラベル、xは学習サンプルのとる値(すなわち、yσi又はzσi)、u、vは学習によって定まる定数)の形で表現される線形識別器を用いる。yσiのカテゴリラベルを1、zσiのカテゴリラベルを−1として学習する。学習結果として得られるuが0でないときは、v/uをθとして用い、0であるときはθ=0とする。線形識別器の学習は、線形判別分析を用いてもよいし、線形のサポートベクターマシンを用いてもよいし、線形識別器が学習できるものであれば何でもよい。
なお、本発明は、上記の実施形態に限定されず、その要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記の実施形態に開示されている複数の構成要素の適当な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。また、本実施形態の画像処理装置の各部の処理ステップは、コンピュータに記憶または伝送されたコンピュータ読み取り可能な画像処理プログラムによって、コンピュータに実行させることができる。
本発明の第1の実施形態に係る画像処理装置の構成を示すブロック図である。 本発明の第1の実施形態に係る記憶部の構成を示すブロック図である。 本発明の第1の実施形態の動作を示すフローチャートを示す図である。 本発明の第2の実施形態における対象物体の追跡処理の動作を示すフローチャートを示す図である。
符号の説明
100 画像処理装置
120 対象検出部
130 特徴選択部
140 対象追跡部
151 特徴抽出部
152 識別部

Claims (15)

  1. 予め生成されたN(Nは2以上の整数)個の特徴抽出部を用いて、入力画像からN個の特徴量を抽出し、抽出された前記N個の特徴量から対象物体らしさを表す信頼度を算出する識別部と、
    前記信頼度に基づいて前記入力画像に含まれる対象物体を検出する対象検出部と、
    前記対象物体の前記信頼度とその背景の前記信頼度との分離度が、前記N個の特徴抽出部を用いた場合よりも大きくなるように、前記N個の特徴抽出部の中からM(MはNよりも小さい1以上の整数)個の特徴抽出部を選択する特徴選択部と、
    前記特徴選択部で選択されたM個の特徴抽出部を用いて、前記入力画像からM個の特徴量を抽出し、抽出された前記M個の特徴量を用いて前記対象物体を追跡する対象追跡部と、
    を備えることを特徴とする画像処理装置。
  2. 前記対象追跡部は、抽出された前記M個の特徴量に基づいて前記信頼度を算出し、算出した信頼度に基づいて前記対象物体を追跡することを特徴とする請求項1に記載の画像処理装置。
  3. 前記対象追跡部は、入力画像から抽出されたM個の第1の特徴量で構成される第1のベクトルと、前記対象検出部による検出又は前記対象追跡部による追跡が完了した入力画像における前記対象物体の位置から抽出されたM個の第2の特徴量で構成される第2のベクトルと、の類似度により前記信頼度を算出することを特徴とする請求項2に記載の画像処理装置。
  4. 前記類似度は、前記第1のベクトルの各成分の符号と、対応する前記第2のベクトルの各成分の符号とが一致した割合で算出されることを特徴とする請求項3に記載の画像処理装置。
  5. 入力画像の各位置で前記信頼度を算出し、前記信頼度がピークをとる位置を前記対象物体の位置と判定する制御部を備えることを特徴とする請求項2に記載の画像処理装置。
  6. 前記制御部は、前記信頼度のピーク値がある閾値よりも小さい場合には、前記対象物体の検出に失敗したと判定することを特徴とする請求項5に記載の画像処理装置。
  7. 前記制御部は、入力画像の各位置で前記信頼度を算出し、前記信頼度がピークをとる位置を追跡すべき前記対象物体の位置と判定することを特徴とする請求項5に記載の画像処理装置。
  8. 前記制御部は、前記信頼度のピーク値がある閾値よりも小さい場合には、前記対象物体の追跡に失敗したと判定し、前記対象検出部により前記対象物体を検出し直すことを特徴とする請求項7に記載の画像処理装置。
  9. 前記特徴選択部は、
    前記対象検出部の検出結果又は前記対象追跡部の追跡結果に基づいて、前記抽出されたN個の特徴量を1つのグループとして複数のグループの特徴量を生成し、生成した複数のグループの特徴量に基づいて、前記N個の特徴抽出部の中から前記対象物体とその背景とで前記信頼度の分離度が大きくなるようにM個の特徴抽出部を選択することを特徴とする請求項1に記載の画像処理装置。
  10. 前記特徴選択部は、
    前記検出された又は追跡された対象物体の周辺の領域から、前記N個の特徴量を1つのグループとして複数のグループの特徴量を生成すると共に、前記対象物体の周辺の領域から前記N個の特徴量を1つのグループとして複数のグループの特徴量を生成することを特徴とする請求項9に記載の画像処理装置。
  11. 前記特徴選択部は、
    前記対象物体と前記周辺の領域とで前記信頼度の分離度が大きくなるように前記N個の特徴抽出部の中からM個の特徴抽出部を選択することを特徴とする請求項10に記載の画像処理装置。
  12. 前記特徴選択部は、
    前記対象物体の検出又は追跡を完了した1枚以上の画像において生成された前記複数のグループの特徴量及び前記複数のグループの特徴量の画像上の位置を履歴として保持することを特徴とする請求項9に記載の画像処理装置。
  13. 前記特徴選択部は、
    前記履歴に基づいて、前記対象物体とその背景とで前記分離度が大きくなるように前記N個の特徴抽出部の中からM個の特徴抽出部を選択することを特徴とする請求項12に記載の画像処理装置。
  14. 予め生成されたN(Nは2以上の整数)個の特徴抽出部を用いて、入力画像からN個の特徴量を抽出し、抽出された前記N個の特徴量から対象物体らしさを表す信頼度を算出する工程と、
    前記信頼度に基づいて前記入力画像に含まれる対象物体を検出する工程と、
    前記対象物体の前記信頼度とその背景の前記信頼度との分離度が、前記N個の特徴抽出部を用いた場合よりも大きくなるように、前記N個の特徴抽出部の中からM(MはNよりも小さい1以上の整数)個の特徴抽出部を選択する工程と、
    前記選択されたM個の特徴抽出部を用いて、前記入力画像からM個の特徴量を抽出し、抽出された前記M個の特徴量を用いて前記対象物体を追跡する工程と、
    を含むことを特徴とする画像処理方法。
  15. コンピュータに、
    予め生成されたN(Nは2以上の整数)個の特徴抽出部を用いて、入力画像からN個の特徴量を抽出し、抽出された前記N個の特徴量から対象物体らしさを表す信頼度を算出する工程と、
    前記信頼度に基づいて前記入力画像に含まれる対象物体を検出する工程と、
    前記対象物体の前記信頼度とその背景の前記信頼度との分離度が、前記N個の特徴抽出部を用いた場合よりも大きくなるように、前記N個の特徴抽出部の中からM(MはNよりも小さい1以上の整数)個の特徴抽出部を選択する工程と、
    前記選択されたM個の特徴抽出部を用いて、前記入力画像からM個の特徴量を抽出し、抽出された前記M個の特徴量を用いて前記対象物体を追跡する工程と、
    を実行させるための画像処理プログラム。
JP2008202291A 2008-08-05 2008-08-05 画像処理装置及びその方法並びに画像処理プログラム Pending JP2010039788A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008202291A JP2010039788A (ja) 2008-08-05 2008-08-05 画像処理装置及びその方法並びに画像処理プログラム
US12/535,765 US20100034464A1 (en) 2008-08-05 2009-08-05 Apparatus and method for tracking image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008202291A JP2010039788A (ja) 2008-08-05 2008-08-05 画像処理装置及びその方法並びに画像処理プログラム

Publications (1)

Publication Number Publication Date
JP2010039788A true JP2010039788A (ja) 2010-02-18

Family

ID=41653029

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008202291A Pending JP2010039788A (ja) 2008-08-05 2008-08-05 画像処理装置及びその方法並びに画像処理プログラム

Country Status (2)

Country Link
US (1) US20100034464A1 (ja)
JP (1) JP2010039788A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103150737A (zh) * 2013-01-18 2013-06-12 西北工业大学 一种适用于空间绳系机器人的实时空间目标特征点跟踪方法
JP2013235580A (ja) * 2012-05-08 2013-11-21 Axis Ab ビデオ解析
JP2019519049A (ja) * 2016-06-23 2019-07-04 アリババ グループ ホウルディング リミテッド 手検出及び追跡方法並びに装置
JP2020149641A (ja) * 2019-03-15 2020-09-17 オムロン株式会社 物体追跡装置および物体追跡方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9229956B2 (en) 2011-01-10 2016-01-05 Microsoft Technology Licensing, Llc Image retrieval using discriminative visual features
US20130021488A1 (en) * 2011-07-20 2013-01-24 Broadcom Corporation Adjusting Image Capture Device Settings
JP5498454B2 (ja) * 2011-09-15 2014-05-21 株式会社東芝 追跡装置、追跡方法およびプログラム
US9852511B2 (en) * 2013-01-22 2017-12-26 Qualcomm Incoporated Systems and methods for tracking and detecting a target object
CN104301712B (zh) * 2014-08-25 2016-05-18 浙江工业大学 一种基于视频分析的监控摄像头抖动检测方法
CN116993785B (zh) * 2023-08-31 2024-02-02 东之乔科技有限公司 目标对象视觉跟踪方法、装置、电子设备及存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6301370B1 (en) * 1998-04-13 2001-10-09 Eyematic Interfaces, Inc. Face recognition from video images
US7574048B2 (en) * 2004-09-03 2009-08-11 Microsoft Corporation Freeform digital ink annotation recognition

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013235580A (ja) * 2012-05-08 2013-11-21 Axis Ab ビデオ解析
CN103150737A (zh) * 2013-01-18 2013-06-12 西北工业大学 一种适用于空间绳系机器人的实时空间目标特征点跟踪方法
JP2019519049A (ja) * 2016-06-23 2019-07-04 アリババ グループ ホウルディング リミテッド 手検出及び追跡方法並びに装置
US10885638B2 (en) 2016-06-23 2021-01-05 Advanced New Technologies Co., Ltd. Hand detection and tracking method and device
US10885639B2 (en) 2016-06-23 2021-01-05 Advanced New Technologies Co., Ltd. Hand detection and tracking method and device
JP2020149641A (ja) * 2019-03-15 2020-09-17 オムロン株式会社 物体追跡装置および物体追跡方法
JP7334432B2 (ja) 2019-03-15 2023-08-29 オムロン株式会社 物体追跡装置、監視システムおよび物体追跡方法

Also Published As

Publication number Publication date
US20100034464A1 (en) 2010-02-11

Similar Documents

Publication Publication Date Title
JP2010039788A (ja) 画像処理装置及びその方法並びに画像処理プログラム
US11393103B2 (en) Target tracking method, device, system and non-transitory computer readable medium
CN109977262B (zh) 从视频中获取候选片段的方法、装置及处理设备
US10234957B2 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
US8837773B2 (en) Apparatus which detects moving object from image and method thereof
US10679358B2 (en) Learning image automatic sorting device, learning image automatic sorting method, and learning image automatic sorting program
CN103366361B (zh) 区域增长方法以及具有标记功能的区域增长方法
JP6167733B2 (ja) 生体特徴ベクトル抽出装置、生体特徴ベクトル抽出方法、および生体特徴ベクトル抽出プログラム
JP5498454B2 (ja) 追跡装置、追跡方法およびプログラム
US9489561B2 (en) Method and system for estimating fingerprint pose
JP2006350434A (ja) 手形状認識装置及びその方法
KR20170006355A (ko) 모션벡터 및 특징벡터 기반 위조 얼굴 검출 방법 및 장치
US11380010B2 (en) Image processing device, image processing method, and image processing program
Sharma et al. Recognition of single handed sign language gestures using contour tracing descriptor
US11380133B2 (en) Domain adaptation-based object recognition apparatus and method
CN111476232A (zh) 一种洗水唛检测方法、设备和存储介质
JP2011089784A (ja) 物体方向推定装置
Aly et al. Arabic sign language recognition using spatio-temporal local binary patterns and support vector machine
JP5791373B2 (ja) 特徴点位置決定装置、特徴点位置決定方法及びプログラム
CN114022684B (zh) 人体姿态估计方法及装置
CN111382703B (zh) 一种基于二次筛选与分数融合的指静脉识别方法
JP5857634B2 (ja) 単語間空白検出装置、単語間空白検出方法及び単語間空白検出用コンピュータプログラム
JP5241687B2 (ja) 物体検出装置及び物体検出プログラム
JP6372282B2 (ja) 画像処理装置、画像処理方法及びプログラム
KR101601660B1 (ko) 깊이 영상을 이용한 손 영역 분류 방법 및 그 장치