JP6028972B2 - 画像処理装置、画像処理方法および画像処理プログラム - Google Patents

画像処理装置、画像処理方法および画像処理プログラム Download PDF

Info

Publication number
JP6028972B2
JP6028972B2 JP2012221034A JP2012221034A JP6028972B2 JP 6028972 B2 JP6028972 B2 JP 6028972B2 JP 2012221034 A JP2012221034 A JP 2012221034A JP 2012221034 A JP2012221034 A JP 2012221034A JP 6028972 B2 JP6028972 B2 JP 6028972B2
Authority
JP
Japan
Prior art keywords
area
frame image
window
prediction
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012221034A
Other languages
English (en)
Other versions
JP2014074977A (ja
Inventor
ジェイ.エイチ.マノジ ヴィンセント ペレラ
ジェイ.エイチ.マノジ ヴィンセント ペレラ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST filed Critical National Institute of Advanced Industrial Science and Technology AIST
Priority to JP2012221034A priority Critical patent/JP6028972B2/ja
Publication of JP2014074977A publication Critical patent/JP2014074977A/ja
Application granted granted Critical
Publication of JP6028972B2 publication Critical patent/JP6028972B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、人物や物体等のオブジェクトの検出と追跡を行なう画像処理装置及びそのプログラムに関し、高速に検出を行い、少ない特徴量でオブジェクトの追跡を確実に行えるようにすることで、オブジェクトの検出と追跡がリアルタイムで行うことを可能にしたものである。
定点カメラで来場者映像を撮影し、人物を検出して追跡するシステムは、来場者の人数を計測し、年齢や性別を調査するために検討されてきている。
撮影したオブジェクト、特に人物検出の手法としては、HOG(Histograms of oriented Gradients)と呼ばれる輝度勾配ヒストグラムを特徴量とした識別手法が広く用いられている。
N.Dalal and B.Triggs: "Histgrams of Oriented Gradients for Human Detection", IEEE Computer Society Conference on ComputerVision and Pattern Recognition, vol.1, pp.886-893(2005) X. Wang, T.X. Han and S. Yan: "An HOG-LBP Human Detector with Partial Occlusion Handling", IEEE 12th International Conference on ComputerVision, pp.32-39(2009)
上記のHOG特徴量を用いた人物検出においては、精度高く人物検出が行える一方、計算に時間がかかるという問題があった。また、人物の追跡(トラッキング)においては、プライバシーへの配慮から各クレーム画像を高速にリアルタイムに処理を行って画像を捨てる必要があるため、人物のトラッキングを行う場合に適用することは困難であった。また、人物の追跡についても高速に行う必要がある。
本発明は、人物や物体等のオブジェクト検出及び追跡を高速に行え、検出精度を向上させた画像処理装置に関する。
本発明の画像処理装置は、入力フレーム画像からオブジェクトが存在するオブジェクトウィンドウを検出するオブジェクト検出部と、オブジェクト検出部で検出された複数の近傍のオブジェクトウィンドウをクラスタリングで統合することで、オブジェクト領域を設定するクラスタリング統合部と、オブジェクト領域をオブジェクト候補領域とし、過去のフレーム画像のオブジェクト領域に基づいて予測される領域をオブジェクト予測領域とし、ウィンドウ幅の差異が所定範囲内であるオブジェクト候補領域であって、かつ前記オブジェクト予測領域から最短距離にあるオブジェクト候補領域について、前記過去のフレーム画像のオブジェクト領域と関連付けて登録するオブジェクトトラッキング部と、を有する画像処理装置を提供する。
上記画像処理装置において、オブジェクトトラッキング部は、複数のオブジェクト候補領域のうち、ウィンドウ幅の差異が所定範囲内であって、オブジェクト予測領域から所定の距離内にあるオブジェクト候補領域を関連オブジェクト候補領域として抽出し、関連オブジェクト候補領域のうち、オブジェクト予測領域から最短距離にある関連オブジェクト候補領域について、前記過去のフレーム画像のオブジェクト領域と関連付けて登録するようにしてもよい。
上記画像処理装置において、オブジェクトトラッキング部は、オブジェクト候補領域が、二以上のオブジェクト予測領域に関連付けられた場合、オブジェクト候補領域から最短距離にあるオブジェクト予測領域に対応する過去のフレーム画像のオブジェクト領域にのみ関連付けて登録するようにしてもよい。
また、上記画像処理装置において、オブジェクトトラッキング部は、過去のフレーム画像のオブジェクト領域に付与されている識別子と同一の識別子をオブジェクト候補領域に付与することで関連付けて登録するようにしてもよい。
上記画像処理装置において、オブジェクトトラッキング部は、二フレーム前のフレーム画像の第一のオブジェクト領域と、第一のオブジェクト領域と関連付けられた一フレーム前のフレーム画像における第二のオブジェクト領域における座標の変化量に基づいて入力フレーム画像におけるオブジェクト予測領域を決定してもよい。
上記画像処理装置において、オブジェクトトラッキング部は、二フレーム前のフレーム画像に関連付けられたオブジェクト領域がない場合には、一フレーム前のフレーム画像におけるオブジェクト領域の座標から所定量変化させることで、入力フレーム画像におけるオブジェクト予測領域を決定してもよい。
上記画像処理装置において、オブジェクト検出部は、入力フレーム画像にウィンドウを設け、ウィンドウ内を所定領域を有するブロックでオーバーラップスキャンすることで、ウィンドウの特徴量を算出し、算出した特徴量に基づいてオブジェクトウィンドウを検出してもよい。
上記画像処理装置において、オブジェクト検出部は、オーバーラップスキャンする場合に、スキャンレイヤごとに、オーバーラップ領域の特徴量は一度算出した特徴量を再利用することで、ウィンドウの特徴量を算出してもよい。
本発明は、入力フレーム画像からオブジェクトが存在するオブジェクトウィンドウを検出するステップ、検出された複数の近傍のオブジェクトウィンドウをクラスタリングで統合することで、オブジェクト領域を設定するステップ、オブジェクト領域をオブジェクト候補領域とし、過去のフレーム画像のオブジェクト領域に基づいて予測される領域をオブジェクト予測領域とし、ウィンドウ幅の差異が所定範囲内であるオブジェクト候補領域であって、かつ前記オブジェクト予測領域から最短距離にあるオブジェクト候補領域について、過去のフレーム画像のオブジェクト領域と関連付けて登録すると共に、オブジェクト候補領域が、二以上のオブジェクト予測領域に関連付けられた場合には、オブジェクト候補領域から最短距離にあるオブジェクト予測領域に対応する上記過去のフレーム画像のオブジェクト領域にのみ関連付けて登録するステップを有する画像処理方法を提供する。
また、本発明は、コンピュータに、入力フレーム画像からオブジェクトが存在するオブジェクトウィンドウを検出するステップ、検出された複数の近傍のオブジェクトウィンドウをクラスタリングで統合することで、オブジェクト領域を設定するステップ、 前記オブジェクト領域をオブジェクト候補領域とし、過去のフレーム画像のオブジェクト領域に基づいて予測される領域をオブジェクト予測領域とし、ウィンドウ幅の差異が所定範囲内であるオブジェクト候補領域であって、かつオブジェクト予測領域から最短距離にあるオブジェクト候補領域について、過去のフレーム画像のオブジェクト領域と関連付けて登録すると共に、オブジェクト候補領域が、二以上のオブジェクト予測領域に関連付けられた場合には、オブジェクト候補領域から最短距離にあるオブジェクト予測領域に対応する上記過去のフレーム画像のオブジェクト領域にのみ関連付けて登録するステップと、を実行させるプログラムを提供する。
本発明によれば、入力フレーム画像において、過去フレーム画像に基づいてオブジェクト予測領域を設定し、オブジェクト検出部においてオブジェクトが存在するとして検出されたオブジェクト候補領域であって、所定条件を満たしかつ最短距離にあるオブジェクト候補領域を過去フレーム画像のオブジェクト領域と関連付けて登録することができるため、同一人物をフレーム画像間でトラッキングすることが可能となる。
また、トラッキング処理において、ヒストグラムや色情報などの比較を行うことなく、トラッキングを行うため、リアルタイムでトラッキング処理を行うことができる。さらに、オブジェクト候補領域は、輝度等の特徴量に基づいて検出されているため、少ないパラメータであっても精度高くトラッキングを行うことができる。
さらに、オブジェクト検出部において、入力フレーム画像にウィンドウを設け、ウィンドウ内の所定領域を有するブロックでオーバーラップスキャンし、オーバーラップスキャンするときに、スキャンレイヤごとに、一度算出した特徴量を再利用することで高速にオブジェクト検出を行うことができる。
本発明にかかる一つの実施形態における画像処理装置のブロック図の一例である。 本発明の画像処理装置のハードウェア構成図の一例である。 本発明の画像処理装置において、オブジェクト検出部12が入力フレーム画像からオブジェクトを検出する場合のフローチャートの一例である。 スキャンテーブル記憶部11に記憶されているスキャンテーブルの一例である。 セルとブロックの関係を示す概念図である。 ウィンドウとブロックの関係を示す概念図である。 本発明の画像処理装置においてオブジェクトトラッキング部14がフレーム画像間で同一のオブジェクト領域を対応づける場合の処理の一例である。 フレーム画像間におけるオブジェクト領域の関連付けのイメージ図である。 図7のステップ703におけるオブジェクト予測領域とオブジェクト候補領域の関係を示す図である。 本発明の画像処理装置においてオブジェクト検出を行った場合の実験結果を示すテーブルである。
この発明を画像内に撮影されている人物の上半身領域を検出し、人物のトラッキングに適用した実施の形態を以下に説明する。この実施の形態では、カメラが所定の位置に設置され、撮影場所を通過する人物を撮影している。撮影された画像から人物を検出し、フレーム画像間でトラッキングを行うことで、一人の人物を動画像において追跡を行う。但し、ここでは人物の上半身領域であるが、検出するオブジェクトは人物の上半身に限らず、他の人物の一部分、目や鼻などであってもよく、また、車や車のナンバープレートなど、物体や物体の一部であってもよい。
図1は、本発明にかかる一つの実施形態における画像処理装置のブロック図の一例である。画像処理装置100は、画像記憶部10、スキャンテーブル記憶部11、オブジェクト検出部12、クラスタリング都合部13、オブジェクトトラッキング部14と、を有する。画像記憶部10は、ネットワークや有線ケーブル等を介して接続されるカメラから入力される画像を記憶する。カメラは、動画像を撮像しており、画像処理装置100には、動画像の時系列データである画像データが、例えば、通信インターフェースを介して、順次入力される。入力される各々の画像データはフレーム画像である。入力されたフレーム画像は、画像記憶部10に順次、一時的又は長期間記憶される。
スキャンテーブル記憶部11は、フレーム画像をスキャンする際のウィンドウサイズやスキャンストライドの値、ウィンドウの数などを記憶しているテーブルである。フレーム画像からオブジェクト検出処理を行う際に、画像にウィンドウを設定し、ウィンドウ内をオーバーラップさせながらスキャンすることで当該ウィンドウ内の特徴量を算出している。ウィンドウサイズは様々なものが設定可能であり、ウィンドウサイズによってスキャンストライド値や画像データ全体をスキャンするために必要なウィンドウ数が変化するため、ウィンドウサイズに対応づけてテーブルとして記憶しており、オブジェクト検出部12は、スキャンテーブル記憶部11からスキャンテーブルを読み出して、所定のウィンドウサイズでスキャンを行う。
オブジェクト検出部12は、画像記憶部10に記憶されたフレーム画像を順次読み出して、入力フレーム画像からオブジェクトが存在するオブジェクトウィンドウの検出処理を行う。例えば、オブジェクト検出部12は、スキャンテーブル記憶部11からスキャンテーブルを読み出して、予め決められたスキャンレイヤのウィンドウサイズで、入力フレーム画像全体において探索する。一例として、定められたウィンドウサイズを有するウィンドウ内で所定のスキャンストライド値でオーバーラップスキャンを行うことで、ウィンドウ内の輝度勾配方向ヒストグラムを生成し、HOG特徴量を算出する。
例えば、人物の上半身をオブジェクトとして検出する場合、オブジェクト検出部12は、サポート・ベクター・マシン(SVM)などを用いて、輝度勾配方向ヒストグラムの特徴量(HOG特徴量)を予め学習しておき、SVM識別器を得ておく。そして、入力フレーム画像から抽出されたHOG特徴量が人物の上半身かどうかを、SVM識別器によって評価することで、人物の上半身の領域であるオブジェクトウィンドウを検出する。つまりSVM識別器によって、人物の上半身である特徴量を有するウィンドウを、オブジェクトウィンドウとして検出する。
また、オブジェクト検出部12は、様々なウィンドウサイズを有するウィンドウで入力フレーム画像内を逐次スキャンを行って、上半身が撮影されている領域であるオブジェクト領域を検出する。
クラスタリング統合部13は、オブジェクト検出部12で検出されたウィンドウであるオブジェクトウィンドウをクラスタリングによって統合する。つまり、様々なウィンドウで入力フレーム画像をスキャンすると、一つの上半身に対して複数の近傍のオブジェクトウィンドウが存在することになる。言い換えれば、複数の位置が異なったウィンドウやサイズが異なったウィンドウが重なりあってオブジェクトウィンドウとして検出される。そこで、これら複数のオブジェクトウィンドウを、例えばMeanshiftクラスタリングを用いて一つのオブジェクト領域として統合して、設定する。
クラスタリング統合部13は、例えばMeanshiftクラスタリングを用いる場合、識別されたオブジェクトウィンドウの位置(xi、yi)とスケールscaleiの三次元でのクラスタリング統合を下記式のガウシアン・カーネル関数を用いて、その累積値から位置とスケールのシフト値を算出し、それぞれのシフト値から位置とスケールを修正更新することで収束させ、一つのオブジェクト領域としている。
Figure 0006028972
ここにいうbandwidth_positionとbandwidth_scaleは、位置とスケールにおけるそれぞれのクラスタリング探索領域として設定するパラメータである。
オブジェクトトラッキング部14は、入力フレーム画像におけるオブジェクト領域をオブジェクト候補領域とし、過去フレーム画像でのオブジェクト領域に基づいて入力フレーム画像においてオブジェクトが存在すると予測される領域をオブジェクト予測領域として、所定条件を満たすオブジェクト候補領域をオブジェクト予測領域に対応する過去フレーム画像のオブジェクト領域に関連付けて登録することで、オブジェクトのトラッキングを行い、その結果を出力する。過去フレーム画像とは、例えば、入力フレーム画像の一フレーム前の画像である。
例えば、オブジェクトトラッキング部14は、ウィンドウ幅の差異が所定の範囲内であるオブジェクト候補領域であって、他のオブジェクト候補領域とも比較してオブジェクト予測領域から最短距離であるオブジェクト候補領域を、過去フレーム画像のオブジェクト領域に関連付けて登録する。また、例えば、オブジェクトトラッキング部14は、関連付けて登録する場合に、過去フレーム画像のオブジェクト領域に付与されていた識別子(人物ID)と同じ識別子をオブジェクト候補領域へ付与する。トラッキング方法の詳細については後述する。
図2は、本発明の実施の形態に係る画像処理装置100のハードウェア構成の一例を示すブロック図である。図2において、画像処理装置100を構成するコンピュータは、従前から存在する汎用的なハードウェア構成で実現できる。すなわち、画像処理装置100を形成するコンピュータは、図2に示したようにCPU101、ROM102、RAM103、外部記憶装置104、通信インターフェース105、入出力インターフェース106と接続されたマウス107とキーボード108、及び表示装置として設けられたディスプレイ109を、バスに接続して構成される。
画像処理装置100は、一つの態様では、ハードウェア資源とソフトウェアの協働で実現される。具体的には、画像処理装置100の各種機能は、ROM102や外部記憶装置104等の記録媒体に記録されたプログラムがCPU101によって実行されることで実現される。また、画像処理装置100は、物理的に一つの装置により実現されてもよく、複数の装置により実現されていてもよい。
図3は、本発明の画像処理装置において、オブジェクト検出部12が入力フレーム画像からオブジェクトを検出する場合のフローチャートの一例である。オブジェクト検出部12は、画像記憶部10から入力されるフレーム画像を受け付ける(ステップ301)。オブジェクト検出部12は、入力を受け付けたフレーム画像におけるオブジェクトが存在するオブジェクトウィンドウの検出処理を開始する。
オブジェクト検出部12は、スキャンテーブル記憶部11からスキャンテーブルを読み出し、入力フレーム画像をスキャンする際のウィンドウサイズを決定する(ステップ302)。ウィンドウサイズは、例えば、予め決定されたスキャンレイヤに基づいて決められている。スキャンテーブルに記憶されたスキャンレイヤのうち一又は二のスキャンレイヤのウィンドウサイズで入力フレーム画像のスキャンを行ってもよい。また、スキャンテーブル記憶部11に記憶されているスキャンレイヤ全てのスキャン処理を行ってもよい。
次に、オブジェクト検出部12は、決定したウィンドウサイズに基づいて、入力フレーム画像における算出ウィンドウを設定する(ステップ303)。入力フレーム画像全体をスキャンするために必要なウィンドウ数は、ウィンドウサイズによって異なるが、所定のウィンドウサイズに基づいて入力フレーム画像において特徴量を算出するウィンドウの位置を設定する。算出ウィンドウの位置は、ウィンドウサイズと該ウィンドウサイズにおける何番目のスキャンウィンドウかによって決定される。
オブジェクト検出部12は、算出対象として設定されたウィンドウ内のブロックでの輝度勾配ヒストグラムを生成する(ステップ304)。ここでは、例えば、上半身であるオブジェクトを検出するためにHOG特徴量を用いる。そのためには、入力フレーム画像内の各画素における近傍4画素から水平垂直方向の輝度勾配をもとめ、輝度勾配強度と方向を算出する。そして各画素に対する輝度勾配強度を輝度勾配方向によって、0度から180度までの20度ごとのビンイメージ数9に割り振る。各ビンイメージをカーネルを利用しながらフィルタする。こちらでは大きさが7×7のカーネルを使っても良い。そして各ビンイメージに関するインテグラルイメージを生成する。一例として、ブロックに対する各セル内の輝度勾配強度累積をヒストグラムとし、ブロック内のセル4個分の輝度勾配方向ヒストグラムを連結し、ブロックごとにノーマライズすることで36次元のブロック内輝度勾配方向ヒストグラムを生成する。なお、スキャンとは、画像の各画素の特徴量を解析することを意味する。
さらに、オブジェクト検出部12は、ウィンドウ内をブロックでオーバーラップスキャンする(ステップ305)。スキャンテーブルに記憶されているスキャンレイヤ、セル幅に基づいてオーバーラップスキャンを行う。つまり、ウィンドウ内を定められたセル幅ずつ位置をずらしながらブロック内の輝度勾配ヒストグラムを順次作成していく。つまり、ウィンドウ内を水平方向に7回、垂直方向に7回の計49回のスキャンを行う。この際、オブジェクト検出部12は、オーバーラップ領域の特徴量については、前のブロックをスキャンした際に算出した特徴量を用いる。算出結果を再利用することでオブジェクト検出処理を高速化するためである。
そして、オブジェクト検出部12は、算出ウィンドウ内の特徴量を算出する(ステップ306)。一例として、オブジェクト検出部12は、算出ウィンドウ内を49回のスキャンを行うことで、ウィンドウ内において1764次元のHOG特徴量を得る。
オブジェクト検出部12は、算出ウィンドウにおける特徴量をSVMで識別する(ステップ307)。ここでは識別器としてサポート・ベクター・マシン(SVM)を用いているが、識別器としてはこれに限らない。予め上半身が含まれている画像と上半身が含まれていない画像とでHOG特徴量を学習しておき、SVM識別器を得ておく。オブジェクト検出部12は、SVM識別器を用いて、人物の上半身である特徴量を有するウィンドウをオブジェクトウィンドウとして検出する。算出ウィンドウがオブジェクトウィンドウであると判定された場合、クラスタリング統合部13への処理へうつる。
オブジェクト検出部12は、所定のスキャンレイヤにおける全てのウィンドウで特徴量の算出を行ったか、判定を行う(ステップ308)。全てのウィンドウでの特徴量算出が終わっていない場合、次の算出ウィンドウを設定する(ステップ303)。そして、同様に特徴量の算出を行う。全てのウィンドウでの特徴量算出が終わった場合、オブジェクト検出部12は、そのスキャンレイヤにおけるオブジェクト検出処理を終了する。
なお、上記では、一つのスキャンレイヤにおけるオブジェクト検出処理を説明したが、スキャンテーブルに記憶されている全てのスキャンレイヤを行う場合、また2以上のスキャンレイヤの処理を行う場合、図3において説明したフローを所定回数分同様に行う。スキャンレイヤを変えるとウィンドウサイズが変化する。従って、画像に映っている人物の大きさが様々である場合、複数のスキャンレイヤでオブジェクト検出処理を行うことが望ましい。
図4は、スキャンテーブル記憶部11に記憶されているスキャンテーブルの一例である。本スキャンテーブルは、入力画像の解像度が640×480画素である場合の一例である。ウィンドウサイズごとにスキャンレイヤの番号が付与されており、スキャンレイヤに対応づけて、ウィンドウサイズ、セルサイズ、スキャンストライド値、ウィンドウ数が記憶されている。ウィンドウサイズは、入力画像のなかでオブジェクトを検出する際に設定するウィンドウである。ここではウィンドウサイズは、ピクセル数で表されている。セルサイズは、上述したようにウィンドウ内において設定されるセルのサイズである。スキャンストライド値は、画像全体をスキャンするためにウィンドウをずらす、画素距離の値である。ウィンドウ数は、画像全体をスキャンするために必要なウィンドウの数をしめしている。オブジェクト検出部12は、スキャンテーブル記憶部11に記憶されているスキャンテーブルを参照しながら、入力フレーム画像のスキャンを行う。
図5は、セルとブロックの関係を示す概念図である。図3のステップ304において、オブジェクト検出部12はウィンドウ内にブロックを設け、輝度勾配ヒストグラムを生成している。この際に、ブロックの中にセルを設けている。それぞれのセルにおいて水平・垂直方向の輝度勾配をもとめ、セル1、セル2、セル3、セル4の順に連結することで36次元のブロック内輝度勾配方向ヒストグラムを生成している。
図6は、ウィンドウとブロックの関係を示す概念図である。一例では、ウィンドウを水平・垂直方向に4等分した各々の領域をブロックとし、さらに水平・垂直方向にそれぞれ2等分した4個の領域をセルとしている。セル幅ずつずらしてオーバーラップスキャンさせるため、点線のブロック領域が次に輝度勾配を求めるブロックとなる。このように、ブロックをオーバーラップスキャンさせた場合、次のブロックのスキャンにおいて、前のブロックと、2つのセルがオーバーラップ(重複)することとなる。このため、オブジェクト検出部12は、2つのセルの特徴量の算出においては、前のブロックの輝度勾配を算出した際のセルの特徴量をそのまま再利用する。ここでは、最初に垂直方向にスキャンをし、次に水平方向にスキャンすることとしている。しかし、これに限らず、水平方向に最初にスキャンをして次に垂直方向にスキャンしてもよい。
図7は、本発明の画像処理装置においてオブジェクトトラッキング部14がフレーム画像間で同一のオブジェクト領域を対応づける場合の処理の一例である。オブジェクトトラッキング部14は、入力フレーム画像においてクラスタリング統合部13でオブジェクト領域として設定された領域をオブジェクト候補領域として設定する(ステップ701)。
次に、オブジェクトトラッキング部14は、過去フレーム画像におけるオブジェクト領域に基づいて入力フレーム画像におけるオブジェクト予測領域を設定する(ステップ702)。例えば、オブジェクトトラッキング部14は、画像記憶部10に記憶されている入力フレーム画像から二フレーム前のフレーム画像や一フレーム前のフレーム画像など、過去のフレーム画像を読み出す。そして、二フレーム前のフレーム画像におけるオブジェクト領域と、一フレーム前のフレーム画像におけるオブジェクト領域であって、二フレーム前のフレーム画像におけるオブジェクト領域と関連付けられたオブジェクト領域との間での座標の変化量を計算する。そして、オブジェクトトラッキング部14は、一フレーム前のフレーム画像におけるオブジェクト領域の座標と、算出した座標の変化量に基づいて入力フレーム画像におけるオブジェクト予測領域を算出し、設定する。他の一例として、所定の変化量を設定しておき、一フレーム前にフレーム画像におけるオブジェクト領域に基づいて、入力フレーム画像におけるオブジェクト予測領域を算出してもよい。この場合、人間の歩く速度など、オブジェクト対象の動く速度に基づいて、座標変化量を予め設定しておくことで、二フレーム前にオブジェクトが映っていない場合であっても、オブジェクト予測領域を設定することが可能となる。また、他の一例として、過去のフレーム画像として一フレーム前のフレーム画像ではなく、数フレーム前のフレーム画像を用いて数フレーム前のフレーム画像のオブジェクト領域と所定の座標変化量に基づいてオブジェクト予測領域を設定してもよい。つまり、過去のフレーム画像は、一フレーム前のフレーム画像に限らない。
オブジェクトトラッキング部14は、オブジェクト予測領域からの距離、ウィンドウ幅の差異が所定範囲内のオブジェクト候補領域を抽出する(ステップ703)。具体的には、オブジェクト予測領域であるウィンドウの四角形の左上端の座標をP(a(x1),a(y1))としオブジェクト予測領域のウィンドウ幅をWaとし、オブジェクト候補領域のウィンドウの四角形の左上端の座標をP(b(x1),b(y1))としオブジェクト候補領域のウィンドウ幅をWbとした場合、オブジェクトトラッキング部14は、下記の4つの条件を満たすウィンドウ候補領域を抽出する。
Figure 0006028972
ここで、Tは、所定の閾値である。
上記式の(2)及び(4)は、オブジェクト候補領域のうち、座標値の差異が所定の閾値の範囲内であるオブジェクト領域、つまりオブジェクト予測領域からオブジェクト候補領域まで所定の距離の範囲内にあるオブジェクト候補領域を抽出しようとするものである。また、(3)及び(5)は、オブジェクト候補領域のうち、オブジェクト予測領域のウィンドウ幅との差異が所定の範囲内であるオブジェクト候補領域を抽出しようとするものである。ここで、オブジェクトトラッキング部14は、これら4つの条件を満たすウィンドウ候補領域を抽出し、抽出したオブジェクト領域を関連オブジェクト候補領域とする。
なお、閾値であるTは任意の値に設定可能であるが、一例として下記式に基づいてTを定めてもよい。βは、任意の変数である。
Figure 0006028972
次に、オブジェクトトラッキング部14は、抽出したオブジェクト候補領域、つまり関連オブジェクト候補領域のなかから最短距離であるオブジェクト候補領域を抽出する(ステップ704)。所定条件を満たす関連オブジェクト候補領域のなかでオブジェクト予測領域と最も近い座標値、つまり最短距離を有するオブジェクト候補領域を抽出する。
さらに、オブジェクトトラッキング部14は、抽出したオブジェクト候補領域が他のオブジェクト予測領域に関連付けられているか、チェックを行う(ステップ705)。抽出したオブジェクト候補領域が既に他のオブジェクト予測領域に関連づけられている場合があるからである。なお、このチェックは、「オブジェクト予測領域」と関連づけられているかとしているか、「オブジェクト予測領域に対応する過去フレーム画像(例えば一フレーム前のフレーム画像)のオブジェクト領域」と置き換えてもよい。抽出したオブジェクト候補領域が他にも関連付けられている場合(ステップ705でYes)、複数のオブジェクト予測領域のうち、抽出したオブジェクト候補領域から最短距離であるオブジェクト予測領域にのみ関連付け、最短ではないオブジェクト予測領域との関連付けを破棄する(ステップ706)。
次に破棄されたオブジェクト予測領域について、そのオブジェクト予測領域について抽出されている関連オブジェクト候補領域のうち、残りのオブジェクト候補領域のなかで最短距離のオブジェクト候補領域を抽出する(ステップ707)。破棄されたオブジェクト予測領域については、対応するオブジェクト候補領域がなくなってしまうため、再度算出をし直すのである。再度の抽出にあたっては、予め抽出していた関連オブジェクト候補領域のなかで、最短距離の関連オブジェクト候補領域を抽出することで行う。
抽出したオブジェクト領域が他のオブジェクト予測領域に関連付けられていない場合(ステップ705でNo)、オブジェクト予測領域に対応付けられた人物IDを付与する(ステップ708)。つまり、オブジェクト予測領域に対応する過去のフレーム画像(例えば一フレーム前のフレーム画像)におけるオブジェクト領域に付与されている識別子である人物IDを付与する。同じ識別子を付与することで、フレーム間でのオブジェクトトラッキングが可能となる。付与された人物IDは、オブジェクト領域の近傍に表示部で表示されるようにしてもよい。
図8は、フレーム画像間におけるオブジェクト領域の関連付けのイメージ図である。フレーム画像I1、I2、I3は時系列的に取得されたフレーム画像であり、例えば、I3を入力フレーム画像とすると、I1は二フレーム前のフレーム画像、I2は一フレーム前のフレーム画像である。それぞれに検出されたオブジェクト領域が存在しており、オブジェクトが人間などの動体である場合は、図8のように同じオブジェクトであったとしても、それぞれのフレーム画像での検出位置が異なる。そこで、これらのオブジェクトを関連付けるために、オブジェクトトラッキング部14は、図7で示したようなフローに従って、フレーム画像間のオブジェクトの関連付けを行って、オブジェクトトラッキングを実現している。
図9は、図7のステップ703におけるオブジェクト予測領域とオブジェクト候補領域の関係を示す図である。Aがオブジェクト予測領域であるオブジェクトウィンドウであり、Bがオブジェクト候補領域のウィンドウの一例である。前述したようにオブジェクト予測領域の左上端の座標Pの位置及びウィンドウ幅Wの差異が閾値内であるかどうか4つの式に基づいて判定を行い、条件を満たすオブジェクト候補領域を抽出する。
図10は、本発明の画像処理装置においてオブジェクト検出を行った場合の実験結果を示すテーブルである。それぞれのスキャンレイヤ及びウィンドウサイズにおける特徴量の計算にかかった時間を示している。本発明においては、オブジェクト検出において、オーバーラップスキャンを行ってウィンドウの特徴量を算出している。その際に、スキャンレイヤごとに、オーバーラップ領域の特徴量について過去の算出結果を再利用することで、オブジェクト検出処理の高速化を図っている。その結果、HOG特徴量のような計算数が多く、精度高く検出が行える特徴量を採用した場合であっても、図に示すようにきわめて短時間でオブジェクト検出を行うことが可能となる。そのため、フレーム画像が次々と入力される場合であっても、リアルタイムでオブジェクト検出を行うことができる。

Claims (9)

  1. 入力フレーム画像からオブジェクトが存在するオブジェクトウィンドウを検出するオブジェクト検出部と、
    前記オブジェクト検出部で検出された複数の近傍のオブジェクトウィンドウをクラスタリングで統合することで、オブジェクト領域を設定するクラスタリング統合部と、
    前記オブジェクト領域をオブジェクト候補領域とし、過去のフレーム画像のオブジェクト領域に基づいて予測される領域をオブジェクト予測領域とし、ウィンドウ幅の差異が所定範囲内であるオブジェクト候補領域であって、かつ前記オブジェクト予測領域から最短距離にあるオブジェクト候補領域について、前記過去のフレーム画像のオブジェクト領域と関連付けて登録すると共に、前記オブジェクト候補領域が、二以上のオブジェクト予測領域に関連付けられた場合には、オブジェクト候補領域から最短距離にあるオブジェクト予測領域に対応する前記過去のフレーム画像のオブジェクト領域にのみ関連付けて登録するオブジェクトトラッキング部と、を有する画像処理装置。
  2. 前記オブジェクトトラッキング部は、複数のオブジェクト候補領域のうち、ウィンドウ幅の差異が所定範囲内であって、オブジェクト予測領域から所定の距離内にあるオブジェクト候補領域を関連オブジェクト候補領域として抽出し、関連オブジェクト候補領域のうち、オブジェクト予測領域から最短距離にある関連オブジェクト候補領域について、前記過去のフレーム画像のオブジェクト領域と関連付けて登録することを特徴とする請求項1記載の画像処理装置。
  3. 前記オブジェクトトラッキング部は、前記過去のフレーム画像のオブジェクト領域に付与されている識別子と同一の識別子をオブジェクト候補領域に付与することで関連付けて登録することを特徴とする請求項1又は2記載の画像処理装置。
  4. 前記オブジェクトトラッキング部は、二フレーム前のフレーム画像の第一のオブジェクト領域と、前記第一のオブジェクト領域と関連付けられた一フレーム前のフレーム画像における第二のオブジェクト領域における座標の変化量に基づいて前記入力フレーム画像におけるオブジェクト予測領域を決定することを特徴とする請求項1〜3のいずれか1つに記載の画像処理装置。
  5. 前記オブジェクトトラッキング部は、二フレーム前のフレーム画像に関連付けられたオブジェクト領域がない場合には、一フレーム前のフレーム画像におけるオブジェクト領域の座標から所定量変化させることで、入力フレーム画像におけるオブジェクト予測領域を決定することを特徴とする請求項記載の画像処理装置。
  6. 前記オブジェクト検出部は、前記入力フレーム画像にウィンドウを設け、ウィンドウ内を所定領域を有するブロックでオーバーラップスキャンすることで、ウィンドウの特徴量を算出し、算出した特徴量に基づいてオブジェクトウィンドウを検出することを特徴とする請求項1〜5のいずれか1つに記載の画像処理装置。
  7. 前記オブジェクト検出部は、オーバーラップスキャンする場合に、スキャンレイヤごとに、オーバーラップ領域の特徴量は一度算出した特徴量を再利用することで、ウィンドウの特徴量を算出することを特徴とする請求項記載の画像処理装置。
  8. 入力フレーム画像からオブジェクトが存在するオブジェクトウィンドウを検出するステップ、
    検出された複数の近傍のオブジェクトウィンドウをクラスタリングで統合することで、オブジェクト領域を設定するステップ、
    前記オブジェクト領域をオブジェクト候補領域とし、過去のフレーム画像のオブジェクト領域に基づいて予測される領域をオブジェクト予測領域とし、ウィンドウ幅の差異が所定範囲内であるオブジェクト候補領域であって、かつ前記オブジェクト予測領域から最短距離にあるオブジェクト候補領域について、前記過去のフレーム画像のオブジェクト領域と関連付けて登録すると共に、前記オブジェクト候補領域が、二以上のオブジェクト予測領域に関連付けられた場合には、オブジェクト候補領域から最短距離にあるオブジェクト予測領域に対応する前記過去のフレーム画像のオブジェクト領域にのみ関連付けて登録するステップを有する画像処理方法。
  9. コンピュータに、
    入力フレーム画像からオブジェクトが存在するオブジェクトウィンドウを検出するステップ、
    検出された複数の近傍のオブジェクトウィンドウをクラスタリングで統合することで、オブジェクト領域を設定するステップ、
    前記オブジェクト領域をオブジェクト候補領域とし、過去のフレーム画像のオブジェクト領域に基づいて予測される領域をオブジェクト予測領域とし、ウィンドウ幅の差異が所定範囲内であるオブジェクト候補領域であって、かつ前記オブジェクト予測領域から最短距離にあるオブジェクト候補領域について、前記過去のフレーム画像のオブジェクト領域と関連付けて登録すると共に、前記オブジェクト候補領域が、二以上のオブジェクト予測領域に関連付けられた場合には、オブジェクト候補領域から最短距離にあるオブジェクト予測領域に対応する前記過去のフレーム画像のオブジェクト領域にのみ関連付けて登録するステップと、
    を実行させるプログラム。
JP2012221034A 2012-10-03 2012-10-03 画像処理装置、画像処理方法および画像処理プログラム Active JP6028972B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012221034A JP6028972B2 (ja) 2012-10-03 2012-10-03 画像処理装置、画像処理方法および画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012221034A JP6028972B2 (ja) 2012-10-03 2012-10-03 画像処理装置、画像処理方法および画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2014074977A JP2014074977A (ja) 2014-04-24
JP6028972B2 true JP6028972B2 (ja) 2016-11-24

Family

ID=50749104

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012221034A Active JP6028972B2 (ja) 2012-10-03 2012-10-03 画像処理装置、画像処理方法および画像処理プログラム

Country Status (1)

Country Link
JP (1) JP6028972B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6598746B2 (ja) * 2016-08-22 2019-10-30 Kddi株式会社 他の物体の画像領域も考慮して物体を追跡する装置、プログラム及び方法
CN108303435B (zh) * 2017-01-12 2020-09-11 同方威视技术股份有限公司 检查设备和对集装箱进行检查的方法
JP7039171B2 (ja) * 2017-01-23 2022-03-22 コニカミノルタ株式会社 画像処理装置、物体検出方法および物体検出プログラム
KR102424326B1 (ko) * 2019-11-01 2022-07-21 에스케이텔레콤 주식회사 주목도 기반 객체 분할을 이용한 비지도 비디오 객체 분할장치 및 방법

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3333568B2 (ja) * 1993-01-12 2002-10-15 株式会社リコー 表面欠陥検査装置
JP3918788B2 (ja) * 2003-08-06 2007-05-23 コニカミノルタフォトイメージング株式会社 撮像装置、およびプログラム
JP4285644B2 (ja) * 2003-08-19 2009-06-24 富士フイルム株式会社 オブジェクト識別方法および装置ならびにプログラム
JP4447309B2 (ja) * 2003-12-25 2010-04-07 財団法人生産技術研究奨励会 交差点交通量計測装置および交差点交通量計測方法
JP4555690B2 (ja) * 2005-01-11 2010-10-06 日本放送協会 軌跡付加映像生成装置及び軌跡付加映像生成プログラム
JP4427052B2 (ja) * 2006-12-26 2010-03-03 東芝テリー株式会社 画像処理装置および領域追跡プログラム
JP2012181710A (ja) * 2011-03-02 2012-09-20 Fujifilm Corp オブジェクト追跡装置、方法、及びプログラム

Also Published As

Publication number Publication date
JP2014074977A (ja) 2014-04-24

Similar Documents

Publication Publication Date Title
US10192107B2 (en) Object detection method and object detection apparatus
US20200167554A1 (en) Gesture Recognition Method, Apparatus, And Device
JP6655878B2 (ja) 画像認識方法及び装置、プログラム
CN109644255B (zh) 标注包括一组帧的视频流的方法和装置
JP6494253B2 (ja) 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム
EP2450832A1 (en) Image processing apparatus and image processing method
KR20130066438A (ko) 영상 처리 장치 및 영상 처리 방법
JP2012038318A (ja) ターゲット検出方法及び装置
CN109271848B (zh) 一种人脸检测方法及人脸检测装置、存储介质
US9349207B2 (en) Apparatus and method for parsing human body image
KR102199094B1 (ko) 관심객체 검출을 위한 관심영역 학습장치 및 방법
CN110930434A (zh) 目标对象跟踪方法、装置、存储介质和计算机设备
CN111783665A (zh) 一种动作识别方法、装置、存储介质和电子设备
JP6028972B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2013206458A (ja) 画像における外観及びコンテキストに基づく物体分類
CN111382637A (zh) 行人检测跟踪方法、装置、终端设备及介质
US20170103536A1 (en) Counting apparatus and method for moving objects
US20170053172A1 (en) Image processing apparatus, and image processing method
WO2022078134A1 (zh) 一种人员流量分析方法和系统、电子设备和可读存储介质
KR101690050B1 (ko) 지능형 영상보안 시스템 및 객체 추적 방법
JP6811244B2 (ja) 画像処理装置、ステレオカメラ装置及び画像処理方法
JPWO2011099072A1 (ja) パターン識別装置
KR101313879B1 (ko) 기울기 히스토그램을 이용한 사람 검출 추적 시스템 및 방법
KR20110139864A (ko) 얼굴 검출 방법 및 시스템
CN111027482A (zh) 基于运动向量分段分析的行为分析方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150713

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161005

R150 Certificate of patent or registration of utility model

Ref document number: 6028972

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250