JP5940862B2 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP5940862B2
JP5940862B2 JP2012080567A JP2012080567A JP5940862B2 JP 5940862 B2 JP5940862 B2 JP 5940862B2 JP 2012080567 A JP2012080567 A JP 2012080567A JP 2012080567 A JP2012080567 A JP 2012080567A JP 5940862 B2 JP5940862 B2 JP 5940862B2
Authority
JP
Japan
Prior art keywords
person
feature
image
fragment
object image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012080567A
Other languages
English (en)
Other versions
JP2013210843A (ja
Inventor
秀紀 氏家
秀紀 氏家
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2012080567A priority Critical patent/JP5940862B2/ja
Publication of JP2013210843A publication Critical patent/JP2013210843A/ja
Application granted granted Critical
Publication of JP5940862B2 publication Critical patent/JP5940862B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、移動物体の時系列画像から当該移動物体の照合に用いる画像特徴量を抽出する画像処理装置に関する。
不審人物の足跡を追う目的等で、異なる場所に設置された監視カメラで撮像した映像から同一人物の映像を検索することを要求される場合がある。例えば、建物の2階の映像にて確認された不審人物がいつ入館したかを特定するために、当該建物入口の映像を検索することが要求される。
移動物体を追跡する画像処理技術によれば、人物位置の連続性を利用して同一人物が映った時系列画像を特定することができる。しかし、監視カメラは設置コスト等の理由から離散的に設置されることが多く、離れた監視カメラの間では人物位置の連続性が利用困難となる。そのため断続的に追跡した人物の時系列画像を服装など見かけ(アピアランス)の特徴で照合することになる。断続的な時系列画像の照合は、監視カメラの視野から一旦外れた人物が同一監視カメラの視野に再登場する場合にも生じる。
このように、断続的な時系列画像の間で人物の照合を行う場合に、監視カメラごとにアングルが異なることや手足の動きなど人物の姿勢が時々刻々と変化することによるアピアランス変動が問題となる。
下記特許文献1に記載の移動物体追跡方法においては、人間を追跡する場合に手や足など動きのある部分では一致しない場所がでてくることを鑑み、順次取得される時系列画像において検出した複数の2値化後の人物パターンを所定数分重ね合わせて共通に出現している度合いが大きい点の集合をマスクパターンと、予め用意している人物の辞書との共通部分を照合に用いることで、動きの影響を受けにくくしていた。
特開平6−274625号公報
しかしながら、従来技術を用いた場合、重ね合わせる時系列画像を増やすほどマスクパターンの面積は減少し、人物の照合に用いる特徴量が減少してしまう。例えば、手足部分の特徴量が除外されて胴部のみの特徴量となる。
そのため、従来技術により生成される人物の特徴量を用いると、アピアランス変動による本人不一致率は低くなるものの、特徴量の不足により他人一致率が高まる問題があった。
本人不一致率及び他人一致率を共に低減するには、動きがある手足等の部位からもアピアランス変動の影響を受けにくい特徴量を選び出して照合に用いることが望ましい。
本発明は上記問題を鑑みてなされたものであり、移動物体の照合精度を向上させるために時系列画像からアピアランス変動の影響を受けにくい移動物体の特徴量をより多く抽出できる画像処理装置を提供することを目的とする。
本発明に係る画像処理装置は、複数フレームに亘り移動物体を撮像した時系列画像から当該移動物体の照合に用いる物体特徴量を抽出するものであって、前記各フレームにおける注目移動物体の物体像を互いに輝度特徴が類似する近傍画素からなる複数の物体像断片に分割する物体像分割部と、前記フレーム間で前記物体像断片の前記輝度特徴及び前記物体像断片の前記物体像における占有場所の情報を含む幾何特徴を比較して、前記輝度特徴及び前記幾何特徴が共に類似する前記物体像断片からなる複数の断片グループを生成する物体像断片グループ生成部と、前記各断片グループに対して、当該断片グループを構成する前記物体像断片の数に応じた安定性評価値を算出し、当該安定性評価値が所定基準を超えて高い断片グループの前記輝度特徴及び前記幾何特徴から前記物体特徴量を生成する特徴量生成部と、を備える。
他の本発明に係る画像処理装置においては、前記特徴量生成部は、前記断片グループを構成する前記物体像断片の前記占有場所の面積が大きいほど当該断片グループの前記安定性評価値を高く算出する。
さらに他の本発明に係る画像処理装置においては、前記特徴量生成部は、前記断片グループを構成する前記物体像断片間にて前記占有場所の位置が近いほど当該断片グループの前記安定性評価値を高く算出する。
さらに他の本発明に係る画像処理装置においては、前記特徴量生成部は、前記断片グループを構成する前記物体像断片間にて前記輝度特徴が類似しているほど当該断片グループの前記安定性評価値を高く算出する。
別の本発明に係る画像処理装置においては、前記物体像断片グループ生成部は、前記物体像断片内の前記画素値を代表する代表画素値と当該物体像断片の代表位置とを要素とする特徴ベクトルを前記物体像に対する当該物体像断片の面積の割合で重み付けし、当該重み付けした特徴ベクトルをクラスタリングすることにより前記断片グループを生成する。
本発明によれば、動きがある部位からもアピアランス変動の影響を受けにくい移動物体の特徴量をより多く抽出できるので、移動物体の照合精度を向上させることが可能となる。
本発明の実施形態である人物同定・検索システムの概念を説明するための模式図である。 人物情報生成装置の概略の構成を示すブロック図である。 或る人物についての追跡系列の模式図である。 クラスタリング対象のセグメント特徴量とクラスタリング結果を示す模式図である。 記憶部に格納された人物特徴量の例を示す模式図である。 人物情報生成装置の動作を説明する概略のフロー図である。 人物同定装置の概略の構成を示すブロック図である。 人物同定装置の動作を説明する概略のフロー図である。
以下、本発明の実施の形態(以下実施形態という)について、図面に基づいて説明する。
図1は実施形態である人物同定・検索システム500の概念を説明するための模式図である。本システムは、複数のフレームに亘り移動物体を撮像した時系列画像から当該移動物体の照合に用いる物体特徴量を抽出する画像処理装置であって、移動物体として人物を処理対象とする。本システムは、人物の物体特徴量(人物特徴量)をフレームごとに1つずつ抽出するのではなく、監視カメラ(以下単にカメラと称する)の撮像領域内で人物を追跡して得られた時系列画像(追跡系列)から1つの人物特徴量を生成する。追跡系列は各カメラが撮影した映像の各フレーム内において人物が現れた領域(人物領域)の画像(物体像。以下、人物像と称する)からなる。図1において、追跡系列510は或るカメラにより撮影された未知の人物の人物像からなる追跡系列である。例えば追跡系列510は互いに異なる時刻の人物像511,512を含んでいる。一方、別のカメラで撮影された映像からは追跡系列520として複数の追跡系列521,522が得られている。追跡系列521,522は互いに異なる人物を注目移動物体とする追跡処理で生成される。人物同定・検索システム500は、未知の人物の追跡系列510を入力されると、追跡系列520として記憶部に蓄積されている複数の追跡系列それぞれに対応する人物の中から人物特徴量が最も似ている人物を検索する。
人物同定・検索システム500は、各カメラの撮像領域において追跡された人物の人物特徴量を作成する人物情報生成装置1と、作成された人物特徴量同士を比較して同一人物を検索する人物同定装置2とを含んで構成される。以下、人物情報生成装置1及び人物同定装置2をそれぞれ説明する。
[人物情報生成装置1の構成]
図2は人物情報生成装置1の概略の構成を示すブロック図である。人物情報生成装置1は入力部10、信号処理部12及び記憶部14から構成される。
入力部10は複数のカメラ、または各カメラの映像を記録したDVR(Digital Video Recorder)などの記録装置であり、信号処理部12に接続される。
信号処理部12はCPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置を用いて構成され、入力部10及び記憶部14に接続される。信号処理部12は記憶部14からプログラムを読み出して実行し、人物追跡部120、色補正部122、セグメント特徴量生成部124及び人物特徴量生成部126等として機能する。
人物追跡部120は入力部10から得られた各カメラの映像それぞれから人物ごとの追跡系列を生成する。具体的には人物追跡部120は背景差分処理及び追跡処理を用いて各映像に対して各人物の人物領域の抽出及び各人物の追跡を行い、人物ごとに当該人物の追跡系列を構成する各フレームに対応する元映像のフレーム番号及び当該フレームにおける当該人物の人物領域を表すマスク画像を記憶部14の人物情報140に格納する。
色補正部122はカメラ間の色の違いを抑制することを目的として追跡系列を色補正する。これはヒストグラム平坦化処理などの既存の技術によってなされる。
人物特徴量を作成する処理は追跡系列に対して行う2段階の処理から構成され、第1段階としてフレームごとの処理が行われ、第2段階として、第1段階でフレームごとに得られた情報を追跡系列ごとにまとめる処理が行われる。
セグメント特徴量生成部124(物体像分割部)は人物特徴量作成の上記第1段階を行う。セグメント特徴量生成部124は、追跡系列の各フレームにおける人物像を互いに輝度特徴が類似する近傍画素からなる複数の領域(物体像断片、以下、セグメント)に分割し、各セグメントの輝度特徴量及び各セグメントが分割元の人物像において占める占有場所の情報を含む幾何特徴量を当該セグメントの特徴量(セグメント特徴量)として抽出する。
セグメント特徴量生成部124は各人物像に対して、当該人物像を構成する画素ごとにその色及びXY座標からなる特徴量ベクトルを生成して、これら画素ごとの特徴ベクトルをクラスタリングすることにより領域分割を行う。クラスタリング法はミーンシフト(Mean Shift)法又はクイックシフト(Quick Shift)法などの各種クラスタリング法を用いることができる。別の実施形態ではクラスタリングに代えて領域成長法、分割統合法など各種領域分割法を用いることができる。またこの例では各画素の色を輝度特徴としているが別の実施形態では各画素の濃淡値、各画素を中心とする局所領域の輝度勾配ヒストグラムなどを輝度特徴とすることもできる。また輝度特徴の類似性は輝度特徴の距離、類似度又は分散などを尺度として判定することができる。
セグメント特徴量生成部124は、各セグメントの輝度特徴量として当該セグメントを構成する画素の代表輝度値を抽出し、各セグメントの幾何特徴量として当該セグメントの代表位置と人物像において当該セグメントが占める面積を抽出する。具体的には、セグメント特徴量生成部124は輝度特徴量としてセグメントを構成する画素のLab表色系での平均画素値、代表位置としてセグメントを構成する画素の平均座標値(重心)、面積として人物像全体の画素数に対するセグメントの画素数の割合をそれぞれ算出する。各セグメントが分割元の人物像において占める占有場所の情報は、当該セグメントの位置と面積で構成している。
別の実施形態では、平均画素値に代えて最頻画素値又は中央画素値を代表輝度値とすることもでき、その画素値をRGB表色系、HSV表色系又は濃淡値とすることもできる。また別の実施形態では、平均座標値に代えてセグメントを近似した図形の重心座標又は上記クラスタリングにより得られるクラスタ中心の座標を代表位置とすることもできる。また別の実施形態では、代表位置と面積に代えてセグメントの領域そのもの又はセグメントの近似図形を占有場所の情報とすることもできる。
ここで、実世界での人物とカメラとの相対的な位置関係に応じて、各カメラの映像から抽出された人物像の大きさや傾きには違いが生じる。また、この違いはフレーム間でも生じる。人物特徴量は人物の部位ごとの特徴を表現するものなので、その元となるセグメント特徴量は、これらの違いに対する正規化を行って作成することが好適である。そこでセグメント特徴量生成部124は以下の正規化を行ってから幾何特徴量を算出する。例えば、人物像を構成する画素のフレームにおける座標から、人物像を構成する画素の平均座標及び、人物像の主軸及び当該主軸に直交する軸を計算する。なお、これら軸の情報は各軸の向きを示す単位ベクトルで表される。セグメント特徴量生成部124は、人物像を構成する各画素のフレームでの座標から、人物像の平均座標を減算することにより、平均座標を始点とし当該画素を終点とするベクトルを求め、当該ベクトルを各軸に射影することによって、人物像の中心を基準とした位置座標を求める。これにより人物像の傾きが正規化される。また、人物像の大きさについては、例えば、主軸方向の寸法を一定に揃えるように、人物像の中心を基準とした位置座標をスケーリングする。
セグメント特徴量生成部124はこのようにして各人物の追跡系列中の各フレームでセグメント特徴量を生成し、セグメント特徴量生成部124は算出されたセグメント特徴量を、対応する人物ID及びフレーム番号と紐付けて人物情報140に格納する。
人物特徴量生成部126は物体像断片グループ生成部及び特徴量生成部としての機能を有し、人物特徴量作成の上記第2段階を行う。人物特徴量生成部126は、注目する人物の追跡系列中の各フレームについてセグメント特徴量生成部124が生成したセグメント特徴量を時間方向にまとめる処理(クラスタリング処理)を行う。すなわち、人物特徴量生成部126は物体像断片グループ生成部としての機能により、注目する人物についてフレーム間でセグメント特徴量、すなわちセグメントの輝度特徴量及び幾何特徴量を比較して、輝度特徴量と幾何特徴が共に類似するセグメントからなるクラスタ(断片グループ)を生成する。時間頻度の高い部位に対応するクラスタの規模は大きくなり、一方、時間頻度の低い部位、又は人物像に混入した背景画素などのノイズに対応するクラスタの規模は小さくなる。前者の方が人物特徴量として安定しており照合に有用である。クラスタを生成した人物特徴量生成部126は特徴量生成部としての機能により、クラスタのうちその規模に応じた重み(安定性評価値)が所定値以上であるものに基づいて人物特徴量(画像特徴量)を定める。
図3、図4は人物特徴量生成部126によるクラスタリング処理を説明する模式図である。図3は或る人物についての追跡系列の模式図であり、人物像511,512は2時刻のフレームから抽出され、それぞれセグメント特徴量生成部124により複数のセグメントに分割されている。実際には、追跡系列はより多くの時刻の人物像を含み得るが、ここでは説明を簡単にするため2時刻の人物像だけにしている。人物特徴量生成部126はセグメント特徴量生成部124により得られる、追跡系列を構成する全人物像の全セグメントのセグメント特徴量を対象としてクラスタリング処理を行う。図4は、クラスタリング対象のセグメント特徴量とクラスタリング結果を示す模式図であり、図3に示す追跡系列についての例を示している。セグメント特徴量のうち3次元の色空間座標(代表輝度に対応)及び2次元の位置座標(代表位置に対応)は5次元の特徴ベクトルを構成するが、図4では図示の都合上、色については1次元に簡略化し、当該特徴ベクトルを3次元空間内での位置で表現している。
図4では、人物像511の各セグメントから得られたセグメント特徴量を斜線の円(円530〜536)で表し、また人物像512の各セグメントから得られたセグメント特徴量を白塗りの円(円540〜546)で表している。各セグメントの色及び位置座標を表す特徴ベクトルは座標原点を始点とし、各円の中心座標を終点とする。また、円の大きさがセグメントの面積割合を表している。具体的には、円530及び円540はそれぞれ人物像511及び人物像512から得られた頭部付近のセグメントの特徴量である。また、円531及び円541は胴体あたりのセグメントの特徴量、円532及び円542は下半身上部のセグメントの特徴量、円533,543,545,535は太ももあたりのセグメントの特徴量、円534,544,536,546は足あたりのセグメントの特徴量である。
人物特徴量生成部126はこれらのセグメント特徴量をクラスタリング処理によりまとめる。その際に、セグメントの大きさを考慮してクラスタリングする。クラスタリングした結果、図4にてセグメント特徴量を囲む点線で示す9つのクラスタができる。
例えば、足の部分のように変動が多いところは、まとまらず1つのメンバからなるクラスタが複数作成される。ここで、例えば、2人の人物が黒の長ズボンと黒の半ズボンをはいていた場合に、それらの区別には足の部分の情報が重要となる。変動が多いところは使用しないようにする従来の方法では、変動する部分に重要な情報がある場合に区別が難しくなる。これに対し、本発明はセグメントの代表位置に加えてその大きさを考慮することでフレーム間で重なりを有するセグメントの特徴量をまとめる。すなわち、多少の位置ずれを許容しながら物体の各部位の特徴量をまとめる。このことによって可動部の情報を残しておくことが可能となる。
クラスタリングはミーンシフト法又はクイックシフト法などの既存の方法を用いて行う。本実施形態ではミーンシフト法を用いてクラスタリングを行う。例えば、特徴ベクトルの密度関数f(x)はカーネル関数をガウシアンカーネルとした場合のカーネル密度推定法を用いて次のように表せる。
Figure 0005940862
ここでxは3次元の色空間座標及び2次元の位置座標からなる5次元のベクトルであり、nはクラスタリングの対象となるセグメント数であり、追跡系列内の全セグメント数がこれに当たる。r,x及びSはそれぞれi番目のセグメント(i=1〜n)の重み、特徴ベクトル、及び共分散行列である。共分散行列Sは全セグメントに共通に予め定めたものとすることもできる。dは次元数であり本実施形態ではd=5である。
この密度関数f(x)に対するミーンシフト法は次式を用いてx (t+1)を逐次更新する。ここで初期値x (0)はx (0)=xである。
Figure 0005940862
更新後のx (t+1)が更新前のx (t)と変わらなくなったら収束したと判断して、更新を停止する。この停止した際の点x'=x (t+1)は密度関数f(x)の局所最大に収束したことになり、そのときの局所最大値はf(x')である。この手順を各セグメントの特徴ベクトルに対して行い、収束する点x'(i=1〜n)を求める。収束した点x'が近いもの(ある一定の距離範囲に含まれるもの)は同じ局所最大に収束したと考えられるので同じクラスタに所属すると判断する。
人物特徴量生成部126はクラスタリング後、人物特徴量として各クラスタについて、代表輝度値、代表位置及び重み(安定性評価値)を計算する。人物特徴量生成部126は各クラスタの代表輝度値として、当該クラスタに属するセグメントの代表色の平均値を算出する。当該平均値は各セグメントの面積割合を重みとした重み付き平均である。クラスタの代表輝度値は、セグメント特徴量と同様、Lab色空間での3次元の座標値で表される。人物特徴量生成部126はクラスタの代表位置として、当該クラスタに属するセグメントの位置座標についての重み付き平均値を算出する。当該平均値算出における重みは各セグメントの面積割合である。クラスタの代表位置はセグメント特徴量と同様、X,Y座標の2次元の座標値で表される。人物特徴量生成部126は各クラスタの重みとして当該クラスタに属するセグメントの面積割合の合計に比例する値を算出する。この重みはスカラー量であり、全クラスタについての当該重みの合計が1になるように正規化される。
上述の人物特徴量の計算では、クラスタcの重みwは次式で表されるクラスタcに所属するメンバの重み合計としている。
Figure 0005940862
すなわち重みwはメンバであるセグメントの数が多いほど大きく、またセグメントの面積が大きいほど大きくなり、セグメントの数が少ないほど小さく、またセグメントの面積が小さいほど小さくなる。
この場合、クラスタcの代表特徴ベクトルμは上述した代表色及び位置座標それぞれの重み付き平均値を要素とするベクトルで与えられる。すなわち、当該代表特徴ベクトルμはクラスタcに所属するメンバの特徴ベクトルについての次式で表される重み付き平均となる。
Figure 0005940862
なお、クラスタの重みは上述したように最終的にはその合計が1になるように正規化される。
人物特徴量生成部126は正規化したクラスタの重み(安定性評価値)が予め定めた閾値以下のものを取り除く。これにより、多くのフレームに共通して現れる人物特徴量、すなわちアピアランス変動の影響を受けにくい人物特徴量を生成できる。またこれにより、人物抽出時に誤って混入した背景物に起因するクラスタを排除することもできる。つまりメンバであるセグメントの数が多いクラスタ、メンバであるセグメントの面積が大きいクラスタを人物特徴量として残す。数が多いクラスタは大きさ考慮により許容される位置ずれの範囲で時間安定性が高く同一人物の異なる時系列画像間にも現れやすい部位に対応するクラスタである。また面積の大きいクラスタは位置ずれに対する安定性が高く(重なり度合いが高く)同一人物の異なる時系列画像間で一致を得やすい部位に対応するクラスタである。よって、これらのクラスタを残すことで動きのある部位を含めてアピアランス変動の影響を受けにくい人物特徴量を生成できる。
重みの小さいクラスタの除去後、残った全クラスタの重みの合計が1になるように再度、重みを正規化する。この再度の正規化を行った後、人物特徴量生成部126は、各クラスタの特徴量(代表輝度値、代表位置)及び重みを、対応する人物識別子(人物ID)と紐づけて人物情報140に記憶する。これにより、各人物の追跡系列に対して1つの人物特徴量が作成される。
記憶部14は例えば、ハードディスクドライブ(Hard disk drive:HDD)、RAM(Random Access Memory)等の記憶装置からなり、人物情報140を格納する他、計算用の一時記憶領域(図示せず)として信号処理部12により利用される。また、記憶部14は信号処理部12で用いられる各種プログラムや各種データを記憶し、信号処理部12との間でこれらの情報を入出力する。
人物情報140には各人物の追跡系列について以下の情報が保存される。
(1)フレーム番号ごとの人物領域(マスク画像)
(2)フレーム番号ごとのセグメント特徴量
(3)人物特徴量
ここで、上記(1)の情報は人物追跡部120により生成され、(2)の情報はセグメント特徴量生成部124により生成され、(3)の情報は人物特徴量生成部126により生成される。
図5は作成された人物特徴量の例を示す模式図であり、上述の人物情報140に格納される(3)の情報を示している。人物情報140には、人物IDごとに当該人物の人物特徴量として、追跡系列から得られた各クラスタの特徴量及び重みがクラスタIDを付されて格納される。例えば、図5において、人物IDがPk(kは自然数)でクラスタIDがj(jは自然数)の代表輝度値はC Pk、代表位置はX Pk、重みはW Pkで表されている。
上述の構成では、人物特徴量生成部126は、物体像断片の輝度特徴量である代表輝度値(色)と当該物体像断片の幾何特徴量の1つである代表位置とを要素とする特徴ベクトルを物体像に対する当該物体像断片の幾何特徴量のもう1つである面積割合で重み付けし、当該重み付けした特徴ベクトルをクラスタリングすることにより追跡系列における物体像断片グループを生成している。
ここで物体像断片グループは上述の構成で用いたものに限定されず、追跡系列中の各フレームの人物像から生成された物体像断片群であって、輝度特徴量及び幾何特徴量が共に類似する物体像断片からなるものを物体像断片グループとすることができる。
例えば、代表輝度値の差が所定値以下であり、且つ重複面積の割合が所定値以上である物体像断片をグループにまとめることができる。この場合の重複面積はXY座標上でセグメントそのものをフレーム間で重ね合わせることで求めることができる。なお、この場合は幾何特徴として形状も考慮していることになる。
また、クラスタの重みについても上述したものとは異なるものを用いることができる。例えば、クラスタcの重みwとして次式に示す、クラスタcの代表特徴ベクトルにおける密度関数の値を用いることもできる。
Figure 0005940862
この場合のクラスタcの代表特徴ベクトルμは次式に示す、クラスタcに所属するメンバの特徴ベクトルの収束点x'の平均で与えられる。ここでmはクラスタcに所属するメンバの個数である。
Figure 0005940862
すなわち上式の重み(安定性評価値)は、前述したセグメントの数と面積に加えて、メンバであるセグメントの間の代表位置が近いほど大きく、セグメントの間で輝度特徴量が似ているほど大きくなる。代表位置が近いセグメントの組が多いクラスタは位置ずれに対する安定性が高く(重なり度合いが高く)同一人物の異なる時系列画像間で一致を得やすい部位に対応するクラスタである。輝度特徴量が似ているセグメントの組が多いクラスタは照明変動やしわ等による陰影に対する安定性が高く同一人物の異なる時系列画像間で一致を得やすい部位に対応するクラスタである。よって、これらのクラスタを残すことで動きのある部位を含めてアピアランス変動の影響を受けにくい人物特徴量を生成できる。
また、クラスタの重みはクラスタの規模を表すさらに別の値を用いて定義してもよい。例えば、クラスタを構成するセグメント同士の重なりの度合いに応じて重みを設定することができる。セグメント同士の重なりの度合いは例えば、クラスタ内で互いに重なりを有するセグメント対の数や、重なりの面積の和、又はクラスタ内のセグメントの面積和に対する重なり面積の比の値などで表すことができる。セグメント同士の重なりの度合いは、クラスタを構成するセグメントの数が多いほど大きいことが期待でき、クラスタを構成するセグメントの面積が大きいほど大きいことが期待できる。またセグメント相互が人物像内で接近している、具体的には人物像の中心を基準とした位置座標での代表位置(重心など)間の距離が小さいほど、セグメント同士の重なりの度合いは大きいことが期待できる。よって、例えば、クラスタを構成するセグメントについてその面積が大きいほど重なりの度合いを大きく算定したり、代表位置間の距離が小さいほど重なりの度合いを大きく算定したりすることができる。そして、セグメント同士の重なりの度合いが大きいほどクラスタの重みを大きく設定することができる。なお、このセグメント同士の重なりの度合いを定めるに際して、重なりの面積や代表位置間の距離は上述した正規化した人物像に基づいて算出することが好適である。
また、人物特徴量に用いるクラスタを取捨選択する判定は、重みを単純に閾値判定する以外にも以下に示すような基準を超えて高いことを以て判定することができる。すなわち、例えば、各クラスタの重みを降順にソートして当該順に順次重みを累積し、累積重み合計が予め定めた閾値を超えた以降のクラスタを取り除く判定とすることができる。また、例えば、全クラスタのメンバ数合計に対するメンバ数の割合が予め定めた割合以下のクラスタを取り除く判定とすることができる。
[人物情報生成装置1の動作]
図6は人物情報生成装置1の動作を説明する概略のフロー図である。
人物情報生成装置1が動作開始すると入力部10は映像の各フレームを順次、信号処理部12に入力し、信号処理部12は入力ごとにループ処理を行う。
入力部10より新たなフレームが入力されると人物追跡部120は、現フレームから人物像を抽出し(ステップS10)前フレームまでの人物との間で対応づけを行う(ステップS20)。
色補正部122は現フレームの人物像の色補正を行う(ステップS25)。セグメント特徴量生成部124は色補正後の人物像を領域分割してセグメントを生成し(ステップS30)、各セグメントのセグメント特徴量を抽出する。さらに、当該セグメント特徴量を、対応する人物ID及び現フレームのフレーム番号と紐付けて記憶部14に格納する。(ステップS40)。
追跡を終了した人物が居る場合(ステップS50にてYESの場合)はステップS60に進み、そうでない場合(ステップS50でNOの場合)は新たに入力されるフレームに対してステップS10〜S40の処理を繰り返す。
人物特徴量生成部126は追跡終了人物の各フレームに対応するセグメント特徴量を人物情報140から読み込み(ステップS60)、セグメント特徴量のクラスタリングを行う(ステップS70)。その後、重みが予め定めた閾値以下である低頻度クラスタを除去した後、残った全クラスタの重みの合計が1になるように正規化し、得られた追跡終了人物についての人物特徴量を記憶部14の人物情報140に追加して(ステップS80)、ステップS10に戻る。
人物情報生成装置1は、複数フレームに亘る同一人物の像を画素単位で比較するのではなく、人物ごとの色分布に応じた大きさ、色、位置を有するセグメント単位で比較し、時間安定性と位置ずれ安定性が高いセグメントから人物特徴量を生成するので、動きがある部位からもアピアランス変動の影響を受けにくい移動物体の特徴量をより多く抽出でき、移動物体の照合精度が向上させることが可能となる。
[人物同定装置2の構成]
図7は、人物同定装置2の概略の構成を示すブロック図である。人物同定装置2は入力部20、信号処理部22、記憶部21及び表示部23から構成される。既に述べたように人物同定装置2は、人物情報生成装置1により作成された人物特徴量を用いて同一人物を検索同定処理を行う。本実施形態では、ユーザが或るカメラ(以下、カメラAとする)の画像に現れた人物について検索を要求し、人物同定装置2が他のカメラ(以下、カメラBとする)で撮影された人物特徴量群から当該人物を検索するものとする。
入力部20はキーボードやマウスなどの入力装置であり、信号処理部22と接続され、ユーザが検索したい人物を選択したり、検索するデータベースを指定したりする時などに用いられる。
記憶部21は記憶部14と同様、HDD等の記憶装置からなり、人物情報210A,210Bを格納する他、計算用の一時記憶領域(図示せず)として信号処理部22により利用される。また、記憶部21は信号処理部22で用いられる各種プログラムや各種データを記憶し、信号処理部22との間でこれらの情報を入出力する。
人物情報210A,210Bは、人物情報生成装置1における人物情報140と同様のものであり、人物情報生成装置1によって予め作成されている。ここで、人物情報210Aの内容は、カメラAの映像を用いて人物情報生成装置1で生成された人物情報140であり、カメラAで撮影された複数人物の人物特徴量、追跡系列、マスク画像を格納している。また人物情報210Bの内容は、カメラBの映像を用いて人物情報生成装置1で生成された人物情報140であり、カメラBで撮影された複数人物の人物特徴量、追跡系列、マスク画像を格納している。なお、本実施形態ではカメラが2台の場合で説明しているが、カメラが2台より多い場合はカメラと同じ数の人物情報210が記憶部21に格納される。
信号処理部22は信号処理部12と同様、CPU等の演算装置を用いて構成され、入力部20、記憶部21及び表示部23に接続される。信号処理部22は記憶部21からプログラムを読み出して実行し、人物特徴量取得部220、距離計算部222、対応付け部224及び表示処理部226等として機能する。
人物特徴量取得部220は入力部20から検索要求された人物(以下、クエリー(query)と称する)の人物特徴量を記憶部21から読み込む。また、人物特徴量取得部220は入力部20から照合相手としてカメラ単位で指定された複数の人物(以下、データベース(DB:data base)と称する)の人物特徴量を記憶部21から読み込む。そして、人物特徴量取得部220は検索対象や照合相手として指定された人物の各クラスタの特徴量と重みとをペアにしたものを人物情報210(210A,210B)から読み込み、距離計算部222に渡す。
距離計算部222は与えられた2人の人物特徴量の距離(どれだけ似ていないかを表す値)を計算する。距離の計算には既存技術であるEMD(Earth Mover's Distance)を用いる(Y. Rubner, C. Tomasi, and L. J. Guibas. A Metric for Distributions with Applications to Image Databases. Proceedings of the 1998 IEEE International Conference on Computer Vision, 1998, pp. 59-66)。計算された距離値は記憶部21の一時記憶領域に記憶する。
対応付け部224は、データベース中の人物のうち距離計算部222により計算された距離が閾値以下で、且つ最小となる人物をクエリーに対応付ける。ここで、閾値以下の人物がない場合は該当者なしとする。
表示処理部226は対応付け部224によって対応付けられた人物の追跡系列を人物情報210から読み出して表示部23に表示する。
表示部23は検索結果などを表示するディスプレイなどから構成される。
なお、人物情報生成装置1及び人物同定装置2を一体の人物同定・検索システム500として構成する場合、信号処理部12及び信号処理部22は共通の演算装置で構成でき、また記憶部14及び記憶部21も共通の記憶装置で構成できる。
[人物同定装置2の動作]
図8は人物同定装置2の動作を説明する概略のフロー図である。
ユーザーは入力部20を操作して、カメラAの画像に写っている人物をクエリーとして選択し(ステップS110)、また、対応付けを行いたいカメラとしてカメラBを選択する(ステップS120)。なお、対応付けを行いたいカメラの選択は照合相手のデータベースを選択することに相当する。
人物特徴量取得部220は、クエリーの人物特徴量をカメラAに対応する人物情報210Aから読み込み、またデータベースの人物特徴量をカメラBに対応する人物情報210Bから読み込む(ステップS130)。
人物特徴量取得部220はデータベースの人物の中でクエリーとの距離計算を行っていない人物を1人選択し、選択した人物の人物特徴量とクエリーの人物特徴量を距離計算部222へ与える(ステップS140)。距離計算部222は人物特徴量取得部220から与えられたクエリーの人物特徴量とデータベースから選択された人物特徴量との距離を計算し、当該距離を記憶部の一時記憶部に人物IDと共に保存する(ステップS150)。
人物特徴量取得部220及び距離計算部222はデータベース中の全ての人物特徴量との距離計算が終了するまで(ステップS160にてNOの場合)ステップS140,S150の処理を繰り返し、全ての人物との距離計算が終了した場合(ステップS160にてYESの場合)ステップS170に進む。
対応付け部224は、計算した距離の最小値及びその最小値を与える照合相手の人物IDを求める(ステップS170)。そして、距離の最小値が閾値以下の場合(ステップS180でYESの場合)、クエリーと距離の最小値に対応する人物IDとを対応付ける(ステップS190)。一方、最小距離が閾値以下でない場合(ステップS180でNOの場合)は、クエリーに対応する人物はカメラBに写っていないと判断する。
表示処理部226は、対応付け結果に基づきクエリーの画像とカメラBの対応付けられた人物の追跡系列とを並べて表示部23に表示させたり、対応する人物無しを表す表示などを表示部23に表示させたりする(ステップS200)。
1 人物情報生成装置、2 人物同定装置、10,20 入力部、12,22 信号処理部、14,21 記憶部、23 表示部、120 人物追跡部、122 色補正部、124 セグメント特徴量生成部、126 人物特徴量生成部、140,210 人物情報、220 人物特徴量取得部、222 距離計算部、224 対応付け部、226 表示処理部、500 人物同定・検索システム、510,520 追跡系列、511,512 人物像。

Claims (5)

  1. 複数フレームに亘り移動物体を撮像した時系列画像から当該移動物体の照合に用いる物体特徴量を抽出する画像処理装置であって、
    前記各フレームにおける注目移動物体の物体像を互いに輝度特徴が類似する近傍画素からなる複数の物体像断片に分割する物体像分割部と、
    前記フレーム間で前記物体像断片の前記輝度特徴及び前記物体像断片の前記物体像における占有場所の情報を含む幾何特徴を比較して、前記輝度特徴及び前記幾何特徴が共に類似する前記物体像断片からなる複数の断片グループを生成する物体像断片グループ生成部と、
    前記各断片グループに対して、当該断片グループを構成する前記物体像断片の数に応じた安定性評価値を算出し、当該安定性評価値が所定基準を超えて高い断片グループの前記輝度特徴及び前記幾何特徴から前記物体特徴量を生成する特徴量生成部と、
    を備えたことを特徴とする画像処理装置。
  2. 請求項1に記載の画像処理装置において、
    前記特徴量生成部は、前記断片グループを構成する前記物体像断片の前記占有場所の面積が大きいほど当該断片グループの前記安定性評価値を高く算出すること、を特徴とする画像処理装置。
  3. 請求項1又は請求項2に記載の画像処理装置において、
    前記特徴量生成部は、前記断片グループを構成する前記物体像断片間にて前記占有場所の位置が近いほど当該断片グループの前記安定性評価値を高く算出すること、を特徴とする画像処理装置。
  4. 請求項1から請求項3のいずれか1つに記載の画像処理装置において、
    前記特徴量生成部は、前記断片グループを構成する前記物体像断片間にて前記輝度特徴が類似しているほど当該断片グループの前記安定性評価値を高く算出すること、を特徴とする画像処理装置。
  5. 請求項1から請求項4のいずれか1つに記載の画像処理装置において、
    前記物体像断片グループ生成部は、前記物体像断片内の画素値を代表する代表画素値と当該物体像断片の代表位置とを要素とする特徴ベクトルを前記物体像に対する当該物体像断片の面積の割合で重み付けし、当該重み付けした特徴ベクトルをクラスタリングすることにより前記断片グループを生成すること、を特徴とする画像処理装置。
JP2012080567A 2012-03-30 2012-03-30 画像処理装置 Active JP5940862B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012080567A JP5940862B2 (ja) 2012-03-30 2012-03-30 画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012080567A JP5940862B2 (ja) 2012-03-30 2012-03-30 画像処理装置

Publications (2)

Publication Number Publication Date
JP2013210843A JP2013210843A (ja) 2013-10-10
JP5940862B2 true JP5940862B2 (ja) 2016-06-29

Family

ID=49528614

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012080567A Active JP5940862B2 (ja) 2012-03-30 2012-03-30 画像処理装置

Country Status (1)

Country Link
JP (1) JP5940862B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016051277A (ja) * 2014-08-29 2016-04-11 株式会社ニコン 被写体検索装置、被写体検索方法、および被写体検索プログラム
JP6690090B2 (ja) * 2016-05-10 2020-04-28 富士通株式会社 特徴量比較プログラム、情報処理装置、および特徴量比較方法
JP6642261B2 (ja) * 2016-05-16 2020-02-05 株式会社リコー 情報処理装置、方法、プログラムおよび記録媒体
JP6958020B2 (ja) * 2017-06-22 2021-11-02 富士通株式会社 画像解析プログラム、画像解析装置、及び画像解析方法
WO2019026919A1 (ja) * 2017-08-02 2019-02-07 ナーブ株式会社 画像処理システム、画像処理方法、及びプログラム
US11200683B2 (en) * 2017-08-22 2021-12-14 Mitsubishi Electric Corporation Image processing device and image processing method
JP6829412B1 (ja) * 2019-11-11 2021-02-10 三菱電機株式会社 画像処理装置、画像処理システム、画像処理方法、及び画像処理プログラム
JP6764012B1 (ja) * 2019-11-19 2020-09-30 株式会社ARISE analytics 画像処理装置、画像処理方法、及びプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5318664B2 (ja) * 2009-05-28 2013-10-16 セコム株式会社 対象物検知装置

Also Published As

Publication number Publication date
JP2013210843A (ja) 2013-10-10

Similar Documents

Publication Publication Date Title
JP5940862B2 (ja) 画像処理装置
CN104573614B (zh) 用于跟踪人脸的设备和方法
US8824781B2 (en) Learning-based pose estimation from depth maps
JP5873442B2 (ja) 物体検出装置および物体検出方法
JP5837508B2 (ja) 姿勢状態推定装置および姿勢状態推定方法
US9183431B2 (en) Apparatus and method for providing activity recognition based application service
US20060269145A1 (en) Method and system for determining object pose from images
US20110019920A1 (en) Method, apparatus, and program for detecting object
CN103679142B (zh) 一种基于空间约束的目标人体识别方法
JP2010176380A (ja) 情報処理装置および方法、プログラム、並びに記録媒体
US20220383653A1 (en) Image processing apparatus, image processing method, and non-transitory computer readable medium storing image processing program
JP2017016593A (ja) 画像処理装置、画像処理方法、及びプログラム
CN106909890A (zh) 一种基于部位聚类特征的人体行为识别方法
JP2011113313A (ja) 姿勢推定装置
JP2013210844A (ja) 画像照合装置
KR101326691B1 (ko) 지역적 특징의 통계적 학습을 통한 강건한 얼굴인식방법
JP2013210845A (ja) 移動物体照合装置
JP2011113398A (ja) 姿勢推定装置
CN110111368B (zh) 一种基于人体姿态识别的相似移动目标的检测跟踪方法
JP5217917B2 (ja) 物体検知追跡装置,物体検知追跡方法および物体検知追跡プログラム
WO2021235440A1 (ja) 皮膚情報を用いた運動特徴量の取得方法及び装置
JP7374632B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2018165966A (ja) 物体検出装置
Iwashita et al. Gait recognition using shadow analysis
Surendar Evolution of gait biometric system and algorithms-A review

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150311

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160519

R150 Certificate of patent or registration of utility model

Ref document number: 5940862

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250