JP6504711B2 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP6504711B2
JP6504711B2 JP2016065955A JP2016065955A JP6504711B2 JP 6504711 B2 JP6504711 B2 JP 6504711B2 JP 2016065955 A JP2016065955 A JP 2016065955A JP 2016065955 A JP2016065955 A JP 2016065955A JP 6504711 B2 JP6504711 B2 JP 6504711B2
Authority
JP
Japan
Prior art keywords
person
similarity
result
correspondence
detection result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016065955A
Other languages
English (en)
Other versions
JP2017182295A (ja
JP2017182295A5 (ja
Inventor
小林 達也
達也 小林
加藤 晴久
晴久 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2016065955A priority Critical patent/JP6504711B2/ja
Publication of JP2017182295A publication Critical patent/JP2017182295A/ja
Publication of JP2017182295A5 publication Critical patent/JP2017182295A5/ja
Application granted granted Critical
Publication of JP6504711B2 publication Critical patent/JP6504711B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Description

本発明は、カメラから取得される映像の解析によって映像内の人物を追跡する画像処理装置に係り、特に、人物間オクルージョンに対して頑健な人物追跡を可能にする画像処理装置に関する。
カメラから取得される映像の解析によって、映像内の人物を検出・追跡する技術は、所定領域内の人数計測による混雑度調査や、監視対象領域内の不審者検知、店舗内の顧客動線解析等、幅広い分野で必要とされている。
画像中に人物の全身がはっきりと写る場合、人物検出・追跡は比較的容易に実現することが可能である。例えば、特許文献1では、単眼カメラ映像から顔検出技術等を利用して人物候補領域を検出し、登録された人物との同一性を評価することにより、特定の人物の高精度な追跡を実現している。
特許文献2においても、同様にカメラ映像から頭部を検出し、前後のフレームにおける頭部領域の特徴量の関連度を用いて同一人物の追跡を実現している。特許文献3では、カメラ映像から背景差分技術により人物領域を検出し、パーティクルフィルタによって人物の状態を推定しつつ、頭部領域を追跡する技術が開示されている。この技術では、人物の向き等の状態に応じて複数の識別器を使い分けることで、人物の姿勢の変化に頑健な追跡を実現している。
さらに、特許文献4では、背景差分技術とフレーム間差分技術の併用により、移動物体を検出し、椅子等の背景物の移動に対して頑健に人物を追跡する技術が開示されている。この技術では、色ヒストグラム等の画像特徴の類似度の比較によってフレーム間の移動物体の対応付けを行っている。
また、非特許文献1,2には、パーティクルフィルタによる人物領域の追跡中にOnline Boostingによってそれぞれの人物領域固有の特徴量を学習することで、近接する人物動線のIDの入れ替わりを防ぐ技術が開示されている。
しかしながら、実利用シーンにおいては、映像中で複数人物が重なることで遮蔽(オクルージョン)が発生し、遮蔽された人物(頭部)が一定時間(場合によっては長時間)検出されなくなり、人物の追跡が途切れること(ロスト)が起こり得る。
また、同じタイミングに動線の途切れた位置付近で新たな人物が登場した場合、別人であるにも関わらず同一人物と誤認識して追跡を継続し、結果として異なる人物の動線が混合するような問題も起こりうる。
さらに、複数人が重なった人物領域が一人の人物領域として検出/追跡されることで、複数人の特徴量が混合して学習され、オクルージョン解消時の人物動線のIDの入れ替わりが発生する問題も起こりうる。
このような人物間オクルージョンに起因する問題を解消する従来技術として、複数カメラの視差を用いて人物間オクルージョンを解消する手法が存在する。例えば特許文献5では、複数カメラ画像の前景画像から、視体積交差法と呼ばれる手法により、人物領域を三次元的に推定する技術が開示されている。
特許文献6では、複数カメラで個々に追跡した人物動線を統合することにより、追跡の失敗や動線の入れ替わりを防ぐ技術が開示されている。
また、複数カメラを用いずに人物間オクルージョンを解消する手法も提案されている。例えば特許文献7では、連続的な追跡結果からオクルージョンが発生している前景領域(オクルージョン領域)を特定し、オクルージョン領域をセグメンテーションすることにより、個々の人物領域に分離する手法が開示されている。特許文献8には、オクルージョン領域を輝度変化に基づいて領域分割することにより、個々の人物領域に分離し、正確な人数計測を実現する手法が開示されている。
特開2010-257441号公報 特開2010-273112号公報 特開2008-26974号公報 特開2010-176206号公報 特開2014-164525号公報 特開2010-063001号公報 特開2013-206262号公報 特開2014-229068号公報
M. D. Breitenstein, et al. "Online Multiperson Tracking-by-Detection from a Single, Uncalibrated Camera", IEEE Trans. on Pattern Analysis and Machine Intelligence, 2011. Y. Guan, et al. "Multi-person tracking-by-detection with local particle filtering and global occlusion handling", IEEE International Conference on Multimedia and Expo, 2014.
しかしながら、以上述べたいずれの従来技術であっても、低コストで人物間オクルージョン、特に人物同士が完全に重なり合う状況において頑健に追跡を継続することが実現できていない。
特許文献1〜4および非特許文献1,2に開示されている従来の人物追跡技術を用いた場合、人物間オクルージョンによって追跡精度が劣化する課題を解消することができない。これら従来技術では、検出した人物領域を特定の類似度算出により、フレーム間で一対一で対応付けるため、例えば図6に示す様な人物間オクルージョンによって一方の人物が検出されなくなる場合において、一方の人物の追跡に失敗してしまう。
追跡に失敗した人物は、オクルージョンの解消後に追跡を再開できる可能性もあるが、オクルージョン解消前に付近で見た目の類似する人物が検出されると追跡IDが入れ替わる問題が発生する。
ここで、一対一の対応付け(マッチング)とは、前フレームの追跡結果に含まれる人物のうちの一人と、検出結果に含まれる人物領域のうちの一つとを対応付けることを意味する。一対一の対応付けを反復することで、最終的に追跡結果に含まれるM人と、検出結果に含まれる人物領域のうちのM個の領域とを対応付けることが可能である。
対応付けのアルゴリズムとして、貪欲法やハンガリアン法が一般的である。一対一の対応付では、追跡結果中の複数の人物が同じ一つの人物領域と対応付けること(多対一の対応付け)や、逆に、追跡結果中の一人が複数の人物領域と対応付けること(一対多の対応付け)は起こりえない。
一方、特許文献7では、追跡中の人物(過去の追跡結果)と検出結果との間の多対一の対応付けを許容することで、検出結果と類似度の高い複数の追跡中の人物を対応付けることができる。しかしながら、人物間オクルージョン中の人物は当然全身が写っていないため、追跡結果とオクルージョン領域の類似度が下がり、正しく多対一の対応付けができない問題が生じる。
特許文献8は、オクルージョン中の複数の人物が検出された場合に、人物の移動速度の違いに基づいて領域を分割する手法であるため、図6のように遮蔽によってそもそも一方の人物が検出されない場合には対応できない。
特許文献5、特許文献6では、複数のカメラが重複して撮影できない領域について、人物間オクルージョンに対して頑健な人物追跡を実現することが出来ない。また、対象となるシーン中の全領域を複数のカメラが重複して撮影するようにカメラを設置することは、カメラの設置コストの観点から困難である。
本発明の目的は、上記の技術課題をすべて解決し、人物間オクルージョンにかかわらず頑健かつ高精度の人物追跡を実現できる画像処理装置を提供することにある。
上記の目的を達成するために、本発明の画像処理装置は、以下の構成を具備した点に特徴がある。
(1) 映像フレームから所定の指標値が第1閾値を超える領域を人物領域として検出する手段と、過去フレームの追跡結果と人物領域の検出結果とのマッチングを行う手段と、マッチングの結果に基づいて検出結果を追跡結果として更新登録することをフレーム単位で繰り返すことで人物動線を生成する手段とを具備した。
そして、前記マッチングを行う手段が、追跡結果と検出結果との組み合わせごとに第1評価基準に基づく第1類似度を計算する手段と、追跡結果と検出結果との組み合わせごとに前記第1評価基準とは異なる第2評価基準に基づく第2類似度を計算する手段と、最大類似度を与える追跡結果および検出結果の組み合わせから順に、当該最大類似度が第1類似度であれば一対一対応のマッチングとして登録し、第2類似度であれば多対一対応のマッチングとして登録する手段とを具備し、第2評価基準は、人物間オクルージョン中の可能性が高い組み合わせほど第2類似度が高くなるように設定された。
(2) 前記第2評価基準は、人物領域の検出結果が追跡結果を包含する割合が高いほど第2類似度が高くなるように設定した。
(3) 前記登録する手段は、最大類似度を第2類似度として与える検出結果が既に他の追跡結果と一対一対応のマッチングとして登録済みであると当該登録を解消し、前記最大類似度を与える追跡結果および前記登録を解消された追跡結果と前記最大類似度を与える検出結果とを多対一対応のマッチングとして登録するようにした。
(4) 映像フレームから所定の指標値が第1閾値よりも低く第2閾値よりも高い領域を準人物領域として検出する手段と、追跡結果と準人物領域の検出結果との組み合わせごとに前記第2評価基準に基づく第3類似度を計算する手段とを具備した。そして、登録する手段は、最大類似度を第3類似度として与える追跡結果および検出結果の組み合わせを多対一対応のマッチングとして登録するようにした。
(5) 人物動線を生成する手段は、パーティクルフィルタを用いて生成した各人物の現在位置としての複数の現在推定位置のうち、尤度のより高い推定位置を現在位置として採用するようにした。そして、前記尤度として、追跡結果および検出結果の対応関係が、一対一対応であれば第1の指標に基づいて第1尤度を計算する手段、および多対一対応であれば前記第1の指標とは異なる第2の指標に基づいて第2尤度を計算する手段を具備した。
(6) 人物動線を生成する手段は、各人物領域の現在位置として、その足元位置に基づいて計算される尤度が最も高い推定位置を採用し、前記マッチング結果が一対一対応および多対一対応のいずれであるかに応じて尤度の算出方法を異ならせるようにした。
本発明によれば、以下のような効果が達成される。
(1) 追跡結果と検出結果とを両者の類似度に基づいて対応付けるにあたり、評価基準の異なる2つの評価部を設け、その一方(第1類似度評価部)は追跡結果と検出結果とが同一人物である可能性が高いほど高い評価値を出力し、他方(第2類似度評価部)は人物間オクルージョン中であるほど高い評価値を出力するようにしたので、人物間オクルージョン中であるか否かにかかわらず、同一人物の組み合わせであればその類似度を高くできるので、類似度に基づく対応付けを頑健かつ高精度なものとできるようになる。
(2) 第2類似度評価部は、人物間オクルージョン中であるか否かを、追跡結果および検出結果における人物領域の包含関係に基づいて評価するようにしたので、人物間オクルージョンという抽象的な現象を定量的かつ客観的に判断することが可能となり、人物間オクルージョン中の対応付けを高精度に行えるようになる。
(3) フレーム画像から人物領域を検出するための閾値を2段階に設定し、低い閾値(第2閾値)に基づいて検出された準人物領域に関しても第2類似度評価部により人物間オクルージョンの判定が行われるので、人物間オクルージョンを、その態様や程度にかかわらず柔軟に検出できるようになる。
(4) 第1類似度が高く一対一対応のマッチングとして登録済みの検出結果であっても、その後、第2類似度も所定の基準値を超える高さであれば、一対一対応のマッチングを解除し、第1類似度を与える追跡結果および第2類似度を与える追跡結果と共に多対一対応のマッチングとして再登録するので、一方の人物の大部分が他方の人物により遮蔽されるような強い人物間オクルージョンも確実に識別できるようになる。
(5) 人物の現在位置をパーティクルフィルタを用いて推定するにあたり、当該人物が一対一対応および多対一対応のいずれのマッチングとして登録されているかに応じて尤度計算の指標を異ならせるようにしたので、人物の現在位置をより正確に推定できるようになる。
(6) 追跡結果と検出結果とが一対一対応および多対一対応のいずれで対応付けられているのかに応じて、追跡中の人物の現在位置に関する尤度計算を異ならせ、特に多対一対応では統合領域に基づいて現在の足元位置が推定されるので、人物間オクルージョン中の個々の人物の足元位置をより高精度に推定することができる。
本発明の一実施形態に係る画像処理装置の機能ブロック図である。 第2評価基準を説明するための図である。 連結行列M123に基づく貪欲法によるマッチング手順を示したフローチャートである。 マッチング結果の例を示した図である。 本実施形態により得られるマッチング結果の例を示した図である。 本実施形態による動線生成を従来技術と比較した図である。 追跡結果と検出結果との対応関係に応じて追跡中の人物位置に関する尤度計算を異ならせる例を示した図である。
以下、図面を参照して本発明の実施の形態について詳細に説明する。図1は、本発明の一実施形態に係る画像処理装置の機能ブロック図であり、撮像装置から動画像をフレーム単位で取得する画像取得部10と、取得した各フレーム画像から人物領域を検出する人物検出部20と、過去フレームから検出した人物領域を追跡結果として記憶する追跡結果記憶部30と、今回フレームにおける検出結果と前回フレームまでの追跡結果とを比較して人物像の対応付け(マッチング)を行うマッチング部40と、前記マッチング結果に基づいて各人物の現在位置を推定し、人物動線を生成する動線生成部50とを主要な構成とする。
前記画像取得部10が取得するフレーム画像はカメラから取得した撮影シーンのライブ映像であることを想定するが、事前に録画した映像データから取得した画像であっても良い。
本実施形態では、対象となるカメラの内部パラメータ及び外部パラメータが事前にキャリブレーションによって取得されており、基本的に撮影中は変化しないことを想定している。ただし、複数種類のパラメータを事前に用意するか、公知の動的キャリブレーション手法を利用することで、内部パラメータの動的変化(パン・チルト・ズームなどの変化)や移動カメラに適用することも可能である。
人物検出部20は、前記画像取得部10が取得したフレーム画像から人物領域およびその足元位置を検出し、その検出結果D=[d1,d2…dNd]をマッチング部40へ出力する。本実施形態では、各検出結果djが、カメラ画像内で検出されたj番目の人物の人物領域および足元位置により構成される。
足元位置は、撮影シーンを含む三次元空間内の座標で表現され、キャリブレーションによって取得したカメラパラメータを用いて、カメラ画像中のピクセル座標から変換(座標変換)することで取得できる。一般に、三次元空間からカメラ画像への座標変換は「投影」、カメラ画像から三次元空間への座標変換は「逆投影」と呼ばれる。
人物領域の検出は、任意の公知の技術によって実現することが可能である。例えば、特許文献1と同様に、顔識別器等を利用する顔検出技術によって人物の頭部を検出しても良いし、人物識別器等を利用する人物検出技術によって全身の人物領域を検出しても良い。あるいは、特許文献3と同様に、背景差分技術によって動きのある前景領域(人物領域)を抽出しても良い。
足元位置は、カメラ画像中の足元のピクセル座標(例えば、抽出した人物領域の下端の位置)の逆投影で算出できる。あるいは頭部のピクセル座標の逆投影によって頭部の三次元座標を算出し、身長を仮定して足元位置に変換しても良い。あるいは人物領域と足元位置を同時に検出する方法として、三次元空間内に配置した人物モデルの輪郭をカメラ画像に投影し、カメラ画像上で前景領域と類似する輪郭となるように足元位置を調整する方法も適用可能である。
一般に、前景領域には移動中の人物の他にも、扉や窓、移動可能な人工物等が含まれる可能性がある。そのため、人物検出部20は、抽出された前景領域のうち、識別器のスコアや輪郭の類似度評価等の指標値が高い領域のみを検出結果とすることが望ましい。しかしながら、複数の人物が重なり合い、大きな前景領域として統合されて抽出されることで、実際には複数人の人物領域であるにもかかわらず、識別器のスコアや輪郭の類似度評価が下がり、検出結果に含まれないことが起こり得る。
そこで、本実施形態では人物検出部20に、人物領域の検出閾値が異なる2つの検出部(第1検出部20aおよび第2検出部20b)を設け、第1検出部20aは、人物領域を識別する閾値として、概ね全身が写る人物を確実に検出できる第1閾値を採用する一方、第2検出部20bは、オクルージョン中の人物領域であっても準人物領域として検出できるように、前記第1閾値よりも低い第2閾値を採用し、その検出条件を緩和するようにしている。
前記第1検出部20aは、第1閾値に基づいて検出した全ての人物領域d1,d2…dNdを、検出結果D=[d1,d2…dNd]としてマッチング部40へ出力する。前記第2検出部20bは、第2閾値に基づいて検出した全ての準人物領域d' 1',d' 2'… d' Nd'を、検出結果D'=[d' 1',d' 2'… d' dN']としてマッチング部40へ出力する。
本実施形態では、検出結果Dと検出結果D'とで検出結果の重複が許容されておらず、検出結果D'の各検出結果d' j'は、マッチング部40において人物間オクルージョン領域と判定された場合(多対一の対応付けが行われた場合)は追跡結果とマッチングされて利用されるが、追跡結果とマッチングされない場合は、検出結果djの様に「新たな人物」としては検出されることなく除外される。これにより、誤検出を増加させること無く、人物間オクルージョン時の検出率の低下を防ぐことが可能になる。
マッチング部40は、第1類似度評価部40a、第2類似度評価部40bおよびマッチング実行部40cを含む。
第1および第2類似度評価部40a,40bは、異なる評価基準を用いて前フレームの追跡結果における各人物領域ti(以下、単に追跡結果tiと表現する)と今回フレームから検出した各人物領域dj(検出結果dj)との間で固有の類似度評価を行う。マッチング実行部40cは、各評価部40a,40bによる評価結果に基づいて各追跡結果tiと各検出結果djとの対応付けを行う。
前記第1類似度評価部40aは、各追跡結果tiと各検出結果djとの全ての組み合わせに関して第1評価基準に基づく類似度S1(ti,dj)を計算し、次式(1)の第1評価行列M1を構築する。
第1評価基準としては、足元位置の近さ、運動モデルを仮定した各追跡結果tiの足元の予測位置と各検出結果djの足元位置との近さ、人物領域の大きさ、人物領域の画像特徴量の近さ等を組み合わせることで、同一人物である可能性が高いほどスコアが高くなる公知の評価基準の採用を想定しており、例えば特許文献1で採用されている評価基準を採用できる。
第2類似度評価部40bは、各追跡結果tiと各検出結果djとの全ての組み合わせに関して第2評価基準に基づく類似度S2(ti,dj)を計算し、次式(2)の第2評価行列M2を構築する。
第2類似度評価部40bは、追跡結果tiと、人物間オクルージョンによって複数の人物領域が統合された検出結果djとの対応付けを想定している。したがって、第2評価基準としては、図2に一例を示したように、追跡結果tiの領域が検出結果djの領域内に包含されている割合が高いほどスコアがより高くなるような関数を設定する。このとき、第1評価基準では重要視された、人物領域の大きさやその画像特徴量の近さはさほど重要視されない。
たとえば、追跡結果tiの領域Atiが検出結果djの領域Adjに包含される割合[次式(3)の包含率IA]や、運動モデルを仮定した追跡結果tiの予測領域Ati'が検出結果djの領域Adjに包含される割合[次式(4)の包含率IB]等を組み合わせることで、人物間オクルージョンが発生した際にスコアが高くなるような類似度S2(ti,dj)が求められる。
なお、前記人物検出部20において検出結果D'が得られている場合には、前記第2類似度評価部40bは、追跡結果Tと検出結果D'との間でも第2類似度評価を行って類似度S3(ti,d' j')を求める。その場合、第2類似度評価部40bが構築する第3評価行列M3は次式(5)の通りとなる。
以上のようにして、第1類似度を要素とする評価行列M1および第2類似度を要素とする評価行列M2(本実施形態では、さらに評価行列M3)が求まると、マッチング部40では、これらを行方向へ連結して次式(6)の連結行列M123=[M1|M2|M3]を構築し、当該連結行列M123に基づいて各追跡結果tiと各検出結果djとの対応付けを行う。対応付けには種々のアルゴリズムを採用できるが、ここでは貪欲法を例にして説明する。
以下、図3のフローチャートに沿って前記連結行列M123に基づく貪欲法によるマッチング手法を説明する。
ここでは、追跡結果tjがNt個(t1,t2…tNt)、第1検出部20aにより検出されている人物領域の検出結果djがNd個(d1,d2…dNd)、第2検出部20bにより検出されている人物領域の検出結果d' j'がNd'個(d' 1',d' 2'…d' Nd')である場合を例にして説明する。したがって、連結行列M123 の各要素(ti,dj)は、上式(6)に示したように、その列識別子jがj≦Ndであれば評価行列M1に帰属し、Nd<j≦2Ndであれば評価行列M2に帰属し、2Nd<jであれば評価行列M3に帰属することになる。
ステップS1では、連結行列M123から類似度Sの最大値が探索されて今回の最大類似度Smaxとされる。ステップS2では、最大類似度Smaxと所定の類似度下限値Srefとが比較され、Smax<Srefであると今回フレームのマッチング処理を終了し、これまでに得られた対応関係を動線生成部50へ出力する。
これに対して、Smax≧SrefであればステップS3へ進み、最大類似度Smaxが前記評価行列M1の要素(第1類似度)であるか否かが、当該最大類似度Smaxを与える連結行列M123の列番号jmaxに基づいて判断される。
jmax≦Ndであれば、最大類似度Smaxが評価行列M1の要素と判断されてステップS4へ進み、当該最大類似度Smaxを与える追跡結果timaxおよび検出結果djmaxが一対一対応のマッチングとして登録される。
ステップS5では、次式(7)に両矢印で示したように、連結行列M123において前記最大類似度Smaxを与える要素と同一行の全てM123 (imax,*)および同一列の全てM123 (*,jmax)の各類似度が「0」に書き換えられる。
その結果、今回の最大類似度Smaxを与える追跡結果timaxが、今後、DおよびD'に含まれる当該検出結果djmax以外の他の検出結果と対応付けられる可能性が排除される。これに対して、検出結果djmaxに関しては、今後、追跡結果Tに含まれる他の追跡結果と対応付けられる余地が残る。
一方、前記ステップS3において、最大類似度Smaxが評価行列M1の要素(jmax≦Nd)では無いと判断されるとステップS6へ進み、今度は評価行列M2の要素(Nd<jmax≦2Nd)であるか否かが判断される。最大類似度Smaxが評価行列M2の要素(第2類似度)であればステップS7以降へ進み、当該最大類似度Smaxを与える検出結果djmax-Ndのマッチング履歴に基づいて対応付けが行われる。ここで、選択された検出結果djmax-Ndをdmaxと定義する。
すなわち、ステップS7では、最大類似度Smaxを与える検出結果dmaxがいずれかの追跡結果tiと一対一対応のマッチングとして登録済みであるか否かが判定される。例えば、M2(5,3)すなわちM123(5,Nd+3)の要素が最大類似度Smaxとして探索されているとき、M123 (3,3)が既に最大類似度Smaxとして探索済みであり、その追跡結果t3と検出結果d3とが一対一対応のマッチングとして登録済みであればステップS8へ進む。
ステップS8では、当該一対一対応の登録が解消される。ステップS9では、今回の最大類似度Smaxを与える追跡結果および前記解消された追跡結果と、今回の最大類似度Smaxを与える検出結果とが多対一対応のオクージョン関係として登録される。上記の例であれば、今回の最大類似度Smaxを与える追跡結果t5および前記解消された追跡結果t3と、今回の最大類似度Smaxを与える検出結果d3とが、多(t3,t5)対一(d3)対応のマッチングとして登録される。
ステップS10では、次式(8)に示したように、連結行列M123において今回の最大類似度Smaxを与える要素と同一行の全ての要素M123 (imax,*)の各類似度が「0」に書き換えられる。その結果、最大類似度Smaxを与える検出結果timaxがDおよびD'に含まれる他の検出結果と対応付けられる可能性が排除される。
これに対して、前記ステップS7において、最大類似度Smaxを与える検出結果dmaxが一対一対応としては未登録と判断されるとステップS11へ進み、最大類似度Smaxを与える追跡結果timaxおよび検出結果dmaxが多対一対応のマッチングとして登録される。ステップS12では、これ以降、検出結果dmaxが他の追跡結果と一対一で対応付けられることが無いように、次式(9)に示したように、連結行列M123において最大類似度Smaxを与える要素と同一行の全ての要素M123(imax,*)および行列M1の範囲における同一列((jmax-Nd)列)の全ての要素M1(*,jmax-Nd)すなわち要素M123(*,jmax-Nd)の各類似度が全て「0」に書き換えられる。
さらに、最大値を与える要素(imax,jmax)が評価行列M2の要素でもない、すなわち前記評価行列M3の要素(2Nd<jmax)であると判断されるとステップS13へ進み、最大類似度Smaxを与える追跡結果timaxおよび検出結果d' jmax-2Ndが多対一対応のマッチングとして登録される。ここで、d' jmax-2Ndをd' maxと定義する。ステップS14では、次式(10)に示したように、連結行列M123において最大類似度Smaxを与える要素と同一行の全ての要素M123 (imax,*)の各類似度が「0」に書き換えられる。その結果、今回の最大類似度Smaxを与える追跡結果timaxがDおよびD'に含まれる他の検出結果と対応付けられる可能性が排除される。
上記の各処理は、前記ステップS2においてSmax<Srefと判断されるまで、注目する最大類似度Smaxを次に大きい類似度に更新しながら繰り返される。
なお、上記の実施形態では連結行列に第3評価行列M3を含める場合(連結行列M123=[M1|M2|M3])を例にして説明したが、連結行列に第3評価行列M3を含めないのであれば(連結行列M12=[M1|M2])、前記ステップS6,S13,S14の各処理は省略できる。
図4にマッチング結果の例を示す。マッチング結果とは、前フレームまでの追跡結果T=[t1,t2…tNt]と今回クレームにおける検出結果D=[d1,d2…dNd]およびD'=[d' 1',d' 2'…d' Nd']との間の対応付けの情報であり、具体的には以下の5種類である。
(1) 追跡された人物の情報C1であり、一対一で対応付けられた追跡結果tiと検出結果djとの組情報[ti,dj]として表現される。図4の例では追跡結果t1,t2がそれぞれ検出結果d1,d2と対応付けられているので、情報C1は次式(11)で表現される。
(2) 追跡された人物の情報C2であり、オクルージョン領域と判定され、多対一で対応付けられた追跡結果tiと検出結果djとの組情報[ti,dj]の集合として表現される。図4の例では追跡結果t3,t4がいずれも検出結果d' 1と対応付けられているので、情報C2は次式(12)で表現される。
(3) 追跡中に見失った人物の情報Trであり、追跡結果Tの中でいずれの検出結果djとも対応付けられなかった追跡結果tiの集合として表現される。図4の例では全ての追跡結果がいずれかの検出結果と対応付けられているので、情報Trは次式(13)で表現される。
(4) 新規に検出された人物の情報Drであり、検出結果Dの中でいずれの追跡結果tiとも対応付けられずに残った検出結果djの集合として表現される。図4の例では、検出結果d3が相当するので、情報Drは次式(14)で表現される。
(5) 準人物の情報D' rであり、検出結果D'の中でいずれの追跡結果tiとも対応付けられずに残った検出結果d' jの集合として表現される。図4の例では全ての検出結果がいずれかの追跡結果と対応付けられているので、情報D' rは次式(15)で表現される。
図5は、本実施形態により最終的に得られるマッチング結果の例であり、画面内に人物が11人存在し、前フレームの追跡結果T=[t1,t2…t11]が、人物検出部20の第1検出部20aによる検出結果D=[d1,d2,d3,d4]および第2検出部20bによる検出結果D'=[d' 1,d' 2,d' 3]と対応付けられている。
図示の例では、検出結果d' 2,d' 3の各領域は人物間オクルージョンによって複数人物の領域の統合として検出されている。検出結果d' 1については人物間オクルージョンが発生していないものの背景が一部前景として誤検出された結果、複数人物の領域の統合として検出されている。
その結果、情報C1として4回の一対一対応(c1 1,c2 1,c3 1,c4 1)が得られており、情報C2として2回の多対一対応(c1 2,c2 2,c3 2)が得られており、いずれも正しいマッチング結果であることが解る。
動線生成部50は、マッチング部40が出力するマッチング結果に基づいて、カメラ画像における各人物の足元位置を推定し、その人物動線を生成する。追跡結果tiおよび検出結果djのマッチング結果としては、「一対一対応」、「多対一対応」、「残った検出結果」および「残った追跡結果」が与えられる。
本実施形態では、「一対一対応」の追跡結果tiおよび検出結果djの組み合わせに基づいて、追跡結果tiの次フレームの位置が検出結果djの足元位置に更新される。また、「多対一対応」として対応付けられた複数の追跡結果ti(ta,tb…)および検出結果djの組み合わせに基づいて、各追跡結果ti(ta,tb…)の次フレームの位置が検出結果djの足元位置に更新される。
「残った検出結果dj」は、新たな人物として次フレームに追跡結果として登録される。「残った追跡結果ti」は見失った人物とみなされて動線の継続を終了し、次フレームでは追跡結果から除外される。
なお、本実施形態では「残った追跡結果ti」に関する情報も引き続き保持し、その後、その画像特徴が「残った検出結果dj」の画像特徴と類似しているか、あるいは識別器のスコアが所定の基準値よりも高くなると、同一人物とみなして追跡を再開するようにしても良い。その際、空白の動線は補間することができる。このような人物再同定(Person Re-Identification)手法が多数存在し、例えば非特許文献1,2に開示されている。
図6は、本実施形態による追跡結果に基づく動線生成を従来技術と比較した図であり、ここでは、カメラのフレーム画像から同図(a)の検出結果が順次に得られた場合を例にして説明する。
同図(b)の既存手法では、追跡結果tiと検出結果djとが一対一で対応付けられる。その結果、2つの追跡結果が完全に重なり合うフレームが存在すると、一方の人物(一般的には、検出結果との類似度の低い方)が見失われる、いわゆる「ロスト」の状態となる。
その後、人物間オクルージョンが解消すれば、公知の人物認証手法によって追跡が再開されることも期待できるが、同じタイミングで付近に別の人物が検出されると、これが見失った人物と誤認され、異なる人物動線が統合される場合がある。
これに対して、同図(c)に示した本発明の実施形態によれば、複数の追跡結果が一つの検出結果に多対一で対応付けられるので、オクルージョンの発生から解消まで、頑健に個々の人物を追跡することが可能になる。
さらに、本実施形態では評価基準の異なる複数の類似度を参照し、一対一の対応付けと多対一の対応付けとを総合的に評価した対応付けを行うことにより、類似度の高い順に一対一の対応付を優先的に決定する一方、多対一対応の可能性が生じれば先に決定した一対一の対応付を見直すことができる。これにより、一般的な人物追跡と人物間オクルージョンの考慮とを順番に行う構成と比較して、人物識別子(ID)の入れ替わりの少ない正確な追跡が可能になる。
なお、上記の実施形態ではオクルージョン中の人物動線の追跡位置が同じになり、次フレーム以降の追跡でIDが入れ替わり易くなる問題がある。また、人物間オクルージョン中に統合された人物領域から算出された足元位置は一般に誤差が大きく、追跡精度が損なわれる。
このような技術課題を解決するためには、追跡中の人物の現在位置を確率的に計算し、最も尤度の高くなる位置を当該人物の現在位置として動線を更新することが考えられる。非特許文献1,2には、パーティクルフィルタを用いて追跡中の人物の現在の推定位置(パーティクル)を複数生成し、最も尤度の高くなる推定位置(パーティクル)を現在位置として動線を更新する手法が開示されている。
パーティクルの尤度は、対応付けられた検出結果に対する近さや、追跡中の人物画像の画像特徴からオンライン学習した識別器のスコアによって算出されるが、これを本実施形態にそのまま適用すると、人物間オクルージョン中の人物の位置精度が劣化するおそれがある。
そこで、本実施形態では追跡結果と検出結果とが一対一対応および多対一対応のいずれで対応付けられているのかに応じて、追跡中の人物位置に関する尤度計算を異ならせるようにしている。
すなわち、追跡結果と検出結果とが一対一で対応付けられていれば、第1尤度計算部50aが既存方式と同様の手順で各推定位置について第1の尤度を計算し、当該第1の尤度が最も高くなる推定位置を当該人物の現在位置(新たな追跡結果)として動線を更新する。
これに対して、人物間オクルージョンと判定されて追跡結果と検出結果とが多対一で対応付けられていれば、第2尤度計算部50bが第1の尤度とは基準の異なる第2の尤度を各推定位置について計算し、当該第2の尤度が最も高くなる推定位置を現在位置(新たな追跡結果)として動線を更新する。
このような第2の尤度としては、後に詳述するように、各追跡結果について、同一の検出結果に対して人物間オクルージョン中の別の人物の最新の領域と、自身の領域との統合領域を算出し、対応付けられた検出結果の人物領域との類似度SAを尤度として採用することができる。
あるいは、対応付けられた統合領域に対する自身の領域の包含率SBを尤度としても良いし、任意の重みを付けて組み合わせた値SA+αSBを尤度としても良い。他にも、急激な位置変化を避けるための、前フレームからの距離の近さSC等も組み合わせることが可能である。
図7は、一対一で対応付けを行った場合の第1の尤度に基づく足元位置推定[同図(a)]および多対一で対応付けを行った場合の第2の尤度に基づく足元位置推定[同図(b)]の各概念を模式的に示した図である。
同図(a)に示したように、追跡結果t1と検出結果d1とが一対一で対応付けられていると、前記第1尤度計算部50aは、第1の尤度が最も高くなる足元の推定位置p' t1を求め、これを追跡結果t1の現在位置(足元位置)として動線を更新する。
第1の尤度としては、検出結果d1の足元位置pd1と各推定位置との近さや、検出結果d1の領域Ad1と各推定位置に対応する領域At1との重複率等を利用できる。
これに対して、同図(b)に示したように、追跡結果t2、t3と検出結果d2とが多対一で対応付けられていると、第2尤度計算部50bは、追跡結果t2、t3に関して第2の尤度が最も高くなる足元の推定位置p' t2、p' t3を求め、これを各追跡結果t2、t3の現在位置(足元位置)として動線を更新する。
第2の尤度としては、各推定位置p' t2、p' t3に対応する領域A' t2、A' t3の統合領域(A' t2∪A' t3)を算出し、その凸包領域(次式(16))A' c1 2と検出結果d2の領域Ad2との重複率等を利用できる。
このように、本実施形態では追跡結果と検出結果とが一対一対応および多対一対応のいずれで対応付けられているのかに応じて、追跡中の人物の現在位置に関する尤度計算を異ならせ、特に多対一対応では統合領域に基づいて現在の足元位置が推定されるので、人物間オクルージョン中の個々の人物の足元位置をより高精度に推定することができる。
パーティクルフィルタを用いる場合、各パーティクル(人物位置)の尤度は、一対一で対応付けられた人物については第1の尤度で、多対一で対応付けられた人物については第2の尤度で算出しても良い。これによって、オクルージョン中の人物の位置を高精度に推定することが可能になる。
なお、上記の実施形態では連結行列が評価行列M1,M2のみならずM3も含むものとして説明したが、本発明はこれのみに限定されるものではなく、第1類似度を要素とする評価行列M1および第2類似度を要素とする評価行列M2が連結されていれば十分である。
10…画像取得部,20…人物検出部,20a…第1検出部,20b…第2検出部,30…追跡結果記憶部,40…マッチング部,40a…第1類似度評価部,40b…第2類似度評価部,40c…マッチング実行部,50…動線生成部,50a…第1尤度計算部,50b…第2尤度計算部

Claims (9)

  1. 映像フレームから所定の指標値が第1閾値を超える領域を人物領域として検出する手段と、
    過去フレームの追跡結果と人物領域の検出結果とのマッチングを行う手段と、
    前記マッチングの結果に基づいて前記検出結果を追跡結果として更新登録することをフレーム単位で繰り返すことで人物動線を生成する手段とを具備し、
    前記マッチングを行う手段が、
    追跡結果と検出結果との組み合わせごとに第1評価基準に基づく第1類似度を計算する手段と、
    追跡結果と検出結果との組み合わせごとに前記第1評価基準とは異なる第2評価基準に基づく第2類似度を計算する手段と、
    最大類似度を与える追跡結果および検出結果の組み合わせから順に、当該最大類似度が第1類似度であれば一対一対応のマッチングとして登録し、第2類似度であれば多対一対応のマッチングとして登録する手段とを具備し、
    前記第2評価基準は、人物間オクルージョン中の可能性が高い組み合わせほど第2類似度が高くなるように設定されたことを特徴とする画像処理装置。
  2. 前記第2評価基準は、人物領域の検出結果が追跡結果を包含する割合が高いほど第2類似度が高くなるように設定されたことを特徴とする請求項1に記載の画像処理装置。
  3. 前記第1評価基準は、追跡結果と検出結果とが同一人物である可能性が高いほど第1類似度が高くなるように設定されたことを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記登録する手段は、最大類似度を第2類似度として与える検出結果が既に他の追跡結果と一対一対応のマッチングとして登録済みであると当該登録を解消し、前記最大類似度を第2類似度として与える追跡結果および前記登録を解消された追跡結果と前記最大類似度を第2類似度として与える検出結果とを多対一対応のマッチングとして登録することを特徴とする請求項1ないし3のいずれかに記載の画像処理装置。
  5. 映像フレームから所定の指標値が前記第1閾値よりも低く第2閾値よりも高い領域を準人物領域として検出する手段と、
    追跡結果と準人物領域の検出結果との組み合わせごとに前記第2評価基準に基づく第3類似度を計算する手段とをさらに具備し、
    前記登録する手段は、最大類似度を第3類似度として与える追跡結果および検出結果の組み合わせを多対一対応のマッチングとして登録することを特徴とする請求項1ないし4のいずれかに記載の画像処理装置。
  6. 前記人物動線を生成する手段は、パーティクルフィルタを用いて生成した各人物の現在位置としての複数の現在推定位置のうち、尤度のより高い推定位置を現在位置として採用し、
    前記尤度として、追跡結果および検出結果の対応関係が一対一対応であれば第1の指標に基づいて第1尤度を計算する手段、および多対一対応であれば前記第1の指標とは異なる第2の指標に基づいて第2尤度を計算する手段を具備したことを特徴とする請求項1ないし5のいずれかに記載の画像処理装置。
  7. 前記人物動線を生成する手段は、各人物領域の現在位置として、その足元位置に基づいて計算される尤度が最も高い推定位置を採用し、前記マッチング結果が一対一対応および多対一対応のいずれであるかに応じて尤度の算出方法を異ならせたことを特徴とする請求項1ないし6のいずれかに記載の画像処理装置。
  8. 前記人物動線を生成する手段は、前記マッチング結果が多対一対応であると、各人物領域の各推定位置に対応した統合領域と検出結果の領域との重複率を用いて尤度を計算することを特徴とする請求項7に記載の画像処理装置。
  9. 前記人物動線を生成する手段は、前記マッチング結果が一対一対応であると、各人物領域の推定位置と検出結果の推定位置との近さ、および推定位置に対応した領域と検出結果の領域との重複率を用いて尤度を計算することを特徴とする請求項8に記載の画像処理装置。
JP2016065955A 2016-03-29 2016-03-29 画像処理装置 Active JP6504711B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016065955A JP6504711B2 (ja) 2016-03-29 2016-03-29 画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016065955A JP6504711B2 (ja) 2016-03-29 2016-03-29 画像処理装置

Publications (3)

Publication Number Publication Date
JP2017182295A JP2017182295A (ja) 2017-10-05
JP2017182295A5 JP2017182295A5 (ja) 2018-05-31
JP6504711B2 true JP6504711B2 (ja) 2019-04-24

Family

ID=60006022

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016065955A Active JP6504711B2 (ja) 2016-03-29 2016-03-29 画像処理装置

Country Status (1)

Country Link
JP (1) JP6504711B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10909377B2 (en) * 2018-04-18 2021-02-02 Baidu Usa Llc Tracking objects with multiple cues
CN109816701B (zh) * 2019-01-17 2021-07-27 北京市商汤科技开发有限公司 一种目标跟踪方法及装置、存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002063577A (ja) * 2000-08-15 2002-02-28 Nippon Telegr & Teleph Corp <Ntt> 画像解析システム,画像解析方法および画像解析プログラム記録媒体
JP2002342762A (ja) * 2001-05-22 2002-11-29 Matsushita Electric Ind Co Ltd 物体追跡方法
JP4240957B2 (ja) * 2002-08-30 2009-03-18 日本電気株式会社 物体追跡装置、物体追跡方法および物体追跡プログラム

Also Published As

Publication number Publication date
JP2017182295A (ja) 2017-10-05

Similar Documents

Publication Publication Date Title
CN107240124B (zh) 基于时空约束的跨镜头多目标跟踪方法及装置
US10417503B2 (en) Image processing apparatus and image processing method
JP5001260B2 (ja) オブジェクト追跡方法及びオブジェクト追跡装置
JP6525453B2 (ja) オブジェクト位置推定システム、及びそのプログラム
Weinzaepfel et al. Learning to detect motion boundaries
JP5180733B2 (ja) 移動物体追跡装置
CN109949347B (zh) 人体跟踪方法、装置、系统、电子设备和存储介质
JP2019075156A (ja) 多因子画像特徴登録及び追尾のための方法、回路、装置、システム、及び、関連するコンピュータで実行可能なコード
GB2430735A (en) Object detection
GB2430736A (en) Image processing
CN109583373B (zh) 一种行人重识别实现方法
JP5027758B2 (ja) 画像監視装置
WO2022127181A1 (zh) 客流的监测方法、装置、电子设备及存储介质
CN112733719A (zh) 一种融合人脸及人体特征的跨境行人轨迹检测方法
US20110103646A1 (en) Procede pour generer une image de densite d&#39;une zone d&#39;observation
KR20120007850A (ko) 부분 템플릿 매칭 기반의 객체 식별 장치 및 방법
JP6504711B2 (ja) 画像処理装置
KR100994722B1 (ko) 카메라 핸드오프를 이용한 다중 카메라상의 연속적인 물체추적 방법
LU100684B1 (en) Method and system for head pose estimation
JP7488674B2 (ja) 物体認識装置、物体認識方法及び物体認識プログラム
Sincan et al. Moving object detection by a mounted moving camera
US20190180597A1 (en) Person recognition by way of a camera
JP6548306B2 (ja) カメラの撮影画像に映る人物を追跡する画像解析装置、プログラム及び方法
JP2004046464A (ja) 移動物体3次元位置推定装置及びその方法、プログラム並びにその記録媒体
WO2022126668A1 (zh) 一种公共场所行人识别方法及人流统计系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180307

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180412

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190320

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190325

R150 Certificate of patent or registration of utility model

Ref document number: 6504711

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150