JP6283008B2 - 追跡装置 - Google Patents

追跡装置 Download PDF

Info

Publication number
JP6283008B2
JP6283008B2 JP2015202139A JP2015202139A JP6283008B2 JP 6283008 B2 JP6283008 B2 JP 6283008B2 JP 2015202139 A JP2015202139 A JP 2015202139A JP 2015202139 A JP2015202139 A JP 2015202139A JP 6283008 B2 JP6283008 B2 JP 6283008B2
Authority
JP
Japan
Prior art keywords
candidate position
likelihood
short interval
calculation unit
rate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015202139A
Other languages
English (en)
Other versions
JP2017076181A (ja
Inventor
豪二 水戸
豪二 水戸
黒川 高晴
高晴 黒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2015202139A priority Critical patent/JP6283008B2/ja
Publication of JP2017076181A publication Critical patent/JP2017076181A/ja
Application granted granted Critical
Publication of JP6283008B2 publication Critical patent/JP6283008B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、順次取得される入力画像中に存在する移動物体の追跡技術に関する。
時間的に順次取得された入力画像に写った移動物体を追跡する移動物体技術が知られている。追跡対象の移動物体としては、画像監視の分野では監視対象の建物やその敷地に立ち入る人物(不審者)である。以下、移動物体を人物として説明する。
従来の追跡技術においては、高精度に人物を追跡するために、過去の時刻における人物の位置情報から運動モデルを定義して、現時刻における人物の位置を予測することが行われている。さらには、過去の時刻における人物像からテンプレートを求め、予測された位置を中心として設定した一定の探索範囲においてテンプレートマッチングを行うことも知られている。このように処理速度を確保しながらも精度低下を招かないよう複数の処理を組み合わせることが行われている。
特許文献1には、追跡対象のオブジェクト(例えば人物)について、入力画像のそれぞれについて位置の予測処理と特徴量の比較処理とを複数行って組み合わせ、それぞれの処理から求められたオブジェクトらしさのマップを重ね合わせることで高精度にオブジェクトを追跡する技術が示されている。
特開2012−181710号公報
特許文献1に記載の追跡技術によれば、人物が入力画像中に1人のみ写っており、動きが滑らかな場合には高精度に人物の追跡が達成できる。
しかし、実際には、入力画像中に複数写っている人物同士が互いにすれ違う事象(交差)や、追跡している人物が突然立ち止まったり、折り返したりするなどの動きの様子が急変する事象(運動急変)も発生する。従来の技術ではそのような場合に必ずしも追跡の精度が確保されないという問題があった。
本発明は上記問題を解決するためになされたものであり、複数の処理を併用しつつも、移動物体のすれ違いや動きの急変にも対応できる追跡技術の提供を目的とする。
(1)本発明に係る追跡装置は、順次取得した入力画像上にて移動物体を追跡する追跡装置であって、前記入力画像における所定の短時間間隔ごとの短間隔画像上での前記移動物体の候補位置である短間隔候補位置、前記入力画像から前記短時間間隔より長い長時間間隔ごとに取り出される長間隔画像上で決定された前記移動物体の位置である物体位置、および前記移動物体の前記物体位置に対応して抽出された当該移動物体の物体テンプレートを記憶する記憶部と、現時刻での前記短間隔候補位置を過去の前記短間隔候補位置から推定する短間隔候補位置算出部と、現時刻における前記物体位置の候補である長間隔候補位置を過去の前記物体位置から推定する長間隔候補位置算出部と、前記長間隔候補位置算出部が現時刻にて前記長間隔候補位置を推定すると、当該長間隔候補位置及び前記短間隔候補位置算出部が推定した現時刻での前記短間隔候補位置を統合して合成候補位置を求める候補位置合成部と、現時刻の前記入力画像と前記物体テンプレートとを前記合成候補位置にて比較して現時刻における前記物体位置を決定する物体抽出部と、を有する。
(2)上記(1)に記載する本発明に係る追跡装置において、前記短間隔候補位置算出部は、前記短間隔候補位置を複数求め、当該各短間隔候補位置の尤もらしさを表す短間隔候補位置尤度を、当該短間隔候補位置に対応して抽出される画像特徴と前記過去の短間隔候補位置に対応して抽出される画像特徴との類似度に基づいて算出し、前記長間隔候補位置算出部は、前記長間隔候補位置を複数求め、当該各長間隔候補位置の尤もらしさを表す長間隔候補位置尤度を、当該長間隔候補位置に対応して抽出される画像特徴と前記過去の物体位置に対応して抽出される画像特徴との類似度に基づいて算出し、前記候補位置合成部は、前記短間隔候補位置尤度及び前記長間隔候補位置尤度それぞれの画像上での分布を合成して合成尤度分布を求め、前記物体抽出部は、前記合成尤度分布に基づいて前記物体位置を決定する構成とすることができる。
(3)上記(2)に記載する本発明に係る追跡装置において、前記短間隔候補位置算出部は、前記短間隔画像上での前記移動物体の複数の部分領域それぞれに対応して前記短間隔候補位置を設定し、当該部分領域から前記画像特徴を抽出し前記短間隔候補位置尤度を算出する構成とすることができる。
(4)上記(2)及び(3)に記載する本発明に係る追跡装置において、前記候補位置合成部は、前記短間隔候補位置尤度及び前記長間隔候補位置尤度それぞれの前記画像上での分布について多峰性を調べ、当該多峰性が高いほど小さな重み付けをして前記合成尤度分布を求める構成とすることができる。
(5)上記(2)及び(3)に記載する本発明に係る追跡装置において、前記候補位置合成部は、前記過去の物体位置の近傍にて検出された前記移動物体の数が多いほど前記短間隔候補位置尤度への重みを小さくして前記合成尤度分布を求める構成とすることができる。
本発明によれば移動物体の追跡において移動物体のすれ違いや動きの急変にも対応できる。
本発明の実施形態に係る追跡装置の概略のブロック図である。 記憶部に記憶されている追跡情報の一例を示す模式図である。 低レート候補位置算出部による処理を示す模式図である。 高レート候補位置算出部による処理を示す模式図である。 物体抽出部が人物を抽出した時刻における追跡結果の特徴点、及び当該特徴点に基づく高レート候補位置の例を示す模式図である。 候補位置合成部及び物体抽出部の処理を説明する模式図である。 人物の運動急変時における本実施形態の追跡処理の例を説明する画像の模式図である。 人物の交差時における本実施形態の追跡処理の例を説明する画像の模式図である。 本発明の実施形態に係る追跡装置の全体的な処理の概略のフロー図である。 低レート位置尤度分布の算出処理の概略のフロー図である。 物体位置決定処理の概略のフロー図である。 人物同士の交差が起こった場合の追跡情報の一例を示す模式図である。 本発明の実施形態の変形例の1つを説明する模式図である。
以下、本発明の実施の形態(以下実施形態という)について、図面に基づいて説明する。
図1は実施形態に係る追跡装置1の概略のブロック図である。本追跡装置1は、追跡処理部10、記憶部20から構成されており、追跡装置1には撮像装置30、表示装置40が接続されている。
撮像装置30はいわゆるカメラであり、また表示装置40はいわゆるモニタ装置であり、撮影条件や設置場所の広さなどに応じてそれぞれ周知なものを用いればよい。例えば撮像装置30は、撮影条件に応じた解像度を有するCCD素子又はC−MOS素子等の撮像素子、必要な画角を有するレンズを含む光学系部品、A/D変換器等を含んで構成され、所定時間間隔で撮像した画像を順次、追跡処理部10へ出力する。以下、撮像の時間間隔を基準時間間隔、また当該基準時間間隔で刻まれる時間の単位を時刻と称する。撮像装置30及び表示装置40の解像度は特に限定されるものではないが、本実施形態では1280×720画素として説明する。
記憶部20は、ROM(Read Only Memory)、RAM(Random Access Memory)等のメモリ装置により実現される。記憶部20は、追跡処理部10の処理に必要な情報、及び追跡処理部10から出力される情報をテーブル形式にて保持する追跡情報21を記憶している。このほか、図示していないが各種パラメータ類、後述する低レート候補位置算出部11と高レート候補位置算出部12が処理する時間間隔を表すフレームレート情報を記憶している。これらについての詳細は後述する。
追跡処理部10は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置等で構成される。追跡処理部10は低レート候補位置算出部11、高レート候補位置算出部12、候補位置合成部13、物体抽出部14及び出力部15を備え、撮像装置30から入力された画像をもとに人物の検出を行い、検出された人物を追跡し、追跡結果を追跡情報21に記憶するとともに、表示装置40に出力する。
以下、追跡処理部10の各構成要素を説明する。これら要素は演算装置上にてソフトウェアモジュールとして実現される。
低レート候補位置算出部11及び高レート候補位置算出部12はそれぞれ、所定時間間隔ごとにサンプリングした入力画像上での移動物体の候補位置を過去の候補位置から推定する。それぞれの入力画像のサンプリングの時間間隔は記憶部20に予め記憶されるフレームレート情報を参照して設定される。
低レート候補位置算出部11は撮像装置30から順次取得される入力画像のフレームの中から、後述する高レート候補位置算出部12より低いフレームレート、つまり長い時間間隔ごとに取り出されるフレームである長間隔画像上での移動物体の候補位置である長間隔候補位置(低レート候補位置と称する)を、当該移動物体の過去の物体位置から推定する長間隔候補位置算出部である。本実施形態では、入力画像が10fps(frame per second)で撮影されるとし、低レート候補位置算出部11における入力画像のサンプリング間隔である長時間間隔は1/2秒に設定する。つまり低レート候補位置算出部11は5フレームごとに低レート候補位置を推定する。
具体的には低レート候補位置算出部11は記憶部20の追跡情報21を参照し、過去の位置情報から現時刻における人物が存在する可能性が高い位置を求める。図2は記憶部20に記憶されている追跡情報21の一例を示す模式図である。また図3は低レート候補位置算出部11による処理を示す模式図である。現時刻をtとして、図3には時刻t−10からの処理が示されている。
本実施形態では、低レート候補位置算出部11は、周知のパーティクルフィルターに準じた方法により、人物が存在する可能性の高い位置を低レート候補位置として求め、追跡情報21の低レート候補位置215に記憶する。
周知のパーティクルフィルターでは、例えば人物全身像をテンプレートとし、仮説を生成して、その位置における入力画像との類似度を尤度とする。本実施形態では、追跡情報21に記憶されている物体位置216を参照して、一旦現在時刻における物体位置を予測して、その位置を中心に所定の条件を満たすノイズを加えた位置に、パーティクルフィルターでいう仮説を生成することとし、それを本実施形態でも仮説と称することにする。図3において、黒丸“●”がそれぞれ仮説301であり、その大きさが尤度を示している。尤度が大きいほど黒丸を大きく描いており、その位置に人物がいる可能性が高いことを示している。また物体位置を“■”で表している。なお、仮説301の位置が長間隔候補位置、すなわち低レート候補位置であり、仮説301の尤度が長間隔候補位置尤度(低レート位置尤度)である。この仮説301の位置に対応して定義される画像上での低レート位置尤度の分布を低レート位置尤度分布と称することにする。
ここで、低レート候補位置算出部11においてテンプレートマッチングにより類似度を求める処理は、画素ごとの色や輝度、エッジの差を参照する方法よりも、物体領域内部の色や輝度の平均や頻度の比較を行うような方法の方が望ましい。その理由は後者の方が、いわば大よそ位置決めする考えがあり、そして低レート候補位置算出部11では時間間隔が長くなるほど位置の予測精度が下がるので広い範囲に仮説を考える必要があり、概略の位置を決める手法の方が好都合だからである。
図3において、時刻t−10の人物300の物体位置302の近傍に示される仮説301は時刻t−15の物体位置に基づいて生成されたものであり、後述する処理にて物体位置302を決定する際に用いられる。物体位置302に基づいて時刻t−5の仮説301が生成され、それを用いて時刻t−5の人物303の物体位置304が決定され、そして物体位置304に基づいて現時刻tの人物305の物体位置の決定に用いられる仮説301が生成される。
低レート候補位置算出部11は、各仮説にID番号(h1,h2,h3,…)を付与して、その位置の座標値、尤度と共に追跡情報21の低レート候補位置215に記憶させる。また、図3に示した物体位置302,304のように後述する物体抽出部14で決定された物体位置は入力画像中における座標値として追跡情報21の物体位置216に記憶される。
高レート候補位置算出部12は入力画像から、低レート候補位置算出部11より高いフレームレート、つまり短い時間間隔ごとに取り出されるフレームである短間隔画像上での移動物体の候補位置である短間隔候補位置(高レート候補位置と称する)を、当該移動物体の過去の高レート候補位置から推定する短間隔候補位置算出部である。本実施形態では、高レート候補位置算出部12における入力画像のサンプリング間隔である短時間間隔は1/10秒に設定する。つまり高レート候補位置算出部12は入力画像の各フレームにて高レート候補位置を推定する。
本実施形態において、高レート候補位置算出部12は、人物について複数の局所的な画像特徴を用いて特徴点追跡を行う、いわゆるオプティカルフローを用いるものとする。高レート候補位置算出部12は、後述する物体抽出部14が人物について物体位置を決定して、その人物像を抽出するたびにコーナー検出やブロッブ検出など、公知の方法を適宜用いて特徴点を抽出する。すなわち、高レート候補位置算出部12は、現時刻の長間隔画像にて抽出された各移動物体の物体像の輪郭又は内部と対応する短間隔画像の領域にて現時刻の特徴点を抽出する。これにより、短間隔候補位置が物体位置に応じて長時間間隔ごとに修正される。そして高レート候補位置算出部12は、特徴点を含む部分領域を定義し、特徴点に対する人物の相対位置として特徴点から人物の位置(物体位置)までのベクトルを求める。
図4は高レート候補位置算出部12による処理を示す模式図である。図4(a)は例えば、時刻t−5にて求められた人物像310に抽出される特徴点311、当該特徴点311に対して設定される部分領域312、特徴点311から物体位置への位置ベクトル313を示している。図4(a)では描画の都合で特徴点311が7点である例を示しているが、実際には数十点を抽出するのが望ましい。部分領域312のID番号及び特徴点311の座標は、追跡情報21の特徴点212の欄に記憶され、位置ベクトル313の成分は追跡情報21の相対位置213の欄に記憶される。
図4(b)は高レート候補位置算出部12による追跡処理の様子を示しており、具体的には順次時刻が進むごとに特徴点が追跡される様子を時刻t−5から時刻tについて示している。同図に示すように高レート候補位置算出部12の処理は、10fpsの入力画像のそれぞれについて行われる。
高レート候補位置算出部12は、追跡情報21に記憶された前の時刻の特徴点の情報を用いて追跡を行う。すなわち各時刻の入力画像に設定した各部分領域について、その内部の画像特徴を抽出し、前の時刻の特徴量と比較して、現時刻の画像内にて類似する特徴量を示した位置を探索し、現時刻での特徴点の位置を求める。そして、高レート候補位置算出部12は、求めた現時刻での特徴点の位置を特徴点212の欄に記憶させる。また部分領域312にて得られた類似度を尤度として、その部分領域が含む特徴点に対応付けて特徴点212の欄に記憶する。なお、当該尤度が短間隔候補位置尤度(高レート位置尤度)である。特徴点の位置の探索には、LK法やブロックマッチングなどの周知の手法を用いることができる。それら手法の詳細については公知のため説明を省略する。
ここで各特徴点311を始点とした位置ベクトル313の先端の座標が、その特徴点311についての人物の候補位置(高レート候補位置)である。高レート候補位置は高レート候補位置算出部12が追跡を行う各時刻にて定義できる。但し、後述する処理では高レート候補位置は低レート候補位置を求める5フレームごとの時刻でのみ用いられるため、本実施形態では当該時刻でのみ高レート候補位置を算出し、追跡情報21の高レート候補位置214の欄への記憶も当該時刻のみで行っている。
なお、相対位置213は、物体抽出部14にて人物の位置が決定され、特徴点が抽出されるタイミングにて決定されるので、次に物体抽出部14で人物の位置が決定されるまでは更新されない。
候補位置合成部13は、低レート候補位置算出部11が求めた低レート候補位置と高レート候補位置算出部12が求めた高レート候補位置とを合成する処理を行う。
図5は物体抽出部14が人物を抽出した時刻(図2の追跡情報を参照すると、時刻t−10,t−5,t)にて追跡された直後の特徴点及び高レート候補位置の例を示す模式図である。人物像310に関して追跡で得られた特徴点311を黒点で示し、また、当該特徴点311に対し位置ベクトル313で対応づけられる“△”の点が高レート候補位置315であり、その大きさが高レート位置尤度を表している。
例えば時刻t−10で人物の輪郭に特徴点が抽出されても、追跡処理を行うと、本来の位置からずれてしまう。例えば人物の頭頂に設定された特徴点も、頭頂よりもさらに上に位置してしまうこともある。一方で、相対位置213は、次に物体抽出部14が人物を抽出する時刻、例えばt−5までは更新されないため、高レート候補位置は図5に示すように一点に集中せず、ある程度の範囲を持って分布し得る。この高レート候補位置の分布に対応して画像上にて定義される高レート位置尤度の分布を高レート位置尤度分布と称することにする。
図6は候補位置合成部13及び物体抽出部14の処理を説明する模式図である。候補位置合成部13は現時刻にて人物について低レート候補位置が推定されると、当該低レート候補位置及び現時刻での高レート候補位置を統合して当該人物の合成候補位置を求める。当該統合は低レート候補位置が推定される時刻、すなわち本実施形態では5フレームごとの例えばt−10,t−5,tといった時刻にて行われる。
本実施形態では高レート候補位置及び低レート候補位置はそれぞれ複数求められ、それぞれ尤度を定義されていることに対応して、候補位置合成部13は高レート位置尤度分布410と低レート位置尤度分布411とを合成し、合成候補位置に対応する情報として合成尤度分布412を生成する。高レート位置尤度分布410では図5と同様、“△”の位置が高レート候補位置を表し、大きさが高レート位置尤度を表す。また、低レート位置尤度分布411では図3と同様、“●”の位置が低レート候補位置を表し、大きさが低レート位置尤度を表す。
低レート候補位置算出部11と高レート候補位置算出部12がそれぞれ追跡対象の人物を大よそ捉えていると、高レート位置尤度分布410と低レート位置尤度分布411は画像上にて大よそ重なった位置に分布する。そこで候補位置合成部13は、両分布を合成した合成尤度分布412を求める。
物体抽出部14は現時刻の入力画像と記憶部20に記憶されている物体テンプレートとを合成候補位置にて比較して人物の現時刻における物体位置を決定する。本実施形態では、物体抽出部14は合成候補位置に対応する合成尤度分布412に基づいて物体位置を決定する。すなわち、物体抽出部14は、候補位置合成部13が生成した合成尤度分布412を参照して人物の位置を決定する。
具体的には、物体抽出部14は合成尤度分布412内の各候補位置ごとの尤度を参照し、ルーレット選択法や棄却法などによりサンプリング点の数を決めて、尤度に応じた分散を持つノイズを考えて散らばるようにサンプリング点413を決定する。サンプリング点413は人物がいる可能性が高い位置ほど密集することになる。このサンプリング点413の画像内での位置が本実施形態における合成候補位置となる。すなわち、物体抽出部14は合成尤度分布412から合成候補位置の分布414を生成する。
物体抽出部14は追跡対象の人物のテンプレートを追跡情報21に記憶されている物体テンプレート217から読み出し、その中心位置を各サンプリング点413に一致させてテンプレートマッチングにより入力画像との類似度を求める。
このテンプレートマッチング処理は、低レート候補位置算出部11とは異なり、画素単位での位置を決定したいため、画素ごとに色や輝度、エッジ情報を比較する方法が適している。
そして物体抽出部14は、求めた類似度を重みとし、各サンプリング点413の座標について重みつき平均計算を行い、人物の位置を決定する。物体抽出部14は当該位置の座標値を追跡情報21の物体位置216に記憶させる。
人物の位置を決定する処理は、類似度を重みにした単純な座標についての重みつき平均のほかに、カーネル密度推定法に準じて、ウィンドウ走査をして各位置におけるウィンドウ内部の重み付き密度が最大ピークを示したウィンドウ位置を物体位置にしても良い。あるいは、散在するサンプリング点413に対してクラスタリング処理を行い、尤度の合計が最大のクラスタの重心位置を物体位置に決めても良い。
さらに物体抽出部14は当該物体位置に対応して物体テンプレートを更新する。具体的には、決定した人物の位置を中心に、背景差分などの周知な方法に基づき人物の領域を定め、その内部の画素群から画像情報を求め、当該画像情報を物体テンプレートとして追跡情報21の物体テンプレート217を更新する。画像情報は低レート候補位置算出部11と物体抽出部14にて行われるテンプレートマッチングに用いられ得るものであれば限定は無いが、例えば前者向けには色ヒストグラム、後者向けにはエッジ情報などを記憶すれば良い。例えば図2は、時刻tにて物体テンプレートがTa2からTa3に更新されていることを示している。
出力部15は、外部接続された表示装置40に、求められた結果を表示するためのインターフェースである。例えば、出力部15は表示装置40に入力画像を表示すると共に、当該入力画像上に物体抽出部14が決定した物体位置を“×”印で強調表示したり、物体テンプレートを求めるために用いた領域を入力画像に重畳表示したりしてもよい。
図7、図8は追跡装置1による追跡処理の例を説明する画像の模式図である。まず、図7は人物が急に移動方向を変える運動急変の場合の例を示しており、図7を用いて本発明に係る追跡装置を用いると、運動急変時にも正しく追跡できることを説明する。
図7(a)は画像上にて、人物Aが時刻t−10からt(現時刻)まで移動する際に、時刻t−5の前後で移動方向を変えた様子を示している。つまり時刻t−10からt−5にかけては、画面内にて左上から右下に向かう方向に移動しているが、時刻t−5からtにかけては画面内にて右上から左下に向かう方向に移動している。
人物Aは時刻t−10では位置500に存在しており、かつ物体抽出部14は人物Aの物体位置を黒い四角“■”の位置501に決定している。同様に人物Aは時刻t−5では位置502に存在しており、かつ物体抽出部14は人物Aの物体位置を黒い四角“■”の位置503に決定している。時刻tでは人物Aは位置504に存在している。
この場合、高レート候補位置算出部12は、時刻t−10,t−5,tのみならず、それらの間の各フレームにおいても特徴点追跡処理を行っている。従って時刻tにおいて求めた高レート位置尤度分布510は図7(b)に示すように実際の位置504の付近に集中している。
一方、低レート候補位置算出部11は、時刻t−10,t−5,tにおいて低レート位置尤度分布を求める。時刻tにおいては、エリア511に示す分布がその結果である。
低レート候補位置算出部11は、高レート候補位置算出部12よりも疎な時間間隔でのみ分布を求めるため、実際の人物の動きの急変には対応できず、低レート位置尤度分布511は、人物の実際の位置504とはかけ離れた位置に求められてしまう。
図7(c)は、高レート位置尤度分布510と低レート位置尤度分布511とから、図6を用いて説明したサンプリング点を決定した結果を示している。この図に示すように、高レート位置尤度分布510の付近のエリア520にはサンプリング点が多数決定されるが、低レート位置尤度分布511の付近のエリア521にはサンプリング点は少なく決定される。
さらに物体抽出部14の位置決定処理では物体テンプレート217を用いた入力画像との類似度が加味される。実際は人物Aが存在しないエリア521付近のサンプリング点から求められた類似度は低いので、物体抽出部14で決定される物体位置は低レート位置尤度分布511の影響をほとんど受けず、人物の実際の位置504付近に決定される。すなわち、運動急変にも対応できていることになる。
次に、図8は人物同士がすれ違う交差の場合の例を示しており、図8を用いて本発明に係る追跡装置を用いると、交差時にも正しく追跡できることを説明する。
図8(a)には、人物Aが時刻t−10からt(現時刻)まで移動する際に、時刻t−5の前後で人物Bと交差した様子を示している。人物Aは時刻t−10からtにかけて、画面内にて左上の位置600から右下の位置604に向かって移動している。一方、人物Bは時刻t−10からtにかけて、画面内にて右上の位置605から左下の位置607に向かって移動している。この両者は移動途中の時刻t−5の前後で交差し、その際、位置602にいる人物Aは位置606にいる人物Bの後ろに位置している。
物体抽出部14は人物Aの物体位置を、時刻t−10では黒い四角“■”の位置601に決定し、また時刻t−5では黒い四角“■”の位置603に決定し、それぞれ人物Aの実際の位置600,602に対応している。
高レート候補位置算出部12は、時刻t−10,t−5,tのみならず、それらの間の各フレームにおいても特徴点追跡処理を行っている。従って時刻t−5に注目すると、本来、人物Aから抽出され、人物Aのものとして追跡されるべき特徴点の一部は、人物Aが人物Bの後ろに位置し、人物Aの体の部位の一部が隠れることで、時刻t−5において人物Bに対応付いてしまう。
高レート候補位置算出部12は、高いフレームレートにて処理を行っていることから、実際にはこのような人物どうしの交差状態のフレーム数が多く、交差状態が解消されても誤って人物Bに対応付いた特徴点が人物Aに対応付くよう正される可能性は低い。その結果、一部の特徴点は人物Bに対応付いたままとなり時刻tでの追跡結果は人物Bの位置607に得られてしまう。
一方、低レート候補位置算出部11は、時刻t−10,t−5,tにおいて低レート位置尤度分布を求める。そのため、低レート候補位置算出部11にとっては、交差は時刻t−5のみで発生していることになり、その影響は少ない。
図8(b)はこの例の時刻tにおける人物Aの合成尤度分布を示している。当該合成尤度分布は人物Aの低レート位置尤度分布及び高レート位置尤度分布を合成したものであり、人物Bの時刻tにおける位置607付近の分布610と人物Aの時刻tにおける位置604付近の分布611とからなる。分布610は本来人物Aのものとして追跡された特徴点が人物Bに誤って対応付いた特徴点から求められた高レート位置尤度分布で構成される。分布611は、正しく人物Aのものとして追跡された特徴点から求められた高レート位置尤度分布と、低レート位置尤度分布とで構成される。
図8(c)は分布610,611から、図6を用いて説明したサンプリング点を決定した結果を示している。同図からわかるように、分布610の付近のエリア620にはサンプリング点が少なく決定されるが、分布611の付近のエリア621にはサンプリング点は多数決定される。
さらに物体抽出部14の位置決定処理では物体テンプレート217を用いた入力画像との類似度が加味される。人物Aが実際には存在しないエリア620付近のサンプリング点から求められた類似度は低いので、物体抽出部14で決定される物体位置は高レート位置尤度分布610の影響をほとんど受けず、人物の実際の位置604付近に決定される。すなわち、交差にも対応できていることになる。
次に、フロー図を用いて、追跡装置1の動作を説明する。図9は追跡装置1の全体的な処理の概略を表すメインフロー図である。図9において、ステップS100〜S110は短時間間隔、つまり高レート候補位置算出部12の処理サイクルで繰り返される処理であり、本実施形態では10fpsで動作する処理である。一方、ステップS115以降は長時間間隔、つまり低レート候補位置算出部11の処理サイクルで繰り返される処理であり、本実施形態では2fpsで動作する処理である。図2に示す追跡情報21では、処理時刻210がt−10からtまでの各時刻であるときにステップS100〜S110の処理が行われ、5フレームごとの時刻t−10,t−5,tにてステップS115以降の処理が行われる。
追跡装置1は、撮像装置30が撮影した画像を受けつけ、入力画像とする(ステップS100)。当該入力画像は低レート候補位置算出部11と高レート候補位置算出部12に入力される。
高レート候補位置算出部12は、入力画像中の人物について特徴点追跡処理を行い、追跡された特徴点のID番号、座標値、尤度を記憶部20に記憶されている追跡情報21の特徴点212に記憶する(ステップS105)。なお、入力画像中に人物が存在しない場合、あるいは人物が撮像装置30の視野の外に移動した場合にはS105の処理は省略される。
追跡装置1はステップS100とS105の処理を規定の枚数の入力画像について繰り返す(ステップS110)。規定枚数は、長時間間隔にて撮影される画像のフレーム数であり、本実施形態では5フレームである。
ここで、規定枚数の入力画像について特徴点追跡処理を終えた時刻を最新時刻、すなわち現時刻tとすると、高レート候補位置算出部12は、時刻tの入力画像から得られた特徴点の位置を追跡情報21の特徴点212の欄から読み出し、また、時刻tの追跡情報21の相対位置213の欄に記憶されている、時刻t−5にて求められた特徴点から物体位置への位置ベクトル313を読み出し(ステップS115)、両者の座標値を加算して高レート候補位置を求めて追跡情報21の高レート候補位置214の欄に記憶する(ステップS120)。各特徴点について得られる高レート候補位置にはステップS105で算出されている当該特徴点の高レート位置尤度が対応付けられ、よって、ステップS115,S120の処理で高レート位置尤度分布が算出される。
一方、当該現時刻tにて低レート候補位置算出部11は低レート位置尤度分布を算出する(ステップS125)。すなわち低レート候補位置算出部11は上述の規定枚数ごと、つまり5フレームごとに仮説の位置、尤度などの更新値を算出し、追跡情報21の低レート候補位置215に記憶させる。
図10は低レート位置尤度分布の算出処理S125の概略の処理を示すサブフロー図である。低レート候補位置算出部11は追跡情報21から過去の時刻の物体位置216、物体テンプレート217を読み出す(ステップS200)。そして、低レート候補位置算出部11は、過去の物体位置216を参照した運動モデルから現時刻tにおける物体の位置を予測し、ノイズを重畳して仮説の位置を決定して(ステップS205)、当該位置における尤度を求める(ステップS210)。低レート候補位置算出部11は算出した各仮説の位置、尤度をIDと対応付けて追跡情報21の低レート候補位置215に記憶させる(ステップS215)。これらステップS200〜215の処理は、周知なパーティクルフィルターによる物体追跡にて採用される方法に準じたものであるので、詳細は省略する。
図9のメインフロー図に戻り説明を続ける。候補位置合成部13は、低レート候補位置算出部11が算出した低レート候補位置(複数であり、尤度情報を併用すると低レート位置尤度分布となる)と、高レート候補位置算出部12が算出した高レート候補位置(複数であり、各特徴点を含む部分領域と入力画像との類似度を尤度にすると高レート位置尤度分布となる)とを合成し、合成尤度分布を求める候補位置合成処理を行う(ステップS130)。この処理は図6を用いて説明済みである。
物体抽出部14は合成尤度分布を参照して各物体の位置を計算する(ステップS135)。図11は物体位置決定処理S135の概略の処理を示すサブフロー図である。物体抽出部14は合成尤度分布(図6に示す合成尤度分布412)から、その尤度に応じてサンプリング点(図6に示すサンプリング点413)を決める処理を行う(ステップS300)。
物体抽出部14は当該サンプリング点ごとに、追跡情報21の物体テンプレート217を用いて、入力画像とのテンプレートマッチング処理により類似度を求める(ステップS305)。
次に物体抽出部14は、各サンプリング点の座標についてステップS305で求めた類似度を用いた重み付き平均を算出し、当該座標計算の結果を人物の位置、すなわち物体位置に決定する(ステップS310)。
さらに物体抽出部14は、人物の位置を中心とした人物の領域から物体テンプレートを生成し、その位置を追跡情報21の物体位置216に記憶する。また高レート候補位置算出部12は追跡処理に用いる特徴点を公知のコーナー検出やブロッブ検出などにより抽出し相対位置、高レート候補位置とともに追跡情報21に記憶する(ステップS315)。物体テンプレートの生成には背景差分などの周知技術を用いれば良いことは説明済みである。
そして物体抽出部14は、求めた人物の位置を追跡情報21の物体位置216に記憶し、物体テンプレートを追跡情報21の物体テンプレート217として更新記憶する(ステップS320)。
物体抽出部14による物体位置の決定処理S135の例を追跡情報21を用いて説明する。図2に示した追跡情報21は、図7に示した運動急変の場合の記憶内容を示したものである。時刻tにて物体位置216は“(213,611)”と求められている。当該物体位置は高レート候補位置214に記憶された“(210,609)”,“(215,614)”,“(213,613)”に近いが、低レート候補位置215に記憶された“(850,589)”,“(868,603)”,“(848,612)”とはかけ離れており、運動急変に対応して高レート候補位置による追跡が成功していることを示している。
図12に示す追跡情報21は、図8に示した交差の場合の記憶内容の一部を示したものである。時刻tにて物体位置216は“(859,594)”と求められている。これは高レート候補位置214に記憶された特徴点212のID番号が“ID1”と“ID2”の“(852,489)”、“(823,596)”および低レート候補位置215に記憶された“(850,589)”、“(868,603)”、“(848,612)”などとは近いものであるが、高レート候補位置214に記憶された特徴点212のID番号が“ID3”の“(213,613)”とはかけ離れている。この“ID3”の特徴点は図8に示すように、人物Bに対応付いて追跡されたものであり、そのほかは人物Aに正しく対応しており、交差が発生していても追跡が成功していることを示している。
図9のメインフロー図に戻り説明を続ける。物体抽出部14は、入力画像中に追跡中ではない人物、つまり新規出現した人物の存在の有無を調べ(ステップS140)、存在する場合には物体テンプレートの生成を行い、その位置を追跡情報21の物体位置216に記憶する。また高レート候補位置算出部12は追跡処理に用いる特徴点を公知のコーナー検出やブロッブ検出などにより抽出し相対位置、高レート候補位置とともに追跡情報21に記憶すること(ステップS145)を全ての新規出現の人物について繰り返し(ステップS150)、ステップS100の処理対象とすべく追跡情報21の物体テンプレート217に記憶する。なお、新規出現したと判断される人物が存在しない場合にはステップS140〜150の処理は行われない。また、当然ながら、ある人物がもはや画像内に存在しないと判断される場合には、その人物についての追跡処理は終了する。
物体抽出部14は処理結果として物体位置216や、物体テンプレート217を生成することになった人物領域の内部を入力画像から切り出して出力部15に出力し、表示装置40は、その結果を画面表示する(ステップS155)。
[変形例]
(1)上記実施形態では、高レート候補位置算出部12での処理は、オプティカルフローを用いていたが、パーティクルフィルターを用いても良い。この場合、高レート候補位置算出部12は、物体テンプレート217を読み出し、各時刻において各仮説の位置を決定し、その位置における入力画像との類似度を尤度にして、高レート候補位置を順次決定していけば良い。
(2)上記実施形態では、高レート候補位置算出部12と低レート候補位置算出部11は、求められた候補位置にて尤度を有するような位置尤度分布を求めることとしていた。
これに代え、各候補位置において、その尤度に応じた大きさの正規分布を考え、その正規分布を重ね合わせる(各座標おいて正規分布の値を累積的に加算し和を求める)処理を行い、その後、入力画像全体についての総和が1になるように正規化することで、それぞれの位置尤度分布を求めても良い。
そしてさらに、候補位置合成部13における高レート位置尤度分布と低レート位置尤度分布との合成処理においては、それぞれの位置尤度分布を加算するものとしても良い。その結果を正規化してもよい。物体抽出部14においてサンプリング点を求める処理では、合成した分布について、各座標点ごとの値を参照し、ルーレット選択法や棄却法などによりサンプリング点を設定する。
(3)上記実施形態では、候補位置合成部13における2つの分布の合成処理について、両者に軽重を付けない構成としたが、その分布形状に着目した重み付けをして合成することも好適である。
これは、候補位置尤度分布が単峰性を有し、高いピークをもつ分布となっている場合には、追跡処理が正しく行われている可能性が高いと考えられるからである。よって、そのような分布に大きな重み付けをして合成する。
分布が単峰性と高いピークを有するか否かの判定は例えば以下の2つの方法(a),(b)で行うことができる。
(a)座標について尤度を重みにした加重平均処理により、候補位置から推定位置を暫定的に求め、その推定位置の周囲一定範囲内に含まれる候補位置の尤度の合計値と、全候補位置の尤度の合計値との比を単峰性に対する評価値とする。
単峰性の分布となっている場合には、推定位置が分布のピークとなり、その近傍の尤度値が高くなることから、合計値の比率が高くなる。
さらに推定位置の周囲一定範囲内の尤度の合計値は分布のピークの高さを示す評価値とする。
重みは、単峰性に対する評価値とピークの高さを示す評価値との積とする。
上記周囲一定範囲の大きさは追跡対象の大きさに基づいて決定し、例えばその30%とすれば良い。
(b)単峰性に対する評価値を、尤度を重みとした候補位置の、位置に対する重み付き分散値とし、ピークの高さを全候補位置の正規化前の尤度の合計値とし、重みを両者の積とする。分散値が低く、尤度の合計値が高い場合は、尤度の高い候補位置が集中していると考えることができる。さらには尤度の値について閾値処理をして、候補位置を選択しても良い。
(4)上記実施形態では、入力画像中に存在する人物は1人あるいは2人としていたが、実際の入力画像では多数の人物が写り込むことがある。その場合、人数を混雑度として捉え、混雑度が高いと高レート位置尤度分布の重みを下げて合成しても良い。
これは、混雑度が高いと、人物が自由に動き得る範囲が限られるため図7に示すような運動急変がおきにくく、高レートによる処理の効果が発揮されにくい。その一方で図8で説明した交差が頻発することが考えられるからである。
これを図13を用いて説明する。図13には追跡対象とする人物A(人物1100)と人物B(人物1110)の他に多数の人物が写っている様子を示している。
ある時刻における人物Aが位置1102、人物Bが位置1112に存在すると求められたとする。図13からわかるように両人物の周囲には他の人物が多数位置しており、互いに別々の方向に移動し得るため、図8に示したような交差が容易に発生し得る状態になっている。
そこで、人物Aについて説明すると、物体抽出部14は位置1102の周囲の一定範囲1101を考え、その範囲内に他の人物が何人位置しているかの情報を、候補位置合成部13に渡し、候補位置合成部13は合成に用いられる重みを求める。これら人物の位置は、低レート候補位置算出部11にて求められた直近過去の物体位置216に記憶されている。一定範囲1101は、人物の大きさに応じて決定すればよく、人物の大きさと同じ範囲とすることができる。
(5)上記実施形態では、低レート候補位置算出部11は、パーティクルフィルターを用いた物体追跡手法を採用していたが、これに限られない。例えば、追跡情報21には、低レート候補位置算出部11が処理する時刻ごとの人物の位置が履歴として物体位置216に記憶されることになるので、複数の物体位置216からその人物の運動モデル、例えば等速直線運動モデルを生成して、それに沿って現時刻における位置を予測し、その予測位置を中心とした正規分布を定義し、それを低レート位置尤度分布としてもよい。
この場合、人物の移動速度を検出して、それが大きいほど分散が大きい正規分布を考えるのが好適である。
(6)上記実施形態では、1人の人物に高レート候補位置、低レート候補位置をそれぞれ複数算出し、各候補位置の尤度を考慮して物体位置を求める構成を説明したが、各候補位置を1つとし、それらを統合して物体位置を求める構成とすることもできる。
(7)上記実施形態では、低レート候補位置算出部11にて低レート候補位置が求められる入力画像、すなわち長間隔画像は、高レート候補位置算出部12にて高レート候補位置が求められる入力画像、すなわち短間隔画像と常に一致していたが、それに限られない。
例えば、低レート候補位置算出部11における入力画像のサンプリング間隔である長時間間隔は1/2秒、高レート候補位置算出部12における入力画像のサンプリング間隔である短時間間隔が1/5秒と設定する場合は、長間隔画像と短間隔画像が一致しない場合が生じる。この場合は、低レート候補位置が求められた時刻を基準とした直近過去の高レート候補位置を現時刻の高レート候補位置と見なして直接処理に用いたり、別途周知の方法で現時刻における高レート候補位置を予測するなどして物体位置を求めることとしてもよい。
1 追跡装置、10 追跡処理部、11 低レート候補位置算出部、12 高レート候補位置算出部、13 候補位置合成部、14 物体抽出部、15 出力部、20 記憶部、21 追跡情報、30 撮像装置、40 表示装置。

Claims (5)

  1. 順次取得した入力画像上にて移動物体を追跡する追跡装置であって、
    前記入力画像における所定の短時間間隔ごとの短間隔画像上での前記移動物体の候補位置である短間隔候補位置、前記入力画像から前記短時間間隔より長い長時間間隔ごとに取り出される長間隔画像上で決定された前記移動物体の位置である物体位置、および前記移動物体の前記物体位置に対応して抽出された当該移動物体の物体テンプレートをそれぞれ過去時刻について記憶する記憶部と、
    現時刻での前記短間隔候補位置を過去の前記短間隔候補位置から推定する短間隔候補位置算出部と、
    現時刻における前記物体位置の候補である長間隔候補位置を過去の前記物体位置から推定する長間隔候補位置算出部と、
    前記長間隔候補位置算出部が現時刻にて前記長間隔候補位置を推定すると、当該長間隔候補位置及び前記短間隔候補位置算出部が推定した現時刻での前記短間隔候補位置を統合して合成候補位置を求める候補位置合成部と、
    現時刻の前記入力画像と前記物体テンプレートとを前記候補位置合成部が求めた前記合成候補位置にて比較して現時刻における前記物体位置を決定する物体抽出部と、
    を有することを特徴とした追跡装置。
  2. 前記短間隔候補位置算出部は、前記短間隔候補位置を複数求め、当該各短間隔候補位置の尤もらしさを表す短間隔候補位置尤度を、当該短間隔候補位置に対応して抽出される画像特徴と前記過去の短間隔候補位置に対応して抽出される画像特徴との類似度に基づいて算出し、
    前記長間隔候補位置算出部は、前記長間隔候補位置を複数求め、当該各長間隔候補位置の尤もらしさを表す長間隔候補位置尤度を、当該長間隔候補位置に対応して抽出される画像特徴と前記過去の物体位置に対応して抽出される画像特徴との類似度に基づいて算出し、
    前記候補位置合成部は、前記短間隔候補位置尤度及び前記長間隔候補位置尤度それぞれの画像上での分布を合成して合成尤度分布を求め、
    前記物体抽出部は、前記合成尤度分布に基づいて前記物体位置を決定すること、
    を特徴とした請求項1に記載の追跡装置。
  3. 前記短間隔候補位置算出部は、前記短間隔画像上での前記移動物体の複数の部分領域それぞれに対応して前記短間隔候補位置を設定し、当該部分領域から前記画像特徴を抽出し前記短間隔候補位置尤度を算出すること、を特徴とした請求項2に記載の追跡装置。
  4. 前記候補位置合成部は、前記短間隔候補位置尤度及び前記長間隔候補位置尤度それぞれの前記画像上での分布について多峰性を調べ、当該多峰性が高いほど小さな重み付けをして前記合成尤度分布を求めること、を特徴とした請求項2又は請求項3に記載の追跡装置。
  5. 前記候補位置合成部は、前記過去の物体位置の近傍にて検出された前記移動物体の数が多いほど前記短間隔候補位置尤度への重みを小さくして前記合成尤度分布を求めること、を特徴とした請求項2又は請求項3に記載の追跡装置。
JP2015202139A 2015-10-13 2015-10-13 追跡装置 Active JP6283008B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015202139A JP6283008B2 (ja) 2015-10-13 2015-10-13 追跡装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015202139A JP6283008B2 (ja) 2015-10-13 2015-10-13 追跡装置

Publications (2)

Publication Number Publication Date
JP2017076181A JP2017076181A (ja) 2017-04-20
JP6283008B2 true JP6283008B2 (ja) 2018-02-21

Family

ID=58550228

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015202139A Active JP6283008B2 (ja) 2015-10-13 2015-10-13 追跡装置

Country Status (1)

Country Link
JP (1) JP6283008B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6851246B2 (ja) * 2017-04-25 2021-03-31 セコム株式会社 物体検出装置
JP6972757B2 (ja) * 2017-08-10 2021-11-24 富士通株式会社 制御プログラム、制御方法、及び情報処理装置
JP6889088B2 (ja) * 2017-10-25 2021-06-18 セコム株式会社 物体分布推定システム
JP6579727B1 (ja) * 2019-02-04 2019-09-25 株式会社Qoncept 動体検出装置、動体検出方法、動体検出プログラム
JP7422572B2 (ja) 2020-03-19 2024-01-26 セコム株式会社 移動物体追跡装置、移動物体追跡方法及び移動物体追跡プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4623368B2 (ja) * 2005-03-16 2011-02-02 ソニー株式会社 移動物体検出装置、移動物体検出方法及びプログラム
JP5687082B2 (ja) * 2011-01-31 2015-03-18 セコム株式会社 移動物体追跡装置

Also Published As

Publication number Publication date
JP2017076181A (ja) 2017-04-20

Similar Documents

Publication Publication Date Title
JP6158446B2 (ja) 表示の区分およびビデオフレームのクラスタ化のためのオブジェクトの選択およびトラッキング
JP6283008B2 (ja) 追跡装置
EP2372654B1 (en) Object tracking apparatus, object tracking method, and control program
JP5001260B2 (ja) オブジェクト追跡方法及びオブジェクト追跡装置
EP2192549B1 (en) Target tracking device and target tracking method
JP6525545B2 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
KR101064573B1 (ko) 입자 여과를 이용하여 이동 물체를 추적하는 시스템
JP5478928B2 (ja) 人物同定装置、人物同定方法、及び人物同定プログラム
JP6968645B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5381569B2 (ja) ジェスチャ認識装置、ジェスチャ認識方法、およびジェスチャ認識プログラム
JP5722381B2 (ja) ビデオ解析
US10896495B2 (en) Method for detecting and tracking target object, target object tracking apparatus, and computer-program product
JP2016099941A (ja) オブジェクト位置推定システム、及びそのプログラム
JP2010244089A (ja) 人物検出装置、人物検出方法、及び人物検出プログラム
JP4373840B2 (ja) 動物体追跡方法、動物体追跡プログラムおよびその記録媒体、ならびに、動物体追跡装置
KR20110074107A (ko) 카메라를 이용한 오브젝트 검출 방법
JP2010140425A (ja) 画像処理システム
CN115497056B (zh) 基于深度学习的区域内遗失物品检测方法
US20230394792A1 (en) Information processing device, information processing method, and program recording medium
KR101542206B1 (ko) 코아스-파인 기법을 이용한 객체 추출과 추적 장치 및 방법
JP6336935B2 (ja) 移動物体追跡装置
US20230131717A1 (en) Search processing device, search processing method, and computer program product
JP7215569B2 (ja) オブジェクト特徴量抽出装置、オブジェクト特徴量抽出方法及びプログラム
KR20150047937A (ko) 비디오 영상에서 사람과 배경을 분리하기 위한 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
JP7422572B2 (ja) 移動物体追跡装置、移動物体追跡方法及び移動物体追跡プログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180125

R150 Certificate of patent or registration of utility model

Ref document number: 6283008

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250