JP5988894B2 - 被写体照合装置、被写体照合方法、およびプログラム - Google Patents

被写体照合装置、被写体照合方法、およびプログラム Download PDF

Info

Publication number
JP5988894B2
JP5988894B2 JP2013035411A JP2013035411A JP5988894B2 JP 5988894 B2 JP5988894 B2 JP 5988894B2 JP 2013035411 A JP2013035411 A JP 2013035411A JP 2013035411 A JP2013035411 A JP 2013035411A JP 5988894 B2 JP5988894 B2 JP 5988894B2
Authority
JP
Japan
Prior art keywords
subject
correspondence
provisional
video
collation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013035411A
Other languages
English (en)
Other versions
JP2014164549A (ja
Inventor
山田 健太郎
健太郎 山田
内藤 整
整 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2013035411A priority Critical patent/JP5988894B2/ja
Publication of JP2014164549A publication Critical patent/JP2014164549A/ja
Application granted granted Critical
Publication of JP5988894B2 publication Critical patent/JP5988894B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、映像内の被写体の照合を行う被写体照合装置、被写体照合方法、およびプログラムに関する。
従来、被写体の照合を行う技術が提案されている(例えば、非特許文献1参照)。非特許文献1には、色や模様などの画像特徴情報を用いて、撮影角度などの異なる複数の画像の中から同一の被写体を照合する技術が示されている。
このような被写体を照合する技術は、例えば、被写体を追跡する際に用いることができる。カメラ視野内に存在する被写体を時系列的に追跡することで、例えば、社内での従業員の移動履歴の記録および管理や、店舗内での顧客動線の把握によるマーケティング分析などに、応用することができる。
例えば特許文献1には、画像情報を用いて被写体を追跡する技術が示されている。この技術によれば、被写体がカメラ視野内に現れてから消失するまでの間、被写体を追跡できる。また、図7に示すように、カメラ視野内に存在していた被写体が障害物の陰に隠れてしまうことによって、被写体が一時的に消失してしまっても、障害物の陰に隠れて消失するよりも前の追跡情報と、障害物の陰から出現した後の追跡情報と、を同一の被写体の情報として対応付けることもできる。
特許第5012589号公報
M. Farenzena, L. Bazzani, A. Perina, V. Murino and M. Cristani: "Person Re-Identification by SymmetryDriven Accumulation of Local Features", Proc. Of CVPR, pp.2360-2367 (2010). 島田,有田,谷口, "適応的な分布数の増減法を利用した混合ガウス分布による高速な動的背景モデル構築," 電子情報通信学会論文誌Vol.J90-D, No.9, pp.2606-2614, 2007. M. Isard, and A. Blake, "CONDENSATION-Conditional Density Propagation for Visual Tracking," International Journal of Computer Vision, 29, 1, pp.5-28, 1998. 井尻,村瀬: "実用化に向けた顔画像処理", 信学技報(PRMU), pp.205-210 (2010). Y. Ijiri, S. Lao, T. X. Han and H. Murase: "Efficient facial attribute recognition with a spatial codebook", ICPR, pp.1461-1464 (2010). H. Murase and R. Sakai: "Moving object recognition in eigenspace representation: gait analysis and lip reading", Pattern Recognition Lettetters, 17, pp.155-162 (1996).
しかし、特許文献1に示されている技術では、図8に示すように、カメラ視野内に存在していた被写体がカメラ視野外に移動した後にカメラ視野内に戻ってきたことによって、被写体がカメラ視野内から一時的に消失してしまうと、カメラ視野外に移動するよりも前の追跡情報と、カメラ視野内に戻ってきた後の追跡情報と、を同一の被写体の情報として対応付けることはできなかった。
そこで、特許文献1に示されている技術に、非特許文献1に示されている技術を組み合わせることが考えられる。これら技術を組み合わせることができれば、上述のように被写体がカメラ視野内から一時的に消失してしまっても、被写体の画像特徴情報を用いることによって、カメラ視野外に移動するよりも前の追跡情報と、カメラ視野内に戻ってきた後の追跡情報と、を同一の被写体の情報として対応付けることができる。しかし、非特許文献1に示されている技術では、被写体の画像特徴情報を、全ての画像について記憶しておく必要がある。このため、上述の2つの技術を組み合わせると、映像の撮影時間が長くなるに従って、記憶しておく被写体の画像特徴情報が増加し、照合する対象の数が増加してしまう。したがって、被写体の照合精度が低下してしまうおそれがあった。
そこで、本発明は、上述の課題に鑑みてなされたものであり、被写体がカメラ視野内から一時的に消失しても、被写体の照合を高精度に行うことを目的とする。
本発明は、上記の課題を解決するために、以下の事項を提案している。
(1) 本発明は、映像内の被写体の照合を行う被写体照合装置(例えば、図1の被写体照合装置1に相当)であって、前記映像内に出現した被写体と、当該被写体が出現したタイミングよりも前に当該映像内から消失した被写体と、の仮対応を設定する仮対応設定手段(例えば、図1の仮対応設定部16に相当)と、前記仮対応設定手段により設定された仮対応を、前記映像内の被写体の位置情報を用いて複数のクラス(例えば、後述のL個のクラスに相当)に分類する仮対応分類手段(例えば、図1の仮対応分類部17に相当)と、前記仮対応分類手段による分類結果に基づいて、前記出現した被写体と、前記消失した被写体と、の照合を行う照合手段(例えば、図1の照合部18に相当)と、を備えることを特徴とする被写体照合装置を提案している。
ここで、通路や道路があったり、ドアやゲートといった出入り口があったりすると、被写体が映像内に出現する位置や、被写体が映像内から消失する位置は、特定の位置に集まる傾向にある。このため、この特定の位置に出現した被写体や、この特定の位置から消失した被写体に注目することで、照合する対象の数を絞ることができる。
そこで、この発明によれば、映像内に出現した被写体と、この被写体が出現したタイミングよりも前にこの映像内から消失した被写体と、の仮対応を設定し、設定した仮対応について、この映像内の被写体の位置情報を用いて複数のクラスに分類し、分類結果に基づいてこれら被写体の照合を行うこととした。このため、被写体の照合に、映像内の被写体の位置情報を用いることができ、照合する対象の数を絞ることができる。したがって、図7に示したように被写体が障害物の陰に隠れてしまったり、図8に示したように被写体がカメラ視野外に移動してしまったりして、被写体がカメラ視野内から一時的に消失しても、被写体の照合を高精度に行うことができる。
また、この発明によれば、映像内の被写体の位置情報を、この映像から取得することによって、上述の特定の位置を自動的に推定して、被写体の照合に用いることができる。このため、上述の特定の位置をユーザが予め用意する必要がないため、上述の特定の位置をユーザが予め用意しなくてはならない場合と比べて、ユーザビリティを向上させることができる。
(2) 本発明は、(1)の被写体照合装置について、前記仮対応分類手段は、前記映像内に被写体が出現した位置の位置情報と、当該被写体が出現したタイミングよりも前に当該映像内から被写体が消失した位置の位置情報と、を用いて、前記仮対応設定手段により設定された仮対応を前記複数のクラスに分類することを特徴とする被写体照合装置を提案している。
この発明によれば、(1)の被写体照合装置において、映像内に被写体が出現した位置の位置情報と、この被写体が出現したタイミングよりも前にこの映像内から被写体が消失した位置の位置情報と、を用いて、仮対応を複数のクラスに分類することとした。このため、被写体の照合に、上述の特定の位置を用いることができ、上述した効果と同様の効果を奏することができる。
(3) 本発明は、(1)または(2)の被写体照合装置について、前記仮対応分類手段は、被写体が前記映像内から消失してから、当該映像内に被写体が出現するまでの時間(例えば、後述の時間tijに相当)を用いて、前記仮対応設定手段により設定された仮対応を前記複数のクラスに分類することを特徴とする被写体照合装置を提案している。
ここで、図7に示したように被写体が障害物の陰に隠れてしまう場合、この被写体が一定の速度で移動していれば、この被写体が障害物の陰に隠れている時間は、略一定である。また、図8に示したように、被写体がカメラ視野内から消失した位置と、この被写体がカメラ視野内に戻ってきた位置と、の間に通路や道路がある場合にも、この被写体が一定の速度で移動していれば、この被写体がカメラ視野内から消失している時間は、略一定である。
そこで、この発明によれば、(1)または(2)の被写体照合装置において、被写体が映像内から消失してから、この映像内に被写体が出現するまでの時間を用いて、仮対応を複数のクラスに分類することとした。このため、被写体の照合に、被写体が障害物の陰に隠れている時間や、被写体がカメラ視野内から消失している時間を用い、照合する対象の数をさらに絞って、被写体がカメラ視野内から一時的に消失しても、被写体の照合をより高精度に行うことができる場合がある。
(4) 本発明は、(1)から(3)のいずれかの被写体照合装置について、前記照合手段は、前記仮対応設定手段により設定された仮対応について、画像特徴情報(例えば、後述の被写体の色情報や、被写体の模様情報に相当)による被写体の画像間の距離の逆数と、当該仮対応が分類されたクラスに属する仮対応の数と、を乗算し、前記出現した被写体に対して、当該被写体が出現したタイミングよりも前に当該映像内から消失した被写体のうち、当該出現した被写体との前記乗算結果(例えば、後述の照合スコアに相当)が最大であるものを、対応付けることを特徴とする被写体照合装置を提案している。
この発明によれば、(1)から(3)のいずれかの被写体照合装置において、設定された仮設定について、画像特徴情報による被写体の画像間の距離の逆数と、この仮対応が分類されたクラスに属する仮対応の数と、を乗算することとした。さらに、出現した被写体に対して、この被写体が出現したタイミングよりも前にこの映像内から消失した被写体のうち、出現した被写体との上述の乗算結果が最大であるものを、対応付けることとした。このため、被写体の出現した位置と消失した位置とが近かったり、出現した位置や消失した位置が同じである被写体の数が多かったりするほど、これら出現した被写体と消失した被写体とを同一の被写体として対応付けることができる。
(5) 本発明は、(1)から(4)のいずれかの被写体照合装置について、前記仮対応分類手段は、前記複数のクラスのそれぞれについて、当該クラスに属する仮対応の数が閾値以上であれば正対応クラスに分類し、当該クラスに属する仮対応の数が当該閾値未満であれば誤対応クラスに分類することを特徴とする被写体照合装置を提案している。
この発明によれば、(1)から(4)のいずれかの被写体照合装置において、仮対応を分類した複数のクラスのそれぞれについて、そのクラスに属する仮対応の数が閾値以上であれば正対応クラスに分類し、そのクラスに属する仮対応の数が閾値未満であれば誤対応クラスに分類することとした。このため、誤対応クラスに属するクラスに分類された仮対応については、被写体が出現したり消失したりした位置が上述の特定の位置ではないとして、照合する対象から外し、照合する対象の数をさらに絞ることができる。したがって、被写体がカメラ視野内から一時的に消失しても、被写体の照合をより高精度に行うことができる。
(6) 本発明は、(1)から(5)のいずれかの被写体照合装置について、前記仮対応設定手段は、被写体の画像特徴情報を用いて仮対応を設定することを特徴とする被写体照合装置を提案している。
この発明によれば、(1)から(5)のいずれかの被写体照合装置において、仮対応の設定を、被写体の画像特徴情報を用いて行うこととした。このため、被写体の色情報や、被写体の模様情報などを用いて、仮対応を設定することができる。
(7) 本発明は、仮対応設定手段(例えば、図1の仮対応設定部16に相当)、仮対応分類手段(例えば、図1の仮対応分類部17に相当)、および照合手段(例えば、図1の照合部18に相当)を備え、映像内の被写体の照合を行う被写体照合装置(例えば、図1の被写体照合装置1に相当)における被写体照合方法であって、前記仮対応設定手段が、前記映像内に出現した被写体と、当該被写体が出現したタイミングよりも前に当該映像内から消失した被写体と、の仮対応を設定する第1のステップ(例えば、図2のステップS8の処理に相当)と、前記仮対応分類手段が、前記仮対応設定手段により設定された仮対応を、前記映像内の被写体の位置情報を用いて複数のクラス(例えば、後述のL個のクラスに相当)に分類する第2のステップ(例えば、図2のステップS9の処理に相当)と、前記照合手段が、前記仮対応分類手段による分類結果に基づいて、前記出現した被写体と、前記消失した被写体と、の照合を行う第3のステップ(例えば、図2のステップS10の処理に相当)と、を備えることを特徴とする被写体照合方法を提案している。
この発明によれば、映像内に出現した被写体と、この被写体が出現したタイミングよりも前にこの映像内から消失した被写体と、の仮対応を設定し、設定した仮対応について、この映像内の被写体の位置情報を用いて複数のクラスに分類し、分類結果に基づいてこれら被写体の照合を行うこととした。このため、上述した効果と同様の効果を奏することができる。
(8) 本発明は、仮対応設定手段(例えば、図1の仮対応設定部16に相当)、仮対応分類手段(例えば、図1の仮対応分類部17に相当)、および照合手段(例えば、図1の照合部18に相当)を備え、映像内の被写体の照合を行う被写体照合装置(例えば、図1の被写体照合装置1に相当)における被写体照合方法を、コンピュータに実行させるためのプログラムであって、前記仮対応設定手段が、前記映像内に出現した被写体と、当該被写体が出現したタイミングよりも前に当該映像内から消失した被写体と、の仮対応を設定する第1のステップ(例えば、図2のステップS8の処理に相当)と、前記仮対応分類手段が、前記仮対応設定手段により設定された仮対応を、前記映像内の被写体の位置情報を用いて複数のクラス(例えば、後述のL個のクラスに相当)に分類する第2のステップ(例えば、図2のステップS9の処理に相当)と、前記照合手段が、前記仮対応分類手段による分類結果に基づいて、前記出現した被写体と、前記消失した被写体と、の照合を行う第3のステップ(例えば、図2のステップS10の処理に相当)と、をコンピュータに実行させるためのプログラムを提案している。
この発明によれば、コンピュータを用いてプログラムを実行することで、映像内に出現した被写体と、この被写体が出現したタイミングよりも前にこの映像内から消失した被写体と、の仮対応を設定し、設定した仮対応について、この映像内の被写体の位置情報を用いて複数のクラスに分類し、分類結果に基づいてこれら被写体の照合を行うこととした。このため、上述した効果と同様の効果を奏することができる。
本発明によれば、被写体がカメラ視野内から一時的に消失しても、被写体の照合を高精度に行うことができる。
本発明の第1実施形態に係る被写体照合装置のブロック図である。 前記実施形態に係る被写体照合装置が行う被写体照合処理のフローチャートである。 前記実施形態に係る被写体照合装置が行う仮対応分類処理のフローチャートである。 前記実施形態に係る被写体照合装置が行う被写体照合処理のフローチャートである。 本発明の第2実施形態に係る被写体照合装置のブロック図である。 前記実施形態に係る被写体照合装置が行う被写体照合処理のフローチャートである。 被写体が障害物の陰に隠れる場合について説明するための図である。 被写体がカメラ視野内から一時的に消失する場合について説明するための図である。
以下、本発明の実施の形態について図面を参照しながら説明する。なお、以下の実施形態における構成要素は適宜、既存の構成要素などとの置き換えが可能であり、また、他の既存の構成要素との組み合せを含む様々なバリエーションが可能である。したがって、以下の実施形態の記載をもって、特許請求の範囲に記載された発明の内容を限定するものではない。
<第1実施形態>
[被写体照合装置1の構成および動作]
図1は、本発明の第1実施形態に係る被写体照合装置1のブロック図である。被写体照合装置1は、1台のカメラで撮影中の映像について、被写体の照合をリアルタイムに行う。この被写体照合装置1は、被写体検出部11、被写体追跡部12、被写体追跡情報記憶部13、画像特徴情報抽出部14、画像特徴情報記憶部15、仮対応設定部16、仮対応分類部17、および照合部18を備える。
なお、被写体としては、人物、自動車や自転車といった乗り物、動物などを対象とすることができるが、本実施形態では、人物を対象としているものとする。
また、映像を撮影するカメラは、予め定められた期間に亘って連続して、カメラ視野内を撮影するものとする。
被写体検出部11は、上述のカメラで撮影された映像の入力を受け付け、この映像を構成する各フレーム画像から、被写体の画像を検出する。各フレーム画像から被写体の画像を検出する際には、例えば非特許文献2に示されている背景差分による方法を、適用できる。
被写体追跡部12は、被写体検出部11により検出された被写体の画像の座標上の位置を、時系列的に追跡する。座標上の位置としては、例えば、フレーム画像中における座標位置を用いることもできるし、カメラ視野内の3次元空間中の特定の平面(例えば、床平面など)上の座標位置を用いることもできる。また、被写体の追跡には、例えば非特許文献3に示されているパーティクルフィルタを用いる方法を、適用できる。
なお、座標上の位置として、カメラ視野内の3次元空間中の特定の平面上の座標位置を用いる場合には、この3次元空間中の特定の平面の座標と、フレーム画像の座標と、の間で成立する平面射影行列を求める必要がある。この平面射影行列は、3次元空間中の特定の平面上の4点以上の点と、これら4点以上の点のそれぞれが1枚のフレーム画像中において対応する点と、を用いて求めることができる。
また、被写体追跡部12は、被写体検出部11により画像が検出された被写体の中に、新たに出現または消失した被写体があるかを検出する。被写体の出現とは、直前のフレーム画像では被写体検出部11により画像が検出されなかった被写体について、現在のフレーム画像では被写体検出部11により画像が検出されるようになった場合のことである。また、被写体の消失とは、直前のフレーム画像では被写体検出部11により画像が検出されていた被写体について、現在のフレーム画像では被写体検出部11により画像が検出されなくなった場合のことである。
被写体追跡情報記憶部13は、被写体追跡部12により追跡された被写体の追跡情報を記憶する。被写体の追跡情報とは、被写体の識別番号、フレーム画像ごとの被写体の画像、フレーム画像ごとの被写体の位置情報、被写体が出現した位置および時間の情報、被写体が消失した位置および時間の情報などのことである。この被写体追跡情報記憶部13は、例えば、DRAMやSRAMといった揮発性のメモリ、EPROMやフラッシュメモリといった不揮発性のメモリ、ハードディスクといった磁気ディスクなどで構成される。
画像特徴情報抽出部14は、被写体追跡部12により新たに出現が検出された被写体の画像特徴情報を、この被写体の出現が検出されたフレーム画像から抽出する。被写体の画像特徴情報とは、被写体の色情報や、被写体の模様情報などのことである。被写体の色情報については、例えば非特許文献1に示されているHSVヒストグラムおよびMaximally Stable Color Region(MSCR)を用いて、抽出できる。また、被写体の模様情報については、例えば非特許文献1に示されているRecurrent Hight-Structured Patches(RHSP)を用いて、抽出できる。非特許文献1には、被写体として人物を対象とし、人物の対称な軸(左右)および非対称な軸(上下)により人物領域を分割し、分割した各領域において被写体の画像特徴情報を抽出することが示されている。
画像特徴情報記憶部15は、画像特徴情報抽出部14により抽出された被写体の画像特徴情報を記憶する。この画像特徴情報記憶部15は、例えば、DRAMやSRAMといった揮発性のメモリ、EPROMやフラッシュメモリといった不揮発性のメモリ、ハードディスクといった磁気ディスクなどで構成される。
仮対応設定部16は、被写体追跡情報記憶部13に記憶されている被写体の追跡情報と、画像特徴情報記憶部15に記憶されている被写体の画像特徴情報と、を用いて、出現した被写体と、この被写体が出現したタイミングよりも前に消失した被写体と、について仮対応を設定する。これによれば、出現した被写体と、この被写体が出現したタイミングよりも前に消失した被写体のうち出現した被写体と同一である可能性のあるものと、が対応付けられることになる。このため、出現した1つの被写体について仮対応を設定すると、消失した被写体が1つも対応付けられない場合と、消失した被写体が1つだけ対応付けられる場合と、消失した被写体が複数対応付けられる場合と、が起こり得る。
具体的には、仮対応設定部16は、出現した被写体について、この被写体が出現したタイミングよりも前に消失した被写体のうち、画像間の距離が予め定められた閾値以下であるものと、仮対応を設定する。1つの出現した被写体について、この被写体が出現したタイミングよりも前に消失した被写体の中に、画像間の距離が閾値以下であるものが複数存在する場合には、これら複数の消失した被写体の全てと、仮対応を設定する。
なお、上述の仮対応の設定は、出現した被写体と、この被写体が出現したタイミングよりも前に消失した被写体と、の画像間の距離を用いて行われる。画像間の距離を求めるための距離指標としては、例えば、画像特徴情報の種類に応じて、ユークリッド距離、正規化相関、ヒストグラム間重なり、Bhattacharyya距離などを用いることができる。例えば非特許文献1では、HSVヒストグラムおよびRHSPにおいてはBhattacharyya距離を距離指標として用い、MSCRにおいてはユークリッド距離を距離指標として用いた上で、上述の3つの画像特徴情報の距離を重み付けして足し合わせたものを、画像間の距離としている。
仮対応分類部17は、仮対応設定部16により設定された仮対応を、L個のクラスに分類するとともに、これらL個のクラスのそれぞれを、正対応クラスと誤対応クラスとに分類する。
ここで、被写体iが消失した位置の座標を(x、y)とし、被写体jが出現した位置の座標を(x、y)とすると、消失した被写体iと出現した被写体jとの仮対応ベクトルVijは、以下の数式(1)に示す4次元ベクトルで表すことができる。
Figure 0005988894
すると、仮対応分類部17は、具体的には、まず、例えばk近傍法によりクラスタリングを行って、全ての仮対応ベクトルVijをL個のクラスに分ける。次に、各クラスに属する仮対応ベクトルVijの数を求め、求めた数が予め定められた閾値以上であるクラスを正対応クラスとし、求めた数が閾値未満であるクラスを誤対応クラスとする。
なお、被写体iが消失してから被写体jが出現するための時間tijも得られる場合には、消失した被写体iと出現した被写体jとの仮対応ベクトルVijは、以下の数式(2)に示す5次元ベクトルで表すことができる。
Figure 0005988894
消失した被写体が再び出現するまでの時間が、被写体によらずほぼ一定である場合には、上述の4次元ベクトル空間の代わりに上述の5次元ベクトル空間を用いると、仮対応の分類を高精度に行うことができる。しかし、消失した被写体が再び出現するまでの時間が、被写体によって大きく異なる場合には、上述の5次元ベクトル空間ではなく上述の4次元ベクトル空間を用いた方が、仮対応の分類を高精度に行うことができる場合もある。
照合部18は、被写体追跡情報記憶部13に記憶されている被写体の追跡情報と、仮対応分類部17による分類結果と、を用いて、被写体の照合を行う。具体的には、まず、仮対応設定部16により設定された仮対応のうち正対応クラスに属するものについて、画像特徴情報による被写体の画像間の距離の逆数と、上述のL個のクラスのうちその仮対応が分類されたクラスに属する仮対応の数と、を乗算したものを、その仮対応の照合スコアとする。次に、出現した被写体jに対して、この被写体が出現したタイミングよりも前に消失した被写体iのうち、被写体jとの上述の照合スコアが最大になるものを、対応付ける。次に、対応付けた2つの被写体を紐付けて、被写体追跡情報記憶部13に記憶させる。
以上の構成を備える被写体照合装置1は、図2を用いて後述する被写体照合処理を行って、1台のカメラで撮影中の映像について、被写体の照合をリアルタイムで行う。
図2は、被写体照合装置1が行う被写体照合処理のフローチャートである。
ステップS1において、被写体照合装置1は、被写体検出部11により、カメラで撮影された映像を構成するフレーム画像の入力を、フレームが更新されるたびにリアルタイムで受け付け、ステップS2に処理を移す。
ステップS2において、被写体照合装置1は、被写体検出部11により、ステップS1において入力を受け付けた現在のフレームのフレーム画像から、被写体の画像を検出し、ステップS3に処理を移す。
ステップS3において、被写体照合装置1は、被写体検出部11により、ステップS2において被写体の画像を1つ以上検出できたか否かを判別する。被写体の画像を1つ以上検出できたと判別した場合には、ステップS4に処理を移し、被写体の画像を1つも検出できなかったと判別した場合には、ステップS1に処理を戻す。
ステップS4において、被写体照合装置1は、被写体追跡部12により、ステップS2において検出した各被写体の画像の座標上の位置を、時系列的に追跡し、ステップS5に処理を移す。
ステップS5において、被写体照合装置1は、被写体追跡部12により、ステップS2において検出した被写体の中に、新たに出現または消失した被写体があるかを検出するとともに、被写体追跡情報記憶部13により、ステップS4において追跡した被写体の追跡情報を記憶し、ステップS6に処理を移す。
ステップS6において、被写体照合装置1は、被写体追跡部12により、ステップS5において新たに出現した被写体を検出できたか否かを判別する。検出できたと判別した場合には、ステップS7に処理を移し、検出できなかったと判別した場合には、ステップS1に処理を戻す。
ステップS7において、被写体照合装置1は、画像特徴情報抽出部14により、ステップS5において新たに出現を検出できた被写体の画像特徴情報を、ステップS1において入力を受け付けた現在のフレームのフレーム画像から抽出するとともに、画像特徴情報記憶部15により、抽出した被写体の画像特徴情報を記憶し、ステップS8に処理を移す。
ステップS8において、被写体照合装置1は、仮対応設定部16により、ステップS5においてそれまでに記憶した被写体の追跡情報と、ステップS7においてそれまでに記憶した被写体の画像特徴情報と、を用いて、現在のフレームにおいて出現した被写体と、現在のフレームよりも前のフレームにおいて消失した被写体と、について仮対応を設定し、ステップS9に処理を移す。
ステップS9において、被写体照合装置1は、仮対応分類部17により、仮対応分類処理を行って、ステップS8において現在のフレームで新たに設定した仮対応を、L個のクラスのうちいずれかに分類するとともに、これらL個のクラスのそれぞれを正対応クラスと誤対応クラスとに分類し、ステップS10に処理を移す。被写体照合装置1が行う仮対応分類処理の詳細については、図3を用いて後述する。
ステップS10において、被写体照合装置1は、照合部18により、被写体照合処理を行って、現在のフレームにおいて出現した被写体について照合を行うとともに、被写体追跡情報記憶部13により、照合結果を被写体の追跡情報として記憶し、ステップS1に処理を戻す。
図3は、被写体照合装置1が行う仮対応分類処理のフローチャートである。
ステップS21において、被写体照合装置1は、仮対応分類部17により、ステップS8において現在のフレームで新たに設定した仮対応について、クラスタリングによりL個のクラスのうちのいずれかに分類して、ステップS22に処理を移す。
ステップS22において、被写体照合装置1は、仮対応分類部17により、L個のクラスのそれぞれに属する仮対応の数を求め、ステップS23に処理を移す。
ステップS23において、被写体照合装置1は、仮対応分類部17により、ステップS22において求めたL個のクラスのそれぞれに属する仮対応の数に基づいて、各クラスを正対応クラスと誤対応クラスとに分類し、図3に示した仮対応分類処理を終了する。
図4は、被写体照合装置1が行う被写体照合処理のフローチャートである。
ステップS31において、被写体照合装置1は、照合部18により、ステップS23において正対応クラスに分類したクラスに属する仮対応を抽出し、ステップS32に処理を移す。
ステップS32において、被写体照合装置1は、照合部18により、ステップS31において抽出した仮対応のそれぞれについて、照合スコアを算出し、ステップS33に処理を移す。
ステップS33において、被写体照合装置1は、まず、照合部18により、現在のフレームにおいて出現した被写体について、現在のフレームよりも前のフレームにおいて消失した被写体のうち、現在のフレームにおいて出現した被写体との照合スコアが最大になるものを、選択する。次に、被写体追跡情報記憶部13により、これら出現した被写体と選択した消失した被写体とを、同一の被写体であるとして対応付けて記憶し、図4に示した被写体照合処理を終了する。
以上の被写体照合装置1によれば、以下の効果を奏することができる。
被写体照合装置1は、被写体の照合に、映像内に被写体が出現した位置と、この被写体が出現したタイミングよりも前にこの映像内から被写体が消失した位置と、を用いる。このため、照合する対象の数を絞ることができるので、図7に示したように被写体が障害物の陰に隠れてしまったり、図8に示したように被写体がカメラ視野外に移動してしまったりして、被写体がカメラ視野内から一時的に消失しても、被写体の照合を高精度に行うことができる。
また、被写体照合装置1は、被写体検出部11で入力を受け付けた映像から、被写体が出現した位置の情報と、被写体が消失した位置の情報と、を取得して、上述の特定の位置を自動的に推定して、被写体の照合に用いることができる。このため、上述の特定の位置をユーザが予め用意する必要がないため、上述の特定の位置をユーザが予め用意しなくてはならない場合と比べて、ユーザビリティを向上させることができる。
また、被写体照合装置1は、設定した仮対応をL個のクラスに分類する際に、被写体が映像内から消失してから、この映像内に被写体が出現するまでの時間tijを用いることもできる。このため、被写体の照合に、被写体が障害物の陰に隠れている時間や、被写体がカメラ視野内から消失している時間を用い、照合する対象の数をさらに絞って、被写体がカメラ視野内から一時的に消失しても、被写体の照合をより高精度に行うことができる場合がある。
また、被写体照合装置1は、設定した仮対応について、画像特徴情報による被写体の画像間の距離の逆数と、この仮対応が分類されたクラスに属する仮対応の数と、を乗算する。さらに、出現した被写体に対して、この被写体が出現したタイミングよりも前にこの映像内から消失した被写体のうち、出現した被写体との上述の乗算結果(照合スコア)が最大であるものを、対応付ける。このため、被写体の出現した位置と消失した位置とが近かったり、出現した位置や消失した位置が同じである被写体の数が多かったりするほど、これら出現した被写体と消失した被写体とを同一の被写体として対応付けることができる。
また、被写体照合装置1は、L個のクラスのそれぞれについて、そのクラスに属する仮対応の数が閾値以上であれば正対応クラスに分類し、そのクラスに属する仮対応の数が閾値未満であれば誤対応クラスに分類する。このため、誤対応クラスに属するクラスに分類された仮対応については、被写体が出現したり消失したりした位置が上述の特定の位置ではないとして、照合する対象から外し、照合する対象の数をさらに絞ることができる。したがって、被写体がカメラ視野内から一時的に消失しても、被写体の照合をより高精度に行うことができる。
<第2実施形態>
[被写体照合装置1Aの構成および動作]
図5は、本発明の第2実施形態に係る被写体照合装置1Aのブロック図である。被写体照合装置1Aは、1台のカメラで撮影が既に完了している映像について、被写体の照合を1度で行う。この被写体照合装置1Aは、図1に示した本発明の第1実施形態に係る被写体照合装置1とは、制御部19を備える点が異なる。なお、被写体照合装置1Aにおいて、被写体照合装置1と同一構成要件については、同一符号を付し、その説明を省略する。
制御部19は、被写体検出部11、被写体追跡部12、被写体追跡情報記憶部13、画像特徴情報抽出部14、画像特徴情報記憶部15、および仮対応設定部16を制御して、1台のカメラで撮影が既に完了している映像を構成する全てのフレーム画像において、仮対応の設定を完了するまで、フレーム画像ごとに仮対応を設定するための処理を繰り返す。また、制御部19は、仮対応分類部17および照合部18を制御して、1台のカメラで撮影が既に完了している映像を構成する全てのフレーム画像において仮設定の設定が完了した後に、1度で、仮対応の分類および被写体の照合を行う。
図6は、被写体照合装置1Aが行う被写体照合処理のフローチャートである。
ステップS51において、被写体照合装置1Aは、被写体検出部11により、上述のカメラで撮影が既に完了している映像の入力を受け付け、この映像を構成する複数のフレーム画像のうち現在のフレームのフレーム画像を選択し、ステップS2に処理を移す。
ステップS52からステップS58のそれぞれでは、被写体照合装置1Aは、被写体照合装置1が行うステップS2からステップS8のそれぞれと同様の処理を行う。また、ステップS60およびステップS61のそれぞれでは、被写体照合装置1Aは、被写体照合装置1が行うステップS9およびステップS10のそれぞれと同様の処理を行う。
ステップS59において、制御部19は、1台のカメラで撮影が既に完了している映像を構成する全てのフレーム画像において、ステップS58における仮対応の設定を完了したか否かを判別する。完了したと判別した場合には、ステップS60に処理を移し、完了していないと判別した場合には、処理対象フレームを次のフレームに更新して、ステップS51に処理を戻す。
以上の被写体照合装置1Aによれば、被写体照合装置1がリアルタイムで行う被写体の照合を、1台のカメラで撮影が既に完了している映像を構成する全てのフレーム画像において仮設定の設定が完了した後に、1度で行うことができる。
なお、本発明の被写体照合装置1や被写体照合装置1Aの処理を、コンピュータ読み取り可能な非一時的な記録媒体に記録し、この記録媒体に記録されたプログラムを被写体照合装置1や被写体照合装置1Aに読み込ませ、実行することによって、本発明を実現できる。
ここで、上述の記録媒体には、例えば、EPROMやフラッシュメモリといった不揮発性のメモリ、ハードディスクといった磁気ディスク、CD−ROMなどを適用できる。また、この記録媒体に記録されたプログラムの読み込みおよび実行は、被写体照合装置1や被写体照合装置1Aに設けられたプロセッサによって行われる。
また、上述のプログラムは、このプログラムを記憶装置などに格納した被写体照合装置1や被写体照合装置1Aから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネットなどのネットワーク(通信網)や電話回線などの通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上述のプログラムは、上述の機能の一部を実現するためのものであってもよい。さらに、上述の機能を被写体照合装置1や被写体照合装置1Aにすでに記録されているプログラムとの組み合せで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
以上、この発明の実施形態につき、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計なども含まれる。
例えば、上述の第1実施形態や第2の実施形態では、1台のカメラで撮影される映像について被写体の照合を行うものとしたが、これに限らず、複数台のカメラで撮影される映像について被写体の照合を行うものとしてもよい。例えば、カメラAで撮影された映像と、カメラBで撮影された映像と、について被写体の照合を行う場合について、以下に説明する。
まず、予め、カメラAによるフレーム画像の座標と、予め定められた3次元空間中の特定の平面の座標と、の間で成立する平面射影行列を求めておく。また、予め、カメラBによるフレーム画像の座標と、上述の3次元空間中の特定の平面の座標と、の間で成立する平面射影行列も求めておく。次に、カメラAによるフレーム画像の座標上の位置と、カメラBによるフレーム画像の座標上の位置と、を上述のそれぞれの平面射影行列を用いて、上述の3次元空間中における座標上の位置に射影する。以上によれば、カメラAによるフレーム画像の座標上の位置と、カメラBによるフレーム画像の座標上の位置と、を同一の座標上で比較することができ、これらカメラA、Bのそれぞれで撮影される映像を、上述の第1実施形態や第2の実施形態における1台のカメラで撮影される映像と同様に扱うことができる。
なお、上述の特定の平面を有する3次元空間として、現実空間をモデル化した仮想3次元空間を適用し、仮想3次元空間における床面と、フレーム画像平面と、の間の対応関係を用いるものとする。すると、上述のフレーム画像が床面上にある被写体を映した画像である場合、この被写体が、仮想3次元空間中の床面座標上のどこにあるのかを計算することができる。このため、床面座標同士で比較するためには、被写体の足元が床面に接していると仮定して、被写体の足元位置のフレーム画像内の座標を算出し(例えば、算出された被写体領域の最下点座標とする)、平面射影行列を用いることで、床面座標に変換する必要がある。
また、例えば、上述の第1実施形態や第2実施形態では、仮対応分類部17は、予め定められた閾値に基づいて、L個のクラスのそれぞれを正対応クラスと誤対応クラスとに分類するものとした。この閾値は、例えば、一意の値であってもよいし、仮対応設定部16により設定された仮対応の数に応じて設定される値であってもよい。仮対応の数に応じて閾値を設定する場合には、例えば、この閾値を、仮対応の数のP割(Pは、P≧0を満たす任意の数)の値としてもよい。
また、例えば、上述の第1実施形態や第2実施形態では、画像特徴情報抽出部14は、被写体の画像特徴情報の抽出を、非特許文献1に示されている技術を用いて行うことができるものとした。しかし、これに限らず、被写体が人物である場合には、例えば、顔認識(例えば、非特許文献4参照)や、性別や年齢といった顔属性(例えば、非特許文献5参照)や、歩容認識(例えば、非特許文献6参照)などを用いて行うこともできる。
1、1A・・・被写体照合装置
11・・・被写体検出部
12・・・被写体追跡部
13・・・被写体追跡情報記憶部
14・・・画像特徴情報抽出部
15・・・画像特徴情報記憶部
16・・・仮対応設定部
17・・・仮対応分類部
18・・・照合部
19・・・制御部

Claims (8)

  1. 映像内の被写体の照合を行う被写体照合装置であって、
    前記映像内に出現した被写体と、当該被写体が出現したタイミングよりも前に当該映像内から消失した被写体と、の仮対応を設定する仮対応設定手段と、
    前記仮対応設定手段により設定された仮対応を、前記映像内の被写体の位置情報を用いて複数のクラスに分類する仮対応分類手段と、
    前記仮対応分類手段による分類結果に基づいて、前記出現した被写体と、前記消失した被写体と、の照合を行う照合手段と、を備えることを特徴とする被写体照合装置。
  2. 前記仮対応分類手段は、前記映像内に被写体が出現した位置の位置情報と、当該被写体が出現したタイミングよりも前に当該映像内から被写体が消失した位置の位置情報と、を用いて、前記仮対応設定手段により設定された仮対応を前記複数のクラスに分類することを特徴とする請求項1に記載の被写体照合装置。
  3. 前記仮対応分類手段は、被写体が前記映像内から消失してから、当該映像内に被写体が出現するまでの時間を用いて、前記仮対応設定手段により設定された仮対応を前記複数のクラスに分類することを特徴とする請求項1または2に記載の被写体照合装置。
  4. 前記照合手段は、
    前記仮対応設定手段により設定された仮対応について、画像特徴情報による被写体の画像間の距離の逆数と、当該仮対応が分類されたクラスに属する仮対応の数と、を乗算し、
    前記出現した被写体に対して、当該被写体が出現したタイミングよりも前に当該映像内から消失した被写体のうち、当該出現した被写体との前記乗算結果が最大であるものを、対応付けることを特徴とする請求項1から3のいずれかに記載の被写体照合装置。
  5. 前記仮対応分類手段は、前記複数のクラスのそれぞれについて、当該クラスに属する仮対応の数が閾値以上であれば正対応クラスに分類し、当該クラスに属する仮対応の数が当該閾値未満であれば誤対応クラスに分類することを特徴とする請求項1から4のいずれかに記載の被写体照合装置。
  6. 前記仮対応設定手段は、被写体の画像特徴情報を用いて仮対応を設定することを特徴とする請求項1から5のいずれかに記載の被写体照合装置。
  7. 仮対応設定手段、仮対応分類手段、および照合手段を備え、映像内の被写体の照合を行う被写体照合装置における被写体照合方法であって、
    前記仮対応設定手段が、前記映像内に出現した被写体と、当該被写体が出現したタイミングよりも前に当該映像内から消失した被写体と、の仮対応を設定する第1のステップと、
    前記仮対応分類手段が、前記仮対応設定手段により設定された仮対応を、前記映像内の被写体の位置情報を用いて複数のクラスに分類する第2のステップと、
    前記照合手段が、前記仮対応分類手段による分類結果に基づいて、前記出現した被写体と、前記消失した被写体と、の照合を行う第3のステップと、を備えることを特徴とする被写体照合方法。
  8. 仮対応設定手段、仮対応分類手段、および照合手段を備え、映像内の被写体の照合を行う被写体照合装置における被写体照合方法を、コンピュータに実行させるためのプログラムであって、
    前記仮対応設定手段が、前記映像内に出現した被写体と、当該被写体が出現したタイミングよりも前に当該映像内から消失した被写体と、の仮対応を設定する第1のステップと、
    前記仮対応分類手段が、前記仮対応設定手段により設定された仮対応を、前記映像内の被写体の位置情報を用いて複数のクラスに分類する第2のステップと、
    前記照合手段が、前記仮対応分類手段による分類結果に基づいて、前記出現した被写体と、前記消失した被写体と、の照合を行う第3のステップと、をコンピュータに実行させるためのプログラム。
JP2013035411A 2013-02-26 2013-02-26 被写体照合装置、被写体照合方法、およびプログラム Active JP5988894B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013035411A JP5988894B2 (ja) 2013-02-26 2013-02-26 被写体照合装置、被写体照合方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013035411A JP5988894B2 (ja) 2013-02-26 2013-02-26 被写体照合装置、被写体照合方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2014164549A JP2014164549A (ja) 2014-09-08
JP5988894B2 true JP5988894B2 (ja) 2016-09-07

Family

ID=51615092

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013035411A Active JP5988894B2 (ja) 2013-02-26 2013-02-26 被写体照合装置、被写体照合方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP5988894B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3017835A1 (en) 2016-03-30 2017-10-05 Nec Corporation Analysis apparatus, analysis method, and storage medium

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04126473A (ja) * 1990-09-18 1992-04-27 Toshiba Corp 自動追尾カメラ装置
JP3657116B2 (ja) * 1997-05-14 2005-06-08 株式会社日立国際電気 物体追跡方法及び物体追跡装置
JP4817318B2 (ja) * 2006-02-24 2011-11-16 独立行政法人産業技術総合研究所 2次元濃度ヒストグラムを用いた変化抽出方法、システム、及びプログラム
JP5203281B2 (ja) * 2009-03-31 2013-06-05 綜合警備保障株式会社 人物検出装置、人物検出方法、及び人物検出プログラム
JP2011014059A (ja) * 2009-07-06 2011-01-20 Nippon Telegr & Teleph Corp <Ntt> 行動分析システムおよび行動分析方法

Also Published As

Publication number Publication date
JP2014164549A (ja) 2014-09-08

Similar Documents

Publication Publication Date Title
Portmann et al. People detection and tracking from aerial thermal views
US9405974B2 (en) System and method for using apparent size and orientation of an object to improve video-based tracking in regularized environments
Tang et al. Cross-camera knowledge transfer for multiview people counting
Ogale A survey of techniques for human detection from video
KR101764845B1 (ko) 다중 이동 물체의 겹침 제거 및 추적을 위한 영상 감시 장치 및 방법
US11055538B2 (en) Object re-identification with temporal context
Lee et al. Driving recorder based on-road pedestrian tracking using visual SLAM and constrained multiple-kernel
CN110363790A (zh) 目标追踪方法、装置和计算机可读存储介质
Chen et al. Object tracking over a multiple-camera network
JP5988894B2 (ja) 被写体照合装置、被写体照合方法、およびプログラム
Eiselein et al. Enhancing human detection using crowd density measures and an adaptive correction filter
KR101595334B1 (ko) 농장에서의 움직임 개체의 이동 궤적 트래킹 방법 및 장치
Jacques et al. Head-shoulder human contour estimation in still images
Lallemand et al. Multi-task forest for human pose estimation in depth images
Cihan Camgoz et al. Facial landmark localization in depth images using supervised ridge descent
Roth et al. Multiple instance learning from multiple cameras
Camgoz et al. Facial landmark localization in depth images using supervised ridge descent
Lorenzo-Navarro et al. An study on re-identification in RGB-D imagery
Owczarek et al. Pedestrian tracking in video sequences: a particle filtering approach
JP2022019339A (ja) 情報処理装置、情報処理方法及びプログラム
Duanmu et al. A multi-view pedestrian tracking framework based on graph matching
Kerdvibulvech Hybrid model of human hand motion for cybernetics application
Gwak et al. Viewpoint invariant person re-identification for global multi-object tracking with non-overlapping cameras
Boufama et al. Tracking multiple people in the context of video surveillance
Mohaghegh et al. A four-component people identification and counting system using deep neural network

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150828

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160809

R150 Certificate of patent or registration of utility model

Ref document number: 5988894

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150