JP2017174273A - 動線生成装置及びプログラム - Google Patents
動線生成装置及びプログラム Download PDFInfo
- Publication number
- JP2017174273A JP2017174273A JP2016061560A JP2016061560A JP2017174273A JP 2017174273 A JP2017174273 A JP 2017174273A JP 2016061560 A JP2016061560 A JP 2016061560A JP 2016061560 A JP2016061560 A JP 2016061560A JP 2017174273 A JP2017174273 A JP 2017174273A
- Authority
- JP
- Japan
- Prior art keywords
- flow line
- likelihood
- area
- region
- flow
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Abstract
【課題】動線が途切れやすい領域を考慮せずに動体の動線を生成する場合に比べて、精度良く動体の動線を生成する。
【解決手段】動線生成装置は、複数の時点の各時点に撮像装置により撮像された画像を取得し、1又は複数の人を検出する(S21,S22)。動線生成装置は、マルコフ連鎖モンテカルロ法によるランダムサンプリングを行って、複数の時点の各時点の画像から検出した動体の組み合わせを変化させることで、複数通りの動線を抽出し、抽出した動線毎に、人の動線としての確からしさを示す尤度を計算する(S23〜S26)。この際、動線生成装置は、動線の始点又は終点が消失領域から離れるほど尤度が小さくなる計算式に基づいて、尤度を計算する。消失領域は、撮像画像において動線が消失しすい領域で、例えば、出入口付近や柱等の構造物が撮像されている領域である。動線生成装置は、計算した尤度に基づいて、動線を確定させる(S27)。
【選択図】図8
【解決手段】動線生成装置は、複数の時点の各時点に撮像装置により撮像された画像を取得し、1又は複数の人を検出する(S21,S22)。動線生成装置は、マルコフ連鎖モンテカルロ法によるランダムサンプリングを行って、複数の時点の各時点の画像から検出した動体の組み合わせを変化させることで、複数通りの動線を抽出し、抽出した動線毎に、人の動線としての確からしさを示す尤度を計算する(S23〜S26)。この際、動線生成装置は、動線の始点又は終点が消失領域から離れるほど尤度が小さくなる計算式に基づいて、尤度を計算する。消失領域は、撮像画像において動線が消失しすい領域で、例えば、出入口付近や柱等の構造物が撮像されている領域である。動線生成装置は、計算した尤度に基づいて、動線を確定させる(S27)。
【選択図】図8
Description
本発明は、動線生成装置及びプログラムに関する。
商業施設等における空間を撮像し、その撮像した画像を用いて、人の動線を解析したり、来訪者の人数を計数したりする技術が知られている。非特許文献1の技術では、動画像を構成する画像(静止画像)の各々から人が存在する領域を検出し、マルコフ連鎖モンテカルロ法によるランダムサンプリングを行って、人毎の動線を抽出する。そして、非特許文献1の技術では、動線毎に人の動線としての確からしさを示す尤度を計算し、更に、複数の動線の尤度の積を計算して、当該積が最も大きい動線を、最終的に人の動線として確定させる。
Stable Multi-Target Tracking in Real-Time Surveillance Video、[online]、[平成28年3月8日検索]、インターネット(URL: http://www.robots.ox.ac.uk/~lav/Papers/benfold_reid_cvpr2011/benfold_reid_cvpr2011.html)
人間を含む物体が移動する様子を撮影した画像から、物体の移動の軌跡(動線)を特定する際に、撮像した画像に含まれるノイズやその他の原因により、ひと続きであるべき動線が途中で途切れてしまい(消失してしまい)、本来の動線を生成できない場合がある。
そこで、本発明の目的は、動線が途切れやすい領域を考慮せずに動体の動線を生成する場合に比べて、精度良く動体の動線を生成することである。
そこで、本発明の目的は、動線が途切れやすい領域を考慮せずに動体の動線を生成する場合に比べて、精度良く動体の動線を生成することである。
本発明の請求項1に係る動線生成装置は、複数の時点の各時点に撮像装置により撮像された画像を取得する取得部と、前記複数の時点の各時点の前記画像から、1又は複数の動体を検出する検出部と、検出された前記1又は複数の動体毎の動線を抽出する抽出部と、前記撮像装置が撮像する画像において動線が消失しやすい領域を設定する設定部と、抽出された前記動体毎の動線の確からしさを示す尤度を計算する計算部であって、当該動線の始点又は終点が前記領域から離れるほど前記尤度が小さくなる計算式に基づいて、前記尤度を計算する計算部と計算された前記尤度に基づいて、前記1又は複数の動体の動線を確定させる確定部とを備える。
本発明の請求項2に係る動線生成装置は、請求項1に係る構成において、前記抽出部は、前記複数の時点の各時点の画像から検出された動体の組み合わせを変化させることで、複数通りの前記動線を抽出し、前記確定部は、前記複数通りの前記動線のうち、抽出された前記1又は複数の動線の尤度の積が最大である前記動線に確定させることを特徴とする。
本発明の請求項3に係る動線生成装置は、請求項1又は請求項2に係る構成において、前記設定部は、確定させた前記1又は複数の動体の動線の始点又は終点の分布に基づいて、前記領域を設定することを特徴とする。
本発明の請求項4に係る動線生成装置は、請求項1から請求項3のいずれか1項に係る構成において、前記設定部は、前記領域を指定する操作に基づいて、前記領域を設定することを特徴とする。
本発明の請求項5に係るプログラムは、コンピュータに、複数の時点の各時点に撮像装置により撮像された画像を取得するステップと、前記複数の時点の各時点の前記画像から、1又は複数の動体を検出するステップと、検出された前記1又は複数の動体毎の動線を抽出するステップと、前記撮像装置が撮像する画像において動線が消失しやすい領域を設定するステップと、抽出された前記動体毎の動線の確からしさを示す尤度を計算するステップであって、当該動線の始点又は終点が前記領域から離れるほど前記尤度が小さくなる計算式に基づいて、前記尤度を計算するステップと計算された前記尤度に基づいて、前記1又は複数の動体の動線を確定させるステップとを実行させるためのプログラムである。
請求項1,5に係る発明によれば、動線が途切れやすい領域を考慮せずに動体の動線を生成する場合に比べて、精度良く動体の動線を生成することができる。
請求項2に係る発明によれば、1又は複数の動体の尤度の積に基づかないで動線を確定させる場合に比べて、複数の動体が存在する場合でも精度良く動線を生成することができる。
請求項3に係る発明によれば、撮像される空間に応じた動線が消失しやすい領域を、自動設定することができる。
請求項4に係る発明によれば、動線を生成する処理を行わなくとも、動線が消失しやすい領域を設定することができる。
請求項2に係る発明によれば、1又は複数の動体の尤度の積に基づかないで動線を確定させる場合に比べて、複数の動体が存在する場合でも精度良く動線を生成することができる。
請求項3に係る発明によれば、撮像される空間に応じた動線が消失しやすい領域を、自動設定することができる。
請求項4に係る発明によれば、動線を生成する処理を行わなくとも、動線が消失しやすい領域を設定することができる。
本発明は、商業施設等の空間を撮像した画像に基づいて、当該空間に存在する動体の動線を生成する発明である。以下、動体が人である場合を説明するが、本発明は、人以外の動体(例えば動物)の動線の生成に適用されてもよい。
次に、本実施形態に係る動線を生成する処理の概要を説明する。
図1は、或る空間に存在する人Hの移動の様子を示す図である。図1には、時刻T1,T2,T3の各時点において人Hが存在する位置を、上方から見た図が示されている。図2は、人Hが存在する空間を撮像した画像からの人の検出、及び人の動線の抽出に係る処理を説明する図である。図2には、時刻T1,T2,T3の各時点に撮像された、撮像画像IM1,IM2,IM3が示されている。撮像画像は、動画像を構成する1コマ(1フレーム)の静止画像であるものとする。
本実施形態の動線を生成する処理は、「人の検出」と、「動線の抽出」と、「動線毎の尤度の計算」と、「動線尤度の計算」とに大別される。
図1は、或る空間に存在する人Hの移動の様子を示す図である。図1には、時刻T1,T2,T3の各時点において人Hが存在する位置を、上方から見た図が示されている。図2は、人Hが存在する空間を撮像した画像からの人の検出、及び人の動線の抽出に係る処理を説明する図である。図2には、時刻T1,T2,T3の各時点に撮像された、撮像画像IM1,IM2,IM3が示されている。撮像画像は、動画像を構成する1コマ(1フレーム)の静止画像であるものとする。
本実施形態の動線を生成する処理は、「人の検出」と、「動線の抽出」と、「動線毎の尤度の計算」と、「動線尤度の計算」とに大別される。
第1に、撮像時点の時系列の順番に従って、撮像画像から人が検出される。ここでは、まず、撮像画像IM1から人が検出される。人の検出は、背景差分法やHOG(Histograms of Oriented Gradients)特徴量を用いる方法等の、公知のアルゴリズムに従って行われるとよい。撮像画像IM1からは、人領域A1が検出される。人領域は、本実施形態では、人を撮像した領域の外接矩形によって特定される。人領域A1の大きさは、D1である。人領域の大きさは、例えば、人領域の面積によって特定されるが、一辺の長さや対角線の長さ等によって特定されてもよい。人領域A1の位置に基づいて、時刻T1における人Hの位置P1が特定される。人の位置は、本実施形態では人の頭部の重心とするが、人領域内の別の位置としてもよい。
次に、撮像画像IM2から人が検出される。撮像画像IM2からは、人領域A2が検出される。人領域A2の大きさは、D2である。また、人領域A2の位置に基づいて、時刻T2における人Hの位置P2が特定される。次に、撮像画像IM3から人が検出される。撮像画像IM3からは、人領域A3が検出される。人領域A3の大きさは、D3である。また、人領域A3の位置に基づいて、時刻T3における人Hの位置P3が特定される。ここでは、位置P1は動線Mの始点に対応し、位置P1は動線Mの終点に対応する。
第2に、撮像画像の人が検出された領域に基づいて、当該人の動線が抽出される。動線は、複数の時点の各時点の撮像画像から検出された人領域の組み合わせによって特定される。ここでは、位置P1,P2,P3が、撮像時点の時系列の順番に線で結ばれることで、人Hの動線Mが抽出される。
計算式(1)において、「n」は自然数で、一の動線を構成する人領域の数によって特定される。動線Mの場合、n=3である。「LDi(Di)」(iは自然数)は、人領域Aiの大きさDiを変数として含む関数である。人領域の大きさは、人体の大きさに応じた或る範囲内に収まると考えられる。即ち、検出された人領域の大きさは、確かに人が検出されたのか、又はノイズ等が誤って人として検出されたのかを判断する指標となる。
具体的には、i=1である場合のLDi(Di)、つまり、「LD1(D1)」は、人領域A1の大きさD1を変数として含む関数である。LD1(D1)は、大きさD1が人の大きさを示すものとして確からしいほど大きな値をとり、逆であるほど小さな値をとる。ここでは、0≦LD1(D1)≦1の条件を満たす。LD1(D1)は、一次関数、二次以上の関数、又はその他の関数であってもよい。
i≧2である場合のLDi(Di)は、人領域Aiの大きさDiと、検出された人領域Aiと人領域Ai−1との位置関係に応じた値を変数として含む関数である。位置関係は、例えば、人領域Aiと人領域Ai−1との距離、及び人領域Aiと人領域Ai−1との一方から他方を見た方向によって特定される。i≧2である場合のLDi(Di)は、大きさDiの人の大きさを示すものとして確からしさと、人領域Aiと人領域Ai−1との位置関係の人の移動を示すものとしての確からしさとに応じた値をとる。ここでは、0≦LDi(Di)≦1の条件を満たす。i≧2である場合のLDj(Di)は、一次関数、二次以上の関数、又はその他の関数であってもよい。
第4に、動線尤度の計算が行われる。尤度LT(D)は、一つの動線の確からしさを示すが、撮像画像からは複数の動線が抽出される場合がある。この複数の動線は、典型的には複数人の動線を示すが、場合によっては、撮像画像に含まれるノイズが動線として抽出される場合もある。よって、撮像画像から抽出された1又は複数の動線の全体としての確からしさを示す値として、動線尤度が計算される。動線尤度は、具体的には、1又は複数の動線の尤度LT(D)の積である。抽出された動線が1つの場合は、動線尤度は尤度LT(D)に等しい。動線尤度の値が大きいほど、抽出された1又は複数の動線がより確からしいこと意味する。
本実施形態において、「動線の抽出」は、マルコフ連鎖モンテカルロ法によるランダムサンプリングにより行われる。具体的には、動線は、複数の時点の各時点の撮像画像から検出された人領域の組み合わせを、乱数を用いてランダムに変化させることで、複数通り抽出される。ここで、人領域Aiが、図3の上段の図に示すとおりに抽出された場合を考える。この図において、1つの矩形が1つの人領域Aiを表している。この場合、図3に示す「動線の抽出結果 その1」、「動線の抽出結果 その2」、・・・のように、人領域の組み合わせが異なる複数通りの動線(図3の破線参照)が抽出されることとなる。
「動線毎の尤度の計算」、及び「動線尤度の計算」は、この複数通りの動線毎に行われる。具体的には、或る動線の抽出結果について動線尤度が計算されると、それよりも先に計算された別の動線の抽出結果についての動線尤度のうち、最大の動線尤度と比較される。そして、動線尤度がより高い一方の動線の抽出結果が選択される。そして、この選択した動線の抽出結果のうちの、少なくとも一部の動線を構成する人領域を、ランダムに変化させて、動線尤度が改めて計算される。計算された動線尤度は、その時点で最大の動線尤度と比較され、動線尤度がより高い一方の動線の抽出結果が選択される。この処理が規定回数繰り返し実行されて、最終的に動線尤度が最も高い動線の抽出結果が、撮像画像から抽出された1又は複数の動線として確定(判定)される。
しかし、単にこの方法を採用しただけでは、撮像画像に含まれるノイズやその他の原因により、ひと続きであるべき動線が途中で途切れてしまい(消失してしまい)、本来の動線が生成されない場合がある。この問題を解決するための構成を、本実施形態の動線生成装置は備えている。
図4は、本実施形態の動線生成装置1の構成を示すブロック図である。動線生成装置1は、制御部10と、操作部20と、インタフェース30と、通信部40と、表示部50と、消失点データ記憶部60と、消失領域データ記憶部70と、動線データ記憶部80とを備える。
制御部10は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)を有するプロセッサを備える。CPUは、ROMに記憶されたプログラムをRAMに読み出して実行することにより、動線生成装置1の各部を制御する。
制御部10は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)を有するプロセッサを備える。CPUは、ROMに記憶されたプログラムをRAMに読み出して実行することにより、動線生成装置1の各部を制御する。
操作部20は、例えばタッチセンサ又は物理キーを備え、ユーザにより行われた操作を受け付ける。インタフェース30は、撮像装置100と接続するインタフェースである。撮像装置100は、動線を生成する対象の空間を撮像するように設置されている。撮像装置100は、撮像により得られた撮像画像を、例えばその撮像順に従って(フレームの順番で)、インタフェース30に出力する。通信部40は、例えばモデムを備え、インターネット等の通信回線に接続して通信を行う。表示部50は、例えば液晶ディスプレイを備え、表示面に画像を表示する。
消失点データ記憶部60、消失領域データ記憶部70、及び動線データ記憶部80は、1又は複数の記憶装置(例えばハードディスク装置)によって構成される。
消失点データ記憶部60は、消失点データを記憶する。消失点データは、撮像画像において動線が消失した位置を示すデータで、具体的には、当該動線の始点又は終点の位置を示すデータである。
消失点データ記憶部60は、消失点データを記憶する。消失点データは、撮像画像において動線が消失した位置を示すデータで、具体的には、当該動線の始点又は終点の位置を示すデータである。
消失領域データ記憶部70は、消失領域を表す消失領域データを記憶する。消失領域データは、撮像装置100に固有のデータで、撮像装置100の撮像画像において動線が消失しやすい領域(以下「消失領域」という。)を示すデータである。
動線データ記憶部80は、確定した動線を表す動線データを記憶する。この動線データは、来訪者の人数の計数やその他の目的で用いられる。
制御部10は、取得部11と、検出部12と、抽出部13と、計算部14と、確定部15と、設定部16とに相当する機能を実現する。計算部14は、更に、第1尤度計算部141と、第2尤度計算部142とを含む。
取得部11は、撮像装置100により複数の時点の各時点に撮像された撮像画像を、インタフェース30を介して取得する。検出部12は、取得した複数の時点の各時点の撮像画像から、1又は複数の人の検出を行う。抽出部13は、検出された人が存在する領域である人領域に基づいて、1又は複数の人毎の動線を抽出する。抽出部13は、マルコフ連鎖モンテカルロ法によるランダムサンプリングを行って、人領域の組み合わせを変化させて、複数通りの動線を抽出するものとする。
取得部11は、撮像装置100により複数の時点の各時点に撮像された撮像画像を、インタフェース30を介して取得する。検出部12は、取得した複数の時点の各時点の撮像画像から、1又は複数の人の検出を行う。抽出部13は、検出された人が存在する領域である人領域に基づいて、1又は複数の人毎の動線を抽出する。抽出部13は、マルコフ連鎖モンテカルロ法によるランダムサンプリングを行って、人領域の組み合わせを変化させて、複数通りの動線を抽出するものとする。
計算部14は、抽出された動線毎の尤度LT(D)を計算する。第1尤度計算部141は、計算式(1)に基づいて尤度LT(D)を計算する。第2尤度計算部142は、計算式(1)ではなく、動線の始点又は終点が消失領域から離れるほど尤度LT(D)が小さくなる計算式(後述する計算式(2))に基づいて、尤度LT(D)を計算する。
確定部15は、計算部14により計算された尤度LT(D)に基づいて、1又は複数の人の動線を確定させる。確定部15は、抽出された複数通りの動線の各々について、尤度LT(D)の積により動線尤度を計算し、当該動線尤度が最大となった動線に確定させる。確定部15は、確定させた動線を示す動線データを、動線データ記憶部80に記憶させる。また、確定部15は、確定させた動線の始点及び終点に基づいて、消失点データを、消失点データ記憶部60に記録する。
設定部16は、撮像装置100の撮像画像における消失領域を設定する。設定部16は、消失点データ記憶部60に記憶された消失点データに基づいて、当該撮像画像における消失点の分布を特定し、この分布に基づいて消失領域を設定する。設定部16は、この消失領域を示す消失領域データを、消失領域データ記憶部70に記録する。第2尤度計算部142は、消失領域データ記憶部70に記憶された消失領域データに基づいて、尤度LT(D)を計算することとなる。
図5は、動線生成装置1が実行する消失領域の設定に係る処理である。図6及び図7は、消失領域の設定に係る処理の具体例を示す図である。
制御部10は、撮像装置100からの撮像画像を、インタフェース30を介して取得する(ステップS1)。図6の上段には、或る空間を上方から斜め下方向に撮像した場合の撮像画像IMが示されている。撮像画像IMには、人の動線に与え得る構造物として、壁W1,W2、柱Ob1,Ob2,Ob3が含まれている。以下、撮像時点を特に区別せず、撮像装置100の撮像画像を「撮像画像IM」と総称する。
制御部10は、撮像装置100からの撮像画像を、インタフェース30を介して取得する(ステップS1)。図6の上段には、或る空間を上方から斜め下方向に撮像した場合の撮像画像IMが示されている。撮像画像IMには、人の動線に与え得る構造物として、壁W1,W2、柱Ob1,Ob2,Ob3が含まれている。以下、撮像時点を特に区別せず、撮像装置100の撮像画像を「撮像画像IM」と総称する。
次に、制御部10は、ステップS1で取得した複数の時点の各時点の撮像画像から人を検出する(ステップS2)。次に、制御部10は、検出した人が存在する人領域に基づいて、人毎の動線を抽出する(ステップS3)。ここでは、図6の下段の図に示すように、人H1の動線M1と、人H2の動線M2とが抽出されたものとする。
次に、制御部10は、計算式(1)に基づいて、抽出した動線毎の尤度LT(D)を計算する(ステップS4)。図6の下段の図の場合、制御部10は、動線M1の尤度LT(D)と、動線M2の尤度LT(D)とを計算する。次に、制御部10は、抽出した1又は複数の動線の尤度LT(D)の積を計算することで、動線尤度を計算する(ステップS5)。図6の下段の図の場合、制御部10は、動線M1の尤度LT(D)と、動線M2の尤度LT(D)との積を、動線尤度として計算する。
次に、制御部10は、規定数の動線について動線尤度を計算したかを判定する(ステップS6)。規定数は、予め決められた数で、例えば「1000」である。ステップS6で「NO」と判定した場合、制御部10は、ステップS3の処理に戻る。そして、制御部10は、人領域の組み合わせを変化させて、別の動線を抽出する。そして、制御部10は、計算式(1)に基づく尤度LT(D)の計算、及び動線尤度を行う。ステップS3〜S6の処理は、前述したマルコフ連鎖モンテカルロ法によるランダムサンプリングにより行われる。
規定数の動線について動線尤度を計算すると、制御部10は、ステップS6で「YES」と判定する。次に、制御部10は、その時点で最大の動線尤度となった動線を、人の動線を示すものとして確定させる(ステップS7)。ここでは、人H1の動線M1と、人H2の動線M2とに確定されたものとする。
次に、制御部10は、確定させた動線の始点及び終点に基づいて、消失点データを、消失点データ記憶部60に記録する(ステップS8)。制御部10は、ここでは、図7の上段の図に示すように、動線M1の始点である位置P11及び終点である位置P12、並びに動線M2の始点である位置P21及び終点である位置P22を消失点として、消失点データを記録する。
次に、制御部10は、規定数の消失点データが消失点データ記憶部60に記憶されたかどうかを判定する(ステップS9)。規定数は、予め決められた数で、例えば「1000」である。ステップS9「NO」と判定した場合、制御部10は、図5の処理を終了する。
動線生成装置1では、ステップS1〜S8の処理を繰り返し実行することで、消失データを、消失点データ記憶部60に記録(蓄積)していく。
動線生成装置1では、ステップS1〜S8の処理を繰り返し実行することで、消失データを、消失点データ記憶部60に記録(蓄積)していく。
消失点データ記憶部60に記憶された消失点データの数が増大して規定数に達すると、制御部10は、ステップS9で「YES」と判定し、ステップS10の処理に進む。次に、制御部10は、消失点データ記憶部60に記憶された消失点データに基づいて、消失点の分布を特定する(ステップS10)。ここでは、制御部10は、撮像画像上にプロットした消失点に基づいてクラスタリングを行い、消失点の密度が相対的に領域を特定する。クラスタリングのアルゴリズムは、例えばK平均法、最小平均分散法、又は最短距離法であるが、特に問わないものとする。
次に、制御部10は、特定した消失点の分布に基づいて、撮像画像において動線が消失しやすい領域を、消失領域として設定する(ステップS11)。ステップS11では、制御部10は、設定した消失領域を示す消失領域データを、消失領域データ記憶部70に記録する。
ここで、撮像画像IMにおいて、図7の中段の図に示すように消失点が分布する場合を考える。この図において、各「○」印が消失点を示す。この場合、制御部10は、例えば図7の下段の図に示すように、消失領域C1,C2,C3を設定する。消失点は、出入口付近や、柱Ob1,Ob2,Ob3の背後のような物陰が存在する場所付近で、高頻度で現れるはずである。言い換えれば、撮像画像IMの中心付近の領域のように、出入口付近でもなく、物陰も存在しない場所付近の領域には、消失点はあまり現れない。図7の中段の図に示すように、少数ではあるものの、このような場所に現れている消失点は、撮像画像に含まれるノイズ等を原因としており、人の本来の動線の始点又は終点を示している可能性は低い。この理由により、制御部10は、消失点が全く存在しない領域に加え、消失点の密度が一定値未満の領域を、消失領域に含めないようにしている。
以上が、消失領域の設定に係る制御部10の処理の説明である。
以上が、消失領域の設定に係る制御部10の処理の説明である。
図8は、動線生成装置1が実行する消失領域に基づいて行う動線の生成に係る処理を示すフローチャートである。
制御部10は、撮像装置100からの撮像画像を、インタフェース30を介して取得する(ステップS21)。次に、制御部10は、ステップS1で取得した複数の時点の各時点の撮像画像から人を検出する(ステップS22)。次に、制御部10は、検出した人が存在する人領域に基づいて、人毎の動線を抽出する(ステップS23)。ステップS21〜S23の各処理は、ステップS1〜S3の各処理と同じである。
制御部10は、撮像装置100からの撮像画像を、インタフェース30を介して取得する(ステップS21)。次に、制御部10は、ステップS1で取得した複数の時点の各時点の撮像画像から人を検出する(ステップS22)。次に、制御部10は、検出した人が存在する人領域に基づいて、人毎の動線を抽出する(ステップS23)。ステップS21〜S23の各処理は、ステップS1〜S3の各処理と同じである。
計算式(2)は、計算式(1)の「LD1(D1)」を、「L'D1(D1)」に置き換えた計算式に等しい。「L'D1(D1)」は、計算式(1)で用いられていた関数LD1(D1)に、関数LV(D1)を乗じた関数である。「LV(D1)」は、動線の始点が、当該始点から最も近い消失領域内の点(例えば重心)から近い場合ほど大きな値をとり、遠い場合ほど小さな値をとる。LV(D1)は、例えば、平均μj、分散σj 2の正規分布(Normal distribution)に従う関数である。ただし、LV(D1)は、これに限られず、例えば一次関数、二次以上の関数、又はその他の関数であってもよい。
次に、制御部10は、計算した尤度LT(D)の積により動線尤度を計算する(ステップS25)。次に、制御部10は、規定数の動線について動線尤度を計算したかどうかを判定する(ステップS26)。ステップS26で「NO」と判定すると、制御部10は、ステップS23の処理に戻る。ステップS26で「YES」と判定すると、制御部10は、その時点で最大の動線尤度となった動線を、人の動線を示すものとして確定させる(ステップS27)。ステップS25〜S27の各処理は、ステップS5〜S7の各処理と同じである。
ところで、或る動線について計算式(2)により計算される尤度LT(D)と、計算式(1)により計算される尤度LT(D)とを比較した場合、当該動線の始点が消失領域から離れている場合ほど、計算式(2)により計算される尤度LT(D)が、計算式(1)により計算される尤度LT(D)と比較して小さな値を示す。このため、始点が消失領域から離れている動線が抽出された場合には、動線尤度も小さくなり、最終的に人の動線を示すものとして確定される可能性も低くなる。
ここで、ステップS23において、図9の上段の図に示す動線M21,M31が抽出された場合を考える。動線M21は、位置P21と位置P22とを結ぶ動線である。動線M31は、位置P31と、位置P32と、位置P33とを結ぶ動線である。計算式(1)に基づく計算によると、最終的に、動線M21,M31に確定される可能性がある。しかし、計算式(2)に基づく計算によると、動線M31の始点である位置P31が、消失領域C1から比較的離れている。よって、動線M21,M31は、本来の動線を示していない可能性がある。
これに対し、図9の下段の図に示す場合、位置P21と、P22と、P31と、P32と、P33とを結ぶ動線M22が抽出されている。計算式(2)に基づく計算によると、図9の下段の図に示す動線が抽出された場合の動線尤度が、図9の上段の図に示す場合よりも高くなる可能性がある。その理由は、動線M31の始点である位置P21が、消失領域C1内に位置するからである。このように消失領域に始点が含まれる動線は、人の本来の動線である可能性が比較的高いと考えられる。計算式(2)に基づく計算によると、計算式(1)に基づく計算に比べて、動線M21,M31ではなく、動線M22に確定される可能性が高くなり、より人の動線として確からしい動線に確定されやすくなる。
以上が、消失領域に基づいて行う動線の生成に係る制御部10の処理の説明である。
以上が、消失領域に基づいて行う動線の生成に係る制御部10の処理の説明である。
以上説明したとおり、動線生成装置1によれば、動線が途切れやすい領域を考慮せずに動体の動線を生成する場合に比べて、動体の動線が精度良く生成される。また、動線生成装置1は、実際に動線を生成した結果に基づいて、空間に応じた消失領域を設定する。このため、消失領域の設定に関するユーザの操作の負担は問題とならない。更に、動線生成装置1は、消失点に基づき消失領域を設定するので、撮像対象の空間において出入口や構造物の存在を認識する必要もない。
本発明は、上述した実施形態と異なる形態で実施してもよい。また、以下に示す変形例は、各々を組み合わせてもよい。
動線生成装置1は、ユーザの操作によって指定された消失領域を設定してもよい。図10は、動線生成装置1が実行する消失領域の設定に係る処理を示すフローチャートである。
制御部10は、撮像装置100からの撮像画像を、インタフェース30を介して取得し、この撮像画像を表示部50に表示させる(ステップS31)。表示部50に表示される撮像画像は、例えば、図6の上段の図に示す撮像画像IMと同じである。
動線生成装置1は、ユーザの操作によって指定された消失領域を設定してもよい。図10は、動線生成装置1が実行する消失領域の設定に係る処理を示すフローチャートである。
制御部10は、撮像装置100からの撮像画像を、インタフェース30を介して取得し、この撮像画像を表示部50に表示させる(ステップS31)。表示部50に表示される撮像画像は、例えば、図6の上段の図に示す撮像画像IMと同じである。
次に、制御部10は、表示部50に撮像画像を表示させた状態で、消失領域を指定するユーザの操作を、操作部20を介して受け付ける(ステップS32)。ユーザは、表示部50に表示された画像を視認し、操作部20を操作することで、消失領域を指定する。そして、制御部10は、操作部20により指定された消失領域を設定する(ステップS33)。即ち、制御部10は、ユーザの操作に応じた消失領域データを、消失領域データ記憶部70に記録する。
ユーザが消失領域を指定する構成とすることで、動線生成装置1は、実際に動線を生成した結果を用いずに、消失領域を設定する。よって、動線生成装置1は、消失領域に基づく動線の生成を速やかに開始し得る。
動線生成装置1は、モードに応じて消失領域の設定の方法を選択してもよい。
動線生成装置1は、モードに応じて消失領域の設定の方法を選択してもよい。
動線生成装置1は、魚眼カメラ等の広角カメラの撮像画像、つまり撮像レンズに起因する歪みを含む撮像画像に基づいて、動線を生成してもよい。本発明において、撮像装置の特性は特に問わない。
動線生成装置1は、マルコフ連鎖モンテカルロ法によるランダムサンプリングを行わないで、動線を抽出してもよい。
計算式(2)は、動線の尤度の計算式の一例に過ぎない。動線生成装置1は、消失領域からの距離が大きくなるほど尤度が低くなる計算式に基づいて、尤度を計算すればよい。また、計算式(2)では、動線の始点と消失領域との距離に応じた尤度が計算されるが、動線生成装置1は、終点と消失領域との距離に応じた尤度、又は始点及び終点の各々と消失領域との距離に応じた尤度を計算してもよい。
動線生成装置1は、確定させた動線を示す動線データを、動線データ記憶部80に記録にさせることに代えて又は加えて、表示、送信、印刷その他の方法により出力してもよい。
動線生成装置1のハードウェア構成や機能構成は、上述した実施形態で説明した構成に限られない。
計算式(2)は、動線の尤度の計算式の一例に過ぎない。動線生成装置1は、消失領域からの距離が大きくなるほど尤度が低くなる計算式に基づいて、尤度を計算すればよい。また、計算式(2)では、動線の始点と消失領域との距離に応じた尤度が計算されるが、動線生成装置1は、終点と消失領域との距離に応じた尤度、又は始点及び終点の各々と消失領域との距離に応じた尤度を計算してもよい。
動線生成装置1は、確定させた動線を示す動線データを、動線データ記憶部80に記録にさせることに代えて又は加えて、表示、送信、印刷その他の方法により出力してもよい。
動線生成装置1のハードウェア構成や機能構成は、上述した実施形態で説明した構成に限られない。
上述した実施形態の動線生成装置1の制御部10が実現する各機能は、1又は複数のハードウェア回路により実現されてもよいし、1又は複数のプログラムを演算装置が実行することにより実現されてよいし、これらの組み合わせにより実現されてもよい。また、制御部10の機能がプログラムを用いて実現される場合、このプログラムは、磁気記録媒体(磁気テープ、磁気ディスク(HDD(Hard Disk Drive)、FD(Flexible Disk))等)、光記録媒体(光ディスク等)、光磁気記録媒体、半導体メモリ等のコンピュータ読取可能な記録媒体に記憶した状態で提供されてもよいし、ネットワークを介して配信されてもよい。また、本発明は、コンピュータが行う動線生成方法として把握し得る。
1…動線生成装置、10…制御部、11…取得部、12…検出部、13…抽出部、14…計算部、141…第1尤度計算部、142…第2尤度計算部、15…確定部、16…設定部、20…操作部、30…インタフェース、40…通信部、50…表示部、60…消失点データ記憶部、70…消失領域データ記憶部、80…動線データ記憶部。
Claims (5)
- 複数の時点の各時点に撮像装置により撮像された画像を取得する取得部と、
前記複数の時点の各時点の前記画像から、1又は複数の動体を検出する検出部と、
検出された前記1又は複数の動体毎の動線を抽出する抽出部と、
前記撮像装置が撮像する画像において動線が消失しやすい領域を設定する設定部と、
抽出された前記動体毎の動線の確からしさを示す尤度を計算する計算部であって、当該動線の始点又は終点が前記領域から離れるほど前記尤度が小さくなる計算式に基づいて、前記尤度を計算する計算部と
計算された前記尤度に基づいて、前記1又は複数の動体の動線を確定させる確定部と
を備える動線生成装置。 - 前記抽出部は、
前記複数の時点の各時点の画像から検出された動体の組み合わせを変化させることで、複数通りの前記動線を抽出し、
前記確定部は、
前記複数通りの前記動線のうち、抽出された前記1又は複数の動線の尤度の積が最大である前記動線に確定させる
ことを特徴とする請求項1に記載の動線生成装置。 - 前記設定部は、
確定させた前記1又は複数の動体の動線の始点又は終点の分布に基づいて、前記領域を設定する
ことを特徴とする請求項1又は請求項2に記載の動線生成装置。 - 前記設定部は、
前記領域を指定する操作に基づいて、前記領域を設定する
ことを特徴とする請求項1から請求項3のいずれか1項に記載の動線生成装置。 - コンピュータに、
複数の時点の各時点に撮像装置により撮像された画像を取得するステップと、
前記複数の時点の各時点の前記画像から、1又は複数の動体を検出するステップと、
検出された前記1又は複数の動体毎の動線を抽出するステップと、
前記撮像装置が撮像する画像において動線が消失しやすい領域を設定するステップと、
抽出された前記動体毎の動線の確からしさを示す尤度を計算するステップであって、当該動線の始点又は終点が前記領域から離れるほど前記尤度が小さくなる計算式に基づいて、前記尤度を計算するステップと
計算された前記尤度に基づいて、前記1又は複数の動体の動線を確定させるステップと
を実行させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016061560A JP2017174273A (ja) | 2016-03-25 | 2016-03-25 | 動線生成装置及びプログラム |
US15/237,127 US9934584B2 (en) | 2016-03-25 | 2016-08-15 | Line-of-movement generating apparatus, line-of-movement generating method, and non-transitory computer readable medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016061560A JP2017174273A (ja) | 2016-03-25 | 2016-03-25 | 動線生成装置及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017174273A true JP2017174273A (ja) | 2017-09-28 |
Family
ID=59898980
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016061560A Pending JP2017174273A (ja) | 2016-03-25 | 2016-03-25 | 動線生成装置及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US9934584B2 (ja) |
JP (1) | JP2017174273A (ja) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8391548B1 (en) * | 2008-05-21 | 2013-03-05 | University Of Southern California | Tracking multiple moving targets in digital video |
US20110199461A1 (en) * | 2008-10-17 | 2011-08-18 | Panasonic Corporation | Flow line production system, flow line production device, and three-dimensional flow line display device |
US20120020518A1 (en) * | 2009-02-24 | 2012-01-26 | Shinya Taguchi | Person tracking device and person tracking program |
US9664510B2 (en) * | 2013-06-22 | 2017-05-30 | Intellivision Technologies Corp. | Method of tracking moveable objects by combining data obtained from multiple sensor types |
JP6206804B2 (ja) * | 2013-09-27 | 2017-10-04 | パナソニックIpマネジメント株式会社 | 移動体追跡装置、移動体追跡システムおよび移動体追跡方法 |
-
2016
- 2016-03-25 JP JP2016061560A patent/JP2017174273A/ja active Pending
- 2016-08-15 US US15/237,127 patent/US9934584B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US9934584B2 (en) | 2018-04-03 |
US20170278253A1 (en) | 2017-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6213843B2 (ja) | 画像処理システム、画像処理方法及びプログラム | |
KR101870902B1 (ko) | 영상 처리 장치 및 영상 처리 방법 | |
US7940957B2 (en) | Object tracker for visually tracking object motion | |
US10430667B2 (en) | Method, device, and computer program for re-identification of objects in images obtained from a plurality of cameras | |
CN105745687B (zh) | 情景感知移动目标检测 | |
JP4966820B2 (ja) | 混雑推定装置および方法 | |
JP5559335B2 (ja) | 挙動解析装置 | |
WO2014171258A1 (ja) | 情報処理システム、情報処理方法及びプログラム | |
JP5459674B2 (ja) | 移動物体追跡システムおよび移動物体追跡方法 | |
JP2006079272A (ja) | 異常動作検出装置および異常動作検出方法 | |
JP2010049296A (ja) | 移動物体追跡装置 | |
JP6283008B2 (ja) | 追跡装置 | |
US11544926B2 (en) | Image processing apparatus, method of processing image, and storage medium | |
JP2021149687A (ja) | 物体認識装置、物体認識方法及び物体認識プログラム | |
JP6336935B2 (ja) | 移動物体追跡装置 | |
JP2009301242A (ja) | 頭部候補抽出方法、頭部候補抽出装置、頭部候補抽出プログラムおよびそのプログラムを記録した記録媒体 | |
JP6214424B2 (ja) | 特定動作検出装置 | |
Balcilar et al. | Extracting vehicle density from background estimation using Kalman filter | |
JP6893812B2 (ja) | 物体検出装置 | |
JP2017174273A (ja) | 動線生成装置及びプログラム | |
JP2010097507A (ja) | 移動対象抽出装置、移動対象抽出方法及び移動対象抽出プログラム | |
JP4909315B2 (ja) | 映像処理装置及び方法及びプログラム及びコンピュータ読取可能な記録媒体 | |
JP6478643B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
WO2020139071A1 (en) | System and method for detecting aggressive behaviour activity | |
JP4298621B2 (ja) | 物体検知装置、物体検知方法および物体検知プログラム |