JP5230793B2 - 人物追跡装置及び人物追跡プログラム - Google Patents
人物追跡装置及び人物追跡プログラム Download PDFInfo
- Publication number
- JP5230793B2 JP5230793B2 JP2011501473A JP2011501473A JP5230793B2 JP 5230793 B2 JP5230793 B2 JP 5230793B2 JP 2011501473 A JP2011501473 A JP 2011501473A JP 2011501473 A JP2011501473 A JP 2011501473A JP 5230793 B2 JP5230793 B2 JP 5230793B2
- Authority
- JP
- Japan
- Prior art keywords
- dimensional movement
- person
- unit
- movement trajectory
- trajectory
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B66—HOISTING; LIFTING; HAULING
- B66B—ELEVATORS; ESCALATORS OR MOVING WALKWAYS
- B66B1/00—Control systems of elevators in general
- B66B1/34—Details, e.g. call counting devices, data transmission from car to control system, devices giving information to the control system
- B66B1/46—Adaptations of switches or switchgear
- B66B1/468—Call registering systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B66—HOISTING; LIFTING; HAULING
- B66B—ELEVATORS; ESCALATORS OR MOVING WALKWAYS
- B66B2201/00—Aspects of control systems of elevators
- B66B2201/40—Details of the change of control mode
- B66B2201/46—Switches or switchgear
- B66B2201/4607—Call registering systems
- B66B2201/4661—Call registering systems for priority users
- B66B2201/4669—Call registering systems for priority users using passenger condition detectors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Description
多数のエレベータの群管理を効率的に行うためには、「何人がどの階で乗って、どの階で降りたか」という乗客の移動履歴を計測して、その移動履歴を群管理システムに提供することが必要となる。
その一つとして、予め記憶している背景画像と、カメラにより撮影されたエレベータ内の画像との差分の画像(背景差分画像)を求めることで、エレベータ内の乗客を検出して、エレベータ内の乗客数を計数する人物追跡装置がある(例えば、特許文献1を参照)。
しかし、非常に混み合っているエレベータでは、約25cm四方に一人の乗客が存在し、乗客が重なり合う状況が発生するので、背景差分画像が一塊のシルエットになる。このため、背景差分画像から個々の人物を分離することが極めて困難であり、上記の人物追跡装置では、エレベータ内の乗客数を正確に計数することができない。
しかし、このような単純なパターンマッチングで乗客を検出する場合、例えば、カメラから見たときに、ある乗客が他の乗客に隠れてしまっているなどの遮蔽が生じていると、誤って人数をカウントしてしまうことがある。また、エレベータ内に鏡が設置されている場合、鏡に映っている乗客を誤検出してしまうことがある。
しかし、この人物追跡装置の場合、実際の人数よりも多くの人物が検出されてしまうことがある。
即ち、この人物追跡装置の場合、例えば、図45に示すように、人物Xの3次元位置を求める場合、カメラから検出人物までのベクトルVA1とベクトルVB1が交差する点を人物の位置として算出する。
しかし、ベクトルVA1とベクトルVB2が交わる点にも、人物が存在すると推定されてしまうことがあり、実際の人物が2人しか存在しない場合でも、誤って3人存在すると算出されてしまうことがある。
これらの手法は、ある視点において、人物が遮蔽されている状況でも、他の視点のシルエット情報や時系列情報を用いて、人数と人物の移動軌跡を求めることが可能である。
しかし、混雑しているエレベータや電車内では、どの視点から撮影しても、常にシルエットが重なり合うため、これらの手法を適用することができない。
実施の形態1.
図1はこの発明の実施の形態1による人物追跡装置を示す構成図である。
図1において、撮影手段を構成している複数のカメラ1は、監視対象領域であるエレベータのカゴ内の上部の異なる位置にそれぞれ設置されており、カゴ内を同時に異なる角度から撮影している。
ただし、カメラ1の種類については特に問わず、一般的な監視カメラのほか、可視カメラ、近赤外線領域まで撮影可能な高感度カメラ、熱源を撮影することが可能な遠赤外線カメラなどでもよい。また、距離計測が可能な赤外線距離センサや、レーザーレンジファインダなどで代用してもよい。
ここでは、映像取得部2がカゴ内の映像をリアルタイムで映像解析部3に出力するものとするが、予め用意されたハードディスクなどの記録装置に映像を記録して、その映像をオフラインで映像解析部3に出力するようにしてもよい。
映像解析結果表示部4は映像解析部3により算出された人物移動履歴等をディスプレイ(図示せぬ)に表示する処理を実施する。なお、映像解析結果表示部4は映像解析結果表示手段を構成している。
階床認識部12は映像取得部2から出力されたエレベータのカゴ内の映像を解析して、各時刻におけるエレベータの階床を特定する処理を実施する。なお、階床認識部12は階床特定手段を構成している。
人物追跡部13は映像取得部2から出力されたエレベータのカゴ内の映像を解析して、カゴ内に存在している個々の人物を追跡することで、個々の人物の3次元移動軌跡を算出し、その3次元移動軌跡に基づいて個々の人物の乗車階と降車階を示す人物移動履歴等を算出する処理を実施する。
図2において、背景画像登録部21はドアが閉じている状態のエレベータ内のドア領域の画像を背景画像として登録する処理を実施する。
背景差分部22は背景画像登録部21により登録されている背景画像とカメラ1により撮影されたドア領域の映像との差分を算出する処理を実施する。
オプティカルフロー計算部23はカメラ1により撮影されたドア領域の映像の変化からドアの移動方向を示す動きベクトルを計算する処理を実施する。
ドア開閉時刻特定部24は背景差分部22により算出された差分とオプティカルフロー計算部23により計算された動きベクトルからドアの開閉状態を判別して、ドアの開閉時刻を特定する処理を実施する。
背景画像更新部25はカメラ1により撮影されたドア領域の映像を用いて、その背景画像を更新する処理を実施する。
図3において、テンプレート画像登録部31はエレベータの階床を示すインジケータの画像をテンプレート画像として登録する処理を実施する。
テンプレートマッチング部32はテンプレート画像登録部31により登録されているテンプレート画像とカメラ1により撮影されたエレベータ内のインジケータ領域の映像とのテンプレートマッチングを実施して、各時刻におけるエレベータの階床を特定する処理を実施する。あるいは、エレベータの制御基盤情報を解析して、各時刻におけるエレベータの階床を特定する処理を実施する。
テンプレート画像更新部33はカメラ1により撮影されたインジケータ領域の映像を用いて、そのテンプレート画像を更新する処理を実施する。
図4において、人物位置算出部41は複数のカメラ1により撮影されたエレベータのカゴ内の映像を解析して、カゴ内に存在している個々の人物の各映像上の位置を算出する処理を実施する。なお、人物位置算出部41は人物位置算出手段を構成している。
人物位置算出部41のカメラキャリブレーション部42は人物追跡処理が開始される前に、予め複数のカメラ1により撮影されたキャリブレーションパターンの映像の歪み具合を解析して、複数のカメラ1のカメラパラメータ(レンズの歪み、焦点距離、光軸、画像中心(principal point)に関するパラメータ)を算出する処理を実施する。
また、カメラキャリブレーション部42は複数のカメラ1により撮影されたキャリブレーションパターンの映像と、複数のカメラ1のカメラパラメータとを用いて、エレベータのカゴ内の基準点に対する複数のカメラ1の設置位置及び設置角度を算出する処理を実施する。
人物位置算出部41の人物検出部44は映像補正部43により歪みが補正された各映像に写っている個々の人物を検出し、個々の人物の各映像上の位置を算出する処理を実施する。
3次元移動軌跡算出部46は2次元移動軌跡算出部45により算出された各映像における2次元移動軌跡間のステレオマッチングを実施して、その2次元移動軌跡のマッチング率を算出し、そのマッチング率が規定値以上の2次元移動軌跡から、個々の人物の3次元移動軌跡を算出するとともに、個々の人物の3次元移動軌跡と階床認識部12により特定された階床とを対応付けて、個々の人物の乗車階と降車階を示す人物移動履歴を算出する処理を実施する。なお、3次元移動軌跡算出部46は3次元移動軌跡算出手段を構成している。
3次元移動軌跡算出部46の軌跡ステレオ部48は2次元移動軌跡グラフ生成部47により生成された2次元移動軌跡グラフを探索して複数の2次元移動軌跡の候補を算出し、カメラキャリブレーション部42により算出されたカゴ内の基準点に対する複数のカメラ1の設置位置及び設置角度を考慮して、各映像における2次元移動軌跡の候補間のステレオマッチングを実施して、その2次元移動軌跡の候補のマッチング率を算出し、そのマッチング率が規定値以上の2次元移動軌跡の候補から、個々の人物の3次元移動軌跡を算出する処理を実施する。
3次元移動軌跡算出部46の軌跡組み合わせ推定部50は3次元移動軌跡グラフ生成部49により生成された3次元移動軌跡グラフを探索して複数の3次元移動軌跡の候補を算出し、複数の3次元移動軌跡の候補の中から最適な3次元移動軌跡を選択して、カゴ内に存在している人物の人数を推定するとともに、最適な3次元移動軌跡と階床認識部12により特定された階床とを対応付けて、個々の人物の乗車階と降車階を示す人物移動履歴を算出する処理を実施する。
図5において、映像表示部51は複数のカメラ1により撮影されたエレベータのカゴ内の映像を表示する処理を実施する。
時系列情報表示部52は人物追跡部13の3次元移動軌跡算出部46により算出された人物移動履歴を時系列的にグラフ表示する処理を実施する。
サマリー表示部53は3次元移動軌跡算出部46により算出された人物移動履歴の統計を求め、その人物移動履歴の統計結果を表示する処理を実施する。
運行関連情報表示部54は3次元移動軌跡算出部46により算出された人物移動履歴を参照して、エレベータの運行に関連する情報を表示する処理を実施する。
ソートデータ表示部55は3次元移動軌跡算出部46により算出された人物移動履歴をソートして表示する処理を実施する。
最初に、図1の人物追跡装置の概略動作を説明する。
図6はこの発明の実施の形態1による人物追跡装置の処理内容を示すフローチャートである。
映像取得部2は、複数のカメラ1がエレベータのカゴ内の映像の撮影を開始すると、複数のカメラ1からエレベータのカゴ内の映像を取得して、各映像を映像解析部3に出力する(ステップST1)。
即ち、ドア開閉認識部11は、各映像を解析して、エレベータのドアが開いている時刻と、ドアが閉じている時刻を特定する。
映像解析部3の階床認識部12は、映像取得部2から複数のカメラ1により撮影された映像を受けると、各映像を解析して、各時刻におけるエレベータの階床(エレベータの停止階)を特定する(ステップST3)。
そして、人物追跡部13は、個々の人物の検出結果とドア開閉認識部11により特定されたドアの開閉時刻を参照して、カゴ内に存在している個々の人物を追跡することで、個々の人物の3次元移動軌跡を算出する。
そして、人物追跡部13は、個々の人物の3次元移動軌跡と階床認識部12により特定された階床とを対応付けて、個々の人物の乗車階と降車階を示す人物移動履歴を算出する(ステップST4)。
映像解析結果表示部4は、映像解析部3が人物移動履歴等を算出すると、その人物移動履歴等をディスプレイに表示する(ステップST5)。
図7はドア開閉認識部11の処理内容を示すフローチャートである。また、図8はドア開閉認識部11の処理内容を示す説明図であり、図9はドア開閉認識部11のドアインデックスを示す説明図である。
まず、ドア開閉認識部11は、複数のカメラ1により撮影されたエレベータのカゴ内の映像の中から、ドアが写るドア領域を選択する(ステップST11)。
図8(A)の例では、ドアの上部の領域をドア領域として選択している。
ドア開閉認識部11の背景差分部22は、背景画像登録部21が背景画像を登録すると、映像取得部2から時々刻々と変化するカメラ1の映像を受け取り、図8(C)に示すようにして、カメラ1の映像中のドア領域の映像と上記背景画像との差分を算出する(ステップST13)。
背景差分部22は、ドア領域の映像と背景画像の差分を算出すると、その差分が大きい場合(例えば、差分が所定の閾値より大きく、ドア領域の映像と背景画像が大きく異なっている場合)、ドアが開いている可能性が高いので、ドア開閉判断用のフラグFbを“1”に設定する。
一方、その差分が小さく(例えば、差分が所定の閾値より小さく、ドア領域の映像と背景画像があまり異なっていない場合)、ドアが閉じている可能性が高いので、ドア開閉判断用のフラグFbを“0”に設定する。
オプティカルフロー計算部23は、例えば、図8(D)に示すように、エレベータのドアが中央扉の場合、動きベクトルが示すドアの移動方向が外向きであれば、現在ドアが開いている途中の可能性が高いので、ドア開閉判断用のフラグFoを“1”に設定する。
一方、動きベクトルが示すドアの移動方向が内向きであれば、現在ドアが閉じている途中の可能性が高いので、ドア開閉判断用のフラグFoを“0”に設定する。
なお、エレベータのドアが動いていない場合(開いている状態を維持、または、閉じている状態を維持している場合)、動きベクトルがドアの移動方向を示されないので、ドア開閉判断用のフラグFoを“2”に設定する。
即ち、ドア開閉時刻特定部24は、フラグFbとフラグFoの双方が“0”である時間帯、あるいは、フラグFbが“0”でフラグFoが“2”である時間帯はドアが閉じていると判断し、フラグFb又はフラグFoの少なくとも一方が“1”である時間帯はドアが開いていると判断する。
なお、ドア開閉時刻特定部24は、図9に示すように、ドアが閉じている時間帯のドアインデックスdiを“0”に設定し、ドアが開いている時間帯のドアインデックスdiについては、映像開始からドアが開いた順番にドアインデックスdiを1,2,3,・・・に設定する。
これにより、例えば、照明変化が原因で、ドア付近の映像が変化する場合でも、その変化に合わせて、背景差分処理を適応的に実施することができるようになる。
まず、階床認識部12は、複数のカメラ1により撮影されたエレベータのカゴ内の映像の中から、エレベータの階床を示すインジケータが写るインジケータ領域を選択する(ステップST21)。
図11(A)の例では、インジケータの数字が表示されている領域をインジケータ領域として選択している。
例えば、1階から9階まで移動するエレベータの場合、図11(B)に示すように、各階床の数字画像(“1”、“2”、“3”、“4”、“5”、“6”、“7”、“8”、“9”)をテンプレート画像として逐次登録する。
テンプレートマッチングの手法については、既存の正規化相互相関などの手法を用いればよいので、ここでは詳細な説明を省略する。
これにより、例えば、照明変化が原因で、インジケータ付近の映像が変化する場合でも、その変化に合わせて、テンプレートマッチング処理を適応的に実施することができるようになる。
まず、人物追跡部13のカメラキャリブレーション部42が、個々のカメラ1のカメラパラメータを算出するに先立ち、個々のカメラ1がキャリブレーションパターンを撮影する(ステップST31)。
映像取得部2は、個々のカメラ1により撮影されたキャリブレーションパターンの映像を取得して、そのキャリブレーションパターンの映像をカメラキャリブレーション部42に出力する。
ここで使用するキャリブレーションパターンとしては、例えば、大きさが既知の白黒のチェッカーフラグパターン(図14を参照)などが該当する。
なお、キャリブレーションパターンは、約1〜20通り程度の異なる位置や角度からカメラ1により撮影される。
カメラパラメータの算出方法は、周知の技術であるため詳細説明を省略する。
例えば、図14に示すように、キャリブレーションパターンとしてチェッカーフラグパターンをカゴ内の床に敷き、複数のカメラ1が、そのチェッカーフラグパターンを同時に撮影する。
このとき、カゴ内の床に敷かれたキャリブレーションパターンに対して、カゴ内の基準点(例えば、カゴの入口)からの位置と角度をオフセットとして計測し、また、カゴの内寸を計測する。
また、図15に示すように、キャリブレーションパターンとして、無人のカゴ内を撮影し、カゴ内の床の四隅と天井の三隅とを選択したものでもよい。この場合、カゴの内寸を計測しておくようにする。
具体的には、カメラキャリブレーション部42は、キャリブレーションパターンとして、例えば、白黒のチェッカーフラグパターンが用いられる場合、複数のカメラ1により撮影されたチェッカーパターンに対するカメラ1の相対位置と相対角度を算出する。
そして、予め計測しているチェッカーパターンのオフセット(カゴ内の基準点であるカゴの入口からの位置と角度)を複数のカメラ1の相対位置と相対角度に足し合わせることで、カゴ内の基準点に対する複数のカメラ1の設置位置と設置角度を算出する。
一方、キャリブレーションパターンとして、図15に示すように、カゴ内の床の四隅と天井の三隅が用いられる場合、予め計測しているカゴの内寸から、カゴ内の基準点に対する複数のカメラ1の設置位置と設置角度を算出する。
この場合、カゴ内にカメラ1を設置するだけで、カメラ1の設置位置と設置角度を自動的に求めることが可能である。
映像取得部2は、複数のカメラ1により撮影されたエレベータのカゴ内の映像を時々刻々と取得する(ステップST41)。
人物追跡部13の映像補正部43は、映像取得部2から複数のカメラ1により撮影された映像を取得する毎に、カメラキャリブレーション部42により算出されたカメラパラメータを用いて、複数の映像の歪みを補正し、歪みの無い映像である正規化画像を生成する(ステップST42)。
なお、映像の歪みを補正する方法は、周知の技術であるため詳細な説明を省略する。
そして、人物検出部44は、その人物の画像座標に対してカメラパースペクティブフィルタを施すことで、不適当な大きさの人物検出結果を削除する。
また、確信度は、人物検出部44の検出物が、どの程度、人間(人体の頭部)に近いかを表現する指標であり、確信度が高いほど人間である確率が高く、確信度が低いほど人間である確率が低いことを表している。
図16は人体の頭部の検出処理を示す説明図である。
図16(A)は、カゴ内の天井の対角位置に設置されている2台のカメラ11,12によって、カゴ内の3人の乗客(人物)を撮影している状況を表している。
図16(B)は、カメラ11により顔方向を撮影された映像から頭部が検出され、検出結果である頭部の領域に確信度が添付された状態を表わしている。
図16(C)は、カメラ12により後頭部方向を撮影された映像から頭部が検出され、検出結果である頭部の領域に確信度が添付された状態を表わしている。
ただし、図16(C)の場合、図中、右端の乗客(人物)の脚部が誤検出されており、その誤検出部分の確信度が低く算出されている。
即ち、“Rectangle Feature”と呼ばれるハール基底状のパターンをAdaboostによって選択して多数の弱判別機を取得し、これらの弱判別機の出力と適当な閾値をすべて加算した値を確信度として利用することができる。
また、頭部の検出方法として、下記の参考文献2に開示されている道路標識検出方法を応用して、その画像座標と確信度を算出するようにしてもよい。
なお、図16では、人物検出部44が人物を検出するに際して、人体の特徴箇所である頭部を検出しているものを示しているが、これは一例に過ぎず、例えば、肩や胴体などを検出するようにしてもよい。
カメラパースペクティブフィルタは、図17(A)に示すように、映像上の点Aにおける人物の検出結果のうち、点Aにおける人物頭部の最大矩形サイズより大きい検出結果と、点Aにおける人物頭部の最小矩形サイズより小さい検出結果を誤検出とみなして削除するフィルタである。
図17(B)は、点Aにおける人物頭部の最大検出矩形サイズと最小矩形サイズの求め方を示している。
次に、人物検出部44は、エレベータ内で想定される人物の最大身長(例えば、200cm)、最小身長(例えば、100cm)及び頭部サイズ(例えば、30cm)を設定する。
次に、人物検出部44は、最大身長人物の頭部をカメラ1に射影し、その射影した頭部を囲む画像上での矩形サイズを点Aにおける人物頭部の最大検出矩形サイズと定義する。
同様に、最小身長人物の頭部をカメラ1に射影し、その射影した頭部を囲む画像上での矩形サイズを点Aにおける人物頭部の最小検出矩形サイズと定義する。
以下、2次元移動軌跡算出部45における2次元移動軌跡の算出処理を具体的に説明する。
図18は2次元移動軌跡算出部45の算出処理を示すフローチャートであり、図19は2次元移動軌跡算出部45の処理内容を示す説明図である。
例えば、図19(A)に示すように、人物の追跡を時刻tから始める場合、時刻tの画像フレームにおける人物検出結果を取得する。
ここで、人物検出結果には、それぞれカウンタが割り当てられており、カウンタの値は追跡を開始するときに“0”に初期化される。
ここで、人物の画像座標を探索する方法としては、例えば、既知の技術である正規化相互相関法などを用いればよい。
その場合、時刻tにおける人物領域の画像をテンプレート画像とし、時刻(t+1)において、最も相関値が高い矩形領域の画像座標を正規化相互相関法で求めて出力する。
その場合、時刻tの人物領域の内側に含まれる複数の部分領域において特徴量の相関係数を計算し、それらを成分とするベクトルを該当人物のテンプレートベクトルとする。そして、次に時刻(t+1)において、テンプレートベクトルとの距離が最小となるような領域を探索して、その領域の画像座標を人物の探索結果として出力する。
さらに、人物の画像座標を探索する他の方法として、下記の参考文献3に記載されている特徴量の分散共分散行列を利用した方法で、人物追跡を実施して、時々刻々と人物の画像座標を求めてもよい。
例えば、図19(C)に示すような人物検出結果を取得し、この人物検出結果では、人物Aは検出されているが、人物Bは検出されていない状態を表しているものとする。
次に、2次元移動軌跡算出部45は、ステップST52で算出した人物画像座標と、ステップST53で取得した人物画像座標とを用いて、追跡している人物の情報をアップデートする(ステップST54)。
一方、図19(C)に示すように、時刻(t+1)における人物Bの人物検出が失敗している場合、図19(B)における人物Bの探索結果の周辺には人物Bの人物検出結果が存在しない。そこで、図19(D)に示すように、人物Bのカウンタの値を“0”から“−1”に下げる。
このように、2次元移動軌跡算出部45は、探索結果の周辺に検出結果が存在する場合、カウンタの値を一つ上げ、探索結果の周辺に検出結果が存在しない場合、カウンタの値を一つ下げるようにする。
この結果、人物が検出される回数が多い場合には、そのカウンタの値が大きくなり、一方で、人物が検出される回数が低い場合には、カウンタの値が小さくなる。
例えば、2次元移動軌跡算出部45は、探索結果の周辺に検出結果が存在する場合、該当の検出結果の確信度を累積加算し、探索結果の周辺に検出結果が存在しない場合、確信度を加算しない。この結果、人物検出される回数が多い2次元移動軌跡の場合には、その累積確信度が大きくなる。
終了判定の基準としては、ステップST54で述べたカウンタを利用すればよい。
例えば、ステップST54で求めたカウンタの値が一定の閾値よりも低い場合、人物ではないとして追跡を終了する。
また、終了判定の基準として、ステップST54で述べた確信度の累積値を所定の閾値処理することで、追跡終了判定を実施してもよい。
例えば、確信度の累積値が所定の閾値よりも小さい場合、人物ではないとして追跡を終了する。
このように追跡処理の終了判定を行うことで、人物でないものを誤って追跡してしまう現象を避けることが可能となる。
ここで、遮蔽などにより追跡が途中で終了してしまう場合には、遮蔽が無くなった時刻から人物の追跡を再開すればよい。
このように時間的に前後に追跡を行うことで、可能な限り漏れなく、人物の2次元移動軌跡を算出することができる。例えば、ある人物の追跡において、時間的に前方の追跡に失敗しても、時間的に後方の追跡に成功すれば、追跡の漏れを無くすことができる。
即ち、2次元移動軌跡グラフ生成部47は、2次元移動軌跡算出部45により算出された個々の人物の2次元移動軌跡の集合に対して、空間的又は時間的近傍の2次元移動軌跡を探して分割や連結などの処理を施して、2次元移動軌跡をグラフの頂点とし、連結した2次元移動軌跡をグラフの有向辺とする2次元移動軌跡のグラフを生成する。
図20及び図21は2次元移動軌跡グラフ生成部47の処理内容を示す説明図である。
最初に、2次元移動軌跡グラフ生成部47の空間的近傍の例について述べる。
図21(A)に示すように、例えば、2次元移動軌跡T1の終点T1Eの空間的近傍に存在する2次元移動軌跡は、終点T1Eを中心とする一定の距離範囲内(例えば、20ピクセル以内)に始点を有する2次元移動軌跡、または、2次元移動軌跡T1の終点T1Eとの最短距離が一定の距離範囲内にある2次元移動軌跡と定義する。
図21(A)の例では、2次元移動軌跡T1の終点T1Eからある一定の距離範囲に2次元移動軌跡T2の始点T2Sが存在しており、2次元移動軌跡T1の終点T1Eの空間的近傍に2次元移動軌跡T2の始点T2Sが存在すると言える。
また、2次元移動軌跡T1の終点T1Eと2次元移動軌跡T3の最短距離dは、一定の距離範囲内にあるため、2次元移動軌跡T1の終点T1Eの空間的近傍に2次元移動軌跡T3が存在すると言える。
一方で、2次元移動軌跡T4の始点は、2次元移動軌跡T1の終点T1Eから離れているため、2次元移動軌跡T4は2次元移動軌跡T1の空間的近傍には存在しない。
例えば、図21(B)に示す2次元移動軌跡T1の記録時間が[t1 t2]、2次元移動軌跡T2の記録時間が[t3 t4]であるとするとき、2次元移動軌跡T1の終点の記録時間t2と、2次元移動軌跡T2の始点の記録時間t3との時間間隔|t3−t2|が一定値以内(例えば、3秒以内)であれば、2次元移動軌跡T1の時間的近傍に2次元移動軌跡T2が存在すると定義する。
逆に時間間隔|t3−t2|が一定値を超えた場合、2次元移動軌跡T1の時間的近傍に2次元移動軌跡T2が存在しないと定義する。
ここでは、2次元移動軌跡T1の終点T1Eの空間的近傍及び時間的近傍の例について述べたが、2次元移動軌跡の始点の空間的近傍や時間的近傍についても同様に定義することができる。
[軌跡分割処理]
2次元移動軌跡グラフ生成部47は、2次元移動軌跡算出部45により算出されたある2次元移動軌跡の始点Sの空間的近傍かつ時間的近傍に、他の2次元移動軌跡Aが存在する場合、2次元移動軌跡Aを始点S付近で分割する。
例えば、図20(A)に示すように、2次元移動軌跡算出部45により2次元移動軌跡{T1,T2,T4,T6,T7}が算出された場合、2次元移動軌跡T1の始点が2次元移動軌跡T2付近に存在している。
そこで、2次元移動軌跡グラフ生成部47は、2次元移動軌跡T2を2次元移動軌跡T1の始点付近で分割して、新規に2次元移動軌跡T2と2次元移動軌跡T3を生成し、図20(B)に示す2次元移動軌跡の集合{T1,T2,T4,T6,T7,T3}を取得する。
図20(B)の例では、2次元移動軌跡算T1の終点は2次元移動軌跡算T4付近に存在している。
そこで、2次元移動軌跡グラフ生成部47は、2次元移動軌跡T4を2次元移動軌跡T1の終点付近で分割し、新規に2次元移動軌跡T4と2次元移動軌跡T5を生成し、図20(C)に示す2次元移動軌跡の集合{T1,T2,T4,T6,T7,T3,T5}を取得する。
2次元移動軌跡グラフ生成部47は、軌跡分割処理により取得した2次元移動軌跡の集合に対して、ある2次元移動軌跡Aの終了点の空間的近傍かつ時間的近傍に他の2次元移動軌跡Bの開始点が存在する場合、該当する二つの2次元移動軌跡Aと2次元移動軌跡Bを連結する。
図20(C)の例では、軌跡分割処理と軌跡連結処理によって、下記の情報が得られるものとする。
・T1に連結された2次元移動軌跡の集合={T5}
・T2に連結された2次元移動軌跡の集合={T1,T3}
・T3に連結された2次元移動軌跡の集合={T4,T6}
・T4に連結された2次元移動軌跡の集合={T5}
・T5に連結された2次元移動軌跡の集合={φ(空集合)}
・T6に連結された2次元移動軌跡の集合={T7}
・T7に連結された2次元移動軌跡の集合={φ(空集合)}
この場合、2次元移動軌跡グラフ生成部47は、2次元移動軌跡T1〜T7をグラフの頂点とし、また、2次元移動軌跡のペア(T1,T5),(T2,T1),(T2,T3),(T3,T4),(T3,T6),(T4,T5),(T6,T7)という有向辺の情報を有する2次元移動軌跡グラフを生成する。
図20(C)の例では、軌跡分割処理と軌跡連結処理によって、下記の情報を有する2次元移動軌跡グラフを生成する。
・T7に連結された2次元移動軌跡の集合={T6}
・T6に連結された2次元移動軌跡の集合={T3}
・T5に連結された2次元移動軌跡の集合={T4,T1}
・T4に連結された2次元移動軌跡の集合={T3}
・T3に連結された2次元移動軌跡の集合={T2}
・T2に連結された2次元移動軌跡の集合={φ(空集合)}
・T1に連結された2次元移動軌跡の集合={T2}
そこで、2次元移動軌跡グラフ生成部47は、2次元移動軌跡グラフを生成することで、人物の複数の移動経路の情報を保持することができる。
図22は軌跡ステレオ部48の処理内容を示すフローチャートである。また、図23は軌跡ステレオ部48における2次元移動軌跡グラフの探索処理を示す説明図、図24は2次元移動軌跡のマッチング率の算出処理を示す説明図、図25は2次元移動軌跡のオーバーラップを示す説明図である。
図23(A)に示すように、2次元移動軌跡T1〜T7から構成される2次元移動軌跡グラフGが得られており、2次元移動軌跡グラフGが下記のグラフ情報を有しているものと仮定する。
・T1に連結された2次元移動軌跡の集合={T5}
・T2に連結された2次元移動軌跡の集合={T1,T3}
・T3に連結された2次元移動軌跡の集合={T4,T6}
・T4に連結された2次元移動軌跡の集合={T5}
・T5に連結された2次元移動軌跡の集合={φ(空集合)}
・T6に連結された2次元移動軌跡の集合={T7}
・T7に連結された2次元移動軌跡の集合={φ(空集合)}
図23の例では、下記の2次元移動軌跡の候補が算出される。
・2次元移動軌跡候補A ={T2,T3,T6,T7}
・2次元移動軌跡候補B ={T2,T3,T4,T5}
・2次元移動軌跡候補C ={T2,T1,T5}
以下、オーバーラップする時間の算出処理を具体的に説明する。
図24(a)は、人物Aと人物Bに対する2次元移動軌跡が計算された状況を仮想的に表しており、α1はカメラ1α の映像における人物Aの2次元移動軌跡であり、α2はカメラ1α の映像における人物Bの2次元移動軌跡である。
また、β1はカメラ1β の映像における人物Aの2次元移動軌跡であり、β2はカメラ1β の映像における人物Bの2次元移動軌跡である。
2次元移動軌跡α1
≡{Xa1(t)}t=T1,...,T2
={Xa1(T1),Xa1(T1+1),・・・,Xa1(T2)}
2次元移動軌跡β1
≡
{Xb1(t)}t=T3,...,T4
={Xb1(T3),Xb1(T3+1),・・・,Xb1(T4)}
ここで、Xa1(t)、Xb1(t)は、時刻tにおける人物Aの2次元画像座標である。2次元移動軌跡α1は画像座標が時刻T1からT2まで記録されており、2次元移動軌跡β1は画像座標が時刻T3からT4まで記録されていることを表している。
この場合、2次元移動軌跡α1と2次元移動軌跡β1がオーバーラップする時間は、時刻T3から時刻T2までの間であるので、この時間を軌跡ステレオ部48で算出する。
軌跡ステレオ部48は、図24(B)に示すように、オーバーラップする全ての時間tにおいて、カメラキャリブレーション部42により算出された2台のカメラ1α,1β の設置位置及び設置角度を用いて、カメラ1α の中心と画像座標Xa1(t)を通る直線Va1(t)を求めるとともに、カメラ1β の中心と画像座標Xb1(t)を通る直線Vb1(t)を求める。
また、軌跡ステレオ部48は、直線Va1(t)と直線Vb1(t)の交点を人物の3次元位置Z(t)として算出すると同時に、直線Va1(t)と直線Vb1(t)同士の距離d(t)を算出する。
例えば、{Xa1(t)}t=T1,・・・,T2と{Xb1(t)}t=T3,・・・,T4とから、オーバーラップする時間t=T3,・・・,T2における3次元位置ベクトルZ(t)と直線の距離d(t)の集合{Z(t),d(t)}t=T3,・・・,T2を得る。
あるいは、下記の参考文献4に開示されている「最適補正」の方法によって、二つの直線の距離d(t)と交点Z(t)を算出するようにしてもよい。
なお、オーバーラップ時間が“0”である場合には、マッチング率を“0”として算出する。ここでは、例えば、オーバーラップ時間内に直線が交わる回数をマッチング率として算出する。
即ち、図24及び図25の例では、時刻t=T3,・・・,T2において、距離d(t)が一定の閾値(例えば、15cm)以下になる回数をマッチング率として算出する。
即ち、図24及び図25の例では、時刻t=T3,・・・,T2において、距離d(t)が一定の閾値(例えば、15cm)以下になる回数を算出し、その回数をオーバーラップ時間|T3−T2|で除算した値をマッチング率として算出する。
即ち、図24(b)の例では、時刻t=T3,・・・,T2において、距離d(t)の逆数の平均をマッチング率として算出する。
また、オーバーラップ時間内における二つの直線の距離の合計をマッチング率として算出するようにしてもよい。
即ち、図24(b)の例では、時刻t=T3,・・・,T2において、距離d(t)の逆数の合計をマッチング率として算出する。
さらに、上記の算出方法を組み合わせることで、マッチング率を算出するようにしてもよい。
例えば、図24における2次元移動軌跡α2と2次元移動軌跡β2は、同一人物Bの2次元移動軌跡であるため、2次元移動軌跡α2と2次元移動軌跡β2のステレオマッチングを実施すると、各時刻における距離d(t)は小さい値をとる。このため、距離d(t)の逆数の平均が大きな値になり、2次元移動軌跡α2と2次元移動軌跡β2のマッチング率が高い値になる。
一方、2次元移動軌跡α1と2次元移動軌跡β2は、異なる人物Aと人物Bの2次元移動軌跡であるため、2次元移動軌跡α1と2次元移動軌跡β2のステレオマッチングを実施すると、ある時刻では偶然に直線が交わることもあるが、ほとんどの時刻において直線が交わらず、距離d(t)の逆数の平均が小さな値になる。このため、2次元移動軌跡α1と2次元移動軌跡β2のマッチング率が低い値になる。
従来は、図45に示すように、ある瞬間の人物検出結果をステレオマッチングして人物の3次元位置を推定していたため、ステレオ視の曖昧さを回避できずに人物の位置を誤って推定してしまうことがあった。
しかし、この実施の形態1では、一定の時間にわたる2次元移動軌跡同士をステレオマッチングすることで、ステレオ視の曖昧さを解消し、正確に人物の3次元移動軌跡を求めることが可能となる。
軌跡ステレオ部48は、各映像における2次元移動軌跡のマッチング率が閾値を超えている場合、各映像における2次元移動軌跡から、各映像における2次元移動軌跡がオーバーラップしている時間の3次元移動軌跡を算出し(各映像における2次元移動軌跡がオーバーラップしている時間の3次元位置は、通常のステレオマッチングを実施することで推定することができる。ただし、公知の技術であるため詳細な説明は省略する)、その3次元移動軌跡に対してフィルタリングをかけて、誤って推定した3次元移動軌跡を取り除く処理を行う(ステップST66)。
条件(ア): 人物の身長が一定長(例えば、50cm)以上である
条件(イ): 人物が特定の領域内(例えば、エレベータカゴ内)に存在する
条件(ウ): 人物の3次元移動履歴が滑らかである
また、条件(イ)により、例えば、カゴ内に設置された鏡に映っている人物像の3次元移動軌跡は人物の軌跡でないとして破棄される。
また、条件(ウ)により、例えば、上下左右に急激に変化するような不自然な3次元移動軌跡は人物の軌跡でないとして破棄される。
図25の場合、2次元移動軌跡α1と2次元移動軌跡β1は、時刻t=T3,・・・,T2では、オーバーラップしているが、その他の時刻では、オーバーラップしていない。
通常のステレオマッチングでは、オーバーラップしていない時間帯の人物の3次元移動軌跡を算出することができないが、このような場合には、オーバーラップしている時間における人物の高さの平均を算出し、この高さの平均を用いて、オーバーラップしていない時間における人物の3次元移動軌跡を推定する。
次に、各時刻tにおいて、カメラ1α の中心と画像座標Xa1(t)を通る直線Va1(t)上の点のうち、床からの高さがaveHである点を求め、この点を人物の3次元位置Z(t)として推定するようにする。同様に、各時刻tにおける画像座標Xb1(t)から人物の3次元位置Z(t)を推定する。
これにより、2次元移動軌跡α1と2次元移動軌跡β1が記録されている全ての時刻T1からT4にわたる3次元移動軌跡{Z(t)}t=T1,・・・,T4を得ることができる。
これにより、遮蔽などが理由で、片方のカメラに一定期間人物が写らない場合があっても、もう一つのカメラで人物の2次元移動軌跡を算出し、かつ、遮蔽の前後で2次元移動軌跡がオーバーラップしていれば、軌跡ステレオ部48が人物の3次元移動軌跡を算出することができる。
全ての2次元移動軌跡のペアについてマッチング率の算出が完了すれば、軌跡ステレオ部48の処理が終了し、3次元移動軌跡算出部49の処理に移行する(ステップST68)。
即ち、3次元移動軌跡グラフ生成部49は、軌跡ステレオ部48により算出された個々の人物の3次元移動軌跡の集合に対して、空間的又は時間的近傍の3次元移動軌跡を探して分割や連結などの処理を施して、3次元移動軌跡をグラフの頂点とし、連結した3次元移動軌跡をグラフの有向辺とする3次元移動軌跡のグラフを生成する。
図26及び図27は3次元移動軌跡グラフ生成部49の処理内容を示す説明図である。
まず、3次元移動軌跡グラフ生成部49における空間的近傍の例について述べる。
図27(A)に示すように、例えば、3次元移動軌跡L1の終点L1Eの空間的近傍に存在する3次元移動軌跡は、終点L1Eを中心とする一定の距離範囲内(例えば、25cm以内)に始点を有する3次元移動軌跡、または、3次元移動軌跡L1の終点L1Eとの最短距離が一定の距離範囲内にある3次元移動軌跡と定義する。
図27(A)の例では、3次元移動軌跡L1の終点L1Eからある一定の距離範囲に3次元移動軌跡L2の始点L2Sが存在しており、3次元移動軌跡L1の終点L1Eの空間的近傍に3次元移動軌跡L2が存在すると言える。
また、3次元移動軌跡L1の終点L1Eと3次元移動軌跡L3の最短距離dは、一定の距離範囲内にあるため、3次元移動軌跡L1の終点L1Eの空間的近傍に3次元移動軌跡L3が存在すると言える。
一方で、3次元移動軌跡L4の始点は、3次元移動軌跡L1の終点L1Eから離れているため、3次元移動軌跡L4は3次元移動軌跡T1の空間的近傍には存在しない。
例えば、図27(B)に示す3次元移動軌跡L1の記録時間が[t1 t2]、3次元移動軌跡L2の記録時間が[t3 t4]であるとき、3次元移動軌跡L1の終点の記録時間t2と、3次元移動軌跡L2の始点の記録時間t3との時間間隔|t3−t2|が一定値以内(例えば、3秒以内)であれば、3次元移動軌跡L1の時間的近傍に3次元移動軌跡L2が存在すると定義する。
逆に時間間隔|t3−t2|が一定値を超えた場合、3次元移動軌跡L1の時間的近傍に3次元移動軌跡L2が存在しないと定義する。
ここでは、3次元移動軌跡L1の終点L1Eの空間的近傍及び時間的近傍の例について述べたが、3次元移動軌跡の始点の空間的近傍や時間的近傍についても同様に定義することができる。
[軌跡分割処理]
3次元移動軌跡グラフ生成部49は、軌跡ステレオ部48により算出されたある3次元移動軌跡の始点Sの空間的近傍かつ時間的近傍に、他の3次元移動軌跡Aが存在する場合、3次元移動軌跡Aを始点S付近で分割する。
図26(A)は、エレベータ内部を上から見た模式図であり、エレベータの入口と、入退場エリアと、3次元移動軌跡L1〜L4とが示されている。
図26(A)の場合、3次元移動軌跡L2の始点は、3次元移動軌跡L3付近に存在している。
そこで、3次元移動軌跡グラフ生成部49は、3次元移動軌跡L3を3次元移動軌跡L2の始点付近で分割して、新規に3次元移動軌跡L3と3次元移動軌跡L5を生成し、図20(B)に示す3次元移動軌跡の集合を取得する。
図26(B)の例では、3次元移動軌跡L5の終点は3次元移動軌跡L4付近に存在している。
そこで、3次元移動軌跡グラフ生成部49は、3次元移動軌跡L4を3次元移動軌跡L5の終点付近で分割して、新規に3次元移動軌跡L4と3次元移動軌跡L6を生成し、図20(C)に示す3次元移動軌跡の集合L1〜L6を取得する。
3次元移動軌跡グラフ生成部49は、軌跡分割処理により取得した3次元移動軌跡の集合に対して、ある3次元移動軌跡Aの終了点の空間的近傍かつ時間的近傍に、他の3次元移動軌跡Bの開始点が存在する場合、該当する二つの3次元移動軌跡Aと3次元移動軌跡Bを連結する。
図26(C)の例では、軌跡分割処理と軌跡連結処理によって、下記の情報を有する3次元移動軌跡グラフを生成する。
・L1に連結された3次元移動軌跡集合={L3}
・L2に連結された3次元移動軌跡集合={φ(空集合)}
・L3に連結された3次元移動軌跡集合={L2,L5}
・L4に連結された3次元移動軌跡集合={L6}
・L5に連結された3次元移動軌跡集合={L6}
・L6に連結された3次元移動軌跡集合={φ(空集合)}
そのため、3次元移動軌跡グラフ生成部49は、これらの3次元移動軌跡に対する分割処理や連結処理を実施して3次元移動軌跡グラフを求めることで、人物の複数の移動経路の情報を保持することができる。
図28は軌跡組み合わせ推定部50の処理内容を示すフローチャートであり、図29は軌跡組み合わせ推定部50の処理内容を示す説明図である。なお、図29(A)はエレベータを上から見ている図である。
まず、軌跡組み合わせ推定部50は、監視対象領域となる場所において、人物の入退場エリアを設定する(ステップST71)。
入退場エリアは人物の入退場を判定する基準に利用するものであり、図29(A)の例では、エレベータのカゴ内の入口付近に仮想的に入退場エリアを設定している。
例えば、頭部の移動軌跡がエレベータの入口付近に設定している入退場エリアから開始していれば、該当階から乗っていると判断することができる。また、移動軌跡が入退場エリアで終了していれば、該当階で降りていると判断することができる。
[入場条件]
(1)入場条件:3次元移動軌跡の方向がドアからエレベータの内部に向かっている
(2)入場条件:3次元移動軌跡の始点位置が入退場エリア内にある
(3)入場条件:ドア開閉認識部11により設定された3次元移動軌跡の始点時刻におけるドアインデックスdiが“0”でない
[退場条件]
(1)退場条件:3次元移動軌跡の方向がエレベータの内部からドアに向かっている
(2)退場条件:3次元移動軌跡の終点位置が入退場エリア内にある
(3)退場条件:ドア開閉認識部11により設定された3次元移動軌跡の終点時刻におけるドアインデックスdiが“0”でなく、かつ、ドアインデックスdiが入場時と異なる
3次元移動軌跡グラフGは3次元移動軌跡L1〜L6から構成されており、3次元移動軌跡グラフGは下記の情報を有しているものとする。
・L1に連結された3次元移動軌跡集合={L2,L3}
・L2に連結された3次元移動軌跡集合={L6}
・L3に連結された3次元移動軌跡集合={L5}
・L4に連結された3次元移動軌跡集合={L5}
・L5に連結された3次元移動軌跡集合={φ(空集合)}
・L6に連結された3次元移動軌跡集合={φ(空集合)}
また、3次元移動軌跡L1,L2,L3,L4,L5,L6のドアインデックスdiは、それぞれ1,2,2,4,3,3であるとする。ただし、3次元移動軌跡L3は、人物頭部の追跡ミスや人物の遮蔽が原因で、誤って求めてしまった3次元移動軌跡と仮定する。
このため、3次元移動軌跡L1に連結された3次元移動軌跡が二つあり(3次元移動軌跡L2,L3)、人物の移動経路に曖昧さが生じている。
この場合、軌跡組み合わせ推定部50は、例えば、3次元移動軌跡L1からスタートして、L1→L2→L6の順番で3次元移動軌跡グラフGを探索することで、監視対象領域への入場から退場までの3次元移動軌跡の候補{L1,L2,L6}が得られる。
同様に、軌跡組み合わせ推定部50が、3次元移動軌跡グラフGを探索することで、下記の三つの監視対象領域への入場から退場までの3次元移動軌跡の候補が得られる。
軌跡候補A={L1,L2,L6}
軌跡候補B={L4,L5}
軌跡候補C={L1,L3,L5}
例えば、コスト関数は、「3次元移動軌跡が重ならない」、かつ、「なるべく多くの3次元移動軌跡が推定される」という条件を反映したものであり、下記のように定義する。
コスト=「3次元移動軌跡数」−「3次元移動軌跡の重なり回数」
ただし、3次元移動軌跡数は、監視対象領域における人物数を意味している。
同様に、軌跡候補B={L4,L5}と軌跡候補C={L1,L3,L5}は、L5の部分で重なっており、「3次元移動軌跡の重なり回数」は“1”と計算される。
このため、各軌跡候補の組み合わせによるコストは下記のようになる。
・AとBとCの組み合わせによるコスト=3−2=1
・AとBの組み合わせによるコスト =2−0=2
・AとCの組み合わせによるコスト =2−1=1
・BとCの組み合わせによるコスト =2−1=1
・Aのみによるコスト =1−0=1
・Bのみによるコスト =1−0=1
・Cのみによるコスト =1−0=1
したがって、軌跡候補Aと軌跡候補Bの組み合わせが、コスト関数が最大となる組み合わせであって、最適な3次元移動軌跡の組み合わせであると判断される。
最適な3次元移動軌跡の組み合わせが、軌跡候補Aと軌跡候補Bの組み合わせであるため、監視対象領域内の人数が2人であることも同時に推定される。
ここでは、階床認識部12により特定された停止階情報を対応付けるものについて示したが、別途、エレベータの制御機器から停止階情報を取得して対応付けるようにしてもよい。
ただし、乗降者の人数が多くて、3次元移動軌跡グラフの構造が複雑な場合、3次元移動軌跡の候補の数や、その組み合わせ方が非常に多く、現実的な時間内に処理できなくなることがある。
このような場合、軌跡組み合わせ推定部50は、人物同士の位置関係、人物数及びステレオ視の精度を考慮した尤度関数を定義し、MCMC(Markov Chain Monte Carlo:マルコフチェインモンテカルロ)やGA(Genetic Algorithm:遺伝アルゴリズム)などの確率的な最適化手法を用いて、3次元移動軌跡の最適な組み合わせを求めるようにしてもよい。
まず、以下のように記号を定義する.
[記号]
yi(t):3次元移動軌跡yiの時刻tにおける3次元位置。yi(t)∈R3
yi :i番目の人物の監視対象領域における入場から退場までの3次元移動軌跡
yi={yi(t)}
|yi| :3次元移動軌跡yiの記録時間
N :監視対象領域における入場から退場までの3次元移動軌跡数(人物の数)
Y={yi}i=1,・・・,N :3次元移動軌跡の集合
S(yi):3次元移動軌跡yiのステレオコスト
O(yi,yj):3次元移動軌跡yiと3次元移動軌跡yjのオーバーラップコスト
w+ :正しい3次元移動軌跡として選択された3次元移動軌跡yiの集合
w- :選択されなかった3次元移動軌跡yiの集合。w-=w−w+
w :w={w+,w-}
wopt :尤度関数を最大化するw
|w+| :w+の元の数(正しい3次元移動軌跡として選択された軌跡の数)
Ω : wの集合。w∈Ω(3次元移動軌跡の集合Yの分割方式の集合)
L(w|Y):尤度関数
Lnum(w|Y):選択軌跡数の尤度関数
Lstr(w|Y):選択軌跡のステレオ視に関する尤度関数
Lovr(w|Y):選択軌跡のオーバーラップに関する尤度関数
q(w’|w) :提案分布
A(w’|w) :受理確率
軌跡組み合わせ推定部50は、3次元移動軌跡グラフ生成部49が3次元移動軌跡グラフを生成すると、その3次元移動軌跡グラフを探索して、上述した入場条件と退場条件を満足する個々の人物の3次元移動軌跡の候補の集合Y={yi}i=1,・・・,Nを求める。
また、w+を正しい3次元移動軌跡として選択された3次元移動軌跡候補の集合として、w-=w−w+とw={w+,w-}を定義する。
軌跡組み合わせ推定部50の目的は、3次元移動軌跡の候補の集合Yの中から正しい3次元移動軌跡を選択することであり、この目的は、尤度関数L(w/Y)をコスト関数として定義し、このコスト関数を最大化する問題として定式化することができる。
即ち、最適な軌跡選択をwoptとすると、woptは下式で与えられる。
wopt=argmax L(w|Y)
L(w|Y)=Lovr(w|Y)Lnum(w|Y)Lstr(w|Y)
ここで、Lovrは「3次元空間内で3次元移動軌跡が重ならない」ことを定式化した尤度関数、Lnumは「可能な限り多く3次元移動軌跡が存在する」ことを定式化した尤度関数、Lstrは「3次元移動軌跡のステレオ視の精度が高い」ことを定式化した尤度関数である。
[選択軌跡のオーバーラップに関する尤度関数]
「3次元空間内で3次元移動軌跡が重ならない」という条件を下記のように定式化する。
Lovr(w|Y) ∝ exp( −c1 Σi,j∈w+ O(yi,yj))
ここで、O(yi,yj)は、3次元移動軌跡yiと3次元移動軌跡yjのオーバーラップコストであり、3次元移動軌跡yiと3次元移動軌跡yjが完全に重なっている場合には“1”となり、まったく重なっていない場合には“0”をとるものとする。ここでc1は正の定数である。
yi={yi(t)}t=t1,・・・,t2、yj={yj(t)}t=t3,・・・,t4とし、3次元移動軌跡yiと3次元移動軌跡yjが時間F=[t3 t2]で同時に存在しているとする。
また、関数gを下記のように定義する。
g(yi(t),yj(t))
=1(if || yi(t)−yj(t) || <Th1), =0(otherwise)
ここで、Th1は適当な距離の閾値であり、例えば、Th1=25cmに設定する。
つまり、関数gは、閾値Th1以内に3次元移動軌跡が近づいたらペナルティを与える関数である。
このとき、下記のようにして、オーバーラップコストO(yi,yj)を求める。
・|F|≠0の場合
O(yi,yj)=Σt∈F g(yi(t),yj(t))/|F|
・|F|=0の場合
O(yi,yj)=0
「可能な限り多く3次元移動軌跡が存在する」という条件を下記のように定式化する。
Lnum(w|Y) ∝ exp( c2 |w+|)
ここで、|w+|はw+の元の数である。またc2は正の定数である。
「3次元移動軌跡のステレオ視の精度が高い」という条件を下記のように定式化する。
Lstr(w|Y) ∝ exp( −c3 Σi∈w+ S(yi))
ここで、S(yi)は、ステレオコストであり、3次元移動軌跡がステレオ視によって推定された場合は小さな値をとり、3次元移動軌跡が単眼視や、どのカメラ1からも観測されない期間がある場合は大きな値をとるものとする。またc3は正の定数である。
以下、ステレオコストS(yi)の計算方法について述べる。
ここで、yi={yi(t)}t=t1,・・・,t2とするとき、3次元移動軌跡yiの期間Fi=[t1 t2]には、下記の三つの期間F1i,F2i,F3iが混在している。
・F1i:ステレオ視により3次元移動軌跡が推定された期間
・F2i:単眼視により3次元移動軌跡が推定された期間
・F3i:どのカメラ1からも3次元移動軌跡が観測されない期間
この場合、ステレオコストS(yi)は下記のようになる。
S(yi)=(c8×|F1i|+c9×|F2i|+c10×|F3i|)/|Fi|
ここで、c8,c9,c10は正の定数である。
次に、軌跡組み合わせ推定部50が、MCMCによって尤度関数L(w|Y)を最大化する手法について述べる。
まず、アルゴリズムの概要は、下記の通りである。
[MCMCアルゴリズム]
入力: Y,winit,Nmc 出力: wopt
(1)初期化 w=winit,wopt=winit
(2)メインルーチン
for n=1 to Nmc
step1. ζ(m)に従ってmをサンプリングする
step2. mに従って提案分布qを選択し、w’をサンプリングする
step3. 一様分布Unif[0 1]からuをサンプリングする
step4. if u<A(w,w’),w=w’;
step5. if L(w|Y)/L(wopt|Y)>1,
wopt=w’;(最大値の保存)
end
初期化では、初期分割winit={w+=φ,w-=Y}とする。
メインルーチンにおいて、step1では、確率分布ζ(m)に従ってmをサンプリングする。例えば、確率分布ζ(m)は一様分布と設定してもよい。
次に、step2では、インデックスmに対応する提案分布q(w’|w)に従って候補w’をサンプリングする。
提案アルゴリズムの提案分布は、「生成」,「消滅」,「スワップ」の3つのタイプを定義する。
インデックスm=1は「生成」、m=2は「消滅」、m=3は「スワップ」に対応するものとする。
続くstep4では、uと受理確率A(w,w’)に基づいて候補w’を受理又は棄却する。
受理確率A(w,w’)は下式で与えられる。
A(w,w’)
=min(1,q(w|w’)L(w’|Y)/q(w’|w)L(w|Y))
最後に、step5で、尤度関数を最大化する最適なwoptを保存する。
(A)生成
集合w-から一つの3次元移動軌跡yを選択してw+に加える。
ここで、yとして、w+にある軌跡と空間的にオーバーラップしていないものが優先して選択される。
即ち、y∈w-,w={w+,w-},w’={{w++y},{w-−y}}とすると、提案分布は下式で与えられる。
q(w’|w) ∝ ζ(1) exp( −c4 Σj∈w+ O(y,yj))
ここで、O(y,yj)は、上述したオーバーラップコストであり、軌跡yとyjが完全に重なっている場合に“1”となり、まったく重なっていない場合は“0”をとるものとする。c4は正の定数である。
集合w+から一つの3次元移動軌跡yを選択してw-に加える。
ここで、yとして、w+の内部で空間的にオーバーラップしている軌跡が優先して選択される
即ち、y∈w+,w={w+,w-},w’={{w+−y},{w-+y}}とすると、提案分布は下式で与えられる。
q(w’|w) ∝ ζ(2) exp( c5 Σj∈w+ O(y,yj))
なお、w+が空集合の場合は、下記の通りとする。
q(w’|w)=1 (if w’=w),q(w’|w)=0 (otherwise)
c5は正の定数である。
ステレオコストが高い3次元移動軌跡と、ステレオコストが低い3次元移動軌跡を交換する。つまり集合w+から一つの3次元移動軌跡yを選択し、また、集合w-から一つの3次元移動軌跡zを選択して、その3次元移動軌跡yと3次元移動軌跡zを交換する。
具体的には、まず、3次元移動軌跡yとして、ステレオコストが高いものを優先して選択する。
次に、3次元移動軌跡zとして、3次元移動軌跡yとオーバーラップし、かつ、ステレオコストが低いものを優先して選択する。
即ち、y∈w+,z∈w-,w’={{w+−y+z},{w-+y−z}},
p(y|w) ∝ exp( c6 S(y)),
p(z|w,y) ∝ exp( −c6 S(z) exp( c7 O(z,y))
とすると、提案分布は下式で与えられる。
q(w’|w) ∝ ζ(3)×p(z|w,y)p(y|w)
ただし、c6,c7は正の定数である。
これにより、群管理システムでは、各エレベータから得られる移動履歴に基づいて常に最適なエレベータの群管理を実施することが可能になる。
また、映像解析部3は、個々の人物の移動履歴などを必要に応じて映像解析結果表示部4に出力する。
映像解析結果表示部4は、映像解析部3から個々の人物の移動履歴等を受けると、個々の人物の移動履歴等をディスプレイ(図示せぬ)に表示する。
図30は映像解析結果表示部4の画面構成例を示す説明図である。
図30に示すように、映像解析結果表示部4のメイン画面は、複数のカメラ1により撮影された映像を表示する映像表示部51による画面と、人物移動履歴を時系列的にグラフ表示する時系列情報表示部52による画面とから構成されている。
映像表示部51が複数の映像を同期して表示することで、ビル保守作業者などのユーザは、複数のエレベータの状況を同時に知ることができ、また、頭部検出結果や2次元移動軌跡などの映像解析結果を視覚的に把握することができる。
図31は時系列情報表示部52の画面の詳細例を示す説明図である。図31では、横軸に時間、縦軸に階床をとり、各エレベータ(カゴ)の移動履歴を時系列的にグラフ表示している。
図31の画面例では、時系列情報表示部52が、映像を再生・停止する映像再生・停止ボタン、映像をランダムにシークすることができる映像プログレスバー、表示するカゴ番号を選択するチェックボックス、表示時間単位を選択するプルダウンなどのユーザインターフェイスを表示している。
また、グラフにおいて、各ドア開時間を表示する太線付近に、階床、扉開時間、乗車人数、降車人数をテキスト「F15−D10−J0−K3」表示している。
このテキスト「F15−D10−J0−K3」は、カゴの階床が15階、ドア開時間が10秒、乗者人数が0人、降車人数が3人であることを略記したものである。
このように、時系列情報表示部52が映像解析結果を時系列的に表示することで、ビル保守作業者などのユーザは、複数のエレベータの乗降者やドア開閉時間などの情報の時間変化を視覚的に知ることができる。
図32はサマリー表示部53の画面例を示す説明図である。図32では、縦軸に階床、横軸に各カゴ番号をとり、ある一定時間帯(図32の例では、AM7時からAM10時までの時間帯)の各カゴ及び各階の乗降者人数の合計を並べて表示している。
サマリー表示部53が一定時間帯の各カゴ及び各階の乗降者を一覧表示することで、ユーザは、ビル全体のエレベータの運行状況を一目で把握することができる。
図32の画面例では、各乗降者人数の合計を表示する部分がボタンになっており、ユーザが各ボタンを押すと、それに対応する運行関連情報表示部54の詳細表示画面をポップアップ表示することができる。
図33は運行関連情報表示部54の画面例を示す説明図である。
図33の画面における各領域(A)〜(F)には、下記の情報を表示している。
(B):対象となる時間帯、カゴ番号、階床を表示
(C):AM7:00〜AM10:00に、カゴ#1に2階から乗って上方向に移動した人数が10人であることを表示
(D):AM7:00〜AM10:00に、カゴ#1に3階から乗って、2階で降りた人数が1人であり、その平均待ち時間が30秒であることを表示
(E):AM7:00〜AM10:00に、カゴ#1に3階から乗って下方向に移動した人数が3人であることを表示
(F):AM7:00〜AM10:00に、カゴ#1に地下1階から乗って、2階で降りた人数が2人であり、その平均待ち時間が10秒であることを表示
運行関連情報表示部54が、解析した人物移動履歴の詳細情報を表示することで、ユーザが各階や各カゴの個別の情報を閲覧することができ、エレベータ運行の不具合などの原因の詳細を分析することができる。
図34はソートデータ表示部55の画面例を示す説明図である。
図34(A)の例では、ソートデータ表示部55が「ドア開時間」をソートキーとして映像解析部3の解析結果をソートし、ドア開時間が大きなデータを上位にして順番に表示している。
また、図34(A)には、「カゴ番号(#)」、システム時間(映像記録時間)、「ドア開時間」のデータを同時に表示している。
また、図34(B)には、「カゴ(#)」、「時間帯(例えば、30分単位)」、「乗降(乗車又は降車を示すフラグ)」、「乗降者人数」のデータを同時に表示している。
図34(C)の例では、ソートデータ表示部55が「乗降者移動人数」をソートキーとして映像解析部3の解析結果をソートし、「乗降者移動人数」が大きなデータを上位にして順番に表示している。
また、図34(C)には、「時間帯(例えば、30分単位)」、「乗階」、「降階」、「乗降者人数」のデータを同時に表示している。
ソートデータ表示部55がソートしたデータを表示することで、例えば、ドアが異常に開いている時間帯を発見し、同じ時間帯の映像や解析結果を参照することで、その不具合の原因を突き止めることができる。
これにより、乗客はエレベータの混雑具合から、いつどのエレベータに乗るのがよいのかを把握することができる。
また、セキュリティニーズの高い場所を監視対象領域として、人物の移動履歴を求めることに適用し、不審な人物の行動を監視することも可能である。
また、駅や店舗などに適用して人物の移動軌跡を解析することで、マーケティングなどに利用することも可能である。
さらに、エスカレータの踊り場を監視対象領域として適用し、踊り場に存在する人物の数をカウントして、踊り場が混雑してきた場合に、例えば、エスカレータの徐行や停止など適切な制御を行うことで、エスカレータ上で人物が将棋倒しになるなどの事故を未然に回避することに利用することもできる。
上記実施の形態1では、複数の3次元移動軌跡グラフを探索して、入退場条件を満足する3次元移動軌跡の候補を算出して、入場から退場までの3次元移動軌跡の候補を列挙し、コスト関数をMCMCなどで確率的に最大化することで3次元移動軌跡の候補の最適な組み合わせを求めているが、3次元移動軌跡グラフの構造が複雑な場合には、入退場条件を満足する3次元移動軌跡の候補数が天文学的に大きくなり、現実的な時間内に処理することができないことがある。
そこで、この実施の形態2では、3次元移動軌跡グラフの頂点(グラフを構成する各3次元移動軌跡)に対してラベル付けを実施し、入退場条件を鑑みたコスト関数を確率的に最大化することで、3次元移動軌跡の最適な組み合わせを現実的な時間内で推定するようにしている。
軌跡組み合わせ推定部61は3次元移動軌跡グラフ生成部49により生成された3次元移動軌跡グラフの頂点にラベリングを施して複数のラベリング候補を算出し、複数のラベリング候補の中から最適なラベリング候補を選択して、監視対象領域内に存在している人物の人数を推定する処理を実施する。
上記実施の形態1と比べて、軌跡組み合わせ推定部50が軌跡組み合わせ推定部61に代わっている以外は同じであるため、軌跡組み合わせ推定部61の動作のみを説明する。
図36は軌跡組み合わせ推定部61の処理内容を示すフローチャートであり、図37は軌跡組み合わせ推定部61の処理内容を示す説明図である。
図37(A)の例では、エレベータのカゴ内の入口付近に仮想的に入退場エリアを設定している。
ここで、軌跡組み合わせ推定部61は、3次元移動軌跡グラフをくまなく探索して、可能なラベリング候補をすべて列挙するようにしてもよいが、ラベリングの候補数が多い場合には、予め決められた数だけランダムにラベリング候補を選出するようにしてもよい。
図37(A)に示すように、下記の情報を有する3次元移動軌跡グラフが得られたものとする。
・L1に連結された3次元移動軌跡集合={L2,L3}
・L2に連結された3次元移動軌跡集合={L6}
・L3に連結された3次元移動軌跡集合={L5}
・L4に連結された3次元移動軌跡集合={L5}
・L5に連結された3次元移動軌跡集合={φ(空集合)}
・L6に連結された3次元移動軌跡集合={φ(空集合)}
ただし、L2は人物頭部の追跡ミスなどにより、誤って求めてしまった3次元移動軌跡であるとする。
例えば、ラベリング候補Aには、下記に示すように、0から2までのラベル番号のラベルが各3次元移動軌跡の断片に付与される。
・ラベル0={L3}
・ラベル1={L4,L5}
・ラベル2={L1,L2,L6}
ここで、ラベル0は、人物でない3次元移動軌跡(誤りの3次元移動軌跡)の集合とし、ラベル1以上は、各個別の人物の3次元移動軌跡の集合を意味するものと定義する。
この場合、ラベリング候補Aは、監視対象領域に人物が二人(ラベル1とラベル2)存在していることを示しており、ある人物(1)の3次元移動軌跡は、ラベル1が付与されている3次元移動軌跡L4と3次元移動軌跡L5から構成され、また、ある人物(2)の3次元移動軌跡は、ラベル2が付与されている3次元移動軌跡L1と3次元移動軌跡L2と3次元移動軌跡L6から構成されていることを示している。
・ラベル0={L2,L6}
・ラベル1={L1,L3,L5}
・ラベル2={L4}
この場合、ラベリング候補Bは、監視対象領域に人物が二人(ラベル1とラベル2)存在していることを示しており、ある人物(1)の3次元移動軌跡は、ラベル1が付与されている3次元移動軌跡L1と3次元移動軌跡L3と3次元移動軌跡L5から構成され、また、ある人物(2)の3次元移動軌跡は、ラベル2が付与されている3次元移動軌跡L4から構成されていることを示している。
コスト関数としては、下記に示すようなコストを定義する。
コスト = 「入退場条件を満たした3次元移動軌跡の数」
ここで、入退場条件として、例えば、上記実施の形態1で述べた入場条件及び退場条件を利用する。
また、ラベリング候補Bでは、ラベル1のみが入退場条件を満足する3次元移動軌跡である。
したがって、ラベリング候補A,Bのコストが下記のようになるため、コスト関数が最大となるラベリング候補がラベリング候補Aであって、ラベリング候補Aが最適な3次元移動軌跡グラフのラベリングとして判断される。
このため、エレベータのカゴ内を移動していた人物が2人であることも同時に推定される。
・ラベリング候補Aのコスト=2
・ラベリング候補Bのコスト=1
ここでは、階床認識部12により特定された停止階情報を対応付けるものについて示したが、別途、エレベータの制御機器から停止階情報を取得して対応付けるようにしてもよい。
このような場合、軌跡組み合わせ推定部61は、MCMCやGAなどの確率的な最適化手法を用いて、3次元移動軌跡グラフのラベリング処理を実施するようにしてもよい。
以下、3次元移動軌跡グラフのラベリング処理を具体的に説明する。
軌跡組み合わせ推定部61は、3次元移動軌跡グラフ生成部49が3次元移動軌跡グラフを生成すると、その3次元移動軌跡グラフの頂点の集合、即ち、人物の3次元移動軌跡の集合をY={yi}i=1,・・・,Nとする。ここで、Nは3次元移動軌跡の数である。
また、状態空間wを以下のように定義する.
w={τ0,τ1,τ2,・・・,τK}
ここで、τ0はどの人物にも属さない3次元移動軌跡yiの集合であり、τiはi番目の人物の3次元移動軌跡に属する3次元移動軌跡yiの集合であり、Kは3次元移動軌跡の数(人物数)である。
τiは複数の連結された3次元移動軌跡から構成されており、一つの3次元移動軌跡とみなすことができる。
また、下記を満足するものとする。
・Uk=0,・・・,K τk=Y
・τi ∩ τj=φ (for all i≠j)
・|τk|>1 (for all k)
これは尤度関数L(w/Y)をコスト関数として定義し、このコスト関数を最大化する問題として定式化することができる。
即ち、最適な軌跡ラベリングをwoptとすると、woptは下式で与えられる。
wopt=argmax L(w|Y)
L(w|Y)=Lovr(w|Y)Lnum(w|Y)Lstr(w|Y)
ここで、Lovrは「3次元空間内で3次元移動軌跡が重ならない」ことを定式化した尤度関数、Lnumは「可能な限り多く入退場条件を満たす3次元移動軌跡が存在する」ことを定式化した尤度関数、Lstrは「3次元移動軌跡のステレオ視の精度が高い」ことを定式化した尤度関数である。
[軌跡のオーバーラップに関する尤度関数]
「3次元空間内で3次元移動軌跡が重ならない」という条件を下記のように定式化する。
Lovr(w|Y) ∝ exp( −c1 Στi∈w-τ0 Στj∈w-τ0 O(τi,τj))
ここで、O(τi,τj)は、3次元移動軌跡τiと3次元移動軌跡τjのオーバーラップコストであり、3次元移動軌跡τiと3次元移動軌跡τjが完全に重なっている場合には“1”となり、まったく重なっていない場合には“0”をとるものとする。
O(τi,τj)は、例えば、上記実施の形態1で説明したものを利用する。c1は正の定数である。
「可能な限り多く入退場条件を満たす3次元移動軌跡が存在する」という条件を下記のように定式化する。
Lnum(w|Y) ∝ exp( c2×K + c3×J)
ここで、Kは3次元移動軌跡の数であり、K=|w−τ0|で与えられる。また、JはK個の3次元移動軌跡τ1からτKまでの中で、入退場条件を満足する3次元移動軌跡の数である。
入退場条件は、例えば、上記実施の形態1で説明したものを利用する。
尤度関数Lnum(w|Y)は、集合Yから可能な限り多くの3次元移動軌跡が選択され、かつ、その中でも入退場条件を満足するものが多く存在するように働く。c2,c3は正の定数である。
「3次元移動軌跡のステレオ視の精度が高い」という条件を下記のように定式化する。
Lstr(w|Y) ∝ exp( −c4 × Στi∈w-τ0 S(τi))
ここで、S(τi)は、ステレオコストであり、3次元移動軌跡がステレオ視によって推定された場合は小さな値をとり、3次元移動軌跡が単眼視や、どのカメラからも観測されない期間がある場合は大きな値をとるものとする。
例えば、ステレオコストS(τi)の計算方法は、上記実施の形態1で説明したものを利用する。c4は正の定数である。
上記実施の形態2では、3次元移動軌跡グラフの頂点(グラフを構成する各3次元移動軌跡)に対してラベル付けを実施し、入退場条件を鑑みたコスト関数を確率的に最大化することで、3次元移動軌跡の最適な組み合わせを現実的な時間内で推定するようにしている。しかし、映像に写る人物数が増えて、さらに2次元移動軌跡グラフの構造が複雑な場合には、立体視の結果得られる3次元移動軌跡の断片の候補数が天文学的に大きくなり、実施の形態2の方法を利用しても、現実的な時間内に処理を終了できないことがある。
そこで、この実施の形態3では、2次元移動軌跡グラフの頂点(グラフを構成する各2次元移動軌跡)に対して確率的にラベル付けを実施し、2次元移動軌跡のラベルに応じて3次元移動軌跡の立体視を行い、入退場条件を鑑みた3次元移動軌跡のコスト関数を評価することで、最適な3次元移動軌跡を現実的な時間内で推定するようにしている。
2次元移動軌跡ラベリング部71は、2次元移動軌跡グラフ生成部47により生成された2次元移動軌跡グラフの有向辺にラベリングを施して複数のラベリング候補を算出する処理を実施する。3次元移動軌跡コスト計算部72は、3次元移動軌跡の組み合わせに関するコスト関数を計算し、複数のラベリング候補の中から最適なラベリング候補を選択して、監視対象領域内に存在している人物の人数を推定する処理を実施する。
上記実施の形態1と比べて、3次元移動軌跡グラフ生成部49及び軌跡組み合わせ推定部50に代わって、2次元移動軌跡ラベリング部71と、3次元移動軌跡コスト計算部72が追加されている。それ以外の構成は同一であるため、以下では2次元移動軌跡ラベリング部71と3次元移動軌跡コスト計算部72の動作を中心に説明する。
図39は2次元移動軌跡ラベリング部71と3次元移動軌跡コスト計算部72の処理内容を示すフローチャートであり、図40は2次元移動軌跡ラベリング部71と3次元移動軌跡コスト計算部72の処理内容を示す説明図である。
図40(A)に示すように、対象領域に人物Xと人物Yが存在し、下記の情報を有する2次元移動軌跡グラフが得られたものとする。
カメラ1の映像
・2次元移動軌跡T1に連結された2次元移動軌跡集合={T2,T3}
・2次元移動軌跡T4に連結された2次元移動軌跡集合={T5、T6}
カメラ2の映像
・2次元移動軌跡P1に連結された2次元移動軌跡集合={P2,P3}
・2次元移動軌跡P4に連結された2次元移動軌跡集合={P5,P6}
[ラベリング候補1]
・ラベルA={{T1,T3},{P1,P2}}
・ラベルB={{T4,T6},{P4,P5}}
・ラベルZ={{T2,T5},{P3,P6}}
ここで、ラベリング候補1を次のように解釈する。監視対象領域に人物が二人(ラベルAとラベルB)存在していることを示しており、ある人物Yの2次元移動軌跡は、ラベルAが付与されている2次元移動軌跡T1,T3,P1,P2とから構成される。また、ある人物Xの2次元移動軌跡は、ラベルBが付与されている2次元移動軌跡T4,T6,P4,P5から構成されていることを示している。ここで、ラベルZは特別なラベルと定義し、ラベルZが付与されているT2,T5,P3,P6は、誤って求めてしまった人物でない2次元移動軌跡の集合であることを示すものとする。
ここで用いたラベルはA,B,Zの3つであるが、これに限らず必要に応じて任意にラベルの数を増やしてもよい。
また、ラベルZが付与されているT2,T5,P3,P6は、人物の軌跡で無いと解釈されているので、ステレオマッチングは実施しない。
その他、軌跡ステレオ部48の2次元移動軌跡の立体視に関する動作は、実施の形態1と同一であるため説明を省略する。
複数のラベリング候補に対する3次元移動軌跡の集合に対して、人物数、人物同士の位置関係、2次元移動軌跡のステレオマッチング率、ステレオ立体視精度及び監視対象領域への入退場条件などを考慮したコスト関数を計算し、そのコスト関数が最大となるラベリング候補を求め、個々の人物の最適な3次元移動軌跡と人物数を算出する(ステップST93)。
コスト=「入退場条件を満たした3次元移動軌跡の数」
ここで、入退場条件として、例えば、上記実施の形態1で述べた入場条件及び退場条件を利用する。例えば図40(C)の場合、ラベリング候補1では、ラベルAとラベルBが入退場条件を満足する3次元移動軌跡であるため、
ラベリング候補1のコスト=2
と計算される。
コスト=「入退場条件を満たした3次元移動軌跡の数」
−a×「3次元移動軌跡のオーバーラップコストの合計」
+b×「2次元移動軌跡のマッチング率の合計」
ここで、a,bは、各評価値のバランスを取るための正の定数である。また、2次元移動軌跡のマッチング率と3次元移動軌跡のオーバーラップコストは、例えば実施の形態1で説明したものを利用する。
このような場合、MCMCやGAなどの確率的な最適化手法を用いて、2次元移動軌跡ラベリング部71におけるラベルリング候補の生成を確率的に生成して、最適あるいは準最適な3次元移動軌跡を求めることで、現実的な時間内に処理を終了するようにしてもよい。
ここでは、階床認識部12により特定された停止階情報を対応付けるものについて示したが、別途、エレベータの制御機器から停止階情報を取得して対応付けるようにしてもよい。
上記実施の形態1から実施の形態3では、エレベータ乗降者の人物移動履歴の計測方法について述べたが、この実施の形態4では人物移動履歴の利用方法について述べる。
センサ81は、監視対象領域であるエレベータ外部に設置されており、例えば、可視カメラや赤外線カメラ、あるいはレーザー距離計などで構成される。
フロア人物検出部82は、センサ81が取得する情報を利用して、エレベータ外部の人物の移動履歴を計測する処理を実施する。
カゴ呼び計測部83は、エレベータ呼び出し履歴を計測する処理を実施する。
交通流可視化部85は、映像解析部3とフロア人物検出部82とカゴ呼び計測部83が計測した実際の交通流と、群管理最適化部84が生成したシミュレーション交通流とを比較し、アニメーションやグラフで表示する処理を実施する。
まず、カメラ1、映像取得部2、映像解析部3はエレベータ内部の人物移動履歴を算出する(ステップST1〜ST4)。
例えば、センサ81には可視カメラを用いて、実施の形態1と同様に映像から人物の頭部を検出・追跡し、フロア人物検出部82は、エレベータの到着を待つ人物やこれからエレベータに向かう人物の3次元移動軌跡と、それらの人数を計測する処理を実施する。
センサ81は、可視カメラに限らず、熱を感知する赤外線カメラ、レーザー距離計、またはフロアに敷き詰めた感圧センサなど人物の移動情報が計測できるものであれば何でもよい。
カゴ呼び計測部83は、エレベータのカゴ呼び出し履歴を計測する(ステップST102)。例えば、カゴ呼び計測部83は各フロアに配置されているエレベータ呼び出しボタンが押された履歴を計測する処理を実施する。
ここで、エレベータ待ち時間とは、ある人物がフロアに到着してから所望のエレベータが到着するまでの時間である。
従来は正確なエレベータの人物移動履歴を計測する手段が無かったため、群管理最適化アルゴリズムではエレベータ内外の人物移動履歴の適当な確率分布を仮定してエレベータ群管理の最適化処理がなされていた。しかし、この実施の形態4では、実測した人物移動履歴を従来のアルゴリズムへ入力することで、より最適な群管理を実現することが可能である。
例えば、交通流可視化部85は、エレベータやテナントを表示したビルの2次元断面図上に、エレベータ待ち時間、人物の移動量合計、または人物の単位時間あたりの移動確率をアニメーションで表示したり、エレベータのカゴ移動のダイアグラムをグラフで表示する。交通流可視化部85は、コンピュータによるシミュレーションにより、エレベータ台数を増減したり、エレベータ新規機種を導入した際の人物の移動履歴を仮想的に計算し、このシミュレーション結果と、映像解析部3、フロア人物検出部82及びカゴ呼び計測部83が計測した実際の人物移動履歴とを同時に表示することができるので、シュミレーション結果と実際の人物移動履歴を比較することで、現状のビル内の交通流と、改築による交通流との変化を検証することができる効果がある。
従来、エレベータの車椅子専用ボタンを押した場合、エレベータが優先的に配車される。しかし、健常者が意図せず誤って車椅子専用ボタンを押した場合もエレベータが優先的に配車されるため、エレベータ群の運行効率を下げる原因となっていた。
そこで、この実施の形態5では、画像処理により車椅子を認識し、フロア及びエレベータのカゴ内に車椅子の人物が存在する場合にのみ優先的にカゴを運行することにより効率的なエレベータの運行を行う構成を示す。
車椅子検出部91は、映像解析部3及びフロア人物検出部82が算出した人物の中から車椅子と、その車椅子に座る人物を特定する処理を実施する。
まず、カメラ1、映像取得部2、映像解析部3はエレベータ内部の人物移動履歴を算出する(ステップST1〜ST4)。フロア人物検出部82は、エレベータ外部に設置されたセンサ81を用いて、エレベータ外部の人物の移動履歴を計測する(ステップST101)。カゴ呼び計測部83は、エレベータのカゴ呼び出し履歴を計測する(ステップST102)。
Claims (29)
- 相互に異なる位置に設置され、同一の監視対象領域を撮影する複数の撮影手段と、上記複数の撮影手段により撮影された監視対象領域の映像を解析して、上記監視対象領域内に存在している個々の人物の各映像上の位置を算出する人物位置算出手段と、上記人物位置算出手段により算出された各映像上の位置を追跡して、各映像における個々の人物の2次元移動軌跡を算出する2次元移動軌跡算出手段と、上記2次元移動軌跡算出手段により算出された各映像における2次元移動軌跡間のステレオマッチングを実施して、上記2次元移動軌跡のマッチング率を算出し、上記マッチング率が規定値以上の2次元移動軌跡から、個々の人物の3次元移動軌跡を算出する3次元移動軌跡算出手段とを備えた人物追跡装置。
- 3次元移動軌跡算出手段は、個々の人物の3次元移動軌跡から3次元移動軌跡グラフを生成し、上記3次元移動軌跡グラフを探索して複数の3次元移動軌跡の候補を算出し、複数の3次元移動軌跡の候補の中から最適な3次元移動軌跡を選択することを特徴とする請求項1記載の人物追跡装置。
- 人物位置算出手段は、複数の撮影手段により撮影されたキャリブレーションパターンの映像の歪み具合を解析して、上記複数の撮影手段のカメラパラメータを算出するカメラキャリブレーション部と、上記カメラキャリブレーション部により算出されたカメラパラメータを用いて、上記複数の撮影手段により撮影された監視対象領域の映像の歪みを補正する映像補正部と、上記映像補正部により歪みが補正された各映像に写っている個々の人物を検出し、個々の人物の各映像上の位置を算出する人物検出部とから構成され、
2次元移動軌跡算出手段は、上記人物検出部により算出された各映像上の位置を追跡して、各映像における個々の人物の2次元移動軌跡を算出する2次元移動軌跡算出部から構成され、
3次元移動軌跡算出手段は、上記2次元移動軌跡算出部により算出された2次元移動軌跡に対する分割処理及び連結処理を実施して2次元移動軌跡グラフを生成する2次元移動軌跡グラフ生成部と、上記2次元移動軌跡グラフ生成部により生成された2次元移動軌跡グラフを探索して複数の2次元移動軌跡の候補を算出し、上記監視対象領域内の基準点に対する上記複数の撮影手段の設置位置及び設置角度を考慮して、各映像における2次元移動軌跡の候補間のステレオマッチングを実施して、上記2次元移動軌跡の候補のマッチング率を算出し、上記マッチング率が規定値以上の2次元移動軌跡の候補から、個々の人物の3次元移動軌跡を算出する軌跡ステレオ部と、上記軌跡ステレオ部により算出された3次元移動軌跡に対する分割処理及び連結処理を実施して3次元移動軌跡グラフを生成する3次元移動軌跡グラフ生成部と、上記3次元移動軌跡グラフ生成部により生成された3次元移動軌跡グラフを探索して複数の3次元移動軌跡の候補を算出し、複数の3次元移動軌跡の候補の中から最適な3次元移動軌跡を選択して、上記監視対象領域内に存在している人物の人数を推定する軌跡組み合わせ推定部とから構成されていることを特徴とする請求項2記載の人物追跡装置。 - 監視対象領域がエレベータの内部である場合、複数の撮影手段により撮影されたエレベータの内部の映像を解析して、上記エレベータのドアの開閉時刻を特定するドア開閉時刻特定手段を設け、3次元移動軌跡算出手段が複数の3次元移動軌跡の候補の中から最適な3次元移動軌跡を選択する際、上記ドア開閉時刻特定手段により特定されたドアの開閉時刻を参照して、軌跡始点の時刻及び軌跡終点の時刻がドアが閉じている時刻と一致する3次元移動軌跡の候補を除外することを特徴とする請求項2記載の人物追跡装置。
- 監視対象領域がエレベータの内部である場合、複数の撮影手段により撮影されたエレベータの内部の映像を解析して、上記エレベータのドアの開閉時刻を特定するドア開閉時刻特定手段を設け、3次元移動軌跡算出手段が複数の3次元移動軌跡の候補の中から最適な3次元移動軌跡を選択する際、上記ドア開閉時刻特定手段により特定されたドアの開閉時刻を参照して、軌跡始点の時刻及び軌跡終点の時刻がドアが閉じている時刻と一致する3次元移動軌跡の候補を除外することを特徴とする請求項3記載の人物追跡装置。
- ドア開閉時刻特定手段は、ドアが閉じている状態のエレベータ内のドア領域の画像を背景画像として登録する背景画像登録部と、上記背景画像登録部により登録されている背景画像と撮影手段により撮影されたドア領域の映像との差分を算出する背景差分部と、上記撮影手段により撮影されたドア領域の映像の変化からドアの移動方向を示す動きベクトルを計算するオプティカルフロー計算部と、上記背景差分部により算出された差分と上記オプティカルフロー計算部により計算された動きベクトルからドアの開閉状態を判別して、上記ドアの開閉時刻を特定するドア開閉時刻特定部と、上記撮影手段により撮影されたドア領域の映像を用いて、上記背景画像を更新する背景画像更新部とから構成されていることを特徴とする請求項4記載の人物追跡装置。
- ドア開閉時刻特定手段は、ドアが閉じている状態のエレベータ内のドア領域の画像を背景画像として登録する背景画像登録部と、上記背景画像登録部により登録されている背景画像と撮影手段により撮影されたドア領域の映像との差分を算出する背景差分部と、上記撮影手段により撮影されたドア領域の映像の変化からドアの移動方向を示す動きベクトルを計算するオプティカルフロー計算部と、上記背景差分部により算出された差分と上記オプティカルフロー計算部により計算された動きベクトルからドアの開閉状態を判別して、上記ドアの開閉時刻を特定するドア開閉時刻特定部と、上記撮影手段により撮影されたドア領域の映像を用いて、上記背景画像を更新する背景画像更新部とから構成されていることを特徴とする請求項5記載の人物追跡装置。
- エレベータの内部の映像を解析して、各時刻における上記エレベータの階床を特定する階床特定手段を設け、3次元移動軌跡算出手段が個々の人物の3次元移動軌跡と上記階床特定手段により特定された階床とを対応付けて、個々の人物の乗車階と降車階を示す人物移動履歴を算出することを特徴とする請求項1記載の人物追跡装置。
- 階床特定手段は、エレベータの階床を示すインジケータの画像をテンプレート画像として登録するテンプレート画像登録部と、上記テンプレート画像登録部により登録されているテンプレート画像と撮影手段により撮影されたエレベータ内のインジケータ領域の映像とのテンプレートマッチングを実施して、各時刻における上記エレベータの階床を特定するテンプレートマッチング部と、上記撮影手段により撮影されたインジケータ領域の映像を用いて、上記テンプレート画像を更新するテンプレート画像更新部とから構成されていることを特徴とする請求項8記載の人物追跡装置。
- 3次元移動軌跡算出手段により算出された人物移動履歴を表示する映像解析結果表示手段を設けたことを特徴とする請求項8記載の人物追跡装置。
- 3次元移動軌跡算出手段により算出された人物移動履歴を表示する映像解析結果表示手段を設けたことを特徴とする請求項9記載の人物追跡装置。
- 映像解析結果表示手段は、複数の撮影手段により撮影されたエレベータの内部の映像を表示する映像表示部と、3次元移動軌跡算出手段により算出された人物移動履歴を時系列的にグラフ表示する時系列情報表示部と、上記3次元移動軌跡算出手段により算出された人物移動履歴の統計を求め、上記人物移動履歴の統計結果を表示するサマリー表示部と、上記3次元移動軌跡算出手段により算出された人物移動履歴を参照して、エレベータの運行に関連する情報を表示する運行関連情報表示部と、上記3次元移動軌跡算出手段により算出された人物移動履歴をソートして表示するソートデータ表示部とから構成されていることを特徴とする請求項10記載の人物追跡装置。
- 映像解析結果表示手段は、複数の撮影手段により撮影されたエレベータの内部の映像を表示する映像表示部と、3次元移動軌跡算出手段により算出された人物移動履歴を時系列的にグラフ表示する時系列情報表示部と、上記3次元移動軌跡算出手段により算出された人物移動履歴の統計を求め、上記人物移動履歴の統計結果を表示するサマリー表示部と、上記3次元移動軌跡算出手段により算出された人物移動履歴を参照して、エレベータの運行に関連する情報を表示する運行関連情報表示部と、上記3次元移動軌跡算出手段により算出された人物移動履歴をソートして表示するソートデータ表示部とから構成されていることを特徴とする請求項11記載の人物追跡装置。
- カメラキャリブレーション部は、複数の撮影手段により撮影されたキャリブレーションパターンの映像と、上記複数の撮影手段のカメラパラメータとを用いて、監視対象領域内の基準点に対する上記複数の撮影手段の設置位置及び設置角度を算出し、上記複数の撮影手段の設置位置及び設置角度を軌跡ステレオ部に出力することを特徴とする請求項3記載の人物追跡装置。
- 人物検出部が個々の人物の各映像上の位置を算出する際、上記人物の確信度を算出し、2次元移動軌跡算出部が上記人物検出部により算出された確信度の累積値が所定の閾値以下であれば、当該人物の位置の追跡を終了することを特徴とする請求項3記載の人物追跡装置。
- 2次元移動軌跡算出部は、人物検出部が個々の人物の検出処理を実施して、当該人物を検出すれば、当該人物の検出結果に係るカウンタの値を上げる一方、当該人物を検出できなければ、当該人物の検出結果に係るカウンタの値を下げる処理を実施し、上記カウンタの値が所定の閾値以下であれば、当該人物の位置の追跡を終了することを特徴とする請求項3記載の人物追跡装置。
- 人物検出部は、映像補正部により歪みが補正された各映像に写っている個々の人物を検出する際、人物の検出結果の中で、人物の頭部サイズが最小矩形サイズより小さい検出結果と、人物の頭部サイズが最大矩形サイズより大きい検出結果を誤検出とみなして、人物の検出結果から除外することを特徴とする請求項3記載の人物追跡装置。
- 2次元移動軌跡算出部は、各映像における個々の人物の2次元移動軌跡を算出する際、人物検出部により算出された各映像上の位置を時間的に前方に追跡して2次元移動軌跡を算出するとともに、各映像上の位置を時間的に後方に追跡して2次元移動軌跡を算出することを特徴とする請求項3記載の人物追跡装置。
- 軌跡ステレオ部は、マッチング率が規定値以上の2次元移動軌跡の候補から、個々の人物の3次元移動軌跡を算出しても、上記3次元移動軌跡が監視対象領域に対する入退場条件を満足しない場合、上記3次元移動軌跡を破棄することを特徴とする請求項3記載の人物追跡装置。
- 軌跡ステレオ部は、2次元移動軌跡の候補がオーバーラップしている時間帯の人物の3次元位置を算出し、上記3次元位置から2次元移動軌跡の候補がオーバーラップしていない時間帯の人物の3次元位置を推定することで、個々の人物の3次元移動軌跡を算出することを特徴とする請求項3記載の人物追跡装置。
- 軌跡組み合わせ推定部は、複数の3次元移動軌跡の候補の中から最適な3次元移動軌跡を選択する際、軌跡始点及び軌跡終点が監視対象領域の入退場領域内に存在しない3次元移動軌跡の候補を除外して、上記監視対象領域への入場から退場に至るまでの3次元移動軌跡の候補を残すことを特徴とする請求項3記載の人物追跡装置。
- 軌跡組み合わせ推定部は、入場から退場に至るまでの3次元移動軌跡の候補の中から、監視対象領域内に存在している人物の人数、人物同士の位置関係及び軌跡ステレオ部におけるステレオマッチングの精度が反映されるコスト関数が最大になる3次元移動軌跡の候補の組み合わせを選択することを特徴とする請求項21記載の人物追跡装置。
- 人物位置算出手段は、複数の撮影手段により撮影されたキャリブレーションパターンの映像の歪み具合を解析して、上記複数の撮影手段のカメラパラメータを算出するカメラキャリブレーション部と、上記カメラキャリブレーション部により算出されたカメラパラメータを用いて、上記複数の撮影手段により撮影された監視対象領域の映像の歪みを補正する映像補正部と、上記映像補正部により歪みが補正された各映像に写っている個々の人物を検出し、個々の人物の各映像上の位置を算出する人物検出部とから構成され、
2次元移動軌跡算出手段は、上記人物検出部により算出された各映像上の位置を追跡して、各映像における個々の人物の2次元移動軌跡を算出する2次元移動軌跡算出部から構成され、
3次元移動軌跡算出手段は、上記2次元移動軌跡算出部により算出された2次元移動軌跡に対する分割処理及び連結処理を実施して2次元移動軌跡グラフを生成する2次元移動軌跡グラフ生成部と、上記2次元移動軌跡グラフ生成部により生成された2次元移動軌跡グラフを探索して複数の2次元移動軌跡の候補を算出し、上記監視対象領域内の基準点に対する上記複数の撮影手段の設置位置及び設置角度を考慮して、各映像における2次元移動軌跡の候補間のステレオマッチングを実施して、上記2次元移動軌跡の候補のマッチング率を算出し、上記マッチング率が規定値以上の2次元移動軌跡の候補から、個々の人物の3次元移動軌跡を算出する軌跡ステレオ部と、上記軌跡ステレオ部により算出された3次元移動軌跡に対する分割処理及び連結処理を実施して3次元移動軌跡グラフを生成する3次元移動軌跡グラフ生成部と、上記3次元移動軌跡グラフ生成部により生成された3次元移動軌跡グラフの頂点にラベリングを施して複数のラベリング候補を算出し、複数のラベリング候補の中から最適なラベリング候補を選択して、上記監視対象領域内に存在している人物の人数を推定する軌跡組み合わせ推定部とから構成されていることを特徴とする請求項2記載の人物追跡装置。 - 軌跡組み合わせ推定部は、複数のラベリング候補の中から、監視対象領域内に存在している人物の人数、人物同士の位置関係、軌跡ステレオ部におけるステレオマッチングの精度及び監視対象領域に対する入退場条件が反映されるコスト関数が最大になるラベリング候補を選択することを特徴とする請求項23記載の人物追跡装置。
- 3次元移動軌跡算出手段は、2次元移動軌跡算出部により算出された2次元移動軌跡に対する分割処理及び連結処理を実施して2次元移動軌跡グラフを生成する2次元移動軌跡グラフ生成部と、上記2次元移動軌跡グラフ生成部により生成された2次元移動軌跡グラフの頂点に対して確率的にラベル付けを実施する2次元移動軌跡ラベリング部と、上記2次元移動軌跡ラベリング部により生成された2次元移動軌跡の複数のラベリング候補に対して、監視対象領域内の基準点に対する複数の撮影手段の設置位置及び設置角度を考慮して、各映像における同一ラベルが付与された2次元移動軌跡の候補間のステレオマッチングを実施して、上記2次元移動軌跡の候補のマッチング率を算出し、上記マッチング率が規定値以上の2次元移動軌跡の候補から、個々の人物の3次元移動軌跡を算出する軌跡ステレオ部と、上記軌跡ステレオ部により生成された3次元移動軌跡の集合に対して人物数、人物同士の位置関係、2次元移動軌跡のステレオマッチング率、ステレオ立体視精度及び監視対称領域への入退場条件などを鑑みた3次元移動軌跡のコスト関数を評価し、最適な3次元移動軌跡を推定する3次元移動軌跡コスト計算部とから構成されていることを特徴とする請求項2記載の人物追跡装置。
- エレベータ外部に設置されたセンサが取得する情報からエレベータ外部の人物移動履歴を計測するフロア人物検出部と、エレベータの呼び出し履歴を計測するカゴ呼び計測部と、3次元移動軌跡算出手段により算出された個々の人物の3次元移動軌跡、上記フロア人物検出部により計測されたエレベータ外部の人物移動履歴及び上記カゴ呼び計測部により計測された呼び出し履歴からエレベータ群配車の最適化処理を実施すると共に、上記最適化処理に基づいたエレベータ群のシミュレーション交通流を算出する群管理最適化部とを備えたことを特徴とする請求項1記載の人物追跡装置。
- 個々の人物の3次元移動軌跡、エレベータ外部の人物移動履歴及び呼び出し履歴から成る実測人物移動履歴と、群管理最適化部が算出したシミュレーション交通流とを比較し、比較結果を表示する交通流可視化部を備えたことを特徴とする請求項26記載の人物追跡装置。
- 車椅子を検出する車椅子検出部を備え、群管理最適化部は、上記車椅子検出部の検出状態に応じてエレベータ群管理を実施することを特徴とする請求項26記載の人物追跡装置。
- 相互に異なる位置に設置されている複数の撮影手段により撮影された同一の監視対象領域の映像が与えられると、上記監視対象領域内に存在している個々の人物の各映像上の位置を算出する人物位置算出処理手順と、上記人物位置算出処理手順により算出された各映像上の位置を追跡して、各映像における個々の人物の2次元移動軌跡を算出する2次元移動軌跡算出処理手順と、上記2次元移動軌跡算出処理手順により算出された各映像における2次元移動軌跡間のステレオマッチングを実施して、上記2次元移動軌跡のマッチング率を算出し、上記マッチング率が規定値以上の2次元移動軌跡から、個々の人物の3次元移動軌跡を算出する3次元移動軌跡算出処理手順とをコンピュータに実行させるための人物追跡プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011501473A JP5230793B2 (ja) | 2009-02-24 | 2010-02-09 | 人物追跡装置及び人物追跡プログラム |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009040742 | 2009-02-24 | ||
JP2009040742 | 2009-02-24 | ||
PCT/JP2010/000777 WO2010098024A1 (ja) | 2009-02-24 | 2010-02-09 | 人物追跡装置及び人物追跡プログラム |
JP2011501473A JP5230793B2 (ja) | 2009-02-24 | 2010-02-09 | 人物追跡装置及び人物追跡プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2010098024A1 JPWO2010098024A1 (ja) | 2012-08-30 |
JP5230793B2 true JP5230793B2 (ja) | 2013-07-10 |
Family
ID=42665242
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011501473A Active JP5230793B2 (ja) | 2009-02-24 | 2010-02-09 | 人物追跡装置及び人物追跡プログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20120020518A1 (ja) |
JP (1) | JP5230793B2 (ja) |
CN (1) | CN102334142A (ja) |
TW (1) | TW201118803A (ja) |
WO (1) | WO2010098024A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014015289A (ja) * | 2012-07-06 | 2014-01-30 | Toshiba Elevator Co Ltd | エレベータの群管理制御システム |
Families Citing this family (141)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5528151B2 (ja) * | 2010-02-19 | 2014-06-25 | パナソニック株式会社 | 対象物追跡装置、対象物追跡方法、および対象物追跡プログラム |
JP5590915B2 (ja) * | 2010-02-25 | 2014-09-17 | 三菱電機株式会社 | 戸開閉検出装置及び戸開閉検出方法 |
CN102200578B (zh) * | 2010-03-25 | 2013-09-04 | 日电(中国)有限公司 | 数据关联设备和方法 |
US8670029B2 (en) * | 2010-06-16 | 2014-03-11 | Microsoft Corporation | Depth camera illuminator with superluminescent light-emitting diode |
KR101355974B1 (ko) * | 2010-08-24 | 2014-01-29 | 한국전자통신연구원 | 복수의 객체를 추적하는 객체 추적 방법 및 장치 |
JP5758646B2 (ja) * | 2011-01-28 | 2015-08-05 | 富士変速機株式会社 | 駐車場の人検出器及び立体駐車装置 |
US9251854B2 (en) * | 2011-02-18 | 2016-02-02 | Google Inc. | Facial detection, recognition and bookmarking in videos |
JP5726595B2 (ja) * | 2011-03-30 | 2015-06-03 | セコム株式会社 | 画像監視装置 |
US9552637B2 (en) | 2011-05-09 | 2017-01-24 | Catherine G. McVey | Image analysis for determining characteristics of groups of individuals |
US9355329B2 (en) * | 2011-05-09 | 2016-05-31 | Catherine G. McVey | Image analysis for determining characteristics of pairs of individuals |
WO2012154841A2 (en) | 2011-05-09 | 2012-11-15 | Mcvey Catherine Grace | Image analysis for determining characteristics of animal and humans |
CN102831615A (zh) * | 2011-06-13 | 2012-12-19 | 索尼公司 | 对象监控方法和装置,以及监控系统操作方法 |
JP5767045B2 (ja) * | 2011-07-22 | 2015-08-19 | 株式会社日本総合研究所 | 情報処理システム、制御装置、及びプログラム |
JP5423740B2 (ja) * | 2011-08-23 | 2014-02-19 | 日本電気株式会社 | 映像提供装置、映像利用装置、映像提供システム、映像提供方法、および、コンピュータ・プログラム |
US20130101159A1 (en) * | 2011-10-21 | 2013-04-25 | Qualcomm Incorporated | Image and video based pedestrian traffic estimation |
CN102701056A (zh) * | 2011-12-12 | 2012-10-03 | 广州都盛机电有限公司 | 一种动态图像识别控制方法、装置及系统 |
US10095954B1 (en) * | 2012-01-17 | 2018-10-09 | Verint Systems Ltd. | Trajectory matching across disjointed video views |
US9530060B2 (en) * | 2012-01-17 | 2016-12-27 | Avigilon Fortress Corporation | System and method for building automation using video content analysis with depth sensing |
JP5865729B2 (ja) * | 2012-02-24 | 2016-02-17 | 東芝エレベータ株式会社 | エレベータシステム |
CN103034992B (zh) * | 2012-05-21 | 2015-07-29 | 中国农业大学 | 蜜蜂运动轨迹的无标识图像检测方法及系统 |
JPWO2014050518A1 (ja) * | 2012-09-28 | 2016-08-22 | 日本電気株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
US10009579B2 (en) * | 2012-11-21 | 2018-06-26 | Pelco, Inc. | Method and system for counting people using depth sensor |
JP6033695B2 (ja) * | 2013-01-28 | 2016-11-30 | 株式会社日立製作所 | エレベータ監視装置及びエレベータ監視方法 |
FR3001598B1 (fr) * | 2013-01-29 | 2015-01-30 | Eco Compteur | Procede de calibration d'un systeme de comptage video |
US9639747B2 (en) * | 2013-03-15 | 2017-05-02 | Pelco, Inc. | Online learning method for people detection and counting for retail stores |
FR3004573B1 (fr) * | 2013-04-11 | 2016-10-21 | Commissariat Energie Atomique | Dispositif et procede de suivi 3d video d'objets d'interet |
US20140373074A1 (en) | 2013-06-12 | 2014-12-18 | Vivint, Inc. | Set top box automation |
TWI532620B (zh) * | 2013-06-24 | 2016-05-11 | Utechzone Co Ltd | Vehicle occupancy number monitor and vehicle occupancy monitoring method and computer readable record media |
JP6187811B2 (ja) * | 2013-09-09 | 2017-08-30 | ソニー株式会社 | 画像処理装置、画像処理方法、及び、プログラム |
US11615460B1 (en) | 2013-11-26 | 2023-03-28 | Amazon Technologies, Inc. | User path development |
KR101557376B1 (ko) * | 2014-02-24 | 2015-10-05 | 에스케이 텔레콤주식회사 | 사람 계수 방법 및 그를 위한 장치 |
US10068344B2 (en) | 2014-03-05 | 2018-09-04 | Smart Picture Technologies Inc. | Method and system for 3D capture based on structure from motion with simplified pose detection |
JP5834254B2 (ja) * | 2014-04-11 | 2015-12-16 | パナソニックIpマネジメント株式会社 | 人数計測装置、人数計測システムおよび人数計測方法 |
TWI537872B (zh) * | 2014-04-21 | 2016-06-11 | 楊祖立 | 辨識二維影像產生三維資訊之方法 |
US9576371B2 (en) * | 2014-04-25 | 2017-02-21 | Xerox Corporation | Busyness defection and notification method and system |
CN105096406A (zh) * | 2014-04-30 | 2015-11-25 | 开利公司 | 用于建筑能耗设备的视频分析系统和智能楼宇管理系统 |
JP6314712B2 (ja) * | 2014-07-11 | 2018-04-25 | オムロン株式会社 | 部屋情報推定装置、部屋情報推定方法、および空気調和装置 |
JP6210946B2 (ja) * | 2014-07-29 | 2017-10-11 | 三菱電機ビルテクノサービス株式会社 | エレベータかご内カメラの画角調整装置およびエレベータかご内カメラの画角調整方法 |
US10664705B2 (en) | 2014-09-26 | 2020-05-26 | Nec Corporation | Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium |
CN104331902B (zh) | 2014-10-11 | 2018-10-16 | 深圳超多维科技有限公司 | 目标跟踪方法、跟踪装置和3d显示方法及显示装置 |
JP6428144B2 (ja) * | 2014-10-17 | 2018-11-28 | オムロン株式会社 | エリア情報推定装置、エリア情報推定方法、および空気調和装置 |
JP2016108097A (ja) * | 2014-12-08 | 2016-06-20 | 三菱電機株式会社 | エレベーターシステム |
JP6664150B2 (ja) * | 2015-01-16 | 2020-03-13 | 能美防災株式会社 | 監視システム |
KR101666959B1 (ko) * | 2015-03-25 | 2016-10-18 | ㈜베이다스 | 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리장치 및 그 방법 |
US11205270B1 (en) | 2015-03-25 | 2021-12-21 | Amazon Technologies, Inc. | Collecting user pattern descriptors for use in tracking a movement of a user within a materials handling facility |
US10679177B1 (en) | 2015-03-25 | 2020-06-09 | Amazon Technologies, Inc. | Using depth sensing cameras positioned overhead to detect and track a movement of a user within a materials handling facility |
US10586203B1 (en) * | 2015-03-25 | 2020-03-10 | Amazon Technologies, Inc. | Segmenting a user pattern into descriptor regions for tracking and re-establishing tracking of a user within a materials handling facility |
US10810539B1 (en) * | 2015-03-25 | 2020-10-20 | Amazon Technologies, Inc. | Re-establishing tracking of a user within a materials handling facility |
CN112850406A (zh) | 2015-04-03 | 2021-05-28 | 奥的斯电梯公司 | 用于乘客运输的通行列表产生 |
US10853757B1 (en) | 2015-04-06 | 2020-12-01 | Position Imaging, Inc. | Video for real-time confirmation in package tracking systems |
US11416805B1 (en) | 2015-04-06 | 2022-08-16 | Position Imaging, Inc. | Light-based guidance for package tracking systems |
US11501244B1 (en) | 2015-04-06 | 2022-11-15 | Position Imaging, Inc. | Package tracking systems and methods |
US10148918B1 (en) | 2015-04-06 | 2018-12-04 | Position Imaging, Inc. | Modular shelving systems for package tracking |
US10083522B2 (en) | 2015-06-19 | 2018-09-25 | Smart Picture Technologies, Inc. | Image based measurement system |
US10578713B2 (en) * | 2015-06-24 | 2020-03-03 | Panasonic Corporation | Radar axis displacement amount calculation device and radar axis displacement calculation method |
US10867376B2 (en) * | 2015-08-28 | 2020-12-15 | Nec Corporation | Analysis apparatus, analysis method, and storage medium |
CN105222774B (zh) * | 2015-10-22 | 2019-04-16 | Oppo广东移动通信有限公司 | 一种室内定位方法及用户终端 |
WO2017071969A1 (en) | 2015-10-30 | 2017-05-04 | Philips Lighting Holding B.V. | Commissioning of a sensor system |
US10740907B2 (en) * | 2015-11-13 | 2020-08-11 | Panasonic Intellectual Property Management Co., Ltd. | Moving body tracking method, moving body tracking device, and program |
JP6700752B2 (ja) * | 2015-12-01 | 2020-05-27 | キヤノン株式会社 | 位置検出装置、位置検出方法及びプログラム |
DE102016201741A1 (de) * | 2016-02-04 | 2017-08-10 | Hella Kgaa Hueck & Co. | Verfahren zur Höhenerkennung |
US11001473B2 (en) * | 2016-02-11 | 2021-05-11 | Otis Elevator Company | Traffic analysis system and method |
KR102496618B1 (ko) * | 2016-03-16 | 2023-02-06 | 삼성전자주식회사 | 컨텐트를 인식하는 방법 및 장치 |
TWI636403B (zh) | 2016-03-24 | 2018-09-21 | 晶睿通訊股份有限公司 | 人流計數之驗證方法、系統及電腦可讀取儲存媒體 |
JP2017174273A (ja) * | 2016-03-25 | 2017-09-28 | 富士ゼロックス株式会社 | 動線生成装置及びプログラム |
TWI608448B (zh) * | 2016-03-25 | 2017-12-11 | 晶睿通訊股份有限公司 | 計數流道設定方法、具有計數流道設定功能的影像監控系統、及其相關的電腦可讀取媒體 |
US11731856B2 (en) * | 2016-06-08 | 2023-08-22 | Mitsubishi Electric Corporation | Monitoring apparatus |
JP6390671B2 (ja) * | 2016-07-29 | 2018-09-19 | オムロン株式会社 | 画像処理装置および画像処理方法 |
TWI642302B (zh) * | 2016-08-02 | 2018-11-21 | 神準科技股份有限公司 | 自動設定方法與人流計數方法 |
CN109716256A (zh) * | 2016-08-06 | 2019-05-03 | 深圳市大疆创新科技有限公司 | 用于跟踪目标的系统和方法 |
WO2018041336A1 (en) * | 2016-08-30 | 2018-03-08 | Kone Corporation | Peak traffic detection according to passenger traffic intensity |
US11436553B2 (en) | 2016-09-08 | 2022-09-06 | Position Imaging, Inc. | System and method of object tracking using weight confirmation |
TWI584227B (zh) * | 2016-09-30 | 2017-05-21 | 晶睿通訊股份有限公司 | 影像處理方法、影像處理裝置及影像處理系統 |
US11327467B2 (en) * | 2016-11-29 | 2022-05-10 | Sony Corporation | Information processing device and information processing method |
US10634506B2 (en) | 2016-12-12 | 2020-04-28 | Position Imaging, Inc. | System and method of personalized navigation inside a business enterprise |
US10634503B2 (en) * | 2016-12-12 | 2020-04-28 | Position Imaging, Inc. | System and method of personalized navigation inside a business enterprise |
US11120392B2 (en) | 2017-01-06 | 2021-09-14 | Position Imaging, Inc. | System and method of calibrating a directional light source relative to a camera's field of view |
JP6469139B2 (ja) * | 2017-01-17 | 2019-02-13 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP6941966B2 (ja) * | 2017-04-19 | 2021-09-29 | 株式会社日立製作所 | 人物認証装置 |
CN107146310A (zh) * | 2017-05-26 | 2017-09-08 | 林海 | 一种楼梯间安全提示的方法 |
JP6910208B2 (ja) * | 2017-05-30 | 2021-07-28 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
CN107392979B (zh) * | 2017-06-29 | 2019-10-18 | 天津大学 | 时间序列的二维可视状态构图及定量分析指标方法 |
GB2564135A (en) * | 2017-07-04 | 2019-01-09 | Xim Ltd | A method, apparatus and program |
US10304254B2 (en) | 2017-08-08 | 2019-05-28 | Smart Picture Technologies, Inc. | Method for measuring and modeling spaces using markerless augmented reality |
CN109427074A (zh) | 2017-08-31 | 2019-03-05 | 深圳富泰宏精密工业有限公司 | 影像分析系统及方法 |
JP6690622B2 (ja) * | 2017-09-26 | 2020-04-28 | カシオ計算機株式会社 | 情報処理装置、情報処理システム、情報処理方法及びプログラム |
JP7029930B2 (ja) * | 2017-10-30 | 2022-03-04 | 株式会社日立製作所 | ビル内人流推定システムおよび推定方法 |
US11328513B1 (en) | 2017-11-07 | 2022-05-10 | Amazon Technologies, Inc. | Agent re-verification and resolution using imaging |
US10607365B2 (en) * | 2017-11-08 | 2020-03-31 | International Business Machines Corporation | Presenting an image indicating a position for a person in a location the person is waiting to enter |
US10706561B2 (en) * | 2017-12-21 | 2020-07-07 | 612 Authentic Media | Systems and methods to track objects in video |
CN109974667B (zh) * | 2017-12-27 | 2021-07-23 | 宁波方太厨具有限公司 | 一种室内人体定位方法 |
TWI636428B (zh) * | 2017-12-29 | 2018-09-21 | 晶睿通訊股份有限公司 | 影像分析方法、攝影機及其攝影系統 |
DE102018201834A1 (de) * | 2018-02-06 | 2019-08-08 | Siemens Aktiengesellschaft | Verfahren zum Kalibrieren einer Erfassungseinrichtung, Zählverfahren und Erfassungseinrichtung für ein Personenbeförderungsfahrzeug |
JP6916130B2 (ja) * | 2018-03-02 | 2021-08-11 | 株式会社日立製作所 | 話者推定方法および話者推定装置 |
JP7013313B2 (ja) * | 2018-04-16 | 2022-01-31 | Kddi株式会社 | 動線管理装置、動線管理方法及び動線管理プログラム |
TWI779029B (zh) * | 2018-05-04 | 2022-10-01 | 大猩猩科技股份有限公司 | 一種分佈式的物件追蹤系統 |
US20190382235A1 (en) * | 2018-06-15 | 2019-12-19 | Otis Elevator Company | Elevator scheduling systems and methods of operation |
CN110626891B (zh) | 2018-06-25 | 2023-09-05 | 奥的斯电梯公司 | 用于改进的电梯调度的系统和方法 |
JP2020009382A (ja) * | 2018-07-12 | 2020-01-16 | 株式会社チャオ | 動線分析装置、動線分析プログラムおよび動線分析方法 |
US11708240B2 (en) * | 2018-07-25 | 2023-07-25 | Otis Elevator Company | Automatic method of detecting visually impaired, pregnant, or disabled elevator passenger(s) |
EP3604194A1 (en) * | 2018-08-01 | 2020-02-05 | Otis Elevator Company | Tracking service mechanic status during entrapment |
CN113424197A (zh) | 2018-09-21 | 2021-09-21 | 定位成像有限公司 | 机器学习辅助自改进对象识别系统和方法 |
TWI686748B (zh) * | 2018-12-07 | 2020-03-01 | 國立交通大學 | 人流分析系統及人流分析方法 |
US11386306B1 (en) | 2018-12-13 | 2022-07-12 | Amazon Technologies, Inc. | Re-identification of agents using image analysis and machine learning |
EP3667557B1 (en) * | 2018-12-13 | 2021-06-16 | Axis AB | Method and device for tracking an object |
CN109368462A (zh) * | 2018-12-17 | 2019-02-22 | 石家庄爱赛科技有限公司 | 立体视觉电梯门保护装置及保护方法 |
WO2020146861A1 (en) | 2019-01-11 | 2020-07-16 | Position Imaging, Inc. | Computer-vision-based object tracking and guidance module |
JP7330708B2 (ja) * | 2019-01-28 | 2023-08-22 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
JP7149878B2 (ja) * | 2019-02-28 | 2022-10-07 | 三菱電機株式会社 | 設備監視システム、設備監視方法及びプログラム |
CN110095994B (zh) * | 2019-03-05 | 2023-01-20 | 永大电梯设备(中国)有限公司 | 一种电梯乘场交通流发生器和基于该电梯乘场交通流发生器自动生成客流数据的方法 |
JP6781291B2 (ja) * | 2019-03-20 | 2020-11-04 | 東芝エレベータ株式会社 | 画像処理装置 |
CN110040592B (zh) * | 2019-04-15 | 2020-11-20 | 福建省星云大数据应用服务有限公司 | 基于双路监控视频分析的电梯轿厢载客数检测方法及系统 |
AU2020274025B2 (en) | 2019-05-10 | 2022-10-20 | Smart Picture Technologies, Inc. | Methods and systems for measuring and modeling spaces using markerless photo-based augmented reality process |
US11373318B1 (en) | 2019-05-14 | 2022-06-28 | Vulcan Inc. | Impact detection |
CN110619662B (zh) * | 2019-05-23 | 2023-01-03 | 深圳大学 | 一种基于单目视觉的多行人目标空间连续定位方法及系统 |
CN110519324B (zh) * | 2019-06-06 | 2020-08-25 | 特斯联(北京)科技有限公司 | 一种基于网络轨迹大数据的人物追踪方法与系统 |
WO2020261560A1 (ja) * | 2019-06-28 | 2020-12-30 | 三菱電機株式会社 | ビル管理システム |
US11176691B2 (en) | 2019-07-01 | 2021-11-16 | Sas Institute Inc. | Real-time spatial and group monitoring and optimization |
CN112507757A (zh) * | 2019-08-26 | 2021-03-16 | 西门子(中国)有限公司 | 车辆行为检测方法、装置和计算机可读介质 |
US11176357B2 (en) * | 2019-10-30 | 2021-11-16 | Tascent, Inc. | Fast face image capture system |
CN112758777B (zh) * | 2019-11-01 | 2023-08-18 | 富泰华工业(深圳)有限公司 | 智能电梯控制方法及设备 |
TW202119171A (zh) * | 2019-11-13 | 2021-05-16 | 新世代機器人暨人工智慧股份有限公司 | 機器人設備與電梯設備的互動控制方法 |
US20210158057A1 (en) * | 2019-11-26 | 2021-05-27 | Scanalytics, Inc. | Path analytics of people in a physical space using smart floor tiles |
JP2021093037A (ja) * | 2019-12-11 | 2021-06-17 | 株式会社東芝 | 算出システム、算出方法、プログラム、及び記憶媒体 |
US20230112675A1 (en) * | 2020-03-27 | 2023-04-13 | Nec Corporation | Person flow prediction system, person flow prediction method, and programrecording medium |
US11645766B2 (en) * | 2020-05-04 | 2023-05-09 | International Business Machines Corporation | Dynamic sampling for object recognition |
DE102020205699A1 (de) * | 2020-05-06 | 2021-11-11 | Robert Bosch Gesellschaft mit beschränkter Haftung | Überwachungsanlage, Verfahren, Computerprogramm, Speichermedium und Überwachungseinrichtung |
JP7286586B2 (ja) * | 2020-05-14 | 2023-06-05 | 株式会社日立エルジーデータストレージ | 測距システム及び測距センサのキャリブレーション方法 |
CN112001941B (zh) * | 2020-06-05 | 2023-11-03 | 成都睿畜电子科技有限公司 | 基于计算机视觉的仔猪监管方法及系统 |
JP7374855B2 (ja) | 2020-06-18 | 2023-11-07 | 株式会社東芝 | 人物識別装置、人物識別システム、人物識別方法、及びプログラム |
CN111476616B (zh) * | 2020-06-24 | 2020-10-30 | 腾讯科技(深圳)有限公司 | 轨迹确定方法、装置、电子设备及计算机存储介质 |
JP7155201B2 (ja) * | 2020-07-09 | 2022-10-18 | 東芝エレベータ株式会社 | エレベータの利用者検知システム |
JP7286027B2 (ja) * | 2020-08-04 | 2023-06-02 | 三菱電機株式会社 | 移動体追跡システム、移動体追跡装置、プログラム及び移動体追跡方法 |
JP7437285B2 (ja) | 2020-10-27 | 2024-02-22 | 株式会社日立製作所 | エレベーター待ち時間推定装置及びエレベーター待ち時間推定方法 |
CN112465860A (zh) * | 2020-11-17 | 2021-03-09 | 浙江新再灵科技股份有限公司 | 一种用于门的运行状态检查方法及检查设备 |
CN112511864B (zh) * | 2020-11-23 | 2023-02-17 | 北京爱笔科技有限公司 | 轨迹展示方法、装置、计算机设备和存储介质 |
CN116670058A (zh) * | 2021-01-07 | 2023-08-29 | 通力股份公司 | 用于监控电梯的操作状态的系统、方法和计算机程序 |
CN112929699B (zh) * | 2021-01-27 | 2023-06-23 | 广州虎牙科技有限公司 | 视频处理方法、装置、电子设备和可读存储介质 |
WO2022172643A1 (ja) * | 2021-02-09 | 2022-08-18 | パナソニックIpマネジメント株式会社 | 推定システム、人監視システム、推定方法及びプログラム |
CN114348809B (zh) * | 2021-12-06 | 2023-12-19 | 日立楼宇技术(广州)有限公司 | 一种电梯召梯方法、系统、设备及介质 |
TWI815495B (zh) * | 2022-06-06 | 2023-09-11 | 仁寶電腦工業股份有限公司 | 動態影像之處理方法、電子裝置及其連接之終端裝置與行動通訊裝置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08331607A (ja) * | 1995-03-29 | 1996-12-13 | Sanyo Electric Co Ltd | 三次元表示画像生成方法 |
JPH1166319A (ja) * | 1997-08-21 | 1999-03-09 | Omron Corp | 移動体検出方法及び装置並びに移動体認識方法及び装置並びに人間検出方法及び装置 |
JP2006168930A (ja) * | 2004-12-16 | 2006-06-29 | Toshiba Elevator Co Ltd | エレベータのセキュリティシステム及びエレベータドアの運転方法 |
JP2007115236A (ja) * | 2005-09-22 | 2007-05-10 | Nara Institute Of Science & Technology | 移動物体計測装置、移動物体計測システム、および移動物体計測方法 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6384859B1 (en) * | 1995-03-29 | 2002-05-07 | Sanyo Electric Co., Ltd. | Methods for creating an image for a three-dimensional display, for calculating depth information and for image processing using the depth information |
US20050146605A1 (en) * | 2000-10-24 | 2005-07-07 | Lipton Alan J. | Video surveillance system employing video primitives |
US7394916B2 (en) * | 2003-02-10 | 2008-07-01 | Activeye, Inc. | Linking tracked objects that undergo temporary occlusion |
CN1839409A (zh) * | 2003-08-21 | 2006-09-27 | 松下电器产业株式会社 | 人物检测装置和人物检测方法 |
US7136507B2 (en) * | 2003-11-17 | 2006-11-14 | Vidient Systems, Inc. | Video surveillance system with rule-based reasoning and multiple-hypothesis scoring |
US7558762B2 (en) * | 2004-08-14 | 2009-07-07 | Hrl Laboratories, Llc | Multi-view cognitive swarm for object recognition and 3D tracking |
EP1796039B1 (en) * | 2005-12-08 | 2018-11-28 | Topcon Corporation | Device and method for image processing |
US20080294588A1 (en) * | 2007-05-22 | 2008-11-27 | Stephen Jeffrey Morris | Event capture, cross device event correlation, and responsive actions |
CN101141633B (zh) * | 2007-08-28 | 2011-01-05 | 湖南大学 | 一种复杂场景中的运动目标检测与跟踪方法 |
US8098891B2 (en) * | 2007-11-29 | 2012-01-17 | Nec Laboratories America, Inc. | Efficient multi-hypothesis multi-human 3D tracking in crowded scenes |
KR101221449B1 (ko) * | 2009-03-27 | 2013-01-11 | 한국전자통신연구원 | 카메라간 영상 보정 장치 및 방법 |
-
2010
- 2010-02-09 US US13/147,639 patent/US20120020518A1/en not_active Abandoned
- 2010-02-09 WO PCT/JP2010/000777 patent/WO2010098024A1/ja active Application Filing
- 2010-02-09 CN CN2010800089195A patent/CN102334142A/zh active Pending
- 2010-02-09 JP JP2011501473A patent/JP5230793B2/ja active Active
- 2010-02-22 TW TW099104944A patent/TW201118803A/zh unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08331607A (ja) * | 1995-03-29 | 1996-12-13 | Sanyo Electric Co Ltd | 三次元表示画像生成方法 |
JPH1166319A (ja) * | 1997-08-21 | 1999-03-09 | Omron Corp | 移動体検出方法及び装置並びに移動体認識方法及び装置並びに人間検出方法及び装置 |
JP2006168930A (ja) * | 2004-12-16 | 2006-06-29 | Toshiba Elevator Co Ltd | エレベータのセキュリティシステム及びエレベータドアの運転方法 |
JP2007115236A (ja) * | 2005-09-22 | 2007-05-10 | Nara Institute Of Science & Technology | 移動物体計測装置、移動物体計測システム、および移動物体計測方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014015289A (ja) * | 2012-07-06 | 2014-01-30 | Toshiba Elevator Co Ltd | エレベータの群管理制御システム |
Also Published As
Publication number | Publication date |
---|---|
US20120020518A1 (en) | 2012-01-26 |
TW201118803A (en) | 2011-06-01 |
CN102334142A (zh) | 2012-01-25 |
JPWO2010098024A1 (ja) | 2012-08-30 |
WO2010098024A1 (ja) | 2010-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5230793B2 (ja) | 人物追跡装置及び人物追跡プログラム | |
Ge et al. | Vision-based analysis of small groups in pedestrian crowds | |
CN105844234B (zh) | 一种基于头肩检测的人数统计的方法及设备 | |
US10776627B2 (en) | Human flow analysis method, human flow analysis apparatus, and human flow analysis system | |
JP5603403B2 (ja) | 対象物計数方法、対象物計数装置および対象物計数プログラム | |
CA3094424C (en) | Safety monitoring and early-warning method for man-machine interaction behavior of underground conveyor belt operator | |
Luber et al. | People tracking in rgb-d data with on-line boosted target models | |
KR100831122B1 (ko) | 얼굴 인증 장치, 얼굴 인증 방법, 및 출입 관리 장치 | |
Ge et al. | Automatically detecting the small group structure of a crowd | |
JP5102410B2 (ja) | 移動体検出装置および移動体検出方法 | |
JP4852765B2 (ja) | 広域分散カメラ間の連結関係推定法および連結関係推定プログラム | |
US8116534B2 (en) | Face recognition apparatus and face recognition method | |
US10552687B2 (en) | Visual monitoring of queues using auxillary devices | |
US20150294482A1 (en) | System And Process For Detecting, Tracking And Counting Human Objects Of Interest | |
Ryan et al. | Crowd counting using group tracking and local features | |
Xiao et al. | Vision-based method for tracking workers by integrating deep learning instance segmentation in off-site construction | |
JP2009143722A (ja) | 人物追跡装置、人物追跡方法及び人物追跡プログラム | |
JP2016099941A (ja) | オブジェクト位置推定システム、及びそのプログラム | |
JP6779410B2 (ja) | 映像解析装置、映像解析方法、及びプログラム | |
JP7359621B2 (ja) | エリア設定支援装置、エリア設定支援方法及びエリア設定支援プログラム | |
Zaidenberg et al. | Group interaction and group tracking for video-surveillance in underground railway stations | |
Guan et al. | Multi-person tracking-by-detection with local particle filtering and global occlusion handling | |
JP2018067755A (ja) | 検出データ管理装置 | |
JP2015210823A (ja) | 変形可能部分モデルを使用した車両追跡における部分的隠蔽処理方法及びシステム | |
JP2003109001A (ja) | 人物検出システム、及び人物検出プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130219 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130319 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160329 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5230793 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |