JP5230793B2 - 人物追跡装置及び人物追跡プログラム - Google Patents

人物追跡装置及び人物追跡プログラム Download PDF

Info

Publication number
JP5230793B2
JP5230793B2 JP2011501473A JP2011501473A JP5230793B2 JP 5230793 B2 JP5230793 B2 JP 5230793B2 JP 2011501473 A JP2011501473 A JP 2011501473A JP 2011501473 A JP2011501473 A JP 2011501473A JP 5230793 B2 JP5230793 B2 JP 5230793B2
Authority
JP
Japan
Prior art keywords
dimensional movement
person
unit
movement trajectory
trajectory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011501473A
Other languages
English (en)
Other versions
JPWO2010098024A1 (ja
Inventor
進也 田口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2011501473A priority Critical patent/JP5230793B2/ja
Publication of JPWO2010098024A1 publication Critical patent/JPWO2010098024A1/ja
Application granted granted Critical
Publication of JP5230793B2 publication Critical patent/JP5230793B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B1/00Control systems of elevators in general
    • B66B1/34Details, e.g. call counting devices, data transmission from car to control system, devices giving information to the control system
    • B66B1/46Adaptations of switches or switchgear
    • B66B1/468Call registering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B2201/00Aspects of control systems of elevators
    • B66B2201/40Details of the change of control mode
    • B66B2201/46Switches or switchgear
    • B66B2201/4607Call registering systems
    • B66B2201/4661Call registering systems for priority users
    • B66B2201/4669Call registering systems for priority users using passenger condition detectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Description

この発明は、監視対象領域内に存在している個々の人物を検出して、各人物を追跡する人物追跡装置及び人物追跡プログラムに関するものである。
高層ビルには非常に多数のエレベータが設置されているが、例えば、朝の通勤ラッシュ時や昼休みの混雑時などには、乗客を効率的に輸送するために、多数のエレベータを連携させて運転する群管理が必要となる。
多数のエレベータの群管理を効率的に行うためには、「何人がどの階で乗って、どの階で降りたか」という乗客の移動履歴を計測して、その移動履歴を群管理システムに提供することが必要となる。
従来より、カメラを用いて、乗客の人数のカウントや乗客の移動の計測を行う人物追跡技術については、色々な提案がなされてきている。
その一つとして、予め記憶している背景画像と、カメラにより撮影されたエレベータ内の画像との差分の画像(背景差分画像)を求めることで、エレベータ内の乗客を検出して、エレベータ内の乗客数を計数する人物追跡装置がある(例えば、特許文献1を参照)。
しかし、非常に混み合っているエレベータでは、約25cm四方に一人の乗客が存在し、乗客が重なり合う状況が発生するので、背景差分画像が一塊のシルエットになる。このため、背景差分画像から個々の人物を分離することが極めて困難であり、上記の人物追跡装置では、エレベータ内の乗客数を正確に計数することができない。
また、別の技術として、エレベータ内の上部にカメラを設置し、予め記憶している頭部画像の参照パターンと、そのカメラの撮影画像とのパターンマッチングを実施することで、エレベータ内の乗客の頭部を検出することで、エレベータ内の乗客数を計数する人物追跡装置がある(例えば、特許文献2を参照)。
しかし、このような単純なパターンマッチングで乗客を検出する場合、例えば、カメラから見たときに、ある乗客が他の乗客に隠れてしまっているなどの遮蔽が生じていると、誤って人数をカウントしてしまうことがある。また、エレベータ内に鏡が設置されている場合、鏡に映っている乗客を誤検出してしまうことがある。
また、別の技術として、エレベータ内の上部にステレオカメラを設置し、ステレオカメラの撮影画像から検出した人物をステレオ視して、人物の3次元位置を求める人物追跡装置がある(例えば、特許文献3を参照)。
しかし、この人物追跡装置の場合、実際の人数よりも多くの人物が検出されてしまうことがある。
即ち、この人物追跡装置の場合、例えば、図45に示すように、人物Xの3次元位置を求める場合、カメラから検出人物までのベクトルVA1とベクトルVB1が交差する点を人物の位置として算出する。
しかし、ベクトルVA1とベクトルVB2が交わる点にも、人物が存在すると推定されてしまうことがあり、実際の人物が2人しか存在しない場合でも、誤って3人存在すると算出されてしまうことがある。
さらに、多視点カメラを利用する複数人物の検出手法として、背景差分で得た人物のシルエットを基に、動的計画法を用いて人物の移動軌跡を求める手法(例えば、非特許文献1を参照)や、「Particle Filter」を用いて人物の移動軌跡を求める手法(例えば、非特許文献2を参照)がある。
これらの手法は、ある視点において、人物が遮蔽されている状況でも、他の視点のシルエット情報や時系列情報を用いて、人数と人物の移動軌跡を求めることが可能である。
しかし、混雑しているエレベータや電車内では、どの視点から撮影しても、常にシルエットが重なり合うため、これらの手法を適用することができない。
特開平8−26611号公報(段落[0024]、図1) 特開2006−168930号公報(段落[0027]、図1) 特開平11−66319号公報(段落[0005]、図2)
Berclaz, J. , Fleuret, F. , Fua, P. , "Robust People Tracking with Global Trajectory Optimization," Proc. CVPR, Vol1, pp 744-750, Jun. 2006. Otsuka, K. ,Mukawa, N. , "A particle filter for tracking densely populated objects based on explicit multiview occlusion analysis," Proc. of the 17th International Conf. on Pattern Recognition, Vol.4, pp. 745 -750, Aug. 2004.
従来の人物追跡装置は以上のように構成されているので、監視対象領域であるエレベータが非常に混雑している状況などでは、エレベータ内の乗客を正確に検出することができず、乗客を正確に追跡することができないなどの課題があった。
この発明は上記のような課題を解決するためになされたもので、監視対象領域が非常に混雑している状況でも、その監視対象領域内に存在している人物を正確に追跡することができる人物追跡装置及び人物追跡プログラムを得ることを目的とする。
この発明に係る人物追跡装置は、複数の撮影手段により撮影された監視対象領域の映像を解析して、その監視対象領域内に存在している個々の人物の各映像上の位置を算出する人物位置算出手段と、人物位置算出手段により算出された各映像上の位置を追跡して、各映像における個々の人物の2次元移動軌跡を算出する2次元移動軌跡算出手段とを設け、3次元移動軌跡算出手段が2次元移動軌跡算出手段により算出された各映像における2次元移動軌跡間のステレオマッチングを実施して、2次元移動軌跡のマッチング率を算出し、そのマッチング率が規定値以上の2次元移動軌跡から、個々の人物の3次元移動軌跡を算出するようにしたものである。
この発明によれば、複数の撮影手段により撮影された監視対象領域の映像を解析して、その監視対象領域内に存在している個々の人物の各映像上の位置を算出する人物位置算出手段と、人物位置算出手段により算出された各映像上の位置を追跡して、各映像における個々の人物の2次元移動軌跡を算出する2次元移動軌跡算出手段とを設け、3次元移動軌跡算出手段が2次元移動軌跡算出手段により算出された各映像における2次元移動軌跡間のステレオマッチングを実施して、2次元移動軌跡のマッチング率を算出し、そのマッチング率が規定値以上の2次元移動軌跡から、個々の人物の3次元移動軌跡を算出するように構成したので、監視対象領域が非常に混雑している状況でも、その監視対象領域内に存在している人物を正確に追跡することができる効果がある。
この発明の実施の形態1による人物追跡装置を示す構成図である。 映像解析部3を構成しているドア開閉認識部11の内部を示す構成図である。 映像解析部3を構成している階床認識部12の内部を示す構成図である。 映像解析部3を構成している人物追跡部13の内部を示す構成図である。 映像解析部3を構成している映像解析結果表示部4の内部を示す構成図である。 この発明の実施の形態1による人物追跡装置の処理内容を示すフローチャートである。 ドア開閉認識部11の処理内容を示すフローチャートである。 ドア開閉認識部11の処理内容を示す説明図である。 ドア開閉認識部11のドアインデックスを示す説明図である。 階床認識部12の処理内容を示すフローチャートである。 階床認識部12の処理内容を示す説明図である。 人物追跡部13の前処理の内容を示すフローチャートである。 人物追跡部13の後処理の内容を示すフローチャートである。 キャリブレーションパターンとしてチェッカーフラグパターンを用いている例を示す説明図である。 キャリブレーションパターンとして、エレベータの天井や四隅を選択する例を示す説明図である。 人体の頭部の検出処理を示す説明図である。 カメラパースペクティブフィルタを示す説明図である。 2次元移動軌跡算出部45の算出処理を示すフローチャートである。 2次元移動軌跡算出部45の処理内容を示す説明図である。 2次元移動軌跡グラフ生成部47の処理内容を示す説明図である。 2次元移動軌跡グラフ生成部47の処理内容を示す説明図である。 軌跡ステレオ部48の処理内容を示すフローチャートである。 軌跡ステレオ部48における2次元移動軌跡グラフの探索処理を示す説明図である。 2次元移動軌跡のマッチング率の算出処理を示す説明図である。 2次元移動軌跡のオーバーラップを示す説明図である。 3次元移動軌跡グラフ生成部49の処理内容を示す説明図である。 3次元移動軌跡グラフ生成部49の処理内容を示す説明図である。 軌跡組み合わせ推定部50の処理内容を示すフローチャートである。 軌跡組み合わせ推定部50の処理内容を示す説明図である。 映像解析結果表示部4の画面構成例を示す説明図である。 時系列情報表示部52の画面の詳細例を示す説明図である。 サマリー表示部53の画面例を示す説明図である。 運行関連情報表示部54の画面例を示す説明図である。 ソートデータ表示部55の画面例を示す説明図である。 この発明の実施の形態2による人物追跡装置の人物追跡部13の内部を示す構成図である。 軌跡組み合わせ推定部61の処理内容を示すフローチャートである。 軌跡組み合わせ推定部61の処理内容を示す説明図である。 この発明の実施の形態3による人物追跡装置の人物追跡部13の内部を示す構成図である。 2次元移動軌跡ラベリング部71と3次元移動軌跡コスト計算部72の処理内容を示すフローチャートである。 2次元移動軌跡ラベリング部71と3次元移動軌跡コスト計算部72の処理内容を示す説明図である。 この発明の実施の形態4による人物追跡装置を示す構成図である。 この発明の実施の形態4による人物追跡装置の処理内容を示すフローチャートである。 この発明の実施の形態5による人物追跡装置を示す構成図である。 この発明の実施の形態5による人物追跡装置の処理内容を示すフローチャートである。 従来の人物追跡装置による人物検出手法を示す説明図である。
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面にしたがって説明する。
実施の形態1.
図1はこの発明の実施の形態1による人物追跡装置を示す構成図である。
図1において、撮影手段を構成している複数のカメラ1は、監視対象領域であるエレベータのカゴ内の上部の異なる位置にそれぞれ設置されており、カゴ内を同時に異なる角度から撮影している。
ただし、カメラ1の種類については特に問わず、一般的な監視カメラのほか、可視カメラ、近赤外線領域まで撮影可能な高感度カメラ、熱源を撮影することが可能な遠赤外線カメラなどでもよい。また、距離計測が可能な赤外線距離センサや、レーザーレンジファインダなどで代用してもよい。
映像取得部2は複数のカメラ1により撮影されたエレベータのカゴ内の映像を取得する映像入力インタフェースであり、エレベータのカゴ内の映像を映像解析部3に出力する処理を実施する。
ここでは、映像取得部2がカゴ内の映像をリアルタイムで映像解析部3に出力するものとするが、予め用意されたハードディスクなどの記録装置に映像を記録して、その映像をオフラインで映像解析部3に出力するようにしてもよい。
映像解析部3は映像取得部2から出力されたエレベータのカゴ内の映像を解析して、カゴ内に存在している個々の人物の3次元移動軌跡を算出し、その3次元移動軌跡に基づいて個々の人物の乗車階と降車階を示す人物移動履歴等を算出する処理を実施する。
映像解析結果表示部4は映像解析部3により算出された人物移動履歴等をディスプレイ(図示せぬ)に表示する処理を実施する。なお、映像解析結果表示部4は映像解析結果表示手段を構成している。
ドア開閉認識部11は映像取得部2から出力されたエレベータのカゴ内の映像を解析して、そのエレベータのドアの開閉時刻を特定する処理を実施する。なお、ドア開閉認識部11はドア開閉時刻特定手段を構成している。
階床認識部12は映像取得部2から出力されたエレベータのカゴ内の映像を解析して、各時刻におけるエレベータの階床を特定する処理を実施する。なお、階床認識部12は階床特定手段を構成している。
人物追跡部13は映像取得部2から出力されたエレベータのカゴ内の映像を解析して、カゴ内に存在している個々の人物を追跡することで、個々の人物の3次元移動軌跡を算出し、その3次元移動軌跡に基づいて個々の人物の乗車階と降車階を示す人物移動履歴等を算出する処理を実施する。
図2は映像解析部3を構成しているドア開閉認識部11の内部を示す構成図である。
図2において、背景画像登録部21はドアが閉じている状態のエレベータ内のドア領域の画像を背景画像として登録する処理を実施する。
背景差分部22は背景画像登録部21により登録されている背景画像とカメラ1により撮影されたドア領域の映像との差分を算出する処理を実施する。
オプティカルフロー計算部23はカメラ1により撮影されたドア領域の映像の変化からドアの移動方向を示す動きベクトルを計算する処理を実施する。
ドア開閉時刻特定部24は背景差分部22により算出された差分とオプティカルフロー計算部23により計算された動きベクトルからドアの開閉状態を判別して、ドアの開閉時刻を特定する処理を実施する。
背景画像更新部25はカメラ1により撮影されたドア領域の映像を用いて、その背景画像を更新する処理を実施する。
図3は映像解析部3を構成している階床認識部12の内部を示す構成図である。
図3において、テンプレート画像登録部31はエレベータの階床を示すインジケータの画像をテンプレート画像として登録する処理を実施する。
テンプレートマッチング部32はテンプレート画像登録部31により登録されているテンプレート画像とカメラ1により撮影されたエレベータ内のインジケータ領域の映像とのテンプレートマッチングを実施して、各時刻におけるエレベータの階床を特定する処理を実施する。あるいは、エレベータの制御基盤情報を解析して、各時刻におけるエレベータの階床を特定する処理を実施する。
テンプレート画像更新部33はカメラ1により撮影されたインジケータ領域の映像を用いて、そのテンプレート画像を更新する処理を実施する。
図4は映像解析部3を構成している人物追跡部13の内部を示す構成図である。
図4において、人物位置算出部41は複数のカメラ1により撮影されたエレベータのカゴ内の映像を解析して、カゴ内に存在している個々の人物の各映像上の位置を算出する処理を実施する。なお、人物位置算出部41は人物位置算出手段を構成している。
人物位置算出部41のカメラキャリブレーション部42は人物追跡処理が開始される前に、予め複数のカメラ1により撮影されたキャリブレーションパターンの映像の歪み具合を解析して、複数のカメラ1のカメラパラメータ(レンズの歪み、焦点距離、光軸、画像中心(principal point)に関するパラメータ)を算出する処理を実施する。
また、カメラキャリブレーション部42は複数のカメラ1により撮影されたキャリブレーションパターンの映像と、複数のカメラ1のカメラパラメータとを用いて、エレベータのカゴ内の基準点に対する複数のカメラ1の設置位置及び設置角度を算出する処理を実施する。
人物位置算出部41の映像補正部43はカメラキャリブレーション部42により算出されたカメラパラメータを用いて、複数のカメラ1により撮影されたエレベータのカゴ内の映像の歪みを補正する処理を実施する。
人物位置算出部41の人物検出部44は映像補正部43により歪みが補正された各映像に写っている個々の人物を検出し、個々の人物の各映像上の位置を算出する処理を実施する。
2次元移動軌跡算出部45は人物検出部44により算出された各映像上の位置を追跡して、各映像における個々の人物の2次元移動軌跡を算出する処理を実施する。なお、2次元移動軌跡算出部45は2次元移動軌跡算出手段を構成している。
3次元移動軌跡算出部46は2次元移動軌跡算出部45により算出された各映像における2次元移動軌跡間のステレオマッチングを実施して、その2次元移動軌跡のマッチング率を算出し、そのマッチング率が規定値以上の2次元移動軌跡から、個々の人物の3次元移動軌跡を算出するとともに、個々の人物の3次元移動軌跡と階床認識部12により特定された階床とを対応付けて、個々の人物の乗車階と降車階を示す人物移動履歴を算出する処理を実施する。なお、3次元移動軌跡算出部46は3次元移動軌跡算出手段を構成している。
3次元移動軌跡算出部46の2次元移動軌跡グラフ生成部47は2次元移動軌跡算出部45により算出された2次元移動軌跡に対する分割処理及び連結処理を実施して2次元移動軌跡グラフを生成する処理を実施する。
3次元移動軌跡算出部46の軌跡ステレオ部48は2次元移動軌跡グラフ生成部47により生成された2次元移動軌跡グラフを探索して複数の2次元移動軌跡の候補を算出し、カメラキャリブレーション部42により算出されたカゴ内の基準点に対する複数のカメラ1の設置位置及び設置角度を考慮して、各映像における2次元移動軌跡の候補間のステレオマッチングを実施して、その2次元移動軌跡の候補のマッチング率を算出し、そのマッチング率が規定値以上の2次元移動軌跡の候補から、個々の人物の3次元移動軌跡を算出する処理を実施する。
3次元移動軌跡算出部46の3次元移動軌跡グラフ生成部49は軌跡ステレオ部48により算出された3次元移動軌跡に対する分割処理及び連結処理を実施して3次元移動軌跡グラフを生成する処理を実施する。
3次元移動軌跡算出部46の軌跡組み合わせ推定部50は3次元移動軌跡グラフ生成部49により生成された3次元移動軌跡グラフを探索して複数の3次元移動軌跡の候補を算出し、複数の3次元移動軌跡の候補の中から最適な3次元移動軌跡を選択して、カゴ内に存在している人物の人数を推定するとともに、最適な3次元移動軌跡と階床認識部12により特定された階床とを対応付けて、個々の人物の乗車階と降車階を示す人物移動履歴を算出する処理を実施する。
図5は映像解析部3を構成している映像解析結果表示部4の内部を示す構成図である。
図5において、映像表示部51は複数のカメラ1により撮影されたエレベータのカゴ内の映像を表示する処理を実施する。
時系列情報表示部52は人物追跡部13の3次元移動軌跡算出部46により算出された人物移動履歴を時系列的にグラフ表示する処理を実施する。
サマリー表示部53は3次元移動軌跡算出部46により算出された人物移動履歴の統計を求め、その人物移動履歴の統計結果を表示する処理を実施する。
運行関連情報表示部54は3次元移動軌跡算出部46により算出された人物移動履歴を参照して、エレベータの運行に関連する情報を表示する処理を実施する。
ソートデータ表示部55は3次元移動軌跡算出部46により算出された人物移動履歴をソートして表示する処理を実施する。
なお、図1では、人物追跡装置の構成要素である映像取得部2、映像解析部3及び映像解析結果表示部4のそれぞれが専用のハードウェア(例えば、CPUを実装している半導体集積回路基板)で構成されているものを想定しているが、人物追跡装置をコンピュータで構成する場合には、映像取得部2、映像解析部3及び映像解析結果表示部4の処理内容を記述している人物追跡プログラムを当該コンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されている人物追跡プログラムを実行するようにしてもよい。
次に動作について説明する。
最初に、図1の人物追跡装置の概略動作を説明する。
図6はこの発明の実施の形態1による人物追跡装置の処理内容を示すフローチャートである。
映像取得部2は、複数のカメラ1がエレベータのカゴ内の映像の撮影を開始すると、複数のカメラ1からエレベータのカゴ内の映像を取得して、各映像を映像解析部3に出力する(ステップST1)。
映像解析部3のドア開閉認識部11は、映像取得部2から複数のカメラ1により撮影された映像を受けると、各映像を解析して、エレベータのドアの開閉時刻を特定する(ステップST2)。
即ち、ドア開閉認識部11は、各映像を解析して、エレベータのドアが開いている時刻と、ドアが閉じている時刻を特定する。
映像解析部3の階床認識部12は、映像取得部2から複数のカメラ1により撮影された映像を受けると、各映像を解析して、各時刻におけるエレベータの階床(エレベータの停止階)を特定する(ステップST3)。
映像解析部3の人物追跡部13は、映像取得部2から複数のカメラ1により撮影された映像を受けると、各映像を解析して、カゴ内に存在している個々の人物を検出する。
そして、人物追跡部13は、個々の人物の検出結果とドア開閉認識部11により特定されたドアの開閉時刻を参照して、カゴ内に存在している個々の人物を追跡することで、個々の人物の3次元移動軌跡を算出する。
そして、人物追跡部13は、個々の人物の3次元移動軌跡と階床認識部12により特定された階床とを対応付けて、個々の人物の乗車階と降車階を示す人物移動履歴を算出する(ステップST4)。
映像解析結果表示部4は、映像解析部3が人物移動履歴等を算出すると、その人物移動履歴等をディスプレイに表示する(ステップST5)。
次に、図1の人物追跡装置における映像解析部3の処理内容を詳細に説明する。
図7はドア開閉認識部11の処理内容を示すフローチャートである。また、図8はドア開閉認識部11の処理内容を示す説明図であり、図9はドア開閉認識部11のドアインデックスを示す説明図である。
まず、ドア開閉認識部11は、複数のカメラ1により撮影されたエレベータのカゴ内の映像の中から、ドアが写るドア領域を選択する(ステップST11)。
図8(A)の例では、ドアの上部の領域をドア領域として選択している。
ドア開閉認識部11の背景画像登録部21は、ドアが閉じている状態のエレベータ内のドア領域の画像(例えば、ドアが閉じているときにカメラ1により撮影された映像:図8(B)を参照)を取得し、その画像を背景画像として登録する(ステップST12)。
ドア開閉認識部11の背景差分部22は、背景画像登録部21が背景画像を登録すると、映像取得部2から時々刻々と変化するカメラ1の映像を受け取り、図8(C)に示すようにして、カメラ1の映像中のドア領域の映像と上記背景画像との差分を算出する(ステップST13)。
背景差分部22は、ドア領域の映像と背景画像の差分を算出すると、その差分が大きい場合(例えば、差分が所定の閾値より大きく、ドア領域の映像と背景画像が大きく異なっている場合)、ドアが開いている可能性が高いので、ドア開閉判断用のフラグFbを“1”に設定する。
一方、その差分が小さく(例えば、差分が所定の閾値より小さく、ドア領域の映像と背景画像があまり異なっていない場合)、ドアが閉じている可能性が高いので、ドア開閉判断用のフラグFbを“0”に設定する。
ドア開閉認識部11のオプティカルフロー計算部23は、映像取得部2から時々刻々と変化するカメラ1の映像を受け取り、カメラ1の映像中のドア領域の映像の変化(連続する二つの映像フレーム)からドアの移動方向を示す動きベクトルを計算する(ステップST14)。
オプティカルフロー計算部23は、例えば、図8(D)に示すように、エレベータのドアが中央扉の場合、動きベクトルが示すドアの移動方向が外向きであれば、現在ドアが開いている途中の可能性が高いので、ドア開閉判断用のフラグFoを“1”に設定する。
一方、動きベクトルが示すドアの移動方向が内向きであれば、現在ドアが閉じている途中の可能性が高いので、ドア開閉判断用のフラグFoを“0”に設定する。
なお、エレベータのドアが動いていない場合(開いている状態を維持、または、閉じている状態を維持している場合)、動きベクトルがドアの移動方向を示されないので、ドア開閉判断用のフラグFoを“2”に設定する。
ドア開閉認識部11のドア開閉時刻特定部24は、背景差分部22がドア開閉判断用のフラグFbを設定し、オプティカルフロー計算部23がドア開閉判断用のフラグFoを設定すると、それらのフラグFb,Foを参照して、ドアの開閉状態を判別して、ドアの開閉時刻を特定する(ステップST15)。
即ち、ドア開閉時刻特定部24は、フラグFbとフラグFoの双方が“0”である時間帯、あるいは、フラグFbが“0”でフラグFoが“2”である時間帯はドアが閉じていると判断し、フラグFb又はフラグFoの少なくとも一方が“1”である時間帯はドアが開いていると判断する。
なお、ドア開閉時刻特定部24は、図9に示すように、ドアが閉じている時間帯のドアインデックスdiを“0”に設定し、ドアが開いている時間帯のドアインデックスdiについては、映像開始からドアが開いた順番にドアインデックスdiを1,2,3,・・・に設定する。
ドア開閉認識部11の背景画像更新部25は、映像取得部2から時々刻々と変化するカメラ1の映像を受け取り、カメラ1の映像中のドア領域の映像を用いて、背景画像登録部21に登録されている背景画像(次の時刻で、背景差分部22が利用する背景画像)を更新する(ステップST16)。
これにより、例えば、照明変化が原因で、ドア付近の映像が変化する場合でも、その変化に合わせて、背景差分処理を適応的に実施することができるようになる。
図10は階床認識部12の処理内容を示すフローチャートであり、図11は階床認識部12の処理内容を示す説明図である。
まず、階床認識部12は、複数のカメラ1により撮影されたエレベータのカゴ内の映像の中から、エレベータの階床を示すインジケータが写るインジケータ領域を選択する(ステップST21)。
図11(A)の例では、インジケータの数字が表示されている領域をインジケータ領域として選択している。
階床認識部12のテンプレート画像登録部31は、選択したインジケータ領域において、各階床の数字画像をテンプレート画像として登録する(ステップST22)。
例えば、1階から9階まで移動するエレベータの場合、図11(B)に示すように、各階床の数字画像(“1”、“2”、“3”、“4”、“5”、“6”、“7”、“8”、“9”)をテンプレート画像として逐次登録する。
階床認識部12のテンプレートマッチング部32は、テンプレート画像登録部31がテンプレート画像を登録すると、映像取得部2から時々刻々と変化するカメラ1の映像を受け取り、カメラ1の映像中のインジケータ領域の映像と上記テンプレート画像とのテンプレートマッチングを実施することで、各時刻におけるエレベータの階床を特定する(ステップST23)。
テンプレートマッチングの手法については、既存の正規化相互相関などの手法を用いればよいので、ここでは詳細な説明を省略する。
階床認識部12のテンプレート画像更新部33は、映像取得部2から時々刻々と変化するカメラ1の映像を受け取り、カメラ1の映像中のインジケータ領域の映像を用いて、テンプレート画像登録部31に登録されているテンプレート画像(次の時刻で、テンプレートマッチング部32が利用するテンプレート画像)を更新する(ステップST24)。
これにより、例えば、照明変化が原因で、インジケータ付近の映像が変化する場合でも、その変化に合わせて、テンプレートマッチング処理を適応的に実施することができるようになる。
図12は人物追跡部13の前処理の内容を示すフローチャートであり、図13は人物追跡部13の後処理の内容を示すフローチャートである。
まず、人物追跡部13のカメラキャリブレーション部42が、個々のカメラ1のカメラパラメータを算出するに先立ち、個々のカメラ1がキャリブレーションパターンを撮影する(ステップST31)。
映像取得部2は、個々のカメラ1により撮影されたキャリブレーションパターンの映像を取得して、そのキャリブレーションパターンの映像をカメラキャリブレーション部42に出力する。
ここで使用するキャリブレーションパターンとしては、例えば、大きさが既知の白黒のチェッカーフラグパターン(図14を参照)などが該当する。
なお、キャリブレーションパターンは、約1〜20通り程度の異なる位置や角度からカメラ1により撮影される。
カメラキャリブレーション部42は、映像取得部2から個々のカメラ1により撮影されたキャリブレーションパターンの映像を受けると、そのキャリブレーションパターンの映像の歪み具合を解析して、個々のカメラ1のカメラパラメータ(例えば、レンズの歪み、焦点距離、光軸、画像中心に関するパラメータ)を算出する(ステップST32)。
カメラパラメータの算出方法は、周知の技術であるため詳細説明を省略する。
次に、カメラキャリブレーション部42が複数のカメラ1の設置位置及び設置角度を算出するに際して、複数のカメラ1がエレベータのカゴ内の上部に設置されたのち、複数のカメラ1が既知の大きさの同一のキャリブレーションパターンを同時に撮影する(ステップST33)。
例えば、図14に示すように、キャリブレーションパターンとしてチェッカーフラグパターンをカゴ内の床に敷き、複数のカメラ1が、そのチェッカーフラグパターンを同時に撮影する。
このとき、カゴ内の床に敷かれたキャリブレーションパターンに対して、カゴ内の基準点(例えば、カゴの入口)からの位置と角度をオフセットとして計測し、また、カゴの内寸を計測する。
図14の例では、キャリブレーションパターンとして、カゴ内の床に敷かれたチェッカーフラグパターンとしているが、これに限るものではなく、例えば、カゴ内の床に直接描かれた模様であってもよい。その場合、床に描かれた模様の大きさを予め計測しておくようにする。
また、図15に示すように、キャリブレーションパターンとして、無人のカゴ内を撮影し、カゴ内の床の四隅と天井の三隅とを選択したものでもよい。この場合、カゴの内寸を計測しておくようにする。
カメラキャリブレーション部42は、映像取得部2から複数のカメラ1により撮影されたキャリブレーションパターンの映像を受けると、そのキャリブレーションパターンの映像と複数のカメラ1のカメラパラメータとを用いて、エレベータのカゴ内の基準点に対する複数のカメラ1の設置位置及び設置角度を算出する(ステップST34)。
具体的には、カメラキャリブレーション部42は、キャリブレーションパターンとして、例えば、白黒のチェッカーフラグパターンが用いられる場合、複数のカメラ1により撮影されたチェッカーパターンに対するカメラ1の相対位置と相対角度を算出する。
そして、予め計測しているチェッカーパターンのオフセット(カゴ内の基準点であるカゴの入口からの位置と角度)を複数のカメラ1の相対位置と相対角度に足し合わせることで、カゴ内の基準点に対する複数のカメラ1の設置位置と設置角度を算出する。
一方、キャリブレーションパターンとして、図15に示すように、カゴ内の床の四隅と天井の三隅が用いられる場合、予め計測しているカゴの内寸から、カゴ内の基準点に対する複数のカメラ1の設置位置と設置角度を算出する。
この場合、カゴ内にカメラ1を設置するだけで、カメラ1の設置位置と設置角度を自動的に求めることが可能である。
人物追跡部13が人物の検出処理や移動軌跡の解析処理などを実施するに際して、複数のカメラ1が、実際に運行中のエレベータのカゴ内の領域を繰り返し撮影する。
映像取得部2は、複数のカメラ1により撮影されたエレベータのカゴ内の映像を時々刻々と取得する(ステップST41)。
人物追跡部13の映像補正部43は、映像取得部2から複数のカメラ1により撮影された映像を取得する毎に、カメラキャリブレーション部42により算出されたカメラパラメータを用いて、複数の映像の歪みを補正し、歪みの無い映像である正規化画像を生成する(ステップST42)。
なお、映像の歪みを補正する方法は、周知の技術であるため詳細な説明を省略する。
人物追跡部13の人物検出部44は、映像補正部43が複数のカメラ1により撮影された映像の正規化画像を生成すると、各正規化画像に存在している人体の特徴箇所を人物として検出し、その人物の正規化画像上の位置(画像座標)を算出するとともに、その人物の確信度を算出する(ステップST43)。
そして、人物検出部44は、その人物の画像座標に対してカメラパースペクティブフィルタを施すことで、不適当な大きさの人物検出結果を削除する。
ここで、人物の画像座標は、例えば、人物検出部44が人体の頭部(特徴箇所)を検出する場合、その頭部の領域を囲む矩形の中心座標を示すものである。
また、確信度は、人物検出部44の検出物が、どの程度、人間(人体の頭部)に近いかを表現する指標であり、確信度が高いほど人間である確率が高く、確信度が低いほど人間である確率が低いことを表している。
以下、人物検出部44による人物の検出処理を具体的に説明する。
図16は人体の頭部の検出処理を示す説明図である。
図16(A)は、カゴ内の天井の対角位置に設置されている2台のカメラ11,12によって、カゴ内の3人の乗客(人物)を撮影している状況を表している。
図16(B)は、カメラ11により顔方向を撮影された映像から頭部が検出され、検出結果である頭部の領域に確信度が添付された状態を表わしている。
図16(C)は、カメラ12により後頭部方向を撮影された映像から頭部が検出され、検出結果である頭部の領域に確信度が添付された状態を表わしている。
ただし、図16(C)の場合、図中、右端の乗客(人物)の脚部が誤検出されており、その誤検出部分の確信度が低く算出されている。
ここで、頭部の検出方法としては、例えば、下記の参考文献1に開示されている顔検出手法を使用すればよい。
即ち、“Rectangle Feature”と呼ばれるハール基底状のパターンをAdaboostによって選択して多数の弱判別機を取得し、これらの弱判別機の出力と適当な閾値をすべて加算した値を確信度として利用することができる。
また、頭部の検出方法として、下記の参考文献2に開示されている道路標識検出方法を応用して、その画像座標と確信度を算出するようにしてもよい。
なお、図16では、人物検出部44が人物を検出するに際して、人体の特徴箇所である頭部を検出しているものを示しているが、これは一例に過ぎず、例えば、肩や胴体などを検出するようにしてもよい。
参考文献1
Viola, P. , Jones, M. , “Rapid Object Detection Using a Boosted Cascade of Simple Features”, IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), ISSN: 1063-6919, Vol. 1, pp. 511-518, December 2001
参考文献2
田口進也、神田準史郎、島嘉宏、瀧口純一、“特徴量ベクトルの相関係数行列を用いた少ないサンプルでの高精度画像認識 道路標識認識への適用”電子情報通信学会技術研究報告 IE、 画像工学、Vol.106,No.537(20070216),pp.55−60,IE2006−270
図17はカメラパースペクティブフィルタを示す説明図である。
カメラパースペクティブフィルタは、図17(A)に示すように、映像上の点Aにおける人物の検出結果のうち、点Aにおける人物頭部の最大矩形サイズより大きい検出結果と、点Aにおける人物頭部の最小矩形サイズより小さい検出結果を誤検出とみなして削除するフィルタである。
図17(B)は、点Aにおける人物頭部の最大検出矩形サイズと最小矩形サイズの求め方を示している。
まず、人物検出部44は、映像上の点Aとカメラ1の中心を通る方向ベクトルVを求める。
次に、人物検出部44は、エレベータ内で想定される人物の最大身長(例えば、200cm)、最小身長(例えば、100cm)及び頭部サイズ(例えば、30cm)を設定する。
次に、人物検出部44は、最大身長人物の頭部をカメラ1に射影し、その射影した頭部を囲む画像上での矩形サイズを点Aにおける人物頭部の最大検出矩形サイズと定義する。
同様に、最小身長人物の頭部をカメラ1に射影し、その射影した頭部を囲む画像上での矩形サイズを点Aにおける人物頭部の最小検出矩形サイズと定義する。
人物検出部44は、点Aにおける人物頭部の最大検出矩形サイズと最小検出矩形サイズを定義すると、点Aにおける人物の検出結果を最大検出矩形サイズ及び最小検出矩形サイズと比較し、点Aにおける人物の検出結果が最大矩形サイズより大きい場合、あるいは、点Aにおける人物の検出結果が最小矩形サイズより小さい場合、その検出結果を誤検出として削除する。
2次元移動軌跡算出部45は、人物検出部44が映像補正部43により時々刻々と生成される正規化画像(画像フレーム)から個々の人物を検出して、個々の人物の画像座標を算出する毎に、その画像座標の点列を求め、その点列を移動する個々の人物の2次元移動軌跡を算出する(ステップST44)。
以下、2次元移動軌跡算出部45における2次元移動軌跡の算出処理を具体的に説明する。
図18は2次元移動軌跡算出部45の算出処理を示すフローチャートであり、図19は2次元移動軌跡算出部45の処理内容を示す説明図である。
まず、2次元移動軌跡算出部45は、人物検出部44により算出された時刻tの画像フレームにおける人物検出結果(人物の画像座標)を取得し、それぞれの人物検出結果にカウンタを割り当てる(ステップST51)。
例えば、図19(A)に示すように、人物の追跡を時刻tから始める場合、時刻tの画像フレームにおける人物検出結果を取得する。
ここで、人物検出結果には、それぞれカウンタが割り当てられており、カウンタの値は追跡を開始するときに“0”に初期化される。
次に、2次元移動軌跡算出部45は、時刻tの画像フレームにおける人物検出結果をテンプレート画像として、図19(B)に示す次の時刻t+1の画像フレームにおける人物画像座標を探索する(ステップST52)
ここで、人物の画像座標を探索する方法としては、例えば、既知の技術である正規化相互相関法などを用いればよい。
その場合、時刻tにおける人物領域の画像をテンプレート画像とし、時刻(t+1)において、最も相関値が高い矩形領域の画像座標を正規化相互相関法で求めて出力する。
また、人物の画像座標を探索する他の方法として、例えば、上記の参考文献2に記載されている特徴量の相関係数を用いてもよい。
その場合、時刻tの人物領域の内側に含まれる複数の部分領域において特徴量の相関係数を計算し、それらを成分とするベクトルを該当人物のテンプレートベクトルとする。そして、次に時刻(t+1)において、テンプレートベクトルとの距離が最小となるような領域を探索して、その領域の画像座標を人物の探索結果として出力する。
さらに、人物の画像座標を探索する他の方法として、下記の参考文献3に記載されている特徴量の分散共分散行列を利用した方法で、人物追跡を実施して、時々刻々と人物の画像座標を求めてもよい。
参考文献3
Porikli, F. Tuzel, O. Meer, P. ,“Covariance Tracking using Model Update Based on Lie Algebra”,Computer Vision and Pattern Recognition 2006, Volume 1, 17-22, June 2006, pp. 728-735
次に、2次元移動軌跡算出部45は、人物検出部44により算出された時刻t+1の画像フレームにおける人物検出結果(人物の画像座標)を取得する(ステップST53)。
例えば、図19(C)に示すような人物検出結果を取得し、この人物検出結果では、人物Aは検出されているが、人物Bは検出されていない状態を表しているものとする。
次に、2次元移動軌跡算出部45は、ステップST52で算出した人物画像座標と、ステップST53で取得した人物画像座標とを用いて、追跡している人物の情報をアップデートする(ステップST54)。
例えば、図19(B)に示すように、時刻(t+1)における人物Aの探索結果の周辺には、図19(C)に示すような人物Aの人物検出結果が存在する。このため、図19(D)に示すように、人物Aのカウンタの値を“1”から“2”に上げる。
一方、図19(C)に示すように、時刻(t+1)における人物Bの人物検出が失敗している場合、図19(B)における人物Bの探索結果の周辺には人物Bの人物検出結果が存在しない。そこで、図19(D)に示すように、人物Bのカウンタの値を“0”から“−1”に下げる。
このように、2次元移動軌跡算出部45は、探索結果の周辺に検出結果が存在する場合、カウンタの値を一つ上げ、探索結果の周辺に検出結果が存在しない場合、カウンタの値を一つ下げるようにする。
この結果、人物が検出される回数が多い場合には、そのカウンタの値が大きくなり、一方で、人物が検出される回数が低い場合には、カウンタの値が小さくなる。
また、ステップST54において、2次元移動軌跡算出部45が人物検出の確信度を累積するようにしてもよい。
例えば、2次元移動軌跡算出部45は、探索結果の周辺に検出結果が存在する場合、該当の検出結果の確信度を累積加算し、探索結果の周辺に検出結果が存在しない場合、確信度を加算しない。この結果、人物検出される回数が多い2次元移動軌跡の場合には、その累積確信度が大きくなる。
次に、2次元移動軌跡算出部45は、追跡処理の終了判定を実施する(ステップST55)。
終了判定の基準としては、ステップST54で述べたカウンタを利用すればよい。
例えば、ステップST54で求めたカウンタの値が一定の閾値よりも低い場合、人物ではないとして追跡を終了する。
また、終了判定の基準として、ステップST54で述べた確信度の累積値を所定の閾値処理することで、追跡終了判定を実施してもよい。
例えば、確信度の累積値が所定の閾値よりも小さい場合、人物ではないとして追跡を終了する。
このように追跡処理の終了判定を行うことで、人物でないものを誤って追跡してしまう現象を避けることが可能となる。
2次元移動軌跡算出部45は、ステップST52からST55の画像テンプレートマッチング処理を時々刻々到来する人物を検出したフレーム画像に対して繰り返すことで、移動する個々の人物の画像座標の連なり、即ち、点列として表わされる。この点列を移動する個々の人物の2次元移動軌跡として算出する。
ここで、遮蔽などにより追跡が途中で終了してしまう場合には、遮蔽が無くなった時刻から人物の追跡を再開すればよい。
この実施の形態1では、2次元移動軌跡算出部45が人物検出部44により算出された人物の画像座標に対して時間的に前方(現在から未来)に向って追跡を行うものについて示しているが、さらに、時間的に後方(現在から過去)に向って追跡を行うようにして、時間的に前後にわたる人物の2次元移動軌跡を算出するようにしてもよい。
このように時間的に前後に追跡を行うことで、可能な限り漏れなく、人物の2次元移動軌跡を算出することができる。例えば、ある人物の追跡において、時間的に前方の追跡に失敗しても、時間的に後方の追跡に成功すれば、追跡の漏れを無くすことができる。
2次元移動軌跡グラフ生成部47は、2次元移動軌跡算出部45が個々の人物の2次元移動軌跡を算出すると、個々の人物の2次元移動軌跡に対する分割処理及び連結処理を実施して2次元移動軌跡グラフを生成する(図13のステップST45)。
即ち、2次元移動軌跡グラフ生成部47は、2次元移動軌跡算出部45により算出された個々の人物の2次元移動軌跡の集合に対して、空間的又は時間的近傍の2次元移動軌跡を探して分割や連結などの処理を施して、2次元移動軌跡をグラフの頂点とし、連結した2次元移動軌跡をグラフの有向辺とする2次元移動軌跡のグラフを生成する。
以下、2次元移動軌跡グラフ生成部47の処理内容を具体的に説明する。
図20及び図21は2次元移動軌跡グラフ生成部47の処理内容を示す説明図である。
最初に、2次元移動軌跡グラフ生成部47の空間的近傍の例について述べる。
図21(A)に示すように、例えば、2次元移動軌跡T1の終点T1Eの空間的近傍に存在する2次元移動軌跡は、終点T1Eを中心とする一定の距離範囲内(例えば、20ピクセル以内)に始点を有する2次元移動軌跡、または、2次元移動軌跡T1の終点T1Eとの最短距離が一定の距離範囲内にある2次元移動軌跡と定義する。
図21(A)の例では、2次元移動軌跡T1の終点T1Eからある一定の距離範囲に2次元移動軌跡T2の始点T2Sが存在しており、2次元移動軌跡T1の終点T1Eの空間的近傍に2次元移動軌跡T2の始点T2Sが存在すると言える。
また、2次元移動軌跡T1の終点T1Eと2次元移動軌跡T3の最短距離dは、一定の距離範囲内にあるため、2次元移動軌跡T1の終点T1Eの空間的近傍に2次元移動軌跡T3が存在すると言える。
一方で、2次元移動軌跡T4の始点は、2次元移動軌跡T1の終点T1Eから離れているため、2次元移動軌跡T4は2次元移動軌跡T1の空間的近傍には存在しない。
次に、2次元移動軌跡グラフ生成部47の時間的近傍の例について述べる。
例えば、図21(B)に示す2次元移動軌跡T1の記録時間が[t1 t2]、2次元移動軌跡T2の記録時間が[t3 t4]であるとするとき、2次元移動軌跡T1の終点の記録時間t2と、2次元移動軌跡T2の始点の記録時間t3との時間間隔|t3−t2|が一定値以内(例えば、3秒以内)であれば、2次元移動軌跡T1の時間的近傍に2次元移動軌跡T2が存在すると定義する。
逆に時間間隔|t3−t2|が一定値を超えた場合、2次元移動軌跡T1の時間的近傍に2次元移動軌跡T2が存在しないと定義する。
ここでは、2次元移動軌跡T1の終点T1Eの空間的近傍及び時間的近傍の例について述べたが、2次元移動軌跡の始点の空間的近傍や時間的近傍についても同様に定義することができる。
次に、2次元移動軌跡グラフ生成部47の軌跡分割処理と軌跡連結処理について説明する。
[軌跡分割処理]
2次元移動軌跡グラフ生成部47は、2次元移動軌跡算出部45により算出されたある2次元移動軌跡の始点Sの空間的近傍かつ時間的近傍に、他の2次元移動軌跡Aが存在する場合、2次元移動軌跡Aを始点S付近で分割する。
例えば、図20(A)に示すように、2次元移動軌跡算出部45により2次元移動軌跡{T1,T2,T4,T6,T7}が算出された場合、2次元移動軌跡T1の始点が2次元移動軌跡T2付近に存在している。
そこで、2次元移動軌跡グラフ生成部47は、2次元移動軌跡T2を2次元移動軌跡T1の始点付近で分割して、新規に2次元移動軌跡T2と2次元移動軌跡T3を生成し、図20(B)に示す2次元移動軌跡の集合{T1,T2,T4,T6,T7,T3}を取得する。
また、2次元移動軌跡グラフ生成部47は、2次元移動軌跡算出部45により算出されたある2次元移動軌跡の終点Sの空間的近傍かつ時間的近傍に、他の2次元移動軌跡Aが存在する場合、2次元移動軌跡Aを終点S付近で分割する。
図20(B)の例では、2次元移動軌跡算T1の終点は2次元移動軌跡算T4付近に存在している。
そこで、2次元移動軌跡グラフ生成部47は、2次元移動軌跡T4を2次元移動軌跡T1の終点付近で分割し、新規に2次元移動軌跡T4と2次元移動軌跡T5を生成し、図20(C)に示す2次元移動軌跡の集合{T1,T2,T4,T6,T7,T3,T5}を取得する。
[軌跡連結処理]
2次元移動軌跡グラフ生成部47は、軌跡分割処理により取得した2次元移動軌跡の集合に対して、ある2次元移動軌跡Aの終了点の空間的近傍かつ時間的近傍に他の2次元移動軌跡Bの開始点が存在する場合、該当する二つの2次元移動軌跡Aと2次元移動軌跡Bを連結する。
即ち、2次元移動軌跡グラフ生成部47は、各2次元移動軌跡をグラフの頂点とし、また、連結した2次元移動軌跡のペアをグラフの有向辺とすることで、2次元移動軌跡グラフを取得する。
図20(C)の例では、軌跡分割処理と軌跡連結処理によって、下記の情報が得られるものとする。
・T1に連結された2次元移動軌跡の集合={T5}
・T2に連結された2次元移動軌跡の集合={T1,T3}
・T3に連結された2次元移動軌跡の集合={T4,T6}
・T4に連結された2次元移動軌跡の集合={T5}
・T5に連結された2次元移動軌跡の集合={φ(空集合)}
・T6に連結された2次元移動軌跡の集合={T7}
・T7に連結された2次元移動軌跡の集合={φ(空集合)}
この場合、2次元移動軌跡グラフ生成部47は、2次元移動軌跡T1〜T7をグラフの頂点とし、また、2次元移動軌跡のペア(T1,T5),(T2,T1),(T2,T3),(T3,T4),(T3,T6),(T4,T5),(T6,T7)という有向辺の情報を有する2次元移動軌跡グラフを生成する。
また、2次元移動軌跡グラフ生成部47は、時間が増える方向(未来に向かって)に2次元移動軌跡を連結するだけではなく、時間が減る方向(過去に向かって)にグラフを生成してもよい。この場合、各2次元移動軌跡の終点から始点に向かって連結する。
図20(C)の例では、軌跡分割処理と軌跡連結処理によって、下記の情報を有する2次元移動軌跡グラフを生成する。
・T7に連結された2次元移動軌跡の集合={T6}
・T6に連結された2次元移動軌跡の集合={T3}
・T5に連結された2次元移動軌跡の集合={T4,T1}
・T4に連結された2次元移動軌跡の集合={T3}
・T3に連結された2次元移動軌跡の集合={T2}
・T2に連結された2次元移動軌跡の集合={φ(空集合)}
・T1に連結された2次元移動軌跡の集合={T2}
人物の追跡中に同じ色の服を着ている人などが映像中に存在したり、人物が重なって遮蔽されたりしている場合、2次元移動軌跡が二つに枝分かれしたり、2次元移動軌跡が時間的に飛んでしまうことがある。このため、図20(A)に示すように、ある同一人物の2次元移動軌跡の候補が複数算出されることがある。
そこで、2次元移動軌跡グラフ生成部47は、2次元移動軌跡グラフを生成することで、人物の複数の移動経路の情報を保持することができる。
軌跡ステレオ部48は、2次元移動軌跡グラフ生成部47が2次元移動軌跡グラフを生成すると、その2次元移動軌跡グラフを探索して複数の2次元移動軌跡の候補を算出し、カメラキャリブレーション部42により算出されたカゴ内の基準点に対する複数のカメラ1の設置位置及び設置角度を考慮して、各映像における2次元移動軌跡の候補間のステレオマッチングを実施して、その2次元移動軌跡の候補のマッチング率を算出し、そのマッチング率が規定値以上の2次元移動軌跡の候補から、個々の人物の3次元移動軌跡を算出する(図13のステップST46)。
以下、軌跡ステレオ部48の処理内容を具体的に説明する。
図22は軌跡ステレオ部48の処理内容を示すフローチャートである。また、図23は軌跡ステレオ部48における2次元移動軌跡グラフの探索処理を示す説明図、図24は2次元移動軌跡のマッチング率の算出処理を示す説明図、図25は2次元移動軌跡のオーバーラップを示す説明図である。
最初に、2次元移動軌跡グラフを探索して、2次元移動軌跡の候補を列挙する方法について述べる。
図23(A)に示すように、2次元移動軌跡T1〜T7から構成される2次元移動軌跡グラフGが得られており、2次元移動軌跡グラフGが下記のグラフ情報を有しているものと仮定する。
・T1に連結された2次元移動軌跡の集合={T5}
・T2に連結された2次元移動軌跡の集合={T1,T3}
・T3に連結された2次元移動軌跡の集合={T4,T6}
・T4に連結された2次元移動軌跡の集合={T5}
・T5に連結された2次元移動軌跡の集合={φ(空集合)}
・T6に連結された2次元移動軌跡の集合={T7}
・T7に連結された2次元移動軌跡の集合={φ(空集合)}
このとき、軌跡ステレオ部48は、二次元移動軌跡グラフGを探索して、すべての連結された2次元移動軌跡の候補を列挙する。
図23の例では、下記の2次元移動軌跡の候補が算出される。
・2次元移動軌跡候補A ={T2,T3,T6,T7}
・2次元移動軌跡候補B ={T2,T3,T4,T5}
・2次元移動軌跡候補C ={T2,T1,T5}
まず、軌跡ステレオ部48は、複数のカメラ1のカメラ映像に対応する各々一つの2次元移動軌跡を取得し(ステップST61)、各々一つの2次元移動軌跡同士がオーバーラップする時間を算出する(ステップST62)。
以下、オーバーラップする時間の算出処理を具体的に説明する。
図24(b)に示すように、エレベータの内部の異なる位置に設置された2台のカメラ1α,1β によって、カゴの内部が撮影されているものとする。
図24(a)は、人物Aと人物Bに対する2次元移動軌跡が計算された状況を仮想的に表しており、α1はカメラ1α の映像における人物Aの2次元移動軌跡であり、α2はカメラ1α の映像における人物Bの2次元移動軌跡である。
また、β1はカメラ1β の映像における人物Aの2次元移動軌跡であり、β2はカメラ1β の映像における人物Bの2次元移動軌跡である。
軌跡ステレオ部48は、例えば、ステップST61で、図24(A)に示す2次元移動軌跡α1と2次元移動軌跡β1を取得した場合、2次元移動軌跡α1と2次元移動軌跡β1を次式のように表されるものと仮定する。
2次元移動軌跡α1
≡{Xa1(t)}t=T1,...,T2
={Xa1(T1),Xa1(T1+1),・・・,Xa1(T2)}
2次元移動軌跡β1

{Xb1(t)}t=T3,...,T4
={Xb1(T3),Xb1(T3+1),・・・,Xb1(T4)}
ここで、Xa1(t)、Xb1(t)は、時刻tにおける人物Aの2次元画像座標である。2次元移動軌跡α1は画像座標が時刻T1からT2まで記録されており、2次元移動軌跡β1は画像座標が時刻T3からT4まで記録されていることを表している。
図25はこの二つの2次元移動軌跡α1,β1の記録時間を示すものであるが、2次元移動軌跡α1は画像座標が時刻T1からT2まで記録されており、一方、2次元移動軌跡β1は画像座標が時刻T3からT4まで記録されている。
この場合、2次元移動軌跡α1と2次元移動軌跡β1がオーバーラップする時間は、時刻T3から時刻T2までの間であるので、この時間を軌跡ステレオ部48で算出する。
軌跡ステレオ部48は、各々一つの2次元移動軌跡同士がオーバーラップする時間を算出すると、カメラキャリブレーション部42により算出された個々のカメラ1の設置位置及び設置角度を用いて、オーバーラップする各時刻において、対応する2次元移動軌跡を形成している点列同士のステレオマッチングを実施して、点列同士の距離を算出する(ステップST63)。
以下、点列同士のステレオマッチング処理を具体的に説明する。
軌跡ステレオ部48は、図24(B)に示すように、オーバーラップする全ての時間tにおいて、カメラキャリブレーション部42により算出された2台のカメラ1α,1β の設置位置及び設置角度を用いて、カメラ1α の中心と画像座標Xa1(t)を通る直線Va1(t)を求めるとともに、カメラ1β の中心と画像座標Xb1(t)を通る直線Vb1(t)を求める。
また、軌跡ステレオ部48は、直線Va1(t)と直線Vb1(t)の交点を人物の3次元位置Z(t)として算出すると同時に、直線Va1(t)と直線Vb1(t)同士の距離d(t)を算出する。
例えば、{Xa1(t)}t=T1,・・・,T2と{Xb1(t)}t=T3,・・・,T4とから、オーバーラップする時間t=T3,・・・,T2における3次元位置ベクトルZ(t)と直線の距離d(t)の集合{Z(t),d(t)}t=T3,・・・,T2を得る。
図24(b)では、直線Va1(t)と直線Vb1(t)が交わる場合を示しているが、実際には、頭部の検出誤差やキャリブレーション誤差が原因で、直線Va1(t)と直線Vb1(t)が近づいているだけで、交わらないことが多い。そのような場合には、直線Va1(t)と直線Vb1(t)を最短距離で結ぶ線分の距離d(t)を求め、その中点を交点Z(t)として求めるようにしてもよい。
あるいは、下記の参考文献4に開示されている「最適補正」の方法によって、二つの直線の距離d(t)と交点Z(t)を算出するようにしてもよい。
参考文献4
K. Kanatani, “Statistical Optimization for Geometric Computation: Theory and Practice, Elsevier Science”, Amsterdam, The Netherlands, April 1996.
次に、軌跡ステレオ部48は、点列同士のステレオマッチングの際に求めた点列同士の距離を用いて、2次元移動軌跡のマッチング率を算出する(ステップST64)。
なお、オーバーラップ時間が“0”である場合には、マッチング率を“0”として算出する。ここでは、例えば、オーバーラップ時間内に直線が交わる回数をマッチング率として算出する。
即ち、図24及び図25の例では、時刻t=T3,・・・,T2において、距離d(t)が一定の閾値(例えば、15cm)以下になる回数をマッチング率として算出する。
ここでは、オーバーラップ時間内に直線が交わる回数をマッチング率として算出するものについて示したが、これに限るものではなく、例えば、オーバーラップ時間内に二つの直線が交わる割合をマッチング率として算出するようにしてもよい。
即ち、図24及び図25の例では、時刻t=T3,・・・,T2において、距離d(t)が一定の閾値(例えば、15cm)以下になる回数を算出し、その回数をオーバーラップ時間|T3−T2|で除算した値をマッチング率として算出する。
また、オーバーラップ時間内における二つの直線の距離の平均をマッチング率として算出するようにしてもよい。
即ち、図24(b)の例では、時刻t=T3,・・・,T2において、距離d(t)の逆数の平均をマッチング率として算出する。
また、オーバーラップ時間内における二つの直線の距離の合計をマッチング率として算出するようにしてもよい。
即ち、図24(b)の例では、時刻t=T3,・・・,T2において、距離d(t)の逆数の合計をマッチング率として算出する。
さらに、上記の算出方法を組み合わせることで、マッチング率を算出するようにしてもよい。
ここで、2次元移動軌跡のステレオマッチングを実施することにより得られる効果について述べる。
例えば、図24における2次元移動軌跡α2と2次元移動軌跡β2は、同一人物Bの2次元移動軌跡であるため、2次元移動軌跡α2と2次元移動軌跡β2のステレオマッチングを実施すると、各時刻における距離d(t)は小さい値をとる。このため、距離d(t)の逆数の平均が大きな値になり、2次元移動軌跡α2と2次元移動軌跡β2のマッチング率が高い値になる。
一方、2次元移動軌跡α1と2次元移動軌跡β2は、異なる人物Aと人物Bの2次元移動軌跡であるため、2次元移動軌跡α1と2次元移動軌跡β2のステレオマッチングを実施すると、ある時刻では偶然に直線が交わることもあるが、ほとんどの時刻において直線が交わらず、距離d(t)の逆数の平均が小さな値になる。このため、2次元移動軌跡α1と2次元移動軌跡β2のマッチング率が低い値になる。
従来は、図45に示すように、ある瞬間の人物検出結果をステレオマッチングして人物の3次元位置を推定していたため、ステレオ視の曖昧さを回避できずに人物の位置を誤って推定してしまうことがあった。
しかし、この実施の形態1では、一定の時間にわたる2次元移動軌跡同士をステレオマッチングすることで、ステレオ視の曖昧さを解消し、正確に人物の3次元移動軌跡を求めることが可能となる。
軌跡ステレオ部48は、上記のようにして、各映像における2次元移動軌跡のマッチング率を算出すると、そのマッチング率と所定の閾値を比較する(ステップST65)。
軌跡ステレオ部48は、各映像における2次元移動軌跡のマッチング率が閾値を超えている場合、各映像における2次元移動軌跡から、各映像における2次元移動軌跡がオーバーラップしている時間の3次元移動軌跡を算出し(各映像における2次元移動軌跡がオーバーラップしている時間の3次元位置は、通常のステレオマッチングを実施することで推定することができる。ただし、公知の技術であるため詳細な説明は省略する)、その3次元移動軌跡に対してフィルタリングをかけて、誤って推定した3次元移動軌跡を取り除く処理を行う(ステップST66)。
即ち、軌跡ステレオ部48は、人物検出部44が人物を誤検出することが原因で、人物の3次元移動軌跡を誤って算出することがあるため、例えば、人物の3次元位置Z(t)が以下の条件(ア)〜(ウ)に合致しない場合、当該3次元移動軌跡を本来の人物の軌跡でないものとして破棄する。
条件(ア): 人物の身長が一定長(例えば、50cm)以上である
条件(イ): 人物が特定の領域内(例えば、エレベータカゴ内)に存在する
条件(ウ): 人物の3次元移動履歴が滑らかである
条件(ア)により、極端に低い位置にある3次元移動軌跡は誤検出されたものとして破棄される。
また、条件(イ)により、例えば、カゴ内に設置された鏡に映っている人物像の3次元移動軌跡は人物の軌跡でないとして破棄される。
また、条件(ウ)により、例えば、上下左右に急激に変化するような不自然な3次元移動軌跡は人物の軌跡でないとして破棄される。
次に、軌跡ステレオ部48は、各映像における2次元移動軌跡がオーバーラップしている時間の3次元位置を用いて、オーバーラップしていない時刻における二つの2次元移動軌跡を形成している点列の3次元位置を算出することで、個々の人物の3次元移動軌跡を推定する(ステップST67)。
図25の場合、2次元移動軌跡α1と2次元移動軌跡β1は、時刻t=T3,・・・,T2では、オーバーラップしているが、その他の時刻では、オーバーラップしていない。
通常のステレオマッチングでは、オーバーラップしていない時間帯の人物の3次元移動軌跡を算出することができないが、このような場合には、オーバーラップしている時間における人物の高さの平均を算出し、この高さの平均を用いて、オーバーラップしていない時間における人物の3次元移動軌跡を推定する。
図25の例では、まず、{Z(t),d(t)}t=T3,・・・,T2における3次元位置ベクトルZ(t)の高さ成分に関する平均値aveHを求める。
次に、各時刻tにおいて、カメラ1α の中心と画像座標Xa1(t)を通る直線Va1(t)上の点のうち、床からの高さがaveHである点を求め、この点を人物の3次元位置Z(t)として推定するようにする。同様に、各時刻tにおける画像座標Xb1(t)から人物の3次元位置Z(t)を推定する。
これにより、2次元移動軌跡α1と2次元移動軌跡β1が記録されている全ての時刻T1からT4にわたる3次元移動軌跡{Z(t)}t=T1,・・・,T4を得ることができる。
これにより、遮蔽などが理由で、片方のカメラに一定期間人物が写らない場合があっても、もう一つのカメラで人物の2次元移動軌跡を算出し、かつ、遮蔽の前後で2次元移動軌跡がオーバーラップしていれば、軌跡ステレオ部48が人物の3次元移動軌跡を算出することができる。
全ての2次元移動軌跡のペアについてマッチング率の算出が完了すれば、軌跡ステレオ部48の処理が終了し、3次元移動軌跡算出部49の処理に移行する(ステップST68)。
3次元移動軌跡グラフ生成部49は、軌跡ステレオ部48が個々の人物の3次元移動軌跡を算出すると、その3次元移動軌跡に対する分割処理及び連結処理を実施して3次元移動軌跡グラフを生成する(ステップST47)。
即ち、3次元移動軌跡グラフ生成部49は、軌跡ステレオ部48により算出された個々の人物の3次元移動軌跡の集合に対して、空間的又は時間的近傍の3次元移動軌跡を探して分割や連結などの処理を施して、3次元移動軌跡をグラフの頂点とし、連結した3次元移動軌跡をグラフの有向辺とする3次元移動軌跡のグラフを生成する。
以下、3次元移動軌跡グラフ生成部49の処理内容を具体的に説明する。
図26及び図27は3次元移動軌跡グラフ生成部49の処理内容を示す説明図である。
まず、3次元移動軌跡グラフ生成部49における空間的近傍の例について述べる。
図27(A)に示すように、例えば、3次元移動軌跡L1の終点L1Eの空間的近傍に存在する3次元移動軌跡は、終点L1Eを中心とする一定の距離範囲内(例えば、25cm以内)に始点を有する3次元移動軌跡、または、3次元移動軌跡L1の終点L1Eとの最短距離が一定の距離範囲内にある3次元移動軌跡と定義する。
図27(A)の例では、3次元移動軌跡L1の終点L1Eからある一定の距離範囲に3次元移動軌跡L2の始点L2Sが存在しており、3次元移動軌跡L1の終点L1Eの空間的近傍に3次元移動軌跡L2が存在すると言える。
また、3次元移動軌跡L1の終点L1Eと3次元移動軌跡L3の最短距離dは、一定の距離範囲内にあるため、3次元移動軌跡L1の終点L1Eの空間的近傍に3次元移動軌跡L3が存在すると言える。
一方で、3次元移動軌跡L4の始点は、3次元移動軌跡L1の終点L1Eから離れているため、3次元移動軌跡L4は3次元移動軌跡T1の空間的近傍には存在しない。
次に、3次元移動軌跡グラフ生成部49における時間的近傍の例について述べる。
例えば、図27(B)に示す3次元移動軌跡L1の記録時間が[t1 t2]、3次元移動軌跡L2の記録時間が[t3 t4]であるとき、3次元移動軌跡L1の終点の記録時間t2と、3次元移動軌跡L2の始点の記録時間t3との時間間隔|t3−t2|が一定値以内(例えば、3秒以内)であれば、3次元移動軌跡L1の時間的近傍に3次元移動軌跡L2が存在すると定義する。
逆に時間間隔|t3−t2|が一定値を超えた場合、3次元移動軌跡L1の時間的近傍に3次元移動軌跡L2が存在しないと定義する。
ここでは、3次元移動軌跡L1の終点L1Eの空間的近傍及び時間的近傍の例について述べたが、3次元移動軌跡の始点の空間的近傍や時間的近傍についても同様に定義することができる。
次に、3次元移動軌跡グラフ生成部49の軌跡分割処理と軌跡連結処理について説明する。
[軌跡分割処理]
3次元移動軌跡グラフ生成部49は、軌跡ステレオ部48により算出されたある3次元移動軌跡の始点Sの空間的近傍かつ時間的近傍に、他の3次元移動軌跡Aが存在する場合、3次元移動軌跡Aを始点S付近で分割する。
図26(A)は、エレベータ内部を上から見た模式図であり、エレベータの入口と、入退場エリアと、3次元移動軌跡L1〜L4とが示されている。
図26(A)の場合、3次元移動軌跡L2の始点は、3次元移動軌跡L3付近に存在している。
そこで、3次元移動軌跡グラフ生成部49は、3次元移動軌跡L3を3次元移動軌跡L2の始点付近で分割して、新規に3次元移動軌跡L3と3次元移動軌跡L5を生成し、図20(B)に示す3次元移動軌跡の集合を取得する。
また、3次元移動軌跡グラフ生成部49は、軌跡ステレオ部48により算出されたある3次元移動軌跡の終点Sの空間的近傍かつ時間的近傍に、他の3次元移動軌跡Aが存在する場合、3次元移動軌跡Aを終点S付近で分割する。
図26(B)の例では、3次元移動軌跡L5の終点は3次元移動軌跡L4付近に存在している。
そこで、3次元移動軌跡グラフ生成部49は、3次元移動軌跡L4を3次元移動軌跡L5の終点付近で分割して、新規に3次元移動軌跡L4と3次元移動軌跡L6を生成し、図20(C)に示す3次元移動軌跡の集合L1〜L6を取得する。
[軌跡連結処理]
3次元移動軌跡グラフ生成部49は、軌跡分割処理により取得した3次元移動軌跡の集合に対して、ある3次元移動軌跡Aの終了点の空間的近傍かつ時間的近傍に、他の3次元移動軌跡Bの開始点が存在する場合、該当する二つの3次元移動軌跡Aと3次元移動軌跡Bを連結する。
即ち、3次元移動軌跡グラフ生成部49は、各3次元移動軌跡をグラフの頂点とし、また、連結した3次元移動軌跡のペアをグラフの有向辺とすることで、3次元移動軌跡グラフを取得する。
図26(C)の例では、軌跡分割処理と軌跡連結処理によって、下記の情報を有する3次元移動軌跡グラフを生成する。
・L1に連結された3次元移動軌跡集合={L3}
・L2に連結された3次元移動軌跡集合={φ(空集合)}
・L3に連結された3次元移動軌跡集合={L2,L5}
・L4に連結された3次元移動軌跡集合={L6}
・L5に連結された3次元移動軌跡集合={L6}
・L6に連結された3次元移動軌跡集合={φ(空集合)}
軌跡ステレオ部48により算出された個々の人物の3次元移動軌跡は、2次元画像における人物頭部の追跡ミスなどが理由で、空間的又は時間的に途切れた複数の3次元移動軌跡の断片の集合から構成される場合が多い。
そのため、3次元移動軌跡グラフ生成部49は、これらの3次元移動軌跡に対する分割処理や連結処理を実施して3次元移動軌跡グラフを求めることで、人物の複数の移動経路の情報を保持することができる。
軌跡組み合わせ推定部50は、3次元移動軌跡グラフ生成部49が3次元移動軌跡グラフを生成すると、その3次元移動軌跡グラフを探索して、個々の人物の入場から退場までの3次元移動軌跡の候補を算出し、それらの3次元移動軌跡の候補の中から、最適な3次元移動軌跡の組み合わせを推定することで、個々の人物の最適な3次元移動軌跡と、カゴ内に存在している各時刻における人物の人数とを算出する(ステップST48)。
以下、軌跡組み合わせ推定部50の処理内容を具体的に説明する。
図28は軌跡組み合わせ推定部50の処理内容を示すフローチャートであり、図29は軌跡組み合わせ推定部50の処理内容を示す説明図である。なお、図29(A)はエレベータを上から見ている図である。
まず、軌跡組み合わせ推定部50は、監視対象領域となる場所において、人物の入退場エリアを設定する(ステップST71)。
入退場エリアは人物の入退場を判定する基準に利用するものであり、図29(A)の例では、エレベータのカゴ内の入口付近に仮想的に入退場エリアを設定している。
例えば、頭部の移動軌跡がエレベータの入口付近に設定している入退場エリアから開始していれば、該当階から乗っていると判断することができる。また、移動軌跡が入退場エリアで終了していれば、該当階で降りていると判断することができる。
次に、軌跡組み合わせ推定部50は、3次元移動軌跡グラフ生成部49により生成された3次元移動軌跡グラフを探索して、解析対象時間内において、下記の入場条件と退場条件を満足する個々の人物の3次元移動軌跡(監視対象領域への入場から退場までの3次元移動軌跡)の候補を算出する(ステップST72)。
[入場条件]
(1)入場条件:3次元移動軌跡の方向がドアからエレベータの内部に向かっている
(2)入場条件:3次元移動軌跡の始点位置が入退場エリア内にある
(3)入場条件:ドア開閉認識部11により設定された3次元移動軌跡の始点時刻におけるドアインデックスdiが“0”でない
[退場条件]
(1)退場条件:3次元移動軌跡の方向がエレベータの内部からドアに向かっている
(2)退場条件:3次元移動軌跡の終点位置が入退場エリア内にある
(3)退場条件:ドア開閉認識部11により設定された3次元移動軌跡の終点時刻におけるドアインデックスdiが“0”でなく、かつ、ドアインデックスdiが入場時と異なる
図29(A)の例では、個々の人物の3次元移動軌跡は下記のようになる。
3次元移動軌跡グラフGは3次元移動軌跡L1〜L6から構成されており、3次元移動軌跡グラフGは下記の情報を有しているものとする。
・L1に連結された3次元移動軌跡集合={L2,L3}
・L2に連結された3次元移動軌跡集合={L6}
・L3に連結された3次元移動軌跡集合={L5}
・L4に連結された3次元移動軌跡集合={L5}
・L5に連結された3次元移動軌跡集合={φ(空集合)}
・L6に連結された3次元移動軌跡集合={φ(空集合)}
また、3次元移動軌跡L1,L2,L3,L4,L5,L6のドアインデックスdiは、それぞれ1,2,2,4,3,3であるとする。ただし、3次元移動軌跡L3は、人物頭部の追跡ミスや人物の遮蔽が原因で、誤って求めてしまった3次元移動軌跡と仮定する。
このため、3次元移動軌跡L1に連結された3次元移動軌跡が二つあり(3次元移動軌跡L2,L3)、人物の移動経路に曖昧さが生じている。
図29(A)の例では、入場条件を満足する3次元移動軌跡は、3次元移動軌跡L1と3次元移動軌跡L4であり、退場条件を満足する3次元移動軌跡は、3次元移動軌跡L5と3次元移動軌跡L6である。
この場合、軌跡組み合わせ推定部50は、例えば、3次元移動軌跡L1からスタートして、L1→L2→L6の順番で3次元移動軌跡グラフGを探索することで、監視対象領域への入場から退場までの3次元移動軌跡の候補{L1,L2,L6}が得られる。
同様に、軌跡組み合わせ推定部50が、3次元移動軌跡グラフGを探索することで、下記の三つの監視対象領域への入場から退場までの3次元移動軌跡の候補が得られる。
軌跡候補A={L1,L2,L6}
軌跡候補B={L4,L5}
軌跡候補C={L1,L3,L5}
次に、軌跡組み合わせ推定部50は、監視対象領域への入場から退場までの3次元移動軌跡の候補の中から、人物同士の位置関係、人物の数、ステレオ視の精度などを考慮したコスト関数を定義し、そのコスト関数を最大化する3次元移動軌跡の組み合わせを求めることで、正しい人物の3次元移動軌跡と人数を求める(ステップST73)。
例えば、コスト関数は、「3次元移動軌跡が重ならない」、かつ、「なるべく多くの3次元移動軌跡が推定される」という条件を反映したものであり、下記のように定義する。
コスト=「3次元移動軌跡数」−「3次元移動軌跡の重なり回数」
ただし、3次元移動軌跡数は、監視対象領域における人物数を意味している。
図29(B)の例で、上記のコストを計算すると、軌跡候補A={L1,L2,L6}と軌跡候補C={L1,L3,L5}は、L1の部分で重なっており、「3次元移動軌跡の重なり回数」は“1”と計算される。
同様に、軌跡候補B={L4,L5}と軌跡候補C={L1,L3,L5}は、L5の部分で重なっており、「3次元移動軌跡の重なり回数」は“1”と計算される。
このため、各軌跡候補の組み合わせによるコストは下記のようになる。
・AとBとCの組み合わせによるコスト=3−2=1
・AとBの組み合わせによるコスト =2−0=2
・AとCの組み合わせによるコスト =2−1=1
・BとCの組み合わせによるコスト =2−1=1
・Aのみによるコスト =1−0=1
・Bのみによるコスト =1−0=1
・Cのみによるコスト =1−0=1
したがって、軌跡候補Aと軌跡候補Bの組み合わせが、コスト関数が最大となる組み合わせであって、最適な3次元移動軌跡の組み合わせであると判断される。
最適な3次元移動軌跡の組み合わせが、軌跡候補Aと軌跡候補Bの組み合わせであるため、監視対象領域内の人数が2人であることも同時に推定される。
軌跡組み合わせ推定部50は、監視対象領域における入退場エリアから始まり、入退場エリアで終わる人物の3次元移動軌跡の最適な組み合わせを求めると、その3次元移動軌跡と階床認識部12により特定された階床(エレベータの停止階を示す停止階情報)とを対応付けて、個々の人物の乗車階と降車階を示す人物移動履歴(“何人がどの階で乗って、どの階で降りたか”を示す個々の人物の移動履歴)を算出する(ステップST74)。
ここでは、階床認識部12により特定された停止階情報を対応付けるものについて示したが、別途、エレベータの制御機器から停止階情報を取得して対応付けるようにしてもよい。
このように、軌跡組み合わせ推定部50は、人物同士の位置関係、人物の数やステレオ視の精度などを考慮したコスト関数を定義し、そのコスト関数を最大化する3次元移動軌跡の組み合わせを求めることで、遮蔽などが原因で、人物頭部の追跡結果に誤りがある場合でも、監視対象領域における人物の3次元移動軌跡と人物数を求めることができる。
ただし、乗降者の人数が多くて、3次元移動軌跡グラフの構造が複雑な場合、3次元移動軌跡の候補の数や、その組み合わせ方が非常に多く、現実的な時間内に処理できなくなることがある。
このような場合、軌跡組み合わせ推定部50は、人物同士の位置関係、人物数及びステレオ視の精度を考慮した尤度関数を定義し、MCMC(Markov Chain Monte Carlo:マルコフチェインモンテカルロ)やGA(Genetic Algorithm:遺伝アルゴリズム)などの確率的な最適化手法を用いて、3次元移動軌跡の最適な組み合わせを求めるようにしてもよい。
以下、軌跡組み合わせ推定部50が、MCMCを用いて、コスト関数が最大になる人物の最適な3次元移動軌跡の組み合わせを求める処理を具体的に説明する。
まず、以下のように記号を定義する.
[記号]
i(t):3次元移動軌跡yiの時刻tにおける3次元位置。yi(t)∈R3
i :i番目の人物の監視対象領域における入場から退場までの3次元移動軌跡
i={yi(t)}
|yi| :3次元移動軌跡yiの記録時間
N :監視対象領域における入場から退場までの3次元移動軌跡数(人物の数)
Y={yii=1,・・・,N :3次元移動軌跡の集合
S(yi):3次元移動軌跡yiのステレオコスト
O(yi,yj):3次元移動軌跡yiと3次元移動軌跡yjのオーバーラップコスト
+ :正しい3次元移動軌跡として選択された3次元移動軌跡yiの集合
- :選択されなかった3次元移動軌跡yiの集合。w-=w−w+
w :w={w+,w-
opt :尤度関数を最大化するw
|w+| :w+の元の数(正しい3次元移動軌跡として選択された軌跡の数)
Ω : wの集合。w∈Ω(3次元移動軌跡の集合Yの分割方式の集合)
L(w|Y):尤度関数
num(w|Y):選択軌跡数の尤度関数
str(w|Y):選択軌跡のステレオ視に関する尤度関数
ovr(w|Y):選択軌跡のオーバーラップに関する尤度関数
q(w’|w) :提案分布
A(w’|w) :受理確率
[モデル]
軌跡組み合わせ推定部50は、3次元移動軌跡グラフ生成部49が3次元移動軌跡グラフを生成すると、その3次元移動軌跡グラフを探索して、上述した入場条件と退場条件を満足する個々の人物の3次元移動軌跡の候補の集合Y={yii=1,・・・,Nを求める。
また、w+を正しい3次元移動軌跡として選択された3次元移動軌跡候補の集合として、w-=w−w+とw={w+,w-}を定義する。
軌跡組み合わせ推定部50の目的は、3次元移動軌跡の候補の集合Yの中から正しい3次元移動軌跡を選択することであり、この目的は、尤度関数L(w/Y)をコスト関数として定義し、このコスト関数を最大化する問題として定式化することができる。
即ち、最適な軌跡選択をwoptとすると、woptは下式で与えられる。
opt=argmax L(w|Y)
例えば、尤度関数L(w|Y)は、下記のように定義してもよい。
L(w|Y)=Lovr(w|Y)Lnum(w|Y)Lstr(w|Y)
ここで、Lovrは「3次元空間内で3次元移動軌跡が重ならない」ことを定式化した尤度関数、Lnumは「可能な限り多く3次元移動軌跡が存在する」ことを定式化した尤度関数、Lstrは「3次元移動軌跡のステレオ視の精度が高い」ことを定式化した尤度関数である。
以下、各尤度関数の詳細について述べる。
[選択軌跡のオーバーラップに関する尤度関数]
「3次元空間内で3次元移動軌跡が重ならない」という条件を下記のように定式化する。
ovr(w|Y) ∝ exp( −c1 Σi,j∈w+ O(yi,yj))
ここで、O(yi,yj)は、3次元移動軌跡yiと3次元移動軌跡yjのオーバーラップコストであり、3次元移動軌跡yiと3次元移動軌跡yjが完全に重なっている場合には“1”となり、まったく重なっていない場合には“0”をとるものとする。ここでc1は正の定数である。
ここでは、O(yi,yj)を次のようにして求める。
i={yi(t)}t=t1,・・・,t2、yj={yj(t)}t=t3,・・・,t4とし、3次元移動軌跡yiと3次元移動軌跡yjが時間F=[t3 t2]で同時に存在しているとする。
また、関数gを下記のように定義する。
g(yi(t),yj(t))
=1(if || yi(t)−yj(t) || <Th1), =0(otherwise)
ここで、Th1は適当な距離の閾値であり、例えば、Th1=25cmに設定する。
つまり、関数gは、閾値Th1以内に3次元移動軌跡が近づいたらペナルティを与える関数である。
このとき、下記のようにして、オーバーラップコストO(yi,yj)を求める。
・|F|≠0の場合
O(yi,yj)=Σt∈F g(yi(t),yj(t))/|F|
・|F|=0の場合
O(yi,yj)=0
[選択軌跡の数に関する尤度関数]
「可能な限り多く3次元移動軌跡が存在する」という条件を下記のように定式化する。
num(w|Y) ∝ exp( c2 |w+|)
ここで、|w+|はw+の元の数である。またc2は正の定数である。
[選択軌跡のステレオ視精度に関する尤度関数]
「3次元移動軌跡のステレオ視の精度が高い」という条件を下記のように定式化する。
str(w|Y) ∝ exp( −c3 Σi∈w+ S(yi))
ここで、S(yi)は、ステレオコストであり、3次元移動軌跡がステレオ視によって推定された場合は小さな値をとり、3次元移動軌跡が単眼視や、どのカメラ1からも観測されない期間がある場合は大きな値をとるものとする。またc3は正の定数である。
以下、ステレオコストS(yi)の計算方法について述べる。
ここで、yi={yi(t)}t=t1,・・・,t2とするとき、3次元移動軌跡yiの期間Fi=[t1 t2]には、下記の三つの期間F1i,F2i,F3iが混在している。
・F1i:ステレオ視により3次元移動軌跡が推定された期間
・F2i:単眼視により3次元移動軌跡が推定された期間
・F3i:どのカメラ1からも3次元移動軌跡が観測されない期間
この場合、ステレオコストS(yi)は下記のようになる。
S(yi)=(c8×|F1i|+c9×|F2i|+c10×|F3i|)/|Fi
ここで、c8,c9,c10は正の定数である。
[MCMCによる軌跡候補の組み合わせ最適化]
次に、軌跡組み合わせ推定部50が、MCMCによって尤度関数L(w|Y)を最大化する手法について述べる。
まず、アルゴリズムの概要は、下記の通りである。
[MCMCアルゴリズム]
入力: Y,winit,Nmc 出力: wopt
(1)初期化 w=winit,wopt=winit
(2)メインルーチン
for n=1 to Nmc
step1. ζ(m)に従ってmをサンプリングする
step2. mに従って提案分布qを選択し、w’をサンプリングする
step3. 一様分布Unif[0 1]からuをサンプリングする
step4. if u<A(w,w’),w=w’;
step5. if L(w|Y)/L(wopt|Y)>1,
opt=w’;(最大値の保存)
end
ここで、アルゴリズムへの入力は3次元移動軌跡の集合Y、初期分割winit、サンプリング回数Nmcであり、また、アルゴリズムの出力として最適な分割woptを得る。
初期化では、初期分割winit={w+=φ,w-=Y}とする。
メインルーチンにおいて、step1では、確率分布ζ(m)に従ってmをサンプリングする。例えば、確率分布ζ(m)は一様分布と設定してもよい。
次に、step2では、インデックスmに対応する提案分布q(w’|w)に従って候補w’をサンプリングする。
提案アルゴリズムの提案分布は、「生成」,「消滅」,「スワップ」の3つのタイプを定義する。
インデックスm=1は「生成」、m=2は「消滅」、m=3は「スワップ」に対応するものとする。
次に、step3では、一様分布Unif[0 1]からuをサンプリングする。
続くstep4では、uと受理確率A(w,w’)に基づいて候補w’を受理又は棄却する。
受理確率A(w,w’)は下式で与えられる。
A(w,w’)
=min(1,q(w|w’)L(w’|Y)/q(w’|w)L(w|Y))
最後に、step5で、尤度関数を最大化する最適なwoptを保存する。
以下、提案分布q(w’|w)の詳細について述べる。
(A)生成
集合w-から一つの3次元移動軌跡yを選択してw+に加える。
ここで、yとして、w+にある軌跡と空間的にオーバーラップしていないものが優先して選択される。
即ち、y∈w-,w={w+,w-},w’={{w++y},{w-−y}}とすると、提案分布は下式で与えられる。
q(w’|w) ∝ ζ(1) exp( −c4 Σj∈w+ O(y,yj))
ここで、O(y,yj)は、上述したオーバーラップコストであり、軌跡yとyjが完全に重なっている場合に“1”となり、まったく重なっていない場合は“0”をとるものとする。c4は正の定数である。
(B)消滅
集合w+から一つの3次元移動軌跡yを選択してw-に加える。
ここで、yとして、w+の内部で空間的にオーバーラップしている軌跡が優先して選択される
即ち、y∈w+,w={w+,w-},w’={{w+−y},{w-+y}}とすると、提案分布は下式で与えられる。
q(w’|w) ∝ ζ(2) exp( c5 Σj∈w+ O(y,yj))
なお、w+が空集合の場合は、下記の通りとする。
q(w’|w)=1 (if w’=w),q(w’|w)=0 (otherwise)
c5は正の定数である。
(C)スワップ
ステレオコストが高い3次元移動軌跡と、ステレオコストが低い3次元移動軌跡を交換する。つまり集合w+から一つの3次元移動軌跡yを選択し、また、集合w-から一つの3次元移動軌跡zを選択して、その3次元移動軌跡yと3次元移動軌跡zを交換する。
具体的には、まず、3次元移動軌跡yとして、ステレオコストが高いものを優先して選択する。
次に、3次元移動軌跡zとして、3次元移動軌跡yとオーバーラップし、かつ、ステレオコストが低いものを優先して選択する。
即ち、y∈w+,z∈w-,w’={{w+−y+z},{w-+y−z}},
p(y|w) ∝ exp( c6 S(y)),
p(z|w,y) ∝ exp( −c6 S(z) exp( c7 O(z,y))
とすると、提案分布は下式で与えられる。
q(w’|w) ∝ ζ(3)×p(z|w,y)p(y|w)
ただし、c6,c7は正の定数である。
映像解析部3は、上記のようにして、個々の人物の移動履歴を算出すると、その移動履歴を複数台のエレベータの運行を管理する群管理システム(図示せず)に与える。
これにより、群管理システムでは、各エレベータから得られる移動履歴に基づいて常に最適なエレベータの群管理を実施することが可能になる。
また、映像解析部3は、個々の人物の移動履歴などを必要に応じて映像解析結果表示部4に出力する。
映像解析結果表示部4は、映像解析部3から個々の人物の移動履歴等を受けると、個々の人物の移動履歴等をディスプレイ(図示せぬ)に表示する。
以下、映像解析結果表示部4の処理内容を具体的に説明する。
図30は映像解析結果表示部4の画面構成例を示す説明図である。
図30に示すように、映像解析結果表示部4のメイン画面は、複数のカメラ1により撮影された映像を表示する映像表示部51による画面と、人物移動履歴を時系列的にグラフ表示する時系列情報表示部52による画面とから構成されている。
映像解析結果表示部4の映像表示部51は、複数のカメラ1により撮影されたエレベータのカゴ内の映像(カメラ(1)の映像、カメラ(2)の映像、階床認識用のインジケータ映像)及び映像解析部3の解析結果を同期して表示し、映像解析部3の解析結果である頭部検出結果や2次元移動軌跡などを映像に重畳して表示する。
映像表示部51が複数の映像を同期して表示することで、ビル保守作業者などのユーザは、複数のエレベータの状況を同時に知ることができ、また、頭部検出結果や2次元移動軌跡などの映像解析結果を視覚的に把握することができる。
映像解析結果表示部4の時系列情報表示部52は、人物追跡部13の3次元移動軌跡算出部46により算出された人物移動履歴とカゴ移動履歴を時系列グラフにして、映像と同期させて表示する。
図31は時系列情報表示部52の画面の詳細例を示す説明図である。図31では、横軸に時間、縦軸に階床をとり、各エレベータ(カゴ)の移動履歴を時系列的にグラフ表示している。
図31の画面例では、時系列情報表示部52が、映像を再生・停止する映像再生・停止ボタン、映像をランダムにシークすることができる映像プログレスバー、表示するカゴ番号を選択するチェックボックス、表示時間単位を選択するプルダウンなどのユーザインターフェイスを表示している。
また、グラフには映像との時間同期を示すバーを表示し、ドアが開いている時間帯を太線で表示している。
また、グラフにおいて、各ドア開時間を表示する太線付近に、階床、扉開時間、乗車人数、降車人数をテキスト「F15−D10−J0−K3」表示している。
このテキスト「F15−D10−J0−K3」は、カゴの階床が15階、ドア開時間が10秒、乗者人数が0人、降車人数が3人であることを略記したものである。
このように、時系列情報表示部52が映像解析結果を時系列的に表示することで、ビル保守作業者などのユーザは、複数のエレベータの乗降者やドア開閉時間などの情報の時間変化を視覚的に知ることができる。
映像解析結果表示部4のサマリー表示部53は、3次元移動軌跡算出部46により算出された人物移動履歴の統計を求め、その人物移動履歴の統計結果として、一定時間帯の各カゴ及び各階の乗降者を一覧表示する。
図32はサマリー表示部53の画面例を示す説明図である。図32では、縦軸に階床、横軸に各カゴ番号をとり、ある一定時間帯(図32の例では、AM7時からAM10時までの時間帯)の各カゴ及び各階の乗降者人数の合計を並べて表示している。
サマリー表示部53が一定時間帯の各カゴ及び各階の乗降者を一覧表示することで、ユーザは、ビル全体のエレベータの運行状況を一目で把握することができる。
図32の画面例では、各乗降者人数の合計を表示する部分がボタンになっており、ユーザが各ボタンを押すと、それに対応する運行関連情報表示部54の詳細表示画面をポップアップ表示することができる。
映像解析結果表示部4の運行関連情報表示部54は、3次元移動軌跡算出部46により算出された人物移動履歴を参照して、人物移動履歴の詳細情報を表示する。即ち、ある指定された時間帯と階床とエレベータカゴ番号に対して、他の階床に移動した人数、他の階床から移動してきた人数、乗客の待ち時間などのエレベータ運行に関連する詳細情報を表示する。
図33は運行関連情報表示部54の画面例を示す説明図である。
図33の画面における各領域(A)〜(F)には、下記の情報を表示している。
(A):対象となる時間帯、カゴ番号、階床を表示
(B):対象となる時間帯、カゴ番号、階床を表示
(C):AM7:00〜AM10:00に、カゴ#1に2階から乗って上方向に移動した人数が10人であることを表示
(D):AM7:00〜AM10:00に、カゴ#1に3階から乗って、2階で降りた人数が1人であり、その平均待ち時間が30秒であることを表示
(E):AM7:00〜AM10:00に、カゴ#1に3階から乗って下方向に移動した人数が3人であることを表示
(F):AM7:00〜AM10:00に、カゴ#1に地下1階から乗って、2階で降りた人数が2人であり、その平均待ち時間が10秒であることを表示
運行関連情報表示部54が、解析した人物移動履歴の詳細情報を表示することで、ユーザが各階や各カゴの個別の情報を閲覧することができ、エレベータ運行の不具合などの原因の詳細を分析することができる。
ソートデータ表示部55は、3次元移動軌跡算出部46により算出された人物移動履歴をソートして表示する。即ち、映像解析部3の解析結果を利用して、ドア開時間、乗降者人数、待ち時間などに関するデータをソートして、上位あるいは下位のデータから順番に表示する。
図34はソートデータ表示部55の画面例を示す説明図である。
図34(A)の例では、ソートデータ表示部55が「ドア開時間」をソートキーとして映像解析部3の解析結果をソートし、ドア開時間が大きなデータを上位にして順番に表示している。
また、図34(A)には、「カゴ番号(#)」、システム時間(映像記録時間)、「ドア開時間」のデータを同時に表示している。
図34(B)の例では、ソートデータ表示部55が「乗降者人数」をソートキーとして映像解析部3の解析結果をソートし、「乗降者人数」が大きなデータを上位にして順番に表示している。
また、図34(B)には、「カゴ(#)」、「時間帯(例えば、30分単位)」、「乗降(乗車又は降車を示すフラグ)」、「乗降者人数」のデータを同時に表示している。
図34(C)の例では、ソートデータ表示部55が「乗降者移動人数」をソートキーとして映像解析部3の解析結果をソートし、「乗降者移動人数」が大きなデータを上位にして順番に表示している。
また、図34(C)には、「時間帯(例えば、30分単位)」、「乗階」、「降階」、「乗降者人数」のデータを同時に表示している。
ソートデータ表示部55がソートしたデータを表示することで、例えば、ドアが異常に開いている時間帯を発見し、同じ時間帯の映像や解析結果を参照することで、その不具合の原因を突き止めることができる。
以上で明らかなように、この実施の形態1によれば、複数のカメラ1により撮影された監視対象領域の映像を解析して、その監視対象領域内に存在している個々の人物の各映像上の位置を算出する人物検出部44と、人物検出部44により算出された各映像上の位置を追跡して、各映像における個々の人物の2次元移動軌跡を算出する2次元移動軌跡算出部45とを設け、3次元移動軌跡算出部46が2次元移動軌跡算出部45により算出された各映像における2次元移動軌跡間のステレオマッチングを実施して、2次元移動軌跡のマッチング率を算出し、そのマッチング率が規定値以上の2次元移動軌跡から、個々の人物の3次元移動軌跡を算出するように構成したので、監視対象領域が非常に混雑している状況でも、その監視対象領域内に存在している人物を正確に追跡することができる効果を奏する。
即ち、従来例では、エレベータのように狭く混雑した場所では、ある人物が他の人物に遮蔽されてしまうため、人物の検出や追跡が困難であったが、この実施の形態1によれば、人物が遮蔽されたことが原因で誤って求めてしまった3次元移動軌跡が存在するような場合でも、複数の3次元移動軌跡の候補を列挙し、人物同士の位置関係、人物数やステレオ立体視の精度などを考慮したコスト関数を最大化するような3次元移動軌跡候補の組み合わせを求めることで、個々の人物の正確な3次元移動軌跡を求めることができるとともに、監視対象領域における人数を推定することができる。
また、3次元移動軌跡グラフの構造が非常に複雑であり、入場から退場までの3次元移動軌跡の候補の組み合わせ数が非常に多い場合でも、軌跡組み合わせ推定部50が、MCMCやGAなどの確率的な最適化手法を用いて、3次元移動軌跡の最適な組み合わせを求めるようにしているので、現実的な処理時間で3次元移動軌跡候補の組み合わせを求めることができる。その結果、監視対象領域が非常に混雑している状況でも、監視対象領域内の個々の人物を正確に検出することができるとともに、個々の人物を正確に追跡することができる。
また、映像解析結果表示部4が複数のカメラ1の映像や映像解析部3の映像解析結果を見易く表示しているので、ビル保守作業員やビルオーナーなどのユーザが、エレベータの運行状況や不具合箇所を容易に把握することができ、エレベータの運行効率化や保守作業を円滑に実施することができる。
なお、この実施の形態1では、映像解析結果表示部4が複数のカメラ1の映像や映像解析部3の映像解析結果をディスプレイ(図示せず)に表示するものについて示したが、映像解析結果表示部4が複数のカメラ1の映像や映像解析部3の映像解析結果をエレベータのカゴ外の各フロアに設置された表示パネルや、エレベータのカゴ内部の表示パネルに表示して、エレベータの混雑具合を乗客に提示するようにしてもよい。
これにより、乗客はエレベータの混雑具合から、いつどのエレベータに乗るのがよいのかを把握することができる。
また、この実施の形態1では、監視対象領域がエレベータのカゴ内であるもについて説明したが、これは一例に過ぎず、例えば、電車の中を監視対象領域として適用し、電車の混雑度などを計測する場合にも利用することができる。
また、セキュリティニーズの高い場所を監視対象領域として、人物の移動履歴を求めることに適用し、不審な人物の行動を監視することも可能である。
また、駅や店舗などに適用して人物の移動軌跡を解析することで、マーケティングなどに利用することも可能である。
さらに、エスカレータの踊り場を監視対象領域として適用し、踊り場に存在する人物の数をカウントして、踊り場が混雑してきた場合に、例えば、エスカレータの徐行や停止など適切な制御を行うことで、エスカレータ上で人物が将棋倒しになるなどの事故を未然に回避することに利用することもできる。
実施の形態2.
上記実施の形態1では、複数の3次元移動軌跡グラフを探索して、入退場条件を満足する3次元移動軌跡の候補を算出して、入場から退場までの3次元移動軌跡の候補を列挙し、コスト関数をMCMCなどで確率的に最大化することで3次元移動軌跡の候補の最適な組み合わせを求めているが、3次元移動軌跡グラフの構造が複雑な場合には、入退場条件を満足する3次元移動軌跡の候補数が天文学的に大きくなり、現実的な時間内に処理することができないことがある。
そこで、この実施の形態2では、3次元移動軌跡グラフの頂点(グラフを構成する各3次元移動軌跡)に対してラベル付けを実施し、入退場条件を鑑みたコスト関数を確率的に最大化することで、3次元移動軌跡の最適な組み合わせを現実的な時間内で推定するようにしている。
図35はこの発明の実施の形態2による人物追跡装置の人物追跡部13の内部を示す構成図であり、図において、図4と同一符号は同一又は相当部分を示すので説明を省略する。
軌跡組み合わせ推定部61は3次元移動軌跡グラフ生成部49により生成された3次元移動軌跡グラフの頂点にラベリングを施して複数のラベリング候補を算出し、複数のラベリング候補の中から最適なラベリング候補を選択して、監視対象領域内に存在している人物の人数を推定する処理を実施する。
次に動作について説明する。
上記実施の形態1と比べて、軌跡組み合わせ推定部50が軌跡組み合わせ推定部61に代わっている以外は同じであるため、軌跡組み合わせ推定部61の動作のみを説明する。
図36は軌跡組み合わせ推定部61の処理内容を示すフローチャートであり、図37は軌跡組み合わせ推定部61の処理内容を示す説明図である。
まず、軌跡組み合わせ推定部61は、図4の軌跡組み合わせ推定部50と同様に、監視対象領域となる場所において、人物の入退場エリアを設定する(ステップST81)。
図37(A)の例では、エレベータのカゴ内の入口付近に仮想的に入退場エリアを設定している。
次に、軌跡組み合わせ推定部61は、3次元移動軌跡グラフ生成部49により生成された3次元移動軌跡グラフに対して、3次元移動軌跡グラフの頂点(グラフを構成する3次元移動軌跡)をラベリングして、複数のラベリング候補を算出する(ステップST82)。
ここで、軌跡組み合わせ推定部61は、3次元移動軌跡グラフをくまなく探索して、可能なラベリング候補をすべて列挙するようにしてもよいが、ラベリングの候補数が多い場合には、予め決められた数だけランダムにラベリング候補を選出するようにしてもよい。
具体的には、以下のようにして、複数のラベリング候補を算出する。
図37(A)に示すように、下記の情報を有する3次元移動軌跡グラフが得られたものとする。
・L1に連結された3次元移動軌跡集合={L2,L3}
・L2に連結された3次元移動軌跡集合={L6}
・L3に連結された3次元移動軌跡集合={L5}
・L4に連結された3次元移動軌跡集合={L5}
・L5に連結された3次元移動軌跡集合={φ(空集合)}
・L6に連結された3次元移動軌跡集合={φ(空集合)}
ただし、L2は人物頭部の追跡ミスなどにより、誤って求めてしまった3次元移動軌跡であるとする。
この場合、軌跡組み合わせ推定部61は、図37(A)の3次元移動軌跡グラフに対してラベリングを行うことで、図37(B)示すようなラベリング候補A,Bを算出する。
例えば、ラベリング候補Aには、下記に示すように、0から2までのラベル番号のラベルが各3次元移動軌跡の断片に付与される。
・ラベル0={L3}
・ラベル1={L4,L5}
・ラベル2={L1,L2,L6}
ここで、ラベル0は、人物でない3次元移動軌跡(誤りの3次元移動軌跡)の集合とし、ラベル1以上は、各個別の人物の3次元移動軌跡の集合を意味するものと定義する。
この場合、ラベリング候補Aは、監視対象領域に人物が二人(ラベル1とラベル2)存在していることを示しており、ある人物(1)の3次元移動軌跡は、ラベル1が付与されている3次元移動軌跡L4と3次元移動軌跡L5から構成され、また、ある人物(2)の3次元移動軌跡は、ラベル2が付与されている3次元移動軌跡L1と3次元移動軌跡L2と3次元移動軌跡L6から構成されていることを示している。
また、ラベリング候補Bには、下記に示すように、0から2までのラベル番号のラベルが各3次元移動軌跡の断片に付与される。
・ラベル0={L2,L6}
・ラベル1={L1,L3,L5}
・ラベル2={L4}
この場合、ラベリング候補Bは、監視対象領域に人物が二人(ラベル1とラベル2)存在していることを示しており、ある人物(1)の3次元移動軌跡は、ラベル1が付与されている3次元移動軌跡L1と3次元移動軌跡L3と3次元移動軌跡L5から構成され、また、ある人物(2)の3次元移動軌跡は、ラベル2が付与されている3次元移動軌跡L4から構成されていることを示している。
次に、軌跡組み合わせ推定部61は、複数のラベリング候補に対して、人物数、人物同士の位置関係、ステレオ立体視精度及び監視対象領域への入退場条件などを考慮したコスト関数を計算し、そのコスト関数が最大となるラベリング候補を求め、個々の人物の最適な3次元移動軌跡と人物数を算出する(ステップST83)。
コスト関数としては、下記に示すようなコストを定義する。
コスト = 「入退場条件を満たした3次元移動軌跡の数」
ここで、入退場条件として、例えば、上記実施の形態1で述べた入場条件及び退場条件を利用する。
図37(B)の場合、ラベリング候補Aでは、ラベル1とラベル2が入退場条件を満足する3次元移動軌跡である。
また、ラベリング候補Bでは、ラベル1のみが入退場条件を満足する3次元移動軌跡である。
したがって、ラベリング候補A,Bのコストが下記のようになるため、コスト関数が最大となるラベリング候補がラベリング候補Aであって、ラベリング候補Aが最適な3次元移動軌跡グラフのラベリングとして判断される。
このため、エレベータのカゴ内を移動していた人物が2人であることも同時に推定される。
・ラベリング候補Aのコスト=2
・ラベリング候補Bのコスト=1
次に、軌跡組み合わせ推定部61は、コスト関数が最大となるラベリング候補を選択して、個々の人物の最適な3次元移動軌跡を算出すると、個々の人物の最適な3次元移動軌跡と階床認識部12により特定された階床(エレベータの停止階を示す停止階情報)とを対応付けて、個々の人物の乗車階と降車階を示す人物移動履歴(“何人がどの階で乗って、どの階で降りたか”を示す個々の人物の移動履歴)を算出する(ステップST84)。
ここでは、階床認識部12により特定された停止階情報を対応付けるものについて示したが、別途、エレベータの制御機器から停止階情報を取得して対応付けるようにしてもよい。
ただし、乗降者の人数が多くて、3次元移動軌跡グラフの構造が複雑な場合、3次元移動軌跡グラフに対するラベリングが何通りにもなり、すべてのラベリングに対してコスト関数を計算することが現実的に不可能になることがある。
このような場合、軌跡組み合わせ推定部61は、MCMCやGAなどの確率的な最適化手法を用いて、3次元移動軌跡グラフのラベリング処理を実施するようにしてもよい。
以下、3次元移動軌跡グラフのラベリング処理を具体的に説明する。
[モデル]
軌跡組み合わせ推定部61は、3次元移動軌跡グラフ生成部49が3次元移動軌跡グラフを生成すると、その3次元移動軌跡グラフの頂点の集合、即ち、人物の3次元移動軌跡の集合をY={yii=1,・・・,Nとする。ここで、Nは3次元移動軌跡の数である。
また、状態空間wを以下のように定義する.
w={τ0,τ1,τ2,・・・,τK
ここで、τ0はどの人物にも属さない3次元移動軌跡yiの集合であり、τiはi番目の人物の3次元移動軌跡に属する3次元移動軌跡yiの集合であり、Kは3次元移動軌跡の数(人物数)である。
τiは複数の連結された3次元移動軌跡から構成されており、一つの3次元移動軌跡とみなすことができる。
また、下記を満足するものとする。
・Uk=0,・・・,K τk=Y
・τi ∩ τj=φ (for all i≠j)
・|τk|>1 (for all k)
このとき、軌跡組み合わせ推定部61の目的は、3次元移動軌跡の集合Yが3次元移動軌跡τ0からτKまでのどの集合に属するのか求めることである。即ち、この目的は、集合Yの要素に対して、0からKまでのラベリングを行う問題と等価である。
これは尤度関数L(w/Y)をコスト関数として定義し、このコスト関数を最大化する問題として定式化することができる。
即ち、最適な軌跡ラベリングをwoptとすると、woptは下式で与えられる。
opt=argmax L(w|Y)
ここでは、尤度関数L(w|Y)を下記のように定義する。
L(w|Y)=Lovr(w|Y)Lnum(w|Y)Lstr(w|Y)
ここで、Lovrは「3次元空間内で3次元移動軌跡が重ならない」ことを定式化した尤度関数、Lnumは「可能な限り多く入退場条件を満たす3次元移動軌跡が存在する」ことを定式化した尤度関数、Lstrは「3次元移動軌跡のステレオ視の精度が高い」ことを定式化した尤度関数である。
以下、各尤度関数の詳細について述べる。
[軌跡のオーバーラップに関する尤度関数]
「3次元空間内で3次元移動軌跡が重ならない」という条件を下記のように定式化する。
ovr(w|Y) ∝ exp( −c1 Στi∈w-τ0 Στj∈w-τ0 O(τi,τj))
ここで、O(τi,τj)は、3次元移動軌跡τiと3次元移動軌跡τjのオーバーラップコストであり、3次元移動軌跡τiと3次元移動軌跡τjが完全に重なっている場合には“1”となり、まったく重なっていない場合には“0”をとるものとする。
O(τi,τj)は、例えば、上記実施の形態1で説明したものを利用する。c1は正の定数である。
[軌跡の数に関する尤度関数]
「可能な限り多く入退場条件を満たす3次元移動軌跡が存在する」という条件を下記のように定式化する。
num(w|Y) ∝ exp( c2×K + c3×J)
ここで、Kは3次元移動軌跡の数であり、K=|w−τ0|で与えられる。また、JはK個の3次元移動軌跡τ1からτKまでの中で、入退場条件を満足する3次元移動軌跡の数である。
入退場条件は、例えば、上記実施の形態1で説明したものを利用する。
尤度関数Lnum(w|Y)は、集合Yから可能な限り多くの3次元移動軌跡が選択され、かつ、その中でも入退場条件を満足するものが多く存在するように働く。c2,c3は正の定数である。
[軌跡のステレオ視精度に関する尤度関数]
「3次元移動軌跡のステレオ視の精度が高い」という条件を下記のように定式化する。
str(w|Y) ∝ exp( −c4 × Στi∈w-τ0 S(τi))
ここで、S(τi)は、ステレオコストであり、3次元移動軌跡がステレオ視によって推定された場合は小さな値をとり、3次元移動軌跡が単眼視や、どのカメラからも観測されない期間がある場合は大きな値をとるものとする。
例えば、ステレオコストS(τi)の計算方法は、上記実施の形態1で説明したものを利用する。c4は正の定数である。
以上のように定義した尤度関数を、MCMCやGAなどの確率的な最適化手法を用いて最適化することができる。
以上で明らかなように、この実施の形態2によれば、軌跡組み合わせ推定部61が3次元移動軌跡グラフ生成部49により生成された3次元移動軌跡グラフの有向辺にラベリングを施して複数のラベリング候補を算出し、複数のラベリング候補の中から最適なラベリング候補を選択して、監視対象領域内に存在している人物の人数を推定するように構成したので、入退場条件を満足する3次元移動軌跡の候補数が天文学的に多い場合でも、現実的な時間内で、人物の最適(あるいは準最適)な3次元移動軌跡と人物数を推定することができる効果を奏する。
実施の形態3.
上記実施の形態2では、3次元移動軌跡グラフの頂点(グラフを構成する各3次元移動軌跡)に対してラベル付けを実施し、入退場条件を鑑みたコスト関数を確率的に最大化することで、3次元移動軌跡の最適な組み合わせを現実的な時間内で推定するようにしている。しかし、映像に写る人物数が増えて、さらに2次元移動軌跡グラフの構造が複雑な場合には、立体視の結果得られる3次元移動軌跡の断片の候補数が天文学的に大きくなり、実施の形態2の方法を利用しても、現実的な時間内に処理を終了できないことがある。
そこで、この実施の形態3では、2次元移動軌跡グラフの頂点(グラフを構成する各2次元移動軌跡)に対して確率的にラベル付けを実施し、2次元移動軌跡のラベルに応じて3次元移動軌跡の立体視を行い、入退場条件を鑑みた3次元移動軌跡のコスト関数を評価することで、最適な3次元移動軌跡を現実的な時間内で推定するようにしている。
図38はこの発明の実施の形態3による人物追跡装置の人物追跡部13の内部を示す構成図であり、図において、図4と同一符号は同一又は相当部分を示すので説明を省略する。図38には、2次元移動軌跡ラベリング部71と、3次元移動軌跡コスト計算部72が追加されている。
2次元移動軌跡ラベリング部71は、2次元移動軌跡グラフ生成部47により生成された2次元移動軌跡グラフの有向辺にラベリングを施して複数のラベリング候補を算出する処理を実施する。3次元移動軌跡コスト計算部72は、3次元移動軌跡の組み合わせに関するコスト関数を計算し、複数のラベリング候補の中から最適なラベリング候補を選択して、監視対象領域内に存在している人物の人数を推定する処理を実施する。
次に動作について説明する。
上記実施の形態1と比べて、3次元移動軌跡グラフ生成部49及び軌跡組み合わせ推定部50に代わって、2次元移動軌跡ラベリング部71と、3次元移動軌跡コスト計算部72が追加されている。それ以外の構成は同一であるため、以下では2次元移動軌跡ラベリング部71と3次元移動軌跡コスト計算部72の動作を中心に説明する。
図39は2次元移動軌跡ラベリング部71と3次元移動軌跡コスト計算部72の処理内容を示すフローチャートであり、図40は2次元移動軌跡ラベリング部71と3次元移動軌跡コスト計算部72の処理内容を示す説明図である。
まず、2次元移動軌跡ラベリング部71は、2次元移動軌跡グラフ生成部47により生成された2次元移動軌跡グラフに対して、2次元移動軌跡グラフの頂点(グラフを構成する2次元移動軌跡)をラベリングして、複数のラベリング候補を算出する(ステップST91)。ここで、2次元移動軌跡ラベリング部71は、2次元移動軌跡グラフをくまなく探索して、可能なラベリング候補をすべて列挙するようにしてもよいが、ラベリングの候補数が多い場合には、予め決められた数だけランダムにラベリング候補を選出するようにしてもよい。
具体的には、以下のようにして、複数のラベリング候補を算出する。
図40(A)に示すように、対象領域に人物Xと人物Yが存在し、下記の情報を有する2次元移動軌跡グラフが得られたものとする。
カメラ1の映像
・2次元移動軌跡T1に連結された2次元移動軌跡集合={T2,T3}
・2次元移動軌跡T4に連結された2次元移動軌跡集合={T5、T6}
カメラ2の映像
・2次元移動軌跡P1に連結された2次元移動軌跡集合={P2,P3}
・2次元移動軌跡P4に連結された2次元移動軌跡集合={P5,P6}
この場合、2次元移動軌跡ラベリング部71は、図40(A)の2次元移動軌跡グラフに対して、人物の移動軌跡と人数を推定するためのラベリングを行う(図40(B)参照)。例えば、ラベリング候補1には、下記に示すように、AからCまでのラベルが各カメラ映像の2次元移動軌跡に付与される。
[ラベリング候補1]
・ラベルA={{T1,T3},{P1,P2}}
・ラベルB={{T4,T6},{P4,P5}}
・ラベルZ={{T2,T5},{P3,P6}}
ここで、ラベリング候補1を次のように解釈する。監視対象領域に人物が二人(ラベルAとラベルB)存在していることを示しており、ある人物Yの2次元移動軌跡は、ラベルAが付与されている2次元移動軌跡T1,T3,P1,P2とから構成される。また、ある人物Xの2次元移動軌跡は、ラベルBが付与されている2次元移動軌跡T4,T6,P4,P5から構成されていることを示している。ここで、ラベルZは特別なラベルと定義し、ラベルZが付与されているT2,T5,P3,P6は、誤って求めてしまった人物でない2次元移動軌跡の集合であることを示すものとする。
ここで用いたラベルはA,B,Zの3つであるが、これに限らず必要に応じて任意にラベルの数を増やしてもよい。
次に、軌跡ステレオ部48は、2次元移動軌跡ラベリング部71が2次元の軌跡グラフに対して複数のラベリング候補を生成すると、カメラキャリブレーション部42により算出されたカゴ内の基準点に対する複数のカメラ1の設置位置及び設置角度を考慮して、各映像における同一ラベルが付与された2次元移動軌跡のステレオマッチングを実施して、その2次元移動軌跡の候補のマッチング率を算出し、個々の人物の3次元移動軌跡を算出する(ステップST92)。
図40(C)の例では、カメラ1の映像におけるラベルAが付与された2次元移動軌跡の集合{T1,T3}と、カメラ2の映像におけるラベルAが付与された2次元移動軌跡の集合{P1,P2}とをステレオマッチングすることで、ラベルAの3次元移動軌跡L1を生成する。同様に、カメラ1の映像におけるラベルBが付与された2次元移動軌跡の集合{T4,T6}と、カメラ2の映像におけるラベルAが付与された2次元移動軌跡の集合{P4,P5}とをステレオマッチングすることで、ラベルBの3次元移動軌跡L2を生成する。
また、ラベルZが付与されているT2,T5,P3,P6は、人物の軌跡で無いと解釈されているので、ステレオマッチングは実施しない。
その他、軌跡ステレオ部48の2次元移動軌跡の立体視に関する動作は、実施の形態1と同一であるため説明を省略する。
次に、3次元移動軌跡コスト計算部72は、前述の軌跡ステレオ部48が算出した、
複数のラベリング候補に対する3次元移動軌跡の集合に対して、人物数、人物同士の位置関係、2次元移動軌跡のステレオマッチング率、ステレオ立体視精度及び監視対象領域への入退場条件などを考慮したコスト関数を計算し、そのコスト関数が最大となるラベリング候補を求め、個々の人物の最適な3次元移動軌跡と人物数を算出する(ステップST93)。
例えば、最も単純なコスト関数としては、下記に示すようなコストを定義する。
コスト=「入退場条件を満たした3次元移動軌跡の数」
ここで、入退場条件として、例えば、上記実施の形態1で述べた入場条件及び退場条件を利用する。例えば図40(C)の場合、ラベリング候補1では、ラベルAとラベルBが入退場条件を満足する3次元移動軌跡であるため、
ラベリング候補1のコスト=2
と計算される。
また、コスト関数として、下記に定義するものを利用してもよい。
コスト=「入退場条件を満たした3次元移動軌跡の数」
−a×「3次元移動軌跡のオーバーラップコストの合計」
+b×「2次元移動軌跡のマッチング率の合計」
ここで、a,bは、各評価値のバランスを取るための正の定数である。また、2次元移動軌跡のマッチング率と3次元移動軌跡のオーバーラップコストは、例えば実施の形態1で説明したものを利用する。
また、乗降者の人数が多くて、2次元移動軌跡グラフの構造が複雑な場合、2次元移動軌跡ラベリング部71の2次元移動軌跡グラフに対するラベリング候補が何通りにもなり、すべてのラベリングに対してコスト関数を計算することが現実的に不可能になることがある。
このような場合、MCMCやGAなどの確率的な最適化手法を用いて、2次元移動軌跡ラベリング部71におけるラベルリング候補の生成を確率的に生成して、最適あるいは準最適な3次元移動軌跡を求めることで、現実的な時間内に処理を終了するようにしてもよい。
最後に、3次元移動軌跡コスト計算部72は、コスト関数が最大となるラベリング候補を選択して、個々の人物の最適な3次元移動軌跡を算出すると、個々の人物の最適な3次元移動軌跡と階床認識部12により特定された階床(エレベータの停止階を示す停止階情報)とを対応付けて、個々の人物の乗車階と降車階を示す人物移動履歴(“何人がどの階で乗って、どの階で降りたか”を示す個々の人物の移動履歴)を算出する(ステップST94)。
ここでは、階床認識部12により特定された停止階情報を対応付けるものについて示したが、別途、エレベータの制御機器から停止階情報を取得して対応付けるようにしてもよい。
以上で明らかなように、この実施の形態3によれば、2次元移動軌跡ラベリング部71が2次元移動軌跡グラフ生成部47により生成された2次元移動軌跡グラフにラベリングを施して複数のラベリング候補を算出し、複数のラベリング候補の中から最適なラベリング候補を選択して、監視対象領域内に存在している人物の人数を推定するように構成したので、2次元移動軌跡グラフの構造が複雑で、ラベリングの候補数が天文学的に多い場合でも、現実的な時間内で、人物の最適(あるいは準最適)な3次元移動軌跡と人物数を推定することができる効果を奏する。
実施の形態4.
上記実施の形態1から実施の形態3では、エレベータ乗降者の人物移動履歴の計測方法について述べたが、この実施の形態4では人物移動履歴の利用方法について述べる。
図41は、この発明の実施の形態4による人物追跡装置を示す構成図である。図41において、撮影手段を構成している複数のカメラ1、映像取得部2、映像解析部3は実施の形態1、実施の形態2、または実施の形態3と同一であるため説明を省略する。
センサ81は、監視対象領域であるエレベータ外部に設置されており、例えば、可視カメラや赤外線カメラ、あるいはレーザー距離計などで構成される。
フロア人物検出部82は、センサ81が取得する情報を利用して、エレベータ外部の人物の移動履歴を計測する処理を実施する。
カゴ呼び計測部83は、エレベータ呼び出し履歴を計測する処理を実施する。
群管理最適化部84は、エレベータ待ち時間が最小となるように複数のエレベータ群を効率よく配車するための最適化処理を実施し、さらに最適なエレベータ群管理を実施した際のシミュレーション交通流算出を実施する。
交通流可視化部85は、映像解析部3とフロア人物検出部82とカゴ呼び計測部83が計測した実際の交通流と、群管理最適化部84が生成したシミュレーション交通流とを比較し、アニメーションやグラフで表示する処理を実施する。
図42は、この発明の実施の形態4による人物追跡装置の処理内容を示すフローチャートである。また、以下では、実施の形態1に係る人物追跡装置と同一のステップには図6で使用した符号と同一の符号を付し、説明を省略または簡略化する。
まず、カメラ1、映像取得部2、映像解析部3はエレベータ内部の人物移動履歴を算出する(ステップST1〜ST4)。
フロア人物検出部82は、エレベータ外部に設置されたセンサ81を用いて、エレベータ外部の人物の移動履歴を計測する(ステップST101)。
例えば、センサ81には可視カメラを用いて、実施の形態1と同様に映像から人物の頭部を検出・追跡し、フロア人物検出部82は、エレベータの到着を待つ人物やこれからエレベータに向かう人物の3次元移動軌跡と、それらの人数を計測する処理を実施する。
センサ81は、可視カメラに限らず、熱を感知する赤外線カメラ、レーザー距離計、またはフロアに敷き詰めた感圧センサなど人物の移動情報が計測できるものであれば何でもよい。
カゴ呼び計測部83は、エレベータのカゴ呼び出し履歴を計測する(ステップST102)。例えば、カゴ呼び計測部83は各フロアに配置されているエレベータ呼び出しボタンが押された履歴を計測する処理を実施する。
群管理最適化部84は、映像解析部3が求めたエレベータ内部の人物移動履歴と、フロア人物検出部82が計測したエレベータ外部の人物移動履歴と、カゴ呼び計測部83が計測したエレベータ呼び出し履歴とを統合し、平均あるいは最大のエレベータ待ち時間が最小となるよう、複数のエレベータ群を効率よく配車するための最適化処理を実施する。さらに、最適なエレベータ群管理を実施した際の、コンピュータによりシミュレーションした人物移動履歴の結果を算出する(ステップST103)。
ここで、エレベータ待ち時間とは、ある人物がフロアに到着してから所望のエレベータが到着するまでの時間である。
群管理の最適化アルゴリズムとして、例えば、下記の参考文献5に開示されているアルゴリズムを利用してもよい。
参考文献5
Nikovski, D.; Brand, M., "Exact Calculation of Expected Waiting Times for Group Elevator Control", IEEE Transactions on Automatic Control, ISSN: 0018-9286, Vol. 49, Issue 10, pp. 1820-1823, October 2004
従来は正確なエレベータの人物移動履歴を計測する手段が無かったため、群管理最適化アルゴリズムではエレベータ内外の人物移動履歴の適当な確率分布を仮定してエレベータ群管理の最適化処理がなされていた。しかし、この実施の形態4では、実測した人物移動履歴を従来のアルゴリズムへ入力することで、より最適な群管理を実現することが可能である。
最後に、交通流可視化部85は、映像解析部3とフロア人物検出部82とカゴ呼び計測部83が計測した実際の人物移動履歴と、群管理最適化部84が生成したシミュレーションによる人物移動履歴とを比較し、アニメーションやグラフで表示する処理を実施する(ステップST104)。
例えば、交通流可視化部85は、エレベータやテナントを表示したビルの2次元断面図上に、エレベータ待ち時間、人物の移動量合計、または人物の単位時間あたりの移動確率をアニメーションで表示したり、エレベータのカゴ移動のダイアグラムをグラフで表示する。交通流可視化部85は、コンピュータによるシミュレーションにより、エレベータ台数を増減したり、エレベータ新規機種を導入した際の人物の移動履歴を仮想的に計算し、このシミュレーション結果と、映像解析部3、フロア人物検出部82及びカゴ呼び計測部83が計測した実際の人物移動履歴とを同時に表示することができるので、シュミレーション結果と実際の人物移動履歴を比較することで、現状のビル内の交通流と、改築による交通流との変化を検証することができる効果がある。
以上で明らかなように、この実施の形態4では、エレベータの乗り場などエレベータ外部にセンサ81を設置して人物移動履歴を計測するように構成したので、エレベータに係る人物移動を完全に求めることができる効果を奏する。また、実測した人物移動履歴を元に、最適なエレベータ群管理を実現する効果を奏する。また、実測した人物移動履歴と、コンピュータによるシミュレーションとを比較することで、改築による交通流の変化を正確に検証することが可能となる。
実施の形態5.
従来、エレベータの車椅子専用ボタンを押した場合、エレベータが優先的に配車される。しかし、健常者が意図せず誤って車椅子専用ボタンを押した場合もエレベータが優先的に配車されるため、エレベータ群の運行効率を下げる原因となっていた。
そこで、この実施の形態5では、画像処理により車椅子を認識し、フロア及びエレベータのカゴ内に車椅子の人物が存在する場合にのみ優先的にカゴを運行することにより効率的なエレベータの運行を行う構成を示す。
図43はこの発明の実施の形態5による人物追跡装置を示す構成図である。図43において、撮影手段を構成している複数のカメラ1、映像取得部2、映像解析部3、センサ81、フロア人物検出部82、カゴ呼び計測部83は実施の形態4と同一であるため説明を省略する。
車椅子検出部91は、映像解析部3及びフロア人物検出部82が算出した人物の中から車椅子と、その車椅子に座る人物を特定する処理を実施する。
図44は、この発明の実施の形態5による人物追跡装置の処理内容を示すフローチャートである。また、以下では、実施の形態1及び実施の形態4に係る人物追跡装置と同一のステップには図6及び図42で使用した符号と同一の符号を付し、説明を省略または簡略化する。
まず、カメラ1、映像取得部2、映像解析部3はエレベータ内部の人物移動履歴を算出する(ステップST1〜ST4)。フロア人物検出部82は、エレベータ外部に設置されたセンサ81を用いて、エレベータ外部の人物の移動履歴を計測する(ステップST101)。カゴ呼び計測部83は、エレベータのカゴ呼び出し履歴を計測する(ステップST102)。
車椅子検出部91は、映像解析部3とフロア人物検出部82が算出した人物の中から車椅子と、その車椅子に座る人物を特定する処理を実施する(ステップST201)。例えば、画像処理により車椅子画像のパターンをAdaboostアルゴリズムやサポートベクトルマシン等で機械学習させておき、学習したパターンを元にカメラ映像からカゴ内やフロアに存在する車椅子の特定を実施する。また、予め車椅子にRFID(Radio Frequency IDentification)などの電子タグを付与しておき、車椅子がエレベータ乗り場に近づいたことを検知してもよい。
次に、群管理最適化部84は、車椅子検出部91により車椅子が検知された場合に、車椅子の人物に対して優先的にエレベータを配車する(ステップST202)。例えば、車椅子に座る人物がエレベータ呼びのボタンを押した場合に、群管理最適化部84は、そのフロアに優先的にエレベータを配車し、かつ行き先階以外には停止しないなどの優先的なエレベータ運行を実施する。また、車椅子の人物がカゴ内に入室しようとしている場合は、エレベータの扉が空いている時間を長めに設定したり、扉が閉まる時間を長めに設定してもよい。
従来は、健常者がエレベータを呼ぶために意図せず車椅子専用ボタンを押した場合にもエレベータが優先的に配車されてしまっていたため、複数のエレベータの運行効率を下げていた。しかし、この実施の形態5によれば、車椅子検出部91が車椅子を検出して、該当フロアに優先的にエレベータを配車するなど、車椅子の検知状態に応じて動的にエレベータ群管理を実施するように構成したので、従来よりも効率的なエレベータ運行が可能である。また、車椅子専用ボタンを用意する必要がなくなるという効果を奏する。
また、この実施の形態5では車椅子の検知について説明したが、車椅子に限らずビルの重要人物や老人、子供なども自動的に検出し、エレベータの配車や扉開閉時間などを適応的に制御するように構成してもよい。
この発明に係る人物追跡装置は、監視領域内に存在している人物を確実に特定することができるので、エレベータ群の配車制御などに利用することができる。

Claims (29)

  1. 相互に異なる位置に設置され、同一の監視対象領域を撮影する複数の撮影手段と、上記複数の撮影手段により撮影された監視対象領域の映像を解析して、上記監視対象領域内に存在している個々の人物の各映像上の位置を算出する人物位置算出手段と、上記人物位置算出手段により算出された各映像上の位置を追跡して、各映像における個々の人物の2次元移動軌跡を算出する2次元移動軌跡算出手段と、上記2次元移動軌跡算出手段により算出された各映像における2次元移動軌跡間のステレオマッチングを実施して、上記2次元移動軌跡のマッチング率を算出し、上記マッチング率が規定値以上の2次元移動軌跡から、個々の人物の3次元移動軌跡を算出する3次元移動軌跡算出手段とを備えた人物追跡装置。
  2. 3次元移動軌跡算出手段は、個々の人物の3次元移動軌跡から3次元移動軌跡グラフを生成し、上記3次元移動軌跡グラフを探索して複数の3次元移動軌跡の候補を算出し、複数の3次元移動軌跡の候補の中から最適な3次元移動軌跡を選択することを特徴とする請求項1記載の人物追跡装置。
  3. 人物位置算出手段は、複数の撮影手段により撮影されたキャリブレーションパターンの映像の歪み具合を解析して、上記複数の撮影手段のカメラパラメータを算出するカメラキャリブレーション部と、上記カメラキャリブレーション部により算出されたカメラパラメータを用いて、上記複数の撮影手段により撮影された監視対象領域の映像の歪みを補正する映像補正部と、上記映像補正部により歪みが補正された各映像に写っている個々の人物を検出し、個々の人物の各映像上の位置を算出する人物検出部とから構成され、
    2次元移動軌跡算出手段は、上記人物検出部により算出された各映像上の位置を追跡して、各映像における個々の人物の2次元移動軌跡を算出する2次元移動軌跡算出部から構成され、
    3次元移動軌跡算出手段は、上記2次元移動軌跡算出部により算出された2次元移動軌跡に対する分割処理及び連結処理を実施して2次元移動軌跡グラフを生成する2次元移動軌跡グラフ生成部と、上記2次元移動軌跡グラフ生成部により生成された2次元移動軌跡グラフを探索して複数の2次元移動軌跡の候補を算出し、上記監視対象領域内の基準点に対する上記複数の撮影手段の設置位置及び設置角度を考慮して、各映像における2次元移動軌跡の候補間のステレオマッチングを実施して、上記2次元移動軌跡の候補のマッチング率を算出し、上記マッチング率が規定値以上の2次元移動軌跡の候補から、個々の人物の3次元移動軌跡を算出する軌跡ステレオ部と、上記軌跡ステレオ部により算出された3次元移動軌跡に対する分割処理及び連結処理を実施して3次元移動軌跡グラフを生成する3次元移動軌跡グラフ生成部と、上記3次元移動軌跡グラフ生成部により生成された3次元移動軌跡グラフを探索して複数の3次元移動軌跡の候補を算出し、複数の3次元移動軌跡の候補の中から最適な3次元移動軌跡を選択して、上記監視対象領域内に存在している人物の人数を推定する軌跡組み合わせ推定部とから構成されていることを特徴とする請求項2記載の人物追跡装置。
  4. 監視対象領域がエレベータの内部である場合、複数の撮影手段により撮影されたエレベータの内部の映像を解析して、上記エレベータのドアの開閉時刻を特定するドア開閉時刻特定手段を設け、3次元移動軌跡算出手段が複数の3次元移動軌跡の候補の中から最適な3次元移動軌跡を選択する際、上記ドア開閉時刻特定手段により特定されたドアの開閉時刻を参照して、軌跡始点の時刻及び軌跡終点の時刻がドアが閉じている時刻と一致する3次元移動軌跡の候補を除外することを特徴とする請求項2記載の人物追跡装置。
  5. 監視対象領域がエレベータの内部である場合、複数の撮影手段により撮影されたエレベータの内部の映像を解析して、上記エレベータのドアの開閉時刻を特定するドア開閉時刻特定手段を設け、3次元移動軌跡算出手段が複数の3次元移動軌跡の候補の中から最適な3次元移動軌跡を選択する際、上記ドア開閉時刻特定手段により特定されたドアの開閉時刻を参照して、軌跡始点の時刻及び軌跡終点の時刻がドアが閉じている時刻と一致する3次元移動軌跡の候補を除外することを特徴とする請求項3記載の人物追跡装置。
  6. ドア開閉時刻特定手段は、ドアが閉じている状態のエレベータ内のドア領域の画像を背景画像として登録する背景画像登録部と、上記背景画像登録部により登録されている背景画像と撮影手段により撮影されたドア領域の映像との差分を算出する背景差分部と、上記撮影手段により撮影されたドア領域の映像の変化からドアの移動方向を示す動きベクトルを計算するオプティカルフロー計算部と、上記背景差分部により算出された差分と上記オプティカルフロー計算部により計算された動きベクトルからドアの開閉状態を判別して、上記ドアの開閉時刻を特定するドア開閉時刻特定部と、上記撮影手段により撮影されたドア領域の映像を用いて、上記背景画像を更新する背景画像更新部とから構成されていることを特徴とする請求項4記載の人物追跡装置。
  7. ドア開閉時刻特定手段は、ドアが閉じている状態のエレベータ内のドア領域の画像を背景画像として登録する背景画像登録部と、上記背景画像登録部により登録されている背景画像と撮影手段により撮影されたドア領域の映像との差分を算出する背景差分部と、上記撮影手段により撮影されたドア領域の映像の変化からドアの移動方向を示す動きベクトルを計算するオプティカルフロー計算部と、上記背景差分部により算出された差分と上記オプティカルフロー計算部により計算された動きベクトルからドアの開閉状態を判別して、上記ドアの開閉時刻を特定するドア開閉時刻特定部と、上記撮影手段により撮影されたドア領域の映像を用いて、上記背景画像を更新する背景画像更新部とから構成されていることを特徴とする請求項5記載の人物追跡装置。
  8. エレベータの内部の映像を解析して、各時刻における上記エレベータの階床を特定する階床特定手段を設け、3次元移動軌跡算出手段が個々の人物の3次元移動軌跡と上記階床特定手段により特定された階床とを対応付けて、個々の人物の乗車階と降車階を示す人物移動履歴を算出することを特徴とする請求項1記載の人物追跡装置。
  9. 階床特定手段は、エレベータの階床を示すインジケータの画像をテンプレート画像として登録するテンプレート画像登録部と、上記テンプレート画像登録部により登録されているテンプレート画像と撮影手段により撮影されたエレベータ内のインジケータ領域の映像とのテンプレートマッチングを実施して、各時刻における上記エレベータの階床を特定するテンプレートマッチング部と、上記撮影手段により撮影されたインジケータ領域の映像を用いて、上記テンプレート画像を更新するテンプレート画像更新部とから構成されていることを特徴とする請求項8記載の人物追跡装置。
  10. 3次元移動軌跡算出手段により算出された人物移動履歴を表示する映像解析結果表示手段を設けたことを特徴とする請求項8記載の人物追跡装置。
  11. 3次元移動軌跡算出手段により算出された人物移動履歴を表示する映像解析結果表示手段を設けたことを特徴とする請求項9記載の人物追跡装置。
  12. 映像解析結果表示手段は、複数の撮影手段により撮影されたエレベータの内部の映像を表示する映像表示部と、3次元移動軌跡算出手段により算出された人物移動履歴を時系列的にグラフ表示する時系列情報表示部と、上記3次元移動軌跡算出手段により算出された人物移動履歴の統計を求め、上記人物移動履歴の統計結果を表示するサマリー表示部と、上記3次元移動軌跡算出手段により算出された人物移動履歴を参照して、エレベータの運行に関連する情報を表示する運行関連情報表示部と、上記3次元移動軌跡算出手段により算出された人物移動履歴をソートして表示するソートデータ表示部とから構成されていることを特徴とする請求項10記載の人物追跡装置。
  13. 映像解析結果表示手段は、複数の撮影手段により撮影されたエレベータの内部の映像を表示する映像表示部と、3次元移動軌跡算出手段により算出された人物移動履歴を時系列的にグラフ表示する時系列情報表示部と、上記3次元移動軌跡算出手段により算出された人物移動履歴の統計を求め、上記人物移動履歴の統計結果を表示するサマリー表示部と、上記3次元移動軌跡算出手段により算出された人物移動履歴を参照して、エレベータの運行に関連する情報を表示する運行関連情報表示部と、上記3次元移動軌跡算出手段により算出された人物移動履歴をソートして表示するソートデータ表示部とから構成されていることを特徴とする請求項11記載の人物追跡装置。
  14. カメラキャリブレーション部は、複数の撮影手段により撮影されたキャリブレーションパターンの映像と、上記複数の撮影手段のカメラパラメータとを用いて、監視対象領域内の基準点に対する上記複数の撮影手段の設置位置及び設置角度を算出し、上記複数の撮影手段の設置位置及び設置角度を軌跡ステレオ部に出力することを特徴とする請求項3記載の人物追跡装置。
  15. 人物検出部が個々の人物の各映像上の位置を算出する際、上記人物の確信度を算出し、2次元移動軌跡算出部が上記人物検出部により算出された確信度の累積値が所定の閾値以下であれば、当該人物の位置の追跡を終了することを特徴とする請求項3記載の人物追跡装置。
  16. 2次元移動軌跡算出部は、人物検出部が個々の人物の検出処理を実施して、当該人物を検出すれば、当該人物の検出結果に係るカウンタの値を上げる一方、当該人物を検出できなければ、当該人物の検出結果に係るカウンタの値を下げる処理を実施し、上記カウンタの値が所定の閾値以下であれば、当該人物の位置の追跡を終了することを特徴とする請求項3記載の人物追跡装置。
  17. 人物検出部は、映像補正部により歪みが補正された各映像に写っている個々の人物を検出する際、人物の検出結果の中で、人物の頭部サイズが最小矩形サイズより小さい検出結果と、人物の頭部サイズが最大矩形サイズより大きい検出結果を誤検出とみなして、人物の検出結果から除外することを特徴とする請求項3記載の人物追跡装置。
  18. 2次元移動軌跡算出部は、各映像における個々の人物の2次元移動軌跡を算出する際、人物検出部により算出された各映像上の位置を時間的に前方に追跡して2次元移動軌跡を算出するとともに、各映像上の位置を時間的に後方に追跡して2次元移動軌跡を算出することを特徴とする請求項3記載の人物追跡装置。
  19. 軌跡ステレオ部は、マッチング率が規定値以上の2次元移動軌跡の候補から、個々の人物の3次元移動軌跡を算出しても、上記3次元移動軌跡が監視対象領域に対する入退場条件を満足しない場合、上記3次元移動軌跡を破棄することを特徴とする請求項3記載の人物追跡装置。
  20. 軌跡ステレオ部は、2次元移動軌跡の候補がオーバーラップしている時間帯の人物の3次元位置を算出し、上記3次元位置から2次元移動軌跡の候補がオーバーラップしていない時間帯の人物の3次元位置を推定することで、個々の人物の3次元移動軌跡を算出することを特徴とする請求項3記載の人物追跡装置。
  21. 軌跡組み合わせ推定部は、複数の3次元移動軌跡の候補の中から最適な3次元移動軌跡を選択する際、軌跡始点及び軌跡終点が監視対象領域の入退場領域内に存在しない3次元移動軌跡の候補を除外して、上記監視対象領域への入場から退場に至るまでの3次元移動軌跡の候補を残すことを特徴とする請求項3記載の人物追跡装置。
  22. 軌跡組み合わせ推定部は、入場から退場に至るまでの3次元移動軌跡の候補の中から、監視対象領域内に存在している人物の人数、人物同士の位置関係及び軌跡ステレオ部におけるステレオマッチングの精度が反映されるコスト関数が最大になる3次元移動軌跡の候補の組み合わせを選択することを特徴とする請求項21記載の人物追跡装置。
  23. 人物位置算出手段は、複数の撮影手段により撮影されたキャリブレーションパターンの映像の歪み具合を解析して、上記複数の撮影手段のカメラパラメータを算出するカメラキャリブレーション部と、上記カメラキャリブレーション部により算出されたカメラパラメータを用いて、上記複数の撮影手段により撮影された監視対象領域の映像の歪みを補正する映像補正部と、上記映像補正部により歪みが補正された各映像に写っている個々の人物を検出し、個々の人物の各映像上の位置を算出する人物検出部とから構成され、
    2次元移動軌跡算出手段は、上記人物検出部により算出された各映像上の位置を追跡して、各映像における個々の人物の2次元移動軌跡を算出する2次元移動軌跡算出部から構成され、
    3次元移動軌跡算出手段は、上記2次元移動軌跡算出部により算出された2次元移動軌跡に対する分割処理及び連結処理を実施して2次元移動軌跡グラフを生成する2次元移動軌跡グラフ生成部と、上記2次元移動軌跡グラフ生成部により生成された2次元移動軌跡グラフを探索して複数の2次元移動軌跡の候補を算出し、上記監視対象領域内の基準点に対する上記複数の撮影手段の設置位置及び設置角度を考慮して、各映像における2次元移動軌跡の候補間のステレオマッチングを実施して、上記2次元移動軌跡の候補のマッチング率を算出し、上記マッチング率が規定値以上の2次元移動軌跡の候補から、個々の人物の3次元移動軌跡を算出する軌跡ステレオ部と、上記軌跡ステレオ部により算出された3次元移動軌跡に対する分割処理及び連結処理を実施して3次元移動軌跡グラフを生成する3次元移動軌跡グラフ生成部と、上記3次元移動軌跡グラフ生成部により生成された3次元移動軌跡グラフの頂点にラベリングを施して複数のラベリング候補を算出し、複数のラベリング候補の中から最適なラベリング候補を選択して、上記監視対象領域内に存在している人物の人数を推定する軌跡組み合わせ推定部とから構成されていることを特徴とする請求項2記載の人物追跡装置。
  24. 軌跡組み合わせ推定部は、複数のラベリング候補の中から、監視対象領域内に存在している人物の人数、人物同士の位置関係、軌跡ステレオ部におけるステレオマッチングの精度及び監視対象領域に対する入退場条件が反映されるコスト関数が最大になるラベリング候補を選択することを特徴とする請求項23記載の人物追跡装置。
  25. 3次元移動軌跡算出手段は、2次元移動軌跡算出部により算出された2次元移動軌跡に対する分割処理及び連結処理を実施して2次元移動軌跡グラフを生成する2次元移動軌跡グラフ生成部と、上記2次元移動軌跡グラフ生成部により生成された2次元移動軌跡グラフの頂点に対して確率的にラベル付けを実施する2次元移動軌跡ラベリング部と、上記2次元移動軌跡ラベリング部により生成された2次元移動軌跡の複数のラベリング候補に対して、監視対象領域内の基準点に対する複数の撮影手段の設置位置及び設置角度を考慮して、各映像における同一ラベルが付与された2次元移動軌跡の候補間のステレオマッチングを実施して、上記2次元移動軌跡の候補のマッチング率を算出し、上記マッチング率が規定値以上の2次元移動軌跡の候補から、個々の人物の3次元移動軌跡を算出する軌跡ステレオ部と、上記軌跡ステレオ部により生成された3次元移動軌跡の集合に対して人物数、人物同士の位置関係、2次元移動軌跡のステレオマッチング率、ステレオ立体視精度及び監視対称領域への入退場条件などを鑑みた3次元移動軌跡のコスト関数を評価し、最適な3次元移動軌跡を推定する3次元移動軌跡コスト計算部とから構成されていることを特徴とする請求項2記載の人物追跡装置。
  26. エレベータ外部に設置されたセンサが取得する情報からエレベータ外部の人物移動履歴を計測するフロア人物検出部と、エレベータの呼び出し履歴を計測するカゴ呼び計測部と、3次元移動軌跡算出手段により算出された個々の人物の3次元移動軌跡、上記フロア人物検出部により計測されたエレベータ外部の人物移動履歴及び上記カゴ呼び計測部により計測された呼び出し履歴からエレベータ群配車の最適化処理を実施すると共に、上記最適化処理に基づいたエレベータ群のシミュレーション交通流を算出する群管理最適化部とを備えたことを特徴とする請求項1記載の人物追跡装置。
  27. 個々の人物の3次元移動軌跡、エレベータ外部の人物移動履歴及び呼び出し履歴から成る実測人物移動履歴と、群管理最適化部が算出したシミュレーション交通流とを比較し、比較結果を表示する交通流可視化部を備えたことを特徴とする請求項26記載の人物追跡装置。
  28. 車椅子を検出する車椅子検出部を備え、群管理最適化部は、上記車椅子検出部の検出状態に応じてエレベータ群管理を実施することを特徴とする請求項26記載の人物追跡装置。
  29. 相互に異なる位置に設置されている複数の撮影手段により撮影された同一の監視対象領域の映像が与えられると、上記監視対象領域内に存在している個々の人物の各映像上の位置を算出する人物位置算出処理手順と、上記人物位置算出処理手順により算出された各映像上の位置を追跡して、各映像における個々の人物の2次元移動軌跡を算出する2次元移動軌跡算出処理手順と、上記2次元移動軌跡算出処理手順により算出された各映像における2次元移動軌跡間のステレオマッチングを実施して、上記2次元移動軌跡のマッチング率を算出し、上記マッチング率が規定値以上の2次元移動軌跡から、個々の人物の3次元移動軌跡を算出する3次元移動軌跡算出処理手順とをコンピュータに実行させるための人物追跡プログラム。
JP2011501473A 2009-02-24 2010-02-09 人物追跡装置及び人物追跡プログラム Active JP5230793B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011501473A JP5230793B2 (ja) 2009-02-24 2010-02-09 人物追跡装置及び人物追跡プログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2009040742 2009-02-24
JP2009040742 2009-02-24
PCT/JP2010/000777 WO2010098024A1 (ja) 2009-02-24 2010-02-09 人物追跡装置及び人物追跡プログラム
JP2011501473A JP5230793B2 (ja) 2009-02-24 2010-02-09 人物追跡装置及び人物追跡プログラム

Publications (2)

Publication Number Publication Date
JPWO2010098024A1 JPWO2010098024A1 (ja) 2012-08-30
JP5230793B2 true JP5230793B2 (ja) 2013-07-10

Family

ID=42665242

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011501473A Active JP5230793B2 (ja) 2009-02-24 2010-02-09 人物追跡装置及び人物追跡プログラム

Country Status (5)

Country Link
US (1) US20120020518A1 (ja)
JP (1) JP5230793B2 (ja)
CN (1) CN102334142A (ja)
TW (1) TW201118803A (ja)
WO (1) WO2010098024A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014015289A (ja) * 2012-07-06 2014-01-30 Toshiba Elevator Co Ltd エレベータの群管理制御システム

Families Citing this family (141)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5528151B2 (ja) * 2010-02-19 2014-06-25 パナソニック株式会社 対象物追跡装置、対象物追跡方法、および対象物追跡プログラム
JP5590915B2 (ja) * 2010-02-25 2014-09-17 三菱電機株式会社 戸開閉検出装置及び戸開閉検出方法
CN102200578B (zh) * 2010-03-25 2013-09-04 日电(中国)有限公司 数据关联设备和方法
US8670029B2 (en) * 2010-06-16 2014-03-11 Microsoft Corporation Depth camera illuminator with superluminescent light-emitting diode
KR101355974B1 (ko) * 2010-08-24 2014-01-29 한국전자통신연구원 복수의 객체를 추적하는 객체 추적 방법 및 장치
JP5758646B2 (ja) * 2011-01-28 2015-08-05 富士変速機株式会社 駐車場の人検出器及び立体駐車装置
US9251854B2 (en) * 2011-02-18 2016-02-02 Google Inc. Facial detection, recognition and bookmarking in videos
JP5726595B2 (ja) * 2011-03-30 2015-06-03 セコム株式会社 画像監視装置
US9552637B2 (en) 2011-05-09 2017-01-24 Catherine G. McVey Image analysis for determining characteristics of groups of individuals
US9355329B2 (en) * 2011-05-09 2016-05-31 Catherine G. McVey Image analysis for determining characteristics of pairs of individuals
WO2012154841A2 (en) 2011-05-09 2012-11-15 Mcvey Catherine Grace Image analysis for determining characteristics of animal and humans
CN102831615A (zh) * 2011-06-13 2012-12-19 索尼公司 对象监控方法和装置,以及监控系统操作方法
JP5767045B2 (ja) * 2011-07-22 2015-08-19 株式会社日本総合研究所 情報処理システム、制御装置、及びプログラム
JP5423740B2 (ja) * 2011-08-23 2014-02-19 日本電気株式会社 映像提供装置、映像利用装置、映像提供システム、映像提供方法、および、コンピュータ・プログラム
US20130101159A1 (en) * 2011-10-21 2013-04-25 Qualcomm Incorporated Image and video based pedestrian traffic estimation
CN102701056A (zh) * 2011-12-12 2012-10-03 广州都盛机电有限公司 一种动态图像识别控制方法、装置及系统
US10095954B1 (en) * 2012-01-17 2018-10-09 Verint Systems Ltd. Trajectory matching across disjointed video views
US9530060B2 (en) * 2012-01-17 2016-12-27 Avigilon Fortress Corporation System and method for building automation using video content analysis with depth sensing
JP5865729B2 (ja) * 2012-02-24 2016-02-17 東芝エレベータ株式会社 エレベータシステム
CN103034992B (zh) * 2012-05-21 2015-07-29 中国农业大学 蜜蜂运动轨迹的无标识图像检测方法及系统
JPWO2014050518A1 (ja) * 2012-09-28 2016-08-22 日本電気株式会社 情報処理装置、情報処理方法および情報処理プログラム
US10009579B2 (en) * 2012-11-21 2018-06-26 Pelco, Inc. Method and system for counting people using depth sensor
JP6033695B2 (ja) * 2013-01-28 2016-11-30 株式会社日立製作所 エレベータ監視装置及びエレベータ監視方法
FR3001598B1 (fr) * 2013-01-29 2015-01-30 Eco Compteur Procede de calibration d'un systeme de comptage video
US9639747B2 (en) * 2013-03-15 2017-05-02 Pelco, Inc. Online learning method for people detection and counting for retail stores
FR3004573B1 (fr) * 2013-04-11 2016-10-21 Commissariat Energie Atomique Dispositif et procede de suivi 3d video d'objets d'interet
US20140373074A1 (en) 2013-06-12 2014-12-18 Vivint, Inc. Set top box automation
TWI532620B (zh) * 2013-06-24 2016-05-11 Utechzone Co Ltd Vehicle occupancy number monitor and vehicle occupancy monitoring method and computer readable record media
JP6187811B2 (ja) * 2013-09-09 2017-08-30 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム
US11615460B1 (en) 2013-11-26 2023-03-28 Amazon Technologies, Inc. User path development
KR101557376B1 (ko) * 2014-02-24 2015-10-05 에스케이 텔레콤주식회사 사람 계수 방법 및 그를 위한 장치
US10068344B2 (en) 2014-03-05 2018-09-04 Smart Picture Technologies Inc. Method and system for 3D capture based on structure from motion with simplified pose detection
JP5834254B2 (ja) * 2014-04-11 2015-12-16 パナソニックIpマネジメント株式会社 人数計測装置、人数計測システムおよび人数計測方法
TWI537872B (zh) * 2014-04-21 2016-06-11 楊祖立 辨識二維影像產生三維資訊之方法
US9576371B2 (en) * 2014-04-25 2017-02-21 Xerox Corporation Busyness defection and notification method and system
CN105096406A (zh) * 2014-04-30 2015-11-25 开利公司 用于建筑能耗设备的视频分析系统和智能楼宇管理系统
JP6314712B2 (ja) * 2014-07-11 2018-04-25 オムロン株式会社 部屋情報推定装置、部屋情報推定方法、および空気調和装置
JP6210946B2 (ja) * 2014-07-29 2017-10-11 三菱電機ビルテクノサービス株式会社 エレベータかご内カメラの画角調整装置およびエレベータかご内カメラの画角調整方法
US10664705B2 (en) 2014-09-26 2020-05-26 Nec Corporation Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium
CN104331902B (zh) 2014-10-11 2018-10-16 深圳超多维科技有限公司 目标跟踪方法、跟踪装置和3d显示方法及显示装置
JP6428144B2 (ja) * 2014-10-17 2018-11-28 オムロン株式会社 エリア情報推定装置、エリア情報推定方法、および空気調和装置
JP2016108097A (ja) * 2014-12-08 2016-06-20 三菱電機株式会社 エレベーターシステム
JP6664150B2 (ja) * 2015-01-16 2020-03-13 能美防災株式会社 監視システム
KR101666959B1 (ko) * 2015-03-25 2016-10-18 ㈜베이다스 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리장치 및 그 방법
US11205270B1 (en) 2015-03-25 2021-12-21 Amazon Technologies, Inc. Collecting user pattern descriptors for use in tracking a movement of a user within a materials handling facility
US10679177B1 (en) 2015-03-25 2020-06-09 Amazon Technologies, Inc. Using depth sensing cameras positioned overhead to detect and track a movement of a user within a materials handling facility
US10586203B1 (en) * 2015-03-25 2020-03-10 Amazon Technologies, Inc. Segmenting a user pattern into descriptor regions for tracking and re-establishing tracking of a user within a materials handling facility
US10810539B1 (en) * 2015-03-25 2020-10-20 Amazon Technologies, Inc. Re-establishing tracking of a user within a materials handling facility
CN112850406A (zh) 2015-04-03 2021-05-28 奥的斯电梯公司 用于乘客运输的通行列表产生
US10853757B1 (en) 2015-04-06 2020-12-01 Position Imaging, Inc. Video for real-time confirmation in package tracking systems
US11416805B1 (en) 2015-04-06 2022-08-16 Position Imaging, Inc. Light-based guidance for package tracking systems
US11501244B1 (en) 2015-04-06 2022-11-15 Position Imaging, Inc. Package tracking systems and methods
US10148918B1 (en) 2015-04-06 2018-12-04 Position Imaging, Inc. Modular shelving systems for package tracking
US10083522B2 (en) 2015-06-19 2018-09-25 Smart Picture Technologies, Inc. Image based measurement system
US10578713B2 (en) * 2015-06-24 2020-03-03 Panasonic Corporation Radar axis displacement amount calculation device and radar axis displacement calculation method
US10867376B2 (en) * 2015-08-28 2020-12-15 Nec Corporation Analysis apparatus, analysis method, and storage medium
CN105222774B (zh) * 2015-10-22 2019-04-16 Oppo广东移动通信有限公司 一种室内定位方法及用户终端
WO2017071969A1 (en) 2015-10-30 2017-05-04 Philips Lighting Holding B.V. Commissioning of a sensor system
US10740907B2 (en) * 2015-11-13 2020-08-11 Panasonic Intellectual Property Management Co., Ltd. Moving body tracking method, moving body tracking device, and program
JP6700752B2 (ja) * 2015-12-01 2020-05-27 キヤノン株式会社 位置検出装置、位置検出方法及びプログラム
DE102016201741A1 (de) * 2016-02-04 2017-08-10 Hella Kgaa Hueck & Co. Verfahren zur Höhenerkennung
US11001473B2 (en) * 2016-02-11 2021-05-11 Otis Elevator Company Traffic analysis system and method
KR102496618B1 (ko) * 2016-03-16 2023-02-06 삼성전자주식회사 컨텐트를 인식하는 방법 및 장치
TWI636403B (zh) 2016-03-24 2018-09-21 晶睿通訊股份有限公司 人流計數之驗證方法、系統及電腦可讀取儲存媒體
JP2017174273A (ja) * 2016-03-25 2017-09-28 富士ゼロックス株式会社 動線生成装置及びプログラム
TWI608448B (zh) * 2016-03-25 2017-12-11 晶睿通訊股份有限公司 計數流道設定方法、具有計數流道設定功能的影像監控系統、及其相關的電腦可讀取媒體
US11731856B2 (en) * 2016-06-08 2023-08-22 Mitsubishi Electric Corporation Monitoring apparatus
JP6390671B2 (ja) * 2016-07-29 2018-09-19 オムロン株式会社 画像処理装置および画像処理方法
TWI642302B (zh) * 2016-08-02 2018-11-21 神準科技股份有限公司 自動設定方法與人流計數方法
CN109716256A (zh) * 2016-08-06 2019-05-03 深圳市大疆创新科技有限公司 用于跟踪目标的系统和方法
WO2018041336A1 (en) * 2016-08-30 2018-03-08 Kone Corporation Peak traffic detection according to passenger traffic intensity
US11436553B2 (en) 2016-09-08 2022-09-06 Position Imaging, Inc. System and method of object tracking using weight confirmation
TWI584227B (zh) * 2016-09-30 2017-05-21 晶睿通訊股份有限公司 影像處理方法、影像處理裝置及影像處理系統
US11327467B2 (en) * 2016-11-29 2022-05-10 Sony Corporation Information processing device and information processing method
US10634506B2 (en) 2016-12-12 2020-04-28 Position Imaging, Inc. System and method of personalized navigation inside a business enterprise
US10634503B2 (en) * 2016-12-12 2020-04-28 Position Imaging, Inc. System and method of personalized navigation inside a business enterprise
US11120392B2 (en) 2017-01-06 2021-09-14 Position Imaging, Inc. System and method of calibrating a directional light source relative to a camera's field of view
JP6469139B2 (ja) * 2017-01-17 2019-02-13 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP6941966B2 (ja) * 2017-04-19 2021-09-29 株式会社日立製作所 人物認証装置
CN107146310A (zh) * 2017-05-26 2017-09-08 林海 一种楼梯间安全提示的方法
JP6910208B2 (ja) * 2017-05-30 2021-07-28 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
CN107392979B (zh) * 2017-06-29 2019-10-18 天津大学 时间序列的二维可视状态构图及定量分析指标方法
GB2564135A (en) * 2017-07-04 2019-01-09 Xim Ltd A method, apparatus and program
US10304254B2 (en) 2017-08-08 2019-05-28 Smart Picture Technologies, Inc. Method for measuring and modeling spaces using markerless augmented reality
CN109427074A (zh) 2017-08-31 2019-03-05 深圳富泰宏精密工业有限公司 影像分析系统及方法
JP6690622B2 (ja) * 2017-09-26 2020-04-28 カシオ計算機株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP7029930B2 (ja) * 2017-10-30 2022-03-04 株式会社日立製作所 ビル内人流推定システムおよび推定方法
US11328513B1 (en) 2017-11-07 2022-05-10 Amazon Technologies, Inc. Agent re-verification and resolution using imaging
US10607365B2 (en) * 2017-11-08 2020-03-31 International Business Machines Corporation Presenting an image indicating a position for a person in a location the person is waiting to enter
US10706561B2 (en) * 2017-12-21 2020-07-07 612 Authentic Media Systems and methods to track objects in video
CN109974667B (zh) * 2017-12-27 2021-07-23 宁波方太厨具有限公司 一种室内人体定位方法
TWI636428B (zh) * 2017-12-29 2018-09-21 晶睿通訊股份有限公司 影像分析方法、攝影機及其攝影系統
DE102018201834A1 (de) * 2018-02-06 2019-08-08 Siemens Aktiengesellschaft Verfahren zum Kalibrieren einer Erfassungseinrichtung, Zählverfahren und Erfassungseinrichtung für ein Personenbeförderungsfahrzeug
JP6916130B2 (ja) * 2018-03-02 2021-08-11 株式会社日立製作所 話者推定方法および話者推定装置
JP7013313B2 (ja) * 2018-04-16 2022-01-31 Kddi株式会社 動線管理装置、動線管理方法及び動線管理プログラム
TWI779029B (zh) * 2018-05-04 2022-10-01 大猩猩科技股份有限公司 一種分佈式的物件追蹤系統
US20190382235A1 (en) * 2018-06-15 2019-12-19 Otis Elevator Company Elevator scheduling systems and methods of operation
CN110626891B (zh) 2018-06-25 2023-09-05 奥的斯电梯公司 用于改进的电梯调度的系统和方法
JP2020009382A (ja) * 2018-07-12 2020-01-16 株式会社チャオ 動線分析装置、動線分析プログラムおよび動線分析方法
US11708240B2 (en) * 2018-07-25 2023-07-25 Otis Elevator Company Automatic method of detecting visually impaired, pregnant, or disabled elevator passenger(s)
EP3604194A1 (en) * 2018-08-01 2020-02-05 Otis Elevator Company Tracking service mechanic status during entrapment
CN113424197A (zh) 2018-09-21 2021-09-21 定位成像有限公司 机器学习辅助自改进对象识别系统和方法
TWI686748B (zh) * 2018-12-07 2020-03-01 國立交通大學 人流分析系統及人流分析方法
US11386306B1 (en) 2018-12-13 2022-07-12 Amazon Technologies, Inc. Re-identification of agents using image analysis and machine learning
EP3667557B1 (en) * 2018-12-13 2021-06-16 Axis AB Method and device for tracking an object
CN109368462A (zh) * 2018-12-17 2019-02-22 石家庄爱赛科技有限公司 立体视觉电梯门保护装置及保护方法
WO2020146861A1 (en) 2019-01-11 2020-07-16 Position Imaging, Inc. Computer-vision-based object tracking and guidance module
JP7330708B2 (ja) * 2019-01-28 2023-08-22 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7149878B2 (ja) * 2019-02-28 2022-10-07 三菱電機株式会社 設備監視システム、設備監視方法及びプログラム
CN110095994B (zh) * 2019-03-05 2023-01-20 永大电梯设备(中国)有限公司 一种电梯乘场交通流发生器和基于该电梯乘场交通流发生器自动生成客流数据的方法
JP6781291B2 (ja) * 2019-03-20 2020-11-04 東芝エレベータ株式会社 画像処理装置
CN110040592B (zh) * 2019-04-15 2020-11-20 福建省星云大数据应用服务有限公司 基于双路监控视频分析的电梯轿厢载客数检测方法及系统
AU2020274025B2 (en) 2019-05-10 2022-10-20 Smart Picture Technologies, Inc. Methods and systems for measuring and modeling spaces using markerless photo-based augmented reality process
US11373318B1 (en) 2019-05-14 2022-06-28 Vulcan Inc. Impact detection
CN110619662B (zh) * 2019-05-23 2023-01-03 深圳大学 一种基于单目视觉的多行人目标空间连续定位方法及系统
CN110519324B (zh) * 2019-06-06 2020-08-25 特斯联(北京)科技有限公司 一种基于网络轨迹大数据的人物追踪方法与系统
WO2020261560A1 (ja) * 2019-06-28 2020-12-30 三菱電機株式会社 ビル管理システム
US11176691B2 (en) 2019-07-01 2021-11-16 Sas Institute Inc. Real-time spatial and group monitoring and optimization
CN112507757A (zh) * 2019-08-26 2021-03-16 西门子(中国)有限公司 车辆行为检测方法、装置和计算机可读介质
US11176357B2 (en) * 2019-10-30 2021-11-16 Tascent, Inc. Fast face image capture system
CN112758777B (zh) * 2019-11-01 2023-08-18 富泰华工业(深圳)有限公司 智能电梯控制方法及设备
TW202119171A (zh) * 2019-11-13 2021-05-16 新世代機器人暨人工智慧股份有限公司 機器人設備與電梯設備的互動控制方法
US20210158057A1 (en) * 2019-11-26 2021-05-27 Scanalytics, Inc. Path analytics of people in a physical space using smart floor tiles
JP2021093037A (ja) * 2019-12-11 2021-06-17 株式会社東芝 算出システム、算出方法、プログラム、及び記憶媒体
US20230112675A1 (en) * 2020-03-27 2023-04-13 Nec Corporation Person flow prediction system, person flow prediction method, and programrecording medium
US11645766B2 (en) * 2020-05-04 2023-05-09 International Business Machines Corporation Dynamic sampling for object recognition
DE102020205699A1 (de) * 2020-05-06 2021-11-11 Robert Bosch Gesellschaft mit beschränkter Haftung Überwachungsanlage, Verfahren, Computerprogramm, Speichermedium und Überwachungseinrichtung
JP7286586B2 (ja) * 2020-05-14 2023-06-05 株式会社日立エルジーデータストレージ 測距システム及び測距センサのキャリブレーション方法
CN112001941B (zh) * 2020-06-05 2023-11-03 成都睿畜电子科技有限公司 基于计算机视觉的仔猪监管方法及系统
JP7374855B2 (ja) 2020-06-18 2023-11-07 株式会社東芝 人物識別装置、人物識別システム、人物識別方法、及びプログラム
CN111476616B (zh) * 2020-06-24 2020-10-30 腾讯科技(深圳)有限公司 轨迹确定方法、装置、电子设备及计算机存储介质
JP7155201B2 (ja) * 2020-07-09 2022-10-18 東芝エレベータ株式会社 エレベータの利用者検知システム
JP7286027B2 (ja) * 2020-08-04 2023-06-02 三菱電機株式会社 移動体追跡システム、移動体追跡装置、プログラム及び移動体追跡方法
JP7437285B2 (ja) 2020-10-27 2024-02-22 株式会社日立製作所 エレベーター待ち時間推定装置及びエレベーター待ち時間推定方法
CN112465860A (zh) * 2020-11-17 2021-03-09 浙江新再灵科技股份有限公司 一种用于门的运行状态检查方法及检查设备
CN112511864B (zh) * 2020-11-23 2023-02-17 北京爱笔科技有限公司 轨迹展示方法、装置、计算机设备和存储介质
CN116670058A (zh) * 2021-01-07 2023-08-29 通力股份公司 用于监控电梯的操作状态的系统、方法和计算机程序
CN112929699B (zh) * 2021-01-27 2023-06-23 广州虎牙科技有限公司 视频处理方法、装置、电子设备和可读存储介质
WO2022172643A1 (ja) * 2021-02-09 2022-08-18 パナソニックIpマネジメント株式会社 推定システム、人監視システム、推定方法及びプログラム
CN114348809B (zh) * 2021-12-06 2023-12-19 日立楼宇技术(广州)有限公司 一种电梯召梯方法、系统、设备及介质
TWI815495B (zh) * 2022-06-06 2023-09-11 仁寶電腦工業股份有限公司 動態影像之處理方法、電子裝置及其連接之終端裝置與行動通訊裝置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08331607A (ja) * 1995-03-29 1996-12-13 Sanyo Electric Co Ltd 三次元表示画像生成方法
JPH1166319A (ja) * 1997-08-21 1999-03-09 Omron Corp 移動体検出方法及び装置並びに移動体認識方法及び装置並びに人間検出方法及び装置
JP2006168930A (ja) * 2004-12-16 2006-06-29 Toshiba Elevator Co Ltd エレベータのセキュリティシステム及びエレベータドアの運転方法
JP2007115236A (ja) * 2005-09-22 2007-05-10 Nara Institute Of Science & Technology 移動物体計測装置、移動物体計測システム、および移動物体計測方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6384859B1 (en) * 1995-03-29 2002-05-07 Sanyo Electric Co., Ltd. Methods for creating an image for a three-dimensional display, for calculating depth information and for image processing using the depth information
US20050146605A1 (en) * 2000-10-24 2005-07-07 Lipton Alan J. Video surveillance system employing video primitives
US7394916B2 (en) * 2003-02-10 2008-07-01 Activeye, Inc. Linking tracked objects that undergo temporary occlusion
CN1839409A (zh) * 2003-08-21 2006-09-27 松下电器产业株式会社 人物检测装置和人物检测方法
US7136507B2 (en) * 2003-11-17 2006-11-14 Vidient Systems, Inc. Video surveillance system with rule-based reasoning and multiple-hypothesis scoring
US7558762B2 (en) * 2004-08-14 2009-07-07 Hrl Laboratories, Llc Multi-view cognitive swarm for object recognition and 3D tracking
EP1796039B1 (en) * 2005-12-08 2018-11-28 Topcon Corporation Device and method for image processing
US20080294588A1 (en) * 2007-05-22 2008-11-27 Stephen Jeffrey Morris Event capture, cross device event correlation, and responsive actions
CN101141633B (zh) * 2007-08-28 2011-01-05 湖南大学 一种复杂场景中的运动目标检测与跟踪方法
US8098891B2 (en) * 2007-11-29 2012-01-17 Nec Laboratories America, Inc. Efficient multi-hypothesis multi-human 3D tracking in crowded scenes
KR101221449B1 (ko) * 2009-03-27 2013-01-11 한국전자통신연구원 카메라간 영상 보정 장치 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08331607A (ja) * 1995-03-29 1996-12-13 Sanyo Electric Co Ltd 三次元表示画像生成方法
JPH1166319A (ja) * 1997-08-21 1999-03-09 Omron Corp 移動体検出方法及び装置並びに移動体認識方法及び装置並びに人間検出方法及び装置
JP2006168930A (ja) * 2004-12-16 2006-06-29 Toshiba Elevator Co Ltd エレベータのセキュリティシステム及びエレベータドアの運転方法
JP2007115236A (ja) * 2005-09-22 2007-05-10 Nara Institute Of Science & Technology 移動物体計測装置、移動物体計測システム、および移動物体計測方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014015289A (ja) * 2012-07-06 2014-01-30 Toshiba Elevator Co Ltd エレベータの群管理制御システム

Also Published As

Publication number Publication date
US20120020518A1 (en) 2012-01-26
TW201118803A (en) 2011-06-01
CN102334142A (zh) 2012-01-25
JPWO2010098024A1 (ja) 2012-08-30
WO2010098024A1 (ja) 2010-09-02

Similar Documents

Publication Publication Date Title
JP5230793B2 (ja) 人物追跡装置及び人物追跡プログラム
Ge et al. Vision-based analysis of small groups in pedestrian crowds
CN105844234B (zh) 一种基于头肩检测的人数统计的方法及设备
US10776627B2 (en) Human flow analysis method, human flow analysis apparatus, and human flow analysis system
JP5603403B2 (ja) 対象物計数方法、対象物計数装置および対象物計数プログラム
CA3094424C (en) Safety monitoring and early-warning method for man-machine interaction behavior of underground conveyor belt operator
Luber et al. People tracking in rgb-d data with on-line boosted target models
KR100831122B1 (ko) 얼굴 인증 장치, 얼굴 인증 방법, 및 출입 관리 장치
Ge et al. Automatically detecting the small group structure of a crowd
JP5102410B2 (ja) 移動体検出装置および移動体検出方法
JP4852765B2 (ja) 広域分散カメラ間の連結関係推定法および連結関係推定プログラム
US8116534B2 (en) Face recognition apparatus and face recognition method
US10552687B2 (en) Visual monitoring of queues using auxillary devices
US20150294482A1 (en) System And Process For Detecting, Tracking And Counting Human Objects Of Interest
Ryan et al. Crowd counting using group tracking and local features
Xiao et al. Vision-based method for tracking workers by integrating deep learning instance segmentation in off-site construction
JP2009143722A (ja) 人物追跡装置、人物追跡方法及び人物追跡プログラム
JP2016099941A (ja) オブジェクト位置推定システム、及びそのプログラム
JP6779410B2 (ja) 映像解析装置、映像解析方法、及びプログラム
JP7359621B2 (ja) エリア設定支援装置、エリア設定支援方法及びエリア設定支援プログラム
Zaidenberg et al. Group interaction and group tracking for video-surveillance in underground railway stations
Guan et al. Multi-person tracking-by-detection with local particle filtering and global occlusion handling
JP2018067755A (ja) 検出データ管理装置
JP2015210823A (ja) 変形可能部分モデルを使用した車両追跡における部分的隠蔽処理方法及びシステム
JP2003109001A (ja) 人物検出システム、及び人物検出プログラム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130319

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160329

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5230793

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250