JP5453429B2 - 監視カメラ端末 - Google Patents

監視カメラ端末 Download PDF

Info

Publication number
JP5453429B2
JP5453429B2 JP2011523577A JP2011523577A JP5453429B2 JP 5453429 B2 JP5453429 B2 JP 5453429B2 JP 2011523577 A JP2011523577 A JP 2011523577A JP 2011523577 A JP2011523577 A JP 2011523577A JP 5453429 B2 JP5453429 B2 JP 5453429B2
Authority
JP
Japan
Prior art keywords
terminal
counterpart
object map
map
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011523577A
Other languages
English (en)
Other versions
JPWO2011010490A1 (ja
Inventor
丈嗣 内藤
俊介 上條
嘉一 藤村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
University of Tokyo NUC
Original Assignee
Omron Corp
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, University of Tokyo NUC filed Critical Omron Corp
Priority to JP2011523577A priority Critical patent/JP5453429B2/ja
Publication of JPWO2011010490A1 publication Critical patent/JPWO2011010490A1/ja
Application granted granted Critical
Publication of JP5453429B2 publication Critical patent/JP5453429B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19641Multiple cameras having overlapping views on a single scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Burglar Alarm Systems (AREA)

Description

この発明は、監視対象エリアを撮像したフレーム画像を処理し、特異な行動をとった不審者等を追跡する監視カメラ端末に関する。
従来、駅、ショッピングセンタ、繁華街等の不特定多数の人が集まる場所では、複数の監視カメラ端末を用いて、特異な行動をとった不審者等(以下、単に不審者と言う。)の検出や、検出した不審者の追跡を行っている。複数の監視カメラ端末で不審者を追跡する場合、この不審者の移動に応じて、追跡する監視カメラ端末を切り替える必要がある。また、不審者を追跡する監視カメラ端末を切り替えるときには、追跡を引き継ぐ監視カメラ端末が、その不審者を同定する必要がある。この不審者の同定に失敗すると、これまで追跡していた不審者ではない別の人を追跡することになる。すなわち、検出した不審者を見失い、追跡に失敗する。
この不審者の同定精度を向上させるために、不審者を追跡している一方の監視カメラ端末が、不審者の検出に使用したテンプレート情報を、この不審者の追跡を引き継ぎ他方の監視カメラ端末に通知し、この他方の監視カメラ端末が通知されたテンプレート情報を用いて不審者を同定することが提案されている(特許文献1参照)。
また、テンプレート情報だけではなく、不審者の検出に利用した特徴情報を他方の監視カメラ端末に通知することも提案されている(特許文献2参照)。この特徴情報は、例えば、画像から切り出した不審者の画像データ、形状、色、大きさなどにより不審者を特定する情報、あるいは目、鼻、口等の顔部品の形状や、位置等である。
特許第3814779号公報 特許第3999561号公報
しかしながら、不審者を追跡している一方の監視カメラ端末と、この不審者の追跡を引き継ぐ他方の監視カメラ端末とでは、被写体である不審者に対するアングルが異なる。したがって、一方の監視カメラ端末で撮像したフレーム画像における不審者と、他方の監視カメラ端末で撮像したフレーム画像における不審者とでは、不審者の外形や、顔部品の形状や位置等に違いが生じる。このため、不審者の検出に使用したテンプレート情報や特徴情報を、一方の監視カメラ端末から他方の監視カメラ端末に通知しても、他方の監視カメラ端末でアングルの違いを考慮したマッチングが行えなければ、不審者の同定精度を確保することができない。
被写体である不審者の3次元情報を用いれば、上述のアングルの違いを考慮したマッチングが行える。しかし、不審者の3次元情報を得るには、ステレオカメラを用いなければならない。このため、個々の監視カメラ端末のコストがアップし、これにともない監視システム全体のコストもアップする。
この発明の目的は、他の監視カメラ端末との間で、追跡しているオブジェクトの同定精度を十分に確保し、且つ、コストアップも十分に抑えられる監視カメラ端末を提供することにある。
この発明の監視カメラ端末は、上記目的を達するために、以下のように構成している。
オブジェクト抽出手段が、撮像手段が撮像した自端末に割り当てられている監視対象エリアのフレーム画像を処理し、撮像されているオブジェクトを抽出する。ここで言うオブジェクトとは、人や車両等の物体である。ID付与手段は、オブジェクト抽出手段が抽出したオブジェクトにIDを付与する。このIDは、オブジェクトを識別できるユニークな値であればよい。また、オブジェクトマップ作成手段が、オブジェクト抽出手段が抽出したオブジェクト毎に、そのオブジェクトに付与されているIDと、フレーム画像上における座標位置と、を対応付けるとともに、作成時刻にかかるタイムスタンプを付加したオブジェクトマップを作成する。このタイムスタンプは、例えば、今回のオブジェクトマップの作成に用いたフレーム画像の撮像時刻や、オブジェクトマップ作成完了時の時刻等を示すものであればよい。そして、追跡手段が、オブジェクトマップ作成手段が作成したオブジェクトマップを用いて、自端末に割り当てられている監視対象エリア内に位置するオブジェクトを追跡する。
また、オブジェクトマップ取得手段が、割り当てられている監視対象エリアが、自端末の監視対象エリアの一部と重複している相手側端末とのデータ通信により、この相手側端末が作成した相手側オブジェクトマップを取得する。また、座標変換情報記憶手段が、自端末のフレーム画像の座標位置と、前記相手側端末のフレーム画像の座標位置とにおける、相対的な位置関係を示す座標変換情報を記憶する。マッチング手段は、オブジェクトマップ作成手段が作成した自端末のオブジェクトマップと、相手側オブジェクトマップ取得手段が取得した相手側オブジェクトマップと、をその作成時刻にかかるタイムスタンプを用いて対応付ける。同定手段は、マッチング手段によって対応付けられた、オブジェクトマップ作成手段が作成した自端末のオブジェクトマップと、相手側オブジェクトマップ取得手段が取得した相手側オブジェクトマップと、において、自端末の監視対象エリアと、相手側端末の監視対象エリアとが重複している重複エリア内に位置する自端末が抽出したオブジェクトと、相手側端末が抽出したオブジェクトとを同定する。この同定手段は、座標変換情報記憶手段が記憶している座標変換情報を用いて、自端末が抽出したオブジェクトの位置、および相手側端末が抽出したオブジェクトの位置を共通の座標系の位置に変換する。同定手段は、重複エリアに位置するオブジェクトを、この共通の座標系における、自端末が抽出したオブジェクトと、相手側端末が抽出したオブジェクトとの距離によって同定する。
この共通の座標系は、どのような座標系であってもよいが、どちらか一方の監視カメラ端末(自端末、または相手側端末)の座標系とするのが好ましい。このようにすれば、一方のオブジェクトマップに登録されているオブジェクトについてのみ、座標変換を行えばよいので、この座標変換にかかる処理負荷が抑えられる。
通常、自端末が抽出したオブジェクトと、相手側端末が抽出したオブジェクトと、が同一のオブジェクトであっても、共通の座標系での位置は、アングルの違いや、検出精度等の要因により若干の誤差はあるものの略一致する。したがって、自端末が抽出したオブジェクトと、相手側端末が抽出したオブジェクトとは、その位置間の距離によって、精度よく同定できる。
同定手段は、例えば、重複エリアに位置する自端末が抽出したオブジェクトと、相手側端末が抽出したオブジェクトと、を1対1で対応付けた組み合せの中で、対応付けたオブジェクト間の距離(共通の座標系での位置間の距離)の総和が最小である組み合せにより、重複エリアに位置するオブジェクトを同定する。
また、共通の座標系を2種類とし、各種類での総和が最小である組み合せにより、重複エリアに位置するオブジェクトを同定してもよい。この場合、2種類の共通の座標系は、自端末のフレーム画像の座標系と、相手側端末のフレーム画像の座標系と、の2つにするのが好ましい。
また、オブジェクト抽出手段が抽出したオブジェクト毎に、そのオブジェクトの位置については、当該オブジェクトの接地面上の座標にすればよい。
また、マッチング手段は、オブジェクトマップ作成手段が作成した自端末のオブジェクトマップと、相手側オブジェクトマップ取得手段が取得した相手側オブジェクトマップと、をその作成時刻にかかるタイムスタンプ、および重複エリアに位置するオブジェクト間の距離を用いて対応付ける構成としてもよい。これにより、同定精度の一層の向上が図れる。
そして、第1の発明は、上述の同定手段が、マッチング手段によって対応付けられた複数組のオブジェクトマップを用いて、前記重複エリアに位置するオブジェクトを同定する構成であり、且つ、自端末が抽出したオブジェクトと、相手側端末が抽出したオブジェクトとの距離の算出において、マッチング手段が自端末のオブジェクトマップに対応付けた相手側オブジェクトマップに、自端末の他のオブジェクトマップも対応付けられている組については、重複エリアに位置するオブジェクト間の距離を算出する際に、予め定めたペナルティ距離を加算する構成である。これにより、オブジェクトの同定精度のさらなる向上が図れる。
また、第2の発明は、マッチング手段によって対応付けられた、自端末のオブジェクトマップと、相手側端末のオブジェクトマップとに付加されているタイムスタンプを用いて、自端末が計時している時刻を修正する時刻合せ手段を備える構成である。これにより、自端末と相手側端末との間で、計時している時刻を同期させることができる。
この発明によれば、検出した不審者等の同定精度を十分に確保でき、且つ、コストアップも十分に抑えられる。
監視システムの構成を示す概略図である。 監視カメラ端末の主要部の構成を示すブロック図である。 隣接する2つの監視カメラ端末の撮像エリアを示す図である。 監視カメラ端末の追跡処理を示すフローチャートである。 オブジェクトマップを説明する図である。 ID確定処理を示すフローチャートである。 足元位置を決定する処理を示すフローチャートである。 別のID確定処理を示すフローチャートである。 オブジェクトマップの対応付を示す図である。 時刻同期処理を示すフローチャートである。
以下、この発明の実施形態である監視カメラ端末を用いた監視システムについて説明する。
図1は、この監視システムの構成を示す概略図である。この監視システムは、複数の監視カメラ端末1(1A〜1H)を有するネットワークシステムである。この監視システムは、例えば、アドホック型のネットワークシステムである。監視カメラ端末1間では、直接、または他の監視カメラ端末1を介してデータ通信が行える。この監視カメラ端末1間のデータ通信は、無線であってもよいし、有線であってもよい。
なお、図1は、8台の監視カメラ端末1A〜1Hを有する監視システムの例であるが、本システムを構成する監視カメラ端末1の台数は、この台数に制限されない。また、図1に示している監視カメラ端末1間を結ぶ線はリンクである。また、以下の説明では、特に監視カメラ端末1A〜1Hを区別しない場合、監視カメラ端末1と示す。
図2は、監視カメラ端末の主要部の構成を示す図である。監視カメラ端末1は、制御部11と、撮像部12と、画像処理部13と、記憶部14と、タイマ15と、通信部16と、を備えている。制御部11は、監視カメラ端末1本体各部の動作を制御する。撮像部12は、自端末に割り当てられている監視対象エリアを撮像する。言い換えれば、撮像部12の撮像エリアが自端末に割り当てられている監視対象エリアである。撮像部12は、1秒間に5フレーム〜10フレーム程度の撮像画像(フレーム画像)を出力する。
画像処理部13は、撮像部12が撮像した監視対象エリアのフレーム画像を処理し、撮像されている人物(オブジェクト)を抽出する。また、時間的に連続する複数のフレーム画像により、監視対象エリア内を移動している人物を追跡する。画像処理部13は、時空間MRF(Markov Random Field)モデルを利用して、抽出した人物の抽出や追跡を行う。時空間MRFモデルは、公知のように、時空間画像の時間軸方向の相関関係に着目し、MRFモデルを時空間モデルとして拡張したものである。この時空間MRFモデルは、処理対象であるフレーム画像に対して数ピクセル×数ピクセル(例えば、8ピクセル×8ピクセル)のブロックで領域分割を行い、時間的に連続するフレーム画像間でのブロック毎の動きベクトルを参照した時間軸方向の相関を定義するモデルである。
記憶部14は、本体を動作させる動作プログラムや、動作時に利用する設定データ、動作時に発生した処理データ等を記憶する。タイマ15は、現在時刻を計時する。通信部16は、他の監視カメラ端末1との間におけるデータ通信を制御する。
この監視システムは、特異な行動をとった不審者等の人物を追跡するシステムであり、この人物の移動に応じて、追跡する監視カメラ端末1を切り替える。これにより、不審者の追跡が広域的に行える。図3は、隣接する2つの監視カメラ端末1A、1Bの撮像エリア(監視対象エリア)を示す図である。隣接する2つの監視カメラ端末1A、1Bは、撮像エリア(監視対象エリア)の一部が重複している。この重複している撮像エリアを、ここでは重複エリアと言う。図3では、隣接する2つの監視カメラ端末1A、1Bの監視対象エリアを例示しているが、隣接する他の2つの監視カメラ端末1の組み合せにおいても、監視対象エリアの一部が重複している。監視カメラ端末1は、隣接する他の監視カメラ端末1との間で、重複エリアに位置する人物X、Yを、1対1で対応付ける同定処理を行う。図3では、人物X、Yは、監視カメラ端末1A、1Bの重複エリア内に位置し、人物Zは、監視カメラ端末1Aの監視対象エリア内で、且つ監視カメラ端末1Bとの重複エリア外に位置している。
なお、ここでは、監視対象エリアの一部が重複している2つの監視カメラ端末1を、隣接している監視カメラ端末1と呼んでいる。また、隣接している監視カメラ端末1は、直接(他の監視カメラ端末1を介さず)データ通信が行える。
また、監視カメラ端末1は、隣接する他の監視カメラ端末1が1台であるとは限らない。言い換えれば、隣接する監視カメラ端末1が2台や3台である監視カメラ端末1もある。ただし、重複エリアは、隣接する他の監視カメラ端末1毎に異なる。
各監視カメラ端末1は、隣接する監視カメラ端末1毎に、自端末の撮像部12が撮像したフレーム画像の2次元座標系と、隣接する相手側監視カメラ端末1の撮像部12が撮像したフレーム画像の2次元座標系と、の相対的な位置関係を示す座標変換情報を記憶部14に記憶している。この座標変換情報は、自端末の撮像部12が撮像したフレーム画像の2次元座標系と、隣接する相手側監視カメラ端末1の撮像部12が撮像したフレーム画像の2次元座標系と、を共通の座標系に射影変換する情報である。ここでは、この座標変換情報として、自端末の撮像部12が撮像したフレーム画像の2次元座標系を、隣接する相手側監視カメラ端末1の撮像部12が撮像したフレーム画像の2次元座標系に射影変換する第1の座標変換パラメータと、反対に、隣接する相手側監視カメラ端末1の撮像部12が撮像したフレーム画像の2次元座標系を、自端末の撮像部12が撮像したフレーム画像の2次元座標系に射影変換する第2の座標変換パラメータと、を記憶部14に記憶している。
なお、座標変換情報は、第1の座標変換パラメータ、または第2の座標変換パラメータのどちらか一方のみであってもよい。
ここで、第1の座標変換パラメータ、および第2の座標変換パラメータについて説明しておく。この第1の座標変換パラメータ、および第2の座標変換パラメータは、監視カメラ端末1の設置時に、実際に撮像したフレーム画像を用いて算出した値である。
まず、監視カメラ端末1の設置完了時に、テープ等を用いて、隣接する相手側監視カメラ端末1との重複エリア内の床面に4点をマーキングする。そして、自端末の撮像部12で撮像したフレーム画像を処理し、このフレーム画像上におけるマーキングした4点の座標位置(x,y)を検出する。同様に、隣接する相手側監視カメラ端末1が撮像部12で撮像したフレーム画像上におけるマーキングした4点の座標位置(X,Y)を、この相手側端末から取得する。そして、マーキングした点毎に、その座標位置を、
X=(a1x+b1y+c1)/(a0x+b0y+1)
Y=(a2x+b2y+c2)/(a0x+b0y+1)
に代入し、8元連立方程式を得る。この8元連立方程式の解である、a0,b0,a1,b1,c1,a2,b2,c2の8個の係数が、この隣接する相手側監視カメラ端末1との第1の座標変換パラメータである。監視カメラ端末1は、この第1の座標変換パラメータを記憶部14に記憶する。
同様に、マーキングした点毎に、その座標位置を、
x=(A1X+B1Y+C1)/(A0X+B0Y+1)
y=(A2X+B2Y+C2)/(A0X+B0Y+1)
に代入し、8元連立方程式を得る。この8元連立方程式の解である、A0,B0,A1,B1,C1,A2,B2,C2の8個の係数が、この隣接する相手側監視カメラ端末1との第2の座標変換パラメータである。監視カメラ端末1は、この第2の座標変換パラメータを記憶部14に記憶する。
次に、この監視システムにおける、不審者の追跡について詳細に説明する。図4は、各監視カメラ端末における追跡処理を示すフローチャートである。
監視カメラ端末1は、撮像部12が撮像した監視対象エリアのフレーム画像を画像処理部13に取り込む(S1)。画像処理部13は、S1で取り込んだフレーム画像を処理し、撮像されている人物を抽出する(S2)。画像処理部13は、前回処理したフレーム画像で抽出した人物と、S2で抽出した人物と、を対応付ける(S3)。画像処理部13は、時空間MRFモデルを用い、人物を、8ピクセル×8ピクセルのブロックを単位とする人物領域として抽出する。S3では、前回処理したフレーム画像で抽出した人物と、S2で抽出した人物と、を対応付けることにより、今回抽出した人物の移動方向や移動量を得ることができ、これらの人物の追跡が行える。
また、今回の処理で抽出した人物であって、前回の処理で抽出されていなかった人物(すなわち、今回初めて抽出した人物)に対して、仮IDを付与する(S4、S5)。
画像処理部13は、今回処理したフレーム画像に対する、オブジェクトマップを作成する(S6)。このオブジェクトマップは、図5に示すように、今回抽出した人物毎に、その人物に付与されているID(または今回付与した仮ID)と、今回処理したフレーム画像上における座標位置とを対応付けた情報である。また、監視カメラ端末1は、タイムスタンプをオブジェクトマップに付与する。このタイムスタンプは、S1でフレーム画像を画像処理部13に取り込んだ時刻であってもよいし、付与するときにタイマ15が計時している時刻(現在時刻)であってもよい。
また、S6でオブジェクトマップを作成するときには、今回抽出した人物が床面上に接している位置(以下、足元位置と言う。)を、その人物の座標位置として検出する。具体的には、上述した第1の座標変換パラメータ、および第2の座標変換パラメータを得るときに、マーキングした4点を通る平面(すなわち、床面)と接している人物の人物領域の下辺中心の座標を、この人物の座標位置として検出する。以下、人物領域を、人物の外接長方形と言う。
監視カメラ端末1は、S6で作成したオブジェクトマップを記憶部14に記憶するとともに、隣接する他の監視カメラ端末1に対して、今回作成したオブジェクトマップ(以下、自端末オブジェクトマップと言う。)を送信する(S7、S8)。
なお、各監視カメラ端末1は、隣接する他の監視カメラ端末1からオブジェクトマップ(以下、相手側オブジェクトマップと言う。)が送信されてくると、この相手側オブジェクトマップを記憶部14に記憶する。監視カメラ端末1は、隣接する相手側監視カメラ端末1毎に、相手側オブジェクトマップを区別して記憶する。
監視カメラ端末1は、上述したS1〜S7の処理を繰り返し行うことにより、自端末の監視エリア内に位置する人物の追跡を行う。
次に、S4で仮IDを付与した人物のIDを確定するID確定処理について説明する。上述したように、オブジェクトマップに登録されている人物には、その人物を特定できるID,または仮IDが付与されている。仮IDが付与されている人物には、他の監視カメラ端末1ですでにIDを付与されていた人物(すなわち、すでに追跡が開始されていた人物)と、現時点ではIDが付与されていない人物(すなわち、この監視システムで監視しているエリアに入ってきた人物)と、が含まれている。このID確定処理は、不審者を広域にわたって追跡するために、仮IDを付与した人物が、すでにIDが付与されている人物であれば、今回付与した仮IDを無効にし、すでに付与されているIDに戻す。また、仮IDを付与した人物が、現時点でIDが付与されていない人物であれば、今回付与した仮IDをこの人物のIDに確定する。
なお、人物に付与されているIDや、仮IDは、その人物を特定できるユニークな値である。このIDや、仮IDは、数字であってもよいし、符号であってもよいし、これらの組み合せであってもよい。また、監視カメラ端末1間で発行済IDを通知し合うことなく、各人物に異なるIDが付与できるように、付与した監視カメラ端末1が識別できる数字や符号をIDに含ませるのが好ましい。
図6は、このID確定処理を示すフローチャートである。このID確定処理は、仮IDを付与した人物を登録したオブジェクトマップを作成したときに行う。まず、今回仮IDを付与した人物の中に、隣接する他の監視カメラ端末1との重複エリア内に位置する人物がいるかどうかを判定する(S11)。今回仮IDを付与した人物が、重複エリア内に位置している場合、その人物は、この重複エリアを監視エリアに含む隣接する相手側監視カメラ端末1で追跡されている人物である。すなわち、すでにIDが付与されている人物である。一方、今回仮IDを付与した人物が、重複エリア内に位置していない場合、その人物は、他の監視カメラ端末1で追跡されていなかった人物である。すなわち、現時点でIDが付与されていない人物である。監視カメラ端末1は、S11で重複エリア内に位置している人物がいなければ、今回仮IDを付与した人物毎に、付与した仮IDをIDに確定する(S12)。
一方、重複エリア内に位置している人物がいれば、今回仮IDを付与した人物の中で、重複エリア外に位置している人物について、付与した仮IDをIDに確定する(S13)。また、監視カメラ端末1は、今回、仮IDを登録した自端末側オブジェクトマップに時間的に対応する、相手側オブジェクトマップを記憶部14から読み出す(S14)。S14では、自端末側オブジェクトマップに付与されているタイムスタンプの時刻との時間差の絶対値が最小である時刻のタイムスタンプが付与されている相手側オブジェクトマップを記憶部14から読み出す。
監視カメラ端末1は、自端末側オブジェクトマップに登録されている重複エリア内に位置している人物と、相手側オブジェクトマップに登録されている重複エリア内に位置している人物と、を1対1で対応付ける組み合せパターンを作成する(S15)。S15で作成される組み合せのパターン数は、例えば、重複エリア内に位置している人物が2人であれば2通りであり、また重複エリア内に位置している人物が3人であれば6通りである。
また、監視カメラ端末1は、今回作成した自端末側オブジェクトマップに登録されている人物の中で、重複エリア内に位置する人物毎に、第1の座標変換パラメータを用いて、その人物の座標位置を相手側端末の座標系に変換する(S16)。監視カメラ端末1は、S15で作成した組み合せパターン毎に、第1の距離エネルギーを算出する(S17)。この第1の距離エネルギーは、相手側端末の座標系での、対応する組み合せパターンにおいて対応付けた人物間の距離の総和である。
また、監視カメラ端末1は、S14で読み出した相手側オブジェクトマップに登録されている人物の中で、重複エリア内に位置する人物毎に、第2の座標変換パラメータを用いて、その人物の座標位置を自端末の座標系に変換する(S18)。監視カメラ端末1は、S15で作成した組み合せパターン毎に、第2の距離エネルギーを算出する(S19)。この第2の距離エネルギーは、自端末の座標系での、対応する組み合せパターンにおいて対応付けた人物間の距離の総和である。
監視カメラ端末1は、S14で作成した組み合せパターン毎に、総合距離エネルギーを算出する(S20)。この総合距離エネルギーは、組み合せパターン毎に、その組み合せパターンの第1の距離エネルギーと、第2の距離エネルギーとの和である。
監視カメラ端末1は、S20で得た総合距離エネルギーが最小である組み合せパターンを、重複エリア内に位置する人物の適正な対応付けであると判断する。そして、総合距離エネルギーが最小である組み合せパターンによる人物の対応付けにより、重複エリア内に位置する人物を同定する(S21)。そして、監視カメラ端末1は、仮IDを付与した人物については、付与されている仮IDを無効とし、同定した人物に付与されているIDに確定する(S22)。S22では、オブジェクトマップにおける、仮IDを同定した人物に付与されているIDに置き換える。
したがって、隣接する監視カメラ端末1間で、重複エリア内に位置する人物を精度よく同定することができ、特異な行動をとった不審者の追跡が広域にわたって行える。また、ステレオカメラ等を用いて、人物の3次元情報を得る必要もなく、コストアップが十分に抑えられる。
なお、図6では、重複エリア内に位置する人物の同定精度を確保するために、第1の距離エネルギーと、第2の距離エネルギーとの和を総合距離エネルギーとしたが、第1の距離エネルギー、または第2の距離エネルギーの一方を総合距離エネルギーとしてもよい。このようにすれば、(S16、S17)、または(S18、S19)の一方の処理が不要になり、監視カメラ端末1の処理負荷を低減することができる。
また、監視対象エリア内に位置する人物の重なりによって、人物の足元が撮像されないことがある。すなわち、フレーム画像において、人物の足元位置が検出できない場合がある。このような場合には、S5でオブジェクトマップを作成するときに、以下に示す処理で、撮像されている人物の足元位置を決定してもよい。この処理は、重複エリア内に位置する人物についてのみ行う処理としてもよいし、監視エリア内に位置する人物全員について行う処理としてもよい。
まず、画像処理部13は、撮像部12で撮像されたフレーム画像の奥行きに対する、人物の基準高さを学習し、これを記憶部14に記憶する機能を設けている。
図7は、足元位置を決定する処理を示すフローチャートである。画像処理部13は、足元位置を決定する対象人物を抽出した人物領域である外接長方形下辺に、別の人物に対応する人物領域が接しているかどうかを判定する(S31)。画像処理部13は、S31で別の人物に対応する人物領域が接していなければ、この人物の足元が撮像されていると判定し、この人物の外接長方形下辺の中心を足元位置に決定する(S32)。
一方、画像処理部13は、S31で別の人物に対応する人物領域が接していると、この人物領域である外接長方形の高さを検出する(S33)。画像処理部13は、この人物の撮像位置に対して記憶している基準高さと、S33で検出した高さと、を比較する(S34)。
画像処理部13は、S34で基準高さよりも高いと判定すると、S32に進み、この人物の外接長方形下辺の中心を足元位置に決定する。一方、S34で基準高さよりも低いと判定すると、この人物に対応する人物領域の外接長方形上辺の中心座標から、基準高さだけ下方の位置を、その人物の足元位置に決定する(S35)。
これにより、監視対象エリア内に位置する人物の重なりによって、足元が撮像されていない人物についても、その足元位置の推定が適正に行える。
上記の説明では、自端末のタイマ15が計時している時刻と、相手側端末のタイマ15が計時している時刻と、が略同期していることを前提にしている。以下、この時刻のズレを考慮し、重複エリア内に位置する人物を同定する処理について説明する。
この場合も、各監視カメラ端末1は、図4に示した追跡処理を行う。
図8は、この場合のID確定処理を示すフローチャートである。このID確定処理は、仮IDを付与した人物を登録したオブジェクトマップを作成したときに行う。まず、今回仮IDを付与した人物の中に、隣接する他の監視カメラ端末1との重複エリア内に位置する人物がいるかを判定する(S41)。監視カメラ端末1は、S41で重複エリア内に位置する人物がいないと判定すると、今回仮IDを付与した人物毎に、付与した仮IDをIDに確定する(S42)。S41、およびS42は、それぞれ上述したS11、およびS12と同様の処理である。
一方、重複エリア内に位置している人物がいれば、今回仮IDを付与した人物の中で、重複エリア内に位置していない人物についてのみ、付与した仮IDをIDに確定する(S43)。S43は、上述したS13と同様の処理である。
次に、監視カメラ端末1は、今回、仮ID付与した人物を登録した自端末側オブジェクトマップ以降に作成した所定数(例えば、8個)のオブジェクトマップ毎に、対応する相手側オブジェクトマップを探索する(S44)。S44では、自端末側オブジェクトマップ毎に、以下の処理を行う。
まず、処理対象とする自端末側オブジェクトマップのタイムスタンプに対して、所定時間差内(例えば、−200ms〜+200ms)のタイムスタンプが付与されている相手側オブジェクトマップを全て抽出する。
次に、ここで抽出した相手側オブジェクトマップ毎に、自端末側オブジェクトマップとの間で、重複エリア内に位置している人物と、を1対1で対応付ける組み合せパターンを作成し、作成した組み合せパターン毎に総合距離エネルギーを算出する。この総合距離エネルギーの算出方法については、上述したので、ここでは説明を省略する。そして、最小であった総合距離エネルギーを、今回対象とした相手側オブジェクトマップとの総合距離エネルギーとする。
さらに、総合距離エネルギーが最小であった相手側オブジェクトマップを、今回処理対象とした自端末側オブジェクトマップに対応する相手側オブジェクトマップに決定する。
監視カメラ端末1Aが、時刻T1〜T8のタイムスタンプを付与した自端末側オブジェクトマップに対応する、隣接する監視カメラ端末1Bの相手側オブジェクトマップの探索結果の例を図9に示す。この例で、タイムスタンプが時刻T1である自端末側オブジェクトマップに対して、タイムスタンプがt1、およびt2の2つの相手側オブジェクトマップを抽出した場合、タイムスタンプがt1の相手側オブジェクトマップとの総合距離エネルギー、およびタイムスタンプがt2の相手側オブジェクトマップとの総合距離エネルギーを算出する。そして、タイムスタンプがt1の相手側オブジェクトマップの総合距離エネルギーと、タイムスタンプがt2の相手側オブジェクトマップの総合距離エネルギーとを比較し、より小さい(最小である)タイムスタンプがt1の相手側オブジェクトマップを、タイムスタンプが時刻T1である自端末側オブジェクトマップに対応づける。
また、この処理では、図9に示すように、複数の自端末側オブジェクトマップ(T3とT4、やT6とT7)が、同じ相手側オブジェクトマップ(t3やt7)に対応づけられることがある。また、自端末側オブジェクトマップが対応付けられない相手側オブジェクトマップ(t4や、t6)が存在することもある。
監視カメラ端末1は、対応付けられている相手側オブジェクトマップに、他の自端末オブジェクトマップも対応付けられている自端末オブジェクトマップ(図8に示す、T3,T4、T6、T7)の総合距離エネルギーを、予め定められたペナルティ値を加算した値に更新する(S45)。このペナルティ値は、設置環境等によって任意に設定できる。
S44で対応付けた自端末オブジェクトマップと、相手側オブジェクトマップとの組み合せの中から、その組み合せにおける総合距離エネルギーが、予め定めた基準距離エネルギーを超える組み合せを抽出し、取り除く(S46)。この基準距離エネルギーは、自端末オブジェクトマップと、相手側オブジェクトマップとの対応付が適正に行えていない場合や、重複エリア内に位置する人物の組み合せが適正に対応づけられていない場合等を検出できる大きさに設定されている。監視カメラ端末1は、例えば、相手側監視カメラ端末1との通信不良等によって、自端末オブジェクトマップに対応する適正な相手側オブジェクトマップが欠けていると、相手側オブジェクトマップとの対応付が適正に行えない。
監視カメラ端末1は、自端末オブジェクトマップと、相手側オブジェクトマップとの残りの組み合せにより、重複エリア内に位置する人物を同定する(S47)。S47では、例えば、自端末オブジェクトマップと、相手側オブジェクトマップとの組み合せの中で、総合距離エネルギーが最小である組合せを抽出する。そして、ここで抽出したオブジェクトマップの組合せにおける、重複エリア内に位置する人物の組み合せにより、この重複エリア内に位置する人物を同定する。また、自端末オブジェクトマップと、相手側オブジェクトマップとの残りの組み合せの中で、最も多い重複エリア内に位置する人物の組み合せにより、この重複エリア内に位置する人物を同定する。
そして、監視カメラ端末1は、仮IDを付与した人物については、付与されている仮IDを無効とし、同定した人物に付与されているIDに確定する(S22)。S22では、オブジェクトマップにおける、仮IDを同定した人物に付与されているIDに置き換える。
これにより、自端末のタイマ15が計時している時刻と、相手側端末のタイマ15が計時している時刻とに、ズレがあっても、重複エリア内に位置する人物を精度よく同定することができる。
また、S47で重複エリア内に位置する人物の同定に用いた自端末オブジェクトマップと、相手側オブジェクトマップとの組み合せを用いて、自端末のタイマ15が計時している時刻を、相手側監視カメラ端末1のタイマ15が計時している時刻に同期させる時刻同期処理を行ってもよい。図10は、この時刻同期処理を示すフローチャートである。
S47で重複エリア内に位置する人物の同定に用いた自端末オブジェクトマップと、相手側オブジェクトマップとの組み合せ毎に、タイムスタンプの時間差を算出し(S51)、その平均時間差を得る(S52)。そして、監視カメラ端末1は、S52で算出した平均時間差だけ、タイマ15が計時している時刻を修正する(S53)。これにより、隣接する監視カメラ端末1との間で、タイマ15が計時している時刻を同期させることができる。
また、タイムスタンプの時間差が、S52で算出した平均時間差に対して一定時間以上離れているものを取り除き、その残りで再度平均時間差を算出し、タイマ15が計時している時刻を修正する構成としてもよい。この処理は、タイムスタンプの時間差が、平均時間差に対して一定時間以上離れているものがなくなるまで繰り返してもよいし、予め定めた回数繰り返すだけであってもよい。
なお、上記の説明では、追跡するオブジェクトを人として説明したが、このオブジェクトは人に限らず、車両等の他の種類の移動体であってもよい。
1(1A〜1H)−監視カメラ端末
11−制御部
12−撮像部
13−画像処理部
14−記憶部
15−タイマ
16−通信部

Claims (5)

  1. 自端末に割り当てられている監視対象エリアを撮像する撮像手段と、
    前記撮像手段が撮像したフレーム画像を処理し、撮像されているオブジェクトを抽出するオブジェクト抽出手段と、
    前記オブジェクト抽出手段が抽出したオブジェクトにIDを付与するID付与手段と、
    前記オブジェクト抽出手段が抽出したオブジェクト毎に、そのオブジェクトに付与されているIDと、フレーム画像上における座標位置と、を対応付けるとともに、作成時刻にかかるタイムスタンプを付加したオブジェクトマップを作成するオブジェクトマップ作成手段と、
    前記オブジェクトマップ作成手段が作成したオブジェクトマップを用いて、自端末に割り当てられている監視対象エリア内に位置するオブジェクトを追跡する追跡手段と、を備えた監視カメラ端末において、
    割り当てられている監視対象エリアが、自端末の監視対象エリアの一部と重複している相手側端末とのデータ通信により、この相手側端末が作成した相手側オブジェクトマップを取得する相手側オブジェクトマップ取得手段と、
    自端末のフレーム画像の座標位置と、前記相手側端末のフレーム画像の座標位置とにおける、相対的な位置関係を示す座標変換情報を記憶する座標変換情報記憶手段と、
    前記オブジェクトマップ作成手段が作成した自端末のオブジェクトマップと、前記相手側オブジェクトマップ取得手段が取得した相手側オブジェクトマップと、をその作成時刻にかかるタイムスタンプを用いて対応付けるマッチング手段と、
    前記マッチング手段によって対応付けられた複数組のオブジェクトマップを用いて、対応づけられている前記オブジェクトマップ作成手段が作成した自端末のオブジェクトマップと、前記相手側オブジェクトマップ取得手段が取得した相手側オブジェクトマップと、において、自端末の監視対象エリアと、相手側端末の監視対象エリアとが重複している重複エリア内に位置する自端末が抽出したオブジェクトと、相手側端末が抽出したオブジェクトとを同定する同定手段と、を備え、
    前記同定手段は、前記座標変換情報記憶手段が記憶している前記座標変換情報を用いて、自端末が抽出したオブジェクトの位置、および相手側端末が抽出したオブジェクトの位置を共通の座標系の位置に変換し、この共通の座標系における、自端末が抽出したオブジェクトと、相手側端末が抽出したオブジェクトとの距離によって、前記重複エリアに位置するオブジェクトを同定するとき、自端末が抽出したオブジェクトと、相手側端末が抽出したオブジェクトとの距離の算出で、前記マッチング手段が自端末のオブジェクトマップに対応付けた前記相手側オブジェクトマップに、自端末の他のオブジェクトマップも対応付けられている組については、前記重複エリアに位置するオブジェクト間の距離を算出する際に、予め定めたペナルティ距離を加算する、監視カメラ端末。
  2. 自端末に割り当てられている監視対象エリアを撮像する撮像手段と、
    前記撮像手段が撮像したフレーム画像を処理し、撮像されているオブジェクトを抽出するオブジェクト抽出手段と、
    前記オブジェクト抽出手段が抽出したオブジェクトにIDを付与するID付与手段と、
    前記オブジェクト抽出手段が抽出したオブジェクト毎に、そのオブジェクトに付与されているIDと、フレーム画像上における座標位置と、を対応付けるとともに、作成時刻にかかるタイムスタンプを付加したオブジェクトマップを作成するオブジェクトマップ作成手段と、
    前記オブジェクトマップ作成手段が作成したオブジェクトマップを用いて、自端末に割り当てられている監視対象エリア内に位置するオブジェクトを追跡する追跡手段と、を備えた監視カメラ端末において、
    割り当てられている監視対象エリアが、自端末の監視対象エリアの一部と重複している相手側端末とのデータ通信により、この相手側端末が作成した相手側オブジェクトマップを取得する相手側オブジェクトマップ取得手段と、
    自端末のフレーム画像の座標位置と、前記相手側端末のフレーム画像の座標位置とにおける、相対的な位置関係を示す座標変換情報を記憶する座標変換情報記憶手段と、
    前記オブジェクトマップ作成手段が作成した自端末のオブジェクトマップと、前記相手側オブジェクトマップ取得手段が取得した相手側オブジェクトマップと、をその作成時刻にかかるタイムスタンプを用いて対応付けるマッチング手段と、
    前記マッチング手段によって対応付けられた、前記オブジェクトマップ作成手段が作成した自端末のオブジェクトマップと、前記相手側オブジェクトマップ取得手段が取得した相手側オブジェクトマップと、において、自端末の監視対象エリアと、相手側端末の監視対象エリアとが重複している重複エリア内に位置する自端末が抽出したオブジェクトと、相手側端末が抽出したオブジェクトとを同定する同定手段と、
    前記マッチング手段によって対応付けられた、自端末のオブジェクトマップと、相手側端末のオブジェクトマップとに付加されているタイムスタンプを用いて、自端末が計時している時刻を修正する時刻合せ手段と、を備え、
    前記同定手段は、前記座標変換情報記憶手段が記憶している前記座標変換情報を用いて、自端末が抽出したオブジェクトの位置、および相手側端末が抽出したオブジェクトの位置を共通の座標系の位置に変換し、この共通の座標系における、自端末が抽出したオブジェクトと、相手側端末が抽出したオブジェクトとの距離によって、前記重複エリアに位置するオブジェクトを同定する、監視カメラ端末。
  3. 前記同定手段は、前記重複エリアに位置する自端末が抽出したオブジェクトと、相手側端末が抽出したオブジェクトと、を1対1で対応付けた組み合せの中で、対応付けたオブジェクト間の距離の総和が最小である組み合せにより、前記重複エリアに位置するオブジェクトを同定する、請求項1、または2に記載の監視カメラ端末。
  4. 前記オブジェクトマップ作成手段は、前記オブジェクト抽出手段が抽出したオブジェクト毎に、そのオブジェクトの位置を、当該オブジェクトの接地面上の座標とする、請求項1〜3のいずれかに記載の監視カメラ端末。
  5. 前記マッチング手段は、前記オブジェクトマップ作成手段が作成した自端末のオブジェクトマップと、前記相手側オブジェクトマップ取得手段が取得した相手側オブジェクトマップと、をその作成時刻にかかるタイムスタンプ、および前記重複エリアに位置するオブジェクト間の距離を用いて対応付ける、請求項1〜のいずれかに記載の監視カメラ端末。
JP2011523577A 2009-07-22 2010-04-05 監視カメラ端末 Active JP5453429B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011523577A JP5453429B2 (ja) 2009-07-22 2010-04-05 監視カメラ端末

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2009171329 2009-07-22
JP2009171329 2009-07-22
PCT/JP2010/056161 WO2011010490A1 (ja) 2009-07-22 2010-04-05 監視カメラ端末
JP2011523577A JP5453429B2 (ja) 2009-07-22 2010-04-05 監視カメラ端末

Publications (2)

Publication Number Publication Date
JPWO2011010490A1 JPWO2011010490A1 (ja) 2012-12-27
JP5453429B2 true JP5453429B2 (ja) 2014-03-26

Family

ID=43498968

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011523577A Active JP5453429B2 (ja) 2009-07-22 2010-04-05 監視カメラ端末

Country Status (5)

Country Link
US (1) US8503727B2 (ja)
EP (1) EP2458553B1 (ja)
JP (1) JP5453429B2 (ja)
CN (1) CN102414719B (ja)
WO (1) WO2011010490A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160014413A (ko) * 2014-07-29 2016-02-11 주식회사 일리시스 복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 장치 및 그 방법
KR20210023474A (ko) * 2019-08-23 2021-03-04 삼성전자주식회사 전자 장치 및 이의 제어 방법

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5227911B2 (ja) * 2009-07-22 2013-07-03 株式会社日立国際電気 監視映像検索装置及び監視システム
TW201206192A (en) * 2010-07-23 2012-02-01 Hon Hai Prec Ind Co Ltd Detection device and method
JP5868426B2 (ja) * 2011-12-13 2016-02-24 株式会社日立製作所 停立人物の向き推定方法
US9811755B2 (en) * 2013-03-29 2017-11-07 Nec Corporation Object monitoring system, object monitoring method, and monitoring target extraction program
US9430846B2 (en) * 2013-04-19 2016-08-30 Ge Aviation Systems Llc Method of tracking objects using hyperspectral imagery
JP6152738B2 (ja) * 2013-08-06 2017-06-28 株式会社ニコン カメラシステム
JP6495705B2 (ja) * 2015-03-23 2019-04-03 株式会社東芝 画像処理装置、画像処理方法、画像処理プログラムおよび画像処理システム
US10810539B1 (en) * 2015-03-25 2020-10-20 Amazon Technologies, Inc. Re-establishing tracking of a user within a materials handling facility
US10147196B2 (en) * 2015-12-07 2018-12-04 Cooper Technologies Company Occupancy detection
JP6574149B2 (ja) * 2016-07-19 2019-09-11 日本電信電話株式会社 追跡装置および追跡方法
CN107666590B (zh) * 2016-07-29 2020-01-17 华为终端有限公司 一种目标监控方法、摄像头、控制器和目标监控系统
KR102687690B1 (ko) * 2016-08-08 2024-07-23 한화비전 주식회사 영상 처리 장치 및 영상 처리 방법
WO2018067058A1 (en) * 2016-10-06 2018-04-12 Modcam Ab Method for sharing information in system of imaging sensors
US11068721B2 (en) * 2017-03-30 2021-07-20 The Boeing Company Automated object tracking in a video feed using machine learning
JP6485490B2 (ja) * 2017-05-31 2019-03-20 株式会社ニコン カメラ
CN107403535A (zh) * 2017-07-29 2017-11-28 安徽博威康信息技术有限公司 一种基于身份识别的监测报警系统
CN107274618A (zh) * 2017-07-29 2017-10-20 安徽博威康信息技术有限公司 一种基于定位识别的监测报警系统
JP6749498B2 (ja) 2017-08-30 2020-09-02 三菱電機株式会社 撮影対象追跡装置及び撮影対象追跡方法
CN109974667B (zh) * 2017-12-27 2021-07-23 宁波方太厨具有限公司 一种室内人体定位方法
CN109165606B (zh) 2018-08-29 2019-12-17 腾讯科技(深圳)有限公司 一种车辆信息的获取方法、装置以及存储介质
CN109345748B (zh) * 2018-10-31 2021-03-26 北京锐安科技有限公司 用户设备关联方法、装置、服务端、检测设备及介质
JP6831117B2 (ja) * 2018-11-29 2021-02-17 技研トラステム株式会社 移動体追跡方法及びこれに用いる画像処理装置
CN109753930B (zh) * 2019-01-03 2021-12-24 京东方科技集团股份有限公司 人脸检测方法及人脸检测系统
CN109905679B (zh) * 2019-04-09 2021-02-26 梅州讯联科技发展有限公司 监控方法、装置以及系统
TWI688924B (zh) * 2019-04-15 2020-03-21 勝品電通股份有限公司 追蹤辨識監控系統
CN110070566B (zh) * 2019-04-29 2021-07-30 武汉睿智视讯科技有限公司 信息检测方法、装置、计算机设备及可读存储介质
CN111372040B (zh) * 2019-06-13 2021-09-24 杭州海康威视系统技术有限公司 一种多视频监控确定坐标转换参数的方法及装置
KR20210112800A (ko) * 2020-03-06 2021-09-15 한국전자통신연구원 객체 추적 장치 및 방법
CN111768433B (zh) * 2020-06-30 2024-05-24 杭州海康威视数字技术股份有限公司 一种移动目标追踪的实现方法、装置及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10255057A (ja) * 1997-03-06 1998-09-25 Matsushita Electric Ind Co Ltd 移動物体抽出装置
JP2003276963A (ja) * 2003-02-03 2003-10-02 Toshiba Corp 画像監視装置を利用したエレベータ制御装置
JP2004072628A (ja) * 2002-08-08 2004-03-04 Univ Waseda 複数カメラを用いた移動体追跡システム及びその方法
JP2009014628A (ja) * 2007-07-06 2009-01-22 Topcon Corp 位置計測装置及び位置計測方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5999525A (en) * 1996-11-18 1999-12-07 Mci Communications Corporation Method for video telephony over a hybrid network
US6335927B1 (en) * 1996-11-18 2002-01-01 Mci Communications Corporation System and method for providing requested quality of service in a hybrid network
JP3814779B2 (ja) 2001-03-27 2006-08-30 三菱電機株式会社 侵入者自動追尾方法および装置並びに画像処理装置
EP1298524A1 (en) * 2001-09-28 2003-04-02 Ricoh Company, Ltd. Conference support apparatus, information processor, teleconference system and computer product
JP3999561B2 (ja) 2002-05-07 2007-10-31 松下電器産業株式会社 監視システムと監視カメラ
JP3987013B2 (ja) * 2003-09-01 2007-10-03 本田技研工業株式会社 車両周辺監視装置
JP4759988B2 (ja) * 2004-11-17 2011-08-31 株式会社日立製作所 複数カメラを用いた監視システム
JP5041757B2 (ja) * 2006-08-02 2012-10-03 パナソニック株式会社 カメラ制御装置およびカメラ制御システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10255057A (ja) * 1997-03-06 1998-09-25 Matsushita Electric Ind Co Ltd 移動物体抽出装置
JP2004072628A (ja) * 2002-08-08 2004-03-04 Univ Waseda 複数カメラを用いた移動体追跡システム及びその方法
JP2003276963A (ja) * 2003-02-03 2003-10-02 Toshiba Corp 画像監視装置を利用したエレベータ制御装置
JP2009014628A (ja) * 2007-07-06 2009-01-22 Topcon Corp 位置計測装置及び位置計測方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200800956020; 兵動靖英 外4名: 'カメラネットワークによるオクルージョンに頑健な複数人物追跡' 情報処理学会研究報告 2008-CVIM-164 コンピュータビジョンとイメージメディア 第2008巻 第82号, 20080829, 第171〜176頁, 社団法人情報処理学会 *
JPN6013022387; 兵動靖英 外4名: 'カメラネットワークによるオクルージョンに頑健な複数人物追跡' 情報処理学会研究報告 2008-CVIM-164 コンピュータビジョンとイメージメディア 第2008巻 第82号, 20080829, 第171〜176頁, 社団法人情報処理学会 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160014413A (ko) * 2014-07-29 2016-02-11 주식회사 일리시스 복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 장치 및 그 방법
KR101645959B1 (ko) * 2014-07-29 2016-08-05 주식회사 일리시스 복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 장치 및 그 방법
KR20210023474A (ko) * 2019-08-23 2021-03-04 삼성전자주식회사 전자 장치 및 이의 제어 방법
WO2021040202A1 (ko) * 2019-08-23 2021-03-04 삼성전자주식회사 전자 장치 및 이의 제어 방법
KR102661644B1 (ko) * 2019-08-23 2024-04-29 삼성전자주식회사 전자 장치 및 이의 제어 방법

Also Published As

Publication number Publication date
EP2458553A4 (en) 2013-12-18
WO2011010490A1 (ja) 2011-01-27
US8503727B2 (en) 2013-08-06
EP2458553B1 (en) 2018-11-21
JPWO2011010490A1 (ja) 2012-12-27
US20120045096A1 (en) 2012-02-23
EP2458553A1 (en) 2012-05-30
CN102414719A (zh) 2012-04-11
CN102414719B (zh) 2014-10-15

Similar Documents

Publication Publication Date Title
JP5453429B2 (ja) 監視カメラ端末
JP5470111B2 (ja) 監視カメラ端末
WO2011114799A1 (ja) 監視カメラ端末
JP5559335B2 (ja) 挙動解析装置
JP4970195B2 (ja) 人物追跡システム、人物追跡装置および人物追跡プログラム
US8432445B2 (en) Air conditioning control based on a human body activity amount
WO2013047083A1 (ja) 画像処理装置、画像処理方法、プログラム、および画像処理システム
JP6286474B2 (ja) 画像処理装置および領域追跡プログラム
EP2549752A1 (en) Surveillance camera terminal
JP2004072628A (ja) 複数カメラを用いた移動体追跡システム及びその方法
JP6444283B2 (ja) 姿勢判定装置
JP2010206405A (ja) 画像監視装置
JP5147760B2 (ja) 画像監視装置
JPWO2017187694A1 (ja) 注目領域画像生成装置
CN114463663A (zh) 一种人员身高的计算方法、装置、电子设备及存储介质
JP6546057B2 (ja) 複数のカメラ間での人物の追跡装置、追跡方法及びプログラム
JP2007109126A (ja) 移動体分布推定装置、移動体分布推定方法及び移動体分布推定プログラム
KR101892093B1 (ko) 사용자의 지시 위치 추정 장치 및 방법
JP2004042737A (ja) 踏切監視装置および踏切監視方法
CN116704047B (zh) 一种基于行人ReID的监控摄像设备位置的标定方法
Rezaei et al. Distibuted human tracking in smart camera networks by adaptive particle filtering and data fusion
AU2020436767B2 (en) Markerless motion capture of hands with multiple pose estimation engines
JP2023131014A (ja) 動作予測装置、方法及びプログラム
Miaou et al. A Smart Surveillance System for Human Fall-Down Detection using Dual Heterogeneous Cameras.
KATO et al. Cooperative Distributed Tracking for E ective Face Registration

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140106

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5453429

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250