JP2005503731A - 協働的な分散されたビジョンを通じたインテリジェントな4画面同時表示 - Google Patents

協働的な分散されたビジョンを通じたインテリジェントな4画面同時表示 Download PDF

Info

Publication number
JP2005503731A
JP2005503731A JP2003529752A JP2003529752A JP2005503731A JP 2005503731 A JP2005503731 A JP 2005503731A JP 2003529752 A JP2003529752 A JP 2003529752A JP 2003529752 A JP2003529752 A JP 2003529752A JP 2005503731 A JP2005503731 A JP 2005503731A
Authority
JP
Japan
Prior art keywords
person
image
control unit
boundary
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003529752A
Other languages
English (en)
Inventor
ヴィ アール ギュッタ,スリニヴァス
フィロミン,ヴァサント
トライコヴィッチ,ミロスラフ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Publication of JP2005503731A publication Critical patent/JP2005503731A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

人物の表示された位置を調整するシステム及び方法である。システムは、画像シーケンスを受信し、人物が表示されるべき受信された画像の境界に位置しているかどうかを判定するよう受信された画像を処理する制御ユニットを含む。そのように位置している場合、制御ユニットは、人物が完全に画像内に位置するよう画像シーケンスを与える光学装置の位置を制御するよう制御信号を発生する。

Description

【0001】
本発明は、4画面同時表示及び単一の表示上に多数のビデオストリームを表示する他の表示に関連する。
【0002】
図1に、4画面同時表示で用いられるビデオシステムの一部を示す。図1中、4つのカメラC1−C4が、部屋Rのビデオ監視を行うものとして示されている。部屋Rは略矩形の床の空間を有するものとして図示され、カメラC1−C4は部屋Rの別々の隅に夫々は位置される。各カメラC1−C4は、図1に示すように、カメラの視野(夫々、FOV1−FOV4)内の画像を捕捉する。
【0003】
尚、一般的には、カメラC1−C4は、画像を捕捉するよう、部屋の隅の天井の近くに配置され、下向きに部屋の向こう側へ向けられている。しかしながら、説明の便宜上、カメラC1−C4に対する視野FOV1−FOV4の表現及び説明は、図1に示すように、床の平面に対応する2つの次元に限られるものとする。従って、カメラC1−C4は、より床に近くに、床に平行に部屋の向こう側へ向けられて取り付けられると考えられてもよい。
【0004】
図1中、人物Pは、カメラC1,C2の視野FOV1,FOV2の縁の近傍であり、完全にカメラC3の視野FOV3内にあり、カメラC4の視野FOV4の外である位置に配置されて示されている。図2を参照するに、4画面同時表示D1−D4内の人物Pの画像が示される。表示(ディスプレイ)D1−D4は、カメラC1−C4に対応する。図示のとおり、人物Pの前面の半分が表示D1(C1に対応)内に示され、人物Pの背面の半分が表示D2(C2に対応)内に示される。人物Pの背面は表示D3(C3に対応)の中心に完全に見えており、表示D4(C4に対応)の中にはPの画像は見えていない。
【0005】
図1及び図2から、従来技術の4画面同時表示における問題が明らかである。図からわかるように、そのように位置する人物Pは、自分の手及び品物が4つの表示のいずれにも示されることなく、左のポケットに品物を入れるために自分の体の向こう側へ自分の右手を伸ばすことができる。従って、人物Pは、部屋の一定の領域内に自分の位置を決めることにより、いずれの表示上でも窃盗行為が観察されることなく万引きすることができる。腕のいい泥棒は、室内のカメラの視野を見極めることだけで、自分の位置をどのように決めるかを容易に割り出すことができる。更に、窃盗行為自体がいずれかのカメラで観察されえないよう人物Pが非常に注意深く自分の位置を決めない場合であっても、腕のいい泥棒は、通常は、自分の画像が2つのカメラ(例えば表示D1及びD2のためのカメラC1及びC2)の間で分割されるよう自分の位置を決めうる。このことは、表示を監視している人物に対して、どの表示を見るべきかに関して、泥棒が何かをポケットや鞄等に入れることを発見されずに行うことを可能とするのに十分な混乱を招きうる。
【0006】
従って、本発明は、多数のカメラ及び表示を用いて人物及び対象を検出するシステム及び方法であって、部分的な画像が検出されたときは、人物の少なくとも一枚の完全な前面画像が表示されるよう、適応し調整するシステム及び方法を提供することを目的とする。
【0007】
従って、本発明は特に、人物の表示された画像の位置を調整するシステムを含む。システムは、画像シーケンスを受信する制御ユニットを有し、人物が表示されるべき受信された画像の境界に位置しているかどうかを判定するよう受信された画像を処理する。そのように位置しているとき、制御ユニットは、人物が前記画像内に完全に位置するよう画像シーケンスを与える光学装置の位置を制御するよう制御信号を発生する。制御ユニットは、画像シーケンス中の動く対象を人物として同定し、人物の動きを画像シーケンス中で画像の境界まで追跡することにより、人物が受信された画像の境界に位置しているかどうかを判定する。
【0008】
更に、制御ユニットは、2つ又はそれ以上の各光学装置から2つ又はそれ以上の画像シーケンスを受信し、光学装置は、2つ又はそれ以上の各画像シーケンスの領域が重なり合うよう配置され、2つ又はそれ以上の画像シーケンスは(例えば4画面同時表示の場合のように)別々に表示される。2つ又はそれ以上の各画像シーケンスに対して、制御ユニットは、人物が受信された画像の境界に位置しているかどうかを判定するために受信された画像シーケンスを処理する。2つ又はそれ以上の各画像シーケンスの少なくとも1つに対して、制御ユニットが、人物が受信された画像の境界に位置していると判定すると、制御ユニットは、人物の全体の画像が表示されるよう各画像シーケンスに対して光学装置の位置を制御するよう制御信号を発生する。
【0009】
本発明はまた、人物の表示された画像の位置を調整する方を含む。まず、画像シーケンスが受信される。次に、人物が前記表示されるべき受信された画像の境界に位置しているかどうかが判定される。そうである場合、画像シーケンスを与える光学装置の位置は、人物が完全に画像内に位置するよう調整される。
【0010】
本発明の範囲に含まれる他の方法では、2つ又はそれ以上の画像シーケンスが受信される。表示されるべき受信された各画像シーケンス中で人物の全体又は一部が見えているかどうかが判定される。人物が表示されるべき受信された画像シーケンスのうちの1つ又はそれ以上の中で部分的に見えていると判定された場合は、人物が受信された画像内に完全に位置するよう、1つ又はそれ以上の受信された画像シーケンスのうちの1つに対応するものを与える少なくとも1つの光学装置が調整される。
【0011】
図3aを参照するに、本発明のシステム100の実施例の一部が示される。図3aは、図1の4つのカメラと同様に、部屋の4つの隅に配置され、視野FOV1−FOV4を有する4つのカメラC1−C4を示す。2次元についての説明もまた、後の説明で議論されるが、当業者は、システムを容易に3次元に適合することができるであろう。
【0012】
図3bは、図3aに示されていないシステム100の更なる構成要素を示す図である。図からわかるように、各カメラC1−C4は、ステッピングモータS1−S4に夫々取り付けられる。ステッピングモータS1−S4は、カメラC1−C4が夫々の中心軸(夫々A1−A4)回りを回転することを可能とする。従って、例えば、ステッピングモータS1は、FOV1が図3a中の破線によって画成されるよう、角度φに亘ってカメラC1を回転しうる。軸A1−A4は、軸A1で表わされるように、図3aの図の平面から出る。
【0013】
ステッピングモータS1−S4は、例えばマイクロプロセッサ又は他のディジタル制御器でありうる制御ユニット110によって発生される制御信号によって制御されうる。制御ユニット110は、線LS1−LS4を夫々通じてステッピングモータS1−S4へ制御信号を与える。軸A1−A4回りの回転の量は、カメラC1−C4の光学軸(図3a中、夫々OA1−OA4)の位置を決定する。光学軸OA1−OA4は、各視野FOV1−FOV4を二分し、軸A1−A4に対して垂直であるため、このような各回転軸OA1−OA4の回転軸A1−A4回りの回転は、カメラC1−C4の視野FOV1−FOV4によって網羅される領域を実際に決定する。従って、例えば、人物Pが図3a中の元のFOV1の境界の位置に位置しているとき、制御ユニット110からステッピングモータS1への軸A1回りに角度θに亘ってカメラC1を回転させる制御信号は、人物を完全にFOV1の中に位置させる(図3a中、FOV1’と示される)。カメラC2−C4は、同様に、ステッピングモータS2−S4によって夫々軸A2−A4回りに回転するよう制御されうる。
【0014】
再び図3aを参照するに、カメラC1−C4の視野FOV1−FOV4が図示の位置にあるとき、人物Pは図3cに示すように対応する4画面同時表示中に示されることがわかる。視野及び表示の中のPの最初の位置は上述の図2と同様である。図3cでは、カメラC1は元の(回転されていない)位置にあり、人物PはFOV1の境界上にある。従って、カメラC1についての表示D1の中には、人物Pの前面画像の半分のみが示されている。更に、人物PはFOV2の境界上にいるため、カメラC2の表示D2の中には人物Pの背面画像の半分のみが示されている。カメラC3は、表示D3に示されるような、Pの背面画像全体を捕捉する。人物Pは、C4のFOV4からは完全に外にあるため、表示D4の中には人物Pの画像は現れない。
【0015】
制御ユニット110が、カメラC1の視野FOV’が図3aに示し上述するように人物Pを完全に捕捉するようカメラC1を軸A1回りに角度φに亘って回転させるようステッピングモータS1に合図すると、図3dに示すように、人物Pの完全な前面画像が表示D1上に表示される。このようにカメラC1を回転させることにより、前ポケットに品物を入れている人物Pの画像は表示D1中にはっきりと示される。
【0016】
このような分割された又は部分的な画像のためのカメラC1−C4のうちの1つ又はそれ以上の回転は、カメラC1−C4から受信される画像をデータ線LC1−LC4を通じて受信される画像の画像処理によって制御ユニット110によって決定される。カメラから受信される画像は、最初は、例えば人間の体といった関心対象が1つ又はそれ以上の表示の中に部分的にのみ示されているかどうかを判定するために処理される。後の説明では、1つ又はそれ以上のカメラの視野の縁に配置され、従って、例えば図3cに示すカメラD1及びD2の場合のように、対応する表示の縁に部分的にのみ現れる体について特に説明する。
【0017】
制御ユニット110は、人間の体を検出するため、特に、人物がカメラ(又は複数のカメラ)の視野の境界にいることにより人間の体の画像がいつ表示(又は複数の表示)の縁に表示されるかを認識するために、様々な画像認識アルゴリズムでプログラムされうる。例えば、受信される各ビデオストリームについて、制御ユニット110は、まず、画像データ中の動く対象又は体を検出するため、及び、このような各動く対象が人間の体であるか否かを判定するために、先ずプログラムされうる。
【0018】
このような動く対象の検出、及び、動く対象を人間の体として続いて同定することをプログラムするために使用されうる特定的な技術は、ここに参照として組み入れられる、2001年2月27日出願のスリニヴァス・ギュッタ(Srinivas Gutta)及びヴァサンス・フィロミン(Vasanth Philomin)による「Classification Of Objects Through Model Ensembles」なる名称の米国特許出願第09/794,443号明細書(以下「’443号特許出願」と称する)に記載されている。従って、’443号特許出願に記載のように、制御ユニット110は、受信された各ビデオストリームをその中の動く対象を検出するべく分析する。動きを検出するために’443号特許出願で参照された特定の技術は、背景差分スキームと、対象を分割するために色情報を用いることとを含む。
【0019】
他の動き検出技術もまた使用されうる。例えば、動きを検出するための他の技術では、関数S(x,y,t)の値は、画像に対する画像アレイ中の各画素(x,y)に対して計算され、各連続する画像は時間tによって示され、
【0020】
【数1】
Figure 2005503731
式中、G(t)はガウシアン関数であり、I(x,y,t)は画像t中の各画像の強度である。画像中の縁の動きは、S(x,y,t)中の時間的なゼロ交差によって同定される。このようなゼロ交差は、画像中でクラスタ化され、かかる動く縁のクラスタは、動いている体の輪郭を与える。
【0021】
クラスタはまた、連続的な画像中の対象の動きをそれらの位置、動き、及び形状に基づいて追跡するためにも使用される。クラスタが少数の連続するフレームに対して追跡された後、これは例えば、一定の高さ及び幅(「境界ボックス)」を有するものとしてモデル化されえ、連続する画像中の境界ボックスの繰り返される出現は、(例えば永続的パラメータを通じて)監視され定量化されうる。このようにして、制御ユニット110は、カメラC1−C4の視野内で動く対象を検出及び追跡しうる。上述の検出及び追跡技術は、ここに参照として組み入れられるマッケンナ(McKenna)及びゴン(Gong)著、「顔の追跡(Tracking Faces)」、自動顔及びジェスチャ認識に関する第2回国際会議の議事録、米国バーモント州キリントン(Killington)、1996年10月14−16日、p.271−276に詳述されている。
【0022】
制御ユニット110によりデータストリーム中に動く対象が検出され、対象の追跡が開始されると、制御ユニット110は、対象が人間の体であるか否かを判定する。制御ユニット110は、例えば特に信頼性の高い分類モデルであるRadial Basis Function(RBF)分類子(クラシファイア)等の多数の様々な種類の分類モデルのうちの1つを用いてプログラムされる。’443号特許出願は、検出された動く対象が人間の体であるか否かを同定するために制御ユニット110をプログラムするために望ましい実施例で使用される人間の体を同定するRBF分類技術を示す。
【0023】
つまり、上述のRBF分類子技術は、各検出された動く対象から2つ又はそれ以上の特徴を抽出する。望ましくは、各検出された動く対象からx勾配、y勾配、及び組み合わされたxy勾配が抽出される。勾配は、動く体に対するビデオストリーム中で与えられる画像強度のサンプルのアレイのものである。x勾配、y勾配、及びxy勾配は夫々、別々の分類を与える3つの別々のRBF分類子によって使用される。以下、更に説明するように、この対象に対するRBF(ERBF)分類は、同定を改善する。
【0024】
各RBF分類子は、3つの層を有するネットワークである。第1の入力層は、ソースノード又は感覚ユニットから構成され、第2の(隠れ)層は基礎機能(BF)ノードから構成され、第3の出力層は出力ノードから構成される。動く対象の勾配画像は、1次元ベクトルとして入力層へ供給される。入力層から隠れ層への変換は非線形である。一般的には、隠れ層の各BFノードは、クラスに対する画像を用いた正しい学習の後は、対象分類(例えば人間の体)の形状空間に亘る共通の特徴のうちの1つの機能的な表現である。従って、隠れ層の各BFノードは、クラスに対する画像を用いた正しい学習の後、入力ベクトル値を入力ベクトルによるBFの活性化を反映するスカラ値へ変換し、これはBFによって表される特徴が当該の対象についてのベクトル中で見つかる量を定量化する。
【0025】
出力ノードは、動く対象についての形状空間に沿った特徴の値を対象の種類についての1つ又はそれ以上の同定クラスへ写像し、動く対象に対する対応する重み係数を決定する。RBF分類子は、動く対象が、重み係数の最大値を有するクラスのものであることを決定する。望ましくは、RBF分類子は、動く対象が対象の同定されたクラスに属する確率を示す値を出力する。
【0026】
従って、例えばビデオストリーム中の動く対象のx勾配ベクトルを入力として受信するRBF分類子は、対象(例えば人間の体又は他のクラスの対象)に対して決定された分類と、クラス出力中にある確率とを出力する。RBF分類子の組合せ(即ちy勾配及びxy勾配に対するRBF分類子)を含む他のRBF分類子もまた、動く対象についての入力ベクトルに対する分類出力及び確率を与える。3つのRBF分類子によって同定されるクラス及び関連する確率は、動く対象が人間の体であるか否かを決定する採点法で用いられる。
【0027】
動く対象が人間の体として分類される場合、人物は特徴付け処理を受ける。検出された人物は、特徴付けとの関連によって「タグ付け」され、それにより続く画像中ではタグ付けされた人物として同定されうる。人物のタグ付けの処理は、個人の確定的な同定を必ずしも必要とするものではなく、むしろ単に現在画像中の人物が以前の画像中の人物に一致すると信じられることの標識を発生するという点で、人物認識処理とは異なる。このようなタグ付けを通じた人物の追跡は、人物の繰り返される画像認識よりも迅速且つ効率的になされうるため、制御ユニット110が異なるカメラC1−C4からの各ビデオストリーム中の多数の人物をより容易に追跡することを可能とする。
【0028】
従来技術で知られている人物タグ付けの基本技術は、例えば、テンプレートマッチング又は特徴付け等のカラーヒストグラムを用いる。外見特徴及び幾何学的特徴の両方を組み込んだタグ付けされた人物の統計的モデルを用いることによってより効率的且つ効果的な人物のタグ付けを提供する方法及び装置は、ここに「’423号特許出願」として参照として組み入れられる2001年11月1日出願のアントニオ・コルメナレズ(Antonio Colmenarez)及びスリニヴァス・ギュッタ(Srinivas Gutta)による「Person Tagging In An Image Processing System Utilizing A Statistical Model Based On Both Appearance And Geometric Features」なる名称の米国特許出願第09/703,423号明細書(以下「’423号特許出願」と称する)に記載されている。
【0029】
制御ユニット110は、以前に同定された人物をタグ付けし追跡するために望ましい実施例によれば’423号特許の技術を用いる。タグ付けされた人物の追跡は、ビデオセグメントの以前のフレーム中の既知の位置及び姿勢のシーケンスを利用する。’423特許出願では、同定された人物の画像は、例えば頭、胴、及び脚といった多数の異なる領域(r=1,2,...,N)へ分割される。ビデオセグメントの画像Iは、タグ付けされるべき人物Ωに対する外見及び幾何学形状に基づいた統計的モデルP(I|T,ξ,Ωを発生するよう処理され、但し、Tは画像I中の人物の大域的な動きを捕捉するために用いられる線形変換であり、ξは所与の時点における人物の局所的な動きを捕捉するために用いられる離散変数である。
【0030】
’423号特許出願に記載のように、人物Ωの統計的モデルは、画像I中の人物の画素の和、即ち、P(pix|T,ξ,Ω)の和を含む。人物の異なる領域rが考慮されるとき、値P(pix|T,ξ,Ω)は、P(pix|r,T,ξ,Ω)の関数である。重要なことには、P(pix|r,T,ξ,Ω)=P(x|r,T,ξ,Ω)P(f|r,T,ξ,Ωであり、画素はその位置xと、例えば色及びテクスチャを表わす1つ又はそれ以上の外見特徴f(2次元ベクトル)とによって特徴付けられる。従って、追跡は、人物の領域の外見特徴、例えば人物の領域を構成する画素の色及びテクスチャを用いて行われる。
【0031】
P(x|r,T,ξ,ΩとP(f|r,T,ξ,Ωは共に、それらの対応する特徴空間に亘るガウシアン分布として近似されうる。外見特徴ベクトルfは、画素自体、又は所与の画素の周りの画素の指定される「近傍」からの所定の画素に対して取得されうる。外見特徴の色特徴は、例えばRGB、HIS、CIE等の周知の色空間のパラメータに従って決定されうる。テクスチャ特徴は、例えば、エッジ検出、テクスチャ勾配、Gaborフィルタ、Tamura特徴フィルタ等の周知の従来技術を用いて取得されうる。
【0032】
画像中の画素の和は、このようにタグ付けされる人物Ωに対する外見及び幾何学形状に基づく統計的モデルP(I|T,ξ,Ωを発生するために使用される。一旦発生されると、P(I|T,ξ,Ωは、人物追跡操作において続く画像を処理するために用いられる。上述のように、タグ付けされた人物の追跡は、ビデオセグメントの以前のフレーム中の既知の位置及び姿勢のシーケンスを利用する。従って、画像フレームのシーケンスから構成されるビデオセグメント中の人物の尤度確率を発生するために、統計的モデルP(I|T,ξ,Ωは、(例えばカルマンフィルタを介して実施される大域的動きモデルによって特徴付けられ得る)シーケンスに亘る人物の大域的軌跡Tの尤度確率と、(遷移マトリクスを用いて1次のマルコフモデルを用いて実施されうる)シーケンスに亘って特徴付けられた局所的な動きの尤度確率とで乗算される。
【0033】
上述のように、制御ユニット110は、人間の体を同定し、各カメラC1−C4からの各ビデオストリーム中の外見及び幾何学的に基づいた統計的モデルに基づいて様々な人物を追跡する。制御ユニット110は、このように、各カメラC1−C4から受信される各ビデオストリーム中の各人物についての別々の外見及び幾何学的に基づいた統計的モデルを発生する。モデルは、色、テクスチャ、及び/又は、人物にとって累積的に一意である他の特徴に基づくものであり、制御ユニット110は、様々なビデオストリームに対するモデルを比較し、同定されたどの人物が様々なビデオストリーム中の夫々で追跡されているものであるかを同定する。
【0034】
例えば、少なくとも2つのカメラの視野内にいる1人の人物に注目すると、人物は、このように同定され少なくとも2つのビデオストリーム中で追跡されている。更に便宜上、1人の人物は、部屋の中心から図3a中に示す位置に向かって歩いている、図3aに示す人物であると想定する。従って、最初は、カメラC1−C4によって人物Pの全体画像が捕捉される。プロセッサPは、このように、各ビデオストリーム中の人物Pを別々に同定し、発生された別々の統計的モデルに基づいて各ビデオストリーム中の人物Pを追跡する。制御ユニット110は、(データストリーム中の動いている全ての他の人物に対するモデルと共に)データストリームに対して発生されたPに対する統計的モデルを比較し、統計的モデルの尤度に基づいて人物Pが各データストリーム中で同じであることを判定する。制御ユニット110は、このように各データストリーム中の人物Pの追跡動作を関連付ける。
【0035】
一旦関連付けられると、制御ユニット110は、人物が1つ又はそれ以上のカメラの視野の境界へ動いたかどうかを判定するよう各データストリーム中の人物Pの追跡動作を監視する。例えば、人物Pが部屋の中心から図3aに示す位置へ動く場合、制御ユニット110は、カメラC1及びC2のビデオストリーム中のPの画像を図3cに示すように画像の境界まで追跡する。これに応じて、制御ユニット110は、人物Pがカメラからの画像の中に完全に入るよう1つ又はそれ以上のカメラを回転するよう上述のようにステッピングモータをステップ動作させうる。従って、制御ユニット110は、人物PがカメラC1からの画像(図3d中に表示D1として示される)の中に完全に入るまで、カメラCを時計回り(図3aからみたときに)に回転させるようステッピングモータS1をステップ動作させる。制御回路110はまた、人物PがカメラC2からの画像の中に完全に入るまでカメラC2を時計回りに改善させるようステッピングモータS2をステップ動作させうる。
【0036】
上述のように、人物Pの前面全体が図3dにおいて見えるようにカメラC1が回転されると、人物は自分のポケットに品物を入れていることが観察される。また、制御ユニット110は、追跡された人物が視野の境界上にあるときに、全てのカメラ(例えば図3aのカメラC1及びC2)を再配置しうる。しかしながら、他のカメラが部屋の出来る限り多くを網羅することが望ましいため、システムの全体動作について最も効率的ではないかもしれない。従って、人物Pが図3aに示される(そして図3cに表示される)位置へ動くとき、制御ユニット110は、代わりに、どのカメラが部分的な画像内の人物の前面上に向けられているかを決定しうる。このように、制御ユニット110は、カメラC1及びC2からの画像中で(追跡処理におけるセグメント化された領域の1つである)人物の頭領域を分離する。顔認識は、上述のRBFネットワークを用いた人間の体の同定と同様に行われてもよく、詳細については上述の「Tracking Faces」なる文献に記載されている。C1からのビデオストリーム中の画像については、人物Pはカメラを向いているため一致が検出され、C2については、一致はない。このように人物PがカメラC1に向いていると決定すると、カメラC1は、Pの完全な画像を捕捉するよう制御ユニット110によって回転される。更に、部屋を網羅する範囲を最大化し、操作者の混乱を減少させるため、Pの背面の一部を示すカメラC2は、人物Pが全く見えないように制御ユニット110によって反時計回りに回転されうる。
【0037】
更に、表示を監視している操作者には、制御ユニット110によって自動的に行われるのとは異なるようにカメラを動かすオプションが与えられうる。例えば、上述の例では、制御ユニット110は、人物Pの前面の完全な画像が表示D1(図3dに示す)に示されるようカメラC1を動かし、また、人物Pの背面の完全な画像が表示D2から除かれるようカメラC2を動かす。しかしながら、泥棒が自分の右手で後ろポケットに手を伸ばしているとき、カメラC2の画像がより望ましい。従って、操作者には、制御ユニット110によって実行される動きを無効とするというオプションが与えられてもよい。選択された場合、制御ユニット110は、人物の完全な画像がカメラC2で捕捉され、D2上に表示され、人物の画像が表示D1から除去されるよう、カメラの動きを逆にする。或いは、制御ユニット110は、人物の背面画像全体が表示D2上に示され、一方で前面画像全体が表示D1に残るよう、カメラC2のみを動かしてもよい。或いは、操作者には、手動入力でどのカメラがどの程度動かされるかを手動制御するオプションが与えられてもよい。
【0038】
更に、ある状況(例えば、僅かな人が立ち入りできる非常に安全性の高い区域)では、制御ユニット110は、全てのカメラが人物の完全な画像を捕捉するよう、全てのカメラの位置を調整しうる。人物がカメラ(例えば図3aのカメラC4)の視野から完全に外にいるとき、制御ユニット110は、画像を捕捉するためにカメラをどの方向に回転させるかを決定するために(例えば以下説明するような)幾何学的な考慮すべき事柄を使用しうる。
【0039】
人物を追跡するために発生された統計的モデルに基づいて様々なビデオストリーム中の同じ人物を関連付ける制御ユニット110の代わりに、制御ユニット110は、幾何学的な理由付けを用いて同じ人物を関連付けうる。従って、各カメラについて、制御ユニット110は、基準座標系を各カメラから受信された画像と関連付けうる。基準座標系の原点は、例えば、カメラが基準位置にあるときに画像を構成するシーンの中心にある点に位置決めされてもよい。関連付けられるステッピングモータを介してプロセッサによってカメラが動かされると、制御ユニット110は、(例えば線LS1−LS4を通じて)ステッピングモータから位置フィードバック信号を介して、又は過去の及び現在のステップ動作の累積的な量及び方向を追跡することによって、動きの量を追跡する。制御ユニット110はまた、シーン中の点に対して固定のままであるよう座標系の原点を調整する。制御ユニット110は、画像中の同定された人物(例えば人物の胴の中心)についての基準座標系中の座標を決定する。また、基準座標系は画像のシーン中の点に対して固定に維持され、即ち、人物の座標は人物が画像中で動くにつれて変化し、座標は制御ユニット110によって各画像中の各人物に対して維持される。
【0040】
また、各カメラに対する基準座標系は、カメラからの画像を含むシーン中の点に対して固定に維持される。各カメラの基準座標系は、一般的には室内の異なる点に原点を有し、異なる向きとされうる。しかしながら、これらは部屋(又は各画像中の部屋のシーン)に対して夫々固定されているため、互いに対して固定されている。制御ユニット110は、各カメラに対する基準座標系の原点及び向きが互いに対して知られているようプログラムされる。
【0041】
従って、カメラの座標系中の同定された動いている人物の座標は、制御ユニット110によって他のカメラの夫々に対する座標へ変換される。変換された座標が1つ又はそれ以上の他のカメラのビデオストリーム中で同定される人物と一致する場合、制御ユニット110は、それらが同じ人物であると判定し、各データストリーム中の人物の追跡は、上述の目的のために関連付けられる。
【0042】
制御ユニット110は、異なるビデオストリーム中で同定され追跡される人物が同じ人物であると判定するために、データストリーム中の統計的モデルの比較と、基準座標系を用いた幾何学的比較の両方を使用しうる。更に、一方は1次判定として使用されてもよく、一方は例えば1次判定が決定的でない場合に使用されうる2次判定として使用されうる。
【0043】
また、説明の便宜上、上述の典型的な実施例は、ステッピングモータS1−S2によって図3bに示す軸A1−A4の回りに回動されうる略同じ高さのカメラに頼るものであった。実施例は、例えば天井に隣接して、部屋の中により高い位置に配置されたカメラに容易に適用される。このようなカメラは、PTZ(パン、チルト、ズーム)カメラでありうる。パン特徴は、上述の実施例でステッピングモータS1−S4の回転特徴を実質的に実行する。カメラの傾斜は、軸A1−A4に対するカメラの光学軸の角度を調整し、従ってカメラが部屋を見下ろす角度を制御する、各カメラに関連付けられる第2のステッピングモータによって行われてもよい。動く対象は、人間の体として同定され、上述のようにカメラから受信される画像から追跡され、カメラは視野の境界を歩く人物の完全な画像を捕捉するようパン及びチルトの両方がされうる。更に、カメラが傾斜されているとき、受信された画像は、知られている画像処理技術を用いて第3の次元(カメラに対する部屋内の奥行き)を考慮に入れるよう制御ユニット110によって処理されてもよい。異なる画像中の対象間の幾何学的関係を与えるよう制御ユニット110によって発生される基準座標系は、第3の奥行き次元を含むよう拡張される。また、実施例や、4つよりも多い、又は少ないカメラに適応するよう容易に適合されうる。
【0044】
本発明は、視野の境界に立っている人物が画像中で完全に捕捉されるよう1つ又はそれ以上のカメラを調整する他の方法を含む。制御ユニット110は、異なる位置にある各カメラについての部屋の一連の基準線画像を格納する。基準線画像は、通常は部屋の中に配置される対象(例えば棚、机、コンピュータ等)を含むが、人物(以下「移動対象(transitory object」)といった部屋の中へ及び外へ動く対象を含まない。制御ユニット110は、夫々に対するビデオストリーム中の画像を適切な基準線画像と比較し、例えば差分法を用いること、又は受信されたものと基準線画像の間で勾配を比較することにより、移動対象である対象を同定しうる。各カメラに対して、一組の1つ又はそれ以上の移動対象がこのようにビデオストリーム中で同定される。
【0045】
各組の移動対象の特定的な特徴は、制御ユニット110によって決定される。例えば、対象の色及び/又はテクスチャは、上述の周知の方法で決定される。異なるビデオストリームからの対象の組の中の移動対象は、例えば一致する色及び/又はテクスチャといった一致する特徴に基づいて同じ対象として同定される。或いは、又はそれに加えて、上述の各カメラに対するビデオストリームに関連付けられる基準座標系は、やはり上述のように、位置に基づいて各ビデオストリーム中の同じ移動対象を同定するために制御ユニット110によって使用されうる。
【0046】
様々なデータストリーム中で同じであるとして同定される各対象について、制御ユニット110は、それが人物であるかどうかを判定するために1つ又はそれ以上のデータストリーム中の対象を更に解析する。制御ユニット110は、上述のように、また、’443号特許出願のような判定において、ERBFネットワークを使用しうる。人物が対象の後ろ側に位置しているとき、又はカメラの内の1つの視野の境界に位置しているとき、制御ユニット110は、第2のカメラのデータストリーム中の対象を解析せねばならないことがある。
【0047】
対象が人物であると判定されると、人物が動いていれば、制御ユニット110は以前のデータストリーム中で人物を追跡する。人物が静止しているか、静止するとき、制御ユニット110は、1つ又はそれ以上のデータストリーム中の人物が他の対象(例えば柱、カウンター等)によって見えなくされているかどうか、又は、1つ又はそれ以上のカメラの視野の縁にあるために部分的に切り取られていないかを判定する。制御ユニット110は、例えば、画像又はデータストリームに対する基準座標系における位置により人物が視野の縁にいるかどうかを判定してもよい。或いは、制御ユニット110は、各画像中の人物の表面領域に亘って積分を行うことにより、人物が見えなくされているか、又は視野の縁にあるのではないかを判定しうる。1つ又はそれ以上のデータストリームで人物についての積分が他のデータストリームにおけるものよりも小さければ、カメラは、制御ユニット110によって、面積分が最大化されるまで、従って、カメラについての視野中の完全な画像(又は人物を見えなくしている対象があるときは、出来るだけ多く)を捕捉するよう、調整されうる。或いは、人物が視野の縁にいるときは、カメラは、人物が完全に視野の外となるよう再配置されてもよい。上述のように、調整は、制御ユニット110により、1つ又はそれ以上の顔認識に依存して行われてもよく、また、表示の操作者による手動入力によって無効とされても良い。
【0048】
以下の文献は、ここに参照として組み入れられる。
【0049】
1.ギュッタ(Gutta)、フアン(Huang)、ジョナソン(Jonathon)、及びウェシュラー(Wechsler)著、「Mixture of Experts for Classification of Gender, Ethnic Origin and Pose of Human Faces」、IEEE ニューラルネットワークについての報告書、第11巻、第4号、2000年7月、p.948−960。
【0050】
受信された画像を用いた性別や民族性といった顔の下位分類の検出を示す。「Mixture of Experts」における技術は、年齢等の画像中の人物の他の個人的特徴を同定するために容易に適用されうる。
【0051】
2.レン(Wren)外著、「Pfinder:Real−Time Tracking Of the Human Body」、IEEE パターン解析及び機械知能についての報告書、第19巻、第7号、1997年7月、p.780−785で発表されたMIT Media Laboratory Perceptual Computing Section Technical Report No.353。
【0052】
ビデオ画像中で人物の体(又は例えば頭や手)を見つけ、追跡する「人物探索器(person) finder」を記載している。
【0053】
3.ディー・エム・ガヴリラ(D.M.Gavrila)(ダイムラー・クライスラー・リサーチ、画像理解システムス)著、「Pedestrian Detection From A Moving Vehicle」、コンピュータビジョンに関する欧州会議議事録、アイルランド、ダブリン、2000年、(www.gavrila.net)
4.アイサード(Isard)及びブレーク(Blake)(オックスフォード大学エンジニアサイエンス学部)著、「Condensation−Conditional Density Propagation For Visual Tracking」、Int.J.Computer Vision,第29巻、第1号、1998年、p.5−28、(www.dai.ed.ac.uk/CVonline/LOCAL_COPIES/ISARD1/condensation.htmlで、「condensation」ソースコードとともに入手可能)
画像中の静止対象の検出のための統計的サンプリングアルゴリズムと対象の動きの検出のための確率的モデルとを用いることを記載している。
【0054】
5.エルガマル(Elgammal)外、「Non−parametric Model For Background Subtraction」、第6回コンピュータビジョンに関する欧州会議(ECCV2000)、アイルランド、ダブリン、2000年6月/7月、
差分法を用いたビデオ画像データ中の動く対象の検出について記載している。
【0055】
6.ラジャ(Raja)外、「Segmentation and Tracking Using Color Mixture Models」、第3回コンピュータビジョンについてのアジア会議の議事録、中国、香港、1998年1月、第I巻、p.607−614。
【0056】
本発明の例示的な実施例は、添付の図面を参照して説明されたが、本発明はこれらの実施例に限られるものではなく、発明の範囲は特許請求の範囲に定義されるものであることが意図される。
【図面の簡単な説明】
【0057】
【図1】室内に配置された4画面同時表示を与えるカメラを示す図である。
【図2】図1に示す室内に位置する人物の4画面同時表示を示す図である。
【図3a】本発明の実施例において用いられる室内に配置されるカメラを表わす図である。
【図3b】図3aに配置されるようなカメラを組み込んだ本発明の実施例のシステムを表わす図である。
【図3c】本発明の実施例により図3bのシステムによってカメラが調整されたときの図3aの室内に配置される人物の4画面同時表示を示す図である。
【図3d】本発明の実施例により図3bのシステムによってカメラが調整されたときの図3aの室内に配置される人物の4画面同時表示を示す図である。

Claims (16)

  1. 人物の表示された画像の位置を調整するシステムであって、
    前記システムは画像シーケンスを受信する制御ユニットを有し、前記制御ユニットは前記人物が前記表示されるべき受信された画像の境界に位置するかどうかを判定し、前記人物が前記表示されるべき受信された画像の境界に位置すると判定されると、前記人物が前記画像内に完全に位置するよう前記画像シーケンスを与える光学装置の位置を制御するよう制御信号を発生する、システム。
  2. 前記制御ユニットは、前記画像シーケンス中の動く対象を前記人物として同定し、前記人物の動きを前記画像シーケンス中で前記画像の境界まで追跡することにより、前記人物が前記受信された画像の境界に位置しているかどうかを判定する、請求項1記載のシステム。
  3. 前記動く対象は、RBFネットワークを用いて前記対象に対するデータを処理することによって前記人物であると同定される、請求項2記載のシステム。
  4. 前記画像シーケンス中での前記人物の動きの追跡は、前記画像中の前記人物の少なくとも1つの特徴を同定し、前記画像中で前記人物を追跡するために前記少なくとも1つの特徴を用いることを含む、請求項2記載のシステム。
  5. 前記少なくとも1つの特徴は、前記画像中の前記人物の少なくとも1つの領域の色及びテクスチャのうちの少なくとも1つである、請求項4記載のシステム。
  6. 前記制御ユニットは、2つ又はそれ以上の各光学装置から2つ又はそれ以上の画像シーケンスを受信し、前記光学装置は、前記2つ又はそれ以上の各画像シーケンスの領域が重なり合うよう配置され、前記2つ又はそれ以上の画像シーケンスは別々に表示される、請求項2記載のシステム。
  7. 前記2つ又はそれ以上の各画像シーケンスに対して、前記制御ユニットは、前記人物が受信された画像の境界に位置しているかどうかを判定するために前記受信された画像シーケンスを処理する、請求項6記載のシステム。
  8. 前記2つ又はそれ以上の各画像シーケンスに対して、前記制御ユニットは、前記人物が受信された画像の境界に位置しているかどうかを判定し、前記制御ユニットは、前記人物の全体の画像が捕捉されるよう前記各画像シーケンスに対して前記光学装置の位置を制御するよう制御信号を発生する、請求項7記載のシステム。
  9. 前記制御ユニットは、前記人物を完全に画像内に位置するよう前記光学装置が動かされるよう制御信号を発生する、請求項8記載のシステム。
  10. 2つ又はそれ以上の各画像シーケンスに対して、前記制御ユニットによる前記人物が受信された画像の境界に位置しているかどうかについての判定は、前記画像シーケンス中の動く対象を同定し、前記動く対象が人物であるかどうかを判定し、前記画像シーケンス中で人物であると判定された動く対象を追跡することを含む、請求項7記載のシステム。
  11. 前記各画像シーケンス内で人物であると判定された動く対象の追跡は、更に、2つ又はそれ以上の前記シーケンス内でどの人物が同じ人物であるかを同定することを含む、請求項10記載のシステム。
  12. 前記制御ユニットは、少なくとも1つの前記画像シーケンスについて前記人物が前記受信された画像の境界に位置しているかどうかの判定を、前記人物が2つ又はそれ以上の画像シーケンス内で同じ人物であるかどうかを同定し、少なくとも1つの前記画像シーケンスの境界まで前記人物を追跡することによって行う、請求項11記載のシステム。
  13. 人物の表示された画像の位置を調整する方法であって、
    画像シーケンスを受信する段階と、前記人物が前記表示されるべき受信された画像の境界に位置しているかどうかを判定する段階と、前記人物が完全に前記画像内に位置するよう前記画像シーケンスを与える光学装置の位置を調整する段階とを含む方法。
  14. 前記人物が前記表示されるべき受信された画像の境界に位置しているかどうかを判定する段階は、前記受信された画像中の前記人物を同定する段階を含む、請求項13記載の方法。
  15. 前記人物が前記表示されるべき受信された画像の境界に位置しているかどうかを判定する段階はまた、前記受信された画像中で前記人物を追跡する段階を含む、請求項14記載の方法。
  16. 人物の表示された画像の位置を調整する方法であって、
    2つ又はそれ以上の画像シーケンスを受信する段階と、前記表示されるべき受信された各画像シーケンス中で前記人物の全体又は一部が見えているかどうかを判定する段階と、前記人物が前記表示されるべき受信された画像シーケンスのうちの1つ又はそれ以上の中で部分的に見えていると判定された場合は、前記人物が前記受信された画像内に完全に位置するよう、前記1つ又はそれ以上の受信された画像シーケンスのうちの1つに対応するものを与える少なくとも1つの光学装置を調整する段階とを含む、方法。
JP2003529752A 2001-09-17 2002-09-04 協働的な分散されたビジョンを通じたインテリジェントな4画面同時表示 Pending JP2005503731A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/953,642 US20030052971A1 (en) 2001-09-17 2001-09-17 Intelligent quad display through cooperative distributed vision
PCT/IB2002/003624 WO2003026281A1 (en) 2001-09-17 2002-09-04 Intelligent quad display through cooperative distributed vision

Publications (1)

Publication Number Publication Date
JP2005503731A true JP2005503731A (ja) 2005-02-03

Family

ID=25494309

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003529752A Pending JP2005503731A (ja) 2001-09-17 2002-09-04 協働的な分散されたビジョンを通じたインテリジェントな4画面同時表示

Country Status (6)

Country Link
US (1) US20030052971A1 (ja)
EP (1) EP1430712A1 (ja)
JP (1) JP2005503731A (ja)
KR (1) KR20040035803A (ja)
CN (1) CN1555647A (ja)
WO (1) WO2003026281A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030076413A1 (en) * 2001-10-23 2003-04-24 Takeo Kanade System and method for obtaining video of multiple moving fixation points within a dynamic scene
JPWO2004039078A1 (ja) * 2002-10-28 2006-02-23 株式会社デナロ 特定領域の監視システム
US20050134685A1 (en) * 2003-12-22 2005-06-23 Objectvideo, Inc. Master-slave automated video-based surveillance system
US20070058717A1 (en) * 2005-09-09 2007-03-15 Objectvideo, Inc. Enhanced processing for scanning video
US8432449B2 (en) * 2007-08-13 2013-04-30 Fuji Xerox Co., Ltd. Hidden markov model for camera handoff
WO2009057042A2 (en) * 2007-11-02 2009-05-07 Nxp B.V. Acquiring images within a 3-dimensional room
IL197996A (en) 2009-04-05 2014-07-31 Rafael Advanced Defense Sys A method for locating people
KR101425170B1 (ko) * 2010-11-16 2014-08-04 한국전자통신연구원 영상 촬영 장치의 객체 추적 장치 및 방법과 보안 관리 시스템의 객체 추적 장치
JP5762211B2 (ja) * 2011-08-11 2015-08-12 キヤノン株式会社 画像処理装置および画像処理方法、プログラム
US9295390B2 (en) * 2012-03-02 2016-03-29 Hill-Rom Services, Inc. Facial recognition based monitoring systems and methods
CN102663743B (zh) * 2012-03-23 2016-06-08 西安电子科技大学 一种复杂场景中多摄影机协同的人物追踪方法
US8958627B2 (en) * 2012-05-09 2015-02-17 Sight Machine, Inc. System and method of distributed processing for machine-vision analysis
US9754154B2 (en) 2013-02-15 2017-09-05 Microsoft Technology Licensing, Llc Identification using depth-based head-detection data
US9443148B2 (en) 2013-03-15 2016-09-13 International Business Machines Corporation Visual monitoring of queues using auxiliary devices
CN105627995B (zh) * 2016-03-31 2018-03-23 京东方科技集团股份有限公司 摄像装置、转动装置、测距装置、测距系统和测距方法
JP7132216B2 (ja) 2016-11-03 2022-09-06 コーニンクレッカ フィリップス エヌ ヴェ バイタルサインの取得を改善するための自動パン・チルト・ズーム調整
US10656276B2 (en) * 2017-07-29 2020-05-19 Verizon Patent And Licensing Inc. Systems and methods for inward-looking depth scanning of a scan zone
US10922824B1 (en) * 2019-08-13 2021-02-16 Volkswagen Ag Object tracking using contour filters and scalers

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9019538D0 (en) * 1990-09-07 1990-10-24 Philips Electronic Associated Tracking a moving object
JP3487436B2 (ja) * 1992-09-28 2004-01-19 ソニー株式会社 ビデオカメラシステム
KR0147572B1 (ko) * 1992-10-09 1998-09-15 김광호 자동 줌잉을 위한 피사체 추적방법 및 그 장치
KR100276681B1 (ko) * 1992-11-07 2001-01-15 이데이 노부유끼 비디오 카메라 시스템
CA2155719C (en) * 1994-11-22 2005-11-01 Terry Laurence Glatt Video surveillance system with pilot and slave cameras
US5912980A (en) * 1995-07-13 1999-06-15 Hunke; H. Martin Target acquisition and tracking
JPH09186927A (ja) * 1995-12-28 1997-07-15 Sony Corp 追尾装置および追尾方法
JP4079463B2 (ja) * 1996-01-26 2008-04-23 ソニー株式会社 被写体検出装置および被写体検出方法
FR2757002B1 (fr) * 1996-12-06 1999-01-22 David Antoine Systeme de suivi de mobiles en temps reel sur un terrain de sports
FI103001B (fi) * 1997-06-13 1999-03-31 Nokia Corp Menetelmä lähetettävän kuvan muodostamiseksi päätelaitteessa ja päätel aite
US6404900B1 (en) * 1998-06-22 2002-06-11 Sharp Laboratories Of America, Inc. Method for robust human face tracking in presence of multiple persons
US6359647B1 (en) * 1998-08-07 2002-03-19 Philips Electronics North America Corporation Automated camera handoff system for figure tracking in a multiple camera system
US6437819B1 (en) * 1999-06-25 2002-08-20 Rohan Christopher Loveland Automated video person tracking system
DE19942223C2 (de) * 1999-09-03 2003-03-13 Daimler Chrysler Ag Klassifikationsverfahren mit Rückweisungsklasse
US6795567B1 (en) * 1999-09-16 2004-09-21 Hewlett-Packard Development Company, L.P. Method for efficiently tracking object models in video sequences via dynamic ordering of features

Also Published As

Publication number Publication date
KR20040035803A (ko) 2004-04-29
US20030052971A1 (en) 2003-03-20
CN1555647A (zh) 2004-12-15
EP1430712A1 (en) 2004-06-23
WO2003026281A1 (en) 2003-03-27

Similar Documents

Publication Publication Date Title
US10339386B2 (en) Unusual event detection in wide-angle video (based on moving object trajectories)
Verma et al. Face detection and tracking in a video by propagating detection probabilities
JP2005503731A (ja) 協働的な分散されたビジョンを通じたインテリジェントな4画面同時表示
Haritaoglu et al. Backpack: Detection of people carrying objects using silhouettes
EP2192549B1 (en) Target tracking device and target tracking method
US8599266B2 (en) Digital processing of video images
US8634591B2 (en) Method and system for image analysis
JP2004513442A (ja) 外観及び幾何学的配置特質に基づき統計モデルを活用する画像処理システムでの人物の札付け
JP2007080262A (ja) 3次元マルチカメラビデオナビゲーション支援システム、3次元マルチカメラビデオナビゲーション支援方法、3次元マルチカメラビデオナビゲーション支援プログラム
WO2007032821A2 (en) Enhanced processing for scanning video
JP2008542922A (ja) 保安用途向けの人間の検出及び追跡
JP5001930B2 (ja) 動作認識装置及び方法
Wang et al. An intelligent surveillance system based on an omnidirectional vision sensor
CN111242025A (zh) 一种基于yolo的动作实时监测方法
Cannons et al. The applicability of spatiotemporal oriented energy features to region tracking
KR101542206B1 (ko) 코아스-파인 기법을 이용한 객체 추출과 추적 장치 및 방법
Callemein et al. Anyone here? Smart embedded low-resolution omnidirectional video sensor to measure room occupancy
JP2003109001A (ja) 人物検出システム、及び人物検出プログラム
Voit et al. A bayesian approach for multi-view head pose estimation
Tu et al. An intelligent video framework for homeland protection
Argyros et al. Tracking skin-colored objects in real-time
AlGhamdi et al. Automatic motion tracking of a human in a surveillance video
CN113688680A (zh) 一种智能识别与追踪系统
Kaur Background subtraction in video surveillance
JP2004080128A (ja) 動体画像自動追跡方法と装置