JP2006506724A - 映像に固有の時間変動情報を介するオブジェクト分類 - Google Patents

映像に固有の時間変動情報を介するオブジェクト分類 Download PDF

Info

Publication number
JP2006506724A
JP2006506724A JP2004552934A JP2004552934A JP2006506724A JP 2006506724 A JP2006506724 A JP 2006506724A JP 2004552934 A JP2004552934 A JP 2004552934A JP 2004552934 A JP2004552934 A JP 2004552934A JP 2006506724 A JP2006506724 A JP 2006506724A
Authority
JP
Japan
Prior art keywords
neural network
series
time delay
video frames
classifying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004552934A
Other languages
English (en)
Inventor
ギュッタ,スリニヴァス
フィロミン,ヴァサント
トライコヴィッチ,ミロスラフ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Publication of JP2006506724A publication Critical patent/JP2006506724A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

シーンにおけるオブジェクトを分類する方法を提供する。この方法は、シーンのビデオデータを捕捉する段階と、ビデオデータの一連のビデオフレームにおいて少なくとも1つのオブジェクトを見つける段階と、一連のビデオフレームにおいて見つけられた少なくとも1つのオブジェクトを時間遅延ニューラルネットワークに入力する段階と、時間遅延ニューラルネットワークの結果に基づいて、少なくとも1つのオブジェクトを分類する段階とを有する。

Description

本発明は、一般的に、コンピュータビジョンに関わり、より具体的には、映像に固有の時間変動情報によるオブジェクト分類に係る。
一般的に、従来技術の識別システム及び分類システムは、それぞれ、静的又はビデオ映像のいずれかでオブジェクトを識別及び分類する。本開示では、オブジェクト分類は、オブジェクト識別及び/又は分類を包含する。従って、従来技術の分類システムは、静止画像か、又は、ビデオシーケンスにおけるフレームに作用して、その中にあるオブジェクトを分類する。当該技術において周知であるこれらの分類システムは、ビデオ映像に固有の時間と共に変動する情報を使用せず、むしろ、これらの分類システムは、一回に1フレームについてオブジェクトを識別することによりオブジェクトを分類することを試みている。
これらの分類システムは、利点はあるが、以下の不利点を有する。
(a)分類は、各フレームに独立して行われ、フレームに亘ってのオブジェクト間の任意の関係性が失われる。
(b)フレームに亘っての画素依存性は、各フレームが独立に処理されることによって、もはや維持されないので、分類システムの全体的なパフォーマンスはもはやロバストでなくなる。
(c)これらの分類システムは、映像に固有のノイズ及び照明変化によりグレースフルデグラレーションを示さない。
Bruton外による「On the Classification of Moving Objects in Image Sequences Using 3D Adaptive Recursive Tracking Filters and Neural Networks」(信号、システム、及びコンピュータに関する第29回アシロマ会議)では、忙しい交差点を通過する車両の軌跡が分類される。具体的には、この研究論文は、4つの種類の車両の軌跡、即ち、「左に曲がる車両」、「左車線から直進する車両」、「右に曲がる車両」、及び「右車線から直進する車両」を分類することに特に関連する。このことを達成する方法は、以下の通りである。(a)ビデオフレームにおけるオブジェクトを見つけるために再帰形フィルタを使用し、(b)一連のフレームでのオブジェクトを追跡するために同じフィルタを使用し、(c)次に、各フレームからオブジェクトの中心軌跡と速度を抽出し、(d)抽出した速度を使用し、それを、時間遅延ニューラルネットワーク(TDNN)に渡し、それにより、静的速度プロファイルを得、(e)静的速度プロファイルを使用して多層パーセプトロン(MLP)を訓練し、最終的に軌跡を分類する。この分類方法では、2つの主要な問題がある。従来技術は、オブジェクトを見つけ且つ追跡するために特に通過帯域フィルタといったフィルタを使用する。通過帯域フィルタのパラメータは、アドホックに設定される。しかし、オブジェクトを見つけ且つ追跡するために、フレームに亘る画素の相互関係が考慮に入れられていないので、そのようなシステムの全体的なパフォーマンスは低下する。というのは、フレームに亘るノイズが一貫しないからである。従って、フレームのセット全体のバックグランドモデルを学習することは、効率のよい関心のオブジェクトの発見及び追跡のための代わりの方法を与える。更に、モデルを学習することは、ビデオ映像が異なる時間の間に捕捉される場合は常にそのビデオ映像において照明に変化があることがしばしばであるので、特に重要である。第2に、照明変化により、速度計算が効率的ではない。このことにより、ニューラルネットワーク自体の精度が悪くなる。
従って、本発明は、従来技術に関連付けられる不利点を解決するオブジェクト分類のための方法及び装置を提供することを目的とする。
従って、シーンにおけるオブジェクトを分類する方法が提供される。この方法は、シーンのビデオデータを捕捉する段階と、ビデオデータの一連のビデオフレームにおいて少なくとも1つのオブジェクトを見つける段階と、一連のビデオフレームにおいて見つけられた少なくとも1つのオブジェクトを時間遅延ニューラルネットワークに入力する段階と、時間遅延ニューラルネットワークの結果に基づいて、少なくとも1つのオブジェクトを分類する段階を有する。
少なくとも1つのオブジェクトを見つける段階は、一連のビデオフレームにバックグランドサブトラクションを行う段階を有することが好適である。
時間遅延ニューラルネットワークは、エルマンネットワークであることが好適である。エルマンネットワークは、フィードバックとして前の時間ステップにおける隠れレイヤからの活性化のコピーを受信する追加の入力状態レイヤを有する多層パーセプトロンを有することが好適である。その場合、少なくとも1つのオブジェクトを分類する段階は、モデル空間に適合する状態の数を決定することにより、全体のアイデンティティを確認するよう状態レイヤをトラバースする段階を有する。
更に、シーンにおけるオブジェクトを分類する装置も提供する。この装置は、シーンのビデオデータを捕捉するための少なくとも1つのカメラと、ビデオデータの一連のビデオフレームにおいて少なくとも1つのオブジェクトを見つけ、一連のビデオフレームにおいて見つけられた少なくとも1つのオブジェクトを時間遅延ニューラルネットワークに入力するための検出システムと、時間遅延ニューラルネットワークの結果に基づいて、少なくとも1つのオブジェクトを分類するためのプロセッサとを有する。
検出システムは、一連のビデオフレームにバックグランドサブトラクションを行うことが好適である。
時間遅延ニューラルネットワークは、エルマンネットワークであることが好適である。エルマンネットワークは、フィードバックとして前の時間ステップにおける隠れレイヤからの活性化のコピーを受信する追加の入力状態レイヤを有する多層パーセプトロンを有することが好適である。その場合、プロセッサは、モデル空間に適合する状態の数を決定することにより、全体のアイデンティティを確認するよう状態レイヤをトラバースすることにより少なくとも1つのオブジェクトを分類する。
更に、本発明の方法を実行するためのコンピュータプログラムプロダクト及びその中にコンピュータプログラムプロダクトを格納するためのプログラム記憶装置も提供する。
本発明の装置及び方法のこれらの及び他の特徴、面、及び利点は、以下の説明、請求項、及び添付図面を参照することによってより良好に理解されるであろう。
本発明は、多数の及び様々なタイプのニューラルネットワークに適用可能であるが、エルマン(Elman)ニューラルネットワークの環境において特に有用であることが分かっている。従って、本発明の適用可能性をエルマンニューラルネットワークに限定することなく、本発明をそのような環境で説明する。
一回に1フレームでのビデオ映像におけるオブジェクトの分類とは対照的に、本発明の方法は、ビデオシーケンスをその全体においてラベル付けする。このことは、決定に達するために過去及び現在のデータと、それらの固有の関係を見ることによって分類することを学習するエルマンニューラルネットワークといった時間遅延ニューラルネットワーク(TDNN)を使用することにより達成される。従って、本発明の方法は、ビデオシーケンスにおける別々のフレームから学習するのではなくてビデオシーケンスを学習することによりオブジェクトを識別/分類する能力を有する。更に、上述した従来技術において行われるようにビデオデータから特徴測定値を抽出するのではなく、本発明の方法は、追跡したオブジェクトを、TDNNへの入力として直接的に使用する。つまり、従来技術は、その入力は、追跡したオブジェクトから抽出された特徴であるTDNNを使用した。従来技術とは対照的に、本発明の方法は、追跡したオブジェクト自体をTDNNに入力する。
従来技術の方法を、図1を参照して説明する。図1は、本発明の方法の好適な実施を説明するフローチャートを示す。ここでは、参照番号100として示す。この方法では、段階102において、ビデオ入力が、シーンからビデオ映像を捕捉する少なくとも1つのカメラから受信される。段階104において、バックグランドモデルを使用して、カメラの視野全体に亘るビデオ映像においてオブジェクトを見つけ追跡する。ビデオデータにおけるオブジェクトを追跡且つ見つけるためのバックグランドモデリングは、当該技術において周知であり、例えば、その内容を本願に参照として組み込む「Classification Of Objects Through Model Ensembles」なる名称のGutta外への米国特許出願番号09/794,443、Elgammal外による「Non-parametric Model for Background Subtraction」(コンピュータビジョン欧州会議(ECCV)2000、2000年6月アイルランド、ダブリン)、及びRaja外による「Segmentation and Tracking Using Color Mixture Models」(第3回コンピュータビジョンアジア会議の議事録、第1刊606−614ページ、1998年1月中国、香港)に開示される。
シーンのビデオデータにおいて動くオブジェクトが見つからない場合、方法は、段階106のノーから段階102に進み、段階102では、ビデオ入力が連続的にモニタリングされる。シーンのビデオデータにおいて動くオブジェクトが見つかると、方法は、段階106のイエスから段階108に進み、段階108では、見つけられたオブジェクトが、好適にはエルマンニューラルネットワーク(ENN)である時間遅延ニューラルネットワーク(TDNN)に直接入力される。このことを達成する1つの好適な方法は、エルマンニューラルネットワークを使用することである[Dorffner Gによる「Neural Networks for Time Series Processing」(Neural Networks 3(4))、1998年]。エルマンネットワークは、個々のフレームでの処理とは対照的に、2つ以上のビデオフレーム、好適には、シーケンス全体を入力として取る。基本的な仮定は、時間と共に変化する映像は、状態ベクトル
Figure 2006506724
により与えられる、時間に依存する状態の線形変換:
Figure 2006506724
として記述可能であるということである。ここでは、Cは、変換マトリクスである。時間依存状態ベクトルも、線形モデル:
Figure 2006506724
によっても記述可能であり、A及びBはマトリクスであり、
Figure 2006506724
は、ノイズ処理であり、上述の
Figure 2006506724
と同様である。このモデルの基礎をなす仮定はマルコフ仮定であり、状態は、その状態がどのように達されたかに関わらず識別可能である。更に、状態は、過去のシーケンスベクトルにも依存し、動き平均項
Figure 2006506724
を無視すると仮定される。
Figure 2006506724
そして、エルマンネットワークとして知られる再帰的ニューラルネットワークタイプを記述する式が得られる。エルマンネットワークは、状態レイヤと称し、前の時間ステップにおける隠れレイヤからの活性化のコピーをフィードバックとして受信する追加の入力レイヤを有する多層パーセプトロン(MLP)である。
モデルが一旦学習されると、認識は、非線形状態のモデル空間に適合する状態の数を見つけることにより、全体のアイデンティティを確認するようその空間モデルをトラバースすることが関連する。このようなアプローチは、例えば、小売店における滑って転ぶイベントの検出、音楽の特定のビート/リズムの認識、及び、住居/小売店環境におけるオブジェクトの分類といった幾つかの領域で使用可能である。
図2を参照するに、本発明の方法100を実行する装置を示す。装置は、参照番号200として示す。装置200は、分類されるべきシーン204のビデオ画像データを捕捉する少なくとも1つのビデオカメラ202を有する。ビデオカメラ202は、好適にはシーン204のデジタル画像データを捕捉するが、装置200は更に、ビデオ画像データをデジタル形式に変換するためにアナログ−デジタル変換器(図示せず)を有し得る。デジタルビデオ画像データは、その中の動くオブジェクトの検出のために検出システム206に入力される。検出システム206により検出される任意の動くオブジェクトは、動くオブジェクトの画像データを解析し、上述した方法100に従って抽出された特徴のそれぞれに分類解析を行うパーソナルコンピュータといったプロセッサ208に入力されることが好適である。
本発明の方法は、コンピュータソフトウェアプログラムにより実行されることが特に適している。このようなコンピュータソフトウェアプログラムは、方法の各段階に対応するモジュールを含むことが好適である。このようなソフトウェアは、集積チップ又は周辺装置といったコンピュータ可読媒体に具現化可能である。
本発明の好適な実施例と考えられるものを示し及び説明したが、当然ながら、本発明の精神から逸脱することなく様々な変形及び変更を形式又は細部において容易に行うことが可能であることを理解するものとする。従って、本発明は、記載及び説明した形式に厳しく制限されるものではなく、請求項の範囲内のすべての変更を包含すると理解すべきである。
本発明の方法の好適な実施のフローチャートを示す図である。 本発明の方法を実行するシステムを示す図である。

Claims (20)

  1. シーンにおけるオブジェクトを分類する方法であって、
    前記シーンのビデオデータを捕捉する段階と、
    前記ビデオデータの一連のビデオフレームにおいて少なくとも1つのオブジェクトを見つける段階と、
    前記一連のビデオフレームにおいて見つけられた前記少なくとも1つのオブジェクトを時間遅延ニューラルネットワークに入力する段階と、
    前記時間遅延ニューラルネットワークの結果に基づいて、前記少なくとも1つのオブジェクトを分類する段階と、
    を有する方法。
  2. 前記少なくとも1つのオブジェクトを見つける段階は、前記一連のビデオフレームにバックグランドサブトラクションを行う段階を有する請求項1記載の方法。
  3. 前記時間遅延ニューラルネットワークは、エルマンネットワークである請求項1記載の方法。
  4. 前記エルマンネットワークは、フィードバックとして前の時間ステップにおける隠れレイヤからの活性化のコピーを受信する追加の入力状態レイヤを有する多層パーセプトロンを有する請求項3記載の方法。
  5. 前記少なくとも1つのオブジェクトを分類する段階は、モデル空間に適合する状態の数を決定することにより、全体のアイデンティティを確認するよう前記状態レイヤをトラバースする段階を有する請求項4記載の方法。
  6. 機械により可読であり、シーンにおけるオブジェクトを分類するための方法段階を前記機械が行うよう実行可能である命令のプログラムを明白に具現化するプログラム記憶装置であって、
    前記方法段階は、
    前記シーンのビデオデータを捕捉する段階と、
    前記ビデオデータの一連のビデオフレームにおいて少なくとも1つのオブジェクトを見つける段階と、
    前記一連のビデオフレームにおいて見つけられた前記少なくとも1つのオブジェクトを時間遅延ニューラルネットワークに入力する段階と、
    前記時間遅延ニューラルネットワークの結果に基づいて前記少なくとも1つのオブジェクトを分類する段階と、
    を有するプログラム記憶装置。
  7. 前記少なくとも1つのオブジェクトを見つける段階は、前記一連のビデオフレームにバックグランドサブトラクションを行う段階を有する請求項6記載のプログラム記憶装置。
  8. 前記時間遅延ニューラルネットワークは、エルマンネットワークである請求項6記載のプログラム記憶装置。
  9. 前記エルマンネットワークは、フィードバックとして前の時間ステップにおける隠れレイヤからの活性化のコピーを受信する追加の入力状態レイヤを有する多層パーセプトロンを有する請求項8記載のプログラム記憶装置。
  10. 前記少なくとも1つのオブジェクトを分類する段階は、モデル空間に適合する状態の数を決定することにより、全体のアイデンティティを確認するよう前記状態レイヤをトラバースする段階を有する請求項9記載のプログラム記憶装置。
  11. シーンにおけるオブジェクトを分類するためにコンピュータ可読媒体内に具現化されるコンピュータプログラムプロダクトであって、
    前記シーンのビデオデータを捕捉するためのコンピュータ可読プログラムコード手段と、
    前記ビデオデータの一連のビデオフレームにおいて少なくとも1つのオブジェクトを見つけるためのコンピュータ可読プログラムコード手段と、
    前記一連のビデオフレームにおいて見つけられた前記少なくとも1つのオブジェクトを時間遅延ニューラルネットワークに入力するためのコンピュータ可読プログラムコード手段と、
    前記時間遅延ニューラルネットワークの結果に基づいて、前記少なくとも1つのオブジェクトを分類するためのコンピュータ可読プログラムコード手段と、
    を有するコンピュータプログラムプロダクト。
  12. 前記少なくとも1つのオブジェクトを見つけるためのコンピュータ可読プログラムコード手段は、前記一連のビデオフレームにバックグランドサブトラクションを行うためのコンピュータ可読プログラムコード手段を有する請求項11記載のコンピュータプログラムプロダクト。
  13. 前記時間遅延ニューラルネットワークは、エルマンネットワークである請求項11記載のコンピュータプログラムプロダクト。
  14. 前記エルマンネットワークは、フィードバックとして前の時間ステップにおける隠れレイヤからの活性化のコピーを受信する追加の入力状態レイヤを有する多層パーセプトロンを有する請求項13記載のコンピュータプログラムプロダクト。
  15. 前記少なくとも1つのオブジェクトを分類するためのコンピュータ可読プログラムコード手段は、モデル空間に適合する状態の数を決定することにより、全体のアイデンティティを確認するよう前記状態レイヤをトラバースするためのコンピュータ可読プログラムコード手段を有する請求項14記載のコンピュータプログラムプロダクト。
  16. シーンにおけるオブジェクトを分類する装置であって、
    前記シーンのビデオデータを捕捉するための少なくとも1つのカメラと、
    前記ビデオデータの一連のビデオフレームにおいて少なくとも1つのオブジェクトを見つけ、前記一連のビデオフレームにおいて見つけられた前記少なくとも1つのオブジェクトを時間遅延ニューラルネットワークに入力するための検出システムと、
    前記時間遅延ニューラルネットワークの結果に基づいて、前記少なくとも1つのオブジェクトを分類するためのプロセッサと、
    を有する装置。
  17. 前記検出システムは、前記一連のビデオフレームにバックグランドサブトラクションを行う請求項16記載の装置。
  18. 前記時間遅延ニューラルネットワークは、エルマンネットワークである請求項16記載の装置。
  19. 前記エルマンネットワークは、フィードバックとして前の時間ステップにおける隠れレイヤからの活性化のコピーを受信する追加の入力状態レイヤを有する多層パーセプトロンを有する請求項18記載の装置。
  20. 前記プロセッサは、モデル空間に適合する状態の数を決定することにより、全体のアイデンティティを確認するよう前記状態レイヤをトラバースすることにより前記少なくとも1つのオブジェクトを分類する請求項19記載の装置。
JP2004552934A 2002-11-15 2003-10-24 映像に固有の時間変動情報を介するオブジェクト分類 Pending JP2006506724A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/295,649 US20050259865A1 (en) 2002-11-15 2002-11-15 Object classification via time-varying information inherent in imagery
PCT/IB2003/004765 WO2004047027A2 (en) 2002-11-15 2003-10-24 Object classification via time-varying information inherent in imagery

Publications (1)

Publication Number Publication Date
JP2006506724A true JP2006506724A (ja) 2006-02-23

Family

ID=32324345

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004552934A Pending JP2006506724A (ja) 2002-11-15 2003-10-24 映像に固有の時間変動情報を介するオブジェクト分類

Country Status (7)

Country Link
US (1) US20050259865A1 (ja)
EP (1) EP1563461A2 (ja)
JP (1) JP2006506724A (ja)
KR (1) KR20050086559A (ja)
CN (1) CN1711560A (ja)
AU (1) AU2003274454A1 (ja)
WO (1) WO2004047027A2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100972196B1 (ko) * 2007-12-24 2010-07-23 주식회사 포스코 용철제조장치 및 용철제조방법
US8121424B2 (en) * 2008-09-26 2012-02-21 Axis Ab System, computer program product and associated methodology for video motion detection using spatio-temporal slice processing
US9710712B2 (en) * 2015-01-16 2017-07-18 Avigilon Fortress Corporation System and method for detecting, tracking, and classifiying objects
US10083378B2 (en) * 2015-12-28 2018-09-25 Qualcomm Incorporated Automatic detection of objects in video images
CN106846364B (zh) * 2016-12-30 2019-09-24 明见(厦门)技术有限公司 一种基于卷积神经网络的目标跟踪方法及装置
CN107103901B (zh) * 2017-04-03 2019-12-24 浙江诺尔康神经电子科技股份有限公司 人工耳蜗声音场景识别系统和方法
CN109975762B (zh) * 2017-12-28 2021-05-18 中国科学院声学研究所 一种水下声源定位方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5018215A (en) * 1990-03-23 1991-05-21 Honeywell Inc. Knowledge and model based adaptive signal processor
US5621858A (en) * 1992-05-26 1997-04-15 Ricoh Corporation Neural network acoustic and visual speech recognition system training method and apparatus
US5434927A (en) * 1993-12-08 1995-07-18 Minnesota Mining And Manufacturing Company Method and apparatus for machine vision classification and tracking
DE19706576A1 (de) * 1997-02-20 1998-08-27 Alsthom Cge Alcatel Vorrichtung und Verfahren zur umgebungsadaptiven Klassifikation von Objekten
US20030058111A1 (en) * 2001-09-27 2003-03-27 Koninklijke Philips Electronics N.V. Computer vision based elderly care monitoring system
US7110569B2 (en) * 2001-09-27 2006-09-19 Koninklijke Philips Electronics N.V. Video based detection of fall-down and other events

Also Published As

Publication number Publication date
WO2004047027A3 (en) 2004-10-07
AU2003274454A1 (en) 2004-06-15
EP1563461A2 (en) 2005-08-17
CN1711560A (zh) 2005-12-21
US20050259865A1 (en) 2005-11-24
WO2004047027A2 (en) 2004-06-03
KR20050086559A (ko) 2005-08-30

Similar Documents

Publication Publication Date Title
Han et al. Density-based multifeature background subtraction with support vector machine
CN106845487B (zh) 一种端到端的车牌识别方法
Sivaraman et al. A general active-learning framework for on-road vehicle recognition and tracking
Akilan et al. Fusion-based foreground enhancement for background subtraction using multivariate multi-model Gaussian distribution
KR101436369B1 (ko) 적응적 블록 분할을 이용한 다중 객체 검출 장치 및 방법
JP2006209755A (ja) シーンから取得されたフレームシーケンス中の移動オブジェクトを追跡する方法
CN110929593A (zh) 一种基于细节辨别区别的实时显著性行人检测方法
CN105741319B (zh) 基于盲目更新策略和前景模型的改进视觉背景提取方法
Shukla et al. Moving object tracking of vehicle detection: a concise review
WO2019197021A1 (en) Device and method for instance-level segmentation of an image
CN112912888A (zh) 识别视频活动的设备和方法
CN113396423A (zh) 处理来自基于事件的传感器的信息的方法
Jemilda et al. Moving object detection and tracking using genetic algorithm enabled extreme learning machine
Komagal et al. Real time background subtraction techniques for detection of moving objects in video surveillance system
Angelo A novel approach on object detection and tracking using adaptive background subtraction method
Manap et al. PATCH-IQ: a patch based learning framework for blind image quality assessment
Chinchkhede et al. Image segmentation in video sequences using modified background subtraction
Pawar et al. Morphology based moving vehicle detection
Nagaraj et al. Dotie-detecting objects through temporal isolation of events using a spiking architecture
JP2006506724A (ja) 映像に固有の時間変動情報を介するオブジェクト分類
Mohanty et al. A survey on moving object detection using background subtraction methods in video
JP7403562B2 (ja) スラップ/指前景マスクを生成するための方法
Anees et al. Deep learning framework for density estimation of crowd videos
KR100566629B1 (ko) 이동물체 검출 시스템 및 방법
Jarraya et al. Adaptive moving shadow detection and removal by new semi-supervised learning technique