JP5596801B2 - 監視システム - Google Patents

監視システム Download PDF

Info

Publication number
JP5596801B2
JP5596801B2 JP2012556959A JP2012556959A JP5596801B2 JP 5596801 B2 JP5596801 B2 JP 5596801B2 JP 2012556959 A JP2012556959 A JP 2012556959A JP 2012556959 A JP2012556959 A JP 2012556959A JP 5596801 B2 JP5596801 B2 JP 5596801B2
Authority
JP
Japan
Prior art keywords
macroblock
moving object
list
information
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012556959A
Other languages
English (en)
Other versions
JP2013527998A (ja
Inventor
フン パク,グァン
Original Assignee
ユニバーシティ−インダストリ コーポレーション グループ オブ キュン ヘ ユニバーシティ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ユニバーシティ−インダストリ コーポレーション グループ オブ キュン ヘ ユニバーシティ filed Critical ユニバーシティ−インダストリ コーポレーション グループ オブ キュン ヘ ユニバーシティ
Publication of JP2013527998A publication Critical patent/JP2013527998A/ja
Application granted granted Critical
Publication of JP5596801B2 publication Critical patent/JP5596801B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/192Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Description

侵入者の出現、遺棄された不審物、特定の顔など、特殊な着目すべき出来事を自動的に検出するために、監視システムが一般的に使用されている。監視システムはまた、銀行、公的機関、渋滞道路などの限られた区域を監視するためにも使用されている。このような監視システムの需要の増加に伴い、監視システムにおけるハードウェアコストや重い計算負荷の複雑さを増加させることなく、データネットワークを介して遠隔制御のための送信を効率的に行うために、キャプチャーしたさまざまな状況のビデオ画像を符号化し、また移動対象物を追跡することへ関心が向けられている。
監視システムおよび監視技術のさまざまな実施形態が提供される。一実施形態では、非限定的な例によれば、監視システムは、第1のカメラの使用により取得される複数のビデオフレームを受信するよう構成された入力ユニットと、複数のビデオフレームについて予測プロセスおよび符号化プロセスを実施するよう構成されたビデオ処理ユニットと、予測プロセスおよび符号化プロセスからの結果の少なくとも一部に基づいて複数のビデオフレーム間の移動物体を追跡して、追跡されている該移動物体の位置情報を生成するよう構成された移動物体追跡ユニットと、を含む。監視システムはさらに、位置情報に基づいて制御信号を生成し、該制御信号を第2のカメラに送信して該第2のカメラの動きを制御するよう構成された制御ユニットを含む。
前述の概要は例示にすぎず、決して限定することを意図するものではない。上記に例示した態様、実施形態、特徴に加えて、さらなる態様、実施形態、特徴が、図面および以下の詳細な説明を参照することにより明らかになるであろう。
監視システムの例示的実施形態の概略ブロック図である。 図1に示すような監視システムにおけるビデオ処理ユニットの概略ブロック図である。 図1の監視システムによって実施されるイントラ予測プロセスを説明する概略図である。 図1の監視システムによって実施されるイントラ予測プロセスを説明する概略図である。 図1の監視システムによって実施されるイントラ予測プロセスを説明する概略図である。 図1の監視システムによって実施されるインタ予測プロセスを説明する概略図である。 サンプルビデオ画像、および図1の監視システムによって算出される、サンプルビデオ画像に関する予測/符号化情報を説明する図である。 サンプルビデオ画像、および図1の監視システムによって算出される、サンプルビデオ画像に関する予測/符号化情報を説明する図である。 サンプルビデオ画像、および図1の監視システムによって算出される、サンプルビデオ画像に関する予測/符号化情報を説明する図である。 サンプルビデオ画像、および図1の監視システムによって算出される、サンプルビデオ画像に関する予測/符号化情報を説明する図である。 サンプルビデオ画像、および図1の監視システムによって算出される、サンプルビデオ画像に関する予測/符号化情報を説明する図である。 図5aに示すようなサンプルビデオ画像上で実施される、動き分類の結果を説明する図である。 図5aに示すようなサンプルビデオ画像上で実施される、動き分類の結果を説明する図である。 図5aに示すようなサンプルビデオ画像上で実施される、動き分類の結果を説明する図である。 図5aに示すようなサンプルビデオ画像上で実施される、動き分類の結果を説明する図である。 監視方法の例示的実施形態のフローチャートである。 移動物体追跡プロセスの例示的実施形態のフローチャートである。 動き分類プロセスの例示的実施形態のフローチャートである。
以下の詳細な説明では、本文書の一部をなす添付の図面を参照していく。図面においては、別途記載がない限り、同様の符号は概して同様のコンポーネントを識別するものとする。詳細な説明、図面、特許請求の範囲に記載の例示的実施形態は、限定することを意味するものではない。本文書に提示するサブジェクトマターの精神または範囲を逸脱することなく、その他の実施形態を利用することができ、またその他の変更を施すことができる。本文書で一般に述べられ、図において例示されている本開示のコンポーネントが、多種多様な異なる構成において配置、代用、結合、設計することが可能であること、そしてそれらの多種多様な異なる構成がすべて明白に考慮され、本開示の一部をなすものであることを容易に理解されよう。
本開示の例示的実施形態によるシステムおよび方法が、ハードウェア、ソフトウェア、ファームウェア、専用プロセッサ、またはそれらの組み合わせを含むさまざまな形態で実装できることを理解されたい。例えば、本開示の1つまたは複数の例示的実施形態を、プログラム記憶デバイス(例えば、ハードディスク、磁気フロッピー(登録商標)ディスク、RAM、ROM、CD−ROMなど)などの少なくとも1つのコンピュータ可読媒体上で容易に実施することができ、また、適切な構成を有する、コンピュータおよびコンピュータシステムを含むいずれかのデバイスまたはマシンによって実行可能な、プログラムまたはその他の適切なコンピュータ実行可能命令を有するアプリケーションとして実装することができる。一般に、プログラムモジュールの形態をとり得るコンピュータ実行可能命令は、特定のタスクを実施し、または特定の抽象データ型を実装する、ルーチン、プログラム、オブジェクト、コンポーネント、データ構造などを含む。プログラムモジュールの機能性は、さまざまな実施形態において所望するように結合または分散することができる。添付の図に記載されているシステム構成コンポーネントおよびプロセス構成動作の中にはソフトウェアとして実装できるものもあるため、システムユニットやシステムモジュールの間の接続(または方法動作の論理的流れ)は、本開示のさまざまな実施形態をプログラム化する方法によって異なることがあることもさらに理解されたい。
図1は、監視システム100の例示的実施形態の概略ブロック図を示す。図に示すように、監視システム100は、入力ユニット120、ビデオ処理ユニット130、移動物体追跡ユニット140、カメラ制御ユニット150を含む。
入力ユニット120は、カメラ、カムコーダーなどの画像キャプチャーデバイス(図示せず)から複数のビデオフレームを受信することができる。例えば、入力ユニット120は、第1のカメラ112に連結され、第1のカメラ112によってキャプチャーまたは取得されたビデオフレームを有するビデオを受信することができる。特定の実装要件によっては、第1のカメラ112は広角カメラのことがある。実施形態によっては、入力ユニット120が、シリアルポート、パラレルポート、PS/2ポート、ユニバーサルシリアルバス(USB)リンク、ファイアワイヤまたはIEEE1394リンクなどのデジタルインタフェースプロトコル、あるいは赤外線インタフェース、BlueTooth(登録商標)、ZigBee、高品位マルチメディアインタフェース(HDMI)、高帯域デジタルコンテンツ保護(HDCP)、ワイヤレスフィデリティ(Wi−Fi)、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)などの無線インタフェース接続を使用することによって通信プロトコルを実装する(有線でも無線でも)インタフェースユニットのことがある。入力ユニット120は、ビデオフレームをデジタル画像データに変換することができる。入力ユニット120は、アナログ−デジタル変換、量子化などのさまざまな周知のデータ処理技術のいずれかを使って、ビデオフレームからデジタル画像データを得ることができる。デジタル画像データは、画像フレームのさまざまなピクセル位置における、強度や色などの画像フレームの特徴を表すことができる。一実施形態では、入力ユニット120は、ビデオフレームをデジタル画像データに変換するデジタル変換機(図示せず)を含むことができる。
ビデオ処理ユニット130は、入力ユニット120が生成または作成したデジタル画像データ、例えば、画像キャプチャーデバイス(例えば第1のカメラ112)がキャプチャーしたビデオフレームから生成されたデジタル画像データを処理することができる。例えば、ビデオ処理ユニット130は、デジタル画像データの処理の一環として予測プロセスおよび符号化プロセスを実行して符号化ビットストリームをつくり出すことができ、この符号化ビットストリームを、データネットワークを介して遠隔制御ユニット(図示せず)に送信することができる。一実施形態では、ビデオ処理ユニット130は予測情報、符号化情報を生成し、それらを移動物体追跡ユニット140に送信することができる。移動物体追跡ユニット140は、予測情報および符号化情報を使って、複数のビデオフレーム間の物体の捕捉、識別、検出、および/または追跡を行うことができる。予測プロセス、符号化プロセス、物体の追跡については後で詳細に説明する。
カメラ制御ユニット150は、第2のカメラ114の動作を制御するよう構成される。特定の実装要件によっては、第2のカメラ114は広角カメラのことがある。カメラ制御ユニット150は、移動物体追跡ユニット140が生成した情報(例えば、ビデオフレーム中の移動物体の位置情報)に基づいて制御信号を生成するように、また、生成した制御信号を送信して第2のカメラ114の動作または動きを制御するように構成される。カメラ制御ユニット150によって制御される第2のカメラ114の動作、および制御信号の生成については、後で詳細に説明する。
実施形態によっては、監視システム100(または、ビデオ符号化ユニット130、移動物体追跡ユニット140、カメラ制御ユニット150などの監視システム100の個々のユニット)が、プロセッサ、マイクロプロセッサ、デジタル信号プロセッサ(DSP)、マイクロコントローラなどを含むことができる。監視システム100は、オペレーティングシステムをはじめとするソフトウェアアプリケーションを格納し操作するための少なくとも1つの埋込みシステムメモリ、少なくとも1つのアプリケーションプログラム、その他のプログラムモジュールを含むことができる。監視システム100は、監視システム100の動作を管理し制御するよう構成された適切なオペレーティングシステムの走行を容易にする。それらの動作には、関連ソフトウェアアプリケーションプログラム/モジュールへのデータの入力、およびそれらからのデータの出力が含まれ得る。オペレーティングシステムは、ソフトウェアアプリケーションプログラム/モジュールと、例えば、監視システム100のハードウェアコンポーネントとの間のインタフェースを提供することができる。
実施形態によっては、監視システム100が、監視システム100のコンポーネントまたはユニット/モジュールの間で伝達されるデータを格納するよう構成されたメモリ(図示せず)を含むことができる。監視システム100のさまざまなコンポーネントまたはユニット/モジュールは、そのメモリ(揮発性および不揮発性が含まれる)をデータ処理に利用することができる。例えば、入力ユニット120は、1つまたは複数の画像キャプチャーデバイスを介して取得された1つまたは複数のデジタル画像データ(例えば、第1のカメラ112を介したデジタル画像データ)を、ビデオ処理ユニット130による処理のためにメモリに格納することができる。ビデオ処理ユニット130は、メモリからデジタル画像データを検索し、処理する。
図2は、図1に示すビデオ処理ユニットの例示的実施形態を示す概略ブロック図を説明するものである。ビデオ処理ユニット130は、予測モジュール132および変換/符号化モジュール134を含むことができる。予測モジュール132は、入力ユニット120(またはメモリ)から画像データを受信し、その画像データのビデオフレームをマクロブロック(例えば、16×16の表示ピクセル)単位で処理して、以前に符号化されたビデオデータ(以下「予測情報」という)に基づいて現在のマクロブロック(例えば動きベクトル)の動き推定に関する情報を生成することができる。現在のマクロブロックの予測情報は、現在のビデオフレームからの、以前に符号化されたビデオデータに基づいて求めることができ(以下、「イントラ予測」または「イントラ符号化」という)、あるいはすでに符号化されて送信されているその他のビデオフレームからの、以前に符号化されたビデオデータに基づいて求めることができる(以下、「インタ予測」または「インタ符号化」という)。予測モジュール132は、現在のマクロブロックから、予測されたマクロブロック(予測情報によって表すことができる)を差し引いて残差情報を形成することができる。予測情報および残差情報の生成については、後で図3〜5を参照しながら詳細に説明する。変換/符号化モジュール134は、予測モジュール132から残差情報を受信し、その残差情報を変換して、例えば離散コサイン変換(DCT)を使って1組の係数を出力する。その後、1組の係数は量子化される。量子化された変換係数は、データネットワークを介して送信するために、例えば可変長符号化方法および/または算術符号化方法を使ってビットストリームに変換することができる。
実施形態によっては、ビデオ処理ユニット130の予測モジュール132は、動き推定方法、例えば、モーションピクチャエキスパートグループ(MPEG)またはH.264などの圧縮規格にサポートされた可変サイズブロック動き推定を使って、予測情報を生成することができる。H.264によれば、図3a〜3cに示すように、4×4、8×8、または16×16のブロックサイズを使ってビデオフレームにおけるイントラ予測を行って、同じビデオフレーム内の以前に符号化された周囲のピクセルから、現在のマクロブロックを予測することができる。H.264規格は、イントラ予測のために、隣接するマクロブロックやブロックの間の空間的相関を利用する。特に、現在のマクロブロックを、先に復号化されている上側および左側のマクロブロック中の隣接ピクセルによって予測することができる。輝度予測サンプルについては、4×4のサブブロックのそれぞれ、8×8のブロックそれぞれ、または16×16のマクロブロックについて予測ブロックを形成することができる。4×4および8×8の輝度ブロックのそれぞれについて全部で9予測モード、16×16の輝度ブロックについて4モード、彩度ブロックそれぞれについて4モードの中から1タイプを選択する。
4×4イントラ予測モードでは、4×4ブロックの輝度サンプルそれぞれの値を、4×4ブロックの上側または左側の近傍ピクセルから予測することができる。一実施形態では、図3aに例示するように、予測モジュール132が選択できる異なる9方向がある。各予測方向は、各入力サンプルの予測として使用するための、以前に復号化されたサンプルの空間的に依存する線形結合の特定の1組に対応する。図3bは、例示の目的で、符号化されるマクロブロックに所属するピクセルa〜pの4×4ブロックを示す。ピクセルA〜Mは、現在の4×4ブロックのピクセルを予測する際に使用した、すでに復号化済みの近傍ピクセルである。図3cは、9種類の4×4イントラ予測モードを示す。例えば、モード2(DC)については、すべてのピクセル(a〜pと表示)が(A+B+C+D+I+J+K+L)/8で予測される。モード0は、垂直予測モードを指定する。垂直予測モードでは、ピクセル(a、e、i、mと表示)がAから予測され、ピクセル(b、f、j、nと表示)がBから予測され…というように予測される。水平予測を取り入れると(モード1)、ピクセルa〜dがピクセルEによって予測され、ピクセルe、f、g、hがピクセルFによって予測される。モード3(斜め左下)、モード4(斜め右下)、モード5(垂直右寄り)、モード6(水平下寄り)、モード7(垂直左寄り)、モード8(水平上寄り)については、予測サンプルA〜Mの加重平均から予測サンプルが形成される。例えば、サンプルaおよびdは、それぞれ、モード4では丸め(I*4+M*2+A*4)および丸め(B*4+C*2+D*4)によって予測され、また、モード8では丸め(I*2+J*2)および丸め(J*4+K*2+L*4)によって予測される。符号化されたブロックとそのブロックの予測との残差を最小限にすることにより、各ブロックに対する最善の予測モードが選択される。
図4に示すように、インタ予測は、ブロックサイズの範囲(例えば、16×16ピクセルから4×4ピクセルまでの可変サイズブロック)を使って、現在のビデオフレーム中のピクセルまたはマクロブロックを、以前に符号化されたビデオフレーム中の同様の領域から予測することができる。特に、連続するビデオフレーム間の動き補償ブロックのベストマッチを見つけるために、インタ予測を行うことができる。次いで、動きベクトルを求めて、現在のビデオフレームおよび以前に符号化されたビデオフレームにおける2つのマクロブロック(すなわち、2つのベストマッチマクロブロック)の間の相対変位を表すことができる。例えば、H.264は、16×16輝度サンプルから4×4輝度サンプルまでの範囲の動き補償ブロックサイズをサポートし、多くのオプションがある。各マクロブロック(16×16サンプル)の輝度コンポーネントは、16×16、16×8、8×16、8×8の4通りで分割することができる。8×8モードを選択した場合、マクロブロック内の4つの8×8マクロブロックパーティションのそれぞれを、さらに8×8、8×4、4×8、4×4の4通りで分割することができる。パーティションまたはサブパーティションのそれぞれについて、別個の動きベクトルが必要である。各動きベクトルを、送信するために符号化することができる。
上記に詳細に説明したように、ビデオ処理ユニット130の予測モジュール132によって生成される予測情報は、現在のビデオフレームおよび以前に符号化されたビデオフレーム中の2つのマクロブロックの間の相対変位を表す動きベクトルを含むことができる。一実施形態では、現在のビデオフレーム中の座標から以前に符号化されたビデオフレームの座標までのオフセットを提供する二次元ベクトルが表す動きベクトルから、動きの変位を引き出すことができる。可変サイズブロック動き推定方法においては、動きベクトルを算出する際に、4×4、4×8、8×4、8×8、8×16、16×8、16×16など、異なるマクロブロックサイズを使用することができる。
図5aは、歩いている人間など、移動物体を含むサンプルビデオ画像を例示するものであり、図5bは、さまざまなサイズのマクロブロックによる画像のパーティショニングを例示するものである。例えば、図5bに示すように、大きめのブロック(全般に斜め線で示している)を、背景エリア510など、ビデオフレーム中の比較的静止している均一な画像エリアに割り振ることができる。これに対して、小さめのブロック(全般に空白ブロックとして示してある)を、前景エリア520など、ビデオフレーム中の複雑な動き物体(例えば、図5bに示すような、移動している、または歩いている人間)を含む画像エリアに割り振ることができる。図5cは、図5bに示すような画像のパーティショニングに基づいて得ることができる動きベクトルを例示したものである。図5cに示すように、小さい物体(例えば画像エリア520中)が、静止している背景(例えば画像エリア510中)上を移動している場合、動き推定によって可変サイズの動きベクトルを得ることができる。このような場合、その静止している背景から、小さい値(値のないことさえある)の動きベクトルを得ることができる。動きベクトルは、さまざまなブロックマッチング方法を実施することにより算出することができる。H.264規格によれば、当該規格に定義されているすべてのブロックサイズについて、現在のビデオフレームと以前に符号化されたビデオフレームとのベストブロックマッチを排他的検索することにより、動きベクトルを求める。あるいは、適応ブロックマッチング方法をはじめとするその他の種類のブロックマッチング方法を使って、ブロックマッチングのパフォーマンスを向上させることができる。
実施形態によっては、予測情報は、現在のビデオフレーム中のマクロブロックから、予測されたマクロブロック(予測情報によって表すことができる)を差し引くことによって求められる残差データを含むことができる。大量の残差データを含む画像エリアまたはマクロブロックは、高確率の複雑な動き物体を表すことができる。図5dに示すように、大きい値の残差情報を含むマクロブロックは、移動している人間(例えば、画像エリア520中)などの移動物体を表すことができる。
実施形態によっては、予測情報が、ビデオフレームに割り振られるマクロブロックのタイプに関する情報(「マクロブロックタイプ情報」)を含むことができる。上述のように、可変サイズブロック動き推定方法においては、サイズが小さめのブロックを、ビデオフレーム中の複雑な動き物体を含む画像エリアに割り振ることができる。例えば、図5bに示すように、移動物体を有する画像エリア520は、その画像エリアに割り振られたサイズが小さめのブロックを含む確率が高い。一実施形態では、所定の寸法、例えば4×4よりも大きくないブロックサイズのマクロブロックを、「精緻」タイプのマクロブロックとして定義することができる。例えば、精緻タイプのマクロブロックが割り振られる、ビデオフレーム中の画像エリアを、移動物体を含むものと判断することができる。一実施形態では、画像エリアが移動物体を含むかどうかを判断する際に、「スキップされたマクロブロック」を使用することができる。一般に、スキップされたマクロブロックとは、当該マクロブロックに関する情報が送信されず、また、現在のビデオフレームと参照ビデオフレームとの間の相関が高いために、当該マクロブロックのための画像エリアが該参照ビデオフレームから(または以前に符号化されたビデオフレームから)直接取り込まれるものとして定義されるものである。例えば、スキップされたマクロブロックを、移動物体を含まないマクロブロック(例えば、図5bの斜め線のブロックで示したマクロブロック)として定義することができる。さらに、スキップされたマクロブロックに囲まれた精緻タイプのマクロブロックを、移動物体を含まないマクロブロックとして定義することができる。マクロブロックタイプ情報は、マクロブロックをイントラ符号化モードで処理すべきかどうかに関する情報を含むことができる。イントラ符号化モードで処理すべきマクロブロックは、移動物体を含む画像エリアに対応すると判断することができる。
図2に戻ると、変換/符号化モジュール134は、予測モジュール132が生成した予測情報に基づいて符号化情報を作成することができる。特に、変換/符号化モジュール134は、予測情報の変換および量子化を行うことができる。H.264によれば、変換プロセスでは、予測情報を含む残差情報を、離散コサイン変換(DCT)の近似形である4×4または8×8の整数変換を使って変換することができる。変換/符号化モジュール134が実施する変換プロセスは、1組の係数を出力することができ、各係数は、標準基準パターンのための重み値である。変換プロセスの出力である変換係数のブロックは量子化される。すなわち、各係数を整数値で割る。変換/符号化モジュール134は符号化プロセスを実施して、量子化された変換係数をその他の情報(復号器が予測情報を再現できるようにする情報、圧縮データの構造に関する情報など)とともに符号化して、圧縮ビットストリームを形成する。符号化プロセスでは、可変長符号化および/または算術符号化を使って、予測情報をバイナリコードに変換することができる。
実施形態によっては、移動物体追跡ユニット140が移動物体追跡プロセスを実施して、連続ビデオフレームにおいて移動物体を検出し追跡し続けることができる。移動物体追跡プロセスは、予測モジュール132が生成した予測情報、および/または変換/符号化モジュール134が生成した符号化情報に基づいて実施することができる。符号化情報は、イントラ符号化モードにおける1マクロブロック当たりの符号化ビット数を含むことができる。例えば、図5eは、サンプルビデオ画像(図5aに示すような)の1マクロブロック当たりの符号化ビット数を例示するものである。図中、明るい色の領域またはマクロブロックは、1マクロブロック当たりの符号化ビットをより多く含むものである。このような符号化情報は、残差データに関連する情報を含むことができる。特に、マクロブロックからの大量の残差データは、そのマクロブロックを符号化するために割り振るビットをより多く必要とする。例えば、マクロブロックを符号化するために割り振るビット数が所定値よりも大きい場合、そのマクロブロックを移動物体を含むものとして定義することができる。移動物体追跡プロセスは、移動物体追跡ユニット140が、予測モジュール132および変換/符号化モジュール134が実施するいずれかのプロセスと同時に実行することができる。移動物体追跡ユニット140は、予測モジュール132および変換/符号化モジュール134によって生成された予測情報および符号化情報、または予測情報および符号化情報を結合したものの少なくとも一部に基づいて、移動物体追跡プロセスを実施することができる。
実施形態によっては、移動物体追跡ユニット140が、移動物体を含む画像エリア(またはマクロブロック)の候補のリストを生成するために、予測情報および符号化情報の少なくとも一部に基づいて第1の動き分類を実施することができる。移動物体追跡ユニット140は、次いで、最終的な移動物体を含む画像エリアのリストを決定するために、予測情報の少なくとも一部に基づいて第2の動き分類を実施する。第2の動き分類は、予測情報に基づいた特定の分類基準を満たさない画像エリアを、上記候補画像エリアリストから除去することによって実施することができる。以下、第1および第2の動き分類の例を説明する。
一実施形態では、第1の動き分類を実施するために、移動物体追跡ユニット140が、予測モジュール132が生成した可変サイズ動きベクトルに基づいて、現在のビデオフレームにおける移動物体を含む画像エリアまたはマクロブロックを決定することができる。動きベクトルの大きさは、現在のビデオフレームにおける物体を含むマクロブロック(例えば、16×16のサイズのマクロブロック、または、16×16、16×8、8×16、8×8、8×4、4×8、4×4などの小さめのサイズのブロック)の、以前に符号化されたビデオフレームからの変位を表す。したがって、動きベクトルの大きさが大きいほど、マクロブロックが移動物体を有する確率が高い。図6aは、図5aに示すようなサンプルビデオ画像の動きベクトルを例示するものであり、動きベクトルの大きさが大きめの画像エリア610〜650を示している。例えば、現在のビデオフレームにおけるマクロブロック(例えば、図6aの画像エリア611〜615)の動きベクトルの大きさが所定値よりも大きい場合、そのマクロブロックを移動物体を含む画像エリアの候補と判断することができる。
別の実施形態では、移動物体追跡ユニット140は、予測モジュール132が生成した残差情報に基づいて、候補画像エリアまたはマクロブロックを決定することができる。大量の残差データを含むマクロブロックは、高確率で複雑な動き物体を表すことができる。図6bは、図5aに示すようなサンプルビデオ画像の残差情報を例示するものであり、残差情報の大きさが大きめの画像エリア621〜628を示している。例えば、現在のビデオフレームにおけるマクロブロック(例えば、図6bの画像エリア621〜628)の残差情報の大きさが所定値よりも大きい場合、そのマクロブロックを、移動物体を含む画像エリアの候補と判断することができる。さらに別の実施形態では、移動物体追跡ユニット140は、予測モジュール132が生成したマクロブロックタイプ情報に基づいて、候補画像エリアまたはマクロブロックを決定することができる。マクロブロックにイントラ符号化モードが割り当てられた場合、そのマクロブロックは移動物体の一部となり得る。例えば、マクロブロックタイプ情報が、現在のビデオフレーム中のマクロブロックをイントラ符号化モードで処理すべきであることを示す場合、移動物体追跡ユニット140は、そのマクロブロックを移動物体を含む画像エリアの候補と判断することができる。
別の例として、マクロブロックタイプ情報が、現在のビデオフレーム中のマクロブロックが精緻タイプ(例えば、4×4よりも大きくないブロックサイズのマクロブロック)であると判断されることを示す場合、そのマクロブロックを移動物体を含む画像エリアの候補と判断することができる。上述のように、移動物体を有する画像エリア(またはマクロブロック)は、その画像エリアに割り振られた小さめのサイズのブロックを含む確率が高い。図6cは、さまざまなサイズのマクロブロックを有するサンプルビデオ画像(図5aに示すような)のパーティショニングを例示するものである。図に示すように、ビデオ画像のいくつかのエリア(図6cの画像エリア631〜634など)において画像のパーティショニングが非常に複雑な場合、それらの画像エリアは、移動物体を含む領域の一部であり得る。
実施形態によっては、移動物体追跡ユニット140は、変換/符号化モジュール134が生成した符号化情報に基づいて第1の動き分類を実施することができる。例えば、大きめの残差情報を有するマクロブロックを含む画像エリア(例えば、図6bの画像エリア621〜628)は、そのマクロブロックに割り振られた多めのビット数を有することができる。多めのビット数を割り振られたマクロブロックを含む画像エリアは、移動物体を含む領域の一部であり得る。例えば、符号化情報が、マクロブロックを符号化するために割り振られたビット数が所定数よりも大きいことを表す場合、そのマクロブロックを移動物体を含む画像エリアの候補と判断することができる。マクロブロックを符号化するために割り振られるビット数は、そのマクロブロックによって表される画像の複雑さに依存し得るが、候補画像エリアを決定する際に使用される所定数は、マクロブロックを符号化するために割り振られるビット数の平均数に基づいて設定することができる。このような平均ビット数は、変換/符号化モジュール134が以前に入力された画像データに基づいて算出することができる。特に、平均ビット数は、ビデオフレームに含まれるすべてのマクロブロックを符号化するために割り振られたビット数を合計し、その合計ビット数をマクロブロック数で割ることによって算出することができる。一実施形態では、変換/符号化モジュール134は、第1の動き分類を実施するために最新の更新済み平均ビット数を維持することができる。
第2の動き分類においては、移動物体追跡ユニット140は、予測情報に基づいて、追加分類基準を移動物体追跡プロセスに適用することができ、それによって、最終的な移動物体を含む画像エリアのリストを決定する。第2の動き分類は、その分類基準を満たさない画像エリアを候補画像エリアリストから除去することによって実施することができる。第2の動き分類のための追加分類基準の例を以下に説明する。一実施形態では、マクロブロックのサイズを、第2の動き分類の分類基準として使用することができる。例えば、移動物体追跡プロセスにおいて可変サイズブロック動き推定方法を使用した場合(図6aおよび6bに関して上記に説明したように)、所定値(例えば4×4)よりも大きくないサイズのマクロブロックを候補画像エリアリストから除去することができる。例えば、小さめのサイズの画像エリア614および615を、図6aの候補画像エリア611〜615から除去することができ、一方、小さめのサイズの画像エリア623〜628を、図6bの画像エリア621〜628から除去することができる。別の実施形態では、マクロブロックを囲むマクロブロックのタイプを、分類基準として使用することができる。例えば、移動物体追跡プロセスにおいてマクロブロックタイプ情報を使用する場合(図6cに関して上記に説明したように)、また、候補画像エリアリストに含まれるマクロブロックが、スキップされたマクロブロックに囲まれた精緻タイプのマクロブロックである場合、そのマクロブロックを候補画像エリアリストから除去することができる。例えば、スキップされたマクロブロック(斜め線のブロックで示す)に囲まれた精緻タイプのマクロブロックを有する画像エリア633、634を、図6cの候補画像エリア631〜634から除去することができる。
実施形態によっては、移動物体追跡ユニット140は、上記の個々の動き分類結果の少なくとも一部の重み付き結合に基づいて、追加移動物体追跡プロセスを実施することができる。このような追加移動物体追跡プロセスを、第1および第2の動き分類が完了した後のオプションのステップとして実施することができる。実施形態によっては、重み付きAND演算を使って、移動物体を含む画像エリアまたはマクロブロックを判断するための、第1および第2の動き分類結果の重み付き結合を決定することができる。例えば、図6Dに示すように、移動物体追跡ユニット140は、図6a〜6cに関して上記に説明した、個々の動き分類結果のAND結合に基づいて、動き物体追跡プロセスを実施することができる。例えば、対応する動き分類基準に基づいて決定された候補画像エリア(またはマクロブロック)リストそれぞれに対して、0.0〜1.0の範囲の所定の重みを与える。一実施形態では、予測情報に基づいて決定された候補画像エリアリストに対しては多めの重み(例えば0.7)を与え、一方、符号化情報に基づいて決定された候補画像エリアリストに対しては少なめの重み(例えば0.3)を与えることができる。最終画像エリアのリストは、候補画像エリアリストそれぞれを所定の重み付きで結合し、所定値(例えば0.5)よりも大きい重みの画像エリアを選択することによって決定することができる。さらに、移動物体追跡ユニット140は、第1の動き分類および第2の動き分類のうち少なくとも1つを実施して、最終的な移動物体を含む画像エリアのリストを決定することができる。いったん最終的な移動物体を含む画像エリアのリストが決定されると、移動物体追跡ユニット140は、その最終的な移動物体を含む画像エリアのリストに基づいて、追跡した移動物体の位置情報を生成することができる。一実施形態では、追跡した移動物体の位置情報は、現在のビデオフレーム中のその移動物体の二次元座標を含むことができる。
図1に示すように、カメラ制御ユニット150は、移動物体追跡ユニット140からの位置情報に基づいて制御信号を生成し、その制御信号を第2のカメラ114(PZTカメラなど)に送信することができる。カメラ制御ユニット150は、その制御信号を第2のカメラ114に送信して、例えば通信モジュールを使って第2のカメラ114の動きを制御することができる。制御信号は、第2のカメラ114を操作または制御して、移動物体追跡ユニット140が追跡している物体(例えば人間)の特徴部分(例えば顔)を第2のカメラ114がキャプチャーできるようにパンし、かつ/またはズームイン/アウトすることができる。カメラ制御ユニット150は、第1のカメラ112と第2のカメラ114の間の位置関係を定義することができる。実施形態によっては、第1のカメラ112および第2のカメラ114は、第1のビデオフレーム中の1点を第2の画像フレーム中の別の点にマップできるよう、同じ領域の別の部分を見ることができる。第1の画像フレーム、第2の画像フレームは、それぞれ第1のカメラ112、第2のカメラ114によってキャプチャーまたは取得されていることが可能である。カメラ制御ユニット150は、第1の画像フレーム中の追跡されている移動物体の位置情報、および第1のカメラ112と第2のカメラ114の間の位置関係を使って、それによって第2のカメラ114の動きを制御するための制御信号を生成することができる。例えば、カメラ制御ユニット150は、第1のカメラ112と第2のカメラ114の間の位置関係を用いて第1の画像フレーム中の追跡されている物体の位置情報を処理し、それによって、パン、ズームイン/アウトにより第2のカメラ114がカバーし強調すべき位置範囲を推定することができる。このようにして、カメラ制御ユニット150は、追跡されている物体の特徴部分を第2のカメラ114がキャプチャーできるようにすることができる。実施形態によっては、追跡されている物体の特徴部分をビデオ画像(例えば、MPEGまたはH.264フォーマット)や静止画像(例えばJPEGフォーマット)に符号化するなど、さらなる処理を行うために、第2のカメラ114を別のビデオ処理ユニット(図示せず)と連結することができる。
監視システム100は、例えばオペレータが見ることができるように、ビデオ(例えば、第1のカメラ112がキャプチャーしたビデオ、および/または第2のカメラ114がキャプチャーしたビデオ)および/またはデジタル画像データなどの処理の結果などの視覚的出力を提供するためのディスプレイ(図示せず)を含むことができる。ディスプレイにはCRTディスプレイをはじめとするフラットパネルディスプレイ、その他の適切な出力デバイスが含まれるが、それらのみに限られるわけではない。監視システム100はまた、スピーカやプリンタなど、その他の周辺出力デバイス(図示せず)も含むことができる。
実施形態によっては、監視システム100は、有線または無線通信プロトコルによって少なくとも1つの外部デバイスとの論理接続性を提供する通信モジュールをさらに含むことができる。シリアルポート、パラレルポート、PS/2ポート、ユニバーサルシリアルバス(USB)リンク、ファイアワイヤまたはIEEE1394リンクなどのデジタルインタフェースプロトコル、あるいは、赤外線インタフェース、BlueTooth(登録商標)、ZigBee、高品位マルチメディアインタフェース(HDMI)、高帯域デジタルコンテンツ保護(HDCP)、ワイヤレスフィデリティ(Wi−Fi)、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)などの無線インタフェース接続を使用することによって、通信プロトコル(有線、無線どちらでも)を実装することができる。実施形態によっては、通信モジュールは、汎欧州デジタル移動電話方式(GSM(登録商標))、全地球測位システム(GPS)、デジタルモバイルマルチメディア(DMB)、符号分割多重アクセス方式(CDMA)、高速ダウンリンクパケットアクセス(HSDPA)、Wi−Bro無線ブロードバンドなどの移動通信システムを介して通信するためのモデムを含むことができる。本開示において説明している接続方法は例にすぎず、デバイスやコンピュータの間の通信リンクを確立するその他の方法も使用できることを理解されたい。
ネットワーク環境において、所望の実装によっては、監視システム100のコンポーネントの一部またはすべてを、2台以上のデバイスによる分散システムとして実装することができる。例えば、ビデオ処理ユニット130および移動物体追跡ユニット140をサーバ上に実装し、監視システム100のその他のモジュール/コンポーネントをモバイルデバイスまたはモバイル端末に実装することができる。本例では、モバイル端末が、ビデオフレーム(例えば、該モバイル端末中に設置された第1のカメラ112によってキャプチャーされたビデオフレーム)のデジタル画像データを通信モジュールを介してサーバに送信することができる。それにより、サーバは、ビデオ符号化プロセスおよび移動物体追跡プロセスを実施して、モバイル端末がさらなる処理のために中に設置されたカメラ(例えば第2のカメラ114)を操作するよう制御信号を送信することができる。監視システム100は、遠隔コンピュータなどの1つまたは複数の遠隔デバイスとの論理接続を使用するネットワーク化された環境において動作することができる。遠隔コンピュータは、パーソナルコンピュータ、サーバ、ハンドヘルドまたはラップトップデバイス、ルータ、ネットワークPC、ピアデバイス、またはその他の一般的なネットワークノードであってよく、典型的には、監視システム100に関連して本開示において説明したコンポーネントのいくつかまたはすべてを含むことができる。
図1の監視システム100は適切な操作環境の一例にすぎず、限定することを意図したものではない。本開示において説明した画像処理に適し得るその他の周知のコンピューティングシステム、環境、および/または構成には、パーソナルコンピュータ、携帯電話などのポータブルデバイス、サーバコンピュータ、ハンドヘルドまたはラップトップデバイス、マルチプロセッサシステム、マイクロプロセッサベースのシステム、プログラム可能な家電、ネットワークパーソナルコンピュータ、ミニコンピュータ、メインフレームコンピュータ、図1に例示するユニットまたはデバイスのいずれかを含む分散コンピューティング環境などが含まれるが、これらに限定されるものではない。
図7は、監視方法の例示的実施形態のフローチャートである。ブロック710で、ビデオ処理ユニット130が現在のビデオフレームに関する予測情報を生成する。第1のビデオフレームを、第1のカメラ112(例えば広角カメラ)によってキャプチャーまたは取得することができる。ビデオ処理ユニット130は、アナログ−デジタル変換、量子化など、さまざまな周知のデータ処理技術のいずれかを使って、現在のビデオフレームをデジタル画像データに変換することができる。デジタル画像データの処理の一環として、ビデオ処理ユニット130は、予測プロセス、変換プロセス、符号化プロセスを実行して、データネットワークを介して遠隔ユニットに送信するビットストリームをつくり出すことができる。一実施形態では、ビデオ処理ユニット130は、ビデオフレームをマクロブロックの単位で(例えば、4×4、4×8、8×4、8×8、8×16、16×8、16×16の表示ピクセルのサイズで)処理して、そのビデオフレームの予測情報および符号化情報を生成する。上記に詳細に説明したように、予測情報は、動きベクトル、残差データ、マクロブロックタイプ情報の少なくとも1つを含む。符号化情報は、イントラ符号化モードにおける1マクロブロック当たりの符号化ビット数を含むことができる。ビデオ処理ユニット130は、動き推定方法、例えば、モーションピクチャエキスパートグループ(MPEG)またはH.264などの周知の圧縮規格にサポートされた可変サイズブロック動き推定を使用して、予測情報および符号化情報を生成することができる。
ブロック720で、移動物体追跡ユニット140は、予測情報および符号化情報、または予測情報および符号化情報を結合したものの少なくとも一部に基づいて、現在のビデオフレーム中の移動物体を追跡する。図8は、移動物体追跡ユニット140によって実施される移動物体追跡プロセスの例示的実施形態のフローチャートであり、これには、予測情報および符号化情報に基づく動き分類のステップ810、820が含まれる。移動物体追跡ユニット140は、ステップ810、820からの個々の動き分類結果の重み付き結合を算出する、追加ステップ830を実施することができる。
ブロック810では、移動物体を含む画像エリアまたはマクロブロックの候補のリストを決定するために、移動物体追跡ユニット140が第1の動き分類を実施する。第1の動き分類では、ブロック710で生成した動きベクトル、残差データ、マクロブロックタイプ情報の少なくとも1つに基づいて候補画像エリアリストを決定することができる。上記に詳細に説明したように、また、図9のブロック910で例示したように、可変サイズ動きベクトルに基づいて第1の動き分類を実施することができる。例えば、現在のビデオフレームにおけるマクロブロックの可変サイズ動きベクトルの大きさが所定値よりも大きい場合、そのマクロブロックを移動物体を含む画像エリアの候補と判断することができる。ブロック920で、第1の動き分類を残差データに基づいて実施することができる。例えば、現在のビデオフレームにおけるマクロブロックの残差データの大きさが所定値よりも大きい場合、そのマクロブロックを移動物体を含む画像エリアの候補と判断することができる。さらにブロック930で、第1の動き分類をイントラ符号化モードに関する情報に基づいて実施することができる。例えば、マクロブロックタイプ情報が、現在のビデオフレーム中のマクロブロックをイントラ符号化モードで処理すべきであることを示す場合、そのマクロブロックを移動物体を含む画像エリアの候補と判断することができる。ブロック940で、マクロブロックタイプ情報に基づいて第1の動き分類を実施することができる。例えば、マクロブロックタイプ情報が、現在のビデオフレーム中のマクロブロックが精緻タイプ(例えば、4×4よりも大きくないブロックサイズのマクロブロック)であることを示す場合、そのマクロブロックを移動物体を含む画像エリアの候補と判断することができる。さらに、ブロック950で、1マクロブロック当たりの符号化ビットに基づいて第1の動き分類を実施することができる。例えば、符号化情報が、マクロブロックを符号化するために割り振られたビット数が所定数よりも大きいことを表す場合、そのマクロブロックを移動物体を含む画像エリアの候補と判断することができる。上記に詳細に説明したように、候補画像エリアを決定する際に使用する所定数を、マクロブロックを符号化するために割り振る平均ビット数に基づいて設定することができる。この平均ビット数は、変換/符号化モジュール134が、以前に入力された画像データに基づいて算出することができる。
ブロック820で、最終的な移動物体を含む画像エリアまたはマクロブロックのリストを決定するために、移動物体追跡ユニット140は第2の動き分類を実施する。第2の動き分類では、マクロブロックまたは画像エリアを、それらマクロブロックが以下に詳細に説明するように所定の基準を満たさない場合、ブロック810で決定した候補画像エリアリストから除去することができる。上記に詳細に説明したように、移動物体追跡プロセスにおいて可変サイズブロック動き推定方法を使用した場合、所定値(例えば4×4)よりも大きくないサイズのマクロブロックを候補画像エリアリストから除去することができる。さらに、精緻タイプのマクロブロックがスキップされたマクロブロックに囲まれている場合、そのマクロブロックを候補画像エリアリストから除去することができる。
ブロック830で、移動物体追跡ユニット140は、ブロック810、820で決定した個々の動き分類結果の少なくとも一部の重み付き結合に基づいて、追加移動物体追跡プロセスを実施することができる。実施形態によっては、重み付きAND演算を使って、移動物体を含む画像エリアまたはマクロブロックを判断するための、第1および第2の動き分類結果の重み付き結合を決定することができる。上記に詳細に説明したように、対応する動き分類基準に基づいて決定された候補画像エリア(またはマクロブロック)のリストそれぞれに対して、0.0〜1.0の範囲の所定の重みを与えることができる。最終画像エリアのリストは、候補画像エリアリストそれぞれを所定の重みで結合し、所定値(例えば0.5)よりも大きい重みの画像エリアを選択することによって決定することができる。
図7に戻ると、ブロック730で、いったんブロック720で最終的な移動物体を含む画像エリアのリストが決定されると、移動物体追跡ユニット140は、最終的な移動物体を含む画像エリアのリストに基づいて、追跡した移動物体の位置情報を生成することができる。移動物体追跡ユニット140は、位置情報をカメラ制御ユニット150に送信することができる。カメラ制御ユニット150は、追跡されている移動物体の位置情報に基づいて制御信号を生成して、第2のカメラ114(例えば狭角レンズ)の操作を制御する。例えば、カメラ制御ユニット150は、制御信号を送信して、第2のカメラ114を操作し、第2のカメラ114をパンし、かつ/またはズームイン/アウトすることができる。カメラ制御ユニット150は、制御信号を使って、追跡されている物体(例えば人間)の特徴部分(例えば顔)をキャプチャーするよう第2のカメラ114を操作する。カメラ制御ユニット150は、第1のカメラ112と第2のカメラ114の間の位置関係、および現在のビデオフレーム中の追跡されている物体の位置情報を使って、第2のカメラ114の動きを制御するための制御信号を生成することができる。実施形態によっては、第2のカメラ114は、追跡されている物体の特定の部分の情報を、その追跡されている物体の部分をビデオ画像(例えば、MPEGやH.264フォーマット)や静止画像(例えば、JPEGフォーマット)に符号化するなどのさらなる処理のために、他のビデオ処理ユニットに送信することができる。
当業者は、本文書に開示されている、本プロセスおよび方法、およびその他のプロセスおよび方法について、それらのプロセスおよび方法で実施される機能が異なる順序で実施できることを理解されよう。さらに、概説したステップおよび操作が例として提供されているにすぎず、それらステップおよび操作のいくつかを、開示の実施形態の本質を損なうことなく、任意選択することが可能であり、より少数のステップおよび操作に結合することが可能であり、さらなるステップおよび操作に拡大することが可能である。
当業者は、本開示に照らして、本文書に記載のシステム、装置、方法を、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、またはそれらの組み合わせで実装することができ、また、システム、サブシステム、コンポーネント、またはそれらのサブコンポーネントにおいて利用できることを理解されよう。例えば、ソフトウェアで実装した方法は、その方法の動作を実施するためのコンピュータコードを含むことができる。このコンピュータコードは、コンピュータ可読媒体、プロセッサ可読媒体またはコンピュータプログラム製品などのマシン可読媒体に格納することができ、あるいは、搬送波で具現化されたコンピュータデータ信号、または搬送波によって変調された信号として、送信媒体または通信リンクを介して送信することができる。マシン可読媒体には、マシン(例えば、プロセッサやコンピュータなど)が読み取り可能かつ実行可能な形態で情報を格納または転送することができるどのような媒体も含まれる。
本開示は、本出願に記載の特定の実施形態に限定されるものではない。それら特定の実施形態は、さまざまな態様の例示を意図するものである。当業者には明らかであるように、本開示の精神および範囲を逸脱することなく多くの変更および変形が可能である。当業者には、これまでの記載から、本文書に列挙の方法および装置に加えて、本開示の範囲に含まれる機能的に同等の方法および装置が明らかであろう。そのような変更および変形も、添付の特許請求の範囲の範囲内に含まれることを意図されるものである。本開示は、添付の特許請求の範囲、およびそのような特許請求の範囲が権利を有する同等物の全範囲によってのみ限定されるべきものである。本開示が、当然変更の可能性がある、特定の方法、試薬、合成物、構成物、または生体系に限定されるものではないことを理解されたい。本文書で使用されている用語は特定の実施形態を説明する目的でのみ使用されているものであり、限定することを意図したものではないことも理解されたい。
本明細書における実質的にすべての複数形および/または単数形の用語の使用に対して、当業者は、状況および/または用途に適切なように、複数形から単数形に、および/または単数形から複数形に変換することができる。さまざまな単数形/複数形の置き換えは、理解しやすいように、本明細書で明確に説明することができる。
通常、本明細書において、特に添付の特許請求の範囲(例えば、添付の特許請求の範囲の本体部)において使用される用語は、全体を通じて「オープンな(open)」用語として意図されていることが、当業者には理解されよう(例えば、用語「含む(including)」は、「含むがそれに限定されない(including but not limited to)」と解釈されるべきであり、用語「有する(having)」は、「少なくとも有する(having at least)」と解釈されるべきであり、用語「含む(includes)」は、「含むがそれに限定されない(includes but is not limited to)」と解釈されるべきである、など)。導入される請求項で具体的な数の記載が意図される場合、そのような意図は、当該請求項において明示的に記載されることになり、そのような記載がない場合、そのような意図は存在しないことが、当業者にはさらに理解されよう。例えば、理解の一助として、添付の特許請求の範囲は、導入句「少なくとも1つの(at least one)」および「1つまたは複数の(one or more)」を使用して請求項の記載を導くことを含む場合がある。しかし、そのような句の使用は、同一の請求項が、導入句「1つまたは複数の」または「少なくとも1つの」および「a」または「an」などの不定冠詞を含む場合であっても、不定冠詞「a」または「an」による請求項の記載の導入が、そのように導入される請求項の記載を含む任意の特定の請求項を、単に1つのそのような記載を含む実施形態に限定する、ということを示唆していると解釈されるべきではない(例えば、「a」および/または「an」は、「少なくとも1つの」または「1つまたは複数の」を意味すると解釈されるべきである)。同じことが、請求項の記載を導入するのに使用される定冠詞の使用にも当てはまる。また、導入される請求項の記載で具体的な数が明示的に記載されている場合でも、そのような記載は、少なくとも記載された数を意味すると解釈されるべきであることが、当業者には理解されよう(例えば、他の修飾語なしでの「2つの記載(two recitations)」の単なる記載は、少なくとも2つの記載、または2つ以上の記載を意味する)。さらに、「A、BおよびC、などの少なくとも1つ」に類似の慣例表現が使用されている事例では、通常、そのような構文は、当業者がその慣例表現を理解するであろう意味で意図されている(例えば、「A、B、およびCの少なくとも1つを有するシステム」は、Aのみ、Bのみ、Cのみ、AおよびBを共に、AおよびCを共に、BおよびCを共に、ならびに/またはA、B、およびCを共に、などを有するシステムを含むが、それに限定されない)。「A、B、またはC、などの少なくとも1つ」に類似の慣例表現が使用されている事例では、通常、そのような構文は、当業者がその慣例表現を理解するであろう意味で意図されている(例えば、「A、B、またはCの少なくとも1つを有するシステム」は、Aのみ、Bのみ、Cのみ、AおよびBを共に、AおよびCを共に、BおよびCを共に、ならびに/またはA、B、およびCを共に、などを有するシステムを含むが、それに限定されない)。2つ以上の代替用語を提示する事実上いかなる離接する語および/または句も、明細書、特許請求の範囲、または図面のどこにあっても、当該用語の一方(one of the terms)、当該用語のいずれか(either of the terms)、または両方の用語(both terms)を含む可能性を企図すると理解されるべきであることが、当業者にはさらに理解されよう。例えば、句「AまたはB」は、「A」または「B」あるいは「AおよびB」の可能性を含むことが理解されよう。
当業者には理解されるように、明細書を提供するなど、あらゆる目的のために、本文書で開示されているすべての範囲は、その範囲のあらゆる可能な部分範囲、および部分範囲の組み合わせも包含するものである。列挙の範囲はいずれも、その同じ範囲を少なくとも二等分、三等分、四等分、五等分、十等分などに分解したものを十分に記載すること、またその分解を可能にするものとして、容易に認識することができよう。非限定的な例として、本文書で述べている各範囲を、最初の3分の1、真ん中の3分の1、最後の3分の1などに容易に分解することができる。同じく当業者が理解されるように、「〜まで(up to)」、「少なくとも(at least)」などの用語はすべて、列挙した数を含み、また、上述のように、その後に部分範囲に分解することが可能な範囲を指す。
前述の記載から、本開示のさまざまな実施形態は例示の目的で本文書に記載されたものであること、また、本開示の範囲および精神を逸脱することなくさまざまな変更が可能であることを理解されよう。したがって、本文書で開示したさまざまな実施形態は限定することを意図したものではなく、その真実の範囲および精神は、以下の特許請求の範囲によって示されるものである。

Claims (24)

  1. 第1のカメラを介して取得される複数のビデオフレームを受信するよう構成された入力ユニットと、
    前記複数のビデオフレームに関する予測情報および符号化情報を生成するよう構成されたビデオ処理ユニットと、
    前記予測情報および符号化情報の少なくとも一部に基づいて、前記複数のビデオフレーム間の移動物体を追跡して、該移動物体の位置情報を生成するよう構成された移動物体追跡ユニットであって
    前記移動物体と関連する候補マクロブロックのリストを決定するための第1の動き分類を実施し、
    前記移動物体と関連する最終マクロブロックのリストを決定するための第2の動き分類を実施し、
    前記第1及び第2の動き分類の結果の重み付き結合に基づき、前記移動物体の追跡を行う、
    ように構成された移動物体追跡ユニットと、
    前記位置情報に基づいて制御信号を生成し、該制御信号を第2のカメラに送信して、該第2のカメラの動きを制御するよう構成されたカメラ制御ユニットと、を含む監視システム。
  2. 前記ビデオ処理ユニットは、
    前記複数のビデオフレームに関する動きベクトル、残差データ、マクロブロックタイプ情報の少なくとも1つを含む前記予測情報を生成するよう構成された予測モジュールと、
    前記複数のビデオフレーム中のマクロブロックを符号化するために割り振られたビットの数を示す前記符号化情報を生成するよう構成された変換/符号化モジュールと、を含む、請求項1に記載のシステム。
  3. 前記移動物体追跡ユニットは、前記予測情報および前記符号化情報の少なくとも一部に基づいて前記第1の動き分類を実施するように構成された、請求項2に記載のシステム。
  4. 前記移動物体追跡ユニットはマクロブロックの動きベクトルに基づいて前記第1の動き分類を実施するように構成され、該動きベクトルの大きさが所定値よりも大きければ、該マクロブロックが前記候補マクロブロックリストに含まれると判断する、請求項3に記載のシステム。
  5. 前記移動物体追跡ユニットはマクロブロックの残差データに基づいて前記第1の動き分類を実施するように構成され、該残差データの大きさが所定値よりも大きければ、該マクロブロックが前記候補マクロブロックリストに含まれると判断する、請求項3に記載のシステム。
  6. 前記移動物体追跡ユニットは、前記マクロブロックタイプ情報に基づいて前記第1の動き分類を実施するように構成され、マクロブロックをイントラ符号化モードで処理すべきであることを該マクロブロックタイプ情報が示しているならば、該マクロブロックが前記候補マクロブロックリストに含まれると判断する、請求項3に記載のシステム。
  7. 前記移動物体追跡ユニットは、前記マクロブロックタイプ情報に基づいて前記第1の動き分類を実施するように構成され、マクロブロックがM×Mの画像ピクセルを含むことを該マクロブロックタイプ情報が示しており、Mが所定数よりも大きくないならば、該マクロブロックが前記候補マクロブロックリストに含まれると判断する、請求項3に記載のシステム。
  8. 前記移動物体追跡ユニットは、前記符号化情報に基づいて前記第1の動き分類を実施するように構成され、ブロックの符号化ビット数が所定数よりも大きいことを該符号化情報が示しているならば、該マクロブロックが前記候補マクロブロックリストに含まれると判断する、請求項3に記載のシステム。
  9. 前記移動物体追跡ユニットは、前記予測情報の少なくとも一部に基づいて前記候補マクロブロックリストからマクロブロックを除去するために前記第2の動き分類を実施するように構成され、マクロブロックがM×Mの画像ピクセルを含むことを前記予測情報が示しており、Mが所定数よりも大きくないならば、該マクロブロックが前記候補マクロブロックリストから除去されると判断する、請求項3に記載のシステム。
  10. 前記移動物体追跡ユニットは、前記予測情報の少なくとも一部に基づいて前記候補マクロブロックリストからマクロブロックを除去するために前記第2の動き分類を実施するように構成され、マクロブロックが、スキップされたマクロブロックに囲まれていることを前記予測情報が示しているならば、該マクロブロックが前記候補マクロブロックリストから除去されると判断する、請求項3に記載のシステム。
  11. 前記第2のカメラはPTZカメラであり、該PTZカメラは、前記制御信号に基づいて、ビデオをとるためにパンされ、またはティルトされるように構成された、請求項1に記載のシステム。
  12. 第1のカメラから取得される複数のビデオフレームに関する予測情報および符号化情報を生成すること
    前記予測情報および前記符号化情報の少なくとも一部に基づいて、前記複数のビデオフレーム間の移動物体を追跡することであって、前記予測情報は、前記複数のビデオフレームに関する動きベクトル、残差データ、マクロブロックタイプ情報のうちの少なくとも1つを含み、前記移動物体を追跡することは、前記移動物体を含む候補マクロブロックのリストを決定するための第1の動き分類を実施することと、前記移動物体を含む最終マクロブロックのリストを決定するための第2の動き分類を実施することと、前記第1及び第2の動き分類の結果の重み付き結合に基づき、前記移動物体の追跡を行うことと、を含こと
    前記移動物体の位置情報に基づいて制御信号を生成すること、および
    第2のカメラに前記制御信号を送信して該第2のカメラの動きを制御すること、を含む監視方法。
  13. 前記第1の動き分類において、前記動きベクトルの大きさが所定値よりも大きければ、前記マクロブロックが前記候補マクロブロックリストに含まれると判断する、請求項12に記載の方法。
  14. 前記第1の動き分類において、前記残差データの大きさが所定値よりも大きければ、前記マクロブロックが前記候補マクロブロックリストに含まれると判断する、請求項12に記載の方法。
  15. 前記第1の動き分類において、マクロブロックをイントラ符号化モードで処理すべきであることを前記マクロブロックタイプ情報が示しているならば、該マクロブロックが前記候補マクロブロックリストに含まれると判断する、請求項12に記載の方法。
  16. 前記第1の動き分類において、マクロブロックがM×Mの画像ピクセルを含むことを前記マクロブロックタイプ情報が示しており、Mが所定数よりも大きくないならば、該マクロブロックが前記候補マクロブロックリストに含まれると判断する、請求項12に記載の方法。
  17. 前記第1の動き分類において、ブロックの符号化ビット数が所定数よりも大きいことを前記符号化情報が示しているならば、該マクロブロックが前記候補マクロブロックリストに含まれると判断する、請求項12に記載の方法。
  18. 前記第2の動き分類において、マクロブロックがM×Mの画像ピクセルを含むことを前記予測情報が示しており、Mが所定数よりも大きくないならば、該マクロブロックが前記候補マクロブロックリストから除去されると判断する、請求項12に記載の方法。
  19. 前記第2の動き分類において、マクロブロックが、スキップされたマクロブロックに囲まれていることを前記予測情報が示しているならば、該マクロブロックが前記候補マクロブロックリストから除去されると判断する、請求項12に記載の方法。
  20. 第1のカメラを介して取得される複数のビデオフレームを受信するよう構成された入力ユニットと、
    前記複数のビデオフレームに関する予測情報および符号化情報を生成するよう構成されたビデオ処理ユニットと、
    前記予測情報および符号化情報の少なくとも一部に基づいて、前記複数のビデオフレーム間の移動物体を追跡して、該移動物体の位置情報を生成するよう構成された移動物体追跡ユニットであって、
    前記位置情報は前記候補マクロブロックの少なくともいくつかに基づいており
    前記移動物体追跡ユニットは、
    前記予測情報または前記符号化情報の少なくとも一部に基づいて、移動物体を含む前記複数のビデオフレーム中の候補マクロブロックのリストを決定するための第1の動き分類を実施し、
    前記候補マクロブロックのリストからマクロブロックを除去するための第2の動き分類を実施し、
    前記第1及び第2の動き分類の結果の重み付き結合に基づき、前記移動物体の追跡を行う、
    ように構成された、移動物体追跡ユニットと、
    前記位置情報に基づいて制御信号を生成し、該制御信号を第2のカメラに送信して該第2のカメラの動きを制御するよう構成されたカメラ制御ユニットと、を含む監視システム。
  21. 前記移動物体追跡ユニットは、マクロブロックの動きベクトル、該マクロブロックの残差データ、または該マクロブロックのタイプ情報の1つまたは複数に基づいて前記第1の動き分類を実施するように構成され、ここで、前記動きベクトルの大きさが所定値よりも大きい場合、前記残差データの大きさが所定値よりも大きい場合、または、前記マクロブロックをイントラ符号化モードで処理すべきであることを前記マクロブロックタイプ情報が示す場合のうち、少なくとも1つの場合に、前記マクロブロックは前記候補マクロブロックリストに含まれる、請求項20に記載の監視システム。
  22. 前記移動物体追跡ユニットは、前記符号化情報または前記マクロブロックタイプ情報の少なくとも1つに基づいて前記第1の動き分類を実施するように構成され、ここで、ブロックの符号化ビット数が所定数よりも大きいことを前記符号化情報が示している場合、または、マクロブロックがM×Mの画像ピクセルを含むことを前記マクロブロックタイプ情報が示しており、Mが所定数よりも大きくない場合、前記マクロブロックは前記候補マクロブロックリストに含まれる、請求項20に記載のシステム。
  23. 前記移動物体追跡ユニットは、前記予測情報の少なくとも一部に基づいて前記候補マクロブロックリストからマクロブロックを除去するために前記第2の動き分類を実施するように構成され、マクロブロックがM×Mの画像ピクセルを含むことを前記予測情報が示しており、Mが所定の数よりも大きくないならば、あるいは、マクロブロックがスキップされたマクロブロックに囲まれていることを前記予測情報が示しているならば、該マクロブロックが前記候補マクロブロックリストから除去されると判断する、請求項21に記載のシステム。
  24. 前記制御信号は、前記移動物体の特徴部分をキャプチャーするよう前記第2のカメラの動きを制御するのに有効である、請求項20に記載の監視システム。
JP2012556959A 2010-03-19 2010-12-17 監視システム Expired - Fee Related JP5596801B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/727,961 2010-03-19
US12/727,961 US9082278B2 (en) 2010-03-19 2010-03-19 Surveillance system
PCT/KR2010/009062 WO2011115356A1 (en) 2010-03-19 2010-12-17 Surveillance system

Publications (2)

Publication Number Publication Date
JP2013527998A JP2013527998A (ja) 2013-07-04
JP5596801B2 true JP5596801B2 (ja) 2014-09-24

Family

ID=44646937

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012556959A Expired - Fee Related JP5596801B2 (ja) 2010-03-19 2010-12-17 監視システム

Country Status (4)

Country Link
US (1) US9082278B2 (ja)
JP (1) JP5596801B2 (ja)
CN (1) CN102726047B (ja)
WO (1) WO2011115356A1 (ja)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
HRP20240379T1 (hr) * 2010-05-25 2024-06-07 Lg Electronics Inc. Novi način planarnog predviđanja
KR101666397B1 (ko) * 2010-12-21 2016-10-14 한국전자통신연구원 객체 영상 획득 장치 및 방법
US9429940B2 (en) 2011-01-05 2016-08-30 Sphero, Inc. Self propelled device with magnetic coupling
US10281915B2 (en) 2011-01-05 2019-05-07 Sphero, Inc. Multi-purposed self-propelled device
US20140146172A1 (en) * 2011-06-08 2014-05-29 Omron Corporation Distributed image processing system
JP5192597B1 (ja) * 2012-04-03 2013-05-08 株式会社ナナオ 動き画像領域判定装置またはその方法
EP2658255A1 (en) * 2012-04-27 2013-10-30 Siemens Aktiengesellschaft Methods and devices for object detection in coded video data
US9292758B2 (en) * 2012-05-14 2016-03-22 Sphero, Inc. Augmentation of elements in data content
JP6103948B2 (ja) * 2013-01-17 2017-03-29 キヤノン株式会社 撮像装置、遠隔操作端末、カメラシステム、撮像装置の制御方法およびプログラム、遠隔操作端末の制御方法およびプログラム
US9177245B2 (en) 2013-02-08 2015-11-03 Qualcomm Technologies Inc. Spiking network apparatus and method with bimodal spike-timing dependent plasticity
CN104184986B (zh) * 2013-05-28 2018-06-05 华为技术有限公司 一种视频监控方法、装置及系统
US20140362225A1 (en) * 2013-06-11 2014-12-11 Honeywell International Inc. Video Tagging for Dynamic Tracking
US9713982B2 (en) 2014-05-22 2017-07-25 Brain Corporation Apparatus and methods for robotic operation using video imagery
US10194163B2 (en) * 2014-05-22 2019-01-29 Brain Corporation Apparatus and methods for real time estimation of differential motion in live video
US9939253B2 (en) 2014-05-22 2018-04-10 Brain Corporation Apparatus and methods for distance estimation using multiple image sensors
US9472082B2 (en) * 2014-06-23 2016-10-18 Bruno Delean Vision based system for detecting distress behavior
US9848112B2 (en) 2014-07-01 2017-12-19 Brain Corporation Optical detection apparatus and methods
US10057593B2 (en) 2014-07-08 2018-08-21 Brain Corporation Apparatus and methods for distance estimation using stereo imagery
US10055850B2 (en) 2014-09-19 2018-08-21 Brain Corporation Salient features tracking apparatus and methods using visual initialization
JP5679086B1 (ja) * 2014-10-07 2015-03-04 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
KR102174839B1 (ko) * 2014-12-26 2020-11-05 삼성전자주식회사 보안 시스템 및 그 운영 방법 및 장치
US10430668B2 (en) 2015-03-04 2019-10-01 Hitachi Systems, Ltd. Situation ascertainment system using camera picture data, control device, and situation ascertainment method using camera picture data
US9996749B2 (en) 2015-05-29 2018-06-12 Accenture Global Solutions Limited Detecting contextual trends in digital video content
US10197664B2 (en) 2015-07-20 2019-02-05 Brain Corporation Apparatus and methods for detection of objects using broadband signals
JP6624878B2 (ja) * 2015-10-15 2019-12-25 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US10332274B2 (en) * 2016-11-14 2019-06-25 Nec Corporation Surveillance system using accurate object proposals by tracking detections
CN106791869B (zh) * 2016-12-21 2019-08-27 中国科学技术大学 基于光场子孔径图像相对位置关系的快速运动搜索方法
JP7204346B2 (ja) * 2018-06-05 2023-01-16 キヤノン株式会社 情報処理装置、システム、情報処理方法及びプログラム
KR102132335B1 (ko) * 2018-09-20 2020-07-09 주식회사 핀텔 객체영역 검출방법, 장치 및 이에 대한 컴퓨터 프로그램
CN109782320A (zh) * 2019-03-13 2019-05-21 中国人民解放军海军工程大学 运输队列定位方法及系统
US11483484B2 (en) * 2019-11-06 2022-10-25 Nec Corporation Of America Systems and methods for imaging of moving objects using multiple cameras
CN111163316A (zh) * 2020-01-08 2020-05-15 东电创新(北京)科技发展股份有限公司 一种基于低码流的高清视频传输方法及系统
US11625938B2 (en) * 2020-12-29 2023-04-11 Industrial Technology Research Institute Method and device for detecting human skeletons

Family Cites Families (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3334283B2 (ja) 1993-09-21 2002-10-15 ソニー株式会社 動き量検出装置及び動き量検出方法
US5594504A (en) * 1994-07-06 1997-01-14 Lucent Technologies Inc. Predictive video coding using a motion vector updating routine
US5745183A (en) * 1995-08-25 1998-04-28 Thomson Consumer Electronics, Inc. Image motion estimation system which derives candidate block from interpolated motion vectors
US5937216A (en) * 1996-05-24 1999-08-10 Nikon Corporation Focal adjustment apparatus for a camera
JPH1169342A (ja) 1997-08-22 1999-03-09 Hitachi Denshi Ltd 侵入物体追尾画像処理システム
US6269174B1 (en) * 1997-10-28 2001-07-31 Ligos Corporation Apparatus and method for fast motion estimation
US5946043A (en) * 1997-12-31 1999-08-31 Microsoft Corporation Video coding using adaptive coding of block parameters for coded/uncoded blocks
US7072398B2 (en) * 2000-12-06 2006-07-04 Kai-Kuang Ma System and method for motion vector generation and analysis of digital video clips
KR100364582B1 (ko) 2000-04-28 2002-12-16 주식회사 네트웍코리아 다중 이동물체 추적/감시 시스템
US6937744B1 (en) * 2000-06-13 2005-08-30 Microsoft Corporation System and process for bootstrap initialization of nonparametric color models
JP4140202B2 (ja) * 2001-02-28 2008-08-27 三菱電機株式会社 移動物体検出装置
WO2003039161A2 (en) * 2001-10-29 2003-05-08 Parthusceva Ltd. Method and apparatus for motion estimation in a sequence of digital images
CN101448162B (zh) * 2001-12-17 2013-01-02 微软公司 处理视频图像的方法
KR100459893B1 (ko) * 2002-01-08 2004-12-04 삼성전자주식회사 동영상에서 칼라 기반의 객체를 추적하는 방법 및 그 장치
JP2003274410A (ja) * 2002-03-13 2003-09-26 Hitachi Ltd 監視映像の符号化装置及び復号装置並びに符号化方法
JP2005524353A (ja) * 2002-04-30 2005-08-11 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 小さいレートのアプリケーションのためにデジタル画像を処理する方法
AU2003295318A1 (en) * 2002-06-14 2004-04-19 Honda Giken Kogyo Kabushiki Kaisha Pedestrian detection and tracking with night vision
US7068722B2 (en) * 2002-09-25 2006-06-27 Lsi Logic Corporation Content adaptive video processor using motion compensation
US7385626B2 (en) * 2002-10-21 2008-06-10 Sarnoff Corporation Method and system for performing surveillance
KR100515960B1 (ko) * 2002-11-07 2005-09-21 삼성테크윈 주식회사 적응적 디지털 영상 기록기 및 그 제어 방법
US7595817B1 (en) * 2003-02-12 2009-09-29 The Research Foundation Of State University Of New York Linear system based, qualitative independent motion detection from compressed MPEG surveillance video
KR100558383B1 (ko) 2003-03-07 2006-03-10 주식회사 밀리오네어즈 움직임 블록 검출 방법 및 이에 기초한 움직이는 물체추적 방법
US7489829B2 (en) * 2003-03-11 2009-02-10 Sightic Vista Ltd. Adaptive low-light image processing
ITMI20031079A1 (it) * 2003-05-29 2004-11-30 St Microelectronics Srl Metodo ed apparato per dedificare immagini digitali
EP1636993A2 (en) 2003-06-19 2006-03-22 L3 Communications Corp Method and apparatus for providing a scalable multi-camera distributed video processing and visualization surveillance system
US20100013917A1 (en) * 2003-08-12 2010-01-21 Keith Hanna Method and system for performing surveillance
KR100594056B1 (ko) * 2003-09-01 2006-07-03 삼성전자주식회사 효율적인 비트율 제어를 위한 h.263/mpeg 비디오인코더 및 그 제어 방법
US7660439B1 (en) * 2003-12-16 2010-02-09 Verificon Corporation Method and system for flow detection and motion analysis
US7697026B2 (en) * 2004-03-16 2010-04-13 3Vr Security, Inc. Pipeline architecture for analyzing multiple video streams
EP1605706A2 (en) 2004-06-09 2005-12-14 Broadcom Corporation Advanced video coding (AVC) intra prediction scheme
US20060028550A1 (en) 2004-08-06 2006-02-09 Palmer Robert G Jr Surveillance system and method
US20060126737A1 (en) 2004-12-15 2006-06-15 International Business Machines Corporation Method, system and program product for a camera to track an object using motion vector data
US7671894B2 (en) * 2004-12-17 2010-03-02 Mitsubishi Electric Research Laboratories, Inc. Method and system for processing multiview videos for view synthesis using skip and direct modes
US20060146933A1 (en) * 2004-12-30 2006-07-06 Paul Lu Method and system for video motion processing in a microprocessor
JP4107605B2 (ja) * 2005-02-01 2008-06-25 シャープ株式会社 移動体周辺監視装置、移動体周辺監視方法、制御プログラムおよび可読記録媒体
JP4741650B2 (ja) * 2005-03-17 2011-08-03 ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー ビデオシーケンスにおけるオブジェクト追跡の方法
US20060222074A1 (en) * 2005-04-01 2006-10-05 Bo Zhang Method and system for motion estimation in a video encoder
KR100746007B1 (ko) * 2005-04-19 2007-08-06 삼성전자주식회사 엔트로피 코딩의 컨텍스트 모델을 적응적으로 선택하는방법 및 비디오 디코더
WO2007033286A2 (en) * 2005-09-13 2007-03-22 Verificon Corporation System and method for object tracking and activity analysis
US8170102B2 (en) * 2005-12-19 2012-05-01 Seiko Epson Corporation Macroblock homogeneity analysis and inter mode prediction
JP4666255B2 (ja) * 2005-12-27 2011-04-06 日本電気株式会社 符号化データ選定、符号化データ設定、再符号化データ生成及び再符号化の方法及び装置
US8160144B1 (en) * 2006-05-10 2012-04-17 Texas Instruments Incorporated Video motion estimation
US8275049B2 (en) * 2006-06-16 2012-09-25 Via Technologies, Inc. Systems and methods of improved motion estimation using a graphics processing unit
WO2008002128A1 (en) * 2006-06-30 2008-01-03 Ultrawaves Design Holding B.V. Surveillance method and system using object based rule checking
US8355440B2 (en) * 2006-08-07 2013-01-15 Vixs Systems, Inc. Motion search module with horizontal compression preprocessing and methods for use therewith
KR20060100341A (ko) 2006-08-30 2006-09-20 (주)로직아이텍 객체식별이 가능한 영상처리 감시시스템
US9307122B2 (en) * 2006-09-27 2016-04-05 Core Wireless Licensing S.A.R.L. Method, apparatus, and computer program product for providing motion estimation for video encoding
US8213509B2 (en) * 2006-10-06 2012-07-03 Calos Fund Limited Liability Company Video coding on parallel processing systems
US8356249B2 (en) * 2007-05-22 2013-01-15 Vidsys, Inc. Intelligent video tours
KR101271092B1 (ko) * 2007-05-23 2013-06-04 연세대학교 산학협력단 감시 카메라 시스템에서 움직임을 검출하기 위한 실시간움직임 영역 분할 방법 및 장치
DE102007041893A1 (de) * 2007-09-04 2009-03-05 Robert Bosch Gmbh Verfahren zur Detektion und/oder Verfolgung von bewegten Objekten in einer Überwachungsszene mit Störern, Vorrichtung sowie Computerprogramm
US8077772B2 (en) * 2007-11-09 2011-12-13 Cisco Technology, Inc. Coding background blocks in video coding that includes coding as skipped
US8660175B2 (en) * 2007-12-10 2014-02-25 Qualcomm Incorporated Selective display of interpolated or extrapolated video units
TWI353778B (en) * 2007-12-21 2011-12-01 Ind Tech Res Inst Moving object detection apparatus and method
WO2009102010A1 (ja) * 2008-02-14 2009-08-20 Nec Corporation 移動領域検出装置
TWI489394B (zh) * 2008-03-03 2015-06-21 Videoiq Inc 用於追蹤、索引及搜尋之物件匹配
US8175160B1 (en) * 2008-06-09 2012-05-08 Nvidia Corporation System, method, and computer program product for refining motion vectors
WO2010057170A1 (en) * 2008-11-17 2010-05-20 Cernium Corporation Analytics-modulated coding of surveillance video
JP4631966B2 (ja) * 2008-12-22 2011-02-16 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
US8812226B2 (en) * 2009-01-26 2014-08-19 GM Global Technology Operations LLC Multiobject fusion module for collision preparation system
US8285046B2 (en) * 2009-02-18 2012-10-09 Behavioral Recognition Systems, Inc. Adaptive update of background pixel thresholds using sudden illumination change detection

Also Published As

Publication number Publication date
CN102726047B (zh) 2016-06-08
JP2013527998A (ja) 2013-07-04
CN102726047A (zh) 2012-10-10
WO2011115356A1 (en) 2011-09-22
US9082278B2 (en) 2015-07-14
US20110228092A1 (en) 2011-09-22

Similar Documents

Publication Publication Date Title
JP5596801B2 (ja) 監視システム
JP6381724B2 (ja) 画像復号装置
CN107027032B (zh) 最后帧运动向量分区方法和装置
EP2579598A2 (en) Method for encoding/decoding high-resolution image and device for performing same
WO2016050051A1 (zh) 图像预测方法及相关装置
US20130089265A1 (en) Method for encoding/decoding high-resolution image and device for performing same
WO2010001917A1 (ja) 画像処理装置および方法
US20230082561A1 (en) Image encoding/decoding method and device for performing feature quantization/de-quantization, and recording medium for storing bitstream
KR20200125760A (ko) 픽처 예측 방법 및 픽처 예측 장치
KR101354014B1 (ko) 코딩 구조
CN110741641B (zh) 用于视频压缩的方法和装置
CN105900419A (zh) 屏幕内容数据的视频编码
KR20180037042A (ko) 모션 벡터 필드 코딩 방법 및 디코딩 방법, 및 코딩 및 디코딩 장치들
CN109996080A (zh) 图像的预测方法、装置及编解码器
CN111866502A (zh) 图像预测方法、装置和计算机可读存储介质
JP2014127847A (ja) 画像監視システム
JP2024514294A (ja) マルチメディアデータ処理方法、装置、機器、コンピュータ可読記憶媒体及びコンピュータプログラム
JP2013085252A (ja) データストリームにブロック単位で予測符号化されたビデオフレームのブロックの顕著性値を決定する方法及び装置
KR20180021942A (ko) 보안 카메라용 영상 코덱에서 블록 분할 정보 전송 방법 및 장치
CN113489976A (zh) 预测编码方法、装置和电子设备
KR20140124919A (ko) 객체 기반 적응적 밝기 보상 방법 및 장치
WO2023011420A1 (zh) 编解码方法和装置
JP6318729B2 (ja) 端末装置及びデータ管理装置
JP2014514808A (ja) 画像ブロックを再構成および符号化する方法
JP2022526547A (ja) 画像処理方法および電子デバイス

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131209

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140807

R150 Certificate of patent or registration of utility model

Ref document number: 5596801

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees