JP2009230759A - ビデオ・ストリーム内での放置対象および除去済み対象の検出方法およびコンピュータ・プログラム、コンピュータ・システム - Google Patents

ビデオ・ストリーム内での放置対象および除去済み対象の検出方法およびコンピュータ・プログラム、コンピュータ・システム Download PDF

Info

Publication number
JP2009230759A
JP2009230759A JP2009064765A JP2009064765A JP2009230759A JP 2009230759 A JP2009230759 A JP 2009230759A JP 2009064765 A JP2009064765 A JP 2009064765A JP 2009064765 A JP2009064765 A JP 2009064765A JP 2009230759 A JP2009230759 A JP 2009230759A
Authority
JP
Japan
Prior art keywords
pixel
pixels
seed
frame
current frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009064765A
Other languages
English (en)
Other versions
JP5159677B2 (ja
Inventor
Ying-Li Tian
インリー・ティアン
Schmidt Feris Rogerio
ロゲリオ・シュミット・フェリス
Zuoxuan Max Lu
ヅオシュエン・マックス・ルー
Arun Hampapur
アルン・ハンペイパー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JP2009230759A publication Critical patent/JP2009230759A/ja
Application granted granted Critical
Publication of JP5159677B2 publication Critical patent/JP5159677B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/34Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30112Baggage; Luggage; Suitcase

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】ビデオ・フレームの時間順シーケンスを処理する方法を提供する。
【解決手段】本方法は、コンピュータ・システムのプロセッサ上でプログラム・コードを実行することにより実施される。各フレームは、画素の2次元配列と、各画素における、フレーム依存の色強度とを含む。現在のフレームと、シーケンス内で現在のフレームより前に生じている少なくとも1つのフレームとが、該少なくとも1つのフレームに対する背景除去によって分析され、背景画像と、静止領域に関連する静止領域マスクとが決定される。背景除去により、静止領域に関して静止対象の存在が決定される。静止対象の状態が決定される。この状態とは、静止対象は放置対象か、または除去済み対象であり得る。決定された状態は、コンピュータ・システムのデータ記憶媒体に格納される。
【選択図】図1

Description

本発明は、全般的にビデオ・ストリームのビデオ・フレーム処理に関し、特に、ビデオ・ストリーム内の放置対象(オブジェクト、物体)および除去済み対象の検出に関する。
ビデオ・ストリーム内の放置対象および除去済み対象を検出する現在の方法は、特に、複雑な環境または混雑した環境、あるいはその両方において効果的でない。
したがって、関連技術に現在存在するよりも効果的な、ビデオ・ストリーム内の放置対象および除去済み対象の検出方法およびシステムが必要とされている。
本発明は、ビデオ・フレームの時間順シーケンスを処理する方法を提供する。各フレームは、2次元の画素配列と、各画素における、フレーム依存の色強度とを含む。前記方法は、コンピュータ・システムのプロセッサ上でプログラム・コードを実行することにより実施される。前記方法は、
現在のフレームと、シーケンス内で現在のフレームより前に生じている少なくとも1つのフレームとを分析するステップであって、前記分析するステップは、背景画像と、静止領域に関連する静止領域マスクとを決定するために、該少なくとも1つのフレームに対して背景除去(background subtraction)を行うステップであって、前記背景画像は、画素配列と、該少なくとも1つのフレームの背景モデルとを含み、いかなる移動対象も含まず、前記静止領域は、画素配列のうちの複数画素の連続的な分布から成る、ステップと、静止対象の存在を決定するステップであって、前記静止対象は、現在のフレームの静止領域内に存在し背景画像の静止領域内には存在しない放置対象から成るか、または背景画像の静止領域内に存在し現在のフレームの静止領域内には存在しない除去済み対象から成る、ステップとを含む、該分析するステップと、
前記分析するステップの後に、静止対象の状態を決定するステップであって、前記状態は、静止対象が前記放置対象であれば放置状態であり、または静止対象が前記除去済み対象であれば除去済み状態であり、状態の前記決定するステップは、A/R(abandoned/removed)アルゴリズムを実行するステップを含み、A/Rアルゴリズムは、現在のフレーム、背景画像、および静止領域マスクを入力として使用し、背景除去から得られる他のいかなる情報も入力として使用しない、該決定するステップと、
決定された状態を、コンピュータ・システムのデータ記憶媒体に格納するステップと
を含む。
本発明は、コンピュータ可読プログラム・コードが格納されているコンピュータ使用可能記憶媒体を含むコンピュータ・プログラムを提供する。前記コンピュータ可読プログラム・コードは、ビデオ・フレームの時間順シーケンスを処理する方法を実施するようになっているアルゴリズムを含む。各フレームは、2次元の画素配列と、各画素における、フレーム依存の色強度とを含む。前記方法は、コンピュータ・システムのプロセッサ上でプログラム・コードを実行することにより実施される。前記方法は、
現在のフレームと、シーケンス内で現在のフレームより前に生じている少なくとも1つのフレームとを分析するステップであって、前記分析するステップは、背景画像と、静止領域に関連する静止領域マスクとを決定するために、該少なくとも1つのフレームに対して背景除去を行うステップであって、前記背景画像は、画素配列と、該少なくとも1つのフレームの背景モデルとを含み、いかなる移動対象も含まず、前記静止領域は、画素配列のうちの複数画素の連続的な分布から成る、ステップと、静止対象の存在を決定するステップであって、前記静止対象は、現在のフレームの静止領域内に存在し背景画像の静止領域内には存在しない放置対象から成るか、または背景画像の静止領域内に存在し現在のフレームの静止領域内には存在しない除去済み対象から成る、ステップとを含む、該分析するステップと、
前記分析するステップの後に、静止対象の状態を決定するステップであって、前記状態は、静止対象が前記放置対象であれば放置状態であり、または静止対象が前記除去済み対象であれば除去済み状態であり、状態の前記決定するステップは、A/Rアルゴリズムを実行するステップを含み、A/Rアルゴリズムは、現在のフレーム、背景画像、および静止領域マスクを入力として使用し、背景除去から得られる他のいかなる情報も入力として使用しない、該決定するステップと、
決定された状態を、コンピュータ・システムのデータ記憶媒体に格納するステップと
を含む。
本発明は、プロセッサと、プロセッサに接続されたコンピュータ可読メモリ・ユニットとを含むコンピュータ・システムを提供する。前記メモリ・ユニットは命令を含み、この命令は、プロセッサにより実行されると、ビデオ・フレームの時間順シーケンスを処理する方法を実施させる。各フレームは、2次元の画素配列と、各画素における、フレーム依存の色強度とを含む。前記方法は、コンピュータ・システムのプロセッサ上でプログラム・コードを実行することにより実施される。前記方法は、
現在のフレームと、シーケンス内で現在のフレームより前に生じている少なくとも1つのフレームとを分析するステップであって、前記分析するステップは、背景画像と、静止領域に関連する静止領域マスクとを決定するために、該少なくとも1つのフレームに対して背景除去を行うステップであって、前記背景画像は、画素配列と、該少なくとも1つのフレームの背景モデルとを含み、いかなる移動対象も含まず、前記静止領域は、画素配列のうちの複数画素の連続的な分布から成る、ステップと、静止対象の存在を決定するステップであって、前記静止対象は、現在のフレームの静止領域内に存在し背景画像の静止領域内には存在しない放置対象から成るか、または背景画像の静止領域内に存在し現在のフレームの静止領域内には存在しない除去済み対象から成る、ステップとを含む、該分析するステップと、
前記分析するステップの後に、静止対象の状態を決定するステップであって、前記状態は、静止対象が前記放置対象であれば放置状態であり、または静止対象が前記除去済み対象であれば除去済み状態であり、状態の前記決定は、A/Rアルゴリズムを実行するステップを含み、A/Rアルゴリズムは、現在のフレーム、背景画像、および静止領域マスクを入力として使用し、背景除去から得られる他のいかなる情報も入力として使用しない、該決定するステップと、
決定された状態を、コンピュータ・システムのデータ記憶媒体に格納するステップと
を含む。
本発明は、コンピュータ・インフラストラクチャをサポートするプロセスを提供する。前記プロセスは、コンピューティング・システムにおけるコンピュータ可読プログラム・コードの作成、統合、ホスティング、維持および展開のうち少なくとも1つのために少なくとも1つのサポート・サービスを提供することを含む。プログラム・コードは、コンピューティング・システムと共同して、ビデオ・フレームの時間順シーケンスを処理する方法を実施するよう構成されている。各フレームは、2次元の画素配列と、各画素における、フレーム依存の色強度とを含む。前記方法は、コンピュータ・システムのプロセッサ上でプログラム・コードを実行することにより実施される。前記方法は、
現在のフレームと、シーケンス内で現在のフレームより前に生じている少なくとも1つのフレームとを分析するステップであって、前記分析するステップは、背景画像と、静止領域に関連する静止領域マスクとを決定するために、該少なくとも1つのフレームに対して背景除去を行うステップであって、前記背景画像は、画素配列と、該少なくとも1つのフレームの背景モデルとを含み、いかなる移動対象も含まず、前記静止領域は、画素配列のうちの複数画素の連続的な分布から成る、ステップと、静止対象の存在を決定するステップであって、前記静止対象は、現在のフレームの静止領域内に存在し背景画像の静止領域内には存在しない放置対象から成るか、または背景画像の静止領域内に存在し現在のフレームの静止領域内には存在しない除去済み対象から成る、ステップとを含む、該分析するステップと、
前記分析するステップの後に、静止対象の状態を決定するステップであって、前記状態は、静止対象が前記放置対象であれば放置状態であり、または静止対象が前記除去済み対象であれば除去済み状態であり、状態の前記決定は、A/Rアルゴリズムを実行するステップを含み、A/Rアルゴリズムは、現在のフレーム、背景画像、および静止領域マスクを入力として使用し、背景除去から得られる他のいかなる情報も入力として使用しない、該決定するステップと、
決定された状態を、コンピュータ・システムのデータ記憶媒体に格納するステップと
を含む。
本発明は、ビデオ・ストリーム内の放置対象および除去済み対象を検出するための、現在関連技術において存在するよりも効果的な方法およびシステムを提供する。
図1は、本発明の実施形態に従った、ビデオ・ストリームのビデオ・フレームの時間順シーケンスを処理する方法を描いた流れ図である。方法は、図14に描かれており以下で説明する、コンピュータ・システム90などのコンピュータ・システムのプロセッサ上でプログラム・コードを実行することによって実施され得る。図1に、ステップ11〜14を示す。
ステップ11は、ビデオ・フレームの時間順シーケンスを含むビデオ・ストリームを提供する。一実施形態では、ビデオ・ストリームは実時間のビデオ・ストリームである。一実施形態では、ビデオ・ストリームは、マルチメディア・フォーマット(例えば、avi、mpeg、wmvなど)でマルチメディア・ファイルとしてネットワーク(例えばインターネット)を通じて提供されて、標準的な最新式のコンピュータまたはパーソナル・コンピュータ(PC:personal computer)上のビデオ・アダプタに接続されたビデオ・カメラから受信されればよい。ビデオ・ストリームの各フレームは、2次元の画素配列を含む。
各フレームの2次元配列の画素それぞれが色強度を有する。一実施形態では、色強度が赤の色強度、緑の色強度、および青の色強度の組み合わせとなるよう、色強度はRGBに基づく。一実施形態では、色強度はグレーの色合い(shade of gray)に基づく。グレーの色合いのスペクトルは、RGBのスペクトルのサブセットであるため、「色」、「色強度」などは、RGBおよびグレーの色合いのどちらに対して使用しても適切である。
ステップ12は、現在のフレームを処理する。現在のフレームは、ビデオ・ストリームのうち、第1のフレームの後のフレームであればどれでもよい。ステップ12は、ビデオ・シーケンス内で現在のフレームに先行する一連のフレームに対して背景除去アルゴリズムを使用して、現在のフレームと、一連のフレームとを分析し、特に、背景画像と、前景(foreground)マスクと、1つ以上の静止領域と、1つ以上の静止領域のうちの各静止領域に関連する静止領域マスクとを決定する。一連のフレームは、現在のフレームより前に生じている1つ以上のフレームから成る。
背景画像は、2次元の画素配列と、現在のフレームより前の少なくとも1つのフレームの背景モデルとを含み、いかなる移動対象(オブジェクト)も含まない。したがって、背景画像は、或る期間にわたり静止している、画像の一部を表す。例えば、背景画像は、駐車場と、或る期間にわたって駐車場内にある車とを含むこともある。この、或る期間は、ユーザにより定義されていてもよい。
前景とは、その期間に変化する画像の部分を指し、したがって1つ以上の移動対象を含む。例えば、前景は駐車場内に入ってくる車を含み得る。前景マスクは、前景の2進表現(例えば0または1)であり、「1」は移動対象コンテンツ(moving object content)から成る前景コンテンツ(foreground content)を含む、フレーム上の画素を示し、「0」は、前景コンテンツを含まないフレームの画素を示す。
静止領域は、フレームの空間的に固定された領域にある、複数画素の連続的な分布を含む。静止領域により表される静止対象は、放置対象(abandoned object)または除去済み対象(removed object)である。 SEQ CHAPTER \h \r 1特定のフレーム内の静止領域により表される放置対象は、この特定のフレーム内の静止領域内には物理的に存在するが、この特定のフレームに先行する複数のフレーム内の静止領域内には物理的に存在しない対象(例えば、駐車場に最近駐車された車)である。特定のフレーム内の静止領域により表される除去済み対象は、この特定のフレーム内の静止領域内には物理的に存在しないが、この特定のフレームに先行する複数のフレーム内の静止領域内には物理的に存在する対象(例えば、駐車場から最近出た車)である。
各静止領域の静止領域マスクは2進表現(例えば0または1)であり、「1」を含む画素はその画素が静止領域内にあることを示し、「0」を含む画素は静止領域外の画素を示す。したがって、フレーム上に重ねられた静止領域マスクはフレーム内の複数画素を特定し、これが、その静止マスクに関連付けられたフレーム内の静止領域を定義する。
ステップ12の背景除去で行われる分析により、静止対象の存在が決定(判断)される。静止対象は、(1)現在のフレームの静止領域内には存在し、背景画像の静止領域内には存在しない放置対象、または(2)背景画像内の静止領域内には存在し、現在のフレームの静止領域内には存在しない除去済み対象のうちいずれかである。
種々の背景除去処理が当該技術分野で既知となっており、現在既知であるかまたはこれから知られる任意の背景除去処理が、ステップ12を実施するために使用されればよい。有益に用いられ得るこのような背景除去処理の1つには、背景モデル、前景画像および静止領域を生成する「混合ガウス(mixture of Gaussians)」アルゴリズムがある(論文Ying−Li Tian、Max Lu、およびArun Hampapur、「Robust and Efficient Foreground Analysis for Real−time Video Surveillance」、IEEE CVPR、San Diego、2005年6月を参照のこと)。
混合ガウス・アルゴリズムは、ガウス重み係数による線形結合において結合されるK個のガウス関数を利用し、画素の色強度の確率関数を定義する。一実施形態では、Kは3〜5の範囲である。従来の混合ガウス・アルゴリズムは、前景および静止領域を特定するために、ガウス重み係数の合計の下限を規定する単一の重み閾値を用いる。閾値の値が高いと、その分類(カテゴリ)化により、断片化された前景または静止領域が生じることになる。
したがって、本発明は、前景を特定するための高い値の重み閾値と、静止領域を特定するための低い値の重み閾値との、2つの重み閾値を使用することで、従来の混合ガウス・アルゴリズムに新規の改良を与える。2つの重み閾値により、高い閾値の値が原因で静止領域が不必要に断片化することが確実になくなる。具体的には、背景除去において、前景画像を特定するために、ガウス重み係数の合計は高重み閾値を上回ることを制限され、静止領域を特定するために、ガウス結合係数の合計は低重み閾値を上回ることを制限される。前景画像が的確に特定されて静止領域が過度に断片化しないことが保証されるよう、高重み閾値は十分に高く、低重み閾値は十分に低い。
背景除去への適用における本発明の新規な改良点は、現在のフレームより前に生じている一連のフレームを選択するためにタイムスタンプを使用することである。従来の背景除去法は、規定の複数フレームの入力と、所定の更新レート(率)・パラメータとに基づき、背景画像を更新する。本発明では、更新レート・パラメータが一定であっても、背景画像は、フレーム・レートが異なる複数のビデオ・ストリームについて別々の速度で更新され得る。実時間の監視システムでは、1つの機械で実行されている複数のエンジンおよびシナリオの複雑性が原因で、同じカメラ・ビューでもビデオ・フレーム・レートが著しく変化することがよくある。したがって、一実施形態において、本発明に適用する中で混合ガウス法を使用することは、少なくとも1つのタイムスタンプを指示する時間データの入力を受信することと、この少なくとも1つのタイムスタンプの各タイムスタンプについて、フレーム時間が各タイムスタンプの時間に最も近いフレームを選択して、現在のフレームより前に生じている少なくとも1つのフレームを決定することとを含む。この少なくとも1つのタイムスタンプは、1つまたは複数のタイムスタンプから成ればよい。前述の方法で決定された、現在のフレームより前に生じている少なくとも1つのフレームは、背景画像の生成または更新に使用される。
ステップ13は、ステップ12で特定された静止領域に関連する静止対象の状態を決定する。静止対象の状態は、静止対象が放置対象であれば放置状態であり、または静止対象が除去済み対象であれば除去済み状態である。ステップ13は静止対象の状態を決定するが、これは、現在のフレーム、背景画像および静止領域を入力として使用し、背景除去から得られるその他のいかなる情報も入力として使用しない、放置/除去済みアルゴリズム(以下「A/Rアルゴリズム」)を実行することによる。A/Rアルゴリズムの実装は、以下、図2において詳細に説明する。
ステップ14は、ステップ13で決定された静止対象の状態を、コンピュータ・システム(例えば、図14内に描かれているコンピュータ・システム90)のデータ記憶媒体に格納するか、または決定された静止対象の状態を、データ記憶デバイス、表示デバイスなど、コンピュータ・システムの出力デバイスに提供するか、あるいはこの両方を行う。
図2は、本発明の実施形態に従った、図1のステップ13のA/Rアルゴリズム実装を示す流れ図である。図2はステップ21〜25を示す。
ステップ21は、図1のステップ12の背景除去から生じる静止領域マスクを特定する。
ステップ22は、ステップ21で特定された静止領域マスクの外側の複数画素を収縮(erode、侵食)し、静止領域マスクの残りの非収縮画素(non−eroded pixels)が複数残る。非収縮画素の境界画素は、少なくとも1つの収縮画素に直接接する(directly exposed)非収縮画素すべてから成る。境界画素は、境界画素と収縮画素との間の境界面として機能する輪郭により境界を付けられる。
ステップ23は、領域拡張手順を実行することによって、現在のフレーム内に拡張面積(ACF)を生成する。領域拡張手順は、以下で図3と関連して説明されるが、ステップ22の結果生じる非収縮画素を利用するものである。
ステップ24は、図3の領域拡張手順を実行することによって、背景画像内に拡張面積(ABI)を生成する。領域拡張手順は、ステップ22の結果生じる非収縮画素を利用するものである。
ステップ25は、静止対象の状態を、ABI−ACFに基づき決定する。
δAth≧0が規定の面積差閾値(area difference threshold)を示す一実施形態では、ステップ23は、(1)状態が放置状態であることを意味するABI−ACF>δAth、(2)状態が除去済み状態であることを意味するACF−ABI>δAth、または(3)状態が不明確であることを意味する|ABI−ACF|≦δAthを決定する。
一実施形態では、面積差閾値を使用する前述のテストが、分数の閾値ε≧0を使用するテストに置き換えられ、ステップ23は、(1)状態が放置状態であることを意味する(ABI−ACF)/(ABI+ACF)>ε、(2)状態が除去済み状態であることを意味する(ACF−ABI)/(ABI+ACF)>ε、または(3)状態が不明確であることを意味する|(ABI−ACF)|/(ABI+ACF)≦εを決定する。
当然ながら、以下、本発明の考察においてδAthを伴うテストについて論じるときは、常に、εを伴う上記テストが代わりに利用され得る。
図3は、本発明の実施形態に従った、図2のステップ23および24において使用される領域拡張手順の実施を示す流れ図である。図3は、領域拡張手順を呼び出すステップにより提供される入力フレーム内に拡張面積を生成および出力する。具体的には、図2のステップ21は、領域拡張手順によって入力フレームとして使用されるべき現在のフレームを提供し、図2のステップ22は、領域拡張手順により入力フレームとして使用されるべき背景画像を提供する。静止領域は、領域拡張手順に対する追加入力である。さらに、領域拡張手順には、規定の画素収縮深度(pixel erosion depth)およびシード選択パラメータを利用してもよい。
図3はステップ31〜33を示しており、これは、図4〜13内に示されている例に対して領域拡張手順を適用するという状況で説明される。
ステップ31は、ステップ22で決定された非収縮画素と、フレームの対応する画素とをそろえるべく、ステップ22から生じる境界をつける輪郭および境界画素がフレーム上に重ねられた後に、図2のステップ22から生じる非収縮画素の境界画素から複数の第1シード画素を選択する。この実施形態では、第1シード画素は、現在のフレームと背景画像とについて独立して選択される。これによって、現在のフレームおよび背景画像が異なる第1画素シードを選択し、現在のフレームおよび背景画像内の異なる色強度の空間的パターン(spatial pattern)を有益に利用することができるようになる。この実施形態では、第1シード画素は、まず現在のフレームに関して、次に背景画像について選択されてもよく、まず背景画像に関して、次に現在のフレームに関して選択されてもよく、または、現在のフレームおよび背景画像について同時に選択されてもよい(たとえば、並列処理ハードウェアが使用されている場合)。
あるいは、現在処理中のフレーム(例えば背景画像)の第1シード画素は、現在処理中のフレームに対するステップ31の実行で使用されているのと同じ境界画素および輪郭を用いる、別のフレーム(例えば現在のフレーム)に対するステップ31の前の実行から既に選択されている第1シード画素から成るように、ステップ31で選択されてもよい。この実施形態では、選択された第1シード画素は、現在のフレームと背景画像とについて同じ第1シード画素であり、これによって、現在のフレームと背景画像とについて第1画素シードを選択する計算コストが削減される。この実施形態では、第1シード画素は、まず現在のフレームに関して、次に背景画像に関して選択されてもよく、またはまず背景画像に関して、その次に現在のフレームに関して選択されてもよいが、現在のフレームおよび背景画像に関して同時に選択することはできない。
ステップ32は、特定の色マッチング(あわせ)基準に従って、第1シード画素の色強度と色強度が一致する隣接画素にて非収縮画素の外に第1シード画素を反復して拡張し、第1シード画素の隣接画素にて新たなシード画素を生成する。前記反復して拡張するステップは、追加の新たなシード画素が生成できなくなるまで、新たなシード画素生成の一連の生成において、隣接画素にて新たなシード画素を生成する。
ステップ33は、新たなシード画素の複合面積として出力拡張面積を決定する。
図4〜8および9〜13は、本発明の実施形態に従った、図3の領域拡張手順と関連しての、第1入力フレームおよび第2入力フレームそれぞれに対する図2の静止領域マスク収縮ステップ22の適用を示している。
検出される静止対象が放置対象である以下の例では、図4〜8内の第1入力フレームが現在のフレーム40であり、図9〜13内の第2入力フレームが背景画像50である。
図4では、現在のフレーム40内の、外側境界42Aを有する静止領域41が、図2のステップ21から特定される。
図5は、図2のステップ22により実施される収縮プロセスの結果を示しており、静止領域41の残りの非収縮画素45を残して、図4の静止領域41の外側画素が収縮されており、収縮画素44と呼ばれる。収縮プロセスは静止領域41を変更するのではなく、図4の外側境界42Aを、静止領域41内に完全に配置され非収縮画素45の境界をつける輪郭42Bとなるよう、静止領域41内で内側に向けて移動させる。非収縮画素45の境界画素46(図6を参照のこと)は、少なくとも1つの収縮画素44に直接接するすべての非収縮画素から成る。
一実施形態では、輪郭42Bとなるように静止領域41内で図4の境界42Aを内側へ向けて移動させるプロセスは、収縮されるいくつかの画素層として表される画素収縮深度Dまで静止領域41の外側画素を外周に沿って収縮することにより達成されるとよい。本例では、2の画素収縮深度Dが使用され、境界42Aが2画素、内側へ移動することによって輪郭42Bが生成される。
一実施形態では、画素収縮深度の値は、図3のステップ32で十分な数の境界画素を確保するよう制限される。言い換えれば、静止対象の画素数が少なすぎる場合、画素収縮深度が過度に大きいと、第1シード画素が少なくなりすぎ、|ABI−ACF|>δAth、および上で論じた同様の閾値テストを満たすために十分正確にACFを計算するよう、十分反復して拡張することができない。
図6は、明確に印をつけられた、非収縮画素45の28個の境界画素46を有する図5を示している。
図7は、図3のステップ31で境界画素46から選択された第1シード画素47を示している。一実施形態では、選択された第1シード画素はすべての境界画素から成る(例えば、図6に描かれている28個の境界画素46すべて)。一実施形態では、選択された第1シードは、28個の境界画素46から選択された8個の第1シード画素47を示している図7にあるように、境界画素の総数よりも少ない画素から成る。一実施形態では、第1シード画素47は、図7にあるように、境界画素46内でほぼ均一に分布しているとよい。一実施形態では、第1シード画素47は、境界画素内に不均一に分布しているとよい。
一実施形態では、第1シード画素47は、その隣接画素である少なくとも1つの境界画素と色が一致しないように選択されるとよい。色の一致(または不一致)は、色マッチング基準に従う。特定の画素の「隣接画素」は、特定の画素の一点だけにおいてでもその特定の画素のどこかでこの特定の画素に直接接する画素である。
前述の実施形態は、無作為に選択された境界画素にて、または明確に選択された境界画素にて、1つの境界画素を第1シード画素として選択することによって実装されてもよい。手順は、この1つの境界画素から連続して規則的に(例えば時計回りまたは反時計回りに)、この1つの境界画素の隣接境界画素へ移動し、色の不一致が検出されるまで、各隣接境界画素との色の不一致をテストする。隣接境界画素と色が一致すると、色が一致した隣接境界画素は、第1シード画素として選択されない。隣接境界画素と色が一致しなければ、色が一致しなかった隣接境界画素は、次の第1シード画素として選択される。この、次の第1シード画素から手順は連続して規則的に次の隣接境界画素へと移動し、すべての境界画素が前述の方法で処理されるまで前述の色の不一致のテストを行う。例えば、境界画素が連続する境界画素P1(青)、P2(青)、P3(赤)、P4(赤)、P5(赤)、P6(赤)、P7(緑)、P8(緑)から成り、選択された第1シード画素がP1であれば、選択される第1シード画素はP1、P3、P7およびP8となる。この実施形態は、計算コストを削減するよう第1シード画素を選択するのに効率的である。
一実施形態において色マッチング基準は、第1画素および第2画素は、それぞれの色強度が「色クラス」として規定されている同じ範囲の色強度に入れば色が一致しているというものである。色クラスは、別々の色の規定セットから成る。色クラス全体は、使用されている色スペクトル内の可能な色強度すべてを包含し、各色クラスは、前記可能な色強度全体のサブセットから成る。したがって、前述の色マッチング基準によれば、第1画素および第2画素は、それぞれの色強度が同じ色クラスに入れば色が一致している。第1画素および第2画素は、それぞれの色強度が同じ色クラスに入らなければ、色が一致していない。したがって、2つの画素はどれでも、色が一致しているかまたは色が一致していないかである。別の観点からすると、前述の色マッチング基準によれば、第1画素および第2画素は、それぞれの色強度が同じ色クラスに入れば色が一致している。
図8は、新たなシード画素を生成するために、複数の第1シード画素47の隣接画素にて、第1シード画素47を非収縮画素45の外で反復して拡張する図3のステップ32の結果を示している。この隣接画素の色強度は、規定の色マッチング基準によると、第1シード画素の色強度と一致する。第1シード画素と色が一致する隣接画素それぞれが新たなシード画素となり、その後にその隣接画素との色照合が、規定の色マッチング基準に従って行われる。このプロセスは追加の新たなシード画素が生成できなくなるまで継続し、反復して新たなシード画素が生成されて、拡張領域48がもたらされる。この拡張領域48に関連する拡張面積ACFは、図3のステップ33において、個々の新たなシード画素の面積を足すことによって計算される。各画素の面積が1であれば、図7の拡張領域48については、ACF=80である。
図9では、背景画像50内の、外側境界52Aを有する静止領域51が、図2のステップ21から特定される。
図10は、図2のステップ22により実施される収縮プロセスの結果を示しており、静止領域51の残りの非収縮画素55を残して、図4の静止領域51の外側の画素が収縮されており、収縮画素54と呼ばれる。収縮プロセスは、静止領域51を変更せず、静止領域51内に完全に配置され非収縮画素55の境界をつける輪郭52Bとなるよう、図9の外側境界52Aを静止領域51内で内側に向けて移動させる。輪郭42Bおよび輪郭52Bのどちらに対しても使用される輪郭を生成するために図2の同じステップ22が使用されたため、図10の輪郭52Bおよび図5の輪郭42Bは互いに幾何学的に合致し、それぞれ現在のフレーム10および背景画像40において、相対的に同じ空間的位置に配置されている。非収縮画素55の境界画素56(図11を参照のこと)は、少なくとも1つの収縮画素54に直接接するすべての非収縮画素から成る。
一実施形態では、輪郭52Bになるように静止領域51内で図9の境界52Aを内側へ向けて移動させるプロセスは、収縮されるいくつかの画素層として表される画素収縮深度Dまで静止領域51の外側画素を外周に沿って収縮することにより達成される。本例では、2の画素収縮深度Dが使用され、境界52Aが2画素、内側へ移動することによって輪郭52Bが生成される。
一実施形態では、A/Rアルゴリズムが、静止領域により表される静止対象の放置/除去済み状態の明確な決定へと導くよう、画素収縮深度は、|ABI−ACF|が規定の面積差閾値δAthを上回るという条件を保証するのに十分大きくあるように制限される。例えば、|ABI−ACF|>δAthという前述の条件は、静止対象が、現在の入力フレームの面積の非常に大きな部分を含むことに起因することもある。
一実施形態では、画素収縮深度は、シード画素を反復して拡張する間の色拡張阻害の誘発を回避するべく、図3のステップ32で十分な数の境界画素を確保するために十分小さくあるよう制限される。言い換えれば、静止対象の画素数が少なすぎる場合、画素収縮深度が過度に大きいと、第1シード画素が少なくなりすぎ、|ABI−ACF|>δAth、および上で論じた同様の閾値テストを満たすために十分正確にABIを計算するよう、十分反復して拡張することができない。
図11は、明確に印をつけられた、非収縮画素55の28個の境界画素56を有する図10を示している。
図12は、図3のステップ31で境界画素56から選択された第1シード画素57、または、図4〜8について説明したように、現在のフレームに対する図3の領域拡張手順の前の実行からすでに第1境界シード47として(図7を参照のこと)選択されていた第1シード画素57を示している。一実施形態では、選択された第1シード画素はすべての境界画素から成る(例えば、図11に描かれている28個の境界画素56すべて)。一実施形態では、選択された第1シードは、28個の境界画素56から選択された8個の第1シード画素57を示している図12にあるように、境界画素の総数よりも少ない画素から成る。一実施形態では、第1シード画素57は、図12にあるように、境界画素56内でほぼ均一に分布しているとよい。一実施形態では、第1シード画素57は、境界画素内で不均一に分布しているとよい。
一実施形態では、第1シード画素57は、その隣接画素である少なくとも1つの境界画素と色が一致しないように選択されるとよい。色の一致(または不一致)は、色マッチング基準に従う。特定の画素の「隣接画素」は、特定の画素の一点だけにおいてでもその特定の画素のどこかでこの特定の画素に直接接している画素である。
前述の実施形態は、無作為に選択された境界画素にて、または明確に選択された境界画素にて、1つの境界画素を第1シード画素として選択することによって実装されてもよい。手順は、この1つの境界画素から、連続して規則的に(例えば時計回りまたは反時計回りに)、この1つの境界画素の隣接境界画素へ移動し、色の不一致が検出されるまで、各隣接境界画素との色の不一致をテストする。隣接境界画素と色が一致すると、色が一致した隣接境界画素は、第1シード画素として選択されない。隣接境界画素と色が一致しなければ、色が一致しなかった隣接境界画素は、次の第1シード画素として選択される。この、次の第1シード画素から手順は連続して規則的に次の隣接境界画素へと移動し、すべての境界画素が前述の方法で処理されるまで前述の色の不一致のテストを行う。例えば、境界画素が連続する境界画素P1(青)、P2(青)、P3(赤)、P4(赤)、P5(赤)、P6(赤)、P7(緑)、P8(緑)から成り、選択された第1シード画素がP1であれば、選択される第1シード画素はP1、P3、P7およびP8となる。境界画素と、近くの隣接シード画素との色の一致が実現しても、ABIの計算の精度は増さず、したがって第1シード画素選択という結果になる必要がないため、この実施形態は、第1シード画素を選択するのに効率的である。
上で図5に関連して論じたように、一実施形態において色マッチング基準は、第1画素および第2画素は、それぞれの色強度が「色クラス」として規定されている同じ範囲の色強度に入れば色が一致しているというものである。
図13は、新たなシード画素を生成するために、複数の第1シード画素57の隣接画素にて、第1シード画素57を非収縮画素55の外で反復して拡張する、図3のステップ32の結果を示している。この隣接画素の色強度は、規定の色マッチング基準によると、第1シード画素の色強度と一致する。第1シード画素と色が一致する隣接画素それぞれが新たなシード画素となり、その後にその隣接画素との色照合が、規定の色マッチング基準に従って行われる。このプロセスは追加の新たなシード画素が生成できなくなるまで継続し、反復して新たなシード画素が生成されて、拡張領域58がもたらされる。この拡張領域58に関連する拡張面積ABIは、図3のステップ33において、個々の新たなシード画素の面積を足すことによって計算される。各画素の面積が1であれば、図7の拡張領域58については、ABI=260である。
図4〜8が現在のフレームを表し、図9〜13が背景画像を表すと仮定して、図4〜13に図示された前述の例は、ACF=80およびABI=260という結果になった。ABI−ACF=160であるため(さらに、合理的にδAth<160と仮定して)、A/Rアルゴリズムは、静止対象が放置対象であると決定した。
あるいは、図4〜8が背景画像を表し、図9〜13が現在のフレームを表す場合、図4〜13の同様の分析は、ABI=80およびACF=260を生じることとなり、静止対象は除去済み対象であるという結論につながる。
本発明のA/Rアルゴリズムは、実時間の高性能ビデオ監視システムにおいて使用された。種々の環境において、放置/除去済み対象を検出するためのA/Rアルゴリズムの有効性を明示する例および結果を、次に示す。
A/Rアルゴリズムは、公共空間において放置対象検出アルゴリズムをテストするために設計されたPets2006データセット(PETS 2006 Benchmark Data、http://www.cvg.rdg.ac.uk/PETS2006/data.htmlを参照のこと)と共に使用された。テスト用シーケンスのグラウンド・トルース(ground truth)は、イベントに関与する人物と、手荷物との数を含み、さらに手荷物と人との空間的関係も含む(手荷物に付き添いがいるか否かを確認するために)。持続的な前景対象は、対象に人が付き添っているか否かを考慮せずに放置アイテムに分類される。
Petsデータセットは、場面の複雑性が高まっていく、放置された手荷物シナリオを含むマルチセンサ・シーケンスから成る。4台のカメラによって異なる地点からとらえられる、7つの異なるシナリオがある。A/Rアルゴリズムは単一のカメラに基づき使用され、各シナリオでカメラ・ビューのうち1つだけが使用され、合計7つの試験用シーケンスとなる。ビデオ内で対象がより大きく見えるところのカメラが選ばれた。画像領域全体が放置対象の検出に使用される。表1は、7つのシーケンスについて得られた結果を示す。シナリオは比較的簡素であり、閉鎖および群集は多くない。A/Rアルゴリズムは放置アイテムをすべて検出し、誤認警報はゼロであった。シーケンスS3では、静止した人物が放置アイテムとして検出されている。静止した人物は、人物分類器(person classifier)を組み込むことで除去することができた。
Figure 2009230759
i−LIDSビデオ・ライブラリは、ビデオ検出システムの開発および選択を促進するためのベンチマークを提供する(LIDS Dataset for AVSS 2007、ftp://motinas.elec.qmul.ac.uk/pub/iLidsを参照のこと)。本発明の方法およびシステムの評価は、放置された携行品および駐車車両という2つのシナリオに基づく。放置された携行品シナリオは、地下鉄の駅のプラットフォーム上の付き添いのいないバッグの警報イベントを含む。駐車車両シナリオは、都会の設定で駐車されている不審車両の警報イベントを含む。表2および表3は、検出結果の詳細を示す。イベント検出に小さな領域だけが選択された先の作業と異なり、全部のカメラ・ビューが放置イベントを検出するために使用された。どちらのシナリオでも、放置イベント(携行品および駐車車両)はすべて低い偽陽性(false positive)で検出された。人物分類器が組み込まれて使用されていなかったため、静止した数人の人物が放置アイテムとして検出された。なお、非常に小さな、水を入れる静止した瓶が検出されている。
Figure 2009230759
Figure 2009230759
PetsおよびiLidsデータセットはどちらも放置対象検出用であるため、種々の大きさおよび種類の除去済み対象(瓶入りの水、書物、ラップトップ型コンピュータ、車など)を伴う、種々の状況(小売店、駐車場、研究室、会議室など)における除去済み対象イベントを含むデータセットが改めて集められた。表4に検出結果を示す。合計12の除去済み対象に対し、11の対象が検出された。1つの対象は、その領域の画素が無作為に背景モデルに更新され、従って対象が除去された後の領域が静止領域として検出されないため欠けている。除去済み対象は、駐車していた車およびラップトップ型コンピュータを含む。
Figure 2009230759
図14は、本発明の実施形態に従った、ビデオ・フレームの時間順シーケンスを処理するために使用されるコンピュータ・システム90を示している。コンピュータ・システム90は、プロセッサ91と、プロセッサ91に接続された入力デバイス92と、プロセッサ91に接続された出力デバイス93と、プロセッサ91にそれぞれ接続されているメモリ・デバイス94および95を含む。入力デバイス92は、特に、キーボード、マウスなどであればよい。出力デバイス93は、特に、プリンタ、プロッタ、コンピュータのディスプレイまたはスクリーン、磁気テープ、リムーバブル・ハード・ディスク、フレキシブル・ディスクなどであればよい。メモリ・デバイス94および95は、特に、ハード・ディスク、フレキシブル・ディスク、磁気テープ、コンパクト・ディスク(CD:compact disc)またはデジタル・ビデオ・ディスク(DVD:digital video disc)などの光学式記憶装置、ダイナミック・ランダム・アクセス・メモリ(DRAM:dynamic random access memory)、読出し専用メモリ(ROM:read‐only memory)など、データ記憶媒体であればよい。メモリ・デバイス95は、プログラム・コード(すなわち、コンピュータ実行可能命令)を含むコンピュータ・プログラムであるコンピュータ・コード97を含む。コンピュータ・コード97は、ビデオ・フレームの時間順シーケンスを処理するためのアルゴリズムを含む。プロセッサ91はコンピュータ・コード97を実行する。メモリ・デバイス94は入力データ96を含む。入力データ96は、コンピュータ・コード97により必要とされる入力を含む。出力デバイス93はコンピュータ・コード97からの出力を表示する。メモリ・デバイス94および95のいずれか、または両方(または図14に示されていない1つ以上の追加のメモリ・デバイス)が、コンピュータ使用可能記憶媒体(またはプログラム記憶デバイス)として使用されてもよい。このコンピュータ使用可能記憶媒体には、コンピュータ可読プログラムが具現化されているか、またはその他のデータが格納されているか、あるいはその両方であり、このコンピュータ可読プログラムはコンピュータ・コード97を含む。一般に、コンピュータ・システム90のコンピュータ・プログラムは、前述の、コンピュータ使用可能記憶媒体(または前述のプログラム記憶デバイス)に格納される。
したがって、本発明は、コンピュータ・インフラストラクチャのサポート、コンピュータ・システム90の統合、ホスティング、維持、およびコンピュータ可読プログラム・コードのコンピュータ・システム90への展開のためのプロセスを開示している。コードは、コンピュータ・システム90と共同して、ビデオ・フレームの時間順シーケンスを処理する方法を行うことができる。
本発明の構成要素はいずれも、ビデオ・フレームの時間順シーケンスの処理を容易にすることを提案するサービス・プロバイダによって、作成、統合、ホスト、維持、展開、管理、サービス提供、サポートなどを行われ得る。このように、本発明は、コンピュータ・インフラストラクチャの展開または統合のためのプロセスを開示しており、これは、コンピュータ可読コードを、コンピュータ・システム90に統合することを含み、このコードは、コンピュータ・システム90と共同して、ビデオ・フレームの時間順シーケンスを処理する方法を行うことができる。
別の実施形態では、本発明は、加入、宣伝または手数料ベース、あるいはそのすべてで本発明のプロセス・ステップを行うビジネス方法を提供する。すなわち、ソリューション・インテグレータなどのサービス・プロバイダは、ビデオ・フレームの時間順シーケンスの処理を容易にすることを提案することができるであろう。この場合、サービス・プロバイダは、1件以上の顧客に対して、本発明のプロセス・ステップを実行するコンピュータ・インフラストラクチャの作成、統合、ホスト、維持、展開、管理、サービス提供、サポートなどをすることができる。見返りとして、サービス・プロバイダは、加入もしくは手数料契約あるいはその両方に基づき、顧客(単数または複数)から報酬を受け取ること、または、1件以上のサード・パーティに対する宣伝コンテンツの販売の報酬を受け取ること、あるいはその両方を行うことができる。
図14は、ハードウェアおよびソフトウェアの詳細な構成としてコンピュータ・システム90を示しているが、当業者には既知であると思われるハードウェアおよびソフトウェアの任意の構成が、図14の特定のコンピュータ・システム90に関連して上に記載された目的のために利用されてよい。例えば、メモリ・デバイス94および95は、別々のメモリ・デバイスではなく単一のメモリ・デバイスの複数部分であってもよい。
本願明細書には、本発明の特定の実施形態が、説明を目的として記載されたが、当業者には多数の修正および変更が明らかであろう。したがって、添付の特許請求の範囲は、本発明の真の意図および範囲に入るそのような修正および変更すべてを包含するものとする。
本発明の実施形態に従った、ビデオ・ストリームのビデオ・フレームの時間順シーケンスを処理する方法を示す流れ図であり、静止対象の放置/除去済み状態を決定するために、放置/除去済み対象検出アルゴリズム(A/Rアルゴリズム)を実行することが含まれる。 本発明の実施形態に従った、図1のA/Rアルゴリズムの実装を描いた流れ図であり、現在のフレームと、ビデオ・ストリームの背景画像との両方に対して領域拡張手順を行うことが含まれる。 本発明の実施形態に従った、図2の領域拡張手順の実施を描いた流れ図である。 本発明の実施形態に従った、図3の領域拡張手順の第1入力フレームへの適用を示している。 本発明の実施形態に従った、図3の領域拡張手順の第1入力フレームへの適用を示している。 本発明の実施形態に従った、図3の領域拡張手順の第1入力フレームへの適用を示している。 本発明の実施形態に従った、図3の領域拡張手順の第1入力フレームへの適用を示している。 本発明の実施形態に従った、図3の領域拡張手順の第1入力フレームへの適用を示している。 本発明の実施形態に従った、図3の領域拡張手順の第2入力フレームへの適用を示している。 本発明の実施形態に従った、図3の領域拡張手順の第2入力フレームへの適用を示している。 本発明の実施形態に従った、図3の領域拡張手順の第2入力フレームへの適用を示している。 本発明の実施形態に従った、図3の領域拡張手順の第2入力フレームへの適用を示している。 本発明の実施形態に従った、図3の領域拡張手順の第2入力フレームへの適用を示している。 本発明の実施形態に従った、ビデオ・フレームの時間順シーケンスを処理するために使用されるコンピュータ・システムを示している。

Claims (12)

  1. ビデオ・フレームの時間順シーケンスを処理する方法であって、各フレームは、2次元の画素配列と、各画素における、フレーム依存の色強度とを含み、前記方法は、
    現在のフレームと、前記シーケンス内で前記現在のフレームより前に生じている少なくとも1つのフレームとを分析するステップであって、前記分析するステップは、背景画像と、静止領域に関連する静止領域マスクとを決定するために、前記少なくとも1つのフレームに対して背景除去を行うステップであって、前記背景画像は、前記画素配列と、前記少なくとも1つのフレームの背景モデルとを含み、いかなる移動対象も含まず、前記静止領域は、前記画素配列のうちの複数画素の連続的な分布から成る、ステップと、静止対象の存在を決定するステップであって、前記静止対象は、前記現在のフレームの前記静止領域内に存在し前記背景画像の前記静止領域内には存在しない放置対象から成るか、または前記背景画像の前記静止領域内に存在し前記現在のフレームの前記静止領域内には存在しない除去済み対象から成る、ステップとを含む、前記分析するステップと、
    前記分析するステップの後に、前記静止対象の状態を決定するステップであって、前記状態は、前記静止対象が前記放置対象であれば放置状態であり、または前記静止対象が前記除去済み対象であれば除去済み状態であり、前記状態を決定するステップは、A/Rアルゴリズムを実行するステップを含み、前記A/Rアルゴリズムは、前記現在のフレーム、前記背景画像、および前記静止領域マスクを入力として使用し、前記背景除去から得られる他のいかなる情報も入力として使用しない、前記決定するステップと、
    前記決定された状態を、コンピュータ・システムのデータ記憶媒体に格納するステップと
    を含む、方法。
  2. 前記A/Rアルゴリズムを前記実行するステップは、
    前記静止領域マスクの複数の外側画素を収縮するステップであって、前記収縮は、複数の収縮画素をもたらし、かつ前記静止領域マスクの残りの非収縮画素を複数残し、前記非収縮画素の境界画素が、少なくとも1つの収縮画素に直接接する非収縮画素すべてから成り、前記非収縮画素と、前記収縮画素との間の境界面から成る輪郭によって境界を付けられる、前記収縮するステップと、
    前記現在のフレームに対して領域拡張手順を実行するステップであって、前記領域拡張手順は、使用される入力フレームが前記現在のフレームであると示すステップと、その後に、出力拡張面積として拡張面積ACFを受け取るステップとを含む、前記ステップと、
    前記背景画像に対して前記領域拡張手順を実行するステップであって、前記領域拡張手順は、使用される前記入力フレームが前記背景画像であると示すステップと、その後に、前記出力拡張面積として拡張面積ABIを受け取るステップとを含む、前記ステップと、
    前記静止対象の前記状態を、ABI−ACFに基づいて決定するステップと
    を含み、前記領域拡張手順の前記実行するステップは、
    前記入力フレームに重ねられた前記境界画素から複数の第1シード画素を選択するステップ、または別の入力フレームに対する前記領域拡張手順の前の実行において選択された複数の第1シード画素から成るように複数の第1シード画素を選択するステップと、
    前記選択された第1シード画素を前記非収縮画素の外に反復して拡張して、前記選択された第1シード画素の複数の隣接画素にて、新たな複数のシード画素を生成するステップであって、前記隣接画素の色強度は、規定の色マッチング基準に従って、隣接する前記第1シード画素の前記色強度と一致し、前記反復して拡張するステップは、新たなシード画素の一連の生成において、追加の新たなシード画素を生成できなくなるまで前記隣接画素にて新たなシード画素を生成する、前記ステップと、
    前記新たなシード画素の複合面積として、前記出力拡張面積を決定するステップと
    を含む、請求項1に記載の方法。
  3. 前記選択するステップは、
    前記現在のフレームに対して前記領域拡張手順を前記実行している間に、前記第1シード画素を、前記現在のフレーム上に重ねられた前記境界画素から、
    前記背景画像に対して前記領域拡張手順を前記実行している間に、前記第1シード画素を、前記背景画像上に重ねられた前記境界画素から
    独立して選択するステップを含む、請求項2に記載の方法。
  4. 前記現在のフレームに対して前記領域拡張手順を前記実行している間に前記選択するステップは、前記現在のフレーム上に重ねられた前記境界画素から前記第1シード画素を選択する第1選択ステップを含み、前記背景画像に対して前記領域拡張手順を前記実行している間に前記選択するステップは、前記第1選択ステップの間に前記現在のフレームに関して選択された前記第1シード画素から成るように前記背景画像に関して前記第1シード画素を選択する第2選択ステップを含むか、または、
    前記背景画像に対して前記領域拡張手順を前記実行している間に前記選択するステップは、前記背景画像上に重ねられた前記境界画素から前記第1シード画素を選択する第3選択ステップを含み、前記現在のフレームに対して前記領域拡張手順を前記実行している間に前記選択するステップは、前記第3選択ステップの間に前記背景画像に関して選択された前記第1シード画素から成るように前記現在のフレームに関して前記第1シード画素を選択する第4選択ステップを含む、
    請求項2に記載の方法。
  5. 前記状態を前記決定するステップは、
    BI−ACF>δAthの場合、前記状態が前記放置状態であると決定するステップであって、δAthは、δAth≧0を条件とする規定の面積差閾値である、前記ステップ、または、
    CF−ABI>δAthの場合、前記状態が前記除去済み状態であると決定するステップ、のうちいずれかを含む、請求項2に記載の方法。
  6. 前記収縮ステップは、収縮されるべきいくつかの画素層として表される画素収縮深度まで、前記静止領域の前記外側画素を、外周に沿って収縮するステップを含む、請求項2に記載の方法。
  7. 第1シード画素の前記選択するステップにおいて、前記第1シード画素の総数が前記境界画素の総数よりも少ない、請求項2に記載の方法。
  8. 第1シード画素の前記選択するステップにおいて、前記第1シード画素が、前記境界画素内にほぼ均一に分布する、請求項7に記載の方法。
  9. 第1シード画素の前記選択するステップにおいて、前記第1シード画素が、前記境界画素内に不均一に分布する、請求項7に記載の方法。
  10. 第1シード画素の前記選択するステップにおいて、選択された第1シード画素それぞれと、その隣接画素である少なくとも1つの境界画素との色が一致しない、請求項2に記載の方法。
  11. 請求項1乃至10のいずれかに記載の方法ステップをコンピュータに実行させるためのコンピュータ・プログラム。
  12. プロセッサと、前記プロセッサに結合する記憶デバイスとを含むコンピュータ・システムであって、前記記憶デバイスは、請求項1乃至10のいずれかに記載の方法ステップをコンピュータに実行させるためのコンピュータ・プログラムを含む、コンピュータ・システム。
JP2009064765A 2008-03-24 2009-03-17 ビデオ・ストリーム内での放置対象および除去済み対象の検出方法およびコンピュータ・プログラム、コンピュータ・システム Expired - Fee Related JP5159677B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/053,827 US8107678B2 (en) 2008-03-24 2008-03-24 Detection of abandoned and removed objects in a video stream
US12/053827 2008-03-24

Publications (2)

Publication Number Publication Date
JP2009230759A true JP2009230759A (ja) 2009-10-08
JP5159677B2 JP5159677B2 (ja) 2013-03-06

Family

ID=41088995

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009064765A Expired - Fee Related JP5159677B2 (ja) 2008-03-24 2009-03-17 ビデオ・ストリーム内での放置対象および除去済み対象の検出方法およびコンピュータ・プログラム、コンピュータ・システム

Country Status (2)

Country Link
US (1) US8107678B2 (ja)
JP (1) JP5159677B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017033559A (ja) * 2015-07-31 2017-02-09 富士通株式会社 放置物の検出装置、方法及びシステム
US10262421B2 (en) 2014-08-04 2019-04-16 Nec Corporation Image processing system for detecting stationary state of moving object from image, image processing method, and recording medium

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8284249B2 (en) 2008-03-25 2012-10-09 International Business Machines Corporation Real time processing of video frames for triggering an alert
AU2008264228B2 (en) * 2008-11-24 2010-11-25 Canon Kabushiki Kaisha Detection of abandoned and vanished objects
JP5305520B2 (ja) * 2009-05-19 2013-10-02 パナソニック株式会社 監視カメラシステム
US8483481B2 (en) 2010-07-27 2013-07-09 International Business Machines Corporation Foreground analysis based on tracking information
US8744123B2 (en) 2011-08-29 2014-06-03 International Business Machines Corporation Modeling of temporarily static objects in surveillance video data
US8675917B2 (en) 2011-10-31 2014-03-18 International Business Machines Corporation Abandoned object recognition using pedestrian detection
US9471988B2 (en) 2011-11-02 2016-10-18 Google Inc. Depth-map generation for an input image using an example approximate depth-map associated with an example similar image
US9661307B1 (en) * 2011-11-15 2017-05-23 Google Inc. Depth map generation using motion cues for conversion of monoscopic visual content to stereoscopic 3D
US20130201328A1 (en) * 2012-02-08 2013-08-08 Hing Ping Michael CHUNG Multimedia processing as a service
US9111350B1 (en) 2012-02-10 2015-08-18 Google Inc. Conversion of monoscopic visual content to stereoscopic 3D
JP6183038B2 (ja) * 2012-11-15 2017-08-23 株式会社リコー 領域抽出装置、領域抽出方法およびプログラム
US9237316B2 (en) 2013-03-04 2016-01-12 Sensormatic Electronics, LLC Method and system to characterize video background changes as abandoned or removed objects
US9674498B1 (en) 2013-03-15 2017-06-06 Google Inc. Detecting suitability for converting monoscopic visual content to stereoscopic 3D
US9497427B2 (en) * 2013-07-15 2016-11-15 Semiconductor Components Industries, Llc Method and apparatus for image flare mitigation
WO2016017695A1 (ja) * 2014-07-30 2016-02-04 オリンパス株式会社 画像処理装置
US9754178B2 (en) 2014-08-27 2017-09-05 International Business Machines Corporation Long-term static object detection
CN104504730B (zh) * 2014-12-19 2017-07-11 长安大学 一种对停放车辆及抛落物的区分方法
US10121515B2 (en) 2016-06-06 2018-11-06 Avigilon Corporation Method, system and computer program product for interactively identifying same individuals or objects present in video recordings
US10503997B2 (en) 2016-06-22 2019-12-10 Abbyy Production Llc Method and subsystem for identifying document subimages within digital images
US10366469B2 (en) 2016-06-28 2019-07-30 Abbyy Production Llc Method and system that efficiently prepares text images for optical-character recognition
RU2628266C1 (ru) 2016-07-15 2017-08-15 Общество с ограниченной ответственностью "Аби Девелопмент" Способ и система подготовки содержащих текст изображений к оптическому распознаванию символов
US10296601B2 (en) 2017-02-17 2019-05-21 International Business Machines Corporation Identifying abandoned objects
CN107918762B (zh) * 2017-10-24 2022-01-14 江西省高速公路投资集团有限责任公司 一种公路遗撒物快速检测系统及方法
RU2680765C1 (ru) 2017-12-22 2019-02-26 Общество с ограниченной ответственностью "Аби Продакшн" Автоматизированное определение и обрезка неоднозначного контура документа на изображении
US11164007B2 (en) * 2019-07-23 2021-11-02 Conduent Business Services, Llc Method and system for detecting the owner of an abandoned object from a surveillance video
US11216666B2 (en) * 2019-12-11 2022-01-04 Fujifilm Business Innovation Corp. Understanding normality of an environment using semantic information from images
US11443143B2 (en) 2020-07-16 2022-09-13 International Business Machines Corporation Unattended object detection using machine learning
CN112669294B (zh) * 2020-12-30 2024-04-02 深圳云天励飞技术股份有限公司 相机遮挡检测方法、装置、电子设备及存储介质
CN113657218A (zh) * 2021-08-02 2021-11-16 上海影谱科技有限公司 一种能够减少冗余数据的视频对象检测方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01245395A (ja) * 1988-03-28 1989-09-29 Toshiba Corp 画像監視システム
JP2006514363A (ja) * 2003-01-30 2006-04-27 オブジェクトビデオ インコーポレイテッド 変化検出および分類を用いた映像シーン背景の維持

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050271280A1 (en) * 2003-07-23 2005-12-08 Farmer Michael E System or method for classifying images
AUPR899401A0 (en) * 2001-11-21 2001-12-13 Cea Technologies Pty Limited Method and apparatus for non-motion detection
US7024054B2 (en) * 2002-09-27 2006-04-04 Eastman Kodak Company Method and system for generating a foreground mask for a composite image
US7620266B2 (en) * 2005-01-20 2009-11-17 International Business Machines Corporation Robust and efficient foreground analysis for real-time video surveillance
US7653242B2 (en) * 2005-11-15 2010-01-26 Honeywell International Inc. Dynamically adjusting and predicting image segmentation threshold
US7865015B2 (en) * 2006-02-22 2011-01-04 Huper Laboratories Co. Ltd. Method for video object segmentation

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01245395A (ja) * 1988-03-28 1989-09-29 Toshiba Corp 画像監視システム
JP2006514363A (ja) * 2003-01-30 2006-04-27 オブジェクトビデオ インコーポレイテッド 変化検出および分類を用いた映像シーン背景の維持

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10262421B2 (en) 2014-08-04 2019-04-16 Nec Corporation Image processing system for detecting stationary state of moving object from image, image processing method, and recording medium
US10776931B2 (en) 2014-08-04 2020-09-15 Nec Corporation Image processing system for detecting stationary state of moving object from image, image processing method, and recording medium
JP2017033559A (ja) * 2015-07-31 2017-02-09 富士通株式会社 放置物の検出装置、方法及びシステム

Also Published As

Publication number Publication date
US8107678B2 (en) 2012-01-31
JP5159677B2 (ja) 2013-03-06
US20090238462A1 (en) 2009-09-24

Similar Documents

Publication Publication Date Title
JP5159677B2 (ja) ビデオ・ストリーム内での放置対象および除去済み対象の検出方法およびコンピュータ・プログラム、コンピュータ・システム
JP5274318B2 (ja) 警告をトリガするためのビデオ・フレームの実時間処理方法、コンピュータ・プログラム、およびコンピュータ・システム
JP4489120B2 (ja) デジタル映像のアーティファクト削減
US10235599B2 (en) Method and system to characterize video background changes as abandoned or removed objects
JP4545195B2 (ja) デジタル映像のアーティファクト削減
JP4811653B2 (ja) 物体検出装置
EP3543954B1 (en) Method of processing a video
Angelo A novel approach on object detection and tracking using adaptive background subtraction method
KR101841966B1 (ko) 영상에서 이동 객체 그림자 제거 방법 및 장치
JP5142416B2 (ja) 物体検出装置
JP4780564B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
KR101288248B1 (ko) 프라이버시 마스킹용 휴먼 추적 시스템 및 방법
Nemade et al. A survey of video datasets for crowd density estimation
Kandavalli et al. Design and implementation of colour texture‐based multiple object detection using morphological gradient approach
AU2021102668A4 (en) Crowd Detection Intelligent Camera to Prevent Covid-19 or any Other Need
Shukla et al. An Algorithmic Approach for Real Time People Counting with Moving Background
Hardas et al. Moving Object Detection for Video Surveillance using Different Color Spaces
Teixeira et al. Cascaded change detection for foreground segmentation
Adhvaryu et al. Real Time Unusual Event Detection in Video Sequences
Dimou et al. GIS-supported people tracking re-acquisition in a multi-camera environment
Kaur et al. A review on development of object detection system for distortion images
Real et al. Cascaded change detection for foreground segmentation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121211

R150 Certificate of patent or registration of utility model

Ref document number: 5159677

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151221

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees