JP2005513656A - 体積成長および変化検出マスクを使用してビデオ内の移動オブジェクトを識別するための方法 - Google Patents

体積成長および変化検出マスクを使用してビデオ内の移動オブジェクトを識別するための方法 Download PDF

Info

Publication number
JP2005513656A
JP2005513656A JP2003555443A JP2003555443A JP2005513656A JP 2005513656 A JP2005513656 A JP 2005513656A JP 2003555443 A JP2003555443 A JP 2003555443A JP 2003555443 A JP2003555443 A JP 2003555443A JP 2005513656 A JP2005513656 A JP 2005513656A
Authority
JP
Japan
Prior art keywords
video
volume
pixel
change detection
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003555443A
Other languages
English (en)
Inventor
ポリクリ、ファティー、エム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JP2005513656A publication Critical patent/JP2005513656A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images

Abstract

【課題】ビデオ内の移動オブジェクトを自動的に識別するための方法を得る。
【解決手段】体積成長と変化検出とを組み合わせる。入力ビデオ101をフィルターしてノイズを除去した後、空間時間データ構造がビデオフレームから形成され、マーカーが選択される。それらのマーカーから、色類似性に基づく重心接続法を使用して、ボリューム251を成長させる。そして、局所的色特徴を使用して、ビデオ内の隣接フレームから変化検出マスクを抽出する。それらの変化検出マスクを各ボリュームと交差させ、そのボリューム内に存在するマスク341の部分内の変化したピクセルの個数のみを求める。交差部内の変化したピクセルの個数が閾値を超える場合には、そのボリュームが移動オブジェクト421として識別される。

Description

この発明は、一般的にビデオの処理に関し、特にビデオ内の移動オブジェクトを識別に関する。
最近のMPEG-4およびMPEG-7の標準化作業により示されるように、多くのビデオ(映像)は、オブジェクト(物体)を見つけ出し、イベントを決定し、アプリケーションに応じた視覚的評価を数量化する処理を必要とし、またビデオシーケンスの特徴を分析する処理を必要とする(たとえば、非特許文献1参照)。コンテンツに基づくビデオの表現は、画像またはビデオシーケンスの特定のオブジェクトへの分解、すなわち、動いている人間を静止している背景から分離することを必要とする。
多くのテレビ放送は、人が比較的静的な背景の前で話しているシーン、すなわち、ニュース番組、パネルショウ、バイオグラフィーズ(列伝)、連続ドラマなどを含む。
また、テレビ会議のアプリケーションは、ビジュアルコミュニケーション(視覚的通信)を達成するために、ヘッド・アンド・ショルダータイプ(首および肩型)のシーンを広く使用する。モバイル(携帯)ビデオカメラの増大する利用可能性は、ピアツーピアの、帯域幅を規制されたフェイシャルコミュニケーション(顔通信)を将来広めるであろう。このようにして、ヘッド・アンド・ショルダータイプの、また「語り手(トーキングヘッド)」としても知られる、ビデオシーケンスの正確なオブジェクトセグメント化(オブジェクトの区分化)は、ビデオ処理の重要な側面である。
しかしながら、ヘッド・アンド・ショルダータイプのシーケンスの自動的なセグメント化は困難である。パラメーターに基づく方法は、通常ディスクに座っている語り手が最小限の動作(モーション)しか表さないので、そのようなシーケンス型のオブジェクトの動作を正確に推測することができない。さらに、動作に基づくセグメント化の方法は演算的には高価であり、且つ信頼できない。領域に基づく方法はセグメント化し過ぎることなどの不利があり、対象領域を決定できないことがある。フレームの相違に基づく方法はオブジェクトの形状を正確に決定できないという欠陥がある。
オブジェクトセグメント化の他の方法は、ビデオの最小の色整合(不変の)成分を得るために体積成長(ボリュームグローイング)を利用する(たとえば、非特許文献2、または、特許文献1参照)。
まず、高速のメディアンフィルターが、局所的な色ムラを取り除くために、ビデオに適用される(たとえば、非特許文献3参照)。
そして、空間時間データ構造が、画像フレームおよびそれらの特徴をインデックス化することによって、入力ビデオシーケンスから形成される。
オブジェクト情報が、連続的なビデオフレームを3次元データ構造の面として取り扱うことによって、時間的に前方および後方へ伝搬される。ビデオシーケンスがフィルターされた後、マーカーポイントが色階調度(色勾配)によって選択される。各マーカーの周りのボリューム(体積)が色距離を使って成長される。
ビデオボリューム(映像体積)の問題点は、移動オブジェクト(物体)が静止オブジェクト(物体)から識別できないことである。たとえば、体積成長では、明確な色の空白の壁がボリューム(体積)を形成する。
変化検出マスク(CDM)は、ビデオのシーケンスにおいて、以前のフレームおよび現在のフレームからなる一対のフレーム間において変化するピクセルのマップである。CDMは、所与のセット(組)のルールに対して2つのフレームの色の不同性(相違)として定義される。
静止したカメラ、一致する(不変の)オブジェクトおよび一定の照明条件について考えると、一対の隣接するフレームのピクセル毎の色の相違は、そのシーンにおける移動オブジェクトの表示である。しかしながら、移動オブジェクトでも、全ての色変化が生じるわけではない。
カメラの動き、ビデオフレームを横切る非均一な照明による強度変化および影並びに画像ノイズも、また、フレームの相違に寄与する。
演算の簡単さにより、CDMは、リアルタイムアプリケーションに対して現実的である(たとえば、非特許文献4参照)。
しかしながら、移動オブジェクトを決定するのにCDMのみを使用することは、セグメント化のパフォーマンスを悪化させる。
したがって、特に、たとえば話し手のように、オブジェクトが背景に対して非常に僅かにしか動かないような場合においても、ビデオ内の如何なる数の移動オブジェクトをも正確に識別するための改良された、完全に自動的な方法が必要とされている。この方法は、時間の経過に応じてビデオ内の動きと色の特徴との両方を一体化させなければならない。
セグメント化は、合理的な時間内に行わなければならないし、且つ最初のユーザのセグメント化や、均質な動きを拘束することに依存するべきではない。
米国特許第09/826,333号明細書「“Method for Segmenting Multi-Resolution Video Objects,” filed by Porikli et al. on April 4, 2001」 R. Castagno, T. EbrahimiおよびM. Kuntによる「"Video segmentation based on multiple features for interactive multimedia applications," IEEE Trans. on Circuits and Systems for Video Technology, Vol.8, No.5, pp. 562-571, September,1998」 F. PorikliおよびY. Wang, 「"An unsupervised multi-resolution object extraction algorithm using video-cube," Proceedings of Int. Conf. Image Process, Thesselaniki, 2001」 M. Kopp および W. Purgathofer, 「"Efficient 3x3 median filter computations," Technical University, Vienna, 1994」 C.S.Regazzoni, G.FabriおよびG.Vernazza, 「"Advanced video-based surveillance system", Kluwer Academic Pub., 1999」
従来のビデオ内の移動オブジェクトを識別するための方法において、ビデオボリューム(映像体積)は、移動オブジェクト(物体)が静止オブジェクト(物体)から識別できないという課題があった。
また、移動オブジェクトを決定するのにCDMのみを使用することは、セグメント化のパフォーマンスを悪化させ、自動的な方法を実現することができないという課題があった。
この発明は、自動的にビデオ内の移動オブジェクトを識別するための方法を得ることを目的とする。
この発明によるビデオ内の移動オブジェクトを識別するための方法は、体積成長(ボリューム・グローイング)と変化検出とを組み合わせたものである。まず、入力ビデオをフィルターしてノイズを除去した後、空間時間データ構造がビデオフレームから形成され、マーカーが選択される。これらのマーカーから、色類似性に基づいた重心接続方法(セントロイド・リンキッジ・メソッド)を使用して、ボリューム(体積)が成長される。そして、局所的な色特徴を使用して、変化検出マスクがビデオ内の隣接フレームから抽出される。変化検出マスクを各ボリュームに交差させて、そのボリューム内にあるマスクの部分において変化したピクセルの個数を求める。もし、交差部の、変化したピクセルの個数が閾値を超えれば、そのボリュームは移動オブジェクトとして識別される。
この発明は、特に移動オブジェクト(物体)が、たとえばヘッド・アンド・ショルダータイプのビデオシーケンスのように、それに関連して非常に小さな動きしかしない場合でも、ビデオ内の移動オブジェクトを正確に識別することができる。
また、この発明によれば、時間の経過にともなう動き(モーション)および色の特徴の両方を使用する。このような識別は、合理的な時間内に行われ、且つ最初のユーザによるセグメント化や均質な動きの規制には依存せず、識別された移動オブジェクトを簡単にセグメント化することができる。
さらに、この発明は、背景の登録を必要とせず、スネイクモデルや境界補正方法を使用せずに、物体の境界を正確に抽出することができる。また、移動する、滑らかにテクスチャー化されたオブジェクトをセグメント化することができる。
実施の形態1.
この発明は、空間時間体積成長(スペイショオテンパラレル・ボリューム・グローイング)および変化検出マスクを用いてビデオ101内の移動オブジェクトを識別する。
この発明は、ビデオ(映像)において「話し手(トーキングヘッド)」などの動きの少ないオブジェクト(物体)を識別するのに特に有用である。
図1に示されるように、第1のステップは、ビデオ101のフレームから時間空間データ構造を構成することにより、ビデオ101からボリューム(体積)241をセグメント(区分)化200する。
マーカーmi がそのデータ構造から選択される。それらのマーカーはボリュームVi 241を成長させるための開始点である。
第2のステップは、入力ビデオ101から変化検出マスク341を抽出300する。それらのマスクは、隣接する1対のフレーム内の対応するピクセルの色特徴における変化を判定することによって抽出される。
第3のステップは、抽出されたマスク341がボリューム241に適用されて、ビデオ101内の移動オブジェクト421を識別400する。
ボリュームのセグメント化
空間時間データ構造Sの構築
図2は図1のセグメント化ステップ200の詳細を示す。
まず、任意の予備処理ステップにおいて、高速メディアンフィルター210がビデオ101に適用されて局所的な不規則性(ムラ)を取り除く。
次のステップは、入力ビデオ101のフレームのピクセルから空間時間データ構造S 221を構築220する。そのデータ構造S(x, y, t) の各要素(エレメント)は、1つの位置(x,y,t) の1つのピクセルの色値および変化検出スコア(値)を含むベクトルw(x,y,t) である。ここで、(x,y) は、入力ビデオ101の特定のフレームt におけるピクセルの座標である。
マーカーの選択
最小の色階調度を有するベクトルがマーカー231として選択230される。マーカー231は、リファイン(精製)されていないボリューム241を成長させるための開始点240である。
1つの好適な実施形態では、YUV色空間が使用される。その理由は、この色空間が人間の視覚にしたがって実行し、色間距離が強度すなわちユークリッド距離ノルム(基準)によって算出され得るからである。如何なる色空間も、色間距離の式が成り立つ限り、使用され得る。
マーカーは、複数のベクトル221の内のいずれが最小の色階調度を有するかを判定することによって選択230される。その理由は、最小の階調度を有するベクトルが、ピクセルの均一にテクスチャー化された局所的近傍を最もよく特徴付けるからである。色階調度
Figure 2005513656
は、次式(1)により決定される。
Figure 2005513656
ここで、
Figure 2005513656
および
Figure 2005513656
は、上記局所的近傍における中央のピクセルから等距離を表す。演算の簡素化のため、輝度成分wyのみが使用される。そして、最小の勾配度を有するベクトルがマーカーmi 231として選択230される。
体積の成長(グローイング・ボリューム)
リファイン(精錬)されていないボリューム241は、マーカー231の周りで成長240される。ボリューム240を成長させるために、重心接続法(セントロイド・リンキィジ・メッソド)が使用される。重心ci は、そのマーカーのベクトルw(mi)である。
アクティブシェルは、現在のボリューム241の全ての外側境界ベクトルp+を含む。隣接するベクトルpがベクトル(x+1,y,t), (x-1,y,t), (x,y+1,t), (x,y-1,t), (x,y,t+1), (x,y,t-1)を含む6-近傍部において、アクティブシェルベクトル(x,y,t)に選定される。
アクティブシェルに隣接するベクトルpは、重心と比較されて、その重心と各隣接ベクトルpとの間の色距離d(ci,p) が求められる。その重心と各隣接ベクトルとの間の色距離が閾値ε以下の場合には、その隣接ベクトルがリファイン(精錬)されていないボリュームに含められ、そして重心ci が更新される。
色距離閾値εを決めるために、入力ビデオ101のピクセルが、支配的(優勢)な色を使用して、色空間におけるベクトルクラスタリングにより量子化される。この量子化により、重心接続法の堅固さが色スペクトルを簡略にすることによって改善される。
ボリューム241が成長されると、そのボリュームのベクトルが、次式(2)によってセットQ から取り除かれる。
Figure 2005513656
ここで、 Q は最初、全てのベクトル221のセットである。
次いで、残りのセットの中で最小の勾配度を有する次のベクトルが、次のマーカーとして選択され、ベクトル221がもはや残らなくなるまで、体積成長プロセスが繰り返される。
ボリュームのマージ(体積の併合)
マージ(併合)250することにより、リファインされていないボリューム241における不規則性(ムラ)を減少させる。最小サイズよりも小さなボリュームを隣接するボリュームとマージ250する。たとえば、0.001 のボリュームV よりも小さなボリュームすなわち全ビデオが、マージされる。
このプロセスを加速するため、マージ250が、最小ボリュームから始めて、最小サイズ要求を満たさない最大ボリュームで終わることにより、階層的に行われる。最小サイズ要求を満たさない最小ボリュームが最も近くのボリュームとマージされる。これが、サイズの増大する順番に全ての小さなボリュームに対して繰り返される。
変化検出マスクの抽出
距離の決定
図3は図1の抽出ステップ300の詳細を示す。このステップは隣接する複数対のフレームから変化検出マスクを抽出する。
まず、現在のフレームt の局所的ウィンドウ内のピクセルp(x,y,t) および隣接フレームt-1 内のピクセルqn(xn,yn,t-1) に対して、距離311が決定310される。
Figure 2005513656
ここで、xni,ynj はウィンドウN1 内の中心ピクセルqn(xn,yn,t)の周りのピクセルの座標であり、k は色成分y,u,vであり、距離 δ(p,q) 311を生成する。他のウィンドウN2 において、点qn(xn,yn,t-1) が選択される。その色成分は、いずれの色空間、たとえば、RGB、HISなどから選択することができる。単一チャンネル入力が使用される場合には、k はその単一チャンネル、すなわちグレイレベル(濃度)を表す。
最小スコア(値)の選択
最小スコア(値)320を選択することにより、動き(モーション)の推定におけるエラーを防止する。他のウィンドN2 における距離δ(p,qn) 311 の最小値は、次式(4)により、各ピクセルp のスコア(値)Δ(p) 321 として割り当てられる。
Figure 2005513656
スコア(値)の平均化
ウィンドN3 におけるスコア330を平均化することにより、変化検出マスク341を生成するための閾値を求めること340のために平均されたスコア331を生成する。
スコアの閾値化
スコア340を閾値かすることにより、バイナリ(2進値)の変化検出マスクcdm(p) 341を生成する。
Figure 2005513656
ここで、μ は閾値である。それは色成分のダイナミックレンジの重み付けされた平均値として割り当てることができる。そのスコアの閾値は、平均スコア331が単一の点に代わって変化した点のクラスタに対応するように、選択される。小さな領域は、このようにしてフィルターされる。
他の変化検出マスク
上記方法の代わりに、他の変化検出マスクを使用することができる。これらのマスクは、フレーム相違オペレータに限られないが、グローバルモーション補償マスク、非バイナリ変化検出マスクを含む。したがって、本開示で説明される方法は全ての変化検出マスク抽出方法をカバーする。簡単な変化検出マスクは次式(6)で表される。
Figure 2005513656
ここで、ピクセルp はフレームt 内のピクセル(x,y) であり、k は色成分を表す。
変化検出マスクのセグメント化されたボリュームへの適用
図4は図1の識別ステップ400の詳細を示す。
ボリュームをセグメント化200し、マスクを抽出300した後、移動オブジェクトが識別400される。各ボリュームに対して、そのボリュームと交差するマスクの部分における変化したピクセルの個数だけをカウント(計数)する。
総計数値を正規化することができ、所定の閾値を超える計数値を有するボリュームが移動物体421として識別される。
この発明は、特に移動オブジェクト(物体)が、たとえばヘッド・アンド・ショルダータイプのビデオシーケンスのように、それに関連して非常に小さな動きしかしない場合でも、ビデオ内の移動オブジェクトを正確に識別することができる。
この発明の方法は、時間の経過にともなう動き(モーション)および色の特徴の両方を使用する。このような識別は、合理的な時間内に行われ、且つ最初のユーザによるセグメント化や均質な動きの規制には依存しない。識別された移動オブジェクトは今簡単にセグメント化することができる。
この発明のさらなる利点は、背景の登録を必要としないことである。
また、この発明は、スネイクモデルや境界補正方法を使用せずに、物体の境界を正確に抽出できる。
この発明の方法は、また、移動する、滑らかにテクスチャー化されたオブジェクトをセグメント化することができる。
この発明について好適な実施の形態を例に挙げて説明したが、種々の他の改変や変更がこの発明の精神および範囲内でなされ得る。したがって、添付の請求の範囲の目的は、この発明の精神および範囲に入るような全ての変更例や変形例をカバーすることにある。
この発明による、ビデオ内の移動オブジェクトを識別する方法のブロック図である。 図1の方法のボリュームをセグメント化するステップを示すブロック図である。 図1の方法の変化検出マスクの抽出ステップを示すブロック図である。 図1の方法の移動オブジェクトの識別ステップを示すブロック図である。
符号の説明
101 ビデオ入力、231 マーカー、251 ボリューム、341 マスク、421 移動オブジェクト。

Claims (8)

  1. ビデオを複数のボリュームにセグメント化し、
    前記ビデオから複数のマスクを抽出し、
    前記複数のマスクを前記複数のボリュームに適用して移動オブジェクトに対応するボリュームを識別する、
    ことを含む、ビデオ内の移動オブジェクトを識別するための方法。
  2. 前記ビデオが複数のフレームを含み、各フレームが複数のピクセルを含む、請求項1の方法であって、
    前記フレームのピクセルから空間時間データ構造を構築し、その際、前記データ構造の各要素は1つのピクセル(x,y,t) の色値を含み、ここで、(x,y) は前記ビデオ内の特定のフレームt 内の前記ピクセルの座標であり、
    最小勾配度を有するベクトルをマーカーとして選択し、
    各マーカーの周りのリファインされていないボリュームを成長させ、
    前記データ構造から前記リファインされていないボリュームを取り除き、
    前記データ構造が空になるまで、前記選択、成長、除去ステップを繰り返す、
    ことをさらに含む方法。
  3. 請求項2の方法であって、
    最も近接する、より大きなボリュームを有する最小サイズの要求を満たさないリファインされていないボリュームをマージする、
    ことをさらに含む方法。
  4. 請求項2の方法であって、色階調度
    Figure 2005513656
    が次式、
    Figure 2005513656
    (ここで、
    Figure 2005513656
    および
    Figure 2005513656
    は、ピクセルの局所的近傍における中心ピクセルから等距離を表す。)
    により決定される方法。
  5. 請求項1の方法であって、
    現在のフレームのウィンドウ内のピクセルと隣接フレームのウィンドウ内のピクセルとの間の距離を求め、
    前記距離のうちの最小距離を隣接フレームのウィンドウ内の各ピクセルのスコアとして選択し、
    前記スコアを平均化し、
    前記スコアを閾値化して前記マスクを生成する、
    ことをさらに含む方法。
  6. 請求項1の方法であって、
    フレームの相違を変化検出マスクとして使用する、
    ことをさらに含む方法。
  7. 請求項1の方法であって、前記複数のマスクを前記複数のボリュームに適用して移動オブジェクトを識別する前記ステップは、
    各ボリュームと交差する前記マスクの部分内の変化したピクセルの個数を計数し、
    所定の閾値を超える計数値を有するボリュームを移動オブジェクトとして選択する、
    ことをさらに含む方法。
  8. 請求項6の方法であって、
    総計数値を正規化する、
    ことをさらに含む方法。
JP2003555443A 2001-12-20 2002-12-18 体積成長および変化検出マスクを使用してビデオ内の移動オブジェクトを識別するための方法 Pending JP2005513656A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/026,984 US6904159B2 (en) 2001-12-20 2001-12-20 Identifying moving objects in a video using volume growing and change detection masks
PCT/JP2002/013249 WO2003054801A1 (en) 2001-12-20 2002-12-18 Identifying moving objects in a video using volume growing and change detection masks

Publications (1)

Publication Number Publication Date
JP2005513656A true JP2005513656A (ja) 2005-05-12

Family

ID=21834966

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003555443A Pending JP2005513656A (ja) 2001-12-20 2002-12-18 体積成長および変化検出マスクを使用してビデオ内の移動オブジェクトを識別するための方法

Country Status (5)

Country Link
US (1) US6904159B2 (ja)
EP (1) EP1444657A1 (ja)
JP (1) JP2005513656A (ja)
CN (1) CN1537299A (ja)
WO (1) WO2003054801A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016208875A1 (ko) * 2015-06-25 2016-12-29 에스케이텔레콤 주식회사 영상의 차이를 이용하여 이동 개체를 검출하는 방법 및 장치

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6711278B1 (en) * 1998-09-10 2004-03-23 Microsoft Corporation Tracking semantic objects in vector image sequences
US7356774B2 (en) * 2002-08-13 2008-04-08 National Instruments Corporation Grouping components of a measurement system
US7203360B2 (en) * 2003-04-09 2007-04-10 Lee Shih-Jong J Learnable object segmentation
US7639839B2 (en) * 2004-03-31 2009-12-29 Fuji Xerox Co., Ltd. Extracting video regions of interest
US7639840B2 (en) * 2004-07-28 2009-12-29 Sarnoff Corporation Method and apparatus for improved video surveillance through classification of detected objects
US7848567B2 (en) 2004-09-23 2010-12-07 Fuji Xerox Co., Ltd. Determining regions of interest in synthetic images
US7526725B2 (en) * 2005-04-08 2009-04-28 Mitsubishi Electric Research Laboratories, Inc. Context aware video conversion method and playback system
US7515745B1 (en) 2005-07-11 2009-04-07 Adobe Systems Incorporated Planar map to process a raster image
US7512265B1 (en) 2005-07-11 2009-03-31 Adobe Systems Incorporated Merge and removal in a planar map of a raster image
US8433457B2 (en) * 2006-01-10 2013-04-30 Harris Corporation Environmental condition detecting system using geospatial images and associated methods
US7630797B2 (en) * 2006-01-10 2009-12-08 Harris Corporation Accuracy enhancing system for geospatial collection value of an image sensor aboard an airborne platform and associated methods
US7528938B2 (en) * 2006-01-10 2009-05-05 Harris Corporation Geospatial image change detecting system and associated methods
US7603208B2 (en) * 2006-01-10 2009-10-13 Harris Corporation Geospatial image change detecting system with environmental enhancement and associated methods
CN101473656B (zh) 2006-06-29 2011-09-14 汤姆森许可贸易公司 基于像素的自适应滤波
JP5330246B2 (ja) * 2006-09-29 2013-10-30 トムソン ライセンシング 適応ピクセルベースのフィルタリングのための自動パラメータ推定
US8442278B2 (en) * 2008-02-28 2013-05-14 Honeywell International Inc. Covariance based face association
US8170278B2 (en) * 2008-08-06 2012-05-01 Sri International System and method for detecting and tracking an object of interest in spatio-temporal space
US8121424B2 (en) * 2008-09-26 2012-02-21 Axis Ab System, computer program product and associated methodology for video motion detection using spatio-temporal slice processing
CA2763826C (en) 2009-06-17 2020-04-07 3Shape A/S Focus scanning apparatus
US9260122B2 (en) * 2012-06-06 2016-02-16 International Business Machines Corporation Multisensor evidence integration and optimization in object inspection
US10010387B2 (en) 2014-02-07 2018-07-03 3Shape A/S Detecting tooth shade
CN103955670B (zh) * 2014-04-22 2018-04-20 广州宽度信息技术有限公司 一种动态识别采集真知码的方法
KR101858651B1 (ko) * 2014-12-05 2018-05-16 한화테크윈 주식회사 스마트검색을 지원하는 영상저장장치 및 영상저장장치에서 스마트 검색 방법
US10192117B2 (en) * 2015-06-25 2019-01-29 Kodak Alaris Inc. Graph-based framework for video object segmentation and extraction in feature space
US11302071B1 (en) 2020-09-24 2022-04-12 Eagle Technology, Llc Artificial intelligence (AI) system using height seed initialization for extraction of digital elevation models (DEMs) and related methods
US11747468B2 (en) 2020-09-24 2023-09-05 Eagle Technology, Llc System using a priori terrain height data for interferometric synthetic aperture radar (IFSAR) phase disambiguation and related methods
US11587249B2 (en) 2020-09-24 2023-02-21 Eagle Technology, Llc Artificial intelligence (AI) system and methods for generating estimated height maps from electro-optic imagery
US11238307B1 (en) 2020-09-24 2022-02-01 Eagle Technology, Llc System for performing change detection within a 3D geospatial model based upon semantic change detection using deep learning and related methods
EP3985957B1 (en) * 2020-10-14 2022-11-30 Axis AB Method and system for motion segmentation

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR970003799B1 (ko) * 1993-12-29 1997-03-21 양승택 영상 프레임차를 이용한 영상신호 전송장치
US6075875A (en) * 1996-09-30 2000-06-13 Microsoft Corporation Segmentation of image features using hierarchical analysis of multi-valued image data and weighted averaging of segmentation results
US6349113B1 (en) * 1997-11-03 2002-02-19 At&T Corp. Method for detecting moving cast shadows object segmentation
US6785329B1 (en) * 1999-12-21 2004-08-31 Microsoft Corporation Automatic video object extraction
US6501794B1 (en) * 2000-05-22 2002-12-31 Microsoft Corporate System and related methods for analyzing compressed media content
US7085401B2 (en) * 2001-10-31 2006-08-01 Infowrap Systems Ltd. Automatic object extraction

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016208875A1 (ko) * 2015-06-25 2016-12-29 에스케이텔레콤 주식회사 영상의 차이를 이용하여 이동 개체를 검출하는 방법 및 장치
KR20170001020A (ko) * 2015-06-25 2017-01-04 에스케이텔레콤 주식회사 영상의 차이를 이용하여 이동 개체를 검출하는 방법 및 장치
KR102464781B1 (ko) * 2015-06-25 2022-11-07 에스케이 텔레콤주식회사 영상의 차이를 이용하여 이동 개체를 검출하는 방법 및 장치

Also Published As

Publication number Publication date
US20030118214A1 (en) 2003-06-26
US6904159B2 (en) 2005-06-07
CN1537299A (zh) 2004-10-13
WO2003054801A1 (en) 2003-07-03
EP1444657A1 (en) 2004-08-11

Similar Documents

Publication Publication Date Title
JP2005513656A (ja) 体積成長および変化検出マスクを使用してビデオ内の移動オブジェクトを識別するための方法
US6859554B2 (en) Method for segmenting multi-resolution video objects
US7526102B2 (en) System and method for object tracking and activity analysis
US8374440B2 (en) Image processing method and apparatus
Habili et al. Segmentation of the face and hands in sign language video sequences using color and motion cues
JP4782123B2 (ja) カメラによりシーンに関して取得された映像中の移動物体を追跡する方法
US7088845B2 (en) Region extraction in vector images
CN100393106C (zh) 检测和/或追踪图像或图像序列中颜色区域的方法和装置
US9020195B2 (en) Object tracking device, object tracking method, and control program
US20050104964A1 (en) Method and apparatus for background segmentation based on motion localization
WO2009143279A1 (en) Automatic tracking of people and bodies in video
Chen et al. Innovative shot boundary detection for video indexing
Pokrajac et al. Spatiotemporal blocks-based moving objects identification and tracking
US8311269B2 (en) Blocker image identification apparatus and method
Mirante et al. A fast image segmentation algorithm using color and depth map
Kaur Background subtraction in video surveillance
AlGhamdi et al. Automatic motion tracking of a human in a surveillance video
JP3763279B2 (ja) 物体抽出システム、物体抽出方法および物体抽出プログラム
Porikli Multi-Camera Surveillance: Objec-Based Summarization Approach
Kas et al. Compressed domain aided analysis of traffic surveillance videos
Cheng et al. Mitigating the effects of variable illumination for tracking across disjoint camera views
CN113591587A (zh) 一种运动视频的内容关键帧提取方法
He Dynamic programming framework for automatic video object segmentation and vision-assisted video pre-processing
Zhang et al. Motion segmentation using region growing and an attention based algorithm
Elhefnawy et al. Robust Hybrid Foreground Detection and Adaptive Background Model

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051208

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20070530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070629

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090624

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090721