JP4074062B2 - ベクトル画像シーケンスにおける意味対象物の追跡 - Google Patents
ベクトル画像シーケンスにおける意味対象物の追跡 Download PDFInfo
- Publication number
- JP4074062B2 JP4074062B2 JP2000570977A JP2000570977A JP4074062B2 JP 4074062 B2 JP4074062 B2 JP 4074062B2 JP 2000570977 A JP2000570977 A JP 2000570977A JP 2000570977 A JP2000570977 A JP 2000570977A JP 4074062 B2 JP4074062 B2 JP 4074062B2
- Authority
- JP
- Japan
- Prior art keywords
- region
- frame
- image frame
- semantic
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/174—Segmentation; Edge detection involving the use of two or more images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/537—Motion estimation other than block-based
- H04N19/543—Motion estimation other than block-based using regions
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
Description
(発明の分野)
本発明は、ビデオデータの分析に関し、より詳細には、意味対象物(セマンティックオブジェクト)と呼ばれ、意味のある実在物がビデオシーケンスなどのベクトル画像シーケンスを通じ移動する際に、それらを追跡(トラッキング)する方法に関する。
【0002】
(発明の背景)
意味ビデオ対象物は、ボール、車、飛行機、ビル、細胞、目、唇、手、頭など、デジタルビデオクリップの有意な実在物を表す。このコンテキストでの「意味」という用語は、ビデオクリップの聴視者が、ある意味をその対象物(オブジェクト)に結び付けることを意味する。例えば、上に列挙した各対象物は、ある実世界の実在物を表し、ビューワは、これらの実在物に対応するスクリーンの部分を、それが描写する有意な対象物と関連付ける。意味ビデオ対象物は、コンテンツをベースとする通信、マルチメディア信号処理、デジタルビデオライブラリ、デジタル映画スタジオ、およびコンピュータの画面(vision)とパターンの認識を含む、様々な新しいデジタルビデオの応用分野で非常に有用である。意味ビデオ対象物をこれらの応用分野で使用するために、対象物の分割(セグメンテーション)と追跡の方法は、各ビデオフレームにおいて対象物を識別する必要がある。
【0003】
ビデオ対象物を分割するプロセスは、一般に、画像データ中の関係のある対象物を抽出する、自動化または半自動化された方法を指す。ビデオクリップから意味ビデオ対象物を抽出することは、依然として長年わたる挑戦的な課題である。典型的なビデオクリップでは、意味対象物は、断片的な構成要素と、異なる色、複数の剛体運動/非剛体運動とを含む。意味対象物は、聴視者が認識することは容易であるが、意味対象物の形、色、および運動が非常に多様であるために、このプロセスをコンピュータ上で自動化することは困難である。最初のフレームで意味対象物の最初の輪郭をユーザに描かせ、次いでその輪郭を使用して、そのフレームの対象物の部分である画素を計算させることによって、満足な結果を達成することができる。各連続フレームにおいて、運動の推定を使用して、先行フレームからの分割した対象物に基づいて、対象物の最初の境界を予測することができる。この半自動対象物分割追跡方法は、Chuang GuとMing Chieh LeeによるSemantic Video Object Segmentation and Trackingという名称の、同時継続中の米国特許出願第09/054,280号に記載されており、本明細書でも参考文献によって組み込まれている。
【0004】
対象物の追跡は、対象物がフレームからフレームに移動するときに、対象物の位置を計算するプロセスである。より一般的な意味ビデオ対象物に対処するために、対象物追跡方法は、断片的な構成要素と複数の非剛体運動を含んでいる対象物に対処することができなければならない。研究の大半は対象物追跡に費やされてきたが、現存の方法は、依然として、非剛体運動をする複数の構成要素を有する対象物を正確に追跡しない。
【0005】
追跡技術のいくつかは、基準として同一グレイスケール/カラー使用して、領域を追跡する。1992年5月、イタリア、サンタマルゲリータ、ECCV′92、pp.476〜484のF.MeyerとP.Bouthemyによる「Region−based tracking in an image sequence」、1995年6月、Proceeding of the IEEE、Vol.83、No.6、PP.843〜857のPh.Salembier、L.Torres、F.Meyer、C.Guによる「Region−based video coding using mathematical morphology」、1997年、2月、サンホゼ、VCIP′97、Vol.3024、No.1、pp.190〜199のF.MarquesとCristina Molinaによる「Object tracking for content−based functionalities」、および1997年10月、サンタバーバラ、ICIP′97、Vol.I、ページ113〜116のC.Toklu、A.Tekalp、A.Erdemによる「Simultaneous alpha map generation and 2−D mesh tracking for multimedia applications」を参照されたい。
【0006】
ある者は、同一運動情報を使用して、運動する対象物を追跡する。例えば、1994年9月、IEEE Trans.on Image Processing、 Vol.3、No.5.pp.625〜638のJ.WangとE.Adelsonによる「Representing moving images with layers」、および1996年9月、スイス、ローザンヌ、ICIP′96、Vol.I、pp.925〜928のN.BradyとN.O′Connorによる「Object detection and tracking using an em−based motion estimation and segmentaion framework」を参照されたい。
【0007】
他の者は、空間基準と時間基準の組合わせを使用して、対象物を追跡する。1992年5月、イタリア、サンタマルゲリータ、ECCV′92、pp.485〜493のM.J.Blackによる「Combining intesity and motion for incremental segmentation and tracking over long image sequences」、1995年、ニューヨーク、Plenum Press、Multimedia Communication and Video Coding、pp.233〜240のC.Gu、T.Ebrahimi、M.Kuntによる「Morphological moving object segmentation and tracking for content−based video coding」、1996年5月、GA、アトランタ、Proc.ICASSP′96、Vol.4、pp.1914〜1917のF.Moscheni、F.Dufaux、M.Kuntによる「Object tracking based on temporal、and spatial information」、および1997年、10月、サンタバーバラ、ICIP′97、Vol.II、ページ514〜517のC.GuとM.C.Leeによる「Semantic video object segmentation and tracking using mathematical morphology and perspective motion model」を参照されたい。
【0008】
これらの技術のほとんどは、先行する領域/対象物を現在のフレームに射影し、現在のフレームで射影された領域/対象物をなんとか組み立てる/調整する順方向追跡メカニズムを使用する。これらの順方向技術の主な欠点は、現在のフレームで射影領域を組み立てる/調整すること、または複数の非剛体運動に対処することが困難なことである。これらの場合の多くでは、不確定なホールが出現するか、または結果的に境界が歪む可能性がある。
【0009】
図1A〜Cは、対象物追跡に関連する困難を示す、意味ビデオ対象物の簡単な例を提供する。図1Aは、複数の色102、104を含んでいる建物100の意味ビデオ対象物を示す。対象物が同一の色を有すると仮定する方法は、これらの種類の対象物をうまく追跡しない。図1Bは、図1Aと同じ建物対象物を示すが、部分的に建物を遮っている木110によって断片的な構成要素106、108に分割されている点が異なる。対象物が画素の接続されたグループから形成されていると仮定する方法は、これらの種類の断片的な対象物をうまく追跡しない。最後に、図1Cは、人112を表す簡単な意味ビデオ対象物を示す。この簡単な対象物でさえ、異なる運動をする複数の構成要素114、116、118、120を有する。対象物は同一な運動を有すると仮定する方法は、これらの種類の対象物をうまく追跡しない。一般に、意味ビデオ対象物は、断片的な構成要素と、複数の色と、複数の運動と、任意の形状を有することが可能である。
【0010】
一般的な意味ビデオ対象物のこれらの属性を取り扱うことに加えて、追跡方法は、許容可能な正確さのレベルを達成し、エラーがフレームからフレームに伝搬することを回避しなければならない。通常、対象物追跡方法は、先行フレームの区分に基づいて各フレームを区切るので、先行フレームのエラーは、次のフレームに伝搬する傾向がある。追跡方法が、画素的な正確で対象物の境界を計算しない場合には、重大なエラーが次のフレームに伝搬する可能性がある。その結果、各フレームについて計算された対象物の境界は精密ではなく、いくつかのフレームを追跡した後、対象物が失われることがある。
【0011】
(発明の概要)
本発明は、ベクトル画像シーケンスにおいて、意味対象物を追跡する方法を提供する。本発明は、デジタルビデオクリップにおいて意味ビデオ対象物を追跡することに特に適しているが、様々な他のベクトル画像シーケンスに使用することもできる。この方法は、ソフトウエアプログラムのモジュールで実現されるが、デジタルハードウエア論理、またはハードウエア構成要素とソフトウエア構成要素の組合わせで実現することもできる。
【0012】
この方法は、フレームから領域を分割し、次いで分割した領域を、1つまたは複数の意味対象物の境界が既知である目標フレームに射影することによって、画像シーケンスにおいて意味対象物を追跡する。射影領域は、それが目標フレームの意味対象物と重複する程度を決定することによって、意味対象物の形成部分として分類される。例えば、通常の応用では、追跡方法は、各フレームに対し、意味対象物の境界が以前に計算されている先行フレームに領域を射影することによって領域を分類することを繰り返す。
【0013】
追跡方法は、意味対象物が、最初のフレームですでに識別されていると仮定する。意味対象物の最初の境界を得るために、意味対象物分割方法を使用して、最初のフレームにおいて意味対象物の境界を識別することが可能である。
【0014】
最初のフレームの後、追跡方法は、先行フレームの分割結果および現在と先行する画像フレームの分割結果に基づいて動作する。シーケンスの各フレームに対し、領域抽出処理(region extractor)は、同一領域をフレームから分割する。次いで、運動推定処理(motion estimator)で、これらの領域のそれぞれに対して領域をベースとする整合を実行し、先行フレームで最も密接に整合しているイメージの値の領域を識別する。このステップで得られた運動パラメータを使用して、分割境界がすでに計算されている先行フレームに、分割した領域を射影する。次いで、領域分類処理(region classification)は、射影された領域が先行フレームの意味対象物と重複する程度に基づいて、現在のフレームの意味対象物の部分として領域を分類する。
【0015】
上述の手法は、フレームの順序付けられたシーケンス上で動作する場合特に適している。これらの種類の応用では、先行フレームの分割結果を使用して、次のフレームから抽出した領域を分類する。しかし、入力フレームと、意味対象物の境界が既知である他の任意の目標フレームとの間で、意味対象物を追跡するために使用することもできる。
【0016】
方法のある実装では、独自の空間分割方法を使用する。特に、この空間分割方法は領域発生プロセスであり、このプロセスでは領域の点に対する最小のイメージの値と最大のイメージの値の差が閾値より小さい限り、イメージの点が領域に追加される。この方法は、シーケンシャル分割方法として実現され、ある開始点の第1領域で開始し、同じテストを用いて次々にシーケンシャル領域を形成して、イメージの点の同一グループを識別する。
【0017】
方法の実装は、追跡方法の正確さを改善する他の特徴を含む。例えば、追跡方法は、対象物の境界を不鮮明にせずに画像エラーを除去する領域ベースの前処理と、計算した意味対象物境界に関する後処理を含むことが好ましい。対象物の計算した境界は、目標フレームの同じ意味対象物に関連しているものとして分類された個々の領域から形成される。ある実装では、ポストプロセッサは、過半数オペレータフィルタを用いて、意味対象物の境界を円滑化する。このフィルタは、フレームの各点に対し近接するイメージの点を検査し、これらの点の最大数を含む意味対象物を決定する。次いで、その点を点の最大数を含んでいる意味対象物に割り当てる。
【0018】
本発明の他の利点および特徴は、以下の詳細な説明と添付の図によって明らかになるであろう。
【0019】
(詳細な説明)
意味対象物追跡システムの概要
以下のセクションで、意味対象物追跡方法について説明する。この方法は、最初のフレーム(I−フレーム)に対する意味対象物が既知であると仮定する。この方法の目的は、先行する意味区分画像と先行フレームからの情報に基づいて、現在のフレームで意味区分画像を見つけることにある。
【0020】
意味区分画像に関する基本的な観察は、区分画像の境界は、有意な実在物の物理的な縁部に位置するということにある。物理的な縁部は、2つの接続された点の間の位置であり、これらの点でのイメージの値(例えば、3色の色強度、グレイスケール値、運動ベクトル)は、著しく異なっている。追跡方法は、この観察を利用し、分割と克服の戦略を用いて、意味ビデオ対象物追跡システムを解明する。
【0021】
第1に、追跡方法は、現在のフレームで物理的な縁部を見つける。これは、分割方法、特に空間分割方法を用いて実現される。この分割方法の目的は、現在のフレームで、同一イメージの値(例えば、色強度の3重線、グレイスケール値)を有する全ての接続されている領域を抽出することである。第2に、追跡方法は、現在のフレームで抽出された各領域を分類し、それが先行フレームのどの対象物に属するかを決定する。この分類分析は、領域ベースの分類問題である。領域ベースの分類問題が解明された後は、現在のフレームの意味ビデオ対象物は、抽出および追跡されたことになる。
【0022】
図2は、意味ビデオ対象物追跡システムを示す図である。追跡システムは、以下の5つのモジュールを備える。
1.領域前処理220
2.領域抽出222
3.領域ベースの運動推定224
4.領域ベースの分類226
5.領域の後処理228
【0023】
図2では、以下の表記を使用する。
I i−フレームiに対する入力画像
S i−フレームiに対する空間分割の結果
M i−フレームiに対する運動パラメータ
T i−フレームiに対する追跡結果
【0024】
追跡方法は、最初のフレームI 0に対する意味ビデオ対象物が、すでに既知であると仮定する。最初のフレームから開始して、分割プロセスは、フレームの意味対象物の境界を定義する最初の区分を決定する。図2では、I−分割ブロック210が、意味ビデオ対象物を分割するプログラムを表す。このプログラムは、最初のフレームI 0を取り入れ、意味対象物の境界を計算する。通常、この境界は、2進またはアルファマスクとして表される。様々な分割の手法を使用して、第1フレームに対する意味対象物を見つけることが可能である。
【0025】
GuとLeeによる同時継続中の米国特許出願第09/054,280号に記載されているように、1つの手法は、ユーザが、意味ビデオ対象物の境界の内側および外側の回りで境界を描くことができる描写用ツールを提供することである。次いで、このユーザが描いた境界は、計算した境界を意味ビデオ対象物の縁部にスナップする自動化方法のための開始点として役立つ。関連のある複数のビデオ対象物を含んでいるアプリケーションでは、I−分割プロセス210は、各対象物についてマスクなどの区分画像を計算する。
【0026】
最初のフレームで使用した後処理ブロック212は、最初の区分画像を円滑化し、エラーを除去するプロセスである。このプロセスは、後続フレームI 1、I 2で意味ビデオ対象物を追跡する結果を処理するために使用する後処理と同一または類似のものである。
【0027】
次のフレーム(I 1)で開始する追跡プロセスのための入力は、先行フレームI 0と先行フレーム分割の結果T 0を含む。破線216は、各フレームに対する処理を分離する。破線214は、最初のフレームと次のフレームに対する処理を分離するが、破線216は、意味ビデオ対象物がフレームを追跡する間、後続フレームに対する処理を分離する。
【0028】
意味ビデオ対象物追跡は、フレームI 1で開始する。第1ステップでは、入力フレームI 1を簡略化する。図2では、簡略化ブロック220が、他の分析の前に入力フレームI 1を簡略化するために使用する領域前処理ステップを表す。多くの場合、入力データは、追跡結果に悪影響を与える可能性がある雑音を含んでいる。領域前処理は、雑音を除去し、他の意味対象物追跡が、クリーンな入力データ上で実行されることを保証する。
【0029】
簡略化ブロック220は、分割方法が、接続された画素の領域をより正確に抽出することを可能とするクリーンな結果を提供する。図2では、分割ブロック222は、入力フレームで同一イメージの値を有する接続された領域を抽出する空間分割方法を表す。
【0030】
各領域に対し、追跡システムは、接続された領域が、以前の意味ビデオ対象物を源とするかを決定する。追跡段階が現在のフレームに対して完全であるとき、現在のフレームにある意味ビデオ対象物の境界は、これらの接続された領域の境界から構成される。したがって、空間分割は、現在のフレームに対し、信頼できる分割結果を提供すべきである。すなわち、いかなる領域も欠損するべきではなく、いかなる領域もそれに属さない区域を含むべきではない。
【0031】
接続された領域が、意味ビデオ対象物に属するかを決定する第1ステップでは、接続領域と先行フレームの対応する領域とを整合することである。図2に示すように、運動推定ブロック224は、接続された領域と現在および先行フレームを入力として取り入れ、現在のフレームで各領域と最も密接に整合する、先行フレームの対応する領域を見つける。各領域に対し、運動推定ブロック224は運動情報を提供し、現在のフレームの各領域が、先行フレームに由来する場所を予測する。この運動情報は、先行フレームにある各領域の祖先の位置を示す。その後で、この位置情報を使用して、現在の領域が、意味ビデオ対象物に属するかをどうかを決定する。
【0032】
次に、追跡システムは、各領域が意味ビデオ対象物を源とするかについて各領域を分類する。図2では、分類ブロック226は、各領域が源としている可能性がある先行フレームで意味対象物を識別する。分類プロセスは、各領域に対する運動情報を使用して、その領域が先行フレームに由来する場所を予測する。予測した領域を先行フレームの分割結果と比較することによって、分類プロセスは、予測した領域が意味対象物または先行フレームに対してすでに計算された対象物と重複する程度を決定する。この分類プロセスの結果は、現在のフレームの各領域を意味ビデオ対象物または背景と関連付ける。現在のフレームで追跡された意味ビデオ対象物は、先行フレームの対応する意味ビデオ対象物と連結された全ての領域の集合(union)を備える。
【0033】
最後に、追跡システムは、各対象物に対して連結領域を後処理する。図2では、後処理ブロック228が、現在のフレームで各意味ビデオ対象物の獲得された境界を微調整する。このプロセスは、分類手続きで導入されたエラーを除去し、境界を円滑化して視覚効果を改善する。
【0034】
各後続フレームに対し、追跡システムは、先行フレームと、先行フレームの追跡結果と、現在のフレームとを入力として使用して、自動化形態で同じステップを繰り返す。図2は、フレームI 2に対して反復された処理ステップの例を示す。ブロック240〜248は、次のフレームに適用された追跡システムのステップを表す。
【0035】
様々な順方向追跡メカニズムを使用する他の領域と対象物の追跡システムと異なり、図2に示す追跡システムは、逆方向追跡を実行する。逆方向の領域をベースとする分類の手法は、空間分割の結果として、最終の意味ビデオ対象物の境界が、常に有意な実在物の物理的な縁部に位置するという利点を有する。また、各領域が個々に取り扱われるので、追跡システムは、容易に断片的な意味ビデオ対象物または非剛体運動に対処することができる。
【0036】
定義
追跡システムの実装について説明する前に、これ以降の説明を通して使用する一連の定義から始めることが助けになろう。これらの定義は、追跡方法が、カラーのビデオフレームのシーケンスだけでなく、複数次元画像データの他の時間的シーケンスについても適用されることを示す助けになる。このコンテキストでは、「複数次元」は、各離散イメージの点の空間的座標、並びにその点でのイメージの値を指す。画像データの時間的シーケンスは、それが複数次元データアレイの連続フレームからなるので、「ベクトル画像シーケンス」と呼ぶことができる。ベクトル画像シーケンスの例として、下記の表1に列挙した例について考える。
【0037】
【表1】
【0038】
次元nは、画像サンプルの空間座標における次元の数を指す。次元mは、画像サンプルの空間座標に位置するイメージの値の次元の数を指す。例えば、カラーボリューム画像シーケンスの空間座標は、3次元空間における画像サンプルの位置を定義する3つの空間座標を含み、したがってn=3である。カラーボリューム画像の各サンプルは、3つのカラーの値R、G、およびBを有し、したがってm=3である。
【0039】
以下の定義は、集合およびグラフの理論表記を用いて、ベクトル画像のコンテキストで追跡システムを説明する基礎を与える。
【0040】
定義1 接続点:
Sはn次元の集合とする。点p∈S⇒p=(p1、...、pn)。∀p、q∈S、pとqは、その距離Dp、qが1に等しい場合のみ接続されている。
【0041】
【数1】
【0042】
定義2 接続経路:
P(P⊆S)は、m個の点p1、...pmからなる経路とする。経路Pは、pkとpk+1(k∈{1、...、m−1}が接続点である場合のみ接続されている。
【0043】
定義3 近接点:
R(R⊆S)は領域とする。点
【0044】
【数2】
【0045】
は、∃他の点q(q∈R)pとqが接続点である場合のみ領域Rに近接する。
【0046】
定義4 接続領域:
R(R⊆S)は領域とする。Rは、∀x、y∈R、∃接続経路P(P={p1、...p m })でp1=xおよびPn=yである場合のみ接続領域である。
【0047】
定義5 区分画像:
区分画像Pは、写像(mapping)P:S→Tであり、Tは完全な順序付けされた格子(lattice)である。R p(x)は、点x:R p(x)=∪y∈S{y|P(x)=P(y)}を含む領域とする。区分画像は、次の条件を満たさなければならない。∀x、y∈S、R p(x)=R p(y)またはR p(x)∩R p(y)=φ;∪x∈S R p(x)=S。
【0048】
定義6 接続区分画像:
接続区分画像は、∀x∈S、R p(x)が常に接続されている区分画像Pである。
【0049】
定義7 微細区分
区分画像Pが、S上の他の区分画像P′より微細である場合、これは、∀x∈S、R p(x)⊇R p′(x)を意味する。
【0050】
定義8 粗区分:
区分画像Pが、S上の他の区分画像P′より粗である場合、これは、∀x∈S、R p(x)⊆R p′(x)を意味する。
【0051】
区分画像に対して究極的な場合が2つある。一方は「最も粗い区分」であり、これは、全てのS:∀x、y∈S、R p(x)=R p(y)に及ぶ。他方は「最も微細な区分」であり、Sの各点は、個々の領域:∀x、y∈S、x≠y⇒R p(x)≠R p(y)である。
【0052】
定義9 隣接領域:
2つの領域R 1とR 2は、∃x、y(x∈R 1およびy∈R 2)に対し、xとyが接続点である場合のみ隣接する。
【0053】
定義10 領域に隣接するグラフ:
Pは複数次元集合S上の区分画像である。Pにはk(R 1、...、R k)の領域があり、S=∪R i、およびi≠j⇒R i∩R j=φである。領域隣接グラフ(RAG)は、頂点Vの集合と縁部の集合Lとからなる。V={v1、...、vk}とし、各viは、対応する領域R iに関連付けられている。縁部の集合Lは、{e1、...、et}、
【0054】
【数3】
【0055】
であり、各eiは、2つの対応する領域が隣接領域である場合、2つの頂点の間に構築される。
【0056】
図3A〜Cは、異なる種類の区分画像の例を示し、図3Dは、これらの区分画像に基づく領域隣接グラフの例を示す。これらの例では、Sは、2次元画像の集合である。白区域300〜308と、斜線区域310〜314と、点区域316とは、2次元画像フレームでの異なる領域を表す。図3Aは、2つの断片的な領域(白区域300と302)を有する区分画像を示す。図3Bは、2つの接続領域(白区域304と斜線区域312)を有する接続区分画像を示す。図3Cは、図3Aの斜線区域が、2つの領域、斜線区域314と点区域316を備えるという点で、図3Aと比較してより微細な区分画像を示す。図3Dは、図3Cの区分画像の対応する領域隣接グラフを示す。グラフの頂点320、322、324、326は、それぞれ領域306、314、316、308に対応する。縁部330、332、334、336、および338は、隣接領域の頂点を接続する。
【0057】
定義11 ベクトル画像シーケンス:
積
【0058】
【数4】
【0059】
のm(m≧1)個の完全に順序付けされた完全格子L1、...、Lmを与えられた場合、ベクトル画像シーケンスは、写像I t:S→Lのシーケンスであり、Sはn次元の集合で、tは時間領域にある。
【0060】
いくつかの種類のベクトル画像シーケンスを表1に示す。これらのベクトル画像シーケンスは、カラー画像などの一連のセンサ、または濃度(dense)運動の場などの計算されたパラメータスペースから獲得することができる。入力信号の物理的な意味は場合ごとに異なるが、それらは全て例外なくベクトル画像シーケンスと見なされる。
【0061】
定義12 意味ビデオ対象物:
Iは、n次元集合S上のベクトル画像とする。Pは、Iの意味区分画像とする。S=∪i=1、...、m O iであり、各O iは、意味ビデオ対象物の位置を示す。
【0062】
定義13 意味ビデオ対象物分割:
Iは、n次元集合S上のベクトル画像とする。意味ビデオ対象物分割は、対象物の数mと各対象物O iの位置を見つけるものとする。
【0063】
i=1、...、m、でS=∪i=1、...、m O iである。
【0064】
定義14 意味ビデオ対象物追跡:
I t−1は、n次元集合Sの上のベクトル画像であり、Pt−1は、時間t−1での対応する意味区分画像とする。S=∪i=1、...、m O t−1、iである。各O t−1、i(i=1、...、m)は、時間t−1での意味ビデオ対象物である。I tの意味ビデオ対象物追跡は、時間t、i=1、...、mで意味ビデオ対象物を見つけるときに定義される。∀x∈O t−1、iおよび∀y∈O t、i:Pt−1(x)=Pt(y)である。
【0065】
実装例
以下のセクションでは、特定の意味ビデオ対象物追跡方法について、より詳細に説明する。図4は、以下で説明する実装の主要な構成要素を示すブロック図である。図4の各ブロックは、上記で略述した対象物追跡方法の部分を実現するプログラムモジュールを表す。コスト、性能、および設計の複雑さなどの様々な考慮事項に応じて、これらのモジュールのそれぞれは、デジタル論理回路においても実現することが可能である。
【0066】
上記で定義した表記を用いて、図4に示す追跡方法は、入力として、時間t−1での先行フレームの分割結果と現在のベクトル画像I tを取り入れる。現在のベクトル画像は、n次元集合S上の積L(定義11参照)のm個(m≧1)の完全に順序付けされた完全格子L1、...、Lmにおいて定義されている。
【0067】
∀p、q∈S、I t(p)={L1(p)、L2(p)、...、Lm(p)}
【0068】
この情報を用いて、追跡方法は、シーケンスの各フレームに対し、区分画像を計算する。分割の結果は、各フレームで各意味対象物の位置を識別するマスクである。各マスクは、各フレームで、それがどの対象物に対応するかを識別する対象物番号を有する。
【0069】
例えば、表1で定義されているカラー画像シーケンスについて考察する。各点pは、2次元画像の画素を表す。集合Sの点の数は、各画像フレームの画素の数に対応する。各画素での格子は、赤、緑、および青の強度値に対応する3つのサンプル値を備える。追跡方法の結果は、各フレームに対する対応する意味ビデオ対象物の部分を形成する全ての画素の位置を識別する一連の2次元マスクである。
【0070】
領域の前処理
図4に示す実装は、入力ベクトル画像を簡略化することによって、フレームに対する処理を開始する。特に、簡略フィルタ420は、入力ベクトル画像全体をクリーンにし、その後さらに処理を行う。この前処理段階の設計では、偽データを導入しない簡略方法を選択することが好ましい。例えば、低域通過フィルタは、画像をクリーンにし滑らかにする可能性があるが、ビデオ対象物の境界を歪める可能性もある。したがって、入力ベクトル画像を簡略化し、同時に意味ビデオ対象物の境界の位置を保持する方法を選択することが好ましい。
【0071】
中央値フィルタまたは形態フィルタなどの多くの非線形フィルタは、このタスクのための候補である。現在の実装では、入力ベクトル画像の簡略化のために、ベクトル中央値フィルタ、メジアン(Median)(・)を使用する。
【0072】
ベクトル中央値フィルタは、入力画像の各点に対する近接点の中央イメージの値を計算し、その点のイメージの値を中央値で置き換える。n次元集合Sのあらゆる点pに対し、構造要素Eは、それの回りで定義され、それは全ての接続点を含んでいる(接続点に関する定義1参照)。
【0073】
E=∪q∈S{Dp、q=1}
【0074】
点pのベクトル中央値は、構造要素E内の各構成要素の中央値として定義される。
【0075】
メジアン(It(p))={中央値q∈E{L1(q)、...、中央値q∈E{Lm(q)}}
【0076】
そのようなベクトル中央値フィルタを使用することによって、ベクトル画像I tの小さな変動を除去することができ、同時に、ビデオ対象物の境界が、構造要素Eの空間的設計の下でうまく保持される。その結果、追跡プロセスは、より効果的に、意味ビデオ対象物の境界を識別することができる。
【0077】
領域抽出
ベクトル入力画像をフィルタリングした後、追跡プロセスは、現在の画像から領域を抽出する。これを達成するために、追跡プロセスは、現在の画像を取り入れて、「同一」イメージの値を有する接続点の領域を識別する空間分割方法422を使用する。これらの接続領域は、領域ベースの運動推定424と領域ベースの分類426で使用される点の領域である。
【0078】
領域抽出段階の実行において、取り組まなければならない主要な課題が3つある。第1に、「同一」の概念を強固にする必要がある。第2に、領域の合計の数を見つけるべきである。第3に、各領域の位置を固定しなければならない。ベクトル画像データの分割に関係する文献は、様々な空間分割方法を記載している。大半の一般的な空間分割方法は、下記のものを使用する。
【0079】
・領域の同一性を定義する多項式関数
・領域の数を見つける決定論的方法、および/または
・全ての領域の位置を最終決定する境界調整
【0080】
これらの方法は、いくつかの応用例では満足な結果をもたらすことが可能であるが、非剛体運動と、断片的な領域と、複数の色を有する非常に多様な意味ビデオ対象物に対しては、正確な結果を保証しない。意味対象物を分類することができる正確さは、領域の正確さに依存しているので、空間分割方法に要求される正確さは、非常に高度なものとなる。分割段階後、いかなる意味対象物の領域も欠損しておらず、いかなる領域もそれに属さない区域を含まないことが好ましい。現在のフレームにある意味ビデオ対象物の境界は、これらの接続領域の全境界の部分集合として定義されているので、その正確さは、追跡プロセスの結果の正確さに直接影響する。境界が不正確な場合、結果的な意味ビデオ対象物の境界も不正確になる。したがって、空間分割方法は、現在のフレームに対し、正確な空間区分画像を提供するべきである。
【0081】
追跡方法の現在の実装では、LabelMinMaxと呼ばれる、新規で速い空間分割方法を使用する。この特別の手法は、シーケンシャルの形態で、1度に1つの領域を発生(grow)発生させる。この手法は、他の並行領域発生プロセス、すなわち、領域発生が任意のシードから始まる前に、全てのシードを特定する必要のある他の並行領域発生プロセスとは異なる。シーケンシャル領域発生方法は、領域を次々に抽出する。これにより、より柔軟に各領域を取り扱うことが可能となり、全体的な計算の煩雑さを低減する。
【0082】
領域の同一性は、領域の最大値と最小値の差によって制御される。入力ベクトル画像I tは、積Lの完全に順序付けされたm個(m≧1)の完全格子L1、...、Lmにおいて定義されていると仮定する(定義11参照)。
【0083】
∀p、q∈S、I t(p)={L1(p)、L2(p)、...、Lm(p)}
【0084】
領域Rの最大値と最小値(MaxLとMinL)は、下式のように定義される。
【0085】
【数5】
【0086】
MaxLとMinLの差が、閾値(H={h1、h2、...、hm}より小さい場合、その領域は同一である。
【0087】
同一性;∀i、1≦i≦m、(maxp∈R{Li(p)}−minp∈R{Li(p)}≦hi
【0088】
LabelMinMax方法は、次々に各領域に名前を付ける。n次元集合Sの点pから開始する。領域Rは、LabelMinMaxがその上で動作している現在の領域と仮定する。開始時では、点p:R={p}のみを含んでいる。次に、LabelMinMaxは、領域Rの全ての近接点(定義3参照)を検査し、近接点qがその中に挿入されている場合に、領域Rが依然として同一であるかを調べる。挿入によって領域の同一性を変更しない場合、点qは領域Rに追加される。点qが領域Rに追加されたとき、点qは集合Sから消去されるべきである。領域Rは、徐々に、さらに近接点を追加することができない同一テリトリまで拡大する。次いで、Sに残存している点からの点で、新しい領域が構築される。Sにもはや残存する点がなくなるまで、このプロセスが続く。プロセス全体は、以下の疑似コードによって明瞭に説明することができる。
【0089】
LabelMinMax:
【0090】
【数1】
【0091】
LabelMinMaxは、下記を含む多くの利点を有する。
【0092】
・MaxLとMinLは、他の基準と比較して、領域の同一性について、より精密な説明を提示する。
・同一性の定義は、正確な領域をもたらす領域の同一性に対し、より厳密な制御を与える。
・LabelMinMaxは、信頼できる空間分割結果をもたらす。
・LabelMinMaxは、多くの他の方法より、計算がはるかに煩雑でない。
【0093】
これらの利点により、LabelMinMaxは、空間分析に対しよい選択肢となり、また、代替分割方法を使用して、接続領域を識別することが可能である。例えば、他の領域発生方法は、異なる同一基準と「同一」領域のモデルを使用して、追加の点を同一領域に追加するかを決定する。例えば、これらの基準は強度の閾値を含んでおり、各新しい点と領域の近接点との強度の差が閾値を超えない限り、領域に点が追加される。また、同一基準は、領域の点の強度値が変動することが可能であり、それでも依然として接続領域の部分と見なすことができる方法について説明する数学的関数の観点から定義することが可能である。
【0094】
領域ベースの運動推定
領域ベースの運動推定424のプロセスは、分割プロセスによって識別された領域のイメージの値と、先行フレームの対応するイメージの値とを整合し、領域が先行フレームから移動した方法を推定する。このプロセスを示すために、以下の例を考察する。I t−1は、時間t−1のn次元集合S上の先行ベクトル画像とし、I tは、時間tの同じ集合S上にある現在のベクトル画像とする。領域抽出手順は、現在のフレームI tでN個の同一領域R i(i=1、2、...、N)を抽出する。
【0095】
S=∪i−1、...、N R i
【0096】
ここで、追跡プロセスは次に進み、先行フレームの意味ビデオ対象物の正確に1つに属するとして、各領域を分類する。追跡プロセスは、この領域ベースの分類問題を、領域ベースの運動推定と補償を用いて解明する。現在のフレームI tの各抽出した領域R iに対し、運動推定手順を実行して、これらの領域が、先行フレームI t−1で発生した場所を見つける。多くの運動モデルを使用することが可能であるが、現在の実装は、運動推定手順として並進運動モデルを使用する。このモデルでは、運動推定手順は、その領域に関する予想エラー(PE)を最小限に抑える領域R iに対する運動ベクトルV iを計算する。
【0097】
【数7】
【0098】
上式で‖・‖は、2つのベクトルの絶対的な差の合計を表し、V i≦V max(V maxは最大探索範囲)である。この運動ベクトルV iは、先行フレームI t−1での軌跡の位置を示す領域R iに割り当てられる。
【0099】
他の運動モデルも同様に使用することが可能である。例えば、アフィンまたは透視運動モデルを使用して、現在のベクトル画像の領域と、先行ベクトル画像の対応する領域との間の運動をモデルすることができる。アフィンおよび透視運動モデルは、幾何学的変換(例えば、アフィンまたは透視変換)を使用して、あるフレームと他のフレームとの間の領域の運動を定義する。この変換は、領域のいくつかの点に対する運動ベクトルを見つけ、次いで、選択した点での運動ベクトルを用いて連立方程式を解いて係数を計算することによって計算することが可能な運動係数で表される。他の方式は、運動係数の最初の集合を選択し、次いでエラー(例えば、絶対的な差の合計または2乗した差の合計)が閾値より小さくなるまで繰り返す。
【0100】
領域ベースの分類
領域ベースの分類プロセス426は、運動情報を用いて各領域の位置を変更し、先行フレームで領域の推定された位置を決定する。次いで、この推定位置を先行フレーム(S t)の意味ビデオ対象物の境界と比較し、どの意味ビデオ対象物の部分を最も形成しやすいかを決定する。
【0101】
それを示すために、以下の例を考察する。I t−1とI tは、n次元集合S上の先行および現在のベクトル画像とし、Pt−1は、時間t−1での対応する意味区分画像とする。
【0102】
S=∪i=1、...、m O t−1、i
【0103】
各O t−1、i(i=1、...、m)は、時間t−1での意味ビデオ対象物の位置を示す。N個の抽出された全領域R i(i=1、2、...、N)があり、各領域は、現在のフレームで関連付けられた運動ベクトルV i(i=1、2、...、N)を有すると仮定する。ここで、追跡方法は、時間tで現在の意味区分画像Ptを構築することが必要である。
【0104】
追跡プロセスは、現在のフレームで、各領域R iに対し意味ビデオ対象物O t−1、j(j∈{1、2、...、m})を見つけることによって、このタスクを履行する。
【0105】
各領域R iに対する運動情報が、すでにこの段階で利用可能であるので、領域分類装置426は、逆方向運動補償を用いて、現在のフレームの各領域R iを、先行フレームに向けてワープする。領域に対する運動情報を、その領域の点に適用することによって、領域をワープする。以前の領域にあるワープした領域をR′ iと仮定する。
【0106】
R′ i=∪p∈R i{p+V i}
【0107】
理想的には、ワープした領域R′ iは、先行フレームの意味ビデオ対象物の1つに当てはまるべきである。
【0108】
∃i、j∈{1、2、...、m}およびR′ i⊆O t−1、j
【0109】
これがその場合であれば、追跡方法は、意味ビデオ対象物O t−1、jをこの領域R iに割り当てる。しかし、実際には、運動推定プロセスからの潜在的な曖昧さのために、R′ iは、先行フレームの複数の意味ビデオ対象物と重複する可能性がある。すなわち、
【0110】
【数8】
【0111】
である。
【0112】
現在の実装は、領域ベースの分類に対し、過半数基準Mを使用する。現在のフレームの各領域R iに対し、ワープした領域R′ iの過半数部分が、先行フレームの意味ビデオ対象物O t−1、j(J∈1、2、...、m)に由来する場合、この領域は、その意味ビデオ対象物O t−1、jに割り当てられる。
【0113】
∀p∈R i、および∀q∈O t−1、j、Pt(p)=Pt−1(q)
【0114】
より詳細には、R′ iと重複する過半数区域(MOA)を有する意味ビデオ対象物O t−1、jは、下式のように見つけられる。
【0115】
【数9】
【0116】
現在のフレームの完全意味ビデオ対象物O t、jは、現在のフレームの全ての領域R i(i=1、2、...、m)に対してこの領域ベースの分類手順を用いることにより、1つずつ構築される。点q∈O t−1、j、
【0117】
O t、j=∪p∈S{p|Pt(p)=Pt−1(q)}、j=1、2、...、m
【0118】
と仮定する。この領域ベースの分類プロセスの設計によって、現在のフレームでは、いかなるホール/ギャップ、または異なる意味ビデオ対象物間の重複はないことになる。
【0119】
∪i=1,...,mOt,i=∪i=1,...,NRi=∪i=1,...,mOt−1,i=S
∀i,j∈{1,...,m},i≠j⇒Ot,i∩Ot,i=φ
【0120】
これは、意味ビデオ対象物の境界を決定することができないフレーム内へと対象物を追跡する追跡システムと比較して、この追跡システムの利点である。例えば、順方向追跡システムにおいて、対象物追跡は、精密な境界が未知である後続フレームへと進む。次いで、境界は、境界条件をモデルするいくつかの所定の基準に基づいて、未知の境界に合うように調整される。
【0121】
領域後処理
現在のフレームの追跡結果は、意味区分画像Ptであると仮定する。様々な理由のために、領域ベースの分類手順には、いくつかのエラーが存在する可能性がある。領域後処理プロセスの目的は、これらのエラーを除去し、同時に、現在のフレームで各意味ビデオ対象物の境界を滑らかにすることである。興味深いことに、区分画像は、従来の画像とは異なる空間画像である。この区分画像の各点における値は、意味ビデオ対象物の位置を示すだけである。したがって、一般に、信号処理用の全ての従来の線形または非線形フィルタは、この空間後処理に適していない。
【0122】
この実装は、過半数オペレータM(・)を使用して、このタスクを履行する。n次元集合Sの各点pに対し、構造要素Eは、全ての接続点を含むそれの回りで定義されている(接続点に関する1参照)。
【0123】
E=∪p∈S{Dp、q=1}
【0124】
第1に、過半数オペレータM(・)は、構造要素Eと最大限重複している区域(MOA)を有する意味ビデオ対象物O t、jを見つける。
【0125】
【数10】
【0126】
第2に、過半数オペレータM(・)は、その意味ビデオ対象物O t、jの値を、点pに割り当てる。
【0127】
q∈O t、j、Pt(p)=M(p)=Pt(q)とする。
【0128】
過半数基準の採用のために、非常に小さい区域(エラーである可能性が最も高い)を除去し、同時に、各意味ビデオ対象物の境界を滑らかにすることが可能である。
【0129】
コンピュータシステムの簡単な概要
図5および以下の議論は、本発明を実現することが可能である適切なコンピュータ環境について、簡単で一般的な説明を提供することを意図している。本発明またはその態様は、ハードウエアデバイスで実現することが可能であるが、上述の追跡システムは、プログラムモジュールにおいて組織されたコンピュータ実行可能命令で実行される。プログラムモジュールは、ルーチンと、プログラムと、対象物と、構成要素と、タスクを実行し、上述のデータタイプを実行するデータ構造とを含む。
【0130】
図5は、デスクトップコンピュータの一般的な構成を示すが、本発明は、手持ち式デバイス、マルチプロセッサシステム、マイクロプロセッサベースまたはプログラム可能な消費者エレクトロニクス、ミニコンピュータ、メインフレームコンピュータなどを含む、他のコンピュータシステム構成で実施することが可能である。また、本発明は、コンピュータネットワークを介して連結されているリモート処理装置によってタスクを実行する分散計算環境で使用することが可能である。分散コンピュータ環境では、プログラムモジュールは、局所およびリモートメモリ格納装置の両方に配置することが可能である。
【0131】
図5は、本発明の操作環境として役立つコンピュータシステムの例を示す。コンピュータシステムは、処理ユニット521と、システムメモリ522と、システムメモリを含んでいる様々なシステム構成要素を処理ユニット521に内部接続するシステムバス523とを含んでいるパーソナルコンピュータ520を含む。システムバスは、メモリバスまたはメモリ制御装置と、周辺バスと、PCI、VESA、マイクロチャネル(MCA)、ISAおよびEISAなどが例として挙げられるバス体系を使用する局所バスとを含んでいるいくつかの種類のバス構造のうち、いずれかを備えることが可能である。システムメモリは、読取り専用メモリ(ROM)524とランダムアクセスメモリ(RAM)525を含む。基本的な入力/出力システム526(BIOS)は、開始時中などに、パーソナルコンピュータ520内で要素間の情報を転送することに役立つ基本的なルーチンを含んでおり、ROM524に格納されている。さらに、パーソナルコンピュータ520は、ハードディスクドライブ527と、例えば取外し可能ディスク529から読み込むまたはそれに書き込む磁気ディスクドライブ528と、例えばCD−ROMディスク531を読むまたは他の光学メディアを読み込むあるいはそれに書き込む光学ディスクドライブ530とを含む。ハードディスクドライブ527、磁気ディスクドライブ528、光学ディスクドライブ530は、それぞれ、ハードディスクドライブインターフェース532、磁気ディスクドライブインターフェース533、光学ドライブインターフェース534によって、システムバス523に接続される。ドライブとそれに関連付けられたコンピュータ読取り可能媒体は、データの不揮発性格納、データ構造、コンピュータ実行可能命令(動的リンクライブラリなどのプログラムコードと実行可能ファイル)などを、パーソナルコンピュータ520に提供する。上記のコンピュータ読取り可能媒体の説明は、ハードディスクと、取外し可能磁気ディスクと、CDとを指すが、磁気カセット、フラッシュメモリカード、デジタルビデオディスク、ベルヌーイカートリッジなど、コンピュータによって読み取ることができる他の種類の媒体を含むことができる。
【0132】
多くのプログラムモジュールを、オペレーティングシステム535と、1つまたは複数のアプリケーションプログラム536と、他のプログラムモジュール537と、プログラムデータ538とを含む、ドライブおよびRAM525に格納することが可能である。ユーザは、キーボード540およびマウス542などの位置表示装置を介して、コマンドおよび情報をパーソナルコンピュータ520に入力することが可能である。他の入力装置(図示せず)には、マイクロフォン、ジョイスティック、ゲームパッド、衛星放送用パラボラアンテナ、スキャナなどを含むことが可能である。これらおよび他の入力装置は、しばしば、システムバスに結合されているシリアルポートインターフェース546を介して、処理ユニット521に接続されるが、パラレルポート、ゲームポート、またはユニバーサルシリアルバス(USB)などの他のインターフェースによって接続することも可能である。また、モニタ547または他の種類の表示装置も、表示制御装置またはビデオアダプタ548などのインターフェースを介して、システムバス523に接続される。通常、モニタの他に、パーソナルコンピュータは、スピーカおよびプリンタなどの他の周辺出力装置(図示せず)を含む。
【0133】
パーソナルコンピュータ520は、ネットワークされた環境で、リモートコンピュータ549などの1つまたは複数のリモートコンピュータへの論理接続を用いて動作することが可能である。リモートコンピュータ549は、サーバ、ルータ、ピアデバイス、または他の一般的なネットワークノードとすることが可能であり、通常、パーソナルコンピュータ520に関して記述した多くのまたは全ての要素を含むが、図5では、メモリ格納装置550のみを図示している。図5に示した論理接続は、ローカルエリアネットワーク(LAN)551とワイドエリアネットワーク(WAN)を含む。そのようなネットワーキング環境は、会社、企業全体にわたるコンピュータネットワーク、イントラネット、およびインターネットでは一般的である。
【0134】
LANネットワーキング環境で使用するとき、パーソナルコンピュータ520は、ネットワークインターフェースまたはアダプタ553を介してローカルネットワーク551に接続されている。WANネットワーキング環境で使用するとき、パーソナルコンピュータ520は、通常、インターネットなど、ワイドエリアネットワーク552上で通信を確立する、モデム554または他の手段を含む。モデム554は、内在または外付けとすることが可能であり、シリアルポートインターフェース546を介して、システムバス523に接続されている。ネットワークされた環境では、パーソナルコンピュータ520に関連して記述したプログラムモジュール、またはその部分は、リモートメモリ格納装置に格納することが可能である。示したネットワーク接続は、単なる例であり、コンピュータ間で通信リンクを確立する他の手段を使用することが可能である。
【0135】
結論
本発明を特定の実装の詳細に関するコンテキストで説明したが、本発明は、これらの特定の詳細に限定されるものではない。本発明は、ベクトル画像フレームにおいて同一領域を識別し、次いでこれらの領域を意味対象物の部分であると分類する、意味対象物追跡の方法とシステムを提供する。上述した実装の分類方法は、意味領域を、意味対象物の境界が以前に計算されている先行フレームに射影するので、「逆方向追跡」と呼ばれる。
【0136】
また、この追跡システムは、一般に、意味ビデオ対象物の境界が既知であるフレームに、たとえこれらのフレームが順序付けられたシーケンスにある先行フレームでない場合でも、分割領域を射影する応用に適用されることに留意されたい。したがって、上述した「逆方向」追跡方式は、分類が必ずしも先行フレームに限定されておらず、代わりに、意味対象物の境界が既知または以前に計算されているフレームに限定されている応用に適用される。意味ビデオ対象物がすでに識別されているフレームは、より一般的に、基準フレームと呼ぶ。現在のフレームに対する意味対象物の追跡は、基準フレームの意味対象物の境界に関して、現在のフレームで分割された領域を分類することによって計算される。
【0137】
上述のように、対象物追跡方法は、一般に、ベクトル画像シーケンスに適用される。したがって、2Dビデオシーケンス、またはイメージの値が強度値を表しているシーケンスに限定されていない。
【0138】
領域分割段階の説明により、特に有用であるが、意味ビデオ対象物追跡の全ての実装に必要ではない基準が識別された。すでに述べたように、他の分割技術を使用して、点の接続領域を識別することが可能である。領域の同一性の定義は、イメージの値の種類(例えば、運動ベクトル、色の強度)と応用例に応じて異なる可能性がある。
【0139】
運動推定と補償を実行するために使用する運動モデルは、同様に変更することができる。計算はより複雑であるが、領域の各個々の点に対して、運動ベクトルを計算することが可能である。代替として、上述の変換モデルのように、各領域に対して、1つの運動ベクトルを計算することが可能である。好ましくは、領域ベースの整合方法を使用して、関心のあるフレームにおいて整合領域を見つけるべきである。領域ベースの整合では、現在のフレームの境界またはマスクを使用して、予測した点と基準フレームの対応する領域との間のエラーを最小限に抑えるプロセスから、領域の外部に位置する点を除外する。この種類の手法は、Ming−Chieh Leeによる名称Polygon Block Matching Methodの米国特許第5,796,855号に記載されており、参考文献によってここに組み込まれている。
【0140】
本発明の多くの可能な実装を考慮すると、上述した実装は本発明の単なる例であり、本発明の範囲に対する限定と考えるべきではない。むしろ、本発明の範囲は、添付の請求項によって定義される。したがって、我々の発明は全て、これらの特許請求の範囲および精神内に由来することを主張する。
【図面の簡単な説明】
【図1A】 一般的な意味対象物を追跡する困難さを示すために異なる種類の意味対象物を表す例である。
【図1B】 一般的な意味対象物を追跡する困難さを示すために異なる種類の意味対象物を表す例である。
【図1C】 一般的な意味対象物を追跡する困難さを示すために異なる種類の意味対象物を表す例である。
【図2】 意味対象物追跡システムを示すブロック図である。
【図3A】 区分画像の例と、領域近接グラフにおける区分画像を表す方法を示す図である。
【図3B】 区分画像の例と、領域近接グラフにおける区分画像を表す方法を示す図である。
【図3C】 区分画像の例と、領域近接グラフにおける区分画像を表す方法を示す図である。
【図3D】 区分画像の例と、領域近接グラフにおける区分画像を表す方法を示す図である。
【図4】 意味対象物追跡システムの実装を示すフローチャートである。
【図5】 本発明の実装に対する操作環境として役立つコンピュータシステムのブロック図である。
Claims (14)
- コンピュータにおいて、ビデオフレームにおいてビデオ対象物を追跡する方法であって、前記コンピュータが、
現在のビデオフレーム上で空間分割を実行して、同一強度値を有する画素の領域を識別する手段、
現在のビデオフレームおよびビデオ対象物の境界が前以て計算されている先行ビデオフレームの各領域の間で運動推定を実行する手段、
各領域に対する運動推定を用いて、各領域の画素の位置を、先行ビデオフレームの位置にワープする手段、
ワープした画素の位置が、先行ビデオフレームの前以て計算されているビデオ対象物の境界内にあるかを判定して、ビデオ対象物の部分である可能性がある領域のセットを識別する手段、および
前記セットから、前記現在のビデオフレームの中のビデオ対象物の境界を形成する手段
として動作することを特徴とする方法。 - 現在のビデオフレームのビデオ対象物の境界を、後続のビデオフレームに対する基準境界として使用して、後続フレームに対して請求項1の方法を繰り返すこと特徴とする請求項1に記載の方法。
- 前記空間分割は、複数の領域について、領域中の最大強度値と領域中の最小強度値の差を閾値よりも小さくすることを特徴とする請求項1に記載の方法。
- 前記空間分割はシーケンシャルな空間成長であり、
現在のビデオフレーム中の最初の画素位置でスタートし、最初の領域に複数の画素位置を付加することにより前記最初の位置のまわりの画素を結合して前記最初の領域を、同一基準を満足するように成長させ、
境界の画素がない場合に、前記最初の領域の外の画素位置を有する別の領域の領域について前記成長を繰り返し、
前記現在のビデオフレーム中の各画素位置が複数の領域の1つの領域の部分であると識別されるまで前記成長を続けることを特徴とする請求項1に記載の方法。 - 前記判定では、各領域について、以前のビデオフレーム中のビデオ対象物の境界内にあるワープの画素位置を計数し、
ワープの画素位置のスレッショルドの総計が前記ビデオ対象物の境界内である場合、前記領域が、現在のビデオ対象物の部分である可能がある領域のセットの中にあると分類することを特徴とする請求項1に記載の方法。 - それにより請求項1の方法を実行するようにコンピュータをプログラムするために、コンピュータが実行可能な命令がストアされたことを特徴とするコンピュータ可読媒体。
- 画像フレームのベクトル画像シーケンスにおいて、意味対象物を追跡するコンピュータシステムであって、
前記ベクトル画像シーケンス中の現在の画像フレームを複数の領域に分割する空間分割モジュールであって、各領域は、同一の基準を満足する画像値を有する画像ポイントを有している空間分割モジュールと、
現在の画像フレームおよび基準画像フレームの各領域の間の運動を推定し、および各領域について、現在の画像フレームおよび基準画像フレームの間の領域の運動を示す運動係数を判定する運動推定モジュールであって、そこでは、前記基準画像フレームが意味対象物の境界が予め計算されている意味対象物を含む運動推定モジュールと
各領域の運動係数を該領域に適用して、基準画像フレーム中の推定領域を計算し、および前記基準画像フレーム中の前以て計算された意味対象物の境界内で、前記領域に対する推定領域の大きさに基づいて、意味対象物の部分であるか否かを各領域について分類する領域分類モジュールと
を有し、現在の画像フレーム中の対応の意味対象物の境界が、意味対象物の部分であると分類された各領域から形成されることを特徴とするコンピュータシステム。 - 前記基準画像フレームは、2または3以上の意味対象物を含み、前記2または3以上の意味対象物の各々は前記基準画像フレームの重複しないエリアを占め、
前記領域についての推定領域と重複する2または3以上の意味対象物のいずれが前記領域についての推定領域と重複するかに基づいて、前記2または3つの意味対象物の1つの部分であるかについて、前記領域分類モジュールは、前記複数の領域を分類し、前記現在の画像フレーム中の意味対象物の対応の境界が複数の分類された領域から形成されることを特徴とする請求項7に記載のコンピュータシステム。 - コンピュータにおいて、逆方向の領域ベースの分類を使用する、ベクトル画像シーケンス中の対象物を追跡する方法であって、前記コンピュータが、
ベクトル画像シーケンスの第1の画像フレームの中の対象物の境界を計算し、
前記ベクトル画像シーケンスの第2の画像を複数の領域に分割する手段、
前記領域を、前記第2の画像フレームから前記第1の画像フレームに到る運動推定に基づいて、前記第1の画像フレームの対応の領域と関連付ける手段、および
もしも前記第1の画像フレーム中の、関連付けられた対応領域のスレッショルド部が前以て計算された第1の画像フレーム中の境界の中にある場合は、前記対象物の部分であると前記第2の画像フレームの領域を分類する手段
として動作することを特徴とする方法。 - 対象物の部分であると分類された1または複数の領域から前記第2の画像フレームの中の対象物の新しい境界を形成することを特徴とする請求項9に記載の方法。
- 前記分割、前記関連付けおよび前記分類を第3の画像フレームについて繰り返し、前記関連付けは、前記第3の画像フレームから前記第2の画像フレームに到る運動推定に基いており、前記分類は新しい境界との比較により生じることを特徴とする請求項10に記載の方法。
- それにより請求項9の方法を実行するようにコンピュータシステムをプログラムするように、コンピュータ実行可能な命令がストアされたことを特徴とするコンピュータ可読媒体。
- 逆方向領域ベースの分類に基づいて、ベクトル画像シーケンス中の対象物をコンピュータに追跡させる、該コンピュータが実行可能な命令がストアされたコンピュータ可読媒体であって、前記コンピュータは、
ベクトル画像シーケンスの以前の画像フレーム中の対象物の境界を計算する手段、
現在のベクトル画像シーケンスの画像フレームを、複数の領域に分割し、
前記現在の画像フレームの複数の領域についての運動推定に基づいて、各領域を前記以前の画像フレームにワープする手段、および
各領域について、もしワープされた領域のスレッショルド部が以前の画像フレームの対象物の、前以て計算された境界の中にある場合、現在の画像フレームの領域が前記対象物の部分であると分類する手段
として動作することを特徴とすることを特徴とするコンピュータ可読媒体。 - コンピュータにおいて、ベクトル画像シーケンス中で対象物を追跡する方法であって、前記コンピュータは
複数の画素を有する画像フレームを提供する手段、
前記画像フレーム中の複数の領域の最初の領域についての同一の基準を満足する近接の画素を付加することにより、最初の画素から前記最初の画像フレームを成長させ、前記同一の基準は前記最初の領域の中の最大画素値および最小画素値の差を抑制する手段、
前記最初の領域について同一基準を満足する近接の画素がもうない場合、前記複数の領域の1または2以上の他の領域について前記成長を、前記画像フレームの各画素が該画像フレームの中の複数の領域の1つの部分となるまで繰り返し、前記領域の成長は、領域の成長を開始する前に複数の領域全てについてのシードを指定することなくシーケンシャルに行う手段、および
前記画像フレームの複数の領域に関して、前記ベクトル画像シーケンスにおいて前記対象物を追跡する手段
として動作することを特徴とする方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US09/151,368 | 1998-09-10 | ||
US09/151,368 US6711278B1 (en) | 1998-09-10 | 1998-09-10 | Tracking semantic objects in vector image sequences |
PCT/US1999/020476 WO2000016563A1 (en) | 1998-09-10 | 1999-09-10 | Tracking semantic objects in vector image sequences |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2002525735A JP2002525735A (ja) | 2002-08-13 |
JP2002525735A5 JP2002525735A5 (ja) | 2005-12-22 |
JP4074062B2 true JP4074062B2 (ja) | 2008-04-09 |
Family
ID=22538452
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000570977A Expired - Fee Related JP4074062B2 (ja) | 1998-09-10 | 1999-09-10 | ベクトル画像シーケンスにおける意味対象物の追跡 |
Country Status (6)
Country | Link |
---|---|
US (3) | US6711278B1 (ja) |
EP (2) | EP1112661B1 (ja) |
JP (1) | JP4074062B2 (ja) |
AT (1) | ATE286337T1 (ja) |
DE (1) | DE69922973T2 (ja) |
WO (1) | WO2000016563A1 (ja) |
Families Citing this family (156)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6711278B1 (en) * | 1998-09-10 | 2004-03-23 | Microsoft Corporation | Tracking semantic objects in vector image sequences |
US6917692B1 (en) * | 1999-05-25 | 2005-07-12 | Thomson Licensing S.A. | Kalman tracking of color objects |
AU763919B2 (en) * | 2000-03-16 | 2003-08-07 | Canon Kabushiki Kaisha | Tracking objects from video sequences |
US9310892B2 (en) | 2000-11-06 | 2016-04-12 | Nant Holdings Ip, Llc | Object information derived from object images |
US7565008B2 (en) | 2000-11-06 | 2009-07-21 | Evryx Technologies, Inc. | Data capture and identification system and process |
US7899243B2 (en) | 2000-11-06 | 2011-03-01 | Evryx Technologies, Inc. | Image capture and identification system and process |
US8224078B2 (en) | 2000-11-06 | 2012-07-17 | Nant Holdings Ip, Llc | Image capture and identification system and process |
US8218873B2 (en) * | 2000-11-06 | 2012-07-10 | Nant Holdings Ip, Llc | Object information derived from object images |
US7680324B2 (en) | 2000-11-06 | 2010-03-16 | Evryx Technologies, Inc. | Use of image-derived information as search criteria for internet and other search engines |
US7003061B2 (en) * | 2000-12-21 | 2006-02-21 | Adobe Systems Incorporated | Image extraction from complex scenes in digital video |
US20020131643A1 (en) * | 2001-03-13 | 2002-09-19 | Fels Sol Sidney | Local positioning system |
AU2002318859B2 (en) * | 2001-12-19 | 2004-11-25 | Canon Kabushiki Kaisha | A Method for Video Object Detection and Tracking Based on 3D Segment Displacement |
US7179171B2 (en) * | 2002-06-24 | 2007-02-20 | Mitsubishi Electric Research Laboratories, Inc. | Fish breeding toy for cellular telephones |
US20040204127A1 (en) * | 2002-06-24 | 2004-10-14 | Forlines Clifton L. | Method for rendering with composited images on cellular telephones |
US7085420B2 (en) * | 2002-06-28 | 2006-08-01 | Microsoft Corporation | Text detection in continuous tone image segments |
US7072512B2 (en) * | 2002-07-23 | 2006-07-04 | Microsoft Corporation | Segmentation of digital video and images into continuous tone and palettized regions |
AU2003220946A1 (en) * | 2003-03-28 | 2004-10-25 | National Institute Of Information And Communications Technology, Independent Administrative Agency | Image processing method and image processing device |
US7203340B2 (en) * | 2003-09-03 | 2007-04-10 | National Research Council Of Canada | Second order change detection in video |
JP4461937B2 (ja) * | 2003-09-30 | 2010-05-12 | セイコーエプソン株式会社 | 低解像度の複数の画像に基づく高解像度の画像の生成 |
US6942152B1 (en) * | 2004-01-21 | 2005-09-13 | The Code Corporation | Versatile graphical code reader that is configured for efficient decoding |
US7907769B2 (en) | 2004-05-13 | 2011-03-15 | The Charles Stark Draper Laboratory, Inc. | Image-based methods for measuring global nuclear patterns as epigenetic markers of cell differentiation |
WO2006132650A2 (en) * | 2004-07-28 | 2006-12-14 | Sarnoff Corporation | Method and apparatus for improved video surveillance through classification of detected objects |
EP2602742A1 (en) * | 2004-07-30 | 2013-06-12 | Euclid Discoveries, LLC | Apparatus and method for processing video data |
US7508990B2 (en) * | 2004-07-30 | 2009-03-24 | Euclid Discoveries, Llc | Apparatus and method for processing video data |
US9532069B2 (en) | 2004-07-30 | 2016-12-27 | Euclid Discoveries, Llc | Video compression repository and model reuse |
US8902971B2 (en) | 2004-07-30 | 2014-12-02 | Euclid Discoveries, Llc | Video compression repository and model reuse |
US9578345B2 (en) | 2005-03-31 | 2017-02-21 | Euclid Discoveries, Llc | Model-based video encoding and decoding |
US9743078B2 (en) | 2004-07-30 | 2017-08-22 | Euclid Discoveries, Llc | Standards-compliant model-based video encoding and decoding |
US7457435B2 (en) * | 2004-11-17 | 2008-11-25 | Euclid Discoveries, Llc | Apparatus and method for processing video data |
US7436981B2 (en) * | 2005-01-28 | 2008-10-14 | Euclid Discoveries, Llc | Apparatus and method for processing video data |
US7457472B2 (en) * | 2005-03-31 | 2008-11-25 | Euclid Discoveries, Llc | Apparatus and method for processing video data |
WO2006034308A2 (en) * | 2004-09-21 | 2006-03-30 | Euclid Discoveries, Llc | Apparatus and method for processing video data |
EP1815397A4 (en) * | 2004-11-17 | 2012-03-28 | Euclid Discoveries Llc | DEVICE AND METHOD FOR PROCESSING VIDEO DATA |
US7227551B2 (en) * | 2004-12-23 | 2007-06-05 | Apple Inc. | Manipulating text and graphic appearance |
TWI256232B (en) * | 2004-12-31 | 2006-06-01 | Chi Mei Comm Systems Inc | Mobile communication device capable of changing man-machine interface |
FR2880717A1 (fr) * | 2005-01-07 | 2006-07-14 | Thomson Licensing Sa | Procede de segmentation spatio-temporelle d'une image video |
CN101151640B (zh) * | 2005-01-28 | 2010-12-08 | 欧几里得发现有限责任公司 | 用来处理视频数据的装置和方法 |
US8942283B2 (en) * | 2005-03-31 | 2015-01-27 | Euclid Discoveries, Llc | Feature-based hybrid video codec comparing compression efficiency of encodings |
CA2590869C (en) * | 2005-03-31 | 2014-01-21 | Euclid Discoveries, Llc | Apparatus and method for processing video data |
US8908766B2 (en) * | 2005-03-31 | 2014-12-09 | Euclid Discoveries, Llc | Computer method and apparatus for processing image data |
US20070011718A1 (en) * | 2005-07-08 | 2007-01-11 | Nee Patrick W Jr | Efficient customized media creation through pre-encoding of common elements |
US7957466B2 (en) | 2005-09-16 | 2011-06-07 | Sony Corporation | Adaptive area of influence filter for moving object boundaries |
US7894522B2 (en) | 2005-09-16 | 2011-02-22 | Sony Corporation | Classified filtering for temporal prediction |
US7894527B2 (en) | 2005-09-16 | 2011-02-22 | Sony Corporation | Multi-stage linked process for adaptive motion vector sampling in video compression |
US7596243B2 (en) | 2005-09-16 | 2009-09-29 | Sony Corporation | Extracting a moving object boundary |
US8107748B2 (en) | 2005-09-16 | 2012-01-31 | Sony Corporation | Adaptive motion search range |
US8165205B2 (en) * | 2005-09-16 | 2012-04-24 | Sony Corporation | Natural shaped regions for motion compensation |
US8005308B2 (en) | 2005-09-16 | 2011-08-23 | Sony Corporation | Adaptive motion estimation for temporal prediction filter over irregular motion vector samples |
US7885335B2 (en) | 2005-09-16 | 2011-02-08 | Sont Corporation | Variable shape motion estimation in video sequence |
US7620108B2 (en) | 2005-09-16 | 2009-11-17 | Sony Corporation | Integrated spatial-temporal prediction |
US8059719B2 (en) * | 2005-09-16 | 2011-11-15 | Sony Corporation | Adaptive area of influence filter |
US7835542B2 (en) * | 2005-12-29 | 2010-11-16 | Industrial Technology Research Institute | Object tracking systems and methods utilizing compressed-domain motion-based segmentation |
WO2008091484A2 (en) | 2007-01-23 | 2008-07-31 | Euclid Discoveries, Llc | Object archival systems and methods |
US7783118B2 (en) * | 2006-07-13 | 2010-08-24 | Seiko Epson Corporation | Method and apparatus for determining motion in images |
US7835544B2 (en) * | 2006-08-31 | 2010-11-16 | Avago Technologies General Ip (Singapore) Pte. Ltd. | Method and system for far field image absolute navigation sensing |
US8036423B2 (en) * | 2006-10-11 | 2011-10-11 | Avago Technologies General Ip (Singapore) Pte. Ltd. | Contrast-based technique to reduce artifacts in wavelength-encoded images |
KR101356734B1 (ko) * | 2007-01-03 | 2014-02-05 | 삼성전자주식회사 | 움직임 벡터 트랙킹을 이용한 영상의 부호화, 복호화 방법및 장치 |
CN101573982B (zh) * | 2006-11-03 | 2011-08-03 | 三星电子株式会社 | 利用运动矢量跟踪编码/解码图像的方法和装置 |
CN102685441A (zh) * | 2007-01-23 | 2012-09-19 | 欧几里得发现有限责任公司 | 用于提供个人视频服务的系统和方法 |
ES2522589T3 (es) | 2007-02-08 | 2014-11-17 | Behavioral Recognition Systems, Inc. | Sistema de reconocimiento conductual |
US7929762B2 (en) * | 2007-03-12 | 2011-04-19 | Jeffrey Kimball Tidd | Determining edgeless areas in a digital image |
JP2008234518A (ja) * | 2007-03-23 | 2008-10-02 | Oki Electric Ind Co Ltd | 画像合成装置および画像合成プログラム |
US7756296B2 (en) * | 2007-03-27 | 2010-07-13 | Mitsubishi Electric Research Laboratories, Inc. | Method for tracking objects in videos using forward and backward tracking |
US8798148B2 (en) * | 2007-06-15 | 2014-08-05 | Physical Optics Corporation | Apparatus and method employing pre-ATR-based real-time compression and video frame segmentation |
US8171030B2 (en) | 2007-06-18 | 2012-05-01 | Zeitera, Llc | Method and apparatus for multi-dimensional content search and video identification |
US8189905B2 (en) | 2007-07-11 | 2012-05-29 | Behavioral Recognition Systems, Inc. | Cognitive model for a machine-learning engine in a video analysis system |
US7899804B2 (en) * | 2007-08-30 | 2011-03-01 | Yahoo! Inc. | Automatic extraction of semantics from text information |
US8175333B2 (en) * | 2007-09-27 | 2012-05-08 | Behavioral Recognition Systems, Inc. | Estimator identifier component for behavioral recognition system |
US8200011B2 (en) | 2007-09-27 | 2012-06-12 | Behavioral Recognition Systems, Inc. | Context processor for video analysis system |
US8300924B2 (en) * | 2007-09-27 | 2012-10-30 | Behavioral Recognition Systems, Inc. | Tracker component for behavioral recognition system |
US7983487B2 (en) * | 2007-11-07 | 2011-07-19 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for locating and picking objects using active illumination |
US8570393B2 (en) * | 2007-11-30 | 2013-10-29 | Cognex Corporation | System and method for processing image data relative to a focus of attention within the overall image |
US20100296572A1 (en) * | 2007-12-11 | 2010-11-25 | Kumar Ramaswamy | Methods and systems for transcoding within the distributiion chain |
US8718363B2 (en) | 2008-01-16 | 2014-05-06 | The Charles Stark Draper Laboratory, Inc. | Systems and methods for analyzing image data using adaptive neighborhooding |
US8737703B2 (en) | 2008-01-16 | 2014-05-27 | The Charles Stark Draper Laboratory, Inc. | Systems and methods for detecting retinal abnormalities |
US8208552B2 (en) * | 2008-01-25 | 2012-06-26 | Mediatek Inc. | Method, video encoder, and integrated circuit for detecting non-rigid body motion |
US8086037B2 (en) * | 2008-02-15 | 2011-12-27 | Microsoft Corporation | Tiling and merging framework for segmenting large images |
US8121409B2 (en) | 2008-02-26 | 2012-02-21 | Cyberlink Corp. | Method for handling static text and logos in stabilized images |
US9251423B2 (en) * | 2008-03-21 | 2016-02-02 | Intel Corporation | Estimating motion of an event captured using a digital video camera |
US9256789B2 (en) * | 2008-03-21 | 2016-02-09 | Intel Corporation | Estimating motion of an event captured using a digital video camera |
US8917904B2 (en) | 2008-04-24 | 2014-12-23 | GM Global Technology Operations LLC | Vehicle clear path detection |
US8803966B2 (en) | 2008-04-24 | 2014-08-12 | GM Global Technology Operations LLC | Clear path detection using an example-based approach |
US8249366B2 (en) * | 2008-06-16 | 2012-08-21 | Microsoft Corporation | Multi-label multi-instance learning for image classification |
US9633275B2 (en) | 2008-09-11 | 2017-04-25 | Wesley Kenneth Cobb | Pixel-level based micro-feature extraction |
US9373055B2 (en) * | 2008-12-16 | 2016-06-21 | Behavioral Recognition Systems, Inc. | Hierarchical sudden illumination change detection using radiance consistency within a spatial neighborhood |
US8611590B2 (en) | 2008-12-23 | 2013-12-17 | Canon Kabushiki Kaisha | Video object fragmentation detection and management |
US9189670B2 (en) * | 2009-02-11 | 2015-11-17 | Cognex Corporation | System and method for capturing and detecting symbology features and parameters |
US8285046B2 (en) * | 2009-02-18 | 2012-10-09 | Behavioral Recognition Systems, Inc. | Adaptive update of background pixel thresholds using sudden illumination change detection |
US8605942B2 (en) * | 2009-02-26 | 2013-12-10 | Nikon Corporation | Subject tracking apparatus, imaging apparatus and subject tracking method |
US8175376B2 (en) * | 2009-03-09 | 2012-05-08 | Xerox Corporation | Framework for image thumbnailing based on visual similarity |
US8537219B2 (en) * | 2009-03-19 | 2013-09-17 | International Business Machines Corporation | Identifying spatial locations of events within video image data |
US8553778B2 (en) | 2009-03-19 | 2013-10-08 | International Business Machines Corporation | Coding scheme for identifying spatial locations of events within video image data |
US8411319B2 (en) * | 2009-03-30 | 2013-04-02 | Sharp Laboratories Of America, Inc. | Methods and systems for concurrent rendering of graphic-list elements |
US8416296B2 (en) * | 2009-04-14 | 2013-04-09 | Behavioral Recognition Systems, Inc. | Mapper component for multiple art networks in a video analysis system |
GB0907870D0 (en) * | 2009-05-07 | 2009-06-24 | Univ Catholique Louvain | Systems and methods for the autonomous production of videos from multi-sensored data |
US8442309B2 (en) * | 2009-06-04 | 2013-05-14 | Honda Motor Co., Ltd. | Semantic scene segmentation using random multinomial logit (RML) |
JP5335574B2 (ja) * | 2009-06-18 | 2013-11-06 | キヤノン株式会社 | 画像処理装置及びその制御方法 |
JP2011040993A (ja) * | 2009-08-11 | 2011-02-24 | Nikon Corp | 被写体追尾プログラム、およびカメラ |
US8280153B2 (en) * | 2009-08-18 | 2012-10-02 | Behavioral Recognition Systems | Visualizing and updating learned trajectories in video surveillance systems |
US8358834B2 (en) | 2009-08-18 | 2013-01-22 | Behavioral Recognition Systems | Background model for complex and dynamic scenes |
US20110043689A1 (en) * | 2009-08-18 | 2011-02-24 | Wesley Kenneth Cobb | Field-of-view change detection |
US8340352B2 (en) * | 2009-08-18 | 2012-12-25 | Behavioral Recognition Systems, Inc. | Inter-trajectory anomaly detection using adaptive voting experts in a video surveillance system |
US8493409B2 (en) * | 2009-08-18 | 2013-07-23 | Behavioral Recognition Systems, Inc. | Visualizing and updating sequences and segments in a video surveillance system |
US9805271B2 (en) | 2009-08-18 | 2017-10-31 | Omni Ai, Inc. | Scene preset identification using quadtree decomposition analysis |
US8379085B2 (en) * | 2009-08-18 | 2013-02-19 | Behavioral Recognition Systems, Inc. | Intra-trajectory anomaly detection using adaptive voting experts in a video surveillance system |
US8625884B2 (en) * | 2009-08-18 | 2014-01-07 | Behavioral Recognition Systems, Inc. | Visualizing and updating learned event maps in surveillance systems |
US8295591B2 (en) * | 2009-08-18 | 2012-10-23 | Behavioral Recognition Systems, Inc. | Adaptive voting experts for incremental segmentation of sequences with prediction in a video surveillance system |
US8270732B2 (en) * | 2009-08-31 | 2012-09-18 | Behavioral Recognition Systems, Inc. | Clustering nodes in a self-organizing map using an adaptive resonance theory network |
US8285060B2 (en) * | 2009-08-31 | 2012-10-09 | Behavioral Recognition Systems, Inc. | Detecting anomalous trajectories in a video surveillance system |
US8167430B2 (en) * | 2009-08-31 | 2012-05-01 | Behavioral Recognition Systems, Inc. | Unsupervised learning of temporal anomalies for a video surveillance system |
US8786702B2 (en) | 2009-08-31 | 2014-07-22 | Behavioral Recognition Systems, Inc. | Visualizing and updating long-term memory percepts in a video surveillance system |
US8797405B2 (en) * | 2009-08-31 | 2014-08-05 | Behavioral Recognition Systems, Inc. | Visualizing and updating classifications in a video surveillance system |
US8270733B2 (en) * | 2009-08-31 | 2012-09-18 | Behavioral Recognition Systems, Inc. | Identifying anomalous object types during classification |
US8218818B2 (en) * | 2009-09-01 | 2012-07-10 | Behavioral Recognition Systems, Inc. | Foreground object tracking |
US8218819B2 (en) * | 2009-09-01 | 2012-07-10 | Behavioral Recognition Systems, Inc. | Foreground object detection in a video surveillance system |
US8180105B2 (en) * | 2009-09-17 | 2012-05-15 | Behavioral Recognition Systems, Inc. | Classifier anomalies for observed behaviors in a video surveillance system |
US8170283B2 (en) * | 2009-09-17 | 2012-05-01 | Behavioral Recognition Systems Inc. | Video surveillance system configured to analyze complex behaviors using alternating layers of clustering and sequencing |
US9607202B2 (en) * | 2009-12-17 | 2017-03-28 | University of Pittsburgh—of the Commonwealth System of Higher Education | Methods of generating trophectoderm and neurectoderm from human embryonic stem cells |
US8179370B1 (en) | 2010-02-09 | 2012-05-15 | Google Inc. | Proximity based keystroke resolution |
US8830182B1 (en) | 2010-02-09 | 2014-09-09 | Google Inc. | Keystroke resolution |
US8406472B2 (en) * | 2010-03-16 | 2013-03-26 | Sony Corporation | Method and system for processing image data |
US9053562B1 (en) * | 2010-06-24 | 2015-06-09 | Gregory S. Rabin | Two dimensional to three dimensional moving image converter |
US9132352B1 (en) | 2010-06-24 | 2015-09-15 | Gregory S. Rabin | Interactive system and method for rendering an object |
US8751872B2 (en) | 2011-05-27 | 2014-06-10 | Microsoft Corporation | Separation of error information from error propagation information |
CN103106648B (zh) * | 2011-11-11 | 2016-04-06 | 株式会社理光 | 确定图像中投影区域的方法和设备 |
WO2013138700A1 (en) | 2012-03-15 | 2013-09-19 | Behavioral Recognition Systems, Inc. | Alert volume normalization in a video surveillance system |
KR20150029006A (ko) | 2012-06-29 | 2015-03-17 | 비헤이버럴 레코그니션 시스템즈, 인코포레이티드 | 비디오 감시 시스템을 위한 피처 이례들의 무감독 학습 |
US9911043B2 (en) | 2012-06-29 | 2018-03-06 | Omni Ai, Inc. | Anomalous object interaction detection and reporting |
US9111353B2 (en) | 2012-06-29 | 2015-08-18 | Behavioral Recognition Systems, Inc. | Adaptive illuminance filter in a video analysis system |
US9113143B2 (en) | 2012-06-29 | 2015-08-18 | Behavioral Recognition Systems, Inc. | Detecting and responding to an out-of-focus camera in a video analytics system |
US9317908B2 (en) | 2012-06-29 | 2016-04-19 | Behavioral Recognition System, Inc. | Automatic gain control filter in a video analysis system |
US9723271B2 (en) | 2012-06-29 | 2017-08-01 | Omni Ai, Inc. | Anomalous stationary object detection and reporting |
BR112015003444A2 (pt) | 2012-08-20 | 2017-07-04 | Behavioral Recognition Sys Inc | método e sistema para detectar óleo em superfície de mar |
DE102012020778B4 (de) | 2012-10-23 | 2018-01-18 | Audi Ag | Verfahren zum Labeln einer Sequenz von in zeitlicher Abfolge aufgenommenen Bildern mit integrierter Qualitätsprüfung |
KR20150084939A (ko) | 2012-11-12 | 2015-07-22 | 비헤이버럴 레코그니션 시스템즈, 인코포레이티드 | 비디오 감시 시스템들에 대한 이미지 안정화 기술들 |
BR112016002281A2 (pt) | 2013-08-09 | 2017-08-01 | Behavioral Recognition Sys Inc | segurança de informação cognitiva usando um sistema de reconhecimento de comportamento |
US10091507B2 (en) | 2014-03-10 | 2018-10-02 | Euclid Discoveries, Llc | Perceptual optimization for model-based video encoding |
US9621917B2 (en) | 2014-03-10 | 2017-04-11 | Euclid Discoveries, Llc | Continuous block tracking for temporal prediction in video encoding |
US10097851B2 (en) | 2014-03-10 | 2018-10-09 | Euclid Discoveries, Llc | Perceptual optimization for model-based video encoding |
CN105321188A (zh) * | 2014-08-04 | 2016-02-10 | 江南大学 | 基于前景概率的目标跟踪方法 |
US10409910B2 (en) | 2014-12-12 | 2019-09-10 | Omni Ai, Inc. | Perceptual associative memory for a neuro-linguistic behavior recognition system |
US10409909B2 (en) | 2014-12-12 | 2019-09-10 | Omni Ai, Inc. | Lexical analyzer for a neuro-linguistic behavior recognition system |
US10019657B2 (en) * | 2015-05-28 | 2018-07-10 | Adobe Systems Incorporated | Joint depth estimation and semantic segmentation from a single image |
US10346996B2 (en) | 2015-08-21 | 2019-07-09 | Adobe Inc. | Image depth inference from semantic labels |
KR101709085B1 (ko) * | 2015-12-16 | 2017-02-23 | 서강대학교산학협력단 | 컨볼루션 신경망을 이용한 샷 경계 검출 방법 및 장치 |
US10229324B2 (en) * | 2015-12-24 | 2019-03-12 | Intel Corporation | Video summarization using semantic information |
US10853661B2 (en) | 2016-04-06 | 2020-12-01 | Intellective Ai, Inc. | Methods and systems for optimized selection of data features for a neuro-linguistic cognitive artificial intelligence system |
US10303984B2 (en) | 2016-05-17 | 2019-05-28 | Intel Corporation | Visual search and retrieval using semantic information |
US10313686B2 (en) * | 2016-09-20 | 2019-06-04 | Gopro, Inc. | Apparatus and methods for compressing video content using adaptive projection selection |
US10134154B2 (en) | 2016-12-30 | 2018-11-20 | Google Llc | Selective dynamic color management for user interface components of a media player |
WO2019093993A1 (en) * | 2017-11-07 | 2019-05-16 | Google Llc | Semantic state based sensor tracking and updating |
US20200226763A1 (en) * | 2019-01-13 | 2020-07-16 | Augentix Inc. | Object Detection Method and Computing System Thereof |
CN110751066B (zh) * | 2019-09-30 | 2023-04-07 | 武汉工程大学 | 一种基于语义分割模型的图像状态识别方法、装置和设备 |
US10970855B1 (en) | 2020-03-05 | 2021-04-06 | International Business Machines Corporation | Memory-efficient video tracking in real-time using direction vectors |
WO2022154342A1 (en) * | 2021-01-12 | 2022-07-21 | Samsung Electronics Co., Ltd. | Methods and electronic device for processing image |
WO2022271517A1 (en) * | 2021-06-23 | 2022-12-29 | Op Solutions, Llc | Systems and methods for organizing and searching a video database |
Family Cites Families (92)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0766446B2 (ja) | 1985-11-27 | 1995-07-19 | 株式会社日立製作所 | 移動物体像を抽出する方法 |
US5136659A (en) | 1987-06-30 | 1992-08-04 | Kokusai Denshin Denwa Kabushiki Kaisha | Intelligent coding system for picture signal |
US5043919A (en) * | 1988-12-19 | 1991-08-27 | International Business Machines Corporation | Method of and system for updating a display unit |
US5034986A (en) | 1989-03-01 | 1991-07-23 | Siemens Aktiengesellschaft | Method for detecting and tracking moving objects in a digital image sequence having a stationary background |
US5175808A (en) | 1989-09-12 | 1992-12-29 | Pixar | Method and apparatus for non-affine image warping |
JP2953712B2 (ja) | 1989-09-27 | 1999-09-27 | 株式会社東芝 | 移動物体検知装置 |
GB9001468D0 (en) | 1990-01-23 | 1990-03-21 | Sarnoff David Res Center | Computing multiple motions within an image region |
JP2569219B2 (ja) | 1990-01-31 | 1997-01-08 | 富士通株式会社 | 動画像予測方式 |
US5148497A (en) | 1990-02-14 | 1992-09-15 | Massachusetts Institute Of Technology | Fractal-based image compression and interpolation |
JPH082107B2 (ja) | 1990-03-02 | 1996-01-10 | 国際電信電話株式会社 | 動画像のハイブリッド符号化方法及びその装置 |
US5103306A (en) | 1990-03-28 | 1992-04-07 | Transitions Research Corporation | Digital image compression employing a resolution gradient |
JP3037383B2 (ja) | 1990-09-03 | 2000-04-24 | キヤノン株式会社 | 画像処理システム及びその方法 |
GB9019538D0 (en) | 1990-09-07 | 1990-10-24 | Philips Electronic Associated | Tracking a moving object |
US5266941A (en) * | 1991-02-15 | 1993-11-30 | Silicon Graphics, Inc. | Apparatus and method for controlling storage of display information in a computer system |
JPH04334188A (ja) | 1991-05-08 | 1992-11-20 | Nec Corp | 動画像信号の符号化方式 |
AU660020B2 (en) * | 1991-05-24 | 1995-06-08 | British Broadcasting Corporation, The | Video image processing |
JP2873338B2 (ja) | 1991-09-17 | 1999-03-24 | 富士通株式会社 | 動物体認識装置 |
JP2856229B2 (ja) | 1991-09-18 | 1999-02-10 | 財団法人ニューメディア開発協会 | 画像切り出し箇所検出方法 |
US5259040A (en) | 1991-10-04 | 1993-11-02 | David Sarnoff Research Center, Inc. | Method for determining sensor motion and scene structure and image processing system therefor |
JP2790562B2 (ja) | 1992-01-06 | 1998-08-27 | 富士写真フイルム株式会社 | 画像処理方法 |
JP3068304B2 (ja) | 1992-01-21 | 2000-07-24 | 日本電気株式会社 | 動画像符号化方式および復号化方式 |
EP0560610B1 (en) | 1992-03-13 | 1998-12-09 | Canon Kabushiki Kaisha | Movement vector detecting apparatus |
US5809161A (en) | 1992-03-20 | 1998-09-15 | Commonwealth Scientific And Industrial Research Organisation | Vehicle monitoring system |
US5706417A (en) | 1992-05-27 | 1998-01-06 | Massachusetts Institute Of Technology | Layered representation for image coding |
GB9215102D0 (en) | 1992-07-16 | 1992-08-26 | Philips Electronics Uk Ltd | Tracking moving objects |
EP0584559A3 (en) | 1992-08-21 | 1994-06-22 | United Parcel Service Inc | Method and apparatus for finding areas of interest in images |
JPH06113287A (ja) | 1992-09-30 | 1994-04-22 | Matsushita Electric Ind Co Ltd | 画像符号化装置と画像復号化装置 |
US5592228A (en) | 1993-03-04 | 1997-01-07 | Kabushiki Kaisha Toshiba | Video encoder using global motion estimation and polygonal patch motion estimation |
JP3679426B2 (ja) | 1993-03-15 | 2005-08-03 | マサチューセッツ・インスティチュート・オブ・テクノロジー | 画像データを符号化して夫々がコヒーレントな動きの領域を表わす複数の層とそれら層に付随する動きパラメータとにするシステム |
EP0627693B1 (fr) | 1993-05-05 | 2004-11-17 | Koninklijke Philips Electronics N.V. | Dispositif de segmentation d'images composées de textures |
US5329311A (en) | 1993-05-11 | 1994-07-12 | The University Of British Columbia | System for determining noise content of a video signal in the disclosure |
DE69416717T2 (de) | 1993-05-21 | 1999-10-07 | Nippon Telegraph & Telephone | Bewegtbildkoder und -dekoder |
US5517327A (en) * | 1993-06-30 | 1996-05-14 | Minolta Camera Kabushiki Kaisha | Data processor for image data using orthogonal transformation |
JP2576771B2 (ja) | 1993-09-28 | 1997-01-29 | 日本電気株式会社 | 動き補償予測装置 |
WO1995010915A1 (en) * | 1993-10-12 | 1995-04-20 | Orad, Inc. | Sports event video |
US5434927A (en) * | 1993-12-08 | 1995-07-18 | Minnesota Mining And Manufacturing Company | Method and apparatus for machine vision classification and tracking |
US5586200A (en) * | 1994-01-07 | 1996-12-17 | Panasonic Technologies, Inc. | Segmentation based image compression system |
JPH07299053A (ja) | 1994-04-29 | 1995-11-14 | Arch Dev Corp | コンピュータ診断支援方法 |
US5594504A (en) * | 1994-07-06 | 1997-01-14 | Lucent Technologies Inc. | Predictive video coding using a motion vector updating routine |
JP2870415B2 (ja) | 1994-08-22 | 1999-03-17 | 日本電気株式会社 | 領域分割方法および装置 |
US5978497A (en) | 1994-09-20 | 1999-11-02 | Neopath, Inc. | Apparatus for the identification of free-lying cells |
EP0709809B1 (en) | 1994-10-28 | 2002-01-23 | Oki Electric Industry Company, Limited | Image encoding and decoding method and apparatus using edge synthesis and inverse wavelet transform |
EP0720383B1 (en) | 1994-12-30 | 2000-09-13 | Daewoo Electronics Co., Ltd | Method and apparatus for detecting motion vectors in a frame decimating video encoder |
KR0171146B1 (ko) | 1995-03-18 | 1999-03-20 | 배순훈 | 특징점을 이용한 움직임 벡터 검출 장치 |
KR0171118B1 (ko) | 1995-03-20 | 1999-03-20 | 배순훈 | 비디오신호 부호화 장치 |
KR0171147B1 (ko) | 1995-03-20 | 1999-03-20 | 배순훈 | 그레디언트 변화를 이용한 특징점 선정장치 |
KR0171143B1 (ko) | 1995-03-20 | 1999-03-20 | 배순훈 | 육각그리드에서의 삼각구조 형성 장치 |
JP3612360B2 (ja) | 1995-04-10 | 2005-01-19 | 株式会社大宇エレクトロニクス | 移動物体分割法を用いた動画像の動き推定方法 |
KR0181063B1 (ko) | 1995-04-29 | 1999-05-01 | 배순훈 | 특징점을 이용한 움직임 보상에서의 그리드 형성방법 및 장치 |
KR0171154B1 (ko) | 1995-04-29 | 1999-03-20 | 배순훈 | 특징점 기반 움직임 추정을 이용하여 비디오 신호를 부호화하는 방법 및 장치 |
US5654771A (en) | 1995-05-23 | 1997-08-05 | The University Of Rochester | Video compression system using a dense motion vector field and a triangular patch mesh overlay model |
US5717463A (en) | 1995-07-24 | 1998-02-10 | Motorola, Inc. | Method and system for estimating motion within a video sequence |
US5668608A (en) | 1995-07-26 | 1997-09-16 | Daewoo Electronics Co., Ltd. | Motion vector estimation method and apparatus for use in an image signal encoding system |
JPH10507331A (ja) | 1995-08-02 | 1998-07-14 | フィリップス エレクトロニクス ネムローゼ フェンノートシャップ | 画像シーケンスを符号化し、符号化した信号を記憶媒体に対応させる方法およびシステムと、このような符号化信号を復号化する方法およびシステム |
KR0178229B1 (ko) | 1995-08-08 | 1999-05-01 | 배순훈 | 특징점에 근거한 화소단위 움직임 추정을 이용한 영상 처리 장치 |
KR100304660B1 (ko) * | 1995-09-22 | 2001-11-22 | 윤종용 | 누적에러처리를통한비디오신호부호화방법및부호화기 |
US5796855A (en) | 1995-10-05 | 1998-08-18 | Microsoft Corporation | Polygon block matching method |
DE69633129T2 (de) * | 1995-10-25 | 2005-08-04 | Sarnoff Corp. | Waveletbaum-bildcoder mit überlappenden bildblöcken |
US5802220A (en) | 1995-12-15 | 1998-09-01 | Xerox Corporation | Apparatus and method for tracking facial motion through a sequence of images |
US5692063A (en) | 1996-01-19 | 1997-11-25 | Microsoft Corporation | Method and system for unrestricted motion estimation for video |
US6957350B1 (en) * | 1996-01-30 | 2005-10-18 | Dolby Laboratories Licensing Corporation | Encrypted and watermarked temporal and resolution layering in advanced television |
US5764814A (en) | 1996-03-22 | 1998-06-09 | Microsoft Corporation | Representation and encoding of general arbitrary shapes |
US5778098A (en) | 1996-03-22 | 1998-07-07 | Microsoft Corporation | Sprite coding |
US6037988A (en) | 1996-03-22 | 2000-03-14 | Microsoft Corp | Method for generating sprites for object-based coding sytems using masks and rounding average |
US5982909A (en) * | 1996-04-23 | 1999-11-09 | Eastman Kodak Company | Method for region tracking in an image sequence using a two-dimensional mesh |
EP0831422B1 (en) | 1996-09-20 | 2007-11-14 | Hitachi, Ltd. | Method of displaying moving object for enabling identification of its moving route, display system using the same, and program recording medium therefor |
US6075875A (en) | 1996-09-30 | 2000-06-13 | Microsoft Corporation | Segmentation of image features using hierarchical analysis of multi-valued image data and weighted averaging of segmentation results |
US5748789A (en) | 1996-10-31 | 1998-05-05 | Microsoft Corporation | Transparent block skipping in object-based video coding systems |
US5864630A (en) * | 1996-11-20 | 1999-01-26 | At&T Corp | Multi-modal method for locating objects in images |
US5912991A (en) * | 1997-02-07 | 1999-06-15 | Samsung Electronics Co., Ltd. | Contour encoding method using error bands |
US6421738B1 (en) * | 1997-07-15 | 2002-07-16 | Microsoft Corporation | Method and system for capturing and encoding full-screen video graphics |
US6167155A (en) * | 1997-07-28 | 2000-12-26 | Physical Optics Corporation | Method of isomorphic singular manifold projection and still/video imagery compression |
US6188777B1 (en) * | 1997-08-01 | 2001-02-13 | Interval Research Corporation | Method and apparatus for personnel detection and tracking |
US6097854A (en) * | 1997-08-01 | 2000-08-01 | Microsoft Corporation | Image mosaic construction system and apparatus with patch-based alignment, global block adjustment and pair-wise motion-based local warping |
US5946043A (en) | 1997-12-31 | 1999-08-31 | Microsoft Corporation | Video coding using adaptive coding of block parameters for coded/uncoded blocks |
US6226407B1 (en) * | 1998-03-18 | 2001-05-01 | Microsoft Corporation | Method and apparatus for analyzing computer screens |
US6400831B2 (en) * | 1998-04-02 | 2002-06-04 | Microsoft Corporation | Semantic video object segmentation and tracking |
US6711278B1 (en) * | 1998-09-10 | 2004-03-23 | Microsoft Corporation | Tracking semantic objects in vector image sequences |
US6721454B1 (en) * | 1998-10-09 | 2004-04-13 | Sharp Laboratories Of America, Inc. | Method for automatic extraction of semantically significant events from video |
US6573915B1 (en) * | 1999-12-08 | 2003-06-03 | International Business Machines Corporation | Efficient capture of computer screens |
US6654419B1 (en) * | 2000-04-28 | 2003-11-25 | Sun Microsystems, Inc. | Block-based, adaptive, lossless video coder |
US6650705B1 (en) * | 2000-05-26 | 2003-11-18 | Mitsubishi Electric Research Laboratories Inc. | Method for encoding and transcoding multiple video objects with variable temporal resolution |
CA2421111A1 (en) * | 2000-08-31 | 2002-03-07 | Rytec Corporation | Sensor and imaging system |
US6959104B2 (en) * | 2001-02-05 | 2005-10-25 | National Instruments Corporation | System and method for scanning a region using a low discrepancy sequence |
US6870945B2 (en) * | 2001-06-04 | 2005-03-22 | University Of Washington | Video object tracking by estimating and subtracting background |
US20030072479A1 (en) * | 2001-09-17 | 2003-04-17 | Virtualscopics | System and method for quantitative assessment of cancers and their change over time |
GB0122601D0 (en) * | 2001-09-19 | 2001-11-07 | Imp College Innovations Ltd | Manipulation of image data |
US6904159B2 (en) * | 2001-12-20 | 2005-06-07 | Mitsubishi Electric Research Laboratories, Inc. | Identifying moving objects in a video using volume growing and change detection masks |
US7046827B2 (en) * | 2002-02-15 | 2006-05-16 | International Business Machines Corporation | Adapting point geometry for storing address density |
US6904759B2 (en) * | 2002-12-23 | 2005-06-14 | Carrier Corporation | Lubricant still and reservoir for refrigeration system |
US7764808B2 (en) * | 2003-03-24 | 2010-07-27 | Siemens Corporation | System and method for vehicle detection and tracking |
WO2005036456A2 (en) * | 2003-05-12 | 2005-04-21 | Princeton University | Method and apparatus for foreground segmentation of video sequences |
-
1998
- 1998-09-10 US US09/151,368 patent/US6711278B1/en not_active Expired - Lifetime
-
1999
- 1999-09-10 JP JP2000570977A patent/JP4074062B2/ja not_active Expired - Fee Related
- 1999-09-10 EP EP99948144A patent/EP1112661B1/en not_active Expired - Lifetime
- 1999-09-10 AT AT99948144T patent/ATE286337T1/de not_active IP Right Cessation
- 1999-09-10 WO PCT/US1999/020476 patent/WO2000016563A1/en active IP Right Grant
- 1999-09-10 EP EP04025956A patent/EP1519589A3/en not_active Withdrawn
- 1999-09-10 DE DE69922973T patent/DE69922973T2/de not_active Expired - Lifetime
-
2004
- 2004-01-28 US US10/767,135 patent/US7088845B2/en not_active Expired - Fee Related
-
2005
- 2005-06-29 US US11/171,448 patent/US7162055B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
WO2000016563A1 (en) | 2000-03-23 |
US20050240629A1 (en) | 2005-10-27 |
EP1519589A2 (en) | 2005-03-30 |
DE69922973T2 (de) | 2005-05-19 |
US7088845B2 (en) | 2006-08-08 |
US7162055B2 (en) | 2007-01-09 |
US6711278B1 (en) | 2004-03-23 |
EP1112661A1 (en) | 2001-07-04 |
US20040189863A1 (en) | 2004-09-30 |
DE69922973D1 (de) | 2005-02-03 |
JP2002525735A (ja) | 2002-08-13 |
EP1112661B1 (en) | 2004-12-29 |
ATE286337T1 (de) | 2005-01-15 |
EP1519589A3 (en) | 2010-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4074062B2 (ja) | ベクトル画像シーケンスにおける意味対象物の追跡 | |
JP4740657B2 (ja) | カラーセグメンテーションに基づくステレオ3次元再構成システムおよびプロセス | |
JP3679426B2 (ja) | 画像データを符号化して夫々がコヒーレントな動きの領域を表わす複数の層とそれら層に付随する動きパラメータとにするシステム | |
JP4954206B2 (ja) | ビデオオブジェクトのカットアンドペースト | |
EP1977395B1 (en) | Methods and systems for digitally re-mastering of 2d and 3d motion pictures for exhibition with enhanced visual quality | |
US9619897B2 (en) | Correction of blotches in component images | |
Zhang et al. | Robust bilayer segmentation and motion/depth estimation with a handheld camera | |
JP4777433B2 (ja) | ビデオ前景の分割方法 | |
KR101634562B1 (ko) | 저해상도 비디오로부터 고해상도 비디오를 생성하는 방법 | |
US8718387B1 (en) | Method and apparatus for enhanced stereo vision | |
CN101119442A (zh) | 基于全景图拼接的视频编辑方法 | |
Kottler et al. | 3GAN: A Three-GAN-based Approach for Image Inpainting Applied to the Reconstruction of Occluded Parts of Building Walls. | |
Giaccone et al. | Motion-compensated multichannel noise reduction of color film sequences | |
Hermans et al. | Augmented panoramic video | |
Aydin | RAW Bayer Domain Image Alignment | |
JP6216192B2 (ja) | 動き推定装置及びプログラム | |
Pohl et al. | Semi-Automatic 2D to 3D Video Conversion | |
Aydin et al. | Blotch Inpainting Based On Sift Feature Extraction in Old Films | |
Akhter et al. | Super-Trajectories: A Compact Yet Rich Video Representation | |
CN117641058A (zh) | 一种改进的基于AnimeInterp的光流图生成方法 | |
Tweed et al. | Moving Object Graphs and Layer Extraction from Image Sequences. | |
CN114972517A (zh) | 一种基于raft的自监督深度估计方法 | |
JPH11339044A (ja) | 3次元形状入力方法および3次元形状入力プログラムを記録した記録媒体 | |
Natarajan | Tracking of objects in spatiotemporal volume by graph-cuts | |
Borikar | Fast Algorithms For Fragment Based Completion In Images Of Natural Scenes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041029 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20041029 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20041029 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070803 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20071105 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20071112 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071203 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20071228 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080124 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110201 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 4074062 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120201 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130201 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130201 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140201 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |