JP4074062B2 - ベクトル画像シーケンスにおける意味対象物の追跡 - Google Patents

ベクトル画像シーケンスにおける意味対象物の追跡 Download PDF

Info

Publication number
JP4074062B2
JP4074062B2 JP2000570977A JP2000570977A JP4074062B2 JP 4074062 B2 JP4074062 B2 JP 4074062B2 JP 2000570977 A JP2000570977 A JP 2000570977A JP 2000570977 A JP2000570977 A JP 2000570977A JP 4074062 B2 JP4074062 B2 JP 4074062B2
Authority
JP
Japan
Prior art keywords
region
frame
image frame
semantic
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000570977A
Other languages
English (en)
Other versions
JP2002525735A5 (ja
JP2002525735A (ja
Inventor
グ チュアン
リー ミン−チェ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2002525735A publication Critical patent/JP2002525735A/ja
Publication of JP2002525735A5 publication Critical patent/JP2002525735A5/ja
Application granted granted Critical
Publication of JP4074062B2 publication Critical patent/JP4074062B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/543Motion estimation other than block-based using regions

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Description

【0001】
(発明の分野)
本発明は、ビデオデータの分析に関し、より詳細には、意味対象物(セマンティックオブジェクト)と呼ばれ、意味のある実在物がビデオシーケンスなどのベクトル画像シーケンスを通じ移動する際に、それらを追跡(トラッキング)する方法に関する。
【0002】
(発明の背景)
意味ビデオ対象物は、ボール、車、飛行機、ビル、細胞、目、唇、手、頭など、デジタルビデオクリップの有意な実在物を表す。このコンテキストでの「意味」という用語は、ビデオクリップの聴視者が、ある意味をその対象物(オブジェクト)に結び付けることを意味する。例えば、上に列挙した各対象物は、ある実世界の実在物を表し、ビューワは、これらの実在物に対応するスクリーンの部分を、それが描写する有意な対象物と関連付ける。意味ビデオ対象物は、コンテンツをベースとする通信、マルチメディア信号処理、デジタルビデオライブラリ、デジタル映画スタジオ、およびコンピュータの画面(vision)とパターンの認識を含む、様々な新しいデジタルビデオの応用分野で非常に有用である。意味ビデオ対象物をこれらの応用分野で使用するために、対象物の分割(セグメンテーション)と追跡の方法は、各ビデオフレームにおいて対象物を識別する必要がある。
【0003】
ビデオ対象物を分割するプロセスは、一般に、画像データ中の関係のある対象物を抽出する、自動化または半自動化された方法を指す。ビデオクリップから意味ビデオ対象物を抽出することは、依然として長年わたる挑戦的な課題である。典型的なビデオクリップでは、意味対象物は、断片的な構成要素と、異なる色、複数の剛体運動/非剛体運動とを含む。意味対象物は、聴視者が認識することは容易であるが、意味対象物の形、色、および運動が非常に多様であるために、このプロセスをコンピュータ上で自動化することは困難である。最初のフレームで意味対象物の最初の輪郭をユーザに描かせ、次いでその輪郭を使用して、そのフレームの対象物の部分である画素を計算させることによって、満足な結果を達成することができる。各連続フレームにおいて、運動の推定を使用して、先行フレームからの分割した対象物に基づいて、対象物の最初の境界を予測することができる。この半自動対象物分割追跡方法は、Chuang GuとMing Chieh LeeによるSemantic Video Object Segmentation and Trackingという名称の、同時継続中の米国特許出願第09/054,280号に記載されており、本明細書でも参考文献によって組み込まれている。
【0004】
対象物の追跡は、対象物がフレームからフレームに移動するときに、対象物の位置を計算するプロセスである。より一般的な意味ビデオ対象物に対処するために、対象物追跡方法は、断片的な構成要素と複数の非剛体運動を含んでいる対象物に対処することができなければならない。研究の大半は対象物追跡に費やされてきたが、現存の方法は、依然として、非剛体運動をする複数の構成要素を有する対象物を正確に追跡しない。
【0005】
追跡技術のいくつかは、基準として同一グレイスケール/カラー使用して、領域を追跡する。1992年5月、イタリア、サンタマルゲリータ、ECCV′92、pp.476〜484のF.MeyerとP.Bouthemyによる「Region−based tracking in an image sequence」、1995年6月、Proceeding of the IEEE、Vol.83、No.6、PP.843〜857のPh.Salembier、L.Torres、F.Meyer、C.Guによる「Region−based video coding using mathematical morphology」、1997年、2月、サンホゼ、VCIP′97、Vol.3024、No.1、pp.190〜199のF.MarquesとCristina Molinaによる「Object tracking for content−based functionalities」、および1997年10月、サンタバーバラ、ICIP′97、Vol.I、ページ113〜116のC.Toklu、A.Tekalp、A.Erdemによる「Simultaneous alpha map generation and 2−D mesh tracking for multimedia applications」を参照されたい。
【0006】
ある者は、同一運動情報を使用して、運動する対象物を追跡する。例えば、1994年9月、IEEE Trans.on Image Processing、 Vol.3、No.5.pp.625〜638のJ.WangとE.Adelsonによる「Representing moving images with layers」、および1996年9月、スイス、ローザンヌ、ICIP′96、Vol.I、pp.925〜928のN.BradyとN.O′Connorによる「Object detection and tracking using an em−based motion estimation and segmentaion framework」を参照されたい。
【0007】
他の者は、空間基準と時間基準の組合わせを使用して、対象物を追跡する。1992年5月、イタリア、サンタマルゲリータ、ECCV′92、pp.485〜493のM.J.Blackによる「Combining intesity and motion for incremental segmentation and tracking over long image sequences」、1995年、ニューヨーク、Plenum Press、Multimedia Communication and Video Coding、pp.233〜240のC.Gu、T.Ebrahimi、M.Kuntによる「Morphological moving object segmentation and tracking for content−based video coding」、1996年5月、GA、アトランタ、Proc.ICASSP′96、Vol.4、pp.1914〜1917のF.Moscheni、F.Dufaux、M.Kuntによる「Object tracking based on temporal、and spatial information」、および1997年、10月、サンタバーバラ、ICIP′97、Vol.II、ページ514〜517のC.GuとM.C.Leeによる「Semantic video object segmentation and tracking using mathematical morphology and perspective motion model」を参照されたい。
【0008】
これらの技術のほとんどは、先行する領域/対象物を現在のフレームに射影し、現在のフレームで射影された領域/対象物をなんとか組み立てる/調整する順方向追跡メカニズムを使用する。これらの順方向技術の主な欠点は、現在のフレームで射影領域を組み立てる/調整すること、または複数の非剛体運動に対処することが困難なことである。これらの場合の多くでは、不確定なホールが出現するか、または結果的に境界が歪む可能性がある。
【0009】
図1A〜Cは、対象物追跡に関連する困難を示す、意味ビデオ対象物の簡単な例を提供する。図1Aは、複数の色102、104を含んでいる建物100の意味ビデオ対象物を示す。対象物が同一の色を有すると仮定する方法は、これらの種類の対象物をうまく追跡しない。図1Bは、図1Aと同じ建物対象物を示すが、部分的に建物を遮っている木110によって断片的な構成要素106、108に分割されている点が異なる。対象物が画素の接続されたグループから形成されていると仮定する方法は、これらの種類の断片的な対象物をうまく追跡しない。最後に、図1Cは、人112を表す簡単な意味ビデオ対象物を示す。この簡単な対象物でさえ、異なる運動をする複数の構成要素114、116、118、120を有する。対象物は同一な運動を有すると仮定する方法は、これらの種類の対象物をうまく追跡しない。一般に、意味ビデオ対象物は、断片的な構成要素と、複数の色と、複数の運動と、任意の形状を有することが可能である。
【0010】
一般的な意味ビデオ対象物のこれらの属性を取り扱うことに加えて、追跡方法は、許容可能な正確さのレベルを達成し、エラーがフレームからフレームに伝搬することを回避しなければならない。通常、対象物追跡方法は、先行フレームの区分に基づいて各フレームを区切るので、先行フレームのエラーは、次のフレームに伝搬する傾向がある。追跡方法が、画素的な正確で対象物の境界を計算しない場合には、重大なエラーが次のフレームに伝搬する可能性がある。その結果、各フレームについて計算された対象物の境界は精密ではなく、いくつかのフレームを追跡した後、対象物が失われることがある。
【0011】
(発明の概要)
本発明は、ベクトル画像シーケンスにおいて、意味対象物を追跡する方法を提供する。本発明は、デジタルビデオクリップにおいて意味ビデオ対象物を追跡することに特に適しているが、様々な他のベクトル画像シーケンスに使用することもできる。この方法は、ソフトウエアプログラムのモジュールで実現されるが、デジタルハードウエア論理、またはハードウエア構成要素とソフトウエア構成要素の組合わせで実現することもできる。
【0012】
この方法は、フレームから領域を分割し、次いで分割した領域を、1つまたは複数の意味対象物の境界が既知である目標フレームに射影することによって、画像シーケンスにおいて意味対象物を追跡する。射影領域は、それが目標フレームの意味対象物と重複する程度を決定することによって、意味対象物の形成部分として分類される。例えば、通常の応用では、追跡方法は、各フレームに対し、意味対象物の境界が以前に計算されている先行フレームに領域を射影することによって領域を分類することを繰り返す。
【0013】
追跡方法は、意味対象物が、最初のフレームですでに識別されていると仮定する。意味対象物の最初の境界を得るために、意味対象物分割方法を使用して、最初のフレームにおいて意味対象物の境界を識別することが可能である。
【0014】
最初のフレームの後、追跡方法は、先行フレームの分割結果および現在と先行する画像フレームの分割結果に基づいて動作する。シーケンスの各フレームに対し、領域抽出処理(region extractor)は、同一領域をフレームから分割する。次いで、運動推定処理(motion estimator)で、これらの領域のそれぞれに対して領域をベースとする整合を実行し、先行フレームで最も密接に整合しているイメージの値の領域を識別する。このステップで得られた運動パラメータを使用して、分割境界がすでに計算されている先行フレームに、分割した領域を射影する。次いで、領域分類処理(region classification)は、射影された領域が先行フレームの意味対象物と重複する程度に基づいて、現在のフレームの意味対象物の部分として領域を分類する。
【0015】
上述の手法は、フレームの順序付けられたシーケンス上で動作する場合特に適している。これらの種類の応用では、先行フレームの分割結果を使用して、次のフレームから抽出した領域を分類する。しかし、入力フレームと、意味対象物の境界が既知である他の任意の目標フレームとの間で、意味対象物を追跡するために使用することもできる。
【0016】
方法のある実装では、独自の空間分割方法を使用する。特に、この空間分割方法は領域発生プロセスであり、このプロセスでは領域の点に対する最小のイメージの値と最大のイメージの値の差が閾値より小さい限り、イメージの点が領域に追加される。この方法は、シーケンシャル分割方法として実現され、ある開始点の第1領域で開始し、同じテストを用いて次々にシーケンシャル領域を形成して、イメージの点の同一グループを識別する。
【0017】
方法の実装は、追跡方法の正確さを改善する他の特徴を含む。例えば、追跡方法は、対象物の境界を不鮮明にせずに画像エラーを除去する領域ベースの前処理と、計算した意味対象物境界に関する後処理を含むことが好ましい。対象物の計算した境界は、目標フレームの同じ意味対象物に関連しているものとして分類された個々の領域から形成される。ある実装では、ポストプロセッサは、過半数オペレータフィルタを用いて、意味対象物の境界を円滑化する。このフィルタは、フレームの各点に対し近接するイメージの点を検査し、これらの点の最大数を含む意味対象物を決定する。次いで、その点を点の最大数を含んでいる意味対象物に割り当てる。
【0018】
本発明の他の利点および特徴は、以下の詳細な説明と添付の図によって明らかになるであろう。
【0019】
(詳細な説明)
意味対象物追跡システムの概要
以下のセクションで、意味対象物追跡方法について説明する。この方法は、最初のフレーム(I−フレーム)に対する意味対象物が既知であると仮定する。この方法の目的は、先行する意味区分画像と先行フレームからの情報に基づいて、現在のフレームで意味区分画像を見つけることにある。
【0020】
意味区分画像に関する基本的な観察は、区分画像の境界は、有意な実在物の物理的な縁部に位置するということにある。物理的な縁部は、2つの接続された点の間の位置であり、これらの点でのイメージの値(例えば、3色の色強度、グレイスケール値、運動ベクトル)は、著しく異なっている。追跡方法は、この観察を利用し、分割と克服の戦略を用いて、意味ビデオ対象物追跡システムを解明する。
【0021】
第1に、追跡方法は、現在のフレームで物理的な縁部を見つける。これは、分割方法、特に空間分割方法を用いて実現される。この分割方法の目的は、現在のフレームで、同一イメージの値(例えば、色強度の3重線、グレイスケール値)を有する全ての接続されている領域を抽出することである。第2に、追跡方法は、現在のフレームで抽出された各領域を分類し、それが先行フレームのどの対象物に属するかを決定する。この分類分析は、領域ベースの分類問題である。領域ベースの分類問題が解明された後は、現在のフレームの意味ビデオ対象物は、抽出および追跡されたことになる。
【0022】
図2は、意味ビデオ対象物追跡システムを示す図である。追跡システムは、以下の5つのモジュールを備える。
1.領域前処理220
2.領域抽出222
3.領域ベースの運動推定224
4.領域ベースの分類226
5.領域の後処理228
【0023】
図2では、以下の表記を使用する。
−フレームiに対する入力画像
−フレームiに対する空間分割の結果
−フレームiに対する運動パラメータ
−フレームiに対する追跡結果
【0024】
追跡方法は、最初のフレーム に対する意味ビデオ対象物が、すでに既知であると仮定する。最初のフレームから開始して、分割プロセスは、フレームの意味対象物の境界を定義する最初の区分を決定する。図2では、I−分割ブロック210が、意味ビデオ対象物を分割するプログラムを表す。このプログラムは、最初のフレーム を取り入れ、意味対象物の境界を計算する。通常、この境界は、2進またはアルファマスクとして表される。様々な分割の手法を使用して、第1フレームに対する意味対象物を見つけることが可能である。
【0025】
GuとLeeによる同時継続中の米国特許出願第09/054,280号に記載されているように、1つの手法は、ユーザが、意味ビデオ対象物の境界の内側および外側の回りで境界を描くことができる描写用ツールを提供することである。次いで、このユーザが描いた境界は、計算した境界を意味ビデオ対象物の縁部にスナップする自動化方法のための開始点として役立つ。関連のある複数のビデオ対象物を含んでいるアプリケーションでは、I−分割プロセス210は、各対象物についてマスクなどの区分画像を計算する。
【0026】
最初のフレームで使用した後処理ブロック212は、最初の区分画像を円滑化し、エラーを除去するプロセスである。このプロセスは、後続フレーム で意味ビデオ対象物を追跡する結果を処理するために使用する後処理と同一または類似のものである。
【0027】
次のフレーム( )で開始する追跡プロセスのための入力は、先行フレーム と先行フレーム分割の結果 を含む。破線216は、各フレームに対する処理を分離する。破線214は、最初のフレームと次のフレームに対する処理を分離するが、破線216は、意味ビデオ対象物がフレームを追跡する間、後続フレームに対する処理を分離する。
【0028】
意味ビデオ対象物追跡は、フレーム で開始する。第1ステップでは、入力フレーム を簡略化する。図2では、簡略化ブロック220が、他の分析の前に入力フレーム を簡略化するために使用する領域前処理ステップを表す。多くの場合、入力データは、追跡結果に悪影響を与える可能性がある雑音を含んでいる。領域前処理は、雑音を除去し、他の意味対象物追跡が、クリーンな入力データ上で実行されることを保証する。
【0029】
簡略化ブロック220は、分割方法が、接続された画素の領域をより正確に抽出することを可能とするクリーンな結果を提供する。図2では、分割ブロック222は、入力フレームで同一イメージの値を有する接続された領域を抽出する空間分割方法を表す。
【0030】
各領域に対し、追跡システムは、接続された領域が、以前の意味ビデオ対象物を源とするかを決定する。追跡段階が現在のフレームに対して完全であるとき、現在のフレームにある意味ビデオ対象物の境界は、これらの接続された領域の境界から構成される。したがって、空間分割は、現在のフレームに対し、信頼できる分割結果を提供すべきである。すなわち、いかなる領域も欠損するべきではなく、いかなる領域もそれに属さない区域を含むべきではない。
【0031】
接続された領域が、意味ビデオ対象物に属するかを決定する第1ステップでは、接続領域と先行フレームの対応する領域とを整合することである。図2に示すように、運動推定ブロック224は、接続された領域と現在および先行フレームを入力として取り入れ、現在のフレームで各領域と最も密接に整合する、先行フレームの対応する領域を見つける。各領域に対し、運動推定ブロック224は運動情報を提供し、現在のフレームの各領域が、先行フレームに由来する場所を予測する。この運動情報は、先行フレームにある各領域の祖先の位置を示す。その後で、この位置情報を使用して、現在の領域が、意味ビデオ対象物に属するかをどうかを決定する。
【0032】
次に、追跡システムは、各領域が意味ビデオ対象物を源とするかについて各領域を分類する。図2では、分類ブロック226は、各領域が源としている可能性がある先行フレームで意味対象物を識別する。分類プロセスは、各領域に対する運動情報を使用して、その領域が先行フレームに由来する場所を予測する。予測した領域を先行フレームの分割結果と比較することによって、分類プロセスは、予測した領域が意味対象物または先行フレームに対してすでに計算された対象物と重複する程度を決定する。この分類プロセスの結果は、現在のフレームの各領域を意味ビデオ対象物または背景と関連付ける。現在のフレームで追跡された意味ビデオ対象物は、先行フレームの対応する意味ビデオ対象物と連結された全ての領域の集合(union)を備える。
【0033】
最後に、追跡システムは、各対象物に対して連結領域を後処理する。図2では、後処理ブロック228が、現在のフレームで各意味ビデオ対象物の獲得された境界を微調整する。このプロセスは、分類手続きで導入されたエラーを除去し、境界を円滑化して視覚効果を改善する。
【0034】
各後続フレームに対し、追跡システムは、先行フレームと、先行フレームの追跡結果と、現在のフレームとを入力として使用して、自動化形態で同じステップを繰り返す。図2は、フレーム に対して反復された処理ステップの例を示す。ブロック240〜248は、次のフレームに適用された追跡システムのステップを表す。
【0035】
様々な順方向追跡メカニズムを使用する他の領域と対象物の追跡システムと異なり、図2に示す追跡システムは、逆方向追跡を実行する。逆方向の領域をベースとする分類の手法は、空間分割の結果として、最終の意味ビデオ対象物の境界が、常に有意な実在物の物理的な縁部に位置するという利点を有する。また、各領域が個々に取り扱われるので、追跡システムは、容易に断片的な意味ビデオ対象物または非剛体運動に対処することができる。
【0036】
定義
追跡システムの実装について説明する前に、これ以降の説明を通して使用する一連の定義から始めることが助けになろう。これらの定義は、追跡方法が、カラーのビデオフレームのシーケンスだけでなく、複数次元画像データの他の時間的シーケンスについても適用されることを示す助けになる。このコンテキストでは、「複数次元」は、各離散イメージの点の空間的座標、並びにその点でのイメージの値を指す。画像データの時間的シーケンスは、それが複数次元データアレイの連続フレームからなるので、「ベクトル画像シーケンス」と呼ぶことができる。ベクトル画像シーケンスの例として、下記の表1に列挙した例について考える。
【0037】
【表1】
Figure 0004074062
【0038】
次元nは、画像サンプルの空間座標における次元の数を指す。次元mは、画像サンプルの空間座標に位置するイメージの値の次元の数を指す。例えば、カラーボリューム画像シーケンスの空間座標は、3次元空間における画像サンプルの位置を定義する3つの空間座標を含み、したがってn=3である。カラーボリューム画像の各サンプルは、3つのカラーの値R、G、およびBを有し、したがってm=3である。
【0039】
以下の定義は、集合およびグラフの理論表記を用いて、ベクトル画像のコンテキストで追跡システムを説明する基礎を与える。
【0040】
定義1 接続点:
はn次元の集合とする。点p∈⇒p=(p1、...、p)。∀p、q∈、pとqは、その距離Dp、qが1に等しい場合のみ接続されている。
【0041】
【数1】
Figure 0004074062
【0042】
定義2 接続経路:
)は、m個の点p1、...pからなる経路とする。経路は、pとpk+1(k∈{1、...、m−1}が接続点である場合のみ接続されている。
【0043】
定義3 近接点:
)は領域とする。点
【0044】
【数2】
Figure 0004074062
【0045】
は、∃他の点q(q∈)pとqが接続点である場合のみ領域に近接する。
【0046】
定義4 接続領域:
)は領域とする。は、∀x、y∈、∃接続経路={p、...p )でp=xおよびP=yである場合のみ接続領域である。
【0047】
定義5 区分画像:
区分画像Pは、写像(mapping)P:→Tであり、Tは完全な順序付けされた格子(lattice)である。 (x)は、点x: (x)=∪y∈S{y|P(x)=P(y)}を含む領域とする。区分画像は、次の条件を満たさなければならない。∀x、y∈ (x)= (y)または (x)∩ (y)=φ;∪x∈S (x)=
【0048】
定義6 接続区分画像:
接続区分画像は、∀x∈ (x)常に接続されている区分画像Pである
【0049】
定義7 微細区分
区分画像Pが、上の他の区分画像P′より微細である場合、これは、∀x∈ (x)⊇ p′(x)を意味する。
【0050】
定義8 粗区分:
区分画像Pが、上の他の区分画像P′より粗である場合、これは、∀x∈ (x)⊆ p′(x)を意味する。
【0051】
区分画像に対して究極的な場合が2つある。一方は「最も粗い区分」であり、これは、全ての:∀x、y∈ (x)= (y)に及ぶ。他方は「最も微細な区分」であり、の各点は、個々の領域:∀x、y∈、x≠y⇒ (x)≠ (y)である。
【0052】
定義9 隣接領域:
2つの領域 は、∃x、y(x∈ およびy∈ )に対し、xとyが接続点である場合のみ隣接する。
【0053】
定義10 領域に隣接するグラフ:
Pは複数次元集合上の区分画像である。Pにはk( 、...、 )の領域があり、=∪ 、およびi≠j⇒ =φである。領域隣接グラフ(RAG)は、頂点の集合と縁部の集合とからなる。={v、...、v}とし、各vは、対応する領域 に関連付けられている。縁部の集合は、{e、...、e}、
【0054】
【数3】
Figure 0004074062
【0055】
であり、各eは、2つの対応する領域が隣接領域である場合、2つの頂点の間に構築される。
【0056】
図3A〜Cは、異なる種類の区分画像の例を示し、図3Dは、これらの区分画像に基づく領域隣接グラフの例を示す。これらの例では、は、2次元画像の集合である。白区域300〜308と、斜線区域310〜314と、点区域316とは、2次元画像フレームでの異なる領域を表す。図3Aは、2つの断片的な領域(白区域300と302)を有する区分画像を示す。図3Bは、2つの接続領域(白区域304と斜線区域312)を有する接続区分画像を示す。図3Cは、図3Aの斜線区域が、2つの領域、斜線区域314と点区域316を備えるという点で、図3Aと比較してより微細な区分画像を示す。図3Dは、図3Cの区分画像の対応する領域隣接グラフを示す。グラフの頂点320、322、324、326は、それぞれ領域306、314、316、308に対応する。縁部330、332、334、336、および338は、隣接領域の頂点を接続する。
【0057】
定義11 ベクトル画像シーケンス:

【0058】
【数4】
Figure 0004074062
【0059】
のm(m≧1)個の完全に順序付けされた完全格子L、...、Lを与えられた場合、ベクトル画像シーケンスは、写像 のシーケンスであり、はn次元の集合で、tは時間領域にある。
【0060】
いくつかの種類のベクトル画像シーケンスを表1に示す。これらのベクトル画像シーケンスは、カラー画像などの一連のセンサ、または濃度(dense)運動の場などの計算されたパラメータスペースから獲得することができる。入力信号の物理的な意味は場合ごとに異なるが、それらは全て例外なくベクトル画像シーケンスと見なされる。
【0061】
定義12 意味ビデオ対象物:
は、n次元集合上のベクトル画像とする。Pは、の意味区分画像とする。=∪i=1、...、m であり、各 は、意味ビデオ対象物の位置を示す。
【0062】
定義13 意味ビデオ対象物分割:
は、n次元集合上のベクトル画像とする。意味ビデオ対象物分割は、対象物の数mと各対象物 の位置を見つけるものとする。
【0063】
i=1、...、m、で=∪i=1、...、m である。
【0064】
定義14 意味ビデオ対象物追跡:
t−1は、n次元集合の上のベクトル画像であり、Pt−1は、時間t−1での対応する意味区分画像とする。=∪i=1、...、m t−1、iである。各 t−1、i(i=1、...、m)は、時間t−1での意味ビデオ対象物である。 の意味ビデオ対象物追跡は、時間t、i=1、...、mで意味ビデオ対象物を見つけるときに定義される。∀x∈ t−1および∀y∈ t、i:Pt−1(x)=P(y)である。
【0065】
実装例
以下のセクションでは、特定の意味ビデオ対象物追跡方法について、より詳細に説明する。図4は、以下で説明する実装の主要な構成要素を示すブロック図である。図4の各ブロックは、上記で略述した対象物追跡方法の部分を実現するプログラムモジュールを表す。コスト、性能、および設計の複雑さなどの様々な考慮事項に応じて、これらのモジュールのそれぞれは、デジタル論理回路においても実現することが可能である。
【0066】
上記で定義した表記を用いて、図4に示す追跡方法は、入力として、時間t−1での先行フレームの分割結果と現在のベクトル画像 を取り入れる。現在のベクトル画像は、n次元集合上の積(定義11参照)のm個(m≧1)の完全に順序付けされた完全格子L、...、Lにおいて定義されている。
【0067】
∀p、q∈ (p)={L(p)、L(p)、...、L(p)}
【0068】
この情報を用いて、追跡方法は、シーケンスの各フレームに対し、区分画像を計算する。分割の結果は、各フレームで各意味対象物の位置を識別するマスクである。各マスクは、各フレームで、それがどの対象物に対応するかを識別する対象物番号を有する。
【0069】
例えば、表1で定義されているカラー画像シーケンスについて考察する。各点pは、2次元画像の画素を表す。集合Sの点の数は、各画像フレームの画素の数に対応する。各画素での格子は、赤、緑、および青の強度値に対応する3つのサンプル値を備える。追跡方法の結果は、各フレームに対する対応する意味ビデオ対象物の部分を形成する全ての画素の位置を識別する一連の2次元マスクである。
【0070】
領域の前処理
図4に示す実装は、入力ベクトル画像を簡略化することによって、フレームに対する処理を開始する。特に、簡略フィルタ420は、入力ベクトル画像全体をクリーンにし、その後さらに処理を行う。この前処理段階の設計では、偽データを導入しない簡略方法を選択することが好ましい。例えば、低域通過フィルタは、画像をクリーンにし滑らかにする可能性があるが、ビデオ対象物の境界を歪める可能性もある。したがって、入力ベクトル画像を簡略化し、同時に意味ビデオ対象物の境界の位置を保持する方法を選択することが好ましい。
【0071】
中央値フィルタまたは形態フィルタなどの多くの非線形フィルタは、このタスクのための候補である。現在の実装では、入力ベクトル画像の簡略化のために、ベクトル中央値フィルタ、メジアン(Median)(・)を使用する。
【0072】
ベクトル中央値フィルタは、入力画像の各点に対する近接点の中央イメージの値を計算し、その点のイメージの値を中央値で置き換える。n次元集合のあらゆる点pに対し、構造要素は、それの回りで定義され、それは全ての接続点を含んでいる(接続点に関する定義1参照)。
【0073】
=∪q∈S{Dp、q=1}
【0074】
点pのベクトル中央値は、構造要素内の各構成要素の中央値として定義される。
【0075】
メジアン(I(p))={中央値q∈E{L(q)、...、中央値q∈E{L(q)}}
【0076】
そのようなベクトル中央値フィルタを使用することによって、ベクトル画像 の小さな変動を除去することができ、同時に、ビデオ対象物の境界が、構造要素の空間的設計の下でうまく保持される。その結果、追跡プロセスは、より効果的に、意味ビデオ対象物の境界を識別することができる。
【0077】
領域抽出
ベクトル入力画像をフィルタリングした後、追跡プロセスは、現在の画像から領域を抽出する。これを達成するために、追跡プロセスは、現在の画像を取り入れて、「同一」イメージの値を有する接続点の領域を識別する空間分割方法422を使用する。これらの接続領域は、領域ベースの運動推定424と領域ベースの分類426で使用される点の領域である。
【0078】
領域抽出段階の実行において、取り組まなければならない主要な課題が3つある。第1に、「同一」の概念を強固にする必要がある。第2に、領域の合計の数を見つけるべきである。第3に、各領域の位置を固定しなければならない。ベクトル画像データの分割に関係する文献は、様々な空間分割方法を記載している。大半の一般的な空間分割方法は、下記のものを使用する。
【0079】
・領域の同一性を定義する多項式関数
・領域の数を見つける決定論的方法、および/または
・全ての領域の位置を最終決定する境界調整
【0080】
これらの方法は、いくつかの応用例では満足な結果をもたらすことが可能であるが、非剛体運動と、断片的な領域と、複数の色を有する非常に多様な意味ビデオ対象物に対しては、正確な結果を保証しない。意味対象物を分類することができる正確さは、領域の正確さに依存しているので、空間分割方法に要求される正確さは、非常に高度なものとなる。分割段階後、いかなる意味対象物の領域も欠損しておらず、いかなる領域もそれに属さない区域を含まないことが好ましい。現在のフレームにある意味ビデオ対象物の境界は、これらの接続領域の全境界の部分集合として定義されているので、その正確さは、追跡プロセスの結果の正確さに直接影響する。境界が不正確な場合、結果的な意味ビデオ対象物の境界も不正確になる。したがって、空間分割方法は、現在のフレームに対し、正確な空間区分画像を提供するべきである。
【0081】
追跡方法の現在の実装では、LabelMinMaxと呼ばれる、新規で速い空間分割方法を使用する。この特別の手法は、シーケンシャルの形態で、1度に1つの領域を発生(grow)発生させる。この手法は、他の並行領域発生プロセス、すなわち、領域発生が任意のシードから始まる前に、全てのシードを特定する必要のある他の並行領域発生プロセスとは異なる。シーケンシャル領域発生方法は、領域を次々に抽出する。これにより、より柔軟に各領域を取り扱うことが可能となり、全体的な計算の煩雑さを低減する。
【0082】
領域の同一性は、領域の最大値と最小値の差によって制御される。入力ベクトル画像 は、積の完全に順序付けされたm個(m≧1)の完全格子L、...、Lにおいて定義されていると仮定する(定義11参照)。
【0083】
∀p、q∈ (p)={L(p)、L(p)、...、L(p)}
【0084】
領域の最大値と最小値(MaxLMinL)は、下式のように定義される。
【0085】
【数5】
Figure 0004074062
【0086】
MaxLMinLの差が、閾値(={h、h、...、h}より小さい場合、その領域は同一である。
【0087】
同一性;∀i、1≦i≦m、(maxp∈R{L(p)}−minp∈R{L(p)}≦h
【0088】
LabelMinMax方法は、次々に各領域に名前を付ける。n次元集合の点pから開始する。領域は、LabelMinMaxがその上で動作している現在の領域と仮定する。開始時では、点p:={p}のみを含んでいる。次に、LabelMinMaxは、領域の全ての近接点(定義3参照)を検査し、近接点qがその中に挿入されている場合に、領域が依然として同一であるかを調べる。挿入によって領域の同一性を変更しない場合、点qは領域に追加される。点qが領域に追加されたとき、点qは集合から消去されるべきである。領域は、徐々に、さらに近接点を追加することができない同一テリトリまで拡大する。次いで、に残存している点からの点で、新しい領域が構築される。にもはや残存する点がなくなるまで、このプロセスが続く。プロセス全体は、以下の疑似コードによって明瞭に説明することができる。
【0089】
LabelMinMax:
【0090】
【数1】
Figure 0004074062
【0091】
LabelMinMaxは、下記を含む多くの利点を有する。
【0092】
MaxLMinLは、他の基準と比較して、領域の同一性について、より精密な説明を提示する。
・同一性の定義は、正確な領域をもたらす領域の同一性に対し、より厳密な制御を与える。
LabelMinMaxは、信頼できる空間分割結果をもたらす。
LabelMinMaxは、多くの他の方法より、計算がはるかに煩雑でない。
【0093】
これらの利点により、LabelMinMaxは、空間分析に対しよい選択肢となり、また、代替分割方法を使用して、接続領域を識別することが可能である。例えば、他の領域発生方法は、異なる同一基準と「同一」領域のモデルを使用して、追加の点を同一領域に追加するかを決定する。例えば、これらの基準は強度の閾値を含んでおり、各新しい点と領域の近接点との強度の差が閾値を超えない限り、領域に点が追加される。また、同一基準は、領域の点の強度値が変動することが可能であり、それでも依然として接続領域の部分と見なすことができる方法について説明する数学的関数の観点から定義することが可能である。
【0094】
領域ベースの運動推定
領域ベースの運動推定424のプロセスは、分割プロセスによって識別された領域のイメージの値と、先行フレームの対応するイメージの値とを整合し、領域が先行フレームから移動した方法を推定する。このプロセスを示すために、以下の例を考察する。 t−1は、時間t−1のn次元集合上の先行ベクトル画像とし、 は、時間tの同じ集合上にある現在のベクトル画像とする。領域抽出手順は、現在のフレーム でN個の同一領域 (i=1、2、...、N)を抽出する。
【0095】
=∪i−1、...、N
【0096】
ここで、追跡プロセスは次に進み、先行フレームの意味ビデオ対象物の正確に1つに属するとして、各領域を分類する。追跡プロセスは、この領域ベースの分類問題を、領域ベースの運動推定と補償を用いて解明する。現在のフレーム の各抽出した領域 に対し、運動推定手順を実行して、これらの領域が、先行フレーム t−1で発生した場所を見つける。多くの運動モデルを使用することが可能であるが、現在の実装は、運動推定手順として並進運動モデルを使用する。このモデルでは、運動推定手順は、その領域に関する予想エラー(PE)を最小限に抑える領域 に対する運動ベクトル を計算する。
【0097】
【数7】
Figure 0004074062
【0098】
上式で‖・‖は、2つのベクトルの絶対的な差の合計を表し、 max maxは最大探索範囲)である。この運動ベクトル は、先行フレーム t−1での軌跡の位置を示す領域 に割り当てられる。
【0099】
他の運動モデルも同様に使用することが可能である。例えば、アフィンまたは透視運動モデルを使用して、現在のベクトル画像の領域と、先行ベクトル画像の対応する領域との間の運動をモデルすることができる。アフィンおよび透視運動モデルは、幾何学的変換(例えば、アフィンまたは透視変換)を使用して、あるフレームと他のフレームとの間の領域の運動を定義する。この変換は、領域のいくつかの点に対する運動ベクトルを見つけ、次いで、選択した点での運動ベクトルを用いて連立方程式を解いて係数を計算することによって計算することが可能な運動係数で表される。他の方式は、運動係数の最初の集合を選択し、次いでエラー(例えば、絶対的な差の合計または2乗した差の合計)が閾値より小さくなるまで繰り返す。
【0100】
領域ベースの分類
領域ベースの分類プロセス426は、運動情報を用いて各領域の位置を変更し、先行フレームで領域の推定された位置を決定する。次いで、この推定位置を先行フレーム( )の意味ビデオ対象物の境界と比較し、どの意味ビデオ対象物の部分を最も形成しやすいかを決定する。
【0101】
それを示すために、以下の例を考察する。 t−1 は、n次元集合上の先行および現在のベクトル画像とし、Pt−1は、時間t−1での対応する意味区分画像とする。
【0102】
=∪i=1、...、m t−1、i
【0103】
t−1、i(i=1、...、m)は、時間t−1での意味ビデオ対象物の位置を示す。N個の抽出された全領域 (i=1、2、...、N)があり、各領域は、現在のフレームで関連付けられた運動ベクトル (i=1、2、...、N)を有すると仮定する。ここで、追跡方法は、時間tで現在の意味区分画像Pを構築することが必要である。
【0104】
追跡プロセスは、現在のフレームで、各領域 に対し意味ビデオ対象物 t−1、j(j∈{1、2、...、m})を見つけることによって、このタスクを履行する。
【0105】
各領域 に対する運動情報が、すでにこの段階で利用可能であるので、領域分類装置426は、逆方向運動補償を用いて、現在のフレームの各領域 を、先行フレームに向けてワープする。領域に対する運動情報を、その領域の点に適用することによって、領域をワープする。以前の領域にあるワープした領域をR′ と仮定する。
【0106】
R′ =∪p∈ {p+
【0107】
理想的には、ワープした領域R′ は、先行フレームの意味ビデオ対象物の1つに当てはまるべきである。
【0108】
∃i、j∈{1、2、...、m}およびR′ t−1、j
【0109】
これがその場合であれば、追跡方法は、意味ビデオ対象物 t−1、jをこの領域 に割り当てる。しかし、実際には、運動推定プロセスからの潜在的な曖昧さのために、R′ は、先行フレームの複数の意味ビデオ対象物と重複する可能性がある。すなわち、
【0110】
【数8】
Figure 0004074062
【0111】
である。
【0112】
現在の実装は、領域ベースの分類に対し、過半数基準Mを使用する。現在のフレームの各領域 に対し、ワープした領域R′ の過半数部分が、先行フレームの意味ビデオ対象物 t−1、j(J∈1、2、...、m)に由来する場合、この領域は、その意味ビデオ対象物 t−1、jに割り当てられる。
【0113】
∀p∈ 、および∀q∈ t−1、j、P(p)=Pt−1(q)
【0114】
より詳細には、R′ と重複する過半数区域(MOA)を有する意味ビデオ対象物 t−1、jは、下式のように見つけられる。
【0115】
【数9】
Figure 0004074062
【0116】
現在のフレームの完全意味ビデオ対象物 t、jは、現在のフレームの全ての領域 (i=1、2、...、m)に対してこの領域ベースの分類手順を用いることにより、1つずつ構築される。点q∈ t−1、j
【0117】
t、j=∪p∈S{p|P(p)=Pt−1(q)}、j=1、2、...、m
【0118】
と仮定する。この領域ベースの分類プロセスの設計によって、現在のフレームでは、いかなるホール/ギャップ、または異なる意味ビデオ対象物間の重複はないことになる。
【0119】
i=1,...,mOt,i=∪i=1,...,NR=∪i=1,...,mOt−1,i=S
∀i,j∈{1,...,m},i≠j⇒Ot,i∩Ot,i=φ
【0120】
これは、意味ビデオ対象物の境界を決定することができないフレーム内へと対象物を追跡する追跡システムと比較して、この追跡システムの利点である。例えば、順方向追跡システムにおいて、対象物追跡は、精密な境界が未知である後続フレームへと進む。次いで、境界は、境界条件をモデルするいくつかの所定の基準に基づいて、未知の境界に合うように調整される。
【0121】
領域後処理
現在のフレームの追跡結果は、意味区分画像Pであると仮定する。様々な理由のために、領域ベースの分類手順には、いくつかのエラーが存在する可能性がある。領域後処理プロセスの目的は、これらのエラーを除去し、同時に、現在のフレームで各意味ビデオ対象物の境界を滑らかにすることである。興味深いことに、区分画像は、従来の画像とは異なる空間画像である。この区分画像の各点における値は、意味ビデオ対象物の位置を示すだけである。したがって、一般に、信号処理用の全ての従来の線形または非線形フィルタは、この空間後処理に適していない。
【0122】
この実装は、過半数オペレータM(・)を使用して、このタスクを履行する。n次元集合の各点pに対し、構造要素は、全ての接続点を含むそれの回りで定義されている(接続点に関する1参照)。
【0123】
=∪p∈S{Dp、q=1}
【0124】
第1に、過半数オペレータM(・)は、構造要素と最大限重複している区域(MOA)を有する意味ビデオ対象物 t、jを見つける。
【0125】
【数10】
Figure 0004074062
【0126】
第2に、過半数オペレータM(・)は、その意味ビデオ対象物 t、jの値を、点pに割り当てる。
【0127】
q∈ t、j、P(p)=M(p)=P(q)とする。
【0128】
過半数基準の採用のために、非常に小さい区域(エラーである可能性が最も高い)を除去し、同時に、各意味ビデオ対象物の境界を滑らかにすることが可能である。
【0129】
コンピュータシステムの簡単な概要
図5および以下の議論は、本発明を実現することが可能である適切なコンピュータ環境について、簡単で一般的な説明を提供することを意図している。本発明またはその態様は、ハードウエアデバイスで実現することが可能であるが、上述の追跡システムは、プログラムモジュールにおいて組織されたコンピュータ実行可能命令で実行される。プログラムモジュールは、ルーチンと、プログラムと、対象物と、構成要素と、タスクを実行し、上述のデータタイプを実行するデータ構造とを含む。
【0130】
図5は、デスクトップコンピュータの一般的な構成を示すが、本発明は、手持ち式デバイス、マルチプロセッサシステム、マイクロプロセッサベースまたはプログラム可能な消費者エレクトロニクス、ミニコンピュータ、メインフレームコンピュータなどを含む、他のコンピュータシステム構成で実施することが可能である。また、本発明は、コンピュータネットワークを介して連結されているリモート処理装置によってタスクを実行する分散計算環境で使用することが可能である。分散コンピュータ環境では、プログラムモジュールは、局所およびリモートメモリ格納装置の両方に配置することが可能である。
【0131】
図5は、本発明の操作環境として役立つコンピュータシステムの例を示す。コンピュータシステムは、処理ユニット521と、システムメモリ522と、システムメモリを含んでいる様々なシステム構成要素を処理ユニット521に内部接続するシステムバス523とを含んでいるパーソナルコンピュータ520を含む。システムバスは、メモリバスまたはメモリ制御装置と、周辺バスと、PCI、VESA、マイクロチャネル(MCA)、ISAおよびEISAなどが例として挙げられるバス体系を使用する局所バスとを含んでいるいくつかの種類のバス構造のうち、いずれかを備えることが可能である。システムメモリは、読取り専用メモリ(ROM)524とランダムアクセスメモリ(RAM)525を含む。基本的な入力/出力システム526(BIOS)は、開始時中などに、パーソナルコンピュータ520内で要素間の情報を転送することに役立つ基本的なルーチンを含んでおり、ROM524に格納されている。さらに、パーソナルコンピュータ520は、ハードディスクドライブ527と、例えば取外し可能ディスク529から読み込むまたはそれに書き込む磁気ディスクドライブ528と、例えばCD−ROMディスク531を読むまたは他の光学メディアを読み込むあるいはそれに書き込む光学ディスクドライブ530とを含む。ハードディスクドライブ527、磁気ディスクドライブ528、光学ディスクドライブ530は、それぞれ、ハードディスクドライブインターフェース532、磁気ディスクドライブインターフェース533、光学ドライブインターフェース534によって、システムバス523に接続される。ドライブとそれに関連付けられたコンピュータ読取り可能媒体は、データの不揮発性格納、データ構造、コンピュータ実行可能命令(動的リンクライブラリなどのプログラムコードと実行可能ファイル)などを、パーソナルコンピュータ520に提供する。上記のコンピュータ読取り可能媒体の説明は、ハードディスクと、取外し可能磁気ディスクと、CDとを指すが、磁気カセット、フラッシュメモリカード、デジタルビデオディスク、ベルヌーイカートリッジなど、コンピュータによって読み取ることができる他の種類の媒体を含むことができる。
【0132】
多くのプログラムモジュールを、オペレーティングシステム535と、1つまたは複数のアプリケーションプログラム536と、他のプログラムモジュール537と、プログラムデータ538とを含む、ドライブおよびRAM525に格納することが可能である。ユーザは、キーボード540およびマウス542などの位置表示装置を介して、コマンドおよび情報をパーソナルコンピュータ520に入力することが可能である。他の入力装置(図示せず)には、マイクロフォン、ジョイスティック、ゲームパッド、衛星放送用パラボラアンテナ、スキャナなどを含むことが可能である。これらおよび他の入力装置は、しばしば、システムバスに結合されているシリアルポートインターフェース546を介して、処理ユニット521に接続されるが、パラレルポート、ゲームポート、またはユニバーサルシリアルバス(USB)などの他のインターフェースによって接続することも可能である。また、モニタ547または他の種類の表示装置も、表示制御装置またはビデオアダプタ548などのインターフェースを介して、システムバス523に接続される。通常、モニタの他に、パーソナルコンピュータは、スピーカおよびプリンタなどの他の周辺出力装置(図示せず)を含む。
【0133】
パーソナルコンピュータ520は、ネットワークされた環境で、リモートコンピュータ549などの1つまたは複数のリモートコンピュータへの論理接続を用いて動作することが可能である。リモートコンピュータ549は、サーバ、ルータ、ピアデバイス、または他の一般的なネットワークノードとすることが可能であり、通常、パーソナルコンピュータ520に関して記述した多くのまたは全ての要素を含むが、図5では、メモリ格納装置550のみを図示している。図5に示した論理接続は、ローカルエリアネットワーク(LAN)551とワイドエリアネットワーク(WAN)を含む。そのようなネットワーキング環境は、会社、企業全体にわたるコンピュータネットワーク、イントラネット、およびインターネットでは一般的である。
【0134】
LANネットワーキング環境で使用するとき、パーソナルコンピュータ520は、ネットワークインターフェースまたはアダプタ553を介してローカルネットワーク551に接続されている。WANネットワーキング環境で使用するとき、パーソナルコンピュータ520は、通常、インターネットなど、ワイドエリアネットワーク552上で通信を確立する、モデム554または他の手段を含む。モデム554は、内在または外付けとすることが可能であり、シリアルポートインターフェース546を介して、システムバス523に接続されている。ネットワークされた環境では、パーソナルコンピュータ520に関連して記述したプログラムモジュール、またはその部分は、リモートメモリ格納装置に格納することが可能である。示したネットワーク接続は、単なる例であり、コンピュータ間で通信リンクを確立する他の手段を使用することが可能である。
【0135】
結論
本発明を特定の実装の詳細に関するコンテキストで説明したが、本発明は、これらの特定の詳細に限定されるものではない。本発明は、ベクトル画像フレームにおいて同一領域を識別し、次いでこれらの領域を意味対象物の部分であると分類する、意味対象物追跡の方法とシステムを提供する。上述した実装の分類方法は、意味領域を、意味対象物の境界が以前に計算されている先行フレームに射影するので、「逆方向追跡」と呼ばれる。
【0136】
また、この追跡システムは、一般に、意味ビデオ対象物の境界が既知であるフレームに、たとえこれらのフレームが順序付けられたシーケンスにある先行フレームでない場合でも、分割領域を射影する応用に適用されることに留意されたい。したがって、上述した「逆方向」追跡方式は、分類が必ずしも先行フレームに限定されておらず、代わりに、意味対象物の境界が既知または以前に計算されているフレームに限定されている応用に適用される。意味ビデオ対象物がすでに識別されているフレームは、より一般的に、基準フレームと呼ぶ。現在のフレームに対する意味対象物の追跡は、基準フレームの意味対象物の境界に関して、現在のフレームで分割された領域を分類することによって計算される。
【0137】
上述のように、対象物追跡方法は、一般に、ベクトル画像シーケンスに適用される。したがって、2Dビデオシーケンス、またはイメージの値が強度値を表しているシーケンスに限定されていない。
【0138】
領域分割段階の説明により、特に有用であるが、意味ビデオ対象物追跡の全ての実装に必要ではない基準が識別された。すでに述べたように、他の分割技術を使用して、点の接続領域を識別することが可能である。領域の同一性の定義は、イメージの値の種類(例えば、運動ベクトル、色の強度)と応用例に応じて異なる可能性がある。
【0139】
運動推定と補償を実行するために使用する運動モデルは、同様に変更することができる。計算はより複雑であるが、領域の各個々の点に対して、運動ベクトルを計算することが可能である。代替として、上述の変換モデルのように、各領域に対して、1つの運動ベクトルを計算することが可能である。好ましくは、領域ベースの整合方法を使用して、関心のあるフレームにおいて整合領域を見つけるべきである。領域ベースの整合では、現在のフレームの境界またはマスクを使用して、予測した点と基準フレームの対応する領域との間のエラーを最小限に抑えるプロセスから、領域の外部に位置する点を除外する。この種類の手法は、Ming−Chieh Leeによる名称Polygon Block Matching Methodの米国特許第5,796,855号に記載されており、参考文献によってここに組み込まれている。
【0140】
本発明の多くの可能な実装を考慮すると、上述した実装は本発明の単なる例であり、本発明の範囲に対する限定と考えるべきではない。むしろ、本発明の範囲は、添付の請求項によって定義される。したがって、我々の発明は全て、これらの特許請求の範囲および精神内に由来することを主張する。
【図面の簡単な説明】
【図1A】 一般的な意味対象物を追跡する困難さを示すために異なる種類の意味対象物を表す例である。
【図1B】 一般的な意味対象物を追跡する困難さを示すために異なる種類の意味対象物を表す例である。
【図1C】 一般的な意味対象物を追跡する困難さを示すために異なる種類の意味対象物を表す例である。
【図2】 意味対象物追跡システムを示すブロック図である。
【図3A】 区分画像の例と、領域近接グラフにおける区分画像を表す方法を示す図である。
【図3B】 区分画像の例と、領域近接グラフにおける区分画像を表す方法を示す図である。
【図3C】 区分画像の例と、領域近接グラフにおける区分画像を表す方法を示す図である。
【図3D】 区分画像の例と、領域近接グラフにおける区分画像を表す方法を示す図である。
【図4】 意味対象物追跡システムの実装を示すフローチャートである。
【図5】 本発明の実装に対する操作環境として役立つコンピュータシステムのブロック図である。

Claims (14)

  1. コンピュータにおいて、ビデオフレームにおいてビデオ対象物を追跡する方法であって、前記コンピュータが、
    現在のビデオフレーム上で空間分割を実行して、同一強度値を有する画素の領域を識別する手段
    現在のビデオフレームおよびビデオ対象物の境界が前以て計算されている先行ビデオフレームの各領域の間で運動推定を実行する手段
    各領域に対する運動推定を用いて、各領域の画素の位置を、先行ビデオフレームの位置にワープする手段
    ワープした画素の位置が、先行ビデオフレームの前以て計算されているビデオ対象物の境界内にあるかを判定して、ビデオ対象物の部分である可能性がある領域のセットを識別する手段、および
    前記セットから、前記現在のビデオフレームの中のビデオ対象物の境界を形成する手段
    として動作することを特徴とする方法。
  2. 現在のビデオフレームのビデオ対象物の境界を、後続のビデオフレームに対する基準境界として使用して、後続フレームに対して請求項1の方法を繰り返すこと特徴とする請求項1に記載の方法。
  3. 前記空間分割は、複数の領域について、領域中の最大強度値と領域中の最小強度値の差を閾値よりも小さくすることを特徴とする請求項1に記載の方法。
  4. 前記空間分割はシーケンシャルな空間成長であり、
    現在のビデオフレーム中の最初の画素位置でスタートし、最初の領域に複数の画素位置を付加することにより前記最初の位置のまわりの画素を結合して前記最初の領域を、同一基準を満足するように成長させ、
    境界の画素がない場合に、前記最初の領域の外の画素位置を有する別の領域の領域について前記成長を繰り返し、
    前記現在のビデオフレーム中の各画素位置が複数の領域の1つの領域の部分であると識別されるまで前記成長を続けることを特徴とする請求項1に記載の方法。
  5. 前記判定では、各領域について、以前のビデオフレーム中のビデオ対象物の境界内にあるワープの画素位置を計数し、
    ワープの画素位置のスレッショルドの総計が前記ビデオ対象物の境界内である場合、前記領域が、現在のビデオ対象物の部分である可能がある領域のセットの中にあると分類することを特徴とする請求項1に記載の方法。
  6. それにより請求項1の方法を実行するようにコンピュータをプログラムするために、コンピュータが実行可能な命令がストアされたことを特徴とするコンピュータ可読媒体。
  7. 画像フレームのベクトル画像シーケンスにおいて、意味対象物を追跡するコンピュータシステムであって、
    前記ベクトル画像シーケンス中の現在の画像フレームを複数の領域に分割する空間分割モジュールであって、各領域は、同一の基準を満足する画像値を有する画像ポイントを有している空間分割モジュールと、
    現在の画像フレームおよび基準画像フレームの各領域の間の運動を推定し、および各領域について、現在の画像フレームおよび基準画像フレームの間の領域の運動を示す運動係数を判定する運動推定モジュールであって、そこでは、前記基準画像フレームが意味対象物の境界が予め計算されている意味対象物を含む運動推定モジュールと
    各領域の運動係数を該領域に適用して、基準画像フレーム中の推定領域を計算し、および前記基準画像フレーム中の前以て計算された意味対象物の境界内で、前記領域に対する推定領域の大きさに基づいて、意味対象物の部分であるか否かを各領域について分類する領域分類モジュールと
    を有し、現在の画像フレーム中の対応の意味対象物の境界が、意味対象物の部分であると分類された各領域から形成されることを特徴とするコンピュータシステム。
  8. 前記基準画像フレームは、2または3以上の意味対象物を含み、前記2または3以上の意味対象物の各々は前記基準画像フレームの重複しないエリアを占め、
    前記領域についての推定領域と重複する2または3以上の意味対象物のいずれが前記領域についての推定領域と重複するかに基づいて、前記2または3つの意味対象物の1つの部分であるかについて、前記領域分類モジュールは、前記複数の領域を分類し、前記現在の画像フレーム中の意味対象物の対応の境界が複数の分類された領域から形成されることを特徴とする請求項7に記載のコンピュータシステム。
  9. コンピュータにおいて、逆方向の領域ベースの分類を使用する、ベクトル画像シーケンス中の対象物を追跡する方法であって、前記コンピュータが、
    ベクトル画像シーケンスの第1の画像フレームの中の対象物の境界を計算し、
    前記ベクトル画像シーケンスの第2の画像を複数の領域に分割する手段
    前記領域を、前記第2の画像フレームから前記第1の画像フレームに到る運動推定に基づいて、前記第1の画像フレームの対応の領域と関連付ける手段、および
    もしも前記第1の画像フレーム中の、関連付けられた対応領域のスレッショルド部が前以て計算された第1の画像フレーム中の境界の中にある場合は、前記対象物の部分であると前記第2の画像フレームの領域を分類する手段
    として動作することを特徴とする方法。
  10. 対象物の部分であると分類された1または複数の領域から前記第2の画像フレームの中の対象物の新しい境界を形成することを特徴とする請求項9に記載の方法。
  11. 前記分割、前記関連付けおよび前記分類を第3の画像フレームについて繰り返し、前記関連付けは、前記第3の画像フレームから前記第2の画像フレームに到る運動推定に基いており、前記分類は新しい境界との比較により生じることを特徴とする請求項10に記載の方法。
  12. それにより請求項9の方法を実行するようにコンピュータシステムをプログラムするように、コンピュータ実行可能な命令がストアされたことを特徴とするコンピュータ可読媒体。
  13. 逆方向領域ベースの分類に基づいて、ベクトル画像シーケンス中の対象物をコンピュータに追跡させる、コンピュータが実行可能な命令がストアされたコンピュータ可読媒体であって、前記コンピュータは、
    ベクトル画像シーケンスの以前の画像フレーム中の対象物の境界を計算する手段
    現在のベクトル画像シーケンスの画像フレームを、複数の領域に分割し、
    前記現在の画像フレームの複数の領域についての運動推定に基づいて、各領域を前記以前の画像フレームにワープする手段、および
    各領域について、もしワープされた領域のスレッショルド部が以前の画像フレームの対象物の、前以て計算された境界の中にある場合、現在の画像フレームの領域が前記対象物の部分であると分類する手段
    として動作することを特徴とすることを特徴とするコンピュータ可読媒体。
  14. コンピュータにおいて、ベクトル画像シーケンス中で対象物を追跡する方法であって、前記コンピュータは
    複数の画素を有する画像フレームを提供する手段
    前記画像フレーム中の複数の領域の最初の領域についての同一の基準を満足する近接の画素を付加することにより、最初の画素から前記最初の画像フレームを成長させ、前記同一の基準は前記最初の領域の中の最大画素値および最小画素値の差を抑制する手段
    前記最初の領域について同一基準を満足する近接の画素がもうない場合、前記複数の領域の1または2以上の他の領域について前記成長を、前記画像フレームの各画素が該画像フレームの中の複数の領域の1つの部分となるまで繰り返し、前記領域の成長は、領域の成長を開始する前に複数の領域全てについてのシードを指定することなくシーケンシャルに行う手段、および
    前記画像フレームの複数の領域に関して、前記ベクトル画像シーケンスにおいて前記対象物を追跡する手段
    として動作することを特徴とする方法。
JP2000570977A 1998-09-10 1999-09-10 ベクトル画像シーケンスにおける意味対象物の追跡 Expired - Fee Related JP4074062B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US09/151,368 1998-09-10
US09/151,368 US6711278B1 (en) 1998-09-10 1998-09-10 Tracking semantic objects in vector image sequences
PCT/US1999/020476 WO2000016563A1 (en) 1998-09-10 1999-09-10 Tracking semantic objects in vector image sequences

Publications (3)

Publication Number Publication Date
JP2002525735A JP2002525735A (ja) 2002-08-13
JP2002525735A5 JP2002525735A5 (ja) 2005-12-22
JP4074062B2 true JP4074062B2 (ja) 2008-04-09

Family

ID=22538452

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000570977A Expired - Fee Related JP4074062B2 (ja) 1998-09-10 1999-09-10 ベクトル画像シーケンスにおける意味対象物の追跡

Country Status (6)

Country Link
US (3) US6711278B1 (ja)
EP (2) EP1112661B1 (ja)
JP (1) JP4074062B2 (ja)
AT (1) ATE286337T1 (ja)
DE (1) DE69922973T2 (ja)
WO (1) WO2000016563A1 (ja)

Families Citing this family (156)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6711278B1 (en) * 1998-09-10 2004-03-23 Microsoft Corporation Tracking semantic objects in vector image sequences
US6917692B1 (en) * 1999-05-25 2005-07-12 Thomson Licensing S.A. Kalman tracking of color objects
AU763919B2 (en) * 2000-03-16 2003-08-07 Canon Kabushiki Kaisha Tracking objects from video sequences
US9310892B2 (en) 2000-11-06 2016-04-12 Nant Holdings Ip, Llc Object information derived from object images
US7565008B2 (en) 2000-11-06 2009-07-21 Evryx Technologies, Inc. Data capture and identification system and process
US7899243B2 (en) 2000-11-06 2011-03-01 Evryx Technologies, Inc. Image capture and identification system and process
US8224078B2 (en) 2000-11-06 2012-07-17 Nant Holdings Ip, Llc Image capture and identification system and process
US8218873B2 (en) * 2000-11-06 2012-07-10 Nant Holdings Ip, Llc Object information derived from object images
US7680324B2 (en) 2000-11-06 2010-03-16 Evryx Technologies, Inc. Use of image-derived information as search criteria for internet and other search engines
US7003061B2 (en) * 2000-12-21 2006-02-21 Adobe Systems Incorporated Image extraction from complex scenes in digital video
US20020131643A1 (en) * 2001-03-13 2002-09-19 Fels Sol Sidney Local positioning system
AU2002318859B2 (en) * 2001-12-19 2004-11-25 Canon Kabushiki Kaisha A Method for Video Object Detection and Tracking Based on 3D Segment Displacement
US7179171B2 (en) * 2002-06-24 2007-02-20 Mitsubishi Electric Research Laboratories, Inc. Fish breeding toy for cellular telephones
US20040204127A1 (en) * 2002-06-24 2004-10-14 Forlines Clifton L. Method for rendering with composited images on cellular telephones
US7085420B2 (en) * 2002-06-28 2006-08-01 Microsoft Corporation Text detection in continuous tone image segments
US7072512B2 (en) * 2002-07-23 2006-07-04 Microsoft Corporation Segmentation of digital video and images into continuous tone and palettized regions
AU2003220946A1 (en) * 2003-03-28 2004-10-25 National Institute Of Information And Communications Technology, Independent Administrative Agency Image processing method and image processing device
US7203340B2 (en) * 2003-09-03 2007-04-10 National Research Council Of Canada Second order change detection in video
JP4461937B2 (ja) * 2003-09-30 2010-05-12 セイコーエプソン株式会社 低解像度の複数の画像に基づく高解像度の画像の生成
US6942152B1 (en) * 2004-01-21 2005-09-13 The Code Corporation Versatile graphical code reader that is configured for efficient decoding
US7907769B2 (en) 2004-05-13 2011-03-15 The Charles Stark Draper Laboratory, Inc. Image-based methods for measuring global nuclear patterns as epigenetic markers of cell differentiation
WO2006132650A2 (en) * 2004-07-28 2006-12-14 Sarnoff Corporation Method and apparatus for improved video surveillance through classification of detected objects
EP2602742A1 (en) * 2004-07-30 2013-06-12 Euclid Discoveries, LLC Apparatus and method for processing video data
US7508990B2 (en) * 2004-07-30 2009-03-24 Euclid Discoveries, Llc Apparatus and method for processing video data
US9532069B2 (en) 2004-07-30 2016-12-27 Euclid Discoveries, Llc Video compression repository and model reuse
US8902971B2 (en) 2004-07-30 2014-12-02 Euclid Discoveries, Llc Video compression repository and model reuse
US9578345B2 (en) 2005-03-31 2017-02-21 Euclid Discoveries, Llc Model-based video encoding and decoding
US9743078B2 (en) 2004-07-30 2017-08-22 Euclid Discoveries, Llc Standards-compliant model-based video encoding and decoding
US7457435B2 (en) * 2004-11-17 2008-11-25 Euclid Discoveries, Llc Apparatus and method for processing video data
US7436981B2 (en) * 2005-01-28 2008-10-14 Euclid Discoveries, Llc Apparatus and method for processing video data
US7457472B2 (en) * 2005-03-31 2008-11-25 Euclid Discoveries, Llc Apparatus and method for processing video data
WO2006034308A2 (en) * 2004-09-21 2006-03-30 Euclid Discoveries, Llc Apparatus and method for processing video data
EP1815397A4 (en) * 2004-11-17 2012-03-28 Euclid Discoveries Llc DEVICE AND METHOD FOR PROCESSING VIDEO DATA
US7227551B2 (en) * 2004-12-23 2007-06-05 Apple Inc. Manipulating text and graphic appearance
TWI256232B (en) * 2004-12-31 2006-06-01 Chi Mei Comm Systems Inc Mobile communication device capable of changing man-machine interface
FR2880717A1 (fr) * 2005-01-07 2006-07-14 Thomson Licensing Sa Procede de segmentation spatio-temporelle d'une image video
CN101151640B (zh) * 2005-01-28 2010-12-08 欧几里得发现有限责任公司 用来处理视频数据的装置和方法
US8942283B2 (en) * 2005-03-31 2015-01-27 Euclid Discoveries, Llc Feature-based hybrid video codec comparing compression efficiency of encodings
CA2590869C (en) * 2005-03-31 2014-01-21 Euclid Discoveries, Llc Apparatus and method for processing video data
US8908766B2 (en) * 2005-03-31 2014-12-09 Euclid Discoveries, Llc Computer method and apparatus for processing image data
US20070011718A1 (en) * 2005-07-08 2007-01-11 Nee Patrick W Jr Efficient customized media creation through pre-encoding of common elements
US7957466B2 (en) 2005-09-16 2011-06-07 Sony Corporation Adaptive area of influence filter for moving object boundaries
US7894522B2 (en) 2005-09-16 2011-02-22 Sony Corporation Classified filtering for temporal prediction
US7894527B2 (en) 2005-09-16 2011-02-22 Sony Corporation Multi-stage linked process for adaptive motion vector sampling in video compression
US7596243B2 (en) 2005-09-16 2009-09-29 Sony Corporation Extracting a moving object boundary
US8107748B2 (en) 2005-09-16 2012-01-31 Sony Corporation Adaptive motion search range
US8165205B2 (en) * 2005-09-16 2012-04-24 Sony Corporation Natural shaped regions for motion compensation
US8005308B2 (en) 2005-09-16 2011-08-23 Sony Corporation Adaptive motion estimation for temporal prediction filter over irregular motion vector samples
US7885335B2 (en) 2005-09-16 2011-02-08 Sont Corporation Variable shape motion estimation in video sequence
US7620108B2 (en) 2005-09-16 2009-11-17 Sony Corporation Integrated spatial-temporal prediction
US8059719B2 (en) * 2005-09-16 2011-11-15 Sony Corporation Adaptive area of influence filter
US7835542B2 (en) * 2005-12-29 2010-11-16 Industrial Technology Research Institute Object tracking systems and methods utilizing compressed-domain motion-based segmentation
WO2008091484A2 (en) 2007-01-23 2008-07-31 Euclid Discoveries, Llc Object archival systems and methods
US7783118B2 (en) * 2006-07-13 2010-08-24 Seiko Epson Corporation Method and apparatus for determining motion in images
US7835544B2 (en) * 2006-08-31 2010-11-16 Avago Technologies General Ip (Singapore) Pte. Ltd. Method and system for far field image absolute navigation sensing
US8036423B2 (en) * 2006-10-11 2011-10-11 Avago Technologies General Ip (Singapore) Pte. Ltd. Contrast-based technique to reduce artifacts in wavelength-encoded images
KR101356734B1 (ko) * 2007-01-03 2014-02-05 삼성전자주식회사 움직임 벡터 트랙킹을 이용한 영상의 부호화, 복호화 방법및 장치
CN101573982B (zh) * 2006-11-03 2011-08-03 三星电子株式会社 利用运动矢量跟踪编码/解码图像的方法和装置
CN102685441A (zh) * 2007-01-23 2012-09-19 欧几里得发现有限责任公司 用于提供个人视频服务的系统和方法
ES2522589T3 (es) 2007-02-08 2014-11-17 Behavioral Recognition Systems, Inc. Sistema de reconocimiento conductual
US7929762B2 (en) * 2007-03-12 2011-04-19 Jeffrey Kimball Tidd Determining edgeless areas in a digital image
JP2008234518A (ja) * 2007-03-23 2008-10-02 Oki Electric Ind Co Ltd 画像合成装置および画像合成プログラム
US7756296B2 (en) * 2007-03-27 2010-07-13 Mitsubishi Electric Research Laboratories, Inc. Method for tracking objects in videos using forward and backward tracking
US8798148B2 (en) * 2007-06-15 2014-08-05 Physical Optics Corporation Apparatus and method employing pre-ATR-based real-time compression and video frame segmentation
US8171030B2 (en) 2007-06-18 2012-05-01 Zeitera, Llc Method and apparatus for multi-dimensional content search and video identification
US8189905B2 (en) 2007-07-11 2012-05-29 Behavioral Recognition Systems, Inc. Cognitive model for a machine-learning engine in a video analysis system
US7899804B2 (en) * 2007-08-30 2011-03-01 Yahoo! Inc. Automatic extraction of semantics from text information
US8175333B2 (en) * 2007-09-27 2012-05-08 Behavioral Recognition Systems, Inc. Estimator identifier component for behavioral recognition system
US8200011B2 (en) 2007-09-27 2012-06-12 Behavioral Recognition Systems, Inc. Context processor for video analysis system
US8300924B2 (en) * 2007-09-27 2012-10-30 Behavioral Recognition Systems, Inc. Tracker component for behavioral recognition system
US7983487B2 (en) * 2007-11-07 2011-07-19 Mitsubishi Electric Research Laboratories, Inc. Method and system for locating and picking objects using active illumination
US8570393B2 (en) * 2007-11-30 2013-10-29 Cognex Corporation System and method for processing image data relative to a focus of attention within the overall image
US20100296572A1 (en) * 2007-12-11 2010-11-25 Kumar Ramaswamy Methods and systems for transcoding within the distributiion chain
US8718363B2 (en) 2008-01-16 2014-05-06 The Charles Stark Draper Laboratory, Inc. Systems and methods for analyzing image data using adaptive neighborhooding
US8737703B2 (en) 2008-01-16 2014-05-27 The Charles Stark Draper Laboratory, Inc. Systems and methods for detecting retinal abnormalities
US8208552B2 (en) * 2008-01-25 2012-06-26 Mediatek Inc. Method, video encoder, and integrated circuit for detecting non-rigid body motion
US8086037B2 (en) * 2008-02-15 2011-12-27 Microsoft Corporation Tiling and merging framework for segmenting large images
US8121409B2 (en) 2008-02-26 2012-02-21 Cyberlink Corp. Method for handling static text and logos in stabilized images
US9251423B2 (en) * 2008-03-21 2016-02-02 Intel Corporation Estimating motion of an event captured using a digital video camera
US9256789B2 (en) * 2008-03-21 2016-02-09 Intel Corporation Estimating motion of an event captured using a digital video camera
US8917904B2 (en) 2008-04-24 2014-12-23 GM Global Technology Operations LLC Vehicle clear path detection
US8803966B2 (en) 2008-04-24 2014-08-12 GM Global Technology Operations LLC Clear path detection using an example-based approach
US8249366B2 (en) * 2008-06-16 2012-08-21 Microsoft Corporation Multi-label multi-instance learning for image classification
US9633275B2 (en) 2008-09-11 2017-04-25 Wesley Kenneth Cobb Pixel-level based micro-feature extraction
US9373055B2 (en) * 2008-12-16 2016-06-21 Behavioral Recognition Systems, Inc. Hierarchical sudden illumination change detection using radiance consistency within a spatial neighborhood
US8611590B2 (en) 2008-12-23 2013-12-17 Canon Kabushiki Kaisha Video object fragmentation detection and management
US9189670B2 (en) * 2009-02-11 2015-11-17 Cognex Corporation System and method for capturing and detecting symbology features and parameters
US8285046B2 (en) * 2009-02-18 2012-10-09 Behavioral Recognition Systems, Inc. Adaptive update of background pixel thresholds using sudden illumination change detection
US8605942B2 (en) * 2009-02-26 2013-12-10 Nikon Corporation Subject tracking apparatus, imaging apparatus and subject tracking method
US8175376B2 (en) * 2009-03-09 2012-05-08 Xerox Corporation Framework for image thumbnailing based on visual similarity
US8537219B2 (en) * 2009-03-19 2013-09-17 International Business Machines Corporation Identifying spatial locations of events within video image data
US8553778B2 (en) 2009-03-19 2013-10-08 International Business Machines Corporation Coding scheme for identifying spatial locations of events within video image data
US8411319B2 (en) * 2009-03-30 2013-04-02 Sharp Laboratories Of America, Inc. Methods and systems for concurrent rendering of graphic-list elements
US8416296B2 (en) * 2009-04-14 2013-04-09 Behavioral Recognition Systems, Inc. Mapper component for multiple art networks in a video analysis system
GB0907870D0 (en) * 2009-05-07 2009-06-24 Univ Catholique Louvain Systems and methods for the autonomous production of videos from multi-sensored data
US8442309B2 (en) * 2009-06-04 2013-05-14 Honda Motor Co., Ltd. Semantic scene segmentation using random multinomial logit (RML)
JP5335574B2 (ja) * 2009-06-18 2013-11-06 キヤノン株式会社 画像処理装置及びその制御方法
JP2011040993A (ja) * 2009-08-11 2011-02-24 Nikon Corp 被写体追尾プログラム、およびカメラ
US8280153B2 (en) * 2009-08-18 2012-10-02 Behavioral Recognition Systems Visualizing and updating learned trajectories in video surveillance systems
US8358834B2 (en) 2009-08-18 2013-01-22 Behavioral Recognition Systems Background model for complex and dynamic scenes
US20110043689A1 (en) * 2009-08-18 2011-02-24 Wesley Kenneth Cobb Field-of-view change detection
US8340352B2 (en) * 2009-08-18 2012-12-25 Behavioral Recognition Systems, Inc. Inter-trajectory anomaly detection using adaptive voting experts in a video surveillance system
US8493409B2 (en) * 2009-08-18 2013-07-23 Behavioral Recognition Systems, Inc. Visualizing and updating sequences and segments in a video surveillance system
US9805271B2 (en) 2009-08-18 2017-10-31 Omni Ai, Inc. Scene preset identification using quadtree decomposition analysis
US8379085B2 (en) * 2009-08-18 2013-02-19 Behavioral Recognition Systems, Inc. Intra-trajectory anomaly detection using adaptive voting experts in a video surveillance system
US8625884B2 (en) * 2009-08-18 2014-01-07 Behavioral Recognition Systems, Inc. Visualizing and updating learned event maps in surveillance systems
US8295591B2 (en) * 2009-08-18 2012-10-23 Behavioral Recognition Systems, Inc. Adaptive voting experts for incremental segmentation of sequences with prediction in a video surveillance system
US8270732B2 (en) * 2009-08-31 2012-09-18 Behavioral Recognition Systems, Inc. Clustering nodes in a self-organizing map using an adaptive resonance theory network
US8285060B2 (en) * 2009-08-31 2012-10-09 Behavioral Recognition Systems, Inc. Detecting anomalous trajectories in a video surveillance system
US8167430B2 (en) * 2009-08-31 2012-05-01 Behavioral Recognition Systems, Inc. Unsupervised learning of temporal anomalies for a video surveillance system
US8786702B2 (en) 2009-08-31 2014-07-22 Behavioral Recognition Systems, Inc. Visualizing and updating long-term memory percepts in a video surveillance system
US8797405B2 (en) * 2009-08-31 2014-08-05 Behavioral Recognition Systems, Inc. Visualizing and updating classifications in a video surveillance system
US8270733B2 (en) * 2009-08-31 2012-09-18 Behavioral Recognition Systems, Inc. Identifying anomalous object types during classification
US8218818B2 (en) * 2009-09-01 2012-07-10 Behavioral Recognition Systems, Inc. Foreground object tracking
US8218819B2 (en) * 2009-09-01 2012-07-10 Behavioral Recognition Systems, Inc. Foreground object detection in a video surveillance system
US8180105B2 (en) * 2009-09-17 2012-05-15 Behavioral Recognition Systems, Inc. Classifier anomalies for observed behaviors in a video surveillance system
US8170283B2 (en) * 2009-09-17 2012-05-01 Behavioral Recognition Systems Inc. Video surveillance system configured to analyze complex behaviors using alternating layers of clustering and sequencing
US9607202B2 (en) * 2009-12-17 2017-03-28 University of Pittsburgh—of the Commonwealth System of Higher Education Methods of generating trophectoderm and neurectoderm from human embryonic stem cells
US8179370B1 (en) 2010-02-09 2012-05-15 Google Inc. Proximity based keystroke resolution
US8830182B1 (en) 2010-02-09 2014-09-09 Google Inc. Keystroke resolution
US8406472B2 (en) * 2010-03-16 2013-03-26 Sony Corporation Method and system for processing image data
US9053562B1 (en) * 2010-06-24 2015-06-09 Gregory S. Rabin Two dimensional to three dimensional moving image converter
US9132352B1 (en) 2010-06-24 2015-09-15 Gregory S. Rabin Interactive system and method for rendering an object
US8751872B2 (en) 2011-05-27 2014-06-10 Microsoft Corporation Separation of error information from error propagation information
CN103106648B (zh) * 2011-11-11 2016-04-06 株式会社理光 确定图像中投影区域的方法和设备
WO2013138700A1 (en) 2012-03-15 2013-09-19 Behavioral Recognition Systems, Inc. Alert volume normalization in a video surveillance system
KR20150029006A (ko) 2012-06-29 2015-03-17 비헤이버럴 레코그니션 시스템즈, 인코포레이티드 비디오 감시 시스템을 위한 피처 이례들의 무감독 학습
US9911043B2 (en) 2012-06-29 2018-03-06 Omni Ai, Inc. Anomalous object interaction detection and reporting
US9111353B2 (en) 2012-06-29 2015-08-18 Behavioral Recognition Systems, Inc. Adaptive illuminance filter in a video analysis system
US9113143B2 (en) 2012-06-29 2015-08-18 Behavioral Recognition Systems, Inc. Detecting and responding to an out-of-focus camera in a video analytics system
US9317908B2 (en) 2012-06-29 2016-04-19 Behavioral Recognition System, Inc. Automatic gain control filter in a video analysis system
US9723271B2 (en) 2012-06-29 2017-08-01 Omni Ai, Inc. Anomalous stationary object detection and reporting
BR112015003444A2 (pt) 2012-08-20 2017-07-04 Behavioral Recognition Sys Inc método e sistema para detectar óleo em superfície de mar
DE102012020778B4 (de) 2012-10-23 2018-01-18 Audi Ag Verfahren zum Labeln einer Sequenz von in zeitlicher Abfolge aufgenommenen Bildern mit integrierter Qualitätsprüfung
KR20150084939A (ko) 2012-11-12 2015-07-22 비헤이버럴 레코그니션 시스템즈, 인코포레이티드 비디오 감시 시스템들에 대한 이미지 안정화 기술들
BR112016002281A2 (pt) 2013-08-09 2017-08-01 Behavioral Recognition Sys Inc segurança de informação cognitiva usando um sistema de reconhecimento de comportamento
US10091507B2 (en) 2014-03-10 2018-10-02 Euclid Discoveries, Llc Perceptual optimization for model-based video encoding
US9621917B2 (en) 2014-03-10 2017-04-11 Euclid Discoveries, Llc Continuous block tracking for temporal prediction in video encoding
US10097851B2 (en) 2014-03-10 2018-10-09 Euclid Discoveries, Llc Perceptual optimization for model-based video encoding
CN105321188A (zh) * 2014-08-04 2016-02-10 江南大学 基于前景概率的目标跟踪方法
US10409910B2 (en) 2014-12-12 2019-09-10 Omni Ai, Inc. Perceptual associative memory for a neuro-linguistic behavior recognition system
US10409909B2 (en) 2014-12-12 2019-09-10 Omni Ai, Inc. Lexical analyzer for a neuro-linguistic behavior recognition system
US10019657B2 (en) * 2015-05-28 2018-07-10 Adobe Systems Incorporated Joint depth estimation and semantic segmentation from a single image
US10346996B2 (en) 2015-08-21 2019-07-09 Adobe Inc. Image depth inference from semantic labels
KR101709085B1 (ko) * 2015-12-16 2017-02-23 서강대학교산학협력단 컨볼루션 신경망을 이용한 샷 경계 검출 방법 및 장치
US10229324B2 (en) * 2015-12-24 2019-03-12 Intel Corporation Video summarization using semantic information
US10853661B2 (en) 2016-04-06 2020-12-01 Intellective Ai, Inc. Methods and systems for optimized selection of data features for a neuro-linguistic cognitive artificial intelligence system
US10303984B2 (en) 2016-05-17 2019-05-28 Intel Corporation Visual search and retrieval using semantic information
US10313686B2 (en) * 2016-09-20 2019-06-04 Gopro, Inc. Apparatus and methods for compressing video content using adaptive projection selection
US10134154B2 (en) 2016-12-30 2018-11-20 Google Llc Selective dynamic color management for user interface components of a media player
WO2019093993A1 (en) * 2017-11-07 2019-05-16 Google Llc Semantic state based sensor tracking and updating
US20200226763A1 (en) * 2019-01-13 2020-07-16 Augentix Inc. Object Detection Method and Computing System Thereof
CN110751066B (zh) * 2019-09-30 2023-04-07 武汉工程大学 一种基于语义分割模型的图像状态识别方法、装置和设备
US10970855B1 (en) 2020-03-05 2021-04-06 International Business Machines Corporation Memory-efficient video tracking in real-time using direction vectors
WO2022154342A1 (en) * 2021-01-12 2022-07-21 Samsung Electronics Co., Ltd. Methods and electronic device for processing image
WO2022271517A1 (en) * 2021-06-23 2022-12-29 Op Solutions, Llc Systems and methods for organizing and searching a video database

Family Cites Families (92)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0766446B2 (ja) 1985-11-27 1995-07-19 株式会社日立製作所 移動物体像を抽出する方法
US5136659A (en) 1987-06-30 1992-08-04 Kokusai Denshin Denwa Kabushiki Kaisha Intelligent coding system for picture signal
US5043919A (en) * 1988-12-19 1991-08-27 International Business Machines Corporation Method of and system for updating a display unit
US5034986A (en) 1989-03-01 1991-07-23 Siemens Aktiengesellschaft Method for detecting and tracking moving objects in a digital image sequence having a stationary background
US5175808A (en) 1989-09-12 1992-12-29 Pixar Method and apparatus for non-affine image warping
JP2953712B2 (ja) 1989-09-27 1999-09-27 株式会社東芝 移動物体検知装置
GB9001468D0 (en) 1990-01-23 1990-03-21 Sarnoff David Res Center Computing multiple motions within an image region
JP2569219B2 (ja) 1990-01-31 1997-01-08 富士通株式会社 動画像予測方式
US5148497A (en) 1990-02-14 1992-09-15 Massachusetts Institute Of Technology Fractal-based image compression and interpolation
JPH082107B2 (ja) 1990-03-02 1996-01-10 国際電信電話株式会社 動画像のハイブリッド符号化方法及びその装置
US5103306A (en) 1990-03-28 1992-04-07 Transitions Research Corporation Digital image compression employing a resolution gradient
JP3037383B2 (ja) 1990-09-03 2000-04-24 キヤノン株式会社 画像処理システム及びその方法
GB9019538D0 (en) 1990-09-07 1990-10-24 Philips Electronic Associated Tracking a moving object
US5266941A (en) * 1991-02-15 1993-11-30 Silicon Graphics, Inc. Apparatus and method for controlling storage of display information in a computer system
JPH04334188A (ja) 1991-05-08 1992-11-20 Nec Corp 動画像信号の符号化方式
AU660020B2 (en) * 1991-05-24 1995-06-08 British Broadcasting Corporation, The Video image processing
JP2873338B2 (ja) 1991-09-17 1999-03-24 富士通株式会社 動物体認識装置
JP2856229B2 (ja) 1991-09-18 1999-02-10 財団法人ニューメディア開発協会 画像切り出し箇所検出方法
US5259040A (en) 1991-10-04 1993-11-02 David Sarnoff Research Center, Inc. Method for determining sensor motion and scene structure and image processing system therefor
JP2790562B2 (ja) 1992-01-06 1998-08-27 富士写真フイルム株式会社 画像処理方法
JP3068304B2 (ja) 1992-01-21 2000-07-24 日本電気株式会社 動画像符号化方式および復号化方式
EP0560610B1 (en) 1992-03-13 1998-12-09 Canon Kabushiki Kaisha Movement vector detecting apparatus
US5809161A (en) 1992-03-20 1998-09-15 Commonwealth Scientific And Industrial Research Organisation Vehicle monitoring system
US5706417A (en) 1992-05-27 1998-01-06 Massachusetts Institute Of Technology Layered representation for image coding
GB9215102D0 (en) 1992-07-16 1992-08-26 Philips Electronics Uk Ltd Tracking moving objects
EP0584559A3 (en) 1992-08-21 1994-06-22 United Parcel Service Inc Method and apparatus for finding areas of interest in images
JPH06113287A (ja) 1992-09-30 1994-04-22 Matsushita Electric Ind Co Ltd 画像符号化装置と画像復号化装置
US5592228A (en) 1993-03-04 1997-01-07 Kabushiki Kaisha Toshiba Video encoder using global motion estimation and polygonal patch motion estimation
JP3679426B2 (ja) 1993-03-15 2005-08-03 マサチューセッツ・インスティチュート・オブ・テクノロジー 画像データを符号化して夫々がコヒーレントな動きの領域を表わす複数の層とそれら層に付随する動きパラメータとにするシステム
EP0627693B1 (fr) 1993-05-05 2004-11-17 Koninklijke Philips Electronics N.V. Dispositif de segmentation d'images composées de textures
US5329311A (en) 1993-05-11 1994-07-12 The University Of British Columbia System for determining noise content of a video signal in the disclosure
DE69416717T2 (de) 1993-05-21 1999-10-07 Nippon Telegraph & Telephone Bewegtbildkoder und -dekoder
US5517327A (en) * 1993-06-30 1996-05-14 Minolta Camera Kabushiki Kaisha Data processor for image data using orthogonal transformation
JP2576771B2 (ja) 1993-09-28 1997-01-29 日本電気株式会社 動き補償予測装置
WO1995010915A1 (en) * 1993-10-12 1995-04-20 Orad, Inc. Sports event video
US5434927A (en) * 1993-12-08 1995-07-18 Minnesota Mining And Manufacturing Company Method and apparatus for machine vision classification and tracking
US5586200A (en) * 1994-01-07 1996-12-17 Panasonic Technologies, Inc. Segmentation based image compression system
JPH07299053A (ja) 1994-04-29 1995-11-14 Arch Dev Corp コンピュータ診断支援方法
US5594504A (en) * 1994-07-06 1997-01-14 Lucent Technologies Inc. Predictive video coding using a motion vector updating routine
JP2870415B2 (ja) 1994-08-22 1999-03-17 日本電気株式会社 領域分割方法および装置
US5978497A (en) 1994-09-20 1999-11-02 Neopath, Inc. Apparatus for the identification of free-lying cells
EP0709809B1 (en) 1994-10-28 2002-01-23 Oki Electric Industry Company, Limited Image encoding and decoding method and apparatus using edge synthesis and inverse wavelet transform
EP0720383B1 (en) 1994-12-30 2000-09-13 Daewoo Electronics Co., Ltd Method and apparatus for detecting motion vectors in a frame decimating video encoder
KR0171146B1 (ko) 1995-03-18 1999-03-20 배순훈 특징점을 이용한 움직임 벡터 검출 장치
KR0171118B1 (ko) 1995-03-20 1999-03-20 배순훈 비디오신호 부호화 장치
KR0171147B1 (ko) 1995-03-20 1999-03-20 배순훈 그레디언트 변화를 이용한 특징점 선정장치
KR0171143B1 (ko) 1995-03-20 1999-03-20 배순훈 육각그리드에서의 삼각구조 형성 장치
JP3612360B2 (ja) 1995-04-10 2005-01-19 株式会社大宇エレクトロニクス 移動物体分割法を用いた動画像の動き推定方法
KR0181063B1 (ko) 1995-04-29 1999-05-01 배순훈 특징점을 이용한 움직임 보상에서의 그리드 형성방법 및 장치
KR0171154B1 (ko) 1995-04-29 1999-03-20 배순훈 특징점 기반 움직임 추정을 이용하여 비디오 신호를 부호화하는 방법 및 장치
US5654771A (en) 1995-05-23 1997-08-05 The University Of Rochester Video compression system using a dense motion vector field and a triangular patch mesh overlay model
US5717463A (en) 1995-07-24 1998-02-10 Motorola, Inc. Method and system for estimating motion within a video sequence
US5668608A (en) 1995-07-26 1997-09-16 Daewoo Electronics Co., Ltd. Motion vector estimation method and apparatus for use in an image signal encoding system
JPH10507331A (ja) 1995-08-02 1998-07-14 フィリップス エレクトロニクス ネムローゼ フェンノートシャップ 画像シーケンスを符号化し、符号化した信号を記憶媒体に対応させる方法およびシステムと、このような符号化信号を復号化する方法およびシステム
KR0178229B1 (ko) 1995-08-08 1999-05-01 배순훈 특징점에 근거한 화소단위 움직임 추정을 이용한 영상 처리 장치
KR100304660B1 (ko) * 1995-09-22 2001-11-22 윤종용 누적에러처리를통한비디오신호부호화방법및부호화기
US5796855A (en) 1995-10-05 1998-08-18 Microsoft Corporation Polygon block matching method
DE69633129T2 (de) * 1995-10-25 2005-08-04 Sarnoff Corp. Waveletbaum-bildcoder mit überlappenden bildblöcken
US5802220A (en) 1995-12-15 1998-09-01 Xerox Corporation Apparatus and method for tracking facial motion through a sequence of images
US5692063A (en) 1996-01-19 1997-11-25 Microsoft Corporation Method and system for unrestricted motion estimation for video
US6957350B1 (en) * 1996-01-30 2005-10-18 Dolby Laboratories Licensing Corporation Encrypted and watermarked temporal and resolution layering in advanced television
US5764814A (en) 1996-03-22 1998-06-09 Microsoft Corporation Representation and encoding of general arbitrary shapes
US5778098A (en) 1996-03-22 1998-07-07 Microsoft Corporation Sprite coding
US6037988A (en) 1996-03-22 2000-03-14 Microsoft Corp Method for generating sprites for object-based coding sytems using masks and rounding average
US5982909A (en) * 1996-04-23 1999-11-09 Eastman Kodak Company Method for region tracking in an image sequence using a two-dimensional mesh
EP0831422B1 (en) 1996-09-20 2007-11-14 Hitachi, Ltd. Method of displaying moving object for enabling identification of its moving route, display system using the same, and program recording medium therefor
US6075875A (en) 1996-09-30 2000-06-13 Microsoft Corporation Segmentation of image features using hierarchical analysis of multi-valued image data and weighted averaging of segmentation results
US5748789A (en) 1996-10-31 1998-05-05 Microsoft Corporation Transparent block skipping in object-based video coding systems
US5864630A (en) * 1996-11-20 1999-01-26 At&T Corp Multi-modal method for locating objects in images
US5912991A (en) * 1997-02-07 1999-06-15 Samsung Electronics Co., Ltd. Contour encoding method using error bands
US6421738B1 (en) * 1997-07-15 2002-07-16 Microsoft Corporation Method and system for capturing and encoding full-screen video graphics
US6167155A (en) * 1997-07-28 2000-12-26 Physical Optics Corporation Method of isomorphic singular manifold projection and still/video imagery compression
US6188777B1 (en) * 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
US6097854A (en) * 1997-08-01 2000-08-01 Microsoft Corporation Image mosaic construction system and apparatus with patch-based alignment, global block adjustment and pair-wise motion-based local warping
US5946043A (en) 1997-12-31 1999-08-31 Microsoft Corporation Video coding using adaptive coding of block parameters for coded/uncoded blocks
US6226407B1 (en) * 1998-03-18 2001-05-01 Microsoft Corporation Method and apparatus for analyzing computer screens
US6400831B2 (en) * 1998-04-02 2002-06-04 Microsoft Corporation Semantic video object segmentation and tracking
US6711278B1 (en) * 1998-09-10 2004-03-23 Microsoft Corporation Tracking semantic objects in vector image sequences
US6721454B1 (en) * 1998-10-09 2004-04-13 Sharp Laboratories Of America, Inc. Method for automatic extraction of semantically significant events from video
US6573915B1 (en) * 1999-12-08 2003-06-03 International Business Machines Corporation Efficient capture of computer screens
US6654419B1 (en) * 2000-04-28 2003-11-25 Sun Microsystems, Inc. Block-based, adaptive, lossless video coder
US6650705B1 (en) * 2000-05-26 2003-11-18 Mitsubishi Electric Research Laboratories Inc. Method for encoding and transcoding multiple video objects with variable temporal resolution
CA2421111A1 (en) * 2000-08-31 2002-03-07 Rytec Corporation Sensor and imaging system
US6959104B2 (en) * 2001-02-05 2005-10-25 National Instruments Corporation System and method for scanning a region using a low discrepancy sequence
US6870945B2 (en) * 2001-06-04 2005-03-22 University Of Washington Video object tracking by estimating and subtracting background
US20030072479A1 (en) * 2001-09-17 2003-04-17 Virtualscopics System and method for quantitative assessment of cancers and their change over time
GB0122601D0 (en) * 2001-09-19 2001-11-07 Imp College Innovations Ltd Manipulation of image data
US6904159B2 (en) * 2001-12-20 2005-06-07 Mitsubishi Electric Research Laboratories, Inc. Identifying moving objects in a video using volume growing and change detection masks
US7046827B2 (en) * 2002-02-15 2006-05-16 International Business Machines Corporation Adapting point geometry for storing address density
US6904759B2 (en) * 2002-12-23 2005-06-14 Carrier Corporation Lubricant still and reservoir for refrigeration system
US7764808B2 (en) * 2003-03-24 2010-07-27 Siemens Corporation System and method for vehicle detection and tracking
WO2005036456A2 (en) * 2003-05-12 2005-04-21 Princeton University Method and apparatus for foreground segmentation of video sequences

Also Published As

Publication number Publication date
WO2000016563A1 (en) 2000-03-23
US20050240629A1 (en) 2005-10-27
EP1519589A2 (en) 2005-03-30
DE69922973T2 (de) 2005-05-19
US7088845B2 (en) 2006-08-08
US7162055B2 (en) 2007-01-09
US6711278B1 (en) 2004-03-23
EP1112661A1 (en) 2001-07-04
US20040189863A1 (en) 2004-09-30
DE69922973D1 (de) 2005-02-03
JP2002525735A (ja) 2002-08-13
EP1112661B1 (en) 2004-12-29
ATE286337T1 (de) 2005-01-15
EP1519589A3 (en) 2010-12-08

Similar Documents

Publication Publication Date Title
JP4074062B2 (ja) ベクトル画像シーケンスにおける意味対象物の追跡
JP4740657B2 (ja) カラーセグメンテーションに基づくステレオ3次元再構成システムおよびプロセス
JP3679426B2 (ja) 画像データを符号化して夫々がコヒーレントな動きの領域を表わす複数の層とそれら層に付随する動きパラメータとにするシステム
JP4954206B2 (ja) ビデオオブジェクトのカットアンドペースト
EP1977395B1 (en) Methods and systems for digitally re-mastering of 2d and 3d motion pictures for exhibition with enhanced visual quality
US9619897B2 (en) Correction of blotches in component images
Zhang et al. Robust bilayer segmentation and motion/depth estimation with a handheld camera
JP4777433B2 (ja) ビデオ前景の分割方法
KR101634562B1 (ko) 저해상도 비디오로부터 고해상도 비디오를 생성하는 방법
US8718387B1 (en) Method and apparatus for enhanced stereo vision
CN101119442A (zh) 基于全景图拼接的视频编辑方法
Kottler et al. 3GAN: A Three-GAN-based Approach for Image Inpainting Applied to the Reconstruction of Occluded Parts of Building Walls.
Giaccone et al. Motion-compensated multichannel noise reduction of color film sequences
Hermans et al. Augmented panoramic video
Aydin RAW Bayer Domain Image Alignment
JP6216192B2 (ja) 動き推定装置及びプログラム
Pohl et al. Semi-Automatic 2D to 3D Video Conversion
Aydin et al. Blotch Inpainting Based On Sift Feature Extraction in Old Films
Akhter et al. Super-Trajectories: A Compact Yet Rich Video Representation
CN117641058A (zh) 一种改进的基于AnimeInterp的光流图生成方法
Tweed et al. Moving Object Graphs and Layer Extraction from Image Sequences.
CN114972517A (zh) 一种基于raft的自监督深度估计方法
JPH11339044A (ja) 3次元形状入力方法および3次元形状入力プログラムを記録した記録媒体
Natarajan Tracking of objects in spatiotemporal volume by graph-cuts
Borikar Fast Algorithms For Fragment Based Completion In Images Of Natural Scenes

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041029

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041029

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20041029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070803

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20071105

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20071112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080124

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110201

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4074062

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120201

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130201

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130201

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140201

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees