JP2008537391A - ビデオデータを処理する装置および方法 - Google Patents
ビデオデータを処理する装置および方法 Download PDFInfo
- Publication number
- JP2008537391A JP2008537391A JP2008504465A JP2008504465A JP2008537391A JP 2008537391 A JP2008537391 A JP 2008537391A JP 2008504465 A JP2008504465 A JP 2008504465A JP 2008504465 A JP2008504465 A JP 2008504465A JP 2008537391 A JP2008537391 A JP 2008537391A
- Authority
- JP
- Japan
- Prior art keywords
- data
- model
- generating
- motion
- corresponding elements
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/537—Motion estimation other than block-based
- H04N19/54—Motion estimation other than block-based using feature points or meshes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
Abstract
【解決手段】様々なパラメータ化技法の比較および特定データの連続的ビデオ処理の最適技法の選択を可能にする。この表現は膨大な処理の隙間を埋めるものとして、またはビデオデータを処理するフィードバック機構として、中間形式で利用できる。中間形式において利用される場合、ビデオデータの記憶、強調、絞込み、特徴抽出、圧縮、コード化および伝送の処理において使用される。頑健で有効な方法で顕著な情報を抽出するのに役立つと同時に、ビデオデータソースに一般的に関係する問題に対処する。
【選択図】図2
Description
フレームのオブジェクトを検出すること、およびそのあとに続く所定数のフレームを通じてこのオブジェクトを追跡することは、当技術分野では公知である。アルゴリズムおよびプログラムのうち、オブジェクト検出機能を実行するのに使用されるのは、Viola/Jones(P. ViolaとM. Jones)の「頑健なリアルタイムのオブジェクト検出(Robust Real-time Object Detection)」(モデル化、学習、計算およびサンプル化の統計理論および計算理論ビジョン第2回国際ワークショップ・プロシーディングス(2001年7月にカナダのバンクーバにて))である。同様に、連続するフレームを通じて検出オブジェクトを追跡するのに使用される、多数のアルゴリズムおよびプログラムが存在する。例として、C. Edwards,C. TaylorおよびT. Cootesの「画像シーケンスにおける顔を識別して追跡するための学習(Learning to identify and track faces in animage sequence)」(自動の顔およびジェスチャ認識の国際会議プロシーディングス、1998年、第260〜265頁)がある。
本発明の一実施形態では、1つまたは複数のフレーム内の空間位置が、空間強度場勾配解析を通して決定される。これらの特徴は、「コーナー」として大まかに記載できる「線」の交点に対応する。このような実施形態はさらに、両方とも強いコーナーで相互に空間的に分離したコーナー(ここでは特徴点と称する)の組を選択する。さらに、オプティカルフロー推定の階層的な多重解像度を用いて、特徴点の時間的な並進変位を求めることができる。
本発明の限定されない一実施形態では、頑健なオブジェクト識別器を用いてビデオフレーム内の顔を追跡する。このような識別器は顔に向けられた方位エッジに対するカスケード応答を基礎とする。この識別器では、エッジは一連の基本的なHaar特徴として定義され、これら特徴の回転は45°ごとである。カスケード識別器はAdaBoostアルゴリズムの変形形態である。さらに、応答計算は、エリア総和テーブルを使用して最適化される。
位置合わせは、2つまたはこれ以上のビデオフレーム内で識別されたオブジェクトの要素間の相関関係の指定を伴う。これらの相関関係は、ビデオデータ内の時間的に別個の点におけるビデオデータ間の空間関係のモデル化の基礎となる。
ビデオフレームを重複しないようにブロックに分割すると仮定して、各ブロックに対する一致について前のビデオフレームを探索する。全域探索ブロックベース(FSBB)の動き検出によって、現在のフレーム内のブロックと比較する際、前のビデオフレーム内の最小誤差を有する位置を見出す。FSBBの実行は計算的に極めて負荷が大きく、多くの場合、局所的動きの仮定に基づいた他の動き検出方式に比べて優れた一致を得るとは限らない。ダイアモンド探索ブロックベース(DSBB)の勾配降下動き検出は、各種サイズのダイアモンド形状の探索パターンを用いて、ブロックの最高一致の方向に誤差勾配を反復的に移動するものであって、FSBBに対する一般的な代替方法である。
メッシュに基づく予測には、エッジによって連結される頂点のメッシュを用いる。これは、ビデオフレームの離散領域の境界を明確に線引きして、メッシュ頂点の位置によって制御される変形モデルを通じて、後続のフレームにおける離散領域の変形および移動を予測するためである。頂点が動くと、この頂点によって画定される領域内の画素も動き、現在のフレームを予測することができる。相対移動およびそれによる元の画素値の近似は、補間法で実行される。この補間法は、画素位置を、この画素近辺における頂点の位置に結びつけるものである。単なる並進に比べて、拡大縮小および回転の追加モデル化は、このような動きがビデオ信号に現れる際に、フレームの画素のより正確な予測を可能にする。
従来技術では、ブロックを基礎とする動き検出は一般に、1つまたは複数の空間一致をもたらす空間探索として実現されていた。位相を基礎とする正規化相互相関(PNCC)は、図3に示されているとおり、現在のフレームおよび前のフレームからのブロックを「位相空間」に変換し、これらの2つのブロックの相互相関を見出す。相互相関は、値の位置が2つのブロック間のエッジの「位相シフト」に対応する、値の場として表される。これらの位置はしきい値化によって分離され、その後、空間座標に変換して戻される。空間座標は別個のエッジ変位であり、動きベクトルに対応する。
一実施形態では、本発明は、2またはそれ以上のビデオフレームの検出オブジェクトの対応する要素間の関係を用いることによって、相関関係モデルを生成する。有限差分予測値の場から1つまたはそれ以上の線形モデルを因子分解することによって、これら対応する要素間の関係が解析される。用語「場」は、空間位置を有する各有限差分を指す。これら有限差分は、<検出および追跡>の章で述べた、別々のビデオフレームにおける対応のオブジェクト特徴の並進変位であってもよい。サンプリングが発生する場は、ここでは、有限差分の母集団のことを指す。ここで記載される方法は、RANSACアルゴリズムの予測値と同様に頑健な予測値を用いる。RANSACアルゴリズムは、M. A. FischlerとR. C. Bollesの「ランダム・サンプル・コンセンサス:画像解析および自動化された地図作成に応用するモデルの当てはめについてのパラダイム(Random Sample Consensus: A paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography)」(ACMの通信部会、Vol24,第381〜395頁,1981年)に記載されている。
正規化は、標準または共通の空間構成のために空間強度場を再サンプリングすることを意味する。これら相対的な空間構成がこのような構成の間の可逆空間変換である場合、画素の再サンプリングおよびこれに伴う補間もまた位相限界まで可逆性を有する。本発明の正規化方法は図5に示されている。
本発明の別の実施形態は、特徴点を三角形状メッシュにテセレーション(tesselate(モザイク模様にする)し、メッシュの頂点が追跡され、各三角形の頂点の相対位置が、これら3つの頂点に一致する平面に対する3次元の表面法線の予測に使用される。表面法線がカメラの射影軸に一致する場合、画像化された画素が、三角形に対応するオブジェクトのひずみが最も少ないレンダリングをもたらすことができる。表面法線に直交する傾向の正規化画像を生成することで、後続の外観を基礎とするPCAモデルの線形性を向上させる中間データタイプを保存する画素を生成することができる。
メッシュのエッジに不連続が位置したときに、暗示的に不連続をモデル化するために、テセレーションされたメッシュを整列させるように空間不連続の分類が使用される。
本発明は、時空間ストリームにおける画素が「局所的な」方式で位置合わせされる方法を提供する。
本発明は、前述の規則的メッシュを利用する局所正規化方法を拡張する。このメッシュは、検出オブジェクトに一致した位置およびサイズを有している根本の画素に関係なく構築される。
詳述するセグメント化処理によって識別される空間不連続性は、不連続のそれぞれの境界の幾何パラメータ化によって効率的にコード化され、これらを空間不連続モデルと称する。これらの空間不連続モデルは段階的方法でコード化され、コード化の部分集合に対応するより簡潔な境界記述を可能にする。段階的なコード化は、空間不連続の顕著な様相の大部分を保持しながら、空間形状の優先順位付けの頑健な方法を提供する。
並進動きベクトルの時間積分、すなわち高次動きモデルへの、空間強度場における有限差分の測定は、従来技術で説明されている動きセグメント化の形式である。
図13のブロック図は、オブジェクトセグメント化の一好ましい実施形態を示す。図示した処理は、正規化された画像の集合体(1302)で開始し、次に、集合体間のペアワイズ差分(1304)が求められる。これら差分は、次に、蓄積バッファに要素ワイズで蓄積される(1306)。より重大な誤差領域を識別するために、この蓄積バッファはしきい値が定められる(1310)。次に、蓄積された誤差領域(1310)の空間支持を判別するために、このしきい値を超えた要素マスクが構造的に解析される(1312)。オブジェクトと一致する蓄積された誤差領域に後続の処理を集中させるために、構造的解析(1312)の抽出結果(1314)が検出されたオブジェクト位置と比較される(1320)。孤立した空間領域(1320)の境界が、次に、多角形に近似され(1322)、この多角形の凸包が生成される(1324)。動的な輪郭解析(1332)についての頂点位置をより初期化するために、包の輪郭が次に調整される(1330)。動的輪郭解析(1332)が、蓄積された誤差空間において低エネルギ解に集中すると、輪郭は最終輪郭(1334)として用いられ、輪郭に拘束された画素はほとんどがオブジェクト画素であると考えられ、輪郭の外側の画素は非オブジェクト画素であると考えられる。
図12に示すブロック図は、非オブジェクトセグメント化すなわち背景解決の一好ましい実施形態を開示する。背景バッファを初期化(1206)して、最大距離値(1204)バッファの初期値を設定してから、検出されたオブジェクト位置(1202)からの最大距離に「安定性」を関連付けることにより、最も安定した非オブジェクト画素を判別するために、本処理が機能する。新たに検出されたオブジェクト位置(1202)を前提として、本処理は各画素位置(1210)をチェックする。各画素位置(1210)について、検出されたオブジェクト位置(1210)からの距離が距離変換を用いて計算される。対象の画素についての距離が、最大距離バッファ(1204)に既に格納された位置よりも大きい場合(1216)、格納値は現在値によって上書きされ(1218)、画素バッファに画素値が記録される(1220)。
テクスチャのセグメント化方法、すなわち強度勾配セグメント化は、1つまたは複数のビデオフレーム内の画素の局所勾配を解析する。勾配応答はビデオフレーム内の画素位置近傍の空間不連続を特徴付ける、統計的測定値である。次に、いくつかの空間的クラスタ化方法のうちの1つを用いて、勾配応答同士を組み合わせて空間領域を生成する。これらの領域の境界が、1つまたは複数のビデオフレームにおける空間不連続の識別に有効である。
本発明の実施形態は、さらに、いくつかの空間スケールを通して画像勾配値を生成することによって、画像勾配サポートを制約する。この方法は画像勾配の修正に役立つことができる。例えば、異なるスケールにおける空間不連続が互いをサポートするために使用される。「エッジ」がいくつかの異なる空間スケールにおいて区別される限り、そのエッジは「顕著」である必要がある。より修正された画像勾配は、より顕著な特徴に相関する傾向にある。
スペクトルセグメント化の方法は、ビデオ信号における白黒、グレースケールまたは色の画素の統計的確率分布を解析する。スペクトル識別器は、これらの画素の確率分布に対してクラスタ化操作を実行することにより構成される。次に、識別器を用いて、1つまたは複数の画素を確率クラスに属するとして分類する。次に、結果として得られた確率クラスおよびその画素はクラスラベルを与えられる。その後、これらのクラスラベルは明確な境界を有する画素の領域に空間的に関連付けられる。これらの境界は1つまたは複数のビデオフレーム内の空間的不連続を識別する。
ここで説明される発明はビデオフレーム背景のモデル化方法であって、検出されたオブジェクトと各ビデオフレーム内の各画素の間の空間距離測定の時間的最大に基づくモデル化方法を含む。オブジェクトの検出された位置を前提として、距離変換が適用され、フレーム内の各画素についてスカラー距離が生成される。各画素についてビデオフレームのすべてにわたる最大距離のマップが保持される。最大値が最初に割り当てられるか、あるいはその後に新規かつ異なる値で更新されると、このビデオフレームの対応する画素が、「解明された背景」フレームに保持される。
ビデオ処理の共通の目的は、多くの場合、ビデオフレームのシーケンスの外観をモデル化して保存することである。本発明は、前処理を利用して、頑健で広範囲に利用可能な方法で適用される制限された外観のモデル化方法を実現することを目的としている。前述の位置合わせ、セグメント化および正規化は明らかにこの目的のためのものである。
局所変形は頂点変位としてモデル化されることができ、補間関数が画素の再サンプル化を判別するために用いられる。この判別は、これら画素に関連する頂点に従って行われる。これら頂点変位は、多くの頂点にわたる単一のパラメータセットとしてとらえられると、動きにおける極めて大きい変化を提供する。これらパラメータにおける相関が、これらパラメータ空間の次元を著しく減少させることができる。
外観変化モデルを生成する好ましい手段は、ビデオフレームをパターンベクトルと組み合わせて訓練マトリックスとするか、または訓練マトリックスに主成分分析(PCA)を組み合わせるかもしくは適用することである。このような展開が打ち切られると、結果として得られるPCA変換マトリックスは、ビデオの後続のフレームの解析および合成に用いられる。打ち切りレベルに基づいて、画素の元の外観の品質レベルの変更が達成される。
PCAは、PCA変換を用いて、パターンをPCA係数にコード化する。PCA変換によって、より優れたパターンが表現されると、パターンをコード化するのに必要な係数がより少なくなる。訓練パターンの取得とコード化されるパターンとの間の時間の経過に伴ってパターンベクトルが劣化することを認識して、変換を更新することにより劣化に対抗する作用を助けることができる。新しい変換の生成に対する代わりとして、既存パターンの逐次更新が、特定の場合において計算的により有効である。
本発明の一実施形態においては、対称的な組合せ(symmetric ensemble)に基づいて、分解が実行される。この組合せは、6つの直交要素の合計として、正方形画像が表現される。各要素は、正方形の異なる対称性に相当する。対称性によって、各直交要素は、完全な要素に対称性の作用によってマッピングされる「基本領域」で決まる。基本領域の合計は、入力画像自体が特別な対称性を有しないことを仮定すれば、入力画像と同一の数(cardinality)を有する
MPEGビデオ圧縮では、現在のフレームは動きベクトルを使用して前のフレームの動き補償によって形成され、次いで補償ブロックに対して残差の更新を適用し、最終的に十分な一致を有しないいずれかのブロックが新しいブロックとしてコード化される。
本発明の別の改良は、ブロックに適用される動きベクトルが、画素を移動させることによって前のフレームからのいずれかの画素を遮蔽する(覆う)か否かを決定する。各遮蔽の発生に対して、遮蔽画素を新しい層に分割する。また、履歴なしに出現する画素も存在する。出現した画素は現在のフレーム内のそれら出現画素に適合するいずれかの層に配置され、履歴の適合はその層に対して実施される。
本発明の別の実施形態は、離散コサイン変換(DCT)または離散レット変換(DWT)を用いて、各フレームをサブバンド画像に分解する。次に、主成分分析(PCA)がこれらの「サブバンド」ビデオのそれぞれに適用される。この概念は、ビデオフレームのサブバンド分解が元のビデオフレームと比較して、サブバンドのいずれか1つにおける空間変化を少なくするというものである。
データが離散ウェーブレット変換(DWT)を用いて分解されると、多重帯域通過データセットが低い空間解像度になる。この変換処理は、単一のスカラー値を得るまで、導き出されたデータに再帰的に適用される。分解された構造におけるスカラー要素は一般に、階層的な親/子方式で関連付けられる。結果として得られるデータは多重解像度の階層的な構造および有限差分を含む。
当業者には理解されるとおり、離散的にサンプル化された事象データおよび派生データは、代数的ベクトル空間に対応するデータベクトルのセットとして表現される。これらベクトルは、セグメント化されたオブジェクトの正規化された外観における画素、動きパラメータ、および2または3次元における特徴または頂点の構造的位置(これらに限定されない)を含む。これらベクトルのそれぞれはベクトル空間に存在し、この空間の形状の解析が用いられてもよく、サンプル化されたベクトル、つまりパラメータのベクトルのコンパクトな表現が取得される。有利な形状条件は、コンパクトな部分空間を形成するパラメータベクトルによって類型化されている。1つまたは複数の部分空間が混合されて複雑な部分空間を生成すると、個々の単純な部分空間の識別が難しくなる。元のベクトルの何らかの相互作用(例えば、内積)を通して生成される、より高次元のベクトル空間におけるデータを調べることによって、このような部分空間の分離を可能にするいくつかのセグメント化方法が存在する。
本発明は、ビデオストリームを2またはそれ以上の「正規化」ストリームにセグメント化することの追加によって、ブロックを基礎とした動き予測コード化の仕組みの効率を拡張する。次に、従来のコーデック(CODEC)の並進動きの仮定を有効にできるように、これらのストリームが別個にコード化される。正規化ストリームをデコードすると、ストリームはこれらの適切な位置に非正規化され、一体に合成されて、元のビデオシーケンスが得られる。
本発明の記述のとおり、従来のブロックを基礎とした圧縮アルゴリズムと正規化−セグメント化の仕組みとの組み合わせにおいて、いくつかの進歩的な方法がもたらされる。第1に、特別なデータ構造および通信プロトコルが必要とされる。
Claims (26)
- 複数のビデオフレームからビデオ信号データのコード化形式を生成する、コンピュータ実装される方法であって、
2またはそれ以上のビデオフレームにおける少なくとも1つのオブジェクトを検出する工程と、
前記ビデオフレームの2またはそれ以上を通して前記少なくとも1つのオブジェクトを追跡する工程と、
前記ビデオフレームの2またはそれ以上における少なくとも1つのオブジェクトの対応する要素を識別する工程と、
前記対応する要素間の関係を生成するように対応する要素を解析する工程と、
前記対応する要素間の前記関係を用いて相関関係モデルを生成する工程と、
前記相関関係モデルを利用して、2またはそれ以上のビデオフレームにおける少なくとも1つのオブジェクトの画素データを再サンプリングすることにより、再サンプル画素データを生成する工程であって、再サンプル画素データがデータの第1中間形式を表現する工程と、
相関関係モデルを利用して、再サンプル画素データの空間位置を復元することにより、復元画素を生成する工程とを備え、
検出がないことは、フレーム全てに対して間接的な検出であることを示し、
前記検出工程および前記追跡工程は、Viola/Jones顔検出アルゴリズムを用いる、ビデオ信号データのコード化形式生成方法。 - 複数のビデオフレームからビデオ信号データのコード化形式を生成する、コンピュータ実装される方法であって、
2またはそれ以上のビデオフレームにおける少なくとも1つのオブジェクトを検出する工程と、
前記ビデオフレームの2またはそれ以上を通して前記少なくとも1つのオブジェクトを追跡する工程と、
データの第2中間形式を生成するように、前記2またはそれ以上のビデオフレームにおける前記少なくとも1つのオブジェクトの画素データを他の画素データからセグメント化する工程であって、画素データの空間セグメント化を利用する工程と、
前記ビデオフレームの2またはそれ以上における少なくとも1つのオブジェクトの対応する要素を識別する工程と、
前記対応する要素間の関係を生成するように対応する要素を解析する工程と、
前記対応する要素間の前記関係を用いて相関関係モデルを生成する工程と、
前記対応する要素間の関係を全体動きのモデルに統合する工程と、
前記相関関係モデルを利用して、2またはそれ以上のビデオフレームにおける少なくとも1つのオブジェクトの画素データを再サンプリングすることにより、再サンプル画素データを生成する工程であって、再サンプル画素データがデータの第1中間形式を表現する工程と、
相関関係モデルを利用して、再サンプル画素データの空間位置を復元することにより、復元画素を生成する工程と、
元のビデオフレームを作成するように、復元画素を、データの前記第2中間形式の関連位置とともに再結合する工程とを備え、
検出がないことは、フレーム全てに対して間接的な検出であることを示し、
前記検出工程および前記追跡工程は、顔検出アルゴリズムを用い、
前記相関関係モデルの生成は、多次元射影動きモデルの解を求めるために、頑健な推定量を用い、
前記対応する要素の解析は、前記ビデオフレームの2またはそれ以上の間の外観を基礎とした動き検出を用いる、ビデオ信号データのコード化形式生成方法。 - 請求項1において、さらに、
データの第2中間形式を生成するように、前記2またはそれ以上のビデオフレームにおける前記少なくとも1つのオブジェクトの画素データを他の画素データからセグメント化する工程であって、時間統合を利用する工程と、
元のビデオフレームを作成するように、復元画素を、データの前記第2中間形式の関連位置とともに再結合する工程とを備えた、ビデオ信号データのコード化形式生成方法。 - 請求項1において、さらに、
前記相関関係モデルを全体モデルに因子分解する方法を備え、この方法が、
前記対応する要素間の関係を全体動きのモデルに統合する工程を備え、
前記相関関係モデルの生成は、2次元アフィン型の動きモデルの解を求めるために、頑健なサンプル化コンセンサスを用い、
前記対応する要素の解析は、前記ビデオフレームの2またはそれ以上の間におけるブロックを基礎とする動き検出から生成された有限差分に基づくサンプル化母集団を用いる、ビデオ信号データのコード化形式生成方法。 - 請求項1において、さらに、
前記データの前記第1中間形式をコード化する工程を備え、このコード化工程が、
再サンプル画素データをコード化表現に分解する工程であって、このコード化表現はデータの第3中間形式を表現する工程と、
前記コード化表現のゼロまたはそれ以上のバイトを打ち切る工程と、
前記コード化表現から再サンプル画素データを再構成する工程とを備え、
前記分解工程および前記再構成工程のそれぞれが主成分分析を用いる、ビデオ信号データのコード化形式生成方法。 - 請求項3において、さらに、
前記相関関係モデルを全体モデルに因子分解する方法を備え、この方法が、
前記対応する要素間の関係を全体動きのモデルに統合する工程と、
前記再サンプル画素データをコード化表現に分解する工程であって、このコード化表現はデータの第4中間形式を表現する工程と、
前記コード化表現のゼロまたはそれ以上のバイトを打ち切る工程と、
前記コード化表現から再サンプル画素データを再構成する工程とを備え、
前記分解工程および前記再構成工程のそれぞれが主成分分析を用い、
前記相関関係モデルの生成は、2次元アフィン型の動きモデルの解を求めるために、頑健なサンプル化コンセンサスを用い、
前記対応する要素の解析は、前記ビデオフレームの2またはそれ以上の間におけるブロックを基礎とする動き検出から生成された有限差分に基づくサンプル化母集団を用いる、ビデオ信号データのコード化形式生成方法。 - 請求項6において、前記2またはそれ以上のフレームのそれぞれは、オブジェクト画素および非オブジェクト画素を備え、さらに、
前記ビデオフレームの2またはそれ以上において非オブジェクト画素の対応する要素を識別する工程と、
前記非オブジェクト画素の前記対応する要素間の関係を生成するように、前記非オブジェクト画素の対応する要素を解析する工程と、
前記非オブジェクト画素の前記対応する要素間の前記関係を用いて、第2相関関係モデルを生成する工程とを備え、
前記対応する要素の解析は、時間を基礎とした遮蔽フィルタを含む、ビデオ信号データのコード化形式生成方法。 - 請求項7において、さらに、
前記相関関係モデルを全体モデルに因子分解する工程と、
前記対応する要素間の関係を全体動きのモデルに統合する工程と、
前記再サンプル画素データをコード化表現に分解する工程であって、このコード化表現はデータの第5中間形式を表現する工程と、
前記コード化表現のゼロまたはそれ以上のバイトを打ち切る工程と、
前記コード化表現から前記再サンプル画素データを再構成する工程とを備え、
前記分解工程および前記再構成工程のそれぞれが従来のビデオ圧縮/解凍処理を用い、
前記相関関係モデルの生成は、2次元アフィン型の動きモデルの解を求めるために、頑健なサンプル化コンセンサスを用い、
前記対応する要素の解析は、前記ビデオフレームの2またはそれ以上の間におけるブロックを基礎とする動き検出から生成された有限差分に基づくサンプル化母集団を用いる、ビデオ信号データのコード化形式生成方法。 - 離散線形部分空間に存在するデータベクトルを分離する、コンピュータ実装される方法であって、
(a)データベクトルセットにおいて部分空間セグメント化を実行する工程と、
(b)陰関数表現のベクトル空間における接線ベクトル解析の適用によって、部分空間セグメント化基準を制約する工程とを備え、
前記部分空間セグメント化の実行工程がGPCAを用い、
前記陰関数表現のベクトル空間がVeroneseマップを含み、
前記接線ベクトル解析がLegendre変換を含む、データベクトル分離方法。 - 請求項9において、さらに、
データベクトルセットの部分集合を保持する工程と、
前記(a)および前記(b)の工程を前記データベクトルセットの部分集合において実行する工程とを備えた、データベクトル分離方法。 - 請求項5において、さらに、
(a)前記データの前記第1中間形式において部分空間セグメント化を実行する工程と、
(b)陰関数表現のベクトル空間における接線ベクトル解析の適用によって、部分空間セグメント化基準を制約する工程と、
前記データの前記第1中間形式の部分集合を保持する工程と、
前記(a)および前記(b)の工程を前記データの前記第1中間形式の部分集合において実行工程とを備え、
前記部分空間セグメント化の実行工程がGPCAを用い、
前記陰関数表現のベクトル空間がVeroneseマップを含み、
前記接線ベクトル解析がLegendre変換を含む、データベクトル分離方法。 - 請求項7において、さらに、
前記相関関係モデルを全体モデルに因子分解する方法を備え、この方法が、
(a)前記対応する要素間の関係を全体動きのモデルに統合する工程と、
(b)データベクトルセットにおいて部分空間セグメント化を実行する工程と、
(c)陰関数表現のベクトル空間における接線ベクトル解析の適用によって、部分空間セグメント化基準を制約する工程と、
(d)データベクトルセットの部分集合を保持する工程と、
(e)前記(b)および前記(c)の工程を前記データベクトルセットの部分集合において実行する工程とを備え、
前記部分空間セグメント化の実行工程がGPCAを用い、
前記陰関数表現のベクトル空間がVeroneseマップを含み、
前記接線ベクトル解析がLegendre変換を含み、
この方法は、さらに、前記(a)から(e)の工程が実行された後における、
(f)前記再サンプル画素データをコード化表現に分解する工程であって、このコード化表現は前記データの第4中間形式を表現する工程と、
(g)前記コード化表現のゼロまたはそれ以上のバイトを打ち切る工程と、
(h)前記コード化表現から前記再サンプル画素データを再構成する工程とを備え、
前記分解工程および前記再構成工程のそれぞれが主成分分析を用い、
前記相関関係モデルの生成は、2次元アフィン型の動きモデルの解を求めるために、頑健なサンプル化コンセンサスを用い、
前記対応する要素の解析は、前記ビデオフレームの2またはそれ以上の間におけるブロックを基礎とする動き検出から生成された有限差分に基づくサンプル化母集団を用いる、ビデオ信号データのコード化形式生成方法。 - 請求項1において、さらに、
前記相関関係モデルを局所変形モデルに因子分解する方法を備え、この方法が、
前記少なくとも1つのオブジェクトに対応する2次元メッシュオーバレイ画素を定義する工程であって、このメッシュが規則的な頂点グリッドおよびエッジに基づいている工程と、
前記対応する要素間の関係から局所動きのモデルを生成する工程であって、この関係が、前記ビデオフレームの2またはそれ以上の間におけるブロックを基礎とする動き検出から生成された有限差分に基づく頂点変位を含む工程とを備えた、ビデオ信号データのコード化形式生成方法。 - 請求項13において、前記頂点は離散画像特徴に相当し、さらに、
画像勾配Harris応答の解析を用いて、前記オブジェクトに相当する顕著な画像特徴を特定する工程を備えた、ビデオ信号データのコード化形式生成方法。 - 請求項4において、さらに、
局所変形モデルに因子分解するように、前記データの前記第1中間形式を送出する工程と、
前記少なくとも1つのオブジェクトに対応する2次元メッシュオーバレイ画素を定義する工程であって、このメッシュが規則的な頂点グリッドおよびエッジに基づいている工程と、
前記対応する要素間の関係から局所動きのモデルを生成する工程であって、この関係が、前記ビデオフレームの2またはそれ以上の間におけるブロックを基礎とする動き検出から生成された有限差分に基づく頂点変位を含む工程とを備えた、ビデオ信号データのコード化形式生成方法。 - 請求項6において、さらに、
局所変形モデルに因子分解するように、前記データの前記第4中間形式を送出する工程と、
前記少なくとも1つのオブジェクトに対応する2次元メッシュオーバレイ画素を定義する工程であって、このメッシュが規則的な頂点グリッドおよびエッジに基づいている工程と、
前記対応する要素間の関係から局所動きのモデルを生成する工程であって、この関係が、前記ビデオフレームの2またはそれ以上の間におけるブロックを基礎とする動き検出から生成された有限差分に基づく頂点変位を含む工程とを備え、
前記局所動きのモデルが、全体動きモデルによって近似されない残差動きに基づいている、ビデオ信号データのコード化形式生成方法。 - 請求項12において、さらに、
局所変形モデルに因子分解するように、前記データの前記第4中間形式を送出する工程と、
前記少なくとも1つのオブジェクトに対応する2次元メッシュオーバレイ画素を定義する工程であって、このメッシュが規則的な頂点グリッドおよびエッジに基づいている工程と、
前記対応する要素間の関係から局所動きのモデルを生成する工程であって、この関係が、前記ビデオフレームの2またはそれ以上の間におけるブロックを基礎とする動き検出から生成された有限差分に基づく頂点変位を含む工程とを備え、
前記局所動きのモデルが、全体動きモデルによって近似されない残差動きに基づいている、ビデオ信号データのコード化形式生成方法。 - 請求項2において、さらに、
前記データの前記第1中間形式をコード化する工程を備え、このコード化工程が、
再サンプル画素データをコード化表現に分解する工程であって、このコード化表現はデータの第3中間形式を表現する工程と、
前記コード化表現のゼロまたはそれ以上のバイトを打ち切る工程と、
前記コード化表現から再サンプル画素データを再構成する工程とを備え、
前記分解工程および前記再構成工程のそれぞれが主成分分析を用いる、ビデオ信号データのコード化形式生成方法。 - 請求項2において、さらに、
前記相関関係モデルを全体モデルに因子分解する方法を備え、この方法が、
前記対応する要素間の関係を全体動きのモデルに統合する工程と、
前記再サンプル画素データをコード化表現に分解する工程であって、このコード化表現はデータの第4中間形式を表現する工程と、
前記コード化表現のゼロまたはそれ以上のバイトを打ち切る工程と、
前記コード化表現から再サンプル画素データを再構成する工程とを備え、
前記分解工程および前記再構成工程のそれぞれが主成分分析を用い、
前記相関関係モデルの生成は、多次元射影動きモデルの解を求めるために、頑健な推定量を用い、
前記対応する要素の解析は、前記ビデオフレームの2またはそれ以上の間におけるブロックを基礎とする動き検出から生成された有限差分に基づくサンプル化母集団を用いる、ビデオ信号データのコード化形式生成方法。 - 請求項19において、前記2またはそれ以上のフレームのそれぞれは、オブジェクト画素および非オブジェクト画素を備え、さらに、
前記ビデオフレームの2またはそれ以上において非オブジェクト画素の対応する要素を識別する工程と、
前記非オブジェクト画素の前記対応する要素間の関係を生成するように、前記非オブジェクト画素の対応する要素を解析する工程と、
前記非オブジェクト画素の前記対応する要素間の前記関係を用いて、第2相関関係モデルを生成する工程とを備え、
前記対応する要素の解析は、時間を基礎とした遮蔽フィルタを含む、ビデオ信号データのコード化形式生成方法。 - 請求項20において、さらに、
前記相関関係モデルを全体モデルに因子分解する工程と、
前記対応する要素間の関係を全体動きのモデルに統合する工程と、
前記再サンプル画素データをコード化表現に分解する工程であって、このコード化表現はデータの第5中間形式を表現する工程と、
前記コード化表現のゼロまたはそれ以上のバイトを打ち切る工程と、
前記コード化表現から前記再サンプル画素データを再構成する工程とを備え、
前記分解工程および前記再構成工程のそれぞれが従来のビデオ圧縮/解凍処理を用い、
前記相関関係モデルの生成は、多次元射影動きモデルの解を求めるために、頑健な推定量を用い、
前記対応する要素の解析は、前記ビデオフレームの2またはそれ以上の間におけるブロックを基礎とする動き検出から生成された有限差分に基づくサンプル化母集団を用いる、ビデオ信号データのコード化形式生成方法。 - 請求項20において、さらに、
前記相関関係モデルを全体モデルに因子分解する方法を備え、この方法が、
(a)前記対応する要素間の関係を全体動きのモデルに統合する工程と、
(b)データベクトルセットにおいて部分空間セグメント化を実行する工程と、
(c)陰関数表現のベクトル空間における接線ベクトル解析の適用によって、部分空間セグメント化基準を制約する工程と、
(d)データベクトルセットの部分集合を保持する工程と、
(e)前記(b)および前記(c)の工程を前記データベクトルセットの部分集合において実行する工程とを備え、
前記部分空間セグメント化の実行工程がGPCAを用い、
前記陰関数表現のベクトル空間がVeroneseマップを含み、
前記接線ベクトル解析がLegendre変換を含み、
この方法は、さらに、前記(a)から(e)の工程が実行された後における、
(f)前記再サンプル画素データをコード化表現に分解する工程であって、このコード化表現は前記データの第4中間形式を表現する工程と、
(g)前記コード化表現のゼロまたはそれ以上のバイトを打ち切る工程と、
(h)前記コード化表現から前記再サンプル画素データを再構成する工程とを備え、
前記分解工程および前記再構成工程のそれぞれが主成分分析を用い、
前記相関関係モデルの生成は、多次元射影動きモデルの解を求めるために、頑健な推定量を用い、
前記対応する要素の解析は、前記ビデオフレームの2またはそれ以上の間におけるブロックを基礎とする動き検出から生成された有限差分に基づくサンプル化母集団を用いる、ビデオ信号データのコード化形式生成方法。 - 請求項2において、さらに、
前記相関関係モデルを局所変形モデルに因子分解する方法を備え、この方法が、
前記少なくとも1つのオブジェクトに対応する2次元メッシュオーバレイ画素を定義する工程であって、このメッシュが規則的な頂点グリッドおよびエッジに基づいている工程と、
前記対応する要素間の関係から局所動きのモデルを生成する工程であって、この関係が、前記ビデオフレームの2またはそれ以上の間におけるブロックを基礎とする動き検出から生成された有限差分に基づく頂点変位を含む工程とを備えた、ビデオ信号データのコード化形式生成方法。 - 請求項23において、前記頂点は離散画像特徴に相当し、さらに、
画像強度勾配の解析を用いて、前記オブジェクトに相当する顕著な画像特徴を特定する工程を備えた、ビデオ信号データのコード化形式生成方法。 - 請求項19において、さらに、
局所変形モデルに因子分解するように、前記データの前記第4中間形式を送出する工程と、
前記少なくとも1つのオブジェクトに対応する2次元メッシュオーバレイ画素を定義する工程であって、このメッシュが規則的な頂点グリッドおよびエッジに基づいている工程と、
前記対応する要素間の関係から局所動きのモデルを生成する工程であって、この関係が、前記ビデオフレームの2またはそれ以上の間におけるブロックを基礎とする動き検出から生成された有限差分に基づく頂点変位を含む工程とを備え、
前記局所動きのモデルが、全体動きモデルによって近似されない残差動きに基づいている、ビデオ信号データのコード化形式生成方法。 - 請求項23において、さらに、
局所変形モデルに因子分解するように、前記データの前記第4中間形式を送出する工程と、
前記少なくとも1つのオブジェクトに対応する2次元メッシュオーバレイ画素を定義する工程であって、このメッシュが規則的な頂点グリッドおよびエッジに基づいている工程と、
前記対応する要素間の関係から局所動きのモデルを生成する工程であって、この関係が、前記ビデオフレームの2またはそれ以上の間におけるブロックを基礎とする動き検出から生成された有限差分に基づく頂点変位を含む工程とを備え、
前記局所動きのモデルが、全体動きモデルによって近似されない残差動きに基づいている、ビデオ信号データのコード化形式生成方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US66753205P | 2005-03-31 | 2005-03-31 | |
US67095105P | 2005-04-13 | 2005-04-13 | |
PCT/US2006/012160 WO2006105470A1 (en) | 2005-03-31 | 2006-03-30 | Apparatus and method for processing video data |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010141434A Division JP5065451B2 (ja) | 2005-03-31 | 2010-06-22 | ビデオデータを処理する装置および方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2008537391A true JP2008537391A (ja) | 2008-09-11 |
JP2008537391A5 JP2008537391A5 (ja) | 2009-09-10 |
JP4573895B2 JP4573895B2 (ja) | 2010-11-04 |
Family
ID=37053728
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008504465A Expired - Fee Related JP4573895B2 (ja) | 2005-03-31 | 2006-03-30 | ビデオデータを処理する装置および方法 |
JP2010141434A Expired - Fee Related JP5065451B2 (ja) | 2005-03-31 | 2010-06-22 | ビデオデータを処理する装置および方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010141434A Expired - Fee Related JP5065451B2 (ja) | 2005-03-31 | 2010-06-22 | ビデオデータを処理する装置および方法 |
Country Status (7)
Country | Link |
---|---|
EP (1) | EP1878256A4 (ja) |
JP (2) | JP4573895B2 (ja) |
KR (1) | KR101216161B1 (ja) |
CN (1) | CN101167363B (ja) |
AU (1) | AU2006230545B2 (ja) |
CA (1) | CA2590869C (ja) |
WO (1) | WO2006105470A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009112617A (ja) * | 2007-11-08 | 2009-05-28 | Kowa Co | パノラマ眼底画像合成装置及び方法 |
JP2012505600A (ja) * | 2008-10-07 | 2012-03-01 | ユークリッド・ディスカバリーズ・エルエルシー | 特徴を基礎とするビデオ圧縮 |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8902971B2 (en) | 2004-07-30 | 2014-12-02 | Euclid Discoveries, Llc | Video compression repository and model reuse |
US9532069B2 (en) | 2004-07-30 | 2016-12-27 | Euclid Discoveries, Llc | Video compression repository and model reuse |
US9743078B2 (en) | 2004-07-30 | 2017-08-22 | Euclid Discoveries, Llc | Standards-compliant model-based video encoding and decoding |
US9578345B2 (en) | 2005-03-31 | 2017-02-21 | Euclid Discoveries, Llc | Model-based video encoding and decoding |
WO2006083567A1 (en) * | 2005-01-28 | 2006-08-10 | Euclid Discoveries, Llc | Apparatus and method for processing video data |
WO2008091484A2 (en) | 2007-01-23 | 2008-07-31 | Euclid Discoveries, Llc | Object archival systems and methods |
JP2010517427A (ja) | 2007-01-23 | 2010-05-20 | ユークリッド・ディスカバリーズ・エルエルシー | 個人向けのビデオサービスを提供するシステムおよび方法 |
CA2676219C (en) | 2007-01-23 | 2017-10-24 | Euclid Discoveries, Llc | Computer method and apparatus for processing image data |
WO2009049681A1 (en) * | 2007-10-19 | 2009-04-23 | Vascops | Automatic geometrical and mechanical analyzing method and system for tubular structures |
JP5173873B2 (ja) * | 2008-11-20 | 2013-04-03 | キヤノン株式会社 | 画像符号化装置及びその制御方法 |
WO2012051747A1 (en) * | 2010-10-18 | 2012-04-26 | Nokia Corporation | Method and apparatus for providing hand detection |
JP2015515806A (ja) * | 2012-03-26 | 2015-05-28 | ユークリッド・ディスカバリーズ・エルエルシーEuclid Discoveries,Llc | コンテキストベースの映像符号化及び映像復号化 |
JP2015011496A (ja) * | 2013-06-28 | 2015-01-19 | 大日本印刷株式会社 | 画像処理装置、画像処理方法、およびプログラム |
JP6132700B2 (ja) * | 2013-08-05 | 2017-05-24 | 株式会社日立製作所 | 画像処理システム、及び、画像処理方法 |
US10091507B2 (en) | 2014-03-10 | 2018-10-02 | Euclid Discoveries, Llc | Perceptual optimization for model-based video encoding |
US9621917B2 (en) | 2014-03-10 | 2017-04-11 | Euclid Discoveries, Llc | Continuous block tracking for temporal prediction in video encoding |
US10097851B2 (en) | 2014-03-10 | 2018-10-09 | Euclid Discoveries, Llc | Perceptual optimization for model-based video encoding |
US9363449B1 (en) * | 2014-11-13 | 2016-06-07 | Futurewei Technologies, Inc. | Parallax tolerant video stitching with spatial-temporal localized warping and seam finding |
WO2020034663A1 (en) * | 2018-08-13 | 2020-02-20 | The Hong Kong Polytechnic University | Grid-based image cropping |
CN111726475A (zh) * | 2020-06-28 | 2020-09-29 | 网易传媒科技(北京)有限公司 | 视频处理方法、系统、电子设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09182082A (ja) * | 1995-12-25 | 1997-07-11 | Nippon Telegr & Teleph Corp <Ntt> | 動画像の動き補償予測符号化方法とその装置 |
JPH09307909A (ja) * | 1996-05-17 | 1997-11-28 | Oki Electric Ind Co Ltd | 動き補償装置 |
WO1998027515A1 (en) * | 1996-12-16 | 1998-06-25 | Sharp Kabushiki Kaisha | 2-d mesh geometry and motion vector compression |
WO1999006664A1 (en) * | 1997-07-30 | 1999-02-11 | Framegard Anchoring Systems Limited | Apparatus and method for securing a pane against impact |
JPH11346363A (ja) * | 1998-06-01 | 1999-12-14 | Canon Inc | 画像処理装置及びその方法 |
WO2000016563A1 (en) * | 1998-09-10 | 2000-03-23 | Microsoft Corporation | Tracking semantic objects in vector image sequences |
JP2001005981A (ja) * | 1999-06-04 | 2001-01-12 | Mitsubishi Electric Inf Technol Center America Inc | オブジェクト形状を表現する画像空間を順序付ける方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100455294B1 (ko) * | 2002-12-06 | 2004-11-06 | 삼성전자주식회사 | 감시 시스템에서의 사용자 검출 방법, 움직임 검출 방법및 사용자 검출 장치 |
US7158680B2 (en) * | 2004-07-30 | 2007-01-02 | Euclid Discoveries, Llc | Apparatus and method for processing video data |
JP2008521347A (ja) * | 2004-11-17 | 2008-06-19 | ユークリッド・ディスカバリーズ・エルエルシー | ビデオデータを処理する装置および方法 |
WO2006083567A1 (en) * | 2005-01-28 | 2006-08-10 | Euclid Discoveries, Llc | Apparatus and method for processing video data |
-
2006
- 2006-03-30 AU AU2006230545A patent/AU2006230545B2/en not_active Ceased
- 2006-03-30 CN CN2006800140797A patent/CN101167363B/zh not_active Expired - Fee Related
- 2006-03-30 EP EP06740318A patent/EP1878256A4/en not_active Withdrawn
- 2006-03-30 WO PCT/US2006/012160 patent/WO2006105470A1/en active Application Filing
- 2006-03-30 KR KR1020077025308A patent/KR101216161B1/ko active IP Right Grant
- 2006-03-30 JP JP2008504465A patent/JP4573895B2/ja not_active Expired - Fee Related
- 2006-03-30 CA CA2590869A patent/CA2590869C/en not_active Expired - Fee Related
-
2010
- 2010-06-22 JP JP2010141434A patent/JP5065451B2/ja not_active Expired - Fee Related
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09182082A (ja) * | 1995-12-25 | 1997-07-11 | Nippon Telegr & Teleph Corp <Ntt> | 動画像の動き補償予測符号化方法とその装置 |
JPH09307909A (ja) * | 1996-05-17 | 1997-11-28 | Oki Electric Ind Co Ltd | 動き補償装置 |
WO1998027515A1 (en) * | 1996-12-16 | 1998-06-25 | Sharp Kabushiki Kaisha | 2-d mesh geometry and motion vector compression |
JP2001506828A (ja) * | 1996-12-16 | 2001-05-22 | シャープ株式会社 | 二次元メッシュジオメトリおよび動きベクトル圧縮 |
WO1999006664A1 (en) * | 1997-07-30 | 1999-02-11 | Framegard Anchoring Systems Limited | Apparatus and method for securing a pane against impact |
JPH11346363A (ja) * | 1998-06-01 | 1999-12-14 | Canon Inc | 画像処理装置及びその方法 |
WO2000016563A1 (en) * | 1998-09-10 | 2000-03-23 | Microsoft Corporation | Tracking semantic objects in vector image sequences |
JP2002525735A (ja) * | 1998-09-10 | 2002-08-13 | マイクロソフト コーポレイション | ベクトル画像シーケンスにおける意味対象物の追跡 |
JP2001005981A (ja) * | 1999-06-04 | 2001-01-12 | Mitsubishi Electric Inf Technol Center America Inc | オブジェクト形状を表現する画像空間を順序付ける方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009112617A (ja) * | 2007-11-08 | 2009-05-28 | Kowa Co | パノラマ眼底画像合成装置及び方法 |
JP2012505600A (ja) * | 2008-10-07 | 2012-03-01 | ユークリッド・ディスカバリーズ・エルエルシー | 特徴を基礎とするビデオ圧縮 |
Also Published As
Publication number | Publication date |
---|---|
AU2006230545B2 (en) | 2010-10-28 |
JP4573895B2 (ja) | 2010-11-04 |
CN101167363B (zh) | 2010-07-07 |
JP5065451B2 (ja) | 2012-10-31 |
CA2590869A1 (en) | 2006-10-05 |
CA2590869C (en) | 2014-01-21 |
KR101216161B1 (ko) | 2012-12-27 |
AU2006230545A1 (en) | 2006-10-05 |
CN101167363A (zh) | 2008-04-23 |
EP1878256A1 (en) | 2008-01-16 |
EP1878256A4 (en) | 2011-06-08 |
WO2006105470A1 (en) | 2006-10-05 |
KR20080002915A (ko) | 2008-01-04 |
JP2010259087A (ja) | 2010-11-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4573895B2 (ja) | ビデオデータを処理する装置および方法 | |
JP4928451B2 (ja) | ビデオデータを処理する装置および方法 | |
US7457472B2 (en) | Apparatus and method for processing video data | |
US7457435B2 (en) | Apparatus and method for processing video data | |
US7508990B2 (en) | Apparatus and method for processing video data | |
US7426285B2 (en) | Apparatus and method for processing video data | |
US7436981B2 (en) | Apparatus and method for processing video data | |
US8908766B2 (en) | Computer method and apparatus for processing image data | |
JP2008529414A (ja) | ビデオデータを処理する装置および方法 | |
AU2005306599C1 (en) | Apparatus and method for processing video data | |
JP2009540675A (ja) | ビデオデータを処理する装置および方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090324 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090324 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20090324 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20090413 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090421 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090715 |
|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A524 Effective date: 20090715 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090818 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20091117 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20091125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100323 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100622 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100727 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100817 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4573895 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130827 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |