JP2010521118A - 圧縮したビデオ源からのマルチフレーム動画の推定 - Google Patents

圧縮したビデオ源からのマルチフレーム動画の推定 Download PDF

Info

Publication number
JP2010521118A
JP2010521118A JP2009553580A JP2009553580A JP2010521118A JP 2010521118 A JP2010521118 A JP 2010521118A JP 2009553580 A JP2009553580 A JP 2009553580A JP 2009553580 A JP2009553580 A JP 2009553580A JP 2010521118 A JP2010521118 A JP 2010521118A
Authority
JP
Japan
Prior art keywords
video
motion vector
frames
region
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009553580A
Other languages
English (en)
Inventor
ウェブ、リチャード・ダブリュー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dolby Laboratories Licensing Corp
Original Assignee
Dolby Laboratories Licensing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dolby Laboratories Licensing Corp filed Critical Dolby Laboratories Licensing Corp
Publication of JP2010521118A publication Critical patent/JP2010521118A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/553Motion estimation dealing with occlusions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/57Motion estimation characterised by a search window with variable size or shape
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/58Motion compensation with long-term prediction, i.e. the reference frame for a current frame not being the temporally closest one
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

動きベクトルは、MPEG−2に準拠するビデオデータストリームのようなビデオデータストリームに適用される多くのビデオ信号処理にとって重要である。多数の動きベクトルが利用できる場合は、この技術を改善することが可能となる。エンコードされたビデオデータストリーム中に存在する元の動きベクトルから多数の付加的な動きベクトルを導き出すのにいることができる2つの技法を開示する。動きベクトルの反転技術により、元の動きベクトルで表されたのとは反対方向の動きを表現する新しい動きベクトルが導き出される。ベクトルのトレース技術により元の動きベクトルの組み合わせから新しい動きベクトルが導き出される。

Description

本発明は一般的にはビデオ信号処理に関し、さらに詳細にはビデオ信号中のビデオのフレームのシーケンス又は画像のシーケンスにより表される映像の動きに関する情報を導き出す信号処理に関する。
種々のビデオ信号処理アプリケーションは、ビデオ信号中の画像のシーケンス又はフレームのシーケンスにより表される映像の動きを検出する能力に依存する。これらのアプリケーションについて2つの例として、データ圧縮とノイズリダクションとがある。
データ圧縮の形式によっては、インターフレームエンコードされたビデオデータ、又は他のフレーム中の各部分の相対的な期間中のデータの1つのフレームの少なくとも一部を表現するデータにより効率よくビデオデータの1つのフレームを表現することができるようにすることは、2つの画像又は2つのフレーム間での動きを検出する能力に依存する。動きの検出に用いるビデオデータ圧縮の一例はMPEG−2圧縮であり、これは、国際標準ISO/IEC、13818−2、表題「Generic Coding of Moving Pictures and Associated Audio Information: Video」及びATSC委員会(ATSC)ドキュメントA/54、表題「Guide to the Use of the ATSC Digital Television 」に記載されている。MPEG−2技術では、独立にエンコードされたビデオデータ又はフレーム内部でエンコードされたそれぞれのIフレームを生成するためにビデオデータの他のフレームを参照しないで、空間的コーディング技術によりビデオデータのいくつかのフレームを圧縮する。他のフレームは、動作検出又は動作予測に用いる時間的コーディング技術により圧縮される。前方予測は、インターフレームエンコードされたビデオデータの、Pフレーム又は予測されるフレームを生成するために用いられ、前方後方予測は、フレーム間でエンコードされたビデオデータの、Bフレーム又は双方向フレームを生成するために用いられる。MPEG−2に適合するアプリケーションでは、15フレーム毎に1つのフレームのような固定的なスケジュールに従ってフレーム内部でエンコーディングするためにフレームを選択するか、又は適応的なスケジュールに従ってフレームを選択する。適応的なスケジュールでは、必要に応じて、隣り合うフレーム間で内容の動き又は差異を検出することに関する尺度に基づくことができる。
いくつかのノイズリダクション技術は、動作が生じる映像部分、あるいは、動作が生じない部分を特定する能力に依存する。あるノイズリダクションのためのシステムでは、フレームのシーケンス中のそれぞれのフレーム中において対応する画像要素又は「ピクセル」に対して時間的ローパスフィルターの適用を制御するために動作検出を用いる。このノイズリダクションの形式では、動きが検出されなかった映像の領域にのみローパスフィルターを適用することで動いている対象物の外観がぼけないようにしている。このローパスフィルターの1つの実施の形態では、フレームのシーケンス内での対応するピクセルの移動平均を計算し、現フレーム中の各ピクセルをこの平均値で置き換える。
MPEG−2圧縮では、ビデオデータの2つのフレーム間の動きを表現するインターレームエンコーディングのために、動きベクトルを用いる。MPEG−2の動きベクトルは、2つの異なる画像又はフレーム間での画像領域の垂直変位及び水平変位を表現する。
ここで説明する圧縮アプリケーション及びノイズリダクションアプリケーションの性能は、所定のフレームのシーケンスに対して、一般に動きベクトルの数が増えるにしたがって向上する
フレーム間での差異を検出することにより動きベクトルを導き出すためにいくつかの方法が開発されている。よく知られた1つの方法では、ビデオデータの「現在の」フレーム中のビデオデータと、ビデオデータの「参照」フレーム中のビデオデータとを比較するブロックマッチングと呼ばれる手法を用いる。現在のフレーム中のデータは、例えば16×16ピクセル又は8×8ピクセルのブロックような、ブロックの配列に分割され、この現在のフレーム中のそれぞれのブロックの内容は参照フレーム中の検索領域内のピルセルの配列と比較される。現在のフレーム中のブロックと参照フレーム中の領域とが一致すると、そのブロックで表される映像の部分の動きは生じていたものと見なされる。
検索領域はしばしば、所定の高さと幅を有し、それぞれのブロックに対応する位置に中心を置くような位置を有する参照フレームの方形領域である。この検索領域の高さと幅は固定にしてもよく適応的に変化するようにしてもよい。検索領域が広いと、動きの速度が速いことを意味するより大きな変位を検出することができる。一方、検索領域が広いと、ブロックマッチングを判断するために必要な計算資源を増大させる。
例示することによりブロックマッチングに必要となる計算資源の大きさを示すことができる。この例では、ビデオデータの各フレームは、1080×1920ピクセルの配列で表すことができ、各フレームは、8×8ピクセルのブロックに分割される。その結果、各フレームは、32,400=135×240ブロックの配列に分割される。検索領域は、一致させるべきそれぞれのブロックの位置に集中し、64ピクセルの高さと48ピクセルの幅となる。1つの実施の形態において、ブロック中の各ピクセルは、検索領域のすべての8×8ピクセルのサブブロックと比較される。この例では、映像の端部から離れたブロックの検索領域は、2240=56×48のサブ領域を有する。従って、1つのブロックの動きをチェックするために、143Kピルセル以上の比較が必要となる。検索領域はその映像の端部で囲まれているので、映像の端部又は端部近傍では、ブロックに対する比較量は少なくなる。とはいうものの、ほぼ4.5×109ピクセルの比較が各フレームについて必要である。フレームが、1秒間に60フレームの速さのデータを表すビデオデータストリームの一部であるとすると、隣り合うフレームのピクセルを比較するためだけに、毎秒267×109ピクセルの比較を行わなくてはならない。
互いに隣り合うことなく大きな時間間隔を持つフレームのペアを含む大量のフレームに対してブロックマッチングを行う場合は、それに応じて大量の比較が必要となる。システム中に実装する場合は、コストを下げるために高い処理能力を持つパイプライン構造の処理ハードウェアを組み入れるがこのような低コストなものとしても多くのアプリケーションでは高価なものとなる。ブロックマッチングの計算資源を減らすためにいくつかの最適化技法が提案されているが、これらの技法はパイプライン構造を持つプロセッサ中の処理フローを分断する条件付ロジックを必要とするので、これらの技法は期待するほど効果的ではなかった。
画像のシーケンス又はフレームのシーケンスとして構成されたビデオデータの大量の動きベクトルを取得する効率的な方法を提供することが本発明の1つの目的である。
この文脈において、及び、本明細書を通じて、「動きベクトル」とは、他のフレーム中の各部分に関連する表現中のデータの1フレームの少なくとも一部を表すインターフレームエンコーディングにより用いることのできる、すべてのデータ構造を意味し、一般にビデオデータの2つのフレーム間の動きを表現する。この用語は、上述のMPEG−2標準中に記載されている厳密な構成に限定されるものではない。例えば「動きベクトル」の語には、ISO/IEC14496標準の第10章に記載され、さらに、MPEG−4アドバンスドビデオコーディング(AVC)又はITU−T H.264標準として知られている、可変ブロックサイズの動き補償データ構造が含まれる。MPEG−2標準は本明細書に役に立つ例を提供している。MPEG−2標準中に定義された動きベクトルは、1つの映像の供給領域、2番目の映像の目標領域、及び供給領域から目標領域までの垂直変位と水平変位を定めている。付加的な情報を動きベクトルに含めても関連付けてもよい。例えば、MPEG−2標準は、動きベクトルと関連付けることのできる、供給領域中の部分的な映像と目標領域中の部分的な映像との間の差異又は予測誤差を含むデータ構成について記載している。
本発明の特徴によれば、1以上の信号を受け取りビデオ情報のフレームのシーケンスに変換する。このビデオ情報にはフレーム内部でエンコードされたビデオデータと映像のシーケンスを表すインターフレームエンコードされたビデオデータとが含まれ、新しくインターフレームエンコードされたビデオデータを導き出すために1以上のフレーム中のインターフレームエンコードされたビデオデータを分析し、映像のシーケンスの少なくとも一部を表現する修正されたビデオ情報を生成するためにビデオ情報の少なくともいくつかに処理を施す。この処理は新しくインターフレームエンコードされたデータに応答して動作するようになっている。本発明のこの特徴は以下に詳細に記載する。
本発明のさまざまな特徴とその好ましい実施の形態は、以下の説明と添付図を参照することによりよく理解できるであろう。以下の説明と図面の内容は例示のためのものであり、本発明の技術範囲を限定するためのものと解釈すべきでない。
本発明の種々の特徴を組み込んだ典型的なシステムの概略ブロック図である。 MPEG−2に準拠するエンコードされたビデオデータストリーム中の画像のシーケンス又はビデオデータのフレームを示す概略図である。 2つのビデオデータのフレームの概略図である。 元の動きベクトルと新しい動きベクトルと3つのビデオデータのフレームを示す概略図である。 元の動きベクトルと新しい動きベクトルと3つのビデオデータのフレームを示す概略図である。 元の動きベクトルと新しい動きベクトルとフレームを示す概略図である。 元の動きベクトルとGOP中のフレームを示す概略図である。 ベクトル反転法を用いて元の動きベクトルから導き出すことのできた新しい動きベクトルを示す概略図である。 元の動きベクトルとGOP中のフレームのために導き出した新しい動きベクトルを示す概略図である。 本発明の種々の特徴を実施するために用いることのできる装置の概略ブロック図である。
A.序論
図1は、エンコードされたビデオデータストリーム中にすでに存在する「元の」動きベクトルから「新しい」動きベクトルを導き出す本発明の特徴を組み込んだ典型的なシステム10の概略ブロック図である。動きベクトルプロセッサ(MVP)2は、信号経路1から、エンコードされたビデオデータストリーム中に搬送されたビデオ情報を受け取り、データストリーム中に存在する元の動きベクトルを分析して、ストリーム中になかった新しい動きベクトルを導き出し、新しい動きベクトルを経路3に沿って送りだす。必要に応じて元の動きベクトルも経路3に沿って送りだす。ビデオ信号プロセッサ(VSP)4は、経路1から、エンコードされたビデオデータストリームを受け取り、経路3から、新しい動きベクトルを受け取り、経路1又は経路3の一方から元の動きベクトルを受け取り、エンコードされたビデオデータストリーム中に搬送されたビデオ情報の少なくとも一部に信号処理を適用し、処理された信号を生成してその信号を経路5に沿って送りだす。VSP4は新しい動きベクトルに応答して信号処理を行うようになっている。VSP4は新しい動きベクトルのみならず元の動きベクトルに応答して信号処理を行うことが好ましい。基本的に、必要に応じてどんな形式の信号処理を適用してもよい。信号処理の例としてノイズリダクション、映像解像度の強化、及びデータ圧縮が挙げられる。特定の処理が本質的であるというわけではない。
この処理の基本として既存の動きベクトルを用いることにより、本発明は新しい動きベクトルを効率よく導き出すことができる。この処理は十分効率がよいので、周知の方法を用いて取得するよりはるかに多くの動きベクトルを導き出すことができる。
本発明はMPEG−2に準拠するストリーム中の動きベクトルを処理することができ、例えば、画像のグループ(GOP)として知られているビデオフレームのシーケンス中のフレームのすべてのペアについての動きベクトルを導き出すことができる。動きベクトルは、Iフレームとなることができ、互いに隣り合わないペアのフレームとなることができる。動きベクトルは、異なるGOP中のフレームについても導き出すことができる。
本発明の実施形態は、多大な利点が得られるようなビデオフレームに多くの処理を適用するので、自己最適化となる傾向がある。動きベクトルを付加することが大きな利点をもたらさないような状況において、少ない計算資源が使われる。これは、元の動きベクトルが多ければ多いほどフレームに対して多くの処理が必要となり、多くの動きが検出されるフレームのペアに多くの元の動きベクトルが存在し、多くの動きが生じるフレームに対して大きな利点を一般に達成することができるからである。
B.動きベクトルの反転
図2は、MPEG−2に準拠するエンコードされたビデオデータストリーム中の画像のシーケンス又はビデオデータのフレームの示す概略図である。この特定のシーケンスには2つのIフレーム33及び39と5つのPフレーム34〜38とが含まれる。各Pフレーム中のエンコードされたデータにはそのフレーム中のピクセルのブロックに1以上の動きベクトルを含ませることができ、これは、対応するその直前のフレーム内のピクセルの配列に基づくもの又はそれらの配列から予測されるものである。例えば、Pフレーム34は、Iフレーム33とPフレーム34との間での動きにおけるブロックを表現する1以上の動きベクトルを含有することができる。Pフレーム35は、Pフレーム34とPフレーム35との間での動きにおけるブロックを表現する1以上の動きベクトルを含有することができる。
このエンコードされたビデオデータストリーム中に存在するすべての動きベクトルは、Iフレーム又はPフレームに隣接するPフレームからの動きを表すものに限られる。この特定のフレームのシーケンスは、いずれかのフレームから先行するフレームへの動き、或いは、隣り合ってはいない2つのフレーム間での動きを表現する動きベクトルを有しない。
本発明の特徴に組み込まれたシステム及び方法では、先の段落で記載したような、既存のエンコードされたデータストリーム中には存在しない動きベクトルを導き出すことができる。これは、ここで動きベクトルの反転及び動きベクトルのトレースと称される2つの技法を用いて行うことができる。
図3は、フレームのシーケンス内にあるビデオデータの2つのフレームの概略図である。この例において、フレームAはMPEG−2標準に準拠するデータストリーム中のIフレームであり、フレームBはMPEG−2標準に準拠するデータストリーム中のPフレームである。図示したとおり、フレームBには、フレームA中の供給領域41から目標領域42までに生じる動きを表す元の動きベクトルが含まれる。この動きベクトルはmv(A,B)で表され、動きの大きさと方向、及び動いた映像の領域を表す。例えばMPEG−2標準に準拠するデータストリームにおいて、動きの大きさと方向は、水平方向の変位と垂直方向の変位を表す数値で表現され、動きの領域は、フレームBの格子中に置かれるピクセルの複数のブロックの1つである、フレームB中の目標領域で特定される。上述のとおり、動きベクトルを構成するこの特定のデータは本発明にとって必須要件ではない。
フレームBは、フレームAからフレームBまでの多くの領域で生じる動きを表す1以上の動きベクトルを持つことができる。これらの動きベクトルのすべてを集合的にここでは、MV(A,B)で表す。
データストリーム中のフレームが、mv(B,A)で表されるような、フレームBからフレームAまでの動きを表す動きベクトルを持つことはないが、本発明では、フレームAの領域からフレームBの領域までの関係を定義する動きベクトルmv(A,B)が存在するとき、フレームBの領域からフレームAの領域までにおける補完的な又は逆の関係が存在することを利用して、逆方向の動きベクトルを導き出すことができる。フレームBからフレームAへの動きは、フレームAからフレームBへの動きの逆であり、それは以下のように表すことができる。
mv(B,A)=Reverse[mv(A,B)] (1)
1つのフレームに対するすべての動きベクトルの集合は、以下のように表すことができる。
MV(B,A)=Reverse[MV(A,B)] (2)
表記、Reverse[ ]は、それぞれの動きベクトルから、同じ大きさで逆方向の動きベクトルを導き出す関数又は演算を表すために用いられる。各動きベクトルの動きの領域は、必要に応じて特定することができる。この特別な例として、新しい動きベクトルで表される動きの領域は、フレームAの目標領域となる。これは、フレームA中の映像の左上コーナーに対する領域の左上コーナーの相対的な水平方向及び垂直方向へのピクセルの補正値で表される。必要に応じて、部分的なピクセルの補正値を定義することもできる。特定の表現が本発明に必須にとって必須要件となるわけではない。
C.動きベクトルのトレース
付加的な動きベクトルは、複数のフレームを横切る動きをトレースすることにより導き出すことができる。この技法はお互いに隣り合ってはいないフレームの動きベクトルを導き出すことを可能とする。図4Aは、フレームのシーケンス内のビデオデータの3つのフレームの概略図である。本図に示した例は、図3に示した例にフレームCを加えたものである。フレームCはPフレームである。図示したように、フレームCには、フレームB中の供給領域43からフレームC中の目標領域44に向かって生じる動きを表現する元の動きベクトルが含まれる。この動きベクトルはmv(B,C)で表される。動きベクトルmv(B,C)のフレームB中の供給領域が動きベクトルmv(A,B)の目標領域と重複する場合は、新しい動きベクトルmv(A,C)は、フレームAからフレームCへの動きを表すものとして導き出すことができる。この新しい動きベクトルは、図4Bに概略的に示され、以下の表現で表される。
Figure 2010521118
1つのペアとなったフレームのすべての動きベクトルの集合のベクトルのトレースは以下のように表される。
Figure 2010521118

Figure 2010521118
フレームAにおける新しい動きベクトルmv(A,C)のための供給領域40は、対応する動きベクトルmv(A,B)のための供給領域41の一部分となることがある。同様に、新しい動きベクトルmv(A,C)のための目標領域45は、対応する動きベクトルmv(B,C)のための目標領域44の一部分となることがある。これらの2つの供給領域40及び41の重複の程度と2つの目標領域44及び45の重複の程度とは、動きベクトルmv(A,B)の目標領域42と動きベクトルmv(B,C)の目標領域43との重複の程度により制御することができる。動きベクトルmv(A,B)の目標領域42が動きベクトルmv(B,C)の目標領域43と同一であるならば、動きベクトルmv(A,B)のための供給領域41は、動きベクトルmv(A,C)のための供給領域40と同一となり、動きベクトルmv(A,C)のための目標領域45は、動きベクトルmv(B,C)のための目標領域44と同一となる。
ベクトルのトレース技法を組み込むことのできるひとつの方法は、最終目標フレーム、この例ではフレームCを特定し、そのフレームについてすべての動きベクトルmv(B,C)を逆方向に働かせることである。これは、フレームBにおける各動きベクトルmv(B,C)のための供給領域を特定することにより行われる。そして、フレームBの各動きベクトルmv(A,B)を分析して動きベクトルmv(B,C)のための供給領域のどこかと重複する目標領域があるかどうかを判断する。動きベクトルmv(A,B)に重複が見つかれば、そのベクトルを逆方向に供給フレームまでトレースする。この処理は、求める供給フレームにおいて、供給領域と目標領域との間に動きベクトルの重複が見つからなくなるまで続けられる。
上述の重複領域を探す処理は、基本的に従来の、ベクトルMV(B,C)をベクトルの供給領域に従って順序付けるデータ構造に置くための、ツリーベース又はリストベースの検索アルゴリズムを用いて実行することができる。多くのアプリケーション中効果的に使うことのできる1つのデータ構造は、四分木として知られている、特定の2次元ツリー構造である。このデータ構造の形式は、MV(B,C)目標領域との重複の検索を効果的に行う。
必要に応じて、ベクトルのトレースにより導き出された新しい動きベクトルの、供給領域と目標領域に隣接するビデオデータの部分は、この供給領域と目標領域とを拡げるべきか狭めるべきかを決めるために、分析される。多くの例では、ベクトルのトレースによりおのずから、新しい動きベクトルの適切な供給領域と目標領域とを取得することができるが、他の例では、ベクトルのトレースにより取得した供給領域と目標領域は最適なものではない場合がある。
例えば、フレームのシーケンス中にある元の動きベクトルが左から右に動いている人を表すと仮定する。すべての中間フレームは人の頭と胴体の動きベクトルを有するであろうが、いくつかの中間フレームは胴体の後ろに隠れたときの人の左手の動きベクトルを有することができない。この動きベクトルのシーケンスに沿ったベクトルのトレースでは、頭と胴体の新しい動きベクトルを導き出すことができるが、たとえ、ベクトルのトレースの期間中において、シーケンスの最初と最後のフレームに左腕が見えていても、この腕の新しい動きベクトルを導き出すことはできない。頭と胴体の動きベクトルの供給領域と目標領域に近接する映像の領域にブロックマッチングを行うことにより、その領域に左腕について拡張的なあるいは付加的な動きベクトルを追加することは可能である。この処理は、ブロックマッチングで検索する領域を、新しい動きベクトルの供給領域と目標領域に直接隣接する領域に限定することができるので、効率的に行うことができる。
ベクトルのトレースは、フレームのシーケンスにおけるすべてのフレーム間で新しい動きベクトルを導き出すために動きベクトルの反転と組み合わせることができる。これは、図5に概略的に示されており、各動きベクトルは、目標フレームを向く矢印により示されている。例えば、Pフレーム36からPフレーム35へ、Pフレーム35からPフレーム34へ、そしてPフレーム34からIフレーム33への動きを表す動きベクトルを導き出すために、動きベクトルの反転を用いることができる。Pフレーム36からIフレーム33への動きを表す動きベクトルを導き出すために、ベクトルのトレースをこれらの3つの新しい動きベクトルに適用することができる。この例については以下のように表される。
Figure 2010521118
ここで、mv(x,y)は、フレームxからフレームyへの動きベクトルを表し、
x,yは、図5で示したフレームの参照番号を表す。
D.GOPトラバース
MEPG−2標準に適合するシステムでは、画像グループ(GOP)と称される独立のセグメントにフレームを配列することができる。一般的なアプローチでは、ビデオデータを15のフレームのグループに分割する。各GOPは、1つのIフレームのすぐ前に先行する2つのBフレームで始まる。これらの3つのフレームに、Pフレームがすぐ後に続く2つのBフレームをそれぞれが有する4つのシーケンスが続く。このGOPの構成については、図6〜8に、Bフレーム51で始まりPフレーム58で終わるフレームのシーケンスとして概略的に示されている。先のGOPは、Pフレーム50で終わっており、次のGOPは、Bフレーム59で始まっている。他の図と同様にこの図に示したフレームは、データストリーム内で生じた順序ではなく、表示の順序に従って配列してある。MPEG−2に準拠するデータストリームは、IフレームとPフレームからBフレームを復元するのが容易になるような順序に並べ替えられるが、この実施の形態の詳細を理解することは、本発明の本質を理解するために必要ではない。
そのフレームの少なくともいくつかが他のGOPにおけるフレームを参照する元の動きベクトルを含有するという意味で、GOPが「オープン」であれば、本発明は、GOPの境界を横切る新しい動きベクトルを導き出すことができる。オープンなGOPの例を図6〜8に示す。図6を参照して、各矢印は元の動きベクトルを表す。各矢印の頭部はそれぞれ目標フレームに向かっている。例えば、いくつかの動きベクトルがIフレーム53からBフレーム54,55まで及びPフレーム56までの動きを表している。他のいくつかの元の動きベクトルがPフレーム56からBフレーム54,55までの動きを表している。表記のGOPが開いているので、GOPの境界を横切りPフレーム50と2つのBフレーム51,52からの動きを表すPフレーム50中の2つの動きベクトルが可能となっている。ベクトルの反転とベクトルのトレースの技術をBフレーム中の双方向動きベクトルに適用することにより、本発明は、GOPの境界を横切る新しい動きベクトルを導き出すために用いることができる。これが図7及び図8に示されている。
図7は、ベクトルの反転技術を用いて元の動きベクトルから導き出すことのできた新しい動きベクトルを示す概略図である。例えば、Bフレーム51,52の各々からPフレーム50への動きを表す新しい動きベクトルを導き出すことができる。Pフレーム58に向いているこの2つの動きベクトルと2つの新しい動きベクトルは、GOPの境界を横切る、導き出された新しい動きベクトルの例である。
図8は、図6及び図7に示した元の動きベクトルと新しい動きベクトルにベクトルのトレースの技術を適用することにより導き出すことのできた付加的な動きベクトルをほんのわずかだけ示した概略図である。各矢印は双方向になっている。非常に多くの数の新しい動きベクトルを導き出すことができたのは明らかである。本図に示した、Iフレーム53から出てゆきまたIフレーム53に向かうベクトルとBフレーム59から出てゆきまたBフレーム59に向かうベクトルは、GOPの境界を横切る、新しく導き出された動きベクトルの例である。
E.実施
本発明のさまざまな特徴を組み込んだ装置は、コンピュータ又は汎用コンピュータに見られる構成要素と同様な構成要素と結合したディジタル信号プロセッサ(DSP)回路のような専用化した構成要素を含む他の装置により実行されるソフトウェアを含むさまざまな方法で実施することができる。図4は、本発明の特徴を実施するために用いることのできる装置70の概略ブロック図である。プロセッサ72は計算手段を提供する。RAM73は処理のためのプロセッサ72により用いられるランダムアクセスメモリ(RAM)のシステムである。ROM74は、装置を動作させるのに必要なプログラムを保存するための、及び、おそらく本発明のさまざまな特徴を実行することのできるリードオンリーメモリ(ROM)のような固定記憶の形態を示す。I/O制御75は、通信チャンネル76,77を用いて信号を受信し送信するインターフェース回路を示す。図示の実施の形態では、すべての主要なシステム構成要素は、2以上の物理的または論理的バスを表すバス71に接続されているが、バス構成は本発明を実施するためにからなずしも必要ではない。
汎用コンピュータシステムにより実施される実施の形態では、キーボードやマウスやディスプレイのような装置とのインターフェースのための構成要素、及び、磁気テープ又はディスク或いは光学的記憶媒体のような記憶媒体を有する記憶装置78を制御するための構成要素を付加的に含めることができる。この記憶媒体はオペレーティングシステムに対する指令プログラム、ユーティリティープログラム、及びアプリケーションプログラムを記憶するために使うことができ、また、本発明のさまざまな特徴を実行するプログラムを含有することができる。
本発明のさまざまな特徴を実行するために必要な機能は、個別の論理要素、集積回路、1以上のASICs及び/又はプログラム制御されるプロセッサを含む広くさまざまな方法に用いられる構成要素により実行される。これらの構成要素を用いる方法は本発明にとって重要ではない。
本発明を実施するソフトウェアは、超音波から赤外周波数を含む範囲のスペクトルでのベースバンド通信経路又は変調通信経路のような機械的に読み取り可能なさまざまな媒体、又は、磁気テープ、磁気カード、磁気ディスク、光学カード又は光学ディスク、及び紙を含む媒体上の検出可能なマーキングを含んで、原則としてあらゆる記憶技術を用いて情報を伝達する記憶媒体により伝達することができる。

Claims (21)

  1. 画像のシーケンスを表現するエンコードされたビデオデータストリーム中に搬送されるビデオ情報のフレームのシーケンスを受け取るステップであって、該エンコードされたビデオデータストリームには、異なるビデオ情報のフレームの画像の領域からの変位の大きさと方向を表現する1以上の元の動きベクトルが含まれることを特徴とするステップと、
    ビデオ情報の第1のフレームの映像中の第1の領域からビデオ情報の第2のフレームの映像中の第2の領域までの変位の大きさと方向を表す第1の元の動きベクトルを特定するステップと、
    前記第1の元の動きベクトルから前記ビデオデータストリーム中に存在しない新しい動きベクトルを導き出すステップであって、該新しい動きベクトルは、ビデオ情報のフレームのシーケンス中の2つのフレームの映像中の供給領域から目標領域までの変位の大きさと方向を表すことを特徴とするステップと、
    映像のシーケンスの少なくとも一部の修正された形式を表現する処理された信号を生成するために前記ビデオ情報の少なくとも一部に信号処理を施すステップであって、該信号処理は、前記新しい動きベクトルに応答して動作するようになっていることを特徴とするステップと、
    を具備するビデオ映像の動きベクトルを導き出す方法。
  2. 動きベクトルの反転により新しい動きベクトルを導き出すステップを具備し、前記供給領域は、前記第2の領域の少なくとも一部と重複し、前記目標領域は前記第1の領域の少なくとも一部と重複することを特徴とする請求項1に記載の方法。
  3. ビデオ情報の第2のフレームの映像中の第3の領域からビデオ情報の第3のフレームの映像中の第4の領域までの変位の大きさと方向を表す第2の元の動きベクトルを特定するステップであって、前記第3の領域は前記第2の領域の少なくとも一部と重複することを特徴とするステップと、
    前記第1の元の動きベクトルと前記第2の元の動きベクトルとの組み合わせにベクトルのトレースを行うことにより、新しい動きベクトルを導き出すステップであって、前記供給領域は前記第1の領域の少なくとも一部と重複し、前記目標領域は前記第4の領域の少なくとも一部と重複することを特徴とするステップと、
    を具備することを特徴とする請求項1に記載の方法。
  4. 動きベクトルで表現することのできる前記供給領域と前記目標領域とに隣接するビデオ情報を特定するステップと、
    前記特定したビデオ情報を含ませるために前記供給領域と前記目標領域の大きさを調整するステップと、
    を具備することを特徴とする請求項1乃至請求項3のいずれか1項に記載の方法。
  5. 前記ビデオデータストリームは、フレーム内部でエンコードされたデータとしてビデオ情報のフレームのいくつかを搬送し、元の動きベクトルを具備するインターフレームエンコードされたデータとしてビデオ情報のフレームのいくつかを搬送し、前記目標領域はフレーム内部でエンコードされたデータとして搬送された映像内にあることを特徴とする請求項1乃至請求項4のいずれか1項に記載の方法。
  6. ビデオフレームのシーケンスは、フレームのグループに配列され、各グループはフレーム内部でエンコードされたデータとしてビデオ情報を搬送する1つのフレームを有し、複数のフレームがインターフレームエンコードされたデータとしてビデオ情報を搬送し、
    前記供給領域と前記目標領域は、異なるグループのフレーム中の2つのビデオフレームの映像中に存在することを特徴とする請求項1乃至請求項5に記載の方法。
  7. 前記信号処理は、映像のノイズ低減、映像の分解能の増強、及びビデオデータの圧縮のどの1つでもよいことを特徴とする請求項1乃至請求項6のいずれか1項に記載の方法。
  8. 画像のシーケンスを表現するエンコードされたビデオデータのストリーム中に搬送されるビデオ情報のフレームのシーケンスを受け取る手段であって、該エンコードされたビデオデータのストリームには、異なるビデオ情報のフレームの画像の領域からの変位の大きさと方向を表現する1以上の元の動きベクトルが含まれることを特徴とする手段と、
    ビデオ情報の第1のフレームの映像中の第1の領域からビデオ情報の第2のフレームの映像中の第2の領域までの変位の大きさと方向を表す第1の元の動きベクトルを特定する手段と、
    前記第1の元の動きベクトルから前記ビデオデータストリーム中に存在しない新しい動きベクトルを導き出す手段であって、該新しい動きベクトルは、ビデオ情報のフレームのシーケンス中の2つのフレームの映像中の供給領域から目標領域までの変位の大きさと方向を表すことを特徴とする手段と、
    映像のシーケンスの少なくとも一部の修正された形式を表現する処理された信号を生成するために前記ビデオ情報の少なくとも一部に信号処理を施す手段であって、該信号処理は、前記新しい動きベクトルに応答して動作するようになっていることを特徴とする手段と、
    を具備するビデオ映像の動きベクトルを導き出す装置。
  9. 動きベクトルの反転により新しい動きベクトルを導き出す手段を具備し、前記供給領域は、前記第2の領域の少なくとも一部と重複し、前記目標領域は前記第1の領域の少なくとも一部と重複することを特徴とする請求項8に記載の装置。
  10. ビデオ情報の第2のフレームの映像中の第3の領域からビデオ情報の第3のフレームの映像中の第4の領域までの変位の大きさと方向を表す第2の元の動きベクトルを特定する手段であって、前記第3の領域は前記第2の領域の少なくとも一部と重複することを特徴とする手段と、
    前記第1の元の動きベクトルと前記第2の元の動きベクトルとの組み合わせにベクトルのトレースを行うことにより、新しい動きベクトルを導き出す手段であって、前記供給領域は前記第1の領域の少なくとも一部と重複し、前記目標領域は前記第4の領域の少なくとも一部と重複することを特徴とする手段と、
    を具備することを特徴とする請求項8に記載の装置。
  11. 動きベクトルで表現することのできる前記供給領域と前記目標領域とに隣接するビデオ情報を特定する手段と、
    前記特定したビデオ情報を含ませるために前記供給領域と前記目標領域の大きさを調整する手段と、
    を具備することを特徴とする請求項8乃至請求項10のいずれか1項に記載の装置。
  12. 前記ビデオデータストリームは、フレーム内部でエンコードされたデータとしてビデオ情報のフレームのいくつかを搬送し、元の動きベクトルを具備するインターフレームエンコードされたデータとしてビデオ情報のフレームのいくつかを搬送し、前記目標領域はフレーム内部でエンコードされたデータとして搬送された映像内にあることを特徴とする請求項8乃至請求項11のいずれか1項に記載の装置。
  13. ビデオフレームのシーケンスは、フレームのグループに配列され、各グループはフレーム内部でエンコードされたデータとしてビデオ情報を搬送する1つのフレームを有し、複数のフレームがインターフレームエンコードされたデータとしてビデオ情報を搬送し、
    前記供給領域と前記目標領域は、異なるグループのフレーム中の2つのビデオフレームの映像中に存在することを特徴とする請求項8乃至請求項12のいずれか1項に記載の装置。
  14. 前記信号処理は、映像のノイズ低減、映像の分解能の増強、及びビデオデータの圧縮のどの1つでもよいことを特徴とする請求項8乃至請求項13のいずれか1項に記載の装置。
  15. 画像のシーケンスを表現するエンコードされたビデオデータのストリーム中に搬送されるビデオ情報のフレームのシーケンスを受け取るステップであって、該エンコードされたビデオデータのストリームには、異なるビデオ情報のフレームの画像の領域からの変位の大きさと方向を表現する1以上の元の動きベクトルが含まれることを特徴とするステップと、
    ビデオ情報の第1のフレームの映像中の第1の領域からビデオ情報の第2のフレームの映像中の第2の領域までの変位の大きさと方向を表す第1の元の動きベクトルを特定するステップと、
    前記第1の元の動きベクトルから前記ビデオデータストリーム中に存在しない新しい動きベクトルを導き出すステップであって、該新しい動きベクトルは、ビデオ情報のフレームのシーケンス中の2つのフレームの映像中の供給領域から目標領域までの変位の大きさと方向を表すことを特徴とするステップと、
    映像のシーケンスの少なくとも一部の修正された形式を表現する処理された信号を生成するために前記ビデオ情報の少なくとも一部に信号処理を施すステップであって、該信号処理は、前記新しい動きベクトルに応答して動作するようになっていることを特徴とするステップと
    を具備するビデオ映像の動きベクトルを導き出す方法を、装置に実施させるための命令プログラムを記憶する媒体。
  16. 前記方法は、動きベクトルの反転により新しい動きベクトルを導き出すステップを具備し、前記供給領域は、前記第2の領域の少なくとも一部と重複し、前記目標領域は前記第1の領域の少なくとも一部と重複することを特徴とする請求項15に記載の媒体。
  17. 前記方法は、ビデオ情報の第2のフレームの映像中の第3の領域からビデオ情報の第3のフレームの映像中の第4の領域までの変位の大きさと方向を表す第2の元の動きベクトルを特定するステップであって、前記第3の領域は前記第2の領域の少なくとも一部と重複することを特徴とするステップと、
    前記第1の元の動きベクトルと前記第2の元の動きベクトルとの組み合わせにベクトルのトレースを行うことにより、新しい動きベクトルを導き出すステップであって、前記供給領域は前記第1の領域の少なくとも一部と重複し、前記目標領域は前記第4の領域の少なくとも一部と重複することを特徴とするステップと、
    を具備することを特徴とする請求項15に記載の媒体。
  18. 前記方法は、動きベクトルで表現することのできる前記供給領域と前記目標領域とに隣接するビデオ情報を特定するステップと、
    前記特定したビデオ情報を含ませるために前記供給領域と前記目標領域の大きさを調整するステップと、
    を具備することを特徴とする請求項15乃至請求項17のいずれか1項に記載の媒体。
  19. 前記ビデオデータストリームは、フレーム内部でエンコードされたデータとしてビデオ情報のフレームのいくつかを搬送し、元の動きベクトルを具備するインターフレームエンコードされたデータとしてビデオ情報のフレームのいくつかを搬送し、前記目標領域はフレーム内部でエンコードされたデータとして搬送された映像内にあることを特徴とする請求項15乃至請求項18のいずれか1項に記載の媒体。
  20. ビデオフレームのシーケンスは、フレームのグループに配列され、各グループはフレーム内部でエンコードされたデータとしてビデオ情報を搬送する1つのフレームを有し、複数のフレームがインターフレームエンコードされたデータとしてビデオ情報を搬送し、
    前記供給領域と前記目標領域は、異なるグループのフレーム中の2つのビデオフレームの映像中に存在することを特徴とする請求項15乃至請求項19のいずれか1項に記載の媒体。
  21. 前記信号処理は、映像のノイズ低減、映像の分解能の増強、及びビデオデータの圧縮のどの1つでもよいことを特徴とする請求項15乃至請求項20のいずれか1項に記載の媒体。
JP2009553580A 2007-03-09 2008-02-25 圧縮したビデオ源からのマルチフレーム動画の推定 Pending JP2010521118A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US90607407P 2007-03-09 2007-03-09
PCT/US2008/002421 WO2008112072A2 (en) 2007-03-09 2008-02-25 Multi-frame motion extrapolation from a compressed video source

Publications (1)

Publication Number Publication Date
JP2010521118A true JP2010521118A (ja) 2010-06-17

Family

ID=39760263

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009553580A Pending JP2010521118A (ja) 2007-03-09 2008-02-25 圧縮したビデオ源からのマルチフレーム動画の推定

Country Status (6)

Country Link
US (1) US20100202532A1 (ja)
EP (1) EP2123054A2 (ja)
JP (1) JP2010521118A (ja)
CN (1) CN101641956B (ja)
TW (1) TWI423167B (ja)
WO (1) WO2008112072A2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4985201B2 (ja) * 2007-08-07 2012-07-25 ソニー株式会社 電子機器、動きベクトル検出方法及びプログラム
WO2010036995A1 (en) * 2008-09-29 2010-04-01 Dolby Laboratories Licensing Corporation Deriving new motion vectors from existing motion vectors
CN102204256B (zh) * 2008-10-31 2014-04-09 法国电信公司 图像预测方法和系统
US9549184B2 (en) 2008-10-31 2017-01-17 Orange Image prediction method and system
TWI426780B (zh) * 2009-06-18 2014-02-11 Hon Hai Prec Ind Co Ltd 影像雜訊過濾系統及方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09154141A (ja) * 1995-11-29 1997-06-10 Sanyo Electric Co Ltd エラー処理装置、復号装置及び符号化装置
JPH11164305A (ja) * 1997-04-24 1999-06-18 Mitsubishi Electric Corp 動画像符号化方法、動画像符号化装置および動画像復号装置
JP2005521977A (ja) * 2002-03-29 2005-07-21 ソニー エレクトロニクス インク ビデオシーケンス内における後方動きベクトルの推定方法
US20060120613A1 (en) * 2004-12-07 2006-06-08 Sunplus Technology Co., Ltd. Method for fast multiple reference frame motion estimation

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6625216B1 (en) * 1999-01-27 2003-09-23 Matsushita Electic Industrial Co., Ltd. Motion estimation using orthogonal transform-domain block matching
US6400763B1 (en) * 1999-02-18 2002-06-04 Hewlett-Packard Company Compression system which re-uses prior motion vectors
US6711212B1 (en) * 2000-09-22 2004-03-23 Industrial Technology Research Institute Video transcoder, video transcoding method, and video communication system and method using video transcoding with dynamic sub-window skipping
KR20040035593A (ko) * 2001-03-07 2004-04-29 피티에스 코포레이션 모션 매칭을 위한 국부적 제약
US6782052B2 (en) * 2001-03-16 2004-08-24 Sharp Laboratories Of America, Inc. Reference frame prediction and block mode prediction for fast motion searching in advanced video coding
US6731290B2 (en) * 2001-09-28 2004-05-04 Intel Corporation Window idle frame memory compression
MXPA06000323A (es) * 2003-07-09 2006-05-31 Thomson Licensing Codificador de video con reduccion de ruido de baja complejidad.
KR101044934B1 (ko) * 2003-12-18 2011-06-28 삼성전자주식회사 움직임 벡터 추정방법 및 부호화 모드 결정방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09154141A (ja) * 1995-11-29 1997-06-10 Sanyo Electric Co Ltd エラー処理装置、復号装置及び符号化装置
JPH11164305A (ja) * 1997-04-24 1999-06-18 Mitsubishi Electric Corp 動画像符号化方法、動画像符号化装置および動画像復号装置
JP2005521977A (ja) * 2002-03-29 2005-07-21 ソニー エレクトロニクス インク ビデオシーケンス内における後方動きベクトルの推定方法
US20060120613A1 (en) * 2004-12-07 2006-06-08 Sunplus Technology Co., Ltd. Method for fast multiple reference frame motion estimation

Also Published As

Publication number Publication date
CN101641956A (zh) 2010-02-03
WO2008112072A3 (en) 2009-04-30
US20100202532A1 (en) 2010-08-12
CN101641956B (zh) 2011-10-12
WO2008112072A2 (en) 2008-09-18
TW200844902A (en) 2008-11-16
TWI423167B (zh) 2014-01-11
EP2123054A2 (en) 2009-11-25

Similar Documents

Publication Publication Date Title
EP1829383B1 (en) Temporal estimation of a motion vector for video communications
KR100698106B1 (ko) 엠펙(mpeg)압축 비디오 환경에서 계층적 혼합형장면 변화 검출 방법
JP2023542397A (ja) ビデオ動き推定方法、装置、機器、及びコンピュータプログラム
US20190342571A1 (en) Image predictive encoding and decoding system
JP2008518331A (ja) リアルタイムビデオ動き解析を通じたビデオコンテンツ理解
CN105190688A (zh) 用于查看图像的方法和装置
Yao et al. Detecting video frame-rate up-conversion based on periodic properties of edge-intensity
CN107852500A (zh) 运动矢量场编码方法和解码方法、编码和解码装置
JP2010521118A (ja) 圧縮したビデオ源からのマルチフレーム動画の推定
JP4496992B2 (ja) 動物体アップフレーム検出方法及びプログラム及びプログラムを格納した記憶媒体及び動物体アップショット検出方法及び動物体アップフレームあるいはショット検出方法及びプログラム及びプログラムを格納した記憶媒体
CN101151889A (zh) 图像处理设备和程序
JP4669517B2 (ja) 動き推定の実現方法
JP2004348741A (ja) 画像の比較方法、方法を実行するためのプログラムを記憶するコンピュータ可読記憶媒体、および方法を実行する装置
KR100644574B1 (ko) 디지털 영상 분할 방법 및 그 장치
CN110780780B (zh) 图像处理方法及装置
JP2002051342A (ja) 符号化装置及び符号化方法並びに記憶媒体
KR100529331B1 (ko) 계층적 프레임 구조하에서의 움직임 벡터 추정방법
CN112087626B (zh) 图像处理方法、装置及存储介质
JP2006014183A (ja) 画像符号化装置、画像符号化方法及びそのプログラム
CN100385955C (zh) 区块式位移预测方法
KR20040027047A (ko) 예측 스캐닝을 이용한 영상 부호화/복호화 방법 및 장치
JP2008072608A (ja) 画像符号化装置及び画像符号化方法
US12132923B2 (en) Motion estimation using pixel activity metrics
Nugraha et al. Multiple object tracking on static surveillance video using field-based prediction information in MPEG-2 video
KR101624182B1 (ko) 키 프레임 선정 장치 및 방법

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20111018

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120104

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121002