JP2007081720A - 符号化方法 - Google Patents
符号化方法 Download PDFInfo
- Publication number
- JP2007081720A JP2007081720A JP2005265886A JP2005265886A JP2007081720A JP 2007081720 A JP2007081720 A JP 2007081720A JP 2005265886 A JP2005265886 A JP 2005265886A JP 2005265886 A JP2005265886 A JP 2005265886A JP 2007081720 A JP2007081720 A JP 2007081720A
- Authority
- JP
- Japan
- Prior art keywords
- motion vector
- frame
- motion
- layer
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
- H04N19/31—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
- H04N19/615—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding using motion compensated temporal filtering [MCTF]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/63—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/13—Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
【課題】 動画圧縮符号化技術では、圧縮効率を高めるために、動きベクトル情報に起因する符号量を削減する必要がある。
【解決手段】 動きベクトル符号化部は、動きベクトルMV0、MV1、MV2の順で、符号化を実行する。まず、動きベクトル保持部から動きベクトルMV0〜MV2を受け取る(S40)。動きベクトル符号化部は、最も下位の階層0の動きベクトルMV0を符号化する(S42)。続いて、階層1の動きベクトルMV1を符号化する代わりに、MV0の1/2とMV1との差分(1/2・MV0−MV1)を符号化する(S44)。さらに、階層2の動きベクトルMV2を符号化する代わりに、MV1の1/2とMV2との差分(1/2・MV1−MV2)を符号化する(S46)。
【選択図】 図7
【解決手段】 動きベクトル符号化部は、動きベクトルMV0、MV1、MV2の順で、符号化を実行する。まず、動きベクトル保持部から動きベクトルMV0〜MV2を受け取る(S40)。動きベクトル符号化部は、最も下位の階層0の動きベクトルMV0を符号化する(S42)。続いて、階層1の動きベクトルMV1を符号化する代わりに、MV0の1/2とMV1との差分(1/2・MV0−MV1)を符号化する(S44)。さらに、階層2の動きベクトルMV2を符号化する代わりに、MV1の1/2とMV2との差分(1/2・MV1−MV2)を符号化する(S46)。
【選択図】 図7
Description
本発明は、動画像を符号化する符号化方法に関する。
ブロードバンドネットワークが急速に発展しており、高品質な動画像を利用したサービスに期待が集まっている。また、DVDなど大容量の記録媒体が利用されており、高画質の画像を楽しむユーザ層が広がっている。動画像を通信回線で伝送したり、記録媒体に蓄積するために不可欠な技術として圧縮符号化がある。動画像圧縮符号化技術の国際標準として、MPEG4の規格やH.264/AVC規格がある。また、ひとつのストリームにおいて高画質のストリームと低画質のストリームを併せもつSVC(Scalable Video Coding)のような次世代画像圧縮技術がある。
高解像度の動画像をストリーム配信したり、記録媒体に蓄積する場合、通信帯域を圧迫しないように、あるいは、記憶容量が大きくならないように、動画ストリームの圧縮率を高める必要がある。動画像の圧縮効果を高めるために、動き補償フレーム間予測符号化が行われる。動き補償フレーム間予測符号化では、符号化対象フレームをブロックに分割し、既に符号化された参照フレームからの動きをブロック毎に予測して動きベクトルを検出し、差分画像とともに動きベクトル情報を符号化する。
特許文献1には、動き補償解析と空間ウェーブレット変換によって、動画像を時空間サブバンドに分解する技術が記載されている。
特開2005−86834号公報
H.264/AVC規格では、動き補償において、よりきめ細かな予測を行うために、動き補償のブロックサイズを可変にしたり、動き補償の画素精度を1/4画素精度まで細かくすることができるようになっており、動きベクトルに関する符号量が多くなる。また、次世代画像圧縮技術であるSVC(Scalable Video Coding)では、時間的スケーラビリティを高めるために、MCTF(Motion Compensated Temporal Filtering、動き補償時間方向フィルタ)技術が検討されている。これは、時間軸方向のサブバンド分割に動き補償を組み合わせたものであり、階層的な動き補償を行うため、動きベクトルの情報が非常に多くなる。このように最近の動画圧縮符号化技術では、動きベクトルに関する情報量が増えることにより動画ストリーム全体のデータ量が増大する傾向にあり、動きベクトル情報に起因する符号量を削減する技術が一層求められている。
本発明はこうした状況に鑑みてなされたもので、その目的は、動きベクトル情報に起因する符号量を削減することのできる動画像の符号化技術を提供することにある。
上記課題を解決するために、本発明のある態様は、動画像からフレームレートの異なる複数の階層を求める符号化方法において、第1の階層で求められた動きベクトルと、第1の階層より上位または下位の第2の階層で求められた動きベクトルを用いて第1の階層における動きを予測した予測ベクトルとの差分に関する情報を、動画像の符号化データに含めることを特徴とする。
この態様によると、予測ベクトルとの差分のみを符号化することによって、動きベクトル情報の符号量を削減できるので、動画像の圧縮効率が向上する。
動画像に対して動き補償フィルタリングを実施することによって、フレームレートの異なる複数の階層を求めてもよい。また、MCTF技術にしたがって、動画像に動き補償時間フィルタリングを実施してフレームレートの異なる複数の階層を求める符号化方法に対しても、上述の方法を適用できる。これによると、階層毎に動きベクトル情報が求められるMCTFにおいて、動きベクトルの情報の符号量を削減できるので、動画像の圧縮効率が向上する。
予測ベクトルは、複数フレームにわたって動きの速度が一定であると仮定する線形動きモデルにしたがって、第1の階層の動きベクトルを予測したものであってもよい。これによると、予測ベクトルの生成に伴う計算量を少なくできる。
第2の階層は、第1の階層に時間フィルタリングを実施して求められる第1の階層より低フレームレートの階層であってもよい。これによると、符号化データの復号時に、下位の階層の画像を生成する際に上位階層の動きベクトルが不要になるので、復号装置側で時間的スケーラビリティの優位性が損なわれることがない。
第1の階層で求められた動きベクトルの情報と、差分に関する情報のいずれかを選択的に動画像の符号化データに含めてもよい。これによると、符号化装置の計算処理量や符号化後のデータ量に応じて、より適切な方の情報を動画像の符号化データに含めることができる。
なお、以上の構成要素の任意の組み合わせ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、動画像の符号化において、動きベクトル情報に起因する符号量を削減することができる。
図1は、実施の形態に係る符号化装置100の構成図である。これらの構成は、ハードウエア的には、任意のコンピュータのCPU、メモリ、その他のLSIで実現でき、ソフトウエア的にはメモリにロードされた画像符号化機能のあるプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウエアのみ、ソフトウエアのみ、またはそれらの組み合わせによっていろいろな形で実現できることは、当業者には理解されるところである。
本実施の形態の符号化装置100は、国際標準化機関であるISO(International Organization for Standardization)/IEC(International Electrotechnical Commission)、および電気通信に関する国際標準機関であるITU−T(International Telecommunication Union-Telecommunication Standardization Sector)によって合同で標準化された最新の動画像圧縮符号化標準規格であるH.264/AVC(両機関における正式勧告名はそれぞれMPEG-4 Part 10: Advanced Video CodingとH.264)に準拠して動画像の符号化を行う。
符号化装置100の画像取得部10は、入力画像のGOP(Group of Pictures)を受け取り、各フレームを画像保持部60の専用の領域に格納する。画像取得部10は、必要に応じて各フレームをマクロブロックに分割してもよい。
MCTF処理部20は、MCTF技術にしたがった動き補償時間フィルタリングを実施する。MCTF処理部20は、画像保持部60に格納されているフレームから動きベクトルを求め、動きベクトルを用いて時間フィルタリングを実施する。時間フィルタリングは、ハール(Haar)ウェーブレット変換を用いて実施され、この結果、各階層に高域フレームHと低域フレームLとを含むフレームレートの異なる複数の階層に分解される。分解された高域フレームと低域フレームは、階層毎に画像保持部60の専用の領域に格納され、動きベクトルも階層毎に動きベクトル保持部70の専用の領域に格納される。MCTF処理部20の詳細は後述する。
MCTF処理部20における処理が終了すると、画像保持部60内のすべての階層の高域フレームと最終的な階層の低域フレームは、画像符号化部80に送られる。また、動きベクトル保持部70内のすべての階層の動きベクトルは、動きベクトル符号化部90に送られる。
画像符号化部80は、画像保持部60から供給されたフレームに対してウェーブレット変換を用いた空間フィルタリングを施した後、符号化を実行する。符号化されたフレームは多重化部92に送られる。動きベクトル符号化部90は、動きベクトル保持部70から供給された動きベクトルに対して符号化を実行し、多重化部92に与える。符号化の方法は既知であるため、詳細な説明は省略する。
多重化部92は、画像符号化部80から与えられた符号化後のフレーム情報と、動きベクトル符号化部90から与えられた符号化後の動きベクトル情報とを多重化し、符号化ストリームを生成する。
続いて、図2および図3を参照して、MCTF技術にしたがった時間フィルタリング処理を説明する。
MCTF処理部20は、ひとつのGOP内で連続する二枚のフレームを順次取得して、高域フレームと低域フレームを生成する。二枚のフレームを、時間順に「フレームA」、「フレームB」と呼ぶことにする。
MCTF処理部20は、ひとつのGOP内で連続する二枚のフレームを順次取得して、高域フレームと低域フレームを生成する。二枚のフレームを、時間順に「フレームA」、「フレームB」と呼ぶことにする。
MCTF処理部20は、フレームAおよびフレームBから動きベクトルMVを検出する。図2および図3では、説明を簡単にするためにフレーム単位で動きベクトルを検出しているが、マクロブロック単位で動きベクトルを検出してもよいし、ブロック(8×8画素または4×4画素)単位で動きベクトルを検出してもよい。
次に、フレームAを動きベクトルMVで動き補償した画像(以下、「フレームA’」と表記する)を生成する。
低域フレームLは、図2に示すように、フレームA’とフレームBの平均値として定義される。
L=1/2・(A’+B) (1)
次に、フレームAを動きベクトルMVで動き補償した画像(以下、「フレームA’」と表記する)を生成する。
低域フレームLは、図2に示すように、フレームA’とフレームBの平均値として定義される。
L=1/2・(A’+B) (1)
次に、フレームBを動きベクトルMVの反転値−MVで動き補償した画像(以下、「フレームB’」と表記する)を生成する。
高域フレームHは、図3に示すように、フレームAとフレームB’の差分として定義される。
H=A−B’ (2)
高域フレームHは、図3に示すように、フレームAとフレームB’の差分として定義される。
H=A−B’ (2)
式(2)を変形する。
A=B’+H (3)
右辺、左辺とも動きベクトルMVだけ動き補償したとすると、次式が成り立つ。なお、「H’」は、高域フレームHを動きベクトルMVで動き補償した画像を表す。
A’=B+H’ (4)
式(2)に式(4)を代入すると、次式のようになる。
L=1/2・(A’+B)
=1/2・(B+H’+B)
=B+1/2・H’ (5)
つまり、低域フレームLは、フレームBの各画素値と、高域フレームH’の各画素値を1/2にしたものとを足し合わせることで生成することができる。
A=B’+H (3)
右辺、左辺とも動きベクトルMVだけ動き補償したとすると、次式が成り立つ。なお、「H’」は、高域フレームHを動きベクトルMVで動き補償した画像を表す。
A’=B+H’ (4)
式(2)に式(4)を代入すると、次式のようになる。
L=1/2・(A’+B)
=1/2・(B+H’+B)
=B+1/2・H’ (5)
つまり、低域フレームLは、フレームBの各画素値と、高域フレームH’の各画素値を1/2にしたものとを足し合わせることで生成することができる。
生成された低域フレームLを新たにフレームA、フレームBとして上述と同様の操作を繰り返すことで、次の階層の高域フレーム、低域フレーム、および動きベクトルが生成される。この操作は、生成される低域フレームがひとつになるまで再帰的に繰り返される。したがって、得られる階層の数は、GOPに含まれるフレーム数によって決まる。例えば、GOPに8フレームが含まれる場合は、一回目の操作で4つの高域フレームと4つの低域フレームが生成され(階層2)、二回目の操作で2つの高域フレームと2つの低域フレームが生成され(階層1)、三回目の操作でひとつの高域フレームとひとつの低域フレームが生成される(階層0)。
図4は、MCTF処理部20の構成を示す。動きベクトル検出部21には、画像保持部60に格納されているフレームA、フレームBが入力される。上述したように、階層2ではフレームA、フレームBはGOPを構成するフレームであるが、階層1以降では、直前の階層で生成された低域フレームLがフレームA、フレームBになることに注意する。
動きベクトル検出部21は、フレームB内の各マクロブロックについて、誤差の最も小さい予測領域をフレームAから探索し、マクロブロックから予測領域へのずれを示す動きベクトルMVを求める。動きベクトルMVは、動きベクトル保持部70に格納されるとともに、動き補償部22、24に供給される。
動き補償部22は、フレームBに対して、動きベクトル検出部21から出力された動きベクトルMVを反転させた(−MV)を用いてマクロブロック毎に動き補償を行い、フレームB’を生成する。
画像合成部23は、フレームAと、動き補償部22から出力されるフレームB’の各画素を加算して、高域フレームHを生成する。高域フレームHは、画像保持部60に格納されるとともに、動き補償部24に供給される。動き補償部24は、高域フレームHについて動きベクトルMVを用いてマクロブロック毎に動き補償を行い、フレームH’を求める。求められたフレームH’は、処理ブロック25によって1/2が乗じられ、画像合成部26に供給される。
画像合成部26は、フレームBとフレームH’の各画素を加算して低域フレームLを生成する。生成された低域フレームLは、画像保持部60に格納される。
図5は、GOPが8フレームで構成される場合に、各階層で出力される画像と動きベクトルを示す図である。図6は、MCTF技術にしたがった符号化方法を示すフローチャートである。図5と図6をともに参照して、具体例を説明する。
以下では、階層nの高域フレームをHn、低域フレームをLn、動きベクトルをMVnと表記する。図5の例では、GOP内のフレーム101〜108のうち、フレーム101、103、105、107がフレームAになり、フレーム102、104、106、108がフレームBになる。
まず、画像取得部10がフレームA、フレームBを受け取り、画像保持部60に格納する(S10)。このとき、画像取得部10はフレームをマクロブロックに分割してもよい。続いて、MCTF処理部20は、フレームAおよびフレームBを画像保持部60から読み出し、一回目の時間フィルタリング処理を実行する(S12)。生成された高域フレームH2および低域フレームL2は画像保持部60に格納され、動きベクトルMV2は動きベクトル保持部70に格納される(S14)。フレーム101〜108の処理が終了すると、MCTF処理部20は、画像保持部60から低域フレームL2を読み出し、二回目の時間フィルタリング処理を実行する(S16)。生成された高域フレームH1および低域フレームL1は画像保持部60に格納され、動きベクトルMV1は動きベクトル保持部70に格納される(S18)。続いて、MCTF処理部20は、画像保持部60から二枚の低域フレームL1を読み出し、三回目の時間フィルタリング処理を実行する(S20)。生成された高域フレームH0および低域フレームL0は画像保持部60に格納され、動きベクトルMV0は動きベクトル保持部70に格納される(S22)。
高域フレームH0〜H2、および低域フレームL0は画像符号化部80で符号化され(S24)、動きベクトルMV0〜MV2は動きベクトル符号化部90で符号化される(S26)。符号化されたフレームと動きベクトルは、多重化部92で多重化されて、符号化ストリームとして出力される(S28)。
高域フレームHはフレーム間の差分であるから、符号化時のデータ量は低下する。また、図5をみれば分かるように、一回の時間フィルタリング処理を経る毎に低域フレームL数は1/2に減少するが、低域フレームLは上位階層のフレーム間の平均値であるから、画質および解像度は低下していないフレーム列が得られる。したがって、フレームレートの異なる動画像をひとつのビットストリームで送信することができる。
符号化ストリームを受け取った復号装置は、下位の階層から順に復号処理を実行する。下位階層のみを復号すれば低フレームレートの動画像が得られ、上位の階層まで復号するほど、フレームレートが増加した動画像が得られる。このように、MCTF技術にしたがった時間フィルタリングによって、時間的スケーラビリティを実現することができる。
符号化ストリームを受け取った復号装置は、下位の階層から順に復号処理を実行する。下位階層のみを復号すれば低フレームレートの動画像が得られ、上位の階層まで復号するほど、フレームレートが増加した動画像が得られる。このように、MCTF技術にしたがった時間フィルタリングによって、時間的スケーラビリティを実現することができる。
しかしながら、MCTF技術にしたがった時間フィルタリングでは、各階層で動きベクトルを符号化しなければならないので、動きベクトル情報の符号量が増大する。そこで、本実施の形態では、動きベクトル情報の符号量を削減する技術を提供する。
図7は、動きベクトル符号化部90における動きベクトル符号化の手順を示すフローチャートである。ここでは、図5に示した階層0〜階層2で生成される動きベクトルMV0、MV1、MV2を例にして説明する。
動きベクトル符号化部90は、動きベクトルMV0、MV1、MV2の順で、符号化を実行する。まず、動きベクトル保持部70から動きベクトルMV0〜MV2を受け取る(S40)。動きベクトル符号化部90は、最も下位の階層0の動きベクトルMV0を符号化する(S42)。続いて、階層1の動きベクトルMV1を符号化する代わりに、MV0の1/2とMV1との差分(1/2・MV0−MV1)を符号化する(S44)。さらに、階層2の動きベクトルMV2を符号化する代わりに、MV1の1/2とMV2との差分(1/2・MV1−MV2)を符号化する(S46)。
これは、以下の考え方に基づく。図5を参照すると、階層1の二枚の低域フレームL1 123、127を基にして一枚の低域フレームL0 137が生成されることから、複数フレームにわたって動きの速度が一定であると仮定する線形動きモデルに従えば、階層1の動きベクトルMV1は、階層0の動きベクトルMV0の半分に近い値を有していると考えられる。したがって、MV1をそのまま符号化する代わりに、MV0を1/2にした予測ベクトルとの誤差を符号化すれば、動きベクトル情報の符号化量を削減することができる。階層2の動きベクトルMV2についても同様に、動きベクトルMV1を1/2にした予測ベクトルとの誤差を符号化することで、動きベクトル情報の符号化量を削減する。
同様の考え方から、階層2の動きベクトルMV2については、階層0の動きベクトルMV0を1/4にした予測ベクトルとの差分(1/4・MV0−MV2)を符号化してもよい。また、元のベクトルそのものの情報と、差分に関する情報のいずれかを、選択的に符号化してもよい。例えば、動きベクトル情報の符号化後のデータ量が所与のしきい値を越える場合にのみ、差分を符号化するようにしてもよい。これによると、符号化装置の計算処理量や符号化後のデータ量に応じて、より適切な方の情報を動画像の符号化データに含めることができる。
動画像の階層的符号化においては、動きベクトルの符号量自体が多くなり、動きベクトルを効率的に符号化する必要がある。本実施形態によれば、MCTFの動きベクトル情報を下位階層の動きベクトル値から予測して、予測ベクトルとの差分を符号化することによって、動きベクトル情報自体を削減し、符号量を削減することができる。
なお、予測ベクトルは、上位階層と下位階層のフレームの枚数によって決定される。例えば、三枚の低域フレームを基にして一枚の低域フレームが生成される場合には、下位階層の動きベクトルを1/3にした予測ベクトルと、上位階層の動きベクトルとの差分を符号化する。
図8は、実施の形態に係る復号装置300の構成図である。復号装置300のストリーム解析部310には、符号化ストリームが入力される。ストリーム解析部310は、必要な階層に対応するデータ部分を抜き出し、さらにフレームの復号データと動きベクトルの復号データとを分離する。フレームデータは画像復号部320に与えられ、動きベクトルデータは動きベクトル復号部330に与えられる。
画像復号部320は、エントロピー復号化、逆ウェーブレット変換を施して、最下位階層の低域フレームL0と、すべての高域フレームH0〜H2を生成する。画像復号部320で復号されたフレームは、画像保持部350の専用の領域に格納される。
動きベクトル復号部330は、動きベクトル情報を復号した後、最下位階層における動きベクトルMV0と、そのベクトルとの差分から、より上位の階層の動きベクトルMV1、MV2を計算する。動きベクトル復号部330で復号された動きベクトルは、動きベクトル保持部360の専用の領域に格納される。
画像合成部370は、上述のMCTF処理とは逆の手順でフレームを合成する。合成されたフレームは外部に出力されるとともに、さらに上位の階層のフレームが必要な場合は、後の処理のために合成したフレームを画像保持部350に格納する。
画像合成部で合成処理をする毎に、フレームレートの高い動画像の再生が可能になり、最終的には入力画像と同じフレームレートの動画像が得られる。
以上述べたように、本実施の形態の符号化装置100によれば、動きベクトルを符号化する際に、下位階層の動きベクトルから予測された予測ベクトルと上位階層の動きベクトルとの差分値を符号化することにより、動きベクトル情報自体のデータ量を削減できる。したがって、動画像ストリーム全体の符号量を減らして圧縮効率を高めることができる。また、下位階層のフレームの復号に際しては、それより上位の階層の動きベクトルは不要であるから、復号装置側では必要なフレームレートに応じた階層までの復号をすれば十分であり、時間的スケーラビリティの優位性が損なわれることはない。
特に、MCTF技術を用いた動画像の符号化においては、動きベクトルの数が膨大になるので、本実施形態は有効である。
以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
上記では、連続する2つのフレームからひとつの低域フレームを生成するハール(Haar)ウェーブレット変換によるMCTF処理を行う場合の動きベクトルを例として説明したが、本発明は、連続する5つのフレームからひとつの低域フレームを生成し、連続する3つのフレームからひとつの高域フレームを生成する5/3ウェーブレット変換によるMCTF処理を行う場合の動きベクトルについても適用することができる。
上記の説明では、符号化装置100および復号装置300は、H.264/AVCに準拠して動画像の符号化および復号を行ったが、本発明は、時間的スケーラビリティをもつ階層的な動画像の符号化および復号を行う他の方式にも適用することができる。
10 画像取得部、 20 MCTF処理部、 21 動きベクトル検出部、 60 画像保持部、 70 動きベクトル保持部、 80 画像符号化部、 90 動きベクトル符号化部、 92 多重化部、 100 符号化装置、 300 復号装置、 310 ストリーム解析部、 320 画像復号部、 330 動きベクトル復号部、 350 画像保持部、 360 動きベクトル保持部、 370 画像合成部。
Claims (5)
- 動画像からフレームレートの異なる複数の階層を求める符号化方法において、
第1の階層で求められた動きベクトルと、第1の階層より上位または下位の第2の階層で求められた動きベクトルを用いて前記第1の階層における動きを予測した予測ベクトルとの差分に関する情報を、動画像の符号化データに含めることを特徴とする符号化方法。 - 動画像に動き補償時間フィルタリングを実施してフレームレートの異なる複数の階層を求める符号化方法において、
第1の階層で求められた動きベクトルと、第1の階層より上位または下位の第2の階層で求められた動きベクトルを用いて前記第1の階層における動きを予測した予測ベクトルとの差分に関する情報を、動画像の符号化データに含めることを特徴とする符号化方法。 - 前記予測ベクトルは、複数フレームにわたって動きの速度が一定であると仮定する線形動きモデルにしたがって、前記第1の階層の動きベクトルを予測したものであることを特徴とする請求項1または2に記載の符号化方法。
- 前記第2の階層は、前記第1の階層に時間フィルタリングを実施して求められる第1の階層より低フレームレートの階層であることを特徴とする請求項3に記載の符号化方法。
- 前記第1の階層で求められた動きベクトルの情報と、前記差分に関する情報のいずれかを選択的に動画像の符号化データに含めることを特徴とする請求項1ないし4のいずれかに記載の符号化方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005265886A JP2007081720A (ja) | 2005-09-13 | 2005-09-13 | 符号化方法 |
US11/520,024 US20070064791A1 (en) | 2005-09-13 | 2006-09-13 | Coding method producing generating smaller amount of codes for motion vectors |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005265886A JP2007081720A (ja) | 2005-09-13 | 2005-09-13 | 符号化方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007081720A true JP2007081720A (ja) | 2007-03-29 |
Family
ID=37884039
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005265886A Withdrawn JP2007081720A (ja) | 2005-09-13 | 2005-09-13 | 符号化方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20070064791A1 (ja) |
JP (1) | JP2007081720A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100923855B1 (ko) | 2007-11-30 | 2009-10-27 | 한국전자통신연구원 | Avc 싱글레이어를 이용한 svc 멀티레이어 비트스트림변환 방법 및 장치 |
JPWO2009110227A1 (ja) * | 2008-03-03 | 2011-07-14 | パナソニック株式会社 | 記録装置、再生装置および方法 |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100583649C (zh) * | 2007-07-23 | 2010-01-20 | 华为技术有限公司 | 矢量编/解码方法、装置及流媒体播放器 |
US20140098880A1 (en) * | 2012-10-05 | 2014-04-10 | Qualcomm Incorporated | Prediction mode information upsampling for scalable video coding |
US9164609B2 (en) | 2013-03-13 | 2015-10-20 | Amazon Technologies, Inc. | Managing sensory information of a user device |
US9693076B2 (en) * | 2014-01-07 | 2017-06-27 | Samsung Electronics Co., Ltd. | Video encoding and decoding methods based on scale and angle variation information, and video encoding and decoding apparatuses for performing the methods |
GB2618721B (en) * | 2019-03-20 | 2024-03-13 | V Nova Int Ltd | Low complexity enhancement video coding |
US20230179779A1 (en) * | 2019-06-12 | 2023-06-08 | Sony Group Corporation | Image processing device and method |
US20220385888A1 (en) * | 2019-09-20 | 2022-12-01 | Electronics And Telecommunications Research Institute | Image encoding/decoding method and device, and recording medium storing bitstream |
CN113422951B (zh) * | 2019-09-20 | 2022-05-31 | 杭州海康威视数字技术股份有限公司 | 一种解码、编码方法、装置及其设备 |
CN112106362A (zh) * | 2019-09-30 | 2020-12-18 | 深圳市大疆创新科技有限公司 | 可移动平台的图像处理方法、装置、可移动平台及介质 |
EP4059221A4 (en) * | 2019-11-15 | 2023-09-13 | HFI Innovation Inc. | METHOD AND APPARATUS FOR SIGNALING HORIZONTAL LOOP MOTION COMPENSATION IN VR360 VIDEO CODING |
US20230104270A1 (en) * | 2020-05-19 | 2023-04-06 | Google Llc | Dynamic Parameter Selection for Quality-Normalized Video Transcoding |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20040068963A (ko) * | 2001-12-20 | 2004-08-02 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 비디오 인코딩 및 디코딩 방법 및 장치 |
KR100631777B1 (ko) * | 2004-03-31 | 2006-10-12 | 삼성전자주식회사 | 다 계층의 모션 벡터를 효율적으로 압축하는 방법 및 장치 |
KR100703760B1 (ko) * | 2005-03-18 | 2007-04-06 | 삼성전자주식회사 | 시간적 레벨간 모션 벡터 예측을 이용한 비디오인코딩/디코딩 방법 및 장치 |
KR100763179B1 (ko) * | 2005-04-01 | 2007-10-04 | 삼성전자주식회사 | 비동기 픽쳐의 모션 벡터를 압축/복원하는 방법 및 그방법을 이용한 장치 |
-
2005
- 2005-09-13 JP JP2005265886A patent/JP2007081720A/ja not_active Withdrawn
-
2006
- 2006-09-13 US US11/520,024 patent/US20070064791A1/en not_active Abandoned
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100923855B1 (ko) | 2007-11-30 | 2009-10-27 | 한국전자통신연구원 | Avc 싱글레이어를 이용한 svc 멀티레이어 비트스트림변환 방법 및 장치 |
JPWO2009110227A1 (ja) * | 2008-03-03 | 2011-07-14 | パナソニック株式会社 | 記録装置、再生装置および方法 |
Also Published As
Publication number | Publication date |
---|---|
US20070064791A1 (en) | 2007-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007081720A (ja) | 符号化方法 | |
JP4991699B2 (ja) | ビデオ信号のスケーラブルなエンコーディング方法およびデコーディング方法 | |
KR100888963B1 (ko) | 영상 신호의 스케일러블 인코딩 및 디코딩 방법 | |
US20060209961A1 (en) | Video encoding/decoding method and apparatus using motion prediction between temporal levels | |
EP1737243A2 (en) | Video coding method and apparatus using multi-layer based weighted prediction | |
JP4703449B2 (ja) | 符号化方法 | |
US9392280B1 (en) | Apparatus and method for using an alternate reference frame to decode a video frame | |
KR100694137B1 (ko) | 동영상 부호화 장치, 동영상 복호화 장치, 및 그 방법과,이를 구현하기 위한 프로그램이 기록된 기록 매체 | |
JP2004519909A (ja) | 細粒度スケーラビリティビデオ符号化における上位レイヤのための改善された予測構造 | |
JP2006279573A (ja) | 符号化装置と方法、ならびに復号装置と方法 | |
KR20060088461A (ko) | 영상신호의 엔코딩/디코딩시에 영상블록을 위한 모션벡터를베이스 레이어 픽처의 모션벡터로부터 유도하는 방법 및장치 | |
JP2009532979A (ja) | 加重平均合を用いてfgs階層をエンコーディングおよびデコーディングする方法および装置 | |
KR20100017507A (ko) | 크기 조정 가능한 스트림의 형태로 비디오 콘텐츠를 코딩하는 디바이스 및 방법 | |
JP2007174568A (ja) | 符号化方法 | |
JP2007266749A (ja) | 符号化方法 | |
JP2007235314A (ja) | 符号化方法 | |
KR100728011B1 (ko) | 영상 부호화 및 복호화 장치와, 그 방법, 및 이를 수행하기위한 프로그램이 기록된 기록 매체 | |
JP2007036888A (ja) | 符号化方法 | |
JP4660408B2 (ja) | 符号化方法 | |
JP2007096541A (ja) | 符号化方法 | |
JP2007266750A (ja) | 符号化方法 | |
KR20060069227A (ko) | 영상신호의 엔코딩/디코딩시에 영상블록을 위한 모션벡터를베이스 레이어 픽처의 모션벡터로부터 유도하는 방법 및장치 | |
JP2007036889A (ja) | 符号化方法 | |
JP2007096540A (ja) | 符号化方法 | |
US20150010083A1 (en) | Video decoding method and apparatus using the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070911 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20080717 |