JP2007096541A - Coding method - Google Patents
Coding method Download PDFInfo
- Publication number
- JP2007096541A JP2007096541A JP2005280882A JP2005280882A JP2007096541A JP 2007096541 A JP2007096541 A JP 2007096541A JP 2005280882 A JP2005280882 A JP 2005280882A JP 2005280882 A JP2005280882 A JP 2005280882A JP 2007096541 A JP2007096541 A JP 2007096541A
- Authority
- JP
- Japan
- Prior art keywords
- motion vector
- frame
- accuracy
- layer
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
本発明は、動画像を符号化する符号化方法に関する。 The present invention relates to an encoding method for encoding a moving image.
ブロードバンドネットワークが急速に発展しており、高品質な動画像を利用したサービスに期待が集まっている。また、DVDなど大容量の記録媒体が利用されており、高画質の画像を楽しむユーザ層が広がっている。動画像を通信回線で伝送したり、記録媒体に蓄積するために不可欠な技術として圧縮符号化がある。動画像圧縮符号化技術の国際標準として、MPEG4の規格やH.264/AVC規格がある。また、ひとつのストリームにおいて高画質のストリームと低画質のストリームを併せもつSVC(Scalable Video Coding)のような次世代画像圧縮技術がある。 Broadband networks are rapidly developing, and there are high expectations for services that use high-quality moving images. In addition, a large-capacity recording medium such as a DVD is used, and a user group who enjoys high-quality images is expanding. There is compression coding as an indispensable technique for transmitting moving images via a communication line or storing them in a recording medium. As an international standard for moving image compression coding technology, the MPEG4 standard and H.264 standard. There is a H.264 / AVC standard. In addition, there is a next-generation image compression technique such as SVC (Scalable Video Coding) in which one stream includes a high-quality stream and a low-quality stream.
H.264/AVC規格では、動き補償においてよりきめ細かな予測を行うために、動き補償のブロックサイズを可変にしたり、動き補償の画素精度を1/4画素精度まで細かくすることができるようになっており、動きベクトルに関する符号量が多くなる。また、次世代画像圧縮技術であるSVCでは、時間的スケーラビリティを高めるために、MCTF(Motion Compensated Temporal Filtering、動き補償時間方向フィルタ)技術が検討されている。これは、時間軸方向のサブバンド分割に動き補償を組み合わせたものであり、階層的な動き補償を行うため、動きベクトルの情報が非常に多くなる。このように最近の動画圧縮符号化技術では、動きベクトルに関する情報量が増えることにより動画ストリーム全体のデータ量が増大する傾向にあり、動きベクトル情報に起因する符号量を削減する技術が一層求められている。 H. In the H.264 / AVC standard, in order to perform more detailed prediction in motion compensation, the block size of motion compensation can be made variable, and the pixel accuracy of motion compensation can be reduced to ¼ pixel accuracy. The amount of code related to the motion vector increases. In SVC, which is a next-generation image compression technology, MCTF (Motion Compensated Temporal Filtering) technology is being studied in order to improve temporal scalability. This is a combination of subband division in the time axis direction and motion compensation. Since hierarchical motion compensation is performed, information on motion vectors becomes very large. As described above, the recent video compression coding technology tends to increase the data amount of the entire video stream due to an increase in the amount of information related to motion vectors, and there is a further demand for a technology for reducing the amount of codes resulting from motion vector information. ing.
特許文献1には、動きベクトルの符号化精度をブロック毎に切り換える符号化方法が開示されている。これによって、低レート符号化における動きベクトルの符号量が削減できる。
高周波成分が多く、かつ参照フレームとの相関が強いフレームにおいては、動きベクトルの精度を高くして高精度の動き補償を実施することによって予測誤差を小さくできるが、フレーム内を移動する物体の動きが速いために参照フレームとの相関が弱いフレームや、高周波成分の少ないフレームにおいては、動き補償の精度を高くしても予測誤差の低減は貢献することはなく、高精度の動きベクトルの情報が無駄になってしまう。 In a frame with many high-frequency components and strong correlation with the reference frame, the prediction error can be reduced by increasing the accuracy of the motion vector and performing high-precision motion compensation, but the motion of the object moving in the frame For frames that are weakly correlated with the reference frame due to high speed and frames that have few high-frequency components, reducing the prediction error does not contribute even if the accuracy of motion compensation is increased. It will be useless.
本発明はこうした状況に鑑みてなされたもので、その目的は、動きベクトル情報に起因する符号量を削減することのできる動画像の符号化技術を提供することにある。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide a moving image encoding technique capable of reducing the amount of code caused by motion vector information.
上記課題を解決するために、本発明のある態様は、動画像からスケーラビリティを有する複数の階層をもつ符号化データを生成する符号化方法において、階層毎に、その階層内での動き補償予測に用いられる動きベクトルの精度が変更可能であることを特徴とする。 In order to solve the above-described problem, an aspect of the present invention provides an encoding method for generating encoded data having a plurality of layers having scalability from a moving image, for each layer, for motion compensation prediction within the layer. It is characterized in that the accuracy of the motion vector used can be changed.
この態様によると、それぞれの階層に最適な動きベクトル精度を用いることで、予測誤差の低減につながらない無駄な動きベクトルの符号量を抑えることにより、動画像の圧縮効率が向上する。スケーラビリティのタイプとしては、時間スケーラビリティと空間スケーラビリティが考えられる。 According to this aspect, by using the optimal motion vector accuracy for each layer, it is possible to improve the compression efficiency of moving images by suppressing the amount of code of useless motion vectors that does not lead to a reduction in prediction errors. Scalability types include temporal scalability and spatial scalability.
動画像に対して再帰的に動き補償時間フィルタリングを実施することによって、フレームレートの異なる複数の階層を求めてもよい。また、MCTF技術にしたがって、動画像に動き補償時間フィルタリングを実施してフレームレートの異なる複数の階層を求める符号化方法に対しても、上述の方法を適用できる。これによると、階層毎に動きベクトル情報が求められるMCTFにおいて、動きベクトル情報の符号量を削減できるので、動画像の圧縮効率が向上する。 A plurality of layers having different frame rates may be obtained by recursively performing motion compensation time filtering on a moving image. Further, the above method can be applied to an encoding method for obtaining a plurality of layers having different frame rates by performing motion compensation time filtering on a moving image according to the MCTF technique. According to this, since the code amount of motion vector information can be reduced in MCTF in which motion vector information is obtained for each layer, the compression efficiency of moving images is improved.
階層と動きベクトルの精度とを予め対応付けておき、その対応情報を動画像の符号化データ内に含めるようにしてもよい。これによって、符号化データストリーム毎に、各階層での動き補償予測に使用される動きベクトルの精度を定めることができる。 The hierarchy and the accuracy of the motion vector may be associated in advance, and the correspondence information may be included in the encoded data of the moving image. Thereby, the accuracy of the motion vector used for motion compensation prediction in each layer can be determined for each encoded data stream.
一定枚数のピクチャ毎に階層と動きベクトルの精度とが対応付けされており、その対応情報を動画像の符号化データ内に含めるようにしてもよい。これによって、GOPなどの一定単位のピクチャ毎に、各階層での動き補償予測に使用される動きベクトルの精度を定めることができる。
なお、「ピクチャ」は、フレーム、フィールド、VOP(Video Object Plane)などを含む符号化の単位である。
The hierarchy and the accuracy of the motion vector are associated with each fixed number of pictures, and the correspondence information may be included in the encoded data of the moving image. This makes it possible to determine the accuracy of the motion vector used for motion compensation prediction in each layer for each fixed unit picture such as GOP.
A “picture” is a unit of encoding including a frame, a field, a VOP (Video Object Plane), and the like.
階層と動きベクトルの精度とが予め対応付けされており、この対応付けにしたがって各階層における動きベクトルの精度を決定してもよい。これによって、階層と動きベクトル精度との対応情報を符号化データに含める必要がなくなる。 The hierarchy and the accuracy of the motion vector are associated in advance, and the accuracy of the motion vector in each hierarchy may be determined according to this association. This eliminates the need to include correspondence information between the hierarchy and the motion vector accuracy in the encoded data.
階層を経る毎に動きベクトルの精度を段階的に変化させるようにしてもよい。また、階層のフレームレートが低下するにしたがって動きベクトルの精度を粗くしてもよい。一般に、フレームレートが低下してフレーム間の相関が低下すれば、動きベクトルの精度を粗くしても予測誤差に与える影響は小さいと考えられるので、これによって動きベクトル情報の符号量を削減でき、動画像の圧縮効率が向上する。 You may make it change the precision of a motion vector in steps every time it passes through a hierarchy. Further, the accuracy of the motion vector may be coarsened as the frame rate of the hierarchy is lowered. In general, if the frame rate decreases and the correlation between frames decreases, even if the accuracy of the motion vector is reduced, it is considered that the influence on the prediction error is small, so this can reduce the code amount of the motion vector information, The compression efficiency of moving images is improved.
なお、以上の構成要素の任意の組み合わせ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。 It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, etc. are also effective as an aspect of the present invention.
本発明によれば、動画像の符号化において、動きベクトル情報に起因する符号量を削減することができる。 ADVANTAGE OF THE INVENTION According to this invention, the encoding amount resulting from motion vector information can be reduced in the encoding of a moving image.
図1は、実施の形態に係る符号化装置100の構成図である。これらの構成は、ハードウエア的には、任意のコンピュータのCPU、メモリ、その他のLSIで実現でき、ソフトウエア的にはメモリにロードされた画像符号化機能のあるプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウエアのみ、ソフトウエアのみ、またはそれらの組み合わせによっていろいろな形で実現できることは、当業者には理解されるところである。
FIG. 1 is a configuration diagram of an
本実施の形態の符号化装置100は、国際標準化機関であるISO(International Organization for Standardization)/IEC(International Electrotechnical Commission)、および電気通信に関する国際標準機関であるITU−T(International Telecommunication Union-Telecommunication Standardization Sector)によって合同で標準化された最新の動画像圧縮符号化標準規格であるH.264/AVC(両機関における正式勧告名はそれぞれMPEG-4 Part 10: Advanced Video CodingとH.264)に準拠して動画像の符号化を行う。
The
符号化装置100の画像取得部10は、入力画像のGOP(Group of Pictures)を受け取り、各フレームを画像保持部60の専用の領域に格納する。画像取得部10は、必要に応じて各フレームをマクロブロックに分割してもよい。
The
MCTF処理部20は、MCTF技術にしたがった動き補償時間フィルタリングを実施する。MCTF処理部20は、画像保持部60に格納されているフレームから動きベクトルを求め、動きベクトルを用いて時間フィルタリングを実施する。時間フィルタリングは、ハール(Haar)ウェーブレット変換を用いて実施され、この結果、各階層に高域フレームHと低域フレームLとを含むフレームレートの異なる複数の階層に分解される。分解された高域フレームと低域フレームは、階層毎に画像保持部60の専用の領域に格納され、動きベクトルも階層毎に動きベクトル保持部70の専用の領域に格納される。MCTF処理部20の詳細は後述する。
The
MCTF処理部20における処理が終了すると、画像保持部60内のすべての階層の高域フレームと最終的な階層の低域フレームは、画像符号化部80に送られる。また、動きベクトル保持部70内のすべての階層の動きベクトルは、動きベクトル符号化部90に送られる。
When the processing in the
画像符号化部80は、画像保持部60から供給されたフレームに対してウェーブレット変換を用いた空間フィルタリングを施した後、符号化を実行する。符号化されたフレームは多重化部92に送られる。動きベクトル符号化部90は、動きベクトル保持部70から供給された動きベクトルに対して符号化を実行し、多重化部92に与える。符号化の方法は既知であるため、詳細な説明は省略する。
The
多重化部92は、画像符号化部80から与えられた符号化後のフレーム情報と、動きベクトル符号化部90から与えられた符号化後の動きベクトル情報とを多重化し、符号化ストリームを生成する。
The
続いて、図2および図3を参照して、MCTF技術にしたがった時間フィルタリング処理を説明する。
MCTF処理部20は、ひとつのGOP内で連続する二枚のフレームを順次取得して、高域フレームと低域フレームを生成する。二枚のフレームを、時間順に「フレームA」、「フレームB」と呼ぶことにする。
Subsequently, a time filtering process according to the MCTF technique will be described with reference to FIGS. 2 and 3.
The
MCTF処理部20は、フレームAおよびフレームBから動きベクトルMVを検出する。図2および図3では、説明を簡単にするためにフレーム単位で動きベクトルを検出しているが、マクロブロック単位で動きベクトルを検出してもよいし、ブロック(8×8画素または4×4画素)単位で動きベクトルを検出してもよい。
次に、フレームAを動きベクトルMVで動き補償した画像(以下、「フレームA’」と表記する)を生成する。
低域フレームLは、図2に示すように、フレームA’とフレームBの平均値として定義される。
L=1/2・(A’+B) (1)
The
Next, an image (hereinafter referred to as “frame A ′”) in which frame A is motion-compensated with a motion vector MV is generated.
The low frequency frame L is defined as an average value of the frames A ′ and B as shown in FIG.
L = 1/2 · (A ′ + B) (1)
次に、フレームBを動きベクトルMVの反転値−MVで動き補償した画像(以下、「フレームB’」と表記する)を生成する。
高域フレームHは、図3に示すように、フレームAとフレームB’の差分として定義される。
H=A−B’ (2)
Next, an image (hereinafter referred to as “frame B ′”) in which the frame B is motion-compensated with the inversion value −MV of the motion vector MV is generated.
The high frequency frame H is defined as a difference between the frame A and the frame B ′ as shown in FIG.
H = A−B ′ (2)
式(2)を変形する。
A=B’+H (3)
右辺、左辺とも動きベクトルMVだけ動き補償したとすると、次式が成り立つ。なお、「H’」は、高域フレームHを動きベクトルMVで動き補償した画像を表す。
A’=B+H’ (4)
式(2)に式(4)を代入すると、次式のようになる。
L=1/2・(A’+B)
=1/2・(B+H’+B)
=B+1/2・H’ (5)
つまり、低域フレームLは、フレームBの各画素値と、高域フレームH’の各画素値を1/2にしたものとを足し合わせることで生成することができる。
Equation (2) is transformed.
A = B '+ H (3)
If motion compensation is performed by the motion vector MV on both the right side and the left side, the following equation is established. “H ′” represents an image obtained by motion compensation of the high frequency frame H with the motion vector MV.
A '= B + H' (4)
Substituting equation (4) into equation (2) gives the following equation.
L = 1/2 · (A '+ B)
= 1/2 ・ (B + H '+ B)
= B + 1/2 · H '(5)
That is, the low-frequency frame L can be generated by adding the pixel values of the frame B and the pixel values of the high-frequency frame H ′ that are halved.
生成された低域フレームLを新たにフレームA、フレームBとして上述と同様の操作を繰り返すことで、次の階層の高域フレーム、低域フレーム、および動きベクトルが生成される。この操作は、生成される低域フレームがひとつになるまで再帰的に繰り返される。したがって、得られる階層の数は、GOPに含まれるフレーム数によって決まる。例えば、GOPに8フレームが含まれる場合は、一回目の操作で4つの高域フレームと4つの低域フレームが生成され(階層2)、二回目の操作で2つの高域フレームと2つの低域フレームが生成され(階層1)、三回目の操作でひとつの高域フレームとひとつの高域フレームが生成される(階層0)。 By repeating the same operation as described above with the generated low-frequency frame L as a new frame A and frame B, a high-frequency frame, a low-frequency frame, and a motion vector of the next hierarchy are generated. This operation is recursively repeated until one low frequency frame is generated. Therefore, the number of layers obtained is determined by the number of frames included in the GOP. For example, if the GOP contains 8 frames, the first operation generates four high frequency frames and four low frequency frames (layer 2), and the second operation generates two high frequency frames and two low frequency frames. A region frame is generated (layer 1), and one high-frequency frame and one high region frame are generated by the third operation (layer 0).
図4は、MCTF処理部20の構成を示す。動きベクトル検出部21には、画像保持部60に格納されているフレームA、フレームBが入力される。上述したように、階層2ではフレームA、フレームBはGOPを構成するフレームであるが、階層1以降では、直前の階層で生成された低域フレームLがフレームA、フレームBになることに注意する。
FIG. 4 shows the configuration of the
動きベクトル精度決定部28は、動き補償予測に使用する動きベクトルの精度、すなわち最小画素を決定し、動きベクトル検出部21に与える。後述するように、本実施の形態においては、動きベクトルの精度は階層毎に決めることができる。したがって、動きベクトル精度決定部28は、その時点でいずれの階層のフレームの動き補償を実行しているかを判別して、動きベクトルの精度を決定する。
The motion vector
動きベクトル検出部21は、フレームB内の各マクロブロックについて、誤差の最も小さい予測領域をフレームAから探索し、マクロブロックから予測領域へのずれを示す動きベクトルMVを求める。このとき、動きベクトル精度決定部28から与えられた精度で動きベクトルMVを求める。動きベクトルMVは、動きベクトル保持部70に格納されるとともに、動き補償部22、24に供給される。
The motion
動き補償部22は、フレームBに対して、動きベクトル検出部21から出力された動きベクトルMVを反転させた(−MV)を用いてマクロブロック毎に動き補償を行い、フレームB’を生成する。
The
画像合成部23は、フレームAと、動き補償部22から出力されるフレームB’の各画素を加算して、高域フレームHを生成する。高域フレームHは、画像保持部60に格納されるとともに、動き補償部24に供給される。動き補償部24は、高域フレームHについて動きベクトルMVを用いてマクロブロック毎に動き補償を行い、フレームH’を求める。求められたフレームH’は、処理ブロック25によって1/2が乗じられ、画像合成部26に供給される。
The
画像合成部26は、フレームBとフレームH’の各画素を加算して低域フレームLを生成する。生成された低域フレームLは、画像保持部60に格納される。
The
図5は、GOPが8フレームで構成される場合に、各階層で出力される画像と動きベクトルを示す図である。図6は、MCTF技術にしたがった符号化方法を示すフローチャートである。図5と図6をともに参照して、具体例を説明する。 FIG. 5 is a diagram illustrating an image and a motion vector output in each layer when the GOP is configured with 8 frames. FIG. 6 is a flowchart showing an encoding method according to the MCTF technique. A specific example will be described with reference to FIGS.
以下では、階層nの高域フレームをHn、低域フレームをLn、動きベクトルをMVnと表記する。図5の例では、GOP内のフレーム101〜108のうち、フレーム101、103、105、107がフレームAになり、フレーム102、104、106、108がフレームBになる。
Hereinafter, the high-frequency frame of layer n is expressed as H n , the low-frequency frame is expressed as L n , and the motion vector is expressed as MV n . In the example of FIG. 5, among the frames 101 to 108 in the GOP, the
まず、画像取得部10がフレームA、フレームBを受け取り、画像保持部60に格納する(S10)。このとき、画像取得部10はフレームをマクロブロックに分割してもよい。続いて、MCTF処理部20は、フレームAおよびフレームBを画像保持部60から読み出し、一回目の時間フィルタリング処理を実行する(S12)。生成された高域フレームH2および低域フレームL2は画像保持部60に格納され、動きベクトルMV2は動きベクトル保持部70に格納される(S14)。フレーム101〜108の処理が終了すると、MCTF処理部20は、画像保持部60から低域フレームL2を読み出し、二回目の時間フィルタリング処理を実行する(S16)。生成された高域フレームH1および低域フレームL1は画像保持部60に格納され、動きベクトルMV1は動きベクトル保持部70に格納される(S18)。続いて、MCTF処理部20は、画像保持部60から二枚の低域フレームL1を読み出し、三回目の時間フィルタリング処理を実行する(S20)。生成された高域フレームH0および低域フレームL0は画像保持部60に格納され、動きベクトルMV0は動きベクトル保持部70に格納される(S22)。
First, the
高域フレームH0〜H2、および低域フレームL0は画像符号化部80で符号化され(S24)、動きベクトルMV0〜MV2は動きベクトル符号化部90で符号化される(S26)。符号化されたフレームと動きベクトルは、多重化部92で多重化されて、符号化ストリームとして出力される(S28)。
The high frequency frames H 0 to H 2 and the low frequency frame L 0 are encoded by the image encoding unit 80 (S24), and the motion vectors MV 0 to MV 2 are encoded by the motion vector encoding unit 90 (S26). ). The encoded frame and motion vector are multiplexed by the multiplexing
高域フレームHはフレーム間の差分であるから、符号化時のデータ量は低下する。また、図5をみれば分かるように、一回の時間フィルタリング処理を経る毎に低域フレームLの数は1/2に減少するが、低域フレームLは上位階層のフレーム間の平均値であるから、画質および解像度は低下していないフレーム列が得られる。ひとつの具体例として、元の動画像が60fpsであるとすると、階層2では30fps、階層1では15fps、階層0では7.5fpsのように、階層を経る毎にフレームレートは低下する。したがって、フレームレートの異なる動画像をひとつのビットストリームで送信することができる。
Since the high frequency frame H is a difference between frames, the amount of data at the time of encoding decreases. Further, as can be seen from FIG. 5, the number of low-frequency frames L decreases to ½ each time a time filtering process is performed, but the low-frequency frames L are average values between frames of higher layers. Therefore, a frame sequence in which the image quality and the resolution are not deteriorated can be obtained. As one specific example, if the original moving image is 60 fps, the frame rate decreases every time the layer passes, such as 30 fps in
符号化ストリームを受け取った復号装置は、下位の階層から順に復号処理を実行する。下位階層のみを復号すれば低フレームレートの動画像が得られ、上位の階層まで復号するほど、フレームレートが増加した動画像が得られる。このように、MCTF技術にしたがった時間フィルタリングによって、時間的スケーラビリティを実現することができる。 The decoding device that has received the encoded stream executes decoding processing in order from the lower layer. If only the lower layer is decoded, a moving image with a low frame rate is obtained, and a moving image with an increased frame rate is obtained as the upper layer is decoded. Thus, temporal scalability can be achieved by temporal filtering according to MCTF technology.
本実施の形態では、動きベクトル精度決定部28によって、階層毎にその階層内での動き補償予測に用いられる動きベクトルの精度を変更できるようにしている。階層と動きベクトル精度との対応付けは、符号化の規格として予め定められていてもよいし、または任意に設定できるようにしてもよい。例えば、階層毎に動きベクトル精度を設定した場合には、図7に示すように、符号化ストリーム内の各階層のヘッダにそれぞれの動きベクトルの精度データを格納しておく。階層と動きベクトル精度との対応付けが符号化の規格として定められている場合には、対応付けの情報を符号化ストリームに含める必要はない。
符号化ストリーム毎に、階層と動きベクトル精度との対応付けを決定するようにしてもよい。この場合は、符号化ストリーム全体のヘッダにその対応付けの情報を格納しておく。さらに、GOPなどの一定枚数のピクチャ毎に、階層と動きベクトル精度との対応付けを決定するようにしてもよい。この場合は、GOPのヘッダなどにその対応付けの情報を格納しておく。
In the present embodiment, the motion vector
You may make it determine matching with a hierarchy and a motion vector precision for every encoding stream. In this case, the association information is stored in the header of the entire encoded stream. Further, the association between the hierarchy and the motion vector accuracy may be determined for each predetermined number of pictures such as GOP. In this case, the association information is stored in the GOP header or the like.
図8は、階層のフレームレートと動きベクトル精度との対応付けの一例を示す。この例では、階層のフレームレートが30〜60fpsの場合は1/4画素精度、15〜30fpsの場合は1/2画素精度、15fps以下の場合は1画素精度としている。上述の動きベクトル精度決定部28は、動き補償の処理の対象となっている階層のフレームレートに応じて、図8のテーブルにしたがった動きベクトル精度を動きベクトル検出部21に提供する。動きベクトル精度決定部28は、図8のような予め決められたテーブルにしたがって各階層の動きベクトル精度を決定する代わりに、差分画像の符号量が最小となるように各階層の動きベクトル精度を決定してもよい。または、動きベクトル精度決定部28は、符号化を実行する際に、外部から各階層の動きベクトル精度の指令を受け取るようにしてもよい。
FIG. 8 shows an example of the correspondence between the frame rate of the hierarchy and the motion vector accuracy. In this example, when the frame rate of the hierarchy is 30 to 60 fps, 1/4 pixel accuracy is used, when it is 15 to 30 fps, 1/2 pixel accuracy is used, and when it is 15 fps or less, 1 pixel accuracy is set. The motion vector
図8に示すように、階層のフレームレートが低下するほど、動きベクトルの精度を粗くすることが好ましい。これは、以下の理由による。すなわち、一般に、フレームレートが低くなると、すなわちフレーム間の時間的距離が長くなると、フレーム間の相関は低下するので、動きベクトルの精度を上げて探索を行っても、差分画像の差分値が小さくなるとはいえない。逆にいえば、精度良く探索することによって差分画像の差分値をより減らすことができれば、動きベクトルの符号化に要するビット数が増大しても、結果的に符号量を減らせることになる。したがって、階層のフレームレートが低くなるほど、動きベクトルの精度を落として動きベクトルの符号量を削減した方が、動画像の符号化効率が向上する。なお、動画像の符号量の削減につながる場合は、階層のフレームレートが高くなるほど動きベクトルの精度を粗くしてもよい。 As shown in FIG. 8, it is preferable that the accuracy of the motion vector becomes coarser as the frame rate of the hierarchy decreases. This is due to the following reason. That is, in general, when the frame rate is lowered, that is, when the temporal distance between frames is increased, the correlation between the frames is reduced. It cannot be said. In other words, if the difference value of the difference image can be further reduced by searching with high accuracy, the code amount can be reduced as a result even if the number of bits required to encode the motion vector increases. Therefore, as the frame rate of the hierarchy is lowered, moving picture coding efficiency is improved by reducing the accuracy of the motion vector and reducing the code amount of the motion vector. In addition, when it leads to reduction of the code amount of a moving image, you may coarsen the precision of a motion vector, so that the frame rate of a hierarchy becomes high.
図9は、実施の形態に係る復号装置300の構成図である。復号装置300のストリーム解析部310には、符号化ストリームが入力される。ストリーム解析部310は、必要な階層に対応するデータ部分を抜き出し、さらにフレームの復号データと動きベクトルの復号データとを分離する。フレームデータは画像復号部320に与えられ、動きベクトルデータは動きベクトル復号部330に与えられる。また、符号化ストリームに動きベクトルの精度データが含まれている場合には、精度データを分離して動きベクトル復号部330に与える。
FIG. 9 is a configuration diagram of the
画像復号部320は、エントロピー復号化、逆ウェーブレット変換を施して、最下位階層の低域フレームL0と、すべての高域フレームH0〜H2を生成する。画像復号部320で復号されたフレームは、画像保持部350の専用の領域に格納される。
The
動きベクトル復号部330は、動きベクトルの精度データを利用して動きベクトル情報を復号した後、最下位階層における動きベクトルMV0と、より上位の階層の動きベクトルMV1、MV2を計算する。動きベクトル復号部330で復号された動きベクトルは、動きベクトル保持部360の専用の領域に格納される。
The motion
画像合成部370は、上述のMCTF処理とは逆の手順でフレームを合成する。合成されたフレームは外部に出力されるとともに、さらに上位の階層のフレームが必要な場合は、後の処理のために合成したフレームを画像保持部350に格納する。
The
画像合成部で合成処理をする毎に、フレームレートの高い動画像の再生が可能になり、最終的には入力画像と同じフレームレートの動画像が得られる。 Each time the image composition unit performs composition processing, it is possible to reproduce a moving image having a high frame rate, and finally, a moving image having the same frame rate as the input image can be obtained.
以上述べたように、本実施の形態の符号化装置100によれば、動きベクトルを符号化する際に、時間スケーラビリティの階層毎に適切な精度の動きベクトルを用いることによって、動きベクトル情報の符号量を削減できる。動画像の階層的符号化においては、動きベクトルの符号量自体が多くなるため、動きベクトルを効率的に符号化する必要があるが、本実施の形態によれば、動画像ストリーム全体の符号量を減らして圧縮効率を高めることができる。
As described above, according to the
本実施の形態では、MCTFの階層と動きベクトルの精度との間の相関に注目した。一般に、高周波成分が多く、かつ参照フレームとの相関が強いフレームにおいては、動きベクトルの精度を高めた高精度の動き補償を実施することによって予測誤差を小さくできるが、フレーム内を移動する物体の動きが速いために参照フレームとの相関が弱いフレームや、高周波成分の少ないフレームにおいては、動き補償の精度を高くしても予測誤差の低減には貢献することはなく、高精度の動きベクトルの情報が無駄になってしまう。これに対し、本実施の形態では、それぞれの階層に最適な動きベクトル精度を用いて符号化し、予測誤差の低減につながらない無駄な動きベクトルの符号量を抑えることにより、動画像の圧縮効率を向上させる。 In the present embodiment, attention is paid to the correlation between the MCTF hierarchy and the accuracy of the motion vector. In general, in a frame that has many high-frequency components and a strong correlation with the reference frame, the prediction error can be reduced by performing high-precision motion compensation with improved motion vector accuracy. For frames with weak correlation with the reference frame due to fast motion and frames with few high-frequency components, increasing the accuracy of motion compensation does not contribute to reducing the prediction error. Information is wasted. On the other hand, in the present embodiment, encoding is performed using the optimal motion vector accuracy for each layer, and the compression amount of moving images is improved by suppressing the amount of code of useless motion vectors that does not reduce the prediction error. Let
また、動きベクトルの精度を階層毎に同一のものとするので、例えばマクロブロック毎に動きベクトルを変えた場合には、動きベクトルの符号量は低下するものの符号化に要する演算量が増加するのに対し、本実施の形態では、演算量を増やすことなく動きベクトルの符号量を削減できる。 In addition, since the accuracy of the motion vector is the same for each layer, for example, when the motion vector is changed for each macroblock, the amount of computation required for encoding increases although the code amount of the motion vector decreases. On the other hand, in the present embodiment, the code amount of the motion vector can be reduced without increasing the calculation amount.
特に、MCTF技術にしたがった時間フィルタリングによる動画像の符号化においては、各階層で動きベクトルを符号化しなければならず、動きベクトル情報の符号量が増大するので、本実施形態は有効である。 In particular, in encoding a moving image by temporal filtering according to the MCTF technique, a motion vector must be encoded in each layer, and the amount of code of motion vector information increases, so this embodiment is effective.
以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 The present invention has been described based on the embodiments. The embodiments are exemplifications, and it will be understood by those skilled in the art that various modifications can be made to combinations of the respective constituent elements and processing processes, and such modifications are within the scope of the present invention. .
上記では、連続する2つのフレームからひとつの低域フレームを生成するハール(Haar)ウェーブレット変換によるMCTF処理を行う場合の動きベクトルを例として説明したが、本発明は、連続する5つのフレームからひとつの低域フレームを生成し、連続する3つのフレームからひとつの高域フレームを生成する5/3ウェーブレット変換によるMCTF処理を行う場合の動きベクトルについても適用することができる。 In the above description, a motion vector in the case of performing MCTF processing by Haar wavelet transform that generates one low-frequency frame from two consecutive frames has been described as an example. However, the present invention provides one from five consecutive frames. The present invention can also be applied to a motion vector in the case of performing MCTF processing by 5/3 wavelet transform in which a low-frequency frame is generated and one high-frequency frame is generated from three consecutive frames.
上記の説明では、符号化装置100および復号装置300は、H.264/AVCに準拠して動画像の符号化および復号を行ったが、本発明は、時間的スケーラビリティを持つ階層的な動画像の符号化および復号を行う他の方式にも適用することができる。
In the above description, the
また、上記の説明では、時間スケーラビリティを持つ動画像の符号化について説明したが、本発明にしたがった動きベクトルの符号化は、空間スケーラビリティを持つ階層的な動画像の符号化および復号を行う場合にも適用することができる。 In the above description, encoding of a moving image having temporal scalability has been described. However, encoding of a motion vector according to the present invention is performed when hierarchical moving image encoding and decoding having spatial scalability are performed. It can also be applied to.
10 画像取得部、 20 MCTF処理部、 21 動きベクトル検出部、 28 動きベクトル精度決定部、 60 画像保持部、 70 動きベクトル保持部、 80 画像符号化部、 90 動きベクトル符号化部、 92 多重化部、 100 符号化装置、 300 復号装置、 310 ストリーム解析部、 320 画像復号部、 330 動きベクトル復号部、 350 画像保持部、 360 動きベクトル保持部、 370 画像合成部。 10 image acquisition unit, 20 MCTF processing unit, 21 motion vector detection unit, 28 motion vector accuracy determination unit, 60 image holding unit, 70 motion vector holding unit, 80 image encoding unit, 90 motion vector encoding unit, 92 multiplexing Unit, 100 encoding device, 300 decoding device, 310 stream analysis unit, 320 image decoding unit, 330 motion vector decoding unit, 350 image holding unit, 360 motion vector holding unit, 370 image synthesizing unit.
Claims (7)
階層毎に、その階層内での動き補償予測に用いられる動きベクトルの精度が変更可能であることを特徴とする符号化方法。 In an encoding method for generating encoded data having a plurality of layers having scalability from a moving image,
An encoding method characterized in that the accuracy of a motion vector used for motion compensation prediction in each layer can be changed for each layer.
階層毎に、その階層内での動き補償予測に用いられる動きベクトルの精度が変更可能であることを特徴とする符号化方法。 In an encoding method for recursively performing motion compensation time filtering on a moving image to obtain a plurality of layers having different frame rates,
An encoding method characterized in that the accuracy of a motion vector used for motion compensation prediction in each layer can be changed for each layer.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005280882A JP2007096541A (en) | 2005-09-27 | 2005-09-27 | Coding method |
US11/494,619 US20070025442A1 (en) | 2005-07-28 | 2006-07-28 | Coding method for coding moving images |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005280882A JP2007096541A (en) | 2005-09-27 | 2005-09-27 | Coding method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007096541A true JP2007096541A (en) | 2007-04-12 |
Family
ID=37981739
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005280882A Withdrawn JP2007096541A (en) | 2005-07-28 | 2005-09-27 | Coding method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007096541A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009207071A (en) * | 2008-02-29 | 2009-09-10 | Nippon Telegr & Teleph Corp <Ntt> | Method, apparatus and program for estimating motion estimation accuracy and computer-readable recording medium with the program recorded thereon |
JP2009260779A (en) * | 2008-04-18 | 2009-11-05 | Nippon Telegr & Teleph Corp <Ntt> | Method, apparatus and program for estimating accuracy of movement prediction, and computer-readable recording medium with the program recorded thereon |
GB2488817A (en) * | 2011-03-09 | 2012-09-12 | Canon Kk | Reducing the memory requirement for storing a motion vector for video encoding and decoding |
WO2014030665A1 (en) | 2012-08-24 | 2014-02-27 | アイキューブド研究所株式会社 | Receiving device, transmission device, and image transmission method |
JP2015522986A (en) * | 2012-05-14 | 2015-08-06 | ロッサト、ルカ | Decode and reconstruct time series and / or multidimensional signals in a layered temporal hierarchy |
CN109451320A (en) * | 2013-06-05 | 2019-03-08 | 太阳专利托管公司 | Image encoding method, picture decoding method, picture coding device and picture decoding apparatus |
-
2005
- 2005-09-27 JP JP2005280882A patent/JP2007096541A/en not_active Withdrawn
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009207071A (en) * | 2008-02-29 | 2009-09-10 | Nippon Telegr & Teleph Corp <Ntt> | Method, apparatus and program for estimating motion estimation accuracy and computer-readable recording medium with the program recorded thereon |
JP2009260779A (en) * | 2008-04-18 | 2009-11-05 | Nippon Telegr & Teleph Corp <Ntt> | Method, apparatus and program for estimating accuracy of movement prediction, and computer-readable recording medium with the program recorded thereon |
GB2488817A (en) * | 2011-03-09 | 2012-09-12 | Canon Kk | Reducing the memory requirement for storing a motion vector for video encoding and decoding |
GB2488817B (en) * | 2011-03-09 | 2014-11-26 | Canon Kk | Video encoding and decoding |
JP2015522986A (en) * | 2012-05-14 | 2015-08-06 | ロッサト、ルカ | Decode and reconstruct time series and / or multidimensional signals in a layered temporal hierarchy |
WO2014030665A1 (en) | 2012-08-24 | 2014-02-27 | アイキューブド研究所株式会社 | Receiving device, transmission device, and image transmission method |
KR20150045951A (en) | 2012-08-24 | 2015-04-29 | 아이큐브드 연구소 주식회사 | Receiving device, transmission device, and image transmission method |
US10034004B2 (en) | 2012-08-24 | 2018-07-24 | I-Cubed Research Center Inc. | Receiving apparatus, transmitting apparatus, and image transmitting method |
CN109451320A (en) * | 2013-06-05 | 2019-03-08 | 太阳专利托管公司 | Image encoding method, picture decoding method, picture coding device and picture decoding apparatus |
CN109451321A (en) * | 2013-06-05 | 2019-03-08 | 太阳专利托管公司 | Image encoding method, picture decoding method, picture coding device and picture decoding apparatus |
CN109451320B (en) * | 2013-06-05 | 2023-06-02 | 太阳专利托管公司 | Image encoding method, image decoding method, image encoding device, and image decoding device |
CN109451321B (en) * | 2013-06-05 | 2023-06-02 | 太阳专利托管公司 | Image encoding method, image decoding method, image encoding device, and image decoding device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007081720A (en) | Coding method | |
US9338453B2 (en) | Method and device for encoding/decoding video signals using base layer | |
US20060062299A1 (en) | Method and device for encoding/decoding video signals using temporal and spatial correlations between macroblocks | |
JP2006279573A (en) | Encoder and encoding method, and decoder and decoding method | |
US20060062298A1 (en) | Method for encoding and decoding video signals | |
JP2007067796A (en) | Coding method | |
JP2007266749A (en) | Encoding method | |
JP2007235314A (en) | Coding method | |
KR100880640B1 (en) | Method for scalably encoding and decoding video signal | |
JP2007096541A (en) | Coding method | |
US20060120454A1 (en) | Method and apparatus for encoding/decoding video signal using motion vectors of pictures in base layer | |
US20060133677A1 (en) | Method and apparatus for performing residual prediction of image block when encoding/decoding video signal | |
KR100883604B1 (en) | Method for scalably encoding and decoding video signal | |
KR100878824B1 (en) | Method for scalably encoding and decoding video signal | |
JP2005318297A (en) | Method and device for encoding/decoding dynamic image | |
JP2007036888A (en) | Coding method | |
US20080008241A1 (en) | Method and apparatus for encoding/decoding a first frame sequence layer based on a second frame sequence layer | |
US20060078053A1 (en) | Method for encoding and decoding video signals | |
JP2006135376A (en) | Moving picture coder, moving picture coding method, moving picture decoder, and moving picture decoding method | |
JP2007036889A (en) | Coding method | |
JP2007266748A (en) | Encoding method | |
US20060159176A1 (en) | Method and apparatus for deriving motion vectors of macroblocks from motion vectors of pictures of base layer when encoding/decoding video signal | |
US20070242747A1 (en) | Method and apparatus for encoding/decoding a first frame sequence layer based on a second frame sequence layer | |
US20070223573A1 (en) | Method and apparatus for encoding/decoding a first frame sequence layer based on a second frame sequence layer | |
KR100878825B1 (en) | Method for scalably encoding and decoding video signal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070911 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090709 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20090709 |