JP2014068361A - Moving image encoder, moving image decoder, moving image encoding method, moving image decoding method, moving image encoding program, and moving image decoding program - Google Patents
Moving image encoder, moving image decoder, moving image encoding method, moving image decoding method, moving image encoding program, and moving image decoding program Download PDFInfo
- Publication number
- JP2014068361A JP2014068361A JP2013237167A JP2013237167A JP2014068361A JP 2014068361 A JP2014068361 A JP 2014068361A JP 2013237167 A JP2013237167 A JP 2013237167A JP 2013237167 A JP2013237167 A JP 2013237167A JP 2014068361 A JP2014068361 A JP 2014068361A
- Authority
- JP
- Japan
- Prior art keywords
- motion vector
- frame image
- target
- adjacent
- reference frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
本発明は、動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラムに関するものである。 The present invention relates to a moving image encoding device, a moving image decoding device, a moving image encoding method, a moving image decoding method, a moving image encoding program, and a moving image decoding program.
従来の動画像符号化方式の事例として、H.264/AVC符号化方式に基づく動画像符号化装置及び動画像復号化装置が挙げられる(非特許文献1参照)。この方式は、動き補償フレーム間予測により時間方向に存在する冗長度を削減し、直交変換によりさらに空間方向に残る冗長度を削減することで動画像(入力映像信号)の情報圧縮を行うというものである。 As an example of a conventional moving image encoding method, H.264 has been described. Examples thereof include a moving image encoding device and a moving image decoding device based on the H.264 / AVC encoding method (see Non-Patent Document 1). This method reduces the redundancy existing in the temporal direction by motion compensation inter-frame prediction, and further reduces the redundancy remaining in the spatial direction by orthogonal transformation, thereby compressing information of the moving image (input video signal). It is.
上記方式における動き補償フレーム間予測(以下、「INTER予測モード」と言う。)では、動きベクトルを検出する参照フレーム画像を複数用意することができるため、符号化対象領域の周囲の符号化済み領域の動きベクトルは、それぞれ異なる参照フレーム画像を用いて動き補償されている場合がある。 In motion compensation inter-frame prediction (hereinafter referred to as “INTER prediction mode”) in the above method, a plurality of reference frame images for detecting a motion vector can be prepared. The motion vectors may be motion compensated using different reference frame images.
また、符号化対象領域の予測動きベクトルを算出する際、周囲の符号化済み領域の動きベクトルがどの参照フレーム画像から動き補償されていたかによらず、それらの動きベクトルの値を比較して、それらの中間値を符号化対象の領域の動きベクトル予測値としている。 In addition, when calculating the prediction motion vector of the encoding target region, regardless of which reference frame image the motion vector of the surrounding encoded region has been motion compensated, the values of those motion vectors are compared, These intermediate values are used as motion vector prediction values for the region to be encoded.
しかしながら、このように周囲の符号化済み領域が符号化対象領域の参照フレーム画像と異なる参照フレーム画像を用いて動き補償されていた場合、それらの中間値を予測動きベクトルとして用いると参照フレームの違いから実際の動きベクトルから大きく外れ、符号化の情報圧縮の効率が低下するという問題がある。また、それに伴って、復号化の情報圧縮の効率も同時に低下するという問題もある。 However, when the surrounding encoded region is motion-compensated using a reference frame image different from the reference frame image of the encoding target region as described above, the difference between the reference frames is obtained by using the intermediate value as a predicted motion vector. Therefore, there is a problem that the efficiency of encoding information compression is reduced due to a large deviation from the actual motion vector. Along with this, there is a problem that the efficiency of information compression for decoding also decreases at the same time.
本発明は、上記課題を解決するために成されたものであり、符号化及び復号化の情報圧縮の効率の向上を図ることが可能な動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラムを提供することを目的とする。 The present invention has been made to solve the above-described problem, and is a moving image encoding device, a moving image decoding device, and a moving image capable of improving the efficiency of encoding and decoding information compression. It is an object to provide an encoding method, a moving image decoding method, a moving image encoding program, and a moving image decoding program.
本発明の動画像符号化装置は、フレーム画像信号の時間系列で構成される動画像信号における符号化対象のフレーム画像を複数の対象領域に分割し、対象領域毎に、符号化対象のフレーム画像と異なる複数のフレーム画像を参照して動きベクトルを検出することにより、動き補償による符号化を行う動画像符号化装置において、対象領域に隣接する隣接領域の動きベクトルを検出するために参照された隣接参照フレーム画像と、対象領域の動きベクトルを検出するために参照された対象参照フレーム画像と、符号化対象のフレーム画像である対象フレーム画像との時間的な関係又はそれらの時刻情報に基づいて、対象参照フレーム画像を基準にして対象領域に隣接する隣接領域の動きベクトルをスケーリングする補正と、対象領域に隣接する隣接領域の動きベクトルに基づく最適予測動きベクトルの決定とを行うことにより補正後の最適予測動きベクトルを予測する動きベクトル予測手段を有することを特徴とする。 The moving image encoding apparatus according to the present invention divides a frame image to be encoded in a moving image signal composed of a time sequence of frame image signals into a plurality of target regions, and the frame image to be encoded for each target region. In a moving picture coding apparatus that performs motion compensation coding by referring to a plurality of different frame images, the motion vector is referenced to detect a motion vector of an adjacent area adjacent to the target area. Based on the temporal relationship between the adjacent reference frame image, the target reference frame image referred to for detecting the motion vector of the target region, and the target frame image that is the frame image to be encoded, or their time information , Correction for scaling the motion vector of the adjacent area adjacent to the target area based on the target reference frame image, and adjacent to the target area Characterized by having a motion vector prediction means for predicting the optimal predicted motion vector after correction by performing the determination of the optimum predicted motion vector based on the motion vector of the bearing region.
また、本発明の動画像符号化方法は、フレーム画像信号の時間系列で構成される動画像信号における符号化対象のフレーム画像を複数の対象領域に分割し、対象領域毎に、符号化対象のフレーム画像と異なる複数のフレーム画像を参照して動きベクトルを検出することにより、動き補償による符号化を行う動画像符号化方法において、動きベクトル予測手段が、対象領域に隣接する隣接領域の動きベクトルを検出するために参照された隣接参照フレーム画像と、対象領域の動きベクトルを検出するために参照された対象参照フレーム画像と、符号化対象のフレーム画像である対象フレーム画像との時間的な関係又はそれらの時刻情報に基づいて、対象参照フレーム画像を基準にして対象領域に隣接する隣接領域の動きベクトルをスケーリングする補正と、対象領域に隣接する隣接領域の動きベクトルに基づく最適予測動きベクトルの決定とを行うことにより補正後の最適予測動きベクトルを予測する動きベクトル予測ステップを有することを特徴とする。 The moving image encoding method of the present invention divides a frame image to be encoded in a moving image signal composed of a time sequence of frame image signals into a plurality of target regions, and for each target region, In a moving image coding method for performing motion compensation coding by detecting a motion vector with reference to a plurality of frame images different from a frame image, the motion vector predicting means includes a motion vector of an adjacent region adjacent to the target region. Temporal relationship between adjacent reference frame images that are referenced to detect motion, target reference frame images that are referenced to detect motion vectors of the target region, and target frame images that are encoding target frame images Or, based on the time information, the motion vector of the adjacent area adjacent to the target area is scaled based on the target reference frame image A correction that is characterized by having a motion vector prediction step of predicting the optimal predicted motion vector after correction by performing the determination of the optimum predicted motion vector based on the motion vector of the adjacent region adjacent to the target area.
また、本発明の動画像符号化プログラムは、フレーム画像信号の時間系列で構成される動画像信号における符号化対象のフレーム画像を複数の対象領域に分割し、対象領域毎に、符号化対象のフレーム画像と異なる複数のフレーム画像を参照して動きベクトルを検出することにより、動き補償による符号化処理をコンピュータに実行させる動画像符号化プログラムにおいて、コンピュータを、対象領域に隣接する隣接領域の動きベクトルを検出するために参照された隣接参照フレーム画像と、対象領域の動きベクトルを検出するために参照された対象参照フレーム画像と、符号化対象のフレーム画像である対象フレーム画像との時間的な関係又はそれらの時刻情報に基づいて、対象参照フレーム画像を基準にして対象領域に隣接する隣接領域の動きベクトルをスケーリングする補正と、対象領域に隣接する隣接領域の動きベクトルに基づく最適予測動きベクトルの決定とを行うことにより補正後の最適予測動きベクトルを予測する動きベクトル予測手段として機能させることを特徴とする。 Further, the moving image encoding program of the present invention divides a frame image to be encoded in a moving image signal composed of a time sequence of frame image signals into a plurality of target regions, and for each target region, In a moving image encoding program that causes a computer to execute an encoding process based on motion compensation by detecting a motion vector with reference to a plurality of frame images different from the frame image, the computer moves the motion of the adjacent region adjacent to the target region. Temporal comparison between an adjacent reference frame image referred to for detecting a vector, a target reference frame image referred to for detecting a motion vector of the target region, and a target frame image that is a frame image to be encoded An adjacent area adjacent to the target area based on the target reference frame image based on the relationship or their time information It is possible to function as a motion vector predictor that predicts the corrected optimal prediction motion vector by performing correction for scaling the motion vector and determining an optimal prediction motion vector based on the motion vector of the adjacent region adjacent to the target region. Features.
本発明の動画像符号化装置、動画像符号化方法及び動画像符号化プログラムによれば、動きベクトル予測手段が、隣接領域の動きベクトルを対象領域の動きベクトルを検出するために参照されたフレーム画像と符号化対象のフレーム画像との時間差を基準としてスケーリングして補正するとともに、隣接領域の動きベクトルに基づいて最適予測動きベクトルを予測するので、時間的な動きの連続性を考慮して予測動きベクトルを決定することにより、実際の対象領域の動きベクトルと予測動きベクトルの差をより小さくすることができる。 According to the moving image encoding apparatus, the moving image encoding method, and the moving image encoding program of the present invention, the frame referred to by the motion vector predicting unit to detect the motion vector of the target region from the motion vector of the adjacent region. Scaling and correction is performed based on the time difference between the image and the frame image to be encoded, and the optimal prediction motion vector is predicted based on the motion vector of the adjacent region, so prediction is performed in consideration of temporal motion continuity. By determining the motion vector, the difference between the actual motion vector of the target region and the predicted motion vector can be further reduced.
本発明の動画像符号化装置では、動きベクトル予測手段は、隣接参照フレーム画像と前記対象参照フレーム画像と前記対象フレーム画像との時間的な関係又はそれらの時刻情報に基づいて、対象参照フレーム画像を基準にして隣接領域の動きベクトルそれぞれをスケーリングして補正し、当該補正された隣接領域の動きベクトルに基づいて最適予測動きベクトルを決定することも好ましい。このように、動きベクトル予測手段が、複数の隣接領域の動きベクトルそれぞれを対象領域の動きベクトルを検出するために参照されたフレーム画像と符号化対象のフレーム画像との時間差を基準としてスケーリングして補正した後に、その補正された隣接領域の動きベクトルに基づいて最適予測動きベクトルを決定するので、実際の対象領域の動きベクトルと予測動きベクトルの差をより小さくすることができる。 In the video encoding device of the present invention, the motion vector predicting means includes the target reference frame image based on the temporal relationship between the adjacent reference frame image, the target reference frame image, and the target frame image, or their time information. It is also preferable to scale and correct each of the motion vectors in the adjacent area based on the above, and determine the optimum predicted motion vector based on the corrected motion vector in the adjacent area. In this way, the motion vector predicting means scales each of the motion vectors of a plurality of adjacent regions on the basis of the time difference between the frame image referred to in order to detect the motion vector of the target region and the frame image to be encoded. After the correction, the optimum predicted motion vector is determined based on the corrected motion vector of the adjacent region, so that the difference between the actual motion vector of the target region and the predicted motion vector can be further reduced.
また、本発明の動画像符号化装置では、動きベクトル予測手段は、隣接領域の動きベクトルに基づいて最適予測動きベクトルを決定し、最適予測動きベクトルとして決定された隣接領域の動きベクトルの隣接参照フレーム画像と前記対象参照フレーム画像と前記対象フレーム画像との時間的な関係又はそれらの時刻情報に基づいて、対象参照フレーム画像を基準にして最適予測動きベクトルをスケーリングして補正することが好ましい。この場合、動きベクトル予測手段が、隣接領域の動きベクトルに基づいて最適予測動きベクトルを決定した後、決定された最適予測動きベクトルを、対象領域の動きベクトルを検出するために参照されたフレーム画像と符号化対象のフレーム画像との時間差を基準としてスケーリングして補正するので、実際の対象領域の動きベクトルと予測動きベクトルの差をより小さくすることができるとともに、動きベクトルを予測するための処理時間を短縮することが可能となる。 In the video encoding device of the present invention, the motion vector prediction means determines the optimal prediction motion vector based on the motion vector of the adjacent region, and the adjacent reference of the motion vector of the adjacent region determined as the optimal prediction motion vector Preferably, based on the temporal relationship between the frame image, the target reference frame image, and the target frame image or their time information, the optimal predicted motion vector is scaled and corrected based on the target reference frame image. In this case, after the motion vector prediction means determines the optimal prediction motion vector based on the motion vector of the adjacent region, the determined optimal prediction motion vector is used as a frame image that is referred to in order to detect the motion vector of the target region. Since the time difference between the image and the frame image to be encoded is scaled and corrected, the difference between the motion vector of the actual target area and the predicted motion vector can be further reduced, and the process for predicting the motion vector Time can be shortened.
本発明の動画像復号化装置は、フレーム画像信号の時間系列で構成される動画像信号における復号化対象のフレーム画像を複数の対象領域に分割し、対象領域毎に復号化対象のフレーム画像と異なる複数のフレーム画像を参照して検出された動きベクトルと予測動きベクトルとの差分情報を利用することにより、動き補償による復号化を行う動画像復号化装置において、対象領域に隣接する隣接領域の動きベクトルを検出するために参照された隣接参照フレーム画像と、対象領域の動きベクトルを検出するために参照された対象参照フレーム画像と、符号化対象のフレーム画像である対象フレーム画像との時間的な関係又はそれらの時刻情報に基づいて、対象参照フレーム画像を基準にして対象領域に隣接する隣接領域の動きベクトルをスケーリングする補正と、対象領域に隣接する隣接領域の動きベクトルに基づく最適予測動きベクトルの決定とを行うことにより補正後の最適予測動きベクトルを予測する動きベクトル予測手段を有することを特徴とする。 The moving picture decoding apparatus of the present invention divides a frame image to be decoded in a moving picture signal composed of a time sequence of frame image signals into a plurality of target areas, In a video decoding device that performs decoding by motion compensation by using difference information between a motion vector detected with reference to a plurality of different frame images and a predicted motion vector, an adjacent region adjacent to the target region Temporal of an adjacent reference frame image referred to detect a motion vector, a target reference frame image referred to detect a motion vector of the target region, and a target frame image that is a frame image to be encoded The motion vector of the adjacent area adjacent to the target area based on the target reference frame image based on the current relationship or their time information. And having a correction to the ring, the motion vector prediction means for predicting the optimal predicted motion vector after correction by performing the determination of the optimum predicted motion vector based on the motion vector of the adjacent region adjacent to the target area.
また、本発明の動画像復号化方法は、フレーム画像信号の時間系列で構成される動画像信号における復号化対象のフレーム画像を複数の対象領域に分割し、対象領域毎に復号化対象のフレーム画像と異なる複数のフレーム画像を参照して検出された動きベクトルと予測動きベクトルとの差分情報を利用することにより、動き補償による復号化を行う動画像復号化方法において、動きベクトル予測手段が、対象領域に隣接する隣接領域の動きベクトルを検出するために参照された隣接参照フレーム画像と、対象領域の動きベクトルを検出するために参照された対象参照フレーム画像と、符号化対象のフレーム画像である対象フレーム画像との時間的な関係又はそれらの時刻情報に基づいて、対象参照フレーム画像を基準にして対象領域に隣接する隣接領域の動きベクトルをスケーリングする補正と、対象領域に隣接する隣接領域の動きベクトルに基づく最適予測動きベクトルの決定とを行うことにより補正後の最適予測動きベクトルを予測する動きベクトル予測ステップを有することを特徴とする。 Also, the moving picture decoding method of the present invention divides a decoding target frame image in a moving picture signal composed of a time sequence of frame image signals into a plurality of target areas, and the decoding target frames for each target area. In a moving picture decoding method for performing decoding by motion compensation by using difference information between a motion vector detected with reference to a plurality of frame images different from an image and a predicted motion vector, the motion vector prediction means includes: An adjacent reference frame image referred to detect a motion vector of an adjacent region adjacent to the target region, a target reference frame image referred to detect a motion vector of the target region, and a frame image to be encoded Based on the temporal relationship with a certain target frame image or their time information, the target reference frame image is used as a reference to be adjacent to the target region. A motion vector prediction step for predicting the corrected optimal prediction motion vector by performing correction for scaling the motion vector of the adjacent region and determining an optimal prediction motion vector based on the motion vector of the adjacent region adjacent to the target region; It is characterized by that.
また、本発明の動画像復号化プログラムは、フレーム画像信号の時間系列で構成される動画像信号における復号化対象のフレーム画像を複数の対象領域に分割し、対象領域毎に復号化対象のフレーム画像と異なる複数のフレーム画像を参照して検出された動きベクトルと予測動きベクトルとの差分情報を利用することにより、動き補償による復号化処理をコンピュータに実行させる動画像復号化プログラムにおいて、コンピュータを、対象領域に隣接する隣接領域の動きベクトルを検出するために参照された隣接参照フレーム画像と、対象領域の動きベクトルを検出するために参照された対象参照フレーム画像と、符号化対象のフレーム画像である対象フレーム画像との時間的な関係又はそれらの時刻情報に基づいて、対象参照フレーム画像を基準にして対象領域に隣接する隣接領域の動きベクトルをスケーリングする補正と、対象領域に隣接する隣接領域の動きベクトルに基づく最適予測動きベクトルの決定とを行うことにより補正後の最適予測動きベクトルを予測する動きベクトル予測手段として機能させることを特徴とする。 Further, the moving picture decoding program of the present invention divides a decoding target frame image in a moving picture signal composed of a time sequence of frame image signals into a plurality of target areas, and the decoding target frame for each target area. In a moving image decoding program for causing a computer to execute a decoding process by motion compensation by using difference information between a motion vector detected with reference to a plurality of frame images different from the image and a predicted motion vector, the computer An adjacent reference frame image referred to for detecting a motion vector of an adjacent area adjacent to the target area, a target reference frame image referred to for detecting a motion vector of the target area, and a frame image to be encoded The target reference frame image based on the temporal relationship with the target frame image or the time information thereof The optimal predicted motion vector after correction is determined by performing a correction to scale the motion vector of the adjacent region adjacent to the target region with reference and determining an optimal predicted motion vector based on the motion vector of the adjacent region adjacent to the target region. It is made to function as a motion vector prediction means to predict.
本発明の動画像復号化装置、動画像復号化方法及び動画像復号化プログラムによれば、動きベクトル予測手段が、隣接領域の動きベクトルを対象領域の動きベクトルを検出するために参照されたフレーム画像と符号化対象のフレーム画像との時間差を基準としてスケーリングして補正するとともに、隣接領域の動きベクトルに基づいて最適予測動きベクトルを予測するので、時間的な動きの連続性を考慮して予測動きベクトルを決定することにより、実際の対象領域の動きベクトルと予測動きベクトルの差をより小さくすることができる。 According to the moving picture decoding apparatus, the moving picture decoding method, and the moving picture decoding program of the present invention, the frame referred to by the motion vector predicting unit to detect the motion vector of the target area from the motion vector of the adjacent area. Scaling and correction is performed based on the time difference between the image and the frame image to be encoded, and the optimal prediction motion vector is predicted based on the motion vector of the adjacent region, so prediction is performed in consideration of temporal motion continuity. By determining the motion vector, the difference between the actual motion vector of the target region and the predicted motion vector can be further reduced.
本発明の動画像復号化装置では、動きベクトル予測手段は、隣接参照フレーム画像と前記対象参照フレーム画像と前記対象フレーム画像との時間的な関係又はそれらの時刻情報に基づいて、対象参照フレーム画像を基準にして隣接領域の動きベクトルそれぞれをスケーリングして補正し、当該補正された隣接領域の動きベクトルに基づいて最適予測動きベクトルを決定することも好ましい。このように、動きベクトル予測手段が、複数の隣接領域の動きベクトルそれぞれを対象領域の動きベクトルを検出するために参照されたフレーム画像と符号化対象のフレーム画像との時間差を基準としてスケーリングして補正した後に、その補正された隣接領域の動きベクトルに基づいて最適予測動きベクトルを決定するので、実際の対象領域の動きベクトルと予測動きベクトルの差をより小さくすることができる。 In the moving picture decoding apparatus according to the present invention, the motion vector predicting means includes the target reference frame image based on the temporal relationship between the adjacent reference frame image, the target reference frame image, and the target frame image or their time information. It is also preferable to scale and correct each of the motion vectors in the adjacent area based on the above, and determine the optimum predicted motion vector based on the corrected motion vector in the adjacent area. In this way, the motion vector predicting means scales each of the motion vectors of a plurality of adjacent regions on the basis of the time difference between the frame image referred to in order to detect the motion vector of the target region and the frame image to be encoded. After the correction, the optimum predicted motion vector is determined based on the corrected motion vector of the adjacent region, so that the difference between the actual motion vector of the target region and the predicted motion vector can be further reduced.
また、本発明の動画像復号化装置では、動きベクトル予測手段は、隣接領域の動きベクトルに基づいて最適予測動きベクトルを決定し、最適予測動きベクトルとして決定された隣接領域の動きベクトルの隣接参照フレーム画像と前記対象参照フレーム画像と前記対象フレーム画像との時間的な関係又はそれらの時刻情報に基づいて、対象参照フレーム画像を基準にして最適予測動きベクトルをスケーリングして補正することも好ましい。この場合、動きベクトル予測手段が、隣接領域の動きベクトルに基づいて最適予測動きベクトルを決定した後、決定された最適予測動きベクトルを、対象領域の動きベクトルを検出するために参照されたフレーム画像と符号化対象のフレーム画像との時間差を基準としてスケーリングして補正するので、実際の対象領域の動きベクトルと予測動きベクトルの差をより小さくすることができるとともに、動きベクトルを予測するための処理時間を短縮することが可能となる。 In the moving picture decoding apparatus of the present invention, the motion vector prediction means determines an optimal prediction motion vector based on the motion vector of the adjacent region, and adjoins the motion vector of the adjacent region determined as the optimal prediction motion vector. It is also preferable that the optimal predicted motion vector is scaled and corrected based on the target reference frame image based on the temporal relationship between the frame image, the target reference frame image, and the target frame image or their time information. In this case, after the motion vector prediction means determines the optimal prediction motion vector based on the motion vector of the adjacent region, the determined optimal prediction motion vector is used as a frame image that is referred to in order to detect the motion vector of the target region. Since the time difference between the image and the frame image to be encoded is scaled and corrected, the difference between the motion vector of the actual target area and the predicted motion vector can be further reduced, and the process for predicting the motion vector Time can be shortened.
本発明の動画像符号化装置及び動画像復号化装置によれば、動きベクトル予測手段が、隣接領域の動きベクトルを対象領域の動きベクトルを検出するために参照されたフレーム画像と符号化対象のフレーム画像との時間差を基準としてスケーリングして補正するとともに、隣接領域の動きベクトルに基づいて最適予測動きベクトルを予測するので、時間的な動きの連続性を考慮して予測動きベクトルを決定することにより、実際の対象領域の動きベクトルと予測動きベクトルの差をより小さくすることができる。これにより、符号化及び復号化の情報圧縮の効率の向上を図ることが可能な動画像符号化装置、動画像復号化装置を提供することができる。 According to the moving image encoding device and the moving image decoding device of the present invention, the motion vector predicting means includes the frame image referred to for detecting the motion vector of the target region as the motion vector of the adjacent region and the encoding target. Scaling and correcting based on the time difference from the frame image and predicting the optimal predicted motion vector based on the motion vector of the adjacent region, so determine the predicted motion vector in consideration of temporal motion continuity Thus, the difference between the motion vector of the actual target region and the predicted motion vector can be further reduced. Accordingly, it is possible to provide a moving image encoding device and a moving image decoding device that can improve the efficiency of encoding and decoding information compression.
本発明の実施形態にかかる動画像符号化装置及び動画像復号化装置について図面を参照して説明する。なお、各図において、同一要素には同一符号を付して重複する説明を省略する。
[第1実施形態]
A video encoding device and a video decoding device according to an embodiment of the present invention will be described with reference to the drawings. In addition, in each figure, the same code | symbol is attached | subjected to the same element and the overlapping description is abbreviate | omitted.
[First Embodiment]
図1は、本実施形態にかかる動画像符号化装置の一例を示す概略図、図3は、本実施形態にかかる動画像復号化装置の一例を示す概略図である。
(動画像符号化装置の構成)
FIG. 1 is a schematic diagram illustrating an example of a video encoding device according to the present embodiment, and FIG. 3 is a schematic diagram illustrating an example of a video decoding device according to the present embodiment.
(Configuration of video encoding device)
まず、図1を用いて、本発明にかかる動画像符号化装置10について説明する。以下に説明する動画像符号化装置10は、H.264/AVC符号化方式に準拠した符号化装置である。
First, a moving
ここで、動画像符号化装置10に入力される動画像信号としての入力映像信号(動画像信号)は、フレーム画像の時間系列で構成されている。また、フレーム画像信号は、この入力映像信号のフレーム画像単位の信号を表すものとする。以下、符号化対象のフレーム画像信号を「現フレーム」と呼ぶ。現フレームは、16画素×16ライン固定の正方矩形領域であるマクロブロックに分割され、マクロブロック単位で、以下の符号化処理及び復号化処理が行われる。
Here, an input video signal (moving image signal) as a moving image signal input to the moving
H.264/AVC符号化方式では、マクロブロックごとに、予測モードとして、フレーム画像信号と時間的に異なる複数の符号化済みフレーム画像信号(参照フレーム画像信号)を参照して動きベクトルを検出することにより、動き補償フレーム間予測を行う複数の「INTER予測モード」と、同一空間上の符号化済みである近傍のマクロブロックの画素値を用いた空間予測を行う複数の「INTRA予測モード」とが用意されている。なお、「INTER予測モード」においては、マクロブロックをさらに任意の領域(例えば、8画素×16ライン)に分割したブロック(対象領域)毎に動き検出、動き予測、及び動き補償の各処理(詳細は後述する。)が行われる。動画像符号化装置10は、入力映像信号の局所的な性質に応じてマクロブロック単位で予測モードを切り替え、効率的な情報圧縮を行うことができるように構成されている。
H. In the H.264 / AVC encoding method, a motion vector is detected for each macroblock with reference to a plurality of encoded frame image signals (reference frame image signals) that are temporally different from the frame image signal as a prediction mode. A plurality of “INTER prediction modes” for performing motion compensation inter-frame prediction and a plurality of “INTRA prediction modes” for performing spatial prediction using pixel values of neighboring macroblocks that have been encoded in the same space are prepared. Has been. In the “INTER prediction mode”, motion detection, motion prediction, and motion compensation processes (details) are performed for each block (target region) obtained by further dividing the macroblock into arbitrary regions (for example, 8 pixels × 16 lines). Will be described later). The moving
動画像符号化装置10は、機能的な構成要素として、図1に示すように、入力部101と、動き検出部102と、動き補償部103と、フレームメモリ104と、空間予測部105と、スイッチ106と、減算器107と、直交変換部108と、量子化部109と、可変長符号化部110と、逆量子化部111と、逆直交変換部112と、加算器113とを備えて構成される。以下、各構成要素について説明する。
As shown in FIG. 1, the moving
入力部101は、外部から入力される動画像信号としての入力映像信号121を受信した後フレーム画像信号に分解し、減算器107及び動き検出部102に対して、フレーム画像信号122、123として送る部分である。
The
また、フレームメモリ104は、過去に符号化済みのフレーム画像信号を記憶しておく部分である。 The frame memory 104 is a part for storing previously encoded frame image signals.
動き検出部102は、予測モードの選択と動きベクトルの検出を行う部分である。より具体的には、動き検出部102は、「INTER予測モード」を選択した場合、参照フレーム画像信号124を用いて、あらかじめフレームメモリに蓄積されている複数の符号化済みフレーム画像の中から所定の探索範囲内で、現フレーム内の画像信号パターンに類似する画像信号パターンを探し出す。そして、両画像信号パターン間の空間的な変位量である動きベクトルを検出する。検出された動きベクトルと符号化済みの隣接ブロックの動きベクトルから算出する最適予測動きベクトル(動きベクトル予測値)との差分情報である動きベクトル差分値と、動きベクトルの検出に用いた参照フレーム画像信号を示す参照フレーム番号と、選択された予測モードとを含む信号125を可変長符号化部110へ送る。同時に、動き検出部102は、選択された予測モードと、動きベクトルと、参照フレーム番号とを含む信号126を動き補償部103に送る。
The
また、動き補償部103は、動き検出部102から送られた動きベクトルを用いて、フレームメモリ104中の参照フレーム番号で示されるフレームの符号化済み画像信号(参照フレーム画像信号)を参照して、各ブロックの予測画像信号127を生成し、スイッチ106に送る。
Also, the
一方、動き検出部102は、「INTRA予測モード」を選択した場合、選択された予測モード128を空間予測部105に送る。この場合、動き検出部102は同一空間上の符号化済みである近傍のブロックの画素値を用いた空間予測を行うため、時間的な動きに関する情報である動きベクトル差分値および参照フレーム番号を可変長符号化部110へ送ることは行わない。
On the other hand, when the “INTRA prediction mode” is selected, the
これに対して、空間予測部105は、符号化済みである近傍のブロックの画像信号(参照フレーム画像信号129)を参照して、予測画像信号130を生成し、スイッチ106に送る。
On the other hand, the
スイッチ106は、動き検出部102から受信した予測モード131に応じて、予測画像信号127と予測画像信号130のいずれかを選択し、選択した予測画像信号132を減算器107に送る。
The
これに対して、減算器107は、フレーム画像信号122と予測画像信号132との差分値(予測残差信号133)を生成し、直交変換部108に送る。
On the other hand, the
直交変換部108は、減算器107から送られた予測残差信号133を直交変換することにより、直交変換係数134を生成して、量子化部109に送る。
The
これに対して、量子化部109が、直交変換部108から送信された直交変換係数134を量子化することにより、量子化直交変換係数135を生成し、可変長符号化部110及び逆量子化部111に送る。
On the other hand, the
次に、可変長符号化部110が、量子化部109から送信された量子化直交変換係数135と、動き検出部102から送信された予測モードと、動きベクトル差分値と、参照フレーム番号とに基づいてエントロピー符号化を行って圧縮ストリーム136に多重化して、外部へ伝送する。
Next, the variable
また、逆量子化部111は、量子化部109から送信された量子化直交変換係数135について逆量子化を行うことにより、直交変換係数137を生成して、逆直交変換部112に送る。
In addition, the inverse quantization unit 111 generates an
そして、逆直交変換部112は、逆量子化部111から送信された直交変換係数137について逆直交変換を行うことにより、予測残差信号138を生成し、加算器113に送る。
Then, the inverse
加算器113は、逆直交変換部112から送信された予測残差信号138とスイッチ106から送信された予測画像信号132とを加算してフレーム画像信号139を生成し、フレームメモリ104に送る。このフレーム画像信号139が、フレームメモリ104に格納され、以降の符号化処理で、参照フレーム画像信号として用いられる。また、動きベクトルや参照フレーム番号に関する情報も参照フレーム画像信号に含んで同時に格納される。
The
次に、図2を参照して、動画像符号化装置10の動き検出部102について詳細に説明する。図2は、図1の動き検出部の構成図である。
Next, the
動き検出部102は、機能的な構成要素として、図2に示すように、予測モード決定部201と、参照フレーム決定部202と、動きベクトル検出部203と、動きベクトル予測部(動きベクトル予測手段)204と、動きベクトル差分部205とを備えて構成される。
As shown in FIG. 2, the
まず、予測モード決定部201は、入力されたフレーム画像信号123および参照フレーム画像信号124に基づき、符号化対象の所定ブロックの符号化モードとして「INTER予測モード」を用いるか「INTRA予測モード」を用いるかを判断し、予測モードを決定する。「INTRA予測モード」を選択した場合は、予測モード131を出力し、処理を終了する。「INTER予測モード」を選択した場合、予測モード決定部201は、予測モード131を出力すると同時に、フレーム画像信号と、参照フレーム画像信号と、予測モードとを含む信号210を参照フレーム決定部202に送る。
First, the prediction
参照フレーム決定部202は、入力されたフレーム画像信号と、参照フレーム画像信号と、および予測モードとに基づき、符号化対象の所定ブロックの動きベクトルの検出および予測を行う参照フレームを決定し、フレーム画像信号と参照フレーム画像信号と予測モードと参照フレーム番号とを含む信号211を動きベクトル検出部203に送る。同時に、参照フレーム決定部202は、参照フレーム画像信号と予測モードと参照フレーム番号とを含む信号212を動きベクトル予測部204に送る。
The reference
動きベクトル検出部203は、入力されたフレーム画像信号、参照フレーム画像信号、予測モードおよび参照フレーム番号に基づき、参照フレーム画像信号の中の参照フレーム番号が示す画像信号から、現フレーム内の画像信号パターンに類似する画像信号パターンを探し出す。そして、両画像信号パターン間の空間的な変位量である動きベクトルを検出し、その動きベクトルと予測モードと参照フレーム番号とを含む信号213を動きベクトル差分部205に送る。また、動き補償に用いるための動きベクトルと、予測モードと、参照フレーム番号とを含む信号126を出力する。
Based on the input frame image signal, reference frame image signal, prediction mode, and reference frame number, the motion
また、動きベクトル予測部204は、参照フレーム画像信号に含まれる符号化対象の所定ブロックに隣接する符号化済みのブロックの動きベクトルおよびそれらの参照フレーム番号と、符号化対象の所定ブロックの予測モードおよび参照フレーム番号を用いて、符号化対象の所定ブロックの動きベクトル予測値を算出する。なお、動きベクトル予測値の算出の際には、符号化対象の所定ブロックの動きベクトルを検出するために参照されたフレーム画像(対象参照フレーム画像)を基準にして、符号化対象の所定ブロックに隣接するブロックの動きベクトルをスケーリングする補正を行う(詳細は、後述する。)。スケーリングは、隣接するブロックの動きベクトルを検出するために参照されたフレーム画像(隣接参照フレーム画像)と、対象参照フレーム画像と、符号化対象のフレーム画像(対象フレーム画像)との時間的な関係に基づいて行う。ここで、隣接参照フレーム画像と対象参照フレーム画像と対象フレーム画像との時間的な関係とは、各フレーム画像の相対的な時間差、又は各フレーム画像の時刻情報を示している。動きベクトル予測部204は、算出した動きベクトル予測値と予測モードと参照フレーム番号とを含む信号215を、動きベクトル差分部205に送る。
The motion
動きベクトル差分部205は、入力された動きベクトルから動きベクトル予測値を引いた値である動きベクトル差分値を算出し、可変長符号化される予測モードと、参照フレーム番号と、動きベクトル差分値とを含む信号125を出力する。
(動画像復号化装置の構成)
The motion vector difference unit 205 calculates a motion vector difference value that is a value obtained by subtracting a motion vector prediction value from the input motion vector, and performs a variable length encoding prediction mode, a reference frame number, and a motion vector difference value. A
(Configuration of video decoding device)
次に、図3を用いて、本発明にかかる動画像復号化装置30について説明する。以下に説明する動画像復号化装置30は、動画像符号化装置10と同様に、H.264/AVC符号化方式に準拠した復号化装置である。
Next, the moving
動画像復号化装置30は、動画像符号化装置10により出力された圧縮ストリーム136を入力信号として用い、これを入力映像信号に復号化する機能を有する。
The moving
動画像復号化装置30は、機能的な構成要素として、図1に示すように、可変長復号化部301と、動きベクトル復元部302と、動き補償部303と、フレームメモリ304と、空間予測部305と、スイッチ306と、逆量子化部307と、逆直交変換部308と、加算器309とを備えて構成される。以下、各構成要素について説明する。
As shown in FIG. 1, the moving
可変長復号化部301は、圧縮ストリーム136を受信した後、各フレームの先頭を表す同期ワードを検出した後、ブロック単位で、予測モードと量子化直交変換係数を復元する。また、予測モードが「INTER予測モード」である場合、動きベクトル差分値と参照フレーム番号の復号も合わせて行う。可変長復号化部301は、復元した予測モードと動きベクトル差分値と参照フレーム番号とを含む信号321を動きベクトル復元部302に、復元した量子化直交変換係数322を逆量子化部307に、復元した予測モード326をスイッチ306及び空間予測部305に、それぞれ送る。
After receiving the
動きベクトル復元部302は、予測モードが「INTER予測モード」である場合、可変長復号化部301から送信された動きベクトル差分値と、復号化済みの隣接ブロックの動きベクトルから算出した動きベクトル予測値とを用いて動きベクトルを復元する。そして、復元した動きベクトルと予測モードと参照フレーム番号とを含む信号323を動き補償部303に送る。
When the prediction mode is “INTER prediction mode”, the motion
次に、動き補償部303は、動きベクトルと予測モードと参照フレーム番号とに基づいて、フレームメモリ304から送信される参照フレーム画像信号324を用いて、予測画像信号325を生成し、スイッチ306に送る。なお、フレームメモリ304には、過去に復号化済みのフレーム画像信号が格納されている。
Next, the
また、空間予測部305は、予測モード326が「INTRA予測モード」である場合、復号化済みの近傍ブロックの画像信号(参照フレーム画像信号327)を参照して予測画像信号328を生成し、スイッチ306に送る。
In addition, when the
次に、スイッチ306が、可変長復号化部301から送信された予測モード326に応じて、予測画像信号325と予測画像信号328とのいずれかを選択し、予測画像信号329として加算器309に送る。
Next, the
一方、逆量子化部307は、可変長復号化部301により送信された量子化直交変換係数322を、逆量子化して直交変換係数330に復元し、逆直交変換部308に送る。
On the other hand, the
逆直交変換部308は、直交変換係数330を逆直交変換し予測残差信号331に復元する。
The inverse
そして、加算器309は、スイッチ306から送信された予測画像信号329と、逆直交変換部308から送信された予測残差信号331とを加算し、フレーム画像信号332として復元する。
Then, the
最後に、フレーム画像信号332は所定の表示タイミングで表示デバイス(図示せず)へ出力され、入力映像信号(動画像信号)121が再生される。
Finally, the
また、フレーム画像信号332は、以降の復号化処理に用いられるため、参照フレーム画像信号としてフレームメモリ304に格納される。ここで、フレーム画像信号332は、動画像符号化装置10における同一番号のフレーム画像信号139と同一の値となる。また、動きベクトルや参照フレーム番号に関する情報も参照フレーム画像信号に含んで同時に格納される。
The
次に、図4を参照して、動画像復号化装置30の動きベクトル復元部302について詳細に説明する。図4は、図3の動きベクトル復元部の構成図である。
Next, the motion
まず、動きベクトル予測部401は、入力された参照フレーム画像信号324に含まれる復号化対象の所定ブロックに隣接する復号化済みのブロックの動きベクトルとそれらの参照フレーム番号とを抽出する。そして、入力された信号321に含まれる復号化対象の所定ブロックの予測モードと参照フレーム番号とを用いて、復号化対象の所定ブロックの動きベクトル予測値を算出する。なお、動きベクトル予測値の算出の際には、復号化対象の所定ブロックの動きベクトルを検出するために参照されたフレーム画像(対象参照フレーム画像)を基準にして、復号化対象の所定ブロックに隣接するブロックの動きベクトルをスケーリングする補正を行う(詳細は、後述する。)。スケーリングは、隣接するブロックの動きベクトルを検出するために参照されたフレーム画像(隣接参照フレーム画像)と、対象参照フレーム画像と、復号化対象のフレーム画像(対象フレーム画像)との時間的な関係に基づいて行う。ここで、隣接参照フレーム画像と対象参照フレーム画像と対象フレーム画像との時間的な関係とは、各フレーム画像の相対的な時間差、又は各フレーム画像の時刻情報を示している。その後、予測モードと参照フレーム番号と算出した動きベクトル予測値とを含む信号421を動きベクトル加算部402に送る。
First, the motion
動きベクトル加算部402は、入力された動きベクトル予測値と予測モードと動きベクトル差分値と参照フレーム番号とに基づき動きベクトルを復元する。そして、動き補償に用いるための動きベクトルと、予測モードと、および参照フレーム番号とを含む信号323を出力する。
(最適予測動きベクトルの算出)
The motion vector addition unit 402 restores a motion vector based on the input motion vector prediction value, prediction mode, motion vector difference value, and reference frame number. Then, a
(Calculation of optimal prediction motion vector)
ここでさらに、動画像符号化装置10の動き検出部102および動画像復号化装置30の動きベクトル復元部302において行われる最適予測動きベクトルの算出についてより詳細に説明する。
Here, the calculation of the optimal prediction motion vector performed in the
動画像符号化装置10の動き検出部102における動きベクトル予測部204は、符号化対象のブロックで検出された動きベクトルに対して差分をとるために用いられる最適予測動きベクトル(動きベクトル予測値)を算出する。最終的に、動画像符号化装置10が圧縮ストリーム136として伝送する情報は、動きベクトルからこの動きベクトル予測値を引いた動きベクトル差分値を符号化したものとなる。従って、最適予測動きベクトルが実際の動きベクトルに近いほど効率の良い符号化を行うことができることとなる。
The motion
また、動画像復号化装置30の動きベクトル復元部302における動きベクトル予測部401は、参照フレーム画像信号に基づいて動きベクトル予測値を算出する。算出された動きベクトル予測値は、伝送された動きベクトル差分値と加算して動きベクトルを復元するために用いられる。従って、動画像符号化装置10と同様に、最適予測動きベクトルが実際の動きベクトルに近いほど効率の良い復号化を行うことができることとなる。
In addition, the motion
なお、動きベクトル予測部204による動きベクトル予測値の算出と、動きベクトル予測部401による動きベクトル予測値の算出は、同様の処理であるため、以下、動きベクトル予測部204の動作についてのみ説明する。
Since the calculation of the motion vector prediction value by the motion
図5は、符号化対象のブロックと隣接するブロックを模式的に表した図である。図5において、符号化対象のブロックをEとし、ブロックAをブロックEの最も左上の画素の直左の画素を含むブロック、ブロックBをブロックEの最も左上の画素の直上の画素を含むブロック、ブロックCをブロックEの最も右上の画素の直右上の画素を含むブロックとする。また、ブロックDをブロックEの最も左上の画素の直左上の画素を含むブロックとする。 FIG. 5 is a diagram schematically showing a block adjacent to a block to be encoded. In FIG. 5, the block to be encoded is E, block A is a block including the pixel immediately left of the upper leftmost pixel of block E, block B is a block including the pixel immediately above the upper leftmost pixel of block E, The block C is a block including the pixel immediately above the upper right pixel of the block E. Further, the block D is a block including the pixel immediately above the leftmost pixel of the block E.
まず、動きベクトル予測部204は、ブロックCが画面外である場合は、ブロックCの動きベクトルおよび参照フレーム番号は、ブロックDの動きベクトルおよび参照フレーム番号と同一であるとする。
First, when the block C is outside the screen, the motion
また、ブロックB、ブロックCがともに画面外である場合は、ブロックB、ブロックCの動きベクトルおよび参照フレーム番号は、ブロックAの動きベクトルおよび参照フレーム番号と同一であるとする。 When both block B and block C are outside the screen, the motion vector and reference frame number of block B and block C are the same as the motion vector and reference frame number of block A.
以上のような前提で、動きベクトル予測部204は、常に符号化対象のブロックEに隣接するブロックA、ブロックB、ブロックCの動きベクトル及び参照フレーム番号が存在するようにした上で、動きベクトル予測値の算出を行う。
On the premise as described above, the motion
図6は、動きベクトル予測部204の動きベクトル予測値の算出時の動作を示すフローチャートである。
FIG. 6 is a flowchart showing the operation of the motion
まず、動きベクトル予測部204により、参照フレーム画像信号に含まれる符号化対象の所定ブロック(E)に隣接するブロック(A、B、C)の動きベクトルおよび参照フレーム画像番号が参照される(ステップS01)。
First, the motion
次に、隣接ブロック(A、B、C)の参照フレーム画像番号のうち、どれか一つだけブロック(E)の参照フレーム画像番号と等しいかどうかが判定される(ステップS02)。隣接ブロック(A、B、C)の参照フレーム画像番号のうち、どれか一つだけブロック(E)の参照フレーム画像番号と等しい場合には(ステップS02:YES)、ブロック(E)の参照フレーム画像番号と等しい参照フレーム画像番号を持つブロックの動きベクトル値をブロック(E)の動きベクトル予測値と決定する(ステップS03)。隣接ブロック(A、B、C)の参照フレーム画像番号のうち、どれか一つだけブロック(E)の参照フレーム画像番号と等しい場合に該当しない時は(ステップS02:NO)、処理をステップS04に移行する。 Next, it is determined whether only one of the reference frame image numbers of the adjacent blocks (A, B, C) is equal to the reference frame image number of the block (E) (step S02). If any one of the reference frame image numbers of the adjacent blocks (A, B, C) is equal to the reference frame image number of the block (E) (step S02: YES), the reference frame of the block (E) The motion vector value of the block having the reference frame image number equal to the image number is determined as the motion vector prediction value of the block (E) (step S03). If it is not the case that any one of the reference frame image numbers of the adjacent blocks (A, B, C) is equal to the reference frame image number of the block (E) (step S02: NO), the process is performed in step S04. Migrate to
続いて、動きベクトル予測部204により、各隣接ブロック(A、B、C)が、ブロック(E)の動きベクトルを検出した参照フレーム画像番号と同一の参照フレーム画像を用いて動き補償されたものであるかが判定される(ステップS04)。検出した隣接ブロック(A、B、C)の参照フレーム画像が、ブロック(E)の動きベクトルを検出した参照フレーム画像と同一の参照フレーム画像でない場合(ステップS04:NO)、符号化対象のブロック(E)と同じ参照フレームの条件となるように隣接ブロック(A、B、C)の動きベクトル値がスケーリングされる(ステップS05)。
Subsequently, the motion
このスケーリング方法を、図7に基づいて説明する。図7は、符号化対象のブロックと隣接するブロックの動きベクトルを時間空間上において示す図である。図7のように、現フレーム(対象フレーム画像)701(時刻t0)から、符号化対象のブロック(E)の参照フレーム(対象参照フレーム画像)702までの時間的距離(t0-te)を基準にして、検出した符号化対象の所定ブロックに隣接するブロック(A、B、C)の動きベクトル751a、751b、751cの大きさが変更される。具体的には、符号化対象のブロック(E)の参照フレーム702が時刻teにおけるもの、 隣接ブロックAの動きベクトル751aが(MVxA、MVyA)、その参照フレーム(隣接参照フレーム画像)703aが時刻taにおけるものであったとすると、符号化対象のブロック(E)の参照フレーム702を基準にスケーリングされた動きベクトル(MVxA’、MVyA’)は、下記式(1)及び(2)によって求められる。
This scaling method will be described with reference to FIG. FIG. 7 is a diagram illustrating a motion vector of a block adjacent to the encoding target block in time space. As shown in FIG. 7, the temporal distance (t0-te) from the current frame (target frame image) 701 (time t0) to the reference frame (target reference frame image) 702 of the encoding target block (E) is used as a reference. Thus, the magnitudes of the
なお、この場合、隣接ブロック(A、B、C)は必ずしも過去の参照フレーム画像を用いて動き補償されている必要はなく、未来((t0-t)<0)の参照フレーム画像を用いて動き補償されていても良い。 In this case, the adjacent blocks (A, B, C) are not necessarily motion-compensated using the past reference frame image, and the future ((t0−t) <0) reference frame image is used. Motion compensation may be performed.
一方、図6に戻って、検出した隣接ブロック(A、B、C)の参照フレーム画像が、ブロック(E)の動きベクトルを検出した参照フレーム画像と同一の参照フレーム画像である場合(ステップS04:NO)、ブロック(A、B、C)の動きベクトル値をスケーリング済みとしてそのまま利用される(ステップS06)。 On the other hand, referring back to FIG. 6, when the detected reference frame image of the adjacent block (A, B, C) is the same reference frame image as the reference frame image from which the motion vector of the block (E) is detected (step S04). : NO), the motion vector values of the blocks (A, B, C) are used as they are after being scaled (step S06).
次に、隣接ブロック(A、B、C)の動きベクトルが全て、スケーリング済みがどうかを判定する(ステップS07)。全ての隣接ブロック(A、B、C)がスケーリング済みでない場合には(ステップS07:NO)、ステップS04からの処理を繰り返す。 Next, it is determined whether all the motion vectors of the adjacent blocks (A, B, C) have been scaled (step S07). If all adjacent blocks (A, B, C) have not been scaled (step S07: NO), the processing from step S04 is repeated.
全ての隣接ブロック(A、B、C)がスケーリング済みである場合には(ステップS07:YES)、符号化対象のブロック(E)の動きベクトルを検出した参照フレーム702を基準にしてスケーリングされた隣接ブロック(A、B、C)の動きベクトルの中間値を算出することにより、最適予測動きベクトルが決定される(ステップS08)。中間値の算出は、3つの隣接ブロック(A、B、C)のスケーリング後の動きベクトル(MVxA’、MVyA’)、(MVxB’、MVyB’)、(MVxC’、MVyC’)をx、y成分ごとに比較し、それぞれ成分の中でちょうど中間(2番目)の値が動きベクトル予測値とされる。例えば、(MVxA’、MVyA’)=(3、−5)、(MVxB’、MVyB’)=(−1、4)、(MVxC’、MVyC’)=(2、6)のとき、動きベクトル予測値(PMVxE、PMVyE)はx、y成分ごとの中間(2番目)の値である(2、4)となる。
When all the adjacent blocks (A, B, C) have been scaled (step S07: YES), they have been scaled based on the
このよう隣接ブロックの動きベクトルの中間値を用いて符号化対象のブロックの動きベクトルを予測すると、符号化対象のブロックとその周囲のブロックとの空間的相関から、最適予測動きベクトルは符号化対象のブロックの実際の動きベクトルに比較的近い値になると考えられる。この方法は中間値予測(median prediction)と呼ばれている。 When the motion vector of the encoding target block is predicted using the intermediate value of the motion vector of the adjacent block as described above, the optimal prediction motion vector is determined from the spatial correlation between the encoding target block and the surrounding blocks. It is considered that the value is relatively close to the actual motion vector of the block. This method is called median prediction.
次に、コンピュータを上述した動画像符号化装置10として機能させるための動画像符号化プログラム910と、コンピュータを上述した動画像復号化装置30として機能させるための動画像復号化プログラム930について説明する。図10、図11はそれぞれ、動画像符号化プログラム910、動画像復号化プログラム930の構成を示す図である。
Next, a
図10に示すように、動画像符号化プログラム910は、処理を統括するメインモジュール911と、入力モジュール912と、動き検出モジュール913と、動き補償モジュール914と、空間予測モジュール915と、スイッチモジュール916と、減算モジュール917と、直交変換モジュール918と、量子化モジュール919と、可変長符号化モジュール920と、逆量子化モジュール921と、逆直交変換モジュール922と、加算モジュール923とを備える。入力モジュール912、動き検出モジュール913、動き補償モジュール914、空間予測モジュール915、スイッチモジュール916、減算モジュール917、直交変換モジュール918、量子化モジュール919、可変長符号化モジュール920、逆量子化モジュール921、逆直交変換モジュール922、加算モジュール923がコンピュータに行わせる機能はそれぞれ、上述した入力部101、動き検出部102、動き補償部103、空間予測部105、スイッチ106、減算器107、直交変換部108、量子化部109、可変長符号化部110、逆量子化部111、逆直交変換部112、加算器113と同様である。
As illustrated in FIG. 10, the moving
また、図11に示すように、動画像復号化プログラム930は、処理を統括するメインモジュール931と、可変長復号化モジュール932と、動きベクトル復元モジュール933と、動き補償モジュール934と、空間予測モジュール935と、スイッチモジュール936と、逆量子化モジュール937と、逆直交変換モジュール938と、加算モジュール939とを備える。可変長復号化モジュール932、動きベクトル復元モジュール933、動き補償モジュール934、空間予測モジュール935、スイッチモジュール936、逆量子化モジュール937、逆直交変換モジュール938、加算モジュール939がコンピュータに実現させる機能はそれぞれ、上述した可変長復号化部301、動きベクトル復元部302、動き補償部303、空間予測部305、スイッチ306、逆量子化部307、逆直交変換部308、加算器309と同様である。
As shown in FIG. 11, the moving
以上述べた第1実施形態にかかる動画像符号化装置10及び動画像復号化装置30によれば、動きベクトル予測部204、401が、それぞれの隣接ブロックの動きベクトルを、対象ブロックの動きベクトルを検出するために参照されたフレーム画像と符号化対象のフレーム画像との時間差を基準としてスケーリングして補正した後に、補正された隣接ブロックの動きベクトルに基づいて最適予測動きベクトルを予測するので、時間的な動きの連続性を考慮して最適予測動きベクトルを決定することにより、実際の対象ブロックの動きベクトルと最適予測動きベクトルの差をより小さくすることができる。
[第2実施形態]
According to the
[Second Embodiment]
次に、本発明の第2実施形態について説明する。本実施形態における動画像符号化装置及び動画像復号化装置の基本的構成は、第1実施形態における動画像符号化装置10及び動画像復号化装置30の構成と同様であるので、各構成要素には同一の符合を付しその説明は省略すると共に、以下において第1実施形態との相違点について詳述する。
Next, a second embodiment of the present invention will be described. The basic configurations of the moving image encoding device and the moving image decoding device in the present embodiment are the same as the configurations of the moving
第2実施形態における動画像符号化装置及び動画像復号化装置と、第1実施形態における動画像符号化装置10及び動画像復号化装置30との相違点は、動きベクトル予測値の算出に関わる部分である。以下、第1実施形態と異なる動画像符号化装置10の動き検出部102および動画像復号化装置30の動きベクトル復元部302で行われる予想動きベクトルの算出について説明する。
The difference between the video encoding device and video decoding device in the second embodiment and the
なお、動きベクトル予測部204による動きベクトル予測値の算出と、動きベクトル予測部401による動きベクトル予測値の算出は、同様の処理であるため、以下、動きベクトル予測部204の動作についてのみ説明する。
Since the calculation of the motion vector prediction value by the motion
本実施形態にかかる動きベクトル予測部204による動きベクトル予測値の算出においては、あらかじめ各隣接ブロックの動きベクトルを対象参照フレームを基準にしてスケーリングし、スケーリング後の動きベクトルに基づいて最適予測動きベクトルを決定することは行わない。つまり、動きベクトル予測部204は、まずスケーリング前の各隣接ブロックの動きベクトルに基づいて動きベクトルの予測に用いる最適なものを決定し、その後決定した動きベクトルの予測値を、対象参照フレームを基準にスケーリングして補正して動きベクトル予測値を得る。
In the calculation of the motion vector prediction value by the motion
図8は、本実施形態にかかる動きベクトル予測部204の動きベクトル予測値の算出時の動作を示すフローチャートである。
FIG. 8 is a flowchart showing an operation at the time of calculating a motion vector prediction value of the motion
まず、動きベクトル予測部204により、参照フレーム画像信号に含まれる符号化対象の所定ブロック(E)に隣接するブロック(A、B、C)の動きベクトルおよび参照フレーム画像番号が参照される(ステップS201)。
First, the motion
次に、隣接ブロック(A、B、C)の参照フレーム番号のうち、どれか一つだけがブロック(E)の参照フレーム番号と等しいかどうかが判定される(ステップS202)。隣接ブロック(A、B、C)の参照フレーム番号のうち、どれか一つだけがブロック(E)の参照フレーム番号と等しい場合(ステップS202:YES)、その等しい参照フレーム番号を有する隣接ブロックの動きベクトル値を、ブロック(E)の動きベクトル予測値と決定する(ステップS203)。隣接ブロック(A、B、C)の参照フレーム番号のうち、どれか一つだけがブロック(E)の参照フレーム番号と等しい場合に該当しない時は(ステップS202:NO)、処理をステップS204に移行する。 Next, it is determined whether only one of the reference frame numbers of the adjacent blocks (A, B, C) is equal to the reference frame number of the block (E) (step S202). When only one of the reference frame numbers of the adjacent blocks (A, B, C) is equal to the reference frame number of the block (E) (step S202: YES), the adjacent block having the same reference frame number is selected. The motion vector value is determined as the motion vector prediction value of the block (E) (step S203). If only one of the reference frame numbers of the adjacent blocks (A, B, C) is equal to the reference frame number of the block (E) (step S202: NO), the process goes to step S204. Transition.
続いて、動きベクトル予測部204により、各隣接ブロック(A、B、C)の動きベクトルに基づいて、符号化対象のブロック(E)の動きベクトルを検出した参照フレーム(対象参照フレーム画像)を基準にしてスケーリングを行うことなく、動きベクトル予測値として最適な動きベクトルが選出される(ステップS204)。動きベクトル予測値として最適な動きベクトルを選出する方法としては、実施形態1と同様にして、符号化対象のブロック(E)に隣接するブロック(A、B、C)の動きベクトルの中からx、y成分毎に中間の値を持つものを選出する。
Subsequently, the reference frame (target reference frame image) in which the motion vector of the encoding target block (E) is detected by the motion
動きベクトルの選出後、符号化対象のブロック(E)の動きベクトル予測値に最適であるとしてx,y成分として選出されたそれぞれの動きベクトルが、ブロック(E)の動きベクトルを検出した参照フレーム画像番号と同一の参照フレーム画像を用いて動き補償されたものであるかが判定される(ステップS205)。選出されたそれぞれの動きベクトルが、符号化対象のブロック(E)の動きベクトルを検出した参照フレーム画像と同一の参照フレーム画像を用いて動き補償されたものでないとき(ステップS205:NO)、符号化対象のブロック(E)と同じ参照フレームの条件となるように動きベクトルのx,y成分の大きさをスケーリングする(ステップS206)。スケーリング方法としては、実施形態1と同様にして、現フレーム(対象フレーム画像)から符号化対象のブロックの参照フレーム(対象参照フレーム画像)までの時間的距離を基準にして、選出された隣接ブロックの動きベクトルの大きさを変更して、そのうちのx成分あるいはy成分を動きベクトル予測値とする。 After the motion vector is selected, the reference frame in which each motion vector selected as the x and y component as the optimum motion vector prediction value of the encoding target block (E) detects the motion vector of the block (E). It is determined whether motion compensation has been performed using the same reference frame image as the image number (step S205). When each selected motion vector is not motion-compensated using the same reference frame image as the reference frame image in which the motion vector of the encoding target block (E) is detected (step S205: NO), The size of the x and y components of the motion vector is scaled so as to satisfy the same reference frame conditions as the block (E) to be converted (step S206). As a scaling method, similar to the first embodiment, the adjacent blocks selected based on the temporal distance from the current frame (target frame image) to the reference frame (target reference frame image) of the block to be encoded , And the x component or y component is used as a motion vector prediction value.
一方、選出されたそれぞれの動きベクトルが、符号化対象のブロック(E)の動きベクトルを検出した参照フレーム画像と同一の参照フレーム画像を用いて動き補償されたものであるとき(ステップS205:YES)、選出された動きベクトルのx成分あるいはy成分をそのまま動きベクトル予測値と決定する(ステップS207)。 On the other hand, when each selected motion vector is motion-compensated using the same reference frame image as the reference frame image in which the motion vector of the encoding target block (E) is detected (step S205: YES) ), The x component or y component of the selected motion vector is determined as the motion vector prediction value as it is (step S207).
以上述べた第2実施形態にかかる動画像符号化装置10及び動画像復号化装置30によれば、動きベクトル予測部204、401が、隣接ブロックの動きベクトルに基づいて最適予測動きベクトルを決定した後、決定された最適予測動きベクトルを、対象ブロックの動きベクトルを検出するために参照されたフレーム画像と符号化対象のフレーム画像との時間差を基準としてスケーリングして補正するので、実際の対象領域の動きベクトルと最適予測動きベクトルの差をより小さくすることができると同時に、動きベクトルを予測するための処理時間を短縮することが可能となる。
According to the
なお、上述した第1実施形態および第2実施形態にかかる動画像符号化装置10及び動画像復号化装置30においては、スケーリングする前、あるいはスケーリングした後の隣接するブロックの動きベクトルの中から中間値を選出して動きベクトル予測値として決定していたが、これは、以下のように動きベクトル予測値(PMVxE,PMVyE)を決定しても良い。
In addition, in the moving
すなわち、第1実施形態においては、スケーリング後のそれぞれの動きベクトルのx成分が条件1:|MVxA’−MVxB’|<|MVxB’−MVxC’|を満たす場合は、PMVxE=MVxA’と決定する。上記条件1を満たさない場合は、PMVxE=MVxB’と決定する。同様に、スケーリング後のそれぞれの動きベクトルのy成分が条件2:|MVyA’−MVyB’|<|MVyB’−MVyC’|を満たす場合は、PMVyE=MVyA’と決定する。上記条件2を満たさない場合は、PMVyE=MVyB’と決定する。また、実施形態2においては、スケーリング前のそれぞれの動きベクトルのx成分が条件1:|MVxA − MVxB|<|MVxB − MVxC|を満たす場合は、PMVxE=MVxAと決定する。上記条件1を満たさない場合は、PMVxE=MVxBと決定する。同様に、スケーリング前のそれぞれの動きベクトルのy成分が条件2:|MVyA − MVyB|<|MVyB − MVyC|を満たす場合は、PMVyE=MVyAと決定する。上記条件2を満たさない場合は、PMVyE=MVyBと決定する。その後、決定された動きベクトル予測値をスケーリングする。 That is, in the first embodiment, when the x component of each scaled motion vector satisfies the condition 1: | MVxA′−MVxB ′ | <| MVxB′−MVxC ′ |, PMVxE = MVxA ′ is determined. . When the above condition 1 is not satisfied, PMVxE = MVxB ′ is determined. Similarly, when the y component of each scaled motion vector satisfies the condition 2: | MVyA′−MVyB ′ | <| MVyB′−MVyC ′ |, PMVyE = MVyA ′ is determined. When the above condition 2 is not satisfied, PMVyE = MVyB ′ is determined. In the second embodiment, when the x component of each motion vector before scaling satisfies the condition 1: | MVxA−MVxB | <| MVxB−MVxC |, PMVxE = MVxA is determined. When the above condition 1 is not satisfied, PMVxE = MVxB is determined. Similarly, when the y component of each motion vector before scaling satisfies the condition 2: | MVyA−MVyB | <| MVyB−MVyC |, PMVyE = MVyA is determined. When the above condition 2 is not satisfied, PMVyE = MVyB is determined. Thereafter, the determined motion vector prediction value is scaled.
さらに、以下のような方法で動きベクトル予測値を決定しても良い。すなわち、符号化対象の所定ブロックの分割方法などに応じて、動きベクトルの予測値に用いるブロックの位置を一意に決定しておき、そのブロックの動きベクトルを常に選出するようにしても良い。図9は、動きベクトルの予測のために分割されたブロックの一例を示す図である。図9(a)に例によれば、符号化対象のブロックEが16画素x8画素の2つの領域に分割される予測モードの場合、上側の領域はブロックBの動きベクトルを、下側の領域はブロックAの動きベクトルを、それぞれ動きベクトル予測値として決定する。また、図9(b)の例によれば、ブロックEが8画素x16画素の2つの領域に分割される予測モードの場合、左側の領域はブロックAの動きベクトルを、右側の領域はブロックCの動きベクトルを、それぞれ動きベクトルの予測値として決定する。なお、上記の各予測モードによって分割された領域に対して選出される動きベクトルの位置は一例であって、任意の位置の動きベクトルを符号化対象のブロックの動きベクトル予測値として決定することができる。 Further, the motion vector prediction value may be determined by the following method. That is, the position of a block used as a motion vector prediction value may be uniquely determined according to the method for dividing a predetermined block to be encoded, and the motion vector of that block may be always selected. FIG. 9 is a diagram illustrating an example of blocks divided for motion vector prediction. According to the example in FIG. 9A, in the prediction mode in which the block E to be encoded is divided into two areas of 16 pixels × 8 pixels, the upper area represents the motion vector of the block B and the lower area. Determines the motion vector of block A as a motion vector prediction value. Further, according to the example of FIG. 9B, in the prediction mode in which the block E is divided into two regions of 8 pixels × 16 pixels, the left region is the motion vector of the block A, and the right region is the block C. Are determined as predicted motion vectors. Note that the position of the motion vector selected for the region divided by each prediction mode is an example, and the motion vector at an arbitrary position can be determined as the motion vector prediction value of the block to be encoded. it can.
また、上述した第1実施形態および第2実施形態にかかる動画像符号化装置10及び動画像復号化装置30においては、図5に示すように、符号化対象のブロック(E)の動きベクトル予測値を決定するために、隣接ブロック(A、B、C)の動きベクトルを利用していたが、この隣接ブロックの数及びブロック(E)との相対的位置は、適宜変更しても良い。
Further, in the moving
次に、以上述べた本発明の動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラムの各実施形態から抽出される技術的思想を請求項の記載形式に準じて列挙する。本発明に係る技術的思想は上位概念から下位概念まで、様々なレベルやバリエーションにより把握できるものであり、以下の記載に本発明が限定されるものではない。 Next, it extracts from each embodiment of the moving image encoding device, moving image decoding device, moving image encoding method, moving image decoding method, moving image encoding program, and moving image decoding program of the present invention described above. The technical ideas to be listed are enumerated according to the description format of the claims. The technical idea according to the present invention can be grasped by various levels and variations from a superordinate concept to a subordinate concept, and the present invention is not limited to the following description.
(項1)フレーム画像信号の時間系列で構成される動画像信号における符号化対象のフレーム画像を複数の対象領域に分割し、前記対象領域毎に、前記符号化対象のフレーム画像と異なる複数のフレーム画像を参照して動きベクトルを検出することにより、動き補償による符号化を行う動画像符号化装置において、
前記対象領域に隣接する隣接領域の動きベクトルを検出するために参照された隣接参照フレーム画像と、前記対象領域の動きベクトルを検出するために参照された対象参照フレーム画像と、前記符号化対象のフレーム画像である対象フレーム画像との時間的な関係又はそれらの時刻情報に基づいて、前記対象参照フレーム画像を基準にして前記対象領域に隣接する隣接領域の動きベクトルをスケーリングする補正と、
前記対象領域に隣接する隣接領域の動きベクトルに基づく最適予測動きベクトルの決定と、
を行うことにより前記補正後の最適予測動きベクトルを予測する動きベクトル予測手段を有することを特徴とする動画像符号化装置。
(Claim 1) A frame image to be encoded in a moving image signal composed of a time sequence of frame image signals is divided into a plurality of target regions, and each target region has a plurality of different frame images from the encoding target frame image. In a moving image coding apparatus that performs coding by motion compensation by detecting a motion vector with reference to a frame image,
An adjacent reference frame image referred to for detecting a motion vector of an adjacent region adjacent to the target region, a target reference frame image referred to for detecting a motion vector of the target region, and the encoding target Correction for scaling a motion vector of an adjacent region adjacent to the target region based on the target reference frame image based on a temporal relationship with the target frame image that is a frame image or their time information;
Determining an optimal prediction motion vector based on a motion vector of an adjacent region adjacent to the target region;
And a motion vector predicting means for predicting the corrected optimally predicted motion vector by performing the correction.
(項2)前記動きベクトル予測手段は、前記隣接参照フレーム画像と前記対象参照フレーム画像と前記対象フレーム画像との時間的な関係又はそれらの時刻情報に基づいて、前記対象参照フレーム画像を基準にして前記隣接領域の動きベクトルそれぞれをスケーリングして補正し、当該補正された前記隣接領域の動きベクトルに基づいて最適予測動きベクトルを決定することを特徴とする項1に記載の動画像符号化装置。 (Claim 2) The motion vector prediction means uses the target reference frame image as a reference based on a temporal relationship between the adjacent reference frame image, the target reference frame image, and the target frame image or time information thereof. The moving picture encoding apparatus according to claim 1, wherein each of the motion vectors in the adjacent area is scaled and corrected, and an optimal prediction motion vector is determined based on the corrected motion vector in the adjacent area. .
(項3)前記動きベクトル予測手段は、前記隣接領域の動きベクトルに基づいて最適予測動きベクトルを決定し、前記最適予測動きベクトルとして決定された隣接領域の動きベクトルの隣接参照フレーム画像と前記対象参照フレーム画像と前記対象フレーム画像との時間的な関係又はそれらの時刻情報に基づいて、前記対象参照フレーム画像を基準にして前記最適予測動きベクトルをスケーリングして補正することを特徴とする項1に記載の動画像符号化装置。 (Claim 3) The motion vector prediction means determines an optimal prediction motion vector based on the motion vector of the adjacent region, and the adjacent reference frame image of the motion vector of the adjacent region determined as the optimal prediction motion vector and the target The optimal prediction motion vector is scaled and corrected based on the target reference frame image based on a temporal relationship between the reference frame image and the target frame image or their time information. The moving image encoding apparatus described in 1.
(項4)フレーム画像信号の時間系列で構成される動画像信号における復号化対象のフレーム画像を複数の対象領域に分割し、前記対象領域毎に前記復号化対象のフレーム画像と異なる複数のフレーム画像を参照して検出された動きベクトルと予測動きベクトルとの差分情報を利用することにより、動き補償による復号化を行う動画像復号化装置において、
前記対象領域に隣接する隣接領域の動きベクトルを検出するために参照された隣接参照フレーム画像と、前記対象領域の動きベクトルを検出するために参照された対象参照フレーム画像と、前記符号化対象のフレーム画像である対象フレーム画像との時間的な関係又はそれらの時刻情報に基づいて、前記対象参照フレーム画像を基準にして前記対象領域に隣接する隣接領域の動きベクトルをスケーリングする補正と、
前記対象領域に隣接する隣接領域の動きベクトルに基づく最適予測動きベクトルの決定と、
を行うことにより前記補正後の最適予測動きベクトルを予測する動きベクトル予測手段を有することを特徴とする動画像復号化装置。
(Claim 4) A frame image to be decoded in a moving image signal composed of a time sequence of frame image signals is divided into a plurality of target regions, and a plurality of frames different from the frame images to be decoded for each target region. In a video decoding device that performs decoding by motion compensation by using difference information between a motion vector detected with reference to an image and a predicted motion vector,
An adjacent reference frame image referred to for detecting a motion vector of an adjacent region adjacent to the target region, a target reference frame image referred to for detecting a motion vector of the target region, and the encoding target Correction for scaling a motion vector of an adjacent region adjacent to the target region based on the target reference frame image based on a temporal relationship with the target frame image that is a frame image or their time information;
Determining an optimal prediction motion vector based on a motion vector of an adjacent region adjacent to the target region;
A motion picture decoding apparatus comprising: motion vector prediction means for predicting the corrected optimal predicted motion vector by performing
(項5)前記動きベクトル予測手段は、前記隣接参照フレーム画像と前記対象参照フレーム画像と前記対象フレーム画像との時間的な関係又はそれらの時刻情報に基づいて、前記対象参照フレーム画像を基準にして前記隣接領域の動きベクトルそれぞれをスケーリングして補正し、当該補正された前記隣接領域の動きベクトルに基づいて最適予測動きベクトルを決定することを特徴とする項4に記載の動画像復号化装置。 (Claim 5) The motion vector prediction means uses the target reference frame image as a reference based on a temporal relationship between the adjacent reference frame image, the target reference frame image, and the target frame image or time information thereof. 5. The moving picture decoding apparatus according to claim 4, wherein each of the motion vectors of the adjacent area is scaled and corrected, and an optimal prediction motion vector is determined based on the corrected motion vector of the adjacent area. .
(項6)前記動きベクトル予測手段は、前記隣接領域の動きベクトルに基づいて最適予測動きベクトルを決定し、前記最適予測動きベクトルとして決定された隣接領域の動きベクトルの隣接参照フレーム画像と前記対象参照フレーム画像と前記対象フレーム画像との時間的な関係又はそれらの時刻情報に基づいて、前記対象参照フレーム画像を基準にして前記最適予測動きベクトルをスケーリングして補正することを特徴とする項4に記載の動画像復号化装置。 (Claim 6) The motion vector prediction means determines an optimal prediction motion vector based on the motion vector of the adjacent region, and the adjacent reference frame image of the motion vector of the adjacent region determined as the optimal prediction motion vector and the target 5. The optimal prediction motion vector is scaled and corrected based on the target reference frame image based on a temporal relationship between the reference frame image and the target frame image or time information thereof. The moving picture decoding apparatus described in 1.
(項7)フレーム画像信号の時間系列で構成される動画像信号における符号化対象のフレーム画像を複数の対象領域に分割し、前記対象領域毎に、前記符号化対象のフレーム画像と異なる複数のフレーム画像を参照して動きベクトルを検出することにより、動き補償による符号化を行う動画像符号化方法において、
動きベクトル予測手段が、
前記対象領域に隣接する隣接領域の動きベクトルを検出するために参照された隣接参照フレーム画像と、前記対象領域の動きベクトルを検出するために参照された対象参照フレーム画像と、前記符号化対象のフレーム画像である対象フレーム画像との時間的な関係又はそれらの時刻情報に基づいて、前記対象参照フレーム画像を基準にして前記対象領域に隣接する隣接領域の動きベクトルをスケーリングする補正と、
前記対象領域に隣接する隣接領域の動きベクトルに基づく最適予測動きベクトルの決定と、
を行うことにより前記補正後の最適予測動きベクトルを予測する動きベクトル予測ステップを有することを特徴とする動画像符号化方法。
(Claim 7) A frame image to be encoded in a moving image signal composed of a time sequence of frame image signals is divided into a plurality of target regions, and each of the target regions has a plurality of different from the frame image to be encoded. In a moving image coding method for performing motion compensation coding by detecting a motion vector with reference to a frame image,
The motion vector prediction means
An adjacent reference frame image referred to for detecting a motion vector of an adjacent region adjacent to the target region, a target reference frame image referred to for detecting a motion vector of the target region, and the encoding target Correction for scaling a motion vector of an adjacent region adjacent to the target region based on the target reference frame image based on a temporal relationship with the target frame image that is a frame image or their time information;
Determining an optimal prediction motion vector based on a motion vector of an adjacent region adjacent to the target region;
And a motion vector predicting step for predicting the corrected optimal predicted motion vector by performing the correction.
(項8)フレーム画像信号の時間系列で構成される動画像信号における復号化対象のフレーム画像を複数の対象領域に分割し、前記対象領域毎に前記復号化対象のフレーム画像と異なる複数のフレーム画像を参照して検出された動きベクトルと予測動きベクトルとの差分情報を利用することにより、動き補償による復号化を行う動画像復号化方法において、
動きベクトル予測手段が、
前記対象領域に隣接する隣接領域の動きベクトルを検出するために参照された隣接参照フレーム画像と、前記対象領域の動きベクトルを検出するために参照された対象参照フレーム画像と、前記符号化対象のフレーム画像である対象フレーム画像との時間的な関係又はそれらの時刻情報に基づいて、前記対象参照フレーム画像を基準にして前記対象領域に隣接する隣接領域の動きベクトルをスケーリングする補正と、
前記対象領域に隣接する隣接領域の動きベクトルに基づく最適予測動きベクトルの決定と、
を行うことにより前記補正後の最適予測動きベクトルを予測する動きベクトル予測ステップを有することを特徴とする動画像復号化方法。
(Claim 8) A frame image to be decoded in a moving image signal composed of a time sequence of frame image signals is divided into a plurality of target regions, and a plurality of frames different from the frame image to be decoded for each target region. In a video decoding method for decoding by motion compensation by using difference information between a motion vector detected with reference to an image and a predicted motion vector,
The motion vector prediction means
An adjacent reference frame image referred to for detecting a motion vector of an adjacent region adjacent to the target region, a target reference frame image referred to for detecting a motion vector of the target region, and the encoding target Correction for scaling a motion vector of an adjacent region adjacent to the target region based on the target reference frame image based on a temporal relationship with the target frame image that is a frame image or their time information;
Determining an optimal prediction motion vector based on a motion vector of an adjacent region adjacent to the target region;
A motion picture decoding method comprising: a motion vector prediction step of predicting the corrected optimal prediction motion vector by performing
(項9)フレーム画像信号の時間系列で構成される動画像信号における符号化対象のフレーム画像を複数の対象領域に分割し、前記対象領域毎に、前記符号化対象のフレーム画像と異なる複数のフレーム画像を参照して動きベクトルを検出することにより、動き補償による符号化処理をコンピュータに実行させる動画像符号化プログラムにおいて、
コンピュータを、
前記対象領域に隣接する隣接領域の動きベクトルを検出するために参照された隣接参照フレーム画像と、前記対象領域の動きベクトルを検出するために参照された対象参照フレーム画像と、前記符号化対象のフレーム画像である対象フレーム画像との時間的な関係又はそれらの時刻情報に基づいて、前記対象参照フレーム画像を基準にして前記対象領域に隣接する隣接領域の動きベクトルをスケーリングする補正と、
前記対象領域に隣接する隣接領域の動きベクトルに基づく最適予測動きベクトルの決定と、
を行うことにより前記補正後の最適予測動きベクトルを予測する動きベクトル予測手段、
として機能させることを特徴とする動画像符号化プログラム。
(Section 9) A frame image to be encoded in a moving image signal composed of a time sequence of frame image signals is divided into a plurality of target regions, and each target region has a plurality of different frame images that are different from the frame image to be encoded. In a moving image encoding program for causing a computer to execute an encoding process by motion compensation by detecting a motion vector with reference to a frame image,
Computer
An adjacent reference frame image referred to for detecting a motion vector of an adjacent region adjacent to the target region, a target reference frame image referred to for detecting a motion vector of the target region, and the encoding target Correction for scaling a motion vector of an adjacent region adjacent to the target region based on the target reference frame image based on a temporal relationship with the target frame image that is a frame image or their time information;
Determining an optimal prediction motion vector based on a motion vector of an adjacent region adjacent to the target region;
Motion vector predicting means for predicting the corrected optimal predicted motion vector by performing
A video encoding program characterized by being made to function as:
(項10)フレーム画像信号の時間系列で構成される動画像信号における復号化対象のフレーム画像を複数の対象領域に分割し、前記対象領域毎に前記復号化対象のフレーム画像と異なる複数のフレーム画像を参照して検出された動きベクトルと予測動きベクトルとの差分情報を利用することにより、動き補償による復号化処理をコンピュータに実行させる動画像復号化プログラムにおいて、
コンピュータを、
前記対象領域に隣接する隣接領域の動きベクトルを検出するために参照された隣接参照フレーム画像と、前記対象領域の動きベクトルを検出するために参照された対象参照フレーム画像と、前記符号化対象のフレーム画像である対象フレーム画像との時間的な関係又はそれらの時刻情報に基づいて、前記対象参照フレーム画像を基準にして前記対象領域に隣接する隣接領域の動きベクトルをスケーリングする補正と、
前記対象領域に隣接する隣接領域の動きベクトルに基づく最適予測動きベクトルの決定と、
を行うことにより前記補正後の最適予測動きベクトルを予測する動きベクトル予測手段、
として機能させることを特徴とする動画像復号化プログラム。
(Claim 10) A frame image to be decoded in a moving image signal composed of a time sequence of frame image signals is divided into a plurality of target regions, and a plurality of frames different from the frame image to be decoded for each target region In a video decoding program for causing a computer to execute a decoding process by motion compensation by using difference information between a motion vector detected with reference to an image and a predicted motion vector,
Computer
An adjacent reference frame image referred to for detecting a motion vector of an adjacent region adjacent to the target region, a target reference frame image referred to for detecting a motion vector of the target region, and the encoding target Correction for scaling a motion vector of an adjacent region adjacent to the target region based on the target reference frame image based on a temporal relationship with the target frame image that is a frame image or their time information;
Determining an optimal prediction motion vector based on a motion vector of an adjacent region adjacent to the target region;
Motion vector predicting means for predicting the corrected optimal predicted motion vector by performing
A moving picture decoding program characterized by being made to function as:
10…動画像符号化装置、30…動画像復号化装置、101…入力部、102…動き検出部、103…動き補償部、104…フレームメモリ、105…空間予測部、106…スイッチ、107…減算器、108…直交変換部、109…量子化部、110…可変長符号化部、111…逆量子化部、112…逆直交変換部、113…加算器、201…予測モード決定部、202…参照フレーム決定部、203…動きベクトル検出部、204…動きベクトル予測部(動きベクトル予測手段)、205…動きベクトル差分部、301…可変長復号化部、302…動きベクトル復元部、303…動き補償部、304…フレームメモリ、305…空間予測部、306…スイッチ、307…逆量子化部、308…逆直交変換部、309…加算器、401…動きベクトル予測部(動きベクトル予測手段)、402…動きベクトル加算部、701…対象フレーム画像、702…対象参照フレーム画像、703a、703b、703c…隣接参照フレーム画像、751a、751c、751c…動きベクトル。
DESCRIPTION OF
Claims (10)
前記対象領域に隣接する隣接領域の動きベクトルを検出するために参照された隣接参照フレーム画像と、前記対象領域の動きベクトルを検出するために参照された対象参照フレーム画像と、前記符号化対象のフレーム画像である対象フレーム画像との時間的な関係又はそれらの時刻情報に基づいて、前記対象参照フレーム画像を基準にして前記対象領域に隣接する隣接領域の動きベクトルをスケーリングする補正と、
前記対象領域に隣接する隣接領域の動きベクトルに基づく最適予測動きベクトルの決定と、を行うことにより前記補正後の最適予測動きベクトルを予測する動きベクトル予測手段を有することを特徴とする動画像符号化装置。 A frame image to be encoded in a moving image signal composed of a time sequence of frame image signals is divided into a plurality of target regions, and a plurality of frame images different from the frame image to be encoded are referenced for each target region. In the moving picture coding apparatus that performs coding by motion compensation by detecting a motion vector,
An adjacent reference frame image referred to for detecting a motion vector of an adjacent region adjacent to the target region, a target reference frame image referred to for detecting a motion vector of the target region, and the encoding target Correction for scaling a motion vector of an adjacent region adjacent to the target region based on the target reference frame image based on a temporal relationship with the target frame image that is a frame image or their time information;
A moving picture code comprising: motion vector prediction means for predicting the corrected optimal predicted motion vector by determining an optimal predicted motion vector based on a motion vector of an adjacent area adjacent to the target area Device.
前記対象領域に隣接する隣接領域の動きベクトルを検出するために参照された隣接参照フレーム画像と、前記対象領域の動きベクトルを検出するために参照された対象参照フレーム画像と、前記符号化対象のフレーム画像である対象フレーム画像との時間的な関係又はそれらの時刻情報に基づいて、前記対象参照フレーム画像を基準にして前記対象領域に隣接する隣接領域の動きベクトルをスケーリングする補正と、
前記対象領域に隣接する隣接領域の動きベクトルに基づく最適予測動きベクトルの決定と、を行うことにより前記補正後の最適予測動きベクトルを予測する動きベクトル予測手段を有することを特徴とする動画像復号化装置。 A frame image to be decoded in a moving image signal composed of a time sequence of frame image signals is divided into a plurality of target regions, and a plurality of frame images different from the frame images to be decoded are referred to for each target region. In the moving picture decoding apparatus that performs decoding by motion compensation by using the difference information between the detected motion vector and the predicted motion vector,
An adjacent reference frame image referred to for detecting a motion vector of an adjacent region adjacent to the target region, a target reference frame image referred to for detecting a motion vector of the target region, and the encoding target Correction for scaling a motion vector of an adjacent region adjacent to the target region based on the target reference frame image based on a temporal relationship with the target frame image that is a frame image or their time information;
A moving picture decoding unit comprising: a motion vector predicting unit configured to predict an optimal predicted motion vector after the correction by determining an optimal predicted motion vector based on a motion vector of an adjacent region adjacent to the target region; Device.
動きベクトル予測手段が、
前記対象領域に隣接する隣接領域の動きベクトルを検出するために参照された隣接参照フレーム画像と、前記対象領域の動きベクトルを検出するために参照された対象参照フレーム画像と、前記符号化対象のフレーム画像である対象フレーム画像との時間的な関係又はそれらの時刻情報に基づいて、前記対象参照フレーム画像を基準にして前記対象領域に隣接する隣接領域の動きベクトルをスケーリングする補正と、
前記対象領域に隣接する隣接領域の動きベクトルに基づく最適予測動きベクトルの決定と、を行うことにより前記補正後の最適予測動きベクトルを予測する動きベクトル予測ステップを有することを特徴とする動画像符号化方法。 A frame image to be encoded in a moving image signal composed of a time sequence of frame image signals is divided into a plurality of target regions, and a plurality of frame images different from the frame image to be encoded are referenced for each target region. In the moving picture coding method for performing the motion compensation coding by detecting the motion vector,
The motion vector prediction means
An adjacent reference frame image referred to for detecting a motion vector of an adjacent region adjacent to the target region, a target reference frame image referred to for detecting a motion vector of the target region, and the encoding target Correction for scaling a motion vector of an adjacent region adjacent to the target region based on the target reference frame image based on a temporal relationship with the target frame image that is a frame image or their time information;
A motion vector predicting step for predicting the corrected optimal prediction motion vector by determining an optimal prediction motion vector based on a motion vector of an adjacent region adjacent to the target region. Method.
動きベクトル予測手段が、
前記対象領域に隣接する隣接領域の動きベクトルを検出するために参照された隣接参照フレーム画像と、前記対象領域の動きベクトルを検出するために参照された対象参照フレーム画像と、前記符号化対象のフレーム画像である対象フレーム画像との時間的な関係又はそれらの時刻情報に基づいて、前記対象参照フレーム画像を基準にして前記対象領域に隣接する隣接領域の動きベクトルをスケーリングする補正と、
前記対象領域に隣接する隣接領域の動きベクトルに基づく最適予測動きベクトルの決定と、を行うことにより前記補正後の最適予測動きベクトルを予測する動きベクトル予測ステップを有することを特徴とする動画像復号化方法。 A frame image to be decoded in a moving image signal composed of a time sequence of frame image signals is divided into a plurality of target regions, and a plurality of frame images different from the frame images to be decoded are referred to for each target region. In the moving picture decoding method for performing decoding by motion compensation by using difference information between the motion vector detected in this way and the predicted motion vector,
The motion vector prediction means
An adjacent reference frame image referred to for detecting a motion vector of an adjacent region adjacent to the target region, a target reference frame image referred to for detecting a motion vector of the target region, and the encoding target Correction for scaling a motion vector of an adjacent region adjacent to the target region based on the target reference frame image based on a temporal relationship with the target frame image that is a frame image or their time information;
A motion vector predicting step for predicting the corrected optimal prediction motion vector by determining an optimal prediction motion vector based on a motion vector of an adjacent region adjacent to the target region. Method.
コンピュータを、
前記対象領域に隣接する隣接領域の動きベクトルを検出するために参照された隣接参照フレーム画像と、前記対象領域の動きベクトルを検出するために参照された対象参照フレーム画像と、前記符号化対象のフレーム画像である対象フレーム画像との時間的な関係又はそれらの時刻情報に基づいて、前記対象参照フレーム画像を基準にして前記対象領域に隣接する隣接領域の動きベクトルをスケーリングする補正と、
前記対象領域に隣接する隣接領域の動きベクトルに基づく最適予測動きベクトルの決定と、を行うことにより前記補正後の最適予測動きベクトルを予測する動きベクトル予測手段、として機能させることを特徴とする動画像符号化プログラム。 A frame image to be encoded in a moving image signal composed of a time sequence of frame image signals is divided into a plurality of target regions, and a plurality of frame images different from the frame image to be encoded are referenced for each target region. In the moving picture encoding program for causing the computer to execute the encoding process by motion compensation by detecting the motion vector
Computer
An adjacent reference frame image referred to for detecting a motion vector of an adjacent region adjacent to the target region, a target reference frame image referred to for detecting a motion vector of the target region, and the encoding target Correction for scaling a motion vector of an adjacent region adjacent to the target region based on the target reference frame image based on a temporal relationship with the target frame image that is a frame image or their time information;
A motion vector predicting unit that predicts the corrected optimal predicted motion vector by performing determination of an optimal predicted motion vector based on a motion vector of an adjacent region adjacent to the target region. Image encoding program.
コンピュータを、
前記対象領域に隣接する隣接領域の動きベクトルを検出するために参照された隣接参照フレーム画像と、前記対象領域の動きベクトルを検出するために参照された対象参照フレーム画像と、前記符号化対象のフレーム画像である対象フレーム画像との時間的な関係又はそれらの時刻情報に基づいて、前記対象参照フレーム画像を基準にして前記対象領域に隣接する隣接領域の動きベクトルをスケーリングする補正と、
前記対象領域に隣接する隣接領域の動きベクトルに基づく最適予測動きベクトルの決定と、を行うことにより前記補正後の最適予測動きベクトルを予測する動きベクトル予測手段、として機能させることを特徴とする動画像復号化プログラム。
A frame image to be decoded in a moving image signal composed of a time sequence of frame image signals is divided into a plurality of target regions, and a plurality of frame images different from the frame images to be decoded are referred to for each target region. In a moving picture decoding program for causing a computer to execute a decoding process by motion compensation by using difference information between a detected motion vector and a predicted motion vector,
Computer
An adjacent reference frame image referred to for detecting a motion vector of an adjacent region adjacent to the target region, a target reference frame image referred to for detecting a motion vector of the target region, and the encoding target Correction for scaling a motion vector of an adjacent region adjacent to the target region based on the target reference frame image based on a temporal relationship with the target frame image that is a frame image or their time information;
A motion vector predicting unit that predicts the corrected optimal predicted motion vector by performing determination of an optimal predicted motion vector based on a motion vector of an adjacent region adjacent to the target region. Image decoding program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013237167A JP5705948B2 (en) | 2013-11-15 | 2013-11-15 | Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding method, moving picture decoding method, moving picture encoding program, and moving picture decoding program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013237167A JP5705948B2 (en) | 2013-11-15 | 2013-11-15 | Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding method, moving picture decoding method, moving picture encoding program, and moving picture decoding program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012054562A Division JP2012138947A (en) | 2012-03-12 | 2012-03-12 | Video encoder, video decoder, video encoding method, video decoding method, video encoding program and video decoding program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014068361A true JP2014068361A (en) | 2014-04-17 |
JP5705948B2 JP5705948B2 (en) | 2015-04-22 |
Family
ID=50744302
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013237167A Expired - Lifetime JP5705948B2 (en) | 2013-11-15 | 2013-11-15 | Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding method, moving picture decoding method, moving picture encoding program, and moving picture decoding program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5705948B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06141302A (en) * | 1992-10-26 | 1994-05-20 | Sony Corp | Motion information difference processing unit and inverse difference processing unit |
JP2004023458A (en) * | 2002-06-17 | 2004-01-22 | Toshiba Corp | Moving picture encoding/decoding method and apparatus |
JP2004072712A (en) * | 2002-04-23 | 2004-03-04 | Matsushita Electric Ind Co Ltd | Motion vector encoding method and motion vector decoding method |
-
2013
- 2013-11-15 JP JP2013237167A patent/JP5705948B2/en not_active Expired - Lifetime
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06141302A (en) * | 1992-10-26 | 1994-05-20 | Sony Corp | Motion information difference processing unit and inverse difference processing unit |
JP2004072712A (en) * | 2002-04-23 | 2004-03-04 | Matsushita Electric Ind Co Ltd | Motion vector encoding method and motion vector decoding method |
JP2004023458A (en) * | 2002-06-17 | 2004-01-22 | Toshiba Corp | Moving picture encoding/decoding method and apparatus |
Non-Patent Citations (1)
Title |
---|
JPN6008022265; Thomas Wiegend: Joint Committee Draft (CD) Text of Committee Draft of Joint Video Specification (ITU-T Rec. H.264 | , 20020506, p. 46, Joint Video Team (JVT) of ISO/IEC MPEG and ITU-T V * |
Also Published As
Publication number | Publication date |
---|---|
JP5705948B2 (en) | 2015-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4373702B2 (en) | Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding method, moving picture decoding method, moving picture encoding program, and moving picture decoding program | |
JP6679782B2 (en) | Encoding device, encoding method, decoding device, decoding method, and program | |
JP5669278B2 (en) | Method for coding a block of an image sequence and method for reconstructing this block | |
JP5310614B2 (en) | Moving picture coding apparatus, moving picture coding method, moving picture decoding apparatus, and moving picture decoding method | |
KR20110008653A (en) | Method and apparatus for predicting motion vector and method and apparatus of encoding/decoding a picture using the same | |
KR20080088299A (en) | Method for encoding and decoding motion model parameter, and method and apparatus for video encoding and decoding using motion model parameter | |
JP6065088B2 (en) | Moving picture coding apparatus, moving picture coding method, moving picture coding program, transmission apparatus, transmission method, and transmission program | |
JP2009290889A (en) | Motion picture encoder, motion picture decoder, motion picture encoding method, motion picture decoding method, motion picture encoding program, and motion picture decoding program | |
JP5725006B2 (en) | Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program | |
JP5725118B2 (en) | Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program | |
JP5407974B2 (en) | Video encoding apparatus and motion vector detection method | |
JP5705948B2 (en) | Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding method, moving picture decoding method, moving picture encoding program, and moving picture decoding program | |
JP5281597B2 (en) | Motion vector prediction method, motion vector prediction apparatus, and motion vector prediction program | |
JP5843039B1 (en) | Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program | |
JP2012138947A (en) | Video encoder, video decoder, video encoding method, video decoding method, video encoding program and video decoding program | |
JP2012095099A (en) | Moving image encoding device, moving image encoding method, moving image encoding program, moving image decoding device, moving image decoding method, and moving image decoding program | |
JP2012138837A (en) | Moving image encoding apparatus, moving image encoding method and moving image encoding program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140919 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140930 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150224 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150225 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5705948 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |