JP5736083B2 - Moving picture predictive coding apparatus, moving picture predictive coding method, moving picture predictive coding program, moving picture predictive decoding apparatus, moving picture predictive decoding method, and moving picture predictive decoding program - Google Patents

Moving picture predictive coding apparatus, moving picture predictive coding method, moving picture predictive coding program, moving picture predictive decoding apparatus, moving picture predictive decoding method, and moving picture predictive decoding program Download PDF

Info

Publication number
JP5736083B2
JP5736083B2 JP2014242028A JP2014242028A JP5736083B2 JP 5736083 B2 JP5736083 B2 JP 5736083B2 JP 2014242028 A JP2014242028 A JP 2014242028A JP 2014242028 A JP2014242028 A JP 2014242028A JP 5736083 B2 JP5736083 B2 JP 5736083B2
Authority
JP
Japan
Prior art keywords
motion vector
motion
information
prediction
predicted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014242028A
Other languages
Japanese (ja)
Other versions
JP2015039246A (en
Inventor
鈴木 芳典
芳典 鈴木
ブン チュンセン
チュンセン ブン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2014242028A priority Critical patent/JP5736083B2/en
Publication of JP2015039246A publication Critical patent/JP2015039246A/en
Application granted granted Critical
Publication of JP5736083B2 publication Critical patent/JP5736083B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラムに関するもので、とりわけ、2つの予測信号を平均化することにより最終的なブロック予測信号(双予測信号)を生成する動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラムに関するものである。   The present invention relates to a video predictive encoding device, a video predictive encoding method, a video predictive encoding program, a video predictive decoding device, a video predictive decoding method, and a video predictive decoding program. Moving picture predictive coding apparatus, moving picture predictive coding method, moving picture predictive coding program, moving picture predictive decoding apparatus, moving picture that generates final block predicted signal (bi-predicted signal) by averaging predicted signals The present invention relates to an image predictive decoding method and a moving image predictive decoding program.

静止画像や動画像データの伝送や蓄積を効率よく行うために、圧縮符号化技術が用いられる。動画像の場合ではMPEG−1〜4やITU(International Telecommunication Union)H.261〜H.264の方式が広く用いられている。   In order to efficiently transmit and store still images and moving image data, compression coding technology is used. In the case of moving images, MPEG-1 to 4 and ITU (International Telecommunication Union) H.264. 261-H. H.264 is widely used.

これらの符号化方式では、符号化の対象となる画像を複数のブロックに分割した上で符号化・復号処理を行う。画面内の予測符号化では、対象ブロックと同じ画面内にある隣接する既再生の画像信号(圧縮された画像データが復元されたもの)を用いて予測信号を生成した上で、その予測信号を対象ブロックの信号から引き算した差分信号を符号化する。画面間の予測符号化では、対象ブロックと異なる画面内にある隣接する既再生の画像信号を参照し、動きの補正を行ない、予測信号を生成し、その予測信号を対象ブロックの信号から引き算した差分信号を符号化する。   In these encoding methods, encoding / decoding processing is performed after an image to be encoded is divided into a plurality of blocks. In predictive coding within a screen, a predicted signal is generated using an adjacent previously reproduced image signal (reconstructed compressed image data) in the same screen as the target block, and then the predicted signal is The differential signal subtracted from the signal of the target block is encoded. In predictive coding between screens, the adjacent reproduced image signal in the screen different from the target block is referred to, the motion is corrected, the predicted signal is generated, and the predicted signal is subtracted from the signal of the target block. Encode the difference signal.

例えば、H.264の画面内予測符号化では、符号化の対象となるブロックに隣接する既再生の画素値を所定の方向に外挿して予測信号を生成する方法を採用している。図20は、ITU H.264に用いられる画面内予測方法を説明するための模式図である。図20(A)において、対象ブロック802は符号化の対象となるブロックであり、その対象ブロック802の境界に隣接する画素A〜Mからなる画素群801は隣接領域であり、過去の処理において既に再生された画像信号である。   For example, H.M. H.264 intra-screen predictive encoding employs a method of generating a prediction signal by extrapolating already reproduced pixel values adjacent to a block to be encoded in a predetermined direction. FIG. 2 is a schematic diagram for explaining an intra-screen prediction method used for H.264. In FIG. 20A, a target block 802 is a block to be encoded, and a pixel group 801 composed of pixels A to M adjacent to the boundary of the target block 802 is an adjacent region, and has already been obtained in past processing. It is the reproduced image signal.

この場合、対象ブロック802の真上にある隣接画素である画素群801を下方に引き伸ばして予測信号を生成する。また図20(B)では、対象ブロック804の左にある既再生画素(I〜L)を右に引き伸ばして予測信号を生成する。予測信号を生成する具体的な方法は、例えば特許文献1に記載されている。このように図20(A)〜(I)に示す方法で生成された9つの予測信号のそれぞれについて対象ブロックの画素信号との差分をとり、差分値が最も小さいものを最適の予測信号とする。以上のように、画素を外挿することにより予測信号を生成することができる。以上の内容については、下記特許文献1に記載されている。   In this case, a prediction signal is generated by extending the pixel group 801 that is an adjacent pixel directly above the target block 802 downward. In FIG. 20B, the already reproduced pixels (I to L) on the left of the target block 804 are stretched to the right to generate a prediction signal. A specific method for generating a prediction signal is described in Patent Document 1, for example. Thus, the difference between the nine prediction signals generated by the method shown in FIGS. 20A to 20I and the pixel signal of the target block is calculated, and the one with the smallest difference value is set as the optimum prediction signal. . As described above, a prediction signal can be generated by extrapolating pixels. The above contents are described in Patent Document 1 below.

通常の画面間予測符号化では、符号化の対象となるブロックについて、その画素信号に類似する信号を既に再生済みの画面から探索するという方法で予測信号を生成する。そして、対象ブロックと探索した信号が構成する領域との間の空間的な変位量である動きベクトル、及び、対象ブロックの画素信号と予測信号との残差信号を符号化する。このようにブロック毎に動きベクトルを探索する手法はブロックマッチングと呼ばれる。   In normal inter-screen predictive coding, a prediction signal is generated by searching for a signal similar to the pixel signal from a screen that has already been reproduced for a block to be coded. Then, a motion vector, which is a spatial displacement amount between the target block and a region formed by the searched signal, and a residual signal between the pixel signal and the prediction signal of the target block are encoded. Such a method for searching for a motion vector for each block is called block matching.

図19は、ブロックマッチング処理を説明するための模式図である。ここでは、符号化対象の画面701上の対象ブロック702を例に予測信号の生成手順を説明する。参照画面703は既に再生済みであり、領域704は対象ブロック702と空間的に同一位置の領域である。ブロックマッチングでは、領域704を囲む探索範囲705を設定し、この探索範囲705の画素信号から対象ブロック702の画素信号との絶対値誤差和が最小となる領域706を検出する。この領域706の信号が予測信号となり、領域704から領域706への変位量が動きベクトル707として検出される。また、参照画面703を複数用意し、対象ブロック毎にブロックマッチングを実施する参照画面を選択し、参照画面選択情報を検出する方法もよく用いられる。H.264では、画像の局所的な特徴の変化に対応するため、動きベクトルを符号化するブロックサイズが異なる複数の予測タイプを用意している。H.264の予測タイプについては、例えば特許文献2に記載されている。   FIG. 19 is a schematic diagram for explaining the block matching process. Here, a procedure for generating a prediction signal will be described using the target block 702 on the encoding target screen 701 as an example. The reference screen 703 has already been reproduced, and the area 704 is an area in the same position as the target block 702. In block matching, a search range 705 surrounding the region 704 is set, and a region 706 in which the sum of absolute value errors with the pixel signal of the target block 702 is detected from the pixel signals in the search range 705 is detected. The signal in the area 706 becomes a prediction signal, and the amount of displacement from the area 704 to the area 706 is detected as a motion vector 707. Also, a method of preparing a plurality of reference screens 703, selecting a reference screen for performing block matching for each target block, and detecting reference screen selection information is often used. H. H.264 provides a plurality of prediction types having different block sizes for encoding motion vectors in order to cope with changes in local features of an image. H. H.264 prediction types are described in Patent Document 2, for example.

動画像データの圧縮符号化では、各画面(フレーム、フィールド)の符号化順序は任意でよい。そのため、再生済み画面を参照して予測信号を生成する画面間予測にも、符号化順序について2種類の手法がある。第1の手法は、1つの再生済み画面を参照して予測信号を生成する片予測であり、第2の手法は、1つあるいは2つの再生済み画面を参照して得られる2つの予測信号を平均化する双予測である。片予測には、表示順で過去の再生済み画面を参照する前方向予測と、表示順で未来の再生済み画面を参照する後方向予測とがある。画面間予測の種類については、例えば特許文献3に記載されている。   In the compression encoding of moving image data, the encoding order of each screen (frame, field) may be arbitrary. For this reason, there are two types of coding order methods for inter-screen prediction in which a prediction signal is generated with reference to a reproduced screen. The first method is uni-prediction in which a prediction signal is generated with reference to one reproduced screen. The second method uses two prediction signals obtained by referring to one or two reproduced screens. Bi-predicting to average. The uni-prediction includes forward prediction that refers to past reproduced screens in display order and backward prediction that refers to future reproduced screens in display order. About the kind of prediction between screens, it describes in patent document 3, for example.

H.264では、参照画面703の候補として、複数の再生済み画面から成る2つの参照画面リストを作成して第2の画面間手法(双予測)を行う。各参照画面リストに登録される複数の参照画面を対象としてブロックマッチングを行い、領域706に相当する領域を2つ検出し、検出した2つの予測信号を平均化する。   H. In H.264, as a candidate for the reference screen 703, two reference screen lists including a plurality of reproduced screens are created and the second inter-screen method (bi-prediction) is performed. Block matching is performed for a plurality of reference screens registered in each reference screen list, two regions corresponding to the region 706 are detected, and the two detected prediction signals are averaged.

図5と図6にて参照画面リストの例を説明する。図5(A)では、画面505が符号化対象画像、画面501から画面504が再生済み画面を示している。図5(B)では、画面510が符号化対象画面、画面507、508、509と511が再生済み画面を示している。各画像(画面)の識別はフレーム番号(frame_num)にて行われる。図6のList0とList1が2つの参照画面リストを示しており、図6(A)が図5(A)の参照画面リスト、図6(B)と(C)が図5(B)の参照画面リストの例を示している。図6(A)と(C)では、各参照画面リストにそれぞれ4個の参照画面が登録されており、図6(B)では、各参照画面リストにそれぞれ2個の参照画面が登録されている。各参照画面は参照画面インデックス(ref_idx)にて識別される。参照画面リストに登録できる再生済み画像は、基本的に任意である。なお、本件では、内容理解を容易にするために、上記の参照画面リストList0、List1に合せて、例えば、第0の動き情報、第1の動き情報といった呼称を用いている。   An example of the reference screen list will be described with reference to FIGS. In FIG. 5A, a screen 505 indicates an encoding target image, and screens 501 to 504 indicate reproduced screens. In FIG. 5B, the screen 510 indicates the encoding target screen, and the screens 507, 508, 509, and 511 indicate the reproduced screens. Each image (screen) is identified by a frame number (frame_num). List0 and List1 in FIG. 6 show two reference screen lists, FIG. 6 (A) is a reference screen list in FIG. 5 (A), and FIGS. 6 (B) and 6 (C) are references in FIG. 5 (B). An example of a screen list is shown. 6 (A) and 6 (C), four reference screens are registered in each reference screen list, and in FIG. 6 (B), two reference screens are registered in each reference screen list. Yes. Each reference screen is identified by a reference screen index (ref_idx). The reproduced images that can be registered in the reference screen list are basically arbitrary. In this case, in order to facilitate understanding of the contents, names such as 0th motion information and 1st motion information are used in accordance with the reference screen lists List0 and List1.

米国特許公報第6765964号US Pat. No. 6,765,964 米国特許公報第7003035号US Patent Publication No. 7003035 米国特許公報第6259739号US Pat. No. 6,259,739

双予測では、類似する2つの予測信号の平均化による平滑化効果で予測信号に含まれるノイズを取り除くことが可能となる。ところが、このような平滑化効果の大きいブロックはテクスチャ領域やノイズを含む平坦領域であることが多く、参照画面内に類似信号が複数個存在する。   In bi-prediction, noise contained in a prediction signal can be removed by a smoothing effect obtained by averaging two similar prediction signals. However, such a block having a large smoothing effect is often a texture region or a flat region including noise, and a plurality of similar signals exist in the reference screen.

これらの領域の信号はランダム性が強いため、これらの領域にて対象ブロックに類似する2つの予測信号を複数の参照画面から探索すると、隣接するブロック間の動きベクトルがばらつくことがある。動きベクトルは、隣接ブロックの動きベクトルとの差で符号化するため、隣接ブロック間で動きベクトルがばらつくとその符号量が大きくなってしまう。   Since signals in these areas are highly random, when two prediction signals similar to the target block are searched from a plurality of reference screens in these areas, motion vectors between adjacent blocks may vary. Since the motion vector is encoded based on the difference from the motion vector of the adjacent block, if the motion vector varies between adjacent blocks, the amount of code increases.

双予測の符号量を少なくする手法としては、従来例で示したように、隣接ブロックの状況に用いて2つの動きベクトルを復号側で導出する方法があるが、利用できる予測信号の制限が強すぎるため2つの予測信号の類似性を高めることが難しく、十分な平滑化効果が得られない。   As a technique for reducing the code amount of bi-prediction, as shown in the conventional example, there is a method of deriving two motion vectors on the decoding side using the situation of adjacent blocks, but there is a strong restriction on the prediction signals that can be used. Therefore, it is difficult to increase the similarity between the two prediction signals, and a sufficient smoothing effect cannot be obtained.

上述の課題を解決するために、本発明では、対象ブロックと類似する予測信号を生成する1つの動きベクトルを符号化し、もう1つの動きベクトルを符号化済みの動き情報から選択的に求めることにより、2つの動きベクトルを符号化する双予測に対して少ない符号量で、効率良く予測信号のノイズを抑制する動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラムを提供することを目的とする。   In order to solve the above-described problem, the present invention encodes one motion vector that generates a prediction signal similar to the target block, and selectively obtains another motion vector from the encoded motion information. Moving picture predictive coding apparatus, moving picture predictive coding method, moving picture predictive coding program, moving picture predictive signal that efficiently suppresses noise of prediction signal with a small amount of code for bi-prediction encoding two motion vectors An object is to provide an image predictive decoding device, a moving image predictive decoding method, and a moving image predictive decoding program.

本発明の一側面に係る動画像予測符号化装置は、入力画像を複数の領域に分割する領域分割手段と、前記領域分割手段により分割された領域のうち、符号化対象である対象領域との相関が高い信号を既再生画像から取得するための動きベクトルを決定する予測信号生成手段と、前記動きベクトルを保存する動き情報記録手段と、前記対象領域の予測信号と前記対象領域の画素信号との残差信号を生成する残差信号生成手段と、前記残差信号生成手段により生成された残差信号を圧縮する残差信号圧縮手段と、前記残差信号の圧縮データを復元した再生残差信号を生成する残差信号復元手段と、前記動き情報記録手段に保存された既再生の動きベクトルから選択された前記対象領域の動きベクトルに類似する予測動きベクトルと、前記対象領域の動きベクトルから決定される付加情報と、前記残差信号の圧縮データと、を符号化する符号化手段と、前記予測信号と前記再生残差信号とを加算することによって前記対象領域の画素信号を復元し、復元された画素信号を前記既再生画像として保存する画像記録手段と、を具備し、前記動きベクトルは、第0の予測信号の生成に要する第0の動きベクトルと、第1の予測信号の生成に要する第1の動きベクトルと、を含んでおり、前記予測信号生成手段が、前記第0の予測信号を取得するための第0の動きベクトルを推定すると共に、推定した第0の動きベクトルと類似する第0の予測動きベクトルを前記動き情報記録手段に保存されている複数の動きベクトルから選択し、選択した前記第0の予測動きベクトルを識別するための第0の予測動き情報インデックスと、前記第0の動きベクトル及び第0の予測動きベクトルから決定される差分動きベクトルと、を含む第0の付加情報を生成する第0の動き情報推定手段と、前記動き情報記録手段に保存されている複数の動きベクトルから、対象領域との相関が高い第1の予測信号を生成する動きベクトルを選択し、選択した動きベクトルを第1の予測動きベクトルとして識別するための第1の予測動き情報インデックスを含む第1の付加情報を生成し、前記第1の予測動きベクトルを第1の動きベクトルに設定する第1の動き情報推定手段と、前記第0の予測信号と前記第1の予測信号とを合成して対象領域の予測信号を生成する予測信号合成手段と、を含み、前記第1の動き情報推定手段が、さらに、前記第1の予測信号を取得するための第2の動きベクトルを推定して、第2の動きベクトルを検出すると共に、推定した第2の動きベクトルと類似する第2の予測動きベクトルを前記動き情報記録手段に保存されている複数の動きベクトルから選択し、選択した前記第2の予測動きベクトルを識別するための第2の予測動き情報インデックスと、前記第2の動きベクトル及び前記第2の予測動きベクトルから決定される差分動きベクトルと、を含む第2の付加情報を生成し、前記予測信号生成手段は、前記画像記録手段に保存された複数の既再生画像が表示順ですべて符号化対象画像より過去の画像の場合には、前記第1の動きベクトルにて前記第1の予測信号を生成し、前記画像記録手段に保存された複数の既再生画像に表示順で符号化対象画像より未来の画像が含まれる場合には、前記第2の動きベクトルにて前記第1の予測信号を生成し、前記符号化手段は、前記画像記録手段に保存された複数の既再生画像が表示順ですべて符号化対象画像より過去の画像の場合には、画面あるいはスライス毎に、前記第1の付加情報が符号化されることを指示する指示情報を符号化し、前記画像記録手段に保存された複数の既再生画像に表示順で符号化対象画像より未来の画像が含まれる場合には、画面あるいはスライス毎に、前記第2の付加情報が符号化されることを指示する指示情報を符号化し、前記第0の付加情報と、前記指示情報に基づいて第1の付加情報あるいは第2の付加情報のいずれか一方とを各対象領域の付加情報として符号化する、ことを特徴とする。   A video predictive coding apparatus according to an aspect of the present invention includes: an area dividing unit that divides an input image into a plurality of areas; and a target area that is an encoding target among the areas divided by the area dividing unit. A prediction signal generating means for determining a motion vector for acquiring a signal having a high correlation from the already reproduced image; a motion information recording means for storing the motion vector; a prediction signal for the target area; and a pixel signal for the target area; A residual signal generating means for generating the residual signal, a residual signal compressing means for compressing the residual signal generated by the residual signal generating means, and a reproduction residual obtained by restoring the compressed data of the residual signal A residual signal restoring means for generating a signal, a predicted motion vector similar to the motion vector of the target area selected from the previously reproduced motion vectors stored in the motion information recording means, and the target area A pixel signal of the target region is obtained by adding an encoding unit that encodes additional information determined from a motion vector, compressed data of the residual signal, and the prediction signal and the reproduction residual signal. Image recording means for restoring and storing the restored pixel signal as the already-reproduced image, wherein the motion vector includes a zeroth motion vector required to generate a zeroth prediction signal, and a first prediction A first motion vector required for signal generation, and the predicted signal generation means estimates the 0th motion vector for obtaining the 0th predicted signal, and the estimated 0th motion vector A 0th prediction motion vector similar to a motion vector is selected from a plurality of motion vectors stored in the motion information recording means, and a 0th prediction motion vector for identifying the selected 0th prediction motion vector is selected. 0th motion information estimating means for generating 0th additional information including a motion information index and a differential motion vector determined from the 0th motion vector and the 0th predicted motion vector, and the motion information recording A motion vector for generating a first prediction signal having a high correlation with the target region is selected from a plurality of motion vectors stored in the means, and a first motion vector for identifying the selected motion vector as a first prediction motion vector is selected. 1st motion information estimation means which generates the 1st additional information containing 1 prediction motion information index, sets the 1st prediction motion vector to the 1st motion vector, the 0th prediction signal, Prediction signal synthesis means for synthesizing the first prediction signal and generating a prediction signal of the target region, wherein the first motion information estimation means further acquires the first prediction signal A second motion vector is estimated to detect the second motion vector, and a second predicted motion vector similar to the estimated second motion vector is stored in the motion information recording means A second motion vector selected from a plurality of motion vectors, a second motion vector predictor index for identifying the selected second motion vector predictor, and a difference determined from the second motion vector and the second motion vector predictor A second additional information including a motion vector, and the prediction signal generation unit includes a plurality of already-reproduced images stored in the image recording unit that are all past images in the display order from the encoding target image. Includes the first predicted signal using the first motion vector, and a plurality of already-reproduced images stored in the image recording means include future images in the display order from the encoding target image. The first motion prediction signal is generated using the second motion vector, and the encoding means includes a plurality of already reproduced images stored in the image recording means in the display order. In the case of an image older than the image, a plurality of already-reproduced images stored in the image recording means are encoded for each screen or slice, the instruction information indicating that the first additional information is encoded If a future image is included in the display order in the display order, the instruction information indicating that the second additional information is encoded is encoded for each screen or slice, and the 0th The additional information and either the first additional information or the second additional information are encoded as additional information of each target area based on the instruction information.

本発明の一側面に係る動画像予測復号装置は、複数の領域に分割して符号化された圧縮データの中から復号対象となる復号対象領域の付加情報と残差信号の圧縮データとを復号する復号手段と、前記付加情報から前記対象領域の予測信号の生成に要する動きベクトルを復元する動き情報復元手段と、前記動きベクトルを保存する動き情報記録手段と、前記動きベクトルに基づいて前記対象領域の予測信号を生成する動き補償手段と、前記残差信号の圧縮データから前記対象領域の再生残差信号を復元する残差信号復元手段と、前記予測信号と前記再生残差信号とを加算することによって前記復号対象領域の画素信号を復元し、復元された画素信号を既再生画像として保存する画像記録手段と、を具備し、前記復号手段は、第0の付加情報と第1の付加情報とを復号し、前記第0の付加情報は、第0の差分動きベクトルと、前記動き情報記録手段に格納されている複数の動きベクトルから選択された1つを第0の予測動きベクトルとして識別するための第0の予測動き情報インデックスと、を含み、前記第1の付加情報は、前記動き情報記録手段に格納されている複数の動きベクトルから選択された1つを第1の予測動きベクトルとして識別する第1の予測動き情報インデックスを含み、前記動き情報復元手段が、前記第0の予測動き情報インデックスに基づいて第0の予測動きベクトルを生成し、生成した第0の予測動きベクトルと前記第0の差分動きベクトルとを加算して第0の動きベクトルを復元する第0の動き情報復元手段と、前記第1の予測動き情報インデックスに基づいて第1の予測動きベクトルを生成し、生成した第1の予測動きベクトルを第1の動きベクトルとして復元する第1の動き情報復元手段と、を含み、前記動き補償手段は、前記第0の動きベクトルと第1の動きベクトルとに基づいて前記既再生画像から取得される2つの信号を合成して前記対象領域の予測信号を生成し、前記復号手段は、さらに、画面あるいはスライス毎に、前記第1の付加情報が差分動きベクトルを含むか否かを指示する指示情報を復号し、前記指示情報が、前記第1の付加情報が第1の差分動きベクトルを含むことを示す場合には、前記第1の付加情報として差分動きベクトルを復号し、前記第1の動き情報復元手段は、前記指示情報が、第1の付加情報が第1の差分動きベクトルを含まないことを示すときは、前記第1の予測動き情報インデックスに基づいて第1の予測動きベクトルを生成し、生成した第1の予測動きベクトルを第1の動きベクトルとして復元し、前記指示情報が、第1の付加情報が差分ベクトルを含むことを示すときは、前記第1の予測動き情報インデックスに基づいて第1の予測動きベクトルを生成し、生成した第1の予測動きベクトルと復号した差分動きベクトルとを加算して第1の動きベクトルを生成して復元することを特徴とする。   A moving picture predictive decoding apparatus according to an aspect of the present invention decodes additional information of a decoding target area to be decoded and compressed data of a residual signal from among compressed data divided and encoded into a plurality of areas. Decoding means for performing, motion information restoring means for restoring a motion vector required for generating a prediction signal of the target region from the additional information, motion information recording means for saving the motion vector, and the target based on the motion vector A motion compensation unit that generates a prediction signal of the region, a residual signal recovery unit that recovers the reproduction residual signal of the target region from the compressed data of the residual signal, and adds the prediction signal and the reproduction residual signal An image recording means for restoring the pixel signal of the decoding target area and storing the restored pixel signal as an already reproduced image, wherein the decoding means includes the 0th additional information and the first information. The 0th additional information is obtained by selecting one of the 0th differential motion vector and a plurality of motion vectors stored in the motion information recording means as the 0th predicted motion. A first predicted motion information index for identifying as a vector, wherein the first additional information is a first selected from a plurality of motion vectors stored in the motion information recording means. A first predicted motion information index that is identified as a predicted motion vector, wherein the motion information restoration unit generates a 0th predicted motion vector based on the 0th predicted motion information index, and the generated 0th prediction Based on the 0th motion information restoring means for restoring the 0th motion vector by adding a motion vector and the 0th differential motion vector, and the first predicted motion information index First motion information restoring means for generating a first predicted motion vector and restoring the generated first predicted motion vector as a first motion vector, wherein the motion compensation means includes the zeroth motion Based on the vector and the first motion vector, two signals acquired from the already-reproduced image are combined to generate a prediction signal of the target area, and the decoding unit further includes, for each screen or slice, the decoding unit When the instruction information indicating whether or not the first additional information includes a difference motion vector is decoded, and the instruction information indicates that the first additional information includes the first difference motion vector, When the differential motion vector is decoded as the first additional information, and the first motion information restoring means indicates that the instruction information indicates that the first additional information does not include the first differential motion vector, The first A first predicted motion vector is generated based on the predicted motion information index, the generated first predicted motion vector is restored as a first motion vector, and the indication information includes a difference vector in the first additional information. The first motion vector is generated based on the first motion vector predictor index, and the first motion vector generated and the decoded motion vector difference are added to generate the first motion vector. A vector is generated and restored.

本発明は、動画像予測符号化方法に係る発明、動画像予測復号方法に係る発明、動画像予測符号化プログラムに係る発明、動画像予測復号プログラムに係る発明として捉えることもでき、以下のように記述することができる。   The present invention can also be regarded as an invention related to a video predictive encoding method, an invention related to a video predictive decoding method, an invention related to a video predictive encoding program, an invention related to a video predictive decoding program, and is as follows. Can be described in

本発明の一側面に係る動画像予測符号化方法は、動画像予測符号化装置により実行される動画像予測符号化方法であって、入力画像を複数の領域に分割する領域分割ステップと、前記領域分割ステップにより分割された領域のうち、符号化対象である対象領域との相関が高い信号を既再生画像から取得するための動きベクトルを決定する予測信号生成ステップと、前記動きベクトルを動き情報記録手段に保存する動き情報記録ステップと、前記対象領域の予測信号と前記対象領域の画素信号との残差信号を生成する残差信号生成ステップと、前記残差信号生成ステップにより生成された残差信号を圧縮する残差信号圧縮ステップと、前記残差信号の圧縮データを復元した再生残差信号を生成する残差信号復元ステップと、前記動き情報記録手段に保存された既再生の動きベクトルから選択された前記対象領域の動きベクトルに類似する予測動きベクトルと、前記対象領域の動きベクトルから決定される付加情報と、前記残差信号の圧縮データと、を符号化する符号化ステップと、前記予測信号と前記再生残差信号とを加算することによって前記対象領域の画素信号を復元し、復元された画素信号を前記既再生画像として画像記録手段に保存する画像記録ステップと、を具備し、前記動きベクトルは、第0の予測信号の生成に要する第0の動きベクトルと、第1の予測信号の生成に要する第1の動きベクトルと、を含んでおり、前記予測信号生成ステップが、前記第0の予測信号を取得するための第0の動きベクトルを推定すると共に、推定した第0の動きベクトルと類似する第0の予測動きベクトルを前記動き情報記録手段に保存されている複数の動きベクトルから選択し、選択した前記第0の予測動きベクトルを識別するための第0の予測動き情報インデックスと、前記第0の動きベクトル及び第0の予測動きベクトルから決定される差分動きベクトルと、を含む第0の付加情報を生成する第0の動き情報推定ステップと、前記動き情報記録手段に保存されている複数の動きベクトルから、対象領域との相関が高い第1の予測信号を生成する動きベクトルを選択し、選択した動きベクトルを第1の予測動きベクトルとして識別するための第1の予測動き情報インデックスを含む第1の付加情報を生成し、前記第1の予測動きベクトルを第1の動きベクトルに設定する第1の動き情報推定ステップと、前記第0の予測信号と前記第1の予測信号とを合成して対象領域の予測信号を生成する予測信号合成ステップと、を含み、前記第1の動き情報推定ステップにおいて、前記動画像予測符号化装置は、さらに、前記第1の予測信号を取得するための第2の動きベクトルを推定して、第2の動きベクトルを検出すると共に、推定した第2の動きベクトルと類似する第2の予測動きベクトルを前記動き情報記録手段に保存されている複数の動きベクトルから選択し、選択した前記第2の予測動きベクトルを識別するための第2の予測動き情報インデックスと、前記第2の動きベクトル及び前記第2の予測動きベクトルから決定される差分動きベクトルと、を含む第2の付加情報を生成し、前記予測信号生成ステップにおいて、前記動画像予測符号化装置は、前記画像記録手段に保存された複数の既再生画像が表示順ですべて符号化対象画像より過去の画像の場合には、前記第1の動きベクトルにて前記第1の予測信号を生成し、前記画像記録手段に保存された複数の既再生画像に表示順で符号化対象画像より未来の画像が含まれる場合には、前記第2の動きベクトルにて前記第1の予測信号を生成し、前記符号化ステップにおいて、前記動画像予測符号化装置は、前記画像記録手段に保存された複数の既再生画像が表示順ですべて符号化対象画像より過去の画像の場合には、画面あるいはスライス毎に、前記第1の付加情報が符号化されることを指示する指示情報を符号化し、前記画像記録手段に保存された複数の既再生画像に表示順で符号化対象画像より未来の画像が含まれる場合には、画面あるいはスライス毎に、前記第2の付加情報が符号化されることを指示する指示情報を符号化し、前記第0の付加情報と、前記指示情報に基づいて第1の付加情報あるいは第2の付加情報のいずれか一方とを各対象領域の付加情報として符号化する、ことを特徴とする。   A video predictive encoding method according to an aspect of the present invention is a video predictive encoding method executed by a video predictive encoding device, and includes an area dividing step of dividing an input image into a plurality of areas, A prediction signal generating step for determining a motion vector for acquiring a signal having a high correlation with a target region to be encoded from regions already divided among the regions divided by the region dividing step; and the motion vector as motion information. A motion information recording step stored in a recording means; a residual signal generating step for generating a residual signal between the prediction signal of the target region and a pixel signal of the target region; and a residual signal generated by the residual signal generating step. A residual signal compressing step for compressing the difference signal, a residual signal restoring step for generating a reproduction residual signal obtained by restoring the compressed data of the residual signal, and the motion information recording unit. A predicted motion vector similar to the motion vector of the target region selected from the previously played motion vectors stored in the above, additional information determined from the motion vector of the target region, compressed data of the residual signal, A pixel signal of the target area is restored by adding the prediction signal and the reproduction residual signal, and the restored pixel signal is stored in the image recording unit as the already reproduced image. And the motion vector includes a 0th motion vector required for generating the 0th prediction signal and a first motion vector required for generating the 1st prediction signal. The prediction signal generation step estimates a zeroth motion vector for obtaining the zeroth prediction signal and is similar to the estimated zeroth motion vector. A measured motion vector is selected from a plurality of motion vectors stored in the motion information recording means, and a 0th predicted motion information index for identifying the selected 0th predicted motion vector, and the 0th motion A zeroth motion information estimating step for generating zeroth additional information including a vector and a differential motion vector determined from the zeroth predicted motion vector, and a plurality of motion vectors stored in the motion information recording means First, a motion vector that generates a first predicted signal having a high correlation with the target region is selected, and a first motion information index that includes a first predicted motion information index for identifying the selected motion vector as a first predicted motion vector is selected. A first motion information estimation step for generating the additional information and setting the first motion vector as the first motion vector, the 0th prediction signal, A prediction signal combining step of combining the first prediction signal and generating a prediction signal of the target region, and in the first motion information estimation step, the video predictive encoding device further includes: A second motion vector for obtaining a first prediction signal is estimated, a second motion vector is detected, and a second predicted motion vector similar to the estimated second motion vector is detected as the motion information. A second prediction motion information index selected from a plurality of motion vectors stored in the recording means and identifying the selected second prediction motion vector; the second motion vector and the second prediction; Second difference information including a difference motion vector determined from a motion vector is generated, and in the prediction signal generation step, the video predictive encoding device When the plurality of already-reproduced images stored in the stage are all images past the encoding target image in the display order, the first prediction signal is generated by the first motion vector, and the image recording means When a plurality of already-reproduced images stored in FIG. 4 include future images from the encoding target image in the display order, the first prediction signal is generated using the second motion vector, and the encoding step is performed. In the moving picture predictive encoding device, the plurality of already-reproduced images stored in the image recording means are all images older than the encoding target image in the display order, and each of the images or the slices In the case where instruction information for instructing that one additional information is encoded is encoded, and a plurality of previously reproduced images stored in the image recording means include future images in the display order from the encoding target image. , Screen or slice Each time, the instruction information for instructing that the second additional information is encoded is encoded, and the first additional information or the second additional information is determined based on the zeroth additional information and the instruction information. Either one is encoded as additional information of each target area.

本発明の一側面に係る動画像予測復号方法は、動画像予測復号装置により実行される動画像予測復号方法であって、複数の領域に分割して符号化された圧縮データの中から復号対象となる復号対象領域の付加情報と残差信号の圧縮データとを復号する復号ステップと、前記付加情報から前記対象領域の予測信号の生成に要する動きベクトルを復元する動き情報復元ステップと、前記動きベクトルを動き情報記録手段に保存する動き情報記録ステップと、前記動きベクトルに基づいて前記対象領域の予測信号を生成する動き補償ステップと、前記残差信号の圧縮データから前記対象領域の再生残差信号を復元する残差信号復元ステップと、前記予測信号と前記再生残差信号とを加算することによって前記復号対象領域の画素信号を復元し、復元された画素信号を既再生画像として保存する画像記録ステップと、を具備し、前記復号ステップにおいて、前記動画像予測復号装置は、第0の付加情報と第1の付加情報とを復号し、前記第0の付加情報は、第0の差分動きベクトルと、前記動き情報記録手段に格納されている複数の動きベクトルから選択された1つを第0の予測動きベクトルとして識別するための第0の予測動き情報インデックスと、を含み、前記第1の付加情報は、前記動き情報記録手段に格納されている複数の動きベクトルから選択された1つを第1の予測動きベクトルとして識別する第1の予測動き情報インデックスを含み、前記動き情報復元ステップが、前記第0の予測動き情報インデックスに基づいて第0の予測動きベクトルを生成し、生成した第0の予測動きベクトルと前記第0の差分動きベクトルとを加算して第0の動きベクトルを復元する第0の動き情報復元ステップと、前記第1の予測動き情報インデックスに基づいて第1の予測動きベクトルを生成し、生成した第1の予測動きベクトルを第1の動きベクトルとして復元する第1の動き情報復元ステップと、を含み、前記動き補償ステップにおいて、前記動画像予測復号装置は、前記第0の動きベクトルと第1の動きベクトルとに基づいて前記既再生画像から取得される2つの信号を合成して前記対象領域の予測信号を生成し、前記復号ステップにおいて、前記動画像予測復号装置は、さらに、画面あるいはスライス毎に、前記第1の付加情報が差分動きベクトルを含むか否かを指示する指示情報を復号し、前記指示情報が、前記第1の付加情報が第1の差分動きベクトルを含むことを示す場合には、前記動画像予測復号装置は、前記第1の付加情報として差分動きベクトルを復号し、前記第1の動き情報復元ステップにおいて、前記動画像予測復号装置は、前記指示情報が、第1の付加情報が第1の差分動きベクトルを含まないことを示すときは、前記第1の予測動き情報インデックスに基づいて第1の予測動きベクトルを生成し、生成した第1の予測動きベクトルを第1の動きベクトルとして復元し、前記指示情報が、第1の付加情報が差分ベクトルを含むことを示すときは、前記第1の予測動き情報インデックスに基づいて第1の予測動きベクトルを生成し、生成した第1の予測動きベクトルと復号した差分動きベクトルとを加算して第1の動きベクトルを生成して復元することを特徴とする。   A moving picture predictive decoding method according to an aspect of the present invention is a moving picture predictive decoding method executed by a moving picture predictive decoding apparatus, and is a decoding target from among compressed data encoded by being divided into a plurality of regions. A decoding step for decoding the additional information of the decoding target region and the compressed data of the residual signal, a motion information restoring step for restoring a motion vector required for generating a prediction signal of the target region from the additional information, and the motion A motion information recording step for storing a vector in a motion information recording means; a motion compensation step for generating a prediction signal for the target region based on the motion vector; and a reproduction residual for the target region from the compressed data of the residual signal A residual signal restoring step for restoring a signal, and restoring the pixel signal in the decoding target area by adding the prediction signal and the reproduction residual signal An image recording step for storing the pixel signal as a reproduced image, and in the decoding step, the moving image predictive decoding device decodes the 0th additional information and the first additional information, The 0th additional information includes a 0th differential motion vector and a 0th motion vector for identifying one selected from a plurality of motion vectors stored in the motion information recording means as a 0th predicted motion vector. A first motion information recording unit that identifies one selected from a plurality of motion vectors stored in the motion information recording means as a first motion vector predictor. A predicted motion information index, wherein the motion information restoration step generates a 0th predicted motion vector based on the 0th predicted motion information index, and the generated 0th predicted motion A 0th motion information restoring step for restoring the 0th motion vector by adding a vector and the 0th differential motion vector, and generating a first predicted motion vector based on the first predicted motion information index And a first motion information restoring step that restores the generated first predicted motion vector as a first motion vector. In the motion compensation step, the moving picture predictive decoding device includes the 0th motion Based on the vector and the first motion vector, two signals acquired from the already-reproduced image are combined to generate a prediction signal of the target region, and in the decoding step, the video predictive decoding device further includes For each screen or slice, the instruction information indicating whether or not the first additional information includes a differential motion vector is decoded, and the instruction information is the first additional information. When the report indicates that the first motion vector includes a first difference motion vector, the video predictive decoding device decodes the motion vector difference as the first additional information, and in the first motion information restoration step, When the instruction information indicates that the first additional information does not include the first differential motion vector, the moving picture predictive decoding device uses the first predicted motion vector based on the first predicted motion information index. And the generated first predicted motion vector is restored as a first motion vector, and when the instruction information indicates that the first additional information includes a difference vector, the first predicted motion information A first predicted motion vector is generated based on the index, and the generated first predicted motion vector and the decoded difference motion vector are added to generate and restore the first motion vector. The features.

本発明の一側面に係る動画像予測符号化プログラムは、コンピュータを、入力画像を複数の領域に分割する領域分割手段と、前記領域分割手段により分割された領域のうち、符号化対象である対象領域との相関が高い信号を既再生画像から取得するための動きベクトルを決定する予測信号生成手段と、前記動きベクトルを保存する動き情報記録手段と、前記対象領域の予測信号と前記対象領域の画素信号との残差信号を生成する残差信号生成手段と、前記残差信号生成手段により生成された残差信号を圧縮する残差信号圧縮手段と、前記残差信号の圧縮データを復元した再生残差信号を生成する残差信号復元手段と、前記動き情報記録手段に保存された既再生の動きベクトルから選択された前記対象領域の動きベクトルに類似する予測動きベクトルと、前記対象領域の動きベクトルから決定される付加情報と、前記残差信号の圧縮データと、を符号化する符号化手段と、前記予測信号と前記再生残差信号とを加算することによって前記対象領域の画素信号を復元し、復元された画素信号を前記既再生画像として保存する画像記録手段、として機能させるための動画像予測符号化プログラムであり、前記動きベクトルは、第0の予測信号の生成に要する第0の動きベクトルと、第1の予測信号の生成に要する第1の動きベクトルと、を含んでおり、前記予測信号生成手段が、前記第0の予測信号を取得するための第0の動きベクトルを推定すると共に、推定した第0の動きベクトルと類似する第0の予測動きベクトルを前記動き情報記録手段に保存されている複数の動きベクトルから選択し、選択した前記第0の予測動きベクトルを識別するための第0の予測動き情報インデックスと、前記第0の動きベクトル及び第0の予測動きベクトルから決定される差分動きベクトルと、を含む第0の付加情報を生成する第0の動き情報推定手段と、前記動き情報記録手段に保存されている複数の動きベクトルから、対象領域との相関が高い第1の予測信号を生成する動きベクトルを選択し、選択した動きベクトルを第1の予測動きベクトルとして識別するための第1の予測動き情報インデックスを含む第1の付加情報を生成し、前記第1の予測動きベクトルを第1の動きベクトルに設定する第1の動き情報推定手段と、前記第0の予測信号と前記第1の予測信号とを合成して対象領域の予測信号を生成する予測信号合成手段と、を含み、前記第1の動き情報推定手段が、さらに、前記第1の予測信号を取得するための第2の動きベクトルを推定して、第2の動きベクトルを検出すると共に、推定した第2の動きベクトルと類似する第2の予測動きベクトルを前記動き情報記録手段に保存されている複数の動きベクトルから選択し、選択した前記第2の予測動きベクトルを識別するための第2の予測動き情報インデックスと、前記第2の動きベクトル及び前記第2の予測動きベクトルから決定される差分動きベクトルと、を含む第2の付加情報を生成し、前記予測信号生成手段は、前記画像記録手段に保存された複数の既再生画像が表示順ですべて符号化対象画像より過去の画像の場合には、前記第1の動きベクトルにて前記第1の予測信号を生成し、前記画像記録手段に保存された複数の既再生画像に表示順で符号化対象画像より未来の画像が含まれる場合には、前記第2の動きベクトルにて前記第1の予測信号を生成し、前記符号化手段は、前記画像記録手段に保存された複数の既再生画像が表示順ですべて符号化対象画像より過去の画像の場合には、画面あるいはスライス毎に、前記第1の付加情報が符号化されることを指示する指示情報を符号化し、前記画像記録手段に保存された複数の既再生画像に表示順で符号化対象画像より未来の画像が含まれる場合には、画面あるいはスライス毎に、前記第2の付加情報が符号化されることを指示する指示情報を符号化し、前記第0の付加情報と、前記指示情報に基づいて第1の付加情報あるいは第2の付加情報のいずれか一方とを各対象領域の付加情報として符号化する、ことを特徴とする。   A moving image predictive encoding program according to an aspect of the present invention includes a region dividing unit that divides an input image into a plurality of regions, and a target that is an encoding target among regions divided by the region dividing unit. A prediction signal generating means for determining a motion vector for acquiring a signal having a high correlation with the area from the already reproduced image; a motion information recording means for storing the motion vector; a prediction signal for the target area; Residual signal generating means for generating a residual signal with the pixel signal, residual signal compressing means for compressing the residual signal generated by the residual signal generating means, and decompressed compressed data of the residual signal A residual signal restoring means for generating a reproduction residual signal; and a prediction motion vector similar to the motion vector of the target area selected from the already reproduced motion vectors stored in the motion information recording means. And the additional information determined from the motion vector of the target region and the compressed data of the residual signal, and the prediction signal and the reproduction residual signal are added together. A moving picture predictive encoding program for restoring a pixel signal of the target region and causing the restored pixel signal to function as an image recording unit that stores the restored pixel signal as the already-reproduced image, wherein the motion vector is a 0th prediction A 0th motion vector required for signal generation and a 1st motion vector required for generation of the first prediction signal, so that the prediction signal generation means acquires the 0th prediction signal. And a 0th predicted motion vector similar to the estimated 0th motion vector from a plurality of motion vectors stored in the motion information recording means. And a 0th motion vector information index for identifying the selected 0th motion vector predictor, and a differential motion vector determined from the 0th motion vector and the 0th motion vector predictor. A motion vector for generating a first prediction signal having a high correlation with a target region from a plurality of motion vectors stored in the motion information recording unit and a 0th motion information estimation unit that generates 0th additional information And generating first additional information including a first predicted motion information index for identifying the selected motion vector as a first predicted motion vector, and using the first predicted motion vector as a first motion First motion information estimation means for setting to a vector; and prediction signal synthesis means for synthesizing the 0th prediction signal and the first prediction signal to generate a prediction signal of the target region. The first motion information estimation means further estimates a second motion vector for obtaining the first prediction signal, detects a second motion vector, and estimates the second motion vector. A second predicted motion information index for selecting a second predicted motion vector similar to a vector from a plurality of motion vectors stored in the motion information recording means and identifying the selected second predicted motion vector And a second motion vector and a difference motion vector determined from the second motion vector predictor, and the predicted signal generating means is stored in the image recording means. When the plurality of already reproduced images are all images past the encoding target image in the display order, the first prediction signal is generated with the first motion vector and stored in the image recording means. When the plurality of already reproduced images include images that are future in the display order from the image to be encoded, the first prediction signal is generated using the second motion vector, and the encoding means includes: When the plurality of already reproduced images stored in the image recording means are all images past the encoding target image in the display order, the first additional information is encoded for each screen or slice. When the instruction information to be instructed is encoded, and a plurality of already reproduced images stored in the image recording means include future images in the display order from the image to be encoded, the second information is displayed for each screen or slice. The instruction information for instructing that the additional information is encoded is encoded, and each of the 0th additional information and either the first additional information or the second additional information based on the instruction information Code as additional information of area To, characterized in that.

本発明の一側面に係る動画像予測復号プログラムは、コンピュータを、複数の領域に分割して符号化された圧縮データの中から復号対象となる復号対象領域の付加情報と残差信号の圧縮データとを復号する復号手段と、前記付加情報から前記対象領域の予測信号の生成に要する動きベクトルを復元する動き情報復元手段と、前記動きベクトルを保存する動き情報記録手段と、前記動きベクトルに基づいて前記対象領域の予測信号を生成する動き補償手段と、前記残差信号の圧縮データから前記対象領域の再生残差信号を復元する残差信号復元手段と、前記予測信号と前記再生残差信号とを加算することによって前記復号対象領域の画素信号を復元し、復元された画素信号を既再生画像として保存する画像記録手段、として機能させるための動画像予測復号プログラムであり、前記復号手段は、第0の付加情報と第1の付加情報とを復号し、前記第0の付加情報は、第0の差分動きベクトルと、前記動き情報記録手段に格納されている複数の動きベクトルから選択された1つを第0の予測動きベクトルとして識別するための第0の予測動き情報インデックスと、を含み、前記第1の付加情報は、前記動き情報記録手段に格納されている複数の動きベクトルから選択された1つを第1の予測動きベクトルとして識別する第1の予測動き情報インデックスを含み、前記動き情報復元手段が、前記第0の予測動き情報インデックスに基づいて第0の予測動きベクトルを生成し、生成した第0の予測動きベクトルと前記第0の差分動きベクトルとを加算して第0の動きベクトルを復元する第0の動き情報復元手段と、前記第1の予測動き情報インデックスに基づいて第1の予測動きベクトルを生成し、生成した第1の予測動きベクトルを第1の動きベクトルとして復元する第1の動き情報復元手段と、を含み、前記動き補償手段は、前記第0の動きベクトルと第1の動きベクトルとに基づいて前記既再生画像から取得される2つの信号を合成して前記対象領域の予測信号を生成し、前記復号手段は、さらに、画面あるいはスライス毎に、前記第1の付加情報が差分動きベクトルを含むか否かを指示する指示情報を復号し、前記指示情報が、前記第1の付加情報が第1の差分動きベクトルを含むことを示す場合には、前記第1の付加情報として差分動きベクトルを復号し、前記第1の動き情報復元手段は、前記指示情報が、第1の付加情報が第1の差分動きベクトルを含まないことを示すときは、前記第1の予測動き情報インデックスに基づいて第1の予測動きベクトルを生成し、生成した第1の予測動きベクトルを第1の動きベクトルとして復元し、前記指示情報が、第1の付加情報が差分ベクトルを含むことを示すときは、前記第1の予測動き情報インデックスに基づいて第1の予測動きベクトルを生成し、生成した第1の予測動きベクトルと復号した差分動きベクトルとを加算して第1の動きベクトルを生成して復元することを特徴とする。   A moving picture predictive decoding program according to an aspect of the present invention provides a computer that divides a computer into a plurality of areas and encodes additional information of a decoding target area and compressed data of a residual signal among compressed data encoded. Based on the motion vector, a motion information restoration unit that restores a motion vector required to generate a prediction signal of the target region from the additional information, a motion information recording unit that saves the motion vector, and Motion compensation means for generating a prediction signal of the target area, residual signal restoration means for recovering a reproduction residual signal of the target area from the compressed data of the residual signal, the prediction signal and the reproduction residual signal To restore the pixel signal of the decoding target area and to store the restored pixel signal as an already reproduced image. An image predictive decoding program, wherein the decoding means decodes the 0th additional information and the first additional information, and the 0th additional information is stored in the 0th differential motion vector and the motion information recording means. A first predicted motion information index for identifying one selected from a plurality of stored motion vectors as a zeroth predicted motion vector, wherein the first additional information is the motion information record Including a first predicted motion information index for identifying one selected from a plurality of motion vectors stored in the means as a first predicted motion vector, wherein the motion information restoring means includes the zeroth predicted motion information. A 0th motion vector is generated based on the index, and the 0th motion vector is restored by adding the generated 0th motion vector and the 0th difference motion vector. A first motion information restoration unit that generates a first motion vector predictor based on the motion information restoration unit and the first motion vector predictor index, and that restores the generated first motion vector predictor as a first motion vector. And the motion compensation means synthesizes two signals acquired from the already reproduced image based on the 0th motion vector and the first motion vector to generate a prediction signal of the target region. And the decoding means further decodes instruction information indicating whether or not the first additional information includes a differential motion vector for each screen or slice, and the instruction information is converted into the first additional information. When the information indicates that the first differential motion vector is included, the differential motion vector is decoded as the first additional information, and the first motion information restoring means is configured to display the first additional information. Affection When the report indicates that the first difference motion vector is not included, a first prediction motion vector is generated based on the first prediction motion information index, and the generated first prediction motion vector is When the instruction information is restored as a motion vector and the instruction information indicates that the first additional information includes a difference vector, a first predicted motion vector is generated based on the first predicted motion information index The first motion vector is added to the decoded motion vector difference and the first motion vector is generated and restored.

別の態様として、動画像予測符号化装置は、入力画像を複数の領域に分割する領域分割手段と、前記領域分割手段により分割された領域のうち、符号化対象である対象領域との相関が高い信号を既再生画像から取得するための動きベクトルを決定する予測信号生成手段と、前記動きベクトルを保存する動き情報記録手段と、前記対象領域の予測信号と前記対象領域の画素信号との残差信号を生成する残差信号生成手段と、前記残差信号生成手段により生成された残差信号を圧縮する残差信号圧縮手段と、前記残差信号の圧縮データを復元した再生残差信号を生成する残差信号復元手段と、前記動き情報記録手段に保存された既再生の動きベクトルから選択された前記対象領域の動きベクトルに類似する予測動きベクトルと、前記対象領域の動きベクトルから決定される付加情報と、前記残差信号の圧縮データと、を符号化する符号化手段と、前記予測信号と前記再生残差信号とを加算することによって前記対象領域の画素信号を復元し、復元された画素信号を前記既再生画像として保存する画像記録手段と、を具備し、前記動きベクトルは、第0の予測信号の生成に要する第0の動きベクトルと、第1の予測信号の生成に要する第1の動きベクトルと、を含んでおり、前記予測信号生成手段が、前記第0の予測信号を取得するための第0の動きベクトルを推定すると共に、前記動き情報記録手段に保存されている複数の動きベクトルから選択される動きベクトルを用いて、前記推定した第0の動きベクトルと類似する第0の予測動きベクトルを生成し、生成した第0の予測動きベクトルを識別するための第0の予測動き情報インデックスと、前記第0の動きベクトル及び第0の予測動きベクトルから決定される差分動きベクトルと、を含む第0の付加情報を生成する第0の動き情報推定手段と、前記動き情報記録手段に保存されている複数の動きベクトルから選択される動きベクトルを用いて、対象領域との相関が高い第1の予測信号を生成する第1の予測動きベクトルを生成し、生成した第1の予測動きベクトルを識別するための第1の予測動き情報インデックスを含む第1の付加情報を生成し、前記第1の予測動きベクトルを第1の動きベクトルに設定する第1の動き情報推定手段と、前記第0の予測信号と前記第1の予測信号とを合成して対象領域の予測信号を生成する予測信号合成手段と、を含み、前記第1の動き情報推定手段が、さらに、前記第1の予測信号を取得するための第2の動きベクトルを推定して、第2の動きベクトルを検出すると共に、推定した第2の動きベクトルと類似する第2の予測動きベクトルを前記動き情報記録手段に保存されている複数の動きベクトルから選択し、選択した前記予測動きベクトルを識別するための第2の予測動き情報インデックスと、前記第2の動きベクトル及び前記第2の予測動きベクトルから決定される差分動きベクトルと、を含む第2の付加情報を生成し、前記予測信号生成手段は、前記画像記録手段に保存された複数の既再生画像が表示順ですべて符号化対象画像より過去の画像の場合には、前記第1の動きベクトルにて前記第1の予測信号を生成し、前記画像記録手段に保存された複数の既再生画像に表示順で符号化対象画像より未来の画像が含まれる場合には、前記第2の動きベクトルにて前記第1の予測信号を生成し、前記符号化手段は、前記画像記録手段に保存された複数の既再生画像が表示順ですべて符号化対象画像より過去の画像の場合には、画面あるいはスライス毎に、前記第1の付加情報が符号化されることを指示する指示情報を符号化し、前記画像記録手段に保存された複数の既再生画像に表示順で符号化対象画像より未来の画像が含まれる場合には、画面あるいはスライス毎に、前記第2の付加情報が符号化されることを指示する指示情報を符号化し、前記第0の付加情報と、前記指示情報に基づいて第1の付加情報あるいは第2の付加情報のいずれか一方とを各対象領域の付加情報として符号化してもよい。   As another aspect, the video predictive coding apparatus has a correlation between a region dividing unit that divides an input image into a plurality of regions and a target region that is an encoding target among regions divided by the region dividing unit. A prediction signal generating means for determining a motion vector for acquiring a high signal from the already reproduced image; a motion information recording means for storing the motion vector; a residual signal of the prediction signal of the target area and the pixel signal of the target area; A residual signal generating means for generating a difference signal; a residual signal compressing means for compressing the residual signal generated by the residual signal generating means; and a reproduced residual signal obtained by restoring compressed data of the residual signal. A generated residual signal, a predicted motion vector similar to the motion vector of the target region selected from the previously reproduced motion vectors stored in the motion information recording unit, and a motion of the target region Reconstructing the pixel signal of the target area by adding the additional information determined from the vector, the encoding means for encoding the compressed data of the residual signal, and adding the prediction signal and the reproduction residual signal And an image recording means for storing the restored pixel signal as the already-reproduced image, wherein the motion vector includes a zeroth motion vector required for generating a zeroth prediction signal, and a first prediction signal. A first motion vector required for generating the first motion vector, and the prediction signal generation means estimates a zeroth motion vector for obtaining the zeroth prediction signal, and the motion information recording means Using a motion vector selected from a plurality of stored motion vectors, a 0th predicted motion vector similar to the estimated 0th motion vector is generated, and the generated 0th predicted motion vector is generated. 0th motion information for generating 0th additional information including a 0th predicted motion information index for identifying the first motion vector and a differential motion vector determined from the 0th motion vector and the 0th predicted motion vector A first prediction motion that generates a first prediction signal having a high correlation with a target region, using a motion information estimation unit and a motion vector selected from a plurality of motion vectors stored in the motion information recording unit; Generating a vector, generating first additional information including a first predicted motion information index for identifying the generated first predicted motion vector, and making the first predicted motion vector a first motion vector First motion information estimation means for setting, and prediction signal synthesis means for synthesizing the 0th prediction signal and the first prediction signal to generate a prediction signal of the target region, and Movement The information estimation means further estimates a second motion vector for obtaining the first prediction signal, detects a second motion vector, and secondly resembles the estimated second motion vector. Selected from a plurality of motion vectors stored in the motion information recording means, a second predicted motion information index for identifying the selected predicted motion vector, the second motion vector, Generating second additional information including a differential motion vector determined from the second predicted motion vector, and the predicted signal generating means includes a plurality of already reproduced images stored in the image recording means in display order. In the case where all the images are past the encoding target image, the first prediction signal is generated using the first motion vector, and a plurality of already reproduced images stored in the image recording means are stored. When a future image is included in the display order from the encoding target image, the first prediction signal is generated by the second motion vector, and the encoding unit is stored in the image recording unit In the case where all of the plurality of already reproduced images are images past the encoding target image in the display order, the instruction information indicating that the first additional information is encoded is encoded for each screen or slice, When a plurality of previously reproduced images stored in the image recording means include images of the future from the encoding target image in the display order, the second additional information is encoded for each screen or slice. And encoding the 0th additional information and either the first additional information or the second additional information based on the instruction information as additional information of each target area. Also good.

なお、上記の符号化手段は、前記指示情報を画面あるいはスライスのヘッダに含めて符号化してもよい。   The encoding means may encode the instruction information by including it in a screen or slice header.

別の態様として、動画像予測復号装置は、複数の領域に分割して符号化された圧縮データの中から復号対象となる復号対象領域の付加情報と残差信号の圧縮データとを復号する復号手段と、前記付加情報から前記対象領域の予測信号の生成に要する動きベクトルを復元する動き情報復元手段と、前記動きベクトルを保存する動き情報記録手段と、前記動きベクトルに基づいて前記対象領域の予測信号を生成する動き補償手段と、前記残差信号の圧縮データから前記対象領域の再生残差信号を復元する残差信号復元手段と、前記予測信号と前記再生残差信号とを加算することによって前記復号対象領域の画素信号を復元し、復元された画素信号を既再生画像として保存する画像記録手段と、を具備し、前記復号手段は、第0の付加情報と第1の付加情報とを復号し、前記第0の付加情報は、第0の差分動きベクトルと、前記動き情報記録手段に格納されている複数の動きベクトルから選択された1つを第0の予測動きベクトルとして識別するための第0の予測動き情報インデックスと、を含み、前記第1の付加情報は、前記動き情報記録手段に格納されている複数の動きベクトルから選択された1つを第1の予測動きベクトルとして識別する第1の予測動き情報インデックスを含み、前記動き情報復元手段が、前記第0の予測動き情報インデックスに基づいて前記動き情報記録手段に格納されている複数の動きベクトルから選択される動きベクトルを用いて第0の予測動きベクトルを生成し、生成した第0の予測動きベクトルと前記第0の差分動きベクトルとを加算して第0の動きベクトルを復元する第0の動き情報復元手段と、前記第1の予測動き情報インデックスに基づいて前記動き情報記録手段に格納されている複数の動きベクトルから選択される動きベクトルを用いて第1の予測動きベクトルを生成し、生成した第1の予測動きベクトルを第1の動きベクトルとして復元する第1の動き情報復元手段と、を含み、前記動き補償手段は、前記第0の動きベクトルと第1の動きベクトルとに基づいて前記既再生画像からそれぞれ取得される2つの信号を合成して前記対象領域の予測信号を生成し、前記復号手段は、さらに、画面あるいはスライス毎に、前記第1の付加情報が差分動きベクトルを含むか否かを指示する指示情報を復号し、前記指示情報が、前記第1の付加情報が第1の差分動きベクトルを含まないことを示す場合には、前記第1の付加情報として第1の予測動き情報インデックスを復号し、前記指示情報が、前記第1の付加情報が第1の差分動きベクトルを含むことを示す場合には、前記第1の付加情報として差分動きベクトルと第1の予測動き情報インデックスとを復号し、前記第1の動き情報復元手段は、前記指示情報が、第1の付加情報が第1の差分動きベクトルを含まないことを示すときは、前記第1の予測動き情報インデックスに基づいて前記動き情報記録手段に格納されている複数の動きベクトルから選択される動きベクトルを用いて第1の予測動きベクトルを生成し、生成した第1の予測動きベクトルを第1の動きベクトルとして復元し、前記指示情報が、第1の付加情報が第1の差分ベクトルを含むことを示すときは、前記第1の予測動き情報インデックスに基づいて第1の予測動きベクトルを生成し、生成した第1の予測動きベクトルと復号した差分動きベクトルとを加算して第1の動きベクトルを復元してもよい。   As another aspect, the moving picture predictive decoding apparatus decodes the additional information of the decoding target area to be decoded and the compressed data of the residual signal from the compressed data divided and encoded into a plurality of areas. Means, motion information restoration means for restoring a motion vector required for generating a prediction signal of the target area from the additional information, motion information recording means for saving the motion vector, and the target area based on the motion vector Adding a motion compensation means for generating a prediction signal, a residual signal restoration means for restoring the reproduction residual signal of the target area from the compressed data of the residual signal, and adding the prediction signal and the reproduction residual signal. And an image recording unit that restores the pixel signal of the decoding target area and stores the restored pixel signal as an already reproduced image, wherein the decoding unit includes the zeroth additional information and the first information Additional information is decoded, and the 0th additional information is a 0th predicted motion vector obtained by selecting one of a 0th differential motion vector and a plurality of motion vectors stored in the motion information recording means. A first predicted motion information index for identifying the first additional information as one selected from a plurality of motion vectors stored in the motion information recording means. Including a first predicted motion information index to be identified as a motion vector, wherein the motion information restoring means is selected from a plurality of motion vectors stored in the motion information recording means based on the zeroth predicted motion information index The motion vector is used to generate a 0th motion vector predictor and the 0th motion vector predictor and the 0th motion vector difference are added to generate a motion vector 0th. Using a motion vector selected from a plurality of motion vectors stored in the motion information recording unit based on the first predicted motion information index, First motion information restoring means for generating a predicted motion vector and restoring the generated first predicted motion vector as a first motion vector, wherein the motion compensation means includes the zeroth motion vector and the first motion vector. A prediction signal for the target region is generated by combining two signals respectively obtained from the already-reproduced image based on one motion vector, and the decoding means further includes the first signal for each screen or slice. The instruction information indicating whether or not the additional information includes a difference motion vector is decoded, and the instruction information indicates that the first additional information does not include the first difference motion vector. If the first predicted motion information index is decoded as the first additional information, and the indication information indicates that the first additional information includes a first differential motion vector, As the first additional information, a differential motion vector and a first predicted motion information index are decoded, and the first motion information restoring means includes the instruction information and the first additional information as the first differential motion vector. Is included, the first predicted motion vector is determined using a motion vector selected from a plurality of motion vectors stored in the motion information recording unit based on the first predicted motion information index. When the generated first predicted motion vector is restored as the first motion vector and the instruction information indicates that the first additional information includes the first difference vector, the first motion vector is generated. Predicted motion information index first generates a predicted motion vector based on the first and the prediction motion vector and differential motion vector decoding may restore the first motion vector and adds generated.

なお、上記の復号手段は、画面あるいはスライスのヘッダに含まれる前記指示情報を復号してもよい。   The decoding means may decode the instruction information included in the screen or slice header.

別の態様として、動画像予測符号化方法は、動画像予測符号化装置により実行される動画像予測符号化方法であって、入力画像を複数の領域に分割する領域分割ステップと、前記領域分割ステップにより分割された領域のうち、符号化対象である対象領域との相関が高い信号を既再生画像から取得するための動きベクトルを決定する予測信号生成ステップと、前記動きベクトルを動き情報記録手段に保存する動き情報記録ステップと、前記対象領域の予測信号と前記対象領域の画素信号との残差信号を生成する残差信号生成ステップと、前記残差信号生成ステップにより生成された残差信号を圧縮する残差信号圧縮ステップと、前記残差信号の圧縮データを復元した再生残差信号を生成する残差信号復元ステップと、前記動き情報記録手段に保存された既再生の動きベクトルから選択された前記対象領域の動きベクトルに類似する予測動きベクトルと、前記対象領域の動きベクトルから決定される付加情報と、前記残差信号の圧縮データと、を符号化する符号化ステップと、前記予測信号と前記再生残差信号とを加算することによって前記対象領域の画素信号を復元し、復元された画素信号を前記既再生画像として画像記録手段に保存する画像記録ステップと、を具備し、前記動きベクトルは、第0の予測信号の生成に要する第0の動きベクトルと、第1の予測信号の生成に要する第1の動きベクトルと、を含んでおり、前記予測信号生成ステップが、前記第0の予測信号を取得するための第0の動きベクトルを推定すると共に、前記動き情報記録手段に保存されている複数の動きベクトルから選択される動きベクトルを用いて、前記推定した第0の動きベクトルと類似する第0の予測動きベクトルを生成し、生成した第0の予測動きベクトルを識別するための第0の予測動き情報インデックスと、前記第0の動きベクトル及び第0の予測動きベクトルから決定される差分動きベクトルと、を含む第0の付加情報を生成する第0の動き情報推定ステップと、前記動き情報記録手段に保存されている複数の動きベクトルから選択される動きベクトルを用いて、対象領域との相関が高い第1の予測信号を生成する第1の予測動きベクトルを生成し、生成した第1の予測動きベクトルを識別するための第1の予測動き情報インデックスを含む第1の付加情報を生成し、前記第1の予測動きベクトルを第1の動きベクトルに設定する第1の動き情報推定ステップと、前記第0の予測信号と前記第1の予測信号とを合成して対象領域の予測信号を生成する予測信号合成ステップと、を含み、前記第1の動き情報推定ステップにおいて、前記動画像予測符号化装置は、さらに、前記第1の予測信号を取得するための第2の動きベクトルを推定して、第2の動きベクトルを検出すると共に、推定した第2の動きベクトルと類似する第2の予測動きベクトルを前記動き情報記録手段に保存されている複数の動きベクトルから選択し、選択した前記予測動きベクトルを識別するための第2の予測動き情報インデックスと、前記第2の動きベクトル及び前記第2の予測動きベクトルから決定される差分動きベクトルと、を含む第2の付加情報を生成し、前記予測信号生成ステップにおいて、前記動画像予測符号化装置は、前記画像記録手段に保存された複数の既再生画像が表示順ですべて符号化対象画像より過去の画像の場合には、前記第1の動きベクトルにて前記第1の予測信号を生成し、前記画像記録手段に保存された複数の既再生画像に表示順で符号化対象画像より未来の画像が含まれる場合には、前記第2の動きベクトルにて前記第1の予測信号を生成し、前記符号化ステップにおいて、前記動画像予測符号化装置は、前記画像記録手段に保存された複数の既再生画像が表示順ですべて符号化対象画像より過去の画像の場合には、画面あるいはスライス毎に、前記第1の付加情報が符号化されることを指示する指示情報を符号化し、前記画像記録手段に保存された複数の既再生画像に表示順で符号化対象画像より未来の画像が含まれる場合には、画面あるいはスライス毎に、前記第2の付加情報が符号化されることを指示する指示情報を符号化し、前記第0の付加情報と、前記指示情報に基づいて第1の付加情報あるいは第2の付加情報のいずれか一方とを各対象領域の付加情報として符号化してもよい。   As another aspect, the video predictive encoding method is a video predictive encoding method executed by a video predictive encoding device, and includes an area dividing step of dividing an input image into a plurality of areas, and the area dividing A prediction signal generating step for determining a motion vector for acquiring a signal having a high correlation with the target region to be encoded among the regions divided by the step from the already reproduced image; and the motion vector as motion information recording means. A motion information recording step, a residual signal generation step for generating a residual signal between the prediction signal of the target region and a pixel signal of the target region, and a residual signal generated by the residual signal generation step A residual signal compression step for compressing the residual signal, a residual signal restoration step for producing a reproduction residual signal obtained by restoring the compressed data of the residual signal, and the motion information recording means A predicted motion vector similar to the motion vector of the target region selected from the existing reproduced motion vectors, additional information determined from the motion vector of the target region, and compressed data of the residual signal. An encoding step for encoding, the pixel signal of the target area is restored by adding the prediction signal and the reproduction residual signal, and the restored pixel signal is stored in the image recording unit as the already reproduced image An image recording step, wherein the motion vector includes a zeroth motion vector required for generating a zeroth prediction signal and a first motion vector required for generating a first prediction signal. The prediction signal generation step estimates a zeroth motion vector for obtaining the zeroth prediction signal, and a plurality of motions stored in the motion information recording means A 0th predicted motion for generating a 0th predicted motion vector similar to the estimated 0th motion vector using a motion vector selected from the vector and identifying the generated 0th predicted motion vector A zeroth motion information estimating step for generating zeroth additional information including an information index and a differential motion vector determined from the zeroth motion vector and the zeroth predicted motion vector; and the motion information recording means A first prediction motion vector that generates a first prediction signal having a high correlation with the target region is generated using a motion vector selected from a plurality of motion vectors stored in the first prediction, and the generated first prediction First additional information including a first predicted motion information index for identifying a motion vector is generated, and the first predicted motion vector is set as the first motion vector. A first motion information estimation step; and a prediction signal synthesis step of synthesizing the 0th prediction signal and the first prediction signal to generate a prediction signal of a target region, and the first motion information In the estimation step, the video predictive coding apparatus further estimates a second motion vector for acquiring the first prediction signal, detects a second motion vector, and estimates the second motion vector. A second prediction motion vector similar to the motion vector of the second motion vector is selected from a plurality of motion vectors stored in the motion information recording means, and a second prediction motion information index for identifying the selected prediction motion vector; Generating second additional information including the second motion vector and a differential motion vector determined from the second predicted motion vector, and performing the predicted signal generation step The moving image predictive encoding device uses the first motion vector when the plurality of already-reproduced images stored in the image recording means are all images past the encoding target image in the display order. When a first prediction signal is generated, and a plurality of previously reproduced images stored in the image recording means include images that are future in the display order from the image to be encoded, the second motion vector A first prediction signal is generated, and in the encoding step, the moving image predictive encoding device includes a plurality of already-reproduced images stored in the image recording unit that are all past images to be encoded in display order. In this case, for each screen or slice, the instruction information for instructing that the first additional information is encoded is encoded, and the plurality of already reproduced images stored in the image recording means are encoded in the display order. Future than images to be converted When an image is included, the instruction information for instructing that the second additional information is encoded is encoded for each screen or slice, and the second additional information is encoded based on the zeroth additional information and the instruction information. Either one additional information or second additional information may be encoded as additional information of each target region.

なお、上記の符号化ステップにおいて、前記動画像予測符号化装置は、前記指示情報を画面あるいはスライスのヘッダに含めて符号化してもよい。   In the encoding step, the video predictive encoding device may encode the instruction information by including the instruction information in a header of a screen or a slice.

別の態様として、動画像予測復号方法は、動画像予測復号装置により実行される動画像予測復号方法であって、複数の領域に分割して符号化された圧縮データの中から復号対象となる復号対象領域の付加情報と残差信号の圧縮データとを復号する復号ステップと、前記付加情報から前記対象領域の予測信号の生成に要する動きベクトルを復元する動き情報復元ステップと、前記動きベクトルを動き情報記録手段に保存する動き情報記録ステップと、前記動きベクトルに基づいて前記対象領域の予測信号を生成する動き補償ステップと、前記残差信号の圧縮データから前記対象領域の再生残差信号を復元する残差信号復元ステップと、前記予測信号と前記再生残差信号とを加算することによって前記復号対象領域の画素信号を復元し、復元された画素信号を既再生画像として保存する画像記録ステップと、を具備し、前記復号ステップにおいて、前記動画像予測復号装置は、第0の付加情報と第1の付加情報とを復号し、前記第0の付加情報は、第0の差分動きベクトルと、前記動き情報記録手段に格納されている複数の動きベクトルから選択された1つを第0の予測動きベクトルとして識別するための第0の予測動き情報インデックスと、を含み、前記第1の付加情報は、前記動き情報記録手段に格納されている複数の動きベクトルから選択された1つを第1の予測動きベクトルとして識別する第1の予測動き情報インデックスを含み、前記動き情報復元ステップが、前記第0の予測動き情報インデックスに基づいて前記動き情報記録手段に格納されている複数の動きベクトルから選択される動きベクトルを用いて第0の予測動きベクトルを生成し、生成した第0の予測動きベクトルと前記第0の差分動きベクトルとを加算して第0の動きベクトルを復元する第0の動き情報復元ステップと、前記第1の予測動き情報インデックスに基づいて前記動き情報記録手段に格納されている複数の動きベクトルから選択される動きベクトルを用いて第1の予測動きベクトルを生成し、生成した第1の予測動きベクトルを第1の動きベクトルとして復元する第1の動き情報復元ステップと、を含み、前記動き補償ステップにおいて、前記動画像予測復号装置は、前記第0の動きベクトルと第1の動きベクトルとに基づいて前記既再生画像からそれぞれ取得される2つの信号を合成して前記対象領域の予測信号を生成し、前記復号ステップにおいて、前記動画像予測復号装置は、さらに、画面あるいはスライス毎に、前記第1の付加情報が差分動きベクトルを含むか否かを指示する指示情報を復号し、前記指示情報が、前記第1の付加情報が第1の差分動きベクトルを含まないことを示す場合には、前記動画像予測復号装置は、前記第1の付加情報として第1の予測動き情報インデックスを復号し、前記指示情報が、前記第1の付加情報が第1の差分動きベクトルを含むことを示す場合には、前記動画像予測復号装置は、前記第1の付加情報として差分動きベクトルと第1の予測動き情報インデックスとを復号し、前記第1の動き情報復元ステップにおいて、前記動画像予測復号装置は、前記指示情報が、第1の付加情報が第1の差分動きベクトルを含まないことを示すときは、前記第1の予測動き情報インデックスに基づいて前記動き情報記録手段に格納されている複数の動きベクトルから選択される動きベクトルを用いて第1の予測動きベクトルを生成し、生成した第1の予測動きベクトルを第1の動きベクトルとして復元し、前記指示情報が、第1の付加情報が第1の差分ベクトルを含むことを示すときは、前記第1の予測動き情報インデックスに基づいて第1の予測動きベクトルを生成し、生成した第1の予測動きベクトルと復号した差分動きベクトルとを加算して第1の動きベクトルを復元してもよい。   As another aspect, the video predictive decoding method is a video predictive decoding method executed by a video predictive decoding device, and is a decoding target from compressed data divided and encoded into a plurality of regions. A decoding step of decoding additional information of a decoding target region and compressed data of a residual signal, a motion information restoring step of restoring a motion vector required for generating a prediction signal of the target region from the additional information, and the motion vector A motion information recording step for storing in a motion information recording means; a motion compensation step for generating a prediction signal for the target region based on the motion vector; and a reproduction residual signal for the target region from the compressed data of the residual signal. A residual signal restoration step to restore, and a pixel signal in the decoding target area is restored by adding the prediction signal and the reproduction residual signal, and restored. An image recording step for storing the pixel signal as a reproduced image, and in the decoding step, the video predictive decoding device decodes the 0th additional information and the first additional information, and the 0th The additional information is the 0th motion vector for identifying the 0th differential motion vector and one selected from a plurality of motion vectors stored in the motion information recording means as the 0th motion vector predictor. A first predicted motion that identifies one selected from a plurality of motion vectors stored in the motion information recording means as a first predicted motion vector. The motion information restoring step includes a plurality of motion vectors stored in the motion information recording means based on the 0th predicted motion information index. The 0th motion vector is generated using the selected motion vector, and the 0th motion vector is restored by adding the generated 0th motion vector predictor and the 0th difference motion vector. Generating a first predicted motion vector using a motion vector selected from a plurality of motion vectors stored in the motion information recording unit based on the first predicted motion information index, and a motion information restoring step; A first motion information restoring step for restoring the generated first predicted motion vector as a first motion vector, and in the motion compensation step, the moving picture predictive decoding device includes the zeroth motion vector and Based on the first motion vector, two signals respectively obtained from the already reproduced image are combined to generate a prediction signal of the target region, and the decoding step The video predictive decoding apparatus further decodes instruction information indicating whether or not the first additional information includes a difference motion vector for each screen or slice, and the instruction information includes the first information When the one additional information indicates that the first difference motion vector is not included, the video predictive decoding apparatus decodes the first predicted motion information index as the first additional information, and the instruction information If the first additional information indicates that the first differential motion vector is included, the moving picture predictive decoding apparatus uses the differential motion vector and the first predicted motion information index as the first additional information. And in the first motion information restoration step, the video predictive decoding device, when the instruction information indicates that the first additional information does not include the first differential motion vector A first predicted motion vector is generated using a motion vector selected from a plurality of motion vectors stored in the motion information recording unit based on the first predicted motion information index, and the generated first prediction When the motion vector is restored as the first motion vector and the indication information indicates that the first additional information includes the first difference vector, the first motion vector is based on the first predicted motion information index. A predicted motion vector may be generated, and the generated first predicted motion vector and the decoded difference motion vector may be added to restore the first motion vector.

なお、上記の復号ステップにおいて、前記動画像予測復号装置は、画面あるいはスライスのヘッダに含まれる前記指示情報を復号してもよい。   In the decoding step, the video predictive decoding apparatus may decode the instruction information included in a screen or slice header.

別の態様として、動画像予測符号化プログラムは、コンピュータを、入力画像を複数の領域に分割する領域分割手段と、前記領域分割手段により分割された領域のうち、符号化対象である対象領域との相関が高い信号を既再生画像から取得するための動きベクトルを決定する予測信号生成手段と、前記動きベクトルを保存する動き情報記録手段と、前記対象領域の予測信号と前記対象領域の画素信号との残差信号を生成する残差信号生成手段と、前記残差信号生成手段により生成された残差信号を圧縮する残差信号圧縮手段と、前記残差信号の圧縮データを復元した再生残差信号を生成する残差信号復元手段と、前記動き情報記録手段に保存された既再生の動きベクトルから選択された前記対象領域の動きベクトルに類似する予測動きベクトルと、前記対象領域の動きベクトルから決定される付加情報と、前記残差信号の圧縮データと、を符号化する符号化手段と、前記予測信号と前記再生残差信号とを加算することによって前記対象領域の画素信号を復元し、復元された画素信号を前記既再生画像として保存する画像記録手段、として機能させるための動画像予測符号化プログラムであり、前記動きベクトルは、第0の予測信号の生成に要する第0の動きベクトルと、第1の予測信号の生成に要する第1の動きベクトルと、を含んでおり、前記予測信号生成手段が、前記第0の予測信号を取得するための第0の動きベクトルを推定すると共に、前記動き情報記録手段に保存されている複数の動きベクトルから選択される動きベクトルを用いて、前記推定した第0の動きベクトルと類似する第0の予測動きベクトルを生成し、生成した第0の予測動きベクトルを識別するための第0の予測動き情報インデックスと、前記第0の動きベクトル及び第0の予測動きベクトルから決定される差分動きベクトルと、を含む第0の付加情報を生成する第0の動き情報推定手段と、前記動き情報記録手段に保存されている複数の動きベクトルから選択される動きベクトルを用いて、対象領域との相関が高い第1の予測信号を生成する第1の予測動きベクトルを生成し、生成した第1の予測動きベクトルを識別するための第1の予測動き情報インデックスを含む第1の付加情報を生成し、前記第1の予測動きベクトルを第1の動きベクトルに設定する第1の動き情報推定手段と、前記第0の予測信号と前記第1の予測信号とを合成して対象領域の予測信号を生成する予測信号合成手段と、を含み、前記第1の動き情報推定手段が、さらに、前記第1の予測信号を取得するための第2の動きベクトルを推定して、第2の動きベクトルを検出すると共に、推定した第2の動きベクトルと類似する第2の予測動きベクトルを前記動き情報記録手段に保存されている複数の動きベクトルから選択し、選択した前記予測動きベクトルを識別するための第2の予測動き情報インデックスと、前記第2の動きベクトル及び前記第2の予測動きベクトルから決定される差分動きベクトルと、を含む第2の付加情報を生成し、前記予測信号生成手段は、前記画像記録手段に保存された複数の既再生画像が表示順ですべて符号化対象画像より過去の画像の場合には、前記第1の動きベクトルにて前記第1の予測信号を生成し、前記画像記録手段に保存された複数の既再生画像に表示順で符号化対象画像より未来の画像が含まれる場合には、前記第2の動きベクトルにて前記第1の予測信号を生成し、前記符号化手段は、前記画像記録手段に保存された複数の既再生画像が表示順ですべて符号化対象画像より過去の画像の場合には、画面あるいはスライス毎に、前記第1の付加情報が符号化されることを指示する指示情報を符号化し、前記画像記録手段に保存された複数の既再生画像に表示順で符号化対象画像より未来の画像が含まれる場合には、画面あるいはスライス毎に、前記第2の付加情報が符号化されることを指示する指示情報を符号化し、前記第0の付加情報と、前記指示情報に基づいて第1の付加情報あるいは第2の付加情報のいずれか一方とを各対象領域の付加情報として符号化してもよい。   As another aspect, the moving image predictive encoding program includes: a region dividing unit that divides an input image into a plurality of regions; and a target region that is an encoding target among regions divided by the region dividing unit. A prediction signal generating means for determining a motion vector for acquiring a signal having a high correlation from the already reproduced image, a motion information recording means for storing the motion vector, a prediction signal for the target area, and a pixel signal for the target area A residual signal generating means for generating a residual signal, a residual signal compressing means for compressing the residual signal generated by the residual signal generating means, and a reproduction residual obtained by decompressing the compressed data of the residual signal. A residual signal restoring means for generating a difference signal, and a predicted motion vector similar to the motion vector of the target area selected from the previously reproduced motion vectors stored in the motion information recording means Adding the additional information determined from the motion vector of the target region and the compressed data of the residual signal, and adding the prediction signal and the reproduction residual signal A moving picture predictive encoding program for causing a pixel signal of a target region to be restored and functioning as an image recording unit that stores the restored pixel signal as the already-reproduced image, wherein the motion vector is a 0th prediction signal A first motion vector required for generating the first motion vector and a first motion vector required for generating the first prediction signal, the prediction signal generating means for acquiring the zeroth prediction signal Estimating the 0th motion vector and using the motion vector selected from a plurality of motion vectors stored in the motion information recording means; A similar 0th predicted motion vector is generated, and is determined from the 0th predicted motion information index for identifying the generated 0th predicted motion vector, and the 0th motion vector and the 0th predicted motion vector. Using a motion vector selected from a plurality of motion vectors stored in the motion information recording means, a 0th motion information estimating means for generating 0th additional information including a difference motion vector A first addition including a first predicted motion information index for generating a first predicted motion vector that generates a first predicted signal having a high correlation with a region and identifying the generated first predicted motion vector A first motion information estimating means for generating information and setting the first motion vector as the first motion vector; and combining the 0th prediction signal and the first prediction signal Prediction signal synthesis means for generating a prediction signal of the region, wherein the first motion information estimation means further estimates a second motion vector for obtaining the first prediction signal, and 2 motion vectors are detected, a second predicted motion vector similar to the estimated second motion vector is selected from a plurality of motion vectors stored in the motion information recording means, and the selected predicted motion vector is selected Generating second additional information including a second predicted motion information index for identifying the second motion vector and a differential motion vector determined from the second motion vector and the second predicted motion vector, and When the plurality of already-reproduced images stored in the image recording unit are all images past the encoding target image in the display order, the signal generating unit uses the first motion vector as the first motion vector. When a plurality of already-reproduced images stored in the image recording means include a future image in the display order from the encoding target image, the first motion vector is used as the first motion vector. In the case where the plurality of already-reproduced images stored in the image recording unit are all images past the encoding target image in the display order, for each screen or slice, When instruction information for instructing that the first additional information is encoded is encoded, and a plurality of already reproduced images stored in the image recording means include images of the future from the encoding target image in the display order. For each screen or slice, the instruction information for instructing that the second additional information is encoded is encoded, and the first additional information or the first additional information based on the zeroth additional information and the instruction information is encoded. Second additional information Re or one and may be encoded as additional information for each target region.

なお、上記の符号化手段は、前記指示情報を画面あるいはスライスのヘッダに含めて符号化してもよい。   The encoding means may encode the instruction information by including it in a screen or slice header.

別の態様として、動画像予測復号プログラムは、コンピュータを、複数の領域に分割して符号化された圧縮データの中から復号対象となる復号対象領域の付加情報と残差信号の圧縮データとを復号する復号手段と、前記付加情報から前記対象領域の予測信号の生成に要する動きベクトルを復元する動き情報復元手段と、前記動きベクトルを保存する動き情報記録手段と、前記動きベクトルに基づいて前記対象領域の予測信号を生成する動き補償手段と、前記残差信号の圧縮データから前記対象領域の再生残差信号を復元する残差信号復元手段と、前記予測信号と前記再生残差信号とを加算することによって前記復号対象領域の画素信号を復元し、復元された画素信号を既再生画像として保存する画像記録手段、として機能させるための動画像予測復号プログラムであり、前記復号手段は、第0の付加情報と第1の付加情報とを復号し、前記第0の付加情報は、第0の差分動きベクトルと、前記動き情報記録手段に格納されている複数の動きベクトルから選択された1つを第0の予測動きベクトルとして識別するための第0の予測動き情報インデックスと、を含み、前記第1の付加情報は、前記動き情報記録手段に格納されている複数の動きベクトルから選択された1つを第1の予測動きベクトルとして識別する第1の予測動き情報インデックスを含み、前記動き情報復元手段が、前記第0の予測動き情報インデックスに基づいて前記動き情報記録手段に格納されている複数の動きベクトルから選択される動きベクトルを用いて第0の予測動きベクトルを生成し、生成した第0の予測動きベクトルと前記第0の差分動きベクトルとを加算して第0の動きベクトルを復元する第0の動き情報復元手段と、前記第1の予測動き情報インデックスに基づいて前記動き情報記録手段に格納されている複数の動きベクトルから選択される動きベクトルを用いて第1の予測動きベクトルを生成し、生成した第1の予測動きベクトルを第1の動きベクトルとして復元する第1の動き情報復元手段と、を含み、前記動き補償手段は、前記第0の動きベクトルと第1の動きベクトルとに基づいて前記既再生画像からそれぞれ取得される2つの信号を合成して前記対象領域の予測信号を生成し、前記復号手段は、さらに、画面あるいはスライス毎に、前記第1の付加情報が差分動きベクトルを含むか否かを指示する指示情報を復号し、前記指示情報が、前記第1の付加情報が第1の差分動きベクトルを含まないことを示す場合には、前記第1の付加情報として第1の予測動き情報インデックスを復号し、前記指示情報が、前記第1の付加情報が第1の差分動きベクトルを含むことを示す場合には、前記第1の付加情報として差分動きベクトルと第1の予測動き情報インデックスとを復号し、前記第1の動き情報復元手段は、前記指示情報が、第1の付加情報が第1の差分動きベクトルを含まないことを示すときは、前記第1の予測動き情報インデックスに基づいて前記動き情報記録手段に格納されている複数の動きベクトルから選択される動きベクトルを用いて第1の予測動きベクトルを生成し、生成した第1の予測動きベクトルを第1の動きベクトルとして復元し、前記指示情報が、第1の付加情報が第1の差分ベクトルを含むことを示すときは、前記第1の予測動き情報インデックスに基づいて第1の予測動きベクトルを生成し、生成した第1の予測動きベクトルと復号した差分動きベクトルとを加算して第1の動きベクトルを復元してもよい。   As another aspect, the moving picture predictive decoding program obtains additional information of a decoding target area to be decoded and compressed data of a residual signal from among compressed data encoded by dividing a computer into a plurality of areas. Decoding means for decoding, motion information restoring means for restoring a motion vector required for generating a prediction signal of the target region from the additional information, motion information recording means for saving the motion vector, and based on the motion vector, the motion vector Motion compensation means for generating a prediction signal of the target area, residual signal restoration means for restoring the reproduction residual signal of the target area from the compressed data of the residual signal, and the prediction signal and the reproduction residual signal. A moving image for functioning as an image recording means for restoring the pixel signal of the decoding target area by adding and saving the restored pixel signal as an already reproduced image A decoding / decoding program, wherein the decoding means decodes the 0th additional information and the first additional information, and the 0th additional information is stored in the 0th differential motion vector and the motion information recording means. A first predicted motion information index for identifying one selected from a plurality of motion vectors as a zeroth predicted motion vector, wherein the first additional information is the motion information recording means Including a first predicted motion information index that identifies one selected from a plurality of motion vectors stored in the first motion vector as a first predicted motion vector, wherein the motion information restoring means includes the 0th predicted motion information index. Is used to generate a 0th predicted motion vector using a motion vector selected from a plurality of motion vectors stored in the motion information recording means, and the generated 0th prediction And 0th motion information restoring means for restoring the 0th motion vector by adding the vector and the 0th differential motion vector, and storing in the motion information recording means based on the first predicted motion information index First motion information restoring means for generating a first predicted motion vector using a motion vector selected from a plurality of motion vectors that have been generated, and restoring the generated first predicted motion vector as a first motion vector And the motion compensation means synthesizes two signals respectively obtained from the already-reproduced images based on the 0th motion vector and the first motion vector to obtain a prediction signal of the target region. The decoding means further decodes instruction information indicating whether the first additional information includes a differential motion vector for each screen or slice, and the instruction information If the first additional information indicates that the first differential motion vector is not included, the first predicted motion information index is decoded as the first additional information, and the instruction information is the first additional information. When the additional information of 1 indicates that the first additional motion vector is included, the differential motion vector and the first predicted motion information index are decoded as the first additional information, and the first motion information restoration is performed. The means is stored in the motion information recording means based on the first predicted motion information index when the instruction information indicates that the first additional information does not include the first differential motion vector. A first predicted motion vector is generated using a motion vector selected from a plurality of motion vectors, the generated first predicted motion vector is restored as a first motion vector, and the instruction information includes When the additional information includes a first difference vector, a first predicted motion vector is generated based on the first predicted motion information index, and the generated first predicted motion vector and the decoded difference The first motion vector may be restored by adding the motion vector.

なお、上記の復号手段は、画面あるいはスライスのヘッダに含まれる前記指示情報を復号してもよい。   The decoding means may decode the instruction information included in the screen or slice header.

別の態様として、動画像予測符号化装置は、入力画像を複数の領域に分割する領域分割手段と、前記領域分割手段により分割された領域のうち、符号化対象である対象領域との相関が高い信号を既再生画像から取得するための動きベクトルを決定する予測信号生成手段と、前記動きベクトルを保存する動き情報記録手段と、前記対象領域の予測信号と前記対象領域の画素信号との残差信号を生成する残差信号生成手段と、前記残差信号生成手段により生成された残差信号を圧縮する残差信号圧縮手段と、前記残差信号の圧縮データを復元した再生残差信号を生成する残差信号復元手段と、前記動き情報記録手段に保存された既再生の動きベクトルから選択された前記対象領域の動きベクトルに類似する予測動きベクトルと、前記対象領域の動きベクトルから決定される付加情報と、前記残差信号の圧縮データと、を符号化する符号化手段と、前記予測信号と前記再生残差信号とを加算することによって前記対象領域の画素信号を復元し、復元された画素信号を前記既再生画像として保存する画像記録手段と、を具備し、前記動きベクトルは、第0の予測信号の生成に要する第0の動きベクトルと、第1の予測信号の生成に要する第1の動きベクトルと、を含んでおり、前記予測信号生成手段が、前記第0の予測信号を取得するための第0の動きベクトルを推定すると共に、前記動き情報記録手段に保存されている複数の動きベクトルから選択される動きベクトルを用いて、前記推定した第0の動きベクトルと類似する第0の予測動きベクトルを生成し、生成した第0の予測動きベクトルを識別するための第0の予測動き情報インデックスと、前記第0の動きベクトル及び第0の予測動きベクトルから決定される差分動きベクトルと、を含む第0の付加情報を生成する第0の動き情報推定手段と、前記動き情報記録手段に保存されている複数の動きベクトルから選択される動きベクトルを用いて、対象領域との相関が高い第1の予測信号を生成する第1の予測動きベクトルを生成し、生成した第1の予測動きベクトルを識別するための第1の予測動き情報インデックスを含む第1の付加情報を生成し、前記第1の予測動きベクトルを第1の動きベクトルに設定する第1の動き情報推定手段と、前記第0の予測信号と前記第1の予測信号とを合成して対象領域の予測信号を生成する予測信号合成手段と、を含んでもよい。   As another aspect, the video predictive coding apparatus has a correlation between a region dividing unit that divides an input image into a plurality of regions and a target region that is an encoding target among regions divided by the region dividing unit. A prediction signal generating means for determining a motion vector for acquiring a high signal from the already reproduced image; a motion information recording means for storing the motion vector; a residual signal of the prediction signal of the target area and the pixel signal of the target area; A residual signal generating means for generating a difference signal; a residual signal compressing means for compressing the residual signal generated by the residual signal generating means; and a reproduced residual signal obtained by restoring compressed data of the residual signal. A generated residual signal, a predicted motion vector similar to the motion vector of the target region selected from the previously reproduced motion vectors stored in the motion information recording unit, and a motion of the target region Reconstructing the pixel signal of the target area by adding the additional information determined from the vector, the encoding means for encoding the compressed data of the residual signal, and adding the prediction signal and the reproduction residual signal And an image recording means for storing the restored pixel signal as the already-reproduced image, wherein the motion vector includes a zeroth motion vector required for generating a zeroth prediction signal, and a first prediction signal. A first motion vector required for generating the first motion vector, and the prediction signal generation means estimates a zeroth motion vector for obtaining the zeroth prediction signal, and the motion information recording means Using a motion vector selected from a plurality of stored motion vectors, a 0th predicted motion vector similar to the estimated 0th motion vector is generated, and the generated 0th predicted motion vector is generated. 0th motion information for generating 0th additional information including a 0th predicted motion information index for identifying the first motion vector and a differential motion vector determined from the 0th motion vector and the 0th predicted motion vector A first prediction motion that generates a first prediction signal having a high correlation with a target region, using a motion information estimation unit and a motion vector selected from a plurality of motion vectors stored in the motion information recording unit; Generating a vector, generating first additional information including a first predicted motion information index for identifying the generated first predicted motion vector, and making the first predicted motion vector a first motion vector First motion information estimation means to be set, and prediction signal synthesis means for synthesizing the 0th prediction signal and the first prediction signal to generate a prediction signal of the target region may be included.

ここで、前記第0の付加情報は、前記第0の予測信号の生成に係る参照画面を識別するための参照画面インデックス、をさらに含み、前記第1の付加情報は、前記第1の予測信号の生成に係る参照画面を識別するための参照画面インデックス、をさらに含み、前記動き情報記録手段は、前記第0の予測信号の生成に係る参照画面を識別するための参照画面インデックスと、前記第1の予測信号の生成に係る参照画面を識別するための参照画面インデックスとをさらに保存し、前記第0の予測動き情報インデックスは、さらに前記動き情報記録手段に保存されている複数の参照画面インデックスから第0の予測動きベクトルと共に第0の予測参照画面インデックスを識別し、前記第1の予測動き情報インデックスは、さらに前記動き情報記録手段に保存されている複数の参照画面インデックスから第1の予測動きベクトルと共に第1の予測参照画面インデックスを識別し、前記第0の動き情報復元手段は、前記第0の付加情報に含まれる参照画面インデックスと前記第0の予測参照画面インデックスとをさらに基礎として、前記第0の予測動き情報インデックスに基づいて前記動き情報記録手段から選択される動きベクトルを用いて前記第0の予測動きベクトルを生成し、前記第1の動き情報復元手段は、前記第1の付加情報に含まれる参照画面インデックスと前記第1の予測参照画面インデックスとをさらに基礎として、前記第1の予測動き情報インデックスに基づいて前記動き情報記録手段から選択される動きベクトルを用いて前記第1の予測動きベクトルを生成してもよい。   Here, the 0th additional information further includes a reference screen index for identifying a reference screen related to generation of the 0th prediction signal, and the first additional information is the first prediction signal. A reference screen index for identifying a reference screen related to the generation of the first prediction signal, the motion information recording means, a reference screen index for identifying a reference screen related to the generation of the 0th prediction signal, and the first A reference screen index for identifying a reference screen related to the generation of one prediction signal, and the zeroth predicted motion information index further includes a plurality of reference screen indexes stored in the motion information recording means. To the 0th predicted motion vector and the 0th predicted reference screen index, and the first predicted motion information index further includes the motion information recording The first prediction reference screen index is identified together with the first predicted motion vector from the plurality of reference screen indexes stored in the reference screen, and the zeroth motion information restoring means is a reference screen included in the zeroth additional information. Based on the index and the 0th prediction reference screen index, the 0th prediction motion vector is generated using a motion vector selected from the motion information recording unit based on the 0th prediction motion information index The first motion information restoring means is further based on the first predicted motion information index based on the reference screen index and the first predicted reference screen index included in the first additional information. The first predicted motion vector may be generated using a motion vector selected from the motion information recording means.

別の態様として、動画像予測復号装置は、複数の領域に分割して符号化された圧縮データの中から復号対象となる復号対象領域の付加情報と残差信号の圧縮データとを復号する復号手段と、前記付加情報から前記対象領域の予測信号の生成に要する動きベクトルを復元する動き情報復元手段と、前記動きベクトルを保存する動き情報記録手段と、前記動きベクトルに基づいて前記対象領域の予測信号を生成する動き補償手段と、前記残差信号の圧縮データから前記対象領域の再生残差信号を復元する残差信号復元手段と、前記予測信号と前記再生残差信号とを加算することによって前記復号対象領域の画素信号を復元し、復元された画素信号を既再生画像として保存する画像記録手段と、を具備し、前記復号手段は、第0の付加情報と第1の付加情報とを復号し、前記第0の付加情報は、第0の差分動きベクトルと、前記動き情報記録手段に格納されている複数の動きベクトルから選択された1つを第0の予測動きベクトルとして識別するための第0の予測動き情報インデックスと、を含み、前記第1の付加情報は、前記動き情報記録手段に格納されている複数の動きベクトルから選択された1つを第1の予測動きベクトルとして識別する第1の予測動き情報インデックスを含み、前記動き情報復元手段が、前記第0の予測動き情報インデックスに基づいて前記動き情報記録手段に格納されている複数の動きベクトルから選択される動きベクトルを用いて第0の予測動きベクトルを生成し、生成した第0の予測動きベクトルと前記第0の差分動きベクトルとを加算して第0の動きベクトルを復元する第0の動き情報復元手段と、前記第1の予測動き情報インデックスに基づいて前記動き情報記録手段に格納されている複数の動きベクトルから選択される動きベクトルを用いて第1の予測動きベクトルを生成し、生成した第1の予測動きベクトルを第1の動きベクトルとして復元する第1の動き情報復元手段と、を含み、前記動き補償手段は、前記第0の動きベクトルと第1の動きベクトルとに基づいて前記既再生画像からそれぞれ取得される2つの信号を合成して前記対象領域の予測信号を生成してもよい。   As another aspect, the moving picture predictive decoding apparatus decodes the additional information of the decoding target area to be decoded and the compressed data of the residual signal from the compressed data divided and encoded into a plurality of areas. Means, motion information restoration means for restoring a motion vector required for generating a prediction signal of the target area from the additional information, motion information recording means for saving the motion vector, and the target area based on the motion vector Adding a motion compensation means for generating a prediction signal, a residual signal restoration means for restoring the reproduction residual signal of the target area from the compressed data of the residual signal, and adding the prediction signal and the reproduction residual signal. And an image recording unit that restores the pixel signal of the decoding target area and stores the restored pixel signal as an already reproduced image, wherein the decoding unit includes the zeroth additional information and the first information Additional information is decoded, and the 0th additional information is a 0th predicted motion vector obtained by selecting one of a 0th differential motion vector and a plurality of motion vectors stored in the motion information recording means. A first predicted motion information index for identifying the first additional information as one selected from a plurality of motion vectors stored in the motion information recording means. Including a first predicted motion information index to be identified as a motion vector, wherein the motion information restoring means is selected from a plurality of motion vectors stored in the motion information recording means based on the zeroth predicted motion information index The motion vector is used to generate a 0th motion vector predictor and the 0th motion vector predictor and the 0th motion vector difference are added to generate a motion vector 0th. Using a motion vector selected from a plurality of motion vectors stored in the motion information recording unit based on the first predicted motion information index, First motion information restoring means for generating a predicted motion vector and restoring the generated first predicted motion vector as a first motion vector, wherein the motion compensation means includes the zeroth motion vector and the first motion vector. A prediction signal for the target region may be generated by combining two signals respectively acquired from the already reproduced image based on one motion vector.

ここで、前記第0の付加情報は、第0の予測信号の生成に係る参照画面を識別するための参照画面インデックス、をさらに含み、前記第1の付加情報は、第1の予測信号の生成に係る参照画面を識別するための参照画面インデックス、をさらに含み、前記動き情報記録手段は、前記第0の予測信号の生成に係る参照画面を識別するための参照画面インデックスと、前記第1の予測信号の生成に係る参照画面を識別するための参照画面インデックスとをさらに保存し、前記第0の予測動き情報インデックスは、さらに前記動き情報記録手段に保存されている複数の参照画面インデックスから第0の予測動きベクトルと共に第0の予測参照画面インデックスを識別し、前記第1の予測動き情報インデックスは、さらに前記動き情報記録手段に保存されている複数の参照画面インデックスから第1の予測動きベクトルと共に第1の予測参照画面インデックスを識別し、前記第0の動き情報復元手段は、前記第0の付加情報に含まれる参照画面インデックスと前記第0の予測参照画面インデックスとをさらに基礎として、前記第0の予測動き情報インデックスに基づいて前記動き情報記録手段から選択される動きベクトルを用いて前記第0の予測動きベクトルを生成し、前記第1の動き情報復元手段は、前記第1の付加情報に含まれる参照画面インデックスと前記第1の予測参照画面インデックスとをさらに基礎として、前記第1の予測動き情報インデックスに基づいて前記動き情報記録手段から選択される動きベクトルを用いて前記第1の予測動きベクトルを生成してもよい。   Here, the 0th additional information further includes a reference screen index for identifying a reference screen related to the generation of the 0th prediction signal, and the first additional information is the generation of the first prediction signal. A reference screen index for identifying a reference screen related to the reference information, and the motion information recording means includes a reference screen index for identifying a reference screen related to generation of the 0th prediction signal, and the first screen A reference screen index for identifying a reference screen related to generation of a prediction signal is further stored, and the zeroth predicted motion information index is further stored in a plurality of reference screen indexes stored in the motion information recording means. A 0th prediction reference screen index is identified together with a 0 predicted motion vector, and the first predicted motion information index is further stored in the motion information recording means A first predicted reference screen index together with a first predicted motion vector is identified from a plurality of reference screen indexes, and the zeroth motion information restoring means includes a reference screen index included in the zeroth additional information, Further, based on the 0th prediction reference screen index, generating the 0th prediction motion vector using a motion vector selected from the motion information recording unit based on the 0th prediction motion information index, The first motion information restoration means further includes the reference motion index based on the first predicted motion information index based on the reference screen index and the first predicted reference screen index included in the first additional information. The first predicted motion vector may be generated using a motion vector selected from the information recording means.

別の態様として、動画像予測符号化方法は、動画像予測符号化装置により実行される動画像予測符号化方法であって、入力画像を複数の領域に分割する領域分割ステップと、前記領域分割ステップにより分割された領域のうち、符号化対象である対象領域との相関が高い信号を既再生画像から取得するための動きベクトルを決定する予測信号生成ステップと、前記動きベクトルを動き情報記録手段に保存する動き情報記録ステップと、前記対象領域の予測信号と前記対象領域の画素信号との残差信号を生成する残差信号生成ステップと、前記残差信号生成ステップにより生成された残差信号を圧縮する残差信号圧縮ステップと、前記残差信号の圧縮データを復元した再生残差信号を生成する残差信号復元ステップと、前記動き情報記録手段に保存された既再生の動きベクトルから選択された前記対象領域の動きベクトルに類似する予測動きベクトルと、前記対象領域の動きベクトルから決定される付加情報と、前記残差信号の圧縮データと、を符号化する符号化ステップと、前記予測信号と前記再生残差信号とを加算することによって前記対象領域の画素信号を復元し、復元された画素信号を前記既再生画像として画像記録手段に保存する画像記録ステップと、を具備し、前記動きベクトルは、第0の予測信号の生成に要する第0の動きベクトルと、第1の予測信号の生成に要する第1の動きベクトルと、を含んでおり、前記予測信号生成ステップが、前記第0の予測信号を取得するための第0の動きベクトルを推定すると共に、前記動き情報記録手段に保存されている複数の動きベクトルから選択される動きベクトルを用いて、前記推定した第0の動きベクトルと類似する第0の予測動きベクトルを生成し、生成した第0の予測動きベクトルを識別するための第0の予測動き情報インデックスと、前記第0の動きベクトル及び第0の予測動きベクトルから決定される差分動きベクトルと、を含む第0の付加情報を生成する第0の動き情報推定ステップと、前記動き情報記録手段に保存されている複数の動きベクトルから選択される動きベクトルを用いて、対象領域との相関が高い第1の予測信号を生成する第1の予測動きベクトルを生成し、生成した第1の予測動きベクトルを識別するための第1の予測動き情報インデックスを含む第1の付加情報を生成し、前記第1の予測動きベクトルを第1の動きベクトルに設定する第1の動き情報推定ステップと、前記第0の予測信号と前記第1の予測信号とを合成して対象領域の予測信号を生成する予測信号合成ステップと、を含んでもよい。   As another aspect, the video predictive encoding method is a video predictive encoding method executed by a video predictive encoding device, and includes an area dividing step of dividing an input image into a plurality of areas, and the area dividing A prediction signal generating step for determining a motion vector for acquiring a signal having a high correlation with the target region to be encoded among the regions divided by the step from the already reproduced image; and the motion vector as motion information recording means. A motion information recording step, a residual signal generation step for generating a residual signal between the prediction signal of the target region and a pixel signal of the target region, and a residual signal generated by the residual signal generation step A residual signal compression step for compressing the residual signal, a residual signal restoration step for producing a reproduction residual signal obtained by restoring the compressed data of the residual signal, and the motion information recording means A predicted motion vector similar to the motion vector of the target region selected from the existing reproduced motion vectors, additional information determined from the motion vector of the target region, and compressed data of the residual signal. An encoding step for encoding, the pixel signal of the target area is restored by adding the prediction signal and the reproduction residual signal, and the restored pixel signal is stored in the image recording unit as the already reproduced image An image recording step, wherein the motion vector includes a zeroth motion vector required for generating a zeroth prediction signal and a first motion vector required for generating a first prediction signal. The prediction signal generation step estimates a zeroth motion vector for obtaining the zeroth prediction signal, and a plurality of motions stored in the motion information recording means A 0th predicted motion for generating a 0th predicted motion vector similar to the estimated 0th motion vector using a motion vector selected from the vector and identifying the generated 0th predicted motion vector A zeroth motion information estimating step for generating zeroth additional information including an information index and a differential motion vector determined from the zeroth motion vector and the zeroth predicted motion vector; and the motion information recording means A first prediction motion vector that generates a first prediction signal having a high correlation with the target region is generated using a motion vector selected from a plurality of motion vectors stored in the first prediction, and the generated first prediction First additional information including a first predicted motion information index for identifying a motion vector is generated, and the first predicted motion vector is set as the first motion vector. A first motion information estimation step and a prediction signal synthesis step of generating a prediction signal of the target region by synthesizing the 0th prediction signal and the first prediction signal may be included.

ここで、前記第0の動き情報推定ステップにおいて、前記動画像予測符号化装置は、前記第0の予測信号の生成に係る参照画面を識別するための参照画面インデックスをさらに含んだ前記第0の付加情報を生成し、前記第1の動き情報推定ステップにおいて、前記動画像予測符号化装置は、前記第1の予測信号の生成に係る参照画面を識別するための参照画面インデックスをさらに含んだ前記第1の付加情報を生成し、前記動き情報記録ステップにおいて、前記動画像予測符号化装置は、前記第0の予測信号の生成に係る参照画面を識別するための参照画面インデックスと、前記第1の予測信号の生成に係る参照画面を識別するための参照画面インデックスとをさらに前記動き情報記録手段に保存し、前記第0の予測動き情報インデックスは、さらに前記動き情報記録手段に保存されている複数の参照画面インデックスから第0の予測動きベクトルと共に第0の予測参照画面インデックスを識別し、前記第1の予測動き情報インデックスは、さらに前記動き情報記録手段に保存されている複数の参照画面インデックスから第1の予測動きベクトルと共に第1の予測参照画面インデックスを識別してもよい。   Here, in the 0th motion information estimation step, the moving picture predictive coding apparatus further includes the reference screen index for identifying a reference screen related to generation of the 0th prediction signal. The additional information is generated, and in the first motion information estimation step, the video predictive encoding device further includes a reference screen index for identifying a reference screen related to generation of the first prediction signal. 1st additional information is produced | generated, In the said motion information recording step, the said moving image predictive coding apparatus WHEREIN: The reference screen index for identifying the reference screen which concerns on the production | generation of the said 0th prediction signal, and said 1st And a reference screen index for identifying a reference screen related to the generation of the predicted signal is stored in the motion information recording means, and the zeroth predicted motion information index is Furthermore, the 0th prediction reference screen index is identified together with the 0th prediction motion vector from a plurality of reference screen indexes stored in the motion information recording means, and the first prediction motion information index is further recorded in the motion information recording The first predicted reference screen index may be identified together with the first predicted motion vector from a plurality of reference screen indexes stored in the means.

別の態様として、動画像予測復号方法は、動画像予測復号装置により実行される動画像予測復号方法であって、複数の領域に分割して符号化された圧縮データの中から復号対象となる復号対象領域の付加情報と残差信号の圧縮データとを復号する復号ステップと、前記付加情報から前記対象領域の予測信号の生成に要する動きベクトルを復元する動き情報復元ステップと、前記動きベクトルを動き情報記録手段に保存する動き情報記録ステップと、前記動きベクトルに基づいて前記対象領域の予測信号を生成する動き補償ステップと、前記残差信号の圧縮データから前記対象領域の再生残差信号を復元する残差信号復元ステップと、前記予測信号と前記再生残差信号とを加算することによって前記復号対象領域の画素信号を復元し、復元された画素信号を既再生画像として保存する画像記録ステップと、を具備し、前記復号ステップにおいて、前記動画像予測復号装置は、第0の付加情報と第1の付加情報とを復号し、前記第0の付加情報は、第0の差分動きベクトルと、前記動き情報記録手段に格納されている複数の動きベクトルから選択された1つを第0の予測動きベクトルとして識別するための第0の予測動き情報インデックスと、を含み、前記第1の付加情報は、前記動き情報記録手段に格納されている複数の動きベクトルから選択された1つを第1の予測動きベクトルとして識別する第1の予測動き情報インデックスを含み、前記動き情報復元ステップが、前記第0の予測動き情報インデックスに基づいて前記動き情報記録手段に格納されている複数の動きベクトルから選択される動きベクトルを用いて第0の予測動きベクトルを生成し、生成した第0の予測動きベクトルと前記第0の差分動きベクトルとを加算して第0の動きベクトルを復元する第0の動き情報復元ステップと、前記第1の予測動き情報インデックスに基づいて前記動き情報記録手段に格納されている複数の動きベクトルから選択される動きベクトルを用いて第1の予測動きベクトルを生成し、生成した第1の予測動きベクトルを第1の動きベクトルとして復元する第1の動き情報復元ステップと、を含み、前記動き補償ステップにおいて、前記動画像予測復号装置は、前記第0の動きベクトルと第1の動きベクトルとに基づいて前記既再生画像からそれぞれ取得される2つの信号を合成して前記対象領域の予測信号を生成してもよい。   As another aspect, the video predictive decoding method is a video predictive decoding method executed by a video predictive decoding device, and is a decoding target from compressed data divided and encoded into a plurality of regions. A decoding step of decoding additional information of a decoding target region and compressed data of a residual signal, a motion information restoring step of restoring a motion vector required for generating a prediction signal of the target region from the additional information, and the motion vector A motion information recording step for storing in a motion information recording means; a motion compensation step for generating a prediction signal for the target region based on the motion vector; and a reproduction residual signal for the target region from the compressed data of the residual signal. A residual signal restoration step to restore, and a pixel signal in the decoding target area is restored by adding the prediction signal and the reproduction residual signal, and restored. An image recording step for storing the pixel signal as a reproduced image, and in the decoding step, the video predictive decoding device decodes the 0th additional information and the first additional information, and the 0th The additional information is the 0th motion vector for identifying the 0th differential motion vector and one selected from a plurality of motion vectors stored in the motion information recording means as the 0th motion vector predictor. A first predicted motion that identifies one selected from a plurality of motion vectors stored in the motion information recording means as a first predicted motion vector. The motion information restoring step includes a plurality of motion vectors stored in the motion information recording means based on the 0th predicted motion information index. The 0th motion vector is generated using the selected motion vector, and the 0th motion vector is restored by adding the generated 0th motion vector predictor and the 0th difference motion vector. Generating a first predicted motion vector using a motion vector selected from a plurality of motion vectors stored in the motion information recording unit based on the first predicted motion information index, and a motion information restoring step; A first motion information restoring step for restoring the generated first predicted motion vector as a first motion vector, and in the motion compensation step, the moving picture predictive decoding device includes the zeroth motion vector and Two signals acquired from the already reproduced image based on the first motion vector may be combined to generate a prediction signal for the target region.

ここで、前記第0の付加情報は、第0の予測信号の生成に係る参照画面を識別するための参照画面インデックス、をさらに含み、前記第1の付加情報は、第1の予測信号の生成に係る参照画面を識別するための参照画面インデックス、をさらに含み、前記動き情報記録ステップにおいて、前記動画像予測復号装置は、前記第0の予測信号の生成に係る参照画面を識別するための参照画面インデックスと、前記第1の予測信号の生成に係る参照画面を識別するための参照画面インデックスとをさらに前記動き情報記録手段に保存し、前記第0の予測動き情報インデックスは、さらに前記動き情報記録手段に保存されている複数の参照画面インデックスから第0の予測動きベクトルと共に第0の予測参照画面インデックスを識別し、前記第1の予測動き情報インデックスは、さらに前記動き情報記録手段に保存されている複数の参照画面インデックスから第1の予測動きベクトルと共に第1の予測参照画面インデックスを識別し、前記第0の動き情報復元ステップにおいて、前記動画像予測復号装置は、前記第0の付加情報に含まれる参照画面インデックスと前記第0の予測参照画面インデックスとをさらに基礎として、前記第0の予測動き情報インデックスに基づいて前記動き情報記録手段から選択される動きベクトルを用いて前記第0の予測動きベクトルを生成し、前記第1の動き情報復元ステップにおいて、前記動画像予測復号装置は、前記第1の付加情報に含まれる参照画面インデックスと前記第1の予測参照画面インデックスとをさらに基礎として、前記第1の予測動き情報インデックスに基づいて前記動き情報記録手段から選択される動きベクトルを用いて前記第1の予測動きベクトルを生成してもよい。   Here, the 0th additional information further includes a reference screen index for identifying a reference screen related to the generation of the 0th prediction signal, and the first additional information is the generation of the first prediction signal. A reference screen index for identifying the reference screen according to the reference information, and in the motion information recording step, the moving picture predictive decoding device refers to the reference screen for identifying the reference screen related to the generation of the zeroth prediction signal. A screen index and a reference screen index for identifying a reference screen related to generation of the first prediction signal are further stored in the motion information recording unit, and the 0th predicted motion information index is further stored in the motion information. The 0th prediction reference screen index is identified together with the 0th prediction motion vector from the plurality of reference screen indexes stored in the recording means, and the first prediction screen index is identified. The motion information index further identifies the first predicted reference screen index together with the first predicted motion vector from a plurality of reference screen indexes stored in the motion information recording means, and in the 0th motion information restoration step, The moving picture predictive decoding device further records the motion information based on the 0th predicted motion information index based on the reference screen index and the 0th predicted reference screen index included in the 0th additional information. Generating the 0th motion vector predictor using the motion vector selected from the means, and in the first motion information restoration step, the video predictive decoding device includes a reference screen included in the first additional information. Based on the index and the first prediction reference screen index, the first prediction motion information Index may generate the first prediction motion vector using the motion vectors selected from the motion information recording means on the basis of.

別の態様として、動画像予測符号化プログラムは、コンピュータを、入力画像を複数の領域に分割する領域分割手段と、前記領域分割手段により分割された領域のうち、符号化対象である対象領域との相関が高い信号を既再生画像から取得するための動きベクトルを決定する予測信号生成手段と、前記動きベクトルを保存する動き情報記録手段と、前記対象領域の予測信号と前記対象領域の画素信号との残差信号を生成する残差信号生成手段と、前記残差信号生成手段により生成された残差信号を圧縮する残差信号圧縮手段と、前記残差信号の圧縮データを復元した再生残差信号を生成する残差信号復元手段と、前記動き情報記録手段に保存された既再生の動きベクトルから選択された前記対象領域の動きベクトルに類似する予測動きベクトルと、前記対象領域の動きベクトルから決定される付加情報と、前記残差信号の圧縮データと、を符号化する符号化手段と、前記予測信号と前記再生残差信号とを加算することによって前記対象領域の画素信号を復元し、復元された画素信号を前記既再生画像として保存する画像記録手段、として機能させるための動画像予測符号化プログラムであり、前記動きベクトルは、第0の予測信号の生成に要する第0の動きベクトルと、第1の予測信号の生成に要する第1の動きベクトルと、を含んでおり、前記予測信号生成手段が、前記第0の予測信号を取得するための第0の動きベクトルを推定すると共に、前記動き情報記録手段に保存されている複数の動きベクトルから選択される動きベクトルを用いて、前記推定した第0の動きベクトルと類似する第0の予測動きベクトルを生成し、生成した第0の予測動きベクトルを識別するための第0の予測動き情報インデックスと、前記第0の動きベクトル及び第0の予測動きベクトルから決定される差分動きベクトルと、を含む第0の付加情報を生成する第0の動き情報推定手段と、前記動き情報記録手段に保存されている複数の動きベクトルから選択される動きベクトルを用いて、対象領域との相関が高い第1の予測信号を生成する第1の予測動きベクトルを生成し、生成した第1の予測動きベクトルを識別するための第1の予測動き情報インデックスを含む第1の付加情報を生成し、前記第1の予測動きベクトルを第1の動きベクトルに設定する第1の動き情報推定手段と、前記第0の予測信号と前記第1の予測信号とを合成して対象領域の予測信号を生成する予測信号合成手段と、を含んでもよい。   As another aspect, the moving image predictive encoding program includes: a region dividing unit that divides an input image into a plurality of regions; and a target region that is an encoding target among regions divided by the region dividing unit. A prediction signal generating means for determining a motion vector for acquiring a signal having a high correlation from the already reproduced image, a motion information recording means for storing the motion vector, a prediction signal for the target area, and a pixel signal for the target area A residual signal generating means for generating a residual signal, a residual signal compressing means for compressing the residual signal generated by the residual signal generating means, and a reproduction residual obtained by decompressing the compressed data of the residual signal. A residual signal restoring means for generating a difference signal, and a predicted motion vector similar to the motion vector of the target area selected from the previously reproduced motion vectors stored in the motion information recording means Adding the additional information determined from the motion vector of the target region and the compressed data of the residual signal, and adding the prediction signal and the reproduction residual signal A moving picture predictive encoding program for causing a pixel signal of a target region to be restored and functioning as an image recording unit that stores the restored pixel signal as the already-reproduced image, wherein the motion vector is a 0th prediction signal A first motion vector required for generating the first motion vector and a first motion vector required for generating the first prediction signal, the prediction signal generating means for acquiring the zeroth prediction signal Estimating the 0th motion vector and using the motion vector selected from a plurality of motion vectors stored in the motion information recording means; A similar 0th predicted motion vector is generated, and is determined from the 0th predicted motion information index for identifying the generated 0th predicted motion vector, and the 0th motion vector and the 0th predicted motion vector. Using a motion vector selected from a plurality of motion vectors stored in the motion information recording means, a 0th motion information estimating means for generating 0th additional information including a difference motion vector A first addition including a first predicted motion information index for generating a first predicted motion vector that generates a first predicted signal having a high correlation with a region and identifying the generated first predicted motion vector A first motion information estimating means for generating information and setting the first motion vector as the first motion vector; and combining the 0th prediction signal and the first prediction signal Prediction signal synthesis means for generating a prediction signal for the region.

ここで、前記第0の付加情報は、前記第0の予測信号の生成に係る参照画面を識別するための参照画面インデックス、をさらに含み、前記第1の付加情報は、前記第1の予測信号の生成に係る参照画面を識別するための参照画面インデックス、をさらに含み、前記動き情報記録手段は、前記第0の予測信号の生成に係る参照画面を識別するための参照画面インデックスと、前記第1の予測信号の生成に係る参照画面を識別するための参照画面インデックスとをさらに保存し、前記第0の予測動き情報インデックスは、さらに前記動き情報記録手段に保存されている複数の参照画面インデックスから第0の予測動きベクトルと共に第0の予測参照画面インデックスを識別し、前記第1の予測動き情報インデックスは、さらに前記動き情報記録手段に保存されている複数の参照画面インデックスから第1の予測動きベクトルと共に第1の予測参照画面インデックスを識別し、前記第0の動き情報復元手段は、前記第0の付加情報に含まれる参照画面インデックスと前記第0の予測参照画面インデックスとをさらに基礎として、前記第0の予測動き情報インデックスに基づいて前記動き情報記録手段から選択される動きベクトルを用いて前記第0の予測動きベクトルを生成し、前記第1の動き情報復元手段は、前記第1の付加情報に含まれる参照画面インデックスと前記第1の予測参照画面インデックスとをさらに基礎として、前記第1の予測動き情報インデックスに基づいて前記動き情報記録手段から選択される動きベクトルを用いて前記第1の予測動きベクトルを生成してもよい。   Here, the 0th additional information further includes a reference screen index for identifying a reference screen related to generation of the 0th prediction signal, and the first additional information is the first prediction signal. A reference screen index for identifying a reference screen related to the generation of the first prediction signal, the motion information recording means, a reference screen index for identifying a reference screen related to the generation of the 0th prediction signal, and the first A reference screen index for identifying a reference screen related to the generation of one prediction signal, and the zeroth predicted motion information index further includes a plurality of reference screen indexes stored in the motion information recording means. To the 0th predicted motion vector and the 0th predicted reference screen index, and the first predicted motion information index further includes the motion information recording The first prediction reference screen index is identified together with the first predicted motion vector from the plurality of reference screen indexes stored in the reference screen, and the zeroth motion information restoring means is a reference screen included in the zeroth additional information. Based on the index and the 0th prediction reference screen index, the 0th prediction motion vector is generated using a motion vector selected from the motion information recording unit based on the 0th prediction motion information index The first motion information restoring means is further based on the first predicted motion information index based on the reference screen index and the first predicted reference screen index included in the first additional information. The first predicted motion vector may be generated using a motion vector selected from the motion information recording means.

別の態様として、動画像予測復号プログラムは、コンピュータを、複数の領域に分割して符号化された圧縮データの中から復号対象となる復号対象領域の付加情報と残差信号の圧縮データとを復号する復号手段と、前記付加情報から前記対象領域の予測信号の生成に要する動きベクトルを復元する動き情報復元手段と、前記動きベクトルを保存する動き情報記録手段と、前記動きベクトルに基づいて前記対象領域の予測信号を生成する動き補償手段と、前記残差信号の圧縮データから前記対象領域の再生残差信号を復元する残差信号復元手段と、前記予測信号と前記再生残差信号とを加算することによって前記復号対象領域の画素信号を復元し、復元された画素信号を既再生画像として保存する画像記録手段、として機能させるための動画像予測復号プログラムであり、前記復号手段は、第0の付加情報と第1の付加情報とを復号し、前記第0の付加情報は、第0の差分動きベクトルと、前記動き情報記録手段に格納されている複数の動きベクトルから選択された1つを第0の予測動きベクトルとして識別するための第0の予測動き情報インデックスと、を含み、前記第1の付加情報は、前記動き情報記録手段に格納されている複数の動きベクトルから選択された1つを第1の予測動きベクトルとして識別する第1の予測動き情報インデックスを含み、前記動き情報復元手段が、前記第0の予測動き情報インデックスに基づいて前記動き情報記録手段に格納されている複数の動きベクトルから選択される動きベクトルを用いて第0の予測動きベクトルを生成し、生成した第0の予測動きベクトルと前記第0の差分動きベクトルとを加算して第0の動きベクトルを復元する第0の動き情報復元手段と、前記第1の予測動き情報インデックスに基づいて前記動き情報記録手段に格納されている複数の動きベクトルから第1の予測動きベクトルを生成し、生成した第1の予測動きベクトルを第1の動きベクトルとして復元する第1の動き情報復元手段と、を含み、前記動き補償手段は、前記第0の動きベクトルと第1の動きベクトルとに基づいて前記既再生画像からそれぞれ取得される2つの信号を合成して前記対象領域の予測信号を生成してもよい。   As another aspect, the moving picture predictive decoding program obtains additional information of a decoding target area to be decoded and compressed data of a residual signal from among compressed data encoded by dividing a computer into a plurality of areas. Decoding means for decoding, motion information restoring means for restoring a motion vector required for generating a prediction signal of the target region from the additional information, motion information recording means for saving the motion vector, and based on the motion vector, the motion vector Motion compensation means for generating a prediction signal of the target area, residual signal restoration means for restoring the reproduction residual signal of the target area from the compressed data of the residual signal, and the prediction signal and the reproduction residual signal. A moving image for functioning as an image recording means for restoring the pixel signal of the decoding target area by adding and saving the restored pixel signal as an already reproduced image A decoding / decoding program, wherein the decoding means decodes the 0th additional information and the first additional information, and the 0th additional information is stored in the 0th differential motion vector and the motion information recording means. A first predicted motion information index for identifying one selected from a plurality of motion vectors as a zeroth predicted motion vector, wherein the first additional information is the motion information recording means Including a first predicted motion information index that identifies one selected from a plurality of motion vectors stored in the first motion vector as a first predicted motion vector, wherein the motion information restoring means includes the 0th predicted motion information index. Is used to generate a 0th predicted motion vector using a motion vector selected from a plurality of motion vectors stored in the motion information recording means, and the generated 0th prediction And 0th motion information restoring means for restoring the 0th motion vector by adding the vector and the 0th differential motion vector, and storing in the motion information recording means based on the first predicted motion information index First motion information restoring means for generating a first predicted motion vector from the plurality of motion vectors that have been generated and restoring the generated first predicted motion vector as a first motion vector, the motion compensation The means may generate a prediction signal of the target region by combining two signals respectively acquired from the already-reproduced image based on the 0th motion vector and the first motion vector.

ここで、前記第0の付加情報は、第0の予測信号の生成に係る参照画面を識別するための参照画面インデックス、をさらに含み、前記第1の付加情報は、第1の予測信号の生成に係る参照画面を識別するための参照画面インデックス、をさらに含み、前記動き情報記録手段は、前記第0の予測信号の生成に係る参照画面を識別するための参照画面インデックスと、前記第1の予測信号の生成に係る参照画面を識別するための参照画面インデックスとをさらに保存し、前記第0の予測動き情報インデックスは、さらに前記動き情報記録手段に保存されている複数の参照画面インデックスから第0の予測動きベクトルと共に第0の予測参照画面インデックスを識別し、前記第1の予測動き情報インデックスは、さらに前記動き情報記録手段に保存されている複数の参照画面インデックスから第1の予測動きベクトルと共に第1の予測参照画面インデックスを識別し、前記第0の動き情報復元手段は、前記第0の付加情報に含まれる参照画面インデックスと前記第0の予測参照画面インデックスとをさらに基礎として、前記第0の予測動き情報インデックスに基づいて前記動き情報記録手段から選択される動きベクトルを用いて前記第0の予測動きベクトルを生成し、前記第1の動き情報復元手段は、前記第1の付加情報に含まれる参照画面インデックスと前記第1の予測参照画面インデックスとをさらに基礎として、前記第1の予測動き情報インデックスに基づいて前記動き情報記録手段から選択される動きベクトルを用いて前記第1の予測動きベクトルを生成してもよい。   Here, the 0th additional information further includes a reference screen index for identifying a reference screen related to the generation of the 0th prediction signal, and the first additional information is the generation of the first prediction signal. A reference screen index for identifying a reference screen related to the reference information, and the motion information recording means includes a reference screen index for identifying a reference screen related to generation of the 0th prediction signal, and the first screen A reference screen index for identifying a reference screen related to generation of a prediction signal is further stored, and the zeroth predicted motion information index is further stored in a plurality of reference screen indexes stored in the motion information recording means. A 0th prediction reference screen index is identified together with a 0 predicted motion vector, and the first predicted motion information index is further stored in the motion information recording means A first predicted reference screen index together with a first predicted motion vector is identified from a plurality of reference screen indexes, and the zeroth motion information restoring means includes a reference screen index included in the zeroth additional information, Further, based on the 0th prediction reference screen index, generating the 0th prediction motion vector using a motion vector selected from the motion information recording unit based on the 0th prediction motion information index, The first motion information restoration means further includes the reference motion index based on the first predicted motion information index based on the reference screen index and the first predicted reference screen index included in the first additional information. The first predicted motion vector may be generated using a motion vector selected from the information recording means.

本発明の動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラムによれば、符号化済みの動き情報に基づいて双予測に有効な1つの動きベクトルを指示できるので、少ない符号量で双予測の性能を高める効果がある。   According to the video predictive encoding device, video predictive encoding method, video predictive encoding program, video predictive decoding device, video predictive decoding method, and video predictive decoding program of the present invention, encoded motion Since one motion vector effective for bi-prediction can be indicated based on information, there is an effect of improving bi-prediction performance with a small amount of code.

本実施形態に係る動画像予測符号化装置を示すブロック図である。It is a block diagram which shows the moving image predictive coding apparatus which concerns on this embodiment. 図1に示す予測信号生成器を説明するブロック図である。It is a block diagram explaining the prediction signal generator shown in FIG. 図2に示す第1の動き推定処理を説明するフローチャートである。It is a flowchart explaining the 1st motion estimation process shown in FIG. 図2に示す第0の動き推定処理を説明するフローチャートである。It is a flowchart explaining the 0th motion estimation process shown in FIG. 画面の符号化順の例を説明する模式図である。It is a schematic diagram explaining the example of the encoding order of a screen. 参照画面リストの例を説明する図である。It is a figure explaining the example of a reference screen list. 隣接ブロックの例を説明する図である。It is a figure explaining the example of an adjacent block. 隣接ブロックの別例を説明する図である。It is a figure explaining another example of an adjacent block. 図1に示す動画像予測符号化装置の動画像予測符号化方法の手順を示すフローチャートである。It is a flowchart which shows the procedure of the moving image predictive encoding method of the moving image predictive encoding apparatus shown in FIG. 本実施形態に係る動画像予測復号装置を示すブロック図である。It is a block diagram which shows the moving image predictive decoding apparatus which concerns on this embodiment. 図10に示す動き情報復元器を説明するブロック図である。It is a block diagram explaining the motion information decompression device shown in FIG. 図11に示す第1の動き情報復元処理を説明するフローチャートである。It is a flowchart explaining the 1st motion information restoration process shown in FIG. 図11に示す第0の動き情報復元処理を説明するフローチャートである。It is a flowchart explaining the 0th motion information restoration process shown in FIG. 図10に示す動画像予測復号装置の動画像予測復号方法の手順を示すフローチャートである。It is a flowchart which shows the procedure of the moving image predictive decoding method of the moving image predictive decoding apparatus shown in FIG. 本実施形態に係る動画像予測符号化方法を実行することができるプログラムを示すブロック図である。It is a block diagram which shows the program which can perform the moving image predictive coding method which concerns on this embodiment. 本実施形態に係る動画像予測復号方法を実行することができるプログラムを示すブロック図である。It is a block diagram which shows the program which can perform the moving image predictive decoding method which concerns on this embodiment. 記録媒体に記録されたプログラムを実行するためのコンピュータのハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the computer for performing the program recorded on the recording medium. 記録媒体に記憶されたプログラムを実行するためのコンピュータの斜視図である。It is a perspective view of a computer for executing a program stored in a recording medium. 画面間予測における動き推定処理を説明するための模式図である。It is a schematic diagram for demonstrating the motion estimation process in the prediction between screens. 従来の画面内予測方法を説明するための模式図である。It is a schematic diagram for demonstrating the conventional intra prediction method.

以下、添付図面を参照しながら本実施形態を詳細に説明する。なお、図面の説明において同一又は同等の要素には同一の符号を付し、重複する説明を省略する。また、動画像を構成する「フレーム」、「画面」、「画像」(図5の501から511)は本明細書内の説明では同じ意味とする。   Hereinafter, this embodiment will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same or equivalent elements are denoted by the same reference numerals, and redundant description is omitted. Further, “frame”, “screen”, and “image” (501 to 511 in FIG. 5) constituting a moving image have the same meaning in the description in this specification.

図1は、本実施形態に係る動画像予測符号化装置100を示すブロック図である。この動画像予測符号化装置100は、入力端子101、ブロック分割器102、予測信号生成器103、フレームメモリ104、減算器105、変換器106、量子化器107、逆量子化器108、逆変換器109、加算器110、符号化器111、出力端子112、動き情報用メモリ113を備えている。変換器106及び量子化器107は残差信号圧縮手段として機能し、逆量子化器108及び逆変換器109は残差信号復元手段として機能し、動き情報用メモリは動き情報記録手段として機能する。また、動き情報用メモリ113は、予測信号生成器103に含まれてもよい。   FIG. 1 is a block diagram showing a video predictive encoding device 100 according to the present embodiment. This video predictive coding apparatus 100 includes an input terminal 101, a block divider 102, a prediction signal generator 103, a frame memory 104, a subtractor 105, a converter 106, a quantizer 107, an inverse quantizer 108, and an inverse transform. And an adder 110, an encoder 111, an output terminal 112, and a motion information memory 113. The converter 106 and the quantizer 107 function as residual signal compression means, the inverse quantizer 108 and the inverse transformer 109 function as residual signal restoration means, and the motion information memory functions as motion information recording means. . Further, the motion information memory 113 may be included in the prediction signal generator 103.

入力端子101は、複数枚の画像からなる動画像の信号を入力する端子である。   The input terminal 101 is a terminal for inputting a moving image signal composed of a plurality of images.

ブロック分割器102は、入力端子101から入力された信号で表される、符号化の対象なる画像を複数の領域(対象ブロック、対象領域)に分割する。本実施形態では、8×8の画素からなるブロックに分割するが、それ以外のブロックの大きさ又は形に分割してもよい。また、画面内にサイズの異なるブロックが混在してもよい。   The block divider 102 divides an image to be encoded, which is represented by a signal input from the input terminal 101, into a plurality of regions (target block, target region). In this embodiment, the block is divided into 8 × 8 pixels, but may be divided into other block sizes or shapes. Further, blocks of different sizes may be mixed in the screen.

予測信号生成器103は、対象ブロック内の各予測ブロックの予測信号を生成するために必要な動き情報を検出すると共に、予測信号を生成する。また、復号装置にて動き情報の復元に必要となる付加情報を生成する。予測信号の生成方法は本発明では限定されないが、背景技術で説明したような画面間予測(片予測、双予測)や画面内予測(画面内予測については図示せず)が適用可能である。   The prediction signal generator 103 detects motion information necessary for generating a prediction signal of each prediction block in the target block and generates a prediction signal. Also, additional information necessary for restoring the motion information is generated by the decoding device. The method for generating the prediction signal is not limited in the present invention, but inter-screen prediction (single prediction, bi-prediction) and intra-screen prediction (not shown for intra-screen prediction) as described in the background art are applicable.

本実施形態では、双予測にて予測信号を生成する。双予測の1つの動き情報は図19に示したブロックマッチングにて、L102経由で入力される対象ブロックの元の信号と双予測信号との絶対値誤差和が最小となるようにL104経由で取得される画像信号を用いて検出する。そして、もう1つの動き情報は、符号化済みの動き情報に基づいて生成する。   In the present embodiment, a prediction signal is generated by bi-prediction. One motion information of bi-prediction is acquired via L104 so that the absolute value error sum between the original signal of the target block input via L102 and the bi-prediction signal is minimized by the block matching shown in FIG. Detection is performed using the image signal. The other motion information is generated based on the encoded motion information.

本実施形態では、双予測について説明するため、動き情報は、第0の動き情報と第1の動き情報で構成され、それぞれ、参照画面インデックス(ref_idx[0]またはref_idx[1])と動きベクトル(mv[0][0/1]またはmv[1][0/1])を含む。第0の動き情報の参照画面の候補は図6のList0、第1の動き情報の参照画面の候補は図6のList1にて指示される。ここで[0/1]はベクトルの水平成分と垂直成分を識別する情報である。以降、[0/1]の記述は省略する(図面でも同様に省略)。   In this embodiment, in order to explain bi-prediction, motion information is composed of 0th motion information and first motion information, and a reference screen index (ref_idx [0] or ref_idx [1]) and a motion vector, respectively. (Mv [0] [0/1] or mv [1] [0/1]). Candidates for the reference screen for the 0th motion information are indicated by List0 in FIG. 6, and candidates for the reference screen for the first motion information are indicated by List1 in FIG. Here, [0/1] is information for identifying the horizontal component and the vertical component of the vector. Hereinafter, the description of [0/1] is omitted (the same is omitted in the drawings).

なお、図6に示す参照画面リストに登録される再生画像は、予め定めておいたルールに従って自動的に決まってもよいし、フレーム単位やシーケンス単位で明示的に符号化してもよい。この際、各参照画面の識別には図5と図6に示すようにフレーム番号が利用できる。   Note that the playback image registered in the reference screen list shown in FIG. 6 may be automatically determined according to a predetermined rule, or may be explicitly encoded in frame units or sequence units. At this time, a frame number can be used to identify each reference screen as shown in FIGS.

予測信号生成器103にて生成された動き情報はL103bを経由して、動き情報用メモリ113に出力される。   The motion information generated by the prediction signal generator 103 is output to the motion information memory 113 via the L103b.

動き情報用メモリ113は、入力された動き情報を保存する。保存した動き情報は、L113を経由して予測信号生成器に入力され、後続するブロックの動き情報の符号化に利用される。   The motion information memory 113 stores the input motion information. The stored motion information is input to the prediction signal generator via L113, and is used for encoding motion information of the subsequent block.

予測信号生成器103にて生成された付加情報はL103cを経由して、符号化器111に出力される。   The additional information generated by the prediction signal generator 103 is output to the encoder 111 via the L103c.

予測信号生成器103にて生成された予測信号は、L103a経由で減算器105と加算器110に出力される。   The prediction signal generated by the prediction signal generator 103 is output to the subtracter 105 and the adder 110 via L103a.

減算器105は、ラインL102を経由して入力されたブロック分割器102で分割して入力された対象ブロックの画素信号からラインL103aを経由して入力される対象ブロックに対する予測信号を減算して、残差信号を生成する。減算器105は、減算して得た残差信号を、ラインL105を経由して変換器106に出力する。   The subtractor 105 subtracts the prediction signal for the target block input via the line L103a from the pixel signal of the target block divided and input by the block divider 102 input via the line L102, Generate a residual signal. The subtractor 105 outputs the residual signal obtained by the subtraction to the converter 106 via the line L105.

変換器106は、入力された残差信号を離散コサイン変換する部分である。また、量子化器107は、変換器106により離散コサイン変換された変換係数を量子化する部分である。   The converter 106 is a part that performs discrete cosine transform on the input residual signal. The quantizer 107 is a part that quantizes the transform coefficient that has been discrete cosine transformed by the transformer 106.

符号化器111は、予測信号生成器より入力された付加情報と量子化器107から入力された量子化変換係数をエントロピー符号化し、符号化データはL111を経由で出力端子112に出力される。エントロピー符号化の方法は限定されないが、算術符号化や可変長符号化などが適用できる。   The encoder 111 entropy-encodes the additional information input from the prediction signal generator and the quantized transform coefficient input from the quantizer 107, and the encoded data is output to the output terminal 112 via L111. The entropy encoding method is not limited, but arithmetic encoding, variable length encoding, and the like can be applied.

出力端子112は、符号化器111から入力した情報をまとめて外部に出力する。   The output terminal 112 collectively outputs information input from the encoder 111 and outputs the information to the outside.

逆量子化器108は、量子化された変換係数を逆量子化する。逆変換器109は、逆離散コサイン変換により残差信号を復元する。加算器110は、復元された残差信号とL103a経由で入力される予測信号とを加算し、符号化対象ブロックの信号を再生し、フレームメモリ104に格納する。本実施形態では、変換器106と逆変換器109とを用いているが、これらの変換器に代わる他の変換処理を用いてもよい。また、変換器106及び逆変換器109は必須ではない。このように、後続の符号化対象ブロックの予測信号生成に用いるため、符号化された符号化対象ブロックの再生信号は、逆処理にて復元されフレームメモリ104に記憶される。   The inverse quantizer 108 inversely quantizes the quantized transform coefficient. The inverse transformer 109 restores the residual signal by inverse discrete cosine transform. The adder 110 adds the restored residual signal and the prediction signal input via the L 103 a, reproduces the signal of the encoding target block, and stores it in the frame memory 104. In the present embodiment, the converter 106 and the inverse converter 109 are used, but other conversion processes in place of these converters may be used. Further, the converter 106 and the inverse converter 109 are not essential. Thus, in order to use it for the prediction signal production | generation of a subsequent encoding object block, the reproduced signal of the encoding object block encoded is decompress | restored by reverse processing, and is memorize | stored in the frame memory 104. FIG.

次に、予測信号生成器103について詳しく説明する。そこで、まず、動き情報、予測動き情報と付加情報について述べる。   Next, the prediction signal generator 103 will be described in detail. First, motion information, predicted motion information, and additional information will be described.

上記で示したとおり、双予測における動き情報は、第0の動き情報と第1の動き情報で構成され、それぞれ、参照画面インデックス(ref_idx[0]またはref_idx[1])と動きベクトル(mv[0]またはmv[1])を含む。第0の動き情報の参照画面の候補は図6のList0、第1の動き情報の参照画面の候補は図6のList1にて指示される。   As shown above, motion information in bi-prediction is composed of 0th motion information and 1st motion information, and a reference screen index (ref_idx [0] or ref_idx [1]) and a motion vector (mv [ 0] or mv [1]). Candidates for the reference screen for the 0th motion information are indicated by List0 in FIG. 6, and candidates for the reference screen for the first motion information are indicated by List1 in FIG.

本実施形態の双予測では、予測信号生成器103にて、既に符号化済みの動き情報を予測動き情報として利用する。符号化済みの動き情報には、符号化済みの隣接ブロックに付随する動き情報や、対象領域の符号化済みの動き情報が含まれる。なお、隣接ブロックに付随する動き情報とは、隣接ブロックが符号化対象であったときに予測信号の生成に用いた動き情報を指しており、動き情報用メモリ113に保存されている。   In the bi-prediction of the present embodiment, the prediction signal generator 103 uses already encoded motion information as predicted motion information. The encoded motion information includes motion information associated with the encoded adjacent block and encoded motion information of the target region. Note that the motion information associated with the adjacent block refers to the motion information used for generating the prediction signal when the adjacent block is the encoding target, and is stored in the motion information memory 113.

予測動き情報も、第0の予測動き情報と第1の予測動き情報で構成され、それぞれ、参照画面インデックス(ref_idx[0]またはref_idx[1])と動きベクトル(mv[0]またはmv[1])を含む。第0の予測動き情報の参照画面の候補は図6のList0、第1の予測動き情報の参照画面の候補は図6のList1にて指示される。   The predicted motion information is also composed of 0th predicted motion information and first predicted motion information, and each includes a reference screen index (ref_idx [0] or ref_idx [1]) and a motion vector (mv [0] or mv [1). ])including. Candidates for the reference screen for the 0th predicted motion information are indicated by List0 in FIG. 6, and candidates for the reference screen for the first predicted motion information are indicated by List1 in FIG.

予測動き情報の具体的な利用方法としては、List0の参照画面を参照してブロックマッチングにて検出した第0の動き情報の動きベクトルを差分符号化する際に、第0の予測動き情報に基づいて、予測動きベクトルを生成する。また、List1の参照画面を用いる第1の動き情報を第1の予測動き情報に基づいて生成する。   A specific method of using the predicted motion information is based on the 0th predicted motion information when the motion vector of the 0th motion information detected by block matching with reference to the reference screen of List0 is differentially encoded. Thus, a predicted motion vector is generated. Also, first motion information using the reference screen of List1 is generated based on the first predicted motion information.

予測動き情報の例を図7にて説明する。図7に示すブロック400が対象ブロックであり、それに隣接するブロック401から404に付随する動き情報が予測動き情報の候補となる。隣接ブロックの動き情報はそれぞれ第0の動き情報と第1の動き情報を含んでいる。両方を予測動き情報の候補としてもよいし、一方に限定してもよい(第Nの動き情報を予測する場合には、隣接ブロックの第Nの動きベクトルのみを候補とする)。   An example of the predicted motion information will be described with reference to FIG. A block 400 shown in FIG. 7 is a target block, and motion information accompanying blocks 401 to 404 adjacent thereto is a candidate for predicted motion information. The motion information of the adjacent block includes 0th motion information and 1st motion information, respectively. Both may be candidates for predicted motion information, or may be limited to one (when the Nth motion information is predicted, only the Nth motion vector of an adjacent block is a candidate).

また、ブロック410が、参照画面内でブロック400と空間的に同じ位置のブロック(co-located block)を示す。ブロック410とそれに隣接するブロック411から415に付随する動き情報が予測動き情報の候補となる。nは予測動き情報の候補を識別する番号を示しており、選択された候補は、予測動き情報インデックス(mvp_idx[0]またはmvp_idx[1])にて指示される。本実施形態では、第0の動き情報を先に符号化するため、第1の予測動き情報としては、ブロック400に付随する第0の動き情報を利用することも可能である(例ではn=4とする)。   A block 410 indicates a block (co-located block) at the same spatial position as the block 400 in the reference screen. Motion information associated with the block 410 and blocks 411 to 415 adjacent to the block 410 is a candidate for predicted motion information. n indicates a number for identifying a candidate for prediction motion information, and the selected candidate is indicated by a prediction motion information index (mvp_idx [0] or mvp_idx [1]). In this embodiment, since the 0th motion information is encoded first, the 0th motion information associated with the block 400 can be used as the first predicted motion information (in the example, n = 4).

なお、予測動き情報の候補の位置と番号は、符号化側と復号側で予め定められていればよく、本発明では限定されない。また、予測動き情報の候補の数は、符号化側と復号側で予め定められていてもよいし、符号化してもよい。   It should be noted that the position and number of the predicted motion information candidate may be determined in advance on the encoding side and the decoding side, and is not limited in the present invention. The number of prediction motion information candidates may be determined in advance on the encoding side and the decoding side, or may be encoded.

また、予測動き情報のref_idxにて識別される参照画面と対象ブロックのref_idxにて識別される参照画面が異なる場合には、符号化対象画面と2つの参照画面のフレーム番号に基づいて、予測動き情報に含まれる動きベクトルのスケーリング処理を行ってもよい。つまり、予測動き情報に含まれる動きベクトルをスケーリングして、対象ブロックにて識別される参照画面を指示する動きベクトルに変換し、変換した動きベクトルを予測動きベクトル(pmv[0][0/1]またはpmv[1][0/1])として用いる。この際、予測動き情報に含まれる参照画面インデックス(ref_idx[0]またはref_idx[1])は、対象ブロックの参照画面インデックス(ref_idx[0]またはref_idx[1])に更新される。ここで[0/1]はベクトルの水平成分と垂直成分を識別する情報である。以降、[0/1]の記述は省略する(図面でも同様に省略)。   In addition, when the reference screen identified by the ref_idx of the predicted motion information is different from the reference screen identified by the ref_idx of the target block, the predicted motion is based on the frame numbers of the encoding target screen and the two reference screens. You may perform the scaling process of the motion vector contained in information. That is, the motion vector included in the predicted motion information is scaled and converted into a motion vector that indicates the reference screen identified by the target block, and the converted motion vector is converted into the predicted motion vector (pmv [0] [0/1 ] Or pmv [1] [0/1]). At this time, the reference screen index (ref_idx [0] or ref_idx [1]) included in the predicted motion information is updated to the reference screen index (ref_idx [0] or ref_idx [1]) of the target block. Here, [0/1] is information for identifying the horizontal component and the vertical component of the vector. Hereinafter, the description of [0/1] is omitted (the same is omitted in the drawings).

付加情報は、第0の付加情報と第1の付加情報にて構成される。第0の付加情報は、ref_idx[0]と差分動きベクトル(mvd[0][0/1]=mv[0][0/1]−pmv[0][0/1])とmvp_idx[0]を含む。第1の付加情報は、ref_idx[1]とmvp_idx[1]を含む。本実施形態ではmv[1][0/1]=pmv[1][0/1]とするため、mvd[1][0/1]のベクトル値は常に0となる。mvd[1][0/1]は符号化しなくても復号側で復元できるため、第1の付加情報に含める必要がない。ここで[0/1]はベクトルの水平成分と垂直成分を識別する情報である。以降、[0/1]の記述は省略する(図面でも同様に省略)。   The additional information includes 0th additional information and 1st additional information. The 0th additional information includes ref_idx [0], a differential motion vector (mvd [0] [0/1] = mv [0] [0/1] −pmv [0] [0/1]), and mvp_idx [0 ]including. The first additional information includes ref_idx [1] and mvp_idx [1]. In this embodiment, since mv [1] [0/1] = pmv [1] [0/1], the vector value of mvd [1] [0/1] is always 0. Since mvd [1] [0/1] can be restored on the decoding side without being encoded, it is not necessary to include it in the first additional information. Here, [0/1] is information for identifying the horizontal component and the vertical component of the vector. Hereinafter, the description of [0/1] is omitted (the same is omitted in the drawings).

図2は、本実施形態に係る予測信号生成器103の構成を示すブロック図である。この予測信号生成器103は、第1の動き情報推定器121、第0の動き情報推定器122、予測信号合成器123を備えている。   FIG. 2 is a block diagram illustrating a configuration of the prediction signal generator 103 according to the present embodiment. The prediction signal generator 103 includes a first motion information estimator 121, a zeroth motion information estimator 122, and a prediction signal synthesizer 123.

第1の動き情報推定器121では、L104を経由して入力されるList1の参照画面を用いて、L113を経由して入力される複数の第1の予測動き情報の候補(参照画面インデックスに応じて動きベクトルをスケーリングして予測動きベクトルとする)からL102を経由して入力される対象ブロックの元の信号に最も類似する第1の予測信号を生成する1つの第1の予測動き情報の候補と参照画面インデックスの組を選択する。第1の予測信号をL121a経由で予測信号合成器123に出力し、選択された第1の予測動き情報と参照画面インデックスの組に基づいて生成される第1の動き情報を、L121bとL103b1を経由して第0の動き情報推定器122と動き情報用メモリ113にそれぞれ出力する。さらに、第1の付加情報を生成し、L103c1経由で符号化器111に出力する。   The first motion information estimator 121 uses a reference screen of List1 input via L104, and uses a plurality of first prediction motion information candidates input via L113 (according to the reference screen index). The first predicted motion information candidate that generates the first predicted signal most similar to the original signal of the target block input via L102). And a reference screen index pair. The first prediction signal is output to the prediction signal synthesizer 123 via L121a, and the first motion information generated based on the set of the selected first prediction motion information and the reference screen index is represented by L121b and L103b1. And output to the 0th motion information estimator 122 and the motion information memory 113 respectively. Further, the first additional information is generated and output to the encoder 111 via L103c1.

第0の動き情報推定器122では、L121bから入力される第1の動き情報とL104を経由して入力されるList1の参照画面を用いて、第1の予測信号を生成する。そして、L104を経由して入力されるList0の参照画面を探索し、第1の予測信号と探索した第0の予測信号の候補により生成される双予測信号とL102を経由して入力される対象ブロックの元の信号との絶対値差分和が最小となる第0の動き情報を検出する。検出した第0の動き情報により生成される第0の予測信号をL122経由で予測信号合成器123に出力する。また、第0の動き情報を、L103b2を経由して動き情報用メモリ113に出力する。さらに、第0の付加情報を生成し、L103c2経由で符号化器111に出力する。   The 0th motion information estimator 122 generates a first prediction signal using the first motion information input from L121b and the reference screen of List1 input via L104. Then, the reference screen of List0 input via L104 is searched, the bi-prediction signal generated from the first prediction signal and the searched candidate for the 0th prediction signal, and the object input via L102 The 0th motion information that minimizes the sum of absolute value differences from the original signal of the block is detected. The 0th prediction signal generated from the detected 0th motion information is output to the prediction signal synthesizer 123 via L122. Also, the 0th motion information is output to the motion information memory 113 via L103b2. Furthermore, 0th additional information is generated and output to the encoder 111 via the L103c2.

なお、第0の動き情報推定器122による処理を先に実行して、第0の動き情報と第0の付加情報を第0の予測信号よりも先に求めても良い。この場合は、探索した第0の予測信号の候補により生成される予測信号とL102を経由して入力される対象ブロックの元の信号との絶対値差分和が最小となる第0の動き情報を検出する。そして、第0の予測信号を利用して、第1の動き情報推定器121を実行する。つまり、L104を経由して入力されるList1の参照画面を用いて、L113を経由して入力される複数の第1の予測動き情報の候補(参照画面インデックスに応じて動きベクトルをスケーリングして予測動きベクトルとする)から第1の予測信号の候補を生成し、第0の予測信号と第1の予測信号の候補により生成される双予測信号がL102を経由して入力される対象ブロックの元の信号に最も類似するように第1の予測動き情報の候補と参照画面インデックスの組を選択する。この変形は、第0の動き情報を第1の動き情報推定器121に入力することにより実施できる。   Note that the processing by the 0th motion information estimator 122 may be executed first to obtain the 0th motion information and the 0th additional information before the 0th prediction signal. In this case, the 0th motion information that minimizes the sum of absolute difference between the predicted signal generated by the searched candidate for the 0th predicted signal and the original signal of the target block input via L102 is obtained. To detect. Then, the first motion information estimator 121 is executed using the 0th prediction signal. That is, by using the reference screen of List1 input via L104, a plurality of first prediction motion information candidates input via L113 (predicted by scaling the motion vector according to the reference screen index) The first prediction signal candidate is generated from the motion vector, and the bi-prediction signal generated by the 0th prediction signal and the first prediction signal candidate is input via L102. A set of the first predicted motion information candidate and the reference screen index is selected so as to be most similar to the first signal. This modification can be performed by inputting the 0th motion information to the first motion information estimator 121.

予測信号合成器123では、L121aとL122を経由して入力される第1の予測信号と第0の予測信号を平均化して、対象ブロックの予測信号を生成、L103a経由で減算器105と加算器110に出力される。   The prediction signal synthesizer 123 averages the first prediction signal and the zeroth prediction signal input via L121a and L122 to generate a prediction signal of the target block, and subtracter 105 and adder via L103a. 110 is output.

図3に第1の動き情報推定器121のフローチャートを示す。最初にステップS301にて対象ブロックの予測に用いるList1の参照画面の数をM(図6(A)や(C)ではM=4、図6(B)ではM=2)に設定するとともに、第1の動き情報に含まれるList1の参照画面インデックスref_idx[1]を0に設定し、List1の参照画面数のカウントmを0に初期化する。さらに、動きベクトル評価値DをMax値に設定する。次に、ステップS302にて、予測動きベクトルの候補数をN(図7ではN=11、但し、第1の動き情報推定器121を第0の動き情報推定器122よりも先に実施する場合には、ブロック400の第0の動き情報は決定していないためn=4はスキップする)に設定し、第1の付加情報に含まれる予測動き情報インデックスmvp_idx[1]を0に設定し、予測動き情報数のカウントnを0に初期化する。   FIG. 3 shows a flowchart of the first motion information estimator 121. First, in step S301, the number of List1 reference screens used for prediction of the target block is set to M (M = 4 in FIGS. 6A and 6C, M = 2 in FIG. 6B), and A reference screen index ref_idx [1] of List1 included in the first motion information is set to 0, and a count m of the number of reference screens of List1 is initialized to 0. Further, the motion vector evaluation value D is set to the Max value. Next, in step S302, the number of motion vector predictor candidates is N (N = 11 in FIG. 7, provided that the first motion information estimator 121 is implemented before the zeroth motion information estimator 122). , N = 4 is skipped because the 0th motion information of the block 400 has not been determined), and the predicted motion information index mvp_idx [1] included in the first additional information is set to 0, The count n of the number of predicted motion information is initialized to 0.

次に、ステップS303にて、隣接ブロックの動きベクトルから予測動きベクトル候補nの動きベクトルを取得し、ステップS304にて、n番目の予測測動きベクトルpmv[1][m][n][0/1]を生成する(ここで[0/1]はベクトルの水平成分と垂直成分を識別する情報である。以降、[0/1]の記述は省略する。図面でも同様に省略する)。この際、隣接ブロックの動きベクトルを対象画面と参照画面の距離(参照画面インデックスにより識別されるフレーム番号)に応じてスケーリングして、予測動きベクトルとする。その後、ステップS305にて、第m番目の参照画面とn番目のスケーリング後の予測動きベクトル(pmv[1][m][n])に基づいて対象ブロックの予測信号を生成し、ステップS306にて、生成した予測信号と対象ブロックの元の信号との差分信号の絶対値和が動きベクトル評価値Dより小さいか否かを判定する。絶対値和が動きベクトル評価値D以上の場合には、ステップS308に進む。絶対値和が動きベクトル評価値Dより小さい場合には、ステップS307に進み、第1の付加情報に含まれる予測動き情報インデックスmvp_idx[1]をnに更新し、参照画面インデックスをref_idx[1]をmに更新し、動きベクトル評価値DをステップS306にて算出した予測信号と対象ブロックの元の信号との差分信号の絶対値和に更新する。さらに第1の動き情報に含まれる動きベクトルmv[1]を予測動きベクトルpmv[1][ref_idx[1]][mvp_idx[1]]に設定し、参照画面インデックスをref_idx[1]に設定する。その後、ステップS308に進む。   Next, in step S303, the motion vector of the predicted motion vector candidate n is acquired from the motion vectors of adjacent blocks, and in step S304, the nth predicted motion vector pmv [1] [m] [n] [0 / 1] is generated (here, [0/1] is information for identifying the horizontal and vertical components of the vector. Hereinafter, the description of [0/1] is omitted, and is similarly omitted in the drawings). At this time, the motion vector of the adjacent block is scaled according to the distance between the target screen and the reference screen (frame number identified by the reference screen index) to obtain a predicted motion vector. Thereafter, in step S305, a prediction signal of the target block is generated based on the mth reference screen and the nth scaled predicted motion vector (pmv [1] [m] [n]). Thus, it is determined whether or not the sum of absolute values of the difference signal between the generated prediction signal and the original signal of the target block is smaller than the motion vector evaluation value D. If the absolute value sum is greater than or equal to the motion vector evaluation value D, the process proceeds to step S308. When the absolute value sum is smaller than the motion vector evaluation value D, the process proceeds to step S307, where the predicted motion information index mvp_idx [1] included in the first additional information is updated to n, and the reference screen index is ref_idx [1]. Is updated to m, and the motion vector evaluation value D is updated to the sum of absolute values of the difference signal between the prediction signal calculated in step S306 and the original signal of the target block. Furthermore, the motion vector mv [1] included in the first motion information is set to the predicted motion vector pmv [1] [ref_idx [1]] [mvp_idx [1]], and the reference screen index is set to ref_idx [1]. . Thereafter, the process proceeds to step S308.

ステップS308では、nの値がNより小さいか否かを判定し、nがNより小さい場合には、ステップS309に進み、nがNに達した場合にはステップS310に進む。ステップS309では、nの値に1を加算し、ステップS303に戻る。その後、nがNに達するまでステップS303からステップS307を繰り返す。ステップS310では、mの値がMより小さいか否かを判定し、mがMより小さい場合には、ステップS311に進み、mの値に1を加算し、ステップS302に戻る。その後、mがMに達するまでステップS302からステップS309を繰り返す。mがMに達した場合には、ステップS312にて第1の付加情報(ref_idx[1]、mvp_idx[1])を符号化器111に出力すると共に、第1の動き情報(ref_idx[1]とmv[1])を動き情報用メモリ113に格納して、第0の動き情報推定器122に出力し、処理を終了する。   In step S308, it is determined whether or not the value of n is smaller than N. If n is smaller than N, the process proceeds to step S309. If n reaches N, the process proceeds to step S310. In step S309, 1 is added to the value of n, and the process returns to step S303. Thereafter, steps S303 to S307 are repeated until n reaches N. In step S310, it is determined whether the value of m is smaller than M. If m is smaller than M, the process proceeds to step S311, 1 is added to the value of m, and the process returns to step S302. Thereafter, steps S302 to S309 are repeated until m reaches M. When m reaches M, the first additional information (ref_idx [1], mvp_idx [1]) is output to the encoder 111 in step S312, and the first motion information (ref_idx [1]) is output. And mv [1]) are stored in the motion information memory 113 and output to the 0th motion information estimator 122, and the process ends.

図4に第0の動き情報推定器122のフローチャートを示す。最初にステップS351にて、第1の動き情報に基づいて双予測における第1の予測信号を生成する。次に、ステップS352にて、対象ブロックの予測に用いるList0の参照画面の数をM(図6(A)や(C)ではM=4、図6(B)ではM=2))に設定するとともに、第0の動き情報に含まれるList0の参照画面インデックスref_idx[0]を0に設定し、List0の参照画面数のカウントmを0に初期化する。さらに、動きベクトル評価値DをMax値に設定する。次に、ステップS353にて、複数の候補から第0の動きベクトルを差分符号化する際に用いる予測動きベクトルを識別する予測動き情報インデックスmvp_idx[0]を決定する。選択方法は、例えば、図3のステップS303からS309に示す手法が利用できる。そして、予測動きベクトルの候補pmv[0][m][n]を生成する。この際、図3のステップS304にて説明したように、隣接ブロックの動きベクトルを対象画面と参照画面の距離(参照画面インデックスにより識別されるフレーム番号)に応じてスケーリングして予測動きベクトルとする。   FIG. 4 shows a flowchart of the 0th motion information estimator 122. First, in step S351, a first prediction signal in bi-prediction is generated based on the first motion information. Next, in step S352, the number of List0 reference screens used for prediction of the target block is set to M (M = 4 in FIGS. 6A and 6C, M = 2 in FIG. 6B)). At the same time, the reference screen index ref_idx [0] of List0 included in the 0th motion information is set to 0, and the count m of the number of reference screens of List0 is initialized to 0. Further, the motion vector evaluation value D is set to the Max value. Next, in step S353, a predicted motion information index mvp_idx [0] for identifying a predicted motion vector used when differentially encoding the 0th motion vector from a plurality of candidates is determined. As the selection method, for example, the method shown in steps S303 to S309 in FIG. 3 can be used. Then, a predicted motion vector candidate pmv [0] [m] [n] is generated. At this time, as described in step S304 in FIG. 3, the motion vector of the adjacent block is scaled according to the distance between the target screen and the reference screen (the frame number identified by the reference screen index) to obtain a predicted motion vector. .

次に、ステップS354にて、フレームメモリ104に格納されているref_idx[0]にて指示される参照画面を取得し、第1の予測信号とあわせて平均化することによって得られる双予測信号と元の信号との差分信号の絶対値和が最小となる第0の動きベクトルmv[0]を探索する。続いてステップS355では、第0の差分動きベクトルmvd[0](=mv[0]−pmv[0][m][n])を生成する。続いて、ステップS356にて、生成した双予測信号と対象ブロックの元の信号との差分信号の絶対値和と第0の付加情報(mvd[0]とmとn)の符号量評価値(λ(QP)×(mvd、m、nの符号量)、λは予測誤差信号を変換した変換係数を量子化する際の量子化精度を決めるパラメータQPにてきまる重み値)の和が動きベクトル評価値Dより小さいか否かを判定する。絶対値和+符号量評価値が動きベクトル評価値D以上の場合には、ステップS358に進む。絶対値和+符号量評価値が動きベクトル評価値Dより小さい場合には、ステップS357に進み、第0の付加情報に含まれる予測動き情報インデックスmvp_idx[0]をnに更新し、参照画面インデックスをref_idx[0]をmに更新し、差分動きベクトルmvd[0]を(mv[0]−pmv[0][ref_idx[1]][mvp_idx[1]])に更新し、DをステップS356にて算出した双予測信号と対象ブロックの元の信号との差分信号の絶対値和+符号量評価値に更新する。さらに第0の動き情報に含まれる動きベクトルmv[0]を更新する。その後、ステップS358に進む。   Next, in step S354, the bi-prediction signal obtained by acquiring the reference screen indicated by ref_idx [0] stored in the frame memory 104 and averaging it together with the first prediction signal; The 0th motion vector mv [0] that minimizes the sum of absolute values of the difference signal from the original signal is searched. Subsequently, in step S355, a zeroth differential motion vector mvd [0] (= mv [0] −pmv [0] [m] [n]) is generated. Subsequently, in step S356, the absolute value sum of the difference signal between the generated bi-predicted signal and the original signal of the target block and the code amount evaluation value of the 0th additional information (mvd [0], m, and n) ( The sum of λ (QP) × (mvd, m, n code amount), λ is a weight vector determined by a parameter QP that determines quantization accuracy when the transform coefficient obtained by transforming the prediction error signal is quantized is a motion vector. It is determined whether or not the evaluation value D is smaller. If the absolute value sum + code amount evaluation value is greater than or equal to the motion vector evaluation value D, the process proceeds to step S358. If the absolute value sum + the code amount evaluation value is smaller than the motion vector evaluation value D, the process proceeds to step S357, the predicted motion information index mvp_idx [0] included in the 0th additional information is updated to n, and the reference screen index Ref_idx [0] is updated to m, the differential motion vector mvd [0] is updated to (mv [0] −pmv [0] [ref_idx [1]] [mvp_idx [1]]), and D is updated in step S356. The absolute value sum of the difference signal between the bi-predicted signal calculated in step 1 and the original signal of the target block + the code amount evaluation value is updated. Further, the motion vector mv [0] included in the 0th motion information is updated. Thereafter, the process proceeds to step S358.

ステップS358では、mの値がMより小さいか否かを判定し、mがMより小さい場合には、ステップS359に進み、mの値に1を加算し、ステップS353に戻る。その後、mがMに達するまでステップS353からステップS359を繰り返す。mがMに達した場合には、ステップS360にて、第0の付加情報(ref_idx[0]、mvd[0]、mvp_idx[0])を符号化器111に出力すると共に、第0の動き情報(ref_idx[0]とmv[0])を動き情報用メモリ113に格納して、処理を終了する。   In step S358, it is determined whether or not the value of m is smaller than M. If m is smaller than M, the process proceeds to step S359, 1 is added to the value of m, and the process returns to step S353. Thereafter, steps S353 to S359 are repeated until m reaches M. When m reaches M, in step S360, the 0th additional information (ref_idx [0], mvd [0], mvp_idx [0]) is output to the encoder 111 and the 0th motion Information (ref_idx [0] and mv [0]) is stored in the motion information memory 113, and the process ends.

なお、第0の動き情報推定器122を先に実行して、第0の動き情報と第0の付加情報を第0の予測信号よりも先に求めても良い。この場合、図4のステップS351は省略され、ステップS356では、双予測信号ではなく、第0の予測信号と元の信号との差分信号の絶対値和を求める。図3では、図7のn=4で指示される第0の動き情報を予測動き情報の候補として活用することが可能となる。第0の動き情報に基づいて双予測における第0の予測信号を生成するステップを追加し、ステップS306で、生成した第1の予測信号と第0の予測信号を平均化することにより生成される双予測信号と元の予測信号との差分信号の絶対値和を算出するように変更することにより、この変形は実現できる。   Note that the 0th motion information estimator 122 may be executed first to obtain the 0th motion information and the 0th additional information before the 0th prediction signal. In this case, step S351 in FIG. 4 is omitted, and in step S356, the absolute value sum of the difference signal between the 0th prediction signal and the original signal is obtained instead of the bi-prediction signal. In FIG. 3, the 0th motion information indicated by n = 4 in FIG. 7 can be used as a candidate for predicted motion information. A step of generating a 0th prediction signal in bi-prediction based on the 0th motion information is added, and the generated first prediction signal and the 0th prediction signal are averaged in step S306. This modification can be realized by changing to calculate the sum of absolute values of the difference signal between the bi-prediction signal and the original prediction signal.

このように、既に符号化済みの動き情報に基づいて双予測の第1の動きベクトルを生成し、動きベクトルの代わりに、図6と図7に示すような複数の候補から参照画面インデックスと予測動き情報を識別する識別情報を符号化することにより、少ない符号量で、ランダム性の高いテクスチャ領域やノイズを含む平坦領域の対象ブロックの信号に類似する1つの類似信号を生成できる。さらに、参照画面上を探索して、第2の類似信号を生成する第0の動きベクトルを検出して符号化することにより、2つの動きベクトルを共に符号化済みの動き情報から求める場合に比較して、双予測信号の平滑化効果を高める効果が期待できる。   In this way, a first motion vector of bi-prediction is generated based on already encoded motion information, and a reference screen index and prediction are made from a plurality of candidates as shown in FIGS. 6 and 7 instead of the motion vector. By encoding the identification information for identifying the motion information, it is possible to generate one similar signal that is similar to the signal of the target block in the texture region with high randomness and the flat region including noise with a small code amount. Furthermore, search is performed on the reference screen, and the 0th motion vector that generates the second similar signal is detected and encoded, so that both motion vectors are obtained from the encoded motion information. Thus, an effect of enhancing the smoothing effect of the bi-prediction signal can be expected.

図9は、本実施形態に係る動画像予測符号化装置100における動画像予測符号化方法の手順を示すフローチャートである。まず、ブロック分割器102にて入力画像を8×8の符号化ブロック(それ以外のブロックの大きさ又は形に分割してもよい。また、画面内にサイズの異なるブロックが混在してもよい。)に分割する。   FIG. 9 is a flowchart showing the procedure of the video predictive coding method in the video predictive coding device 100 according to the present embodiment. First, the input image is divided into 8 × 8 encoded blocks (other block sizes or shapes by the block divider 102. Also, blocks of different sizes may be mixed in the screen. .).

まず、予測信号生成器103を構成する第1の動き情報推定器121がフレームメモリ104から得られるList1の参照画面と動き情報用メモリから得られる第1の予測動き情報の候補を用いて、対象ブロックに類似する第1の予測信号を生成すると共に、第1の予測信号の生成に必要となる第1の動き情報と第1の付加情報を生成する(ステップS100)。このステップの詳細については、図3にて説明済みである。次に、第0の動き情報推定器122がフレームメモリ104から得られるList0の参照画面と動き情報用メモリから得られる第0の予測動き情報の候補と、第1の動き情報推定器121から得られる第1の動き情報を用いて、対象ブロックに類似する第0の予測信号を生成すると共に、第0の予測信号の生成に必要となる第0の動き情報と第0の付加情報を生成する(ステップS150)。このステップの詳細については、図4にて説明済みである。   First, the first motion information estimator 121 that constitutes the prediction signal generator 103 uses the reference screen of List1 obtained from the frame memory 104 and the first prediction motion information candidate obtained from the motion information memory, as a target. A first prediction signal similar to the block is generated, and first motion information and first additional information necessary for generating the first prediction signal are generated (step S100). Details of this step have already been described with reference to FIG. Next, the 0th motion information estimator 122 obtains from the reference screen of List 0 obtained from the frame memory 104 and the 0th motion prediction information candidate obtained from the motion information memory and the first motion information estimator 121. Is used to generate a 0th prediction signal similar to the target block, and to generate 0th motion information and 0th additional information necessary for generating the 0th prediction signal. (Step S150). Details of this step have already been described with reference to FIG.

次に、第0の付加情報と第1の付加情報を符号化器111でエントロピー符号化すると共に、第0の動き情報と第1の動き情報を動き情報用メモリ113に格納する(ステップS101)。続いて、ステップS102では、予測信号生成器103を構成する予測信号合成器123にて、第0の予測信号と第1の予測信号を平均化して、対象ブロックの双予測信号を生成する。符号化対象ブロックの画素信号と予測信号との差分を示す残差信号は、変換器106、量子化器107及び符号化器111により変換符号化される(ステップS103)。付加情報と量子化変換係数の符号化データは出力端子112を介して出力される(ステップS104)。後続の符号化対象ブロックを予測符号化するため、これら処理の後に又はこれらの処理と並行して符号化された残差信号が逆量子化器108及び逆変換器109により復号される。そして、加算器110にて、復号された残差信号と予測信号とが加算され、符号化対象ブロックの信号が再生される。再生信号はフレームメモリ104に参照画面として記憶される(ステップS105)。そして、すべての符号化対象ブロックの処理が完了していない場合にはステップS100に戻り、次の符号化対象ブロックに対する処理が行われる。すべての符号化対象ブロックの処理が完了している場合には、処理を終了する(ステップS106)。   Next, the 0th additional information and the first additional information are entropy-encoded by the encoder 111, and the 0th motion information and the first motion information are stored in the motion information memory 113 (step S101). . Subsequently, in step S102, the prediction signal synthesizer 123 constituting the prediction signal generator 103 averages the 0th prediction signal and the first prediction signal to generate a bi-prediction signal of the target block. The residual signal indicating the difference between the pixel signal of the encoding target block and the prediction signal is transform-coded by the transformer 106, the quantizer 107, and the encoder 111 (step S103). The additional information and the encoded data of the quantized transform coefficient are output via the output terminal 112 (step S104). In order to predictively encode the subsequent encoding target block, the residual signal encoded after these processes or in parallel with these processes is decoded by the inverse quantizer 108 and the inverse transformer 109. Then, the adder 110 adds the decoded residual signal and the prediction signal, and reproduces the signal of the encoding target block. The reproduction signal is stored as a reference screen in the frame memory 104 (step S105). If all the encoding target blocks have not been processed, the process returns to step S100, and processing for the next encoding target block is performed. If all the encoding target blocks have been processed, the processing ends (step S106).

次に、本実施形態に係る動画像予測復号方法について説明する。図10は、本実施形態に係る動画像予測復号装置200を示すブロック図である。この動画像予測復号装置200は、入力端子201、復号器202、逆量子化器203、逆変換器204、加算器205、出力端子206、動き補償器207、動き情報復元器208、フレームメモリ104、動き情報用メモリ113を備えている。逆量子化器203、逆変換器204は、残差信号復元手段として機能し、動き情報用メモリ113は動き情報記録手段として機能する。逆量子化器203及び逆変換器204による復号手段は、これらのもの以外を用いて行ってもよい。また、逆変換器204はなくてもよい。   Next, the video predictive decoding method according to this embodiment will be described. FIG. 10 is a block diagram showing a video predictive decoding device 200 according to this embodiment. The moving picture predictive decoding apparatus 200 includes an input terminal 201, a decoder 202, an inverse quantizer 203, an inverse transformer 204, an adder 205, an output terminal 206, a motion compensator 207, a motion information restoration unit 208, and a frame memory 104. A motion information memory 113 is provided. The inverse quantizer 203 and the inverse transformer 204 function as residual signal restoring means, and the motion information memory 113 functions as motion information recording means. The decoding means by the inverse quantizer 203 and the inverse transformer 204 may be performed using other than these. Further, the inverse converter 204 may not be provided.

入力端子201は、上述した動画像予測符号化方法で圧縮符号化された圧縮データを入力する。この圧縮データには、複数に分割された符号化ブロックについて、誤差信号を変換量子化してエントロピー符号化した量子化変換係数の情報の符号化データと、ブロックの双予測信号を生成するための第0の付加情報と第1の付加情報の符号化データが含まれている。   The input terminal 201 inputs compressed data that has been compression-encoded by the above-described video predictive encoding method. This compressed data includes encoded data of quantized transform coefficient information obtained by transform-quantizing an error signal and entropy-coding the encoded block divided into a plurality of blocks, and a second prediction signal for generating a block bi-predictive signal. The encoded data of 0 additional information and first additional information is included.

復号器202は、入力端子201に入力された圧縮データを解析し、復号対象ブロックに関して、量子化変換係数の符号化データ、付加情報の符号化データに分離して、エントリピー復号し、L202a、L202b経由で、それぞれ、逆量子化器203、動き情報復元器208に出力する。   The decoder 202 analyzes the compressed data input to the input terminal 201, separates the decoding target block into encoded data of quantized transform coefficients and encoded data of additional information, performs entry-pei decoding, L202a, The data is output to the inverse quantizer 203 and the motion information decompressor 208 via L202b, respectively.

動き情報復元器208は、第0の付加情報(ref_idx[0]、mvd[0]、mvp_idx[0])と第1の付加情報(ref_idx[1]、mvp_idx[1])を、L202bを経由して入力し、L113経由で取得される復号済みの動き情報を利用して、第0の動き情報(ref_idx[0]、mv[0])と第1の動き情報(ref_idx[1]、mv[1])を復元する。復元された第0の動き情報と第1の動き情報はL208aとL208b経由で動き補償器207と動き情報用メモリ113にそれぞれ出力される。動き情報用メモリは動き情報を保存する。   The motion information restoring unit 208 sends the 0th additional information (ref_idx [0], mvd [0], mvp_idx [0]) and the first additional information (ref_idx [1], mvp_idx [1]) via L202b. And using the decoded motion information acquired via L113, the 0th motion information (ref_idx [0], mv [0]) and the first motion information (ref_idx [1], mv Restore [1]). The restored zeroth motion information and first motion information are output to the motion compensator 207 and the motion information memory 113 via L208a and L208b, respectively. The motion information memory stores motion information.

動き補償器207は、2つの動き情報に基づいてフレームメモリ104から既再生信号を取得し、2つの予測信号を平均化して、復号対象ブロックの双予測信号を生成する。生成された予測信号はL126経由で加算器205に出力される。   The motion compensator 207 acquires the already reproduced signal from the frame memory 104 based on the two pieces of motion information, averages the two prediction signals, and generates a bi-prediction signal for the decoding target block. The generated prediction signal is output to the adder 205 via L126.

復号器202にて復号された復号対象ブロックにおける残差信号の量子化変換係数は、L203経由で逆量子化器203に出力される。逆量子化器203は、復号対象ブロックにおける残差信号の量子化係数を逆量子化する。逆変換器204は、逆量子化したデータを逆離散コサイン変換して残差信号を生成する。   The quantized transform coefficient of the residual signal in the decoding target block decoded by the decoder 202 is output to the inverse quantizer 203 via L203. The inverse quantizer 203 inversely quantizes the quantization coefficient of the residual signal in the decoding target block. The inverse transformer 204 performs an inverse discrete cosine transform on the inversely quantized data to generate a residual signal.

加算器205は、動き補償器207で生成された双予測信号を、逆量子化器203および逆変換器204により復元された残差信号に加算して、復号対象ブロックの再生画素信号をラインL205経由で出力端子206およびフレームメモリ104に出力する。出力端子206は、外部に(例えばディスプレイ)出力する。   The adder 205 adds the bi-prediction signal generated by the motion compensator 207 to the residual signal restored by the inverse quantizer 203 and the inverse transformer 204, and the reproduced pixel signal of the decoding target block is added to the line L205. Via the output terminal 206 and the frame memory 104. The output terminal 206 outputs to the outside (for example, a display).

フレームメモリ104は、つぎの復号処理のための参照用の再生画像として、加算器205から出力された再生画像を参照画面として記憶する。   The frame memory 104 stores the playback image output from the adder 205 as a reference screen as a reference playback image for the next decoding process.

図11は、本実施形態に係る動き情報復元器208の構成を示すブロック図である。この動き情報復元器208は、第1の動き情報復元器211、第0の動き情報復元器212を備えている。   FIG. 11 is a block diagram showing the configuration of the motion information restoring unit 208 according to this embodiment. The motion information restoring unit 208 includes a first motion information restoring unit 211 and a 0th motion information restoring unit 212.

これらの第1の動き情報復元器211と第0の動き情報復元器212は同時に動作することが可能である。   The first motion information restoration unit 211 and the 0th motion information restoration unit 212 can operate simultaneously.

第0の動き情報復元器212は、第0の付加情報(ref_idx[0]、mvp_idx[0]、mvd[0])を入力として、L113経由で得られる隣接ブロックの動き情報から第0の予測動きベクトル(pmv[0][ref_idx[0]][mvp_idx[0]])を生成し、予測動きベクトルと付加情報に含まれる差分動きベクトル(mvd[0])を加算することにより、第0の動き情報に含まれる動きベクトルを生成することにより、第0の動き情報を復元する。同様に、ref_idxにて識別される参照画面と対象ブロックのref_idxにて識別される参照画面が異なる場合には、符号化対象画面と2つの参照画面のフレーム番号に基づいて、予測動き情報に含まれる動きベクトルのスケーリング処理を行ってもよい。   The 0th motion information reconstructor 212 receives the 0th additional information (ref_idx [0], mvp_idx [0], mvd [0]) as input, and performs 0th prediction from the motion information of adjacent blocks obtained via L113. A motion vector (pmv [0] [ref_idx [0]] [mvp_idx [0]]) is generated, and the predicted motion vector and the difference motion vector (mvd [0]) included in the additional information are added to obtain the 0th The zeroth motion information is restored by generating a motion vector included in the motion information. Similarly, if the reference screen identified by ref_idx and the reference screen identified by ref_idx of the target block are different, they are included in the predicted motion information based on the frame numbers of the encoding target screen and the two reference screens. A motion vector scaling process may be performed.

第1の動き情報復元器211は、第1の付加情報(ref_idx[1]、mvp_idx[1])を入力として、L113経由で得られる復号済みの動き情報から第1の予測動きベクトル(pmv[1][ref_idx[1]][mvp_idx[1]])を生成する。この予測動きベクトルを第1の動き情報に含まれる動きベクトル(mv[1]=pmv[1][ref_idx[1]][mvp_idx[1])とすることにより、第1の動き情報を復元する。このとき、差分動きベクトルmvd[1]をゼロベクトルに設定し、これを予測動きベクトルと加算して、第1の動きベクトルを復元するようにしてもよい。なお、この際、ref_idxにて識別される参照画面と対象ブロックのref_idxにて識別される参照画面が異なる場合には、符号化対象画面と2つの参照画面のフレーム番号に基づいて、予測動き情報に含まれる動きベクトルのスケーリング処理を行ってもよい。つまり、予測動き情報に含まれる動きベクトルをスケーリングして、対象ブロックにて識別される参照画面を指示する動きベクトルに変換し、変換した動きベクトルを予測動きベクトルとして用いる。   The first motion information decompressor 211 receives the first additional information (ref_idx [1], mvp_idx [1]) as an input, and uses the decoded motion information obtained via L113 as the first predicted motion vector (pmv [ 1] [ref_idx [1]] [mvp_idx [1]]). By using the predicted motion vector as a motion vector (mv [1] = pmv [1] [ref_idx [1]] [mvp_idx [1]) included in the first motion information, the first motion information is restored. . At this time, the differential motion vector mvd [1] may be set to a zero vector and added to the predicted motion vector to restore the first motion vector. At this time, if the reference screen identified by ref_idx and the reference screen identified by ref_idx of the target block are different, the prediction motion information is based on the frame numbers of the encoding target screen and the two reference screens. May be subjected to scaling processing of motion vectors included in. That is, the motion vector included in the predicted motion information is scaled and converted into a motion vector that indicates the reference screen identified by the target block, and the converted motion vector is used as the predicted motion vector.

図13に第0の動き情報復元器212のフローチャートを示す。最初にステップS451にて第0の付加情報(ref_idx[0]とmvp_idx[0]とmvd[0])の復号データを入力する。次に、ステップS452にて、入力されたref_idx[0]とmvp_idx[0]に基づいて、図7に示すような隣接ブロックの動き情報(ブロック400の動き情報は未定のため含めない)から、mvp_idx[0]にて指示される動き情報を入力し、予測動きベクトル(pmv[0][ref_idx[0]][mvp_idx[0]])を導出する。このとき、ref_idxにて識別される参照画面と対象ブロックのref_idxにて識別される参照画面が異なる場合には、符号化対象画面と2つの参照画面のフレーム番号に基づいて、予測動き情報に含まれる動きベクトルのスケーリング処理を行ってもよい。その後、ステップS453にて、生成した予測動きベクトルと差分動きベクトルを加算して、第0の動きベクトルを復元する(mv[0]=pmv[0][ref_idx[0]][mvp_idx[0]]+mvd[0])。最後にステップS454にて第0の動き情報(ref_idx[0]とmv[0])を動き補償器207と動き情報用メモリ113に出力して、処理を終了する。   FIG. 13 shows a flowchart of the 0th motion information restoring unit 212. First, in step S451, decoded data of 0th additional information (ref_idx [0], mvp_idx [0], and mvd [0]) is input. Next, in step S452, based on the input ref_idx [0] and mvp_idx [0], from the adjacent block motion information as shown in FIG. The motion information indicated by mvp_idx [0] is input, and a predicted motion vector (pmv [0] [ref_idx [0]] [mvp_idx [0]]) is derived. At this time, if the reference screen identified by ref_idx and the reference screen identified by ref_idx of the target block are different, they are included in the predicted motion information based on the frame numbers of the encoding target screen and the two reference screens. A motion vector scaling process may be performed. Thereafter, in step S453, the generated motion vector predictor and the difference motion vector are added to restore the 0th motion vector (mv [0] = pmv [0] [ref_idx [0]] [mvp_idx [0] ] + Mvd [0]). Finally, in step S454, the 0th motion information (ref_idx [0] and mv [0]) is output to the motion compensator 207 and the motion information memory 113, and the process is terminated.

図12に第1の動き情報復元器211のフローチャートを示す。最初にステップS401にて第1の付加情報(ref_idx[1]とmvp_idx[1])の復号データを入力し、ステップS402にて差分動きベクトル(mvd[1])のベクトル値を0に設定する。次に、ステップS403にて、入力されたref_idx[1]とmvp_idx[1]に基づいて、図7に示すように復号済みの動き情報(n=4を含めることが可能)から、mvp_idx[1]にて指示される動き情報を入力し、予測動きベクトル(pmv[1][ref_idx[1]][mvp_idx[1]])を導出する。このとき、ref_idxにて識別される参照画面と対象ブロックのref_idxにて識別される参照画面が異なる場合には、符号化対象画面と2つの参照画面のフレーム番号に基づいて、予測動き情報に含まれる動きベクトルのスケーリング処理を行ってもよい。その後、ステップS404にて、生成した予測動きベクトルと差分動きベクトルを加算して、第1の動きベクトルを復元する(mv[1]=pmv[1][ref_idx[1]][mvp_idx[1]]+mvd[1])。最後にステップS405にて第1の動き情報(ref_idx[1]とmv[1])を動き補償器207と動き情報用メモリ113に出力して、処理を終了する。なお、mvd[1]のベクトル値は常に0となるため、ステップS402を省略し、ステップS404にて予測動きベクトルを動きベクトルに設定してもよい(mv[1]=pmv[1][ref_idx[1]][mvp_idx[1]])。   FIG. 12 shows a flowchart of the first motion information restoring unit 211. First, decoded data of the first additional information (ref_idx [1] and mvp_idx [1]) is input in step S401, and the vector value of the difference motion vector (mvd [1]) is set to 0 in step S402. . Next, in step S403, based on the input ref_idx [1] and mvp_idx [1], as shown in FIG. 7, from the decoded motion information (n = 4 can be included), mvp_idx [1 ] Is input, and a predicted motion vector (pmv [1] [ref_idx [1]] [mvp_idx [1]]) is derived. At this time, if the reference screen identified by ref_idx and the reference screen identified by ref_idx of the target block are different, they are included in the predicted motion information based on the frame numbers of the encoding target screen and the two reference screens. A motion vector scaling process may be performed. Thereafter, in step S404, the generated motion vector predictor and the difference motion vector are added to restore the first motion vector (mv [1] = pmv [1] [ref_idx [1]] [mvp_idx [1] ] + Mvd [1]). Finally, in step S405, the first motion information (ref_idx [1] and mv [1]) is output to the motion compensator 207 and the motion information memory 113, and the process ends. Since the vector value of mvd [1] is always 0, step S402 may be omitted and the predicted motion vector may be set as a motion vector in step S404 (mv [1] = pmv [1] [ref_idx [1]] [mvp_idx [1]]).

次に、図14を用いて、図10に示す動画像予測復号装置200における動画像予測復号方法を説明する。まず、入力端子201を介して、圧縮データが入力される(ステップS201)。そして、復号器202にて圧縮データのデータ解析し、エントロピー復号を行い、双予測信号の生成に必要となる第0の付加情報と第1の付加情報、ならびに量子化変換係数を復号する(ステップS202)。   Next, a moving picture predictive decoding method in the moving picture predictive decoding apparatus 200 shown in FIG. 10 will be described using FIG. First, compressed data is input via the input terminal 201 (step S201). Then, the decoder 202 analyzes the data of the compressed data, performs entropy decoding, and decodes the 0th additional information and the first additional information and the quantized transform coefficient necessary for generating the bi-predictive signal (step) S202).

次に、動き情報復元器208を構成する第0の動き情報復元器212にて、第0の付加情報と動き情報用メモリ113に保存されている隣接ブロックの動き情報を用いて、第0の動き情報を復元する(ステップS250)。このステップの詳細については、図13にて説明済みである。   Next, the 0th motion information restoring unit 212 constituting the motion information restoring unit 208 uses the 0th additional information and the motion information of the adjacent block stored in the motion information memory 113 to generate the 0th The motion information is restored (step S250). Details of this step have already been described with reference to FIG.

続いて、動き情報復元器208を構成する第1の動き情報復元器211にて、第1の付加情報と動き情報用メモリ113に保存されている隣接ブロックの動き情報を用いて、第1の動き情報を復元する(ステップS200)。このステップの詳細については、図12にて説明済みである。   Subsequently, in the first motion information restoring unit 211 constituting the motion information restoring unit 208, the first additional information and the motion information of the adjacent block stored in the motion information memory 113 are used to The motion information is restored (step S200). Details of this step have already been described with reference to FIG.

次に、復元された動き情報に基づいて、動き補償器207が復号対象ブロックの双予測信号を生成する共に、動き情報を動き情報用メモリ113に保存する(S207)。   Next, based on the restored motion information, the motion compensator 207 generates a bi-prediction signal for the decoding target block, and stores the motion information in the motion information memory 113 (S207).

復号器202にて復号された量子化変換係数は、逆量子化器203において逆量子化され、逆変換器204において逆変換が行われ、再生残差信号が生成される(S208)。そして、生成された双予測信号と再生残差信号とが加算されることで再生信号が生成され、この再生信号が次の復号対象ブロックを再生するためにフレームメモリ104に格納される(ステップS209)。次の圧縮データがある場合には、S202〜S209のプロセスを繰り返し(S210)、全てデータが最後まで処理される。   The quantized transform coefficient decoded by the decoder 202 is inversely quantized by the inverse quantizer 203 and inversely transformed by the inverse transformer 204 to generate a reproduction residual signal (S208). Then, the generated bi-prediction signal and the reproduction residual signal are added to generate a reproduction signal, and this reproduction signal is stored in the frame memory 104 to reproduce the next decoding target block (step S209). ). If there is the next compressed data, the process from S202 to S209 is repeated (S210), and all the data is processed to the end.

次に、本発明を含む複数の双予測方法を選択的に利用する手法について説明する。上記で説明した1本の差分動きベクトルのみを符号化する双予測(双予測タイプ2と呼ぶ)は、従来の2本の差分動きベクトルを符号化する双予測(双予測タイプ1と呼ぶ)ならびに片予測と適応的に組み合わせて利用できる。これらの予測方式は、画面単位、複数のブロックをまとめたスライス単位、あるいはブロック単位で切り替えて利用することが可能である。切り替え処理には、切り替え情報を符号化する方法や、参照画面のフレーム番号に基づいて復号側にて決定する方法が利用できる。   Next, a method for selectively using a plurality of bi-prediction methods including the present invention will be described. Bi-prediction (referred to as bi-prediction type 2) that encodes only one differential motion vector described above is a bi-prediction (referred to as bi-prediction type 1) that encodes two conventional differential motion vectors; It can be used in combination with uni-prediction adaptively. These prediction methods can be used by switching on a screen unit, a slice unit including a plurality of blocks, or a block unit. For the switching process, a method of encoding the switching information or a method of determining on the decoding side based on the frame number of the reference screen can be used.

なお、双予測タイプ1と双予測タイプ2を切り替える処理は、図2の第1の動き情報推定器121に、ブロックマッチング機能と探索した動きベクトルから予測ベクトルを減算して差分動きベクトルを算出する機能を追加し、図11の第1の動き情報復元器に差分動きベクトルを復号器から取得する機能を追加することにより実現できる。下記に具体的な方法を説明する。   In the process of switching between bi-prediction type 1 and bi-prediction type 2, the first motion information estimator 121 in FIG. 2 subtracts the prediction vector from the searched motion vector and the block matching function to calculate a differential motion vector. This can be realized by adding a function and adding a function of acquiring a differential motion vector from the decoder to the first motion information decompressor of FIG. A specific method will be described below.

(画面/スライス単位切り替え、双予測タイプの切り替え情報符号化)
画面/スライス単位で双予測タイプ1と双予測タイプ2を切り替える場合には、双予測タイプの切り替え情報(例えば、BiPred_type)を、画面あるいはスライスのヘッダに含めて符号化する。
(Screen / slice unit switching, bi-prediction type switching information encoding)
When switching between bi-prediction type 1 and bi-prediction type 2 on a screen / slice basis, bi-prediction type switching information (for example, BiPred_type) is included in the screen or slice header and encoded.

図5(A)のようにすべての参照画面の候補が、符号化対象画面より表示順で過去の画面の場合には、双予測タイプ2が有効となるため、符号化側で、双予測タイプ2の利用を選択する。そして、符号化装置は、画面あるいはスライスのヘッダ情報にて、双予測タイプ2を示す指示情報(例えば、BiPred_type=1)を符号化する。一方、図5(B)のように、表示順で符号化対象画面に対して未来の画面が参照画面の候補に含まれる場合には、符号化装置は、双予測タイプ1を選択し、画面あるいはスライスのヘッダ情報にて、双予測タイプ1を示す指示情報(例えば、BiPred_type=0)を符号化する。   As shown in FIG. 5A, when all the reference screen candidates are past screens in the display order from the encoding target screen, the bi-prediction type 2 is valid. Select the use of 2. Then, the encoding apparatus encodes instruction information indicating bi-prediction type 2 (for example, BiPred_type = 1) using screen or slice header information. On the other hand, as shown in FIG. 5B, when the future screen is included in the reference screen candidates with respect to the encoding target screen in the display order, the encoding device selects bi-prediction type 1 and displays the screen. Alternatively, instruction information (for example, BiPred_type = 0) indicating bi-prediction type 1 is encoded with the header information of the slice.

双予測タイプ1を利用する場合には、画面内あるいはスライス内のブロックを符号化する際に、動きベクトルmv[1]を探索し。第0の付加情報(ref_idx[0]とmvd[0]とmvp_idx[0]を符号化)と同じく、第1の付加情報にmvd[1]を含め、ref_idx[1]とmvp_idx[1]と共に符号化する。双予測タイプ2を利用する場合には、第0の付加情報としてref_idx[0]とmvd[0]とmvp_idx[0]を符号化し、第1の付加情報としてref_idx[1]とmvp_idx[1]を符号化する。   When bi-prediction type 1 is used, a motion vector mv [1] is searched when a block in a screen or a slice is encoded. As with the 0th additional information (encoding ref_idx [0], mvd [0], and mvp_idx [0]), mvd [1] is included in the first additional information, along with ref_idx [1] and mvp_idx [1] Encode. When bi-prediction type 2 is used, ref_idx [0], mvd [0], and mvp_idx [0] are encoded as the 0th additional information, and ref_idx [1] and mvp_idx [1] as the 1st additional information Is encoded.

復号側では、画面あるいはスライスのヘッダ情報にて復号した指示情報に基づいて、画面内あるいはスライス内の各ブロックを復号する際に、mvd[1]の復元方法を切り替える。つまり、双予測タイプ1を示す指示情報(例えば、BiPred_type=0)を復号した場合には、画面内あるいはスライス内の各ブロックを復号する際に、第1の付加情報にmvd[1]を含め、ref_idx[1]とmvp_idx[1]と共に復号する。双予測タイプ2を示す指示情報(例えば、BiPred_type=1)を復号した場合には、画面内あるいはスライス内の各ブロックを復号する際に、第1の付加情報としてref_idx[1]とmvp_idx[1]を復号し、mvd[1]の水平・垂直ベクトル値を0に設定する。第0の付加情報としては、指示情報の値に関わらず、ref_idx[0]とmvd[0]とmvp_idx[0]を復号する。   On the decoding side, the mvd [1] restoration method is switched when each block in the screen or slice is decoded based on the instruction information decoded by the header information of the screen or slice. That is, when instruction information indicating bi-prediction type 1 (for example, BiPred_type = 0) is decoded, mvd [1] is included in the first additional information when each block in the screen or slice is decoded. And ref_idx [1] and mvp_idx [1]. When instruction information indicating bi-prediction type 2 (for example, BiPred_type = 1) is decoded, when decoding each block in the screen or slice, ref_idx [1] and mvp_idx [1 are used as the first additional information. ] And set the horizontal and vertical vector values of mvd [1] to 0. As the 0th additional information, ref_idx [0], mvd [0], and mvp_idx [0] are decoded regardless of the value of the instruction information.

なお、符号化側における双予測タイプ1と双予測タイプ2の切り替え方法は、ここで示した方法に依存しない。例えば、すべての参照画面が表示順で符号化対象画面に対して未来の画面の場合に、双予測タイプ2を利用するようにしてもよい。また、実際に双予測タイプ1と双予測タイプ2を適用した場合の符号化効率(例えば、符号化誤差信号の2乗和+符号化ビット数を変換した評価値)を調査して、符号化効率が高いほうを選択する方法が採用できる。   Note that the switching method between bi-prediction type 1 and bi-prediction type 2 on the encoding side does not depend on the method shown here. For example, bi-prediction type 2 may be used when all reference screens are future screens relative to the encoding target screen in the display order. Further, the coding efficiency (for example, the evaluation value obtained by converting the square sum of the coding error signal + the number of coding bits) when bi-prediction type 1 and bi-prediction type 2 are actually applied is investigated and coded. A method of selecting the one with higher efficiency can be adopted.

さらに、図8に示すように複数のブロックサイズを適応的に用いる符号化方法では、画面あるいはスライスヘッダにて、異なるブロックサイズに対して、双予測タイプ1と双予測タイプ2を切り替える指示情報を個別に送るようにしてもよい。例えば、ブロックサイズが64×64、32×32、16×16、8×8の場合には、4個の指示情報を符号化する。   Further, in the encoding method that adaptively uses a plurality of block sizes as shown in FIG. 8, instruction information for switching between bi-prediction type 1 and bi-prediction type 2 is displayed for different block sizes on the screen or slice header. You may make it send separately. For example, when the block size is 64 × 64, 32 × 32, 16 × 16, or 8 × 8, four pieces of instruction information are encoded.

なお、ブロックの予測方法で片予測と双予測の両方を用いる場合には、予測タイプ(片予測または双予測)を符号化側にて選択し、付加情報に含めて符号化する。そして、双予測を選択したブロックのみで、双予測タイプ1と双予測タイプ2の切り替え処理を実施する。復号側では、予測タイプとして双予測を示す情報を復号したブロックのみで双予測タイプ1と双予測タイプ2の切り替え処理を実施する。   When both uni-prediction and bi-prediction are used in the block prediction method, a prediction type (uni-prediction or bi-prediction) is selected on the encoding side, and is encoded by including in additional information. Then, the switching process between the bi-prediction type 1 and the bi-prediction type 2 is performed only in the block for which bi-prediction is selected. On the decoding side, the switching process between the bi-prediction type 1 and the bi-prediction type 2 is performed only with a block obtained by decoding information indicating bi-prediction as a prediction type.

(画面/スライス単位切り替え、参照画面のフレーム番号に基づく決定)
図5(A)や図5(B)に示す参照画面の候補は、符号化側と復号側で同一である。そのため、参照画面の候補のフレーム番号と符号化対象画面のフレーム番号に基づいて、双予測タイプ1と双予測タイプ2のいずれを用いるかを決定できる。つまり、すべての参照画面の候補が、符号化対象画面より表示順で過去の画面の場合には、双予測タイプ2を利用し、表示順で符号化対象画面に対して未来の画面が参照画面の候補に含まれる場合には、双予測タイプ1を利用する。この方法では、指示情報を送る必要はない。
(Screen / slice unit switching, determination based on frame number of reference screen)
The reference screen candidates shown in FIGS. 5A and 5B are the same on the encoding side and the decoding side. Therefore, it is possible to determine which of bi-prediction type 1 and bi-prediction type 2 is used based on the frame number of the reference screen candidate and the frame number of the encoding target screen. That is, when all the reference screen candidates are past screens in the display order from the encoding target screen, the bi-prediction type 2 is used, and the future screen is referred to the encoding target screen in the display order. Bi-prediction type 1 is used. In this method, there is no need to send instruction information.

なお、すべての参照画面の候補が、符号化対象画面に対して表示順で未来の画面の場合には、双予測タイプ2を利用するようにしてもよい。   In addition, when all the reference screen candidates are future screens in the display order with respect to the encoding target screen, the bi-prediction type 2 may be used.

(ブロック単位切り替え、切り替え情報符号化)
ブロック単位で双予測タイプ1と双予測タイプ2を切り替える場合には、双予測タイプの切り替え情報(例えば、BiPred_block_type)を、ブロックの付加情報に含めて符号化する。
(Block unit switching, switching information encoding)
When switching between bi-prediction type 1 and bi-prediction type 2 in block units, bi-prediction type switching information (for example, BiPred_block_type) is included in the block additional information and encoded.

双予測の2つの参照画面が符号化対象画面より表示順で過去の画面の場合には双予測タイプ2が有効となるため、符号化側で、双予測タイプ2の利用を選択する。そして、符号化装置は、ブロックの付加情報に双予測タイプ2を示す指示情報(例えば、BiPred_block_type=1)を含め、第0の付加情報であるref_idx[0]、mvd[0]、mvp_idx[0]と、第1の付加情報であるref_idx[1]、mvp_idx[1]と共に符号化する。一方、双予測の2つの参照画面に表示順で符号化対象画面に対して未来の画面が含まれる場合には、双予測タイプ1を選択する。そして、符号化装置は、ブロックの付加情報に双予測タイプ1を示す指示情報(例えば、BiPred_block_type=0)を含め、第0の付加情報であるref_idx[0]、mvd[0]、mvp_idx[0]と、第1の付加情報であるref_idx[1]、mvd[1](第1の付加情報にmvd[1]を含める)、mvp_idx[1]と共に符号化する。   Since the bi-prediction type 2 is valid when the two reference screens of bi-prediction are past screens in the display order from the encoding target screen, the use of bi-prediction type 2 is selected on the encoding side. Then, the encoding apparatus includes the instruction information indicating bi-prediction type 2 (for example, BiPred_block_type = 1) in the additional information of the block, and includes ref_idx [0], mvd [0], mvp_idx [0, which are the 0th additional information. ] And the first additional information ref_idx [1] and mvp_idx [1]. On the other hand, when the two reference screens of bi-prediction include future screens relative to the encoding target screen in the display order, bi-prediction type 1 is selected. Then, the encoding apparatus includes instruction information indicating bi-prediction type 1 (for example, BiPred_block_type = 0) in the additional information of the block, and includes ref_idx [0], mvd [0], and mvp_idx [0 as the 0th additional information. ], The first additional information ref_idx [1], mvd [1] (mvd [1] is included in the first additional information), and mvp_idx [1].

復号側では、ブロックの付加情報に双予測タイプの切り替え情報(例えば、BiPred_block_type)を含めて復号し、復号値に基づいてmvd[1]の復元方法を切り替える。つまり、ブロックの付加情報として、双予測タイプ1を示す指示情報(例えば、BiPred_block_type=0)を復号した場合には、第0の付加情報として、ref_idx[0]とmvd[0]とmvp_idx[0]を復号し、第1の付加情報として、ref_idx[1]とmvd[1]とmvp_idx[1]を復号する。一方、ブロックの付加情報として、双予測タイプ2を示す指示情報(例えば、BiPred_block_type=1)を復号した場合には、第0の付加情報としてref_idx[0]とmvd[0]とmvp_idx[0]を復号し、第1の付加情報としてref_idx[1]とmvp_idx[1]を復号し、mvd[1]の水平・垂直ベクトル値を0に設定する。   On the decoding side, decoding is performed by including bi-prediction type switching information (for example, BiPred_block_type) in the block additional information, and the restoration method of mvd [1] is switched based on the decoded value. That is, when instruction information indicating bi-prediction type 1 (for example, BiPred_block_type = 0) is decoded as additional information of a block, ref_idx [0], mvd [0], and mvp_idx [0 are used as the 0th additional information. ] And ref_idx [1], mvd [1], and mvp_idx [1] as first additional information. On the other hand, when instruction information indicating bi-prediction type 2 (for example, BiPred_block_type = 1) is decoded as additional information of a block, ref_idx [0], mvd [0], and mvp_idx [0] are added as 0th additional information. And ref_idx [1] and mvp_idx [1] are decoded as the first additional information, and the horizontal and vertical vector values of mvd [1] are set to 0.

なお、符号化側における双予測タイプ1と双予測タイプ2の切り替え方法は、ここで示した方法に依存しない。例えば、2つの参照画面の両方が表示順で符号化対象画面に対して未来の画面の場合には、双予測タイプ2を利用するようにしてもよい。また、実際に双予測タイプ1と双予測タイプ2を適用した場合の符号化効率(例えば、符号化誤差信号の2乗和+符号化ビット数を変換した評価値)をブロック毎に調査して、符号化効率が高いほうを選択する方法が採用できる。   Note that the switching method between bi-prediction type 1 and bi-prediction type 2 on the encoding side does not depend on the method shown here. For example, when both of the two reference screens are future screens relative to the encoding target screen in the display order, bi-prediction type 2 may be used. Also, the coding efficiency (for example, the evaluation value obtained by converting the square sum of the coding error signal + the number of coding bits) when bi-prediction type 1 and bi-prediction type 2 are actually applied is investigated for each block. A method of selecting the one with higher encoding efficiency can be adopted.

また、ブロックの予測方法で片予測と双予測の両方を用いる場合には、符号化側にて予測タイプ(片予測または双予測)を選択し、付加情報に含めて符号化する。そして、双予測を選択したブロックのみで、双予測タイプ1と双予測タイプ2の切り替え処理を実施する。復号側では、予測タイプとして双予測を示す情報を復号したブロックのみで双予測タイプ1と双予測タイプ2の切り替え処理を実施する。   Also, when both uni-prediction and bi-prediction are used in the block prediction method, a prediction type (uni-prediction or bi-prediction) is selected on the encoding side, and encoding is included in the additional information. Then, the switching process between the bi-prediction type 1 and the bi-prediction type 2 is performed only in the block for which bi-prediction is selected. On the decoding side, the switching process between the bi-prediction type 1 and the bi-prediction type 2 is performed only with a block obtained by decoding information indicating bi-prediction as a prediction type.

(ブロック単位切り替え、参照画面のフレーム番号に基づく決定)
図5(A)や図5(B)に示す参照画面の候補は、符号化側と復号側で同一である。そのため、ブロックの付加情報として符号化/復号する双予測に用いる2つの参照画面のフレーム番号と符号化対象画面のフレーム番号に基づいて、双予測タイプ1と双予測タイプ2のいずれを用いるかを決定できる。つまり、双予測に用いる2つの参照画面が、いずれも符号化対象画面より表示順で過去の画面の場合には双予測タイプ2を利用し、2つの参照画面の一方か両方が表示順で符号化対象画面に対して未来の画面の場合には、双予測タイプ1を利用する。この方法では指示情報を送る必要はない。なお、2つの参照画面の両方が表示順で符号化対象画面に対して未来の画面の場合に、双予測タイプ2を利用するようにしてもよい。
(Block unit switching, determination based on frame number of reference screen)
The reference screen candidates shown in FIGS. 5A and 5B are the same on the encoding side and the decoding side. Therefore, whether to use bi-prediction type 1 or bi-prediction type 2 based on the frame number of the two reference screens used for bi-prediction to be encoded / decoded as additional information of the block and the frame number of the encoding target screen. Can be determined. That is, if the two reference screens used for bi-prediction are both past in the display order from the encoding target screen, the bi-prediction type 2 is used, and one or both of the two reference screens are encoded in the display order. In the case of a future screen with respect to the target screen, bi-prediction type 1 is used. This method does not require sending instruction information. Note that bi-prediction type 2 may be used when both of the two reference screens are future screens relative to the encoding target screen in the display order.

(画面/スライス単位切り替えとブロック単位切り替えの組み合わせ)
画面/スライス単位で、双予測タイプの切り替えを画面/スライス単位で行うかブロック単位で行うかを示す指示情報を符号化/復号する。
(Combination of screen / slice unit switching and block unit switching)
The instruction information indicating whether the bi-prediction type is switched in units of screens / slices or in units of blocks is encoded / decoded in units of screens / slices.

双予測タイプの切り替えを画面/スライス単位で行う場合には、加えて、上記で説明したように、双予測タイプの切り替え情報(例えば、BiPred_type)を、画面あるいはスライスのヘッダに含めて符号化/復号する。この際、図8に示すように複数のブロックサイズを適応的に用いる符号化方法では、画面あるいはスライスヘッダにて、異なるブロックサイズに対して、双予測タイプ1と双予測タイプ2を切り替える指示情報を個別に送るようにしてもよい。例えば、ブロックサイズが64×64、32×32、16×16、8×8の場合には、4個の指示情報を符号化する。   When bi-prediction type switching is performed on a screen / slice basis, in addition, as described above, bi-prediction type switching information (for example, BiPred_type) is included in the screen or slice header to encode / Decrypt. At this time, in the encoding method that adaptively uses a plurality of block sizes as shown in FIG. 8, instruction information for switching between bi-prediction type 1 and bi-prediction type 2 for different block sizes on the screen or slice header. May be sent individually. For example, when the block size is 64 × 64, 32 × 32, 16 × 16, or 8 × 8, four pieces of instruction information are encoded.

双予測タイプの切り替えをブロック画面単位で行う場合には、加えて、上記で説明したように、ブロック単位で、双予測タイプの切り替え情報(例えば、BiPred_block_type)を、ブロックの付加情報に含めて符号化/復号する。この際、 さらに、図8に示すように複数のブロックサイズを適応的に用いる符号化方法では、画面あるいはスライスヘッダにて、異なるブロックサイズに対して、双予測タイプ1と双予測タイプ2の切り替え処理を行うか否かを指示する指示情報を個別に送るようにしてもよい。例えば、ブロックサイズが64×64、32×32、16×16、8×8の場合には、4個の指示情報を符号化する。   When bi-prediction type switching is performed in units of block screens, in addition, as described above, bi-prediction type switching information (for example, BiPred_block_type) is included in the additional information of the block for each block. Convert / decrypt. At this time, as shown in FIG. 8, in the encoding method using a plurality of block sizes adaptively, switching between bi-prediction type 1 and bi-prediction type 2 is performed for different block sizes on the screen or slice header. Instruction information for instructing whether or not to perform processing may be individually sent. For example, when the block size is 64 × 64, 32 × 32, 16 × 16, or 8 × 8, four pieces of instruction information are encoded.

また、画面/スライス単位で、双予測タイプ1のみを利用するか、双予測タイプ2のみを利用するか、2つの双予測タイプを画面/スライス内の各ブロックで切り替えるか、を指示する指示情報を符号化/復号するようにしてもよい。この際、図8に示すように複数のブロックサイズを適応的に用いる符号化方法では、異なるブロックサイズに対して個別に指示情報を送るようにしてもよい。   In addition, instruction information for instructing whether to use only bi-prediction type 1 or only bi-prediction type 2 or to switch between two bi-prediction types for each block in the screen / slice in screen / slice units. May be encoded / decoded. At this time, in the encoding method using a plurality of block sizes adaptively as shown in FIG. 8, the instruction information may be individually sent for different block sizes.

あるいは、画面/スライス単位で、双予測タイプ2を利用するか否かを示す指示情報を符号化/復号する。双予測タイプ2を利用する画面/スライスでは、さらに、画面/スライス内の各ブロックで双予測タイプ1と双予測タイプ2を切り替えるか、画面/スライス内のすべてのブロックで双予測タイプ2を利用するか、を指示する指示情報を符号化/復号するようにしてもよい。この際、図8に示すように複数のブロックサイズを適応的に用いる符号化方法では、画面あるいはスライスヘッダにて、異なるブロックサイズに対して、これら指示情報を個別に送るようにしてもよい。   Alternatively, the instruction information indicating whether or not to use bi-prediction type 2 is encoded / decoded for each screen / slice. For screens / slices that use bi-prediction type 2, switch between bi-prediction type 1 and bi-prediction type 2 for each block in the screen / slice, or use bi-prediction type 2 for all blocks in the screen / slice. It is also possible to encode / decode instruction information instructing whether or not. At this time, in the encoding method that adaptively uses a plurality of block sizes as shown in FIG. 8, the instruction information may be individually sent for different block sizes on the screen or the slice header.

上記では、図7に示す第1の予測動きベクトルの候補に、対象ブロック400の第0の動き情報を含めていた。しかしながら、第0の動き情報を第1の予測動き情報とし、予測動き情報を第0の動き情報に含まれる第1の参照画面インデックスと第1の動き情報に含まれる第1の参照画面インデックスに基づいてスケーリングして第1の動き情報として利用する方法を双予測タイプ3として別に用意してもよい。つまり、第0の動き情報に含まれる動きベクトルが第1の動き情報の参照画面インデックスが指し示す参照画面の動きベクトルとなるようにスケーリングする。この場合には、双予測タイプ2における第1の予測動き情報の候補には、対象ブロックの第0の動き情報を含めなくても良い(図7のn=4を候補から除外する)。そして、双予測タイプ3を利用する場合には、第1の予測動き情報インデックスの符号化/復号は行わない。つまり、第1の付加情報を符号化/復号する際には、第1の参照画面インデックス(ref_idx[1])を含み、差分動きベクトル(mvd[1])と第1の予測動き情報インデックス(mvp_idx[1])を含まないようにする。   In the above description, the 0th motion information of the target block 400 is included in the first predicted motion vector candidates shown in FIG. However, the 0th motion information is used as the first predicted motion information, and the predicted motion information is used as the first reference screen index included in the 0th motion information and the first reference screen index included in the first motion information. A method of scaling based on this and using it as the first motion information may be separately prepared as bi-prediction type 3. That is, the scaling is performed so that the motion vector included in the 0th motion information becomes the motion vector of the reference screen indicated by the reference screen index of the first motion information. In this case, the first motion prediction information candidate in the bi-prediction type 2 may not include the 0th motion information of the target block (n = 4 in FIG. 7 is excluded from the candidates). When bi-prediction type 3 is used, the first prediction motion information index is not encoded / decoded. That is, when the first additional information is encoded / decoded, the first reference screen index (ref_idx [1]) is included, the difference motion vector (mvd [1]) and the first predicted motion information index ( mvp_idx [1]) should not be included.

双予測タイプ3の利用方法としては、画面/スライス単位あるいはブロック単位で、双予測タイプ1と双予測タイプ2と双予測タイプ3を切り替える指示情報を符号化/復号するようにしてもよい。また、画面/スライス単位あるいはブロック単位で、双予測タイプ1と双予測タイプ3、あるいは、双予測タイプ2と双予測タイプ3を切り替える指示情報を符号化/復号するようにしてもよい。   As a method of using bi-prediction type 3, instruction information for switching between bi-prediction type 1, bi-prediction type 2, and bi-prediction type 3 may be encoded / decoded on a screen / slice basis or a block basis. In addition, instruction information for switching between bi-prediction type 1 and bi-prediction type 3 or bi-prediction type 2 and bi-prediction type 3 may be encoded / decoded in units of screens / slices or blocks.

また、上記にて双予測タイプ1の代用として使う方法も考えられる。つまり、複数の参照画面候補に表示順で符号化対象画面に対して未来の画面が含まれる場合には、双予測タイプ3を利用し、複数の参照画面候補が表示順ですべて符号化対象画面に対して過去の画面の場合には、双予測タイプ2を利用するようにしてもよい。   In addition, a method that can be used as a substitute for bi-prediction type 1 is also conceivable. That is, when a plurality of reference screen candidates include future screens with respect to the encoding target screen in the display order, the bi-prediction type 3 is used, and all the plurality of reference screen candidates are displayed in the display order. On the other hand, in the case of a past screen, bi-prediction type 2 may be used.

あるいは、第0の動き情報に含まれる参照画面インデックスが指示する参照画面が、第1の動き情報の参照画面インデックスが指示する参照画面と異なる場合には、双予測タイプ2の代わりに双予測タイプ3を利用し(第1の予測動き情報インデックスの符号化/復号は不要)、一方、第0の動き情報に含まれる参照画面インデックスが指示する参照画面が、第1の動き情報の参照画面インデックスが指示する参照画面と同じ場合には、双予測タイプ2を利用する(第1の予測動き情報インデックスを符号化/復号)ようにしてもよい。   Alternatively, when the reference screen indicated by the reference screen index included in the 0th motion information is different from the reference screen indicated by the reference screen index of the first motion information, the bi-prediction type 2 instead of the bi-prediction type 2 3 (the encoding / decoding of the first prediction motion information index is unnecessary), while the reference screen indicated by the reference screen index included in the 0th motion information is the reference screen index of the first motion information In the case of the same reference screen as instructed, bi-prediction type 2 may be used (the first prediction motion information index is encoded / decoded).

なお、双予測タイプの切り替え情報は、BiPred_typeやBiPred_block_typeのような識別情報には限定されない。差分動きベクトルの符号化/復号を行うか否かを示す情報であればよい。例えば、mvd_list1_zero_flagやmvd_list0_zero_flagのように第1の付加情報や第0の付加情報にmvdが含まれるか否かを指示するフラグ情報を符号化/復号するようにしてもよい。双予測タイプ1、双予測タイプ2ならびに双予測タイプ3を画面/スライス単位あるいはブロック単位で切り替える場合には、双予測タイプ2か双予測タイプ3のいずれかを利用する場合に、付加情報にmvdを含まないことを指示するフラグを送る。双予測タイプ2と双予測タイプ3の切り替えは、上記のように参照画面インデックスに基づいて行ってもよいし(第0の動き情報に含まれる参照画面インデックスが指示する参照画面が、第1の動き情報の参照画面インデックスが指示する参照画面と同じ場合には、双予測タイプ2を利用する)、更に選択情報を符号化/復号してもよい。   Note that the bi-prediction type switching information is not limited to identification information such as BiPred_type and BiPred_block_type. Any information indicating whether or not to encode / decode a differential motion vector may be used. For example, flag information indicating whether mvd is included in the first additional information or the zeroth additional information, such as mvd_list1_zero_flag and mvd_list0_zero_flag, may be encoded / decoded. When switching between bi-prediction type 1, bi-prediction type 2 and bi-prediction type 3 in screen / slice units or block units, when using either bi-prediction type 2 or bi-prediction type 3, mvd Send a flag indicating that it does not contain Switching between bi-prediction type 2 and bi-prediction type 3 may be performed based on the reference screen index as described above (the reference screen indicated by the reference screen index included in the 0th motion information is the first screen). When the reference screen index of the motion information is the same as the reference screen instructed, bi-prediction type 2 is used), and the selection information may be encoded / decoded.

図15は、動画像予測符号化方法を実行することができるプログラムのモジュールを示すブロック図である。図15(A)に示すように動画像予測符号化プログラムP100は、ブロック分割モジュールP101、予測信号生成モジュールP103、記憶モジュールP104、減算モジュールP105、変換モジュールP106、量子化モジュールP107、逆量子化モジュールP108、逆変換モジュールP109、加算モジュールP110、符号化モジュールP111及び動き情報記憶モジュールP113を備えている。さらに、図15(B)に示すように予測信号生成モジュールP103は、第1の動き情報推定モジュールP121、第0の動き情報推定モジュールP122及び予測信号合成モジュールP123を備えている。上記各モジュールが実行されることにより実現される機能は、上述した動画像予測符号化装置100の機能と同じである。すなわち、動画像予測符号化プログラムP100の各モジュールの機能は、ブロック分割器102、予測信号生成器103、フレームメモリ104、減算器105、変換器106、量子化器107、逆量子化器108、逆変換器109、加算器110、符号化器111、動き情報用メモリ113、第1の動き情報推定器121、第0の動き情報推定器122及び予測信号合成器123の機能と同様である。   FIG. 15 is a block diagram illustrating modules of a program that can execute the video predictive coding method. As shown in FIG. 15A, the moving picture predictive encoding program P100 includes a block division module P101, a prediction signal generation module P103, a storage module P104, a subtraction module P105, a conversion module P106, a quantization module P107, and an inverse quantization module. P108, an inverse transform module P109, an addition module P110, an encoding module P111, and a motion information storage module P113 are provided. Further, as shown in FIG. 15B, the prediction signal generation module P103 includes a first motion information estimation module P121, a zeroth motion information estimation module P122, and a prediction signal synthesis module P123. The functions realized by executing the respective modules are the same as the functions of the moving picture predictive coding apparatus 100 described above. That is, the function of each module of the moving picture predictive coding program P100 includes a block divider 102, a prediction signal generator 103, a frame memory 104, a subtractor 105, a converter 106, a quantizer 107, an inverse quantizer 108, The functions of the inverse transformer 109, adder 110, encoder 111, motion information memory 113, first motion information estimator 121, zeroth motion information estimator 122, and prediction signal synthesizer 123 are the same.

また、図16は、動画像予測復号方法を実行することができるプログラムのモジュールを示すブロック図である。図16(A)に示すように動画像予測復号プログラムP200は、復号モジュールP201、動き情報復号モジュールP202、動き補償モジュールP203、動き情報記憶モジュールP204、逆量子化モジュールP205、逆変換モジュールP206、加算モジュールP207及び記憶モジュールP104を備えている。さらに、図16(B)に示すように動き情報復号モジュールP202は、第1の動き情報復元モジュールP211及び第0の動き情報復元モジュールP212を備えている。   FIG. 16 is a block diagram showing modules of a program that can execute the moving picture predictive decoding method. As shown in FIG. 16A, the video predictive decoding program P200 includes a decoding module P201, a motion information decoding module P202, a motion compensation module P203, a motion information storage module P204, an inverse quantization module P205, an inverse transform module P206, and addition. A module P207 and a storage module P104 are provided. Further, as shown in FIG. 16B, the motion information decoding module P202 includes a first motion information restoration module P211 and a 0th motion information restoration module P212.

上記各モジュールが実行されることにより実現される機能は、上述した動画像予測復号装置200の各構成要素と同じである。すなわち、動画像予測復号プログラムP200の各モジュールの機能は、復号器202、動き情報復元器208、動き補償器207、動き情報用メモリ113、逆量子化器203、逆変換器204、加算器205、フレームメモリ104、第1の動き情報復元器211及び第0の動き情報復元器212の機能と同様である。   The functions realized by executing the modules are the same as those of the components of the moving picture predictive decoding apparatus 200 described above. That is, the functions of each module of the moving picture predictive decoding program P200 are as follows: the decoder 202, the motion information restorer 208, the motion compensator 207, the motion information memory 113, the inverse quantizer 203, the inverse transformer 204, and the adder 205. The functions of the frame memory 104, the first motion information restoring unit 211, and the zeroth motion information restoring unit 212 are the same.

このように構成された動画像予測符号化プログラムP100または動画像予測復号プログラムP200は、後述の図17及び図18に示す記録媒体10に記憶され、後述するコンピュータで実行される。   The moving picture predictive coding program P100 or the moving picture predictive decoding program P200 configured as described above is stored in the recording medium 10 shown in FIGS. 17 and 18 described later, and is executed by a computer described later.

図17は、記録媒体に記録されたプログラムを実行するためのコンピュータのハードウェア構成を示す図であり、図18は、記録媒体に記憶されたプログラムを実行するためのコンピュータの斜視図である。なお、記録媒体に記憶されたプログラムを実行するものはコンピュータに限定されず、CPUを具備しソフトウエアによる処理や制御を行なうDVDプレーヤ、セットトップボックス、携帯電話などでもよい。   FIG. 17 is a diagram illustrating a hardware configuration of a computer for executing a program recorded in a recording medium, and FIG. 18 is a perspective view of the computer for executing a program stored in the recording medium. Note that a program that executes a program stored in a recording medium is not limited to a computer, and may be a DVD player, a set-top box, a mobile phone, or the like that includes a CPU and performs processing and control by software.

図17に示すように、コンピュータ30は、フレキシブルディスクドライブ装置、CD−ROMドライブ装置、DVDドライブ装置等の読取装置12と、オペレーティングシステムを常駐させた作業用メモリ(RAM)14と、記録媒体10に記憶されたプログラムを記憶するメモリ16と、ディスプレイといった表示装置18と、入力装置であるマウス20及びキーボード22と、データ等の送受を行うための通信装置24と、プログラムの実行を制御するCPU26とを備えている。コンピュータ30は、記録媒体10が読取装置12に挿入されると、読取装置12から記録媒体10に格納された動画像予測符号化・復号プログラムにアクセス可能になり、当該画像符号化・復号プログラムによって、本実施形態に係る動画像符号化装置または動画像復号装置として動作することが可能になる。   As shown in FIG. 17, the computer 30 includes a reading device 12 such as a flexible disk drive device, a CD-ROM drive device, and a DVD drive device, a working memory (RAM) 14 in which an operating system is resident, and a recording medium 10. A memory 16 for storing programs stored therein, a display device 18 such as a display, a mouse 20 and a keyboard 22 as input devices, a communication device 24 for transmitting and receiving data and the like, and a CPU 26 for controlling execution of the programs. And. When the recording medium 10 is inserted into the reading device 12, the computer 30 can access the moving image predictive encoding / decoding program stored in the recording medium 10 from the reading device 12. Thus, it becomes possible to operate as a video encoding device or a video decoding device according to the present embodiment.

図18に示すように、動画像予測符号化プログラム及び動画像復号プログラムは、搬送波に重畳されたコンピュータデータ信号40としてネットワークを介して提供されるものであってもよい。この場合、コンピュータ30は、通信装置24によって受信した動画像予測符号化プログラムもしくは動画像復号プログラをメモリ16に格納し、当該動画像予測符号化プログラムもしくは動画像予測復号プログラムを実行することができる。   As shown in FIG. 18, the moving picture predictive encoding program and the moving picture decoding program may be provided as a computer data signal 40 superimposed on a carrier wave via a network. In this case, the computer 30 can store the video predictive encoding program or video decoding program received by the communication device 24 in the memory 16 and execute the video predictive encoding program or video predictive decoding program. .

本発明では、さらに下記の変形が可能である。   In the present invention, the following modifications are possible.

(1)第0の付加情報と第1の付加情報の関係
上記では、第1の付加情報がref_idx[1]とmvp_idx[1]を含み、第0の付加情報がref_idx[0]とmvd[0]とmvp_idx[0]を含んでいるが、この構成は逆であってもよい。つまり、第1の付加情報が、ref_idx[1]とmvd[1]とmvp_idx[1]を含み、第0の付加情報がref_idx[0]とmvp_idx[0]を含む。この場合、第0の予測動き情報を隣接ブロックの動き情報から生成すると共に第0の予測信号を生成し、続いて、双予測信号と対象ブロックの元の信号との絶対値和+付加情報の評価値が最小となる第1の動き情報を探索する。
(1) Relationship between 0th Additional Information and 1st Additional Information In the above, the 1st additional information includes ref_idx [1] and mvp_idx [1], and the 0th additional information includes ref_idx [0] and mvd [ 0] and mvp_idx [0] are included, but this configuration may be reversed. That is, the first additional information includes ref_idx [1], mvd [1], and mvp_idx [1], and the zeroth additional information includes ref_idx [0] and mvp_idx [0]. In this case, the 0th prediction motion information is generated from the motion information of the adjacent block and the 0th prediction signal is generated. Subsequently, the absolute value sum of the bi-prediction signal and the original signal of the target block + the additional information The first motion information that minimizes the evaluation value is searched.

また、第1の付加情報がref_idx[1]とmvp_idx[1]を含み、第0の付加情報がref_idx[0]とmvp_idx[0]を含むようにしてもよい。つまり、差分の動きベクトルは符号化されず、2つの差分動きベクトルの復号側で水平・垂直ベクトル値を0に設定する。または、第0の予測動きベクトルと第1の予測動きベクトルをそれぞれ第0の動きベクトルと第1の動きベクトルに設定する。   Also, the first additional information may include ref_idx [1] and mvp_idx [1], and the zeroth additional information may include ref_idx [0] and mvp_idx [0]. That is, the difference motion vector is not encoded, and the horizontal and vertical vector values are set to 0 on the decoding side of the two difference motion vectors. Alternatively, the zeroth motion vector and the first motion vector are set to the zeroth motion vector and the first motion vector, respectively.

(2)参照画面
上記では、参照画面インデックスを第1の付加情報に含めて符号化/復号しているが、mvp_idxにて示される隣接ブロックの動き情報に付随する参照画面インデックスに基づいて決まるようにしてもよい(例えば、図7の隣接ブロック401から404については、付随するList1の参照画面インデックスをそのまま利用し、隣接ブロック410から415については、対象ブロックと隣接ブロックの参照画面インデックスが指示する参照画面の違いに基づいて、隣接ブロックに含まれる動きベクトルにスケーリング処理を施すようにする)。また、第1の動き情報の参照画面インデックスを予め決めておいても良い。これらの場合は、復号側にて一意に復元できるため、参照画面インデックスref_idxを第1の付加情報に含めて符号化する必要がない。
(2) Reference screen In the above description, the reference screen index is included in the first additional information for encoding / decoding. However, the reference screen index is determined based on the reference screen index attached to the motion information of the adjacent block indicated by mvp_idx. (For example, for the adjacent blocks 401 to 404 in FIG. 7, the reference screen index of the attached List 1 is used as it is, and for the adjacent blocks 410 to 415, the reference screen index of the target block and the adjacent block indicates. Based on the difference in the reference screen, a scaling process is performed on the motion vector included in the adjacent block). Also, a reference screen index for the first motion information may be determined in advance. In these cases, since the decoding side can uniquely restore, it is not necessary to encode the reference screen index ref_idx by including it in the first additional information.

参照画面の選択とそのリストは図5と図6の例に限定されない。参照画面リストは画面/スライス単位で符号化しても良いし、参照画面の数は、図5のように4枚なく、他の任意の数であっても本発明は実施できる。   Selection of the reference screen and its list are not limited to the examples of FIGS. The reference screen list may be encoded on a screen / slice basis, and the number of reference screens is not four as shown in FIG. 5, and the present invention can be implemented with any other number.

(3)予測動き情報
上記では、図7に示すように複数の符号化/復号済みの動き情報を予測動き情報の候補としているが、その数と利用する隣接ブロックの位置は限定されない。
(3) Predicted motion information In the above, a plurality of encoded / decoded motion information is used as predicted motion information candidates as shown in FIG. 7, but the number and the position of adjacent blocks to be used are not limited.

第1の予測動きベクトルの候補に隣接ブロックの第0の動きベクトルを含めてもよいし、第0の予測動きベクトルの候補に隣接ブロックの第1の動きベクトルを含めても本発明の双予測は実施できる。第1の予測動き情報の候補に、先に符号化/復号されている第0の動き情報を加えても良い。   The 0th motion vector of the adjacent block may be included in the first motion vector predictor candidate, or the first motion vector of the adjacent block may be included in the 0th motion vector predictor candidate. Can be implemented. The 0th motion information previously encoded / decoded may be added to the first predicted motion information candidate.

符号化/復号済みの動き情報に含まれる参照画面インデックスと対象ブロックに付随する動き情報に含まれる参照画面インデックスが異なる場合に、動きベクトルのスケーリング処理を行うか否かも本発明では限定されない。   Whether or not the motion vector scaling processing is performed when the reference screen index included in the encoded / decoded motion information is different from the reference screen index included in the motion information associated with the target block is not limited in the present invention.

なお、予測動きベクトルの候補が1つの場合には、予測動き情報インデックスmvp_idxを第1の付加情報に含めて符号化する必要がない。   When there is one candidate motion vector predictor, it is not necessary to encode the motion information index mvp_idx included in the first additional information.

予測動きベクトルの生成方法も本発明では限定されない。例えば、奇数個の予測動きベクトルの候補の中央値を、予測動きベクトルとして採用するようにしてもよい。この場合も、予測動きベクトルは復号側で一意に決まるため、予測動き情報インデックスmvp_idxを第1の付加情報に含めて符号化する必要がない。   The method for generating a predicted motion vector is not limited in the present invention. For example, the median value of the odd number of motion vector predictor candidates may be adopted as the motion vector predictor. Also in this case, since the prediction motion vector is uniquely determined on the decoding side, it is not necessary to encode the prediction motion information index mvp_idx by including it in the first additional information.

図8に示すように、複数のブロックサイズを用いる符号化/復号方式の場合であっても、予測動き情報の候補を決定する方法が規定されていれば、本発明の双予測は実施できる。例えば、図8の例では、対象ブロック400に隣接するブロック421からブロック428を予測情報の候補としても良いし、隣接ブロックの番号付け方法を予め定めておき、画面単位やスライス単位で指示される数の隣接ブロックの動き情報を予測動きベクトルの候補に設定するにようにしてもよい。   As shown in FIG. 8, even in the case of an encoding / decoding scheme using a plurality of block sizes, bi-prediction according to the present invention can be implemented if a method for determining prediction motion information candidates is defined. For example, in the example of FIG. 8, the blocks 421 to 428 adjacent to the target block 400 may be candidates for prediction information, and the numbering method of adjacent blocks is determined in advance and designated in units of screens or slices. You may make it set the motion information of several adjacent blocks to the prediction motion vector candidate.

(4)第0の動き情報と付加情報
なお、第0の動き情報と付加情報の構成については、本発明では限定されない参照画面インデックスや予測動き情報インデックスを符号化せずに固定値としてもよいし、予め定めた方法で導出するようにしてもよい。
(4) 0th motion information and additional information The configurations of the 0th motion information and additional information may be fixed values without encoding the reference screen index and the predicted motion information index, which are not limited in the present invention. However, it may be derived by a predetermined method.

また、第0の動き情報や付加情報についても、第1の動き情報や付加情報と同じように、mvd[0]を符号化せず、復号側にてmv[0]=pmv[0](あるいはmvd[0]=0)と設定するようにしてもよい。   Also, for the 0th motion information and additional information, as with the first motion information and additional information, mvd [0] is not encoded, and mv [0] = pmv [0] ( Alternatively, mvd [0] = 0) may be set.

(5)フレーム番号
上記では、参照画面や符号化対象画面の識別にフレーム番号(frame_num)を用いているが、参照画面を識別できる情報であれば、別の情報であっても、本発明の実施に影響はない。
(5) Frame number In the above description, the frame number (frame_num) is used to identify the reference screen and the encoding target screen. However, other information can be used as long as it is information that can identify the reference screen. There is no impact on implementation.

(6)第1の差分動きベクトルmvd[1]の復元
上記で説明した本発明の双予測では、第1の差分動きベクトルmvd[1]のベクトル値は0となる。そのため、mvd[1]は符号化せず、復号側で、mvd[1]のベクトル値を0に設定するか、あるいは動きベクトルmv[1]をpmv[1]に設定している。別の実施形態として、mvd[1]=0を第1の付加情報に含め、0値を効率良くエントロピー符号化する方法も有効と言える。
(6) Restoration of first differential motion vector mvd [1] In the bi-prediction of the present invention described above, the vector value of the first differential motion vector mvd [1] is 0. For this reason, mvd [1] is not encoded, and the vector value of mvd [1] is set to 0 or the motion vector mv [1] is set to pmv [1] on the decoding side. As another embodiment, it can be said that a method in which mvd [1] = 0 is included in the first additional information and 0 value is efficiently entropy-coded is also effective.

エントロピー符号化に算術符号化を用いる場合には、例えば、第0の差分動きベクトルと第1の差分動きベクトルを異なる確率モデルで符号化/復号する。例えば、差分動きベクトルのベクトル値0の確率頻度が異なる2つの確率モデルを差分動きベクトルの符号化/復号用に用意する。そして、第1の差分動きベクトルを符号化/復号する場合には、差分動きベクトルのベクトル値0の頻度をより高く設定した第2の確率モデルを使用し、第0の差分動きベクトルを符号化/復号する場合には、別の第1の確率モデルを使用する。さらに、差分動きベクトルの水平と垂直方向ベクトル値用に個別に確率モデルを用意してもよい。   When arithmetic coding is used for entropy coding, for example, the 0th differential motion vector and the first differential motion vector are encoded / decoded with different probability models. For example, two probability models with different probability frequencies of the difference motion vector vector value 0 are prepared for encoding / decoding the difference motion vector. When encoding / decoding the first difference motion vector, the second probability model in which the frequency of the vector value 0 of the difference motion vector is set higher is used to encode the zeroth difference motion vector. In the case of decoding, another first probability model is used. Further, a probability model may be separately prepared for the horizontal and vertical vector values of the difference motion vector.

なお、双予測タイプ2を適用するブロックの第1の差分動きベクトルのみで第2の確率モデルを使用し、それ以外の差分動きベクトルの符号化/復号では、第1の確率モデルを使用するようにしてもよい。   The second probability model is used only for the first difference motion vector of the block to which bi-prediction type 2 is applied, and the first probability model is used for encoding / decoding of the other difference motion vectors. It may be.

可変長符号化を用いる場合には、第0の差分動きベクトルと第1の差分動きベクトルを異なる可変長テーブルを用いて符号化/復号する。例えば、差分動きベクトルのベクトル値0に割り当てる符号長が異なる2つの可変長テーブルを用意する。そして、第1の差分動きベクトルを符号化/復号する場合には、差分動きベクトルのベクトル値0に割り当てる符号長をより短く設定した第2の可変長テーブルを使用し、第0の差分動きベクトルを符号化/復号する場合には、別の第1の可変長テーブルを使用する。さらに、差分動きベクトルの水平と垂直方向ベクトル値用に個別に可変長テーブルを用意してもよい。   When variable length coding is used, the 0th differential motion vector and the first differential motion vector are encoded / decoded using different variable length tables. For example, two variable length tables having different code lengths assigned to the vector value 0 of the differential motion vector are prepared. Then, when encoding / decoding the first differential motion vector, the second variable length table in which the code length assigned to the vector value 0 of the differential motion vector is set shorter is used, and the zeroth differential motion vector is used. Is encoded / decoded, another first variable length table is used. Furthermore, a variable length table may be separately prepared for the horizontal and vertical vector values of the difference motion vector.

なお、双予測タイプ2を適用するブロックの第1の差分動きベクトルのみで第2の可変長テーブルを使用し、それ以外の差分動きベクトルの符号化/復号では、第1の可変長テーブル使用するようにしてもよい。   Note that the second variable length table is used only for the first differential motion vector of a block to which bi-prediction type 2 is applied, and the first variable length table is used for encoding / decoding of the other differential motion vectors. You may do it.

(7)N予測
上記では画面間予測の予測タイプを片予測と双予測としているが、3個以上の予測信号を合成する予測方法に対しても本発明は適用できる。3個以上の予測信号を合成して予測信号を生成する場合には、mvdを含まない付加情報の数は1つ以上であれば、いくつでもよい。
(7) N prediction In the above, the prediction types of inter-screen prediction are uni-prediction and bi-prediction, but the present invention can also be applied to a prediction method that combines three or more prediction signals. When a prediction signal is generated by synthesizing three or more prediction signals, the number of additional information not including mvd may be any number as long as it is one or more.

(8)変換器、逆変換器
残差信号の変換処理は、固定のブロックサイズで行っても良いし、部分領域にあわせて対象領域を再分割して変換処理を行っても良い。
(8) Transformer, Inverse Transformer The residual signal conversion process may be performed with a fixed block size, or the target area may be subdivided according to the partial area and the conversion process may be performed.

(9)色信号
上記では、色フォーマットについては特に述べていないが、色信号あるいは色差信号についても、輝度信号と個別に予測信号の生成処理を行っても良い。また、輝度信号の処理と連動して行っても良い。
(9) Color signal In the above description, the color format is not particularly described, but the prediction signal may be generated separately from the luminance signal for the color signal or the color difference signal. Further, it may be performed in conjunction with the luminance signal processing.

以上、本発明をその実施形態に基づいて詳細に説明した。しかし、本発明はさらに上記実施形態に限定されるものではない。本発明は、その要旨を逸脱しない範囲で様々な変形が可能である。   The present invention has been described in detail based on the embodiments. However, the present invention is not limited to the above embodiment. The present invention can be variously modified without departing from the gist thereof.

100…動画像予測符号化装置、101…入力端子、102…ブロック分割器、103…予測信号生成器、104…フレームメモリ、105…減算器、106…変換器、107…量子化器、108…逆量子化器、109…逆変換器、110…加算器、111…符号化器、112…出力端子、113…動き情報用メモリ、121…第1の動き情報推定器、122…第0の動き情報推定器、123…予測信号合成器、201…入力端子、202…復号器、203…逆量子化器、204…逆変換器、205…加算器、206…出力端子、207…動き補償器、208…動き情報復元器、211…第1の動き情報復元器、212…第0の動き情報復元器。   DESCRIPTION OF SYMBOLS 100 ... Moving image predictive coding apparatus, 101 ... Input terminal, 102 ... Block divider, 103 ... Prediction signal generator, 104 ... Frame memory, 105 ... Subtractor, 106 ... Converter, 107 ... Quantizer, 108 ... Inverse quantizer 109 ... Inverse transformer 110 ... Adder 111 ... Encoder 112 ... Output terminal 113 ... Memory for motion information 121 ... First motion information estimator 122 ... 0th motion Information estimator, 123 ... Predictive signal synthesizer, 201 ... Input terminal, 202 ... Decoder, 203 ... Inverse quantizer, 204 ... Inverse transformer, 205 ... Adder, 206 ... Output terminal, 207 ... Motion compensator, 208... Motion information restorer, 211... First motion information restorer, 212.

Claims (6)

複数の領域に分割して符号化された圧縮データの中から復号対象となる復号対象領域の付加情報と残差信号の圧縮データとを復号する復号手段と、
前記付加情報から前記対象領域の予測信号の生成に要する動きベクトルを復元する動き情報復元手段と、
前記動きベクトルを保存する動き情報記録手段と、
前記動きベクトルに基づいて前記対象領域の予測信号を生成する動き補償手段と、
前記残差信号の圧縮データから前記対象領域の再生残差信号を復元する残差信号復元手段と、
前記予測信号と前記再生残差信号とを加算することによって前記復号対象領域の画素信号を復元し、復元された画素信号を既再生画像として保存する画像記録手段と、
を具備し、
前記復号手段は、第0の付加情報と第1の付加情報とを復号し、
前記第0の付加情報は、第0の差分動きベクトルと、前記動き情報記録手段に格納されている複数の動きベクトルから選択された1つを第0の予測動きベクトルとして識別するための第0の予測動き情報インデックスと、を含み、
前記第1の付加情報は、前記動き情報記録手段に格納されている複数の動きベクトルから選択された1つを第1の予測動きベクトルとして識別する第1の予測動き情報インデックスを含み、
前記動き情報復元手段が、
前記第0の予測動き情報インデックスに基づいて第0の予測動きベクトルを生成し、生成した第0の予測動きベクトルと前記第0の差分動きベクトルとを加算して第0の動きベクトルを復元する第0の動き情報復元手段と、
前記第1の予測動き情報インデックスに基づいて第1の予測動きベクトルを生成し、生成した第1の予測動きベクトルを第1の動きベクトルとして復元する第1の動き情報復元手段と、を含み、
前記動き補償手段は、前記第0の動きベクトルと第1の動きベクトルとに基づいて前記既再生画像から取得される2つの信号を合成して前記対象領域の予測信号を生成し、
前記復号手段は、さらに、画面あるいはスライス毎に、前記第1の付加情報が差分動きベクトルを含むか否かを指示する指示情報を復号し、
前記指示情報が、前記第1の付加情報が第1の差分動きベクトルを含むことを示す場合には、前記第1の付加情報として差分動きベクトルを復号し、
前記第1の動き情報復元手段は、
前記指示情報が、第1の付加情報が第1の差分動きベクトルを含まないことを示すときは、前記第1の予測動き情報インデックスに基づいて第1の予測動きベクトルを生成し、生成した第1の予測動きベクトルを第1の動きベクトルとして復元し、
前記指示情報が、第1の付加情報が差分ベクトルを含むことを示すときは、前記第1の予測動き情報インデックスに基づいて第1の予測動きベクトルを生成し、生成した第1の予測動きベクトルと復号した差分動きベクトルとを加算して第1の動きベクトルを生成して復元することを特徴とする動画像予測復号装置。
Decoding means for decoding the additional information of the decoding target region to be decoded and the compressed data of the residual signal from among the compressed data encoded by dividing into a plurality of regions;
Motion information restoring means for restoring a motion vector required for generating a prediction signal of the target region from the additional information;
Motion information recording means for storing the motion vector;
Motion compensation means for generating a prediction signal of the target region based on the motion vector;
Residual signal restoration means for restoring the reproduction residual signal of the target area from the compressed data of the residual signal;
Image recording means for restoring the pixel signal of the decoding target area by adding the prediction signal and the reproduction residual signal, and storing the restored pixel signal as a previously reproduced image;
Comprising
The decoding means decodes the 0th additional information and the first additional information,
The 0th additional information is a 0th differential motion vector and a 0th motion vector for identifying one selected from a plurality of motion vectors stored in the motion information recording means as a 0th predicted motion vector. And a predicted motion information index of
The first additional information includes a first predicted motion information index that identifies one selected from a plurality of motion vectors stored in the motion information recording unit as a first predicted motion vector,
The movement information restoring means is
A 0th motion vector predictor is generated based on the 0th motion vector predictor index, and the 0th motion vector is restored by adding the generated 0th motion vector predictor and the 0th differential motion vector. Zeroth motion information restoring means;
First motion information restoring means for generating a first predicted motion vector based on the first predicted motion information index and restoring the generated first predicted motion vector as a first motion vector;
The motion compensation means generates a prediction signal of the target region by combining two signals acquired from the already reproduced image based on the 0th motion vector and the first motion vector,
The decoding means further decodes instruction information indicating whether or not the first additional information includes a difference motion vector for each screen or slice,
When the instruction information indicates that the first additional information includes a first differential motion vector, the differential motion vector is decoded as the first additional information;
The first motion information restoration means includes
When the instruction information indicates that the first additional information does not include the first differential motion vector, a first predicted motion vector is generated based on the first predicted motion information index, and the generated first Restore one predicted motion vector as the first motion vector;
When the instruction information indicates that the first additional information includes a difference vector, a first predicted motion vector is generated based on the first predicted motion information index, and the generated first predicted motion vector And a decoded differential motion vector to generate and restore a first motion vector.
前記復号手段は、画面のヘッダあるいはスライスのヘッダに含まれる前記指示情報を復号する、  The decoding means decodes the instruction information included in a screen header or a slice header,
請求項1に記載の動画像予測復号装置。  The moving picture predictive decoding apparatus according to claim 1.
動画像予測復号装置により実行される動画像予測復号方法であって、
複数の領域に分割して符号化された圧縮データの中から復号対象となる復号対象領域の付加情報と残差信号の圧縮データとを復号する復号ステップと、
前記付加情報から前記対象領域の予測信号の生成に要する動きベクトルを復元する動き情報復元ステップと、
前記動きベクトルを動き情報記録手段に保存する動き情報記録ステップと、
前記動きベクトルに基づいて前記対象領域の予測信号を生成する動き補償ステップと、
前記残差信号の圧縮データから前記対象領域の再生残差信号を復元する残差信号復元ステップと、
前記予測信号と前記再生残差信号とを加算することによって前記復号対象領域の画素信号を復元し、復元された画素信号を既再生画像として保存する画像記録ステップと、
を具備し、
前記復号ステップにおいて、前記動画像予測復号装置は、第0の付加情報と第1の付加情報とを復号し、
前記第0の付加情報は、第0の差分動きベクトルと、前記動き情報記録手段に格納されている複数の動きベクトルから選択された1つを第0の予測動きベクトルとして識別するための第0の予測動き情報インデックスと、を含み、
前記第1の付加情報は、前記動き情報記録手段に格納されている複数の動きベクトルから選択された1つを第1の予測動きベクトルとして識別する第1の予測動き情報インデックスを含み、
前記動き情報復元ステップが、
前記第0の予測動き情報インデックスに基づいて第0の予測動きベクトルを生成し、生成した第0の予測動きベクトルと前記第0の差分動きベクトルとを加算して第0の動きベクトルを復元する第0の動き情報復元ステップと、
前記第1の予測動き情報インデックスに基づいて第1の予測動きベクトルを生成し、生成した第1の予測動きベクトルを第1の動きベクトルとして復元する第1の動き情報復元ステップと、を含み、
前記動き補償ステップにおいて、前記動画像予測復号装置は、前記第0の動きベクトルと第1の動きベクトルとに基づいて前記既再生画像から取得される2つの信号を合成して前記対象領域の予測信号を生成し、
前記復号ステップにおいて、前記動画像予測復号装置は、さらに、画面あるいはスライス毎に、前記第1の付加情報が差分動きベクトルを含むか否かを指示する指示情報を復号し、
前記指示情報が、前記第1の付加情報が第1の差分動きベクトルを含むことを示す場合には、前記動画像予測復号装置は、前記第1の付加情報として差分動きベクトルを復号し、
前記第1の動き情報復元ステップにおいて、前記動画像予測復号装置は、
前記指示情報が、第1の付加情報が第1の差分動きベクトルを含まないことを示すときは、前記第1の予測動き情報インデックスに基づいて第1の予測動きベクトルを生成し、生成した第1の予測動きベクトルを第1の動きベクトルとして復元し、
前記指示情報が、第1の付加情報が差分ベクトルを含むことを示すときは、前記第1の予測動き情報インデックスに基づいて第1の予測動きベクトルを生成し、生成した第1の予測動きベクトルと復号した差分動きベクトルとを加算して第1の動きベクトルを生成して復元することを特徴とする動画像予測復号方法。
A video predictive decoding method executed by a video predictive decoding device,
A decoding step of decoding the additional information of the decoding target area to be decoded and the compressed data of the residual signal from the compressed data encoded by dividing into a plurality of areas;
A motion information restoring step for restoring a motion vector required for generating a prediction signal of the target region from the additional information;
A motion information recording step for storing the motion vector in a motion information recording means;
A motion compensation step of generating a prediction signal of the target region based on the motion vector;
A residual signal restoration step of restoring the reproduction residual signal of the target area from the compressed data of the residual signal;
An image recording step of restoring the pixel signal in the decoding target area by adding the prediction signal and the reproduction residual signal, and storing the restored pixel signal as a previously reproduced image;
Comprising
In the decoding step, the video predictive decoding device decodes the 0th additional information and the first additional information,
The 0th additional information is a 0th differential motion vector and a 0th motion vector for identifying one selected from a plurality of motion vectors stored in the motion information recording means as a 0th predicted motion vector. And a predicted motion information index of
The first additional information includes a first predicted motion information index that identifies one selected from a plurality of motion vectors stored in the motion information recording unit as a first predicted motion vector,
The motion information restoration step comprises:
A 0th motion vector predictor is generated based on the 0th motion vector predictor index, and the 0th motion vector is restored by adding the generated 0th motion vector predictor and the 0th differential motion vector. A 0th motion information restoration step;
Generating a first predicted motion vector based on the first predicted motion information index and restoring the generated first predicted motion vector as a first motion vector; and
In the motion compensation step, the video predictive decoding apparatus combines the two signals acquired from the already reproduced image based on the 0th motion vector and the first motion vector to predict the target region. Generate a signal,
In the decoding step, the video predictive decoding apparatus further decodes instruction information indicating whether or not the first additional information includes a differential motion vector for each screen or slice,
When the instruction information indicates that the first additional information includes a first differential motion vector, the video predictive decoding device decodes the differential motion vector as the first additional information,
In the first motion information restoration step, the video predictive decoding device includes:
When the instruction information indicates that the first additional information does not include the first differential motion vector, a first predicted motion vector is generated based on the first predicted motion information index, and the generated first Restore one predicted motion vector as the first motion vector;
When the instruction information indicates that the first additional information includes a difference vector, a first predicted motion vector is generated based on the first predicted motion information index, and the generated first predicted motion vector And a decoded differential motion vector to generate and restore a first motion vector.
前記復号ステップにおいて、前記動画像予測復号装置は、画面のヘッダあるいはスライスのヘッダに含まれる前記指示情報を復号する、  In the decoding step, the video predictive decoding device decodes the instruction information included in a screen header or a slice header.
請求項3に記載の動画像予測復号方法。  The moving image predictive decoding method according to claim 3.
コンピュータを、
複数の領域に分割して符号化された圧縮データの中から復号対象となる復号対象領域の付加情報と残差信号の圧縮データとを復号する復号手段と、
前記付加情報から前記対象領域の予測信号の生成に要する動きベクトルを復元する動き情報復元手段と、
前記動きベクトルを保存する動き情報記録手段と、
前記動きベクトルに基づいて前記対象領域の予測信号を生成する動き補償手段と、
前記残差信号の圧縮データから前記対象領域の再生残差信号を復元する残差信号復元手段と、
前記予測信号と前記再生残差信号とを加算することによって前記復号対象領域の画素信号を復元し、復元された画素信号を既再生画像として保存する画像記録手段、
として機能させるための動画像予測復号プログラムであり、
前記復号手段は、第0の付加情報と第1の付加情報とを復号し、
前記第0の付加情報は、第0の差分動きベクトルと、前記動き情報記録手段に格納されている複数の動きベクトルから選択された1つを第0の予測動きベクトルとして識別するための第0の予測動き情報インデックスと、を含み、
前記第1の付加情報は、前記動き情報記録手段に格納されている複数の動きベクトルから選択された1つを第1の予測動きベクトルとして識別する第1の予測動き情報インデックスを含み、
前記動き情報復元手段が、
前記第0の予測動き情報インデックスに基づいて第0の予測動きベクトルを生成し、生成した第0の予測動きベクトルと前記第0の差分動きベクトルとを加算して第0の動きベクトルを復元する第0の動き情報復元手段と、
前記第1の予測動き情報インデックスに基づいて第1の予測動きベクトルを生成し、生成した第1の予測動きベクトルを第1の動きベクトルとして復元する第1の動き情報復元手段と、を含み、
前記動き補償手段は、前記第0の動きベクトルと第1の動きベクトルとに基づいて前記既再生画像から取得される2つの信号を合成して前記対象領域の予測信号を生成し、
前記復号手段は、さらに、画面あるいはスライス毎に、前記第1の付加情報が差分動きベクトルを含むか否かを指示する指示情報を復号し、
前記指示情報が、前記第1の付加情報が第1の差分動きベクトルを含むことを示す場合には、前記第1の付加情報として差分動きベクトルを復号し、
前記第1の動き情報復元手段は、
前記指示情報が、第1の付加情報が第1の差分動きベクトルを含まないことを示すときは、前記第1の予測動き情報インデックスに基づいて第1の予測動きベクトルを生成し、生成した第1の予測動きベクトルを第1の動きベクトルとして復元し、
前記指示情報が、第1の付加情報が差分ベクトルを含むことを示すときは、前記第1の予測動き情報インデックスに基づいて第1の予測動きベクトルを生成し、生成した第1の予測動きベクトルと復号した差分動きベクトルとを加算して第1の動きベクトルを生成して復元することを特徴とする動画像予測復号プログラム。
Computer
Decoding means for decoding the additional information of the decoding target region to be decoded and the compressed data of the residual signal from among the compressed data encoded by dividing into a plurality of regions;
Motion information restoring means for restoring a motion vector required for generating a prediction signal of the target region from the additional information;
Motion information recording means for storing the motion vector;
Motion compensation means for generating a prediction signal of the target region based on the motion vector;
Residual signal restoration means for restoring the reproduction residual signal of the target area from the compressed data of the residual signal;
Image recording means for restoring the pixel signal of the decoding target area by adding the prediction signal and the reproduction residual signal, and storing the restored pixel signal as a previously reproduced image;
Is a moving picture predictive decoding program to function as
The decoding means decodes the 0th additional information and the first additional information,
The 0th additional information is a 0th differential motion vector and a 0th motion vector for identifying one selected from a plurality of motion vectors stored in the motion information recording means as a 0th predicted motion vector. And a predicted motion information index of
The first additional information includes a first predicted motion information index that identifies one selected from a plurality of motion vectors stored in the motion information recording unit as a first predicted motion vector,
The movement information restoring means is
A 0th motion vector predictor is generated based on the 0th motion vector predictor index, and the 0th motion vector is restored by adding the generated 0th motion vector predictor and the 0th differential motion vector. Zeroth motion information restoring means;
First motion information restoring means for generating a first predicted motion vector based on the first predicted motion information index and restoring the generated first predicted motion vector as a first motion vector;
The motion compensation means generates a prediction signal of the target region by combining two signals acquired from the already reproduced image based on the 0th motion vector and the first motion vector,
The decoding means further decodes instruction information indicating whether or not the first additional information includes a difference motion vector for each screen or slice,
When the instruction information indicates that the first additional information includes a first differential motion vector, the differential motion vector is decoded as the first additional information;
The first motion information restoration means includes
When the instruction information indicates that the first additional information does not include the first differential motion vector, a first predicted motion vector is generated based on the first predicted motion information index, and the generated first Restore one predicted motion vector as the first motion vector;
When the instruction information indicates that the first additional information includes a difference vector, a first predicted motion vector is generated based on the first predicted motion information index, and the generated first predicted motion vector And a decoded difference motion vector to generate and restore a first motion vector.
前記復号手段は、画面のヘッダあるいはスライスのヘッダに含まれる前記指示情報を復号する、  The decoding means decodes the instruction information included in a screen header or a slice header,
請求項5に記載の動画像予測復号プログラム。  The moving picture predictive decoding program according to claim 5.
JP2014242028A 2014-11-28 2014-11-28 Moving picture predictive coding apparatus, moving picture predictive coding method, moving picture predictive coding program, moving picture predictive decoding apparatus, moving picture predictive decoding method, and moving picture predictive decoding program Active JP5736083B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014242028A JP5736083B2 (en) 2014-11-28 2014-11-28 Moving picture predictive coding apparatus, moving picture predictive coding method, moving picture predictive coding program, moving picture predictive decoding apparatus, moving picture predictive decoding method, and moving picture predictive decoding program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014242028A JP5736083B2 (en) 2014-11-28 2014-11-28 Moving picture predictive coding apparatus, moving picture predictive coding method, moving picture predictive coding program, moving picture predictive decoding apparatus, moving picture predictive decoding method, and moving picture predictive decoding program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014143087A Division JP5668169B2 (en) 2014-07-11 2014-07-11 Moving picture predictive coding apparatus, moving picture predictive coding method, moving picture predictive coding program, moving picture predictive decoding apparatus, moving picture predictive decoding method, and moving picture predictive decoding program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015085168A Division JP5922281B2 (en) 2015-04-17 2015-04-17 Moving picture predictive coding apparatus, moving picture predictive coding method, moving picture predictive decoding apparatus, and moving picture predictive decoding method

Publications (2)

Publication Number Publication Date
JP2015039246A JP2015039246A (en) 2015-02-26
JP5736083B2 true JP5736083B2 (en) 2015-06-17

Family

ID=52632005

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014242028A Active JP5736083B2 (en) 2014-11-28 2014-11-28 Moving picture predictive coding apparatus, moving picture predictive coding method, moving picture predictive coding program, moving picture predictive decoding apparatus, moving picture predictive decoding method, and moving picture predictive decoding program

Country Status (1)

Country Link
JP (1) JP5736083B2 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9215475B2 (en) * 2006-02-02 2015-12-15 Thomson Licensing Method and apparatus for motion estimation using combined reference bi-prediction

Also Published As

Publication number Publication date
JP2015039246A (en) 2015-02-26

Similar Documents

Publication Publication Date Title
JP5485969B2 (en) Moving picture predictive coding apparatus, moving picture predictive coding method, moving picture predictive coding program, moving picture predictive decoding apparatus, moving picture predictive decoding method, and moving picture predictive decoding program
JP5982537B2 (en) Image predictive decoding apparatus, image predictive decoding method, and image predictive decoding program
JP5922281B2 (en) Moving picture predictive coding apparatus, moving picture predictive coding method, moving picture predictive decoding apparatus, and moving picture predictive decoding method
JP6134418B2 (en) Moving picture predictive decoding apparatus and moving picture predictive decoding method
JP5736083B2 (en) Moving picture predictive coding apparatus, moving picture predictive coding method, moving picture predictive coding program, moving picture predictive decoding apparatus, moving picture predictive decoding method, and moving picture predictive decoding program
JP5668169B2 (en) Moving picture predictive coding apparatus, moving picture predictive coding method, moving picture predictive coding program, moving picture predictive decoding apparatus, moving picture predictive decoding method, and moving picture predictive decoding program
JP5642305B2 (en) Moving picture predictive coding apparatus, moving picture predictive coding method, moving picture predictive coding program, moving picture predictive decoding apparatus, moving picture predictive decoding method, and moving picture predictive decoding program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141128

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20141128

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20141215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A132

Effective date: 20150120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150310

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150331

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150417

R150 Certificate of patent or registration of utility model

Ref document number: 5736083

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250