JP2019140704A - Image prediction decoding device, and image prediction decoding method - Google Patents

Image prediction decoding device, and image prediction decoding method Download PDF

Info

Publication number
JP2019140704A
JP2019140704A JP2019103923A JP2019103923A JP2019140704A JP 2019140704 A JP2019140704 A JP 2019140704A JP 2019103923 A JP2019103923 A JP 2019103923A JP 2019103923 A JP2019103923 A JP 2019103923A JP 2019140704 A JP2019140704 A JP 2019140704A
Authority
JP
Japan
Prior art keywords
prediction
information
block
signal
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019103923A
Other languages
Japanese (ja)
Inventor
鈴木 芳典
Yoshinori Suzuki
芳典 鈴木
順也 瀧上
Junya Takigami
順也 瀧上
ブン チュンセン
Chunsen Bun
チュンセン ブン
タン ティオ ケン
Tio Ken Tang
ティオ ケン タン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=45496857&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2019140704(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Publication of JP2019140704A publication Critical patent/JP2019140704A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding

Abstract

To enhance encoding efficiency.SOLUTION: According to one embodiment, an encoding target region in an image is divided into a plurality of prediction regions. A candidate for motion information used for creating a prediction signal for a target prediction region to be a next prediction region is selected from encoded motion information on a region adjacent to the target prediction region, on the basis of prediction information on an adjacent region adjacent to the target region, the number of encoded prediction regions in the target region, and encoded prediction information in the target region. According to the number of selected candidates for motion information, merge block information for instructing to create a prediction signal for the target prediction region using the selected candidate for the motion information and motion information detected by prediction information estimation means or any one of the merge block information and the detected motion information is encoded. The motion information used for creating the prediction signal for the target prediction region is stored in prediction information storage means.SELECTED DRAWING: Figure 1

Description

本発明の一側面は、画像予測符号化装置、画像予測符号化方法、及び、画像予測符号化プログラムに関するものである。また、本発明の別の一側面は、画像予測復号装置、画像予測復号方法及び画像予測復号プログラムに関するものである。とりわけ、これらの側面は、周囲ブロックの動き情報を用いて対象ブロックの予測信号を生成する画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラムに関するものである。また、本発明の更に別の一側面は、動きベクトルによる動き補償によって予測信号の生成を行う動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法、及び、動画像復号プログラムに関するものである。   One aspect of the present invention relates to an image predictive encoding device, an image predictive encoding method, and an image predictive encoding program. Another aspect of the present invention relates to an image predictive decoding apparatus, an image predictive decoding method, and an image predictive decoding program. In particular, these aspects include an image predictive encoding device, an image predictive encoding method, an image predictive encoding program, an image predictive decoding device, and an image predictive decoding method that generate a prediction signal of a target block using motion information of surrounding blocks. And an image predictive decoding program. Furthermore, another aspect of the present invention is a moving image encoding apparatus, a moving image encoding method, a moving image encoding program, a moving image decoding apparatus, and a moving image decoding that generate a prediction signal by motion compensation using a motion vector. The present invention relates to a method and a moving picture decoding program.

静止画像や動画像データの伝送や蓄積を効率よく行うために、圧縮符号化技術が用いられる。動画像の場合では、MPEG−1〜4やITU(International Telecommunication Union)H.261〜H.264の方式が広く用いられている。   In order to efficiently transmit and store still images and moving image data, compression coding technology is used. In the case of moving images, MPEG-1 to 4 and ITU (International Telecommunication Union) H.264. 261-H. H.264 is widely used.

これらの符号化方式では、符号化の対象となる画像を複数のブロックに分割した上で符号化処理又は復号処理を行う。画面内の予測符号化では、対象ブロックと同じ画面内にある隣接する既再生の画像信号(圧縮された画像データが復元されたもの)を用いて予測信号を生成した上で、その予測信号を対象ブロックの信号から引き算することによって得られる差分信号を符号化する。画面間の予測符号化では、対象ブロックと異なる画面内にある隣接する既再生の画像信号を参照し、動きの補正を行ない、予測信号を生成し、その予測信号を対象ブロックの信号から引き算することによって得られる差分信号を符号化する。   In these encoding methods, an encoding process or a decoding process is performed after an image to be encoded is divided into a plurality of blocks. In predictive coding within a screen, a predicted signal is generated using an adjacent previously reproduced image signal (reconstructed compressed image data) in the same screen as the target block, and then the predicted signal is The differential signal obtained by subtracting from the signal of the target block is encoded. In predictive coding between screens, an adjacent reproduced image signal in a screen different from the target block is referred to, motion correction is performed, a predicted signal is generated, and the predicted signal is subtracted from the signal of the target block. The difference signal obtained by this is encoded.

例えば、H.264の画面内予測符号化では、符号化の対象となるブロックに隣接する既再生の画素値を所定の方向に外挿して予測信号を生成する方法を採用している。図22は、ITU H.264に用いられる画面内予測方法を説明するための模式図である。図22の(A)において、対象ブロック802は符号化の対象となるブロックであり、その対象ブロック802の境界に隣接する画素P〜Pからなる画素群801は隣接領域であり、過去の処理において既に再生された画像信号である。 For example, H.M. H.264 intra-screen predictive encoding employs a method of generating a prediction signal by extrapolating already reproduced pixel values adjacent to a block to be encoded in a predetermined direction. FIG. 2 is a schematic diagram for explaining an intra-screen prediction method used for H.264. In FIG. 22A, a target block 802 is a block to be encoded, and a pixel group 801 composed of pixels P A to P M adjacent to the boundary of the target block 802 is an adjacent area, and a past This is an image signal that has already been reproduced in processing.

図22の(A)に示す場合には、対象ブロック802の真上にある隣接画素である画素群801を下方に引き伸ばすことにより予測信号を生成する。また図22の(B)に示す場合では、対象ブロック804の左にある既再生画素(P〜P)を右に引き伸ばすことにより予測信号を生成する。予測信号を生成する具体的な方法は、例えば特許文献1に記載されている。このように図22の(A)〜(I)に示す方法で生成された9つの予測信号のそれぞれと対象ブロックの画素信号との差分をとり、差分値が最も小さいものを最適な予測信号とする。以上のように、画素を外挿することにより予測信号を生成することができる。以上の内容については、下記特許文献1に記載されている。 In the case illustrated in FIG. 22A, a prediction signal is generated by extending a pixel group 801 that is an adjacent pixel directly above the target block 802 downward. In the case shown in FIG. 22B, the prediction signal is generated by stretching the already reproduced pixels (P I to P L ) on the left of the target block 804 to the right. A specific method for generating a prediction signal is described in Patent Document 1, for example. Thus, the difference between each of the nine prediction signals generated by the method shown in FIGS. 22A to 22I and the pixel signal of the target block is taken, and the one with the smallest difference value is determined as the optimum prediction signal. To do. As described above, a prediction signal can be generated by extrapolating pixels. The above contents are described in Patent Document 1 below.

通常の画面間予測符号化では、符号化の対象となるブロックについて、その画素信号に類似する信号を既に再生済みの画面から探索するという方法で予測信号を生成する。そして、対象ブロックと探索した信号が構成する領域との間の空間的な変位量である動きベクトルと、対象ブロックの画素信号と予測信号との残差信号とを符号化する。このようにブロック毎に動きベクトルを探索する手法はブロックマッチングと呼ばれる。   In normal inter-screen predictive coding, a prediction signal is generated by searching for a signal similar to the pixel signal from a screen that has already been reproduced for a block to be coded. Then, a motion vector that is a spatial displacement amount between the target block and a region formed by the searched signal, and a residual signal between the pixel signal and the prediction signal of the target block are encoded. Such a method for searching for a motion vector for each block is called block matching.

図21は、ブロックマッチング処理を説明するための模式図である。以下、符号化対象の画面701上の対象ブロック702を例に予測信号の生成手順を説明する。画面703は既に再生済みであり、領域704は対象ブロック702と空間的に同一位置の領域である。ブロックマッチングでは、領域704を囲む探索範囲705を設定し、この探索範囲の画素信号から対象ブロック702の画素信号との絶対値誤差和が最小となる領域706を検出する。この領域706の信号が予測信号となり、領域704から領域706への変位量が動きベクトル707として検出される。また、参照画面703を複数用意し、対象ブロック毎にブロックマッチングを実施する参照画面を選択し、参照画面選択情報を検出する方法も用いられることがある。H.264では、画像の局所的な特徴の変化に対応するため、動きベクトルを符号化するブロックサイズが異なる複数の予測タイプを用意している。H.264の予測タイプについては、例えば特許文献2に記載されている。   FIG. 21 is a schematic diagram for explaining the block matching process. Hereinafter, a procedure for generating a prediction signal will be described using the target block 702 on the encoding target screen 701 as an example. The screen 703 has already been reproduced, and the area 704 is an area in the same position as the target block 702. In the block matching, a search range 705 surrounding the region 704 is set, and a region 706 in which the absolute value error sum with the pixel signal of the target block 702 is minimum is detected from the pixel signal in this search range. The signal in the area 706 becomes a prediction signal, and the amount of displacement from the area 704 to the area 706 is detected as a motion vector 707. Also, there may be used a method of preparing a plurality of reference screens 703, selecting a reference screen for performing block matching for each target block, and detecting reference screen selection information. H. H.264 provides a plurality of prediction types having different block sizes for encoding motion vectors in order to cope with changes in local features of an image. H. H.264 prediction types are described in Patent Document 2, for example.

動画像データの圧縮符号化では、各画面(フレーム、フィールド)の符号化順序は任意でよい。そのため、再生済み画面を参照して予測信号を生成する画面間予測にも、符号化順序について3種類の手法がある。第1の手法は、再生順で過去の再生済み画面を参照して予測信号を生成する前方向予測であり、第2の手法は、再生順で未来の再生済み画面を参照して予測信号を生成する後方向予測であり、第3の手法は、前方向予測と後方向予測を共に行い、2つの予測信号を平均化する双方向予測である。画面間予測の種類については、例えば特許文献3に記載されている。   In the compression encoding of moving image data, the encoding order of each screen (frame, field) may be arbitrary. For this reason, there are three types of coding order methods for inter-screen prediction in which a prediction signal is generated with reference to a reproduced screen. The first method is forward prediction in which a prediction signal is generated with reference to a past reproduced screen in the reproduction order, and the second method is a prediction signal with reference to a future reproduced screen in the reproduction order. This is a backward prediction to be generated, and the third method is bidirectional prediction in which both forward prediction and backward prediction are performed and two prediction signals are averaged. About the kind of prediction between screens, it describes in patent document 3, for example.

次世代符号化映像符号化方式として標準化が始まったHEVC(High efficiency video coding)では、予測ブロックの分割タイプとして、図20の(B)と(C)に示す矩形2分割、図20の(D)に示す正方4分割に加えて、図20の(E)〜(F)に示すように非対称分割の導入も検討されている。さらに、HEVCでは、このように分割された予測ブロックの予測信号を生成する際に、予測対象となる対象予測ブロックに隣接するブロックの動き情報(動きベクトルや参照画面情報ならびに前方向/後方向/双方向を識別する画面間予測モード)を利用する手法が検討されている。この予測手法はブロックマージングと呼ばれており、動き情報を効率良く符号化できるという特徴がある。図2の(A)は、符号化ブロック400を縦分割して生成した予測ブロックT1にブロックマージングする際の隣接ブロックを模式的に説明する図である。予測ブロックT1の予測信号は、1)隣接ブロックAの動き情報、2)隣接ブロックBの動き情報あるいは、3)ブロックマッチングにて検出した動き情報のいずれかを用いて生成される。たとえば、符号化器が隣接ブロックAの動き情報を選択した場合、符号化器は、第1に、隣接ブロックの動き情報を利用することを示すマージ識別情報(merge_flag)を”merge_flag=1”とし、当該マージ識別情報(merge_flag)を復号器に送る。第2に、符号化器は、隣接ブロックAと隣接ブロックBから隣接ブロックAを利用することを示すマージブロック選択情報(merge_flag_left)を”merge_flag_left=1”とし、当該マージブロック選択情報(merge_flag_left)を復号器に送る。復号器は、この2つの情報を受信することにより、対象予測ブロックの予測信号を隣接ブロックAの動き情報を用いて生成すべきことを識別できる。同様に、復号器は”merge_flag=1”、”merge_flag_left=0”(隣接ブロックBを選択)を受信したときには、対象予測ブロックの予測信号を隣接ブロックBの動き情報を用いて生成し、”merge_flag=0”を受信したときには、さらに符号化器から動き情報を受信して対象予測ブロックの動き情報を復元すべきことを識別できる。ここで示したブロックマージングについては、非特許文献1に記載されている。   In HEVC (High efficiency video coding), which has started standardization as a next-generation coded video coding scheme, the division type of a prediction block is divided into two rectangles shown in FIGS. 20B and 20C, and (D) of FIG. In addition to the tetragonal quadrant shown in FIG. 20, introduction of asymmetric division is also being considered as shown in FIGS. Furthermore, in the HEVC, when generating the prediction signal of the prediction block divided in this way, the motion information (motion vector, reference screen information, forward / backward / A method using an inter-screen prediction mode for identifying both directions has been studied. This prediction method is called block merging and has a feature that motion information can be encoded efficiently. (A) of FIG. 2 is a diagram schematically illustrating adjacent blocks when block merging is performed on a prediction block T1 generated by vertically dividing the encoded block 400. The prediction signal of the prediction block T1 is generated using either 1) motion information of the adjacent block A, 2) motion information of the adjacent block B, or 3) motion information detected by block matching. For example, when the encoder selects the motion information of the adjacent block A, the encoder first sets the merge identification information (merge_flag) indicating that the motion information of the adjacent block is used to “merge_flag = 1”. The merge identification information (merge_flag) is sent to the decoder. Second, the encoder sets merge block selection information (merge_flag_left) indicating that the adjacent block A is used from the adjacent block A and the adjacent block B to “merge_flag_left = 1”, and uses the merge block selection information (merge_flag_left). Send to the decoder. By receiving these two pieces of information, the decoder can identify that the prediction signal of the target prediction block should be generated using the motion information of the adjacent block A. Similarly, when the decoder receives “merge_flag = 1” and “merge_flag_left = 0” (selecting the adjacent block B), the decoder generates a prediction signal of the target prediction block using the motion information of the adjacent block B, and generates “merge_flag When “= 0” is received, it is further possible to identify that the motion information of the target prediction block should be restored by receiving motion information from the encoder. The block merging shown here is described in Non-Patent Document 1.

また、MPEG−1,2やMPEG−4等の規格におけるフレーム間予測では、それぞれのピクチャは互いに重ならない矩形のブロックのセットに分割され、ブロックのそれぞれに動きベクトルが関連付けられる。動きベクトルは、ブロックごとの動き探索によって得られものであり、現在のブロックの画像信号を予測するために使用する第2のブロックからの現在のブロックの水平変位及び垂直変位を示している。   Also, in inter-frame prediction in standards such as MPEG-1, 2 and MPEG-4, each picture is divided into a set of rectangular blocks that do not overlap each other, and a motion vector is associated with each block. The motion vector is obtained by a motion search for each block, and indicates the horizontal displacement and vertical displacement of the current block from the second block used for predicting the image signal of the current block.

下記特許文献4には、ブロック内に斜め方向に動きの境界が存在する場合に、より精度の高い動き補償予測を行うための方法が記載されている。この方法は、ブロックを更に非矩形の小区画に区切り、当該小区画ごとに動き補償予測を行うものである。   Patent Document 4 below describes a method for performing motion compensation prediction with higher accuracy when a motion boundary exists in a diagonal direction in a block. In this method, a block is further divided into non-rectangular small sections, and motion compensation prediction is performed for each small section.

また、下記特許文献5には、ブロックを更に小さな矩形の小区画に区切り、当該小区画ごとに動き補償予測を行う方法が記載されている。この方法は、処理対象の小区画の動きベクトルを符号化する際に、処理対象の小区画に接するブロックであって当該小区画より処理順で前のブロックの動きベクトルから予測動きベクトルを生成し、処理対象の小区画の動きベクトルと予測動きベクトルの差分、即ち差分動きベクトルのみを符号化するものである。この方法では、処理対象の小区画が処理順で前のブロックに接していない場合には、当該処理対象の小区画を含むブロック内の処理順で前の他の小区画の動きベクトルから当該処理対象の小区画の予測動きベクトルを生成している。   Patent Document 5 below describes a method of dividing a block into smaller rectangular small sections and performing motion compensation prediction for each small section. This method generates a predicted motion vector from the motion vector of a block that is in contact with the processing target sub-partition and is prior to the sub-partition in the processing order when encoding the motion vector of the processing target sub-partition. The difference between the motion vector and the predicted motion vector of the small section to be processed, that is, only the differential motion vector is encoded. In this method, when the processing target sub-partition is not in contact with the previous block in the processing order, the processing is performed from the motion vector of the other sub-partition in the processing order within the block including the processing target sub-partition. A predicted motion vector of the target small section is generated.

米国特許公報第6765964号US Pat. No. 6,765,964 米国特許公報第7003035号US Patent Publication No. 7003035 米国特許公報第6259739号US Pat. No. 6,259,739 特開2005−277968号公報JP 2005-277968 A 特開2009−246972号公報JP 2009-246972 A

Test Model under Consideration, Joint Collaborative Team on VideoCoding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11, 1st Meeting:Dresden, DE, 15-23 April, 2010, Document: JCTVC-A205Test Model under Consideration, Joint Collaborative Team on VideoCoding (JCT-VC) of ITU-T SG16 WP3 and ISO / IEC JTC1 / SC29 / WG11, 1st Meeting: Dresden, DE, 15-23 April, 2010, Document: JCTVC-A205

上記の非特許文献1では、符号化対象の対象符号化ブロックを分割した複数の予測ブロックのブロックマージングにて利用する動き情報の候補の選出を予測ブロックとその周囲の状況に関わらず同じ方法で実施する。そのため、たとえば、図2の(B)に示すように、予測ブロックT2の予測信号を生成する際の動き情報の候補に、同じ符号化ブロックに含まれる予測ブロックT1の動き情報が含まれる。この予測ブロックT1と予測ブロックT2から成る予測ブロック分割タイプは、2つのブロックの予測信号が異なる動き情報で生成されることを想定して用意されたものである。従って、予測ブロックT2の動き情報の候補に予測ブロックT1の動き情報が含まれることは好ましくない。即ち、符号化が非効率となることがある。   In the above Non-Patent Document 1, selection of motion information candidates to be used in block merging of a plurality of prediction blocks obtained by dividing a target encoding block to be encoded is performed in the same manner regardless of the surrounding state of the prediction block. carry out. Therefore, for example, as illustrated in FIG. 2B, motion information candidates for generating a prediction signal of the prediction block T2 include motion information of the prediction block T1 included in the same encoded block. The prediction block division type including the prediction block T1 and the prediction block T2 is prepared on the assumption that the prediction signals of the two blocks are generated with different motion information. Therefore, it is not preferable that the motion information candidate of the prediction block T2 includes the motion information of the prediction block T1. That is, encoding may be inefficient.

そこで、本発明は、幾つかの側面においては、対象予測ブロックの予測信号の生成に用いる動き情報の候補を、対象符号化ブロックや周囲の符号化ブロックの符号化済み又は復号済み予測情報(動き情報や予測ブロック分割タイプ)に基づいて選出することにより、非効率な符号の発生を抑制する画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラムを提供することを目的とする。即ち、これら側面においては、本発明は、符号化効率を向上することが可能な画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラムを提供することを目的とする。   Therefore, according to some aspects of the present invention, motion information candidates used to generate a prediction signal of a target prediction block are encoded or decoded prediction information (motion of a target coding block and surrounding coding blocks). Image predictive coding device, image predictive coding method, image predictive coding program, image predictive decoding device, image predictive decoding, which suppresses generation of inefficient codes by selecting based on information and prediction block division type) It is an object to provide a method and an image predictive decoding program. That is, in these aspects, the present invention provides an image predictive encoding device, an image predictive encoding method, an image predictive encoding program, an image predictive decoding device, an image predictive decoding method, and an image capable of improving encoding efficiency. An object is to provide a predictive decoding program.

また、特許文献4又は特許文献5に記載されているように、処理対象のブロックを区切ることで得られる小区画ごとに動き補償予測を行う方法がある。このような動き補償予測においては、処理対象の小区画より処理順で前のブロックの動きベクトルに基づいて小区画用の予測動きベクトルを生成し、当該小区画の動きベクトルと当該予測動きベクトルの間の差分動きベクトルのみを符号化することが、符号量の観点から好ましい。   Further, as described in Patent Document 4 or Patent Document 5, there is a method of performing motion compensation prediction for each small section obtained by dividing a block to be processed. In such motion compensated prediction, a predicted motion vector for a small block is generated based on the motion vector of the previous block in the processing order from the small block to be processed, and the motion vector of the small block and the predicted motion vector It is preferable from the viewpoint of the amount of code to encode only the difference motion vector between them.

図23は、動き補償予測を説明するための図である。図23に示すように、処理対象のブロックPには、当該ブロックPより処理順で前の一以上のブロックCPに接する小区画SP1とブロックCPに接しない小区画SP2が存在し得る。このような小区画SP2の動きベクトルV2は、特許文献4に記載されている方法では、予測動きベクトルを用いずに、そのまま符号化される。この方法は、予測動きベクトルをゼロベクトルとする方法と等価である。   FIG. 23 is a diagram for explaining motion compensation prediction. As shown in FIG. 23, in the block P to be processed, there may be a small section SP1 in contact with one or more blocks CP preceding the block P and a small section SP2 not in contact with the block CP. The motion vector V2 of such a small section SP2 is encoded as it is without using the predicted motion vector in the method described in Patent Document 4. This method is equivalent to a method in which the predicted motion vector is a zero vector.

一方、特許文献5に記載される方法では、ブロックP内の他の小区画であって小区画SP2より処理順で前の小区画SP1の動きベクトルV1から、小区画SP2の予測動きベクトルが生成される。しかしながら、小区画SP1の動きベクトルと小区画SP2の動きベクトルは、本来的に互いに異なるものであると考えられる。したがって、特許文献5に記載されている方法では、小区画SP2の動きベクトルを効率良く符号化できないことがある。   On the other hand, in the method described in Patent Document 5, a predicted motion vector of the small section SP2 is generated from the motion vector V1 of the other small section SP1 in the block P and preceding the small section SP2 in the processing order. Is done. However, it is considered that the motion vector of the small section SP1 and the motion vector of the small section SP2 are inherently different from each other. Therefore, the method described in Patent Document 5 may not efficiently encode the motion vector of the small section SP2.

そこで、本発明は、別の幾つかの側面においても、符号化効率を向上することが可能な動画像符号化装置、動画像符号化方法、及び、動画像符号化プログラム、また、当該動画像符号化に対応する動画像復号装置、動画像復号方法、及び動画像復号プログラムを提供することを目的とする。   In view of this, the present invention provides a moving image encoding apparatus, a moving image encoding method, a moving image encoding program, and a moving image that can improve the encoding efficiency in another aspect. It is an object of the present invention to provide a moving image decoding apparatus, a moving image decoding method, and a moving image decoding program corresponding to encoding.

本発明の一側面は、画像予測復号に関するものであり、以下のように、画像予測復号装置および方法として記述することができる。
本発明に係る画像予測復号装置は、複数の領域に分割して符号化された画像の圧縮データの中から、復号対象となる対象領域の信号の予測に用いる予測方法を指示する予測情報の符号化データと、残差信号の符号化データとを抽出するデータ解析手段と、前記予測情報の符号化データから動き情報を復元する予測情報復号手段であって、前記予測情報の符号化データから、前記対象領域を小分割する予測領域の数を示す予測ブロック分割タイプを復元し、前記予測ブロック分割タイプが、前記対象領域を左側の第1の予測領域と右側の第2の予測領域とに垂直に2分割するタイプを示す場合に、前記予測情報の符号化データを更に復号して、前記第1の予測領域の予測信号の生成に、該第1の予測領域に隣接する隣接領域のうち画面内予測により生成された隣接領域を除く隣接領域に付随する復号済み動き情報を含む動き情報候補を利用するか否かを示す第1のマージ識別情報を復元し、前記第1のマージ識別情報が前記動き情報候補を利用しないことを示す場合に、前記予測情報の符号化データを更に復号して、前記第1の予測領域の予測信号の生成に用いる第1の動き情報を復元し、前記第1のマージ識別情報が前記動き情報候補を利用することを示す場合に、前記予測情報の符号化データを更に復号して、前記動き情報候補から前記第1の予測領域の予測信号の生成に用いる第1の動き情報を特定する第1の選択情報を復元し、該第1の選択情報に基づいて前記第1の動き情報を復元し、前記予測情報の符号化データを更に復号して、前記第2の予測領域の予測信号の生成に該第2の予測領域に隣接する隣接領域に付随する復号済み動き情報を利用するか否かを示す第2のマージ識別情報を復元し、前記第2のマージ識別情報が復号済み動き情報を利用しないことを示す場合に、前記予測情報の符号化データを更に復号して、第2の予測領域の予測信号の生成に用いる第2の動き情報を復元し、前記第2のマージ識別情報が復号済み動き情報を利用することを示し、且つ、復号済み動き情報の候補が複数存在する場合に、前記予測情報の符号化データを更に復号して、前記第2の予測領域に隣接する複数の隣接領域に付随する復号済み動き情報のうち、前記第1の動き情報を含まないと共に前記第2の予測領域の上側において該第2の予測領域に隣接する複数の上側領域の動き情報のうち前記第1の動き情報と一致する動き情報を含まない前記復号済み動き情報の候補から、前記第2の予測領域の予測信号の生成に用いる第2の動き情報を特定する第2の選択情報を復元し、該第2の選択情報に基づいて前記第2の動き情報を復元する、該予測情報復号手段と、復元した予測情報に含まれる動き情報を保存する保存手段と、復元された前記第1の動き情報と前記第2の動き情報に基づいて、前記対象領域に含まれる前記第1の予測領域と第2の予測領域の各々の予測信号を生成する予測信号生成手段と、前記残差信号の符号化データから前記対象領域の再生残差信号を復元する残差信号復元手段と、前記予測信号と前記再生残差信号とに基づいて前記対象領域の画素信号を復元し、該画素信号を既再生信号として保存する記録手段と、を具備する。
本発明に係る画像予測復号方法は、画像予測復号装置により実行される画像予測復号方法であって、複数の領域に分割して符号化された画像の圧縮データの中から、復号対象となる対象領域の信号の予測に用いる予測方法を指示する予測情報の符号化データと、残差信号の符号化データとを抽出するデータ解析ステップと、前記予測情報の符号化データから動き情報を復元する予測情報復号ステップであって、前記予測情報の符号化データから、前記対象領域を小分割する予測領域の数を示す予測ブロック分割タイプを復元し、前記予測ブロック分割タイプが、前記対象領域を左側の第1の予測領域と右側の第2の予測領域とに垂直に2分割するタイプを示す場合に、前記予測情報の符号化データを更に復号して、前記第1の予測領域の予測信号の生成に、該第1の予測領域に隣接する隣接領域のうち画面内予測により生成された隣接領域を除く隣接領域に付随する復号済み動き情報を含む動き情報候補を利用するか否かを示す第1のマージ識別情報を復元し、前記第1のマージ識別情報が前記動き情報候補を利用しないことを示す場合に、前記予測情報の符号化データを更に復号して、前記第1の予測領域の予測信号の生成に用いる第1の動き情報を復元し、前記第1のマージ識別情報が前記動き情報候補を利用することを示す場合に、前記予測情報の符号化データを更に復号して、前記動き情報候補から前記第1の予測領域の予測信号の生成に用いる第1の動き情報を特定する第1の選択情報を復元し、該第1の選択情報に基づいて前記第1の動き情報を復元し、前記予測情報の符号化データを更に復号して、前記第2の予測領域の予測信号の生成に該第2の予測領域に隣接する隣接領域に付随する復号済み動き情報を利用するか否かを示す第2のマージ識別情報を復元し、前記第2のマージ識別情報が復号済み動き情報を利用しないことを示す場合に、前記予測情報の符号化データを更に復号して、第2の予測領域の予測信号の生成に用いる第2の動き情報を復元し、前記第2のマージ識別情報が復号済み動き情報を利用することを示し、且つ、復号済み動き情報の候補が複数存在する場合に、前記予測情報の符号化データを更に復号して、前記第2の予測領域に隣接する複数の隣接領域に付随する復号済み動き情報のうち、前記第1の動き情報を含まないと共に前記第2の予測領域の上側において該第2の予測領域に隣接する複数の上側領域の動き情報のうち前記第1の動き情報と一致する動き情報を含まない前記復号済み動き情報の候補から、前記第2の予測領域の予測信号の生成に用いる第2の動き情報を特定する第2の選択情報を復元し、該第2の選択情報に基づいて前記第2の動き情報を復元する、該予測情報復号ステップと、復元した予測情報に含まれる動き情報を保存する保存ステップと、復元された前記第1の動き情報と前記第2の動き情報に基づいて、前記対象領域に含まれる前記第1の予測領域と第2の予測領域の各々の予測信号を生成する予測信号生成ステップと、前記残差信号の符号化データから前記対象領域の再生残差信号を復元する残差信号復元ステップと、前記予測信号と前記再生残差信号とに基づいて前記対象領域の画素信号を復元し、該画素信号を既再生信号として保存する記録ステップと、を含む。
前記動き情報には、動きベクトル及び参照画面番号に関する情報が含まれてもよい。
本発明は、以下の態様も考えられる。本発明の第1の側面は、画像予測符号化に関する。
One aspect of the present invention relates to image predictive decoding, and can be described as an image predictive decoding apparatus and method as follows.
The image predictive decoding device according to the present invention encodes prediction information that indicates a prediction method used to predict a signal of a target region to be decoded from compressed data of an image divided and encoded into a plurality of regions. Data analysis means for extracting encoded data and encoded data of the residual signal, and prediction information decoding means for restoring motion information from the encoded data of the prediction information, from the encoded data of the prediction information, A prediction block partition type indicating the number of prediction regions into which the target region is subdivided is restored, and the prediction block partition type is perpendicular to the first prediction region on the left side and the second prediction region on the right side. In the case of indicating a type to be divided into two, the encoded data of the prediction information is further decoded to generate a prediction signal of the first prediction region, and a screen of adjacent regions adjacent to the first prediction region is displayed. For forecasting First merge identification information indicating whether or not to use motion information candidates including decoded motion information attached to adjacent regions excluding the generated adjacent region is used, and the first merge identification information is the motion information When indicating that the information candidate is not used, the encoded data of the prediction information is further decoded to restore the first motion information used for generating the prediction signal of the first prediction region, and the first information When merge identification information indicates that the motion information candidate is to be used, the encoded data of the prediction information is further decoded and used for generating a prediction signal of the first prediction region from the motion information candidate The first selection information for identifying the motion information is restored, the first motion information is restored based on the first selection information, the encoded data of the prediction information is further decoded, and the second Generation of prediction signals for the prediction region The second merge identification information indicating whether or not to use the decoded motion information associated with the adjacent region adjacent to the second prediction region is restored, and the second merge identification information does not use the decoded motion information. The encoded data of the prediction information is further decoded to restore the second motion information used to generate the prediction signal of the second prediction region, and the second merge identification information has been decoded. A plurality of adjacent regions adjacent to the second prediction region by further decoding the encoded data of the prediction information when there is a plurality of candidates for the decoded motion information and indicating that motion information is used Among the motion information of a plurality of upper regions that do not include the first motion information and that are adjacent to the second prediction region above the second prediction region. Matches the movement information of Second selection information for identifying second motion information used for generating a prediction signal of the second prediction region is restored from the decoded motion information candidates that do not include the motion information to be reproduced, and the second selection is performed. The prediction information decoding means for restoring the second motion information based on the information, the storage means for saving the motion information included in the restored prediction information, the restored first motion information, and the second motion information. Prediction signal generating means for generating a prediction signal for each of the first prediction region and the second prediction region included in the target region based on the motion information of the target region, and the target signal from the encoded data of the residual signal Residual signal restoring means for restoring the reproduction residual signal of the area, and a recording for restoring the pixel signal of the target area based on the prediction signal and the reproduction residual signal and storing the pixel signal as an already reproduced signal Means.
An image predictive decoding method according to the present invention is an image predictive decoding method executed by an image predictive decoding device, and is a target to be decoded from compressed data of an image divided into a plurality of regions and encoded. A data analysis step of extracting encoded data of prediction information instructing a prediction method used for prediction of a signal in a region and encoded data of a residual signal, and prediction for restoring motion information from the encoded data of the prediction information An information decoding step, wherein a prediction block partition type indicating the number of prediction regions into which the target region is subdivided is restored from the encoded data of the prediction information, and the prediction block partition type includes the target region on the left side When the first prediction region and the second prediction region on the right side indicate a type of being divided into two vertically, the encoded data of the prediction information is further decoded to predict the first prediction region Whether to use a motion information candidate including decoded motion information associated with an adjacent area excluding an adjacent area generated by intra-screen prediction among adjacent areas adjacent to the first prediction area. The first merge identification information shown is restored, and when the first merge identification information indicates that the motion information candidate is not used, the encoded data of the prediction information is further decoded, and the first prediction When the first motion information used for generating the prediction signal of the region is restored, and the first merge identification information indicates that the motion information candidate is used, the encoded data of the prediction information is further decoded. First selection information for identifying first motion information used for generating a prediction signal of the first prediction region is restored from the motion information candidates, and the first motion is based on the first selection information. Information is restored and the prediction information A second code indicating whether or not the encoded data is further decoded and decoded motion information associated with an adjacent region adjacent to the second prediction region is used to generate a prediction signal of the second prediction region; When the merge identification information is restored and the second merge identification information indicates that the decoded motion information is not used, the encoded data of the prediction information is further decoded, and the prediction signal of the second prediction region When the second motion information used for generation is restored, the second merge identification information indicates that the decoded motion information is used, and there are a plurality of candidates for the decoded motion information, the prediction information The encoded data is further decoded, and the decoded motion information associated with a plurality of adjacent regions adjacent to the second prediction region does not include the first motion information and is located above the second prediction region. In the second prediction region The second used for generating a prediction signal of the second prediction region from the candidates of the decoded motion information not including the motion information that matches the first motion information among the motion information of the plurality of upper regions adjacent to the second region The prediction information decoding step of restoring the second selection information for identifying the motion information of the second and restoring the second motion information based on the second selection information, and the motion information included in the restored prediction information And a prediction step of each of the first prediction region and the second prediction region included in the target region based on the restored first motion information and the second motion information Based on the prediction signal generation step for generating the residual signal, the residual signal restoration step for restoring the reproduction residual signal of the target region from the encoded data of the residual signal, and the prediction signal and the reproduction residual signal Pixel of target area Restore the items, comprising a recording step of storing the pixel signal as the already reproduced signal.
The motion information may include information on motion vectors and reference screen numbers.
The following aspects of the present invention are also conceivable. The first aspect of the present invention relates to image predictive coding.

本発明の一側面は、画像予測符号化に関するものであり、以下のように、画像予測符号化装置、方法およびプログラムとして記述することができる。
本発明に係る画像予測符号化装置は、入力画像を複数の領域に分割する領域分割手段と、前記領域分割手段により分割された符号化対象とする対象領域を第1の予測領域と第2の予測領域とに小分割し、前記対象領域に適した予測領域の数と領域形状を示す予測ブロック分割タイプを決定し、前記第1、第2の予測領域との相関が高い信号を既再生信号から取得するための第1、第2の動き情報をそれぞれ予測し、前記予測ブロック分割タイプと、前記第1、第2の動き情報と、前記第1の予測領域の予測信号の生成に、該第1の予測領域に隣接する隣接領域に付随する復号済み動き情報及び動きベクトルが0であることを示す動き情報の少なくとも一方を含む動き情報候補を利用するか否かを示す第1のマージ識別情報と、前記第2の予測領域の予測信号の生成に該第2の予測領域に隣接する隣接領域に付随する復号済み動き情報のうち、前記第1の動き情報を除く復号済み動き情報を利用するか否かを示す第2のマージ識別情報と、を含む予測情報を求める予測情報推定手段と、前記対象領域に付随する予測情報を符号化する予測情報符号化手段と、前記第1の動き情報と前記第2の動き情報に基づいて、前記第1の予測領域と第2の予測領域の各々の予測信号を生成する予測信号生成手段と、前記第1の予測領域と第2の予測領域の各々の予測信号と画素信号とに基づく残差信号を生成する残差信号生成手段と、前記残差信号生成手段により生成された残差信号を符号化する残差信号符号化手段と、前記残差信号の符号化データを復号することにより再生残差信号を生成する残差信号復元手段と、前記予測信号と前記再生残差信号とに基づいて前記対象領域の復元画素信号を生成し、該復元画素信号を前記既再生信号として保存する記録手段と、を具備する。
本発明に係る画像予測符号化方法は、画像予測符号化装置により実行される画像予測符号化方法であって、入力画像を複数の領域に分割する領域分割ステップと、前記領域分割ステップにより分割された符号化対象とする対象領域を第1の予測領域と第2の予測領域とに小分割し、前記対象領域に適した予測領域の数と領域形状を示す予測ブロック分割タイプを決定し、前記第1、第2の予測領域との相関が高い信号を既再生信号から取得するための第1、第2の動き情報をそれぞれ予測し、前記予測ブロック分割タイプと、前記第1、第2の動き情報と、前記第1の予測領域の予測信号の生成に、該第1の予測領域に隣接する隣接領域に付随する復号済み動き情報及び動きベクトルが0であることを示す動き情報の少なくとも一方を含む動き情報候補を利用するか否かを示す第1のマージ識別情報と、前記第2の予測領域の予測信号の生成に該第2の予測領域に隣接する隣接領域に付随する復号済み動き情報のうち、前記第1の動き情報を除く復号済み動き情報を利用するか否かを示す第2のマージ識別情報と、を含む予測情報を求める予測情報推定ステップと、前記対象領域に付随する予測情報を符号化する予測情報符号化ステップと、前記第1の動き情報と前記第2の動き情報に基づいて、前記第1の予測領域と第2の予測領域の各々の予測信号を生成する予測信号生成ステップと、前記第1の予測領域と第2の予測領域の各々の予測信号と画素信号とに基づく残差信号を生成する残差信号生成ステップと、前記残差信号生成ステップにより生成された残差信号を符号化する残差信号符号化ステップと、前記残差信号の符号化データを復号することにより再生残差信号を生成する残差信号復元ステップと、前記予測信号と前記再生残差信号とに基づいて前記対象領域の復元画素信号を生成し、該復元画素信号を前記既再生信号として保存する記録ステップと、を含む。
本発明に係る画像予測符号化プログラムは、コンピュータを、入力画像を複数の領域に分割する領域分割手段と、前記領域分割手段により分割された符号化対象とする対象領域を第1の予測領域と第2の予測領域とに小分割し、前記対象領域に適した予測領域の数と領域形状を示す予測ブロック分割タイプを決定し、前記第1、第2の予測領域との相関が高い信号を既再生信号から取得するための第1、第2の動き情報をそれぞれ予測し、前記予測ブロック分割タイプと、前記第1、第2の動き情報と、前記第1の予測領域の予測信号の生成に、該第1の予測領域に隣接する隣接領域に付随する復号済み動き情報及び動きベクトルが0であることを示す動き情報の少なくとも一方を含む動き情報候補を利用するか否かを示す第1のマージ識別情報と、前記第2の予測領域の予測信号の生成に該第2の予測領域に隣接する隣接領域に付随する復号済み動き情報のうち、前記第1の動き情報を除く復号済み動き情報を利用するか否かを示す第2のマージ識別情報と、を含む予測情報を求める予測情報推定手段と、前記対象領域に付随する予測情報を符号化する予測情報符号化手段と、前記第1の動き情報と前記第2の動き情報に基づいて、前記第1の予測領域と第2の予測領域の各々の予測信号を生成する予測信号生成手段と、前記第1の予測領域と第2の予測領域の各々の予測信号と画素信号とに基づく残差信号を生成する残差信号生成手段と、前記残差信号生成手段により生成された残差信号を符号化する残差信号符号化手段と、前記残差信号の符号化データを復号することにより再生残差信号を生成する残差信号復元手段と、前記予測信号と前記再生残差信号とに基づいて前記対象領域の復元画素信号を生成し、該復元画素信号を前記既再生信号として保存する記録手段、として機能させる。
本発明の一側面は、画像予測復号に関するものであり、以下のように、画像予測復号装置、方法およびプログラムとして記述することができる。
本発明に係る画像予測復号装置は、複数の領域に分割して符号化された画像の圧縮データの中から、復号対象となる対象領域の信号の予測に用いる予測方法を指示する予測情報の符号化データと、残差信号の符号化データとを抽出するデータ解析手段と、前記予測情報の符号化データから動き情報を復元する予測情報復号手段であって、前記予測情報の符号化データから、前記対象領域を小分割する予測領域の数を示す予測ブロック分割タイプを復元し、前記予測ブロック分割タイプが、前記対象領域が第1の予測領域と第2の予測領域を含むことを示す場合に、前記予測情報の符号化データを更に復号して、前記第1の予測領域の予測信号の生成に、該第1の予測領域に隣接する隣接領域に付随する復号済み動き情報及び動きベクトルが0であることを示す動き情報の少なくとも一方を含む動き情報候補を利用するか否かを示す第1のマージ識別情報を復元し、前記第1のマージ識別情報が前記動き情報候補を利用しないことを示す場合に、前記予測情報の符号化データを更に復号して、前記第1の予測領域の予測信号の生成に用いる第1の動き情報を復元し、前記第1のマージ識別情報が前記動き情報候補を利用することを示す場合に、前記予測情報の符号化データを更に復号して、前記動き情報候補から前記第1の予測領域の予測信号の生成に用いる第1の動き情報を特定する第1の選択情報を復元し、該第1の選択情報に基づいて前記第1の動き情報を復元し、前記予測情報の符号化データを更に復号して、前記第2の予測領域の予測信号の生成に該第2の予測領域に隣接する隣接領域に付随する復号済み動き情報を利用するか否かを示す第2のマージ識別情報を復元し、前記第2のマージ識別情報が復号済み動き情報を利用しないことを示す場合に、前記予測情報の符号化データを更に復号して、第2の予測領域の予測信号の生成に用いる第2の動き情報を復元し、前記第2のマージ識別情報が復号済み動き情報を利用することを示す場合に、前記予測情報の符号化データを更に復号して、前記第2の予測領域に隣接する複数の隣接領域に付随する復号済み動き情報のうち、前記第1の動き情報を除く復号済み動き情報の候補から、前記第2の予測領域の予測信号の生成に用いる第2の動き情報を特定する第2の選択情報を復元し、該第2の選択情報に基づいて前記第2の動き情報を復元する、該予測情報復号手段と、復元した予測情報に含まれる動き情報を保存する保存手段と、復元された前記第1の動き情報と前記第2の動き情報に基づいて、前記対象領域に含まれる前記第1の予測領域と第2の予測領域の各々の予測信号を生成する予測信号生成手段と、前記残差信号の符号化データから前記対象領域の再生残差信号を復元する残差信号復元手段と、前記予測信号と前記再生残差信号とに基づいて前記対象領域の画素信号を復元し、該画素信号を既再生信号として保存する記録手段と、を具備する。
本発明に係る画像予測復号方法は、画像予測復号装置により実行される画像予測復号方法であって、複数の領域に分割して符号化された画像の圧縮データの中から、復号対象となる対象領域の信号の予測に用いる予測方法を指示する予測情報の符号化データと、残差信号の符号化データとを抽出するデータ解析ステップと、前記予測情報の符号化データから動き情報を復元する予測情報復号ステップであって、前記予測情報の符号化データから、前記対象領域を小分割する予測領域の数を示す予測ブロック分割タイプを復元し、前記予測ブロック分割タイプが、前記対象領域が第1の予測領域と第2の予測領域を含むことを示す場合に、前記予測情報の符号化データを更に復号して、前記第1の予測領域の予測信号の生成に、該第1の予測領域に隣接する隣接領域に付随する復号済み動き情報及び動きベクトルが0であることを示す動き情報の少なくとも一方を含む動き情報候補を利用するか否かを示す第1のマージ識別情報を復元し、前記第1のマージ識別情報が前記動き情報候補を利用しないことを示す場合に、前記予測情報の符号化データを更に復号して、前記第1の予測領域の予測信号の生成に用いる第1の動き情報を復元し、前記第1のマージ識別情報が前記動き情報候補を利用することを示す場合に、前記予測情報の符号化データを更に復号して、前記動き情報候補から前記第1の予測領域の予測信号の生成に用いる第1の動き情報を特定する第1の選択情報を復元し、該第1の選択情報に基づいて前記第1の動き情報を復元し、前記予測情報の符号化データを更に復号して、前記第2の予測領域の予測信号の生成に該第2の予測領域に隣接する隣接領域に付随する復号済み動き情報を利用するか否かを示す第2のマージ識別情報を復元し、前記第2のマージ識別情報が復号済み動き情報を利用しないことを示す場合に、前記予測情報の符号化データを更に復号して、第2の予測領域の予測信号の生成に用いる第2の動き情報を復元し、前記第2のマージ識別情報が復号済み動き情報を利用することを示す場合に、前記予測情報の符号化データを更に復号して、前記第2の予測領域に隣接する複数の隣接領域に付随する復号済み動き情報のうち、前記第1の動き情報を除く復号済み動き情報の候補から、前記第2の予測領域の予測信号の生成に用いる第2の動き情報を特定する第2の選択情報を復元し、該第2の選択情報に基づいて前記第2の動き情報を復元する、該予測情報復号ステップと、復元した予測情報に含まれる動き情報を保存する保存ステップと、復元された前記第1の動き情報と前記第2の動き情報に基づいて、前記対象領域に含まれる前記第1の予測領域と第2の予測領域の各々の予測信号を生成する予測信号生成ステップと、前記残差信号の符号化データから前記対象領域の再生残差信号を復元する残差信号復元ステップと、前記予測信号と前記再生残差信号とに基づいて前記対象領域の画素信号を復元し、該画素信号を既再生信号として保存する記録ステップと、を含む。
本発明に係る画像予測復号プログラムは、コンピュータを、複数の領域に分割して符号化された画像の圧縮データの中から、復号対象となる対象領域の信号の予測に用いる予測方法を指示する予測情報の符号化データと、残差信号の符号化データとを抽出するデータ解析手段と、前記予測情報の符号化データから動き情報を復元する予測情報復号手段であって、前記予測情報の符号化データから、前記対象領域を小分割する予測領域の数を示す予測ブロック分割タイプを復元し、前記予測ブロック分割タイプが、前記対象領域が第1の予測領域と第2の予測領域を含むことを示す場合に、前記予測情報の符号化データを更に復号して、前記第1の予測領域の予測信号の生成に、該第1の予測領域に隣接する隣接領域に付随する復号済み動き情報及び動きベクトルが0であることを示す動き情報の少なくとも一方を含む動き情報候補を利用するか否かを示す第1のマージ識別情報を復元し、前記第1のマージ識別情報が前記動き情報候補を利用しないことを示す場合に、前記予測情報の符号化データを更に復号して、前記第1の予測領域の予測信号の生成に用いる第1の動き情報を復元し、前記第1のマージ識別情報が前記動き情報候補を利用することを示す場合に、前記予測情報の符号化データを更に復号して、前記動き情報候補から前記第1の予測領域の予測信号の生成に用いる第1の動き情報を特定する第1の選択情報を復元し、該第1の選択情報に基づいて前記第1の動き情報を復元し、前記予測情報の符号化データを更に復号して、前記第2の予測領域の予測信号の生成に該第2の予測領域に隣接する隣接領域に付随する復号済み動き情報を利用するか否かを示す第2のマージ識別情報を復元し、前記第2のマージ識別情報が復号済み動き情報を利用しないことを示す場合に、前記予測情報の符号化データを更に復号して、第2の予測領域の予測信号の生成に用いる第2の動き情報を復元し、前記第2のマージ識別情報が復号済み動き情報を利用することを示す場合に、前記予測情報の符号化データを更に復号して、前記第2の予測領域に隣接する複数の隣接領域に付随する復号済み動き情報のうち、前記第1の動き情報を除く復号済み動き情報の候補から、前記第2の予測領域の予測信号の生成に用いる第2の動き情報を特定する第2の選択情報を復元し、該第2の選択情報に基づいて前記第2の動き情報を復元する、該予測情報復号手段と、復元した予測情報に含まれる動き情報を保存する保存手段と、復元された前記第1の動き情報と前記第2の動き情報に基づいて、前記対象領域に含まれる前記第1の予測領域と第2の予測領域の各々の予測信号を生成する予測信号生成手段と、前記残差信号の符号化データから前記対象領域の再生残差信号を復元する残差信号復元手段と、前記予測信号と前記再生残差信号とに基づいて前記対象領域の画素信号を復元し、該画素信号を既再生信号として保存する記録手段、として機能させる。
本発明は、以下の態様も考えられる。本発明の第1の側面は、画像予測符号化に関する。
One aspect of the present invention relates to image predictive coding, and can be described as an image predictive coding apparatus, method, and program as follows.
The image predictive coding apparatus according to the present invention includes a region dividing unit that divides an input image into a plurality of regions, and a target region that is an encoding target divided by the region dividing unit is a first prediction region and a second prediction region. Subdividing into prediction regions, determining the number of prediction regions suitable for the target region and the prediction block partition type indicating the region shape, and generating a signal having a high correlation with the first and second prediction regions First and second motion information to be obtained from the respective prediction block generation type, generation of the prediction block division type, the first and second motion information, and the prediction signal of the first prediction region, First merge identification indicating whether or not to use a motion information candidate including at least one of decoded motion information and motion information indicating that a motion vector is 0 associated with an adjacent region adjacent to the first prediction region Information and the second prediction A second indicating whether or not to use the decoded motion information excluding the first motion information among the decoded motion information associated with an adjacent region adjacent to the second prediction region for generating a prediction signal of the region; Prediction information estimation means for obtaining prediction information including the merge identification information, prediction information encoding means for encoding prediction information associated with the target region, the first motion information, and the second motion information Based on the prediction signal generation means for generating the prediction signal of each of the first prediction region and the second prediction region, the prediction signal and the pixel signal of each of the first prediction region and the second prediction region A residual signal generating means for generating a residual signal based on the above, a residual signal encoding means for encoding the residual signal generated by the residual signal generating means, and encoded data of the residual signal Generate playback residual signal by decoding And the difference signal restoring means, the prediction signal and the based on the reproduced residual signal to generate a decompressed pixel signal of the target region, comprising a recording means for storing the reconstruction pixel signal as the already reproduced signal.
An image predictive encoding method according to the present invention is an image predictive encoding method executed by an image predictive encoding device, and is divided by an area dividing step for dividing an input image into a plurality of areas and the area dividing step. The target region to be encoded is subdivided into a first prediction region and a second prediction region, a prediction block division type indicating the number and region shape of prediction regions suitable for the target region is determined, First and second motion information for obtaining a signal having a high correlation with the first and second prediction regions from the already reproduced signal is predicted, respectively, and the predicted block division type, the first and second At least one of motion information and decoded motion information associated with an adjacent region adjacent to the first prediction region and motion information indicating that the motion vector is 0 for generating a prediction signal of the first prediction region Including motion Of the first merge identification information indicating whether or not to use the information candidate, and the decoded motion information accompanying the adjacent region adjacent to the second prediction region for generating the prediction signal of the second prediction region Prediction information estimation step for obtaining prediction information including second merge identification information indicating whether to use decoded motion information excluding the first motion information, and prediction information associated with the target region. A prediction information encoding step for encoding, and prediction signal generation for generating a prediction signal for each of the first prediction region and the second prediction region based on the first motion information and the second motion information A residual signal generation step for generating a residual signal based on the prediction signal and the pixel signal of each of the first prediction region and the second prediction region, and the residual signal generated by the residual signal generation step Encode the difference signal The target region based on the difference signal encoding step, the residual signal restoration step for generating a reproduction residual signal by decoding the encoded data of the residual signal, and the prediction signal and the reproduction residual signal Generating a restored pixel signal, and storing the restored pixel signal as the already reproduced signal.
An image predictive coding program according to the present invention includes a region dividing unit that divides an input image into a plurality of regions, and a target region that is an encoding target divided by the region dividing unit is a first prediction region. Subdividing into second prediction regions, determining the number of prediction regions suitable for the target region and the prediction block partition type indicating the region shape, and outputting a signal highly correlated with the first and second prediction regions First and second motion information to be obtained from the already reproduced signal is predicted, and the prediction block division type, the first and second motion information, and the prediction signal of the first prediction region are generated. First, indicating whether or not to use a motion information candidate including at least one of decoded motion information and motion information indicating that the motion vector is 0 associated with an adjacent region adjacent to the first prediction region Merge identification And the decoded motion information excluding the first motion information out of the decoded motion information associated with the adjacent region adjacent to the second prediction region is used to generate the prediction signal of the second prediction region Prediction information estimation means for obtaining prediction information including second merge identification information indicating whether or not to perform prediction information encoding means for encoding prediction information associated with the target area, and the first motion Prediction signal generating means for generating a prediction signal of each of the first prediction region and the second prediction region based on the information and the second motion information, and the first prediction region and the second prediction region A residual signal generating means for generating a residual signal based on each of the prediction signal and the pixel signal, a residual signal encoding means for encoding the residual signal generated by the residual signal generating means, By decoding the encoded data of the residual signal Residual signal restoring means for generating a raw residual signal, a restored pixel signal for the target area is generated based on the prediction signal and the reproduced residual signal, and the restored pixel signal is stored as the reproduced signal. It functions as a recording means.
One aspect of the present invention relates to image predictive decoding, and can be described as an image predictive decoding apparatus, method, and program as follows.
The image predictive decoding device according to the present invention encodes prediction information that indicates a prediction method used to predict a signal of a target region to be decoded from compressed data of an image divided and encoded into a plurality of regions. Data analysis means for extracting encoded data and encoded data of the residual signal, and prediction information decoding means for restoring motion information from the encoded data of the prediction information, from the encoded data of the prediction information, When the prediction block division type indicating the number of prediction regions into which the target region is subdivided is restored, and the prediction block division type indicates that the target region includes a first prediction region and a second prediction region Then, the encoded data of the prediction information is further decoded, and the decoded motion information and motion vector associated with the adjacent region adjacent to the first prediction region is 0 for generating the prediction signal of the first prediction region. The first merge identification information indicating whether or not to use a motion information candidate including at least one of the motion information indicating the presence is restored, and the first merge identification information indicates that the motion information candidate is not used. In this case, the encoded data of the prediction information is further decoded to restore the first motion information used for generating the prediction signal of the first prediction region, and the first merge identification information is the motion information candidate. Is used to further decode the encoded data of the prediction information to identify first motion information used for generating a prediction signal of the first prediction region from the motion information candidates Of the first prediction information, the first motion information is restored based on the first selection information, the encoded data of the prediction information is further decoded, and the prediction signal of the second prediction region is generated Adjacent to the second prediction region The second merge identification information indicating whether or not to use the decoded motion information associated with the adjacent region, and when the second merge identification information indicates that the decoded motion information is not used, The encoded data of the prediction information is further decoded to restore the second motion information used for generating the prediction signal of the second prediction region, and the second merge identification information uses the decoded motion information. If the encoded data of the prediction information is further decoded, the decoded motion information associated with a plurality of adjacent regions adjacent to the second prediction region is decoded to exclude the first motion information Second motion information for identifying second motion information used to generate a prediction signal of the second prediction region is restored from motion information candidates, and the second motion is based on the second motion information. The prediction information decoding means for restoring information And a storage means for storing motion information included in the restored prediction information, and the first prediction included in the target region based on the restored first motion information and the second motion information. A prediction signal generating means for generating a prediction signal for each of the area and the second prediction area, a residual signal restoring means for restoring the reproduction residual signal of the target area from the encoded data of the residual signal, and the prediction Recording means for restoring the pixel signal of the target area based on the signal and the reproduction residual signal, and storing the pixel signal as an already reproduced signal.
An image predictive decoding method according to the present invention is an image predictive decoding method executed by an image predictive decoding device, and is a target to be decoded from compressed data of an image divided into a plurality of regions and encoded. A data analysis step of extracting encoded data of prediction information instructing a prediction method used for prediction of a signal in a region and encoded data of a residual signal, and prediction for restoring motion information from the encoded data of the prediction information An information decoding step, wherein a prediction block partition type indicating the number of prediction regions into which the target region is subdivided is restored from the encoded data of the prediction information, and the prediction block partition type is the first target region The prediction region includes a second prediction region, the encoded data of the prediction information is further decoded, and the first prediction region is used to generate a prediction signal of the first prediction region. First merge identification information indicating whether or not to use a motion information candidate including at least one of decoded motion information and motion information indicating that the motion vector is 0 associated with an adjacent region adjacent to When the first merge identification information indicates that the motion information candidate is not used, the encoded data of the prediction information is further decoded to be used for generating a prediction signal of the first prediction region When the motion information is restored and the first merge identification information indicates that the motion information candidate is to be used, the encoded data of the prediction information is further decoded to generate the first prediction from the motion information candidate. The first selection information for specifying the first motion information used for generating the prediction signal of the region is restored, the first motion information is restored based on the first selection information, and the prediction information is encoded. Further recovery of data Then, the second merge identification information indicating whether to use the decoded motion information attached to the adjacent region adjacent to the second prediction region for generating the prediction signal of the second prediction region is restored. In the case where the second merge identification information indicates that the decoded motion information is not used, the encoded data of the prediction information is further decoded to generate a second prediction region prediction signal. When the motion information is restored and the second merge identification information indicates that the decoded motion information is to be used, the encoded data of the prediction information is further decoded, and a plurality of adjacent to the second prediction region 2nd motion information used for generation of a prediction signal of the second prediction region is specified from decoded motion information candidates excluding the first motion information among the decoded motion information accompanying the adjacent region Restore the second selection information, and select the second The second motion information is restored based on the selection information of the prediction information decoding step, the storage step of saving the motion information included in the restored prediction information, the restored first motion information, and the Based on second motion information, a prediction signal generation step for generating a prediction signal for each of the first prediction region and the second prediction region included in the target region, and encoded data of the residual signal A residual signal restoration step for restoring a reproduction residual signal of the target area, a pixel signal of the target area is restored based on the prediction signal and the reproduction residual signal, and the pixel signal is stored as a reproduced signal Recording step.
The image predictive decoding program according to the present invention is a prediction for instructing a prediction method used for predicting a signal in a target region to be decoded from compressed data of an image encoded by dividing a computer into a plurality of regions. A data analysis unit that extracts encoded data of information and encoded data of a residual signal; and a prediction information decoding unit that restores motion information from the encoded data of the prediction information, the encoding of the prediction information A prediction block partition type indicating the number of prediction regions for subdividing the target region is restored from data, and the prediction block partition type includes the target region including a first prediction region and a second prediction region. The decoded motion information associated with an adjacent region adjacent to the first prediction region is further used to generate the prediction signal of the first prediction region by further decoding the encoded data of the prediction information. And first merge identification information indicating whether to use a motion information candidate including at least one of motion information indicating that the motion vector is 0, and the first merge identification information is the motion information candidate. Is used, the encoded data of the prediction information is further decoded to restore the first motion information used to generate the prediction signal of the first prediction region, and the first merge identification When the information indicates that the motion information candidate is used, the first motion is further decoded from the motion information candidate to generate the prediction signal of the first prediction region by further decoding the encoded data of the prediction information. First selection information for identifying information is restored, the first motion information is restored based on the first selection information, the encoded data of the prediction information is further decoded, and the second prediction information is restored. For generation of prediction signal of region The second merge identification information indicating whether or not to use the decoded motion information associated with the adjacent region adjacent to the second prediction region is restored, and the second merge identification information does not use the decoded motion information. The encoded data of the prediction information is further decoded to restore the second motion information used to generate the prediction signal of the second prediction region, and the second merge identification information has been decoded. When indicating that the motion information is to be used, the encoded data of the prediction information is further decoded, and the first of the decoded motion information associated with a plurality of adjacent regions adjacent to the second prediction region Second selection information for specifying the second motion information used for generating the prediction signal of the second prediction region is restored from the decoded motion information candidates excluding the motion information, and the second selection information is used as the second selection information. Restore the second motion information based on Included in the target region based on the prediction information decoding means, storage means for saving the motion information included in the restored prediction information, and the restored first motion information and the second motion information. Prediction signal generating means for generating prediction signals for each of the first prediction region and the second prediction region, and a residual signal for restoring the reproduction residual signal of the target region from the encoded data of the residual signal It is made to function as a restoring means and a recording means for restoring the pixel signal of the target area based on the prediction signal and the reproduction residual signal and saving the pixel signal as a reproduced signal.
The following aspects of the present invention are also conceivable. The first aspect of the present invention relates to image predictive coding.

本発明の第1の側面は、画像予測符号化に関するものであり、以下のように、画像予測符号化装置、方法およびプログラムとして記述することができる。
本発明に係る画像予測符号化装置は、入力画像を複数の領域に分割する領域分割手段と、前記領域分割手段により分割された符号化対象とする対象領域を第1の予測領域と第2の予測領域とに小分割し、前記対象領域に適した予測領域の数と領域形状を示す予測ブロック分割タイプを決定し、前記第1、第2の予測領域との相関が高い信号を既再生信号から取得するための第1、第2の動き情報をそれぞれ予測し、前記予測ブロック分割タイプと、前記第1、第2の動き情報と、前記第1の予測領域の予測信号の生成に該第1の予測領域に隣接する隣接領域に付随する復号済み動き情報を利用するか否かを示す第1のマージ識別情報と、前記第2の予測領域の予測信号の生成に該第2の予測領域に隣接する隣接領域に付随する復号済み動き情報のうち、前記第1の動き情報を除く復号済み動き情報を利用するか否かを示す第2のマージ識別情報と、を含む予測情報を求める予測情報推定手段と、前記対象領域に付随する予測情報を符号化する予測情報符号化手段と、前記第1の動き情報と前記第2の動き情報に基づいて、前記第1の予測領域と第2の予測領域の各々の予測信号を生成する予測信号生成手段と、前記第1の予測領域と第2の予測領域の各々の予測信号と画素信号とに基づく残差信号を生成する残差信号生成手段と、前記残差信号生成手段により生成された残差信号を符号化する残差信号符号化手段と、前記残差信号の符号化データを復号することにより再生残差信号を生成する残差信号復元手段と、前記予測信号と前記再生残差信号とに基づいて前記対象領域の復元画素信号を生成し、該復元画素信号を前記既再生信号として保存する記録手段と、を具備する。
本発明に係る画像予測符号化方法は、画像予測符号化装置により実行される画像予測符号化方法であって、入力画像を複数の領域に分割する領域分割ステップと、前記領域分割ステップにより分割された符号化対象とする対象領域を第1の予測領域と第2の予測領域とに小分割し、前記対象領域に適した予測領域の数と領域形状を示す予測ブロック分割タイプを決定し、前記第1、第2の予測領域との相関が高い信号を既再生信号から取得するための第1、第2の動き情報をそれぞれ予測し、前記予測ブロック分割タイプと、前記第1、第2の動き情報と、前記第1の予測領域の予測信号の生成に該第1の予測領域に隣接する隣接領域に付随する復号済み動き情報を利用するか否かを示す第1のマージ識別情報と、前記第2の予測領域の予測信号の生成に該第2の予測領域に隣接する隣接領域に付随する復号済み動き情報のうち、前記第1の動き情報を除く復号済み動き情報を利用するか否かを示す第2のマージ識別情報と、を含む予測情報を求める予測情報推定ステップと、前記対象領域に付随する予測情報を符号化する予測情報符号化ステップと、前記第1の動き情報と前記第2の動き情報に基づいて、前記第1の予測領域と第2の予測領域の各々の予測信号を生成する予測信号生成ステップと、前記第1の予測領域と第2の予測領域の各々の予測信号と画素信号とに基づく残差信号を生成する残差信号生成ステップと、前記残差信号生成ステップにより生成された残差信号を符号化する残差信号符号化ステップと、前記残差信号の符号化データを復号することにより再生残差信号を生成する残差信号復元ステップと、前記予測信号と前記再生残差信号とに基づいて前記対象領域の復元画素信号を生成し、該復元画素信号を前記既再生信号として保存する記録ステップと、を含む。
本発明に係る画像予測符号化プログラムは、コンピュータを、入力画像を複数の領域に分割する領域分割手段と、前記領域分割手段により分割された符号化対象とする対象領域を第1の予測領域と第2の予測領域とに小分割し、前記対象領域に適した予測領域の数と領域形状を示す予測ブロック分割タイプを決定し、前記第1、第2の予測領域との相関が高い信号を既再生信号から取得するための第1、第2の動き情報をそれぞれ予測し、前記予測ブロック分割タイプと、前記第1、第2の動き情報と、前記第1の予測領域の予測信号の生成に該第1の予測領域に隣接する隣接領域に付随する復号済み動き情報を利用するか否かを示す第1のマージ識別情報と、前記第2の予測領域の予測信号の生成に該第2の予測領域に隣接する隣接領域に付随する復号済み動き情報のうち、前記第1の動き情報を除く復号済み動き情報を利用するか否かを示す第2のマージ識別情報と、を含む予測情報を求める予測情報推定手段と、前記対象領域に付随する予測情報を符号化する予測情報符号化手段と、前記第1の動き情報と前記第2の動き情報に基づいて、前記第1の予測領域と第2の予測領域の各々の予測信号を生成する予測信号生成手段と、前記第1の予測領域と第2の予測領域の各々の予測信号と画素信号とに基づく残差信号を生成する残差信号生成手段と、前記残差信号生成手段により生成された残差信号を符号化する残差信号符号化手段と、前記残差信号の符号化データを復号することにより再生残差信号を生成する残差信号復元手段と、前記予測信号と前記再生残差信号とに基づいて前記対象領域の復元画素信号を生成し、該復元画素信号を前記既再生信号として保存する記録手段、として機能させる。
本発明の第2の側面は、画像予測復号に関するものであり、以下のように、画像予測復号装置、方法およびプログラムとして記述することができる。
本発明に係る画像予測復号装置は、複数の領域に分割して符号化された画像の圧縮データの中から、復号対象となる対象領域の信号の予測に用いる予測方法を指示する予測情報の符号化データと、残差信号の符号化データとを抽出するデータ解析手段と、前記予測情報の符号化データから動き情報を復元する予測情報復号手段であって、前記予測情報の符号化データから、前記対象領域を小分割する予測領域の数を示す予測ブロック分割タイプを復元し、前記予測ブロック分割タイプが、前記対象領域が第1の予測領域と第2の予測領域を含むことを示す場合に、前記予測情報の符号化データを更に復号して、前記第1の予測領域の予測信号の生成に該第1の予測領域に隣接する隣接領域に付随する復号済み動き情報を利用するか否かを示す第1のマージ識別情報を復元し、前記第1のマージ識別情報が復号済み動き情報を利用しないことを示す場合に、前記予測情報の符号化データを更に復号して、前記第1の予測領域の予測信号の生成に用いる第1の動き情報を復元し、前記第1のマージ識別情報が復号済み動き情報を利用することを示す場合に、前記予測情報の符号化データを更に復号して、前記第1の予測領域に隣接する複数の隣接領域に付随する復号済み動き情報から前記第1の予測領域の予測信号の生成に用いる第1の動き情報を特定する第1の選択情報を復元し、該第1の選択情報に基づいて前記第1の動き情報を復元し、前記予測情報の符号化データを更に復号して、前記第2の予測領域の予測信号の生成に該第2の予測領域に隣接する隣接領域に付随する復号済み動き情報を利用するか否かを示す第2のマージ識別情報を復元し、前記第2のマージ識別情報が復号済み動き情報を利用しないことを示す場合に、前記予測情報の符号化データを更に復号して、第2の予測領域の予測信号の生成に用いる第2の動き情報を復元し、前記第2のマージ識別情報が復号済み動き情報を利用することを示す場合に、前記予測情報の符号化データを更に復号して、前記第2の予測領域に隣接する複数の隣接領域に付随する復号済み動き情報のうち、前記第1の動き情報を除く復号済み動き情報の候補から、前記第2の予測領域の予測信号の生成に用いる第2の動き情報を特定する第2の選択情報を復元し、該第2の選択情報に基づいて前記第2の動き情報を復元する該予測情報復号手段と、復元した予測情報に含まれる動き情報を保存する保存手段と、復元された前記第1の動き情報と前記第2の動き情報に基づいて、前記対象領域に含まれる前記第1の予測領域と第2の予測領域の各々の予測信号を生成する予測信号生成手段と、前記残差信号の符号化データから前記対象領域の再生残差信号を復元する残差信号復元手段と、前記予測信号と前記再生残差信号とに基づいて前記対象領域の画素信号を復元し、該画素信号を既再生信号として保存する記録手段と、を具備する。
本発明に係る画像予測復号方法は、画像予測復号装置により実行される画像予測復号方法であって、複数の領域に分割して符号化された画像の圧縮データの中から、復号対象となる対象領域の信号の予測に用いる予測方法を指示する予測情報の符号化データと、残差信号の符号化データとを抽出するデータ解析ステップと、前記予測情報の符号化データから動き情報を復元する予測情報復号ステップであって、前記予測情報の符号化データから、前記対象領域を小分割する予測領域の数を示す予測ブロック分割タイプを復元し、前記予測ブロック分割タイプが、前記対象領域が第1の予測領域と第2の予測領域を含むことを示す場合に、前記予測情報の符号化データを更に復号して、前記第1の予測領域の予測信号の生成に該第1の予測領域に隣接する隣接領域に付随する復号済み動き情報を利用するか否かを示す第1のマージ識別情報を復元し、前記第1のマージ識別情報が復号済み動き情報を利用しないことを示す場合に、前記予測情報の符号化データを更に復号して、前記第1の予測領域の予測信号の生成に用いる第1の動き情報を復元し、前記第1のマージ識別情報が復号済み動き情報を利用することを示す場合に、前記予測情報の符号化データを更に復号して、前記第1の予測領域に隣接する複数の隣接領域に付随する復号済み動き情報から前記第1の予測領域の予測信号の生成に用いる第1の動き情報を特定する第1の選択情報を復元し、該第1の選択情報に基づいて前記第1の動き情報を復元し、前記予測情報の符号化データを更に復号して、前記第2の予測領域の予測信号の生成に該第2の予測領域に隣接する隣接領域に付随する復号済み動き情報を利用するか否かを示す第2のマージ識別情報を復元し、前記第2のマージ識別情報が復号済み動き情報を利用しないことを示す場合に、前記予測情報の符号化データを更に復号して、第2の予測領域の予測信号の生成に用いる第2の動き情報を復元し、前記第2のマージ識別情報が復号済み動き情報を利用することを示す場合に、前記予測情報の符号化データを更に復号して、前記第2の予測領域に隣接する複数の隣接領域に付随する復号済み動き情報のうち、前記第1の動き情報を除く復号済み動き情報の候補から、前記第2の予測領域の予測信号の生成に用いる第2の動き情報を特定する第2の選択情報を復元し、該第2の選択情報に基づいて前記第2の動き情報を復元する該予測情報復号ステップと、復元した予測情報に含まれる動き情報を保存する保存ステップと、復元された前記第1の動き情報と前記第2の動き情報に基づいて、前記対象領域に含まれる前記第1の予測領域と第2の予測領域の各々の予測信号を生成する予測信号生成ステップと、前記残差信号の符号化データから前記対象領域の再生残差信号を復元する残差信号復元ステップと、前記予測信号と前記再生残差信号とに基づいて前記対象領域の画素信号を復元し、該画素信号を既再生信号として保存する記録ステップと、を含む。
本発明に係る画像予測復号プログラムは、コンピュータを、複数の領域に分割して符号化された画像の圧縮データの中から、復号対象となる対象領域の信号の予測に用いる予測方法を指示する予測情報の符号化データと、残差信号の符号化データとを抽出するデータ解析手段と、前記予測情報の符号化データから動き情報を復元する予測情報復号手段であって、前記予測情報の符号化データから、前記対象領域を小分割する予測領域の数を示す予測ブロック分割タイプを復元し、前記予測ブロック分割タイプが、前記対象領域が第1の予測領域と第2の予測領域を含むことを示す場合に、前記予測情報の符号化データを更に復号して、前記第1の予測領域の予測信号の生成に該第1の予測領域に隣接する隣接領域に付随する復号済み動き情報を利用するか否かを示す第1のマージ識別情報を復元し、前記第1のマージ識別情報が復号済み動き情報を利用しないことを示す場合に、前記予測情報の符号化データを更に復号して、前記第1の予測領域の予測信号の生成に用いる第1の動き情報を復元し、前記第1のマージ識別情報が復号済み動き情報を利用することを示す場合に、前記予測情報の符号化データを更に復号して、前記第1の予測領域に隣接する複数の隣接領域に付随する復号済み動き情報から前記第1の予測領域の予測信号の生成に用いる第1の動き情報を特定する第1の選択情報を復元し、該第1の選択情報に基づいて前記第1の動き情報を復元し、前記予測情報の符号化データを更に復号して、前記第2の予測領域の予測信号の生成に該第2の予測領域に隣接する隣接領域に付随する復号済み動き情報を利用するか否かを示す第2のマージ識別情報を復元し、前記第2のマージ識別情報が復号済み動き情報を利用しないことを示す場合に、前記予測情報の符号化データを更に復号して、第2の予測領域の予測信号の生成に用いる第2の動き情報を復元し、前記第2のマージ識別情報が復号済み動き情報を利用することを示す場合に、前記予測情報の符号化データを更に復号して、前記第2の予測領域に隣接する複数の隣接領域に付随する復号済み動き情報のうち、前記第1の動き情報を除く復号済み動き情報の候補から、前記第2の予測領域の予測信号の生成に用いる第2の動き情報を特定する第2の選択情報を復元し、該第2の選択情報に基づいて前記第2の動き情報を復元する該予測情報復号手段と、復元した予測情報に含まれる動き情報を保存する保存手段と、復元された前記第1の動き情報と前記第2の動き情報に基づいて、前記対象領域に含まれる前記第1の予測領域と第2の予測領域の各々の予測信号を生成する予測信号生成手段と、前記残差信号の符号化データから前記対象領域の再生残差信号を復元する残差信号復元手段と、前記予測信号と前記再生残差信号とに基づいて前記対象領域の画素信号を復元し、該画素信号を既再生信号として保存する記録手段、として機能させる。
本発明は、以下の態様も考えられる。本発明の第1の側面は、画像予測符号化に関する。
The first aspect of the present invention relates to image predictive coding, and can be described as an image predictive coding apparatus, method, and program as follows.
The image predictive coding apparatus according to the present invention includes a region dividing unit that divides an input image into a plurality of regions, and a target region that is an encoding target divided by the region dividing unit is a first prediction region and a second prediction region. Subdividing into prediction regions, determining the number of prediction regions suitable for the target region and the prediction block partition type indicating the region shape, and generating a signal having a high correlation with the first and second prediction regions The first and second motion information to be obtained from the first prediction information is respectively predicted, and the prediction block division type, the first and second motion information, and the prediction signal for the first prediction region are generated. First merge identification information indicating whether to use decoded motion information associated with an adjacent region adjacent to one prediction region, and the second prediction region for generating a prediction signal of the second prediction region Decoded motion information associated with an adjacent region adjacent to Prediction information estimation means for obtaining prediction information including second merge identification information indicating whether or not to use decoded motion information excluding the first motion information, and prediction associated with the target region Prediction information encoding means for encoding information, and prediction for generating prediction signals for each of the first prediction region and the second prediction region based on the first motion information and the second motion information Generated by a signal generation unit, a residual signal generation unit that generates a residual signal based on a prediction signal and a pixel signal of each of the first prediction region and the second prediction region, and the residual signal generation unit. Residual signal encoding means for encoding the residual signal, residual signal restoration means for generating a reproduction residual signal by decoding encoded data of the residual signal, the prediction signal and the reproduction residual Based on the difference signal, restoration of the target area Generates a prime signal, comprising a recording means for storing the reconstruction pixel signal as the already reproduced signal.
An image predictive encoding method according to the present invention is an image predictive encoding method executed by an image predictive encoding device, and is divided by an area dividing step for dividing an input image into a plurality of areas and the area dividing step. The target region to be encoded is subdivided into a first prediction region and a second prediction region, a prediction block division type indicating the number and region shape of prediction regions suitable for the target region is determined, First and second motion information for obtaining a signal having a high correlation with the first and second prediction regions from the already reproduced signal is predicted, respectively, and the predicted block division type, the first and second First merge identification information indicating whether or not to use motion information and decoded motion information associated with an adjacent region adjacent to the first prediction region for generating a prediction signal of the first prediction region; Prediction of the second prediction region Second merge identification indicating whether or not to use decoded motion information excluding the first motion information among decoded motion information associated with an adjacent region adjacent to the second prediction region for generation of a signal A prediction information estimation step for obtaining prediction information including information, a prediction information encoding step for encoding prediction information associated with the target region, the first motion information, and the second motion information , Based on a prediction signal generation step of generating a prediction signal of each of the first prediction region and the second prediction region, and a prediction signal and a pixel signal of each of the first prediction region and the second prediction region A residual signal generating step for generating a residual signal, a residual signal encoding step for encoding the residual signal generated by the residual signal generating step, and decoding the encoded data of the residual signal Due to playback residuals A residual signal restoring step for generating a signal, a recording step for generating a restored pixel signal of the target area based on the prediction signal and the reproduced residual signal, and storing the restored pixel signal as the reproduced signal; ,including.
An image predictive coding program according to the present invention includes a region dividing unit that divides an input image into a plurality of regions, and a target region that is an encoding target divided by the region dividing unit is a first prediction region. Subdividing into second prediction regions, determining the number of prediction regions suitable for the target region and the prediction block partition type indicating the region shape, and outputting a signal highly correlated with the first and second prediction regions First and second motion information to be obtained from the already reproduced signal is predicted, and the prediction block division type, the first and second motion information, and the prediction signal of the first prediction region are generated. To generate first merge identification information indicating whether or not to use decoded motion information associated with an adjacent region adjacent to the first prediction region, and to generate a prediction signal of the second prediction region. To the adjacent region adjacent to the predicted region Prediction information estimation means for obtaining prediction information including second merge identification information indicating whether or not to use decoded motion information excluding the first motion information among the corresponding decoded motion information; Based on prediction information encoding means for encoding prediction information associated with the target region, and the first motion information and the second motion information, each of the first prediction region and the second prediction region Prediction signal generation means for generating a prediction signal, residual signal generation means for generating a residual signal based on the prediction signal and the pixel signal of each of the first prediction area and the second prediction area, and the residual Residual signal encoding means for encoding the residual signal generated by the signal generation means; residual signal restoration means for generating a reproduction residual signal by decoding encoded data of the residual signal; and Based on the prediction signal and the reproduction residual signal Wherein generating a decompressed pixel signal of the target area, a recording means for storing the reconstruction pixel signal as the already reproduced signal, to function as Te.
The second aspect of the present invention relates to image predictive decoding, and can be described as an image predictive decoding apparatus, method, and program as follows.
The image predictive decoding device according to the present invention encodes prediction information that indicates a prediction method used to predict a signal of a target region to be decoded from compressed data of an image divided and encoded into a plurality of regions. Data analysis means for extracting encoded data and encoded data of the residual signal, and prediction information decoding means for restoring motion information from the encoded data of the prediction information, from the encoded data of the prediction information, When the prediction block division type indicating the number of prediction regions into which the target region is subdivided is restored, and the prediction block division type indicates that the target region includes a first prediction region and a second prediction region Whether to further decode the encoded data of the prediction information and use the decoded motion information associated with an adjacent region adjacent to the first prediction region to generate a prediction signal of the first prediction region Indicate 1 merge identification information is restored, and when the first merge identification information indicates that the decoded motion information is not used, the encoded data of the prediction information is further decoded, and When the first motion information used to generate the prediction signal is restored, and the first merge identification information indicates that the decoded motion information is used, the encoded data of the prediction information is further decoded, Reconstructing first selection information identifying first motion information used for generating a prediction signal of the first prediction region from decoded motion information associated with a plurality of adjacent regions adjacent to the first prediction region; The first motion information is restored based on the first selection information, the encoded data of the prediction information is further decoded, and the second prediction region is used to generate a prediction signal of the second prediction region. Decoded associated with the adjacent region adjacent to When the second merge identification information indicating whether to use motion information is restored, and the second merge identification information indicates that the decoded motion information is not used, the encoded data of the prediction information is further Decoding, reconstructing the second motion information used for generating the prediction signal of the second prediction region, and indicating that the second merge identification information uses the decoded motion information, From the decoded motion information candidates excluding the first motion information among the decoded motion information associated with a plurality of adjacent regions adjacent to the second prediction region by further decoding the encoded data, the first The prediction information decoding that restores the second selection information that identifies the second motion information used to generate the prediction signal of the second prediction region and restores the second motion information based on the second selection information Included in the restored forecast information Each of the first prediction region and the second prediction region included in the target region based on the restored first motion information and the second motion information. Prediction signal generation means for generating a prediction signal of the target area, residual signal restoration means for restoring the reproduction residual signal of the target region from the encoded data of the residual signal, and the prediction signal and the reproduction residual signal Recording means for restoring the pixel signal of the target area based on the image and storing the pixel signal as an already reproduced signal.
An image predictive decoding method according to the present invention is an image predictive decoding method executed by an image predictive decoding device, and is a target to be decoded from compressed data of an image divided into a plurality of regions and encoded. A data analysis step of extracting encoded data of prediction information instructing a prediction method used for prediction of a signal in a region and encoded data of a residual signal, and prediction for restoring motion information from the encoded data of the prediction information An information decoding step, wherein a prediction block partition type indicating the number of prediction regions into which the target region is subdivided is restored from the encoded data of the prediction information, and the prediction block partition type is the first target region The prediction area and the second prediction area, the encoded data of the prediction information is further decoded to generate a prediction signal of the first prediction area. When restoring the first merge identification information indicating whether to use the decoded motion information associated with the adjacent adjacent region, and indicating that the first merge identification information does not use the decoded motion information, The encoded data of the prediction information is further decoded to restore the first motion information used for generating the prediction signal of the first prediction region, and the first merge identification information uses the decoded motion information. The encoded data of the prediction information is further decoded, and from the decoded motion information associated with a plurality of adjacent regions adjacent to the first prediction region, the prediction signal of the first prediction region The first selection information for specifying the first motion information used for generation is restored, the first motion information is restored based on the first selection information, and the encoded data of the prediction information is further decoded. Of the second prediction region Second merge identification information indicating whether or not decoded motion information associated with an adjacent area adjacent to the second prediction area is used for measurement signal generation is restored, and the second merge identification information is decoded. In the case where it is indicated that the already-used motion information is not used, the encoded data of the prediction information is further decoded to restore the second motion information used for generating the prediction signal of the second prediction region, When the merge identification information indicates that the decoded motion information is used, the encoded motion data of the prediction information is further decoded, and the decoded motion information associated with a plurality of adjacent regions adjacent to the second prediction region Second selection information for identifying second motion information used for generating a prediction signal of the second prediction region is restored from decoded motion information candidates excluding the first motion information, Based on the second selection information, the second Based on the prediction information decoding step for restoring the motion information, the storage step for saving the motion information included in the restored prediction information, and the restored first motion information and the second motion information, A prediction signal generating step for generating a prediction signal of each of the first prediction region and the second prediction region included in the target region; and a reproduction residual signal of the target region is restored from the encoded data of the residual signal A residual signal restoring step, and a recording step of restoring the pixel signal of the target region based on the prediction signal and the reproduction residual signal and storing the pixel signal as an already reproduced signal.
The image predictive decoding program according to the present invention is a prediction for instructing a prediction method used for predicting a signal in a target region to be decoded from compressed data of an image encoded by dividing a computer into a plurality of regions. A data analysis unit that extracts encoded data of information and encoded data of a residual signal; and a prediction information decoding unit that restores motion information from the encoded data of the prediction information, the encoding of the prediction information A prediction block partition type indicating the number of prediction regions for subdividing the target region is restored from data, and the prediction block partition type includes the target region including a first prediction region and a second prediction region. The decoded motion information associated with an adjacent region adjacent to the first prediction region for further decoding the encoded data of the prediction information when generating the prediction signal of the first prediction region. When the first merge identification information indicating whether or not to use is restored, and the first merge identification information indicates that the decoded motion information is not used, the encoded data of the prediction information is further decoded. When the first motion information used for generating the prediction signal of the first prediction region is restored and the first merge identification information indicates that the decoded motion information is used, the prediction information is encoded. The data is further decoded to identify first motion information used for generating a prediction signal of the first prediction region from decoded motion information associated with a plurality of adjacent regions adjacent to the first prediction region. 1 selection information is restored, the first motion information is restored based on the first selection information, the encoded data of the prediction information is further decoded, and the prediction signal of the second prediction region Neighbors adjacent to the second prediction region for generation When the second merge identification information indicating whether to use the decoded motion information associated with the region is restored, and the second merge identification information indicates that the decoded motion information is not used, the prediction information When the encoded data is further decoded to restore the second motion information used to generate the prediction signal of the second prediction region, and the second merge identification information indicates that the decoded motion information is used In addition, decoded motion information excluding the first motion information among decoded motion information associated with a plurality of adjacent regions adjacent to the second prediction region by further decoding the encoded data of the prediction information Second selection information for identifying the second motion information used for generating the prediction signal of the second prediction region is restored from the candidates, and the second motion information is restored based on the second selection information. The prediction information decoding means to be restored; Based on the restored first motion information and the second motion information, storage means for storing motion information included in the original prediction information, and the first prediction region and the first prediction region included in the target region Prediction signal generation means for generating a prediction signal of each of the two prediction areas, residual signal restoration means for restoring the reproduction residual signal of the target area from the encoded data of the residual signal, the prediction signal, Based on the reproduction residual signal, the pixel signal of the target area is restored, and the pixel signal is made to function as a recording unit for storing the pixel signal as an already reproduced signal.
The following aspects of the present invention are also conceivable. The first aspect of the present invention relates to image predictive coding.

本発明の第1の側面に係る画像予測符号化装置は、入力画像を複数の領域に分割する領域分割手段と、上記領域分割手段により分割された符号化対象とする対象領域を複数の予測領域に小分割し、上記対象領域に適した予測領域の数と領域形状を示す予測ブロック分割タイプを決定し、該複数の予測領域との相関が高い信号を既再生信号から取得するための動き情報をそれぞれ予測し、上記予測ブロック分割タイプと上記動き情報を含む予測情報を求める予測情報推定手段と、上記対象領域に付随する予測情報を符号化する予測情報符号化手段と、上記対象領域に付随する予測情報に基づいて、上記対象領域の予測信号を生成する予測信号生成手段と、上記対象領域の予測信号と上記対象領域の画素信号とに基づく残差信号を生成する残差信号生成手段と、上記残差信号生成手段により生成された残差信号を符号化する残差信号符号化手段と、上記残差信号の符号化データを復号することにより再生残差信号を生成する残差信号復元手段と、上記予測信号と上記再生残差信号とを加算することによって上記対象領域の復元画素信号を生成し、該復元画素信号を上記既再生信号として保存する記録手段と、を具備する。上記予測情報符号化手段は、符号化済みの予測情報を保存する予測情報保存手段を有し、上記対象領域の予測ブロック分割タイプを符号化し、該予測ブロック分割タイプを上記予測情報保存手段に保存し、上記対象領域に隣接する隣接領域の予測情報と上記対象領域内の符号化済み予測領域の数と上記対象領域の符号化済み予測情報に基づいて、次の予測領域である対象予測領域の予測信号の生成に用いる動き情報の候補を該対象予測領域に隣接する領域の符号化済み動き情報から選出し、上記選出した動き情報の候補の数に応じて、選出した動き情報の候補を用いた上記対象予測領域の予測信号の生成を指示するマージブロック情報及び上記予測情報推定手段にて検出した動き情報、又は、該マージブロック情報と該動き情報の何れか一方を符号化し、上記対象予測領域の予測信号の生成に用いる動き情報を上記予測情報保存手段に保存する。   An image predictive coding apparatus according to the first aspect of the present invention includes a region dividing unit that divides an input image into a plurality of regions, and a target region that is an encoding target divided by the region dividing unit. Motion information for obtaining a signal having a high correlation with the plurality of prediction regions from the already-reproduced signal by determining a prediction block division type indicating the number of prediction regions and the shape of the region suitable for the target region. Prediction information estimation means for obtaining prediction information including the prediction block division type and the motion information, prediction information encoding means for encoding prediction information associated with the target area, and associated with the target area Prediction signal generating means for generating a prediction signal for the target region based on prediction information to be generated, and a residual signal for generating a residual signal based on the prediction signal for the target region and the pixel signal for the target region. Generating means, residual signal encoding means for encoding the residual signal generated by the residual signal generating means, and residual for generating a reproduction residual signal by decoding the encoded data of the residual signal. Difference signal restoring means; and a recording means for generating a restored pixel signal of the target area by adding the prediction signal and the reproduced residual signal, and storing the restored pixel signal as the reproduced signal. To do. The prediction information encoding means has prediction information storage means for storing encoded prediction information, encodes the prediction block division type of the target region, and stores the prediction block division type in the prediction information storage means Then, based on the prediction information of the adjacent region adjacent to the target region, the number of encoded prediction regions in the target region, and the encoded prediction information of the target region, the target prediction region that is the next prediction region Motion information candidates used for generating a prediction signal are selected from the encoded motion information in the region adjacent to the target prediction region, and the selected motion information candidates are used according to the number of motion information candidates selected. Merge block information for instructing generation of a prediction signal of the target prediction area and motion information detected by the prediction information estimation means, or either the merge block information or the motion information Encoded and stores the motion information used for generating the predicted signal of the target prediction region in the prediction information storage unit.

本発明の第1の側面に係る画像予測符号化方法は、入力画像を複数の領域に分割する領域分割ステップと、上記領域分割ステップにより分割された符号化対象とする対象領域を複数の予測領域に小分割し、上記対象領域に適した予測領域の数と領域形状を示す予測ブロック分割タイプを決定し、該複数の予測領域との相関が高い信号を既再生信号から取得するための動き情報をそれぞれ予測し、上記予測ブロック分割タイプと上記動き情報を含む予測情報を求める予測情報推定ステップと、上記対象領域に付随する予測情報を符号化する予測情報符号化ステップと、上記対象領域に付随する予測情報に基づいて、上記対象領域の予測信号を生成する予測信号生成ステップと、上記対象領域の予測信号と上記対象領域の画素信号とに基づく残差信号を生成する残差信号生成ステップと、上記残差信号生成ステップにより生成された残差信号を符号化する残差信号符号化ステップと、上記残差信号の符号化データを復号することにより再生残差信号を生成する残差信号復元ステップと、上記予測信号と上記再生残差信号とを加算することによって上記対象領域の復元画素信号を生成し、該復元画素信号を上記既再生信号として保存する記録ステップと、を含む。予測情報符号化ステップでは、上記対象領域の予測ブロック分割タイプを符号化し、該予測ブロック分割タイプを、符号化済みの予測情報を保存する予測情報保存手段に保存し、上記対象領域に隣接する隣接領域の予測情報と上記対象領域内の符号化済み予測領域の数と上記対象領域の符号化済み予測情報に基づいて、次の予測領域である対象予測領域の予測信号の生成に用いる動き情報の候補を該対象予測領域に隣接する領域の符号化済み動き情報から選出し、上記選出した動き情報の候補の数に応じて、選出した動き情報の候補を用いた上記対象予測領域の予測信号の生成を指示するマージブロック情報及び上記予測情報推定ステップにて検出した動き情報、又は、該マージブロック情報と該動き情報の何れか一方を符号化し、上記対象予測領域の予測信号の生成に用いる動き情報を上記予測情報保存手段に保存する。   The image predictive coding method according to the first aspect of the present invention includes a region dividing step for dividing an input image into a plurality of regions, and a target region to be encoded divided by the region dividing step as a plurality of prediction regions. Motion information for obtaining a signal having a high correlation with the plurality of prediction regions from the already-reproduced signal by determining a prediction block division type indicating the number of prediction regions and the shape of the region suitable for the target region. Prediction information estimation step for obtaining prediction information including the prediction block division type and the motion information, a prediction information encoding step for encoding prediction information associated with the target region, and an associated with the target region A prediction signal generating step for generating a prediction signal of the target region based on the prediction information to be performed, and a residual based on the prediction signal of the target region and the pixel signal of the target region A residual signal generating step for generating a signal, a residual signal encoding step for encoding the residual signal generated by the residual signal generating step, and reproduction by decoding the encoded data of the residual signal A residual signal restoration step for generating a residual signal, and a restored pixel signal for the target region is generated by adding the prediction signal and the reproduced residual signal, and the restored pixel signal is stored as the reproduced signal. Recording step. In the prediction information encoding step, the prediction block division type of the target region is encoded, the prediction block division type is stored in a prediction information storage unit that stores the encoded prediction information, and adjacent to the target region. Based on the prediction information of the region, the number of encoded prediction regions in the target region, and the encoded prediction information of the target region, the motion information used for generating the prediction signal of the target prediction region that is the next prediction region A candidate is selected from the encoded motion information of the area adjacent to the target prediction area, and the prediction signal of the target prediction area using the selected motion information candidates is selected according to the number of selected motion information candidates. The merge block information instructing generation and the motion information detected in the prediction information estimation step, or the merge block information and the motion information are encoded, and the target The motion information used for generating the predicted signal measurement region is stored in the prediction information storage unit.

また、本発明の第1の側面に係る画像予測符号化プログラムは、コンピュータを上述した画像予測符号化装置の各手段として機能させる。   Also, the image predictive coding program according to the first aspect of the present invention causes a computer to function as each unit of the image predictive coding device described above.

本発明の第1の側面によれば、対象予測ブロックの予測信号の生成に用いる動き情報の候補が、対象符号化ブロックや周囲の符号化ブロックの符号化済みの予測情報(動き情報や予測ブロック分割タイプ)に基づいて選出されるので、非効率な符号の発生が抑制される。   According to the first aspect of the present invention, motion information candidates used for generating a prediction signal of a target prediction block are encoded prediction information (motion information and prediction block) of the target coding block and surrounding coding blocks. Therefore, the generation of inefficient codes is suppressed.

一実施形態においては、上記対象領域内の符号化済み予測領域の数と上記対象領域の予測ブロック分割タイプと上記対象領域に隣接する隣接領域の予測ブック分割タイプに基づいて、次の予測領域である対象予測領域の動き情報の候補が、対象予測領域に隣接する領域の符号化済み動き情報から選出され得る。   In one embodiment, based on the number of encoded prediction regions in the target region, the prediction block partition type of the target region, and the prediction book partition type of an adjacent region adjacent to the target region, the next prediction region A candidate for motion information in a certain target prediction region can be selected from encoded motion information in a region adjacent to the target prediction region.

一実施形態においては、上記対象領域内の符号化済み予測領域の数と上記対象領域の予測ブロック分割タイプに基づいて、次の予測領域である対象予測領域の動き情報の候補が、該対象予測領域に隣接する領域の符号化済み動き情報から選出され、上記対象領域が2つの予測領域に分割されて、上記対象予測領域が上記対象領域内で2番目に符号化される予測領域であるとき、上記対象予測領域に隣接し、上記対象領域に含まれない領域の動き情報が、該対象予測領域の予測信号の生成に用いる動き情報の候補として選出され得る。   In one embodiment, based on the number of encoded prediction regions in the target region and the prediction block division type of the target region, motion information candidates of the target prediction region that is the next prediction region are the target prediction. When selected from encoded motion information of a region adjacent to the region, the target region is divided into two prediction regions, and the target prediction region is a prediction region encoded second in the target region The motion information of a region adjacent to the target prediction region and not included in the target region can be selected as a candidate of motion information used for generating a prediction signal of the target prediction region.

また、一実施形態においては、上記対象領域内の符号化済み予測領域の数と上記対象領域の予測ブロック分割タイプと上記対象領域内の符号化済み動き情報と上記対象領域に隣接する隣接領域の動き情報とに基づいて、次の予測領域である対象予測領域の予測信号の生成に用いる動き情報の候補が、該対象予測領域に隣接する領域の符号化済み動き情報から選出され、上記対象領域が2つの予測領域に分割されており、上記対象予測領域が上記対象領域内で2番目に符号化される予測領域であり、上記対象領域の1番目に符号化された予測領域の動き情報が、上記対象予測領域に隣接し、上記対象領域に含まれない領域の動き情報と同じであるとき、上記対象予測領域に隣接する領域の動き情報が、上記対象予測領域の予測信号の生成に利用しないと判断して、動き情報が符号化され得る。   In one embodiment, the number of encoded prediction regions in the target region, the prediction block division type of the target region, the encoded motion information in the target region, and the adjacent regions adjacent to the target region. Based on the motion information, motion information candidates used for generating a prediction signal of the target prediction region which is the next prediction region are selected from the encoded motion information of the region adjacent to the target prediction region, and the target region Is divided into two prediction regions, the target prediction region is a prediction region encoded second in the target region, and motion information of the prediction region encoded first of the target region is When the motion information of the region adjacent to the target prediction region and not included in the target region is the same, the motion information of the region adjacent to the target prediction region is used to generate a prediction signal of the target prediction region It is determined that there is no motion information can be encoded.

本発明の第2の側面は画像予測復号に関する。   The second aspect of the present invention relates to image predictive decoding.

本発明の第2の側面に係る画像予測復号装置は、複数の領域に分割して符号化された画像の圧縮データの中から、復号対象となる対象領域の信号の予測に用いる予測方法を指示する予測情報の符号化データと、上記対象領域の予測信号の符号化データと、残差信号の符号化データとを抽出するデータ解析手段と、上記予測情報の符号化データを復号して、上記対象領域の小分割領域である複数の予測領域の数と領域形状を示す予測ブロック分割タイプと、各予測領域の予測信号を既再生信号から取得するための動き情報を復元する予測情報復号手段と、上記対象領域に付随する予測情報に基づいて、上記対象領域の予測信号を生成する予測信号生成手段と、上記残差信号の符号化データから上記対象領域の再生残差信号を復元する残差信号復元手段と、上記予測信号と上記再生残差信号とを加算することによって上記対象領域の画素信号を復元し、該画素信号を上記既再生信号として保存する記録手段と、を具備する。予測情報復号手段は、復号済みの予測情報を保存する予測情報保存手段を有し、上記対象領域の予測ブロック分割タイプを復号して上記予測情報保存手段に保存し、上記対象領域に隣接する隣接領域の予測情報と上記対象領域内の復号済み予測領域の数と上記対象領域の復号済み予測情報に基づいて、次の予測領域である対象予測領域の予測信号の生成に用いる動き情報の候補を該対象予測領域に隣接する領域の復号済み動き情報から選出し、上記選出した動き情報の候補の数に応じて、選出した動き情報の候補を用いた上記対象予測領域の予測信号の生成を指示するマージブロック情報及び動き情報、又は該マージブロック情報と該動き情報の何れか一方を復号し、上記対象予測領域の予測信号の生成に用いる動き情報を上記予測情報保存手段に保存する。   The image predictive decoding device according to the second aspect of the present invention indicates a prediction method used for predicting a signal of a target region to be decoded from compressed data of an image divided and encoded into a plurality of regions. Encoded data of the prediction information, encoded data of the prediction signal of the target area, encoded data of the residual signal, decoding the encoded data of the prediction information, A prediction block division type indicating the number and a shape of a plurality of prediction regions, which are sub-regions of the target region, and a prediction information decoding unit that restores motion information for acquiring a prediction signal of each prediction region from the already reproduced signal; A prediction signal generating means for generating a prediction signal for the target area based on prediction information associated with the target area; and a residual for restoring the reproduction residual signal of the target area from the encoded data of the residual signal Signal recovery And means, to restore the pixel signal of the target region by adding the above-mentioned prediction signal and the reproduced residual signal, the pixel signal including a recording means for storing as the already reproduced signal. The prediction information decoding unit includes a prediction information storage unit that stores the decoded prediction information, decodes the prediction block division type of the target region, stores the prediction block division type in the prediction information storage unit, and is adjacent to the target region. Based on the prediction information of the region, the number of decoded prediction regions in the target region, and the decoded prediction information of the target region, motion information candidates used for generating a prediction signal of the target prediction region that is the next prediction region are obtained. Instructed to generate a prediction signal of the target prediction area using the selected motion information candidates according to the number of motion information candidates selected from the decoded motion information of the area adjacent to the target prediction area Decoding one of the merge block information and motion information to be performed, or the merge block information and the motion information, and storing the motion information used for generating a prediction signal of the target prediction region as the prediction information To save on stage.

本発明の第2の側面に係る画像予測復号方法は、複数の領域に分割して符号化された画像の圧縮データの中から、復号対象となる対象領域の信号の予測に用いる予測方法を指示する予測情報の符号化データと、上記対象領域の予測信号の符号化データと、残差信号の符号化データとを抽出するデータ解析ステップと、上記予測情報の符号化データを復号して、上記対象領域の小分割領域である複数の予測領域の数と領域形状を示す予測ブロック分割タイプと、各予測領域の予測信号を既再生信号から取得するための動き情報を復元する予測情報復号ステップと、上記対象領域に付随する予測情報に基づいて、上記対象領域の予測信号を生成する予測信号生成ステップと、上記残差信号の符号化データから上記対象領域の再生残差信号を復元する残差信号復元ステップと、上記予測信号と上記再生残差信号とを加算することによって上記対象領域の画素信号を復元し、該画素信号を上記既再生信号として保存する記録ステップと、を含む。予測情報復号ステップでは、上記対象領域の予測ブロック分割タイプを復号して、該予測ブロック分割タイプを、復号済みの予測情報を保存する予測情報保存手段に保存し、上記対象領域に隣接する隣接領域の予測情報と上記対象領域内の復号済み予測領域の数と上記対象領域の復号済み予測情報に基づいて、次の予測領域である対象予測領域の予測信号の生成に用いる動き情報の候補を該対象予測領域に隣接する領域の復号済み動き情報から選出し、上記選出した動き情報の候補の数に応じて、選出した動き情報の候補を用いた上記対象予測領域の予測信号の生成を指示するマージブロック情報及び動き情報、又は該マージブロック情報と該動き情報の何れか一方を復号し、上記対象予測領域の予測信号の生成に用いる動き情報を上記予測情報保存手段に保存する。   The image predictive decoding method according to the second aspect of the present invention indicates a prediction method used for predicting a signal of a target region to be decoded from compressed data of an image divided and encoded into a plurality of regions. A data analysis step for extracting encoded data of the prediction information, encoded data of the prediction signal of the target region, and encoded data of the residual signal; decoding the encoded data of the prediction information; A prediction block division type indicating the number and a shape of a plurality of prediction regions which are sub-division regions of the target region, and a prediction information decoding step for restoring motion information for obtaining a prediction signal of each prediction region from the already reproduced signal; A prediction signal generation step of generating a prediction signal of the target region based on prediction information associated with the target region, and a reproduction residual signal of the target region is restored from the encoded data of the residual signal Including a residual signal restoration step restores the pixel signal of the target region by adding the above-mentioned prediction signal and the reproduced residual signal, and a recording step of storing the pixel signal as the already reproduced signal. In the prediction information decoding step, the prediction block division type of the target region is decoded, the prediction block division type is stored in a prediction information storage unit that stores the decoded prediction information, and an adjacent region adjacent to the target region Motion information candidates used for generating a prediction signal of the target prediction area that is the next prediction area based on the prediction information of the target area, the number of decoded prediction areas in the target area, and the decoded prediction information of the target area. Instructing generation of a prediction signal of the target prediction region using the selected motion information candidates according to the number of motion information candidates selected from the decoded motion information of the region adjacent to the target prediction region One of the merge block information and the motion information, or the merge block information and the motion information is decoded, and the motion information used for generating the prediction signal of the target prediction region is the prediction To save the broadcast storage means.

また、本発明の第2の側面に係る画像予測復号プログラムは、コンピュータを上述した画像予測復号装置の各手段として機能させる。   The image predictive decoding program according to the second aspect of the present invention causes a computer to function as each unit of the image predictive decoding device described above.

本発明の第2の側面によれば、上述した画像予測符号化によって生成される圧縮データから画像を復号することができる。   According to the second aspect of the present invention, an image can be decoded from the compressed data generated by the above-described image predictive coding.

一実施形態においては、上記対象領域内の復号済み予測領域の数と上記対象領域の予測ブロック分割タイプと上記対象領域に隣接する隣接領域の予測ブック分割タイプに基づいて、次の予測領域である対象予測領域の動き情報の候補が、該対象予測領域に隣接する領域の復号済み動き情報から選出され得る。   In one embodiment, the next prediction region is based on the number of decoded prediction regions in the target region, the prediction block partition type of the target region, and the prediction book partition type of an adjacent region adjacent to the target region. Candidates for motion information in the target prediction region can be selected from the decoded motion information in the region adjacent to the target prediction region.

一実施形態においては、上記対象領域内の復号済み予測領域の数と上記対象領域の予測ブロック分割タイプに基づいて、次の予測領域である対象予測領域の予測信号の生成に用いる動き情報の候補が、該対象予測領域に隣接する領域の復号済み動き情報から選出され、上記対象領域が2つの予測領域に分割されており、上記対象予測領域が上記対象領域内で2番目に復号される予測領域であるとき、上記対象予測領域に隣接し、上記対象領域に含まれない領域の動き情報が、対象予測領域の動き情報の候補として選出され得る。   In one embodiment, based on the number of decoded prediction regions in the target region and the prediction block division type of the target region, motion information candidates used for generating a prediction signal of the target prediction region that is the next prediction region Is selected from decoded motion information in a region adjacent to the target prediction region, the target region is divided into two prediction regions, and the target prediction region is decoded second in the target region. When it is a region, motion information of a region adjacent to the target prediction region and not included in the target region can be selected as a candidate for motion information of the target prediction region.

また、一実施形態においては、上記対象領域内の復号済み予測領域の数と上記対象領域の予測ブロック分割タイプと上記対象領域内の復号済み動き領域と上記対象領域に隣接する隣接領域の動き情報とに基づいて、次の予測領域である対象予測領域の予測信号の生成に用いる動き情報の候補が、該対象予測領域に隣接する領域の復号済み動き情報から選出され、上記対象領域が2つの予測領域に分割されており、上記対象予測領域が上記対象領域内で2番目に復号される予測領域であり、上記対象領域の1番目に復号された予測領域の動き情報が、上記対象予測領域に隣接し、上記対象領域に含まれない領域の動き情報と同じであるとき、上記対象予測領域に隣接する領域の動き情報を上記対象予測領域の予測信号の生成に利用しないと判断して、動き情報が復号され得る。   In one embodiment, the number of decoded prediction areas in the target area, the prediction block division type of the target area, the decoded motion area in the target area, and motion information of adjacent areas adjacent to the target area Based on the above, motion information candidates used for generating a prediction signal of the target prediction region that is the next prediction region are selected from the decoded motion information of the region adjacent to the target prediction region, and the target region is divided into two The prediction region is divided into prediction regions, and the target prediction region is a prediction region that is decoded secondly in the target region, and the motion information of the prediction region that is decoded first in the target region is the target prediction region And the motion information of the region adjacent to the target prediction region is determined not to be used for generating the prediction signal of the target prediction region. Te, motion information may be decoded.

また、本発明の第3の側面は、動画像符号化に関する。   The third aspect of the present invention relates to video coding.

第3の側面に係る動画像符号化装置は、分割手段、小区画生成手段、動き検出手段、予測信号生成手段、動き予測手段、差分動きベクトル生成手段、残差信号生成手段、加算手段、記憶手段、及び、符号化手段を備える。分割手段は、動画像中の入力画像を複数の区画に分割する。小区画生成手段は、分割手段によって生成された処理対象の区画を複数の小区画に区切り、該小区画の形状を特定する形状情報を生成する。動き検出手段は、処理対象の区画の動きベクトルを検出する。予測信号生成手段は、動き検出手段により検出された動きベクトルを用いて、処理対象の区画の予測信号を既再生の画像信号から生成する。動き予測手段は、小区画生成手段によって生成された形状情報と、処理対象の区画より処理順で前の区画又は小区画である処理済みの部分領域の動きベクトルに基づいて、処理対象の区画の予測動きベクトルを生成する。差分動きベクトル生成手段は、処理対象の区画の予測信号の生成に用いた動きベクトルと、予測動きベクトルとの差分に基づき、差分動きベクトルを生成する。残差信号生成手段は、予測信号と処理対象の区画の画素信号との差分に基づく残差信号を生成する。加算手段は、残差信号と予測信号とを加算して再生画像信号を生成する。記憶手段は、再生画像信号を既再生の画像信号として記憶する。符号化手段は、残差信号生成手段により生成された残差信号と、差分ベクトル生成手段により生成された差分動きベクトルと、小区画生成手段により生成された形状情報と、を符号化して圧縮データを生成する。動き予測手段は、処理対象の区画内の処理対象の小区画が当該処理対象の小区画より処理順で前の区画に接しない場合に、当該処理対象の小区画と当該処理対象の区画内の他の小区画との間の境界の延長線に対して一方側の領域と他方側の領域のうち処理対象の小区画が含まれる領域に属する処理済みの部分領域の動きベクトルに基づいて、当該処理対象の小区画の予測動きベクトルを生成する。   A moving image encoding apparatus according to the third aspect includes a dividing unit, a small section generating unit, a motion detecting unit, a prediction signal generating unit, a motion predicting unit, a difference motion vector generating unit, a residual signal generating unit, an adding unit, and a storage. Means and encoding means. The dividing unit divides the input image in the moving image into a plurality of sections. The small section generation unit divides the processing target section generated by the dividing unit into a plurality of small sections, and generates shape information specifying the shape of the small section. The motion detection means detects a motion vector of the section to be processed. The prediction signal generation unit generates a prediction signal of the section to be processed from the already reproduced image signal using the motion vector detected by the motion detection unit. The motion predicting means is based on the shape information generated by the small section generating means and the motion vector of the processed partial area that is the previous section or the small section in the processing order from the processing target section. A predicted motion vector is generated. The difference motion vector generation means generates a difference motion vector based on the difference between the motion vector used for generating the prediction signal of the processing target section and the prediction motion vector. The residual signal generation means generates a residual signal based on the difference between the prediction signal and the pixel signal of the section to be processed. The adding means adds the residual signal and the prediction signal to generate a reproduced image signal. The storage means stores the reproduced image signal as an already reproduced image signal. The encoding unit encodes the residual signal generated by the residual signal generation unit, the differential motion vector generated by the difference vector generation unit, and the shape information generated by the small block generation unit to compress the compressed data. Is generated. When the processing target sub-partition in the processing target section does not contact the previous section in the processing order with respect to the processing target sub-partition, the motion prediction unit determines whether the processing target sub-partition and the processing target sub-partion Based on the motion vector of the processed partial area belonging to the area including the processing target subsection among the one side area and the other side area with respect to the extension line of the boundary with the other subsection, A predicted motion vector of a processing target small section is generated.

第3の側面に係る動画像符号化方法は、(a)動画像からの入力画像を複数の区画に分割する分割ステップと、(b)分割ステップにおいて生成された処理対象の区画を複数の小区画に区切り、当該小区画の形状を特定する形状情報を生成する小区画生成ステップと、(c)処理対象の区画の動きベクトルを検出する動き検出ステップと、(d)動き検出ステップにおいて検出された動きベクトルを用いて、処理対象の区画の予測信号を既再生の画像信号から生成する予測信号生成ステップと、(e)小区画生成ステップにおいて生成された形状情報と、処理対象の区画より処理順で前の区画又は小区画である処理済みの部分領域の動きベクトルに基づいて、処理対象の区画の予測動きベクトルを生成する動き予測ステップと、(f)処理対象の区画の予測信号の生成に用いた動きベクトルと予測動きベクトルとの差分に基づき、差分動きベクトルを生成する差分動きベクトル生成ステップと、(g)予測信号と処理対象の区画の画素信号との差分に基づく残差信号を生成する残差信号生成ステップと、(h)残差信号と予測信号とを加算して再生画像信号を生成する加算ステップと、(i)再生画像信号を既再生の画像信号として記憶する記憶ステップと、(j)残差信号生成ステップにおいて生成された残差信号と、差分動きベクトル生成ステップにおいて生成された差分動きベクトルと、小区画生成ステップにおいて生成された形状情報と、を符号化して圧縮データを生成する符号化ステップと、を含む。動き予測ステップにおいては、処理対象の区画内の処理対象の小区画が当該処理対象の小区画より処理順で前の区画に接しない場合に、処理対象の小区画と処理対象の区画内の他の小区画との間の境界の延長線に対して一方側の領域と他方側の領域のうち処理対象の小区画が含まれる領域に属する処理済みの部分領域の動きベクトルに基づいて、処理対象の小区画の予測動きベクトルが生成される。   The moving image encoding method according to the third aspect includes (a) a dividing step of dividing an input image from a moving image into a plurality of sections, and (b) dividing a processing target section generated in the dividing step into a plurality of small sections. Detected in a sub-partition generation step for generating shape information that divides into sections and identifies the shape of the sub-partition, (c) a motion detection step for detecting a motion vector of the target section, and (d) a motion detection step. A prediction signal generation step of generating a prediction signal of the processing target section from the already reproduced image signal using the motion vector obtained, and (e) shape information generated in the small section generation step, and processing from the processing target section A motion prediction step for generating a predicted motion vector of a processing target partition based on a motion vector of a processed partial region that is a previous partition or a small partition in order; and (f) a processing pair A difference motion vector generation step for generating a difference motion vector based on the difference between the motion vector used to generate the prediction signal of the section and the prediction motion vector; and (g) a prediction signal and a pixel signal of the processing target section A residual signal generating step for generating a residual signal based on the difference; (h) an adding step for adding the residual signal and the prediction signal to generate a reproduced image signal; and (i) an already reproduced image signal being reproduced. A storage step for storing as an image signal; (j) a residual signal generated in a residual signal generation step; a differential motion vector generated in a differential motion vector generation step; and shape information generated in a subsection generation step And an encoding step of generating compressed data by encoding. In the motion prediction step, if the processing target sub-partition in the processing target sub-part does not touch the previous sub-part in the processing order from the processing target sub-partition, the processing target sub-partition and the processing target sub-partition The processing target based on the motion vector of the processed partial area belonging to the area including the processing target subsection among the one side area and the other side area with respect to the extension line of the boundary between the subsection The predicted motion vectors of the small sections are generated.

また、第3の側面に係る動画像符号化プログラムは、コンピュータを上述した動画像符号化装置の各手段として機能させる。   The moving picture coding program according to the third aspect causes a computer to function as each unit of the moving picture coding apparatus described above.

上述した境界の延長線によって画成される二つの領域のうち、処理順で前の区画に接していない小区画を含む領域は、当該小区画の動きに類似する動きを有している可能性が高い。したがって、第3の側面によれば、予測動きベクトルの精度が向上し、差分動きベクトルの値が小さくなり、少ない符号量で動きベクトルが符号化される。故に、符号化効率が向上される。   Of the two areas defined by the boundary extension lines described above, an area including a subsection that is not in contact with the previous section in the processing order may have a movement similar to the movement of the subsection. Is expensive. Therefore, according to the third aspect, the accuracy of the predicted motion vector is improved, the value of the difference motion vector is reduced, and the motion vector is encoded with a small code amount. Therefore, encoding efficiency is improved.

本発明の第4の側面は動画像復号に関する。   The fourth aspect of the present invention relates to video decoding.

第4の側面に係る動画像復号装置は、復号手段、動き予測手段、ベクトル加算手段、予測信号生成手段、加算手段、及び、記憶手段を備える。復号手段は、圧縮データを復号して、画像内の処理対象の区画の再生残差信号と、処理対象の区画の差分動きベクトルと、処理対象の区画内の複数の小区画の形状を特定する形状情報を生成する。動き予測手段は、形状情報と、処理対象の区画より処理順で前の区画又は小区画である処理済みの部分領域の動きベクトルに基づいて、処理対象の区画の予測動きベクトルを生成する。ベクトル加算手段は、動き予測手段により生成された予測動きベクトルと、復号手段によって生成された差分動きベクトルとを加算して、処理対象の区画の動きベクトルを生成する。予測信号生成手段は、処理対象の区画の動きベクトルに基づいて、処理対象の区画の予測信号を既再生の画像信号から生成する。加算手段は、予測信号と、復号手段によって生成された再生残差信号とを加算して、再生画像信号を生成する。記憶手段は、再生画像信号を既再生の画像信号として記憶する。動き予測手段は、処理対象の区画内の処理対象の小区画が当該処理対象の小区画より処理順で前の区画に接しない場合に、処理対象の小区画と処理対象の区画内の他の小区画との間の境界の延長線に対して一方側の領域と他方側の領域のうち処理対象の小区画が含まれる領域に属する処理済みの部分領域の動きベクトルに基づいて、処理対象の小区画の予測動きベクトルを生成する。   The moving picture decoding apparatus according to the fourth aspect includes decoding means, motion prediction means, vector addition means, prediction signal generation means, addition means, and storage means. The decoding means decodes the compressed data and specifies the reproduction residual signal of the processing target section in the image, the difference motion vector of the processing target section, and the shapes of a plurality of small sections in the processing target section. Generate shape information. The motion prediction means generates a predicted motion vector of the processing target section based on the shape information and the motion vector of the processed partial area that is a section or a small section preceding the processing target section in the processing order. The vector addition unit adds the predicted motion vector generated by the motion prediction unit and the difference motion vector generated by the decoding unit to generate a motion vector of the processing target partition. The prediction signal generation means generates a prediction signal for the processing target section from the already reproduced image signal based on the motion vector of the processing target section. The adding means adds the prediction signal and the reproduction residual signal generated by the decoding means to generate a reproduced image signal. The storage means stores the reproduced image signal as an already reproduced image signal. When the processing target sub-partition in the processing target section does not contact the previous section in the processing order from the processing target sub-partition, the motion prediction means Based on the motion vector of the processed partial area belonging to the area including the processing target subsection among the one side area and the other side area with respect to the extension line of the boundary with the subsection, the processing target A predicted motion vector of a small section is generated.

第4の側面に係る動画像復号方法は、圧縮データを復号して動画像を生成する方法であって、(a)圧縮データを復号して、画像内の処理対象の区画の再生残差信号と、処理対象の区画の差分動きベクトルと、処理対象の区画内の複数の小区画の形状を特定する形状情報を生成する復号ステップと、(b)形状情報と、処理対象の区画より処理順で前の区画又は小区画である処理済みの部分領域の動きベクトルに基づいて、処理対象の区画の予測動きベクトルを生成する動き予測ステップと、(c)動き予測ステップにおいて生成された予測動きベクトルと復号ステップにおいて生成された差分動きベクトルを加算して、処理対象の区画の動きベクトルを生成するベクトル加算ステップと、(d)処理対象の区画の動きベクトルに基づいて、処理対象の区画の予測信号を既再生の画像信号から生成する予測信号生成ステップと、(e)予測信号と、復号ステップにおいて生成された再生残差信号とを加算して、再生画像信号を生成する加算ステップと、(f)再生画像信号を既再生の画像信号として記憶する記憶ステップと、を含む。動き予測ステップにおいては、処理対象の区画内の処理対象の小区画が当該処理対象の小区画より処理順で前の区画に接しない場合に、処理対象の小区画と処理対象の区画内の他の小区画との間の境界の延長線に対して一方側の領域と他方側の領域のうち処理対象の小区画が含まれる領域に属する処理済みの部分領域の動きベクトルに基づいて、処理対象の小区画の予測動きベクトルが生成される。   A moving image decoding method according to a fourth aspect is a method of generating a moving image by decoding compressed data, and (a) decoding residual data of a processing target section in the image by decoding the compressed data A decoding step for generating a differential motion vector of the processing target section, shape information for specifying the shapes of a plurality of small sections in the processing target section, (b) shape information, and processing order from the processing target section A motion prediction step for generating a predicted motion vector of a processing target partition based on a motion vector of a processed partial area that is a previous partition or a small partition, and (c) a predicted motion vector generated in the motion prediction step And a vector addition step for generating the motion vector of the processing target section by adding the difference motion vectors generated in the decoding step, and (d) based on the motion vector of the processing target section, A prediction signal generation step for generating a prediction signal of the target section from the already reproduced image signal, and (e) adding the prediction signal and the reproduction residual signal generated in the decoding step to generate a reproduction image signal And (f) a storage step of storing the reproduced image signal as an already reproduced image signal. In the motion prediction step, if the processing target sub-partition in the processing target sub-part does not touch the previous sub-part in the processing order from the processing target sub-partition, the processing target sub-partition and the processing target sub-partition The processing target based on the motion vector of the processed partial area belonging to the area including the processing target subsection among the one side area and the other side area with respect to the extension line of the boundary between the subsection The predicted motion vectors of the small sections are generated.

第4の側面にかかる動画像復号プログラムは、コンピュータを上述した動画像復号装置の各手段として機能させる。   The moving picture decoding program according to the fourth aspect causes a computer to function as each unit of the moving picture decoding apparatus described above.

第4の側面によれば、処理順で前の区画に接していない小区画を含む領域の復号済みの動きベクトルから当該小区画の予測動きベクトルが生成される。この予測動きベクトルは、当該小区画の動きベクトルに類似する可能性が高い。したがって、上述した実施形態によれば、予測動きベクトルの精度が向上し、差分動きベクトルの値が小さくなり、少ないビット量の圧縮データからの復号が可能となる。故に、効率の良い復号が実現される。   According to the fourth aspect, the predicted motion vector of the small section is generated from the decoded motion vector of the area including the small section that is not in contact with the previous section in the processing order. The predicted motion vector is likely to be similar to the motion vector of the small section. Therefore, according to the above-described embodiment, the accuracy of the predicted motion vector is improved, the value of the difference motion vector is reduced, and decoding from compressed data with a small bit amount is possible. Therefore, efficient decoding is realized.

本発明の幾つかの側面に係る画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラムによれば、対象予測ブロックの予測信号生成に利用する動き情報の候補を周囲の符号化済み又は復号済み情報に基づいて選出できるので、より効率良く動き情報が符号化できるという効果がある。   According to an image predictive encoding device, an image predictive encoding method, an image predictive encoding program, an image predictive decoding device, an image predictive decoding method, and an image predictive decoding program according to some aspects of the present invention, prediction of a target prediction block Since motion information candidates used for signal generation can be selected based on surrounding encoded or decoded information, there is an effect that motion information can be encoded more efficiently.

また、本発明の別の幾つかの側面によれば、符号化効率を向上することが可能な動画像符号化装置、動画像符号化方法、及び、動画像符号化プログラムが提供される。また、これら動画像符号化に対応する動画像復号装置、動画像復号方法、及び動画像復号プログラムが提供される。   Further, according to some other aspects of the present invention, a moving picture coding apparatus, a moving picture coding method, and a moving picture coding program capable of improving coding efficiency are provided. In addition, a moving picture decoding apparatus, a moving picture decoding method, and a moving picture decoding program corresponding to these moving picture encodings are provided.

一実施形態に係る画像予測符号化装置を示すブロック図である。It is a block diagram which shows the image predictive coding apparatus which concerns on one Embodiment. 従来のブロックマージングにおける動き情報の候補を説明するための模式図である。It is a schematic diagram for demonstrating the candidate of the motion information in the conventional block merging. 一実施形態に係るブロックマージングにおける動き情報の候補を説明するための模式図である。It is a schematic diagram for demonstrating the candidate of the motion information in the block merging which concerns on one Embodiment. 図1に示す予測情報符号化器の処理を説明するフローチャートである。It is a flowchart explaining the process of the prediction information encoder shown in FIG. 図1に示す画像予測符号化装置の画像予測符号化方法の手順を示すフローチャートである。It is a flowchart which shows the procedure of the image prediction encoding method of the image prediction encoding apparatus shown in FIG. 一実施形態に係る画像予測復号装置を示すブロック図である。It is a block diagram which shows the image prediction decoding apparatus which concerns on one Embodiment. 図6に示す予測情報復号器の処理を説明するフローチャートである。It is a flowchart explaining the process of the prediction information decoder shown in FIG. 図6に示す画像予測復号装置の画像予測復号方法の手順を示すフローチャートである。It is a flowchart which shows the procedure of the image prediction decoding method of the image prediction decoding apparatus shown in FIG. 対象予測ブロックに隣接する複数の隣接ブロックの動き情報を対象予測ブロックの動き情報として利用する処理を説明するための第1の模式図である。It is a 1st schematic diagram for demonstrating the process which uses the motion information of the several adjacent block adjacent to a target prediction block as the motion information of a target prediction block. 対象予測ブロックに隣接する複数の隣接ブロックの動き情報を対象予測ブロックの動き情報として利用する処理を説明するための第2の模式図である。It is a 2nd schematic diagram for demonstrating the process which uses the motion information of the several adjacent block adjacent to a target prediction block as the motion information of a target prediction block. 対象予測ブロックに隣接する複数の隣接ブロックの動き情報を対象予測ブロックの動き情報として利用する処理を説明するフローチャートである。It is a flowchart explaining the process which uses the motion information of the some adjacent block adjacent to a target prediction block as the motion information of a target prediction block. 対象予測ブロックに隣接する複数の隣接ブロックの動き情報を対象予測ブロックの動き情報として利用する処理を説明するための第3の模式図である。It is a 3rd schematic diagram for demonstrating the process which uses the motion information of the several adjacent block adjacent to a target prediction block as the motion information of a target prediction block. 対象予測ブロックに隣接する複数の隣接ブロックの動き情報を対象予測ブロックの動き情報として利用する処理を説明するフローチャートの第2例である。It is a 2nd example of the flowchart explaining the process which utilizes the motion information of the several adjacent block adjacent to a target prediction block as motion information of a target prediction block. 一実施形態に係るブロックマージングにおける動き情報の候補を説明するための模式図の第2例である。It is a 2nd example of the schematic diagram for demonstrating the candidate of the motion information in the block merging which concerns on one Embodiment. 一実施形態に係るブロックマージングにおける動き情報の候補を説明するための模式図の第3例である。It is a 3rd example of the schematic diagram for demonstrating the candidate of the motion information in the block merging which concerns on one Embodiment. 一実施形態に係る画像予測符号化方法を実行することができるプログラムを示すブロック図である。It is a block diagram which shows the program which can perform the image predictive coding method which concerns on one Embodiment. 一実施形態に係る画像予測復号方法を実行することができるプログラムを示すブロック図である。It is a block diagram which shows the program which can perform the image predictive decoding method which concerns on one Embodiment. 記録媒体に記録されたプログラムを実行するためのコンピュータのハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the computer for performing the program recorded on the recording medium. 記録媒体に記憶されたプログラムを実行するためのコンピュータの斜視図である。It is a perspective view of a computer for executing a program stored in a recording medium. 符号化ブロックの予測ブロック分割タイプを説明するための模式図である。It is a schematic diagram for demonstrating the prediction block division | segmentation type of an encoding block. 画面間予測における動き推定処理(A)とテンプレートマッチング処理(B)に関する模式図である。It is a schematic diagram regarding the motion estimation process (A) and template matching process (B) in inter-screen prediction. 従来の画面内予測方法を説明するための模式図である。It is a schematic diagram for demonstrating the conventional intra prediction method. 動き補償予測を説明するための図である。It is a figure for demonstrating motion compensation prediction. 一実施形態に係る動画像符号化装置の構成を概略的に示す図である。It is a figure which shows schematically the structure of the moving image encoder which concerns on one Embodiment. 小区画の生成を説明するための図である。It is a figure for demonstrating the production | generation of a small division. 一実施形態に動き予測器の構成を示す図である。It is a figure which shows the structure of the motion predictor in one Embodiment. 一実施形態に係る動画像符号化方法のフローチャートである。It is a flowchart of the moving image encoding method which concerns on one Embodiment. 一実施形態に係る動き予測器の処理を示すフローチャートである。It is a flowchart which shows the process of the motion predictor which concerns on one Embodiment. 対象ブロックの小区画と周囲の部分領域の一例を示す図である。It is a figure which shows an example of the small block of an object block, and the surrounding partial area. 対象ブロックの小区画と周囲の部分領域の別の一例を示す図である。It is a figure which shows another example of the small division of an object block, and the surrounding partial area. 対象ブロックの小区画と周囲の部分領域の更に別の例を示す図である。It is a figure which shows another example of the small division of an object block, and the surrounding partial area. 対象ブロックの小区画と周囲の部分領域の更に別の例を示す図である。It is a figure which shows another example of the small division of an object block, and the surrounding partial area. 対象ブロックの小区画と周囲の部分領域の更に別の例を示す図である。It is a figure which shows another example of the small division of an object block, and the surrounding partial area. 一実施形態に係る動画像復号装置の構成を概略的に示す図である。It is a figure which shows schematically the structure of the moving image decoding apparatus which concerns on one Embodiment. 一実施形態に係る動き予測器の構成を示す図である。It is a figure which shows the structure of the motion predictor which concerns on one Embodiment. 一実施形態に係る動画像復号方法のフローチャートである。It is a flowchart of the moving image decoding method which concerns on one Embodiment. 一実施形態に係る動き予測器の処理を示すフローチャートである。It is a flowchart which shows the process of the motion predictor which concerns on one Embodiment. 一実施形態に係る動画像符号化プログラムの構成を示す図である。It is a figure which shows the structure of the moving image encoding program which concerns on one Embodiment. 一実施形態に係る動画像復号プログラムの構成を示す図である。It is a figure which shows the structure of the moving image decoding program which concerns on one Embodiment.

以下、添付図面を参照しながら種々の実施形態について詳細に説明する。なお、図面の説明において同一又は同等の要素には同一の符号を付し、重複する説明を省略する。   Hereinafter, various embodiments will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same or equivalent elements are denoted by the same reference numerals, and redundant description is omitted.

図1は、一実施形態に係る画像予測符号化装置100を示すブロック図である。この画像予測符号化装置100は、入力端子101、ブロック分割器102、予測信号生成器103、フレームメモリ104、減算器105、変換器106、量子化器107、逆量子化器108、逆変換器109、加算器110、量子化変換係数符号化器111、出力端子112、予測ブロック分割タイプ選択器113、動き情報推定器114、予測情報用メモリ115、予測情報符号化器116を備えている。   FIG. 1 is a block diagram illustrating an image predictive encoding device 100 according to an embodiment. The image predictive coding apparatus 100 includes an input terminal 101, a block divider 102, a prediction signal generator 103, a frame memory 104, a subtractor 105, a transformer 106, a quantizer 107, an inverse quantizer 108, and an inverse transformer. 109, an adder 110, a quantized transform coefficient encoder 111, an output terminal 112, a prediction block division type selector 113, a motion information estimator 114, a prediction information memory 115, and a prediction information encoder 116.

変換器106、量子化器107及び量子化変換係数符号化器111は、残差信号符号化手段として機能し、逆量子化器及び逆変換器は残差信号復元手段として機能する。また、予測ブロック分割タイプ選択器113と動き情報推定器114は、予測情報推定手段として機能し、予測情報用メモリ115と予測情報符号化器116は予測情報符号化手段として機能する。   The converter 106, the quantizer 107, and the quantized transform coefficient encoder 111 function as residual signal encoding means, and the inverse quantizer and inverse transformer function as residual signal restoring means. The prediction block division type selector 113 and the motion information estimator 114 function as prediction information estimation means, and the prediction information memory 115 and the prediction information encoder 116 function as prediction information encoding means.

入力端子101は、複数枚の画像からなる動画像の信号を入力する端子である。   The input terminal 101 is a terminal for inputting a moving image signal composed of a plurality of images.

ブロック分割器102は、入力端子101から入力された信号で表される、符号化処理の対象となる画像を複数の領域(符号化ブロック)に分割する。本実施形態では、符号化対象の画像を16x16の画素からなるブロックに分割するが、それ以外の大きさ又は形状のブロックに分割してもよい。また、画面内にサイズの異なるブロックが混在してもよい。   The block divider 102 divides an image to be encoded, which is represented by a signal input from the input terminal 101, into a plurality of regions (encoded blocks). In the present embodiment, the image to be encoded is divided into blocks each having 16 × 16 pixels, but may be divided into blocks having other sizes or shapes. Further, blocks of different sizes may be mixed in the screen.

予測ブロック分割タイプ選択器113は、符号化処理の対象となる対象領域(対象符号化ブロック)を予測処理が行われる予測領域に分割する。例えば、符号化ブロック毎に図20の(A)〜(H)の何れかを選択して当該符号化ブロックを小分割する。分割された領域を予測領域(予測ブロック)と呼び、図20の(A)〜(H)の各分割方法を予測ブロック分割タイプと呼ぶ。予測ブロック分割タイプの選択方法は限定されるものではない。例えば、ラインL102を経由して入力された対象符号化ブロックの信号に対して各小分割を実施し、後述する予測処理や符号化処理を実際に実施して、符号化ブロックの原信号と再生信号との間の符号化誤差信号電力と符号化ブロックの符号化に要する符号量から算出されるレート歪値が最小となる分割タイプを選択する方法などが利用できる。対象符号化ブロックの予測ブロック分割タイプはラインL113aとラインL113bとラインL113cを経由してそれぞれ、予測情報用メモリ115と動き情報推定器114と予測信号生成器103に出力される。   The prediction block division type selector 113 divides the target region (target encoded block) to be subjected to the encoding process into prediction regions in which the prediction process is performed. For example, one of (A) to (H) in FIG. 20 is selected for each coding block, and the coding block is subdivided. The divided area is referred to as a prediction area (prediction block), and each of the division methods (A) to (H) in FIG. 20 is referred to as a prediction block division type. The method for selecting the prediction block division type is not limited. For example, each subdivision is performed on the signal of the target coding block input via the line L102, and prediction processing and coding processing described later are actually performed to reproduce the original signal of the coding block. For example, a method of selecting a division type that minimizes the rate distortion value calculated from the coding error signal power between the signals and the code amount required for coding the coding block can be used. The prediction block division type of the target coding block is output to the prediction information memory 115, the motion information estimator 114, and the prediction signal generator 103 via the line L113a, the line L113b, and the line L113c, respectively.

動き情報推定器114は、対象符号化ブロック内の各予測ブロックの予測信号を生成するために必要な動き情報を検出する。予測信号の生成方法(予測方法)については、限定されるものではないが、背景技術で説明したような画面間予測や画面内予測(画面内予測については図示せず)が適用可能である。ここでは、図21に示したブロックマッチングにて動き情報を検出するものと考える。予測対象の対象予測ブロックの原信号はラインL102a経由で入力された符号化ブロックの原信号とラインL113b経由で入力された対象符号化ブロックの予測ブロック分割タイプから生成できる。この対象予測ブロックの原信号に対する絶対値誤差和が最小となる予測信号をラインL104経由で取得される画像信号から検出する。この場合、動き情報には、動きベクトル、画面間予測モード(前方向/後方向/双方向)、参照画面番号などが含まれる。検出された動き情報はラインL114を経由して、それぞれ予測情報用メモリ115と予測情報符号化器116に出力される。   The motion information estimator 114 detects motion information necessary for generating a prediction signal of each prediction block in the target coding block. The method of generating a prediction signal (prediction method) is not limited, but inter-screen prediction and intra-screen prediction (not shown for intra-screen prediction) as described in the background art are applicable. Here, it is assumed that motion information is detected by block matching shown in FIG. The original signal of the target prediction block to be predicted can be generated from the original signal of the encoded block input via the line L102a and the prediction block division type of the target encoded block input via the line L113b. A prediction signal having a minimum absolute value error sum with respect to the original signal of the target prediction block is detected from the image signal acquired via the line L104. In this case, the motion information includes a motion vector, an inter-screen prediction mode (forward / backward / bidirectional), a reference screen number, and the like. The detected motion information is output to the prediction information memory 115 and the prediction information encoder 116 via the line L114.

予測情報用メモリ115は、入力された動き情報と予測ブロック分割タイプを保存する。   The prediction information memory 115 stores the input motion information and the prediction block division type.

予測情報符号化器116は、各予測ブロックのブロックマージングに用いる動き情報の候補を選出すると共に、対象符号化ブロックの予測情報をエントロピー符号化し、符号化データをラインL116経由で出力端子112に出力する。エントロピー符号化の方法は限定されないが、算術符号化や可変長符号化などが適用できる。なお、予測情報には、対象符号化ブロックの予測ブロック分割タイプ、予測ブロックの動き情報に加えて、予測ブロックに隣接するブロックの動き情報を用いてブロックマージングを実施するためのブロックマージング情報が含まれる。予測情報符号化器116の処理については後述する。   The prediction information encoder 116 selects motion information candidates used for block merging of each prediction block, entropy-encodes the prediction information of the target coding block, and outputs the encoded data to the output terminal 112 via the line L116. To do. The entropy encoding method is not limited, but arithmetic encoding, variable length encoding, and the like can be applied. The prediction information includes block merging information for performing block merging using the motion information of the block adjacent to the prediction block, in addition to the prediction block division type of the target coding block and the motion information of the prediction block. It is. The processing of the prediction information encoder 116 will be described later.

予測信号生成器103では、ラインL114経由で入力された対象符号化ブロック内の各予測ブロックの動き情報とラインL113c経由で入力された予測ブロック分割タイプに基づいて、フレームメモリ104から既再生信号を取得し、対象符号化ブロック内の各予測ブロックの予測信号を生成する。   In the prediction signal generator 103, based on the motion information of each prediction block in the target coding block input via the line L114 and the prediction block division type input via the line L113c, the reproduced signal is received from the frame memory 104. Obtaining and generating a prediction signal of each prediction block in the target coding block.

予測信号生成器103にて生成された予測信号は、ラインL103経由で減算器105と加算器110に出力される。   The prediction signal generated by the prediction signal generator 103 is output to the subtracter 105 and the adder 110 via the line L103.

減算器105は、ブロック分割器102で分割されてラインL102bを経由して入力された対象符号化ブロックの画素信号からラインL103を経由して入力される対象符号化ブロックに対する予測信号を減算して、残差信号を生成する。減算器105は、減算して得た残差信号を、ラインL105を経由して変換器106に出力する。   The subtractor 105 subtracts the prediction signal for the target coding block input via the line L103 from the pixel signal of the target coding block divided by the block divider 102 and input via the line L102b. Generate a residual signal. The subtractor 105 outputs the residual signal obtained by the subtraction to the converter 106 via the line L105.

変換器106は、入力された残差信号を離散コサイン変換する部分である。また、量子化器107は、変換器106により離散コサイン変換された変換係数を量子化する部分である。量子化変換係数符号化器111は、量子化器107により量子化された変換係数をエントロピー符号化する。符号化データはラインL111を経由して出力端子112に出力される。エントロピー符号化の方法は限定されないが、算術符号化や可変長符号化などが適用できる。   The converter 106 is a part that performs discrete cosine transform on the input residual signal. The quantizer 107 is a part that quantizes the transform coefficient that has been discrete cosine transformed by the transformer 106. The quantized transform coefficient encoder 111 entropy codes the transform coefficient quantized by the quantizer 107. The encoded data is output to the output terminal 112 via the line L111. The entropy encoding method is not limited, but arithmetic encoding, variable length encoding, and the like can be applied.

出力端子112は、予測情報符号化器116及び量子化変換係数符号化器111から入力された情報をまとめて外部に出力する。   The output terminal 112 collectively outputs information input from the prediction information encoder 116 and the quantized transform coefficient encoder 111 to the outside.

逆量子化器108は、量子化された変換係数を逆量子化する。逆変換器109は、逆離散コサイン変換により残差信号を復元する。加算器110は、復元された残差信号とラインL103経由で入力される予測信号とを加算し、対象符号化ブロックの信号を再生し、再生された信号をフレームメモリ104に格納する。本実施形態では、変換器106と逆変換器109とを用いているが、これらの変換器に代わる他の変換処理を用いてもよい。また、変換器106及び逆変換器109は必須ではない。このように、後続の対象符号化ブロックの予測信号生成に用いるため、符号化された対象符号化ブロックの再生信号は、逆処理にて復元されフレームメモリ104に記憶される。   The inverse quantizer 108 inversely quantizes the quantized transform coefficient. The inverse transformer 109 restores the residual signal by inverse discrete cosine transform. The adder 110 adds the restored residual signal and the prediction signal input via the line L103, reproduces the signal of the target coding block, and stores the reproduced signal in the frame memory 104. In the present embodiment, the converter 106 and the inverse converter 109 are used, but other conversion processes in place of these converters may be used. Further, the converter 106 and the inverse converter 109 are not essential. Thus, in order to use for the prediction signal production | generation of a subsequent object encoding block, the reproduced signal of the object encoding block encoded is decompress | restored by reverse processing, and is memorize | stored in the frame memory 104. FIG.

次に、予測情報符号化器116の処理について説明する。予測情報符号化器116は、まず、各予測ブロックのブロックマージングに用いる動き情報の候補(対象予測領域の予測信号生成に用いる動き情報の候補)を対象予測ブロックに隣接するブロックの動き情報から選出する。ブロックマージングとは、対象予測ブロックの予測信号を隣接ブロックの動き情報を用いて生成することを示す。次に、予測情報符号化器116は、動き情報推定器114にて検出した動き情報と選出された動き情報の候補を比較し、ブロックマージングの実施の可否を判断する。そして、予測情報符号化器116は、ブロックマージングに用いる動き情報の候補の数とブロックマージングの実施の可否に応じて、ブロックマージング情報と動き情報のいずれか或いは両方を予測ブロック分割タイプと共にエントロピー符号化する。ブロックマージング情報は、隣接ブロックの動き情報を利用して対象予測ブロックの予測信号を生成するか否か、すなわちブロックマージングの実施の可否を指示するマージ識別情報(merge_flag)と対象予測ブロックに隣接する2つのブロックの動き情報のうち、いずれを用いて対象予測ブロックの予測信号を生成するかを示すマージブロック選択情報(merge_flag_left)にて構成される。   Next, the process of the prediction information encoder 116 will be described. First, the prediction information encoder 116 selects motion information candidates used for block merging of each prediction block (motion information candidates used for prediction signal generation in the target prediction region) from the motion information of blocks adjacent to the target prediction block. To do. Block merging refers to generating a prediction signal of a target prediction block using motion information of adjacent blocks. Next, the prediction information encoder 116 compares the motion information detected by the motion information estimator 114 with the selected candidate motion information, and determines whether or not block merging can be performed. Then, the prediction information encoder 116 entropy codes the block merging information and / or motion information together with the prediction block division type according to the number of motion information candidates used for block merging and whether or not the block merging can be performed. Turn into. The block merging information is adjacent to the target prediction block and merge identification information (merge_flag) indicating whether or not to generate a prediction signal of the target prediction block using motion information of adjacent blocks, that is, whether or not to perform block merging. It is composed of merge block selection information (merge_flag_left) indicating which one of the motion information of the two blocks is used to generate the prediction signal of the target prediction block.

各予測ブロックのブロックマージングに用いる動き情報の候補が0個の場合にはこれら2つの情報、即ち、マージ識別情報及びマージブロック選択情報は符号化する必要がない。動き情報の候補が1個の場合には、マージ識別情報を符号化し、動き情報の候補が2個以上であり、ブロックマージングを実施する場合には、2つの情報、即ち、マージ識別情報及びマージブロック選択情報を符号化する。動き情報の候補が2個以上であっても、ブロックマージングを実施しない場合には、マージブロック選択情報の符号化は必要ない。   When there are no motion information candidates used for block merging of each prediction block, these two pieces of information, that is, merge identification information and merge block selection information do not need to be encoded. When there is one motion information candidate, merge identification information is encoded. When there are two or more motion information candidates and block merging is performed, two pieces of information, namely merge identification information and merge Encode block selection information. Even if the number of motion information candidates is two or more, if block merging is not performed, the merge block selection information need not be encoded.

図3は、一実施形態の予測ブロックのブロックマージングに用いる動き情報の候補の選出処理を説明するための模式図である。図3は、図20の(B)に示すブロック301と同様に、符号化ブロックを縦に2分割する(左右の二つのブロックに分割する)予測ブロック分割タイプの例を示している。以降、このブロック301を例に説明するが、ブロック302、304、305、306、307でも同様の説明が可能である。   FIG. 3 is a schematic diagram for explaining a motion information candidate selection process used for block merging of a prediction block according to an embodiment. FIG. 3 shows an example of a prediction block division type in which an encoded block is divided into two vertically (divided into two blocks on the left and right), similarly to the block 301 shown in FIG. Hereinafter, the block 301 will be described as an example, but the same description can be applied to the blocks 302, 304, 305, 306, and 307.

動き情報の候補の選出は、以下の情報に基づいて実施する。
1)対象符号化ブロック内の符号化済み/復号済み予測ブロックの数
2)対象符号化ブロックの予測ブロック分割タイプ
3)対象予測ブロックに隣接するブロックの予測ブロック分割タイプ
4)対象符号化ブロック内の符号化済み/復号済み予測ブロックの動き情報
5)対象予測ブロックに隣接するブロックの動き情報と予測モード(画面内予測/画面間予測)
Selection of motion information candidates is performed based on the following information.
1) Number of encoded / decoded prediction blocks in the target coding block 2) Prediction block division type of the target coding block 3) Prediction block division type of a block adjacent to the target prediction block 4) In the target coding block 5) Motion information and prediction mode of the block adjacent to the target prediction block (intra prediction / inter prediction)

図3の例では、1)と2)と4)と5)の情報を用いて、ブロックマージングに用いる動き情報の候補を選出する。   In the example of FIG. 3, candidates for motion information used for block merging are selected using the information of 1), 2), 4), and 5).

まず、2)の情報より、対象符号化ブロック400内の予測ブロックの総数が予測ブロックT1とT2の2個であり、符号化ブロックが縦に2分割されることが分かる。次の予測ブロックが予測ブロックT1であるか予測ブロックT2であるかは、1)の情報より分かる。   First, it can be seen from the information 2) that the total number of prediction blocks in the target coding block 400 is two prediction blocks T1 and T2, and the coding block is vertically divided into two. Whether the next prediction block is the prediction block T1 or the prediction block T2 can be known from the information 1).

次の予測ブロックが予測ブロックT1(対象符号化ブロック内の符号化済み/復号済み予測ブロックの数が0)のときは、隣接ブロックAと隣接ブロックBの動き情報がブロックマージングの動き情報の候補となる(図面内の矢印は、隣接ブロックAとBの動き情報が、予測ブロックT1の予測信号の生成に用いる動き情報の候補であることを示す)。この際、隣接ブロックA又はBが画面内予測にて生成されたブロックや画面外のブロックである場合には、そのブロックの動き情報をブロックマージングの動き情報の候補から除外するようにしてもよい(擬似的に動き情報をデフォルト値とすることも可能。例えば、動きベクトルを0とし、参照画面番号を0とする)。また、2つの隣接ブロックAとBの動き情報が一致する場合には、一方の隣接ブロックの動き情報を候補から外すようにしてもよい。   When the next prediction block is the prediction block T1 (the number of encoded / decoded prediction blocks in the target encoding block is 0), the motion information of the adjacent block A and the adjacent block B is a candidate for block merging motion information. (The arrows in the drawing indicate that the motion information of adjacent blocks A and B is a candidate of motion information used for generating a prediction signal of the prediction block T1). At this time, if the adjacent block A or B is a block generated by intra prediction or a block outside the screen, the motion information of the block may be excluded from the motion information candidates for block merging. (Pseudo motion information can be set as a default value. For example, a motion vector is set to 0 and a reference screen number is set to 0). If the motion information of two adjacent blocks A and B match, the motion information of one adjacent block may be excluded from the candidates.

次の予測ブロックが予測ブロックT2(対象符号化ブロック内の符号化済み/復号済み予測ブロックの数が1個)のときは、図3の(A)に示すように、隣接ブロックであるT1の動き情報はブロックマージングの動き情報の候補から除外される。これは、予測ブロックT1と予測ブロックT2は、本来異なる動き情報にて予測信号が生成されることを想定して2つに分割されているためである。つまり、これは、予測ブロックT1の動き情報と予測ブロックT2の動き情報が同じ動き情報となることを避けるためである。この処理により、予測ブロックT2のブロックマージングの動き情報が1個となるため、マージブロック選択情報の符号化に要するコストを削減できる(図面内の矢印は、隣接ブロックDの動き情報は予測ブロックT2の予測信号の生成に利用可能であることを示す)。   When the next prediction block is the prediction block T2 (the number of encoded / decoded prediction blocks in the target coding block is 1), as shown in FIG. The motion information is excluded from candidates for block merging motion information. This is because the prediction block T1 and the prediction block T2 are divided into two assuming that a prediction signal is originally generated with different motion information. That is, this is to avoid that the motion information of the prediction block T1 and the motion information of the prediction block T2 are the same motion information. By this processing, the block merging motion information of the prediction block T2 becomes one, so that the cost required for encoding the merge block selection information can be reduced (the arrow in the drawing indicates that the motion information of the adjacent block D is the prediction block T2). Can be used to generate prediction signals for

さらに、上記4)と5)の情報に基づいて、予測ブロックT1と隣接ブロックDの動き情報を比較し、予測ブロックT1と隣接ブロックDの動き情報が一致する場合には、図3の(B)に示すように隣接ブロックDの動き情報もブロックマージングの動き情報の候補から除外される。この理由は、隣接ブロックDの動き情報を用いて予測ブロックT2の予測信号を生成した場合、予測ブロックT1とT2の動き情報が同じとなるためである。この処理により、予測ブロックT2のブロックマージングの動き情報が0個となり、マージ識別情報とマージブロック選択情報の符号化に要するコストが削減できる。   Further, based on the information of 4) and 5), the motion information of the prediction block T1 and the adjacent block D is compared, and when the motion information of the prediction block T1 and the adjacent block D matches, ), The motion information of the adjacent block D is also excluded from the block merging motion information candidates. This is because when the prediction signal of the prediction block T2 is generated using the motion information of the adjacent block D, the motion information of the prediction blocks T1 and T2 is the same. With this process, the motion information of block merging of the prediction block T2 becomes zero, and the cost required for encoding the merge identification information and the merge block selection information can be reduced.

図4は、図3の処理を実現する予測情報符号化器116のフローチャートである。   FIG. 4 is a flowchart of the prediction information encoder 116 that implements the processing of FIG.

最初に予測情報符号化器116は、対象符号化ブロックの予測ブロック分割タイプを符号化し、当該予測ブロック分割タイプを予測情報用メモリ115に保存する。同時に、予測情報符号化器116は、対象符号化ブロック内の予測ブロック数Nを符号化した予測ブロック分割タイプに基づいて設定し、対象予測ブロック番号iを0にリセットする(ステップS151)。次に、予測情報符号化器116は、対象予測ブロックが対象符号化ブロック内で最後に符号化される予測ブロックであり、対象符号化ブロック内の予測ブロック数が2以上であるかを判断する(ステップS152)。例えば、N=2の場合では、i=1のとき、判定が可となり、処理はステップS157に進む。N=4(図20の(D))の場合では、i=3のとき、判定が可となる。判定が否の場合には、処理はステップS153に進む。図3の場合では、対象予測ブロックが予測ブロックT1のときには処理はステップS153に進み、予測ブロックT2のときには処理はステップS157に進む。   First, the prediction information encoder 116 encodes the prediction block division type of the target coding block, and stores the prediction block division type in the prediction information memory 115. At the same time, the prediction information encoder 116 sets the prediction block number N in the target encoded block based on the encoded prediction block division type, and resets the target prediction block number i to 0 (step S151). Next, the prediction information encoder 116 determines whether the target prediction block is the prediction block that is encoded last in the target coding block, and the number of prediction blocks in the target coding block is two or more. (Step S152). For example, in the case of N = 2, when i = 1, determination is possible, and the process proceeds to step S157. In the case of N = 4 ((D) in FIG. 20), the determination is possible when i = 3. If the determination is no, the process proceeds to step S153. In the case of FIG. 3, when the target prediction block is the prediction block T1, the process proceeds to step S153, and when the target prediction block is the prediction block T2, the process proceeds to step S157.

ステップS153では、マージ識別情報が符号化される。マージ識別情報は、対象予測ブロックの動き情報とブロックマージングの動き情報の候補が一致する場合には、可(merge_flag=1,動き情報の候補を用いて対象予測ブロックの予測信号を生成)となり、一致しない場合には否(merge_flag=0,符号化した動き情報を用いて対象予測ブロックの予測信号を生成)となる。次に、対象予測ブロックの動き情報とブロックマージングの動き情報の候補が一致する場合には処理はステップS164に進む。ステップS164では、予測情報符号化器116は、動き情報の候補が2個であるかを判定し、動き情報の候補の数が2個である場合には、マージブロック選択情報を符号化し、処理はステップS155に進む。動き情報の候補の数が1個である場合には、処理はステップS165に進む。一方、対象予測ブロックの動き情報とブロックマージングの動き情報の候補が一致しない場合には処理はステップS156に進み、予測情報符号化器116は、動き情報推定器114にて検出した動き情報を符号化し、ステップS165に進む。   In step S153, merge identification information is encoded. The merge identification information is acceptable when the motion information of the target prediction block matches the motion information candidate of block merging (merge_flag = 1, the prediction signal of the target prediction block is generated using the motion information candidate) If they do not match, the result is no (merge_flag = 0, the prediction signal of the target prediction block is generated using the encoded motion information). Next, when the motion information of the target prediction block matches the motion information candidate of block merging, the process proceeds to step S164. In step S164, the prediction information encoder 116 determines whether there are two motion information candidates. If the number of motion information candidates is two, the prediction information encoder 116 encodes merge block selection information and performs processing. Advances to step S155. If the number of motion information candidates is one, the process proceeds to step S165. On the other hand, when the motion information of the target prediction block does not match the motion information candidate for block merging, the process proceeds to step S156, and the prediction information encoder 116 encodes the motion information detected by the motion information estimator 114. Go to step S165.

ステップS157では、予測情報符号化器116は、対象符号化ブロックの全ての符号化済み動き情報と対象符号化ブロックに属さない隣接ブロックの動き情報が一致するかを判定する。このステップS157の説明は、N=2の場合には、図3に示す予測ブロックT1と隣接ブロックDの動き情報を比較することを意味する。また、ステップS157の説明は、N=4(図20の(D))の場合には、対象予測ブロックが右下の分割ブロックであり、それ以外の3つの予測ブロック(左上、右上、左下)の動き情報を比較することを意味する。判定が可(比較した動き情報が一致)の場合には、図3の(B)の例で示したように、対象予測ブロックのブロックマージングに用いる動き情報の候補の数が0個となるため、予測情報符号化器116は、ブロックマージング情報を送らずに、動き情報推定器114にて検出した動き情報を符号化し、処理はステップS165に進む(ステップS160)。一方、判定が否(比較した動き情報が不一致)の場合、処理はステップS163に進む。なお、N=4のときは,対象符号化ブロック内の右上と左下のブロックの動き情報が対象予測ブロックの隣接ブロックとなる。そのため、3つの予測ブロック(左上、右上、左下)の動き情報が一致するときに対象予測ブロック(右下)にブロックマージングを適用することは、対象符号化ブロック内の4つの予測ブロックの予測信号が全て同じ動き情報で生成されることを意味する。そのため、N=4で3つの予測ブロック(左上、右上、左下)の動き情報が同じ場合には,対象予測ブロック(右下)の動き情報の候補を0個とする。   In step S157, the prediction information encoder 116 determines whether all the encoded motion information of the target encoded block matches the motion information of the adjacent block that does not belong to the target encoded block. The description of step S157 means that when N = 2, the motion information of the prediction block T1 and the adjacent block D shown in FIG. Further, in the description of step S157, when N = 4 ((D) in FIG. 20), the target prediction block is the lower right divided block, and the other three prediction blocks (upper left, upper right, and lower left). This means comparing the movement information of When the determination is possible (compared motion information matches), the number of motion information candidates used for block merging of the target prediction block is 0 as shown in the example of FIG. 3B. The prediction information encoder 116 encodes the motion information detected by the motion information estimator 114 without sending the block merging information, and the process proceeds to step S165 (step S160). On the other hand, if the determination is negative (compared motion information does not match), the process proceeds to step S163. When N = 4, the motion information of the upper right and lower left blocks in the target coding block becomes the adjacent block of the target prediction block. Therefore, applying block merging to the target prediction block (lower right) when the motion information of the three prediction blocks (upper left, upper right, lower left) matches is the prediction signal of the four prediction blocks in the target coding block. Means that all are generated with the same motion information. Therefore, when N = 4 and the motion information of the three prediction blocks (upper left, upper right, lower left) is the same, the number of motion information candidates of the target prediction block (lower right) is set to zero.

ステップS163では、予測情報符号化器116は、対象符号化ブロックの予測ブロック分割タイプが2分割のタイプであるかを判定し、判定が否の場合には処理はステップS153に進む(以降説明を割愛)。ステップS163の判定が可の場合には処理はステップS158に進み、予測情報符号化器116は、マージ識別情報を符号化する。この場合には、図3の(A)の例のように、対象予測ブロックのブロックマージングに用いる動き情報の候補の数が1個であるため、マージブロック選択情報の符号化は不要である。次いで、対象予測ブロックの動き情報とブロックマージングの動き情報の候補が一致する場合には、処理はステップS165に進む。対象予測ブロックの動き情報とブロックマージングの動き情報の候補が一致しない場合には、処理はステップS160に進み、予測情報符号化器116は、動き情報推定器114にて検出した動き情報を符号化し、処理はステップS165に進む。   In step S163, the prediction information encoder 116 determines whether or not the prediction block division type of the target encoded block is a two-division type. If the determination is negative, the process proceeds to step S153 (hereinafter described). Omitted). If the determination in step S163 is possible, the process proceeds to step S158, and the prediction information encoder 116 encodes the merge identification information. In this case, since the number of motion information candidates used for block merging of the target prediction block is one as in the example of FIG. 3A, encoding of merge block selection information is unnecessary. Next, when the motion information of the target prediction block matches the motion information candidate of block merging, the process proceeds to step S165. If the motion information of the target prediction block does not match the motion information candidate for block merging, the process proceeds to step S160, and the prediction information encoder 116 encodes the motion information detected by the motion information estimator 114. The process proceeds to step S165.

ステップS165では、対象ブロックの動き情報を予測情報用メモリ115に保存する。続いて、予測情報符号化器116は、ステップS161にて対象符号化ブロック内のすべての予測ブロックの符号化が終了したか(i=N-1であるか)を判定し、i=N-1のときは、この対象符号化ブロックの予測情報符号化処理を終了し、i<N-1のときには、ステップS162にてiを更新し(i=i+1)、次の予測ブロックの動き情報符号化処理のためステップS152に戻る。   In step S165, the motion information of the target block is stored in the prediction information memory 115. Subsequently, in step S161, the prediction information encoder 116 determines whether or not encoding of all prediction blocks in the target coding block has been completed (i = N−1), and i = N−. When 1, the prediction information encoding process of the target encoding block is finished. When i <N−1, i is updated in step S162 (i = i + 1), and the motion of the next prediction block The process returns to step S152 for the information encoding process.

このように、下記の情報を用いて予測ブロックのブロックマージングに用いる動き情報の候補を事前に選出できるため、ブロックマージング情報を効率よく伝送することが可能となる。
1)対象符号化ブロック内の符号化済み/復号済み予測ブロックの数
2)対象符号化ブロックの予測ブロック分割タイプ
4)対象符号化ブロック内の符号化済み/復号済み予測ブロックの動き情報
5)対象予測ブロックに隣接するブロックの動き情報と予測モード(画面内予測/画面間予測)
In this manner, motion information candidates used for block merging of a prediction block can be selected in advance using the following information, so that block merging information can be efficiently transmitted.
1) Number of encoded / decoded prediction blocks in target coding block 2) Prediction block division type of target coding block 4) Motion information of encoded / decoded prediction block in target coding block 5) Motion information and prediction mode (intra-screen prediction / inter-screen prediction) of blocks adjacent to the target prediction block

図5は、本実施形態に係る画像予測符号化装置100における画像予測符号化方法の手順を示すフローチャートである。まず、ブロック分割器102にて入力画像を16x16の符号化ブロックに分割する(それ以外の大きさ又は形状のブロックに分割してもよい。また、画面内にサイズの異なるブロックが混在してもよい)。そして、予測ブロック分割タイプ選択器113と動き情報推定器114は、符号化対象となる対象符号化ブロックの予測ブロック分割タイプと各予測ブロックの動き情報を決定する(ステップS101)。次に、予測情報符号化器116が予測情報を符号化する(ステップS102、図4)。   FIG. 5 is a flowchart showing a procedure of an image predictive encoding method in the image predictive encoding device 100 according to the present embodiment. First, the input image is divided into 16 × 16 encoded blocks by the block divider 102 (may be divided into blocks of other sizes or shapes. In addition, blocks of different sizes may be mixed in the screen. Good). Then, the prediction block division type selector 113 and the motion information estimator 114 determine the prediction block division type of the target coding block to be encoded and the motion information of each prediction block (step S101). Next, the prediction information encoder 116 encodes the prediction information (step S102, FIG. 4).

次に、予測信号生成器103では、対象符号化ブロックの予測ブロック分割タイプと各予測ブロックの動き情報に基づいて、対象符号化ブロックの予測信号が生成され、対象符号化ブロックの画素信号と予測信号との差分を示す残差信号は、変換器106、量子化器107及び量子化変換係数符号化器111により変換符号化される(ステップS103)。そして、予測情報と量子化変換係数の符号化データは出力端子112を介して出力される(ステップS104)。   Next, the prediction signal generator 103 generates a prediction signal of the target coding block based on the prediction block division type of the target coding block and the motion information of each prediction block, and the pixel signal of the target coding block and the prediction The residual signal indicating the difference from the signal is transform-coded by the transformer 106, the quantizer 107, and the quantized transform coefficient encoder 111 (step S103). Then, the prediction information and the encoded data of the quantized transform coefficient are output via the output terminal 112 (step S104).

後続の対象符号化ブロックを予測符号化するため、これら処理の後に又はこれらの処理と並行して符号化された残差信号が逆量子化器108及び逆変換器109により復号される。そして、加算器110にて、復号された残差信号と予測信号とが加算され、対象符号化ブロックの信号が再生される。再生信号はフレームメモリ104に参照画面として記憶される(ステップS105)。そして、すべての対象符号化ブロックの処理が完了していない場合には処理はステップS101に戻り、次の対象符号化ブロックに対する処理が行われる。すべての対象符号化ブロックの処理が完了している場合には、処理を終了する(ステップS106)。   In order to predictively encode the subsequent target encoded block, the residual signal encoded after these processes or in parallel with these processes is decoded by the inverse quantizer 108 and the inverse transformer 109. Then, the adder 110 adds the decoded residual signal and the prediction signal to reproduce the signal of the target coding block. The reproduction signal is stored as a reference screen in the frame memory 104 (step S105). If all the target coding blocks have not been processed, the process returns to step S101, and processing for the next target coding block is performed. If all the target coding blocks have been processed, the process ends (step S106).

次に、一実施形態に係る画像予測復号について説明する。図6は、一実施形態に係る画像予測復号装置200を示すブロック図である。この画像予測復号装置200は、入力端子201、データ解析器202、逆量子化器203、逆変換器204、加算器205、出力端子206、量子化変換係数復号器207、予測情報復号器208、フレームメモリ104、予測信号生成器103、予測情報用メモリ115を備えている。   Next, image predictive decoding according to an embodiment will be described. FIG. 6 is a block diagram illustrating an image predictive decoding device 200 according to an embodiment. The image predictive decoding apparatus 200 includes an input terminal 201, a data analyzer 202, an inverse quantizer 203, an inverse transformer 204, an adder 205, an output terminal 206, a quantized transform coefficient decoder 207, a prediction information decoder 208, A frame memory 104, a prediction signal generator 103, and a prediction information memory 115 are provided.

逆量子化器203、逆変換器204及び量子化変換係数復号器207は、残差信号復号手段として機能する。逆量子化器203及び逆変換器204による復号手段は、これらのもの以外を用いて行ってもよい。また、逆変換器204はなくてもよい。また、予測情報用メモリ115と予測情報復号器208は予測情報復号手段として機能する。   The inverse quantizer 203, the inverse transformer 204, and the quantized transform coefficient decoder 207 function as residual signal decoding means. The decoding means by the inverse quantizer 203 and the inverse transformer 204 may be performed using other than these. Further, the inverse converter 204 may not be provided. The prediction information memory 115 and the prediction information decoder 208 function as prediction information decoding means.

入力端子201は、上述した画像予測符号化方法で圧縮符号化された圧縮データを入力する。この圧縮データには、複数に分割された符号化ブロックについて、誤差信号を変換量子化してエントロピー符号化した量子化変換係数の情報と、ブロックの予測信号を生成するための予測情報の符号化データが含まれている。ここで予測情報には、対象符号化ブロックの予測ブロック分割タイプ、予測ブロックの動き情報に加えて、ブロックマージングの候補となる動き情報を用いてブロックマージングを実施するためのブロックマージング情報が含まれる。また、動き情報には、動きベクトル、画面間予測モード(前方向/後方向/双方向)、参照画面番号などが含まれる。   The input terminal 201 inputs compressed data that has been compression-encoded by the above-described image predictive encoding method. The compressed data includes information on quantized transform coefficients obtained by transform-quantizing an error signal and entropy-coding the encoded block divided into a plurality of pieces, and encoded data of prediction information for generating a prediction signal of the block. It is included. Here, the prediction information includes block merging information for performing block merging using motion information that is a candidate for block merging, in addition to the prediction block division type of the target coding block and the motion information of the prediction block. . The motion information includes a motion vector, an inter-screen prediction mode (forward / backward / bidirectional), a reference screen number, and the like.

データ解析器202は、入力端子201に入力された圧縮データを解析し、復号対象の対象符号化ブロックに関して、量子化変換係数の符号化データ、予測情報の符号化データに分離して、ラインL202a、ラインL202b経由で、それぞれ、量子化変換係数復号器207、予測情報復号器208に出力する。   The data analyzer 202 analyzes the compressed data input to the input terminal 201, separates the target coding block to be decoded into encoded data of quantized transform coefficients and encoded data of prediction information, and outputs a line L202a. , Output to the quantized transform coefficient decoder 207 and the prediction information decoder 208, respectively, via the line L202b.

予測情報復号器208は、各予測ブロックのブロックマージングに用いる動き情報の候補を選出すると共に、対象符号化ブロックに付随する予測情報の符号化データをエントロピー復号する。復号された予測情報はラインL208a、ラインL208b経由で、それぞれ予測情報用メモリ115と予測信号生成器103に出力される。予測情報用メモリ115は、入力された予測情報を保存する。予測情報復号器208の処理については後述する。   The prediction information decoder 208 selects motion information candidates to be used for block merging of each prediction block, and entropy-decodes encoded data of prediction information associated with the target encoded block. The decoded prediction information is output to the prediction information memory 115 and the prediction signal generator 103 via the line L208a and the line L208b, respectively. The prediction information memory 115 stores the input prediction information. The processing of the prediction information decoder 208 will be described later.

予測信号生成器103では、ラインL208a経由で入力される対象符号化ブロックの予測情報に基づいて、フレームメモリ104から既再生信号を取得し、対象符号化ブロック内の各予測ブロックの予測信号を生成する。生成された予測信号はラインL103経由で加算器205に出力される。   The prediction signal generator 103 acquires the already reproduced signal from the frame memory 104 based on the prediction information of the target coding block input via the line L208a, and generates a prediction signal of each prediction block in the target coding block. To do. The generated prediction signal is output to the adder 205 via the line L103.

量子化変換係数復号器207は、対象符号化ブロックにおける残差信号の量子化変換係数の符号化データをエントロピー復号し、ラインL207経由で逆量子化器203に出力する。   The quantized transform coefficient decoder 207 entropy-decodes the encoded data of the quantized transform coefficient of the residual signal in the target coding block, and outputs it to the inverse quantizer 203 via the line L207.

逆量子化器203は、ラインL207経由で入力した対象符号化ブロックの残差信号情報を逆量子化する。逆変換器204は、逆量子化したデータを逆離散コサイン変換する。   The inverse quantizer 203 inversely quantizes the residual signal information of the target coding block input via the line L207. The inverse transformer 204 performs inverse discrete cosine transform on the inversely quantized data.

加算器205は、予測信号生成器103で生成された予測信号を、逆量子化器203および逆変換器204により復元された残差信号に加算して、対象符号化ブロックの再生画素信号をラインL205経由で出力端子206およびフレームメモリ104に出力する。出力端子206は、外部に(例えばディスプレイ)出力する。   The adder 205 adds the prediction signal generated by the prediction signal generator 103 to the residual signal restored by the inverse quantizer 203 and the inverse transformer 204, and outputs the reproduced pixel signal of the target coding block. The data is output to the output terminal 206 and the frame memory 104 via L205. The output terminal 206 outputs to the outside (for example, a display).

フレームメモリ104は、次の復号処理のための参照用の再生画像として、加算器205から出力された再生画像を参照画面として記憶する。   The frame memory 104 stores the reproduction image output from the adder 205 as a reference screen as a reference reproduction image for the next decoding process.

図7は、図3の処理を実現する予測情報復号器208のフローチャートである。   FIG. 7 is a flowchart of the prediction information decoder 208 that implements the processing of FIG.

最初に予測情報復号器208は、対象符号化ブロックの予測ブロック分割タイプを復号し、予測情報用メモリ115に保存する。同時に、予測情報復号器208は、復号した予測ブロック分割タイプに基づいて、対象符号化ブロック内の予測ブロック数Nを設定し、対象予測ブロック番号iを0にリセットする(ステップS251)。次に、予測情報復号器208は、対象予測ブロックが対象符号化ブロック内で最後に復号される予測ブロックであり、対象符号化ブロック内の予測ブロック数が2以上であるかを判断する(ステップS252)。例えば、N=2の場合では、i=1のとき、判定が可となり、処理はステップS258に進む。N=4(図20の(D))の場合では、i=3のとき、判定が可となる。判定が否の場合には処理はステップS253に進む。図3では、対象予測ブロックが予測ブロックT1のとき処理はステップS253に進み、対象予測ブロックが予測ブロックT2のとき処理はステップS258に進む。   First, the prediction information decoder 208 decodes the prediction block division type of the target coding block and stores it in the prediction information memory 115. At the same time, the prediction information decoder 208 sets the prediction block number N in the target coding block based on the decoded prediction block division type, and resets the target prediction block number i to 0 (step S251). Next, the prediction information decoder 208 determines whether the target prediction block is the prediction block decoded last in the target coding block, and the number of prediction blocks in the target coding block is 2 or more (step) S252). For example, in the case of N = 2, when i = 1, determination is possible, and the process proceeds to step S258. In the case of N = 4 ((D) in FIG. 20), the determination is possible when i = 3. If the determination is no, the process proceeds to step S253. In FIG. 3, when the target prediction block is the prediction block T1, the process proceeds to step S253, and when the target prediction block is the prediction block T2, the process proceeds to step S258.

ステップS253では、マージ識別情報が復号される。ここで、マージ識別情報が可(merge_flag=1)であるときは、マージ識別情報は、動き情報の候補を用いて対象予測ブロックの予測信号を生成することを示す。一方、マージ識別情報が否(merge_flag=0)であるときは、復号した動き情報を用いて対象予測ブロックの予測信号を生成することを示す。次のステップS254では、予測情報復号器208は、マージ識別情報が動き情報の復号を指示しているか、つまりmerge_flagの値が0であるかを判定する。復号したmerge_flagの値が0の場合には、予測情報復号器208は、対象予測ブロックの予測信号を生成するための動き情報を復号し(ステップS257)、処理はステップS267に進む。merge_flagの値が1の場合には、予測情報復号器208は、ステップS266において、ブロックマージングに用いる動き情報の候補の数が2個であるかを判定し、候補の数が2個の場合にはマージブロック選択情報を復号し、処理はステップS256に進む(ステップS255)。対象予測ブロックのブロックマージングに用いる動き情報の候補の数が1個の場合には、処理はステップS256に進む。ステップS256では、動き情報の候補の数が1個の場合には、予測情報復号器208は、その動き情報を対象予測ブロックの動き情報に決定する。動き情報の候補の数が2個の場合には、予測情報復号器208は、マージブロック選択情報にて指示される隣接ブロックの動き情報を対象予測ブロックの動き情報に決定する。   In step S253, the merge identification information is decoded. Here, when the merge identification information is acceptable (merge_flag = 1), the merge identification information indicates that the prediction signal of the target prediction block is generated using the motion information candidates. On the other hand, when the merge identification information is NO (merge_flag = 0), it indicates that the prediction signal of the target prediction block is generated using the decoded motion information. In the next step S254, the prediction information decoder 208 determines whether the merge identification information indicates decoding of motion information, that is, whether the value of merge_flag is 0. If the decoded merge_flag value is 0, the prediction information decoder 208 decodes motion information for generating a prediction signal of the target prediction block (step S257), and the process proceeds to step S267. When the value of merge_flag is 1, the prediction information decoder 208 determines in step S266 whether the number of motion information candidates used for block merging is two, and when the number of candidates is two. Decodes the merge block selection information, and the process proceeds to step S256 (step S255). When the number of motion information candidates used for block merging of the target prediction block is one, the process proceeds to step S256. In step S256, when the number of motion information candidates is one, the prediction information decoder 208 determines the motion information as the motion information of the target prediction block. When the number of motion information candidates is two, the prediction information decoder 208 determines the motion information of the adjacent block indicated by the merge block selection information as the motion information of the target prediction block.

ステップS258では、予測情報復号器208は、対象符号化ブロックの全ての復号済み動き情報と対象符号化ブロックに属さない隣接ブロックの動き情報が一致するかを判定する。このステップS258の説明は、N=2の場合には、図3に示す予測ブロックT1と隣接ブロックDの動き情報を比較することを意味する。また、このステップS258の説明は、N=4(図20の(D))の場合には、対象予測ブロックが右下の分割ブロックであり、それ以外の3つの予測ブロック(左上、右上、左下)の動き情報を比較することを意味する。判定が可(比較した動き情報が一致)の場合には、図3の(B)の例で示したように、対象予測ブロックのブロックマージングに用いる動き情報の候補の数が0個となるため、予測情報復号器208は、ブロックマージング情報を復号せずに、対象予測ブロックの予測信号生成に用いる動き情報を復号し、処理はステップS267に進む(ステップS262)。一方、判定が否(比較した動き情報が不一致)の場合、処理はステップS265に進む。なお、N=4のときは、対象符号化ブロック内の、右上と左下のブロックの動き情報が対象予測ブロックの隣接ブロックとなる。そのため、3つの予測ブロック(左上、右上、左下)の動き情報が一致するときに対象予測ブロック(右下)にブロックマージングを適用することは、対象符号化ブロック内の4つの予測ブロックの予測信号が全て同じ動き情報で生成されることを意味する。そのため、N=4で3つの予測ブロック(左上、右上、左下)の動き情報が同じ場合には、対象予測ブロック(右下)の動き情報の候補を0個とする。   In step S258, the prediction information decoder 208 determines whether all the decoded motion information of the target coding block matches the motion information of the neighboring block that does not belong to the target coding block. The description of step S258 means that when N = 2, the motion information of the prediction block T1 and the adjacent block D shown in FIG. In the description of step S258, when N = 4 ((D) in FIG. 20), the target prediction block is a lower right divided block, and the other three prediction blocks (upper left, upper right, lower left) ) Motion information. When the determination is possible (compared motion information matches), the number of motion information candidates used for block merging of the target prediction block is 0 as shown in the example of FIG. 3B. The prediction information decoder 208 decodes the motion information used for generating the prediction signal of the target prediction block without decoding the block merging information, and the process proceeds to step S267 (step S262). On the other hand, if the determination is negative (compared motion information does not match), the process proceeds to step S265. When N = 4, the motion information of the upper right and lower left blocks in the target coding block becomes the adjacent block of the target prediction block. Therefore, applying block merging to the target prediction block (lower right) when the motion information of the three prediction blocks (upper left, upper right, lower left) matches is the prediction signal of the four prediction blocks in the target coding block. Means that all are generated with the same motion information. Therefore, when N = 4 and the motion information of the three prediction blocks (upper left, upper right, and lower left) is the same, the number of motion information candidates of the target prediction block (lower right) is set to zero.

ステップS265では、予測情報復号器208は、対象符号化ブロックの予測ブロック分割タイプが2分割のタイプであるかを判定し、判定が否の場合には処理はステップS253に進む(以降説明を割愛)。ステップS265の判定が可の場合には処理はステップS259に進み、予測情報復号器208はマージ識別情報を復号する。この場合、図3の(A)の例のように、対象予測ブロックのブロックマージングに用いる動き情報の候補の数が1個であるため、マージブロック選択情報の復号は不要である。   In step S265, the prediction information decoder 208 determines whether the prediction block division type of the target coding block is a two-division type. If the determination is negative, the process proceeds to step S253 (hereinafter, description is omitted). ). If the determination in step S265 is possible, the process proceeds to step S259, and the prediction information decoder 208 decodes the merge identification information. In this case, since the number of motion information candidates used for block merging of the target prediction block is one as in the example of FIG. 3A, decoding of merge block selection information is unnecessary.

次のステップS260では、予測情報復号器208は、マージ識別情報が動き情報の復号を指示しているか、つまりmerge_flagの値が0であるかを判定する。復号したmerge_flagの値が0の場合には、予測情報復号器208は、対象予測ブロックの予測信号を生成するための動き情報を復号し(ステップS262)、処理はステップS267に進む。merge_flagの値が1の場合には、処理はステップS261に進む。ステップS261では、動き情報の候補が1個であるため、図3の(A)に示すように、予測情報復号器208は、隣接ブロックDの動き情報を対象予測ブロックの動き情報に決定し、処理はステップS267に進む。   In the next step S260, the prediction information decoder 208 determines whether the merge identification information indicates decoding of motion information, that is, whether the value of merge_flag is 0. When the decoded merge_flag value is 0, the prediction information decoder 208 decodes motion information for generating a prediction signal of the target prediction block (step S262), and the process proceeds to step S267. If the value of merge_flag is 1, the process proceeds to step S261. In step S261, since there is one candidate of motion information, as shown in FIG. 3A, the prediction information decoder 208 determines the motion information of the adjacent block D as the motion information of the target prediction block, The process proceeds to step S267.

ステップS267では、復元した予測ブロックの動き情報を予測情報用メモリ115に保存する。続いて、ステップS263にて、予測情報復号器208は、対象符号化ブロック内のすべての予測ブロックの復号が終了したか(i=N-1であるか)を判定し、i=N-1のときは、この対象符号化ブロックの予測情報復号処理を終了し、i<N-1のときには、ステップS264にてiを更新し(i=i+1)、次の予測ブロックの動き情報復号処理のためステップS252に戻る。   In step S267, the motion information of the restored prediction block is stored in the prediction information memory 115. Subsequently, in step S263, the prediction information decoder 208 determines whether or not decoding of all prediction blocks in the target coding block has been completed (i = N−1), and i = N−1. In this case, the prediction information decoding process for the target coding block is terminated. When i <N−1, i is updated in step S264 (i = i + 1), and motion information decoding for the next prediction block is performed. Return to step S252 for processing.

次に、図8を用いて、図6に示す画像予測復号装置200における画像予測復号方法を説明する。まず、入力端子201を介して、圧縮データが入力される(ステップS201)。そして、データ解析器202にて圧縮データのデータ解析を行い、復号対象の対象領域に関する予測情報と量子化変換係数の符号化データを抽出する。予測情報は予測情報復号器208にて復号される(S203)。   Next, the image predictive decoding method in the image predictive decoding apparatus 200 shown in FIG. 6 will be described with reference to FIG. First, compressed data is input via the input terminal 201 (step S201). Then, the data analyzer 202 analyzes the data of the compressed data, and extracts prediction information regarding the target region to be decoded and encoded data of the quantized transform coefficient. The prediction information is decoded by the prediction information decoder 208 (S203).

その後、復元された予測情報に基づいて、予測信号生成器103が対象符号化ブロックの予測信号を生成する(S204)。   Thereafter, based on the restored prediction information, the prediction signal generator 103 generates a prediction signal of the target coding block (S204).

量子化変換係数復号器207にて復号された量子化変換係数は、逆量子化器203において逆量子化され、逆変換器204において逆変換が行われ、再生残差信号が生成される(S205)。そして、生成された予測信号と再生残差信号とが加算されることで再生信号が生成され、この再生信号が次の対象符号化ブロックを再生するためにフレームメモリ104に格納される(ステップS206)。次の圧縮データがある場合には、S204〜S206のプロセスを繰り返し(S207)、全データが最後まで処理される。   The quantized transform coefficient decoded by the quantized transform coefficient decoder 207 is inversely quantized by the inverse quantizer 203 and inversely transformed by the inverse transformer 204 to generate a reproduction residual signal (S205). ). Then, the generated prediction signal and the reproduction residual signal are added to generate a reproduction signal, and this reproduction signal is stored in the frame memory 104 to reproduce the next target coding block (step S206). ). If there is the next compressed data, the process of S204 to S206 is repeated (S207), and all data is processed to the end.

ここまでは、予測ブロックに隣接する隣接ブロックの数は2個以下の例で説明してきたが、次に、予測ブロックの上と左のブロック境界に接する隣接ブロックの数が3個以上の場合に注目する。   Up to this point, the number of adjacent blocks adjacent to the prediction block has been described with an example of 2 or less. Next, when the number of adjacent blocks adjacent to the upper and left block boundaries of the prediction block is 3 or more Focus on it.

図3の例では、予測ブロックに接する隣接ブロックは2個であったが、符号化ブロックとその隣接ブロックの予測ブロック分割タイプの組み合わせによっては、予測ブロックが2つ以上の隣接ブロックと接する場合も発生する。図9は予測ブロックに3つの隣接ブロックが接する場合の例を示している。ここでは図20のブロック301を例に説明するが、ブロック302、304、305、306、307でも同様の説明が可能である。   In the example of FIG. 3, there are two adjacent blocks in contact with the prediction block. However, depending on the combination of the encoded block and the prediction block division type of the adjacent block, the prediction block may be in contact with two or more adjacent blocks. Occur. FIG. 9 shows an example in which three adjacent blocks are in contact with the prediction block. Here, the block 301 in FIG. 20 will be described as an example, but the same description can be applied to the blocks 302, 304, 305, 306, and 307.

図9の(A)と(B)では、対象符号化ブロック400が当該ブロック400を縦に2分割した2つの予測ブロックを有しているのに対して、予測ブロックT1の左辺に接するブロック401は横に2分割(上下の二つのブロックに分割)されている。そのため、予測ブロックT1は3個の隣接ブロックAとBとCに接する。この場合、対象予測ブロックの左上頂点に接する2つの隣接ブロックAとBを代表とするように符号化側と復号側で予め決めておけば、隣接ブロックの数が必ず2個に限定できるため、上記で説明した手法が利用できる。   In (A) and (B) of FIG. 9, the target coding block 400 has two prediction blocks obtained by vertically dividing the block 400 into two blocks, whereas the block 401 in contact with the left side of the prediction block T1. Is divided horizontally into two parts (divided into two upper and lower blocks). Therefore, the prediction block T1 is in contact with three adjacent blocks A, B, and C. In this case, if the encoding side and the decoding side are determined in advance so that the two adjacent blocks A and B in contact with the upper left vertex of the target prediction block are representative, the number of adjacent blocks can be limited to two. The techniques described above can be used.

一方、図9の(B)に示すように、予測ブロックT1を隣接ブロック401の予測ブロック分割タイプに併せて仮想的に横に2分割する手法も利用できる。この場合、対象予測ブロックT1をT1aとT1bに分割し、隣接ブロックAとブロックCに属する2つの動き情報を用いてブロックT1aの予測信号とT1bの予測信号をそれぞれ生成する。   On the other hand, as shown in FIG. 9B, a method of virtually dividing the prediction block T1 horizontally into two in accordance with the prediction block division type of the adjacent block 401 can also be used. In this case, the target prediction block T1 is divided into T1a and T1b, and the prediction signal of the block T1a and the prediction signal of T1b are generated using two pieces of motion information belonging to the adjacent block A and the block C, respectively.

この際、マージブロック選択情報の選択候補を、図9の(A)の隣接ブロックBの動き情報と、図9の(B)の隣接ブロックAとCの動き情報の組み合わせの2つとすれば、ブロックマージング情報の構成を変更することなく、効率良くマージブロック選択情報が符号化できる。   At this time, if the selection candidates of merge block selection information are two combinations of the motion information of the adjacent block B in FIG. 9A and the motion information of the adjacent blocks A and C in FIG. The merge block selection information can be efficiently encoded without changing the configuration of the block merging information.

一方、マージブロック選択情報にて図9の(A)と図9の(B)のいずれかを識別し、図9の(B)を選択した場合には、さらに仮想ブロック毎に第2のマージ識別情報を伝送し、隣接ブロックの動き情報で仮想ブロックの予測信号を生成するか、動き情報を符号化/復号するかを識別するようにしてもよい。   On the other hand, if one of (A) in FIG. 9 and (B) in FIG. 9 is identified by the merge block selection information and (B) in FIG. 9 is selected, the second merge is further performed for each virtual block. The identification information may be transmitted to identify whether the prediction signal of the virtual block is generated based on the motion information of the adjacent block or whether the motion information is encoded / decoded.

なお、予測ブロックT1を分割せずに、予測ブロックT1におけるマージブロック選択情報の選択候補を隣接ブロックAとBとCの3個の動き情報とし、T1の予測信号の生成に用いる動き情報を3個から選択するようにしてもよいが、この場合には下記の変更が必要である。
1.図4のステップS164と図7のステップS266の前に、「隣接ブロックの予測ブロック分割タイプを取得し、予測ブロックの隣接するブロックの数を導出する」フローを追加。
2.図4のステップS164と図7のステップS266を「選択候補の動き情報が2個以上」に変更。
3.マージブロック選択情報は3個以上の候補から1個を選択する情報に拡張。
Note that, without dividing the prediction block T1, the selection candidates of the merge block selection information in the prediction block T1 are the three pieces of motion information of the adjacent blocks A, B, and C, and the motion information used for generating the prediction signal of T1 is 3 You may make it select from an item, However In this case, the following change is required.
1. Before Step S164 in FIG. 4 and Step S266 in FIG. 7, a flow of “obtaining the prediction block division type of the adjacent block and deriving the number of adjacent blocks of the prediction block” is added.
2. Step S164 in FIG. 4 and step S266 in FIG. 7 are changed to “two or more pieces of selection candidate motion information”.
3. Merge block selection information is extended to information for selecting one from three or more candidates.

この図9の(A)と(B)に示すブロックマージングの処理は図7のステップS256を図11に示す処理に拡張することにより実現できる。まず、ステップS256aにて、対象予測ブロックに接する符号化ブロックの予測ブロック分割タイプを取得する。次にステップS256bにて、復号されたマージブロック選択情報が指示するブロック境界に隣接する予測ブロックの数Mを、取得した予測ブロック分割タイプから導出する。例えば、図9の(B)では、M=2となる。さらにステップS256cでは、Mの値が1より大きいかどうかを判断する(M>1)。M>1の場合には、対象予測ブロックをM個の仮想ブロックに分割し、M個の隣接ブロックの動き情報を分割したM個の仮想ブロックに設定する(追加で、仮想ブロック毎にマージ識別情報を送り、動き情報を復号するか否かを判定してもよい)。M=1の場合には、対象予測ブロックの動き情報に、ブロックマージングの候補となる隣接ブロックの動き情報を設定する。   The block merging process shown in FIGS. 9A and 9B can be realized by extending step S256 in FIG. 7 to the process shown in FIG. First, in step S256a, the prediction block division type of the encoded block that contacts the target prediction block is acquired. Next, in step S256b, the number M of prediction blocks adjacent to the block boundary indicated by the decoded merge block selection information is derived from the acquired prediction block division type. For example, in FIG. 9B, M = 2. In step S256c, it is determined whether the value of M is greater than 1 (M> 1). When M> 1, the target prediction block is divided into M virtual blocks, and the motion information of M adjacent blocks is set to the divided M virtual blocks (additionally, merge identification is performed for each virtual block) Information may be sent to determine whether to decode the motion information). When M = 1, the motion information of the adjacent block that is a candidate for block merging is set in the motion information of the target prediction block.

このように図7と図11によれば、図9の例における動き情報の候補の選出は、以下の情報に基づいて実施される。
1)対象符号化ブロック内の符号化済み/復号済み予測ブロックの数
2)対象符号化ブロックの予測ブロック分割タイプ
3)対象予測ブロックに隣接するブロックの予測ブロック分割タイプ
このように、動き情報の候補が3個以上となるケースでは、図3の例による動き情報の候補の選出の際には用いていない3)の情報が利用される。
As described above, according to FIGS. 7 and 11, selection of motion information candidates in the example of FIG. 9 is performed based on the following information.
1) Number of encoded / decoded prediction blocks in the target coding block 2) Prediction block division type of the target coding block 3) Prediction block division type of a block adjacent to the target prediction block In the case where there are three or more candidates, the information 3) that is not used in selecting the motion information candidates according to the example of FIG. 3 is used.

図9の(C)は、予測ブロック400の左辺に隣接するブロックが非対称に2分割されている例を示している。この場合でも、予測ブロックT1を隣接ブロック401の予測ブロック分割タイプに併せて仮想的に横に2分割する(ブロックT1a及びT1bに分割する)手法が利用できる。つまり、図9の(C)の隣接ブロックAとCの動き情報の組み合わせを予測ブロックT1のブロックマージングの動き情報の候補として、対象予測ブロックT1の予測信号を生成できる。   FIG. 9C illustrates an example in which a block adjacent to the left side of the prediction block 400 is asymmetrically divided into two. Even in this case, a method of virtually dividing the prediction block T1 horizontally into two in accordance with the prediction block division type of the adjacent block 401 (division into blocks T1a and T1b) can be used. That is, the prediction signal of the target prediction block T1 can be generated using the combination of the motion information of the adjacent blocks A and C in FIG. 9C as the candidate of the block merging motion information of the prediction block T1.

また、図9の(D)〜(F)に示すように符号化ブロックの予測ブロック分割タイプが図20のブロック300に示すように予測ブロック数が1個のタイプである場合でも、隣接ブロック401の予測ブロック分割タイプに併せて予測ブロックT1(ブロック400)を仮想的に横分割(縦方向に並ぶ複数のブロックに分割)して予測信号を生成する手法が利用できる。さらに図示しないが、隣接ブロック402が縦分割(横方向に並ぶ複数のブロックに分割)されている場合には、隣接ブロック402の予測ブロック分割タイプに併せて予測ブロックT1(ブロック400)を仮想的に縦分割して予測信号を生成する手法が利用できる。   Further, as shown in (D) to (F) of FIG. 9, the adjacent block 401 is used even when the prediction block division type of the encoded block is one type as shown in the block 300 of FIG. 20. In addition to the prediction block division type, a method of generating a prediction signal by virtually dividing the prediction block T1 (block 400) horizontally (dividing into a plurality of blocks arranged in the vertical direction) can be used. Further, although not illustrated, when the adjacent block 402 is vertically divided (divided into a plurality of blocks arranged in the horizontal direction), the prediction block T1 (block 400) is virtually combined with the prediction block division type of the adjacent block 402. A method of generating a prediction signal by vertically dividing into two can be used.

なお、予測ブロックに隣接するブロックに画面内予測ブロック(intra)が含まれる場合でも、予めルールを定めておく事により、予測ブロックを仮想分割して予測信号を生成する手法が利用できる。図10の(A)〜(F)は、予測ブロックの左辺に接する複数の隣接ブロックAとCとEとGに画面内予測ブロック(intra)が含まれる場合の例を示している。隣接ブロックの予測ブロック分割タイプと予測情報に含まれる予測モード(画面間/画面内)に基づいて、隣接ブロックの画面内予測ブロックを動き情報を伴う画面間予測ブロックに仮想的に統合する(図面の太線)。この例では、画面内予測ブロックは、隣接ブロックの左上頂点に近く且つ距離の近い画面間予測ブロックに仮想的に統合される。その結果、予測ブロックT1は、図10の(A)〜(F)に示すように、隣接ブロック内の画面間予測ブロックの数に応じて仮想的に分割される。このように、隣接ブロックに画面内予測ブロック(intra)が含まれる場合でも、隣接ブロック内の画面間予測ブロックの動き情報を用いてブロックマージングによる予測信号の生成が実施できる。   In addition, even when an intra-screen prediction block (intra) is included in a block adjacent to the prediction block, a method of generating a prediction signal by virtually dividing the prediction block by setting a rule in advance can be used. (A) to (F) of FIG. 10 illustrate an example in which a plurality of adjacent blocks A, C, E, and G in contact with the left side of the prediction block include an intra-screen prediction block (intra). Based on the prediction block division type of the adjacent block and the prediction mode (inter-screen / in-screen) included in the prediction information, the intra-screen prediction block of the adjacent block is virtually integrated into the inter-screen prediction block with motion information (drawing) Thick line). In this example, the intra-screen prediction block is virtually integrated into an inter-screen prediction block that is close to the upper left vertex of the adjacent block and close. As a result, the prediction block T1 is virtually divided according to the number of inter-screen prediction blocks in adjacent blocks, as shown in (A) to (F) of FIG. As described above, even when an adjacent block includes an intra-screen prediction block (intra), a prediction signal can be generated by block merging using the motion information of the inter-screen prediction block in the adjacent block.

なお、隣接ブロックの画面内予測ブロックを画面間予測ブロックに統合するルールは限定されない。このような複数のルールを用意し、フレーム毎やスライス毎にルールを選択して符号化するようにしてもよい。
この場合、動き情報の候補の選出は、以下の情報に基づいて実施される。
1)対象符号化ブロック内の符号化済み/復号済み予測ブロックの数
2)対象符号化ブロックの予測ブロック分割タイプ
3)対象予測ブロックに隣接するブロックの予測ブロック分割タイプ
5)対象予測ブロックに隣接するブロックの予測モード(画面内予測/画面間予測)
The rule for integrating the intra-screen prediction block of the adjacent block into the inter-screen prediction block is not limited. A plurality of such rules may be prepared, and the rules may be selected and encoded for each frame or each slice.
In this case, selection of motion information candidates is performed based on the following information.
1) Number of encoded / decoded prediction blocks in the target coding block 2) Prediction block division type of the target coding block 3) Prediction block division type of a block adjacent to the target prediction block 5) Adjacent to the target prediction block Block prediction mode (intra-screen prediction / inter-screen prediction)

図12は、符号化ブロック400と隣接ブロック402が同様に縦に2分割されているが、分割形状が異なる場合の例を示している。この例でも、図12の(A)の予測ブロックT1(ブロックT1a及びT1bを含むブロック)と図12の(B)の予測ブロックT2(ブロックT2a及びT2bを含むブロック)が3個の隣接ブロックを有する。図12の(A)のT1については、図11の処理フローを図7のステップS256に適用することにより、予測ブロックT1を仮想的に縦に2分割したT1aとT1bに、それぞれブロックBaとBbの動き情報を設定したブロックマージングを実施することが可能となる。また、図12の(B)のT2については、次に説明する図13の処理フローを図7のステップS261に適用することで、予測ブロックT2を仮想的に縦に2分割したT2aとT2bに、それぞれブロックBaとBbの動き情報を設定したブロックマージングを実施することが可能となる。この際、仮想ブロック毎に第2のマージ識別情報を伝送し隣接ブロックの動き情報で仮想ブロックの予測信号を生成するか、動き情報を符号化/復号するかを識別するようにしてもよい。   FIG. 12 shows an example in which the encoding block 400 and the adjacent block 402 are similarly divided into two vertically, but the division shapes are different. Also in this example, the prediction block T1 (block including the blocks T1a and T1b) in FIG. 12A and the prediction block T2 (block including the blocks T2a and T2b) in FIG. Have. For T1 in FIG. 12A, by applying the processing flow in FIG. 11 to step S256 in FIG. 7, the prediction block T1 is virtually divided into two vertically by T1a and T1b, and blocks Ba and Bb are respectively obtained. It is possible to perform block merging in which motion information is set. In addition, for T2 in FIG. 12B, the processing flow in FIG. 13 described below is applied to step S261 in FIG. 7, so that the prediction block T2 is virtually divided into two vertically by T2a and T2b. Thus, block merging in which motion information of the blocks Ba and Bb is set can be performed. At this time, the second merge identification information may be transmitted for each virtual block to identify whether a prediction signal of the virtual block is generated based on the motion information of the adjacent block or whether the motion information is encoded / decoded.

なお、予測ブロックT2を分割せずに、予測ブロックT2のブロックマージングに用いる動き情報の候補をブロックBaの動き情報とブロックBbの動き情報の2個とし、ブロックBaの動き情報及びブロックBbの動き情報のうち一つをT2の予測信号の生成に用いる動き情報として選択するようにしてもよいが、その場合には、図7のフローを下記のように拡張する必要がある。
1.図4のステップS158と図7のステップS259の後に、「隣接ブロックの予測ブロック分割タイプを取得し、予測ブロックに隣接するブロックの数を導出する」フローを追加。
2.図4のステップS159と図7のステップS260を「選択候補の動き情報が2個以上」に変更。
3.図4のステップS159と図7のステップS260の後にブロック選択情報の符号化/復号を行うステップを追加。
Note that the motion information candidates used for block merging of the prediction block T2 without dividing the prediction block T2 are the motion information of the block Ba and the motion information of the block Bb, and the motion information of the block Ba and the motion of the block Bb One of the information may be selected as motion information used for generating the prediction signal of T2, but in that case, the flow of FIG. 7 needs to be extended as follows.
1. After Step S158 in FIG. 4 and Step S259 in FIG. 7, a flow of “obtaining the prediction block division type of the adjacent block and deriving the number of blocks adjacent to the prediction block” is added.
2. Step S159 in FIG. 4 and step S260 in FIG. 7 are changed to “two or more pieces of selection candidate motion information”.
3. Steps for encoding / decoding block selection information are added after step S159 in FIG. 4 and step S260 in FIG.

以下、図13のフローについて説明する。図13では、まず、ステップS261aにて、対象予測ブロックに接する符号化ブロックの予測ブロック分割タイプを取得する。次にステップS261bにて、対象符号化ブロックに属さない隣接ブロックが接するブロック境界に隣接する予測ブロックの数Mを、取得した予測ブロック分割タイプから導出する。例えば、図12の(B)に示す場合では、M=2となる。さらに、ステップS261cでは、Mの値が1より大きいか否かを判断する(M>1)。M>1の場合には、対象予測ブロックをM個の仮想ブロックに分割し、M個の隣接ブロックの動き情報を、分割したM個の仮想ブロックに設定する(追加で、仮想ブロック毎にマージ識別情報を送り、動き情報を復号するか否かを判定してもよい)。M=1の場合には、対象予測ブロックの動き情報としてブロックマージングの候補となる隣接ブロックの動き情報を設定する。   Hereinafter, the flow of FIG. 13 will be described. In FIG. 13, first, in step S <b> 261 a, the prediction block division type of the encoded block that contacts the target prediction block is acquired. Next, in step S261b, the number M of prediction blocks adjacent to the block boundary adjacent to the adjacent block that does not belong to the target coding block is derived from the acquired prediction block division type. For example, in the case shown in FIG. 12B, M = 2. In step S261c, it is determined whether or not the value of M is greater than 1 (M> 1). When M> 1, the target prediction block is divided into M virtual blocks, and the motion information of M adjacent blocks is set in the divided M virtual blocks (additionally merged for each virtual block) The identification information may be sent to determine whether or not to decode the motion information). When M = 1, the motion information of the adjacent block that is a candidate for block merging is set as the motion information of the target prediction block.

このように図12と図13によれば、図11の例における動き情報の候補の選出は、以下の情報に基づいて実施される。
1)対象符号化ブロック内の符号化済み/復号済み予測ブロックの数
2)対象符号化ブロックの予測ブロック分割タイプ
3)対象予測ブロックに隣接するブロックの予測ブロック分割タイプ
なお、図11では、縦分割の例を説明したが、図20のブロック306と307のように横分割(縦方向に並ぶ複数のブロックに分割)の例にも同様の処理が適用できる。
As described above, according to FIGS. 12 and 13, the selection of motion information candidates in the example of FIG. 11 is performed based on the following information.
1) Number of encoded / decoded predicted blocks in target coding block 2) Predicted block partition type of target coded block 3) Predicted block partition type of block adjacent to target predicted block In FIG. Although an example of division has been described, the same processing can be applied to an example of horizontal division (division into a plurality of blocks arranged in the vertical direction) as in blocks 306 and 307 in FIG.

さらに下記の変形が可能である。   Further, the following modifications are possible.

(動き情報の候補)   (Candidate for motion information)

上述の説明では、予測ブロックの上辺と左辺に接するブロックの動き情報をブロックマージングの候補としているが、図14の(A)及び(B)並びに図15の(A)に示すように、対象符号化ブロックと隣接ブロックの予測ブロック分割タイプに基づいて、制限をかけることも可能である。図14の(A)と(B)は、2つの隣接ブロックが存在する場合に、予測ブロックの上辺と左辺のうち2個以上の隣接ブロックが接する辺の隣接ブロックの動き情報をブロックマージングの候補から除外する例を示している。この場合、マージブロック選択情報の符号化は不要となるため、付加情報が削減できる。図14の(A)の予測ブロックT1と図14の(B)の予測ブロックT1のブロックマージングに用いる動き情報の候補は、それぞれブロックBとブロックAの動き情報に確定する。   In the above description, the motion information of the block that is in contact with the upper side and the left side of the prediction block is used as a candidate for block merging. However, as shown in FIGS. 14A and 14B and FIG. It is also possible to apply a restriction based on the prediction block division type of the generalized block and adjacent blocks. 14A and 14B show block merging candidates using motion information of adjacent blocks on the side where two or more adjacent blocks are in contact between the upper side and the left side of the prediction block when two adjacent blocks exist. An example to be excluded from is shown. In this case, encoding of merge block selection information becomes unnecessary, and additional information can be reduced. Motion information candidates used for block merging of the prediction block T1 of FIG. 14A and the prediction block T1 of FIG. 14B are determined as the motion information of block B and block A, respectively.

図15の(A)は、対象符号化ブロックの予測ブロック分割タイプにより、予測ブロックT1とT2のブロックマージングに用いる動き情報の候補を自動的に選出する手法を示している。   FIG. 15A shows a method of automatically selecting motion information candidates used for block merging of the prediction blocks T1 and T2 according to the prediction block division type of the target coding block.

図15の(B)は、対象符号化ブロックの予測ブロック分割タイプと対象符号化ブロック内の符号化/復号済みブロックの数に応じて、ブロックマージングを適用する予測ブロックを制限する例を示している。図3に示す例では、ブロックT1とブロックDの動き情報が一致する場合に、ブロックT2のブロックマージングに用いる動き情報の候補からブロックDの動き情報を除外しているが、図15の(A)に示す例では、ブロックT1とブロックDの動き情報を比較することなく、対象符号化ブロック内の符号化/復号済み予測ブロックの数により、ブロックDをブロックマージングの候補から除外している。このように、対象符号化ブロックにて符号化する動きベクトルの数により、ブロックマージングを適用する予測ブロックを制限してもよい。   FIG. 15B shows an example in which the prediction block to which block merging is applied is limited according to the prediction block division type of the target coding block and the number of encoded / decoded blocks in the target coding block. Yes. In the example shown in FIG. 3, when the motion information of the block T1 and the block D match, the motion information of the block D is excluded from the motion information candidates used for the block merging of the block T2. In the example shown in (2), without comparing the motion information of the block T1 and the block D, the block D is excluded from the block merging candidates based on the number of encoded / decoded predicted blocks in the target encoded block. Thus, the prediction block to which block merging is applied may be limited by the number of motion vectors encoded in the target encoding block.

さらに、予測ブロックの左上端に接する2つの隣接ブロックのブロックサイズと予測ブロックのブロックサイズによって、制限をかけることも可能である。例えば、対象予測ブロックの左辺に接する隣接ブロックの右辺のサイズが、予め設定した大きさ(例えば、予測ブロックの左辺の幅の半分や1/4)より小さい場合には、その隣接ブロックの動き情報を対象予測ブロックのブロックマージングの候補から除外することも可能である。   Furthermore, it is also possible to apply a restriction depending on the block size of two adjacent blocks in contact with the upper left corner of the prediction block and the block size of the prediction block. For example, when the size of the right side of an adjacent block that touches the left side of the target prediction block is smaller than a preset size (for example, half or 1/4 of the width of the left side of the prediction block), the motion information of the adjacent block Can be excluded from the block merging candidates of the target prediction block.

このように、動き情報の候補を制限することにより、ブロックマージング情報の符号量が削減できる。   In this way, by restricting motion information candidates, the code amount of block merging information can be reduced.

(動き情報の候補の選出)   (Selection of motion information candidates)

動き情報の候補の選出は、以下の情報に基づいて実施するが、その利用方法は上記で説明した方法に限定されない。これらの情報を用いて動き情報の候補を選出する手段は図1並びに図6の構成にて実施できる。
1)対象符号化ブロック内の符号化済み/復号済み予測ブロックの数
2)対象符号化ブロックの予測ブロック分割タイプ
3)対象予測ブロックに隣接するブロックの予測ブロック分割タイプ
4)対象符号化ブロック内の符号化済み/復号済み予測ブロックの動き情報
5)対象予測ブロックに隣接するブロックの動き情報と予測モード(画面内予測/画面間予測)
Selection of motion information candidates is performed based on the following information, but the method of use is not limited to the method described above. Means for selecting motion information candidates using these pieces of information can be implemented by the configuration shown in FIGS.
1) Number of encoded / decoded prediction blocks in the target coding block 2) Prediction block division type of the target coding block 3) Prediction block division type of a block adjacent to the target prediction block 4) In the target coding block 5) Motion information and prediction mode of the block adjacent to the target prediction block (intra prediction / inter prediction)

(予測ブロックの符号化)   (Coding of prediction block)

上述した説明では、符号化ブロック内の予測ブロックの符号化/復号は、ラスタスキャン順で実施しているが、上に説明したブロックマージングに利用する動き情報の候補の選出は、任意の順序で予測ブロックが符号化/復号される場合にも適用可能である。例えば、図3の例で、対象符号化ブロック400の予測ブロックT2を先に符号化/復号する場合には、予測ブロックT2の動きベクトルは、予測ブロックT1のブロックマージングに用いる動き情報の候補には含めない。   In the above description, encoding / decoding of the prediction block in the encoding block is performed in the raster scan order, but selection of motion information candidates used for the block merging described above is performed in an arbitrary order. The present invention is also applicable when a prediction block is encoded / decoded. For example, in the example of FIG. 3, when the prediction block T2 of the target encoding block 400 is encoded / decoded first, the motion vector of the prediction block T2 is used as a candidate of motion information used for block merging of the prediction block T1. Is not included.

(ブロックの形状)   (Block shape)

上述した説明では、符号化ブロック内の部分領域は常に矩形であったが、任意の形状であってもよい。この場合、符号化ブロックの予測情報に形状情報を含めてもよい。   In the above description, the partial area in the coding block is always rectangular, but may be any shape. In this case, shape information may be included in the prediction information of the encoded block.

(変換器、逆変換器)   (Converter, Inverter)

残差信号の変換処理は、固定のブロックサイズで行っても良いし、部分領域にあわせて対象領域を再分割して変換処理を行ってもよい。   The residual signal conversion process may be performed with a fixed block size, or the target area may be subdivided according to the partial area and the conversion process may be performed.

(予測情報)   (Forecast information)

上述した説明では、予測信号の生成方法を画面間予測(動きベクトルと参照画面情報を利用する予測)として説明したが、予測信号の生成方法はこれに限定されない。画面内予測や、輝度補償などを含む予測方法にも上述した予測信号生成処理は適用可能である。この場合、モード情報や輝度補償パラメータなどが予測情報に含まれる。   In the above description, the prediction signal generation method is described as inter-screen prediction (prediction using a motion vector and reference screen information), but the prediction signal generation method is not limited to this. The prediction signal generation processing described above can also be applied to prediction methods including intra prediction and luminance compensation. In this case, mode information, luminance compensation parameters, and the like are included in the prediction information.

図10では、隣接ブロック内の画面内予測ブロックを画面間予測ブロックに仮想的に統合するが、隣接ブロックの予測モードに関わらず、予測ブロックを仮想的に分割し、画面内予測にて予測ブロック内の部分信号を予測するようにしてもよい。   In FIG. 10, the intra-screen prediction block in the adjacent block is virtually integrated into the inter-screen prediction block, but the prediction block is virtually divided regardless of the prediction mode of the adjacent block, and the prediction block is determined by the intra-screen prediction. The partial signal may be predicted.

(色信号)   (Color signal)

上述した説明では、色フォーマットについては特に述べていないが、色信号あるいは色差信号についても、輝度信号と個別に予測信号の生成処理を行ってもよい。また、輝度信号の処理と連動して予測信号の生成処理を行ってもよい。   In the above description, the color format is not particularly described, but the prediction signal generation processing may be performed separately from the luminance signal for the color signal or the color difference signal. Further, the prediction signal generation processing may be performed in conjunction with the luminance signal processing.

(ブロックノイズ除去処理)   (Block noise removal processing)

上述した説明では述べていないが、再生画像に対してブロックノイズ除去処理を行う場合には、部分領域の境界部分に対してノイズ除去処理を行うとよい。図9、図10、図12に示した例において予測ブロックを仮想的に分割する場合には、仮想的に分割したブロックの境界にもブロックノイズ除去処理を適用してもよい。   Although not described in the above description, when the block noise removal process is performed on the reproduced image, the noise removal process may be performed on the boundary portion of the partial region. When the prediction block is virtually divided in the examples shown in FIGS. 9, 10, and 12, the block noise removal process may be applied to the boundaries of the virtually divided blocks.

本実施形態に係る画像予測符号化方法及び画像予測復号方法を、プログラムとして記録媒体に格納して提供することもできる。記録媒体としては、フロッピーディスク(登録商標)、CD−ROM、DVD、あるいはROM等の記録媒体、あるいは半導体メモリ等が例示される。   The image predictive encoding method and the image predictive decoding method according to the present embodiment can be provided by being stored in a recording medium as a program. Examples of the recording medium include a recording medium such as a floppy disk (registered trademark), CD-ROM, DVD, or ROM, or a semiconductor memory.

図16は、画像予測符号化方法を実行することができるプログラムのモジュールを示すブロック図である。画像予測符号化プログラムP100は、ブロック分割モジュールP101、動き情報推定モジュールP102、予測信号生成モジュールP103、記憶モジュールP104、減算モジュールP105、変換モジュールP106、量子化モジュールP107、逆量子化モジュールP108、逆変換モジュールP109、加算モジュールP110、量子化変換係数符号化モジュールP111、予測分割タイプ選択モジュールP112、予測情報記憶モジュールP113、及び予測情報符号化モジュールP114を備えている。上記各モジュールがコンピュータで実行されることにより実現される機能は、上述した画像予測符号化装置100の機能と同じである。すなわち、ブロック分割モジュールP101、動き情報推定モジュールP102、予測信号生成モジュールP103、記憶モジュールP104、減算モジュールP105、変換モジュールP106、量子化モジュールP107、逆量子化モジュールP108、逆変換モジュールP109、加算モジュールP110、量子化変換係数符号化モジュールP111、予測分割タイプ選択モジュールP112、予測情報記憶モジュールP113、予測情報符号化モジュールP114は、ブロック分割器102、動き情報推定器114、予測信号生成器103、フレームメモリ104、減算器105、変換器106、量子化器107、逆量子化器108、逆変換器109、加算器110、量子化変換係数符号化器111、予測ブロック分割タイプ選択器113、予測情報用メモリ115、予測情報符号化器116とそれぞれ同様の機能をコンピュータに実行させる。   FIG. 16 is a block diagram illustrating modules of a program that can execute the image predictive coding method. The image predictive coding program P100 includes a block division module P101, a motion information estimation module P102, a prediction signal generation module P103, a storage module P104, a subtraction module P105, a transform module P106, a quantization module P107, an inverse quantization module P108, and an inverse transform. A module P109, an addition module P110, a quantized transform coefficient encoding module P111, a prediction division type selection module P112, a prediction information storage module P113, and a prediction information encoding module P114 are provided. The functions realized by the above modules being executed by a computer are the same as the functions of the image predictive coding apparatus 100 described above. That is, block division module P101, motion information estimation module P102, prediction signal generation module P103, storage module P104, subtraction module P105, transform module P106, quantization module P107, inverse quantization module P108, inverse transform module P109, addition module P110 , Quantized transform coefficient encoding module P111, prediction division type selection module P112, prediction information storage module P113, prediction information encoding module P114, block divider 102, motion information estimator 114, prediction signal generator 103, frame memory 104, subtractor 105, converter 106, quantizer 107, inverse quantizer 108, inverse transformer 109, adder 110, quantized transform coefficient encoder 111, prediction block division type selector 13, the prediction information memory 115, respectively to perform the same functions in a computer and the prediction information encoder 116.

また、図17は、画像予測復号方法を実行することができるプログラムのモジュールを示すブロック図である。画像予測復号プログラムP200は、量子化変換係数復号モジュールP201、予測情報復号モジュールP202,予測情報記憶モジュールP113、逆量子化モジュールP206、逆変換モジュールP207、加算モジュールP208、予測信号生成モジュールP103及び記憶モジュールP104を備えている。   FIG. 17 is a block diagram showing modules of a program that can execute the image predictive decoding method. The image predictive decoding program P200 includes a quantized transform coefficient decoding module P201, a prediction information decoding module P202, a prediction information storage module P113, an inverse quantization module P206, an inverse transform module P207, an addition module P208, a prediction signal generation module P103, and a storage module. P104 is provided.

上記各モジュールが実行されることにより実現される機能は、上述した画像予測復号装置200の各構成要素と同じである。すなわち、量子化変換係数復号モジュールP201、予測情報復号モジュールP202,予測情報記憶モジュールP113、逆量子化モジュールP206、逆変換モジュールP207、加算モジュールP208、予測信号生成モジュールP103、記憶モジュールP104は、量子化変換係数復号器207、予測情報復号器208、予測情報用メモリ115、逆量子化器203、逆変換器204、加算器205、予測信号生成器103、フレームメモリ104と、それぞれ同様の機能をコンピュータに実行させる。   The functions realized by executing the modules are the same as those of the components of the image predictive decoding apparatus 200 described above. That is, the quantization transform coefficient decoding module P201, the prediction information decoding module P202, the prediction information storage module P113, the inverse quantization module P206, the inverse transformation module P207, the addition module P208, the prediction signal generation module P103, and the storage module P104 are quantized. The transform coefficient decoder 207, the prediction information decoder 208, the prediction information memory 115, the inverse quantizer 203, the inverse transformer 204, the adder 205, the prediction signal generator 103, and the frame memory 104 have the same functions. To run.

このように構成された画像予測符号化プログラムP100または画像予測復号プログラムP200は、記録媒体SMに記憶され、後述するコンピュータで実行される。   The image predictive encoding program P100 or the image predictive decoding program P200 configured as described above is stored in the recording medium SM and executed by a computer described later.

図18は、記録媒体に記録されたプログラムを実行するためのコンピュータのハードウェア構成を示す図であり、図19は、記録媒体に記憶されたプログラムを実行するためのコンピュータの斜視図である。なお、記録媒体に記憶されたプログラムを実行するものはコンピュータに限定されず、CPUを具備しソフトウエアによる処理や制御を行なうDVDプレーヤ、セットトップボックス、携帯電話などでもよい。   FIG. 18 is a diagram illustrating a hardware configuration of a computer for executing a program recorded in a recording medium, and FIG. 19 is a perspective view of the computer for executing a program stored in the recording medium. Note that a program that executes a program stored in a recording medium is not limited to a computer, and may be a DVD player, a set-top box, a mobile phone, or the like that includes a CPU and performs processing and control by software.

図19に示すように、コンピュータC10は、フロッピーディスクドライブ装置、CD−ROMドライブ装置、DVDドライブ装置等の読取装置C12と、オペレーティングシステムを常駐させた作業用メモリ(RAM)C14と、記録媒体SMに記憶されたプログラムを記憶するメモリC16と、ディスプレイといった表示装置C18と、入力装置であるマウスC20及びキーボードC22と、データ等の送受を行うための通信装置C24と、プログラムの実行を制御するCPU C26とを備えている。コンピュータC10は、記録媒体SMが読取装置C12に挿入されると、読取装置C12から記録媒体SMに格納された画像予測符号化・復号プログラムにアクセス可能になり、当該画像符号化又は復号プログラムによって、本実施形態に係る画像符号化装置又は画像復号装置として動作することが可能になる。   As shown in FIG. 19, a computer C10 includes a reading device C12 such as a floppy disk drive device, a CD-ROM drive device, a DVD drive device, a working memory (RAM) C14 in which an operating system is resident, and a recording medium SM. A memory C16 for storing the program stored in the memory, a display device C18 such as a display, a mouse C20 and a keyboard C22 as input devices, a communication device C24 for transmitting and receiving data and the like, and a CPU for controlling execution of the program C26. When the recording medium SM is inserted into the reading device C12, the computer C10 can access the image predictive encoding / decoding program stored in the recording medium SM from the reading device C12, and according to the image encoding or decoding program, It becomes possible to operate as an image encoding device or an image decoding device according to the present embodiment.

図18に示すように、画像予測符号化プログラム及び画像復号プログラムは、搬送波に重畳されたコンピュータデータ信号CWとしてネットワークを介して提供されるものであってもよい。この場合、コンピュータC10は、通信装置C24によって受信した画像予測符号化プログラムもしくは画像復号プログラをメモリC16に格納し、当該画像予測符号化プログラムもしくは画像予測復号プログラムを実行することができる。   As shown in FIG. 18, the image predictive encoding program and the image decoding program may be provided via a network as a computer data signal CW superimposed on a carrier wave. In this case, the computer C10 can store the image predictive coding program or the image decoding program received by the communication device C24 in the memory C16, and can execute the image predictive coding program or the image predictive decoding program.

以下、更に別の実施形態について説明する。図24は、一実施形態に係る動画像符号化装置の構成を概略的に示す図である。図24に示す動画像符号化装置10は、ブロック分割器501、小区画生成器502、フレームメモリ503、動き検出器504、予測信号生成器505、動き予測器506、減算器507、残差信号生成器508、変換器509、量子化器510、逆量子化器511、逆変換器512、加算器513、及び、エントロピー符号化器514を備えている。この動画像符号化装置10に入力される入力映像信号(動画像信号)は、フレーム単位の画像信号(以下、フレーム画像信号)の時間系列で構成されている。   Hereinafter, another embodiment will be described. FIG. 24 is a diagram schematically illustrating a configuration of a video encoding device according to an embodiment. The moving picture encoding apparatus 10 shown in FIG. 24 includes a block divider 501, a small section generator 502, a frame memory 503, a motion detector 504, a prediction signal generator 505, a motion predictor 506, a subtractor 507, a residual signal. A generator 508, a converter 509, a quantizer 510, an inverse quantizer 511, an inverse transformer 512, an adder 513, and an entropy encoder 514 are provided. An input video signal (moving image signal) input to the moving image encoding apparatus 10 is composed of a time series of image signals (hereinafter referred to as frame image signals) in units of frames.

ブロック分割器501は、ラインL501経由で入力された入力映像信号から符号化処理の対象となるフレーム画像信号、即ち入力画像を順次選択する。ブロック分割器501は、入力画像を複数の区画、即ちブロックに分割する。ブロック分割器501は、複数のブロックを、符号化処理の対象ブロックとして順次選択して、当該対象ブロックの画素信号(以下、対象ブロック信号)を、ラインL502経由で、出力する。   The block divider 501 sequentially selects a frame image signal to be encoded, that is, an input image, from the input video signal input via the line L501. The block divider 501 divides the input image into a plurality of sections, that is, blocks. The block divider 501 sequentially selects a plurality of blocks as target blocks for encoding processing, and outputs pixel signals of the target blocks (hereinafter referred to as target block signals) via a line L502.

動画像符号化装置10では、ブロック単位で以下の符号化処理が行われる。なお、ブロック分割器501は、例えば、入力画像を8×8の画素の複数のブロックに分割し得る。しかしながら、ブロックの大きさ及び形状は任意のものであってもよい。ブロックは、例えば32×16の画素のブロック、16×64の画素のブロックであってもよい。   In the moving image encoding device 10, the following encoding processing is performed in units of blocks. Note that the block divider 501 can divide an input image into a plurality of blocks of 8 × 8 pixels, for example. However, the size and shape of the block may be arbitrary. The block may be, for example, a 32 × 16 pixel block or a 16 × 64 pixel block.

小区画生成器502は、ラインL502経由で入力される対象ブロックを複数の小区画に区切る。図25は、小区画の生成を説明するための図である。図25に示すように、小区画生成器502は、式(1)の1次式で記載される直線Lnによって対象ブロックPを二つの小区画SP1及びSP2に区切る。
y=mx+k・・・(1)
The small section generator 502 divides the target block input via the line L502 into a plurality of small sections. FIG. 25 is a diagram for explaining generation of a small section. As shown in FIG. 25, the small section generator 502 divides the target block P into two small sections SP1 and SP2 by a straight line Ln described by the linear expression of Expression (1).
y = mx + k (1)

例えば、小区画生成器502は、パラメータm及びkを変更しつつ、小区画SP1の予測信号及び小区画SP2の予測信号を求め、小区画SP1の予測信号と小区画SP1の画像信号との間の誤差、及び、小区画SP2の予測信号と小区画SP2の画像信号との間の誤差を最小とするm及びkを、直線Lnのパラメータとして決定することができる。   For example, the small block generator 502 obtains the prediction signal of the small block SP1 and the prediction signal of the small block SP2 while changing the parameters m and k, and between the prediction signal of the small block SP1 and the image signal of the small block SP1. And m and k that minimize the error between the prediction signal of the small section SP2 and the image signal of the small section SP2 can be determined as parameters of the straight line Ln.

小区画生成器502は、対象ブロックP内の小区画の形状を特定するための形状情報、即ち、第1小区画SP1と第2小区画SP2の形状を特定するための形状情報として、決定した式(1)におけるパラメータm及びkを、ラインL504経由で出力する。   The small section generator 502 determines the shape information for specifying the shape of the small section in the target block P, that is, the shape information for specifying the shapes of the first small section SP1 and the second small section SP2. The parameters m and k in the equation (1) are output via the line L504.

なお、直線Lnを表す1次式は任意のものであってもよい。例えば、直線Lnは、式(2)に示すように表現されてもよい。
y=−x/tanθ+ρ/sinθ・・・(2)
この場合には、形状情報は、θとρである。
The linear expression representing the straight line Ln may be arbitrary. For example, the straight line Ln may be expressed as shown in Expression (2).
y = −x / tan θ + ρ / sin θ (2)
In this case, the shape information is θ and ρ.

また、形状情報は、直線Lnが通る任意の2点、例えば直線とブロックPの境界との交点を示す情報であってもよい。また、ブロックは必ずしも直線で区切られる必要はなく、予め用意された複数のパターンの中から選択されるパターンに基づき、小区画が生成されてもよい。この場合には、選択されたパターンを特定するインデックスといった情報が形状情報として利用され得る。   Further, the shape information may be information indicating any two points along which the straight line Ln passes, for example, the intersection of the straight line and the boundary of the block P. Further, the blocks do not necessarily have to be separated by straight lines, and small sections may be generated based on a pattern selected from a plurality of patterns prepared in advance. In this case, information such as an index for specifying the selected pattern can be used as the shape information.

以下の説明では、対象ブロックの最も左上の位置が原点となるように座標を設定し、対象ブロックP内の最も左上の画素を含む小区画を第1小区画、他方を第2小区画という。しかしながら、任意の方法、例えば対象ブロック内の中心の位置を含まない小区画を第1小区画、他方を第2小区画としてもよい。この場合には、形状情報はブロック境界の交点情報やパターンの識別情報としてもよい。   In the following description, coordinates are set so that the upper left position of the target block is the origin, and the small section including the upper left pixel in the target block P is referred to as a first small section, and the other is referred to as a second small section. However, an arbitrary method, for example, a small section that does not include the center position in the target block may be the first small section, and the other may be the second small section. In this case, the shape information may be block boundary intersection information or pattern identification information.

フレームメモリ503は、ラインL505経由で入力される既再生の画像信号、即ち、過去に符号化済みのフレーム画像信号(以下、参照フレーム画像信号)を格納する。また、フレームメモリ503は、ラインL506経由で参照フレーム画像信号を出力する。   The frame memory 503 stores a previously reproduced image signal input via the line L505, that is, a frame image signal that has been encoded in the past (hereinafter referred to as a reference frame image signal). The frame memory 503 outputs a reference frame image signal via the line L506.

動き検出器504は、ラインL502を介して入力される対象ブロック信号と、ラインL504を介して入力されるブロックの形状情報と、ラインL506を介して入力される参照フレーム画像信号を受け取る。動き検出器504は、参照フレーム画像信号の所定範囲内の画像信号から、処理対象の小区画の画像信号に類似した信号を探索し、動きベクトルを算出する。この動きベクトルは、処理対象の小区画の画像信号に類似した画素信号を有する参照フレーム画像信号内の領域と対象ブロックとの間の空間的な変位量である。動き検出器504は、算出した動きベクトルを、ラインL507経由で出力する。   The motion detector 504 receives a target block signal input via the line L502, block shape information input via the line L504, and a reference frame image signal input via the line L506. The motion detector 504 searches for a signal similar to the image signal of the small section to be processed from image signals within a predetermined range of the reference frame image signal, and calculates a motion vector. This motion vector is a spatial displacement amount between a region in the reference frame image signal having a pixel signal similar to the image signal of the small section to be processed and the target block. The motion detector 504 outputs the calculated motion vector via the line L507.

なお、動き検出器504は、同時に、対象ブロックについても動きベクトルを検出し、対象ブロックを二つの小区画に区切って予測信号を生成するか否かを判断してもよい。この判断は、対象ブロックの予測信号と対象ブロックの画像信号との間の誤差が、当該対象ブロックを二つの小区画に区切って生成した予測信号と二つの小区画の画像信号との間の誤差より小さい場合には、対象ブロックを小区画に区切らないという判断をなすものであってもよい。このような判断を行う場合には、判断の結果を示す情報を区画可否情報として符号化し、区画可否情報が対象ブロックを小区画に区切ることを示しているときにのみ、形状情報を符号化し得る。   Note that the motion detector 504 may simultaneously detect a motion vector for the target block and determine whether to generate a prediction signal by dividing the target block into two small sections. In this determination, the error between the prediction signal of the target block and the image signal of the target block is the error between the prediction signal generated by dividing the target block into two small sections and the image signal of the two small sections. If it is smaller, it may be determined not to divide the target block into small sections. When making such a determination, the information indicating the result of the determination is encoded as the partitioning permission / inhibition information, and the shape information can be encoded only when the partitioning permission / inhibition information indicates that the target block is divided into small sections. .

予測信号生成器505は、ラインL506経由で入力される参照フレーム画像信号の所定範囲内の画像信号から、ラインL507経由で入力される動きベクトルとラインL504経由で入力されるブロックの形状情報に基づいて、処理対象の小区画の画像信号の予測信号を生成する。   The prediction signal generator 505 is based on the motion vector input via the line L507 and the block shape information input via the line L504 from the image signal within the predetermined range of the reference frame image signal input via the line L506. Thus, a prediction signal of the image signal of the small section to be processed is generated.

予測信号生成器505は、対象ブロック内の各小区画の予測信号を合成することにより、当該対象ブロックの予測信号を生成する。予測信号生成器505は、生成した予測信号を、ラインL508経由で出力する。なお、予測信号は、画面間予測に代えて画面内予測によって生成されてもよい。   The prediction signal generator 505 generates a prediction signal of the target block by synthesizing the prediction signals of the small sections in the target block. The prediction signal generator 505 outputs the generated prediction signal via the line L508. Note that the prediction signal may be generated by intra-screen prediction instead of inter-screen prediction.

動き予測器506は、ラインL504経由で入力されるブロックの形状情報、ラインL507経由で入力された動きベクトル、及び、処理対象の小区画よりより順で前のブロック又は小区画である処理済みの部分領域の動きベクトルに基づいて、対象ブロック内の処理対象の小区画の予測動きベクトルを生成する。動き予測器506は、生成した予測動きベクトルを、ラインL509経由で出力する。   The motion predictor 506 has processed the shape information of the block input via the line L504, the motion vector input via the line L507, and the processed block that is the previous block or small block in order from the small block to be processed. Based on the motion vector of the partial area, a predicted motion vector of the processing target small section in the target block is generated. The motion predictor 506 outputs the generated predicted motion vector via the line L509.

動き予測器506は、複数の予測動きベクトルの候補から一つの予測動きベクトルを選択し得る。この場合に、動き予測器506は、選択した一つの予測動きベクトルを特定する指示情報もラインL510経由で出力する。なお、復号側と共有した所定の規則に従い処理対象の小区画の予測動きベクトルの候補を一つに絞り込むことにより、指示情報の出力は省略することもできる。   The motion predictor 506 may select one predicted motion vector from a plurality of predicted motion vector candidates. In this case, the motion predictor 506 also outputs instruction information for specifying one selected predicted motion vector via the line L510. Note that the output of the instruction information can be omitted by narrowing down the predicted motion vector candidates of the processing target sub-partition to one according to a predetermined rule shared with the decoding side.

減算器507はラインL507経由で入力される処理対象の小区画の動きベクトルから、ラインL509経由で入力される予測動きベクトルを減算して、差分動きベクトルを生成する。減算器507は、生成した差分動きベクトルを、ラインL511経由で出力する。   The subtractor 507 subtracts the predicted motion vector input via the line L509 from the motion vector of the processing target small block input via the line L507 to generate a differential motion vector. The subtractor 507 outputs the generated differential motion vector via the line L511.

残差信号生成器508は、ラインL502経由で入力された対象ブロック信号から、ラインL508経由で入力された対象ブロックの予測信号を減算して、残差信号を生成する。残差信号生成器508は、生成した残差信号を、ラインL512経由で出力する。   The residual signal generator 508 generates a residual signal by subtracting the prediction signal of the target block input via the line L508 from the target block signal input via the line L502. Residual signal generator 508 outputs the generated residual signal via line L512.

変換器509は、ラインL512経由で入力された残差信号を直交変換することにより変換係数を生成する。変換器509は、生成した変換係数をラインL513経由で出力する。この直交変換には、例えば、DCTを用いることができる。しかしながら、変換器509によって用いられる変換には、任意の変換を用いることができる。   The converter 509 generates a transform coefficient by performing orthogonal transform on the residual signal input via the line L512. The converter 509 outputs the generated conversion coefficient via the line L513. For example, DCT can be used for this orthogonal transformation. However, any conversion can be used for the conversion used by the converter 509.

量子化器510は、ラインL513経由で入力された変換係数を量子化することにより量子化変換係数を生成する。量子化器510は、生成した量子化変換係数を、ラインL514経由で出力する。   The quantizer 510 generates a quantized transform coefficient by quantizing the transform coefficient input via the line L513. The quantizer 510 outputs the generated quantized transform coefficient via the line L514.

逆量子化器511は、ラインL514経由で入力された量子化変換係数を逆量子化することにより逆量子化変換係数を生成する。逆量子化器511は、生成した逆量子化変換係数をラインL515経由で出力する。   The inverse quantizer 511 generates an inverse quantization transform coefficient by inversely quantizing the quantization transform coefficient input via the line L514. The inverse quantizer 511 outputs the generated inverse quantization transform coefficient via the line L515.

逆変換器512は、ラインL515で経由して入力された逆量子化変換係数を逆直交変換することにより再生残差信号を生成する。逆変換器512は、生成した再生残差信号をラインL516経由で出力する。逆変換器512によって用いられる逆変換は、変換器509の変換と対称な処理である。   The inverse transformer 512 generates a reproduction residual signal by performing inverse orthogonal transform on the inverse quantization transform coefficient input via the line L515. The inverse converter 512 outputs the generated reproduction residual signal via the line L516. The inverse transformation used by the inverse transformer 512 is a process that is symmetric to the transformation of the converter 509.

なお、変換は必須ではなく、動画像符号化装置は、変換器509及び逆変換器512を備えていなくてもよい。同様に量子化は必須ではなく、動画像符号化装置は、量子化器510及び逆量子化器511を備えていなくてもよい。   Note that the conversion is not essential, and the moving image encoding apparatus may not include the converter 509 and the inverse converter 512. Similarly, quantization is not essential, and the moving picture coding apparatus may not include the quantizer 510 and the inverse quantizer 511.

加算器513は、ラインL516経由で入力された再生残差信号と、ラインL508経由で入力された対象ブロックの予測信号とを加算することにより、再生画像信号を生成する。加算器513は、再生画像信号を既再生の画像信号としてラインL505経由で出力する。   The adder 513 generates a reproduction image signal by adding the reproduction residual signal input via the line L516 and the prediction signal of the target block input via the line L508. The adder 513 outputs the reproduced image signal as an already reproduced image signal via the line L505.

エントロピー符号化器514は、ラインL514経由で入力される量子化変換係数と、ラインL504経由で入力される対象ブロックの形状情報と、ラインL510経由で入力される予測動きベクトルの指示情報と、ラインL511経由で入力される差分動きベクトルと、を符号化する。また、エントロピー符号化器514は、符号化により生成した符号を多重化することにより圧縮ストリームを生成し、当該圧縮ストリームをラインL517に出力する。   The entropy encoder 514 includes a quantized transform coefficient input via the line L514, target block shape information input via the line L504, prediction motion vector indication information input via the line L510, The differential motion vector input via L511 is encoded. The entropy encoder 514 generates a compressed stream by multiplexing the codes generated by encoding, and outputs the compressed stream to the line L517.

エントロピー符号化器514は、算術符号化、ランレングス符号化といった任意の符号化方法を用いることができる。また、エントロピー符号化器514はラインL504を経由して入力される対象ブロックの形状情報に基づいて、ラインL510を経由して入力される予測動きベクトルの指示情報を算術符号化する際の生起確率を適応的に決定し得る。例えば、エントロピー符号化器514は、処理対象の小区画と接している部分領域の動きベクトルを指示する指示情報の生起確率を高く設定し得る。   The entropy encoder 514 can use an arbitrary encoding method such as arithmetic encoding or run-length encoding. Also, the entropy encoder 514 generates occurrence probability when arithmetically encoding the instruction information of the predicted motion vector input via the line L510 based on the shape information of the target block input via the line L504. Can be determined adaptively. For example, the entropy encoder 514 can set the occurrence probability of the instruction information indicating the motion vector of the partial area in contact with the processing target small section to be high.

図26は、一実施形態に動き予測器の構成を示す図である。図26に示すように、動き予測器506は、動きベクトルメモリ5061、動き参照先候補生成器5062、及び予測動きベクトル生成器5063、を有している。   FIG. 26 is a diagram illustrating a configuration of a motion predictor according to an embodiment. As illustrated in FIG. 26, the motion predictor 506 includes a motion vector memory 5061, a motion reference destination candidate generator 5062, and a predicted motion vector generator 5063.

動きベクトルメモリ5061は、処理済みの部分領域の動きベクトルを格納し、処理対象の小区画の予測動きベクトルの導出のために、当該符号化済みの動きベクトルを、ラインL5061経由で出力する。   The motion vector memory 5061 stores the motion vector of the processed partial area, and outputs the encoded motion vector via the line L5061 in order to derive the predicted motion vector of the processing target sub-partition.

動き参照先候補生成器5062は、ラインL504経由で入力された形状情報に基づいて、後述する方法によって、ラインL5061経由で入力された部分領域の動きベクトルから、予測動きベクトルの候補を生成する。動き参照先候補生成器5062は、生成した予測動きベクトルの候補をラインL5062経由で出力する。   Based on the shape information input via the line L504, the motion reference destination candidate generator 5062 generates a predicted motion vector candidate from the motion vector of the partial region input via the line L5061 based on the method described later. The motion reference destination candidate generator 5062 outputs the generated predicted motion vector candidate via the line L5062.

予測動きベクトル生成器5063は、ラインL5062経由で入力された予測動きベクトルの候補から、処理対象の小区画の動きベクトルとの差分が最小となる候補を選択する。予測動きベクトル生成器5063は、選択した候補を、予測動きベクトルとして、ラインL509経由で出力する。また、選択した候補を特定する指示情報をラインL510経由で出力する。   The motion vector predictor generator 5063 selects a candidate having the smallest difference from the motion vector of the small block to be processed from the motion vector predictor candidates input via the line L5062. The motion vector predictor generator 5063 outputs the selected candidate as a motion vector predictor via the line L509. In addition, instruction information for specifying the selected candidate is output via the line L510.

なお、動き参照先候補生成器において生成する候補の数を一つに限定することで、指示情報の出力を省略することができる。候補の数を一つに限定する方法は、制限するものではないが、例えば、三つの候補の中間値を用いる方法、二つの候補の平均値を用いる方法、複数の候補から一つを選択するための優先順位を決めておく方法、といった任意の方法を利用することができる。   Note that the output of the instruction information can be omitted by limiting the number of candidates generated in the motion reference destination candidate generator to one. Although the method of limiting the number of candidates to one is not limited, for example, a method using an intermediate value of three candidates, a method using an average value of two candidates, or selecting one from a plurality of candidates Any method can be used, such as a method for determining the priority order for the operation.

以下、動画像符号化装置10の動作について説明し、また、一実施形態に係る動画像符号化方法について説明する。図27は、一実施形態に係る動画像符号化方法のフローチャートである。   Hereinafter, the operation of the moving image encoding apparatus 10 will be described, and a moving image encoding method according to an embodiment will be described. FIG. 27 is a flowchart of a video encoding method according to an embodiment.

図27に示すように、一実施形態においては、まず、ステップS501において、ブロック分割器501が、入力画像を複数のブロックに分割する。続くステップS502において、小区画生成器502が、上述したように、対象ブロックを複数の小区画に区切る。また、小区画生成器502は、上述したように形状情報を生成する。   As shown in FIG. 27, in one embodiment, first, in step S501, the block divider 501 divides an input image into a plurality of blocks. In subsequent step S502, the small section generator 502 divides the target block into a plurality of small sections as described above. The small section generator 502 generates shape information as described above.

次いで、ステップS503において、動き検出器504が、上述したように、処理対象の小区画の動きベクトルを求める。続くステップS504においては、予測信号生成器505が、上述したように、対象ブロック内の各小区画の動きベクトルと参照フレーム画像信号とを用いて、当該対象ブロックの予測信号を生成する。   Next, in step S503, as described above, the motion detector 504 obtains the motion vector of the small section to be processed. In subsequent step S504, as described above, the prediction signal generator 505 generates a prediction signal of the target block using the motion vector of each subsection in the target block and the reference frame image signal.

次いで、ステップS505において、動き予測器506が、予測動きベクトルを求める。また、動き予測器506は、予測動きベクトルの複数の候補から選択した候補を特定するための指示情報を生成する。このステップS505の処理の詳細については、後述する。続くステップS506においては、減算器507が、上述したように各小区画の動きベクトルと予測動きベクトルとの差を求めて差分動きベクトルを生成する。   Next, in step S505, the motion predictor 506 obtains a predicted motion vector. In addition, the motion predictor 506 generates instruction information for specifying a candidate selected from a plurality of prediction motion vector candidates. Details of the processing in step S505 will be described later. In the subsequent step S506, the subtracter 507 obtains a difference between the motion vector of each small block and the predicted motion vector as described above, and generates a differential motion vector.

次いで、ステップS507において、残差信号生成器508が、対象ブロックの画像信号と予測信号との差を求めて残差信号を生成する。続くステップS508においては、変換器509が、残差信号を直交変換して変換係数を生成する。続くステップS509においては、量子化器510が、変換係数を量子化して量子化変換係数を生成する。続くステップS510においては、逆量子化器511が、量子化変換係数を逆量子化して逆量子化変換係数を生成する。続くステップS511においては、逆変換器512が、逆量子化変換係数を逆変換して再生残差信号を生成する。   Next, in step S507, the residual signal generator 508 calculates a difference between the image signal of the target block and the prediction signal, and generates a residual signal. In subsequent step S508, converter 509 performs orthogonal transform on the residual signal to generate a transform coefficient. In subsequent step S509, the quantizer 510 quantizes the transform coefficient to generate a quantized transform coefficient. In subsequent step S510, the inverse quantizer 511 performs inverse quantization on the quantized transform coefficient to generate an inverse quantized transform coefficient. In subsequent step S511, the inverse transformer 512 inversely transforms the inverse quantization transform coefficient to generate a reproduction residual signal.

次いで、ステップS512において、加算器513が、対象ブロックの予測信号と再生残差信号とを加算することにより、再生画像信号を生成する。続くステップS513において、再生画像信号が、フレームメモリ503によって既再生の画像信号として記憶される。   Next, in step S512, the adder 513 generates a reproduced image signal by adding the prediction signal of the target block and the reproduction residual signal. In a subsequent step S513, the reproduced image signal is stored as an already reproduced image signal by the frame memory 503.

次いで、ステップS514において、エントロピー符号化器514が、量子化変換係数と、対象ブロックの形状情報と、予測動きベクトルの指示情報と、差分動きベクトルと、を符号化する。   Next, in step S514, the entropy encoder 514 encodes the quantized transform coefficient, the shape information of the target block, the instruction information of the predicted motion vector, and the difference motion vector.

次いで、ステップS515において、全てのブロックが処理されたか否かが判定される。全てのブロックが処理されていない場合には、未処理のブロックを対象としてステップS502からの処理が継続される。一方、全てのブロックの処理が終了している場合には、処理が終了する。   Next, in step S515, it is determined whether all blocks have been processed. If all the blocks have not been processed, the processing from step S502 is continued for unprocessed blocks. On the other hand, if all the blocks have been processed, the process ends.

以下、動き予測器506の動作についてより詳細に説明する。図28は、一実施形態に係る動き予測器の処理を示すフローチャートである。動き予測器506は、図28に示すフローチャートに従って、予測動きベクトル(以下、PMV)、及び、PMVを特定するための指示情報を出力する。   Hereinafter, the operation of the motion predictor 506 will be described in more detail. FIG. 28 is a flowchart illustrating processing of the motion predictor according to an embodiment. The motion predictor 506 outputs a prediction motion vector (hereinafter referred to as PMV) and instruction information for specifying the PMV according to the flowchart shown in FIG.

図28に示すように、動き予測器506の処理では、まず、ステップS505−1において、カウンタiの値が0に設定される。以下、i=0のときには、第1小区画に対する処理が行われ、i=1のときには第2小区画に対する処理が行われるものとする。   As shown in FIG. 28, in the process of the motion predictor 506, first, in step S505-1, the value of the counter i is set to zero. Hereinafter, it is assumed that when i = 0, the process for the first small section is performed, and when i = 1, the process for the second small section is performed.

次いで、ステップS505−2において、処理済みの部分領域の動きベクトルから、処理対象の小区画のPMVの候補が、後述する方法に従って生成される。PMVの候補の数は、本例では二つである。即ち、PMVの候補として、処理対象の小区画の左側の処理済みの部分領域の動きベクトル及び上側の処理済みの部分領域の動きベクトルが、処理対象の小区画の予測動きベクトルの候補として設定され得る。ステップS505−2においては、生成された候補の数がNcandに設定される。   Next, in step S505-2, PMV candidates of the processing target small section are generated from the motion vectors of the processed partial areas according to a method described later. The number of PMV candidates is two in this example. That is, as the PMV candidates, the motion vector of the processed partial area on the left side of the processing target sub-partition and the motion vector of the upper processed partial area are set as the predicted motion vector candidates of the processing target sub-partition. obtain. In step S505-2, the number of generated candidates is set to Ncand.

次いで、ステップS505−3において、NCandが「0」であるか否かが判定される。NCandが「0」である場合(Yes)には、処理がステップS505−4に進む。NCandが「0」でない場合(No)には、処理はステップS505−5に進む。   Next, in step S505-3, it is determined whether NCand is “0”. If NCand is “0” (Yes), the process proceeds to step S505-4. If NCand is not “0” (No), the process proceeds to step S505-5.

ステップS505−4においては、PMVがゼロベクトルに設定され、処理はステップS505−10に進む。この際、PMVは、ゼロベクトルでなく、予め定められたブロックの動きベクトルや、処理対象の小区画の直前に処理された部分領域の動きベクトルなどに設定されてもよい。   In step S505-4, PMV is set to a zero vector, and the process proceeds to step S505-10. At this time, the PMV may be set to a motion vector of a predetermined block, a motion vector of a partial area processed immediately before the processing target subsection, or the like, instead of the zero vector.

ステップS505−5においては、NCandが「1」であるか否かが判定される。NCandが「1」である場合(Yes)には、処理はステップS505−10に進む。NCandが「1」でない場合(No)には、処理はステップS505−6に進む。   In step S505-5, it is determined whether NCand is “1”. If NCand is “1” (Yes), the process proceeds to step S505-10. If NCand is not “1” (No), the process proceeds to step S505-6.

ステップS505−6においては、ステップS505−2で生成されたPMVの候補から、PMVが選択される。PMVとしては、処理対象の小区画の動きベクトルに対する差分が最小となる候補が選択され得る。   In step S505-6, a PMV is selected from the PMV candidates generated in step S505-2. As the PMV, a candidate that minimizes the difference with respect to the motion vector of the small section to be processed can be selected.

次いで、S505−7においてはステップS505−6で選択されたPMVが左側の候補、即ち、左側の部分領域の動きベクトルであるか否かが判定される。ステップS505−6で選択されたPMVが左側の候補である場合(Yes)には、処理はステップS505−8に進む。ステップS505−6で選択されたPMVが左側の候補でない場合(No)には、処理はステップS505−9に進む。   In step S505-7, it is determined whether the PMV selected in step S505-6 is a left candidate, that is, a motion vector of the left partial region. If the PMV selected in step S505-6 is a left candidate (Yes), the process proceeds to step S505-8. If the PMV selected in step S505-6 is not the left candidate (No), the process proceeds to step S505-9.

ステップS505−8においては、処理対象の小区画の左側の部分領域の動きベクトルをPMVとする指示情報pmv_left_flag=1が出力される。一方、ステップS505−9においては、処理対象の小区画の上側の部分領域の動きベクトルをPMVとする指示情報pmv_left_flag=0が出力される。   In step S505-8, instruction information pmv_left_flag = 1 is output with the motion vector of the left partial region of the processing target subsection being PMV. On the other hand, in step S505-9, instruction information pmv_left_flag = 0, in which the motion vector of the upper partial area of the processing target small section is PMV, is output.

次いで、ステップS505−10においては、候補として残ったPMVが出力される。続くステップS505−11においては、カウンタiの値に「1」が加算される。   Next, in step S505-10, the PMV remaining as a candidate is output. In subsequent step S505-11, "1" is added to the value of counter i.

次いで、ステップS505−12において、カウンタiの値が「2」より小さいか否かが判定される。カウンタiの値が「2」より小さい場合(Yes)には、処理はステップS505−2に進む。カウンタiの値が「2」より小さくない場合(No)には処理が終了する。   Next, in step S505-12, it is determined whether or not the value of the counter i is smaller than “2”. If the value of counter i is smaller than “2” (Yes), the process proceeds to step S505-2. If the value of the counter i is not smaller than “2” (No), the process is terminated.

なお、ステップS505−2において、生成する候補の数を一つに限定することで、ステップS505−5、S505−6、S505−7、S505−8、S505−9を省略することができる。この限定の方法は、制限されるものではないが、予測動きベクトル生成器5063の説明にて上述したように、例えば、三つの候補の中間値を用いる方法、二つの候補の平均値を用いる方法、複数の候補から一つの候補を選択するための優先順位を決めておく方法、といった方法が利用可能である。ステップS505−2において生成される候補の数が一つに限定される形態では、ステップS505−3においてNCandが「0」でない場合(No)には、処理はステップS505−10に進む。   In step S505-2, by limiting the number of generated candidates to one, steps S505-5, S505-6, S505-7, S505-8, and S505-9 can be omitted. This limitation method is not limited. However, as described above in the description of the motion vector predictor generator 5063, for example, a method using an intermediate value of three candidates and a method using an average value of two candidates. A method of determining a priority order for selecting one candidate from a plurality of candidates can be used. In the form in which the number of candidates generated in step S505-2 is limited to one, if NCand is not “0” in step S505-3 (No), the process proceeds to step S505-10.

以下、ステップS505−2における、処理対象の小区画の予測動きベクトルの候補の生成方法についてより詳細に説明する。図29は、対象ブロックの小区画と周囲の部分領域の一例を示す図である。   Hereinafter, the method of generating the predicted motion vector candidates of the processing target small section in step S505-2 will be described in more detail. FIG. 29 is a diagram illustrating an example of a small section of a target block and a surrounding partial area.

動き参照先候補生成器5062は、図29に示すように、第1小区画SP1に対して部分領域U1及び部分領域L1を参照し、それぞれの部分領域がフレーム間予測にて処理済みである場合には、その部分領域の動きベクトルを、第1小区画SP1の予測動きベクトルの候補とする。同様に、動き参照先候補生成器5062は、第2小区画に対して部分領域U2または部分領域L2を参照し、第2小区画の予測動きベクトルの候補を生成する。ここで、部分領域U1、L1、U2、L2は、対象ブロックPの周囲のブロック又は小区画であって、予測信号を生成する単位となる領域である。また、部分領域は、予測信号を生成する単位とは無関係に、予測動きベクトルの候補生成のために準備されるブロック(例えば、単一形状に区切ることで生成されるもの)であってもよい。   As illustrated in FIG. 29, the motion reference destination candidate generator 5062 refers to the partial area U1 and the partial area L1 with respect to the first small section SP1, and each partial area has been processed by inter-frame prediction. In this case, the motion vector of the partial area is set as a candidate for the predicted motion vector of the first small section SP1. Similarly, the motion reference destination candidate generator 5062 refers to the partial area U2 or the partial area L2 for the second small section, and generates a predicted motion vector candidate for the second small section. Here, the partial areas U1, L1, U2, and L2 are blocks or small sections around the target block P, and are areas that are units for generating a prediction signal. Further, the partial region may be a block (for example, generated by dividing into a single shape) prepared for generating a motion vector predictor candidate regardless of a unit for generating a prediction signal. .

部分領域U1は、第1小区画SP1の最も左上の画素F(0、0)に上側において隣接する画素Pi1(0、−1)を含む部分領域であり、小区画SP1に接している処理済みの部分領域である。また、部分領域L1は、第1小区画SP1の最も左上の画素F(0、0)に左側において隣接する画素Pi2(−1、0)を含む部分領域であり、第1小区画SP1に接している部分領域である。部分領域U2は、画素Pi3(x1、−1)を含む部分領域に右側において隣接する部分領域であって、x軸に接している部分領域である。部分領域L2は、画素Pi4(−1、y1)を含む部分領域に下側において隣接する部分領域であって、y軸に接している部分領域である。   The partial area U1 is a partial area including the pixel Pi1 (0, −1) adjacent to the uppermost leftmost pixel F (0, 0) of the first small section SP1, and has been processed in contact with the small section SP1. It is a partial area. The partial area L1 is a partial area including the pixel Pi2 (-1, 0) adjacent on the left side to the upper left pixel F (0, 0) of the first small section SP1, and is in contact with the first small section SP1. It is a partial area. The partial region U2 is a partial region adjacent to the partial region including the pixel Pi3 (x1, −1) on the right side and is in contact with the x-axis. The partial region L2 is a partial region adjacent to the partial region including the pixel Pi4 (−1, y1) on the lower side and is in contact with the y-axis.

画素Pi3のx座標x1及び画素Pi4のy座標y1は、式(3)及び式(4)で算出され得る。
x1=ceil(−k/m)・・・(3)
y1=ceil(k)・・・(4)
式(3)及び式(4)は、第1小区画SP1と第2小区画SP2を区切る境界の延長線Lnを表す1次式(1)にy=0、x=0をそれぞれ代入した値にceil(z)関数を適用したものである。ceil(z)は、天井関数と呼ばれるものであり、実数zに対して、z以上の最小の整数を導出するための関数である。
The x coordinate x1 of the pixel Pi3 and the y coordinate y1 of the pixel Pi4 can be calculated by Expressions (3) and (4).
x1 = ceil (−k / m) (3)
y1 = ceil (k) (4)
Expressions (3) and (4) are values obtained by substituting y = 0 and x = 0 into the linear expression (1) representing the extended line Ln of the boundary dividing the first small section SP1 and the second small section SP2, respectively. To which the ceil (z) function is applied. ceil (z) is called a ceiling function, and is a function for deriving a minimum integer equal to or greater than z with respect to the real number z.

なお、ceil関数の代わりにfloor関数が用いられてもよい。floor(z)は、床関数と呼ばれるものであり、実数zに対してz以下の最大の整数を導出するための関数である。   A floor function may be used instead of the ceil function. floor (z) is called a floor function, and is a function for deriving the maximum integer equal to or smaller than z with respect to the real number z.

また、式(5)及び(6)によりx1及びy1が算出されてもよい。
x1=ceil((−1−k)/m)・・・(5)
y1=ceil(−m+k)・・・(6)
式(5)及び式(6)は、式(1)にy=−1、x=−1をそれぞれ代入することによって得られる値にceil(z)関数を適用したものである。
Moreover, x1 and y1 may be calculated by the equations (5) and (6).
x1 = ceil ((− 1−k) / m) (5)
y1 = ceil (−m + k) (6)
Expressions (5) and (6) are obtained by applying the ceil (z) function to values obtained by substituting y = −1 and x = −1 into Expression (1), respectively.

部分領域U2及びL2が存在するか否かは、以下に説明するように判定される。部分領域U2が存在するための条件は、画面内であること、且つ、式(7)を満たすことである。また、部分領域L2が存在するための条件は、画面内であること、且つ、式(8)を満たすことである。
0<x1・・・(7)
0<y1・・・(8)
Whether or not the partial areas U2 and L2 exist is determined as described below. The condition for the partial region U2 to exist is to be within the screen and to satisfy Expression (7). Moreover, the conditions for the partial region L2 to exist are to be within the screen and to satisfy Expression (8).
0 <x1 (7)
0 <y1 (8)

式(7)の条件を満たしていない場合には、第2小区画SP2と部分領域U2の間に部分領域L2が存在することになる。その場合、第2小区画SP2に近い部分領域L2よりも第2小区画SP2から遠い部分領域U2の方が第2小区画SP2の動きベクトルに近い動きベクトルを有する可能性は少ない。このような場合には、式(7)の条件によって部分領域U2の動きベクトルを予測動きベクトルの候補から除外し得る。   When the condition of Expression (7) is not satisfied, the partial region L2 exists between the second small section SP2 and the partial region U2. In that case, it is less likely that the partial area U2 farther from the second small section SP2 has a motion vector closer to the motion vector of the second small section SP2 than the partial area L2 near the second small section SP2. In such a case, the motion vector of the partial region U2 can be excluded from the prediction motion vector candidates according to the condition of Expression (7).

同様に、式(8)の条件を満たしていない場合には、第2小区画SP2と部分領域L2の間に部分領域U2が存在することになる。その場合、第2小区画SP2に近い部分領域U2よりも第2小区画SP2から遠い部分領域L2の方が第2小区画SP2の動きベクトルに近い動きベクトルを有する可能性は少ない。そのような場合には、式(8)の条件によって、部分領域U2の動きベクトルを予測動きベクトルの候補から除外し得る。   Similarly, when the condition of Expression (8) is not satisfied, the partial region U2 exists between the second small section SP2 and the partial region L2. In that case, it is less likely that the partial area L2 far from the second small section SP2 has a motion vector closer to the motion vector of the second small section SP2 than the partial area U2 near the second small section SP2. In such a case, the motion vector of the partial region U2 can be excluded from the prediction motion vector candidates according to the condition of Expression (8).

なお、一例においては、式(7)及び式(8)の条件に代えて、以下の式(9)及び式(10)で規定される条件が用いられてもよい。
0<x1<blocksizeX・・・(9)
0<y1<blocksizeY・・・(10)
ここで、blocksizeX及びblocksizeYは、対象ブロックPの水平方向の画素数、垂直方向の画素数である。例えば、対象ブロックPが8×8画素のブロックである場合には、blocksizeX=8、blocksizeY=8である。
In one example, conditions defined by the following expressions (9) and (10) may be used instead of the conditions of expressions (7) and (8).
0 <x1 <blocksizeX (9)
0 <y1 <blocksizeY (10)
Here, blocksizeX and blocksizeY are the number of pixels in the horizontal direction and the number of pixels in the vertical direction of the target block P, respectively. For example, when the target block P is an 8 × 8 pixel block, blocksizeX = 8 and blocksizeY = 8.

式(9)又は式(10)の条件を用いることで、部分領域U2、部分領域L2のうち、第2小区画SP2に接していない部分領域の動きベクトルを予測動きベクトルの候補から除外することができる。これにより、予測精度が高いと考えられる予測動きベクトルの候補のみが残され得る。   By using the condition of Equation (9) or Equation (10), the motion vector of the partial region that is not in contact with the second small section SP2 out of the partial region U2 and the partial region L2 is excluded from the predicted motion vector candidates. Can do. Thereby, only prediction motion vector candidates that are considered to have high prediction accuracy can be left.

このように部分領域U1、L1、U2、L2を設定することで、各小区画の予測動きベクトルの候補は、小区画間の境界の延長線に対して同じ側にある処理済みの部分領域の動きベクトルから生成される。   By setting the partial areas U1, L1, U2, and L2 in this way, the predicted motion vector candidates of each sub-partition are the same as the processed partial areas on the same side with respect to the extension line of the boundary between the sub-partitions. Generated from motion vectors.

なお、小区画SP2の予測動きベクトルの候補は、小区画SP2と小区画SP2を含む対象ブロックの他の小区画との境界の延長線Lnに対して、小区画SP2と同じ側の領域にある部分領域の動きベクトルから生成されれば、上述した実施形態の予測動きベクトルの生成方法に限定されるものではない。例えば、部分領域U2は画素Pi3を含む部分領域であってもよく、部分領域L2は画素Pi4を含む部分領域であってもよい。   Note that the candidate for the predicted motion vector of the small section SP2 is in the same area as the small section SP2 with respect to the extension line Ln of the boundary between the small section SP2 and the other small sections of the target block including the small section SP2. As long as the motion vector is generated from the motion vector of the partial region, the method is not limited to the method for generating the predicted motion vector of the above-described embodiment. For example, the partial region U2 may be a partial region including the pixel Pi3, and the partial region L2 may be a partial region including the pixel Pi4.

また、部分領域の全体が、線Lnに対して小区画SP2と同じ側の領域にあることを、当該部分領域の動きベクトルを小区画SP2の予測動きベクトルの候補と加える条件としてもよい。この場合には、例えば、部分領域の全ての頂点の位置を検査するといった方法を用いることができる。   Alternatively, the fact that the entire partial area is in the same area as the small section SP2 with respect to the line Ln may be a condition for adding the motion vector of the partial area to the predicted motion vector candidate of the small section SP2. In this case, for example, a method of inspecting the positions of all the vertices of the partial area can be used.

また、部分領域が延長線に対して小区画と同じ側の領域に完全に含まれていなくても、当該部分領域の動きベクトルを当該小区画の予測動きベクトルの候補として用いてもよい。図30は、対象ブロックの小区画と周囲の部分領域の別の一例を示す図である。図30に一例として示すように、第1小区画SP1の予測動きベクトルの候補として、部分領域R、R、R、及びRの動きベクトルが用いられてもよい。また、第2小区画SP2の予測動きベクトルの候補に、部分領域Rの予測動きベクトルを加えてもよい。 Even if the partial area is not completely included in the area on the same side as the small section with respect to the extension line, the motion vector of the partial area may be used as a candidate for the predicted motion vector of the small section. FIG. 30 is a diagram illustrating another example of the small section of the target block and the surrounding partial area. As an example shown in FIG. 30, the motion vectors of the partial regions R A , R B , R G , and R E may be used as the predicted motion vector candidates of the first small section SP1. Further, the candidate predicted motion vector of the second subdivision SP2, it may be added to the predicted motion vector of the partial region R E.

また、図28及び図29に関する説明では、予測動きベクトルの候補となる動きベクトルの数を最大二つとしたが、上述の何れかの条件によって求められる動きベクトルから二つが選択されてもよい。例えば、図29に示す部分領域U2の動きベクトルと、部分領域U2に隣接する部分領域の動きベクトルとが、予測動きベクトルの候補とされてもよい。同様に、部分領域L2の動きベクトルと、部分領域U2に隣接する部分領域の動きベクトルとが、予測動きベクトルの候補とされてもよい。さらに、上述の何れかの条件によって特定される動きベクトルから三つ以上の動きベクトルが予測動きベクトルの候補とされてもよい。さらに、複数の予測動きベクトルの候補の平均値又は中央値が予測動きベクトルの候補に加えられてもよい。   In the description related to FIG. 28 and FIG. 29, the maximum number of motion vectors that are candidates for the predicted motion vector is two, but two may be selected from the motion vectors obtained under any of the above-described conditions. For example, the motion vector of the partial region U2 shown in FIG. 29 and the motion vector of the partial region adjacent to the partial region U2 may be set as the predicted motion vector candidates. Similarly, the motion vector of the partial area L2 and the motion vector of the partial area adjacent to the partial area U2 may be candidates for the predicted motion vector. Furthermore, three or more motion vectors from the motion vectors specified by any of the above-described conditions may be set as predicted motion vector candidates. Further, an average value or median value of a plurality of motion vector predictor candidates may be added to the motion vector predictor candidates.

また、図28のステップS505−2において生成する予測動きベクトルの候補の数を最大で一つに限定する方法として、区画の形状情報を用いることができる。例えば、処理対象の小区画に接する符号化済みの部分領域のうち、当該小区画と接している部分の長さが最大である部分領域の動きベクトルを予測動きベクトルの候補としてもよい。また、処理対象の小区画からの最短距離が最も短い符号化済みの部分領域の動きベクトルを、当該小区画の予測動きベクトルの候補としてもよい。   Further, as a method for limiting the number of motion vector predictor candidates generated in step S505-2 in FIG. 28 to a maximum of one, it is possible to use section shape information. For example, a motion vector of a partial area in which the length of the part in contact with the small section among the encoded partial areas in contact with the small section to be processed is the maximum may be used as a predicted motion vector candidate. Also, the motion vector of the encoded partial region with the shortest shortest distance from the processing target sub-partition may be used as the predicted motion vector candidate of the sub-partition.

また、上述の予測動きベクトルの候補の生成方法は、任意の形状の小区画に適用することができる。図31は、対象ブロックの小区画と周囲の部分領域の更に別の例を示す図である。図31の(A)は、図29に示す線Lnとはy軸と交差する座標及び傾きの異なる線Lnによって画成される小区画を示している。図31の(B)は、図29に示す線Lnとはy軸に対して傾きが略対称でありy軸と交差する座標が異なる線Lnによって画成される小区画を示している。図31の(C)は、二つの線Ln1及びLn2により画成される小区画を示している。また、図31の(D)は、互いに交差する二つの線Ln1及びLn2により画成される小区画を示している。図31の(A)〜(D)に示すような境界の延長線を基準としても、小区画SP2の予測動きベクトルの候補となり得る動きベクトルを有する部分領域L2及びU2を、上述した予測動きベクトルの候補の生成方法によって、特定することが可能である。   Further, the above-described method for generating motion vector predictor candidates can be applied to a small section having an arbitrary shape. FIG. 31 is a diagram showing still another example of the small section of the target block and the surrounding partial area. FIG. 31A shows a small section defined by a line Ln having a different coordinate and inclination from the line Ln shown in FIG. FIG. 31B shows a small section defined by a line Ln whose inclination is substantially symmetric with respect to the y-axis with respect to the line Ln shown in FIG. 29 and whose coordinates intersecting the y-axis are different. FIG. 31C shows a small section defined by two lines Ln1 and Ln2. FIG. 31D shows a small section defined by two lines Ln1 and Ln2 that intersect each other. Even if the boundary extension lines as shown in FIGS. 31A to 31D are used as a reference, the partial motion regions L2 and U2 having motion vectors that can be candidates for the motion vector predictor of the small section SP2 are converted into the motion vector predictors described above. It is possible to specify by the method of generating candidates.

また、小区画は直線で区切られた小区画のみに限定されない。例えば、予め決められたパターンの中から小区画の形状を選択する場合においても、小区画間の境界の延長線に対して処理対象の小区画と同じ側の領域に属する符号化済みの部分領域の動きベクトルを予測動きベクトルの候補として用いることができる。なお、小区画の形状のパターンが予め定められている場合には、各形状パターンに対して、予測動きベクトルの候補とする動きベクトルをもつ部分領域を予め定めておくことも可能である。このパターンに対象ブロックを矩形に区切るパターンが含まれていてもよい。   Further, the small section is not limited to only the small section divided by a straight line. For example, even when selecting the shape of a small section from a predetermined pattern, the encoded partial area belonging to the same side area as the processing target small section with respect to the extension line of the boundary between the small sections Can be used as candidates for the predicted motion vector. In addition, when the pattern of the shape of the small section is determined in advance, it is also possible to determine in advance a partial region having a motion vector as a candidate for a predicted motion vector for each shape pattern. This pattern may include a pattern for dividing the target block into rectangles.

また、上述した予測動きベクトルの選択方法は、符号化済みの部分領域の動きベクトルを用いて処理対象の小区画の予測信号を生成する際の動きベクトルの選択方法としても適用することができる。つまり、図28のステップS505−2にて選択された予測動きベクトルを用いて、処理対象の小区画の予測信号が生成されてもよい。この場合には、差分動きベクトルを符号化する必要がないので、動き予測器506から出力される予測動きベクトルは、減算器507ではなく、予測信号生成器505に出力される。   Further, the above-described prediction motion vector selection method can also be applied as a motion vector selection method when generating a prediction signal of a small block to be processed using a motion vector of an encoded partial region. That is, the prediction signal of the small section to be processed may be generated using the prediction motion vector selected in step S505-2 in FIG. In this case, since it is not necessary to encode the differential motion vector, the predicted motion vector output from the motion predictor 506 is output to the predicted signal generator 505 instead of the subtracter 507.

さらに、動画像符号化装置10は、差分動きベクトルを符号化するか否かを判断し、その判断結果を特定する適用情報を符号化してもよい。この変形態様では、動き予測器506は、適用情報に基づいて、予測動きベクトルを減算器507に出力するか、予測信号生成器505に出力するかを切り替える機能を含み得る。   Furthermore, the moving image encoding device 10 may determine whether or not to encode the differential motion vector, and may encode application information that specifies the determination result. In this variation, the motion predictor 506 may include a function of switching whether to output the predicted motion vector to the subtracter 507 or to the predicted signal generator 505 based on the application information.

なお、この変形態様では、対象ブロック内の全ての小区画の動きベクトルが同じとなることは、対象ブロックを区切る意味がなくなるので、好ましくない。つまり、図28のステップS505−2において処理対象の小区画の動きベクトルの候補を生成する際に、対象ブロックに含まれる符号化済みの小区画の動きベクトルを、候補から除外してもよい。例えば、対象ブロックが二つの小区画に区切られており、第1小区画の動きベクトルが先に符号化された場合には、第1小区画の動きベクトルは第2小区画の予測動きベクトルの候補から除外される。また、第1小区画の動きベクトルと、部分領域U2の動きベクトルが同じ場合には、部分領域U2の動きベクトルを第2小区画の予測動きベクトルの生成には用いなくてもよい。   In this modification, it is not preferable that the motion vectors of all the small sections in the target block are the same because it makes no sense to divide the target block. In other words, when generating motion vector candidates for the small section to be processed in step S505-2 in FIG. 28, the motion vectors of the encoded small sections included in the target block may be excluded from the candidates. For example, when the target block is divided into two small sections and the motion vector of the first small section is encoded first, the motion vector of the first small section is the predicted motion vector of the second small section. Excluded from the candidate. Further, when the motion vector of the first small section and the motion vector of the partial area U2 are the same, the motion vector of the partial area U2 may not be used for generating the predicted motion vector of the second small section.

差分動きベクトルを符号化するか否かを指示する場合には、上記の適用情報を算術符号化する際の生起確率を小区画の形状情報に応じて適応的に決定してもよい。例えば、第2小区画の差分動きベクトルを符号化しないことを示す適用情報用の生起確率よりも、第1小区画の差分動きベクトルを符号化しないことを示す適用情報用の生起確率を高く設定し得る。これは、第2小区画が符号化済みの部分領域と接しないことがあり得る一方で、第1小区画は常に符号化済みの部分領域と接するので、このように生起確率を設定することで、適用情報の符号量が削減され得るからである。   When instructing whether or not to encode the differential motion vector, the occurrence probability when the application information is arithmetically encoded may be adaptively determined according to the shape information of the small sections. For example, the occurrence probability for application information indicating that the differential motion vector of the first small section is not encoded is set higher than the occurrence probability for application information indicating that the differential motion vector of the second small section is not encoded. Can do. This is because the second sub-partition may not touch the encoded partial area, while the first sub-partition always touches the encoded partial area. Thus, by setting the occurrence probability in this way, This is because the code amount of the application information can be reduced.

ここで、簡単化のため、対象ブロックを矩形に分割した例を示す図32を参照して、一実施形態の効果を説明する。この例では、対象ブロックPは、直線Lnにより左側の小区画SP1と右側の小区画SP2に区切られている。この例では、第1小区画SP1の動きベクトルと部分領域Rの動きベクトルが、第2小区画SP2の予測動きベクトルの候補となる。 Here, for simplification, the effect of the embodiment will be described with reference to FIG. 32 showing an example in which the target block is divided into rectangles. In this example, the target block P is divided into a left small section SP1 and a right small section SP2 by a straight line Ln. In this example, the motion vector of the motion vector and the partial region R B of the first small compartment SP1 becomes the candidate of the predicted motion vector of the second subsection SP2.

図32に示す例では、第1小区画SP1の動きベクトルを用いて第2小区画SP2の予測信号を生成すれば、第1小区画SP1の予測信号と第2小区画SP2の予測信号は同じ動きベクトルで生成されることになり、対象ブロックを二つの小区画に分ける意味がなくなる。そのため、第2小区画SP2の予測信号は、当該小区画SP2の上側の部分領域Rの動きベクトルを用いて生成され得る。従って、符号化装置と復号装置が、図32に示す例では、第2小区画SP2の予測信号を部分領域Rの動きベクトルを用いて生成することを予め決めておくことにより、予測動きベクトルの候補が減り、複数の予測動きベクトルの候補から、一つの予測動きベクトルを指示するための指示情報を送る必要がなくなる。 In the example shown in FIG. 32, if the prediction signal of the second small section SP2 is generated using the motion vector of the first small section SP1, the prediction signal of the first small section SP1 and the prediction signal of the second small section SP2 are the same. It will be generated by a motion vector, and it makes no sense to divide the target block into two small sections. Therefore, the prediction signal of the second subsection SP2 can be produced using a motion vector of an upper partial region R B of the cubicle SP2. Therefore, the encoding device and the decoding device, in the example shown in FIG. 32, by preliminarily decided to generate a prediction signal of the second subdivision SP2 using the motion vector of the partial region R B, predicted motion vector The number of candidates decreases, and it is no longer necessary to send instruction information for indicating one prediction motion vector from a plurality of prediction motion vector candidates.

さらに、動画像符号化装置10が差分動きベクトルの符号化の可否を判断する方法(動き予測器506が適用情報に基づいて予測動きベクトルを減算器507に出力するか、予測信号生成器505に出力かを切り替える)について考察する。このとき、部分領域Rの動きベクトルが第1小区画SP1の動きベクトルと同じであれば、二つの予測動きベクトルの候補のいずれを選択しても第2小区画SP2の予測動きベクトルは第1小区画SP1の動きベクトルと同じになる。従って、符号化装置と復号装置が、二つの予測動きベクトルの候補が同じ場合には、差分動きベクトルと予測動きベクトルを加算した動きベクトルにより第2小区画SP2の予測信号を生成することを予め決めておくことにより、上記指示情報に加えて、差分動きベクトルを符号化するか否かを指示する適用情報も送る必要がなくなる。 Further, the moving image coding apparatus 10 determines whether or not the differential motion vector can be encoded (the motion predictor 506 outputs the predicted motion vector to the subtractor 507 based on the application information, or the predicted signal generator 505 Consider switching the output. At this time, the motion vector of the partial region R B is given the same as the motion vector of the first sub-compartment SP1, the predicted motion vector of the two predicted motion second subsection also select one of the candidate vectors SP2 first It becomes the same as the motion vector of one small section SP1. Accordingly, when the two prediction motion vector candidates are the same, the encoding device and the decoding device generate a prediction signal for the second sub-partition SP2 in advance using a motion vector obtained by adding the difference motion vector and the prediction motion vector. By deciding, it is not necessary to send application information instructing whether or not to encode the differential motion vector in addition to the instruction information.

なお、図33に示すように、対象ブロックが3個以上の小区画に区切られている場合には、第1小区画SP1、第2小区画SP2、及び第3小区画SP3が同じ動きベクトルを有し、第4小区画SP4のみが異なる動きベクトルを有するのであれば、対象ブロックを区切る意味がある。従って、この場合には、第2小区画SP2の予測信号と第3小区画SP3の予測信号は、それぞれ部分領域R、部分領域Rの動きベクトルではなく、第1小区画SP1の動きベクトルを用いて生成してもよい。但し、第4小区画SP4については、第2小区画SP2の動きベクトルと第3小区画SP3の動きベクトルが同じであれば、二つの予測動きベクトルの候補が同じとなるので、予め符号化装置と復号装置でルールを決めておくことにより、一つの予測動きベクトルを指示するための指示情報を送る必要はなくなる。さらに、第1小区画SP1、第2小区画SP2、及び第3小区画SP3が同じ動きベクトルを有する場合に、第4小区画SP4の予測信号を第2小区画SP2又は第3小区画SP3の動きベクトルを用いて生成すれば、四つの区画が全て同じ動きベクトルを有することになるので、符号化装置と復号装置でルールを予め定めておくことにより、上記指示情報に加えて、差分動きベクトルを符号化するか否かを指示する適用情報も送る必要がなくなる。 As shown in FIG. 33, when the target block is divided into three or more small sections, the first small section SP1, the second small section SP2, and the third small section SP3 have the same motion vector. And if only the fourth small section SP4 has a different motion vector, it is meaningful to divide the target block. Therefore, in this case, the prediction signal and the prediction signal of the third subsection SP3 of the second subsection SP2, respectively partial region R B, rather than the motion vector of the partial region R E, a motion vector of the first subsection SP1 You may generate using. However, for the fourth sub-partition SP4, if the motion vector of the second sub-partition SP2 and the motion vector of the third sub-partition SP3 are the same, the two motion vector candidates are the same. By determining the rule in the decoding device, there is no need to send instruction information for instructing one prediction motion vector. Furthermore, when the first small section SP1, the second small section SP2, and the third small section SP3 have the same motion vector, the prediction signal of the fourth small section SP4 is sent to the second small section SP2 or the third small section SP3. If the motion vector is used for generation, all four sections have the same motion vector. Therefore, by defining rules in advance in the encoding device and the decoding device, in addition to the instruction information, the difference motion vector It is no longer necessary to send application information indicating whether or not to encode.

以下、一実施形態に係る動画像復号装置について説明する。図34は、一実施形態に係る動画像復号装置の構成を概略的に示す図である。図34に示す動画像復号装置20は、動画像符号化装置10によって生成された圧縮ストリームを復号して動画像を生成することができる装置である。   Hereinafter, a moving picture decoding apparatus according to an embodiment will be described. FIG. 34 is a diagram schematically illustrating a configuration of a video decoding device according to an embodiment. The video decoding device 20 shown in FIG. 34 is a device that can generate a video by decoding the compressed stream generated by the video encoding device 10.

図34に示すように、動画像復号装置20は、データ復号器601、動き予測器602、加算器603、逆量子化器604、逆変換器605、フレームメモリ606、予測信号生成器607、及び、加算器608を備えている。   As shown in FIG. 34, the moving picture decoding apparatus 20 includes a data decoder 601, a motion predictor 602, an adder 603, an inverse quantizer 604, an inverse transformer 605, a frame memory 606, a prediction signal generator 607, and , An adder 608 is provided.

データ復号器601は、ラインL601を経由して入力された圧縮ストリームを解析する。データ復号器601は、復号の対象となるブロック(以下、対象ブロック)に関して、以下の処理を順次行う。   The data decoder 601 analyzes the compressed stream input via the line L601. The data decoder 601 sequentially performs the following processing on a block to be decoded (hereinafter referred to as a target block).

データ復号器601は、圧縮ストリーム内の対象ブロックに関連する符号化データを復号して、対象ブロックの量子化変換係数を復元し、当該量子化変換係数をラインL602経由で出力する。また、データ復号器601は、符号化データを復号して、対象ブロックの形状情報を復元し、当該形状情報をラインL603経由で出力する。この際、対象ブロックを区切るか否かを指示する区画可否情報が復元されており、当該区画可否情報が対象ブロックを区切らないことを示している場合には、形状情報は復元されなくてもよい。   The data decoder 601 decodes the encoded data related to the target block in the compressed stream, restores the quantized transform coefficient of the target block, and outputs the quantized transform coefficient via the line L602. Further, the data decoder 601 decodes the encoded data, restores the shape information of the target block, and outputs the shape information via the line L603. At this time, if the blockability information indicating whether or not to divide the target block is restored, and the blockability information indicates that the block is not divided, the shape information may not be restored. .

また、データ復号器601は、符号化データを復号することにより、対象ブロック内の各小区画用の指示情報、即ち、複数の予測動きベクトルの候補のうち一つを指示する情報を復元し、当該指示情報をラインL604経由で出力する。また、データ復号器601は、符号化データを復号することにより、対象ブロックの差分動きベクトルを復元し、当該差分動きベクトルをラインL605経由で出力する。また、データ復号器601は対象ブロックの形状情報に基づいて、予測動きベクトルの指示情報を復元する際の符号化データの復号における生起確率を適応的に決定し得る。この方法として、例えば、処理対象の小区画と接している部分領域の動きベクトルを予測動きベクトルとして指示する指示情報の生起確率を高くすることができる。   Further, the data decoder 601 restores instruction information for each subsection in the target block, that is, information indicating one of a plurality of motion vector predictor candidates, by decoding the encoded data, The instruction information is output via line L604. Also, the data decoder 601 restores the differential motion vector of the target block by decoding the encoded data, and outputs the differential motion vector via the line L605. In addition, the data decoder 601 can adaptively determine the occurrence probability in decoding the encoded data when restoring the motion vector instruction information based on the shape information of the target block. As this method, for example, it is possible to increase the occurrence probability of the instruction information that indicates the motion vector of the partial area that is in contact with the processing target small section as the predicted motion vector.

動き予測器602は、ラインL603経由で入力される形状情報とラインL606経由で入力された処理順で前の部分領域の動きベクトルと、ラインL604経由で入力される指示情報に基づいて、処理対象の小区画の予測動きベクトルを生成し、当該予測動きベクトルをラインL607経由で出力する。なお、所定の方法で予測動きベクトルの候補を一つに絞り込むことで、指示情報の入力は省略することもできる。   The motion predictor 602 performs processing based on the shape information input via the line L603, the motion vector of the previous partial region in the processing order input via the line L606, and the instruction information input via the line L604. Are generated, and the predicted motion vector is output via line L607. Note that the input of the instruction information can be omitted by narrowing the prediction motion vector candidates to one by a predetermined method.

加算器603は、ラインL607経由で入力される予測動きベクトルと、ラインL605経由で入力される差分動きベクトルを加算し、対象ブロック又は当該対象ブロック内の小区画の動きベクトルを生成し、当該動きベクトルをラインL606を介して出力する。   The adder 603 adds the predicted motion vector input via the line L607 and the differential motion vector input via the line L605 to generate a motion vector of the target block or a small section in the target block, and The vector is output via line L606.

逆量子化器604は、ラインL602経由で入力された量子化変換係数を逆量子化することにより、逆量子化変換係数を生成する。逆量子化器604は、生成した逆量子化変換係数をラインL608経由で出力する。   The inverse quantizer 604 generates an inverse quantized transform coefficient by inversely quantizing the quantized transform coefficient input via the line L602. The inverse quantizer 604 outputs the generated inverse quantization transform coefficient via the line L608.

逆変換器605は、ラインL608経由で入力された逆量子化変換係数を逆直交変換することにより、再生残差信号を生成する。逆変換器605は、生成した再生残差信号をラインL609経由で出力する。   The inverse transformer 605 generates a reproduction residual signal by performing inverse orthogonal transform on the inverse quantization transform coefficient input via the line L608. The inverse converter 605 outputs the generated reproduction residual signal via the line L609.

なお、生成された再生残差信号が量子化されていない場合には、動画像復号装置20は、逆量子化器604を備えていなくてもよい。同様に生成された再生残差信号が変換されていない場合には、動画像復号装置20は、逆変換器605を備えていなくてもよい。   Note that when the generated reproduction residual signal is not quantized, the moving picture decoding apparatus 20 may not include the inverse quantizer 604. Similarly, when the generated reproduction residual signal is not converted, the video decoding device 20 may not include the inverse converter 605.

フレームメモリ606は、ラインL610経由で入力される既再生の画像信号、即ち、処理対象の入力画像より処理順で前のフレーム画像信号(以下、参照フレーム画像信号)を格納する。また、フレームメモリ606は、ラインL611経由で、参照フレーム画像信号を出力する。   The frame memory 606 stores an already reproduced image signal input via the line L610, that is, a frame image signal (hereinafter referred to as a reference frame image signal) preceding the processing target input image in processing order. The frame memory 606 outputs a reference frame image signal via the line L611.

予測信号生成器607は、ラインL611経由で入力される参照フレーム画像信号の所定範囲内の画像信号から、ラインL606経由で入力される動きベクトルとラインL603経由で入力される形状情報に基づいて、対象ブロック内の各小区画の画像の予測信号を生成する。予測信号生成器607は、ラインL612経由で、生成した予測信号を出力する。なお、本明細書においては説明を省略したが、予測信号は画面間予測以外にも、画面内予測によって生成されてもよい。   The prediction signal generator 607 is based on the motion vector input via the line L606 and the shape information input via the line L603 from the image signal within the predetermined range of the reference frame image signal input via the line L611. A prediction signal of an image of each small section in the target block is generated. The prediction signal generator 607 outputs the generated prediction signal via the line L612. In addition, although description is abbreviate | omitted in this specification, a prediction signal may be produced | generated by the prediction in a screen other than the prediction between screens.

加算器608は、ラインL609経由で入力される再生残差信号と、ラインL612経由で入力される対象ブロックの予測信号とを加算することにより、再生画像信号を生成する。加算器608は、再生画像信号をラインL610経由で出力する。   The adder 608 generates a reproduced image signal by adding the reproduction residual signal input via the line L609 and the prediction signal of the target block input via the line L612. The adder 608 outputs the reproduced image signal via the line L610.

図35は、一実施形態に係る動き予測器の構成を示す図である。図35に示すように、動き予測器602は、動きベクトルメモリ6021、動き参照先候補生成器6022、及び、予測動きベクトル生成器6023を有している。   FIG. 35 is a diagram illustrating a configuration of a motion predictor according to an embodiment. As illustrated in FIG. 35, the motion predictor 602 includes a motion vector memory 6021, a motion reference destination candidate generator 6022, and a predicted motion vector generator 6023.

動きベクトルメモリ6021は、ラインL606経由で入力される動きベクトルを格納する。動きベクトルメモリ6021に格納される動きベクトルは、対象ブロック又は処理対象の小区画よりも処理順で前の処理済みの部分領域の動きベクトルである。動きベクトルメモリ6021は、格納した動きベクトルを、処理対象の小区画用の予測動きベクトルの導出のために、ラインL6021経由で出力する。   The motion vector memory 6021 stores a motion vector input via the line L606. The motion vector stored in the motion vector memory 6021 is a motion vector of a partial area that has been processed before the target block or processing target sub-partition in the processing order. The motion vector memory 6021 outputs the stored motion vector via a line L6021, in order to derive a predicted motion vector for the processing target small section.

動き参照先候補生成器6022は、ラインL603経由で入力される形状情報に基づいて、後述する方法によって、ラインL6021経由で入力される動きベクトルから、予測動きベクトルの候補を生成し、ラインL6022を経由して出力する。   The motion reference destination candidate generator 6022 generates a predicted motion vector candidate from the motion vector input via the line L6021, based on the shape information input via the line L603, by a method described later, and sets the line L6022 as the line L6022. Output via.

予測動きベクトル生成器6023は、ラインL6022経由で入力される予測動きベクトルの候補から、ラインL604経由で入力される予測動きベクトルの指示情報に基づいて、予測動きベクトルを決定し、決定した予測動きベクトルをラインL607経由で出力する。なお、動き参照先候補生成器において生成する候補の数を一つに限定することで、選択すべき候補を特定する指示情報の入力を省略することができる。   The predicted motion vector generator 6023 determines a predicted motion vector based on the predicted motion vector instruction information input via the line L604 from the predicted motion vector candidates input via the line L6022, and the determined predicted motion The vector is output via line L607. Note that by limiting the number of candidates generated by the motion reference destination candidate generator to one, the input of instruction information for specifying candidates to be selected can be omitted.

以下、動画像復号装置20の動作と、一実施形態に係る動画像復号方法について説明する。図36は、一実施形態に係る動画像復号方法のフローチャートである。図36に示すように、一実施形態においては、まず、ステップS621において、データ復号器601が、上述したように、対象ブロックに関して、圧縮データ内の符号化データを復号して、対象ブロックの量子化変換係数、形状情報、及び、差分動きベクトルを復元する。また、ステップS621においては、区画可否情報及び指示情報が復元され得る。さらに、ステップS621においては、逆量子化器604が、復元された量子化変換係数から逆量子化変換係数を生成し、逆変換器605が逆量子化変換係数から再生残差信号を生成し得る。   Hereinafter, an operation of the video decoding device 20 and a video decoding method according to an embodiment will be described. FIG. 36 is a flowchart of a video decoding method according to an embodiment. As shown in FIG. 36, in one embodiment, first, in step S621, as described above, the data decoder 601 decodes the encoded data in the compressed data for the target block, and the quantum of the target block. The conversion factor, shape information, and differential motion vector are restored. Further, in step S621, the partition availability information and the instruction information can be restored. Further, in step S621, the inverse quantizer 604 can generate an inverse quantized transform coefficient from the restored quantized transform coefficient, and the inverse transformer 605 can generate a reproduction residual signal from the inverse quantized transform coefficient. .

次いで、ステップS622において、動き予測器602が、対象ブロック内の各小区画を処理対象とし、処理対象の小区画の予測動きベクトルを求める。続くステップS623においては、加算器603が、処理対象の小区画の予測動きベクトルと差分動きベクトルとを加算することにより、動きベクトルを生成する。   Next, in step S622, the motion predictor 602 sets each small partition in the target block as a processing target, and obtains a predicted motion vector of the processing target small partition. In subsequent step S623, the adder 603 generates a motion vector by adding the predicted motion vector and the difference motion vector of the processing target sub-partition.

次いで、ステップS624において、予測信号生成器607が、対象ブロックの動きベクトルを用いて、フレームメモリ606内の参照フレーム画像信号から、予測信号を生成する。続くステップS625においては、加算器608が、対象ブロックの予測信号と再生残差信号を加算することにより、再生画像信号を生成する。   Next, in step S624, the prediction signal generator 607 generates a prediction signal from the reference frame image signal in the frame memory 606 using the motion vector of the target block. In the subsequent step S625, the adder 608 adds the prediction signal of the target block and the reproduction residual signal to generate a reproduction image signal.

次いで、ステップS626においては、ステップS625で生成された再生画像信号が既再生の画像信号としてフレームメモリ606に格納される。続くステップS627においては、全てのブロックに対して処理が行われたか否かが判定される。全てのブロックに対する処理が終了していない場合には、未処理のブロックを対象ブロックとして、ステップS621からの処理が継続される。一方、全てのブロックの処理が終了している場合には、処理は終了する。   Next, in step S626, the reproduced image signal generated in step S625 is stored in the frame memory 606 as an already reproduced image signal. In a succeeding step S627, it is determined whether or not processing has been performed on all blocks. If the processing for all the blocks has not been completed, the processing from step S621 is continued with the unprocessed block as the target block. On the other hand, if all the blocks have been processed, the process ends.

以下、動き予測器602の動作について詳細に説明する。図37は、一実施形態に係る動き予測器の処理を示すフローチャートである。動き予測器602は、図37に示すフローチャートに従って、予測動きベクトルを生成する。   Hereinafter, the operation of the motion predictor 602 will be described in detail. FIG. 37 is a flowchart illustrating processing of the motion predictor according to an embodiment. The motion predictor 602 generates a predicted motion vector according to the flowchart shown in FIG.

一実施形態においては、ステップS615−1において、カウンタiの値が「0」に設定される。以下、i=0のときは第1小区画に対する処理が行われ、i=1のときは第2小区画に対する処理が行われるものとする。   In one embodiment, the value of the counter i is set to “0” in step S615-1. Hereinafter, it is assumed that when i = 0, the process for the first small section is performed, and when i = 1, the process for the second small section is performed.

次いで、ステップS615−2において、処理対象の小区画より処理順で前の部分領域の動きベクトルのうち、処理対象の小区画の予測動きベクトルになり得る2通りの候補(左側の候補及び上側の候補)が、図29、図30、図31、図32、及び図33を用いて上述した方法に従って求められる。   Next, in step S615-2, two candidate candidates (left candidate and upper candidate) that can be predicted motion vectors of the sub-parts to be processed among the motion vectors of the partial areas preceding in the processing order from the sub-parts to be processed. Candidates) are obtained according to the method described above with reference to FIGS. 29, 30, 31, 32, and 33.

次いで、ステップS615−3において、ステップS615−2で生成された候補の数NCandが、「0」であるか否かが判定される。NCandが「0」である場合(Yes)には、処理はステップS615−4に進む。NCandが「0」でない場合(No)には、処理はステップS615−5に進む。   Next, in step S615-3, it is determined whether or not the number NCand of candidates generated in step S615-2 is “0”. If NCand is “0” (Yes), the process proceeds to step S615-4. If NCand is not “0” (No), the process proceeds to step S615-5.

ステップS615−4においては、予測動きベクトルPMVがゼロベクトルに設定され、処理はステップS615−11に進む。この際、ゼロベクトルでなく、予め定めておいたブロックの動きベクトルや処理対象の小区画に対して処理順で直前の部分領域の動きベクトルが予測動きベクトルPMVとして設定されてもよい。   In step S615-4, the predicted motion vector PMV is set to a zero vector, and the process proceeds to step S615-11. At this time, instead of the zero vector, the motion vector of the block determined in advance or the motion vector of the partial area immediately before in the processing order with respect to the small section to be processed may be set as the predicted motion vector PMV.

ステップS615−5においては、ステップS615−2で生成された候補の数NCandが「1」であるか否かが判定される。NCandが「1」である場合(Yes)には、処理はステップS615−6に進む。NCandが「1」でない場合(No)には、処理はステップS615−7に進む。   In step S615-5, it is determined whether the number NCand of candidates generated in step S615-2 is “1”. If NCand is “1” (Yes), the process proceeds to step S615-6. If NCand is not “1” (No), the process proceeds to step S615-7.

ステップS615−6においては、ステップS615−2で生成された一つの候補が、PMVに設定される。そして、処理はステップS615−11に進む。   In step S615-6, one candidate generated in step S615-2 is set as the PMV. Then, the process proceeds to step S615-11.

ステップS615−7においては、ステップS615−2で生成された候補から、選択すべきPMVを指示するための情報pmv_left_flagが取得される。そして、処理は、ステップS615−8に進む。   In step S615-7, information pmv_left_flag for indicating the PMV to be selected is obtained from the candidates generated in step S615-2. Then, the process proceeds to step S615-8.

ステップS615−8においては、pmv_left_flagの値が「1」であるか否かが判定される。pmv_left_flagの値が「1」である場合(Yes)には、処理はステップS615−9に進む。pmv_left_flagの値が「1」でない場合(No)には、処理はステップS615−10に進む。   In step S615-8, it is determined whether the value of pmv_left_flag is “1”. If the value of pmv_left_flag is “1” (Yes), the process proceeds to step S615-9. If the value of pmv_left_flag is not “1” (No), the process proceeds to step S615-10.

ステップS615−9においては、処理対象の小区画の左側の部分領域の動きベクトルがPMVに設定される。そして、処理はステップS615−11に進む。   In step S615-9, the motion vector of the partial region on the left side of the processing target subsection is set to PMV. Then, the process proceeds to step S615-11.

ステップS615−10においては、処理対象の小区画の左側の部分領域の動きベクトルがPMVに設定される。そして、処理はステップS615−11に進む。   In step S615-10, the motion vector of the partial region on the left side of the processing target subsection is set to PMV. Then, the process proceeds to step S615-11.

ステップS615−11においては、設定されたPMVが出力される。そして、処理はステップS615−12に進む。   In step S615-11, the set PMV is output. Then, the process proceeds to step S615-12.

次いで、ステップS615−12においては、カウンタiの値に「1」が加算される。そして、処理はステップS615−13に進む。   Next, in step S615-12, “1” is added to the value of the counter i. Then, the process proceeds to step S615-13.

次いで、ステップS615−13においては、カウンタiの値が「2」より小さいか否かが判定される。カウンタiの値が「2」より小さい場合(Yes)には、処理はステップS615−2に進む。一方、カウンタiの値が2より小さくない場合(No)には、処理は終了する。   Next, in step S615-13, it is determined whether or not the value of the counter i is smaller than “2”. If the value of the counter i is smaller than “2” (Yes), the process proceeds to step S615-2. On the other hand, when the value of the counter i is not smaller than 2 (No), the process ends.

なお、ステップS615−2において、生成する予測動きベクトルの候補の数を一つに限定することで、ステップS615−5、S615−6、S615−7、S615−8、S615−9、S615−10の処理を省略することができる。この限定のための方法は、予測動きベクトル生成器6023について上述したように、制限するものではないが、例えば、三つの候補の中間値を用いる方法、二つの候補の平均値を用いる方法、複数の予測動きベクトルの候補から一つの予測動きベクトルを選択するための優先順位を決めておく方法、といった方法を利用することができる。その場合には、ステップS615−03において、NCandが「0」でない場合(No)には、処理はステップS615−6に進む。   In step S615-2, by limiting the number of prediction motion vector candidates to be generated to one, steps S615-5, S615-6, S615-7, S615-8, S615-9, S615-10 are performed. This process can be omitted. The method for this limitation is not limited as described above for the motion vector predictor generator 6023. For example, a method using an intermediate value of three candidates, a method using an average value of two candidates, A method of determining a priority order for selecting one predicted motion vector from the predicted motion vector candidates can be used. In this case, if NCand is not “0” in step S615-03 (No), the process proceeds to step S615-6.

また、上述した方法は、復号済みの動きベクトルを用いて処理対象の小区画の予測信号を生成する場合における動きベクトル選択方法として適用することができる。つまり、図37のステップS615−2にて選択された予測動きベクトルを用いて、処理対象の小区画の予測信号を生成してもよい。この場合には、差分動きベクトルを復号する必要がないため、動き予測器602から出力される予測動きベクトルは、加算器603ではなく、予測信号生成器607に出力される。   Further, the above-described method can be applied as a motion vector selection method in the case of generating a prediction signal of a processing target small section using a decoded motion vector. That is, the prediction signal of the small section to be processed may be generated using the prediction motion vector selected in step S615-2 in FIG. In this case, since it is not necessary to decode the differential motion vector, the predicted motion vector output from the motion predictor 602 is output to the predicted signal generator 607 instead of the adder 603.

さらに、差分動きベクトルを復号するか否かを特定する適用情報をデータ復号器601にて復号してもよい。この変形態様では、適用情報に基づいて動き予測器602が、予測動きベクトルを加算器603に出力するか、予測信号生成器607に出力かを切り替える機能を含み得る。   Further, the application information specifying whether or not to decode the differential motion vector may be decoded by the data decoder 601. In this variation, the motion predictor 602 may include a function of switching whether to output the predicted motion vector to the adder 603 or the predicted signal generator 607 based on the application information.

なお、この変形態様では、対象ブロック内の全ての小区画の動きベクトルが同じとなることは、対象ブロックを区切る意味がなくなるため、好ましくない。したがって、この変形態様では、図37のステップS615−2において処理対象の小区画の予測動きベクトルの候補を生成する際に、対象ブロックに含まれる小区画であり処理対象の小区画より処理順で前の小区画の動きベクトルは予測動きベクトルの候補から除外してもよい。例えば、対象ブロックが二つの小区画に区切られており、第1小区画の動きベクトルが先に復元されている場合には、第1小区画の動きベクトルは第2小区画の予測動きベクトルの候補から除外される。また、第1小区画の動きベクトルと、部分領域U2の動きベクトルが同じ場合には、部分領域U2の動きベクトルは第2小区画の予測動きベクトルの生成には用いなくてもよい。   In this modification, it is not preferable that the motion vectors of all the small sections in the target block are the same because it makes no sense to divide the target block. Therefore, in this modification, when generating the motion vector predictor candidate for the processing target sub-partition in step S615-2 in FIG. 37, the sub-parts included in the target block are processed in the processing order from the processing target sub-partition. The motion vector of the previous small section may be excluded from the prediction motion vector candidates. For example, when the target block is divided into two subsections and the motion vector of the first subsection is restored first, the motion vector of the first subsection is the predicted motion vector of the second subsection. Excluded from the candidate. Further, when the motion vector of the first small section and the motion vector of the partial area U2 are the same, the motion vector of the partial area U2 may not be used for generating the predicted motion vector of the second small section.

また、この変形態様においては、差分動きベクトルを復号するか否かを指示する適用情報を算術復号する際の生起確率を、形状情報に応じて適応的に決定し得る。この方法として、例えば、復号済みの部分領域と接しないことのある第2小区画よりも、常に符号化済みの領域と接する第1区画のほうが、差分動きベクトルを符号化しない確率を高く設定し得る。なお、この変形態様の効果については、図34と図35を用いて説明済みのためここでは割愛する。   Further, in this modified mode, the occurrence probability at the time of arithmetic decoding of the application information indicating whether or not to decode the differential motion vector can be adaptively determined according to the shape information. As this method, for example, the probability that the differential motion vector is not encoded is set higher in the first partition always in contact with the encoded region than in the second small partition that may not be in contact with the decoded partial region. obtain. Note that the effect of this modification is not described here because it has already been described with reference to FIGS.

以下、コンピュータを動画像符号化装置10として動作させるための動画像符号化プログラム、及び、コンピュータを動画像復号装置20として動作させるための動画像復号プログラムについて説明する。   Hereinafter, a moving image encoding program for operating a computer as the moving image encoding device 10 and a moving image decoding program for operating the computer as a moving image decoding device 20 will be described.

図38は、一実施形態に係る動画像符号化プログラムの構成を示す図である。図39は、一実施形態に係る動画像復号プログラムの構成を示す図である。以下、図38及び、図39と共に、一実施形態に係るコンピュータのハードウェア構成を示す図18、及び、一実施形態に係るコンピュータを示す斜視図である図19を参照する。   FIG. 38 is a diagram illustrating a configuration of a moving image encoding program according to an embodiment. FIG. 39 is a diagram illustrating a configuration of a moving image decoding program according to an embodiment. 38 and 39, FIG. 18 showing a hardware configuration of a computer according to an embodiment, and FIG. 19 which is a perspective view showing a computer according to an embodiment will be referred to.

図38に示す動画像符号化プログラムP10は、記録媒体SMに格納されて提供され得る。また、図38に示す動画像復号プログラムP20も、記録媒体SMに格納されて提供され得る。なお、記録媒体SMとしては、フロッピーディスク、CD−ROM、DVD、あるいはROM等の記録媒体、あるいは半導体メモリ等が例示される。   The moving image encoding program P10 shown in FIG. 38 can be provided by being stored in the recording medium SM. Also, the moving picture decoding program P20 shown in FIG. 38 can be stored and provided in the recording medium SM. The recording medium SM is exemplified by a floppy disk, a CD-ROM, a DVD, a ROM, or other recording medium, or a semiconductor memory.

上述したように、コンピュータC10は、フロッピーディスクドライブ装置、CD−ROMドライブ装置、DVDドライブ装置等の読取装置C12と、オペレーティングシステムを常駐させた作業用メモリ(RAM)C14と、記録媒体SMに記憶されたプログラムを記憶するメモリC16と、ディスプレイといった表示装置C18と、入力装置であるマウスC20及びキーボードC22と、データ等の送受を行うための通信装置C24と、プログラムの実行を制御するCPU C26と、を備え得る。   As described above, the computer C10 stores the reading device C12 such as a floppy disk drive device, a CD-ROM drive device, a DVD drive device, the working memory (RAM) C14 in which the operating system is resident, and the recording medium SM. A memory C16 for storing the recorded program, a display device C18 such as a display, a mouse C20 and a keyboard C22 as input devices, a communication device C24 for transmitting and receiving data and the like, and a CPU C26 for controlling execution of the program Can be provided.

コンピュータC10は、記録媒体SMが読取装置C12に挿入されると、読取装置C12から記録媒体SMに格納された動画像符号化プログラムP10にアクセス可能になり、当該プログラムP10によって、動画像符号化装置10として動作することが可能になる。   When the recording medium SM is inserted into the reading device C12, the computer C10 can access the moving image encoding program P10 stored in the recording medium SM from the reading device C12. 10 can be operated.

また、コンピュータC10は、記録媒体SMが読取装置C12に挿入されると、読取装置C12から記録媒体SMに格納された動画像復号プログラムP20にアクセス可能になり、当該プログラムP20によって、動画像復号装置20として動作することが可能になる。   Further, when the recording medium SM is inserted into the reading device C12, the computer C10 can access the moving image decoding program P20 stored in the recording medium SM from the reading device C12, and the moving image decoding device is obtained by the program P20. 20 can be operated.

図19に示すように、動画像符号化プログラムP10及び動画像復号プログラムP20は、搬送波に重畳されたコンピュータデータ信号CWとしてネットワークを介して提供されるものであってもよい。この場合、コンピュータC10は、通信装置C24によって受信した動画像符号化プログラムP10又は動画像復号プログラムP20をメモリC16に格納し、プログラムP10又はP20を実行することができる。   As shown in FIG. 19, the moving image encoding program P10 and the moving image decoding program P20 may be provided via a network as a computer data signal CW superimposed on a carrier wave. In this case, the computer C10 can store the moving image encoding program P10 or the moving image decoding program P20 received by the communication device C24 in the memory C16 and execute the program P10 or P20.

図38に示すように、動画像符号化プログラムP10は、ブロック分割モジュールM101、小区画生成器モジュールM102、記憶モジュールM103、動き検出モジュールM104、予測信号生成モジュールM105、動き予測モジュールM106、減算モジュールM107、残差信号生成モジュールM108、変換モジュールM109、量子化モジュールM110、逆量子化モジュールM111、逆変換モジュールM112、加算モジュールM113、及びエントロピー符号化モジュールM114を含んでいる。   As shown in FIG. 38, the moving image encoding program P10 includes a block division module M101, a small section generator module M102, a storage module M103, a motion detection module M104, a prediction signal generation module M105, a motion prediction module M106, and a subtraction module M107. A residual signal generation module M108, a transform module M109, a quantization module M110, an inverse quantization module M111, an inverse transform module M112, an addition module M113, and an entropy encoding module M114.

一実施形態においては、ブロック分割モジュールM101、小区画生成器モジュールM102、記憶モジュールM103、動き検出モジュールM104、予測信号生成モジュールM105、動き予測モジュールM106、減算モジュールM107、残差信号生成モジュールM108、変換モジュールM109、量子化モジュールM110、逆量子化モジュールM111、逆変換モジュールM112、加算モジュールM113、エントロピー符号化モジュールM114は、動画像符号化装置10のブロック分割器501、小区画生成器502、フレームメモリ503、動き検出器504、予測信号生成器505、動き予測器506、減算器507、残差信号生成器508、変換器509、量子化器510、逆量子化器511、逆変換器512、加算器513、エントロピー符号化器514と同様の機能を、それぞれコンピュータC10に実行させる。かかる動画像符号化プログラムP10によれば、コンピュータC10は、動画像符号化装置10として動作することが可能となる。   In one embodiment, the block division module M101, the sub-partition generator module M102, the storage module M103, the motion detection module M104, the prediction signal generation module M105, the motion prediction module M106, the subtraction module M107, the residual signal generation module M108, the transformation The module M109, the quantization module M110, the inverse quantization module M111, the inverse transformation module M112, the addition module M113, and the entropy encoding module M114 are the block divider 501, the small partition generator 502, the frame memory of the moving picture encoding apparatus 10. 503, motion detector 504, prediction signal generator 505, motion predictor 506, subtractor 507, residual signal generator 508, converter 509, quantizer 510, inverse quantizer 511, inverse transformer 512, Adder 513, the same function as the entropy encoder 514, respectively causing a computer to execute C10. According to the moving picture coding program P10, the computer C10 can operate as the moving picture coding apparatus 10.

図39に示すように、動画像復号プログラムP20は、データ復号モジュールM201、動き予測モジュールM202、加算モジュールM203、逆量子化モジュールM204、逆変換モジュールM205、記憶モジュールM206、予測信号生成モジュールM207、及び、加算モジュールM208を含んでいる。   As shown in FIG. 39, the moving picture decoding program P20 includes a data decoding module M201, a motion prediction module M202, an addition module M203, an inverse quantization module M204, an inverse transformation module M205, a storage module M206, a prediction signal generation module M207, and , And an addition module M208.

一実施形態においては、データ復号モジュールM201、動き予測モジュールM202、加算モジュールM203、逆量子化モジュールM204、逆変換モジュールM205、記憶モジュールM206、予測信号生成モジュールM207、加算モジュールM208は、動画像復号装置20のデータ復号器601、動き予測器602、加算器603、逆量子化器604、逆変換器605、フレームメモリ606、予測信号生成器607、加算器608と同様の機能を、それぞれコンピュータC10に実行させる。かかる動画像復号プログラムP20によれば、コンピュータC10は、動画像復号装置20として動作することが可能となる。   In one embodiment, the data decoding module M201, the motion prediction module M202, the addition module M203, the inverse quantization module M204, the inverse transformation module M205, the storage module M206, the prediction signal generation module M207, and the addition module M208 are the moving picture decoding device. The same functions as the 20 data decoder 601, motion predictor 602, adder 603, inverse quantizer 604, inverse transformer 605, frame memory 606, predicted signal generator 607, and adder 608 are added to the computer C10. Let it run. According to the moving picture decoding program P20, the computer C10 can operate as the moving picture decoding apparatus 20.

以上、種々の実施形態について詳細に説明した。しかし、本発明は上記実施形態に限定されるものではない。本発明は、その要旨を逸脱しない範囲で様々な変形が可能である。   Various embodiments have been described in detail above. However, the present invention is not limited to the above embodiment. The present invention can be variously modified without departing from the gist thereof.

100…画像予測符号化装置、101…入力端子、102…ブロック分割器、103…予測信号生成器、104…フレームメモリ、105…減算器、106…変換器、107…量子化器、108…逆量子化器、109…逆変換器、110…加算器、111…量子化変換係数符号化器、112…出力端子、113…予測ブロック分割タイプ選択器、114…動き情報推定器、115…予測情報用メモリ、116…予測情報符号化器、201…入力端子、202…データ解析器、203…逆量子化器、204…逆変換器、205…加算器、206…出力端子、207…量子化変換係数復号器、208…予測情報復号器、10…動画像符号化装置、20…動画像復号装置、501…ブロック分割器、502…小区画生成器、503…フレームメモリ、504…動き検出器、505…予測信号生成器、506…動き予測器、507…減算器、508…残差信号生成器、509…変換器、510…量子化器、511…逆量子化器、512…逆変換器、513…加算器、514…エントロピー符号化器、601…データ復号器、602…動き予測器、603…加算器、604…逆量子化器、605…逆変換器、606…フレームメモリ、607…予測信号生成器、608…加算器、5061…動きベクトルメモリ、5062…動き参照先候補生成器、5063…予測動きベクトル生成器、6021…動きベクトルメモリ、6022…動き参照先候補生成器、6023…予測動きベクトル生成器。   DESCRIPTION OF SYMBOLS 100 ... Image predictive coding apparatus, 101 ... Input terminal, 102 ... Block divider, 103 ... Prediction signal generator, 104 ... Frame memory, 105 ... Subtractor, 106 ... Converter, 107 ... Quantizer, 108 ... Inverse Quantizer, 109 ... Inverse transformer, 110 ... Adder, 111 ... Quantized transform coefficient encoder, 112 ... Output terminal, 113 ... Predictive block division type selector, 114 ... Motion information estimator, 115 ... Prediction information Memory 116, Prediction information encoder 201 201 Input terminal 202 Data analyzer 203 Inverse quantizer 204 Inverse transformer 205 Adder 206 Output terminal 207 Quantization transform Coefficient decoder, 208 ... Prediction information decoder, 10 ... Video encoding device, 20 ... Video decoding device, 501 ... Block divider, 502 ... Subdivision generator, 503 ... Frame memory 504 ... Motion detector, 505 ... Prediction signal generator, 506 ... Motion predictor, 507 ... Subtractor, 508 ... Residual signal generator, 509 ... Converter, 510 ... Quantizer, 511 ... Inverse quantizer, DESCRIPTION OF SYMBOLS 512 ... Inverse converter, 513 ... Adder, 514 ... Entropy encoder, 601 ... Data decoder, 602 ... Motion predictor, 603 ... Adder, 604 ... Inverse quantizer, 605 ... Inverse converter, 606 ... Frame memory, 607 ... Prediction signal generator, 608 ... Adder, 5061 ... Motion vector memory, 5062 ... Motion reference destination candidate generator, 5063 ... Prediction motion vector generator, 6021 ... Motion vector memory, 6022 ... Motion reference destination candidate Generator, 6023 ... Predictive motion vector generator.

Claims (1)

複数の領域に分割して符号化された画像の圧縮データの中から、復号対象となる対象領域の信号の予測に用いる予測方法を指示する予測情報の符号化データと、前記対象領域の予測信号の符号化データと、残差信号の符号化データとを抽出するデータ解析ステップと、
前記予測情報の符号化データを復号して、前記対象領域の小分割領域である複数の予測領域の数と領域形状を示す予測ブロック分割タイプと、各予測領域の予測信号を既再生信号から取得するための動き情報を復元する予測情報復号ステップと、
前記対象領域に付随する予測情報に基づいて、前記対象領域の予測信号を生成する予測信号生成ステップと、
前記残差信号の符号化データから前記対象領域の再生残差信号を復元する残差信号復元ステップと、
前記予測信号と前記再生残差信号とを加算することによって前記対象領域の画素信号を復元し、該画素信号を前記既再生信号として保存する記録ステップと、
を含み、
前記予測情報復号ステップでは、
前記対象領域の予測ブロック分割タイプを復号して、該予測ブロック分割タイプを、復号済みの予測情報を保存する予測情報保存手段に保存し、
前記対象領域に隣接する隣接領域の予測情報と前記対象領域内の復号済み予測領域の数と前記対象領域の復号済み予測情報に基づいて、次の予測領域である対象予測領域の予測信号の生成に用いる動き情報の候補を該対象予測領域に隣接する領域の復号済み動き情報から選出し、
前記選出した動き情報の候補の数に応じて、選出した動き情報の候補を用いた前記対象予測領域の予測信号の生成を指示するマージブロック情報及び動き情報、又は該マージブロック情報と該動き情報の何れか一方を復号し、前記対象予測領域の予測信号の生成に用いる動き情報を前記予測情報保存手段に保存する、
ことを特徴とする画像予測復号方法。
Out of compressed image data encoded by dividing into a plurality of regions, encoded data of prediction information that indicates a prediction method used for predicting a signal of a target region to be decoded, and a prediction signal of the target region A data analysis step of extracting the encoded data and the encoded data of the residual signal;
The encoded data of the prediction information is decoded, and the prediction block division type indicating the number and the shape of a plurality of prediction areas, which are subdivision areas of the target area, and the prediction signal of each prediction area are obtained from the already reproduced signal. Predictive information decoding step for restoring motion information to
A prediction signal generating step for generating a prediction signal of the target region based on prediction information associated with the target region;
A residual signal restoration step of restoring the reproduction residual signal of the target area from the encoded data of the residual signal;
A recording step of restoring the pixel signal of the target area by adding the prediction signal and the reproduction residual signal, and storing the pixel signal as the already reproduced signal;
Including
In the prediction information decoding step,
Decoding the prediction block division type of the target area, and storing the prediction block division type in a prediction information storage unit that stores the decoded prediction information;
Generation of a prediction signal of a target prediction region that is a next prediction region based on prediction information of an adjacent region adjacent to the target region, the number of decoded prediction regions in the target region, and decoded prediction information of the target region Selecting candidate motion information to be used from the decoded motion information of the region adjacent to the target prediction region,
In accordance with the number of selected motion information candidates, merge block information and motion information for instructing generation of a prediction signal of the target prediction region using the selected motion information candidates, or the merge block information and the motion information Any one of the above, and the motion information used to generate the prediction signal of the target prediction region is stored in the prediction information storage unit,
An image predictive decoding method characterized by the above.
JP2019103923A 2010-07-20 2019-06-03 Image prediction decoding device, and image prediction decoding method Pending JP2019140704A (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010163245 2010-07-20
JP2010163245 2010-07-20
JP2010174869 2010-08-03
JP2010174869 2010-08-03

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018051220A Division JP6535780B2 (en) 2010-07-20 2018-03-19 Image prediction decoding device and image prediction decoding method

Publications (1)

Publication Number Publication Date
JP2019140704A true JP2019140704A (en) 2019-08-22

Family

ID=45496857

Family Applications (8)

Application Number Title Priority Date Filing Date
JP2012525384A Active JP5661114B2 (en) 2010-07-20 2011-07-14 Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program
JP2014244133A Active JP5712330B2 (en) 2010-07-20 2014-12-02 Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program
JP2015045725A Active JP5951063B2 (en) 2010-07-20 2015-03-09 Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program
JP2016084633A Pending JP2016165135A (en) 2010-07-20 2016-04-20 Image prediction encoding device, image prediction encoding method, image prediction decoding device, and image prediction decoding method
JP2018051220A Active JP6535780B2 (en) 2010-07-20 2018-03-19 Image prediction decoding device and image prediction decoding method
JP2019103920A Pending JP2019165499A (en) 2010-07-20 2019-06-03 Image prediction decoding device, and image prediction decoding method
JP2019103922A Pending JP2019140703A (en) 2010-07-20 2019-06-03 Image prediction decoding device, and image prediction decoding method
JP2019103923A Pending JP2019140704A (en) 2010-07-20 2019-06-03 Image prediction decoding device, and image prediction decoding method

Family Applications Before (7)

Application Number Title Priority Date Filing Date
JP2012525384A Active JP5661114B2 (en) 2010-07-20 2011-07-14 Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program
JP2014244133A Active JP5712330B2 (en) 2010-07-20 2014-12-02 Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program
JP2015045725A Active JP5951063B2 (en) 2010-07-20 2015-03-09 Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program
JP2016084633A Pending JP2016165135A (en) 2010-07-20 2016-04-20 Image prediction encoding device, image prediction encoding method, image prediction decoding device, and image prediction decoding method
JP2018051220A Active JP6535780B2 (en) 2010-07-20 2018-03-19 Image prediction decoding device and image prediction decoding method
JP2019103920A Pending JP2019165499A (en) 2010-07-20 2019-06-03 Image prediction decoding device, and image prediction decoding method
JP2019103922A Pending JP2019140703A (en) 2010-07-20 2019-06-03 Image prediction decoding device, and image prediction decoding method

Country Status (19)

Country Link
US (8) US9185409B2 (en)
EP (6) EP3661211B1 (en)
JP (8) JP5661114B2 (en)
KR (7) KR101600919B1 (en)
CN (7) CN103004206B (en)
AU (1) AU2011280629B2 (en)
BR (1) BR112013001351B1 (en)
CA (8) CA2903530C (en)
DK (6) DK3661211T3 (en)
ES (6) ES2785606T3 (en)
FI (1) FI3661210T3 (en)
HU (4) HUE056567T2 (en)
MX (5) MX338236B (en)
PL (3) PL3664453T3 (en)
PT (6) PT2597874T (en)
RU (8) RU2573208C2 (en)
SG (1) SG187094A1 (en)
TW (2) TWI519140B (en)
WO (1) WO2012011432A1 (en)

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3567853B8 (en) 2009-03-23 2024-01-03 Ntt Docomo, Inc. Image predictive decoding device and image predictive decoding method
CN103385002A (en) * 2010-02-17 2013-11-06 韩国电子通信研究院 Device for encoding ultra-high definition image and method thereof, and decoding device and method thereof
ES2785606T3 (en) 2010-07-20 2020-10-07 Ntt Docomo Inc Picture predictive decoding device, picture predictive decoding method
JP5698541B2 (en) * 2011-01-12 2015-04-08 株式会社Nttドコモ Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program
US8917763B2 (en) * 2011-03-07 2014-12-23 Panasonic Corporation Motion compensation apparatus, video coding apparatus, video decoding apparatus, motion compensation method, program, and integrated circuit
JP2013207402A (en) * 2012-03-27 2013-10-07 Nippon Hoso Kyokai <Nhk> Image encoding device and program
TWI613906B (en) * 2012-04-06 2018-02-01 Jvc Kenwood Corp Video decoding device, image decoding method, and recording medium storing image decoding program
TWI657696B (en) * 2012-04-16 2019-04-21 日商Jvc建伍股份有限公司 Motion image encoding device, motion image encoding method, and recording medium for recording motion image encoding program
GB2501535A (en) 2012-04-26 2013-10-30 Sony Corp Chrominance Processing in High Efficiency Video Codecs
JP5972687B2 (en) * 2012-07-02 2016-08-17 株式会社Nttドコモ Moving picture predictive coding apparatus, moving picture predictive coding method, moving picture predictive coding program, moving picture predictive decoding apparatus, moving picture predictive decoding method, and moving picture predictive decoding program
JP5798539B2 (en) * 2012-09-24 2015-10-21 株式会社Nttドコモ Moving picture predictive coding apparatus, moving picture predictive coding method, moving picture predictive decoding apparatus, and moving picture predictive decoding method
JP5719401B2 (en) * 2013-04-02 2015-05-20 日本電信電話株式会社 Block size determination method, video encoding device, and program
CN103702127B (en) * 2013-12-30 2016-10-12 清华大学 Motion estimation search range Forecasting Methodology based on motion vector dependency and system
WO2015100729A1 (en) * 2014-01-03 2015-07-09 Mediatek Singapore Pte. Ltd. Improved merging candidate list construction in 3dvc
CN103841405B (en) * 2014-03-21 2016-07-06 华为技术有限公司 The decoding method of depth image and coding and decoding device
WO2015196333A1 (en) * 2014-06-23 2015-12-30 Mediatek Singapore Pte. Ltd. Segmental prediction for video coding
WO2016044979A1 (en) * 2014-09-22 2016-03-31 Mediatek Singapore Pte. Ltd. Segmental prediction for video coding
CN105556968B (en) * 2014-06-23 2018-09-04 联发科技(新加坡)私人有限公司 The device and method of predictive coding in three-dimensional or multi-view video coding system
KR20180006411A (en) * 2015-06-07 2018-01-17 엘지전자 주식회사 Method and apparatus for performing deblocking filtering
US20180199058A1 (en) * 2015-09-10 2018-07-12 Samsung Electronics Co., Ltd. Video encoding and decoding method and device
US10602157B2 (en) 2015-09-11 2020-03-24 Facebook, Inc. Variable bitrate control for distributed video encoding
US10375156B2 (en) 2015-09-11 2019-08-06 Facebook, Inc. Using worker nodes in a distributed video encoding system
US10063872B2 (en) 2015-09-11 2018-08-28 Facebook, Inc. Segment based encoding of video
US10341561B2 (en) * 2015-09-11 2019-07-02 Facebook, Inc. Distributed image stabilization
US10506235B2 (en) 2015-09-11 2019-12-10 Facebook, Inc. Distributed control of video encoding speeds
US10602153B2 (en) 2015-09-11 2020-03-24 Facebook, Inc. Ultra-high video compression
US10499070B2 (en) 2015-09-11 2019-12-03 Facebook, Inc. Key frame placement for distributed video encoding
FR3047379A1 (en) * 2016-01-29 2017-08-04 Orange METHOD FOR ENCODING AND DECODING DATA, DEVICE FOR ENCODING AND DECODING DATA AND CORRESPONDING COMPUTER PROGRAMS
WO2017220163A1 (en) 2016-06-24 2017-12-28 Huawei Technologies Co., Ltd. Devices and methods for video coding using segmentation based partitioning of video coding blocks
US20190253624A1 (en) * 2017-07-17 2019-08-15 Ki Baek Kim Image data encoding/decoding method and apparatus
US10957068B2 (en) * 2017-01-06 2021-03-23 Canon Kabushiki Kaisha Information processing apparatus and method of controlling the same
JP6894707B2 (en) * 2017-01-06 2021-06-30 キヤノン株式会社 Information processing device and its control method, program
US10218448B2 (en) * 2017-02-02 2019-02-26 Osram Sylvania Inc. System and method for determining vehicle position based upon light-based communication and time-of-flight measurements
US10531085B2 (en) * 2017-05-09 2020-01-07 Futurewei Technologies, Inc. Coding chroma samples in video compression
CN116527934A (en) * 2017-08-22 2023-08-01 松下电器(美国)知识产权公司 Image encoder, image decoder, and non-transitory computer readable medium
CN116320470A (en) * 2017-10-20 2023-06-23 富士通株式会社 Video decoding device, video decoding method, and storage medium
CN107659804B (en) * 2017-10-30 2019-03-12 河海大学 A kind of screen content video coding algorithm for virtual reality head-mounted display apparatus
US11025904B2 (en) * 2018-06-08 2021-06-01 Tencent America LLC Method and apparatus for temporal motion vector prediction
CN110662076B (en) * 2018-06-29 2022-10-04 北京字节跳动网络技术有限公司 Boundary enhancement of sub-blocks
CN110677679B (en) * 2018-07-01 2022-07-26 北京字节跳动网络技术有限公司 Shape dependent intra coding
CN117834907A (en) 2018-07-02 2024-04-05 英迪股份有限公司 Method for decoding video and method for encoding video
US10404980B1 (en) * 2018-07-10 2019-09-03 Tencent America LLC Intra prediction with wide angle mode in video coding
BR112021003510A2 (en) * 2018-09-19 2021-05-18 Fujitsu Limited video encoding apparatus, video encoding method, video encoding program, video decoding apparatus, video decoding method and video decoding program
CN109547781B (en) * 2018-10-26 2020-12-22 嘉兴奥恒进出口有限公司 Compression method and device based on image prediction
FR3088511B1 (en) * 2018-11-09 2021-05-28 Fond B Com AT LEAST ONE IMAGE DECODING PROCESS, CODING PROCEDURE, DEVICES, SIGNAL AND CORRESPONDING COMPUTER PROGRAMS.
CN111263144B (en) * 2018-11-30 2022-07-01 杭州海康威视数字技术股份有限公司 Motion information determination method and equipment
US11102513B2 (en) 2018-12-06 2021-08-24 Tencent America LLC One-level transform split and adaptive sub-block transform
US11533506B2 (en) 2019-02-08 2022-12-20 Tencent America LLC Method and apparatus for video coding
EP4246977A3 (en) * 2019-03-12 2023-12-27 Beijing Dajia Internet Information Technology Co., Ltd. Video coding for geometric inter partition prediction
EP3989583A4 (en) * 2019-06-23 2023-06-14 LG Electronics Inc. Signaling method and device for merge data syntax in video/image coding system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012005520A2 (en) * 2010-07-09 2012-01-12 Samsung Electronics Co., Ltd. Method and apparatus for encoding video by using block merging, and method and apparatus for decoding video by using block merging
JP2013528023A (en) * 2010-04-13 2013-07-04 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン Interplane prediction
JP2013530658A (en) * 2010-07-09 2013-07-25 サムスン エレクトロニクス カンパニー リミテッド Video encoding method and apparatus using block merging, video decoding method and apparatus using block merging

Family Cites Families (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3869672A (en) 1972-05-13 1975-03-04 Int Standard Electric Corp Method and arrangements for the digital control of operating functions, radio and television receivers
KR0166716B1 (en) 1992-06-18 1999-03-20 강진구 Encoding and decoding method and apparatus by using block dpcm
JPH07264598A (en) 1994-03-23 1995-10-13 Nippon Telegr & Teleph Corp <Ntt> Compensating method for motion, motion vector detecting circuit and motion compensating circuit
US5608458A (en) 1994-10-13 1997-03-04 Lucent Technologies Inc. Method and apparatus for a region-based approach to coding a sequence of video images
US5682204A (en) 1995-12-26 1997-10-28 C Cube Microsystems, Inc. Video encoder which uses intra-coding when an activity level of a current macro-block is smaller than a threshold level
CN1125568C (en) 1996-01-22 2003-10-22 松下电器产业株式会社 Digital image encoding and decoding method and apparatus using same
EP1085763B1 (en) 1996-05-28 2003-01-22 Matsushita Electric Industrial Co., Ltd. Image predictive coding apparatus and method.
EP0817499A3 (en) 1996-06-28 2002-05-22 Matsushita Electric Industrial Co., Ltd. Image coding method using extrapolated pixels in insignificant areas of blocks
JP2004343788A (en) 1996-10-31 2004-12-02 Toshiba Corp Video encoding apparatus, video decoding apparatus and recording medium with video encoded data recorded thereon
US6687405B1 (en) 1996-11-13 2004-02-03 Koninklijke Philips Electronics N.V. Image segmentation
CN1155259C (en) * 1996-11-26 2004-06-23 松下电器产业株式会社 Bit rate variable coding device and method, coding program recording medium
US6359929B1 (en) 1997-07-04 2002-03-19 Matsushita Electric Industrial Co., Ltd. Image predictive decoding method, image predictive decoding apparatus, image predictive coding apparatus, and data storage medium
EP1788816A3 (en) * 1997-11-05 2008-10-15 Sony Corporation Transform domain interpolation for resolution conversion of coded video data
US6483521B1 (en) 1998-02-02 2002-11-19 Matsushita Electric Industrial Co., Ltd. Image composition method, image composition apparatus, and data recording media
US7184482B2 (en) * 1999-04-17 2007-02-27 Altera Corporation Encoding system using motion vectors to represent frame-to-frame changes, wherein a decoder uses predictions of motion vectors in decoding
US6765964B1 (en) 2000-12-06 2004-07-20 Realnetworks, Inc. System and method for intracoding video data
EP2819411B1 (en) 2001-09-14 2018-08-29 NTT DoCoMo, Inc. Coding method and decoding method
JP3764458B2 (en) 2001-11-16 2006-04-05 株式会社エヌ・ティ・ティ・ドコモ Image encoding method, image decoding method, image encoding device, image decoding device, and program
JP3861698B2 (en) * 2002-01-23 2006-12-20 ソニー株式会社 Image information encoding apparatus and method, image information decoding apparatus and method, and program
US7003035B2 (en) 2002-01-25 2006-02-21 Microsoft Corporation Video coding methods and apparatuses
PT3525464T (en) 2002-04-19 2021-04-06 Panasonic Ip Corp America Picture coding and decoding method and system
CN1312927C (en) 2002-07-15 2007-04-25 株式会社日立制作所 Moving picture encoding method and decoding method
JP3504256B1 (en) 2002-12-10 2004-03-08 株式会社エヌ・ティ・ティ・ドコモ Video encoding method, video decoding method, video encoding device, and video decoding device
KR100560843B1 (en) 2003-04-10 2006-03-13 에스케이 텔레콤주식회사 Method and Apparatus for Determining Search Range for Adaptive Motion Vector for Use in Video Encoder
JP4373702B2 (en) 2003-05-07 2009-11-25 株式会社エヌ・ティ・ティ・ドコモ Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding method, moving picture decoding method, moving picture encoding program, and moving picture decoding program
JP2005005844A (en) 2003-06-10 2005-01-06 Hitachi Ltd Computation apparatus and coding processing program
MXPA05014211A (en) 2003-06-25 2006-05-31 Thomson Licensing Fast mode-decision encoding for interframes.
US7646815B2 (en) * 2003-07-15 2010-01-12 Lsi Corporation Intra estimation chroma mode 0 sub-block dependent prediction
US20050013498A1 (en) 2003-07-18 2005-01-20 Microsoft Corporation Coding of motion vector information
US8064520B2 (en) 2003-09-07 2011-11-22 Microsoft Corporation Advanced bi-directional predictive coding of interlaced video
US7400681B2 (en) 2003-11-28 2008-07-15 Scientific-Atlanta, Inc. Low-complexity motion vector prediction for video codec with two lists of reference pictures
JP4213646B2 (en) 2003-12-26 2009-01-21 株式会社エヌ・ティ・ティ・ドコモ Image encoding device, image encoding method, image encoding program, image decoding device, image decoding method, and image decoding program.
JP4313710B2 (en) 2004-03-25 2009-08-12 パナソニック株式会社 Image encoding method and image decoding method
JP4414904B2 (en) 2004-04-16 2010-02-17 株式会社エヌ・ティ・ティ・ドコモ Moving picture encoding apparatus, moving picture encoding method, moving picture encoding program, moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program
CN101023672A (en) * 2004-07-12 2007-08-22 诺基亚公司 System and method for motion prediction in scalable video coding
EP1784985B1 (en) * 2004-07-20 2017-05-10 Qualcomm Incorporated Method and apparatus for motion vector prediction in temporal video compression
US8085846B2 (en) 2004-08-24 2011-12-27 Thomson Licensing Method and apparatus for decoding hybrid intra-inter coded blocks
CN100471280C (en) * 2005-01-07 2009-03-18 株式会社Ntt都科摩 Motion image encoding apparatus, motion image decoding apparatus, motion image encoding method, motion image decoding method, motion image encoding program, and motion image decoding program
KR101108681B1 (en) 2005-01-19 2012-01-25 삼성전자주식회사 Frequency transform coefficient prediction method and apparatus in video codec, and video encoder and decoder therewith
US7580456B2 (en) * 2005-03-01 2009-08-25 Microsoft Corporation Prediction-based directional fractional pixel motion estimation for video coding
US20070025444A1 (en) 2005-07-28 2007-02-01 Shigeyuki Okada Coding Method
US8446954B2 (en) 2005-09-27 2013-05-21 Qualcomm Incorporated Mode selection techniques for multimedia coding
BRPI0619193A2 (en) 2005-11-30 2011-09-20 Toshiba Kk Toshiba Corp image encoding / image decoding method, image encoding / image decoding apparatus
EP1969853A1 (en) * 2006-01-05 2008-09-17 Thomson Licensing Inter-layer motion prediction method
TW200806040A (en) * 2006-01-05 2008-01-16 Nippon Telegraph & Telephone Video encoding method and decoding method, apparatuses therefor, programs therefor, and storage media for storing the programs
WO2007104266A1 (en) 2006-03-16 2007-09-20 Huawei Technologies Co., Ltd. Method and apparatus for realizing adaptive quantization in encoding process
JP5002286B2 (en) 2006-04-27 2012-08-15 キヤノン株式会社 Image encoding apparatus, image encoding method, program, and storage medium
CN101455087B (en) * 2006-05-24 2011-01-12 松下电器产业株式会社 Image coding device, image coding method, and image coding integrated circuit
US20080026729A1 (en) 2006-07-31 2008-01-31 Research In Motion Limited Method and apparatus for configuring unique profile settings for multiple services
EP2047687B1 (en) 2006-08-02 2018-05-16 Thomson Licensing DTV Adaptive geometric partitioning for video encoding
WO2008027192A2 (en) * 2006-08-25 2008-03-06 Thomson Licensing Methods and apparatus for reduced resolution partitioning
KR101023263B1 (en) * 2006-10-30 2011-03-21 니폰덴신뎅와 가부시키가이샤 Predictive reference information generation method, dynamic image encoding and decoding method, device thereof, and storage medium containing the program thereof
KR101383540B1 (en) 2007-01-03 2014-04-09 삼성전자주식회사 Method of estimating motion vector using multiple motion vector predictors, apparatus, encoder, decoder and decoding method
CN102547277B (en) * 2007-01-18 2014-12-03 弗劳恩霍夫应用研究促进协会 Device for generating quality scalable video data stream and method thereof
US20080240242A1 (en) 2007-03-27 2008-10-02 Nokia Corporation Method and system for motion vector predictions
CN103354613B (en) 2007-04-09 2016-01-06 株式会社Ntt都科摩 Image prediction encoding device, image prediction/encoding method, image prediction/decoding device and image prediction decoding method
WO2008127597A2 (en) 2007-04-12 2008-10-23 Thomson Licensing Method and apparatus for context dependent merging for skip-direct modes for video encoding and decoding
JP4788649B2 (en) 2007-04-27 2011-10-05 株式会社日立製作所 Moving image recording method and apparatus
JP5188875B2 (en) * 2007-06-04 2013-04-24 株式会社エヌ・ティ・ティ・ドコモ Image predictive encoding device, image predictive decoding device, image predictive encoding method, image predictive decoding method, image predictive encoding program, and image predictive decoding program
JP2008311781A (en) 2007-06-12 2008-12-25 Ntt Docomo Inc Motion picture encoder, motion picture decoder, motion picture encoding method, motion picture decoding method, motion picture encoding program and motion picture decoding program
JP4947364B2 (en) 2007-06-22 2012-06-06 ソニー株式会社 Information processing system and method, information processing apparatus and method, and program
KR100901874B1 (en) 2007-07-11 2009-06-09 한국전자통신연구원 Inter mode decision Method for video encoding
JP4678015B2 (en) * 2007-07-13 2011-04-27 富士通株式会社 Moving picture coding apparatus and moving picture coding method
KR101408698B1 (en) 2007-07-31 2014-06-18 삼성전자주식회사 Method and apparatus for encoding/decoding image using weighted prediction
JP2009111691A (en) 2007-10-30 2009-05-21 Hitachi Ltd Image-encoding device and encoding method, and image-decoding device and decoding method
US20090168871A1 (en) * 2007-12-31 2009-07-02 Ning Lu Video motion estimation
JP4990927B2 (en) 2008-03-28 2012-08-01 三星電子株式会社 Method and apparatus for encoding / decoding motion vector information
JP5406465B2 (en) * 2008-04-24 2014-02-05 株式会社Nttドコモ Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program
US8548041B2 (en) * 2008-09-25 2013-10-01 Mediatek Inc. Adaptive filter
US8831103B2 (en) 2008-10-02 2014-09-09 Sony Corporation Image processing apparatus and method
JPWO2010052833A1 (en) 2008-11-07 2012-03-29 三菱電機株式会社 Image encoding apparatus and image decoding apparatus
US9560368B2 (en) * 2008-12-03 2017-01-31 Hitachi Maxell, Ltd. Moving picture decoding method and moving picture encoding method
EP3567853B8 (en) 2009-03-23 2024-01-03 Ntt Docomo, Inc. Image predictive decoding device and image predictive decoding method
US9626769B2 (en) * 2009-09-04 2017-04-18 Stmicroelectronics International N.V. Digital video encoder system, method, and non-transitory computer-readable medium for tracking object regions
WO2011129067A1 (en) * 2010-04-13 2011-10-20 パナソニック株式会社 Motion compensation method, image decoding method, image encoding method, motion compensation device, program, and integrated circuit
ES2785606T3 (en) 2010-07-20 2020-10-07 Ntt Docomo Inc Picture predictive decoding device, picture predictive decoding method
DK3001686T3 (en) * 2010-10-06 2020-03-23 Ntt Docomo Inc DEVICE, PROCEDURE AND PROGRAM FOR BIPREPREDIC IMAGE DECODING
KR20120140181A (en) * 2011-06-20 2012-12-28 한국전자통신연구원 Method and apparatus for encoding and decoding using filtering for prediction block boundary
PL231926B1 (en) * 2011-09-23 2019-04-30 Kt Corp Method for calling-in the block of connecting candidates and the device using it

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013528023A (en) * 2010-04-13 2013-07-04 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン Interplane prediction
WO2012005520A2 (en) * 2010-07-09 2012-01-12 Samsung Electronics Co., Ltd. Method and apparatus for encoding video by using block merging, and method and apparatus for decoding video by using block merging
JP2013530658A (en) * 2010-07-09 2013-07-25 サムスン エレクトロニクス カンパニー リミテッド Video encoding method and apparatus using block merging, video decoding method and apparatus using block merging

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Test Model under Consideration (TMuC)", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 1ST M, JPN6020017192, 16 June 2010 (2010-06-16), pages 21 - 22, ISSN: 0004551651 *
LIU, SHAN ET AL.: "Method and Syntax for Partial CU Merge", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 5TH M, vol. JCTVC-E085 (version 1), JPN6020017193, 10 March 2011 (2011-03-10), pages 1 - 5, ISSN: 0004275028 *

Also Published As

Publication number Publication date
RU2013107368A (en) 2014-10-20
CN105898326B (en) 2019-01-29
EP3664453A3 (en) 2020-07-29
US20180332307A1 (en) 2018-11-15
CA2903530A1 (en) 2012-01-26
PT3070945T (en) 2020-04-22
US10225580B2 (en) 2019-03-05
RU2685393C1 (en) 2019-04-17
EP2597874A1 (en) 2013-05-29
US20130136184A1 (en) 2013-05-30
JP2019140703A (en) 2019-08-22
EP3661204B8 (en) 2021-09-22
HUE059918T2 (en) 2023-01-28
KR20170045368A (en) 2017-04-26
KR101903643B1 (en) 2018-10-02
JP5661114B2 (en) 2015-01-28
JP2015065690A (en) 2015-04-09
US20180249181A1 (en) 2018-08-30
CN105898327B (en) 2019-03-01
RU2573208C2 (en) 2016-01-20
DK3664453T3 (en) 2022-09-12
CA3011217A1 (en) 2012-01-26
CN105847837A (en) 2016-08-10
HUE056566T2 (en) 2022-02-28
DK3661211T3 (en) 2021-09-27
CA2805735A1 (en) 2012-01-26
KR20170003736A (en) 2017-01-09
JP2018121354A (en) 2018-08-02
EP3664453B1 (en) 2022-08-24
EP3661210B1 (en) 2023-08-09
TWI469646B (en) 2015-01-11
EP3070945A1 (en) 2016-09-21
CA3102661C (en) 2022-05-17
CN105898327A (en) 2016-08-24
US20180249180A1 (en) 2018-08-30
EP3661211A1 (en) 2020-06-03
CN103004206A (en) 2013-03-27
US20180278959A1 (en) 2018-09-27
ES2887236T3 (en) 2021-12-22
CA3011236A1 (en) 2012-01-26
EP3661210A1 (en) 2020-06-03
BR112013001351B1 (en) 2019-01-29
WO2012011432A1 (en) 2012-01-26
KR20170137962A (en) 2017-12-13
CA3050052A1 (en) 2012-01-26
JPWO2012011432A1 (en) 2013-09-09
CA3011241C (en) 2019-09-10
JP2015130692A (en) 2015-07-16
CN105120280A (en) 2015-12-02
MX2013000666A (en) 2013-02-26
KR101695170B1 (en) 2017-01-11
CN105120279B (en) 2018-05-29
BR112013001351A2 (en) 2016-05-17
KR20170098990A (en) 2017-08-30
KR101770662B1 (en) 2017-08-23
CA3011221C (en) 2019-09-03
MX338236B (en) 2016-04-08
ES2820437T3 (en) 2021-04-21
CN105120279A (en) 2015-12-02
JP5951063B2 (en) 2016-07-13
JP5712330B2 (en) 2015-05-07
AU2011280629B2 (en) 2015-08-06
CN105120280B (en) 2018-04-20
PT3661210T (en) 2023-09-04
DK2597874T3 (en) 2020-09-28
ES2785606T3 (en) 2020-10-07
KR20160030322A (en) 2016-03-16
CN103004206B (en) 2016-06-01
JP2019165499A (en) 2019-09-26
EP3661204A1 (en) 2020-06-03
FI3661210T3 (en) 2023-08-31
US20180014032A1 (en) 2018-01-11
RU2667716C1 (en) 2018-09-24
ES2887307T3 (en) 2021-12-22
TWI519140B (en) 2016-01-21
EP3070945B1 (en) 2020-03-11
CN105120278B (en) 2016-11-30
CA3011236C (en) 2019-09-03
TW201215161A (en) 2012-04-01
CA3011241A1 (en) 2012-01-26
DK3661204T3 (en) 2021-09-20
DK3661210T3 (en) 2023-09-11
KR20170044764A (en) 2017-04-25
US9185409B2 (en) 2015-11-10
MX350471B (en) 2017-09-07
PT3664453T (en) 2022-09-20
CA3102661A1 (en) 2012-01-26
PL3661210T3 (en) 2023-11-06
TW201507445A (en) 2015-02-16
KR101729051B1 (en) 2017-04-21
KR20130041146A (en) 2013-04-24
CN105847837B (en) 2019-01-04
US9497480B2 (en) 2016-11-15
EP3664453A2 (en) 2020-06-10
ES2955687T3 (en) 2023-12-05
SG187094A1 (en) 2013-03-28
MX2019010472A (en) 2019-10-15
KR101809187B1 (en) 2017-12-14
KR101600919B1 (en) 2016-03-21
AU2011280629A1 (en) 2013-02-21
CA2805735C (en) 2016-02-09
US9794592B2 (en) 2017-10-17
PL3664453T3 (en) 2022-11-21
US20170034531A1 (en) 2017-02-02
ES2926898T3 (en) 2022-10-31
EP2597874A4 (en) 2016-03-09
RU2685390C1 (en) 2019-04-17
JP6535780B2 (en) 2019-06-26
US10230987B2 (en) 2019-03-12
PT3661211T (en) 2021-09-24
US20160021389A1 (en) 2016-01-21
CA3011221A1 (en) 2012-01-26
EP3661211B1 (en) 2021-08-25
CA2903530C (en) 2018-08-28
RU2685388C1 (en) 2019-04-17
EP2597874B1 (en) 2020-08-26
PT2597874T (en) 2020-09-25
CN105898326A (en) 2016-08-24
RU2685389C1 (en) 2019-04-17
DK3070945T3 (en) 2020-04-06
RU2619202C1 (en) 2017-05-12
US10542287B2 (en) 2020-01-21
RU2658798C1 (en) 2018-06-22
CA3011217C (en) 2021-08-03
JP2016165135A (en) 2016-09-08
CN105120278A (en) 2015-12-02
HUE063032T2 (en) 2023-12-28
HUE056567T2 (en) 2022-02-28
PT3661204T (en) 2021-09-22
US9986261B2 (en) 2018-05-29
EP3661204B1 (en) 2021-08-18
MX367864B (en) 2019-09-05
KR101772183B1 (en) 2017-08-28
US10063888B1 (en) 2018-08-28
PL3661211T3 (en) 2021-12-13

Similar Documents

Publication Publication Date Title
JP6535780B2 (en) Image prediction decoding device and image prediction decoding method
US11303917B2 (en) Image encoding and decoding method with a merge flag and motion vectors

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190603

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210126

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210720