JP2013012961A - Image decoder, image decoding method and image decoding program - Google Patents

Image decoder, image decoding method and image decoding program Download PDF

Info

Publication number
JP2013012961A
JP2013012961A JP2011144915A JP2011144915A JP2013012961A JP 2013012961 A JP2013012961 A JP 2013012961A JP 2011144915 A JP2011144915 A JP 2011144915A JP 2011144915 A JP2011144915 A JP 2011144915A JP 2013012961 A JP2013012961 A JP 2013012961A
Authority
JP
Japan
Prior art keywords
information
unit
prediction
motion vector
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011144915A
Other languages
Japanese (ja)
Other versions
JP5682478B2 (en
Inventor
Satoshi Sakazume
智 坂爪
Motoharu Ueda
基晴 上田
Shigeru Fukushima
茂 福島
Kazumi Arakage
和美 荒蔭
Katsuyoshi Nishitani
勝義 西谷
Hideki Takehara
英樹 竹原
Hiroya Nakamura
博哉 中村
Toru Kumakura
徹 熊倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2011144915A priority Critical patent/JP5682478B2/en
Publication of JP2013012961A publication Critical patent/JP2013012961A/en
Application granted granted Critical
Publication of JP5682478B2 publication Critical patent/JP5682478B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To improve quality of a prediction signal.SOLUTION: A decoding string generating section 203 obtains a code string, performs decoding string generation processing in response to a prescribed syntax structure, and generates at least residual motion vector information, residual encoded information and an encoding parameter, which belong to a region being a decoding object from the code string. A motion predicting section 208 performs prescribed motion prediction processing in response to motion information belonging to a decoded region, generates first reference information and generates first prediction motion vector information in a first reference picture specified on the basis of the first reference information. Correction prediction signal generating sections 210 and 211 derive second prediction motion vector information in a second reference picture specified on the basis of second reference information from the first prediction motion vector information, generate motion vector information by adding the derived second prediction motion vector information to the residual motion vector information and generate the prediction signal from the second reference picture in response to the generated motion vector information.

Description

本発明は、動画像信号を復号する画像復号装置、画像復号方法、および画像復号プログラムに関する。   The present invention relates to an image decoding apparatus, an image decoding method, and an image decoding program for decoding a moving image signal.

MPEG−4 AVC/H.264(以後、AVC)等に代表される動画像符号化では、時間方向の相関を利用した情報圧縮として動き補償が用いられている。動き補償は、符号化対象となっている画像信号である符号化対象ピクチャ(以後、対象ピクチャ)に対して、既に符号化され、復号された局部復号信号を参照ピクチャとして用い、所定の符号化処理単位で、対象ピクチャと参照ピクチャとの間での動き量(以後、動きベクトル情報)を検出し、予測信号を生成する手法である。   MPEG-4 AVC / H. In moving picture coding represented by H.264 (hereinafter referred to as AVC), motion compensation is used as information compression using correlation in the time direction. Motion compensation uses a locally decoded signal that has already been encoded and decoded as a reference picture for a picture to be encoded (hereinafter referred to as a target picture) that is an image signal to be encoded. This is a technique for detecting a motion amount (hereinafter referred to as motion vector information) between a target picture and a reference picture and generating a prediction signal in units of processing.

ここで、AVCでは、所定の符号化処理単位となる16×16画素の2次元ブロック(以後、マクロブロック)内での、処理対象となっているブロック(以後、対象ブロック)の大きさを可変にして対象ブロック毎の動きベクトル情報を用いて予測する手法、複数の参照ピクチャの中から予測に用いる参照ピクチャを選択する手法、2つの参照ピクチャと対象ブロックの間の動きベクトル情報から予測信号を特定して、合成予測信号を生成する手法等により、動き補償における予測精度を向上させ、情報量を削減している。   Here, in AVC, the size of a block to be processed (hereinafter referred to as a target block) within a 16 × 16 pixel two-dimensional block (hereinafter referred to as a macroblock) which is a predetermined encoding processing unit is variable. A method of predicting using motion vector information for each target block, a method of selecting a reference picture to be used for prediction from a plurality of reference pictures, and a prediction signal from motion vector information between two reference pictures and the target block In particular, the accuracy of motion compensation is improved and the amount of information is reduced by a method for generating a synthesized prediction signal.

また、AVCや特許文献1等には、動きベクトル情報による情報量の増加を抑制するため、対象ブロック周辺の復号済みのブロックに対する動きベクトル情報から予測される、予測動きベクトル情報を用いて符号化することで、対象ブロックを符号化および復号する際に必要とする動きベクトル情報を伝送しないダイレクトモード、およびその改善技術を用いて動き補償を行うことが提示されている。   In addition, in AVC, Patent Document 1, and the like, encoding is performed using predicted motion vector information predicted from motion vector information for a decoded block around a target block in order to suppress an increase in the amount of information due to motion vector information. Thus, it has been proposed to perform motion compensation using a direct mode that does not transmit motion vector information necessary for encoding and decoding a target block, and an improvement technique thereof.

特開2006−191652号公報JP 2006-191652 A

しかし、特許文献1やAVCに代表される従来の動画像符号化におけるダイレクトモードによる動き補償では、動画像内に含まれる物体の動きは、十分短い時間間隔のピクチャ間では一定の方向に対して等速で連続的に移動することを想定している。したがって、画面内に含まれる物体の動きの方向や速度に変化があるような動画像を符号化しようとすると、ダイレクトモードでは動きに十分追従できず、十分な予測信号が得にくいという難しい問題がある。   However, in the motion compensation by the direct mode in the conventional moving image coding represented by Patent Document 1 and AVC, the motion of the object included in the moving image is in a fixed direction between pictures of a sufficiently short time interval. It is assumed to move continuously at a constant speed. Therefore, when trying to encode a moving image that has a change in the direction and speed of the movement of an object included in the screen, the direct mode cannot sufficiently follow the movement, and it is difficult to obtain a sufficient prediction signal. is there.

また、対象ブロック内の画像信号の特徴として、例えば、強いエッジ成分を含むような信号の場合、参照ピクチャから取得する予測信号の空間位置が微小にずれただけであっても、対象ブロック内の画像信号から特定される予測信号を減算して得られる残差情報が大きくなってしまい、符号量が増大するという難しい問題がある。したがって、ダイレクトモードによって予測された動きベクトル情報が、動きに追従できずに十分な位置合せの精度が得られていない場合、高い精度で空間位相の合った予測信号を得ることが難しい。この場合、同様に残差情報が大きくなってしまい、符号量の増大につながるという難しい問題がある。   Further, as a feature of the image signal in the target block, for example, in the case of a signal including a strong edge component, even if the spatial position of the prediction signal acquired from the reference picture is slightly shifted, There is a difficult problem that the residual information obtained by subtracting the prediction signal specified from the image signal becomes large, and the code amount increases. Therefore, when the motion vector information predicted by the direct mode cannot follow the motion and sufficient alignment accuracy is not obtained, it is difficult to obtain a prediction signal having a high spatial accuracy. In this case, there is a difficult problem that the residual information similarly increases, leading to an increase in the amount of codes.

更に、AVCに代表される従来の動画像符号化において、高い精度で空間位相の合った予測信号を得るために、例えば、Bピクチャの符号化では、前方または後方の1枚の参照ピクチャから予測信号を得る方法(片方向予測)、2枚以下の参照ピクチャから2つの参照信号を特定した後に平均して予測信号を得る方法(双予測)がある。これらの方法は、対象ブロックの周囲にある符号化済みのブロックから予測される予測動きベクトル情報を利用して動き推定を行うことで動きベクトル情報を特定し、予測動きベクトル情報を減算することで残差動きベクトル情報を生成し、符号化後に伝送するような構成となっている。   Further, in the conventional video coding represented by AVC, in order to obtain a prediction signal in which the spatial phase is matched with high accuracy, for example, in the coding of a B picture, prediction is performed from one front or rear reference picture. There is a method of obtaining a signal (one-way prediction) and a method of obtaining a prediction signal by averaging after specifying two reference signals from two or less reference pictures (bi-prediction). These methods identify motion vector information by performing motion estimation using predicted motion vector information predicted from encoded blocks around the target block, and subtract the predicted motion vector information. Residual motion vector information is generated and transmitted after encoding.

ここで、片方向予測では1つ、双予測では2つの残差動きベクトル情報を符号化後に伝送することになる。しかし、片方向予測では、片方向の1枚の参照ピクチャからしか予測信号を得ることができないため、参照ピクチャ内に必要とする信号が含まれていない場合には、動き推定によって、必ずしも最適とはいえない領域を指し示す動きベクトル情報が特定されてしまうことが有り得る。したがって、1つの残差動きベクトル情報および利用する参照ピクチャを特定するための補助情報(以後、参照インデックス情報、または単に、参照情報)を伝送するための情報量を割り当てたにも関わらず、必ずしも十分な予測信号が得られないことがあるという難しい問題がある。双予測では、2箇所から参照信号を取得して予測信号を合成することから、このような片方向予測の問題をある程度改善することが可能となるが、2つ分の残差動きベクトル情報および参照インデックス情報を符号化後に伝送する必要があり、符号量を増大させるという難しい問題がある。   Here, one residual motion vector information is transmitted after unidirectional prediction, and two residual motion vector information is transmitted after bi-prediction. However, in unidirectional prediction, since a prediction signal can be obtained only from one reference picture in one direction, if the required signal is not included in the reference picture, it is not always optimal by motion estimation. It is possible that motion vector information indicating a region that cannot be specified is specified. Therefore, even though one residual motion vector information and auxiliary information (hereinafter referred to as reference index information or simply reference information) for specifying a reference picture to be used are allocated, an amount of information is not necessarily allocated. There is a difficult problem that a sufficient prediction signal may not be obtained. In bi-prediction, since reference signals are obtained from two locations and a prediction signal is synthesized, such a one-way prediction problem can be improved to some extent. It is necessary to transmit the reference index information after encoding, which causes a difficult problem of increasing the code amount.

そこで、伝送する動きベクトル情報および動きベクトル情報を特定する際に必要となる補助情報を増大させることなく、双予測における予測信号の品質を向上させることにより予測残差を低減し、符号化効率を向上させることが求められている。   Therefore, without increasing the motion vector information to be transmitted and the auxiliary information necessary for specifying the motion vector information, the prediction residual is reduced by improving the quality of the prediction signal in bi-prediction, and the coding efficiency is improved. There is a need to improve.

本発明はこうした状況に鑑みなされたものであり、その目的は、予測信号の品質を高める技術を提供することにある。   The present invention has been made in view of such circumstances, and an object thereof is to provide a technique for improving the quality of a prediction signal.

上記課題を解決するために、本発明のある態様の画像復号装置は、符号列を取得し、所定の構文構造に基づいて復号列生成処理を行い、前記符号列から復号対象となっている領域に属する、少なくとも残差動きベクトル情報、残差符号化後情報、および符号化パラメータを生成する復号列生成部(203)と、復号済みの領域に属する動き情報に基づいて所定の動き予測処理を行い、第1の参照情報を生成すると共に、前記第1の参照情報に基づいて特定された第1の参照ピクチャにおける第1の予測動きベクトル情報を生成する動き予測部(208)と、前記第1の予測動きベクトル情報から、第2の参照情報に基づいて特定された第2の参照ピクチャにおける第2の予測動きベクトル情報を導出し、導出した第2の予測動きベクトル情報を前記残差動きベクトル情報に加えて動きベクトル情報を生成し、生成した動きベクトル情報に基づいて前記第2の参照ピクチャから予測信号を生成する修正予測信号生成部(210、211)と、前記残差符号化後情報に対して所定の残差復号処理を行い、復号残差情報を生成する残差復号部(204)と、前記復号残差情報に、前記修正予測信号生成部(210、211)により生成された予測信号を加えて復号信号を生成する加算部(205)と、を備える。   In order to solve the above-described problem, an image decoding device according to an aspect of the present invention acquires a code string, performs a decoded string generation process based on a predetermined syntax structure, and performs decoding from the code string. A decoding sequence generation unit (203) that generates at least residual motion vector information, residual encoded information, and encoding parameters belonging to, and a predetermined motion prediction process based on the motion information belonging to the decoded region A motion prediction unit (208) configured to generate first reference information and generate first prediction motion vector information in a first reference picture specified based on the first reference information; Second prediction motion vector information in the second reference picture specified based on the second reference information is derived from the one prediction motion vector information, and the derived second prediction motion vector information A modified prediction signal generator (210, 211) that generates motion vector information in addition to the residual motion vector information, and generates a prediction signal from the second reference picture based on the generated motion vector information; A residual decoding unit (204) that performs a predetermined residual decoding process on the post-difference information and generates decoded residual information, and the modified prediction signal generation unit (210, 211) is included in the decoded residual information. And an addition unit (205) that generates a decoded signal by adding the prediction signal generated by (1).

前記修正予測信号生成部(210、211)は、前記第1の予測動きベクトル情報に基づいて、前記第1の参照ピクチャから第1の予測信号を生成し、前記第2の予測動きベクトル情報に基づいて、前記第2の参照ピクチャから第2の予測信号を生成し、前記第1の予測信号と前記第2の予測信号を合成して合成予測信号を生成してもよい。前記加算部(205)は、前記修正予測信号生成部(210、211)により生成された合成予測信号を復号残差情報に加えて復号信号を生成してもよい。   The modified prediction signal generation unit (210, 211) generates a first prediction signal from the first reference picture based on the first prediction motion vector information, and generates the second prediction motion vector information. Based on this, a second prediction signal may be generated from the second reference picture, and the first prediction signal and the second prediction signal may be combined to generate a combined prediction signal. The addition unit (205) may generate a decoded signal by adding the combined prediction signal generated by the modified prediction signal generation unit (210, 211) to decoding residual information.

本画像復号装置は、前記符号化パラメータを復号パラメータとし、前記復号パラメータから符号化モード、動き予測モード、および動作モードを特定してもよい。前記修正予測信号生成部(210、211)は、複数の動作を区別するための動作モードに基づいて動作し、前記動作モードにより特定された導出処理により、前記動作モードに対応した前記第2の予測動きベクトル情報を導出し、導出した第2の予測残差動きベクトル情報を残差動きベクトル情報に加えて、前記動作モードに対応した動きベクトル情報を生成し、生成した動きベクトル情報に基づいて前記第2の参照ピクチャから前記動作モードに対応した第2の予測信号を生成してもよい。   This image decoding apparatus may specify the encoding mode, the motion prediction mode, and the operation mode from the decoding parameter using the encoding parameter as a decoding parameter. The modified prediction signal generation unit (210, 211) operates based on an operation mode for distinguishing a plurality of operations, and the second corresponding to the operation mode by the derivation process specified by the operation mode. Deriving predicted motion vector information, adding the derived second predicted residual motion vector information to residual motion vector information, generating motion vector information corresponding to the operation mode, and based on the generated motion vector information A second prediction signal corresponding to the operation mode may be generated from the second reference picture.

本画像復号装置は、前記符号化パラメータを復号パラメータとし、前記復号パラメータから符号化モード、動き予測モード、および動作モードを特定してもよい。前記動き予測部(208)は、複数の動作を区別するための動き予測モードに基づいて動作し、前記動き予測モードにより特定された動き予測処理により、前記動き予測モードに対応した予測動きベクトル情報の候補を特定してもよい。前記修正予測信号生成部(210、211)は、前記動き予測モードに対応した予測動きベクトル情報の候補の中から、前記動作モードに対応した予測動きベクトル情報を特定して前記第1の予測動きベクトル情報してもよい。   This image decoding apparatus may specify the encoding mode, the motion prediction mode, and the operation mode from the decoding parameter using the encoding parameter as a decoding parameter. The motion prediction unit (208) operates based on a motion prediction mode for distinguishing a plurality of motions, and predicted motion vector information corresponding to the motion prediction mode by a motion prediction process specified by the motion prediction mode. Candidates may be identified. The modified prediction signal generation unit (210, 211) specifies prediction motion vector information corresponding to the operation mode from candidates of prediction motion vector information corresponding to the motion prediction mode, and the first prediction motion Vector information may be used.

本画像復号装置は、前記符号化パラメータを復号パラメータとし、前記復号パラメータから符号化モード、動き予測モード、および動作モードを特定してもよい。前記符号化モードがAMVP(Advanced Motion Vector prediction)モードの場合に、前記動き予測部(208)は、前記符号化モードのAMVPモードに従って、AMVP処理によって予測動きベクトル情報の候補の中から最良の予測動きベクトル情報を確定してもよい。前記修正予測信号生成部(210、211)は、前記符号化モードのAMVPモードに従って、確定された予測動きベクトル情報を取得し、前記第1の予測動きベクトル情報してもよい。   This image decoding apparatus may specify the encoding mode, the motion prediction mode, and the operation mode from the decoding parameter using the encoding parameter as a decoding parameter. When the coding mode is an AMVP (Advanced Motion Vector prediction) mode, the motion prediction unit (208) performs the best prediction from prediction motion vector information candidates by AMVP processing according to the AMVP mode of the coding mode. Motion vector information may be determined. The modified prediction signal generation unit (210, 211) may acquire the determined predicted motion vector information according to the AMVP mode of the coding mode, and may use the first predicted motion vector information.

本画像復号装置は、前記符号化パラメータを復号パラメータとし、前記復号パラメータから符号化モード、動き予測モード、および動作モードを特定してもよい。前記符号化モードがマージモードの場合に、前記動き予測部(208)は、前記符号化モードのマージモードに従って、マージ処理によって予測動きベクトル情報の候補の中から最良の予測動きベクトル情報を確定してもよい。前記修正予測信号生成部(210、211)は、前記符号化モードのマージモードに従って、確定された予測動きベクトル情報を取得し、前記第1の予測動きベクトル情報としてもよい。   This image decoding apparatus may specify the encoding mode, the motion prediction mode, and the operation mode from the decoding parameter using the encoding parameter as a decoding parameter. When the coding mode is the merge mode, the motion prediction unit (208) determines the best predicted motion vector information from the prediction motion vector information candidates by the merge process according to the merge mode of the coding mode. May be. The modified prediction signal generation unit (210, 211) may acquire the predicted motion vector information determined according to the merge mode of the coding mode, and use the information as the first motion vector predictor information.

本発明の別の態様は、画像復号方法である。この方法は、符号列を取得し、所定の構文構造に基づいて復号列生成処理を行い、前記符号列から復号対象となっている領域に属する、少なくとも残差動きベクトル情報、残差符号化後情報、および符号化パラメータを生成するステップと、復号済みの領域に属する動き情報に基づいて所定の動き予測処理を行い、第1の参照情報を生成すると共に、前記第1の参照情報に基づいて特定された第1の参照ピクチャにおける第1の予測動きベクトル情報を生成するステップと、前記第1の予測動きベクトル情報から、第2の参照情報に基づいて特定された第2の参照ピクチャにおける第2の予測動きベクトル情報を導出し、導出した第2の予測動きベクトル情報を前記残差動きベクトル情報に加えて動きベクトル情報を生成し、生成した動きベクトル情報に基づいて前記第2の参照ピクチャから予測信号を生成するステップと、前記残差符号化後情報に対して所定の残差復号処理を行い、復号残差情報を生成するステップと、前記復号残差情報に前記予測信号を加えて復号信号を生成するステップと、を備える。   Another aspect of the present invention is an image decoding method. In this method, a code string is acquired, a decoded string generation process is performed based on a predetermined syntax structure, and at least residual motion vector information belonging to an area to be decoded from the code string, after residual encoding A step of generating information and an encoding parameter, and performing a predetermined motion prediction process based on motion information belonging to the decoded region to generate first reference information, and based on the first reference information Generating first predictive motion vector information in the specified first reference picture; and second information in the second reference picture specified based on second reference information from the first predictive motion vector information. 2 prediction motion vector information is derived, and the derived second motion vector predictor information is added to the residual motion vector information to generate motion vector information. Generating a prediction signal from the second reference picture based on the toll information, performing a predetermined residual decoding process on the residual encoded information, and generating decoded residual information; Adding the prediction signal to decoded residual information to generate a decoded signal.

本発明の別の態様は、画像符号化装置である。この装置は、動画像列を取得して符号化する画像符号化装置であって、符号化済みの領域に属する動き情報に基づいて所定の動き予測処理を行い、第1の参照情報を生成すると共に、前記第1の参照情報に基づいて特定される第1の参照ピクチャにおける第1の予測動きベクトル情報を生成する動き予測部(104)と、前記第1の予測動きベクトル情報から、第2の参照情報に基づいて特定された第2の参照ピクチャにおける第2の予測動きベクトル情報を導出し、導出した第2の予測動きベクトル情報を基準とした前記第2の参照ピクチャの領域において所定の動き探索を行って動きベクトル情報を特定し、特定した動きベクトル情報に基づいて前記第2の参照ピクチャから予測信号を生成するとともに、前記動きベクトル情報から前記第2の予測動きベクトル情報を減じて残差動きベクトル情報を生成する修正予測信号生成部(106、107)と、前記対象信号から、前記修正予測信号生成部により生成された予測信号を減じて残差情報を生成する減算部(109)と、前記残差情報に対して所定の残差符号化処理を行い、残差符号化後情報を生成する残差符号化部(110)と、所定の構文構造に基づいて、前記残差符号化後情報、前記残差動きベクトル情報、および符号化パラメータの符号列を生成する符号列生成部(113)と、を備える。   Another aspect of the present invention is an image encoding device. This apparatus is an image encoding apparatus that acquires and encodes a moving image sequence, performs predetermined motion prediction processing based on motion information belonging to an encoded region, and generates first reference information In addition, a motion prediction unit (104) that generates first prediction motion vector information in the first reference picture specified based on the first reference information, and a second prediction motion vector information from the first prediction motion vector information, Second prediction motion vector information in the second reference picture specified based on the reference information of the second reference picture is derived, and a predetermined reference area is determined in the region of the second reference picture based on the derived second prediction motion vector information. A motion search is performed to identify motion vector information, a prediction signal is generated from the second reference picture based on the identified motion vector information, and the motion vector information is used to generate the prediction signal. A modified prediction signal generation unit (106, 107) that generates residual motion vector information by subtracting the prediction motion vector information of No. 2, and subtracts the prediction signal generated by the modified prediction signal generation unit from the target signal A subtraction unit (109) that generates difference information, a residual encoding unit (110) that performs predetermined residual encoding processing on the residual information and generates post-residual encoding information, And a code string generation unit (113) for generating a code string of the residual encoded information, the residual motion vector information, and an encoding parameter based on a syntax structure.

なお、以上の構成要素の任意の組み合わせ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラム等の間で変換したものもまた、本発明の態様として有効である。   Note that any combination of the above-described components and a representation of the present invention converted between a method, an apparatus, a system, a recording medium, a computer program, and the like are also effective as an aspect of the present invention.

本発明によれば、予測信号の品質を高めることができる。   According to the present invention, the quality of a prediction signal can be improved.

本発明の実施の形態1における動画像符号化装置の構成図である。It is a block diagram of the moving image encoder in Embodiment 1 of this invention. 本発明の実施の形態1における動画像符号化装置の、符号化制御部と各部との接続関係を示す構成図である。It is a block diagram which shows the connection relationship of an encoding control part and each part of the moving image encoder in Embodiment 1 of this invention. 本発明の実施の形態1における動画像符号化装置の基本フローチャートである。It is a basic flowchart of the moving image encoder in Embodiment 1 of this invention. 本発明の実施の形態1における動画像復号装置の構成図である。It is a block diagram of the moving image decoding apparatus in Embodiment 1 of this invention. 本発明の実施の形態1における動画像復号装置の、復号制御部と各部との接続関係を示す構成図である。It is a block diagram which shows the connection relation of a decoding control part and each part of the moving image decoding apparatus in Embodiment 1 of this invention. 本発明の実施の形態1における動画像復号装置の基本フローチャートである。It is a basic flowchart of the moving image decoding apparatus in Embodiment 1 of this invention. 図7(A)〜(D)は、本発明の実施の形態2における、動画像符号化装置側の修正予測信号生成部の詳細を示すための構成図である。FIGS. 7A to 7D are configuration diagrams illustrating details of the modified prediction signal generation unit on the video encoding device side according to Embodiment 2 of the present invention. 図8(A)〜(C)は、本発明の実施の形態2における、動画像符号化装置側の第1修正予測信号生成部の詳細を示すための構成図である。FIGS. 8A to 8C are configuration diagrams illustrating details of the first modified prediction signal generation unit on the video encoding device side in Embodiment 2 of the present invention. 図9(A)〜(C)は、本発明の実施の形態2における、動画像符号化装置側の第2修正予測信号生成部の詳細を示すための構成図である。FIGS. 9A to 9C are configuration diagrams illustrating details of the second modified prediction signal generation unit on the moving image encoding device side according to Embodiment 2 of the present invention. 本発明の実施の形態2における、動画像符号化装置側の第1修正予測信号生成部の各部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of each part of the 1st correction prediction signal production | generation part by the side of a moving image encoder in Embodiment 2 of this invention. 本発明の実施の形態2における、動画像符号化装置側の第1修正予測信号生成部の各部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of each part of the 1st correction prediction signal production | generation part by the side of a moving image encoder in Embodiment 2 of this invention. 本発明の実施の形態2における、動画像符号化装置側の第1修正予測信号生成部の各部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of each part of the 1st correction prediction signal production | generation part by the side of a moving image encoder in Embodiment 2 of this invention. 本発明の実施の形態2における、動画像符号化装置側の第2修正予測信号生成部の各部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of each part of the 2nd correction prediction signal production | generation part by the side of a moving image encoder in Embodiment 2 of this invention. 本発明の実施の形態2における、動画像符号化装置側の第2修正予測信号生成部の各部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of each part of the 2nd correction prediction signal production | generation part by the side of a moving image encoder in Embodiment 2 of this invention. 本発明の実施の形態2における、動画像符号化装置側の第2修正予測信号生成部の各部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of each part of the 2nd correction prediction signal production | generation part by the side of a moving image encoder in Embodiment 2 of this invention. 図16(A)〜(C)は、本発明の実施の形態2における、動画像復号装置側の第1修正予測信号生成部の詳細を示すための構成図である。FIGS. 16A to 16C are configuration diagrams illustrating details of the first modified prediction signal generation unit on the video decoding device side in Embodiment 2 of the present invention. 図17(A)〜(C)は、本発明の実施の形態2における、動画像復号装置側の第2修正予測信号生成部の詳細を示すための構成図である。FIGS. 17A to 17C are configuration diagrams illustrating details of the second modified prediction signal generation unit on the video decoding device side in Embodiment 2 of the present invention. 本発明の実施の形態2における、動画像復号装置側の第1修正予測信号生成部の各部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of each part of the 1st correction prediction signal generation part by the moving image decoding apparatus side in Embodiment 2 of this invention. 本発明の実施の形態2における、動画像復号装置側の第1修正予測信号生成部の各部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of each part of the 1st correction prediction signal generation part by the moving image decoding apparatus side in Embodiment 2 of this invention. 本発明の実施の形態2における、動画像復号装置側の第1修正予測信号生成部の各部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of each part of the 1st correction prediction signal generation part by the moving image decoding apparatus side in Embodiment 2 of this invention. 本発明の実施の形態2における、動画像復号装置側の第2修正予測信号生成部の各部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of each part of the 2nd correction prediction signal generation part by the moving image decoding apparatus side in Embodiment 2 of this invention. 本発明の実施の形態2における、動画像復号装置側の第2修正予測信号生成部の各部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of each part of the 2nd correction prediction signal generation part by the moving image decoding apparatus side in Embodiment 2 of this invention. 本発明の実施の形態2における、動画像復号装置側の第2修正予測信号生成部の各部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of each part of the 2nd correction prediction signal generation part by the moving image decoding apparatus side in Embodiment 2 of this invention. 本発明の実施の形態2における動作モードを説明するための表(その1)である。It is a table | surface (the 1) for demonstrating the operation mode in Embodiment 2 of this invention. 本発明の実施の形態2における動作モードを説明するための表(その2)である。It is a table | surface (2) for demonstrating the operation mode in Embodiment 2 of this invention. 対象予測ブロックと符号化済みの隣接ブロックとの関係を示すための概念図である。It is a conceptual diagram for showing the relationship between a target prediction block and an encoded adjacent block. 対象予測ブロックと、時間が異なる別のピクチャの同一位置の周辺ブロックとの関係を示すための概念図である。It is a conceptual diagram for showing the relationship between a target prediction block and a neighboring block at the same position in another picture with different time. 図28(A)、(B)は、符号化の予測モードに基づいて符号化のモードを大別して表した図である。FIGS. 28A and 28B are diagrams in which the encoding modes are roughly classified based on the encoding prediction modes. 本発明の実施の形態4における符号列の一例を示した概念図である。It is the conceptual diagram which showed an example of the code sequence in Embodiment 4 of this invention. 図30(A)、(B)は、動画像符号化によって生成される符号列の所定の構文構造であるシンタックスの一例を示した図である。FIGS. 30A and 30B are diagrams illustrating an example of syntax that is a predetermined syntax structure of a code string generated by moving image coding. 図31(A)〜(C)は、本発明の実施の形態4における符号列のシンタックスの一例を示した図である。FIGS. 31A to 31C are diagrams showing an example of code string syntax in Embodiment 4 of the present invention. 図32(A)〜(C)は、本発明の実施の形態4における符号列のシンタックスの別の一例を示した図である。FIGS. 32A to 32C are diagrams illustrating another example of the syntax of the code string according to Embodiment 4 of the present invention. 図33(A)〜(D)は、本発明の実施の形態4における符号列のシンタックスの別の一例を示した図である。33A to 33D are diagrams showing another example of the syntax of the code string in Embodiment 4 of the present invention. 図34(A)〜(D)は、本発明の実施の形態4における符号列のシンタックスの別の一例を示した図である。34A to 34D are diagrams showing another example of the syntax of the code string according to Embodiment 4 of the present invention. 本発明の実施の形態5における動画像送信装置および動画像受信装置の概念図である。It is a conceptual diagram of the moving image transmitter and moving image receiver in Embodiment 5 of this invention. 本発明の実施の形態6における情報処理装置の概念図である。It is a conceptual diagram of the information processing apparatus in Embodiment 6 of this invention.

以下に、発明を実施するための形態について図面を参照して説明する。   EMBODIMENT OF THE INVENTION Below, the form for inventing is demonstrated with reference to drawings.

(実施の形態1) 動画像符号化装置および動画像復号装置の基本構成と動作.
まず、本発明の実施の形態1における動画像符号化装置を説明する。図1は、本発明の実施の形態1における、動画像符号化装置100の構成図である。図2は、本発明の実施の形態1における、動画像符号化装置100の各部と符号化制御部120との間の接続関係を示す構成図である。
(Embodiment 1) Basic configuration and operation of moving picture coding apparatus and moving picture decoding apparatus.
First, the moving picture coding apparatus according to Embodiment 1 of the present invention will be described. FIG. 1 is a configuration diagram of a moving picture coding apparatus 100 according to Embodiment 1 of the present invention. FIG. 2 is a configuration diagram illustrating a connection relationship between each unit of the video encoding device 100 and the encoding control unit 120 according to Embodiment 1 of the present invention.

実施の形態1の動画像符号化装置100は、入力部101、ピクチャ蓄積部102、動き情報蓄積部103、動き予測部104、参照解析部105、第1修正予測信号生成部106、第2修正予測信号生成部107、モード判定部108、減算部109、残差符号化部110、残差復号部111、加算部112、符号列生成部113、符号列蓄積部114、符号量制御部115、出力部116および符号化制御部120を少なくとも備える。また更に、片方向予測信号生成部117、双予測信号生成部118およびイントラ予測部119を含むように構成すると良く、実施の形態1においては、これら全てを含むものとして話を進める。   The moving image coding apparatus 100 according to Embodiment 1 includes an input unit 101, a picture storage unit 102, a motion information storage unit 103, a motion prediction unit 104, a reference analysis unit 105, a first modified prediction signal generation unit 106, and a second modification. Prediction signal generation unit 107, mode determination unit 108, subtraction unit 109, residual encoding unit 110, residual decoding unit 111, addition unit 112, code sequence generation unit 113, code sequence storage unit 114, code amount control unit 115, At least an output unit 116 and an encoding control unit 120 are provided. Furthermore, it may be configured to include a unidirectional prediction signal generation unit 117, a bi-prediction signal generation unit 118, and an intra prediction unit 119. In the first embodiment, the description will be made assuming that all of these are included.

また、実施の形態1では、便宜上、動画像符号化処理全体の動作モードを符号化動作モードもしくは単に符号化モードと呼び、第1修正予測信号生成部106および第2修正予測信号生成部107における動作を基準とした動作モードを単に動作モードと呼ぶことにする。また、動き予測部104における動作モードを動き予測モードと呼ぶことにする。   In the first embodiment, for convenience, the operation mode of the entire moving image encoding process is referred to as an encoding operation mode or simply an encoding mode, and the first modified prediction signal generation unit 106 and the second modification prediction signal generation unit 107 The operation mode based on the operation is simply referred to as an operation mode. The operation mode in the motion prediction unit 104 is referred to as a motion prediction mode.

入力部101は、例えば、図1で示されるような撮像装置131、伝送装置132、記録媒体134を利用する、もしくは利用しない記録装置133や蓄積装置135等から動画像信号として所定の空間解像度をもつ入力画像列を取得する。入力部101は、その入力画像列中の符号化対象となる対象ピクチャにおいて、現在符号化対象となっている空間領域内である対象領域内の信号を対象信号として、減算部109、モード判定部108、片方向予測信号生成部117、第1修正予測信号生成部106、第2修正予測信号生成部107、双予測信号生成部118に供給する。ここで、対象領域は、例えばAVCのように、対象ピクチャを空間的な2次元領域である所定の大きさの矩形領域(以後、ブロック)によって隙間なく分割し、現在符号化対象となっている対象ブロックとする。ここでは、対象領域の形状をブロックとしているが、任意形状により隙間なく分割し、各領域において対象となった領域の対象信号を供給するように構成しても良く、特に限定されないことに注意する。   The input unit 101 obtains a predetermined spatial resolution as a moving image signal from, for example, the recording device 133 or the storage device 135 that uses or does not use the imaging device 131, the transmission device 132, and the recording medium 134 as shown in FIG. Get input image sequence. The input unit 101 uses, as a target signal, a subtraction unit 109, a mode determination unit, and a signal in a target region that is in a spatial region currently being encoded in a target picture to be encoded in the input image sequence. 108, the unidirectional prediction signal generation unit 117, the first modified prediction signal generation unit 106, the second modified prediction signal generation unit 107, and the bi-prediction signal generation unit 118. Here, the target area is a current encoding target by dividing the target picture without any gap by a rectangular area (hereinafter referred to as a block) having a predetermined size, which is a spatial two-dimensional area, such as AVC. The target block. Here, the shape of the target area is a block, but it may be configured to divide without any gap by an arbitrary shape and supply the target signal of the target area in each area, and it is not particularly limited. .

ピクチャ蓄積部102は、参照ピクチャを蓄積し、必要に応じて各部に対して供給する。ここで、格納される参照ピクチャを容易に特定できるようにするために、例えば、ピクチャの順番を示すための番号であるPicture Order Count(以後、POC)と関連付けを行った上で蓄積すると良い。POCは、参照ピクチャを特定するための情報として、AVCで用いられている。ピクチャ蓄積部102は、加算部112で生成される復号信号を取得し、参照ピクチャとして蓄積する。ピクチャ蓄積部102は、片方向予測信号生成部117、第1修正予測信号生成部106、第2修正予測信号生成部107、双予測信号生成部118に対して、要求された参照ピクチャを供給する。ピクチャ蓄積部102は、加算部112から復号信号を取得する際に、符号化後に局部復号して得られる復号済み領域の画像信号を順次、取得し、局部復号領域の画像信号(以後、局部復号ピクチャ)として蓄積する。ピクチャ蓄積部102は、符号化対象ピクチャ全域の局部復号結果が得られると、局部復号ピクチャの画像信号を参照ピクチャとして保持するようにすると良い。ピクチャ蓄積部102は、イントラ予測部119に対して、要求された局部復号ピクチャを供給する。ピクチャ蓄積部102は、必要であれば、片方向予測信号生成部117、第1修正予測信号生成部106、第2修正予測信号生成部107、双予測信号生成部118に対しても、要求された局部復号ピクチャを供給するようにしても良い。ピクチャ蓄積部102は、各部に参照ピクチャもしくは局部復号ピクチャを供給する際に、参照情報が供給された場合には、参照情報からPOCを特定し、要求された参照ピクチャもしくは局部復号ピクチャを特定して供給する。   The picture storage unit 102 stores a reference picture and supplies it to each unit as necessary. Here, in order to easily specify the reference picture to be stored, for example, it is preferable to store the picture after associating it with a picture order count (hereinafter referred to as POC) which is a number for indicating the order of pictures. POC is used in AVC as information for specifying a reference picture. The picture accumulation unit 102 acquires the decoded signal generated by the addition unit 112 and accumulates it as a reference picture. The picture storage unit 102 supplies the requested reference picture to the unidirectional prediction signal generation unit 117, the first modified prediction signal generation unit 106, the second modified prediction signal generation unit 107, and the bi-prediction signal generation unit 118. . When acquiring the decoded signal from the adding unit 112, the picture storage unit 102 sequentially acquires the image signal of the decoded region obtained by local decoding after encoding, and then acquires the image signal of the local decoding region (hereinafter referred to as local decoding). (Picture). The picture storage unit 102 may hold the image signal of the locally decoded picture as a reference picture when the local decoding result of the entire encoding target picture is obtained. The picture storage unit 102 supplies the requested local decoded picture to the intra prediction unit 119. If necessary, the picture storage unit 102 is also requested to the unidirectional prediction signal generation unit 117, the first modified prediction signal generation unit 106, the second modified prediction signal generation unit 107, and the bi-prediction signal generation unit 118. Alternatively, a locally decoded picture may be supplied. When the reference information is supplied when supplying the reference picture or the locally decoded picture to each unit, the picture storage unit 102 specifies the POC from the reference information, and specifies the requested reference picture or locally decoded picture. And supply.

動き情報蓄積部103は、動き情報を蓄積する。ここで、動き情報は、予測動きベクトル情報、参照情報、修正された予測動きベクトル情報(以後、修正予測動きベクトル情報)、修正された参照情報(以後、修正参照情報)、動きベクトル情報および残差動きベクトル情報を含むものとする。動き情報蓄積部103は、対象ピクチャおよび参照ピクチャにおける予測処理の単位(以後、予測単位)ごとに利用される動き情報をまとめて管理する。例えば、AVCのように双予測を行う場合には、2つの動き情報を予測単位ごとに管理できるようにすると良い。ここで便宜上、一方をリスト0(以後、L0)側の動き情報、もう一方をリスト1(以後、L1)側の動き情報と呼ぶ。また、参照可能なピクチャに関する情報は、例えばAVCのように、参照リストとしてL0とL1で別々に管理されており、ref_idx_l0, ref_idx_l1といった参照情報に格納されている値によって参照ピクチャを特定できるようにすると良い。   The motion information storage unit 103 stores motion information. Here, the motion information includes predicted motion vector information, reference information, corrected predicted motion vector information (hereinafter, corrected predicted motion vector information), corrected reference information (hereinafter, corrected reference information), motion vector information, and remaining information. It is assumed that differential motion vector information is included. The motion information accumulation unit 103 collectively manages motion information used for each prediction processing unit (hereinafter, prediction unit) in the target picture and the reference picture. For example, when performing bi-prediction as in AVC, it is preferable that two pieces of motion information can be managed for each prediction unit. Here, for convenience, one is referred to as motion information on the list 0 (hereinafter, L0) side, and the other is referred to as motion information on the list 1 (hereinafter, L1) side. In addition, information relating to a picture that can be referred to is managed separately as a reference list in L0 and L1 as in AVC, for example, so that a reference picture can be specified by a value stored in reference information such as ref_idx_l0 and ref_idx_l1 Good.

動き情報蓄積部103は、どのような予測モードによって得られた動き情報であるかを特定することができるように、動き情報をモード情報と関連付けて管理する。動き情報蓄積部103は、どの参照ピクチャにおける、どの予測単位の領域(以後、参照予測領域)に属する動き情報であるかを特定することができるように、動き情報と、参照ピクチャを特定するための情報とを関連付けて管理する。参照ピクチャを特定するための情報として、例えばAVCで用いられているような、ピクチャの順番を示すための番号であるPOCや、ref_idxのような参照情報を利用すると良い。ここで、参照情報を利用した場合にて、例えばAVCのような構成の参照情報を利用する場合には、必要に応じて参照情報からPOCを特定することで、必要とする参照予測領域に属する動き情報を特定できるようになる。例えば、動き情報蓄積部103は、所定の動作モードに従って、第1修正予測信号生成部106、第2修正予測信号生成部107、片方向予測信号生成部117、双予測信号生成部118によって生成された動き情報のうちの少なくとも1つを取得し、蓄積する。その際、モード情報、POCもしくは参照情報、現在予測対象となっている予測領域(以後、対象予測領域)の位置情報に基づく関連付けがなされた上で蓄積される。   The motion information storage unit 103 manages the motion information in association with the mode information so that the motion information obtained by what prediction mode can be specified. The motion information accumulating unit 103 identifies motion information and a reference picture so that motion information belonging to which prediction unit region (hereinafter referred to as reference prediction region) in which reference picture belongs to. It is managed in association with information. As information for specifying a reference picture, for example, POC, which is a number for indicating the order of pictures as used in AVC, or reference information such as ref_idx may be used. Here, when reference information is used, for example, when reference information having a configuration such as AVC is used, the POC is specified from the reference information as necessary, thereby belonging to the required reference prediction region. It becomes possible to specify motion information. For example, the motion information storage unit 103 is generated by the first modified prediction signal generation unit 106, the second modified prediction signal generation unit 107, the unidirectional prediction signal generation unit 117, and the bi-prediction signal generation unit 118 according to a predetermined operation mode. At least one of the obtained motion information is acquired and accumulated. At this time, the association is made based on the mode information, POC or reference information, and the position information of the prediction area that is the current prediction target (hereinafter, the target prediction area), and then stored.

動き情報蓄積部103は、各部の要求に応じて、特定された格納済みの動き情報に含まれる情報のうち少なくとも1つを供給する。例えば、動き情報蓄積部103は、必要とする符号化済みで復号可能な領域(以後、復号可能領域)に属する動き情報を、特定するために、モード情報、POC、復号可能領域内における所望の予測領域の位置情報を動き予測部104から取得し、少なくとも特定した動きベクトル情報を動き予測部104に供給する。必要であれば、他の格納済みの動き情報も供給するようにしても構わない。ここで、復号可能領域には、参照ピクチャ内の領域、つまり参照予測領域や、対象ピクチャ内における符号化済み領域も含まれることに注意する。同様に、動き情報蓄積部103は、モード判定部108、第1修正予測信号生成部106、第2修正予測信号生成部107、片方向予測信号生成部117、双予測信号生成部118に対しても、これら各部からモード情報、POC、復号可能領域内における所望の予測領域の位置情報を取得し、特定された既に格納済みの動き情報の中から少なくとも1つを必要に応じて供給する。   The motion information accumulation unit 103 supplies at least one of information included in the specified stored motion information in response to a request from each unit. For example, the motion information accumulating unit 103 specifies desired information in the mode information, the POC, and the decodable area in order to specify the motion information belonging to the necessary encoded and decodable area (hereinafter, decodable area). Position information of the prediction area is acquired from the motion prediction unit 104, and at least the identified motion vector information is supplied to the motion prediction unit 104. If necessary, other stored motion information may be supplied. Here, it should be noted that the decodable area includes an area in the reference picture, that is, a reference prediction area and an encoded area in the target picture. Similarly, the motion information accumulating unit 103 corresponds to the mode determination unit 108, the first modified prediction signal generation unit 106, the second modified prediction signal generation unit 107, the unidirectional prediction signal generation unit 117, and the bi-prediction signal generation unit 118. Also, the mode information, the POC, and the position information of the desired prediction area within the decodable area are acquired from these units, and at least one of the specified already stored motion information is supplied as necessary.

動き予測部104は、例えば、AVCのような所定の動き予測処理により予測動きベクトル情報を生成し、生成の際に利用した参照情報とともに、参照解析部105、片方向予測信号生成部117、双予測信号生成部118に供給する。ここで、動き予測部104は、対象領域に対して、空間的相関性や時間的相関性の高いと考えられる復号可能領域に属する動き情報を取得するために、動き情報蓄積部103に対して、モード情報、POC、復号可能領域内における所望の予測領域の位置情報を供給し、特定された動き情報を、動き情報蓄積部103から取得する。動き予測部104は、この取得した動き情報を利用して動き予測処理を行う。また、動き情報が得られない場合には、所定のベクトル情報を予測動きベクトル情報として供給する。この場合、一般には、ゼロベクトルが用いられるが、他の所定のベクトル値であっても構わない。また、所定の動き予測処理は、異なる複数の動き予測処理を備え、切り替えて利用できるようにするとより良い構成となる。このような構成において、使用した動き予測処理を特定するための動き予測モードは、例えば、符号化制御部120が管理し、確定した動き予測モードから動き予測モード情報を生成して、符号列生成部113に供給するようにしても構わない。   For example, the motion prediction unit 104 generates predicted motion vector information by a predetermined motion prediction process such as AVC, and the reference analysis unit 105, the unidirectional prediction signal generation unit 117, the bi-directional information together with the reference information used in the generation. This is supplied to the prediction signal generation unit 118. Here, in order to acquire motion information belonging to a decodable region that is considered to have high spatial correlation and temporal correlation with respect to the target region, the motion prediction unit 104 The mode information, the POC, and the position information of the desired prediction area within the decodable area are supplied, and the identified motion information is acquired from the motion information storage unit 103. The motion prediction unit 104 performs motion prediction processing using the acquired motion information. When motion information cannot be obtained, predetermined vector information is supplied as predicted motion vector information. In this case, a zero vector is generally used, but another predetermined vector value may be used. In addition, the predetermined motion prediction process has a better configuration if it includes a plurality of different motion prediction processes and can be used by switching them. In such a configuration, the motion prediction mode for specifying the used motion prediction process is managed by, for example, the encoding control unit 120, and motion prediction mode information is generated from the determined motion prediction mode to generate a code string. You may make it supply to the part 113. FIG.

参照解析部105は、動き予測部104から参照情報と予測動きベクトル情報を取得する。参照解析部105は、取得した参照情報に対して、所定の参照解析処理を行い、取得した予測動きベクトル情報の修正の可否を示す予測修正情報を生成する。ここで、予測修正情報は、修正が可能な場合には「1」、可能でない、または必要ない場合には「0」とする。参照解析部105は、取得した参照情報と予測動きベクトル情報、および生成した予測修正情報を、第1修正予測信号生成部106および第2修正予測信号生成部107に供給する。ここで、所定の参照解析処理では、修正の可否の条件として、例えば、取得した参照情報から、利用する参照ピクチャの位置を特定し、対象ピクチャとの位置関係を解析する。そして、対象ピクチャにより近い参照ピクチャが存在するか否かにより、修正の可否を判断するようにしても良い。また、別の条件として、単純に対象ピクチャにより近い参照ピクチャが存在するというだけではなく、参照情報が属している参照リストに登録されている参照ピクチャの中で、対象ピクチャにより近いものが存在するか否かにより、修正の可否を判断するようにしても良い。更に、上述のような条件に画質に関する情報を加えてもよい。例えば、参照ピクチャを符号化した際の画質を左右する情報に基づいて、最も品質が良く、対象ピクチャに近い参照ピクチャが存在するか否かによるものや、参照リスト内で、最も品質が良く、対象ピクチャに近い参照ピクチャが存在するか否かにより、修正の可否を判断するようにしても良い。ここで、符号化した際の画質を左右する情報として、例えば、量子化パラメータ情報や、ピクチャタイプ等を利用すると良い。   The reference analysis unit 105 acquires reference information and predicted motion vector information from the motion prediction unit 104. The reference analysis unit 105 performs a predetermined reference analysis process on the acquired reference information, and generates prediction correction information indicating whether the acquired motion vector predictor information can be corrected. Here, the prediction correction information is “1” when correction is possible, and “0” when it is not possible or necessary. The reference analysis unit 105 supplies the acquired reference information, predicted motion vector information, and the generated prediction correction information to the first corrected prediction signal generation unit 106 and the second correction prediction signal generation unit 107. Here, in the predetermined reference analysis processing, for example, the position of the reference picture to be used is specified from the acquired reference information as the condition for whether or not correction is possible, and the positional relationship with the target picture is analyzed. Then, whether correction is possible may be determined based on whether there is a reference picture closer to the target picture. Further, as another condition, there is not only a reference picture that is closer to the target picture, but also a reference picture registered in the reference list to which the reference information belongs is closer to the target picture. Whether or not the correction can be made may be determined based on whether or not it is correct. Furthermore, information regarding image quality may be added to the above-described conditions. For example, based on information that affects the image quality when the reference picture is encoded, the quality is the best, depending on whether there is a reference picture close to the target picture, and the best quality in the reference list, Whether correction is possible may be determined based on whether there is a reference picture close to the target picture. Here, for example, quantization parameter information, a picture type, or the like may be used as information that affects the image quality at the time of encoding.

第1修正予測信号生成部106は、参照解析部105から、L0側の参照情報、予測動きベクトル情報および予測修正情報を取得する。第1修正予測信号生成部106は、参照解析部105から、取得可能であれば、L1側の参照情報および予測修正情報を取得する。第1修正予測信号生成部106は、入力部101から対象信号、ピクチャ蓄積部102から参照ピクチャを取得する。ここで、第1修正予測信号生成部106は、参照ピクチャを取得する際に、参照情報をピクチャ蓄積部102に供給する。   The first modified prediction signal generation unit 106 acquires L0 side reference information, prediction motion vector information, and prediction correction information from the reference analysis unit 105. The first modified prediction signal generation unit 106 acquires the reference information and prediction correction information on the L1 side from the reference analysis unit 105 if it can be acquired. The first modified prediction signal generation unit 106 acquires the target signal from the input unit 101 and the reference picture from the picture storage unit 102. Here, the first modified prediction signal generation unit 106 supplies reference information to the picture storage unit 102 when acquiring a reference picture.

第1修正予測信号生成部106は、取得した各情報に基づいて、所定のL0側の情報を基準とした修正予測信号生成処理を行い、動作モードごとの参照情報、動きベクトル情報、残差動きベクトル情報および予測信号を生成する。更に動作モードに応じて、修正参照情報、修正予測動きベクトル情報を生成する。第1修正予測信号生成部106は、取得および生成した動作モードごとの動き情報を、動き情報蓄積部103に供給する。第1修正予測信号生成部106は、生成に利用した参照情報もしくは修正参照情報、生成した残差動きベクトル情報および予測信号を、動作モードごとにモード判定部108に供給する。第1修正予測信号生成部106における所定の修正予測信号生成処理に関する詳細は、後述する。   The first modified prediction signal generation unit 106 performs a modified prediction signal generation process based on predetermined information on the L0 side based on each piece of acquired information, and performs reference information, motion vector information, residual motion for each operation mode. Vector information and prediction signals are generated. Further, modified reference information and modified predicted motion vector information are generated according to the operation mode. The first modified prediction signal generation unit 106 supplies the acquired and generated motion information for each operation mode to the motion information storage unit 103. The first modified prediction signal generation unit 106 supplies the reference information or modified reference information used for generation, the generated residual motion vector information, and the prediction signal to the mode determination unit 108 for each operation mode. Details regarding the predetermined modified prediction signal generation processing in the first modified prediction signal generation unit 106 will be described later.

第2修正予測信号生成部107は、参照解析部105から、取得可能であれば、L1側の参照情報、予測動きベクトル情報および予測修正情報を取得する。第2修正予測信号生成部107は、参照解析部105から、取得可能であれば、L0側の参照情報および予測修正情報を取得する。ここで、第2修正予測信号生成部107と第1修正予測信号生成部106との違いとして、取得する情報が、L0とL1で入れ替わっていることに注意する。また、第2修正予測信号生成部107において、L1側の情報が得られない場合には、その後の処理を行わないようにすると良い。   The second modified prediction signal generation unit 107 acquires L1 side reference information, prediction motion vector information, and prediction correction information from the reference analysis unit 105 if it can be acquired. The second modified prediction signal generation unit 107 acquires L0 side reference information and prediction correction information from the reference analysis unit 105 if it can be acquired. Here, as a difference between the second modified predicted signal generation unit 107 and the first modified predicted signal generation unit 106, it should be noted that the information to be acquired is switched between L0 and L1. In addition, when the information on the L1 side cannot be obtained in the second modified predicted signal generation unit 107, it is preferable not to perform subsequent processing.

第2修正予測信号生成部107は、入力部101から対象信号、ピクチャ蓄積部102から参照ピクチャを取得する。ここで、第2修正予測信号生成部107は、参照ピクチャを取得する際に、参照情報をピクチャ蓄積部102に供給する。   The second modified prediction signal generation unit 107 acquires the target signal from the input unit 101 and the reference picture from the picture storage unit 102. Here, the second modified prediction signal generation unit 107 supplies reference information to the picture storage unit 102 when acquiring a reference picture.

第2修正予測信号生成部107は、取得した各情報に基づいて、所定のL1側の情報を基準とした修正予測信号生成処理を行い、動作モードごとの参照情報、動きベクトル情報、残差動きベクトル情報および予測信号を生成する。更に動作モードに応じて、修正参照情報および修正予測動きベクトル情報を生成する。第2修正予測信号生成部107は、取得および生成した動作モードごとの動き情報を、動き情報蓄積部103に供給する。第2修正予測信号生成部107は、生成に利用した参照情報もしくは修正参照情報、生成した残差動きベクトル情報および予測信号を、動作モードごとにモード判定部108に供給する。第2修正予測信号生成部107における所定の修正予測信号生成処理に関する詳細は、後述する。   The second modified prediction signal generation unit 107 performs a modified prediction signal generation process based on information on the predetermined L1 side based on the acquired information, and performs reference information, motion vector information, residual motion for each operation mode. Vector information and prediction signals are generated. Further, modified reference information and modified predicted motion vector information are generated according to the operation mode. The second modified prediction signal generation unit 107 supplies the acquired and generated motion information for each operation mode to the motion information storage unit 103. The second modified prediction signal generation unit 107 supplies the reference information or correction reference information used for generation, the generated residual motion vector information, and the prediction signal to the mode determination unit 108 for each operation mode. Details regarding the predetermined modified prediction signal generation processing in the second modified prediction signal generation unit 107 will be described later.

モード判定部108は、動作モードごとに、参照情報もしくは修正参照情報、生成した残差動きベクトル情報、予測信号を、第1修正予測信号生成部106、第2修正予測信号生成部107、片方向予測信号生成部117、双予測信号生成部118から取得する。モード判定部108は、取得可能であれば、予測信号を、イントラ予測部119から取得する。また、モード判定部108は、入力部101から、対象信号を取得する。   For each operation mode, the mode determination unit 108 transmits the reference information or the corrected reference information, the generated residual motion vector information, and the prediction signal to the first corrected prediction signal generation unit 106, the second corrected prediction signal generation unit 107, the one-way Obtained from the prediction signal generation unit 117 and the bi-prediction signal generation unit 118. The mode determination unit 108 acquires a prediction signal from the intra prediction unit 119 if acquisition is possible. Further, the mode determination unit 108 acquires a target signal from the input unit 101.

モード判定部108は、所定のモード判定処理、および動作モードを選択するための比較判定を行い、動作モードを確定し、動作モード情報を生成する。このモード判定処理において、モード判定部108は、動作モードごとに、取得した情報が必要とする情報量を求め、動作モードごとに情報量の比較を行う。そして、最も少ない情報量となる動作モードを選択して、その動作モードに確定する。また、動き予測部104の所定の動き予測処理が複数存在し、切り替えて利用することができる構成である場合には、各動き予測モードごとに動作モードを確定させた後に、最適な動作モードとなる動き予測モードを特定し、その時の動作モードを最終的に確定した動作モードにすると良い。   The mode determination unit 108 performs predetermined mode determination processing and comparison determination for selecting an operation mode, determines the operation mode, and generates operation mode information. In this mode determination process, the mode determination unit 108 obtains the amount of information required for the acquired information for each operation mode, and compares the information amount for each operation mode. Then, the operation mode with the smallest amount of information is selected and confirmed as that operation mode. In addition, when there are a plurality of predetermined motion prediction processes of the motion prediction unit 104 and can be switched and used, after determining the operation mode for each motion prediction mode, It is preferable that the motion prediction mode to be specified is specified, and the operation mode at that time is finally determined to be the operation mode.

モード判定部108は、モード確定後、確定した動作モードによって得られた予測信号を、減算部109および加算部112に供給する。モード判定部108は、確定した動作モードに応じて、得られた残差動きベクトル情報、参照情報もしくは修正参照情報および動作モード情報を、符号列生成部113に供給する。   After determining the mode, the mode determination unit 108 supplies the prediction signal obtained in the determined operation mode to the subtraction unit 109 and the addition unit 112. The mode determination unit 108 supplies the obtained residual motion vector information, reference information or modified reference information, and operation mode information to the code string generation unit 113 according to the determined operation mode.

モード判定部108は、動作モードごとの情報量の算出例として以下の手法を用いることができる。モード判定部108は、対象信号から予測信号を減算して残差信号を算出し、残差動きベクトル情報、参照情報もしくは修正参照情報および動作モード情報とともに当該残差信号に対して所定の2値化を行った後に、所定のエントロピー符号化を行うことで得られる符号列の量を、動作モードごとの情報量とする。また、処理を軽減するために、残差動きベクトル情報、参照情報もしくは修正参照情報、動作モード情報等は所定の概算値で求め、残差信号に対しては、簡易的な符号化(PCM、DPCM、ADPCM等)や簡易的な周波数変換(アダマール変換、ハール変換等)を行った後の値を概算値とし、これらを合算した情報量を比較に利用するようにしても良い。また、更に処理を軽減するために、残差信号そのものを情報量として比較に利用するようにしても良い。以上のような情報量の求め方は一例であり、別の異なる方法により情報量を求めるようにしても良く、本来の情報量の大小関係が破綻しないような求め方であれば、特に限定されないことに注意する。   The mode determination unit 108 can use the following method as an example of calculating the information amount for each operation mode. The mode determining unit 108 calculates a residual signal by subtracting the prediction signal from the target signal, and outputs a predetermined binary value to the residual signal together with the residual motion vector information, reference information or modified reference information, and operation mode information. After performing the conversion, the amount of the code string obtained by performing the predetermined entropy encoding is set as the information amount for each operation mode. In order to reduce processing, residual motion vector information, reference information or modified reference information, operation mode information, and the like are obtained with a predetermined approximate value, and the residual signal is simply encoded (PCM, DPCM, ADPCM, etc.) or simple frequency conversion (Hadamard transform, Haar transform, etc.) may be used as an approximate value, and the total amount of information may be used for comparison. In order to further reduce the processing, the residual signal itself may be used as an information amount for comparison. The method for obtaining the information amount as described above is merely an example, and the information amount may be obtained by another different method, and is not particularly limited as long as the information amount does not break down. Note that.

モード判定部108は、所定の動作モードや符号化済み領域から予測される動作モード、もしくは所定の先見情報に基づいて、より確からしい動作モードを選別し、片方向予測信号生成部117、双予測信号生成部118、イントラ予測部119、第1修正予測信号生成部106、第2修正予測信号生成部107のいずれかを機能させないように符号化制御部120に通知することで、事前に、不要な動作モードによる予測信号もしくは合成予測信号の生成処理を抑制するようにしても構わない。例えば、動き情報蓄積部103には、符号化済みで復号可能領域に属する動作モードや動き情報が蓄積されていることから、モード判定部108は、対象領域周辺の符号化済み復号可能領域に属する動作モードおよび動き情報を取得し、所定の動作モード選別処理に基づいて動作モードを選別し、必要とする処理を特定して符号化制御部120に通知するように構成しても良い。   The mode determination unit 108 selects a more likely operation mode based on the predetermined operation mode, the operation mode predicted from the encoded region, or the predetermined look-ahead information, and the one-way prediction signal generation unit 117, the bi-prediction Not required in advance by notifying the encoding control unit 120 not to cause any one of the signal generation unit 118, the intra prediction unit 119, the first modified prediction signal generation unit 106, and the second modified prediction signal generation unit 107 to function. The generation process of the prediction signal or the combined prediction signal in the various operation modes may be suppressed. For example, since the motion information storage unit 103 stores motion modes and motion information that have been encoded and belong to a decodable area, the mode determination unit 108 belongs to an encoded decodable area around the target area. The operation mode and the motion information may be acquired, the operation mode may be selected based on a predetermined operation mode selection process, and a necessary process may be specified and notified to the encoding control unit 120.

減算部109は、入力部101から対象信号、モード判定部108から予測信号を取得し、当該対象信号から当該予測信号を減算することで、残差情報を生成し、残差符号化部110に供給する。   The subtraction unit 109 acquires the target signal from the input unit 101 and the prediction signal from the mode determination unit 108, subtracts the prediction signal from the target signal, generates residual information, and sends the residual information to the residual encoding unit 110. Supply.

残差符号化部110は、減算部109から残差情報を取得し、所定の残差符号化処理により残差符号化後情報を生成し、残差復号部111および符号列生成部113に供給する。ここで、所定の残差符号化処理は、例えばAVC等のように、所定の直交変換、量子化を伴うようにすると良い。また、残差符号化部110は、発生符号量を制御するために、符号量制御部115から符号量制御情報を取得し、この符号量制御情報に従って所定の残差符号化処理を行うことにより、生成される残差符号化後情報の発生符号量を制御する。一般には、量子化パラメータを変動させることにより、量子化を行う際の量子化ステップを制御することで、発生符号量を変動させる。   The residual encoding unit 110 acquires residual information from the subtracting unit 109, generates post-residual encoding information by a predetermined residual encoding process, and supplies the residual information to the residual decoding unit 111 and the code string generation unit 113. To do. Here, the predetermined residual encoding process is preferably accompanied by predetermined orthogonal transform and quantization, such as AVC. Further, the residual encoding unit 110 acquires code amount control information from the code amount control unit 115 in order to control the generated code amount, and performs a predetermined residual encoding process according to the code amount control information. The generated code amount of the generated information after residual coding is controlled. In general, by changing the quantization parameter, the generated code amount is changed by controlling the quantization step at the time of quantization.

残差復号部111は、残差符号化部110から、残差符号化後情報を取得し、所定の残差復号処理により復号残差情報を生成し、加算部112に供給する。ここで、所定の残差復号処理は、例えばAVC等のように、所定の逆量子化、逆直交変換を伴うようにすると良い。   The residual decoding unit 111 acquires residual post-encoding information from the residual encoding unit 110, generates decoded residual information by a predetermined residual decoding process, and supplies the decoded residual information to the adding unit 112. Here, the predetermined residual decoding process is preferably accompanied by predetermined inverse quantization and inverse orthogonal transform, such as AVC.

加算部112は、モード判定部108から予測信号、残差復号部111から復号残差情報を取得し、当該予測信号に当該復号残差情報を加算することで復号信号を生成し、ピクチャ蓄積部102に供給する。   The adding unit 112 obtains the prediction signal from the mode determination unit 108 and the decoding residual information from the residual decoding unit 111, generates a decoded signal by adding the decoding residual information to the prediction signal, and generates a decoded signal. 102.

符号列生成部113は、モード判定部108から残差動きベクトル情報、参照情報もしくは修正参照情報および動作モード情報を取得するとともに、残差符号化部110から残差符号化後情報を取得する。符号列生成部113は、符号化制御部120から、動作が確定し、出力が必要な符号化パラメータを取得する。符号列生成部113は、所定の構文構造に従って、取得した各情報に基づく符号列を生成し、符号列蓄積部114に供給する。符号列生成部113は、符号列を生成する際に、所定のエントロピー符号化処理を伴って情報量を圧縮するように構成すると良い。ここで、所定のエントロピー符号化処理は、例えばAVCのエントロピー符号化処理である、CABACなどの算術符号化やCAVLCなどの可変長符号化によって符号列を生成するように構成すると良い。また、必要に応じてPCM等の異なるエントロピー符号化処理を採用したり、これらを切り替えて利用したりしても構わない。   The code string generation unit 113 acquires residual motion vector information, reference information or modified reference information, and operation mode information from the mode determination unit 108, and acquires residual encoded information from the residual encoding unit 110. The code string generation unit 113 acquires, from the encoding control unit 120, an encoding parameter whose operation is determined and that needs to be output. The code string generation unit 113 generates a code string based on the acquired information according to a predetermined syntax structure, and supplies the code string to the code string storage unit 114. The code sequence generation unit 113 may be configured to compress the information amount with a predetermined entropy encoding process when generating the code sequence. Here, the predetermined entropy encoding process may be configured to generate a code string by arithmetic encoding such as CABAC or variable length encoding such as CAVLC, which is an AVC entropy encoding process, for example. Further, different entropy encoding processes such as PCM may be adopted as necessary, or these may be switched and used.

符号列蓄積部114は、符号列生成部113から符号列を取得し、一時的に蓄積する。符号列蓄積部114は、一時的に蓄積された符号列の符号量を測定し、符号量制御部115に供給する。符号列蓄積部114は、一時的に蓄積された符号列を出力部116に供給する。   The code string accumulation unit 114 acquires the code string from the code string generation unit 113 and temporarily accumulates it. The code string storage unit 114 measures the code amount of the temporarily stored code string and supplies the code amount to the code amount control unit 115. The code string accumulation unit 114 supplies the code string temporarily accumulated to the output unit 116.

符号量制御部115は、符号列蓄積部114から符号量を取得し、取得した符号量に基づいて符号量制御処理を行うことで、符号量制御情報を生成し、残差符号化部110に供給する。ここで、符号量制御処理では、例えば、最終的に目標とする動画像の符号化伝送レートに近づけるように、取得した符号量に基づいて、次の符号化で用いる量子化パラメータの値を決定し、これを符号量制御情報とすると良い。   The code amount control unit 115 acquires the code amount from the code string storage unit 114, performs code amount control processing based on the acquired code amount, generates code amount control information, and transmits the code amount control information to the residual encoding unit 110. Supply. Here, in the code amount control process, for example, the value of the quantization parameter used in the next encoding is determined based on the acquired code amount so as to be close to the target moving image encoding transmission rate. However, this may be code amount control information.

出力部116は、符号列蓄積部114から符号列を取得し、出力部116に接続されている外部の伝送装置141、記録媒体143を利用する、もしくは利用しない記録装置142や蓄積装置144等に出力する。   The output unit 116 acquires a code string from the code string storage unit 114, and uses the external transmission device 141 and the recording medium 143 connected to the output unit 116, or the recording device 142 or the storage device 144 that does not use the recording medium. Output.

符号化制御部120は、動画像符号化装置100内に含まれる各部の動作や情報の入出力を制御し、動画像符号化処理の全体を管理する。符号化制御部120は、各部における動作モードや動作順序等の、動画像符号化装置100における動作を制御および確定させるための情報を、相互に関連付けて符号化パラメータとして管理し、確定した出力を必要とする符号化パラメータを、符号列生成部113に供給する。例えば、符号化パラメータの代表的なものとして、動き予測モード、動作モード、参照情報、量子化パラメータ、イントラ予測モード等があり、また、各部の動作を確定するためのモード全般が、符号化パラメータに含まれることに注意する。   The encoding control unit 120 controls the operation of each unit included in the moving image encoding apparatus 100 and input / output of information, and manages the entire moving image encoding process. The encoding control unit 120 manages information for controlling and confirming the operation in the moving image encoding apparatus 100 such as the operation mode and the operation order in each unit as a coding parameter in association with each other, and outputs the determined output. The necessary encoding parameters are supplied to the code string generation unit 113. For example, typical coding parameters include a motion prediction mode, an operation mode, reference information, a quantization parameter, an intra prediction mode, and the like. Note that it is included in

符号化制御部120は、モード判定部108から、選別された動作モードに関する情報を取得し、不要となった各部を機能させず、選別された動作モードを実現するために必要な各部に対して、動作や情報の入出力を制御し、動画像符号化処理の全体を管理するようにしても構わない。   The encoding control unit 120 acquires information on the selected operation mode from the mode determination unit 108, and does not function each unit that is no longer necessary, and performs each operation necessary for realizing the selected operation mode. Alternatively, input / output of operations and information may be controlled to manage the entire moving image encoding process.

片方向予測信号生成部117は、入力部101から対象信号、ピクチャ蓄積部102からL0側またはL1側の参照ピクチャを取得する。ここで、片方向予測信号生成部117は、参照ピクチャを取得する際に、L0側またはL1側の参照情報をピクチャ蓄積部102に供給する。片方向予測信号生成部117は、動き予測部104からL0側またはL1側の参照情報および予測動きベクトル情報を取得する。片方向予測信号生成部117は、所定の片方向予測信号生成処理により動きベクトル情報、残差動きベクトル情報、予測信号を生成する。ここで、所定の片方向予測信号生成処理は、例えばAVCのように、所定の動き推定処理によって動きベクトル情報を特定し、特定された動きベクトル情報と予測動きベクトル情報から残差動きベクトル情報を生成する。そして、所定の片方向予測信号生成処理は、例えばAVCのように、所定の動き補償処理によって、特定された動きベクトル情報に基づいて参照ピクチャ内から予測信号を生成すると良い。片方向予測信号生成部117は、生成した動き情報を、動き情報蓄積部103に供給する。片方向予測信号生成部117は、生成に利用した参照情報、生成した残差動きベクトル情報および予測信号を、モード判定部108に供給する。   The unidirectional prediction signal generation unit 117 acquires the target signal from the input unit 101 and the reference picture on the L0 side or the L1 side from the picture storage unit 102. Here, the unidirectional prediction signal generation unit 117 supplies the L0 side or L1 side reference information to the picture storage unit 102 when acquiring the reference picture. The unidirectional prediction signal generation unit 117 acquires L0 side or L1 side reference information and prediction motion vector information from the motion prediction unit 104. The unidirectional prediction signal generation unit 117 generates motion vector information, residual motion vector information, and a prediction signal by a predetermined unidirectional prediction signal generation process. Here, the predetermined unidirectional prediction signal generation process specifies motion vector information by a predetermined motion estimation process, for example, AVC, and generates residual motion vector information from the specified motion vector information and predicted motion vector information. Generate. Then, the predetermined unidirectional prediction signal generation process may generate a prediction signal from the reference picture based on the motion vector information specified by the predetermined motion compensation process, for example, as in AVC. The unidirectional prediction signal generation unit 117 supplies the generated motion information to the motion information storage unit 103. The unidirectional prediction signal generation unit 117 supplies the reference information used for generation, the generated residual motion vector information, and the prediction signal to the mode determination unit 108.

双予測信号生成部118は、入力部101から対象信号、ピクチャ蓄積部102からL0側およびL1側の参照ピクチャを取得する。ここで、双予測信号生成部118は、参照ピクチャを取得する際に、L0側およびL1側の参照情報をピクチャ蓄積部102に供給する。双予測信号生成部118は、動き予測部104からL0側およびL1側の参照情報と予測動きベクトル情報を取得する。双予測信号生成部118は、所定の双予測信号生成処理によりL0側とL1側の動きベクトル情報、残差動きベクトル情報および予測信号を生成する。そして、L0側の予測信号とL1側の予測信号とを合成することで、合成予測信号を生成する。ここで、所定の双予測信号生成処理は、例えばAVCのように、L0側とL1側のそれぞれにおいて、所定の動き推定処理によって動きベクトル情報を特定し、特定された動きベクトル情報と予測動きベクトル情報から残差動きベクトル情報を生成する。そして、所定の双予測信号生成処理は、例えばAVCのように、L0側とL1側のそれぞれにおいて、所定の動き補償処理によって、特定された動きベクトル情報に基づいて参照ピクチャ内から予測信号を生成すると良い。双予測信号生成部118は、生成したL0側およびL1側の動き情報を、動き情報蓄積部103に供給する。双予測信号生成部118は、生成に利用したL0側およびL1側の参照情報、ならびに生成した残差動きベクトル情報および合成予測信号を、モード判定部108に供給する。   The bi-prediction signal generation unit 118 acquires the target signal from the input unit 101 and the reference pictures on the L0 side and the L1 side from the picture storage unit 102. Here, the bi-prediction signal generation unit 118 supplies the L0 side and L1 side reference information to the picture storage unit 102 when acquiring the reference picture. The bi-prediction signal generation unit 118 acquires L0 side and L1 side reference information and prediction motion vector information from the motion prediction unit 104. The bi-prediction signal generator 118 generates L0 side and L1 side motion vector information, residual motion vector information, and a prediction signal by a predetermined bi-prediction signal generation process. Then, a combined prediction signal is generated by combining the L0 side prediction signal and the L1 side prediction signal. Here, in the predetermined bi-prediction signal generation process, for example, as in AVC, motion vector information is specified by a predetermined motion estimation process on each of the L0 side and the L1 side, and the specified motion vector information and the predicted motion vector are specified. Residual motion vector information is generated from the information. The predetermined bi-prediction signal generation process generates a prediction signal from the reference picture based on the specified motion vector information by the predetermined motion compensation process on each of the L0 side and the L1 side, for example, AVC. Good. The bi-prediction signal generation unit 118 supplies the generated L0 side and L1 side motion information to the motion information storage unit 103. The bi-prediction signal generation unit 118 supplies the L0 side and L1 side reference information used for generation, the generated residual motion vector information, and the combined prediction signal to the mode determination unit 108.

イントラ予測部119は、ピクチャ蓄積部102から局部復号ピクチャを取得し、例えばAVCのように、所定のイントラ予測処理に基づいて、局部復号ピクチャから対象領域内の予測信号を生成し、モード判定部108に供給する。   The intra prediction unit 119 acquires a local decoded picture from the picture storage unit 102, generates a prediction signal in the target region from the local decoded picture based on a predetermined intra prediction process, for example, AVC, and the mode determination unit 108.

次に、実施の形態1に係る動画像符号化装置100の基本動作を、図3のフローチャートを用いて以下に説明する。   Next, the basic operation of moving picture coding apparatus 100 according to Embodiment 1 will be described below using the flowchart of FIG.

まず、符号化制御部120は、ユーザ等から符号化開始要求を受けると、各部に対して符号化開始指令を送る。それに応じて、入力部101は、入力画像列を取得し、その中から符号化対象ピクチャを取得し(S101)、対象領域内の対象信号を、減算部109、モード判定部108、片方向予測信号生成部117、第1修正予測信号生成部106、第2修正予測信号生成部107および双予測信号生成部118に供給する。   First, when receiving an encoding start request from a user or the like, the encoding control unit 120 sends an encoding start command to each unit. In response thereto, the input unit 101 acquires an input image sequence, acquires an encoding target picture from the input image sequence (S101), and converts a target signal in the target region into a subtraction unit 109, a mode determination unit 108, and a unidirectional prediction. The signals are supplied to the signal generation unit 117, the first modified prediction signal generation unit 106, the second modified prediction signal generation unit 107, and the bi-prediction signal generation unit 118.

その後、符号化制御部120は、動き予測部104に対して、動き予測開始指令を送る。動き予測部104は、符号化制御部120の指令を受けて、所定の動き予測処理(S102)を開始する。この所定の動き予測処理では、まず、動き予測部104は、動き情報蓄積部103に対して、モード情報、POC、復号可能領域内における所望の予測領域の位置情報を供給し、特定された動き情報を、動き情報蓄積部103から取得する。ここで、例えばAVCのように、対象領域に隣接する復号可能な領域に属する、少なくとも1つの領域の動き情報を取得するように、動き情報蓄積部103に対して各種情報を供給し、必要とする領域の動き情報を取得すると良い。その後、動き予測部104は、この取得した動き情報を利用して、例えばAVCのような所定の動き予測処理を行い、予測動きベクトル情報を生成する。また、動き情報が得られない場合には、所定のベクトル情報を予測動きベクトル情報とする。その後、動き予測部104は、生成の際に利用した参照情報とともに、予測動きベクトル情報を、参照解析部105、片方向予測信号生成部117および双予測信号生成部118に供給する。   Thereafter, the encoding control unit 120 sends a motion prediction start command to the motion prediction unit 104. The motion prediction unit 104 receives a command from the encoding control unit 120 and starts a predetermined motion prediction process (S102). In the predetermined motion prediction process, first, the motion prediction unit 104 supplies the motion information storage unit 103 with mode information, POC, and position information of a desired prediction region within the decodable region, and the specified motion Information is acquired from the motion information storage unit 103. Here, various types of information are supplied to the motion information storage unit 103 so as to acquire motion information of at least one area belonging to a decodable area adjacent to the target area, such as AVC, and It is preferable to acquire motion information of the area to be used. Thereafter, the motion prediction unit 104 performs a predetermined motion prediction process such as AVC, for example, using the acquired motion information to generate predicted motion vector information. When motion information cannot be obtained, predetermined vector information is used as predicted motion vector information. Thereafter, the motion prediction unit 104 supplies the predicted motion vector information to the reference analysis unit 105, the unidirectional prediction signal generation unit 117, and the bi-prediction signal generation unit 118 together with the reference information used at the time of generation.

その後、符号化制御部120は、参照解析部105に対して、参照解析開始指令を送る。参照解析部105は、符号化制御部120の指令を受けて、所定の参照解析処理(S103)を開始する。この参照解析処理では、まず、参照解析部105は、動き予測部104から参照情報および予測動きベクトル情報を取得する。その後、参照解析部105は、取得した参照情報に対して、所定の参照解析処理を行い、予測修正情報を生成する。その後、参照解析部105は、取得した参照情報と予測動きベクトル情報、および生成した予測修正情報を、第1修正予測信号生成部106および第2修正予測信号生成部107に供給する。   Thereafter, the encoding control unit 120 sends a reference analysis start command to the reference analysis unit 105. The reference analysis unit 105 receives a command from the encoding control unit 120 and starts a predetermined reference analysis process (S103). In this reference analysis process, first, the reference analysis unit 105 acquires reference information and predicted motion vector information from the motion prediction unit 104. Thereafter, the reference analysis unit 105 performs a predetermined reference analysis process on the acquired reference information to generate prediction correction information. Thereafter, the reference analysis unit 105 supplies the acquired reference information, predicted motion vector information, and the generated prediction correction information to the first corrected prediction signal generation unit 106 and the second correction prediction signal generation unit 107.

その後、符号化制御部120は、第1修正予測信号生成部106、第2修正予測信号生成部107、片方向予測信号生成部117、双予測信号生成部118およびイントラ予測部119に対して、予測信号生成開始指令を送る。第1修正予測信号生成部106、第2修正予測信号生成部107、片方向予測信号生成部117、双予測信号生成部118およびイントラ予測部119は、符号化制御部120の指令を受けて、各部における所定の予測信号生成処理を開始(S104)する。この予測信号生成処理では、第1修正予測信号生成処理(S104−1)、第2修正予測信号生成処理(S104−2)、片方向予測信号生成処理(S104−3)、双予測信号生成処理(S104−4)およびイントラ予測処理(S104−5)がそれぞれ行われる。各部は、取得および生成した動作モードごとの動き情報を、動き情報蓄積部103に供給し、生成に利用した参照情報もしくは修正参照情報、生成した残差動きベクトル情報および予測信号を、動作モードごとにモード判定部108に供給する。   Thereafter, the encoding control unit 120 performs the following operations on the first modified prediction signal generation unit 106, the second modified prediction signal generation unit 107, the unidirectional prediction signal generation unit 117, the bi-prediction signal generation unit 118, and the intra prediction unit 119. Send a prediction signal generation start command. The first modified prediction signal generation unit 106, the second modified prediction signal generation unit 107, the unidirectional prediction signal generation unit 117, the bi-prediction signal generation unit 118, and the intra prediction unit 119 receive an instruction from the encoding control unit 120, A predetermined prediction signal generation process in each unit is started (S104). In this prediction signal generation process, a first modified prediction signal generation process (S104-1), a second modified prediction signal generation process (S104-2), a unidirectional prediction signal generation process (S104-3), and a bi-prediction signal generation process (S104-4) and intra prediction processing (S104-5) are performed. Each unit supplies the acquired and generated motion information for each operation mode to the motion information storage unit 103, and the reference information or the corrected reference information used for generation, the generated residual motion vector information, and the prediction signal for each operation mode. To the mode determination unit 108.

ここで、上述の第1修正予測信号生成処理は、第1修正予測信号生成部106によって行われる。まず、第1修正予測信号生成部106は、参照解析部105から、L0側の参照情報、予測動きベクトル情報および予測修正情報を取得する。第1修正予測信号生成部106は、参照解析部105から、取得可能であれば、L1側の参照情報および予測修正情報を取得する。第1修正予測信号生成部106は、入力部101から対象信号、ピクチャ蓄積部102から参照ピクチャを取得する。ここで、第1修正予測信号生成部106は、参照ピクチャを取得する際に、参照情報をピクチャ蓄積部102に供給する。その後、第1修正予測信号生成部106は、取得した各情報に基づいて、所定のL0側の情報を基準とした修正予測信号生成処理を行い、動作モードごとの参照情報、動きベクトル情報、残差動きベクトル情報、予測信号を生成する。更に動作モードに応じて、修正参照情報および修正予測動きベクトル情報を生成する。第1修正予測信号生成部106は、取得および生成した動作モードごとの動き情報を、動き情報蓄積部103に供給する。第1修正予測信号生成部106は、生成に利用した参照情報もしくは修正参照情報、生成した残差動きベクトル情報および予測信号を、動作モードごとにモード判定部108に供給する。これにより、第1修正予測信号生成処理が完了する。   Here, the first modified predicted signal generation process described above is performed by the first modified predicted signal generation unit 106. First, the first modified prediction signal generation unit 106 acquires L0-side reference information, prediction motion vector information, and prediction correction information from the reference analysis unit 105. The first modified prediction signal generation unit 106 acquires the reference information and prediction correction information on the L1 side from the reference analysis unit 105 if it can be acquired. The first modified prediction signal generation unit 106 acquires the target signal from the input unit 101 and the reference picture from the picture storage unit 102. Here, the first modified prediction signal generation unit 106 supplies reference information to the picture storage unit 102 when acquiring a reference picture. After that, the first modified prediction signal generation unit 106 performs a modified prediction signal generation process based on the information on the predetermined L0 side based on the acquired information, and performs reference information, motion vector information, and remaining information for each operation mode. Difference motion vector information and a prediction signal are generated. Further, modified reference information and modified predicted motion vector information are generated according to the operation mode. The first modified prediction signal generation unit 106 supplies the acquired and generated motion information for each operation mode to the motion information storage unit 103. The first modified prediction signal generation unit 106 supplies the reference information or modified reference information used for generation, the generated residual motion vector information, and the prediction signal to the mode determination unit 108 for each operation mode. Thereby, the first modified prediction signal generation process is completed.

また、上述の第2修正予測信号生成処理は、第2修正予測信号生成部107によって行われる。まず、第2修正予測信号生成部107は、参照解析部105から、取得可能であれば、L1側の参照情報、予測動きベクトル情報および予測修正情報を取得する。第2修正予測信号生成部107は、参照解析部105から、取得可能であれば、L0側の参照情報および予測修正情報を取得する。第2修正予測信号生成部107は、入力部101から対象信号、ピクチャ蓄積部102から参照ピクチャを取得する。ここで、第2修正予測信号生成部107は、参照ピクチャを取得する際に、参照情報をピクチャ蓄積部102に供給する。その後、第2修正予測信号生成部107は、取得した各情報に基づいて、所定のL1側の情報を基準とした修正予測信号生成処理を行い、動作モードごとの参照情報、動きベクトル情報、残差動きベクトル情報、予測信号を生成する。更に動作モードに応じて、修正参照情報および修正予測動きベクトル情報を生成する。第2修正予測信号生成部107は、取得および生成した動作モードごとの動き情報を、動き情報蓄積部103に供給する。第2修正予測信号生成部107は、生成に利用した参照情報もしくは修正参照情報、生成した残差動きベクトル情報および予測信号を、動作モードごとにモード判定部108に供給する。これにより、第2修正予測信号生成処理が完了する。   In addition, the second modified predicted signal generation process described above is performed by the second modified predicted signal generation unit 107. First, the second corrected prediction signal generation unit 107 acquires L1 side reference information, prediction motion vector information, and prediction correction information from the reference analysis unit 105 if it can be acquired. The second modified prediction signal generation unit 107 acquires L0 side reference information and prediction correction information from the reference analysis unit 105 if it can be acquired. The second modified prediction signal generation unit 107 acquires the target signal from the input unit 101 and the reference picture from the picture storage unit 102. Here, the second modified prediction signal generation unit 107 supplies reference information to the picture storage unit 102 when acquiring a reference picture. Thereafter, the second modified predicted signal generation unit 107 performs a modified predicted signal generation process based on the information on the predetermined L1 side based on the acquired information, and performs reference information, motion vector information, and remaining information for each operation mode. Difference motion vector information and a prediction signal are generated. Further, modified reference information and modified predicted motion vector information are generated according to the operation mode. The second modified prediction signal generation unit 107 supplies the acquired and generated motion information for each operation mode to the motion information storage unit 103. The second modified prediction signal generation unit 107 supplies the reference information or correction reference information used for generation, the generated residual motion vector information, and the prediction signal to the mode determination unit 108 for each operation mode. Thereby, the second modified prediction signal generation process is completed.

また、上述の片方向予測信号生成処理は、片方向予測信号生成部117によって行われる。まず、片方向予測信号生成部117は、入力部101から対象信号、ピクチャ蓄積部102からL0側またはL1側の参照ピクチャを取得する。ここで、片方向予測信号生成部117は、参照ピクチャを取得する際に、L0側またはL1側の参照情報をピクチャ蓄積部102に供給する。片方向予測信号生成部117は、動き予測部104から、L0側またはL1側の参照情報および予測動きベクトル情報を取得する。その後、片方向予測信号生成部117は、所定の片方向予測信号生成処理により動きベクトル情報、残差動きベクトル情報および予測信号を生成する。その後、片方向予測信号生成部117は、生成した動き情報を、動き情報蓄積部103に供給する。片方向予測信号生成部117は、生成に利用した参照情報、生成した残差動きベクトル情報および予測信号を、モード判定部108に供給する。これにより、片方向予測信号生成処理が完了する。   Further, the above-described unidirectional prediction signal generation process is performed by the unidirectional prediction signal generation unit 117. First, the unidirectional prediction signal generation unit 117 acquires the target signal from the input unit 101 and the L0 side or L1 side reference picture from the picture storage unit 102. Here, the unidirectional prediction signal generation unit 117 supplies the L0 side or L1 side reference information to the picture storage unit 102 when acquiring the reference picture. The unidirectional prediction signal generation unit 117 acquires L0 side or L1 side reference information and prediction motion vector information from the motion prediction unit 104. Thereafter, the unidirectional prediction signal generation unit 117 generates motion vector information, residual motion vector information, and a prediction signal by a predetermined unidirectional prediction signal generation process. Thereafter, the unidirectional prediction signal generation unit 117 supplies the generated motion information to the motion information storage unit 103. The unidirectional prediction signal generation unit 117 supplies the reference information used for generation, the generated residual motion vector information, and the prediction signal to the mode determination unit 108. Thereby, the one-way predicted signal generation process is completed.

また、上述の双予測信号生成処理は、双予測信号生成部118によって行われる。まず、双予測信号生成部118は、入力部101から対象信号、ピクチャ蓄積部102からL0側およびL1側の参照ピクチャを取得する。ここで、双予測信号生成部118は、参照ピクチャを取得する際に、L0側およびL1側の参照情報をピクチャ蓄積部102に供給する。双予測信号生成部118は、動き予測部104から、L0側およびL1側の参照情報および予測動きベクトル情報を取得する。その後、双予測信号生成部118は、所定の双予測信号生成処理によりL0側およびL1側の動きベクトル情報、残差動きベクトル情報および予測信号を生成し、L0側の予測信号とL1側の予測信号とを合成することで、合成予測信号を生成する。その後、双予測信号生成部118は、生成したL0側およびL1側の動き情報を、動き情報蓄積部103に供給する。双予測信号生成部118は、生成に利用したL0側およびL1側の参照情報、ならびに生成した残差動きベクトル情報および合成予測信号を、モード判定部108に供給する。これにより、双予測信号生成処理が完了する。   The bi-predictive signal generation process described above is performed by the bi-predictive signal generation unit 118. First, the bi-prediction signal generation unit 118 acquires the target signal from the input unit 101 and the reference pictures on the L0 side and the L1 side from the picture storage unit 102. Here, the bi-prediction signal generation unit 118 supplies the L0 side and L1 side reference information to the picture storage unit 102 when acquiring the reference picture. The bi-prediction signal generation unit 118 acquires L0 side and L1 side reference information and prediction motion vector information from the motion prediction unit 104. Thereafter, the bi-prediction signal generation unit 118 generates L0 side and L1 side motion vector information, residual motion vector information, and a prediction signal by a predetermined bi-prediction signal generation process, and the L0 side prediction signal and the L1 side prediction are generated. By combining the signals, a combined prediction signal is generated. Thereafter, the bi-prediction signal generation unit 118 supplies the generated L0 side and L1 side motion information to the motion information storage unit 103. The bi-prediction signal generation unit 118 supplies the L0 side and L1 side reference information used for generation, the generated residual motion vector information, and the combined prediction signal to the mode determination unit 108. Thereby, the bi-prediction signal generation process is completed.

また、上述のイントラ予測処理は、イントラ予測部119によって行われる。まず、イントラ予測部119は、ピクチャ蓄積部102から、局部復号ピクチャを取得し、所定のイントラ予測処理に基づいて、局部復号ピクチャから対象領域内の予測信号を生成し、モード判定部108に供給する。これにより、イントラ予測処理が完了する。   The intra prediction process described above is performed by the intra prediction unit 119. First, the intra prediction unit 119 acquires a locally decoded picture from the picture storage unit 102, generates a prediction signal in the target region from the locally decoded picture based on a predetermined intra prediction process, and supplies the prediction signal to the mode determination unit 108 To do. Thereby, the intra prediction process is completed.

以上のような予測信号生成処理が完了すると、符号化制御部120は、モード判定部108に対して、モード判定開始指令を送る。モード判定部108は、符号化制御部120の指令を受けて、モード判定処理(S105)を開始する。このモード判定処理では、まず、モード判定部108は、動作モードごとに、参照情報もしくは修正参照情報、生成した残差動きベクトル情報および予測信号を、第1修正予測信号生成部106、第2修正予測信号生成部107、片方向予測信号生成部117および双予測信号生成部118からそれぞれ取得する。モード判定部108は、取得可能であれば、予測信号を、イントラ予測部119から取得する。モード判定部108は、入力部101から対象信号を取得する。その後、モード判定部108は、動作モードを確定するための比較判定を行う。動作モードが確定した場合(S106のYES)、動作モード情報を生成する。その後、モード判定部108は、確定した動作モードによって得られた予測信号を、減算部109および加算部112に供給する。モード判定部108は、確定した動作モードに応じて、得られた残差動きベクトル情報、参照情報もしくは修正参照情報および動作モード情報を、符号列生成部113に供給する。動作モードが確定していない場合(S106のNO)、ステップS102に戻る。   When the prediction signal generation process as described above is completed, the encoding control unit 120 sends a mode determination start command to the mode determination unit 108. The mode determination unit 108 starts the mode determination process (S105) in response to an instruction from the encoding control unit 120. In this mode determination process, first, the mode determination unit 108 uses, for each operation mode, the reference information or the corrected reference information, the generated residual motion vector information, and the prediction signal as the first corrected prediction signal generation unit 106 and the second correction signal. Obtained from the prediction signal generation unit 107, the unidirectional prediction signal generation unit 117, and the bi-prediction signal generation unit 118, respectively. The mode determination unit 108 acquires a prediction signal from the intra prediction unit 119 if acquisition is possible. The mode determination unit 108 acquires a target signal from the input unit 101. Thereafter, the mode determination unit 108 performs a comparison determination for determining the operation mode. When the operation mode is confirmed (YES in S106), operation mode information is generated. Thereafter, the mode determination unit 108 supplies the prediction signal obtained in the determined operation mode to the subtraction unit 109 and the addition unit 112. The mode determination unit 108 supplies the obtained residual motion vector information, reference information or modified reference information, and operation mode information to the code string generation unit 113 according to the determined operation mode. If the operation mode has not been determined (NO in S106), the process returns to step S102.

その後、符号化制御部120は、減算部109に対して、残差信号生成開始指令を送る。減算部109は、符号化制御部120の指令を受けて、所定の残差信号生成処理(S107)を開始する。この所定の残差信号生成処理では、減算部109は、入力部101から対象信号、モード判定部108から予測信号を取得し、対象信号から予測信号を減算することで、残差情報を生成し、残差符号化部110に供給する。   Thereafter, the encoding control unit 120 sends a residual signal generation start command to the subtraction unit 109. The subtraction unit 109 receives a command from the encoding control unit 120 and starts a predetermined residual signal generation process (S107). In this predetermined residual signal generation process, the subtracting unit 109 acquires the target signal from the input unit 101 and the prediction signal from the mode determination unit 108, and generates residual information by subtracting the prediction signal from the target signal. And supplied to the residual encoding unit 110.

その後、符号化制御部120は、残差符号化部110に対して、残差符号化開始指令を送る。残差符号化部110は、符号化制御部120の指令を受けて、所定の残差符号化処理(S108)を開始する。この所定の残差符号化処理では、残差符号化部110は、減算部109から残差情報を取得し、所定の残差符号化処理により残差符号化後情報を生成し、残差復号部111および符号列生成部113に供給する。   Thereafter, the encoding control unit 120 sends a residual encoding start command to the residual encoding unit 110. Residual encoding unit 110 receives a command from encoding control unit 120 and starts a predetermined residual encoding process (S108). In this predetermined residual encoding process, the residual encoding unit 110 acquires residual information from the subtracting unit 109, generates post-residual encoding information by the predetermined residual encoding process, and performs residual decoding. To the unit 111 and the code string generation unit 113.

その後、符号化制御部120は、残差復号部111に対して、残差復号開始指令を送る。残差復号部111は、符号化制御部120の指令を受けて、所定の残差復号処理(S109)を開始する。この所定の残差復号処理では、残差復号部111は、残差符号化部110から残差符号化後情報を取得し、所定の残差復号処理により復号残差情報を生成し、加算部112に供給する。   Thereafter, the encoding control unit 120 sends a residual decoding start command to the residual decoding unit 111. Residual decoding section 111 receives a command from encoding control section 120 and starts a predetermined residual decoding process (S109). In this predetermined residual decoding process, the residual decoding unit 111 obtains post-residual encoding information from the residual encoding unit 110, generates decoded residual information by the predetermined residual decoding process, and adds an adding unit. 112.

その後、符号化制御部120は、加算部112に対して、復号信号生成開始指令を送る。加算部112は、符号化制御部120の指令を受けて、所定の復号信号生成処理(S110)を開始する。この所定の復号信号生成処理では、加算部112は、モード判定部108から予測信号、残差復号部111から復号残差情報を取得し、予測信号に復号残差情報を加算することで復号信号を生成し、ピクチャ蓄積部102に供給する。   Thereafter, the encoding control unit 120 sends a decoded signal generation start command to the adding unit 112. In response to the instruction from the encoding control unit 120, the adding unit 112 starts a predetermined decoded signal generation process (S110). In this predetermined decoded signal generation process, the adding unit 112 acquires the prediction signal from the mode determination unit 108 and the decoding residual information from the residual decoding unit 111, and adds the decoding residual information to the prediction signal, thereby adding the decoded signal. And is supplied to the picture storage unit 102.

符号化制御部120は、符号列生成部113に対して、符号列生成開始指令を送る。符号列生成部113は、符号化制御部120の指令を受けて、所定の符号列生成処理(S111)を開始する。この所定の符号列生成処理では、符号列生成部113は、モード判定部108から残差動きベクトル情報、参照情報もしくは修正参照情報および動作モード情報を取得するとともに、残差符号化部110から残差符号化後情報を取得する。符号列生成部113は、符号化制御部120から、動作が確定し、出力が必要な符号化パラメータを取得する。符号列生成部113は、所定の構文構造に従って、取得した各情報に基づく符号列を生成し、符号列蓄積部114に供給する。   The encoding control unit 120 sends a code string generation start command to the code string generation unit 113. The code string generation unit 113 receives a command from the coding control unit 120 and starts a predetermined code string generation process (S111). In this predetermined code sequence generation process, the code sequence generation unit 113 acquires residual motion vector information, reference information or modified reference information, and operation mode information from the mode determination unit 108 and from the residual encoding unit 110. Obtain post-differential information. The code string generation unit 113 acquires, from the encoding control unit 120, an encoding parameter whose operation is determined and that needs to be output. The code string generation unit 113 generates a code string based on the acquired information according to a predetermined syntax structure, and supplies the code string to the code string storage unit 114.

その後、符号化制御部120は、符号量制御部115に対して、符号量制御開始指令を送る。符号量制御部115は、符号化制御部120の指令を受けて、所定の符号量制御処理(S112)を開始する。この所定の符号量制御処理では、符号量制御部115は、符号列蓄積部114から符号量を取得し、取得した符号量に基づいて符号量制御処理を行うことで、符号量制御情報を生成し、残差符号化部110に供給する。   Thereafter, the encoding control unit 120 sends a code amount control start command to the code amount control unit 115. The code amount control unit 115 receives a command from the coding control unit 120 and starts a predetermined code amount control process (S112). In the predetermined code amount control process, the code amount control unit 115 generates the code amount control information by acquiring the code amount from the code string storage unit 114 and performing the code amount control process based on the acquired code amount. And then supplied to the residual encoding unit 110.

その後、符号化制御部120は、符号化処理の進捗状態から、符号化対象ピクチャ全体の符号化が完了したかどうかを確認する(S113)。符号化対象ピクチャ全体の符号化が完了していない場合(S113のNO)は、符号化制御部120は、対象領域を次の対象領域に更新し、ステップS102に戻る。   Thereafter, the encoding control unit 120 checks whether or not the encoding of the entire encoding target picture has been completed based on the progress of the encoding process (S113). If encoding of the entire encoding target picture has not been completed (NO in S113), the encoding control unit 120 updates the target area to the next target area, and returns to step S102.

符号化対象ピクチャ全体の符号化が完了した場合(S113のYES)、符号化制御部120は、符号列蓄積部114および出力部116に対して、出力開始指令を送る。符号列蓄積部114は、符号化制御部120の指令を受けて、符号列を出力部116に供給し、出力部116は、符号列蓄積部114から符号列を取得して、出力部116に接続されている外部の伝送装置141、記録媒体143を利用する、もしくは利用しない記録装置142や蓄積装置144等に出力する(S114)。   When encoding of the entire encoding target picture is completed (YES in S113), the encoding control unit 120 sends an output start command to the code string storage unit 114 and the output unit 116. The code string accumulation unit 114 receives a command from the encoding control unit 120 and supplies the code string to the output unit 116, and the output unit 116 acquires the code string from the code string accumulation unit 114 and sends it to the output unit 116. The data is output to the recording device 142 or the storage device 144 that uses or does not use the external transmission device 141 and recording medium 143 that are connected (S114).

以上のようなステップにより、実施の形態1に係る動画像符号化装置100の基本動作が完了する。   Through the steps as described above, the basic operation of the moving picture coding apparatus 100 according to Embodiment 1 is completed.

ここで、実施の形態1の動画像符号化装置100の構成および動作により、以下のような効果が得られる。   Here, the following effects are acquired by the structure and operation | movement of the moving image encoder 100 of Embodiment 1. FIG.

まず、実施の形態1の動画像符号化装置100では、動き予測部104から少なくとも1本の予測動きベクトル情報が取得できる場合に、この1本の予測動きベクトル情報から、もう一方の予測動きベクトル情報を、修正予測動きベクトル情報として導出できる。それととともに、この修正予測動きベクトル情報を所定の動き探索により、参照先としてより良い位置に修正することで、動きベクトル情報を確定させることができる。この確定した動きベクトル情報に基づく予測信号と、最初に動き予測部104から得た予測動きベクトル情報に基づく予測信号とを合成することで、合成予測信号を生成することができる。また、確定した動きベクトル情報から、導出された修正予測動きベクトル情報を減算することで、残差動きベクトル情報を得ることができる。また、このような動作を特定するための動作モード情報を復号側に伝送することで、復号側でも同様の合成予測信号を得ることができる。したがって、実施の形態1の動画像符号化装置100では、1本分の残差動きベクトル情報を伝送するだけで、復号側で符号化側と同様の双予測ができるようになる。この点、従来においては、双予測を行う際、2本分の残差動きベクトル情報を伝送する必要があった。   First, in the video encoding device 100 according to the first embodiment, when at least one prediction motion vector information can be acquired from the motion prediction unit 104, the other prediction motion vector is obtained from this one prediction motion vector information. Information can be derived as modified prediction motion vector information. At the same time, the motion vector information can be determined by correcting the corrected predicted motion vector information to a better position as a reference destination by a predetermined motion search. By synthesizing the prediction signal based on the determined motion vector information and the prediction signal based on the prediction motion vector information first obtained from the motion prediction unit 104, a combined prediction signal can be generated. Also, residual motion vector information can be obtained by subtracting the derived modified prediction motion vector information from the confirmed motion vector information. Further, by transmitting operation mode information for specifying such an operation to the decoding side, a similar combined prediction signal can be obtained on the decoding side. Therefore, the moving picture coding apparatus 100 according to Embodiment 1 can perform bi-prediction similar to the coding side on the decoding side only by transmitting one residual motion vector information. In this regard, conventionally, when performing bi-prediction, it is necessary to transmit residual motion vector information for two lines.

また、従来の空間的、時間的ダイレクトモードのように、残差動きベクトル情報を利用せずに双予測を行った場合、予測信号の品質が低下してしまい、結果的に符号量が的確に抑制できない場合があった。この点、実施の形態1の動画像符号化装置100では、1本分の残差動きベクトル情報を利用することにより、より確からしい位置の動きベクトル情報となるように修正できるため、より良い予測信号もしくは合成予測信号を生成できる可能性を高めることができる。したがって、動きベクトル情報と予測信号を記述する際の全体の符号量を、従来よりも抑えることができる。   In addition, when bi-prediction is performed without using residual motion vector information as in the conventional spatial and temporal direct mode, the quality of the prediction signal is reduced, and as a result, the code amount is accurately determined. In some cases, it was not possible to suppress it. In this regard, since the moving picture coding apparatus 100 according to Embodiment 1 can correct the motion vector information at a more probable position by using residual motion vector information for one line, better prediction is possible. The possibility that a signal or a combined prediction signal can be generated can be increased. Therefore, the entire code amount when describing the motion vector information and the prediction signal can be suppressed as compared with the conventional case.

また、実施の形態1の動画像符号化装置100では、例えばAVCのような従来型の予測信号生成部である、片方向予測信号生成部117、双予測信号生成部118およびイントラ予測部119と、新たな構成要素である、第1修正予測信号生成部106および第2修正予測信号生成部107を備える。第1修正予測信号生成部106は、L0側の動き情報に基づいてL1側の修正予測動きベクトル情報を導出して予測信号もしくは合成予測信号を生成し、第2修正予測信号生成部107は、L1側の動き情報に基づいてL0側の修正予測動きベクトル情報を導出して予測信号もしくは合成予測信号を生成する。この構成によれば、従来型の予測信号生成部のみを備える構成と比較し、各動作モードで得られる予測信号もしくは合成予測信号、残差動きベクトル情報および参照情報を符号化した際の符号量が、より少なくなる動作モードを選択できる可能性がある。その場合、従来の符号量より少ない符号量の符号列を生成することができる。   Further, in the moving picture encoding apparatus 100 according to Embodiment 1, for example, a one-way prediction signal generation unit 117, a bi-prediction signal generation unit 118, and an intra prediction unit 119, which are conventional prediction signal generation units such as AVC, The first modified prediction signal generation unit 106 and the second modification prediction signal generation unit 107, which are new components, are provided. The first modified prediction signal generation unit 106 derives the L1 side modified prediction motion vector information based on the L0 side motion information to generate a prediction signal or a combined prediction signal, and the second modified prediction signal generation unit 107 Based on the L1 side motion information, the L0 side modified prediction motion vector information is derived to generate a prediction signal or a combined prediction signal. According to this configuration, compared with a configuration including only a conventional prediction signal generation unit, the amount of code when encoding a prediction signal or a combined prediction signal, residual motion vector information, and reference information obtained in each operation mode However, there is a possibility that a smaller operation mode can be selected. In this case, it is possible to generate a code string having a code amount smaller than the conventional code amount.

また、実施の形態1の動画像符号化装置100では、所定の動作モードや符号化済み領域から予測される動作モード、もしくは所定の先見情報に基づいて、より確からしい動作モードを選別し、片方向予測信号生成部117、双予測信号生成部118、イントラ予測部119、第1修正予測信号生成部106および第2修正予測信号生成部107のいずれかを機能させないようにすることができる。これにより、実施の形態1の動画像符号化装置100では、予測信号を生成するまでの過程における演算量を軽減し、符号化にかかる時間を短縮することができる。   Further, the moving picture encoding apparatus 100 according to Embodiment 1 selects a more probable operation mode based on a predetermined operation mode, an operation mode predicted from an encoded region, or predetermined look-ahead information, Any of the direction prediction signal generation unit 117, the bi-prediction signal generation unit 118, the intra prediction unit 119, the first modified prediction signal generation unit 106, and the second modified prediction signal generation unit 107 can be prevented from functioning. As a result, the moving picture encoding apparatus 100 according to Embodiment 1 can reduce the amount of calculation in the process until the generation of the prediction signal, and can reduce the time required for encoding.

また、実施の形態1の動画像符号化装置100では、動き予測部104によって予測された参照情報を、参照解析部105によって参照先を変更して修正参照情報とする際に、参照先を変更せずに、参照情報を修正参照情報とする場合や、所定のルールや動作モードに基づいて復号側でも一意に修正参照情報が特定できる場合には、参照情報もしくは修正参照情報自体を符号化および伝送しないように構成することができる。これにより、実施の形態1の動画像符号化装置100では、更に動き情報に関する符号量を抑制し、符号化効率を向上させることができる。   Also, in the video encoding device 100 according to Embodiment 1, when the reference information predicted by the motion prediction unit 104 is changed to the reference information by the reference analysis unit 105, the reference destination is changed. If the reference information is used as the corrected reference information, or if the corrected reference information can be uniquely identified on the decoding side based on a predetermined rule or operation mode, the reference information or the corrected reference information itself is encoded and It can be configured not to transmit. Thereby, in the moving image coding apparatus 100 of Embodiment 1, the code amount regarding motion information can further be suppressed and coding efficiency can be improved.

次に、実施の形態1の動画像符号化装置100により生成された符号列を復号する、実施の形態1の動画像復号装置を説明する。図4は、本発明の実施の形態1における、動画像復号装置200の構成図である。図5は、本発明の実施の形態1における、動画像復号装置200の各部と復号制御部216との間の接続関係を示す構成図である。   Next, the moving picture decoding apparatus according to the first embodiment that decodes the code string generated by the moving picture encoding apparatus 100 according to the first embodiment will be described. FIG. 4 is a configuration diagram of the moving picture decoding apparatus 200 according to Embodiment 1 of the present invention. FIG. 5 is a configuration diagram illustrating a connection relationship between each unit of the video decoding device 200 and the decoding control unit 216 according to Embodiment 1 of the present invention.

実施の形態1の動画像復号装置200は、入力部201、ピクチャ蓄積部202、復号列生成部203、残差復号部204、加算部205、モード識別部206、動き情報蓄積部207、動き予測部208、参照解析部209、第1修正予測信号生成部210、第2修正予測信号生成部211、出力部212および復号制御部216を少なくとも備える。また更に、片方向予測信号生成部213、双予測信号生成部214およびイントラ予測部215を含むように構成すると良く、実施の形態1においては、これらを全て含むものとして話を進める。   The moving picture decoding apparatus 200 according to Embodiment 1 includes an input unit 201, a picture storage unit 202, a decoded sequence generation unit 203, a residual decoding unit 204, an addition unit 205, a mode identification unit 206, a motion information storage unit 207, and motion prediction. Unit 208, reference analysis unit 209, first modified prediction signal generation unit 210, second modified prediction signal generation unit 211, output unit 212, and decoding control unit 216. Furthermore, it may be configured to include a unidirectional prediction signal generation unit 213, a bi-prediction signal generation unit 214, and an intra prediction unit 215. In the first embodiment, the description will be made assuming that all of these are included.

入力部201は、例えば、図4で示されるような伝送装置231、記録媒体233を利用する、もしくは利用しない記録装置232や蓄積装置234等から符号列を取得し、復号列生成部203に供給する。ここで、取得した符号列は、例えば、実施の形態1の動画像符号化装置100によって生成されたものであると良い。また、取得した符号列は、他の同等な機能をもつものによって生成され、伝送や蓄積されたものであっても構わない。   The input unit 201 acquires a code string from, for example, a recording device 232 or a storage device 234 that uses or does not use the transmission device 231 and the recording medium 233 as illustrated in FIG. 4 and supplies the code sequence to the decoded sequence generation unit 203. To do. Here, the acquired code string is preferably generated by the moving image encoding apparatus 100 according to Embodiment 1, for example. Further, the acquired code string may be generated and transmitted or stored by another having an equivalent function.

ピクチャ蓄積部202は、動画像符号化装置100のピクチャ蓄積部102と同等の機能をもつ。ピクチャ蓄積部202は、参照ピクチャとして利用されないと判明しているピクチャを復号ピクチャとして蓄積する。ピクチャ蓄積部202は、表示タイミングに応じて、表示対象となった参照ピクチャもしくは復号ピクチャを出力部212に供給する。   The picture storage unit 202 has a function equivalent to that of the picture storage unit 102 of the video encoding device 100. The picture accumulation unit 202 accumulates pictures that are known not to be used as reference pictures as decoded pictures. The picture storage unit 202 supplies the reference picture or decoded picture to be displayed to the output unit 212 according to the display timing.

復号列生成部203は、入力部201から符号列を取得し、所定の構文構造に基づいて復号列生成処理を行い、符号列から現在復号対象となっている領域(以後、復号対象領域)に属する、少なくとも残差動きベクトル情報、参照情報、動作モード情報、残差符号化後情報および符号化パラメータを生成する。その後、復号列生成部203は、残差動きベクトル情報、参照情報、動作モード情報をモード識別部206に供給し、残差符号化後情報を残差復号部204に供給し、符号化パラメータを復号パラメータとして復号制御部216にそれぞれ供給する。復号列生成部203は、復号列を生成する際に、動画像符号化装置100の所定のエントロピー符号化処理と対をなす所定のエントロピー復号処理を伴って復号するように構成すると良い。ここで、所定のエントロピー復号処理は、例えばAVCのエントロピー復号処理である、CABAC等の算術復号やCAVLC等の可変長復号によって復号列を生成するように構成すると良い。また、必要に応じてPCM等の異なるエントロピー復号処理を採用したり、これらを切り替えて利用したりしても構わない。   The decoded sequence generation unit 203 acquires a code sequence from the input unit 201, performs a decoded sequence generation process based on a predetermined syntax structure, and converts the code sequence into a region that is currently a decoding target (hereinafter, a decoding target region). At least residual motion vector information, reference information, operation mode information, information after residual encoding, and encoding parameters are generated. Thereafter, the decoded sequence generation unit 203 supplies residual motion vector information, reference information, and operation mode information to the mode identification unit 206, supplies residual encoded information to the residual decoding unit 204, and sets encoding parameters. The decoding parameters are supplied to the decoding control unit 216, respectively. The decoding sequence generation unit 203 may be configured to perform decoding with a predetermined entropy decoding process that is paired with a predetermined entropy encoding process of the video encoding device 100 when generating the decoded sequence. Here, the predetermined entropy decoding process may be configured to generate a decoded string by arithmetic decoding such as CABAC or variable length decoding such as CAVLC, which is an AVC entropy decoding process, for example. Further, different entropy decoding processes such as PCM may be adopted as necessary, or these may be switched and used.

残差復号部204は、復号列生成部203から残差符号化後情報を取得し、所定の残差復号処理により復号残差情報を生成し、加算部205に供給する。ここで、所定の残差復号処理は、例えばAVC等のように、所定の逆量子化、逆直交変換を伴うようにすると良い。   The residual decoding unit 204 acquires residual post-encoding information from the decoded sequence generation unit 203, generates decoded residual information by a predetermined residual decoding process, and supplies the decoded residual information to the addition unit 205. Here, the predetermined residual decoding process is preferably accompanied by predetermined inverse quantization and inverse orthogonal transform, such as AVC.

加算部205は、モード識別部206から予測信号、残差復号部204から復号残差情報を取得し、当該予測信号に当該復号残差情報を加算することで復号信号を生成し、ピクチャ蓄積部202に供給する。   The adding unit 205 obtains a prediction signal from the mode identification unit 206 and decoding residual information from the residual decoding unit 204, generates a decoded signal by adding the decoding residual information to the prediction signal, and generates a decoded signal. 202.

モード識別部206は、復号列生成部203から、復号対象領域に属する、残差動きベクトル情報、参照情報および動作モード情報を取得する。モード識別部206は、取得した動作モード情報を識別し、識別した動作モードに応じて各部が動作するように復号制御部216に通知する。モード識別部206は、取得した動き情報を、動作モード情報とともに動き情報蓄積部207に供給する。モード識別部206は、第1修正予測信号生成部210、第2修正予測信号生成部211、片方向予測信号生成部213、双予測信号生成部214およびイントラ予測部215の中から動作モードに応じた取得先を特定し、その取得先から予測信号を取得する。その後、モード識別部206は、取得した予測信号を加算部205に供給する。   The mode identification unit 206 acquires residual motion vector information, reference information, and operation mode information belonging to the decoding target region from the decoded sequence generation unit 203. The mode identifying unit 206 identifies the acquired operation mode information, and notifies the decoding control unit 216 to operate each unit according to the identified operation mode. The mode identification unit 206 supplies the acquired motion information to the motion information storage unit 207 together with the operation mode information. The mode identifying unit 206 is selected from the first modified prediction signal generation unit 210, the second modified prediction signal generation unit 211, the unidirectional prediction signal generation unit 213, the bi-prediction signal generation unit 214, and the intra prediction unit 215 according to the operation mode. The acquisition source is specified, and the prediction signal is acquired from the acquisition source. Thereafter, the mode identification unit 206 supplies the acquired prediction signal to the addition unit 205.

動き情報蓄積部207は、動画像符号化装置100の動き情報蓄積部103と同等の機能をもつ。動き情報蓄積部207は、モード識別部206から、動作モード情報および動き情報を取得し、動き情報を格納する。動き情報蓄積部207は、第1修正予測信号生成部210、第2修正予測信号生成部211、片方向予測信号生成部213、双予測信号生成部214の中から動作モードに応じた供給先を特定し、その供給先に残差動きベクトル情報を供給する。   The motion information storage unit 207 has a function equivalent to that of the motion information storage unit 103 of the video encoding device 100. The motion information storage unit 207 acquires the operation mode information and the motion information from the mode identification unit 206, and stores the motion information. The motion information storage unit 207 selects a supply destination according to the operation mode from the first modified prediction signal generation unit 210, the second modified prediction signal generation unit 211, the unidirectional prediction signal generation unit 213, and the bi-prediction signal generation unit 214. The residual motion vector information is supplied to the supply destination.

動き予測部208および参照解析部209は、動画像符号化装置100の動き予測部104および参照解析部105とそれぞれ同等の機能をもつため、説明を省略する。   The motion prediction unit 208 and the reference analysis unit 209 have functions equivalent to those of the motion prediction unit 104 and the reference analysis unit 105 of the video encoding device 100, and thus description thereof is omitted.

第1修正予測信号生成部210は、動作モードに応じて、参照解析部209から、L0側の参照情報、予測動きベクトル情報および予測修正情報を取得する。第1修正予測信号生成部210は、参照解析部209から、取得可能であれば、L1側の参照情報および予測修正情報を取得する。第1修正予測信号生成部210は、ピクチャ蓄積部102から参照ピクチャを取得する。ここで、第1修正予測信号生成部210は、参照ピクチャを取得する際に、参照情報をピクチャ蓄積部202に供給する。第1修正予測信号生成部210は、動き情報蓄積部207から復号対象領域に属する残差動きベクトル情報を取得する。   The first modified prediction signal generation unit 210 acquires L0-side reference information, prediction motion vector information, and prediction correction information from the reference analysis unit 209 according to the operation mode. The first corrected prediction signal generation unit 210 acquires the reference information and prediction correction information on the L1 side from the reference analysis unit 209 if it can be acquired. The first modified prediction signal generation unit 210 acquires a reference picture from the picture storage unit 102. Here, the first modified prediction signal generation unit 210 supplies reference information to the picture storage unit 202 when acquiring a reference picture. The first modified prediction signal generation unit 210 acquires residual motion vector information belonging to the decoding target region from the motion information storage unit 207.

第1修正予測信号生成部210は、取得した各情報に基づいて、所定のL0側の情報を基準とした修正予測信号生成処理を行い、動作モードに応じた参照情報、動きベクトル情報、予測信号を生成する。更に動作モードに応じて、修正参照情報および修正予測動きベクトル情報を生成する。第1修正予測信号生成部210は、取得および生成した動作モードに応じた動き情報を、動き情報蓄積部207に供給する。第1修正予測信号生成部210は、生成した予測信号をモード識別部206に供給する。第1修正予測信号生成部210における所定の修正予測信号生成処理に関する詳細は、後述する。   The first modified predictive signal generation unit 210 performs a modified predictive signal generation process based on information obtained on the basis of predetermined information on the L0 side, and includes reference information, motion vector information, and predictive signals according to the operation mode. Is generated. Further, modified reference information and modified predicted motion vector information are generated according to the operation mode. The first modified prediction signal generation unit 210 supplies motion information corresponding to the acquired and generated operation mode to the motion information storage unit 207. The first modified prediction signal generation unit 210 supplies the generated prediction signal to the mode identification unit 206. Details regarding the predetermined modified prediction signal generation process in the first modified prediction signal generation unit 210 will be described later.

第2修正予測信号生成部211は、動作モードに応じて、参照解析部209から、取得可能であれば、L1側の参照情報、予測動きベクトル情報および予測修正情報を取得する。第2修正予測信号生成部211は、動作モードに応じて、参照解析部209から、取得可能であれば、L0側の参照情報および予測修正情報を取得する。第2修正予測信号生成部211は、ピクチャ蓄積部202から参照ピクチャを取得する。ここで、第2修正予測信号生成部211は、参照ピクチャを取得する際に、参照情報をピクチャ蓄積部202に供給する。第2修正予測信号生成部211は、動き情報蓄積部207から復号対象領域に属する残差動きベクトル情報を取得する。   The second modified prediction signal generation unit 211 acquires reference information, prediction motion vector information, and prediction correction information on the L1 side from the reference analysis unit 209, if it can be acquired, according to the operation mode. The second modified prediction signal generation unit 211 acquires the reference information and prediction correction information on the L0 side from the reference analysis unit 209 according to the operation mode if it can be acquired. The second modified prediction signal generation unit 211 acquires a reference picture from the picture storage unit 202. Here, the second modified prediction signal generation unit 211 supplies reference information to the picture storage unit 202 when acquiring a reference picture. The second modified prediction signal generation unit 211 acquires residual motion vector information belonging to the decoding target region from the motion information storage unit 207.

第2修正予測信号生成部211は、取得した各情報に基づいて、所定のL1側の情報を基準とした修正予測信号生成処理を行い、動作モードに応じた参照情報、動きベクトル情報および予測信号を生成する。更に動作モードに応じて、修正参照情報および修正予測動きベクトル情報を生成する。第2修正予測信号生成部211は、取得および生成した動作モードに応じた動き情報を、動き情報蓄積部207に供給する。第2修正予測信号生成部211は、生成した予測信号をモード識別部206に供給する。第2修正予測信号生成部211における所定の修正予測信号生成処理に関する詳細は、後述する。   The second modified prediction signal generation unit 211 performs a modified prediction signal generation process based on information on the predetermined L1 side based on each acquired information, and includes reference information, motion vector information, and a prediction signal corresponding to the operation mode. Is generated. Further, modified reference information and modified predicted motion vector information are generated according to the operation mode. The second modified prediction signal generation unit 211 supplies motion information corresponding to the acquired and generated operation mode to the motion information storage unit 207. The second modified prediction signal generation unit 211 supplies the generated prediction signal to the mode identification unit 206. Details regarding the predetermined modified prediction signal generation process in the second modified prediction signal generation unit 211 will be described later.

出力部212は、ピクチャ蓄積部202から、表示タイミングに応じて、表示対象となった参照ピクチャもしくは復号ピクチャを取得し、出力部212に接続されている外部の伝送装置241、記録媒体243を利用する、もしくは利用しない記録装置242や蓄積装置244、表示装置245等に対して供給することで、復号されたピクチャを出力する。   The output unit 212 acquires a reference picture or decoded picture to be displayed from the picture storage unit 202 according to the display timing, and uses an external transmission device 241 and a recording medium 243 connected to the output unit 212. The decoded picture is output by supplying to the recording device 242, the storage device 244, the display device 245, or the like that is used or not used.

復号制御部216は、動画像復号装置200内に含まれる各部の動作や情報の入出力を制御し、動画像復号処理の全体を管理する。復号制御部216は、各部における動作モードや動作順序等の、動画像復号装置200における動作を制御および確定させるための情報である、相互に関連付けられた復号パラメータを、復号列生成部203から取得し、動画像復号処理の全体を管理する。復号制御部216は、モード識別部206によって識別された動作モードに応じた動作が各部で実行されるように、動画像復号装置200内に含まれる各部の動作や情報の入出力を制御する。   The decoding control unit 216 controls the operation of each unit included in the moving image decoding apparatus 200 and the input / output of information, and manages the entire moving image decoding process. The decoding control unit 216 obtains, from the decoded sequence generation unit 203, decoding parameters associated with each other, which are information for controlling and determining the operation in the video decoding device 200, such as the operation mode and the operation order in each unit. And manages the entire moving picture decoding process. The decoding control unit 216 controls the operation of each unit included in the moving image decoding apparatus 200 and the input / output of information so that each unit executes an operation according to the operation mode identified by the mode identifying unit 206.

片方向予測信号生成部213は、動作モードから、L0側またはL1側のうちどちらの参照ピクチャを取得すべきか特定し、ピクチャ蓄積部202から、特定された方の参照ピクチャを取得する。ここで、片方向予測信号生成部213は、参照ピクチャを取得する際に、L0側またはL1側の参照情報をピクチャ蓄積部202に供給する。片方向予測信号生成部213は、動き予測部208から、特定されたL0側またはL1側の参照情報および予測動きベクトル情報を取得する。片方向予測信号生成部213は、動き情報蓄積部207から、復号対象領域に属する残差動きベクトル情報を取得する。片方向予測信号生成部213は、所定の片方向予測信号生成処理により、動きベクトル情報および予測信号を生成する。ここで、所定の片方向予測信号生成処理として、例えばAVCのように、取得した予測動きベクトル情報に残差動きベクトル情報を加算して動きベクトル情報を生成し、所定の動き補償処理によって、生成された動きベクトル情報に基づいて参照ピクチャ内から予測信号を生成すると良い。片方向予測信号生成部213は、生成した動き情報を動き情報蓄積部207に供給する。片方向予測信号生成部213は、生成した予測信号を、モード識別部206に供給する。   The unidirectional prediction signal generation unit 213 specifies which reference picture to be acquired from the L0 side or the L1 side from the operation mode, and acquires the specified reference picture from the picture storage unit 202. Here, the unidirectional prediction signal generation unit 213 supplies the L0 side or L1 side reference information to the picture storage unit 202 when acquiring a reference picture. The unidirectional prediction signal generation unit 213 acquires the specified L0 side or L1 side reference information and prediction motion vector information from the motion prediction unit 208. The unidirectional prediction signal generation unit 213 acquires residual motion vector information belonging to the decoding target region from the motion information storage unit 207. The unidirectional prediction signal generation unit 213 generates motion vector information and a prediction signal by a predetermined unidirectional prediction signal generation process. Here, as predetermined unidirectional prediction signal generation processing, for example, as in AVC, motion vector information is generated by adding residual motion vector information to the acquired prediction motion vector information, and is generated by predetermined motion compensation processing. A prediction signal may be generated from the reference picture based on the motion vector information. The unidirectional prediction signal generation unit 213 supplies the generated motion information to the motion information storage unit 207. The unidirectional prediction signal generation unit 213 supplies the generated prediction signal to the mode identification unit 206.

双予測信号生成部214は、動作モードに基づいて、ピクチャ蓄積部202からL0側およびL1側の参照ピクチャを取得する。ここで、双予測信号生成部214は、参照ピクチャを取得する際に、L0側およびL1側の参照情報をピクチャ蓄積部202に供給する。双予測信号生成部214は、動き予測部208から、L0側およびL1側の参照情報および予測動きベクトル情報を取得する。双予測信号生成部214は、動き情報蓄積部207から、復号対象領域に属するL0側およびL1側の残差動きベクトル情報を取得する。   The bi-prediction signal generation unit 214 acquires the L0 side and L1 side reference pictures from the picture storage unit 202 based on the operation mode. Here, the bi-prediction signal generation unit 214 supplies the L0 side and L1 side reference information to the picture storage unit 202 when acquiring the reference picture. The bi-prediction signal generation unit 214 acquires L0 side and L1 side reference information and prediction motion vector information from the motion prediction unit 208. The bi-prediction signal generation unit 214 acquires, from the motion information accumulation unit 207, residual motion vector information on the L0 side and the L1 side that belong to the decoding target region.

双予測信号生成部214は、所定の双予測信号生成処理によりL0側およびL1側それぞれの動きベクトル情報および予測信号を生成し、L0側の予測信号とL1側の予測信号とを合成することで、合成予測信号を生成する。ここで、所定の双予測信号生成処理は、例えばAVCのように、L0側およびL1側においてそれぞれ対応する、取得した予測動きベクトル情報に残差動きベクトル情報を加算して動きベクトル情報を生成し、所定の動き補償によって、生成されたL0側およびL1側の動きベクトル情報に基づいて、L0側およびL1側のそれぞれに対応する参照ピクチャ内から、L0側およびL1側の予測信号を生成すると良い。双予測信号生成部214は、生成したL0側およびL1側のそれぞれの動き情報を動き情報蓄積部207に供給する。双予測信号生成部214は、生成したL0側およびL1側の予測信号をモード識別部206に供給する。   The bi-prediction signal generation unit 214 generates motion vector information and prediction signals on the L0 side and the L1 side by a predetermined bi-prediction signal generation process, and synthesizes the prediction signal on the L0 side and the prediction signal on the L1 side. Then, a combined prediction signal is generated. Here, the predetermined bi-prediction signal generation process generates motion vector information by adding the residual motion vector information to the acquired predicted motion vector information corresponding to the L0 side and the L1 side, respectively, such as AVC. Based on the generated L0 side and L1 side motion vector information by predetermined motion compensation, L0 side and L1 side prediction signals may be generated from the reference pictures corresponding to the L0 side and L1 side, respectively. . The bi-prediction signal generation unit 214 supplies the generated motion information on the L0 side and the L1 side to the motion information storage unit 207. The bi-prediction signal generation unit 214 supplies the generated L0 side and L1 side prediction signals to the mode identification unit 206.

イントラ予測部215は、動作モードに応じて、ピクチャ蓄積部202から、局部復号ピクチャを取得し、例えばAVCのように、所定のイントラ予測処理に基づいて、局部復号ピクチャから復号対象領域内の予測信号を生成し、モード識別部206に供給する。   The intra prediction unit 215 obtains a local decoded picture from the picture storage unit 202 according to the operation mode, and predicts the decoding within the decoding target region from the local decoded picture based on a predetermined intra prediction process such as AVC, for example. A signal is generated and supplied to the mode identification unit 206.

次に、実施の形態1に係る動画像復号装置200の基本動作を、図6のフローチャートを用いて以下に説明する。   Next, the basic operation of the moving picture decoding apparatus 200 according to Embodiment 1 will be described below using the flowchart of FIG.

まず、復号制御部216は、ユーザ等から復号開始要求を受けると、各部に対して復号開始指令を送る。それに応じて、入力部201は、符号列を取得し(S201)、復号列生成部203に供給する。   First, when receiving a decoding start request from a user or the like, the decoding control unit 216 sends a decoding start command to each unit. In response thereto, the input unit 201 acquires a code string (S201) and supplies the code string to the decoded string generation unit 203.

その後、復号制御部216は、復号列生成部203に対して、復号列生成開始指令を送る。復号列生成部203は、復号制御部216の指令を受けて、所定の復号列生成処理(S202)を開始する。この所定の復号列生成処理では、まず、復号列生成部203は、入力部201から符号列を取得し、所定の構文構造に基づいて復号列生成処理を行い、符号列から少なくとも残差動きベクトル情報、参照情報、動作モード情報、残差符号化後情報および符号化パラメータを生成する。その後、復号列生成部203は、残差動きベクトル情報、参照情報および動作モード情報をモード識別部206に供給し、残差符号化後情報を残差復号部204に供給し、符号化パラメータを復号パラメータとして復号制御部216にそれぞれ供給する。   Thereafter, the decoding control unit 216 sends a decoded sequence generation start command to the decoded sequence generation unit 203. The decoded sequence generation unit 203 receives a command from the decoding control unit 216 and starts a predetermined decoded sequence generation process (S202). In this predetermined decoded sequence generation process, first, the decoded sequence generation unit 203 acquires a code sequence from the input unit 201, performs a decoded sequence generation process based on a predetermined syntax structure, and at least a residual motion vector from the code sequence. Information, reference information, operation mode information, information after residual encoding, and encoding parameters are generated. Thereafter, the decoded sequence generation unit 203 supplies residual motion vector information, reference information, and operation mode information to the mode identification unit 206, supplies residual encoded information to the residual decoding unit 204, and sets encoding parameters. The decoding parameters are supplied to the decoding control unit 216, respectively.

その後、復号制御部216は、残差復号部204に対して、残差復号開始指令を送る。残差復号部204は、復号制御部216の指令を受けて、所定の残差復号処理(S203)を開始する。この所定の残差復号処理では、まず、残差復号部204は、復号列生成部203から残差符号化後情報を取得し、所定の残差復号処理により復号残差情報を生成し、加算部205に供給する。   Thereafter, the decoding control unit 216 sends a residual decoding start command to the residual decoding unit 204. Residual decoding unit 204 receives a command from decoding control unit 216 and starts a predetermined residual decoding process (S203). In this predetermined residual decoding process, first, the residual decoding unit 204 obtains post-residue encoded information from the decoded sequence generation unit 203, generates decoded residual information by a predetermined residual decoding process, and adds To the unit 205.

次に、復号制御部216は、モード識別部206に対して、モード識別処理開始指令を送る。モード識別部206は、復号制御部216の指令を受けて、所定のモード識別処理(S204)を開始する。この所定のモード識別処理では、モード識別部206は、復号列生成部203から、復号対象領域に属する、残差動きベクトル情報、参照情報および動作モード情報を取得する。モード識別部206は、取得した動作モード情報を識別し、識別した動作モードに応じて各部が動作するように復号制御部216に通知する。モード識別部206は、取得した動き情報を、動作モード情報とともに動き情報蓄積部207に供給する。   Next, the decoding control unit 216 sends a mode identification process start command to the mode identification unit 206. The mode identification unit 206 receives a command from the decoding control unit 216 and starts a predetermined mode identification process (S204). In this predetermined mode identification process, the mode identification unit 206 acquires residual motion vector information, reference information, and operation mode information belonging to the decoding target region from the decoded sequence generation unit 203. The mode identifying unit 206 identifies the acquired operation mode information, and notifies the decoding control unit 216 to operate each unit according to the identified operation mode. The mode identification unit 206 supplies the acquired motion information to the motion information storage unit 207 together with the operation mode information.

次に、復号制御部216は、動き予測部208に対して、動き予測開始指令を送る。動き予測部208は、復号制御部216の指令を受けて、所定の動き予測処理(S205)を開始する。この所定の動き予測処理では、まず、動き予測部208は、例えばAVCのような、所定の動き予測処理により予測動きベクトル情報を生成し、生成の際に利用した参照情報とともに、参照解析部105、片方向予測信号生成部117、双予測信号生成部118の中から、動作モードに応じた供給先を特定し、その供給先に供給する。動き予測モードが取得できる場合には、動き予測モードから特定される所定の動き予測処理に基づいて、予測動きベクトル情報を生成する。   Next, the decoding control unit 216 sends a motion prediction start command to the motion prediction unit 208. The motion prediction unit 208 receives a command from the decoding control unit 216 and starts a predetermined motion prediction process (S205). In this predetermined motion prediction process, first, the motion prediction unit 208 generates predicted motion vector information by a predetermined motion prediction process such as AVC, for example, and the reference analysis unit 105 together with the reference information used in the generation. The supply destination according to the operation mode is identified from the one-way prediction signal generation unit 117 and the bi-prediction signal generation unit 118, and the supply destination is supplied to the supply destination. When the motion prediction mode can be acquired, predicted motion vector information is generated based on a predetermined motion prediction process specified from the motion prediction mode.

その後、復号制御部216は、動作モードから、予測信号生成処理において、第1修正予測信号生成処理または第2修正予測信号生成処理が必要であると判断した場合、参照解析部209に対して、参照解析処理開始指令を送る。参照解析部209は、復号制御部216の指令を受けて、所定の参照解析処理(S206)を開始する。動作モードから、予測信号生成処理において、第1修正予測信号生成処理および第2修正予測信号生成処理が必要ないと判断した場合には、ステップS206をスキップする。この所定の参照解析処理では、参照解析部209は、動き予測部208から復号対象領域に属する参照情報および予測動きベクトル情報を取得する。参照解析部209は、取得した参照情報に対して、所定の参照解析処理を行い、取得した予測動きベクトル情報の修正の可否を示す予測修正情報を、動作モードに応じて生成する。その後、参照解析部209は、取得した参照情報および予測動きベクトル情報、ならびに動作モードに応じて生成した予測修正情報を、動作モードに応じて、第1修正予測信号生成部210または第2修正予測信号生成部211に供給する。   Thereafter, when the decoding control unit 216 determines from the operation mode that the first modified prediction signal generation process or the second modified prediction signal generation process is necessary in the prediction signal generation process, Send a reference analysis processing start command. The reference analysis unit 209 receives a command from the decoding control unit 216 and starts a predetermined reference analysis process (S206). If it is determined from the operation mode that the first modified predicted signal generation process and the second modified predicted signal generation process are not necessary in the predicted signal generation process, step S206 is skipped. In this predetermined reference analysis process, the reference analysis unit 209 acquires reference information and prediction motion vector information belonging to the decoding target region from the motion prediction unit 208. The reference analysis unit 209 performs predetermined reference analysis processing on the acquired reference information, and generates prediction correction information indicating whether the acquired prediction motion vector information can be corrected according to the operation mode. Thereafter, the reference analysis unit 209 converts the acquired reference information and predicted motion vector information, and the prediction correction information generated according to the operation mode, to the first corrected prediction signal generation unit 210 or the second correction prediction according to the operation mode. The signal is supplied to the signal generator 211.

その後、復号制御部216は、第1修正予測信号生成部210、第2修正予測信号生成部211、片方向予測信号生成部213、双予測信号生成部214およびイントラ予測部215の中から、動作モードにより特定されるものに対して、予測信号生成開始指令を送る。第1修正予測信号生成部210、第2修正予測信号生成部211、片方向予測信号生成部213、双予測信号生成部214およびイントラ予測部215は、復号制御部216から指令を受けた場合は、各部における所定の予測信号生成処理(S207)を開始する。この予測信号生成処理では、第1修正予測信号生成処理(S207−1)、第2修正予測信号生成処理(S207−2)、片方向予測信号生成処理(S207−3)、双予測信号生成処理(S207−4)およびイントラ予測処理(S207−5)の中で、動作モードにより特定された処理が行われる。各部は、取得および生成した動き情報を、動き情報蓄積部207に供給し、生成した予測信号をモード識別部206に供給する。   Thereafter, the decoding control unit 216 operates from the first modified prediction signal generation unit 210, the second modified prediction signal generation unit 211, the unidirectional prediction signal generation unit 213, the bi-prediction signal generation unit 214, and the intra prediction unit 215. A prediction signal generation start command is sent to what is specified by the mode. When the first modified prediction signal generation unit 210, the second modified prediction signal generation unit 211, the unidirectional prediction signal generation unit 213, the bi-prediction signal generation unit 214, and the intra prediction unit 215 receive a command from the decoding control unit 216, Then, predetermined prediction signal generation processing (S207) in each unit is started. In this predicted signal generation process, a first modified predicted signal generation process (S207-1), a second modified predicted signal generation process (S207-2), a unidirectional predicted signal generation process (S207-3), and a bi-predicted signal generation process. In (S207-4) and the intra prediction process (S207-5), the process specified by the operation mode is performed. Each unit supplies the acquired and generated motion information to the motion information storage unit 207, and supplies the generated prediction signal to the mode identification unit 206.

ここで、上述の第1修正予測信号生成処理は、第1修正予測信号生成部210によって行われる。まず、第1修正予測信号生成部210は、動作モードに応じて、参照解析部209から、L0側の参照情報、予測動きベクトル情報および予測修正情報を取得する。第1修正予測信号生成部210は、参照解析部209から、取得可能であれば、L1側の参照情報および予測修正情報を取得する。第1修正予測信号生成部210は、ピクチャ蓄積部102から参照ピクチャを取得する。ここで、第1修正予測信号生成部210は、参照ピクチャを取得する際に、参照情報をピクチャ蓄積部202に供給する。第1修正予測信号生成部210は、動き情報蓄積部207から復号対象領域に属する残差動きベクトル情報を取得する。   Here, the first modified prediction signal generation process described above is performed by the first modified prediction signal generation unit 210. First, the first modified prediction signal generation unit 210 acquires L0-side reference information, prediction motion vector information, and prediction correction information from the reference analysis unit 209 according to the operation mode. The first corrected prediction signal generation unit 210 acquires the reference information and prediction correction information on the L1 side from the reference analysis unit 209 if it can be acquired. The first modified prediction signal generation unit 210 acquires a reference picture from the picture storage unit 102. Here, the first modified prediction signal generation unit 210 supplies reference information to the picture storage unit 202 when acquiring a reference picture. The first modified prediction signal generation unit 210 acquires residual motion vector information belonging to the decoding target region from the motion information storage unit 207.

第1修正予測信号生成部210は、取得した各情報に基づいて、所定のL0側の情報を基準とした修正予測信号生成処理を行い、動作モードに応じた参照情報、動きベクトル情報、予測信号を生成する。更に動作モードに応じて、修正参照情報および修正予測動きベクトル情報を生成する。第1修正予測信号生成部210は、取得および生成した動作モードに応じた動き情報を動き情報蓄積部207に供給する。第1修正予測信号生成部210は、生成した予測信号をモード識別部206に供給する。これにより、第1修正予測信号生成処理が完了する。   The first modified predictive signal generation unit 210 performs a modified predictive signal generation process based on information obtained on the basis of predetermined information on the L0 side, and includes reference information, motion vector information, and predictive signals according to the operation mode. Is generated. Further, modified reference information and modified predicted motion vector information are generated according to the operation mode. The first modified prediction signal generation unit 210 supplies motion information corresponding to the acquired and generated operation mode to the motion information storage unit 207. The first modified prediction signal generation unit 210 supplies the generated prediction signal to the mode identification unit 206. Thereby, the first modified prediction signal generation process is completed.

また、上述の第2修正予測信号生成処理は、第2修正予測信号生成部211によって行われる。まず、第2修正予測信号生成部211は、動作モードに応じて、参照解析部209から、取得可能であれば、L1側の参照情報、予測動きベクトル情報および予測修正情報を取得する。第2修正予測信号生成部211は、動作モードに応じて、参照解析部209から、取得可能であれば、L0側の参照情報および予測修正情報を取得する。第2修正予測信号生成部211は、ピクチャ蓄積部202から参照ピクチャを取得する。ここで、第2修正予測信号生成部211は、参照ピクチャを取得する際に、参照情報をピクチャ蓄積部202に供給する。第2修正予測信号生成部211は、動き情報蓄積部207から復号対象領域に属する残差動きベクトル情報を取得する。   The second modified predicted signal generation process described above is performed by the second modified predicted signal generation unit 211. First, the second modified prediction signal generation unit 211 acquires reference information, prediction motion vector information, and prediction correction information on the L1 side from the reference analysis unit 209, if it can be acquired, according to the operation mode. The second modified prediction signal generation unit 211 acquires the reference information and prediction correction information on the L0 side from the reference analysis unit 209 according to the operation mode if it can be acquired. The second modified prediction signal generation unit 211 acquires a reference picture from the picture storage unit 202. Here, the second modified prediction signal generation unit 211 supplies reference information to the picture storage unit 202 when acquiring a reference picture. The second modified prediction signal generation unit 211 acquires residual motion vector information belonging to the decoding target region from the motion information storage unit 207.

第2修正予測信号生成部211は、取得した各情報に基づいて、所定のL1側の情報を基準とした修正予測信号生成処理を行い、動作モードに応じた参照情報、動きベクトル情報、予測信号を生成する。更に動作モードに応じて、修正参照情報および修正予測動きベクトル情報を生成する。第2修正予測信号生成部211は、取得および生成した動作モードに応じた動き情報を動き情報蓄積部207に供給する。第2修正予測信号生成部211は、生成した予測信号をモード識別部206に供給する。これにより、第2修正予測信号生成処理が完了する。   The second modified predictive signal generation unit 211 performs a modified predictive signal generation process based on predetermined information on the L1 side based on each acquired information, and reference information, motion vector information, and predictive signal according to the operation mode. Is generated. Further, modified reference information and modified predicted motion vector information are generated according to the operation mode. The second modified prediction signal generation unit 211 supplies motion information corresponding to the acquired and generated operation mode to the motion information storage unit 207. The second modified prediction signal generation unit 211 supplies the generated prediction signal to the mode identification unit 206. Thereby, the second modified prediction signal generation process is completed.

また、上述の片方向予測信号生成処理は、片方向予測信号生成部213によって行われる。まず、片方向予測信号生成部213は、動作モードから、L0側またはL1側のうちどちらの参照ピクチャを取得すべきか特定し、ピクチャ蓄積部202から、特定されたほうの参照ピクチャを取得する。ここで、片方向予測信号生成部213は、参照ピクチャを取得する際に、L0側またはL1側の参照情報をピクチャ蓄積部202に供給する。片方向予測信号生成部213は、動き予測部208から、特定されたL0側またはL1側の参照情報および予測動きベクトル情報を取得する。片方向予測信号生成部213は、動き情報蓄積部207から、復号対象領域に属する残差動きベクトル情報を取得する。片方向予測信号生成部213は、所定の片方向予測信号生成処理により、動きベクトル情報および予測信号を生成する。片方向予測信号生成部213は、生成した動き情報を動き情報蓄積部207に供給する。片方向予測信号生成部213は、生成した予測信号をモード識別部206に供給する。これにより、片方向予測信号生成処理が完了する。   In addition, the above-described unidirectional prediction signal generation process is performed by the unidirectional prediction signal generation unit 213. First, the unidirectional prediction signal generation unit 213 specifies which reference picture to be acquired from the L0 side or the L1 side from the operation mode, and acquires the specified reference picture from the picture storage unit 202. Here, the unidirectional prediction signal generation unit 213 supplies the L0 side or L1 side reference information to the picture storage unit 202 when acquiring a reference picture. The unidirectional prediction signal generation unit 213 acquires the specified L0 side or L1 side reference information and prediction motion vector information from the motion prediction unit 208. The unidirectional prediction signal generation unit 213 acquires residual motion vector information belonging to the decoding target region from the motion information storage unit 207. The unidirectional prediction signal generation unit 213 generates motion vector information and a prediction signal by a predetermined unidirectional prediction signal generation process. The unidirectional prediction signal generation unit 213 supplies the generated motion information to the motion information storage unit 207. The unidirectional prediction signal generation unit 213 supplies the generated prediction signal to the mode identification unit 206. Thereby, the one-way predicted signal generation process is completed.

また、上述の双予測信号生成処理は、双予測信号生成部214によって行われる。まず、双予測信号生成部214は、動作モードに基づいて、ピクチャ蓄積部202からL0側およびL1側の参照ピクチャを取得する。ここで、双予測信号生成部214は、参照ピクチャを取得する際に、L0側およびL1側の参照情報をピクチャ蓄積部202に供給する。双予測信号生成部214は、動き予測部208から、L0側およびL1側の参照情報および予測動きベクトル情報を取得する。双予測信号生成部214は、動き情報蓄積部207から、復号対象領域に属するL0側およびL1側の残差動きベクトル情報を取得する。   The bi-predictive signal generation process described above is performed by the bi-predictive signal generation unit 214. First, the bi-prediction signal generation unit 214 acquires the L0 side and L1 side reference pictures from the picture storage unit 202 based on the operation mode. Here, the bi-prediction signal generation unit 214 supplies the L0 side and L1 side reference information to the picture storage unit 202 when acquiring the reference picture. The bi-prediction signal generation unit 214 acquires L0 side and L1 side reference information and prediction motion vector information from the motion prediction unit 208. The bi-prediction signal generation unit 214 acquires, from the motion information accumulation unit 207, residual motion vector information on the L0 side and the L1 side that belong to the decoding target region.

双予測信号生成部214は、所定の双予測信号生成処理によりL0側およびL1側それぞれの動きベクトル情報および予測信号を生成し、L0側の予測信号とL1側の予測信号とを合成することで、合成予測信号を生成する。双予測信号生成部214は、生成したL0側およびL1側のそれぞれの動き情報を動き情報蓄積部207に供給する。双予測信号生成部214は、生成したL0側およびL1側の予測信号をモード識別部206に供給する。これにより、双予測信号生成処理が完了する。   The bi-prediction signal generation unit 214 generates motion vector information and prediction signals on the L0 side and the L1 side by a predetermined bi-prediction signal generation process, and synthesizes the prediction signal on the L0 side and the prediction signal on the L1 side. Then, a combined prediction signal is generated. The bi-prediction signal generation unit 214 supplies the generated motion information on the L0 side and the L1 side to the motion information storage unit 207. The bi-prediction signal generation unit 214 supplies the generated L0 side and L1 side prediction signals to the mode identification unit 206. Thereby, the bi-prediction signal generation process is completed.

また、上述のイントラ予測処理は、イントラ予測部215によって行われる。まず、イントラ予測部215は、ピクチャ蓄積部202から、局部復号ピクチャを取得し、例えばAVCのように、所定のイントラ予測処理に基づいて、局部復号ピクチャから復号対象領域内の予測信号を生成し、モード識別部206に供給する。これにより、イントラ予測処理が完了する。   The intra prediction process described above is performed by the intra prediction unit 215. First, the intra prediction unit 215 obtains a locally decoded picture from the picture storage unit 202, and generates a prediction signal in the decoding target region from the locally decoded picture based on a predetermined intra prediction process, for example, AVC. , And supplied to the mode identification unit 206. Thereby, the intra prediction process is completed.

以上のような予測信号生成処理が完了すると、復号制御部216は、モード識別部206および加算部205に対して、復号信号生成開始指令を送る。モード識別部206および加算部205は、復号制御部216からの指令を受けて、復号信号生成処理(S208)を開始する。まず、モード識別部206では、取得した動作モードに応じた予測信号を、加算部205に供給する。その後、加算部205は、モード識別部206から予測信号、残差復号部204から復号残差情報を取得し、当該予測信号に当該復号残差情報を加算することで復号信号を生成し、ピクチャ蓄積部202に供給する。   When the prediction signal generation process as described above is completed, the decoding control unit 216 sends a decoded signal generation start command to the mode identification unit 206 and the addition unit 205. In response to the instruction from the decoding control unit 216, the mode identifying unit 206 and the adding unit 205 start the decoded signal generation process (S208). First, the mode identifying unit 206 supplies a prediction signal corresponding to the acquired operation mode to the adding unit 205. Thereafter, the adding unit 205 obtains a prediction signal from the mode identification unit 206 and decoding residual information from the residual decoding unit 204, generates a decoded signal by adding the decoding residual information to the prediction signal, The data is supplied to the storage unit 202.

その後、復号制御部216は、復号処理の進捗状態から、復号対象となっている復号ピクチャ全体の復号が完了したかどうかを確認する(S209)。復号ピクチャ全体の復号が完了していない場合(S209のNO)は、復号制御部216は、復号対象領域を次の復号対象領域に更新し、ステップS202に戻る。   After that, the decoding control unit 216 confirms whether or not the decoding of the entire decoded picture to be decoded has been completed from the progress of the decoding process (S209). If the decoding of the entire decoded picture has not been completed (NO in S209), the decoding control unit 216 updates the decoding target area to the next decoding target area, and returns to step S202.

復号ピクチャ全体の復号が完了した場合(S209のYES)は、復号制御部216は、出力部212に対して、出力開始指令を送る。出力部212は、復号制御部216の指令を受けて、ピクチャ蓄積部202から表示対象となっている参照ピクチャもしくは復号ピクチャを取得し、復号画像として、出力部212に接続されている外部の伝送装置241、記録媒体243を利用する、もしくは利用しない記録装置142や蓄積装置144等に出力する(S210)。   When the decoding of the entire decoded picture is completed (YES in S209), the decoding control unit 216 sends an output start command to the output unit 212. The output unit 212 receives a command from the decoding control unit 216, acquires a reference picture or decoded picture to be displayed from the picture storage unit 202, and transmits an external transmission connected to the output unit 212 as a decoded image. The data is output to the recording device 142, the storage device 144, or the like that uses or does not use the device 241 and the recording medium 243 (S210).

以上のようなステップにより、実施の形態1に係る動画像復号装置200の基本動作が完了する。   Through the steps as described above, the basic operation of the moving picture decoding apparatus 200 according to Embodiment 1 is completed.

ここで、実施の形態1の動画像復号装置200の構成および動作により、以下のような効果が得られる。   Here, the following effects are obtained by the configuration and operation of the moving picture decoding apparatus 200 of the first embodiment.

まず、実施の形態1の動画像復号装置200では、実施の形態1の動画像符号化装置100によって生成された符号列を取得し、復号列生成部203により、復号対象領域に属する、少なくとも残差動きベクトル情報、参照情報、動作モード情報、残差符号化後情報、および符号化パラメータを生成し、動き情報蓄積部207に蓄積することができる。動き情報蓄積部207は、復号済み領域に属する動作モードや動き情報を蓄積することができる。このような動き情報蓄積部207から、動作モードに応じて動き予測部208は、復号対象領域に属する動き情報と、復号対象領域周辺の領域に属する動き情報を取得し、動作モードに応じた所定の動き予測処理により、少なくとも1本の予測動きベクトル情報を取得することができる。これにより、動作モードに応じて、この1本の予測動きベクトル情報から、もう一方の予測動きベクトル情報を、修正予測動きベクトル情報として導出できる。それとともに、修正予測動きベクトル情報に残差動きベクトル情報を加算することで、動きベクトル情報を生成することができる。この確定した動きベクトル情報に基づく予測信号と、最初に動き予測部208から得た予測動きベクトル情報に基づく予測信号とを合成することで、合成予測信号を生成することができる。このように、実施の形態1の動画像復号装置200では、取得した符号列から、実施の形態1の動画像符号化装置100と同様の、動作モードに応じた動きベクトル情報、および予測信号もしくは合成予測信号を得ることができ、実施の形態1の動画像符号化装置100によって生成された符号列を正しく復号することができる。   First, in the video decoding device 200 according to the first embodiment, the code sequence generated by the video encoding device 100 according to the first embodiment is acquired, and the decoded sequence generation unit 203 acquires at least a remaining part belonging to the decoding target region. Difference motion vector information, reference information, operation mode information, information after residual encoding, and encoding parameters can be generated and stored in the motion information storage unit 207. The motion information storage unit 207 can store the operation mode and motion information belonging to the decoded area. From such a motion information storage unit 207, the motion prediction unit 208 acquires motion information belonging to the decoding target region and motion information belonging to the region around the decoding target region according to the operation mode, and performs predetermined processing according to the operation mode. With this motion prediction process, at least one piece of predicted motion vector information can be acquired. Thereby, according to the operation mode, the other predicted motion vector information can be derived as the corrected predicted motion vector information from the one predicted motion vector information. At the same time, motion vector information can be generated by adding residual motion vector information to the corrected predicted motion vector information. By synthesizing the prediction signal based on the determined motion vector information and the prediction signal based on the prediction motion vector information first obtained from the motion prediction unit 208, a combined prediction signal can be generated. As described above, in the moving picture decoding apparatus 200 according to the first embodiment, the motion vector information corresponding to the operation mode and the prediction signal or the same as the moving picture coding apparatus 100 according to the first embodiment are obtained from the acquired code string. A synthesized prediction signal can be obtained, and the code string generated by the moving picture coding apparatus 100 according to Embodiment 1 can be correctly decoded.

また、実施の形態1の動画像復号装置200では、動作モードに従って、修正予測動きベクトル情報として導出する構成、残差動きベクトル情報を加算することにより動きベクトル情報を生成する構成、および予測信号もしくは合成予測信号を生成する構成を備える。これにより、従来では取得できない、もう一方の予測動きベクトル情報や動きベクトル情報を得ることができる。これにより、従来の空間的、時間的ダイレクトモードのように、残差動きベクトル情報を利用せずに双予測を行った場合に、予測信号の品質が低下してしまい、結果的に符号量が増大してしまう場合があった。この点、実施の形態1の動画像復号装置200では、従来の手法による符号量以下の符号量をもつ符号列から1本分の残差動きベクトル情報を復号し、より確からしい位置の動きベクトル情報となるように修正できるため、より良い予測信号もしくは合成予測信号を、従来の手法による符号量以下の符号量から生成できる。   In addition, in moving picture decoding apparatus 200 according to Embodiment 1, according to the operation mode, a configuration for deriving as corrected predicted motion vector information, a configuration for generating motion vector information by adding residual motion vector information, and a prediction signal or A configuration for generating a combined prediction signal is provided. Thereby, the other prediction motion vector information and motion vector information which cannot be acquired conventionally can be obtained. As a result, when bi-prediction is performed without using the residual motion vector information as in the conventional spatial and temporal direct mode, the quality of the prediction signal is reduced, resulting in the code amount being There was a case where it increased. In this regard, the moving picture decoding apparatus 200 according to Embodiment 1 decodes one residual motion vector information from a code string having a code amount equal to or less than the code amount according to the conventional method, and a motion vector at a more probable position. Since the information can be modified to be information, a better prediction signal or a combined prediction signal can be generated from a code amount equal to or less than the code amount according to the conventional method.

また、実施の形態1の動画像復号装置200では、例えばAVCのような従来型の予測信号生成部である、片方向予測信号生成部213、双予測信号生成部214、イントラ予測部215と、新たな構成要素である、第1修正予測信号生成部210および第2修正予測信号生成部211を備える。第1修正予測信号生成部210は、L0側の動き情報に基づいてL1側の修正予測動きベクトル情報を導出して予測信号もしくは合成予測信号を生成する。第2修正予測信号生成部211は、L1側の動き情報に基づいてL0側の修正予測動きベクトル情報を導出して予測信号もしくは合成予測信号を生成する。この構成によれば、動作モードに応じて、実施の形態1の動画像符号化装置100によって生成された符号列を正しく復号することができる。このように、従来型の予測信号生成部のみを備える構成では達成し得なかった符号量で符号化された符号列を取得し、動作モードに応じて、復号に必要となる各部を機能させて、動作モードに応じた予測信号もしくは合成予測信号を生成し、正しく復号することができる。   Further, in the moving picture decoding apparatus 200 according to Embodiment 1, for example, a one-way prediction signal generation unit 213, a bi-prediction signal generation unit 214, an intra prediction unit 215, which are conventional prediction signal generation units such as AVC, A first modified prediction signal generation unit 210 and a second modification prediction signal generation unit 211, which are new components, are provided. The first modified prediction signal generation unit 210 derives the L1 side modified prediction motion vector information based on the L0 side motion information and generates a prediction signal or a combined prediction signal. The second modified prediction signal generation unit 211 derives the L0 side corrected prediction motion vector information based on the L1 side motion information and generates a prediction signal or a combined prediction signal. According to this configuration, it is possible to correctly decode the code string generated by the moving picture coding apparatus 100 according to Embodiment 1 according to the operation mode. In this way, a code string encoded with a code amount that could not be achieved with the configuration including only the conventional prediction signal generation unit is obtained, and each unit necessary for decoding is made to function according to the operation mode. The prediction signal or the combined prediction signal corresponding to the operation mode can be generated and correctly decoded.

(実施の形態2) 動画像符号化装置および動画像復号装置の詳細な構成と動作.
次に、実施の形態2の動画像符号化装置として、実施の形態1の動画像符号化装置100における、第1修正予測信号生成部106および第2修正予測信号生成部107をより詳細な構成によって実現したものについて示す。実施の形態2における、第1修正予測信号生成部106および第2修正予測信号生成部107の詳細な構成に関して、図7(A)、図7(B)を用いて説明する。
(Embodiment 2) Detailed configuration and operation of moving picture coding apparatus and moving picture decoding apparatus.
Next, the first modified prediction signal generation unit 106 and the second modified prediction signal generation unit 107 in the moving image coding device 100 of the first embodiment are configured in more detail as the moving image coding device of the second embodiment. It shows what was realized by. Detailed configurations of the first modified predicted signal generation unit 106 and the second modified predicted signal generation unit 107 in the second embodiment will be described with reference to FIGS. 7A and 7B.

図7(A)における第1修正予測信号生成部106は、例えば、第1L0片側予測信号生成部106−1、第2L0片側予測信号生成部106−2、第1L0−L1片側予測信号生成部106−3、第2L0−L1片側予測信号生成部106−4、第1L0−L1双予測信号生成部106−5、第2L0−L1双予測信号生成部106−6、第3L0−L1双予測信号生成部106−7および第4L0−L1双予測信号生成部106−8のうち、少なくとも1つ、2つ以上の任意の組み合わせ、または全てによって構成されると良い。ここでは、全て用いられるものとして話を進める。ここで、各部の名称に付けられているL0−L1は、L0側の参照情報もしくは修正参照情報および予測動きベクトル情報に基づいて、L1側の動きベクトル情報が導出される構成であることを示している。   The first modified prediction signal generation unit 106 in FIG. 7A is, for example, a first L0 one-side prediction signal generation unit 106-1, a second L0 one-side prediction signal generation unit 106-2, and a first L0-L1 one-side prediction signal generation unit 106. -3, the second L0-L1 one-side prediction signal generation unit 106-4, the first L0-L1 bi-prediction signal generation unit 106-5, the second L0-L1 bi-prediction signal generation unit 106-6, and the third L0-L1 bi-prediction signal generation Of the unit 106-7 and the fourth L0-L1 bi-prediction signal generation unit 106-8, it may be configured by at least one, two or more arbitrary combinations, or all. Here, the discussion will be made assuming that everything is used. Here, L0-L1 attached to the names of the parts indicates that the L1 side motion vector information is derived based on the L0 side reference information or the corrected reference information and the predicted motion vector information. ing.

同様に、図7(B)における第2修正予測信号生成部107は、例えば、第1L1片側予測信号生成部107−1、第2L1片側予測信号生成部107−2、第1L1−L0片側予測信号生成部107−3、第2L1−L0片側予測信号生成部107−4、第1L1−L0双予測信号生成部107−5、第2L1−L0双予測信号生成部107−6、第3L1−L0双予測信号生成部107−7、第4L1−L0双予測信号生成部107−8のうち、少なくとも1つ、2つ以上の任意の組み合わせ、または全てによって構成されると良い。ここでは、全て用いられるものとして話を進める。ここで、各部の名称に付けられているL1−L0は、L1側の参照情報もしくは修正参照情報および予測動きベクトル情報に基づいて、L0側の動きベクトル情報が導出される構成であることを示している。   Similarly, the second modified prediction signal generation unit 107 in FIG. 7B includes, for example, a first L1 one-side prediction signal generation unit 107-1, a second L1 one-side prediction signal generation unit 107-2, and a first L1-L0 one-side prediction signal. Generation unit 107-3, second L1-L0 one-side prediction signal generation unit 107-4, first L1-L0 bi-prediction signal generation unit 107-5, second L1-L0 bi-prediction signal generation unit 107-6, and third L1-L0 bi-prediction unit 107-6. Of the prediction signal generation unit 107-7 and the fourth L1-L0 bi-prediction signal generation unit 107-8, at least one, any combination of two or more, or all may be used. Here, the discussion will be made assuming that everything is used. Here, L1-L0 given to the names of the parts indicates that the L0 side motion vector information is derived based on the L1 side reference information or the corrected reference information and the predicted motion vector information. ing.

図8(A)〜(C)および図9(A)〜(C)は、図7(A)および図7(B)における各部の詳細を示した構成図である。図8(A)は、第1L0片側予測信号生成部106−1および第2L0片側予測信号生成部106−2の構成図である。図8(B)は、第1L0−L1片側予測信号生成部106−3および第2L0−L1片側予測信号生成部106−4の構成図である。図8(C)は、第1L0−L1双予測信号生成部106−5、第2L0−L1双予測信号生成部106−6、第3L0−L1双予測信号生成部106−7および第4L0−L1双予測信号生成部106−8の構成図である。   FIGS. 8A to 8C and FIGS. 9A to 9C are configuration diagrams showing details of each part in FIGS. 7A and 7B. FIG. 8A is a configuration diagram of the first L0 one-side prediction signal generation unit 106-1 and the second L0 one-side prediction signal generation unit 106-2. FIG. 8B is a configuration diagram of the first L0-L1 one-side prediction signal generation unit 106-3 and the second L0-L1 one-side prediction signal generation unit 106-4. FIG. 8C shows the first L0-L1 bi-prediction signal generation unit 106-5, the second L0-L1 bi-prediction signal generation unit 106-6, the third L0-L1 bi-prediction signal generation unit 106-7, and the fourth L0-L1. It is a block diagram of the bi prediction signal production | generation part 106-8.

同様に、図9(A)は、第1L1片側予測信号生成部107−1および第2L1片側予測信号生成部107−2の構成図である。図9(B)は、第1L1−L0片側予測信号生成部107−3および第2L1−L0片側予測信号生成部107−4の構成図である。図9(C)は、第1L1−L0双予測信号生成部107−5、第2L1−L0双予測信号生成部107−6、第3L1−L0双予測信号生成部107−7および第4L1−L0双予測信号生成部107−8の構成図である。   Similarly, FIG. 9A is a configuration diagram of the first L1 one-side prediction signal generation unit 107-1 and the second L1 one-side prediction signal generation unit 107-2. FIG. 9B is a configuration diagram of the first L1-L0 one-side prediction signal generation unit 107-3 and the second L1-L0 one-side prediction signal generation unit 107-4. FIG. 9C illustrates the first L1-L0 bi-predictive signal generation unit 107-5, the second L1-L0 bi-predictive signal generation unit 107-6, the third L1-L0 bi-predictive signal generation unit 107-7, and the fourth L1-L0. It is a block diagram of the bi prediction signal production | generation part 107-8.

図8(A)の構成は、L0側の動き情報を基本として、L0側の動きベクトル情報を生成し、L0側の予測信号を生成するための構成である。図8(A)の構成は、L0側動き情報取得部801、参照先変更部802、L0側動き導出部803、参照ピクチャ取得部804、対象ピクチャ取得部805、L0側動き探索部806、mvd生成部807および片側予測信号生成部808を含む。   The configuration of FIG. 8A is a configuration for generating L0 side motion vector information and generating an L0 side prediction signal based on the L0 side motion information. 8A includes an L0 side motion information acquisition unit 801, a reference destination change unit 802, an L0 side motion derivation unit 803, a reference picture acquisition unit 804, a target picture acquisition unit 805, an L0 side motion search unit 806, mvd. A generation unit 807 and a one-side prediction signal generation unit 808 are included.

L0側動き情報取得部801は、所定のL0側動き情報取得処理を行う。この所定のL0側動き情報取得処理では、L0側動き情報取得部801は、参照解析部105から、対象領域に属するL0側の動き情報としてL0側の参照情報と予測動きベクトル情報、そして予測修正情報を取得する。L0側動き情報取得部801は、取得したL0側の動き情報を参照先変更部802に供給する。   The L0 side motion information acquisition unit 801 performs a predetermined L0 side motion information acquisition process. In this predetermined L0 side motion information acquisition process, the L0 side motion information acquisition unit 801 receives, from the reference analysis unit 105, L0 side reference information, predicted motion vector information, and prediction correction as the L0 side motion information belonging to the target region. Get information. The L0 side motion information acquisition unit 801 supplies the acquired L0 side motion information to the reference destination changing unit 802.

参照先変更部802は、所定の参照先変更処理を行う。この所定の参照先変更処理では、参照先変更部802は、L0側動き情報取得部801からL0側の動き情報を取得する。参照先変更部802は、L0側の予測修正情報が「1」である場合には、所定の参照先変更処理により、参照情報を修正し、修正参照情報を生成する。ここで、所定の参照先変更処理は、動作モードに応じて機能させず、参照情報を修正参照情報にすると良い。例えば、第1L0片側予測信号生成部106−1は、この所定の参照先変更処理を機能させず、参照情報を修正参照情報にすると良い。第1L0片側予測信号生成部106−1は、動作モードとして、L0側の予測動きベクトル情報をL0側の修正参照情報によって修正せず、L0側の動きベクトル情報を生成してL0側の予測信号を生成するような、第1L0片側予測モードで動作する。一方、第2L0片側予測信号生成部106−2は、この所定の参照先変更処理を機能させるようにすると良い。第2L0片側予測信号生成部106−2は、動作モードとして、L0側の予測動きベクトル情報をL0側の修正参照情報によって修正し、L0側の動きベクトル情報を生成してL0側の予測信号を生成するような、第2L0片側予測モードで動作する。参照先変更部802は、取得および生成した動き情報を、L0側動き導出部803および参照ピクチャ取得部804に供給する。   The reference destination changing unit 802 performs a predetermined reference destination changing process. In the predetermined reference destination changing process, the reference destination changing unit 802 acquires the L0 side motion information from the L0 side motion information acquiring unit 801. When the predicted correction information on the L0 side is “1”, the reference destination changing unit 802 corrects the reference information by a predetermined reference destination changing process, and generates corrected reference information. Here, it is preferable that the predetermined reference destination changing process does not function according to the operation mode, and the reference information is changed to the corrected reference information. For example, the first L0 one-side predicted signal generation unit 106-1 may use the reference information as the corrected reference information without causing the predetermined reference destination changing process to function. As the operation mode, the first L0 one-side predicted signal generation unit 106-1 does not correct the L0-side predicted motion vector information with the L0-side corrected reference information, but generates L0-side motion vector information and generates an L0-side predicted signal. Operate in the first L0 one-sided prediction mode. On the other hand, the second L0 one-side predicted signal generation unit 106-2 may function the predetermined reference destination changing process. The second L0 one-side predicted signal generation unit 106-2 corrects the L0-side predicted motion vector information with the L0-side corrected reference information as the operation mode, generates the L0-side motion vector information, and generates the L0-side predicted signal. It operates in the second L0 one-sided prediction mode as generated. The reference destination changing unit 802 supplies the acquired and generated motion information to the L0 side motion deriving unit 803 and the reference picture acquiring unit 804.

L0側動き導出部803は、所定のL0側動き導出処理を行う。この所定のL0側動き導出処理では、L0側動き導出部803は、参照先変更部802から、L0側の動き情報を取得する。その後、L0側動き導出部803は、L0側の参照情報および修正参照情報から、対象ピクチャと参照情報から特定される参照ピクチャとの間の時間間隔td_l0と、対象ピクチャと修正参照情報から特定される参照ピクチャとの間の時間間隔m_td_l0を求める。予測動きベクトル情報をmvp_l0、修正予測動きベクトル情報をm_mvp_l0とした時に、
m_mvp_l0 = mvp_l0 × m_td_l0 / td_l0
・・・(式1)
とすることで、L0側の修正予測動きベクトル情報を導出する。L0側動き導出部803は、取得および生成した動き情報を、L0側動き探索部806に供給する。
The L0 side motion deriving unit 803 performs a predetermined L0 side motion deriving process. In the predetermined L0 side motion deriving process, the L0 side motion deriving unit 803 acquires the L0 side motion information from the reference destination changing unit 802. Thereafter, the L0 side motion deriving unit 803 is identified from the reference information and the modified reference information on the L0 side, the time interval td_l0 between the target picture and the reference picture identified from the reference information, and the target picture and the modified reference information. A time interval m_td_l0 with respect to the reference picture is obtained. When the predicted motion vector information is mvp_10 and the corrected predicted motion vector information is m_mvp_10,
m_mvp_l0 = mvp_l0 × m_td_l0 / td_l0
... (Formula 1)
By doing so, the L0 side modified prediction motion vector information is derived. The L0 side motion deriving unit 803 supplies the acquired and generated motion information to the L0 side motion searching unit 806.

参照ピクチャ取得部804は、所定の参照ピクチャ取得処理を行う。この所定の参照ピクチャ取得処理では、参照ピクチャ取得部804は、参照先変更部802から、動き情報として修正参照情報を取得する。参照ピクチャ取得部804は、L0側の修正参照情報をピクチャ蓄積部102に供給し、特定された参照ピクチャを取得する。参照ピクチャ取得部804は、取得した参照ピクチャをL0側動き探索部806および片側予測信号生成部808に供給する。   The reference picture acquisition unit 804 performs a predetermined reference picture acquisition process. In this predetermined reference picture acquisition process, the reference picture acquisition unit 804 acquires corrected reference information as motion information from the reference destination change unit 802. The reference picture acquisition unit 804 supplies the L0 side modified reference information to the picture storage unit 102, and acquires the identified reference picture. The reference picture acquisition unit 804 supplies the acquired reference picture to the L0 side motion search unit 806 and the one side prediction signal generation unit 808.

対象ピクチャ取得部805は、所定の対象ピクチャ取得処理を行う。この所定の対象ピクチャ取得処理では、対象ピクチャ取得部805は、入力部101から対象信号を取得し、L0側動き探索部806に供給する。   The target picture acquisition unit 805 performs a predetermined target picture acquisition process. In the predetermined target picture acquisition process, the target picture acquisition unit 805 acquires a target signal from the input unit 101 and supplies the target signal to the L0 side motion search unit 806.

L0側動き探索部806は、所定のL0側動き探索処理を行う。この所定のL0側動き探索処理では、L0側動き探索部806は、L0側動き導出部803からL0側の動き情報、参照ピクチャ取得部804から参照ピクチャおよび対象ピクチャ取得部805から対象信号をそれぞれ取得する。L0側動き探索部806は、取得した修正予測動きベクトル情報を利用して、例えばAVCのような、所定の動き探索処理を行い、動きベクトル情報を生成する。L0側動き探索部806は、取得および生成した動き情報を、mvd生成部807に供給する。   The L0 side motion search unit 806 performs a predetermined L0 side motion search process. In the predetermined L0 side motion search processing, the L0 side motion search unit 806 receives the L0 side motion information from the L0 side motion deriving unit 803, the reference picture from the reference picture acquisition unit 804, and the target signal from the target picture acquisition unit 805, respectively. get. The L0 side motion search unit 806 performs a predetermined motion search process such as AVC, for example, by using the acquired corrected predicted motion vector information, and generates motion vector information. The L0 side motion search unit 806 supplies the acquired and generated motion information to the mvd generation unit 807.

mvd生成部807は、所定のmvd生成処理を行う。この所定のmvd生成処理では、mvd生成部807は、L0側動き探索部806から動き情報を取得し、取得したL0側の動きベクトル情報からL0側の修正予測動きベクトル情報を減算し、L0側の残差動きベクトル情報を生成する。mvd生成部807は、取得および生成した動き情報を、片側予測信号生成部808に供給する。   The mvd generation unit 807 performs predetermined mvd generation processing. In this predetermined mvd generation process, the mvd generation unit 807 acquires motion information from the L0 side motion search unit 806, subtracts the L0 side corrected predicted motion vector information from the acquired L0 side motion vector information, and outputs the L0 side. Residual motion vector information is generated. The mvd generation unit 807 supplies the acquired and generated motion information to the one-side prediction signal generation unit 808.

片側予測信号生成部808は、所定の片側予測信号生成処理を行う。この所定の片側予測信号生成処理では、片側予測信号生成部808は、mvd生成部807から動き情報、参照ピクチャ取得部804から参照ピクチャを取得する。片側予測信号生成部808は、取得した動きベクトル情報に基づいて、例えばAVCのような、所定の動き補償処理により、予測信号を生成する。片側予測信号生成部808は、動作モードを特定するための動作モード情報、動き情報および予測信号を、モード判定部108に供給する。片側予測信号生成部808は、取得および生成した動き情報を、動作モード情報とともに動き情報蓄積部103に供給する。   The one-side prediction signal generation unit 808 performs a predetermined one-side prediction signal generation process. In the predetermined one-side prediction signal generation process, the one-side prediction signal generation unit 808 acquires motion information from the mvd generation unit 807 and a reference picture from the reference picture acquisition unit 804. The one-side prediction signal generation unit 808 generates a prediction signal by a predetermined motion compensation process such as AVC based on the acquired motion vector information. The one-side prediction signal generation unit 808 supplies operation mode information, motion information, and a prediction signal for specifying the operation mode to the mode determination unit 108. The one-side prediction signal generation unit 808 supplies the acquired and generated motion information to the motion information storage unit 103 together with the operation mode information.

図8(B)の構成は、L0側の動き情報を基本として、L1側の動きベクトル情報を生成し、L1側の予測信号を生成するための構成である。図8(B)の構成は、L0側動き情報取得部821、L1側参照情報取得部822、参照先変更部823、L1側動き導出部824、参照ピクチャ取得部825、対象ピクチャ取得部826、L1側動き探索部827、mvd生成部828および片側予測信号生成部829を含む。   The configuration of FIG. 8B is a configuration for generating L1 side motion vector information and generating an L1 side prediction signal based on the L0 side motion information. 8B includes an L0 side motion information acquisition unit 821, an L1 side reference information acquisition unit 822, a reference destination change unit 823, an L1 side motion derivation unit 824, a reference picture acquisition unit 825, a target picture acquisition unit 826, An L1-side motion search unit 827, an mvd generation unit 828, and a one-side prediction signal generation unit 829 are included.

L0側動き情報取得部821は、所定のL0側動き情報取得処理を行う。この所定のL0側動き情報取得処理では、L0側動き情報取得部821は、参照解析部105から、対象領域に属するL0側の動き情報としてL0側の参照情報と予測動きベクトル情報、そして予測修正情報を取得する。L0側動き情報取得部821は、取得したL0側の動き情報を、参照先変更部823に供給する。   The L0 side motion information acquisition unit 821 performs a predetermined L0 side motion information acquisition process. In this predetermined L0 side motion information acquisition process, the L0 side motion information acquisition unit 821 receives, from the reference analysis unit 105, L0 side reference information, predicted motion vector information, and prediction correction as the L0 side motion information belonging to the target region. Get information. The L0 side motion information acquisition unit 821 supplies the acquired L0 side motion information to the reference destination changing unit 823.

L1側参照情報取得部822は、所定のL1側参照情報取得処理を行う。この所定のL1側参照情報取得処理では、L1側参照情報取得部822は、参照解析部105から、取得可能であれば、L1側の参照情報および予測修正情報を取得し、参照先変更部823に供給する。   The L1 side reference information acquisition unit 822 performs a predetermined L1 side reference information acquisition process. In this predetermined L1 side reference information acquisition process, the L1 side reference information acquisition unit 822 acquires reference information and prediction correction information on the L1 side from the reference analysis unit 105, if possible, and a reference destination change unit 823. To supply.

参照先変更部823は、所定の参照先変更処理を行う。この所定の参照先変更処理では、参照先変更部823は、L0側動き情報取得部821からL0側の動き情報、L1側参照情報取得部822からL1側の参照情報および予測修正情報を取得する。参照先変更部823は、L1側の予測修正情報が「1」である場合には、所定の参照先変更処理により、参照情報を修正し、修正参照情報を生成する。ここで、所定の参照先変更処理は、動作モードに応じて機能させず、参照情報を修正参照情報にすると良い。例えば、第1L0−L1片側予測信号生成部106−3は、この所定の参照先変更処理を機能させず、参照情報を修正参照情報にすると良い。第1L0−L1片側予測信号生成部106−3は、動作モードとして、L0側の予測動きベクトル情報を、L1側の修正参照情報ではなく参照情報に基づいて修正し、L1側の動きベクトル情報を生成してL1側の予測信号を生成するような、第1L0−L1片側予測モードで動作する。また、第2L0−L1片側予測信号生成部106−4は、この所定の参照先変更処理を機能させるようにすると良い。第2L0−L1片側予測信号生成部106−4は、動作モードとして、L0側の予測動きベクトル情報を、L1側の修正参照情報に基づいて修正し、L1側の動きベクトル情報を生成してL1側の予測信号を生成するような、第2L0−L1片側予測モードで動作する。参照先変更部823は、取得および生成したL0側およびL1側の動き情報を、L1側動き導出部824および参照ピクチャ取得部825に供給する。   The reference destination changing unit 823 performs a predetermined reference destination changing process. In this predetermined reference destination changing process, the reference destination changing unit 823 acquires the L0 side motion information from the L0 side motion information acquisition unit 821 and the L1 side reference information acquisition unit 822 from the L1 side reference information and the prediction correction information. . When the L1 side prediction correction information is “1”, the reference destination changing unit 823 corrects the reference information by a predetermined reference destination changing process, and generates corrected reference information. Here, it is preferable that the predetermined reference destination changing process does not function according to the operation mode, and the reference information is changed to the corrected reference information. For example, the first L0-L1 one-sided prediction signal generation unit 106-3 may not use this predetermined reference destination changing process, and may make the reference information the corrected reference information. The first L0-L1 one-side predicted signal generation unit 106-3 corrects the L0-side predicted motion vector information based on the reference information instead of the L1-side corrected reference information as the operation mode, and the L1-side motion vector information. It operates in a first L0-L1 one-sided prediction mode that generates a prediction signal on the L1 side. Further, the second L0-L1 one-side predicted signal generation unit 106-4 may function the predetermined reference destination changing process. The second L0-L1 one-side predicted signal generation unit 106-4 corrects the L0-side predicted motion vector information based on the L1-side corrected reference information as the operation mode, generates L1-side motion vector information, and generates L1 Operate in a second L0-L1 one-sided prediction mode that generates a side prediction signal. The reference destination changing unit 823 supplies the acquired and generated L0 side and L1 side motion information to the L1 side motion deriving unit 824 and the reference picture acquiring unit 825.

L1側動き導出部824は、所定のL1側動き導出処理を行う。この所定のL1側動き導出処理では、L1側動き導出部824は、参照先変更部823から、L0側およびL1側の動き情報を取得する。その後、L1側動き導出部824は、動作モードとして第1L0−L1片側予測モードで動作している場合、L0側の参照情報から、対象ピクチャとL0側の参照情報から特定される参照ピクチャとの間の時間間隔td_l0と、L1側の参照情報から、対象ピクチャとL1側の参照情報から特定される参照ピクチャとの間の時間間隔td_l1を求める。予測動きベクトル情報をmvp_l0、修正予測動きベクトル情報をm_mvp_l1とした時に、
m_mvp_l1 = mvp_l0 × td_l1 / td_l0
・・・(式2)
とすることで、L0側の予測動きベクトル情報から、L1側の修正予測動きベクトル情報を導出する。
The L1 side motion deriving unit 824 performs a predetermined L1 side motion deriving process. In this predetermined L1 side motion deriving process, the L1 side motion deriving unit 824 acquires the L0 side and L1 side motion information from the reference destination changing unit 823. After that, when operating in the first L0-L1 one-sided prediction mode as the operation mode, the L1 side motion deriving unit 824 determines, from the reference information on the L0 side, the reference picture specified from the target picture and the reference information on the L0 side. The time interval td_l1 between the current picture and the reference picture specified from the reference information on the L1 side is obtained from the time interval td_l0 between them and the reference information on the L1 side. When the predicted motion vector information is mvp_l0 and the corrected predicted motion vector information is m_mvp_l1,
m_mvp_l1 = mvp_l0 × td_l1 / td_l0
... (Formula 2)
Thus, the L1 side modified predicted motion vector information is derived from the L0 side predicted motion vector information.

また、L1側動き導出部824は、動作モードとして第2L0−L1片側予測モードで動作している場合、L0側の参照情報から、対象ピクチャとL0側の参照情報から特定される参照ピクチャとの間の時間間隔td_l0と、L1側の参照情報から、対象ピクチャとL1側の修正参照情報から特定される参照ピクチャとの間の時間間隔m_td_l1を求める。予測動きベクトル情報をmvp_l0、修正予測動きベクトル情報をm_mvp_l1とした時に、
m_mvp_l1 = mvp_l0 × m_td_l1 / td_l0
・・・(式3)
とすることで、L0側の予測動きベクトル情報から、L1側の修正参照情報に基づいてL1側の修正予測動きベクトル情報を導出する。ここで、L1側の参照情報とL1側の修正参照情報が同じである場合には、上述の(式3)によってL1側の修正予測動きベクトル情報を導出しても構わない。このようにすることで、処理を統一化することが可能となる。L1側動き導出部824は、取得および生成したL0側およびL1側の動き情報を、L1側動き探索部827に供給する。
Further, when operating in the second L0-L1 one-sided prediction mode as the operation mode, the L1 side motion deriving unit 824 determines whether the reference picture specified from the target picture and the reference information on the L0 side is obtained from the reference information on the L0 side. The time interval m_td_l1 between the current picture and the reference picture specified from the modified reference information on the L1 side is obtained from the time interval td_l0 between them and the reference information on the L1 side. When the predicted motion vector information is mvp_l0 and the corrected predicted motion vector information is m_mvp_l1,
m_mvp_l1 = mvp_l0 × m_td_l1 / td_l0
... (Formula 3)
Thus, the L1 side corrected predicted motion vector information is derived from the L0 side predicted motion vector information based on the L1 side corrected reference information. Here, when the reference information on the L1 side and the corrected reference information on the L1 side are the same, the corrected predicted motion vector information on the L1 side may be derived by the above (Equation 3). By doing in this way, it becomes possible to unify a process. The L1 side motion deriving unit 824 supplies the acquired and generated L0 side and L1 side motion information to the L1 side motion search unit 827.

参照ピクチャ取得部825は、所定の参照ピクチャ取得処理を行う。この所定の参照ピクチャ取得処理では、参照ピクチャ取得部825は、参照先変更部823から、L1側の動き情報として修正参照情報を取得する。参照ピクチャ取得部825は、L1側の修正参照情報をピクチャ蓄積部102に供給し、特定された参照ピクチャを取得する。参照ピクチャ取得部825は、取得した参照ピクチャをL1側動き探索部827および片側予測信号生成部829に供給する。   The reference picture acquisition unit 825 performs a predetermined reference picture acquisition process. In this predetermined reference picture acquisition process, the reference picture acquisition unit 825 acquires the corrected reference information from the reference destination change unit 823 as the motion information on the L1 side. The reference picture acquisition unit 825 supplies the L1 side modified reference information to the picture storage unit 102 and acquires the identified reference picture. The reference picture acquisition unit 825 supplies the acquired reference picture to the L1 side motion search unit 827 and the one side prediction signal generation unit 829.

対象ピクチャ取得部826は、所定の対象ピクチャ取得処理を行う。この所定の対象ピクチャ取得処理では、対象ピクチャ取得部826は、入力部101から対象信号を取得し、L1側動き探索部827に供給する。   The target picture acquisition unit 826 performs a predetermined target picture acquisition process. In the predetermined target picture acquisition process, the target picture acquisition unit 826 acquires a target signal from the input unit 101 and supplies the target signal to the L1 side motion search unit 827.

L1側動き探索部827は、所定のL1側動き探索処理を行う。この所定のL1側動き探索処理では、L1側動き探索部827は、L1側動き導出部824からL0側およびL1側の動き情報、参照ピクチャ取得部825から参照ピクチャ、および対象ピクチャ取得部826から対象信号をそれぞれ取得する。L1側動き探索部827は、取得したL1側の修正予測動きベクトル情報を利用して、例えばAVCのような、所定の動き探索処理を行い、L1側の動きベクトル情報を生成する。L1側動き探索部827は、取得および生成したL0側およびL1側の動き情報を、mvd生成部828に供給する。   The L1 side motion search unit 827 performs a predetermined L1 side motion search process. In this predetermined L1 side motion search process, the L1 side motion search unit 827 receives the motion information on the L0 side and the L1 side from the L1 side motion derivation unit 824, the reference picture from the reference picture acquisition unit 825, and the reference picture from the target picture acquisition unit 826. Each target signal is acquired. The L1 side motion search unit 827 performs a predetermined motion search process such as AVC, for example, using the acquired L1 side corrected predicted motion vector information, and generates L1 side motion vector information. The L1 side motion search unit 827 supplies the acquired and generated L0 side and L1 side motion information to the mvd generation unit 828.

mvd生成部828は、所定のmvd生成処理を行う。この所定のmvd生成処理では、mvd生成部828は、L1側動き探索部827からL0側およびL1側の動き情報を取得し、取得したL1側の動きベクトル情報からL1側の修正予測動きベクトル情報を減算し、L1側の残差動きベクトル情報を生成する。mvd生成部828は、取得および生成したL0側およびL1側の動き情報を、片側予測信号生成部829に供給する。   The mvd generation unit 828 performs predetermined mvd generation processing. In this predetermined mvd generation process, the mvd generation unit 828 acquires the L0 side and L1 side motion information from the L1 side motion search unit 827, and the L1 side modified predicted motion vector information from the acquired L1 side motion vector information. Is subtracted to generate residual motion vector information on the L1 side. The mvd generation unit 828 supplies the acquired and generated L0 side and L1 side motion information to the one-side prediction signal generation unit 829.

片側予測信号生成部829は、所定の片側予測信号生成処理を行う。この所定の片側予測信号生成処理では、片側予測信号生成部829は、mvd生成部828からL0側およびL1側の動き情報、参照ピクチャ取得部825から参照ピクチャを取得する。片側予測信号生成部829は、取得したL1側の動きベクトル情報に基づいて、例えばAVCのような、所定の動き補償処理により、予測信号を生成する。片側予測信号生成部829は、動作モードを特定するための動作モード情報、動き情報および予測信号を、モード判定部108に供給する。片側予測信号生成部829は、取得および生成したL0側およびL1側の動き情報を、動作モード情報とともに動き情報蓄積部103に供給する。   The one-side prediction signal generation unit 829 performs a predetermined one-side prediction signal generation process. In the predetermined one-side prediction signal generation processing, the one-side prediction signal generation unit 829 acquires the L0 side and L1 side motion information from the mvd generation unit 828 and the reference picture from the reference picture acquisition unit 825. The one-side prediction signal generation unit 829 generates a prediction signal by a predetermined motion compensation process such as AVC, based on the acquired L1 side motion vector information. The one-side prediction signal generation unit 829 supplies the mode determination unit 108 with operation mode information, motion information, and a prediction signal for specifying the operation mode. The one-side prediction signal generation unit 829 supplies the acquired and generated L0 side and L1 side motion information to the motion information storage unit 103 together with the operation mode information.

図8(C)の構成は、L0側の動き情報を基本として、L1側の動きベクトル情報を生成し、L0側の予測信号とL1側の予測信号を生成した上で、双予測信号となる合成予測信号を生成するための構成である。図8(C)の構成は、L0側動き情報取得部841、L1側参照情報取得部842、参照先変更部843、L0側動き導出部844、L1側動き導出部845、参照ピクチャ取得部846、対象ピクチャ取得部847、L1側動き探索部848、mvd生成部849および双予測信号生成部850を含む。   The configuration of FIG. 8C is based on the L0 side motion information, generates L1 side motion vector information, generates a L0 side prediction signal and a L1 side prediction signal, and then becomes a bi-prediction signal. This is a configuration for generating a combined prediction signal. 8C includes an L0 side motion information acquisition unit 841, an L1 side reference information acquisition unit 842, a reference destination change unit 843, an L0 side motion derivation unit 844, an L1 side motion derivation unit 845, and a reference picture acquisition unit 846. A target picture acquisition unit 847, an L1 side motion search unit 848, an mvd generation unit 849, and a bi-prediction signal generation unit 850.

L0側動き情報取得部841は、所定のL0側動き情報取得処理を行う。この所定のL0側動き情報取得処理では、L0側動き情報取得部841は、参照解析部105から、対象領域に属するL0側の動き情報としてL0側の参照情報と予測動きベクトル情報、そして予測修正情報を取得する。L0側動き情報取得部841は、取得したL0側の動き情報を、参照先変更部843に供給する。   The L0 side motion information acquisition unit 841 performs a predetermined L0 side motion information acquisition process. In this predetermined L0 side motion information acquisition processing, the L0 side motion information acquisition unit 841 receives, from the reference analysis unit 105, L0 side reference information, predicted motion vector information, and prediction correction as the L0 side motion information belonging to the target region. Get information. The L0 side motion information acquisition unit 841 supplies the acquired L0 side motion information to the reference destination changing unit 843.

L1側参照情報取得部842は、所定のL1側参照情報取得処理を行う。この所定のL1側参照情報取得処理では、L1側参照情報取得部842は、参照解析部105から、取得可能であれば、L1側の参照情報および予測修正情報を取得し、参照先変更部843に供給する。   The L1 side reference information acquisition unit 842 performs a predetermined L1 side reference information acquisition process. In this predetermined L1 side reference information acquisition process, the L1 side reference information acquisition unit 842 acquires L1 side reference information and prediction correction information from the reference analysis unit 105, if possible, and a reference destination change unit 843. To supply.

参照先変更部843は、所定の参照先変更処理を行う。この所定の参照先変更処理では、参照先変更部843は、L0側動き情報取得部821からL0側の動き情報、L1側参照情報取得部822からL1側の参照情報および予測修正情報を取得する。参照先変更部843は、L0側の予測修正情報が「1」である場合には、所定の参照先変更処理により、L0側の参照情報を修正し、L0側の修正参照情報を生成する。   The reference destination changing unit 843 performs a predetermined reference destination changing process. In this predetermined reference destination changing process, the reference destination changing unit 843 acquires the L0 side motion information from the L0 side motion information acquisition unit 821 and the L1 side reference information and prediction correction information from the L1 side reference information acquisition unit 822. . When the prediction correction information on the L0 side is “1”, the reference destination changing unit 843 corrects the reference information on the L0 side by a predetermined reference destination changing process, and generates correction reference information on the L0 side.

同様に、参照先変更部843は、L1側の予測修正情報が「1」である場合には、所定の参照先変更処理により、L1側の参照情報を修正し、L1側の修正参照情報を生成する。ここで、所定の参照先変更処理は、動作モードに応じて機能させず、参照情報を修正参照情報にすると良い。例えば、第1L0−L1双予測信号生成部106−5は、この所定の参照先変更処理を機能させず、参照情報を修正参照情報にすると良い。第1L0−L1双予測信号生成部106−5は、動作モードとして、L0側は参照情報、L1側は参照情報を利用し、L0側の予測動きベクトル情報に対してL1側の参照情報を適用して修正することにより、L1側の修正予測動きベクトル情報を導出し、L0側の参照情報および予測動きベクトル情報からL0側の予測信号を生成するとともに、L1側の参照情報および修正予測動きベクトル情報からL1側の予測信号を生成した上で、合成予測信号を生成するような、第1L0−L1双予測モードで動作する。   Similarly, when the prediction correction information on the L1 side is “1”, the reference destination changing unit 843 corrects the reference information on the L1 side by a predetermined reference destination changing process, and changes the reference reference information on the L1 side. Generate. Here, it is preferable that the predetermined reference destination changing process does not function according to the operation mode, and the reference information is changed to the corrected reference information. For example, the first L0-L1 bi-prediction signal generation unit 106-5 may use the reference information as corrected reference information without causing the predetermined reference destination changing process to function. The first L0-L1 bi-prediction signal generator 106-5 uses the reference information on the L0 side and the reference information on the L1 side as the operation mode, and applies the reference information on the L1 side to the predicted motion vector information on the L0 side. Thus, the corrected predicted motion vector information on the L1 side is derived, and the prediction signal on the L1 side is generated from the reference information and the predicted motion vector information on the L0 side, and the reference information and the corrected predicted motion vector on the L1 side are generated. It operates in the first L0-L1 bi-prediction mode in which a prediction signal on the L1 side is generated from information and then a combined prediction signal is generated.

また、第2L0−L1双予測信号生成部106−6は、この所定の参照先変更処理を機能させるようにすると良い。第2L0−L1双予測信号生成部106−6は、動作モードとして、L0側は参照情報、L1側は修正参照情報を利用し、L0側の予測動きベクトル情報に対してL1側の修正参照情報を適用して修正することにより、L1側の修正予測動きベクトル情報を導出し、L0側の参照情報および予測動きベクトル情報からL0側の予測信号を生成するとともに、L1側の修正参照情報および修正予測動きベクトル情報からL1側の予測信号を生成した上で、合成予測信号を生成するような、第2L0−L1双予測モードで動作する。   The second L0-L1 bi-prediction signal generation unit 106-6 may function the predetermined reference destination changing process. The second L0-L1 bi-prediction signal generation unit 106-6 uses the reference information on the L0 side and the corrected reference information on the L1 side as the operation mode, and the corrected reference information on the L1 side with respect to the predicted motion vector information on the L0 side. Is used to derive the corrected predicted motion vector information on the L1 side, generate the L0 side prediction signal from the reference information and the predicted motion vector information on the L0 side, and the corrected reference information and the correction on the L1 side An operation is performed in the second L0-L1 bi-prediction mode in which a prediction signal on the L1 side is generated from the prediction motion vector information and then a combined prediction signal is generated.

また、第3L0−L1双予測信号生成部106−7は、この所定の参照先変更処理を機能させるようにすると良い。第3L0−L1双予測信号生成部106−7は、動作モードとして、L0側は修正参照情報、L1側は参照情報を利用し、L0側の予測動きベクトル情報に対してL0側の修正参照情報を適用して修正することによりL0側の修正予測動きベクトル情報を導出し、更に、L0側の予測動きベクトル情報に対してL1側の参照情報を適用して修正することにより、L1側の修正予測動きベクトル情報を導出し、L0側の修正参照情報および修正予測動きベクトル情報からL0側の予測信号を生成するとともに、L1側の参照情報および修正予測動きベクトル情報からL1側の予測信号を生成した上で、合成予測信号を生成するような、第3L0−L1双予測モードで動作する。   In addition, the third L0-L1 bi-prediction signal generation unit 106-7 may function the predetermined reference destination changing process. The third L0-L1 bi-prediction signal generation unit 106-7 uses the modified reference information on the L0 side and the reference information on the L1 side as the operation mode, and the modified reference information on the L0 side with respect to the predicted motion vector information on the L0 side. L0 side corrected motion vector information is derived by applying and corrected, and further, L1 side reference information is applied to the L0 side predicted motion vector information and corrected. Predicted motion vector information is generated, and an L0 side prediction signal is generated from the L0 side corrected reference information and the corrected predicted motion vector information, and an L1 side prediction signal is generated from the L1 side reference information and the corrected predicted motion vector information. Then, it operates in the third L0-L1 bi-prediction mode that generates a composite prediction signal.

また、第4L0−L1双予測信号生成部106−8は、この所定の参照先変更処理を機能させるようにすると良い。第4L0−L1双予測信号生成部106−8は、動作モードとして、L0側は修正参照情報、L1側は修正参照情報を利用し、L0側の予測動きベクトル情報に対してL0側の修正参照情報を適用して修正することによりL0側の修正予測動きベクトル情報を導出し、更に、L0側の予測動きベクトル情報に対してL1側の修正参照情報を適用して修正することにより、L1側の修正予測動きベクトル情報を導出し、L0側の修正参照情報および修正予測動きベクトル情報からL0側の予測信号を生成するとともに、L1側の修正参照情報および修正予測動きベクトル情報からL1側の予測信号を生成した上で、合成予測信号を生成するような、第4L0−L1双予測モードで動作する。   Further, the fourth L0-L1 bi-predictive signal generation unit 106-8 may function the predetermined reference destination changing process. The fourth L0-L1 bi-prediction signal generation unit 106-8 uses the modified reference information on the L0 side and the modified reference information on the L1 side as the operation mode, and the modified reference on the L0 side with respect to the predicted motion vector information on the L0 side. The corrected predicted motion vector information on the L0 side is derived by applying and correcting the information, and further, the corrected reference vector information on the L1 side is applied to the predicted motion vector information on the L0 side and corrected. And the L0 side prediction signal and the corrected prediction motion vector information are generated from the L0 side correction reference information and the corrected prediction motion vector information, and the L1 side prediction signal is corrected from the L1 side correction reference information and the corrected prediction motion vector information. It operates in the 4L0-L1 bi-prediction mode that generates a combined prediction signal after generating a signal.

参照先変更部843は、取得および生成したL0側の動き情報をL0側動き導出部844に、取得および生成したL0側およびL1側の動き情報をL1側動き導出部845および参照ピクチャ取得部846に供給する。   The reference destination changing unit 843 stores the acquired and generated L0 side motion information in the L0 side motion deriving unit 844, and acquires and generates the acquired L0 side and L1 side motion information in the L1 side motion deriving unit 845 and the reference picture acquiring unit 846. To supply.

L0側動き導出部844は、所定のL0側動き導出処理を行う。この所定のL0側動き導出処理では、L0側動き導出部844は、参照先変更部843から、L0側の動き情報を取得する。その後、L0側動き導出部844は、動作モードとして第1L0−L1双予測モードもしくは第2L0−L1双予測モードで動作している場合、この所定のL0側動き導出処理を機能させず、L0側の予測動きベクトル情報を修正予測動きベクトル情報にすると良い。   The L0 side motion deriving unit 844 performs a predetermined L0 side motion deriving process. In the predetermined L0 side motion deriving process, the L0 side motion deriving unit 844 acquires the L0 side motion information from the reference destination changing unit 843. After that, when operating in the first L0-L1 bi-prediction mode or the second L0-L1 bi-prediction mode as the operation mode, the L0 side motion deriving unit 844 does not cause the predetermined L0 side motion deriving process to function. The predicted motion vector information may be modified predicted motion vector information.

また、L0側動き導出部844は、動作モードとして第3L0−L1双予測モードもしくは第4L0−L1双予測モードで動作している場合、L0側の参照情報から、対象ピクチャとL0側の参照情報から特定される参照ピクチャとの間の時間間隔td_l0と、L0側の修正参照情報から、対象ピクチャとL0側の修正参照情報から特定される参照ピクチャとの間の時間間隔m_td_l0を求める。L0側の予測動きベクトル情報をmvp_l0、L0側の修正予測動きベクトル情報をm_mvp_l0とした時に、
m_mvp_l0 = mvp_l0 × m_td_l0 / td_l0
・・・(式4)
とすることで、L0側の予測動きベクトル情報から、L0側の修正予測動きベクトル情報を導出する。ここで、L0側の参照情報とL0側の修正参照情報が同じである場合には、上述の(式4)によってL0側の修正予測動きベクトル情報を導出しても構わない。このようにすることで、処理を統一化することが可能となる。L0側動き導出部844は、取得および生成したL0側の動き情報を、双予測信号生成部850に供給する。
Further, when operating in the third L0-L1 bi-prediction mode or the fourth L0-L1 bi-prediction mode as the operation mode, the L0 side motion deriving unit 844 uses the reference information on the L0 side and the reference information on the L0 side from the reference information on the L0 side. The time interval m_td_10 between the target picture and the reference picture specified from the modified reference information on the L0 side is obtained from the time interval td_10 between the reference picture identified from the reference picture and the modified reference information on the L0 side. When the L0 side predicted motion vector information is mvp_10 and the L0 side predicted motion vector information is m_mvp_10,
m_mvp_l0 = mvp_l0 × m_td_l0 / td_l0
... (Formula 4)
By doing so, the L0-side corrected predicted motion vector information is derived from the L0-side predicted motion vector information. Here, when the reference information on the L0 side and the corrected reference information on the L0 side are the same, the corrected predicted motion vector information on the L0 side may be derived by the above (Equation 4). By doing in this way, it becomes possible to unify a process. The L0 side motion deriving unit 844 supplies the acquired and generated L0 side motion information to the bi-prediction signal generation unit 850.

L1側動き導出部845は、所定のL1側動き導出処理を行う。この所定のL1側動き導出処理では、L1側動き導出部845は、参照先変更部843から、L0側およびL1側の動き情報を取得する。その後、L1側動き導出部845は、動作モードとして第1L0−L1双予測モードもしくは第3L0−L1双予測モードで動作している場合、L0側の参照情報から、対象ピクチャとL0側の参照情報から特定される参照ピクチャとの間の時間間隔td_l0と、L1側の参照情報から、対象ピクチャとL1側の参照情報から特定される参照ピクチャとの間の時間間隔td_l1を求める。L0側の予測動きベクトル情報をmvp_l0、L1側の修正予測動きベクトル情報をm_mvp_l1とした時に、
m_mvp_l1 = mvp_l0 × td_l1 / td_l0
・・・(式5)
とすることで、L0側の予測動きベクトル情報から、L1側の修正予測動きベクトル情報を導出する。
The L1 side motion deriving unit 845 performs a predetermined L1 side motion deriving process. In the predetermined L1 side motion deriving process, the L1 side motion deriving unit 845 acquires the L0 side and L1 side motion information from the reference destination changing unit 843. After that, when operating in the first L0-L1 bi-prediction mode or the third L0-L1 bi-prediction mode as the operation mode, the L1 side motion deriving unit 845 uses the target picture and the L0 side reference information from the L0 side reference information. The time interval td_l1 between the target picture and the reference picture specified from the reference information on the L1 side is obtained from the time interval td_10 between the reference picture specified from the reference picture and the reference information on the L1 side. When the predicted motion vector information on the L0 side is mvp_l0 and the modified predicted motion vector information on the L1 side is m_mvp_l1,
m_mvp_l1 = mvp_l0 × td_l1 / td_l0
... (Formula 5)
Thus, the L1 side modified predicted motion vector information is derived from the L0 side predicted motion vector information.

また、L1側動き導出部845は、動作モードとして第2L0−L1双予測モードもしくは第4L0−L1双予測モードで動作している場合、L0側の参照情報から、対象ピクチャとL0側の参照情報から特定される参照ピクチャとの間の時間間隔td_l0と、L1側の参照情報から、対象ピクチャとL1側の修正参照情報から特定される参照ピクチャとの間の時間間隔m_td_l1を求める。予測動きベクトル情報をmvp_l0、修正予測動きベクトル情報をm_mvp_l1とした時に、
m_mvp_l1 = mvp_l0 × m_td_l1 / td_l0
・・・(式6)
とすることで、L0側の予測動きベクトル情報から、L1側の修正参照情報に基づいてL1側の修正予測動きベクトル情報を導出する。ここで、L1側の参照情報とL1側の修正参照情報が同じである場合には、上述の(式6)によってL1側の修正予測動きベクトル情報を導出しても構わない。このようにすることで、処理を統一化することが可能となる。L1側動き導出部845は、取得および生成したL0側およびL1側の動き情報を、L1側動き探索部848に供給する。
In addition, when operating in the second L0-L1 bi-prediction mode or the fourth L0-L1 bi-prediction mode as the operation mode, the L1 side motion deriving unit 845 uses the target picture and the L0 side reference information from the L0 side reference information. The time interval m_td_l1 between the target picture and the reference picture specified from the modified reference information on the L1 side is obtained from the time interval td_10 between the reference picture specified from the reference picture and the reference information on the L1 side. When the predicted motion vector information is mvp_l0 and the corrected predicted motion vector information is m_mvp_l1,
m_mvp_l1 = mvp_l0 × m_td_l1 / td_l0
... (Formula 6)
Thus, the L1 side corrected predicted motion vector information is derived from the L0 side predicted motion vector information based on the L1 side corrected reference information. Here, when the reference information on the L1 side and the corrected reference information on the L1 side are the same, the corrected predicted motion vector information on the L1 side may be derived by the above (Equation 6). By doing in this way, it becomes possible to unify a process. The L1 side motion deriving unit 845 supplies the acquired and generated L0 side and L1 side motion information to the L1 side motion search unit 848.

参照ピクチャ取得部846は、所定の参照ピクチャ取得処理を行う。この所定の参照ピクチャ取得処理では、参照ピクチャ取得部846は、参照先変更部843から、L0側およびL1側の動き情報として修正参照情報を取得する。参照ピクチャ取得部846は、L0側およびL1側の修正参照情報をピクチャ蓄積部102に供給し、特定されたL0側およびL1側の参照ピクチャを取得する。参照ピクチャ取得部846は、取得したL1側の参照ピクチャをL1側動き探索部827に供給する。参照ピクチャ取得部846は、取得したL0側およびL1側の参照ピクチャを双予測信号生成部850に供給する。   The reference picture acquisition unit 846 performs a predetermined reference picture acquisition process. In this predetermined reference picture acquisition process, the reference picture acquisition unit 846 acquires the corrected reference information from the reference destination change unit 843 as the motion information on the L0 side and the L1 side. The reference picture acquisition unit 846 supplies the L0 side and L1 side modified reference information to the picture storage unit 102, and acquires the identified L0 side and L1 side reference pictures. The reference picture acquisition unit 846 supplies the acquired L1 side reference picture to the L1 side motion search unit 827. The reference picture acquisition unit 846 supplies the acquired L0 side and L1 side reference pictures to the bi-prediction signal generation unit 850.

対象ピクチャ取得部847は、所定の対象ピクチャ取得処理を行う。この所定の対象ピクチャ取得処理では、対象ピクチャ取得部847は、入力部101から対象信号を取得し、L1側動き探索部848に供給する。   The target picture acquisition unit 847 performs a predetermined target picture acquisition process. In the predetermined target picture acquisition process, the target picture acquisition unit 847 acquires the target signal from the input unit 101 and supplies the target signal to the L1 side motion search unit 848.

L1側動き探索部848は、所定のL1側動き探索処理を行う。この所定のL1側動き探索処理では、L1側動き探索部848は、L1側動き導出部845からL0側およびL1側の動き情報、参照ピクチャ取得部846から参照ピクチャ、および対象ピクチャ取得部847から対象信号をそれぞれ取得する。L1側動き探索部848は、取得したL1側の修正予測動きベクトル情報を利用して、例えばAVCのような、所定の動き探索処理を行い、L1側の動きベクトル情報を生成する。L1側動き探索部848は、取得および生成したL0側およびL1側の動き情報を、mvd生成部849に供給する。   The L1 side motion search unit 848 performs a predetermined L1 side motion search process. In this predetermined L1 side motion search process, the L1 side motion search unit 848 receives the L0 side and L1 side motion information from the L1 side motion derivation unit 845, the reference picture from the reference picture acquisition unit 846, and the target picture acquisition unit 847. Each target signal is acquired. The L1 side motion search unit 848 performs predetermined motion search processing such as AVC, for example, using the acquired L1 side corrected predicted motion vector information, and generates L1 side motion vector information. The L1 side motion search unit 848 supplies the acquired and generated motion information on the L0 side and the L1 side to the mvd generation unit 849.

mvd生成部849は、所定のmvd生成処理を行う。この所定のmvd生成処理では、mvd生成部849は、L1側動き探索部848からL0側およびL1側の動き情報を取得し、取得したL1側の動きベクトル情報からL1側の修正予測動きベクトル情報を減算し、L1側の残差動きベクトル情報を生成する。mvd生成部849は、取得および生成したL0側およびL1側の動き情報を、双予測信号生成部850に供給する。   The mvd generation unit 849 performs a predetermined mvd generation process. In this predetermined mvd generation process, the mvd generation unit 849 acquires the L0 side and L1 side motion information from the L1 side motion search unit 848, and the L1 side corrected predicted motion vector information from the acquired L1 side motion vector information. Is subtracted to generate residual motion vector information on the L1 side. The mvd generation unit 849 supplies the acquired and generated motion information on the L0 side and the L1 side to the bi-prediction signal generation unit 850.

双予測信号生成部850は、所定の双予測信号生成処理を行う。この所定の双予測信号生成処理では、双予測信号生成部850は、mvd生成部828からL0側およびL1側の動き情報、参照ピクチャ取得部825からL0側およびL1側の参照ピクチャを取得する。双予測信号生成部850は、取得したL0側の修正予測動きベクトル情報に基づいて、例えばAVCのような、所定の動き補償処理により、L0側の予測信号を生成する。また、双予測信号生成部850は、取得したL1側の動きベクトル情報に基づいて、例えばAVCのような、所定の動き補償処理により、L1側の予測信号を生成する。その後、双予測信号生成部850は、生成したL0側の予測信号とL1側の予測信号を合成した合成予測信号を生成することで、双予測信号を得る。双予測信号生成部850は、動作モードを特定するための動作モード情報、取得および生成したL0側およびL1側の動き情報および合成予測信号を、モード判定部108に供給する。また、双予測信号生成部850は、取得および生成したL0側およびL1側の動き情報を、動作モード情報とともに動き情報蓄積部103に供給する。   The bi-prediction signal generation unit 850 performs a predetermined bi-prediction signal generation process. In this predetermined bi-prediction signal generation process, the bi-prediction signal generation unit 850 acquires the L0 side and L1 side motion information from the mvd generation unit 828, and the L0 side and L1 side reference pictures from the reference picture acquisition unit 825. The bi-prediction signal generation unit 850 generates a prediction signal on the L0 side by a predetermined motion compensation process such as AVC based on the acquired corrected prediction motion vector information on the L0 side. Further, the bi-prediction signal generation unit 850 generates an L1 side prediction signal by a predetermined motion compensation process such as AVC, based on the acquired L1 side motion vector information. Thereafter, the bi-prediction signal generation unit 850 generates a combined prediction signal by combining the generated L0-side prediction signal and the L1-side prediction signal, thereby obtaining a bi-prediction signal. The bi-prediction signal generation unit 850 supplies the mode determination unit 108 with the operation mode information for specifying the operation mode, the acquired and generated L0 side and L1 side motion information, and the combined prediction signal. Also, the bi-prediction signal generation unit 850 supplies the acquired and generated motion information on the L0 side and the L1 side to the motion information storage unit 103 together with the operation mode information.

図8(A)の構成では、L0側の動き情報を基本として、L0側の動きベクトル情報を生成し、L0側の予測信号を生成するための構成であった。これに対し、図9(A)の構成では、L0側とL1側の扱いを逆として、L1側の動き情報を基本として、L1側の予測信号を生成するための構成とした点が図8(A)の構成と異なっている。図9(A)の構成における各部の詳細に関しては、L0側とL1側の扱いを逆として考えることで図8(A)の構成と同等の機能をもつと考えられることから、説明を省略する。   In the configuration of FIG. 8A, the L0 side motion vector information is generated based on the L0 side motion information, and the L0 side prediction signal is generated. On the other hand, in the configuration of FIG. 9A, the handling of the L0 side and the L1 side is reversed, and the configuration for generating the prediction signal on the L1 side is based on the motion information on the L1 side. It is different from the configuration of (A). The details of each part in the configuration of FIG. 9A are omitted because the functions on the L0 side and the L1 side are considered to be reversed to have the same function as the configuration of FIG. 8A. .

図8(B)の構成では、L0側の動き情報を基本として、L1側の動きベクトル情報を生成し、L1側の予測信号を生成するための構成であった。これに対し、図9(B)の構成では、L0側とL1側の扱いを逆として、L1側の動き情報を基本として、L0側の動きベクトル情報を生成し、L0側の予測信号を生成するための構成とした点が図8(B)の構成と異なっている。図9(B)の構成における各部の詳細に関しては、L0側とL1側の扱いを逆として考えることで図8(B)の構成と同等の機能をもつと考えられることから、説明を省略する。   In the configuration of FIG. 8B, the L1 side motion vector information is generated based on the L0 side motion information, and the L1 side prediction signal is generated. On the other hand, in the configuration of FIG. 9B, the L0 side motion information is generated based on the L1 side motion information by reversing the handling of the L0 side and the L1 side, and the L0 side prediction signal is generated. This is different from the configuration shown in FIG. The details of each part in the configuration of FIG. 9B are omitted because the functions on the L0 side and the L1 side are considered to be reversed to have the same function as the configuration of FIG. 8B. .

図8(C)の構成では、L0側の動き情報を基本として、L1側の動きベクトル情報を生成し、L0側の予測信号とL1側の予測信号を生成した上で、双予測信号となる合成予測信号を生成するための構成であった。これに対し、図9(C)の構成は、L0側とL1側の扱いを逆として、L1側の動き情報を基本として、L0側の動きベクトル情報を生成し、L0側の予測信号とL1側の予測信号を生成した上で、双予測信号となる合成予測信号を生成するための構成とした点が図8(C)の構成と異なっている。図9(C)の構成における各部の詳細に関しては、L0側とL1側の扱いを逆として考えることで図8(C)の構成と同等の機能をもつと考えられることから、説明を省略する。   In the configuration of FIG. 8C, the L1 side motion vector information is generated based on the L0 side motion information, the L0 side prediction signal and the L1 side prediction signal are generated, and then the bi-prediction signal is obtained. The configuration is for generating a synthesized prediction signal. On the other hand, the configuration of FIG. 9C reverses the handling of the L0 side and the L1 side, generates the L0 side motion vector information based on the L1 side motion information, and generates the L0 side prediction signal and the L1 side. 8C is different from the configuration of FIG. 8C in that a configuration for generating a combined prediction signal to be a bi-prediction signal after generating a prediction signal on the side is generated. The details of each part in the configuration in FIG. 9C are omitted because the functions on the L0 side and the L1 side are considered to be reversed and the functions are the same as those in the configuration in FIG. .

次に、図8(A)の構成における動作について、図10のフローチャートを用いて説明する。   Next, the operation in the configuration of FIG. 8A will be described with reference to the flowchart of FIG.

まず、予測信号生成開始指令を受けると、L0側動き情報取得部801は、参照解析部105から、対象領域に属するL0側の動き情報としてL0側の参照情報、予測動きベクトル情報および予測修正情報を取得する(S301)。その後、L0側動き情報取得部801は、取得したL0側の動き情報を参照先変更部802に供給する。   First, upon receiving a prediction signal generation start command, the L0 side motion information acquisition unit 801 receives, from the reference analysis unit 105, L0 side reference information, prediction motion vector information, and prediction correction information as L0 side motion information belonging to the target region. Is acquired (S301). Thereafter, the L0 side motion information acquisition unit 801 supplies the acquired L0 side motion information to the reference destination changing unit 802.

参照先変更部802は、L0側動き情報取得部801からL0側の動き情報を取得する。参照先変更部802は、L0側の予測修正情報が「1」である場合には、所定の参照先変更処理により、参照情報を修正し、修正参照情報を生成する。このようにして、L0側の参照先を変更する(S302)。ここで、動作モードとして、第1L0片側予測モードの場合は、参照先変更処理を機能させず、参照情報を修正参照情報とすると良い。また、動作モードとして、第2L0片側予測モードの場合は、参照先変更処理を機能させるようにすると良い。その後、参照先変更部802は、取得および生成した動き情報を、L0側動き導出部803および参照ピクチャ取得部804に供給する。   The reference destination changing unit 802 acquires the L0 side motion information from the L0 side motion information acquisition unit 801. When the predicted correction information on the L0 side is “1”, the reference destination changing unit 802 corrects the reference information by a predetermined reference destination changing process, and generates corrected reference information. In this way, the reference destination on the L0 side is changed (S302). Here, in the case of the first L0 one-sided prediction mode as the operation mode, the reference destination changing process is not allowed to function, and the reference information may be the corrected reference information. Further, in the case of the second L0 one-side prediction mode as the operation mode, the reference destination changing process is preferably caused to function. Thereafter, the reference destination changing unit 802 supplies the acquired and generated motion information to the L0 side motion deriving unit 803 and the reference picture acquiring unit 804.

次に、L0側動き導出部803は、参照先変更部802から、L0側の動き情報を取得する。その後、L0側動き導出部803は、所定のL0側動き導出処理を行い、L0側の修正予測動きベクトル情報を導出する(S303)。その後、L0側動き導出部803は、取得および生成した動き情報を、L0側動き探索部806に供給する。   Next, the L0 side motion deriving unit 803 acquires the L0 side motion information from the reference destination changing unit 802. After that, the L0 side motion deriving unit 803 performs a predetermined L0 side motion deriving process to derive L0 side modified predicted motion vector information (S303). Thereafter, the L0 side motion deriving unit 803 supplies the acquired and generated motion information to the L0 side motion searching unit 806.

その後、参照ピクチャ取得部804は、参照先変更部802から、動き情報として修正参照情報を取得する。参照ピクチャ取得部804は、L0側の修正参照情報をピクチャ蓄積部102に供給し、特定された参照ピクチャを取得する(S304)。参照ピクチャ取得部804は、取得した参照ピクチャをL0側動き探索部806および片側予測信号生成部808に供給する。   Thereafter, the reference picture acquisition unit 804 acquires corrected reference information as motion information from the reference destination change unit 802. The reference picture acquisition unit 804 supplies the L0-side modified reference information to the picture storage unit 102, and acquires the identified reference picture (S304). The reference picture acquisition unit 804 supplies the acquired reference picture to the L0 side motion search unit 806 and the one side prediction signal generation unit 808.

その後、対象ピクチャ取得部805は、入力部101から対象信号を取得し(S305)、L0側動き探索部806に供給する。   Thereafter, the target picture acquisition unit 805 acquires a target signal from the input unit 101 (S305) and supplies the target signal to the L0 side motion search unit 806.

その後、L0側動き探索部806は、L0側動き導出部803からL0側の動き情報、参照ピクチャ取得部804から参照ピクチャ、および対象ピクチャ取得部805から対象信号をそれぞれ取得する。L0側動き探索部806は、取得した修正予測動きベクトル情報を利用して、例えばAVCのような、所定の動き探索処理を行うことでL0側の動き探索を行い、動きベクトル情報を確定させる(S306)。その後、L0側動き探索部806は、取得および生成した動き情報を、mvd生成部807に供給する。   Thereafter, the L0 side motion search unit 806 acquires the L0 side motion information from the L0 side motion deriving unit 803, the reference picture from the reference picture acquisition unit 804, and the target signal from the target picture acquisition unit 805, respectively. The L0 side motion search unit 806 performs the L0 side motion search by performing a predetermined motion search process such as AVC, for example, by using the obtained corrected predicted motion vector information, and determines the motion vector information ( S306). Thereafter, the L0 side motion search unit 806 supplies the acquired and generated motion information to the mvd generation unit 807.

次に、mvd生成部807は、L0側動き探索部806から動き情報を取得し、取得したL0側の動きベクトル情報からL0側の修正予測動きベクトル情報を減算し、L0側の残差動きベクトル情報を生成する(S307)。mvd生成部807は、取得および生成した動き情報を、片側予測信号生成部808に供給する。   Next, the mvd generation unit 807 obtains motion information from the L0 side motion search unit 806, subtracts the L0 side modified predicted motion vector information from the obtained L0 side motion vector information, and obtains an L0 side residual motion vector. Information is generated (S307). The mvd generation unit 807 supplies the acquired and generated motion information to the one-side prediction signal generation unit 808.

その後、片側予測信号生成部808は、mvd生成部807から動き情報、参照ピクチャ取得部804から参照ピクチャを取得する。片側予測信号生成部808は、取得した動きベクトル情報に基づいて、例えばAVCのような、所定の動き補償処理により、L0側の予測信号を生成する(S308)。その後、片側予測信号生成部808は、動作モードを特定するための動作モード情報、動き情報および予測信号を、モード判定部108に供給する。また、片側予測信号生成部808は、取得および生成した動き情報を、動作モード情報とともに動き情報蓄積部103に供給する。   Thereafter, the one-side prediction signal generation unit 808 acquires motion information from the mvd generation unit 807 and a reference picture from the reference picture acquisition unit 804. The one-side prediction signal generation unit 808 generates a prediction signal on the L0 side by a predetermined motion compensation process such as AVC based on the acquired motion vector information (S308). Thereafter, the one-side prediction signal generation unit 808 supplies operation mode information, motion information, and a prediction signal for specifying the operation mode to the mode determination unit 108. In addition, the one-side prediction signal generation unit 808 supplies the acquired and generated motion information to the motion information storage unit 103 together with the operation mode information.

以上のステップにより、図8(A)の構成における動作が完了する。   Through the above steps, the operation in the configuration of FIG.

次に、図8(B)の構成における動作について、図11のフローチャートを用いて説明する。   Next, the operation in the configuration of FIG. 8B will be described with reference to the flowchart of FIG.

まず、予測信号生成開始指令を受けると、L0側動き情報取得部821は、参照解析部105から、対象領域に属するL0側の動き情報としてL0側の参照情報、予測動きベクトル情報および予測修正情報を取得する(S401)。その後、L0側動き情報取得部821は、取得したL0側の動き情報を、参照先変更部823に供給する。   First, upon receiving a prediction signal generation start command, the L0 side motion information acquisition unit 821 receives L0 side reference information, prediction motion vector information, and prediction correction information from the reference analysis unit 105 as L0 side motion information belonging to the target region. Is acquired (S401). Thereafter, the L0 side motion information acquisition unit 821 supplies the acquired L0 side motion information to the reference destination changing unit 823.

L1側参照情報取得部822は、参照解析部105から、取得可能であれば、L1側の参照情報、予測修正情報を取得し(S402)、参照先変更部823に供給する。   The L1 side reference information acquisition unit 822 acquires the reference information and prediction correction information on the L1 side from the reference analysis unit 105 if it can be acquired (S402), and supplies them to the reference destination change unit 823.

その後、参照先変更部823は、L0側動き情報取得部821からL0側の動き情報、L1側参照情報取得部822からL1側の参照情報および予測修正情報を取得する。参照先変更部823は、L1側の予測修正情報が「1」である場合には、所定の参照先変更処理により、参照情報を修正し、修正参照情報を生成する。このようにしてL1側の参照先を変更する(S403)。ここで、動作モードとして、第1L0−L1片側予測モードの場合は、参照先変更処理を機能させず、参照情報を修正参照情報とすると良い。また、動作モードとして、第2L0−L1片側予測モードの場合は、参照先変更処理を機能させるようにすると良い。その後、参照先変更部823は、取得および生成したL0側およびL1側の動き情報を、L1側動き導出部824および参照ピクチャ取得部825に供給する。   Thereafter, the reference destination changing unit 823 acquires the L0 side motion information from the L0 side motion information acquisition unit 821, and the L1 side reference information and prediction correction information from the L1 side reference information acquisition unit 822. When the L1 side prediction correction information is “1”, the reference destination changing unit 823 corrects the reference information by a predetermined reference destination changing process, and generates corrected reference information. In this way, the reference destination on the L1 side is changed (S403). Here, in the case of the first L0-L1 one-sided prediction mode as the operation mode, the reference destination changing process is not allowed to function, and the reference information may be the corrected reference information. Further, in the case of the second L0-L1 one-side prediction mode as the operation mode, the reference destination changing process is preferably functioned. Thereafter, the reference destination changing unit 823 supplies the acquired and generated L0 side and L1 side motion information to the L1 side motion deriving unit 824 and the reference picture acquiring unit 825.

その後、L1側動き導出部824は、参照先変更部823から、L0側およびL1側の動き情報を取得する。その後、L1側動き導出部824は、所定のL1側動き導出処理を行い、L0側からL1側の修正予測動きベクトル情報を導出する(S404)。その後、L1側動き導出部824は、取得および生成したL0側およびL1側の動き情報を、L1側動き探索部827に供給する。   Thereafter, the L1 side motion deriving unit 824 acquires the L0 side and L1 side motion information from the reference destination changing unit 823. Thereafter, the L1 side motion deriving unit 824 performs a predetermined L1 side motion deriving process, and derives L1 side modified predicted motion vector information from the L0 side (S404). Thereafter, the L1 side motion deriving unit 824 supplies the acquired and generated L0 side and L1 side motion information to the L1 side motion search unit 827.

次に、参照ピクチャ取得部825は、参照先変更部823から、L1側の動き情報として修正参照情報を取得する。参照ピクチャ取得部825は、L1側の修正参照情報をピクチャ蓄積部102に供給し、特定された参照ピクチャを取得する(S405)。その後、参照ピクチャ取得部825は、取得した参照ピクチャをL1側動き探索部827および片側予測信号生成部829に供給する。   Next, the reference picture acquisition unit 825 acquires the corrected reference information as the motion information on the L1 side from the reference destination changing unit 823. The reference picture acquisition unit 825 supplies the L1 side modified reference information to the picture storage unit 102, and acquires the identified reference picture (S405). Thereafter, the reference picture acquisition unit 825 supplies the acquired reference picture to the L1 side motion search unit 827 and the one side prediction signal generation unit 829.

その後、対象ピクチャ取得部826は、入力部101から対象信号を取得し(S406)、L1側動き探索部827に供給する。   Thereafter, the target picture acquisition unit 826 acquires the target signal from the input unit 101 (S406) and supplies the target signal to the L1 side motion search unit 827.

次に、L1側動き探索部827は、L1側動き導出部824からL0側およびL1側の動き情報、参照ピクチャ取得部825から参照ピクチャ、ならびに対象ピクチャ取得部826から対象信号をそれぞれ取得する。その後、L1側動き探索部827は、取得したL1側の修正予測動きベクトル情報を利用して、例えばAVCのような、所定の動き探索処理を行い、L1側の動きベクトル情報を確定させる(S407)。その後、L1側動き探索部827は、取得および生成したL0側およびL1側の動き情報を、mvd生成部828に供給する。   Next, the L1 side motion search unit 827 acquires the L0 side and L1 side motion information from the L1 side motion derivation unit 824, the reference picture from the reference picture acquisition unit 825, and the target signal from the target picture acquisition unit 826, respectively. After that, the L1 side motion search unit 827 performs a predetermined motion search process such as AVC by using the acquired L1 side corrected predicted motion vector information to determine the L1 side motion vector information (S407). ). Thereafter, the L1 side motion search unit 827 supplies the acquired and generated motion information on the L0 side and the L1 side to the mvd generation unit 828.

その後、mvd生成部828は、L1側動き探索部827からL0側およびL1側の動き情報を取得し、取得したL1側の動きベクトル情報からL1側の修正予測動きベクトル情報を減算し、L1側の残差動きベクトル情報を生成する(S408)。その後、mvd生成部828は、取得および生成したL0側およびL1側の動き情報を、片側予測信号生成部829に供給する。   After that, the mvd generation unit 828 acquires the L0 side and L1 side motion information from the L1 side motion search unit 827, subtracts the L1 side corrected predicted motion vector information from the acquired L1 side motion vector information, Residual motion vector information is generated (S408). Thereafter, the mvd generation unit 828 supplies the acquired and generated movement information on the L0 side and the L1 side to the one-side prediction signal generation unit 829.

その後、片側予測信号生成部829は、mvd生成部828からL0側およびL1側の動き情報、参照ピクチャ取得部825から参照ピクチャを取得する。その後、片側予測信号生成部829は、取得したL1側の動きベクトル情報に基づいて、例えばAVCのような、所定の動き補償処理により、L1側の予測信号を生成する(S409)。片側予測信号生成部829は、動作モードを特定するための動作モード情報、動き情報および予測信号を、モード判定部108に供給する。片側予測信号生成部829は、取得および生成したL0側およびL1側の動き情報を、動作モード情報とともに動き情報蓄積部103に供給する。   Thereafter, the one-side prediction signal generation unit 829 acquires the L0 side and L1 side motion information from the mvd generation unit 828 and the reference picture from the reference picture acquisition unit 825. Thereafter, the one-side prediction signal generation unit 829 generates a prediction signal on the L1 side by a predetermined motion compensation process such as AVC based on the acquired L1-side motion vector information (S409). The one-side prediction signal generation unit 829 supplies the mode determination unit 108 with operation mode information, motion information, and a prediction signal for specifying the operation mode. The one-side prediction signal generation unit 829 supplies the acquired and generated L0 side and L1 side motion information to the motion information storage unit 103 together with the operation mode information.

以上のステップにより、図8(B)の構成における動作が完了する。   Through the above steps, the operation in the configuration of FIG. 8B is completed.

次に、図8(C)の構成における動作について、図12のフローチャートを用いて説明する。   Next, the operation in the configuration of FIG. 8C will be described with reference to the flowchart of FIG.

まず、予測信号生成開始指令を受けると、L0側動き情報取得部841は、参照解析部105から、対象領域に属するL0側の動き情報としてL0側の参照情報、予測動きベクトル情報および予測修正情報を取得する(S501)。その後、L0側動き情報取得部841は、取得したL0側の動き情報を、参照先変更部843に供給する。   First, upon receiving a prediction signal generation start command, the L0 side motion information acquisition unit 841 receives L0 side reference information, prediction motion vector information, and prediction correction information from the reference analysis unit 105 as L0 side motion information belonging to the target region. Is acquired (S501). Thereafter, the L0 side motion information acquisition unit 841 supplies the acquired L0 side motion information to the reference destination changing unit 843.

その後、L1側参照情報取得部842は、参照解析部105から、取得可能であれば、L1側の参照情報および予測修正情報を取得し(S502)、参照先変更部843に供給する。   After that, the L1 side reference information acquisition unit 842 acquires the reference information and prediction correction information on the L1 side from the reference analysis unit 105 if it can be acquired (S502), and supplies them to the reference destination change unit 843.

次に、参照先変更部843は、L0側動き情報取得部821からL0側の動き情報、L1側参照情報取得部822からL1側の参照情報および予測修正情報を取得する。参照先変更部843は、L0側の予測修正情報が「1」である場合には、所定の参照先変更処理により、L0側の参照情報を修正し、L0側の修正参照情報を生成する。同様に、参照先変更部843は、L1側の予測修正情報が「1」である場合には、所定の参照先変更処理により、L1側の参照情報を修正し、L1側の修正参照情報を生成する。このようにして、L0側および/またはL1側の参照先を変更する(S503)。ここで、動作モードとして、第1L0−L1双予測モードの場合は、この所定の参照先変更処理を機能させず、参照情報を修正参照情報にすると良い。また、動作モードとして、第2L0−L1双予測モード、第3L0−L1双予測モードおよび第4L0−L1双予測モードの場合は、この所定の参照先変更処理を機能させるようにすると良い。その後、参照先変更部843は、取得および生成したL0側の動き情報をL0側動き導出部844、取得および生成したL0側およびL1側の動き情報をL1側動き導出部845および参照ピクチャ取得部846に供給する。   Next, the reference destination changing unit 843 acquires the L0 side motion information from the L0 side motion information acquisition unit 821, and the L1 side reference information and prediction correction information from the L1 side reference information acquisition unit 822. When the prediction correction information on the L0 side is “1”, the reference destination changing unit 843 corrects the reference information on the L0 side by a predetermined reference destination changing process, and generates correction reference information on the L0 side. Similarly, when the prediction correction information on the L1 side is “1”, the reference destination changing unit 843 corrects the reference information on the L1 side by a predetermined reference destination changing process, and changes the reference reference information on the L1 side. Generate. In this way, the reference destination on the L0 side and / or the L1 side is changed (S503). Here, in the case of the first L0-L1 bi-prediction mode as the operation mode, the predetermined reference destination changing process is not allowed to function, and the reference information may be the corrected reference information. Further, in the case of the second L0-L1 bi-prediction mode, the third L0-L1 bi-prediction mode, and the fourth L0-L1 bi-prediction mode as the operation mode, the predetermined reference destination changing process is preferably made to function. After that, the reference destination changing unit 843 obtains and generates the L0 side motion deriving unit 844 for the L0 side motion information, and acquires and generates the L0 side and L1 side motion information for the L1 side motion deriving unit 845 and the reference picture obtaining unit. 846.

次に、L0側動き導出部844は、参照先変更部843から、L0側の動き情報を取得する。その後、L0側動き導出部844は、所定のL0側動き導出処理を行い、L0側からL0側の修正予測動きベクトル情報を導出する(S504)。その後、L0側動き導出部844は、取得および生成したL0側の動き情報を、双予測信号生成部850に供給する。   Next, the L0 side motion deriving unit 844 acquires the L0 side motion information from the reference destination changing unit 843. Thereafter, the L0 side motion deriving unit 844 performs a predetermined L0 side motion deriving process, and derives L0 side corrected predicted motion vector information from the L0 side (S504). Thereafter, the L0 side motion deriving unit 844 supplies the acquired and generated L0 side motion information to the bi-prediction signal generation unit 850.

また、L1側動き導出部845は、参照先変更部843から、L0側およびL1側の動き情報を取得する。その後、L1側動き導出部845は、所定のL1側動き導出処理を行い、L0側からL1側の修正予測動きベクトル情報を導出する(S505)。その後、L1側動き導出部845は、取得および生成したL0側およびL1側の動き情報を、L1側動き探索部848に供給する。   In addition, the L1 side motion deriving unit 845 acquires the L0 side and L1 side motion information from the reference destination changing unit 843. Thereafter, the L1 side motion deriving unit 845 performs a predetermined L1 side motion deriving process, and derives L1 side corrected predicted motion vector information from the L0 side (S505). Thereafter, the L1 side motion deriving unit 845 supplies the acquired and generated L0 side and L1 side motion information to the L1 side motion search unit 848.

参照ピクチャ取得部846は、参照先変更部843から、L0側およびL1側の動き情報として修正参照情報を取得する。その後、参照ピクチャ取得部846は、L0側およびL1側の修正参照情報をピクチャ蓄積部102に供給し、特定されたL0側およびL1側の参照ピクチャを取得する(S506)。その後、参照ピクチャ取得部846は、取得したL1側の参照ピクチャをL1側動き探索部827に供給する。また、参照ピクチャ取得部846は、取得したL0側およびL1側の参照ピクチャを双予測信号生成部850に供給する。   The reference picture acquisition unit 846 acquires the modified reference information as the motion information on the L0 side and the L1 side from the reference destination changing unit 843. Thereafter, the reference picture acquisition unit 846 supplies the L0 side and L1 side modified reference information to the picture storage unit 102, and acquires the specified L0 side and L1 side reference pictures (S506). Thereafter, the reference picture acquisition unit 846 supplies the acquired L1 side reference picture to the L1 side motion search unit 827. Also, the reference picture acquisition unit 846 supplies the acquired L0 side and L1 side reference pictures to the bi-prediction signal generation unit 850.

また、対象ピクチャ取得部847は、入力部101から対象信号を取得し(S507)、L1側動き探索部848に供給する。   Further, the target picture acquisition unit 847 acquires the target signal from the input unit 101 (S507) and supplies the target signal to the L1 side motion search unit 848.

次に、L1側動き探索部848は、L1側動き導出部845からL0側およびL1側の動き情報、参照ピクチャ取得部846から参照ピクチャ、および対象ピクチャ取得部847から対象信号をそれぞれ取得する。その後、L1側動き探索部848は、取得したL1側の修正予測動きベクトル情報を利用して、例えばAVCのような、所定の動き探索処理によってL1側の動き探索を行い、動きベクトル情報を確定させる(S508)。その後、L1側動き探索部848は、取得および生成したL0側およびL1側の動き情報を、mvd生成部849に供給する。   Next, the L1 side motion search unit 848 acquires the L0 side and L1 side motion information from the L1 side motion deriving unit 845, the reference picture from the reference picture acquisition unit 846, and the target signal from the target picture acquisition unit 847, respectively. After that, the L1 side motion search unit 848 performs the L1 side motion search by a predetermined motion search process such as AVC, for example, using the acquired L1 side corrected prediction motion vector information, and determines the motion vector information. (S508). Thereafter, the L1 side motion search unit 848 supplies the acquired and generated L0 side and L1 side motion information to the mvd generation unit 849.

次に、mvd生成部849は、L1側動き探索部848からL0側およびL1側の動き情報を取得し、取得したL1側の動きベクトル情報からL1側の修正予測動きベクトル情報を減算し、L1側の残差動きベクトル情報を生成する(S509)。その後、mvd生成部849は、取得および生成したL0側およびL1側の動き情報を、双予測信号生成部850に供給する。   Next, the mvd generation unit 849 acquires the L0 side and L1 side motion information from the L1 side motion search unit 848, subtracts the L1 side corrected predicted motion vector information from the acquired L1 side motion vector information, and outputs the L1 side motion information. Side residual motion vector information is generated (S509). Thereafter, the mvd generation unit 849 supplies the acquired and generated motion information on the L0 side and the L1 side to the bi-prediction signal generation unit 850.

次に、双予測信号生成部850は、mvd生成部828からL0側およびL1側の動き情報、参照ピクチャ取得部825からL0側およびL1側の参照ピクチャを取得する。その後、双予測信号生成部850は、取得したL0側の修正予測動きベクトル情報に基づいて、例えばAVCのような、所定の動き補償処理により、L0側の予測信号を生成する(S510)。   Next, the bi-prediction signal generation unit 850 acquires the L0 side and L1 side motion information from the mvd generation unit 828, and the L0 side and L1 side reference pictures from the reference picture acquisition unit 825. Thereafter, the bi-prediction signal generation unit 850 generates a prediction signal on the L0 side by a predetermined motion compensation process such as AVC based on the acquired corrected prediction motion vector information on the L0 side (S510).

また、双予測信号生成部850は、取得したL1側の動きベクトル情報に基づいて、例えばAVCのような、所定の動き補償処理により、L1側の予測信号を生成する(S511)。   Further, the bi-prediction signal generation unit 850 generates an L1 side prediction signal by a predetermined motion compensation process such as AVC based on the acquired L1 side motion vector information (S511).

その後、双予測信号生成部850は、生成したL0側の予測信号とL1側の予測信号を合成した合成予測信号を生成する(S512)ことで、双予測信号を得る。その後、双予測信号生成部850は、動作モードを特定するための動作モード情報、取得および生成したL0側およびL1側の動き情報、および合成予測信号を、モード判定部108に供給する。双予測信号生成部850は、取得および生成したL0側およびL1側の動き情報を、動作モード情報とともに動き情報蓄積部103に供給する。   Thereafter, the bi-prediction signal generation unit 850 generates a combined prediction signal by combining the generated L0-side prediction signal and the L1-side prediction signal (S512), thereby obtaining a bi-prediction signal. Thereafter, the bi-prediction signal generation unit 850 supplies the mode determination unit 108 with the operation mode information for specifying the operation mode, the acquired and generated motion information on the L0 side and the L1 side, and the combined prediction signal. The bi-prediction signal generation unit 850 supplies the acquired and generated motion information on the L0 side and the L1 side to the motion information storage unit 103 together with the operation mode information.

以上のステップにより、図8(C)の構成における動作が完了する。   Through the above steps, the operation in the configuration of FIG. 8C is completed.

図9(A)の構成における動作は、図13のフローチャートによって示される。ここで、図9(A)の構成における動作は、図8(A)の構成における動作を示す図10において、L0側とL1側の扱いを逆として、動作させたものと同等であることから、説明を省略する。   The operation in the configuration of FIG. 9A is shown by the flowchart of FIG. Here, the operation in the configuration of FIG. 9A is equivalent to the operation in FIG. 10 showing the operation in the configuration of FIG. 8A with the handling of the L0 side and the L1 side reversed. The description is omitted.

図9(B)の構成における動作は、図14のフローチャートによって示される。ここで、図9(B)の構成における動作は、図8(B)の構成における動作を示す図11において、L0側とL1側の扱いを逆として、動作させたものと同等であることから、説明を省略する。   The operation in the configuration of FIG. 9B is shown by the flowchart of FIG. Here, the operation in the configuration in FIG. 9B is equivalent to the operation in FIG. 11 showing the operation in the configuration in FIG. 8B with the handling of the L0 side and the L1 side reversed. The description is omitted.

図9(C)の構成における動作は、図15のフローチャートによって示される。ここで、図9(C)の構成における動作は、図8(C)の構成における動作を示す図12において、L0側とL1側の扱いを逆として、動作させたものと同等であることから、説明を省略する。   The operation in the configuration of FIG. 9C is shown by the flowchart of FIG. Here, the operation in the configuration of FIG. 9C is equivalent to the operation in FIG. 12 showing the operation in the configuration of FIG. 8C with the handling of the L0 side and the L1 side reversed. The description is omitted.

ここで、実施の形態2の動画像符号化装置100の構成および動作により、以下のような効果が得られる。   Here, the following effects are obtained by the configuration and operation of the moving picture coding apparatus 100 of the second embodiment.

まず、実施の形態2の動画像符号化装置100における、第1修正予測信号生成部106の構成を、図8(A)に示されるような、図7(A)の第1L0片側予測信号生成部106−1、第2L0片側予測信号生成部106−2を含むようにする。これにより、L0側の動き情報を基本として、L0側の動きベクトル情報を生成し、L0側の予測信号を生成できるようになる。これにより、実施の形態2の動画像符号化装置100において、L0側の動き情報だけしか利用できない場合においても、L0側の参照情報の参照先を変更できるようにすることで、より多くの動作モードによる動きベクトル情報や予測信号が得られるようになる。よって、多くの動作モードによる結果の中から、より少ない符号量で符号化できる動作モードを特定し、その動作モードで符号化して符号列を生成することができるようになる。また、実施の形態2の動画像符号化装置100のような構成をもつことにより、従来の手法により残差動きベクトル情報、参照情報および予測信号を符号化する際に必要となる符号量以下となるような、動作モードによる結果を選定し、符号化することで、従来の手法による符号量以下の符号量で符号列を生成できるようになる。   First, the configuration of the first modified prediction signal generation unit 106 in the video encoding device 100 according to the second embodiment is configured to generate the first L0 one-side prediction signal in FIG. 7A as shown in FIG. Unit 106-1 and the second L0 one-side prediction signal generation unit 106-2. Thereby, based on the L0 side motion information, the L0 side motion vector information can be generated, and the L0 side prediction signal can be generated. Thereby, in the moving picture coding apparatus 100 of Embodiment 2, even when only the motion information on the L0 side can be used, the reference destination of the reference information on the L0 side can be changed, so that more operations can be performed. Motion vector information and prediction signals according to modes can be obtained. Therefore, it becomes possible to identify an operation mode that can be encoded with a smaller code amount from the results of many operation modes, and generate a code string by encoding in the operation mode. Further, by having a configuration like the moving image encoding apparatus 100 of the second embodiment, the code amount is equal to or less than that required when encoding residual motion vector information, reference information, and a prediction signal by a conventional method. By selecting and encoding the result according to the operation mode, a code string can be generated with a code amount equal to or less than the code amount according to the conventional method.

また、実施の形態2の動画像符号化装置100における、第2修正予測信号生成部107の構成を、図9(A)に示されるような、図7(B)の第1L1片側予測信号生成部107−1および第2L1片側予測信号生成部107−2を含むようにする。これにより、L1側の動き情報を基本として、L1側の動きベクトル情報を生成し、L1側の予測信号を生成できるようになる。したがって、上述の図8(A)に示されるような構成による効果と同様に、従来の手法による符号量以下の符号量で符号列を生成できるようになる。   In addition, the configuration of the second modified prediction signal generation unit 107 in the moving picture coding apparatus 100 according to Embodiment 2 is configured to generate the first L1 one-side prediction signal in FIG. 7B as shown in FIG. 9A. Unit 107-1 and second L1 one-side predicted signal generation unit 107-2. Thereby, based on the motion information on the L1 side, motion vector information on the L1 side can be generated, and a prediction signal on the L1 side can be generated. Therefore, similarly to the effect of the configuration shown in FIG. 8A, a code string can be generated with a code amount equal to or less than the code amount according to the conventional method.

また、実施の形態2の動画像符号化装置100における、第1修正予測信号生成部106の構成を、図8(B)に示されるような、図7(A)の第1L0−L1片側予測信号生成部106−3および第2L0−L1片側予測信号生成部106−4を含むようにする。これにより、L0側の動き情報を基本として、L1側の修正予測動きベクトル情報を導出し、L1側の動きベクトル情報を生成し、L1側の予測信号を生成することができるようになる。また、L1側の修正予測動きベクトル情報を導出する際に利用する参照情報に対して、所定の方法に基づいて参照先を変更することで修正参照情報を生成し、L1側の修正予測動きベクトル情報の導出に利用するような動作モードをもつことにより、より多くの動作モードによる動きベクトル情報や予測信号が得られるようになる。よって、多くの動作モードによる結果の中から、より少ない符号量で符号化できる動作モードを特定し、その動作モードで符号化して符号列を生成することができるようになる。また、実施の形態2の動画像符号化装置100のような構成をもつことにより、従来の手法により残差動きベクトル情報、参照情報および予測信号を符号化する際に必要となる符号量以下となるような、動作モードによる結果を選定し、符号化することで、従来の手法による符号量以下の符号量で符号列を生成できるようになる。   In addition, the configuration of the first modified prediction signal generation unit 106 in the video encoding device 100 according to the second embodiment is the first L0-L1 one-sided prediction in FIG. 7A as shown in FIG. 8B. The signal generation unit 106-3 and the second L0-L1 one-side prediction signal generation unit 106-4 are included. As a result, based on the L0 side motion information, the L1 side modified prediction motion vector information can be derived, the L1 side motion vector information can be generated, and the L1 side prediction signal can be generated. Further, with respect to the reference information used when deriving the L1 side corrected predicted motion vector information, modified reference information is generated by changing the reference destination based on a predetermined method, and the L1 side corrected predicted motion vector is generated. By having an operation mode used for derivation of information, motion vector information and prediction signals in more operation modes can be obtained. Therefore, it becomes possible to identify an operation mode that can be encoded with a smaller code amount from the results of many operation modes, and generate a code string by encoding in the operation mode. Further, by having a configuration like the moving image encoding apparatus 100 of the second embodiment, the code amount is equal to or less than that required when encoding residual motion vector information, reference information, and a prediction signal by a conventional method. By selecting and encoding the result according to the operation mode, a code string can be generated with a code amount equal to or less than the code amount according to the conventional method.

また、実施の形態2の動画像符号化装置100における、第2修正予測信号生成部107の構成を、図9(B)に示されるような、図7(B)の第1L1−L0片側予測信号生成部107−3および第2L1−L0片側予測信号生成部107−4を含むようにする。これにより、L1側の動き情報を基本として、L0側の修正予測動きベクトル情報を導出し、L0側の動きベクトル情報を生成し、L0側の予測信号を生成することができるようになる。したがって、上述の図8(B)に示されるような構成による効果と同様に、従来の手法による符号量以下の符号量で符号列を生成できるようになる。   In addition, the configuration of the second modified prediction signal generation unit 107 in the video encoding device 100 according to Embodiment 2 is the first L1-L0 one-sided prediction in FIG. 7B as shown in FIG. 9B. The signal generation unit 107-3 and the second L1-L0 one-side prediction signal generation unit 107-4 are included. As a result, based on the L1 side motion information, the L0 side modified prediction motion vector information can be derived, the L0 side motion vector information can be generated, and the L0 side prediction signal can be generated. Therefore, similarly to the effect of the configuration shown in FIG. 8B, a code string can be generated with a code amount equal to or less than the code amount according to the conventional method.

また、実施の形態2の動画像符号化装置100における、第1修正予測信号生成部106の構成を、図8(C)に示されるような、図7(A)の第1L0−L1双予測信号生成部106−5、第2L0−L1双予測信号生成部106−6、第3L0−L1双予測信号生成部106−7および第4L0−L1双予測信号生成部106−8を含むようにする。これにより、L0側の動き情報を基本として、L1側の動きベクトル情報を生成し、L0側の予測信号とL1側の予測信号を生成した上で、双予測信号となる合成予測信号を生成することができるようになる。   In addition, the configuration of the first modified prediction signal generation unit 106 in the video encoding device 100 according to the second embodiment is the first L0-L1 bi-prediction in FIG. 7A as shown in FIG. 8C. A signal generation unit 106-5, a second L0-L1 bi-prediction signal generation unit 106-6, a third L0-L1 bi-prediction signal generation unit 106-7, and a fourth L0-L1 bi-prediction signal generation unit 106-8. . Thus, based on the L0 side motion information, the L1 side motion vector information is generated, the L0 side prediction signal and the L1 side prediction signal are generated, and then the combined prediction signal that becomes the bi-prediction signal is generated. Will be able to.

(1)L0側およびL1側ともに参照先を変更しないようにする動作モードである第1L0−L1双予測モード、
(2)L0側は参照先を変更しないようにし、L1側の修正予測動きベクトル情報を導出する際に利用する参照情報に対して、所定の方法に基づいて参照先を変更することで修正参照情報を生成し、L1側の修正予測動きベクトル情報の導出に利用するような動作モードである第2L0−L1双予測モード、
(3)L0側の修正予測動きベクトル情報を導出する際に利用する参照情報に対して、所定の方法に基づいて参照先を変更することで修正参照情報を生成し、L0側の修正予測動きベクトル情報の導出に利用し、L1側は参照先を変更しないようにする動作モードである第3L0−L1双予測モード、
(4)L0側およびL1側ともに参照先を変更することでL0側およびL1側の修正参照情報を生成し、L0側およびL1側の修正予測動きベクトル情報の導出に利用するような動作モードである第4L0−L1双予測モード、
等をもつことにより、より多くの動作モードによる動きベクトル情報や予測信号が得られるようになる。よって、多くの動作モードによる結果の中から、より少ない符号量で符号化できる動作モードを特定し、その動作モードで符号化して符号列を生成することができるようになる。また、実施の形態2の動画像符号化装置100のような構成をもつことにより、従来の手法により残差動きベクトル情報、参照情報および予測信号を符号化する際に必要となる符号量以下となるような、動作モードによる結果を選定し、符号化することで、従来の手法による符号量以下の符号量で符号列を生成できるようになる。
(1) a first L0-L1 bi-prediction mode that is an operation mode in which the reference destination is not changed on both the L0 side and the L1 side;
(2) The reference destination is not changed on the L0 side, and the reference is modified by changing the reference destination based on a predetermined method with respect to the reference information used when the corrected motion vector information on the L1 side is derived. A second L0-L1 bi-prediction mode, which is an operation mode that generates information and is used for deriving the L1 side modified prediction motion vector information;
(3) For the reference information used when deriving the L0-side corrected predicted motion vector information, corrected reference information is generated by changing the reference destination based on a predetermined method, and the L0-side corrected predicted motion A third L0-L1 bi-prediction mode, which is an operation mode that is used for deriving vector information and does not change the reference destination on the L1 side,
(4) In an operation mode in which modified reference information on the L0 side and the L1 side is generated by changing the reference destination on both the L0 side and the L1 side, and is used to derive the modified predicted motion vector information on the L0 side and the L1 side. A fourth L0-L1 bi-prediction mode,
Etc., motion vector information and prediction signals in more operation modes can be obtained. Therefore, it becomes possible to identify an operation mode that can be encoded with a smaller code amount from the results of many operation modes, and generate a code string by encoding in the operation mode. Further, by having a configuration like the moving image encoding apparatus 100 of the second embodiment, the code amount is equal to or less than that required when encoding residual motion vector information, reference information, and a prediction signal by a conventional method. By selecting and encoding the result according to the operation mode, a code string can be generated with a code amount equal to or less than the code amount according to the conventional method.

第2L0−L1双予測モードにおいては、動き予測部104から得られるL0側の予測動きベクトル情報および参照情報の精度が良く、これらによって得られるL0側の予測信号の品質は良いが、動き予測部104から得られるL1側の参照情報に基づいて、L0側の予測動きベクトル情報から導出される修正予測動きベクトル情報の精度があまり良くない場合において有効に機能する。このような場合において、L1側の参照先を変更することで、導出される修正予測動きベクトル情報によって、より良い予測信号が得られそうな参照ピクチャに切り替えるとともに、動き探索を行って修正予測動きベクトル情報を修正し、更に良い予測信号が得られる動きベクトル情報を特定して得られる残差動きベクトル情報、参照情報もしくは修正参照情報および合成予測信号の情報量が、従来の手法による情報量以下となる場合に有効な動作モードとなる。   In the second L0-L1 bi-prediction mode, the accuracy of the L0 side predicted motion vector information and the reference information obtained from the motion prediction unit 104 is good, and the quality of the L0 side prediction signal obtained by these is good, but the motion prediction unit Based on the reference information on the L1 side obtained from 104, it functions effectively when the accuracy of the modified prediction motion vector information derived from the prediction motion vector information on the L0 side is not very good. In such a case, by changing the reference destination on the L1 side, switching to a reference picture that is likely to obtain a better prediction signal according to the derived corrected prediction motion vector information, and performing a motion search to correct the prediction motion The amount of residual motion vector information, reference information or modified reference information obtained by correcting vector information and identifying motion vector information that can obtain a better prediction signal, and the amount of information of the combined prediction signal are less than the amount of information by the conventional method This is an effective operation mode.

第3L0−L1双予測モードにおいては、動き予測部104から得られるL0側の参照情報から特定される参照ピクチャの品質があまり良くないが、動き予測部104から得られるL1側の参照情報に基づいて、L0側の予測動きベクトル情報から導出される修正予測動きベクトル情報の精度は比較的良い場合において有効に機能する。このような場合において、L0側の参照先を変更することで、より良い予測信号が得られそうな参照ピクチャに切り替えるとともに、L0側の修正予測動きベクトル情報を導出し、より良いL0側の予測信号を得ることで、L1側の予測信号と合成して得られる合成予測信号の品質を向上させて得られる残差動きベクトル情報、参照情報もしくは修正参照情報および合成予測信号の情報量が、従来の手法による情報量以下となる場合に有効な動作モードとなる。   In the third L0-L1 bi-prediction mode, the quality of the reference picture specified from the reference information on the L0 side obtained from the motion prediction unit 104 is not so good, but based on the reference information on the L1 side obtained from the motion prediction unit 104. Thus, the accuracy of the modified predicted motion vector information derived from the L0 side predicted motion vector information functions effectively when the accuracy is relatively good. In such a case, by changing the reference destination on the L0 side, switching to a reference picture from which a better prediction signal is likely to be obtained, deriving the L0 side modified prediction motion vector information, and better prediction on the L0 side By obtaining a signal, residual motion vector information, reference information or modified reference information obtained by improving the quality of a combined prediction signal obtained by combining with a prediction signal on the L1 side, and the information amount of the combined prediction signal are conventionally This is an effective operation mode when the amount of information is less than or equal to that of the above method.

第4L0−L1双予測モードにおいては、動き予測部104から得られるL0側およびL1側の参照情報から特定される参照ピクチャの品質があまり良くなく、またL0側の予測動きベクトル情報の精度があまり良くないために、L1側の修正予測動きベクトル情報の精度もあまり良くない場合において有効に機能する。このような場合において、L0側の参照先を変更することで、より良い予測信号が得られそうな参照ピクチャに切り替えるとともに、L0側の修正予測動きベクトル情報を導出し、より良いL0側の予測信号を得る。また、L1側の参照先を変更し、L0側の予測動きベクトル情報からL1側の修正予測動きベクトル情報を導出することで、より良い予測信号が得られそうな参照ピクチャに切り替えるとともに、動き探索を行ってL1側の修正予測動きベクトル情報を修正し、更に良い予測信号が得られる動きベクトル情報を特定することで、より良いL1側の予測信号を得る。このようにして、得られたL0側の予測信号とL1側の予測信号と合成して得られる合成予測信号の品質を向上させて得られる残差動きベクトル情報、参照情報もしくは修正参照情報および合成予測信号の情報量が、従来の手法による情報量以下となる場合に有効な動作モードとなる。   In the fourth L0-L1 bi-prediction mode, the quality of the reference picture specified from the L0 side and L1 side reference information obtained from the motion prediction unit 104 is not very good, and the accuracy of the prediction motion vector information on the L0 side is not so good. Since it is not good, it functions effectively when the accuracy of the modified predicted motion vector information on the L1 side is not very good. In such a case, by changing the reference destination on the L0 side, switching to a reference picture from which a better prediction signal is likely to be obtained, deriving the L0 side modified prediction motion vector information, and better prediction on the L0 side Get a signal. In addition, by changing the reference destination on the L1 side and deriving the L1 side modified prediction motion vector information from the L0 side prediction motion vector information, the reference picture that is likely to obtain a better prediction signal is switched and a motion search is performed. To correct the L1 side corrected predicted motion vector information, and specify motion vector information from which a better prediction signal can be obtained, thereby obtaining a better L1 side prediction signal. In this way, residual motion vector information, reference information or modified reference information and synthesis obtained by improving the quality of the synthesized prediction signal obtained by synthesizing the obtained L0 side prediction signal and the L1 side prediction signal. This is an effective operation mode when the information amount of the prediction signal is equal to or less than the information amount according to the conventional method.

また、上述のような第1から第4のL0−L1双予測モードをもつことで、参照先の変更や、一方の修正予測動きベクトル情報に対して動き探索により修正することにより、従来の空間的、時間的なダイレクトモードでは難しかった、L0側の予測信号およびL1側の予測信号の品質を、少ない情報量で変化させ、合成予測信号の品質を従来の手法による合成予測信号の品質以上となるように制御することができる。   In addition, by having the first to fourth L0-L1 bi-prediction modes as described above, it is possible to change the reference destination or to correct one of the corrected predicted motion vector information by motion search, so that the conventional space The quality of the prediction signal on the L0 side and the prediction signal on the L1 side is changed with a small amount of information, which is difficult in the direct mode in time and time, and the quality of the composite prediction signal is higher than the quality of the composite prediction signal by the conventional method. Can be controlled.

また、上述のような第1から第4のL0−L1双予測モードをもつことで、従来の手法による双予測のように、2つの予測動きベクトル情報から2つの動きベクトル情報を確定させるとともに、2つの残差動きベクトル情報を符号化する必要がなくなるため、動き情報に関して、より効率の良い符号列を生成することができる。   Further, by having the first to fourth L0-L1 bi-prediction modes as described above, two motion vector information is determined from two prediction motion vector information as in the bi-prediction according to the conventional method, Since it is not necessary to encode the two residual motion vector information, a more efficient code string can be generated for the motion information.

また、実施の形態2の動画像符号化装置100における、第2修正予測信号生成部107の構成を、図9(C)に示されるような、図7(B)の第1L1−L0双予測信号生成部107−5、第2L1−L0双予測信号生成部107−6、第3L1−L0双予測信号生成部107−7および第4L1−L0双予測信号生成部107−8を含むようにする。これにより、L1側の動き情報を基本として、L0側の動きベクトル情報を生成し、L0側の予測信号とL1側の予測信号を生成した上で、双予測信号となる合成予測信号を生成することができるようになる。したがって、上述の図8(C)に示されるような構成による効果と同様に、従来の手法による符号量以下の符号量で符号列を生成できるようになる。   In addition, the configuration of the second modified prediction signal generation unit 107 in the moving picture coding apparatus 100 according to Embodiment 2 is the first L1-L0 bi-prediction of FIG. 7B as shown in FIG. 9C. A signal generation unit 107-5, a second L1-L0 bi-prediction signal generation unit 107-6, a third L1-L0 bi-prediction signal generation unit 107-7, and a fourth L1-L0 bi-prediction signal generation unit 107-8. . As a result, based on the L1 side motion information, L0 side motion vector information is generated, a L0 side prediction signal and an L1 side prediction signal are generated, and then a combined prediction signal to be a bi-prediction signal is generated. Will be able to. Therefore, similarly to the effect of the configuration shown in FIG. 8C, the code string can be generated with a code amount equal to or less than the code amount according to the conventional method.

次に、実施の形態2の動画像復号装置として、実施の形態1の動画像復号装置200における、第1修正予測信号生成部210および第2修正予測信号生成部211をより詳細な構成によって実現したものについて示す。実施の形態2における、第1修正予測信号生成部210および第2修正予測信号生成部211の詳細な構成に関して、図7(C)、図7(D)を利用して説明する。   Next, as the moving picture decoding apparatus according to the second embodiment, the first modified prediction signal generation unit 210 and the second modified prediction signal generation unit 211 in the moving picture decoding apparatus 200 according to the first embodiment are realized with a more detailed configuration. I will show you what I did. Detailed configurations of the first modified predicted signal generation unit 210 and the second modified predicted signal generation unit 211 in Embodiment 2 will be described with reference to FIGS. 7C and 7D.

図7(C)における第1修正予測信号生成部210は、例えば、第1L0片側予測信号生成部210−1、第2L0片側予測信号生成部210−2、第1L0−L1片側予測信号生成部210−3、第2L0−L1片側予測信号生成部210−4、第1L0−L1双予測信号生成部210−5、第2L0−L1双予測信号生成部210−6、第3L0−L1双予測信号生成部210−7および第4L0−L1双予測信号生成部210−8のうち、少なくとも1つ、2つ以上の任意の組み合わせ、または全てによって構成されると良い。ここでは、全て用いられるものとして話を進める。ここで、各部の名称に付けられているL0−L1は、L0側の参照情報もしくは修正参照情報および予測動きベクトル情報に基づいて、L1側の動きベクトル情報が導出される構成であることを示している。   The first modified prediction signal generation unit 210 in FIG. 7C is, for example, a first L0 one-side prediction signal generation unit 210-1, a second L0 one-side prediction signal generation unit 210-2, and a first L0-L1 one-side prediction signal generation unit 210. -3, the second L0-L1 one-side prediction signal generation unit 210-4, the first L0-L1 bi-prediction signal generation unit 210-5, the second L0-L1 bi-prediction signal generation unit 210-6, and the third L0-L1 bi-prediction signal generation Of the unit 210-7 and the fourth L0-L1 bi-prediction signal generation unit 210-8, at least one, any combination of two or more, or all may be configured. Here, the discussion will be made assuming that everything is used. Here, L0-L1 attached to the names of the parts indicates that the L1 side motion vector information is derived based on the L0 side reference information or the corrected reference information and the predicted motion vector information. ing.

同様に、図7(D)における第2修正予測信号生成部211は、例えば、第1L1片側予測信号生成部211−1、第2L1片側予測信号生成部211−2、第1L1−L0片側予測信号生成部211−3、第2L1−L0片側予測信号生成部211−4、第1L1−L0双予測信号生成部211−5、第2L1−L0双予測信号生成部211−6、第3L1−L0双予測信号生成部211−7および第4L1−L0双予測信号生成部211−8のうち、少なくとも1つ、2つ以上の任意の組み合わせ、または全てによって構成されると良い。ここでは、全て用いられるものとして話を進める。ここで、各部の名称に付けられているL1−L0は、L1側の参照情報もしくは修正参照情報および予測動きベクトル情報に基づいて、L0側の動きベクトル情報が導出される構成であることを示している。   Similarly, the second modified prediction signal generation unit 211 in FIG. 7D is, for example, a first L1 one-side prediction signal generation unit 211-1, a second L1 one-side prediction signal generation unit 211-2, and a first L1-L0 one-side prediction signal. Generator 211-3, second L1-L0 one-side prediction signal generation unit 211-4, first L1-L0 bi-prediction signal generation unit 211-5, second L1-L0 bi-prediction signal generation unit 211-6, and third L1-L0 bi-prediction Of the prediction signal generation unit 211-7 and the fourth L1-L0 bi-prediction signal generation unit 211-8, at least one, any combination of two or more, or all may be used. Here, the discussion will be made assuming that everything is used. Here, L1-L0 given to the names of the parts indicates that the L0 side motion vector information is derived based on the L1 side reference information or the corrected reference information and the predicted motion vector information. ing.

図16(A)〜(C)および図17(A)〜(C)は、図7(C)、図7(D)における各部の詳細を示した構成図である。図16(A)は、第1L0片側予測信号生成部210−1および第2L0片側予測信号生成部210−2の構成図である。図16(B)は、第1L0−L1片側予測信号生成部210−3および第2L0−L1片側予測信号生成部210−4の構成図である。図16(C)は、第1L0−L1双予測信号生成部210−5、第2L0−L1双予測信号生成部210−6、第3L0−L1双予測信号生成部210−7および第4L0−L1双予測信号生成部210−8の構成図である。   16 (A) to 16 (C) and FIGS. 17 (A) to 17 (C) are configuration diagrams showing details of the respective parts in FIGS. 7 (C) and 7 (D). FIG. 16A is a configuration diagram of the first L0 one-side prediction signal generation unit 210-1 and the second L0 one-side prediction signal generation unit 210-2. FIG. 16B is a configuration diagram of the first L0-L1 one-side prediction signal generation unit 210-3 and the second L0-L1 one-side prediction signal generation unit 210-4. FIG. 16C illustrates a first L0-L1 bi-prediction signal generation unit 210-5, a second L0-L1 bi-prediction signal generation unit 210-6, a third L0-L1 bi-prediction signal generation unit 210-7, and a fourth L0-L1. It is a block diagram of the bi prediction signal production | generation part 210-8.

同様に、図17(A)は、第1L1片側予測信号生成部211−1および第2L1片側予測信号生成部211−2の構成図である。図17(B)は、第1L1−L0片側予測信号生成部211−3および第2L1−L0片側予測信号生成部211−4の構成図である。図17(C)は、第1L1−L0双予測信号生成部211−5、第2L1−L0双予測信号生成部211−6、第3L1−L0双予測信号生成部211−7および第4L1−L0双予測信号生成部211−8の構成図である。   Similarly, FIG. 17A is a configuration diagram of the first L1 one-side prediction signal generation unit 211-1 and the second L1 one-side prediction signal generation unit 211-2. FIG. 17B is a configuration diagram of the first L1-L0 one-side prediction signal generation unit 211-3 and the second L1-L0 one-side prediction signal generation unit 211-4. FIG. 17C shows the first L1-L0 bi-prediction signal generation unit 211-5, the second L1-L0 bi-prediction signal generation unit 211-6, the third L1-L0 bi-prediction signal generation unit 211-7, and the fourth L1-L0. It is a block diagram of the bi prediction signal production | generation part 211-8.

図16(A)の構成は、復号側において、L0側の動き情報を基本として、L0側の動きベクトル情報を生成し、L0側の予測信号を生成するための構成である。図16(A)の構成は、L0側動き情報取得部1601、参照先変更部1602、L0側動き導出部1603、mvd加算部1604、参照ピクチャ取得部1605および片側予測信号生成部1606を含む。   The configuration of FIG. 16A is a configuration for generating L0 side motion vector information and generating a L0 side prediction signal on the decoding side based on the L0 side motion information. The configuration of FIG. 16A includes an L0 side motion information acquisition unit 1601, a reference destination change unit 1602, an L0 side motion derivation unit 1603, an mvd addition unit 1604, a reference picture acquisition unit 1605, and a one-side prediction signal generation unit 1606.

L0側動き情報取得部1601は、所定のL0側動き情報取得処理を行う。この所定のL0側動き情報取得処理では、L0側動き情報取得部1601は、参照解析部209から、復号対象領域に属するL0側の動き情報としてL0側の参照情報と予測動きベクトル情報、そして予測修正情報を取得する。L0側動き情報取得部1601は、取得したL0側の動き情報を、参照先変更部1602に供給する。   The L0 side motion information acquisition unit 1601 performs a predetermined L0 side motion information acquisition process. In this predetermined L0 side motion information acquisition processing, the L0 side motion information acquisition unit 1601 receives, from the reference analysis unit 209, L0 side reference information, predicted motion vector information, and prediction as the L0 side motion information belonging to the decoding target region. Get correction information. The L0 side motion information acquisition unit 1601 supplies the acquired L0 side motion information to the reference destination change unit 1602.

参照先変更部1602は、所定の参照先変更処理を行う。この所定の参照先変更処理では、参照先変更部1602は、L0側動き情報取得部1601からL0側の動き情報を取得する。参照先変更部1602は、L0側の予測修正情報が「1」である場合には、所定の参照先変更処理により、参照情報を修正し、修正参照情報を生成する。ここで、所定の参照先変更処理は、動作モードに応じて機能させず、参照情報を修正参照情報にすると良い。例えば、第1L0片側予測信号生成部210−1は、この所定の参照先変更処理を機能させず、参照情報を修正参照情報にすると良い。第1L0片側予測信号生成部210−1は、動作モードとして、L0側の予測動きベクトル情報をL0側の修正参照情報によって修正せず、L0側の動きベクトル情報を生成してL0側の予測信号を生成するような、第1L0片側予測モードで動作する。また、第2L0片側予測信号生成部210−2は、この所定の参照先変更処理を機能させるようにすると良い。第2L0片側予測信号生成部210−2は、動作モードとして、L0側の予測動きベクトル情報をL0側の修正参照情報によって修正し、L0側の動きベクトル情報を生成してL0側の予測信号を生成するような、第2L0片側予測モードで動作する。参照先変更部1602は、取得および生成した動き情報を、L0側動き導出部1603および参照ピクチャ取得部1605に供給する。   The reference destination changing unit 1602 performs a predetermined reference destination changing process. In the predetermined reference destination changing process, the reference destination changing unit 1602 acquires the L0 side motion information from the L0 side motion information acquiring unit 1601. When the prediction correction information on the L0 side is “1”, the reference destination changing unit 1602 corrects the reference information by a predetermined reference destination changing process, and generates corrected reference information. Here, it is preferable that the predetermined reference destination changing process does not function according to the operation mode, and the reference information is changed to the corrected reference information. For example, the first L0 one-side predicted signal generation unit 210-1 may not use this predetermined reference destination changing process, and may make the reference information the corrected reference information. The first L0 one-side prediction signal generation unit 210-1 generates the L0-side motion vector information without correcting the L0-side prediction motion vector information with the L0-side correction reference information as the operation mode, and generates the L0-side prediction signal. Operate in the first L0 one-sided prediction mode. Further, the second L0 one-side predicted signal generation unit 210-2 may function the predetermined reference destination changing process. The second L0 one-side predicted signal generation unit 210-2 corrects the L0-side predicted motion vector information with the L0-side corrected reference information as the operation mode, generates the L0-side motion vector information, and generates the L0-side predicted signal. It operates in the second L0 one-sided prediction mode as generated. The reference destination changing unit 1602 supplies the acquired and generated motion information to the L0 side motion deriving unit 1603 and the reference picture acquiring unit 1605.

L0側動き導出部1603は、所定のL0側動き導出処理を行う。この所定のL0側動き導出処理では、L0側動き導出部1603は、参照先変更部1602から、L0側の動き情報を取得する。その後、符号化側のL0側動き導出部803と同様に、上述の(式1)に基づいて、L0側の修正予測動きベクトル情報を導出する。L0側動き導出部1603は、取得および生成した動き情報を、mvd加算部1604に供給する。   The L0 side motion deriving unit 1603 performs a predetermined L0 side motion deriving process. In this predetermined L0 side motion deriving process, the L0 side motion deriving unit 1603 acquires the L0 side motion information from the reference destination changing unit 1602. Thereafter, similarly to the L0 side motion deriving unit 803 on the encoding side, the L0 side modified prediction motion vector information is derived based on the above (Equation 1). The L0 side motion deriving unit 1603 supplies the acquired and generated motion information to the mvd adding unit 1604.

mvd加算部1604は、所定のmvd加算処理を行う。この所定のmvd加算処理では、mvd加算部1604は、L0側動き導出部1603から、L0側の動き情報を取得する。mvd加算部1604は、動き情報蓄積部207から復号対象領域に属する残差動きベクトル情報を取得する。mvd加算部1604は、取得したL0側の修正予測動きベクトル情報に、取得した残差動きベクトル情報を加算することで、L0側の動きベクトル情報を生成する。mvd加算部1604は、取得および生成したL0側の動き情報を、片側予測信号生成部1606に供給する。   The mvd addition unit 1604 performs a predetermined mvd addition process. In this predetermined mvd addition process, the mvd addition unit 1604 acquires the L0 side motion information from the L0 side motion deriving unit 1603. The mvd addition unit 1604 acquires residual motion vector information belonging to the decoding target region from the motion information storage unit 207. The mvd addition unit 1604 generates the L0 side motion vector information by adding the acquired residual motion vector information to the acquired L0 side modified prediction motion vector information. The mvd addition unit 1604 supplies the acquired and generated L0 side motion information to the one-side prediction signal generation unit 1606.

参照ピクチャ取得部1605は、所定の参照ピクチャ取得処理を行う。この所定の参照ピクチャ取得処理では、参照ピクチャ取得部1605は、参照先変更部1602から、動き情報として修正参照情報を取得する。参照ピクチャ取得部1605は、L0側の修正参照情報をピクチャ蓄積部202に供給し、特定された参照ピクチャを取得する。参照ピクチャ取得部1605は、取得した参照ピクチャを片側予測信号生成部1606に供給する。   The reference picture acquisition unit 1605 performs a predetermined reference picture acquisition process. In this predetermined reference picture acquisition process, the reference picture acquisition unit 1605 acquires the corrected reference information as motion information from the reference destination change unit 1602. The reference picture acquisition unit 1605 supplies the L0-side modified reference information to the picture storage unit 202, and acquires the identified reference picture. The reference picture acquisition unit 1605 supplies the acquired reference picture to the one-side prediction signal generation unit 1606.

片側予測信号生成部1606は、所定の片側予測信号生成処理を行う。この所定の片側予測信号生成処理では、片側予測信号生成部1606は、mvd加算部1604から動き情報、参照ピクチャ取得部1605から参照ピクチャを取得する。片側予測信号生成部1606は、取得した動きベクトル情報に基づいて、例えばAVCのような、所定の動き補償処理により、予測信号を生成する。片側予測信号生成部1606は、動作モードを特定するための動作モード情報、動き情報および予測信号を、モード識別部206に供給する。片側予測信号生成部1606は、取得および生成したL0側の動き情報を、動作モード情報とともに動き情報蓄積部207に供給する。   The one-side prediction signal generation unit 1606 performs a predetermined one-side prediction signal generation process. In the predetermined one-side prediction signal generation process, the one-side prediction signal generation unit 1606 acquires motion information from the mvd addition unit 1604 and a reference picture from the reference picture acquisition unit 1605. The one-side prediction signal generation unit 1606 generates a prediction signal by a predetermined motion compensation process such as AVC based on the acquired motion vector information. The one-side prediction signal generation unit 1606 supplies operation mode information, motion information, and a prediction signal for specifying the operation mode to the mode identification unit 206. The one-side prediction signal generation unit 1606 supplies the acquired and generated L0 side motion information to the motion information storage unit 207 together with the operation mode information.

図16(B)の構成は、復号側において、L0側の動き情報を基本として、L1側の動きベクトル情報を生成し、L1側の予測信号を生成するための構成である。図16(B)の構成は、L0側動き情報取得部1621、L1側参照情報取得部1622、参照先変更部1623、L1側動き導出部1624、mvd加算部1625、参照ピクチャ取得部1626および片側予測信号生成部1627を含む。   The configuration of FIG. 16B is a configuration for generating L1 side motion vector information and generating an L1 side prediction signal on the decoding side based on the L0 side motion information. 16B includes an L0 side motion information acquisition unit 1621, an L1 side reference information acquisition unit 1622, a reference destination change unit 1623, an L1 side motion derivation unit 1624, an mvd addition unit 1625, a reference picture acquisition unit 1626, and one side. A prediction signal generation unit 1627 is included.

L0側動き情報取得部1621は、所定のL0側動き情報取得処理を行う。この所定のL0側動き情報取得処理では、L0側動き情報取得部1621は、参照解析部209から、復号対象領域に属するL0側の動き情報としてL0側の参照情報と予測動きベクトル情報、そして予測修正情報を取得する。L0側動き情報取得部1621は、取得したL0側の動き情報を、参照先変更部1623に供給する。   The L0 side motion information acquisition unit 1621 performs a predetermined L0 side motion information acquisition process. In this predetermined L0 side motion information acquisition process, the L0 side motion information acquisition unit 1621 receives, from the reference analysis unit 209, the L0 side reference information, the predicted motion vector information, and the prediction as the L0 side motion information belonging to the decoding target area. Get correction information. The L0 side motion information acquisition unit 1621 supplies the acquired L0 side motion information to the reference destination changing unit 1623.

L1側参照情報取得部1622は、所定のL1側参照情報取得処理を行う。この所定のL1側参照情報取得処理では、L1側参照情報取得部1622は、参照解析部209から、取得可能であれば、L1側の参照情報、予測修正情報を取得し、参照先変更部1623に供給する。   The L1 side reference information acquisition unit 1622 performs a predetermined L1 side reference information acquisition process. In this predetermined L1 side reference information acquisition process, the L1 side reference information acquisition unit 1622 acquires reference information and prediction correction information on the L1 side from the reference analysis unit 209, if possible, and a reference destination change unit 1623. To supply.

参照先変更部1623は、所定の参照先変更処理を行う。この所定の参照先変更処理では、参照先変更部1623は、L0側動き情報取得部1621からL0側の動き情報、L1側参照情報取得部1622からL1側の参照情報および予測修正情報を取得する。参照先変更部1623は、L1側の予測修正情報が「1」である場合には、所定の参照先変更処理により、参照情報を修正し、修正参照情報を生成する。ここで、所定の参照先変更処理は、動作モードに応じて機能させず、参照情報を修正参照情報にすると良い。例えば、第1L0−L1片側予測信号生成部210−3は、この所定の参照先変更処理を機能させず、参照情報を修正参照情報にすると良い。第1L0−L1片側予測信号生成部210−3は、動作モードとして、L0側の予測動きベクトル情報を、L1側の修正参照情報ではなく参照情報に基づいて修正し、L1側の動きベクトル情報を生成してL1側の予測信号を生成するような、第1L0−L1片側予測モードで動作する。また、第2L0−L1片側予測信号生成部210−4は、この所定の参照先変更処理を機能させるようにすると良い。第2L0−L1片側予測信号生成部210−4は、動作モードとして、L0側の予測動きベクトル情報を、L1側の修正参照情報に基づいて修正し、L1側の動きベクトル情報を生成してL1側の予測信号を生成するような、第2L0−L1片側予測モードで動作する。参照先変更部1623は、取得および生成したL0側およびL1側の動き情報を、L1側動き導出部1624および参照ピクチャ取得部1626に供給する。   The reference destination changing unit 1623 performs a predetermined reference destination changing process. In the predetermined reference destination changing process, the reference destination changing unit 1623 acquires the L0 side motion information from the L0 side motion information acquisition unit 1621 and the L1 side reference information acquisition unit 1622 from the L1 side reference information and the prediction correction information. . When the predicted correction information on the L1 side is “1”, the reference destination changing unit 1623 corrects the reference information by a predetermined reference destination changing process, and generates corrected reference information. Here, it is preferable that the predetermined reference destination changing process does not function according to the operation mode, and the reference information is changed to the corrected reference information. For example, the first L0-L1 one-side predicted signal generation unit 210-3 may not use this predetermined reference destination changing process, and may make the reference information the corrected reference information. The first L0-L1 one-side predicted signal generation unit 210-3 corrects the L0-side predicted motion vector information based on the reference information instead of the L1-side corrected reference information as the operation mode, and converts the L1-side motion vector information. It operates in a first L0-L1 one-sided prediction mode that generates a prediction signal on the L1 side. Also, the second L0-L1 one-side prediction signal generation unit 210-4 may function this predetermined reference destination change process. The second L0-L1 one-side predicted signal generation unit 210-4 corrects the L0-side predicted motion vector information based on the L1-side corrected reference information as the operation mode, generates L1-side motion vector information, and generates L1 Operate in a second L0-L1 one-sided prediction mode that generates a side prediction signal. The reference destination changing unit 1623 supplies the acquired and generated L0 side and L1 side motion information to the L1 side motion deriving unit 1624 and the reference picture acquiring unit 1626.

L1側動き導出部1624は、所定のL1側動き導出処理を行う。この所定のL1側動き導出処理では、L1側動き導出部1624は、参照先変更部1623から、L0側およびL1側の動き情報を取得する。その後、符号化側のL1側動き導出部824と同様に、動作モードに応じて、上述の(式2)もしくは(式3)に基づいて、L1側の修正予測動きベクトル情報を導出する。L1側動き導出部1624は、取得および生成したL0側およびL1側の動き情報を、mvd加算部1625に供給する。   The L1 side motion deriving unit 1624 performs a predetermined L1 side motion deriving process. In the predetermined L1 side motion deriving process, the L1 side motion deriving unit 1624 acquires the L0 side and L1 side motion information from the reference destination changing unit 1623. Thereafter, similarly to the L1 side motion deriving unit 824 on the encoding side, the L1 side modified prediction motion vector information is derived based on the above (Equation 2) or (Equation 3) according to the operation mode. The L1 side motion deriving unit 1624 supplies the acquired and generated L0 side and L1 side motion information to the mvd addition unit 1625.

mvd加算部1625は、所定のmvd加算処理を行う。この所定のmvd加算処理では、mvd加算部1625は、L1側動き導出部1624から、L0側およびL1側の動き情報を取得する。また、mvd加算部1625は、動き情報蓄積部207から復号対象領域に属する残差動きベクトル情報を取得する。mvd加算部1625は、取得したL1側の修正予測動きベクトル情報に、取得した残差動きベクトル情報を加算することで、L1側の動きベクトル情報を生成する。mvd加算部1625は、取得および生成したL0側およびL1側の動き情報を、片側予測信号生成部1627に供給する。   The mvd addition unit 1625 performs a predetermined mvd addition process. In the predetermined mvd addition process, the mvd addition unit 1625 acquires the L0 side and L1 side motion information from the L1 side motion deriving unit 1624. Also, the mvd addition unit 1625 acquires residual motion vector information belonging to the decoding target region from the motion information storage unit 207. The mvd addition unit 1625 generates the L1 side motion vector information by adding the acquired residual motion vector information to the acquired L1 side modified prediction motion vector information. The mvd addition unit 1625 supplies the acquired and generated motion information on the L0 side and the L1 side to the one-side prediction signal generation unit 1627.

参照ピクチャ取得部1626は、所定の参照ピクチャ取得処理を行う。この所定の参照ピクチャ取得処理では、参照ピクチャ取得部1626は、参照先変更部1623から、L0側およびL1側の動き情報を取得する。参照ピクチャ取得部1626は、取得したL1側の修正参照情報をピクチャ蓄積部202に供給し、特定された参照ピクチャを取得する。参照ピクチャ取得部1626は、取得したL1側の参照ピクチャを片側予測信号生成部1606に供給する。   The reference picture acquisition unit 1626 performs a predetermined reference picture acquisition process. In the predetermined reference picture acquisition process, the reference picture acquisition unit 1626 acquires the motion information on the L0 side and the L1 side from the reference destination changing unit 1623. The reference picture acquisition unit 1626 supplies the acquired modified reference information on the L1 side to the picture storage unit 202, and acquires the identified reference picture. The reference picture acquisition unit 1626 supplies the acquired L1 side reference picture to the one-side prediction signal generation unit 1606.

片側予測信号生成部1627は、所定の片側予測信号生成処理を行う。この所定の片側予測信号生成処理では、片側予測信号生成部1627は、mvd加算部1625からL0側およびL1側の動き情報、参照ピクチャ取得部1626からL1側の参照ピクチャを取得する。片側予測信号生成部1627は、取得したL1側の動きベクトル情報に基づいて、例えばAVCのような、所定の動き補償処理により、予測信号を生成する。片側予測信号生成部1627は、動作モードを特定するための動作モード情報、L0側およびL1側の動き情報、ならびに予測信号を、モード識別部206に供給する。片側予測信号生成部1627は、取得および生成したL0側およびL1側の動き情報を、動作モード情報とともに動き情報蓄積部207に供給する。   The one-side prediction signal generation unit 1627 performs a predetermined one-side prediction signal generation process. In the predetermined one-side prediction signal generation processing, the one-side prediction signal generation unit 1627 acquires the L0 side and L1 side motion information from the mvd addition unit 1625 and the L1 side reference picture from the reference picture acquisition unit 1626. The one-side prediction signal generation unit 1627 generates a prediction signal by a predetermined motion compensation process such as AVC, based on the acquired L1 side motion vector information. The one-side prediction signal generation unit 1627 supplies operation mode information for specifying the operation mode, motion information on the L0 side and L1 side, and a prediction signal to the mode identification unit 206. The one-side prediction signal generation unit 1627 supplies the acquired and generated L0 side and L1 side motion information to the motion information storage unit 207 together with the operation mode information.

図16(C)の構成は、復号側において、L0側の動き情報を基本として、L1側の動きベクトル情報を生成し、L0側の予測信号とL1側の予測信号を生成した上で、双予測信号となる合成予測信号を生成するための構成である。図16(C)の構成は、L0側動き情報取得部1641、L1側参照情報取得部1642、参照先変更部1643、L0側動き導出部1644、L1側動き導出部1645、mvd加算部1646、参照ピクチャ取得部1647および双予測信号生成部1648を含む。   In the configuration of FIG. 16C, the decoding side generates motion vector information on the L1 side based on the motion information on the L0 side, generates a prediction signal on the L0 side, and a prediction signal on the L1 side. This is a configuration for generating a combined prediction signal that becomes a prediction signal. 16C includes an L0 side motion information acquisition unit 1641, an L1 side reference information acquisition unit 1642, a reference destination change unit 1643, an L0 side motion derivation unit 1644, an L1 side motion derivation unit 1645, an mvd addition unit 1646, A reference picture acquisition unit 1647 and a bi-prediction signal generation unit 1648 are included.

L0側動き情報取得部1641は、所定のL0側動き情報取得処理を行う。この所定のL0側動き情報取得処理では、L0側動き情報取得部1641は、参照解析部209から、復号対象領域に属するL0側の動き情報としてL0側の参照情報と予測動きベクトル情報、そして予測修正情報を取得する。L0側動き情報取得部1641は、取得したL0側の動き情報を、参照先変更部1643に供給する。   The L0 side motion information acquisition unit 1641 performs a predetermined L0 side motion information acquisition process. In this predetermined L0 side motion information acquisition process, the L0 side motion information acquisition unit 1641 receives, from the reference analysis unit 209, the L0 side reference information, the predicted motion vector information, and the prediction as the L0 side motion information belonging to the decoding target region. Get correction information. The L0 side motion information acquisition unit 1641 supplies the acquired L0 side motion information to the reference destination changing unit 1643.

L1側参照情報取得部1642は、所定のL1側参照情報取得処理を行う。この所定のL1側参照情報取得処理では、L1側参照情報取得部1642は、参照解析部209から、取得可能であれば、L1側の参照情報および予測修正情報を取得し、参照先変更部1643に供給する。   The L1 side reference information acquisition unit 1642 performs a predetermined L1 side reference information acquisition process. In this predetermined L1 side reference information acquisition process, the L1 side reference information acquisition unit 1642 acquires reference information and prediction correction information on the L1 side from the reference analysis unit 209, if possible, and a reference destination change unit 1643. To supply.

参照先変更部1643は、所定の参照先変更処理を行う。この所定の参照先変更処理では、参照先変更部1643は、L0側動き情報取得部1641からL0側の動き情報、L1側参照情報取得部1642からL1側の参照情報および予測修正情報を取得する。参照先変更部1643は、L0側の予測修正情報が「1」である場合には、所定の参照先変更処理により、L0側の参照情報を修正し、L0側の修正参照情報を生成する。同様に、参照先変更部1643は、L1側の予測修正情報が「1」である場合には、所定の参照先変更処理により、L1側の参照情報を修正し、L1側の修正参照情報を生成する。ここで、所定の参照先変更処理は、動作モードに応じて機能させず、参照情報を修正参照情報にすると良い。例えば、動作モードとして、第1L0−L1双予測モードで動作する第1L0−L1双予測信号生成部210−5は、この所定の参照先変更処理を機能させず、参照情報を修正参照情報にすると良い。また、動作モードとして、第2L0−L1双予測モードで動作する第2L0−L1双予測信号生成部210−6、第3L0−L1双予測モードで動作する第3L0−L1双予測信号生成部210−7および第4L0−L1双予測モードで動作する第4L0−L1双予測信号生成部210−8は、この所定の参照先変更処理を機能させるようにすると良い。参照先変更部1643は、取得および生成したL0側の動き情報をL0側動き導出部1644、取得および生成したL0側およびL1側の動き情報をL1側動き導出部1645および参照ピクチャ取得部1647に供給する。   The reference destination changing unit 1643 performs a predetermined reference destination changing process. In this predetermined reference destination changing process, the reference destination changing unit 1643 acquires the L0 side motion information from the L0 side motion information acquisition unit 1641 and the L1 side reference information acquisition unit 1642 from the L1 side reference information and the prediction correction information. . When the prediction correction information on the L0 side is “1”, the reference destination changing unit 1643 corrects the reference information on the L0 side by a predetermined reference destination changing process, and generates correction reference information on the L0 side. Similarly, when the L1 side prediction correction information is “1”, the reference destination changing unit 1643 corrects the L1 side reference information by a predetermined reference destination change process, and the L1 side correction reference information is changed. Generate. Here, it is preferable that the predetermined reference destination changing process does not function according to the operation mode, and the reference information is changed to the corrected reference information. For example, as the operation mode, the first L0-L1 bi-prediction signal generation unit 210-5 operating in the first L0-L1 bi-prediction mode does not function the predetermined reference destination change process and changes the reference information to the corrected reference information. good. Further, as operation modes, a second L0-L1 bi-prediction signal generation unit 210-6 that operates in the second L0-L1 bi-prediction mode, and a third L0-L1 bi-prediction signal generation unit 210- that operates in the third L0-L1 bi-prediction mode. The fourth L0-L1 bi-prediction signal generator 210-8 operating in the seventh and fourth L0-L1 bi-prediction modes may function as the predetermined reference destination changing process. The reference destination changing unit 1643 sends the acquired and generated L0 side motion information to the L0 side motion deriving unit 1644, and the acquired and generated L0 side and L1 side motion information to the L1 side motion deriving unit 1645 and the reference picture acquiring unit 1647. Supply.

L0側動き導出部1644は、所定のL0側動き導出処理を行う。この所定のL0側動き導出処理では、L0側動き導出部1644は、参照先変更部1643から、L0側の動き情報を取得する。その後、符号化側のL0側動き導出部844と同様に、動作モードに応じて、上述の(式4)に基づいて、L0側の修正予測動きベクトル情報を導出する。L0側動き導出部1644は、取得および生成したL0側の動き情報を、双予測信号生成部1648に供給する。   The L0 side motion deriving unit 1644 performs a predetermined L0 side motion deriving process. In this predetermined L0 side motion deriving process, the L0 side motion deriving unit 1644 acquires the L0 side motion information from the reference destination changing unit 1643. Thereafter, similarly to the L0 side motion deriving unit 844 on the encoding side, the L0 side modified prediction motion vector information is derived based on the above (Equation 4) according to the operation mode. The L0 side motion deriving unit 1644 supplies the acquired and generated L0 side motion information to the bi-prediction signal generation unit 1648.

L1側動き導出部1645は、所定のL1側動き導出処理を行う。この所定のL1側動き導出処理では、L1側動き導出部1645は、参照先変更部1643から、L0側およびL1側の動き情報を取得する。その後、符号化側のL1側動き導出部845と同様に、動作モードに応じて、上述の(式5)もしくは(式6)に基づいて、L1側の修正予測動きベクトル情報を導出する。L1側動き導出部1645は、取得および生成したL0側およびL1側の動き情報を、mvd加算部1646に供給する。   The L1 side motion deriving unit 1645 performs a predetermined L1 side motion deriving process. In the predetermined L1 side motion deriving process, the L1 side motion deriving unit 1645 acquires the L0 side and L1 side motion information from the reference destination changing unit 1643. Thereafter, similarly to the L1 side motion deriving unit 845 on the encoding side, the L1 side corrected predicted motion vector information is derived based on the above (Equation 5) or (Equation 6) according to the operation mode. The L1 side motion deriving unit 1645 supplies the acquired and generated L0 side and L1 side motion information to the mvd addition unit 1646.

mvd加算部1646は、所定のmvd加算処理を行う。この所定のmvd加算処理では、mvd加算部1646は、L1側動き導出部1645から、L0側およびL1側の動き情報を取得する。mvd加算部1646は、動き情報蓄積部207から復号対象領域に属する残差動きベクトル情報を取得する。mvd加算部1646は、取得したL1側の修正予測動きベクトル情報に、取得した残差動きベクトル情報を加算することで、L1側の動きベクトル情報を生成する。mvd加算部1646は、取得および生成したL0側およびL1側の動き情報を、双予測信号生成部1648に供給する。   The mvd addition unit 1646 performs a predetermined mvd addition process. In this predetermined mvd addition process, the mvd addition unit 1646 acquires the L0 side and L1 side motion information from the L1 side motion deriving unit 1645. The mvd addition unit 1646 obtains residual motion vector information belonging to the decoding target area from the motion information accumulation unit 207. The mvd addition unit 1646 generates the L1 side motion vector information by adding the acquired residual motion vector information to the acquired L1 side modified prediction motion vector information. The mvd addition unit 1646 supplies the acquired and generated L0 side and L1 side motion information to the bi-prediction signal generation unit 1648.

参照ピクチャ取得部1647は、所定の参照ピクチャ取得処理を行う。この所定の参照ピクチャ取得処理では、参照ピクチャ取得部1647は、参照先変更部1643から、L0側およびL1側の動き情報として修正参照情報を取得する。参照ピクチャ取得部1647は、L0側およびL1側の修正参照情報をピクチャ蓄積部202に供給し、特定されたL0側およびL1側の参照ピクチャを取得する。参照ピクチャ取得部1647は、取得したL0側およびL1側の参照ピクチャを双予測信号生成部1648に供給する。   The reference picture acquisition unit 1647 performs a predetermined reference picture acquisition process. In this predetermined reference picture acquisition process, the reference picture acquisition unit 1647 acquires the corrected reference information from the reference destination change unit 1643 as the motion information on the L0 side and the L1 side. The reference picture acquisition unit 1647 supplies the L0 side and L1 side modified reference information to the picture storage unit 202, and acquires the identified L0 side and L1 side reference pictures. The reference picture acquisition unit 1647 supplies the acquired L0 side and L1 side reference pictures to the bi-prediction signal generation unit 1648.

双予測信号生成部1648は、所定の双予測信号生成処理を行う。この所定の双予測信号生成処理では、双予測信号生成部1648は、L0側動き導出部1644からL0側の動き情報、mvd加算部1646からL0側およびL1側の動き情報、ならびに参照ピクチャ取得部1647からL0側およびL1側の参照ピクチャをそれぞれ取得する。双予測信号生成部1648は、取得したL0側の修正予測動きベクトル情報に基づいて、例えばAVCのような、所定の動き補償処理により、L0側の予測信号を生成する。双予測信号生成部1648は、取得したL1側の動きベクトル情報に基づいて、例えばAVCのような、所定の動き補償処理により、L1側の予測信号を生成する。その後、双予測信号生成部1648は、生成したL0側の予測信号とL1側の予測信号を合成した合成予測信号を生成することで、双予測信号を得る。双予測信号生成部1648は、動作モードを特定するための動作モード情報、取得および生成したL0側およびL1側の動き情報、ならびに合成予測信号を、モード識別部206に供給する。双予測信号生成部1648は、取得および生成したL0側およびL1側の動き情報を、動作モード情報とともに動き情報蓄積部207に供給する。   The bi-prediction signal generation unit 1648 performs a predetermined bi-prediction signal generation process. In this predetermined bi-prediction signal generation process, the bi-prediction signal generation unit 1648 includes the L0 side motion deriving unit 1644 to the L0 side motion information, the mvd addition unit 1646 to the L0 side and L1 side motion information, and the reference picture acquisition unit. From 1647, reference pictures on the L0 side and the L1 side are acquired. The bi-prediction signal generation unit 1648 generates a prediction signal on the L0 side by a predetermined motion compensation process such as AVC based on the acquired corrected prediction motion vector information on the L0 side. The bi-prediction signal generation unit 1648 generates a prediction signal on the L1 side by a predetermined motion compensation process such as AVC based on the acquired L1 side motion vector information. After that, the bi-prediction signal generation unit 1648 generates a bi-prediction signal by generating a combined prediction signal obtained by synthesizing the generated L0-side prediction signal and the L1-side prediction signal. The bi-prediction signal generation unit 1648 supplies the mode identification unit 206 with the operation mode information for specifying the operation mode, the acquired and generated motion information on the L0 side and the L1 side, and the combined prediction signal. The bi-prediction signal generation unit 1648 supplies the acquired and generated L0 side and L1 side motion information to the motion information storage unit 207 together with the operation mode information.

図16(A)の構成では、L0側の動き情報を基本として、L0側の動きベクトル情報を生成し、L0側の予測信号を生成するための構成であった。これに対し、図17(A)の構成では、L0側とL1側の扱いを逆として、L1側の動き情報を基本として、L1側の予測信号を生成するための構成とした点が図16(A)と異なっている。図17(A)の構成における各部の詳細に関しては、L0側とL1側の扱いを逆として考えることで図16(A)の構成と同等の機能をもつと考えられることから、説明を省略する。   In the configuration of FIG. 16A, the L0 side motion vector information is generated based on the L0 side motion information, and the L0 side prediction signal is generated. On the other hand, in the configuration of FIG. 17A, the handling of the L0 side and the L1 side is reversed, and the configuration for generating the prediction signal on the L1 side is based on the motion information on the L1 side. Different from (A). The details of each part in the configuration of FIG. 17A are omitted because the functions on the L0 side and the L1 side are considered to be reversed and the function is equivalent to that of the configuration of FIG. .

図16(B)の構成では、L0側の動き情報を基本として、L1側の動きベクトル情報を生成し、L1側の予測信号を生成するための構成であった。これに対し、図17(B)の構成では、L0側とL1側の扱いを逆として、L1側の動き情報を基本として、L0側の動きベクトル情報を生成し、L0側の予測信号を生成するための構成とした点が図16(B)の構成と異なっている。図17(B)の構成における各部の詳細に関しては、L0側とL1側の扱いを逆として考えることで図16(B)の構成と同等の機能をもつと考えられることから、説明を省略する。   In the configuration of FIG. 16B, the L1 side motion vector information is generated based on the L0 side motion information, and the L1 side prediction signal is generated. On the other hand, in the configuration of FIG. 17B, the L0 side motion information is generated based on the L1 side motion information by reversing the handling of the L0 side and the L1 side, and the L0 side prediction signal is generated. This is different from the configuration shown in FIG. The details of each part in the configuration of FIG. 17B are omitted because they are considered to have the same function as the configuration of FIG. .

図16(C)の構成では、L0側の動き情報を基本として、L1側の動きベクトル情報を生成し、L0側の予測信号とL1側の予測信号を生成した上で、双予測信号となる合成予測信号を生成するための構成であった。これに対し、図17(C)の構成では、L0側とL1側の扱いを逆として、L1側の動き情報を基本として、L0側の動きベクトル情報を生成し、L0側の予測信号とL1側の予測信号を生成した上で、双予測信号となる合成予測信号を生成するための構成とした点が図16(C)の構成と異なっている。図17(C)の構成における各部の詳細に関しては、L0側とL1側の扱いを逆として考えることで図16(C)の構成と同等の機能をもつと考えられることから、説明を省略する。   In the configuration shown in FIG. 16C, the L1 side motion vector information is generated based on the L0 side motion information, the L0 side prediction signal and the L1 side prediction signal are generated, and then the bi-prediction signal is obtained. The configuration is for generating a synthesized prediction signal. On the other hand, in the configuration of FIG. 17C, the L0 side motion information is generated based on the L1 side motion information by reversing the handling of the L0 side and the L1 side. The configuration for generating the combined prediction signal that becomes the bi-prediction signal after generating the prediction signal on the side is different from the configuration of FIG. The details of each part in the configuration of FIG. 17C are omitted because the functions on the L0 side and the L1 side are considered to be reversed and the function is equivalent to that of the configuration of FIG. .

次に、図16(A)の構成における動作について、図18のフローチャートを用いて説明する。   Next, operation in the configuration of FIG. 16A will be described with reference to a flowchart of FIG.

まず、予測信号生成開始指令を受けると、L0側動き情報取得部1601は、参照解析部209から、復号対象領域に属するL0側の動き情報としてL0側の参照情報と予測動きベクトル情報、そして予測修正情報を取得する(S901)。その後、L0側動き情報取得部1601は、取得したL0側の動き情報を、参照先変更部1602に供給する。   First, upon receiving a prediction signal generation start command, the L0 side motion information acquisition unit 1601 receives, from the reference analysis unit 209, L0 side reference information, prediction motion vector information, and prediction as the L0 side motion information belonging to the decoding target region. Correction information is acquired (S901). Thereafter, the L0 side motion information acquisition unit 1601 supplies the acquired L0 side motion information to the reference destination changing unit 1602.

その後、参照先変更部1602は、L0側動き情報取得部1601からL0側の動き情報を取得する。その後、参照先変更部1602は、動作モードに応じて、所定の参照先変更処理により、参照情報を修正し、修正参照情報を生成することで、L0側の参照先を変更する(S902)。その後、参照先変更部1602は、取得および生成した動き情報を、L0側動き導出部1603および参照ピクチャ取得部1605に供給する。   Thereafter, the reference destination changing unit 1602 acquires the L0 side motion information from the L0 side motion information acquisition unit 1601. Thereafter, the reference destination changing unit 1602 changes the reference destination on the L0 side by correcting the reference information and generating the corrected reference information by a predetermined reference destination changing process according to the operation mode (S902). Thereafter, the reference destination changing unit 1602 supplies the acquired and generated motion information to the L0 side motion deriving unit 1603 and the reference picture acquiring unit 1605.

次に、L0側動き導出部1603は、参照先変更部1602から、L0側の動き情報を取得する。その後、L0側動き導出部1603は、所定のL0側動き導出処理を行い、L0側の修正予測動きベクトル情報を導出する(S903)。その後、L0側動き導出部1603は、取得および生成した動き情報を、mvd加算部1604に供給する。   Next, the L0 side motion deriving unit 1603 acquires the L0 side motion information from the reference destination changing unit 1602. Thereafter, the L0 side motion deriving unit 1603 performs a predetermined L0 side motion deriving process, and derives L0 side modified prediction motion vector information (S903). Thereafter, the L0 side motion deriving unit 1603 supplies the acquired and generated motion information to the mvd adding unit 1604.

その後、mvd加算部1604は、L0側動き導出部1603から、L0側の動き情報を取得する。mvd加算部1604は、動き情報蓄積部207から復号対象領域に属する残差動きベクトル情報を取得する。その後、mvd加算部1604は、所定のmvd加算処理により、取得したL0側の修正予測動きベクトル情報に、残差動きベクトル情報を加算して、L0側の動きベクトル情報を生成する(S904)。その後、mvd加算部1604は、取得および生成したL0側の動き情報を、片側予測信号生成部1606に供給する。   After that, the mvd addition unit 1604 acquires the L0 side motion information from the L0 side motion deriving unit 1603. The mvd addition unit 1604 acquires residual motion vector information belonging to the decoding target region from the motion information storage unit 207. Thereafter, the mvd addition unit 1604 adds the residual motion vector information to the acquired corrected predicted motion vector information on the L0 side by a predetermined mvd addition process to generate L0 side motion vector information (S904). Thereafter, the mvd addition unit 1604 supplies the acquired and generated L0 side motion information to the one-side prediction signal generation unit 1606.

参照ピクチャ取得部1605は、参照先変更部1602から、動き情報として修正参照情報を取得する。その後、参照ピクチャ取得部1605は、L0側の修正参照情報をピクチャ蓄積部202に供給し、特定された参照ピクチャを取得する(S905)。その後、参照ピクチャ取得部1605は、取得した参照ピクチャを片側予測信号生成部1606に供給する。   The reference picture acquisition unit 1605 acquires corrected reference information as motion information from the reference destination change unit 1602. After that, the reference picture acquisition unit 1605 supplies the L0 side modified reference information to the picture storage unit 202, and acquires the identified reference picture (S905). Thereafter, the reference picture acquisition unit 1605 supplies the acquired reference picture to the one-side prediction signal generation unit 1606.

次に、片側予測信号生成部1606は、mvd加算部1604から動き情報、参照ピクチャ取得部1605から参照ピクチャを取得する。その後、片側予測信号生成部1606は、所定の片側予測信号生成処理を行うことで、L0側の予測信号を生成する(S906)。その後、片側予測信号生成部1606は、動作モードを特定するための動作モード情報、動き情報および予測信号を、モード識別部206に供給する。片側予測信号生成部1606は、取得および生成したL0側の動き情報を、動作モード情報とともに動き情報蓄積部207に供給する。   Next, the one-side prediction signal generation unit 1606 acquires motion information from the mvd addition unit 1604 and a reference picture from the reference picture acquisition unit 1605. Thereafter, the one-side prediction signal generation unit 1606 generates a L0-side prediction signal by performing a predetermined one-side prediction signal generation process (S906). Thereafter, the one-side prediction signal generation unit 1606 supplies the mode identification unit 206 with operation mode information, motion information, and a prediction signal for specifying the operation mode. The one-side prediction signal generation unit 1606 supplies the acquired and generated L0 side motion information to the motion information storage unit 207 together with the operation mode information.

以上のステップにより、図16(A)の構成における動作が完了する。   Through the above steps, the operation in the configuration of FIG.

次に、図16(B)の構成における動作について、図19のフローチャートを用いて説明する。   Next, the operation in the configuration of FIG. 16B will be described with reference to the flowchart of FIG.

まず、予測信号生成開始指令を受けると、L0側動き情報取得部1621は、参照解析部209から、復号対象領域に属するL0側の動き情報としてL0側の参照情報と予測動きベクトル情報、そして予測修正情報を取得する(S1001)。その後、L0側動き情報取得部1621は、取得したL0側の動き情報を、参照先変更部1623に供給する。   First, upon receiving a prediction signal generation start command, the L0 side motion information acquisition unit 1621 receives, from the reference analysis unit 209, L0 side reference information, prediction motion vector information, and prediction as the L0 side motion information belonging to the decoding target region. Correction information is acquired (S1001). Thereafter, the L0 side motion information acquisition unit 1621 supplies the acquired L0 side motion information to the reference destination changing unit 1623.

L1側参照情報取得部1622は、参照解析部209から、取得可能であれば、L1側の参照情報および予測修正情報を取得し(S1002)、参照先変更部1623に供給する。   The L1 side reference information acquisition unit 1622 acquires the reference information and prediction correction information on the L1 side from the reference analysis unit 209 if it can be acquired (S1002), and supplies them to the reference destination change unit 1623.

次に、参照先変更部1623は、L0側動き情報取得部1621からL0側の動き情報、L1側参照情報取得部1622からL1側の参照情報および予測修正情報を取得する。その後、参照先変更部1623は、所定の参照先変更処理により、参照情報を修正し、修正参照情報を生成することで、L1側の参照先を変更する(S1003)。その後、参照先変更部1623は、取得および生成したL0側およびL1側の動き情報を、L1側動き導出部1624および参照ピクチャ取得部1626に供給する。   Next, the reference destination changing unit 1623 acquires the L0 side motion information from the L0 side motion information acquisition unit 1621 and the L1 side reference information and prediction correction information from the L1 side reference information acquisition unit 1622. Thereafter, the reference destination changing unit 1623 modifies the reference information by a predetermined reference destination changing process, and generates the corrected reference information, thereby changing the reference destination on the L1 side (S1003). Thereafter, the reference destination changing unit 1623 supplies the acquired and generated L0 side and L1 side motion information to the L1 side motion deriving unit 1624 and the reference picture acquiring unit 1626.

次に、L1側動き導出部1624は、参照先変更部1623から、L0側およびL1側の動き情報を取得する。その後、L1側動き導出部1624は、所定のL1側動き導出処理を行うことで、L0側からL1側の修正予測動きベクトル情報を導出する(S1004)。その後、L1側動き導出部1624は、取得および生成したL0側およびL1側の動き情報を、mvd加算部1625に供給する。   Next, the L1 side motion deriving unit 1624 acquires the L0 side and L1 side motion information from the reference destination changing unit 1623. Thereafter, the L1 side motion deriving unit 1624 performs the predetermined L1 side motion deriving process to derive the L1 side corrected predicted motion vector information from the L0 side (S1004). Thereafter, the L1 side motion deriving unit 1624 supplies the acquired and generated L0 side and L1 side motion information to the mvd addition unit 1625.

次に、mvd加算部1625は、L1側動き導出部1624から、L0側およびL1側の動き情報を取得する。mvd加算部1625は、動き情報蓄積部207から復号対象領域に属する残差動きベクトル情報を取得する。その後、mvd加算部1625は、所定のmvd加算処理により、取得したL1側の修正予測動きベクトル情報に、残差動きベクトル情報を加算して、L1側の動きベクトル情報を生成する(S1005)。その後、mvd加算部1625は、取得および生成したL0側およびL1側の動き情報を、片側予測信号生成部1627に供給する。   Next, the mvd addition unit 1625 acquires the L0 side and L1 side motion information from the L1 side motion deriving unit 1624. The mvd addition unit 1625 acquires residual motion vector information belonging to the decoding target region from the motion information accumulation unit 207. Thereafter, the mvd adding unit 1625 adds the residual motion vector information to the acquired L1 side corrected predicted motion vector information through a predetermined mvd addition process, and generates L1 side motion vector information (S1005). Thereafter, the mvd addition unit 1625 supplies the acquired and generated motion information on the L0 side and the L1 side to the one-side prediction signal generation unit 1627.

参照ピクチャ取得部1626は、参照先変更部1623から、L0側およびL1側の動き情報を取得する。その後、参照ピクチャ取得部1626は、取得したL1側の修正参照情報をピクチャ蓄積部202に供給し、特定された参照ピクチャを取得する(S1006)。その後、参照ピクチャ取得部1626は、取得したL1側の参照ピクチャを片側予測信号生成部1606に供給する。   The reference picture acquisition unit 1626 acquires the motion information on the L0 side and the L1 side from the reference destination changing unit 1623. Thereafter, the reference picture acquisition unit 1626 supplies the acquired L1-side corrected reference information to the picture storage unit 202, and acquires the identified reference picture (S1006). Thereafter, the reference picture acquisition unit 1626 supplies the acquired L1 side reference picture to the one-side prediction signal generation unit 1606.

次に、片側予測信号生成部1627は、mvd加算部1625からL0側およびL1側の動き情報、参照ピクチャ取得部1626からL1側の参照ピクチャを取得する。その後、片側予測信号生成部1627は、取得したL1側の動きベクトル情報に基づいて、所定の片側予測信号生成処理を行うことで、L1側の予測信号を生成する(S1007)。その後、片側予測信号生成部1627は、動作モードを特定するための動作モード情報、L0側およびL1側の動き情報、ならびに予測信号を、モード識別部206に供給する。片側予測信号生成部1627は、取得および生成したL0側およびL1側の動き情報を、動作モード情報とともに動き情報蓄積部207に供給する。   Next, the one-side prediction signal generation unit 1627 acquires the L0 side and L1 side motion information from the mvd addition unit 1625 and the L1 side reference picture from the reference picture acquisition unit 1626. Thereafter, the one-side prediction signal generation unit 1627 generates a prediction signal on the L1 side by performing a predetermined one-side prediction signal generation process based on the acquired L1 side motion vector information (S1007). Thereafter, the one-side prediction signal generation unit 1627 supplies the mode identification unit 206 with the operation mode information for specifying the operation mode, the L0 side and L1 side motion information, and the prediction signal. The one-side prediction signal generation unit 1627 supplies the acquired and generated L0 side and L1 side motion information to the motion information storage unit 207 together with the operation mode information.

以上のステップにより、図16(B)の構成における動作が完了する。   Through the above steps, the operation in the configuration of FIG.

次に、図16(C)の構成における動作について、図20のフローチャートを用いて説明する。   Next, the operation in the configuration of FIG. 16C will be described with reference to the flowchart of FIG.

まず、予測信号生成開始指令を受けると、L0側動き情報取得部1641は、参照解析部209から、復号対象領域に属するL0側の動き情報としてL0側の参照情報と予測動きベクトル情報、そして予測修正情報を取得する(S1101)。その後、L0側動き情報取得部1641は、取得したL0側の動き情報を、参照先変更部1643に供給する。   First, upon receiving a prediction signal generation start command, the L0 side motion information acquisition unit 1641 receives, from the reference analysis unit 209, L0 side reference information, prediction motion vector information, and prediction as the L0 side motion information belonging to the decoding target region. Correction information is acquired (S1101). Thereafter, the L0 side motion information acquisition unit 1641 supplies the acquired L0 side motion information to the reference destination changing unit 1643.

L1側参照情報取得部1642は、参照解析部209から、取得可能であれば、L1側の参照情報および予測修正情報を取得し(S1102)、参照先変更部1643に供給する。   The L1 side reference information acquisition unit 1642 acquires reference information and prediction correction information on the L1 side from the reference analysis unit 209 if it can be acquired (S1102), and supplies them to the reference destination change unit 1643.

次に、参照先変更部1643は、L0側動き情報取得部1641からL0側の動き情報、L1側参照情報取得部1642からL1側の参照情報および予測修正情報を取得する。その後、参照先変更部1643は、動作モードに応じて、所定の参照先変更処理により、L0側の参照情報を修正し、L0側の修正参照情報を生成するとともに、L1側の参照情報を修正し、L1側の修正参照情報を生成することで、L0側およびL1側の参照先を変更する(S1103)。その後、参照先変更部1643は、取得および生成したL0側の動き情報をL0側動き導出部1644に、取得および生成したL0側およびL1側の動き情報をL1側動き導出部1645および参照ピクチャ取得部1647に供給する。   Next, the reference destination changing unit 1643 acquires the L0 side motion information from the L0 side motion information acquisition unit 1641 and the L1 side reference information and prediction correction information from the L1 side reference information acquisition unit 1642. Thereafter, the reference destination changing unit 1643 corrects the reference information on the L0 side and generates the corrected reference information on the L0 side and corrects the reference information on the L1 side by a predetermined reference destination changing process according to the operation mode. Then, the reference reference on the L0 side and the L1 side is changed by generating the correction reference information on the L1 side (S1103). After that, the reference destination changing unit 1643 acquires the acquired and generated L0 side motion information in the L0 side motion deriving unit 1644, and acquires and generates the acquired L0 side and L1 side motion information in the L1 side motion deriving unit 1645 and the reference picture acquisition. Supplied to the unit 1647.

次に、L0側動き導出部1644は、参照先変更部1643から、L0側の動き情報を取得する。その後、L0側動き導出部1644は、動作モードに応じて、所定のL0側動き導出処理を行うことで、L0側の修正予測動きベクトル情報を導出する(S1104)。その後、L0側動き導出部1644は、取得および生成したL0側の動き情報を、双予測信号生成部1648に供給する。   Next, the L0 side motion deriving unit 1644 acquires the L0 side motion information from the reference destination changing unit 1643. Thereafter, the L0 side motion deriving unit 1644 derives the L0 side corrected predicted motion vector information by performing a predetermined L0 side motion deriving process according to the operation mode (S1104). Thereafter, the L0 side motion deriving unit 1644 supplies the acquired and generated L0 side motion information to the bi-prediction signal generation unit 1648.

L1側動き導出部1645は、参照先変更部1643から、L0側およびL1側の動き情報を取得する。その後、L1側動き導出部1645は、所定のL1側動き導出処理により、L0側からL1側の修正予測動きベクトル情報を導出する(S1105)。その後、L1側動き導出部1645は、取得および生成したL0側およびL1側の動き情報を、mvd加算部1646に供給する。   The L1 side motion deriving unit 1645 acquires the motion information on the L0 side and the L1 side from the reference destination changing unit 1643. Thereafter, the L1 side motion deriving unit 1645 derives the L1 side corrected predicted motion vector information from the L0 side by a predetermined L1 side motion deriving process (S1105). Thereafter, the L1 side motion deriving unit 1645 supplies the acquired and generated L0 side and L1 side motion information to the mvd addition unit 1646.

次に、mvd加算部1646は、L1側動き導出部1645から、L0側およびL1側の動き情報を取得する。mvd加算部1646は、動き情報蓄積部207から復号対象領域に属する残差動きベクトル情報を取得する。その後、mvd加算部1646は、所定のmvd加算処理により、取得したL1側の修正予測動きベクトル情報に、残差動きベクトル情報を加算して、L1側の動きベクトル情報を生成する(S1106)。その後、mvd加算部1646は、取得および生成したL0側およびL1側の動き情報を、双予測信号生成部1648に供給する。   Next, the mvd addition unit 1646 acquires L0 side and L1 side motion information from the L1 side motion deriving unit 1645. The mvd addition unit 1646 obtains residual motion vector information belonging to the decoding target area from the motion information accumulation unit 207. Thereafter, the mvd addition unit 1646 adds the residual motion vector information to the acquired L1 side corrected predicted motion vector information through a predetermined mvd addition process to generate L1 side motion vector information (S1106). Thereafter, the mvd addition unit 1646 supplies the acquired and generated L0 side and L1 side motion information to the bi-prediction signal generation unit 1648.

参照ピクチャ取得部1647は、参照先変更部1643から、L0側およびL1側の動き情報として修正参照情報を取得する。その後、参照ピクチャ取得部1647は、L0側およびL1側の修正参照情報をピクチャ蓄積部202に供給し、特定されたL0側およびL1側の参照ピクチャを取得する(S1107)。その後、参照ピクチャ取得部1647は、取得したL0側およびL1側の参照ピクチャを双予測信号生成部1648に供給する。   The reference picture acquisition unit 1647 acquires the corrected reference information from the reference destination changing unit 1643 as the motion information on the L0 side and the L1 side. Thereafter, the reference picture acquisition unit 1647 supplies the L0 side and L1 side modified reference information to the picture storage unit 202, and acquires the specified L0 side and L1 side reference pictures (S1107). Thereafter, the reference picture acquisition unit 1647 supplies the acquired L0 side and L1 side reference pictures to the bi-prediction signal generation unit 1648.

次に、双予測信号生成部1648は、L0側動き導出部1644からL0側の動き情報、mvd加算部1646からL0側およびL1側の動き情報、参照ピクチャ取得部1647からL0側およびL1側の参照ピクチャを取得する。その後、双予測信号生成部1648は、取得したL0側の修正予測動きベクトル情報に基づいて、所定の双予測信号生成処理を行うことで、L0側の予測信号を生成する(S1108)。   Next, the bi-prediction signal generation unit 1648 receives the L0 side motion information from the L0 side motion deriving unit 1644, the mvd addition unit 1646 from the L0 side and the L1 side motion information, and the reference picture acquisition unit 1647 from the L0 side and the L1 side. Get a reference picture. Thereafter, the bi-prediction signal generation unit 1648 generates a prediction signal on the L0 side by performing a predetermined bi-prediction signal generation process based on the acquired corrected prediction motion vector information on the L0 side (S1108).

また、双予測信号生成部1648は、取得したL1側の動きベクトル情報に基づいて、所定の双予測信号生成処理を行うことで、L1側の予測信号を生成する(S1109)。   In addition, the bi-prediction signal generation unit 1648 generates a prediction signal on the L1 side by performing a predetermined bi-prediction signal generation process based on the acquired motion vector information on the L1 side (S1109).

その後、双予測信号生成部1648は、生成したL0側の予測信号とL1側の予測信号を合成して合成予測信号を生成する(S1110)。その後、双予測信号生成部1648は、動作モードを特定するための動作モード情報、取得および生成したL0側およびL1側の動き情報、ならびに合成予測信号を、モード識別部206に供給する。双予測信号生成部1648は、取得および生成したL0側およびL1側の動き情報を、動作モード情報とともに動き情報蓄積部207に供給する。   Thereafter, the bi-prediction signal generation unit 1648 combines the generated L0 side prediction signal and the L1 side prediction signal to generate a combined prediction signal (S1110). Thereafter, the bi-prediction signal generation unit 1648 supplies the mode identification unit 206 with the operation mode information for specifying the operation mode, the acquired and generated L0 side and L1 side motion information, and the combined prediction signal. The bi-prediction signal generation unit 1648 supplies the acquired and generated L0 side and L1 side motion information to the motion information storage unit 207 together with the operation mode information.

以上のステップにより、図16(C)の構成における動作が完了する。   Through the above steps, the operation in the configuration of FIG.

図17(A)の構成における動作は、図21のフローチャートによって示される。ここで、図17(A)の構成における動作は、図16(A)の構成における動作を示す図18おいて、L0側とL1側の扱いを逆として、動作させたものと同等であることから、説明を省略する。   The operation in the configuration of FIG. 17A is shown by the flowchart of FIG. Here, the operation in the configuration of FIG. 17A is equivalent to the operation in FIG. 18 showing the operation in the configuration of FIG. 16A with the handling of the L0 side and the L1 side reversed. Therefore, the description is omitted.

図17(B)の構成における動作は、図22のフローチャートによって示される。ここで、図17(B)の構成における動作は、図16(B)の構成における動作を示す図19おいて、L0側とL1側の扱いを逆として、動作させたものと同等であることから、説明を省略する。   The operation in the configuration of FIG. 17B is shown by the flowchart of FIG. Here, the operation in the configuration of FIG. 17B is equivalent to the operation in FIG. 19 showing the operation in the configuration of FIG. 16B with the handling of the L0 side and the L1 side reversed. Therefore, the description is omitted.

図17(C)の構成における動作は、図23のフローチャートによって示される。ここで、図17(C)の構成における動作は、図16(C)の構成における動作を示す図20おいて、L0側とL1側の扱いを逆として、動作させたものと同等であることから、説明を省略する。   The operation in the configuration of FIG. 17C is shown by the flowchart of FIG. Here, the operation in the configuration of FIG. 17C is equivalent to the operation in FIG. 20 showing the operation in the configuration of FIG. 16C with the handling of the L0 side and the L1 side reversed. Therefore, the description is omitted.

ここで、実施の形態2の動画像復号装置200の構成および動作により、以下のような効果が得られる。   Here, the following effects are obtained by the configuration and operation of the moving picture decoding apparatus 200 according to the second embodiment.

まず、実施の形態2の動画像復号装置200における、第1修正予測信号生成部210の構成を、図16(A)に示されるような、図7(C)の第1L0片側予測信号生成部210−1および第2L0片側予測信号生成部210−2を含むようにする。これにより、L0側の動き情報を基本として、L0側の動きベクトル情報を生成し、L0側の予測信号を生成できるようになる。したがって、実施の形態2の動画像符号化装置100における、第1修正予測信号生成部106で、図8(A)に示されるような、図7(A)の第1L0片側予測信号生成部106−1および第2L0片側予測信号生成部106−2を利用するような動作モードに基づいて符号化された符号列を取得し、取得した符号列から、上述の動作モードに応じた動きベクトル情報、および予測信号もしくは合成予測信号を得ることができ、上述の動作モードに基づいて生成された符号列を正しく復号することができるようになる。   First, in the moving picture decoding apparatus 200 of Embodiment 2, the configuration of the first modified prediction signal generation unit 210 is the first L0 one-side prediction signal generation unit in FIG. 7C as shown in FIG. 210-1 and the 2nd L0 one-side prediction signal generation part 210-2 are included. Thereby, based on the L0 side motion information, the L0 side motion vector information can be generated, and the L0 side prediction signal can be generated. Therefore, in the moving image coding apparatus 100 of Embodiment 2, the first modified prediction signal generation unit 106 uses the first L0 one-side prediction signal generation unit 106 in FIG. 7A as shown in FIG. 8A. −1 and a second L0 one-side prediction signal generation unit 106-2 are used to obtain a code string encoded based on an operation mode, and from the acquired code string, motion vector information corresponding to the above-described operation mode, In addition, a prediction signal or a combined prediction signal can be obtained, and a code string generated based on the above operation mode can be correctly decoded.

また、実施の形態2の動画像復号装置200における、第2修正予測信号生成部211の構成を、図17(A)に示されるような、図7(D)の第1L1片側予測信号生成部211−1、第2L1片側予測信号生成部211−2を含むようにする。これにより、L1側の動き情報を基本として、L1側の動きベクトル情報を生成し、L1側の予測信号を生成できるようになる。したがって、実施の形態2の動画像符号化装置100における、第2修正予測信号生成部107で、図9(A)に示されるような、図7(B)の第1L1片側予測信号生成部107−1、第2L1片側予測信号生成部107−2の構成を利用するような動作モードに基づいて符号化された符号列を取得し、取得した符号列から、上述の動作モードに応じた動きベクトル情報、および予測信号もしくは合成予測信号を得ることができ、上述の動作モードに基づいて生成された符号列を正しく復号することができるようになる。   Further, in the moving picture decoding apparatus 200 of Embodiment 2, the configuration of the second modified prediction signal generation unit 211 is the first L1 one-side prediction signal generation unit in FIG. 7D as shown in FIG. 211-1 and the second L1 one-side predicted signal generator 211-2. Thereby, based on the motion information on the L1 side, motion vector information on the L1 side can be generated, and a prediction signal on the L1 side can be generated. Therefore, in the moving image coding apparatus 100 of Embodiment 2, the second modified prediction signal generation unit 107 in the first L1 one-side prediction signal generation unit 107 in FIG. 7B as shown in FIG. 9A. -1, a code sequence encoded based on an operation mode that uses the configuration of the second L1 one-side prediction signal generation unit 107-2 is acquired, and a motion vector corresponding to the above-described operation mode is acquired from the acquired code sequence Information, a prediction signal, or a combined prediction signal can be obtained, and a code string generated based on the above-described operation mode can be correctly decoded.

また、実施の形態2の動画像復号装置200における、第1修正予測信号生成部210の構成を、図16(B)に示されるような、図7(C)の第1L0−L1片側予測信号生成部210−3および第2L0−L1片側予測信号生成部210−4を含むようにする。これにより、L0側の動き情報を基本として、L1側の修正予測動きベクトル情報を導出し、L1側の動きベクトル情報を生成し、L1側の予測信号を生成することができるようになる。したがって、実施の形態2の動画像符号化装置100における、第1修正予測信号生成部106で、図8(B)に示されるような、図7(A)の第1L0−L1片側予測信号生成部106−3および第2L0−L1片側予測信号生成部106−4の構成を利用するような動作モードに基づいて符号化された符号列を取得し、取得した符号列から、上述の動作モードに応じた動きベクトル情報、および予測信号もしくは合成予測信号を得ることができ、上述の動作モードに基づいて生成された符号列を正しく復号することができるようになる。   Also, the configuration of the first modified prediction signal generation unit 210 in the video decoding device 200 of Embodiment 2 is the first L0-L1 one-side prediction signal of FIG. 7C as shown in FIG. A generation unit 210-3 and a second L0-L1 one-side prediction signal generation unit 210-4 are included. As a result, based on the L0 side motion information, the L1 side modified prediction motion vector information can be derived, the L1 side motion vector information can be generated, and the L1 side prediction signal can be generated. Therefore, in the moving image encoding apparatus 100 of Embodiment 2, the first modified prediction signal generation unit 106 generates the first L0-L1 one-side prediction signal in FIG. 7A as shown in FIG. 8B. Unit 106-3 and the second L0-L1 one-side prediction signal generation unit 106-4 are used to obtain a coded sequence based on the operation mode, and from the obtained code sequence to the above-described operation mode. Corresponding motion vector information and a prediction signal or a combined prediction signal can be obtained, and a code string generated based on the above-described operation mode can be correctly decoded.

また、実施の形態2の動画像復号装置200における、第2修正予測信号生成部211の構成を、図17(B)に示されるような、図7(D)の第1L1−L0片側予測信号生成部211−3および第2L1−L0片側予測信号生成部211−4を含むようにする。これにより、L1側の動き情報を基本として、L0側の修正予測動きベクトル情報を導出し、L0側の動きベクトル情報を生成し、L0側の予測信号を生成することができるようになる。したがって、実施の形態2の動画像符号化装置100における、第1修正予測信号生成部106で、図9(B)に示されるような、図7(B)の第1L1−L0片側予測信号生成部107−3および第2L1−L0片側予測信号生成部107−4の構成を利用するような動作モードに基づいて符号化された符号列を取得し、取得した符号列から、上述の動作モードに応じた動きベクトル情報、および予測信号もしくは合成予測信号を得ることができ、上述の動作モードに基づいて生成された符号列を正しく復号することができるようになる。   Further, in the moving picture decoding apparatus 200 according to Embodiment 2, the configuration of the second modified prediction signal generation unit 211 is the first L1-L0 one-side prediction signal in FIG. 7D as shown in FIG. The generation unit 211-3 and the second L1-L0 one-side prediction signal generation unit 211-4 are included. As a result, based on the L1 side motion information, the L0 side modified prediction motion vector information can be derived, the L0 side motion vector information can be generated, and the L0 side prediction signal can be generated. Therefore, in the moving image coding apparatus 100 of Embodiment 2, the first modified prediction signal generation unit 106 generates the first L1-L0 one-side prediction signal of FIG. 7B as shown in FIG. 9B. Unit 107-3 and the second L1-L0 one-side prediction signal generation unit 107-4 are used to obtain a code sequence encoded based on an operation mode, and from the acquired code sequence to the above-described operation mode. Corresponding motion vector information and a prediction signal or a combined prediction signal can be obtained, and a code string generated based on the above-described operation mode can be correctly decoded.

また、実施の形態2の動画像復号装置200における、第1修正予測信号生成部210の構成を、図16(C)に示されるような、図7(C)の第1L0−L1双予測信号生成部210−5、第2L0−L1双予測信号生成部210−6、第3L0−L1双予測信号生成部210−7および第4L0−L1双予測信号生成部210−8を含むようにする。これにより、L0側の動き情報を基本として、L1側の動きベクトル情報を生成し、L0側の予測信号とL1側の予測信号を生成した上で、双予測信号となる合成予測信号を生成することができるようになる。したがって、実施の形態2の動画像符号化装置100における、第1修正予測信号生成部106で、図8(C)に示されるような、図7(A)の第1L0−L1双予測信号生成部106−5、第2L0−L1双予測信号生成部106−6、第3L0−L1双予測信号生成部106−7および第4L0−L1双予測信号生成部106−8の構成を利用するような動作モードに基づいて符号化された符号列を取得し、取得した符号列から、上述の動作モードに応じた動きベクトル情報、および予測信号もしくは合成予測信号を得ることができ、上述の動作モードに基づいて生成された符号列を正しく復号することができるようになる。   Further, the configuration of the first modified prediction signal generation unit 210 in the moving picture decoding apparatus 200 according to Embodiment 2 is the first L0-L1 bi-prediction signal shown in FIG. 7C as shown in FIG. A generation unit 210-5, a second L0-L1 bi-prediction signal generation unit 210-6, a third L0-L1 bi-prediction signal generation unit 210-7, and a fourth L0-L1 bi-prediction signal generation unit 210-8 are included. Thus, based on the L0 side motion information, the L1 side motion vector information is generated, the L0 side prediction signal and the L1 side prediction signal are generated, and then the combined prediction signal that becomes the bi-prediction signal is generated. Will be able to. Therefore, in the moving image encoding apparatus 100 of Embodiment 2, the first modified prediction signal generation unit 106 generates the first L0-L1 bi-prediction signal of FIG. 7A as shown in FIG. 8C. Unit 106-5, second L0-L1 bi-prediction signal generation unit 106-6, third L0-L1 bi-prediction signal generation unit 106-7, and fourth L0-L1 bi-prediction signal generation unit 106-8 A code sequence encoded based on the operation mode is acquired, and motion vector information corresponding to the above-described operation mode and a prediction signal or a combined prediction signal can be obtained from the acquired code sequence. The code string generated based on this can be correctly decoded.

(1)L0側およびL1側ともに参照先を変更しないようにする動作モードである第1L0−L1双予測モード、
(2)L0側は参照先を変更しないようにし、L1側の修正予測動きベクトル情報を導出する際に利用する参照情報に対して、所定の方法に基づいて参照先を変更することで修正参照情報を生成し、L1側の修正予測動きベクトル情報の導出に利用するような動作モードである第2L0−L1双予測モード、
(3)L0側の修正予測動きベクトル情報を導出する際に利用する参照情報に対して、所定の方法に基づいて参照先を変更することで修正参照情報を生成し、L0側の修正予測動きベクトル情報の導出に利用し、L1側は参照先を変更しないようにする動作モードである第3L0−L1双予測モード、
(4)L0側およびL1側ともに参照先を変更することでL0側およびL1側の修正参照情報を生成し、L0側およびL1側の修正予測動きベクトル情報の導出に利用するような動作モードである第4L0−L1双予測モード、
等をもつことにより、上述の動作モードに基づいて生成された符号列を正しく復号することができるようになる。
(1) a first L0-L1 bi-prediction mode that is an operation mode in which the reference destination is not changed on both the L0 side and the L1 side;
(2) The reference destination is not changed on the L0 side, and the reference is modified by changing the reference destination based on a predetermined method with respect to the reference information used when the corrected motion vector information on the L1 side is derived. A second L0-L1 bi-prediction mode, which is an operation mode that generates information and is used for deriving the L1 side modified prediction motion vector information;
(3) For the reference information used when deriving the L0-side corrected predicted motion vector information, corrected reference information is generated by changing the reference destination based on a predetermined method, and the L0-side corrected predicted motion A third L0-L1 bi-prediction mode, which is an operation mode that is used for deriving vector information and does not change the reference destination on the L1 side,
(4) In an operation mode in which modified reference information on the L0 side and the L1 side is generated by changing the reference destination on both the L0 side and the L1 side, and is used to derive the modified predicted motion vector information on the L0 side and the L1 side. A fourth L0-L1 bi-prediction mode,
Etc., the code string generated based on the above-described operation mode can be correctly decoded.

また、実施の形態2の動画像符号化装置100側において、上述のような第1から第4のL0−L1双予測モードをもつことで、参照先の変更や、一方の修正予測動きベクトル情報に対して動き探索により修正することにより、従来の空間的、時間的なダイレクトモードでは難しかった、L0側の予測信号およびL1側の予測信号の品質を、少ない情報量で変化させ、合成予測信号の品質を従来の手法による合成予測信号の品質以上となるように制御することができる。実施の形態2の動画像復号装置200側においては、上述のような第1から第4のL0−L1双予測モードをもつことで、このようにして生成された符号列を取得し、正しく復号することができるようになる。   In addition, the moving image encoding apparatus 100 according to the second embodiment has the first to fourth L0-L1 bi-prediction modes as described above, so that the reference destination can be changed or one of the prediction motion vector information can be corrected. By using motion search, the quality of the L0 side prediction signal and the L1 side prediction signal, which was difficult in the conventional spatial and temporal direct mode, is changed with a small amount of information, and the combined prediction signal Can be controlled to be equal to or higher than the quality of the synthesized prediction signal by the conventional method. The moving image decoding apparatus 200 according to the second embodiment has the first to fourth L0-L1 bi-prediction modes as described above, so that the code string generated in this way is acquired and decoded correctly. Will be able to.

また、実施の形態2の動画像符号化装置100側において、上述のような第1から第4のL0−L1双予測モードをもつことで、従来の手法による双予測のように、2つの予測動きベクトル情報から2つの動きベクトル情報を確定させるとともに、2つの残差動きベクトル情報を符号化する必要がなくなるため、動き情報に関して、より効率の良い符号列を生成することができる。実施の形態2の動画像復号装置200側においては、上述のような第1から第4のL0−L1双予測モードをもつことで、このようにして生成された符号列を取得し、正しく復号することができるようになる。   In addition, the moving image coding apparatus 100 according to the second embodiment has the first to fourth L0-L1 bi-prediction modes as described above, so that two predictions can be performed as in the bi-prediction according to the conventional method. Since the two motion vector information is determined from the motion vector information and it is not necessary to encode the two residual motion vector information, a more efficient code string can be generated for the motion information. The moving image decoding apparatus 200 according to the second embodiment has the first to fourth L0-L1 bi-prediction modes as described above, so that the code string generated in this way is acquired and decoded correctly. Will be able to.

また、実施の形態2の動画像復号装置200における、第2修正予測信号生成部211の構成を、図17(C)に示されるような、図7(D)の第1L1−L0双予測信号生成部211−5、第2L1−L0双予測信号生成部211−6、第3L1−L0双予測信号生成部211−7および第4L1−L0双予測信号生成部211−8を含むようにする。これにより、L1側の動き情報を基本として、L0側の動きベクトル情報を生成し、L0側の予測信号とL1側の予測信号を生成した上で、双予測信号となる合成予測信号を生成することができるようになる。したがって、実施の形態2の動画像符号化装置100における、第2修正予測信号生成部107で、図9(C)に示されるような、図7(B)の第1L1−L0双予測信号生成部107−5、第2L1−L0双予測信号生成部107−6、第3L1−L0双予測信号生成部107−7および第4L1−L0双予測信号生成部107−8の構成を利用するような動作モードに基づいて符号化された符号列を取得し、取得した符号列から、上述の動作モードに応じた動きベクトル情報、および予測信号もしくは合成予測信号を得ることができ、上述の動作モードに基づいて生成された符号列を正しく復号することができるようになる。   Further, in the moving picture decoding apparatus 200 according to Embodiment 2, the configuration of the second modified prediction signal generation unit 211 is the first L1-L0 bi-prediction signal in FIG. 7D as shown in FIG. A generation unit 211-5, a second L1-L0 bi-prediction signal generation unit 211-6, a third L1-L0 bi-prediction signal generation unit 211-7, and a fourth L1-L0 bi-prediction signal generation unit 211-8 are included. As a result, based on the L1 side motion information, L0 side motion vector information is generated, a L0 side prediction signal and an L1 side prediction signal are generated, and then a combined prediction signal to be a bi-prediction signal is generated. Will be able to. Therefore, the second modified prediction signal generation unit 107 in the moving picture coding apparatus 100 of Embodiment 2 generates the first L1-L0 bi-prediction signal of FIG. 7B as shown in FIG. 9C. Unit 107-5, the second L1-L0 bi-prediction signal generation unit 107-6, the third L1-L0 bi-prediction signal generation unit 107-7, and the fourth L1-L0 bi-prediction signal generation unit 107-8 are used. A code sequence encoded based on the operation mode is acquired, and motion vector information corresponding to the above-described operation mode and a prediction signal or a combined prediction signal can be obtained from the acquired code sequence. The code string generated based on this can be correctly decoded.

更に、実施の形態2の動画像符号化装置100および動画像復号装置200の第1および第2修正予測信号生成部における動作モードは、上述された動作モード以外にも、例えば、図24および図25に示されるような、修正予測モードインデックスに関連付けられた動作モードのうち少なくとも1つをもち、符号化制御部120および復号制御部216は、その動作モードに従って、各部の制御を行うように構成しても構わない。また、この修正予測モードインデックスを動作モード情報として符号化、復号するように構成しても構わない。   Furthermore, the operation modes in the first and second modified prediction signal generation units of the moving image encoding apparatus 100 and the moving image decoding apparatus 200 according to Embodiment 2 are other than the operation modes described above, for example, FIG. 24 and FIG. 25. The encoding control unit 120 and the decoding control unit 216 are configured to control each unit according to the operation mode, having at least one of the operation modes associated with the modified prediction mode index as shown in FIG. It doesn't matter. Moreover, you may comprise so that this correction | amendment prediction mode index may be encoded and decoded as operation mode information.

図24および図25に示される修正予測モードインデックスにおいて、例えば、第1L0−L1双予測モードの場合、図24の修正予測モードインデックス20に対応する。また、第2L0−L1双予測モードの場合、修正予測モードインデックス22に対応する。また、第3L0−L1双予測モードの場合、修正予測モードインデックス21に対応する。また、第4L0−L1双予測モードの場合、修正予測モードインデックス23に対応する。   In the modified prediction mode index shown in FIGS. 24 and 25, for example, in the case of the first L0-L1 bi-prediction mode, it corresponds to the modified prediction mode index 20 in FIG. Further, in the case of the second L0-L1 bi-prediction mode, it corresponds to the modified prediction mode index 22. Further, in the case of the third L0-L1 bi-prediction mode, it corresponds to the modified prediction mode index 21. Further, in the case of the fourth L0-L1 bi-prediction mode, it corresponds to the modified prediction mode index 23.

図24に示される修正予測モードインデックスに対応する動作モードは、例えば、図8(C)、図9(C)、図16(C)、図17(C)のような構成で用いられると良い。また、図25に示される修正予測モードインデックスに対応する動作モードは、例えば、図8(A)、図8(B)、図9(A)、図9(B)、図16(A)、図16(B)、図17(A)、図17(B)のような構成で用いられると良い。   The operation mode corresponding to the modified prediction mode index shown in FIG. 24 is preferably used in a configuration such as that shown in FIGS. 8C, 9C, 16C, and 17C. . The operation modes corresponding to the modified prediction mode index shown in FIG. 25 are, for example, FIG. 8 (A), FIG. 8 (B), FIG. 9 (A), FIG. 9 (B), FIG. 16B, 17A, and 17B may be used.

(実施の形態3) merge/AMVPとの関連付け.
ISO/IECおよびITU−Tにおける動画像符号化の規格化作業の中で新たな2つの動きベクトル情報の予測技術が検討されている。
(Embodiment 3) Association with merge / AMVP.
Two new motion vector information prediction techniques have been studied in the standardization work of moving picture coding in ISO / IEC and ITU-T.

1つ目の技術は、例えば、図26で示されるような対象予測ブロックの周囲に存在する符号化済みの隣接ブロックに属する動きベクトル情報や、図27で示されるような符号化済みで参照ピクチャもしくは非参照ピクチャとなっている、対象ピクチャとは時間が異なる別のピクチャにおける、予測対象ブロックと同一の空間位置にあるアンカーブロックの周辺ブロックに属する動きベクトル情報について、それぞれを予測動きベクトル情報の候補として適用した場合の発生符号量を評価し、予測動きベクトル情報を特定する手法である。   The first technique is, for example, motion vector information belonging to an encoded adjacent block around the target prediction block as shown in FIG. 26, or an encoded reference picture as shown in FIG. Alternatively, for motion vector information belonging to the peripheral block of the anchor block in the same spatial position as the prediction target block in another picture that is a non-reference picture and has a different time from the target picture, This is a technique for evaluating the amount of generated code when applied as a candidate and specifying predicted motion vector information.

図26および図27では、予測動きベクトル情報の候補となる隣接ブロックの一例を示している。図26は、同一ピクチャ内の隣接ブロックの例であり、図27は時間が異なる別のピクチャの同一位置の周辺ブロックの例である。これらのブロックの動きベクトル情報を予測動きベクトル情報の候補とし、処理対象のブロックの動きベクトル情報と予測動きベクトル情報の候補との差分値の発生符号量を最小とする予測動きベクトル情報を選択する。選択した予測動きベクトル情報との差分値である残差動きベクトル情報と、当該予測動きベクトル情報に対応する隣接ブロックに関する付加情報を必要であれば符号化し、伝送する。この1つ目の技術の動作を特定するための動き予測モードとして、便宜上、Advanced動きベクトル予測(以後、AMVP)モードと呼ぶ。   FIG. 26 and FIG. 27 show an example of adjacent blocks that are candidates for motion vector predictor information. FIG. 26 is an example of an adjacent block in the same picture, and FIG. 27 is an example of a peripheral block at the same position of another picture having a different time. The motion vector information of these blocks is used as a candidate for predicted motion vector information, and predicted motion vector information that minimizes the generated code amount of the difference value between the motion vector information of the block to be processed and the predicted motion vector information candidate is selected. . Residual motion vector information, which is a difference value from the selected predicted motion vector information, and additional information related to the adjacent block corresponding to the predicted motion vector information are encoded and transmitted if necessary. As a motion prediction mode for specifying the operation of the first technique, it is referred to as an advanced motion vector prediction (hereinafter, AMVP) mode for convenience.

2つ目の技術は、例えば、特開平10−276439号報にも開示されるように、処理対象ブロックと周囲の既符号化済みの隣接ブロックの動き情報が同一であれば、処理対象ブロックは自身の動き情報を符号化せずに、隣接ブロックの動き情報を符号化に使用する。このように、参照する動き情報を備える隣接ブロックを指定する付加情報を符号化することで、動き情報の符号量を削減する手法である。このような手法は、マージ(merge)と呼ばれ、動き情報の符号量削減の一手法として注目されている。この2つ目の技術の動作を特定するための動き予測モードとして、便宜上、merge(または、マージ)モードと呼ぶ。   For example, as disclosed in Japanese Patent Laid-Open No. 10-276439, the second technique is that if the motion information of the processing target block and the surrounding already-encoded adjacent blocks are the same, the processing target block is The motion information of the adjacent block is used for encoding without encoding its own motion information. Thus, this is a technique for reducing the amount of code of motion information by encoding additional information that designates an adjacent block having motion information to be referenced. Such a method is called “merge” and has attracted attention as a method for reducing the code amount of motion information. As a motion prediction mode for specifying the operation of the second technique, it is called a merge (or merge) mode for convenience.

図28(A)は、上述の2つの技術の概念を含めた、符号化の予測モードに基づいて符号化のモードを大別した図である。画像間予測(Interモード)の場合、まずマージ手法を使用するか否かでマージモードと非マージモードに分けられる。非マージモードは、ブロックマッチング等の動き検出を実際に行うモードであり、動き検出モードと言い換えることができる。マージモードは、更にskipモードと非skipモードに分けられる。skipモードは、参照する隣接ブロックの符号化情報により予測された予測信号を復号ピクチャとするため、残差情報は0となり残差情報の符号化伝送を必要とせず、符号化情報の参照先を表す参照情報であるインデックスのみを符号化伝送するモードである。skipモードの符号化情報はマージモードと同様であり、ここでは残差情報を符号化伝送する場合をマージモードと限定することにする。   FIG. 28A is a diagram in which encoding modes are roughly classified based on encoding prediction modes, including the above-described two techniques. In the case of inter-image prediction (Inter mode), first, it is divided into a merge mode and a non-merge mode depending on whether or not the merge method is used. The non-merge mode is a mode in which motion detection such as block matching is actually performed, which can be called a motion detection mode. The merge mode is further divided into a skip mode and a non-skip mode. In the skip mode, the prediction signal predicted by the encoding information of the adjacent block to be referred to is a decoded picture. Therefore, the residual information is 0 and encoding transmission of the residual information is not required, and the reference destination of the encoding information is set. In this mode, only the index, which is reference information to be expressed, is encoded and transmitted. The coding information in the skip mode is the same as that in the merge mode. Here, the case where the residual information is encoded and transmitted is limited to the merge mode.

Interモードの符号化の対象となる信号を分類した表を図28(B)に示す。skipモードでは、他のモードとは異なり、画像残差信号の符号化伝送を必要としないため、図28(A)の予測モードの分岐順に判定を行うよりも、先にskipモードの判定を行う方がモード判定に使用されるフラグの符号量を抑えることができる。   FIG. 28B shows a table in which signals to be encoded in the Inter mode are classified. Unlike the other modes, the skip mode does not require the coded transmission of the image residual signal. Therefore, the skip mode is determined before the determination in the branch order of the prediction mode in FIG. In this way, the code amount of the flag used for mode determination can be suppressed.

実施の形態3の動画像符号化装置100および動画像復号装置200では、上述のような新しい2つの技術を、実施の形態1や実施の形態2における、符号化側の動き予測部104および復号側の動き予測部208に導入した構成とすることができる。また、上述のような新しい2つの技術や、他の動き予測処理を、動き予測モードに応じて、動作を切り替えて符号化および復号できるように構成することもできる。   In the moving picture coding apparatus 100 and the moving picture decoding apparatus 200 according to the third embodiment, the two new techniques as described above are applied to the coding-side motion prediction unit 104 and the decoding in the first and second embodiments. The configuration introduced into the side motion prediction unit 208 can be adopted. Also, the two new techniques as described above and other motion prediction processes can be configured to be able to encode and decode by switching the operation according to the motion prediction mode.

例えば、図3に示される実施の形態3の動画像符号化装置の動作は、AMVPモードにより特定された、予測動きベクトル情報の候補を利用するように構成することができる。ステップS102において、動き予測部104は、所定の動き予測処理としてAMVPモードを適用し、AMVP処理により特定された、少なくとも1つの予測動きベクトル情報の候補を、順次、参照解析部105に供給する。その後は図3に示されるステップを進み、ステップS105において、モード判定部108は、動き予測部104のAVMP処理において、予測動きベクトル情報の候補となったものに基づいて生成された、動作モードに応じた、参照情報もしくは修正参照情報、生成した残差動きベクトル情報、および予測信号を取得し、入力部101から対象信号を取得する。   For example, the operation of the moving picture coding apparatus according to the third embodiment shown in FIG. 3 can be configured to use prediction motion vector information candidates specified by the AMVP mode. In step S102, the motion prediction unit 104 applies the AMVP mode as the predetermined motion prediction process, and sequentially supplies at least one motion vector predictor candidate identified by the AMVP process to the reference analysis unit 105. After that, the process proceeds to the steps shown in FIG. 3, and in step S105, the mode determination unit 108 sets the operation mode generated based on the candidate motion vector information in the AVMP process of the motion prediction unit 104. In response, the reference information or the corrected reference information, the generated residual motion vector information, and the prediction signal are acquired, and the target signal is acquired from the input unit 101.

その後、モード判定部108は、モード判定処理および動作モードを確定するための比較判定を行う。ここで、現在取得した参照情報もしくは修正参照情報、生成した残差動きベクトル情報、および予測信号の情報量が、他の動作モードによる情報量よりも大きい場合には、まだ動作モードが確定していない(S106のNO)ものとしてステップS102に戻る。ステップS102に戻ることで、動き予測部104は、AMVP処理により特定された、別の予測動きベクトル情報の候補を、参照解析部105に供給する。このような処理を繰り返し行い、ステップS106において、モード判定部108が、最も情報量が少なくなるような動作モードを特定する。その後のステップは、図3と同様の動作を行い、実施の形態3の動画像符号化装置100における基本動作を完了するように構成することができる。   Thereafter, the mode determination unit 108 performs a mode determination process and a comparison determination for determining the operation mode. Here, when the information amount of the currently acquired reference information or corrected reference information, the generated residual motion vector information, and the prediction signal is larger than the information amount of the other operation modes, the operation mode has not yet been determined. If there is no (NO in S106), the process returns to step S102. By returning to step S102, the motion prediction unit 104 supplies another reference motion vector information candidate identified by the AMVP process to the reference analysis unit 105. Such processing is repeated, and in step S106, the mode determination unit 108 identifies an operation mode that minimizes the amount of information. Subsequent steps can be configured to perform the same operation as in FIG. 3 and complete the basic operation in the moving picture coding apparatus 100 of the third embodiment.

同様に、例えば、図3に示される実施の形態3の動画像符号化装置100の動作は、マージモードにより特定された、予測動きベクトル情報の候補を利用するように構成することができる。ステップS102において、動き予測部104は、所定の動き予測処理としてマージモードを適用し、マージ処理により特定された、少なくとも1つの予測動きベクトル情報の候補を、順次、参照解析部105に供給する。その後は図3に示されるステップを進み、ステップS105において、モード判定部108は、動き予測部104のマージ処理において予測動きベクトル情報の候補となったものに基づいて生成された、動作モードに応じた、参照情報もしくは修正参照情報、生成した残差動きベクトル情報、および予測信号を取得し、入力部101から対象信号を取得する。   Similarly, for example, the operation of the moving picture coding apparatus 100 according to the third embodiment shown in FIG. 3 can be configured to use the predicted motion vector information candidates specified by the merge mode. In step S <b> 102, the motion prediction unit 104 applies the merge mode as the predetermined motion prediction process, and sequentially supplies at least one predicted motion vector information candidate specified by the merge process to the reference analysis unit 105. Thereafter, the process proceeds to the steps shown in FIG. 3. In step S105, the mode determination unit 108 responds to the operation mode generated based on the motion vector predictor 104 that is a candidate for predicted motion vector information in the merge process. Further, reference information or modified reference information, generated residual motion vector information, and a prediction signal are acquired, and a target signal is acquired from the input unit 101.

その後、モード判定部108は、モード判定処理および動作モードを確定するための比較判定を行う。ここで、現在取得した参照情報もしくは修正参照情報、生成した残差動きベクトル情報、および予測信号の情報量が、他の動作モードによる情報量よりも大きい場合には、まだ動作モードが確定していない(S106のNO)ものとしてステップS102に戻る。ステップS102に戻ることで、動き予測部104は、マージ処理により特定された、別の予測動きベクトル情報の候補を、参照解析部105に供給する。このような処理を繰り返し行い、ステップS106において、モード判定部108が、最も情報量が少なくなるような動作モードを特定する。その後のステップは、図3と同様の動作を行い、実施の形態3の動画像符号化装置100における基本動作を完了するように構成することができる。   Thereafter, the mode determination unit 108 performs a mode determination process and a comparison determination for determining the operation mode. Here, when the information amount of the currently acquired reference information or corrected reference information, the generated residual motion vector information, and the prediction signal is larger than the information amount of the other operation modes, the operation mode has not yet been determined. If there is no (NO in S106), the process returns to step S102. By returning to step S <b> 102, the motion prediction unit 104 supplies another prediction motion vector information candidate specified by the merge process to the reference analysis unit 105. Such processing is repeated, and in step S106, the mode determination unit 108 identifies an operation mode that minimizes the amount of information. Subsequent steps can be configured to perform the same operation as in FIG. 3 and complete the basic operation in the moving picture coding apparatus 100 of the third embodiment.

このような、実施の形態3の動画像符号化装置100および動画像復号装置200の構成および動作により、以下のような効果が得られる。   The following effects are obtained by the configuration and operation of the moving picture coding apparatus 100 and the moving picture decoding apparatus 200 according to the third embodiment.

まず、実施の形態3の動画像符号化装置100および動画像復号装置200の構成や動作に、AMVPモードを適用することで、実施の形態3の動画像符号化装置100の第1修正予測信号生成部106および/または第2修正予測信号生成部107において、AMVPモードにより厳選された少なくとも1つの予測動きベクトル情報の候補に基づいて、取得した予測動きベクトル情報候補のリスト側の情報を基準とした修正予測信号生成処理を行うことができる。これにより、AMVPモードによって、予測動きベクトル情報として利用できる候補が増加することから、AMVPモードではない所定の動き予測処理で供給される予測動きベクトル情報を利用して、修正予測信号生成処理を行って得られる修正予測動きベクトル情報とは異なったものを得ることができる。よって、AMVPモードではない場合よりも、異なる動きベクトル情報、残差動きベクトル情報、および予測信号を得ることができる。このような異なるものの中から、参照情報もしくは修正参照情報、生成した残差動きベクトル情報、および予測信号の情報量が、最も少なくなるような予測動きベクトル情報候補を特定し、動作モードを決定することができるようになる。つまり、より多様な動作モードによる結果の中から、より最善な結果を選択し、符号化することができるようになる。   First, by applying the AMVP mode to the configuration and operation of the moving picture coding apparatus 100 and the moving picture decoding apparatus 200 according to the third embodiment, the first modified prediction signal of the moving picture coding apparatus 100 according to the third embodiment. In the generation unit 106 and / or the second modified prediction signal generation unit 107, based on at least one prediction motion vector information candidate carefully selected in the AMVP mode, the obtained information on the list side of the prediction motion vector information candidates is used as a reference. The modified prediction signal generation process can be performed. As a result, candidates that can be used as predicted motion vector information are increased by the AMVP mode, so that the corrected predicted signal generation process is performed using the predicted motion vector information supplied in a predetermined motion prediction process that is not in the AMVP mode. What is different from the corrected predicted motion vector information obtained in this way can be obtained. Therefore, different motion vector information, residual motion vector information, and prediction signals can be obtained than in the case of not being in the AMVP mode. Among such different information, the motion vector is determined by specifying a motion vector predictor information candidate that minimizes the amount of information of the reference information or the corrected reference information, the generated residual motion vector information, and the predicted signal. Will be able to. That is, the best result can be selected and encoded from the results of more various operation modes.

また、AMVPモードにより厳選された少なくとも1つの予測動きベクトル情報の候補が得られることから、より確からしい予測動きベクトル情報として修正予測信号生成処理を行うことができる。よって、生成される修正予測動きベクトル情報の精度を高めることができる。その結果、修正予測動きベクトル情報に基づいて動き探索を行って動きベクトル情報を確定し、動きベクトル情報から修正予測動きベクトル情報を減算して得られる残差動きベクトル情報の情報量を低減することができるようになる。また、修正予測動きベクトル情報の精度が高まることにより、予測信号の品質をあまり低下させずに、動き探索自体の処理量を抑制するように構成することができるようになる。   In addition, since at least one candidate of predicted motion vector information carefully selected in the AMVP mode is obtained, a corrected predicted signal generation process can be performed as more likely predicted motion vector information. Therefore, the accuracy of the generated modified predicted motion vector information can be increased. As a result, a motion search is performed based on the corrected predicted motion vector information to determine the motion vector information, and the information amount of the residual motion vector information obtained by subtracting the corrected predicted motion vector information from the motion vector information is reduced. Will be able to. In addition, since the accuracy of the modified prediction motion vector information is increased, the processing amount of the motion search itself can be suppressed without significantly reducing the quality of the prediction signal.

また、AMVPモードによって、より確からしい予測動きベクトル情報が得られるようになることで、得られた予測動きベクトル情報のリスト側の予測信号の品質を高めることができるようになる。そして、得られた予測動きベクトル情報のリスト側の予測信号と、もう一方のリスト側の予測信号とを合成して得られる合成予測信号の品質を高めることができるようになる。ここで、もう一方のリスト側の予測信号とは、予測動きベクトル情報からもう一方のリスト側の修正予測動きベクトル情報を導出し、動きベクトル情報を特定し、動きベクトル情報に基づいて得られたもう一方のリスト側の予測信号のことである。したがって、AMVPモードではない場合よりも、合成予測信号の品質が良くなることから、得られる残差信号の情報量を更に低減することができるようになる。   In addition, since more reliable predicted motion vector information can be obtained by the AMVP mode, the quality of the prediction signal on the list side of the obtained predicted motion vector information can be improved. Then, the quality of the combined prediction signal obtained by combining the prediction signal on the list side of the obtained prediction motion vector information and the prediction signal on the other list side can be improved. Here, the prediction signal on the other list side is obtained based on the motion vector information by deriving the modified prediction motion vector information on the other list side from the prediction motion vector information, specifying the motion vector information It is the prediction signal on the other list side. Accordingly, since the quality of the combined prediction signal is improved as compared with the case where the AMVP mode is not used, the amount of information of the obtained residual signal can be further reduced.

また、マージモードを適用することで、実施の形態3の動画像符号化装置100の第1修正予測信号生成部106および/または第2修正予測信号生成部107において、マージモードにより厳選された少なくとも1つの予測動きベクトル情報の候補に基づいて、取得した予測動きベクトル情報候補のリスト側の情報を基準とした修正予測信号生成処理を行うことができる。これにより、マージモードによって、予測動きベクトル情報として利用できる候補が増加することから、マージモードではない所定の動き予測処理で供給される予測動きベクトル情報を利用して、修正予測信号生成処理を行って得られる修正予測動きベクトル情報とは異なったものを得ることができる。よって、マージモードではない場合よりも、異なる動きベクトル情報、残差動きベクトル情報、および予測信号を得ることができる。このような異なるものの中から、参照情報もしくは修正参照情報、生成した残差動きベクトル情報、および予測信号の情報量が、最も少なくなるような予測動きベクトル情報候補を特定し、動作モードを決定することができるようになる。つまり、より多様な動作モードによる結果の中から、より最善な結果を選択し、符号化することができるようになる。   In addition, by applying the merge mode, at least the first modified prediction signal generation unit 106 and / or the second modified prediction signal generation unit 107 of the video encoding device 100 according to Embodiment 3 is carefully selected according to the merge mode. Based on a single prediction motion vector information candidate, a modified prediction signal generation process can be performed with reference to information on the acquired list of prediction motion vector information candidates. As a result, candidates that can be used as predicted motion vector information increase in the merge mode, so that the corrected predicted signal generation process is performed using the predicted motion vector information supplied in a predetermined motion prediction process that is not in the merge mode. What is different from the corrected predicted motion vector information obtained in this way can be obtained. Therefore, different motion vector information, residual motion vector information, and prediction signals can be obtained than in the case where the mode is not the merge mode. Among such different information, the motion vector is determined by specifying a motion vector predictor information candidate that minimizes the amount of information of the reference information or the corrected reference information, the generated residual motion vector information, and the predicted signal. Will be able to. That is, the best result can be selected and encoded from the results of more various operation modes.

また、マージモードにより厳選された少なくとも1つの予測動きベクトル情報の候補が得られることから、より確からしい予測動きベクトル情報として修正予測信号生成処理を行うことができる。よって、生成される修正予測動きベクトル情報の精度を高めることができる。その結果、修正予測動きベクトル情報に基づいて動き探索を行って動きベクトル情報を確定し、動きベクトル情報から修正予測動きベクトル情報を減算して得られる残差動きベクトル情報の情報量を低減することができるようになる。また、修正予測動きベクトル情報の精度が高まることにより、予測信号の品質をあまり低下させずに、動き探索自体の処理量を抑制するように構成することができるようになる。   Moreover, since at least one candidate of predicted motion vector information carefully selected in the merge mode is obtained, a corrected predicted signal generation process can be performed as more likely predicted motion vector information. Therefore, the accuracy of the generated modified predicted motion vector information can be increased. As a result, a motion search is performed based on the corrected predicted motion vector information to determine the motion vector information, and the information amount of the residual motion vector information obtained by subtracting the corrected predicted motion vector information from the motion vector information is reduced. Will be able to. In addition, since the accuracy of the modified prediction motion vector information is increased, the processing amount of the motion search itself can be suppressed without significantly reducing the quality of the prediction signal.

また、マージモードによって、より確からしい予測動きベクトル情報が得られるようになることで、得られた予測動きベクトル情報のリスト側の予測信号の品質を高めることができるようになる。そして、得られた予測動きベクトル情報のリスト側の予測信号と、もう一方のリスト側の予測信号とを合成して得られる合成予測信号の品質を高めることができるようになる。ここで、もう一方のリスト側の予測信号とは、予測動きベクトル情報からもう一方のリスト側の修正予測動きベクトル情報を導出し、動きベクトル情報を特定し、動きベクトル情報に基づいて得られたもう一方のリスト側の予測信号のことである。したがって、マージモードではない場合よりも、合成予測信号の品質が良くなることから、得られる残差信号の情報量を更に低減することができるようになる。   Further, since more predictive motion vector information can be obtained by the merge mode, the quality of the prediction signal on the list side of the obtained motion vector predictor information can be improved. Then, the quality of the combined prediction signal obtained by combining the prediction signal on the list side of the obtained prediction motion vector information and the prediction signal on the other list side can be improved. Here, the prediction signal on the other list side is obtained based on the motion vector information by deriving the modified prediction motion vector information on the other list side from the prediction motion vector information, specifying the motion vector information It is the prediction signal on the other list side. Therefore, since the quality of the synthesized prediction signal is improved as compared with the case where the mode is not the merge mode, the information amount of the obtained residual signal can be further reduced.

更に、AMVPモード、マージモード、または他の所定の動き予測モードを、得られる結果の情報量に応じて、切り替えながら利用することで、得られる結果である、参照情報もしくは修正参照情報、生成した残差動きベクトル情報、および予測信号の情報量が最も少なくなる動作モードを特定することができるようになり、更に符号化効率を向上させることができるようになる。   Furthermore, the reference information or the corrected reference information, which is an obtained result, is generated by using the AMVP mode, the merge mode, or another predetermined motion prediction mode while switching according to the information amount of the obtained result. The operation mode in which the residual motion vector information and the amount of information of the prediction signal are minimized can be specified, and the encoding efficiency can be further improved.

(実施の形態4) 符号列、シンタックスの説明.
実施の形態4の動画像符号化装置100では、例えば、図29のような符号列を生成し、出力するような構成とすることができる。また、実施の形態4の動画像復号装置200では、このような符号列を取得し、正しく復号するような構成とすることができる。実施の形態4は、実施の形態1から実施の形態3までのような構成要素をもち、図29のような符号列を生成するように構成することができる。
(Embodiment 4) Description of code string and syntax.
The moving picture encoding apparatus 100 according to Embodiment 4 can be configured to generate and output a code string as shown in FIG. 29, for example. Also, the moving picture decoding apparatus 200 according to Embodiment 4 can be configured to acquire such a code string and correctly decode it. The fourth embodiment can be configured to generate the code string as shown in FIG. 29 with the components as in the first to third embodiments.

この符号列は、次のような構成であると良い。図29は、実施の形態4によって生成される符号列の構成を説明するための概念図である。生成される符号列は、例えば、大別すると、ヘッダ情報2901およびデータ情報2902で構成される。このヘッダ情報2901内に、実施の形態4の動画像符号化装置100によって符号化されたものであることを示すためのフラグとしてのビット列2903が含まれるように構成することができる。また、ある所定の単位で実施の形態4の動画像符号化装置100による符号化を使用したか否かを判別できるように、より細かい処理単位におけるヘッダ情報内に、使用識別フラグとしてのビット列を含むようにすることができる。   This code string is preferably configured as follows. FIG. 29 is a conceptual diagram for explaining the configuration of a code string generated by the fourth embodiment. For example, the generated code string is roughly composed of header information 2901 and data information 2902. The header information 2901 can be configured to include a bit string 2903 as a flag for indicating that the header information 2901 has been encoded by the moving image encoding apparatus 100 according to the fourth embodiment. In addition, a bit string as a use identification flag is included in the header information in a finer processing unit so that it can be determined whether or not the encoding by the moving image encoding apparatus 100 of Embodiment 4 has been used in a certain predetermined unit. Can be included.

例えば、ピクチャもしくはスライス単位で実施の形態4の動画像符号化装置100による符号化の使用を制御するために、ヘッダ情報2904およびデータ情報2905を含むピクチャもしくはスライスのヘッダ情報2904内に、実施の形態4の動画像符号化装置100による符号化の使用を制御するためのフラグとしてのビット列2906を含むようにしても良い。また、更に細かい処理単位、例えばマクロブロックや予測ブロックの単位で実施の形態4の動画像符号化装置100による符号化の使用を制御するために、ヘッダ情報2907およびデータ情報2908を含むマクロブロックや予測ブロックのヘッダ情報2907内に、実施の形態4の動画像符号化装置100による符号化の使用を制御するためのフラグとしてのビット列2909を含むようにしても良い。また、このようなヘッダ情報に対して、実施の形態4の動作モードを特定するためのモード情報をビット列として格納するように符号化ビット列を構成しても良い。更に、このようなヘッダ情報に対して、実施の形態4の動画像符号化装置100の各部の動作や初期状態を制御するためのパラメータ情報を、ビット列として格納するように符号化ビット列を構成しても良い。   For example, in order to control the use of coding by the moving picture coding apparatus 100 of the fourth embodiment in units of pictures or slices, the header information 2904 including the header information 2904 and the data information 2905 includes A bit string 2906 as a flag for controlling use of encoding by the moving picture encoding apparatus 100 according to the fourth aspect may be included. Further, in order to control the use of coding by the moving picture coding apparatus 100 according to the fourth embodiment in units of smaller processing units, such as macroblocks and prediction blocks, macroblocks including header information 2907 and data information 2908 The prediction block header information 2907 may include a bit string 2909 as a flag for controlling the use of coding by the moving picture coding apparatus 100 according to the fourth embodiment. In addition, the encoded bit string may be configured such that mode information for specifying the operation mode of the fourth embodiment is stored as a bit string for such header information. Further, for such header information, a coded bit string is configured so that parameter information for controlling the operation and initial state of each part of the moving picture coding apparatus 100 according to Embodiment 4 is stored as a bit string. May be.

次に、符号列の所定の構文構造である、シンタックスについて説明する。図29で示される符号列は、例えば、図30(A)、(B)のような構文を含むように構成すると良い。図30(A)、(B)は、ISO/IECおよびITU−Tにおいて規格化作業中の動画像符号化であるHEVCで定義されようとしているシンタックスの一部である。これは、予測ブロック(以後、PU)単位で必要となるヘッダ情報およびデータ情報の構文を示すためのシンタックスとなっている。   Next, a syntax that is a predetermined syntax structure of the code string will be described. The code string shown in FIG. 29 may be configured to include a syntax as shown in FIGS. 30 (A) and 30 (B), for example. FIGS. 30A and 30B are a part of syntax that is going to be defined by HEVC, which is a moving image coding under standardization work in ISO / IEC and ITU-T. This is a syntax for indicating the syntax of header information and data information required for each prediction block (hereinafter referred to as PU).

図30(A)、(B)のシンタックスでは、まず、PUの単位よりも大きな処理単位のシンタックス内に含まれているskip_flagを参照する。ここで、PUの単位よりも大きな処理単位、つまりPUより上位のシンタックスとしては、符号化ブロック(coding unit またはCU)の単位、符号化ツリー(coding tree)の単位、スライス(slice)の単位、スライスヘッダ(slice header)の単位、ピクチャ(picture parameter set)の単位、シーケンス(sequence parameter set)の単位のシンタックスであればよく、また、他のより上位に位置する単位であっても構わない。skip_flagに関しては、CUのシンタックス内に定義されているものとして話を進める。   In the syntaxes of FIGS. 30A and 30B, first, skip_flag included in the syntax of a processing unit larger than the unit of PU is referred to. Here, the processing unit larger than the unit of PU, that is, the syntax higher than the PU includes a unit of coding block (coding unit or CU), a unit of coding tree (coding tree), and a unit of slice (slice). , A slice header unit, a picture parameter set unit, and a sequence (sequence parameter set) unit may be used. The unit may be positioned higher than other units. Absent. With regard to skip_flag, the discussion proceeds assuming that it is defined in the syntax of the CU.

skip_flagが真「1」で、更に参照する隣接ブロックの候補の総数NumMergeCandが1つを超える場合、符号化情報を参照する隣接ブロックの候補のリストであるマージリストのインデックスのシンタックス要素merge_idxが設置される。NumMergeCandが1つの場合は、その1つが参照する隣接ブロックとなるので、merge_idxを伝送せずとも参照する隣接ブロックの候補が確定する。次に、予測ブロックの予測モードが画像内予測(Intraモード)の場合、Intraモードに必要なシンタックス要素が設置されるが、詳細は省略する。次に、予測ブロックの予測モードが画像間予測(Interモード)の場合、マージモードか否かを示すフラグmerge_flagが設置される。merge_flagが真「1」で、更に参照する隣接ブロックの候補の総数NumMergeCandが1つを超える場合、マージモードが適用され、符号化情報を参照する隣接ブロックの候補のリストであるマージリストのインデックスのシンタックス要素merge_idxが設置される。NumMergeCandが1つの場合は、その1つが参照する隣接ブロックとなるので、merge_idxを伝送せずとも参照する隣接ブロックの候補が確定する。merge_flagが偽「0」の場合、マージモードを適用せず、通常の動きベクトル検出を行い、動きベクトルや参照ピクチャ番号等の符号化情報を伝送する場合である。   When skip_flag is true “1” and the total number of adjacent block candidates to be referred to exceeds NumMergeCand, the syntax element merge_idx of the index of the merge list that is a list of adjacent block candidates that refer to the encoding information is set. Is done. When there is one NumMergeCand, it becomes an adjacent block to be referred to, so that a candidate for an adjacent block to be referred to is determined without transmitting merge_idx. Next, when the prediction mode of the prediction block is intra-picture prediction (Intra mode), syntax elements necessary for the Intra mode are installed, but the details are omitted. Next, when the prediction mode of the prediction block is inter-picture prediction (Inter mode), a flag merge_flag indicating whether or not the mode is the merge mode is set. When merge_flag is true “1” and the total number NumMergeCand of adjacent block candidates to be referred to exceeds one, the merge mode is applied, and the index of the merge list index that is a list of adjacent block candidates that reference the encoding information A syntax element merge_idx is set. When there is one NumMergeCand, it becomes an adjacent block to be referred to, so that a candidate for an adjacent block to be referred to is determined without transmitting merge_idx. When merge_flag is false “0”, the merge mode is not applied, normal motion vector detection is performed, and encoded information such as a motion vector and a reference picture number is transmitted.

予測ブロック毎に、予測方向LX(X=0或いは1)に基づき、動きベクトル検出にて求められた参照ピクチャ番号を表すシンタックス要素ref_idx_lXと動きベクトルと予測ブロックの周囲の隣接ブロックの予測動きベクトルとの差分動きベクトルのシンタックス要素mvd_lX[][][i]が設置される。ここで、Xは0或いは1で予測方向を示し、iは差分動きベクトルの成分を表し、i=0はx成分を、i=1はy成分を表す。次に、予測動きベクトルの候補の総数NumMvpCand(LX)が1つを超える場合に、参照する予測動きベクトルの候補のリストであるMVPリストのインデックスのシンタックス要素mvp_idx_lXが設置される。NumMvpCand(LX)は、予測方向LX((X=0或いは1)で予測ブロックの予測動きベクトルの候補の総数を算出する関数を表す。また、動きベクトルの予測方法により予測動きベクトルの候補の総数NumMvpCand(LX,i)が1つの場合に、インデックスmvp_idx_lXは設置されず、符号化されない。予測動きベクトルの候補の総数が1つであれば、その1つが予測動きベクトルとなるので、mvp_idx_lXを伝送せずとも参照する予測動きベクトルの候補が確定する。以上のようなシンタックスに基づいて、HEVCではPUに関する符号化情報が格納される。   For each prediction block, based on the prediction direction LX (X = 0 or 1), a syntax element ref_idx_lX representing a reference picture number obtained by motion vector detection, a motion vector, and a prediction motion vector of neighboring blocks around the prediction block The syntax element mvd_lX [] [] [i] of the difference motion vector is established. Here, X represents a prediction direction with 0 or 1, i represents a differential motion vector component, i = 0 represents an x component, and i = 1 represents a y component. Next, when the total number NumMvpCand (LX) of motion vector predictor candidates exceeds one, an MVP list index syntax element mvp_idx_lX, which is a list of motion vector predictor candidates to be referred to, is installed. NumMvpCand (LX) represents a function for calculating the total number of motion vector predictor candidates for the prediction block in the prediction direction LX (X = 0 or 1), and the total number of motion vector predictor candidates according to the motion vector prediction method. When there is one NumMvpCand (LX, i), the index mvp_idx_lX is not set and is not encoded, and if the total number of motion vector predictor candidates is 1, one of them becomes a motion vector predictor, so mvp_idx_lX is transmitted The prediction motion vector candidate to be referred to is determined at least, and based on the syntax as described above, the HEVC stores encoding information related to the PU.

図30(A)、(B)のようなHEVCのシンタックスに対して、実施の形態4の動画像符号化装置100および動画像復号装置200では、例えば、図31(A)〜(C)から図34(A)〜(D)のようなシンタックスによる符号列を生成、および復号するように構成することができる。   In contrast to the HEVC syntax as shown in FIGS. 30A and 30B, the moving picture coding apparatus 100 and the moving picture decoding apparatus 200 according to the fourth embodiment use, for example, FIGS. 31A to 31C. 34A to 34D, a code string having a syntax as shown in FIGS. 34A to 34D can be generated and decoded.

図31(A)〜(C)は、符号化モードがマージモードであり、その上で実施の形態4の動作モードによって符号化される場合のPUにおけるシンタックスの一例を表している。図31(A)〜(C)の大部分のシンタックスは、図30(A)、(B)と同様であると良い。実施の形態4では、merge_idxが設置された後、PUよりも上位のシンタックス内において設置されるlp_bi_mode_flagを参照する。このlp_bi_mode_flagは、実施の形態4の動画像符号化装置100により符号化がされたか否かを表すフラグである。lp_bi_mode_flagが真「1」である場合には、次に、lp_bi_mode_idxが設置される。このlp_bi_mode_idxは、実施の形態4の動画像符号化装置100および動画像復号装置200の第1および第2修正予測信号生成部における動作モードを特定するための修正予測モードインデックスである。   FIGS. 31A to 31C illustrate an example of syntax in the PU when the encoding mode is the merge mode and the encoding is performed according to the operation mode of the fourth embodiment. The syntax of most of FIGS. 31A to 31C is preferably the same as that of FIGS. In Embodiment 4, after merge_idx is installed, lp_bi_mode_flag installed in the syntax higher than PU is referred. This lp_bi_mode_flag is a flag indicating whether or not encoding has been performed by the moving image encoding apparatus 100 according to the fourth embodiment. If lp_bi_mode_flag is true “1”, then lp_bi_mode_idx is installed. This lp_bi_mode_idx is a modified prediction mode index for specifying an operation mode in the first and second modified prediction signal generation units of the moving picture coding apparatus 100 and the moving picture decoding apparatus 200 according to Embodiment 4.

その後、lp_bi_mode_idxで特定される動作モードから修正参照情報を必要とするか否かを特定し、内部情報としてLpBiModListとして保持する。このLpBiModListから、必要とする修正参照情報が、L0側もしくはL0側とL1側の両方である場合には、lp_bi_ref_idx0が設置される。更に、このLpBiModListから、必要とする修正参照情報が、L1側もしくはL0側とL1側の両方である場合には、次に、lp_bi_ref_idx1が設置される。このlp_bi_ref_idx0およびlp_bi_ref_idx1は、修正参照情報を特定するためのインデックスである。   After that, it is determined whether or not modification reference information is required from the operation mode specified by lp_bi_mode_idx, and is stored as LpBiModList as internal information. From this LpBiModList, lp_bi_ref_idx0 is set when the necessary modification reference information is on the L0 side or on both the L0 side and the L1 side. Further, if the required modification reference information is L1 side or both L0 side and L1 side from this LpBiModList, lp_bi_ref_idx1 is set next. The lp_bi_ref_idx0 and lp_bi_ref_idx1 are indexes for specifying the modified reference information.

その後、実施の形態4の動画像符号化装置100および動画像復号装置200の第1および第2修正予測信号生成部で利用する、1つ分の残差動きベクトル情報を特定するための、mvd_lp[][][0]およびmvd_lp[][][1]が配置される。lp_bi_mode_flagが偽「0」である場合には、実施の形態4の動作モードは利用しないため、実施の形態4の動作モードで必要とする符号化情報は配置されない。   Thereafter, mvd_lp for specifying one residual motion vector information used in the first and second modified prediction signal generation units of the video encoding device 100 and the video decoding device 200 according to the fourth embodiment. [] [] [0] and mvd_lp [] [] [1] are arranged. When lp_bi_mode_flag is false “0”, since the operation mode of the fourth embodiment is not used, the encoding information necessary for the operation mode of the fourth embodiment is not arranged.

図32(A)〜(C)は、符号化モードがマージモードであり、その上で実施の形態4の動作モードによって符号化される場合のPUにおけるシンタックスの別の一例を表している。この図32(A)〜(C)では、マージモードがPU単位で継続している間は、実施の形態4の動作モードを利用する場合、マージモードが開始したPUのlp_bi_mode_idxのみを利用し、PUごとにlp_bi_mode_idxを格納しないようなシンタックスとなっている。このようにすることで、動作モードを特定するためのインデックスを伝送するための符号量を削減することができるようになる。ここで、マージモードの継続は、内部情報としてMergeContinueとして管理し、マージモードが2回以上連続して発生している場合には「1」とし、それ以外は「0」とすることで、判断できるようにすると良い。   FIGS. 32A to 32C show another example of syntax in the PU when the encoding mode is the merge mode and the encoding is performed according to the operation mode of the fourth embodiment. In FIGS. 32A to 32C, while the merge mode continues in units of PUs, when using the operation mode of the fourth embodiment, only the lp_bi_mode_idx of the PU in which the merge mode is started is used. The syntax is such that lp_bi_mode_idx is not stored for each PU. By doing so, it is possible to reduce the amount of codes for transmitting an index for specifying the operation mode. Here, the continuation of the merge mode is managed as MergeContinue as internal information, and is determined as “1” when the merge mode is continuously generated twice or more, and “0” otherwise. It should be possible.

図33(A)〜(D)は、符号化モード自体が、実施の形態4の動作モードで符号化される場合のPUにおけるシンタックスの一例を表している。この図33(A)〜(D)では、実施の形態4の動作モードを利用したか否かを判断するために、inter_pred_flagに新たなモードとしてPred_LP_BIを追加し、inter_pred_flagがPred_LP_BIであった場合に、実施の形態4の動作モードで必要とする符号化情報を配置するようなシンタックスとなっている。また、このシンタックスでは、符号化モードとしてはマージモードではないが、マージ処理もしくはAMVP処理を利用して予測動きベクトル情報の候補を、実施の形態4の動作モードで利用できるような構成となっている。つまり、符号化モードとしては、マージモードやAMVPモードではないため、実施の形態4の動作モードでは、本来の符号化モードとしてのマージモードで配置されるmerge_idxの値や、本来の符号化モードとしてのAMVPモードで配置されるmvp_idx_l0およびmvp_idx_l1の値とは異なる値を設定することで、予測動きベクトル情報の候補の中から、実施の形態4の動作モードにおいて有効な予測動きベクトル情報を特定できるような構成となっている。   33A to 33D show an example of syntax in the PU when the encoding mode itself is encoded in the operation mode of the fourth embodiment. In FIGS. 33A to 33D, in order to determine whether or not the operation mode of Embodiment 4 is used, Pred_LP_BI is added as a new mode to inter_pred_flag, and when inter_pred_flag is Pred_LP_BI. The syntax is such that encoding information required in the operation mode of the fourth embodiment is arranged. In this syntax, the encoding mode is not the merge mode, but the prediction motion vector information candidates can be used in the operation mode of the fourth embodiment using the merge process or the AMVP process. ing. That is, since the encoding mode is not the merge mode or AMVP mode, in the operation mode of the fourth embodiment, the value of merge_idx arranged in the merge mode as the original encoding mode or the original encoding mode is used. By setting a value different from the values of mvp_idx_l0 and mvp_idx_l1 arranged in the AMVP mode, it is possible to specify the prediction motion vector information effective in the operation mode of Embodiment 4 from the prediction motion vector information candidates It has become a structure.

また、lp_bi_mode_idxから、実施の形態4の動作モードにおいて、マージモードに基づく動作モードであるか、AVMPモードに基づく動作モードであるかを特定し、内部情報であるBasePredModeとして保持し、BasePredModeがMerge、つまりマージモードである場合には、merge_idxが図33(A)〜(D)のように配置される。また、BasePredModeがMerge以外である場合、つまりAMVPモードである場合には、mvp_idx_lpが図33(A)〜(D)のように配置される。   Further, from the lp_bi_mode_idx, in the operation mode of the fourth embodiment, the operation mode based on the merge mode or the operation mode based on the AVMP mode is specified and retained as BasePredMode which is internal information, and BasePredMode is Merge, That is, in the merge mode, merge_idx is arranged as shown in FIGS. In addition, when BasePredMode is other than Merge, that is, in the AMVP mode, mvp_idx_lp is arranged as shown in FIGS.

図34(A)〜(D)は、符号化モード自体が、実施の形態4の動作モードで符号化される場合のPUにおけるシンタックスの別の一例を表している。図33(A)〜(D)ではinter_pred_flagによって実施の形態4の動作モードを利用したか否かを判断していたが、図34(A)〜(D)では、PUよりも上位のシンタックス内において設置されるlp_bi_mode_flagを参照して、実施の形態4の動作モードを利用したか否かを判断するような構成となっている。それ以外のシンタックスは、図33(A)〜(D)と同様である。   34A to 34D show another example of syntax in the PU when the encoding mode itself is encoded in the operation mode of the fourth embodiment. In FIGS. 33 (A) to 33 (D), whether or not the operation mode of the fourth embodiment is used is determined based on inter_pred_flag. In FIGS. 34 (A) to 34 (D), syntax higher than PU is used. With reference to lp_bi_mode_flag installed inside, it is configured to determine whether or not the operation mode of the fourth embodiment is used. The other syntax is the same as that shown in FIGS.

また、図31(A)〜(C)から図34(A)〜(D)のようなシンタックスにおいて、lp_bi_ref_idxl0およびlp_bi_ref_idxl1を配置せず、merge_idxやmvp_idx_lpから特定するように構成しても構わない。また、図31(A)〜(C)から図34(A)〜(D)のようなシンタックスにおいて、lp_bi_ref_idxl0およびlp_bi_ref_idxl1を配置せず、所定の参照解析処理に基づいて、所定のルールに基づいて参照先を特定するように構成しても構わない。   Further, in the syntaxes shown in FIGS. 31A to 31C to FIGS. 34A to 34D, lp_bi_ref_idxl0 and lp_bi_ref_idxl1 may not be arranged, and may be specified from merge_idx and mvp_idx_lp. . Further, in the syntaxes shown in FIGS. 31A to 31C to FIGS. 34A to 34D, lp_bi_ref_idxl0 and lp_bi_ref_idxl1 are not arranged, and based on a predetermined reference analysis process and based on a predetermined rule. The reference destination may be specified.

また、実施の形態4では、例えば、図31(A)〜(C)から図34(A)〜(D)のようなシンタックスにおいて、実施の形態4として追加した部分を組み合わせたシンタックスによる符号列を生成、および復号するように構成しても構わない。また、図31(A)〜(C)から図34(A)〜(D)のようなシンタックスは一例であり、実施の形態1から実施の形態3の構成で、符号化側および復号側で動作モードに応じて必要とする符号化情報を格納できるシンタックスであれば良い。   Further, in the fourth embodiment, for example, in the syntax as shown in FIGS. 31 (A) to (C) to FIGS. 34 (A) to (D), it is based on the syntax that combines the parts added as the fourth embodiment. You may comprise so that a code sequence may be produced | generated and decoded. Also, the syntaxes shown in FIGS. 31A to 31C to FIGS. 34A to 34D are examples, and in the configurations of the first to third embodiments, the encoding side and the decoding side are used. In this case, any syntax can be used as long as encoding information necessary for the operation mode can be stored.

以上のようなシンタックスを含む符号列を生成および復号する、実施の形態4の動画像符号化装置100および動画像復号装置200の構成および動作により、以下のような効果が得られる。   The following effects are obtained by the configuration and operation of the moving picture coding apparatus 100 and the moving picture decoding apparatus 200 according to Embodiment 4 that generate and decode a code string including the syntax as described above.

まず、例えば、図31(A)〜(C)のようなシンタックスを含む符号列とすることで、符号化モードがマージモードである場合に、実施の形態4の動作モードを行うか否かを切り替えることができるようになる。また、符号化モードがマージモード(以後区別のため、符号化マージモード)であり、実施の形態4の動作モードを行う場合に、符号化マージモードで特定されたmerge_idxにより、実施の形態4の動作モードで利用する、予測動きベクトル情報の候補の中で、符号化マージモードで最良とされた予測動きベクトル情報および参照情報を候補の中から特定し、実施の形態4の動作モードで利用することができるようになる。したがって、実施の形態4の動作モードで新たに予測動きベクトル情報および参照情報を特定するための情報を符号列に含める必要がなくなることから、例えば、図31(A)〜(C)のようなシンタックスで、lp_bi_ref_idxl0およびlp_bi_ref_idxl1を配置しないようなシンタックスとすることで、この予測動きベクトル情報および参照情報を特定するための情報に必要となる符号量を削減することができ、符号列の符号化効率を向上させることができるようになる。   First, for example, whether or not the operation mode of the fourth embodiment is performed when the encoding mode is the merge mode by using a code string including syntax as shown in FIGS. 31 (A) to (C). Can be switched. In addition, when the encoding mode is the merge mode (hereinafter, the encoding merge mode for distinction) and the operation mode of the fourth embodiment is performed, the merge_idx specified in the encoding merge mode is used to determine that of the fourth embodiment. Among the motion vector predictor candidates used in the operation mode, the motion vector predictor information and the reference information that are best in the coding merge mode are identified from the candidates and used in the operation mode of the fourth embodiment. Will be able to. Therefore, since it is not necessary to newly include information for specifying predicted motion vector information and reference information in the code string in the operation mode of the fourth embodiment, for example, as shown in FIGS. By using a syntax that does not place lp_bi_ref_idxl0 and lp_bi_ref_idxl1, the amount of code required for the information for specifying the predicted motion vector information and the reference information can be reduced, and the code of the code string Efficiency can be improved.

また、例えば、図31(A)〜(C)のようなシンタックスを含む符号列とすることで、実施の形態4の動作モードを行うか否かを、符号化マージモードの単位で制御することができるようになる。これにより、実施の形態4の動作モードで必要とする符号化情報を符号列に含める頻度を軽減することができ、符号列の符号化効率を向上させることができるようになる。   Also, for example, by using a code string including syntax as shown in FIGS. 31A to 31C, whether or not to perform the operation mode of the fourth embodiment is controlled in units of the encoding merge mode. Will be able to. Thereby, it is possible to reduce the frequency of including the coding information required in the operation mode of Embodiment 4 in the code string, and to improve the coding efficiency of the code string.

また、仮に、符号化マージモードで最良とされた予測動きベクトル情報および参照情報が、実施の形態4の動作モードでは最良な予測動きベクトル情報および参照情報ではなく、他の候補の中に最良なものがある場合であっても、図31(A)〜(C)のようなシンタックスや、図31(A)〜(C)のようなシンタックスに、更に、lp_bi_merge_idxをlp_bi_mode_idx以後に配置することで、実施の形態4の動作モードで最良となる予測動きベクトル情報を、候補の中から新たに選択することができるようになる。これにより、残差動きベクトル情報や予測信号もしくは合成予測信号の情報量を低減させることができ、符号列の符号化効率を向上させることができるようになる。ここで、lp_bi_merge_idxやlp_bi_ref_idxl0およびlp_bi_ref_idxl1は、これらのいずれか、もしくはいずれかとの組み合わせ、もしくは全てを、配置することができるようなシンタックスとすることで、実施の形態4の動作モードで最良となる予測動きベクトル情報や参照情報が得られるようにすることができるようになる。   Also, it is assumed that the predicted motion vector information and reference information that are best in the coding merge mode are not the best predicted motion vector information and reference information in the operation mode of Embodiment 4, but the best among other candidates. Even if there is something, lp_bi_merge_idx is arranged after lp_bi_mode_idx in the syntax as shown in FIGS. 31A to 31C or the syntax as shown in FIGS. As a result, the predicted motion vector information that is the best in the operation mode of the fourth embodiment can be newly selected from the candidates. Thereby, the information amount of residual motion vector information, a prediction signal, or a synthetic | combination prediction signal can be reduced, and the encoding efficiency of a code sequence can be improved. Here, lp_bi_merge_idx, lp_bi_ref_idxl0, and lp_bi_ref_idxl1 are the best in the operation mode of the fourth embodiment by using any one of these, a combination thereof, or a syntax that can be arranged. Predicted motion vector information and reference information can be obtained.

また、例えば図31(A)〜(C)のようなシンタックスを含む符号列とすることで、1つ分の残差動きベクトル情報を特定するためのmvd_lpを含めることができるようになるため、符号化マージモードで最良とされた予測動きベクトル情報から、修正予測動きベクトル情報を導出し、残差動きベクトル情報を加算することで動きベクトル情報を生成し、この動きベクトル情報により予測動きベクトル情報とは異なるリスト側の予測信号を生成することができる。これにより、予測信号を特定するための動きベクトル情報を修正することができるようになり、本来の符号化マージモードで得られるL0側およびL1側の予測信号や、これらを合成して得られる合成予測信号よりも、品質の良い予測信号および合成予測信号を得ることができるようになる。   Further, for example, mvd_lp for specifying one piece of residual motion vector information can be included by using a code string including syntax as shown in FIGS. 31 (A) to (C). Then, the motion vector information is generated by deriving the corrected motion vector information from the predicted motion vector information that is best in the coding merge mode, and adding the residual motion vector information, and the motion vector information is used to generate the motion vector predictor. A prediction signal on the list side different from the information can be generated. As a result, the motion vector information for specifying the prediction signal can be corrected, the L0 side and L1 side prediction signals obtained in the original encoding merge mode, and the synthesis obtained by synthesizing them. It becomes possible to obtain a prediction signal and a synthesized prediction signal with better quality than the prediction signal.

また、仮に、符号化マージモードで最良とされた予測動きベクトル情報および参照情報が、実施の形態4の動作モードでは最良な予測動きベクトル情報および参照情報ではなく、他の候補の中に最良なものがある場合において、図31(A)〜(C)のようなシンタックスや、図31(A)〜(C)のようなシンタックスに、更に、lp_bi_merge_idxをlp_bi_mode_idx以後に配置することで、実施の形態4の動作モードで最良となる予測動きベクトル情報を、候補の中から新たに選択できるようにし、mvd_lpから残差動きベクトル情報を特定し、符号化マージモードで選択された予測動きベクトル情報の候補の中から、最良な予測動きベクトル情報および参照情報を特定し、これらに基づいて修正予測動きベクトル情報を導出し、残差動きベクトル情報を加算することで動きベクトル情報を生成し、この動きベクトル情報により予測動きベクトル情報とは異なるリスト側の予測信号を生成することができる。これにより、予測信号を特定するための動きベクトル情報を修正することができるようになり、本来の符号化マージモードで得られるL0側およびL1側の予測信号や、これらを合成して得られる合成予測信号よりも、品質の良い予測信号および合成予測信号を得ることができるようになる。   Also, it is assumed that the predicted motion vector information and reference information that are best in the coding merge mode are not the best predicted motion vector information and reference information in the operation mode of Embodiment 4, but the best among other candidates. In the case where there is something, by placing lp_bi_merge_idx after lp_bi_mode_idx in the syntax as shown in FIGS. 31 (A) to (C) or the syntax as shown in FIGS. 31 (A) to (C), Prediction motion vector information that is best selected in the operation mode of Embodiment 4 can be newly selected from candidates, residual motion vector information is identified from mvd_lp, and a prediction motion vector selected in the encoding merge mode From the information candidates, the best predicted motion vector information and reference information are identified, and the corrected predicted motion vector information is derived based on these information. Generates motion vector information by calculation, it is possible to generate a prediction signal of the different lists side to the predicted motion vector information by the motion vector information. As a result, the motion vector information for specifying the prediction signal can be corrected, the L0 side and L1 side prediction signals obtained in the original encoding merge mode, and the synthesis obtained by synthesizing them. It becomes possible to obtain a prediction signal and a synthesized prediction signal with better quality than the prediction signal.

また、図32(A)〜(C)のようなシンタックスを含む符号列とすることで、符号化マージモードが継続している間において、実施の形態4の動作モードを1つだけ含めるようにすることで、所定の処理単位、例えばPU単位ごとに、毎回動作モードを含めないようにすることができるようになる。これにより、動作モードを特定するための情報で必要となる符号量を削減することができ、符号列の符号化効率を向上させることができるようになる。   Also, by using a code string including syntax as shown in FIGS. 32A to 32C, only one operation mode of the fourth embodiment is included while the encoding merge mode continues. By doing so, it becomes possible not to include the operation mode every time a predetermined processing unit, for example, PU unit. As a result, the amount of code required for the information for specifying the operation mode can be reduced, and the coding efficiency of the code string can be improved.

また、図33(A)〜(D)のような、符号化モード自体が、実施の形態4の動作モードで符号化されるようなシンタックスを含む符号列とすることで、符号化マージモードではないが、マージモードによって得られる予測動きベクトル情報および参照情報の候補や、符号化モードがAMVPモード(以後区別のため、符号化AMVPモード)ではないが、AMVPモードによって得られる予測動きベクトル情報および参照情報の候補の中から、実施の形態4の動作モードで最良となる予測動きベクトル情報を、候補の中から新たに選択することができるようになる。これにより、残差動きベクトル情報や予測信号もしくは合成予測信号の情報量を低減させることができ、符号列の符号化効率を向上させることができるようになる。ここで、lp_bi_merge_idxやlp_bi_ref_idxl0およびlp_bi_ref_idxl1は、これらのいずれか、もしくはいずれかとの組み合わせ、もしくは全てを、配置することができるようなシンタックスとすることで、実施の形態4の動作モードで最良となる予測動きベクトル情報や参照情報が得られるようにすることができるようになる。   33A to 33D, the encoding mode itself is a code string including syntax that is encoded in the operation mode of the fourth embodiment, so that the encoding merge mode is performed. However, prediction motion vector information and reference information candidates obtained by the merge mode, and prediction motion vector information obtained by the AMVP mode although the encoding mode is not the AMVP mode (hereinafter, the encoded AMVP mode for distinction). Also, from among the candidates for reference information, the predicted motion vector information that is the best in the operation mode of the fourth embodiment can be newly selected from the candidates. Thereby, the information amount of residual motion vector information, a prediction signal, or a synthetic | combination prediction signal can be reduced, and the encoding efficiency of a code sequence can be improved. Here, lp_bi_merge_idx, lp_bi_ref_idxl0, and lp_bi_ref_idxl1 are the best in the operation mode of the fourth embodiment by using any one of these, a combination thereof, or a syntax that can be arranged. Predicted motion vector information and reference information can be obtained.

また、例えば、図33(A)〜(D)のようなシンタックスを含む符号列とすることで、実施の形態4の動作モードを行うか否かを、実施の形態4の動作モードの単位で制御することができるようになる。これにより、実施の形態4の動作モードで必要とする符号化情報を符号列に含める頻度を高めることができるようになり、きめ細かな制御ができるようになることから、符号列の符号化効率を向上させることができるようになる。   Further, for example, by using a code string including syntax as shown in FIGS. 33A to 33D, whether or not to perform the operation mode of the fourth embodiment is determined, the unit of the operation mode of the fourth embodiment. It becomes possible to control with. As a result, it is possible to increase the frequency with which the encoding information required in the operation mode of the fourth embodiment is included in the code string, and fine control can be performed. Can be improved.

また、図34(A)〜(D)のような、PUよりも上位のシンタックス内において設置されるlp_bi_mode_flagを参照して、実施の形態4の動作モードを利用したか否かを判断するようなシンタックスを含む符号列とすることで、実施の形態4の動作モードを行うか否かを、より大きな処理単位で制御することができるようになる。これにより、実施の形態4の動作モードで必要とする符号化情報を符号列に含める頻度を軽減することができ、符号列の符号化効率を向上させることができるようになる。   In addition, referring to lp_bi_mode_flag installed in the syntax higher than the PU as shown in FIGS. 34A to 34D, it is determined whether or not the operation mode of the fourth embodiment is used. By using a code string including a simple syntax, whether or not to perform the operation mode of the fourth embodiment can be controlled in a larger processing unit. Thereby, it is possible to reduce the frequency of including the coding information required in the operation mode of Embodiment 4 in the code string, and to improve the coding efficiency of the code string.

以上述べた実施の形態4の動画像符号化装置100が出力する動画像の符号列である、符号化ストリームは、そこで用いられた符号化方法に応じて復号することができるように特定のデータフォーマットを有しており、実施の形態4の動画像符号化装置100に対応する実施の形態4の動画像復号装置200がこの特定のデータフォーマットの符号化ストリームを復号することができる。   The encoded stream, which is the code sequence of the moving image output from the moving image encoding apparatus 100 according to the fourth embodiment described above, has specific data so that it can be decoded according to the encoding method used there. The moving picture decoding apparatus 200 according to the fourth embodiment corresponding to the moving picture encoding apparatus 100 according to the fourth embodiment can decode an encoded stream having this specific data format.

(実施の形態5)
動画像符号化装置100と動画像復号装置200の間で符号化ストリームをやりとりするために、有線または無線のネットワークが用いられる場合、符号化ストリームを通信路の伝送形態に適したデータ形式に変換して伝送しても良い。その場合、例えば、図35のように、実施の形態5の動画像符号化装置100が出力する符号化ストリームを通信路の伝送形態に適したデータ形式の符号化データに変換してネットワークに送信する動画像送信装置3500と、ネットワークから符号化データを受信して符号化ストリームに復元して実施の形態5の動画像復号装置200に供給する動画像受信装置3550とが設けられる。
(Embodiment 5)
When a wired or wireless network is used to exchange an encoded stream between the moving image encoding apparatus 100 and the moving image decoding apparatus 200, the encoded stream is converted into a data format suitable for the transmission form of the communication path. May be transmitted. In this case, for example, as shown in FIG. 35, the encoded stream output from the moving image encoding apparatus 100 according to the fifth embodiment is converted into encoded data having a data format suitable for the transmission form of the communication channel and transmitted to the network. And a moving image receiving apparatus 3550 that receives encoded data from the network, restores the encoded data to the encoded stream, and supplies the encoded stream to the moving image decoding apparatus 200 according to the fifth embodiment.

動画像送信装置3500は、実施の形態5の動画像符号化装置100が出力する符号化ストリームをバッファするメモリと、符号化ストリームをパケット化するパケット処理部3511と、パケット化された符号化データを、ネットワークを介して送信する送信部3512とを含む。動画像受信装置3550は、パケット化された符号化データを、ネットワークを介して受信する受信部3561と、受信された符号化データをバッファするメモリと、符号化データをパケット処理して符号化ストリームを生成し、実施の形態5の動画像復号装置200に提供するパケット処理部3562とを含む。   The moving image transmitting apparatus 3500 includes a memory that buffers the encoded stream output from the moving image encoding apparatus 100 according to the fifth embodiment, a packet processing unit 3511 that packetizes the encoded stream, and packetized encoded data. And a transmission unit 3512 that transmits the data via a network. The moving image reception device 3550 includes a reception unit 3561 that receives packetized encoded data via a network, a memory that buffers the received encoded data, a packet process on the encoded data, and an encoded stream. And a packet processing unit 3562 provided to the moving picture decoding apparatus 200 according to the fifth embodiment.

(実施の形態6)
図36は、実施の形態1から実施の形態5の動画像符号化装置100および動画像復号装置200を、コンピュータを含む情報処理装置3600によって構成する例を示すブロック図である。実施の形態6の情報処理装置3600は、CPUに代表される中央処理制御装置3603、記録媒体や通信装置3606を介して、メモリに代表される一時記憶装置3605やHDDに代表される外部記憶装置3604に格納された符号化プログラム、復号プログラムにより、実施の形態1から実施の形態5における処理をソフトウェア処理により実行しても良い。また、プログラムをコンピュータ等で読み取り可能な記録媒体に記録して提供することも、有線あるいは無線のネットワークを通してサーバから提供することも、地上波あるいは衛星デジタル放送のデータ放送として提供することも可能である。
(Embodiment 6)
FIG. 36 is a block diagram illustrating an example in which the video encoding device 100 and the video decoding device 200 according to Embodiments 1 to 5 are configured by an information processing device 3600 including a computer. The information processing apparatus 3600 according to the sixth embodiment includes a central processing control device 3603 typified by a CPU, a recording medium and a communication device 3606, and a temporary storage device 3605 typified by a memory and an external storage device typified by an HDD. The processing in the first to fifth embodiments may be executed by software processing using the encoding program and decoding program stored in 3604. In addition, the program can be provided by being recorded on a computer-readable recording medium, provided from a server through a wired or wireless network, or provided as data broadcasting of terrestrial or satellite digital broadcasting. is there.

また、本発明の実施の形態1から実施の形態6の動画像符号化装置、動画像符号化方法、動画像復号装置、動画像復号方法、および動画像復号プログラムの適用される範囲は、動画像を符号化および復号する装置、方法、プログラム、システム等であればよく、特に限定されるものではない。例えば、TVに代表される放送装置、携帯電話、スマートフォン、携帯型音楽プレーヤ、ゲーム装置、テレビ会議装置、監視装置、DVD−R/RW、BD−R/RW、HDD、SD、ホログラフィックメモリ等の追記および書き換え可能な記録媒体を利用した画像記録再生装置、デジタルカメラやカムコーダといった撮像記録再生装置、オーサリング等の画像記録編集装置、動画像の配信装置等に適用しても構わない。   In addition, the moving image encoding device, the moving image encoding method, the moving image decoding device, the moving image decoding method, and the moving image decoding program according to the first to sixth embodiments of the present invention are applied to moving images. Any device, method, program, system, and the like for encoding and decoding an image may be used, and the present invention is not particularly limited. For example, broadcasting devices represented by TV, mobile phones, smartphones, portable music players, game devices, video conference devices, monitoring devices, DVD-R / RW, BD-R / RW, HDD, SD, holographic memory, etc. The present invention may be applied to an image recording / reproducing apparatus using a recording medium that can be additionally written and rewritten, an imaging recording / reproducing apparatus such as a digital camera or a camcorder, an image recording / editing apparatus such as authoring, a moving image distribution apparatus, and the like.

以上、本発明をいくつかの実施の形態をもとに説明した。これらの実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   The present invention has been described based on some embodiments. It is understood by those skilled in the art that these embodiments are exemplifications, and that various modifications can be made to combinations of the respective constituent elements and processing processes, and such modifications are also within the scope of the present invention. By the way.

100 動画像符号化装置、 101 入力部、 102 ピクチャ蓄積部、 103 動き情報蓄積部、 104 動き予測部、 105 参照解析部、 106 第1修正予測信号生成部、 107 第2修正予測信号生成部、 108 モード判定部、 109 減算部、 110 残差符号化部、 111 残差復号部、 112 加算部、 113 符号列生成部、 114 符号列蓄積部、 115 符号量制御部、 116 出力部、 117 片方向予測信号生成部、 118 双予測信号生成部、 119 イントラ予測部、 120 符号化制御部、 200 動画像復号装置、 201 入力部、 202 ピクチャ蓄積部、 203 復号列生成部、 204 残差復号部、 205 加算部、 206 モード識別部、 207 動き情報蓄積部、 208 動き予測部、 209 参照解析部、 210 第1修正予測信号生成部、 211 第2修正予測信号生成部、 212 出力部、 213 片方向予測信号生成部、 214 双予測信号生成部、 215 イントラ予測部、 216 復号制御部。   DESCRIPTION OF SYMBOLS 100 moving image encoding apparatus, 101 input part, 102 picture storage part, 103 motion information storage part, 104 motion estimation part, 105 reference analysis part, 106 1st correction prediction signal generation part, 107 2nd correction prediction signal generation part, 108 mode determination unit, 109 subtraction unit, 110 residual coding unit, 111 residual decoding unit, 112 addition unit, 113 code string generation unit, 114 code string storage unit, 115 code amount control unit, 116 output unit, 117 pieces Direction prediction signal generation unit, 118 bi-prediction signal generation unit, 119 intra prediction unit, 120 encoding control unit, 200 moving image decoding device, 201 input unit, 202 picture storage unit, 203 decoded sequence generation unit, 204 residual decoding unit , 205 addition unit, 206 mode identification unit, 207 motion information storage unit, 20 Motion prediction unit, 209 reference analysis unit, 210 first modified prediction signal generation unit, 211 second modified prediction signal generation unit, 212 output unit, 213 unidirectional prediction signal generation unit, 214 bi-prediction signal generation unit, 215 intra prediction unit 216 Decoding control unit.

Claims (8)

符号列を取得し、所定の構文構造に基づいて復号列生成処理を行い、前記符号列から復号対象となっている領域に属する、少なくとも残差動きベクトル情報、残差符号化後情報、および符号化パラメータを生成する復号列生成部と、
復号済みの領域に属する動き情報に基づいて所定の動き予測処理を行い、第1の参照情報を生成すると共に、前記第1の参照情報に基づいて特定された第1の参照ピクチャにおける第1の予測動きベクトル情報を生成する動き予測部と、
前記第1の予測動きベクトル情報から、第2の参照情報に基づいて特定された第2の参照ピクチャにおける第2の予測動きベクトル情報を導出し、導出した第2の予測動きベクトル情報を前記残差動きベクトル情報に加えて動きベクトル情報を生成し、生成した動きベクトル情報に基づいて前記第2の参照ピクチャから予測信号を生成する修正予測信号生成部と、
前記残差符号化後情報に対して所定の残差復号処理を行い、復号残差情報を生成する残差復号部と、
前記復号残差情報に、前記修正予測信号生成部により生成された予測信号を加えて復号信号を生成する加算部と、
を備えることを特徴とする画像復号装置。
Obtain a code string, perform decoding string generation processing based on a predetermined syntax structure, and at least residual motion vector information, information after residual coding, and code belonging to a region to be decoded from the code string A decoded sequence generation unit for generating the optimization parameters;
A predetermined motion prediction process is performed based on the motion information belonging to the decoded area to generate first reference information, and the first reference picture specified based on the first reference information A motion prediction unit that generates predicted motion vector information;
Second prediction motion vector information in a second reference picture specified based on second reference information is derived from the first prediction motion vector information, and the derived second prediction motion vector information is stored in the remaining prediction motion vector information. A modified prediction signal generation unit that generates motion vector information in addition to the difference motion vector information, and generates a prediction signal from the second reference picture based on the generated motion vector information;
A residual decoding unit that performs a predetermined residual decoding process on the residual encoded information and generates decoded residual information;
An addition unit that generates a decoded signal by adding the prediction signal generated by the modified prediction signal generation unit to the decoded residual information;
An image decoding apparatus comprising:
前記修正予測信号生成部は、
前記第1の予測動きベクトル情報に基づいて、前記第1の参照ピクチャから第1の予測信号を生成し、
前記第2の予測動きベクトル情報に基づいて、前記第2の参照ピクチャから第2の予測信号を生成し、
前記第1の予測信号と前記第2の予測信号を合成して合成予測信号を生成し、
前記加算部は、
前記修正予測信号生成部により生成された合成予測信号を復号残差情報に加えて復号信号を生成する、
ことを特徴とする請求項1に記載の画像復号装置。
The modified prediction signal generator is
Generating a first prediction signal from the first reference picture based on the first prediction motion vector information;
Generating a second prediction signal from the second reference picture based on the second prediction motion vector information;
Combining the first prediction signal and the second prediction signal to generate a combined prediction signal;
The adding unit is
Adding a combined prediction signal generated by the modified prediction signal generation unit to decoding residual information to generate a decoded signal;
The image decoding apparatus according to claim 1.
本画像復号装置は、
前記符号化パラメータを復号パラメータとし、前記復号パラメータから符号化モード、動き予測モード、および動作モードを特定し、
前記修正予測信号生成部は、
複数の動作を区別するための動作モードに基づいて動作し、前記動作モードにより特定された導出処理により、前記動作モードに対応した前記第2の予測動きベクトル情報を導出し、導出した第2の予測残差動きベクトル情報を残差動きベクトル情報に加えて、前記動作モードに対応した動きベクトル情報を生成し、生成した動きベクトル情報に基づいて前記第2の参照ピクチャから前記動作モードに対応した第2の予測信号を生成する、
ことを特徴とする請求項1または2に記載の画像復号装置。
This image decoding apparatus
The encoding parameter is a decoding parameter, and an encoding mode, a motion prediction mode, and an operation mode are specified from the decoding parameter,
The modified prediction signal generator is
The second predictive motion vector information corresponding to the operation mode is derived by the derivation process specified based on the operation mode, and the derived second motion vector information corresponding to the operation mode is derived. Prediction residual motion vector information is added to residual motion vector information to generate motion vector information corresponding to the motion mode, and based on the generated motion vector information, the second reference picture corresponds to the motion mode. Generating a second prediction signal;
The image decoding apparatus according to claim 1, wherein the image decoding apparatus is an image decoding apparatus.
本画像復号装置は、
前記符号化パラメータを復号パラメータとし、前記復号パラメータから符号化モード、動き予測モード、および動作モードを特定し、
前記動き予測部は、
複数の動作を区別するための動き予測モードに基づいて動作し、前記動き予測モードにより特定された動き予測処理により、前記動き予測モードに対応した予測動きベクトル情報の候補を特定し、
前記修正予測信号生成部は、
前記動き予測モードに対応した予測動きベクトル情報の候補の中から、前記動作モードに対応した予測動きベクトル情報を特定して前記第1の予測動きベクトル情報とする、
ことを特徴とする請求項1または2に記載の画像復号装置。
This image decoding apparatus
The encoding parameter is a decoding parameter, and an encoding mode, a motion prediction mode, and an operation mode are specified from the decoding parameter,
The motion prediction unit
Operates based on a motion prediction mode for distinguishing a plurality of motions, identifies motion vector prediction candidates corresponding to the motion prediction mode by motion prediction processing identified by the motion prediction mode,
The modified prediction signal generator is
From the prediction motion vector information corresponding to the motion prediction mode, the prediction motion vector information corresponding to the operation mode is specified as the first prediction motion vector information.
The image decoding apparatus according to claim 1, wherein the image decoding apparatus is an image decoding apparatus.
本画像復号装置は、
前記符号化パラメータを復号パラメータとし、前記復号パラメータから符号化モード、動き予測モード、および動作モードを特定し、
前記符号化モードがAMVP(Advanced Motion Vector prediction)モードの場合に、
前記動き予測部は、
前記符号化モードのAMVPモードに従って、AMVP処理によって予測動きベクトル情報の候補の中から最良の予測動きベクトル情報を確定し、
前記修正予測信号生成部は、
前記符号化モードのAMVPモードに従って、確定された予測動きベクトル情報を取得し、前記第1の予測動きベクトル情報とする、
ことを特徴とする請求項1または2に記載の画像復号装置。
This image decoding apparatus
The encoding parameter is a decoding parameter, and an encoding mode, a motion prediction mode, and an operation mode are specified from the decoding parameter,
When the encoding mode is AMVP (Advanced Motion Vector prediction) mode,
The motion prediction unit
According to the AMVP mode of the encoding mode, the best predicted motion vector information is determined from the predicted motion vector information candidates by AMVP processing,
The modified prediction signal generator is
In accordance with the AMVP mode of the encoding mode, the determined predicted motion vector information is acquired and used as the first predicted motion vector information.
The image decoding apparatus according to claim 1, wherein the image decoding apparatus is an image decoding apparatus.
本画像復号装置は、
前記符号化パラメータを復号パラメータとし、前記復号パラメータから符号化モード、動き予測モード、および動作モードを特定し、
前記符号化モードがマージモードの場合に、
前記動き予測部は、
前記符号化モードのマージモードに従って、マージ処理によって予測動きベクトル情報の候補の中から最良の予測動きベクトル情報を確定し、
前記修正予測信号生成部は、
前記符号化モードのマージモードに従って、確定された予測動きベクトル情報を取得し、前記第1の予測動きベクトル情報とする、
ことを特徴とする請求項1または2に記載の画像復号装置。
This image decoding apparatus
The encoding parameter is a decoding parameter, and an encoding mode, a motion prediction mode, and an operation mode are specified from the decoding parameter,
When the encoding mode is merge mode,
The motion prediction unit
According to the merge mode of the encoding mode, the best prediction motion vector information is determined from prediction motion vector information candidates by merge processing,
The modified prediction signal generator is
According to the merge mode of the encoding mode, to obtain the determined motion vector predictor information, the first motion vector predictor information,
The image decoding apparatus according to claim 1, wherein the image decoding apparatus is an image decoding apparatus.
符号列を取得し、所定の構文構造に基づいて復号列生成処理を行い、前記符号列から復号対象となっている領域に属する、少なくとも残差動きベクトル情報、残差符号化後情報、および符号化パラメータを生成するステップと、
復号済みの領域に属する動き情報に基づいて所定の動き予測処理を行い、第1の参照情報を生成すると共に、前記第1の参照情報に基づいて特定された第1の参照ピクチャにおける第1の予測動きベクトル情報を生成するステップと、
前記第1の予測動きベクトル情報から、第2の参照情報に基づいて特定された第2の参照ピクチャにおける第2の予測動きベクトル情報を導出し、導出した第2の予測動きベクトル情報を前記残差動きベクトル情報に加えて動きベクトル情報を生成し、生成した動きベクトル情報に基づいて前記第2の参照ピクチャから予測信号を生成するステップと、
前記残差符号化後情報に対して所定の残差復号処理を行い、復号残差情報を生成するステップと、
前記復号残差情報に前記予測信号を加えて復号信号を生成するステップと、
を備えることを特徴とする画像復号方法。
Obtain a code string, perform decoding string generation processing based on a predetermined syntax structure, and at least residual motion vector information, information after residual coding, and code belonging to a region to be decoded from the code string Generating activation parameters; and
A predetermined motion prediction process is performed based on the motion information belonging to the decoded area to generate first reference information, and the first reference picture specified based on the first reference information Generating predicted motion vector information;
Second prediction motion vector information in a second reference picture specified based on second reference information is derived from the first prediction motion vector information, and the derived second prediction motion vector information is stored in the remaining prediction motion vector information. Generating motion vector information in addition to the difference motion vector information, and generating a prediction signal from the second reference picture based on the generated motion vector information;
Performing a predetermined residual decoding process on the residual encoded information to generate decoded residual information;
Adding the predicted signal to the decoded residual information to generate a decoded signal;
An image decoding method comprising:
符号列を取得し、所定の構文構造に基づいて復号列生成処理を行い、前記符号列から復号対象となっている領域に属する、少なくとも残差動きベクトル情報、残差符号化後情報、および符号化パラメータを生成する機能と、
復号済みの領域に属する動き情報に基づいて所定の動き予測処理を行い、第1の参照情報を生成すると共に、前記第1の参照情報に基づいて特定された第1の参照ピクチャにおける第1の予測動きベクトル情報を生成する機能と、
前記第1の予測動きベクトル情報から、第2の参照情報に基づいて特定された第2の参照ピクチャにおける第2の予測動きベクトル情報を導出し、導出した第2の予測動きベクトル情報を前記残差動きベクトル情報に加えて動きベクトル情報を生成し、生成した動きベクトル情報に基づいて前記第2の参照ピクチャから予測信号を生成する機能と、
前記残差符号化後情報に対して所定の残差復号処理を行い、復号残差情報を生成する機能と、
前記復号残差情報に前記予測信号を加えて復号信号を生成する機能と、
をコンピュータに実行させることを特徴とする画像復号プログラム。
Obtain a code string, perform decoding string generation processing based on a predetermined syntax structure, and at least residual motion vector information, information after residual coding, and code belonging to a region to be decoded from the code string A function to generate a parameter,
A predetermined motion prediction process is performed based on the motion information belonging to the decoded area to generate first reference information, and the first reference picture specified based on the first reference information A function of generating predicted motion vector information;
Second prediction motion vector information in a second reference picture specified based on second reference information is derived from the first prediction motion vector information, and the derived second prediction motion vector information is stored in the remaining prediction motion vector information. A function of generating motion vector information in addition to the difference motion vector information, and generating a prediction signal from the second reference picture based on the generated motion vector information;
A function of performing a predetermined residual decoding process on the residual encoded information and generating decoded residual information;
A function of generating the decoded signal by adding the prediction signal to the decoded residual information;
An image decoding program that causes a computer to execute the above.
JP2011144915A 2011-06-29 2011-06-29 Image decoding apparatus, image decoding method, and image decoding program Active JP5682478B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011144915A JP5682478B2 (en) 2011-06-29 2011-06-29 Image decoding apparatus, image decoding method, and image decoding program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011144915A JP5682478B2 (en) 2011-06-29 2011-06-29 Image decoding apparatus, image decoding method, and image decoding program

Publications (2)

Publication Number Publication Date
JP2013012961A true JP2013012961A (en) 2013-01-17
JP5682478B2 JP5682478B2 (en) 2015-03-11

Family

ID=47686459

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011144915A Active JP5682478B2 (en) 2011-06-29 2011-06-29 Image decoding apparatus, image decoding method, and image decoding program

Country Status (1)

Country Link
JP (1) JP5682478B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09322176A (en) * 1995-12-20 1997-12-12 Sanyo Electric Co Ltd Encoding mode selecting method, moving image encoding device, encoding method, recording method and transmitting method
JP2005167976A (en) * 2003-11-14 2005-06-23 Victor Co Of Japan Ltd Motion vector detecting device and motion vector detecting program
JP2006074474A (en) * 2004-09-02 2006-03-16 Toshiba Corp Moving image encoder, encoding method, and encoding program
JP2007129498A (en) * 2005-11-02 2007-05-24 Matsushita Electric Ind Co Ltd Motion vector detector
JP2008523724A (en) * 2004-12-08 2008-07-03 クゥアルコム・インコーポレイテッド Motion estimation technology for video coding
WO2010035733A1 (en) * 2008-09-24 2010-04-01 ソニー株式会社 Image processing device and method
WO2011048903A1 (en) * 2009-10-20 2011-04-28 シャープ株式会社 Video encoding device, video decoding device, and data structure

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09322176A (en) * 1995-12-20 1997-12-12 Sanyo Electric Co Ltd Encoding mode selecting method, moving image encoding device, encoding method, recording method and transmitting method
JP2005167976A (en) * 2003-11-14 2005-06-23 Victor Co Of Japan Ltd Motion vector detecting device and motion vector detecting program
JP2006074474A (en) * 2004-09-02 2006-03-16 Toshiba Corp Moving image encoder, encoding method, and encoding program
JP2008523724A (en) * 2004-12-08 2008-07-03 クゥアルコム・インコーポレイテッド Motion estimation technology for video coding
JP2007129498A (en) * 2005-11-02 2007-05-24 Matsushita Electric Ind Co Ltd Motion vector detector
WO2010035733A1 (en) * 2008-09-24 2010-04-01 ソニー株式会社 Image processing device and method
WO2011048903A1 (en) * 2009-10-20 2011-04-28 シャープ株式会社 Video encoding device, video decoding device, and data structure

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KEN MCCANN, WOO-JIN HAN, IL-KOO KIM: "Samsung's Response to the Call for Proposals on Video Compression Technology", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 1ST M, vol. [JCTVC-A124], JPN6014040373, 23 April 2010 (2010-04-23), pages 1 - 11, ISSN: 0002962339 *

Also Published As

Publication number Publication date
JP5682478B2 (en) 2015-03-11

Similar Documents

Publication Publication Date Title
CN109792533B (en) Method and device for decoding and encoding video data
US11218708B2 (en) Picture decoding method for decoding using a merging candidate selected from a first merging candidate derived using a first derivation process and a second merging candidate derived using a second derivation process
KR101227601B1 (en) Method for interpolating disparity vector and method and apparatus for encoding and decoding multi-view video
KR102124961B1 (en) Video prediction encoding device, video prediction encoding method, video prediction encoding program, video prediction decoding device, video prediction decoding method, and video prediction decoding program
US10250886B2 (en) Moving picture coding device, moving picture coding method and moving picture coding program
US20140146876A1 (en) Moving picture coding apparatus, moving picture coding method, moving picture coding program, and moving picture decoding apparatus
CN114503584A (en) History-based motion vector prediction
JP2012151576A (en) Image coding method, image coding device, image decoding method and image decoding device
JP6036972B2 (en) Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
JP5682478B2 (en) Image decoding apparatus, image decoding method, and image decoding program
JP5682477B2 (en) Image encoding apparatus, image encoding method, and image encoding program
JP5737383B2 (en) Moving picture decoding apparatus, moving picture decoding method, moving picture decoding program, receiving apparatus, receiving method, and receiving program
WO2012090425A1 (en) Moving image encoding device, moving image encoding method, and moving image encoding program, as well as moving image decoding device, moving image decoding method, and moving image decoding program
WO2013108631A1 (en) Moving image coding device, moving image coding method, moving image coding program, moving image decoding device, moving image decoding method and moving image decoding program
JP2012138838A (en) Moving image decoding apparatus, moving image decoding method and moving image decoding program
CN115668934A (en) Image encoding/decoding method and apparatus having motion information determined based on inter-layer prediction and method of transmitting bitstream
JP2012138837A (en) Moving image encoding apparatus, moving image encoding method and moving image encoding program
JP2015035822A (en) Image coding method, image coding device, image decoding method and image decoding device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131001

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141229

R150 Certificate of patent or registration of utility model

Ref document number: 5682478

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150