JP5020829B2 - Video decoding apparatus and a moving picture coding apparatus - Google Patents

Video decoding apparatus and a moving picture coding apparatus Download PDF

Info

Publication number
JP5020829B2
JP5020829B2 JP2007551847A JP2007551847A JP5020829B2 JP 5020829 B2 JP5020829 B2 JP 5020829B2 JP 2007551847 A JP2007551847 A JP 2007551847A JP 2007551847 A JP2007551847 A JP 2007551847A JP 5020829 B2 JP5020829 B2 JP 5020829B2
Authority
JP
Grant status
Grant
Patent type
Prior art keywords
image
reference
prediction
vector
motion vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007551847A
Other languages
Japanese (ja)
Other versions
JPWO2007074543A1 (en )
Inventor
智幸 山本
真毅 高橋
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Grant date

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search

Description

本発明は、動き補償に複数の参照画像を用いる動画像符号化装置および動画像復号装置に関するものである。 The present invention relates to moving picture coding apparatus and the moving picture decoding apparatus using a plurality of reference images for motion compensation.

従来技術として、MPEG−4 AVC方式(非特許文献1;ISO/IEC 14496−10)を用いた動画像復号装置について、図9に示すブロック図を参照しながら、以下に説明する。 As a conventional technique, MPEG-4 AVC method (Non-Patent Document 1; ISO / IEC 14496-10) the video decoding apparatus using, with reference to a block diagram shown in FIG. 9 will be described below.

動画像復号装置3は、可変長符号復号部100、動きベクトル復号部(動きベクトル復号手段)101、予測ベクトル導出部102、バッファメモリ103、画像復号部104、予測画像導出部(予測画像導出手段)105を含んで構成される。 Video decoding apparatus 3, the variable-length code decoding section 100, the motion vector decoding unit (the motion vector decoding unit) 101, the prediction vector deriving unit 102, a buffer memory 103, an image decoding unit 104, the prediction image deriving unit (prediction image deriving means ) configured to include a 105.

可変長符号復号部100は、入力符号化データを可変長復号し、予測方式、予測残差データ、差分ベクトルおよび時間情報等の符号化情報を復号する。 Variable-length code decoding section 100, the input coded data to variable-length decoding, the prediction method, decodes the encoded information, such as prediction residual data, difference vectors and time information. 動きベクトル復号部101は、予測ベクトルおよび差分ベクトルから、動きベクトルを復号する。 Motion vector decoding unit 101, the prediction vector and the difference vector to decode the motion vector. 予測ベクトル導出部102は、予測方式に基づき、復号済みの動きベクトルを用いて、予測ベクトルを導出する。 Prediction vector deriving unit 102, based on the prediction method, using the decoded motion vector to derive a predicted vector. バッファメモリ103は、動きベクトル、画像、および時間情報等を一時的に記録する。 Buffer memory 103, a motion vector, for temporarily storing image, and time information, and the like. 画像復号部104は、予測方式、予測残差データ、および予測画像から、画像を復号する。 The image decoding unit 104, the prediction method, the prediction residual data, and the predicted image, decoding an image. 予測画像導出部105は、動きベクトルおよび参照画像を用いて、動き補償により予測画像を導出する。 Predicted image deriving unit 105 uses the motion vector and the reference image, to derive a predicted image by motion compensation.

<従来技術を用いた復号手順の概要について> <Overview of the decoding procedure using the conventional technology>
従来技術を用いた動画像復号装置における復号処理の概略について、図10に示す復号処理手順のフローチャートを参照しながら、以下に説明する。 Outline of the decoding processing in the video decoding apparatus using the prior art, with reference to the flowchart of decoding processing procedure shown in FIG. 10 will be described below.

まず、可変長符号復号部100が、動画像復号装置3の外部から入力された符号化データを可変長復号する(ステップ10、以下S10と略す)。 First, the variable-length code decoding section 100, the encoded data input from the outside of the video decoding apparatus 3 to the variable-length decoding (abbreviated as step 10, following S10). 可変長符号復号部100の出力は、予測方式、予測残差データ、差分ベクトル、および時間情報等の符号化情報である。 The output of the variable length code decoding section 100, prediction mode, prediction residual data is coded information such as difference vector, and time information. 予測方式は、予測ベクトル導出部102および画像復号部104に出力され、予測残差データは、画像復号部104に出力され、差分ベクトルは、動きベクトル復号部101に出力され、時間情報は、画像復号部104に出力される。 Prediction method is output to the prediction vector deriving unit 102 and the image decoding unit 104, the prediction residual data is output to the image decoding unit 104, the difference vector is outputted to the motion vector decoding unit 101, the time information, the image is output to the decoding unit 104.

次に、予測ベクトル導出部102が、バッファメモリ103に記録されている動きベクトルを用いて、可変長符号復号部100から入力された予測方式に応じた予測ベクトルを導出する(S20)。 Next, the prediction vector deriving unit 102, using the motion vector stored in the buffer memory 103 to derive the prediction vector in accordance with the prediction method which is input from the variable length code decoding section 100 (S20). 予測ベクトル導出部102は、導出した予測ベクトルを、動きベクトル復号部101およびバッファメモリ103に出力する。 Prediction vector deriving unit 102, a prediction vector derived, and outputs the motion vector decoding unit 101 and the buffer memory 103. なお、予測ベクトル導出部102の動作の詳細については後述する。 Will be described later in detail the operation of the prediction vector deriving unit 102.

次に、動きベクトル復号部101が、予測ベクトル導出部102から入力された予測ベクトルに、可変長符号復号部100から入力された差分ベクトルを加えて、動きベクトルとして出力する(S30)。 Next, the motion vector decoding unit 101, the prediction vector inputted from the prediction vector deriving unit 102, in addition the difference vector input from the variable length code decoding section 100, and outputs as a motion vector (S30). 出力された動きベクトルは、バッファメモリ103に出力され、記録される。 Motion vector output is output to the buffer memory 103 is recorded.

次に、予測画像導出部105が、バッファメモリ103に記録されている参照画像を読み出す。 Next, the prediction image deriving unit 105 reads the reference images stored in the buffer memory 103. 予測画像導出部105は、バッファメモリ103を介して動きベクトル復号部101から入力された動きベクトルと、読み出した参照画像とを用いて、動き補償予測を行い、予測画像を導出し、導出した予測画像を画像復号部104に出力する(S40)。 Predicted image deriving unit 105 uses the motion vectors inputted from the motion vector decoding unit 101 via the buffer memory 103, and a read-out reference picture, prediction performs motion compensation prediction, to derive a predicted image, derived and it outputs the image to the image decoding section 104 (S40).

次に、画像復号部104が、可変長符号復号部100から入力された予測方式に応じて、予測画像導出部105から入力された予測画像と可変長符号復号部100から入力された予測残差データとに基づいて、画像を復号する(S50)。 Next, the image decoding unit 104, a variable length code according to the prediction scheme received as input from decoding section 100, the prediction residual input predicted image and from the variable length code decoding section 100 that is input from the prediction image derivation section 105 based on the data, it decodes the image (S50). 復号された画像およびその画像の表示タイミングに関する時間情報は、バッファメモリ103に出力され、記録される。 Time information on the display timing of decoded image and the image is output to the buffer memory 103 is recorded.

次に、S50においてバッファメモリ103に記録された画像は、時間情報で示される時刻に、動画像表示装置(図示せず)に出力される(S60)。 Next, the image recorded on the buffer memory 103 in step S50, the time indicated by the time information is output to the moving image display device (not shown) (S60).

以上説明したように、従来技術(MPEG−4 AVC方式)では、動き補償予測を用いた復号が行われている。 As described above, in the prior art (MPEG-4 AVC method), decoding using motion compensated prediction is being performed.

<時間ダイレクト予測について> <About time direct prediction>
MPEG−4 AVC方式では、予測方式の一つとして、時間ダイレクト予測と呼ばれる高能率な動き補償予測方式を用いることができる。 In MPEG-4 AVC method, as one of the prediction method, it is possible to use a high-efficiency motion compensation prediction method called temporal direct prediction.

次に、MPEG−4 AVC方式の時間ダイレクト予測について、図11に示す概念図を用いて説明する。 Next, the temporal direct prediction of MPEG-4 AVC method, will be described with reference to the conceptual diagram shown in FIG. 11. なお、以降の説明では、特に断らない限り、参照画像は、前方参照用と後方参照用とにそれぞれ1枚づつ、合計2枚あるものとする。 In the following description, unless otherwise specified, reference image, one by one respectively to the for forward reference and backward reference, assumed to be two total.

時間ダイレクト予測とは、図11に示すように、対象画像P curの予測画像を導出するにあたり、前方参照画像P r0,0および後方参照画像P r1,0の2枚の参照画像を用いる、動き補償予測方式である。 The temporal direct prediction, as shown in FIG. 11, upon deriving a predicted image of the target image P cur, using two reference pictures of the forward reference image P R0,0 and backward reference image P R1,0, motion a compensation prediction method.

以下では、対象画像P cur上の処理対象領域(図11中の白丸)を、対象領域A curと呼ぶ。 In the following, the processing target area on the target image P cur (white circles in FIG. 11), referred to as a target region A cur. なお、図11の概念図、そして、図4、図5、図6、図14に示す概念図では、図の左右方向が、動画像を表示する表示時刻を表し、縦棒が各画像を表し、図の上下方向が、各画像内の領域の位置を表している。 Incidentally, conceptual view of FIG. 11 and FIG. 4, 5, 6, in the conceptual diagram shown in FIG. 14, the left-right direction of the figure represents the display time for displaying a moving image, the vertical bar represents each image , vertical figure represents the position of the region within each image.

時間ダイレクト予測における動き補償では、対象領域A curの、前方予測ベクトルmvL0と後方予測ベクトルmvL1とを用いる。 In motion compensation in temporal direct prediction of the target region A cur, using the forward prediction vectors mvL0 and backward prediction vector mvL 1. 前方予測ベクトルmvL0および後方予測ベクトルmvL1は、「基準画像」として定めた画像P col上の、対象領域A curと空間的に同一位置の領域B col (図11中の二重丸)の動きベクトルmvColに基づいて計算する。 Forward prediction vectors mvL0 and backward prediction vector mvL1 is on the image P col that defines as "reference image", the motion vector of the target region A cur spatially the same position area B col (double circle in FIG. 11) calculated on the basis of mvCol. なお、領域B colを「基準領域」と呼び、動きベクトルmvColを「基準動きベクトル」と呼ぶこととする。 Incidentally, the region B col referred to as a "reference region", the motion vector mvCol is referred to as "reference motion vector". また、基準動きベクトルmvColが指す領域を、領域B colrefとし、領域B colrefは、画像P colref上にあるものとする。 Also, the area indicated by reference motion vector mvCol, and region B Colref, region B Colref are intended to be on the image P colref.

MPEG−4 AVC方式の時間ダイレクト予測では、図11に示すように、後方参照画像P r1,0が、基準画像P colである。 The temporal direct prediction of MPEG-4 AVC method, as shown in FIG. 11, the backward reference picture P R1,0, which is the reference image P col. また、特に参照画像が2枚の場合には、前方参照画像P r0,0が、画像P colrefになる。 Further, particularly when the reference picture is two sheets, the forward reference picture P R0,0, it becomes the image P colref.

前方予測ベクトルmvL0および後方予測ベクトルmvL1は、基準動きベクトルmvColを用いて、以下の式で計算する。 Forward prediction vectors mvL0 and backward prediction vector mvL1 uses the reference motion vectors mvCol, calculated by the following equation.

mvL0 = tb / tbb × mvCol ・・・(1) mvL0 = tb / tbb × mvCol ··· (1)
mvL1 = (tb − td) / tbb × mvCol ・・・(2) mvL1 = (tb - td) / tbb × mvCol ··· (2)

なお、式(1)および式(2)において、tbは、前方参照画像P r0,0と対象画像P curとの表示時間の時間間隔、tdは、前方参照画像P r0,0と後方参照画像P r1,0との時間間隔、tbbは、画像P colrefと基準画像P colとの時間間隔を表す。 In the equation (1) and (2), tb is the time interval between the display time of the forward reference picture P R0,0 and the target image P cur, td is the forward reference picture P R0,0 and the backward reference picture time interval between the P r1,0, tbb represents the time interval between the images P Colref the reference image P col. 時間間隔tb、td、およびtbbの各値は、図10のS50の処理において、バッファメモリ103に記録されている各画像の表示時刻に関する時間情報を用いて計算される。 Time interval tb, td, and the value of tbb, in the processing of S50 in FIG. 10, is calculated using the time information about the display time of each image stored in the buffer memory 103. 時間間隔tb、td、およびtbbは、対象画像P curの表示時刻T cur 、前方参照画像P r0,0の表示時刻T r0,0 、後方参照画像P r1,0の表示時刻T r1,0 、基準画像P colの表示時刻T col 、および画像P colrefの表示時刻T colrefを用いて、以下の式で計算される。 Time interval tb, td, and tbb a subject image P cur of display time T cur, the display time T R0,0 of the forward reference image P R0,0, display time T R1,0 of the backward reference picture P R1,0, display time T col of the reference image P col, and by using the display time T Colref image P colref, it is calculated by the following equation.

tb = T r0,0 − T cur・・・(3) tb = T r0,0 - T cur ··· (3)
td = T r1,0 − T r0,0・・・(4) td = T r1,0 - T r0,0 ··· (4)
tbb = T col − T colref・・・(5) tbb = T col - T colref ··· (5)

時間ダイレクト予測は、図11に示す対象領域A curおよび領域B curそれぞれにおいて画像となっている2つの物体が、領域A r0,0から領域A r1,0に、また領域B colrefから基準領域B colに、それぞれ同じ方向へ等速運動していることを仮定した予測方式である。 Temporal direct prediction, the two objects that is the image in each target area A cur and the region B cur 11, a region A R1,0 from the region A R0,0, also the region B Colref from the reference region B the col, a prediction method which assumes that in motion such as velocity, respectively in the same direction.

なお、pmv(Predictor of Motion Vector)予測では、推定した動きベクトルと予測ベクトルとの差分ベクトルを用いるが、時間ダイレクト予測では、そのような差分ベクトルを用いずに動きベクトルを復号する。 In the pmv (Predictor of Motion Vector) prediction uses a differential vector between the prediction vector and the estimated motion vector, the temporal direct prediction, decoding the motion vector without such difference vector. 具体的には、前方予測ベクトルmvL0および後方予測ベクトルmvL1を対象領域A curにおける動きベクトルとする。 Specifically, the motion vector of forward prediction vectors mvL0 and backward prediction vector mvL1 in the target area A cur.

対象領域A curの予測画像は、前方予測ベクトルmvL0が指す前方参照画像P r0,0上の領域A r0,0と、後方予測ベクトルmvL1が指す後方参照画像P r1,0上の領域A r1,0とを使用して動き補償を行い、生成される。 Predicted image of the target region A cur includes an area A R0,0 on forward reference image P R0,0 pointed forward prediction vector mvL 0, the region of the backward reference image P R1,0 pointed backward prediction vector mvL 1 A r1, 0 and performs motion compensation using, is generated.

<予測ベクトル導出部102の詳細な構成について> <Detailed configuration of the prediction vector deriving unit 102>
時間ダイレクト予測を用いて予測ベクトルを導出する、予測ベクトル導出部102の詳細な構成を、図12のブロック図で示す。 Deriving a prediction vector using the temporal direct prediction, a detailed configuration of the prediction vector deriving unit 102, shown in the block diagram of FIG. 12.

予測ベクトル導出部102は、導出方式選択部201、スイッチ202、時間ダイレクト予測部203、空間ダイレクト予測部204、pmv予測部205、ゼロベクトル出力部206から構成される。 Prediction vector deriving unit 102 derives scheme selection unit 201, a switch 202, a temporal direct prediction unit 203, the spatial direct prediction unit 204, pmv prediction unit 205, and a zero vector output unit 206.

導出方式選択部201は、可変長符号復号部100から入力された予測方式と、バッファメモリ103に記録された基準動きベクトルの有無とに応じて、予測ベクトルの導出方式を選択する。 Deriving method selecting unit 201, a prediction method that is input from the variable length code decoding section 100, depending on the presence or absence of the reference motion vectors recorded in the buffer memory 103, selects the derivation method of the prediction vector. スイッチ202は、導出方式選択部201で選択された予測ベクトル導出方式への切り替えを行う。 Switch 202 performs switching to the selected prediction vector derivation method in deriving method selection unit 201. 時間ダイレクト予測部203は、時間ダイレクト予測で定められた方式で、予測ベクトルを求め、動きベクトル復号部101へ出力する。 Temporal direct prediction unit 203 in a manner prescribed by the temporal direct prediction obtains a prediction vector, and outputs it to the motion vector decoding unit 101. 空間ダイレクト予測部204は、空間ダイレクト予測で定められた方式で、予測ベクトルを求め、動きベクトル復号部101へ出力する。 Spatial direct prediction unit 204, in the manner defined in the spatial direct prediction obtains a prediction vector, and outputs it to the motion vector decoding unit 101. pmv予測部205は、差分ベクトルが存在する場合に、推定した動きベクトルと予測ベクトルとの差分ベクトルを符号化するpmv予測により予測ベクトルを求め、動きベクトル復号部101へ出力する。 pmv prediction unit 205, when the difference vector is present, determine the prediction vector by pmv prediction for encoding a differential vector between the prediction vector and the estimated motion vector, and outputs it to the motion vector decoding unit 101. ゼロベクトル出力部206は、予測ベクトル導出部102への入力に関わらず、常にゼロベクトルを予測ベクトルとして、動きベクトル復号部101へ出力する。 Zero vector output unit 206, regardless of the input to the prediction vector deriving unit 102, always as a prediction vector zero vector, and outputs it to the motion vector decoding unit 101.

<時間ダイレクト予測における予測ベクトルの導出手順について> <For the derivation procedure of the prediction vector in the temporal direct prediction>
次に、動き補償予測方式として、時間ダイレクト予測が用いられる場合の、前方予測ベクトルmvL0および後方予測ベクトルmvL1の導出手順について、図13に示す導出手順のフローチャートを用いて説明する。 Then, as the motion compensated prediction method in the case where temporal direct prediction is used for derivation procedure of the forward prediction vectors mvL0 and backward prediction vectors mvL 1, it will be described with reference to the flow chart of derivation procedure shown in FIG. 13.

まず、導出方式選択部201が、基準動きベクトルmvColを、バッファメモリ103に要求する(S21)。 First, the derivation method selection unit 201, a reference motion vector mvCol, and requests the buffer memory 103 (S21).

次に、導出方式選択部201は、バッファメモリ103からの通知に基づき、バッファメモリ103上の、基準領域B colの基準動きベクトルmvColの有無を判定する(S22)。 Next, derivation scheme selection unit 201, based on the notification from the buffer memory 103, determines on the buffer memory 103, the presence or absence of the reference motion vector mvCol of the reference area B col (S22).

基準動きベクトルmvColが有る場合は、次のS23の処理に進み、基準動きベクトルmvColが無い場合は、S25の処理に進む。 When the reference motion vector mvCol is present, the process proceeds to the next S23, if the reference motion vector mvCol is not, the process proceeds to S25.

次に、導出方式選択部201は、スイッチ202を切り替えて、時間ダイレクト予測部203を選択する(S23)。 Next, derivation scheme selection unit 201 switches the switch 202 to select the temporal direct prediction unit 203 (S23).

次に、時間ダイレクト予測部203は、バッファメモリ103から取得した基準動きベクトルmvColを、時間情報でスケーリング、すなわち式(1)および式(2)を用いて、前方予測ベクトルmvL0および後方予測ベクトルmvL1を計算し、予測ベクトルとして、動きベクトル復号部101へ出力し、処理を終了する(S24)。 Then, the temporal direct prediction unit 203, a reference motion vector mvCol obtained from the buffer memory 103, the scaling in the time information, i.e., using equation (1) and (2), forward prediction vectors mvL0 and backward prediction vector mvL1 It was calculated, as a prediction vector, and outputs to the motion vector decoding unit 101, the process ends (S24).

S22において、基準動きベクトルmvColがバッファメモリ103上に無いとの通知を受けた場合、導出方式選択部201は、基準領域B colがイントラ符号化されていると判断し、スイッチ202を切り替えて、ゼロベクトル出力部206を選択する(S25)。 In S22, if the reference motion vector mvCol is notified that not in the buffer memory 103, deriving method selecting unit 201 determines that the reference area B col is intra coded, by switching the switch 202, selecting a zero vector output unit 206 (S25).

次に、ゼロベクトル出力部206は、前方予測ベクトルmvL0および後方予測ベクトルmvL1を、共にゼロベクトルとし、予測ベクトルとして動きベクトル復号部101へ出力して、処理を終了する(S26)。 Then, the zero vector output unit 206, a forward prediction vectors mvL0 and backward prediction vector mvL 1, both the zero vector, and outputs to the motion vector decoding unit 101 as a prediction vector, the process ends (S26).

なお、MPEG−4 AVC方式では、時間ダイレクト予測の他に、空間ダイレクト予測およびpmv予測による動き補償予測が可能であるが、これらの予測を行う空間ダイレクト予測部204およびpmv予測部205の動作については、説明を省略する。 In the MPEG-4 AVC method, in addition to the temporal direct prediction is susceptible to motion compensated prediction by the spatial direct prediction and pmv prediction, the operation of the spatial direct prediction unit 204 and pmv prediction unit 205 for performing these predictions It will be omitted.

以上説明したように、従来技術による時間ダイレクト予測方式では、後方参照画像P r1,0を基準画像P colとした場合であり、かつ基準画像P col上の基準領域B colの基準動きベクトルmvColが利用可能な場合には、動画内の物体の実際の動きに近い予測ベクトルを導出することができる。 As described above, in the temporal direct prediction method according to the prior art, a case has been backward reference picture P R1,0 the reference image P col, and the reference motion vector mvCol of the reference area B col of the reference image P col is where available, it is possible to derive a predicted vector close to the actual movement of the object in the video.

しかしながら、従来技術による予測ベクトル導出方法では、後方参照画像P r1,0上の基準領域B colがイントラ符号化されている場合には、基準動きベクトルmvColがゼロベクトルとされてしまう。 However, the prediction vector deriving method according to the prior art, when the reference area B col on the backward reference picture P R1,0 is intra coded, the reference motion vector mvCol from being a zero vector. その場合、図14の概念図に示すように、ゼロベクトルを用いて式(1)および式(2)の計算を行うので、前方予測ベクトルmvL0が指す領域は領域A r0,0となり、後方予測ベクトルが指す領域は領域A r1,0となってしまい、前方予測ベクトルmvL0および後方予測ベクトルmvL1と、対象領域A curの実際の動きとの差異が大きくなる場合が多い。 In that case, as shown in the conceptual diagram of FIG. 14, since the calculation of equation (1) and (2) using the zero vector, the area indicated by the forward prediction vectors mvL0 region A R0,0, and the backward prediction area indicated by vector becomes a region a r1,0, the forward prediction vectors mvL0 and backward prediction vector mvL 1, often the difference between the actual motion of the target region a cur increases. 従って、予測効率が低下するという課題があった。 Therefore, there is a problem that the prediction efficiency decreases.

本発明は、上記の問題点に鑑みてなされたものであり、その目的は、後方参照画像P r1,0上の基準領域B colがイントラ符号化されている場合でも、ゼロベクトルではない前方予測ベクトルmvL0および後方予測ベクトルmvL1を導出し、予測効率の低下を防止できる、動画像復号装置および動画像符号化装置を実現することにある。 The present invention has been made in view of the above problems, and an object, even if the reference area B col on the backward reference picture P R1,0 is intra coded, is not forward predicted zero vector deriving a vector mvL0 and backward prediction vector mvL 1, can prevent a decrease in prediction efficiency is to realize a video decoding apparatus and a moving picture coding apparatus.

上記課題を解決するために、処理対象画像上の処理対象領域の予測ベクトルを、基準画像の基準動きベクトルを用いて導出する予測ベクトル導出手段と、前記予測ベクトルを用いて、前記処理対象領域の動きベクトルを再構成する動きベクトル復号手段と、復号処理を終えた既復号画像から、前記動きベクトルを用いて前記処理対象領域の予測画像を導出する予測画像導出手段とを備え、前記予測ベクトル導出手段は、時間ダイレクト予測により予測ベクトルを導出することを特徴とする動画像復号装置において、前記予測ベクトル導出手段は、少なくとも2枚以上の前記既復号画像を前記基準画像の候補画像とし、前記基準動きベクトルがゼロベクトルとなることを回避する、所定の選択基準に基づいて前記候補画像の中の1枚を前記基準 To solve the above problem, the prediction vector of the processing target area on the target image, the prediction vector deriving means for deriving with reference motion vector of the reference image, using the predicted vector, the processing target area a motion vector decoding means for reconstructing motion vector from previously decoded image having been subjected to the decoding process, and a predicted image deriving means for deriving a predicted image of the processing target area by using the motion vector, the prediction vector deriving means, in the moving picture decoding apparatus characterized by deriving a prediction vector in temporal direct prediction, the prediction vector deriving means, at least two or more of the previously decoded image as a candidate image of the reference image, the reference to avoid motion vector is zero vector, the reference to one among the candidate images, based on a predetermined selection criteria 像として選択し、該基準画像上で前記処理対象領域と空間的に同一位置に位置する領域の動きベクトルを基準動きベクトルとして選択する基準動きベクトル選択手段を備えたことを特徴とする。 Selected as an image, characterized by comprising a reference motion vector selecting means for selecting a motion vector of the region as a reference motion vector positioned in the processing target region and the spatially same position on the reference image.

処理対象画像とは、符号化データの状態から動画像を構成する画像を再構築する対象となる画像をいう。 The processed image refers to an image for which to reconstruct an image constituting a moving picture from the state of the encoded data.

処理対象領域とは、処理対象画像上にあり、一つの復号処理の単位で復号される処理対象画像の部分のことをいう。 The processing target area, located on the process target image, refers to the portion of the processing target image to be decoded in units of one of the decoding process.

予測ベクトルとは、動きベクトルを導出するために用いるベクトルである。 The prediction vector is the vector used to derive the motion vectors.

動きベクトルとは、動き補償予測方式により、動画像を構成する画像を再構築する際に予測画像を導出するために用いるベクトルである。 The motion vector, the motion compensation prediction mode, a vector used to derive a predicted image in reconstructing the images constituting the moving image.

基準画像とは、予測ベクトルを求めるための基準動きベクトルを持つ画像である。 The reference image is an image having a reference motion vector for obtaining a predictive motion vector.

基準動きベクトルとは、基準画像の基準領域にある動きベクトルである。 The reference motion vector is a motion vector in the reference area of ​​the reference image.

基準領域とは、処理対象領域と空間的に同一の位置にある、基準画像上の領域である。 A reference area, the processing target area and spatially in the same position, is a region on the reference image.

予測画像とは、符号化データに含まれる予測残差データから画像を再構築する元になる画像である。 The predicted image is an image from which to reconstruct an image from the prediction residual data included in the encoded data.

既復号画像とは、符号化データの復号および再構築により導出された動画を構成する画像である。 The previously decoded image, an image constituting a moving derived by decoding and reconstructing the encoded data.

時間ダイレクト予測とは、処理対象画像の表示時刻と、基準画像の表示時刻と、基準動きベクトルが指す既復号画像の表示時刻との時間間隔に基づいて、基準動きベクトルをスケーリングし、予測ベクトルを導出する予測方式である。 The temporal direct prediction, a display time of the processing target image, and display time of the reference image, based on the time interval between the display time of the already decoded image reference motion vector points, scaling the reference motion vector, the prediction vector is a prediction method derived for.

表示時刻とは、符号化データに含まれる時間情報であり、動画像を構成する各既復号画像をどの時刻に再生すればよいかを表すものである。 The display time is the time information included in the encoded data is representative of the do I play what time each already decoded images constituting the moving image.

従来技術では、処理対象画像より表示時刻が遅い既復号画像を基準画像として、予測ベクトルが導出されるが、該既復号画像がイントラ符号化されている場合、予測ベクトルはゼロベクトルとされるところ、当該構成においては、複数ある候補画像の中から基準画像を選択する。 In the prior art, as a reference image the slow pre-decoded image display time from the processed image, when it predicted vector is derived, if 該既 decoded image is intra-coded, the prediction vector is zero vector in the this configuration, selecting a reference image from among the plurality of candidate images.

上記の構成によれば、処理対象画像より表示時刻が遅い既復号画像がイントラ符号化されており基準領域が動きベクトルを持たない場合でも、候補画像に含まれる複数の既復号画像の中から基準画像を選択できるので、画像上の物体の動きとの相関が少ないゼロベクトルではなく、画像上の物体の動きを反映した、予測ベクトルを得られる可能性が高くなるので、予測画像の予測効率を向上できるという効果を奏する。 According to the above structure, even if the display time from the processing target image is slow already decoded image having no motion vector reference regions are intra-coded, a reference from a plurality of previously decoded images included in the candidate image since an image can be selected, rather than the zero vector correlation is small and movement of an object on an image, reflecting the movement of an object on the image, so is more likely to obtain a prediction vector, the prediction efficiency of the predicted image an effect that can be improved.

上記課題を解決するために、処理対象画像上の処理対象領域の予測ベクトルを、基準画像の基準動きベクトルを用いて導出する予測ベクトル導出手段と、前記処理対象画像と符号化処理を終えた既符号化画像とを用いて、動きベクトルを推定する動きベクトル推定手段と、前記予測ベクトルを用いて、前記動きベクトルを符号化する動きベクトル符号化手段と、前記既符号化画像から、前記動きベクトルを用いて前記処理対象領域の予測画像を導出する予測画像導出手段とを備え、前記予測ベクトル導出手段は、時間ダイレクト予測により予測ベクトルを導出する動画像符号化装置において、前記予測ベクトル導出手段は、少なくとも2枚以上の前記既符号化画像を前記基準画像の候補画像とし、前記基準動きベクトルがゼロベクトルとなる To solve the above problem, already the prediction vector of the processing target area on the target image, the prediction vector deriving means for deriving with reference motion vector of the reference image, the completion of the processing target image and the encoding process by using the encoded image, the motion vector estimation means for estimating a motion vector using the predicted vector, the motion vector coding means for coding the motion vector, from the already-encoded image, the motion vector and a predictive image deriving means for deriving a predicted image of the processing target area by using the predicted vector deriving means is the moving picture encoding apparatus to derive a predicted vector in temporal direct prediction, the prediction vector deriving means , at least two or more of said already coded picture as a candidate image of the reference image, the reference motion vector is zero vector とを回避する、所定の選択基準に基づいて前記候補画像の中の1枚を前記基準画像として選択し、該基準画像上で前記処理対象領域と空間的に同一位置に位置する領域の動きベクトルを基準動きベクトルとして選択する基準動きベクトル選択手段を備えたことを特徴とする。 To avoid the door, motion vector of the region of the one selected as the reference image, is positioned in the processing target region and the spatially same position on the reference image in the candidate image on the basis of a predetermined selection criterion characterized by comprising a reference motion vector selecting means for selecting as a reference motion vector.

既符号化画像とは、動画像データ構成する画像のうち、一度符号化したデータから画像を復号および再構築により導出した画像である。 The previously encoded picture, among the images constituting the moving image data is an image derived by decoding and reconstructing an image from a time encoded data.

従来技術では、処理対象画像より表示時刻が遅い既符号化画像を基準画像として、予測ベクトルが導出されるが、該既符号化画像がイントラ符号化されている場合、予測ベクトルはゼロベクトルとされるところ、当該構成においては、複数ある候補画像の中から基準画像を選択する。 In the prior art, as a processing target reference picture slow already coded image display time from the image, but the predicted vector is derived, if 該既 coded image is intra coded, predicted vector is a zero vector Rutokoro, in this configuration, selecting a reference image from among the plurality of candidate images.

上記の構成によれば、処理対象画像より表示時刻が遅い既符号化画像がイントラ符号化されており基準領域が動きベクトルを持たない場合でも、候補画像に含まれる複数の既符号化画像の中から基準画像を選択できるので、画像上の物体の動きとの相関が少ないゼロベクトルではなく、画像上の物体の動きを反映した、予測ベクトルを得られる可能性が高くなるので、予測画像の予測効率を向上できるという効果を奏する。 According to the above structure, even if the display time from the processing target image is slow already encoded image having no motion vector reference regions are intra-coded, among the plurality of already-encoded image contained in the candidate image since the reference image can be selected from, not zero vector correlation is small and movement of an object on an image, reflecting the movement of an object on the image, because the possibility of obtaining the prediction vector increases, the prediction of the predicted image an effect that improves efficiency.

予測ベクトル導出部112が予測ベクトルを導出する手順を示すフローチャートある。 Prediction vector deriving unit 112 is a flowchart showing a procedure of deriving a prediction vector. 第1の実施の形態における、動画像復号装置1の構成を示すブロック図である。 In the first embodiment, it is a block diagram showing the configuration of a video decoding device 1. 予測ベクトル導出部112の詳細な構成を示すブロック図である。 It is a block diagram showing a detailed configuration of the prediction vector derivation unit 112. 前方参照画像P r0,0を基準画像P colとする場合の、時間ダイレクト予測による予測ベクトルの導出方法を説明する概念図である。 In the case of the forward reference picture P R0,0 the reference image P col, is a conceptual diagram illustrating a method of deriving a predictive motion vector by temporal direct prediction. 複数の参照画像を基準画像候補とする場合の、時間ダイレクト予測による予測ベクトルの導出方法を説明する概念図である。 In the case of a plurality of standard image and the reference image candidate is a conceptual diagram illustrating a method of deriving a predictive motion vector by temporal direct prediction. 非参照画像を基準画像候補に含める場合の、時間ダイレクト予測による予測ベクトルの導出方法を説明する概念図である。 When to include a non-reference picture in the reference image candidate is a conceptual diagram illustrating a method of deriving a predictive motion vector by temporal direct prediction. 第2の実施の形態における、動画像符号化装置2の構成を示すブロック図である。 In the second embodiment, a block diagram showing the configuration of a video encoding apparatus 2. 第2の実施の形態における、動画像符号化装置2の処理手順を示すフローチャートである。 In the second embodiment, it is a flowchart showing a processing procedure of the moving picture coding apparatus 2. 従来技術における動画像復号装置3のブロック図である。 It is a block diagram of a video decoding apparatus 3 in the prior art. 従来技術における動画像復号装置3の復号手順の概要を示すフローチャートである。 It is a flowchart showing the outline of a procedure of decoding the moving picture decoding apparatus 3 in the prior art. 後方参照画像P r1,0が基準画像P colである場合の、時間ダイレクト予測による予測ベクトルの導出方法を説明する概念図である。 If the backward reference picture P R1,0 is the reference image P col, it is a conceptual diagram illustrating a method of deriving a predictive motion vector by temporal direct prediction. 従来技術における、予測ベクトル導出部102の詳細な構成を示すブロック図である。 In the prior art, it is a block diagram showing a detailed configuration of the prediction vector deriving unit 102. 従来技術において、予測ベクトル導出部102が予測ベクトルを導出する手順を示すフローチャートである。 In the prior art, is a flowchart showing a procedure of prediction vector derivation unit 102 derives a predictive vector. 従来技術において、基準領域B colがイントラ予測されている場合の、予測ベクトルを示す概念図である。 In the prior art, when the reference area B col is intra predicted, a conceptual diagram showing a prediction vector.

[第1の実施の形態] First Embodiment
以下、本発明の第1の実施の形態における、動画像復号装置について説明する。 Hereinafter, the first embodiment of the present invention will be described video decoding apparatus.

<動画像復号装置の構成について> <Configuration of a video decoding device>
図2および図3のブロック図において、本実施の形態における、動画像復号装置の構成を示す。 In the block diagram of FIG. 2 and FIG. 3, in this embodiment, showing the configuration of a video decoding apparatus. 図2のブロック図は、動画像復号装置1の全体の構成を示し、図3のブロック図は、図2に示す予測ベクトル導出部(予測ベクトル導出手段)112の詳細な構成を示したものである。 Block diagram of Figure 2 shows the overall configuration of a video decoding apparatus 1, the block diagram of FIG. 3 shows a detailed configuration of the prediction vector derivation unit (prediction vector deriving means) 112 shown in FIG. 2 is there.

これらの図に示す要素は、以下に述べるものを除き、従来技術の説明において用いたブロック図(図9および図12)と同一なので、説明を省略する。 Elements shown in these figures, except as described below, so the same as the block diagram used in the description of the prior art (FIGS. 9 and 12), the description thereof is omitted.

図2に示すブロック図おいて、本実施の形態の動画像復号装置1の構成と従来技術による動画像復号装置3の構成とが異なる部分は、予測ベクトル導出部112である。 At the block diagram shown in FIG. 2, configuration and different portions of the video decoding apparatus 3 by the configuration of the conventional art of a video decoding apparatus 1 of this embodiment is a prediction vector deriving unit 112. 予測ベクトル導出部112は、可変長符号復号部100から入力した予測方式に基づき、復号済みの動きベクトルを用いて、予測ベクトルを導出する。 Prediction vector deriving unit 112, based on the prediction scheme input from the variable length code decoding section 100, by using the decoded motion vector to derive a predicted vector.

図3に示すブロック図において、本実施の形態の予測ベクトル導出部112の構成と従来技術による予測ベクトル導出部102の構成とが異なる部分は、基準ベクトル選択部(基準動きベクトル選択手段)210の有無である。 In the block diagram shown in FIG. 3, the structure and configuration and different portions of a conventional prediction vector deriving unit 102 of the prediction vector derivation unit 112 of the present embodiment, the reference vector selection unit (reference motion vector selecting means) 210 presence or absence. 基準ベクトル選択部210は、バッファメモリ103上に複数ある基準画像候補から、基準画像P colとする画像を選択し、選択した基準画像P colに対応する基準動きベクトルmvColを、導出方式選択部201に通知する。 Reference vector selecting unit 210, a plurality of reference image candidates on the buffer memory 103, to select the image to be the reference image P col, the reference motion vector mvCol corresponding to the reference image P col selected, derivation method selection unit 201 to notify.

すなわち、本実施の形態の動画像復号装置1は、時間ダイレクト予測において、複数の基準画像候補から、所定の手順で、基準画像P colおよび基準動きベクトルmvColを決定し、前方予測ベクトルmvL0および後方予測ベクトルmvL1を導出することを特徴とする。 That is, the video decoding apparatus 1 of the present embodiment, in the temporal direct prediction, a plurality of reference image candidates, a predetermined procedure, to determine the reference image P col and the reference motion vector mvCol, forward prediction vectors mvL0 and rear characterized by deriving a prediction vector mvL 1.

<本実施の形態における予測ベクトルの導出手順について> <Procedure deriving a prediction vector of the present embodiment>
本実施の形態の動画像復号装置1での、時間ダイレクト予測における前方予測ベクトルmvL0および後方予測ベクトルmvL1の導出手順について、図1のフローチャートを用いて説明する。 Of the moving picture decoding apparatus 1 of this embodiment, a procedure of deriving the forward prediction vectors mvL0 and backward prediction vector mvL1 in temporal direct prediction will be described with reference to the flowchart of FIG.

まず、導出方式選択部201が、基準ベクトル選択部210に、基準動きベクトルmvColを要求する(S1)。 First, the derivation method selection unit 201, the reference vector selection unit 210, requests the reference motion vector mvCol (S1).

次に、基準ベクトル選択部210が、導出方式選択部201による要求に応じて、後方参照画像P r1,0を、基準画像P colとして設定(P col =P r1,0 )した後、基準画像P colの基準動きベクトルmvColを、バッファメモリ103に要求する(S2)。 Next, the reference vector selecting unit 210, as required by the deriving method selection unit 201, a backward reference picture P R1,0, set as the reference image P col (P col = P r1,0 ) and then, the reference image a reference motion vector mvCol of P col, requests in the buffer memory 103 (S2).

次に、導出方式選択部201は、バッファメモリ103からの返答に基づいて、基準動きベクトルmvColがバッファメモリ103内に存在するか否かを判断する(S3)。 Next, derivation scheme selection unit 201, based on the response from the buffer memory 103, the reference motion vector mvCol it is determined whether or not in the buffer memory 103 (S3). なお、この場合、基準動きベクトルmvColがバッファメモリ103内に存在するとは、後方参照画像P r1,0の基準領域B colに基準動きベクトルmvColが存在することである。 In this case, be present on the reference motion vector mvCol is the buffer memory 103, is that the reference motion vector mvCol is present in the reference area B col of the backward reference picture P r1,0.

基準動きベクトルmvColがバッファメモリ103内に存在する場合(後方参照画像P r1,0を基準画像P colとする、図11の概念図の場合に相当)は、次のS4の処理に進む。 (A reference image P col the backward reference picture P R1,0, corresponds to the case of the conceptual diagram of FIG. 11) when the reference motion vector mvCol is present in the buffer memory 103, the process proceeds to the next S4.

基準動きベクトルmvColがバッファメモリ103内に存在しない場合は、S6の処理に進む。 Reference motion vector mvCol is if it does not exist in the buffer memory 103, the process proceeds to S6.

S3またはS7において、基準動きベクトルmvColがバッファメモリ103内に存在すると判断された場合、導出方式選択部201は、スイッチ202を切り替えて、時間ダイレクト予測部203を選択する(S4)。 In S3 or S7, if the reference motion vector mvCol is judged to be present in the buffer memory 103, derivation scheme selection unit 201 switches the switch 202 to select the temporal direct prediction unit 203 (S4).

次に、時間ダイレクト予測部203が、バッファメモリ103から取得した基準動きベクトルmvColを用いて、前方予測ベクトルmvL0および後方予測ベクトルmvL1を、式(1)および式(2)により計算し、計算結果を前方予測ベクトルmvL0および後方予測ベクトルmvL1として、動きベクトル復号部101へ出力し、処理を終了する(S5)。 Next, the temporal direct prediction unit 203, using a reference motion vector mvCol obtained from the buffer memory 103, the forward prediction vectors mvL0 and backward prediction vectors mvL 1, calculated by Equation (1) and (2), the calculation result as forward prediction vectors mvL0 and backward prediction vectors mvL 1, and outputs to the motion vector decoding unit 101, the process ends (S5).

S3において、基準動きベクトルmvColがバッファメモリ103内に存在しないと判断された場合、基準ベクトル選択部210は、前方参照画像P r0,0を基準画像P colとして設定(P col =P r0,0 )した後、基準画像P colの基準動きベクトルmvColを、バッファメモリ103に要求する(S6)。 In S3, if the reference motion vector mvCol is judged not to exist in the buffer memory 103, the reference vector selecting unit 210 sets a forward reference picture P R0,0 as a reference image P col (P col = P r0,0 ), and then the reference motion vector mvCol of the reference image P col, requests in the buffer memory 103 (S6).

次に、導出方式選択部201は、バッファメモリ103からの返答に基づいて、基準動きベクトルmvColがバッファメモリ103内に存在するか否かを判断する(S7)。 Next, derivation scheme selection unit 201, based on the response from the buffer memory 103, the reference motion vector mvCol it is determined whether or not in the buffer memory 103 (S7). なお、この場合、基準動きベクトルmvColがバッファメモリ103内に存在するとは、前方参照画像P r0,0の基準領域B colに基準動きベクトルmvColが存在することである。 In this case, be present on the reference motion vector mvCol is the buffer memory 103, is the presence of a reference motion vector mvCol the reference area B col forward reference picture P r0,0.

基準動きベクトルmvColがバッファメモリ103内に存在する場合(図4の概念図の場合に相当)は、S4の処理に進む。 When the reference motion vector mvCol is present in the buffer memory 103 (corresponding to the case of the conceptual diagram of FIG. 4), the processing proceeds to S4. なお、図4の概念図では、前方参照画像P r0,0を基準画像P colとする場合の、基準動きベクトルmvColと、前方予測ベクトルmvL0および後方予測ベクトルmvL1との関係を示している。 In the conceptual diagram of FIG. 4 shows the case where the forward reference picture P R0,0 the reference image P col, a reference motion vector mvCol, the relationship between the forward prediction vectors mvL0 and backward prediction vector mvL 1.

基準動きベクトルmvColがバッファメモリ103内に存在しない場合は、次のS8に進む。 Reference motion vector mvCol is if it does not exist in the buffer memory 103, the process proceeds to the next S8.

S7において、基準動きベクトルmvColがバッファメモリ103内に存在しないと判断された場合は、導出方式選択部201は、スイッチ202を切り替えて、ゼロベクトル出力部206を選択する(S8)。 In S7, the reference motion vector mvCol is when it is determined that does not exist in the buffer memory 103, derivation scheme selection unit 201 switches the switch 202 to select the zero vector output unit 206 (S8).

次に、ゼロベクトル出力部206が、ゼロベクトルを前方予測ベクトルmvL0および後方予測ベクトルmvL1として動きベクトル復号部101へ出力し、処理を終了する。 Then, the zero vector output unit 206 may output the motion vector decoding unit 101 zero vector as a forward prediction vectors mvL0 and backward prediction vectors mvL 1, the process ends. (S9) (S9)
上記手順に従うと、後方参照画像P r1,0を基準画像P colとした際に、基準動きベクトルmvColが利用可能ならば、従来技術と同様にして予測ベクトルを導出することができる。 According to the above procedure, upon the backward reference picture P R1,0 the reference image P col, if the reference motion vector mvCol is available, it is possible to derive a predicted vector in the same manner as the prior art. また、後方参照画像P r1,0における基準動きベクトルmvColが利用不可能ならば、前方参照画像P r0,0を基準画像P colとして基準動きベクトルmvColを利用することができる。 Further, if the reference motion vector mvCol is not available in the backward reference picture P R1,0, may utilize the reference motion vector mvCol the forward reference picture P R0,0 as the reference image P col.

後方参照画像P r1,0を基準画像P colとして使う場合と同様に、前方参照画像P r0,0を基準画像P colとして使う場合も、図4の概念図に示す対象領域A curにおいて画像としてある物体および領域B curにおいて画像としてある物体がそれぞれ、領域A r0,0から領域A r1,0に、また領域B colrefから領域B r1,0に、同じ方向へ等速運動していることを仮定して予測を行う。 Similar to the case of using the backward reference picture P R1,0 as the reference image P col, even when using the forward reference picture P R0,0 as the reference image P col, as an image in the target area A cur shown in a conceptual diagram of FIG. 4 each object in an image in an object and the region B cur, in the region a R1,0 from the region a r0,0, also in the area B R1,0 from the region B colref, that in motion a constant speed in the same direction assuming make predictions.

このように、従来手法において、図14の概念図で示した様に、後方参照画像P r1,0に基準動きベクトルmvColが無く、予測ベクトルがゼロベクトルとされる予測方法に較べて、本発明に係る予測方法では、他の参照画像の基準動きベクトルmvColを用いて予測ベクトルを導出し画像予測に用いるので、領域A curに画像としてある物体の実際の動きを正確に表すことができる。 Thus, in the conventional method, as shown in the conceptual view of FIG. 14, no reference motion vector mvCol in the backward reference picture P R1,0, compared to the prediction method of the prediction vector is a zero vector, the present invention in the prediction method according to, the use in the derived image predictive prediction vector using a reference motion vector mvCol of other reference images, the actual motion of an object as an image in the area a cur can be accurately represented. 従って、従来技術による予測方法に比べて、効率の良い予測が可能である。 Therefore, in comparison with the prediction method according to the prior art, it is possible to efficiently predict.

<基準画像候補が3枚以上ある場合の基準画像選択方法について> <Regarding the reference image selection process in a case where the reference image candidate is not less than three>
なお、本発明は、基準画像候補が3枚以上ある場合にも、適用可能である。 The present invention, even when the reference image candidate is not less than three, is applicable.

例えば、参照画像が3枚以上存在する場合は、それら参照画像のうち、複数枚を基準画像候補として利用できる。 For example, if the reference images exist three or more, out of which the reference image can be used a plurality as a reference image candidate. 図5の概念図に示すように、3枚の前方参照画像P r0,0 、P r0,1 、およびP r0,2と、1枚の後方参照画像P r1,0とが存在し、それらの参照画像を全て基準画像候補とする場合について、以下に説明する。 As shown in the conceptual diagram of FIG. 5, three forward reference picture P R0,0, and P R0,1, and P R0,2, of one exists and the backward reference picture P R1,0, their the case where the reference image all the reference image candidates, will be described below.

3枚以上の基準画像候補が存在する場合、候補間の優先順位を、各基準画像候補の表示時刻と、対象画像P curの表示時刻との時間間隔の大小を用いて決めておく。 If three or more of the reference image candidate exists, the priority between candidates, is determined in advance by using the display time of each reference image candidate, the magnitude of the time interval between the display time of the target image P cur. 例えば、後方参照画像P r1,0を時間間隔が小さい順に並べ、その後、前方参照画像P r0,0 、P r0,1 、およびP r0,2を時間間隔が小さい順に並べ、この順序を優先順位とする。 For example, arranging the backward reference picture P R1,0 in ascending order time interval, then the forward reference picture P r0,0, P r0,1, and arranging P R0,2 in ascending order time interval, the priority of this order to. この優先順位に従うと、図5における各基準画像候補の優先順位は、後方参照画像P r1,0 、前方参照画像P r0,0 、前方参照画像P r0,1 、前方参照画像P r0,2の順となる。 According to this priority, the priority of each reference image candidate in FIG. 5, the backward reference picture P R1,0, forward reference image P R0,0, forward reference image P R0,1, the forward reference picture P R0,2 a forward.

基準ベクトル選択部210は、優先順位の高い基準画像候補を、基準画像P colに設定する。 Reference vector selecting unit 210, a higher priority reference image candidate is set as the reference image P col. そして、設定した基準画像P colの基準動きベクトルmvColの有無を判定して、基準動きベクトルmvColが存在する場合は、その基準動きベクトルmvColを選択する。 Then, it is determined whether the reference motion vector mvCol of the reference image P col set, if the reference motion vector mvCol exists, selects the reference motion vector mvCol. 存在しない場合は、次の優先順位の基準画像候補を基準画像P colに設定し、優先順位に従って、同様の処理を繰り返す。 If not, set the reference image candidate for the next priority in the reference image P col, according to priority, and repeats the same processing. 全ての基準画像P colを試した後に、基準動きベクトルmvColが選択されていない場合は、その旨を導出方式選択部201へ通知する。 After trying all the reference image P col, reference motion vector mvCol may not selected, notifies the derivation scheme selection section 201.

図5に示す概念図では、参照画像P r0,1を基準画像P colに設定した場合の、基準動きベクトルmvColと、前方予測ベクトルmvL0および後方予測ベクトルmvL1との関係を示している。 In the conceptual diagram shown in FIG. 5, when the reference image P R0,1 set in the reference image P col, a reference motion vector mvCol, shows the relationship between the forward prediction vectors mvL0 and backward prediction vector mvL 1. この場合も、対象領域A curに画像としてある物体および領域B curに画像としてある物体が、それぞれ、領域A r0,0から領域A r1,0に、領域B colrefから領域B r1,0に、同じ方向へ等速運動していることを仮定し、式(1)および式(2)より、予測ベクトルが計算できる。 Again, the object in the image on the object and the region B cur in the image in the target area A cur, respectively, from the area A R0,0 to the region A R1,0, from the region B Colref the region B R1,0, assume that in motion a constant speed in the same direction, from equation (1) and (2), can be calculated prediction vector.

基準画像候補が3枚以上ある場合には、基準画像候補のいずれかを基準画像P colとし、その基準画像P colに対応する基準動きベクトルmvColを選択することで、図14の概念図に示すように基準動きベクトルmvColをゼロベクトルとする場合に較べて、画像にある物体の実際の動きとの相関が高い予測ベクトルを導出できる可能性が高くなる。 When the reference image candidate is not less than 3 sheets, one of the reference image candidate as the reference image P col, by selecting the reference motion vector mvCol corresponding to the reference image P col, shown in the conceptual diagram of FIG. 14 as compared with the case where the reference motion vector mvCol zero vector as the possibility that correlation can be derived with high predictive vector and the actual movement of the object in the image is high. 従って、より効率の良い予測が可能である。 Therefore, it is possible to more efficient prediction.

<非参照画像を基準画像候補に含める予測方法について> <About Prediction how to include non-reference picture in the reference picture candidates>
参照画像に加えて、従来技術では予測画像の導出には用いない非参照画像を、基準画像候補に含めても構わない。 In addition to the reference image, the non-reference image is not used in the derivation of the prediction image in the prior art, it may be included in the reference image candidates. この場合は、全ての既復号画像が、基準画像候補となり得る。 In this case, all the pre-decoded image can be a reference image candidate. 図6の概念図に示すように、前方参照画像P r0,0および後方参照画像P r1,0の2枚の参照画像に加えて、非参照画像P nrが基準画像候補に含まれる場合について説明する。 As shown in the conceptual diagram of FIG. 6, in addition to the two reference images of the forward reference image P R0,0 and backward reference image P R1,0, if the non-reference image P nr is included in the reference image candidate for a description to.

基準画像候補に非参照画像P nrを含む場合であっても、基準ベクトル選択部210の動作は既に説明した動作と同様である。 Even if the reference image candidate including non-reference image P nr, operation of the reference vector selection unit 210 is similar to the operation already described. つまり、優先順位に従って、順に基準画像P colに設定した画像毎に、基準動きベクトルmvColの有無を判定することで、基準動きベクトルmvColを選択する。 That is, according to priority, sequentially for each image set to the reference image P col, by determining the presence or absence of the reference motion vector mvCol, selects the reference motion vector mvCol.

基準画像候補に非参照画像P nrを含む場合の、優先順位の決め方として、例えば、参照画像であるか非参照画像であるかを問わず、表示時刻が対象画像P curの表示時刻に近い順に、画像に優先順位をつける方法がある。 When the reference image candidate including non-reference image P nr, as how to determine the priority, for example, whether a non-reference image or a reference image, in order of proximity to the display time of the display time object image P cur , there is a method to prioritize image. また、参照画像である画像を表示時刻が対象画像P curの表示時刻に近い順に並べ、次に、非参照画像である画像を表示時刻が対象画像P curの表示時刻に近い順に並べて、優先順位とする方法もある。 Further, the display time of the image is a reference image is arranged in order of proximity to the display time of the target image P cur, then the display time of the image is a non-reference image is arranged in order of increasing distance to the display time of the target image P cur, priority a method of that there.

図6の概念図では、非参照画像P nrを基準画像P colに設定した場合(P col =P nr )における、基準動きベクトルmvColと前方予測ベクトルmvL0および後方予測ベクトルmvL1との関係を示している。 The conceptual diagram of FIG. 6, in the case of setting the non-reference image P nr the reference image P col (P col = P nr ), shows the relationship between the reference motion vector mvCol and forward prediction vectors mvL0 and backward prediction vector mvL1 there. この場合も、対象領域A curに画像としてある物体および領域B curに画像としてある物体が、それぞれ、領域A r0,0から領域A r1,0に、また領域B colrefから基準領域B r1,0に、同じ方向へ等速運動していることを仮定し、式(1)および式(2)より予測ベクトルを計算できる。 Again, the object in the image on the object and the region B cur in the image in the target area A cur, respectively, in a region A R1,0 from the region A R0,0, also the region B reference area from colref B r1,0 to, assume that in motion a constant speed in the same direction, can be calculated prediction vector from the equation (1) and (2).

非参照画像を基準画像候補に含めることで、参照画像のみを基準画像候補に含める場合に較べて、対象画像P curの表示時刻と表示時刻が近い基準画像候補が多くなる。 By including non-reference picture in the reference picture candidates, as compared with the case include only reference image in the reference image candidate, display time and display time of the object image P cur is much closer reference image candidates. 対象画像P curの表示時刻と基準画像P colの表示時刻との間隔が狭い場合は、対象領域A curと領域B curとの、対象画像P cur上における距離が短くなるため、これら2つの領域が同じ方向へ等速運動しているとの仮定が成り立ちやすくなる。 If the interval between the display time of the display time and the reference image P col of the target image P cur is narrow, since the target region A cur and the region B cur, distance on the object image P cur shorter, these two regions There assumption is likely holds the in motion a constant speed in the same direction. 従って、画像にある物体の実際の動きと相関が高い動きベクトルを導出できる可能性が高くなるため、参照画像のみを基準画像候補とする場合に較べて、より効率の良い予測が可能である。 Accordingly, since the possibility of deriving the actual correlation is high motion vector and motion of an object in the image is high, only the reference image in comparison with the case where the reference image candidate, it is possible to more efficient prediction.

なお、非参照画像を基準画像候補として使用する場合には、少なくとも、候補となる非参照画像に対応する動きベクトルおよびその非参照画像の表示時刻情報が、バッファメモリ103内に記録されている必要がある。 When using the non-reference image as a reference image candidate, at least, the display time information of the motion vector and its non-reference image corresponding to the non-reference image as a candidate, must be recorded in the buffer memory 103 there is.

<予測画像導出に1枚の参照画像のみを用いる方法について> <Method of using only one reference image to the prediction image derived>
なお、ここまでの説明では、時間ダイレクト予測において、対象領域A curの予測画像導出に、前方参照画像P r0,0および後方参照画像P r1,0の2枚を用いるものとしていたが、いずれか一方の参照画像のみを用いても構わない。 In the description so far, in the temporal direct prediction, the predicted image derivation of the target region A cur, had been assumed that using two forward reference picture P R0,0 and backward reference image P R1,0, either it may be used only one reference image.

例えば、図4の概念図に示すように、前方参照画像P r0,0を基準画像P colとして予測ベクトルを導出する場合に、領域A r0,0のみから対象領域A curの予測画像を生成してもよい。 For example, as shown in the conceptual diagram of FIG. 4, in the case of deriving a prediction vector of the forward reference picture P R0,0 as the reference image P col, it generates a predicted image of the target region A cur only area A R0,0 it may be. この場合、基準領域B colに画像としてある物体が領域B colrefから領域B curまで等速運動する可能性の方が、より時間間隔の長い領域B colrefから領域B r1,0まで等速運動する可能性に較べて高い。 In this case, the object in the image in the reference area B col is more likely to exercise a constant speed from the area B Colref to the region B cur is to exercise a constant speed of more time intervals from a long region B Colref to a region B R1,0 high compared to the potential. つまり、前方予測ベクトルmvL0の方が、後方予測ベクトルmvL1に較べて精度が良い可能性が高い。 In other words, towards the forward predicted vector mvL0 is, it is highly good possibility precision compared to the backward prediction vector mvL 1. 従って、領域A r0,0のみを用いた場合に、予測効率が向上する。 Therefore, in the case of using only the region A R0,0, thereby improving prediction efficiency.

また、後方参照画像P r1,0を、基準画像P colとする場合であり、かつ、基準動きベクトルmvColが後方参照画像P r1,0よりも表示時間が後になる画像を指す場合には、前方参照画像P r0,0のみから予測ベクトルを導出する場合と同様に、領域A r1,0のみを予測画像の導出に用いることで、予測効率が向上する。 Also, the backward reference picture P R1,0, the case as the reference image P col, and, if the reference motion vector mvCol refers to images made after the display time than the backward reference picture P R1,0 has a front similar to the case of deriving a prediction vector from only the reference image P R0,0, by using only a region a R1,0 for deriving a predicted image, thereby improving the prediction efficiency.

[第2の実施の形態] Second Embodiment
以下、本発明の第2の実施の形態における動画像符号化装置について説明する。 The following describes the moving picture coding apparatus in the second embodiment of the present invention.
<動画像符号化装置の構成について> <Configuration of the moving picture coding apparatus>
図7のブロック図において、本実施の形態に係る動画像符号化装置2の構成を示す。 In the block diagram of FIG. 7 shows a configuration of a video encoding apparatus 2 according to the present embodiment. 図7のブロック図は、動画像符号化装置2の全体の構成を示したものである。 Block diagram of FIG. 7 is a diagram showing the overall configuration of a video encoding apparatus 2.

動画像符号化装置2は、画像符号化部121、予測画像導出部105、動きベクトル推定部(動きベクトル推定手段)122、バッファメモリ103、画像復号部104、予測ベクトル導出部112、予測方式制御部124、可変長符号化部120、および動きベクトル符号化部(動きベクトル符号化手段)123を含んで構成される。 Video encoding device 2, the image encoding unit 121, the prediction image deriving unit 105, the motion vector estimation unit (a motion vector estimation unit) 122, a buffer memory 103, an image decoding unit 104, the prediction vector deriving unit 112, the prediction method control part 124, and variable length coding unit 120, and the motion vector coding unit includes a (motion vector coding unit) 123.

この図に示す要素は、以下に述べるものを除き、第1の実施の形態において動画像復号装置1のブロック図(図2)に示す要素と同一なので、説明を省略する。 Elements shown in this figure, except as described below, since the elements and identical shown in the block diagram of a video decoding apparatus 1 in the first embodiment (FIG. 2), the description thereof is omitted.

可変長符号化部120は、画像符号化部121から入力した予測残差データ、動きベクトル符号化部123から入力した差分ベクトル、および予測方式制御部124から入力した予測方式等の符号化情報を可変長符号化し、外部に出力する。 Variable length coding unit 120, the prediction residual data input from the image encoding unit 121, a difference vector input from the motion vector coding unit 123, and the coded information of the prediction method or the like input from the prediction mode control unit 124 and variable length coding, and outputs to the outside. 画像符号化部121は、外部から入力した動画像データおよび予測画像導出部105から入力した予測画像を用いて予測残差データを求め、画像復号部104および可変長符号化部120に出力する。 The image encoding unit 121 obtains a prediction residual data using the predicted image input from the moving image data and the predicted image derivation section 105 inputted from outside and outputs to the image decoding unit 104 and the variable length coding unit 120. 動きベクトル推定部122は、外部から入力した動画像データおよびバッファメモリ103内の参照画像を用いて、動きベクトルを推定し、求めた動きベクトルを予測画像導出部105、バッファメモリ103、予測ベクトル導出部112、予測方式制御部124、および動きベクトル符号化部123にする。 Motion vector estimation unit 122 uses the reference image in the moving image data and the buffer memory 103 is input from the outside, to estimate the motion vector, the obtained motion vector prediction image derivation unit 105, a buffer memory 103, a prediction vector deriving part 112, the prediction mode control unit 124, and the motion vector coding unit 123. 動きベクトル符号化部123は、動きベクトル推定部122から入力した動きベクトル、予測ベクトル導出部112から入力した予測ベクトル、および予測方式制御部から入力した予測方式を用いて差分ベクトルを求め、可変長符号化部120に出力する。 The motion vector coding unit 123 calculates a difference vector by using the motion vectors inputted from the motion vector estimation unit 122, the predicted vector input from the prediction vector derivation unit 112, and a prediction scheme input from the prediction mode control unit, a variable length and outputs to the encoding unit 120. 予測方式制御部124は、動きベクトル推定部122から入力した動きベクトルに基づき、予測ベクトル導出時の予測方式を設定し、予測方式を予測ベクトル導出部112、可変長符号化部120、および動きベクトル符号化部123に出力する。 Prediction scheme control unit 124, the motion on the basis of the vector estimator motion vector input from 122, the prediction set a prediction method when vector derivation, predicts a prediction method vector derivation unit 112, the variable length coding unit 120 and the motion vector, and outputs to the encoding unit 123.

<動画符号化装置2における符号化手順の概略について> <Outline of the coding procedure in video coding apparatus 2>
動画符号化装置2における符号化処理手順の概略について、図8に示すフローチャートを参照しながら、以下に説明する。 Outline of the coding processing procedure in the moving picture coding apparatus 2 with reference to the flowchart shown in FIG. 8, will be described below.

まず、動きベクトル推定部122が、入力された動画像データとバッファメモリ103内の参照画像とを用いて動き推定を行い、符号化の対象となる画像の各領域の動きベクトルを求める。 First, the motion vector estimation unit 122 performs motion estimation by using the input moving image data and the reference image in the buffer memory 103, a motion vector is obtained for each area of ​​the image to be coded. 動きベクトル推定部122は、求めた動きベクトルをバッファメモリ103に記録すると共に、予測ベクトル導出部112、予測方式制御部124、および動きベクトル符号化部123へ出力する(S100)。 Motion vector estimation unit 122, and records the motion vector obtained in the buffer memory 103, the prediction vector deriving unit 112, the prediction mode control unit 124, and outputs it to the motion vector coding unit 123 (S100).

次に、予測方式制御部124が、動きベクトル推定部122から入力された動きベクトルを用いて、予測方式を、時間ダイレクト予測、空間ダイレクト予測、またはpmv予測のいずれかの方式に決定し、予測ベクトル導出部112、可変長符号化部120、および動きベクトル符号化部123に出力する(S110)。 Next, the prediction mode controller 124, using the motion vector input from the motion vector estimation unit 122, a prediction method to determine the one of the methods of the temporal direct prediction, spatial direct prediction, or pmv prediction, prediction vector derivation unit 112, and outputs to the variable length coding unit 120 and the motion vector coding unit 123, (S110).

次に、予測ベクトル導出部112が、動きベクトル推定部122から入力された動きベクトルと、予測方式制御部124から入力された予測方式とに基づいて、第1の実施の形態において説明した予測ベクトルの導出手順に従って、予測ベクトルを計算し、バッファメモリ103および動きベクトル符号化部123に出力する(S120)。 Next, the prediction vector predicted vector derivation unit 112, the motion vector input from the motion vector estimation unit 122, based on the prediction method which is input from the prediction mode control unit 124, described in the first embodiment according to the procedure of derivation, to calculate the prediction vector, and outputs to the buffer memory 103 and the motion vector coding unit 123 (S120).

次に、動きベクトル符号化部123が、差分ベクトルを求める。 Next, the motion vector coding unit 123 obtains a difference vector. 予測方式制御部124から入力された予測方式がpmv予測である場合には、動きベクトル推定部122から入力された動きベクトルと、予測ベクトル導出部112から入力された予測ベクトルとに基づいて、差分ベクトルを計算する。 If the prediction method which is input from the prediction mode control unit 124 is pmv prediction based on the motion vector input from the motion vector estimation unit 122, a prediction vector inputted from the prediction vector derivation unit 112, a difference to calculate the vector. 予測方式制御部124から入力された予測方式が、時間ダイレクト予測または空間ダイレクト予測の場合には、差分ベクトルをゼロベクトルとする。 Prediction method that is input from the prediction mode control unit 124, in the case of temporal direct prediction or spatial direct prediction, the difference vector is zero vector. 動きベクトル符号化部123は、求めた差分ベクトルを可変長符号化部120に出力する(S130)。 The motion vector coding unit 123 outputs a difference vector obtained in the variable length coding unit 120 (S130).

次に、予測画像導出部105が、動きベクトル推定部122から入力された動きベクトルと、バッファメモリ103内の参照画像とを用いて動き補償を行い、予測画像を求め、画像符号化部121および画像復号部104に出力する(S140)。 Next, the prediction image deriving unit 105, the motion vector input from the motion vector estimation unit 122 performs motion compensation using the reference image in the buffer memory 103 obtains the predicted image, the image encoding unit 121 and and outputs to the image decoding section 104 (S140).

次に、画像符号化部121が、外部から入力された動画像データと予測画像導出部105から入力された予測画像とに基づき、予測残差データを計算し、画像復号部104および可変長符号化部120に出力する(S150)。 Next, the image coding unit 121, based on the predicted image and the inputted moving image data input from the outside from the prediction image deriving unit 105, calculates a prediction residual data, the image decoding unit 104 and the variable length code and outputs the section 120 (S150).

次に、画像復号部104が、画像符号化部121から入力された予測残差データと、予測画像導出部105から入力された予測画像とを用いて、画像を既符号化画像として再構成する(S160)。 Next, the image decoding unit 104, by using the prediction residual data received from the image encoding unit 121, the prediction image input from the prediction image deriving unit 105, to reconstruct an image as already encoded image (S160). 再構成された画像は、バッファメモリ103に記録される。 The reconstructed image is recorded in the buffer memory 103. 既符号化画像は、予測ベクトル導出時に基準画像として用いられ、また、予測画像導出時に参照画像として用いられる。 Already encoded image is used as a reference picture when the prediction vector derivation, also used as a reference picture when the prediction image derived.

次に、可変長符号化部120が、画像符号化部121から入力された予測残差データと、動きベクトル符号化部123から入力された差分ベクトルと、予測方式制御部124から入力された予測方式とを可変長符号化し、符号化データとして動画像符号化装置2の外部に出力する(S170)。 Next, the variable length coding unit 120, a prediction residual data received from the image encoding unit 121, the difference vector input from the motion vector coding unit 123, is input from the prediction mode control unit 124 prediction a method and a variable length coding, and outputs to the outside of the moving picture coding apparatus 2 as encoded data (S170).

<第2の実施の形態に関する補足事項> <The second embodiment of the present invention relates to Supplement>
以上説明したように、本実施の形態における動画像符号化装置2は、第1の実施の形態において説明した予測ベクトルの導出手順に従い、複数の基準画像候補を用いて予測ベクトルを導出する。 As described above, the video encoding apparatus 2 in the present embodiment, following the procedure of deriving the predicted vector described in the first embodiment, to derive a predictive vector by using a plurality of reference image candidates. そして、導出した予測ベクトルを用いて動画像の符号化を行うので、動画像の高能率な符号化が可能である。 Then, since the coding of a moving picture using a prediction vector derived, it is capable of high-efficiency coding of a moving picture.

なお、図8に示すフローチャートのS120の処理(予測ベクトルの導出)において、第1の実施の形態で説明したように、3枚以上の基準画像候補を用いて予測ベクトルを導出することにより、予測効率が向上する。 In the process of S120 of the flowchart shown in FIG. 8 (deriving predictive vector), as described in the first embodiment, by deriving a predictive vector using three or more reference image candidate prediction efficiency is improved.

また、同じくS120の処理において、第1の実施の形態で説明したように、非参照画像を基準画像候補に含めて予測ベクトルを導出することにより、予測効率が向上する。 Further, also in the process of S120, as described in the first embodiment, by deriving a prediction vector, including non-reference picture in the reference picture candidates, thereby improving the prediction efficiency.

また、以上説明した時間ダイレクト予測における予測ベクトルの導出方法を、pmv予測を予測方式として用いる場合の、予測ベクトルの導出に用いることも可能である。 Further, a method of deriving a prediction vector in the described temporal direct prediction or, in the case of using as a prediction scheme pmv prediction, it is also possible to use in the derivation of the prediction vector.

<補足事項> <Supplement>
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above embodiments, and various modifications are possible within the scope of the claims, embodiments obtained by appropriately combining technical means disclosed in different embodiments for also included in the technical scope of the present invention.

前記候補画像は、前記処理対象画像より表示時刻が遅くかつ前記処理対象画像に表示時刻が最も近い既復号画像および前記処理対象画像より表示時刻が早くかつ前記処理対象画像に表示時刻が最も近い既復号画像であり、前記所定の選択基準は、前記処理対象画像より表示時刻が遅い前記候補画像上で、前記処理対象領域と空間的に同一位置に位置する領域の動きベクトルが存在する場合は、該候補画像を前記基準画像として選択し、該動きベクトルが存在しない場合で、前記処理対象画像より表示時刻が早い前記候補画像上で、前記処理対象領域と空間的に同一位置に位置する領域の動きベクトルが存在する場合は、該候補画像を前記基準画像として選択するという基準であることが好ましい。 The candidate image, the processing target slow display time from the image and the processing target image in the display time closest previously decoded image and the processing faster display time from the target image and the processing target closest already has display time in the image a decoded image, wherein the predetermined selection criteria, in the processing target image from the display time is over a slow the candidate image, if the motion vector of the processing target region and the spatially region located in the same position is present, select the candidate image as the reference image, in the case where the motion vector is not present in the target image from the display time on earlier the candidate image, the region located in the processing target region and the spatially same position If the motion vector is present, is preferably a criterion that selects the candidate image as the reference image.

これにより、当該構成において、基準動きベクトル選択手段は、まず、処理対象画像の直後にある既復号画像が基準画像に選択できるか否かを判断する。 Thus, in the configuration, the reference motion vector selecting means, first, already decoded image immediately following the target image to determine whether it selects the reference image. 選択できる場合は、従来技術と同様に予測画像を導出する。 If there is a choice derives prior art as well as the prediction image. 選択できない場合は、次に、処理対象画像の直前にある既復号画像が基準画像に選択できるか否かを判断する。 If unsuccessful, then the already decoded image that immediately precedes the processing target image to determine whether it selects the reference image. 選択できる場合は、その既復号画像を基準画像として、予測画像を導出する。 If there is a choice, the already decoded picture as a reference picture, to derive a predicted image.

上記の構成によれば、処理対象画像に最も表示時刻が近い既復号画像を基準画像に選択するので、処理対象画像と基準画像との時間間隔が短い。 According to the above configuration, since selects the already decoded image most display time is close to the processing target image in the reference image, the time interval between the processing target image and the reference image is short. 従って、時間ダイレクト予測の前提である画像上の物体は、同方向へ等速運動をしているという仮定が成り立つ確率が高まるので、予測画像の予測効率を向上できるという効果を奏する。 Thus, the object on the image is a prerequisite for temporal direct prediction, the probability that assumption that a constant speed movement in the same direction is satisfied increases, an effect that can be improved prediction efficiency of the predicted image.

また、前記所定の選択基準は、前記候補画像に含まれる、前記処理対象画像より表示時刻が遅い既復号画像を、その表示時刻が前記処理対象画像の表示時刻に近い順に優先順位をつけ、その優先順位に続けて、前記候補画像に含まれる、前記処理対象画像より表示時刻が早い既復号画像を、その表示時刻が前記処理対象画像の表示時刻に近い順に優先順位をつけ、該優先順位の順に、前記候補画像上での、前記処理対象領域と空間的に同一位置に位置する領域の動きベクトルの有無の判定を、該動きベクトルが有るまで繰り返し、該動きベクトルが有った場合は、該候補画像を前記基準画像として選択するという基準であることが好ましい。 The predetermined selection criteria, the included in the candidate image, the slow pre-decoded image display time than the processing target image, prioritize order of proximity to the display time of the display time the processing target image, the Following the priority, the candidate included in the image, a fast pre-decoded image display time than the processing target image, prioritize order of proximity to the display time of the display time the processing target image, the the priority ranking turn on the candidate image, the determination of the presence or absence of the motion vector of the processing target region and the spatially regions located at the same position is repeated until the motion vector is present, if the motion vector is there is it is preferably a criterion that selects the candidate image as the reference image.

当該構成において、基準動きベクトル選択手段は、まず、複数ある既復号画像に優先順位をつけ、優先度の高いものから順に、基準画像に選択できるか否かを判断していく。 In this configuration, the reference motion vector selecting means, first, to prioritize plurality of previously decoded images, in descending order of priority, continue to determine whether it can select the reference image. この優先順位は、予測ベクトルが実際の物体の動きを反映する可能性の高い既復号画像を優先する順位付けになっている。 This priority is made higher already decoded images may reflect the actual movement of the object is predicted vector priority ranking.

これにより、上記の構成によれば、候補画像のいずれかを基準画像とし、その基準画像に対応する基準動きベクトルを選択することで、基準動きベクトルをゼロベクトルとする場合に較べて、画像にある物体の実際の動きとの相関が高い予測ベクトルを導出できる可能性が高くなるので、より効率の良い予測が可能になるという効果を奏する。 Thus, according to the above configuration, one of the candidate image as a reference image, by selecting the reference motion vector corresponding to the reference image, as compared with the case where the reference motion vector and a zero vector, the image since the possibility of deriving a high correlation predictive vector and the actual movement of an object is high, an effect that enables more efficient prediction.

また、前記基準動きベクトル選択手段が、前記処理対象画像よりも表示時刻が早い既復号画像を前記基準画像として選択した場合、前記予測画像導出手段は、前記処理対象画像に表示時刻が最も近い前方参照画像のみを用いて予測画像を導出することが好ましい。 Also, the reference motion vector selection unit, if the earlier already decoded image display time than the processing target image is selected as the reference image, the predicted image deriving means, nearest forward display time in the process target image it is preferable to derive the prediction image using only the reference image.

参照画像とは、動きベクトルが指す領域を有する既復号画像のことをいう。 The reference image refers to the pre-decoded image having the area indicated by the motion vector.

前方参照画像とは、動きベクトルが指す領域を有する既復号画像のうち、処理対象画像よりも表示時刻が早い既復号画像のことをいう。 The forward reference picture, among the already decoded image having the area indicated by the motion vector, the display time than the processing target image refers to early pre-decoded image.

後方参照画像とは、動きベクトルが指す領域を有する既復号画像のうち、処理対象画像よりも表示時刻が遅い既復号画像のことをいう。 The backward reference picture, among the already decoded image having the area indicated by the motion vector, the display time than the processing target image refers to the slow pre-decoded image.

前方予測ベクトルとは、処理対象領域から前方参照画像を指す予測ベクトルである。 The forward prediction vector, a prediction vector pointing forward reference image from the processing target area.

後方予測ベクトルとは、処理対象領域から後方参照画像を指す予測ベクトルである。 The backward prediction vector, a prediction vector from the processing target area refers to the backward reference picture.

当該構成において、表示時刻から見ると、まず基準動きベクトルが指す前方参照画面があり、次に基準画像があり、次に処理対象画像があり、次に後方参照画像があるという関係になる。 In this structure, when viewed from the display time, there is the forward reference picture pointed by the first reference motion vector, then there is a reference image, then there is the processing target image, a relationship that then there is a backward reference picture.

これにより、上記の構成によれば、前方参照画像を基準画像として予測ベクトルを導出する場合に、前方予測ベクトルが指す基準画像上の領域のみから処理対象領域の予測画像を生成する場合、基準領域に画像としてある物体が基準動きベクトルが指す前方参照画像上の領域から処理対象画像上の領域まで等速運動する可能性の方が、より時間間隔の長い基準動きベクトルが指す前方参照画像上の領域から後方参照画像上の領域まで等速運動する可能性に較べて高い。 Thus, according to the above configuration, in the case of deriving a prediction vector of the forward reference image as a reference image, to generate a predicted image of the processing target area from only the region of the reference image indicated by the forward prediction vectors, the reference region the objects in the image are more likely to like up to the region uniform motion on the process target image from the region of the forward reference picture pointed to by a reference motion vector, on the forward reference picture pointed by the long reference motion vector a more time interval higher than the potential to exercise a constant speed from region to region on the backward reference picture.

さらに、前方参照画像と後方参照画像との時間間隔に比較して短い前方参照画像と処理対象画像との時間間隔を用いて予測ベクトルを求めるので、時間ダイレクト予測の仮定である画像上の物体が同一方向へ等速運動をするという条件が成り立つ可能性が高まる。 Furthermore, since obtaining a predictive vector using a time interval compared to the time interval between the forward reference image and backward reference image and the short forward reference image and the processed image, the object in the image is a hypothetical temporal direct prediction is more likely to condition holds that the constant-velocity motion in the same direction. 従って、予測画像の予測効率を向上できるという効果を奏する。 Therefore, an effect that can be improved prediction efficiency of the predicted image.

また、前記既復号画像は、参照画像および非参照画像であることが好ましい。 Also, the already decoded picture is preferably the reference image and the non-reference image.

非参照画像とは、予測画像の導出には用いない既復号画像のことをいう。 The non-reference picture, refers to an already decoded image not used for the derivation of the prediction image.

当該構成において、非参照画像を候補画像に含めることで、参照画像のみを候補画像に含める場合に較べて、処理対象画像の表示時刻と表示時刻が近い既復号画像が多くなる。 In this structure, by including the non-reference image candidate image, as compared with the case include only reference image candidate image, the display time and display time of the processing target image is already decoded image is increased close.

これにより、上記の構成によれば、処理対象画像の表示時刻と基準画像の表示時刻との間隔が狭い場合は、対象領域と基準動きベクトルが指す基準画像上の領域との処理対象画像上における距離が短くなるため、これら2つの領域が同じ方向へ等速運動しているとの仮定が成り立ちやすくなる。 Thus, according to the above configuration, when the distance between the display time of the display time and the reference image of the processing target image is small, on the processing target image of the target region and the reference motion vector on the reference image pointed region the distance is shortened, assumption that these two regions is moving a constant speed in the same direction is easily holds. 従って、画像にある物体の実際の動きと相関が高い動きベクトルを導出できる可能性が高くなるので、参照画像のみを基準画像候補とする場合に較べて、より予測効率を向上できるという効果を奏する。 Therefore, since the correlation with the actual movement of the object is more likely to be derived high motion vectors in a picture, only the reference image in comparison with the case where the reference image candidate, an effect that can be further improved prediction efficiency .

また、前記候補画像は、前記処理対象画像より表示時刻が遅くかつ前記処理対象画像に表示時刻が最も近い既符号化画像および前記処理対象画像より表示時刻が早くかつ前記処理対象画像に表示時刻が最も近い既符号化画像であり、前記所定の選択基準は、前記処理対象画像より表示時刻が遅い前記候補画像上で、前記処理対象領域と空間的に同一位置に位置する領域の動きベクトルが存在する場合は、該候補画像を前記基準画像として選択し、該動きベクトルが存在しない場合で、前記処理対象画像より表示時刻が早い前記候補画像上で、前記処理対象領域と空間的に同一位置に位置する領域の動きベクトルが存在する場合は、該候補画像を前記基準画像として選択するという基準であることが好ましい。 Further, the candidate image is the target image from the display time is slow and the processing target image in the display time closest already encoded image and display time than the process target image display time on the early and the processing target image most are close already encoded image, wherein the predetermined selection criteria, in the processing target image from the display time is over a slow the candidate image, the motion vectors of regions located in said processing target area and the spatially same position is present If you want to select the candidate image as the reference image, in the case where the motion vector is absent, the display time from the processing target image is on at an earlier the candidate image, the processing target area and the spatially same position when the motion vector of the position area is present, is preferably a criterion that selects the candidate image as the reference image.

当該構成において、基準動きベクトル選択手段は、まず、処理対象画像の直後にある既符号化画像が基準画像に選択できるか否かを判断する。 In this configuration, the reference motion vector selecting means, first, the already encoded image immediately following the target image to determine whether it selects the reference image. 選択できる場合は、従来技術と同様に予測画像を導出する。 If there is a choice derives prior art as well as the prediction image. 選択できない場合は、次に、処理対象画像の直前にある既符号化画像が基準画像に選択できるか否かを判断する。 If unsuccessful, then the already encoded image that immediately precedes the processing target image to determine whether it selects the reference image. 選択できる場合は、その既符号化画像を基準画像として、予測画像を導出する。 If there is a choice, the already-encoded image as a reference image, to derive a predicted image.

これにより、上記の構成によれば、処理対象画像に最も表示時刻が近い既符号化画像を基準画像に選択するので、処理対象画像と基準画像との時間間隔が短い。 Thus, according to the above configuration, since selecting a pre-encoded image most display time is close to the processing target image in the reference image, the time interval between the processing target image and the reference image is short. 従って、時間ダイレクト予測の前提である画像上の物体は、同方向へ等速運動をしているという仮定が成り立つ確率が高まるので、予測画像の予測効率を向上できるという効果を奏する。 Thus, the object on the image is a prerequisite for temporal direct prediction, the probability that assumption that a constant speed movement in the same direction is satisfied increases, an effect that can be improved prediction efficiency of the predicted image.

また、前記所定の選択基準は、前記候補画像に含まれる、前記処理対象画像より表示時刻が遅い既符号化画像を、その表示時刻が前記処理対象画像の表示時刻に近い順に優先順位をつけ、その優先順位に続けて、前記候補画像に含まれる、前記処理対象画像より表示時刻が早い既符号化画像を、その表示時刻が前記処理対象画像の表示時刻に近い順に優先順位をつけ、該優先順位の順に、前記候補画像上での、前記処理対象領域と空間的に同一位置に位置する領域の動きベクトルの有無の判定を、該動きベクトルが有るまで繰り返し、該動きベクトルが有った場合は、該候補画像を前記基準画像として選択するという基準であることが好ましい。 The predetermined selection criteria, the included in the candidate image, the slow pre-coding image display time than the processing target image, prioritize order of proximity to the display time of the display time said processed image, followed on its priority, the included in the candidate image, the early pre-coded image display time than the processing target image, prioritize order of proximity to the display time of the display time the processing target image, the priority in order of rank, the on candidate image, the determination of the presence or absence of the motion vector of the processing target region and the spatially regions located at the same position is repeated until the motion vector is present, if the motion vector is there is preferably a criterion that selects the candidate image as the reference image.

当該構成において、基準動きベクトル選択手段は、まず、複数ある既符号化画像に優先順位をつけ、優先度の高いものから順に、基準画像に選択できるか否かを判断していく。 In this configuration, the reference motion vector selecting means, first, to prioritize plurality of already-encoded image, in descending order of priority, continue to determine whether it can select the reference image. この優先順位は、予測ベクトルが実際の物体の動きを反映する可能性の高い既符号化画像を優先する順位付けになっている。 This priority is made higher already coded images may reflect the movement of the actual object prediction vector in priority ranking.

これにより、上記の構成によれば、候補画像のいずれかを基準画像とし、その基準画像に対応する基準動きベクトルを選択することで、基準動きベクトルをゼロベクトルとする場合に較べて、画像にある物体の実際の動きとの相関が高い予測ベクトルを導出できる可能性が高くなるので、より効率の良い予測が可能になるという効果を奏する。 Thus, according to the above configuration, one of the candidate image as a reference image, by selecting the reference motion vector corresponding to the reference image, as compared with the case where the reference motion vector and a zero vector, the image since the possibility of deriving a high correlation predictive vector and the actual movement of an object is high, an effect that enables more efficient prediction.

また、前記基準動きベクトル選択手段が、前記処理対象画像よりも表示時刻が早い既符号化画像を前記基準画像として選択した場合、前記予測画像導出手段は、前記処理対象画像に表示時刻が最も近い前方参照画像のみを用いて予測画像を導出することが好ましい。 Also, the reference motion vector selection unit, if the earlier pre-coded image display time than the processing target image is selected as the reference image, the predicted image deriving means closest display time in the process target image it is preferable to derive the prediction image using only the forward reference image.

当該構成において、表示時刻から見ると、まず基準動きベクトルが指す前方参照画面があり、次に基準画像があり、次に処理対象画像があり、次に後方参照画像があるという関係になる。 In this structure, when viewed from the display time, there is the forward reference picture pointed by the first reference motion vector, then there is a reference image, then there is the processing target image, a relationship that then there is a backward reference picture.

これにより、上記の構成によれば、前方参照画像を基準画像として予測ベクトルを導出する場合に、前方予測ベクトルが指す基準画像上の領域のみから処理対象領域の予測画像を生成する場合、基準領域に画像としてある物体が、基準動きベクトルが指す前方参照画像上の領域から、処理対象画像上の領域まで等速運動する可能性の方が、より時間間隔の長い、基準動きベクトルが指す前方参照画像上の領域から後方参照画像上の領域まで等速運動する可能性に較べて高い。 Thus, according to the above configuration, in the case of deriving a prediction vector of the forward reference image as a reference image, to generate a predicted image of the processing target area from only the region of the reference image indicated by the forward prediction vectors, the reference region the objects in the image, from a region of the forward reference picture reference motion vector points, more likely to exercise a constant speed to a region on the processing target image, long more time intervals, the forward reference pointing reference motion vector higher than the potential to exercise a constant speed from the region on the image to the region on the backward reference picture.

さらに、前方参照画像と後方参照画像との時間間隔に比較して短い、前方参照画像と処理対象画像との時間間隔を用いて予測ベクトルを求めるので、時間ダイレクト予測の仮定である、画像上の物体が同一方向へ等速運動をするという条件が成り立つ可能性が高まる。 Furthermore, shorter than the time interval between the forward reference picture and the backward reference picture, so obtaining a predictive vector using a time interval between the processing target image and the forward reference picture, a hypothetical temporal direct prediction image on the object is more likely to condition holds that the constant-velocity motion in the same direction. 従って、予測画像の予測効率を向上できるという効果を奏する。 Therefore, an effect that can be improved prediction efficiency of the predicted image.

また、前記既符号化画像は、参照画像および非参照画像であることが好ましい。 Further, the already-coded image is preferably the reference image and the non-reference image.

当該構成において、非参照画像を候補画像に含めることで、参照画像のみを候補画像に含める場合に較べて、処理対象画像の表示時刻と表示時刻が近い既符号化画像が多くなる。 In this structure, by including the non-reference image candidate image, as compared with the case include only reference image candidate image, the display time and display time of the processing target image is often close already encoded image.

これにより、上記の構成によれば、処理対象画像の表示時刻と基準画像の表示時刻との間隔が狭い場合は、対象領域と基準動きベクトルが指す基準画像上の領域との、処理対象画像上における距離が短くなるため、これら2つの領域が同じ方向へ等速運動しているとの仮定が成り立ちやすくなる。 Thus, according to the above configuration, when the distance between the display time of the display time and the reference image of the processing target image is small, the target region and the reference motion vector on the reference image pointed areas on target image the distance is shorter in the assumption of these two regions is moving a constant speed in the same direction is easily holds. 従って、画像にある物体の実際の動きと相関が高い動きベクトルを導出できる可能性が高くなるので、参照画像のみを基準画像候補とする場合に較べて、より予測効率を向上できるという効果を奏する。 Therefore, since the correlation with the actual movement of the object is more likely to be derived high motion vectors in a picture, only the reference image in comparison with the case where the reference image candidate, an effect that can be further improved prediction efficiency .

なお、本発明に係る動画像復号装置は、処理対象画像上の処理対象領域の動きベクトルを既復号画像の動きベクトルを用いて導出する予測ベクトル導出手段と、前記予測ベクトルを用いて既復号画像から処理対象領域の予測画像を導出する予測画像導出手段とを備えた動画像復号装置において、前記予測ベクトル導出手段は、少なくとも2枚以上の既復号画像を基準画像の候補とし、所定の選択基準に基づいて前記候補の中から1枚を基準画像として選択し、該基準画像上で処理対象領域と空間的に同一位置に位置する領域の動きベクトルを基準動きベクトルとして選択する基準動きベクトル選択手段を備え、該基準動きベクトルを前記画像間の表示時間間隔に基づいてスケーリングして予測ベクトルを導出することを特徴とする構成でもよ The moving picture decoding apparatus according to the present invention, a prediction vector deriving means for deriving a motion vector of the processing target area on the target image using the motion vector of the already decoded image previously decoded image using the predicted vector in the video decoding apparatus and a predictive image deriving means for deriving a predicted image of the processing target area from the prediction vector deriving means, at least two or more previously decoded picture as a candidate of the reference image, the predetermined selection criteria reference motion vector selecting means for selecting as a reference motion vector one is selected as a reference picture, the motion vector region located processing target area and the spatially same position on the reference image from among the candidates based on the provided, also the reference motion vector construction, which comprises deriving a predictive vector by scaling, based on the display time interval between the images .

また、本発明に係る動画像復号装置は、前記の構成に加え、前記基準動きベクトル選択手段は、処理対象画像より表示時間が遅くかつ処理対象画像に表示時間が最も近い既復号画像並びに処理対象画像より表示時間が早くかつ処理対象画像に表示時間が最も近い既復号画像を前記基準画像候補とし、処理対象画像より表示時間が遅い基準画像候補上で処理対象領域と同一位置に位置する領域の動きベクトルが存在する場合は該動きベクトルを基準動きベクトルとして選択し、該動きベクトルが存在しない場合は、処理対象画像より表示時間が早い基準画像候補上で処理対象領域と同一位置に位置する領域の動きベクトルが存在する場合は該動きベクトルを基準動きベクトルとして選択することを特徴とする構成でもよい。 The moving picture decoding apparatus according to the present invention, in addition to the configuration of the said reference motion vector selection unit, the closest already decoded image display time on the slow and processed image display time from the processing target image and the processing target closest previously decoded image display time earlier and the target image display time from the image and the reference image candidate, the region display time from the processing target image is located in the processing target area and the same position over a slow reference image candidate area if the motion vector exists selects the motion vector as a reference motion vector, when the motion vector is not present, which is located in the processing target area and the same position in display is earlier reference image candidate on from the processing target image If the motion vector is present it may be configured to and selects the motion vector as a reference motion vector.

さらに、本発明に係る動画像復号装置は、前記の構成に加え、前記基準動きベクトル選択手段は、複数の既復号画像を基準画像候補とし、該基準画像候補に含まれる処理対象画像より表示時間が遅い既復号画像を処理対象画像に表示時間が近い順に並べ、その後に該基準画像候補に含まれる処理対象画像より表示時間が早い既復号画像を処理対象画像に表示時間が近い順に並べて基準画像候補の優先順序とし、該優先順序の順に基準画像候補を基準画像として設定して、該基準画像上で処理対象領域と同一位置に位置する領域の動きベクトルが存在する場合は該動きベクトルを基準動きベクトルとして選択することを特徴とする構成でもよい。 Furthermore, the moving picture decoding apparatus according to the present invention, in addition to the configuration of the said reference motion vector selection unit, a plurality of previously decoded image as a reference image candidate, the display time from the processing target image included in the reference image candidate arranged in display order is closer to the processing target image is slow already decoded image, then the reference image candidate display time earlier already decoded image display time from the processing target image in the target image contained in are arranged in the order closer reference image the priority order of candidates is set as a reference image the reference image candidates in order of the priority order, based on the motion vector when the motion vector of the region located in the processing target area and the same position on the reference image exists it may be configured and selects as a motion vector.

また、本発明に係る動画像復号装置は、前記の構成に加え、前記基準動きベクトル選択手段において、処理対象画像よりも表示時間が遅い既復号画像を基準画像として基準動きベクトルが選択された場合には、処理対象画像に表示時間が最も近い前方参照画像及び処理対象画像に表示時間が最も近い後方参照画像を用いて予測画像を導出し、処理対象画像よりも表示時間が早い画像を基準画像として基準動きベクトルが選択された場合には、処理対象画像に表示時間が最も近い前方参照画像のみを用いて予測画像を導出することを特徴とする構成でもよい。 The moving picture decoding apparatus according to the present invention, in addition to the configuration described above, in the reference motion vector selecting means, if the reference motion vector slow already decoded image display time than the processing target image as a reference image is selected the process target image display time closest forward reference image and the processing target display time in the image by using the nearest backward reference image to derive a predicted image, processed reference image fast image display time than the image If the reference motion vector is selected as may be configured, characterized in that to derive a predictive image using only the display time closest forward reference image in the process target image.

さらに、本発明に係る動画像復号装置は、前記の構成に加え、前記基準動きベクトル選択手段は、前記既復号画像として参照画像を用いることを特徴とする構成でもよい。 Furthermore, the moving picture decoding apparatus according to the present invention, in addition to the configuration of the said reference motion vector selecting means may be configured, which comprises using the reference image as the previously decoded image.

また、本発明に係る動画像復号装置は、前記の構成に加え、前記基準動きベクトル選択手段は、前記既復号画像として参照画像及び非参照画像を用いることを特徴とする構成でもよい。 The moving picture decoding apparatus according to the present invention, in addition to the configuration of the said reference motion vector selecting means may be configured, which comprises using a reference image and a non-reference image as the previously decoded image.

さらに、本発明に係る動画像符号化装置は、符号化処理を終えた既符号化画像の動きベクトルを用いて処理対象画像上の処理対象領域の動きベクトルを導出する予測ベクトル導出手段と、前記予測ベクトルを用いて既符号化画像から処理対象領域の予測画像を導出する予測画像導出手段とを備えた動画像符号化装置において、前記予測ベクトル導出手段は、少なくとも2枚以上の既符号化画像を基準画像の候補とし、所定の選択基準に基づいて前記候補の中から1枚を基準画像として選択し、該基準画像上で処理対象領域と空間的に同一位置に位置する領域の動きベクトルを基準動きベクトルとして選択する基準動きベクトル選択手段を備え、該基準動きベクトルを前記画像間の表示時間間隔に基づいてスケーリングして予測ベクトルを導出 Further, the video coding apparatus according to the present invention, a prediction vector deriving means for deriving a motion vector of the processing target area on the target image using the motion vector of the already encoded image having been subjected to the coding process, the in the video encoding apparatus and a predictive image deriving means for deriving a predicted image of the processing target area from the previously coded image by using a prediction vector, the prediction vector deriving means comprises at least two or more previously encoded image was a candidate for the reference image, the one from among the candidates based on a predetermined selection criterion is selected as a reference picture, the motion vector region located processing target area and the spatially same position on the reference image comprising a reference motion vector selecting means for selecting as a reference motion vector, deriving a prediction vector of the reference motion vector by scaling based on the display time interval between the images ることを特徴とする構成でもよい。 Rukoto may be configured characterized.

また、本発明に係る動画像符号化装置は、前記の構成に加え、前記基準動きベクトル選択手段は、処理対象画像より表示時間が遅くかつ処理対象画像に表示時間が最も近い既符号化画像並びに処理対象画像より表示時間が早くかつ処理対象画像に表示時間が最も近い既符号化画像を前記基準画像候補とし、処理対象画像より表示時間が遅い基準画像候補上で処理対象領域と同一位置に位置する領域の動きベクトルが存在する場合は該動きベクトルを基準動きベクトルとして選択し、該動きベクトルが存在しない場合は、処理対象画像より表示時間が早い基準画像候補上で処理対象領域と同一位置に位置する領域の動きベクトルが存在する場合は該動きベクトルを基準動きベクトルとして選択することを特徴とする構成でもよい。 Further, the video coding apparatus according to the present invention, in addition to the configuration of the said reference motion vector selecting means is slow display time from the processing target image and processing the display time in the target image closest already encoded image and display time from the processing target image closest already encoded image display time is earlier and the target image and the reference image candidate, the position in the processing target area and the same position in display slow reference image candidate on from the processing target image to If there are motion vectors of the areas is selected as a reference motion vector the motion vector, when the motion vector is not present, the processing target area and the same position in display is earlier reference image candidate on from the processing target image If the motion vector position region is present it may be configured and selects the motion vector as a reference motion vector.

さらに、本発明に係る動画像符号化装置は、前記の構成に加え、前記基準動きベクトル選択手段は、複数の既符号化画像を基準画像候補とし、該基準画像候補に含まれる処理対象画像より表示時間が遅い既符号化画像を処理対象画像に表示時間が近い順に並べ、その後に該基準画像候補に含まれる処理対象画像より表示時間が早い既符号化画像を処理対象画像に表示時間が近い順に並べて基準画像候補の優先順序とし、該優先順序の順に基準画像候補を基準画像として設定して、該基準画像上で処理対象領域と同一位置に位置する領域の動きベクトルが存在する場合は該動きベクトルを基準動きベクトルとして選択することを特徴とする構成でもよい。 Further, the video coding apparatus according to the present invention, in addition to the configuration of the said reference motion vector selection unit, a plurality of already-encoded image as a reference image candidate, from the processing target image included in the reference image candidate arranged in display order is close to the display time is later already encoded image processing target image, the reference image display time display time from the processing target image early already encoded image as the process target image included in the candidate is close to thereafter the priority order of the reference picture candidates arranged in order, is set as a reference image the reference image candidates in order of the priority order, when the motion vector of the region located in the processing target area and the same position on the reference image exists the it may be configured and selects the motion vector as a reference motion vector.

また、本発明に係る動画像符号化装置は、前記の構成に加え、前記基準動きベクトル選択手段において、処理対象画像よりも表示時間が遅い既符号化画像を基準画像として基準動きベクトルが選択された場合には、処理対象画像に表示時間が最も近い前方参照画像及び処理対象画像に表示時間が最も近い後方参照画像を用いて予測画像を導出し、処理対象画像よりも表示時間が早い画像を基準画像として基準動きベクトルが選択された場合には、処理対象画像に表示時間が最も近い前方参照画像のみを用いて予測画像を導出することを特徴とする構成でもよい。 Further, the video coding apparatus according to the present invention, in addition to the configuration described above, in the reference motion vector selecting means, the reference motion vector is selected as a reference image a slow pre-encoded image display time than the processing target image when the using the nearest backward reference picture display time on the display time closest forward reference image and the process target image in the target image to derive a predicted image, a fast image display time than the processing target image If the reference motion vector is selected as the reference image, it may be configured wherein the deriving a predictive image using only the nearest forward reference picture display time to process target image.

さらに、本発明に係る動画像符号化装置は、前記の構成に加え、前記基準動きベクトル選択手段は、前記既符号化画像として参照画像を用いることを特徴とする構成でもよい。 Further, the video coding apparatus according to the present invention, in addition to the configuration of the said reference motion vector selecting means may be configured, which comprises using the reference image as the already-encoded image.

また、本発明に係る動画像符号化装置は、前記の構成に加え、前記基準動きベクトル選択手段は、前記既符号化画像として参照画像及び非参照画像を用いることを特徴とする構成でもよい。 Further, the video coding apparatus according to the present invention, in addition to the configuration of the said reference motion vector selecting means may be configured, which comprises using a reference image and a non-reference image as the already-encoded image.

最後に、動画像復号装置1および動画像符号化装置2の各ブロック、特に導出方式選択部201、基準ベクトル選択部210、時間ダイレクト予測部203、空間ダイレクト予測部204、pmv予測部、およびゼロベクトル出力部206は、ハードウェアロジックによって構成してもよいし、次のようにCPUを用いてソフトウェアによって実現してもよい。 Finally, the video decoding apparatus 1 and each block of the moving picture coding apparatus 2, in particular deriving method selection unit 201, the reference vector selecting unit 210, a temporal direct prediction unit 203, the spatial direct prediction unit 204, pmv prediction unit, and the zero vector output unit 206 may be constituted by hardware logic or may be realized by software using a CPU as follows.

すなわち、動画像復号装置1および動画像符号化装置2は、各機能を実現する制御プログラムの命令を実行するCPU(central processing unit)、上記プログラムを格納したROM(read only memory)、上記プログラムを展開するRAM(random access memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。 That is, the video decoding apparatus 1 and the moving picture coding apparatus 2, CPU executes instructions in control programs realizing the functions (central processing unit), ROM that stores the program (read only memory), the program deployment to RAM (random access memory), and a storage device such as a memory containing the programs and various data. そして、本発明の目的は、上述した機能を実現するソフトウェアである動画像復号装置1および動画像符号化装置2の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記動画像復号装置1および動画像符号化装置2に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。 The objective of the present invention, the program code of a video decoding apparatus 1 and the moving picture coding apparatus 2 of the control program which is software for realizing the functions described above (executable program, intermediate code program, source program) in the computer the recording medium readable recording by supplying to the video decoding apparatus 1 and the moving picture coding apparatus 2, reading and executing the program code that the computer (or CPU or MPU) is recorded on a recording medium also, it is possible to achieve.

上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などを用いることができる。 Examples of the recording medium, such as magnetic tape and cassette tape, a tape system, a floppy disk containing the disk / hard such as a magnetic disk or CD-ROM / MO / MD / DVD / CD-R disc, such as the system, (including a memory card) IC card / optical card, or mask ROM / EPROM / EEPROM / flash semiconductor memories such as a ROM or the like can be used.

また、動画像復号装置1および動画像符号化装置2を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。 Further, the video decoding apparatus 1 and the moving picture encoding apparatus 2 to be arranged to be connectable to a communications network, may be supplied through the communication network so that the program code. この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。 The communication network is not particularly limited, for example, the Internet, an intranet, extranet, LAN, ISDN, VAN, CATV communications network, virtual dedicated network (virtual private network), telephone line network, mobile communication network, satellite communication net, etc. are available. また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。 Further, a transmission medium constituting the communication network is not particularly limited, for example, IEEE1394, USB, power-line carrier, cable TV line, telephone line, or ADSL line such as infrared ray such as IrDA and remote controller, Bluetooth ( registered trademark), 802.11 wireless, HDR, mobile telephone network, satellite line, is also available in wireless and terrestrial digital network. なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。 The present invention is the program code is embodied by electronic transmission can be realized by a computer data signal embedded in a carrier wave.

本発明に係る動画像復号装置は、以上のように、前記予測ベクトル導出手段は、少なくとも2枚以上の前記既復号画像を前記基準画像の候補画像とし、基準動きベクトルがゼロベクトルとなることを回避する、所定の選択基準に基づいて前記候補画像の中の1枚を前記基準画像として選択し、該基準画像上で前記処理対象領域と空間的に同一位置に位置する領域の動きベクトルを基準動きベクトルとして選択する基準動きベクトル選択手段を備えたことを特徴とする。 Video decoding apparatus according to the present invention, as described above, the prediction vector deriving means, at least two or more of the previously decoded image as a candidate image of the reference image, that reference motion vector is zero vector to avoid, on the basis of a predetermined selection criterion to select one among the candidate images as the reference image, based on the motion vector of the region located to the processing target area and the spatially same position on the reference image characterized by comprising a reference motion vector selecting means for selecting as a motion vector.

それゆえ、処理対象画像より表示時刻が遅い既復号画像がイントラ符号化されており基準領域が動きベクトルを持たない場合でも、候補画像に含まれる複数の既復号画像の中から基準画像を選択できるので、画像上の物体の動きとの相関が少ないゼロベクトルではなく、画像上の物体の動きを反映した、予測ベクトルを得られる可能性が高くなるので、予測画像の予測効率を向上できるという効果を奏する。 Therefore, even if the target image from the display time is later already decoded image having no intra-coded and has the reference region by the motion vector, the reference image from among a plurality of previously decoded images included in the candidate image may be selected because, instead of the zero vector correlation is small and movement of an object on an image, reflecting the movement of an object on the image, because the possibility of obtaining the prediction vector increases, effect of improving the prediction efficiency of the predicted image achieve the.

また、本発明に係る動画像符号化装置は、以上のように、前記予測ベクトル導出手段は、少なくとも2枚以上の前記既符号化画像を前記基準画像の候補画像とし、基準動きベクトルがゼロベクトルとなることを回避する、所定の選択基準に基づいて前記候補画像の中の1枚を前記基準画像として選択し、該基準画像上で前記処理対象領域と空間的に同一位置に位置する領域の動きベクトルを基準動きベクトルとして選択する基準動きベクトル選択手段を備えたことを特徴とする。 Further, the video coding apparatus according to the present invention, as described above, the prediction vector deriving means, at least two or more of the already-coded image as a candidate image of the reference image, a reference motion vector is a zero vector avoids a, based on a predetermined selection criterion to select one among the candidate images as the reference image, the region located in the processing target region and the spatially same position on the reference image characterized by comprising a reference motion vector selecting means for selecting a motion vector as a reference motion vector.

それゆえ、処理対象画像より表示時刻が遅い既符号化画像がイントラ符号化されており基準領域が動きベクトルを持たない場合でも、候補画像に含まれる複数の既符号化画像の中から基準画像を選択できるので、画像上の物体の動きとの相関が少ないゼロベクトルではなく、画像上の物体の動きを反映した、予測ベクトルを得られる可能性が高くなるので、予測画像の予測効率を向上できるという効果を奏する。 Therefore, even if the target image from the display time is later already encoded image having no intra-coded and has the reference region by the motion vector, the reference image from among a plurality of already-encoded image contained in the candidate image since can be selected, rather than the zero vector correlation is small and movement of an object on an image, reflecting the movement of an object on the image, so is more likely to obtain a prediction vector, can be improved prediction efficiency of the predicted image there is an effect that.

産業上の利用の可能性 Industrial Applicability

本発明に係る動画像復号装置1および動画像符号化装置2を用いると、予測ベクトルの予測効率を向上させることができるので、動画像の符号化または復号を行う装置、すなわち、携帯端末機器、携帯電話機、テレビジョン受像機、マルチメディア機器などに好適に使用できる。 With video decoding apparatus 1 and the moving picture coding apparatus 2 according to the present invention, it is possible to improve the prediction efficiency of the prediction vector, device for encoding or decoding a moving picture, i.e., the mobile terminal device, mobile phone, a television receiver, it can be suitably used, such as a multi-media equipment.

Claims (6)

  1. 処理対象画像上の処理対象領域の予測ベクトルを、基準画像の基準動きベクトルを用いて導出する予測ベクトル導出手段と、 A prediction vector of the processing target area on the target image, the prediction vector deriving means for deriving with reference motion vector of the reference image,
    前記予測ベクトルを用いて、前記処理対象領域の動きベクトルを再構成する動きベクトル復号手段と、 A motion vector decoding means for using the predicted vector, reconstructing the motion vector of the processing target area,
    復号処理を終えた既復号画像から、前記動きベクトルを用いて前記処理対象領域の予測画像を導出する予測画像導出手段とを備え、 From previously decoded image having been subjected to the decoding process, and a predicted image deriving means for deriving a predicted image of the processing target area by using the motion vector,
    前記予測ベクトル導出手段は、 The prediction vector deriving means,
    少なくとも2枚以上の前記既復号画像を前記基準画像の候補画像とし、 At least two or more of the previously decoded image as a candidate image of the reference image,
    前記基準動きベクトルがゼロベクトルとなることを回避する、所定の選択基準に基づいて前記候補画像の中の1枚を前記基準画像として選択し、 The reference motion vector is prevented from becoming zero vector, the one in the candidate image is selected as the reference image based on a predetermined selection criteria,
    該基準画像上で前記処理対象領域と空間的に同一位置に位置する領域の動きベクトルを基準動きベクトルとして選択する基準動きベクトル選択手段を備え、 Comprising a reference motion vector selecting means for selecting as a reference motion vector the motion vector of a region located in the processing target region and the spatially same position on the reference image,
    さらに、該基準動きベクトル選択手段が、 In addition, the reference motion vector selection unit,
    前記処理対象画像よりも表示時刻が早い既復号画像を前記基準画像として選択した場合、 If the earlier already decoded image display time than the processing target image is selected as the reference image,
    前記予測画像導出手段は、 The predicted image deriving means,
    前方参照画像のみを用いて予測画像を導出し、 Deriving a predictive image using only the forward reference image,
    前記所定の選択基準は、 It said predetermined selection criterion,
    前記候補画像に含まれる、前記処理対象画像より表示時刻が遅い既復号画像を、その表示時刻が前記処理対象画像の表示時刻に近い順に優先順位をつけ、 The candidate included in the image, the slow pre-decoded image display time than the processing target image, prioritize order of proximity to the display time of the display time said processed image,
    その優先順位に続けて、 Followed by its priority,
    前記候補画像に含まれる、前記処理対象画像より表示時刻が早い既復号画像を、その表示時刻が前記処理対象画像の表示時刻に近い順に優先順位をつけ、 The candidate included in an image, the earlier already decoded image display time than the processing target image, prioritize order of proximity to the display time of the display time said processed image,
    該優先順位の順に、前記候補画像上での、前記処理対象領域と空間的に同一位置に位置する領域の動きベクトルの有無の判定を、該動きベクトルが有るまで繰り返し、 In order of the priority order, on the candidate image, the determination of the presence or absence of the motion vector of the processing target region and the spatially regions located at the same position is repeated until the motion vector is present,
    該動きベクトルが有った場合は、該候補画像を前記基準画像として選択するという基準であることを特徴とする、動画像復号装置。 If the motion vector is there, characterized in that it is a criterion that selects the candidate image as the reference image, the video decoding apparatus.
  2. 前記既復号画像は、参照画像または非参照画像であることを特徴とする、請求項1に記載の動画像復号装置。 The previously decoded image, characterized in that it is a reference picture or a non-reference picture, the moving picture decoding apparatus according to claim 1.
  3. 前記基準動きベクトル選択手段は、前記所定の選択基準に基づき、前記動きベクトルの有無の判定を、該動きベクトルが有るまで繰り返し、該動きベクトルが有った場合に、該候補画像を前記基準画像として選択することを特徴とする、請求項1または2に記載の動画像復号装置。 The reference motion vector selecting means, based on predetermined selection criteria, the determination of the presence or absence of the motion vector is repeated until the motion vector is present, if the motion vector is there, the reference image the candidate image and selecting as the moving picture decoding apparatus according to claim 1 or 2.
  4. 処理対象画像上の処理対象領域の予測ベクトルを、基準画像の基準動きベクトルを用いて導出する予測ベクトル導出手段と、 A prediction vector of the processing target area on the target image, the prediction vector deriving means for deriving with reference motion vector of the reference image,
    前記処理対象画像と符号化処理を終えた既符号化画像とを用いて、動きベクトルを推定する動きベクトル推定手段と、 By using the already-encoded image having been subjected to the processing target image and the encoding process, the motion vector estimation means for estimating a motion vector,
    前記予測ベクトルを用いて、前記動きベクトルを符号化する動きベクトル符号化手段と、 A motion vector coding means for using the predicted vector, coding the motion vector,
    前記既符号化画像から、前記動きベクトルを用いて前記処理対象領域の予測画像を導出する予測画像導出手段と From the already-encoded image, the predicted image deriving means for deriving a predicted image of the processing target area by using the motion vector
    を備え、 Equipped with a,
    前記予測ベクトル導出手段は、 The prediction vector deriving means,
    少なくとも2枚以上の前記既符号化画像を前記基準画像の候補画像とし、 At least two or more of said already coded picture as a candidate image of the reference image,
    前記基準動きベクトルがゼロベクトルとなることを回避する、所定の選択基準に基づいて前記候補画像の中の1枚を前記基準画像として選択し、 The reference motion vector is prevented from becoming zero vector, the one in the candidate image is selected as the reference image based on a predetermined selection criteria,
    該基準画像上で前記処理対象領域と空間的に同一位置に位置する領域の動きベクトルを基準動きベクトルとして選択する基準動きベクトル選択手段を備え、 Comprising a reference motion vector selecting means for selecting as a reference motion vector the motion vector of a region located in the processing target region and the spatially same position on the reference image,
    さらに、該基準動きベクトル選択手段が、 In addition, the reference motion vector selection unit,
    前記処理対象画像よりも表示時刻が早い既符号化画像を前記基準画像として選択した場合、 If the earlier pre-coded image display time than the processing target image is selected as the reference image,
    前記予測画像導出手段は、 The predicted image deriving means,
    前方参照画像のみを用いて予測画像を導出し、 Deriving a predictive image using only the forward reference image,
    前記所定の選択基準は、 It said predetermined selection criterion,
    前記候補画像に含まれる、前記処理対象画像より表示時刻が遅い既符号化画像を、その表示時刻が前記処理対象画像の表示時刻に近い順に優先順位をつけ、 The candidate included in the image, the slow pre-coding image display time than the processing target image, prioritize order of proximity to the display time of the display time said processed image,
    その優先順位に続けて、 Followed by its priority,
    前記候補画像に含まれる、前記処理対象画像より表示時刻が早い既符号化画像を、その表示時刻が前記処理対象画像の表示時刻に近い順に優先順位をつけ、 The candidate included in the image, a fast pre-coded image display time than the processing target image, prioritize order of proximity to the display time of the display time said processed image,
    該優先順位の順に、前記候補画像上での、前記処理対象領域と空間的に同一位置に位置する領域の動きベクトルの有無の判定を、該動きベクトルが有るまで繰り返し、 In order of the priority order, on the candidate image, the determination of the presence or absence of the motion vector of the processing target region and the spatially regions located at the same position is repeated until the motion vector is present,
    該動きベクトルが有った場合は、該候補画像を前記基準画像として選択するという基準であることを特徴とする、動画像符号化装置。 If the motion vector is there, characterized in that it is a criterion that selects the candidate image as the reference image, the moving picture coding apparatus.
  5. 前記既符号化画像は、参照画像または非参照画像であることを特徴とする、 請求項4に記載の動画像符号化装置。 The already-encoded image, characterized in that it is a reference picture or a non-reference picture, the moving picture coding apparatus according to claim 4.
  6. 前記基準動きベクトル選択手段は、前記所定の選択基準に基づき、前記動きベクトルの有無の判定を、該動きベクトルが有るまで繰り返し、該動きベクトルが有った場合に、該候補画像を前記基準画像として選択することを特徴とする、請求項4または5に記載の動画像符号化装置。 The reference motion vector selecting means, based on predetermined selection criteria, the determination of the presence or absence of the motion vector is repeated until the motion vector is present, if the motion vector is there, the reference image the candidate image and selecting as the moving picture coding apparatus according to claim 4 or 5.
JP2007551847A 2005-12-27 2006-03-02 Video decoding apparatus and a moving picture coding apparatus Active JP5020829B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2005376479 2005-12-27
JP2005376479 2005-12-27
JP2007551847A JP5020829B2 (en) 2005-12-27 2006-03-02 Video decoding apparatus and a moving picture coding apparatus
PCT/JP2006/303999 WO2007074543A1 (en) 2005-12-27 2006-03-02 Moving picture image decoding device and moving picture image coding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007551847A JP5020829B2 (en) 2005-12-27 2006-03-02 Video decoding apparatus and a moving picture coding apparatus

Publications (2)

Publication Number Publication Date
JPWO2007074543A1 true JPWO2007074543A1 (en) 2009-06-04
JP5020829B2 true JP5020829B2 (en) 2012-09-05

Family

ID=38217770

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2007551847A Active JP5020829B2 (en) 2005-12-27 2006-03-02 Video decoding apparatus and a moving picture coding apparatus
JP2011087365A Ceased JP2011160468A (en) 2005-12-27 2011-04-11 Moving picture image decoding device and moving picture image coding device

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2011087365A Ceased JP2011160468A (en) 2005-12-27 2011-04-11 Moving picture image decoding device and moving picture image coding device

Country Status (2)

Country Link
JP (2) JP5020829B2 (en)
WO (1) WO2007074543A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9832480B2 (en) 2011-03-03 2017-11-28 Sun Patent Trust Moving picture coding method, moving picture decoding method, moving picture coding apparatus, moving picture decoding apparatus, and moving picture coding and decoding apparatus
US9877038B2 (en) 2010-11-24 2018-01-23 Velos Media, Llc Motion vector calculation method, picture coding method, picture decoding method, motion vector calculation apparatus, and picture coding and decoding apparatus

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2210421A4 (en) * 2007-10-16 2013-12-04 Lg Electronics Inc A method and an apparatus for processing a video signal
KR101505195B1 (en) * 2008-02-20 2015-03-24 삼성전자주식회사 Direct mode encoding and decoding method
KR101522850B1 (en) * 2010-01-14 2015-05-26 삼성전자주식회사 Method and apparatus for encoding/decoding motion vector
WO2012073481A1 (en) * 2010-11-29 2012-06-07 パナソニック株式会社 Video-image encoding method and video-image decoding method
JPWO2012096173A1 (en) * 2011-01-12 2014-06-09 パナソニック株式会社 Video encoding method
CN103477637B (en) 2011-02-10 2017-04-26 太阳专利托管公司 Moving picture coding method, the moving picture coding apparatus
WO2012114694A1 (en) * 2011-02-22 2012-08-30 パナソニック株式会社 Moving image coding method, moving image coding device, moving image decoding method, and moving image decoding device
WO2012122927A1 (en) 2011-03-14 2012-09-20 Mediatek Inc. Method and apparatus for derivation of motion vector candidate and motion vector prediction candidate
US8755437B2 (en) 2011-03-17 2014-06-17 Mediatek Inc. Method and apparatus for derivation of spatial motion vector candidate and motion vector prediction candidate
US20140104383A1 (en) * 2011-06-22 2014-04-17 Sony Corporation Image processing device and method
JP6341756B2 (en) * 2014-05-26 2018-06-13 キヤノン株式会社 Image processing apparatus, a control method of an image processing apparatus

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004165703A (en) * 2002-09-20 2004-06-10 Toshiba Corp Moving picture coding method and decoding method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000308062A (en) * 1999-04-15 2000-11-02 Canon Inc Method for processing animation
KR100508798B1 (en) * 2002-04-09 2005-08-19 엘지전자 주식회사 Method for predicting bi-predictive block
JP2004048711A (en) * 2002-05-22 2004-02-12 Matsushita Electric Ind Co Ltd Method for coding and decoding moving picture and data recording medium
JP3824268B2 (en) * 2002-07-02 2006-09-20 松下電器産業株式会社 The motion vector derivation method, and the motion vector derivation unit
KR100506864B1 (en) * 2002-10-04 2005-08-05 엘지전자 주식회사 Method of determining motion vector

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004165703A (en) * 2002-09-20 2004-06-10 Toshiba Corp Moving picture coding method and decoding method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9877038B2 (en) 2010-11-24 2018-01-23 Velos Media, Llc Motion vector calculation method, picture coding method, picture decoding method, motion vector calculation apparatus, and picture coding and decoding apparatus
US9832480B2 (en) 2011-03-03 2017-11-28 Sun Patent Trust Moving picture coding method, moving picture decoding method, moving picture coding apparatus, moving picture decoding apparatus, and moving picture coding and decoding apparatus

Also Published As

Publication number Publication date Type
WO2007074543A1 (en) 2007-07-05 application
JPWO2007074543A1 (en) 2009-06-04 application
JP2011160468A (en) 2011-08-18 application

Similar Documents

Publication Publication Date Title
US7154952B2 (en) Timestamp-independent motion vector prediction for predictive (P) and bidirectionally predictive (B) pictures
US6381275B1 (en) Image coding apparatus and image decoding apparatus
US20060274956A1 (en) Intraprediction method and apparatus using video symmetry and video encoding and decoding method and apparatus
US20120134415A1 (en) Method and Apparatus of Extended Motion Vector Predictor
US20040001546A1 (en) Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation
US20080181309A1 (en) Method and apparatus for encoding video and method and apparatus for decoding video
US20060256866A1 (en) Method and system for providing bi-directionally predicted video coding
US20110002389A1 (en) Methods and systems to estimate motion based on reconstructed reference frames at a video decoder
US20090034854A1 (en) Video encoding and decoding method and apparatus using weighted prediction
US20090245376A1 (en) Method and apparatus for encoding/decoding motion vector information
US20060188024A1 (en) Motion image encoding apparatus, motion image decoding apparatus, motion image encoding method, motion image decoding method, motion image encoding program, and motion image decoding program
US20030142748A1 (en) Video coding methods and apparatuses
US20090220005A1 (en) Method and apparatus for encoding and decoding image by using multiple reference-based motion prediction
US20080192830A1 (en) Method of encoding and decoding motion picture frames
US20110090964A1 (en) Methods and apparatus for adaptively choosing a search range for motion estimation
US20080240248A1 (en) Method and apparatus for video encoding and decoding
US20110150095A1 (en) Image encoding/decoding apparatus and method
US20090207914A1 (en) Method for direct mode encoding and decoding
US20110002390A1 (en) Methods and systems for motion vector derivation at a video decoder
US20080107180A1 (en) Method and apparatus for video predictive encoding and method and apparatus for video predictive decoding
JPH11112994A (en) Motion vector coding method of mpeg-4
JP2010081465A (en) Moving image encoding method and moving image decoding method
JP2007116351A (en) Image prediction coding apparatus, image prediction decoding apparatus, image prediction coding method, image prediction decoding method, image prediction coding program, and image prediction decoding program
US20040013309A1 (en) Method and apparatus for encoding and decoding motion vectors
US20080159401A1 (en) Method and apparatus for estimating motion vector using plurality of motion vector predictors, encoder, decoder, and decoding method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110208

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111101

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111101

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111101

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111222

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120612

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120613

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150622

Year of fee payment: 3