JP5020829B2 - Moving picture decoding apparatus and moving picture encoding apparatus - Google Patents
Moving picture decoding apparatus and moving picture encoding apparatus Download PDFInfo
- Publication number
- JP5020829B2 JP5020829B2 JP2007551847A JP2007551847A JP5020829B2 JP 5020829 B2 JP5020829 B2 JP 5020829B2 JP 2007551847 A JP2007551847 A JP 2007551847A JP 2007551847 A JP2007551847 A JP 2007551847A JP 5020829 B2 JP5020829 B2 JP 5020829B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- motion vector
- prediction
- vector
- processing target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 239000013598 vector Substances 0.000 claims description 502
- 238000012545 processing Methods 0.000 claims description 149
- 238000000034 method Methods 0.000 claims description 106
- 238000009795 derivation Methods 0.000 claims description 51
- 230000002123 temporal effect Effects 0.000 description 37
- 238000010586 diagram Methods 0.000 description 35
- 230000000694 effects Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 5
- 238000007796 conventional method Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 3
- GXFZCDMWGMFGFL-KKXMJGKMSA-N (+)-Tubocurarine chloride hydrochloride Chemical compound [Cl-].[Cl-].C([C@H]1[N+](C)(C)CCC=2C=C(C(=C(OC3=CC=C(C=C3)C[C@H]3C=4C=C(C(=CC=4CC[NH+]3C)OC)O3)C=21)O)OC)C1=CC=C(O)C3=C1 GXFZCDMWGMFGFL-KKXMJGKMSA-N 0.000 description 2
- 239000008709 Curare Substances 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 101150012579 ADSL gene Proteins 0.000 description 1
- 102100020775 Adenylosuccinate lyase Human genes 0.000 description 1
- 108700040193 Adenylosuccinate lyases Proteins 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/56—Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
本発明は、動き補償に複数の参照画像を用いる動画像符号化装置および動画像復号装置に関するものである。 The present invention relates to a moving image encoding device and a moving image decoding device that use a plurality of reference images for motion compensation.
従来技術として、MPEG−4 AVC方式(非特許文献1;ISO/IEC 14496−10)を用いた動画像復号装置について、図9に示すブロック図を参照しながら、以下に説明する。 As a conventional technique, a moving picture decoding apparatus using the MPEG-4 AVC method (Non-patent Document 1; ISO / IEC 14496-10) will be described below with reference to the block diagram shown in FIG.
動画像復号装置3は、可変長符号復号部100、動きベクトル復号部(動きベクトル復号手段)101、予測ベクトル導出部102、バッファメモリ103、画像復号部104、予測画像導出部(予測画像導出手段)105を含んで構成される。
The moving image decoding apparatus 3 includes a variable length
可変長符号復号部100は、入力符号化データを可変長復号し、予測方式、予測残差データ、差分ベクトルおよび時間情報等の符号化情報を復号する。動きベクトル復号部101は、予測ベクトルおよび差分ベクトルから、動きベクトルを復号する。予測ベクトル導出部102は、予測方式に基づき、復号済みの動きベクトルを用いて、予測ベクトルを導出する。バッファメモリ103は、動きベクトル、画像、および時間情報等を一時的に記録する。画像復号部104は、予測方式、予測残差データ、および予測画像から、画像を復号する。予測画像導出部105は、動きベクトルおよび参照画像を用いて、動き補償により予測画像を導出する。
The variable length
<従来技術を用いた復号手順の概要について>
従来技術を用いた動画像復号装置における復号処理の概略について、図10に示す復号処理手順のフローチャートを参照しながら、以下に説明する。<Outline of Decoding Procedure Using Conventional Technology>
The outline of the decoding process in the moving picture decoding apparatus using the prior art will be described below with reference to the flowchart of the decoding process procedure shown in FIG.
まず、可変長符号復号部100が、動画像復号装置3の外部から入力された符号化データを可変長復号する(ステップ10、以下S10と略す)。可変長符号復号部100の出力は、予測方式、予測残差データ、差分ベクトル、および時間情報等の符号化情報である。予測方式は、予測ベクトル導出部102および画像復号部104に出力され、予測残差データは、画像復号部104に出力され、差分ベクトルは、動きベクトル復号部101に出力され、時間情報は、画像復号部104に出力される。
First, the variable-length
次に、予測ベクトル導出部102が、バッファメモリ103に記録されている動きベクトルを用いて、可変長符号復号部100から入力された予測方式に応じた予測ベクトルを導出する(S20)。予測ベクトル導出部102は、導出した予測ベクトルを、動きベクトル復号部101およびバッファメモリ103に出力する。なお、予測ベクトル導出部102の動作の詳細については後述する。
Next, the prediction
次に、動きベクトル復号部101が、予測ベクトル導出部102から入力された予測ベクトルに、可変長符号復号部100から入力された差分ベクトルを加えて、動きベクトルとして出力する(S30)。出力された動きベクトルは、バッファメモリ103に出力され、記録される。
Next, the motion
次に、予測画像導出部105が、バッファメモリ103に記録されている参照画像を読み出す。予測画像導出部105は、バッファメモリ103を介して動きベクトル復号部101から入力された動きベクトルと、読み出した参照画像とを用いて、動き補償予測を行い、予測画像を導出し、導出した予測画像を画像復号部104に出力する(S40)。
Next, the predicted
次に、画像復号部104が、可変長符号復号部100から入力された予測方式に応じて、予測画像導出部105から入力された予測画像と可変長符号復号部100から入力された予測残差データとに基づいて、画像を復号する(S50)。復号された画像およびその画像の表示タイミングに関する時間情報は、バッファメモリ103に出力され、記録される。
Next, in accordance with the prediction method input from the variable length
次に、S50においてバッファメモリ103に記録された画像は、時間情報で示される時刻に、動画像表示装置(図示せず)に出力される(S60)。
Next, the image recorded in the
以上説明したように、従来技術(MPEG−4 AVC方式)では、動き補償予測を用いた復号が行われている。 As described above, in the conventional technique (MPEG-4 AVC method), decoding using motion compensation prediction is performed.
<時間ダイレクト予測について>
MPEG−4 AVC方式では、予測方式の一つとして、時間ダイレクト予測と呼ばれる高能率な動き補償予測方式を用いることができる。<About time direct prediction>
In the MPEG-4 AVC method, a highly efficient motion compensation prediction method called temporal direct prediction can be used as one of prediction methods.
次に、MPEG−4 AVC方式の時間ダイレクト予測について、図11に示す概念図を用いて説明する。なお、以降の説明では、特に断らない限り、参照画像は、前方参照用と後方参照用とにそれぞれ1枚づつ、合計2枚あるものとする。 Next, temporal direct prediction of the MPEG-4 AVC method will be described using the conceptual diagram shown in FIG. In the following description, unless otherwise specified, it is assumed that there are two reference images, one for forward reference and one for backward reference.
時間ダイレクト予測とは、図11に示すように、対象画像Pcurの予測画像を導出するにあたり、前方参照画像Pr0,0および後方参照画像Pr1,0の2枚の参照画像を用いる、動き補償予測方式である。As shown in FIG. 11, temporal direct prediction is a motion that uses two reference images, a forward reference image P r0,0 and a backward reference image P r1,0 , in deriving a predicted image of the target image P cur. This is a compensation prediction method.
以下では、対象画像Pcur上の処理対象領域(図11中の白丸)を、対象領域Acurと呼ぶ。なお、図11の概念図、そして、図4、図5、図6、図14に示す概念図では、図の左右方向が、動画像を表示する表示時刻を表し、縦棒が各画像を表し、図の上下方向が、各画像内の領域の位置を表している。In the following, the processing target area on the target image P cur (white circles in FIG. 11), referred to as a target region A cur. In the conceptual diagram of FIG. 11 and the conceptual diagrams shown in FIGS. 4, 5, 6, and 14, the horizontal direction in the figure represents the display time for displaying a moving image, and the vertical bar represents each image. The vertical direction in the figure represents the position of the area in each image.
時間ダイレクト予測における動き補償では、対象領域Acurの、前方予測ベクトルmvL0と後方予測ベクトルmvL1とを用いる。前方予測ベクトルmvL0および後方予測ベクトルmvL1は、「基準画像」として定めた画像Pcol上の、対象領域Acurと空間的に同一位置の領域Bcol(図11中の二重丸)の動きベクトルmvColに基づいて計算する。なお、領域Bcolを「基準領域」と呼び、動きベクトルmvColを「基準動きベクトル」と呼ぶこととする。また、基準動きベクトルmvColが指す領域を、領域Bcolrefとし、領域Bcolrefは、画像Pcolref上にあるものとする。In motion compensation in temporal direct prediction of the target region A cur, using the forward prediction vectors mvL0 and backward prediction vector mvL 1. The forward prediction vector mvL0 and the backward prediction vector mvL1 are motion vectors of a region B col (double circle in FIG. 11) on the image P col defined as a “reference image” that is spatially the same position as the target region A cur . Calculate based on mvCol. The region B col is referred to as “reference region”, and the motion vector mvCol is referred to as “reference motion vector”. Further, it is assumed that the region indicated by the reference motion vector mvCol is a region B colref , and the region B colref is on the image P colref .
MPEG−4 AVC方式の時間ダイレクト予測では、図11に示すように、後方参照画像Pr1,0が、基準画像Pcolである。また、特に参照画像が2枚の場合には、前方参照画像Pr0,0が、画像Pcolrefになる。In the temporal direct prediction of the MPEG-4 AVC method, as shown in FIG. 11, the backward reference image P r1,0 is the standard image P col . In particular, when there are two reference images, the forward reference image Pr0,0 becomes the image Pcolref .
前方予測ベクトルmvL0および後方予測ベクトルmvL1は、基準動きベクトルmvColを用いて、以下の式で計算する。
mvL0 = tb / tbb × mvCol ・・・(1)
mvL1 = (tb − td) / tbb × mvCol ・・・(2)
なお、式(1)および式(2)において、tbは、前方参照画像Pr0,0と対象画像Pcurとの表示時間の時間間隔、tdは、前方参照画像Pr0,0と後方参照画像Pr1,0との時間間隔、tbbは、画像Pcolrefと基準画像Pcolとの時間間隔を表す。時間間隔tb、td、およびtbbの各値は、図10のS50の処理において、バッファメモリ103に記録されている各画像の表示時刻に関する時間情報を用いて計算される。時間間隔tb、td、およびtbbは、対象画像Pcurの表示時刻Tcur、前方参照画像Pr0,0の表示時刻Tr0,0、後方参照画像Pr1,0の表示時刻Tr1,0、基準画像Pcolの表示時刻Tcol、および画像Pcolrefの表示時刻Tcolrefを用いて、以下の式で計算される。
tb = Tr0,0 − Tcur ・・・(3)
td = Tr1,0 − Tr0,0 ・・・(4)
tbb = Tcol − Tcolref ・・・(5)
時間ダイレクト予測は、図11に示す対象領域Acurおよび領域Bcurそれぞれにおいて画像となっている2つの物体が、領域Ar0,0から領域Ar1,0に、また領域Bcolrefから基準領域Bcolに、それぞれ同じ方向へ等速運動していることを仮定した予測方式である。The forward prediction vector mvL0 and the backward prediction vector mvL1 are calculated by the following formula using the reference motion vector mvCol.
mvL0 = tb / tbb × mvCol (1)
mvL1 = (tb−td) / tbb × mvCol (2)
In Expressions (1) and (2), tb is the time interval of the display time between the forward reference image P r0,0 and the target image P cur, and td is the forward reference image P r0,0 and the backward reference image. A time interval between P r1,0 and tbb represents a time interval between the image P colref and the reference image P col . The values of the time intervals tb, td, and tbb are calculated using time information regarding the display time of each image recorded in the
tb = T r0,0 −T cur (3)
td = T r1,0 - T r0,0 ··· (4)
tbb = T col -T colref (5)
In the temporal direct prediction, two objects that are images in the target area A cur and the area B cur shown in FIG. 11 are changed from the area A r0,0 to the area A r1,0 , and from the area B colref to the reference area B. This is a prediction method that assumes that col is moving at the same speed in the same direction.
なお、pmv(Predictor of Motion Vector)予測では、推定した動きベクトルと予測ベクトルとの差分ベクトルを用いるが、時間ダイレクト予測では、そのような差分ベクトルを用いずに動きベクトルを復号する。具体的には、前方予測ベクトルmvL0および後方予測ベクトルmvL1を対象領域Acurにおける動きベクトルとする。In pmv (Predictor of Motion Vector) prediction, a difference vector between an estimated motion vector and a prediction vector is used. In temporal direct prediction, a motion vector is decoded without using such a difference vector. Specifically, the motion vector of forward prediction vectors mvL0 and backward prediction vector mvL1 in the target area A cur.
対象領域Acurの予測画像は、前方予測ベクトルmvL0が指す前方参照画像Pr0,0上の領域Ar0,0と、後方予測ベクトルmvL1が指す後方参照画像Pr1,0上の領域Ar1,0とを使用して動き補償を行い、生成される。The prediction image of the target area A cur includes the area A r0,0 on the forward reference image P r0,0 pointed to by the forward prediction vector mvL0 and the area A r1,0 on the backward reference image P r1,0 pointed to by the backward prediction vector mvL1 . 0 is used to perform motion compensation.
<予測ベクトル導出部102の詳細な構成について>
時間ダイレクト予測を用いて予測ベクトルを導出する、予測ベクトル導出部102の詳細な構成を、図12のブロック図で示す。<Detailed Configuration of Prediction Vector Deriving Unit 102>
A detailed configuration of the prediction
予測ベクトル導出部102は、導出方式選択部201、スイッチ202、時間ダイレクト予測部203、空間ダイレクト予測部204、pmv予測部205、ゼロベクトル出力部206から構成される。
The prediction
導出方式選択部201は、可変長符号復号部100から入力された予測方式と、バッファメモリ103に記録された基準動きベクトルの有無とに応じて、予測ベクトルの導出方式を選択する。スイッチ202は、導出方式選択部201で選択された予測ベクトル導出方式への切り替えを行う。時間ダイレクト予測部203は、時間ダイレクト予測で定められた方式で、予測ベクトルを求め、動きベクトル復号部101へ出力する。空間ダイレクト予測部204は、空間ダイレクト予測で定められた方式で、予測ベクトルを求め、動きベクトル復号部101へ出力する。pmv予測部205は、差分ベクトルが存在する場合に、推定した動きベクトルと予測ベクトルとの差分ベクトルを符号化するpmv予測により予測ベクトルを求め、動きベクトル復号部101へ出力する。ゼロベクトル出力部206は、予測ベクトル導出部102への入力に関わらず、常にゼロベクトルを予測ベクトルとして、動きベクトル復号部101へ出力する。
The derivation
<時間ダイレクト予測における予測ベクトルの導出手順について>
次に、動き補償予測方式として、時間ダイレクト予測が用いられる場合の、前方予測ベクトルmvL0および後方予測ベクトルmvL1の導出手順について、図13に示す導出手順のフローチャートを用いて説明する。<Derivation procedure of prediction vector in temporal direct prediction>
Next, the procedure for deriving the forward prediction vector mvL0 and the backward prediction vector mvL1 when temporal direct prediction is used as the motion compensation prediction method will be described using the flowchart of the derivation procedure shown in FIG.
まず、導出方式選択部201が、基準動きベクトルmvColを、バッファメモリ103に要求する(S21)。
First, the derivation
次に、導出方式選択部201は、バッファメモリ103からの通知に基づき、バッファメモリ103上の、基準領域Bcolの基準動きベクトルmvColの有無を判定する(S22)。Next, the derivation
基準動きベクトルmvColが有る場合は、次のS23の処理に進み、基準動きベクトルmvColが無い場合は、S25の処理に進む。 If there is a reference motion vector mvCol, the process proceeds to the next step S23, and if there is no reference motion vector mvCol, the process proceeds to step S25.
次に、導出方式選択部201は、スイッチ202を切り替えて、時間ダイレクト予測部203を選択する(S23)。
Next, the derivation
次に、時間ダイレクト予測部203は、バッファメモリ103から取得した基準動きベクトルmvColを、時間情報でスケーリング、すなわち式(1)および式(2)を用いて、前方予測ベクトルmvL0および後方予測ベクトルmvL1を計算し、予測ベクトルとして、動きベクトル復号部101へ出力し、処理を終了する(S24)。
Next, the temporal
S22において、基準動きベクトルmvColがバッファメモリ103上に無いとの通知を受けた場合、導出方式選択部201は、基準領域Bcolがイントラ符号化されていると判断し、スイッチ202を切り替えて、ゼロベクトル出力部206を選択する(S25)。In S22, when receiving a notification that the reference motion vector mvCol is not on the
次に、ゼロベクトル出力部206は、前方予測ベクトルmvL0および後方予測ベクトルmvL1を、共にゼロベクトルとし、予測ベクトルとして動きベクトル復号部101へ出力して、処理を終了する(S26)。
Next, the zero
なお、MPEG−4 AVC方式では、時間ダイレクト予測の他に、空間ダイレクト予測およびpmv予測による動き補償予測が可能であるが、これらの予測を行う空間ダイレクト予測部204およびpmv予測部205の動作については、説明を省略する。
In addition to the temporal direct prediction, the MPEG-4 AVC method can perform motion compensation prediction using spatial direct prediction and pmv prediction. Regarding operations of the spatial
以上説明したように、従来技術による時間ダイレクト予測方式では、後方参照画像Pr1,0を基準画像Pcolとした場合であり、かつ基準画像Pcol上の基準領域Bcolの基準動きベクトルmvColが利用可能な場合には、動画内の物体の実際の動きに近い予測ベクトルを導出することができる。As described above, in the temporal direct prediction method according to the related art, the backward reference image P r1,0 is the reference image P col and the reference motion vector mvCol of the reference region B col on the reference image P col is If available, a prediction vector that is close to the actual motion of the object in the video can be derived.
しかしながら、従来技術による予測ベクトル導出方法では、後方参照画像Pr1,0上の基準領域Bcolがイントラ符号化されている場合には、基準動きベクトルmvColがゼロベクトルとされてしまう。その場合、図14の概念図に示すように、ゼロベクトルを用いて式(1)および式(2)の計算を行うので、前方予測ベクトルmvL0が指す領域は領域Ar0,0となり、後方予測ベクトルが指す領域は領域Ar1,0となってしまい、前方予測ベクトルmvL0および後方予測ベクトルmvL1と、対象領域Acurの実際の動きとの差異が大きくなる場合が多い。従って、予測効率が低下するという課題があった。However, in the prediction vector derivation method according to the conventional technique, when the base region B col on the backward reference image P r1,0 is intra-coded, the base motion vector mvCol is set to a zero vector. In this case, as shown in the conceptual diagram of FIG. 14, since the calculations of Expressions (1) and (2) are performed using the zero vector, the area indicated by the forward prediction vector mvL0 is the area A r0,0 and the backward prediction area indicated by vector becomes a region a r1,0, the forward prediction vectors mvL0 and backward prediction vector mvL 1, often the difference between the actual motion of the target region a cur increases. Accordingly, there is a problem that the prediction efficiency is lowered.
本発明は、上記の問題点に鑑みてなされたものであり、その目的は、後方参照画像Pr1,0上の基準領域Bcolがイントラ符号化されている場合でも、ゼロベクトルではない前方予測ベクトルmvL0および後方予測ベクトルmvL1を導出し、予測効率の低下を防止できる、動画像復号装置および動画像符号化装置を実現することにある。The present invention has been made in view of the above-described problems, and an object of the present invention is to perform forward prediction that is not a zero vector even when the base region B col on the backward reference image P r1,0 is intra-coded. An object is to realize a moving picture decoding apparatus and a moving picture encoding apparatus capable of deriving a vector mvL0 and a backward prediction vector mvL1 and preventing a decrease in prediction efficiency.
上記課題を解決するために、処理対象画像上の処理対象領域の予測ベクトルを、基準画像の基準動きベクトルを用いて導出する予測ベクトル導出手段と、前記予測ベクトルを用いて、前記処理対象領域の動きベクトルを再構成する動きベクトル復号手段と、復号処理を終えた既復号画像から、前記動きベクトルを用いて前記処理対象領域の予測画像を導出する予測画像導出手段とを備え、前記予測ベクトル導出手段は、時間ダイレクト予測により予測ベクトルを導出することを特徴とする動画像復号装置において、前記予測ベクトル導出手段は、少なくとも2枚以上の前記既復号画像を前記基準画像の候補画像とし、前記基準動きベクトルがゼロベクトルとなることを回避する、所定の選択基準に基づいて前記候補画像の中の1枚を前記基準画像として選択し、該基準画像上で前記処理対象領域と空間的に同一位置に位置する領域の動きベクトルを基準動きベクトルとして選択する基準動きベクトル選択手段を備えたことを特徴とする。 In order to solve the above-described problem, a prediction vector deriving unit that derives a prediction vector of a processing target area on a processing target image using a reference motion vector of a reference image, and using the prediction vector, Motion vector decoding means for reconstructing a motion vector, and predicted image derivation means for deriving a prediction image of the processing target region from the already decoded image after decoding processing using the motion vector, and the prediction vector derivation Means for deriving a prediction vector by temporal direct prediction, wherein the prediction vector deriving means uses at least two or more decoded images as candidate images of the reference image, and One of the candidate images based on a predetermined selection criterion that avoids a motion vector becoming a zero vector; Selected as an image, characterized by comprising a reference motion vector selecting means for selecting a motion vector of the region as a reference motion vector positioned in the processing target region and the spatially same position on the reference image.
処理対象画像とは、符号化データの状態から動画像を構成する画像を再構築する対象となる画像をいう。 The processing target image is an image that is a target for reconstructing an image constituting a moving image from the state of encoded data.
処理対象領域とは、処理対象画像上にあり、一つの復号処理の単位で復号される処理対象画像の部分のことをいう。 The processing target area refers to a part of the processing target image that is on the processing target image and is decoded in a unit of one decoding process.
予測ベクトルとは、動きベクトルを導出するために用いるベクトルである。 A prediction vector is a vector used to derive a motion vector.
動きベクトルとは、動き補償予測方式により、動画像を構成する画像を再構築する際に予測画像を導出するために用いるベクトルである。 A motion vector is a vector used for deriving a prediction image when reconstructing an image constituting a moving image by a motion compensation prediction method.
基準画像とは、予測ベクトルを求めるための基準動きベクトルを持つ画像である。 A reference image is an image having a reference motion vector for obtaining a prediction vector.
基準動きベクトルとは、基準画像の基準領域にある動きベクトルである。 The reference motion vector is a motion vector in the reference area of the reference image.
基準領域とは、処理対象領域と空間的に同一の位置にある、基準画像上の領域である。 The reference area is an area on the reference image that is in the same spatial position as the processing target area.
予測画像とは、符号化データに含まれる予測残差データから画像を再構築する元になる画像である。 The predicted image is an image from which the image is reconstructed from the prediction residual data included in the encoded data.
既復号画像とは、符号化データの復号および再構築により導出された動画を構成する画像である。 The already-decoded image is an image constituting a moving image derived by decoding and reconstructing encoded data.
時間ダイレクト予測とは、処理対象画像の表示時刻と、基準画像の表示時刻と、基準動きベクトルが指す既復号画像の表示時刻との時間間隔に基づいて、基準動きベクトルをスケーリングし、予測ベクトルを導出する予測方式である。 Temporal direct prediction is based on the time interval between the display time of the processing target image, the display time of the reference image, and the display time of the decoded image indicated by the reference motion vector, and the prediction motion vector is scaled. This is a prediction method to be derived.
表示時刻とは、符号化データに含まれる時間情報であり、動画像を構成する各既復号画像をどの時刻に再生すればよいかを表すものである。 The display time is time information included in the encoded data, and represents at what time each decoded image constituting the moving image should be reproduced.
従来技術では、処理対象画像より表示時刻が遅い既復号画像を基準画像として、予測ベクトルが導出されるが、該既復号画像がイントラ符号化されている場合、予測ベクトルはゼロベクトルとされるところ、当該構成においては、複数ある候補画像の中から基準画像を選択する。 In the prior art, a prediction vector is derived using a decoded image whose display time is later than the processing target image as a reference image. When the decoded image is intra-coded, the prediction vector is a zero vector. In this configuration, the reference image is selected from a plurality of candidate images.
上記の構成によれば、処理対象画像より表示時刻が遅い既復号画像がイントラ符号化されており基準領域が動きベクトルを持たない場合でも、候補画像に含まれる複数の既復号画像の中から基準画像を選択できるので、画像上の物体の動きとの相関が少ないゼロベクトルではなく、画像上の物体の動きを反映した、予測ベクトルを得られる可能性が高くなるので、予測画像の予測効率を向上できるという効果を奏する。 According to the above configuration, even if a decoded image whose display time is later than the processing target image is intra-coded and the reference region does not have a motion vector, the reference image is selected from the plurality of decoded images included in the candidate image. Since it is possible to select an image, it is more likely that a prediction vector that reflects the motion of the object on the image will be obtained rather than a zero vector that has little correlation with the motion of the object on the image. There is an effect that it can be improved.
上記課題を解決するために、処理対象画像上の処理対象領域の予測ベクトルを、基準画像の基準動きベクトルを用いて導出する予測ベクトル導出手段と、前記処理対象画像と符号化処理を終えた既符号化画像とを用いて、動きベクトルを推定する動きベクトル推定手段と、前記予測ベクトルを用いて、前記動きベクトルを符号化する動きベクトル符号化手段と、前記既符号化画像から、前記動きベクトルを用いて前記処理対象領域の予測画像を導出する予測画像導出手段とを備え、前記予測ベクトル導出手段は、時間ダイレクト予測により予測ベクトルを導出する動画像符号化装置において、前記予測ベクトル導出手段は、少なくとも2枚以上の前記既符号化画像を前記基準画像の候補画像とし、前記基準動きベクトルがゼロベクトルとなることを回避する、所定の選択基準に基づいて前記候補画像の中の1枚を前記基準画像として選択し、該基準画像上で前記処理対象領域と空間的に同一位置に位置する領域の動きベクトルを基準動きベクトルとして選択する基準動きベクトル選択手段を備えたことを特徴とする。 In order to solve the above-described problem, a prediction vector deriving unit that derives a prediction vector of a processing target region on a processing target image using a reference motion vector of a reference image, and the processing target image and an already processed encoding process. A motion vector estimating means for estimating a motion vector using an encoded image, a motion vector encoding means for encoding the motion vector using the prediction vector, and the motion vector from the already encoded image. Prediction image deriving means for deriving a prediction image of the processing target region using the prediction vector deriving means, wherein the prediction vector deriving means derives a prediction vector by temporal direct prediction, and the prediction vector deriving means is , At least two or more of the already-encoded images are set as candidate images of the reference image, and the reference motion vector is a zero vector. And selecting one of the candidate images as the reference image based on a predetermined selection criterion, and a motion vector of a region located spatially at the same position as the processing target region on the reference image And a reference motion vector selection means for selecting as a reference motion vector.
既符号化画像とは、動画像データ構成する画像のうち、一度符号化したデータから画像を復号および再構築により導出した画像である。 An already-encoded image is an image obtained by decoding and reconstructing an image from once encoded data among images constituting moving image data.
従来技術では、処理対象画像より表示時刻が遅い既符号化画像を基準画像として、予測ベクトルが導出されるが、該既符号化画像がイントラ符号化されている場合、予測ベクトルはゼロベクトルとされるところ、当該構成においては、複数ある候補画像の中から基準画像を選択する。 In the prior art, a prediction vector is derived using an already-encoded image whose display time is later than the processing target image as a reference image. However, when the already-encoded image is intra-encoded, the prediction vector is a zero vector. In this configuration, the reference image is selected from a plurality of candidate images.
上記の構成によれば、処理対象画像より表示時刻が遅い既符号化画像がイントラ符号化されており基準領域が動きベクトルを持たない場合でも、候補画像に含まれる複数の既符号化画像の中から基準画像を選択できるので、画像上の物体の動きとの相関が少ないゼロベクトルではなく、画像上の物体の動きを反映した、予測ベクトルを得られる可能性が高くなるので、予測画像の予測効率を向上できるという効果を奏する。 According to the above configuration, even when an already-encoded image whose display time is later than that of the processing target image is intra-encoded and the reference region does not have a motion vector, among the already-encoded images included in the candidate image. Since the reference image can be selected from the above, it is highly possible to obtain a prediction vector that reflects the motion of the object on the image instead of the zero vector with little correlation with the motion of the object on the image. There is an effect that the efficiency can be improved.
[第1の実施の形態]
以下、本発明の第1の実施の形態における、動画像復号装置について説明する。[First Embodiment]
Hereinafter, the moving picture decoding apparatus according to the first embodiment of the present invention will be described.
<動画像復号装置の構成について>
図2および図3のブロック図において、本実施の形態における、動画像復号装置の構成を示す。図2のブロック図は、動画像復号装置1の全体の構成を示し、図3のブロック図は、図2に示す予測ベクトル導出部(予測ベクトル導出手段)112の詳細な構成を示したものである。<Configuration of video decoding device>
2 and 3 show the configuration of the moving picture decoding apparatus according to the present embodiment. The block diagram of FIG. 2 shows the overall configuration of the video decoding device 1, and the block diagram of FIG. 3 shows the detailed configuration of the prediction vector deriving unit (predicted vector deriving means) 112 shown in FIG. is there.
これらの図に示す要素は、以下に述べるものを除き、従来技術の説明において用いたブロック図(図9および図12)と同一なので、説明を省略する。 The elements shown in these drawings are the same as the block diagrams (FIGS. 9 and 12) used in the description of the prior art except for those described below, and thus the description thereof is omitted.
図2に示すブロック図おいて、本実施の形態の動画像復号装置1の構成と従来技術による動画像復号装置3の構成とが異なる部分は、予測ベクトル導出部112である。予測ベクトル導出部112は、可変長符号復号部100から入力した予測方式に基づき、復号済みの動きベクトルを用いて、予測ベクトルを導出する。
In the block diagram shown in FIG. 2, the difference between the configuration of the video decoding device 1 of the present embodiment and the configuration of the video decoding device 3 according to the prior art is a prediction
図3に示すブロック図において、本実施の形態の予測ベクトル導出部112の構成と従来技術による予測ベクトル導出部102の構成とが異なる部分は、基準ベクトル選択部(基準動きベクトル選択手段)210の有無である。基準ベクトル選択部210は、バッファメモリ103上に複数ある基準画像候補から、基準画像Pcolとする画像を選択し、選択した基準画像Pcolに対応する基準動きベクトルmvColを、導出方式選択部201に通知する。In the block diagram shown in FIG. 3, the difference between the configuration of the prediction
すなわち、本実施の形態の動画像復号装置1は、時間ダイレクト予測において、複数の基準画像候補から、所定の手順で、基準画像Pcolおよび基準動きベクトルmvColを決定し、前方予測ベクトルmvL0および後方予測ベクトルmvL1を導出することを特徴とする。That is, in the temporal direct prediction, the video decoding device 1 according to the present embodiment determines the reference image P col and the reference motion vector mvCol from a plurality of reference image candidates in a predetermined procedure, and determines the forward prediction vector mvL0 and the backward A prediction vector mvL1 is derived.
<本実施の形態における予測ベクトルの導出手順について>
本実施の形態の動画像復号装置1での、時間ダイレクト予測における前方予測ベクトルmvL0および後方予測ベクトルmvL1の導出手順について、図1のフローチャートを用いて説明する。<Procedure for Deriving Predictive Vector in this Embodiment>
A procedure for deriving the forward prediction vector mvL0 and the backward prediction vector mvL1 in temporal direct prediction in the moving picture decoding apparatus 1 according to the present embodiment will be described with reference to the flowchart of FIG.
まず、導出方式選択部201が、基準ベクトル選択部210に、基準動きベクトルmvColを要求する(S1)。
First, the derivation
次に、基準ベクトル選択部210が、導出方式選択部201による要求に応じて、後方参照画像Pr1,0を、基準画像Pcolとして設定(Pcol=Pr1,0)した後、基準画像Pcolの基準動きベクトルmvColを、バッファメモリ103に要求する(S2)。Next, after the reference
次に、導出方式選択部201は、バッファメモリ103からの返答に基づいて、基準動きベクトルmvColがバッファメモリ103内に存在するか否かを判断する(S3)。なお、この場合、基準動きベクトルmvColがバッファメモリ103内に存在するとは、後方参照画像Pr1,0の基準領域Bcolに基準動きベクトルmvColが存在することである。Next, the derivation
基準動きベクトルmvColがバッファメモリ103内に存在する場合(後方参照画像Pr1,0を基準画像Pcolとする、図11の概念図の場合に相当)は、次のS4の処理に進む。When the reference motion vector mvCol exists in the buffer memory 103 (corresponding to the conceptual diagram of FIG. 11 where the backward reference image P r1,0 is the reference image P col ), the process proceeds to the next step S4.
基準動きベクトルmvColがバッファメモリ103内に存在しない場合は、S6の処理に進む。
If the reference motion vector mvCol does not exist in the
S3またはS7において、基準動きベクトルmvColがバッファメモリ103内に存在すると判断された場合、導出方式選択部201は、スイッチ202を切り替えて、時間ダイレクト予測部203を選択する(S4)。
When it is determined in S3 or S7 that the reference motion vector mvCol is present in the
次に、時間ダイレクト予測部203が、バッファメモリ103から取得した基準動きベクトルmvColを用いて、前方予測ベクトルmvL0および後方予測ベクトルmvL1を、式(1)および式(2)により計算し、計算結果を前方予測ベクトルmvL0および後方予測ベクトルmvL1として、動きベクトル復号部101へ出力し、処理を終了する(S5)。
Next, the temporal
S3において、基準動きベクトルmvColがバッファメモリ103内に存在しないと判断された場合、基準ベクトル選択部210は、前方参照画像Pr0,0を基準画像Pcolとして設定(Pcol=Pr0,0)した後、基準画像Pcolの基準動きベクトルmvColを、バッファメモリ103に要求する(S6)。If it is determined in S3 that the base motion vector mvCol does not exist in the
次に、導出方式選択部201は、バッファメモリ103からの返答に基づいて、基準動きベクトルmvColがバッファメモリ103内に存在するか否かを判断する(S7)。なお、この場合、基準動きベクトルmvColがバッファメモリ103内に存在するとは、前方参照画像Pr0,0の基準領域Bcolに基準動きベクトルmvColが存在することである。Next, the derivation
基準動きベクトルmvColがバッファメモリ103内に存在する場合(図4の概念図の場合に相当)は、S4の処理に進む。なお、図4の概念図では、前方参照画像Pr0,0を基準画像Pcolとする場合の、基準動きベクトルmvColと、前方予測ベクトルmvL0および後方予測ベクトルmvL1との関係を示している。If the reference motion vector mvCol is present in the buffer memory 103 (corresponding to the conceptual diagram in FIG. 4), the process proceeds to S4. The conceptual diagram of FIG. 4 shows the relationship between the base motion vector mvCol, the forward prediction vector mvL0, and the backward prediction vector mvL1 when the forward reference image P r0,0 is the base image P col .
基準動きベクトルmvColがバッファメモリ103内に存在しない場合は、次のS8に進む。
If the reference motion vector mvCol does not exist in the
S7において、基準動きベクトルmvColがバッファメモリ103内に存在しないと判断された場合は、導出方式選択部201は、スイッチ202を切り替えて、ゼロベクトル出力部206を選択する(S8)。
If it is determined in S7 that the reference motion vector mvCol does not exist in the
次に、ゼロベクトル出力部206が、ゼロベクトルを前方予測ベクトルmvL0および後方予測ベクトルmvL1として動きベクトル復号部101へ出力し、処理を終了する。(S9)
上記手順に従うと、後方参照画像Pr1,0を基準画像Pcolとした際に、基準動きベクトルmvColが利用可能ならば、従来技術と同様にして予測ベクトルを導出することができる。また、後方参照画像Pr1,0における基準動きベクトルmvColが利用不可能ならば、前方参照画像Pr0,0を基準画像Pcolとして基準動きベクトルmvColを利用することができる。Next, the zero
According to the above procedure, if the reference motion vector mvCol is available when the backward reference image P r1,0 is used as the reference image P col , a prediction vector can be derived in the same manner as in the prior art. If the reference motion vector mvCol in the backward reference image P r1,0 is not usable, the reference motion vector mvCol can be used with the forward reference image P r0,0 as the reference image P col .
後方参照画像Pr1,0を基準画像Pcolとして使う場合と同様に、前方参照画像Pr0,0を基準画像Pcolとして使う場合も、図4の概念図に示す対象領域Acurにおいて画像としてある物体および領域Bcurにおいて画像としてある物体がそれぞれ、領域Ar0,0から領域Ar1,0に、また領域Bcolrefから領域Br1,0に、同じ方向へ等速運動していることを仮定して予測を行う。Similar to the case where the backward reference image P r1,0 is used as the base image P col , the case where the front reference image P r0,0 is used as the base image P col is also used as an image in the target area A cur shown in the conceptual diagram of FIG. each object in an image in an object and the region B cur, in the region a R1,0 from the region a r0,0, also in the area B R1,0 from the region B colref, that in motion a constant speed in the same direction Make assumptions and make predictions.
このように、従来手法において、図14の概念図で示した様に、後方参照画像Pr1,0に基準動きベクトルmvColが無く、予測ベクトルがゼロベクトルとされる予測方法に較べて、本発明に係る予測方法では、他の参照画像の基準動きベクトルmvColを用いて予測ベクトルを導出し画像予測に用いるので、領域Acurに画像としてある物体の実際の動きを正確に表すことができる。従って、従来技術による予測方法に比べて、効率の良い予測が可能である。Thus, in the conventional method, as shown in the conceptual diagram of FIG. 14, the present invention is compared with the prediction method in which the backward reference image P r1,0 does not have the reference motion vector mvCol and the prediction vector is a zero vector. In the prediction method according to, since the prediction vector is derived using the standard motion vector mvCol of another reference image and used for image prediction, the actual motion of an object as an image in the region A cur can be accurately represented. Therefore, efficient prediction is possible as compared with the prediction method according to the prior art.
<基準画像候補が3枚以上ある場合の基準画像選択方法について>
なお、本発明は、基準画像候補が3枚以上ある場合にも、適用可能である。<Reference image selection method when there are three or more reference image candidates>
Note that the present invention is also applicable when there are three or more reference image candidates.
例えば、参照画像が3枚以上存在する場合は、それら参照画像のうち、複数枚を基準画像候補として利用できる。図5の概念図に示すように、3枚の前方参照画像Pr0,0、Pr0,1、およびPr0,2と、1枚の後方参照画像Pr1,0とが存在し、それらの参照画像を全て基準画像候補とする場合について、以下に説明する。For example, when there are three or more reference images, a plurality of reference images can be used as standard image candidates. As shown in the conceptual diagram of FIG. 5, there are three forward reference images P r0,0 , P r0,1 and P r0,2 , and one backward reference image P r1,0 . A case where all reference images are set as reference image candidates will be described below.
3枚以上の基準画像候補が存在する場合、候補間の優先順位を、各基準画像候補の表示時刻と、対象画像Pcurの表示時刻との時間間隔の大小を用いて決めておく。例えば、後方参照画像Pr1,0を時間間隔が小さい順に並べ、その後、前方参照画像Pr0,0、Pr0,1、およびPr0,2を時間間隔が小さい順に並べ、この順序を優先順位とする。この優先順位に従うと、図5における各基準画像候補の優先順位は、後方参照画像Pr1,0、前方参照画像Pr0,0、前方参照画像Pr0,1、前方参照画像Pr0,2の順となる。When there are three or more reference image candidates, the priorities among candidates are determined using the time interval between the display time of each reference image candidate and the display time of the target image Pcur . For example, the backward reference images P r1,0 are arranged in ascending order of time intervals, and then the forward reference images P r0,0 , P r0,1 , and P r0,2 are arranged in ascending order of time intervals, and this order is prioritized. And According to this priority order, the priority order of each reference image candidate in FIG. 5 is that of the backward reference image P r1,0 , the forward reference image P r0,0 , the forward reference image P r0,1 , and the forward reference image P r0,2 . In order.
基準ベクトル選択部210は、優先順位の高い基準画像候補を、基準画像Pcolに設定する。そして、設定した基準画像Pcolの基準動きベクトルmvColの有無を判定して、基準動きベクトルmvColが存在する場合は、その基準動きベクトルmvColを選択する。存在しない場合は、次の優先順位の基準画像候補を基準画像Pcolに設定し、優先順位に従って、同様の処理を繰り返す。全ての基準画像Pcolを試した後に、基準動きベクトルmvColが選択されていない場合は、その旨を導出方式選択部201へ通知する。The reference
図5に示す概念図では、参照画像Pr0,1を基準画像Pcolに設定した場合の、基準動きベクトルmvColと、前方予測ベクトルmvL0および後方予測ベクトルmvL1との関係を示している。この場合も、対象領域Acurに画像としてある物体および領域Bcurに画像としてある物体が、それぞれ、領域Ar0,0から領域Ar1,0に、領域Bcolrefから領域Br1,0に、同じ方向へ等速運動していることを仮定し、式(1)および式(2)より、予測ベクトルが計算できる。The conceptual diagram shown in FIG. 5 shows the relationship between the base motion vector mvCol, the forward prediction vector mvL0, and the backward prediction vector mvL1 when the reference image P r0,1 is set as the base image P col . Also in this case, an object as an image in the target area A cur and an object as an image in the area B cur are changed from the area A r0,0 to the area A r1,0 , and from the area B colref to the area B r1,0 , respectively. Assuming constant motion in the same direction, a prediction vector can be calculated from the equations (1) and (2).
基準画像候補が3枚以上ある場合には、基準画像候補のいずれかを基準画像Pcolとし、その基準画像Pcolに対応する基準動きベクトルmvColを選択することで、図14の概念図に示すように基準動きベクトルmvColをゼロベクトルとする場合に較べて、画像にある物体の実際の動きとの相関が高い予測ベクトルを導出できる可能性が高くなる。従って、より効率の良い予測が可能である。When there are three or more reference image candidates, one of the reference image candidates is set as the reference image P col, and the reference motion vector mvCol corresponding to the reference image P col is selected, which is shown in the conceptual diagram of FIG. Thus, compared with the case where the reference motion vector mvCol is a zero vector, there is a higher possibility that a prediction vector having a high correlation with the actual motion of an object in the image can be derived. Therefore, more efficient prediction is possible.
<非参照画像を基準画像候補に含める予測方法について>
参照画像に加えて、従来技術では予測画像の導出には用いない非参照画像を、基準画像候補に含めても構わない。この場合は、全ての既復号画像が、基準画像候補となり得る。図6の概念図に示すように、前方参照画像Pr0,0および後方参照画像Pr1,0の2枚の参照画像に加えて、非参照画像Pnrが基準画像候補に含まれる場合について説明する。<Prediction method for including non-reference image in standard image candidate>
In addition to the reference image, a non-reference image that is not used for derivation of a predicted image in the related art may be included in the standard image candidate. In this case, all already decoded images can be reference image candidates. As shown in the conceptual diagram of FIG. 6, a case will be described in which a reference image candidate includes a non-reference image P nr in addition to the two reference images of the forward reference image P r0,0 and the backward reference image P r1,0. To do.
基準画像候補に非参照画像Pnrを含む場合であっても、基準ベクトル選択部210の動作は既に説明した動作と同様である。つまり、優先順位に従って、順に基準画像Pcolに設定した画像毎に、基準動きベクトルmvColの有無を判定することで、基準動きベクトルmvColを選択する。Even when the reference image candidate includes the non-reference image P nr , the operation of the reference
基準画像候補に非参照画像Pnrを含む場合の、優先順位の決め方として、例えば、参照画像であるか非参照画像であるかを問わず、表示時刻が対象画像Pcurの表示時刻に近い順に、画像に優先順位をつける方法がある。また、参照画像である画像を表示時刻が対象画像Pcurの表示時刻に近い順に並べ、次に、非参照画像である画像を表示時刻が対象画像Pcurの表示時刻に近い順に並べて、優先順位とする方法もある。As a method of determining the priority when the reference image candidate includes the non-reference image P nr , for example, regardless of whether it is a reference image or a non-reference image, the display time is in the order from the closest display time of the target image P cur. There is a method of prioritizing images. In addition, images that are reference images are arranged in order of display time close to the display time of the target image P cur , and then images that are non-reference images are arranged in order of display time close to the display time of the target image P cur. There is also a method.
図6の概念図では、非参照画像Pnrを基準画像Pcolに設定した場合(Pcol=Pnr)における、基準動きベクトルmvColと前方予測ベクトルmvL0および後方予測ベクトルmvL1との関係を示している。この場合も、対象領域Acurに画像としてある物体および領域Bcurに画像としてある物体が、それぞれ、領域Ar0,0から領域Ar1,0に、また領域Bcolrefから基準領域Br1,0に、同じ方向へ等速運動していることを仮定し、式(1)および式(2)より予測ベクトルを計算できる。The conceptual diagram of FIG. 6 shows the relationship between the reference motion vector mvCol, the forward prediction vector mvL0, and the backward prediction vector mvL1 when the non-reference image P nr is set to the reference image P col (P col = P nr ). Yes. Also in this case, the object as the image in the target area A cur and the object as the image in the area B cur are respectively changed from the area A r0,0 to the area A r1,0 and from the area B colref to the reference area B r1,0. In addition, assuming that they are moving at the same speed in the same direction, the prediction vector can be calculated from the equations (1) and (2).
非参照画像を基準画像候補に含めることで、参照画像のみを基準画像候補に含める場合に較べて、対象画像Pcurの表示時刻と表示時刻が近い基準画像候補が多くなる。対象画像Pcurの表示時刻と基準画像Pcolの表示時刻との間隔が狭い場合は、対象領域Acurと領域Bcurとの、対象画像Pcur上における距離が短くなるため、これら2つの領域が同じ方向へ等速運動しているとの仮定が成り立ちやすくなる。従って、画像にある物体の実際の動きと相関が高い動きベクトルを導出できる可能性が高くなるため、参照画像のみを基準画像候補とする場合に較べて、より効率の良い予測が可能である。By including the non-reference image in the standard image candidate, the number of standard image candidates whose display time is close to the display time of the target image P cur is greater than when only the reference image is included in the standard image candidate. When the interval between the display time of the target image P cur and the display time of the reference image P col is narrow, the distance between the target region A cur and the region B cur on the target image P cur becomes short, so these two regions It is easy to assume that is moving at the same speed in the same direction. Therefore, since there is a high possibility that a motion vector having a high correlation with the actual motion of an object in the image can be derived, more efficient prediction is possible as compared with the case where only the reference image is set as the reference image candidate.
なお、非参照画像を基準画像候補として使用する場合には、少なくとも、候補となる非参照画像に対応する動きベクトルおよびその非参照画像の表示時刻情報が、バッファメモリ103内に記録されている必要がある。
When a non-reference image is used as a standard image candidate, at least a motion vector corresponding to the candidate non-reference image and display time information of the non-reference image must be recorded in the
<予測画像導出に1枚の参照画像のみを用いる方法について>
なお、ここまでの説明では、時間ダイレクト予測において、対象領域Acurの予測画像導出に、前方参照画像Pr0,0および後方参照画像Pr1,0の2枚を用いるものとしていたが、いずれか一方の参照画像のみを用いても構わない。<Method of using only one reference image for prediction image derivation>
In the description so far, in the temporal direct prediction, two images of the forward reference image P r0,0 and the backward reference image P r1,0 are used to derive the predicted image of the target area A cur . Only one reference image may be used.
例えば、図4の概念図に示すように、前方参照画像Pr0,0を基準画像Pcolとして予測ベクトルを導出する場合に、領域Ar0,0のみから対象領域Acurの予測画像を生成してもよい。この場合、基準領域Bcolに画像としてある物体が領域Bcolrefから領域Bcurまで等速運動する可能性の方が、より時間間隔の長い領域Bcolrefから領域Br1,0まで等速運動する可能性に較べて高い。つまり、前方予測ベクトルmvL0の方が、後方予測ベクトルmvL1に較べて精度が良い可能性が高い。従って、領域Ar0,0のみを用いた場合に、予測効率が向上する。For example, as shown in the conceptual diagram of FIG. 4, when a prediction vector is derived using the forward reference image P r0,0 as the base image P col , a predicted image of the target area A cur is generated only from the area A r0,0. May be. In this case, the possibility that an object as an image in the reference area B col moves at a constant speed from the area B colref to the area B cur moves at a constant speed from the area B colref to the area B r1,0 having a longer time interval. Higher than possible. That is, there is a high possibility that the forward prediction vector mvL0 is more accurate than the backward prediction vector mvL1. Accordingly, the prediction efficiency is improved when only the region Ar0, 0 is used.
また、後方参照画像Pr1,0を、基準画像Pcolとする場合であり、かつ、基準動きベクトルmvColが後方参照画像Pr1,0よりも表示時間が後になる画像を指す場合には、前方参照画像Pr0,0のみから予測ベクトルを導出する場合と同様に、領域Ar1,0のみを予測画像の導出に用いることで、予測効率が向上する。Further, when the backward reference image P r1,0 is set as the reference image P col and the reference motion vector mvCol indicates an image whose display time is later than the backward reference image P r1,0 , Similar to the case of deriving the prediction vector from only the reference image P r0,0 , the prediction efficiency is improved by using only the area A r1,0 for deriving the prediction image.
[第2の実施の形態]
以下、本発明の第2の実施の形態における動画像符号化装置について説明する。
<動画像符号化装置の構成について>
図7のブロック図において、本実施の形態に係る動画像符号化装置2の構成を示す。図7のブロック図は、動画像符号化装置2の全体の構成を示したものである。[Second Embodiment]
Hereinafter, the moving picture coding apparatus according to the second embodiment of the present invention will be described.
<Configuration of video encoding device>
In the block diagram of FIG. 7, the structure of the moving
動画像符号化装置2は、画像符号化部121、予測画像導出部105、動きベクトル推定部(動きベクトル推定手段)122、バッファメモリ103、画像復号部104、予測ベクトル導出部112、予測方式制御部124、可変長符号化部120、および動きベクトル符号化部(動きベクトル符号化手段)123を含んで構成される。
The moving
この図に示す要素は、以下に述べるものを除き、第1の実施の形態において動画像復号装置1のブロック図(図2)に示す要素と同一なので、説明を省略する。 The elements shown in this figure are the same as those shown in the block diagram (FIG. 2) of the video decoding device 1 in the first embodiment, except for those described below.
可変長符号化部120は、画像符号化部121から入力した予測残差データ、動きベクトル符号化部123から入力した差分ベクトル、および予測方式制御部124から入力した予測方式等の符号化情報を可変長符号化し、外部に出力する。画像符号化部121は、外部から入力した動画像データおよび予測画像導出部105から入力した予測画像を用いて予測残差データを求め、画像復号部104および可変長符号化部120に出力する。動きベクトル推定部122は、外部から入力した動画像データおよびバッファメモリ103内の参照画像を用いて、動きベクトルを推定し、求めた動きベクトルを予測画像導出部105、バッファメモリ103、予測ベクトル導出部112、予測方式制御部124、および動きベクトル符号化部123にする。動きベクトル符号化部123は、動きベクトル推定部122から入力した動きベクトル、予測ベクトル導出部112から入力した予測ベクトル、および予測方式制御部から入力した予測方式を用いて差分ベクトルを求め、可変長符号化部120に出力する。予測方式制御部124は、動きベクトル推定部122から入力した動きベクトルに基づき、予測ベクトル導出時の予測方式を設定し、予測方式を予測ベクトル導出部112、可変長符号化部120、および動きベクトル符号化部123に出力する。
The variable
<動画符号化装置2における符号化手順の概略について>
動画符号化装置2における符号化処理手順の概略について、図8に示すフローチャートを参照しながら、以下に説明する。<About the outline of the encoding procedure in the moving
The outline of the encoding processing procedure in the moving
まず、動きベクトル推定部122が、入力された動画像データとバッファメモリ103内の参照画像とを用いて動き推定を行い、符号化の対象となる画像の各領域の動きベクトルを求める。動きベクトル推定部122は、求めた動きベクトルをバッファメモリ103に記録すると共に、予測ベクトル導出部112、予測方式制御部124、および動きベクトル符号化部123へ出力する(S100)。
First, the motion
次に、予測方式制御部124が、動きベクトル推定部122から入力された動きベクトルを用いて、予測方式を、時間ダイレクト予測、空間ダイレクト予測、またはpmv予測のいずれかの方式に決定し、予測ベクトル導出部112、可変長符号化部120、および動きベクトル符号化部123に出力する(S110)。
Next, the prediction
次に、予測ベクトル導出部112が、動きベクトル推定部122から入力された動きベクトルと、予測方式制御部124から入力された予測方式とに基づいて、第1の実施の形態において説明した予測ベクトルの導出手順に従って、予測ベクトルを計算し、バッファメモリ103および動きベクトル符号化部123に出力する(S120)。
Next, based on the motion vector input from the motion
次に、動きベクトル符号化部123が、差分ベクトルを求める。予測方式制御部124から入力された予測方式がpmv予測である場合には、動きベクトル推定部122から入力された動きベクトルと、予測ベクトル導出部112から入力された予測ベクトルとに基づいて、差分ベクトルを計算する。予測方式制御部124から入力された予測方式が、時間ダイレクト予測または空間ダイレクト予測の場合には、差分ベクトルをゼロベクトルとする。動きベクトル符号化部123は、求めた差分ベクトルを可変長符号化部120に出力する(S130)。
Next, the motion
次に、予測画像導出部105が、動きベクトル推定部122から入力された動きベクトルと、バッファメモリ103内の参照画像とを用いて動き補償を行い、予測画像を求め、画像符号化部121および画像復号部104に出力する(S140)。
Next, the predicted
次に、画像符号化部121が、外部から入力された動画像データと予測画像導出部105から入力された予測画像とに基づき、予測残差データを計算し、画像復号部104および可変長符号化部120に出力する(S150)。
Next, the
次に、画像復号部104が、画像符号化部121から入力された予測残差データと、予測画像導出部105から入力された予測画像とを用いて、画像を既符号化画像として再構成する(S160)。再構成された画像は、バッファメモリ103に記録される。既符号化画像は、予測ベクトル導出時に基準画像として用いられ、また、予測画像導出時に参照画像として用いられる。
Next, the
次に、可変長符号化部120が、画像符号化部121から入力された予測残差データと、動きベクトル符号化部123から入力された差分ベクトルと、予測方式制御部124から入力された予測方式とを可変長符号化し、符号化データとして動画像符号化装置2の外部に出力する(S170)。
Next, the variable-
<第2の実施の形態に関する補足事項>
以上説明したように、本実施の形態における動画像符号化装置2は、第1の実施の形態において説明した予測ベクトルの導出手順に従い、複数の基準画像候補を用いて予測ベクトルを導出する。そして、導出した予測ベクトルを用いて動画像の符号化を行うので、動画像の高能率な符号化が可能である。<Supplementary items regarding the second embodiment>
As described above, the moving
なお、図8に示すフローチャートのS120の処理(予測ベクトルの導出)において、第1の実施の形態で説明したように、3枚以上の基準画像候補を用いて予測ベクトルを導出することにより、予測効率が向上する。 Note that in the process of S120 (derivation of a prediction vector) in the flowchart shown in FIG. 8, as described in the first embodiment, a prediction vector is derived by using three or more reference image candidates. Efficiency is improved.
また、同じくS120の処理において、第1の実施の形態で説明したように、非参照画像を基準画像候補に含めて予測ベクトルを導出することにより、予測効率が向上する。 Similarly, in the process of S120, as described in the first embodiment, prediction efficiency is improved by deriving a prediction vector by including a non-reference image in a standard image candidate.
また、以上説明した時間ダイレクト予測における予測ベクトルの導出方法を、pmv予測を予測方式として用いる場合の、予測ベクトルの導出に用いることも可能である。 The prediction vector derivation method in the temporal direct prediction described above can also be used for derivation of a prediction vector when pmv prediction is used as a prediction method.
<補足事項>
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。<Supplementary items>
The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention.
前記候補画像は、前記処理対象画像より表示時刻が遅くかつ前記処理対象画像に表示時刻が最も近い既復号画像および前記処理対象画像より表示時刻が早くかつ前記処理対象画像に表示時刻が最も近い既復号画像であり、前記所定の選択基準は、前記処理対象画像より表示時刻が遅い前記候補画像上で、前記処理対象領域と空間的に同一位置に位置する領域の動きベクトルが存在する場合は、該候補画像を前記基準画像として選択し、該動きベクトルが存在しない場合で、前記処理対象画像より表示時刻が早い前記候補画像上で、前記処理対象領域と空間的に同一位置に位置する領域の動きベクトルが存在する場合は、該候補画像を前記基準画像として選択するという基準であることが好ましい。 The candidate image has a display time later than the processing target image and a display time closest to the processing target image, and a display time earlier than the processing target image and a display time closest to the processing target image. When the motion vector of a region located at the same position spatially as the processing target region exists on the candidate image whose display time is later than the processing target image, the predetermined selection criterion is: When the candidate image is selected as the reference image and the motion vector does not exist, an area located at the same spatial position as the processing target region on the candidate image whose display time is earlier than the processing target image. When there is a motion vector, it is preferable that the criterion is that the candidate image is selected as the reference image.
これにより、当該構成において、基準動きベクトル選択手段は、まず、処理対象画像の直後にある既復号画像が基準画像に選択できるか否かを判断する。選択できる場合は、従来技術と同様に予測画像を導出する。選択できない場合は、次に、処理対象画像の直前にある既復号画像が基準画像に選択できるか否かを判断する。選択できる場合は、その既復号画像を基準画像として、予測画像を導出する。 Thereby, in the said structure, a reference | standard motion vector selection means judges first whether the already decoded image immediately after a process target image can be selected as a reference | standard image. If it can be selected, a predicted image is derived in the same manner as in the prior art. If it cannot be selected, it is next determined whether or not the decoded image immediately before the processing target image can be selected as the reference image. If it can be selected, a predicted image is derived using the decoded image as a reference image.
上記の構成によれば、処理対象画像に最も表示時刻が近い既復号画像を基準画像に選択するので、処理対象画像と基準画像との時間間隔が短い。従って、時間ダイレクト予測の前提である画像上の物体は、同方向へ等速運動をしているという仮定が成り立つ確率が高まるので、予測画像の予測効率を向上できるという効果を奏する。 According to the above configuration, since the decoded image having the closest display time to the processing target image is selected as the reference image, the time interval between the processing target image and the reference image is short. Therefore, the probability that the assumption that the object on the image, which is the premise of temporal direct prediction, is moving at the same speed in the same direction is increased, has the effect of improving the prediction efficiency of the predicted image.
また、前記所定の選択基準は、前記候補画像に含まれる、前記処理対象画像より表示時刻が遅い既復号画像を、その表示時刻が前記処理対象画像の表示時刻に近い順に優先順位をつけ、その優先順位に続けて、前記候補画像に含まれる、前記処理対象画像より表示時刻が早い既復号画像を、その表示時刻が前記処理対象画像の表示時刻に近い順に優先順位をつけ、該優先順位の順に、前記候補画像上での、前記処理対象領域と空間的に同一位置に位置する領域の動きベクトルの有無の判定を、該動きベクトルが有るまで繰り返し、該動きベクトルが有った場合は、該候補画像を前記基準画像として選択するという基準であることが好ましい。 In addition, the predetermined selection criterion is to prioritize the decoded images that are included in the candidate image and whose display time is later than the processing target image, in order from the display time closest to the display time of the processing target image. Subsequent to the priority order, prior decoded images included in the candidate images, the display time of which is earlier than the processing target image are given priority in order of the display time closest to the display time of the processing target image. In turn, the determination on the presence or absence of a motion vector in an area located spatially at the same position as the processing target area on the candidate image is repeated until the motion vector exists. It is preferable that the criterion is that the candidate image is selected as the reference image.
当該構成において、基準動きベクトル選択手段は、まず、複数ある既復号画像に優先順位をつけ、優先度の高いものから順に、基準画像に選択できるか否かを判断していく。この優先順位は、予測ベクトルが実際の物体の動きを反映する可能性の高い既復号画像を優先する順位付けになっている。 In this configuration, the reference motion vector selection unit first assigns priorities to a plurality of already decoded images, and determines whether or not the reference images can be selected in descending order of priority. This priority order is a priority order that gives priority to a decoded image having a high possibility that the prediction vector reflects the actual motion of the object.
これにより、上記の構成によれば、候補画像のいずれかを基準画像とし、その基準画像に対応する基準動きベクトルを選択することで、基準動きベクトルをゼロベクトルとする場合に較べて、画像にある物体の実際の動きとの相関が高い予測ベクトルを導出できる可能性が高くなるので、より効率の良い予測が可能になるという効果を奏する。 Thereby, according to the above configuration, by selecting any of the candidate images as a reference image and selecting a reference motion vector corresponding to the reference image, the image is compared with a case where the reference motion vector is set as a zero vector. Since there is a high possibility that a prediction vector having a high correlation with the actual motion of a certain object can be derived, there is an effect that more efficient prediction is possible.
また、前記基準動きベクトル選択手段が、前記処理対象画像よりも表示時刻が早い既復号画像を前記基準画像として選択した場合、前記予測画像導出手段は、前記処理対象画像に表示時刻が最も近い前方参照画像のみを用いて予測画像を導出することが好ましい。 In addition, when the reference motion vector selection unit selects a decoded image having a display time earlier than the processing target image as the reference image, the predicted image derivation unit has a display time closest to the processing target image. It is preferable to derive the predicted image using only the reference image.
参照画像とは、動きベクトルが指す領域を有する既復号画像のことをいう。 The reference image is a decoded image having a region indicated by a motion vector.
前方参照画像とは、動きベクトルが指す領域を有する既復号画像のうち、処理対象画像よりも表示時刻が早い既復号画像のことをいう。 The forward reference image is a decoded image having a display time earlier than the processing target image among the decoded images having the area indicated by the motion vector.
後方参照画像とは、動きベクトルが指す領域を有する既復号画像のうち、処理対象画像よりも表示時刻が遅い既復号画像のことをいう。 The backward reference image refers to a decoded image having a display time later than that of the processing target image among the decoded images having a region indicated by the motion vector.
前方予測ベクトルとは、処理対象領域から前方参照画像を指す予測ベクトルである。 The forward prediction vector is a prediction vector indicating a forward reference image from the processing target region.
後方予測ベクトルとは、処理対象領域から後方参照画像を指す予測ベクトルである。 The backward prediction vector is a prediction vector indicating a backward reference image from the processing target region.
当該構成において、表示時刻から見ると、まず基準動きベクトルが指す前方参照画面があり、次に基準画像があり、次に処理対象画像があり、次に後方参照画像があるという関係になる。 In this configuration, when viewed from the display time, first, there is a forward reference screen pointed to by the reference motion vector, next there is a reference image, next there is a processing target image, and then there is a backward reference image.
これにより、上記の構成によれば、前方参照画像を基準画像として予測ベクトルを導出する場合に、前方予測ベクトルが指す基準画像上の領域のみから処理対象領域の予測画像を生成する場合、基準領域に画像としてある物体が基準動きベクトルが指す前方参照画像上の領域から処理対象画像上の領域まで等速運動する可能性の方が、より時間間隔の長い基準動きベクトルが指す前方参照画像上の領域から後方参照画像上の領域まで等速運動する可能性に較べて高い。 Thus, according to the above configuration, when the prediction vector is derived using the forward reference image as the reference image, the prediction region of the processing target region is generated only from the region on the reference image indicated by the forward prediction vector. The possibility that an object as an image moves at a constant speed from the region on the forward reference image pointed to by the reference motion vector to the region on the processing target image is on the forward reference image pointed to by the reference motion vector having a longer time interval. The possibility of moving at a constant speed from the region to the region on the backward reference image is high.
さらに、前方参照画像と後方参照画像との時間間隔に比較して短い前方参照画像と処理対象画像との時間間隔を用いて予測ベクトルを求めるので、時間ダイレクト予測の仮定である画像上の物体が同一方向へ等速運動をするという条件が成り立つ可能性が高まる。従って、予測画像の予測効率を向上できるという効果を奏する。 Furthermore, since the prediction vector is obtained using the time interval between the forward reference image and the processing target image that is shorter than the time interval between the forward reference image and the backward reference image, the object on the image that is the assumption of temporal direct prediction The possibility that the condition of moving at the same speed in the same direction is increased. Therefore, there is an effect that the prediction efficiency of the predicted image can be improved.
また、前記既復号画像は、参照画像および非参照画像であることが好ましい。 Moreover, it is preferable that the already decoded image is a reference image and a non-reference image.
非参照画像とは、予測画像の導出には用いない既復号画像のことをいう。 A non-reference image refers to a decoded image that is not used to derive a predicted image.
当該構成において、非参照画像を候補画像に含めることで、参照画像のみを候補画像に含める場合に較べて、処理対象画像の表示時刻と表示時刻が近い既復号画像が多くなる。 In this configuration, by including the non-reference image in the candidate image, the number of decoded images whose display time is close to the display time of the processing target image is greater than when only the reference image is included in the candidate image.
これにより、上記の構成によれば、処理対象画像の表示時刻と基準画像の表示時刻との間隔が狭い場合は、対象領域と基準動きベクトルが指す基準画像上の領域との処理対象画像上における距離が短くなるため、これら2つの領域が同じ方向へ等速運動しているとの仮定が成り立ちやすくなる。従って、画像にある物体の実際の動きと相関が高い動きベクトルを導出できる可能性が高くなるので、参照画像のみを基準画像候補とする場合に較べて、より予測効率を向上できるという効果を奏する。 Thus, according to the above configuration, when the interval between the display time of the processing target image and the display time of the reference image is narrow, the target region and the region on the reference image indicated by the reference motion vector are on the processing target image. Since the distance is shortened, it is easy to assume that these two regions are moving at the same speed in the same direction. Therefore, there is a high possibility that a motion vector having a high correlation with the actual motion of the object in the image can be derived, so that it is possible to improve the prediction efficiency more than in the case where only the reference image is set as the reference image candidate. .
また、前記候補画像は、前記処理対象画像より表示時刻が遅くかつ前記処理対象画像に表示時刻が最も近い既符号化画像および前記処理対象画像より表示時刻が早くかつ前記処理対象画像に表示時刻が最も近い既符号化画像であり、前記所定の選択基準は、前記処理対象画像より表示時刻が遅い前記候補画像上で、前記処理対象領域と空間的に同一位置に位置する領域の動きベクトルが存在する場合は、該候補画像を前記基準画像として選択し、該動きベクトルが存在しない場合で、前記処理対象画像より表示時刻が早い前記候補画像上で、前記処理対象領域と空間的に同一位置に位置する領域の動きベクトルが存在する場合は、該候補画像を前記基準画像として選択するという基準であることが好ましい。 In addition, the candidate image has a display time later than the processing target image and the display time closest to the processing target image and a display time earlier than the processing target image and the display time of the processing target image. The closest encoded image, and the predetermined selection criterion is that there is a motion vector of an area located at the same position spatially as the processing target area on the candidate image whose display time is later than the processing target image If the candidate image is selected as the reference image, and the motion vector does not exist, the candidate image has a display time earlier than the processing target image and is spatially located at the same position as the processing target region. In the case where there is a motion vector of the located region, it is preferable that the criterion is that the candidate image is selected as the reference image.
当該構成において、基準動きベクトル選択手段は、まず、処理対象画像の直後にある既符号化画像が基準画像に選択できるか否かを判断する。選択できる場合は、従来技術と同様に予測画像を導出する。選択できない場合は、次に、処理対象画像の直前にある既符号化画像が基準画像に選択できるか否かを判断する。選択できる場合は、その既符号化画像を基準画像として、予測画像を導出する。 In this configuration, the reference motion vector selection unit first determines whether an already-encoded image immediately after the processing target image can be selected as the reference image. If it can be selected, a predicted image is derived in the same manner as in the prior art. If it cannot be selected, it is next determined whether or not the already-encoded image immediately before the processing target image can be selected as the reference image. If it can be selected, a predicted image is derived using the already encoded image as a reference image.
これにより、上記の構成によれば、処理対象画像に最も表示時刻が近い既符号化画像を基準画像に選択するので、処理対象画像と基準画像との時間間隔が短い。従って、時間ダイレクト予測の前提である画像上の物体は、同方向へ等速運動をしているという仮定が成り立つ確率が高まるので、予測画像の予測効率を向上できるという効果を奏する。 Thus, according to the above configuration, since the already-encoded image having the closest display time to the processing target image is selected as the reference image, the time interval between the processing target image and the reference image is short. Therefore, the probability that the assumption that the object on the image, which is the premise of temporal direct prediction, is moving at the same speed in the same direction is increased, has the effect of improving the prediction efficiency of the predicted image.
また、前記所定の選択基準は、前記候補画像に含まれる、前記処理対象画像より表示時刻が遅い既符号化画像を、その表示時刻が前記処理対象画像の表示時刻に近い順に優先順位をつけ、その優先順位に続けて、前記候補画像に含まれる、前記処理対象画像より表示時刻が早い既符号化画像を、その表示時刻が前記処理対象画像の表示時刻に近い順に優先順位をつけ、該優先順位の順に、前記候補画像上での、前記処理対象領域と空間的に同一位置に位置する領域の動きベクトルの有無の判定を、該動きベクトルが有るまで繰り返し、該動きベクトルが有った場合は、該候補画像を前記基準画像として選択するという基準であることが好ましい。 In addition, the predetermined selection criterion is to prioritize the already-encoded images that are included in the candidate image and whose display time is later than the processing target image, in the order that the display time is close to the display time of the processing target image, Subsequent to the priority order, the encoded images included in the candidate images and having the display time earlier than the processing target image are prioritized in the order in which the display time is close to the display time of the processing target image. When there is a motion vector, the determination of the presence / absence of a motion vector in an area spatially located at the same position as the processing target area on the candidate image is repeated in the order of rank until the motion vector exists. Is preferably a criterion for selecting the candidate image as the reference image.
当該構成において、基準動きベクトル選択手段は、まず、複数ある既符号化画像に優先順位をつけ、優先度の高いものから順に、基準画像に選択できるか否かを判断していく。この優先順位は、予測ベクトルが実際の物体の動きを反映する可能性の高い既符号化画像を優先する順位付けになっている。 In this configuration, the reference motion vector selection unit first assigns priorities to a plurality of already-encoded images, and determines whether or not the reference images can be selected in descending order of priority. This priority order is a priority order for an already-encoded image having a high possibility that the prediction vector reflects the actual motion of the object.
これにより、上記の構成によれば、候補画像のいずれかを基準画像とし、その基準画像に対応する基準動きベクトルを選択することで、基準動きベクトルをゼロベクトルとする場合に較べて、画像にある物体の実際の動きとの相関が高い予測ベクトルを導出できる可能性が高くなるので、より効率の良い予測が可能になるという効果を奏する。 Thereby, according to the above configuration, by selecting any of the candidate images as a reference image and selecting a reference motion vector corresponding to the reference image, the image is compared with a case where the reference motion vector is set as a zero vector. Since there is a high possibility that a prediction vector having a high correlation with the actual motion of a certain object can be derived, there is an effect that more efficient prediction is possible.
また、前記基準動きベクトル選択手段が、前記処理対象画像よりも表示時刻が早い既符号化画像を前記基準画像として選択した場合、前記予測画像導出手段は、前記処理対象画像に表示時刻が最も近い前方参照画像のみを用いて予測画像を導出することが好ましい。 Further, when the reference motion vector selection unit selects an already-encoded image having a display time earlier than the processing target image as the reference image, the predicted image derivation unit has a display time closest to the processing target image. It is preferable to derive the predicted image using only the forward reference image.
当該構成において、表示時刻から見ると、まず基準動きベクトルが指す前方参照画面があり、次に基準画像があり、次に処理対象画像があり、次に後方参照画像があるという関係になる。 In this configuration, when viewed from the display time, first, there is a forward reference screen pointed to by the reference motion vector, next there is a reference image, next there is a processing target image, and then there is a backward reference image.
これにより、上記の構成によれば、前方参照画像を基準画像として予測ベクトルを導出する場合に、前方予測ベクトルが指す基準画像上の領域のみから処理対象領域の予測画像を生成する場合、基準領域に画像としてある物体が、基準動きベクトルが指す前方参照画像上の領域から、処理対象画像上の領域まで等速運動する可能性の方が、より時間間隔の長い、基準動きベクトルが指す前方参照画像上の領域から後方参照画像上の領域まで等速運動する可能性に較べて高い。 Thus, according to the above configuration, when the prediction vector is derived using the forward reference image as the reference image, the prediction region of the processing target region is generated only from the region on the reference image indicated by the forward prediction vector. The forward reference pointed to by the reference motion vector has a longer time interval if the object in the image is moving at a constant speed from the region on the forward reference image pointed to by the reference motion vector to the region on the processing target image. The possibility of moving at a constant speed from the region on the image to the region on the back reference image is high.
さらに、前方参照画像と後方参照画像との時間間隔に比較して短い、前方参照画像と処理対象画像との時間間隔を用いて予測ベクトルを求めるので、時間ダイレクト予測の仮定である、画像上の物体が同一方向へ等速運動をするという条件が成り立つ可能性が高まる。従って、予測画像の予測効率を向上できるという効果を奏する。 Furthermore, since the prediction vector is obtained using the time interval between the forward reference image and the processing target image, which is shorter than the time interval between the forward reference image and the backward reference image, it is assumed that temporal direct prediction is performed on the image. The possibility that the condition that the object moves at a constant speed in the same direction is increased. Therefore, there is an effect that the prediction efficiency of the predicted image can be improved.
また、前記既符号化画像は、参照画像および非参照画像であることが好ましい。 The already-encoded image is preferably a reference image and a non-reference image.
当該構成において、非参照画像を候補画像に含めることで、参照画像のみを候補画像に含める場合に較べて、処理対象画像の表示時刻と表示時刻が近い既符号化画像が多くなる。 In this configuration, including the non-reference image in the candidate image increases the number of already-encoded images whose display time is close to the display time of the processing target image, compared to the case where only the reference image is included in the candidate image.
これにより、上記の構成によれば、処理対象画像の表示時刻と基準画像の表示時刻との間隔が狭い場合は、対象領域と基準動きベクトルが指す基準画像上の領域との、処理対象画像上における距離が短くなるため、これら2つの領域が同じ方向へ等速運動しているとの仮定が成り立ちやすくなる。従って、画像にある物体の実際の動きと相関が高い動きベクトルを導出できる可能性が高くなるので、参照画像のみを基準画像候補とする場合に較べて、より予測効率を向上できるという効果を奏する。 Thus, according to the above configuration, when the interval between the display time of the processing target image and the display time of the reference image is narrow, the target image and the region on the reference image indicated by the reference motion vector Since the distance at becomes shorter, it is easy to assume that these two regions are moving at the same speed in the same direction. Therefore, there is a high possibility that a motion vector having a high correlation with the actual motion of the object in the image can be derived, so that it is possible to improve the prediction efficiency more than in the case where only the reference image is set as the reference image candidate. .
なお、本発明に係る動画像復号装置は、処理対象画像上の処理対象領域の動きベクトルを既復号画像の動きベクトルを用いて導出する予測ベクトル導出手段と、前記予測ベクトルを用いて既復号画像から処理対象領域の予測画像を導出する予測画像導出手段とを備えた動画像復号装置において、前記予測ベクトル導出手段は、少なくとも2枚以上の既復号画像を基準画像の候補とし、所定の選択基準に基づいて前記候補の中から1枚を基準画像として選択し、該基準画像上で処理対象領域と空間的に同一位置に位置する領域の動きベクトルを基準動きベクトルとして選択する基準動きベクトル選択手段を備え、該基準動きベクトルを前記画像間の表示時間間隔に基づいてスケーリングして予測ベクトルを導出することを特徴とする構成でもよい。 The moving picture decoding apparatus according to the present invention includes a prediction vector deriving unit that derives a motion vector of a processing target region on a processing target image using a motion vector of a decoded image, and a decoded image using the prediction vector. And a predicted image deriving unit for deriving a predicted image of the processing target region from the prediction vector deriving unit, wherein the predicted vector deriving unit uses at least two or more already-decoded images as reference image candidates, and a predetermined selection criterion. A reference motion vector selection means for selecting one of the candidates as a reference image based on the reference image and selecting a motion vector of an area spatially located at the same position as the processing target area on the reference image as a reference motion vector The reference motion vector may be scaled based on a display time interval between the images to derive a prediction vector. .
また、本発明に係る動画像復号装置は、前記の構成に加え、前記基準動きベクトル選択手段は、処理対象画像より表示時間が遅くかつ処理対象画像に表示時間が最も近い既復号画像並びに処理対象画像より表示時間が早くかつ処理対象画像に表示時間が最も近い既復号画像を前記基準画像候補とし、処理対象画像より表示時間が遅い基準画像候補上で処理対象領域と同一位置に位置する領域の動きベクトルが存在する場合は該動きベクトルを基準動きベクトルとして選択し、該動きベクトルが存在しない場合は、処理対象画像より表示時間が早い基準画像候補上で処理対象領域と同一位置に位置する領域の動きベクトルが存在する場合は該動きベクトルを基準動きベクトルとして選択することを特徴とする構成でもよい。 In addition to the above-described configuration, the moving image decoding apparatus according to the present invention may further include a decoded image and a processing target in which the reference motion vector selection unit has a display time later than the processing target image and the display time closest to the processing target image. A decoded image whose display time is earlier than the image and whose display time is closest to the processing target image is set as the reference image candidate, and an area located at the same position as the processing target region on the reference image candidate whose display time is later than the processing target image. If a motion vector exists, the motion vector is selected as a reference motion vector. If the motion vector does not exist, an area located at the same position as the processing target area on the reference image candidate whose display time is earlier than the processing target image If there is a motion vector, the configuration may be such that the motion vector is selected as a reference motion vector.
さらに、本発明に係る動画像復号装置は、前記の構成に加え、前記基準動きベクトル選択手段は、複数の既復号画像を基準画像候補とし、該基準画像候補に含まれる処理対象画像より表示時間が遅い既復号画像を処理対象画像に表示時間が近い順に並べ、その後に該基準画像候補に含まれる処理対象画像より表示時間が早い既復号画像を処理対象画像に表示時間が近い順に並べて基準画像候補の優先順序とし、該優先順序の順に基準画像候補を基準画像として設定して、該基準画像上で処理対象領域と同一位置に位置する領域の動きベクトルが存在する場合は該動きベクトルを基準動きベクトルとして選択することを特徴とする構成でもよい。 Furthermore, in the moving image decoding apparatus according to the present invention, in addition to the above-described configuration, the reference motion vector selection unit sets a plurality of decoded images as reference image candidates, and displays a display time from a processing target image included in the reference image candidates. The decoded images with a slower display time are arranged in the order of display time relative to the processing target image, and then the decoded images having a display time earlier than the processing target images included in the reference image candidates are arranged in the order of display time closer to the processing target image. The priority order of candidates is set, and reference image candidates are set as reference images in the order of the priority order, and if there is a motion vector of an area located at the same position as the processing target area on the reference image, the motion vector is set as a reference. The configuration may be characterized in that it is selected as a motion vector.
また、本発明に係る動画像復号装置は、前記の構成に加え、前記基準動きベクトル選択手段において、処理対象画像よりも表示時間が遅い既復号画像を基準画像として基準動きベクトルが選択された場合には、処理対象画像に表示時間が最も近い前方参照画像及び処理対象画像に表示時間が最も近い後方参照画像を用いて予測画像を導出し、処理対象画像よりも表示時間が早い画像を基準画像として基準動きベクトルが選択された場合には、処理対象画像に表示時間が最も近い前方参照画像のみを用いて予測画像を導出することを特徴とする構成でもよい。 In addition to the above-described configuration, the moving image decoding apparatus according to the present invention is configured such that, in the reference motion vector selection unit, a reference motion vector is selected using a decoded image whose display time is slower than the processing target image as a reference image. A prediction image is derived using a forward reference image whose display time is closest to the processing target image and a backward reference image whose display time is closest to the processing target image, and an image whose display time is earlier than the processing target image When the reference motion vector is selected, the prediction image may be derived using only the forward reference image whose display time is closest to the processing target image.
さらに、本発明に係る動画像復号装置は、前記の構成に加え、前記基準動きベクトル選択手段は、前記既復号画像として参照画像を用いることを特徴とする構成でもよい。 Furthermore, the moving picture decoding apparatus according to the present invention may be configured such that, in addition to the above-described configuration, the reference motion vector selection unit uses a reference image as the already-decoded image.
また、本発明に係る動画像復号装置は、前記の構成に加え、前記基準動きベクトル選択手段は、前記既復号画像として参照画像及び非参照画像を用いることを特徴とする構成でもよい。 In addition to the above configuration, the moving image decoding apparatus according to the present invention may have a configuration in which the reference motion vector selection unit uses a reference image and a non-reference image as the already-decoded image.
さらに、本発明に係る動画像符号化装置は、符号化処理を終えた既符号化画像の動きベクトルを用いて処理対象画像上の処理対象領域の動きベクトルを導出する予測ベクトル導出手段と、前記予測ベクトルを用いて既符号化画像から処理対象領域の予測画像を導出する予測画像導出手段とを備えた動画像符号化装置において、前記予測ベクトル導出手段は、少なくとも2枚以上の既符号化画像を基準画像の候補とし、所定の選択基準に基づいて前記候補の中から1枚を基準画像として選択し、該基準画像上で処理対象領域と空間的に同一位置に位置する領域の動きベクトルを基準動きベクトルとして選択する基準動きベクトル選択手段を備え、該基準動きベクトルを前記画像間の表示時間間隔に基づいてスケーリングして予測ベクトルを導出することを特徴とする構成でもよい。 Furthermore, the moving image encoding apparatus according to the present invention includes a prediction vector deriving unit that derives a motion vector of a processing target region on a processing target image using a motion vector of an already encoded image that has been encoded, In the moving picture coding apparatus including a predicted image derivation unit that derives a predicted image of the processing target region from the already encoded image using the prediction vector, the prediction vector derivation unit includes at least two or more already encoded images. Is selected as a reference image candidate, one of the candidates is selected as a reference image based on a predetermined selection criterion, and a motion vector of a region located spatially at the same position as the processing target region on the reference image is selected. Reference motion vector selection means for selecting as a reference motion vector is provided, and a prediction vector is derived by scaling the reference motion vector based on a display time interval between the images. Rukoto may be configured characterized.
また、本発明に係る動画像符号化装置は、前記の構成に加え、前記基準動きベクトル選択手段は、処理対象画像より表示時間が遅くかつ処理対象画像に表示時間が最も近い既符号化画像並びに処理対象画像より表示時間が早くかつ処理対象画像に表示時間が最も近い既符号化画像を前記基準画像候補とし、処理対象画像より表示時間が遅い基準画像候補上で処理対象領域と同一位置に位置する領域の動きベクトルが存在する場合は該動きベクトルを基準動きベクトルとして選択し、該動きベクトルが存在しない場合は、処理対象画像より表示時間が早い基準画像候補上で処理対象領域と同一位置に位置する領域の動きベクトルが存在する場合は該動きベクトルを基準動きベクトルとして選択することを特徴とする構成でもよい。 In addition to the above-described configuration, the moving image encoding apparatus according to the present invention includes: the reference motion vector selection unit that includes an already-encoded image whose display time is later than the processing target image and whose display time is closest to the processing target image; An already-encoded image whose display time is earlier than the processing target image and whose display time is closest to the processing target image is set as the reference image candidate, and is located at the same position as the processing target region on the reference image candidate whose display time is later than the processing target image. If the motion vector of the region to be processed exists, the motion vector is selected as the reference motion vector. If the motion vector does not exist, the motion vector is selected at the same position as the processing target region on the reference image candidate whose display time is earlier than that of the processing target image. If there is a motion vector in a region where the position is present, the motion vector may be selected as a reference motion vector.
さらに、本発明に係る動画像符号化装置は、前記の構成に加え、前記基準動きベクトル選択手段は、複数の既符号化画像を基準画像候補とし、該基準画像候補に含まれる処理対象画像より表示時間が遅い既符号化画像を処理対象画像に表示時間が近い順に並べ、その後に該基準画像候補に含まれる処理対象画像より表示時間が早い既符号化画像を処理対象画像に表示時間が近い順に並べて基準画像候補の優先順序とし、該優先順序の順に基準画像候補を基準画像として設定して、該基準画像上で処理対象領域と同一位置に位置する領域の動きベクトルが存在する場合は該動きベクトルを基準動きベクトルとして選択することを特徴とする構成でもよい。 Furthermore, in the moving image encoding device according to the present invention, in addition to the above-described configuration, the reference motion vector selection unit sets a plurality of already-encoded images as reference image candidates, and uses the processing target images included in the reference image candidates. Pre-coded images with a slow display time are arranged in order of display time relative to the processing target image, and then the pre-coded images with a display time earlier than the processing target images included in the reference image candidate are close to the processing target image. If a reference image candidate is set as a reference image in the order of the priority order and a motion vector of an area located at the same position as the processing target area exists on the reference image, The configuration may be characterized in that the motion vector is selected as the reference motion vector.
また、本発明に係る動画像符号化装置は、前記の構成に加え、前記基準動きベクトル選択手段において、処理対象画像よりも表示時間が遅い既符号化画像を基準画像として基準動きベクトルが選択された場合には、処理対象画像に表示時間が最も近い前方参照画像及び処理対象画像に表示時間が最も近い後方参照画像を用いて予測画像を導出し、処理対象画像よりも表示時間が早い画像を基準画像として基準動きベクトルが選択された場合には、処理対象画像に表示時間が最も近い前方参照画像のみを用いて予測画像を導出することを特徴とする構成でもよい。 In addition to the above-described configuration, the moving image encoding apparatus according to the present invention selects a reference motion vector by using the already-encoded image whose display time is slower than the processing target image as a reference image in the reference motion vector selection unit. In such a case, the prediction image is derived using the forward reference image whose display time is closest to the processing target image and the backward reference image whose display time is closest to the processing target image, and an image whose display time is earlier than that of the processing target image is obtained. When the reference motion vector is selected as the reference image, the prediction image may be derived using only the forward reference image whose display time is closest to the processing target image.
さらに、本発明に係る動画像符号化装置は、前記の構成に加え、前記基準動きベクトル選択手段は、前記既符号化画像として参照画像を用いることを特徴とする構成でもよい。 Furthermore, the moving picture encoding apparatus according to the present invention may be configured such that, in addition to the above-described configuration, the reference motion vector selection unit uses a reference image as the already-encoded image.
また、本発明に係る動画像符号化装置は、前記の構成に加え、前記基準動きベクトル選択手段は、前記既符号化画像として参照画像及び非参照画像を用いることを特徴とする構成でもよい。 In addition to the above configuration, the moving image encoding apparatus according to the present invention may have a configuration in which the reference motion vector selection unit uses a reference image and a non-reference image as the already-encoded image.
最後に、動画像復号装置1および動画像符号化装置2の各ブロック、特に導出方式選択部201、基準ベクトル選択部210、時間ダイレクト予測部203、空間ダイレクト予測部204、pmv予測部、およびゼロベクトル出力部206は、ハードウェアロジックによって構成してもよいし、次のようにCPUを用いてソフトウェアによって実現してもよい。
Finally, each block of the moving picture decoding apparatus 1 and the moving
すなわち、動画像復号装置1および動画像符号化装置2は、各機能を実現する制御プログラムの命令を実行するCPU(central processing unit)、上記プログラムを格納したROM(read only memory)、上記プログラムを展開するRAM(random access memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアである動画像復号装置1および動画像符号化装置2の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記動画像復号装置1および動画像符号化装置2に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。
That is, the moving picture decoding apparatus 1 and the moving
上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などを用いることができる。 Examples of the recording medium include a tape system such as a magnetic tape and a cassette tape, a magnetic disk such as a floppy (registered trademark) disk / hard disk, and an optical disk such as a CD-ROM / MO / MD / DVD / CD-R. Card system such as IC card, IC card (including memory card) / optical card, or semiconductor memory system such as mask ROM / EPROM / EEPROM / flash ROM.
また、動画像復号装置1および動画像符号化装置2を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。
Further, the moving picture decoding apparatus 1 and the moving
本発明に係る動画像復号装置は、以上のように、前記予測ベクトル導出手段は、少なくとも2枚以上の前記既復号画像を前記基準画像の候補画像とし、基準動きベクトルがゼロベクトルとなることを回避する、所定の選択基準に基づいて前記候補画像の中の1枚を前記基準画像として選択し、該基準画像上で前記処理対象領域と空間的に同一位置に位置する領域の動きベクトルを基準動きベクトルとして選択する基準動きベクトル選択手段を備えたことを特徴とする。 In the moving picture decoding apparatus according to the present invention, as described above, the prediction vector deriving unit determines that at least two or more of the decoded pictures are candidate images of the reference image, and the reference motion vector is a zero vector. Avoiding, selecting one of the candidate images as the reference image based on a predetermined selection criterion, and using a motion vector of a region located spatially at the same position as the processing target region on the reference image Reference motion vector selection means for selecting a motion vector is provided.
それゆえ、処理対象画像より表示時刻が遅い既復号画像がイントラ符号化されており基準領域が動きベクトルを持たない場合でも、候補画像に含まれる複数の既復号画像の中から基準画像を選択できるので、画像上の物体の動きとの相関が少ないゼロベクトルではなく、画像上の物体の動きを反映した、予測ベクトルを得られる可能性が高くなるので、予測画像の予測効率を向上できるという効果を奏する。 Therefore, even when a decoded image whose display time is later than the processing target image is intra-coded and the reference region does not have a motion vector, the reference image can be selected from a plurality of decoded images included in the candidate image. Therefore, it is more possible to obtain a prediction vector that reflects the motion of the object on the image, rather than a zero vector that has little correlation with the motion of the object on the image, so the effect of improving the prediction efficiency of the predicted image Play.
また、本発明に係る動画像符号化装置は、以上のように、前記予測ベクトル導出手段は、少なくとも2枚以上の前記既符号化画像を前記基準画像の候補画像とし、基準動きベクトルがゼロベクトルとなることを回避する、所定の選択基準に基づいて前記候補画像の中の1枚を前記基準画像として選択し、該基準画像上で前記処理対象領域と空間的に同一位置に位置する領域の動きベクトルを基準動きベクトルとして選択する基準動きベクトル選択手段を備えたことを特徴とする。 In the moving picture encoding apparatus according to the present invention, as described above, the prediction vector deriving unit uses at least two or more of the already encoded pictures as the candidate pictures of the reference picture, and the reference motion vector is a zero vector. One of the candidate images is selected as the reference image on the basis of a predetermined selection criterion, and an area located in the same position as the processing target region on the reference image is selected. Reference motion vector selection means for selecting a motion vector as a reference motion vector is provided.
それゆえ、処理対象画像より表示時刻が遅い既符号化画像がイントラ符号化されており基準領域が動きベクトルを持たない場合でも、候補画像に含まれる複数の既符号化画像の中から基準画像を選択できるので、画像上の物体の動きとの相関が少ないゼロベクトルではなく、画像上の物体の動きを反映した、予測ベクトルを得られる可能性が高くなるので、予測画像の予測効率を向上できるという効果を奏する。 Therefore, even when an already-encoded image whose display time is later than the processing target image is intra-encoded and the reference area does not have a motion vector, a reference image is selected from a plurality of already-encoded images included in the candidate image. Since it is possible to select, it is highly possible to obtain a prediction vector that reflects the motion of the object on the image instead of a zero vector with little correlation with the motion of the object on the image, so the prediction efficiency of the predicted image can be improved. There is an effect.
本発明に係る動画像復号装置1および動画像符号化装置2を用いると、予測ベクトルの予測効率を向上させることができるので、動画像の符号化または復号を行う装置、すなわち、携帯端末機器、携帯電話機、テレビジョン受像機、マルチメディア機器などに好適に使用できる。
When the video decoding device 1 and the
Claims (6)
前記予測ベクトルを用いて、前記処理対象領域の動きベクトルを再構成する動きベクトル復号手段と、
復号処理を終えた既復号画像から、前記動きベクトルを用いて前記処理対象領域の予測画像を導出する予測画像導出手段と
を備え、
前記予測ベクトル導出手段は、
少なくとも2枚以上の前記既復号画像を前記基準画像の候補画像とし、
前記基準動きベクトルがゼロベクトルとなることを回避する、所定の選択基準に基づいて前記候補画像の中の1枚を前記基準画像として選択し、
該基準画像上で前記処理対象領域と空間的に同一位置に位置する領域の動きベクトルを基準動きベクトルとして選択する基準動きベクトル選択手段を備え、
さらに、該基準動きベクトル選択手段が、
前記処理対象画像よりも表示時刻が早い既復号画像を前記基準画像として選択した場合、
前記予測画像導出手段は、
前方参照画像のみを用いて予測画像を導出し、
前記所定の選択基準は、
前記候補画像に含まれる、前記処理対象画像より表示時刻が遅い既復号画像を、その表示時刻が前記処理対象画像の表示時刻に近い順に優先順位をつけ、
その優先順位に続けて、
前記候補画像に含まれる、前記処理対象画像より表示時刻が早い既復号画像を、その表示時刻が前記処理対象画像の表示時刻に近い順に優先順位をつけ、
該優先順位の順に、前記候補画像上での、前記処理対象領域と空間的に同一位置に位置する領域の動きベクトルの有無の判定を、該動きベクトルが有るまで繰り返し、
該動きベクトルが有った場合は、該候補画像を前記基準画像として選択するという基準であることを特徴とする、動画像復号装置。Prediction vector deriving means for deriving a prediction vector of a processing target region on the processing target image using a reference motion vector of the reference image;
Motion vector decoding means for reconstructing a motion vector of the processing target region using the prediction vector;
Predicted image deriving means for deriving a predicted image of the processing target region from the already decoded image that has been decoded using the motion vector,
The prediction vector deriving means includes:
At least two or more of the already decoded images are set as candidate images of the reference image,
Selecting one of the candidate images as the reference image based on a predetermined selection criterion that avoids the reference motion vector becoming a zero vector;
A reference motion vector selection means for selecting a motion vector of a region located spatially at the same position as the processing target region on the reference image as a reference motion vector;
Further, the reference motion vector selection means includes:
When a decoded image whose display time is earlier than the processing target image is selected as the reference image,
The predicted image derivation means includes
Deriving a predicted image using only forward reference images ,
The predetermined selection criterion is:
Prioritized decoded images that are included in the candidate images and whose display time is later than the processing target image are given priority in order of display time close to the display time of the processing target image,
Following that priority,
Prior decoded images included in the candidate image, the display time of which is earlier than the processing target image, prioritize the display time closer to the display time of the processing target image,
In the order of the priority order, the determination on the presence or absence of a motion vector in an area spatially located at the same position as the processing target area on the candidate image is repeated until the motion vector exists,
A moving picture decoding apparatus according to claim 1, wherein when there is the motion vector, the candidate image is selected as the reference image .
前記処理対象画像と符号化処理を終えた既符号化画像とを用いて、動きベクトルを推定する動きベクトル推定手段と、
前記予測ベクトルを用いて、前記動きベクトルを符号化する動きベクトル符号化手段と、
前記既符号化画像から、前記動きベクトルを用いて前記処理対象領域の予測画像を導出する予測画像導出手段と
を備え、
前記予測ベクトル導出手段は、
少なくとも2枚以上の前記既符号化画像を前記基準画像の候補画像とし、
前記基準動きベクトルがゼロベクトルとなることを回避する、所定の選択基準に基づいて前記候補画像の中の1枚を前記基準画像として選択し、
該基準画像上で前記処理対象領域と空間的に同一位置に位置する領域の動きベクトルを基準動きベクトルとして選択する基準動きベクトル選択手段を備え、
さらに、該基準動きベクトル選択手段が、
前記処理対象画像よりも表示時刻が早い既符号化画像を前記基準画像として選択した場合、
前記予測画像導出手段は、
前方参照画像のみを用いて予測画像を導出し、
前記所定の選択基準は、
前記候補画像に含まれる、前記処理対象画像より表示時刻が遅い既符号化画像を、その表示時刻が前記処理対象画像の表示時刻に近い順に優先順位をつけ、
その優先順位に続けて、
前記候補画像に含まれる、前記処理対象画像より表示時刻が早い既符号化画像を、その表示時刻が前記処理対象画像の表示時刻に近い順に優先順位をつけ、
該優先順位の順に、前記候補画像上での、前記処理対象領域と空間的に同一位置に位置する領域の動きベクトルの有無の判定を、該動きベクトルが有るまで繰り返し、
該動きベクトルが有った場合は、該候補画像を前記基準画像として選択するという基準であることを特徴とする、動画像符号化装置。 Prediction vector deriving means for deriving a prediction vector of a processing target region on the processing target image using a reference motion vector of the reference image;
Motion vector estimation means for estimating a motion vector using the processing target image and the already-encoded image that has been subjected to the encoding process;
Motion vector encoding means for encoding the motion vector using the prediction vector;
Predicted image deriving means for deriving a predicted image of the processing target region from the already-encoded image using the motion vector;
With
The prediction vector deriving means includes:
At least two or more of the already-encoded images are set as candidate images for the reference image,
Selecting one of the candidate images as the reference image based on a predetermined selection criterion that avoids the reference motion vector becoming a zero vector;
A reference motion vector selection means for selecting a motion vector of a region located spatially at the same position as the processing target region on the reference image as a reference motion vector;
Further, the reference motion vector selection means includes:
When an already-encoded image whose display time is earlier than the processing target image is selected as the reference image,
The predicted image derivation means includes
Deriving a predicted image using only forward reference images,
The predetermined selection criterion is:
Prior coded images that are included in the candidate images and whose display time is later than the processing target image are prioritized in the order that the display time is closer to the display time of the processing target image,
Following that priority,
Prioritized images that are included in the candidate images and that are earlier in display time than the processing target image are given priority in the order in which the display time is closer to the display time of the processing target image,
In the order of the priority order, the determination on the presence or absence of a motion vector in an area spatially located at the same position as the processing target area on the candidate image is repeated until the motion vector exists,
The moving picture coding apparatus according to claim 1, wherein when there is the motion vector, the candidate image is selected as the reference image .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007551847A JP5020829B2 (en) | 2005-12-27 | 2006-03-02 | Moving picture decoding apparatus and moving picture encoding apparatus |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005376479 | 2005-12-27 | ||
JP2005376479 | 2005-12-27 | ||
PCT/JP2006/303999 WO2007074543A1 (en) | 2005-12-27 | 2006-03-02 | Moving picture image decoding device and moving picture image coding device |
JP2007551847A JP5020829B2 (en) | 2005-12-27 | 2006-03-02 | Moving picture decoding apparatus and moving picture encoding apparatus |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011087365A Division JP2011160468A (en) | 2005-12-27 | 2011-04-11 | Moving picture image decoding device and moving picture image coding device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2007074543A1 JPWO2007074543A1 (en) | 2009-06-04 |
JP5020829B2 true JP5020829B2 (en) | 2012-09-05 |
Family
ID=38217770
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007551847A Expired - Fee Related JP5020829B2 (en) | 2005-12-27 | 2006-03-02 | Moving picture decoding apparatus and moving picture encoding apparatus |
JP2011087365A Ceased JP2011160468A (en) | 2005-12-27 | 2011-04-11 | Moving picture image decoding device and moving picture image coding device |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011087365A Ceased JP2011160468A (en) | 2005-12-27 | 2011-04-11 | Moving picture image decoding device and moving picture image coding device |
Country Status (2)
Country | Link |
---|---|
JP (2) | JP5020829B2 (en) |
WO (1) | WO2007074543A1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9832480B2 (en) | 2011-03-03 | 2017-11-28 | Sun Patent Trust | Moving picture coding method, moving picture decoding method, moving picture coding apparatus, moving picture decoding apparatus, and moving picture coding and decoding apparatus |
US9877038B2 (en) | 2010-11-24 | 2018-01-23 | Velos Media, Llc | Motion vector calculation method, picture coding method, picture decoding method, motion vector calculation apparatus, and picture coding and decoding apparatus |
US10237569B2 (en) | 2011-01-12 | 2019-03-19 | Sun Patent Trust | Moving picture coding method and moving picture decoding method using a determination whether or not a reference block has two reference motion vectors that refer forward in display order with respect to a current picture |
US10404998B2 (en) | 2011-02-22 | 2019-09-03 | Sun Patent Trust | Moving picture coding method, moving picture coding apparatus, moving picture decoding method, and moving picture decoding apparatus |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102139535B1 (en) | 2007-10-16 | 2020-07-30 | 엘지전자 주식회사 | A method and an apparatus for processing a video signal |
KR101505195B1 (en) | 2008-02-20 | 2015-03-24 | 삼성전자주식회사 | Method for direct mode encoding and decoding |
KR101522850B1 (en) * | 2010-01-14 | 2015-05-26 | 삼성전자주식회사 | Method and apparatus for encoding/decoding motion vector |
WO2012073481A1 (en) * | 2010-11-29 | 2012-06-07 | パナソニック株式会社 | Video-image encoding method and video-image decoding method |
US8755437B2 (en) | 2011-03-17 | 2014-06-17 | Mediatek Inc. | Method and apparatus for derivation of spatial motion vector candidate and motion vector prediction candidate |
CN107277542B (en) * | 2011-02-10 | 2019-12-10 | 太阳专利托管公司 | Moving picture decoding method and moving picture decoding device |
WO2012122927A1 (en) | 2011-03-14 | 2012-09-20 | Mediatek Inc. | Method and apparatus for derivation of motion vector candidate and motion vector prediction candidate |
WO2012176684A1 (en) * | 2011-06-22 | 2012-12-27 | ソニー株式会社 | Image processing device and method |
JP6341756B2 (en) * | 2014-05-26 | 2018-06-13 | キヤノン株式会社 | Image processing apparatus and image processing apparatus control method |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004165703A (en) * | 2002-09-20 | 2004-06-10 | Toshiba Corp | Moving picture coding method and decoding method |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000308062A (en) * | 1999-04-15 | 2000-11-02 | Canon Inc | Method for processing animation |
KR100508798B1 (en) * | 2002-04-09 | 2005-08-19 | 엘지전자 주식회사 | Method for predicting bi-predictive block |
JP2004048711A (en) * | 2002-05-22 | 2004-02-12 | Matsushita Electric Ind Co Ltd | Method for coding and decoding moving picture and data recording medium |
JP3824268B2 (en) * | 2002-07-02 | 2006-09-20 | 松下電器産業株式会社 | Motion vector deriving method and motion vector deriving device |
KR100506864B1 (en) * | 2002-10-04 | 2005-08-05 | 엘지전자 주식회사 | Method of determining motion vector |
-
2006
- 2006-03-02 WO PCT/JP2006/303999 patent/WO2007074543A1/en active Application Filing
- 2006-03-02 JP JP2007551847A patent/JP5020829B2/en not_active Expired - Fee Related
-
2011
- 2011-04-11 JP JP2011087365A patent/JP2011160468A/en not_active Ceased
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004165703A (en) * | 2002-09-20 | 2004-06-10 | Toshiba Corp | Moving picture coding method and decoding method |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9877038B2 (en) | 2010-11-24 | 2018-01-23 | Velos Media, Llc | Motion vector calculation method, picture coding method, picture decoding method, motion vector calculation apparatus, and picture coding and decoding apparatus |
US10218997B2 (en) | 2010-11-24 | 2019-02-26 | Velos Media, Llc | Motion vector calculation method, picture coding method, picture decoding method, motion vector calculation apparatus, and picture coding and decoding apparatus |
US10778996B2 (en) | 2010-11-24 | 2020-09-15 | Velos Media, Llc | Method and apparatus for decoding a video block |
US10237569B2 (en) | 2011-01-12 | 2019-03-19 | Sun Patent Trust | Moving picture coding method and moving picture decoding method using a determination whether or not a reference block has two reference motion vectors that refer forward in display order with respect to a current picture |
US10904556B2 (en) | 2011-01-12 | 2021-01-26 | Sun Patent Trust | Moving picture coding method and moving picture decoding method using a determination whether or not a reference block has two reference motion vectors that refer forward in display order with respect to a current picture |
US11317112B2 (en) | 2011-01-12 | 2022-04-26 | Sun Patent Trust | Moving picture coding method and moving picture decoding method using a determination whether or not a reference block has two reference motion vectors that refer forward in display order with respect to a current picture |
US11838534B2 (en) | 2011-01-12 | 2023-12-05 | Sun Patent Trust | Moving picture coding method and moving picture decoding method using a determination whether or not a reference block has two reference motion vectors that refer forward in display order with respect to a current picture |
US10404998B2 (en) | 2011-02-22 | 2019-09-03 | Sun Patent Trust | Moving picture coding method, moving picture coding apparatus, moving picture decoding method, and moving picture decoding apparatus |
US9832480B2 (en) | 2011-03-03 | 2017-11-28 | Sun Patent Trust | Moving picture coding method, moving picture decoding method, moving picture coding apparatus, moving picture decoding apparatus, and moving picture coding and decoding apparatus |
US10237570B2 (en) | 2011-03-03 | 2019-03-19 | Sun Patent Trust | Moving picture coding method, moving picture decoding method, moving picture coding apparatus, moving picture decoding apparatus, and moving picture coding and decoding apparatus |
US10771804B2 (en) | 2011-03-03 | 2020-09-08 | Sun Patent Trust | Moving picture coding method, moving picture decoding method, moving picture coding apparatus, moving picture decoding apparatus, and moving picture coding and decoding apparatus |
US11284102B2 (en) | 2011-03-03 | 2022-03-22 | Sun Patent Trust | Moving picture coding method, moving picture decoding method, moving picture coding apparatus, moving picture decoding apparatus, and moving picture coding and decoding apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP2011160468A (en) | 2011-08-18 |
WO2007074543A1 (en) | 2007-07-05 |
JPWO2007074543A1 (en) | 2009-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5020829B2 (en) | Moving picture decoding apparatus and moving picture encoding apparatus | |
US10511855B2 (en) | Method and system for predictive decoding with optimum motion vector | |
US9313518B2 (en) | Method and apparatus for estimating motion vector using plurality of motion vector predictors, encoder, decoder, and decoding method | |
JP4625102B2 (en) | Derivation method of direct mode motion vector | |
JP5310614B2 (en) | Moving picture coding apparatus, moving picture coding method, moving picture decoding apparatus, and moving picture decoding method | |
JP5281597B2 (en) | Motion vector prediction method, motion vector prediction apparatus, and motion vector prediction program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110208 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110411 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111101 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120612 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120613 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150622 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |