JP2010034946A - Moving image encoding apparatus and decoding apparatus - Google Patents

Moving image encoding apparatus and decoding apparatus Download PDF

Info

Publication number
JP2010034946A
JP2010034946A JP2008196118A JP2008196118A JP2010034946A JP 2010034946 A JP2010034946 A JP 2010034946A JP 2008196118 A JP2008196118 A JP 2008196118A JP 2008196118 A JP2008196118 A JP 2008196118A JP 2010034946 A JP2010034946 A JP 2010034946A
Authority
JP
Japan
Prior art keywords
vector
prediction
value
processing block
prediction vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008196118A
Other languages
Japanese (ja)
Other versions
JP5099776B2 (en
Inventor
Tomonobu Yoshino
知伸 吉野
Hitoshi Naito
整 内藤
Atsushi Koike
淳 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2008196118A priority Critical patent/JP5099776B2/en
Publication of JP2010034946A publication Critical patent/JP2010034946A/en
Application granted granted Critical
Publication of JP5099776B2 publication Critical patent/JP5099776B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a moving image encoding apparatus and decoding apparatus, for enhancing predictive vector performance. <P>SOLUTION: This invention relates to the moving vector encoding apparatus which allows inter-coding in encoding for the unit of a macro block, wherein an inter-coding predictive value generation unit includes: vector evaluation value calculation sections 22a, 22b for obtaining evaluation values of reference vectors of neighboring encoded blocks; a predictive vector control section 25 for determining whether the reference vector is suited to a processing block on the basis of the evaluation values of the reference vectors; and a predictive vector generation section 23 for generating a median value predictive vector of a reference vector on the basis of the evaluation value of respective reference vectors; or a predictive vector generation section 24 for selecting either a median value of the reference vector or a median value of an average vector of the two reference vectors as a predictive vector on the basis of the determination of the predictive vector control section. The predictive vector is generated on the basis of the determination about whether or not the reference vector is suited to the processing block. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画面をマクロブロック(以下、MB)に分割し、MB単位で符号化する際にインター符号化を許容する動画像符号化装置および復号装置に関し、特に、符号化済み隣接MBにおける動きベクトルから、処理MBにおける動きベクトルの予測ベクトルを生成する動画像符号化装置および復号装置に関する。   The present invention relates to a moving picture coding apparatus and decoding apparatus that allow inter coding when a screen is divided into macro blocks (hereinafter referred to as MB) and coded in units of MB, and in particular, motion in coded adjacent MBs. The present invention relates to a video encoding device and a decoding device that generate a motion vector prediction vector in a processing MB from a vector.

MB単位での符号化の際にインター符号化を許容する動画像符号化装置において、MBもしくはMBを細分化したブロック(以下、単にブロックと記述)単位でのインター符号化の際に、隣接する符号化済みブロック(以下、参照ブロック)の動きベクトル(以下、参照ベクトル)に基づいて予測ベクトルを生成する方法が、下記の非特許文献1に示されている。この方法により、予測ベクトルと動き補償により得られる動きベクトルの差分のみを符号化することで、動きベクトルの符号化に要する符号量を抑制することが可能である。   In a video encoding apparatus that allows inter-coding when encoding in MB units, adjacent to each other in inter-coding in units of MBs or blocks obtained by subdividing MBs (hereinafter simply referred to as blocks) A method for generating a prediction vector based on a motion vector (hereinafter referred to as a reference vector) of an encoded block (hereinafter referred to as a reference block) is shown in Non-Patent Document 1 below. By encoding only the difference between the prediction vector and the motion vector obtained by motion compensation by this method, it is possible to suppress the amount of code required for encoding the motion vector.

非特許文献1には、隣接する3つもしくは2つのブロックを参照ブロックとし、全ての参照ベクトルのx成分およびy成分に関するメディアン(中央)値を算出し、同x成分およびy成分によって成されるベクトルを予測ベクトルとする予測ベクトル生成方法が開示されている。   Non-Patent Document 1 uses three or two adjacent blocks as reference blocks, calculates median (center) values for the x component and y component of all reference vectors, and is formed by the x component and y component. A prediction vector generation method using a vector as a prediction vector is disclosed.

この予測ベクトル生成方法(すなわち、H.264における予測ベクトル生成方法)を、図10を参照して簡単に説明する。図10は画面をブロックで分割した時の一部のブロックを示し、H.264では、図示されているように、処理ブロックに隣接する左、上および右上に位置するブロックを参照ブロックとする。いま、各参照ブロックにおける参照ベクトルを、Va=(x,y)、Vb=(x,y)、Vc=(x,y)とすると、予測ベクトルVpred=(xpred,ypred)は、下式(1)により得られる。 This prediction vector generation method (that is, the prediction vector generation method in H.264) will be briefly described with reference to FIG. FIG. 10 shows a part of blocks when the screen is divided into blocks. In H.264, as shown in the figure, blocks located on the left, upper and upper right adjacent to the processing block are used as reference blocks. If the reference vectors in each reference block are Va = (x a , y a ), Vb = (x b , y b ), and Vc = (x c , y c ), the prediction vector Vpred = (x pred , y pred ) is obtained by the following equation (1).

Figure 2010034946
Figure 2010034946

ただし、関数median()は、引数のメディアン値を得る関数であり、下式(2)に従う。   However, the function median () is a function for obtaining the median value of the argument, and follows the following equation (2).

Figure 2010034946
Figure 2010034946
Joint Video Team (JVT) of ISO/IEC MPEG and ITU-VCEG, “Text of ISO/IEC 14496 10 Advanced Video Coding 3rd Edition”, July 2004.Joint Video Team (JVT) of ISO / IEC MPEG and ITU-VCEG, “Text of ISO / IEC 14496 10 Advanced Video Coding 3rd Edition”, July 2004.

しかしながら、前記した従来技術の予測方法では、高々3つの参照ベクトルを入力としているに過ぎず、粗いサンプルに対するメディアン値を予測値としている。したがって、該予測値の精度は、必ずしも全てのケースにおいて良好であるとはいえないという問題があった。   However, in the above-described conventional prediction method, at most three reference vectors are input, and a median value for a coarse sample is used as a predicted value. Therefore, there is a problem that the accuracy of the predicted value is not necessarily good in all cases.

本発明は、前記した従来技術に鑑みてなされたものであり、その目的は、予測ベクトル性能を改善できる動画像符号化装置および復号装置を提供することにある。   The present invention has been made in view of the above-described prior art, and an object thereof is to provide a moving picture encoding apparatus and decoding apparatus that can improve prediction vector performance.

前記の目的を達成するために、本発明は、マクロブロック単位での符号化の際にインター符号化を許容する動画像符号化装置において、隣接する符号化済みブロックの動きベクトル(以下、参照ベクトル)の評価値を得る動きベクトル評価値算出部と、各参照ベクトルの評価値に基づき処理ブロックに対する参照ベクトルの適否を判断する予測ベクトル制御部と、該予測ベクトル制御部の判断に基づき参照ベクトルのメディアン値、もしくは各々2つの参照ベクトルの平均ベクトルのメディアン値を選択して予測ベクトルとする予測ベクトル生成部とを含むインター符号化予測値生成部を具備し、処理ブロックに対する参照ベクトルの適否判断に基づき予測ベクトルを生成するようにした点に第1の特徴がある。   In order to achieve the above object, the present invention provides a motion vector (hereinafter referred to as a reference vector) of an adjacent coded block in a video coding apparatus that allows inter coding when coding in units of macroblocks. ), A prediction vector control unit that determines the suitability of the reference vector for the processing block based on the evaluation value of each reference vector, and a reference vector based on the determination of the prediction vector control unit An inter-coded prediction value generation unit including a median value, or a prediction vector generation unit that selects a median value of an average vector of two reference vectors, respectively, as a prediction vector, and determines whether or not the reference vector is appropriate for the processing block The first feature is that a prediction vector is generated based on the above.

また、本発明は、前記予測ベクトル制御部が、前記参照ベクトルの評価値に基づいて処理ブロックに対する参照ベクトルの適否を判断し、その結果、参照ベクトルの平均ベクトルのメディアン値が処理ブロックの予測ベクトルとして適切である可能性があると判断された場合、該処理ブロックの符号化データのビットストリームに、参照ベクトルの平均ベクトルのメディアン値もしくは参照ベクトルのメディアン値のどちらを予測ベクトルとして採用したかを表す制御情報を付与するようにした点に第2の特徴がある。   Further, according to the present invention, the prediction vector control unit determines whether or not the reference vector is appropriate for the processing block based on the evaluation value of the reference vector, and as a result, the median value of the average vector of the reference vector is the prediction vector of the processing block. If the median value of the average vector of the reference vector or the median value of the reference vector is adopted as the prediction vector in the bit stream of the encoded data of the processing block The second feature is that control information to be expressed is added.

また、本発明は、マクロブロック単位での復号の際にインター符号化を許容する動画像復号装置において、隣接する符号化済みブロックの動きベクトル(以下、参照ベクトル)の評価値を得る動きベクトル評価値算出部と、各参照ベクトルの評価値に基づき処理ブロックに対する参照ベクトルの適否を判断する予測ベクトル制御部と、該予測ベクトル制御部の判断に基づき参照ベクトルのメディアン値、もしくは各々2つの参照ベクトルの平均ベクトルのメディアン値を選択して予測ベクトルとする予測ベクトル生成部とを含むインター予測値生成部を具備し、処理ブロックに対する参照ベクトルの適否判断に基づき予測ベクトルを生成するようにした点に第3の特徴がある。   Also, the present invention provides a motion vector evaluation that obtains an evaluation value of a motion vector (hereinafter referred to as a reference vector) of an adjacent encoded block in a video decoding apparatus that allows inter-coding when decoding in units of macroblocks. A value calculation unit, a prediction vector control unit that determines the suitability of the reference vector for the processing block based on the evaluation value of each reference vector, and a median value of the reference vector based on the determination of the prediction vector control unit, or two reference vectors each A prediction vector generation unit including a prediction vector generation unit that selects a median value of an average vector of the prediction vector as a prediction vector, and generates a prediction vector based on whether the reference vector is appropriate for the processing block. There is a third feature.

さらに、本発明は、前記処理ブロックの符号化データのビットストリームから制御情報を解析する手段をさらに具備し、前記予測ベクトル制御部は、前記参照ベクトルの評価値に基づいて処理ブロックに対する参照ベクトルの適否を判断し、その結果、参照ベクトルの平均ベクトルのメディアン値が処理ブロックの予測ベクトルとして適切である可能性があると判断された場合、前記ビットストリームから得られる制御情報に基づき、参照ベクトルの平均ベクトルのメディアン値もしくは参照ベクトルのメディアン値のどちらかを予測ベクトルとして用いるようにした点に第4の特徴がある。   Furthermore, the present invention further comprises means for analyzing control information from a bit stream of encoded data of the processing block, and the prediction vector control unit is configured to determine a reference vector for the processing block based on an evaluation value of the reference vector. When it is determined that there is a possibility that the median value of the average vector of the reference vectors may be appropriate as the prediction vector of the processing block, based on the control information obtained from the bitstream, The fourth feature is that either the median value of the average vector or the median value of the reference vector is used as the prediction vector.

本発明の前記第1、第2の特徴によれば、新たな予測ベクトル候補、すなわち各々2つの参照ベクトルの平均ベクトルのメディアン値を新たな予測ベクトル候補として定義し、画像特徴に応じて従来手法と適応的に予測ベクトル生成手法を切り替えるようにしたので、予測ベクトル性能が改善し、符号化効率の向上が期待される。   According to the first and second features of the present invention, a new prediction vector candidate, that is, a median value of an average vector of two reference vectors each is defined as a new prediction vector candidate, and a conventional method is performed according to the image feature. Thus, the prediction vector generation method is switched adaptively, so that the prediction vector performance is improved and the encoding efficiency is expected to be improved.

また、本発明の前記第3、第4の特徴によれば、参照ベクトルを評価することで、新たに定義した前記予測ベクトル候補の適用可否を判断し、同候補が有効であるときのみ、予測ベクトル生成手法の切り替えを行う。これにより、予測ベクトル性能が改善し、符号化効率の向上が期待される上に、前記切り替えに必要となる付与情報の情報量を抑制することが可能となる。   Further, according to the third and fourth features of the present invention, the applicability of the newly defined prediction vector candidate is determined by evaluating a reference vector, and only when the candidate is valid Switch the vector generation method. As a result, prediction vector performance is improved, encoding efficiency is expected to be improved, and the amount of additional information necessary for the switching can be suppressed.

以下に、図面を参照して、本発明を詳細に説明する。まず、本発明が適用される動画像符号化装置について説明する。   Hereinafter, the present invention will be described in detail with reference to the drawings. First, a video encoding apparatus to which the present invention is applied will be described.

本発明は、画面内のMB単位での符号化の際にインター符号化を許容し、動き補償により動きベクトルを決定するとともに、隣接する符号化済みブロックの動きベクトル(参照ベクトル)に基づいて予測ベクトルを生成し、動きベクトルと予測ベクトルの差分を符号化する動画像符号化装置を前提とする。   The present invention allows inter-coding when encoding in units of MB in the screen, determines a motion vector by motion compensation, and predicts based on a motion vector (reference vector) of an adjacent encoded block It is assumed that a moving image encoding apparatus that generates a vector and encodes a difference between a motion vector and a prediction vector.

図1は、本発明の一実施形態の動画像符号化装置のブロック図を示す。   FIG. 1 shows a block diagram of a video encoding apparatus according to an embodiment of the present invention.

イントラ符号化予測値生成部1では、入力映像、符号化済みブロックにおける局所復号された画素値i、および符号化済みブロックにおけるイントラ予測方向に関する情報jを入力とし、符号化済みブロックにおける局所復号された画素値iに基づき、処理ブロックにおける各イントラ予測方向の予測値を生成する。そして、該予測値に対して、入力映像との差分を得る事で、イントラ符号化における符号化歪みを算出する。また、符号化歪みおよび符号化済みブロックにおけるイントラ予測方向に関する情報jに基づき、各イントラ予測方向におけるコスト値を算出する。算出されたコスト値を比較し、最も処理ブロックの符号化に適したイントラ予測方向を選択する。該イントラ符号化予測値生成部1の出力として、最適なイントラ予測方向における予測値a、該予測方向に関する情報b、および該予測方向におけるコスト値cを出力する。   The intra-coded prediction value generation unit 1 receives as input the input video, the locally decoded pixel value i in the encoded block, and the information j regarding the intra prediction direction in the encoded block, and performs local decoding in the encoded block. Based on the pixel value i, a prediction value in each intra prediction direction in the processing block is generated. Then, by obtaining a difference from the input image with respect to the predicted value, coding distortion in intra coding is calculated. Further, a cost value in each intra prediction direction is calculated based on the information j regarding the intra prediction direction in the encoded distortion and the encoded block. The calculated cost values are compared, and the intra prediction direction most suitable for encoding the processing block is selected. As an output of the intra-coded prediction value generation unit 1, a prediction value a in the optimal intra prediction direction, information b regarding the prediction direction, and a cost value c in the prediction direction are output.

インター符号化予測値生成部2では、入力映像、符号化済みフレームにおける局所復号された画素値i、および同一フレーム内の隣接する符号化済みブロックにおける予測情報jを入力とする。ただし、該予測情報jには、動きベクトルおよび発明手法の適用有無を表す情報が含まれる。そして、最適な動きベクトルにおける予測値d、該予測情報(動きベクトル、および発明手法の適用有無)e、および該予測情報におけるコスト値fを出力する。本発明は、該インター符号化予測値生成部2の構成に特徴があるので、その詳細は、図3、図5を参照して後述する。   The inter-coded prediction value generation unit 2 receives an input video, a locally decoded pixel value i in an encoded frame, and prediction information j in an adjacent encoded block in the same frame. However, the prediction information j includes information representing the motion vector and whether or not the invention method is applied. Then, the prediction value d in the optimal motion vector, the prediction information (motion vector and whether or not the inventive method is applied) e, and the cost value f in the prediction information are output. Since the present invention is characterized by the configuration of the inter-coded prediction value generation unit 2, details thereof will be described later with reference to FIGS.

モード判定制御部3では、イントラ符号化予測値生成部1およびインター符号化予測値生成部2から出力されるコスト値c、fを入力とし、入力されるコスト値の比較を行い、処理ブロックに適する符号化モードを選択する。該モード判定制御部3は、イントラ符号化予測値生成部1およびインター符号化予測値生成部2から出力される予測値(a,d)および予測に関する情報(b,e)について、処理ブロックの符号化に適する符号化モードが符号化に用いられるように切り替える。   The mode determination control unit 3 receives the cost values c and f output from the intra-coded prediction value generation unit 1 and the inter-coding prediction value generation unit 2 and compares the input cost values. Select a suitable encoding mode. The mode determination control unit 3 uses the processing block for the prediction value (a, d) and the information (b, e) related to prediction output from the intra-coded prediction value generation unit 1 and the inter-coding prediction value generation unit 2. It switches so that the encoding mode suitable for encoding may be used for encoding.

DCT/量子化部4では、入力映像に対する予測値aまたはdとの差分を入力とし、入力される信号に対して、DCT処理および量子化処理を施す。そして、その出力として、量子化されたDCT係数gを出力する。   The DCT / quantization unit 4 receives the difference between the predicted value a or d for the input video and performs DCT processing and quantization processing on the input signal. Then, the quantized DCT coefficient g is output as the output.

IDCT/逆量子化部5では、量子化されたDCT係数gを入力とし、該DCT係数gに対して、逆量子化処理および逆DCT処理を施す。該IDCT/逆量子化部5の出力として、逆DCTされた画素信号を出力する。   The IDCT / inverse quantization unit 5 receives the quantized DCT coefficient g, and performs inverse quantization processing and inverse DCT processing on the DCT coefficient g. As an output of the IDCT / inverse quantization unit 5, a pixel signal subjected to inverse DCT is output.

エントロピー符号化部6では、量子化されたDCT係数gおよび予測に関する情報j(b又はe)を入力とし、入力される信号についてエントロピー符号化を行う。エントロピー符号化部6の出力として、エントロピー符号化された結果を、符号化データhとして出力する。該符号化データhはビットストリームとして送出される。   The entropy encoding unit 6 receives the quantized DCT coefficient g and the prediction information j (b or e) and performs entropy encoding on the input signal. As an output of the entropy encoding unit 6, an entropy encoded result is output as encoded data h. The encoded data h is sent out as a bit stream.

ローカルメモリ(1)7では、予測値と逆DCTされた画素信号の和をとった信号、すなわち局所復号された画素値iを入力とする。該ローカルメモリ(1)7では、局所復号された画素値iを蓄積し、適宜、イントラ符号化予測値生成部1およびインター符号化予測値生成部2に供給する。   In the local memory (1) 7, a signal obtained by summing the predicted value and the inverse DCT pixel signal, that is, a locally decoded pixel value i is input. The local memory (1) 7 accumulates the locally decoded pixel value i and supplies it to the intra-coded prediction value generation unit 1 and the inter-coding prediction value generation unit 2 as appropriate.

ローカルメモリ(2)8では、符号化済みブロックにおいて適用された予測方法に関する情報j(b又はe)を入力とする。なお、該情報jには、発明手法の適用有無を表す情報が含まれている。そして、符号化済みブロックにおける予測情報jを蓄積し、適宜、イントラ符号化予測値生成部1およびインター符号化予測値生成部2に該情報jを供給する。該予測情報jには、符号化済みブロックのMV,差分ベクトル、発明手法の適用有無に関する情報などが含まれる。   In the local memory (2) 8, information j (b or e) regarding the prediction method applied in the encoded block is input. The information j includes information indicating whether the inventive method is applied. Then, the prediction information j in the encoded block is accumulated, and the information j is supplied to the intra-coded prediction value generation unit 1 and the inter-coding prediction value generation unit 2 as appropriate. The prediction information j includes the MV of the encoded block, the difference vector, information on whether or not the inventive method is applied, and the like.

次に、本発明の一実施形態の動画像復号装置について説明する。図2は、画面内のMB単位での符号化の際に拡張イントラ符号化を許容する動画像復号装置のブロック図を示している。動画像復号装置は、符号化データ解析部11、イントラ予測値生成部12、インター予測値生成部13、予測方法制御部14、およびメモリ15で構成される。   Next, a video decoding device according to an embodiment of the present invention will be described. FIG. 2 is a block diagram of a moving picture decoding apparatus that allows extended intra coding when encoding is performed in units of MBs in a screen. The moving picture decoding apparatus includes an encoded data analysis unit 11, an intra prediction value generation unit 12, an inter prediction value generation unit 13, a prediction method control unit 14, and a memory 15.

符号化データ解析部(または、エントロピー復号部)11では、ビットストリームとして送られてくる符号化データhを入力とする。なお、入力される符号化データhには、発明手法の適用有無を示す情報が含まれる。該符号化データ解析部11では、符号化データをエントロピー復号し、シンタックスに従って符号化データに記述される内容を解析する。該符号化データ解析部11の出力として、シンタックス解析の結果として得られる、残差信号k、予測情報m、およびインター符号化における動きベクトル予測方法の制御情報m’(後述の制御情報30b)を出力とする。   The encoded data analysis unit (or entropy decoding unit) 11 receives the encoded data h sent as a bit stream. The input encoded data h includes information indicating whether the inventive method is applied. The encoded data analysis unit 11 entropy-decodes the encoded data and analyzes the contents described in the encoded data according to the syntax. As an output of the encoded data analysis unit 11, a residual signal k, prediction information m, and control information m ′ of a motion vector prediction method in inter coding (control information 30b described later) obtained as a result of syntax analysis are obtained. Is output.

イントラ予測値生成部12では、符号化データ解析部11から得られる予測情報m、メモリ15から得られる復号済み画素値nを入力とし、復号済み画素値nを基に、予測情報mにしたがってイントラ予測値pを生成し、該イントラ予測値pを出力する。   In the intra prediction value generation unit 12, the prediction information m obtained from the encoded data analysis unit 11 and the decoded pixel value n obtained from the memory 15 are input, and based on the decoded pixel value n, the intra prediction value m is received according to the prediction information m. A predicted value p is generated, and the intra predicted value p is output.

インター符号化予測値生成部13では、符号化済みフレームにおける局所復号された画素値n、同一フレーム内の隣接する復号済みブロックおよび処理ブロックにおける予測情報m、および動きベクトル予測方法の制御情報m’を入力とする。そして、該インター符号化予測値生成部13の出力として、インター符号化における予測値qを出力する。本発明は、該インター予測値生成部13の構成に特徴を有しているので、その詳細は、図7、図8を参照して後述する。   In the inter-coded prediction value generation unit 13, the locally decoded pixel value n in the encoded frame, the prediction information m in the adjacent decoded block and processing block in the same frame, and the control information m ′ of the motion vector prediction method As an input. Then, a predicted value q in inter coding is output as an output of the inter coded predicted value generation unit 13. Since the present invention is characterized by the configuration of the inter prediction value generation unit 13, the details thereof will be described later with reference to FIGS.

予測方法制御部14では、符号化データ解析部11から得られる予測情報mを入力とする。該予測方法制御部14では、前記予測情報mがイントラ予測に関するものであるか、インター予測に関するものであるかを識別し、イントラ予測およびインター予測を切り替えるための制御信号rを出力する。   The prediction method control unit 14 receives the prediction information m obtained from the encoded data analysis unit 11. The prediction method control unit 14 identifies whether the prediction information m relates to intra prediction or inter prediction, and outputs a control signal r for switching between intra prediction and inter prediction.

メモリ15では、復号済み画素値を入力とし、該復号済み画素値nを蓄積し、未復号ブロックの復号処理を行う際に、復号済み画素値nをイントラ予測値生成部12およびインター予測値生成部13に適宜入力する。   In the memory 15, the decoded pixel value n is input, the decoded pixel value n is accumulated, and the decoded pixel value n is generated by the intra prediction value generation unit 12 and the inter prediction value generation unit when the undecoded block is decoded. Input to the part 13 as appropriate.

次に、本発明の符号化装置の前記インター符号化予測値生成部2の一実施形態について、図3及び図5を参照して詳細に説明する。図3は、該インター符号化予測値生成部2の第1実施形態ブロック図であり、参照ベクトルのみに基づき予測ベクトルを生成する物である。また、図5は、該インター符号化予測値生成部2の第2実施形態のブロック図であり、予測ベクトル制御方法の制御情報および参照ベクトルに基づき予測ベクトルを生成するものである。   Next, an embodiment of the inter-coded prediction value generation unit 2 of the encoding device of the present invention will be described in detail with reference to FIGS. 3 and 5. FIG. 3 is a block diagram of the first embodiment of the inter-coded prediction value generation unit 2, which generates a prediction vector based only on the reference vector. FIG. 5 is a block diagram of the second embodiment of the inter-coded prediction value generation unit 2, which generates a prediction vector based on control information and a reference vector of a prediction vector control method.

まず、図3を参照して、参照ベクトルのみに基づき予測ベクトルを生成するインター符号化予測値生成部2の第1実施形態の構成及び動作を説明する。   First, the configuration and operation of the first embodiment of the inter-coded prediction value generation unit 2 that generates a prediction vector based only on a reference vector will be described with reference to FIG.

MV(Motion Vector)抽出部21では、前記ローカルメモリ(2)8から供給される近傍の符号化済みブロックにおける予測情報jを入力とし、該予測情報jから近傍ブロックにおけるMVの情報を抽出する。そして、その出力として、処理ブロックに隣接する符号化済みブロックにおけるMVを出力する。   The MV (Motion Vector) extraction unit 21 receives the prediction information j in the neighboring encoded block supplied from the local memory (2) 8, and extracts the MV information in the neighboring block from the prediction information j. Then, as the output, the MV in the encoded block adjacent to the processing block is output.

H.264予測ベクトル生成部23では、隣接する符号化済み各ブロック(例えば、処理ブロックに対して左、上、右上のブロック)における動きベクトルMVを入力とする。該H.264予測ベクトル生成部23は、各動きベクトルにおけるx成分およびy成分に関してメディアン値を算出し、得られるx成分およびy成分からなるベクトルを予測ベクトルとし、生成された予測ベクトル23aを出力する。該H.264予測ベクトル生成部23の動作は、図10で説明した通りである。   H. The H.264 prediction vector generation unit 23 receives the motion vector MV in each adjacent encoded block (for example, the left, upper, and upper right blocks with respect to the processing block). The H.P. The H.264 prediction vector generation unit 23 calculates a median value with respect to the x component and the y component in each motion vector, uses the obtained vector composed of the x component and the y component as a prediction vector, and outputs the generated prediction vector 23a. The H.P. The operation of the H.264 prediction vector generation unit 23 is as described with reference to FIG.

発明手法予測ベクトル生成部24では、隣接する符号化済みブロックにおける動きベクトルMVを入力とし、処理ブロックに対して左、上、右上に隣接する符号化済みブロックにおける動きベクトルについて、各々2つの平均ベクトルを算出する。該平均ベクトルにおけるx成分およびy成分に関してメディアン値を算出し、得られるx成分およびy成分からなるベクトルを、予測ベクトルとする。該発明手法予測ベクトル生成部24の出力として、生成された予測ベクトル24aを出力する。   The inventive method predictive vector generation unit 24 receives the motion vectors MV in adjacent encoded blocks as input, and averages two average vectors for the motion vectors in the encoded blocks adjacent to the processing block on the left, top, and top right. Is calculated. A median value is calculated for the x component and y component in the average vector, and the resulting vector consisting of the x component and y component is taken as the prediction vector. The generated prediction vector 24 a is output as an output of the inventive technique prediction vector generation unit 24.

評価値算出部(1)22aでは、隣接する符号化済みブロック(例えば、処理ブロックに対して左、上、右上のブロック)における動きベクトル(参照ベクトル)を入力とする。そして、同部22aでは、各参照ベクトルについて、他の参照ベクトルからの乖離の値を算出し、該乖離の値(以下、乖離の評価値)を出力する。   In the evaluation value calculation unit (1) 22a, motion vectors (reference vectors) in adjacent encoded blocks (for example, blocks on the left, upper, and upper right with respect to the processing block) are input. Then, the part 22a calculates a deviation value from another reference vector for each reference vector, and outputs the deviation value (hereinafter, a deviation evaluation value).

評価値算出部(2)22bでは、隣接する符号化済みブロック(例えば、処理ブロックに対して左、上、右上のブロック)における動きベクトル(参照ベクトル)を入力とする。そして、同部22bでは、各参照ベクトルについて、密集性の値を算出し、該密集性の値(以下、密集性の評価値)を出力する。   In the evaluation value calculation unit (2) 22b, motion vectors (reference vectors) in adjacent encoded blocks (for example, blocks on the left, upper, and upper right with respect to the processing block) are input. Then, in the same part 22b, for each reference vector, a density value is calculated, and the density value (hereinafter referred to as a density evaluation value) is output.

予測ベクトル制御部(1)25は、評価値算出部(1)22aから出力される乖離の値と、評価値算出部(2)22bから出力される密集性の値を入力する。そして、何れかの参照ベクトルにおいて、乖離が予め定められた値より大きいとき、当該処理ブロックでは発明手法予測ベクトルが不適であると判断する。また、参照ベクトルの密集性が予め定められた値より高いとき、当該処理ブロックでは発明手法予測ベクトルが不適であると判断する。該予測ベクトル制御部(1)25は、前記乖離と密集性に関して、両方あるいはいずれか一方で、発明手法予測ベクトルが不適であると判断された時、該発明手法予測ベクトルは処理ブロックに不適であると判断する。そして、発明手法予測ベクトルが不適であるときには、予測ベクトルとして、H.264方法に基づく予測ベクトルを選択し、それ以外のときは、発明手法予測ベクトルを採用する制御信号25aを出力する。   The prediction vector control unit (1) 25 inputs the divergence value output from the evaluation value calculation unit (1) 22a and the congestion value output from the evaluation value calculation unit (2) 22b. Then, when the deviation is larger than a predetermined value in any of the reference vectors, it is determined that the inventive method prediction vector is inappropriate for the processing block. Further, when the density of the reference vectors is higher than a predetermined value, it is determined that the inventive method prediction vector is inappropriate for the processing block. When the prediction vector control unit (1) 25 determines that the inventive method prediction vector is inappropriate for the divergence and / or density, the inventive method prediction vector is inappropriate for the processing block. Judge that there is. When the inventive method prediction vector is inappropriate, the prediction vector is H.264. A prediction vector based on the H.264 method is selected, and otherwise, a control signal 25a that employs the inventive method prediction vector is output.

前記乖離が予め定められた値より大きいときに、当該処理ブロックでは発明手法予測ベクトルが不適であると判断するのは、該乖離の大きな動きベクトルはノイズ等により異常である可能性が高いので、該異常の動きベクトルを参照ベクトルに参画させないためである。また、前記参照ベクトルの密集性が予め定められた値より高いとき、当該処理ブロックでは発明手法予測ベクトルが不適であると判断するのは、発明手法により求められる予測ベクトルとH.264方法に基づく予測ベクトルとでは、ほぼ同じ予測ベクトルが得られるからである。   When the divergence is greater than a predetermined value, it is highly likely that the motion vector having a large divergence is abnormal due to noise or the like because the processing method prediction vector is determined to be inappropriate in the processing block. This is to prevent the abnormal motion vector from participating in the reference vector. In addition, when the density of the reference vectors is higher than a predetermined value, it is determined that the inventive method prediction vector is inappropriate in the processing block because of the prediction vector obtained by the inventive method and the H.264 standard. This is because almost the same prediction vector is obtained with the prediction vector based on the H.264 method.

ここで、前記乖離の評価値および密集性の評価値の算出の仕方とその評価の仕方についての具体例を説明する。該評価値の算出方法および評価方法として、下記の2つの方法が考えられる。   Here, a specific example of how to calculate the evaluation value of the divergence and the evaluation value of the density and how to evaluate the evaluation value will be described. As the evaluation value calculation method and evaluation method, the following two methods are conceivable.

(a)参照ベクトルの成分を用いた評価   (a) Evaluation using reference vector components

複数、例えば3個の参照ベクトルの水平成分および垂直成分について、それぞれの分散値を算出する。何れかの分散値が予め定められたある閾値Aを超えるとき、乖離が発生していると判断する。また、何れの分散値とも予め定められたある閾値B(B<A)を下回るとき、密集していると判断する。   For each of the horizontal components and vertical components of a plurality of, for example, three reference vectors, the respective variance values are calculated. When any variance value exceeds a predetermined threshold A, it is determined that a divergence has occurred. Further, when any variance value falls below a predetermined threshold value B (B <A), it is determined that it is dense.

(b)参照ベクトル間の距離を用いた評価   (b) Evaluation using distance between reference vectors

複数、例えば3個の各々の参照ベクトルについて、互いの距離を算出する。ここで、参照ベクトル間の距離は、それぞれ2つの参照ベクトルについて、差分ベクトルの距離を指す。何れかの参照ベクトル間の距離が予め定められたある閾値A’を超えるとき、乖離が発生していると判断する。また、何れの参照ベクトル間の距離が予め定められたある閾値B’(B’<A’)を下回るとき、密集していると判断する。   The distance between each of a plurality of, for example, three reference vectors is calculated. Here, the distance between the reference vectors indicates the distance of the difference vector for each of the two reference vectors. When the distance between any of the reference vectors exceeds a predetermined threshold A ′, it is determined that a divergence has occurred. Further, when the distance between any reference vectors is below a predetermined threshold value B ′ (B ′ <A ′), it is determined that the reference vectors are dense.

なお、前記の実施形態では、評価値算出部(1)22aで乖離の評価値を算出し、評価値算出部(2)22bで密集性の評価値を算出するように説明したが、これらの2つの評価値算出部(1)、(2)とせずに、これらを1つの評価値算出部に統合するようにしてもよい。この統合に関しては、後述する図5、図7および図8の実施形態においても同様である。   In the above embodiment, the evaluation value calculation unit (1) 22a calculates the evaluation value of the divergence, and the evaluation value calculation unit (2) 22b calculates the evaluation value of the congestion. Instead of the two evaluation value calculation units (1) and (2), these may be integrated into one evaluation value calculation unit. This integration is the same in the embodiments of FIGS. 5, 7 and 8 described later.

図4は、前記予測ベクトル制御部(1)25の機能を説明するフローチャートであるが、該フローチャートの説明は省略する。   FIG. 4 is a flowchart for explaining the function of the prediction vector control unit (1) 25, but the explanation of the flowchart is omitted.

次に、参照先決定部26では、入力映像および符号化済みフレームにおける局所復号された信号iを入力とする。同部26では、処理ブロックにおける入力映像について、局所復号された信号を対象に探索範囲内で最も信号が近い同矩形の位置を探す。最も信号が近い位置について、処理ブロックからの空間的な相対位置を、動きベクトルとする。また、最も信号が近い位置における局所復号された信号について、同画素値を予測値とする。さらに、入力映像に対する予測値の差分を、予測誤差とする。同部26の出力として、動きベクトル26a、予測値d、予測誤差26bを出力する。   Next, the reference destination determination unit 26 receives the input video and the locally decoded signal i in the encoded frame as inputs. In the same unit 26, the input image in the processing block is searched for the position of the same rectangle that is closest to the signal within the search range for the locally decoded signal. For the position where the signal is closest, the spatial relative position from the processing block is taken as a motion vector. In addition, the same pixel value is used as a predicted value for a locally decoded signal at a position where the signal is closest. Further, the difference between the prediction values for the input video is defined as a prediction error. As an output of the unit 26, a motion vector 26a, a predicted value d, and a prediction error 26b are output.

ベクトル差分抽出部27では、前記参照先決定部26から出力された動きベクトル26aおよび前記予測ベクトル生成部23または24から出力された予測ベクトル23aまたは24aを入力とする。同部27では、動きベクトルに対する予測ベクトルの差分を、差分ベクトルeとする。また、該差分ベクトルeについて、エントロピー符号化を施し、差分ベクトルにより発生する符号量を求める。同部27の出力として、差分ベクトルe(復号する際に用いられる予測に関する情報)および差分ベクトルの符号化に要する符号量27aを出力する。   The vector difference extraction unit 27 receives the motion vector 26 a output from the reference destination determination unit 26 and the prediction vector 23 a or 24 a output from the prediction vector generation unit 23 or 24. In the same unit 27, the difference of the prediction vector with respect to the motion vector is set as a difference vector e. In addition, entropy coding is performed on the difference vector e to obtain a code amount generated by the difference vector. As an output of the same unit 27, a difference vector e (information relating to prediction used when decoding) and a code amount 27a required for encoding the difference vector are output.

歪み算出部28では、入力映像、および前記参照先決定部26から出力された予測誤差26bと予測値dを入力とする。同部28では、入力される予測誤差26bについて、DCT、量子化、逆量子化、逆DCTの処理を施す。逆DCTまで施した結果に対して予測値を加えた信号(局所復号信号)を得る。ここで、入力信号に対する局所復号信号の差分を求め、差分信号について二乗和を得る。同部28の出力として、差分信号の二乗和(符号化歪み28a)を出力する。   In the distortion calculation unit 28, the input video and the prediction error 26b and the prediction value d output from the reference destination determination unit 26 are input. The same unit 28 performs DCT, quantization, inverse quantization, and inverse DCT on the input prediction error 26b. A signal (local decoded signal) obtained by adding a prediction value to the result obtained by performing inverse DCT is obtained. Here, the difference of the local decoded signal with respect to the input signal is obtained, and the sum of squares is obtained for the difference signal. As the output of the same unit 28, the sum of squares of the difference signal (encoding distortion 28a) is output.

コスト値算出部29では、前記ベクトル差分抽出部27から出力された差分ベクトルの符号量27aと前記歪み算出部28から出力された符号化歪み28aを入力とする。同部29では、符号量27aおよび符号化歪み28aをコスト関数に入力し、コスト値を得る。同部29の出力として、コスト値fを出力する。   The cost value calculation unit 29 receives the code amount 27 a of the difference vector output from the vector difference extraction unit 27 and the encoded distortion 28 a output from the distortion calculation unit 28. In the same unit 29, the code amount 27a and the coding distortion 28a are input to the cost function to obtain a cost value. The cost value f is output as the output of the unit 29.

以上のように、この実施形態によれば、評価値算出部(1)、(2)で参照ベクトルを評価することで、発明手法予測ベクトル生成部24で生成される予測ベクトル24aの適否を判断し、該予測ベクトル24aが有効である時のみ、該発明手法予測ベクトル生成部24で生成される予測ベクトルを採用するので、予測ベクトル性能を改善することができるようになる。   As described above, according to this embodiment, the evaluation value calculation units (1) and (2) evaluate the reference vector to determine whether the prediction vector 24a generated by the inventive method prediction vector generation unit 24 is appropriate. Only when the prediction vector 24a is valid, the prediction vector generated by the inventive method prediction vector generation unit 24 is adopted, so that the prediction vector performance can be improved.

次に、図5を参照して、インター符号化予測値生成部2の第2実施形態の構成及び動作を説明する。この第2実施形態は、予測ベクトル制御部(2)30を除き、図3のブロック図と同一又は同等であるので、以下では、予測ベクトル制御部(2)30についてのみ説明し、他の構成の説明は省略する。   Next, the configuration and operation of the second embodiment of the inter-coded prediction value generation unit 2 will be described with reference to FIG. Since the second embodiment is the same as or equivalent to the block diagram of FIG. 3 except for the prediction vector control unit (2) 30, only the prediction vector control unit (2) 30 will be described below and other configurations will be described. Description of is omitted.

予測ベクトル制御部(2)30では、予測ベクトル制御部(1)25から出力される、処理ブロックにおける発明手法予測ベクトルの適否に関する情報25a、発明手法予測ベクトル生成部24に基づき生成される予測ベクトル24a、およびH.264予測ベクトル生成部(従来方法)23に基づき生成される予測ベクトル23aを入力とする。同部30では、予測ベクトル制御部(1)により、処理ブロックにおいて発明手法予測ベクトルが適用可能であると判断された場合に、前記発明手法24に基づき生成される予測ベクトル24aと従来方法23に基づき生成される予測ベクトル23aについて、符号化性能の優劣に基づき、適切な予測ベクトルを選択する。例えば、前記予測ベクトル23aおよび24aのそれぞれを用いた場合について、各符号化データ量もしくは符号化性能を表わす評価値を求め、該符号化データ量の小さい方、もしくは符号化性能を表わす評価値が優れている予測ベクトルを選択する。   In the prediction vector control unit (2) 30, the prediction vector generated based on the information 25a on the suitability of the invention method prediction vector in the processing block, which is output from the prediction vector control unit (1) 25, and the invention method prediction vector generation unit 24 24a, and H.I. The prediction vector 23 a generated based on the H.264 prediction vector generation unit (conventional method) 23 is input. In the same unit 30, when the prediction vector control unit (1) determines that the inventive method prediction vector is applicable in the processing block, the prediction vector 24a generated based on the inventive method 24 and the conventional method 23 are used. An appropriate prediction vector is selected based on the superiority or inferiority of the encoding performance for the prediction vector 23a generated based on the prediction vector 23a. For example, in the case where each of the prediction vectors 23a and 24a is used, an evaluation value indicating each encoded data amount or encoding performance is obtained, and an evaluation value indicating the smaller encoded data amount or the encoding performance is obtained. Choose a good prediction vector.

そして、同部30の出力として、ベクトル差分抽出部27に入力される予測ベクトルを制御するための制御信号30a、および予測ベクトル制御部(1)により処理ブロックで発明手法予測ベクトルが適用可能であると判断される場合に、処理ブロックにおいて予測ベクトル生成に用いられた方法を表す制御情報30bを出力する。同制御情報30bは、エントロピー符号化され、前記符号化データh(図1参照)の一部として図示されていないビットストリームに含められる。該ビットストリームは、後述する復号装置に伝送される。   Then, as the output of the same unit 30, the control signal 30a for controlling the prediction vector input to the vector difference extraction unit 27 and the prediction vector control unit (1) can apply the inventive method prediction vector in the processing block. If it is determined, the control information 30b representing the method used for generating the prediction vector in the processing block is output. The control information 30b is entropy encoded and included in a bitstream not shown as part of the encoded data h (see FIG. 1). The bit stream is transmitted to a decoding device to be described later.

図6は、図5の予測ベクトル制御部(1)25および予測ベクトル制御部(2)の機能を説明するフローチャートである。予測ベクトル制御部(2)は、図示されているように、発明手法とH.264方法の符号化性能の比較の結果、発明手法が優位であると判断された場合には、制御情報30bとして、1ビットの制御情報「a」を付与し、また制御信号30aにより発明手法予測ベクトル24aを選択する。一方、H.264方法が優位であると判断された場合には、制御情報30bとして、1ビットの制御情報「b」を付与し、また制御信号30aによりH.264予測ベクトル23aを選択する。   FIG. 6 is a flowchart for explaining the functions of the prediction vector control unit (1) 25 and the prediction vector control unit (2) in FIG. As shown in the figure, the prediction vector control unit (2) includes the inventive method and H.264. As a result of the comparison of the coding performance of the H.264 method, when it is determined that the inventive method is superior, 1-bit control information “a” is assigned as the control information 30b, and the inventive method is predicted by the control signal 30a. Vector 24a is selected. On the other hand, H. If it is determined that the H.264 method is superior, 1-bit control information “b” is assigned as the control information 30b, and the control signal 30a is used to generate the H.264 method. H.264 prediction vector 23a is selected.

以上のように、本実施形態によれば、予測ベクトル制御部(1)25から発明手法予測ベクトル生成部24で生成された予測ベクトル24aが有効であると判断された場合に、さらに符号化性能の優劣に基づき、適切な予測ベクトルを選択するようにしたので、予測ベクトル性能が改善し、符号化効率の向上が期待される。   As described above, according to the present embodiment, when it is determined that the prediction vector 24a generated by the prediction vector generation unit 24 from the prediction vector control unit (1) 25 is valid, the encoding performance is further increased. Since an appropriate prediction vector is selected based on the superiority or inferiority of the above, the prediction vector performance is improved, and the encoding efficiency is expected to be improved.

次に、動画像復号装置におけるインター予測値生成部13(図2参照)の実施形態について、図7及び図8を参照して説明する。図7は、前記インター符号化予測値生成部の第1実施形態(図3)に対応するインター予測値生成部のブロック図を示し、参照ベクトルのみに基づき予測ベクトルを生成するものである。また、図8は、前記インター符号化予測値生成部の第2実施形態(図5)に対応するインター予測値生成部のブロック図を示し、予測ベクトル制御方法の制御情報および参照ベクトルに基づき予測ベクトルを生成するものである。   Next, an embodiment of the inter prediction value generation unit 13 (see FIG. 2) in the video decoding device will be described with reference to FIGS. FIG. 7 is a block diagram of an inter prediction value generation unit corresponding to the first embodiment (FIG. 3) of the inter-coded prediction value generation unit, and generates a prediction vector based only on a reference vector. FIG. 8 is a block diagram of an inter prediction value generation unit corresponding to the second embodiment (FIG. 5) of the inter-coded prediction value generation unit, and predicts based on control information and a reference vector of a prediction vector control method. A vector is generated.

まず、図7のインター予測値生成部について説明する。評価値算出部(1)44aでは、MV抽出部41から出力された隣接する符号化済みブロック(例えば、処理ブロックに対して左、上、右上のブロック)における動きベクトル(参照ベクトル)を入力とする。そして、同部44aでは、各参照ベクトルについて、他の参照ベクトルからの乖離の値を算出し、該乖離の評価値を出力する。   First, the inter prediction value generation unit in FIG. 7 will be described. In the evaluation value calculation unit (1) 44a, motion vectors (reference vectors) in adjacent encoded blocks output from the MV extraction unit 41 (for example, left, upper, and upper right blocks with respect to the processing block) are input. To do. Then, the part 44a calculates a deviation value from each of the reference vectors for each reference vector, and outputs an evaluation value of the deviation.

評価値算出部(2)44bでは、MV抽出部41から出力された隣接する符号化済みブロック(例えば、処理ブロックに対して左、上、右上のブロック)における動きベクトル(参照ベクトル)を入力とする。そして、同部44bでは、各参照ベクトルについて、密集性の値を算出し、該密集性の評価値を出力する。   In the evaluation value calculation unit (2) 44b, motion vectors (reference vectors) in adjacent encoded blocks output from the MV extraction unit 41 (for example, left, upper, and upper right blocks with respect to the processing block) are input. To do. Then, the same unit 44b calculates a congestion value for each reference vector, and outputs the evaluation value of the congestion.

予測ベクトル制御部(1)45では、評価値算出部(1)44aから出力される乖離の値と、評価値算出部(2)44bから出力される密集性の値を入力する。そして、何れかの参照ベクトルにおいて、乖離が予め定められた値より大きいとき、当該処理ブロックでは発明手法予測ベクトルが不適であると判断する。また、参照ベクトルの密集性が予め定められた値より高いとき、当該処理ブロックでは発明手法予測ベクトルが不適であると判断する。該予測ベクトル制御部(1)45は、前記乖離と密集性に関して、両方あるいはいずれか一方で、発明手法予測ベクトルが不適であると判断された時、該発明手法予測ベクトルは処理ブロックに不適であると判断する。そして、発明手法予測ベクトルが不適であるときには、予測ベクトルとして、H.264方法に基づく予測ベクトル42aを選択し、それ以外のときは、発明手法予測ベクトル43aを採用する制御信号45aを出力する。なお、前記乖離及び密集性の評価は、前記した通りであるので、説明を省略する。   The prediction vector control unit (1) 45 inputs the divergence value output from the evaluation value calculation unit (1) 44a and the congestion value output from the evaluation value calculation unit (2) 44b. Then, when the deviation is larger than a predetermined value in any of the reference vectors, it is determined that the inventive method prediction vector is inappropriate for the processing block. Further, when the density of the reference vectors is higher than a predetermined value, it is determined that the inventive method prediction vector is inappropriate for the processing block. The prediction vector control unit (1) 45 determines that the inventive method prediction vector is inappropriate for the processing block when it is determined that the inventive method prediction vector is inappropriate for the divergence and / or density. Judge that there is. When the inventive method prediction vector is inappropriate, the prediction vector is H.264. The prediction vector 42a based on the H.264 method is selected, and otherwise, a control signal 45a that employs the inventive method prediction vector 43a is output. The evaluation of the divergence and denseness is as described above, and thus the description thereof is omitted.

発明手法予測ベクトル生成部43では、隣接する符号化済みブロックにおける動きベクトルを入力とする。同部43では、処理ブロックに対して左、上、右上に隣接する符号化済みブロックにおける動きベクトル(参照ベクトル)について、各々2つの平均ベクトルを算出する。同平均ベクトルにおけるx成分およびy成分に関してメディアン値を算出し、得られるx成分およびy成分からなるベクトルを、予測ベクトルとする。同部43の出力として、生成された予測ベクトル43aを出力する。   The invented technique prediction vector generation unit 43 receives a motion vector in an adjacent encoded block as an input. In the same unit 43, two average vectors are calculated for each motion vector (reference vector) in an encoded block adjacent to the processing block on the left, top, and top right. A median value is calculated for the x component and the y component in the average vector, and the resulting vector composed of the x component and the y component is set as a prediction vector. As an output of the same unit 43, the generated prediction vector 43a is output.

次に、図8のインター予測値生成部について説明する。図8は、予測ベクトル生成方法を制御する情報および参照ベクトルに基づき予測ベクトルを生成するインター予測値生成部のブロック図を示す。   Next, the inter prediction value generation unit in FIG. 8 will be described. FIG. 8 is a block diagram of an inter prediction value generation unit that generates a prediction vector based on information for controlling a prediction vector generation method and a reference vector.

図8に示すブロック図は、予測ベクトル制御部(2)48を除き、図7と同等であるので、以下では、予測ベクトル制御部(2)48についてのみ説明する。   The block diagram shown in FIG. 8 is the same as FIG. 7 except for the prediction vector control unit (2) 48, and therefore only the prediction vector control unit (2) 48 will be described below.

予測ベクトル制御部(2)48では、予測ベクトル制御部(1)45から出力される処理ブロックにおける発明手法予測ベクトルの適否に関する情報45a、および符号化データに含まれる予測ベクトル生成に用いられた方法を表す制御情報30bを入力とする。同部48では、本発明予測ベクトルが適切であるとき、制御情報30bに従い予測ベクトル生成方法を制御する。同部48の出力として、予測ベクトル生成方法を制御するための信号48aを出力する。   In the prediction vector control unit (2) 48, information 45a on the suitability of the invention method prediction vector in the processing block output from the prediction vector control unit (1) 45, and the method used for generating the prediction vector included in the encoded data Is input as control information 30b. In the same unit 48, when the prediction vector of the present invention is appropriate, the prediction vector generation method is controlled according to the control information 30b. As an output of the unit 48, a signal 48a for controlling the prediction vector generation method is output.

図9は、図8の予測ベクトル制御部(1)45および予測ベクトル制御部(2)48の機能を説明するフローチャートである。図において、(イ)は予測ベクトル制御部(1)45の機能を示し、(ロ)は予測ベクトル制御部(2)48の機能を示すが、これらの機能は図から明らかであるので、説明を省略する。   FIG. 9 is a flowchart illustrating the functions of the prediction vector control unit (1) 45 and the prediction vector control unit (2) 48 in FIG. In the figure, (a) shows the function of the predictive vector control unit (1) 45, and (b) shows the function of the predictive vector control unit (2) 48. Is omitted.

次に、本発明の効果例を示す。シミュレーションとして、エンコーダに発明手法を実装し、符号化実験を行った。発明手法の適否判定における、参照ベクトルの乖離性及び密集性の評価は、前記の「(b)参照ベクトル間の距離を用いた評価」に従った。同評価におけるHDTV素材に対する符号化実験の結果、最大で約1.88%の平均符号量削減が得られた。以上より、発明手法により、符号化性能が改善することが確認された。   Next, an effect example of the present invention will be shown. As a simulation, the inventive method was implemented in an encoder and an encoding experiment was conducted. The evaluation of the divergence and density of the reference vectors in the determination of the suitability of the inventive method was in accordance with the above-mentioned “(b) Evaluation using the distance between reference vectors”. As a result of encoding experiments on HDTV material in the same evaluation, an average code amount reduction of about 1.88% at maximum was obtained. From the above, it was confirmed that the encoding performance was improved by the inventive method.

本発明のインター符号化予測値生成部を含む動画像符号化装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the moving image encoding apparatus containing the inter coding prediction value production | generation part of this invention. 本発明のインター予測値生成部を含む動画像復号装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the moving image decoding apparatus containing the inter estimated value production | generation part of this invention. 本発明のインター符号化予測値生成部の第1実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of 1st Embodiment of the inter coding prediction value production | generation part of this invention. 図3の予測ベクトル制御部(1)の動作の概略を示すフローチャートである。It is a flowchart which shows the outline of operation | movement of the prediction vector control part (1) of FIG. 本発明のインター符号化予測値生成部の第2実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of 2nd Embodiment of the inter coding prediction value production | generation part of this invention. 図5の予測ベクトル制御部(1)および予測ベクトル制御部(2)の動作の概略を示すフローチャートである。It is a flowchart which shows the outline of operation | movement of the prediction vector control part (1) of FIG. 5, and a prediction vector control part (2). 本発明のインター予測値生成部の第1実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of 1st Embodiment of the inter estimated value production | generation part of this invention. 本発明のインター予測値生成部の第2実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of 2nd Embodiment of the inter estimated value production | generation part of this invention. 図8の予測ベクトル制御部(1)および予測ベクトル制御部(2)の動作の概略を示すフローチャートである。It is a flowchart which shows the outline of operation | movement of the prediction vector control part (1) of FIG. 8, and a prediction vector control part (2). 従来方法による予測ベクトル生成方法の説明図である。It is explanatory drawing of the prediction vector production | generation method by the conventional method.

符号の説明Explanation of symbols

2・・・インター符号化予測値生成部、13・・・インター予測値生成部、22a、22b、44a、44b・・・評価値値算出部(1)、(2)、23、42・・・H.264予測ベクトル生成部、24、43・・・発明手法予測ベクトル生成部、25、45・・・予測ベクトル制御部(1)、30、48・・・予測ベクトル制御部(2)。   2 ... Inter-coded prediction value generation unit, 13 ... Inter prediction value generation unit, 22a, 22b, 44a, 44b ... Evaluation value value calculation unit (1), (2), 23, 42,.・ H. 264 prediction vector generation unit, 24, 43... Invention method prediction vector generation unit, 25, 45... Prediction vector control unit (1), 30, 48.

Claims (10)

マクロブロック単位での符号化の際にインター符号化を許容する動画像符号化装置において、
隣接する符号化済みブロックの動きベクトル(以下、参照ベクトル)の評価値を得る動きベクトル評価値算出部と、各参照ベクトルの評価値に基づき処理ブロックに対する参照ベクトルの適否を判断する予測ベクトル制御部と、該予測ベクトル制御部の判断に基づき参照ベクトルのメディアン値、もしくは各々2つの参照ベクトルの平均ベクトルのメディアン値を選択して予測ベクトルとする予測ベクトル生成部とを含むインター符号化予測値生成部を具備し、
処理ブロックに対する参照ベクトルの適否判断に基づき予測ベクトルを生成することを特徴とする動画像符号化装置。
In a video encoding apparatus that allows inter encoding when encoding in units of macroblocks,
A motion vector evaluation value calculation unit that obtains an evaluation value of a motion vector (hereinafter referred to as a reference vector) of an adjacent encoded block, and a prediction vector control unit that determines whether a reference vector is appropriate for a processing block based on the evaluation value of each reference vector And a prediction vector generation unit that selects a median value of a reference vector or a median value of an average vector of two reference vectors based on the determination of the prediction vector control unit to generate a prediction vector. Comprising
A moving picture coding apparatus, characterized in that a prediction vector is generated on the basis of determination of suitability of a reference vector for a processing block.
請求項1に記載の動画像符号化装置において、
前記参照ベクトルの評価値として、各参照ベクトルの水平成分および垂直成分の分散値が用いられることを特徴とする動画像符号化装置。
The moving image encoding device according to claim 1,
The moving picture coding apparatus characterized in that a variance value of a horizontal component and a vertical component of each reference vector is used as the evaluation value of the reference vector.
請求項1に記載の動画像符号化装置において、
前記参照ベクトルの評価値として、各参照ベクトルの各々2つの参照ベクトル間の距離が用いられることを特徴とする動画像符号化装置。
The moving image encoding device according to claim 1,
A moving picture encoding apparatus, wherein a distance between two reference vectors of each reference vector is used as the evaluation value of the reference vector.
請求項1ないし3のいずれかに記載の動画像符号化装置において、
前記予測ベクトル制御部は、前記参照ベクトルの評価値に基づいて処理ブロックに対する参照ベクトルの適否を判断し、その結果、参照ベクトルの平均ベクトルのメディアン値が処理ブロックの予測ベクトルとして適切である可能性があると判断された場合、該参照ベクトルの平均ベクトルのメディアン値を処理ブロックにおける予測ベクトルとすることを特徴とする動画像符号化装置。
The moving picture encoding device according to any one of claims 1 to 3,
The prediction vector control unit determines whether or not the reference vector for the processing block is appropriate based on the evaluation value of the reference vector, and as a result, the median value of the average vector of the reference vector may be appropriate as the prediction vector of the processing block. When it is judged that there is, the moving image encoding apparatus characterized by using the median value of the average vector of the reference vectors as the prediction vector in the processing block.
請求項1ないし3のいずれかに記載の動画像符号化装置において、
前記予測ベクトル制御部は、前記参照ベクトルの評価値に基づいて処理ブロックに対する参照ベクトルの適否を判断し、その結果、参照ベクトルの平均ベクトルのメディアン値が処理ブロックの予測ベクトルとして適切である可能性があると判断された場合、該処理ブロックの符号化データのビットストリームに、参照ベクトルの平均ベクトルのメディアン値もしくは参照ベクトルのメディアン値のどちらを予測ベクトルとして採用したかを表す制御情報を付与することを特徴とする動画像符号化装置。
The moving picture encoding device according to any one of claims 1 to 3,
The prediction vector control unit determines whether or not the reference vector for the processing block is appropriate based on the evaluation value of the reference vector, and as a result, the median value of the average vector of the reference vector may be appropriate as the prediction vector of the processing block. If it is determined that there is, control information indicating whether the median value of the average vector of the reference vector or the median value of the reference vector is adopted as the prediction vector is added to the bit stream of the encoded data of the processing block A moving picture coding apparatus characterized by the above.
マクロブロック単位での復号の際にインター符号化を許容する動画像復号装置において、
隣接する符号化済みブロックの動きベクトル(以下、参照ベクトル)の評価値を得る動きベクトル評価値算出部と、各参照ベクトルの評価値に基づき処理ブロックに対する参照ベクトルの適否を判断する予測ベクトル制御部と、該予測ベクトル制御部の判断に基づき参照ベクトルのメディアン値、もしくは各々2つの参照ベクトルの平均ベクトルのメディアン値を選択して予測ベクトルとする予測ベクトル生成部とを含むインター予測値生成部を具備し、
処理ブロックに対する参照ベクトルの適否判断に基づき予測ベクトルを生成することを特徴とする動画像復号装置。
In a video decoding device that allows inter-coding when decoding in units of macroblocks,
A motion vector evaluation value calculation unit that obtains an evaluation value of a motion vector (hereinafter referred to as a reference vector) of an adjacent encoded block, and a prediction vector control unit that determines whether a reference vector is appropriate for a processing block based on the evaluation value of each reference vector An inter prediction value generation unit including a prediction vector generation unit that selects a median value of a reference vector or a median value of an average vector of two reference vectors based on the determination of the prediction vector control unit, and sets the prediction vector as a prediction vector. Equipped,
A moving picture decoding apparatus, characterized in that a prediction vector is generated based on determination of suitability of a reference vector for a processing block.
請求項6に記載の動画像復号装置において、
前記参照ベクトルの評価値として、各参照ベクトルの水平成分および垂直成分の分散値が用いられることを特徴とする動画像復号装置。
The moving picture decoding apparatus according to claim 6,
A moving picture decoding apparatus characterized in that a variance value of a horizontal component and a vertical component of each reference vector is used as the evaluation value of the reference vector.
請求項6に記載の動画像符号化装置において、
前記参照ベクトルの評価値として、各参照ベクトルの各々2つの参照ベクトル間の距離が用いられることを特徴とする動画像復号装置。
The moving picture encoding apparatus according to claim 6, wherein
A distance between two reference vectors of each reference vector is used as the evaluation value of the reference vector.
請求項6,7または8に記載の動画像復号装置において、
前記予測ベクトル制御部は、前記参照ベクトルの評価値に基づいて処理ブロックに対する参照ベクトルの適否を判断し、その結果、参照ベクトルの平均ベクトルのメディアン値が処理ブロックの予測ベクトルとして適切である可能性があると判断された場合、該参照ベクトルの平均ベクトルのメディアン値を処理ブロックにおける予測ベクトルとすることを特徴とする動画像復号装置。
The moving picture decoding apparatus according to claim 6, 7 or 8,
The prediction vector control unit determines whether or not the reference vector for the processing block is appropriate based on the evaluation value of the reference vector, and as a result, the median value of the average vector of the reference vector may be appropriate as the prediction vector of the processing block. When it is judged that there is, the moving picture decoding apparatus characterized by using the median value of the average vector of the reference vectors as the prediction vector in the processing block.
請求項6,7または8に記載の動画像復号装置において、
前記処理ブロックの符号化データのビットストリームから制御情報を解析する手段をさらに具備し、
前記予測ベクトル制御部は、前記参照ベクトルの評価値に基づいて処理ブロックに対する参照ベクトルの適否を判断し、その結果、参照ベクトルの平均ベクトルのメディアン値が処理ブロックの予測ベクトルとして適切である可能性があると判断された場合、前記ビットストリームから得られる制御情報に基づき、参照ベクトルの平均ベクトルのメディアン値もしくは参照ベクトルのメディアン値のどちらかを予測ベクトルとして用いることを特徴とする動画像復号装置。
The moving picture decoding apparatus according to claim 6, 7 or 8,
Means for analyzing control information from the bit stream of the encoded data of the processing block;
The prediction vector control unit determines whether or not the reference vector for the processing block is appropriate based on the evaluation value of the reference vector, and as a result, the median value of the average vector of the reference vector may be appropriate as the prediction vector of the processing block. When it is determined that there is an image, a moving picture decoding apparatus using, based on control information obtained from the bitstream, a median value of an average vector of reference vectors or a median value of reference vectors as a prediction vector .
JP2008196118A 2008-07-30 2008-07-30 Video encoding apparatus and decoding apparatus Expired - Fee Related JP5099776B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008196118A JP5099776B2 (en) 2008-07-30 2008-07-30 Video encoding apparatus and decoding apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008196118A JP5099776B2 (en) 2008-07-30 2008-07-30 Video encoding apparatus and decoding apparatus

Publications (2)

Publication Number Publication Date
JP2010034946A true JP2010034946A (en) 2010-02-12
JP5099776B2 JP5099776B2 (en) 2012-12-19

Family

ID=41738911

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008196118A Expired - Fee Related JP5099776B2 (en) 2008-07-30 2008-07-30 Video encoding apparatus and decoding apparatus

Country Status (1)

Country Link
JP (1) JP5099776B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012042810A1 (en) * 2010-09-29 2012-04-05 パナソニック株式会社 Image encoding method, image decoding method, image encoding device, image decoding device, and image processing system

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05227522A (en) * 1991-09-20 1993-09-03 Sony Corp Picture encoder and decoder
JPH10224800A (en) * 1997-02-07 1998-08-21 Matsushita Electric Ind Co Ltd Motion vector coding method and decoding method
JPH11112994A (en) * 1997-09-12 1999-04-23 Lg Semicon Co Ltd Motion vector coding method of mpeg-4
JPH11122620A (en) * 1997-09-30 1999-04-30 Daewoo Electron Co Ltd Motion vector coder
JP2000138935A (en) * 1998-10-29 2000-05-16 Fujitsu Ltd Motion vector encoding device and decoding device
JP2001197501A (en) * 2000-01-07 2001-07-19 Fujitsu Ltd Motion vector searching device and motion vector searching method, and moving picture coder
JP2005101811A (en) * 2003-09-24 2005-04-14 Kddi Corp Motion vector detecting apparatus
JP2006074474A (en) * 2004-09-02 2006-03-16 Toshiba Corp Moving image encoder, encoding method, and encoding program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05227522A (en) * 1991-09-20 1993-09-03 Sony Corp Picture encoder and decoder
JPH10224800A (en) * 1997-02-07 1998-08-21 Matsushita Electric Ind Co Ltd Motion vector coding method and decoding method
JPH11112994A (en) * 1997-09-12 1999-04-23 Lg Semicon Co Ltd Motion vector coding method of mpeg-4
JPH11122620A (en) * 1997-09-30 1999-04-30 Daewoo Electron Co Ltd Motion vector coder
JP2000138935A (en) * 1998-10-29 2000-05-16 Fujitsu Ltd Motion vector encoding device and decoding device
JP2001197501A (en) * 2000-01-07 2001-07-19 Fujitsu Ltd Motion vector searching device and motion vector searching method, and moving picture coder
JP2005101811A (en) * 2003-09-24 2005-04-14 Kddi Corp Motion vector detecting apparatus
JP2006074474A (en) * 2004-09-02 2006-03-16 Toshiba Corp Moving image encoder, encoding method, and encoding program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012042810A1 (en) * 2010-09-29 2012-04-05 パナソニック株式会社 Image encoding method, image decoding method, image encoding device, image decoding device, and image processing system

Also Published As

Publication number Publication date
JP5099776B2 (en) 2012-12-19

Similar Documents

Publication Publication Date Title
KR101473278B1 (en) Image prediction encoding device, image prediction decoding device, image prediction encoding method, image prediction decoding method, image prediction encoding program, and image prediction decoding program
US20110013697A1 (en) Motion vector prediction method, and apparatus and method for encoding and decoding image using the same
JP2010135864A (en) Image encoding method, device, image decoding method, and device
JPWO2013065402A1 (en) Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding method, and moving picture decoding method
JP2007329693A (en) Image encoding device and method
JP4195057B2 (en) A method for determining an adaptive motion vector search region, and an image compression apparatus for determining an adaptive motion vector search region.
JP2007201558A (en) Moving picture coding apparatus and moving picture coding method
JP2011199362A (en) Device and method for encoding of moving picture, and device and method for decoding of moving picture
JP2008048065A (en) Moving image encoding apparatus
JP5004180B2 (en) Video encoding apparatus and decoding apparatus
JP2006217569A (en) Apparatus, method, and program for image coded string conversion
JP2012142702A (en) Image processing device, method, and program
JP4786612B2 (en) Predicted motion vector generation apparatus for moving picture encoding apparatus
JP4868539B2 (en) Video encoding apparatus and decoding apparatus
JP5184447B2 (en) Video encoding apparatus and decoding apparatus
JP2011091772A (en) Image encoder
JP2009260421A (en) Moving image processing system, encoding device, encoding method, encoding program, decoding device, decoding method and decoding program
JP2005244749A (en) Dynamic image encoding device
JP5099776B2 (en) Video encoding apparatus and decoding apparatus
JP5760950B2 (en) Moving picture re-encoding device, moving picture re-encoding method, and moving picture re-encoding computer program
JP2005184241A (en) System for determining moving picture interframe mode
JP2005260576A (en) Image encoding method and device
KR20110134404A (en) Method for predicting a block of image data, decoding and coding devices implementing said method
WO2020059616A1 (en) Image encoding device, image decoding device, and program
JP5281597B2 (en) Motion vector prediction method, motion vector prediction apparatus, and motion vector prediction program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120111

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120919

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120920

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151005

Year of fee payment: 3

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees