JP2017225145A - Decoding device, decoding method, and program - Google Patents

Decoding device, decoding method, and program Download PDF

Info

Publication number
JP2017225145A
JP2017225145A JP2017143420A JP2017143420A JP2017225145A JP 2017225145 A JP2017225145 A JP 2017225145A JP 2017143420 A JP2017143420 A JP 2017143420A JP 2017143420 A JP2017143420 A JP 2017143420A JP 2017225145 A JP2017225145 A JP 2017225145A
Authority
JP
Japan
Prior art keywords
motion vector
vector
block
decoded
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017143420A
Other languages
Japanese (ja)
Other versions
JP6387159B2 (en
Inventor
前田 充
Mitsuru Maeda
充 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017143420A priority Critical patent/JP6387159B2/en
Publication of JP2017225145A publication Critical patent/JP2017225145A/en
Application granted granted Critical
Publication of JP6387159B2 publication Critical patent/JP6387159B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a decoding device, a decoding method, and a program for improving encoding efficiency by encoding a motion vector in an enhancement layer of hierarchical coding with a simpler configuration.SOLUTION: In motion vector coding of an enhancement layer, when motion vectors of different layers are present, a vector group of different predicted motion vector candidates is created without including it in a vector group of the predicted motion vector candidates of the temporally previous image in the same layer.SELECTED DRAWING: Figure 6

Description

本発明は画像の符号化・復号において、動き補償を用いて画像に含まれるブロックを復号する処理に関する。 The present invention relates to a process of decoding a block included in an image using motion compensation in image encoding / decoding.

動画像の圧縮記録の符号化方式として、H.264/MPEG−4 AVC(以下H.264と略す)が知られている(非特許文献1)。H.264においては従来の符号化方式と同様に他のピクチャを参照して動き補償を行うことによって符号化効率を向上させている。マクロブロック(16画素×16画素)単位またはブロック(8画素×8画素等)単位に動きベクトルを符号化することできる。動きベクトルの符号化においては周囲のブロック(左、上、右上)の動きベクトルの中央値を用いて予測動きベクトルを算出し、これと符号化対象の動きベクトルとの誤差を符号化している。また、H.264では階層符号化を行うことができる。非特許文献1のAnnex G Scalable video codingの章に記載されている。空間スケーラビリティの場合、拡張レイヤの動きベクトルの符号化時に通常の動きベクトルの中央値の代わりに、基本レイヤのブロックの動きベクトルを拡大して予測動きベクトル(以後、レイヤ間予測動きベクトルと呼ぶ)とすることができる。すなわち、motion_prediction_flagを用いて、この値が真であれば拡大して得られた動きベクトルを用いることができる。 As an encoding method for compression recording of moving images, H.264 is used. H.264 / MPEG-4 AVC (hereinafter abbreviated as H.264) is known (Non-Patent Document 1). H. In H.264, encoding efficiency is improved by performing motion compensation with reference to other pictures as in the conventional encoding method. Motion vectors can be encoded in units of macroblocks (16 pixels × 16 pixels) or blocks (8 pixels × 8 pixels, etc.). In coding a motion vector, a predicted motion vector is calculated using a median value of motion vectors of surrounding blocks (left, top, and top right), and an error between this motion vector and a motion vector to be coded is coded. H. In H.264, hierarchical encoding can be performed. It is described in the section of Annex G Scalable video coding in Non-Patent Document 1. In the case of spatial scalability, a prediction motion vector (hereinafter referred to as an inter-layer prediction motion vector) is obtained by expanding a motion vector of a base layer block instead of the normal median motion vector when encoding an enhancement layer motion vector. It can be. That is, using motion_prediction_flag, if this value is true, a motion vector obtained by enlarging can be used.

また、近年、H.264の後継としてさらに高効率な符号化方式の国際標準化を行う活動が開始された。このために、JCT−VC(Joint CollaborativeTeam on Video Coding)がISO/IECとITU−Tの間で設立された。ここではHigh Efficiency Video Coding符号化方式(以下、HEVCと略す)として標準化が進められている。HEVCでは動きベクトルの新しい符号化方式として、Advanced Motion Vector Prediction(以下、AMVP)が提案されている(非特許文献2)。AMVPでは周囲のブロックの動きベクトルの中央値を参照動きベクトルとするだけではなく、周囲のブロックの動きベクトル自体も参照動きベクトルとなる。また、周囲のブロックの動きベクトルだけではなく、符号化順で前のピクチャの同じ位置のブロックの動きベクトル(以後、時間方向予測動きベクトル)も含めて予測動きベクトルとする。これらの予測動きベクトルから同じ成分の動きベクトルをまとめることで対象となる動きベクトルを削減し、この中から最も近い動きベクトルを選択する。選択された動きベクトルを識別する符号(以下、予測ベクトルインデックス符号)と予測の結果の予測誤差を符号化する。これにより、符号化効率の向上を図っている。 In recent years, H.C. As a successor to H.264, activities to start international standardization of a more efficient coding method have started. For this purpose, JCT-VC (Joint Collaborative Team on Video Coding) was established between ISO / IEC and ITU-T. Here, standardization is underway as a High Efficiency Video Coding encoding method (hereinafter abbreviated as HEVC). In HEVC, Advanced Motion Vector Prediction (hereinafter AMVP) has been proposed as a new motion vector encoding method (Non-patent Document 2). In AMVP, not only the median value of the motion vectors of the surrounding blocks is used as a reference motion vector, but also the motion vectors of the surrounding blocks themselves become reference motion vectors. In addition, not only the motion vectors of the surrounding blocks but also the motion vectors of the blocks at the same position of the previous picture in the coding order (hereinafter, temporal direction predicted motion vectors) are used as the predicted motion vectors. The target motion vectors are reduced by combining the motion vectors of the same component from these predicted motion vectors, and the closest motion vector is selected from these. A code for identifying the selected motion vector (hereinafter, a prediction vector index code) and a prediction error of a prediction result are encoded. As a result, the encoding efficiency is improved.

ISO/IEC14496−10:2010 Information technology−−Coding of audio−visual objects−−Part10:Advanced Video CodingISO / IEC14496-10: 2010 Information technology--Coding of audio-visual objects--Part10: Advanced Video Coding JCT−VC 寄書 JCTVC−A124_r2.doc インターネット< http://wftp3.itu.int/av−arch/jctvc−site/2010_04_A_Dresden/>JCT-VC contribution JCTVC-A124_r2. doc Internet <http: // wftp3. itu. int / av-arch / jctvc-site / 2010_04_A_Dresden />

HEVCにおいて、階層符号化を実現しようとした時、H.264のように拡張レイヤの動きベクトルまたは基本レイヤの動きベクトルを参照するかを選択することになる。しかしながら、H.264のように参照動きベクトルを選択するのであれば前述の方式でも構わないが、AMVPによる予測ベクトルインデックス符号とレイヤ間動きベクトルの予測を選択するフラグが必要になり符号化効率が向上しないという問題が生じている。 In HEVC, when trying to realize hierarchical coding, Whether to refer to the motion vector of the enhancement layer or the motion vector of the base layer as in H.264 is selected. However, H.C. If the reference motion vector is selected as in H.264, the above-described method may be used. However, a flag for selecting a prediction vector index code by AMVP and prediction of an inter-layer motion vector is required, and the coding efficiency is not improved. Has occurred.

したがって、本発明は上述した課題を解決するためになされたものであり、階層符号化の拡張レイヤでの動きベクトルの符号化をより簡易な構成で行い、符号化効率の向上を図ることを目的としている。 Therefore, the present invention has been made to solve the above-described problem, and it is an object of the present invention to perform coding of motion vectors in an enhancement layer of hierarchical coding with a simpler configuration and improve coding efficiency. It is said.

前述の問題点を解決するため、本発明の復号装置は以下の構成を有する。
複数のレイヤを用いて階層符号化されたビットストリームから、画像に含まれる少なくとも1つのブロックを復号する復号装置であって、復号対象の画像が属する第1レイヤにおける、復号対象のブロックが属する画像より前に復号済みである画像に含まれ、当該復号対象のブロックに対応する位置にあるブロックの動きベクトルである第1ベクトルと、前記復号対象の画像が属する第1レイヤとは異なる第2レイヤにおける画像に含まれ、復号対象のブロックに対応する位置にあるブロックの動きベクトルである第2ベクトルと、前記復号対象の画像が属する第1レイヤにおける画像に含まれ、復号対象のブロックの周囲のブロックの動きベクトルである第3ベクトルと、を取得する取得手段と、前記第1ベクトル、前記第2ベクトル、及び前記第3ベクトルから、前記取得手段によって取得すべき候補となる動きベクトル群を決定し、当該決定に基づいて取得された候補となる動きベクトル群のうち、前記ビットストリームから復号された予測動きベクトルを表す識別情報に対応する動きベクトルを復号対象のブロックの動きベクトルの予測に用いる予測動きベクトルとして決定する決定手段と、前記決定手段によって決定された予測動きベクトルに基づいて、前記復号対象のブロックを復号する復号手段とを有し、前記決定手段は、前記第2ベクトルが前記候補となる動きベクトル群に存在する場合に、前記第1ベクトルを前記候補となる動きベクトル群として含めずに、前記第2ベクトルと、前記第3ベクトルとのうちの少なくともいずれか一つを、前記候補となる動きベクトル群として決定することを特徴とする復号装置。
In order to solve the above-described problems, the decoding device of the present invention has the following configuration.
A decoding device that decodes at least one block included in an image from a bitstream that is hierarchically encoded using a plurality of layers, wherein the image to which the block to be decoded belongs in the first layer to which the image to be decoded belongs A first vector that is included in an image that has been decoded earlier and that is a motion vector of a block at a position corresponding to the block to be decoded, and a second layer that is different from the first layer to which the image to be decoded belongs The second vector, which is a motion vector of a block located at a position corresponding to the block to be decoded, and the image in the first layer to which the image to be decoded belongs and around the block to be decoded Obtaining means for obtaining a third vector which is a motion vector of the block; the first vector; the second vector; A motion vector group that is a candidate to be acquired by the acquisition unit is determined from the third vector, and among the motion vector groups that are candidates acquired based on the determination, a predicted motion vector decoded from the bitstream Determining means for determining a motion vector corresponding to the identification information representing the prediction motion vector used for prediction of the motion vector of the block to be decoded, and based on the prediction motion vector determined by the determining means, the block to be decoded And when the second vector exists in the candidate motion vector group, the determining unit does not include the first vector as the candidate motion vector group, At least one of the second vector and the third vector is used as the candidate motion vector. Decoding apparatus characterized by determining a torque group.

さらに、本発明の復号方法は以下の構成を有する。 Furthermore, the decoding method of the present invention has the following configuration.

複数のレイヤを用いて階層符号化されたビットストリームから、画像に含まれる少なくとも1つのブロックを復号する復号方法であって、前記ビットストリームから予測動きベクトルを表わす識別情報を復号するステップと、復号対象の画像が属する第1レイヤにおける、復号対象のブロックが属する画像より前に復号済みである画像に含まれ、前記復号対象のブロックに対応する位置にあるブロックの動きベクトルである第1ベクトル、前記復号対象の画像が属する第1レイヤとは異なる第2レイヤにおける画像に含まれ、前記復号対象のブロックに対応する位置にあるブロックの動きベクトルである第2ベクトル、および前記復号対象の画像が属する第1レイヤにおける画像の、前記復号対象のブロックの周囲のブロックの動きベクトルである第3ベクトルから、前記復号対象のブロックの動きベクトルの予測に用いる候補となる動きベクトル群を決定するステップと、当該決定された候補となる動きベクトル群のうち、前記復号された識別情報に対応するベクトルを復号対象のブロックの動きベクトルの予測に用いる予測動きベクトルとして決定するステップと、前記決定された予測動きベクトルに基づいて、前記復号対象のブロックを復号するステップとを有し、前記動きベクトル群を決定するステップにおいて、前記第2ベクトルが前記候補となるベクトル群に存在する場合に、前記第1ベクトルを前記候補となる動きベクトル群として含めずに、前記第2ベクトルと、前記第3ベクトルとのうちの少なくともいずれか一つを、前記候補となるベクトル群として決定することを特徴とする復号方法。   A decoding method for decoding at least one block included in an image from a bitstream hierarchically encoded using a plurality of layers, the step of decoding identification information representing a predicted motion vector from the bitstream, and decoding A first vector that is a motion vector of a block at a position corresponding to the block to be decoded, included in an image that has been decoded before the image to which the block to be decoded belongs, in the first layer to which the target image belongs; A second vector, which is a motion vector of a block at a position corresponding to the block to be decoded, is included in an image in a second layer different from the first layer to which the image to be decoded belongs, and the image to be decoded Motion vectors of blocks around the block to be decoded, of the image in the first layer to which it belongs A step of determining a motion vector group that is a candidate for use in predicting a motion vector of the block to be decoded from a certain third vector, and the decoded identification information in the determined motion vector group that is the candidate Determining a corresponding vector as a predicted motion vector used for prediction of a motion vector of a block to be decoded, and decoding the block to be decoded based on the determined predicted motion vector, In the step of determining a motion vector group, when the second vector exists in the candidate vector group, the second vector is not included as the candidate motion vector group, and the second vector, At least one of the third vectors is determined as the candidate vector group Decoding method comprising and.

本発明により、符号化効率が向上したデータを処理するための復号装置および方法を提供することができる。 According to the present invention, it is possible to provide a decoding apparatus and method for processing data with improved encoding efficiency.

実施形態1における画像符号化装置の構成を示すブロック図1 is a block diagram illustrating a configuration of an image encoding device according to a first embodiment. 実施形態1に係る画像符号化装置における動きベクトル符号化部102の詳細なブロック図Detailed block diagram of the motion vector encoding unit 102 in the image encoding device according to the first embodiment. 実施形態1に係る画像符号化装置における動きベクトル符号化部105の詳細なブロック図Detailed block diagram of the motion vector encoding unit 105 in the image encoding device according to the first embodiment. 実施形態1に係る画像符号化装置における基本レイヤ動きベクトル符号化処理を示すフローチャート7 is a flowchart showing base layer motion vector encoding processing in the image encoding device according to the first embodiment. 実施形態1に係る画像符号化装置における拡張レイヤ動きベクトル符号化処理を示すフローチャート7 is a flowchart showing enhancement layer motion vector encoding processing in the image encoding device according to the first embodiment. ブロックと動きベクトルの一例を示す図Diagram showing examples of blocks and motion vectors 実施形態2に係る画像復号装置の構成を示すブロック図FIG. 6 is a block diagram illustrating a configuration of an image decoding device according to a second embodiment. 実施形態2に係る動きベクトル復号部701の詳細なブロック図Detailed block diagram of the motion vector decoding unit 701 according to the second embodiment 実施形態2に係る動きベクトル復号部704の詳細なブロック図Detailed block diagram of the motion vector decoding unit 704 according to the second embodiment 実施形態2における画像復号装置における基本レイヤ動きベクトル復号処理を示すフローチャート10 is a flowchart illustrating base layer motion vector decoding processing in the image decoding apparatus according to the second embodiment. 実施形態2における画像復号装置における拡張レイヤ動きベクトル復号処理を示すフローチャート10 is a flowchart showing enhancement layer motion vector decoding processing in the image decoding apparatus according to the second embodiment. 実施形態3に係る画像符号化装置における動きベクトル符号化部105の詳細なブロック図Detailed block diagram of the motion vector encoding unit 105 in the image encoding device according to the third embodiment. 実施形態3に係る画像符号化装置における拡張レイヤ動きベクトル符号化処理を示すフローチャート10 is a flowchart showing enhancement layer motion vector encoding processing in the image encoding device according to the third embodiment. 実施形態4に係る動きベクトル復号部704の詳細なブロック図Detailed block diagram of the motion vector decoding unit 704 according to the fourth embodiment 実施形態4に係る画像符号化装置における拡張レイヤ動きベクトル符号化処理を示すフローチャート10 is a flowchart showing enhancement layer motion vector encoding processing in the image encoding device according to the fourth embodiment. ブロックと動きベクトルの一例を示す図Diagram showing examples of blocks and motion vectors 本発明の画像符号化装置、復号装置に適用可能なコンピュータのハードウェアの構成例を示すブロック図The block diagram which shows the structural example of the hardware of the computer applicable to the image coding apparatus of this invention, and a decoding apparatus.

以下、添付の図面を参照して、本願発明をその好適な実施形態に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。 Hereinafter, the present invention will be described in detail based on the preferred embodiments with reference to the accompanying drawings. The configurations shown in the following embodiments are merely examples, and the present invention is not limited to the illustrated configurations.

<実施形態1>
以下、本発明の実施形態を、図面を用いて説明する。図1は本実施形態の画像符号化装置を示すブロック図である。図1において、106は画像データを入力する端子である。107は入力された画像データをピクチャ毎に格納するフレームメモリである。113は変倍部であり、入力された画像データを倍率n/m(n、mは正の数)で変倍する。114は変倍された画像データをピクチャ単位で格納するフレームメモリである。108、115は予測部であり、画像データを複数のブロックに切り出し、フレーム内予測であるイントラ予測や、動き補償によるインター予測等を行い、予測画像データを生成する。但し、予測の方法についてはこれらに限定されない。さらに入力された画像データと前記予測画像データから予測誤差を算出し、出力する。インター予測を行う場合は符号化済みの他のピクチャを参照し、動きベクトルを算出し、出力する。また予測に必要な情報、例えば、イントラ予測モード等の情報も予測誤差と併せて出力される。109、116は前記予測誤差をブロック単位で直交変換して変換係数を得て、さらに量子化を行い、量子化係数を得る変換・量子化部である。112、119は再生された画像データを格納しておくフレームメモリである。111、118は画像再生部である。ブロック単位で量子化係数を入力し、逆量子化を行って、変換係数を得て、さらに逆直交変換を行い、予測誤差を再生する。予測部108、115から動きベクトルや予測に関する情報からフレームメモリ112、119を適宜参照して予測画像データを生成し、これと再生された予測誤差から再生画像データを生成し、出力する。110、117は変換・量子化部109、116から出力された量子化係数を符号化して量子化係数符号データを生成する係数符号化部である。
<Embodiment 1>
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing an image encoding apparatus according to this embodiment. In FIG. 1, reference numeral 106 denotes a terminal for inputting image data. A frame memory 107 stores input image data for each picture. A scaling unit 113 scales input image data at a magnification of n / m (n and m are positive numbers). A frame memory 114 stores the scaled image data in units of pictures. Reference numerals 108 and 115 denote prediction units, which cut out image data into a plurality of blocks, perform intra prediction that is intraframe prediction, inter prediction by motion compensation, and the like to generate predicted image data. However, the prediction method is not limited to these. Further, a prediction error is calculated from the input image data and the predicted image data and output. When performing inter prediction, a motion vector is calculated and output by referring to another encoded picture. Information necessary for prediction, for example, information such as the intra prediction mode is also output together with the prediction error. Reference numerals 109 and 116 denote transform / quantization units that perform orthogonal transform on the prediction error in units of blocks to obtain transform coefficients, perform further quantization, and obtain quantized coefficients. Reference numerals 112 and 119 denote frame memories for storing reproduced image data. Reference numerals 111 and 118 denote image reproduction units. A quantization coefficient is input in units of blocks, inverse quantization is performed to obtain a transform coefficient, inverse orthogonal transform is further performed, and a prediction error is reproduced. Predictive image data is generated from the prediction units 108 and 115 with reference to the frame memories 112 and 119 as appropriate from information related to motion vectors and prediction, and reproduced image data is generated and output from the reproduced prediction error. Reference numerals 110 and 117 denote coefficient coding units that code the quantized coefficients output from the transform / quantization units 109 and 116 to generate quantized coefficient code data.

100は本発明に関する動きベクトル符号化装置である。101、104はブロック単位で動きベクトルを保持する動きベクトル保持部である。動きベクトル保持部104は予測部108で生成された動きベクトルを、動きベクトル保持部101は予測部115で生成された動きベクトルを、保持しておく。102、105は予測部108、115で生成したブロックの動きベクトルを符号化して動きベクトル符号データを生成する動きベクトル符号化部である。103は変倍部113の変倍率に応じて動きベクトルを変倍する動きベクトル変倍部である。120は変倍部であり、変倍部113と逆の変倍率(m/n)でフレームメモリ119の画像データを変倍する。 Reference numeral 100 denotes a motion vector encoding apparatus according to the present invention. Reference numerals 101 and 104 denote motion vector holding units that hold motion vectors in units of blocks. The motion vector holding unit 104 holds the motion vector generated by the prediction unit 108, and the motion vector holding unit 101 holds the motion vector generated by the prediction unit 115. Reference numerals 102 and 105 denote motion vector encoding units that generate motion vector code data by encoding the motion vectors of the blocks generated by the prediction units 108 and 115, respectively. Reference numeral 103 denotes a motion vector scaling unit that scales the motion vector in accordance with the scaling factor of the scaling unit 113. A scaling unit 120 scales image data in the frame memory 119 with a scaling factor (m / n) opposite to that of the scaling unit 113.

121、122は統合符号化部である。ヘッダ情報や予測に関する情報の符号データを生成するとともに、動きベクトル符号化部102、105で生成された動きベクトル符号データおよび係数符号化部110、117で生成された量子化係数符号データを統合する。 Reference numerals 121 and 122 denote integrated encoding units. Code data for header information and prediction information is generated, and the motion vector code data generated by the motion vector encoding units 102 and 105 and the quantized coefficient code data generated by the coefficient encoding units 110 and 117 are integrated. .

ここで、フレームメモリ114、119、予測部115、変換・量子化部116、係数符号化部117、画像再生部118、動きベクトル保持部101、動きベクトル符号化部102は基本レイヤの画像データを符号化する。また、フレームメモリ107、112、予測部108、変換・量子化部109、係数符号化部110、画像再生部111、動きベクトル保持部104、動きベクトル符号化部105は拡張レイヤの画像データを符号化する。 Here, the frame memories 114 and 119, the prediction unit 115, the transform / quantization unit 116, the coefficient encoding unit 117, the image reproduction unit 118, the motion vector holding unit 101, and the motion vector encoding unit 102 store the base layer image data. Encode. The frame memories 107 and 112, the prediction unit 108, the transform / quantization unit 109, the coefficient encoding unit 110, the image reproduction unit 111, the motion vector holding unit 104, and the motion vector encoding unit 105 code the enhancement layer image data. Turn into.

123はこれらの基本レイヤの符号データと拡張レイヤの符号データを多重化してビットストリームを形成する多重化部である。124は端子であり、多重化部123で生成されたビットストリームを外部に出力する端子である。 A multiplexing unit 123 multiplexes these base layer code data and enhancement layer code data to form a bitstream. A terminal 124 is a terminal for outputting the bit stream generated by the multiplexing unit 123 to the outside.

上記画像符号化装置における画像の符号化動作を以下に説明する。最初に基本レイヤの符号化動作について説明する。 An image encoding operation in the image encoding apparatus will be described below. First, the base layer encoding operation will be described.

端子106から入力された1フレーム分の画像データはフレームメモリ107に格納される。変倍部113ではフレームメモリ107に格納された画像データを所定の倍率n/mで変倍する。空間スケーラビリティの場合、n/mは1未満の値となる。変倍された画像データはフレームメモリ114に格納される。また、変倍率は変倍部120、動きベクトル変倍部103に入力される。 Image data for one frame input from the terminal 106 is stored in the frame memory 107. The scaling unit 113 scales the image data stored in the frame memory 107 at a predetermined magnification n / m. In the case of spatial scalability, n / m is a value less than 1. The scaled image data is stored in the frame memory 114. The scaling factor is input to the scaling unit 120 and the motion vector scaling unit 103.

予測部115はイントラ予測または動き補償によるインター予測を行う。変倍部120はフレームメモリ119の基本レイヤの画像データをm/n倍に変倍して基本レイヤの参照画像データを生成する。インター予測の場合はフレームメモリ119に格納されている符号化済みのピクチャと基本レイヤの参照画像データを参照し、動きベクトルを算出する。算出された動きベクトルは画像再生部118、動きベクトル保持部101に入力される。動きベクトル保持部101はブロック単位で動きベクトルを保持する。また、予測部115は生成した予測誤差を変換・量子化部116に入力する。変換・量子化部116で生成された量子化係数は係数符号化部117に入力され、エントロピー符号化され量子化係数符号データを生成する。エントロピー符号化の方法は特に限定しないが、ゴロム符号化、算術符号化、ハフマン符号化などを用いることができる。また、量子化係数、動きベクトル及び予測に関する情報が画像再生部118に入力され、符号化対象のブロックの再生画像を生成し、フレームメモリ119に格納される。 The prediction unit 115 performs intra prediction by intra prediction or motion compensation. The scaling unit 120 scales the base layer image data in the frame memory 119 to m / n times to generate base layer reference image data. In the case of inter prediction, a motion vector is calculated by referring to an encoded picture stored in the frame memory 119 and reference image data of a base layer. The calculated motion vector is input to the image reproduction unit 118 and the motion vector holding unit 101. The motion vector holding unit 101 holds a motion vector in units of blocks. Further, the prediction unit 115 inputs the generated prediction error to the transform / quantization unit 116. The quantization coefficient generated by the transform / quantization unit 116 is input to the coefficient encoding unit 117 and entropy-coded to generate quantized coefficient code data. The entropy encoding method is not particularly limited, but Golomb encoding, arithmetic encoding, Huffman encoding, or the like can be used. Also, information regarding the quantization coefficient, the motion vector, and the prediction is input to the image reproduction unit 118, and a reproduction image of the block to be encoded is generated and stored in the frame memory 119.

予測部115で生成された動きベクトルは動きベクトル符号化部102で符号化され、動きベクトル符号データを生成する。図2に動きベクトル符号化部102の詳細なブロック図を示す。図2において、201は端子であり、動きベクトル保持部101から動きベクトルを入力する。202は端子であり、予測部115から符号化対象ブロックの動きベクトルを入力する。203は動きベクトル抽出部であり、端子201を通じて符号化対象ブロックの周囲の動きベクトルないし前に符号化されたピクチャの動きベクトルを抽出する。204は動きベクトル統合部であり、同じ成分の動きベクトルをまとめ、参照動きベクトル群を生成する。また、参照動きベクトル群ではまとめられた動きベクトルを所定の順に並べられている。並べ方に関しては特に限定しないが、成分の大きさ順、発生確率の高い順、抽出されたブロックの位置等に基づいて並べられる。並べ方は復号側と同じ方法をとればいずれの方法でも構わない。 The motion vector generated by the prediction unit 115 is encoded by the motion vector encoding unit 102 to generate motion vector code data. FIG. 2 shows a detailed block diagram of the motion vector encoding unit 102. In FIG. 2, reference numeral 201 denotes a terminal that inputs a motion vector from the motion vector holding unit 101. Reference numeral 202 denotes a terminal which inputs the motion vector of the encoding target block from the prediction unit 115. A motion vector extraction unit 203 extracts a motion vector around the encoding target block or a motion vector of a previously encoded picture through a terminal 201. A motion vector integration unit 204 collects motion vectors of the same component and generates a reference motion vector group. In the reference motion vector group, the combined motion vectors are arranged in a predetermined order. The arrangement is not particularly limited, but the arrangement is based on the order of the component size, the order of occurrence probability, the position of the extracted block, and the like. Any method can be used as long as it is arranged on the decoding side.

205は予測動きベクトル選択部であり、端子202から符号化対象のブロックの動きベクトルを、動きベクトル統合部204から参照動きベクトル群を入力する。入力された参照動きベクトル群から符号化対象のブロックの動きベクトルに最も近い動きベクトルを予測動きベクトルとして選択する。選択された予測動きベクトルを参照動きベクトル群で識別するための識別番号と、選択された予測動きベクトルを出力する。206はインデックス符号化部であり、出力された識別番号を符号化して識別情報符号データを生成する。識別番号の符号化の方法は特に限定しないが、ゴロム符号化、算術符号化、ハフマン符号化などを用いることができる。207は予測部であり、入力された予測動きベクトルで符号化対象のブロックの動きベクトルを予測した時の予測誤差を出力する。208は動きベクトルの予測誤差を符号化して動きベクトル予測誤差符号データを生成する動きベクトル誤差符号化部である。動きベクトルの予測誤差を符号化する方法は特に限定しないが、ゴロム符号化、算術符号化、ハフマン符号化などを用いることができる。209は符号形成部であり、識別情報符号データと動きベクトル予測誤差符号データを成形して動きベクトル符号データを生成する。210は端子であり、生成された動きベクトル符号データを図1の統合符号化部122に出力する。 Reference numeral 205 denotes a predicted motion vector selection unit which inputs a motion vector of a block to be encoded from a terminal 202 and a reference motion vector group from a motion vector integration unit 204. A motion vector closest to the motion vector of the block to be encoded is selected as a predicted motion vector from the input reference motion vector group. An identification number for identifying the selected predicted motion vector with the reference motion vector group and the selected predicted motion vector are output. An index encoding unit 206 encodes the output identification number to generate identification information code data. The method of encoding the identification number is not particularly limited, but Golomb encoding, arithmetic encoding, Huffman encoding, or the like can be used. A prediction unit 207 outputs a prediction error when the motion vector of the block to be encoded is predicted with the input predicted motion vector. A motion vector error encoding unit 208 generates motion vector prediction error code data by encoding a motion vector prediction error. A method for encoding the motion vector prediction error is not particularly limited, and Golomb coding, arithmetic coding, Huffman coding, and the like can be used. Reference numeral 209 denotes a code forming unit that forms identification vector code data and motion vector prediction error code data to generate motion vector code data. Reference numeral 210 denotes a terminal which outputs the generated motion vector code data to the integrated encoding unit 122 in FIG.

上記の構成で基本レイヤの動きベクトルの符号化動作を以下に説明する。 The base layer motion vector encoding operation with the above configuration will be described below.

動きベクトル抽出部203は符号化する基本レイヤのブロックの周囲のブロックの動きベクトル、時間方向予測動きベクトルを、端子201を介して入力する。これらの動きベクトルは動きベクトル統合部204に入力され、動きベクトルの成分を比較し、同じものをまとめて参照動きベクトル群を生成する。図6に動きベクトルの抽出・統合の様子を示す。600は第n番目の拡張レイヤのピクチャを表し、601は第n−1番目の拡張レイヤのピクチャを表す。603は符号化対象のブロックであり、604、605、606は符号化対象ブロックに隣接するブロックを表す。607は第n−1番目の拡張レイヤのピクチャでブロック603と同じ位置のブロックを表す。609は符号化対象ブロックの動きベクトルを表し、610、611、612、613は各ブロックの動きベクトルを表す。ここで、動きベクトル611と612が同じ成分だった場合に参照動きベクトル群は動きベクトル613、612、610となる。 The motion vector extraction unit 203 inputs the motion vector of the blocks around the base layer block to be encoded and the temporal direction predicted motion vector via the terminal 201. These motion vectors are input to the motion vector integration unit 204, the components of the motion vectors are compared, and the same motion vectors are grouped to generate a reference motion vector group. FIG. 6 shows how motion vectors are extracted and integrated. Reference numeral 600 represents a picture of the nth enhancement layer, and reference numeral 601 represents a picture of the (n-1) th enhancement layer. Reference numeral 603 denotes an encoding target block, and reference numerals 604, 605, and 606 denote blocks adjacent to the encoding target block. Reference numeral 607 denotes a picture in the same position as the block 603 in the (n-1) th enhancement layer picture. Reference numeral 609 denotes a motion vector of an encoding target block, and reference numerals 610, 611, 612, and 613 denote motion vectors of each block. Here, when the motion vectors 611 and 612 are the same component, the reference motion vector group becomes the motion vectors 613, 612, and 610.

生成された参照動きベクトル群は予測動きベクトル選択部205に入力される。端子202から入力された符号化対象のブロックの動きベクトルは予測動きベクトル選択部205で参照動きベクトル群の動きベクトルと比較される。参照動きベクトル群の中から符号化対象のブロックの動きベクトルと最も近い成分の動きベクトルを予測動きベクトルとして選択する。選択された動きベクトルを参照動きベクトル群で識別するために順番を表す識別番号を生成し、インデックス符号化部206で符号化し、識別情報符号データを生成する。また、予測動きベクトルは予測部207に入力され、符号化対象のブロックの動きベクトルを予測して予測誤差を算出し、動きベクトル誤差符号化部208に出力する。動きベクトル誤差符号化部208では予測誤差を符号化し、動きベクトル予測誤差符号データを生成する。識別情報符号データと動きベクトル予測誤差符号データは符号成形部209で成形され動きベクトル符号データとして端子210から出力される。 The generated reference motion vector group is input to the predicted motion vector selection unit 205. The motion vector of the block to be encoded input from the terminal 202 is compared with the motion vector of the reference motion vector group by the predicted motion vector selection unit 205. A motion vector having a component closest to the motion vector of the encoding target block is selected from the reference motion vector group as a predicted motion vector. In order to identify the selected motion vector by the reference motion vector group, an identification number indicating the order is generated, and encoded by the index encoding unit 206 to generate identification information code data. Also, the predicted motion vector is input to the prediction unit 207, the motion vector of the block to be encoded is predicted, a prediction error is calculated, and is output to the motion vector error encoding unit 208. The motion vector error encoding unit 208 encodes the prediction error to generate motion vector prediction error code data. The identification information code data and the motion vector prediction error code data are formed by the code forming unit 209 and output from the terminal 210 as motion vector code data.

図1に戻り、生成された動きベクトル符号データと係数符号化部117で生成された量子化係数符号データは統合符号化部122に入力され、ブロック単位の符号データを生成する。生成された符号データは多重化部123に入力される。 Returning to FIG. 1, the generated motion vector code data and the quantized coefficient code data generated by the coefficient encoding unit 117 are input to the integrated encoding unit 122 to generate code data in units of blocks. The generated code data is input to the multiplexing unit 123.

続いて、拡張レイヤの画像データの符号化動作について説明する。 Subsequently, the encoding operation of the enhancement layer image data will be described.

予測部108はフレームメモリ107に格納された画像データに対して、ブロック分割を行い、ブロック単位でイントラ予測または動き補償によるインター予測を行う。インター予測の場合はフレームメモリ112に格納されている符号化済みのピクチャを参照し、動きベクトルを算出する。算出された動きベクトルは画像再生部111、動きベクトル保持部104に入力される。動きベクトル保持部104はブロック単位で動きベクトルを保持する。また、予測部108は生成した予測誤差を変換・量子化部109に入力する。変換・量子化部109で生成された量子化係数は係数符号化部110に入力され、係数符号化部117と同様にエントロピー符号化され量子化係数符号データを生成する。また、量子化係数、動きベクトル及び予測に関する情報が画像再生部111に入力され、画像再生部118と同様に符号化対象のブロックの再生画像を生成し、フレームメモリ112に格納される。 The prediction unit 108 performs block division on the image data stored in the frame memory 107, and performs intra prediction by intra prediction or motion compensation in units of blocks. In the case of inter prediction, a motion vector is calculated by referring to an encoded picture stored in the frame memory 112. The calculated motion vector is input to the image reproducing unit 111 and the motion vector holding unit 104. The motion vector holding unit 104 holds a motion vector in units of blocks. Further, the prediction unit 108 inputs the generated prediction error to the transform / quantization unit 109. The quantized coefficient generated by the transform / quantization unit 109 is input to the coefficient encoding unit 110 and is entropy-coded in the same manner as the coefficient encoding unit 117 to generate quantized coefficient code data. Also, information regarding the quantization coefficient, the motion vector, and the prediction is input to the image playback unit 111, and a playback image of the block to be encoded is generated and stored in the frame memory 112 in the same manner as the image playback unit 118.

予測部108で生成された動きベクトルは動きベクトル符号化部105で符号化され、動きベクトル符号データを生成する。動きベクトル符号化部105での動きベクトルの符号化に先立ち、動きベクトル変倍部103は符号化対象の拡張レイヤのブロックに対応する基本レイヤのブロックの位置の動きベクトルを動きベクトル保持部101から抽出する。抽出された動きベクトルは変倍部113から出力された変倍率(n/m)に応じてm/n倍され、レイヤ間予測動きベクトルとして動きベクトル符号化部105に出力される。図6で動きベクトルの抽出・統合の様子を示す。602は第n番目の拡張レイヤの対応する基本レイヤのピクチャを表す。608は拡張レイヤの符号化対象のブロックに対応する位置のブロックを表す。614は基本レイヤのブロック608の動きベクトルを表す。動きベクトル614は変倍されて、拡張レイヤの解像度と同じ精度のレイヤ間予測動きベクトルとなる。ここで、動きベクトル611と612及びレイヤ間予測動きベクトルが同じ成分だった場合に参照動きベクトル群はレイヤ間予測動きベクトル、動きベクトル613、610となる。 The motion vector generated by the prediction unit 108 is encoded by the motion vector encoding unit 105 to generate motion vector code data. Prior to the encoding of the motion vector in the motion vector encoding unit 105, the motion vector scaling unit 103 receives the motion vector at the position of the base layer block corresponding to the enhancement layer block to be encoded from the motion vector holding unit 101. Extract. The extracted motion vector is multiplied by m / n according to the scaling factor (n / m) output from the scaling unit 113 and output to the motion vector encoding unit 105 as an inter-layer prediction motion vector. FIG. 6 shows how motion vectors are extracted and integrated. Reference numeral 602 denotes a picture of a base layer corresponding to the nth enhancement layer. Reference numeral 608 denotes a block at a position corresponding to a block to be encoded in the enhancement layer. Reference numeral 614 represents a motion vector of the base layer block 608. The motion vector 614 is scaled to become an inter-layer prediction motion vector having the same accuracy as the resolution of the enhancement layer. Here, when the motion vectors 611 and 612 and the inter-layer prediction motion vector are the same component, the reference motion vector group becomes the inter-layer prediction motion vector and the motion vectors 613 and 610.

図3に動きベクトル符号化部105の詳細なブロック図を示す。図3において、図2のブロックと同様の機能を実現するブロックについては同じ番号を付し、説明を省略する。301は端子であり、動きベクトル変倍部103からレイヤ間予測動きベクトルを入力する。303は動きベクトル抽出部であり、端子201を通じて拡張レイヤの符号化対象ブロックの周囲の動きベクトルないし前に符号化されたピクチャの動きベクトルを抽出し、端子301からレイヤ間予測動きベクトルを入力する。304は動きベクトル統合部であり、同じ成分の動きベクトルをまとめ、参照動きベクトル群を生成する。また、参照動きベクトル群ではまとめられた動きベクトルを所定の順に並べられている。並べ方に関しては特に限定しないが、先頭にレイヤ間予測動きベクトルを配置する。それ以外は成分の大きさ順、発生確率の高い順、抽出されたブロックの位置等に基づいて並べても良い。なお、端子201は動きベクトル保持部104に接続され、端子202は予測部108に接続され、端子210は統合符号化部121に接続されている。 FIG. 3 shows a detailed block diagram of the motion vector encoding unit 105. In FIG. 3, blocks that realize the same functions as the blocks in FIG. Reference numeral 301 denotes a terminal which inputs an inter-layer predicted motion vector from the motion vector scaling unit 103. A motion vector extraction unit 303 extracts a motion vector around a block to be encoded in the enhancement layer or a motion vector of a previously encoded picture through a terminal 201, and inputs an inter-layer prediction motion vector from a terminal 301. . Reference numeral 304 denotes a motion vector integration unit that combines motion vectors of the same component to generate a reference motion vector group. In the reference motion vector group, the combined motion vectors are arranged in a predetermined order. Although the arrangement is not particularly limited, an inter-layer prediction motion vector is arranged at the head. Other than that, they may be arranged based on the order of the component size, the order of occurrence probability, the position of the extracted block, and the like. Note that the terminal 201 is connected to the motion vector holding unit 104, the terminal 202 is connected to the prediction unit 108, and the terminal 210 is connected to the integrated encoding unit 121.

上記の構成で拡張レイヤの動きベクトルの符号化動作を以下に説明する。 An enhancement layer motion vector encoding operation with the above configuration will be described below.

動きベクトル抽出部303は符号化する基本レイヤのブロックの周囲のブロックの動きベクトル、時間方向予測動きベクトル、レイヤ間予測動きベクトルを入力する。これらの動きベクトルは動きベクトル統合部304で動きベクトルの成分を比較し、同じものをまとめて参照動きベクトル群を生成する。参照動きベクトル群ではまとめられた動きベクトルを所定の順に並べる。生成された参照動きベクトル群は予測動きベクトル選択部205に入力される。以下、基本レイヤの動きベクトル符号化部102と同様に、符号化対象のブロックの動きベクトルと参照動きベクトル群の動きベクトルと比較をし、予測動きベクトルを選択し、識別番号を生成し、符号化して、識別情報符号データを生成する。符号化対象のブロックの動きベクトルの予測誤差を算出し、符号化し、動きベクトル予測誤差符号データを生成する。識別情報符号データと動きベクトル予測誤差符号データは符号成形部209で成形され動きベクトル符号データとして端子210から出力される。 The motion vector extraction unit 303 inputs a motion vector of a block around the block of the base layer to be encoded, a temporal direction prediction motion vector, and an inter-layer prediction motion vector. These motion vectors are compared in motion vector components by the motion vector integration unit 304, and the same motion vectors are grouped to generate a reference motion vector group. In the reference motion vector group, the combined motion vectors are arranged in a predetermined order. The generated reference motion vector group is input to the predicted motion vector selection unit 205. Thereafter, similar to the motion vector encoding unit 102 of the base layer, the motion vector of the block to be encoded is compared with the motion vector of the reference motion vector group, the predicted motion vector is selected, an identification number is generated, To generate identification information code data. A motion vector prediction error of a block to be encoded is calculated and encoded to generate motion vector prediction error code data. The identification information code data and the motion vector prediction error code data are formed by the code forming unit 209 and output from the terminal 210 as motion vector code data.

図1に戻り、生成された動きベクトル符号データは係数符号化部110で生成された量子化係数符号データは統合符号化部121に入力され、ブロック単位の符号データを生成する。生成された符号データは多重化部123に入力される。 Returning to FIG. 1, the generated motion vector code data is the quantized coefficient code data generated by the coefficient encoding unit 110 and is input to the integrated encoding unit 121 to generate code data in units of blocks. The generated code data is input to the multiplexing unit 123.

多重化部123では所定の書式にしたがってこれらの符号データを多重化し、ビットストリームとして端子124から外部に出力する。 The multiplexing unit 123 multiplexes these code data according to a predetermined format, and outputs it as a bit stream from the terminal 124 to the outside.

図4は、実施形態1に係る画像符号化装置における基本レイヤの動きベクトル符号化処理を示すフローチャートである。まず、ステップS401にて、基本レイヤの符号化対象のブロックの動きベクトルが入力され、後段での参照のため、保持される。ステップS402にて、基本レイヤの符号化対象のブロックの周囲のブロックまたは基本レイヤの符号化済みのピクチャの同一位置のブロックの動きベクトルを保持された符号化済みの基本レイヤの動きベクトルの中から抽出する。ステップS403にて、ステップS402で抽出された動きベクトルで同じ成分の動きベクトルをまとめ、所定の順番に並べ替え、参照動きベクトル群を生成する。ステップS404にて、ステップS403で生成された参照動きベクトル群と基本レイヤの符号化対象ブロックの動きベクトルを比較し、最も近い動きベクトルを基本レイヤの予測動きベクトルとして選択し、識別情報を生成する。ステップS405にて、符号化対象の動きベクトルを予測動きベクトルから予測誤差を算出する。ステップS406にて、ステップS404で生成された識別情報を符号化する。ステップS407にて、基本レイヤの動きベクトルの予測誤差を符号化する。 FIG. 4 is a flowchart showing motion vector encoding processing of the base layer in the image encoding device according to the first embodiment. First, in step S401, a motion vector of a base layer encoding target block is input and held for reference at a later stage. In step S402, from among the motion vectors of the encoded base layer that hold the motion vectors of the blocks around the block to be encoded of the base layer or the block at the same position of the encoded picture of the base layer Extract. In step S403, the motion vectors of the same component are collected from the motion vectors extracted in step S402, rearranged in a predetermined order, and a reference motion vector group is generated. In step S404, the reference motion vector group generated in step S403 is compared with the motion vector of the base layer encoding target block, the closest motion vector is selected as the base layer predicted motion vector, and identification information is generated. . In step S405, a prediction error is calculated from the motion vector to be encoded from the predicted motion vector. In step S406, the identification information generated in step S404 is encoded. In step S407, the prediction error of the motion vector of the base layer is encoded.

また、図5は、実施形態1に係る画像符号化装置における拡張レイヤの動きベクトル符号化処理を示すフローチャートである。図5において、図4のブロックと同様の機能を実現するステップについては同じ番号を付し、説明を省略する。まず、ステップS501にて、拡張レイヤの符号化対象のブロックの動きベクトルが入力され、後段での参照のため、保持される。ステップS502にて、拡張レイヤの符号化対象のブロックの周囲のブロックまたは符号化済みの拡張レイヤのピクチャの同一位置のブロックの動きベクトルを保持された拡張レイヤの動きベクトルの中から抽出する。ステップS503にて、拡張レイヤの符号化対象ブロックの位置に該当する基本レイヤのブロックの動きベクトルを抽出する。ステップS504にて、抽出された基本レイヤの動きベクトルを変倍し、レイヤ間予測動きベクトルを算出する。ステップS505にて、ステップS502で抽出された動きベクトル、及びレイヤ間予測動きベクトルで同じ成分の動きベクトルをまとめ、所定の順番に並べ替え、参照動きベクトル群を生成する。以下、図4の基本レイヤの動きベクトル符号化と同様に、ステップS504からステップS506にて、予測動きベクトルを決定し、識別情報を生成する。さらに、予測動きベクトルから予測誤差を算出する。生成された識別情報と動きベクトルの予測誤差を符号化する。 FIG. 5 is a flowchart illustrating the motion vector encoding process of the enhancement layer in the image encoding device according to the first embodiment. In FIG. 5, steps for realizing the same functions as those in the block of FIG. First, in step S501, the motion vector of the block to be encoded of the enhancement layer is input and held for reference at a later stage. In step S502, a motion vector of a block around the block to be encoded in the enhancement layer or a block at the same position of a coded enhancement layer picture is extracted from the motion vector of the enhancement layer held. In step S503, the motion vector of the base layer block corresponding to the position of the encoding target block of the enhancement layer is extracted. In step S504, the motion vector of the extracted base layer is scaled to calculate an inter-layer prediction motion vector. In step S505, the motion vectors of the same component are combined with the motion vector extracted in step S502 and the inter-layer prediction motion vector, rearranged in a predetermined order, and a reference motion vector group is generated. Hereinafter, similarly to the motion vector coding of the base layer in FIG. 4, a predicted motion vector is determined and identification information is generated in steps S504 to S506. Further, a prediction error is calculated from the predicted motion vector. The generated identification information and motion vector prediction error are encoded.

以上の構成と動作により、拡張レイヤの動きベクトル符号化において、基本レイヤの動きベクトルを用いて効率的な符号化を行うことができる。なお、変倍の倍率が1である場合、変倍部113、120、動きベクトル変倍部103は省略が可能である。 With the configuration and operation described above, in the enhancement layer motion vector encoding, efficient encoding can be performed using the motion vector of the base layer. When the scaling factor is 1, the scaling units 113 and 120 and the motion vector scaling unit 103 can be omitted.

なお、動きベクトル統合部204でレイヤ間予測動きベクトルを必ず参照動きベクトル群の先頭に割り当てることも可能である。これにより、参照される可能性の非常に高いレイヤ間予測動きベクトルに短い符号が割当たりやすくすることでさらに符号化効率の向上が可能である。 Note that the motion vector integration unit 204 can always assign the inter-layer prediction motion vector to the head of the reference motion vector group. This makes it possible to further improve the coding efficiency by making it easier to assign a short code to an inter-layer motion vector predictor that is highly likely to be referenced.

なお、動きベクトル抽出部203は時間方向予測動きベクトル符号化済みのピクチャの同じ位置のブロックの動きベクトルを入力したが、これに限定されない。例えばレイヤ間予測動きベクトルが存在する場合は時間方向予測動きベクトルの入力を省略しても構わない。 Note that although the motion vector extraction unit 203 has input the motion vector of the block at the same position of the temporally-predicted motion vector encoded picture, the present invention is not limited to this. For example, if there is an inter-layer motion vector predictor, the input of the temporal motion vector predictor may be omitted.

なお、動きベクトル統合部304はレイヤ間予測動きベクトルを先頭に配置する場合について説明したが、時間方向予測動きベクトルに続く順番でも構わない。さらには動きベクトル統合部204と同様に特に配置を決めなくても構わない。 In addition, although the motion vector integration unit 304 has been described with respect to the case where the inter-layer prediction motion vector is arranged at the head, the order following the temporal direction prediction motion vector may be used. Further, as with the motion vector integration unit 204, the arrangement may not be determined.

なお、符号化効率向上のため、動きベクトル統合部で同じ成分を持つ動きベクトルをまとめることを行ったが、これに限定されず、固定の数の動きベクトルを選択しても良い。さらには動きベクトル統合部を省略しても構わない。 In order to improve the coding efficiency, the motion vectors having the same components are collected by the motion vector integration unit. However, the present invention is not limited to this, and a fixed number of motion vectors may be selected. Furthermore, the motion vector integration unit may be omitted.

また、基本レイヤの符号化装置と拡張レイヤの符号装置が個別にあり、変倍部113、変倍部120が外部にある構成でも構わない。 Further, the base layer encoding device and the enhancement layer encoding device may be provided separately, and the scaling unit 113 and the scaling unit 120 may be provided outside.

なお、参照動きベクトル群の動きベクトルとして図6に示す位置のブロックを参照したが、これに限定されない。例えばブロック604の右に隣接するブロックの動きベクトルを加えても構わないし、これらの動きベクトルの中央値からなる動きベクトルを加えても構わない。また、基本レイヤから参照される動きベクトルは同一位置に限定されない。図16のようにブロック608の下のブロック1601の動きベクトル1604、右下のブロック1602の動きベクトル1605、右のブロック1603の動きベクトル1606を参照しても構わない。また、さらに他のブロックの動きベクトルを参照しても構わない。 In addition, although the block of the position shown in FIG. 6 was referred as a motion vector of a reference motion vector group, it is not limited to this. For example, a motion vector of a block adjacent to the right of the block 604 may be added, or a motion vector composed of the median value of these motion vectors may be added. Also, the motion vectors referenced from the base layer are not limited to the same position. As shown in FIG. 16, the motion vector 1604 of the block 1601 below the block 608, the motion vector 1605 of the lower right block 1602, and the motion vector 1606 of the right block 1603 may be referred to. Furthermore, the motion vector of another block may be referred to.

<実施形態2>
図7は、本発明の実施形態2に係る画像復号装置の構成を示すブロック図である。本実施形態では、実施形態1で生成された符号化データの復号を例にとって説明する。
<Embodiment 2>
FIG. 7 is a block diagram showing a configuration of an image decoding apparatus according to Embodiment 2 of the present invention. In the present embodiment, a description will be given taking decoding of the encoded data generated in the first embodiment as an example.

706は符号化されたビットストリームを入力する端子である。707はビットストリームを基本レイヤの符号データと拡張レイヤの符号データに分離する分離部である。分離部707は図1の多重化部123の逆の動作を行う。708と715は統合復号部であり、基本レイヤと拡張レイヤに関してヘッダ情報や予測に関する情報の符号データの復号を行い、量子化係数符号データと動きベクトル符号データを分離し、後段に出力する。709、716は係数復号部であり、図1の係数符号化部117、110と逆の動作を行って、量子化係数を再生する。710、717は逆量子化・逆変換部である。入力された量子化係数に対して、図1の変換・量子化部116、109と逆の動作を行い、逆量子化によって直交変換係数を再生し、逆直交変換によって、予測誤差を生成する。 Reference numeral 706 denotes a terminal for inputting an encoded bit stream. A separation unit 707 separates the bit stream into base layer code data and enhancement layer code data. The separation unit 707 performs the reverse operation of the multiplexing unit 123 of FIG. Reference numerals 708 and 715 denote integrated decoding units that decode code data of header information and prediction-related information regarding the base layer and the enhancement layer, separate quantized coefficient code data and motion vector code data, and output them to the subsequent stage. Reference numerals 709 and 716 denote coefficient decoding units, which perform operations reverse to those of the coefficient encoding units 117 and 110 in FIG. 1 to reproduce quantized coefficients. Reference numerals 710 and 717 denote inverse quantization / inverse transform units. The reverse operation of the transform / quantization units 116 and 109 in FIG. 1 is performed on the input quantized coefficient, the orthogonal transform coefficient is reproduced by inverse quantization, and a prediction error is generated by inverse orthogonal transform.

700は本発明に関する動きベクトル復号装置である。701、704は動きベクトル符号データを復号し、復号対象ブロックの動きベクトルを再生する動きベクトル復号部である。702、705はブロック単位で動きベクトルを保持する動きベクトル保持部である。706は図1の変倍部113と同じ変倍率に応じて動きベクトルを変倍する動きベクトル変倍部である。変倍率の算出については特に限定しない。基本レイヤの解像度と拡張レイヤの解像度の比を算出しても良いし、所定の値を設定しても構わない。 Reference numeral 700 denotes a motion vector decoding apparatus according to the present invention. Reference numerals 701 and 704 denote motion vector decoding units that decode motion vector code data and reproduce a motion vector of a decoding target block. Reference numerals 702 and 705 denote motion vector holding units that hold motion vectors in units of blocks. Reference numeral 706 denotes a motion vector scaling unit that scales a motion vector in accordance with the same scaling factor as the scaling unit 113 in FIG. The calculation of the scaling factor is not particularly limited. The ratio between the resolution of the base layer and the resolution of the enhancement layer may be calculated, or a predetermined value may be set.

712、713、719、720はフレームメモリであり、再生されたピクチャの画像データを格納しておく。 Reference numerals 712, 713, 719, and 720 denote frame memories, which store image data of reproduced pictures.

711、718は画像再生部であり、動きベクトルを入力して復号済みのピクチャの画像データを参照して動き補償を行い、復号された予測誤差を用いて画像データを再生する。714は図1の変倍部113と同じ変倍率に応じて基本レイヤの画像データを変倍する変倍部である。なお、変倍率の算出については特に限定しない。基本レイヤの解像度と拡張レイヤの解像度の比を算出しても良いし、所定の値を設定しても構わない。721、722は端子であり、端子721は基本レイヤの画像データを出力し、端子722は拡張レイヤの画像データを出力する。 Reference numerals 711 and 718 denote image reproduction units that input motion vectors, refer to image data of decoded pictures, perform motion compensation, and reproduce image data using the decoded prediction errors. Reference numeral 714 denotes a scaling unit that scales the image data of the base layer in accordance with the same scaling factor as the scaling unit 113 of FIG. The calculation of the scaling factor is not particularly limited. The ratio between the resolution of the base layer and the resolution of the enhancement layer may be calculated, or a predetermined value may be set. Reference numerals 721 and 722 denote terminals, the terminal 721 outputs base layer image data, and the terminal 722 outputs enhancement layer image data.

ここで、統合復号部708、係数復号部709、逆量子化・逆変換部710、動きベクトル復号部701、動きベクトル保持部702、画像再生部711、フレームメモリ712、713は基本レイヤの符号データを復号し、基本レイヤの画像データを再生する。また、統合復号部715、係数復号部716、逆量子化・逆変換部717、動きベクトル復号部704、動きベクトル保持部705、画像再生部718、フレームメモリ719、720は拡張レイヤの符号データを復号し、拡張レイヤの画像データを再生する。 Here, the integrated decoding unit 708, the coefficient decoding unit 709, the inverse quantization / inverse conversion unit 710, the motion vector decoding unit 701, the motion vector holding unit 702, the image reproduction unit 711, and the frame memories 712 and 713 are encoded data of the base layer. And the base layer image data is reproduced. The integrated decoding unit 715, coefficient decoding unit 716, inverse quantization / inverse conversion unit 717, motion vector decoding unit 704, motion vector holding unit 705, image playback unit 718, and frame memories 719 and 720 store the code data of the enhancement layer. Decode and reproduce the enhancement layer image data.

上記画像復号装置における画像の復号動作を以下に説明する。本実施形態では実施形態1で生成されたビットストリームを復号する。 An image decoding operation in the image decoding apparatus will be described below. In the present embodiment, the bit stream generated in the first embodiment is decoded.

図7において、端子706から入力されたビットストリームは分離部707に入力され、基本レイヤの符号データと拡張レイヤの符号データに分離され、前者は統合復号部708に、後者は統合復号部715に入力される。 In FIG. 7, the bit stream input from the terminal 706 is input to the separation unit 707 and separated into base layer code data and enhancement layer code data. The former is input to the integrated decoding unit 708, and the latter is input to the integrated decoding unit 715. Entered.

最初に基本レイヤの符号データの復号動作について説明する。基本レイヤの符号化データは統合復号部708に入力される。統合復号部708はヘッダ情報や予測に関する情報の符号データの復号を行い、量子化係数符号データと動きベクトル符号データを分離し、動きベクトル符号データを動きベクトル復号部701に入力し、量子化係数符号データを係数復号部709に入力する。 First, the decoding operation of base layer code data will be described. The encoded data of the base layer is input to the integrated decoding unit 708. The integrated decoding unit 708 decodes the code data of the header information and the information related to the prediction, separates the quantized coefficient code data and the motion vector code data, inputs the motion vector code data to the motion vector decoding unit 701, and the quantized coefficient Code data is input to the coefficient decoding unit 709.

係数復号部709は量子化係数符号データを復号し、量子化係数を再生する。再生された量子化係数は逆量子化・逆変換部710に入力され、逆量子化を行って直交変換係数を生成し、更に逆直交変換を施して予測誤差を再生する。再生された予測誤差は画像再生部711に入力される。 A coefficient decoding unit 709 decodes the quantized coefficient code data and reproduces the quantized coefficients. The reproduced quantized coefficient is input to an inverse quantization / inverse transform unit 710, performs inverse quantization to generate an orthogonal transform coefficient, and further performs inverse orthogonal transform to reproduce a prediction error. The reproduced prediction error is input to the image reproduction unit 711.

動きベクトル復号部701は動きベクトル符号データを復号し、基本レイヤの復号対象のブロックの動きベクトルを復号する。図8に動きベクトル復号部701の詳細なブロック図を示す。図8において、801は端子であり、統合復号部708から復号対象ブロックの動きベクトル符号データを入力する。802は端子であり、動きベクトル保持部702から動きベクトルを入力する。803は動きベクトル抽出部であり、端子802を通じて基本レイヤの復号対象ブロックの周囲の動きベクトルないし前に復号されたピクチャの動きベクトルを抽出する。804は動きベクトル統合部であり、図2の動きベクトル統合部204と同様な動作を行い、同じ成分の動きベクトルをまとめ、参照動きベクトル群を生成する。805は符号分離部であり、動きベクトル符号データから識別情報符号データと動きベクトル予測誤差符号データを分離する。806はインデックス復号部であり、識別情報符号データを復号し、識別情報を再生する。インデックス復号部806は図2のインデックス符号化部206の逆の動作を行って復号する。807は動きベクトル誤差復号部であり、動きベクトル予測誤差符号データを復号し、復号対象のブロックの動きベクトルの予測誤差を再生する。動きベクトル誤差復号部807は図2の動きベクトル誤差符号化部208と逆の動作を行って復号する。808は予測動きベクトル選択部である。再生された識別情報を用いて参照動きベクトル群から予測動きベクトルを選択する。809は動きベクトル再生部であり、選択された予測動きベクトルと再生された動きベクトルの予測誤差から基本レイヤの復号対象ブロックの動きベクトルを再生する。810は端子であり、再生された動きベクトルを図7の画像再生部711及び動きベクトル保持部702に出力する。 The motion vector decoding unit 701 decodes motion vector code data and decodes a motion vector of a base layer decoding target block. FIG. 8 shows a detailed block diagram of the motion vector decoding unit 701. In FIG. 8, reference numeral 801 denotes a terminal which inputs motion vector code data of a decoding target block from the integrated decoding unit 708. A terminal 802 inputs a motion vector from the motion vector holding unit 702. A motion vector extraction unit 803 extracts a motion vector around a decoding target block of the base layer or a motion vector of a previously decoded picture through a terminal 802. Reference numeral 804 denotes a motion vector integration unit that performs the same operation as the motion vector integration unit 204 in FIG. 2 and collects motion vectors of the same component to generate a reference motion vector group. A code separation unit 805 separates the identification information code data and the motion vector prediction error code data from the motion vector code data. An index decoding unit 806 decodes the identification information code data and reproduces the identification information. The index decoding unit 806 performs decoding by performing the reverse operation of the index encoding unit 206 of FIG. Reference numeral 807 denotes a motion vector error decoding unit that decodes motion vector prediction error code data and reproduces a motion vector prediction error of a block to be decoded. The motion vector error decoding unit 807 performs decoding by performing the reverse operation of the motion vector error encoding unit 208 of FIG. Reference numeral 808 denotes a predicted motion vector selection unit. A predicted motion vector is selected from the reference motion vector group using the reproduced identification information. A motion vector reproduction unit 809 reproduces a motion vector of a decoding target block of the base layer from the selected prediction motion vector and a prediction error of the reproduced motion vector. A terminal 810 outputs the reproduced motion vector to the image reproducing unit 711 and the motion vector holding unit 702 in FIG.

上記の構成で基本レイヤの動きベクトルの復号動作を以下に説明する。端子801から入力された基本レイヤの復号対象ブロックの動きベクトル符号データは符号分離部805に入力され識別情報符号データと動きベクトル予測誤差符号データに分離される。前者はインデックス復号部806に入力され、後者は動きベクトル誤差復号部807に入力される。インデックス復号部806は識別情報符号データを復号し、識別情報を再生する。また、動きベクトル誤差復号部807は動きベクトル予測誤差符号データを復号し、基本レイヤの復号対象ブロックの動きベクトルの予測誤差を再生する。また、図6に示したように動きベクトル抽出部803は復号する基本レイヤのブロックの周囲のブロックの動きベクトル、時間方向予測動きベクトルを、端子802を介して動きベクトル保持部702から抽出する。抽出された動きベクトルは動きベクトル統合部804に入力され、図2の動きベクトル統合部204と同等に参照動きベクトル群を生成する。 The operation of decoding the motion vector of the base layer with the above configuration will be described below. The motion vector code data of the decoding target block of the base layer input from the terminal 801 is input to the code separation unit 805 and separated into identification information code data and motion vector prediction error code data. The former is input to the index decoding unit 806, and the latter is input to the motion vector error decoding unit 807. The index decoding unit 806 decodes the identification information code data and reproduces the identification information. In addition, the motion vector error decoding unit 807 decodes motion vector prediction error code data, and reproduces the motion vector prediction error of the decoding target block of the base layer. Also, as shown in FIG. 6, the motion vector extraction unit 803 extracts the motion vector and temporal direction predicted motion vector of the blocks around the base layer block to be decoded from the motion vector holding unit 702 via the terminal 802. The extracted motion vectors are input to the motion vector integration unit 804, and a reference motion vector group is generated in the same manner as the motion vector integration unit 204 in FIG.

予測動きベクトル選択部808はインデックス復号部806から識別情報を入力し、参照動きベクトル群から予測動きベクトルを選択する。選択された予測動きベクトルは再生された基本レイヤの復号対象ブロックの動きベクトルの予測誤差とともに動きベクトル再生部809に入力される。動きベクトル再生部809は再生された予測誤差と予測動きベクトルから復号対象ブロックの動きベクトルを再生する。再生された動きベクトルは端子810を介して出力される。 The motion vector predictor selection unit 808 receives the identification information from the index decoding unit 806 and selects a motion vector predictor from the reference motion vector group. The selected prediction motion vector is input to the motion vector reproduction unit 809 together with the prediction error of the motion vector of the decoded base layer decoding target block. The motion vector reproducing unit 809 reproduces the motion vector of the decoding target block from the reproduced prediction error and the predicted motion vector. The reproduced motion vector is output via a terminal 810.

図7に戻り、再生された動きベクトルは画像再生部711と動きベクトル保持部702に入力される。動きベクトル保持部702ではブロック単位で動きベクトルを格納しておく。画像再生部711は再生された動きベクトルを用いてフレームメモリ713から基本レイヤの復号対象ブロックの予測画像データを算出する。さらに逆量子化・逆変換部710で再生された予測誤差を入力し、予測画像データを用いて基本レイヤの画像データを再生する。再生された基本レイヤの画像データはフレームメモリ712及びフレームメモリ713に格納され、参照に用いられる。再生された基本レイヤの画像データは端子721から出力される。 Returning to FIG. 7, the reproduced motion vector is input to the image reproducing unit 711 and the motion vector holding unit 702. The motion vector holding unit 702 stores motion vectors in units of blocks. The image reproducing unit 711 calculates predicted image data of the decoding target block of the base layer from the frame memory 713 using the reproduced motion vector. Further, the prediction error reproduced by the inverse quantization / inverse transform unit 710 is input, and the base layer image data is reproduced using the predicted image data. The reproduced base layer image data is stored in the frame memory 712 and the frame memory 713 and used for reference. The reproduced base layer image data is output from a terminal 721.

続いて、拡張レイヤの符号データの復号動作について説明する。動きベクトル復号部704での動きベクトルの復号に先立ち、動きベクトル変倍部703は復号対象の拡張レイヤのブロックに対応する基本レイヤのブロックの位置の動きベクトルを動きベクトル保持部702から抽出する。抽出された動きベクトルは変倍率(n/m)に応じてm/n倍され、レイヤ間予測動きベクトルとして動きベクトル復号部704に出力される。 Next, the decoding operation of the enhancement layer code data will be described. Prior to the decoding of the motion vector by the motion vector decoding unit 704, the motion vector scaling unit 703 extracts the motion vector at the position of the base layer block corresponding to the enhancement layer block to be decoded from the motion vector holding unit 702. The extracted motion vector is multiplied by m / n according to the scaling factor (n / m), and output to the motion vector decoding unit 704 as an inter-layer prediction motion vector.

拡張レイヤの符号化データは統合復号部715に入力される。統合復号部715はヘッダ情報や予測に関する情報の符号データの復号を行い、量子化係数符号データと動きベクトル符号データを分離し、動きベクトル符号データを動きベクトル復号部704に入力し、量子化係数符号データを係数復号部716に入力する。 The enhancement layer encoded data is input to the joint decoding unit 715. The integrated decoding unit 715 decodes the code data of the header information and the information related to the prediction, separates the quantized coefficient code data and the motion vector code data, inputs the motion vector code data to the motion vector decoding unit 704, and the quantized coefficient The code data is input to the coefficient decoding unit 716.

係数復号部716は量子化係数符号データを復号し、量子化係数を再生する。再生された量子化係数は逆量子化・逆変換部717に入力され、逆量子化を行って直交変換係数を生成し、更に逆直交変換を施して予測誤差を再生する。再生された予測誤差は画像再生部718に入力される。 The coefficient decoding unit 716 decodes the quantized coefficient code data and reproduces the quantized coefficients. The reproduced quantized coefficient is input to an inverse quantization / inverse transform unit 717, performs inverse quantization to generate an orthogonal transform coefficient, and further performs inverse orthogonal transform to reproduce a prediction error. The reproduced prediction error is input to the image reproduction unit 718.

動きベクトル復号部704は動きベクトル符号データを復号し、拡張レイヤの復号対象のブロックの動きベクトルを復号する。図9に動きベクトル復号部704の詳細なブロック図を示す。図9において、図8のブロックと同様の機能を実現するブロックについては同じ番号を付し、説明を省略する。図9において、901は端子であり、動きベクトル変倍部703から動きベクトルを入力する。903は動きベクトル抽出部であり、端子901を通じて図6に示したように、拡張レイヤの復号対象ブロックの周囲の動きベクトルないし前に符号化されたピクチャの動きベクトルを入力する。また、端子901から入力されたレイヤ間予測動きベクトルを入力する。904は動きベクトル統合部であり、図8の動きベクトル統合部904と同様な動作を行い、同じ成分の動きベクトルをまとめ、参照動きベクトル群を生成する。参照動きベクトル群ではまとめられた動きベクトルを所定の順に並べられている。並べ方に関しては特に限定しないが、先頭にレイヤ間予測動きベクトルを配置する。それ以外は成分の大きさ順、発生確率の高い順、抽出されたブロックの位置等に基づいて並べても良い。なお、端子801は統合復号部715に接続され、端子802は動きベクトル保持部705に接続され、端子810は動きベクトル保持部705と画像再生部718に接続されている。 The motion vector decoding unit 704 decodes the motion vector code data, and decodes the motion vector of the enhancement layer decoding target block. FIG. 9 shows a detailed block diagram of the motion vector decoding unit 704. In FIG. 9, blocks that implement the same functions as those in FIG. 8 are given the same numbers, and descriptions thereof are omitted. In FIG. 9, reference numeral 901 denotes a terminal which inputs a motion vector from the motion vector scaling unit 703. Reference numeral 903 denotes a motion vector extraction unit which inputs a motion vector around a decoding target block of the enhancement layer or a motion vector of a previously encoded picture through a terminal 901 as shown in FIG. Also, the inter-layer prediction motion vector input from the terminal 901 is input. Reference numeral 904 denotes a motion vector integration unit that performs the same operation as the motion vector integration unit 904 in FIG. 8, collects motion vectors of the same component, and generates a reference motion vector group. In the reference motion vector group, the combined motion vectors are arranged in a predetermined order. Although the arrangement is not particularly limited, an inter-layer prediction motion vector is arranged at the head. Other than that, they may be arranged based on the order of the component size, the order of occurrence probability, the position of the extracted block, and the like. Terminal 801 is connected to integrated decoding section 715, terminal 802 is connected to motion vector holding section 705, and terminal 810 is connected to motion vector holding section 705 and image playback section 718.

上記の構成で拡張レイヤの動きベクトルの復号動作を以下に説明する。動きベクトル抽出部903は復号する拡張レイヤのブロックの周囲のブロックの動きベクトル、時間方向予測動きベクトルを、端子802を介して動きベクトル保持部705から入力する。さらに、レイヤ間予測動きベクトルを、端子901をから入力する。これらの動きベクトルは動きベクトル統合部904に入力され、図8の動きベクトル統合部804と同等に参照動きベクトル群を生成する。以下、基本レイヤの動きベクトル復号部701と同様に、識別情報と参照動きベクトル群から予測動きベクトルを選択する。選択された予測動きベクトルと再生された拡張レイヤの復号対象ブロックの動きベクトルの予測誤差によって拡張レイヤの復号対象ブロックの動きベクトルを再生する。再生された動きベクトルは端子810を介して出力される。 The decoding operation of the enhancement layer motion vector in the above configuration will be described below. The motion vector extraction unit 903 inputs the motion vector of the blocks around the enhancement layer block to be decoded and the temporal direction predicted motion vector from the motion vector holding unit 705 via the terminal 802. Further, an inter-layer motion vector predictor is input from a terminal 901. These motion vectors are input to the motion vector integration unit 904, and a reference motion vector group is generated in the same manner as the motion vector integration unit 804 in FIG. Thereafter, similarly to the motion vector decoding unit 701 of the base layer, a predicted motion vector is selected from the identification information and the reference motion vector group. The motion vector of the enhancement layer decoding target block is reproduced based on the prediction error of the selected prediction motion vector and the reproduced motion vector of the enhancement layer decoding target block. The reproduced motion vector is output via a terminal 810.

図7に戻り、再生された動きベクトルは画像再生部718と動きベクトル保持部705に入力される。動きベクトル保持部705ではブロック単位で動きベクトルを格納しておく。画像再生部718は再生された動きベクトルを用いてフレームメモリ720またはフレームメモリ713から対応する画像データを読み出して変倍部714で変倍された画像データを入力する。これらの画像データから拡張レイヤの復号対象ブロックの予測画像データを算出する。さらに逆量子化・逆変換部717で再生された予測誤差を入力し、予測画像データを用いて拡張レイヤの画像データを再生する。再生された拡張レイヤの画像データはフレームメモリ719及びフレームメモリ720に格納され、参照に用いられる。再生された拡張レイヤの画像データは端子722から出力される。 Returning to FIG. 7, the reproduced motion vector is input to the image reproducing unit 718 and the motion vector holding unit 705. The motion vector holding unit 705 stores motion vectors in units of blocks. The image reproduction unit 718 reads the corresponding image data from the frame memory 720 or the frame memory 713 using the reproduced motion vector, and inputs the image data scaled by the scaling unit 714. Prediction image data of the decoding target block of the enhancement layer is calculated from these image data. Further, the prediction error reproduced by the inverse quantization / inverse transform unit 717 is input, and the enhancement layer image data is reproduced using the predicted image data. The reproduced enhancement layer image data is stored in the frame memory 719 and the frame memory 720 and used for reference. The reproduced enhancement layer image data is output from a terminal 722.

図10は、実施形態2に係る画像復号装置における基本レイヤの動きベクトル復号処理を示すフローチャートである。まず、ステップS1001にて、基本レイヤの復号対象のブロックの周囲のブロックの動きベクトルと時間方向予測動きベクトルを保持した動きベクトルから抽出する。ステップS1002にて、ステップS1001で抽出された動きベクトルで同じ成分の動きベクトルをまとめ、所定の順番に並べ替え、参照動きベクトル群を生成する。ステップS1003にて、識別情報符号データを復号し識別情報を再生する。ステップS1004にて、ステップS1003で再生された識別情報によって、ステップS1002で生成された参照動きベクトル群から予測動きベクトルを選択する。ステップS1005にて、動きベクトル予測誤差符号データを復号し、基本レイヤの復号対象のブロックの動きベクトルの予測誤差を再生する。ステップS1006にて、ステップS1004で選択された予測動きベクトルとステップS1005で再生された動きベクトルの予測誤差から基本レイヤの復号対象ブロックの動きベクトルを再生する。ステップS1007にて、再生された動きベクトルを出力し、さらに後段での参照のため、保持する。 FIG. 10 is a flowchart illustrating a base layer motion vector decoding process in the image decoding apparatus according to the second embodiment. First, in step S1001, extraction is performed from a motion vector holding a motion vector of a block around a decoding target block of the base layer and a temporal direction predicted motion vector. In step S1002, the motion vectors of the same component are collected from the motion vectors extracted in step S1001, and rearranged in a predetermined order to generate a reference motion vector group. In step S1003, the identification information code data is decoded to reproduce the identification information. In step S1004, a predicted motion vector is selected from the reference motion vector group generated in step S1002 based on the identification information reproduced in step S1003. In step S1005, the motion vector prediction error code data is decoded, and the motion vector prediction error of the decoding target block of the base layer is reproduced. In step S1006, the motion vector of the decoding target block of the base layer is reproduced from the prediction motion vector selected in step S1004 and the prediction error of the motion vector reproduced in step S1005. In step S1007, the reconstructed motion vector is output and further retained for reference at a later stage.

また、図11は、実施形態2に係る画像符号化装置における拡張レイヤの動きベクトル復号処理を示すフローチャートである。図11において、図10のブロックと同様の機能を実現するステップについては同じ番号を付し、説明を省略する。まず、ステップS1101にて、拡張レイヤの復号対象のブロックの周囲のブロックまたは拡張レイヤの時間方向予測動きベクトルを保持された復号済みの拡張レイヤの動きベクトルの中から抽出する。ステップS1102にて、拡張レイヤの復号対象ブロックの位置に対応する基本レイヤのブロックの動きベクトルを抽出する。ステップS1103にて、抽出された基本レイヤの動きベクトルを変倍し、レイヤ間予測動きベクトルを算出する。ステップS1104にて、ステップS1102で抽出された動きベクトル、及びレイヤ間予測動きベクトルで同じ成分の動きベクトルをまとめ、所定の順番に並べ替え、参照動きベクトル群を生成する。ステップS1105にて、識別情報符号データを復号し識別情報を再生する。ステップS1106にて、再生された識別情報によって、ステップS1104で生成された参照動きベクトル群から予測動きベクトルを選択する。以下、図10の基本レイヤの動きベクトル復号と同様に、動きベクトル予測誤差符号データを復号し、動きベクトルの予測誤差を再生する。選択された予測動きベクトルと動きベクトルの予測誤差から拡張レイヤの復号対象ブロックの動きベクトルを再生して出力、保持する。 FIG. 11 is a flowchart showing motion vector decoding processing of the enhancement layer in the image encoding device according to the second embodiment. In FIG. 11, steps for realizing the same functions as those in the block of FIG. First, in step S1101, a block around a block to be decoded in the enhancement layer or a temporal direction motion vector of the enhancement layer is extracted from the motion vector of the enhancement layer that has been decoded. In step S1102, the motion vector of the base layer block corresponding to the position of the decoding target block of the enhancement layer is extracted. In step S1103, the motion vector of the extracted base layer is scaled to calculate an inter-layer prediction motion vector. In step S1104, the motion vectors extracted in step S1102 and the motion vectors of the same component are combined with the inter-layer prediction motion vector, rearranged in a predetermined order, and a reference motion vector group is generated. In step S1105, the identification information code data is decoded to reproduce the identification information. In step S1106, a predicted motion vector is selected from the reference motion vector group generated in step S1104 based on the reproduced identification information. Thereafter, similarly to the motion vector decoding of the base layer in FIG. 10, the motion vector prediction error code data is decoded to reproduce the motion vector prediction error. The motion vector of the decoding target block of the enhancement layer is reproduced from the selected prediction motion vector and the prediction error of the motion vector, and is output and held.

以上の構成と動作により、実施形態1で生成された、基本レイヤの動きベクトルを用いて効率的に符号化されたビットストリームの復号を行い、再生画像を得ることができる。なお、変倍の倍率が1である場合、変倍部714、動きベクトル変倍部703は省略が可能である。 With the above configuration and operation, it is possible to decode the bitstream efficiently encoded using the motion vector of the base layer generated in Embodiment 1, and obtain a reproduced image. When the scaling factor is 1, the scaling unit 714 and the motion vector scaling unit 703 can be omitted.

なお、動きベクトル統合部904でレイヤ間予測動きベクトルを必ず参照動きベクトル群の先頭に割り当てることも可能である。これにより、参照される可能性の最も高いレイヤ間予測動きベクトルに短い符号が割当たりやすくすることでさらに符号化効率の向上が可能である。 Note that the motion vector integration unit 904 can always assign the inter-layer prediction motion vector to the head of the reference motion vector group. Accordingly, it is possible to further improve the coding efficiency by making it easier to assign a short code to the inter-layer prediction motion vector that is most likely to be referred to.

なお、動きベクトル抽出部903は時間方向予測動きベクトルを入力したが、これに限定されない。例えばレイヤ間予測動きベクトルが存在する場合は時間方向予測動きベクトルの入力を省略しても構わない。 In addition, although the motion vector extraction part 903 input the time direction prediction motion vector, it is not limited to this. For example, if there is an inter-layer motion vector predictor, the input of the temporal motion vector predictor may be omitted.

なお、動きベクトル統合部904はレイヤ間予測動きベクトルを先頭に配置する場合について説明したが、時間方向予測動きベクトルに続く順番でも構わない。さらには動きベクトル統合部204と同様に特に配置を決めなくても構わない。 Note that although the motion vector integration unit 904 has been described with respect to the case where the inter-layer prediction motion vector is arranged at the head, the order following the temporal direction prediction motion vector may be used. Further, as with the motion vector integration unit 204, the arrangement may not be determined.

本実施形態において動きベクトル変倍部703から変倍率を入力しているが、これに限定されず、個別に基本レイヤの解像度と拡張レイヤの解像度の比を算出しても良いし、所定の値を設定しても構わない。 In the present embodiment, the scaling factor is input from the motion vector scaling unit 703. However, the present invention is not limited to this, and the ratio between the resolution of the base layer and the resolution of the enhancement layer may be calculated individually, or a predetermined value May be set.

なお、符号化効率向上のため、動きベクトル統合部で同じ成分を持つ動きベクトルをまとめることを行ったが、これに限定されず、固定の数の動きベクトルを選択しても良い。さらには動きベクトル統合部を省略しても構わない。 In order to improve the coding efficiency, the motion vectors having the same components are collected by the motion vector integration unit. However, the present invention is not limited to this, and a fixed number of motion vectors may be selected. Furthermore, the motion vector integration unit may be omitted.

また、基本レイヤの復号装置と拡張レイヤの復号装置が個別にあり、変倍部714が外部にある構成でも構わない。 Further, the base layer decoding device and the enhancement layer decoding device may be provided separately, and the scaling unit 714 may be provided outside.

なお、参照動きベクトル群の動きベクトルとして図6に示す位置のブロックを参照したが、これに限定されない。例えばブロック604の右に隣接するブロックの動きベクトルを加えても構わないし、これらの動きベクトルの中央値からなる動きベクトルを加えても構わない。また、基本レイヤから参照される動きベクトルは同一位置に限定されない。図16のようにブロック608の下のブロック1601の動きベクトル1604、右下のブロック1602の動きベクトル1605、右のブロック1603の動きベクトル1606を参照しても構わない。また、さらに他のブロックの動きベクトルを参照しても構わない。 In addition, although the block of the position shown in FIG. 6 was referred as a motion vector of a reference motion vector group, it is not limited to this. For example, a motion vector of a block adjacent to the right of the block 604 may be added, or a motion vector composed of the median value of these motion vectors may be added. Also, the motion vectors referenced from the base layer are not limited to the same position. As shown in FIG. 16, the motion vector 1604 of the block 1601 below the block 608, the motion vector 1605 of the lower right block 1602, and the motion vector 1606 of the right block 1603 may be referred to. Furthermore, the motion vector of another block may be referred to.

<実施形態3>
本実施形態では画像符号化装置は実施形態1の図1と同じ構成をとる。ただし、拡張レイヤの動きベクトル符号化部105の構成が異なる。したがって、基本レイヤに関する符号化及び、拡張レイヤの量子化係数の符号化に関しては実施形態1と同様であり、説明を省略する。
<Embodiment 3>
In this embodiment, the image coding apparatus has the same configuration as that of FIG. However, the configuration of the enhancement layer motion vector encoding unit 105 is different. Therefore, the encoding related to the base layer and the encoding of the quantization coefficient of the enhancement layer are the same as those in the first embodiment, and a description thereof will be omitted.

図12は本実施形態の動きベクトル符号化部105の詳細な構成を示すブロック図である。図12において、実施形態1の図3と同様の機能を果たす部分に関しては同じ番号を付与し、説明を省略する。1201は端子であり、図3の端子301と同様に動きベクトル変倍部103からレイヤ間予測動きベクトルを入力する。1203は動きベクトル抽出部であり、端子201から入力される拡張レイヤの符号化対象ブロックの周囲の動きベクトルないし前に符号化されたピクチャの動きベクトルを抽出する。1205は予測動きベクトル選択部である。端子202から拡張レイヤの符号化対象のブロックの動きベクトルを、動きベクトル統合部204から参照動きベクトル群を、端子1201からレイヤ間予測動きベクトルを入力する。入力された参照動きベクトル群から符号化対象のブロックの動きベクトルに最も近い動きベクトルを予測動きベクトルとして選択する。 FIG. 12 is a block diagram showing a detailed configuration of the motion vector encoding unit 105 of the present embodiment. In FIG. 12, the same numbers are assigned to portions that perform the same functions as those in FIG. 3 of the first embodiment, and description thereof is omitted. Reference numeral 1201 denotes a terminal, which inputs an inter-layer predicted motion vector from the motion vector scaling unit 103 as in the terminal 301 of FIG. A motion vector extraction unit 1203 extracts a motion vector around the encoding target block of the enhancement layer input from the terminal 201 or a motion vector of a previously encoded picture. Reference numeral 1205 denotes a predicted motion vector selection unit. The motion vector of the block to be encoded in the enhancement layer is input from the terminal 202, the reference motion vector group is input from the motion vector integration unit 204, and the inter-layer prediction motion vector is input from the terminal 1201. A motion vector closest to the motion vector of the block to be encoded is selected as a predicted motion vector from the input reference motion vector group.

上記の構成で拡張レイヤの動きベクトルの符号化動作を以下に説明する。 An enhancement layer motion vector encoding operation with the above configuration will be described below.

動きベクトル抽出部1203は図6に示す拡張レイヤの符号化対象ブロックの周囲の動きベクトルないし前に符号化されたピクチャの動きベクトルを抽出する。抽出された動きベクトルは動きベクトル統合部304に入力される。動きベクトル統合部304は実施形態1と同様に入力された動きベクトルで同じ成分を持つ動きベクトルをまとめ、参照動きベクトル群を生成する。予測動きベクトル選択部1205は入力された参照動きベクトル群、レイヤ間予測動きベクトルから符号化対象ブロックの動きベクトルに最も類似した動きベクトルを予測動きベクトルをとして選択する。選択された予測動きベクトルを識別する識別情報と予測動きベクトルを出力する。 The motion vector extraction unit 1203 extracts a motion vector around the encoding target block of the enhancement layer shown in FIG. 6 or a motion vector of a previously encoded picture. The extracted motion vector is input to the motion vector integration unit 304. The motion vector integration unit 304 collects motion vectors having the same components from the input motion vectors as in the first embodiment, and generates a reference motion vector group. The motion vector predictor selection unit 1205 selects a motion vector most similar to the motion vector of the encoding target block as the motion vector predictor from the input reference motion vector group and inter-layer motion vector predictor. Identification information for identifying the selected predicted motion vector and a predicted motion vector are output.

ここで、実施形態1との相違はレイヤ間予測動きベクトルは参照動きベクトル群とは独立して選択の候補となることである。したがって、参照動きベクトル群の中に同じ成分を持つ動きベクトルが存在する可能性がある。この場合、予測動きベクトル選択部1205は予測動きベクトルとしてレイヤ間予測動きベクトルと参照動きベクトル群の中のベクトルが選べる時、レイヤ間予測動きベクトルを選択することとする。 Here, the difference from Embodiment 1 is that the inter-layer motion vector predictor is a candidate for selection independently of the reference motion vector group. Accordingly, there may be motion vectors having the same component in the reference motion vector group. In this case, the predicted motion vector selection unit 1205 selects the inter-layer predicted motion vector when a vector in the inter-layer predicted motion vector and the reference motion vector group can be selected as the predicted motion vector.

以下、実施形態1と同様に識別情報はインデックス符号化部206で符号化される。また、予測部207は符号化対象ブロックの動きベクトルと予測動きベクトルから予測誤差を算出し、動きベクトル誤差符号化部208で符号化する。 Hereinafter, the identification information is encoded by the index encoding unit 206 as in the first embodiment. Also, the prediction unit 207 calculates a prediction error from the motion vector of the block to be encoded and the predicted motion vector, and encodes the motion vector error encoding unit 208.

図13は、実施形態3に係る画像符号化装置における拡張レイヤの動きベクトル符号化処理を示すフローチャートである。図13において、図4のブロックと同様の機能を実現するステップについては同じ番号を付し、説明を省略する。まず、ステップS501からステップS504については実施形態1と同様である。すなわち、拡張レイヤの符号化対象ブロックの周囲の動きベクトルないし前に符号化されたピクチャの動きベクトルとレイヤ間予測動きベクトルの算出が行われる。ステップS1301にて、拡張レイヤの符号化対象ブロックの周囲の動きベクトルないし前に符号化されたピクチャの動きベクトルについて同じ成分の動きベクトルをまとめ、所定の順番に並べ替え、参照動きベクトル群を生成する。ステップS1302にて、レイヤ間予測動きベクトルを生成された参照動きベクトル群の先頭に追加する。ステップS404にて、実施形態1と同様に参照動きベクトル群から予測動きベクトルを選択する。ステップS1303にて、予測動きベクトルがレイヤ間予測動きベクトルと同じ成分であった場合、ステップS1304に進む。そうでなければステップS405に進む。ステップS1304にて、レイヤ間予測動きベクトルを予測動きベクトルとして選択する。これにより、同じ成分を持つ他の動きベクトルが選択されることを防ぐ。以下、実施形態1の図3の拡張レイヤの動きベクトル符号化処理と同様にステップS405からステップS407にて動きベクトル予測誤差の算出、識別情報の符号化、動きベクトル予測誤差の符号化を行う。 FIG. 13 is a flowchart illustrating enhancement layer motion vector encoding processing in the image encoding device according to the third embodiment. In FIG. 13, steps for realizing the same functions as those in the block of FIG. First, Step S501 to Step S504 are the same as those in the first embodiment. That is, the motion vector around the encoding target block of the enhancement layer or the motion vector of the previously encoded picture and the inter-layer prediction motion vector are calculated. In step S1301, the motion vectors of the same component are grouped with respect to the motion vector around the block to be encoded in the enhancement layer or the previously encoded picture, and rearranged in a predetermined order to generate a reference motion vector group To do. In step S1302, an inter-layer prediction motion vector is added to the head of the generated reference motion vector group. In step S404, a predicted motion vector is selected from the reference motion vector group as in the first embodiment. If the predicted motion vector is the same component as the inter-layer predicted motion vector in step S1303, the process proceeds to step S1304. Otherwise, the process proceeds to step S405. In step S1304, an inter-layer predicted motion vector is selected as a predicted motion vector. This prevents other motion vectors having the same component from being selected. Thereafter, similarly to the motion vector encoding process of the enhancement layer in FIG. 3 of the first embodiment, calculation of a motion vector prediction error, encoding of identification information, and encoding of a motion vector prediction error are performed from step S405 to step S407.

以上の構成と動作により、拡張レイヤの動きベクトル符号化において、基本レイヤの動きベクトルを他の動きベクトルより優先的に用いて効率的な符号化を行うことができる。これはレイヤ間予測動きベクトルが拡張レイヤのブロックの動きベクトルと非常に相関が高いためである。 With the above configuration and operation, in the enhancement layer motion vector encoding, the base layer motion vector can be used with higher priority than the other motion vectors, and efficient encoding can be performed. This is because the inter-layer prediction motion vector is highly correlated with the motion vector of the enhancement layer block.

なお、参照動きベクトル群の動きベクトルとして図6に示す位置のブロックを参照したが、これに限定されない。例えばブロック604の右に隣接するブロックの動きベクトルを加えても構わないし、これらの動きベクトルの中央値からなる動きベクトルを加えても構わない。 In addition, although the block of the position shown in FIG. 6 was referred as a motion vector of a reference motion vector group, it is not limited to this. For example, a motion vector of a block adjacent to the right of the block 604 may be added, or a motion vector composed of the median value of these motion vectors may be added.

なお、符号化効率向上のため、動きベクトル統合部で同じ成分を持つ動きベクトルをまとめることを行ったが、これに限定されず、固定の数の動きベクトルを選択しても良い。さらには動きベクトル統合部を省略しても構わない。 In order to improve the coding efficiency, the motion vectors having the same components are collected by the motion vector integration unit. However, the present invention is not limited to this, and a fixed number of motion vectors may be selected. Furthermore, the motion vector integration unit may be omitted.

なお、参照動きベクトル群の動きベクトルとして図6に示す位置のブロックを参照したが、これに限定されない。 In addition, although the block of the position shown in FIG. 6 was referred as a motion vector of a reference motion vector group, it is not limited to this.

<実施形態4>
本実施形態では画像符号化装置は実施形態2の図7と同じ構成をとる。ただし、拡張レイヤの動きベクトル復号部704の構成が異なる。したがって、基本レイヤに関する復号及び、拡張レイヤの量子化係数の復号に関しては実施形態2と同様であり、説明を省略する。また、本実施形態では実施形態3で生成された符号化データの復号を例にとって説明する。
<Embodiment 4>
In this embodiment, the image coding apparatus has the same configuration as that of FIG. However, the configuration of the motion vector decoding unit 704 in the enhancement layer is different. Therefore, the decoding related to the base layer and the decoding of the quantization coefficient of the enhancement layer are the same as those in the second embodiment, and a description thereof will be omitted. Further, in the present embodiment, description will be given taking decoding of the encoded data generated in the third embodiment as an example.

図14は本実施形態の動きベクトル復号部704の詳細な構成を示すブロック図である。図14において、実施形態2の図9と同様の機能を果たす部分に関しては同じ番号を付与し、説明を省略する。端子1401は図9の端子901と同様に動きベクトル変倍部703からレイヤ間予測動きベクトルを入力する。1403は動きベクトル抽出部であり、実施形態3の動きベクトル抽出部1203と同様に図6に示す拡張レイヤの符号化対象ブロックの周囲の動きベクトルないし前に符号化されたピクチャの動きベクトルを抽出する。1405は予測動きベクトル選択部であり、レイヤ間予測動きベクトルと参照動きベクトル群から予測動きベクトルから識別情報に従って予測動きベクトルを選択する。 FIG. 14 is a block diagram showing a detailed configuration of the motion vector decoding unit 704 of the present embodiment. In FIG. 14, the same numbers are assigned to portions that perform the same functions as those in FIG. Similarly to the terminal 901 in FIG. 9, the terminal 1401 inputs the inter-layer prediction motion vector from the motion vector scaling unit 703. Reference numeral 1403 denotes a motion vector extraction unit that extracts a motion vector around the encoding target block of the enhancement layer shown in FIG. 6 or a motion vector of a previously encoded picture in the same manner as the motion vector extraction unit 1203 of the third embodiment. To do. Reference numeral 1405 denotes a predicted motion vector selection unit, which selects a predicted motion vector according to identification information from a predicted motion vector from an inter-layer predicted motion vector and a reference motion vector group.

上記の構成で拡張レイヤの動きベクトルの符号化動作を以下に説明する。 An enhancement layer motion vector encoding operation with the above configuration will be described below.

動きベクトル抽出部1403は図6に示す拡張レイヤの復号対象ブロックの周囲の動きベクトルないし前に符号化されたピクチャの動きベクトルを抽出する。抽出された動きベクトルは動きベクトル統合部804に入力される。動きベクトル統合部804は実施形態2と同様に入力された動きベクトルで同じ成分を持つ動きベクトルをまとめ、参照動きベクトル群を生成する。また、実施形態2と同様にインデックス復号部806は識別情報符号データを復号し、識別情報を再生する。予測動きベクトル選択部1405は識別情報に従って、レイヤ間予測動きベクトルか参照動きベクトル群から予測動きベクトルを選択する。以下、実施形態2と同様に動きベクトルの予測誤差と選択された予測動きベクトルから拡張レイヤの復号対象の動きベクトルを再生する。 The motion vector extraction unit 1403 extracts a motion vector around the decoding target block of the enhancement layer shown in FIG. 6 or a motion vector of a previously encoded picture. The extracted motion vector is input to the motion vector integration unit 804. The motion vector integration unit 804 collects motion vectors having the same components from the input motion vectors as in the second embodiment, and generates a reference motion vector group. Similarly to the second embodiment, the index decoding unit 806 decodes the identification information code data and reproduces the identification information. The predicted motion vector selection unit 1405 selects a predicted motion vector from the inter-layer predicted motion vector or the reference motion vector group according to the identification information. Thereafter, as in the second embodiment, the motion vector to be decoded in the enhancement layer is reproduced from the motion vector prediction error and the selected predicted motion vector.

図15は、実施形態4に係る画像復号装置における拡張レイヤの動きベクトル復号処理を示すフローチャートである。図15において、図11のブロックと同様の機能を実現するステップについては同じ番号を付し、説明を省略する。まず、ステップS1101からステップS1103については実施形態2と同様である。すなわち、拡張レイヤの復号対象ブロックの周囲の動きベクトルないし前に復号されたピクチャの動きベクトルとレイヤ間予測動きベクトルの算出が行われる。ステップS1501にて、拡張レイヤの復号対象ブロックの周囲の動きベクトルないし前に復号されたピクチャの動きベクトルについて同じ成分の動きベクトルをまとめ、所定の順番に並べ替え、参照動きベクトル群を生成する。ステップS1502にて、レイヤ間予測動きベクトルを生成された参照動きベクトル群の先頭に追加する。以下、実施形態2の図11の拡張レイヤの動きベクトル復号処理と同様にステップS1105からステップS1007の処理が行われる。すなわち、識別情報の復号、予測動きベクトルの選択、動きベクトル予測誤差の再生、拡張レイヤの復号対象ブロックの動きベクトルの再生を行う。 FIG. 15 is a flowchart illustrating motion vector decoding processing of an enhancement layer in the image decoding device according to the fourth embodiment. In FIG. 15, steps for realizing the same functions as those in the block of FIG. First, Steps S1101 to S1103 are the same as those in the second embodiment. That is, the motion vector around the decoding target block of the enhancement layer or the motion vector of the previously decoded picture and the inter-layer prediction motion vector are calculated. In step S1501, motion vectors of the same component are grouped with respect to motion vectors around the decoding target block of the enhancement layer or motion vectors of previously decoded pictures, and rearranged in a predetermined order to generate a reference motion vector group. In step S1502, an inter-layer prediction motion vector is added to the head of the generated reference motion vector group. Thereafter, the processing from step S1105 to step S1007 is performed in the same manner as the motion vector decoding processing of the enhancement layer in FIG. 11 of the second embodiment. That is, the decoding of the identification information, the selection of the prediction motion vector, the reproduction of the motion vector prediction error, and the reproduction of the motion vector of the block to be decoded in the enhancement layer are performed.

以上の構成と動作により、拡張レイヤの動きベクトル復号において、基本レイヤの動きベクトルを他の動きベクトルより積極的に用いてより少ない符号量で符号化された符号データの復号を行うことができる。これはレイヤ間予測動きベクトルが拡張レイヤのブロックの動きベクトルと非常に相関が高いためである。 With the above configuration and operation, in the enhancement layer motion vector decoding, it is possible to decode the encoded data encoded with a smaller code amount by actively using the motion vector of the base layer than the other motion vectors. This is because the inter-layer prediction motion vector is highly correlated with the motion vector of the enhancement layer block.

なお、符号化効率向上のため、動きベクトル統合部で同じ成分を持つ動きベクトルをまとめることを行ったが、これに限定されず、固定の数の動きベクトルを選択しても良い。さらには動きベクトル統合部を省略しても構わない。 In order to improve the coding efficiency, the motion vectors having the same components are collected by the motion vector integration unit. However, the present invention is not limited to this, and a fixed number of motion vectors may be selected. Furthermore, the motion vector integration unit may be omitted.

なお、参照動きベクトル群の動きベクトルとして図6に示す位置のブロックを参照したが、これに限定されない。 In addition, although the block of the position shown in FIG. 6 was referred as a motion vector of a reference motion vector group, it is not limited to this.

<実施形態5>
図1、図2、図3、図7、図8、図9、図12、図14に示した各処理部はハードウェアでもって構成しているものとして上記実施形態では説明した。しかし、これらの図に示した各処理部で行なう処理をコンピュータプログラムでもって構成しても良い。
<Embodiment 5>
1, 2, 3, 7, 8, 9, 12, and 14 have been described in the above embodiment as being configured by hardware. However, the processing performed by each processing unit shown in these figures may be configured by a computer program.

図17は、上記各実施形態に係る画像表示装置に適用可能なコンピュータのハードウェアの構成例を示すブロック図である。 FIG. 17 is a block diagram illustrating a configuration example of computer hardware applicable to the image display device according to each of the above embodiments.

CPU1701は、RAM1702やROM1703に格納されているコンピュータプログラムやデータを用いてコンピュータ全体の制御を行うと共に、上記各実施形態に係る画像処理装置が行うものとして上述した各処理を実行する。即ち、CPU1701は、図1、図2、図3、図7、図8、図9、図12、図14に示した各処理部として機能することになる。 The CPU 1701 controls the entire computer using computer programs and data stored in the RAM 1702 and the ROM 1703, and executes the processes described above as performed by the image processing apparatus according to each of the above embodiments. That is, the CPU 1701 functions as each processing unit shown in FIGS. 1, 2, 3, 7, 8, 9, 12, and 14.

RAM1702は、外部記憶装置1706からロードされたコンピュータプログラムやデータ、I/F(インターフェース)1709を介して外部から取得したデータなどを一時的に記憶するためのエリアを有する。更に、RAM1702は、CPU1701が各種の処理を実行する際に用いるワークエリアを有する。即ち、RAM1702は、例えば、フレームメモリとして割当てたり、その他の各種のエリアを適宜提供することができる。 The RAM 1702 has an area for temporarily storing computer programs and data loaded from the external storage device 1706, data acquired from the outside via an I / F (interface) 1709, and the like. Further, the RAM 1702 has a work area used when the CPU 1701 executes various processes. That is, the RAM 1702 can be allocated as, for example, a frame memory or can provide various other areas as appropriate.

ROM1703には、本コンピュータの設定データや、ブートプログラムなどが格納されている。操作部1704は、キーボードやマウスなどにより構成されており、本コンピュータのユーザが操作することで、各種の指示をCPU1701に対して入力することができる。表示部1705は、CPU1701による処理結果を表示する。また表示部1705は例えば液晶ディスプレイで構成される。 The ROM 1703 stores setting data and a boot program for the computer. The operation unit 1704 is configured by a keyboard, a mouse, and the like, and various instructions can be input to the CPU 1701 by the user of the computer. A display unit 1705 displays a processing result by the CPU 1701. Further, the display unit 1705 is constituted by a liquid crystal display, for example.

外部記憶装置1706は、ハードディスクドライブ装置に代表される、大容量情報記憶装置である。外部記憶装置1706には、OS(オペレーティングシステム)や、図1、図2、図3、図7、図8、図9、図12、図14に示した各部の機能をCPU1701に実現させるためのコンピュータプログラムが保存されている。更には、外部記憶装置1706には、処理対象としての各画像データが保存されていても良い。 The external storage device 1706 is a large-capacity information storage device represented by a hard disk drive device. The external storage device 1706 has an operating system (OS) and the functions of the units shown in FIGS. 1, 2, 3, 7, 7, 8, 12, and 14 for causing the CPU 1701 to realize the functions. A computer program is stored. Furthermore, each image data as a processing target may be stored in the external storage device 1706.

外部記憶装置1706に保存されているコンピュータプログラムやデータは、CPU1701による制御に従って適宜、RAM1702にロードされ、CPU1701による処理対象となる。I/F1707には、LANやインターネット等のネットワーク、投影装置や表示装置などの他の機器を接続することができ、本コンピュータはこのI/F1707を介して様々な情報を取得したり、送出したりすることができる。1708は上述の各部を繋ぐバスである。 Computer programs and data stored in the external storage device 1706 are appropriately loaded into the RAM 1702 under the control of the CPU 1701 and are processed by the CPU 1701. The I / F 1707 can be connected to a network such as a LAN or the Internet, and other devices such as a projection device and a display device, and the computer can acquire and send various information via the I / F 1707. Can be. Reference numeral 1708 denotes a bus connecting the above-described units.

上述の構成からなる作動は前述のフローチャートで説明した作動をCPU1701が中心となってその制御を行う。 The operation having the above-described configuration is controlled by the CPU 1701 centering on the operation described in the above flowchart.

<その他の実施形態>
本発明の目的は、前述した機能を実現するコンピュータプログラムのコードを記録した記憶媒体を、システムに供給し、そのシステムがコンピュータプログラムのコードを読み出し実行することによっても達成される。この場合、記憶媒体から読み出されたコンピュータプログラムのコード自体が前述した実施形態の機能を実現し、そのコンピュータプログラムのコードを記憶した記憶媒体は本発明を構成する。また、そのプログラムのコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した機能が実現される場合も含まれる。
<Other embodiments>
The object of the present invention can also be achieved by supplying a storage medium storing a computer program code for realizing the above-described functions to the system, and the system reading and executing the computer program code. In this case, the computer program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the computer program code constitutes the present invention. In addition, the operating system (OS) running on the computer performs part or all of the actual processing based on the code instruction of the program, and the above-described functions are realized by the processing. .

さらに、以下の形態で実現しても構わない。すなわち、記憶媒体から読み出されたコンピュータプログラムコードを、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込む。そして、そのコンピュータプログラムのコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行って、前述した機能が実現される場合も含まれる。 Furthermore, you may implement | achieve with the following forms. That is, the computer program code read from the storage medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer. Then, based on the instruction of the code of the computer program, the above-described functions are realized by the CPU or the like provided in the function expansion card or function expansion unit performing part or all of the actual processing.

本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明したフローチャートに対応するコンピュータプログラムのコードが格納されることになる。 When the present invention is applied to the above storage medium, the computer program code corresponding to the flowchart described above is stored in the storage medium.

Claims (7)

複数のレイヤを用いて階層符号化されたビットストリームから、画像に含まれる少なくとも1つのブロックを復号する復号装置であって、
復号対象の画像が属する第1レイヤにおける、復号対象のブロックが属する画像より前に復号済みである画像に含まれ、当該復号対象のブロックに対応する位置にあるブロックの動きベクトルである第1ベクトルと、
前記復号対象の画像が属する第1レイヤとは異なる第2レイヤにおける画像に含まれ、復号対象のブロックに対応する位置にあるブロックの動きベクトルである第2ベクトルと、
前記復号対象の画像が属する第1レイヤにおける画像に含まれ、復号対象のブロックの周囲のブロックの動きベクトルである第3ベクトルと、を取得する取得手段と、
前記第1ベクトル、前記第2ベクトル、及び前記第3ベクトルから、前記取得手段によって取得すべき候補となる動きベクトル群を決定し、当該決定に基づいて取得された候補となる動きベクトル群のうち、前記ビットストリームから復号された予測動きベクトルを表す識別情報に対応する動きベクトルを復号対象のブロックの動きベクトルの予測に用いる予測動きベクトルとして決定する決定手段と、
前記決定手段によって決定された予測動きベクトルに基づいて、前記復号対象のブロックを復号する復号手段とを有し、
前記決定手段は、前記第2ベクトルが前記候補となる動きベクトル群に存在する場合に、前記第1ベクトルを前記候補となる動きベクトル群として含めずに、前記第2ベクトルと、前記第3ベクトルとのうちの少なくともいずれか一つを、前記候補となる動きベクトル群として決定することを特徴とする復号装置。
A decoding device that decodes at least one block included in an image from a bitstream that is hierarchically encoded using a plurality of layers,
A first vector that is a motion vector of a block that is included in an image that has been decoded before the image to which the block to be decoded belongs in the first layer to which the image to be decoded belongs, and that is at a position corresponding to the block to be decoded When,
A second vector that is a motion vector of a block that is included in an image in a second layer different from the first layer to which the image to be decoded belongs and that corresponds to the block to be decoded;
Acquisition means for acquiring a third vector that is included in an image in the first layer to which the image to be decoded belongs and that is a motion vector of a block around the block to be decoded;
A candidate motion vector group to be acquired by the acquisition unit is determined from the first vector, the second vector, and the third vector, and among the candidate motion vector groups acquired based on the determination, Determining means for determining a motion vector corresponding to identification information representing a predicted motion vector decoded from the bitstream as a predicted motion vector used for prediction of a motion vector of a block to be decoded;
Decoding means for decoding the block to be decoded based on the predicted motion vector determined by the determining means,
When the second vector exists in the candidate motion vector group, the determining means does not include the first vector as the candidate motion vector group, and includes the second vector and the third vector. At least one of them as a candidate motion vector group.
前記決定手段は、前記第2ベクトルが前記候補となる動きベクトル群に存在する場合に、前記第1ベクトルを前記候補となる動きベクトル群として含めずに、前記第3ベクトルのうち、同じ値を持つベクトルを除くベクトルに、前記第2ベクトルを加えることによって前記候補となる動きベクトル群を生成することを特徴とする請求項1に記載の復号装置。   When the second vector is present in the candidate motion vector group, the determining means does not include the first vector as the candidate motion vector group, and uses the same value in the third vector. The decoding apparatus according to claim 1, wherein the candidate motion vector group is generated by adding the second vector to a vector excluding a vector having the vector. 前記取得手段は、復号対象の画像が属する第1レイヤにおける復号対象のブロックが属する画像の、復号対象のブロックの左斜め上に隣接するブロック、上に隣接するブロック、左に隣接するブロック、又は他の方向に隣接するブロックの各動きベクトルのうち少なくとも一つを前記第3ベクトルとして取得することを特徴とする請求項1に記載の復号装置。   The acquisition means includes a block adjacent to the upper left of the block to be decoded, a block adjacent to the upper side, a block adjacent to the upper side, a block adjacent to the left, The decoding apparatus according to claim 1, wherein at least one of the motion vectors of blocks adjacent in another direction is acquired as the third vector. 複数のレイヤを用いて階層符号化されたビットストリームから、画像に含まれる少なくとも1つのブロックを復号する復号方法であって、
前記ビットストリームから予測動きベクトルを表わす識別情報を復号するステップと、
復号対象の画像が属する第1レイヤにおける、復号対象のブロックが属する画像より前に復号済みである画像に含まれ、前記復号対象のブロックに対応する位置にあるブロックの動きベクトルである第1ベクトル、前記復号対象の画像が属する第1レイヤとは異なる第2レイヤにおける画像に含まれ、前記復号対象のブロックに対応する位置にあるブロックの動きベクトルである第2ベクトル、および前記復号対象の画像が属する第1レイヤにおける画像の、前記復号対象のブロックの周囲のブロックの動きベクトルである第3ベクトルから、前記復号対象のブロックの動きベクトルの予測に用いる候補となる動きベクトル群を決定するステップと、
当該決定された候補となる動きベクトル群のうち、前記復号された識別情報に対応するベクトルを復号対象のブロックの動きベクトルの予測に用いる予測動きベクトルとして決定するステップと、
前記決定された予測動きベクトルに基づいて、前記復号対象のブロックを復号するステップとを有し、
前記動きベクトル群を決定するステップにおいて、前記第2ベクトルが前記候補となるベクトル群に存在する場合に、前記第1ベクトルを前記候補となる動きベクトル群として含めずに、前記第2ベクトルと、前記第3ベクトルとのうちの少なくともいずれか一つを、前記候補となるベクトル群として決定することを特徴とする復号方法。
A decoding method for decoding at least one block included in an image from a bitstream that is hierarchically encoded using a plurality of layers,
Decoding identification information representing a predicted motion vector from the bitstream;
A first vector that is a motion vector of a block that is included in an image that has been decoded before an image to which the block to be decoded belongs, in a first layer to which the image to be decoded belongs, and that is at a position corresponding to the block to be decoded A second vector that is a motion vector of a block that is included in an image in a second layer different from the first layer to which the image to be decoded belongs and that corresponds to the block to be decoded, and the image to be decoded Determining a motion vector group that is a candidate for use in predicting a motion vector of the block to be decoded from a third vector that is a motion vector of a block around the block to be decoded of the image in the first layer to which When,
Determining a vector corresponding to the decoded identification information as a predicted motion vector used for prediction of a motion vector of a block to be decoded among the determined candidate motion vector group;
Decoding the block to be decoded based on the determined prediction motion vector,
In the step of determining the motion vector group, when the second vector exists in the candidate vector group, the second vector is not included as the candidate motion vector group; A decoding method, wherein at least one of the third vectors is determined as the candidate vector group.
前記動きベクトル群を決定するステップにおいて、前記第2ベクトルが前記候補となるベクトル群に存在する場合に、前記第1ベクトルを前記候補となるベクトル群として含めずに、前記第3ベクトルのうち、同じ値を持つベクトルを除くベクトルに、前記第2ベクトルを加えることによって前記候補となるベクトル群を生成することを特徴とする請求項4に記載の復号方法。   In the step of determining the motion vector group, when the second vector is present in the candidate vector group, the first vector is not included as the candidate vector group, and the third vector, The decoding method according to claim 4, wherein the candidate vector group is generated by adding the second vector to a vector excluding vectors having the same value. 前記復号対象の画像が属する第1レイヤにおける復号対象のブックが属する画像の、復号対象のブロックの左斜め上に隣接するブロック、上に隣接するブロック、左に隣接するブロック、又は他の方向に隣接するブロックの各動きベクトルのうち少なくとも一つが前記第3ベクトルとして取得されることを特徴とする請求項4に記載の復号方法。   In the first layer to which the picture to be decoded belongs, the picture to which the book to be decoded belongs, the block adjacent to the upper left of the block to be decoded, the upper adjacent block, the block adjacent to the left, or in the other direction. The decoding method according to claim 4, wherein at least one of the motion vectors of adjacent blocks is acquired as the third vector. コンピュータを、請求項1乃至請求項3のいずれか一項に記載の復号装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the decoding apparatus as described in any one of Claims 1 thru | or 3.
JP2017143420A 2017-07-25 2017-07-25 Decoding device, decoding method and program Active JP6387159B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017143420A JP6387159B2 (en) 2017-07-25 2017-07-25 Decoding device, decoding method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017143420A JP6387159B2 (en) 2017-07-25 2017-07-25 Decoding device, decoding method and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016114651A Division JP6184558B2 (en) 2016-06-08 2016-06-08 Encoding device, encoding method and program, decoding device, decoding method and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018150570A Division JP6704962B2 (en) 2018-08-09 2018-08-09 Decoding device and decoding method

Publications (2)

Publication Number Publication Date
JP2017225145A true JP2017225145A (en) 2017-12-21
JP6387159B2 JP6387159B2 (en) 2018-09-05

Family

ID=60687241

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017143420A Active JP6387159B2 (en) 2017-07-25 2017-07-25 Decoding device, decoding method and program

Country Status (1)

Country Link
JP (1) JP6387159B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060153300A1 (en) * 2005-01-12 2006-07-13 Nokia Corporation Method and system for motion vector prediction in scalable video coding
JP2013021629A (en) * 2011-07-14 2013-01-31 Sony Corp Image processing apparatus and image processing method
JP2014514833A (en) * 2011-06-10 2014-06-19 メディアテック インコーポレイテッド Method and apparatus for scalable video coding
JP2014523694A (en) * 2011-06-30 2014-09-11 ヴィディオ・インコーポレーテッド Motion prediction in scalable video coding.
JP6184558B2 (en) * 2016-06-08 2017-08-23 キヤノン株式会社 Encoding device, encoding method and program, decoding device, decoding method and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060153300A1 (en) * 2005-01-12 2006-07-13 Nokia Corporation Method and system for motion vector prediction in scalable video coding
JP2014514833A (en) * 2011-06-10 2014-06-19 メディアテック インコーポレイテッド Method and apparatus for scalable video coding
JP2014523694A (en) * 2011-06-30 2014-09-11 ヴィディオ・インコーポレーテッド Motion prediction in scalable video coding.
JP2013021629A (en) * 2011-07-14 2013-01-31 Sony Corp Image processing apparatus and image processing method
JP6184558B2 (en) * 2016-06-08 2017-08-23 キヤノン株式会社 Encoding device, encoding method and program, decoding device, decoding method and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
DANNY HONG ET AL.: "Scalability Support in HEVC", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-F290r1, JPN6018014610, July 2011 (2011-07-01), pages 1 - 15 *

Also Published As

Publication number Publication date
JP6387159B2 (en) 2018-09-05

Similar Documents

Publication Publication Date Title
JP5950541B2 (en) Motion vector encoding device, motion vector encoding method and program, motion vector decoding device, motion vector decoding method and program
KR101906686B1 (en) Image encoding apparatus, image encoding method, image decoding apparatus, image decoding method, and computer-readable storage medium
JP2013219727A (en) Image coding apparatus, image coding method and program, image decoding apparatus, image decoding method and program
JP2013038758A (en) Image encoder, image encoding method, program, image decoder, image decoding method and program
JP6409516B2 (en) Picture coding program, picture coding method, and picture coding apparatus
JP2015019152A (en) Device, method and program for image coding, and device, method and program for image decoding
JP2013110518A (en) Image coding apparatus, image coding method, and program, and image decoding apparatus, image decoding method, and program
JP2013123201A (en) Image encoder, image encoding method, program, image decoder, image decoding method and program
JP6184558B2 (en) Encoding device, encoding method and program, decoding device, decoding method and program
US9648336B2 (en) Encoding apparatus and method
JP2014011726A (en) Image encoder, image encoding method and program, image decoder, and image decoding method and program
JP6387159B2 (en) Decoding device, decoding method and program
JP6704962B2 (en) Decoding device and decoding method
JP6882564B2 (en) Encoding device, decoding method
JP2013110517A (en) Motion vector encoding device, motion vector encoding method and program, motion vector decoding device, motion vector decoding method and program
JP6679777B2 (en) Image coding device, image coding method and program, image decoding device, image decoding method and program
JP2020092436A (en) Image encoding device, image encoding method, image decoding device, image decoding method, and program
JP2018125882A (en) Image encoding device, image encoding method and program, image decoding device, and image decoding method and program
JP2018078598A (en) Image encoding device, image encoding method and program, image decoding device, image decoding method and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A132

Effective date: 20180424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180620

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180717

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180810

R151 Written notification of patent or utility model registration

Ref document number: 6387159

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151