JPWO2012172634A1 - Image encoding apparatus, image decoding apparatus, method, and program - Google Patents

Image encoding apparatus, image decoding apparatus, method, and program Download PDF

Info

Publication number
JPWO2012172634A1
JPWO2012172634A1 JP2012534880A JP2012534880A JPWO2012172634A1 JP WO2012172634 A1 JPWO2012172634 A1 JP WO2012172634A1 JP 2012534880 A JP2012534880 A JP 2012534880A JP 2012534880 A JP2012534880 A JP 2012534880A JP WO2012172634 A1 JPWO2012172634 A1 JP WO2012172634A1
Authority
JP
Japan
Prior art keywords
image
block
information
shared
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012534880A
Other languages
Japanese (ja)
Inventor
田中 達也
達也 田中
央 小暮
央 小暮
古藤 晋一郎
晋一郎 古藤
知也 児玉
知也 児玉
浅野 渉
渉 浅野
洋平 深澤
洋平 深澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2012534880A priority Critical patent/JPWO2012172634A1/en
Publication of JPWO2012172634A1 publication Critical patent/JPWO2012172634A1/en
Pending legal-status Critical Current

Links

Images

Abstract

実施形態の画像符号化装置は、決定部と、取得部と、生成部と、符号化部と、を備える。決定部は、符号化対象の画像における視点の第1視差画像内の符号化対象ブロックに、前記視点と異なる他の視点の1または複数の第2視差画像において対応する対応ブロックを、前記第1視差画像の奥行き情報と、前記第1視差画像の視点と前記第2視差画像の視点との位置関係と、に基づいて決定し、前記1または複数の第2視差画像のそれぞれにおける前記対応ブロック、及び前記対応ブロックの近傍を含む小領域のブロックの中から、符号化情報を共有する共有ブロックを決定し、前記対応ブロックと前記共有ブロックとの位置関係を示す共有ブロック指定情報を生成する。取得部は、前記共有ブロック指定情報に基づいて、前記共有ブロックが共有する前記符号化情報を取得する。生成部は、取得した前記符号化情報に基づいて、予測画像を生成する。符号化部は、前記画像と前記予測画像とから符号化データを生成する。The image encoding device according to the embodiment includes a determination unit, an acquisition unit, a generation unit, and an encoding unit. The determining unit assigns a corresponding block corresponding to the encoding target block in the first parallax image of the viewpoint in the encoding target image in one or a plurality of second parallax images of other viewpoints different from the viewpoint. The corresponding block in each of the one or the plurality of second parallax images, determined based on the depth information of the parallax image and the positional relationship between the viewpoint of the first parallax image and the viewpoint of the second parallax image; In addition, a shared block that shares encoding information is determined from among blocks in a small area including the vicinity of the corresponding block, and shared block designation information that indicates a positional relationship between the corresponding block and the shared block is generated. The acquisition unit acquires the encoding information shared by the shared block based on the shared block designation information. The generation unit generates a predicted image based on the acquired encoded information. The encoding unit generates encoded data from the image and the predicted image.

Description

本発明の実施形態は、画像符号化装置、画像復号化装置、方法およびプログラムに関する。   Embodiments described herein relate generally to an image encoding device, an image decoding device, a method, and a program.

従来から、多視差画像符号化・復号化装置として、カメラパラメータや奥行き情報を利用した射影変換により、符号化対象ブロックに対応するブロックを符号化済みの他の視点の画像中から決定し、そのブロックが持つ動きベクトルおよび参照画像を指定する情報を共有するものが知られている。   Conventionally, as a multi-parallax image encoding / decoding device, a block corresponding to a block to be encoded is determined from encoded images of other viewpoints by projective transformation using camera parameters and depth information. A device that shares information specifying a motion vector and a reference image of a block is known.

しかしながら、このような従来技術では、奥行き情報の推定誤差やそれに加わる圧縮歪、さらには射影変換による誤差により、符号化対象ブロックに対応するブロックの決定を誤る可能性がある。また、共有できる符号化情報が動き情報のみに制限されてしまう。このため、従来の多視差画像符号化・復号化装置では符号化効率を向上させることが困難である。   However, in such a conventional technique, there is a possibility of erroneous determination of a block corresponding to a block to be encoded due to an estimation error of depth information, compression distortion added thereto, and an error due to projective transformation. In addition, encoding information that can be shared is limited to only motion information. For this reason, it is difficult for the conventional multi-parallax image encoding / decoding device to improve the encoding efficiency.

特表2010−515400号公報Special table 2010-515400

Jacek Konieczny, Marek Domanski: Depth-based Inter-view Prediction of Motion Vectors for Improved Multiview Video Coding, 3DTV-Conference: The True Vision - Capture, Transmission and Display of 3D Video (3DTV-CON), pp.1-4, 2010.Jacek Konieczny, Marek Domanski: Depth-based Inter-view Prediction of Motion Vectors for Improved Multiview Video Coding, 3DTV-Conference: The True Vision-Capture, Transmission and Display of 3D Video (3DTV-CON), pp.1-4, 2010.

本実施形態が解決しようとする課題は、符号化効率を向上させることができる画像符号化装置、画像復号化装置、方法およびプログラムを提供することである。   The problem to be solved by the present embodiment is to provide an image encoding device, an image decoding device, a method, and a program capable of improving encoding efficiency.

実施形態の画像符号化装置は、決定部と、取得部と、生成部と、符号化部と、を備える。決定部は、符号化対象の画像における視点の第1視差画像内の符号化対象ブロックに、前記視点と異なる他の視点の1または複数の第2視差画像において対応する対応ブロックを、前記第1視差画像の奥行き情報と、前記第1視差画像の視点と前記第2視差画像の視点との位置関係と、に基づいて決定し、前記1または複数の第2視差画像のそれぞれにおける前記対応ブロック、及び前記対応ブロックの近傍を含む小領域のブロックの中から、符号化情報を共有する共有ブロックを決定し、前記対応ブロックと前記共有ブロックとの位置関係を示す共有ブロック指定情報を生成する。取得部は、前記共有ブロック指定情報に基づいて、前記共有ブロックが共有する前記符号化情報を取得する。生成部は、取得した前記符号化情報に基づいて、予測画像を生成する。符号化部は、前記画像と前記予測画像とから符号化データを生成する。   The image encoding device according to the embodiment includes a determination unit, an acquisition unit, a generation unit, and an encoding unit. The determining unit assigns a corresponding block corresponding to the encoding target block in the first parallax image of the viewpoint in the encoding target image in one or a plurality of second parallax images of other viewpoints different from the viewpoint. The corresponding block in each of the one or the plurality of second parallax images, determined based on the depth information of the parallax image and the positional relationship between the viewpoint of the first parallax image and the viewpoint of the second parallax image; In addition, a shared block that shares encoding information is determined from among blocks in a small area including the vicinity of the corresponding block, and shared block designation information that indicates a positional relationship between the corresponding block and the shared block is generated. The acquisition unit acquires the encoding information shared by the shared block based on the shared block designation information. The generation unit generates a predicted image based on the acquired encoded information. The encoding unit generates encoded data from the image and the predicted image.

実施の形態1の画像符号化装置の図。1 is a diagram of an image encoding device according to Embodiment 1. FIG. 実施の形態1の符号化の一例の図。FIG. 4 is a diagram illustrating an example of encoding according to the first embodiment. 実施の形態1の対応マクロブロック決定の一例の図。FIG. 6 is a diagram illustrating an example of determining a corresponding macroblock according to the first embodiment. 実施の形態1の共有ブロックの決定の一例の図。FIG. 6 is a diagram illustrating an example of determining a shared block according to the first embodiment. 実施の形態1の共有ブロック指定情報の一例の図。FIG. 4 is an example of shared block designation information according to the first embodiment. 実施の形態1の符号化情報の共有の一例の図。FIG. 5 is a diagram illustrating an example of sharing encoded information according to the first embodiment. 実施の形態1の符号化処理のフローチャート。5 is a flowchart of encoding processing according to the first embodiment. 実施の形態1の予測処理のフローチャート。5 is a flowchart of prediction processing according to the first embodiment. 実施の形態2の画像復号化装置の図。The figure of the image decoding apparatus of Embodiment 2. FIG. 実施の形態2の復号化処理のフローチャート。10 is a flowchart of decoding processing according to the second embodiment. 実施の形態2の予測処理のフローチャート。10 is a flowchart of prediction processing according to the second embodiment.

(実施の形態1)
実施の形態1は、符号化対象画像である入力画像を入力して、入力画像をマクロブロックに分割し、符号化対象マクロブロックに対して、入力画像の視点と異なる視点の復号化済みの視差画像の符号化情報を共有して用いて符号化処理を行う画像符号化装置である。
(Embodiment 1)
In the first embodiment, an input image that is an encoding target image is input, the input image is divided into macro blocks, and the decoded disparity of the viewpoint different from the viewpoint of the input image with respect to the encoding target macro block It is an image encoding apparatus that performs encoding processing by sharing image encoding information.

図1は、実施の形態1の画像符号化装置の機能的構成を示すブロック図である。本実施の形態の画像符号化装置100は、図1に示すように、制御部116と、符号化部117とを備える。   FIG. 1 is a block diagram illustrating a functional configuration of the image coding apparatus according to the first embodiment. As shown in FIG. 1, the image coding apparatus 100 according to the present embodiment includes a control unit 116 and a coding unit 117.

符号化部117は、入力画像I(v)101を入力し、入力画像I(v)101をマクロブロックに分割する。符号化部117は、分割したマクロブロックに対して、入力画像の視点と異なる視点の復号化済みの視差画像の符号化情報を用い、予測画像を生成する。符号化部117は、この予測画像と入力画像I(v)101との残差情報を符号化した符号化データS(v)104を出力する。符号化制御部116は、符号化部117による画像符号化処理の全体を制御する。   The encoding unit 117 receives the input image I (v) 101 and divides the input image I (v) 101 into macroblocks. The encoding unit 117 generates a predicted image using the encoded parallax image information of a viewpoint different from the viewpoint of the input image for the divided macroblock. The encoding unit 117 outputs encoded data S (v) 104 obtained by encoding the residual information between the predicted image and the input image I (v) 101. The encoding control unit 116 controls the entire image encoding process by the encoding unit 117.

図2は、画像符号化処理の一例の説明図である。図2において、入力画像の視点を2、他の視点を0とすると、符号化部117は、他の視点0の符号化データS(0)とそれに対応する奥行き情報D(2)から、入力画像の視点2に対応する予測画像を生成する。   FIG. 2 is an explanatory diagram of an example of the image encoding process. In FIG. 2, when the viewpoint of the input image is 2 and the other viewpoints are 0, the encoding unit 117 inputs the encoded data S (0) of the other viewpoint 0 and the corresponding depth information D (2). A predicted image corresponding to viewpoint 2 of the image is generated.

図1に示すように、符号化部117は、減算器111と、変換・量子化部115と、可変長符号化部118と、逆変換・逆量子化部114と、加算器113と、予測部112と、バッファ105とを備える。   As shown in FIG. 1, the encoding unit 117 includes a subtractor 111, a transform / quantization unit 115, a variable length encoding unit 118, an inverse transform / inverse quantization unit 114, an adder 113, and a prediction. Unit 112 and buffer 105.

符号化部117には、入力画像I(v)101が入力される。減算器111は、予測部112で生成された予測画像と入力画像I(v)101との差分を求めて、この差分である残差を生成する。   An input image I (v) 101 is input to the encoding unit 117. The subtractor 111 calculates a difference between the predicted image generated by the prediction unit 112 and the input image I (v) 101, and generates a residual that is this difference.

変換・量子化部115は、残差を直交変換して変換係数を求めるとともに、変換係数を量子化して残差情報を求める。ここで、直交変換としては、例えば、離散コサイン変換を用いることができる。残差情報は、可変長符号化部118と逆変換・逆量子化114に入力される。   The transform / quantization unit 115 obtains transform coefficients by orthogonally transforming the residuals, and obtains residual information by quantizing the transform coefficients. Here, as the orthogonal transformation, for example, discrete cosine transformation can be used. The residual information is input to the variable length coding unit 118 and the inverse transform / inverse quantization 114.

逆変換・逆量子化114は、残差情報を逆量子化および逆直交変換の処理を行って局所復号化画像を再生する。加算器113は、再生された局所復号化画像と予測画像とを加算して復号化画像を生成する。この復号化画像は、参照画像としてバッファ105に保存される。   Inverse transform / inverse quantization 114 performs a process of inverse quantization and inverse orthogonal transform on the residual information to reproduce a locally decoded image. The adder 113 adds the reproduced local decoded image and the predicted image to generate a decoded image. This decoded image is stored in the buffer 105 as a reference image.

ここで、バッファ105は、フレームメモリ等の記憶媒体である。バッファ105には、上述の復号化画像が参照画像等として保存される他、復号化済みの他の視点の視差画像R(v’)が保存される。   Here, the buffer 105 is a storage medium such as a frame memory. In the buffer 105, the above-described decoded image is stored as a reference image or the like, and the decoded parallax image R (v ') of another viewpoint is stored.

予測部112は、バッファ105に保存された復号化済みの他の視点の視差画像R(v’)から予測画像を生成する。予測部112は、決定部106と、取得部107と、生成部108とを備える。   The prediction unit 112 generates a prediction image from the decoded parallax image R (v ′) of another viewpoint stored in the buffer 105. The prediction unit 112 includes a determination unit 106, an acquisition unit 107, and a generation unit 108.

決定部106は、符号化対象マクロブロックの符号化の際に符号化情報を共有する共有ブロックを、入力画像の視点と異なる他の視点の1または複数の視差画像(すなわちバッファ105に保存されている復号化済みの他の視点の視差画像R(v’))の中から、入力画像I(v)101の奥行き情報D(v)と、入力画像I(v)101の視点位置及び復号化済みの他の視点の視差画像R(v’)の視点位置の位置関係と、に基づいて決定する。ここで、視点位置どうしの位置関係とは、入力画像I(v)101を撮像したカメラと、復号化済みの他の視点の視差画像R(v’)を撮像したカメラとの間の位置関係であってよい。より具体的には、共有ブロック決定部105は以下のように共有ブロックを決定する。   The determination unit 106 stores the shared block that shares the encoding information when the encoding target macroblock is encoded as one or a plurality of parallax images (that is, stored in the buffer 105) of other viewpoints different from the viewpoint of the input image. The depth information D (v) of the input image I (v) 101, the viewpoint position of the input image I (v) 101, and decoding from among the decoded other viewpoint parallax images R (v ′)) It is determined based on the positional relationship between the viewpoint positions of the parallax images R (v ′) of other viewpoints that have already been completed. Here, the positional relationship between the viewpoint positions is the positional relationship between the camera that captured the input image I (v) 101 and the camera that captured the decoded parallax image R (v ′) of another viewpoint. It may be. More specifically, the shared block determination unit 105 determines a shared block as follows.

まず、決定部106は、入力画像I(v)101における視点の視差画像内の符号化対象のマクロブロックに、バッファ105に保存されている復号化済みの他の視点の視差画像R(v’)において対応するマクロブロックである対応マクロブロックを決定する。   First, the determination unit 106 adds the decoded other viewpoint parallax image R (v ′) stored in the buffer 105 to the macroblock to be encoded in the viewpoint parallax image in the input image I (v) 101. ) To determine a corresponding macroblock which is a corresponding macroblock.

具体的には、決定部106は、入力画像I(v)101の奥行き情報D(v)103を入力し、この奥行き情報D(v)103及びカメラパラメータを用いて共有ブロックを決定する。   Specifically, the determination unit 106 inputs depth information D (v) 103 of the input image I (v) 101, and determines a shared block using the depth information D (v) 103 and camera parameters.

図3は、対応マクロブロックの決定処理を説明するための図である。決定部106は、入力画像I(v)101の符号化対象マクロブロックに対応する対応マクロブロックの座標を、次の(1)式、(2)式を用いた射影変換により算出する。   FIG. 3 is a diagram for explaining the corresponding macroblock determination process. The determination unit 106 calculates the coordinates of the corresponding macroblock corresponding to the encoding target macroblock of the input image I (v) 101 by projective transformation using the following equations (1) and (2).

Figure 2012172634
Figure 2012172634

ここで、R、A、Tはいずれもカメラパラメータであり、Rはカメラの回転行列を示し、Aは内部カメラ行列を示し、Tはカメラの並進行列を示す。また、zは、入力画像I(v)101の奥行き情報D(v)である奥行き値を示す。   Here, R, A, and T are all camera parameters, R represents a camera rotation matrix, A represents an internal camera matrix, and T represents a parallel progression sequence of the cameras. Z indicates a depth value which is depth information D (v) of the input image I (v) 101.

すなわち、決定部106は、(1)式により、符号化対象マクロブロックの視点のカメラCiにおける視差画像中の符号化対象マクロブロックを3次元空間座標へ投影する。その後、決定部106は、(2)式により、他の視点のカメラCjの視差画像へと逆投影することにより、復号化済みの他の視点の視差画像R(v’)(参照画像)における対応マクロブロックを決定する。なお、対応マクロブロックが見つからない場合には、次のバッファ105内の次の参照画像について上記射影変換の処理を行う。   In other words, the determination unit 106 projects the encoding target macroblock in the parallax image in the camera Ci at the viewpoint of the encoding target macroblock to the three-dimensional space coordinates by the expression (1). After that, the determination unit 106 performs back projection on the parallax image of the camera Cj of another viewpoint according to the equation (2), so that the parallax image R (v ′) (reference image) of the other viewpoint has been decoded. Determine the corresponding macroblock. If no corresponding macroblock is found, the projective transformation process is performed on the next reference image in the next buffer 105.

そして、決定部106は、復号化済みの他の視点の視差画像R(v’)の対応マクロブロックと対応マクロブロックを中心とした近傍のマクロブロックを含む小領域を探索範囲として選定する。   Then, the determination unit 106 selects, as a search range, a small area including a corresponding macroblock of a parallax image R (v ′) of another decoded viewpoint and a neighboring macroblock centered on the corresponding macroblock.

そして、決定部106は、バッファ105に保存されている参照画像(復号化済みの他の視点の視差画像R(v’))のそれぞれの小領域中のマクロブロックの中から、符号化情報を共有するマクロブロックである共有ブロックを決定する。   Then, the determination unit 106 obtains encoding information from the macroblocks in each small area of the reference image (the decoded parallax image R (v ′) of another viewpoint) stored in the buffer 105. A shared block that is a macroblock to be shared is determined.

より具体的には、決定部106は、上記小領域の各マクロブロックの符号化情報を共有した場合のRDコストを算出する。   More specifically, the determination unit 106 calculates the RD cost when the encoding information of each macroblock in the small area is shared.

図4は、共有ブロックの決定処理を説明するための図である。決定部106は、RDコストを、次の(3)式で算出する。   FIG. 4 is a diagram for explaining shared block determination processing. The determination unit 106 calculates the RD cost by the following equation (3).

Figure 2012172634
Figure 2012172634

ここで、Distortionは、マクロブロックの符号化情報を共有した時に発生する残差を示す。Rateは、マクロブロックの符号化情報を共有した場合に発生する符号量を示す。λは結合係数を示す。RDコストの詳細については、上述の非特許文献および特許文献に記述されている。   Here, “Distortion” indicates a residual generated when the encoding information of the macroblock is shared. “Rate” indicates the amount of code generated when the encoding information of the macroblock is shared. λ represents a coupling coefficient. Details of the RD cost are described in the above-mentioned non-patent document and patent document.

決定部106は、図4に示すように、バッファ105に保存されている全ての参照画像および、各参照画像における小領域中の全てのマクロブロックに対し、(3)式によりRDコストを算出し、RDコストが最小となるマクロブロックを、共有ブロックとして決定する。   As illustrated in FIG. 4, the determination unit 106 calculates the RD cost for all the reference images stored in the buffer 105 and all the macroblocks in the small area in each reference image using the equation (3). , The macroblock with the lowest RD cost is determined as a shared block.

また、決定部106は、共有ブロックが決定したら、対応マクロブロックと共有ブロックとの位置関係を示す共有ブロック指定情報を生成する。ここで、本実施の形態では、共有ブロック指定情報として、符号化情報の共有を同時刻からのみに制限して共有ブロックが存在する参照画像の視点を示すview_indexと、小領域上での対応ブロックに対する共有ブロックの相対位置を示すblk_indexを用いている。   In addition, when the shared block is determined, the determination unit 106 generates shared block designation information indicating the positional relationship between the corresponding macro block and the shared block. Here, in the present embodiment, as shared block designation information, view_index indicating the viewpoint of the reference image in which the shared block exists by limiting the sharing of the encoded information only from the same time, and the corresponding block on the small area Blk_index indicating the relative position of the shared block with respect to is used.

図5は、共有ブロック指定情報の一例を示す図である。図5では、各視点の参照画像中の小領域で、対応ブロックの位置を「0」とし、小領域中で左上から右下へ順にマクロブロックの番号を振った場合を一例としてあげる。このような場合において、図5に示すように、視点0の参照画像の小領域で対応ブロックからの相対位置が番号「3」のマクロブロックのRDコストが最小になったとすると、決定部106は、共有ブロック指定情報を「view=index=0,blk_index=3」として生成する。   FIG. 5 is a diagram illustrating an example of shared block designation information. In FIG. 5, as an example, the position of the corresponding block is set to “0” in the small area in the reference image of each viewpoint, and the macroblock numbers are assigned in order from the upper left to the lower right in the small area. In such a case, as shown in FIG. 5, assuming that the RD cost of the macroblock whose relative position from the corresponding block is “3” in the small area of the reference image of viewpoint 0 is the smallest, The shared block designation information is generated as “view = index = 0, blk_index = 3”.

図1に戻り、取得部107は、決定部106により決定された共有ブロック(すなわちバッファ105において、共有ブロック指定情報が示す共有ブロック)を含む他の視点の符号化データS(v’)を入力し、当該他の視点の符号化データS(v’)または共有ブロックから、共有ブロックを符号化した際の符号化情報を取得する。本実施の形態では、取得部107は、符号化情報として、例えば、符号化モード(PredMode)、動きベクトル(Mv)、参照画像を指定するインデックス(Ref_index)等を取得する。   Returning to FIG. 1, the acquisition unit 107 inputs encoded data S (v ′) of another viewpoint including the shared block determined by the determination unit 106 (that is, the shared block indicated by the shared block designation information in the buffer 105). Then, the encoding information when the shared block is encoded is acquired from the encoded data S (v ′) of the other viewpoint or the shared block. In the present embodiment, the acquisition unit 107 acquires, for example, an encoding mode (PredMode), a motion vector (Mv), an index (Ref_index) specifying a reference image, and the like as encoding information.

生成部108は、取得部107により取得した符号化情報に基づいて、予測画像を生成する。生成部108は、生成された予測画像を出力する。すなわち、符号化対象マクロブロックの符号化において、復号化済みの他の視点の視差画像R(v’)における共有ブロックの符号化情報を共有して使用されることになる。   The generation unit 108 generates a prediction image based on the encoded information acquired by the acquisition unit 107. The generation unit 108 outputs the generated predicted image. That is, in the encoding of the encoding target macroblock, the encoding information of the shared block in the parallax image R (v ′) of another viewpoint that has been decoded is shared and used.

図6は、符号化情報の共有の一例を示す図である。生成部108は、図6に示すように、符号化対象マクロブロックから予測画像を生成する際に、この符号化対象マクロブロックに対して決定された共有ブロック(マクロブロック)を符号化した際の符号化情報として、符号化モード(PredMode):L0予測、動きベクトル(Mv):(10,20)、参照画像を指定するインデックス(ref_index)=1が用いられる。   FIG. 6 is a diagram illustrating an example of encoding information sharing. As illustrated in FIG. 6, the generation unit 108 generates a predicted image from the encoding target macroblock, and encodes the shared block (macroblock) determined for the encoding target macroblock. As coding information, coding mode (PredMode): L0 prediction, motion vector (Mv): (10, 20), and index (ref_index) = 1 for designating a reference image are used.

ここで、符号化対象マクロブロックと共有ブロックとで使用する符号化情報については共通であるが、それぞれのマクロブロックを符号化する際のバッファ105中の参照画像が異なるため、符号化対象マクロブロックが参照する参照画像と、共有ブロックが参照する参照画像とは異なることになる。   Here, although the encoding information used in the encoding target macroblock and the shared block is common, the reference image in the buffer 105 when encoding each macroblock is different, so the encoding target macroblock The reference image referred to by and the reference image referenced by the shared block are different.

可変長符号化部118は、変換・量子化部115から出力される残差情報を可変長符号化して符号化データS(v)104を生成する。また、可変長符号化部118は、決定部106から出力される共有ブロック指定情報に可変長符号化の処理を施し、符号化された共有ブロック指定情報を符号化データに付加する。すなわち、可変長符号化部118は、符号化された残差情報と、符号化された共有ブロック指定情報とを含む符号化データS(v)104を生成する。そして、可変長符号化部118は、この符号化データS(v)104を出力する。この符号化データS(v)104は、ネットワークまたは蓄積メディアを介して画像復号化装置に入力される。   The variable length encoding unit 118 performs variable length encoding on the residual information output from the transform / quantization unit 115 to generate encoded data S (v) 104. In addition, the variable length coding unit 118 performs variable length coding processing on the shared block designation information output from the determination unit 106, and adds the encoded shared block designation information to the encoded data. That is, the variable length encoding unit 118 generates encoded data S (v) 104 including the encoded residual information and the encoded shared block designation information. Then, the variable length encoding unit 118 outputs the encoded data S (v) 104. The encoded data S (v) 104 is input to the image decoding apparatus via a network or a storage medium.

次に、以上のように構成された本実施の形態の画像符号化装置100による画像符号化処理について説明する。図7は、画像符号化処理の手順を示すフローチャートである。   Next, an image encoding process performed by the image encoding apparatus 100 according to the present embodiment configured as described above will be described. FIG. 7 is a flowchart showing the procedure of the image encoding process.

符号化部117は、入力画像I(v)を入力する(ステップS101)。ここで、入力された入力画像I(v)は、所定サイズのマクロブロックに分割される。一方、符号化部117は、入力画像I(v)の視点と異なる一または複数の他の視点の復号化済み視差画像R(v’)を入力し、バッファ105に参照画像として保存する(ステップS102)。   The encoding unit 117 inputs the input image I (v) (step S101). Here, the inputted input image I (v) is divided into macroblocks of a predetermined size. On the other hand, the encoding unit 117 inputs a decoded parallax image R (v ′) of one or a plurality of other viewpoints different from the viewpoint of the input image I (v), and stores the decoded parallax image R (v ′) as a reference image in the buffer 105 (Step S1). S102).

予測部112は、入力画像I(v)の復号化済みの奥行き情報D(v)を入力して、他の視点の復号化済み視差画像R(v’)とこの奥行き情報D(v)を用いて予測画像を生成する(ステップS103)。   The prediction unit 112 receives the decoded depth information D (v) of the input image I (v), receives the decoded parallax image R (v ′) of another viewpoint and the depth information D (v). A prediction image is generated using the prediction image (step S103).

図8は、予測処理の手順を示すフローチャートである。まず、決定部106は、バッファ105から参照画像を選択する(ステップS301)。そして、決定部106は、上述の(1)、(2)式を用いた射影変換により、参照画像中において、符号化対象マクロブロックに対応する対応マクロブロックを決定する(ステップS302)。   FIG. 8 is a flowchart showing the procedure of the prediction process. First, the determination unit 106 selects a reference image from the buffer 105 (step S301). Then, the determination unit 106 determines a corresponding macroblock corresponding to the encoding target macroblock in the reference image by projective transformation using the above-described equations (1) and (2) (step S302).

決定部106は、参照画像中で、対応マクロブロックと、対応マクロブロックを中心とした近傍のマクロブロックと、を含む小領域を決定する(ステップS303)。そして、決定部106は、小領域を構成する複数のマクロブロックの中から一つのマクロブロックを選択する(ステップS304)。そして、決定部106は、選択したマクロブロックのRDコストを上述した(3)式を用いて算出する(ステップS305)。決定部106は、算出したRDコストを、不図示のメモリ等に一時的に保存しておく。   The determination unit 106 determines a small region including a corresponding macroblock and a neighboring macroblock centered on the corresponding macroblock in the reference image (step S303). Then, the determination unit 106 selects one macro block from among a plurality of macro blocks constituting the small area (step S304). Then, the determination unit 106 calculates the RD cost of the selected macroblock using the above-described equation (3) (step S305). The determination unit 106 temporarily stores the calculated RD cost in a memory (not shown) or the like.

決定部106は、小領域内の全てのマクロブロックについてRDコストを算出したか否かを判断する(ステップS306)。まだ、決定部106が小領域内の全てのマクロブロックについてRDコストを算出していない場合には(ステップS306:No)、決定部106は小領域で、まだRDコストを算出していない次のマクロブロックを選択し(ステップS307)、ステップS305へ戻って、選択したマクロブロックのRDコストを算出する(ステップS305)。これにより、小領域内の全てのマクロブロックに対してRDコストが算出される。   The determination unit 106 determines whether the RD cost has been calculated for all macroblocks in the small area (step S306). If the determining unit 106 has not yet calculated the RD cost for all macroblocks in the small area (step S306: No), the determining unit 106 is the small area and has not yet calculated the RD cost. A macroblock is selected (step S307), the process returns to step S305, and the RD cost of the selected macroblock is calculated (step S305). Thereby, the RD cost is calculated for all macroblocks in the small area.

ステップS306において、決定部106が小領域内の全てのマクロブロックについてRDコストを算出した場合には(ステップS306:Yes)、決定部106は、バッファ105内の全ての参照画像(全ての他の視点の復号化済み視差画像R(v’))に対して、対応マクロブロックの決定処理、RDコストの算出処理が終了したか否かを判断する(ステップS308)。   In step S306, when the determination unit 106 calculates the RD cost for all the macroblocks in the small region (step S306: Yes), the determination unit 106 selects all the reference images (all other images) in the buffer 105. It is determined whether the corresponding macroblock determination process and the RD cost calculation process have been completed for the viewpoint-decoded parallax image R (v ′)) (step S308).

そして、決定部106が、まだ全ての参照画像に対して対応マクロブロックの決定処理、RDコストの算出処理を行っていない場合には(ステップS308:No)、決定部106は、バッファ105中で、まだ対応マクロブロックの決定処理、RDコストの算出処理を行っていない次の参照画像を選択し(ステップS309)、ステップS302からS307までの対応マクロブロックの決定処理およびRDコストの算出処理を繰り返し行う。これにより、バッファ105内の全ての参照画像において、対応ブロックを中心とした小領域内の全てのマクロブロックに対するRDコストが算出されメモリ(不図示)に保存されることになる。   If the determination unit 106 has not yet performed the corresponding macroblock determination process and the RD cost calculation process for all the reference images (step S308: No), the determination unit 106 The next reference image that has not yet been subjected to the corresponding macroblock determination process and the RD cost calculation process is selected (step S309), and the corresponding macroblock determination process and the RD cost calculation process from step S302 to S307 are repeated. Do. As a result, in all reference images in the buffer 105, RD costs for all macroblocks in a small area centered on the corresponding block are calculated and stored in a memory (not shown).

決定部106が全ての参照画像に対して対応マクロブロックの決定処理、RDコストの算出処理を完了したら(ステップS308:Yes)、決定部106は、メモリ中に保存されたRDコストの中から、最小となるRDコストを算出したマクロブロックを共有ブロックと決定する(ステップS310)。   When the determination unit 106 completes the corresponding macroblock determination processing and the RD cost calculation processing for all reference images (step S308: Yes), the determination unit 106 selects the RD cost stored in the memory from The macroblock for which the minimum RD cost is calculated is determined as a shared block (step S310).

決定部106は、決定した共有ブロックが存在する参照画像の視点を指定したview_index、および当該参照画像の小領域における共有ブロックの対応ブロックに対する相対位置を指定したblk_indexの各値を共有ブロック指定情報として設定する(ステップS311)。決定部106は、この共有ブロック指定情報を、取得部107と、可変長符号化部118とに出力する。   The determination unit 106 uses each value of view_index specifying the viewpoint of the reference image in which the determined shared block exists and blk_index specifying the relative position of the shared block to the corresponding block in the small area of the reference image as shared block specification information. Setting is made (step S311). The determination unit 106 outputs the shared block designation information to the acquisition unit 107 and the variable length encoding unit 118.

取得部107は、共有ブロック指定情報が示す共有ブロックの符号化情報を、当該共有ブロックを含む参照画像の符号化データS(v’)または共有ブロックから取得する(ステップS312)。生成部108は、取得された符号化情報(符号化モード、動きベクトル、参照画像の指定インデックス)に従って、予測画像を生成する(ステップS313)。生成部108は生成された予測画像を出力し、予測処理を終了する。   The acquisition unit 107 acquires the encoding information of the shared block indicated by the shared block designation information from the encoded data S (v ′) of the reference image including the shared block or the shared block (step S312). The generation unit 108 generates a predicted image according to the acquired encoding information (encoding mode, motion vector, reference index of reference image) (step S313). The generation unit 108 outputs the generated predicted image and ends the prediction process.

図7に戻り、ステップS103の予測処理が終了したら、減算器111が、入力画像I(v)101とこの予測画像との減算処理を行い、残差を出力する(ステップS104)。変換・量子化部115は、残差を直交変換して変換係数を求め、変換係数を量子化して残差情報を求める(ステップS105)。   Returning to FIG. 7, when the prediction process in step S103 is completed, the subtractor 111 performs a subtraction process between the input image I (v) 101 and the predicted image, and outputs a residual (step S104). The transform / quantization unit 115 orthogonally transforms the residual to obtain a transform coefficient, and quantizes the transform coefficient to obtain residual information (step S105).

可変長符号化部118は、残差情報と、予測部112の決定部106から出力された共有ブロック指定情報とに可変長符号化を施して、符号化データS(v)104を生成する(ステップS106)。可変長符号化部118は、この符号化データS(v)104を出力する(ステップS107)。   The variable length coding unit 118 performs variable length coding on the residual information and the shared block designation information output from the determination unit 106 of the prediction unit 112 to generate coded data S (v) 104 ( Step S106). The variable length encoding unit 118 outputs the encoded data S (v) 104 (step S107).

このように本実施の形態では、入力画像の視点と異なる視点の復号化済み視差画像R(v’)において、符号化対象マクロブロックに対応する対応ブロックを中心とする小領域の中から、RDコストが最小となるマクロブロックを共有ブロックとして決定し、その共有ブロックの符号化情報を、符号化対象マクロブロックからの予測画像の生成の際に使用する。また、この符号化情報は動き情報に限られるものではない。すなわち、本実施の形態では、互いに異なる視点の視差画像間で、動き情報に限定されない符号化情報を共有して符号化処理を行い、そして、決定した共有ブロックの位置を示す指定情報を符号化データに付加して出力することにより、射影変換等の誤差の影響を低減することができ、符号化効率を向上させることができる。   As described above, in the present embodiment, in the decoded parallax image R (v ′) having a viewpoint different from the viewpoint of the input image, RD is selected from the small regions centering on the corresponding block corresponding to the encoding target macroblock. The macro block with the lowest cost is determined as a shared block, and the encoding information of the shared block is used when generating a predicted image from the encoding target macro block. Also, this encoded information is not limited to motion information. That is, in the present embodiment, encoding processing is performed by sharing encoding information that is not limited to motion information between parallax images of different viewpoints, and specification information indicating the position of the determined shared block is encoded. By adding to the data and outputting it, the influence of errors such as projective transformation can be reduced, and the coding efficiency can be improved.

本実施の形態では、共有ブロック指定情報として、共有ブロックが含まれる参照画像の視点を示すview_indexと、小領域上での対応ブロックに対する共有ブロックの相対位置を示すblk_indexを用いているが、共有ブロックを指定可能な情報であれば、これらに限定されるものではない。   In the present embodiment, view_index indicating the viewpoint of the reference image including the shared block and blk_index indicating the relative position of the shared block with respect to the corresponding block on the small area are used as the shared block designation information. The information is not limited to these as long as the information can be designated.

例えば、参照画像そのものを識別するための番号ref_indexを共有ブロック指定情報に用い、参照画像を指定するように構成することができる。また、共有ブロックの対応ブロックから相対位置についても、水平方向の相対位置を±H(H≧0)ブロック、垂直方向の相対位置を±V(V≧0)ブロックのような形式で共有ブロック指定情報に設定するように決定部106等を構成してもよい。   For example, a reference image can be configured by using a number ref_index for identifying the reference image itself as shared block designation information. Also, regarding the relative position from the corresponding block of the shared block, the shared block designation is made in such a format that the relative position in the horizontal direction is ± H (H ≧ 0) block and the relative position in the vertical direction is ± V (V ≧ 0) block. The determination unit 106 and the like may be configured to set the information.

また、例えば、H.264における動きベクトルの予測に用いられるような、隣接ブロックの中央値を予測に用いる方式により、符号化対象マクロブロックの周囲のブロックから予測する方式で共有ブロックを指定する共有ブロック指定情報を用いるように、決定部106等を構成してもよい。   Also, for example, H. The shared block designation information for designating the shared block is used in a method of predicting from the surrounding blocks of the encoding target macroblock by the method of using the median value of adjacent blocks for the prediction as used in motion vector prediction in H.264. In addition, the determination unit 106 and the like may be configured.

さらに、符号化情報として、画面内予測情報を符号化対象マクロブロックと共有ブロックとで共有する場合には、共有ブロックが存在する視差画像中のマクロブロックから予測画像を生成するように生成部108を構成してもよい。隣接マクロブロックから予測を行う画面内予測では、例えばオブジェクト境界において、符号化対象マクロブロックが背景、隣接するマクロブロックが前景となるオブジェクトに含まれる場合には、各マクロブロックの画素値が異なるため予測が正確とならない可能性が高い。このため、入力画像の視点と異なる他の視点の視差画像中の共有ブロックの隣接マクロブロックを利用して画面内予測を行うように生成部108を構成すればよい。共有ブロックが存在する視点からは、入力画像の視点では隠面となって視認できない背景が画面内に現れており、入力画像の視点内には存在しない隠面(背景領域)のマクロブロックを用いて符号化対象マクロブロックを予測することが可能になるため、オブジェクト境界での予測効率を向上させることが期待できる。   Further, when the intra prediction information as the encoding information is shared between the encoding target macroblock and the shared block, the generation unit 108 generates a prediction image from the macroblock in the parallax image in which the shared block exists. May be configured. In intra-screen prediction in which prediction is performed from adjacent macroblocks, for example, if the macroblock to be encoded is included in the background and the adjacent macroblock is included in the foreground at the object boundary, the pixel values of the macroblocks are different. Predictions are not likely to be accurate. For this reason, the generation unit 108 may be configured to perform intra prediction using a macroblock adjacent to a shared block in a parallax image of another viewpoint different from the viewpoint of the input image. From the viewpoint where the shared block exists, a hidden surface (background area) macroblock that does not exist in the viewpoint of the input image appears on the screen as a background that is hidden from the viewpoint of the input image. Thus, it is possible to predict a macroblock to be encoded, and it can be expected to improve the prediction efficiency at the object boundary.

(実施の形態2)
実施の形態2は、実施の形態1の画像符号化装置100で符号化された符号化データS(v)104を復号化する際に、符号化データS(v)104に付加された共有ブロック指定情報が示す共有ブロックの符号化情報を共有して用いて予測画像を生成する画像復号化装置である。ここで、復号化対象の符号化データS(v)104には、残差情報、共有ブロック指定情報の符号が含まれている。
(Embodiment 2)
In the second embodiment, the shared block added to the encoded data S (v) 104 when the encoded data S (v) 104 encoded by the image encoding apparatus 100 of the first embodiment is decoded. It is an image decoding apparatus that generates a predicted image by sharing and using encoded information of a shared block indicated by designation information. Here, the encoded data S (v) 104 to be decoded includes codes of residual information and shared block designation information.

図9は、実施の形態2の画像復号化装置の機能的構成を示すブロック図である。本実施の形態の画像復号化装置500は、図9に示すように、制御部501と、復号化部502とを備える。   FIG. 9 is a block diagram illustrating a functional configuration of the image decoding apparatus according to the second embodiment. The image decoding apparatus 500 according to the present embodiment includes a control unit 501 and a decoding unit 502, as shown in FIG.

復号化部502は、実施の形態1の画像符号化装置100から、ネットワークまたは蓄積メディアを介して、復号化対象画像である符号化データS(v)104(以下、「復号化対象画像」と呼ぶ場合もある。)を入力し、符号化データS(v)104をマクロブロックに分割し、分割されたマクロブロックに対して、符号化データS(v)104における視点の視差画像とは異なる他の視点の復号化済み視差画像R(v’)における共有ブロックを、符号化データS(v)104に付加された共有ブロック指定情報から特定して、共有ブロックの符号化情報を用いて予測画像を生成して、符号化データS(v)104を復号化する。復号化制御部501は、復号化部502の全体を制御する。   The decoding unit 502 transmits encoded data S (v) 104 (hereinafter, “decoding target image”) as a decoding target image from the image encoding apparatus 100 according to the first embodiment via a network or a storage medium. The encoded data S (v) 104 is divided into macro blocks, and the divided macro block is different from the viewpoint parallax image in the encoded data S (v) 104. A shared block in the decoded parallax image R (v ′) of another viewpoint is identified from the shared block designation information added to the encoded data S (v) 104, and prediction is performed using the encoded information of the shared block An image is generated and the encoded data S (v) 104 is decoded. The decoding control unit 501 controls the entire decoding unit 502.

復号化部502は、図9に示すように、可変長復号化部504と、逆変換・逆量子化部514と、加算器515と、予測部512と、バッファ505とを備える。ここで、可変長復号化部504、逆変換・逆量子化部514、加算器515は復号化部として機能する。   As illustrated in FIG. 9, the decoding unit 502 includes a variable length decoding unit 504, an inverse transform / inverse quantization unit 514, an adder 515, a prediction unit 512, and a buffer 505. Here, the variable length decoding unit 504, the inverse transform / inverse quantization unit 514, and the adder 515 function as a decoding unit.

可変長復号化部504は、復号化対象画像としての符号化データS(v)104を入力し、入力された符号化データS(v)104に可変長復号化処理を行い、符号化データS(v)104に含まれる残差情報(量子化直交変換係数情報)と共有ブロック指定情報とを求める。可変長復号化部504は、復号化された残差情報を逆変換・逆量子化部514に出力し、復号化された共有ブロック指定情報を予測部512の決定部506に出力する。   The variable length decoding unit 504 receives encoded data S (v) 104 as a decoding target image, performs variable length decoding processing on the input encoded data S (v) 104, and encodes the encoded data S (V) Find residual information (quantized orthogonal transform coefficient information) and shared block designation information included in 104. The variable length decoding unit 504 outputs the decoded residual information to the inverse transform / inverse quantization unit 514, and outputs the decoded shared block designation information to the determination unit 506 of the prediction unit 512.

ここで、共有ブロック指定情報の詳細については実施の形態1と同様であり、符号化データS(v)の視点の復号化済み奥行き情報D(v)と復号化対象画像を撮像したカメラと他の視点の復号化済み視差画像R(v’)を撮像したカメラとの間の位置関係とに基づいて決定された対応ブロックと、符号化情報を共有する共有ブロックとの位置関係を示す情報である。   Here, the details of the shared block designation information are the same as in the first embodiment, the decoded depth information D (v) of the viewpoint of the encoded data S (v), the camera that captured the decoding target image, and the like. Information indicating the positional relationship between the corresponding block determined based on the positional relationship with the camera that captured the decoded parallax image R (v ′) of the viewpoint and the shared block sharing the encoding information is there.

共有ブロック指定情報には、共有ブロックが含まれる参照画像の視点を示すview_indexと、小領域上での対応ブロックに対する共有ブロックの相対位置を示すblk_indexが含まれるが、実施の形態1で説明したのと同様に、これらに限定されるものではない。   The shared block designation information includes a view_index indicating the viewpoint of the reference image including the shared block, and a blk_index indicating the relative position of the shared block with respect to the corresponding block on the small area, as described in the first embodiment. Like, but not limited to.

逆変換・逆量子化部514は、残差情報に逆量子化処理および逆直交変換処理を行って残差信号を出力する。加算器515は、残差信号と、予測部512で生成された予測画像とを加算して復号化画像を生成し、復号化画像を出力画像503として出力する。   The inverse transform / inverse quantization unit 514 performs an inverse quantization process and an inverse orthogonal transform process on the residual information and outputs a residual signal. The adder 515 adds the residual signal and the prediction image generated by the prediction unit 512 to generate a decoded image, and outputs the decoded image as an output image 503.

バッファ505は、フレームメモリ等の記憶媒体であり、復号化対象画像の視点とは異なる視点の復号化済み視差画像R(v’)が参照画像として保存される。   The buffer 505 is a storage medium such as a frame memory, and stores a decoded parallax image R (v ′) having a viewpoint different from the viewpoint of the decoding target image as a reference image.

予測部512は、バッファ505に保存された参照画像を用いて予測画像を生成する。予測部512は、図9に示すように、決定部506と、取得部507と、生成部508とを備える。   The prediction unit 512 generates a predicted image using the reference image stored in the buffer 505. As illustrated in FIG. 9, the prediction unit 512 includes a determination unit 506, an acquisition unit 507, and a generation unit 508.

決定部506は、可変長復号化部504により復号化された共有ブロック指定情報に基づいて、復号化対象マクロブロックと符号化情報を共有するための共有ブロックを決定する。   The determination unit 506 determines a shared block for sharing the encoding information with the decoding target macroblock based on the shared block designation information decoded by the variable length decoding unit 504.

より具体的には、決定部506は以下のように共有ブロックを決定する。決定部506は、まず、可変長復号化部504から受け取った共有ブロック指定情報の内容を確認し、共有ブロック指定情報で指定された視点(view_index)の他の視点の復号化済み視差画像R(v’)をバッファ505から読み出す。   More specifically, the determination unit 506 determines the shared block as follows. First, the determination unit 506 confirms the content of the shared block designation information received from the variable length decoding unit 504, and decodes the parallax image R () of the other viewpoint specified by the shared block designation information (view_index). v ′) is read from the buffer 505.

そして、決定部506は、バッファ505から読み出した当該他の視点の復号化済み視差画像R(v’)(参照画像)において、復号化対象マクロブロックに対応する対応マクロブロックを決定する。ここで、復号化対象マクロブロックに対する対応マクロブロックの決定手法については、実施の形態1と同様に、上述の(1)、(2)式による射影変換を用いて行う。また、対応ブロック決定処理は、共有ブロック指定情報で指定された参照画像に対して行われる。   Then, the determination unit 506 determines a corresponding macroblock corresponding to the decoding target macroblock in the decoded parallax image R (v ′) (reference image) of the other viewpoint read from the buffer 505. Here, the corresponding macroblock determination method for the decoding target macroblock is performed using the projective transformation according to the above-described equations (1) and (2), as in the first embodiment. The corresponding block determination process is performed on the reference image specified by the shared block specification information.

そして、決定部506は、共有ブロック指定情報で指定された、共有ブロックの対応マクロブロックからの相対位置(blk_index)のマクロブロックを共有ブロックと決定する。   Then, the determination unit 506 determines the macroblock at the relative position (blk_index) from the corresponding macroblock of the shared block specified by the shared block specification information as the shared block.

取得部507は、決定部506により決定された共有ブロック(すなわちバッファ505において、共有ブロック指定情報が示す共有ブロック)を含む他の視点の符号化データS(v’)を入力し、当該他の視点の符号化データS(v’)または共有ブロックから、共有ブロックを符号化した際の符号化情報を取得する。本実施の形態では、取得部507は、実施の形態1と同様に、符号化情報として、例えば、符号化モード(PredMode)、動きベクトル(Mv)、参照画像を指定するインデックス(Ref_index)等を取得する。   The acquisition unit 507 inputs the encoded data S (v ′) of another viewpoint including the shared block determined by the determination unit 506 (that is, the shared block indicated by the shared block designation information in the buffer 505). Encoding information when the shared block is encoded is acquired from the viewpoint encoded data S (v ′) or the shared block. In the present embodiment, as in the first embodiment, the acquisition unit 507 includes, for example, an encoding mode (PredMode), a motion vector (Mv), an index (Ref_index) for specifying a reference image, and the like as encoding information. get.

生成部508は、取得部507により取得した符号化情報に基づいて、予測画像を生成する。生成部508は、生成された予測画像を出力する。すなわち、符号化対象マクロブロックの符号化において、復号化済みの他の視点の視差画像R(v’)における共有ブロックの符号化情報を共有して使用されることになる。ここで、生成部508による予測画像の生成の詳細については実施の形態1と同様である。   The generation unit 508 generates a predicted image based on the encoding information acquired by the acquisition unit 507. The generation unit 508 outputs the generated predicted image. That is, in the encoding of the encoding target macroblock, the encoding information of the shared block in the parallax image R (v ′) of another viewpoint that has been decoded is shared and used. Here, details of the generation of the predicted image by the generation unit 508 are the same as those in the first embodiment.

次に、以上のように構成された本実施の形態の画像復号化装置500による復号化処理について説明する。図10は、実施の形態2の復号化処理の手順を示すフローチャートである。   Next, the decoding process by the image decoding apparatus 500 according to the present embodiment configured as described above will be described. FIG. 10 is a flowchart showing the procedure of the decoding process according to the second embodiment.

可変長復号化部504は、画像符号化装置100から、ネットワークまたは蓄積メディアを介して、復号化対象画像である符号化データS(v)104を入力する(ステップS501)。ここで、入力された符号化データS(v)104は、所定サイズのマクロブロックに分割される。   The variable length decoding unit 504 inputs encoded data S (v) 104 that is a decoding target image from the image encoding device 100 via a network or a storage medium (step S501). Here, the input encoded data S (v) 104 is divided into macroblocks of a predetermined size.

可変長復号化部504は、入力された符号化データS(v)104に可変長復号化処理を行い、符号化データS(v)104に含まれる残差情報と共有ブロック指定情報とを抽出する(ステップS502)。可変長復号化部504は、共有ブロック指定情報を、予測部512の決定部506に送出する(ステップS503)。   The variable length decoding unit 504 performs variable length decoding processing on the input encoded data S (v) 104 and extracts residual information and shared block designation information included in the encoded data S (v) 104. (Step S502). The variable length decoding unit 504 sends the shared block designation information to the determination unit 506 of the prediction unit 512 (step S503).

復号化された残差情報は、逆変換・逆量子化部514へ送出され、逆変換・逆量子化部514は、残差情報に逆量子化処理および逆直交変換処理を行って残差信号を出力する(ステップS504)。   The decoded residual information is sent to an inverse transform / inverse quantization unit 514, and the inverse transform / inverse quantization unit 514 performs an inverse quantization process and an inverse orthogonal transform process on the residual information to obtain a residual signal. Is output (step S504).

復号化部502は、復号化対象画像(符号化データS(v))の視点とは異なる1または複数の他の視点の復号化済み視差画像R(v’)を入力して、バッファ505に保存する(ステップS505)。   The decoding unit 502 inputs a decoded parallax image R (v ′) of one or more other viewpoints different from the viewpoint of the decoding target image (encoded data S (v)), and inputs the decoded parallax image R (v ′) to the buffer 505. Save (step S505).

予測部512は、予測画像を生成する予測処理を行う(ステップS506)。図11は、実施の形態2の予測処理の手順を示すフローチャートである。   The prediction unit 512 performs a prediction process for generating a predicted image (step S506). FIG. 11 is a flowchart illustrating a procedure of the prediction process according to the second embodiment.

決定部506は、可変長復号化部504から受け取った共有ブロック指定情報で指定された視点(view_index)の他の視点の復号化済み視差画像R(v’)をバッファ505から取得する(ステップS701)。決定部506は、バッファ505から読み出した他の視点の復号化済み視差画像R(v’)において、復号化対象マクロブロックに対応する対応マクロブロックを決定する(ステップS702)。決定部506は、共有ブロック指定情報で指定された、共有ブロックの対応マクロブロックからの相対位置(blk_index)のマクロブロックを共有ブロックと決定する(ステップS703)。   The determination unit 506 acquires, from the buffer 505, the decoded parallax image R (v ′) of the other viewpoint specified by the shared block specification information received from the variable length decoding unit 504 (view_index) (Step S701). ). The determination unit 506 determines a corresponding macroblock corresponding to the decoding target macroblock in the decoded parallax image R (v ′) of another viewpoint read from the buffer 505 (step S702). The determination unit 506 determines the macro block at the relative position (blk_index) from the corresponding macro block of the shared block specified by the shared block specifying information as the shared block (step S703).

取得部507は、決定された共有ブロックの符号化情報を、当該共有ブロックを含む参照画像の符号化データS(v’)または共有ブロックから取得する(ステップS704)。生成部508は、取得された符号化情報(符号化モード、動きベクトル、参照画像の指定インデックス)に従って、予測画像を生成する(ステップS705)。生成部508は生成された予測画像を出力し、予測処理を終了する。   The acquiring unit 507 acquires the determined coding information of the shared block from the coded data S (v ′) of the reference image including the shared block or the shared block (Step S704). The generation unit 508 generates a prediction image according to the acquired encoding information (encoding mode, motion vector, reference index of reference image) (step S705). The generation unit 508 outputs the generated predicted image and ends the prediction process.

図10に戻り、ステップS506の予測処理が終了したら、加算器515は、ステップS504にて逆変換・逆量子化部514から出力された残差と、予測部512により生成された予測画像とを加算して復号化画像を生成し、復号化画像を出力画像信号R(v)503として出力する(ステップS507)。   Returning to FIG. 10, when the prediction process in step S506 is completed, the adder 515 outputs the residual output from the inverse transform / inverse quantization unit 514 in step S504 and the prediction image generated by the prediction unit 512. Addition generates a decoded image, and outputs the decoded image as an output image signal R (v) 503 (step S507).

このように本実施の形態では、復号化対象画像の視点と異なる視点の復号化済み視差画像R(v’)において、画像符号化装置100から入力された符号化データS(v)に付加された共有ブロック指定情報が示す共有ブロックの符号化情報を、復号化対象マクロブロックからの予測画像の生成の際に使用する。また、この符号化情報は動き情報に限定されない。すなわち、本実施の形態では、互いに異なる視点の視差画像間で、動き情報に限定されない符号化情報を共有して復号化処理を行うことにより、射影変換等の誤差の影響を低減することができ、符号化効率を向上させることができる。   As described above, in the present embodiment, a decoded parallax image R (v ′) having a viewpoint different from the viewpoint of the decoding target image is added to the encoded data S (v) input from the image encoding device 100. The encoding information of the shared block indicated by the shared block designation information is used when generating a predicted image from the decoding target macroblock. Also, this encoded information is not limited to motion information. That is, in this embodiment, by performing decoding processing by sharing encoding information that is not limited to motion information between parallax images of different viewpoints, it is possible to reduce the influence of errors such as projective transformation. The encoding efficiency can be improved.

(変形例)
上記実施の形態1の画像符号化装置100、実施の形態2の画像復号化装置500においては種々の変形例を採用することができる。
(Modification)
Various modifications can be employed in the image coding apparatus 100 according to the first embodiment and the image decoding apparatus 500 according to the second embodiment.

(変形例1)
上記実施の形態1の画像符号化装置100、実施の形態2の画像復号化装置500では、予測画像生成の際に共有する符号化情報として、符号化モード、動きベクトル、参照画像を指定する情報を例にあげて説明しているが、画像を復号化するために必要な情報であれば、これらに限定されるものではない。例えば、共有する符号化情報として、符号化モードと参照画像を指定する情報だけを用いたり、あるいは動きベクトルだけを用いる等、上記3つの情報のうち1または複数の情報を適宜組み合わせて符号化情報として共有できるように構成してもよい。
(Modification 1)
In the image coding apparatus 100 according to the first embodiment and the image decoding apparatus 500 according to the second embodiment, information specifying a coding mode, a motion vector, and a reference image as coding information shared when generating a predicted image. However, the present invention is not limited to this as long as the information is necessary for decoding the image. For example, as the encoded information to be shared, only the information specifying the encoding mode and the reference image is used, or only the motion vector is used. You may comprise so that it can share as.

(変形例2)
この他、画像符号化装置100において残差情報を符号化情報として用いることもできる。例えば、画像符号化装置100において符号化情報の共有により生成した予測画像と符号化対象マクロブロックの残差情報とを符号化せず、共有ブロックにおける残差情報をそのまま利用する方式を採用してもよい。また、共有ブロックにおける残差情報との差分を符号化する方式を採用してもよい。これらの方式を採用する場合には、画像符号化装置100側で、残差情報を共有するか否かの情報を符号化して符号化データに付加して画像復号化装置500に対して出力するように構成すればよい。この場合には、実施の形態2の画像復号化装置500における符号化データS(v)の復号化処理おいて、逆変換・量子化部514による逆変換処理、量子化処理が不要になるという利点がある。
(Modification 2)
In addition, residual information can also be used as encoded information in the image encoding device 100. For example, a method of using the residual information in the shared block as it is without encoding the prediction image generated by sharing the encoded information in the image encoding device 100 and the residual information of the encoding target macroblock is employed. Also good. Moreover, you may employ | adopt the system which encodes the difference with the residual information in a shared block. When these methods are adopted, the image encoding device 100 encodes information on whether or not to share residual information, adds the information to the encoded data, and outputs the encoded data to the image decoding device 500. What is necessary is just to comprise. In this case, in the decoding process of the encoded data S (v) in the image decoding apparatus 500 according to the second embodiment, the inverse transformation process and the quantization process by the inverse transformation / quantization unit 514 are unnecessary. There are advantages.

(変形例3)
また、共有する符号化情報として、共有ブロックの画素値そのものを用いるよう画像符号化装置100の取得部107および生成部108、画像復号化装置500の取得部507および生成部108を構成してもよい。例えば、符号化対象マクロブロックと共有ブロックとは、同じ地点を撮像したマクロブロックであるため、各マクロブロックが有する画素値は相関が高い。このため、取得部107、507において、符号化情報を共有ブロックの画素値として決定し、生成部108、508において、この画素値をそのままコピーして予測画像を生成することにより、符号化対象ブロックの符号化に必要な符号量を削減することができるという利点がある。
(Modification 3)
Further, the acquisition unit 107 and the generation unit 108 of the image encoding device 100 and the acquisition unit 507 and the generation unit 108 of the image decoding device 500 may be configured to use the pixel value of the shared block as the shared encoding information. Good. For example, since the encoding target macroblock and the shared block are macroblocks obtained by imaging the same point, the pixel values of each macroblock have a high correlation. For this reason, the acquisition units 107 and 507 determine the encoding information as the pixel value of the shared block, and the generation units 108 and 508 copy the pixel values as they are to generate a predicted image, thereby generating the encoding target block. There is an advantage that the amount of code required for encoding can be reduced.

このように、共有する符号化情報として、共有ブロックの画素値そのものを用いる場合には、画像符号化装置100において、取得部107で、符号化情報として、共有ブロックの画素値を取得し、生成部108で、取得した共有ブロックの画素値をコピーして予測画像を生成し、可変長符号化部118で、符号化対象ブロックと共有ブロック間で共有する符号化情報が、符号化モード、動きベクトル、参照画像の指定などの符号化のための情報であるか、あるいは共有ブロックの画素値であるかを示す判別情報を符号化して符号化データに付加するように構成すればよい。   As described above, when the pixel value itself of the shared block is used as the encoding information to be shared, in the image encoding device 100, the acquisition unit 107 acquires the pixel value of the shared block as the encoding information and generates it. The unit 108 copies the obtained pixel value of the shared block to generate a prediction image, and the variable-length encoding unit 118 stores the encoding information shared between the encoding target block and the shared block as the encoding mode, the motion What is necessary is just to comprise so that the discrimination | determination information which shows whether it is the information for encodings, such as designation | designated of a vector and a reference image, or the pixel value of a shared block, may be encoded and added to encoded data.

一方、画像復号化装置500において、可変長復号化部504で入力された符号化データS(v)に含まれる判別情報を復号化し、取得部507で、判別情報において符号化情報が共有ブロックの画素値である旨を示す場合には、符号化情報として、共有ブロックの画素値を取得し、生成部508で、取得した共有ブロックの画素値をコピーして予測画像を生成するように構成すればよい。   On the other hand, in the image decoding apparatus 500, the discrimination information included in the encoded data S (v) input by the variable length decoding unit 504 is decoded, and in the acquisition unit 507, the encoding information is included in the shared block. In the case of indicating that it is a pixel value, the pixel value of the shared block is acquired as the encoding information, and the generation unit 508 is configured to copy the acquired pixel value of the shared block and generate a predicted image. That's fine.

(変形例4)
また、共有ブロックの指定の方式についても、参照画像の視点を示す情報、対応ブロックからの共有ブロックの相対位置を示す情報等からなる共有ブロック指定情報を用いる手法に限定されるものではない。例えば、画像符号化装置100と画像復号化装置500との間で、予め共有ブロックを決定する処理手順を共通して定めておき、この処理手順に従って共有ブロックを指定する方式を採用してもよい。これにより、共有ブロックを指定するために必要な符号量を削減することができる。
(Modification 4)
Also, the method for specifying the shared block is not limited to a method using shared block specifying information including information indicating the viewpoint of the reference image, information indicating the relative position of the shared block from the corresponding block, and the like. For example, a method may be adopted in which a processing procedure for determining a shared block is previously determined in common between the image encoding device 100 and the image decoding device 500, and the shared block is specified in accordance with this processing procedure. . As a result, it is possible to reduce the amount of code necessary for designating the shared block.

例えば、このような処理手順の例として、符号化対象マクロブロックの近傍の符号化済みマクロブロックにおける符号化情報の傾向に基づいて、対応ブロックを中心とした小領域中から符号化情報の相関が最も高くなる位置を探索し、当該位置のマクロブロックを共有ブロックとして決定するように決定部106,506を構成することができる。   For example, as an example of such a processing procedure, based on the tendency of the encoded information in the encoded macroblock near the encoding target macroblock, the correlation of the encoded information from the small area centering on the corresponding block is The determination units 106 and 506 can be configured to search for the highest position and determine the macroblock at that position as a shared block.

すなわち、画像符号化装置100では、上記入力画像I(v)の復号化済み奥行き情報D(v)および入力画像および他の視点の復号化済み視差画像R(v’)を撮像したカメラ間の位置関係に基づいて定められた探索範囲内から、小領域のマクロブロックにおける符号化情報の傾向に基づいて、共有ブロックを決定するように、決定部106を構成する。また、共有ブロック指定情報として、上記探索範囲内から小領域のマクロブロックにおける符号化情報の傾向に基づいて共有ブロックを決定する旨の判別情報を生成するように、決定部106を構成すればよい。   That is, in the image encoding device 100, between the cameras that have captured the decoded depth information D (v) of the input image I (v) and the input image and the decoded parallax image R (v ′) of another viewpoint. The determination unit 106 is configured to determine a shared block from the search range determined based on the positional relationship based on the tendency of the encoding information in the macroblocks in the small area. Further, the determination unit 106 may be configured to generate, as shared block designation information, discrimination information for determining a shared block based on the tendency of encoded information in a macroblock of a small area from within the search range. .

一方、画像復号化装置500では、共有ブロック指定情報の中の判別情報が上記探索範囲内から上記小領域のブロックにおける符号化情報の傾向に基づいて共有ブロックを決定する旨を示す場合には、探索範囲内から、符号化情報の傾向に基づいて共有ブロックを決定するように、決定部506を構成すればよい。   On the other hand, in the image decoding apparatus 500, when the discrimination information in the shared block designation information indicates that the shared block is determined based on the tendency of the encoded information in the small area block from within the search range, What is necessary is just to comprise the determination part 506 so that a shared block may be determined based on the tendency of encoding information from within the search range.

実施の形態1および変形例の画像符号化装置100、実施の形態2および変形例の画像復号化装置500は、CPUなどの制御装置と、ROM(Read Only Memory)やRAMなどの記憶装置と、HDD、CDドライブ装置などの外部記憶装置と、ディスプレイ装置などの表示装置と、キーボードやマウスなどの入力装置を備えたハードウェア構成となっている。   The image coding apparatus 100 according to the first embodiment and the modification, and the image decoding apparatus 500 according to the second embodiment and the modification are a control device such as a CPU, a storage device such as a ROM (Read Only Memory) and a RAM, The hardware configuration includes an external storage device such as an HDD and a CD drive device, a display device such as a display device, and an input device such as a keyboard and a mouse.

なお、実施の形態1および変形例の画像符号化装置100で実行される画像符号化プログラム、実施の形態2および変形例の画像復号化装置500で実行される画像復号化プログラムは、ROM等に予め組み込まれて提供される。   Note that the image encoding program executed by the image encoding device 100 according to the first embodiment and the modification example, and the image decoding program executed by the image decoding device 500 according to the second embodiment and the modification example are stored in a ROM or the like. Provided in advance.

実施の形態1および変形例の画像符号化装置100で実行される画像符号化プログラム、実施の形態2および変形例の画像復号化装置500で実行される画像復号化プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。   The image encoding program executed by the image encoding device 100 according to the first embodiment and the modified example, and the image decoding program executed by the image decoding device 500 according to the second embodiment and the modified example are in an installable format or An executable file may be recorded on a computer-readable recording medium such as a CD-ROM, a flexible disk (FD), a CD-R, or a DVD (Digital Versatile Disk).

さらに、実施の形態1および変形例の画像符号化装置100で実行される画像符号化プログラム、実施の形態2および変形例の画像復号化装置500で実行される画像復号化プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、実施の形態1および変形例の画像符号化装置100で実行される画像符号化プログラム、実施の形態2および変形例の画像復号化装置500で実行される画像復号化プログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。   Furthermore, an image encoding program executed by the image encoding device 100 according to the first embodiment and the modification example, an image decoding program executed by the image decoding device 500 according to the second embodiment and the modification example, and the like. You may comprise so that it may provide by storing on the computer connected to the network and downloading via a network. In addition, the image encoding program executed by the image encoding device 100 according to the first embodiment and the modification, and the image decoding program executed by the image decoding device 500 according to the second embodiment and the modification are connected to a network such as the Internet. You may comprise so that it may provide or distribute via.

実施の形態1および変形例の画像符号化装置100で実行される画像符号化プログラムは、上述した各部(減算器、変換・量子化部、可変長符号化部、逆変換・逆量子化部、加算器、共有ブロック決定部、符号化情報取得部、予測画像生成部)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記ROMから画像符号化プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、減算器、変換・量子化部、可変長符号化部、逆変換・逆量子化部、加算器、共有ブロック決定部、符号化情報取得部、予測画像生成部が主記憶装置上に生成されるようになっている。なお、画像符号化装置100の上記各部を回路等のハードウェアで構成してもよい。   The image encoding program executed by the image encoding apparatus 100 according to the first embodiment and the modified example includes the above-described units (subtractor, conversion / quantization unit, variable length encoding unit, inverse conversion / inverse quantization unit, The module configuration includes an adder, a shared block determination unit, an encoded information acquisition unit, and a predicted image generation unit). As actual hardware, a CPU (processor) reads out and executes an image encoding program from the ROM. Thus, the above-described units are loaded on the main memory, and a subtracter, transform / quantization unit, variable length coding unit, inverse transform / inverse quantization unit, adder, shared block determination unit, encoded information acquisition unit The predicted image generation unit is generated on the main storage device. Note that each unit of the image encoding device 100 may be configured by hardware such as a circuit.

実施の形態2および変形例の画像復号化装置500で実行される画像復号化プログラムは、上述した各部(可変長復号化部、逆変換・逆量子化部、加算器、共有ブロック決定部、符号化情報取得部、予測画像生成部)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記ROMから画像復号化プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、可変長復号化部、逆変換・逆量子化部、加算器、共有ブロック決定部、符号化情報取得部、予測画像生成部が主記憶装置上に生成されるようになっている。なお、画像復号化装置500の上記各部を回路等のハードウェアで構成してもよい。   The image decoding program executed by the image decoding apparatus 500 according to the second embodiment and the modified example includes the above-described units (variable length decoding unit, inverse transform / inverse quantization unit, adder, shared block determination unit, code A module configuration including a computerized information acquisition unit and a predicted image generation unit). As actual hardware, a CPU (processor) reads out and executes an image decoding program from the ROM so that each unit is a main storage device. The variable length decoding unit, the inverse transform / inverse quantization unit, the adder, the shared block determination unit, the encoded information acquisition unit, and the prediction image generation unit are generated on the main storage device. Yes. Note that each unit of the image decoding apparatus 500 may be configured by hardware such as a circuit.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、請求の範囲に記載された発明とその均等の範囲に含まれる。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

100 画像符号化装置
101 入力画像
102 復号化済み視差画像
103 復号化済み奥行き情報/視差情報
104,124 符号化データ
105,505 バッファ
106,506 決定部
107,507 取得部
108,508 生成部
111 減算器
112,512 予測部
113,515 加算器
114,514 逆変換・逆量子化部
115 変換・量子化部
116 制御部
117 符号化部
118 可変長符号化部
500 画像復号化装置
501 制御部
502 復号化部
503 出力画像
504 可変長復号化部
DESCRIPTION OF SYMBOLS 100 Image coding apparatus 101 Input image 102 Decoded parallax image 103 Decoded depth information / disparity information 104,124 Encoded data 105,505 Buffer 106,506 Determination unit 107,507 Acquisition unit 108,508 Generation unit 111 Subtraction Unit 112,512 Prediction unit 113,515 Adder 114,514 Inverse transformation / inverse quantization unit 115 Transformation / quantization unit 116 Control unit 117 Encoding unit 118 Variable length coding unit 500 Image decoding device 501 Control unit 502 Decoding 503 output image 504 variable length decoding unit

Claims (12)

符号化対象の画像における視点の第1視差画像内の符号化対象ブロックに、前記視点と異なる他の視点の1または複数の第2視差画像において対応する対応ブロックを、前記第1視差画像の奥行き情報と、前記第1視差画像の視点と前記第2視差画像の視点との位置関係と、に基づいて決定し、前記1または複数の第2視差画像のそれぞれにおける前記対応ブロック、及び前記対応ブロックの近傍を含む小領域のブロックの中から、符号化情報を共有する共有ブロックを決定し、前記対応ブロックと前記共有ブロックとの位置関係を示す共有ブロック指定情報を生成する決定部と、
前記共有ブロック指定情報に基づいて、前記共有ブロックが共有する前記符号化情報を取得する取得部と、
取得した前記符号化情報に基づいて、予測画像を生成する生成部と、
前記画像と前記予測画像とから符号化データを生成する符号化部と、
を備える、画像符号化装置。
The corresponding block corresponding to the encoding target block in the first parallax image of the viewpoint in the encoding target image in one or a plurality of second parallax images of other viewpoints different from the viewpoint is set to the depth of the first parallax image. The corresponding block in each of the one or the plurality of second parallax images, and the corresponding block determined based on information and a positional relationship between the viewpoint of the first parallax image and the viewpoint of the second parallax image Determining a shared block that shares encoding information from among the blocks of the small area including the neighborhood of, and generating shared block designation information indicating a positional relationship between the corresponding block and the shared block;
An acquisition unit that acquires the encoding information shared by the shared block based on the shared block designation information;
Based on the acquired encoded information, a generating unit that generates a predicted image;
An encoding unit that generates encoded data from the image and the predicted image;
An image encoding device comprising:
前記符号化部は、さらに、前記共有ブロック指定情報を符号化して前記符号化データに付加し、符号化された前記共有ブロック指定情報が付加された前記符号化データを出力する、
請求項1に記載の画像符号化装置。
The encoding unit further encodes the shared block designation information and adds the encoded information to the encoded data, and outputs the encoded data to which the encoded shared block designation information is added.
The image encoding device according to claim 1.
前記取得部は、前記符号化情報として、前記共有ブロックの画素値を取得し、
前記生成部は、取得した前記共有ブロックの画素値に基づいて前記予測画像を生成し、
前記符号化部は、さらに、前記符号化情報が前記共有ブロックの画素値である旨を示す判別情報を符号化して前記符号化データに付加し、符号化された前記判別情報が付加された前記符号化データを出力する、
請求項2に記載の画像符号化装置。
The acquisition unit acquires a pixel value of the shared block as the encoding information,
The generation unit generates the prediction image based on the acquired pixel value of the shared block,
The encoding unit further encodes discrimination information indicating that the encoding information is a pixel value of the shared block and adds the encoded discrimination information to the encoded data, and the encoded discrimination information is added. Output encoded data,
The image encoding device according to claim 2.
前記決定部は、前記奥行き情報および前記撮像装置間の位置関係に基づいて定められた探索範囲内から、前記小領域のブロックにおける前記符号化情報の傾向に基づいて、前記共有ブロックを決定し、前記共有ブロック指定情報として、前記探索範囲内から前記小領域のブロックにおける前記符号化情報の傾向に基づいて前記共有ブロックを決定する旨を生成する、
請求項2に記載の画像符号化装置。
The determining unit determines the shared block based on a tendency of the encoding information in the block of the small region from within a search range determined based on the positional relationship between the depth information and the imaging device, As the shared block designation information, generating a statement to determine the shared block based on the tendency of the encoded information in the small area block from within the search range,
The image encoding device according to claim 2.
復号化対象の画像における視点の第1視差画像内の復号化対象ブロックに、前記視点と異なる他の視点の第2視差画像において対応する対応ブロックを、前記第1視差画像の奥行き情報と、前記第1視差画像の視点と前記第2視差画像の視点との位置関係と、に基づいて決定し、符号化情報を共有する共有ブロックと前記対応ブロックとの位置関係を示す共有ブロック指定情報に基づいて、前記共有ブロックを決定する決定部と、
前記共有ブロック指定情報に基づいて、前記共有ブロックが共有する前記符号化情報を取得する取得部と、
取得した符号化情報に基づいて、予測画像を生成する生成部と、
入力された符号化データを復号化して、復号化された符号化データと前記予測画像とから、出力画像を生成する復号化部と、
を備える、画像復号化装置。
The corresponding block corresponding to the decoding target block in the first parallax image of the viewpoint in the decoding target image in the second parallax image of the other viewpoint different from the viewpoint, the depth information of the first parallax image, and the Based on the shared block designation information indicating the positional relationship between the shared block that shares the encoding information and the corresponding block, determined based on the positional relationship between the viewpoint of the first parallax image and the viewpoint of the second parallax image A determination unit for determining the shared block;
An acquisition unit that acquires the encoding information shared by the shared block based on the shared block designation information;
Based on the acquired encoded information, a generation unit that generates a predicted image;
A decoding unit that decodes input encoded data and generates an output image from the decoded encoded data and the predicted image;
An image decoding apparatus comprising:
前記符号化データは、符号化された前記共有ブロック指定情報を含み、
前記復号化部は、さらに、画像符号化装置から前記符号化データを入力し、前記符号化データに含まれる前記共有ブロック指定情報を復号化し、
前記決定部は、復号化された前記共有ブロック指定情報に基づいて、前記共有ブロックを決定する、
請求項5に記載の画像復号化装置。
The encoded data includes the encoded shared block designation information,
The decoding unit further receives the encoded data from an image encoding device, decodes the shared block designation information included in the encoded data,
The determination unit determines the shared block based on the decoded shared block designation information.
The image decoding device according to claim 5.
前記符号化データは、さらに、符号化され、前記符号化情報が前記共有ブロックの画素値であるか否かを示す判別情報を含み、
前記復号化部は、前記判別情報を復号化し、
前記取得部は、前記符号化情報が前記共有ブロックの画素値である旨を前記判別情報が示す場合には、前記符号化情報として前記共有ブロックの画素値を取得し、
前記生成部は、取得した前記共有ブロックの画素値に基づいて前記予測画像を生成する、
請求項6に記載の画像復号化装置。
The encoded data is further encoded, and includes discrimination information indicating whether the encoded information is a pixel value of the shared block,
The decoding unit decodes the discrimination information,
When the determination information indicates that the encoding information is a pixel value of the shared block, the acquisition unit acquires the pixel value of the shared block as the encoding information;
The generation unit generates the prediction image based on the acquired pixel value of the shared block.
The image decoding device according to claim 6.
前記共有ブロック指定情報は、さらに、前記奥行き情報および前記撮像装置間の位置関係に基づいて定められた探索範囲内から、前記対応ブロックの近傍のブロックを含む小領域のブロックにおける前記符号化情報の傾向に基づいて前記共有ブロックを決定するか否かを示す判別情報を含み、
前記決定部は、前記判別情報が探索範囲内から、前記対応ブロックの近傍のブロックを含む小領域のブロックにおける前記符号化情報の傾向に基づいて前記共有ブロックを決定する旨を示す場合に、探索範囲内から、前記符号化情報の傾向に基づいて、前記共有ブロックを決定する、
請求項6に記載の画像復号化装置。
The shared block designation information further includes the coding information of a block in a small area including a block in the vicinity of the corresponding block, within a search range determined based on the depth information and a positional relationship between the imaging devices. Including discriminating information indicating whether to determine the shared block based on a trend,
When the determination information indicates that the shared block is determined based on a tendency of the encoding information in a small area block including a block near the corresponding block from within a search range, Determining the shared block from within a range based on a tendency of the encoded information;
The image decoding device according to claim 6.
符号化対象の画像における視点の第1視差画像内の符号化対象ブロックに、前記視点と異なる他の視点の1または複数の第2視差画像において対応する対応ブロックを、前記第1視差画像の奥行き情報と、前記第1視差画像の視点と前記第2視差画像の視点との位置関係と、に基づいて決定し、前記1または複数の第2視差画像のそれぞれにおける前記対応ブロック、及び前記対応ブロックの近傍を含む小領域のブロックの中から、符号化情報を共有する共有ブロックを決定し、前記対応ブロックと前記共有ブロックとの位置関係を示す共有ブロック指定情報を生成し、
前記共有ブロック指定情報に基づいて、前記共有ブロックが共有する前記符号化情報を取得し、
取得した前記符号化情報に基づいて、予測画像を生成し、
前記画像と前記予測画像とから符号化データを生成する、
画像符号化方法。
The corresponding block corresponding to the encoding target block in the first parallax image of the viewpoint in the encoding target image in one or a plurality of second parallax images of other viewpoints different from the viewpoint is set to the depth of the first parallax image. The corresponding block in each of the one or the plurality of second parallax images, and the corresponding block determined based on information and a positional relationship between the viewpoint of the first parallax image and the viewpoint of the second parallax image Determining a shared block that shares encoding information from among the blocks in the small area including the neighborhood of the block, and generating shared block designation information indicating a positional relationship between the corresponding block and the shared block,
Based on the shared block designation information, obtain the encoding information shared by the shared block,
Based on the obtained encoded information, generate a prediction image,
Generating encoded data from the image and the predicted image;
Image coding method.
復号化対象の画像における視点の第1視差画像内の復号化対象ブロックに、前記視点と異なる他の視点の第2視差画像において対応する対応ブロックを、前記第1視差画像の奥行き情報と、前記第1視差画像の視点と前記第2視差画像の視点との位置関係と、に基づいて決定し、符号化情報を共有する共有ブロックと前記対応ブロックとの位置関係を示す共有ブロック指定情報に基づいて、前記共有ブロックを決定し、
前記共有ブロック指定情報に基づいて、前記共有ブロックが共有する前記符号化情報を取得し、
取得した符号化情報に基づいて、予測画像を生成し、
入力された符号化データを復号化して、復号化された符号化データと前記予測画像とから、出力画像を生成する、
画像復号化方法。
The corresponding block corresponding to the decoding target block in the first parallax image of the viewpoint in the decoding target image in the second parallax image of the other viewpoint different from the viewpoint, the depth information of the first parallax image, and the Based on the shared block designation information indicating the positional relationship between the shared block that shares the encoding information and the corresponding block, determined based on the positional relationship between the viewpoint of the first parallax image and the viewpoint of the second parallax image To determine the shared block,
Based on the shared block designation information, obtain the encoding information shared by the shared block,
Based on the acquired encoded information, generate a prediction image,
Decoding input encoded data and generating an output image from the decoded encoded data and the predicted image;
Image decoding method.
コンピュータを、
符号化対象の画像における視点の第1視差画像内の符号化対象ブロックに、前記視点と異なる他の視点の1または複数の第2視差画像において対応する対応ブロックを、前記第1視差画像の奥行き情報と、前記第1視差画像の視点と前記第2視差画像の視点との位置関係と、に基づいて決定し、前記1または複数の第2視差画像のそれぞれにおける前記対応ブロック、及び前記対応ブロックの近傍を含む小領域のブロックの中から、符号化情報を共有する共有ブロックを決定し、前記対応ブロックと前記共有ブロックとの位置関係を示す共有ブロック指定情報を生成する手段と、
前記共有ブロック指定情報に基づいて、前記共有ブロックが共有する前記符号化情報を取得する手段と、
取得した前記符号化情報に基づいて、予測画像を生成する手段と、
前記画像と前記予測画像とから符号化データを生成する手段と、
して機能させるためのプログラム。
Computer
The corresponding block corresponding to the encoding target block in the first parallax image of the viewpoint in the encoding target image in one or a plurality of second parallax images of other viewpoints different from the viewpoint is set to the depth of the first parallax image. The corresponding block in each of the one or the plurality of second parallax images, and the corresponding block determined based on information and a positional relationship between the viewpoint of the first parallax image and the viewpoint of the second parallax image Means for determining a shared block that shares encoding information from among blocks in a small area including the neighborhood of the block, and generating shared block designation information indicating a positional relationship between the corresponding block and the shared block;
Means for acquiring the encoding information shared by the shared block based on the shared block designation information;
Means for generating a predicted image based on the obtained encoded information;
Means for generating encoded data from the image and the predicted image;
Program to make it function.
コンピュータを、
復号化対象の画像における視点の第1視差画像内の復号化対象ブロックに、前記視点と異なる他の視点の第2視差画像において対応する対応ブロックを、前記第1視差画像の奥行き情報と、前記第1視差画像の視点と前記第2視差画像の視点との位置関係と、に基づいて決定し、符号化情報を共有する共有ブロックと前記対応ブロックとの位置関係を示す共有ブロック指定情報に基づいて、前記共有ブロックを決定する手段と、
前記共有ブロック指定情報に基づいて、前記共有ブロックが共有する前記符号化情報を取得する手段と、
取得した符号化情報に基づいて、予測画像を生成する手段と、
入力された符号化データを復号化して、復号化された符号化データと前記予測画像とから、出力画像を生成する手段と、
して機能させるためのプログラム。
Computer
The corresponding block corresponding to the decoding target block in the first parallax image of the viewpoint in the decoding target image in the second parallax image of the other viewpoint different from the viewpoint, the depth information of the first parallax image, and the Based on the shared block designation information indicating the positional relationship between the shared block that shares the encoding information and the corresponding block, determined based on the positional relationship between the viewpoint of the first parallax image and the viewpoint of the second parallax image Means for determining the shared block;
Means for acquiring the encoding information shared by the shared block based on the shared block designation information;
Means for generating a predicted image based on the obtained encoded information;
Means for decoding input encoded data and generating an output image from the decoded encoded data and the predicted image;
Program to make it function.
JP2012534880A 2011-06-13 2011-06-13 Image encoding apparatus, image decoding apparatus, method, and program Pending JPWO2012172634A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012534880A JPWO2012172634A1 (en) 2011-06-13 2011-06-13 Image encoding apparatus, image decoding apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012534880A JPWO2012172634A1 (en) 2011-06-13 2011-06-13 Image encoding apparatus, image decoding apparatus, method, and program

Publications (1)

Publication Number Publication Date
JPWO2012172634A1 true JPWO2012172634A1 (en) 2015-02-23

Family

ID=52687704

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012534880A Pending JPWO2012172634A1 (en) 2011-06-13 2011-06-13 Image encoding apparatus, image decoding apparatus, method, and program

Country Status (1)

Country Link
JP (1) JPWO2012172634A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008022421A (en) * 2006-07-14 2008-01-31 Kddi Corp Multi-viewpoint image compression encoding method, apparatus and program
JP2010515400A (en) * 2007-01-03 2010-05-06 サムスン エレクトロニクス カンパニー リミテッド Multi-view video encoding and decoding method and apparatus using global difference vector

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008022421A (en) * 2006-07-14 2008-01-31 Kddi Corp Multi-viewpoint image compression encoding method, apparatus and program
JP2010515400A (en) * 2007-01-03 2010-05-06 サムスン エレクトロニクス カンパニー リミテッド Multi-view video encoding and decoding method and apparatus using global difference vector

Similar Documents

Publication Publication Date Title
ES2927560T3 (en) Video decoding apparatus, video encoding apparatus, storage medium and method for transmission
JP5277257B2 (en) Video decoding method and video encoding method
KR101797805B1 (en) Decoding method, decoding device, and computer readable storage medium
JP6232076B2 (en) Video encoding method, video decoding method, video encoding device, video decoding device, video encoding program, and video decoding program
US20220078408A1 (en) Device and method for processing video signal by using inter prediction
JP7477495B2 (en) METHOD AND APPARATUS FOR PROCESSING VIDEO BASED ON INTER PREDICTION MODE - Patent application
JPWO2008035665A1 (en) Image encoding method and decoding method, apparatus thereof, image decoding apparatus, program thereof, and storage medium storing program
TWI499277B (en) Multiple view point image encoding method, multiple view point image decoding method, multiple view point image encoding apparatus, multiple view point image decoding apparatus, and program thereof
JP6039178B2 (en) Image encoding apparatus, image decoding apparatus, method and program thereof
JP2022173582A (en) Image decoding method and apparatus based on motion prediction in sub-block unit in image coding system
KR20150015483A (en) Image encoding method, image decoding method, image encoding device, image decoding device, image encoding program, image decoding program, and recording medium
JPWO2015141613A1 (en) Image encoding apparatus and method, image decoding apparatus and method, and program thereof
JP6232075B2 (en) Video encoding apparatus and method, video decoding apparatus and method, and programs thereof
JP6962193B2 (en) A recording medium that stores a moving image coding device, a moving image coding method, and a moving image coding program.
CN114303373A (en) Method of decoding video for residual coding and apparatus thereof
KR20210153738A (en) Image decoding method and apparatus for deriving weight index information for generating prediction samples
CN113261294A (en) Inter-frame prediction method and device based on SBTMVP
JP4944046B2 (en) Video encoding method, decoding method, encoding device, decoding device, program thereof, and computer-readable recording medium
US11949874B2 (en) Image encoding/decoding method and device for performing prof, and method for transmitting bitstream
WO2012172634A1 (en) Image encoding device, image decoding device, method, and program
JP5706291B2 (en) Video encoding method, video decoding method, video encoding device, video decoding device, and programs thereof
JP2014150297A (en) Image encoding device, image decoding device, image encoding method, image decoding method, and program
JP6386466B2 (en) Video encoding apparatus and method, and video decoding apparatus and method
JP2015128252A (en) Prediction image generating method, prediction image generating device, prediction image generating program, and recording medium
US20220337842A1 (en) Image encoding/decoding method and device for performing bdof, and method for transmitting bitstream

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140507