WO2012121369A1 - 画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法及び画像復号プログラム - Google Patents

画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法及び画像復号プログラム Download PDF

Info

Publication number
WO2012121369A1
WO2012121369A1 PCT/JP2012/056114 JP2012056114W WO2012121369A1 WO 2012121369 A1 WO2012121369 A1 WO 2012121369A1 JP 2012056114 W JP2012056114 W JP 2012056114W WO 2012121369 A1 WO2012121369 A1 WO 2012121369A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
block
reference image
predicted
unit
Prior art date
Application number
PCT/JP2012/056114
Other languages
English (en)
French (fr)
Inventor
大津 誠
内海 端
純生 佐藤
貴也 山本
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Publication of WO2012121369A1 publication Critical patent/WO2012121369A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Definitions

  • the conventional technique seeks a combination of a block in the first reference frame and a second reference block in which the correlation between the obtained average block and the encoding target block is highest. Therefore, the conventional technique has a problem that the prediction accuracy is lowered depending on the scene of the subject and the coding efficiency is lowered.
  • the image decoding apparatus which concerns on the other aspect of this invention decodes two or more reference block information showing the reference image block which is one area
  • a predicted image generation unit that generates a predicted image by preferentially using a reference image block that indicates a shorter distance to the subject represented by the reference image block.
  • the subtraction unit 102 subtracts the predicted image signal input from the predicted image generation unit 104 from the input image signal input from the image input unit 101 for each frame, and generates a difference image signal for each frame.
  • the subtraction unit 102 outputs the generated difference image signal to the difference image encoding unit 105 for each frame.
  • the difference image encoding unit 105 encodes the difference image signal input from the subtraction unit 102 for each frame to generate a difference image code.
  • the difference image signal is subjected to, for example, DCT transform (discrete cosine transform) and frequency domain signal (for example, DCT transform). , DCT coefficients).
  • the predicted image generation unit 104 reads a reference image signal from the reference image memory 107 based on the reference block information and the reference image information input for each block from the reference image / reference block selection unit 103. When the L0 reference block information and the L1 reference block information are valid among the reference block information, the predicted image generation unit 104 further stores the frame corresponding to the reference image signal read from the reference image memory 107. Read the depth map. The predicted image generation unit 104 receives the input reference block information and the read reference image signal (when the L0 reference block information and the L1 reference block information out of the reference block information are valid (that is, based on the B picture). In addition, a predicted image block is generated based on the reference depth map.
  • the case where the input reference image block is extracted from the same type of reference image as the image of the future frame is, for example, that the input image signal is a B picture (B2, B3 or B4) and the reference image signal ( This is a case in which the L0 reference block information and the L1 reference block information (corresponding to either one) are P pictures (P1).
  • the depth use prediction image generation unit 1043 generates a depth use prediction image block based on the L0 reference image block, the L1 reference image block, the L0 depth block, and the L1 depth block input from the reference image / reference depth acquisition unit 1041. It outputs to the prediction image selection part 1044. The process of generating the depth use prediction image block in the depth use prediction image generation unit 1043 will be described later.
  • FIG. 4 is a conceptual diagram illustrating an example of a reference image block, a depth block, and a predicted image block in the present embodiment.
  • the upper left row shows the L0 reference image block (l0) and the L0 depth block (d0) of the past frame
  • the lower left row shows the L1 reference image block (l1) and the L1 depth block (d1) of the past frame. .
  • FIG. 5 is a flowchart showing a process of generating a depth use prediction image block performed by the depth use prediction image generation unit 1043 according to the present embodiment.
  • the depth use predicted image generation unit 1043 receives the L0 reference image block, the L1 reference image block, the L0 depth block, and the L1 depth block from the reference image / reference depth acquisition unit 1041. Thereafter, the process proceeds to step S102.
  • the depth use predicted image generation unit 1043 repeats the processing of the following steps S103 to S107 for each pixel (i, j) in the image block.
  • the coordinate values (i, j) of the processing target pixel are common to the L0 reference image block, the L1 reference image block, the L0 depth block, and the L1 depth block.
  • the process proceeds to step S103.
  • Step S305 The predicted image selection unit 1044 receives the first to n-th predicted image blocks input from the first to n-th predicted image blocks 1042-1 to 1042-n and the depth-based predicted image generation unit 1043, respectively.
  • One candidate prediction image block having the smallest index value for example, SAD between the block in the input image signal
  • the prediction image selection unit 1044 outputs prediction mode information corresponding to the selected candidate prediction image block to the prediction mode information encoding unit 108. Thereafter, the process proceeds to step S307.
  • FIG. 8 is a schematic diagram illustrating a configuration of the image decoding device 400 according to the present embodiment.
  • the image decoding apparatus 400 includes a difference image decoding unit 401, a reference image information decoding unit 402, a reference image information unpacking unit 403, a reference block information decoding unit 404, a reference block information unpacking unit 405, a prediction mode information decoding unit 406, a prediction
  • the image generation unit 407, the reference image memory 408, the addition unit 409, and the depth map decoding unit 410 are configured.
  • the reference image information decoding unit 402 decodes a reference image information code input from the outside (for example, the image encoding device 100), and generates reference image information for each frame.
  • the decoding process performed by the reference image information decoding unit 402 is a process (for example, variable length decoding) opposite to the encoding method (for example, variable length encoding) performed by the reference image information encoding unit 110.
  • the reference image information decoding unit 402 outputs the generated reference image information to the reference image information unpacking unit 403.
  • the reference image information unpacking unit 403 unpacks the reference image information input for each frame from the reference image information decoding unit 402 for each block, and extracts the reference image information for each unpacked block in the corresponding block.
  • the reference image signal is generated at the position.
  • the depth map decoding unit 410 decodes the depth map code input from the outside (for example, the image encoding device 100), and generates a depth map for each frame.
  • the decoding process performed by the depth map decoding unit 410 is a process (for example, variable length decoding) opposite to the encoding method (for example, variable length encoding) performed by the depth map encoding unit 114.
  • the depth map decoding unit 410 stores the generated depth map in the reference image memory 408 in association with the reference image of the same frame for each frame.
  • the reference image / reference depth acquisition unit 4071 acquires a reference image block based on the reference block information input from the reference block information unpacking unit 405 from the read reference image signal, and when the depth map is read. Gets the depth block.
  • the predicted image generation unit 407 reads a part of the stored reference image signal from the reference image memory 408, and the read reference image signal From a part, image blocks in the vicinity of the target image block (upper, left, upper left, and upper right image blocks) are acquired.
  • the reference image / reference depth acquisition unit 4071 acquires the reference image block and the depth block based on the reference image information in the same manner as the reference image / reference depth acquisition unit 1041.
  • FIG. 10 is a flowchart showing an image decoding process according to the present embodiment.
  • the difference image decoding unit 401, the reference image information decoding unit 402, the reference block information decoding unit 404, the prediction mode information decoding unit 406, and the depth map decoding unit 410 are respectively a difference image code, a reference image information code, and a reference.
  • Each of the block information code, the prediction mode information code, and the depth map code is input from the outside (for example, the image encoding device 100). Thereafter, the process proceeds to step S502.
  • Step S506 For all blocks in the frame, the predicted image generation unit 407 repeats the process of step S507.
  • Step S ⁇ b> 507 The predicted image generation unit 407 generates a reference image from the reference image memory 408 based on the reference image information input from the reference image information unpacking unit 403 and the reference block information input from the reference block information unpacking unit 405.
  • a signal (a reference depth map of the same frame as the read reference image signal when the reference block information is L0 reference block information or L1 reference block information indicating that the reference block information is valid) is read.
  • the predicted image generation unit 407 generates a predicted image block based on the reference image (or the read reference depth map when the reference depth map is read).
  • Step S508 If the process has not been completed for all the blocks in the frame, the predicted image generation unit 407 changes the block to be processed and returns to Step S507. If the process has been completed for all blocks in the frame, the process proceeds to step S509. (Step S509) The predicted image generation unit 407 generates a predicted image signal for each frame by arranging each of the generated predicted image blocks at the position of the corresponding block. The predicted image generation unit 407 outputs the generated predicted image signal to the addition unit 409. In addition, the process which produces
  • FIG. 11 is a flowchart illustrating a predicted image generation process performed by the predicted image generation unit 407 according to the present embodiment.
  • This predicted image generation processing corresponds to the processing in steps S506 to S509 shown in FIG. (Step S601)
  • the reference image / reference depth acquisition unit 4071 receives the reference image information from the reference image information unpacking unit 403 and the reference block information for each block from the reference block information unpacking unit 405. Thereafter, the process proceeds to step S602.
  • the image encoding apparatus 100 is not limited to this and may input every arbitrary number of frames. Good.
  • the image decoding apparatus 400 outputs the output image signal every 5 frames.
  • the image decoding apparatus 400 is not limited to this, and may output every arbitrary number of frames.
  • the image coding apparatus 100 includes the reference image / reference block selection unit 103 that generates the reference image information and the reference block information. Instead, a reference image selection unit that generates reference image information and a reference image block information selection unit that generates reference block information may be provided.
  • a part of the image encoding device 100 and the image decoding device 400 in the above-described embodiment for example, the subtraction unit 102, the reference image / reference block selection unit 103, the predicted image generation unit 104, the difference image encoding unit 105, the difference Image decoding unit 106, prediction mode information encoding unit 108, reference image information packing unit 109, reference image information encoding unit 110, reference block information packing unit 111, reference block information encoding unit 112, addition unit 113, depth map code Unit 114, depth map decoding unit 115, differential image decoding unit 401, reference image information decoding unit 402, reference image information plan packing unit 403, reference block information decoding unit 404, reference block information unpacking unit 405, prediction mode information Decoding unit 406, predicted image generation unit 407, addition unit 409 and depth It may be realized flop decoding unit 410 in the computer.
  • LSI Large Scale Integration
  • Each functional block of the image encoding device 100 and the image decoding device 400 may be individually made into a processor, or a part or all of them may be integrated into a processor.
  • the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. Further, in the case where an integrated circuit technology that replaces LSI appears due to progress in semiconductor technology, an integrated circuit based on the technology may be used.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

 複数の参照画像を用いて入力画像を符号化する画像符号化装置において、参照画像選択部は前記複数の参照画像から参照画像を選択し、参照画像取得部は前記参照画像選択部が選択した参照画像の一領域である参照画像ブロックと前記入力画像を分割した画像ブロックとの相関に基づいて、当該参照画像ブロックを2以上取得し、予測画像生成部は前記参照画像取得部が取得した2以上の参照画像ブロックのうち、当該参照画像ブロックが表す被写体への距離情報がより短い距離を示す参照画像ブロックを優先して用いることにより予測画像を生成する。

Description

画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法及び画像復号プログラム
 本発明は、画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法及び画像復号プログラムに関する。
 本願は、2011年3月10日に、日本に出願された特願2011-052827号に基づき優先権を主張し、その内容をここに援用する。
 従来の代表的な動画像符号化方式としてMPEG(Moving Picture Experts Group)-1、MPEG-2、MPEG-4、H.264/AVC(Advanced Video Coding)等の方式がある。これらの動画像符号化方式では、動き補償フレーム間予測という動画像の時間方向の相関性を利用して時間的冗長性を取り除き、高い符号化効率を実現している。
 H.264/AVCは、符号化対象のフレームの画像に対して過去及び未来のフレームの画像を参照画像として双方向のフレーム間予測符号化を行っている。このような符号化対象のフレームの画像を双方向予測符号化画像と呼ぶ。
 例えば、特許文献1及び非特許文献1記載の発明(以下、従来技術)は、双方向予測符号化画像の符号化効率を向上させることを目的に、第1の参照フレームの中から探索したブロックと、第2の参照フレームの中から探索したブロックとの平均化ブロックを求めている。
特開2008-11158号公報
角野眞也、大久保榮、菊池義浩、鈴木輝彦、H.264/AVCにおけるBピクチャ、「改定三版 H.264/AVC教科書」、株式会社インプレスR&D、2008年12月26日、p.125-131
 しかしながら、従来技術は、求めた平均化ブロックと符号化対象ブロックとの相関が最も高くなる第1の参照フレーム中のブロックと第2の参照ブロックとの組み合わせを求めている。そのため、従来技術は被写体の場面によっては予測精度が低くなり符号化効率を低下させるという問題があった。
 本発明は上記の点に鑑みてなされたものであり、予測画像の予測精度を向上させる画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法及び画像復号プログラムを提供する。
 (1)本発明は上記の課題を解決するためになされたものであり、本発明の一態様に係る画像符号化装置は、複数の参照画像を用いて入力画像を符号化する画像符号化装置であって、前記複数の参照画像から参照画像を選択する参照画像選択部と、前記参照画像選択部が選択した参照画像の一領域である参照画像ブロックと前記入力画像を分割した画像ブロックとの相関に基づいて、当該参照画像ブロックを2以上取得する参照画像ブロック取得部と、前記参照画像取得部が取得した2以上の参照画像ブロックのうち、当該参照画像ブロックが表す被写体の距離情報がより近距離を示す参照画像ブロックを優先して用いることにより予測画像を生成する予測画像生成部と、を備える。
 (2)前記予測画像生成部は、前記2以上の参照画像ブロックに含まれる画素毎の前記距離情報が、より短い距離を示す画素を優先して用いることにより予測画像を生成するように構成されていてもよい。
(3)前記予測画像生成部は、前記2以上の参照画像ブロックに含まれる画素毎の前記距離情報に基づいて参照画像ブロック間の重み係数を算出し、前記算出した重み係数に基づき当該画素の輝度値を算出するように構成されていてもよい。
(4)前記予測画像生成部は、前記2以上の参照画像ブロックのうち一の参照画像ブロックに含まれる画素に対応する前記距離情報が、他の参照画像ブロックに含まれる画素に対応する距離情報よりも予め設定された閾値よりも短い距離を示すとき、当該一の参照画像ブロックに含まれる画素を優先して用いることにより予測画像を生成するように構成されていてもよい。
(5)前記予測画像生成部は、前記2以上の参照画像ブロックのうち一の参照画像ブロックに含まれる画素に対応する前記距離情報が、他の参照画像ブロックに含まれる画素に対応する距離情報よりも予め設定された閾値ほど短い距離を示さないとき、当該一の参照画像ブロックに含まれる画素及び当該他の参照ブロックに含まれる画素を同等に用いることにより予測画像を生成するように構成されていてもよい。
(6)前記予測画像生成部において、前記閾値が、前記被写体の距離に基づく値であってもよい。
(7)また、本発明の他の態様に係る画像復号装置は、複数の参照画像を用いて、参照画像の一領域である参照画像ブロックを表す2以上の参照ブロック情報を復号して画像を生成する画像復号装置であって、前記複数の参照画像から前記2以上の参照ブロック情報各々に基づき参照画像ブロックを取得する参照画像取得部と、前記参照画像取得部が取得した参照画像ブロックのうち、当該参照画像ブロックが表す被写体への距離情報がより短い距離を示す参照画像ブロックを優先して用いることにより予測画像を生成する予測画像生成部と、を備える。
 (8)前記予測画像生成部は、前記2以上の参照画像ブロックに含まれる画素毎の前記距離情報が、より短い距離を示す画素を優先して用いることにより予測画像を生成するように構成されていてもよい。
(9)前記予測画像生成部は、前記2以上の参照画像ブロックに含まれる画素毎の前記距離情報に基づいて参照画像ブロック間の重み係数を算出し、前記算出した重み係数に基づき当該画素の輝度値を算出するように構成されていてもよい。
(10)前記予測画像生成部は、前記2以上の参照画像ブロックのうち一の参照画像ブロックに含まれる画素に対応する前記距離情報が、他の参照画像ブロックに含まれる画素に対応する距離情報よりも予め設定された閾値よりも短い距離を示すとき、当該一の参照画像ブロックに含まれる画素を優先して用いることにより予測画像を生成するように構成されていてもよい。
(11)前記予測画像生成部は、前記2以上の参照画像ブロックのうち一の参照画像ブロックに含まれる画素に対応する前記距離情報が、他の参照画像ブロックに含まれる画素に対応する距離情報よりも予め設定された閾値ほど短い距離を示さないとき、当該一の参照画像ブロックに含まれる画素及び当該他の参照ブロックに含まれる画素を同等に用いることにより予測画像を生成するように構成されていてもよい。
(12)前記予測画像生成部において、前記閾値が、前記被写体の距離に基づく値であってもよい。
(13)また、本発明の他の態様に係る画像符号化方法は、複数の参照画像を用いて入力画像を符号化する画像符号化装置における画像符号化方法であって、前記複数の参照画像から参照画像を選択する工程と、前記選択された参照画像の一領域である参照画像ブロックと前記入力画像を分割した画像ブロックとの相関に基づいて、当該参照画像ブロックを2以上取得する工程と、前記取得した2以上の参照画像ブロックのうち、当該参照画像ブロックが表す被写体への距離情報がより短い距離を示す参照画像ブロックを優先して用いることにより予測画像を生成する工程と、を有する。
 (14)また、本発明の他の態様に係る画像復号方法は、複数の参照画像を用いて、参照画像の一領域である参照画像ブロックを表す2以上の参照ブロック情報を復号して画像を生成する画像復号装置における画像復号方法であって、前記複数の参照画像から前記2以上の参照ブロック情報各々に基づき参照画像ブロックを取得する工程と、前記取得した参照画像ブロックのうち、当該参照画像ブロックが表す被写体への距離情報がより短い距離を示す参照画像ブロックを優先して用いることにより予測画像を生成する工程と、を有する。
 (15)また、本発明の他の態様に係る画像符号化プログラムは、複数の参照画像を用いて入力画像を符号化する画像符号化装置のコンピュータに、前記複数の参照画像から参照画像を選択する工程と、前記選択した参照画像の一領域である参照画像ブロックと前記入力画像を分割した画像ブロックとの相関に基づいて、当該参照画像ブロックを2以上取得する工程と、前記取得した2以上の参照画像ブロックのうち、当該参照画像ブロックが表す被写体への距離情報がより短い距離を示す参照画像ブロックを優先して用いることにより予測画像を生成する工程と、を実行させる。
(16)また、本発明の他の態様に係る画像復号プログラムは、複数の参照画像を用いて、参照画像の一領域である参照画像ブロックを表す2以上の参照ブロック情報を復号して画像を生成する画像復号装置のコンピュータに、前記複数の参照画像から前記2以上の参照ブロック情報各々に基づき参照画像ブロックを取得する工程と、前記取得した参照画像ブロックのうち、当該参照画像ブロックが表す被写体への距離情報がより短い距離を示す参照画像ブロックを優先して用いることにより予測画像を生成する工程と、を実行させる。
 本発明によれば、予測画像の予測精度を向上させることができる。
本発明の第1の実施形態に係る画像符号化装置の構成を示す概略図である。 本実施形態に係る予測画像生成部の構成を示す概略図である。 本実施形態における入力画像、参照画像及びデプスマップの一例を示す概念図である。 本実施形態における参照画像ブロック、デプスブロック及び予測画像ブロックの一例を示す概念図である。 本実施形態に係るデプス利用予測画像生成部が行うデプス利用予測画像ブロックを生成する処理を示すフローチャートである。 本実施形態に係る画像符号化装置が行う画像符号化処理を示すフローチャートである。 本実施形態に係る予測画像生成部が行う予測画像生成処理を示すフローチャートである。 本実施形態に係る画像復号装置の構成を示す概略図である。 本実施形態に係る予測画像生成部の構成を示す概略図である。 本実施形態に係る画像復号処理を示すフローチャートである。 本実施形態に係る予測画像生成部が行う予測画像生成処理を示すフローチャートである。 従来技術を用いて生成した予測画像の一例を示す概念図である。
(第1の実施形態)
 以下、図面を参照しながら本発明の実施形態について説明する。
 図1は、本実施形態に係る画像符号化装置100の構成を示す概略図である。
 画像符号化装置100は、画像入力部101、減算部102、参照画像・参照ブロック選択部103、予測画像生成部104、差分画像符号化部105、差分画像復号部106、参照画像メモリ107、予測モード情報符号化部108、参照画像情報パッキング部109、参照画像情報符号化部110、参照ブロック情報パッキング部111、参照ブロック情報符号化部112、加算部113、デプスマップ符号化部114及びデプスマップ復号部115を含んで構成される。
 画像入力部101は、符号化の対象となる画像(入力画像)を示す画像信号(入力画像信号)を一例として5フレーム毎に入力され、減算部102、参照画像・参照ブロック選択部103及び予測画像生成部104に出力する。本実施形態において、画像符号化装置100への入力画像は少なくとも基準画像(ベースビュー;base view)を含む。基準画像とは、立体表示用の多視点(マルチビュー;multi-view)の動画像に含まれる予め定めた一つの視点の画像であって、デプスマップを算出する基礎となる画像である。デプスマップ(depth map)は、基準画像に表された被写体の撮影装置からの奥行又は距離を表す距離情報であって、画素毎に与えられた量子化値を含んで構成される。その量子化値の各々をデプス(depth)値といい、例えば8ビットで量子化された値をとる。
 画像入力部101に入力される5フレームの画像信号は、例えばIピクチャ(I0)、Bピクチャ(B3)、Bピクチャ(B2)、Bピクチャ(B4)及びPピクチャ(P1)の画像信号を含む。画像入力部101は、例えば、この順序(以下、入力順序)で、この画像信号を入力される。ここで、符号(I0等)において、先頭のI等は画像の種類を示し、0等は符号化される順序(以下、符号化順序)を示す。Iピクチャとは、フレーム内画像(Intra Frame Picture)であって、これを符号化した符号だけを用いて入力画像を復号できる画像である。Pピクチャとは、フレーム間順方向予測画像(Predictive Picture)であって、これを符号化した符号と、過去のフレームの画像信号を符号化した符号を用いて入力画像を復号できる画像である。Bピクチャとは、双方向予測符号化画像(Bi-directional Predictive Picture)であって、これを復号した符号と、過去もしくは未来の複数のフレームの画像信号を符号化した符号を用いて入力画像を復号できる画像である。
 参照画像・参照ブロック選択部103は、画像入力部101から入力された入力画像信号が表す入力画像フレームを予め定めた大きさ(例えば、垂直方向16画素×水平方向16画素)のブロックに分割する。参照画像・参照ブロック選択部103は、参照画像メモリ107に記憶された過去の入力画像信号のフレームに対応する参照画像信号であって、入力画像の種類に応じた参照画像信号を読み出す。また、参照画像・参照ブロック選択部103が参照画像信号を読み出す順序は、上述の符号化順序である。
 参照画像・参照ブロック選択部103は、入力画像であるPピクチャ(P1)に対して、参照画像信号として参照画像メモリ107に記憶されている過去のフレームのIピクチャ(I0)又は既に処理が完了したPピクチャ(P1)の一部を読み出す。次に、参照画像・参照ブロック選択部103は、入力画像であるBピクチャ(B2)に対して、参照画像信号として参照画像メモリ107に記憶されている過去のフレームのIピクチャ(I0)、Pピクチャ(P1)又は既に処理が完了したBピクチャ(B2)の一部のうち2つを読み出す。次に、参照画像・参照ブロック選択部103は、入力画像信号であるBピクチャ(B3)に対して、参照画像信号として参照画像メモリ107に記憶されている過去のフレームのIピクチャ(I0)、Pピクチャ(P1)又は既に処理が完了したBピクチャ(B3)の各一部のうち2つを読み出す。参照画像・参照ブロック選択部103は、入力画像信号であるBピクチャ(B4)に対して、参照画像信号として参照画像メモリ107に記憶されている過去のフレームのIピクチャ(I0)、Pピクチャ(P1)、Bピクチャ(B2)又は既に処理が完了したBピクチャ(B4)の各一部のうち2つを読み出す。
 これにより、参照画像・参照ブロック選択部103は、Bピクチャ(B2、B3又はB4)を処理する場合に、これよりも過去のフレームの参照画像信号(例えば、Iピクチャ(I0))と表示順において未来のフレームの参照画像信号(例えば、Pピクチャ(P1))を読み出すことができる。
 なお、参照画像・参照ブロック選択部103は、入力画像であるIピクチャ(I0)について、参照画像メモリ107から参照画像信号を読み出さなくともよい。
 参照画像・参照ブロック選択部103は、分割したブロック毎に読み出した参照画像信号から当該ブロックに対応する領域におけるブロックを探し出し(ブロックマッチング)、探し出したブロックを表す参照ブロック情報を生成する。参照画像・参照ブロック選択部103は、ブロックマッチングを行う際、当該分割されたブロックとの間の指標値を領域毎に算出し、算出した指標値が最小となる領域を探し出す。入力画像信号がBピクチャである場合は、参照画像・参照ブロック選択部103は、その指標値が最小となる参照画像の領域におけるブロックと、次に指標値が小さい参照画像の領域におけるブロックと、2つの領域を探し出す。
 指標値は、画像信号間の相関性や類似性を示すものであればよい。参照画像・参照ブロック選択部103は、例えば、分割されたブロックに含まれる画素の輝度値と参照画像のある領域における輝度値の差の絶対値和(SAD;Sum of Absolute Difference)を用いる。入力画像信号から分割されたブロック(例えば、大きさがN×N画素)と参照画像信号のブロックとの間のSADは次の式で表される。
Figure JPOXMLDOC01-appb-M000001
 式(1)において、Iin(i+i,j+j)は入力画像の座標(i+i,j+j)における輝度値、(i,j)は当該分割されたブロックの左上端の画素座標を示す。Iref(i+i+p,j+j+q)は参照画像の座標(i+i+p,j+j+q)における輝度値、(p,q)は当該分割されたブロックの左上端の座標を基準にしたシフト量(動きベクトル)である。
 即ち、参照画像・参照ブロック選択部103は、ブロックマッチングにおいて、(p,q)毎にSAD(p,q)を算出し、SAD(p,q)を最小とする(p,q)を探し出す。(p,q)は入力画像から当該分割されたブロックから当該参照領域の位置までのベクトル(動きベクトル)を表す。
 参照画像・参照ブロック選択部103は、ブロック毎に読み出した参照画像のフレームを示す参照画像情報を生成する。参照画像・参照ブロック選択部103はまた、読み出した参照画像を用いてブロックマッチングを行って探し出したブロックの位置もしくは領域を示す情報(動きベクトル)を参照ブロック情報として生成する。
 1個のブロックについて各々F(Fは2以上の自然数、例えば2)個の参照画像情報、参照ブロック情報がある。例えば、2個の参照画像情報のうち、一方をL0参照画像情報、他方をL1参照画像情報と呼び、両者を組み合わせて画像の種類を示す。入力画像がPピクチャである場合、L0参照画像情報が有効であって選択された参照画像を示し、L1参照画像情報が無効であることを示す。入力画像がBピクチャである場合、L0参照画像情報、L1参照画像情報ともに有効であって、各々選択された参照画像を示す。
 また、例えば、2個の参照ブロック情報のうち、一方をL0参照ブロック情報、他方をL1参照ブロック情報と呼ぶ。ここで、入力画像がPピクチャである場合、L0参照ブロック情報が探し出した画像ブロック(以下、参照画像ブロック)の位置を示し、L1参照ブロック情報が無効であることを示す。入力画像がBピクチャである場合、L0参照ブロック情報、L1参照ブロック情報が、各々選択された参照画像ブロックの位置を示す。
 なお、入力画像がIピクチャである場合には、参照画像情報を読み出さないため、参照画像・参照ブロック選択部103は、L0参照画像情報、L1参照画像情報、L0参照ブロック情報、及びL1参照ブロック情報ともに無効であることを示す情報を定める。
 参照画像・参照ブロック選択部103は、生成した参照ブロック情報を予測画像生成部104及び参照ブロック情報パッキング部111に出力する。また、参照画像・参照ブロック選択部103は、生成した参照画像情報を予測画像生成部104及び参照画像情報パッキング部109に出力する。
 参照画像情報パッキング部109は、参照画像・参照ブロック選択部103から入力された参照画像情報をフレーム毎にパッキング(packing;詰込)し、パッキングした参照画像情報を参照画像情報符号化部110に出力する。
 参照画像情報符号化部110は、参照画像情報パッキング部109から入力された参照画像情報を、例えば上述の符号化順序でフレーム毎に符号化する。参照画像情報符号化部110は、参照画像情報を符号化する際、例えば可変長符号化を用い、情報量がより圧縮された参照画像情報符号を生成する。可変長符号化とは、エントロピー符号化ともいい、頻度が高い情報ほどより短い符号で、頻度が低い情報をより長い符号で表現するように符号化する方式である。
 参照画像情報符号化部110は、生成した参照画像情報符号を画像符号化装置100の外部(例えば、画像復号装置400)に出力する。
 参照ブロック情報パッキング部111は、参照画像・参照ブロック選択部103から入力された参照ブロック情報をフレーム毎にパッキングし、パッキングされた参照ブロック情報を参照ブロック情報符号化部112に出力する。
 参照ブロック情報符号化部112は、参照ブロック情報パッキング部111から入力された参照ブロック情報を、例えば上述の符号化順序でフレーム毎に符号化する。
 参照ブロック情報符号化部112は、参照ブロック情報を符号化する際、例えば可変長符号化を用いて情報量がより圧縮された参照ブロック情報符号を生成する。
 参照ブロック情報符号化部112は、生成した参照ブロック情報符号を画像符号化装置100の外部(例えば、画像復号装置400)に出力する。
 減算部102は、画像入力部101から入力された入力画像信号から予測画像生成部104から入力された予測画像信号をフレーム毎に減算して、差分画像信号をフレーム毎に生成する。減算部102は、生成した差分画像信号をフレーム毎に差分画像符号化部105に出力する。
 差分画像符号化部105は、減算部102から入力された差分画像信号をフレーム毎に符号化し、差分画像符号を生成する。
 差分画像符号化部105は、差分画像信号を符号化する際、その差分画像信号を、例えばDCT変換(離散コサイン変換;Discrete Cosine Transform)して周波数領域信号(例えば、DCT変換を行った場合は、DCT係数)を生成する。差分画像符号化部105は、差分画像信号に基づき周波数領域信号を生成することができれば、DCT変換に限らず、他の方法(例えば、FFT(高速フーリエ変換;Fast Fourier Transform))を用いてもよい。生成した周波数領域信号に含まれる係数値を量子化し、量子化信号を生成する。差分画像符号化部105は、生成された量子化信号を、例えば可変長符号化を用いて符号化し、情報量がより圧縮された差分画像符号を生成する。
 差分画像符号化部105は、生成した差分画像符号を差分画像復号部106及び画像符号化装置100の外部(例えば、画像復号装置400)に出力する。
 差分画像復号部106は、差分画像符号化部105から入力された差分画像符号を、例えば可変長復号を用いて復号し、復号量子化信号を生成する。可変長復号とは、上述の可変長符号化と逆の処理であり、より短い符号で表される頻度のより高い情報と、より長い符号で表される頻度のより低い情報と、を含んで構成される情報群に基づき元の(符号化前の)情報を復元する処理である。
 差分画像復号部106は、生成した復号量子化信号を逆量子化して復号周波数領域信号を生成する。差分画像復号部106は、生成した復号周波数領域信号を、例えば逆DCT変換して空間領域信号である復号差分画像信号を生成する。差分画像復号部106は、復号周波数領域信号に基づき空間領域信号を生成することができれば、逆DCT変換に限らず、他の方法(例えば、IFFT(高速フーリエ逆変換;Inverse Fast Fourier Transform))を用いてもよい。
 差分画像復号部106は、生成した復号差分画像をフレーム毎に加算部113に出力する。
 加算部113は、予測画像生成部104から予測画像信号をフレーム毎に入力され、差分画像復号部106から復号差分信号をフレーム毎に入力される。加算部113は、予測画像信号に復号差分信号を加算して参照画像信号をフレーム毎に生成する。この参照画像信号は、後述する画像復号装置400において生成されることになる。加算部113は、生成した参照画像信号を参照画像メモリ107に出力する。
 参照画像メモリ107は、加算部113から入力された参照画像信号をフレーム毎に記憶する。また、参照画像メモリ107は、後述するデプスマップ復号部115から復号されたデプスマップが入力され、対応するフレームの入力画像信号から生成された参照画像信号と対応付けて記憶する。ここに、記憶されたデプスマップを参照デプスマップと呼ぶ。
 デプスマップ符号化部114は、画像符号化装置100の外部からデプスマップをフレーム毎に入力され、例えば上述の符号化順序でフレーム毎に符号化し、デプスマップ符号を生成する。デプスマップ符号化部114は、入力されたデプスマップを符号化する際、例えば可変長符号化を用いて情報量がより圧縮されたデプスマップ符号を生成する。
 デプスマップ符号化部114は、デプスマップ符号をデプスマップ復号部115及び画像符号化装置100の外部(例えば、画像復号装置400)に出力する。
 デプスマップ復号部115は、デプスマップ符号化部114から入力されたデプスマップ符号を、例えば可変長復号を用いて情報量がより多いデプスマップを復号する。デプスマップ復号部115は、復号したデプスマップを参照画像メモリ107に出力する。
 予測画像生成部104は、参照画像・参照ブロック選択部103からブロック毎に入力された参照ブロック情報と参照画像情報に基づき、参照画像メモリ107から参照画像信号を読み出す。また、参照ブロック情報のうちL0参照ブロック情報及びL1参照ブロック情報が有効であることを示す場合には、予測画像生成部104は、さらに参照画像メモリ107から読み出した参照画像信号に対応するフレームのデプスマップを読み出す。予測画像生成部104は、入力された参照ブロック情報及び読み出した参照画像信号(参照ブロック情報のうちL0参照ブロック情報及びL1参照ブロック情報が有効であることを示す場合(即ちBピクチャに基づく場合)には、さらに参照デプスマップ)に基づき予測画像ブロックを生成する。
 なお、L0参照情報及びL1参照情報ともに無効であることを示す場合(即ち、入力画像がIピクチャである場合)、参照画像メモリ107には1フレーム分のIピクチャに基づく参照画像情報であって、処理が完了した直前のブロックまで記憶されている。この場合、予測画像生成部104は、参照画像メモリ107から、記憶されている参照画像信号を読み出し、読み出した参照画像信号の一部、例えば、対象となる画像ブロックの近傍の画像ブロック(真上、左、左上及び右上の画像ブロック)を抽出する。予測画像生成部104は、抽出した画像ブロックに基づき予測画像ブロックを生成する。
 予測画像生成部104は生成した予測画像ブロックを統合して予測画像信号をフレーム毎に生成し、生成した予測画像信号をフレーム毎に減算部102及び加算部113に出力する。
 図2は、本実施形態に係る予測画像生成部104の構成を示す概略図である。
 予測画像生成部104は、具体的には、参照画像・参照デプス取得部1041、第1予測画像生成部1042-1~第n予測画像生成部1042-n(nは1以上の自然数、例えば4)、デプス利用予測画像生成部1043、及び予測画像選択部1044を含んで構成される。
 参照画像・参照デプス取得部1041は、参照画像・参照ブロック選択部103から参照画像情報と参照ブロック情報をブロック毎に入力される。参照画像・参照デプス取得部1041は、参照画像情報と参照ブロック情報のL0情報又はL1情報の少なくとも一つが有効である場合は、参照画像情報に対応する参照画像信号と参照画像信号に対応するフレームの参照デプスマップを参照画像メモリ107から読み出す。
 参照画像・参照デプス取得部1041は、参照画像情報を基に参照画像メモリ107より読み出された参照画像信号から参照ブロック情報に対応する領域のブロックを抽出して参照画像ブロックを取得する。これにより、取得された参照画像ブロックの座標から参照ブロック情報が示す動きベクトルが差し引かれ、入力画像の画像ブロックの位置に参照画像ブロックの各座標が補正される。
 参照画像・参照デプス取得部1041は、L0参照ブロック情報が有効であることを示す場合、そのL0参照ブロック情報に基づき、同様にしてL0参照画像ブロックを取得する。参照画像・参照デプス取得部1041は、読み出されたデプスマップからL0参照ブロック情報が表す領域のブロックを抽出してL0デプスブロックを取得する。
 また、参照画像・参照デプス取得部1041は、L1参照ブロック情報が有効である場合、そのL1参照ブロック情報に基づき、同様にしてL1参照画像ブロックとL1デプスブロックを取得する。
 なお、L0参照情報及びL1参照情報ともに無効であることを示す場合、参照画像・参照デプス取得部1041は、参照画像メモリ107から、記憶されている参照画像信号を読み出す。参照画像・参照デプス取得部1041は、読み出した参照画像信号から、例えば、対象となる画像ブロックの近傍の画像ブロック(真上、左、左上及び右上の画像ブロック)を取得する。
 参照画像・参照デプス取得部1041は、取得した参照画像ブロック(該当する場合には、さらにL0参照画像ブロック並びにL1予測画像ブロック)を第1予測画像生成部1042-1~第n予測画像生成部1042-n及びデプス利用予測画像生成部1043に出力する。参照画像・参照デプス取得部1041は、取得したL0参照画像ブロックとL1参照画像ブロックとそれぞれの参照画像ブロックに対応するデプスブロックをデプス利用予測画像生成部1043に出力する。
 第1予測画像生成部1042-1~第n予測画像生成部1042-nは、参照画像・参照デプス取得部1041から入力された参照画像ブロックから各予測モード(予測画像ブロックの生成方式)による処理に応じて第1~第n予測画像ブロックをそれぞれ生成する。第1予測画像生成部1042-1~第n予測画像生成部1042-nは、生成した第1~第n予測画像ブロックを予測画像選択部1044に出力する。但し、後述するように、予測画像生成部は、予測モードに応じた入力(参照画像ブロック)が適切な場合に、その予測モードに応じた処理を行う。
 具体的には、第1予測画像生成部1042-1は、例えばイントラ予測(フレーム内予測)を行う。即ち、第1予測画像生成部1042-1は、入力された参照画像ブロックが現在のフレームの画像と同一の種類の参照画像信号から抽出されたものである場合、入力された参照画像ブロックを第1予測画像ブロックとして予測画像選択部1044に出力する。
 入力された参照画像ブロックが現在のフレームの画像信号と同一の種類の参照画像信号から抽出されたものである場合とは、例えば、入力画像がIピクチャ(I0)である場合(参照画像信号もIピクチャ(I0))、入力画像信号も参照画像信号もPピクチャ(P1)である場合、及び入力画像信号も参照画像信号(L0参照ブロック情報とL1参照ブロック情報のうち何れか一方に対応)もBピクチャ(B2)である場合である。
 第2予測画像生成部1042-2は、例えば順予測を行う。即ち、第2予測画像生成部1042-2は、入力された参照画像ブロックが過去のフレームの画像と同一の種類の参照画像から抽出されたものである場合、入力された参照画像ブロックを第2予測画像ブロックとして予測画像選択部1044に出力する。
 入力された参照画像ブロックが過去のフレームの画像信号と同一の種類の参照画像信号から抽出されたものである場合とは、例えば、入力画像信号がPピクチャ(P1)であり参照画像信号がIピクチャ(I0)である場合、入力画像信号がBピクチャ(B2、B3又はB4)であり参照画像信号(L0参照ブロック情報とL1参照ブロック情報のうち何れか一方に対応)がIピクチャ(I0)である場合、又は入力画像信号がBピクチャ(B3、B4)であり参照画像信号(L0参照ブロック情報とL1参照ブロック情報のうち何れか一方に対応)もBピクチャ(B2)である場合である。
 第3予測画像生成部1042-3は、例えば逆予測を行う。即ち、第3予測画像生成部1042-3は、入力された参照画像ブロックが未来のフレームの画像信号と同一の種類の参照画像信号から抽出されたものである場合、入力された参照画像ブロックを第3予測画像ブロックとして予測画像選択部1044に出力する。
 入力された参照画像ブロックが未来のフレームの画像信号と同一の種類の参照画像信号から抽出されたものである場合とは、例えば入力画像信号がBピクチャ(B2、B3又はB4)であり参照画像信号(L0参照ブロック情報とL1参照ブロック情報のうち何れか一方に対応)がPピクチャ(P1)である場合である。
 第4予測画像生成部1042-4は、例えば双予測を行う。即ち、第4予測画像生成部1042-4は、入力されたL0参照画像ブロック並びにL1参照画像ブロックのうち一方が未来のフレームの画像信号と同一の種類の参照画像信号から抽出されたものであり、他方が過去のフレームの画像信号と同一の種類の参照画像信号から抽出されたものである場合、入力されたL0参照画像ブロック内の画素値とL1参照画像ブロック内の画素値の平均値を算出する。第4予測画像生成部1042-4は、算出した平均値からなる画像ブロックを第4予測画像ブロックとして予測画像選択部1044に出力する。
 入力された参照画像ブロックが未来のフレームの画像と同一の種類の参照画像から抽出されたものである場合とは、例えば入力画像信号がBピクチャ(B2、B3又はB4)であり参照画像信号(L0参照ブロック情報とL1参照ブロック情報のうち何れか一方に対応)がPピクチャ(P1)である場合である。
 デプス利用予測画像生成部1043は、参照画像・参照デプス取得部1041から入力されたL0参照画像ブロック、L1参照画像ブロック、L0デプスブロック、及びL1デプスブロックに基づきデプス利用予測画像ブロックを生成し、予測画像選択部1044に出力する。
 デプス利用予測画像生成部1043においてデプス利用予測画像ブロックを生成する処理については後述する。
 予測画像選択部1044は、第1~第n予測画像ブロック1042-1~1042-nからそれぞれ入力された第1~第n予測画像ブロック、及びデプス利用予測画像生成部1043から入力されたデプス利用予測画像ブロック(以下、候補予測画像ブロックと総称する)の中から、最も指標値が小さくなる1つの候補予測画像ブロックを選択する。予測画像選択部1044は、その指標値として、例えば次式で示すように、画像入力部101から入力された入力画像に含まれる該当する画像ブロックの輝度値Iin(i+i,j+j)と候補予測画像ブロックの輝度値Ip,n(i+i,j+j)とのSADを用いる。
Figure JPOXMLDOC01-appb-M000002
 式(2)において、nは予測モード(デプス利用予測画像生成部1043においてデプス利用予測画像ブロックを生成する処理も含む)を表すインデックス(予測モード情報)である。
 なお、本実施形態では、SAD以外にも指標値として入力画像に含まれる画像ブロックと候補予測画像ブロックの相関、類似度、又は符号化後の情報量など、予測モード毎の処理の有効性を表す変数であれば利用することができる。
 予測画像選択部1044は、選択された候補予測画像ブロックに対応する予測モード情報を予測モード情報符号化部108に出力する。
 予測画像選択部1044は、各フレーム内の全画像ブロックについて選択が完了したら、選択された候補予測画像ブロックを各々対応するブロックの位置に配置してフレーム毎に予測画像信号を生成する。予測画像選択部1044は生成した予測画像信号をフレーム毎に減算部102及び加算部113に出力する。
 図1に戻り、予測モード情報符号化部108は、予測画像生成部104から入力された予測モード情報を、上述の符号化順序で符号化する。予測モード情報符号化部108は、予測モード情報を符号化する際、例えば可変長符号化を用いて情報量がより圧縮された予測モード情報符号を生成する。
 予測モード情報符号化部108は、画像符号化装置100の外部(例えば、画像復号装置400)に生成した予測モード情報符号を出力する。
 次に、デプス利用予測画像生成部1043が行うデプス利用予測画像ブロックを生成する処理について説明する。
 図3は、本実施形態における入力画像、参照画像及びデプスマップの一例を示す概念図である。
 図3において、左上段は過去のフレームの参照画像を、右上段は当該参照画像と同一のフレームのデプスマップを、左下段は現在のフレームの入力画像を示す。
 入力画像及び参照画像において、各座標における濃淡は、その画素の輝度値を示す。輝度値は大きくなるほど淡い色で表され、輝度値は小さくなるほど濃い色で表される。
 デプスマップにおいて、各座標における濃淡は、その画素のデプス値を示す。デプス値は大きくなる(即ち、被写体の距離が近い)ほど淡い色で表され、デプス値が小さくなる(即ち、被写体の距離が遠い)ほど濃い色で表される。
 図3の左上段において、記号l0の破線はL0参照画像ブロックが示す領域を、記号l1の実線はL1参照画像ブロックが示す領域を示す。図3の右上段において、記号d0の破線はL0デプスブロックが示す領域を、記号d1の実線はL1デプスブロックが示す領域を示す。図3の左下段において、記号rの実線は対応する入力画像ブロックが示す領域を示す。
 ここで、デプス利用予測画像生成部1043は、対応する参照画像ブロック(l0、l1)及びデプスブロック(d0、d1)に基づき、入力画像ブロック(r)に近似する予測画像ブロックを生成する。
 図4は、本実施形態における参照画像ブロック、デプスブロック及び予測画像ブロックの一例を示す概念図である。
 図4において、左上段は過去のフレームのL0参照画像ブロック(l0)とL0デプスブロック(d0)を、左下段は過去のフレームのL1参照画像ブロック(l1)とL1デプスブロック(d1)を示す。
 ここで、デプス利用予測画像生成部1043は、L0デプスブロック(d0)のデプス値と同じ座標におけるL1デプスブロック(d1)のデプス値を比較する。
 L0デプスブロック(d0)のデプス値とL1デプスブロック(d1)のデプス値の差が、予め設定された値より大きい(即ち、L0デプスブロックのデプス値の方が撮影装置から被写体への距離が短い)とき、デプス利用予測画像生成部1043は、その座標におけるL0参照画像ブロック(l0)の輝度値をL1参照画像ブロック(l1)の輝度値よりも優先して、予測画像ブロックの輝度値を定める。デプス利用予測画像生成部1043は、例えば、L0参照画像ブロック(l0)の輝度値をその座標における予測画像ブロックの輝度値と定める。このような場合又は画素を、以下「L0優先」と呼ぶ。
 図4において、右段の斜線で塗りつぶした部分(L0優先)は、そのようにして予測画像ブロックの輝度値が定められた部分を示す。
 L1デプスブロック(d1)のデプス値とL0デプスブロック(d0)のデプス値の差が、予め設定された値より大きい(即ち、L1デプスブロックのデプス値の方が撮影装置からの被写体の距離が短い)とき、デプス利用予測画像生成部1043は、その座標におけるL1参照画像ブロック(l1)の輝度値をL0参照画像ブロック(l0)の輝度値よりも優先して、予測画像ブロックの輝度値を定める。デプス利用予測画像生成部1043は、例えば、L1参照画像ブロック(l1)の輝度値をその座標における予測画像ブロックの輝度値と定める。このような場合又は画素を、以下「L1優先」と呼ぶ。
 図4において、右段の縦線で塗りつぶした部分(L1優先)は、そのようにして予測画像ブロックの輝度値が定められた部分を示す。
 L1デプスブロック(d1)のデプス値とL0デプスブロック(d0)のデプス値の差の絶対値が予め設定された値より小さい(即ち、被写体の距離がほぼ同等)のとき、デプス利用予測画像生成部1043は、その座標におけるL1参照画像ブロック(l1)の輝度値とL0デプスブロック(d0)の輝度値のいずれも優先させず同等に考慮して取り扱い、予測画像ブロックの輝度値を定める。デプス利用予測画像生成部1043は、例えば、L0参照画像ブロック(l0)輝度値又はL1参照画像ブロック(l1)輝度値の何れか一方、又はそれらの平均値をその座標における予測画像ブロックの輝度値と定める。このような場合又は画素を、以下「非優先」と呼ぶ。なお、いずれか一方を選択する方法の一例として、ブロック毎に該座標のデプス値から予め定めた範囲内のデプス値を有する画素であって、デプス利用予測画像生成部1043は、L1デプスブロックのデプス値のほうが、L0デプスブロックのデプス値よりも大きい状態であるL1優先状態の画素数と、L1デプスブロックのデプス値のほうが、L0デプスブロックのデプス値よりも小さい状態であるL0優先状態の画素数をカウントする。デプス利用予測画像生成部1043は、画素数の多いほうの状態(L1優先状態又はL0優先状態)の画素を、その座標における予測画像ブロックの輝度値と定める。デプス利用予測画像生成部1043は、それ以外の画素の画素値については、それらの画素における輝度値の平均値を、その座標における予測画像ブロックの輝度値と定める。
 図4において、横線で塗りつぶした部分(非優先)は、そのようにして予測画像ブロックの輝度値が定められた部分を示す。
 比較のため、従来技術を用いて生成した予測画像ブロックを示す。
 図12は、従来技術を用いて生成した予測画像の一例を示す概念図である。
 図12において、四角の枠で囲われた部分(p)が、L0参照画像ブロック(l0)及びL1参照画像ブロック(l1)に基づいて予測された予測画像ブロックを示す。
 従来技術(例えば双予測)では、予測画像ブロックに含まれる各画素の輝度値を、L0参照画像ブロック(l0)及びL1参照画像ブロック(l1)に各々含まれる画素の輝度値を平均して算出する。そのため、図12は、予想画像ブロック(p)が示す画像に、L0参照画像ブロック(l0)及びL1参照画像ブロック(l1)両者の画像が表れる。この画像は、図3左下段の入力画像ブロック(r)のように撮影装置からの被写体の距離がより近い画像を、より遠い画像を覆い隠して表すものではない。即ち、従来技術を用いて生成した予測画像ブロック(p)は、符号化対象の入力画像ブロック(r)とは大きく異なり、予測精度が劣ることを示す。
 換言すれば、本実施形態は、デプス利用予測画像ブロックを生成する処理を用い、従来技術よりも高精度で被写体の距離に差異がある画像に基づき予測画像を生成でき、ひいては符号化効率を向上させることができる。
 デプス利用予測画像生成部1043は、具体的には次の処理を行う。
 図5は、本実施形態に係るデプス利用予測画像生成部1043が行うデプス利用予測画像ブロックを生成する処理を示すフローチャートである。
(ステップS101)デプス利用予測画像生成部1043は、参照画像・参照デプス取得部1041からL0参照画像ブロック、L1参照画像ブロック、L0デプスブロック、及びL1デプスブロックが入力される。その後、ステップS102に進む。
(ステップS102)デプス利用予測画像生成部1043は、画像ブロック内の各画素(i,j)について以下のステップS103~ステップS107の処理を繰り返す。ここで、L0参照画像ブロック、L1参照画像ブロック、L0デプスブロック、及びL1デプスブロック各々について、処理対象画素の座標値(i,j)は共通である。その後、ステップS103に進む。
(ステップS103)デプス利用予測画像生成部1043は、L0デプスブロックにおけるデプス値DL0(i,j)からL1デプスブロックにおけるデプス値DL1(i,j)の差分値が予め設定された閾値THd(ゼロよりも大きい任意の実数値)よりも大きいか否か判断する。デプス利用予測画像生成部1043は、その差分値が閾値THdより大きいと判断したとき(ステップS103:Yes)、ステップS105に進む。デプス利用予測画像生成部1043は、その差分値が閾値THdより大きくないと判断したとき(ステップS103:No)、ステップS104に進む。
(ステップS104)デプス利用予測画像生成部1043は、L1デプスブロックにおけるデプス値DL1(i,j)からL0デプスブロックにおけるデプス値DL0(i,j)の差分値が予め設定された閾値THd(ゼロよりも大きい任意の実数値)よりも大きいか否か判断する。デプス利用予測画像生成部1043は、その差分値が閾値THdより大きいと判断したとき(ステップS104:Yes)、ステップS106に進む。デプス利用予測画像生成部1043は、その差分値が閾値THdより大きくないと判断したとき(ステップS104:No)、ステップS107に進む。
(ステップS105)デプス利用予測画像生成部1043は、画素(i,j)における予測画像の輝度値Ipd(i,j)を、L0参照画像ブロックにおける輝度値IL0(i,j)をL1参照画像ブロックにおける輝度値IL1(i,j)よりも優先して用いるように定める(L0優先)。例えば、予測画像の輝度値Ipd(i,j)を輝度値IL0(i,j)と定める。その後、ステップS108に進む。
(ステップS106)デプス利用予測画像生成部1043は、画素(i,j)における予測画像の輝度値Ipd(i,j)を、L1参照画像ブロックにおける輝度値IL1(i,j)をL0参照画像ブロックにおける輝度値IL10(i,j)よりも優先して用いるように定める(L1優先)。例えば、予測画像の輝度値Ipd(i,j)を輝度値IL1(i,j)と定める。その後、ステップS108に進む。
(ステップS107)デプス利用予測画像生成部1043は、画素(i,j)における予測画像の輝度値Ipd(i,j)を、L1参照画像ブロックにおける輝度値IL1(i,j)とL0参照画像ブロックにおける輝度値IL0(i,j)のいずれも優先せず同等に用いて定める(非優先)。例えば、予測画像の輝度値Ipd(i,j)を輝度値IL0(i,j)、輝度値IL1(i,j)又は輝度値IL0(i,j)と輝度値IL1(i,j)との平均値と定める。デプス利用予測画像生成部1043が、輝度値IL0(i,j)とIL1(i,j)の平均値と設定することにより、L0優先の領域とL1優先の領域との境界において、輝度値が急激に変化せず不自然な視感を回避することができる。その後、ステップS108に進む。
(ステップS108)デプス利用予測画像生成部1043は、画像ブロック内の全画素(i,j)についてステップS103-ステップS107の処理が完了したとき、処理を終了する。デプス利用予測画像生成部1043は、画像ブロック内の全画素(i,j)についてステップS103-ステップS107の処理が完了していないとき、処理対象とする画素(i,j)を変更してステップS102に戻る。
 上述の例では、閾値THdは任意の正の実数値(例えば、2)としたが、本実施形態は次式のように撮影装置から被写体までの実際の距離に基づく閾値THpm(m)を用いて定めた値を代わりに用いてもよい。
Figure JPOXMLDOC01-appb-M000003
 式(3)において、Dmaxは、デプス値の最大値(例えば、8ビットの量子化値である場合は255)を示す。dis1は、デプス値の最小値(例えば、ゼロ)に対応する予め設定された距離の最大値(m)、dis2はデプス値の最大値(例えば、255)に対応する予め設定された距離の最小値(m)である。
 このように閾値THdをデプス利用予測画像生成部1043に設定する際、撮影装置から被写体までの実際の距離による閾値THpmを用いるため、設定が容易になる。
 なお、本実施形態では、デプス利用予測画像生成部1043は、上述の例とは異なりL0優先又はL1優先と判断した画素(i,j)に、輝度値IL0(i,j)又は輝度値IL1(i,j)を重み付けして算出した値を割り当ててもよい。ここで、デプス利用予測画像生成部1043は、L0優先と判断した画素(i,j)については、輝度値IL0(i,j)が輝度値IL1(i,j)よりも大きい重み係数を用いて算出する。また、デプス利用予測画像生成部1043は、L1優先と判断した画素(i,j)については、輝度値IL1(i,j)が輝度値IL0(i,j)よりも大きい重み係数を用いて算出する。
 例えば、デプス利用予測画像生成部1043は、その画素(i,j)の輝度値をαIL0(i,j)+(1-α)IL1(i,j)と定める。但し、L0優先の場合、αは0.5よりも大きく1より小さい実数値である。L1優先の場合、αは0よりも大きく0.5より小さい実数値である。
 ここで、デプス利用予測画像生成部1043は、例えば、αを次式に基づいて定めてもよい。
Figure JPOXMLDOC01-appb-M000004
 式(4)において、THrは正の固定値であり、(DL0(i,j)-DL1(i,j))/THrは1よりも大きいとき、1と定め、(DL0(i,j)-DL1(i,j))/THrが-1よりも小さいとき、-1と定める。このとき、デプス利用予測画像生成部1043は、L0優先の場合、αを0.5よりも大きく1より小さい実数値と定め、L1優先の場合、αを0よりも大きく0.5より小さい実数値と定めることができる。
 即ち、デプス利用予測画像生成部1043は、L0優先、L1優先それぞれの場合において、L0デプス値とL1デプス値の差を用いて、輝度値IL0(i,j)と輝度値IL1(i,j)の合成比率を変化させることができる。
 これにより、デプス利用予測画像生成部1043は、L0予測画像ブロックにおける輝度値IL0(i,j)が優先される領域と、L1予測画像ブロックにおける輝度値IL1(i,j)が優先される領域との境界において画素値が急激に変化せず、滑らかな予測画像を生成できる。
 次に、本実施形態に係る画像符号化装置100が行う画像符号化処理について説明する。図6は、本実施形態に係る画像符号化装置100が行う画像符号化処理を示すフローチャートである。
(ステップS201)画像入力部101は、入力画像信号を画像符号化装置100の外部からフレーム毎に入力され、減算部102、参照画像・参照ブロック選択部103及び予測画像生成部104に出力する。その後、ステップS202に進む。
(ステップS202)参照画像・参照ブロック選択部103は、画像入力部101から入力された入力画像信号のフレームを予め定めた大きさのブロックに分割する。
 画像符号化装置100は、ステップS203~ステップS207の処理をフレーム内の画像ブロック毎に繰り返す。その後、ステップS203に進む。
(ステップS203)参照画像・参照ブロック選択部103は、参照画像メモリ107から入力画像信号の種類に応じた参照画像を読み出す。参照画像・参照ブロック選択部103は、分割されたブロック毎に、選択された参照画像とブロックマッチングを行う。参照画像・参照ブロック選択部103は、ブロックマッチングを行う際、当該分割されたブロックとの間の指標値(例えば、SAD)が最小となる領域を探し出す。入力画像信号がBピクチャである場合、参照画像・参照ブロック選択部103は、指標値が最小となる領域と、次に小さい領域を探し出す。ステップS204に進む。
(ステップS204)参照画像・参照ブロック選択部103は、分割されたブロックの位置からの相対的に探し出した領域の位置を示す予測ベクトルを生成し、その予測ベクトルを示す参照ブロック情報と参照画像を示す参照画像情報を生成する。入力画像信号がBピクチャである場合、参照画像・参照ブロック選択部103は、2つの探し出された参照画像の領域のうち一方をL0参照画像情報、他方をL1参照画像情報として生成する。
 参照画像・参照ブロック選択部103は、対応する参照画像において対応する領域に含まれるブロックの画像情報を、その参照画像から抽出して参照ブロック情報として生成する。入力画像信号がBピクチャである場合、参照画像・参照ブロック選択部103は、2つの探し出された参照画像の領域のブロックに含まれる画像情報のうち一方をL0参照画像情報、他方をL1参照画像情報として生成する。
 参照画像・参照ブロック選択部103は、生成した参照ブロック情報を予測画像生成部104及び参照ブロック情報パッキング部111に出力する。また、参照画像・参照ブロック選択部103は、生成した参照画像情報を予測画像生成部104及び参照画像情報パッキング部109に出力する。その後、ステップS205に進む。
(ステップS205)予測画像生成部104が備える予測画像・参照デプス取得部1041は、参照画像・参照ブロック選択部103から参照画像情報と参照ブロック情報をブロック毎に入力される。予測画像・参照デプス取得部1041は、参照画像情報に対応する参照画像と参照デプスマップを読み出し、読み出された参照画像から参照ブロック情報に対応する領域のブロックを抽出して予測画像ブロックを取得する。予測画像・参照デプス取得部1041は、読み出された参照デプスマップから参照ブロック情報に対応する領域の位置のブロックを抽出してデプスブロックを取得する。
 予測画像・参照デプス取得部1041は、入力画像信号がBピクチャである場合、入力されたL0参照ブロック情報に基づき、L0予測画像ブロックとL0デプスブロックを取得する。また、予測画像・参照デプス取得部1041は、入力されたL1参照ブロック情報に基づき、同様にしてL1予測画像ブロックとL1デプスブロックを取得する。
 予測画像・参照デプス取得部1041は、取得した予測画像ブロックを第1予測画像生成部1042-1~第n予測画像生成部1042-n及びデプス利用予測画像生成部1043に出力する。予測画像・参照デプス取得部1041は、取得したデプスブロックをデプス利用予測画像生成部1043に出力する。
 第1予測画像生成部1042-1~第n予測画像生成部1042-nは、入力された予測画像ブロックから各予測モードに応じた第1~第n予測画像ブロックをそれぞれ生成し、生成した第1~第n予測画像ブロックを予測画像選択部1044に出力する。
 デプス利用予測画像生成部1043は、予測画像・参照デプス取得部1041から入力されたL0予測画像ブロック、L1予測画像ブロック、L0デプスブロック、及びL1デプスブロックに基づきデプス利用予測画像ブロックを生成し、予測画像選択部1044に出力する。その後、ステップS206に進む。
(ステップS206)予測画像選択部1044は、第1~第n予測画像ブロック1042-1~1042-nからそれぞれ入力された第1~第n予測画像ブロック、及びデプス利用予測画像生成部1043から入力されたデプス利用予測画像ブロック各々について、入力画像信号に含まれる当該画像ブロックとの間の指標値(例えば、SAD)を算出する。その後、ステップS207に進む。
(ステップS207)予測画像選択部1044は、最も指標値が小さくなる候補予測画像ブロックを選択し、選択された候補予測画像ブロックに対応する予測モード情報を決定する。予測画像選択部1044は、決定した予測モード情報を予測モード情報符号化部108に出力する。その後、ステップS208に進む。
(ステップS208)予測画像選択部1044が、フレーム内の全ブロックについてステップS203~S207の処理が完了していない場合、処理対象となるブロックを変更してステップS202に戻る。予測画像選択部1044が、フレーム内の全ブロックについてステップS203~S207の処理が完了した場合、選択された候補予測画像ブロックを各々対応するブロック位置に配置してフレーム毎の予測画像を生成する。予測画像選択部1044は生成した予測画像を減算部102及び加算部113に出力する。その後、ステップS209に進む。
 なお、予測画像生成部104が行う予測画像生成処理については後述する。
(ステップS209)減算部102は、画像入力部102から入力された入力画像信号から予測画像生成部から入力された予測画像信号をフレーム毎に減算して、差分画像信号を生成する。減算部102は、生成した差分画像信号を差分画像符号化部105に出力する。その後、ステップS210に進む。
(ステップS210)差分画像符号化部105は、減算部102から入力された差分画像信号をフレーム毎に符号化して、情報量がより圧縮された差分画像符号を差分画像復号部106及び画像符号化装置100の外部(例えば、画像復号装置400)に出力する。
 予測モード情報符号化部108は、予測画像生成部108から入力された予測モード情報を、例えば可変長符号化を用いて符号化し、情報量がより圧縮された予測モード情報符号を画像符号化装置100の外部(例えば、画像復号装置400)に出力する。
 参照画像情報パッキング部109は、参照画像・参照ブロック選択部103から入力された参照画像情報をフレーム毎にパッキングし、パッキングされた参照画像情報を参照画像情報符号化部110に出力する。参照画像情報符号化部110は、参照画像情報パッキング部109から入力された参照画像情報をフレーム毎に、例えば可変長符号化を用いて符号化し、情報量がより圧縮された参照画像情報符号を画像符号化装置100の外部(例えば、画像復号装置400)に出力する。
 参照ブロック情報パッキング部111は、参照画像・参照ブロック選択部103から入力された参照ブロック情報をフレーム毎にパッキングし、パッキングされた参照ブロック情報を参照ブロック情報符号化部112に出力する。
 参照ブロック情報符号化部112は、参照ブロック情報パッキング部111から入力された参照ブロック情報を、例えば可変長符号化を用いて符号化し、情報量がより圧縮された参照ブロック情報符号を画像符号化装置100の外部(例えば、画像復号装置400)に出力する。その後、ステップS211に進む。
(ステップS211)デプスマップ符号化部114は、画像符号化装置100の外部からデプスマップをフレーム毎に入力され、入力されたデプスマップを、例えば可変長符号化を用いて情報量がより圧縮されたデプスマップ符号をデプスマップ復号部115及び画像符号化装置100の外部(例えば、画像復号装置400)に出力する。デプスマップ復号部115は、デプスマップ符号化部114から入力されたデプスマップ符号を、例えば可変長復号を用いて情報量がより多い参照デプスマップを復号する。デプスマップ復号部は、復号した参照デプスマップを参照画像メモリ107に出力する。その後、ステップS212に進む。
(ステップS212)差分画像復号部106は、差分画像符号化部105から入力された差分画像符号を復号し、復号差分画像信号を生成する。差分画像復号部106は、生成した復号差分画像信号を加算部113に出力する。その後、ステップS213に進む。
(ステップS213)加算部113は、予測画像生成部104から入力された予測画像信号と差分画像復号部106から入力された復号差分信号を加算して、参照画像信号を生成する。その後、ステップS214に進む。
(ステップS214)加算部113は、生成した参照画像信号を参照画像メモリ107に出力する。参照画像メモリ107は、加算部113から入力された参照画像信号をフレーム毎に記憶する。また、参照画像メモリ107は、画像符号化装置100の外部からデプスマップをフレーム毎に入力され、デプスマップ復号部115から入力された参照デプスマップをフレーム毎に入力され、対応するフレームの入力画像信号から生成された参照画像信号と対応付けて記憶する。その後、処理を終了する。
 次に、本実施形態に係る予測画像生成部104が行う予測画像生成処理について説明する。図7は、本実施形態に係る予測画像生成部104が行う予測画像生成処理を示すフローチャートである。この予測画像生成処理は、図6に示すステップS205~S208の処理に相当する。
(ステップS301)参照画像・参照デプス取得部1041は、参照画像・参照ブロック選択部103から参照画像情報と参照ブロック情報をブロック毎に入力される。入力画像信号がBピクチャである場合には、参照画像・参照デプス取得部1041は、L0参照ブロック情報及びL1参照ブロック情報がブロック毎に入力される。その後、ステップS302に進む。
(ステップS302)参照画像・参照デプス取得部1041は、参照画像メモリ107から参照画像情報に対応する参照画像信号と参照デプスマップを読み出し、さらに読み出された参照画像信号から参照ブロック情報に対応する領域のブロックを抽出して参照画像ブロックを取得する。参照画像・参照デプス取得部1041は、読み出されたデプスマップから参照ブロック情報に対応する領域のブロックを抽出してデプスブロックを取得する。入力画像がBピクチャである場合には、参照画像・参照デプス取得部1041は、L0参照ブロック情報に基づき、L0参照画像ブロック及びL0デプスブロックを取得する。
 参照画像・参照デプス取得部1041は、L1参照ブロック情報に基づき、L1参照画像ブロック及びL1デプスブロックを取得する。参照画像・参照デプス取得部1041は、取得した参照画像ブロック(又はL0参照画像ブロック並びにL1参照画像ブロック)を第1予測画像生成部1042-1~第n予測画像生成部1042-n及びデプス利用予測画像生成部1043に出力する。予測画像・参照デプス取得部1041は、取得したデプスブロックをデプス利用予測画像生成部1043に出力する。その後、ステップS303-1に進む。
(ステップS303-1)第1予測画像生成部1042-1は、参照画像・参照デプス取得部1041から入力された参照画像ブロックから予測モード1に応じた第1予測画像ブロックを生成する。第1予測画像生成部1042-1は、生成した第1予測画像ブロックを予測画像選択部1044に出力する。その後、ステップS303-2に進む。
(ステップS303-i)(iは、1より大きく、nより小さい自然数)において、第i予測画像生成部1042-iは、参照画像・参照デプス取得部1041から入力された参照画像ブロックから予測モードiに応じた第i予測画像ブロックを生成する。予測画像生成部1042-iは、生成した第i予測画像ブロックを予測画像選択部1044に出力する。その後、ステップS303-i+1に進む。
(ステップS303-n)第n予測画像生成部1042-nは、参照画像・参照デプス取得部1041から入力された参照画像ブロックから予測モードnに応じた第n予測画像ブロックを生成する。第n予測画像生成部1042-nは、生成した第n予測画像ブロックを予測画像選択部1044に出力する。その後、ステップS304に進む。
(ステップS304)デプス利用予測画像生成部1043は、参照画像・参照デプス取得部1041から入力されたL0参照画像ブロック、L1参照画像ブロック、L0デプスブロック、及びL1デプスブロックに基づきデプス利用予測画像ブロックを生成し、予測画像選択部1044に出力する。
 ここで、デプス利用予測画像生成部1043は、例えば図5に示す処理を用いて、デプス利用予測画像ブロックを生成する。その後、ステップS305に進む。
(ステップS305)予測画像選択部1044は、第1~第n予測画像ブロック1042-1~1042-nからそれぞれ入力された第1~第n予測画像ブロック、及びデプス利用予測画像生成部1043から入力されたデプス利用予測画像ブロックの中から、最も指標値(例えば、入力画像信号における当該ブロックとの間のSAD)が小さくなる1つの候補予測画像ブロックを選択する。その後、ステップS306に進む。
(ステップS306)予測画像選択部1044は、選択された候補予測画像ブロックに対応する予測モード情報を予測モード情報符号化部108に出力する。その後、ステップS307に進む。
(ステップS307)予測画像選択部1044は、フレーム内の全画像ブロックについて選択が完了したら、選択された候補予測画像ブロックを各々対応するブロックの位置に配置してフレーム毎の予測画像信号を生成する。予測画像選択部1044は生成した予測画像信号を減算部102及び加算部113に出力して処理を終了する。
 次に、本実施形態に係る画像復号装置400について説明する。
 図8は、本実施形態に係る画像復号装置400の構成を示す概略図である。
 画像復号装置400は、差分画像復号部401、参照画像情報復号部402、参照画像情報アンパッキング部403、参照ブロック情報復号部404、参照ブロック情報アンパッキング部405、予測モード情報復号部406、予測画像生成部407、参照画像メモリ408、加算部409及びデプスマップ復号部410、を含んで構成される。
 差分画像復号部401は、外部(例えば、画像符号化装置100)から入力された差分画像符号を復号してフレーム毎に差分画像信号を生成する。差分画像復号部401において差分画像符号に基づき差分画像信号を生成する処理は、差分画像符号化部106と同様である。差分画像復号部401は、生成した差分画像信号をフレーム毎に加算部409に出力する。
 ここで、差分画像復号部401は、上述の符号化順序と同一の順序(復号順序)で差分画像符号を入力される。
 参照画像情報復号部402は、外部(例えば、画像符号化装置100)から入力された参照画像情報符号を復号してフレーム毎に参照画像情報を生成する。参照画像情報復号部402が行う復号処理は、参照画像情報符号化部110が行った符号化方法(例えば、可変長符号化)との逆の処理(例えば、可変長復号)である。参照画像情報復号部402は、生成した参照画像情報を参照画像情報アンパッキング部403に出力する。
 参照画像情報アンパッキング部403は、参照画像情報復号部402からフレーム毎に入力された参照画像情報をブロック毎にアンパック(unpack;取出)して、アンパックしたブロック毎の参照画像情報を該当するブロックの位置に配置して参照画像信号を生成する。このアンパックに係る処理において、参照画像情報アンパッキング部403は、L0参照画像情報とL1参照画像情報を分離する。参照画像情報アンパッキング部403はフレーム毎に生成した参照画像信号を上述の復号順序で参照画像メモリ408に記憶する。
 参照ブロック情報復号部404は、外部(例えば、画像符号化装置100)から入力された参照ブロック情報符号を復号してフレーム毎に参照ブロック情報を生成する。参照ブロック情報復号部402が行う復号処理は、参照ブロック情報符号化部112が行った符号化方法(例えば、可変長符号化)との逆の処理(例えば、可変長復号)である。参照ブロック情報復号部404は、生成した参照ブロック情報を参照ブロック情報アンパッキング部405に出力する。
 参照ブロック情報アンパッキング部405は、参照ブロック情報復号部404からフレーム毎に入力された参照ブロック情報をブロック毎にアンパックして、アンパックした参照ブロック情報を予測画像生成部407に上述の復号順序で出力する。
 予測モード情報復号部406は、外部(例えば、画像符号化装置100)から入力された予測モード情報符号を復号して入力されたフレームのブロック毎に予測モード情報を生成する。予測モード情報復号部406が行う復号処理は、予測モード情報符号化部108が行った符号化方法(例えば、可変長符号化)との逆の処理(例えば、可変長復号)である。予測モード情報復号部406は、予測モード情報符号を入力した順序とは異なるフレーム順序で生成した予測モード情報を上述の復号順序で予測画像生成部407に出力する。
 デプスマップ復号部410は、外部(例えば、画像符号化装置100)から入力されたデプスマップ符号を復号してフレーム毎にデプスマップを生成する。デプスマップ復号部410が行う復号処理は、デプスマップ符号化部114が行った符号化方法(例えば、可変長符号化)との逆の処理(例えば、可変長復号)である。デプスマップ復号部410は、生成したデプスマップをフレーム毎に、同一のフレームの参照画像と対応付けて参照画像メモリ408に記憶する。
 予測画像生成部407は、参照画像情報アンパッキング部403から入力された参照画像情報に基づき参照画像メモリ408から参照画像信号を読み出す。参照画像情報のうちL0参照画像情報及びL1参照画像情報が有効であることを示す場合には、予測画像生成部407は、さらに各参照画像信号に対応する参照デプスマップを読みだす。予測画像生成部407は、参照画像情報(該当する場合には、参照デプスマップ)及び参照ブロック情報に基づき予測画像ブロックを生成する。
 なお、L0参照情報及びL1参照情報ともに無効であることを示す場合、予測画像生成部407は、参照画像メモリ408から、記憶されている参照画像信号の一部を読み出し、読み出した参照画像信号の一部から、例えば、対象となる画像ブロックの近傍の画像ブロック(真上、左、左上及び右上の画像ブロック)を抽出する。予測画像生成部104は、抽出した画像ブロックに基づき予測画像ブロックを生成する。
 参照画像・参照デプス取得部1041は、生成した予測画像ブロックをフレーム全体にわたり該当するブロックに配置することで統合して予測画像信号を生成し、生成した予測画像信号を加算部409に出力する。
 図9は、本実施形態に係る予測画像生成部407の構成を示す概略図である。
 予測画像生成部407は、具体的には、参照画像・参照デプス取得部4071、第1予測画像生成部4072-1~第n予測画像生成部4072-n(nは1以上の自然数、例えば4)、デプス利用予測画像生成部4073、及び予測画像選択部4074を含んで構成される。
 参照画像・参照デプス取得部4071は、参照画像情報アンパッキング部403から入力された参照画像情報に基づき、参照画像メモリ408から参照画像信号を読み出し、入力されたL0参照画像情報及びL1参照画像情報が有効であることを示す場合、さらに対応するデプスマップを読み出す。
 参照画像・参照デプス取得部4071は、読み出された参照画像信号から参照ブロック情報アンパッキング部405から入力された参照ブロック情報に基づき参照画像ブロックを取得し、デプスマップが読み出された場合にはデプスブロックを取得する。
 なお、L0参照情報及びL1参照情報ともに無効であることを示す場合、予測画像生成部407は、参照画像メモリ408から、記憶されている参照画像信号の一部を読み出し、読み出した参照画像信号の一部から、対象となる画像ブロックの近傍の画像ブロック(真上、左、左上及び右上の画像ブロック)を取得する。
 なお、参照画像・参照デプス取得部4071が参照画像情報に基づき参照画像ブロック及びデプスブロックを取得する処理は、参照画像・参照デプス取得部1041と同様である。
 参照画像・参照デプス取得部4071は、取得した参照画像ブロックを第1予測画像生成部4072-1~第n予測画像生成部4072-n及びデプス利用予測画像生成部4073に出力する。参照画像・参照デプス取得部4071は、取得したデプスブロックをデプス利用予測画像生成部4073に出力する。
 第1予測画像生成部4072-1~第n予測画像生成部4072-nは、参照画像・参照デプス取得部4071から入力された参照画像ブロックから各予測モードに応じた第1~第n予測画像ブロックをそれぞれ生成する。第1予測画像生成部4072-1~第n予測画像生成部4072-nは、生成した第1~第n予測画像ブロックを予測画像選択部4074に出力する。
 なお、第1予測画像生成部4072-1~第n予測画像生成部4072-nが第1~第n予測画像ブロックをそれぞれ生成する処理は、第1予測画像生成部1042-1~第n予測画像生成部1042-nとそれぞれ同様である。
 デプス利用予測画像生成部4073は、参照画像・参照デプス取得部4071から入力されたL0参照画像ブロック、L1参照画像ブロック、L0デプスブロック、及びL1デプスブロックに基づきデプス利用予測画像ブロックを生成し、予測画像選択部4074に出力する。
 デプス利用予測画像生成部4073がデプス利用予測画像ブロックを生成する処理は、デプス利用予測画像生成部1043と同様である(図5参照)。
 予測画像選択部4074は、第1~第n予測画像ブロック4072-1~4072-nからそれぞれ入力された第1~第n予測画像ブロック、及びデプス利用予測画像生成部4073から入力されたデプス利用予測画像ブロックの中から、予測モード情報復号部406から入力された該当するブロックの予測モード情報に対応する候補予測画像ブロックを選択する。
 予測画像選択部4074は、各フレーム内の全画像ブロックについて候補予測画像ブロックの選択が完了したら、選択された候補予測画像ブロックを各々対応するブロックの位置に配置してフレーム毎の予測画像信号を生成する。予測画像選択部4074は、生成した予測画像信号を加算部409に出力する。
 図8に戻り、加算部409は、差分画像復号部401から入力された差分画像信号の各画素における輝度値と予測画像生成部407から入力された予測画像信号の対応する画素の輝度値を加算して出力画像信号を生成する。加算部409は、生成した出力画像信号をフレーム毎に参照画像メモリ408及び画像復号装置400の外部に出力する。
 加算部409は、生成した出力画像信号を画像復号装置400の外部に出力する際には、例えば上述の入力順序で5フレーム(Iピクチャ(I0)、Bピクチャ(B3)、Bピクチャ(B2)、Bピクチャ(B4)及びPピクチャ(P1))毎に出力する。
 次に、本実施形態に係る画像復号装置400が行う画像復号処理について説明する。
 図10は、本実施形態に係る画像復号処理を示すフローチャートである。
(ステップS501)差分画像復号部401、参照画像情報復号部402、参照ブロック情報復号部404、予測モード情報復号部406、及びデプスマップ復号部410は、それぞれ差分画像符号、参照画像情報符号、参照ブロック情報符号、予測モード情報符号及びデプスマップ符号をそれぞれ外部(例えば、画像符号化装置100)から入力される。その後、ステップS502に進む。
(ステップS502)参照画像情報復号部402は、参照画像情報符号を復号してフレーム毎に参照画像情報を生成し、生成した参照画像情報を参照画像情報アンパッキング部403に出力する。
 参照画像情報アンパッキング部403は、参照画像情報復号部402からフレーム毎に入力された参照画像情報をブロック毎にアンパックして、アンパックした参照画像情報を予測画像生成部407に出力する。
(ステップS503)参照ブロック情報復号部404は、参照ブロック情報符号を復号してフレーム毎に参照ブロック情報を生成し、生成した参照画像情報を参照ブロック情報アンパッキング部405に出力する。
 参照ブロック情報アンパッキング部405は、参照ブロック情報復号部404からフレーム毎に入力された参照ブロック情報をブロック毎にアンパックして、アンパックした参照ブロック情報を予測画像生成部407に出力する。その後、ステップS504に進む。
(ステップS504)予測モード情報復号部406は、予測モード情報符号を復号して各フレームのブロック毎に予測モード情報を生成し、生成した予測モード情報を予測画像生成部407に出力する。その後、ステップS505に進む。
(ステップS505)デプスマップ復号部410は、デプスマップ符号を復号してフレーム毎にデプスマップを生成し、生成したデプスマップをフレーム毎に、同一のフレームの参照画像信号と対応付けて参照画像メモリ408に記憶する。その後、ステップS506に進む。
(ステップS506)フレーム内の全ブロックについて、予測画像生成部407は、ステプS507の処理を繰り返す。
(ステップS507)予測画像生成部407は、参照画像情報アンパッキング部403から入力される参照画像情報と参照ブロック情報アンパッキング部405から入力された参照ブロック情報に基づき、参照画像メモリ408から参照画像信号を(参照ブロック情報が有効であることを示すL0参照ブロック情報又はL1参照ブロック情報のときは、さらに読み出された参照画像信号と同一のフレームの参照デプスマップ)を読み出す。予測画像生成部407は、参照画像(参照デプスマップが読み出された場合は、さらに読み出された参照デプスマップ)に基づき予測画像ブロックを生成する。
(ステップS508)フレーム内の全ブロックについて処理を完了していない場合には、予測画像生成部407は、処理対象のブロックを変更してステップS507に戻る。フレーム内の全ブロックについて、処理を完了した場合には、ステップS509に進む。
(ステップS509)予測画像生成部407は、生成した予測画像ブロックの各々を該当するブロックの位置に配置してフレーム毎の予測画像信号を生成する。予測画像生成部407は、生成した予測画像信号を加算部409に出力する。なお、予測画像生成部407が行う予測画像を生成する処理については後述する。その後、ステップS510に進む。
(ステップS510)差分画像復号部401は、差分画像符号を復号してフレーム毎に差分画像信号を生成し、生成した差分画像信号をフレーム毎に加算部409に出力する。その後、ステップS511に進む。
(ステップS511)加算部409は、差分画像復号部401から入力された差分画像信号と予測画像生成部407から入力された予測画像信号を加算して出力画像信号を生成する。加算部409は、生成した出力画像信号をフレーム毎に参照画像メモリ408及び画像復号装置400の外部に出力し、処理を終了する。
 次に、予測画像生成部407が行う予測画像生成処理について説明する。
 図11は、本実施形態に係る予測画像生成部407が行う予測画像生成処理を示すフローチャートである。この予測画像生成処理は、図10に示すステップS506~S509の処理に相当する。
(ステップS601)参照画像・参照デプス取得部4071は、参照画像情報アンパッキング部403から参照画像情報と参照ブロック情報アンパッキング部405からブロック毎の参照ブロック情報を入力される。その後、ステップS602に進む。
(ステップS602)参照画像・参照デプス取得部4071は、入力された参照画像情報に基づき、参照画像メモリ408から参照画像信号(参照ブロック情報がL0参照ブロック情報又はL1参照ブロック情報の場合は、読み出された参照画像信号と同一のフレームのデプスマップ)を読み出す。参照画像・参照デプス取得部4071は、参照ブロック情報に基づき参照画像から参照画像ブロック(デプスマップが読み出された場合は、さらに取得した参照画像ブロックと同一の領域のデプスブロック)を取得する。
 参照画像・参照デプス取得部4071は、取得した参照画像ブロックを第1予測画像生成部4072-1~第n予測画像生成部4072-n及びデプス利用予測画像生成部4073に出力する。参照画像・参照デプス取得部4071は、取得したデプスブロックをデプス利用予測画像生成部4073に出力する。その後、ステップS603-1に進む。
(ステップS603-1)第1予測画像生成部4072-1は、参照画像・参照デプス取得部4071から入力された参照画像ブロックから予測モード1に応じた第1予測画像ブロックを生成する。第1予測画像生成部4072-1は、生成した第1予測画像ブロックを予測画像選択部4074に出力する。その後、ステップS603-2に進む。
(ステップS603-i)において、第i予測画像生成部1042-iは、参照画像・参照デプス取得部4071から入力された参照画像ブロックから予測モードiに応じた第i予測画像ブロックを生成する。予測画像生成部4072-iは、生成した第i予測画像ブロックを予測画像選択部4074に出力する。その後、ステップS603-i+1に進む。
(ステップS603-n)第n予測画像生成部4072-nは、参照画像・参照デプス取得部4071から入力された参照画像ブロックから予測モードnに応じた第n予測画像ブロックを生成する。第n予測画像生成部4072-nは、生成した第n予測画像ブロックを予測画像選択部4074に出力する。その後、ステップS604に進む。
(ステップS604)デプス利用予測画像生成部4073は、参照画像・参照デプス取得部4071から入力されたL0参照画像ブロック、L1参照画像ブロック、L0デプスブロック、及びL1デプスブロックに基づきデプス利用予測画像ブロックを生成し、予測画像選択部4074に出力する。
 ここで、デプス利用予測画像生成部4073は、例えば図5に示す処理を用いて、デプス利用予測画像ブロックを生成する。その後、ステップS605に進む。
(ステップS605)予測画像選択部4074は、第1~第n予測画像ブロック4072-1~4072-nからそれぞれ入力された第1~第n予測画像ブロック、及びデプス利用予測画像生成部4073から入力されたデプス利用予測画像ブロックの中から、予測モード情報復号部406から入力された該当するブロックの予測モード情報に対応する候補予測画像ブロックを選択する。その後、ステップS606に進む。
(ステップS606)予測画像選択部4074は、各フレーム内の全画像ブロックについて選択が完了したら、選択された候補予測画像ブロックを各々該当するブロックの位置に配置してフレーム毎の予測画像を生成する。予測画像選択部4074は、生成した予測画像を加算部409に出力し、処理を終了する。
 なお、上述の例では、デプス利用予測画像を生成する処理(図5参照)は、Bピクチャ(入力画像)に基づき生成したL0参照画像とL1参照画像を用いていたが、本実施形態ではこれに限られない。本実施形態では、その他の種類の入力画像(例えばPピクチャ)に基づく参照画像を用いても、3個以上の参照画像を用いてもよい。
 また、上述の画像符号化装置100は、デプスマップ符号化部114を備え、画像復号装置400は、デプスマップ復号部410を備えていたが、本実施形態ではこれに限られない。本実施形態では、画像符号化装置100が入力画像に対応するデプスマップに関する情報を別途の手段で画像復号装置400において利用できるようにしてもよい。例えば、オフラインでの受け渡し、あるいは外部に設置され映像情報と対応づけてデプスマップを記憶したサーバ装置から通信回線を介して、画像復号装置400がデプスマップを受信するようにしてもよい。そのために、映像情報を示す映像のタイトルが、通信回線を通じて検索可能であって、その映像情報が選択されたときに、対応するデプスマップが受信できるようにする。
 また、本実施形態に係る画像符号化装置100は、入力画像に含まれる画素と、入力画像とは異なる視点の画像に含まれる画素との間の視差を表す画素値として含むデプスマップを生成するデプスマップ生成部を備えてもよい。その場合、デプスマップ生成部は、生成したデプスマップを参照画像メモリ107及びデプスマップ符号化部114に出力する。
 また、本実施形態に係る画像復号装置400は、出力画像と、その出力画像と同じフレームのデプスマップに基づいて出力画像とは異なる視点の第2の出力画像を生成し、外部に出力してもよい。
 また、上述の例では、画像符号化装置100は、入力画像信号を5フレーム毎に入力していたが、本実施形態では、これに限らず、任意の数のフレーム数毎に入力してもよい。
 また、上述の例では、画像復号装置400は、出力画像信号を5フレーム毎に出力していたが、本実施形態では、これに限らず、任意の数のフレーム数毎に出力してもよい
 また、上述の例では、画像符号化装置100は、参照画像情報と参照ブロック情報を生成する参照画像・参照ブロック選択部103を備えているが、本実施形態では、これには限らず、その代わりに参照画像情報を生成する参照画像選択部と参照ブロック情報を生成する参照画像ブロック情報選択部を備えてもよい。
 このように、本実施形態によれば、2以上の参照画像を用いて予測画像を生成する際、参照画像に対応する距離情報がより近い距離を示す参照画像を優先して合成している。これにより、入力画像との残差を最小化し高効率の画像符号化及び復号を実現することができる。
 なお、上述した実施形態における画像符号化装置100、画像復号装置400の一部、例えば、減算部102、参照画像・参照ブロック選択部103、予測画像生成部104、差分画像符号化部105、差分画像復号部106、予測モード情報符号化部108、参照画像情報パッキング部109、参照画像情報符号化部110、参照ブロック情報パッキング部111、参照ブロック情報符号化部112、加算部113、デプスマップ符号化部114並びにデプスマップ復号部115、及び差分画像復号部401、参照画像情報復号部402、参照画像情報案パッキング部403、参照ブロック情報復号部404、参照ブロック情報アンパッキング部405、予測モード情報復号部406、予測画像生成部407、加算部409並びにデプスマップ復号部410をコンピュータで実現するようにしても良い。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピュータシステム」とは、画像符号化装置100又は画像復号装置400に内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでも良い。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
 また、上述した実施形態における画像符号化装置100及び画像復号装置400の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現しても良い。画像符号化装置100及び画像復号装置400の各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化しても良い。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現しても良い。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いても良い。
 以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。
 本発明は、動画像を符号化する装置、方法などに利用できる。
 100  画像符号化装置
 101  画像入力部
 102  減算部
 103  参照画像・参照ブロック選択部
 104  予測画像生成部
 1041  参照画像・参照デプス取得部
 1042-1~1042-n  第1~第n予測画像生成部
 1043  デプス利用予測画像生成部
 1044  予測画像選択部
 105  差分画像符号化部
 106  差分画像復号部
 107  参照画像メモリ
 108  予測モード情報符号化部
 109  参照画像情報パッキング部
 110  参照画像情報符号化部
 111  参照ブロック情報パッキング部
 112  参照ブロック情報符号化部
 113  加算部
 114  デプスマップ符号化部
 400  画像復号装置
 401  差分画像復号部
 402  参照画像情報復号部
 403  参照画像情報アンパッキング部
 404  参照ブロック情報復号部
 405  参照ブロック情報アンパッキング部
 406  予測モード情報復号部
 407  予測画像生成部
 4071  参照画像・参照デプス取得部
 4072-1~4072-n  第1~第n予測画像生成部
 4073  デプス利用予測画像生成部
 4074  デプス利用予測画像生成部
 408  参照画像メモリ
 409  加算部
 410  デプスマップ復号部

Claims (16)

  1.  複数の参照画像を用いて入力画像を符号化する画像符号化装置において、
     前記複数の参照画像から参照画像を選択する参照画像選択部と、
     前記参照画像選択部が選択した参照画像の一領域である参照画像ブロックと前記入力画像を分割した画像ブロックとの相関に基づいて、当該参照画像ブロックを2以上取得する参照画像ブロック取得部と、
     前記参照画像取得部が取得した2以上の参照画像ブロックのうち、当該参照画像ブロックが表す被写体の距離情報がより近距離を示す参照画像ブロックを優先して用いることにより予測画像を生成する予測画像生成部と、
     を備える画像符号化装置。
  2.  前記予測画像生成部は、
     前記2以上の参照画像ブロックに含まれる画素毎の前記距離情報が、より短い距離を示す画素を優先して用いることにより予測画像を生成する請求項1に記載の画像符号化装置。
  3.  前記予測画像生成部は、
     前記2以上の参照画像ブロックに含まれる画素毎の前記距離情報に基づいて参照画像ブロック間の重み係数を算出し、前記算出した重み係数に基づき当該画素の輝度値を算出する請求項2に記載の画像符号化装置。
  4.  前記予測画像生成部は、
     前記2以上の参照画像ブロックのうち一の参照画像ブロックに含まれる画素に対応する前記距離情報が、他の参照画像ブロックに含まれる画素に対応する距離情報よりも予め設定された閾値よりも短い距離を示すとき、当該一の参照画像ブロックに含まれる画素を優先して用いることにより予測画像を生成する請求項2に記載の画像符号化装置。
  5.  前記予測画像生成部は、
     前記2以上の参照画像ブロックのうち一の参照画像ブロックに含まれる画素に対応する前記距離情報が、他の参照画像ブロックに含まれる画素に対応する距離情報よりも予め設定された閾値ほど短い距離を示さないとき、当該一の参照画像ブロックに含まれる画素及び当該他の参照ブロックに含まれる画素を同等に用いることにより予測画像を生成する請求項4に記載の画像符号化装置。
  6.  前記予測画像生成部において、
     前記閾値が、前記被写体の距離に基づく値である請求項4又は5に記載の画像符号化装置。
  7.  複数の参照画像を用いて、参照画像の一領域である参照画像ブロックを表す2以上の参照ブロック情報を復号して画像を生成する画像復号装置において、
     前記複数の参照画像から前記2以上の参照ブロック情報各々に基づき参照画像ブロックを取得する参照画像取得部と、
     前記参照画像取得部が取得した参照画像ブロックのうち、当該参照画像ブロックが表す被写体への距離情報がより短い距離を示す参照画像ブロックを優先して用いることにより予測画像を生成する予測画像生成部と、
     を備える画像復号装置。
  8.  前記予測画像生成部は、
     前記2以上の参照画像ブロックに含まれる画素毎の前記距離情報が、より短い距離を示す画素を優先して用いることにより予測画像を生成する請求項7に記載の画像復号装置。
  9.  前記予測画像生成部は、
     前記2以上の参照画像ブロックに含まれる画素毎の前記距離情報に基づいて参照画像ブロック間の重み係数を算出し、前記算出した重み係数に基づき当該画素の輝度値を算出する請求項8に記載の画像復号装置。
  10.  前記予測画像生成部は、
     前記2以上の参照画像ブロックのうち一の参照画像ブロックに含まれる画素に対応する前記距離情報が、他の参照画像ブロックに含まれる画素に対応する距離情報よりも予め設定された閾値よりも短い距離を示すとき、当該一の参照画像ブロックに含まれる画素を優先して用いることにより予測画像を生成する請求項8に記載の画像復号装置。
  11.  前記予測画像生成部は、
     前記2以上の参照画像ブロックのうち一の参照画像ブロックに含まれる画素に対応する前記距離情報が、他の参照画像ブロックに含まれる画素に対応する距離情報よりも予め設定された閾値ほど短い距離を示さないとき、当該一の参照画像ブロックに含まれる画素及び当該他の参照ブロックに含まれる画素を同等に用いることにより予測画像を生成する請求項10に記載の画像復号装置。
  12.  前記予測画像生成部において、
     前記閾値が、前記被写体の距離に基づく値である請求項10又は11に記載の画像復号装置。
  13.  複数の参照画像を用いて入力画像を符号化する画像符号化装置における画像符号化方法であって、
     前記複数の参照画像から参照画像を選択する工程と、
     前記選択された参照画像の一領域である参照画像ブロックと前記入力画像を分割した画像ブロックとの相関に基づいて、当該参照画像ブロックを2以上取得する工程と、
     前記取得した2以上の参照画像ブロックのうち、当該参照画像ブロックが表す被写体への距離情報がより短い距離を示す参照画像ブロックを優先して用いることにより予測画像を生成する工程と、を有する画像符号化方法。
  14.  複数の参照画像を用いて、参照画像の一領域である参照画像ブロックを表す2以上の参照ブロック情報を復号して画像を生成する画像復号装置における画像復号方法であって、
     前記複数の参照画像から前記2以上の参照ブロック情報各々に基づき参照画像ブロックを取得する工程と、
     前記取得した参照画像ブロックのうち、当該参照画像ブロックが表す被写体への距離情報がより短い距離を示す参照画像ブロックを優先して用いることにより予測画像を生成する工程と、を有する画像復号方法。
  15.  複数の参照画像を用いて入力画像を符号化する画像符号化装置のコンピュータに、
     前記複数の参照画像から参照画像を選択する工程と、
     前記選択した参照画像の一領域である参照画像ブロックと前記入力画像を分割した画像ブロックとの相関に基づいて、当該参照画像ブロックを2以上取得する工程と、
     前記取得した2以上の参照画像ブロックのうち、当該参照画像ブロックが表す被写体への距離情報がより短い距離を示す参照画像ブロックを優先して用いることにより予測画像を生成する工程と、
     を実行させる画像符号化プログラム。
  16.  複数の参照画像を用いて、参照画像の一領域である参照画像ブロックを表す2以上の参照ブロック情報を復号して画像を生成する画像復号装置のコンピュータに、
     前記複数の参照画像から前記2以上の参照ブロック情報各々に基づき参照画像ブロックを取得する工程と、
     前記取得した参照画像ブロックのうち、当該参照画像ブロックが表す被写体への距離情報がより短い距離を示す参照画像ブロックを優先して用いることにより予測画像を生成する工程と、
     を実行させる画像復号プログラム。
PCT/JP2012/056114 2011-03-10 2012-03-09 画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法及び画像復号プログラム WO2012121369A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-052827 2011-03-10
JP2011052827 2011-03-10

Publications (1)

Publication Number Publication Date
WO2012121369A1 true WO2012121369A1 (ja) 2012-09-13

Family

ID=46798320

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/056114 WO2012121369A1 (ja) 2011-03-10 2012-03-09 画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法及び画像復号プログラム

Country Status (1)

Country Link
WO (1) WO2012121369A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007166381A (ja) * 2005-12-15 2007-06-28 Univ Of Tokyo 多視点画像の圧縮符号化方法及び復号化方法
JP2009003507A (ja) * 2007-06-19 2009-01-08 Victor Co Of Japan Ltd 画像処理方法、画像処理装置及び画像処理プログラム
JP2010135864A (ja) * 2007-03-29 2010-06-17 Toshiba Corp 画像符号化方法及び装置並びに画像復号化方法及び装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007166381A (ja) * 2005-12-15 2007-06-28 Univ Of Tokyo 多視点画像の圧縮符号化方法及び復号化方法
JP2010135864A (ja) * 2007-03-29 2010-06-17 Toshiba Corp 画像符号化方法及び装置並びに画像復号化方法及び装置
JP2009003507A (ja) * 2007-06-19 2009-01-08 Victor Co Of Japan Ltd 画像処理方法、画像処理装置及び画像処理プログラム

Similar Documents

Publication Publication Date Title
TWI717586B (zh) 於視訊解碼器中導出運動向量資訊
JP5277257B2 (ja) 動画像復号化方法および動画像符号化方法
TWI643494B (zh) 畫像解碼裝置、畫像解碼方法、畫像編碼裝置、畫像編碼方法以及編碼資料的資料構造
KR20180055761A (ko) 영상을 부호화 또는 복호화하는 방법 및 장치
JP5833757B2 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体
JP4250638B2 (ja) 動画像符号化装置及びその方法
TW201215161A (en) Image prediction encoding device, image prediction encoding method, image prediction encoding program, image prediction decoding device, image prediction decoding method, and image prediction decoding program
KR20080108774A (ko) 조도 보상 방법 및 장치, 이를 이용한 영상의 부호화,복호화 방법 및 장치
WO2011013253A1 (ja) 幾何変換動き補償予測を用いる予測信号生成装置、動画像符号化装置及び動画像復号化装置
WO2012035640A1 (ja) 動画像符号化方法及び動画像復号化方法
JP2022176940A (ja) Vvcにおける色変換のための方法及び機器
JP2013229674A (ja) 画像符号化装置、画像復号装置、画像符号化方法、画像復号方法、画像符号化プログラム、及び画像復号プログラム
JP2017069866A (ja) 動画像符号化装置、動画像符号化方法及び動画像符号化用コンピュータプログラム
KR101360279B1 (ko) 매크로블록 단위의 변이 예측을 이용한 움직임 정보 공유방법 및 장치 및 그리고 이를 이용한 다시점 비디오 영상부호화/복호화 방법 및 장치
KR20130046377A (ko) 화소 블록 코딩 및 재구성 방법 및 대응 장치
JPWO2015056712A1 (ja) 動画像符号化方法、動画像復号方法、動画像符号化装置、動画像復号装置、動画像符号化プログラム、及び動画像復号プログラム
WO2012121369A1 (ja) 画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法及び画像復号プログラム
WO2015056700A1 (ja) 映像符号化装置及び方法、及び、映像復号装置及び方法
JP5281597B2 (ja) 動きベクトル予測方法,動きベクトル予測装置および動きベクトル予測プログラム
WO2014156647A1 (ja) 複数の入力画像をエンコーディングする方法、プログラムを格納する記憶媒体および装置
JP5375697B2 (ja) 動画像符号化装置、動画像復号装置、動画像符号化方法、及びプログラム
WO2012153440A1 (ja) 予測ベクトル生成方法、予測ベクトル生成装置、予測ベクトル生成プログラム、画像符号化方法、画像符号化装置、画像符号化プログラム、画像復号方法、画像復号装置、及び画像復号プログラム
JP2006074520A (ja) 動きベクトル検出装置
JP2011182167A (ja) 画像符号化装置
KR20090078114A (ko) 가변적 화면 그룹 예측 구조를 이용한 다시점 영상 부호화방법 및 장치, 영상 복호화 장치 그리고 상기 방법을수행하는 프로그램이 기록된 기록 매체

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12754924

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12754924

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP