JPWO2014010464A1 - 予測ベクトル生成装置、画像符号化装置、画像復号装置、予測ベクトル生成方法、およびプログラム - Google Patents

予測ベクトル生成装置、画像符号化装置、画像復号装置、予測ベクトル生成方法、およびプログラム Download PDF

Info

Publication number
JPWO2014010464A1
JPWO2014010464A1 JP2014524751A JP2014524751A JPWO2014010464A1 JP WO2014010464 A1 JPWO2014010464 A1 JP WO2014010464A1 JP 2014524751 A JP2014524751 A JP 2014524751A JP 2014524751 A JP2014524751 A JP 2014524751A JP WO2014010464 A1 JPWO2014010464 A1 JP WO2014010464A1
Authority
JP
Japan
Prior art keywords
vector
prediction
block
unit
disparity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014524751A
Other languages
English (en)
Inventor
内海 端
端 内海
知宏 猪飼
知宏 猪飼
貴也 山本
貴也 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Publication of JPWO2014010464A1 publication Critical patent/JPWO2014010464A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/43Hardware specially adapted for motion estimation or compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/521Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

非基準視点画像における対象ブロックの視差ベクトルの予測ベクトルを生成する予測ベクトル生成装置であって、非基準視点画像に対応するデプスマップにおける、対象ブロックに対応するデプスブロック内のひとつ以上の画素位置を決定する変換画素決定部と、変換画素決定部が決定した画素位置のデプス値の代表値を算出し、該代表値を視差ベクトルに変換する視差ベクトル変換部と、視差ベクトル変換部が生成した視差ベクトルを用いて、対象ブロックの視差ベクトルの予測ベクトルを生成する予測ベクトル決定部とを備えることを特徴とする。これにより、良好な符号化効率を得るとともに演算量の増加を抑えた予測ベクトル生成装置を提供することが可能になる。

Description

本発明は、予測ベクトル生成装置、画像符号化装置、画像復号装置、予測ベクトル生成方法、およびプログラムに関する。
動画像の符号化では、フレームをブロックに分割し、該ブロックに近い画像を、他のフレームから取得して予測画像とする動き予測が行われている。そして、このブロックに近い画像を示すベクトルを動きベクトルと呼び、当該ブロックの周辺のブロックの動きベクトルから当該ブロックの動きベクトルを予測することも行われている(例えば、非特許文献1、2を参照)。なお、動きベクトルの予測による得られるベクトルを、予測ベクトルという。
また、ISO(International Organization For Standardization)では、3次元映像符号の標準規格であり、複数の視点画像とデプスマップとを符号化するMPEG−3DVの規格化が行われている(非特許文献3)。
Recommendation ITU-T H.264 "Advanced video coding for generic audiovisual services", 03/2010 "High efficiency video coding (HEVC) text specification draft 6", JCTVC-H1003, San Jose, CA, USA, February, 2012 "3次元映像符号化の国際標準化動向", NTT技術ジャーナル, pp.63-67, 2011.8
しかしながら、前述のMPEG−3DVのように複数の視点画像を符号化する際には、前述の動き予測に加えて、対象ブロックに近い画像を、他の視点画像から取得して予測画像とする視差予測も行われる。この場合、非特許文献1のように、視差ベクトルを予測する際に、周辺ブロックの視差ベクトルを用いようとしても、周辺ブロックが動き予測により予測画像を生成しているときは、周辺ブロックの視差ベクトルが得られない。このため、予測ベクトルの精度が悪くなってしまい、良好な符号化効率が得られないことがあるという問題がある。
本発明は、このような事情に鑑みてなされたもので、その目的は、良好な符号化効率を得ることができる予測ベクトル生成装置、画像符号化装置、画像復号装置、予測ベクトル生成方法、およびプログラムを提供することにある。
(1)この発明は上述した課題を解決するためになされたもので、本発明の一態様は、非基準視点画像における対象ブロックの視差ベクトルの予測ベクトルを生成する予測ベクトル生成装置であって、前記非基準視点画像に対応するデプスマップにおける、前記対象ブロックに対応するデプスブロック内のひとつ以上の画素位置を決定する変換画素決定部と、前記変換画素決定部が決定した画素位置のデプス値の代表値を算出し、該代表値を視差ベクトルに変換する視差ベクトル変換部と、前記視差ベクトル変換部が生成した視差ベクトルを用いて、前記対象ブロックの視差ベクトルの予測ベクトルを生成する予測ベクトル決定部とを備えることを特徴とする。
(2)また、本発明の他の態様は、(1)に記載の予測ベクトル生成装置であって、前記変換画素決定部は、前記対象ブロックのサイズに応じて選択した決定規則に従い、前記画素位置を決定することを特徴とする。
(3)また、本発明の他の態様は、非基準視点画像における対象ブロックの視差ベクトルの予測ベクトルを生成する予測ベクトル生成装置であって、前記非基準視点画像とは別の視点画像において前記対象ブロックに対応するブロックに関する動きベクトルを取得する動きベクトル取得部と、前記取得した動きベクトルを参照して、前記非基準視点画像の他の時刻の視点画像におけるブロックを選択し、該ブロックに関する視差ベクトルを取得する第1の取得方法と、前記対象ブロックの隣接ブロックに関する視差ベクトルを取得する第2の取得方法とのうち、選択した取得方法を用いて視差ベクトルを取得する視差ベクトル取得部と、前記視差ベクトル取得部が取得した視差ベクトルを用いて、前記対象ブロックの視差ベクトルの予測ベクトルを決定する予測ベクトル決定部とを具備することを特徴とする。
(4)また、本発明の他の態様は、(3)に記載の予測ベクトル生成装置であって、前記視差ベクトル取得部は、前記対象ブロックのサイズに応じて、前記第1の取得方法および前記第2取得方法のうちのいずれを用いるかを選択することを特徴とする。
(5)また、本発明の他の態様は、(1)から(4)のいずれかの項に記載の予測ベクトル生成装置を具備することを特徴とする画像符号化装置である。
(6)また、本発明の他の態様は、(1)から(4)のいずれかの項に記載の予測ベクトル生成装置を具備することを特徴とする画像復号装置である。
(7)また、本発明の他の態様は、非基準視点画像における対象ブロックの視差ベクトルの予測ベクトルを生成する予測ベクトル生成方法であって、前記非基準視点画像に対応するデプスマップにおける、前記対象ブロックに対応するデプスブロック内のひとつ以上の画素位置を決定する第1の過程と、前記第1の過程にて決定した画素位置のデプス値の代表値を算出し、該代表値を視差ベクトルに変換する第2の過程と、前記第2の過程にて生成した視差ベクトルを用いて、前記対象ブロックの視差ベクトルの予測ベクトルを生成する第3の過程と、を有することを特徴とする。
(8)また、本発明の他の態様は、非基準視点画像における対象ブロックの視差ベクトルの予測ベクトルを生成する予測ベクトル生成方法であって、前記非基準視点画像とは別の視点画像において前記対象ブロックに対応するブロックに関する動きベクトルを取得する第1の過程と、前記取得した動きベクトルを参照して、前記非基準視点画像の他の時刻の視点画像におけるブロックを選択し、該ブロックに関する視差ベクトルを取得する第1の取得方法、もしくは、前記対象ブロックの隣接ブロックに関する視差ベクトルを取得する第2の取得方法を用いて視差ベクトルを取得する第2の過程と、前記第2の過程にて取得した視差ベクトルを用いて前記対象ブロックの視差ベクトルの予測ベクトルを決定する第3の過程とを有することを特徴とする。
(9)また、本発明の他の態様は、コンピュータを、非基準視点画像における対象ブロックの視差ベクトルの予測ベクトルを生成する予測ベクトル生成装置として機能させるために、前記非基準視点画像に対応するデプスマップにおける、前記対象ブロックに対応するデプスブロック内のひとつ以上の画素位置を決定する変換画素決定部、前記変換画素決定部が決定した画素位置のデプス値の代表値を算出し、該代表値を視差ベクトルに変換する視差ベクトル変換部、前記視差ベクトル変換部が生成した視差ベクトルを用いて、前記対象ブロックの視差ベクトルの予測ベクトルを生成する予測ベクトル決定部として機能させるためのプログラムである。
(10)また、本発明の他の態様は、コンピュータを、非基準視点画像における対象ブロックの視差ベクトルの予測ベクトルを生成する予測ベクトル生成装置として機能させるために、前記非基準視点画像とは別の視点画像において前記対象ブロックに対応するブロックに関する動きベクトルを取得する動きベクトル取得部、前記取得した動きベクトルを参照して、前記非基準視点画像の他の時刻の視点画像におけるブロックを選択し、該ブロックに関する視差ベクトルを取得する第1の取得方法、もしくは、前記対象ブロックの隣接ブロックに関する視差ベクトルを取得する第2の取得方法を用いて視差ベクトルを取得する視差ベクトル取得部、前記視差ベクトル取得部が取得した視差ベクトルを用いて、前記対象ブロックの視差ベクトルの予測ベクトルを決定する予測ベクトル決定部として機能させるためのプログラムである。
この発明によれば、良好な符号化効率を得るとともに符号化処理および復号処理における演算量の増加を抑えることができる。
この発明の第1の実施形態による画像伝送システム10の構成を示す概略ブロック図である。 同実施形態に係る画像符号化装置100の構成を示す概略ブロック図である。 同実施形態に係る予測ベクトル生成部110の構成を示す概略ブロック図である。 同実施形態に係る変換画素決定部112における視差ベクトルに変換するデプス値(画素)の位置の例を示す図である。 同実施形態に係る変換画素決定部112による、ブロックサイズと画素の選択方法の例を示す図である。 同実施形態に係る変換画素決定部112による、ブロックサイズと画素の選択方法の別の例を示す図である。 同実施形態に係る変換画素決定部112による、ブロックサイズと画素の選択方法のさらに別の例を示す図である。 同実施形態に係る対象ブロックと隣接ブロックの関係を説明する図である。 同実施形態に係る別の画像符号化装置100aの構成を示す概略ブロック図である。 同実施形態に係る画像復号装置300の構成を示す概略ブロック図である。 同実施形態に係る予測ベクトル生成部306の構成を示す概略ブロック図である。 同実施形態に係る別の画像復号装置300aの構成を示す概略ブロック図である。 この発明の第2の実施形態による画像符号化装置100bの構成を示す概略ブロック図である。 同実施形態に係る予測ベクトル生成部110aの構成を示す概略ブロック図である。 同実施形態に係る画像復号装置300bの構成を示す概略ブロック図である。 同実施形態に係る予測ベクトル生成部306aの構成を示す概略ブロック図である。
[第1の実施形態]
以下、図面を参照して、本発明の第1の実施形態について説明する。図1は、この発明の第1の実施形態による画像伝送システム10の構成を示す概略ブロック図である。画像伝送システム10は、複数の視点画像とデプスマップとを符号化して伝送し、伝送先において、これらを用いた自由視点画像の表示を可能とするシステムである。図1に示すように、画像伝送システム10は、画像符号化装置100、ネットワーク200、画像復号装置300、自由視点画像表示装置400を含んで構成される。
画像符号化装置100は、複数の視点画像(テクスチャ画像ともいう)T各々を符号化し、視点画像T各々の符号化ストリームTeを生成する。さらに、画像符号化装置100は、符号化した視点画像T各々に対応するデプスマップDを符号化し、デプスマップ各々のデプスマップ符号化ストリームDeを生成する。ネットワーク200は、これらの符号化ストリームTeとデプスマップ符号化ストリームDeとを、画像復号装置300に伝送する、IP(Internet Protocol)ネットワーク、ケーブルテレビ網などのネットワークである。なお、符号化ストリームTeとデプスマップ符号化ストリームDeとは、本実施形態のようにネットワークにより伝送されてもよいが、地上デジタル放送、衛星放送などの放送波により伝送されてもよいし、DVD(Digital Versatile Disc)、ブルーレイ(Blu-ray(登録商標))などの記録媒体により伝送されてもよい。
画像復号装置300は、ネットワーク200が伝送した符号化ストリームTeとデプスマップ符号化ストリームDeとを復号し、復号視点画像Tdと復号デプスマップDdとを生成する。自由視点画像表示装置400は、画像復号装置300が生成した復号視点画像Tdおよび復号デプスマップDdを用いて、任意の視点からの画像を生成する。自由視点画像表示装置400は、液晶ディスプレイや、有機EL(electroluminescence)ディスプレイなどの表示デバイスを備え、生成した任意の視点からの画像を、該表示デバイスを用いて表示する。なお、この任意の視点からの画像は、2次元画像であってもよいし、立体画像であってもよい。
図2は、画像符号化装置100の構成を示す概略ブロック図である。図2に示すように、画像符号化装置100は、減算部101、DCT(Discrete Cosine Transform)変換・量子化部102、エントロピー符号化部103、逆量子化・逆DCT変換部104、加算部105、参照画像メモリ106、予測部107、減算部108、ベクトルメモリ109、予測ベクトル生成部110(予測ベクトル生成装置)、デプスマップ符号化部121、デプスマップメモリ122を含んで構成される。
減算部101は、入力された視点画像Tから、予測部107が生成した予測画像Pを減算し、減算結果を示す残差信号を生成する。ここで、減算とは、視点画像Tの画素の画素値から、予測画像Pの対応する画素の画素値を減ずることである。DCT変換・量子化部102は、減算部101が生成した残差信号をDCT変換して、DCT係数を算出する。DCT変換・量子化部102は、算出したDCT係数を量子化して、量子化係数を算出する。エントロピー符号化部103は、DCT変換・量子化部102が算出した量子化係数と、減算部108が算出した差分ベクトルΔvと、予測ベクトル生成部110が選択したインデックスidxと、予測部107が選択した予測モードとをエントロピー符号化して、符号化ストリームTeを生成する。
逆量子化・逆DCT変換部104は、DCT変換・量子化部102が算出した量子化係数を逆量子化する。さらに、逆量子化・逆DCT変換部104は、逆量子化した結果を逆DCT変換して、復号残差信号を生成する。加算部105は、逆量子化・逆DCT変換部104が生成した復号残差信号と、予測部107が生成した予測画像Pとを加算して、復号画像を生成する。参照画像メモリ106は、加算部105が生成した復号画像を、参照画像として記憶する。
予測部107は、視点画像Tの各フレームを分割したブロック毎に、参照画像メモリ106が記憶する参照画像を用いて、予測画像Pを生成する。予測部107は、複数の予測方式の中から1つを選択し、該選択した予測方式を用いて、予測画像Pを生成する。予測方式の選択方法としては、例えば、予測画像Pと視点画像Tとの差分が最も小さくなる予測方式を選択する方法があるが、これに限らず、その他の方法であってもよい。また、予測部107は、上述のブロック各々のブロックサイズを示すブロック情報Ibを、予測ベクトル生成部110に通知する。
視点画像Tが基準視点画像(ベースビュー(Base View)ともいう)のときは、上述の選択対象の複数の予測方式は、イントラ予測および動き予測である。また、視点画像Tが非基準視点画像(ノンベースビュー(Non-base View)ともいう)のときは、上述の選択対象の複数の予測方式は、イントラ予測、動き予測および視差予測である。
なお、イントラ予測は、予測画像Pを生成する際の参照画像として、対象ブロックが属するフレームを用いる予測方式である。予測部107は、イントラ予測を選択したときは、予測画像Pを生成する際に用いた予測モードをエントロピー符号化部103に通知する。
動き予測(動き補償ともいう)は、予測画像Pを生成する際の参照画像として、対象ブロックが属する視点画像Tのうち、対象ブロックが属するフレームとは異なるフレームを用いる予測方式である。予測部107は、動き予測を選択したときは、予測画像Pを生成する際に用いた動きベクトルMvを、ベクトルメモリ109と減算部108とに通知する。なお、動きベクトルMvは、対象ブロックの座標から、予測画像Pとしたブロックの参照画像における座標までのベクトルを表す情報と、参照画像としたフレームを示す情報(例えば、ref_index(参照ピクチャ番号)、やPOC;Picture Order Count(ピクチャの表示順序))とを含む。
視差予測(視差補償ともいう)は、予測画像Pを生成する際の参照画像として、対象ブロックが属する視点画像Tとは異なる視点画像Tのフレームのうち、対象ブロックが属するフレームと表示順序が同じ(同じPOCを持つ)フレームを用いる予測方式である。予測部107は、視差予測を選択したときは、予測画像Pを生成する際に用いた視差ベクトルDvを、ベクトルメモリ109と減算部108とに通知する。なお、視差ベクトルDvは、対象ブロックの座標から、予測画像Pとしたブロックの参照画像における座標までのベクトルを表す情報と、参照画像としたフレームを示す情報(例えば、ref_index(参照ピクチャ番号)、やview_id(ビュー識別子))とを含む。
また、基準視点画像は、符号化する際に、視差予測を用いることができない視点画像Tであり、非基準視点画像は、符号化する際に、視差予測を用いることができる視点画像Tである。例えば、画像符号化装置100は、複数の視点画像Tのうち、最初に画像符号化装置100に入力される視点画像Tを、基準視点画像とし、その他の視点画像Tを、非基準視点画像とする。本実施形態では、複数の視点画像Tに含まれる基準視点画像は1つのみであり、非基準視点画像の視差予測をする際は、その基準視点画像および既に符号化済みの非基準視点画像を参照画像とする。
減算部108は、予測部107から通知された動きベクトルMvまたは視差ベクトルDvから、予測ベクトル生成部110が生成した予測ベクトルPvを減算し、減算結果である差分ベクトルΔvをエントロピー符号化部103に通知する。減算部108は、該動きベクトルMvまたは視差ベクトルDvに含まれていた参照画像としたフレームを示す情報を、差分ベクトルΔvに含める。ベクトルメモリ109は、予測部107から通知された動きベクトルMvと視差ベクトルDvとを記憶する。
予測ベクトル生成部110は、予測部107が動き予測を選択して予測画像を生成したブロックに対しては、動きベクトルの予測ベクトルPvを生成する。予測ベクトル生成部110は、複数の候補ベクトルの中から選択したものを予測ベクトルPvとするが、この選択した候補ベクトルを示すインデックスidxをエントロピー符号化部103に通知する。なお、動きベクトルの予測ベクトルPvの生成には、公知の生成方法を用いることができる。
また、予測ベクトル生成部110は、予測部107が視差予測を選択して予測画像を生成したブロックに対しては、視差ベクトルの予測ベクトルPvを生成する。予測ベクトル生成部110は、複数の候補ベクトルの中から選択したものを予測ベクトルPvとするが、この選択した候補ベクトルを示すインデックスidxをエントロピー符号化部103に通知する。なお、視差ベクトルの予測ベクトルPvの生成方法およびインデックスidxの詳細については後述する。
デプスマップ符号化部121は、視点画像Tの各フレームに対応するデプスマップDを符号化して、デプスマップ符号化ストリームDeを生成する。なお、デプスマップ符号化部121は、デプスマップ符号化ストリームDeを生成する際に、デプスマップ符号化ストリームDeを復号した復号デプスマップDdも生成する。デプスマップメモリ122は、デプスマップ符号化部121が生成した復号デプスマップDdを記憶する。
なお、デプスマップDおよび復号デプスマップDdは、視点画像と同じサイズ(画素数)でもよいし、視点画像のサイズから1/2、1/4、1/8等に縮小したサイズであってもよい。
図3は、予測ベクトル生成部110の構成を示す概略ブロック図である。図3に示すように、予測ベクトル生成部110は、第1候補ベクトル生成部111、第2候補ベクトル生成部114、予測ベクトル決定部115、動きベクトル予測部116、スイッチ部117を含んで構成される。第1候補ベクトル生成部111は、変換画素決定部112、視差ベクトル変換部113を含んで構成される。
変換画素決定部112は、予測部107から得られるブロック情報Ibに基づいて、対象ブロックに対応する、復号デプスマップDdにおけるブロック(以降、デプスブロックという)中の画素位置の決定規則を選択し、該選択した決定規則に従って決定した画素位置を視差ベクトル変換部113に入力する。ここで、ブロック情報Ibは、ブロックのサイズ(幅、高さ)、ブロックの左上座標を含む。ブロックサイズは、予測ブロック(PU、prediction unit)のサイズである。
デプスマップが視点画像のDN分の1(DN=2^dn倍)に縮小されている場合には、ブロックの左上座標(x, y)、ブロックのサイズをnPW、nPHとする場合、デプスブロックの座標(x0, y0)とサイズwおよびhは、以下の式により導出できる。
x0 = x >> dn
y0 = x >> dn
w = nPW>>dn
h = nPH>>dn ここで>>は右シフトを示す。
<ブロックサイズにより異なる選択規則を用いる構成例>
変換画素決定部112は、予測部107から得られるブロック情報Ibに基づいて、対象ブロックに対応する、復号デプスマップDdにおけるブロック(以降、デプスブロックという)中の画素位置の決定規則を選択し、該選択した決定規則に従って決定した画素位置を視差ベクトル変換部113に入力する。より、具体的には、ブロック情報Ibが示すブロックサイズが大きいほど、デプスブロックの画素数に対する、決定される画素位置の数の比が小さくなるように、決定規則を選択する。視差ベクトル変換部113は、後述するように、変換画素決定部112が決定した画素位置のデプス値を、復号デプスマップDdから視差ベクトルに変換する際のデプス値とする。
変換画素決定部112の一構成例としては、変換画素決定部112は、ブロック情報Ibが示すブロックサイズが、予め設定されたブロックサイズ(画素数)の閾値よりも大きいか否かにより、決定規則を選択する。大きいときの決定規則は、縦方向および横方向ともに、デプスブロックにおいて偶数番目であることであり、大きくないときの決定規則は、デプスブロック中の全ての画素位置(もしくは1点)とすることである。なお、ここでは、デプスブロックの左上端の画素位置を、縦方向および横方向ともに、0番目としている。
デプスマップの解像度が、縦横ともに、視点画像の4分の1である場合の例を説明する。例えば、予測の対象ブロックのサイズが32画素×32画素であって、それに対応するデプスマップ内のブロックDblk(以下、デプスブロックと記す)が図4(a)のような8画素×8画素のサイズであるとする。この時、ブロック情報Ibが示すブロックサイズ(32×32)を参照すると、これは、予め設定されたブロックサイズの閾値(例えば16×16)より大きい。したがって、変換画素決定部112は、図4(a)に示す全デプス値ではなく、縦方向および横方向ともに偶数番目の位置、すなわち図4(b)において黒丸で示した画素p1の位置を、視差ベクトルへの変換対象の画素位置として決定する。逆に、予め設定されたブロックサイズの閾値以下の場合には、所定の1点を、視差ベクトルへの変換対象の画素位置として決定する。ここで所定の1点は、左上座標とする。変換画素決定部112は、この決定した画素位置を視差ベクトル変換部113へ通知する。
視差ベクトル変換部113は、変換画素決定部112から入力された画素位置のデプス値の平均値Daveを算出し、平均値Daveを視差ベクトルに変換する。視差ベクトル変換部113は、変換した視差ベクトルを、予測ベクトル決定部115に入力する。変換画素決定部112が、上述の一例のような構成の場合、対象ブロックのブロックサイズが閾値よりも大きいときには、変換画素決定部112は画素p1の画素位置のみを、視差ベクトル変換部113に入力する。このため、視差ベクトル変換部113は、入力されない画素位置の画素である画素p0のデプス値を視差ベクトル変換に使用しない。これにより、視差ベクトル変換における演算処理量を削減することができる。
なお、視差ベクトル変換部113は、デプス値の平均値Daveを視差ベクトルに変換するとして説明したが、中央値、最頻値、最小値、最大値などを視差ベクトルに変換するようにしてもよい。特に、中央値など、算出する際の演算処理量のオーダが、データ数をnとしたときにO(n)よりも大きいとき(例えば、O(n)やO(nlogn))には、上述のようにして、ブロックサイズが大きいときに画素位置を限定することによる演算処理量の削減効果が大きい。
なお、図4(b)は、ブロック内の水平方向,垂直方向それぞれ1/2の画素数を利用し、それぞれ偶数画素位置のみを対象とするように決定する例であるが、変換画素決定部112における決定規則はこれに限らない。例えば、図4(c)のように、水平方向,垂直方向それぞれの奇数画素位置のみを対象とする決定規則、図4(d)のように、画素行ごとに交互に偶数位置、奇数位置を選択して使用する決定規則、図4(e)のように、ブロック内の最上行と最下行の画素のみを対象とする決定規則、図4(f)のように、ブロック内の四隅の画素のみを対象とする決定規則でもよい。また、図4(b)〜(d)は、水平方向,垂直方向それぞれ元のデプスブロックの1/2の画素数を対象とする例であるが、これに限らず、1/4,1/8等の画素数を対象としてもよい。その際に、水平方向と垂直方向で互いに異なる画素数になるように対象画素を選択してもよい。
図4(f)の方法のように、変換画素決定部112が、ブロック内の固定のN点(N=2^n、ここではn=2)を用いて対象画素を選択する場合には、変換画素決定部112はブロックサイズによらず固定的な処理で対象画素の選択が可能である。この場合、ブロックサイズに依存して決定するような、ループ処理が不要であるため、ループ変数の初期化、ループ終端の判定、ループ変数の更新のような処理が不要であり処理量の削減が可能である。特にブロックサイズが小さい場合には、対象とする点の数に比較してループのオーバーヘッドが大きい。ブロックサイズが小さい場合、処理すべきブロック数が多いため、レイテンシの低下が非常に重要である。また、ブロックサイズが所定のサイズ以下の場合に固定の1点を用いる方法も処理量低下の効果を得ることができる。なお、ループの削減はループに伴う実装を不要とするため実装も容易となる。
具体的に、ブロック内の固定のN点(N=2^n、ここではn=2)を用いて対象画素を選択し、視差ベクトル変換部113が、選択した画素のデプス値から最大値Dmaxを算出する例を示す。
Dmax = depth [x0][y0]
if (Dmax > depth [x0+w-1][y0] + depth) Dmax = depth [x0+w-1][y0]
if (Dmax > depth [x0][y0+h-1] + depth) Dmax = depth [x0+w-1][y0+h-1]
if (Dmax > depth [x0+w-1][y0+h-1] + depth) Dmax = depth [x0+w-1][y0+h-1]
この場合、最大値の決定に用いる分岐数が固定となるため、上述したループ不要の効果だけでなく、実装を容易にすることができる。
<ブロックサイズに依存しない選択規則を用いる構成例>
また、以上の例では、変換画素決定部112において、ブロック情報Ibに基づいて対象画素を決定することとしたが、ブロック情報Ibに依存せずに、デプスブロックから視差ベクトルに変換する際の対象画素を前述のように決定してもよい。すなわち、対象ブロックのサイズにかかわらず、常にデプスブロックの水平方向,垂直方向各1/2の画素数を選択して視差ベクトルに変換するようにしてもよい。
その際、水平方向,垂直方向それぞれの偶数画素位置を選択するか奇数画素位置を選択するか、画素数を1/2ではなく、1/4や1/8等にするか、等を適宜組み合わせて決定してもよいし、あるいはデプスブロックの四隅の画素のみを対象とするように決定してもよい。その際、デプスブロックのもともとのサイズが1画素×2画素や2画素×2画素など、選択しようとする画素数未満であるような場合、すなわち1/2や1/4や1/8等の画素数を選択しようとすると1画素未満になってしまうような場合には、デプスブロックの特定の位置(例えば、左上位置)の画素を対象として選択する。
変換画素決定部112の一つの構成例では、全てのブロックサイズにおいて、上述の図4(b)のように、ブロック内の水平方向,垂直方向それぞれ1/2の画素数を利用する。図5は、ブロックが32x32、16x16、8x8、8x4、4x8の場合を示す。このとき、対応するデプスブロックは、各々、8x8、4x4、2x2、2x1、1x2になる。各々のデプスブロックにおいて縦横1/2のサブサンプリングにより選択画素を決定する。
変換画素決定部112が、サンプリング間隔stで選択し、視差ベクトル変換部113が、選択した画素のデプス値から平均値Daveを算出する場合、平均値の導出は一般に、以下の式で算出される。
sum = 0;
shift = log2(w*h)
for (j = y0; j < y0 + w; j+=st) {
for (i = x0; i < x0 + w; i+=st) {
sum += depth[i][j]
}
}
Dave=sum >> shift
ここで、depth[x][y]は座標(x,y)でのデプス値、x0, y0はブロックの左上座標、wはブロックの幅、hはブロックの高さである。デプスブロック内の全画素を用いる場合にはst=1であり、st > 1では、デプスブロック内の画素がサンプリングされる。log2は2を底とする対数である。
変換画素決定部112の別の構成例では、全てのブロックサイズにおいて、上述の図4(f)のように、ブロック内の4隅の画素を利用する。図6は、デプスマップが視差画像の縦横それぞれ4分の1のサイズである場合に4隅を用いる場合である。図6に示すように、変換画素決定部112はp1a、p1b、p1c、p1dの4点を参照する。ブロックサイズが小さくなる場合、4隅の点の幾つかが同じ点を示すことがある。すなわち、8x4の場合、p1a=p1c、p1b=p1dであり、4x8の場合、p1a=p1b、p1c=p1dである。この場合、変換画素決定部112はブロックサイズにかかわらず4点を選択する構成でも良いし、同じ座標となる点を除くようにしてブロックサイズに応じて4点、2点、1点などを選択する構成でも良い。なお、視差ベクトル変換部113が、選択した画素のデプス値から平均値もしくは最大値から算出する場合、4点を用いて計算しても、2点で計算しても結果は同じとなる。 本構成では、ブロックサイズに依存せずに固定の4点を用いるため、ループ処理に関わる処理を省略することができ、処理速度と実装容易性を向上させることができる。
また、図4(e)〜(f)のように、ブロックサイズが大きいほど、デプスブロックの画素数に対する、決定される画素位置の数の比が小さくなる決定規則であれば、ブロック情報Ibに依存しなくても、対象ブロックのブロックサイズが大きいときの視差ベクトル変換における演算処理量を削減することができる。
<ブロックサイズに依存する別の決定規則を用いる構成例>
変換画素決定部112の用いる決定規則としては、上記とは別の決定規則を用いることもできる。より、具体的には、ブロック情報Ibが示すブロックサイズが所定のサイズより以上である場合には、所定のサンプリング規則を決定規則とし、所定のサイズ未満である場合に、決定される画素位置の数が1となるように、決定規則を選択する。この場合、ブロックサイズが所定のサイズ以下の場合は、1点のみを用いるため、ブロックサイズが大きい場合と同様に、特に小レイテンシを必要とされるブロックサイズが小さい場合の処理量も削減することができる。
変換画素決定部112の一つの構成例を図5を再度参照して説明する。図5から分かるように、1/2サブサンプリングにおいて、ブロックサイズが所定のサイズ以下の場合、ここでは8x8、8x4、4x8の場合には、1点のみを用いる構成となる、この構成は、ブロックサイズによる分岐を行う方法で実現することもできる。明示的に分岐を行う構成では、例えば、ブロックサイズの幅と高さの最大値が8以下の場合に1点を用い、それ以外の場合には、ループによるサブサンプリングを行う。ブロックサイズによる分岐を行うと、ループ処理を省くことができるため、処理速度を向上させることができる。
変換画素決定部112の別の構成例では、全てのブロックサイズにおいて、上述の図4(f)のように、ブロック内の4隅の画素を利用する。図7は、所定のブロックサイズ以上の場合に4隅を用い、それ以外の場合に1点を用いる構成の例である。すなわち、ブロックサイズの幅と高さの最大値が8以下の場合に1点を用い、それ以外の場合には、4隅を用いる。
この場合には、ブロックサイズによらず固定的な点を用いるため、ループ処理を省くことができる。また、小サイズのブロックにおける点数を1点とするため、小サイズにおける処理速度をさらに向上させることができる。
第2候補ベクトル生成部114は、対象ブロックの隣接ブロックが有する視差ベクトルDvを、ベクトルメモリ109から読み出す。第2候補ベクトル生成部114は、読み出した視差ベクトルDvを、第2候補ベクトルとして、予測ベクトル決定部115に通知する。本実施形態では、左側に隣接するブロックのうち一つと、上側に隣接するブロックのうち一つに関して視差ベクトルを読み出し、最大2つの第2候補ベクトルを生成する。隣接ブロックに視差ベクトルがなかった場合は、その隣接ブロックに関する候補ベクトルは生成しない。対象ブロックと隣接ブロックの関係を図8(a)に示す。対象ブロックPUに対して、視差ベクトルを読み出す隣接ブロックは、図中のブロックNBa0、NBa1、NBb0、NBb1、NBb2である。このうち、対象ブロックの左側に隣接するブロックNBa0、NBa1の順で各ブロックの視差ベクトルを参照し、1つの候補ベクトルとする。同様に、対象ブロックの上側に隣接するブロックNBb0、NBb1、NBb2の順で各ブロックの視差ベクトルを参照し、1つの候補ベクトルとする。なお、本実施形態では、第2候補ベクトルの数は最大2つとしたが、その他の数であってもよい。
予測ベクトル決定部115は、第1候補ベクトルと、第2候補ベクトルとの中から、対象ブロックの視差ベクトルとの差分が少ないものを選択し、予測ベクトルPvとする。予測ベクトル決定部115は、第1候補ベクトルと第2候補ベクトルとのうち、いずれのベクトルを予測ベクトルとしたかを示すインデックスidxを生成する。なお、第1候補ベクトル生成部111、第2候補ベクトル生成部114、予測ベクトル決定部115は、対象ブロックの予測画像が視差予測により生成されたときのみ動作する。
動きベクトル予測部116は、動きベクトルの予測ベクトルと、インデックスidxを生成する。動きベクトル予測部116による予測ベクトルの生成方法は、公知の方法を用いることができる。一例としては、動きベクトル予測部116は、対象ブロックに隣接する複数のブロックの動きベクトルをベクトルメモリ109から読み出し、読み出した動きベクトルを隣接ブロックの位置に応じて、順番に候補ベクトルとする。
動きベクトル予測部116は、複数の候補ベクトルの中から、対象ブロックの動きベクトルとの差分が少ないベクトルを選択し、予測ベクトルPvとする。動きベクトル予測部116は、複数の候補のうち、いずれのベクトルを予測ベクトルとしたかを示すインデックスidxを生成する。なお、動きベクトル予測部116は、対象ブロックの予測画像が動き予測により生成されたときのみ動作する。
スイッチ部117は、予測ベクトルPvとインデックスidxとが、予測ベクトル決定部115あるいは動きベクトル予測部116から入力されると、入力された予測ベクトルPvとインデックスidxとを、エントロピー符号化部103に通知する。
次に、符号化装置の別の構成例について説明する。図9は、本実施形態における別の画像符号化装置100aの構成を示す概略ブロック図である。画像符号化装置100との違いは、デプスマップ符号化部121、デプスマップメモリ122の代わりに、デプスマップ生成部123を備えることである。
デプスマップ生成部123は、ベクトルメモリ109から視差ベクトルを読み出し、擬似的なデプスマップを生成する。デプスマップを構成するデプス値は、前述したようなデプスマップから視差ベクトルへ変換する処理の逆変換を行うことによって生成する。生成するデプスマップのサイズ(画素数)は、得られる視差ベクトルの数に従って決定されるが、不足する画素は、隣接する画素からコピーするか、近傍の複数の画素を用いて補間することにより、視点画像のサイズと同一にしてもよい。あるいは、視点画像のサイズの1/2、1/4、1/8等のサイズのデプスマップを生成してもよい。また、対象ブロックのデプス値についても、デプスマップ生成部123は、隣接する画素からコピーするか、近傍の複数の画素を用いて補間することで生成する。
なお、画像符号化装置100aに含まれるその他の各部は、画像符号化装置100と同一である。この構成により、デプスマップが外部から与えられない場合においても、擬似的なデプスマップを生成することにより、画像符号化装置100と同様に予測ベクトル生成部110を用いて視差予測ベクトルを生成することができる。
図10は、画像復号装置300の構成を示す概略ブロック図である。図10に示すように、画像復号装置300は、エントロピー復号部301、逆量子化・逆DCT変換部302、加算部303、加算部304、ベクトルメモリ305、予測ベクトル生成部306(予測ベクトル生成装置)、予測部307、参照画像メモリ308、デプスマップ復号部309、デプスマップメモリ310を含んで構成される。
エントロピー復号部301は、図2のエントロピー符号化部103における符号化方式に対応する復号処理を、符号化ストリームTeに対して行う。エントロピー復号部301は、この復号処理の結果から、インデックスidx、差分ベクトルΔv、量子化係数、予測モードを分離する。逆量子化・逆DCT変換部302は、図2の逆量子化・逆DCT変換部104と同様の処理を、エントロピー復号部301が分離した量子化係数に対して行い、復号残差信号を生成する。加算部303は、逆量子化・逆DCT変換部302が生成した復号残差信号と、予測部307が生成した予測画像Pとを加算し、復号視点画像Tdを生成する。
加算部304は、エントロピー復号部301が分離した差分ベクトルΔvと、予測ベクトル生成部306が生成した予測ベクトルPvとを加算し、動きベクトルMvまたは視差ベクトルDvを生成する。加算部304は、生成した動きベクトルMvと視差ベクトルDvとを、ベクトルメモリ305に記憶させる。ベクトルメモリ305は、動きベクトルMvと視差ベクトルDvとを記憶する。
予測ベクトル生成部306は、エントロピー復号部301が分離したインデックスidxと、ベクトルメモリ305が記憶するベクトルと、デプスマップメモリ310が記憶する復号デプスマップDdとを参照して、予測ベクトルPvを生成する。なお、予測ベクトル生成部306の詳細については、後述する。
予測部307は、視点画像Tを分割したブロック各々の予測画像Pを生成する。予測部307は、各ブロックの予測画像Pを、図2の予測部107で用いたものと同じ予測方式を用いて生成する。なお、予測画像Pを生成する際の参照画像は、参照画像メモリ308から取得する。また、予測部307は、各ブロックのブロックサイズを示すブロック情報Ibを、予測ベクトル生成部306に入力する。予測部107でイントラ予測により予測画像Pが生成されたブロックについては、予測部307は、エントロピー復号部301が分離した予測モードに従ったイントラ予測を行い、予測画像Pを生成する。
また、予測部107で動き予測により予測画像Pが生成されたブロックについては、予測部307は、ベクトルメモリ305が記憶している当該ブロックの動きベクトルMvを用いた動き予測を行い、予測画像Pを生成する。また、予測部107で視差予測により予測画像Pが生成されたブロックについては、予測部307は、ベクトルメモリ305が記憶している当該ブロックの視差ベクトルDvを用いた視差予測を行い、予測画像Pを生成する。
参照画像メモリ308は、加算部303が生成した復号視点画像Tdを参照画像として記憶する。デプスマップ復号部309は、図2のデプスマップ符号化部121における符号化方式に対応する復号処理を、デプスマップ符号化ストリームDeに対して行い、復号デプスマップDdを生成する。デプスマップメモリ310は、デプスマップ復号部309が生成した復号デプスマップDdを記憶する。
図11は、予測ベクトル生成部306の構成を示す概略ブロック図である。図11に示すように、予測ベクトル生成部306は、第1候補ベクトル生成部111、第2候補ベクトル生成部114、予測ベクトル選択部361、動きベクトル予測部362、スイッチ部363を含んで構成される。同図において図3に示した予測ベクトル生成部110の各部に対応する部分には同一の符号(111〜114)を付け、その説明を省略する。
予測ベクトル選択部361は、第1候補ベクトル生成部111が生成した候補ベクトルと、第2候補ベクトル生成部114が生成した候補ベクトルとの中から、インデックスidxが示すベクトルを選択する。動きベクトル予測部362は、図3の動きベクトル予測部116と同様に候補ベクトルを生成し、これらの中からインデックスidxが示すベクトルを選択する。スイッチ部363は、予測方式が視差予測のブロックが対象のときは、予測ベクトル選択部361が選択したベクトルを予測ベクトルPvとして出力する。また、スイッチ部363は、予測方式が動き予測のブロックが対象のときは、動きベクトル予測部362が選択したベクトルを予測ベクトルPvとして出力する。
(復号装置の別の構成)
次に、復号装置の別の構成例について説明する。図12は、本実施形態における別の画像復号装置300aの構成を示す概略ブロック図である。画像復号装置300との違いは、デプスマップ復号部309、デプスマップメモリ310の代わりに、デプスマップ生成部311を備えることである。
デプスマップ生成部311は、画像符号化装置100aにおけるデプスマップ生成部123と同様に、ベクトルメモリ305から視差ベクトルを読み出し、擬似的なデプスマップを生成する。デプスマップを構成するデプス値は、前述したようなデプスマップから視差ベクトルへ変換する処理の逆変換を行うことによって生成する。生成するデプスマップのサイズ(画素数)は、得られる視差ベクトルの数に従って決定されるが、不足する画素は、隣接する画素からコピーするか、近傍の複数の画素を用いて補間することにより、視点画像のサイズと同一にしてもよい。あるいは、視点画像のサイズの1/2、1/4、1/8等のサイズのデプスマップを生成してもよい。また、対象ブロックのデプス値についても、デプスマップ生成部311は、隣接する画素からコピーするか、近傍の複数の画素を用いて補間することで生成する。
なお、画像復号装置300aに含まれるその他の各部は、画像復号装置300と同一である。この構成により、デプスマップが外部から与えられない場合においても、擬似的なデプスマップを生成することにより、画像復号装置300と同様に予測ベクトル生成部306を用いて視差予測ベクトルを生成することができる。
このように、本実施形態では、デプスマップ内の一部の画素を利用して視差ベクトルを生成することにより、符号化/復号処理における演算量の増加を抑えながら、効率よく視差予測ベクトルを生成することができる。
[第2の実施形態]
以下、図面を参照して、本発明の第2の実施形態について説明する。第1の実施形態では、視差ベクトルの予測ベクトルを生成する際に、装置外部から入力されたデプスマップもしくは視点画像から生成したデプスマップを利用して、視差ベクトルの予測ベクトルを生成していた。第2の実施形態では、デプスマップを必要とせず、対象ブロックに空間的時間的に隣接するブロックの情報を利用して視差ベクトルの予測ベクトルを生成する。
本実施形態における画像伝送システム10aは、画像符号化装置100に変えて画像符号化装置100aを有し、画像復号装置300に変えて画像復号装置300aを有する。図13は、画像符号化装置100bの構成を示す概略ブロック図である。同図において、図2に示した画像符号化装置100の各部に対応する部分には同一の符号(101〜109、111、112)を付し、説明を省略する。図13に示すように、画像符号化装置100bは、減算部101、DCT変換・量子化部102、エントロピー符号化部103、逆量子化・逆DCT変換部104、加算部105、参照画像メモリ106、予測部107、減算部108、ベクトルメモリ109、予測ベクトル生成部110aを含んで構成される。
図14は、予測ベクトル生成部110aの構成を示す概略ブロック図である。図14に示すように、予測ベクトル生成部110aは、第1候補ベクトル生成部111a、第2候補ベクトル生成部114、予測ベクトル決定部115、動きベクトル予測部116、スイッチ部117を含んで構成される。第1候補ベクトル生成部111aは、動きベクトル取得部118、視差ベクトル取得部119を含んで構成される。以下、同図において、図3で同一の符号(114〜117)を付した各部に関しては、説明を省略する。
動きベクトル取得部118は、対象ブロックに対応する別視点のブロックの動きベクトルMvを取得する。図8(b)に、対象ブロックに対応するブロックを示す。動きベクトル取得部118は、対象ブロックを含む視点画像とは別視点の画像(対象ブロックを含むピクチャと時間的に同じ表示順の参照ピクチャ)に含まれるブロックであって、対象ブロックと同位置にあるブロックCLPUと、CLPUを含む符号化単位ブロックCLCUと、CLPUの右下に隣接する隣接ブロックBBに関して、それぞれ動きベクトルの利用可能性をチェックし、利用可能な場合に動きベクトルを取得する。上記の順に動きベクトルを取得し、取得できた時点(参照可能な動きベクトルがあった最初のブロック)でベクトルの取得を終了する。
なお、ここで符号化単位ブロックとは、HEVC(High Efficiency Video Coding)におけるLCU(Largest Coding Unit)などのように、各フレームを均等のサイズに分割したブロックである。予測画像を生成するブロックは、この符号化単位ブロックと同じか、符号化単位ブロックをさらに分割したブロックである。また、符号化単位ブロックCLCUに関する動きベクトルとは、符号化単位ブロックCLCUを分割した各ブロック(予測画像を生成するブロック)のいずれかの動きベクトルである。すなわち、符号化単位ブロックCLCUを分割した各ブロックのうち、いずれかが動きベクトルを有していれば、符号化単位ブロックCLCUに関する動きベクトルとして取得される。
また、一般的には、隣接ブロックBBも、符号化単位ブロックCLCU内のブロックであり、その場合は、隣接ブロックBBが動きベクトルを有していれば、符号化単位ブロックCLCUに関する動きベクトルとして取得される。しかし、図8(b)に示した場合のように、ブロックCLPUが、符号化単位ブロックCLCUの右端または下端にあるときは、隣接ブロックBBは、符号化単位ブロックCLCU外に位置するため、符号化単位ブロックCLCUに関する動きベクトルが取得されなくても、隣接ブロックBBの動きベクトルが取得されることはある。
なお、動きベクトル取得部118および視差ベクトル取得部119において、あるブロックX(Xは上記ブロックの一つ)の動きベクトルおよび視差ベクトルは次のように参照される。ブロックXの予測モードpredModeもしくはブロックXの2つの予測フラグpredFlagL0、predFlagL1を参照し、ブロックXがインター予測されているか否かをチェックする。予測モードpredModeがMODE_INTRAであればイントラ予測、それ以外であればインター予測である。
予測フラグpredFlagL0、predFlagL1は、各参照リストL0、参照リストL1に属する参照ピクチャが予測画像生成に用いられるか否かを示す。予測フラグpredFlagL0、predFlagL1がともに1であればインター予測の双予測、いずれか一方のみが1であればインター予測の単予測、ともに0であればイントラ予測である。ブロックXがインター予測されていない場合には、ブロックXの動きベクトルおよび視差ベクトルは利用可能ではない。参照リストLXの予測フラグpredFlagLXが1の場合には、予測画像生成に用いる参照ピクチャが、参照ピクチャインデックスrefIdxLXにより指定される。ブロックXがインター予測である場合には、次に、対象ブロックの参照ピクチャインデックスrefIdxLXが示す参照ピクチャの時間順序(POC)と、ブロックXの参照ピクチャインデックスrefIdxLXが示す参照ピクチャの時間順序(POC)を比較する(X=0もしくは1)。具体的には、以下の2つを比較する。
PicOrderCnt( RefPicList0[ refIdxL0 ])
PicOrderCnt( RefPicList0[ refIdxL0 of blockX ] )
ここで、RefPicListXは参照ピクチャインデックスredIdxLXから参照ピクチャを参照するための配列、PicOrderCnt(x)は引数xで指定された参照ピクチャの表示順序を求める関数である。なお、対象ブロックのL0リスト用の参照ピクチャインデックスrefIdxL0に対しては、ブロックXのL0リスト用の参照ピクチャインデックスrefIdxL0と参照リストL0用のベクトルを参照するが、ブロックXの参照リストL1用の参照ピクチャインデックスref_L1idxと参照リストL0用のベクトルを参照しても良い。対象ブロックの参照リストL1用の参照ピクチャインデックスrefIdxL1も同様である。
上記、時間順序が異なる場合には、ベクトルメモリで保持されているブロックXのベクトルは、動きベクトルであり、動きベクトルが利用可能であり、動きベクトルmvLXが導出される。
逆に、上記、時間順序が等しい場合には、ベクトルメモリで保持されているブロックXのベクトルは、視差ベクトルであり、視差ベクトルが利用可能であり、視差ベクトルmvLXが導出される。
視差ベクトル取得部119は、対象ブロックに隣接するブロックの視差ベクトルDvを取得する。視差ベクトル取得部119は図示しない隣接視差ベクトル導出部、時間視差ベクトル導出部、固定視差ベクトル導出部を備える。視差ベクトル取得部119は、後述するように隣接視差ベクトル、時間的視差ベクトルの順で視差ベクトルを取得し、いずれかの視差ベクトルが得られた時点で、その視差ベクトルを第1候補ベクトルとして出力する。いずれの視差ベクトルも得られなかった場合には、第1候補ベクトルとしてゼロベクトルを出力する。
図8(a)に、対象ブロックとその隣接ブロックの関係を示す。対象ブロックPUに対して、視差ベクトルを読み出す隣接ブロックは、図中のブロックNBa0、NBa1、NBb0、NBb1、NBb2である。
視差ベクトル取得部119は、隣接視差ベクトル取得部において、対象ブロックの左側に隣接するブロックNBa0、NBa1の順で各ブロックの視差ベクトルの利用可能性を参照し、利用可能な視差ベクトルがある場合には、最初に参照したブロックの視差ベクトルを第1候補ベクトルとする。左に隣接するブロックのいずれにも利用可能な視差ベクトルがない場合には、隣接視差ベクトル取得部は、さらに、対象ブロックの上側に隣接するブロックNBb0、NBb1、NBb2の順で各ブロックの視差ベクトルの利用可能性を参照し、利用可能な視差ベクトルがある場合には、最初に参照したブロックの視差ベクトルを第1候補ベクトルとする。
隣接するブロックの視差ベクトルがない場合、視差ベクトル取得部119の備える時間視差ベクトル取得部は、前記動きベクトル取得部118が取得した動きベクトルが指し示す先の、時間的に別の表示順の参照ピクチャに含まれるブロックの視差ベクトルを取得する。
隣接視差ベクトル取得部、時間視差ベクトル取得部において視差ベクトルが取得できない場合、視差ベクトル取得部119は、固定視差ベクトル取得部において、第1候補ベクトルをゼロベクトルとする。
動きベクトルが指し示す先のブロックに関連する視差ベクトルを取得する場合、動きベクトルを導出する処理に加えて、時間的に別のピクチャに存在するブロックの情報を取得する処理が必要になる。これらの処理は、処理の段階が多い(動きベクトル導出、別ピクチャ参照)ため処理時間がかかる。また、別ピクチャの符号化情報は比較的遅延の大きいメモリに置かれることが多い。すなわち、レイテンシと容量にトレードオフがある複数のメモリ(レジスタ、1次キャッシュ、2次キャッシュ、外部メモリなど)があると、隣接視差ベクトル取得部で参照する対象ブロック周囲の符号化情報に比べ、時間視差ベクトル取得部で参照される符号化情報は、遅延が大きいメモリに置かれる。従って、時間視差ベクトル取得部の処理の演算量(処理時間)は大きい。
上記各ベクトルの取得処理において、動きベクトル取得部118および視差ベクトル取得部119は、ブロック情報Ibを参照して処理を切り替える。例えば、ブロック情報Ibに含まれる対象ブロックのブロックサイズが所定のサイズ(例えば16×16)より小さい場合には、視差ベクトル取得部119は、動きベクトルを参照する視差ベクトルの取得を行わないようにし、対象ブロックに隣接するブロックに関連する視差ベクトル、もしくは固定ベクトルのみ取得するようにする。また、動きベクトル取得部118は視差ベクトル取得に用いられる動きベクトルの取得を行わないようにする。
具体的には、ブロックサイズが所定のサイズ以上の場合には、視差ベクトル取得部119は、隣接視差ベクトル取得部、時間視差ベクトル取得部、固定視差ベクトル取得部の順に、視差ベクトルの取得を行い、ブロックサイズが所定のサイズ未満の場合には、視差ベクトル取得部119は、時間視差ベクトル取得部を除く処理、すなわち、隣接視差ベクトル取得部、固定視差ベクトル取得部の順に、視差ベクトルの取得を行う。
このような構成にすることで、ブロックサイズが小さくて、ブロック数が多くなっているときに、動きベクトル参照および別ピクチャの符号化パラメータ参照による処理量の増加を低減することができる。なお、ブロックサイズの判定は、予測ブロック(PU)のサイズであるPUサイズを用いても良いし、PUを含む構造であるCUのサイズを用いても良い。また、PUのサイズと等価な意味を有するCUサイズとPU分割タイプを用いても良い。
なお、以上の例では、動きベクトル取得部118および視差ベクトル取得部119において、ブロック情報Ibに基づいて処理を切り替えることとしたが、ブロック情報Ibの代わりに、符号化条件に基づいて処理を切り替えてもよい。例えば、低負荷処理や低遅延伝送を狙いとする用途の符号化条件の場合に、動きベクトル取得部118を作動させずに、視差ベクトル取得部119が隣接ブロックの情報のみを用いて視差ベクトルを取得するようにして、高品位伝送を狙いとする用途の符号化条件の場合には、常に動きベクトル取得部118、視差ベクトル取得部119共に作動させ、隣接ブロックの視差ベクトルおよび動きベクトルを参照して視差ベクトルを取得するようにしてもよい。
図15は、画像復号装置300bの構成を示す概略ブロック図である。同図において、図10の各部に対応する部分には同一の符号(301〜305、307〜308)を付し、説明を省略する。図15に示すように、画像復号装置300bは、エントロピー復号部301、逆量子化・逆DCT変換部302、加算部303、加算部304、ベクトルメモリ305、予測ベクトル生成部306a、予測部307、参照画像メモリ308を含んで構成される。
図16は、予測ベクトル生成部306aの構成を示す概略ブロック図である。図16に示すように、予測ベクトル生成部306aは、第1候補ベクトル生成部111a、第2候補ベクトル生成部114、予測ベクトル選択部361、動きベクトル予測部362、スイッチ部363を含んで構成される。第1候補ベクトル生成部111aは、動きベクトル取得部118、視差ベクトル取得部119を含んで構成される。同図において、各構成要素は図11または図14に含まれるものと同一であり、説明は省略する。
本実施形態においても、第1の実施形態と同様に、視差ベクトル予測精度を良好に保ちながら、符号化/復号処理における演算量を軽減させることができる。
なお、画像符号化装置100、画像復号装置300や、画像符号化装置100a、100b、画像復号装置300a、300b各々の機能あるいはそれらの一部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各装置を実現するようにしてもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
また、画像符号化装置100、画像復号装置300や、画像符号化装置100a、100b、画像復号装置300a、300bの一部、または全部を典型的には集積回路であるLSIとして実現してもよい。各装置の各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現しても良い。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いることも可能である。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこれらの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計変更等も含まれる。
10…画像伝送システム
100、100a、100b…画像符号化装置
101…減算部
102…DCT変換・量子化部
103…エントロピー符号化部
104…逆量子化・逆DCT変換部
105…加算部
106…参照画像メモリ
107…予測部
108…減算部
109…ベクトルメモリ
110、110a…予測ベクトル生成部
111、111b…第1候補ベクトル生成部
112…変換画素決定部
113…視差ベクトル変換部
114…第2候補ベクトル生成部
115…予測ベクトル決定部
116…動きベクトル予測部
117…スイッチ部
118…動きベクトル取得部
119…視差ベクトル取得部
121…デプスマップ符号化部
122…デプスマップメモリ
123…デプスマップ生成部
200…ネットワーク
300、300a…画像復号装置
301…エントロピー復号部
302…逆量子化・逆DCT変換部
303…加算部
304…加算部
305…ベクトルメモリ
306、306a…予測ベクトル生成部
307…予測部
308…参照画像メモリ
309…デプスマップ復号部
310…デプスマップメモリ
311…デプスマップ生成部
361…予測ベクトル選択部
362…動きベクトル予測部
363…スイッチ部
400…自由視点画像表示装置

Claims (10)

  1. 非基準視点画像における対象ブロックの視差ベクトルの予測ベクトルを生成する予測ベクトル生成装置であって、
    前記非基準視点画像に対応するデプスマップにおける、前記対象ブロックに対応するデプスブロック内のひとつ以上の画素位置を決定する変換画素決定部と、
    前記変換画素決定部が決定した画素位置のデプス値の代表値を算出し、該代表値を視差ベクトルに変換する視差ベクトル変換部と、
    前記視差ベクトル変換部が生成した視差ベクトルを用いて、前記対象ブロックの視差ベクトルの予測ベクトルを生成する予測ベクトル決定部と、
    を具備することを特徴とする予測ベクトル生成装置。
  2. 前記変換画素決定部は、前記対象ブロックのサイズに応じて選択した決定規則に従い、前記画素位置を決定することを特徴とする、請求項1に記載の予測ベクトル生成装置。
  3. 非基準視点画像における対象ブロックの視差ベクトルの予測ベクトルを生成する予測ベクトル生成装置であって、
    前記非基準視点画像とは別の視点画像において前記対象ブロックに対応するブロックに関する動きベクトルを取得する動きベクトル取得部と、
    前記取得した動きベクトルを参照して、前記非基準視点画像の他の時刻の視点画像におけるブロックを選択し、該ブロックに関する視差ベクトルを取得する第1の取得方法と、前記対象ブロックの隣接ブロックに関する視差ベクトルを取得する第2の取得方法とのうち、選択した取得方法を用いて視差ベクトルを取得する視差ベクトル取得部と、
    前記視差ベクトル取得部が取得した視差ベクトルを用いて、前記対象ブロックの視差ベクトルの予測ベクトルを決定する予測ベクトル決定部と、
    を具備することを特徴とする予測ベクトル生成装置。
  4. 前記視差ベクトル取得部は、前記対象ブロックのサイズに応じて、前記第1の取得方法および前記第2取得方法のうちのいずれを用いるかを選択する
    ことを特徴とする請求項3に記載の予測ベクトル生成装置。
  5. 請求項1から請求項4のいずれかの項に記載の予測ベクトル生成装置を具備することを特徴とする画像符号化装置。
  6. 請求項1から請求項4のいずれかの項に記載の予測ベクトル生成装置を具備することを特徴とする画像復号装置。
  7. 非基準視点画像における対象ブロックの視差ベクトルの予測ベクトルを生成する予測ベクトル生成方法であって、
    前記非基準視点画像に対応するデプスマップにおける、前記対象ブロックに対応するデプスブロック内のひとつ以上の画素位置を決定する第1の過程と、
    前記第1の過程にて決定した画素位置のデプス値の代表値を算出し、該代表値を視差ベクトルに変換する第2の過程と、
    前記第2の過程にて生成した視差ベクトルを用いて、前記対象ブロックの視差ベクトルの予測ベクトルを生成する第3の過程と、
    を有することを特徴とする予測ベクトル生成方法。
  8. 非基準視点画像における対象ブロックの視差ベクトルの予測ベクトルを生成する予測ベクトル生成方法であって、
    前記非基準視点画像とは別の視点画像において前記対象ブロックに対応するブロックに関する動きベクトルを取得する第1の過程と、
    前記取得した動きベクトルを参照して、前記非基準視点画像の他の時刻の視点画像におけるブロックを選択し、該ブロックに関する視差ベクトルを取得する第1の取得方法、もしくは、前記対象ブロックの隣接ブロックに関する視差ベクトルを取得する第2の取得方法を用いて視差ベクトルを取得する第2の過程と、
    前記第2の過程にて取得した視差ベクトルを用いて前記対象ブロックの視差ベクトルの予測ベクトルを決定する第3の過程と
    を有することを特徴とする予測ベクトル生成方法。
  9. コンピュータを、非基準視点画像における対象ブロックの視差ベクトルの予測ベクトルを生成する予測ベクトル生成装置として機能させるために、
    前記非基準視点画像に対応するデプスマップにおける、前記対象ブロックに対応するデプスブロック内のひとつ以上の画素位置を決定する変換画素決定部、
    前記変換画素決定部が決定した画素位置のデプス値の代表値を算出し、該代表値を視差ベクトルに変換する視差ベクトル変換部、
    前記視差ベクトル変換部が生成した視差ベクトルを用いて、前記対象ブロックの視差ベクトルの予測ベクトルを生成する予測ベクトル決定部
    として機能させるためのプログラム。
  10. コンピュータを、非基準視点画像における対象ブロックの視差ベクトルの予測ベクトルを生成する予測ベクトル生成装置として機能させるために、
    前記非基準視点画像とは別の視点画像において前記対象ブロックに対応するブロックに関する動きベクトルを取得する動きベクトル取得部、
    前記取得した動きベクトルを参照して、前記非基準視点画像の他の時刻の視点画像におけるブロックを選択し、該ブロックに関する視差ベクトルを取得する第1の取得方法、もしくは、前記対象ブロックの隣接ブロックに関する視差ベクトルを取得する第2の取得方法を用いて視差ベクトルを取得する視差ベクトル取得部、
    前記視差ベクトル取得部が取得した視差ベクトルを用いて、前記対象ブロックの視差ベクトルの予測ベクトルを決定する予測ベクトル決定部
    として機能させるためのプログラム。
JP2014524751A 2012-07-10 2013-07-02 予測ベクトル生成装置、画像符号化装置、画像復号装置、予測ベクトル生成方法、およびプログラム Pending JPWO2014010464A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012155037 2012-07-10
JP2012155037 2012-07-10
PCT/JP2013/068101 WO2014010464A1 (ja) 2012-07-10 2013-07-02 予測ベクトル生成装置、画像符号化装置、画像復号装置、予測ベクトル生成方法、およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017240932A Division JP2018064291A (ja) 2012-07-10 2017-12-15 画像復号装置、画像復号方法、画像符号化装置、および画像符号化方法

Publications (1)

Publication Number Publication Date
JPWO2014010464A1 true JPWO2014010464A1 (ja) 2016-06-23

Family

ID=49915927

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2014524751A Pending JPWO2014010464A1 (ja) 2012-07-10 2013-07-02 予測ベクトル生成装置、画像符号化装置、画像復号装置、予測ベクトル生成方法、およびプログラム
JP2017240932A Ceased JP2018064291A (ja) 2012-07-10 2017-12-15 画像復号装置、画像復号方法、画像符号化装置、および画像符号化方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2017240932A Ceased JP2018064291A (ja) 2012-07-10 2017-12-15 画像復号装置、画像復号方法、画像符号化装置、および画像符号化方法

Country Status (3)

Country Link
US (2) US9736497B2 (ja)
JP (2) JPWO2014010464A1 (ja)
WO (1) WO2014010464A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015007159A1 (en) * 2013-07-15 2015-01-22 Mediatek Singapore Pte. Ltd. Method of disparity derived depth coding in 3d video coding
JP6310340B2 (ja) * 2014-06-25 2018-04-11 日本電信電話株式会社 映像符号化装置、映像復号装置、映像符号化方法、映像復号方法、映像符号化プログラム及び映像復号プログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014005548A1 (en) * 2012-07-05 2014-01-09 Mediatek Inc. Method and apparatus of unified disparity vector derivation for 3d video coding

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4999860B2 (ja) * 2006-10-30 2012-08-15 日本電信電話株式会社 動画像符号化方法及び復号方法、それらの装置、及びそれらのプログラム並びにプログラムを記録した記憶媒体
JP4938884B2 (ja) * 2010-09-30 2012-05-23 シャープ株式会社 予測ベクトル生成方法、画像符号化方法、画像復号方法、予測ベクトル生成装置、画像符号化装置、画像復号装置、予測ベクトル生成プログラム、画像符号化プログラムおよび画像復号プログラム
JP6061150B2 (ja) * 2011-03-18 2017-01-18 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014005548A1 (en) * 2012-07-05 2014-01-09 Mediatek Inc. Method and apparatus of unified disparity vector derivation for 3d video coding

Also Published As

Publication number Publication date
US20150146786A1 (en) 2015-05-28
US9736497B2 (en) 2017-08-15
WO2014010464A1 (ja) 2014-01-16
JP2018064291A (ja) 2018-04-19
US20170318310A1 (en) 2017-11-02
US10085040B2 (en) 2018-09-25

Similar Documents

Publication Publication Date Title
TWI717586B (zh) 於視訊解碼器中導出運動向量資訊
JP6225241B2 (ja) 画像復号装置、画像復号方法、画像符号化装置及び画像符号化方法
TWI538489B (zh) 在高效率視訊寫碼及其擴充中之運動向量寫碼及雙向預測
JP6231203B2 (ja) ビデオコード化における視差ベクトルを使用するブロック識別
JP6360053B2 (ja) 照度補償装置、画像復号装置、画像符号化装置
CN113039787A (zh) 解码器侧运动矢量细化
CN111164973A (zh) 译码用于视频译码的仿射预测运动信息
KR101990424B1 (ko) 인터 예측 방법 및 그 장치
TW201340724A (zh) 視訊寫碼中之像差向量預測
JP2022548704A (ja) Profを行う画像符号化/復号化方法、装置、及びビットストリームを伝送する方法
CN112840645A (zh) 视频编码系统中组合多个预测子用于块预测的方法及装置
KR101360279B1 (ko) 매크로블록 단위의 변이 예측을 이용한 움직임 정보 공유방법 및 장치 및 그리고 이를 이용한 다시점 비디오 영상부호화/복호화 방법 및 장치
JP2018064291A (ja) 画像復号装置、画像復号方法、画像符号化装置、および画像符号化方法
JP2015019140A (ja) 画像復号装置、画像符号化装置
JP2022547988A (ja) Bdofを行う画像符号化/復号化方法、装置、及びビットストリームを伝送する方法
CN115053526A (zh) 基于包括与并置图片相关的信息的图片头对图像进行编码/解码的方法和装置以及发送比特流的方法
WO2014010525A1 (ja) 予測ベクトル生成装置、および画像復号装置
JP2014204327A (ja) 画像復号装置および画像符号化装置
JP2014017671A (ja) 予測ベクトル生成装置、画像符号化装置、画像復号装置、予測ベクトル生成方法、およびプログラム
JP2015015626A (ja) 画像復号装置および画像符号化装置

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20160624

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160629

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160629

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160701

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170810

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170919