JPWO2012128241A1 - 画像処理装置、画像処理方法、及び、プログラム - Google Patents

画像処理装置、画像処理方法、及び、プログラム Download PDF

Info

Publication number
JPWO2012128241A1
JPWO2012128241A1 JP2013505961A JP2013505961A JPWO2012128241A1 JP WO2012128241 A1 JPWO2012128241 A1 JP WO2012128241A1 JP 2013505961 A JP2013505961 A JP 2013505961A JP 2013505961 A JP2013505961 A JP 2013505961A JP WO2012128241 A1 JPWO2012128241 A1 JP WO2012128241A1
Authority
JP
Japan
Prior art keywords
unit
image
value
pixel value
target block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013505961A
Other languages
English (en)
Inventor
良知 高橋
良知 高橋
しのぶ 服部
しのぶ 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2012128241A1 publication Critical patent/JPWO2012128241A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本技術は、デコード画像の画質を向上させることができる画像処理装置、画像処理方法、及び、プログラムに関する。補正部は、例えば、視差等の所定のデータに対応する値を画素値とするデプス画像であり、画素値として取り得る値が、所定のデータの最大値と最小値とに応じて、所定の規定値に規定されるデプス画像を、少なくとも量子化して逆量子化することにより得られるデコード画像の画素値を、規定値に補正する。本技術は、例えば、色画像の画素ごとの視差に関するデプス情報を、画素値として有するデプス画像等の符号化、及び、復号に適用できる。

Description

本技術は、画像処理装置、画像処理方法、及び、プログラムに関し、例えば、画像を、少なくとも量子化して逆量子化することにより得られるデコード画像の画質を向上させることができるようにする画像処理装置、画像処理方法、及び、プログラムに関する。
3D(Dimension)画像等の複数の視点の画像を符号化する符号化方式としては、例えば、AVC(Advanced Video Coding)(H.264/AVC)方式を拡張したMVC(Multiview Video Coding)方式等がある。
MVC方式では、符号化対象となる画像は、被写体からの光に対応する値を、画素値として有する色画像であり、複数の視点の色画像それぞれは、必要に応じて、その視点の色画像の他、他の視点の色画像をも参照して、符号化される。
すなわち、MVC方式では、複数の視点の色画像のうちの、1つの視点の色画像が、ベースビュー(Base View)の画像とされ、他の視点の色画像は、ディペンデントビュー(Dependent View)の画像とされる。
そして、ベースビューの画像(色画像)は、そのベースビューの画像のみを参照して符号化され、ディペンデントビューの画像(色画像)は、そのディペンデントビューの画像の他、他のディペンデントビューの画像をも必要に応じて参照して、符号化される。
ところで、近年においては、複数の視点の画像として、各視点の色画像の他に、各視点の色画像の画素ごとの視差に関する視差情報を、画素値として有する視差情報画像を採用し、各視点の色画像と各視点の視差情報画像とを符号化する符号化方式として、例えば、MPEG3DV方式等の規格が策定されつつある。
MPEG3DV方式では、各視点の色画像と、各視点の視差情報画像とのそれぞれを、原則として、MVC方式と同様にして符号化することが提案されている。また、MPEG3DV方式では、視差情報画像について、各種の取り扱いが提案されている(例えば、非特許文献1を参照)。
"Draft Call for Proposals on 3D Video Coding Technology", NTERNATIONAL ORGANISATION FOR STANDARDISATION, ORGANISATION INTERNATIONALE DE NORMALISATION, ISO/IEC JTC1/SC29/WG11, CODING OF MOVING PICTURES AND AUDIO, ISO/IEC JTC1/SC29/WG11, MPEG2010/N11679, Guangzhou, China, October 2010
視差情報画像については、MVC方式と同様にして符号化して復号すると、その復号によって得られるデコード画像の画質が劣化することがある。
本技術は、このような状況に鑑みてなされたものであり、デコード画像の画質を向上させることができるようにするものである。
本技術の一側面の画像処理装置、又は、プログラムは、所定のデータに対応する値を画素値とする画像であり、前記画素値として取り得る値が、前記所定のデータの最大値と最小値とに応じて、所定の規定値に規定される画像を、少なくとも量子化して逆量子化することにより得られるデコード画像の画素値を、前記規定値に補正する補正部を備える画像処理装置、又は、画像処理装置として、コンピュータを機能させるためのプログラムである。
本技術の一側面の画像処理方法は、所定のデータに対応する値を画素値とする画像であり、前記画素値として取り得る値が、前記所定のデータの最大値と最小値とに応じて、所定の規定値に規定される画像を、少なくとも量子化して逆量子化することにより得られるデコード画像の画素値を、前記規定値に補正するステップを含む画像処理方法である。
以上のような一側面においては、所定のデータに対応する値を画素値とする画像であり、前記画素値として取り得る値が、前記所定のデータの最大値と最小値とに応じて、所定の規定値に規定される画像を、少なくとも量子化して逆量子化することにより得られるデコード画像の画素値が、前記規定値に補正される。
なお、画像処理装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。
また、プログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。
本技術の一側面によれば、デコード画像の画質を向上させることができる。
複数の視点の画像を生成する多視点画像生成装置の構成例を示すブロック図である。 視差画像の取り扱いを説明する図である。 本技術の概要を説明する図である。 本技術を適用した多視点画像エンコーダの一実施の形態の構成例を示すブロック図である。 MVC方式の予測符号化において、予測画像を生成するときに参照するピクチャを説明する図である。 MVC方式でのピクチャの符号化(及び復号)順を説明する図である。 エンコーダ11の構成例を示すブロック図である。 MVC(AVC)方式のマクロブロックタイプを説明する図である。 MVC(AVC)方式の予測ベクトル(PMV)を説明する図である。 MVC(AVC)方式の予測ベクトルを説明する図である。 エンコーダ22の構成例を示すブロック図である。 補正部232の構成例を示すブロック図である。 マッピング情報の例を示す図である。 視点#2の視差画像D#2を符号化する符号化処理を説明するフローチャートである。 補正処理を説明するフローチャートである。 画素値変更処理を説明するフローチャートである。 画素値補正処理を説明するフローチャートである。 本技術を適用した多視点画像デコーダの一実施の形態の構成例を示すブロック図である。 デコーダ311の構成例を示すブロック図である。 デコーダ322の構成例を示すブロック図である。 補正部462の構成例を示すブロック図である。 視点#2の視差画像D#2の符号化データを復号する復号処理を説明するフローチャートである。 補正処理を説明するフローチャートである。 画素値補正処理を説明するフローチャートである。 ヘッダ情報に含められる予測器フラグの例を示す図である。 ヘッダ情報に含められる予測器フラグの例を示す図である。 ヘッダ情報に含められる予測器フラグの例を示す図である。 規定値への補正と、撮影視差ベクトルdのダイナミックレンジ|dmax-dmin|との関係を説明する図である。 規定値への補正と、対象ブロックの量子化ステップとの関係を説明する図である。 エンコーダ22の他の構成例を示すブロック図である。 補正部532の構成例を示すブロック図である。 視点#2の視差画像D#2を符号化する符号化処理を説明するフローチャートである。 補正処理を説明するフローチャートである。 画素値補正処理を説明するフローチャートである。 デコーダ322の構成例を示すブロック図である。 補正部662の構成例を示すブロック図である。 視点#2の視差画像D#2の符号化データを復号する復号処理を説明するフローチャートである。 視差と奥行きについて説明する図である。 本技術を適用したコンピュータの一実施の形態の構成例を示すブロック図である。 本技術を適用したテレビジョン装置の概略構成例を示す図である。 本技術を適用した携帯電話機の概略構成例を示す図である。 本技術を適用した記録再生装置の概略構成例を示す図である。 本技術を適用した撮像装置の概略構成例を示す図である。
[本明細書におけるデプス画像(視差情報画像)の説明]
図38は、視差と奥行きについて説明する図である。
図38に示すように、被写体Mのカラー画像が、位置C1に配置されたカメラc1と位置C2に配置されたカメラc2により撮影される場合、被写体Mの、カメラc1(カメラc2)からの奥行方向の距離である奥行きZは、以下の式(a)で定義される。
Figure 2012128241
・・・(a)
なお、Lは、位置C1と位置C2の水平方向の距離(以下、カメラ間距離という)である。また、dは、カメラc1で撮影されたカラー画像上の被写体Mの位置の、カラー画像の中心からの水平方向の距離u1から、カメラc2で撮影されたカラー画像上の被写体Mの位置の、カラー画像の中心からの水平方向の距離u2を減算した値、即ち視差である。さらに、fは、カメラc1の焦点距離であり、式(a)では、カメラc1とカメラc2の焦点距離は同一であるものとしている。
式(a)に示すように、視差dと奥行きZは、一意に変換可能である。従って、本明細書では、カメラc1とカメラc2により撮影された2視点のカラー画像の視差dを表す画像と奥行きZを表す画像とを総称して、デプス画像(視差情報画像)とする。
なお、デプス画像(視差情報画像)は、視差dまたは奥行きZを表す画像であればよく、デプス画像(視差情報画像)の画素値としては、視差dまたは奥行きZそのものではなく、視差dを正規化した値、奥行きZの逆数1/Zを正規化した値等を採用することができる。
視差dを8bit(0〜255)で正規化した値Iは、以下の式(b)により求めることができる。なお、視差dの正規化ビット数は8bitに限定されず、10bit,12bitなど他のビット数にすることも可能である。
Figure 2012128241
なお、式(b)において、Dmaxは、視差dの最大値であり、Dminは、視差dの最小値である。最大値Dmaxと最小値Dminは、1画面単位で設定されてもよいし、複数画面単位で設定されてもよい。
また、奥行きZの逆数1/Zを8bit(0〜255)で正規化した値yは、以下の式(c)により求めることができる。なお、奥行きZの逆数1/Zの正規化ビット数は8bitに限定されず、10bit,12bitなど他のビット数にすることも可能である。
Figure 2012128241
なお、式(c)において、Zfarは、奥行きZの最大値であり、Znearは、奥行きZの最小値である。最大値Zfarと最小値Znearは、1画面単位で設定されてもよいし、複数画面単位で設定されてもよい。
このように、本明細書では、視差dと奥行きZとは一意に変換可能であることを考慮して、視差dを正規化した値Iを画素値とする画像と、奥行きZの逆数1/Zを正規化した値yを画素値とする画像とを総称して、デプス画像(視差情報画像)とする。ここでは、デプス画像(視差情報画像)のカラーフォーマットは、YUV420又はYUV400であるものとするが、他のカラーフォーマットにすることも可能である。
なお、デプス画像(視差情報画像)の画素値としてではなく、値I又は値yの情報自体に着目する場合には、値I又は値yを、デプス情報(視差情報)とする。更に、値I又は値yをマッピングしたものをデプスマップ(視差マップ)とする。
[複数の視点の画像]
以下、図面を参照して、本技術の一実施の形態について説明するが、その前に、前段階の準備として、複数の視点の画像について説明する。
図1は、複数の視点の画像を生成する多視点画像生成装置の構成例を示すブロック図である。
多視点画像生成装置では、複数の視点としての、例えば、2つの視点の画像を撮影するために、2つのカメラ41及び42が、異なる視点の色画像を撮影することができる位置に設置されている。
ここで、本実施の形態では、説明を簡単にするために、カメラ41及び42は、ある水平面上の一直線上の異なる位置に、その直線に垂直な方向に光軸を向けて配置されていることとする。
カメラ41は、そのカメラ41が配置されている位置で、被写体を撮影し、動画像である色画像C#1を出力する。
さらに、カメラ41は、他の任意の1つのカメラである、例えば、カメラ42の位置を、基準の視点として、色画像C#1の各画素について、基準の視点に対する視差を表す視差ベクトルd1を出力する。
カメラ42は、そのカメラ42が配置されている位置で、被写体を撮影し、動画像である色画像C#2を出力する。
さらに、カメラ42は、他の任意の1つのカメラである、例えば、カメラ41の位置を、基準の視点として、色画像C#2の各画素について、基準の視点に対する視差を表す視差ベクトルd2を出力する。
ここで、色画像の横(水平)方向を、x軸とし、縦(垂直)方向を、y軸とする2次元平面を、色画像平面ということとすると、カメラ41及び42は、色画像平面に直交し、x軸と平行な平面(水平面)上の一直線上に配置されている。したがって、視差ベクトルd1及びd2は、y成分が0で、x成分が、カメラ41及び42の水平方向の位置関係等に対応する値のベクトルとなる。
なお、カメラ41及び42が出力する視差ベクトルd1及びd2を、後述する、MEによって求められる視差を表す視差ベクトルと区別するために、以下、撮影視差ベクトルd1及びd2ともいう。
カメラ41が出力する色画像C#1、及び、撮影視差ベクトルd1、並びに、カメラ42が出力する色画像C#2、及び、撮影視差ベクトルd2は、多視点画像情報生成部43に供給される。
多視点画像情報生成部43は、カメラ41及び42からの色画像C#1を、そのまま出力する。
また、多視点画像情報生成部43は、カメラ41からの撮影視差ベクトルd1から、色画像#1の画素ごとの視差に関する視差情報(デプス情報)を求め、その視差情報を、画素値として有する視差情報画像(デプス画像)D#1を生成して出力する。
さらに、多視点画像情報生成部43は、カメラ42からの撮影視差ベクトルd2から、色画像#2の画素ごとの視差に関する視差情報を求め、その視差情報を、画素値として有する視差情報画像D#2を生成して出力する。
ここで、上述したように、視差情報(デプス情報)としては、例えば、撮影視差ベクトル(視差)に対応する値である視差値(値I)や、被写体までの距離(奥行きZ)に対応する値である奥行き値(値y)がある。
いま、視差情報画像の画素値が、例えば、8ビットで表される0ないし255の整数値をとることとする。さらに、撮影視差ベクトル(のx成分)をdで表すとともに、(例えば、ピクチャや、1つのコンテンツとしての動画像等で)撮影視差ベクトル(のx成分)の最大値と最小値を、それぞれ、dmax(Dmax)とdmin(Dmin)と表すこととする。
この場合、視差値ν(値I)は、例えば、撮影視差ベクトル(のx成分)dと、その最大値dmax及び最小値dminを用いて、式(1)に従って求められる。
ν=255×(d-dmin)/(dmax-dmin)
・・・(1)
なお、式(1)の視差値νは、式(2)に従って、撮影視差ベクトル(のx成分)dに変換することができる。
d=ν×(dmax-dmin)/255+dmin
・・・(2)
また、奥行きZは、カメラ41及び42が配置されている直線上から、被写体までの距離を表す。
カメラ41については(カメラ42についても同様)、カメラ41と一直線上に配置されているカメラ42との距離(基準の視点との距離)である基線長をLと、カメラ41の焦点距離をfと、それぞれ表すこととすると、被写体までの距離Z(奥行きZ)は、撮影視差ベクトル(のx成分)d(d1)を用い、式(3)に従って求めることができる。
Z=(L/d)×f
・・・(3)
視差情報である視差値νと被写体までの距離Zとは(さらには、撮影視差ベクトルdも)、式(1)ないし式(3)に従って相互に変換することができるので、等価な情報である。
ここで、以下では、画素値として視差値ν(値I)を有する視差情報画像(デプス画像)を、視差画像ともいい、画素値として、奥行き値(値y)を有する画像を、奥行き画像ともいう。
なお、以下では、視差情報画像として、視差画像、及び、奥行き画像のうちの、例えば、視差画像を用いることとするが、視差情報画像としては、奥行き画像を用いることも可能である。
多視点画像情報生成部43は、以上の色画像#1及び#2、並びに、視差画像(視差情報画像)D#1及び#2の他に、視差情報のメタデータである視差関連情報(デプス関連情報)を出力する。
すなわち、多視点画像情報生成部43には、外部から、カメラ41と42との距離(カメラ41及び42それぞれと、基準の視点との距離)である基線長L、及び、焦点距離fが供給される。
多視点画像情報生成部43は、カメラ41からの撮影視差ベクトルd1、及び、カメラ41からの撮影視差ベクトルd2のそれぞれについて、撮影視差ベクトル(のx成分)dの最大値dmax及び最小値dminを検出する。
そして、多視点画像情報生成部43は、撮影視差ベクトルdの最大値dmax及び最小値dmin、並びに、基線長L、及び、焦点距離fを、視差関連情報として出力する。
なお、ここでは、説明を簡単にするため、カメラ41及び42を、色画像平面に直交する同一の平面上の一直線上に配置し、撮影視差ベクトルd(d1及びd2)が、y成分が0のベクトルであることとしたが、カメラ41及び42それぞれは、色画像平面に直交する異なる平面上に配置することができる。この場合、撮影視差ベクトルdは、x成分及びy成分とも、0以外の値になりうるベクトルとなる。
以下、複数の視点の画像である、多視点画像情報生成部43が出力する色画像C#1及びC#2、並びに、視差画像D#1及びD#2を、同じく、多視点画像情報生成部43が出力する視差関連情報を必要に応じて用いて符号化し、復号する方法について説明する。
[視差画像の取り扱い]
図2は、非特許文献1で提案されている視差画像の取り扱いを説明する図である。
非特許文献1では、図1で説明したように、視差画像の画素値である視差値νが、8ビットで表される0ないし255の整数値をとることとして、視差値νと、撮影視差ベクトル(のx成分)dとの間に、式(1)及び式(2)で表される関係を持たせることが提案されている。
式(1)及び式(2)によれば、撮影視差ベクトルdの最小値dminが、画素値である視差値νの最小値である0になり、撮影視差ベクトルdの最大値dmaxが、画素値である視差値νの最大値である255になるように、撮影視差ベクトルdが、視差値νにマッピングされる。
したがって、視差画像の画素値である視差値νは、撮影視差ベクトルdの最小値dminと最大値dmaxとに応じて、取り得る値が、所定の値(以下、規定値ともいう)に規定される。
すなわち、撮影視差ベクトルdのダイナミックレンジ、つまり、最大値dmaxと最小値dminとの差dmax-dminが、例えば、51であれば、視差値νが取り得る値は、図2に示すように、5(=255/(dmax-dmin)=255/51)おきの整数値の規定値0,5,10,・・・に規定される(定まる)。
したがって、視差画像は、所定のデータとしての撮影視差ベクトルdに対応する値(視差値ν)を画素値とする画像であり、その画素値として取り得る値が、撮影視差ベクトルdの最大値dmaxと最小値dminとに応じて、所定の規定値に規定される画像である、ということができる。
なお、奥行き画像も、視差画像と同様に扱うことができる。
ところで、視差画像を、例えば、MVC方式等のように、少なくとも量子化を行って符号化するとともに、少なくとも逆量子化を行って復号する場合には、量子化及び逆量子化によって生じる量子化雑音(量子化歪み)(量子化誤差)に起因して、復号の結果得られるデコード画像(視差画像)の画質が劣化する(原画像と異なる画素値になる)ことがある。
そこで、本技術では、視差画像の画素値である視差値νが取り得る値が、撮影視差ベクトルdの最大値dmaxと最小値dminとに応じて規定される規定値になるという特性を利用して、視差画像のデコード画像の画質を向上させる。
[本技術の概要]
図3は、本技術の概要を説明する図である。
上述したように、視差画像を、例えば、MVC方式で符号化して復号すると、量子化及び逆量子化によって生じる量子化歪みに起因して、復号の結果得られるデコード画像の画質が劣化する。
すなわち、例えば、いま、図3に示すように、視差画像のある画素値としての視差値νが10である場合に、視差画像をMVC方式で符号化して復号することにより得られるデコード画像の画素値(以下、復号後画素値ともいう)は、量子化歪みに起因して、原画像(符号化前の視差画像)の画素値と異なる、例えば、8等になる。
ここで、視差画像の視差値νが取り得る値である規定値が、0,5,10,・・・であるとすると、視差値νが規定値ではない8であることは、あり得ない。
そこで、本技術では、復号後画素値を、現在の値である8から、規定値0,5,10,・・・のうちの、現在の値に最も近い値(最近傍の値)である10に補正(シフト)する。
その結果、本技術によれば、デコード画像の画素値(復号後画素値)が、原画像の画素値(符号化前の視差画像の視差値ν)に一致することとなり、デコード画像の画質を向上させることができる。
なお、本技術においては、デコード画像の復号後画素値のすべてを、現在の値から、規定値のうちの、現在の値に最も近い値に補正することができる。
但し、復号後画素値によっては、現在の値を、補正しない方が、補正するよりも、原画像の画素値に近い場合があり得る。
そこで、視差画像を符号化するエンコーダ側では、復号後画素値を補正するかどうかを、例えば、マクロブロック等の所定の単位で判定(判断)し、復号後画素値を、規定値に補正するか、又は、そのままとする(補正しない)かを表す、例えば、1ビットの補正フラグを出力することができる。
そして、視差画像を復号するデコーダ側では、補正フラグに基づいて、復号後画素値を、規定値に補正するか、又は、そのままとすることができる。
[本技術を適用した多視点画像エンコーダの一実施の形態]
図4は、本技術を適用した多視点画像エンコーダの一実施の形態の構成例を示すブロック図である。
図4の多視点画像エンコーダは、例えば、MVC方式を利用して、複数の視点の画像を符号化するエンコーダであり、以下では、MVC方式と同様の処理については、適宜、説明を省略する。
なお、多視点画像エンコーダは、MVC方式を利用するエンコーダに限定されるものではない。
また、以下では、複数の視点の画像として、2つの視点#1及び#2の色画像である視点#1の色画像C#1、及び、視点#2の色画像C#2、並びに、その2つの視点#1及び#2の視差情報画像である視点#1の視差画像D#1、及び、視点#2の視差画像D#2を採用することとする。
さらに、例えば、視点#1の色画像C#1、及び、視差画像D#1を、ベースビューの画像とし、残りの視点#2の色画像C#2、及び、視差画像D#2を、ディペンデントビューの画像として扱うこととする。
なお、複数の視点の画像としては、3つ以上の視点の色画像、及び、視差情報画像を採用することができ、その3つ以上の視点の色画像、及び、視差情報画像のうちの、任意の1つの視点の色画像、及び、視差情報画像を、ベースビューの画像とし、残りの視点の色画像、及び、視差情報画像を、ディペンデントビューの画像として扱うことができる。
図4において、多視点画像エンコーダは、エンコーダ11,12,21,22,DPB31、及び、多重化部32を有し、多視点画像エンコーダには、図1の多視点画像生成装置が出力する視点#1の色画像C#1、及び、視差画像D#1、視点#2の色画像C#2、及び、視差画像D#2、並びに、視差関連情報が供給される。
エンコーダ11には、視点#1の色画像C#1と、視差関連情報とが供給される。
エンコーダ11は、視点#1の色画像C#1を、必要に応じて、視差関連情報を用いて符号化し、その結果得られる視点#1の色画像C#1の符号化データを、多重化部32に供給する。
エンコーダ12には、視点#2の色画像C#2と、視差関連情報とが供給される。
エンコーダ12は、視点#2の色画像C#2を、必要に応じて、視差関連情報を用いて符号化し、その結果得られる視点#2の色画像C#2の符号化データを、多重化部32に供給する。
エンコーダ21には、視点#1の視差画像D#1と、視差関連情報とが供給される。
エンコーダ21は、視点#1の視差画像D#1を、必要に応じて、視差関連情報を用いて符号化し、その結果得られる視点#1の視差画像D#1の符号化データを、多重化部32に供給する。
エンコーダ22には、視点#2の視差画像D#2と、視差関連情報とが供給される。
エンコーダ22は、視点#2の視差画像D#2を、必要に応じて、視差関連情報を用いて符号化し、その結果得られる視点#2の視差画像D#2の符号化データを、多重化部32に供給する。
DPB31は、エンコーダ11,12,21、及び、22それぞれで、符号化対象の画像を符号化し、ローカルデコードすることにより得られるローカルデコード後の画像(デコード画像)を、予測画像の生成時に参照する参照ピクチャ(の候補)として一時記憶する。
すなわち、エンコーダ11,12,21、及び、22は、符号化対象の画像を予測符号化する。そのため、エンコーダ11,12,21、及び、22は、予測符号化に用いる予測画像を生成するのに、符号化対象の画像を符号化した後、ローカルデコードを行って、デコード画像を得る。
DPB31は、エンコーダ11,12,21、及び、22それぞれで得られるデコード画像を一時記憶する、いわば共用のバッファであり、エンコーダ11,12,21、及び、22それぞれは、DPB31に記憶されたデコード画像から、符号化対象の画像を符号化するのに参照する参照ピクチャを選択する。そして、エンコーダ11,12,21、及び、22それぞれは、参照ピクチャを用いて、予測画像を生成し、その予測画像を用いて、画像の符号化(予測符号化)を行う。
DPB31は、エンコーダ11,12,21、及び、22で共用されるので、エンコーダ11,12,21、及び、22それぞれは、自身で得られたデコード画像の他、他のエンコーダで得られたデコード画像をも参照することができる。
多重化部32は、エンコーダ11,12,21、及び、22のそれぞれからの符号化データを多重化し、その結果得られる多重化データを出力する。
多重化部32が出力する多重化データは、図示せぬ記録媒体に記録され、又は、図示せぬ伝送媒体を介して伝送される。
なお、視差関連情報は、多重化部32において、符号化データとともに多重化することができる。
[MVC方式の概要]
図5は、MVC方式の予測符号化において、予測画像を生成するときに参照するピクチャを説明する図である。
いま、ベースビューの画像である視点#1の画像のピクチャを、(表示)時刻順に、p11,p12,p13,・・・と表すとともに、ディペンデントビューの画像である視点#2の画像のピクチャを、時刻順に、p21,p22,p23,・・・と表すこととする。
ベースビューのピクチャである、例えば、ピクチャp12は、そのベースビューのピクチャである、例えば、ピクチャp11やp13を、必要に応じて参照して、予測符号化される。
すなわち、ベースビューのピクチャp12については、そのベースビューの他の時刻のピクチャであるピクチャp11やp13のみを参照し、予測(予測画像の生成)を行うことができる。
また、ディペンデントビューのピクチャである、例えば、ピクチャp22は、そのディペンデントビューのピクチャである、例えば、ピクチャp21やp23、さらには、他のビューであるベースビューのピクチャp12を、必要に応じて参照して、予測符号化される。
すなわち、ディペンデントビューのピクチャp22は、そのディペンデントビューの他の時刻のピクチャであるピクチャp21やp23の他、他のビューの、ピクチャp22と同一時刻のピクチャであるベースビューのピクチャp12を参照し、予測を行うことができる。
ここで、符号化対象のピクチャと同一のビューのピクチャを参照して行われる予測を、時間予測ともいい、符号化対象のピクチャと異なるビューのピクチャを参照して行われる予測を、視差予測ともいう。
以上のように、MVC方式では、ベースビューのピクチャについては、時間予測のみを行うことができ、ディペンデントビューのピクチャについては、時間予測と視差予測を行うことができる。
なお、MVC方式において、視差予測において参照する、符号化対象のピクチャと異なるビューのピクチャは、符号化対象のピクチャと同一時刻のピクチャでなければならない。
図4の多視点画像エンコーダを構成するエンコーダ11,12,21、及び、22は、原則として、MVC方式に従って、予測(予測画像の生成)を行う。
図6は、MVC方式でのピクチャの符号化(及び復号)順を説明する図である。
図5と同様に、ベースビューの画像である視点#1の画像のピクチャを、(表示)時刻順に、p11,p12,p13,・・・と表すとともに、ディペンデントビューの画像である視点#2の画像のピクチャを、時刻順に、p21,p22,p23,・・・と表すこととする。
いま、説明を簡単にするために、各ビューのピクチャが、時刻順に符号化されることとすると、まず、ベースビューの最初の時刻t=1のピクチャp11が符号化され、その後、ディペンデントビューの、同一時刻t=1のピクチャp21が符号化される。
ディペンデントビューの、同一時刻t=1のピクチャ(すべて)の符号化が終了すると、ベースビューの次の時刻t=2のピクチャp12が符号化され、その後、ディペンデントビューの、同一時刻t=2のピクチャp22が符号化される。
以下、同様の順番で、ベースビューのピクチャ、及び、ディペンデントビューのピクチャは、符号化されていく。
図4の多視点画像エンコーダを構成するエンコーダ11,12,21、及び、22では、MVC方式に従った順番で、ピクチャが符号化される。
[エンコーダ11の構成例]
図7は、図4のエンコーダ11の構成例を示すブロック図である。
なお、図4のエンコーダ12も、エンコーダ11と同様に構成され、例えば、MVC方式に従って、画像の符号化を行う。
図7において、エンコーダ11は、A/D(Analog/Digital)変換部111、画面並び替えバッファ112、演算部113、直交変換部114、量子化部115、可変長符号化部116、蓄積バッファ117、逆量子化部118、逆直交変換部119、演算部120、デブロッキングフィルタ121、画面内予測部122、インター予測部123、及び、予測画像選択部124を有する。
A/D変換部111には、符号化対象の画像(動画像)である視点#1の色画像C#1のピクチャが、表示順に、順次、供給される。
A/D変換部111は、そこに供給されるピクチャが、アナログ信号である場合には、そのアナログ信号をA/D変換し、画面並び替えバッファ112に供給する。
画面並び替えバッファ112は、A/D変換部111からのピクチャを一時記憶し、あらかじめ決められたGOP(Group of Pictures)の構造に応じて、ピクチャを読み出すことで、ピクチャの並びを、表示順から、符号化順(復号順)に並び替える並び替えを行う。
画面並び替えバッファ112から読み出されたピクチャは、演算部113、画面内予測部122、及び、インター予測部123に供給される。
演算部113には、画面並び替えバッファ112から、ピクチャが供給される他、予測画像選択部124から、画面内予測部122、又は、インター予測部123で生成された予測画像が供給される。
演算部113は、画面並び替えバッファ112から読み出されたピクチャを、符号化対象の対象ピクチャとし、さらに、対象ピクチャを構成するマクロブロックを、順次、符号化対象の対象ブロックとする。
そして、演算部113は、対象ブロックの画素値から、予測画像選択部124から供給される予測画像の画素値を減算した減算値を、必要に応じて演算し、直交変換部114に供給する。
直交変換部114は、演算部113からの対象ブロック(の画素値、又は、予測画像が減算された残差)に対して、離散コサイン変換や、カルーネン・レーベ変換等の直交変換を施し、その結果得られる変換係数を、量子化部115に供給する。
量子化部115は、直交変換部114から供給される変換係数を量子化し、その結果得られる量子化値を、可変長符号化部116に供給する。
可変長符号化部116は、量子化部115からの量子化値に対して、可変長符号化(例えば、CAVLC(Context-Adaptive Variable Length Coding)等)や、算術符号化(例えば、CABAC(Context-Adaptive Binary Arithmetic Coding)等)等の可逆符号化を施し、その結果得られる符号化データを、蓄積バッファ117に供給する。
なお、可変長符号化部116には、量子化部115から量子化値が供給される他、画面内予測部122やインター予測部123から、符号化データのヘッダに含めるヘッダ情報が供給される。
可変長符号化部116は、画面内予測部122やインター予測部123からの、ヘッダ情報を符号化し、符号化データのヘッダに含める。
蓄積バッファ117は、可変長符号化部116からの符号化データを一時記憶し、所定のデータレートで出力する。
蓄積バッファ117から出力された符号化データは、多重化部32(図4)に供給される。
量子化部115で得られた量子化値は、可変長符号化部116に供給される他、逆量子化部118にも供給され、逆量子化部118、逆直交変換部119、及び、演算部120において、ローカルデコードが行われる。
すなわち、逆量子化部118は、量子化部115からの量子化値を、変換係数に逆量子化し、逆直交変換部119に供給する。
逆直交変換部119は、逆量子化部118からの変換係数を逆直交変換し、演算部120に供給する。
演算部120は、逆直交変換部119から供給されるデータに対して、必要に応じて、予測画像選択部124から供給される予測画像の画素値を加算することで、対象ブロックを復号(ローカルデコード)したデコード画像を得て、デブロッキングフィルタ121に供給する。
デブロッキングフィルタ121は、演算部120からのデコード画像をフィルタリングすることにより、デコード画像に生じたブロック歪を除去(低減)し、DPB31(図4)に供給する。
ここで、DPB31は、デブロッキングフィルタ121からのデコード画像、すなわち、エンコーダ11において符号化されてローカルデコードされた色画像C#1のピクチャを、時間的に後に行われる予測符号化(演算部113で予測画像の減算が行われる符号化)に用いる予測画像を生成するときに参照する参照ピクチャ(の候補)として記憶する。
図4で説明したように、DPB31は、エンコーダ11,12,21、及び、22で共用されるので、エンコーダ11において符号化されてローカルデコードされた色画像C#1のピクチャの他、エンコーダ12において符号化されてローカルデコードされた色画像C#2のピクチャ、エンコーダ21において符号化されてローカルデコードされた視差画像D#1のピクチャ、及び、エンコーダ22において符号化されてローカルデコードされた視差画像D#2のピクチャも記憶する。
なお、逆量子化部118、逆直交変換部119、及び、演算部120によるローカルデコードは、例えば、参照ピクチャとなることが可能な参照可能ピクチャであるIピクチャ、Pピクチャ、及び、Bsピクチャを対象として行われ、DPB31では、Iピクチャ、Pピクチャ、及び、Bsピクチャのデコード画像が記憶される。
画面内予測部122は、対象ピクチャが、イントラ予測(画面内予測)され得るIピクチャ、Pピクチャ、又は、Bピクチャ(Bsピクチャを含む)である場合に、DPB31から、対象ピクチャのうちの、既にローカルデコードされている部分(デコード画像)を読み出す。そして、画面内予測部122は、DPB31から読み出した、対象ピクチャのうちのデコード画像の一部を、画面並び替えバッファ112から供給される対象ピクチャの対象ブロックの予測画像とする。
さらに、画面内予測部122は、予測画像を用いて対象ブロックを符号化するのに要する符号化コスト、すなわち、対象ブロックの、予測画像に対する残差等を符号化するのに要する符号化コストを求め、予測画像とともに、予測画像選択部124に供給する。
インター予測部123は、対象ピクチャが、インター予測され得るPピクチャ、又は、Bピクチャ(Bsピクチャを含む)である場合に、DPB31から、対象ピクチャより前に符号化されてローカルデコードされた1以上のピクチャを、参照ピクチャ(の候補)として読み出す。
また、インター予測部123は、画面並び替えバッファ112から供給される対象ピクチャの対象ブロックと、参照ピクチャとを用いたME(Motion Estimation)によって、対象ブロックと、参照ピクチャの、対象ブロックに対応する対応ブロック(対象ブロックとのSAD(Sum of Absolute Differences)等の符号化コストを最小にするブロック(領域))とのずれ(視差、動き)を表すずれベクトルを検出する。
ここで、参照ピクチャが、対象ピクチャと同一のビューのピクチャ、つまり、視点#2の視差画像D#2の、対象ピクチャとは時刻が異なるピクチャである場合、対象ブロックと参照ピクチャとを用いたMEによって検出されるずれベクトルは、対象ブロックと、参照ピクチャとの間の動き(時間的なずれ)を表す動きベクトルとなる。
また、参照ピクチャが、対象ピクチャと異なるビューのピクチャ、つまり、ここでは、視点#1の視差画像D#1の、対象ピクチャと時刻が同一のピクチャである場合、対象ブロックと参照ピクチャとを用いたMEによって検出されるずれベクトルは、対象ブロックと、参照ピクチャとの間の視差(空間的なずれ)を表す視差ベクトルとなる。
以上のように、MEによって求められる視差ベクトルを、図1で説明した撮影視差ベクトルと区別するために、計算視差ベクトルともいう。
本実施の形態では、説明を簡単にするため、撮影視差ベクトルは、y成分が0のベクトルであることとしたが、MEによって検出される計算視差ベクトルは、対象ブロックと、参照ピクチャの、対象ブロックとのSAD等を最小にするブロック(対応ブロック)とのずれ(位置関係)を表すので、y成分が0になるとは限らない。
インター予測部123は、対象ブロックのずれベクトルに従って、DPB31からの参照ピクチャのMC(Motion Compensation)であるずれ補償(動き分のずれを補償する動き補償、又は、視差分のずれを補償する視差補償)を行うことで、予測画像を生成する。
すなわち、インター予測部123は、参照ピクチャの、対象ブロックの位置から、その対象ブロックのずれベクトルに従って移動した(ずれた)位置のブロック(領域)である対応ブロックを、予測画像として取得する。
さらに、インター予測部123は、対象ブロックを予測画像を用いて符号化するのに要する符号化コストを、所定のコスト関数に従い、予測画像の生成に用いる参照ピクチャや、後述するマクロブロックタイプ等が異なるインター予測モードごとに求める。
そして、インター予測部123は、符号化コストが最小のインター予測モードを、最適なインター予測モードである最適インター予測モードとして、その最適インター予測モードで得られた予測画像と符号化コストとを、予測画像選択部124に供給する。
ここで、ずれベクトル(視差ベクトル、動きベクトル)に基づいて、予測画像を生成することを、ずれ予測(視差予測、動き予測)、又は、ずれ補償(視差補償、動き補償)ともいう。なお、ずれ予測には、必要に応じて、ずれベクトルの検出が含まれる。
予測画像選択部124は、画面内予測部122、及び、インター予測部123それぞれからの予測画像のうちの、符号化コストが小さい方を選択し、演算部113、及び、120に供給する。
ここで、画面内予測部122は、イントラ予測に関する情報を、ヘッダ情報として、可変長符号化部116に供給し、インター予測部123は、インター予測に関する情報(ずれベクトルの情報や、参照ピクチャに割り当てられた、予測画像の生成に用いられる参照ピクチャを特定するための参照インデクス等)を、ヘッダ情報として、可変長符号化部116に供給する。
可変長符号化部116は、画面内予測部122、及び、インター予測部123それぞれからのヘッダ情報のうちの、符号化コストが小さい予測画像が生成された方からのヘッダ情報を選択し、符号化データのヘッダに含める。
[マクロブロックタイプ]
図8は、MVC(AVC)方式のマクロブロックタイプを説明する図である。
MVC方式では、対象ブロックとなるマクロブロックは、横×縦が16×16画素のブロックであるが、ME(及び、予測画像の生成)は、マクロブロックをパーティションに分割して、パーティションごとに行うことができる。
すなわち、MVC方式では、マクロブロックを、16×16画素、16×8画素、8×16画素、又は8×8画素のうちのいずれかのパーティションに分割して、各パーティションごとに、MEを行って、すれベクトル(動きベクトル、計算視差ベクトル)を検出することができる。
また、MVC方式では、8×8画素のパーティションは、さらに、8×8画素、8×4画素、4×8画素、又は4×4画素のうちのいずれかのサブパーティションに分割し、各サブパーティションごとに、MEを行って、すれベクトル(動きベクトル、計算視差ベクトル)を検出することができる。
マクロブロックタイプは、マクロブロックを、どのようなパーティション(さらには、サブパーティション)に分割するかを表す。
インター予測部123(図7)のインター予測では、各マクロブロックタイプの符号化コストが、各インター予測モードの符号化コストとして算出され、符号化コストが最小のインター予測モード(マクロブロックタイプ)が、最適インター予測モードとして選択される。
[予測ベクトル(PMV(Predicted Motion Vector))]
図9は、MVC(AVC)方式の予測ベクトル(PMV)を説明する図である。
インター予測部123(図7)のインター予測では、MEによって、対象ブロックのずれベクトル(動きベクトル、計算視差ベクトル)が検出され、そのずれベクトルを用いて、予測画像が生成される。
ずれベクトルは、復号側において、画像を復号するのに必要であるため、ずれベクトルの情報を符号化して、符号化データに含める必要があるが、ずれベクトルを、そのまま符号化すると、ずれベクトルの符号量が多くなって、符号化効率が劣化することがある。
すなわち、MVC方式では、図7に示したように、マクロブロックが、8×8画素のパーティションに分割され、さらに、その8×8画素のパーティションそれぞれが、4×4画素のサブパーティションに分割されることがある。この場合、1つのマクロブロックは、最終的には、4×4個のサブパーティションに分割されるため、1つのマクロブロックに対して、16(=4×4)個のずれベクトルが生じることがあり、ずれベクトルを、そのまま符号化すると、ずれベクトルの符号量が多くなって、符号化効率が劣化する。
そこで、MVC(AVC)方式では、ずれベクトルを予測するベクトル予測が行われ、そのベクトル予測によって得られる予測ベクトルに対する、ずれベクトルの残差が、ずれベクトルの情報(ずれベクトル情報(視差ベクトル情報、動きベクトル情報))として符号化される。
すなわち、あるマクロブロックXが、符号化対象の対象ブロックであるとする。また、説明を簡単にするため、対象ブロックXは、16×16画素のパーティションに分割される(対象ブロックXが、そのまま、パーティションとされる)こととする。
対象ブロックXのずれベクトルmvXの予測ベクトルPMVXは、図9に示すように、対象ブロックXが符号化されるときに、(ラスタスキャン順で)既に符号化されているマクロブロックのうちの、対象ブロックXの上に隣接するマクロブロックAのずれベクトルmvA、左に隣接するマクロブロックBのずれベクトルmvB、及び、右斜め上に隣接するマクロブロックCのずれベクトルmvCを用い、式(4)に従って算出される。
PMVX=med(mvA,mvB,mvC)
・・・(4)
ここで、式(4)において、med()は、かっこ内の値のメディアン(中央値)を表す。
なお、対象ブロックXが、ピクチャの右端のマクロブロックである場合等、マクロブロックCのずれベクトルmvCが、利用可能でない(unavailableである)場合には、ずれベクトルmvCに代えて、対象ブロックXの左斜め上に隣接するマクロブロックDのずれベクトルmvDを用いて、予測ベクトルPMVXが算出される。
また、式(4)に従った予測ベクトルPMVXの算出は、x成分とy成分とのそれぞれについて、独立に行われる。
インター予測部123(図7)では、対象ブロックXのずれベクトルmvXと、その予測ベクトルPMVXとの差分mvX−PMVが、対象ブロックXのずれベクトル情報として、ヘッダ情報に含められる。
図10は、MVC(AVC)方式の予測ベクトルを、さらに、説明する図である。
対象ブロックのずれベクトルの予測ベクトルの生成の方法は、対象ブロックの周辺のマクロブロックの予測画像の生成に用いられる参照ピクチャに割り当てられている参照インデクス(以下、予測用の参照インデクスともいう)によって異なる。
ここで、MVC(AVC)方式の参照ピクチャ(となりうる参照ピクチャ)と、参照インデクスについて説明する。
AVC方式では、予測画像を生成するときに、複数のピクチャを、参照ピクチャとすることができる。
そして、AVC方式のコーデックでは、参照ピクチャは、デコード(ローカルデコード)後に、DPBと呼ばれるバッファに記憶される。
DPBでは、短期間に参照されるピクチャは、短時間参照ピクチャ(used for short-term reference)として、長期間にわたって参照されるピクチャは、長時間参照ピクチャ(used for long-term reference)として、参照されないピクチャは、非参照ピクチャ(unused for reference)として、それぞれマーキングされる。
DPBを管理する管理方式としては、移動窓メモリ管理方式(Sliding window process)と、適応メモリ管理方式(Adaptive memory control process)との2種類がある。
移動窓メモリ管理方式では、DPBが、FIFO(First In First Out)方式で管理され、DPBに記憶されたピクチャは、frame_numの小さいピクチャから順に開放される(非参照ピクチャとなる)。
すなわち、移動窓メモリ管理方式では、I(Intra)ピクチャ、P(Predictive)ピクチャ、及び、参照可能なB(Bi-directional Predictive)ピクチャであるBsピクチャは、短時間参照ピクチャとして、DPBに記憶される。
そして、DPBが参照ピクチャ(となりうるピクチャ)を記憶することができるだけの参照ピクチャが記憶された後は、DPBに記憶された短時間参照ピクチャの中で、最も早く(古い)短時間参照ピクチャが開放される。
なお、DPBに、長時間参照ピクチャが記憶されている場合、移動窓メモリ管理方式は、DPBに記憶されている長時間参照ピクチャには、影響しない。すなわち、移動窓メモリ管理方式において、参照ピクチャの中で、FIFO方式で管理されるのは、短時間参照ピクチャだけである。
適応メモリ管理方式では、MMCO(Memory management control operation)と呼ばれるコマンドを用いて、DPBに記憶されるピクチャが管理される。
MMCOコマンドによれば、DPBに記憶される参照ピクチャを対象として、短時間参照ピクチャを非参照ピクチャに設定することや、短時間参照ピクチャに対し、長時間参照ピクチャを管理するための参照インデクスであるlong-term frame indexを割り当てることで、短時間参照ピクチャを長時間参照ピクチャに設定すること、long-term frame indexの最大値を設定すること、すべての参照ピクチャを非参照ピクチャに設定すること等を行うことができる。
AVC方式では、DPBに記憶された参照ピクチャの動き補償を行うことで、予測画像を生成するインター予測が行われるが、Bピクチャ(Bsピクチャを含む)のインター予測には、最大で、2ピクチャの参照ピクチャを用いることができる。その2ピクチャの参照ピクチャを用いるインター予測は、それぞれ、L0(List 0)予測、及び、L1(List 1)予測と呼ばれる。
Bピクチャ(Bsピクチャを含む)については、インター予測として、L0予測、若しくは、L1予測、又は、L0予測とL1予測との両方が用いられる。Pピクチャについては、インター予測として、L0予測だけが用いられる。
インター予測において、予測画像の生成に参照する参照ピクチャは、参照リスト(Reference Picture List)により管理される。
参照リストでは、予測画像の生成に参照する参照ピクチャを指定するためのインデクスである参照インデクス(Reference Index)が、DPBに記憶された参照ピクチャに割り当てられる。
対象ピクチャが、Pピクチャである場合、上述したように、Pピクチャについては、インター予測として、L0予測だけが用いられるので、参照インデクスの割り当ては、L0予測についてだけ行われる。
また、対象ピクチャが、Bピクチャ(Bsピクチャを含む)である場合、上述したように、Bピクチャについては、インター予測として、L0予測とL1予測との両方が用いられることがあるので、参照インデクスの割り当ては、L0予測とL1予測との両方について行われる。
ここで、L0予測についての参照インデクスを、L0インデクスともいい、L1予測についての参照インデクスを、L1インデクスともいう。
対象ピクチャが、Pピクチャである場合、AVC方式のデフォルト(規定値)では、DPBに記憶された参照ピクチャに対し、復号順が後の参照ピクチャほど、値が小さい参照インデクス(L0インデクス)が割り当てられる。
参照インデクスは、0以上の整数値であり、最小値は、0である。したがって、対象ピクチャが、Pピクチャである場合には、対象ピクチャの直前に復号された参照ピクチャに、L0インデクスとして、0が割り当てられる。
対象ピクチャが、Bピクチャ(Bsピクチャを含む)である場合、AVCのデフォルトでは、DPBに記憶された参照ピクチャに対し、POC(Picture Order Count)順、つまり、表示順に、参照インデクス(L0インデクス、及び、L1インデクス)が割り当てられる。
すなわち、L0予測については、表示順で、対象ピクチャの時間的に前の参照ピクチャに対し、対象ピクチャに近い参照ピクチャほど、値が小さいL0インデクスが割り当てられ、その後、表示順で、対象ピクチャの時間的に後の参照ピクチャに対し、対象ピクチャに近い参照ピクチャほど、値が小さいL0インデクスが割り当てられる。
また、L1予測については、表示順で、対象ピクチャの時間的に後の参照ピクチャに対し、対象ピクチャに近い参照ピクチャほど、値が小さいL1インデクスが割り当てられ、その後、表示順で、対象ピクチャの時間的に前の参照ピクチャに対し、対象ピクチャに近い参照ピクチャほど、値が小さいL1インデクスが割り当てられる。
なお、以上のAVC方式のデフォルトでの参照インデクス(L0インデクス、及び、L1インデクス)の割り当ては、短時間参照ピクチャを対象として行われる。長時間参照ピクチャへの参照インデクスの割り当ては、短時間参照ピクチャに、参照インデクスが割り当てられた後に行われる。
したがって、AVCのデフォルトでは、長時間参照ピクチャには、短時間参照ピクチャよりも大きい値の参照インデクスが割り当てられる。
AVC方式において、参照インデクスの割り当てとしては、以上のようなデフォルトの方法で割り当てを行う他、Reference Picture List Reorderingと呼ばれるコマンド(以下、RPLRコマンドともいう)を用いて、任意の割り当てを行うことができる。
なお、RPLRコマンドを用いて、参照インデクスの割り当てが行われた後、参照インデクスが割り当てられていない参照ピクチャがある場合には、その参照ピクチャには、参照インデクスが、デフォルトの方法で割り当てられる。
いま、図10に示すように、マクロブロックX(図10において影を付してあるブロック)が対象ブロックであるとすると、その対象ブロックXのずれベクトルmvXの予測ベクトルPMVXは、対象ブロックXの上に隣接するマクロブロックA、左に隣接するマクロブロックB、及び、右斜め上に隣接するマクロブロックCそれぞれの予測用の参照インデクス(マクロブロックA,B、及び、Cそれぞれの予測画像の生成に用いられた参照ピクチャに割り当てられていた参照インデクス)によって異なる方法で求められる。
例えば、いま、対象ブロックXの予測用の参照インデクスref_idxが0であるとする。
図10のAに示すように、対象ブロックXに隣接する3つのマクロブロックAないしCの中に、予測用の参照インデクスref_idxが対象ブロックXと同一の0のマクロブロックが、1つだけ存在する場合には、その1つのマクロブロック(予測用の参照インデクスref_idxが0のマクロブロック)のずれベクトルが、対象ブロックXのずれベクトルmvXの予測ベクトルPMVXとされる。
ここで、図10のAでは、対象ブロックXに隣接する3つのマクロブロックAないしCのうちの、マクロブロックAだけが、予測用の参照インデクスref_idxが0のマクロブロックになっており、そのため、マクロブロックAのずれベクトルmvAが、対象ブロックX(のずれベクトルmvX)の予測ベクトルPMVXとされる。
また、図10のBに示すように、対象ブロックXに隣接する3つのマクロブロックAないしCの中に、予測用の参照インデクスref_idxが対象ブロックXと同一の0のマクロブロックが、2つ以上存在する場合には、その、予測用の参照インデクスref_idxが0の2つ以上のマクロブロックのずれベクトルのメディアンが、対象ブロックXの予測ベクトルPMVXとされる。
ここで、図10のBでは、対象ブロックXに隣接する3つのマクロブロックAないしCのすべてが、予測用の参照インデクスref_idxが0のマクロブロックになっており、そのため、マクロブロックAのずれベクトルmvA、マクロブロックBのずれベクトルmvB、及び、マクロブロックCのずれベクトルmvCのメディアンmed(mvA,mvB,mvC)が、対象ブロックXの予測ベクトルPMVXとされる。
また、図10のCに示すように、対象ブロックXに隣接する3つのマクロブロックAないしCの中に、予測用の参照インデクスref_idxが対象ブロックXと同一の0のマクロブロックが、1つも存在しない場合には、0ベクトルが、対象ブロックXの予測ベクトルPMVXとされる。
ここで、図10のCでは、対象ブロックXに隣接する3つのマクロブロックAないしCの中に、予測用の参照インデクスref_idxが0のマクロブロックは存在しないので、0ベクトルが、対象ブロックXの予測ベクトルPMVXとされる。
なお、MVC(AVC)方式では、値が0の参照インデクスrev_idxが割り当てられた参照ピクチャを用いて、対象ブロックの符号化を行う場合には、対象ブロックを、スキップマクロブロックとすることができる。
スキップマクロブロックについては、予測画像との残差も、ずれベクトルの情報も符号化されない。そして、復号時には、予測ベクトルが、そのまま、スキップマクロブロックのずれベクトルに採用され、参照ピクチャの、スキップマクロブロックの位置からずれベクトルだけずれた位置のブロック(対応ブロック)のコピーが、スキップマクロブロックの復号結果とされる。
対象ブロックをスキップマクロブロックとするか否かは、エンコーダの仕様によるが、例えば、符号化データの符号量や、対象ブロックの符号化コスト等に基づいて決定(判定)される。
[エンコーダ22の構成例]
図11は、図4のエンコーダ22の構成例を示すブロック図である。
エンコーダ22は、符号化対象の画像である視点#2の視差画像D#2の符号化を、MVC方式を利用して行う。
図11において、エンコーダ22は、A/D変換部211、画面並び替えバッファ212、演算部213、直交変換部214、量子化部215、可変長符号化部216、蓄積バッファ217、逆量子化部218、逆直交変換部219、演算部220、デブロッキングフィルタ221、画面内予測部222、インター予測部223、予測画像選択部224、マッピング情報生成部231、及び、補正部232を有する。
A/D変換部211ないし予測画像選択部224は、図7のエンコーダ11のA/D変換部111ないし予測画像選択部124と、それぞれ同様に構成されるので、その説明は、適宜省略する。
図11において、DPB31には、デブロッキングフィルタ221から、デコード画像、すなわち、エンコーダ22において符号化されてローカルデコードされた視差画像(以下、デコード視差画像ともいう)D#2のピクチャが供給され、参照ピクチャ(となりうるピクチャ)として記憶される。
また、DPB31には、図4や図7で説明したように、エンコーダ11において符号化されてローカルデコードされた色画像C#1のピクチャ、エンコーダ12において符号化されてローカルデコードされた色画像C#2のピクチャ、及び、エンコーダ21において符号化されてローカルデコードされた視差画像(デコード視差画像)D#1のピクチャも供給されて記憶される。
マッピング情報生成部231には、視差関連情報(図4)としての、エンコーダ22の符号化対象の視差画像D#2の撮影視差ベクトルd(視点#2の撮影視差ベクトルd2)の最大値dmax及び最小値dmin等が供給される。
マッピング情報生成部231は、視差関連情報に基づいて、視差画像D#2の画素値である視差値νが取り得る規定値の情報を求め、マッピング情報として、補正部232に供給する。
すなわち、マッピング情報生成部231は、視差画像D#2の撮影視差ベクトルdの最大値dmaxと最小値dminとに応じて、式(1)の視差値νが取り得る規定値を求め、各規定値と、その規定値に変換(マッピング)される撮影視差ベクトルdとの対応を表した一覧等を、マッピング情報として生成し、補正部232に供給する。
なお、視差関連情報(のうちの、少なくともマッピング情報を生成するのに必要な情報である撮影視差ベクトルdの最大値dmax及び最小値dmin)は、マッピング情報生成部231に供給される他、可変長符号化部216にも供給される。可変長符号化部216では、視差関連情報が、ヘッダ情報として、符号化データのヘッダに含められる。
補正部232には、マッピング情報生成部231からマッピング情報が供給される他、演算部220から、対象ブロックを復号(ローカルデコード)したデコード画像(デコード視差画像D#2)が供給される。
さらに、補正部232には、画面並び替えバッファ212から、原画像としての視差画像D#2の対象ピクチャが供給される。
補正部232は、マッピング情報生成部231からのマッピング情報、及び、画面並び替えバッファ212からの対象ピクチャにおける対象ブロック(以下、原対象ブロックともいう)を用いて、演算部220からの対象ブロックのデコード画像(以下、復号後対象ブロックともいう)の画素値である復号後画素値を補正し、その補正後の対象ブロック(以下、補正後対象ブロックともいう)を、デブロッキングフィルタ221に供給する。
また、補正部232は、復号後画素値の補正に関する補正フラグを生成し、ヘッダ情報として、可変長符号化部216に供給する。
ここで、可変長符号化部216では、ヘッダ情報としての補正フラグが、符号化データのヘッダに含められる。
なお、図4のエンコーダ21も、図11のエンコーダ22と同様に構成される。但し、ベースビューの画像である視差画像D#1を符号化するエンコーダ21では、インター予測において、視差予測は行われない。
図12は、図11の補正部232の構成例を示すブロック図である。
図12において、補正部232は、画素値変更部251、及び、画素値補正部252を有する。
画素値変更部251には、演算部220から、対象ブロックのデコード視差画像D#2である復号後対象ブロックが供給されるとともに、マッピング情報生成部231から、マッピング情報が供給される。
画素値変更部251は、演算部220からの復号後対象ブロックの画素値である復号後画素値を、マッピング情報生成部231からのマッピング情報に基づいて規定値に変更し、その変更後の画素値である変更後画素値からなる対象ブロック(以下、変更後対象ブロックともいう)を、画素値補正部252に供給する。
ここで、変更後対象ブロックの画素値(変更後画素値)は、すべて規定値である。
画素値補正部252には、画面並び替えバッファ212から、対象ピクチャが供給されるとともに、演算部220から、復号後対象ブロックが供給される。
画素値補正部252は、画面並び替えバッファ212からの対象ピクチャにおける対象ブロック、すなわち、符号化前の対象ブロック(原画像である視差画像D#2の対象ブロック)である原対象ブロック、画素値変更部251からの、画素値が規定値に変更された変更後対象ブロック、及び、演算部220からの復号後対象ブロックに基づいて、復号後対象ブロックの画素値(復号後画素値)を補正し、その補正後の対象ブロックである補正後対象ブロックを、デブロッキングフィルタ221に供給する。
すなわち、画素値補正部252は、変更後対象ブロックの各画素値と、原対象ブロックの各画素値との差に対応するSAD(以下、変更後対象ブロックについてのSADともいう)と、復号後対象ブロックの各画素値と、原対象ブロックの各画素値との差に対応するSAD(以下、復号後対象ブロックについてのSADともいう)とに基づいて、復号後対象ブロックについてのSADが、変更後対象ブロックについてのSAD以下であれば、復号後対象ブロックを、補正後対象ブロックとする(復号後対象ブロックの画素値をそのままとする)。
一方、復号後対象ブロックについてのSADが、変更後対象ブロックについてのSAD以下でなければ、画素値補正部252は、変更後対象ブロックを、補正後対象ブロックとする(復号後対象ブロックの画素値を、変更後対象ブロックの画素値である規定値に補正する)。
以上のように、画素値補正部252では、復号後対象ブロックの(画素値の)、原対象ブロック(の画素値)に対する誤差としてのSADが、変更後対象ブロックの(画素値の)、原対象ブロック(の画素値)に対する誤差としてのSAD以下であれば、復号後対象ブロックは、補正されず、そのまま、補正後対象ブロックとされる。
また、画素値補正部252では、復号後対象ブロックの(画素値の)、原対象ブロックに対する誤差が、変更後対象ブロックの、原対象ブロックに対する誤差以下でなければ、復号後対象ブロックは補正され、画素値がすべて規定値になっている変更後対象ブロックとされる。
画素値補正部252は、その他、補正後対象ブロック(の画素値)が、変更後対象ブロック(の画素値である規定値)に補正されているのか、又は、復号後対象ブロック(の画素値)のままであるのかを表す補正フラグを生成し、可変長符号化部216に供給する。
図13は、図11のマッピング情報生成部231が生成するマッピング情報の例を示す図である。
マッピング情報生成部231は、視差画像D#2の撮影視差ベクトルdの最大値dmaxと最小値dminとに応じて、式(1)の視差値νが取り得る規定値を求め、各規定値と、その規定値にされる撮影視差ベクトルdとの対応を表した一覧を、マッピング情報として生成する。
図13のマッピング情報によれば、撮影視差ベクトルd=dmin,dmin+1,dmin+2,・・・が、それぞれ、視差画像D#2において、規定値である視差値ν=0,5,10,・・・に変換(マッピング)されていることを認識することができる。
図14は、図11のエンコーダ22が行う、視点#2の視差画像D#2を符号化する符号化処理を説明するフローチャートである。
ステップS11において、A/D変換部211は、そこに供給される視点#2の視差画像D#2のピクチャのアナログ信号をA/D変換し、画面並び替えバッファ212に供給して、処理は、ステップS12に進む。
ステップS12では、画面並び替えバッファ212は、A/D変換部211からの視差画像D#2のピクチャを一時記憶し、あらかじめ決められたGOPの構造に応じて、ピクチャを読み出すことで、ピクチャの並びを、表示順から、符号化順(復号順)に並び替える並び替えを行う。
画面並び替えバッファ212から読み出されたピクチャは、演算部213、画面内予測部222、インター予測部223、及び、補正部232に供給され、処理は、ステップS12からステップS13に進む。
ステップS13では、演算部213は、画面並び替えバッファ212からの視差画像D#2のピクチャを、符号化対象の対象ピクチャとし、さらに、対象ピクチャを構成するマクロブロックを、順次、符号化対象の対象ブロックとする。
そして、演算部213は、対象ブロックの画素値と、予測画像選択部224から供給される予測画像の画素値との差分(残差)を、必要に応じて演算し、直交変換部214に供給して、処理は、ステップS13からステップS14に進む。
ステップS14では、直交変換部214は、演算部213からの対象ブロックに対して直交変換を施し、その結果得られる変換係数を、量子化部215に供給して、処理は、ステップS15に進む。
ステップS15において、量子化部215は、直交変換部214から供給される変換係数を量子化し、その結果得られる量子化値を、逆量子化部218、及び、可変長符号化部216に供給して、処理は、ステップS16に進む。
ステップS16では、逆量子化部218は、量子化部215からの量子化値を、変換係数に逆量子化し、逆直交変換部219に供給して、処理は、ステップS17に進む。
ステップS17では、逆直交変換部219は、逆量子化部218からの変換係数を逆直交変換し、演算部220に供給して、処理は、ステップS18に進む。
ステップS18では、演算部220は、逆直交変換部219から供給されるデータに対して、必要に応じて、予測画像選択部224から供給される予測画像の画素値を加算することで、対象ブロックを復号(ローカルデコード)したデコード視差画像D#2である復号後対象ブロックを求める。そして、演算部220は、復号後対象ブロックを、補正部232に供給して、処理は、ステップS18からステップS19に進む。
ステップS19では、マッピング情報生成部231は、視差関連情報に基づいて、視差画像D#2の対象ピクチャの画素値である視差値νが取り得る規定値の情報を求め、マッピング情報として、補正部232に供給して、処理は、ステップS20に進む。
ステップS20では、補正部232は、マッピング情報生成部231からのマッピング情報、及び、画面並び替えバッファ212からの対象ピクチャにおける対象ブロックである原対象ブロックを用いて、演算部220からの復号後対象ブロック(の画素値である復号後画素値)を補正する補正処理を行う。そして、補正部232は、補正処理後の対象ブロックである補正後対象ブロックを、デブロッキングフィルタ221に供給して、処理は、ステップS20からステップS21に進む。
ステップS21は、デブロッキングフィルタ221は、補正部232からの補正後対象ブロックとしてのデコード視差画像D#2をフィルタリングし、DPB31(図4)に供給して記憶させ、処理は、ステップS22に進む。
ステップS22では、画面内予測部222は、次に符号化の対象となるマクロブロックである次の対象ブロックについて、イントラ予測処理(画面内予測処理)を行う。
すなわち、画面内予測部222は、次の対象ブロックについて、DPB31に記憶されたデコード視差画像D#2のピクチャから、予測画像(イントラ予測の予測画像)を生成するイントラ予測(画面内予測)を行う。
そして、画面内予測部222は、イントラ予測の予測画像を用いて、対象ブロックを符号化するのに要する符号化コストを求め、イントラ予測の予測画像とともに、予測画像選択部224に供給して、処理は、ステップS22からステップS23に進む。
ステップS23では、インター予測部223は、次の対象ブロックについて、DPB31に記憶されたデコード視差画像D#1やD#2のピクチャを、参照ピクチャとして、インター予測処理を行う。
すなわち、インター予測部223は、次の対象ブロックについて、DPB31に記憶されたデコード視差画像D#1やD#2のピクチャを参照ピクチャとして用いて、インター予測(視差予測、時間予測)を行うことにより、マクロブロックタイプ等が異なるインター予測モードごとに、予測画像や符号化コスト等を求める。
さらに、インター予測部223は、符号化コストが最小のインター予測モードを、最適インター予測モードとして、その最適インター予測モードの予測画像を、符号化コストとともに、予測画像選択部224に供給して、処理は、ステップS23からステップS24に進む。
ステップS24では、予測画像選択部224は、画面内予測部222からの予測画像(イントラ予測の予測画像)、及び、インター予測部223からの予測画像(インター予測の予測画像)のうちの、例えば、符号化コストが小さい方の予測画像を選択し、演算部213及び220に供給して、処理は、ステップS25に進む。
ここで、予測画像選択部224がステップS27で選択する予測画像が、次の対象ブロックの符号化で行われるステップS13やS18の処理で用いられる。
また、画面内予測部222は、ステップS22のイントラ予測処理において得られるイントラ予測に関する情報を、ヘッダ情報として、可変長符号化部216に供給し、インター予測部223は、ステップS23のインター予測処理で得られるインター予測に関する情報(最適インター予測モードを表すモード関連情報や、ずれベクトル情報、予測用の参照インデクス等)を、ヘッダ情報として、可変長符号化部216に供給する。
ステップS25では、可変長符号化部216は、量子化部215からの量子化値に対して、可変長符号化を施し、符号化データを得る。
さらに、可変長符号化部216は、画面内予測部222、及び、インター予測部223それぞれからのヘッダ情報のうちの、符号化コストが小さい予測画像が生成された方からのヘッダ情報を選択し、符号化データのヘッダに含める。
また、可変長符号化部216は、視差関連情報や、ステップS20で行われる補正処理によって補正部232が出力する補正フラグを、符号化データのヘッダに含める。
そして、可変長符号化部216は、符号化データを、蓄積バッファ217に供給して、処理は、ステップS25からステップS26に進む。
ステップS26では、蓄積バッファ217は、可変長符号化部216からの符号化データを一時記憶し、所定のデータレートで出力する。
蓄積バッファ217から出力された符号化データは、多重化部32(図4)に供給される。
エンコーダ22では、以上のステップS11ないしS26の処理が、適宜繰り返し行われる。
図15は、図14のステップS20で、図12の補正部232が行う補正処理を説明するフローチャートである。
ステップS31において、補正部232(図12)は、演算部220からの、対象ブロックのデコード視差画像D#2である復号後対象ブロックを取得し、画素値変更部251、及び、画素値補正部252に供給して、処理は、ステップS32に進む。
ステップS32では、補正部232は、マッピング情報生成部231からのマッピング情報を取得し、画素値変更部251に供給して、処理は、ステップS33に進む。
ステップS33では、画素値変更部251は、演算部220からの復号後対象ブロックの画素値である復号後画素値を、マッピング情報生成部231からのマッピング情報に基づいて、規定値に変更する画素値変更処理を行う。
そして、画素値変更部251は、画素値変更処理によって得られる、規定値に変更された画素値である変更後画素値からなる対象ブロックである変更後対象ブロックを、画素値補正部252に供給して、処理は、ステップS34に進む。
ステップS34では、補正部232は、画面並び替えバッファ212からの対象ピクチャにおける対象ブロックである原対象ブロックを取得し、画素値補正部252に供給して、処理は、ステップS35に進む。
ステップS35では、画素値補正部252は、画面並び替えバッファ212からの原対象ブロック、画素値変更部251からの変更後対象ブロック、及び、演算部220からの復号後対象ブロックに基づいて、復号後対象ブロックの画素値(復号後画素値)を補正する画素値補正処理を行い、処理は、ステップS36に進む。
ステップS36では、画素値補正部252は、ステップS35の画素値補正処理によって得られる対象ブロックである補正後対象ブロックを、デブロッキングフィルタ221に供給して、処理は、ステップS37に進む。
ステップS37では、画素値補正部252は、ステップS35の画素値補正処理によって得られる、対象ブロックについての補正フラグを、可変長符号化部216に供給(出力)して、処理はリターンする。
図16は、図15のステップS33で、図12の画素値変更部251が行う画素値変更処理を説明するフローチャートである。
ステップS41において、画素値変更部251は、復号後対象ブロックから、まだ、注目画素に選択していない画素の1つを、注目画素に選択して、処理は、ステップS42に進む。
ステップS42では、画素値変更部251は、マッピング情報生成部231からのマッピング情報に基づいて、注目画素の画素値(復号後画素値)を挟む2つの規定値valueA及びvalueBを検出して、処理は、ステップS43に進む。
ここで、規定値valueAは、マッピング情報から得られる規定値の中で、注目画素の画素値以下(又は未満)の最大の規定値であり、規定値valueBは、マッピング情報から得られる規定値の中で、注目画素の画素値より大きい(又は以上の)最小の規定値である。
ステップS43では、画素値変更部251は、規定値valueAと注目画素の画素値Vとの差分絶対値|valueA-V|が、規定値valueBと注目画素の画素値Vとの差分絶対値|valueB-V|よりも大きいかどうかを判定する。
ステップS43において、差分絶対値|valueA-V|が、差分絶対値|valueB-V|より大きくないと判定された場合、すなわち、マッピング情報から得られる規定値の中で、注目画素の画素値Vの最近傍が、規定値valueAである場合、処理は、ステップS45に進み、画素値変更部251は、注目画素の画素値(復号後画素値)を、注目画素の画素値Vの最近傍である規定値valueAに変更して、処理は、ステップS47に進む。
したがって、この場合、注目画素の画素値Vの変更後の変更後画素値は、規定値valueAとなる。
一方、ステップS43において、差分絶対値|valueA-V|が、差分絶対値|valueB-V|より大きいと判定された場合、すなわち、マッピング情報から得られる規定値の中で、注目画素の画素値Vの最近傍が、規定値valueBである場合、処理は、ステップS46に進み、画素値変更部251は、注目画素の画素値(復号後画素値)を、注目画素の画素値Vの最近傍である規定値valueBに変更して、処理は、ステップS47に進む。
したがって、この場合、注目画素の画素値Vの変更後の変更後画素値は、規定値valueBとなる。
ステップS47では、画素値変更部251は、復号後対象ブロックの画素値(復号後画素値)を、すべて、変更後画素値に変更したかどうかを判定する。
ステップS47において、復号後対象ブロックの画素値のすべてを、まだ、変更後画素値に変更していないと判定された場合、処理は、ステップS41に戻り、以下、同様の処理が繰り返される。
また、ステップS47において、復号後対象ブロックの画素値のすべてを、変更後画素値に変更したと判定された場合、すなわち、復号後対象ブロックの画素値のすべてを、最近傍の規定値である変更後画素値に変更した変更後対象ブロックが得られた場合、画素値変更部251は、変更後対象ブロックを、画素値補正部252に供給して、処理はリターンする。
図17は、図15のステップS35で、図12の画素値補正部252が行う画素値補正処理を説明するフローチャートである。
ステップS51において、画素値補正部252は、演算部220からの復号後対象ブロックと、画面並び替えバッファ212からの原対象ブロックとのSAD(復号後対象ブロックについてのSAD)であるSAD1を求め、処理は、ステップS52に進む。
ステップS52では、画素値補正部252は、画素値変更部251からの変更後対象ブロックと、画面並び替えバッファ212からの原対象ブロックとのSAD(変更後対象ブロックについてのSAD)であるSAD2を求めて、処理は、ステップS53に進む。
ステップS53では、画素値補正部252は、復号後対象ブロックについてのSAD1が、変更後対象ブロックについてのSAD2以下であるかどうかを判定する。
ステップS53において、復号後対象ブロックについてのSAD1が、変更後対象ブロックについてのSAD2以下であると判定された場合、すなわち、復号後対象ブロックの(原対象ブロックに対する)誤差が、変更後対象ブロックの(原対象ブロックに対する)誤差以下であり、したがって、復号後対象ブロックの方が、変更後対象ブロックよりも画質が良い場合(復号後対象ブロックの方が、変更後対象ブロックよりも、原対象ブロックに似ている場合)、処理は、ステップS54に進み、画素値補正部252は、復号後対象ブロックを、補正後対象ブロックとして(復号後対象ブロックの画素値を補正せずにそのままとして)、処理は、ステップS55に進む。
ステップS55では、画素値補正部252は、補正後対象ブロックが復号後対象ブロックであり、補正されていない旨を表す値である、例えば、0を、補正フラグに設定し、処理はリターンする。
また、ステップS53において、復号後対象ブロックについてのSAD1が、変更後対象ブロックについてのSAD2以下でないと判定された場合、すなわち、復号後対象ブロックの(原対象ブロックに対する)誤差が、変更後対象ブロックの(原対象ブロックに対する)誤差より大きく、したがって、変更後対象ブロックの方が、復号後対象ブロックよりも画質が良い場合(変更後対象ブロックの方が、復号後対象ブロックよりも、原対象ブロックに似ている場合)、処理は、ステップS56に進み、画素値補正部252は、変更後対象ブロックを、補正後対象ブロックとして(復号後対象ブロックの画素値を、変更後対象ブロックの変更後画素値である規定値に補正して)、処理は、ステップS57に進む。
ステップS57では、画素値補正部252は、補正後対象ブロックが変更後対象ブロックであり、規定値に補正されている旨を表す値である、例えば、1を、補正フラグに設定し、処理はリターンする。
[本技術を適用した多視点画像デコーダの一実施の形態]
図18は、本技術を適用した多視点画像デコーダの一実施の形態の構成例を示すブロック図である。
図18の多視点画像デコーダは、例えば、MVC方式を利用して、複数の視点の画像を符号化したデータを復号するデコーダであり、以下では、MVC方式と同様の処理については、適宜、説明を省略する。
なお、多視点画像デコーダは、MVC方式を利用するデコーダに限定されるものではない。
図18の多視点画像デコーダでは、図4の多視点画像エンコーダが出力する多重化データが、2つの視点#1及び#2の色画像である視点#1の色画像C#1、及び、視点#2の色画像C#2、並びに、その2つの視点#1及び#2の視差情報画像である視点#1の視差画像D#1、及び、視点#2の視差画像D#2に復号される。
図18において、多視点画像デコーダは、分離部301、デコーダ311,312,321,322、及び、DPB331を有する。
図4の多視点画像エンコーダが出力する多重化データは、図示せぬ記録媒体や伝送媒体を介して、分離部301に供給される。
分離部301は、そこに供給される多重化データから、色画像C#1の符号化データ、色画像C#2の符号化データ、視差画像D#1の符号化データ、及び、視差画像D#2の符号化データを分離する。
そして、分離部301は、色画像C#1の符号化データをデコーダ311に、色画像C#2の符号化データをデコーダ312に、視差画像D#1の符号化データをデコーダ321に、視差画像D#2の符号化データをデコーダ322に、それぞれ供給する。
デコーダ311は、分離部301からの色画像C#1の符号化データを復号し、その結果得られる色画像C#1を出力する。
デコーダ312は、分離部301からの色画像C#2の符号化データを復号し、その結果得られる色画像C#2を出力する。
デコーダ321は、分離部301からの視差画像D#1の符号化データを復号し、その結果得られる視差画像D#1を出力する。
デコーダ322は、分離部301からの視差画像D#2の符号化データを復号し、その結果得られる視差画像D#2を出力する。
DPB331は、デコーダ311,312,321、及び、322それぞれで、復号対象の画像を復号することにより得られる復号後の画像(デコード画像)を、予測画像の生成時に参照する参照ピクチャの候補として一時記憶する。
すなわち、デコーダ311,312,321、及び、322は、それぞれ、図4のエンコーダ11,12,21、及び、22で予測符号化された画像を復号する。
予測符号化された画像を復号するには、その予測符号化で用いられた予測画像が必要であるため、デコーダ311,312,321、及び、322は、予測符号化で用いられた予測画像を生成するために、復号対象の画像を復号した後、予測画像の生成に用いる復号後の画像(デコード画像)を、DPB331に一時記憶させる。
DPB331は、デコーダ311,312,321、及び、322それぞれで得られる復号後の画像(デコード画像)を一時記憶する共用のバッファであり、デコーダ311,312,321、及び、322それぞれは、DPB331に記憶されたデコード画像から、復号対象の画像を復号するのに参照する参照ピクチャを選択し、その参照ピクチャを用いて、予測画像を生成する。
DPB331は、デコーダ311,312,321、及び、322で共用されるので、デコーダ311,312,321、及び、322それぞれは、自身で得られたデコード画像の他、他のデコーダで得られたデコード画像をも参照することができる。
[デコーダ311の構成例]
図19は、図18のデコーダ311の構成例を示すブロック図である。
なお、図18のデコーダ312も、デコーダ311と同様に構成され、例えば、MVC方式に従って、画像の符号化を行う。
図19において、デコーダ311は、蓄積バッファ341、可変長復号部342、逆量子化部343、逆直交変換部344、演算部345、デブロッキングフィルタ346、画面並び替えバッファ347、D/A変換部348、画面内予測部349、インター予測部350、及び、予測画像選択部351を有する。
蓄積バッファ341には、分離部301(図18)から、色画像C#1の符号化データが供給される。
蓄積バッファ341は、そこに供給される符号化データを一時記憶し、可変長復号部342に供給する。
可変長復号部342は、蓄積バッファ341からの符号化データを可変長復号することにより、量子化値やヘッダ情報を復元する。そして、可変長復号部342は、量子化値を、逆量子化部343に供給し、ヘッダ情報を、画面内予測部349、及び、インター予測部350に供給する。
逆量子化部343は、可変長復号部342からの量子化値を、変換係数に逆量子化し、逆直交変換部344に供給する。
逆直交変換部344は、逆量子化部343からの変換係数を逆直交変換し、マクロブロック単位で、演算部345に供給する。
演算部345は、逆直交変換部344から供給されるマクロブロックを復号対象の対象ブロックとして、その対象ブロックに対して、必要に応じて、予測画像選択部351から供給される予測画像を加算することで、デコード画像を求め、デブロッキングフィルタ346に供給する。
デブロッキングフィルタ346は、演算部345からのデコード画像に対して、例えば、図7のデブロッキングフィルタ121と同様のフィルタリングを行い、そのフィルタリング後のデコード画像を、画面並び替えバッファ347に供給する。
画面並び替えバッファ347は、デブロッキングフィルタ346からのデコード画像のピクチャを一時記憶して読み出すことで、ピクチャの並びを、元の並び(表示順)に並び替え、D/A(Digital/Analog)変換部348に供給する。
D/A変換部348は、画面並び替えバッファ347からのピクチャをアナログ信号で出力する必要がある場合に、そのピクチャをD/A変換して出力する。
また、デブロッキングフィルタ346は、フィルタリング後のデコード画像のうちの、参照可能ピクチャであるIピクチャ、Pピクチャ、及び、Bsピクチャのデコード画像を、DPB331に供給する。
ここで、DPB331は、デブロッキングフィルタ346からのデコード画像のピクチャ、すなわち、色画像C#1のピクチャを、時間的に後に行われる復号に用いる予測画像を生成するときに参照する参照ピクチャの候補として記憶する。
図18で説明したように、DPB331は、デコーダ311,312,321、及び、322で共用されるので、デコーダ311において復号された色画像C#1のピクチャの他、デコーダ312において復号された色画像C#2のピクチャ、デコーダ321において復号された視差画像D#1のピクチャ、及び、デコーダ322において復号された視差画像D#2のピクチャも記憶する。
画面内予測部349は、可変長復号部342からのヘッダ情報に基づき、対象ブロックが、イントラ予測(画面内予測)で生成された予測画像を用いて符号化されているかどうかを認識する。
対象ブロックが、イントラ予測で生成された予測画像を用いて符号化されている場合、画面内予測部349は、図7の画面内予測部122と同様に、DPB331から、対象ブロックを含むピクチャ(対象ピクチャ)のうちの、既に復号されている部分(デコード画像)を読み出す。そして、画面内予測部349は、DPB331から読み出した、対象ピクチャのうちのデコード画像の一部を、対象ブロックの予測画像として、予測画像選択部351に供給する。
インター予測部350は、可変長復号部342からのヘッダ情報に基づき、対象ブロックが、インター予測で生成された予測画像を用いて符号化されているかどうかを認識する。
対象ブロックが、インター予測で生成された予測画像を用いて符号化されている場合、インター予測部350は、可変長復号部342からのヘッダ情報に基づき、予測用の参照インデクス、すなわち、対象ブロックの予測画像の生成に用いられた参照ピクチャに割り当てられている参照インデクスを認識する。
そして、インター予測部350は、DPB331に記憶されている参照ピクチャから、予測用の参照インデクスが割り当てられている参照ピクチャを読み出す。
さらに、インター予測部350は、可変長復号部342からのヘッダ情報に基づき、対象ブロックの予測画像の生成に用いられたずれベクトル(視差ベクトル、動きベクトル)を認識し、図7のインター予測部123と同様に、そのずれベクトルに従って、参照ピクチャのずれ補償(動き分のずれを補償する動き補償、又は、視差分のずれを補償する視差補償)を行うことで、予測画像を生成する。
すなわち、インター予測部350は、参照ピクチャの、対象ブロックの位置から、その対象ブロックのずれベクトルに従って移動した(ずれた)位置のブロック(対応ブロック)を、予測画像として取得する。
そして、インター予測部350は、予測画像を、予測画像選択部351に供給する。
予測画像選択部351は、画面内予測部349から予測画像が供給される場合には、その予測画像を、インター予測部350から予測画像が供給される場合には、その予測画像を、それぞれ選択し、演算部345に供給する。
[デコーダ322の構成例]
図20は、図18のデコーダ322の構成例を示すブロック図である。
デコーダ322は、復号対象である視点#2の視差画像D#2の符号化データの復号を、MVC方式を利用して、すなわち、図11のエンコーダ22で行われるローカルデコードと同様にして行う。
図20において、デコーダ322は、蓄積バッファ441、可変長復号部442、逆量子化部443、逆直交変換部444、演算部445、デブロッキングフィルタ446、画面並び替えバッファ447、D/A変換部448、画面内予測部449、インター予測部450、予測画像選択部451、マッピング情報生成部461、及び、補正部462を有する。
蓄積バッファ441ないし予測画像選択部451は、図19の蓄積バッファ341ないし予測画像選択部351と、それぞれ同様に構成されるので、その説明は、適宜省略する。
図20において、DPB331には、デブロッキングフィルタ446から、デコード画像、すなわち、デコーダ322において復号された視差画像であるデコード視差画像D#2のピクチャが供給され、参照ピクチャとして記憶される。
また、DPB331には、図18や図19で説明したように、デコーダ311において復号された色画像C#1のピクチャ、デコーダ312において復号された色画像C#2のピクチャ、及び、デコーダ321において復号された視差画像(デコード視差画像)D#1のピクチャも供給されて記憶される。
マッピング情報生成部461には、可変長復号部442からヘッダ情報に含まれる視差関連情報(図4)としての、エンコーダ322の復号対象の視差画像D#2の撮影視差ベクトルd(視点#2の撮影視差ベクトルd2)の最大値dmax及び最小値dmin等が供給される。
マッピング情報生成部461は、図11のマッピング情報生成部231と同様にして、視差関連情報に基づいて、視差画像D#2の画素値である視差値νが取り得る規定値の情報であるマッピング情報を求め、補正部462に供給する。
補正部462には、マッピング情報生成部461からマッピング情報が供給される他、演算部445から、対象ブロックを復号したデコード画像(デコード視差画像D#2)が供給される。
さらに、補正部462には、可変長復号部442からヘッダ情報に含まれる補正フラグが供給される。
補正部462は、可変長復号部442からの補正フラグに従い、マッピング情報生成部461からのマッピング情報を用いて、演算部445からの対象ブロックのデコード画像である復号後対象ブロック(の画素値である復号後画素値)を、図11の補正部232と同様に補正し、その補正後の対象ブロックである補正後対象ブロックを、デブロッキングフィルタ446に供給する。
なお、図18のデコーダ321も、図20のデコーダ322と同様に構成される。但し、ベースビューの画像である視差画像D#1を復号するデコーダ321では、エンコーダ21と同様に、インター予測において、視差予測は行われない。
図21は、図20の補正部462の構成例を示すブロック図である。
図21において、補正部462は、画素値補正部471を有する。
画素値補正部471には、演算部445から、対象ブロックのデコード視差画像D#2である復号後対象ブロックが供給されるとともに、マッピング情報生成部461から、マッピング情報が供給される。
さらに、画素値補正部471には、可変長復号部442から補正フラグが供給される。
画素値補正部471は、可変長復号部422からの補正フラグから、対象ブロック(復号後対象ブロック)の補正フラグを取得し、その補正フラグに従って、演算部445からの復号後対象ブロックを補正し、その補正後の対象ブロックである補正後対象ブロックを、デブロッキングフィルタ446に供給する。
図22は、図20のデコーダ322が行う、視点#2の視差画像D#2の符号化データを復号する復号処理を説明するフローチャートである。
ステップS111において、蓄積バッファ441は、そこに供給される視点#2の視差画像D#2の符号化データを記憶し、処理は、ステップS112に進む。
ステップS112では、可変長復号部442は、蓄積バッファ441に記憶された符号化データを読み出して可変長復号することにより、量子化値やヘッダ情報を復元する。そして、可変長復号部442は、量子化値を、逆量子化部443に供給し、ヘッダ情報を、画面内予測部449、インター予測部450、マッピング情報生成部461、及び、補正部462に供給して、処理は、ステップS113に進む。
ステップS113では、逆量子化部443は、可変長復号部442からの量子化値を、変換係数に逆量子化し、逆直交変換部444に供給して、処理は、ステップS114に進む。
ステップS114では、逆直交変換部444は、逆量子化部443からの変換係数を逆直交変換し、マクロブロック単位で、演算部445に供給して、処理は、ステップS115に進む。
ステップS115では、演算部445は、逆直交変換部444からのマクロブロックを復号対象の対象ブロック(残差画像)として、その対象ブロックに対して、必要に応じて、予測画像選択部451から供給される予測画像を加算することで、対象ブロックのデコード視差画像D#2である復号後対象ブロックを求める。そして、演算部445は、復号後対象ブロックを、補正部462に供給し、処理は、ステップS115からステップS116に進む。
ステップS116では、マッピング情報生成部461は、可変長復号部442からのヘッダ情報に含まれる視差関連情報としての、エンコーダ322の復号対象の視差画像D#2の撮影視差ベクトルd(視点#2の撮影視差ベクトルd2)の最大値dmax及び最小値dminに基づき、図11のマッピング情報生成部231と同様にして、視差画像D#2の画素値である視差値νが取り得る規定値の情報であるマッピング情報を求める。そして、マッピング情報生成部461は、マッピング情報を、補正部462に供給して、処理は、ステップS117に進む。
ステップS117では、補正部462は、可変長復号部442からのヘッダ情報に含まれる補正フラグに従い、マッピング情報生成部461からのマッピング情報を用いて、演算部445からの復号後対象ブロックを、図11の補正部232と同様にして補正する補正処理を行う。そして、補正部462は、補正後の復号後対象ブロックである補正後対象ブロックを、デブロッキングフィルタ446に供給して、処理は、ステップS117からステップS118に進む。
ステップS118では、デブロッキングフィルタ446は、補正部462からの補正後対象ブロックのデコード視差画像D#2に対して、フィルタリングを行い、そのフィルタリング後のデコード視差画像D#2を、DPB331、及び、画面並び替えバッファ447に供給して、処理は、ステップS119に進む。
ステップS119では、画面内予測部449、及び、インター予測部450が、可変長復号部442から供給されるヘッダ情報に基づき、次の対象ブロック(次に復号対象となるマクロブロック)が、イントラ予測(画面内予測)、及び、インター予測のうちのいずれの予測方式で生成された予測画像を用いて符号化されているかを認識する。
そして、次の対象ブロックが、画面内予測で生成された予測画像を用いて符号化されている場合には、画面内予測部449が、イントラ予測処理(画面内予測処理)を行う。
すなわち、画面内予測部449は、次の対象ブロックについて、DPB331に記憶されたデコード視差画像D#2のピクチャから、予測画像(イントラ予測の予測画像)を生成するイントラ予測(画面内予測)を行い、その予測画像を、予測画像選択部451に供給して、処理は、ステップS119からステップS120に進む。
また、次の対象ブロックが、インター予測で生成された予測画像を用いて符号化されている場合には、インター予測部450が、インター予測処理を行う。
すなわち、インター予測部450は、次の対象ブロックについて、DPB331に記憶されたデコード視差画像D#1やD#2のピクチャのうちの、可変長復号部442からのヘッダ情報に含まれる、次の対象ブロックの予測用の参照インデクスが割り当てられているピクチャを参照ピクチャに選択する。
さらに、インター予測部450は、可変長復号部442からのヘッダ情報に含まれるモード関連情報、及び、ずれベクトル情報を用いて、インター予測(視差補償、動き補償)を行うことにより、予測画像を生成し、その予測画像を、予測画像選択部451に供給して、処理は、ステップS119からステップS120に進む。
ステップS120では、予測画像選択部451は、画面内予測部449、及び、インター予測部450のうちの、予測画像が供給される方からの、その予測画像を選択し、演算部445に供給して、処理は、ステップS121に進む。
ここで、予測画像選択部451がステップS120で選択する予測画像が、次の対象ブロックの復号で行われるステップS115の処理で用いられる。
ステップS121では、画面並び替えバッファ447が、デブロッキングフィルタ446からのデコード視差画像D#2のピクチャを一時記憶して読み出すことで、ピクチャの並びを、元の並びに並び替え、D/A変換部448に供給して、処理は、ステップS122に進む。
ステップS122では、D/A変換部348は、画面並び替えバッファ447からのピクチャをアナログ信号で出力する必要がある場合に、そのピクチャをD/A変換して出力する。
デコーダ322では、以上のステップS111ないしS122の処理が、適宜繰り返し行われる。
図23は、図22のステップS117で、図21の補正部462が行う補正処理を説明するフローチャートである。
ステップS131において、補正部462(図21)は、演算部445からの、対象ブロックのデコード視差画像D#2である復号後対象ブロックを取得し、画素値補正部471に供給して、処理は、ステップS132に進む。
ステップS132では、補正部462は、マッピング情報生成部461からの、マッピング情報を取得し、画素値補正部471に供給して、処理は、ステップS133に進む。
ステップS133では、補正部462は、可変長復号部442からのヘッダ情報に含まれる(復号後対象ブロックの)補正フラグを取得し、画素値補正部471に供給して、処理は、ステップS134に進む。
ステップS134では、画素値補正部471は、可変長復号部442からの補正フラグに従い、必要に応じて、マッピング情報生成部461からのマッピング情報を用いて、演算部445からの復号後対象ブロックを補正する画素値補正処理を行い、処理は、ステップS135に進む。
ステップS135では、画素値補正部471は、ステップS134の画素値補正処理によって得られる対象ブロックである補正後対象ブロックを、デブロッキングフィルタ446に供給して、処理はリターンする。
図24は、図23のステップS134で、図21の画素値補正部471が行う画素値補正処理を説明するフローチャートである。
ステップS141において、画素値補正部471は、可変長復号部442からの補正フラグが0及び1のうちのいずれであるかを判定する。
ステップS141において、補正フラグが0であると判定された場合、すなわち、視差画像D#2を符号化するエンコーダ22において、復号後対象ブロックが補正されていない場合、処理は、ステップS142に進み、画素値補正部471は、復号後対象ブロックを補正した補正後対象ブロックとして、演算部445からの復号後対象ブロックを、そのまま採用し、処理はリターンする。
また、ステップS141において、補正フラグが1であると判定された場合、すなわち、視差画像D#2を符号化するエンコーダ22において、復号後対象ブロックが規定値に補正されている場合、処理は、ステップS143に進み、画素値補正部471は、演算部445からの復号後対象ブロック、及び、マッピング情報生成部461からのマッピング情報を用い、図16と同様の画素値変更処理を行う。
画素値補正部471が、画素値変更処理によって、図16で説明したのと同様の、演算部445からの復号後対象ブロックの画素値のすべてを、最近傍の規定値である変更後画素値に変更した変更後対象ブロックを得ると、処理は、ステップS143からステップS144に進む。
ステップS144では、画素値補正部471は、復号後対象ブロックを補正した補正後対象ブロックとして、ステップS143の変更後対象ブロックで得られた変更後対象ブロックを採用し、処理はリターンする。
図25ないし図27は、符号化データがMVC(AVC)方式の符号化データである場合に、そのヘッダに含められる補正フラグを示している。
ここで、規定値への補正は、マクロブロックを最小単位として行うことができる。
また、規定値への補正は、対象ブロックを8×8画素のパーティション以上のサイズに分割するマクロブロックタイプ(8×8以上タイプ)、すなわち、対象ブロックを8×8画素のパーティションに分割するマクロブロックタイプ(8×8タイプ)や、対象ブロックを16×8画素のパーティションに分割するマクロブロックタイプ(16×8タイプ)、対象ブロックを8×16画素のパーティションに分割するマクロブロックタイプ(8×16タイプ)等のパーティションを最小単位として行うことができる。
さらに、規定値への補正は、対象ブロックを8×8画素のパーティションより小さいサイズのパーティション、すなわち、8×4画素、4×8画素、又は4×4画素のサブパーティションに分割するマクロブロックタイプ(8×8未満タイプ)のパーティション(サブパーティション)を最小単位として行うことができる。
規定値への補正を、マクロブロックを最小単位として行う場合、補正フラグは、マクロブロックを最小単位として設定される。
また、規定値への補正を、8×8以上タイプのパーティションを最小単位として行う場合、補正フラグは、8×8以上タイプのパーティションを最小単位として設定される。
さらに、規定値への補正を、8×8未満タイプのパーティション(サブパーティション)を最小単位として行う場合、補正フラグは、8×8未満タイプのパーティション(サブパーティション)を最小単位として設定される。
図25は、マクロブロックを最小単位として設定される補正フラグを示す図である。
すなわち、図25は、MVC方式のmb_pred(mb_type)のシンタクスを示している。
補正フラグを、マクロブロックを最小単位として設定する場合、補正フラグは、mb_pred(mb_type)に含められる。
図25において、refinement_pixel_modeが、補正フラグを示している。
図26は、8×8以上タイプのパーティションを最小単位として設定される補正フラグを示す図である。
すなわち、図26は、MVC方式のmb_pred(mb_type)の一部のシンタクスを示している。
補正フラグを、8×8以上タイプのパーティションを最小単位として設定する場合、補正フラグは、mb_pred(mb_type)に含められる。
図26において、refinement_pixel_mode[mbPartIdx]が、補正フラグを示している。
なお、補正フラグrefinement_pixel_mode[mbPartIdx]の引数mbPartIdxは、8×8以上タイプの各パーティションを区別するためのインデクスである。
図27は、8×8未満タイプのパーティションを最小単位として設定される補正フラグを示す図である。
すなわち、図27は、MVC方式のsub_mb_pred(mb_type)の一部のシンタクスを示している。
補正フラグを、8×8未満タイプのパーティションを最小単位として設定する場合、補正フラグは、mb_pred(mb_type)、及び、sub_mb_pred(mb_type)に含められる。
なお、補正フラグを、8×8未満タイプのパーティションを最小単位として設定する場合に、mb_pred(mb_type)に含められる、補正フラグは、図26に示した通りであり、図27は、sub_mb_pred(mb_type)に含められる補正フラグを示している。
図27において、refinement_pixel_mode[mbPartIdx][subMbPartIdx]が、補正フラグを示している。
なお、補正フラグrefinement_pixel_mode[mbPartIdx][subMbPartIdx]の引数subMbPartIdxは、8×8未満タイプの各パーティションを区別するためのインデクスである。
ここで、補正フラグを、マクロブロックを最小単位として設定する場合には、符号化データのヘッダのデータ量(オーバーヘッドのデータ量)の増加を最小限に抑えることができる。
一方、補正フラグを、8×8未満タイプのパーティション(サブパーティション)を最小単位として設定する場合には、小さいサイズのパーティションごとに、画素値(復号後画素値)の補正を制御することができるので、デコード画像(デコード視差画像D#2)の画質をより向上させることができる。
また、補正フラグを、8×8以上タイプのパーティションを最小単位として設定する場合には、符号化データのヘッダのデータ量の増加を抑えつつ、マクロブロックを最小単位とする場合と、8×8未満タイプのパーティションを最小単位とする場合との中間の画質を実現することができる。
[規定値への補正と、撮影視差ベクトルdのダイナミックレンジ|dmax-dmin|、及び、量子化ステップとの関係]
図28は、規定値への補正と、撮影視差ベクトルdのダイナミックレンジ|dmax-dmin|との関係を説明する図である。
視差画像D#2(視差画像D#1についても同様)の画素値である視差値νとなる規定値は、式(1)に従って求められるため、規定値どうしの間隔は、撮影視差ベクトルd2のダイナミックレンジ|dmax-dmin|が大きい場合は、狭くなり、ダイナミックレンジ|dmax-dmin|が小さい場合は、広くなる。
規定値どうしの間隔が狭い場合、その狭い規定値どうしの間隔に対する量子化歪みの影響が大であるため、復号後対象ブロックの画素値(復号後画素値)を、最近傍の規定値に補正(変更)しても、原画像の視差値νになっている規定値と異なる規定値に補正される可能性が高い。
すなわち、図28に示すように、視差画像D#2(原画像)のある画素値としての視差値νが10である場合に、規定値どうしの間隔が狭いと、デコード視差画像D#2の対象ブロック(復号後対象ブロック)の復号後画素値は、量子化歪みに起因して、元の視差値νである10よりも、その視差値νと異なる規定値である15に近くなる可能性が高くなる。
この場合、復号後対象ブロックの復号後画素値を、最近傍の規定値に補正すると、元の視差値ν=10と異なる規定値である15に補正されることになる。
一方、規定値どうしの間隔が広い場合、その広い規定値どうしの間隔に対する量子化歪みの影響が小であるため、復号後対象ブロックの復号後画素値を、最近傍の規定値に補正すると、原画像の視差値νになっている規定値に補正される可能性が高い。
すなわち、図28に示すように、視差画像D#2(原画像)のある画素値としての視差値νが10である場合に、規定値どうしの間隔が広ければ、デコード視差画像D#2の対象ブロック(復号後対象ブロック)の復号後画素値は、量子化歪みの影響を受けても、元の視差値ν=10である規定値に近くなる可能性が高い。
この場合、復号後対象ブロックの復号後画素値を、最近傍の規定値に補正することにより、元の視差値ν=10と同一の規定値に補正されることになる。
そこで、本技術では、規定値への補正を行うかどうかを、撮影視差ベクトルdのダイナミックレンジ|dmax-dmin|に基づいて判定することができる。
すなわち、本技術では、規定値どうしの間隔が狭くなる、ダイナミックレンジ|dmax-dmin|が大きい場合には、規定値への補正を、行わないこと(行わない可能性を高くすること)ができる。
また、本技術では、規定値どうしの間隔が広くなる、ダイナミックレンジ|dmax-dmin|が小さい場合には、規定値への補正を、行うこと(行う可能性を高くすること)ができる。
図29は、規定値への補正と、対象ブロックの量子化ステップとの関係を説明する図である。
量子化ステップが大きい場合、量子化歪みが大きく(大きい傾向があり)、その結果、規定値どうしの間隔に対する量子化歪みの影響が大であるため、復号後対象ブロックの画素値(復号後画素値)を、最近傍の規定値に補正(変更)しても、原画像の視差値νになっている規定値と異なる規定値に補正される可能性が高い。
すなわち、図29に示すように、視差画像D#2(原画像)のある画素値としての視差値νが10である場合に、量子化ステップが大であり、その結果、量子化歪みも大であると、デコード視差画像D#2の対象ブロック(復号後対象ブロック)の復号後画素値は、量子化歪みに起因して、元の視差値νである10よりも、その視差値νと異なる規定値である15に近くなる可能性が高くなる。
この場合、復号後対象ブロックの復号後画素値を、最近傍の規定値に補正すると、元の視差値ν=10と異なる規定値である15に補正されることになる。
一方、量子化ステップが小さい場合、量子化歪みは小さく(小さい傾向があり)、その結果、規定値どうしの間隔に対する量子化歪みの影響が小であるため、復号後対象ブロックの復号後画素値を、最近傍の規定値に補正すると、原画像の視差値νになっている規定値に補正される可能性が高い。
すなわち、図29に示すように、視差画像D#2(原画像)のある画素値としての視差値νが10である場合に、量子化ステップが小であり、その結果、量子化歪みも小であると、デコード視差画像D#2の対象ブロック(復号後対象ブロック)の復号後画素値は、量子化歪みの影響を受けても、元の視差値ν=10である規定値に近くなる可能性が高い。
この場合、復号後対象ブロックの復号後画素値を、最近傍の規定値に補正することにより、元の視差値ν=10と同一の規定値に補正されることになる。
そこで、本技術では、規定値への補正を行うかどうかを、対象ブロックの量子化ステップに基づいて判定することができる。
すなわち、本技術では、量子化歪みが大になる、量子化ステップが大きい場合には、規定値への補正を、行わないこと(行わない可能性を高くすること)ができる。
また、本技術では、量子化歪みが小になる、量子化ステップが小さい場合には、規定値への補正を、行うこと(行う可能性を高くすること)ができる。
[エンコーダ22の他の構成例]
図30は、図4のエンコーダ22の他の構成例を示すブロック図である。
なお、図中、図11の場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。
すなわち、図30のエンコーダ22は、A/D変換部211ないし予測画像選択部224、及び、マッピング情報生成部231を有する点で、図11の場合と共通する。
但し、図30のエンコーダ22は、補正部232に代えて、補正部532が設けられており、閾値設定部501が新たに設けられている点で、図11の場合と相違する。
閾値設定部501には、視差関連情報(図4)に含まれる、エンコーダ22の符号化対象の視差画像D#2の撮影視差ベクトルd(視点#2の撮影視差ベクトルd2)の最大値dmax及び最小値dminが供給される。
閾値設定部501は、そこに供給される視差画像D#2の撮影視差ベクトルd2の最大値dmax及び最小値dminから、撮影視差ベクトルd2のダイナミックレンジである、最大値dmaxと最小値dminとの差分絶対値|dmax-dmin|を求める。
そして、閾値設定部501は、ダイナミックレンジ|dmax-dmin|に基づいて、規定値への補正を行うかどうかを判定するのに用いる閾値である補正閾値Thを設定し、補正部532に供給する。
すなわち、閾値設定部501は、例えば、引数の値が大であるほど、関数値が小さくなる関数を、補正閾値Thを算出する閾値用関数として用い、ダイナミックレンジ|dmax-dmin|を引数として、閾値用関数を演算し、その閾値用関数の関数値を、補正閾値Thとして求める。
したがって、本実施の形態では、ダイナミックレンジ|dmax-dmin|が大であるほど、小さな値の補正閾値Thが求められる。
本実施の形態では、後述するように、補正閾値Thが小さいほど、規定値への補正が行われにくくなる(補正閾値Thが大きいほど、規定値への補正が行われやすくなる)。
なお、閾値用関数としては、関数値が、連続値の関数や、2値以上の離散値の関数を採用することができる。
補正部532には、閾値設定部501から補正閾値Thが供給される他、マッピング情報生成部231からマッピング情報が供給されるとともに、演算部220から、復号後対象ブロック(デコード視差画像D#2)が供給される。
補正部532は、図11の補正部232と同様に、マッピング情報生成部231からのマッピング情報を用いて、演算部220からの復号後対象ブロック(の画素値である復号後画素値)を規定値に補正し、その補正後の対象ブロックである補正後対象ブロックを、デブロッキングフィルタ221に供給する。
但し、補正部532は、復号後対象ブロック(の復号後画素値)を規定値に補正するかどうかを、閾値設定部501からの補正閾値Thと、量子化部215(及び逆量子化部218)での対象ブロックの量子化に用いられた量子化ステップ(マクロブロックのQp)とに基づいて判定する。
すなわち、補正部532は、対象ブロックの量子化ステップが、補正閾値Thより大きい場合、量子化歪みの影響が大きく、復号後画素値を最近傍の規定値に補正しても、正しい規定値(原対象ブロックの画素値)とは異なる規定値に補正される可能性が高いため、規定値への補正を行わず、復号後対象ブロックを、そのまま、補正後対象ブロックとして、デブロッキングフィルタ221に供給する。
一方、対象ブロックの量子化ステップが、補正閾値Thより大きくない場合、量子化歪みの影響が小さく、復号後画素値を最近傍の規定値に補正することにより、正しい規定値(原対象ブロックの画素値)に補正される可能性が高いため、補正部532は、規定値への補正を行う。
すなわち、補正部532は、図11の補正部232と同様に、復号後画素値を最近傍の規定値に変更した変更後画素値からなる変更後対象ブロックを求め、その変更後対象ブロックを、補正後対象ブロックとして、デブロッキングフィルタ221に供給する。
図31は、図30の補正部532の構成例を示すブロック図である。
なお、図中、図12の補正部232と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。
図31において、補正部532は、画素値変更部251、及び、画素値補正部552を有する。
したがって、補正部532は、画素値変更部251を有する点で、図12の補正部232と共通し、画素値補正部252に代えて、画素値補正部552を有する点で、図12の補正部232と相違する。
画素値補正部552には、画素値変更部251から、演算部220からの復号後対象ブロックの画素値である復号後画素値を、マッピング情報生成部231からのマッピング情報に基づいて規定値に変更した、その変更後の画素値である変更後画素値からなる対象ブロックである変更後対象ブロックが供給される。
また、画素値補正部552には、演算部220から、復号後対象ブロックが供給されるとともに、閾値設定部501から、補正閾値Thが供給される。
画素値補正部552は、復号後対象ブロック(の復号後画素値)を規定値に補正するかどうかを、閾値設定部501からの補正閾値Thと、対象ブロックの量子化ステップ(マクロブロックのQp)との大小関係に基づいて判定する。
すなわち、画素値補正部552は、対象ブロックの量子化ステップが、補正閾値Thより大きい場合、量子化歪みの影響が大きく、復号後画素値を最近傍の規定値に補正しても、正しい規定値(原対象ブロックの画素値)とは異なる規定値に補正される可能性が高いため、規定値への補正を行わないと判定する。
そして、画素値補正部552は、演算部220からの復号後対象ブロックを、そのまま、補正後対象ブロックとして、デブロッキングフィルタ221に供給する。
一方、対象ブロックの量子化ステップが、補正閾値Thより大きくない場合、量子化歪みの影響が小さく、復号後画素値を最近傍の規定値に補正することにより、正しい規定値(原対象ブロックの画素値)に補正される可能性が高いため、画素値補正部552は、規定値への補正を行うと判定する。
そして、画素値補正部552は、画素値変更部251からの、復号後画素値を最近傍の規定値に変更した変更後画素値からなる変更後対象ブロックを、補正後対象ブロックとして、デブロッキングフィルタ221に供給する。
以上のように、補正部532では、対象ブロックの量子化ステップが、補正閾値Thより大きくない場合に、規定値への補正が行われるので、補正閾値Thが小さいほど、規定値への補正が行われにくくなり、補正閾値Thが大きいほど、規定値への補正が行われやすくなる。
ここで、図28で説明したように、ダイナミックレンジ|dmax-dmin|が大であると、規定値どうしの間隔が狭くなり、量子化歪みの影響が大であるため、復号後対象ブロックの画素値(復号後画素値)を、最近傍の規定値に補正しても、原画像の視差値νになっている規定値と異なる規定値に補正される可能性が高い。
そこで、ダイナミックレンジ|dmax-dmin|が大である場合には、規定値への補正がされにくくなるように、閾値設定部501(図30)は、補正閾値Thとして、小さな値を設定する。
一方、図28で説明したように、ダイナミックレンジ|dmax-dmin|が小であると、規定値どうしの間隔が広くなり、量子化歪みの影響が小であるため、復号後対象ブロックの復号後画素値を、最近傍の規定値に補正すれば、原画像の視差値νになっている規定値に補正される可能性が高い。
そこで、ダイナミックレンジ|dmax-dmin|が小である場合には、規定値への補正がされやすくなるように、閾値設定部501(図30)は、補正閾値Thとして、大きな値を設定する。
図32は、図30のエンコーダ22が行う、視点#2の視差画像D#2を符号化する符号化処理を説明するフローチャートである。
ステップS211ないしステップS218では、図14のステップS11ないしS18と、それぞれ同様の処理が行われる。
そして、演算部220が、ステップS218において得られた復号後対象ブロックを、補正部532に供給し、処理は、ステップS218からステップS219に進む。
ステップS219では、マッピング情報生成部231は、図14のステップS19と同様に、視差関連情報に基づいて、マッピング情報を求め(生成し)、補正部532に供給して、処理は、ステップS220に進む。
ステップS220では、閾値設定部501は、視差関連情報に含まれる撮影視差ベクトルd2の最大値dmax及び最小値dminから、撮影視差ベクトルd2のダイナミックレンジ|dmax-dmin|を求める。
そして、閾値設定部501は、ダイナミックレンジ|dmax-dmin|に基づいて、上述したように、ダイナミックレンジ|dmax-dmin|が大であるほど、小さな値の補正閾値Th(ダイナミックレンジ|dmax-dmin|が小であるほど、大きな値の補正閾値Th)を設定し、補正部532に供給して、処理は、ステップS220からステップS221に進む。
ステップS221では、補正部532は、マッピング情報生成部231からのマッピング情報、及び、閾値設定部501からの補正閾値Thを用いて、演算部220からの復号後対象ブロック(の画素値である復号後画素値)を補正する補正処理を行う。そして、補正部532は、補正処理後の対象ブロックである補正後対象ブロックを、デブロッキングフィルタ221に供給して、処理は、ステップS221からステップS222に進む。
以下、ステップS222ないしS227では、図14のステップS21ないし26と、それぞれ同様の処理が行われる。
なお、図14のステップS25では、可変長符号化部216が、図11の補正部232が出力する補正フラグを、符号化データのヘッダに含めるが、図30の補正部532は、補正フラグを出力しないので、図14のステップS25に対応する図32のステップS226では、可変長符号化部216において、補正フラグは、符号化データのヘッダに含められない。
図33は、図32のステップS221で、図31の補正部532が行う補正処理を説明するフローチャートである。
ステップS231ないしS233において、図15のステップS31ないしS33と、それぞれ同様の処理が行われる。
すなわち、ステップS231において、補正部532(図31)は、演算部220からの復号後対象ブロックを取得し、画素値変更部251、及び、画素値補正部552に供給して、処理は、ステップS232に進む。
ステップS232では、補正部532は、マッピング情報生成部231からのマッピング情報を取得し、画素値変更部251に供給して、処理は、ステップS233に進む。
ステップS233では、画素値変更部251は、演算部220からの復号後対象ブロック(の復号後画素値)を、マッピング情報生成部231からのマッピング情報に基づいて規定値に変更する、図16と同様の画素値変更処理を行う。
そして、画素値変更部251は、画素値変更処理によって得られる、規定値に変更された画素値である変更後画素値からなる対象ブロックである変更後対象ブロックを、画素値補正部552に供給して、処理は、ステップS234に進む。
ステップS234では、補正部532は、閾値設定部501から、補正閾値Thを取得し、画素値補正部552に供給して、処理は、ステップS235に進む。
ステップS235では、画素値補正部552は、画素値変更部251からの変更後対象ブロック、演算部220からの復号後対象ブロック、閾値設定部501からの補正閾値Thに基づいて、復号後対象ブロックの画素値(復号後画素値)を補正する画素値補正処理を行い、処理は、ステップS236に進む。
ステップS236では、画素値補正部552は、ステップS235の画素値補正処理によって得られる対象ブロックである補正後対象ブロックを、デブロッキングフィルタ221に供給して、処理はリターンする。
図34は、図33のステップS235で、図31の画素値補正部552が行う画素値補正処理を説明するフローチャートである。
ステップS251において、画素値補正部552は、対象ブロックの量子化ステップ(量子化部215(図30)において、対象ブロックの量子化に用いられる量子化ステップ)が、閾値設定部501からの補正閾値Thより大きいかどうかを判定する。
ステップS251において、対象ブロックの量子化ステップが補正閾値Thより大きいと判定された場合、すなわち、規定値どうしの間隔との比較で、量子化歪み(の影響)が大きい場合、処理は、ステップS252に進み、画素値補正部552は、復号後対象ブロックを、補正後対象ブロックとして(復号後対象ブロックの画素値を補正せずにそのままとして)、処理はリターンする。
また、ステップS251において、対象ブロックの量子化ステップが補正閾値Thより大きくないと判定された場合、すなわち、規定値どうしの間隔との比較で、量子化歪みが小さい場合、処理は、ステップS253に進み、画素値補正部552は、画素値変更部251からの変更後対象ブロックを、補正後対象ブロックとして(復号後対象ブロックの画素値を、変更後対象ブロックの変更後画素値である規定値に補正して)、処理はリターンする。
[デコーダ322の他の構成例]
図35は、図18のデコーダ322の他の構成例を示すブロック図である。
すなわち、図35は、エンコーダ22が図30に示したように構成される場合のデコーダ322の構成例を示している。
なお、図中、図20の場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。
図35において、デコーダ322は、蓄積バッファ441ないし予測画像選択部451、及び、マッピング情報生成部461を有する点で、図20の場合と共通する。
但し、図35のデコーダ322は、補正部462に代えて、補正部662が設けられているとともに、閾値設定部601が新たに設けられている点で、図20の場合と相違する。
閾値設定部601には、可変長復号部442からヘッダ情報に含まれる、デコーダ322の復号対象の視差画像D#2の撮影視差ベクトルd2の最大値dmax及び最小値dminが供給される。
閾値設定部601は、図30の閾値設定部501と同様に、可変長復号部442からの撮影視差ベクトルd2の最大値dmax及び最小値dminから、撮影視差ベクトルd2のダイナミックレンジ|dmax-dmin|を求め、そのダイナミックレンジ|dmax-dmin|に基づいて、補正閾値Thを設定する。そして、閾値設定部601は、補正閾値Thを、補正部662に供給する。
補正部662には、閾値設定部601から補正閾値Thが供給される他、マッピング情報生成部461からマッピング情報が供給されるとともに、演算部445から、復号後対象ブロック(デコード視差画像D#2)が供給される。
補正部662は、図20の補正部532と同様に、復号後対象ブロック(の復号後画素値)を規定値に補正するかどうかを、閾値設定部601からの補正閾値Thと、逆量子化部443での対象ブロックの逆量子化に用いられた量子化ステップ(図30の量子化部215での対象ブロックの量子化に用いられた量子化ステップに等しい)とに基づいて判定する。
そして、補正部662は、その判定の結果に従い、マッピング情報生成部461からのマッピング情報を用いて、演算部445からの復号後対象ブロック(の画素値である復号後画素値)を規定値に補正し、その補正後の対象ブロックである補正後対象ブロックを、デブロッキングフィルタ446に供給する。
図36は、図35の補正部662の構成例を示すブロック図である。
図36において、補正部662は、画素値変更部671、及び、画素値補正部672を有する。
画素値変更部671、及び、画素値補正部672は、図31の補正部532を構成する画素値変更部251、及び、画素値補正部552と、それぞれ同様の処理を行う。
すなわち、画素値変更部671には、演算部445から、対象ブロックのデコード視差画像D#2である復号後対象ブロックが供給されるとともに、マッピング情報生成部461から、マッピング情報が供給される。
画素値変更部671は、図31(及び図12)の画素値変更部251と同様に、演算部445からの復号後対象ブロックの画素値である復号後画素値を、マッピング情報生成部461からのマッピング情報に基づいて規定値に変更し、その変更後の画素値である変更後画素値からなる対象ブロックである変更後対象ブロックを、画素値補正部672に供給する。
画素値補正部672には、画素値変更部671から、変更後対象ブロックが供給される他、演算部445から、復号後対象ブロックが供給されるとともに、閾値設定部601から、補正閾値Thが供給される。
画素値補正部672は、図31の画素値補正部552と同様に、演算部445からの復号後対象ブロック(の復号後画素値)を規定値に補正するかどうかを、閾値設定部601からの補正閾値Thと、対象ブロックの量子化ステップ(逆量子化部443(図35)での対象ブロックの逆量子化に用いられた量子化ステップ)との大小関係に基づいて判定する。
すなわち、画素値補正部672は、対象ブロックの量子化ステップが、補正閾値Thより大きい場合、量子化歪みの影響が大きく、復号後画素値を最近傍の規定値に補正しても、正しい規定値(原対象ブロックの画素値)とは異なる規定値に補正される可能性が高いため、規定値への補正を行わないと判定する。
そして、画素値補正部672は、演算部445からの復号後対象ブロックを、そのまま、補正後対象ブロックとして、デブロッキングフィルタ446に供給する。
一方、対象ブロックの量子化ステップが、補正閾値Thより大きくない場合、量子化歪みの影響が小さく、復号後画素値を最近傍の規定値に補正することにより、正しい規定値(原対象ブロックの画素値)に補正される可能性が高いため、画素値補正部672は、規定値への補正を行うと判定する。
そして、画素値補正部672は、画素値変更部671からの、復号後画素値を最近傍の規定値に変更した変更後画素値からなる変更後対象ブロックを、補正後対象ブロックとして、デブロッキングフィルタ446に供給する。
図37は、図35のデコーダ322が行う、視点#2の視差画像D#2の符号化データを復号する復号処理を説明するフローチャートである。
ステップS311ないしS315において、図22のステップS111ないしS115と、それぞれ同様の処理が行われる。
そして、演算部445が、ステップS315において得られた復号後対象ブロックを、補正部662に供給し、処理は、ステップS315からステップS316に進む。
ステップS316では、マッピング情報生成部461は、マッピング情報を求め、補正部662に供給して、処理は、ステップS316からステップS317に進む。
ステップS317では、閾値設定部601が、補正閾値Thを設定し、補正部662に供給して、処理は、ステップS318に進む。
ステップS318では、補正部662が、マッピング情報生成部461からのマッピング情報、及び、閾値設定部601からの補正閾値Thを用いて、演算部445からの復号後対象ブロック(の画素値である復号後画素値)を補正する、図33と同様の補正処理を行う。そして、補正部662は、補正処理後の対象ブロックである補正後対象ブロックを、デブロッキングフィルタ446に供給して、処理は、ステップS318からステップS319に進む。
以下、ステップS319ないしS323では、図20のステップS118ないしS122と、それぞれ同様の処理が行われる。
なお、以上においては、ダイナミックレンジ|dmax-dmin|と量子化ステップとの両方に基づいて、規定値への補正を行うかどうかを判定することとしたが、すなわち、ダイナミックレンジ|dmax-dmin|に基づいて、補正閾値Thを設定し、その補正閾値Thを用いた量子化ステップの閾値処理によって、規定値への補正を行うかどうかを判定することとしたが、規定値への補正を行うかどうかの判定は、ダイナミックレンジ|dmax-dmin|、及び、量子化ステップのうちの一方に基づいて行うことが可能である。
すなわち、規定値への補正を行うかどうかは、例えば、固定の閾値を設定し、その固定の閾値を用いて、ダイナミックレンジ|dmax-dmin|、又は、量子化ステップの閾値処理を行うことによって判定することが可能である。
[本技術を適用したコンピュータの説明]
次に、上述した一連の処理は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。
そこで、図39は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示している。
プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク805やROM803に予め記録しておくことができる。
あるいはまた、プログラムは、リムーバブル記録媒体811に格納(記録)しておくことができる。このようなリムーバブル記録媒体811は、いわゆるパッケージソフトウエアとして提供することができる。ここで、リムーバブル記録媒体811としては、例えば、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリ等がある。
なお、プログラムは、上述したようなリムーバブル記録媒体811からコンピュータにインストールする他、通信網や放送網を介して、コンピュータにダウンロードし、内蔵するハードディスク805にインストールすることができる。すなわち、プログラムは、例えば、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送することができる。
コンピュータは、CPU(Central Processing Unit)802を内蔵しており、CPU802には、バス801を介して、入出力インタフェース810が接続されている。
CPU802は、入出力インタフェース810を介して、ユーザによって、入力部807が操作等されることにより指令が入力されると、それに従って、ROM(Read Only Memory)803に格納されているプログラムを実行する。あるいは、CPU802は、ハードディスク805に格納されたプログラムを、RAM(Random Access Memory)804にロードして実行する。
これにより、CPU802は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU802は、その処理結果を、必要に応じて、例えば、入出力インタフェース810を介して、出力部806から出力、あるいは、通信部808から送信、さらには、ハードディスク805に記録等させる。
なお、入力部807は、キーボードや、マウス、マイク等で構成される。また、出力部806は、LCD(Liquid Crystal Display)やスピーカ等で構成される。
ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。
また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
[テレビジョン装置の構成例]
図40は、本技術を適用したテレビジョン装置の概略構成を例示している。テレビジョン装置900は、アンテナ901、チューナ902、デマルチプレクサ903、デコーダ904、映像信号処理部905、表示部906、音声信号処理部907、スピーカ908、外部インタフェース部909を有している。さらに、テレビジョン装置900は、制御部910、ユーザインタフェース部911等を有している。
チューナ902は、アンテナ901で受信された放送波信号から所望のチャンネルを選局して復調を行い、得られた符号化ビットストリームをデマルチプレクサ903に出力する。
デマルチプレクサ903は、符号化ビットストリームから視聴対象である番組の映像や音声のパケットを抽出して、抽出したパケットのデータをデコーダ904に出力する。また、デマルチプレクサ903は、EPG(Electronic Program Guide)等のデータのパケットを制御部910に供給する。なお、スクランブルが行われている場合、デマルチプレクサ等でスクランブルの解除を行う。
デコーダ904は、パケットの復号化処理を行い、復号処理化によって生成された映像データを映像信号処理部905、音声データを音声信号処理部907に出力する。
映像信号処理部905は、映像データに対して、ノイズ除去やユーザ設定に応じた映像処理等を行う。映像信号処理部905は、表示部906に表示させる番組の映像データや、ネットワークを介して供給されるアプリケーションに基づく処理による画像データなどを生成する。また、映像信号処理部905は、項目の選択などのメニュー画面等を表示するための映像データを生成し、それを番組の映像データに重畳する。映像信号処理部905は、このようにして生成した映像データに基づいて駆動信号を生成して表示部906を駆動する。
表示部906は、映像信号処理部905からの駆動信号に基づき表示デバイス(例えば液晶表示素子等)を駆動して、番組の映像などを表示させる。
音声信号処理部907は、音声データに対してノイズ除去などの所定の処理を施し、処理後の音声データのD/A変換処理や増幅処理を行いスピーカ908に供給することで音声出力を行う。
外部インタフェース部909は、外部機器やネットワークと接続するためのインタフェースであり、映像データや音声データ等のデータ送受信を行う。
制御部910にはユーザインタフェース部911が接続されている。ユーザインタフェース部911は、操作スイッチやリモートコントロール信号受信部等で構成されており、ユーザ操作に応じた操作信号を制御部910に供給する。
制御部910は、CPU(Central Processing Unit)やメモリ等を用いて構成されている。メモリは、CPUにより実行されるプログラムやCPUが処理を行う上で必要な各種のデータ、EPGデータ、ネットワークを介して取得されたデータ等を記憶する。メモリに記憶されているプログラムは、テレビジョン装置900の起動時などの所定タイミングでCPUにより読み出されて実行される。CPUは、プログラムを実行することで、テレビジョン装置900がユーザ操作に応じた動作となるように各部を制御する。
なお、テレビジョン装置900では、チューナ902、デマルチプレクサ903、映像信号処理部905、音声信号処理部907、外部インタフェース部909等と制御部910を接続するためバス912が設けられている。
このように構成されたテレビジョン装置では、デコーダ904に本願の画像処理装置(画像処理方法)の機能が設けられる。このため、デコード画像の画質を向上させることができる。
[携帯電話機の構成例]
図41は、本技術を適用した携帯電話機の概略構成を例示している。携帯電話機920は、通信部922、音声コーデック923、カメラ部926、画像処理部927、多重分離部928、記録再生部929、表示部930、制御部931を有している。これらは、バス933を介して互いに接続されている。
また、通信部922にはアンテナ921が接続されており、音声コーデック923には、スピーカ924とマイクロホン925が接続されている。さらに制御部931には、操作部932が接続されている。
携帯電話機920は、音声通話モードやデータ通信モード等の各種モードで、音声信号の送受信、電子メールや画像データの送受信、画像撮影、またはデータ記録等の各種動作を行う。
音声通話モードにおいて、マイクロホン925で生成された音声信号は、音声コーデック923で音声データへの変換やデータ圧縮が行われて通信部922に供給される。通信部922は、音声データの変調処理や周波数変換処理等を行い、送信信号を生成する。また、通信部922は、送信信号をアンテナ921に供給して図示しない基地局へ送信する。また、通信部922は、アンテナ921で受信した受信信号の増幅や周波数変換処理および復調処理等を行い、得られた音声データを音声コーデック923に供給する。音声コーデック923は、音声データのデータ伸張やアナログ音声信号への変換を行いスピーカ924に出力する。
また、データ通信モードにおいて、メール送信を行う場合、制御部931は、操作部932の操作によって入力された文字データを受け付けて、入力された文字を表示部930に表示する。また、制御部931は、操作部932におけるユーザ指示等に基づいてメールデータを生成して通信部922に供給する。通信部922は、メールデータの変調処理や周波数変換処理等を行い、得られた送信信号をアンテナ921から送信する。また、通信部922は、アンテナ921で受信した受信信号の増幅や周波数変換処理および復調処理等を行い、メールデータを復元する。このメールデータを、表示部930に供給して、メール内容の表示を行う。
なお、携帯電話機920は、受信したメールデータを、記録再生部929で記憶媒体に記憶させることも可能である。記憶媒体は、書き換え可能な任意の記憶媒体である。例えば、記憶媒体は、RAMや内蔵型フラッシュメモリ等の半導体メモリ、ハードディスク、磁気ディスク、光磁気ディスク、光ディスク、USBメモリ、またはメモリカード等のリムーバブルメディアである。
データ通信モードにおいて画像データを送信する場合、カメラ部926で生成された画像データを、画像処理部927に供給する。画像処理部927は、画像データの符号化処理を行い、符号化データを生成する。
多重分離部928は、画像処理部927で生成された符号化データと、音声コーデック923から供給された音声データを所定の方式で多重化して通信部922に供給する。通信部922は、多重化データの変調処理や周波数変換処理等を行い、得られた送信信号をアンテナ921から送信する。また、通信部922は、アンテナ921で受信した受信信号の増幅や周波数変換処理および復調処理等を行い、多重化データを復元する。この多重化データを多重分離部928に供給する。多重分離部928は、多重化データの分離を行い、符号化データを画像処理部927、音声データを音声コーデック923に供給する。画像処理部927は、符号化データの復号化処理を行い、画像データを生成する。この画像データを表示部930に供給して、受信した画像の表示を行う。音声コーデック923は、音声データをアナログ音声信号に変換してスピーカ924に供給して、受信した音声を出力する。
このように構成された携帯電話装置では、画像処理部927に本願の画像処理装置(画像処理方法)の機能が設けられる。このため、デコード画像の画質を向上させることができる。
[記録再生装置の構成例]
図42は、本技術を適用した記録再生装置の概略構成を例示している。記録再生装置940は、例えば受信した放送番組のオーディオデータとビデオデータを、記録媒体に記録して、その記録されたデータをユーザの指示に応じたタイミングでユーザに提供する。また、記録再生装置940は、例えば他の装置からオーディオデータやビデオデータを取得し、それらを記録媒体に記録させることもできる。さらに、記録再生装置940は、記録媒体に記録されているオーディオデータやビデオデータを復号して出力することで、モニタ装置等において画像表示や音声出力を行うことができるようにする。
記録再生装置940は、チューナ941、外部インタフェース部942、エンコーダ943、HDD(Hard Disk Drive)部944、ディスクドライブ945、セレクタ946、デコーダ947、OSD(On-Screen Display)部948、制御部949、ユーザインタフェース部950を有している。
チューナ941は、図示しないアンテナで受信された放送信号から所望のチャンネルを選局する。チューナ941は、所望のチャンネルの受信信号を復調して得られた符号化ビットストリームをセレクタ946に出力する。
外部インタフェース部942は、IEEE1394インタフェース、ネットワークインタフェース部、USBインタフェース、フラッシュメモリインタフェース等の少なくともいずれかで構成されている。外部インタフェース部942は、外部機器やネットワーク、メモリカード等と接続するためのインタフェースであり、記録する映像データや音声データ等のデータ受信を行う。
エンコーダ943は、外部インタフェース部942から供給された映像データや音声データが符号化されていないとき所定の方式で符号化を行い、符号化ビットストリームをセレクタ946に出力する。
HDD部944は、映像や音声等のコンテンツデータ、各種プログラムやその他のデータ等を内蔵のハードディスクに記録し、また再生時等にそれらを当該ハードディスクから読み出す。
ディスクドライブ945は、装着されている光ディスクに対する信号の記録および再生を行う。光ディスク、例えばDVDディスク(DVD−Video、DVD−RAM、DVD−R、DVD−RW、DVD+R、DVD+RW等)やBlu−rayディスク等である。
セレクタ946は、映像や音声の記録時には、チューナ941またはエンコーダ943からのいずれかの符号化ビットストリームを選択して、HDD部944やディスクドライブ945のいずれかに供給する。また、セレクタ946は、映像や音声の再生時に、HDD部944またはディスクドライブ945から出力された符号化ビットストリームをデコーダ947に供給する。
デコーダ947は、符号化ビットストリームの復号化処理を行う。デコーダ947は、復号処理化を行うことにより生成された映像データをOSD部948に供給する。また、デコーダ947は、復号処理化を行うことにより生成された音声データを出力する。
OSD部948は、項目の選択などのメニュー画面等を表示するための映像データを生成し、それをデコーダ947から出力された映像データに重畳して出力する。
制御部949には、ユーザインタフェース部950が接続されている。ユーザインタフェース部950は、操作スイッチやリモートコントロール信号受信部等で構成されており、ユーザ操作に応じた操作信号を制御部949に供給する。
制御部949は、CPUやメモリ等を用いて構成されている。メモリは、CPUにより実行されるプログラムやCPUが処理を行う上で必要な各種のデータを記憶する。メモリに記憶されているプログラムは、記録再生装置940の起動時などの所定タイミングでCPUにより読み出されて実行される。CPUは、プログラムを実行することで、記録再生装置940がユーザ操作に応じた動作となるように各部を制御する。
このように構成された記録再生装置では、デコーダ947に本願の画像処理装置(画像処理方法)の機能が設けられる。このため、デコード画像の画質を向上させることができる。
[撮像装置の構成例]
図43は、本技術を適用した撮像装置の概略構成を例示している。撮像装置960は、被写体を撮像し、被写体の画像を表示部に表示させたり、それを画像データとして、記録媒体に記録する。
撮像装置960は、光学ブロック961、撮像部962、カメラ信号処理部963、画像データ処理部964、表示部965、外部インタフェース部966、メモリ部967、メディアドライブ968、OSD部969、制御部970を有している。また、制御部970には、ユーザインタフェース部971が接続されている。さらに、画像データ処理部964や外部インタフェース部966、メモリ部967、メディアドライブ968、OSD部969、制御部970等は、バス972を介して接続されている。
光学ブロック961は、フォーカスレンズや絞り機構等を用いて構成されている。光学ブロック961は、被写体の光学像を撮像部962の撮像面に結像させる。撮像部962は、CCDまたはCMOSイメージセンサを用いて構成されており、光電変換によって光学像に応じた電気信号を生成してカメラ信号処理部963に供給する。
カメラ信号処理部963は、撮像部962から供給された電気信号に対してニー補正やガンマ補正、色補正等の種々のカメラ信号処理を行う。カメラ信号処理部963は、カメラ信号処理後の画像データを画像データ処理部964に供給する。
画像データ処理部964は、カメラ信号処理部963から供給された画像データの符号化処理を行う。画像データ処理部964は、符号化処理を行うことにより生成された符号化データを外部インタフェース部966やメディアドライブ968に供給する。また、画像データ処理部964は、外部インタフェース部966やメディアドライブ968から供給された符号化データの復号化処理を行う。画像データ処理部964は、復号化処理を行うことにより生成された画像データを表示部965に供給する。また、画像データ処理部964は、カメラ信号処理部963から供給された画像データを表示部965に供給する処理や、OSD部969から取得した表示用データを、画像データに重畳させて表示部965に供給する。
OSD部969は、記号、文字、または図形からなるメニュー画面やアイコンなどの表示用データを生成して画像データ処理部964に出力する。
外部インタフェース部966は、例えば、USB入出力端子などで構成され、画像の印刷を行う場合に、プリンタと接続される。また、外部インタフェース部966には、必要に応じてドライブが接続され、磁気ディスク、光ディスク等のリムーバブルメディアが適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて、インストールされる。さらに、外部インタフェース部966は、LANやインターネット等の所定のネットワークに接続されるネットワークインタフェースを有する。制御部970は、例えば、ユーザインタフェース部971からの指示にしたがって、メモリ部967から符号化データを読み出し、それを外部インタフェース部966から、ネットワークを介して接続される他の装置に供給させることができる。また、制御部970は、ネットワークを介して他の装置から供給される符号化データや画像データを、外部インタフェース部966を介して取得し、それを画像データ処理部964に供給したりすることができる。
メディアドライブ968で駆動される記録メディアとしては、例えば、磁気ディスク、光磁気ディスク、光ディスク、または半導体メモリ等の、読み書き可能な任意のリムーバブルメディアが用いられる。また、記録メディアは、リムーバブルメディアとしての種類も任意であり、テープデバイスであってもよいし、ディスクであってもよいし、メモリカードであってもよい。もちろん、非接触ICカード等であってもよい。
また、メディアドライブ968と記録メディアを一体化し、例えば、内蔵型ハードディスクドライブやSSD(Solid State Drive)等のように、非可搬性の記憶媒体により構成されるようにしてもよい。
制御部970は、CPUやメモリ等を用いて構成されている。メモリは、CPUにより実行されるプログラムやCPUが処理を行う上で必要な各種のデータ等を記憶する。メモリに記憶されているプログラムは、撮像装置960の起動時などの所定タイミングでCPUにより読み出されて実行される。CPUは、プログラムを実行することで、撮像装置960がユーザ操作に応じた動作となるように各部を制御する。
このように構成された撮像装置では、画像データ処理部964に本願の画像処理装置(画像処理方法)の機能が設けられる。このため、デコード画像の画質を向上させることができる。
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
すなわち、本技術は、視差画像(視差情報画像)の、MVCを利用した符号化、及び、復号に限定されるものではない。
本技術は、所定のデータに対応する値を画素値とする画像であり、画素値として取り得る値が、所定のデータの最大値と最小値とに応じて、所定の規定値に規定される画像を対象として、少なくとも量子化を行う符号化、及び、その符号化結果を、少なくとも逆量子化する復号に適用可能である。
11,12,21,22 エンコーダ, 31 DPB, 32 多重化部, 41,42 カメラ, 43 多視点画像情報生成部, 111 A/D変換部, 112 画面並び替えバッファ, 113 演算部, 114 直交変換部, 115 量子化部, 116 可変長符号化部, 117 蓄積バッファ, 118 逆量子化部, 119 逆直交変換部, 120 演算部, 121 デブロッキングフィルタ, 122 画面内予測部, 123 インター予測部, 124 予測画像選択部, 211 A/D変換部, 212 画面並び替えバッファ, 213 演算部, 214 直交変換部, 215 量子化部, 216 可変長符号化部, 217 蓄積バッファ, 218 逆量子化部, 219 逆直交変換部, 220 演算部, 221 デブロッキングフィルタ, 222 画面内予測部, 223 インター予測部, 224 予測画像選択部, 231 マッピング情報生成部, 232 補正部, 251 画素値変更部, 252 画素値補正部, 301 分離部, 311,312,321,322 デコーダ, 331 DPB, 341 蓄積バッファ, 342 可変長復号部, 343 逆量子化部, 344 逆直交変換部, 345 演算部, 346 デブロッキングフィルタ, 347 画面並び替え部, 348 D/A変換部, 349 画面内予測部, 350 インター予測部, 351 予測画像選択部, 441 蓄積バッファ, 442 可変長復号部, 443 逆量子化部, 444 逆直交変換部, 445 演算部, 446 デブロッキングフィルタ, 447 画面並び替え部, 448 D/A変換部, 449 画面内予測部, 450 インター予測部, 451 予測画像選択部, 461 マッピング情報生成部, 462 補正部, 471 画素値補正部, 501 閾値設定部, 532 補正部, 552 画素値補正部, 601 閾値設定部, 662 補正部, 671 画素値変更部, 672 画素値補正部, 801 バス, 802 CPU, 803 ROM, 804 RAM, 805 ハードディスク, 806 出力部, 807 入力部, 808 通信部, 809 ドライブ, 810 入出力インタフェース, 811 リムーバブル記録媒体

Claims (11)

  1. 所定のデータに対応する値を画素値とする画像であり、前記画素値として取り得る値が、前記所定のデータの最大値と最小値とに応じて、所定の規定値に規定される画像を、少なくとも量子化して逆量子化することにより得られるデコード画像の画素値を、前記規定値に補正する補正部を備える
    画像処理装置。
  2. 前記補正部は、前記デコード画像の画素値を、その画素値に最も近い前記規定値に補正する
    請求項1に記載の画像処理装置。
  3. 前記補正部は、前記デコード画像の画素値を、その画素値に最も近い前記規定値に変更した変更後の画素値と、原画像の画素値との差、及び、前記デコード画像の画素値と、原画像の画素値との差に基づいて、前記デコード画像の画素値を、その画素値に最も近い前記規定値に補正するか、又は、そのままとする
    請求項2に記載の画像処理装置。
  4. 前記補正部は、前記デコード画像の画素値を、その画素値に最も近い前記規定値に補正するか、又は、そのままとするかを表す補正フラグを出力する
    請求項3に記載の画像処理装置。
  5. 前記補正部は、前記デコード画像の画素値を、その画素値に最も近い前記規定値に補正するか、又は、そのままとするかを表す補正フラグを取得し、前記補正フラグに基づいて、前記デコード画像の画素値を、その画素値に最も近い前記規定値に補正するか、又は、そのままとする
    請求項2に記載の画像処理装置。
  6. 前記補正部は、前記所定のデータの最大値と最小値との差に基づいて、前記デコード画像の画素値を、その画素値に最も近い前記規定値に補正するか、又は、そのままとする
    請求項2に記載の画像処理装置。
  7. 前記補正部は、前記画像を量子化する量子化ステップに基づいて、前記デコード画像の画素値を、その画素値に最も近い前記規定値に補正するか、又は、そのままとする
    請求項2に記載の画像処理装置。
  8. 前記補正部は、
    前記量子化ステップが所定の閾値より大である場合、前記デコード画像の画素値を、そのままとし、
    前記量子化ステップが所定の閾値より大でない場合、前記デコード画像の画素値を、その画素値に最も近い前記規定値に補正し、
    前記所定のデータの最大値と最小値との差に基づいて、前記所定の閾値を設定する閾値設定部をさらに備える
    請求項7に記載の画像処理装置。
  9. 前記画像は、色画像の画素ごとの視差に関するデプス情報を画素値として有するデプス画像である
    請求項1に記載の画像処理装置。
  10. 所定のデータに対応する値を画素値とする画像であり、前記画素値として取り得る値が、前記所定のデータの最大値と最小値とに応じて、所定の規定値に規定される画像を、少なくとも量子化して逆量子化することにより得られるデコード画像の画素値を、前記規定値に補正する
    ステップを含む画像処理方法。
  11. 所定のデータに対応する値を画素値とする画像であり、前記画素値として取り得る値が、前記所定のデータの最大値と最小値とに応じて、所定の規定値に規定される画像を、少なくとも量子化して逆量子化することにより得られるデコード画像の画素値を、前記規定値に補正する補正部
    として、コンピュータを機能させるためのプログラム。
JP2013505961A 2011-03-18 2012-03-19 画像処理装置、画像処理方法、及び、プログラム Pending JPWO2012128241A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011061793 2011-03-18
JP2011061793 2011-03-18
PCT/JP2012/056974 WO2012128241A1 (ja) 2011-03-18 2012-03-19 画像処理装置、画像処理方法、及び、プログラム

Publications (1)

Publication Number Publication Date
JPWO2012128241A1 true JPWO2012128241A1 (ja) 2014-07-24

Family

ID=46879388

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013505961A Pending JPWO2012128241A1 (ja) 2011-03-18 2012-03-19 画像処理装置、画像処理方法、及び、プログラム

Country Status (4)

Country Link
US (1) US20140036032A1 (ja)
JP (1) JPWO2012128241A1 (ja)
CN (1) CN103416059A (ja)
WO (1) WO2012128241A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9319576B2 (en) 2014-01-29 2016-04-19 Google Technology Holdings LLC Multi-processor support for array imagers
EP3007448A1 (en) * 2014-10-07 2016-04-13 Canon Kabushiki Kaisha Disparity data encoding apparatus and method of controlling the same for
WO2017090961A1 (ko) * 2015-11-24 2017-06-01 삼성전자 주식회사 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
DE112017001926T5 (de) * 2016-04-06 2019-01-10 Sony Corporation Bildverarbeitungseinrichtung und Bildverarbeitungsverfahren
US20190141332A1 (en) * 2017-11-08 2019-05-09 Qualcomm Incorporated Use of synthetic frames in video coding
US11695965B1 (en) * 2022-10-13 2023-07-04 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Video coding using a coded picture buffer

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08251597A (ja) * 1995-03-10 1996-09-27 Toshiba Corp 動画像符号化/復号化装置
JP3552811B2 (ja) * 1995-09-29 2004-08-11 三菱電機株式会社 ディジタル映像信号符号化装置および復号化装置
JP4485951B2 (ja) * 2002-10-23 2010-06-23 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3次元ビデオ信号後処理方法
FR2851111B1 (fr) * 2003-02-10 2005-07-22 Nextream France Dispositif de codage d'un flux de donnees video
CN101346982B (zh) * 2005-12-21 2011-12-21 松下电器产业株式会社 图像压缩装置、图像解压缩装置以及超声波诊断装置
JP4190551B2 (ja) * 2006-07-18 2008-12-03 三菱電機株式会社 画像処理装置、画像処理方法、画像符号化装置、および画像符号化方法
CN101170702B (zh) * 2007-11-23 2010-08-11 四川虹微技术有限公司 多视角视频编码方法
JP2009212800A (ja) * 2008-03-04 2009-09-17 Konica Minolta Business Technologies Inc 画像圧縮装置
CN100563340C (zh) * 2008-07-07 2009-11-25 浙江大学 基于深度图像渲染的多通道视频流编码器和解码器
CN101374243B (zh) * 2008-07-29 2010-06-23 宁波大学 一种应用于3dtv与ftv系统的深度图编码压缩方法

Also Published As

Publication number Publication date
CN103416059A (zh) 2013-11-27
US20140036032A1 (en) 2014-02-06
WO2012128241A1 (ja) 2012-09-27

Similar Documents

Publication Publication Date Title
JP6061150B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
JP6670812B2 (ja) 符号化装置および符号化方法
US9445092B2 (en) Image processing apparatus, image processing method, and program
WO2012121052A1 (ja) 画像処理装置、画像処理方法、及び、プログラム
WO2012147622A1 (ja) 画像処理装置、及び、画像処理方法
WO2012157443A1 (ja) 画像処理装置、及び、画像処理方法
US9350972B2 (en) Encoding device and encoding method, and decoding device and decoding method
EP3047649A1 (en) Combined bi-predictive merging candidates for 3d video coding
WO2016104179A1 (ja) 画像処理装置および画像処理方法
WO2012128241A1 (ja) 画像処理装置、画像処理方法、及び、プログラム
US20230319261A1 (en) Method and device for removing overlapping signaling in video/image coding system
KR20240006016A (ko) 인터 예측 기반 영상 코딩 방법 및 장치
US11962810B2 (en) Motion prediction-based image coding method and device
US20220377319A1 (en) Prediction weighted table-based image/video coding method and apparatus
WO2013031573A1 (ja) 符号化装置および符号化方法、復号装置および復号方法
WO2014045954A1 (ja) 画像処理装置および方法
US20230269376A1 (en) Image/video coding method and device
WO2013157439A1 (ja) 復号装置および復号方法、並びに、符号化装置および符号化方法