JP2016537858A - マルチビュービデオをデコードするビデオデコード方法及び装置 - Google Patents

マルチビュービデオをデコードするビデオデコード方法及び装置 Download PDF

Info

Publication number
JP2016537858A
JP2016537858A JP2016522059A JP2016522059A JP2016537858A JP 2016537858 A JP2016537858 A JP 2016537858A JP 2016522059 A JP2016522059 A JP 2016522059A JP 2016522059 A JP2016522059 A JP 2016522059A JP 2016537858 A JP2016537858 A JP 2016537858A
Authority
JP
Japan
Prior art keywords
block
prediction
current block
current
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016522059A
Other languages
English (en)
Other versions
JP6542206B2 (ja
Inventor
チン ホ
チン ホ
ソンミ ユ
ソンミ ユ
ソフン イェ
ソフン イェ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of JP2016537858A publication Critical patent/JP2016537858A/ja
Application granted granted Critical
Publication of JP6542206B2 publication Critical patent/JP6542206B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本発明は、マルチビュービデオをコーディングする方法及び装置に関し、本発明に係るデコード装置は、ビットストリームをエントロピーデコードして、レジデュアル予測に関する情報を現在ブロックの周辺ブロックを参照してデコードするエントロピーデコード部と、現在ブロックのデコードに参照されるピクチャを格納するメモリと、前記レジデュアルに関する情報を利用して、前記メモリに格納されたピクチャにおいて前記現在ブロックに対応する第1ブロック及び第2ブロック間のサンプル値差に基づいて、現在ブロックに対する予測サンプルを引き出す予測部と、前記予測サンプルを利用して復元された現在ピクチャにフィルタリングを適用するフィルタリング部とを備えることができる。【選択図】図7

Description

本発明は、ビデオコーディングに関する技術であり、さらに具体的には、3Dビデオ映像のコーディングに関する。
最近、高解像度、高品質の映像に対する要求が多様な応用分野において増加している。しかしながら、映像が高解像度を有し高品質になるほど、該当映像に関する情報量も共に増加する。
したがって、従来の有無線広帯域回線のような媒体を利用して、映像情報を送信するか、または従来の格納媒体を利用して映像情報を格納する場合には、情報の送信費用と格納費用が増加するようになる。高解像度、高品質映像の情報を効果的に送信して格納し、再生するために、高効率の映像圧縮技術を利用できる。
一方、高解像/大容量の映像を処理できるようになるにつれて、3Dビデオを利用したデジタル放送サービスが次世代放送サービスの一つとして注目されている。3Dビデオは、複数の視点(view)チャネルを利用して臨場感と没入感を提供できる。
3Dビデオは、FVV(free view point video)、FTV(free view point TV)、3DTV、社会安全網(surveillance)及びホームエンターテイメントのような多様な領域に使用されることができる。
シングルビュービデオ(single view video)とは異なり、マルチビューを利用した3Dビデオは、同じPOC(picture order count)のビューの間に高い相関度(correlation)を有する。マルチビュー映像は、隣接した複数のカメラ、すなわち、複数視点(view)を利用して全く同じ場面を同時に撮影するから、視差と一抹の照明差を除外すると、ほとんど同じ情報を含んでいるので、互いに異なるビュー間の相関度が高い。
したがって、マルチビュービデオのエンコード/デコードでは、互いに異なるビュー間の相関度を考慮して、現在ビューのエンコード及び/またはデコードに必要な情報を獲得できる。例えば、現在ビューのデコード対象ブロックを他のビューのブロックを参照して予測またはデコードできる。
本発明は、他のビューの情報を利用して現在ブロックの予測サンプルを効果的に引き出す方法及び装置を提供することを目的とする。
本発明は、周辺ブロックの情報を利用して効果的にエントロピーコーディングを行う方法及び装置を提供することを目的とする。
本発明は、周辺ブロックに同じ方式が適用されたか否かを考慮して、他のビューの情報を利用したレジデュアル予測を適用するための情報をエントロピーコーディングする方法及び装置を提供することを目的とする。
本発明の一実施の形態は、マルチビュービデオをデコードするビデオデコード装置であって、前記ビデオ装置は、ビットストリームをエントロピーデコードして、レジデュアル予測に関する情報を現在ブロックの周辺ブロックを参照してデコードするエントロピーデコード部と、現在ブロックのデコードに参照されるピクチャを格納するメモリと、前記レジデュアルに関する情報を利用して、前記メモリに格納されたピクチャにおいて前記現在ブロックに対応する第1ブロック及び第2ブロック間のサンプル値差に基づいて、現在ブロックに対する予測サンプルを引き出す予測部と、前記予測サンプルを利用して復元された現在ピクチャにフィルタリングを適用するフィルタリング部とを備え、前記第1ブロック及び第2ブロックのうち、少なくとも一つは、前記現在ブロックのビューとは異なるビューに属し、前記第1ブロックは、前記現在ブロックの動きベクトルまたはディスパリティベクトルにより特定され、前記第2ブロックは、前記現在ブロックの動きベクトル及びディスパリティベクトルにより特定されることができる。
本発明の他の実施の形態は、マルチビュービデオをデコードするビデオデコード方法であって、前記ビデオデコード方法は、現在ブロックの周辺ブロックを参照して、レジデュアル予測に関する情報をエントロピーデコードするステップと、前記レジデュアルに関する情報を利用して、前記現在ブロックに対応する第1ブロック及び第2ブロック間のサンプル値差に基づいて、現在ブロックに対する予測サンプルを引き出すステップと、前記予測サンプルを利用して復元された現在ピクチャにフィルタリングを適用するステップとを含み、前記第1ブロック及び第2ブロックのうち、少なくとも一つは、前記現在ブロックのビューとは異なるビューに属し、前記第1ブロックは、前記現在ブロックの動きベクトルまたはディスパリティベクトルにより特定され、前記第2ブロックは、前記現在ブロックの動きベクトル及びディスパリティベクトルにより特定することができる。
本発明によれば、他のビューの情報を利用して、現在ブロックの予測サンプルを効果的に引き出すことができる。
本発明によれば、周辺ブロックの情報を利用して、効果的にエントロピーコーディングを行うことができる。
本発明によれば、周辺ブロックに同じ方式が適用されたか否かを考慮して、他のビューの情報を利用したレジデュアル予測を適用するための情報を効果的にエントロピーコーディングできる。
3Dビデオのエンコード及びデコード過程を概略的に説明する図である。 ビデオエンコード装置の構成を概略的に説明する図である。 ビデオデコード装置の構成を概略的に説明する図である。 インタビューコーディングを概略的に説明する図である。 デプスマップを利用するマルチビューコーディング方法を概略的に説明する。 本発明に係るレジデュアル予測を概略的に説明する図である。 IVMCを概略的に説明するための図である。 現在ブロックの周辺ブロックを概略的に示したものである。 本発明に係るビデオエンコード装置の動作を概略的に説明するフローチャートである。 本発明に係るビデオデコード装置の動作を概略的に説明するフローチャートである。
本明細書においてピクセル(pixel)またはペル(PEL)は、一つの映像を構成する最小の単位を意味できる。また、特定のピクセルの値を表す用語として「サンプル(sample)」を使用することができる。サンプルは、一般にピクセルの値を表すが、輝度(Luma)成分のピクセル値のみを指示することもでき、色差(Chroma)成分のピクセル値のみを指示することもできる。
「ユニット(unit)」は、映像処理の基本単位または映像の特定位置を意味できる。ユニットは、場合によって「ブロック(block)」または「領域(area)」などの用語と互いに混用して使用することができる。通常の場合、MxNブロックは、M個の列とN個の行からなるサンプルまたは変換係数(transform coefficient)の集合を表すことができる。
以下、図を利用して、本発明について具体的に説明する。
図1は、3Dビデオのエンコード及びデコード過程を概略的に説明する図である。
図1を参照すると、3Dビデオエンコーダは、ビデオピクチャ及びデプスマップ(depth map)とエンコーダをエンコードして、ビットストリームとして出力できる。
デプスマップは、対応するビデオピクチャ(テクスチャピクチャ)のピクセルに対して、カメラと被写体間の距離情報(深さ情報)から構成することができる。例えば、デプスマップは、深さ情報をビットデプス(bit depth)に従って正規化した映像でありうる。このとき、デプスマップは、色差表現なしで記録された深さ情報から構成することができる。
一般に、被写体との距離と変位(ディスパリティー)は、互いに反比例するので、カメラパラメータを利用してデプスマップの深さ情報からビュー間の相関度を表すディスパリティー情報を引き出すことができる。
一般的なカラー映像、すなわち、ビデオピクチャ(テクスチャピクチャ)と共にデプスマップとカメラ情報を含むビットストリームは、ネットワークまたは格納媒体を介してデコーダに送信されることができる。
デコーダ側では、ビットストリームを受信してビデオを復元できる。デコーダ側において3Dビデオデコーダが利用される場合に、3Dビデオデコーダは、ビットストリームからビデオピクチャとデプスマップ及びカメラパラメータをデコードできる。デコードされたビデオピクチャとデプスマップ、そしてカメラパラメータを基盤とするマルチビュー(multi view)ディスプレイに必要なビューを合成できる。このとき、使用されるディスプレイがステレオ(streo)ディスプレイであると、復元されたマルチビューのうち、二つのピクチャを利用して3D映像をディスプレイできる。
ステレオビデオデコーダが使用される場合に、ステレオビデオデコーダは、ビットストリームから両眼に各々入射される二つのピクチャを復元できる。ステレオディスプレイでは、左眼に入射される左側映像と右眼に入射される右側映像の視差(view difference)あるいは変位(disparity)を利用して立体映像をディスプレイできる。ステレオビデオデコーダと共にマルチビューディスプレイが使用される場合には、復元された二つのピクチャに基づいて他のビューを生成して、マルチビューをディスプレイすることもできる。
2Dデコーダが使用される場合には、2次元映像を復元して2Dディスプレイに映像を出力できる。2Dディスプレイを使用するが、デコーダは、3Dビデオデコーダを使用するか、またはステレオビデオデコーダを使用する場合には、復元された映像のうちのいずれか一つを2Dディスプレイに出力することもできる。
図1の構成において、ビュー合成は、デコーダ側で行われることもでき、ディスプレイ側で行われることもできる。また、デコーダとディスプレイは、一つの装置の場合であってもよく、別の装置であってもよい。
図1では、説明の便宜上、3Dビデオデコーダとステレオビデオデコーダ、及び2Dビデオデコーダが別のデコーダであると説明したが、一つのデコード装置が3Dビデオデコード、ステレオビデオデコード、及び2Dビデオデコードを全部行うこともできる。また、3Dビデオデコード装置が3Dビデオデコードを行い、ステレオビデオデコード装置がステレオビデオデコードを行い、2Dビデオデコード装置が2Dビデオデコード装置を行うこともできる。なお、マルチビューディスプレイが2Dビデオを出力するか、またはステレオビデオを出力することもできる。
図2は、ビデオエンコード装置の構成を概略的に説明する図である。図2に示すように、ビデオエンコード装置200は、ピクチャ分割部205、予測部210、減算部215、変換部220、量子化部225、再整列部230、エントロピーエンコード部235、逆量子化部240、逆変換部245、加算部250、フィルタ部255及びメモリ260を備える。
ピクチャ分割部205は、入力されたピクチャを少なくとも一つの処理単位ブロックに分割できる。このとき、処理単位ブロックは、コーディング単位ブロック、予測単位ブロックまたは変換単位ブロックでありうる。コーディング単位ブロックは、コーディングの単位ブロックとして最大コーディング単位ブロックからクアッドツリー構造に従って分割されることができる。予測単位ブロックは、コーディング単位ブロックから分割(Partitioning)されるブロックであり、サンプル予測の単位ブロックでありうる。このとき、予測単位ブロックは、サブブロックに分けられることもできる。変換単位ブロックは、コーディング単位ブロックからクアッドツリー構造に従って分割されることができ、変換係数を引き出す単位ブロックまたは変換係数から残留信号を引き出す単位ブロックでありうる。
以下、説明の便宜上、コーディング単位ブロックは、コーディングブロックまたはコーディングユニット(coding unit:CU)といい、予測単位ブロックは、予測ブロックまたは予測ユニット(prediction unit:PU)といい、変換単位ブロックは、変換ブロックまたは変換ユニット(transform unit:TU)という。
予測ブロックまたは予測ユニットは、ピクチャ内でブロック形態の特定領域を意味することもでき、予測サンプルのアレイを意味することもできる。また、変換ブロックまたは変換ユニットは、ピクチャ内でブロック形態の特定領域を意味することもでき、変換係数またはレジデュアルサンプルのアレイを意味することもできる。
予測部210は、処理対象ブロック(以下、現在ブロックとする)に対した予測を行い、前記現在ブロックに対する予測サンプルを含む予測ブロックを生成できる。予測部210で行われる予測の単位は、コーディングブロックであっても良く、変換ブロックであっても良く、予測ブロックであっても良い。
予測部210は、現在ブロックにイントラ予測が適用されるか、インター予測が適用されるかを決定できる。
イントラ予測の場合に、予測部210は、現在ブロックが属するピクチャ(以下、現在ピクチャ)内の周辺ブロック画素に基づいて、現在ブロックに対する予測サンプルを引き出すことができる。このとき、予測部210は、(i)現在ブロックの周辺参照サンプルの平均あるいは補間(interpolation)を基盤とする予測サンプルを引き出すこともでき、(ii)現在ブロックの周辺ブロックのうち、予測対象ピクセルに対して特定方向に存在する参照サンプルに基づいて、予測サンプルを引き出すこともできる。説明の便宜上、(i)の場合を非方向性モード、(ii)の場合を方向性モードという。予測部210は、周辺ブロックに適用された予測モードを利用して、現在ブロックに適用される予測モードを決定することもできる。
インター予測の場合に、予測部210は、参照ピクチャ上において動きベクトルにより特定されるサンプルに基づいて、現在ブロックに対する予測サンプルを引き出すことができる。予測部210は、スキップ(skip)モード、マージ(merge)モード、及びMVPモードのうち、いずれか一つを適用して、現在ブロックに対する予測サンプルを引き出すことができる。スキップモードとマージモードの場合に、予測部210は、周辺ブロックの動き情報を現在ブロックの動き情報として利用できる。スキップモードの場合、マージモードとは異なり、予測サンプルと原本サンプル間の差(レジデュアル)が送信されない。MVPモードの場合、周辺ブロックの動きベクトルを動きベクトル予測子(motion vector predictor:MVP)として利用して、現在ブロックの動きベクトルを引き出すことができる。
インター予測の場合に、周辺ブロックは、現在ピクチャ内に存在する空間的周辺ブロックと参照ピクチャ(collocated picture)に存在する時間的周辺ブロックを含む。動き情報は、動きベクトルと参照ピクチャを含む。スキップモードとマージモードにおいて時間的周辺ブロックの動き情報が利用される場合に、参照ピクチャリスト上の最上位ピクチャが参照ピクチャとして利用されることもできる。
従属ビュー(dependent view)に対するエンコードの場合に、予測部210は、インタビュー予測を行うことができる。
予測部210は、他のビューのピクチャを含んで参照ピクチャリストを構成できる。インタビュー予測のために、予測部210は、ディスパリティ(disparity)ベクトルを引き出すことができる。現在ビュー内の他のピクチャで現在ブロックに対応するブロックを特定する動きベクトルとは異なり、ディスパリティベクトルは、現在ピクチャと同じAU(Access Unit)の他のビューで現在ブロックに対応するブロックを特定できる。
予測部210は、ディスパリティベクトルに基づいて、デプスビュー(depth view)内のデプスブロック(depth block)を特定でき、マージリストの構成、インタビュー動き予測(interview motion prediction)、レジデュアル予測、IC(Illumination Compensation)、ビュー合成などを行うことができる。
現在ブロックに対するディスパリティベクトルは、カメラパラメータを利用してデプス値から引き出されるか、現在または他のビュー内の周辺ブロックの動きベクトルまたはディスパリティベクトルから引き出されることができる。
例えば、予測部210は、参照ビュー(reference view)の時間的動き情報に対応するインタビューマージ候補(inter−view merging candidate:IvMC)、ディスパリティベクトルに対応するインタビューディスパリティベクトル候補(inter−view disparity vector candidate:IvDC)、ディスパリティベクトルのシフト(shift)により引き出されるシフトインタビューマージ候補(shifted IvMC)、現在ブロックがデプスマップ上のブロックである場合に対応するテクスチャから引き出されるテクスチャマージ候補(texture merging candidate:T)、テクスチャマージ候補からディスパリティを利用して引き出されるディスパリティ引き出しマージ候補(disparity derived merging candidate:D)、ビュー合成を基盤として引き出されるビュー合成予測マージ候補(view synthesis prediction merge candidate:VSP)などをマージ候補リストに追加できる。
このとき、従属ビューに適用されるマージ候補リストに含まれる候補の数は、所定の値に制限することができる。
また、予測部210は、インタ−ビュー動きベクトル予測を適用して、ディスパリティベクトルに基づいて現在ブロックの動きベクトルを予測することもできる。このとき、予測部210は、対応する深さブロック内の最大深さ値の転換(conversion)に基づいて、ディスパリティベクトルを引き出すことができる。参照ビュー内の現在ブロックのサンプル位置にディスパリティベクトルを加えて参照ビュー内の参照サンプルの位置が特定されると、参照サンプルを含むブロックを参照ブロックとして利用できる。予測部210は、参照ブロックの動きベクトルを現在ブロックの候補動きパラメータあるいは動きベクトル予測子候補として利用でき、前記ディスパリティベクトルをDCPのための候補ディスパリティーベクトルとして利用できる。
減算部215は、原本サンプルと予測サンプル間の差であるレジデュアルサンプルを生成する。スキップモードが適用される場合には、上述のように、レジデュアルサンプルを生成しなくても良い。
変換部220は、変換ブロック単位にレジデュアルサンプルを変換して、変換係数(transform coefficient)を生成する。量子化部225は、変換係数を量子化して、量子化された変換係数を生成できる。
再整列部230は、量子化された変換係数を再整列する。再整列部230は、係数をスキャニング(Scanning)方法によりブロック形態の量子化された変換係数を1次元ベクトル形態に再整列できる。
エントロピーエンコード部235は、量子化された変換係数に対するエントロピーエンコードを行うことができる。エントロピーエンコードには、例えば、指数ゴロム(Exponential Golomb)、CAVLC(Context−Adaptive Variable Length Coding)、CABAC(Context−Adaptive Binary Arithmetic Coding)などのようなエンコード方法を使用することができる。エントロピーエンコード部235は、量子化された変換係数の他にビデオ復元に必要な情報(例えば、シンタックスエレメント(syntax element)の値等)を共にまたは別にエンコードすることもできる。
エントロピーエンコードされた情報は、ビットストリーム形態でNAL(Network Abstraction Layer)ユニット単位に送信または格納されることができる。
逆量子化(dequantization)部240は、量子化された変換係数を逆量子化して、変換係数を生成する。逆変換(inverse transform)部245は、変換係数を逆変換してレジデュアルサンプルを生成する。
加算部250は、レジデュアルサンプルと予測サンプルを合わせてピクチャを復元する。レジデュアルサンプルと予測サンプルは、ブロック単位に加算されて復元ブロックを生成することもできる。ここで、加算部250は、別の構成と説明したが、加算部250は、予測部210の一部であっても良い。
復元されたピクチャ(reconstructed picture)に対してフィルタ部255は、デブロッキングフィルタ及び/またはオフセットを適用できる。デブロッキングフィルタリング及び/またはオフセットを介して、復元ピクチャ内のブロック境界のアーチファクトまたは量子化過程での歪みが補正されることができる。オフセットは、サンプル単位に適用されても良く、デブロッキングフィルタリングの過程が完了した後に適用されても良い。
メモリ260は、復元ピクチャまたはエンコード/デコードに必要な情報を格納することができる。例えば、メモリ260は、インター予測/インタ−ビュー予測に使用されるピクチャを格納することができる。このとき、インター予測/インタ−ビュー予測に使用されるピクチャは、参照ピクチャセットあるいは参照ピクチャリストにより指定されることもできる。
ここでは、一つのエンコード装置が独立ビュー及び従属ビューをエンコードすると説明したが、これは、説明の便宜のためのものであり、各ビュー別に別のエンコード装置が構成されるか、または各ビュー別に別の内部モジュール(例えば、各ビュー別予測部)が構成されることもできる。
図3は、ビデオデコード装置の構成を概略的に説明する図である。図3を参照すると、ビデオデコード装置300は、エントロピーデコード部310、再整列部320、逆量子化部330、逆変換部340、予測部350、加算部360、フィルタ部370、メモリ380を備える。
ビデオ情報を含むビットストリームが入力されると、ビデオデコード装置300は、ビデオエンコード装置でビデオ情報が処理されたプロセスに対応してビデオを復元できる。
例えば、ビデオデコード装置300は、ビデオエンコード装置で適用された処理単位を利用して、ビデオデコードを行うことができる。したがって、ビデオデコードの処理単位ブロックは、コーディング単位ブロック、予測単位ブロックまたは変換単位ブロックでありうる。コーディング単位ブロックは、デコードの単位ブロックとして最大コーディング単位ブロックからクアッドツリー構造に従って分割されることができる。予測単位ブロックは、コーディング単位ブロックから分割される(partitioning)ブロックであり、サンプル予測の単位ブロックでありうる。このとき、予測単位ブロックは、サブブロックに分けられることもできる。変換単位ブロックは、コーディング単位ブロックからクアッドツリー構造に従って分割されることもでき、変換係数を引き出す単位ブロックまたは変換係数から残留信号を引き出す単位ブロックでありうる。
エントロピーデコード部310は、ビットストリームをパッシングしてビデオ復元またはピクチャ復元に必要な情報を出力できる。例えば、エントロピーデコード部310は、指数ゴロム、CAVLC、CABACなどに基づいてビットストリーム内の情報をデコードし、ビデオ復元に必要なシンタックスエレメントの値、レジデュアルに関する変換係数の量子化された値などを出力できる。このとき、エントロピーデコード部310は、現在ブロックの周辺ブロックを参照して、現在ブロックに対する情報をエントロピーデコードすることもできる。
3Dビデオを再生するために、複数のビュー(view)を処理する場合、ビットストリームは、各ビュー別に入力されることができる。あるいはビットストリーム内で各ビューに対する情報がマルチプレクスされていることもできる。この場合、エントロピーデコード部310は、ビットストリームを逆多重化(de−multiplexing)して、ビュー別にパッシングすることもできる。
再整列部320は、量子化されている変換係数を2次元のブロック形態に再整列できる。再整列部320は、エンコード装置で行われた係数スキャニングに対応して再整列を行うことができる。
逆量子化部330は、量子化されている変換係数を(逆)量子化パラメータに基づいて逆量子化して、変換係数を出力できる。このとき、量子化パラメータを引き出すための情報は、エンコード装置からシグナリングされることができる。
逆変換部340は、変換係数を逆変換してレジデュアルサンプルを引き出すことができる。
予測部350は、現在ブロックに対する予測を行い、前記現在ブロックに対する予測サンプルを含む予測ブロックを生成できる。予測部350で行われる予測の単位は、コーディングブロックであっても良く、変換ブロックであっても良く、予測ブロックであっても良い。
予測部350は、イントラ予測を適用するかインター予測を適用するかを決定できる。このとき、イントラ予測とインター予測のうちのどれを適用するかを決定する単位と予測サンプル生成する単位とは、互いに異なりうる。また、インター予測とイントラ予測において、予測サンプルを生成する単位もやはり、互いに異なりうる。
イントラ予測の場合に、予測部350は、現在ピクチャ内の周辺ブロック画素に基づいて、現在ブロックに対する予測サンプルを引き出すことができる。予測部350は、現在ブロックの周辺参照サンプルに基づいて方向性モードまたは非方向性モードを適用して、現在ブロックに対する予測サンプルを引き出すことができる。このとき、周辺ブロックのイントラ予測モードを利用して、現在ブロックに適用する予測モードが決定されることもできる。
インター予測の場合に、予測部350は、参照ピクチャ上において動きベクトルにより特定されるサンプルに基づいて、現在ブロックに対する予測サンプルを引き出すことができる。予測部350は、スキップ(skip)モード、マージ(merge)モード及びMVPモードのうち、いずれか一つを適用して、現在ブロックに対する予測サンプルを引き出すことができる。
スキップモードとマージモードの場合に、周辺ブロックの動き情報が現在ブロックの動き情報として利用されることができる。このとき、周辺ブロックは、空間的周辺ブロックと時間的周辺ブロックを含むことができる。
予測部350は、利用可能な(available)周辺ブロックの動き情報でマージ候補リストを構成し、マージインデックスがマージ候補リスト上において指示する情報を現在ブロックの動きベクトルとして使用することができる。マージインデックスは、エンコード装置からシグナリングされることができる。動き情報は、動きベクトルと参照ピクチャを含む。スキップモードとマージモードにおいて時間的周辺ブロックの動き情報が利用される場合に、参照ピクチャリスト上の最上位ピクチャが参照ピクチャとして利用されることもできる。
スキップモードの場合、マージモードとは異なり、予測サンプルと原本サンプルとの間の差(レジデュアル)が送信されない。
MVPモードの場合、周辺ブロックの動きベクトルを動きベクトル予測子(MVP)として利用して、現在ブロックの動きベクトルが引き出されることができる。このとき、周辺ブロックは、空間的周辺ブロックと時間的周辺ブロックを含むことができる。
従属ビュー(dependent view)に対するエンコードの場合に、予測部350は、インタビュー予測を行うこともできる。このとき、予測部350は、他のビューのピクチャを含んで参照ピクチャリストを構成できる。
インタビュー予測のために、予測部210は、ディスパリティ(disparity)ベクトルを引き出すことができる。予測部350は、ディスパリティベクトルに基づいて、デプスビュー(depth view)内のデプスブロック(depth block)を特定でき、マージリストの構成、インタビュー動き予測(interview motion prediction)、レジデュアル予測、IC(Illumination Compensation)、ビュー合成などを行うことができる。
現在ブロックに対するディスパリティベクトルは、カメラパラメータを利用してデプス値から引き出されるか、現在または他のビュー内の周辺ブロックの動きベクトルまたはディスパリティベクトルから引き出されることができる。カメラパラメータは、エンコード装置からシグナリングされることができる。
従属ビューの現在ブロックにマージモードを適用する場合に、予測部350は、参照ビュー(reference view)の時間的動き情報に対応するIvMC、ディスパリティベクトルに対応するIvDC、ディスパリティベクトルのシフト(shift)により引き出されるシフトIvMC、現在ブロックがデプスマップ上のブロックである場合に対応するテクスチャから引き出されるテクスチャマージ候補(T)、テクスチャマージ候補からディスパリティを利用して引き出されるディスパリティ引き出しマージ候補(D)、ビュー合成を基盤として引き出されるビュー合成予測マージ候補(VSP)などをマージ候補リストに追加できる。
このとき、従属ビューに適用されるマージ候補リストに含まれる候補の数は、所定の値に制限されることができる。
また、予測部350は、インタ−ビュー動きベクトル予測を適用して、ディスパリティベクトルに基づいて現在ブロックの動きベクトルを予測することもできる。このとき、予測部350は、ディスパリティベクトルによって特定される参照ビュー内のブロックを参照ブロックとして利用できる。予測部350は、参照ブロックの動きベクトルを現在ブロックの候補動きパラメータあるいは動きベクトル予測子候補として利用でき、前記ディスパリティベクトルをDCPのための候補ディスパリティーベクトルとして利用できる。
加算部360は、レジデュアルサンプルと予測サンプルを足して現在ブロックあるいは現在ピクチャを復元できる。加算部360は、レジデュアルサンプルと予測サンプルをブロック単位に足して現在ピクチャを復元することもできる。スキップモードが適用された場合には、レジデュアルが送信されないので、予測サンプルが復元サンプルになることができる。ここでは、加算部360を別の構成と説明したが、加算部360は、予測部350の一部であっても良い。
フィルタ部370は、復元されたピクチャにデブロッキングフィルタリング及び/またはオフセットを適用できる。このとき、オフセットは、サンプル単位のオフセットとして適応的に適用されることができる。
メモリ380は、復元ピクチャまたはデコードに必要な情報を格納することができる。例えば、メモリ380は、インター予測/インタ−ビュー予測に使用されるピクチャを格納することができる。このとき、インター予測/インタ−ビュー予測に使用されるピクチャは、参照ピクチャセットあるいは参照ピクチャリストにより指定されることもできる。復元されたピクチャは、参照ピクチャとして利用されることができる。
また、メモリ380は、復元されたピクチャを出力順序に従って出力することもできる。3D映像を再生するために、図示していないが、出力部は、複数の互いに異なるビューをディスプレイできる。
図3の例では、一つのデコード装置において独立ビュー(independent view)と従属ビュー(dependent view)がデコードされると説明したが、これは、説明の便宜のためのものであり、本発明は、これに限定されない。例えば、ビュー別に各々のデコード装置が動作することもでき、一つのデコード装置内に各ビューに対応する動作部(例えば、予測部)が備えられることができる。
マルチビューのビデオをコーディングする場合に、エンコード装置及びデコード装置は、現在ピクチャと同じAU(Access Unit)に属する他のビューのコーディングされるデータを利用して、現在ビューに対するビデオコーディングの効率を上げることができる。このとき、POC(Picture Order Count)が同じピクチャを一つのAUとすることができる。POCは、ピクチャのディスプレイ順序に対応する。
エンコード装置及びデコード装置は、AU単位にビューをコーディングすることもでき、ビュー単位にピクチャをコーディングすることもできる。ビューの間には、決まった順序にしたがってコーディングが行われる。最も速くコーディングされるビューをベースビュー(base view)または独立ビューということができる。独立ビューがコーディングされた後に、他のビューを参照してコーディングされることのできるビューを従属ビューということができる。また、現在ビューが従属ビューである場合に、現在ビューのコーディング(エンコード/デコード)に参照される他のビューを参照ビューということもできる。
図4は、インタビューコーディングを概略的に説明する図である。図4の例において、コーディングは、AU単位に行われ、V0を独立ビュー、V1を従属ビューとする。現在ピクチャ410内のブロックAのように、動きベクトル440を利用して同じビューの他のピクチャ430を参照するインターピクチャ予測を動き補償予測(Motion−Compensated Prediction:MCP)とすることができる。また、現在ピクチャ内のブロックBのように、ディスパリティベクトル450を利用して、同じアクセスユニット内の、すなわち同じPOCを有する他のビューのピクチャ420を参照するインターピクチャ予測をディスパリティ補償予測(Disparity−Compensated Picture:DCP)とすることができる。
マルチビューのビデオをコーディングする時、他のビューのピクチャを利用する方法の他にデプスマップ(depth map)を利用することもできる。
図5は、デプスマップを利用するマルチビューコーディング方法を概略的に説明する。
図5に示すように、現在ビュー内の現在ピクチャ500のブロック(現在ブロック)505は、デプスマップ510を利用してコーディング(エンコード/デコード)されることができる。このとき、現在ブロック505内のサンプル515の位置(x,y)に対応するデプスマップ510内のサンプル520の位置(x,y)の深さ(depth)値dがディスパリティベクトル525に変換されることができる。深さ値dは、サンプル(ピクセル)とカメラ間の距離を基盤として引き出されることができる。
エンコード装置及びデコード装置は、ディスパリティベクトル525をサンプル530位置(x,y)に足して、参照ビュー内の現在ピクチャ540内の参照サンプル535の位置を決定できる。ディスパリティベクトルは、x軸成分のみを有していることができる。したがって、ディスパリティベクトルの値は、(disp,0)でありえ、参照サンプル540の位置(xr,y)は、(x+disp,y)と決定されることができる。
エンコード装置及びデコード装置は、参照ピクセル535を含む参照ブロック545の動きパラメータ(motion parameter)現在ブロックの動きパラメータの候補として使用することができる。例えば、参照ビュー内の参照ピクチャ550が参照ブロック545に対した参照ピクチャである場合、参照ブロック545の動きベクトル555は、現在ブロック505の動きベクトル560に引き出されることもできる。このとき、ピクチャ565は、現在ビュー内の参照ピクチャである。
一方、エンコード装置及びデコード装置は、従属ビューのMCPブロックに対してレジデュアル予測(residual prediction)を行うことができる。ここでは、説明の便宜上、レジデュアル予測がエンコード装置とデコード装置の予測部で行われると説明する。
予測部は、現在ブロックに対応する参照ビューのブロックで予測した動きベクトルを利用して、現在ブロックのレジデュアルを予測できる。
図6は、本発明に係るレジデュアル予測を概略的に説明する図である。
現在ピクチャ600内の現在ブロック650のレジデュアルサンプルを予測する場合、予測部は、現在ブロック605に対応する参照ビュー(Vref)内のブロック610の位置をディスパリティベクトル615を利用して特定できる。現在ビュー内で現在ブロック605に対したインター予測が行われる場合に、ブロックA620は、L0方向に参照されうるブロックであり、ブロックB625は、L1方向に参照されうるブロックである。ブロックA620は、動きベクトルmv0 630により特定されることができ、ブロックB625は、動きベクトルmv1 635により特定されることができる。
予測部は、参照ビュー内でmv0を利用して対応ブロック610の参照ブロックC640を特定し、mv1を利用して対応ブロック620の参照ブロックD645を特定できる。このとき、参照ブロックC640が属するピクチャのPOCと参照ブロックA620が属するピクチャのPOCとは同一でありうる。また、参照ブロックD645が属するピクチャのPOCと参照ブロックB625が属するピクチャのPOCとは同一でありうる。
インタ−ビューレジデュアル予測は、複雑度を考慮して、特定予測方向に対してのみ適用されることもできる。例えば、図6では、L0方向の動きベクトルmv0とL1方向の動きベクトルmv1が全部考慮されうると示したが、L0方向のmv0のみを利用することもできる。
以下、説明の便宜上、現在ビュー内では、L0の動きベクトルmv0のみを利用して、インタ−ビューレジデュアル予測を行うことを説明する。
インタ−ビューレジデュアル予測が適用される場合は、(1)現在ブロック605に対して同一ビュー参照ブロック620を利用した予測が行われる場合と、(2)現在ブロック605に対して他のビューの参照ブロック610を利用して予測が行われる場合とがある。
現在ブロック605に対した予測サンプルが参照ブロック620を参照して引き出される場合に、予測部は、参照ビュー(vref)内の対応ブロック610のサンプル値と参照ブロック640のサンプル値間の差値を利用して、現在ブロック605の予測サンプルを修正(modify)できる。このとき、利用されるブロックのサンプル値は、予測サンプルのサンプル値でありうる。
現在ブロック605に対した予測サンプルが参照ビュー内の対応ブロック610を利用して引き出される場合に、予測部は、現在ビュー内の参照ブロックA620のサンプル値と参照ビュー内の参照ブロックC640のサンプル値間の差値を利用して、現在ブロック605の予測サンプルを修正できる。このとき、利用されるブロックのサンプル値は、予測サンプルのサンプル値でありうる。
上述のように、現在ブロックに対するインター予測に参照ビューの対応ピクチャが参照されると、レジデュアル予測には、現在ブロックと同じビューの参照ピクチャと前記対応ピクチャの参照ピクチャが利用されることができる。したがって、この場合、同一ビューの参照ピクチャ内の第1ブロックは、動きベクトルと特定でき、対応ピクチャの参照ピクチャ内の第2ブロックは、ディスパリティベクトルと動きベクトルと特定でき、第1ブロックと第2ブロックサンプルの差を利用して、現在ブロックの予測サンプルを修正できる。
現在ブロックに対するインター予測に現在ブロックと同じビュー内の参照ピクチャが利用されると、レジデュアル予測には、参照ビューの対応ピクチャと対応ピクチャの参照ピクチャが利用されることができる。したがって、この場合、参照ビューの対応ピクチャ内の第1ブロックは、ディスパリティベクトルと特定でき、対応ピクチャの参照ピクチャ内の第2ブロックは、ディスパリティベクトルと動きベクトルと特定でき、第1ブロックと第2ブロックサンプルの差を利用して、現在ブロックの予測サンプルを修正できる。
一方、現在ブロック605の予測サンプルは、前記差値に所定の加重値を付加した値を足すことによって修正できる。前記差値を他のビューのサンプルを利用して得た差値という意味でインタ−ビューレジデュアルということができる。
予測部あるいは加算部は、修正された予測サンプルに基づいて現在ブロックの復元サンプルを引き出すことができる。例えば、予測部あるいは加算部は、修正された予測サンプルに現在ブロックに対するレジデュアルサンプルを足して、現在ブロックに対する復元サンプルを引き出すことができる。
一方、引き出したインタ−ビューレジデュアルサンプルに適用される加重値(weighting factor)は、0、0.5または1のうちのいずれか一つの値でありうる。加重値0は、レジデュアル予測が適用されないということを指示することでありうる。どんな加重値を適用するかを指示するインデックス情報がブロック単位に送信されることができる。
インタ−ビューレジデュアル予測は、DCPブロックまたはイントラモードのブロックのように動きベクトルがない場合には適用されない場合もある。
上述のインタ−ビューレジデュアル予測の他にも、マルチビュービデオコーディングでは、他のビューを参照して現在ビューを復元する多様な方法が使用されることができる。例えば、参照ビデオと深さ(depth)を使用してビューを合成するビュー合成予測(View Synthesis Prediction:VSP)が行われることもでき、深さビューの特性を活用して現在ビューを復号化することもできる。しかしながら、他のビューを利用して現在ビューを復号化する場合に、各ビュー(すなわち、各カメラ)の撮影に使用された照明またはカメラの特性が異なるから、ビュー間の特性が異なって現在ビューに対する予測の性能が低下する恐れがある。したがって、マルチビューコーディングにおいて、予測の正確度を高めるために、ビュー間の差を補償することをインタ−ビューミスマッチ補償(Inter−View Mismatch Compensation:IVMC)という。IVMCのうち、代表的なものに、照度補償(Illumination Compensation:IC)がある。
図7は、IVMCを概略的に説明するための図である。図7のように、現在ピクチャ710の現在ブロック720をコーディング(エンコード/デコード)する場合を考慮しよう。このとき、現在ブロック720は、予測ブロックでありうる。インタ−ビュー予測を適用する場合に、インタ−ビュー参照ピクチャ730内の参照ブロック740を利用して予測が行われることができる。
このとき、互いに異なるビューに属する現在ピクチャ710と参照ピクチャ730とは、互いに異なるカメラを介して撮影されたピクチャである。したがって、上述のように、カメラ別に撮影条件、撮影設定などが異なるから、ビュー間のミスマッチ(mismatch)が存在しうる。
このミスマッチを補償して予測を行う場合、さらに正確なインタ−ビュー予測を行うことができる。このとき、インタ−ビュー予測は、デプスマップ(depth map)に基づいて、仮像ビューを合成して予測を行う場合を含むことができる。
3Dビデオコーディングにおいて、このようにビュー間の差を補償する方法について論議され続いている。
例えば、式1のように現在ブロック(例えば、CU)とインタビュー参照ブロックの周辺ピクセルの特性を反映して、現在PUの予測と参照に対する補償をすることもできる。
〔式1〕
Figure 2016537858
式1中、サンプル位置(i,j)は、現在PU内のサンプルの位置であり、Rは、ディスパリティベクトルdvにより特定されるインタビュー参照ブロックの参照サンプルである。aとbは、補償のための所定の線形係数である。
しかしながら、このようなIVMC方式は(例えば、コンピュータで生成したシーケンスのように)、インタビューピクチャ間ピクセル値の分布差が大きくない場合、むしろコーディング性能の低下を引き起こすことができる。したがって、スライスヘッダに現在コーディングされるピクチャとインタビュー参照ピクチャのピクセル値分布差を見て、補償を行うか否かを指示する情報がシグナリングされるようにすることもできる。
ピクセル値分布の差を計算する方式は、いろいろありうるが、例として両ヒストグラムのSAD(Sum of Absolute Difference)を計算する方式がありうる。この方式は、次のように行われることができる。
(1)エンコーダは、現在ピクチャとインタビュー参照ピクチャのピクセル値分布を表すヒストグラムを生成する。このヒストグラムは、各ピクチャにおいて該当ピクセル値が何回現れるかを表示できる。
(2)エンコーダは、両ヒストグラムの各ピクセル値に差値を求めて合算する。ヒストグラムのSADを求める。
(3)エンコーダは、ヒストグラムのSADが決まった臨界値(threshold)以上であると、補償を行うか否かを指示するフラグの値を1に設定し、ピクセル値分布の差を補償する。SAD値が臨界値以下であると、フラグ値を0に設定して、補償が行われないようにする。
(1)〜(3)の方式の他に、効率的なシグナリングのためにエンコーダが前記フラグ情報をAPS(Adaptive Parameter Set)に格納し、変化があるときのみにその値を送信して、スライス単位に適用されうるようにする方式も使用することができる。
このとき、デコーダ側では、エンコーダが送信するフラグ情報の指示に従って、ピクセル値分布の差を補償できる。
上述のように、レジデュアル予測またはIVMCなどを効果的に制御できるように、エンコーダ側からデコーダ側へ関連情報が送信されることができる。ビデオ情報のシグナリングは、ネットワーク上に送信されることもでき、記録媒体などを介して送信されることもできる。
このようにエンコーダからデコーダに送信される情報をコーディングするのにエントロピーコーディング(エントロピーエンコード/エントロピーデコード)が利用されることができる。ビデオ情報は、エントロピーエンコードされてビットストリームとしてデコーダに送信されることができ、デコード装置は、ビットストリームをエントロピーデコードして情報を獲得できる。ビデオ情報のエントロピーコーディングのために、CABAC(Contex−based Adaptive Binary Arithmetic Code:コンテキスト基盤適応型算術コード)が利用されることができる。
ビデオ情報がシンタックスエレメント(syntax element)の値として送信される場合に、エントロピーデコード部は、入力された値を2進化してビンストリング(bin string)に出力できる。ここで、ビンストリングは、一つ以上のビン(bin)から構成される2進シーケンス(binary sequence)または2進コード(binary code)を意味できる。ビン(bin)は、シンボル及び/またはシンタックス要素の値が2進化を介して2進シーケンス(または2進コード)で表現される場合、2進シーケンス(または2進コード)を構成する各桁の値(0または1)を意味できる。
2進化(binarization)方式は、シンタックスエレメントによって異なって決まることができる。シンタックスエレメントに適用されうる2進化タイプには、例えば、ユナリ(unary)2進化、切削されたユナリ(truncated unary)2進化、切削されたライス(truncated rice)2進化、指数ゴロム(Exp−Golomb)2進化及び固定長(fixed−length)2進化などがありうる。
2進化された信号(ビンストリング)は、ビン別に算術コーディング(arithmetic coding)されるかバイパスされるかが決定されることができる。
算術コーディングが適用される場合に、デコードするビンに対しては、確率値を反映するコンテキストが割り当てられ、割り当てられたコンテキストに基づいて該当ビンがコーディング(エントロピーエンコード/エントロピーデコード)されうる。各ビンに対するコーディング後に、コンテキストはアップデートされることができる。
符号化されたシンタックスエレメント、すなわちシンタックスエレメント値のビンストリームにおいて各々のビンは、ビンインデックス(binIdx)によりインデクシングされうる。エントロピーデコード部は、各ビンに対しコンテキストインデックス(ctxIdx)を引き出すことができる。ビンに適用する確率、すなわち、コンテキストモデルを指示するコンテキストインデックス(ctxIdc)は、コンテキストインデックスオフセット値(context index offset、ctxIdxOffset)とコンテキストインデックス増加分(context index increments、ctxIdc)を利用して引き出されることができる。
エントロピーデコード部は、スライスタイプ(Iスライス、PスライスまたはBスライス)に応じて、異なるコンテキストが適用されるように、オフセット(ctxIdxOffset)値を設定できる。
エントロピーデコード部は、ビンインデックス別にコンテキストインデックス増加分(context index increments、ctxIdc)を決定できる。例えば、エントロピーデコード部は、予め設定された「コンテキストテーブル」に基づいてコンテキストインデックス増加分を決定することもできる。
エントロピーデコード部は、コンテキストインデックス増加分をコンテキストインデックスオフセットと足すことによって、該当ビンに対するコンテキストインデックスを導き、コンテキストインデックスに基づいて確率変数(pStateIdx)を引き出すことができる。確率変数は、シンタックスエレメント別に設定されたコンテキストインデックステーブル上においてコンテキストインデックスにより指示される初期値(init Value)を利用して決定されることができる。エントロピーデコード部は、確率変数に基づいて発生確率の高い状態値(valMps)を決定して、対象ビンをデコードできる。
バイパスコーディングされる場合には、ビンに対してコンテキストを割り当てて更新する手順などがバイパス(bypass)されることができる。例えば、バイパスモードでは、均一な確率分布を適用してコーディングを行うことができる。
シンタックスエレメントに対するビンに対してデコードが完了すると、エントロピーデコード部は、デコードされたビンを合せた2進コードが特定シンタックスエレメントにマッピングされる場合、前記2進コードを前記シンタックスエレメントの値として決定できる。
インタ−ビューレジデュアル予測の場合、レジデュアル予測をブロック単位よりより高いレベルで制御できるように、スライスヘッダ、ピクチャ、シーケンスまたはビデオレベルでレジデュアル予測を適用できるかに関する情報、すなわちレジデュアル予測の適用有無に関する情報が送信されることができる。以下、説明の便宜上、インタ−ビューレジデュアル予測を場合によってARP(Advanced Residual Prediction)という。
ARPを適用するにおいて、レジデュアル予測が適用されるか否かを指示する情報、加重値インデックスが使用されたか否かを指示する情報、どんな加重値が適用されたか否かを指示するインデックスに関する情報などは、ブロック単位に送信されることもできる。送信の単位になるブロックは、予測ブロックでありうる。または、送信の単位になるブロックは、予測ブロックでありうる。加重値インデックスが使用されたか否かは、フラグに送信されることもできる。
現在スライスにレジデュアル予測が適用されうるように設定された場合、現在ブロックがレジデュアル予測に基づいて予測されたか否かを指示するために、ブロック単位にレジデュアル予測が適用されるかを指示するフラグ、加重値が適用されるかを指示するフラグ及び/または加重値インデックスが送信されることができる。
現在ブロックが動きベクトル予測に基づいて符号化された場合に、参照した参照ピクチャリストがL0なのかL1なのかを指示する情報と参照ピクチャリスト内の参照ピクチャインデックスが送信される。このとき、参照ピクチャインデックスがインタ−ビュー映像を指示する場合、エンコード装置は、レジデュアル予測が適用されるか否かを指示するARP(Advanced Residual prediction)フラグ(ARP flag)と加重値インデックスを送信しないときもある。この場合、デコード装置は、現在ブロックに対するARPフラグと加重値インデックスに関するパッシングを省略できる。
一方、現在ブロックがインター予測で符号化された場合、特にマージモードで符号化され、マージ候補リスト上において最上端候補が利用された場合(すなわち、マージインデックスが0の場合)においてのみ、エンコード装置がARPフラグを送信し、デコード装置がARPフラグをパッシングすることもできる。現在ブロックにマージモードが適用されるが、マージインデックスが0より大きな場合には、マージ候補ブロックからARPフラグ及び加重値インデックスを引き出して使用することもできる。
具体的には、レジデュアル予測を適用するために、エンコード装置は、二つのシンタックスエレメント(syntax element)値を符号化して、デコード装置に送信できる。このとき、デコード装置に情報を送信するということは、情報をネットワーク上においてデコード装置に送信するということだけでなく、情報を格納媒体に格納してデコード装置に伝達することを含む。
レジデュアル予測を行うための二つのシンタックスエレメント、すなわち情報要素(information element)は、現在ブロックにレジデュアル予測が適用されることができるか否かを表すARP flag(iv_res_pred_flag)と現在ブロックにレジデュアル予測が適用されることができる場合に、レジデュアル予測に使用される加重値インデックス(iv_res_pred_weight_idx)である。
エンコード装置は、iv_res_pred_flagの値とiv_res_pred_weight_idx値をエンコードして、デコード装置に送信できる。
上述のように、iv_res_pred_flagは、インタ−ビューレジデュアル予測がデコード過程に利用されるか否かを指示する。iv_res_pred_flagの値が0の場合には、インタ−ビューレジデュアル予測が適用されないということを指示する。iv_res_pred_flagの値が1の場合には、インタ−ビューレジデュアル予測が適用されうることを指示する。
iv_res_pred_weight_idxは、レジデュアル予測に使用される加重値(weighting factor)のインデックスを指示できる。iv_res_pred_weight_idxの値が0であると、現在ブロックにレジデュアル予測が適用されないということを指示できる。iv_res_pred_weight_idxの値が0でないと、現在ブロックにレジデュアル予測が利用されるということを指示できる。
レジデュアル予測を適用する場合に、エンコード装置は、符号化効率を考慮して周辺ブロックのARPフラグとの相関性を考慮して、現在ブロックに対するARPフラグをコーディング(エンコード/デコード)できる。
図8は、現在ブロックの周辺ブロックを概略的に示したものである。
図8を参照すると、現在ブロックの周辺ブロックのうち、A1とB1ブロックのARPフラグ情報を使用して、現在ブロックのARPフラグをエンコード/デコードする時に使用するコンテキストモデル(context model)が決定されることができる。コンテキストモデルは、シンタックスエレメントをコーディングする時に使用するコンテキストを特定するから、該当シンタックスエレメントに適用するコンテキストを指示するコンテキストインデックス(context index)でありうる。このとき、A1ブロックは、現在ブロックの左側ブロックであり、B1ブロックは、現在ブロックの上側ブロックである。
このとき、エンコード装置及びデコード装置は、A1ブロックとB1ブロックを全部考慮して、現在ブロックのARPフラグをコーディングできる。また、エンコード装置及びデコード装置は、A1ブロックを考慮して現在ブロックのARPフラグをコーディングすることもできる。また、エンコード装置及びデコード装置は、B1ブロックを考慮して現在ブロックのARPフラグをコーディングすることもできる。
具体的には、A1ブロックとB1ブロックが全部レジデュアル予測に基づいてコーディングされた場合(すなわち、左側周辺ブロックと上側周辺ブロックを全部考慮するものの、上側周辺ブロックと左側周辺ブロックが全部レジデュアル予測に基づいてコーディングされた場合)、現在ブロックのARPフラグをコーディングする時に使用するコンテキストモデルの値は2となる。
二つの周辺ブロックのうち、一つのブロックのみがレジデュアル予測に基づいてコーディングされた場合に、現在ブロックのコンテキストモデル値は1となる。
例えば、現在ブロックの左側周辺ブロックと上側周辺ブロックを全部考慮するものの、二つの周辺ブロックのうち、いずれか一つがレジデュアル予測に基づいてコーディングされた場合に、現在ブロックに対するARPフラグのコーディングに適用されるコンテキストモデル値は、1となることができる。
あるいは現在ブロックの左側周辺ブロックのみを考慮するものの、左側周辺ブロックがレジデュアル予測に基づいてコーディングされた場合に、現在ブロックに対するARPフラグのコーディングに適用されるコンテキストモデル値は、1となることができる。また、現在ブロックの上側周辺ブロックのみを考慮するものの、上側周辺ブロックがレジデュアル予測に基づいてコーディングされた場合に、現在ブロックに対するARPフラグのコーディングに適用されるコンテキストモデル値は、1となることができる。
周辺ブロックA1とB1のうち、いずれのブロックにもレジデュアル予測が行われないと、現在ブロックのARPフラグのためのコンテキストモデル値は、0となる。
現在ブロックの左側周辺ブロックと上側周辺ブロックを全部考慮するものの、二つの周辺ブロックのうち、いずれもレジデュアル予測に基づいてコーディングされない場合に、現在ブロックに対するARPフラグのコーディングに適用されるコンテキストモデル値は、0となることができる。
あるいは現在ブロックの左側周辺ブロックのみを考慮するものの、左側周辺ブロックがレジデュアル予測に基づいてコーディングされない場合に、現在ブロックに対するARPフラグのコーディングに適用されるコンテキストモデル値は、0となることができる。また、現在ブロックの上側周辺ブロックのみを考慮するものの、上側周辺ブロックがレジデュアル予測に基づいてコーディングされない場合に、現在ブロックに対するARPフラグのコーディングに適用されるコンテキストモデル値は、0となることができる。
このような計算されたコンテキストモデル値を通じて、ARPフラグをデコードして現在ブロックのコーディングにレジデュアル予測が適用されるかが分かる。
ARPフラグをデコードする場合に、上記のようなコンテキストモデリング(context modelling)を使用して、現在ブロックのコンテキストモデルを可変的に設定できるが、エントロピーデコード部は、ARPフラグに適用可能なコンテキストモデル(コンテキストインデックス)に初期値(initValue)を全部同様に設定して、周辺ブロックとの相関性を考慮せずにコンテキストを引き出すことができる。
また、エントロピーデコード部は、現在ブロックと周辺ブロック間の相関性を考慮して、各コンテキストモデル別に初期値(init value)を異なって設定することもできる。この場合、周辺ブロックのコンテキストを考慮して、現在ブロックに確率がより正確に反映されることができる。
表1は、ARPフラグの各コンテキストモデルに互いに異なる初期値が適用される場合の一例を簡単に表したものである。
Figure 2016537858
エンコード装置は、現在ブロックに対してインタ−ビューレジデュアル予測(ARP)を行うことができる場合には、ARPフラグをエンコードして送信した後に、加重値情報(ARP weighting index)をエンコードして送信できる。
ARPには、総3個の加重値(weighting factor)0、0.5、1のうち、何れか一つが使用されることができる。しかしながら、加重値が0であると、ARPを使用しないということを意味するので、加重値情報(ARP weighting index)を実際に加重値が適用されるかを指示すると同時に、適用される場合、0.5の加重値と1の加重値のうち、どんな加重値を適用するかを指示する情報として使用されることができる。
上述のように、周辺ブロックを考慮せずに現在ブロックに適用するコンテキストを適用できる。このとき、ARPを適用する場合に、ARPの加重値を決定するために、0.5の加重値と1の加重値の発生頻度を考慮せずに加重値インデックス(weighting index)のコンテキストモデルに対する初期値(initvalue)を設定できる。
また、上述のように、周辺ブロックを考慮して現在ブロックに適用するコンテキストが決定されることもできる。この場合、各加重値の発生頻度などを考慮して、現在ブロックに適用する加重値を決定できる。一般に、加重値インデックスの値が1の場合が加重値インデックスの値が0.5の場合に比べて多く発生するので、これを考慮して初期値を設定することもできる。すなわち、エンコード装置は、加重値情報であるiv_res_pred_weight_idxを周辺ブロックのコンテキストを考慮してコーディングした後に送信することによって、現在ブロックにARPが適用されるか否かを指示できる。また、iv_res_pred_weight_idxがARPが適用されないということを指示する値でない場合には、iv_res_pred_weight_idx値を通じてARPが適用され、加重値は、いくらであるかを指示することもできる。
また、デコード装置は、加重値情報であるiv_res_pred_weight_idxの値をビットストリームとして受信し、周辺ブロックを考慮してデコードできる。デコード装置は、デコードされたiv_res_pred_weight_idxの値が0であると、インタ−レイヤレジデュアル予測(ARP)を適用しない場合もある。デコードされた加重値情報(iv_res_pred_weight_idx)の値が0でない場合に、デコード装置は、加重値情報の値が指示する加重値を適用して、ARPを現在ブロックに適用できる。
このとき、周辺ブロックを考慮する方法には、上述のように、(1)現在ブロックの左側ブロックを考慮する方法、(2)現在ブロックの上側ブロックを考慮する方法、(3)現在ブロックの上側ブロックと左側ブロックを考慮する方法のうち、いずれか一つが使用されることができる。
周辺ブロックを考慮する方式として、該当ブロックで同じシンタックスエレメントがどのようにデコードされたかを考慮する方法が利用されることができる。例えば、左側ブロックを考慮して現在ブロックの加重値情報をデコードする場合に、デコード装置は、左側ブロックでデコードされた加重値情報の値がいくらなのかに基づいて、現在ブロックに対する加重値情報をデコードできる。
表2は、加重値に関するシンタックスエレメントのコーディングに使用される初期値テーブルの一例を表したものである。
Figure 2016537858
表2において初期値は、周辺ブロックを考慮して決定された値でありうる。あるいはコンテキストモデルが周辺ブロックを考慮して決定された値であっても良い。表2に示していないが、コンテキストインデックス増加分またはコンテキストインデックスオフセットを決定するのに周辺ブロックが考慮されることもできる。
一方、いままで説明の便宜上、現在ブロックに周辺ブロックを考慮してシンタックス情報をデコードする場合に、現在ブロックに隣接するブロックのうち、左側ブロックと上側ブロックのうち、少なくとも一つを考慮する方法を説明したが、本発明は、これに限定されない。例えば、周辺ブロックを考慮してARPフラグまたは加重値情報をコーディングする場合に、図8に示す周辺ブロックA0、A1、B0、B1、B2のうち、少なくとも一つを考慮してコンテキストモデルを決定することもできる。この場合、該当シンタックスエレメントをデコードするのに考慮できる隣接ブロックの数によってコンテキストモデルの数を決定することもできる。
インタ−レイヤレジデュアル予測のように、IVMCの場合にも、IVMCの適用のために必要な情報(シンタックスエレメント)がエンコードされて、ビットストリームに送信されることができる。
例えば、IVMCを行うにおいて、ブロックレベルでビュー間ミスマッチの補償有無をシグナリングするフラグが必要となることができる。このフラグは、周辺ブロックの統計と連関性が大きい可能性が高い。すなわち、現在ブロックに隣接したブロックが仮にビュー間ミスマッチの補償になったブロックであると、現在ブロックもミスマッチ補償の対象である可能性が高い。
したがって、現在ブロックに対してミスマッチ補償(例えば、照度補償)が適用されるか否かを指示するミスマッチフラグをコーディングする場合に、隣接ブロックとの相関関係を考慮すると、さらに効率的にミスマッチフラグをコーディングできる。
従来のミスマッチフラグコーディング方法は、現在ブロックに対するミスマッチフラグと周辺ブロックに対するミスマッチフラグ間の相関性を考慮せずにコーディングを行うから、一つのコンテキストモデルを利用してミスマッチフラグをコーディングした。
しかしながら、周辺ブロックのミスマッチフラグとの相関性を考慮して、現在ブロックのミスマッチフラグをコーディングすると、効率をさらに高めることができる。この場合、周辺ブロックのミスマッチフラグとの相関性を考慮するようになるので、いくつかのコンテキストモデルが使用されることができる。
本出願では、周辺ブロックに対するコンテキストモデルとの相関性を考慮して、総3個のコンテキストモデルの中で現在ブロックのミスマッチフラグに適したコンテキストモデルを選択して、コーディングを行うことができる。
図8に示す現在ブロックの周辺ブロックは、ミスマッチフラグのコーディングにも使用されることができる。例えば、エンコード装置とデコード装置は、ミスマッチフラグのコーディングに現在ブロックの左側ブロックA1と現在ブロックの上側ブロックB1のうち、少なくとも一つを考慮することができる。
式2は、隣接ブロックA1のミスマッチフラグ(ic_flag(A1))と隣接ブロックB2のミスマッチフラグ(ic_flag(B1))を使用して、現在ブロックのミスマッチフラグ値を決定する方法を表したものである。
〔式2〕
Figure 2016537858
式2中、A1ブロックにIVMCが適用されると、ic_flag(A1)の値は、1となり、A1ブロックにIVMCが適用されないと、ic_flag(A1)の値は、0となる。B1ブロックに対しても同様に、B1ブロックにIVMCが適用されると、ic_flag(B1)は、1となり、B1ブロックにIVMCが適用されないと、ic_flag(B1)の値は、0となる。
したがって、二つのブロックA1とB1ともIVMCが行われると、現在ブロックに対するic_flagのコンテキストモデルctx_currentの値は、2となる。二つのブロックA1とB1のうち、何れか一つのブロックのみにIVMCが適用されると、ctx_currentの値は、1となり、二つのブロックA1とB1ともIVMCが適用されないと、ctx_currentの値は、0となる。
仮に、ctx_currentの値が2であると、現在ブロックにもIVMCが行われる確率が高いということを意味する。ctx_currentの値が0であると、現在ブロックにIVMCが行われる確率が高くないとのことを意味する。したがって、周辺ブロックを考慮したctx_currentの値を利用して現在ブロックのic_flagに対する各コンテキストモデルに適した初期値が割り当てられることができる。表3は、各ctx_currentに応じてic_flagに割り当てられる初期値(init value)を表す。
Figure 2016537858
一方、説明の便宜上、現在ブロックに周辺ブロックを考慮してシンタックス情報(ic_flag)をデコードする場合に、現在ブロックに隣接するブロックのうち、左側ブロックA1と上側ブロックB1を考慮する方法を説明したが、本発明は、これに限定されない。図8に示す周辺ブロックA0、A1、B0、B1、B2の多様な組み合わせにより、現在ブロックのミスマッチフラグ(ic_flag)をコーディングするためのコンテキストモデルを決定することもできる。
例えば、A0、B0、B2ブロックに基づいて現在ブロックに対するミスマッチフラグをコーディング(エンコード/デコード)するためのコンテキストモデルを決定できる。この場合、各ブロックのミスマッチフラグ(ic_flag)値を式3のように適用して、現在ブロックのctx_currentを計算できる。
〔式3〕
Figure 2016537858
エンコード装置とデコード装置は、式3により決定された現在ブロックのctx_current値に応じて、現在ブロックのic_flagをコーディングするための初期値を割り当てることができる。
また、図8に示す周辺ブロックを全部使用して、ミスマッチフラグをコーディングするためのコンテキストモデルを決定することもできる。例えば、式4のように各ブロックに対するミスマッチフラグの値を反映して、現在ブロックのctx_current値を決定できる。エンコード装置とデコード装置は、ctx_currentの値に応じて、現在ブロックに対するic_flagの値をコーディングするための初期値を割り当てることができる。
〔式4〕
Figure 2016537858
式4中、ic_flag(AX)は、ブロックAX(X=0,1)に対するミスマッチフラグ(ic_flag)で、ic_flag(BY)は、ブロックBY(Y=0,1,2)に対するミスマッチフラグである。
このように、現在ブロックのミスマッチフラグをコーディングするために考慮される隣接ブロックに従って、多様なコンテキストモデルを使用することができる。
図9は、本発明に係るビデオエンコード装置の動作を概略的に説明するフローチャートである。
図9を参照すると、エンコード装置は、現在ブロックに対する予測サンプルを引き出す(S910)。エンコード装置は、予測サンプルを引き出すために、現在ブロックに対してインタ−ビューレジデュアル予測を適用することもできる。また、エンコード装置は、予測サンプルを引き出すために、現在ブロックに対してミスマッチ補償を行うこともできる。インタ−ビューレジデュアル予測とミスマッチ補償の具体的な内容は、上述のとおりである。
エンコード装置は、現在ブロックに対するレジデュアルサンプルを引き出すことができる(S920)。エンコード装置は、インタ−ビューレジデュアル予測及び/またはミスマッチ補償を適用して引き出した予測サンプルと現在ブロックの原本サンプル間の差をレジデュアルサンプルとして引き出すことができる。
エンコード装置は、ビデオデコードのためのビデオ情報をエントロピーデコードできる(S930)。エンコード装置は、ビデオ情報をエントロピーデコードして、ビットストリームとして出力できる。出力されたビットストリームは、ネットワークを介して送信されるか、または格納媒体に格納されることができる。ビデオ情報は、現在ブロックに対するレジデュアルサンプル値またはレジデュアルサンプル値を特定する情報を含むことができる。ビデオ情報は、インタ−ビューレジデュアル予測を行うための情報(例えば、ARPフラグ及び/または加重値インデックス)を含むことができ、ミスマッチ補正のための情報(例えば、ICフラグ)を含むことができる。
図10は、本発明に係るビデオデコード装置の動作を概略的に説明するフローチャートである。
図10を参照すると、デコード装置は、ビットストリームに含まれたビデオ情報をエントロピーデコードする(S1010)。デコード装置がエントロピーデコードして引き出すビデオ情報は、現在ブロックに対するレジデュアル情報だけでなく、現在ブロックを復元するためのシンタックスエレメントの値を含む。
例えば、デコード装置は、現在ブロックにインタ−ビューレジデュアル予測が適用されることができるか否かを指示する情報をエントロピーデコードできる。デコード装置は、現在ブロックにインタ−ビューレジデュアル予測が適用されることができる場合、インタ−ビューレディーデュアル予測が適用されるか、適用される場合、どんな加重値が適用されるかを指示する情報をエントロピーデコードできる。
デコード装置は、現在ブロックにミスマッチ補正が適用されるか否かを指示する情報をエントロピーデコードすることもできる。
デコード装置は、エントロピーデコードされた情報に基づいて、現在ブロックの予測サンプルを引き出すことができる(S1020)。デコード装置は、予測サンプルを引き出すために、現在ブロックに対してインタ−ビューレジデュアル予測を適用することができる。また、デコード装置は、予測サンプルを引き出すために、現在ブロックに対してミスマッチ補償を行うことができる。インタ−ビューレジデュアル予測とミスマッチ補償の具体的な内容は、上述のとおりである。
デコード装置は、引き出した予測サンプルとレジデュアルサンプルに基づいて復元サンプルを引き出して、現在ピクチャを復元できる。サンプルの復元は、ブロック単位またはピクチャ単位に行われることができる。
デコード装置は、復元されたピクチャにフィルタリングを適用できる(S1030)。デコード装置は、復元されたピクチャにデブロッキングフィルタを適用したりサンプル単位のオフセットを適用して、復元されたピクチャが原本ピクチャにさらに近くなるように修正できる。
上述の例示的なシステムにおいて、方法は、一連のステップまたはブロックとしてフローチャートに基づいて説明されているが、本発明は、ステップの順序に限定されるものではなく、あるステップは、上述と異なるステップと異なる順序で、または同時に発生できる。また、上述の実施の形態は、多様な様態の例示を含む。よって、本発明は、以下の特許請求の範囲内に属するすべての他の取替、修正及び変更を含むはずである。

Claims (14)

  1. マルチビュービデオをデコードするビデオデコード装置であって、
    ビットストリームをエントロピーデコードして、レジデュアル予測に関する情報を現在ブロックの周辺ブロックを参照してデコードするエントロピーデコード部と、
    現在ブロックのデコードに参照されるピクチャを格納するメモリと、
    前記レジデュアルに関する情報を利用して、前記メモリに格納されたピクチャにおいて前記現在ブロックに対応する第1ブロック及び第2ブロック間のサンプル値差に基づいて、現在ブロックに対する予測サンプルを引き出す予測部と、
    前記予測サンプルを利用して復元された現在ピクチャにフィルタリングを適用するフィルタリング部とを備え、
    前記第1ブロック及び前記第2ブロックのうち、少なくとも一つは、前記現在ブロックのビューとは異なるビューに属し、
    前記第1ブロックは、前記現在ブロックの動きベクトルまたはディスパリティベクトルにより特定され、
    前記第2ブロックは、前記現在ブロックの動きベクトル及びディスパリティベクトルにより特定される、ビデオデコード装置。
  2. 前記レジデュアル予測に関する情報は、前記現在ブロックにレジデュアル予測を適用するか否かを指示する指示情報を含み、
    前記エントロピーデコード部は、前記現在ブロックの左側ブロックまたは上側ブロックの情報に基づいて、前記指示情報をデコードする、請求項1に記載のビデオデコード装置。
  3. 前記エントロピーデコード部は、前記現在ブロックの左側ブロックにレジデュアル予測が適用されたか否かに基づいて、前記指示情報をデコードする、請求項2に記載のビデオデコード装置。
  4. 前記エントロピーデコード部は、前記現在ブロックの左側ブロックにレジデュアル予測が適用されたか否かに基づいて、前記指示情報のデコードに適用するコンテキストを決定する、請求項3に記載のビデオデコード装置。
  5. 前記エントロピーデコード部は、前記現在ブロックの上側ブロックにレジデュアル予測が適用されたか否かに基づいて、前記指示情報をデコードする、請求項2に記載のビデオデコード装置。
  6. 前記エントロピーデコード部は、前記現在ブロックの上側ブロックにレジデュアル予測が適用されたか否かに基づいて、前記指示情報のデコードに適用するコンテキストを決定する、請求項5に記載のビデオデコード装置。
  7. 前記エントロピーデコード部は、前記現在ブロックの左側ブロックまたは上側ブロックにレジデュアル予測が適用されたか否かに基づいて、前記指示情報をデコードする、請求項2に記載のビデオデコード装置。
  8. 前記第1ブロックのサンプル及び前記第2ブロックのサンプルは、予測サンプルである、請求項1に記載のビデオデコード装置。
  9. マルチビュービデオをデコードするビデオデコード方法であって、
    現在ブロックの周辺ブロックを参照して、レジデュアル予測に関する情報をエントロピーデコードするステップと、
    前記レジデュアルに関する情報を利用して、前記現在ブロックに対応する第1ブロック及び第2ブロック間のサンプル値差に基づいて、現在ブロックに対する予測サンプルを引き出すステップと、
    前記予測サンプルを利用して復元された現在ピクチャにフィルタリングを適用するステップと、を含み、
    前記第1ブロック及び前記第2ブロックのうち、少なくとも一つは、前記現在ブロックのビューとは異なるビューに属し、
    前記第1ブロックは、前記現在ブロックの動きベクトルまたはディスパリティベクトルにより特定され、
    前記第2ブロックは、前記現在ブロックの動きベクトル及びディスパリティベクトルにより特定される、ビデオデコード方法。
  10. 前記レジデュアル予測に関する情報は、前記現在ブロックにレジデュアル予測を適用するか否かを指示する指示情報を含み、
    前記エントロピーデコードステップは、前記現在ブロックの左側ブロックまたは上側ブロックの情報に基づいて、前記指示情報をデコードすることを含む、請求項9に記載のビデオデコード方法。
  11. 前記エントロピーデコードステップでは、前記現在ブロックの左側ブロックにレジデュアル予測が適用されたか否かに基づいて、前記指示情報をデコードする、請求項10に記載のビデオデコード方法。
  12. 前記エントロピーデコードステップでは、前記現在ブロックの上側ブロックにレジデュアル予測が適用されたか否かに基づいて、前記指示情報をデコードする、請求項10に記載のビデオデコード方法。
  13. 前記エントロピーデコードステップでは、前記現在ブロックの左側ブロックまたは上側ブロックにレジデュアル予測が適用されたか否かに基づいて、前記指示情報をデコードする、請求項10に記載のビデオデコード方法。
  14. 前記第1ブロックのサンプル及び前記第2ブロックのサンプルは、予測サンプルである、請求項9に記載のビデオデコード方法。
JP2016522059A 2013-10-18 2014-10-20 マルチビュービデオをデコードするビデオデコード方法及び装置 Active JP6542206B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201361892452P 2013-10-18 2013-10-18
US201361892466P 2013-10-18 2013-10-18
US61/892,466 2013-10-18
US61/892,452 2013-10-18
PCT/KR2014/009858 WO2015057036A1 (ko) 2013-10-18 2014-10-20 멀티-뷰 비디오를 디코딩하는 비디오 디코딩 방법 및 장치

Publications (2)

Publication Number Publication Date
JP2016537858A true JP2016537858A (ja) 2016-12-01
JP6542206B2 JP6542206B2 (ja) 2019-07-10

Family

ID=52828404

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016522059A Active JP6542206B2 (ja) 2013-10-18 2014-10-20 マルチビュービデオをデコードするビデオデコード方法及び装置

Country Status (6)

Country Link
US (1) US10321157B2 (ja)
EP (1) EP3059967B1 (ja)
JP (1) JP6542206B2 (ja)
KR (1) KR102269506B1 (ja)
CN (1) CN105659605B (ja)
WO (1) WO2015057036A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10187657B2 (en) * 2014-03-14 2019-01-22 Samsung Electronics Co., Ltd. Method and device for configuring merge candidate list for decoding and encoding of interlayer video
US10609374B2 (en) 2015-11-22 2020-03-31 Lg Electronics Inc. Method and apparatus for entropy-encoding and entropy-decoding video signal
CN116567262A (zh) 2016-05-24 2023-08-08 韩国电子通信研究院 图像编码/解码方法和用于所述方法的记录介质
KR102383104B1 (ko) * 2016-06-24 2022-04-06 주식회사 케이티 비디오 신호 처리 방법 및 장치
FR3058858A1 (fr) * 2016-11-15 2018-05-18 Orange Procede et dispositif de codage et de decodage d'une sequence multi-vues
CN117915090A (zh) * 2019-01-12 2024-04-19 Oppo广东移动通信有限公司 在图像编译系统中使用残差信息的图像解码方法及其装置
KR20210135249A (ko) * 2019-03-11 2021-11-12 인터디지털 브이씨 홀딩스 인코포레이티드 정규 코딩된 빈들의 수의 감소
WO2020189971A1 (ko) * 2019-03-15 2020-09-24 엘지전자 주식회사 영상 코딩 시스템에서 변환 스킵 플래그를 이용한 영상 디코딩 방법 및 그 장치
CN118509604A (zh) * 2019-06-03 2024-08-16 Lg电子株式会社 图像解码方法、图像编码方法和数据发送方法
CN112135135A (zh) * 2019-06-24 2020-12-25 腾讯美国有限责任公司 视频解码方法、装置、计算机设备及存储介质
US11516489B2 (en) * 2019-06-24 2022-11-29 Tencent America LLC Method and apparatus for video coding

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006304307A (ja) * 2005-04-19 2006-11-02 Samsung Electronics Co Ltd エントロピーコーディングのコンテキストモデルを適応的に選択する方法及びビデオデコーダ
WO2014089445A1 (en) * 2012-12-07 2014-06-12 Qualcomm Incorporated Advanced residual prediction in scalable and multi-view video coding
JP2015019140A (ja) * 2013-07-09 2015-01-29 シャープ株式会社 画像復号装置、画像符号化装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101681303B1 (ko) 2010-07-29 2016-12-01 에스케이 텔레콤주식회사 블록 분할예측을 이용한 영상 부호화/복호화 방법 및 장치
KR20120083200A (ko) * 2011-01-17 2012-07-25 삼성전자주식회사 깊이 영상 부호화/복호화 장치 및 방법
WO2012138032A1 (ko) * 2011-04-07 2012-10-11 엘지전자 주식회사 영상 정보 부호화 방법 및 복호화 방법
WO2013039348A1 (ko) * 2011-09-16 2013-03-21 엘지전자 주식회사 영상 정보 시그널링 방법 및 이를 이용한 비디오 디코딩 방법
US9712819B2 (en) * 2011-10-12 2017-07-18 Lg Electronics Inc. Image encoding method and image decoding method
CN107835420B (zh) * 2011-10-18 2021-05-14 株式会社Kt 视频信号解码方法
US20130258052A1 (en) * 2012-03-28 2013-10-03 Qualcomm Incorporated Inter-view residual prediction in 3d video coding

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006304307A (ja) * 2005-04-19 2006-11-02 Samsung Electronics Co Ltd エントロピーコーディングのコンテキストモデルを適応的に選択する方法及びビデオデコーダ
WO2014089445A1 (en) * 2012-12-07 2014-06-12 Qualcomm Incorporated Advanced residual prediction in scalable and multi-view video coding
JP2016503971A (ja) * 2012-12-07 2016-02-08 クゥアルコム・インコーポレイテッドQualcomm Incorporated スケーラブルなマルチビュービデオコーディングにおける高度な残差予測
JP2015019140A (ja) * 2013-07-09 2015-01-29 シャープ株式会社 画像復号装置、画像符号化装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
LI ZHANG ET AL.: "CE4: Advanced residual prediction for multiview coding", JOINT COLLABORATIVE TEAM ON 3D VIDEO CODING EXTENSIONS OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/W, vol. JCT3V-D0177, JPN6018036786, April 2013 (2013-04-01), pages 1 - 9 *
LI ZHANG ET AL.: "CE4: Advanced residual prediction for multiview coding", JOINT COLLABORATIVE TEAM ON 3D VIDEO CODING EXTENSIONS OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/W, vol. JCT3V-D0177_proposed_text, JPN6018036784, April 2013 (2013-04-01), pages 1 - 5 *
LI ZHANG ET AL.: "Further improvements on advanced residual prediction", JOINT COLLABORATIVE TEAM ON 3D VIDEO CODING EXTENSIONS OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/W, vol. JCT3V-E0124, JPN6018036788, July 2013 (2013-07-01), pages 1 - 6 *
TOMOHIRO IKAI AND YOSHIYA YAMAMOTO: "ARP simplification", JOINT COLLABORATIVE TEAM ON 3D VIDEO CODING EXTENSIONS OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/W, vol. JCT3V-E0044_r1, JPN6018036781, July 2013 (2013-07-01), pages 1 - 6 *

Also Published As

Publication number Publication date
JP6542206B2 (ja) 2019-07-10
US20160249066A1 (en) 2016-08-25
KR20160072100A (ko) 2016-06-22
EP3059967B1 (en) 2020-04-22
EP3059967A1 (en) 2016-08-24
KR102269506B1 (ko) 2021-06-25
CN105659605B (zh) 2019-05-21
EP3059967A4 (en) 2017-06-07
US10321157B2 (en) 2019-06-11
WO2015057036A1 (ko) 2015-04-23
CN105659605A (zh) 2016-06-08

Similar Documents

Publication Publication Date Title
KR102135997B1 (ko) 심도 인트라 예측 모드들에 대한 잔차 코딩
JP6542206B2 (ja) マルチビュービデオをデコードするビデオデコード方法及び装置
KR102254599B1 (ko) 멀티-뷰 비디오 코딩에 있어서, 뷰 합성 예측 방법 및 이를 이용한 머지 후보 리스트 구성 방법
US10659814B2 (en) Depth picture coding method and device in video coding
US10587894B2 (en) Method and device for encoding/decoding 3D video
US20160255371A1 (en) Method and apparatus for coding/decoding 3d video
JP6445026B2 (ja) 3dビデオコーディングにおけるカメラパラメータ処理方法および装置
WO2015057037A1 (ko) 멀티-뷰 비디오를 디코딩하는 비디오 디코딩 장치 및 방법
JP6571646B2 (ja) マルチビュービデオのデコード方法及び装置
US20160255368A1 (en) Method and apparatus for coding/decoding video comprising multi-view
US10397611B2 (en) Method and device for encoding/decoding 3D video
WO2015141977A1 (ko) 3d 비디오 부호화/복호화 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171013

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190612

R150 Certificate of patent or registration of utility model

Ref document number: 6542206

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250