JP6100240B2 - 多視点ビデオの動きベクトル符号化方法及び装置、その復号化方法及び装置 - Google Patents

多視点ビデオの動きベクトル符号化方法及び装置、その復号化方法及び装置 Download PDF

Info

Publication number
JP6100240B2
JP6100240B2 JP2014506327A JP2014506327A JP6100240B2 JP 6100240 B2 JP6100240 B2 JP 6100240B2 JP 2014506327 A JP2014506327 A JP 2014506327A JP 2014506327 A JP2014506327 A JP 2014506327A JP 6100240 B2 JP6100240 B2 JP 6100240B2
Authority
JP
Japan
Prior art keywords
motion vector
current block
viewpoint
block
view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014506327A
Other languages
English (en)
Other versions
JP2014513897A (ja
Inventor
チェー,ビョン−ドゥ
チョウ,デ−ソン
ジョン,スン−ス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2014513897A publication Critical patent/JP2014513897A/ja
Application granted granted Critical
Publication of JP6100240B2 publication Critical patent/JP6100240B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、ビデオ符号化及び復号化に係り、さらに詳細には、多視点ビデオ映像の動きベクトルを予測して符号化する方法及び装置、復号化する方法及び装置に関する。
多視点ビデオ符号化(multi−view video coding:MVC)は、複数のカメラから獲得された互いに異なる視点の複数の映像を処理するものであり、多視点映像を、時間的相関関係及びカメラ間(inter−view)の空間的相関関係を用いて圧縮符号化する。
時間的相関関係を用いる時間予測(temporal prediction)、及び空間的相関関係を用いる視点間予測(inter−view prediction)では、一つ以上の参照ピクチャーを用いて現在ピクチャーの動きをブロック単位で予測して補償し、映像を符号化する。時間予測及び視点予測では、現在ブロックと最も類似したブロックを参照ピクチャーの定められた検索範囲で検索し、類似したブロックが検索されれば、現在ブロックと類似したブロックとの間の残差データのみ伝送することで、データの圧縮率を高める。
MPEG−4 H.264/MPEG−4 AVC(Advanced Video Coding)のようなコーデックでは、現在ブロックの動きベクトルを予測するために、現在ブロックに隣接している、以前に符号化されたブロックの動きベクトルを用いる。現在ブロックに左側、上部及び右側上部に隣接している、以前た符号化されたブロックの動きベクトルの中央値(median)を、現在ブロックの予測動きベクトル(Motion vector Predictor)として用いる。
本発明が解決するための課題は、多視点ビデオコーディング時に視点方向に予測された動きベクトル及び時間方向に予測された動きベクトルを符号化する方法及び装置、その復号化方法及び装置を提供することである。
本発明の一実施形態による多視点ビデオの動きベクトル符号化方法は、符号化される現在ブロックの第1視点と異なる第2視点の第1参照フレームに対して前記現在ブロックに対する動き予測を行って、前記現在ブロックの視点方向動きベクトルを定める段階と、前記現在ブロックの周辺ブロックのうち、前記第1視点と異なる視点の参照フレームを参照する周辺ブロックの視点方向動きベクトル、及び前記現在ブロックと同じ第1視点に属しつつ、前記現在フレームのPOC(Picture Order Count)と異なるPOCを持つ第2参照フレームに属する対応領域が持つ視点方向動きベクトルを用いて、視点方向予測動きベクトル候補を定める段階と、前記視点方向予測動きベクトル候補から選択された一つの視点方向予測動きベクトルと前記現在ブロックの視点方向動きベクトルとの差値、及び前記選択された視点方向予測動きベクトルに関するモード情報を符号化する段階と、を含む。
本発明の他の実施形態による多視点ビデオの動きベクトル符号化方法は、符号化される現在ブロックの第1視点と同じ視点の第1参照フレームに対して前記現在ブロックに対する動き予測を行って、前記現在ブロックの時間方向動きベクトルを定める段階と、前記現在ブロックの周辺ブロックのうち、前記第1視点の参照フレームを参照する周辺ブロックの時間方向動きベクトル、及び前記現在ブロックと異なる第2視点に属しつつ、前記現在フレームのPOCと同じPOCを持つ第2参照フレームに属する対応領域が持つ時間方向動きベクトルを用いて、時間方向予測動きベクトル候補を定める段階と、前記時間方向予測動きベクトル候補から選択された一つの時間方向予測動きベクトルと前記現在ブロックの時間方向動きベクトルとの差値、及び前記選択された時間方向予測動きベクトルに関するモード情報を符号化する段階と、を含む。
本発明の一実施形態による多視点ビデオの動きベクトル復号化方法は、ビットストリームから復号化される現在ブロックの予測動きベクトルに関する情報、及び前記現在ブロックの動きベクトルと前記現在ブロックの予測動きベクトルとの差値を復号化する段階と、前記復号化された現在ブロックの予測動きベクトルに関する情報に基づいて前記現在ブロックの予測動きベクトルを定める段階と、前記予測動きベクトル及び前記差値に基づいて前記現在ブロックの動きベクトルを復元する段階と、を含み、前記予測動きベクトルは、前記現在ブロックの周辺ブロックのうち、前記現在ブロックの第1視点と異なる視点の参照フレームを参照する周辺ブロックの視点方向動きベクトル、及び前記現在ブロックと同じ第1視点に属しつつ、前記現在フレームのPOCと異なるPOCを持つ第2参照フレームに属する対応領域が持つ視点方向動きベクトルを用いて定められた視点方向予測動きベクトル候補から、前記予測動きベクトル情報に含まれたインデックス情報によって選択されることを特徴とする。
本発明の他の実施形態による多視点ビデオの動きベクトル復号化方法は、ビットストリームから復号化される現在ブロックの予測動きベクトルに関する情報、及び前記現在ブロックの動きベクトルと前記現在ブロックの予測動きベクトルとの差値を復号化する段階と、前記復号化された現在ブロックの予測動きベクトルに関する情報に基づいて前記現在ブロックの予測動きベクトルを定める段階と、前記予測動きベクトル及び前記差値に基づいて前記現在ブロックの動きベクトルを復元する段階と、を含み、前記予測動きベクトルは、前記現在ブロックの周辺ブロックのうち、前記第1視点の参照フレームを参照する周辺ブロックの時間方向動きベクトル、及び前記現在ブロックと異なる第2視点に属しつつ、前記現在フレームのPOCと同じPOCを持つ第2参照フレームに属する対応領域が持つ時間方向動きベクトルを用いて生成された時間方向予測動きベクトル候補から、前記予測動きベクトル情報に含まれたインデックス情報によって選択されることを特徴とする。
本発明の一実施形態による多視点ビデオの動きベクトル符号化装置は、符号化される現在ブロックの第1視点と異なる第2視点の第1参照フレームに対して前記現在ブロックに対する動き予測を行って、前記現在ブロックの視点方向動きベクトルを定める視点方向動き予測部と、前記現在ブロックの周辺ブロックのうち、前記第1視点と異なる視点の参照フレームを参照する周辺ブロックの視点方向動きベクトル、及び前記現在ブロックと同じ第1視点に属しつつ、前記現在フレームのPOCと異なるPOCを持つ第2参照フレームに属する対応領域が持つ視点方向動きベクトルを用いて視点方向予測動きベクトル候補を定め、前記視点方向予測動きベクトル候補から選択された一つの視点方向予測動きベクトルと前記現在ブロックの視点方向動きベクトルとの差値、及び前記選択された視点方向予測動きベクトルに関するモード情報を符号化する動きベクトル符号化部と、を備える。
本発明の他の実施形態による多視点ビデオの動きベクトル符号化装置は、符号化される現在ブロックの第1視点と同じ視点の第1参照フレームに対して前記現在ブロックに対する動き予測を行って、前記現在ブロックの時間方向動きベクトルを定める時間方向動き予測部と、前記現在ブロックの周辺ブロックのうち、前記第1視点の参照フレームを参照する周辺ブロックの時間方向動きベクトル、及び前記現在ブロックと異なる第2視点に属しつつ、前記現在フレームのPOCと同じPOCを持つ第2参照フレームに属する対応領域が持つ時間方向動きベクトルを用いて時間方向予測動きベクトル候補を定め、前記時間方向予測動きベクトル候補から選択された一つの時間方向予測動きベクトルと前記現在ブロックの時間方向動きベクトルとの差値、及び前記選択された時間方向予測動きベクトルに関するモード情報を符号化する動きベクトル符号化部と、を備える。
本発明の一実施形態による多視点ビデオの動きベクトル復号化装置は、ビットストリームから復号化される現在ブロックの予測動きベクトルに関する情報、及び前記現在ブロックの動きベクトルと前記現在ブロックの予測動きベクトルとの差値を復号化する動きベクトル復号化部と、前記復号化された現在ブロックの予測動きベクトルに関する情報に基づいて前記現在ブロックの予測動きベクトルを定め、前記予測動きベクトル及び前記差値に基づいて前記現在ブロックの動きベクトルを復元する動き補償部と、を備え、前記予測動きベクトルは、前記現在ブロックの周辺ブロックのうち、前記現在ブロックの第1視点と異なる視点の参照フレームを参照する周辺ブロックの視点方向動きベクトル、及び前記現在ブロックと同じ第1視点に属しつつ、前記現在フレームのPOCと異なるPOCを持つ第2参照フレームに属する対応領域が持つ視点方向動きベクトルを用いて定められた視点方向予測動きベクトル候補から、前記予測動きベクトル情報に含まれたインデックス情報によって選択されることを特徴とする。
本発明の他の実施形態による多視点ビデオの動きベクトル復号化装置は、ビットストリームから復号化される現在ブロックの予測動きベクトルに関する情報、及び前記現在ブロックの動きベクトルと前記現在ブロックの予測動きベクトルとの差値を復号化する動きベクトル復号化部と、前記復号化された現在ブロックの予測動きベクトルに関する情報に基づいて前記現在ブロックの予測動きベクトルを定め、前記予測動きベクトル及び前記差値に基づいて前記現在ブロックの動きベクトルを復元する動き補償部と、を備え、前記予測動きベクトルは、前記現在ブロックの周辺ブロックのうち、前記第1視点の参照フレームを参照する周辺ブロックの時間方向動きベクトル、及び前記現在ブロックと異なる第2視点に属しつつ、前記現在フレームのPOCと同じPOCを持つ第2参照フレームに属する対応領域が持つ時間方向動きベクトルを用いて定められた時間方向予測動きベクトル候補から、前記予測動きベクトル情報に含まれたインデックス情報によって選択されることを特徴とする。
本発明によれば、多視点ビデオの動きベクトルを効率的に符号化することで、多視点ビデオの圧縮率を高める。
本発明の一実施形態による多視点ビデオ符号化及び復号化方法によって符号化される多視点ビデオシーケンスを示す図面である。 本発明の一実施形態によるビデオ符号化装置の構成を示すブロック図である。 図2の動き予測部の具体的な構成を示すブロック図である。 本発明の一実施形態による視点方向及び時間方向動きベクトルの生成過程を説明するための参照図である。 本発明の一実施形態による動きベクトルの予測過程を説明するための参照図である。 本発明の他の実施形態による視点方向予測動きベクトルを生成する過程を説明するための参照図である。 本発明の他の実施形態による時間方向予測動きベクトルを生成する過程を説明するための参照図である。 本発明の一実施形態による視点方向動きベクトルの符号化過程を示すフローチャートである。 本発明の一実施形態による時間方向動きベクトルの符号化過程を示すフローチャートである。 本発明の一実施形態による多視点ビデオ復号化装置を示すブロック図である。 本発明の一実施形態によるビデオ復号化方法を示すフローチャートである。
以下、添付した図面を参照して本発明の望ましい実施形態について具体的に説明する。
以下の説明で、“視点方向動きベクトル”は、異なる視点に属する参照フレームを用いて予測符号化される動きブロックが持つ動きベクトルを意味し、“時間方向動きベクトル”は、‘同一視点に属する参照フレームを用いて予測符号化される動きブロックが持つ動きベクトルを意味する。
図1は、本発明の一実施形態による多視点ビデオ符号化及び復号化方法によって符号化される多視点ビデオシーケンスを示す図面である。図1を参照すれば、x軸は時間軸で、y軸は視点軸である。x軸のT0ないしT8は、それぞれ映像のサンプリング時間を示し、y軸のS0ないしS8は、それぞれ互いに異なる視点を示すものである。図1で、それぞれの行は同視点で入力された映像ピクチャーグループを示し、それぞれの列は、同時間での多視点映像を示す。
多視点映像の符号化では、基本視点の映像に対して周期的にイントラピクチャーを生成し、生成されたイントラピクチャーに基づいて時間的予測または視点間予測を行って他のピクチャーを予測符号化する。
時間的予測とは、同視点、すなわち、図1で同じ行にある映像の間に時間的な相関関係を用いる予測である。時間的予測のために、階層的Bピクチャーを用いる予測構造が用いられる。視点間予測は同じ時間、すなわち、同列にある映像の間に空間的な相関関係を用いる予測である。以下の説明では、階層的Bピクチャーを用いて映像ピクチャーグループを符号化することを説明するが、本発明による符号化及び復号化方式は、階層的Bピクチャー構造以外に他の構造を持つ多視点映像シーケンスにも適用できる。
階層的Bピクチャーを用いる多視点映像ピクチャーの予測構造は、同視点、すなわち、同じ行にある映像の間に存在する時間的な相関関係を用いる予測を行う時、同一視点の映像ピクチャーグループを、アンカーピクチャーを用いて双方向ピクチャー(Bi−directional Picture、以下“Bピクチャー”という)で予測符号化するものである。ここで、アンカーピクチャーは、図1に図示された列のうち、イントラピクチャーを含んでいる最初T0と最後の時間T8での列110及び120に含まれているピクチャーを意味する。アンカーピクチャー110及び120は、イントラピクチャー(Intra picture、以下“Iピクチャー”という)を除いて視点間予測のみを用いて予測符号化される。イントラピクチャーを含んでいる列110及び120を除いた残りの列130に含まれているピクチャーは、非アンカーピクチャーと称する。
一例として、最初の視点S0で所定の時間の間に入力された映像ピクチャーを、階層的Bピクチャーを用いて符号化する場合を説明する。最初の視点S0で入力された映像ピクチャーのうち、最初の時間T0に入力されたピクチャー111及び最後の時間T8に入力されたピクチャー121は、Iピクチャーに符号化される。次いで、T4時間に入力されたピクチャー131は、アンカーピクチャーであるIピクチャー111、121を参照して双方向予測符号化され、Bピクチャーに符号化される。T2時間に入力されたピクチャー132は、Iピクチャー111及びBピクチャー131を用いて双方向予測符号化され、Bピクチャーに符号化される。類似してT1時間に入力されたピクチャー133は、Iピクチャー111及びBピクチャー132を用いて双方向予測符号化され、T3時間に入力されたピクチャー134は、Bピクチャー132及びBピクチャー131を用いて双方向予測符号化される。このように、同一視点の映像シーケンスは、アンカーピクチャーを用いて階層的に双方向予測符号化されるため、このような予測符号化方式を階層的Bピクチャーと呼ぶ。一方、図1に図示されたBn(n=1,2,3,4)で、nは、n番目の双方向予測されたBピクチャーを示し、、例えば、B1は、IピクチャーまたはPピクチャーであるアンカーピクチャーを用いて最初に双方向予測されたピクチャーを示し、B2は、B1ピクチャー以後に双方向予測されたピクチャーを示し、B3は、B2ピクチャー以後に双方向予測されたピクチャーを示し、B4は、B3ピクチャー以後に双方向予測されたピクチャーを示す。
多視点ビデオシーケンスの符号化時には、先ず、基本視点である最初の視点S0の映像ピクチャーグループを、前述した階層的Bピクチャーを用いて符号化する。残りの視点の映像シーケンスを符号化するために、先ず、最初の視点S0のIピクチャー111、121を用いる視点間予測を通じて、アンカーピクチャー110、120に備えられた奇数番目の視点S2、S4、S6及び最後の視点S7の映像ピクチャーを、Pピクチャーに予測符号化する。アンカーピクチャー110、120に備えられた偶数番目の視点S1、S3、S5の映像ピクチャーは、視点間予測を通じて隣接している視点の映像ピクチャーを用いて双方向予測され、Bピクチャーに符号化される。例えば、T0時間に二番目の視点S1で入力されたBピクチャー113は、隣接している視点S0、S2のIピクチャー111及びPピクチャー112を用いて双方向予測される。
アンカーピクチャー110、120に備えられた全視点の映像ピクチャーがIBPのうちいずれか一つのピクチャーに符号化されれば、非アンカーピクチャー130は、前述したように、階層的Bピクチャーを用いる時間的予測及び視点間予測を通じて双方向予測符号化される。
非アンカーピクチャー130のうち奇数番目の視点S2、S4、S6及び最後の視点S7の映像ピクチャーは、階層的Bピクチャーを用いる時間的予測を通じて同一視点のアンカーピクチャーを用いて双方向予測符号化される。非アンカーピクチャー130のうち偶数番目の視点S1、S3、S5、S7のピクチャーは、階層的Bピクチャーを用いる時間的予測だけではなく、隣接している視点のピクチャーを用いる視点間予測を通じて双方向予測される。例えば、T4時間に二番目の視点S2で入力されたピクチャー136は、アンカーピクチャー113、123及び隣接している視点のピクチャー131、135を用いて予測される。
アンカーピクチャー110、120に備えられたPピクチャーは、前述したように同一時間に入力された異なる視点のIピクチャーまたは以前のPピクチャーを用いて予測符号化される。例えば、T8時間に三番目の視点S2で入力されたPピクチャー122は、同一時間の最初の視点S0で入力されたIピクチャー121を参照ピクチャーとして用いて予測符号化される。
図1に示したような多視点ビデオシーケンスでPピクチャーやBピクチャーは、前述したように同一時間に入力された異なる視点のピクチャーを参照ピクチャーとして用いて予測符号化されるか、または異なる時間に入力された同一視点のピクチャーを参照ピクチャーとして用いて予測符号化される。すなわち、PピクチャーやBピクチャーに備えられた符号化されるブロックは、同一時間に入力された異なる視点のピクチャーを参照ピクチャーとして用いる場合には、視点方向の動きベクトルを持ち、異なる時間に入力された同一視点のピクチャーを参照ピクチャーとして用いる場合には、時間方向の動きベクトルを持つ。一般的に、単一視点のビデオ符号化では、現在ブロックの動きベクトル情報はそのまま符号化されるものではなく、現在ブロックの上側、左側及び右上側に位置している周辺ブロックが持つ動きベクトルの中間値を用いて予測された予測動きベクトルと実際動きベクトルとの差値が、動きベクトル情報として符号化される。しかし、多視点ビデオ符号化では、周辺ブロックに視点方向動きベクトルと時間方向動きベクトルとが混在される恐れがあるため、従来の技術のように、周辺ブロックが持つ動きベクトルの中間値をそのまま現在ブロックの予測動きベクトルとして用いる場合、現在ブロックの動きベクトルの類型と、予測動きベクトルの決定に用いられる周辺ブロックの動きベクトルの類型とが同一でない可能性がある。よって、本発明では、多視点ビデオの符号化時に現在ブロックの動きベクトルを効率的に予測できる動きベクトルの符号化及び復号化方式を提供することで、多視点ビデオの圧縮効率を高める。
図2は、本発明の一実施形態によるビデオ符号化装置の構成を示すブロック図である。図2を参照すれば、ビデオ符号化装置200は、イントラ予測部210、動き予測部220、動き補償部225、周波数変換部230、量子化部240、エントロピー符号化部250、逆量子化部260、周波数逆変換部270、デブロッキング部280及びループフィルタリング部280を備える。
イントラ予測部210は、多視点映像のうちアンカーピクチャー内のIピクチャーに符号化されるブロックに対してイントラ予測を行い、動き予測部220及び動き補償部225は、符号化される現在ブロックと同一視点の映像シーケンスに属しつつ、異なるフレーム番号(Picture Order Count:POC)を持つ参照フレームを参照するか、または、現在ブロックと異なる視点であり、現在ブロックと同じフレーム番号を持つ参照フレームを参照して動き予測及び動き補償を行う。
図3は、図2の動き予測部の具体的な構成を示すブロック図である。図3を参照すれば、動き予測部300は、視点方向動き予測部310、時間方向動き予測部320及び動きベクトル符号化部330を備える。
視点方向動き予測部310は、符号化される現在ブロックの第1視点と異なる第2視点の第1参照フレームに対して現在ブロックに対する動き予測を行って、現在ブロックの視点方向動きベクトルを定める。このように現在ブロックが異なる視点の参照フレームを参照して予測された場合、動きベクトル符号化部330は、現在ブロックの周辺ブロックのうち異なる視点の参照フレームを参照する周辺ブロックの視点方向動きベクトル、及び現在ブロックと同じ視点に属しつつ、現在フレームのPOCと異なるPOCを持つ参照フレームに属する対応領域が持つ視点方向動きベクトルを用いて視点方向予測動きベクトル候補を生成し、視点方向予測動きベクトル候補から選択された一つの視点方向予測動きベクトルと現在ブロックの視点方向動きベクトルとの差値、及び選択された視点方向予測動きベクトルに関するモード情報を符号化する。
時間方向動き予測部320は、符号化される現在ブロックの第1視点と同じ視点の第1参照フレームに対して現在ブロックに対する動き予測を行って、現在ブロックの時間方向動きベクトルを定める。このように現在ブロックが同一視点の異なるPOCを持つ参照フレームを参照して予測された場合、動きベクトル符号化部330は、現在ブロックの周辺ブロックのうち同一視点の異なる参照フレームを参照する周辺ブロックの時間方向動きベクトル、及び現在ブロックと異なる視点に属しつつ、現在フレームと同じPOCを持つ参照フレームに属する対応領域が持つ時間方向動きベクトルを用いて時間方向予測動きベクトル候補を生成し、時間方向予測動きベクトル候補から選択された一つの時間方向予測動きベクトルと現在ブロックの時間方向動きベクトルとの差値、及び選択された時間方向予測動きベクトルに関するモード情報を符号化する。制御部(図示せず)では、現在ブロックの動きベクトルを定めるために、視点方向の動きベクトルと、時間方向の動きベクトルによるR−D(rate−distortion)コストとを比較して、現在ブロックに適用される動きベクトルを定める。
再び図2を参照すれば、イントラ予測部210、動き予測部220及び動き補償部225から出力されたデータは、周波数変換部230及び量子化部240を経て量子化された変換係数に出力される。量子化された変換係数は、逆量子化部260、周波数逆変換部270を通じて空間領域のデータに復元され、復元された空間領域のデータは、デ−ブルロキングブ280及びループフィルタリング部290を経て後処理され、参照フレーム295に出力される。ここで、参照フレームは、多視点映像シーケンスのうち、他の視点の映像シーケンスに比べて先ず符号化された特定視点の映像シーケンスである。例えば、アンカーピクチャーが含まれた特定視点の映像シーケンスは、他の視点の映像シーケンスに比べて先ず符号化され、他の視点の映像シーケンスの視点方向予測符号化時に参照ピクチャーとして用いられる。量子化された変換係数は、エントロピー符号化部250を経てビットストリーム255に出力される。
以下、本発明の実施形態による視点方向動きベクトル及び時間方向動きベクトルの予測動きベクトルを生成する過程について具体的に説明する。
図4は、本発明の一実施形態による視点方向及び時間方向動きベクトルの生成過程を説明するための参照図である。
図2及び図4を参照すれば、先ず、本発明の一実施形態による符号化装置200は、第2視点view 0の映像シーケンス410内に備えられたフレーム411、412、413に対して予測符号化を行った後、異なる視点の映像シーケンスの予測符号化のための参照フレームとして用いるために符号化された第2視点view 0の映像シーケンス410に属するフレーム411、412、413を復元する。すなわち、第2視点view 0の映像シーケンス410に属するフレームは、第1視点view 1の映像シーケンス420より先に符号化されて復元されたフレームである。第2視点view 0の映像シーケンス410に属するフレームは、図示されたように、同一視点view 0内の映像シーケンス410に属する他のフレームを参照して、すなわち、時間方向のみに予測符号化されるか、図示されていないさらに他の視点の映像シーケンスを参照して、以前に符号化された後で復元されたフレームでありうる。図4で、矢印は、いかなる参照フレームを参照して各フレームが予測されるかを示す予測方向を示す。例えば、符号化される現在ブロック424が属する第1視点view 1のPフレーム423は、同一視点の異なるPフレーム421を参照して予測符号化されるか、または、第2視点view 0に属する同一フレーム番号POC 2を持つPフレーム413を参照して予測符号化される。すなわち、図4に図示されたように、現在ブロック424は、第2視点view 0に属しつつ、同一POC 2を持つPフレーム413で最も類似して検索された対応領域414を示す視点方向動きベクトルMV1、及び第1視点view 1に属しつつ、異なるPOC 0を持つPフレーム421で最も類似して検索された対応領域421を示す時間方向動きベクトルMV2を持つ。現在ブロック424の最終的な動きベクトルは、視点方向動きベクトルMV1と時間方向動きベクトルMV2それぞれによるR−Dコストを比べ、さらに小さなR−Dコストを持つ動きベクトルが、現在ブロック424の最終的な動きベクトルとして定められる。
動き予測部220で、現在ブロック424の視点方向スキップ動きベクトルMV1または時間方向動きベクトルMV2が定められれば、動き補償部225は、視点方向スキップ動きベクトルMV1が示す対応領域414または時間方向動きベクトルMV2が示す対応領域425を、現在ブロックの予測値と定める。
図5は、本発明の一実施形態による動きベクトルの予測過程を説明するための参照図である。図5を参照すれば、第2視点view 0の映像シーケンス510に属するフレーム540、560は、第1視点view 1の映像シーケンス520より先に符号化されて復元されたフレームであり、符号化される現在ブロック531が属するフレーム530は、Bというフレーム番号を持つと仮定する。また、図5に示されたように、現在ブロック531の周辺ブロック532ないし540のうち、ao 532、a2 534、b1 536、c 539及びd 540それぞれは、同一フレーム番号Bを持ち、かつ現在ブロック531が属するフレーム530と異なる視点view 0に属するフレーム540の対応領域であるao’541、a2’544、b1’543、c’546及びd’545を参照して、視点方向に予測された周辺ブロックであると仮定する。また、a1 533、bo 535、b2 537及びe 538それぞれは、現在ブロック531と同一視点の映像シーケンス520に属しつつ、異なるフレーム番号Aを持つフレーム550の対応領域であるa1’551、bo’552、b2’553及びe’554を参照して時間方向に予測された周辺ブロックであると仮定する。
現在ブロック531が、異なる第2視点view 0の参照フレーム540を参照して予測された場合、動きベクトル符号化部330は、現在ブロック531の周辺ブロック532ないし540のうち異なるの第2視点view 0の参照フレーム540を参照する周辺ブロック、すなわち、ao 532、a2 534、b1 536、c 539及びd 540の視点方向動きベクトルを用いて視点方向予測動きベクトル候補を生成する。具体的に、動きベクトル符号化部330は、現在ブロック531の左側に隣接しているブロックb0ないしb2のうち、第2視点view 0の参照フレーム540を参照する、最初にスキャンされたブロックb1が持つ動きベクトルを、視点方向第1予測動きベクトルと選択する。また、動きベクトル符号化部330は、現在ブロック531の上側に隣接しているブロックa0ないしa2のうち、第2視点view 0の参照フレーム540を参照する、最初にスキャンされたブロックa0が持つ動きベクトルを、視点方向第2予測動きベクトルと選択する。また、動きベクトル符号化部330は、現在ブロック531のコーナーに隣接しているブロックc、d、eのうち、第2視点view 0の参照フレーム540を参照する、最初にスキャンされたブロックdが持つ動きベクトルを、視点方向第3予測動きベクトルと選択する。また、動きベクトル符号化部330は、視点方向第1予測動きベクトル、視点方向第2予測動きベクトル及び視点方向第3予測動きベクトルの中間値を、視点方向予測動きベクトル候補にさらに含ませる。この時、動きベクトル符号化部330は、第1予測動きベクトル、視点方向第2予測動きベクトル及び視点方向第3予測動きベクトルのうち存在していない予測動きベクトルについては、該予測動きベクトルを0ベクトルと設定し、中間値を定める。
図6は、本発明の他の実施形態による視点方向予測動きベクトルを生成する過程を説明するための参照図である。
本発明の他の実施形態による動きベクトル符号化部330は、現在ブロックと同じ視点、異なるPOCを持つ参照フレームに属しつつ、現在ブロックと同位置のブロックが持つ視点方向動きベクトル、及び前記同位置のブロックを、現在ブロックの周辺ブロックの時間方向動きベクトルを用いてシフトした対応ブロックが持つ視点方向動きベクトルを、視点方向予測動きベクトル候補に含ませる。
図6を参照すれば、現在ブロック611と同じ視点view 1に属しつつ、現在フレーム610のフレーム番号Bと異なるフレーム番号Aを持つフレーム620の同一位置ブロック621は、異なる視点view 0のフレーム630の領域631を参照する視点方向に予測されたブロックであり、視点方向動きベクトルmv_colを持つと仮定する。このような場合、動きベクトル符号化部330は、同一位置ブロック621が持つ視点方向動きベクトルmv_colを、現在ブロック611の視点方向予測動きベクトル候補と定める。また、動きベクトル符号化部330は、現在ブロック611の周辺ブロックのうち、フレーム620を参照する周辺ブロックの時間方向動きベクトルを用いて同一位置ブロック621をシフトさせ、シフトされた対応ブロック622が持つ視点方向動きベクトルmv_corを現在ブロック611の視点方向予測動きベクトル候補と定める。一例として、現在ブロック611の周辺ブロックa 612、b 613及びc 614が、それぞれフレーム620を参照する時間方向に予測された周辺ブロックであると仮定すれば、動きベクトル符号化部330は、周辺ブロックa 612、b 613及びc 614が持つ中間値mv_medを計算し、同一位置ブロック621を中間値mv_medほどシフトさせ、シフトされた対応ブロック622を定める。そして、動きベクトル符号化部330は、シフトされた対応ブロック622が持つ視点方向動きベクトルmv_corを、現在ブロック611の視点方向予測動きベクトル候補と定める。
再び図5を参照すれば、現在ブロック531が同一視点view 1の異なるPOCを持つ参照フレーム550を参照して予測された場合、動きベクトル符号化部330は、現在ブロック531の周辺ブロック532ないし540のうち同一視点の異なるPOCを持つ参照フレーム550を参照する周辺ブロック、すなわち、a1 533、b0 535、b2 537及びe 538の時間方向動きベクトルを用いて時間方向予測動きベクトル候補を生成する。具体的に、動きベクトル符号化部330は、現在ブロック531の左側に隣接しているブロックb0ないしb2のうち同一視点view 1の異なるPOCを持つ参照フレーム550を参照する、最初にスキャンされたブロックb0が持つ動きベクトルを、時間方向第1予測動きベクトルと選択する。また、動きベクトル符号化部330は、現在ブロック531の上側に隣接しているブロックa0ないしa2のうち同一視点view 1の異なるPOCを持つ参照フレーム550を参照する、最初にスキャンされたブロックa1が持つ動きベクトルを、時間方向第2予測動きベクトルと選択する。また、動きベクトル符号化部330は、現在ブロック531のコーナーに隣接しているブロックc、d、eのうち同一視点view 1の異なるPOCを持つ参照フレーム550を参照する、最初にスキャンされたブロックeが持つ動きベクトルを、時間方向第3予測動きベクトルと選択する。また、動きベクトル符号化部330は、時間方向第1予測動きベクトル、時間方向第2予測動きベクトル及び時間方向第3予測動きベクトルの中間値を、時間方向予測動きベクトル候補にさらに含ませる。この時、動きベクトル符号化部330は、時間方向第1予測動きベクトル、時間方向第2予測動きベクトル及び時間方向第3予測動きベクトルのうち存在していない予測動きベクトルについては、該予測動きベクトルを0ベクトルと設定して中間値を定める。前述した例では、周辺ブロックのうち現在ブロックと同じ参照フレームを持つ場合を中心として説明したが、時間方向予測動きベクトルを生成する時、現在フレームと同じ視点に属しつつ、現在ブロックが参照する参照フレームと異なる参照フレームを参照する周辺ブロックの時間方向動きベクトルをスケーリングし、現在ブロックの時間方向予測動きベクトルと定める。
図7は、本発明の他の実施形態による時間方向予測動きベクトルを生成する過程を説明するための参照図である。
本発明の他の実施形態による動きベクトル符号化部330は、現在ブロックと異なる視点、同一POCを持つ参照フレームに属しつつ、現在ブロックと同位置のブロックが持つ時間方向動きベクトル、及び同位置のブロックを、現在ブロックの周辺ブロックの視点方向動きベクトルを用いてシフトした対応ブロックが持つ時間方向動きベクトルを、時間方向予測動きベクトル候補に含ませる。
図7を参照すれば、現在ブロック711と異なる視点view 1に属しつつ、現在フレーム710と同じPOC Bを持つフレーム720の同一位置ブロック721は、異なるPOC Aのフレーム730の領域732を参照する時間方向に予測されたブロックであり、時間方向動きベクトルmv_colを持つと仮定する。このような場合、動きベクトル符号化部330は、同一位置ブロック721が持つ時間方向動きベクトルmv_colを、現在ブロック711の時間方向予測動きベクトル候補と定める。また、動きベクトル符号化部330は、現在ブロック711の周辺ブロックのうち、フレーム720を参照する周辺ブロックの視点方向動きベクトルを用いて同一位置ブロック721をシフトさせ、シフトされた対応ブロック722が持つ時間方向動きベクトルmv_corを、現在ブロック711の時間方向予測動きベクトル候補と定める。一例として、現在ブロック711の周辺ブロックa 712、b 713及びc 714が、それぞれフレーム720を参照する視点方向に予測された周辺ブロックであると仮定すれば、動きベクトル符号化部330は、周辺ブロックa 712、b 713及びc 714が持つ中間値mv_medを計算し、同一位置ブロック721を中間値mv_medほどシフトさせ、シフトされた対応ブロック722を定める。そして、動きベクトル符号化部330は、シフトされた対応ブロック722が持つ時間方向動きベクトルmv_corを、現在ブロック711の時間方向予測動きベクトル候補と定める。
前述した図5ないし図7のように、多様な方式で現在ブロックの視点方向予測動きベクトル候補または時間方向予測動きベクトル候補が生成されれば、本発明による多視点ビデオ符号化装置200は、現在ブロックが持つ動きベクトルと各予測動きベクトル候補との差値によるコストを比べ、現在ブロックが持つ動きベクトルと最も類似した予測動きベクトル、すなわち、最小コストを持つ予測動きベクトルを定め、現在ブロックの動きベクトルと予測動きベクトルとの差値のみを現在ブロックの動きベクトル情報として符号化する。この時、多視点ビデオ符号化装置200は、視点方向予測動きベクトル候補及び時間方向予測動きベクトル候補を所定インデックスによって区別し、現在ブロックの動きベクトルに用いられた予測動きベクトルに対応するインデックス情報を、符号化されたビットストリームに動きベクトルに関する情報として含ませる。
図8は、本発明の一実施形態による視点方向動きベクトルの符号化過程を示すフローチャートである。図8を参照すれば、段階810で、視点方向動き予測部310は、符号化される現在ブロックの第1視点と異なる第2視点の第1参照フレームに対して現在ブロックについての動き予測を行い、現在ブロックの視点方向動きベクトルを定める。
段階820で、動きベクトル符号化部330は、現在ブロックの周辺ブロックのうち第1視点と異なる視点の参照フレームを参照する周辺ブロックの視点方向動きベクトル、及び現在ブロックと同じ第1視点に属しつつ、現在フレームと異なるPOCを持つ第2参照フレームに属する対応領域が持つ視点方向動きベクトルを用いて、視点方向予測動きベクトル候補を生成する。前述したように、視点方向予測動きベクトル候補は、異なる視点の参照フレームを参照する現在ブロックの左側に隣接しているブロックの視点方向動きベクトルから選択された視点方向第1予測動きベクトル、現在ブロックの上側に隣接しているブロックの視点方向動きベクトルから選択された視点方向第2予測動きベクトル、及び現在ブロック以前に符号化されたコーナーに位置しているブロックの視点方向動きベクトルから選択された視点方向第3予測動きベクトルを含む。また視点方向予測動きベクトル候補は、視点方向第1予測動きベクトル、視点方向第2予測動きベクトル及び視点方向第3予測動きベクトルの中間値をさらに含む。また、視点方向予測動きベクトル候補は、第2参照フレームに属しつつ、現在ブロックと同位置のブロックを、現在ブロックの周辺ブロックの時間方向動きベクトルを用いてシフトした対応ブロックが持つ視点方向動きベクトルを含む。
段階830で、動きベクトル符号化部330は、視点方向予測動きベクトル候補から選択された一つの視点方向予測動きベクトルと、現在ブロックの視点方向動きベクトルとの差値、及び選択された視点方向予測動きベクトルに関するモード情報を符号化する。
図9は、本発明の一実施形態による時間方向動きベクトルの符号化過程を示すフローチャートである。図9を参照すれば、段階910で、時間方向動き予測部320は、符号化される現在ブロックの第1視点と同じ視点の第1参照フレームに対して現在ブロックについての動き予測を行い、現在ブロックの時間方向動きベクトルを定める。
段階920で、動きベクトル符号化部330は、現在ブロックの周辺ブロックのうち第1視点の参照フレームを参照する周辺ブロックの時間方向動きベクトル、及び現在ブロックと異なる第2視点に属しつつ、現在フレームと同じPOCを持つ第2参照フレームに属する対応領域が持つ時間方向動きベクトルを用いて、時間方向予測動きベクトル候補を生成する。前述したように、時間方向予測動きベクトル候補は、第1視点の参照フレームを参照する現在ブロックの左側に隣接しているブロックの時間方向動きベクトルから選択された時間方向第1予測動きベクトル、現在ブロックの上側に隣接しているブロックの時間方向動きベクトルから選択された時間方向第2予測動きベクトル、及び現在ブロック以前に符号化されたコーナーに位置しているブロックの時間方向動きベクトルから選択された時間方向第3予測動きベクトルを含む。また、時間方向予測動きベクトル候補は、時間方向第1予測動きベクトル、時間方向第2予測動きベクトル及び時間方向第3予測動きベクトルの中間値をさらに含む。また、時間方向予測動きベクトル候補は、第2参照フレームに属しつつ、現在ブロックと同位置のブロックを、現在ブロックの周辺ブロックの視点方向動きベクトルを用いてシフトした対応ブロックが持つ時間方向動きベクトルを含む。
段階930で、動きベクトル符号化部330は、時間方向予測動きベクトル候補から選択された一つの時間方向予測動きベクトルと現在ブロックの時間方向動きベクトルとの差値、及び選択された時間方向予測動きベクトルに関するモード情報を符号化する。
図10は、本発明の一実施形態による多視点ビデオ復号化装置を示すブロック図である。図10を参照すれば、本発明の一実施形態によるビデオ復号化装置1000は、パージング部1010、エントロピー復号化部1020、逆量子化部1030、周波数逆変換部1040、イントラ予測部1050、動き補償部1060、デブロッキング部1070、ループフィルタリング部1080を備える。
ビットストリーム1005がパージング部1010を経て、復号化対象である符号化された多視点映像データ及び復号化のために必要な情報がパージングされる。符号化された映像データは、エントロピー復号化部1020及び逆量子化部1030を経て逆量子化されたデータに出力され、周波数逆変換部1040を経て空間領域の映像データが復元される。
空間領域の映像データに対して、イントラ予測部1050は、イントラモードのブロックについてイントラ予測を行い、動き補償部1060は、参照フレームを用いてインタモードのブロックについて動き補償を行う。特に、本発明の一実施形態による動き補償部1060は、復号化される現在ブロックの予測モード情報が視点方向にインター予測された場合、ビットストリーム路から読出された現在ブロックの動きベクトル情報を用いて現在ブロックの予測動きベクトルを生成し、ビットストリームに備えられた予測動きベクトル及び差値を加算して現在ブロックの動きベクトルを復元し、復元された動きベクトルを用いて動き補償を行う。前述したように、動き補償部1060は、現在ブロックが視点方向に予測符号化された場合、現在ブロックの周辺ブロックのうち現在ブロックの第1視点と異なる視点の参照フレームを参照する周辺ブロックの視点方向動きベクトル、及び現在ブロックと同じ第1視点に属しつつ、現在フレームのPOCと異なるPOCを持つ第2参照フレームに属する対応領域が持つ視点方向動きベクトルを用いて生成された視点方向予測動きベクトル候補のうち、予測動きベクトル情報に含まれたインデックス情報によって一つの視点方向予測動きベクトルを選択する。また、動き補償部1060は、現在ブロックが時間方向に予測符号化された場合、現在ブロックの周辺ブロックのうち第1視点の参照フレームを参照する周辺ブロックの時間方向動きベクトル、及び現在ブロックと異なる第2視点に属しつつ、現在フレームと同じPOCを持つ第2参照フレームに属する対応領域が持つ時間方向動きベクトルを用いて生成された時間方向予測動きベクトル候補のうち、予測動きベクトル情報に含まれたインデックス情報によって一つの時間方向予測動きベクトルを選択する。動き補償部1060で時間方向及び視点方向予測動きベクトルを生成する過程は、前述した図2の動き予測部220と同一であるため、具体的な説明は略する。
イントラ予測部1050及び動き補償部1060を経た空間領域のデータは、デ−ブルロキングブ1070及びループフィルタリング部1080を経て後処理され、復元フレームに出力される。また、デ−ブルロキングブ1070及びループフィルタリング部1080を経て後処理されたデータは、参照フレーム1085として出力される。
図11は、本発明の一実施形態によるビデオ復号化方法を示すフローチャートである。
段階1110で、ビットストリームから復号化される現在ブロックの予測動きベクトルに関する情報、及び現在ブロックの動きベクトルと現在ブロックの予測動きベクトルとの差値が復号化される。
段階1120で、復号化された現在ブロックの予測動きベクトルに関する情報に基づいて現在ブロックの予測動きベクトルを生成する。前述したように、予測動きベクトルは、現在ブロックの周辺ブロックのうち現在ブロックの第1視点と異なる視点の参照フレームを参照する周辺ブロックの視点方向動きベクトル、及び前記現在ブロックと同じ第1視点に属しつつ、前記現在フレームと異なるPOCを持つ第2参照フレームに属する対応領域が持つ視点方向動きベクトルを用いて生成された視点方向予測動きベクトル候補のうち、予測動きベクトル情報に含まれたインデックス情報によって選択される。また、予測動きベクトルは、現在ブロックの周辺ブロックのうち第1視点の参照フレームを参照する周辺ブロックの時間方向動きベクトル、及び現在ブロックと異なる第2視点に属しつつ、現在フレームのPOCと同じPOCを持つ第2参照フレームに属する対応領域が持つ時間方向動きベクトルを用いて生成された時間方向予測動きベクトル候補のうち、予測動きベクトル情報に含まれたインデックス情報によって選択される。
段階1130で、予測動きベクトル及び差値に基づいて現在ブロックの動きベクトルが復元される。現在ブロックの動きベクトルが復元されれば、動き補償部1060は、動き補償を通じて現在ブロックの予測ブロックを生成し、生成された予測ブロック及びビットストリームから読出されて復号化された残差値を加算し、現在ブロックが復元される。
本発明はまたコンピュータで読み取り可能な記録媒体にコンピュータで読み取り可能なコードとして具現できる。コンピュータで読み取り可能な記録媒体は、コンピュータシステムによって読み取られるデータが保存されるすべての種類の記録装置を含む。コンピュータで読み取り可能な記録媒体の例としては、ROM、RAM、CD−ROM、磁気テープ、フロッピー(登録商標)ディスク、光データ保存装置などが含まれる。またコンピュータで読み取り可能な記録媒体は、ネットワークに連結されたコンピュータシステムに分散され、分散方式でコンピュータで読み取り可能なコードで保存されて実行される。
これまで本発明についてその望ましい実施形態を中心として説明した。当業者ならば、本発明が本発明の本質的な特性から逸脱しない範囲で変形された形態で具現されるということを理解できるであろう。本発明の範囲は、前述した説明ではなく特許請求の範囲に示されており、それと同等な範囲内にあるすべての差は本発明に含まれていると解釈されねばならない。

Claims (9)

  1. 多視点ビデオの動きベクトル符号化方法において、
    符号化される現在ブロックの第1視点と異なる第2視点の第1参照フレームに対して前記現在ブロックに対する動き予測を行って、前記現在ブロックの視点方向動きベクトルを定める段階と、
    前記現在ブロックの周辺ブロックのうち、前記第1視点と異なる視点の参照フレームを参照する周辺ブロックの視点方向動きベクトル、及び前記現在ブロックと同じ第1視点に属しつつ、現在フレームのPOC(Picture Order Count)と異なるPOCを持つ第2参照フレームに属する対応領域が持つ視点方向動きベクトルを用いて、視点方向予測動きベクトル候補を定める段階と、
    前記視点方向予測動きベクトル候補から選択された一つの視点方向予測動きベクトルと前記現在ブロックの視点方向動きベクトルとの差値、及び前記選択された視点方向予測動きベクトルに関するモード情報を符号化する段階と、を含み、
    前記視点方向予測動きベクトル候補は、
    前記現在ブロック以前に符号化されたコーナーに位置しているブロックの視点方向動きベクトルから選択された視点方向第1予測動きベクトル、前記第2参照フレームに属しつつ、前記現在ブロックと同位置のブロックを、前記現在ブロックの周辺ブロックの時間方向動きベクトルの中間値を用いてシフトした、対応ブロックが持つ視点方向動きベクトルを含み、前記コーナーは前記現在ブロックの左下段の位置を含む、ことを特徴とする多視点ビデオの動きベクトル符号化方法。
  2. 前記視点方向予測動きベクトル候補は、前記第1視点と異なる視点の参照フレームを参照する前記現在ブロックの左側に隣接しているブロックの視点方向動きベクトルから選択された視点方向第予測動きベクトル、及び前記現在ブロックの上側に隣接しているブロックの視点方向動きベクトルから選択された視点方向第予測動きベクトル、を含むことを特徴とする請求項1に記載の多視点ビデオの動きベクトル符号化方法。
  3. 前記視点方向予測動きベクトル候補は、
    前記視点方向第1予測動きベクトル、前記視点方向第2予測動きベクトル及び前記視点方向第3予測動きベクトルの中間値(median)をさらに含むことを特徴とする請求項2に記載の多視点ビデオの動きベクトル符号化方法。
  4. 前記選択された視点方向予測動きベクトルに関するモード情報を符号化する段階は、前記視点方向予測動きベクトル候補を所定インデックスによって区別し、前記現在ブロックの視点方向動きベクトルの予測に用いられた視点方向予測動きベクトルに対応するインデックス情報を符号化することを特徴とする請求項1に記載の多視点ビデオの動きベクトル符号化方法。
  5. 多視点ビデオの動きベクトル復号化方法において、
    ビットストリームから復号化される現在ブロックの予測動きベクトルに関する情報、及び前記現在ブロックの動きベクトルと前記現在ブロックの予測動きベクトルとの差値を復号化する段階と、
    前記復号化された現在ブロックの予測動きベクトルに関する情報に基づいて前記現在ブロックの予測動きベクトルを定める段階と、
    前記予測動きベクトル及び前記差値に基づいて前記現在ブロックの動きベクトルを復元する段階と、を含み、
    前記予測動きベクトルは、
    前記現在ブロックの周辺ブロックのうち、前記現在ブロックの第1視点と異なる視点の参照フレームを参照する周辺ブロックの視点方向動きベクトル、及び前記現在ブロックと同じ第1視点に属しつつ、現在フレームのPOCと異なるPOCを持つ第2参照フレームに属する対応領域が持つ視点方向動きベクトルを用いて定められた視点方向予測動きベクトル候補から、前記予測動きベクトル情報に含まれたインデックス情報によって選択され、
    前記視点方向予測動きベクトル候補は、
    前記現在ブロック以前に符号化されたコーナーに位置しているブロックの視点方向動きベクトルから選択された視点方向第1予測動きベクトル、前記第2参照フレームに属しつつ、前記現在ブロックと同位置のブロックを、前記現在ブロックの周辺ブロックの時間方向動きベクトルの中間値を用いてシフトした、対応ブロックが持つ視点方向動きベクトルを含み、前記コーナーは前記現在ブロックの左下段の位置を含む、ことを特徴とする多視点ビデオの動きベクトル復号化方法。
  6. 前記視点方向予測動きベクトル候補は、前記第1視点と異なる視点の参照フレームを参照する前記現在ブロックの左側に隣接しているブロックの視点方向動きベクトルから選択された視点方向第予測動きベクトル、及び前記現在ブロックの上側に隣接しているブロックの視点方向動きベクトルから選択された視点方向第予測動きベクトル、を含むことを特徴とする請求項5に記載の多視点ビデオの動きベクトル復号化方法。
  7. 前記視点方向予測動きベクトル候補は、
    前記視点方向第1予測動きベクトル、前記視点方向第2予測動きベクトル及び前記視点方向第3予測動きベクトルの中間値をさらに含むことを特徴とする請求項6に記載の多視点ビデオの動きベクトル復号化方法。
  8. 多視点ビデオの動きベクトル符号化装置において、
    符号化される現在ブロックの第1視点と異なる第2視点の第1参照フレームに対して前記現在ブロックに対する動き予測を行って、前記現在ブロックの視点方向動きベクトルを定める視点方向動き予測部と、
    前記現在ブロックの周辺ブロックのうち、前記現在ブロック以前に符号化されたコーナーに位置しているブロックの視点方向動きベクトルから選択された視点方向第1予測動きベクトル、前記第1視点と異なる視点の参照フレームを参照する周辺ブロックの視点方向動きベクトル、及び前記現在ブロックと同じ第1視点に属しつつ、現在フレームのPOCと異なるPOCを持つ第2参照フレームに属する対応領域が持つ視点方向動きベクトルを用いて視点方向予測動きベクトル候補を定め、前記視点方向予測動きベクトル候補から選択された一つの視点方向予測動きベクトルと前記現在ブロックの視点方向動きベクトルとの差値、及び前記選択された視点方向予測動きベクトルに関するモード情報を符号化する動きベクトル符号化部であって、前記コーナーは前記現在ブロックの左下段の位置を含む、動きベクトル符号化部と、を備え、
    前記視点方向予測動きベクトル候補は、
    前記第2参照フレームに属しつつ、前記現在ブロックと同位置のブロックを、前記現在ブロックの周辺ブロックの時間方向動きベクトルの中間値を用いてシフトした、対応ブロックが持つ視点方向動きベクトルを含む、ことを特徴とする多視点ビデオの動きベクトル符号化装置。
  9. 多視点ビデオの動きベクトル復号化装置において、
    ビットストリームから復号化される現在ブロックの予測動きベクトルに関する情報、及び前記現在ブロックの動きベクトルと前記現在ブロックの予測動きベクトルとの差値を復号化する動きベクトル復号化部と、
    前記復号化された現在ブロックの予測動きベクトルに関する情報に基づいて前記現在ブロックの予測動きベクトルを定め、前記予測動きベクトル及び前記差値に基づいて前記現在ブロックの動きベクトルを復元する動き補償部と、を備え、
    前記予測動きベクトルは、
    前記現在ブロックの周辺ブロックのうち、前記現在ブロックの第1視点と異なる視点の参照フレームを参照する周辺ブロックの視点方向動きベクトル、及び前記現在ブロックと同じ第1視点に属しつつ、現在フレームのPOCと異なるPOCを持つ第2参照フレームに属する対応領域が持つ視点方向動きベクトルを用いて定められた視点方向予測動きベクトル候補から、前記予測動きベクトル情報に含まれたインデックス情報によって選択され、
    前記視点方向予測動きベクトル候補は、
    前記現在ブロック以前に符号化されたコーナーに位置しているブロックの視点方向動きベクトルから選択された視点方向第1予測動きベクトル、前記第2参照フレームに属しつつ、前記現在ブロックと同位置のブロックを、前記現在ブロックの周辺ブロックの時間方向動きベクトルの中間値を用いてシフトした、対応ブロックが持つ視点方向動きベクトルを含み、前記コーナーは前記現在ブロックの左下段の位置を含む、ことを特徴とする多視点ビデオの動きベクトル復号化装置。
JP2014506327A 2011-04-19 2012-04-19 多視点ビデオの動きベクトル符号化方法及び装置、その復号化方法及び装置 Expired - Fee Related JP6100240B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2011-0036377 2011-04-19
KR1020110036377A KR20120118780A (ko) 2011-04-19 2011-04-19 다시점 비디오의 움직임 벡터 부호화 방법 및 장치, 그 복호화 방법 및 장치
PCT/KR2012/003014 WO2012144829A2 (en) 2011-04-19 2012-04-19 Method and apparatus for encoding and decoding motion vector of multi-view video

Publications (2)

Publication Number Publication Date
JP2014513897A JP2014513897A (ja) 2014-06-05
JP6100240B2 true JP6100240B2 (ja) 2017-03-22

Family

ID=47021329

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014506327A Expired - Fee Related JP6100240B2 (ja) 2011-04-19 2012-04-19 多視点ビデオの動きベクトル符号化方法及び装置、その復号化方法及び装置

Country Status (6)

Country Link
US (1) US20120269269A1 (ja)
EP (1) EP2700231A4 (ja)
JP (1) JP6100240B2 (ja)
KR (1) KR20120118780A (ja)
CN (1) CN103609125A (ja)
WO (1) WO2012144829A2 (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9247249B2 (en) 2011-04-20 2016-01-26 Qualcomm Incorporated Motion vector prediction in video coding
JP2014524706A (ja) * 2011-08-19 2014-09-22 テレフオンアクチーボラゲット エル エム エリクソン(パブル) 動きベクトル処理
JP5979848B2 (ja) * 2011-11-08 2016-08-31 キヤノン株式会社 画像符号化方法、画像符号化装置及びプログラム、画像復号方法、画像復号装置及びプログラム
KR101830352B1 (ko) * 2011-11-09 2018-02-21 에스케이 텔레콤주식회사 스킵모드를 이용한 동영상 부호화 및 복호화 방법 및 장치
US10200709B2 (en) 2012-03-16 2019-02-05 Qualcomm Incorporated High-level syntax extensions for high efficiency video coding
US9503720B2 (en) 2012-03-16 2016-11-22 Qualcomm Incorporated Motion vector coding and bi-prediction in HEVC and its extensions
US20140071235A1 (en) * 2012-09-13 2014-03-13 Qualcomm Incorporated Inter-view motion prediction for 3d video
CN104704835B (zh) * 2012-10-03 2017-11-24 联发科技股份有限公司 视频编码中运动信息管理的装置与方法
EP2904800A4 (en) * 2012-10-05 2016-05-04 Mediatek Singapore Pte Ltd METHOD AND DEVICE FOR MOTION VECTOR REMOVAL FOR 3D VIDEO CODING
CA2887120C (en) * 2012-10-07 2017-08-22 Lg Electronics Inc. Method and device for processing video signal
WO2014077573A2 (ko) * 2012-11-13 2014-05-22 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
EP2986002B1 (en) 2013-04-11 2021-06-09 LG Electronics Inc. Video signal processing method and device
JP6291032B2 (ja) * 2013-04-11 2018-03-14 エルジー エレクトロニクス インコーポレイティド ビデオ信号処理方法及び装置
WO2015009092A1 (ko) * 2013-07-18 2015-01-22 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
WO2015010226A1 (en) 2013-07-24 2015-01-29 Qualcomm Incorporated Simplified advanced motion prediction for 3d-hevc
US9948915B2 (en) 2013-07-24 2018-04-17 Qualcomm Incorporated Sub-PU motion prediction for texture and depth coding
CN106031175B (zh) 2013-12-20 2019-04-26 三星电子株式会社 使用亮度补偿的层间视频编码方法及其装置、以及视频解码方法及其装置
JP6273828B2 (ja) * 2013-12-24 2018-02-07 富士通株式会社 画像符号化装置、画像符号化方法、画像復号装置、及び画像復号方法
EP3089452A4 (en) 2013-12-26 2017-10-25 Samsung Electronics Co., Ltd. Inter-layer video decoding method for performing subblock-based prediction and apparatus therefor, and inter-layer video encoding method for performing subblock-based prediction and apparatus therefor
EP3091741B1 (en) * 2014-01-02 2021-10-27 Intellectual Discovery Co., Ltd. Method for decoding multi-view video
CN103747264B (zh) * 2014-01-03 2017-10-17 华为技术有限公司 预测运动矢量的方法、编码设备和解码设备
US9967592B2 (en) * 2014-01-11 2018-05-08 Qualcomm Incorporated Block-based advanced residual prediction for 3D video coding
EP3114839A4 (en) 2014-03-07 2018-02-14 Qualcomm Incorporated Simplified sub-prediction unit (sub-pu) motion parameter inheritence (mpi)
CN106464899A (zh) * 2014-03-20 2017-02-22 日本电信电话株式会社 活动图像编码装置及方法和活动图像解码装置及方法
WO2018097577A1 (ko) * 2016-11-25 2018-05-31 경희대학교 산학협력단 영상 병렬 처리 방법 및 장치
CN112135127B (zh) * 2019-11-05 2021-09-21 杭州海康威视数字技术股份有限公司 一种编解码方法、装置、设备及机器可读存储介质
EP4422176A1 (en) * 2021-11-23 2024-08-28 Huawei Technologies Co., Ltd. Video encoding method and related apparatus therefor

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8644386B2 (en) * 2005-09-22 2014-02-04 Samsung Electronics Co., Ltd. Method of estimating disparity vector, and method and apparatus for encoding and decoding multi-view moving picture using the disparity vector estimation method
KR101227601B1 (ko) * 2005-09-22 2013-01-29 삼성전자주식회사 시차 벡터 예측 방법, 그 방법을 이용하여 다시점 동영상을부호화 및 복호화하는 방법 및 장치
ZA200805337B (en) * 2006-01-09 2009-11-25 Thomson Licensing Method and apparatus for providing reduced resolution update mode for multiview video coding
KR100934674B1 (ko) * 2006-03-30 2009-12-31 엘지전자 주식회사 비디오 신호를 디코딩/인코딩하기 위한 방법 및 장치
KR101039204B1 (ko) 2006-06-08 2011-06-03 경희대학교 산학협력단 다시점 비디오 코딩에서의 움직임 벡터 예측 방법 및 이를이용한 다시점 영상의 부호화/복호화 방법 및 장치
CN101491096B (zh) * 2006-07-12 2012-05-30 Lg电子株式会社 信号处理方法及其装置
US8355438B2 (en) * 2006-10-30 2013-01-15 Nippon Telegraph And Telephone Corporation Predicted reference information generating method, video encoding and decoding methods, apparatuses therefor, programs therefor, and storage media which store the programs
JP5025286B2 (ja) * 2007-02-28 2012-09-12 シャープ株式会社 符号化装置及び復号装置
US8804839B2 (en) * 2007-06-27 2014-08-12 Korea Electronics Technology Institute Method for image prediction of multi-view video codec and computer-readable recording medium thereof
KR101452859B1 (ko) * 2009-08-13 2014-10-23 삼성전자주식회사 움직임 벡터를 부호화 및 복호화하는 방법 및 장치
KR101660312B1 (ko) * 2009-09-22 2016-09-27 삼성전자주식회사 3차원 비디오의 움직임 탐색 장치 및 방법

Also Published As

Publication number Publication date
CN103609125A (zh) 2014-02-26
EP2700231A4 (en) 2014-11-05
EP2700231A2 (en) 2014-02-26
JP2014513897A (ja) 2014-06-05
US20120269269A1 (en) 2012-10-25
WO2012144829A3 (en) 2013-01-17
WO2012144829A2 (en) 2012-10-26
KR20120118780A (ko) 2012-10-29

Similar Documents

Publication Publication Date Title
JP6100240B2 (ja) 多視点ビデオの動きベクトル符号化方法及び装置、その復号化方法及び装置
JP5830548B2 (ja) 多視点ビデオの符号化方法及び装置、その復号化方法及び装置
US11936896B2 (en) Video encoding and decoding
KR102605638B1 (ko) 부분 코스트 계산
JP3863510B2 (ja) 動きベクトル符号化/復号化方法及びその装置
KR101908249B1 (ko) 단방향 예측 및 병합 후보로부터의 모션 벡터에 기초한 양방향 예측 비디오 코딩 방법
JP5580453B2 (ja) 直接モード符号化及び復号化装置
TWI424749B (zh) 解碼影像之方法
CN107277546B (zh) 编码装置和方法、解码装置和方法以及存储介质
TWI738251B (zh) 用以解碼影像的裝置
JP4663792B2 (ja) 多視点動映像を符号化及び復号化する装置及び方法
WO2011048903A1 (ja) 動画像符号化装置、動画像復号装置、および、データ構造
US20130315311A1 (en) Image encoding/decoding device and method, and reference picture indexing device and method
JP2009543508A (ja) 信号処理方法及び装置
JP2014143650A (ja) 動画像符号化装置、動画像符号化方法及び動画像復号装置ならびに動画像復号方法
CN111510726B (zh) 一种编解码方法及其设备
KR20080006494A (ko) 비디오 신호의 디코딩 방법 및 장치
KR100774297B1 (ko) 움직임 벡터 복호화 방법 및 그 장치
KR101315295B1 (ko) 다시점 영상의 부호화, 복호화 방법 및 장치
KR101261577B1 (ko) 다시점 동영상을 부호화 및 복호화하는 장치 및 방법
KR100774298B1 (ko) 움직임 벡터 복호화 방법 및 그 장치
KR100774300B1 (ko) 움직임 벡터 복호화 방법 및 그 장치
KR100774299B1 (ko) 움직임 벡터 복호화 방법 및 그 장치

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150406

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151130

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20151208

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20160226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170222

R150 Certificate of patent or registration of utility model

Ref document number: 6100240

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees