JP2014512720A - 多視点ビデオの符号化方法及び装置、その復号化方法及び装置 - Google Patents

多視点ビデオの符号化方法及び装置、その復号化方法及び装置 Download PDF

Info

Publication number
JP2014512720A
JP2014512720A JP2013555362A JP2013555362A JP2014512720A JP 2014512720 A JP2014512720 A JP 2014512720A JP 2013555362 A JP2013555362 A JP 2013555362A JP 2013555362 A JP2013555362 A JP 2013555362A JP 2014512720 A JP2014512720 A JP 2014512720A
Authority
JP
Japan
Prior art keywords
current block
view
motion vector
block
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013555362A
Other languages
English (en)
Other versions
JP5830548B2 (ja
Inventor
チェー,ビョン−ドゥ
チョウ,デ−ソン
ジョン,スン−ス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2014512720A publication Critical patent/JP2014512720A/ja
Application granted granted Critical
Publication of JP5830548B2 publication Critical patent/JP5830548B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

現在ブロックの現在フレームの視点と異なる視点を持つ参照フレームを用いて、多視点映像の現在ブロックを符号化及び復号化する多視点映像の符号化及び復号化方法及び装置が開示される。

Description

本発明はビデオ符号化及び復号化に係り、さらに詳細には、多視点ビデオ映像の動きベクトルを予測して符号化する方法及び装置、復号化する方法及び装置に関する。
多視点ビデオ符号化(multi−view video coding:MVC)は、複数のカメラから獲得された互いに異なる視点の複数の映像を処理することであり、多視点映像を時間的相関関係(temporal correlation)及びカメラ間(inter−view)の空間的相関関係(spatial correlation)を用いて圧縮符号化する。
時間的相関関係を用いる時間予測(temporal prediction)及び空間的相関関係を用いる視点間予測(inter−viewprediction)では、一つ以上の参照ピクチャーを用いて現在ピクチャーの動きをブロック単位で予測及び補償して映像を符号化する。時間予測及び視点予測では、現在ブロックと最も類似したブロックを参照ピクチャーの所定の検索範囲で検索し、類似したブロックが検索されれば、現在ブロックと類似したブロック間の残差データのみ伝送することで、データの圧縮率を高める。
本発明が解決しようとする課題は、互いに異なる視点の映像間の相関関係を用いて多視点ビデオの符号化時の効率を向上させるところにある。
本発明の実施形態は、多視点ビデオコーディング時に視点方向にスキップモードを提供することで映像の圧縮効率を向上させる多視点ビデオ符号化方法及び装置と、その復号化方法及び装置を提供する。
本発明によれば、時間方向だけではなく視点方向に現在ブロックの動きベクトルを予測し、モード情報のみを伝送するスキップモードを提供することで、多視点ビデオコーディング時の圧縮効率を向上させる。
本発明の一実施形態による多視点ビデオ符号化及び復号化方法によって符号化される多視点ビデオシーケンスを示す図面である。 本発明の一実施形態によるビデオ符号化装置の構成を示すブロック図である。 本発明の一実施形態による視点方向スキップモード予測符号化過程を説明するための参照図である。 本発明の一実施形態による視点方向スキップ動きベクトルを生成する過程を説明するための参照図である。 本発明の他の実施形態による視点方向スキップ動きベクトルを生成する過程を説明するための参照図である。 本発明のさらに他の実施形態による視点方向スキップ動きベクトルを生成する過程を説明するための参照図である。 本発明の一実施形態による多視点ビデオ符号化方法を示すフローチャートである。 本発明の一実施形態によるビデオ復号化装置を示すブロック図である。 本発明の一実施形態によるビデオ復号化方法を示すフローチャートである。
本発明の一実施形態による多視点ビデオの符号化方法は、符号化される第1視点の現在ブロック以前に符号化された後で復元された第2視点のフレームを参照するブロックの視点方向動きベクトルを用いて、前記現在ブロックの視点方向スキップ動きベクトルを生成する段階と、前記スキップ動きベクトルに基づいて、前記第2視点のフレームから前記現在ブロックについての動き補償を行う段階と、前記スキップ動きベクトルに関するモード情報を符号化する段階と、を含むことを特徴とする。
本発明の一実施形態による多視点ビデオの復号化方法は、ビットストリームから復号化される第1視点の現在ブロックの予測モード情報を復号化する段階と、前記予測モード情報が視点方向スキップモードである場合、前記復号化される第1視点の現在ブロック以前に復号化された第2視点のフレームを参照するブロックの視点方向動きベクトルを用いて、前記現在ブロックの視点方向スキップ動きベクトルを生成する段階と、前記スキップ動きベクトルに基づいて、前記第2視点のフレームから前記現在ブロックについての動き補償を行う段階と、前記現在ブロックの動き補償値と、前記ビットストリームから抽出された残差値とを加算して前記現在ブロックを復元する段階と、を含むことを特徴とする。
本発明の一実施形態による多視点ビデオの符号化装置は、符号化される第1視点の現在ブロックの周辺ブロックのうち、以前に符号化された後で復元された第2視点のフレームを参照する周辺ブロックの視点方向動きベクトルを用いて、前記現在ブロックの視点方向スキップ動きベクトルを生成する予測部と、前記スキップ動きベクトルに基づいて、前記第2視点のフレームから前記現在ブロックについての動き補償を行う動き補償部と、前記現在ブロックの動き補償値と前記現在ブロックとの差値を符号化する符号化部と、前記スキップ動きベクトルに関するモード情報を符号化するエントロピー符号化部と、を備えることを特徴とする。
本発明の一実施形態による多視点ビデオの復号化装置は、ビットストリームから復号化される第1視点の現在ブロックの予測モード情報を復号化するエントロピー復号化部と、前記予測モード情報が視点方向スキップモードである場合、前記復号化される第1視点の現在ブロック以前に復号化された第2視点のフレームを参照するブロックの視点方向動きベクトルを用いて、前記現在ブロックの視点方向スキップ動きベクトルを生成し、前記スキップ動きベクトルに基づいて、前記第2視点のフレームから前記現在ブロックについての動き補償を行う動き補償部と、前記現在ブロックの動き補償値と、前記ビットストリームから抽出された残差値とを加算して前記現在ブロックを復元する復元部と、を備えることを特徴とする。
以下、添付した図面を参照して本発明の望ましい実施形態について具体的に説明する。
図1は、本発明の一実施形態による多視点ビデオ符号化及び復号化方法によって符号化される多視点ビデオシーケンスを示す図面である。図1を参照すれば、x軸は、時間軸で、y軸は、視点軸である。x軸のT0ないしT8は、それぞれ映像のサンプリング時間を示し、y軸のS0ないしS7は、それぞれ互いに異なる視点を示している。図1でそれぞれの行は、同じ視点で入力された映像ピクチャーグループを示し、それぞれの列は、同じ時間での多視点映像を示す。
多視点映像の符号化では、基本視点の映像について周期的にイントラピクチャーを生成し、生成されたイントラピクチャーに基づいて時間的予測または視点間予測を行って他のピクチャーを予測符号化する。
時間的予測とは、同じ視点(view)、すなわち、図1で同じ行にある映像間の時間的な相関関係を用いる予測である。時間的予測のために、階層的Bピクチャーを用いた予測構造が用いられる。視点間予測は、同じ時間、すなわち、同じ列にある映像間の空間的な相関関係を用いる予測である。以下の説明では、階層的Bピクチャーを用いて映像ピクチャーグループを符号化することを説明するが、本発明による符号化及び復号化方式は、階層的Bピクチャー構造以外に他の構造を持つ多視点映像シーケンスにも適用されうる。
階層的Bピクチャーを用いた多視点映像ピクチャーの予測構造は、同じ視点、すなわち、同じ行にある映像間に存在する時間的な相関関係を用いた予測を行う時、同一視点の映像ピクチャーグループを、アンカー(Anchor)ピクチャーを用いて双方向ピクチャー(Bi−directional Picture、以下“Bピクチャー”という)で予測符号化するものである。ここで、アンカーピクチャーは、図1に示した列のうち、イントラピクチャーを含んでいる最初の時間T0及び最後の時間T8での列110及び120に含まれているピクチャーを意味する。アンカーピクチャー110及び120は、イントラピクチャー(Intra picture、以下“Iピクチャー”という)を除いて視点間予測のみを用いて予測符号化される。イントラピクチャーを含んでいる列110及び120を除いた残りの列130に含まれているピクチャーは、非アンカーピクチャー(non−anchor pictures)という。
一例として、最初の視点S0で所定時間の間に入力された映像ピクチャーを、階層的Bピクチャーを用いて符号化する場合を説明する。最初の視点S0で入力された映像ピクチャーのうち、最初の時間T0に入力されたピクチャー111及び最後の時間T8に入力されたピクチャー121は、Iピクチャーに符号化される。次いで、T4時間に入力されたピクチャー131は、アンカーピクチャーであるIピクチャー111、121を参照して双方向予測符号化され、Bピクチャーに符号化される。T2時間に入力されたピクチャー132は、Iピクチャー111及びBピクチャー131を用いて双方向予測符号化され、Bピクチャーに符号化される。類似してT1時間に入力されたピクチャー133は、Iピクチャー111及びBピクチャー132を用いて双方向予測符号化され、T3時間に入力されたピクチャー134は、Bピクチャー132及びBピクチャー131を用いて双方向予測符号化される。このように、同一視点の映像シーケンスは、アンカーピクチャーを用いて階層的に双方向予測符号化されるため、このような予測符号化方式を階層的Bピクチャーと呼ぶ。一方、図1に示したBn(n=1、2、3、4)で、nは、n番目の双方向予測されたBピクチャーを示すものであり、例えば、B1は、IピクチャーまたはPピクチャーであるアンカーピクチャーを用いて最初に双方向予測されたピクチャーを、B2は、B1ピクチャー以後に双方向予測されたピクチャーを、B3は、B2ピクチャー以後に双方向予測されたピクチャーを、B4は、B3ピクチャー以後に双方向予測されたピクチャーを示す。
多視点ビデオシーケンスの符号化時には、先ず基本視点である最初の視点S0の映像ピクチャーグループを、前述した階層的Bピクチャーを用いて符号化する。残りの視点の映像シーケンスを符号化するために、先ず、最初の視点S0のIピクチャー111、121を用いた視点間予測により、アンカーピクチャー110、120に備えられた奇数番目の視点S2、S4、S6及び最後の視点S7の映像ピクチャーを、Pピクチャーで予測符号化する。アンカーピクチャー110、120に備えられた偶数番目の視点S1、S3、S5の映像ピクチャーは、視点間予測により隣接している視点の映像ピクチャーを用いて双方向予測され、Bピクチャーに符号化される。例えば、T0時間に2番目の視点S1で入力されたBピクチャー113は、隣接している視点S0、S2のIピクチャー111及びPピクチャー112を用いて双方向予測される。
アンカーピクチャー110、120に備えられた全視点の映像ピクチャーが、Iピクチャー、Bピクチャー及びPピクチャーのうちいずれか一つのピクチャーに符号化されれば、非アンカーピクチャー130は、前述したように、階層的Bピクチャーを用いた時間的予測及び視点間予測により双方向予測符号化される。
非アンカーピクチャー130のうち奇数番目の視点S2、S4、S6及び最後の視点S7の映像ピクチャーは、階層的Bピクチャーを用いた時間的予測により、同一視点のアンカーピクチャーを用いて双方向予測符号化される。非アンカーピクチャー130のうち偶数番目の視点S1、S3、S5、S7のピクチャーは、階層的Bピクチャーを用いた時間的予測だけではなく、隣接している視点のピクチャーを用いた視点間予測により双方向予測される。例えば、T4時間に2番目の視点S2で入力されたピクチャー136は、アンカーピクチャー113、123及び隣接している視点のピクチャー131、135を用いて予測される。
アンカーピクチャー110、120に備えられたPピクチャーは、前述したように同一時間に入力された他の視点のIピクチャーまたは以前のPピクチャーを用いて予測符号化される。例えば、T8時間に3番目の視点S2で入力されたPピクチャー122は、同一時間の最初の視点S0で入力されたIピクチャー121を参照ピクチャーとして用いて予測符号化される。
図1に示したような多視点ビデオシーケンスで、PピクチャーやBピクチャーは、前述したように同一時間に入力された他の視点のピクチャーを参照ピクチャーとして用いて予測符号化される。このような他の参照ピクチャーを用いる予測符号化モードのうちスキップモード及びダイレクトモードは、現在ブロック以前に符号化された少なくとも一つのブロックの動きベクトルに基づいて現在ブロックの動きベクトルを定め、定められた動きベクトルに基づいて現在ブロックを符号化し、現在ブロックに関する情報として動きベクトルを別途に符号化しないモードである。ダイレクトモードは、現在ブロックの周辺ブロックの動きベクトルを用いて生成された予測ブロックと現在ブロックとの差である残差ブロックを、ピクセル値に関する情報として符号化するのに対し、スキップモードは、予測ブロックが現在ブロックと同一であると見なし、スキップモードに符号化されたことを示すシンタックス情報のみを符号化するモードである。
ダイレクトモード及びスキップモードはいずれも動きベクトルを別途に符号化しないため、圧縮率向上に大きく寄与する。しかし、従来技術によれば、このようなダイレクトモード及びスキップモードは、従来同一視点の映像シーケンスの間、すなわち、時間方向にのみ適用され、互いに異なる視点の映像シーケンスの間には適用されない。よって、本発明では、多視点ビデオシーケンスの符号化時に符号化される現在ブロックと異なる視点の参照フレームを参照して予測符号化を行いつつ、現在ブロックの動きベクトル情報は別途に符号化しないスキップモードを提供することで多視点ビデオの圧縮効率を向上させる。
図2は、本発明の一実施形態によるビデオ符号化装置の構成を示すブロック図である。図2を参照すれば、多視点映像205を符号化するビデオ符号化装置200は、イントラ予測部210、動き予測部220、動き補償部225、周波数変換部230、量子化部240、エントロピー符号化部250、逆量子化部260、周波数逆変換部270、デブロッキング部280及びループフィルタリング部290を備える。
イントラ予測部210は、多視点映像のうちアンカーピクチャー内のIピクチャーに符号化されるブロックについてイントラ予測を行い、動き予測部220及び動き補償部225は、符号化される現在ブロックと同一視点の映像シーケンスに属しつつ他のフレーム番号(Picture Order Count:POC)を持つ参照フレームを参照するか、または現在ブロックと異なる視点でありつつ現在ブロックと同じフレーム番号を持つ参照フレームを参照して、動き予測及び動き補償を行う。特に、後述されるように本発明の実施形態による動き予測部220及び動き補償部225は、現在ブロックと異なる視点の参照フレームを参照して予測符号化を行いつつ、現在ブロックの動きベクトル情報は、別途に符号化しないスキップモードを通じて現在ブロックを予測する。
イントラ予測部210、動き予測部220及び動き補償部225から出力されたデータは、周波数変換部230及び量子化部240を経て量子化された変換係数に出力される。量子化された変換係数は、逆量子化部260、周波数逆変換部270を通じて空間領域のデータに復元され、復元された空間領域のデータは、デブロッキング部280及びループフィルタリング部290を経て後処理され、参照フレーム295に出力される。ここで参照フレームは、多視点映像シーケンスのうち他の視点の映像シーケンスに比べて先に符号化された特定視点の映像シーケンスである。例えば、アンカーピクチャーが含まれた特定視点の映像シーケンスは、他の視点の映像シーケンスに比べて先に符号化され、他の視点の映像シーケンスの視点方向予測符号化時に参照ピクチャーとして用いられる。量子化された変換係数は、エントロピー符号化部250を経てビットストリーム255に出力される。
以下、視点方向予測符号化時にスキップモードで現在ブロックを符号化する過程について具体的に説明する。
図3は、本発明の一実施形態による視点方向スキップモード予測符号化過程を説明するための参照図である。図3を参照すれば、先ず、本発明の一実施形態による符号化装置200は、第2視点view 0の映像シーケンス310内に備えられたフレーム311、312、313について予測符号化を行った後、他の視点の映像シーケンスの予測符号化のための参照フレームとして用いるために符号化された第2視点view 0の映像シーケンス310に属するフレーム311、312、313を復元する。すなわち、第2視点view 0の映像シーケンス310に属しているフレームは、フレーム321、322、323を含む第1視点view 1の映像シーケンス320より先に符号化されて復元されたフレームである。第2視点view 0の映像シーケンス310に属しているフレームは、図示されたように同一視点view 0内の映像シーケンス310に属している他のフレームを参照して、すなわち、時間方向にのみ予測符号化されるか、または図示されていないさらに他の視点の映像シーケンスを参照して以前に符号化された後で復元されたフレームである。図3で矢印は、いかなる参照フレームを参照して各フレームが予測されるかを示す予測方向を示す。例えば、符号化される現在ブロック324が属している第1視点view 1のPフレーム323は、同一視点の他のPフレーム321を参照して予測符号化されるか、または第2視点view 0に属している同一フレーム番号POC2を持つPフレーム313を参照して予測符号化される。同一視点の映像シーケンスに属しているフレーム間の予測符号化過程は、従来技術による予測符号化過程と同じく行われるので、以下の説明では、互いに異なる視点の参照フレームを参照して予測符号化を行う視点方向予測符号化過程を中心として説明する。
動き予測部220は、第1視点view 1の現在ブロック324の周辺ブロックのうち、以前に符号化された後で復元された第2視点view 0のフレームを参照する周辺ブロックの視点方向動きベクトルを用いて、現在ブロック324の視点方向スキップ動きベクトルを生成する。ここで視点方向動きベクトルは、他の視点の参照フレームを示す動きベクトルを意味し、視点方向スキップ動きベクトルとは、現在ブロック324の動きベクトル情報としてモード情報のみ伝送され、実際の動きベクトル情報は伝送されない、本発明の実施形態による視点方向スキップモードで現在ブロックの動き補償のために用いられるベクトルを意味する。言い換えれば、視点方向スキップ動きベクトルは、従来時間方向のスキップモードで現在ブロックの周辺ブロックから定められるスキップモードの動きベクトルと類似して、視点方向の参照フレームの対応領域の決定に用いられるベクトルを意味する。
動き予測部220で現在ブロック324の視点方向スキップ動きベクトルが定められれば、動き補償部225は、第2視点view 0の映像シーケンス310に属しつつ、現在ブロック324が属しているフレーム323と同じフレーム番号POC2を持つPフレーム313で、視点方向スキップ動きベクトルが示す対応領域314を現在ブロックの予測値と定める。視点方向スキップモードでは、対応領域314を現在ブロックの値と見なして、視点方向スキップモードを示すシンタックス情報のみ符号化され、視点方向ダイレクトモードでは、対応領域314と現在ブロック324との差値である残差情報が、ダイレクトモードであることを示すシンタックス情報に付け加えられた伝送される。
図4は、本発明の一実施形態による視点方向スキップ動きベクトルを生成する過程を説明するための参照図である。図4を参照すれば、第2視点view 0の映像シーケンス410に属しているフレーム440、460は、第1視点view 1の映像シーケンス420より先に符号化されて復元されたフレームであり、符号化される現在ブロック431が属しているフレーム430は、(n+1)というフレーム番号を持つと仮定する。また、図4に示したように、現在ブロック431の周辺ブロック432ないし440のうちao 432、a2 434、b1 436、c 439及びd 440それぞれは、同一フレーム番号(n+1)を持つと共に、現在ブロック431が属しているフレーム430と異なる視点view 0に属しているフレーム440の対応領域であるao’ 441、a2’ 444、b1’ 443、c’ 446及びd’ 445を参照して予測符号化された、視点方向予測された周辺ブロックでると仮定する。また、a1 433、bo 435、b2 437及びe 438それぞれは、現在ブロック431と同一視点の映像シーケンス420に属すると共に、他のフレーム番号nを持つフレーム450の対応領域であるa1’ 451、bo’ 452、b2’ 453及びe’ 454を参照して予測符号化された、時間方向予測された周辺ブロックであると仮定する。
前述したように、動き予測部220は、符号化される第1視点view 1の現在ブロック431の周辺ブロック432ないし440のうち、以前に符号化された後で復元された第2視点view 0のフレームを参照する周辺ブロックの視点方向動きベクトルを用いて、現在ブロックの視点方向スキップ動きベクトルを生成する。具体的に、動き予測部220は、現在ブロック431が属しているフレーム430と同一フレーム番号(n+1)を持つと共に、他の視点view 0に属する参照フレーム440を参照する周辺ブロックであるao 432、a2 434、b1 436、c 439及びd 440が持つ視点方向動きベクトルを用いて、現在ブロック431の視点方向スキップ動きベクトルを生成する。前述した例のように、周辺ブロックが複数の視点方向動きベクトルを持つ場合、現在ブロック431に適用する一つの視点方向スキップ動きベクトルを定めるために、中間値(median)を用いる。例えば、動き予測部220は、現在ブロック431上側に隣接している周辺ブロックa0ないしa2から一つの第1代表視点方向動きベクトルmv_view1を定め、左側に隣接している周辺ブロックb0ないしb2から一つの第2代表視点方向動きベクトルmv_view2を定め、コーナーに位置しているブロックc、d、eのうち一つの第3代表視点方向動きベクトルmv_view3を定めた後、第1ないし第3代表視点方向動きベクトルの中間値、すなわち、median(mv_view1、mv_view2、mv_view3)を現在ブロック431の視点方向スキップ動きベクトルと定める。
前述した例のように、上側に隣接している周辺ブロックa0ないしa2のうち視点方向動きベクトルを持つ周辺ブロックa0 432、a2 434が複数存在する場合、先にスキャンされるa0 432が持つ視点方向動きベクトルを、第1代表視点方向動きベクトルmv_view1と定める。類似してコーナーに位置している周辺ブロック438、439、440のうち視点方向動きベクトルを持つ複数の周辺ブロックc 439、d 440が存在する場合、既定のスキャン順、例えば、c、d、eのスキャン順にコーナーに位置している周辺ブロックの動き予測情報を読み出すと仮定した時、先ず視点方向動きベクトルを持つと定められた周辺ブロックc 439の視点方向動きベクトルを、第3代表動きベクトルと定める。もし、現在ブロック431の左側に隣接しているブロック、上側に隣接しているブロック及びコーナーに位置しているブロックそれぞれについて、第2視点view 0のフレーム440を参照する周辺ブロックが存在しない場合には、該グループの周辺ブロックに対して代表視点方向動きベクトルを0に設定して中間値を計算する。例えば、もし現在ブロック431の左側に隣接している周辺ブロック435、436、437のうち、フレーム440を参照する視点方向予測された周辺ブロックが存在しない場合には、第2代表動きベクトルmv_view2を0に設定して中間値を計算する。
現在ブロック431の視点方向スキップ動きベクトルが定められれば、動き補償部225は、第2視点view 0のフレーム440で視点方向スキップ動きベクトルが示す対応領域を現在ブロックの予測値と定める。前述したように、視点方向スキップモードでは対応領域を現在ブロックの値と見なし、視点方向スキップモードを示すシンタックス情報のみ符号化され、視点方向ダイレクトモードでは、対応領域と現在ブロック431との差値である残差情報が、ダイレクトモードであることを示すシンタックス情報に付け加えられて伝送される。
図5は、本発明の他の実施形態による視点方向スキップ動きベクトルを生成する過程を説明するための参照図である。図5を参照すれば、現在ブロック511と同じ視点view 1に属しつつ、現在フレーム510のフレーム番号(n+1)と異なるフレーム番号nを持つフレーム520の同一位置ブロック(co−located block)521は、ブロック531を含む他の視点view 0のフレーム530を参照する視点方向に予測されたブロックであり、視点方向動きベクトルmv_colを持つと仮定する。このような場合、動き予測部220は、同一位置ブロック521が持つ視点方向動きベクトルmv_colを、現在ブロック511の視点方向スキップ動きベクトルと定める。また、動き予測部220は、現在ブロック511の周辺ブロックのうちフレーム520を参照する周辺ブロックの時間方向動きベクトルを用いて同一位置ブロック521をシフトさせ、シフトされた対応ブロック522が持つ視点方向動きベクトルを、現在ブロック511の視点方向スキップ動きベクトルと定める。一例として、現在ブロック511の周辺ブロックa 512、b 513及びc 514が、それぞれフレーム520を参照する時間方向に予測された周辺ブロックであると仮定すれば、動き予測部220は、周辺ブロックa 512、b 513及びc 514が持つ中間値mv_medを計算し、同一位置ブロック521を中間値mv_medほどシフトさせ、シフトされた対応ブロック522を定め、シフトされた対応ブロック522が持つ視点方向動きベクトルを、現在ブロック511の視点方向スキップ動きベクトルと定める。
図6は、本発明のさらに他の実施形態による視点方向スキップ動きベクトルを生成する過程を説明するための参照図である。図6を参照すれば、現在ブロック611と異なる視点view 2に属しつつ、現在フレーム610のフレーム番号(n+1)と同じフレーム番号を持つフレーム620の同一位置ブロック621は、さらに他の視点view 3のフレーム630を参照する視点方向に予測されたブロックであり、視点方向動きベクトルmv_colを持つと仮定する。このような場合、動き予測部220は、同一位置ブロック621が持つ視点方向動きベクトルmv_colを、現在ブロック611の視点方向スキップ動きベクトルと定める。また、動き予測部220は、現在ブロック611の周辺ブロックのうち、フレーム620を参照する周辺ブロックの視点方向動きベクトルを用いて同一位置ブロック621をシフトさせ、シフトされた対応ブロック622が持つ視点方向動きベクトルを、現在ブロック611の視点方向スキップ動きベクトルと定める。一例として、現在ブロック611の周辺ブロックa 612、b 613及びc 614が、それぞれフレーム620を参照する視点方向に予測された周辺ブロックであると仮定すれば、動き予測部220は、周辺ブロックa 612、b 613及びc 614が持つ中間値mv_medを計算し、同一位置ブロック621を中間値mv_medほどシフトさせ、シフトされた対応ブロック622を定め、シフトされた対応ブロック622が持つ視点方向動きベクトルを、現在ブロック611の視点方向スキップ動きベクトルと定める。
前述した図4ないし図6のように、多様な方式で視点方向スキップ動きベクトルが生成されれば、本発明によるビデオ符号化装置200は、各視点方向スキップ動きベクトルの生成方式によるコストを比べて、最適のコストを持つ視点方向スキップ動きベクトルを最終視点方向スキップ動きベクトルと定め、該視点方向スキップ動きベクトルの生成に用いられる生成方式を示すインデックス情報のみを符号化する。例えば、現在ブロックの周辺ブロックのうち視点方向動きベクトルを用いて現在ブロックの視点方向スキップ動きベクトルを生成する場合をmode 0、現在ブロックと同じ視点でありつつ他のフレームに属している同一位置のブロックが持つ視点方向動きベクトルを用いて現在ブロックの視点方向スキップ動きベクトルを生成する場合をmode 1、現在ブロックと同じ視点でありつつ、他のフレームに属している同一位置のブロックをシフトさせた対応ブロックが持つ視点方向動きベクトルを用いる場合をmode 2、現在ブロックと異なる視点でありつつ、同じフレーム番号を持つフレームに属している同一位置のブロックが持つ視点方向動きベクトルを用いる場合をmode 4、現在ブロックと異なる視点でありつつ、同じフレーム番号を持つフレームに属している同一位置のブロックをシフトさせた対応ブロックが持つ視点方向動きベクトルを用いる場合をmode 5と区別すると仮定すれば、エントロピー符号化部250は、現在ブロックの最終視点方向スキップ動きベクトルの生成に用いたモード情報のみをビットストリームに付け加える。視点方向スキップモードでは、このようなモード情報のみ符号化され、視点方向ダイレクトモードでは、モード情報以外に、現在ブロックと、視点方向スキップ動きベクトルを用いて獲得された現在ブロックの動き補償値との差値である残差データに関する情報も符号化される。
図7は、本発明の一実施形態による多視点ビデオ符号化方法を示すフローチャートである。図7を参照すれば、段階710で、動き予測部220は、符号化される第1視点の現在ブロックの周辺ブロックのうち、以前に符号化された後で復元された第2視点のフレームを参照する周辺ブロックの視点方向動きベクトルを用いて、前記現在ブロックの視点方向スキップ動きベクトルを生成する。前述したように、視点方向スキップ動きベクトルは、現在ブロックの周辺ブロックのうち視点方向動きベクトルを用いるか、または、現在ブロックと同じ視点でありつつ他のフレームに属している同一位置のブロックが持つ視点方向動きベクトルを用いるか、または、現在ブロックと同じ視点でありつつ他のフレームに属している同一位置のブロックをシフトさせた対応ブロックが持つ視点方向動きベクトルを用いるか、または、現在ブロックと異なる視点でありつつ同じフレーム番号を持つフレームに属している同一位置のブロックが持つ視点方向動きベクトルを用いるか、または、現在ブロックと異なる視点でありつつ同じフレーム番号を持つフレームに属している同一位置のブロックをシフトさせた対応ブロックが持つ視点方向動きベクトルを用いる。
段階720で、動き補償部225は、スキップ動きベクトルに基づいて第2視点のフレームから現在ブロックについての動き補償を行う。
段階730で、エントロピー符号化部250は、スキップ動きベクトルに関するモード情報を符号化する。前述したように、視点方向スキップモードでは、モード情報のみ符号化され、視点方向ダイレクトモードでは、モード情報以外に現在ブロックと、視点方向スキップ動きベクトルを用いて獲得された現在ブロックの動き補償値との差値である残差データに関する情報も符号化される。
図8は、本発明の一実施形態によるビデオ復号化装置を示すブロック図である。図8を参照すれば、本発明の一実施形態によるビデオ復号化装置800は、パージング部810、エントロピー復号化部820、逆量子化部830、周波数逆変換部840、イントラ予測部850、動き補償部860、デブロッキング部870、ループフィルタリング部880を備える。
ビットストリーム805がパージング部810を経て、復号化対象である符号化された多視点映像データ及び復号化のために必要な情報がパージングされる。符号化された映像データは、エントロピー復号化部820及び逆量子化部830を経て逆量子化されたデータに出力され、周波数逆変換部840を経て空間領域の映像データが復元される。
空間領域の映像データについて、イントラ予測部850は、イントラモードのブロックについてイントラ予測を行い、動き補償部860は、参照フレーム885を共に用いてインタモードのブロックについて動き補償を行う。特に、本発明の一実施形態による動き補償部860は、復号化される現在ブロックの予測モード情報が視点方向スキップモードである場合、復号化される第1視点の現在ブロックの周辺ブロックのうち、以前に復号化された第2視点のフレームを参照する周辺ブロックの視点方向動きベクトルを用いて、現在ブロックの視点方向スキップ動きベクトルを生成し、スキップ動きベクトルに基づいて第2視点のフレームから現在ブロックについての動き補償を行った後、動き補償された値を現在ブロックの復元された値と定める。もし、現在ブロックの予測モード情報が視点方向ダイレクトモードである場合、動き補償部860は、周波数逆変換部840から出力される現在ブロックの残差値及び視点方向スキップ動きベクトルによって動き補償値を加算し、現在ブロックを補償する。動き補償部860で視点方向スキップ動きベクトルを生成する過程は、前述した図2の動き予測部220で視点方向スキップ動きベクトルを生成する過程と同一であるので、具体的な説明は略する。
イントラ予測部850及び動き補償部860を経た空間領域のデータは、デブロッキング部870及びループフィルタリング部880を経て後処理されて復元フレーム895に出力される。また、デブロッキング部870及びループフィルタリング部880を経て後処理されたデータは、参照フレーム885として出力される。
図9は、本発明の一実施形態によるビデオ復号化方法を示すフローチャートである。図9を参照すれば、段階910で、エントロピー復号化部820は、ビットストリームから復号化される第1視点の現在ブロックの予測モード情報を復号化する。
段階920で、動き補償部860は、現在ブロックの予測モード情報が視点方向スキップモードである場合、復号化される第1視点の現在ブロックの周辺ブロックのうち、以前に復号化された第2視点のフレームを参照する周辺ブロックの視点方向動きベクトルを用いて、現在ブロックの視点方向スキップ動きベクトルを生成する。そして、段階930で、動き補償部860は、生成されたスキップ動きベクトルに基づいて第2視点のフレームから現在ブロックについての動き補償を行う。
段階940で、現在ブロックの動き補償値及びビットストリームから抽出された残差値が加算されて現在ブロックが復元される。このような段階940は、視点方向ダイレクトモードである場合に行われ、視点方向スキップモードでは、動き補償値自体が復元された現在ブロックに当たるため、段階940が省略される。
本発明はまた、コンピューターで読み取り可能な記録媒体にコンピューターで読み取り可能なコードとして具現できる。コンピューターで読み取り可能な記録媒体は、コンピューターシステムによって読み取られるデータが保存されるすべての記録装置を含む。コンピューターで読み取り可能な記録媒体の例としては、ROM、RAM、CD−ROM、磁気テープ、フロッピー(登録商標)ディスク、光データ保存装置などが含まれる。またコンピューターで読み取り可能な記録媒体は、ネットワークに連結されたコンピューターシステムに分散され、分散方式でコンピューターで読み取り可能なコードに保存されて行われる。
本発明の実施形態は、装置の各構成要素に連結されたバス、前記機能を具現してコマンドを行うための装置の動作を制御するためにバスに連結される少なくとも一つのプロセッサ(例えば中央処理装置、マイクロプロセッサなど)、及びコマンド、受信メッセージ及び生成されたメッセージを保存するためにバスに連結されたメモリを備える装置によって具現される。
また、当業者ならば、構成単位及び/またはモジュールを含む例示的な実施形態が、FPGA(Field Programmable Gate Array)またはASIC(Application Specific Integrated Circuit)のように所定タスクを行うソフトウェア及び/またはハードウェア構成要素により具現されることもありうるということを理解できるであろう。構成単位またはモジュールは、アドレスできる(addressable)記録媒体内に構成されるか、あるいは、一つ以上のプロセッサまたはマイクロプロセッサによって行われるように構成される。よって、一つの構成単位またはモジュールは、ソフトウェア構成要素、客体向けソフトウェア構成要素、クラス構成要素及びタスク構成要素、プロセス、関数、属性、手続き、サブルーチン、プログラムコードの部分、ドライバ、ファームウェア、マイクロコード、回路、データ、データベース、データ構造、テーブル、配列及び変数などの構成要素を含む。各構成要素及び構成単位で提供される機能は、互いに結合または分離される。
これまで本発明についてその望ましい実施形態を中心として説明した。当業者ならば、本発明が本発明の本質的な特性から逸脱しない範囲で変形された形態で具現されるということを理解できるであろう。本発明の範囲は前述した説明ではなく特許請求の範囲に示されており、それと同等な範囲内にあるあらゆる差異は本発明に含まれていると解釈されねばならない。

Claims (15)

  1. 多視点ビデオの符号化方法において、
    符号化される第1視点の現在ブロック以前に符号化された後で復元された第2視点のフレームを参照するブロックの視点方向動きベクトルを用いて、前記現在ブロックの視点方向スキップ動きベクトルを生成する段階と、
    前記視点方向スキップ動きベクトルに基づいて、前記第2視点のフレームから前記現在ブロックについての動き補償を行う段階と、
    前記視点方向スキップ動きベクトルに関するモード情報を符号化する段階と、を含むことを特徴とする多視点ビデオの符号化方法。
  2. 前記現在ブロックの視点方向スキップ動きベクトルを生成する段階は、
    前記現在ブロック以前に符号化された周辺ブロックのうち、前記第2視点のフレームを参照する周辺ブロックの視点方向動きベクトルを用いて、前記現在ブロックの視点方向スキップ動きベクトルを生成することを特徴とする請求項1に記載の多視点ビデオの符号化方法。
  3. 前記現在ブロックの視点方向スキップ動きベクトルは、
    前記第2視点のフレームを参照する現在ブロックの左側に隣接しているブロックの視点方向動きベクトル、前記第2視点のフレームを参照する前記上側に隣接しているブロックの視点方向動きベクトル、及び前記第2視点のフレームを参照する前記現在ブロック以前に符号化されたコーナーに位置しているブロックの視点方向動きベクトルから選択された視点方向動きベクトルの中間値を含むことを特徴とする請求項1に記載の多視点ビデオの符号化方法。
  4. 前記現在ブロックの視点方向スキップ動きベクトルを生成する段階は、
    前記現在ブロックと同じ第1視点でありつつ、前記現在ブロックの現在フレームと異なるフレームに属し、前記現在ブロックと同じ位置の対応ブロックが持つ視点方向動きベクトルを用いて、前記現在ブロックの視点方向スキップ動きベクトルを生成することを特徴とする請求項1に記載の多視点ビデオの符号化方法。
  5. 前記現在ブロックの視点方向スキップ動きベクトルを生成する段階は、
    前記現在ブロック以前に符号化された周辺ブロックのうち、前記第1視点の現在ブロックが属しているフレームと異なるフレームを参照する周辺ブロックの時間方向動きベクトルを用いて、前記他のフレームに属している前記現在ブロックと同じ位置の対応ブロックをシフトさせ、シフトされた対応ブロックが持つ視点方向動きベクトルを用いて、前記現在ブロックの視点方向スキップ動きベクトルを生成することを特徴とする請求項1に記載の多視点ビデオの符号化方法。
  6. 前記現在ブロックの視点方向スキップ動きベクトルを生成する段階は、
    前記現在ブロック以前に符号化された周辺ブロックのうち、前記第1視点の現在ブロックが属しているフレームと異なるフレームを参照する周辺ブロックの時間方向動きベクトルを用いて、前記第1視点の現在ブロックと異なる、第3視点に属しつつ前記現在ブロックと同じPOC(Picture Order Count)を持つフレームに属している前記現在ブロックと同じ位置の対応ブロックをシフトさせ、前記シフトされた対応ブロックが持つ視点方向動きベクトルを用いて、前記現在ブロックの視点方向スキップ動きベクトルを生成することを特徴とする請求項1に記載の多視点ビデオの符号化方法。
  7. 前記スキップ動きベクトルに関するモード情報を符号化する段階は、
    前記現在ブロックの視点方向スキップ動きベクトル生成方式を所定インデックスによって区別し、前記現在ブロックの視点方向スキップ動きベクトルの生成に用いられた視点方向スキップ動きベクトル生成方式を示すインデックス情報を符号化することを特徴とする請求項1に記載の多視点ビデオの符号化方法。
  8. 多視点ビデオの復号化方法において、
    ビットストリームから復号化される第1視点の現在ブロックの予測モード情報を復号化する段階と、
    前記復号化される第1視点の現在ブロック以前に復号化された第2視点のフレームを参照するブロックの視点方向動きベクトルを用いて、前記現在ブロックの視点方向スキップ動きベクトルを生成する段階と、
    前記スキップ動きベクトルに基づいて、前記第2視点のフレームから前記現在ブロックについての動き補償を行う段階と、
    前記現在ブロックの動き補償値と、前記ビットストリームから抽出された残差値とを加算して前記現在ブロックを復元する段階と、を含むことを特徴とする多視点ビデオの復号化方法。
  9. 前記現在ブロックの視点方向スキップ動きベクトルを生成する段階は、
    前記現在ブロック以前に復号化された周辺ブロックのうち、前記第2視点のフレームを参照する周辺ブロックの視点方向動きベクトルを用いて、前記現在ブロックの視点方向スキップ動きベクトルを生成することを特徴とする請求項8に記載の多視点ビデオの復号化方法。
  10. 前記現在ブロックの視点方向スキップ動きベクトルは、
    前記第2視点のフレームを参照する現在ブロックの左側に隣接しているブロックの視点方向動きベクトル、前記第2視点のフレームを参照する前記上側に隣接しているブロックの視点方向動きベクトル、及び前記第2視点のフレームを参照する前記現在ブロック以前に復号化されたコーナーに位置しているブロックの視点方向動きベクトルから選択された視点方向動きベクトルの中間値を含むことを特徴とする請求項8に記載の多視点ビデオの復号化方法。
  11. 前記現在ブロックの視点方向スキップ動きベクトルを生成する段階は、
    前記現在ブロックと同じ第1視点でありつつ、前記現在ブロックの現在フレームと異なるフレームに属し、前記現在ブロックと同じ位置の対応ブロックが持つ視点方向動きベクトルを用いて、前記現在ブロックの視点方向スキップ動きベクトルを生成することを特徴とする請求項8に記載の多視点ビデオの復号化方法。
  12. 前記現在ブロックの視点方向スキップ動きベクトルを生成する段階は、
    前記現在ブロック以前に復号化された周辺ブロックのうち、前記第1視点の現在ブロックが属しているフレームと異なるフレームを参照する周辺ブロックの時間方向動きベクトルを用いて、前記他のフレームに属している前記現在ブロックと同じ位置の対応ブロックをシフトさせ、シフトされた対応ブロックが持つ視点方向動きベクトルを用いて、前記現在ブロックの視点方向スキップ動きベクトルを生成することを特徴とする請求項8に記載の多視点ビデオの復号化方法。
  13. 前記現在ブロックの視点方向スキップ動きベクトルを生成する段階は、
    前記現在ブロック以前に復号化された周辺ブロックのうち、前記第1視点の現在ブロックが属しているフレームと異なるフレームを参照する周辺ブロックの時間方向動きベクトルを用いて、前記第1視点の現在ブロックと異なる、第3視点に属しつつ前記現在ブロックと同じPOC(Picture Order Count)を持つフレームに属している前記現在ブロックと同じ位置の対応ブロックをシフトさせ、前記シフトされた対応ブロックが持つ視点方向動きベクトルを用いて、前記現在ブロックの視点方向スキップ動きベクトルを生成することを特徴とする請求項8に記載の多視点ビデオの復号化方法。
  14. 前記予測モード情報は、
    前記現在ブロックが視点方向スキップ動きベクトルを用いて符号化された場合、前記現在ブロックの視点方向スキップ動きベクトル生成方式を区別するための所定インデックス情報を含むことを特徴とする請求項8に記載の多視点ビデオの復号化方法。
  15. 多視点ビデオの復号化装置において、
    ビットストリームから復号化される第1視点の現在ブロックの予測モード情報を復号化するエントロピー復号化部と、
    前記予測モード情報が視点方向スキップモードである場合、前記復号化される第1視点の現在ブロック以前に復号化された第2視点のフレームを参照するブロックの視点方向動きベクトルを用いて、前記現在ブロックの視点方向スキップ動きベクトルを生成し、前記スキップ動きベクトルに基づいて、前記第2視点のフレームから前記現在ブロックについての動き補償を行う動き補償部と、
    前記現在ブロックの動き補償値と、前記ビットストリームから抽出された残差値とを加算して前記現在ブロックを復元する復元部と、を備えることを特徴とする多視点ビデオの復号化装置。
JP2013555362A 2011-02-21 2012-02-21 多視点ビデオの符号化方法及び装置、その復号化方法及び装置 Expired - Fee Related JP5830548B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2011-0015033 2011-02-21
KR1020110015033A KR20120095610A (ko) 2011-02-21 2011-02-21 다시점 비디오의 부호화 방법 및 장치, 그 복호화 방법 및 장치
PCT/KR2012/001315 WO2012115436A2 (en) 2011-02-21 2012-02-21 Method and apparatus for encoding and decoding multi-view video

Publications (2)

Publication Number Publication Date
JP2014512720A true JP2014512720A (ja) 2014-05-22
JP5830548B2 JP5830548B2 (ja) 2015-12-09

Family

ID=46652733

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013555362A Expired - Fee Related JP5830548B2 (ja) 2011-02-21 2012-02-21 多視点ビデオの符号化方法及び装置、その復号化方法及び装置

Country Status (6)

Country Link
US (1) US20120213282A1 (ja)
EP (1) EP2676445A4 (ja)
JP (1) JP5830548B2 (ja)
KR (1) KR20120095610A (ja)
CN (1) CN103493492A (ja)
WO (1) WO2012115436A2 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101366092B1 (ko) * 2006-10-13 2014-02-21 삼성전자주식회사 다시점 영상의 부호화, 복호화 방법 및 장치
US8548261B2 (en) 2007-04-11 2013-10-01 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding multi-view image
US9247249B2 (en) * 2011-04-20 2016-01-26 Qualcomm Incorporated Motion vector prediction in video coding
US9503720B2 (en) 2012-03-16 2016-11-22 Qualcomm Incorporated Motion vector coding and bi-prediction in HEVC and its extensions
US10200709B2 (en) 2012-03-16 2019-02-05 Qualcomm Incorporated High-level syntax extensions for high efficiency video coding
KR102186605B1 (ko) * 2012-09-28 2020-12-03 삼성전자주식회사 다시점 영상 부호화/복호화 장치 및 방법
WO2014075236A1 (en) 2012-11-14 2014-05-22 Mediatek Singapore Pte. Ltd. Methods for residual prediction with pseudo residues in 3d video coding
CA2921759C (en) 2013-10-17 2018-05-15 Mediatek Inc. Method of motion information prediction and inheritance in multi-view and three-dimensional video coding
WO2015058397A1 (en) 2013-10-25 2015-04-30 Microsoft Technology Licensing, Llc Representing blocks with hash values in video and image coding and decoding
KR102185245B1 (ko) 2014-03-04 2020-12-01 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 해시 기반 블록 매칭을 위한 해시 테이블 구성 및 이용가능성 검사
CN105706450B (zh) * 2014-06-23 2019-07-16 微软技术许可有限责任公司 根据基于散列的块匹配的结果的编码器决定
JP6462119B2 (ja) 2014-09-30 2019-01-30 マイクロソフト テクノロジー ライセンシング,エルエルシー コンピューティングデバイス
EP3200456A1 (en) * 2016-01-28 2017-08-02 Axis AB Video encoding method and video encoder system for temporal noise reduction
FR3058858A1 (fr) * 2016-11-15 2018-05-18 Orange Procede et dispositif de codage et de decodage d'une sequence multi-vues
US11095877B2 (en) 2016-11-30 2021-08-17 Microsoft Technology Licensing, Llc Local hash-based motion estimation for screen remoting scenarios
US11202085B1 (en) 2020-06-12 2021-12-14 Microsoft Technology Licensing, Llc Low-cost hash table construction and hash-based block matching for variable-size blocks

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008053746A1 (fr) * 2006-10-30 2008-05-08 Nippon Telegraph And Telephone Corporation Procédé de génération d'informations de référence prédictives, procédé de codage et de décodage d'image dynamiques, leur dispositif, leur programme et support de stockage contenant le programme
WO2008053758A1 (fr) * 2006-10-30 2008-05-08 Nippon Telegraph And Telephone Corporation Procédé de codage d'image dynamique, procédé de décodage, leur dispositif, leur programme et support de stockage contenant le programme
JP2009509454A (ja) * 2005-09-22 2009-03-05 サムスン エレクトロニクス カンパニー リミテッド 視差ベクトルの予測方法、その方法を利用して多視点動画を符号化及び復号化する方法及び装置
JP2009543508A (ja) * 2006-07-12 2009-12-03 エルジー エレクトロニクス インコーポレイティド 信号処理方法及び装置
JP2010520697A (ja) * 2007-03-02 2010-06-10 エルジー エレクトロニクス インコーポレイティド ビデオ信号のデコーディング/エンコーディング方法及び装置
JP2010536242A (ja) * 2007-08-06 2010-11-25 トムソン ライセンシング 複数のインタービュー参照ピクチャを用いたモーションスキップモードのための方法及び装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8107535B2 (en) * 2003-06-10 2012-01-31 Rensselaer Polytechnic Institute (Rpi) Method and apparatus for scalable motion vector coding
KR101276720B1 (ko) * 2005-09-29 2013-06-19 삼성전자주식회사 카메라 파라미터를 이용하여 시차 벡터를 예측하는 방법,그 방법을 이용하여 다시점 영상을 부호화 및 복호화하는장치 및 이를 수행하기 위한 프로그램이 기록된 기록 매체
ZA200805337B (en) * 2006-01-09 2009-11-25 Thomson Licensing Method and apparatus for providing reduced resolution update mode for multiview video coding
KR100934677B1 (ko) * 2006-01-12 2009-12-31 엘지전자 주식회사 다시점 비디오의 처리
WO2008056934A1 (en) * 2006-11-07 2008-05-15 Samsung Electronics Co., Ltd. Method of and apparatus for video encoding and decoding based on motion estimation
CN101669367A (zh) * 2007-03-02 2010-03-10 Lg电子株式会社 用于解码/编码视频信号的方法及设备
US20080247466A1 (en) * 2007-04-09 2008-10-09 Jian Wang Method and system for skip mode detection
CN101690220B (zh) * 2007-04-25 2013-09-25 Lg电子株式会社 用于解码/编码视频信号的方法和装置
US8804839B2 (en) * 2007-06-27 2014-08-12 Korea Electronics Technology Institute Method for image prediction of multi-view video codec and computer-readable recording medium thereof
CN101415115B (zh) * 2007-10-15 2011-02-02 华为技术有限公司 基于运动跳跃模式的视频编解码方法及其编解码器

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009509454A (ja) * 2005-09-22 2009-03-05 サムスン エレクトロニクス カンパニー リミテッド 視差ベクトルの予測方法、その方法を利用して多視点動画を符号化及び復号化する方法及び装置
JP2009543508A (ja) * 2006-07-12 2009-12-03 エルジー エレクトロニクス インコーポレイティド 信号処理方法及び装置
WO2008053746A1 (fr) * 2006-10-30 2008-05-08 Nippon Telegraph And Telephone Corporation Procédé de génération d'informations de référence prédictives, procédé de codage et de décodage d'image dynamiques, leur dispositif, leur programme et support de stockage contenant le programme
WO2008053758A1 (fr) * 2006-10-30 2008-05-08 Nippon Telegraph And Telephone Corporation Procédé de codage d'image dynamique, procédé de décodage, leur dispositif, leur programme et support de stockage contenant le programme
JP2010520697A (ja) * 2007-03-02 2010-06-10 エルジー エレクトロニクス インコーポレイティド ビデオ信号のデコーディング/エンコーディング方法及び装置
JP2010536242A (ja) * 2007-08-06 2010-11-25 トムソン ライセンシング 複数のインタービュー参照ピクチャを用いたモーションスキップモードのための方法及び装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6015020505; Han-Suh Koo et al.: 'CE11: MVC Motion Skip Mode' Joint Video Team (JVT) of ISO/IEC MPEG & ITU-T VCEG (ISO/IEC JTC1/SC29/WG11 and ITU-T SG16 Q.6) JVT-V069, 200701, pp.1-9, 22nd Meeting: Marrakech, Morocco *

Also Published As

Publication number Publication date
JP5830548B2 (ja) 2015-12-09
EP2676445A2 (en) 2013-12-25
WO2012115436A3 (en) 2012-12-20
CN103493492A (zh) 2014-01-01
US20120213282A1 (en) 2012-08-23
KR20120095610A (ko) 2012-08-29
WO2012115436A2 (en) 2012-08-30
EP2676445A4 (en) 2014-10-22

Similar Documents

Publication Publication Date Title
JP5830548B2 (ja) 多視点ビデオの符号化方法及び装置、その復号化方法及び装置
JP6100240B2 (ja) 多視点ビデオの動きベクトル符号化方法及び装置、その復号化方法及び装置
KR102605638B1 (ko) 부분 코스트 계산
JP3863510B2 (ja) 動きベクトル符号化/復号化方法及びその装置
JP5580453B2 (ja) 直接モード符号化及び復号化装置
JP4663792B2 (ja) 多視点動映像を符号化及び復号化する装置及び方法
JP2019115061A (ja) 符号化装置、符号化方法、復号装置、復号方法、及びプログラム
US20110013697A1 (en) Motion vector prediction method, and apparatus and method for encoding and decoding image using the same
JP5976197B2 (ja) 3dシーンの1以上のビデオを処理する方法
RU2444856C2 (ru) Способ кодирования видеосигнала и способ декодирования, устройства для этого и носители хранения информации, которые хранят программы для этого
US20130315311A1 (en) Image encoding/decoding device and method, and reference picture indexing device and method
JP2007329693A (ja) 画像符号化装置、及び画像符号化方法
BR122022002970B1 (pt) Método de decodificação de imagem
JP5426655B2 (ja) 圧縮動画符号化装置、圧縮動画復号化装置、圧縮動画符号化方法および圧縮動画復号化方法
JPWO2011048903A1 (ja) 動画像符号化装置、動画像復号装置、および、データ構造
JP2009543508A (ja) 信号処理方法及び装置
RU2523920C2 (ru) Способ кодирования с предсказанием вектора движения, способ декодирования с предсказанием вектора движения, устройство кодирования фильма, устройство декодирования фильма и их программы
CN112840645A (zh) 视频编码系统中组合多个预测子用于块预测的方法及装置
KR20120095611A (ko) 다시점 비디오 부호화/복호화 방법 및 장치
JP2014143650A (ja) 動画像符号化装置、動画像符号化方法及び動画像復号装置ならびに動画像復号方法
JP2004032355A (ja) 動画像符号化方法,動画像復号方法,動画像符号化装置および動画像復号装置
JP5281597B2 (ja) 動きベクトル予測方法,動きベクトル予測装置および動きベクトル予測プログラム
KR20140051789A (ko) 3차원 비디오에서의 뷰간 움직임 예측 방법 및 뷰간 병합 후보 결정 방법
KR100774297B1 (ko) 움직임 벡터 복호화 방법 및 그 장치
KR101315295B1 (ko) 다시점 영상의 부호화, 복호화 방법 및 장치

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140805

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20141105

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20141112

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20141205

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20141212

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150526

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151026

R150 Certificate of patent or registration of utility model

Ref document number: 5830548

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees