JP2010515400A - 全域差ベクトルを利用した多視点映像の符号化、復号化方法及び装置 - Google Patents

全域差ベクトルを利用した多視点映像の符号化、復号化方法及び装置 Download PDF

Info

Publication number
JP2010515400A
JP2010515400A JP2009544792A JP2009544792A JP2010515400A JP 2010515400 A JP2010515400 A JP 2010515400A JP 2009544792 A JP2009544792 A JP 2009544792A JP 2009544792 A JP2009544792 A JP 2009544792A JP 2010515400 A JP2010515400 A JP 2010515400A
Authority
JP
Japan
Prior art keywords
block
current
encoding
information
current block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009544792A
Other languages
English (en)
Inventor
ソン,ハク−ソップ
シム,ウ−ソン
ムン,ヨン−ホ
チェー,ジョン−ボム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2010515400A publication Critical patent/JP2010515400A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/192Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

多視点映像の符号化、復号化方法及び装置に係り、該多視点映像の符号化方法は、現在ピクチャと、異なる視点のピクチャとの全域的な差を示すベクトルに基づいて、現在ブロックに対応するブロックを選択し、選択されたブロック及び前記選択されたブロックに隣接したブロックのうち、1つのブロック情報に基づいて現在ブロックを符号化することによって、視点間全域的な差だけではなく、客体の差も考慮して多視点映像を符号化できる。

Description

本発明は、多視点映像の符号化、復号化方法及び装置に係り、さらに詳細には、全域差ベクトル(global disparity vector)を利用し、多視点映像をさらに高効率で符号化、復号化する方法及び装置に関する。
多視点映像符号化では、多視点映像を提供する複数のカメラから映像信号を入力され、符号化を行う。多視点映像を時間的相関関係(temporal correlation)、及びカメラ間(inter-view)の空間的相関関係(spatial correlation)を利用して圧縮符号化する。
それぞれの視点に含まれたピクチャ間の時間的相関関係を利用して時間予測(temporal prediction)を行ったり、同じ時間の互いに異なる視点のピクチャ間の空間的相関関係を利用して空間予測(spatial prediction)を行う。
空間的相関関係を利用する方法のうちには、全域差ベクトル(global disparity vector)を利用して予測符号化する方法がある。図1を参照しつつ詳細に説明する。
図1A及び図1Bは、互いに異なる視点の映像間の全域的な差を図示している。図1A及び図1Bは、同じ時間に2台のカメラによって撮影された互いに異なる視点の映像を図示している。図1A及び図1Bを参照するに、多視点映像では、互いに異なる視点に対して生成された映像は、カメラの位置差に起因する全域的な差を有する。図1Aに図示された映像110のうち、左側の領域120は、図1Bには現れない領域である。また、図1Bに図示された映像130のうち、右側の領域140は、図1Aには現れない領域である。総合してみれば、図1Aに図示された映像を全域的に右側に移動させれば、図1Bに図示された映像と類似した映像になる。
図1A及び図1Bのかような全域的な差は、互いに異なる視点で映像を撮影するカメラの位置差によって発生するものであり、かような全域的な差を示すベクトルを利用して現在ピクチャを予測符号化する方法を、全域差補償(global disparity compensation)という。
現在ピクチャとの全域的な差ほど参照ピクチャを、一次元または二次元の方向に移動させ、移動した参照ピクチャを参照して現在ピクチャを予測符号化する。しかし、全域的な差によって参照ピクチャを移動させ、現在ピクチャを予測符号化する方法は、参照ピクチャと現在ピクチャとに含まれている客体の個別的な移動は考慮しない。
図2Aないし図2Cは、互いに異なる視点の映像に含まれた客体の差(disparity)を図示している。図2Aのように、2台のカメラが距離の異なった位置にある客体を撮影する場合を例にして説明する。
第1カメラ210が撮影した映像が図2Bに図示された通りであるならば、第2カメラ220が撮影した映像は、図2Cに図示された通りである。カメラから近距離にある客体230は、2視点の映像で差がほとんど発生しない一方、カメラから遠距離にある客体240は、差が大きく発生する。
2視点の映像で発生する全域的な差を動き補償で考慮するとしても、映像に含まれた個別的な客体は、全域的な差と異なる差を有することがあるので、これを考慮した多視点映像の符号化方法が必要である。
本発明がなそうとする技術的課題は、多視点映像に含まれた客体の個別的な差を考慮し、多視点映像を符号化、復号化する方法及び装置を提供するところにあり、また当該方法を実行させるためのプログラムを記録したコンピュータで読み取り可能な記録媒体を提供するところにある。
前記技術的課題を解決するための本発明による多視点映像の符号化方法は、現在ブロックが含まれている現在ピクチャと、前記現在ピクチャの視点と異なる視点のピクチャとの全域的な差を示すベクトルに基づいて、前記現在ブロックに対応するブロックを前記異なる視点のピクチャから選択する段階と、前記選択されたブロック及び前記選択されたブロックに隣接したブロックのうち1つのブロック情報に基づいて、前記現在ブロックを符号化する段階とを含む。
本発明によるさらに望ましい実施形態によれば、前記ブロック情報は、前記選択されたブロック及び前記選択されたブロックに隣接したブロックのうち1つの符号化に利用された予測モード、動きベクトル及び参照インデックスのうち、少なくとも一つを含む。
本発明によるさらに望ましい実施形態によれば、前記符号化する段階は、前記現在ブロックが前記選択されたブロック及び前記選択されたブロックに隣接したブロックのうち、1つのブロック情報に基づいて符号化されたことを示すフラグ情報を符号化する段階を含む。
本発明によるさらに望ましい実施形態によれば、前記符号化する段階は、前記現在ブロックが、前記選択されたブロック及び前記選択されたブロックに隣接したブロックのうちいかなるブロックのブロック情報に基づいて符号化されたかを示すインデックス情報を符号化する段階をさらに含む。
本発明によるさらに望ましい実施形態によれば、前記符号化する段階は、前記フラグ情報及び前記インデックス情報をエントロピ符号化する段階をさらに含む。
前記技術的課題を解決するための本発明による多視点映像の符号化装置は、現在ブロックが含まれている現在ピクチャと、前記現在ピクチャの視点と異なる視点のピクチャとの全域的な差を示すベクトルに基づいて、前記現在ブロックに対応するブロックを、前記異なる視点のピクチャから選択する選択部と、前記選択されたブロック及び前記選択されたブロックに隣接したブロックのうち1つのブロック情報に基づいて、前記現在ブロックを符号化する符号化部とを含む。
前記技術的課題を解決するための本発明による多視点映像の復号化方法は、現在ブロックが含まれている現在ピクチャと、前記現在ピクチャの視点と異なる視点のピクチャとの全域的な差を示すベクトルに基づいて、前記現在ブロックに対応するブロックを、前記異なる視点のピクチャから選択し、前記選択されたブロック及び前記選択されたブロックに隣接したブロックのうち、1つのブロック情報に基づいて符号化された前記現在ブロックに係るデータを含むビットストリームを受信する段階と、前記受信されたビットストリームから前記現在ブロックに係るデータを抽出する段階と、前記抽出されたデータに基づいて、前記現在ブロックを復元する段階とを含む。
本発明によるさらに望ましい実施形態によれば、前記現在ブロックに係るデータは、前記現在ブロックが、前記選択されたブロック及び前記選択されたブロックに隣接したブロックのうち、1つのブロック情報に基づいて符号化されたことを示すフラグ情報を含む。
本発明によるさらに望ましい実施形態によれば、前記現在ブロックに係るデータは、前記現在ブロックが、前記選択されたブロック及び前記選択されたブロックに隣接したブロックのうちいかなるブロックのブロック情報に基づいて符号化されたかを示すインデックス情報をさらに含む。
前記技術的課題を解決するための本発明による多視点映像の復号化装置は、現在ブロックが含まれている現在ピクチャと、前記現在ピクチャの視点と異なる視点のピクチャとの全域的な差を示すベクトルに基づいて、前記現在ブロックに対応するブロックを、前記異なる視点のピクチャから選択し、前記選択されたブロック及び前記選択されたブロックに隣接したブロックのうち、1つのブロック情報に基づいて符号化された前記現在ブロックに係るデータを含むビットストリームを受信し、前記受信されたビットストリームから前記現在ブロックに係るデータを抽出する復号化部と、前記抽出されたデータに基づいて、前記現在ブロックを復元する復元部とを含む。
前記技術的課題を解決するための本発明による多視点映像の符号化方法は、現在ブロックが含まれている現在ピクチャと、前記現在ピクチャの視点と異なる視点のピクチャとの全域的な差を示すベクトルに基づいて、前記現在ブロックに対応するブロックを、前記異なる視点のピクチャから選択する段階と、前記選択されたブロックのブロック情報に基づいてブロックを符号化する符号化モードによって前記現在ブロックを符号化する段階と、前記現在ブロックを含む現在スライスの少なくとも1つのブロックが、前記符号化モードによって符号化されたか否かを示すフラグ情報を符号化する段階とを含む。
前記技術的課題を解決するための本発明による多視点映像の符号化装置は、現在ブロックが含まれている現在ピクチャと、前記現在ピクチャの視点と異なる視点のピクチャとの全域的な差を示すベクトルに基づいて、前記現在ブロックに対応するブロックを、前記異なる視点のピクチャから選択する選択部と、前記選択されたブロックのブロック情報に基づいてブロックを符号化する符号化モードによって前記現在ブロックを符号化する符号化部とを含み、前記符号化部は、前記現在ブロックを含む現在スライスの少なくとも1つのブロックが、前記符号化モードによって符号化されたことを示すフラグ情報を符号化することを特徴とする。
前記技術的課題を解決するための本発明の一実施形態による多視点映像の復号化方法は、現在ブロックが含まれている現在ピクチャと、前記現在ピクチャの視点と異なる視点のピクチャとの全域的な差を示すベクトルに基づいて、前記現在ブロックに対応するブロックを、前記異なる視点のピクチャから選択し、前記選択されたブロックのブロック情報に基づいて符号化された前記現在ブロックに係るデータを含むビットストリームを受信する段階と、前記受信されたビットストリームから前記現在ブロックの残差(residual)ブロックに係るデータ及び符号化モードに係る情報を抽出する段階と、前記抽出された残差ブロックに係るデータ及び符号化モードに対する情報に基づいて、前記現在ブロックを復元する段階とを含み、前記符号化モードについての情報は、前記現在ブロックを含む現在スライスの少なくとも1つのブロックが、前記符号化モードによって符号化されたことを示すフラグ情報を含むことを特徴とする。
前記技術的課題を解決するための本発明による多視点映像の復号化装置は、現在ブロックが含まれている現在ピクチャと、前記現在ピクチャの視点と異なる視点のピクチャとの全域的な差を示すベクトルに基づいて、前記現在ブロックに対応するブロックを、前記異なる視点のピクチャから選択し、前記選択されたブロックのブロック情報に基づいて符号化された前記現在ブロックに係るデータを含むビットストリームを受信し、前記受信されたビットストリームから前記現在ブロックの残差に係るデータ及び符号化モードについての情報を抽出する復号化部と、前記現在ブロックの残差ブロックに係るデータ及び符号化モードについての情報に基づいて、前記現在ブロックを復元する復元部とを含み、前記符号化モードについての情報は、前記現在ブロックを含む現在スライスの少なくとも1つのブロックが、前記符号化モードによって符号化されたことを示すフラグ情報を含むことを特徴とする。
前記技術的課題を解決するために本発明は、前記の多視点映像符号化及び復号化方法を実行させるためのプログラムを記録したコンピュータで読み取り可能な記録媒体を提供する。
本発明の例示的な実施形態によれば、現在ピクチャと異なる視点の現在ブロックに対応するブロックだけではなく、対応するブロックに隣接したブロックのブロック情報も利用して多視点映像を符号化するために、視点間全域的な差だけではなく、客体の個別的な差も考慮し、多視点映像を符号化できる。
また、現在ブロックが、他のブロックのブロック情報をそのまま利用して符号化できる確率が高まり、ブロック情報を符号化するのに消耗されるビット数を減らすことができ、符号化の圧縮率が向上する。
他のブロックのブロック情報をそのまま利用して遂行される符号化モードが適用されたか否かをスライス単位で制御できるために、符号化モードについての情報がさらに効率的に符号化されて復号化されうる。
互いに異なる視点の映像間の全域的な差を図示する図である。 互いに異なる視点の映像間の全域的な差を図示する図である。 互いに異なる視点の映像に含まれた客体の差を図示する図である。 互いに異なる視点の映像に含まれた客体の差を図示する図である。 互いに異なる視点の映像に含まれた客体の差を図示する図である。 本発明の例示的な一実施形態による多視点映像の符号化装置を図示する図である。 本発明の例示的な一実施形態による隣接視点を決定する方法を図示する図である。 本発明の例示的な一実施形態による現在ブロックの符号化方法を図示する図である。 本発明の例示的な一実施形態による符号化部を図示する図である。 本発明の例示的な一実施形態によるブロック情報を生成するための構文を図示する図である。 本発明の例示的な一実施形態による多視点映像の符号化方法を示すフローチャートである。 本発明の例示的な一実施形態による多視点映像の復号化装置を図示する図である。 本発明の例示的な一実施形態による多視点映像の復号化方法を示すフローチャートである。
以下では、図面を参照しつつ、本発明の望ましい実施形態について詳細に説明する。
図3は、本発明の例示的な一実施形態による多視点映像の符号化装置を図示する図である。
本発明による多視点映像符号化装置300は、選択部310、符号化部320及びフレームメモリ330を含む。
選択部310は、現在ブロックが含まれている現在ピクチャと、現在ピクチャの視点と異なる視点のピクチャとの全域的な差を示すベクトルに基づいて、現在ブロックに対応するブロックを異なる視点のピクチャから選択する。現在ピクチャと、以前に符号化された異なる視点のピクチャとの全域的な差を示す全域差ベクトル(global disparity vector)によって、現在マクロブロックに対応するマクロブロックを、隣接(neighboring)視点のピクチャから選択する。
以前に符号化された他視点のピクチャは、所定のブロック単位ですでに符号化された状態である。ブロック情報も、符号化されたブロック単位で生成されている。従って、現在ブロックを他ブロックのブロック情報を利用して符号化しようとするなら、ブロック情報が生成されたブロックを、現在ブロックに対応するブロックとして選択せねばならない。従って、全域差ベクトルが、x軸またはy軸の方向に現在ブロックのサイズの倍数ではない場合には、丸め(rounding)を行って現在ブロックに対応するブロックを選択する。
例えば、異なる視点のピクチャが、16×16マクロブロック単位でブロック情報を生成して符号化され、現在ブロックも、16×16マクロブロックであると仮定する。もし全域差を計算した結果、全域差ベクトルが、(x,y)=(10,12)と決定されたとすれば、現在ブロックに対応するブロックは、異なる視点のピクチャで、(x,y)=(10,12)ほど移動した位置にあるブロックになる。しかし、10と12は、現在ブロックのサイズの倍数ではなく、(x,y)=(10,12)ほど移動した位置にあるブロックは、複数のマクロブロックにわたっているブロックであって、独立したブロック情報を有しているわけではない。従って,10と12とを16に丸めを行って、現在マクロブロックから(x,y)=(16,16)位置ほど移動した位置にあるマクロブロックを隣接視点のピクチャから選択する。
全域差ベクトルのx成分及びy成分に丸めを行って、対応するブロックを選択する方法は例示であるだけであり、それ以外にも他のさまざまな方法を利用し、対応するブロックを選択できることは、本発明が属する技術分野での当業者は、容易に理解することができるであろう。
選択部310が、現在ブロックに対応するブロックを選択するために検索する隣接視点を決定する方法には制限がなく、多視点映像のシーケンス(sequence)ごとに異なる方法を利用し、隣接視点を決定できる。図4を参照しつつ、詳細に説明する。
図4は、本発明の例示的な一実施形態による隣接視点を決定する方法を図示する図である。8個の視点に対する多視点映像で、現在ブロックに対応するブロックを選択するために検索する隣接視点を決定する方法を図示する図である。
図3及び図4を参照するに、現在ブロックが、視点(View)1の映像に含まれたブロックであるならば、多視点映像符号化装置300は、視点0の映像から、現在ブロックに対応するブロックを選択する。また、現在ブロックが、視点2の映像に含まれたブロックであるならば、多視点映像符号化装置300は、視点0の映像から、現在ブロックに対応するブロックを選択する。現在ブロックが、視点3の映像に含まれたブロックであるならば、多視点映像符号化装置は、視点2の映像から、現在ブロックに対応するブロックを選択する。また、現在ブロックが視点4の映像に含まれたブロックであるならば、多視点映像符号化装置は、視点2の映像から、現在ブロックに対応するブロックを選択する。現在ブロックが視点5及び視点6の映像に含まれたブロックであるならば、多視点映像符号化装置は、視点4の映像から、現在ブロックに対応するブロックを選択する。最後に、現在ブロックが視点7の映像に含まれたブロックであるならば、多視点映像符号化装置は、視点6の映像から、現在ブロックに対応するブロックを選択する。
図4に図示された方法は例示的なものであり、隣接視点を決定する方法に制限のないことはすでに述べた通りである。
再び、図3を参照するに、符号化部320は、選択されたブロック及び選択されたブロックに隣接したブロックのうち1つのブロックのブロック情報に基づき、現在ブロックを符号化する。現在ブロックは、それらブロックのうち、1つのブロック情報によって、所定の方法で現在ブロックを符号化する。すなわち、現在ブロックは、選択されたブロック及び選択されたブロックに隣接したブロックのうち、1つのブロックのブロック情報を利用して符号化されうる。選択されたブロック及び隣接したブロックのうち、符号化のために利用される1つのブロック情報は、R−D(rate-distortion)コストによって決定される。現在ブロックの符号化のために利用されるブロック情報を含むブロックが、イントラ予測を利用して符号化されたならば、現在ブロックも、イントラ予測を利用して符号化する。また、現在ブロックの符号化のために利用されるブロック情報を含むブロックがブロックが、時間(temporal)予測を利用して符号化されたならば、現在ブロックも、時間予測を利用して符号化する。
現在ブロックの符号化に利用されるブロック情報類型には制限がない。例えば、ブロック情報は、選択されたブロックの符号化に利用された予測モード、視点間予測(inter-view prediction)または時間予測に利用された動きベクトル、及び参照インデックスのうち、少なくとも一つが含まれうる。
他のブロックのブロック情報をそのまま利用して符号化するために、現在ブロックについては、さらにブロック情報を生成する必要がない。詳細な内容は、図7と関連して後述する。
現在ブロックを、選択されたブロックのブロック情報によって符号化することが、多視点映像の一般的な予測方法であるイントラ予測または視点間予測または時間予測を利用して符号化するより、R−Dコストが低いと判断された場合、選択されたブロックのブロック情報をそのまま利用して符号化を行う。
図5は、本発明の例示的な一実施形態による現在ブロックの符号化方法を図示する図である。図5は、符号化部320(図3)が現在ブロック510を符号化するにおいて利用するところの隣接視点のブロックを選択する方法を図示する図である。
図3及び図5を参照するに、選択部310は、全域差ベクトルによって、隣接視点のピクチャで、対応するブロック530を選択する。その後、符号化部320は、選択されたブロック530及び選択されたブロックに隣接したブロック540のうち、1つのブロック情報を利用して現在ブロック510を符号化する。
本発明による符号化部320は、全域差ベクトルによって選択されたブロック530だけではなく、選択されたブロックに隣接したブロック540のブロック情報も符号化に利用する。
図5に図示された隣接したブロック540は例示的なものであり、ブロック情報を利用する隣接したブロックの数には制限がない。図5に図示されたように、隣接したブロックを8個のみ選択し、全体で9個のブロック550を現在ブロックの符号化に利用することもでき、9個のブロック550の外部のさらに多数のブロックを現在ブロックの符号化に利用することもできる。また、隣接したブロック540の8個をいずれも利用せずに、隣接したブロックのうち、一部のブロックのみ現在ブロックの符号化に利用することも可能である。この場合、隣接したブロック540のうち、現在ブロックと相関性(correlation)の高い一部ブロックのブロック情報のみ利用して現在ブロックを符号化する。
隣接視点から選択されたブロック530及び選択されたブロックに隣接したブロック540には、現在ブロックが、いかなるブロックのブロック情報を利用して符号化されたかを示すために、インデックス(index)が付与される。これについては、図7を参照しつつ、詳細に後述する。
再び図3及び図5を参照するに、符号化部320が現在ブロックを、選択部310から選択されたブロック及び選択されたブロックに隣接したブロックのうち、1つのブロックのブロック情報を利用して符号化を行う過程で、現在ブロックの符号化モードについての情報も共に符号化する。現在ブロック510の符号化モードについての情報は、現在ブロックが選択されたブロック530及び選択されたブロックに隣接したブロック540のうち、1つのブロックのブロック情報を利用して符号化されたことを示すフラグ情報でありうる。図6を参照しつつ、詳細に説明する。
図6は、本発明の例示的な一実施形態による符号化部320を図示する図である。図6を参照するに、本発明による符号化部320は、フラグ情報符号化部610、インデックス情報符号化部620及びエントロピ符号化部630を含む。
フラグ情報符号化部610は、現在ブロックが、選択部310から選択されたブロック及び選択されたブロックに隣接したブロックのうち、1つのブロックのブロック情報に基づいて符号化されたことを示すフラグ情報を符号化する。現在ブロックが、多視点映像の一般的な予測方法であるイントラ予測または視点間予測または時間予測を利用せずに、全域差ベクトルによって選択されたブロック及び選択されたブロックに隣接したブロックのうち、1つのブロック情報に基づいて符号化されたことを示すフラグ情報を符号化する。
全域差ベクトルに基づいて選択された他ブロックのブロック情報をそのまま利用して符号化されたので、現在ブロックのブロック情報は、別途にビットストリームに挿入する必要がない。フラグ情報が、現在ブロックのブロック情報を代替することとなる。フラグ情報は、マクロブロックヘッダまたはスライスヘッダに含まれうるが、マクロブロックヘッダにフラグ情報を含める方法は、図7と関連して詳細に説明する。
マクロブロックヘッダに含まれるフラグ情報以外に、スライス単位で、図5に図示された本発明による符号化モードの適用いかんを示すことができるように、スライスヘッダにフラグ情報を含めることもできる。フラグ情報をスライスヘッダに挿入することによって、図5に図示された本発明による符号化モードの適用いかんをスライス単位で制御できる。
例えば、「MB_info_skip_enable」構文をスライスヘッダに追加できる。もし「MB_info_skip_enable=1」であるならば、現在スライスに含まれたブロックのうち、少なくとも1つのブロックが、図5に図示された符号化方法によって符号化されたことを示し、「MB_info_skip_enable=0」であるならば、現在スライスに含まれたブロックのうち、いかなるブロックも、図5に図示された符号化方法によって符号化されていないことを示すように実施形態を構成できる。従って、「MB_info_skip_enable=0」であるならば、現在スライスに含まれたあらゆるブロックが、図5に図示された符号化方法によって符号化されていないのである。この場合、現在スライスに含まれたあらゆるブロックに対して、図7と関連して後述する「mbinfo_skip_flag」及び「ref_mb_pos」の構文を符号化する必要がない。
インデックス情報符号化部620は、現在ブロックが、全域差ベクトルによって選択されたブロック及び選択されたブロックに隣接したブロックのうち、いかなるブロックのブロック情報を利用して符号化されたかを示すインデックス情報を符号化する。インデックス情報は、現在ブロックが、選択部310によって選択されたブロックだけではなく、選択されたブロックに隣接したブロックのブロック情報も利用して符号化される場合に必要である。
本発明による符号化部320は、全域差ベクトルによって選択されたブロックだけではなく、選択されたブロックに隣接した周辺ブロックのブロック情報も利用して符号化を行うことができる。従って、それらブロックのうち、現在ブロックの符号化に利用したブロックを特定するためのインデックス情報も共に符号化する。
エントロピ符号化部630は、フラグ情報符号化部610で生成されたフラグ情報及びインデックス情報符号化部620で生成されたインデックス情報をエントロピ符号化する。二進化されたフラグ情報及びインデックス情報を、CABAC(context-based adaptive arithmetic coding)符号化してビットストリームに挿入する。
図7は、本発明の例示的な一実施形態によるブロック情報を生成するための構文(syntax)を図示する図である。
図7は、符号化部320で、フラグ情報及びインデックス情報を生成するための構文を図示する図である。図7を参照するに、従来技術と異なり、本発明による符号化部320は、「mbinfo_skip_flag」及び「ref_mb_pos」を生成する。
「mbinfo_skip_flag」は、現在ブロックが、全域差ベクトルによって選択されたブロック及び選択されたブロックに隣接したブロックのうち、1つのブロック情報を利用して符号化されたか否かを示すフラグ情報である。
他ブロックのブロック情報をそのまま利用して符号化されるために、現在ブロックに対して別途にブロック情報を生成する必要がない。従って、現在ブロックのブロック情報をスキップ(skip)することを示すフラグ情報が、「mbinfo_skip_flag」として生成される。
「ref_mb_pos」は、現在ブロックが、いかなるブロックのブロック情報を利用して符号化されたかを示すための情報である。現在ブロックが、全域差ベクトルによって選択されたブロックだけではなく、選択されたブロックに隣接したブロックに基づいて符号化されたならば、全域差ベクトルによって選択されたブロック及び選択されたブロックに隣接したブロックのうち、いかなるブロックのブロック情報を利用して符号化されたかを示すための情報である。
図5に図示された選択されたブロック(インデックス0)及び隣接したブロック(インデックス1ないし8)のうち、いかなるブロックのブロック情報を利用したかを特定するための情報としてビットストリームに挿入される。
図5に図示された選択されたブロック530、及び選択されたブロック530に隣接したブロック540に付加された番号は、まず順位を示すことができる。換言すれば、現在ブロック510を符号化するにおいて、参照する順序を意味できる。現在ブロック510を符号化するにおいて、番号が「0」である選択されたブロック530のブロック情報と、現在ブロック510のブロック情報とが一致する場合、「mbinfo_skip_flag=1」に設定し、「ref_mb_pos=0」に設定する。しかし、番号が「0」である選択されたブロック530のブロック情報と、現在ブロック510のブロック情報とが一致しない場合には、番号が「1」ブロック、換言すれば、選択されたブロックの上部に隣接したブロックのブロック情報と、現在ブロック510のブロック情報とを比較する。比較の結果、ブロック情報が一致すれば、「mbinfo_skip_flag=1」に設定し、「ref_mb_pos=1」に設定する。かような比較を番号「8」まで反復し、一致する場合がなければ、「mbinfo_skip_flag=1」に設定し、従来技術による符号化方法によって、現在ブロックのブロック情報を符号化する。
再び図3を参照するに、符号化部320で符号化された現在ブロックは、フレームメモリ330に保存される。フレームメモリ330に保存された後、ブロックまたは次のピクチャの符号化時に参照される。
図8は、本発明の例示的な一実施形態による多視点映像の符号化方法について説明するためのフローチャートである。図8を参照するに、段階810で、本発明による映像符号化装置300は、現在ピクチャと隣接ピクチャとの全域的な差を示す全域差ベクトルを利用し、現在ブロックに対応するブロックを隣接ピクチャから選択する。
段階820で、映像符号化装置300は、段階810で選択された現在ブロックに対応するブロック及び選択されたブロックに隣接したブロックのうち、1つのブロック情報に基づいて、現在ブロックを符号化する。すなわち、現在ブロックは、選択されたブロックのブロック情報のみを利用して符号化されたり、選択されたブロック及び選択されたブロックに隣接したブロックのうち、1つのブロックのブロック情報に基づいて符号化されうる。
ブロック情報をそのまま利用して現在ブロックを符号化する。現在ブロックの符号化モードについてのフラグ情報、及びいかなるブロックのブロック情報を利用して符号化されたかを示すためのインデックス情報も共に符号化され、ビットストリームに挿入される。フラグ情報及びインデックス情報をエントロピ符号化し、ビットストリームに挿入する。フラグ情報は、図7に図示されたように、マクロブロックヘッダに挿入されるフラグ情報でありうる。また、別途に、現在スライスに含まれた少なくとも1つのブロックが、図5を参照しつつ前述したところの符号化モードによって符号化されたことを示すフラグ情報が符号化され、スライスヘッダに挿入されうる。
図9は、本発明の例示的な一実施形態による多視点映像の復号化装置を図示する図である。図9を参照するに、本発明による映像復号化装置900は、復号化部910及び復元部920を含む。
復号化部910は、現在ブロックに係るデータを含んでいるビットストリームを受信し、受信されたビットストリームから、現在ブロックに係るデータを抽出する。
現在ブロックに係るデータには、現在ブロックが予測符号化されて生成された残差ブロックに係るデータ、及び現在ブロックの符号化モードについての情報が含まれる。残差ブロックは、現在ブロックが含まれている現在ピクチャと、他視点のピクチャとの全域的な差を示すベクトルに基づいて、現在ブロックに対応するブロックを選択し、選択されたブロック及び選択されたブロックに隣接したブロックのうち、1つのブロック情報に基づいて、予測符号化して生成されたブロックである。
現在ブロックの符号化モードについての情報には、現在ブロックが、本発明による符号化モードによって符号化されたことを示すフラグ情報、及び現在ブロックの符号化に利用されたブロックを特定するためのインデックス情報が含まれている。インデックス情報は、現在ブロックの符号化に隣接したブロックのブロック情報が利用された場合に含まれる。
復号化部910は、スライスヘッダのフラグ情報を参照し、現在スライスが本発明による符号化方法によって符号化されたブロックを含んでいるか否かを判断する。もしスライスヘッダのフラグ情報を参照した結果、現在スライスが、本発明による符号化方法によって符号化されたブロックを含んでいなければ、現在ブロックのブロックヘッダに含まれている現在ブロックが、本発明による符号化方法によって符号化されたことを示すフラグ情報及びインデックス情報を抽出する必要がない。
復号化部910は、残差ブロックに係るデータをエントロピ復号化、逆変換及び逆量子化して復号化する。現在ブロックのフラグ情報及びインデックス情報は、エントロピ復号化、すなわち、CABAC復号化して復号化する。
復元部920は、復号化部910が抽出した現在ブロックに係るデータに基づいて、現在ブロックを復元する。
復号化部910が抽出した現在ブロックのブロック情報には、フラグ情報及びインデックス情報が含まれている。従って、復元部920は、スライスヘッダのフラグ情報、ブロックヘッダのフラグ情報及びインデックス情報を参照し、隣接視点の対応するブロック及び対応するブロックに隣接したブロックのうち、1つのブロックのブロック情報を現在ブロックのブロック情報として利用して復号化を行う。
復元部920は、ブロック情報によって、同じ予測モードで現在ブロックを予測する。予測の結果として生成された予測ブロックと、復号化部910で抽出された残差ブロックとを加算し、現在ブロックを復元する。
図10は、本発明の例示的な一実施形態による多視点映像の復号化方法について説明するためのフローチャートである。多視点映像の復号化方法は、図9に図示された多視点映像復号化装置によって遂行される。図10を参照するに、段階1010で、本発明による映像復号化装置900は、全域的な差を示すベクトルに基づいて符号化された現在ブロックに係るデータを含むビットストリームを受信する。
全域的差ベクトルに基づいて現在ブロックに対応するブロックを隣接視点から選択し、選択されたブロック及び選択されたブロックに隣接したブロックのうち、1つのブロック情報に基づいて符号化された現在ブロックに係るデータを含むビットストリームを受信する。
段階1020で、映像復号化装置900は、段階1010で受信されたビットストリームから、現在ブロックに係るデータを抽出する。現在ブロックの残差ブロックに係るデータ、及び現在ブロックの符号化モード情報を抽出する。現在ブロックのブロック情報には、現在ブロックが、本発明による符号化モードによって符号化されたことを示すフラグ情報、及び現在ブロックの符号化に利用されたブロックを特定するためのインデックス情報が含まれている。また、ブロック情報及びフラグ情報は、マクロブロックヘッダ及びスライスヘッダからそれぞれ抽出されうる。
段階1030で、映像復号化装置900は、段階1020で抽出された現在ブロックに係るデータに基づいて、現在ブロックを復元する。現在ブロックのブロック情報に含まれたフラグ情報と、インデックス情報によって特定された他ブロックのブロック情報とをそのまま利用し、現在ブロックを復元する。
以上のように本発明は、たとえ限定された実施形態と図面とによって説明されたにしても、本発明が前記の実施形態に限定されるものではなく、本発明が属する分野で当業者であるならば、かような記載から多様な修正及び変形が可能であろう。従って、本発明の思想は、特許請求の範囲によってのみ把握されるものであり、それと均等であるか、または等価的な変形はいずれも、本発明の思想の範疇に属するといえるのである。また、本発明は、コンピュータで読み取り可能な記録媒体に、コンピュータで読み取り可能なコードとして具現することが可能である。コンピュータで読み取り可能な記録媒体は、コンピュータシステムによって読み取り可能なデータが保存されるあらゆる種類の記録装置を含む。記録媒体の例としては、ROM(read-only memory)、RAM(random-access memory)、CD−ROM、磁気テープ、フロッピー(登録商標)ディスク、光データ保存装置などがある。また、コンピュータで読み取り可能な記録媒体は、ネットワークに連結されたコンピュータシステムに分散され、分散方式でコンピュータで読み取り可能なコードが保存されて遂行されうる。

Claims (38)

  1. 多視点映像の符号化方法において、
    現在ブロックが含まれている現在ピクチャと、前記現在ピクチャの視点と異なる視点のピクチャとの全域的な差を示すベクトルに基づいて、前記現在ブロックに対応するブロックを、前記異なる視点のピクチャから選択する段階と、
    前記選択されたブロック及び前記選択されたブロックに隣接したブロックのうち、1つのブロック情報に基づいて、前記現在ブロックを符号化する段階とを含むことを特徴とする多視点映像符号化方法。
  2. 前記ブロック情報は、
    前記選択されたブロック及び前記選択されたブロックに隣接したブロックのうち、1つの符号化に利用された予測モード、動きベクトル及び参照インデックスのうち、少なくとも一つを含むことを特徴とする請求項1に記載の多視点映像符号化方法。
  3. 前記符号化する段階は、
    前記現在ブロックが、前記選択されたブロック及び前記選択されたブロックに隣接したブロックのうち、1つのブロック情報に基づいて符号化されたことを示すフラグ情報を符号化する段階を含むことを特徴とする請求項1に記載の多視点映像符号化方法。
  4. 前記符号化する段階は、
    前記現在ブロックが、前記選択されたブロック及び前記選択されたブロックに隣接したブロックのうち、いかなるブロックのブロック情報に基づいて符号化されたかを示すインデックス情報を符号化する段階をさらに含むことを特徴とする請求項3に記載の多視点映像符号化方法。
  5. 前記符号化する段階は、
    前記フラグ情報及び前記インデックス情報をエントロピ符号化する段階をさらに含むことを特徴とする請求項4に記載の多視点映像符号化方法。
  6. 前記エントロピ符号化する段階は、
    前記フラグ情報及び前記インデックス情報をCABAC(context-based adaptive arithmetic coding)符号化する段階を含むことを特徴とする請求項5に記載の多視点映像符号化方法。
  7. 多視点映像の符号化装置において、
    現在ブロックが含まれている現在ピクチャと、前記現在ピクチャの視点と異なる視点のピクチャとの全域的な差を示すベクトルに基づいて、前記現在ブロックに対応するブロックを、前記異なる視点のピクチャから選択する選択部と、
    前記選択されたブロック及び前記選択されたブロックに隣接したブロックのうち、1つのブロック情報に基づいて、前記現在ブロックを符号化する符号化部とを含むことを特徴とする多視点映像符号化装置。
  8. 前記ブロック情報は、
    前記選択されたブロック及び前記選択されたブロックに隣接したブロックのうち、1つの符号化に利用された予測モード、動きベクトル及び参照インデックスのうち、少なくとも一つを含むことを特徴とする請求項7に記載の多視点映像符号化装置。
  9. 前記符号化部は、
    前記現在ブロックが、前記選択されたブロック及び前記選択されたブロックに隣接したブロックのうち、1つのブロック情報に基づいて符号化されたことを示すフラグ情報を符号化するフラグ情報符号化部を含むことを特徴とする請求項7に記載の多視点映像符号化装置。
  10. 前記符号化部は、
    前記現在ブロックが、前記選択されたブロック及び前記選択されたブロックに隣接したブロックのうち、いかなるブロックのブロック情報に基づいて符号化されたかを示すインデックス情報を符号化することを特徴とする請求項9に記載の多視点映像符号化装置。
  11. 前記符号化部は、
    前記フラグ情報及び前記インデックス情報をエントロピ符号化するエントロピ符号部をさらに含むことを特徴とする請求項10に記載の多視点映像符号化装置。
  12. 前記エントロピ符号化部は、
    前記フラグ情報及び前記インデックス情報をCABAC符号化することを特徴とする請求項11に記載の多視点映像符号化装置。
  13. 多視点映像の復号化方法において、
    現在ブロックが含まれている現在ピクチャと、前記現在ピクチャの視点と異なる視点のピクチャとの全域的な差を示すベクトルに基づいて、前記現在ブロックに対応するブロックを、前記異なる視点のピクチャから選択し、前記選択されたブロック及び前記選択されたブロックに隣接したブロックのうち、1つのブロック情報に基づいて符号化された前記現在ブロックに係るデータを含むビットストリームを受信する段階と、
    前記受信されたビットストリームから、前記現在ブロックに係るデータを抽出する段階と、
    前記抽出されたデータに基づいて、前記現在ブロックを復元する段階とを含むことを特徴とする多視点映像復号化方法。
  14. 前記現在ブロックに係るデータは、
    前記現在ブロックが、前記選択されたブロック及び前記選択されたブロックに隣接したブロックのうち、1つのブロック情報に基づいて符号化されたことを示すフラグ情報を含むことを特徴とする請求項13に記載の多視点映像復号化方法。
  15. 前記現在ブロックに係るデータは、
    前記現在ブロックが、前記選択されたブロック及び前記選択されたブロックに隣接したブロックのうち、いかなるブロックのブロック情報に基づいて符号化されたかを示すインデックス情報をさらに含むことを特徴とする請求項14に記載の多視点映像復号化方法。
  16. 前記復元する段階は、
    前記インデックス情報によって特定されたブロックのブロック情報に基づいて、前記現在ブロックを復元することを特徴とする請求項15に記載の多視点映像復号化方法。
  17. 多視点映像の復号化装置において、
    現在ブロックが含まれている現在ピクチャと、前記現在ピクチャの視点と異なる視点のピクチャとの全域的な差を示すベクトルに基づいて、前記現在ブロックに対応するブロックを、前記異なる視点のピクチャから選択し、前記選択されたブロック及び前記選択されたブロックに隣接したブロックのうち、1つのブロック情報に基づいて符号化された前記現在ブロックに係るデータを含むビットストリームを受信し、前記受信されたビットストリームから前記現在ブロックに係るデータを抽出する復号化部と、
    前記抽出されたデータに基づいて、前記現在ブロックを復元する復元部とを含むことを特徴とする多視点映像復号化装置。
  18. 前記現在ブロックに係るデータは、
    前記現在ブロックが、前記選択されたブロック及び前記選択されたブロックに隣接したブロックのうち、1つのブロック情報に基づいて符号化されたことを示すフラグ情報を含むことを特徴とする請求項17に記載の多視点映像復号化装置。
  19. 前記現在ブロックに係るデータは、
    前記現在ブロックが、前記選択されたブロック及び前記選択されたブロックに隣接したブロックのうち、いかなるブロックのブロック情報に基づいて符号化されたかを示すインデックス情報をさらに含むことを特徴とする請求項18に記載の多視点映像復号化装置。
  20. 前記復元部は、
    前記インデックス情報によって特定されたブロックのブロック情報に基づいて、前記現在ブロックを復元することを特徴とする請求項19に記載の多視点映像復号化装置。
  21. 請求項1に記載の方法を実行させるためのプログラムを記録したコンピュータで読み取り可能な記録媒体。
  22. 請求項13に記載の方法を実行させるためのプログラムを記録したコンピュータで読み取り可能な記録媒体。
  23. 多視点映像の符号化方法において、
    現在ブロックが含まれている現在ピクチャと、前記現在ピクチャの視点と異なる視点のピクチャとの全域的な差を示すベクトルに基づいて、前記現在ブロックに対応するブロックを、前記異なる視点のピクチャから選択する段階と、
    前記選択されたブロックのブロック情報に基づいてブロックを符号化する符号化モードによって、前記現在ブロックを符号化する段階と、
    前記現在ブロックを含む現在スライスの少なくとも1つのブロックが、前記符号化モードによって符号化されたことを示すフラグ情報を符号化する段階とを含むことを特徴とする多視点映像符号化方法。
  24. 前記ブロック情報は、
    前記選択されたブロックの符号化に利用された予測モード、動きベクトル及び参照インデックスのうち、少なくとも一つを含むことを特徴とする請求項23に記載の多視点映像符号化方法。
  25. 前記フラグ情報は、
    前記現在スライスに対するスライスヘッダに含まれたフラグ情報であることを特徴とする請求項23に記載の多視点映像符号化方法。
  26. 前記フラグ情報を符号化する段階は、
    前記現在ブロックが、前記符号化モードによって符号化されたか否かを示すフラグ情報を符号化する段階をさらに含むことを特徴とする請求項23に記載の多視点映像符号化方法。
  27. 多視点映像の符号化装置において、
    現在ブロックが含まれている現在ピクチャと、前記現在ピクチャの視点と異なる視点のピクチャとの全域的な差を示すベクトルに基づいて、前記現在ブロックに対応するブロックを、前記異なる視点のピクチャから選択する選択部と、
    前記選択されたブロックのブロック情報に基づいてブロックを符号化する符号化モードによって、前記現在ブロックを符号化する符号化部とを含み、
    前記符号化部は、前記現在ブロックを含む現在スライスの少なくとも1つのブロックが、前記符号化モードによって符号化されたことを示すフラグ情報を符号化するすることを特徴とする多視点映像符号化装置。
  28. 前記ブロック情報は、
    前記選択されたブロックの符号化に利用された予測モード、動きベクトル及び参照インデックスのうち、少なくとも一つを含むことを特徴とする請求項27に記載の多視点映像符号化装置。
  29. 前記フラグ情報は、
    前記現在スライスに対するスライスヘッダに含まれたフラグ情報であることを特徴とする請求項27に記載の多視点映像符号化装置。
  30. 前記符号化部は、
    前記現在ブロックが、前記符号化モードによって符号化されたか否かを示すフラグ情報を符号化することを特徴とする請求項27に記載の多視点映像符号化装置。
  31. 多視点映像の復号化方法において、
    現在ブロックが含まれている現在ピクチャと、前記現在ピクチャの視点と異なる視点のピクチャとの全域的な差を示すベクトルに基づいて、前記現在ブロックに対応するブロックを、前記異なる視点のピクチャから選択し、前記選択されたブロックのブロック情報に基づいて符号化された前記現在ブロックに係るデータを含むビットストリームを受信する段階と、
    前記受信されたビットストリームから、前記現在ブロックの残差ブロックに係るデータ及び符号化モードについての情報を抽出する段階と、
    前記抽出された残差ブロックに係るデータ及び符号化モードについての情報に基づいて、前記現在ブロックを復元する段階とを含み、
    前記符号化モードについての情報は、前記現在ブロックを含む現在スライスの少なくとも1つのブロックが、前記符号化モードによって符号化されたことを示すフラグ情報を含むことを特徴とする多視点映像復号化方法。
  32. 前記フラグ情報は、
    前記現在スライスに対するスライスヘッダに含まれたフラグ情報であることを特徴とする請求項31に記載の多視点映像復号化方法。
  33. 前記符号化モードについての情報は、
    前記現在ブロックが、前記符号化モードによって符号化されたか否かを示すフラグ情報を含むことを特徴とする請求項31に記載の多視点映像復号化方法。
  34. 多視点映像の復号化装置において、
    現在ブロックが含まれている現在ピクチャと、前記現在ピクチャの視点と異なる視点のピクチャとの全域的な差を示すベクトルに基づいて、前記現在ブロックに対応するブロックを、前記異なる視点のピクチャから選択し、前記選択されたブロックのブロック情報に基づいて符号化された前記現在ブロックに係るデータを含むビットストリームを受信し、前記受信されたビットストリームから前記現在ブロックの残差に係るデータ及び符号化モードについての情報を抽出する復号化部と、
    前記現在ブロックの残差ブロックに係るデータ及び符号化モードについての情報に基づいて、前記現在ブロックを復元する復元部とを含み、
    前記符号化モードについての情報は、前記現在ブロックを含む現在スライスの少なくとも1つのブロックが、前記符号化モードによって符号化されたことを示すフラグ情報を含むことを特徴とする多視点映像復号化装置。
  35. 前記フラグ情報は、
    前記現在スライスに係るスライスヘッダに含まれたフラグ情報であることを特徴とする請求項34に記載の多視点映像復号化装置。
  36. 前記符号化モードについての情報は、
    前記現在ブロックが、前記符号化モードによって符号化されたか否かを示すフラグ情報を含むことを特徴とする請求項34に記載の多視点映像復号化装置。
  37. 請求項23に記載の方法を実行させるためのプログラムを記録したコンピュータで読み取り可能な記録媒体。
  38. 請求項31に記載の方法を実行させるためのプログラムを記録したコンピュータで読み取り可能な記録媒体。
JP2009544792A 2007-01-03 2008-01-03 全域差ベクトルを利用した多視点映像の符号化、復号化方法及び装置 Pending JP2010515400A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US88319007P 2007-01-03 2007-01-03
KR1020070033781A KR100823287B1 (ko) 2007-01-03 2007-04-05 전역 차이 벡터를 이용한 다시점 영상의 부호화, 복호화방법 및 장치
KR1020070129086A KR101375666B1 (ko) 2007-01-03 2007-12-12 전역 차이 벡터를 이용한 다시점 영상의 부호화, 복호화방법 및 장치
PCT/KR2008/000022 WO2008082253A1 (en) 2007-01-03 2008-01-03 Method and apparatus for encoding and decoding multi-view images based on global disparity vector

Publications (1)

Publication Number Publication Date
JP2010515400A true JP2010515400A (ja) 2010-05-06

Family

ID=39815528

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009544792A Pending JP2010515400A (ja) 2007-01-03 2008-01-03 全域差ベクトルを利用した多視点映像の符号化、復号化方法及び装置

Country Status (6)

Country Link
US (2) US8175396B2 (ja)
EP (1) EP2103143A4 (ja)
JP (1) JP2010515400A (ja)
KR (2) KR100823287B1 (ja)
CN (1) CN101578881B (ja)
WO (1) WO2008082253A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010537484A (ja) * 2007-08-15 2010-12-02 トムソン ライセンシング 多視点符号化ビデオにおける領域視差ベクトルを使用したモーションスキップモードのための方法及び装置
WO2012102088A1 (ja) * 2011-01-24 2012-08-02 ソニー株式会社 画像復号装置と画像符号化装置およびその方法
WO2012172634A1 (ja) * 2011-06-13 2012-12-20 株式会社東芝 画像符号化装置、画像復号化装置、方法およびプログラム
WO2013146507A1 (ja) * 2012-03-30 2013-10-03 ソニー株式会社 画像処理装置および方法、並びに記録媒体
JPWO2012172634A1 (ja) * 2011-06-13 2015-02-23 株式会社東芝 画像符号化装置、画像復号化装置、方法およびプログラム
JPWO2014054684A1 (ja) * 2012-10-02 2016-08-25 シャープ株式会社 画像復号装置および画像復号方法

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100091845A1 (en) * 2006-03-30 2010-04-15 Byeong Moon Jeon Method and apparatus for decoding/encoding a video signal
KR100934671B1 (ko) * 2006-03-30 2009-12-31 엘지전자 주식회사 비디오 신호를 디코딩/인코딩하기 위한 방법 및 장치
EP2030450B1 (en) * 2006-06-19 2015-01-07 LG Electronics Inc. Method and apparatus for processing a video signal
TW200820791A (en) * 2006-08-25 2008-05-01 Lg Electronics Inc A method and apparatus for decoding/encoding a video signal
KR101366092B1 (ko) * 2006-10-13 2014-02-21 삼성전자주식회사 다시점 영상의 부호화, 복호화 방법 및 장치
KR100823287B1 (ko) * 2007-01-03 2008-04-21 삼성전자주식회사 전역 차이 벡터를 이용한 다시점 영상의 부호화, 복호화방법 및 장치
US8548261B2 (en) 2007-04-11 2013-10-01 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding multi-view image
KR20100014553A (ko) 2007-04-25 2010-02-10 엘지전자 주식회사 비디오 신호의 인코딩/디코딩 방법 및 장치
US8804839B2 (en) * 2007-06-27 2014-08-12 Korea Electronics Technology Institute Method for image prediction of multi-view video codec and computer-readable recording medium thereof
KR101074010B1 (ko) * 2009-09-04 2011-10-17 (주)이스트소프트 블록 단위 데이터 압축 및 복원 방법 및 그 장치
KR101016776B1 (ko) 2009-09-21 2011-02-25 (주)이스트소프트 상위 호환성 보장형 압축 및 복원 방법 및 장치
CN102098519B (zh) * 2009-12-09 2013-04-17 浙江大学 视频编码方法、解码方法、编码及解码装置
EP2514209A4 (en) 2009-12-17 2014-03-26 Ericsson Telefon Ab L M METHOD AND DEVICE FOR VIDEO CODING
US8520080B2 (en) 2011-01-31 2013-08-27 Hand Held Products, Inc. Apparatus, system, and method of use of imaging assembly on mobile terminal
CN102325254B (zh) * 2011-08-25 2014-09-24 深圳超多维光电子有限公司 一种立体视频的编、解码方法及装置
KR20130022923A (ko) * 2011-08-26 2013-03-07 삼성전자주식회사 가상 시점 합성 예측을 이용한 부호화/복호화 장치 및 부호화/복호화 방법
US9602831B2 (en) 2012-03-07 2017-03-21 Lg Electronics Inc. Method and apparatus for processing video signals
US9998727B2 (en) * 2012-09-19 2018-06-12 Qualcomm Incorporated Advanced inter-view residual prediction in multiview or 3-dimensional video coding
EP2966868B1 (en) * 2012-10-09 2018-07-18 HFI Innovation Inc. Method for motion information prediction and inheritance in video coding
EP2920967A4 (en) * 2012-11-16 2016-05-25 Mediatek Inc METHOD AND DEVICE FOR RESTRICTED DISPARITY VECTOR REMOVAL IN 3D VIDEO CODING
US9538180B2 (en) * 2012-12-17 2017-01-03 Qualcomm Incorporated Motion vector prediction in video coding
US9237345B2 (en) * 2013-02-26 2016-01-12 Qualcomm Incorporated Neighbor block-based disparity vector derivation in 3D-AVC

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0698312A (ja) * 1992-09-16 1994-04-08 Fujitsu Ltd 画像高能率符号化方式
JPH09261653A (ja) * 1996-03-18 1997-10-03 Sharp Corp 多視点画像符号化装置
JPH09275578A (ja) * 1996-04-04 1997-10-21 Sharp Corp 多視点画像符号化装置および復号装置
JP2001036908A (ja) * 1999-07-15 2001-02-09 Oki Electric Ind Co Ltd 動画像圧縮装置
JP2002354503A (ja) * 2001-05-23 2002-12-06 Olympus Optical Co Ltd 視差ベクトル検出方法
JP2005244503A (ja) * 2004-02-25 2005-09-08 Sony Corp 画像情報符号化装置および画像情報符号化方法
WO2006073116A1 (ja) * 2005-01-07 2006-07-13 Nippon Telegraph And Telephone Corporation 映像符号化方法及び装置、映像復号方法及び装置、それらのプログラムおよびそれらプログラムを記録した記録媒体
JP2008503973A (ja) * 2004-06-25 2008-02-07 エルジー エレクトロニクス インコーポレイティド 多視点シーケンス符号化/復号化方法及びそのディスプレイ方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100378636B1 (ko) * 1994-09-02 2003-06-18 사르노프 코포레이션 전역대지역블록이동추정방법및장치
GB9519921D0 (en) * 1995-09-29 1995-11-29 Philips Electronics Nv Graphics image manipulation
US6055274A (en) 1997-12-30 2000-04-25 Intel Corporation Method and apparatus for compressing multi-view video
US7050500B2 (en) * 2001-08-23 2006-05-23 Sharp Laboratories Of America, Inc. Method and apparatus for motion vector coding with global motion parameters
KR100481732B1 (ko) 2002-04-20 2005-04-11 전자부품연구원 다 시점 동영상 부호화 장치
KR100760258B1 (ko) 2004-12-10 2007-09-19 한국전자통신연구원 범용적 다시점 동영상 부호화/복호화 장치 및 방법
US7728878B2 (en) * 2004-12-17 2010-06-01 Mitsubishi Electric Research Labortories, Inc. Method and system for processing multiview videos for view synthesis using side information
US8228994B2 (en) 2005-05-20 2012-07-24 Microsoft Corporation Multi-view video coding based on temporal and view decomposition
CN100463527C (zh) * 2005-10-18 2009-02-18 宁波大学 一种多视点视频图像视差估计的方法
KR100823287B1 (ko) * 2007-01-03 2008-04-21 삼성전자주식회사 전역 차이 벡터를 이용한 다시점 영상의 부호화, 복호화방법 및 장치

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0698312A (ja) * 1992-09-16 1994-04-08 Fujitsu Ltd 画像高能率符号化方式
JPH09261653A (ja) * 1996-03-18 1997-10-03 Sharp Corp 多視点画像符号化装置
JPH09275578A (ja) * 1996-04-04 1997-10-21 Sharp Corp 多視点画像符号化装置および復号装置
JP2001036908A (ja) * 1999-07-15 2001-02-09 Oki Electric Ind Co Ltd 動画像圧縮装置
JP2002354503A (ja) * 2001-05-23 2002-12-06 Olympus Optical Co Ltd 視差ベクトル検出方法
JP2005244503A (ja) * 2004-02-25 2005-09-08 Sony Corp 画像情報符号化装置および画像情報符号化方法
JP2008503973A (ja) * 2004-06-25 2008-02-07 エルジー エレクトロニクス インコーポレイティド 多視点シーケンス符号化/復号化方法及びそのディスプレイ方法
WO2006073116A1 (ja) * 2005-01-07 2006-07-13 Nippon Telegraph And Telephone Corporation 映像符号化方法及び装置、映像復号方法及び装置、それらのプログラムおよびそれらプログラムを記録した記録媒体

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010537484A (ja) * 2007-08-15 2010-12-02 トムソン ライセンシング 多視点符号化ビデオにおける領域視差ベクトルを使用したモーションスキップモードのための方法及び装置
WO2012102088A1 (ja) * 2011-01-24 2012-08-02 ソニー株式会社 画像復号装置と画像符号化装置およびその方法
US9560348B2 (en) 2011-01-24 2017-01-31 Sony Corporation Image decoding device, image encoding device, and method thereof using a prediction quantization parameter
US10419761B2 (en) 2011-01-24 2019-09-17 Sony Corporation Image decoding device, image encoding device, and method thereof
WO2012172634A1 (ja) * 2011-06-13 2012-12-20 株式会社東芝 画像符号化装置、画像復号化装置、方法およびプログラム
JPWO2012172634A1 (ja) * 2011-06-13 2015-02-23 株式会社東芝 画像符号化装置、画像復号化装置、方法およびプログラム
WO2013146507A1 (ja) * 2012-03-30 2013-10-03 ソニー株式会社 画像処理装置および方法、並びに記録媒体
JPWO2013146507A1 (ja) * 2012-03-30 2015-12-14 ソニー株式会社 画像処理装置および方法、並びに記録媒体
JP2017085630A (ja) * 2012-03-30 2017-05-18 ソニー株式会社 画像処理装置および方法、並びにプログラム
JPWO2014054684A1 (ja) * 2012-10-02 2016-08-25 シャープ株式会社 画像復号装置および画像復号方法

Also Published As

Publication number Publication date
KR101375666B1 (ko) 2014-03-26
KR20080064078A (ko) 2008-07-08
US8175396B2 (en) 2012-05-08
CN101578881B (zh) 2012-06-20
US20120201474A1 (en) 2012-08-09
EP2103143A4 (en) 2010-03-17
KR100823287B1 (ko) 2008-04-21
US20080159638A1 (en) 2008-07-03
CN101578881A (zh) 2009-11-11
EP2103143A1 (en) 2009-09-23
WO2008082253A1 (en) 2008-07-10

Similar Documents

Publication Publication Date Title
KR101375666B1 (ko) 전역 차이 벡터를 이용한 다시점 영상의 부호화, 복호화방법 및 장치
JP5341764B2 (ja) 多視点映像の符号化、復号化方法及び装置
KR101144874B1 (ko) 다시점 영상의 부호화, 복호화 방법 및 장치
KR101199498B1 (ko) 카메라 파라미터를 이용한 다시점 영상의 부호화 장치 및생성 장치, 그 방법과, 이를 수행하기 위한 프로그램이기록된 기록 매체
CN111971960B (zh) 用于基于帧间预测模式处理图像的方法及其装置
JP7354260B2 (ja) Mrl基盤のイントラ予測を実行する映像コーディング方法及び装置
CN112385213B (zh) 基于帧间预测模式处理图像的方法和用于该方法的设备
RU2680204C2 (ru) Способ и устройство для определения информации движения между позициями по времени в подблоке предсказания
CN118200540A (zh) 图像编码/解码方法、数据的发送方法以及存储介质
KR101313223B1 (ko) 카메라 파라미터를 이용한 다시점 영상의 부호화 장치 및 생성 장치, 그 방법과, 이를 수행하기 위한 프로그램이 기록된 기록 매체
KR101357755B1 (ko) 카메라 파라미터를 이용한 다시점 영상의 부호화 장치 및 생성 장치, 그 방법과, 이를 수행하기 위한 프로그램이 기록된 기록 매체
KR101313224B1 (ko) 카메라 파라미터를 이용한 다시점 영상의 부호화 장치 및 생성 장치, 그 방법과, 이를 수행하기 위한 프로그램이 기록된 기록 매체
KR101343576B1 (ko) 카메라 파라미터를 이용한 다시점 영상의 부호화 장치 및 생성 장치, 그 방법과, 이를 수행하기 위한 프로그램이 기록된 기록 매체
CN113273210A (zh) 用于编译关于合并数据的信息的方法和装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120904

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130219