JP2015534416A - ビデオ信号処理方法及び装置 - Google Patents

ビデオ信号処理方法及び装置 Download PDF

Info

Publication number
JP2015534416A
JP2015534416A JP2015541685A JP2015541685A JP2015534416A JP 2015534416 A JP2015534416 A JP 2015534416A JP 2015541685 A JP2015541685 A JP 2015541685A JP 2015541685 A JP2015541685 A JP 2015541685A JP 2015534416 A JP2015534416 A JP 2015534416A
Authority
JP
Japan
Prior art keywords
block
inter
motion vector
view motion
adjacent block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015541685A
Other languages
English (en)
Inventor
チェウォン スン
チェウォン スン
セフン ヨ
セフン ヨ
ムンモ ク
ムンモ ク
チン ホ
チン ホ
テスプ キム
テスプ キム
チウク チョン
チウク チョン
ウンヨン ソン
ウンヨン ソン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of JP2015534416A publication Critical patent/JP2015534416A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】ビデオ信号のコーディング効率を高めるビデオ信号処理方法を提供する。【解決手段】本発明に係るビデオ信号処理方法は、現在ブロックのインタービュー動きベクトルを隣接ブロックのインタービュー動きベクトルを用いて決定することができる。そのために、現在ブロックの隣接ブロックを探索し、インタービュー動きベクトル候補リストを生成し得る。本発明は、様々なインタービュー動きベクトル候補の中からより正確なインタービュー動きベクトル予測を可能にし、これによって、伝送されるレジデュアルデータの量を減らすことによって、コーディング効率を向上させることができる。【選択図】図4

Description

本発明は、ビデオ信号のコーディング方法及び装置に関する。
圧縮符号化とは、デジタル化した情報を通信回線を介して伝送したり、格納媒体に適した形態で格納したりする一連の信号処理技術を意味する。圧縮符号化の対象としては、音声、映像、文字などが存在し、特に、映像を対象として圧縮符号化を行う技術をビデオ映像圧縮と称する。多視点ビデオ映像の一般的な特徴は、空間的冗長性、時間的冗長性及び視点間冗長性を有している点にある。
本発明の目的は、ビデオ信号のコーディング効率を高めることにある。
本発明は、隣接ブロックのインタービュー動きベクトルのうちの少なくとも1つを、既に決定された優先順位に従って探索して、現在ブロックのインタービュー動きベクトルを誘導することを特徴とする。
また、本発明は、隣接ブロックのインタービュー動きベクトルのうちの少なくとも1つを含んだインタービュー動きベクトル候補リストを生成して、現在ブロックのインタービュー動きベクトルを誘導することを特徴とする。
また、本発明は、インタービュー動きベクトル候補に対応するインデックス情報を用いて、現在ブロックのインタービュー動きベクトルを誘導することを特徴とする。
本発明は、インタービュー動きベクトルを用いた視点間インター予測を行うことによって、視点間の相関関係を活用してビデオデータ予測の正確性を高めることができる。
また、隣接ブロックのインタービュー動きベクトルを用いて、正確なインタービュー動きベクトルを誘導することによって視点間インター予測の正確性を高めることができ、伝送されるレジデュアルデータの量を減らすことによってコーディング効率を向上させることができる。
本発明が適用される一実施例であって、デプスコーディングが適用される放送受信機の内部ブロック図である。 本発明が適用される一実施例であって、ビデオデコーダの概略的なブロック図である。 本発明が適用される一実施例であって、現在ブロックの隣接ブロックに対する一例を示す図である。 本発明が適用される一実施例であって、隣接ブロックのコーディングに用いられたインタービュー動きベクトルから、現在ブロックのインタービュー動きベクトルを獲得する第1実施例に対するフローチャートである。 本発明が適用される一実施例であって、インタービュー動きベクトルを用いてコーディングされた空間的隣接ブロックの一例を示す図である。 本発明が適用される一実施例であって、インタービュー動きベクトルを用いてコーディングされた時間的隣接ブロックの一例を示す図である。 本発明が適用される一実施例であって、デコーダにおいて、隣接ブロックのコーディングに用いられたインタービュー動きベクトルから、現在ブロックのインタービュー動きベクトルを獲得する第2実施例に対するフローチャートである。 本発明が適用される一実施例であって、エンコーダでインデックス情報を生成してデコーダに伝送するフローチャートの一例を示す図である。 本発明が適用される一実施例であって、インタービュー動きベクトル候補リストの一例を示す図である。
本発明は、現在ブロックの左側隣接ブロック及び左側下段隣接ブロックのいずれか1つから第1インタービュー動きベクトルを獲得し、現在ブロックの上段隣接ブロック、右側上段隣接ブロック及び左側上段隣接ブロックのいずれか1つから第2インタービュー動きベクトルを獲得し、インタービュー動きベクトルフラグ情報を獲得し、インタービュー動きベクトルフラグ情報に基づいて、第1インタービュー動きベクトル及び第2インタービュー動きベクトルのいずれか1つを現在ブロックのインタービュー動きベクトルとして決定するビデオ信号処理方法及び装置である。
また、左側隣接ブロックがインタービュー動きベクトルを用いてコーディングされたブロックであるか否かを判断し、左側隣接ブロックがインタービュー動きベクトルを用いてコーディングされたブロックではない場合、左側下段隣接ブロックがインタービュー動きベクトルを用いてコーディングされたブロックであるか否かを判断するビデオ信号処理方法及び装置である。
また、上段隣接ブロックがインタービュー動きベクトルを用いてコーディングされたブロックであるか否かを判断し、上段隣接ブロックがインタービュー動きベクトルを用いてコーディングされたブロックではない場合、右側上段隣接ブロックがインタービュー動きベクトルを用いてコーディングされたブロックであるか否かを判断し、右側上段隣接ブロックがインタービュー動きベクトルを用いてコーディングされたブロックではない場合、左側上段隣接ブロックがインタービュー動きベクトルを用いてコーディングされたブロックであるか否かを判断することを特徴とするビデオ信号処理方法及び装置である。
また、現在ブロックの時間的隣接ブロックのうちの少なくとも1つがインタービュー動きベクトルを用いてコーディングされたブロックである場合、時間的隣接ブロックから第3インタービュー動きベクトルを獲得し、第1インタービュー動きベクトル、第2インタービュー動きベクトル及び第3インタービュー動きベクトルのいずれか1つを用いて現在ブロックのインタービュー動きベクトルを獲得するビデオ信号処理方法及び装置である。
また、時間的隣接ブロックは、同一位置のブロック、及び同一位置のブロックに隣接する隣接ブロックを含んだコーディングブロックのうちの少なくとも1つを含む。
また、現在ブロックの空間的隣接ブロックのうち、インタービュー動きベクトルを用いてコーディングされたブロックを探索し、探索された空間的隣接ブロックのインタービュー動きベクトルを用いてインタービュー動きベクトル候補リストを生成し、現在ブロックのインタービュー動きベクトルを獲得するためのインデックス情報を獲得し、インタービュー動きベクトル候補リスト及びインデックス情報を用いて現在ブロックのインタービュー動きベクトルを獲得するビデオ信号処理方法及び装置である。
また、空間的隣接ブロックは、左側隣接ブロック、上段隣接ブロック、右側上段隣接ブロック、左側下段隣接ブロック及び左側上段隣接ブロックを含み、左側隣接ブロック、上段隣接ブロック、右側上段隣接ブロック、左側下段隣接ブロック、左側上段隣接ブロックの順に、インタービュー動きベクトルを用いてコーディングされたブロックを探索するビデオ信号処理方法及び装置である。
また、現在ブロックの時間的隣接ブロックのうち、インタービュー動きベクトルを用いてコーディングされたブロックを探索し、探索された時間的隣接ブロックのインタービュー動きベクトルをインタービュー動きベクトル候補リストに格納するビデオ信号処理方法及び装置である。
また、時間的隣接ブロックは、同一位置のブロック、及び同一位置のブロックに隣接する隣接ブロックを含んだコーディングブロックのうちの少なくとも1つを含むビデオ信号処理方法及び装置である。
多視点ビデオ信号データを圧縮符号化または復号化する技術は、空間的冗長性、時間的冗長性及び視点間に存在する冗長性を考慮している。また、多視点映像の場合、3次元映像を具現するために2つ以上の視点で撮影された多視点テクスチャ映像をコーディングすることができる。また、必要に応じて、多視点テクスチャ映像に対応するデプスデータをさらにコーディングすることもできる。デプスデータをコーディングする際に、空間的冗長性、時間的冗長性または視点間冗長性を考慮して圧縮コーディングできることは勿論である。デプスデータは、カメラと当該画素との間の距離情報を表現したものであり、本明細書内におけるデプスデータは、デプス情報、デプス映像、デプスピクチャ、デプスシーケンス、デプスビットストリームなどのように、デプスに関連する情報として柔軟に解釈することができる。また、本明細書におけるコーディングというのは、エンコーディングとデコーディングの概念を全て含むことができ、本発明の技術的思想及び技術的範囲によって柔軟に解釈することができる。
図1は、本発明が適用される実施例であって、デプスコーディングが適用される放送受信機の内部ブロック図を示す。
本実施例に係る放送受信機は、地上波放送信号を受信して映像を再生するためのものである。放送受信機は、受信されたデプス関連情報を用いて3次元コンテンツを生成することができる。放送受信機は、チューナー100、復調/チャネルデコーダ102、トランスポート逆多重化部104、パケット解除部106、オーディオデコーダ108、ビデオデコーダ110,PSI/PSIP処理部114、3Dレンダリング部116、フォーマッタ120及びディスプレイ部122を含む。
チューナー100は、アンテナ(図示せず)を介して入力される多数の放送信号のうち、ユーザが選局したいずれか1つのチャネルの放送信号を選択して出力する。復調/チャネルデコーダ102は、チューナー100からの放送信号を復調し、復調された信号に対してエラー訂正デコーディングを行ってトランスポートストリーム(TS)を出力する。トランスポート逆多重化部104は、トランスポートストリームを逆多重化して、ビデオPESとオーディオPESを分離し、PSI/PSIP情報を抽出する。パケット解除部106は、ビデオPESとオーディオPESに対してパケットを解除して、ビデオESとオーディオESを復元する。オーディオデコーダ108は、オーディオESをデコーディングしてオーディオビットストリームを出力する。オーディオビットストリームは、デジタル−アナログ変換器(図示せず)によってアナログ音声信号に変換され、増幅器(図示せず)によって増幅された後、スピーカー(図示せず)を介して出力される。ビデオデコーダ110は、ビデオESをデコーディングして元の映像を復元する。オーディオデコーダ108及びビデオデコーダ110のデコーディング過程は、PSI/PSIP処理部114によって確認されるパケットID(PID)をベースとして行われてもよい。デコーディング過程において、ビデオデコーダ110はデプス情報を抽出することができる。また、仮想カメラ視点の映像を生成するために必要な付加情報、例えば、カメラ情報、または相対的に前にある客体によって遮られる領域(Occlusion)を推定するための情報(例えば、客体の輪郭などの幾何学的情報、客体透明度情報及びカラー情報)などを抽出して3Dレンダリング部116に提供することができる。しかし、本発明の他の実施例においては、デプス情報及び/又は付加情報がトランスポート逆多重化部104によって分離されてもよい。
PSI/PSIP処理部114は、トランスポート逆多重化部104からのPSI/PSIP情報を受信し、これをパージングしてメモリ(図示せず)またはレジスターに格納することによって、格納された情報をベースとして放送が再生されるようにする。3Dレンダリング部116は、復元された映像、デプス情報、付加情報及びカメラパラメータを用いて、仮想カメラ位置でのカラー情報、デプス情報などを生成することができる。
また、3Dレンダリング部116は、復元された映像、及び復元された映像に対するデプス情報を用いて3Dワーピング(Warping)を行うことによって、仮想カメラ位置での仮想映像を生成する。本実施例では、3Dレンダリング部116がビデオデコーダ110と別個のブロックとして構成されて説明されているが、これは一実施例に過ぎず、3Dレンダリング部116は、ビデオデコーダ110に含まれて行われてもよい。
フォーマッタ120は、デコーディング過程で復元した映像、すなわち、実際のカメラによって撮影された映像、及び3Dレンダリング部116によって生成された仮想映像を当該受信機でのディスプレイ方式に合わせてフォーマッティングして、ディスプレイ部122を介して3D映像が表示されるようにする。ここで、3Dレンダリング部116による仮想カメラ位置でのデプス情報及び仮想映像の合成、そして、フォーマッタ120による映像フォーマッティングが、ユーザの命令に応答して選択的に行われてもよい。すなわち、視聴者は、リモコン(図示せず)を操作して合成映像が表示されないようにしてもよく、映像合成が行われる時点を指定することもできる。
上記で説明したように、3D映像を生成するためにデプス情報は3Dレンダリング部116で利用されているが、他の実施例として、ビデオデコーダ110で利用されてもよい。以下では、ビデオデコーダ110でデプス情報を利用する様々な実施例を説明する。
図2は、本発明が適用される実施例であって、ビデオデコーダの概略的なブロック図を示す。
図2を参照すると、ビデオデコーダ110は、大きくエントロピーデコーディング部210、逆量子化部220、逆変換部230、デブロッキングフィルター部240、復号ピクチャバッファ部250、インター予測部260及びイントラ予測部270を含むことができる。ここで、実線はカラーピクチャデータの流れを意味し、点線はデプスピクチャデータの流れを意味する。このように、図2では、カラーピクチャデータとデプスピクチャデータを区分して表示したが、これは、別個のビットストリームを意味することができ、または1つのビットストリーム内でデータの流れのみを区分したものと見ることもできる。すなわち、カラーピクチャデータとデプスピクチャデータは、1つのビットストリーム、または別個のビットストリームとして伝送されてもよく、図2では、データの流れを示しているだけで、1つのデコーダ内で全て行われるものに限定されない。
まず、受信されたデプスビットストリーム200を復号するために、NAL単位でパージングを行う。このとき、NALヘッダー領域、NALヘッダーの拡張領域、シーケンスヘッダー領域(例えば、シーケンスパラメータセット)、シーケンスヘッダーの拡張領域、ピクチャヘッダー領域(例えば、ピクチャパラメータセット)、ピクチャヘッダーの拡張領域、スライスヘッダー領域、スライスヘッダーの拡張領域、スライスデータ領域、またはマクロブロック領域には、デプスに関連する種々の属性情報が含まれてもよい。デプスコーディングは、別個のコーデックが利用されてもよいが、既存のコーデックとの互換をなす場合であれば、デプスビットストリームである場合に限って、デプスに関連する種々の属性情報を追加することがより効率的であり得る。例えば、シーケンスヘッダー領域(例えば、シーケンスパラメータセット)またはシーケンスヘッダーの拡張領域でデプスビットストリームであるか否かを識別できるデプス識別情報を追加することができる。デプス識別情報に応じて、入力されたビットストリームがデプスコーディングされたビットストリームである場合に限って、デプスシーケンスに対する属性情報を追加することができる。
パージングされたデプスビットストリーム200は、エントロピーデコーディング部210を介してエントロピーデコーディングされ、各マクロブロックの係数、動きベクトルなどが抽出される。逆量子化部220では、受信された量子化された値に一定の定数を乗じることで変換された係数値を獲得し、逆変換部230では、係数値を逆変換してデプスピクチャのデプス情報を復元する。イントラ予測部270では、現在デプスピクチャの復元されたデプス情報を用いて画面内予測を行う。一方、デブロッキングフィルター部240では、ブロック歪み現象を減少させるために、それぞれのコーディングされたマクロブロックにデブロッキングフィルタリングを適用する。フィルターは、ブロックの縁部を滑らかにすることで、デコーディングされたフレームの画質を向上させる。フィルタリング過程の選択は、境界の強さ(boundary strenth)及び境界の周囲のイメージサンプルの変化(gradient)によって左右される。フィルタリングを経たデプスピクチャは、出力されるか、または参照ピクチャとして利用するために復号ピクチャバッファ部250に格納される。
復号ピクチャバッファ部(Decoded Picture Buffer unit)250では、画面間予測を行うために以前にコーディングされたデプスピクチャを格納したり、開放したりする役割などを行う。このとき、復号ピクチャバッファ部250に格納したり開放したりするために、各ピクチャのframe_numとPOC(Picture Order Count)を用いることになる。したがって、デプスコーディングにおいて、以前にコーディングされたピクチャのうちには現在デプスピクチャと異なる視点にあるデプスピクチャもあるので、このようなピクチャを参照ピクチャとして活用するためには、frame_numとPOCだけでなく、デプスピクチャの視点を識別するデプス視点情報も共に用いることができる。
また、復号ピクチャバッファ部250は、デプスピクチャの視点間予測のための参照ピクチャリストを生成するために、デプス視点に対する情報を用いることができる。例えば、デプス−ビュー参照情報(depth−view reference information)を用いることができる。デプス−ビュー参照情報とは、デプスピクチャの視点間依存関係を示すために用いられる情報のことをいう。例えば、全体デプス視点の数、デプス視点識別番号、デプス−ビュー参照ピクチャの数、デプス−ビュー参照ピクチャのデプス視点識別番号などがあり得る。
復号ピクチャバッファ部250は、より柔軟に画面間予測を実現するために参照ピクチャを管理する。例えば、適応メモリ管理方法(Memory Management Control Operation Method)及び移動ウィンドウ方法(Sliding Window Method)を用いることができる。これは、参照ピクチャと非参照ピクチャのメモリを1つのメモリに統一して管理し、少ないメモリで効率的に管理するためである。デプスコーディングにおいて、デプスピクチャは、復号ピクチャバッファ部内でカラーピクチャなどと区別するために別途の表示でマーキングされてもよく、マーキング過程で各デプスピクチャを識別させるための情報が用いられてもよい。このような過程を通じて管理される参照ピクチャは、インター予測部260においてデプスコーディングのために用いられてもよい。
図2を参照すると、インター予測部260は、動き補償部261、仮想視点合成部262及びデプスピクチャ生成部263を含むことができる。
動き補償部261では、エントロピーデコーディング部210から伝送された情報を用いて現在ブロックの動きを補償する。ビデオ信号から現在ブロックに隣接するブロックの動きベクトルを抽出し、現在ブロックの動きベクトル予測値を獲得する。動きベクトル予測値及びビデオ信号から抽出される差分ベクトルを用いて、現在ブロックの動きを補償する。また、このような動き補償は、1つの参照ピクチャを用いて行われてもよく、または複数のピクチャを用いて行われてもよい。デプスコーディングにおいて、現在デプスピクチャが異なる視点にあるデプスピクチャを参照することになる場合、復号ピクチャバッファ部250に格納されているデプスピクチャの視点間予測のための参照ピクチャリストに対する情報を用いて、動き補償を行うことができる。また、そのデプスピクチャの視点を識別するデプス視点情報を用いて、動き補償を行ってもよい。
また、仮想視点合成部(Virtual View Synthesizing Unit)262は、現在カラーピクチャの視点に隣接する視点のカラーピクチャを用いて仮想視点のカラーピクチャを合成する。互いに隣接する視点のカラーピクチャを用いるために又は所望の特定の視点のカラーピクチャを用いるために、カラーピクチャの視点を示す視点識別情報を用いることができる。仮想視点のカラーピクチャを生成する場合、仮想視点のカラーピクチャを生成するか否かを指示するフラグ情報を定義することができる。フラグ情報が、仮想視点のカラーピクチャを生成することを指示する場合、視点識別情報を用いて仮想視点のカラーピクチャを生成することができる。仮想視点合成部262を介して獲得された仮想視点のカラーピクチャはレファレンスピクチャとして用いられてもよく、この場合、仮想視点のカラーピクチャにも視点識別情報を割り当てることができることは勿論である。
他の実施例として、仮想視点合成部262は、現在デプスピクチャの視点に隣接する視点にあるデプスピクチャを用いて、仮想視点のデプスピクチャを合成することができる。同様に、デプスピクチャの視点を示すためにデプス視点識別情報を用いることができる。ここで、デプス視点識別情報は、対応するカラーピクチャの視点識別情報から誘導されてもよい。例えば、対応するカラーピクチャは、現在デプスピクチャと同一のピクチャ出力順序情報及び同一の視点識別情報を有することができる。
デプスピクチャ生成部263は、デプスコーディング情報を用いて現在デプスピクチャを生成することができる。ここで、デプスコーディング情報は、カメラと客体との間の距離を示す距離変数(例えば、カメラ座標系上のZ座標値など)、デプスコーディングのためのマクロブロックタイプ情報、デプスピクチャ内の境界線識別情報、RBSP内のデータがデプスコーディングされたデータを含んでいるか否かを示す情報、またはデータタイプがデプスピクチャデータであるか、カラーピクチャデータであるか、またはパララックスデータであるかを示す情報などを含むことができる。また、デプスコーディング情報を用いて現在デプスピクチャを予測することもできる。すなわち、現在デプスピクチャに隣接するデプスピクチャを用いたインター予測が可能であり、現在デプスピクチャ内のデコーディングされたデプス情報を用いたイントラ予測が可能である。
以下では、図3を参照して、本発明で示す現在ブロックの隣接ブロックについて説明する。
図3は、本発明が適用される一実施例であって、現在ブロックの隣接ブロックに対する一例を示すものである。
隣接ブロックは、現在ブロック300に隣接するブロックであって、空間的隣接ブロックと時間的隣接ブロックとに区分することができる。
空間的隣接ブロックは、現在ブロック300の周囲に位置した、現在ピクチャ内のブロックであって、図3に示すように、左側下段隣接ブロック310、左側隣接ブロック320、右側上段隣接ブロック330、上段隣接ブロック340、左側上段隣接ブロック350を含むことができる。
時間的隣接ブロックは、同一位置のブロック360内に含まれるか、または同一位置のブロック360の周囲に位置したブロックであって、同一位置の中心ブロック370と、同一位置のブロックに対する右側下段隣接ブロック380とを含むことができる。ここで、同一位置のブロック360は、現在ブロック300の中心ピクセルの位置(Xc,Yc)に対応する参照ピクチャのピクセル位置(Xr,Yr)を含むブロックとして定義することができる。または、現在ブロック300の左側上段ピクセルの位置に対応する参照ピクチャ内での位置を含むブロックとして定義してもよい。そして、参照ピクチャは、現在ブロック300を含む現在ピクチャと同一視点及び異なる時間帯に位置したピクチャを意味することができる。同一位置の中心ブロック370は、同一位置のブロック360の中心ピクセルを含むブロックである。そして、同一位置のブロックに対する右側下段隣接ブロック380は、同一位置のブロック360の右側下段ピクセルを含むブロックである。
本発明では、上述した隣接ブロックのコーディングに用いられたインタービュー動きベクトルを用いて現在ブロックのインタービュー動きベクトルを獲得する方法について提案する。以下では、現在ブロックのインタービュー動きベクトルを獲得する第1実施例について説明する。
図4は、本発明が適用される一実施例であって、隣接ブロックのコーディングに用いられたインタービュー動きベクトルから現在ブロックのインタービュー動きベクトルを獲得する第1実施例に対するフローチャートを示すものである。
図4を参照すると、現在ブロックの左側隣接ブロック、左側下段隣接ブロックがインタービュー動きベクトルを用いてコーディングされたブロックである場合、左側隣接ブロック、左側下段隣接ブロックのうちの1つから第1インタービュー動きベクトルを獲得することができる(S400)。既に決定された順序に従って、左側隣接ブロック、左側下段隣接ブロックがインタービュー動きベクトルを用いてコーディングされたブロックであるか否かを探索し、インタービュー動きベクトルを用いてコーディングされたブロックから第1インタービュー動きベクトルを獲得することができる。ここで、インタービュー動きベクトルを用いてコーディングされたブロックは、インタービュー予測ブロック及び参照ビュー時間的予測ブロックを意味することができる。インタービュー予測ブロックは、インタービュー動きベクトルを用いて獲得された、異なる視点の参照ブロックを用いてコーディングされたブロックを示す。そして、参照ビュー時間的予測ブロックは、インタービュー動きベクトルを用いて獲得された時間的動きベクトルを用いてコーディングされたブロックを示す。インタービュー予測ブロック及び参照ビュー時間的予測ブロックについての例は、図5及び図6を参照して詳細に説明する。
例えば、左側隣接ブロックがインタービュー動きベクトルを用いてコーディングされたブロックである場合、左側隣接ブロックのコーディングに用いられたインタービュー動きベクトルを第1インタービュー動きベクトルとして格納することができる。もし、左側隣接ブロックがインタービュー動きベクトルを用いてコーディングされたブロックではない場合、左側下段隣接ブロックがインタービュー動きベクトルを用いてコーディングされたブロックであるか否かを探索することができる。そして、左側下段隣接ブロックがインタービュー動きベクトルを用いてコーディングされたブロックである場合、左側下段隣接ブロックのコーディングに用いられたインタービュー動きベクトルを第1インタービュー動きベクトルとして格納することができる。
現在ブロックの上段隣接ブロック、右側上段隣接ブロック、左側上段隣接ブロックがインタービュー動きベクトルを用いてコーディングされたブロックである場合、上段隣接ブロック、右側上段隣接ブロック、左側上段隣接ブロックのうちの1つから第2インタービュー動きベクトルを獲得することができる(S410)。既に決定された順序に従って、上段隣接ブロック、右側上段隣接ブロック、左側上段隣接ブロックがインタービュー動きベクトルを用いてコーディングされたブロックであるか否かを探索し、インタービュー動きベクトルを用いてコーディングされたブロックから第2インタービュー動きベクトルを獲得することができる。例えば、上段隣接ブロックがインタービュー動きベクトルを用いてコーディングされたブロックである場合、上段隣接ブロックのコーディングに用いられたインタービュー動きベクトルを第2インタービュー動きベクトルとして格納することができる。もし、上段隣接ブロックがインタービュー動きベクトルを用いてコーディングされたブロックではない場合、右側上段隣接ブロックがインタービュー動きベクトルを用いてコーディングされたブロックであるか否かを探索することができる。そして、右側上段隣接ブロックがインタービュー動きベクトルを用いてコーディングされたブロックである場合、右側上段隣接ブロックのコーディングに用いられたインタービュー動きベクトルを第2インタービュー動きベクトルとして格納することができる。もし、右側上段隣接ブロックがインタービュー動きベクトルを用いてコーディングされたブロックではない場合、左側上段隣接ブロックがインタービュー動きベクトルを用いてコーディングされたブロックであるか否かを探索することができる。そして、左側上段隣接ブロックがインタービュー動きベクトルを用いてコーディングされたブロックである場合、左側上段隣接ブロックのコーディングに用いられたインタービュー動きベクトルを第2インタービュー動きベクトルとして格納することができる。
インタービュー動きベクトルフラグ情報を獲得することができる(S420)。インタービュー動きベクトルフラグ情報は、第1インタービュー動きベクトル及び第2インタービュー動きベクトルの中で現在ブロックの最適のインタービュー動きベクトルを決定するための情報を含むことができる。
インタービュー動きベクトルフラグ情報を用いて、第1インタービュー動きベクトル及び第2インタービュー動きベクトルの中で現在ブロックの最適のインタービュー動きベクトルを決定することができる(S430)。
そして、決定された現在ブロックのインタービュー動きベクトルを用いて、現在ブロックをデコーディングすることができる。
以下では、図5及び図6を参照して、インタービュー動きベクトルを用いてコーディングされた隣接ブロックの例を説明する。
図5は、本発明が適用される一実施例であって、インタービュー動きベクトルを用いてコーディングされた空間的隣接ブロックの一例を示すものである。
図5を参照すると、現在ブロックの左側隣接ブロック500は、インタービュー予測ブロックであって、インタービュー予測(または、視点間インター予測)を通じてコーディングされたブロックである。ここで、インタービュー予測とは、現在ブロックの予測値を獲得するために、現在ブロックと異なる視点に位置した、参照ピクチャ内の参照ブロックのピクセル値を用いるインター予測である。そして、左側隣接ブロックの参照ブロック510は、左側隣接ブロックのインタービュー動きベクトル520を用いて特定することができる。左側隣接ブロックのインタービュー動きベクトル520は、左側隣接ブロック500の左側上段ピクセルにおいて、左側隣接ブロックに対する参照ブロック510の左側上段ピクセルを指すベクトルである。
また、現在ブロックの上段隣接ブロック530は、参照ビュー時間的インター予測ブロックであって、参照ビュー時間的インター予測を通じてコーディングされたブロックである。ここで、参照ビュー時間的インター予測とは、時間的インター予測であって、インタービュー動きベクトルを用いて獲得された時間的動きベクトルを用いたインター予測である。上段隣接ブロックの対応ブロック540は、現在ブロックと異なる視点に位置し、時間的インター予測を用いてコーディングされたブロックである。上段隣接ブロック530は、対応ブロックの時間的動きベクトル550を用いて上段隣接ブロックの参照ブロック560を獲得することができる。上段隣接ブロック530の左側上段ピクセルにおいて、対応ブロック540の左側上段ピクセルを指すベクトルが、上段隣接ブロックのインタービュー動きベクトル570である。
図6は、本発明が適用される一実施例であって、インタービュー動きベクトルを用いてコーディングされた時間的隣接ブロックの一例を示すものである。
図6を参照すると、参照ピクチャ内の、現在ブロックと同一位置のブロックに対する右側下段隣接ブロック(col−RB)600は、インタービュー予測ブロックであって、インタービュー予測を通じてコーディングされたブロックである。右側下段隣接ブロックの参照ブロック610は、右側下段隣接ブロックのインタービュー動きベクトル620を用いて特定することができる。右側下段隣接ブロックのインタービュー動きベクトル620は、右側下段隣接ブロック600の左側上段ピクセルにおいて、右側下段隣接ブロックの参照ブロック610の左側上段ピクセルを指すベクトルである。
また、同一位置の中心ブロック(col−CTR)630は、参照ビュー時間的インター予測ブロックであって、参照ビュー時間的インター予測を通じてコーディングされたブロックである。同一位置の中心ブロックの対応ブロック640は、現在ブロックと異なる視点に位置し、時間的インター予測を用いてコーディングされたブロックである。同一位置の中心ブロック630は、対応ブロックの時間的動きベクトル650を用いて、同一位置の中心ブロックの参照ブロック660を獲得することができる。同一位置の中心ブロック630の左側上段ピクセルにおいて、対応ブロック640の左側上段ピクセルを指すベクトルが、同一位置の中心ブロックのインタービュー動きベクトル670である。
以下では、現在ブロックのインタービュー動きベクトルを獲得する第2実施例について、図7及び図8を参照して説明する。
図7は、本発明が適用される一実施例であって、デコーダにおいて、隣接ブロックのコーディングに用いられたインタービュー動きベクトルから現在ブロックのインタービュー動きベクトルを獲得する第2実施例に対するフローチャートである。
現在ブロックの隣接ブロックを順次探索し、探索された隣接ブロックからインタービュー動きベクトルを獲得する場合、獲得されたインタービュー動きベクトルを順次格納してインタービュー動きベクトル候補リストを生成することができる(S700)。ここで、インタービュー動きベクトル候補リストは、隣接ブロックのコーディングに用いられたインタービュー動きベクトルを格納し得るリストである。インタービュー動きベクトル候補リストに格納されたインタービュー動きベクトルは、現在ブロックのインタービュー動きベクトルとなるための候補となり得る。インタービュー動きベクトル候補リストについての一例は、図9を参照して説明する。
本ステップでは、隣接ブロックを探索する優先順位は様々に構成することができる。例えば、時間的隣接ブロックを探索した後に空間的隣接ブロックを探索するか、または、空間的隣接ブロックを探索した後に時間的隣接ブロックを探索するか、または、空間的隣接ブロック又は時間的隣接ブロックのみを探索してもよい。
時間的隣接ブロック内では、同一位置の中心ブロックを探索した後に同一位置のブロックに対する右側下段隣接ブロックを探索するか、または、同一位置のブロックに対する右側下段隣接ブロックを探索した後に同一位置の中心ブロックを探索するか、または、同一位置の中心ブロック又は同一位置のブロックに対する右側下段隣接ブロックのうちの1つのみを探索してもよい。
空間的隣接ブロック内では、左側隣接ブロック、上段隣接ブロック、右側上段隣接ブロック、左側下段隣接ブロック、左側上段隣接ブロックの順に探索してもよい。または、空間的隣接ブロックの一部のみを探索してもよい。例えば、左側隣接ブロックと上段隣接ブロックのみを探索してもよい。
隣接ブロックを探索する優先順位の例は様々に構成することができ、前記で言及した例のみに限定されない。
現在ブロックのインタービュー動きベクトルの獲得のためのインデックス情報を獲得することができる(S710)。ここで、インデックス情報は、現在ブロックのインタービュー動きベクトルを獲得するために用いられるインタービュー動きベクトル候補リスト内のインタービュー動きベクトルを示す情報であってもよい。インデックス情報は、エンコーダから伝送されてビットストリームから獲得されてもよい。エンコーダでインデックス情報を生成してデコーダに伝送する一例は、図8で詳細に後述する。
また、デコーダは、動き補償部でインタービュー動きベクトル候補リスト内のインタービュー動きベクトル候補のうちの最適のインタービュー動きベクトルを獲得することもできる。
インタービュー動きベクトル候補リスト及びインデックス情報を用いて、現在ブロックのインタービュー動きベクトルを決定することができる(S720)。インタービュー動きベクトル候補リスト内のインデックス情報が示すインタービュー動きベクトルを、現在ブロックのインタービュー動きベクトルとして決定することができる。または、インデックス情報が示す、隣接ブロックのコーディングに用いられたインタービュー動きベクトルを、現在ブロックのインタービュー動きベクトルとして決定してもよい。
以下では、図8を参照して、エンコーダでインデックス情報を生成し、伝送するフローチャートについて説明する。
図8は、本発明が適用される一実施例であって、エンコーダでインデックス情報を生成してデコーダに伝送するフローチャートの一例を示すものである。
現在ブロックの隣接ブロックを順次探索し、隣接ブロックからインタービュー動きベクトルを獲得する場合、獲得されたインタービュー動きベクトルを順次格納してインタービュー動きベクトル候補リストを生成することができる(S800)。ステップS700と同様の方法でインタービュー動きベクトル候補リストを生成することができる。
インタービュー動きベクトル候補の中から現在ブロックのインタービュー動きベクトルを獲得するために用いられるインタービュー動きベクトルに対応するインデックス情報を生成することができる(S810)。エンコーダは、インタービュー動きベクトル候補リスト内のインタービュー動きベクトル候補のうち、現在ブロックのコーディングのための最適のインタービュー動きベクトルを決定することができる。例えば、インタービュー動きベクトル候補リスト内のそれぞれのインタービュー動きベクトル候補を用いて現在ブロックの予測値を獲得した後、原本映像のピクセル値と現在ブロックの予測値とを比較して、差が最も小さいときのインタービュー動きベクトル候補を現在ブロックのインタービュー動きベクトルとして決定することができる。
そして、エンコーダは、生成されたインデックス情報をビットストリームを介してデコーダに伝送することができる(S820)。
以下では、インタービュー動きベクトル候補リストの一例を、図9を参照して説明する。
図9は、本発明が適用される一実施例であって、インタービュー動きベクトル候補リストの一例を示すものである。
上述したように、インタービュー動きベクトル候補リストは、隣接ブロックのコーディングに用いられたインタービュー動きベクトルを格納できるリストである。インタービュー動きベクトル候補リストに格納されたインタービュー動きベクトルは、現在ブロックのインタービュー動きベクトルとなるための候補となり得る。インタービュー動きベクトルは、インタービュー動きベクトル候補リストに水平成分のみが格納されるか、または、水平成分、垂直成分が共に格納されてもよい。または、インタービュー動きベクトルが獲得される隣接ブロックに関する情報が、インタービュー動きベクトル候補リストに格納されてもよい。
例えば、現在ブロックの空間的隣接ブロックを探索し、左側隣接ブロック、上段隣接ブロック、左側上段隣接ブロックの順に、インタービュー動きベクトルを用いてコーディングされたブロックが探索された場合、図9に示すように、インタービュー動きベクトル候補リストにおいて、インデックス情報0は左側隣接ブロックを示し、インデックス情報1は上段隣接ブロックを示し、インデックス情報2は左側上段隣接ブロックを示すことができる。
エンコーダは、上述した方法でインタービュー動きベクトル候補リストを生成し、格納されたインタービュー動きベクトルから最適のインタービュー動きベクトルを探索することができる。そして、最適のインタービュー動きベクトルを用いてコーディングされた隣接ブロックに対応するインデックス情報をデコーダに伝送することができる。
デコーダは、エンコーダと同様に、上述した方法でインタービュー動きベクトル候補リストを生成することができる。そして、エンコーダからインデックス情報を獲得するか、またはインタービュー動きベクトル候補リストのインタービュー動きベクトルから最適のインタービュー動きベクトルを獲得してもよい。
以上で説明したように、本発明が適用されるデコーディング/エンコーディング装置は、DMB(Digital Multimedia Broadcasting)のようなマルチメディア放送送/受信装置に備えられ、ビデオ信号及びデータ信号などをデコーディングするのに利用することができる。また、マルチメディア放送送/受信装置は移動通信端末機を含むことができる。
また、本発明が適用されるデコーディング/エンコーディング方法は、コンピュータで実行されるためのプログラムとして製作され、コンピュータ可読記録媒体に格納することができ、本発明に係るデータ構造を有するマルチメディアデータも、コンピュータ可読記録媒体に格納することができる。コンピュータ可読記録媒体は、コンピュータシステムにより読み取られるデータが格納される全ての種類の格納装置を含む。コンピュータ可読記録媒体の例としては、ROM、RAM、CD−ROM、磁気テープ、フロッピーディスク、光データ格納装置などがあり、なお、搬送波(例えば、インターネットを介した伝送)の形態で具現されるものも含む。また、エンコーティング方法により生成されたビットストリームは、コンピュータ可読記録媒体に格納されるか、または有/無線通信網を用いて伝送されてもよい。
本発明は、ビデオ信号をコーディングするのに利用することができる。

Claims (18)

  1. 現在ブロックの左側隣接ブロック及び左側下段隣接ブロックのいずれか1つから前記第1インタービュー動きベクトルを獲得するステップと、
    前記現在ブロックの上段隣接ブロック、右側上段隣接ブロック及び左側上段隣接ブロックのいずれか1つから前記第2インタービュー動きベクトルを獲得するステップと、
    インタービュー動きベクトルフラグ情報を獲得するステップと、
    前記インタービュー動きベクトルフラグ情報に基づいて、前記第1インタービュー動きベクトル及び前記第2インタービュー動きベクトルのいずれか1つを前記現在ブロックのインタービュー動きベクトルとして決定するステップと、を含む、ビデオ信号処理方法。
  2. 前記左側隣接ブロックがインタービュー動きベクトルを用いてコーディングされたブロックであるか否かを判断するステップと、
    前記左側隣接ブロックがインタービュー動きベクトルを用いてコーディングされたブロックではない場合、前記左側下段隣接ブロックがインタービュー動きベクトルを用いてコーディングされたブロックであるか否かを判断するステップと、をさらに含む、請求項1に記載のビデオ信号処理方法。
  3. 前記上段隣接ブロックがインタービュー動きベクトルを用いてコーディングされたブロックであるか否かを判断するステップと、
    前記上段隣接ブロックがインタービュー動きベクトルを用いてコーディングされたブロックではない場合、前記右側上段隣接ブロックがインタービュー動きベクトルを用いてコーディングされたブロックであるか否かを判断するステップと、
    前記右側上段隣接ブロックがインタービュー動きベクトルを用いてコーディングされたブロックではない場合、前記左側上段隣接ブロックがインタービュー動きベクトルを用いてコーディングされたブロックであるか否かを判断するステップと、をさらに含む、請求項1に記載のビデオ信号処理方法。
  4. 前記現在ブロックの時間的隣接ブロックのうちの少なくとも1つがインタービュー動きベクトルを用いてコーディングされたブロックである場合、時間的隣接ブロックから第3インタービュー動きベクトルを獲得するステップをさらに含み、
    前記現在ブロックのインタービュー動きベクトルを決定するステップは、前記第1インタービュー動きベクトル、前記第2インタービュー動きベクトル及び前記第3インタービュー動きベクトルのいずれか1つを用いて前記現在ブロックのインタービュー動きベクトルを獲得する、請求項1に記載のビデオ信号処理方法。
  5. 前記時間的隣接ブロックは、同一位置のブロック、及び同一位置のブロックに隣接する隣接ブロックを含んだコーディングブロックのうちの少なくとも1つを含む、請求項4に記載のビデオ信号処理方法。
  6. 現在ブロックの空間的隣接ブロックのうち、インタービュー動きベクトルを用いてコーディングされたブロックを探索するステップと、
    前記探索された空間的隣接ブロックの前記インタービュー動きベクトルを用いてインタービュー動きベクトル候補リストを生成するステップと、
    前記現在ブロックのインタービュー動きベクトルを獲得するためのインデックス情報を獲得するステップと、
    前記インタービュー動きベクトル候補リスト及び前記インデックス情報を用いて、前記現在ブロックのインタービュー動きベクトルを獲得するステップと、を含む、ビデオ信号処理方法。
  7. 前記空間的隣接ブロックは、左側隣接ブロック、上段隣接ブロック、右側上段隣接ブロック、左側下段隣接ブロック及び左側上段隣接ブロックを含み、
    前記インタービュー動きベクトルを用いてコーディングされたブロックであるか否かを探索するステップは、前記左側隣接ブロック、前記上段隣接ブロック、前記右側上段隣接ブロック、前記左側下段隣接ブロック、前記左側上段隣接ブロックの順に、前記インタービュー動きベクトルを用いてコーディングされたブロックを探索する、請求項6に記載のビデオ信号処理方法。
  8. 前記現在ブロックの時間的隣接ブロックのうち、インタービュー動きベクトルを用いてコーディングされたブロックを探索するステップと、
    前記探索された時間的隣接ブロックの前記インタービュー動きベクトルを前記インタービュー動きベクトル候補リストに格納するステップと、をさらに含む、請求項6に記載のビデオ信号処理方法。
  9. 前記時間的隣接ブロックは、同一位置のブロック、及び同一位置のブロックに隣接する隣接ブロックを含んだコーディングブロックのうちの少なくとも1つを含む、請求項8に記載のビデオ信号処理方法。
  10. 現在ブロックの左側隣接ブロック及び左側下段隣接ブロックのいずれか1つから前記第1インタービュー動きベクトルを獲得し、前記現在ブロックの上段隣接ブロック、右側上段隣接ブロック及び左側上段隣接ブロックのいずれか1つから前記第2インタービュー動きベクトルを獲得し、
    インタービュー動きベクトルフラグ情報を獲得し、前記インタービュー動きベクトルフラグ情報に基づいて、前記第1インタービュー動きベクトル及び前記第2インタービュー動きベクトルのいずれか1つを前記現在ブロックのインタービュー動きベクトルとして決定する、インター予測部を含む、ビデオデコーディング装置。
  11. 前記インター予測部は、前記左側隣接ブロックがインタービュー動きベクトルを用いてコーディングされたブロックであるか否かを判断し、前記左側隣接ブロックがインタービュー動きベクトルを用いてコーディングされたブロックではない場合、前記左側下段隣接ブロックがインタービュー動きベクトルを用いてコーディングされたブロックであるか否かを判断する、請求項10に記載のビデオデコーディング装置。
  12. 前記インター予測部は、前記上段隣接ブロックがインタービュー動きベクトルを用いてコーディングされたブロックであるか否かを判断し、前記上段隣接ブロックがインタービュー動きベクトルを用いてコーディングされたブロックではない場合、前記右側上段隣接ブロックがインタービュー動きベクトルを用いてコーディングされたブロックであるか否かを判断し、前記右側上段隣接ブロックがインタービュー動きベクトルを用いてコーディングされたブロックではない場合、前記左側上段隣接ブロックがインタービュー動きベクトルを用いてコーディングされたブロックであるか否かを判断する、請求項10に記載のビデオデコーディング装置。
  13. 前記インター予測部は、前記現在ブロックの時間的隣接ブロックのうちの少なくとも1つがインタービュー動きベクトルを用いてコーディングされたブロックである場合、時間的隣接ブロックから第3インタービュー動きベクトルを獲得し、前記第1インタービュー動きベクトル、前記第2インタービュー動きベクトル及び前記第3インタービュー動きベクトルのいずれか1つを用いて、前記現在ブロックのインタービュー動きベクトルを獲得する、請求項10に記載のビデオデコーディング装置。
  14. 前記時間的隣接ブロックは、同一位置のブロック、及び同一位置のブロックに隣接する隣接ブロックを含んだコーディングブロックのうちの少なくとも1つを含む、請求項13に記載のビデオデコーディング装置。
  15. 現在ブロックの空間的隣接ブロックのうち、インタービュー動きベクトルを用いてコーディングされたブロックを探索し、前記探索された空間的隣接ブロックの前記インタービュー動きベクトルを用いてインタービュー動きベクトル候補リストを生成し、前記現在ブロックのインタービュー動きベクトルを獲得するためのインデックス情報を獲得し、前記インタービュー動きベクトル候補リスト及び前記インデックス情報を用いて前記現在ブロックのインタービュー動きベクトルを獲得する、インター予測部を含む、ビデオデコーディング装置。
  16. 前記空間的隣接ブロックは、左側隣接ブロック、上段隣接ブロック、右側上段隣接ブロック、左側下段隣接ブロック及び左側上段隣接ブロックを含み、
    前記インター予測部は、前記左側隣接ブロック、前記上段隣接ブロック、前記右側上段隣接ブロック、前記左側下段隣接ブロック、前記左側上段隣接ブロックの順に、前記インタービュー動きベクトルを用いてコーディングされたブロックを探索する、請求項15に記載のビデオデコーディング装置。
  17. 前記インター予測部は、前記現在ブロックの時間的隣接ブロックのうち、インタービュー動きベクトルを用いてコーディングされたブロックを探索し、前記探索された時間的隣接ブロックの前記インタービュー動きベクトルを前記インタービュー動きベクトル候補リストに格納する、請求項15に記載のビデオデコーディング装置。
  18. 前記時間的隣接ブロックは、同一位置のブロック、及び同一位置のブロックに隣接する隣接ブロックを含んだコーディングブロックのうちの少なくとも1つを含む、請求項17に記載のビデオデコーディング装置。
JP2015541685A 2012-11-07 2013-11-07 ビデオ信号処理方法及び装置 Pending JP2015534416A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261723332P 2012-11-07 2012-11-07
US61/723,332 2012-11-07
PCT/KR2013/010056 WO2014073873A1 (ko) 2012-11-07 2013-11-07 비디오 신호 처리 방법 및 장치

Publications (1)

Publication Number Publication Date
JP2015534416A true JP2015534416A (ja) 2015-11-26

Family

ID=50684906

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015541685A Pending JP2015534416A (ja) 2012-11-07 2013-11-07 ビデオ信号処理方法及び装置

Country Status (6)

Country Link
US (1) US20150304676A1 (ja)
EP (1) EP2919464A4 (ja)
JP (1) JP2015534416A (ja)
KR (1) KR101753592B1 (ja)
CN (1) CN104871541A (ja)
WO (1) WO2014073873A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10123036B2 (en) * 2014-06-27 2018-11-06 Microsoft Technology Licensing, Llc Motion vector selection for video encoding
CN105468360B (zh) * 2015-11-17 2018-09-21 南京邮电大学 一种面向第三方音频播放器的数据截取方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007525100A (ja) * 2003-06-30 2007-08-30 株式会社エヌ・ティ・ティ・ドコモ モーション情報を符号化するための方法及び装置
JP2009543508A (ja) * 2006-07-12 2009-12-03 エルジー エレクトロニクス インコーポレイティド 信号処理方法及び装置
JP2010531622A (ja) * 2007-06-28 2010-09-24 トムソン ライセンシング 多視点符号化映像のシングルループ復号化を支援するエンコーダ及びデコーダでの方法及び装置
JP2010536242A (ja) * 2007-08-06 2010-11-25 トムソン ライセンシング 複数のインタービュー参照ピクチャを用いたモーションスキップモードのための方法及び装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1258925C (zh) * 2003-06-27 2006-06-07 中国科学院计算技术研究所 多视角视频编解码预测补偿方法及装置
US7430335B2 (en) * 2003-08-13 2008-09-30 Apple Inc Pre-processing method and system for data reduction of video sequences and bit rate reduction of compressed video sequences using spatial filtering
KR20080007069A (ko) * 2006-07-14 2008-01-17 엘지전자 주식회사 비디오 신호 디코딩 방법 및 장치
JP5156088B2 (ja) * 2007-03-23 2013-03-06 エルジー エレクトロニクス インコーポレイティド ビデオ信号のデコーディング/エンコーディング方法及び装置
CN101690220B (zh) * 2007-04-25 2013-09-25 Lg电子株式会社 用于解码/编码视频信号的方法和装置
US9973739B2 (en) * 2008-10-17 2018-05-15 Nokia Technologies Oy Sharing of motion vector in 3D video coding
US8320455B2 (en) * 2009-03-05 2012-11-27 Qualcomm Incorporated System and method to process motion vectors of video data
US8855205B2 (en) * 2010-05-26 2014-10-07 Newratek Inc. Method of predicting motion vectors in video codec in which multiple references are allowed, and motion vector encoding/decoding apparatus using the same
US20130188719A1 (en) * 2012-01-20 2013-07-25 Qualcomm Incorporated Motion prediction in svc using motion vector for intra-coded block

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007525100A (ja) * 2003-06-30 2007-08-30 株式会社エヌ・ティ・ティ・ドコモ モーション情報を符号化するための方法及び装置
JP2009543508A (ja) * 2006-07-12 2009-12-03 エルジー エレクトロニクス インコーポレイティド 信号処理方法及び装置
JP2010531622A (ja) * 2007-06-28 2010-09-24 トムソン ライセンシング 多視点符号化映像のシングルループ復号化を支援するエンコーダ及びデコーダでの方法及び装置
JP2010536242A (ja) * 2007-08-06 2010-11-25 トムソン ライセンシング 複数のインタービュー参照ピクチャを用いたモーションスキップモードのための方法及び装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
BENJAMIN BROSS ET AL.: "WD5: Working Draft 5 of High-Efficiency Video Coding", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-G1103_d4, JPN6017030992, January 2012 (2012-01-01), pages 39 - 40, ISSN: 0003757077 *
GERHARD TECH ET AL.: "3D-HEVC Test Model 1", JOINT COLLABORATIVE TEAM ON 3D VIDEO CODING EXTENSION DEVELOPMENT OF ITU-T SG 16 WP 3 AND ISO/IEC JT, vol. JCT3V-A1005_d0, JPN6017030988, September 2012 (2012-09-01), pages 1 - 21, ISSN: 0003757075 *
JAEWON SUNG, MOONMO KOO AND SEHOON YEA: "3D-CE5.h: Simplification of disparity vector derivation for HEVC-based 3D video coding", JOINT COLLABORATIVE TEAM ON 3D VIDEO CODING EXTENSION DEVELOPMENT OF ITU-T SG 16 WP 3 AND ISO/IEC JT, vol. JCT2-A0126, JPN6017030990, July 2012 (2012-07-01), pages 1 - 4, ISSN: 0003757076 *
KAI ZHANG ET AL.: "3D-CE5.h related: Improvement on MV candidates for 3DVC", JOINT COLLABORATIVE TEAM ON 3D VIDEO CODING EXTENSION DEVELOPMENT OF ITU-T SG 16 WP 3 AND ISO/IEC JT, vol. JCT3V-B0089r1, JPN6017030986, October 2012 (2012-10-01), pages 1 - 12, ISSN: 0003757074 *

Also Published As

Publication number Publication date
CN104871541A (zh) 2015-08-26
EP2919464A4 (en) 2016-05-11
KR101753592B1 (ko) 2017-07-19
KR20150087257A (ko) 2015-07-29
EP2919464A1 (en) 2015-09-16
WO2014073873A1 (ko) 2014-05-15
US20150304676A1 (en) 2015-10-22

Similar Documents

Publication Publication Date Title
JP6291032B2 (ja) ビデオ信号処理方法及び装置
KR20160034259A (ko) 비디오 신호 처리 방법 및 장치
JP6594773B2 (ja) ビデオ信号処理方法及び装置
JP6114404B2 (ja) ビデオ信号処理方法及び装置
KR101770211B1 (ko) 비디오 신호 처리 방법 및 장치
US9955166B2 (en) Method and device for processing video signal
KR101753592B1 (ko) 비디오 신호 처리 방법 및 장치
US9781442B2 (en) Method and apparatus for processing video signal
US9936219B2 (en) Method and apparatus for processing video signals
KR101783617B1 (ko) 비디오 신호 처리 방법 및 장치
JP6196372B2 (ja) ビデオ信号処理方法及び装置
JP2016528808A (ja) ビデオ信号処理方法およびビデオ信号処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170822

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180313