JP2010517409A - ビデオ信号処理方法及び装置 - Google Patents

ビデオ信号処理方法及び装置 Download PDF

Info

Publication number
JP2010517409A
JP2010517409A JP2009547172A JP2009547172A JP2010517409A JP 2010517409 A JP2010517409 A JP 2010517409A JP 2009547172 A JP2009547172 A JP 2009547172A JP 2009547172 A JP2009547172 A JP 2009547172A JP 2010517409 A JP2010517409 A JP 2010517409A
Authority
JP
Japan
Prior art keywords
block
viewpoint
motion information
motion
reference list
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009547172A
Other languages
English (en)
Other versions
JP5249242B2 (ja
JP2010517409A5 (ja
Inventor
ヒュ ヤン,ジョン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of JP2010517409A publication Critical patent/JP2010517409A/ja
Publication of JP2010517409A5 publication Critical patent/JP2010517409A5/ja
Application granted granted Critical
Publication of JP5249242B2 publication Critical patent/JP5249242B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Abstract

視点間ピクチャの冗長性が除去されたビデオ信号をデコーディングすることができるビデオ信号処理方法及び装置が開示される。本発明は、参照リストに含まれた第1参照視点内の第1対応ブロックのブロックタイプを獲得することと、前記第1対応ブロックのブロックタイプがイントラブロックである場合、前記参照リストに含まれた第2参照視点内の第2対応ブロックのブロックタイプ及びモーション情報を獲得することと、前記第2対応ブロックのブロックタイプがイントラブロックでない場合、前記第2対応ブロックのモーション情報を用いて現在のブロックをデコーディングすることとを含む。

Description

本発明は、ビデオ信号の処理に関するもので、より詳細には、ビデオ信号をデコーディングするビデオ信号処理方法及び装置に関するものである。本発明は、広範囲のアプリケーションに適するが、特にビデオ信号のデコーディングに適する。
一般に、圧縮符号化とは、デジタル化した情報を通信回線を通して伝送したり、保存媒体に適した形態で保存したりするための一連の信号処理技術を意味する。圧縮符号化の対象としては、音声、映像及び文字などが存在し、特に、映像を対象にして圧縮符号化を行う技術をビデオ映像圧縮という。ビデオ映像の一般的な特徴は、空間的重複性及び時間的重複性を有する点にある。
しかしながら、このような空間的重複性及び時間的重複性を充分に除去しないと、ビデオ信号の符号化において圧縮率が低下するだけでなく、空間的重複性及び時間的重複性を過度に除去した場合、ビデオ信号をデコーディングするのに必要な情報を生成できないので、復元率が悪くなるという問題点があった。
特に、多視点ビデオ信号において、視点間ピクチャには、ほとんどの場合、カメラの位置による差のみが存在するので、視点間ピクチャは、その関連性及び重複性が非常に高いが、このような視点間ピクチャの重複性を充分に除去しないか、または過度に除去した場合、圧縮率または復元率が低下するという問題点があった。
本発明は、従来技術の制限や欠点による上記の問題点のうちの一つ又は複数を実質的に予防するビデオ信号処理方法及び装置を対象とする。
本発明の目的は、視点間ピクチャの重複性が除去されたビデオ信号をデコーディングすることができるビデオ信号処理方法及び装置を提供することにある。
本発明の他の目的は、視点間ピクチャの関連性に基づいて現在のピクチャのモーション情報を獲得することで、動き補償を行うことができるビデオ信号処理方法及び装置を提供することにある。
本発明の更に他の目的は、現在のピクチャのモーション情報と類似性の高い参照視点のモーション情報を用いることで、現在のピクチャの復元率を高めることができるビデオ信号処理方法及び装置を提供することにある。
上記目的及び他の利点を達成するため、本発明の目的に従って、本発明に係るビデオ信号処理方法は、その実施形態が広範囲に記載されているように、参照リストに含まれた第1参照視点内の第1対応ブロックのブロックタイプを獲得する段階と、前記第1対応ブロックのブロックタイプがイントラブロックである場合、前記参照リストに含まれた第2参照視点内の第2対応ブロックのブロックタイプ及びモーション情報を獲得する段階と、前記第2対応ブロックのブロックタイプがイントラブロックでない場合、前記第2対応ブロックのモーション情報を用いて現在のブロックをデコーディングする段階とを含む。
本発明によると、前記参照リストは、第1参照リスト及び第2参照リストを含むことが好ましい。
本発明によると、前記第1参照リストは順方向の参照視点を含み、前記第2参照リストは逆方向の参照視点を含むことがさらに好ましい。
本発明によると、前記参照リストは、現在の視点との視点従属性に基づいて獲得されることが好ましい。
本発明によると、前記第1参照視点は、前記参照リストに含まれた参照視点のうち、前記ビデオ信号のビットストリームに含まれる順序を示すインデックスが最も低い参照視点に該当することが好ましい。
本発明によると、前記第1参照視点は、前記参照リストに含まれた参照視点のうち、現在の視点に最も近い参照視点に該当することが好ましい。
本発明によると、前記第1対応ブロックは、前記第1参照視点に対するグローバルモーションベクトルに基づいて獲得されたものであることが好ましい。
本発明によると、前記第1対応ブロックは、前記参照リストのうち第1参照リスト内の参照視点に属し、前記第2対応ブロックは、前記参照リストのうち第2参照リスト内の参照視点に属することが好ましい。
本発明によると、前記第2対応ブロックは、前記第2参照視点に対するグローバルモーションベクトルに基づいて獲得されたものであることが好ましい。
本発明によると、前記モーション情報は、モーションベクトル及び参照ピクチャインデックスを含むことが好ましい。
本発明によると、前記デコーディング段階は、視点内(intra−view)方向の参照ピクチャを獲得する段階をさらに含むことがさらに好ましい。
本発明によると、前記ビデオ信号は、放送信号を通して受信されたものであることが好ましい。
本発明によると、前記ビデオ信号は、デジタル媒体を通して受信されたものであることが好ましい。
上記及び他の利点をさらに達成するため、本発明の目的に従って、コンピュータ可読記録媒体は、参照リストに含まれた第1参照視点内の第1対応ブロックのブロックタイプを獲得する段階と、前記第1対応ブロックのブロックタイプがイントラブロックである場合、前記参照リストに含まれた第2参照視点内の第2対応ブロックのブロックタイプ及びモーション情報を獲得する段階と、前記第2対応ブロックのブロックタイプがイントラブロックでない場合、前記第2対応ブロックのモーション情報を用いて現在のブロックをデコーディングする段階とを含む方法を実行するためのプログラムを有する。
上記及び他の利点をさらに達成するため、本発明の目的に従って、ビデオ信号処理装置は、参照リストに含まれた第1参照視点内の第1対応ブロックのブロックタイプを獲得し、前記第1対応ブロックのブロックタイプがイントラブロックである場合、前記参照リストに含まれた第2参照視点内の第2対応ブロックのブロックタイプ及びモーション情報を獲得するモーション情報獲得部と、前記第2対応ブロックのブロックタイプがイントラブロックでない場合、前記第2対応ブロックのモーション情報を用いて現在のブロックをデコーディングするデコーディング部とを含む。
上記及び他の利点をさらに達成するため、本発明の目的に従って、ビデオ信号処理方法は、第1参照リスト及び第2参照リストのうち少なくとも一つの参照リストを再配列する段階と、ビットストリームから抽出した第1モーション情報または参照視点上の対応ブロックの第2モーション情報のうち一つのモーション情報を用いて、モーションベクトルを決定する段階と、ビットストリームから抽出したインターモーション情報または参照視点上の対応ブロックから抽出したイントラモーション情報のうち少なくとも一つのモーション情報を用いて、モーションベクトルを決定する段階と、前記モーションベクトルを用いて参照ブロックを獲得する段階と、前記参照ブロックを用いて現在のピクチャの現在のブロックをデコーディングする段階とを含む。
本発明によると、現在のピクチャがアンカーピクチャであるとき、前記モーションベクトルは前記インターモーション情報のみを用いることが好ましい。
本発明によると、前記参照ブロックは、インターモーション情報と関連しており、現在のブロックと同一の時間及び異なる視点に存在するものであることがさらに好ましい。
上記及び他の利点をさらに達成するため、本発明の目的に従って、ビデオ信号処理装置は、第1参照リスト及び第2参照リストのうち少なくとも一つの参照リストを再配列し、ビットストリームから抽出した第1モーション情報または参照視点上の対応ブロックの第2モーション情報のうち一つのモーション情報を用いて、モーションベクトルを決定し、ビットストリームから抽出したインターモーション情報または参照視点上の対応ブロックから抽出したイントラモーション情報のうち少なくとも一つのモーション情報を用いて、モーションベクトルを決定するモーション情報獲得部と、前記モーションベクトルを用いて参照ブロックを獲得し、前記参照ブロックを用いて現在のピクチャの現在のブロックをデコーディングするデコーディング部とを含む。
したがって、本発明は、次のような効果及び利点を提供する。
本発明によれば、第一に、ビデオ信号の符号化において、重複性の高いモーション情報を省略することができ、圧縮率が高くなるという効果がある。
第二に、ビデオ信号の復号化において、現在のピクチャのモーション情報が伝送されない場合にも、現在のピクチャのモーション情報と類似性の高い参照視点のモーション情報を用いることで、ビデオ信号の復元率を高めることができる。
第三に、ビデオ信号の復号化において、隣接した視点のピクチャにモーション情報が存在しない場合、他の視点のピクチャに存在するモーション情報を用いることができる。
本発明に係るビデオ信号デコーディング装置の概略的なブロック図である。 本発明の実施例に係るビデオ信号処理装置の構成図である。 本発明の実施例に係るビデオ信号処理方法のフローチャートである。 モーションスキップ判別段階(S100段階)のサブステップの一例を示すフローチャートである。 視点従属性及び参照リストの概念を説明するための図である。 現在の視点に対する参照リストの一例を示した図である。 参照視点及び対応ブロックを決定する段階(S300段階)のサブステップの一例を示すフローチャートである。 現在の視点に対する参照リストの他の例を示した図である。 参照視点及び対応ブロックを決定する段階(S300段階)のサブステップの他の例を示すフローチャートである。 現在の視点に対する参照リストの更に他の例を示した図である。 参照視点及び対応ブロックを決定する段階(S300段階)のサブステップの更に他の例を示すフローチャートである。 マッピングレベルがマクロブロックレベルである場合または8×8ブロックレベルである場合をそれぞれ説明するための図である。 マッピングレベルが4×4ブロックである場合またはサブピクセルレベルである場合をそれぞれ説明するための図である。
添付図面は、本発明をさらに理解するために包含されており、本明細書に組み込まれて本明細書の一部を構成する。これらの添付図面は、本発明の実施形態を説明し、明細書の記載と共に本明細書の原理を説明するためのものである。
本発明の他の特徴及び利点は、以下の記載で述べるが、その一部については、明細書の記載から明らかになるであろうし、或いは、本発明の実施によって理解されるであろう。本発明の目的及び他の利点は、書面の明細書及び特許請求の範囲並びに添付図面で特に指摘された構成によって、実現され達成されるであろう。
以下の概略及び詳細についての記載は、ともに例示及び説明のためのものであり、特許請求の範囲に記載された本発明をさらに説明することを意図している。
以下、添付図面に図示された本発明の好適な実施形態について詳細に述べる。
特に、本発明でのモーション情報は、時間方向のモーション情報のみならず、視点間方向のモーション情報を含む概念として理解されるべきである。さらに、モーションベクトルは、時間方向の動きの差のみならず、視点間方向の変移の差も含む概念として理解されるべきである。
本発明におけるコーディングとは、エンコーティング及びデコーディングを全て含む概念として理解されるべきである。
一方、視点内予測(intra−view prediction)とは、同一の視点内に存在する各ピクチャ間の予測で、その例としては時間的予測がある。また、視点間予測(inter−view prediction)とは、異なる視点に存在する各ピクチャ間の予測を意味する。
図1は、本発明に係るビデオ信号デコーディング装置の概略的なブロック図を示す。図1を参照すると、デコーディング装置は、NALパージング部100、エントロピデコーディング部200、逆量子化/逆変換部300、イントラ予測部400、デブロッキングフィルタ部500、復号ピクチャバッファ部600及びインター予測部700を含む。そして、インター予測部700は、照明オフセット予測部710、照明補償部720及び動き補償部730を含む。
パージング部100は、受信されたビデオ映像を復号するためにNAL単位でパージングを行う。一般に、一つまたはそれ以上のシークエンスパラメータセット及びピクチャパラメータセットは、スライスヘッダ及びスライスデータがデコーディングされる前にデコーダに伝送される。このとき、NALヘッダ領域またはNALヘッダの拡張領域には多様な属性情報が含まれる。MVCは、既存のAVC技術に対する追加的な技術であるので、無条件に追加するよりも、MVCビットストリームである場合に限って多様な属性情報を追加することがより効率的である。例えば、前記NALヘッダ領域またはNALヘッダの拡張領域にMVCビットストリームであるかどうかを識別可能なフラグ情報を追加することができる。前記フラグ情報によって入力されたビットストリームが多視点映像コーディングされたビットストリームである場合に限って、多視点映像に対する属性情報を追加することができる。例えば、前記属性情報は、時間的レベル情報、視点レベル情報、視点間ピクチャグループ識別情報、視点識別情報などを含むことがある。
パージングされたビットストリームは、エントロピデコーディング部200を通してエントロピデコーディングされ、各マクロブロックの係数及び動きベクトルなどが抽出される。逆量子化/逆変換部300では、受信された量子化された値に一定の常数を掛けることで、変換された係数値を獲得し、前記係数値を逆変換することで画素値を復元する。前記復元された画素値を用いて、イントラ予測部400では、現在のピクチャ内のデコーディングされたサンプルから画面内予測を行う。一方、デブロッキングフィルタ部500は、ブロック歪曲現象を減少させるために、それぞれのコーディングされたマクロブロックに適用される。フィルタは、ブロックのエッジを滑らかにして、デコーディングされたピクチャの画質を向上させる。フィルタリング過程の選択は、境界の強さ及び境界の周囲のイメージサンプルのグラディエントによって左右される。フィルタリングを経た各ピクチャは、出力されたり、参照ピクチャとして用いるために復号ピクチャバッファ部600に保存されたりする。
復号ピクチャバッファ部600は、画面間予測を行うために、以前にコーディングされた各ピクチャを保存または開放する役割を行う。このとき、ピクチャを復号ピクチャバッファ部600に保存または復号ピクチャバッファ部600から開放するために、各ピクチャのframe_numとPOC(Picture Order Count:ピクチャオーダカウント)を用いる。したがって、MVCにおいて、前記以前にコーディングされた各ピクチャのうち現在のピクチャと異なる視点にあるピクチャもあるので、このようなピクチャを参照ピクチャとして活用するためには、前記frame_numとPOCのみならず、ピクチャの視点を識別する視点情報も一緒に用いることがある。上記のように管理される各参照ピクチャは、インター予測部700で用いられる。
インター予測部700は、復号ピクチャバッファ部600に保存された参照ピクチャを用いて画面間予測を行う。インターコーディングされたマクロブロックは、マクロブロックパーティションに分けられ、各マクロブロックパーティションは、一つまたは二つの参照ピクチャから予測される。前記インター予測部700は、照明オフセット予測部710、照明補償部720及び動き補償部730を含む。
入力されたビットストリームが多視点映像に該当する場合、各視点映像は、それぞれ異なるカメラで取得された映像であるので、カメラの内外的要因によって照明差が発生するようになる。これを防止するために、照明補償部720は照明補償を行う。照明補償において、ビデオ信号の一定の階層に対する照明補償を行うか否かを表すフラグ情報を用いることができる。例えば、該当のスライスまたは該当のマクロブロックの照明補償を行うか否かを表すフラグ情報を用いて、照明補償を行うことができる。また、前記フラグ情報を用いた照明補償において、照明補償は、多様なマクロブロックのタイプ(例えば、インター16×16モード、B−skipモードまたは直接モードなど)に適用可能である。
動き補償部730は、エントロピデコーディング部200から伝送された動き情報を用いて現在のブロックの動きを補償する。ビデオ信号から現在のブロックに隣接する各ブロックの動きベクトルを抽出し、前記現在のブロックの動きベクトル予測値を獲得する。前記獲得された動きベクトル予測値と前記ビデオ信号から抽出されるオフセットベクトルを用いて、現在のブロックの動きを補償する。また、このような動き補償は、一つの参照ピクチャまたは複数のピクチャを用いて行われる。多視点ビデオコーディングにおいて、現在のピクチャが異なる視点にあるピクチャを参照する場合、前記復号ピクチャバッファ部600に保存されている視点間予測のための参照ピクチャリストに関する情報を用いて動き補償を行うことができる。また、そのピクチャの視点を識別する視点情報を用いて動き補償を行うこともできる。
一方、上記のように動き補償を行うためには動き情報が必要であるが、特定のブロックに該当する動き情報を伝送しないことがある。このような方式として、モーションスキップモードという方式が存在する。モーションスキップモードとは、復号化が終了したブロックの動き情報から現在のブロックの動き情報を求める方式である。例えば、現在のブロックの参照ピクチャインデックス及び動きベクトルなどは、現在のブロックの動き情報と類似した動き情報を有する参照視点に存在する対応ブロックから求めることができる。この方法によると、現在のブロックの動き情報が伝送されないので、動き情報を符号化するために必要なビット数を節約することができる。
上記の過程を通してインター予測されたピクチャとイントラ予測されたピクチャが予測モードによって選択され、現在のピクチャを復元する。以下では、モーションスキップモードに関する多様な実施例を説明する。
図2は、本発明の実施例に係るビデオ信号処理装置の構成を示した図で、図3は、本発明の実施例に係るビデオ信号処理方法のフローチャートである。まず、図2を参照すると、本発明の実施例に係るビデオ信号処理装置1000は、情報抽出部1050、モーションスキップ判別部1100、参照リスト獲得部1200、グローバルモーションベクトル獲得部1250、対応ブロック決定部1300及びデコーディング部1400を含む。モーション情報獲得部は、参照リスト獲得部1200、グローバルモーションベクトル獲得部1250及び対応ブロック決定部1300を含むことがある。以下、図2及び図3を一緒に参照しながら、本発明の実施例に関して概略的に説明する。
情報抽出部1050は、モーションスキップ許容フラグ情報及びモーションスキップ適用フラグ情報を抽出し、モーションスキップ判別部1100は、抽出された情報に基づいて現在のブロックがモーションスキップモードに該当するかどうかを判断する(S100段階)。現在のブロックがモーションスキップモードでない場合、ビットストリームから現在のブロックのモーション情報を抽出する過程を経て、デコーディング部1400で、抽出されたモーション情報を用いて現在のブロックをデコーディングする。一方、情報抽出部1050は、図1を参照して説明されたエントロピデコーディング部200に含まれるが、本発明がこれに限定されることはない。S100段階については、後述の“1.モーションスキップ判別段階”で具体的に説明する。
参照リスト獲得部1200は、視点従属性に基づいて第1参照リスト及び第2参照リストを獲得する(S200段階)。視点従属性及び参照リストに関しては、後述の“2.1参照リスト獲得段階”で具体的に説明する。
オフセット獲得部1250は、対応ブロックを探索するために必要なオフセット(例えば、グローバルモーションベクトル、ローカルモーションベクトル、ゼロベクトル)を獲得する(S250段階)。ここで、オフセットの種類及びオフセットを求める方法に関する多様な実施例は、後述の“2.2オフセット獲得段階”で具体的に説明する。
対応ブロック決定部1300は、S200段階で獲得された参照リスト及びS250段階で獲得されたオフセットに基づいて、参照視点及び対応ブロックを決定する(S300)。この過程で、現在の視点との視点従属性が存在する一つ以上の参照視点のうちいずれの視点を優先的に探索するか、及び探索された視点の対応ブロックにモーション情報が存在しないとき、次善の策としていずれの視点を探索するかに関する多様な実施例は、後述の“3.参照視点及び対応ブロック決定段階”で説明する。一方、対応ブロックがマクロブロックレベルであるか、それとも8×8ブロックレベルであるかによって対応ブロックを決定する方法が異なるが、これに関しても後で説明する。
デコーディング部1400は、S300段階で決定された対応ブロックのモーション情報を用いて現在のブロックをデコーディングする(S400段階)。また、対応ブロックのモーション情報のみならず、レジデュアル情報も用いることができるが、これについては、後述の“4.対応ブロックのモーション情報を用いて現在のブロックをデコーディングする段階”で具体的に説明する。一方、モーションスキップ判別部1100、参照リスト獲得部1200、オフセット獲得部1250、対応ブロック決定部1300及びデコーディング部1400は、既に図1を参照して説明された動き補償部730に含まれるが、本発明がこれに限定されることはない。
1.モーションスキップ判別段階
S100段階で、情報抽出部1050は、モーションスキップ許容フラグ情報及びモーションスキップ適用フラグ情報を抽出し、モーションスキップ判別部1100は、抽出された情報に基づいて現在のブロックがモーションスキップモードに該当するかどうかを判断する。図4は、S100段階のサブステップを示している。
図4を参照すると、まず、スライスヘッダからモーションスキップ許容フラグ情報を抽出する(S110段階)。モーションスキップ許容フラグ情報とは、スライスに属する各ブロックのうちモーションスキップモードに該当するブロックが一つ以上存在するかどうかに関する情報である。すなわち、スライス内の各ブロックに対してモーションスキップモードが許容されるかどうかに関する情報である。モーションスキップ許容フラグは、スライスヘッダに含まれるが、本発明がこれに限定されることはない。モーションスキップ許容フラグがスライスヘッダに含まれるシンタックスの一例を、次のテーブルに表している。
上記のテーブルのうち、右側に(A)が表示された行を参照すると、“motion_skip_enable_flag”というシンタックスエレメントが存在する。これがモーションスキップ許容フラグであるが、0または1の値を有する1ビットのフラグである。各フラグ値による意味は、次のテーブルのように定義される。
現在のスライスにモーションスキップが適用されない場合、モーションスキップ許容フラグを伝送する必要がない。したがって、上記のテーブルに表したように、モーションスキップが適用される条件を追加することができる。すなわち、現在のスライスがノンアンカー(non−anchor)ピクチャで、他の視点との参照関係がある場合のみにモーションスキップ許容フラグを伝送すれば充分である。
S110段階で抽出されたモーションスキップ許容フラグに基づいて、現在のスライスに対してモーションスキップモードが許容されるかどうかを判断する(S120段階)。モーションスキップモードが許容されない場合(S120段階の‘いいえ’)(例えば、モーションスキップ許容フラグ(motion_skip_enable_flag)が0であるとき)、スライス内にモーションスキップモードに該当するブロックが一つも存在しないので、該当のスライス全体がモーションスキップモードでないと判別し、ブロックレベルで現在のブロックのモーション情報を抽出する(S150段階)。
その反対に、S120段階で現在のスライスにモーションスキップが許容される場合(S120段階の‘はい’)、スライス内の各ブロックがモーションスキップモードに該当するかどうかを判断する段階を行うことができる。まず、ブロックレベルでモーションスキップ適用フラグ情報を抽出する(S130段階)。モーションスキップ適用フラグ情報とは、現在のブロックがモーションスキップモードに該当するかどうかを表す情報である。S110段階で抽出したモーションスキップ許容フラグに基づいてマクロブロックレイヤからモーションスキップ適用フラグを抽出する一例を、次のテーブルに示している。
上記のテーブルのうち右側に(C1)及び(F)が示された行を参照すると、モーションスキップ許容フラグが0でない場合に、((C1)行のif(…motion_skip_enable_flag)を参照)、モーションスキップ適用フラグ((F)行のmotion_skip_flagを参照)を抽出することが分かる。すなわち、モーションスキップ許容フラグが0である場合には、マクロブロックレイヤからモーションスキップ適用フラグを抽出しない。
上記の[テーブル1の変形]のように、スライスヘッダでスライスにモーションスキップの適用可否条件が適用されると、各マクロブロックでは、モーションスキップ許容フラグのみをチェックすればよい。したがって、上記のテーブルのように現在のスライスでのモーションスキップ許容フラグが1である場合、各マクロブロックに対してモーションスキップ適用フラグを伝送すれば充分である。
S130段階で抽出されたモーションスキップ適用フラグに基づいて、現在のブロックがモーションスキップモードであるかどうかを判断する(S140段階)。モーションスキップ適用フラグも、0または1の値を有する1ビットフラグである。各フラグ値による意味は、次のテーブルのように定義される。
S140段階の判断結果、現在のブロックがモーションスキップモードに該当しない場合(S140段階の‘いいえ’)(例えば、モーションスキップ適用フラグ(motion_skip_flag)が0であるとき)、モーションスキップモードでないと判別し、ビットストリームから現在のブロックのモーション情報を抽出する(S150段階)(テーブル3の(CC1)及び(P1)行を参照)。
その反対に、現在のブロックがモーションスキップモードに該当する場合(S140段階の‘はい’)、S100段階を終了し、上述したS200段階〜S400段階が進行される。
2.1 参照リスト獲得段階
上述したように、S200段階では、視点従属性に基づいて第1参照リスト及び第2参照リストを獲得する。視点従属性とは、現在の視点と異なる視点との関連性を意味するもので、現在の視点をデコーディングするために、異なる視点が必要であるかどうかに関するものである。視点従属性は、シークエンス拡張フィールド(SPS MVC extension)に含まれた情報から推定される。
S200段階は、視点従属性のうち、特に、ノンアンカーピクチャの視点従属性に基づいて行うことができる。ここで、アンカーピクチャは、視点間予測のみを行うピクチャとして、異なる視点内のピクチャのみを参照し、同一視点内のピクチャは参照しないピクチャを称し、ノンアンカーピクチャは、アンカーピクチャに該当しないピクチャとして、同一視点または異なる視点のピクチャを全て参照可能なピクチャを称する。また、ノンアンカーピクチャ間の視点従属性は、現在の視点のノンアンカーピクチャと異なる視点のノンアンカーピクチャとの関連性である。アンカーピクチャは、視点間予測のみを行う特性を有するので、モーションスキップモードが適用されず、ノンアンカーピクチャのみにモーションスキップモードが適用されるので、ノンアンカーピクチャの視点従属性に基づいてS200段階が行われる。
一方、現在の視点とノンアンカーピクチャとの間の視点従属性を有する視点情報は、第1参照リストの視点情報と第2参照リストの視点情報に分けられるが、例えば、L0方向の参照リストの視点情報(non_anchor_refl0[j][i]、j=現在の視点、i=0、…、num_anchor_ref_l0−1)と、L1方向の参照リストの視点情報(non_anchor_refl1[j][i]、j=現在の視点、i=0、…、num_anchor_ref_l1−1)とに分けられる。このような視点情報を用いて、現在の視点との視点従属性を有する異なる視点の視点識別子(view_id)を知ることができる。
図5は、視点従属性及び参照視点リストの概念を説明するための図である。図5を参照すると、現在の視点VcのノンアンカーピクチャPC1、…、PCnが存在する。右側の点線矢印は、現在の視点Vcと異なる視点VC-1、VC-2、VC+1、VC+2との間のノンアンカーピクチャの視点従属性を表している。順方向に現在の視点Vcとのノンアンカーピクチャの視点従属性が存在する各視点(non_anchor−ref_l0[Vc][i]、i=0、1)は、視点VC-1及び視点VC-2で、逆方向に現在の視点Vcとのノンアンカーピクチャの視点従属性が存在する各視点(non_anchor−ref_l1[Vc][i]、i=0、1)は、視点VC+1及び視点VC+2であることが分かる。図5に示すように、第1参照視点リストRL1は、視点VC-1及び視点VC-2を含み、第2参照視点リストRL2は、視点VC+1及び視点VC+2を含む概念である。上記の技術は、図5の場合の一実施例に過ぎず、参照視点リストに保存される順序が、必ず現在の視点と空間的に近い順序のみに定められるのではなく、エンコーダで指定することができる。また、逆方向視点が第1参照視点リストに含まれ、順方向視点が第2参照視点リストに含まれることもある。また、参照ピクチャリスト再配列(RPLR:Reference Picture List Reordering)演算を通して、基本リスト構成で各スライス別に異なるように設定することもできる。
現在のブロックと同一の時間基準にある参照視点に含まれた第1参照ブロックは、インターモーション情報と関連した参照ブロックであり、現在のブロックと同一の視点基準にある現在の視点に含まれた第2参照ブロックは、イントラモーション情報と関連した参照ブロックである。
上記のように第1参照視点リスト及び第2参照視点リストを獲得した後、これを用いてS300段階で参照視点を決定する。
2.2 オフセット獲得段階
後述のS300段階で対応ブロックを探索するためには、現在のブロックと参照ピクチャの対応ブロックとのオフセット値が必要である。このオフセット値は、a)ゼロベクトル、b)グローバルモーションベクトル、c)ローカルモーションベクトルなどの多様な方法で求められ、このオフセット値を用いて対応ブロックを探索する方式にも多様な方式があるが、以下では、それぞれの多様な実施例について説明する。
2.2.1 オフセットの種類及びオフセットを求める方法
(1)ゼロベクトル
現在のブロックと対応ブロックとのオフセットをゼロベクトルに設定することができるが、これは、対応ブロックを現在のブロックと同一位置のブロックに設定する場合である。
(2)グローバルモーションベクトル
グローバルモーションベクトルは、現在のピクチャと参照ピクチャの全体的なモーションまたは変移の差を代表する値として、ピクチャのみならず、スライス、フィールド、フレーム、シークエンスなどに対応するオフセットである。モーションスキップモードが時間方向へのモーション情報をスキップするためのものである場合、グローバルモーションベクトルは視点方向のモーションまたは変移の差になり、その反対に、モーションスキップモードが視点方向へのモーション情報をスキップするためのものである場合、グローバルモーションベクトルは時間方向のモーションまたは変移の差になる。
グローバルモーションベクトルを伝送する方法には多様な方法があるが、グローバルモーションベクトルがピクチャごとにまたはアンカーピクチャごとに伝送されたり、シークエンス全体に対して一つのグローバルモーションベクトルが伝送されたりする。グローバルモーションベクトルがアンカーごとに伝送される場合、モーションスキップモードはノンアンカーピクチャのみに適用されるので、ノンアンカーピクチャの視点従属性が存在する視点のみに対してグローバルモーションベクトルを伝送することができる。例えば、現在の視点の視点識別子がVcで、ノンアンカーピクチャ間の視点従属性が存在する視点がL0方向にVC-1で、L1方向にVC+2である場合、グローバルモーションベクトルとしては、L0方向にglobal_disparity_l0[0](ここで、ViewID[0]=VC-1)が伝送され、L1方向にglobal_disparity_l1[1](ここで、ViewID[1]=VC+2)が伝送される。
このように、グローバルモーションベクトルがアンカーピクチャごとに伝送される場合、隣接したアンカーピクチャのグローバルモーションベクトルを用いてノンアンカーピクチャのグローバルモーションベクトルを求めることができる。このような方法には多様な方法があるが、現在のピクチャがノンアンカーピクチャであるとき、最も隣接するアンカーピクチャのグローバルモーションベクトルのうち一つをそのまま持ってくることもでき、現在のピクチャと隣接するアンカーピクチャとの間の出力順序(POC)を考慮して、二つの隣接するアンカーピクチャのグローバルモーションベクトルを補間して求めることもできるが、本発明がこれに限定されることはない。
グローバルモーションベクトルの解像度は、マクロブロック、8×8ブロック、4×4ブロック、ピクセル、サブピクセルなどの解像度を有することができる。参照ピクチャは8×8ブロック単位で定められ、モーションベクトルは4×4ブロック単位で定められるので、8×8ブロックレベル単位でグローバルベクトルを求める場合、マクロブロックレベル単位で求めるときより詳細な対応ブロックを指定することもできる。
(3)ローカルモーションベクトル
ローカルモーションベクトルは、ピクチャ全体に該当するオフセットでなく、ピクチャ内で特定のマクロブロック、特定の8×8ブロックまたは特定の4×4ブロックに対応するオフセットとして、一般に1/4pel解像度を有する。現在のブロックと隣接した各ブロックが視点方向にモーションベクトル(または変移ベクトル)を有している場合、その隣接する各ブロックのモーションベクトルを用いて現在のブロックのローカルモーションベクトルを求めることができる。具体的に説明すると、隣接する各ブロックが現在のブロックと同一の参照ピクチャを有するかどうかに基づいて、現在のピクチャの参照ピクチャと同一の参照ピクチャを有する隣接するブロックのモーションベクトルのみを用いることができる。代替方法として、特定のブロック(例えば、最初が左上のブロックで、次に上のブロックなど)に優先順位をおいて、順位に従って参照ピクチャが同一か否かをチェックしながら、参照ピクチャが同一である隣接したブロックのモーションベクトルを用いることができる。
2.2.2 オフセットリファインメント(refinement)方法
前記2.2.1で求めたゼロベクトル、視点方向のモーションベクトル(グローバルモーションベクトルまたはローカルモーションベクトル)は、現在のブロックの視点方向の実際のモーションベクトルと差があり得る。その差を下記のテーブルのように伝送すると、求められたモーションベクトルの値を予測値に設定し、この予測値に伝送された差値を足してモーションベクトルを獲得することができる。
前記差値は、用いるモーションベクトルの解像度レベルによってマクロブロック(16×16)レベル、8×8ブロックレベル、4×4ブロックレベル、ピクセルレベルまたはサブピクセル単位の値になり得る。
上記のように、多様な実施例によって現在のブロックと対応ブロックとのオフセットを求めることができる。
3.参照視点及び対応ブロック決定段階
上記のような過程で獲得された参照リスト及びオフセットを用いて、参照視点及び参照視点に存在する対応ブロックを決定することができる。視点の対応ブロックにモーション情報が存在する場合には、その視点は現在のブロックの最終的な参照視点になり、その対応ブロックは最終的な対応ブロックになる。一方、対応ブロックは同一時間帯のピクチャ内に属するものであるが、対応ブロックが異なる時間帯のピクチャに属する場合には、出力順序(POC)情報をさらに用いることができる。
このような参照視点に関する情報は、明示的方式ではエンコーダでビットストリームを通して伝送され、黙示的方式ではデコーダで任意に決定される。以下、明示的方式及び黙示的方式に対してそれぞれ説明する。
一方、現在のブロックと対応ブロックとのマッピングにおいて、マクロブロックレベル、8×8ブロックレベルなどのレベルが異なる多様な実施例が存在するが、以下では、これについても説明する。
3.1 参照視点及び対応ブロックを決定する方式
(1)明示的方式(explicit scheme)
第1参照リスト及び第2参照リストに含まれている各視点のうちいずれの視点を参照視点として設定するかに関する情報、すなわち、参照視点の視点識別子を明示的に伝送することができる。
さらに、各参照リストに属する各視点のうち、現在の視点と最も近い視点から参照視点になり得るかどうかをチェックするように設定されている場合には、参照視点の視点識別子を明示的に伝送する必要はない。しかし、この場合にも、第1参照リスト及び第2参照リストが両方とも存在するので、これら二つのうちいずれからチェックするかを表すモーションスキップ参照リストフラグを、下記のテーブルのように明示的に伝送してもよい。
[テーブル1の変形]のようにスライスヘッダにモーションスキップ許容条件が適用された場合には、上記のテーブルのようにモーションスキップフラグ情報のみを確認すれば充分である。
(2)黙示的方式(implicit scheme)
第1参照リスト及び第2参照リストに含まれている各参照視点のうちいずれの視点を参照視点に設定するかに関する情報が伝送されない場合がある。この場合、各参照視点の対応ブロックにモーション情報が存在するかどうかをチェックしながら、最終的な参照視点及び対応ブロックを決定することができる。第1参照リスト及び第2参照リストのうちいずれの参照リストに属する参照視点を最優先にチェックするかに関する多様な実施例が存在し、その参照視点にモーション情報がない場合、その後にはどのような順にチェックするかに関する多様な実施例が存在する。
特定の参照リストに属する各参照視点間の優先順位において、第一に、第1参照リスト(または第2参照リスト)に含まれている各参照視点は、参照視点を示すインデックスが低い順にチェックすることができる。ここで、参照視点を示すインデックスとは、エンコーダでビットストリームをコーディングするときに設定された各参照視点のシリアル番号であるが、例えば、シークエンス拡張情報(SPS extension)でのノンアンカーピクチャの参照視点をnon_anchor_ref_l0[i]またはnon_anchor_ref_l1[i]と表現するとき、iは参照視点を示すインデックスである。エンコーダは、現在の視点と近い順に低いインデックスを与えることができるが、本発明がこれに限定されることはない。インデックス‘i’が0から始まる場合、i=0である参照視点をチェックし、次にi=1である参照視点をチェックし、その次にi=2である参照視点をチェックすることができる。
第二に、第1参照リスト(または第2参照リスト)に含まれている各参照視点は、現在の視点と近い順にチェックすることができる。
第三に、第1参照リスト(または第2参照リスト)に含まれている各参照視点は、基準視点と近い順にチェックすることができる。
第1参照リストと第2参照リストとの間の優先順位において、第2参照リストより第1参照リストに属する参照視点からチェックするように設定することができる。このような設定を前提にして、参照視点が第1参照リスト及び第2参照リストの両方に存在する場合と、第1参照リストまたは第2参照リストのいずれかに存在する場合とについて以下で説明する。
(2)−1 参照視点が二つの参照リストの両方に存在する場合
図6は、現在の視点に対する参照リストの一例を示した図で、図7は、参照視点及び対応ブロックを決定する段階(S300段階)のサブステップの一例を示すフローチャートである。まず、図6を参照すると、現在の視点Vc及び現在のブロックMBcを基準にして、L0方向の第1参照リストRL1及びL1方向の第2参照リストRL2の両方が存在することが分かる。
図6及び図7を参照すると、まず、第1参照リストRL1で参照視点を示すインデックスが最も低い視点(VC-1=non_anchor_ref_l0[0])を第1参照視点RV1に決定し、現在の視点Vcと第1参照視点RV1との間のオフセット(GDV_l0[0])が示すブロックを第1対応ブロックCB1に決定する(S310段階)。第1対応ブロックCB1がイントラブロックでない場合、すなわち、モーション情報が存在する場合(S320段階の‘いいえ’)、第1対応ブロックを最終的に対応ブロックとして決定し、第1対応ブロックからモーション情報を獲得する(S332段階)。
その反面、第1対応ブロックCB1のブロックタイプが画面内予測ブロックである場合(S320段階の‘はい’)、第2参照リストRL2でインデックスが最も低い視点(VC+1=non_anchor_ref_l1[0])を第2参照視点RV2に決定し、現在の視点Vcと第2参照視点RV2との間のオフセット(GDV_l1[0])が示すブロックを第2対応ブロックCB2に決定する(S334段階)。その次に、上述したS320段階、S332段階、S334段階と同様に、第2対応ブロックCB2にモーション情報が存在しない場合、第1参照リストでインデックスが2番目に低い視点(VC-2=non_anchor_ref_l0[1])を第3参照視点RV3に決定し、第2参照リストでインデックスが2番目に低い視点(VC+2=non_anchor_ref_l1[1])を第4参照視点RV4に決定し、第3対応ブロックCB3及び第4対応ブロックCB4に関して順次的にチェックする。すなわち、参照視点を示すインデックスを考慮して、第1参照リストRL1と第2参照リストRL2の各参照視点を交互にチェックしながら、モーション情報が存在するか否かをチェックする。
現在の視点に対する視点従属性情報で最も低いインデックスを有する視点(例えば、non_anchor_ref_l0[i]、non_anchor_ref_l1[i]、i=0)が現在の視点Vcと最も近い視点である場合、参照視点の候補(すなわち、前記第1参照視点、前記第2参照視点など)の選定基準は、現在の視点Vcと最も近い順序になることもある。一方、最も低いインデックスを有する視点が基準視点と近い視点である場合、参照視点の候補選定基準は、基準視点または基準視点と最も近い順序になることもあるが、本発明がこれに限定されることはない。
(2)−2 参照視点が一方の参照リストに存在する場合
図8は、現在の視点に対する参照リストの他の例を示した図で、図9は、参照視点及び対応ブロックを決定する段階(S300段階)のサブステップの他の例を示すフローチャートである。図8及び図9は、第1参照リストRL1のみを示す。この場合、第1参照リストRL1でインデックスが最も低い視点(VC-1=non_anchor_ref_l0[0])を第1参照視点RV1及び第1対応ブロックCB1に決定し、2番目にインデックスが低い視点(VC-2=non_anchor_ref_l0[1])を第2参照視点RV2及び第2対応ブロックCB2に決定し、3番目にインデックスが低い視点を第3参照視点(RV3=non_anchor_ref_l0[2])(図示せず)及び第3対応ブロックCB3(図示せず)に決定した後、各対応ブロックのタイプがイントラブロックであるかどうかを順次的にチェックすることで、最終的にモーション情報を用いることができる参照視点及び対応ブロックを決定する。
図10は、現在の視点に対する参照リストの更に他の例を示した図で、図11は、参照視点及び対応ブロックを決定する段階(S300段階)のサブステップの更に他の例を示すフローチャートである。図10及び図11は、第2参照リストRL2のみを示す。この場合、図8及び図9の場合と類似した形態で、第2参照リストRL2でインデックスが低い順に第1参照視点RV1及び第1対応ブロックCB1、第2参照視点RV2及び第2対応ブロックCB2、第3参照視点RV3及び第3対応ブロックCB3などを決定した後、各対応ブロックのタイプがイントラブロックであるかどうかを順次チェックする。すなわち、第1参照リストRL1に参照視点が存在しない場合、L0方向への参照視点はテストせず、第2参照リストRL2の参照視点のうちインデックスが低い視点から対応ブロックのブロックタイプを順次チェックする。
上記のような過程を通して、S300段階でモーション情報を獲得する参照視点及び対応ブロックを決定する。
3.2 各マッピングレベルによる対応ブロック
参照視点内で対応ブロックを探索するために、グローバルモーションベクトルのみならず、マクロブロック(16×16ブロック)、8×8ブロック、4×4ブロック、ピクセル及びサブピクセルなどに対応するローカルモーションベクトルを使用することもできる。一方、グローバルモーションベクトルまたはローカルモーションベクトルの単位も、マクロブロック(16×16)、8×8ブロック、4×4ブロック、ピクセル及びサブピクセル単位などであり得る。
このようなグローバルモーションベクトルまたはローカルモーションベクトルを用いた現在のブロックと対応ブロックとのマッピングにおいて、多様なレベルを提供することができる。図12は、マッピングレベルがマクロブロックレベルまたは8×8ブロックレベルである場合をそれぞれ説明するための図で、図13は、マッピングレベルが4×4ブロックまたはサブピクセルレベルである場合をそれぞれ説明するための図である。以下、図12及び図13を参照しながら、それぞれの場合に対応ブロックを決定する方法に関して説明する。
(1)マクロブロックレベル
図12の(A)を参照すると、グローバル(またはローカル)モーションベクトルを適用したブロックLBの左上端地点が表示されている。グローバル(またはローカル)モーションベクトルを適用したブロックLBと最も近いマクロブロックCB0を対応ブロックに決定することができる。すなわち、対応ブロックのブロックタイプ情報、参照ピクチャインデックス、モーションベクトルなどの全てのモーション情報をそのまま現在のブロックのモーション情報として用いることができる。ただし、対応ブロックがPスキップ(P_skip)、Bスキップ(B_skip)のようなスキップブロックである場合には、インター8×8モードに再設定することもできる。
(2)8×8ブロックレベル
図12の(B)を参照すると、グローバル(またはローカル)モーションベクトルを適用したブロックLBと最も近い8×8ブロックCB0、及びそのブロックと隣接した8×8ブロックCB1、CB2、CB3が示されている。この場合、その4個の8×8ブロックを全て対応ブロックにし、各ブロックのモーション情報を全て現在のブロックのデコーディングに用いることができる。4個のブロックの全てがインターブロックとしてモーション情報を有する場合、現在のブロックのタイプをインター8×8に決定し、現在のブロックがマクロブロック(16×16)である場合、4個の8×8ブロックMBc0、MBc1、MBc2、MBc3(図示せず)に分けて、各8×8ブロックに該当する対応ブロックのモーション情報を用いる。例えば、現在のブロックがMBc2である場合、対応ブロックCB2のモーション情報を用いる。さらに、4個の対応ブロックにおいてイントラブロックが存在する場合、異なるインターブロックに該当するモーション情報を用いることができる。
(3)4×4ブロックレベル
図13の(A)を参照すると、グローバル(またはローカル)モーションベクトルを適用したブロックLBと最も近い4×4ブロックCB00、その4×4ブロックを含む8×8ブロックCB0、その8×8ブロックと隣接した8×8ブロックCB1、CB2、CB3が示されている。これら各ブロックのモーション情報を用いる方法には多様な実施例が存在するが、まず、ブロックLBと最も近いブロックCB00のモーションベクトル及び参照ピクチャインデックス情報をそのまま用いることができる。代替方法として、参照ピクチャインデックスは、4×4ブロックCB00を含む8×8ブロックCB0の参照ピクチャインデックス情報を用いて求め、モーションベクトルは、その4×4ブロックCB00、及び各参照ブロックCB10、CB20、CB30の各モーションベクトルの中央値または平均値などを取る方法で求めることができる。
更に他の方法として、4×4ブロックCB00、CB10、CB20、CB30のモーション情報を現在のブロックの各8×8ブロックにマッピングさせることもできる。更に他の方法として、3個の4×4ブロックCB00、CB10、CB20の参照ピクチャインデックスの最も小さい値を現在のブロックの参照ピクチャインデックスに決定し、その3個の4×4ブロックのモーションベクトルを用いて現在のブロックのモーションベクトルを求める。前記3個の4×4ブロックのモーション情報を用いることができないとき、残りの右側下端の4×4ブロックCB30のモーション情報を用いることができる。マクロブロックのタイプはinter_8×8モードに設定することができる。
(4)ピクセル/サブピクセルレベル
図13の(B)を参照すると、グローバル(またはローカル)モーションベクトルを適用したブロックLBと最も近い4×4ブロック及びその隣接した各ブロックCB00、CB01、CB02、CB03が示されている。最も近い4×4ブロックの参照ピクチャインデックス及びモーションベクトルは、そのまま用いることもでき、4個の4×4ブロックの参照ピクチャインデックス及びモーションベクトルから求めることもできる。モーションベクトルを求めるとき、中央値または平均値を取る方法が使用可能であり、マクロブロックのタイプはinter_8×8モードに設定することができる。
上記の四つの場合のレベルに関して説明したが、各レベル別マッピング方法は、独立して用いられたり、一緒に組み合わされて用いられたりする。一方、初期マッピング位置がコーナー、エッジ、ブロック中央などの特殊な場所に位置する場合、例外処理が必要である。そして、左側、右側、上側、下側、上左側、上右側、下左側、下上側などの順序は任意に指定される。また、イントラブロックである場合、または、参照インデックスが同一視点上に存在しない場合などに関する処理が必要である。
4.対応ブロックのモーション情報を用いて現在のブロックをデコーディングする段階
S300段階でモーション情報を獲得する参照視点及び対応ブロックを決定した後、S400段階では、その対応ブロックのモーション情報を用いて現在のブロックのモーション情報を求める。対応ブロックが16×16レベル、8×8レベルなどのように多様である場合、上記の“3.2各マッピングレベルによる対応ブロック”で説明したように、多様な実施例が存在する。一方、対応ブロックのモーション情報のみならず、レジデュアル情報などを求める方法があり、モーション情報の正確性を高めるために、モーションスキップ方式で求められたモーションベクトル値と実際値との差値を伝送する方法などが存在するが、以下では、これについて説明する。
4.1 レジデュアルを求める方法
対応ブロックのモーション情報のみならず、対応ブロックのレジデュアルを現在のブロックのレジデュアルとして用いることができる。具体的に説明すると、モーションスキップモードのプロセスによって獲得された参照ピクチャインデックス及びモーションベクトルを用いて、現在のブロックの予測値を獲得し、この予測値に対応ブロックのレジデュアルを足して現在のブロックを復元する。
4.2 モーションベクトルリファインメント方法
上述したようにモーションスキップモードのプロセスによって獲得されたモーションベクトルは、現在のブロックの実際のモーションベクトルと差が生じることがある。この差値をビットストリームを通して伝送した場合、デコーディング過程において、モーションスキップモードに従って求められたモーションベクトルに、この差値を足し、より正確なモーションベクトルを獲得することができる。このモーションベクトルを用いて動き補償を行うことで、現在のブロックの復元率を高めることができる。
4.3 レジデュアルスキップ方法
現在のブロックのモーション情報と対応ブロックのモーション情報の類似性が非常に高く、現在のブロックの動き補償が行われた後、復元率が非常に高い場合、現在のブロックのレジデュアルはほぼ0に近い。この場合、レジデュアル値を全く伝送しないことで、レジデュアルコーディングに必要なビット数を減少させることができる。レジデュアル値をビットストリームに含ませない場合、レジデュアルデータが伝送されるかどうかを示すフラグ情報(例えば、residual_coding_flag)をビットストリームに含ませることができる。すなわち、前記フラグ情報が0である場合、レジデュアルデータを抽出しないだけでなく、レジデュアルデコーディングを行わない。そして、前記フラグ情報が1である場合、レジデュアルデータを抽出し、現在のブロックの予測値に、抽出されたレジデュアルデータを加算する。
また、本発明が適用されるデコーディング/エンコーティング方法は、コンピュータで実行されるためのプログラムとして製作され、コンピュータ可読記録媒体に保存可能であり、本発明に係るデータ構造を有するマルチメディアデータも、コンピュータ可読記録媒体に保存される。前記コンピュータ可読記録媒体は、コンピュータシステムが読み取り可能なデータが保存される全ての種類の保存デバイスを含む。コンピュータ可読記録媒体の例としては、ROM、RAM、CD−ROM、磁気テープ、フロッピーディスク(登録商標)、光データ保存デバイスなどがあり、搬送波(例えば、インターネットを通した伝送)の形態で具現されるものも含む。また、前記エンコーティング方法によって生成されたビットストリームは、コンピュータ可読記録媒体に保存されたり、有/無線通信網を用いて伝送されたりする。
以上のように、本発明は、限定された実施例及び図面に基づいて説明されたが、これらによって限定されることはなく、本発明の属する技術分野で通常の知識を有する者によって本発明の技術思想及び下記に記載される特許請求の範囲の均等範囲内で多様な修正及び変形が可能である。
本発明は、ビデオ信号をエンコーティング及びデコーディングするために適用される。

Claims (19)

  1. 参照リストに含まれた第1参照視点内の第1対応ブロックのブロックタイプを獲得する段階と、
    前記第1対応ブロックのブロックタイプがイントラブロックである場合、前記参照リストに含まれた第2参照視点内の第2対応ブロックのブロックタイプ及びモーション情報を獲得する段階と、
    前記第2対応ブロックのブロックタイプがイントラブロックでない場合、前記第2対応ブロックのモーション情報を用いて現在のブロックをデコーディングする段階と、
    を含むことを特徴とするビデオ信号処理方法。
  2. 前記参照リストは、第1参照リスト及び第2参照リストを含むことを特徴とする、請求項1に記載のビデオ信号処理方法。
  3. 前記第1参照リストは順方向の参照視点を含み、前記第2参照リストは逆方向の参照視点を含むことを特徴とする、請求項2に記載のビデオ信号処理方法。
  4. 前記参照リストは、現在の視点との視点従属性に基づいて獲得されるものであることを特徴とする、請求項1に記載のビデオ信号処理方法。
  5. 前記第1参照視点は、前記参照リストに含まれた参照視点のうち、前記ビデオ信号のビットストリームに含まれる順序を示すインデックスが最も低い参照視点に該当することを特徴とする、請求項1に記載のビデオ信号処理方法。
  6. 前記第1参照視点は、前記参照リストに含まれた参照視点のうち、現在の視点と最も近い参照視点に該当することを特徴とする、請求項1に記載のビデオ信号処理方法。
  7. 前記第1対応ブロックは、前記第1参照視点に対するグローバルモーションベクトルに基づいて獲得されることを特徴とする、請求項1に記載のビデオ信号処理方法。
  8. 前記第1対応ブロックは、前記参照リストのうち第1参照リスト内の参照視点に属し、
    前記第2対応ブロックは、前記参照リストのうち第2参照リスト内の参照視点に属することを特徴とする、請求項1に記載のビデオ信号処理方法。
  9. 前記第2対応ブロックは、前記第2参照視点に関するグローバルモーションベクトルに基づいて獲得されることを特徴とする、請求項1に記載のビデオ信号処理方法。
  10. 前記モーション情報は、モーションベクトル及び参照ピクチャインデックスを含むことを特徴とする、請求項1に記載のビデオ信号処理方法。
  11. 前記デコーディング段階は、視点内方向の参照ピクチャを獲得する段階をさらに含むことを特徴とする、請求項10に記載のビデオ信号処理方法。
  12. 前記ビデオ信号は、放送信号を通して受信されることを特徴とする、請求項1に記載のビデオ信号処理方法。
  13. 前記ビデオ信号は、デジタル媒体を通して受信されることを特徴とする、請求項1に記載のビデオ信号処理方法。
  14. 請求項1に記載された方法を行うためのプログラムが記録されたコンピュータ可読記録媒体。
  15. 参照リストに含まれた第1参照視点内の第1対応ブロックのブロックタイプを獲得し、前記第1対応ブロックのブロックタイプがイントラブロックである場合、前記参照リストに含まれた第2参照視点内の第2対応ブロックのブロックタイプ及びモーション情報を獲得するモーション情報獲得部と、
    前記第2対応ブロックのブロックタイプがイントラブロックでない場合、前記第2対応ブロックのモーション情報を用いて現在のブロックをデコーディングするデコーディング部と、を含むことを特徴とするビデオ信号処理装置。
  16. 第1参照リスト及び第2参照リストのうち少なくとも一つの参照リストを再配列する段階と、
    ビットストリームから抽出した第1モーション情報または参照視点上の対応ブロックの第2モーション情報のうち一つのモーション情報を用いて、モーションベクトルを決定する段階と、
    前記ビットストリームから抽出したインターモーション情報または前記参照視点上の対応ブロックから抽出したイントラモーション情報のうち少なくとも一つのモーション情報を用いて、モーションベクトルを決定する段階と、
    前記モーションベクトルを用いて参照ブロックを獲得する段階と、
    前記参照ブロックを用いて現在のピクチャの現在のブロックをデコーディングする段階と、を含むことを特徴とするビデオ信号処理方法。
  17. 前記現在のピクチャがアンカーピクチャである場合、前記モーションベクトルは前記インターモーション情報のみを用いることを特徴とする、請求項16に記載のビデオ信号処理方法。
  18. 前記参照ブロックは、前記インターモーション情報と関連しており、前記現在のブロックと同一の時間及び異なる視点に存在することを特徴とする、請求項17に記載のビデオ信号処理方法。
  19. 第1参照リスト及び第2参照リストのうち少なくとも一つの参照リストを再配列し、ビットストリームから抽出した第1モーション情報または参照視点上の対応ブロックの第2モーション情報のうち一つのモーション情報を用いて、モーションベクトルを決定し、前記ビットストリームから抽出したインターモーション情報または前記参照視点上の対応ブロックから抽出したイントラモーション情報のうち少なくとも一つのモーション情報を用いて、モーションベクトルを決定するモーション情報獲得部と、
    前記モーションベクトルを用いて参照ブロックを獲得し、前記参照ブロックを用いて現在のピクチャの現在のブロックをデコーディングするデコーディング部と、を含むことを特徴とするビデオ信号処理装置。
JP2009547172A 2007-01-24 2008-01-24 ビデオ信号処理方法及び装置 Active JP5249242B2 (ja)

Applications Claiming Priority (11)

Application Number Priority Date Filing Date Title
US88635007P 2007-01-24 2007-01-24
US60/886,350 2007-01-24
US90958207P 2007-04-02 2007-04-02
US60/909,582 2007-04-02
US90796407P 2007-04-25 2007-04-25
US60/907,964 2007-04-25
US92469307P 2007-05-29 2007-05-29
US60/924,693 2007-05-29
US94797907P 2007-07-04 2007-07-04
US60/947,979 2007-07-04
PCT/KR2008/000444 WO2008091117A1 (en) 2007-01-24 2008-01-24 A method and an apparatus for processing a video signal

Publications (3)

Publication Number Publication Date
JP2010517409A true JP2010517409A (ja) 2010-05-20
JP2010517409A5 JP2010517409A5 (ja) 2011-03-10
JP5249242B2 JP5249242B2 (ja) 2013-07-31

Family

ID=39644660

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009547172A Active JP5249242B2 (ja) 2007-01-24 2008-01-24 ビデオ信号処理方法及び装置

Country Status (7)

Country Link
US (1) US8923399B2 (ja)
EP (1) EP2123042A4 (ja)
JP (1) JP5249242B2 (ja)
KR (1) KR20090113281A (ja)
CN (1) CN101647279A (ja)
TW (1) TWI355205B (ja)
WO (1) WO2008091117A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014501471A (ja) * 2011-03-14 2014-01-20 メディアテック インコーポレイテッド 動きベクトル候補及び動きベクトル予測候補の導出のための方法及び装置
JP2014505398A (ja) * 2010-12-14 2014-02-27 サムスン エレクトロニクス カンパニー リミテッド 多視点ビデオ符号化/復号化装置及び方法

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8854486B2 (en) * 2004-12-17 2014-10-07 Mitsubishi Electric Research Laboratories, Inc. Method and system for processing multiview videos for view synthesis using skip and direct modes
US8917775B2 (en) * 2007-05-02 2014-12-23 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding multi-view video data
KR101560182B1 (ko) * 2008-01-07 2015-10-15 삼성전자주식회사 다시점 비디오 부호화 방법과 그 장치 및 다시점 비디오 복호화 방법과 그 장치
US20090219985A1 (en) * 2008-02-28 2009-09-03 Vasanth Swaminathan Systems and Methods for Processing Multiple Projections of Video Data in a Single Video File
CN101901493B (zh) * 2010-06-21 2011-11-30 清华大学 基于压缩采样的多视点图像联合重构方法和系统
KR101484281B1 (ko) * 2010-07-09 2015-01-21 삼성전자주식회사 블록 병합을 이용한 비디오 부호화 방법 및 그 장치, 블록 병합을 이용한 비디오 복호화 방법 및 그 장치
SI2924995T1 (sl) 2010-07-09 2018-10-30 Samsung Electronics Co., Ltd. Postopek za dekodiranje videa z uporabo združevanja blokov
JP2012023652A (ja) * 2010-07-16 2012-02-02 Sony Corp 画像処理装置と画像処理方法
CA2807780C (en) * 2010-09-24 2018-09-18 Panasonic Corporation Image coding method, image decoding method, image coding apparatus, and image decoding apparatus
US8755437B2 (en) 2011-03-17 2014-06-17 Mediatek Inc. Method and apparatus for derivation of spatial motion vector candidate and motion vector prediction candidate
US9008170B2 (en) 2011-05-10 2015-04-14 Qualcomm Incorporated Offset type and coefficients signaling method for sample adaptive offset
CA2833032C (en) * 2011-06-15 2016-08-30 Mediatek Inc. Method and apparatus of texture image compression in 3d video coding
WO2013001749A1 (ja) * 2011-06-29 2013-01-03 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置および画像符号化復号装置
MX2014000159A (es) 2011-07-02 2014-02-19 Samsung Electronics Co Ltd Metodo y aparato para la codificacion de video, y metodo y aparato para la decodificacion de video acompañada por inter prediccion utilizando imagen co-localizada.
US9712819B2 (en) 2011-10-12 2017-07-18 Lg Electronics Inc. Image encoding method and image decoding method
US9357161B1 (en) * 2011-10-17 2016-05-31 Pixelworks, Inc. Motion vector interpolation for motion compensation
TWI505696B (zh) * 2011-11-08 2015-10-21 Samsung Electronics Co Ltd 解碼影像的方法
US9525861B2 (en) * 2012-03-14 2016-12-20 Qualcomm Incorporated Disparity vector prediction in video coding
US9445076B2 (en) * 2012-03-14 2016-09-13 Qualcomm Incorporated Disparity vector construction method for 3D-HEVC
WO2013144144A1 (en) * 2012-03-30 2013-10-03 Panasonic Corporation Syntax and semantics for adaptive loop filter and sample adaptive offset
WO2013158097A1 (en) 2012-04-19 2013-10-24 Intel Corporation 3d video coding including depth based disparity vector calibration
US9549180B2 (en) 2012-04-20 2017-01-17 Qualcomm Incorporated Disparity vector generation for inter-view prediction for video coding
US9952840B2 (en) * 2012-05-15 2018-04-24 International Business Machines Corporation Conditional sequential selection of external reference resolutions
US9998726B2 (en) 2012-06-20 2018-06-12 Nokia Technologies Oy Apparatus, a method and a computer program for video coding and decoding
AU2013285749B2 (en) * 2012-07-02 2016-06-16 Samsung Electronics Co., Ltd. Method and apparatus for predicting motion vector for coding video or decoding video
KR101966920B1 (ko) 2012-07-10 2019-04-08 삼성전자주식회사 다시점 영상의 시차 정보를 이용하여 영상의 움직임을 추정하는 방법 및 장치
US9357195B2 (en) * 2012-08-16 2016-05-31 Qualcomm Incorporated Inter-view predicted motion vector for 3D video
WO2014058210A1 (ko) 2012-10-08 2014-04-17 삼성전자 주식회사 다시점 비디오의 인터 레이어 예측 구조에 따른 비디오 스트림 부호화 방법 및 그 장치, 다시점 비디오의 인터 레이어 예측 구조에 따른 비디오 스트림 복호화 방법 및 그 장치
WO2014091933A1 (ja) * 2012-12-11 2014-06-19 ソニー株式会社 符号化装置および符号化方法、並びに、復号装置および復号方法
US9521389B2 (en) * 2013-03-06 2016-12-13 Qualcomm Incorporated Derived disparity vector in 3D video coding
US9667990B2 (en) 2013-05-31 2017-05-30 Qualcomm Incorporated Parallel derived disparity vector for 3D video coding with neighbor-based disparity vector derivation
WO2015006922A1 (en) * 2013-07-16 2015-01-22 Mediatek Singapore Pte. Ltd. Methods for residual prediction
WO2015006984A1 (en) * 2013-07-19 2015-01-22 Mediatek Singapore Pte. Ltd. Reference view selection for 3d video coding
KR20160072104A (ko) * 2013-10-18 2016-06-22 엘지전자 주식회사 멀티 뷰를 포함하는 비디오 부호화/복호화 방법 및 장치
WO2015100710A1 (en) * 2014-01-02 2015-07-09 Mediatek Singapore Pte. Ltd. Existence of inter-view reference picture and availability of 3dvc coding tools
DK3091741T3 (da) * 2014-01-02 2022-01-31 Intellectual Discovery Co Ltd Fremgangsmåde til afkodning af multi-visnings-video
CN110855992A (zh) 2014-01-03 2020-02-28 庆熙大学校产学协力团 导出子预测单元的时间点之间的运动信息的方法和装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005110113A (ja) * 2003-10-01 2005-04-21 Nec Corp 多視点画像伝送システムと方法、多視点画像圧縮装置と方法、多視点画像伸長装置と方法およびプログラム
JP2010516158A (ja) * 2007-01-11 2010-05-13 サムスン エレクトロニクス カンパニー リミテッド 多視点映像の符号化、復号化方法及び装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4015934B2 (ja) * 2002-04-18 2007-11-28 株式会社東芝 動画像符号化方法及び装置
CN1312927C (zh) * 2002-07-15 2007-04-25 株式会社日立制作所 动态图像编码方法及解码方法
US7489342B2 (en) 2004-12-17 2009-02-10 Mitsubishi Electric Research Laboratories, Inc. Method and system for managing reference pictures in multiview videos
US7286689B2 (en) 2003-06-07 2007-10-23 Hewlett-Packard Development Company, L.P. Motion estimation for compression of calibrated multi-view image sequences
US8854486B2 (en) * 2004-12-17 2014-10-07 Mitsubishi Electric Research Laboratories, Inc. Method and system for processing multiview videos for view synthesis using skip and direct modes
US7468745B2 (en) 2004-12-17 2008-12-23 Mitsubishi Electric Research Laboratories, Inc. Multiview video decomposition and encoding
KR101246915B1 (ko) * 2005-04-18 2013-03-25 삼성전자주식회사 동영상 부호화 또는 복호화 방법 및 장치
US8228994B2 (en) * 2005-05-20 2012-07-24 Microsoft Corporation Multi-view video coding based on temporal and view decomposition
KR101276720B1 (ko) * 2005-09-29 2013-06-19 삼성전자주식회사 카메라 파라미터를 이용하여 시차 벡터를 예측하는 방법,그 방법을 이용하여 다시점 영상을 부호화 및 복호화하는장치 및 이를 수행하기 위한 프로그램이 기록된 기록 매체
WO2007081177A1 (en) * 2006-01-12 2007-07-19 Lg Electronics Inc. Processing multiview video

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005110113A (ja) * 2003-10-01 2005-04-21 Nec Corp 多視点画像伝送システムと方法、多視点画像圧縮装置と方法、多視点画像伸長装置と方法およびプログラム
JP2010516158A (ja) * 2007-01-11 2010-05-13 サムスン エレクトロニクス カンパニー リミテッド 多視点映像の符号化、復号化方法及び装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JPN6012048220; Hak-Sup Song et al.: 'Macroblock Information Skip for MVC' Joint Video Team (JVT) of ISO/IEC MPEG & ITU-T VCEG (ISO/IEC JTC1/SC29/WG11 and ITU-T SG16 Q.6) JVT-V052, 20070119, pp.1-4, 22nd Meeting: Marrakech, Morocco *
JPN6012048221; Han-Suh Koo et al.: 'CE11: MVC Motion Skip Mode' Joint Video Team (JVT) of ISO/IEC MPEG & ITU-T VCEG (ISO/IEC JTC1/SC29/WG11 and ITU-T SG16 Q.6) JVT-V069, 20070119, pp.1-9, 22nd Meeting: Marrakech, Morocco *
JPN6012048222; Han-Suh Koo et al.: 'Motion Skip Mode for MVC' Joint Video Team (JVT) of ISO/IEC MPEG & ITU-T VCEG (ISO/IEC JTC1/SC29/WG11 and ITU-T SG16 Q.6) JVT-U091r1, 200610, pp.1-4, 21th Meeting: Hangzhou, China *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014505398A (ja) * 2010-12-14 2014-02-27 サムスン エレクトロニクス カンパニー リミテッド 多視点ビデオ符号化/復号化装置及び方法
JP2014501471A (ja) * 2011-03-14 2014-01-20 メディアテック インコーポレイテッド 動きベクトル候補及び動きベクトル予測候補の導出のための方法及び装置

Also Published As

Publication number Publication date
JP5249242B2 (ja) 2013-07-31
CN101647279A (zh) 2010-02-10
EP2123042A4 (en) 2010-03-10
US20100091858A1 (en) 2010-04-15
TW200845767A (en) 2008-11-16
TWI355205B (en) 2011-12-21
US8923399B2 (en) 2014-12-30
WO2008091117A1 (en) 2008-07-31
KR20090113281A (ko) 2009-10-29
EP2123042A1 (en) 2009-11-25

Similar Documents

Publication Publication Date Title
JP5249242B2 (ja) ビデオ信号処理方法及び装置
US10484712B2 (en) Implicit coding of reference line index used in intra prediction
US7970221B2 (en) Processing multiview video
KR101904625B1 (ko) 비디오 코딩에서 서브-디코딩된 픽처 버퍼 (서브-dpb) 기반의 dpb 동작들을 위한 시그널링
US9584823B2 (en) Determining motion vectors for motion vector prediction based on motion vector type in video coding
JP5021739B2 (ja) 信号処理方法及び装置
US20160065986A1 (en) Method and an apparatus for processing a video signal
JP2019519982A (ja) ビデオコーディングにおける適応ループフィルタ処理における複数のフィルタの混同
US20100098157A1 (en) method and an apparatus for processing a video signal
KR20080006494A (ko) 비디오 신호의 디코딩 방법 및 장치
KR101366289B1 (ko) 비디오 신호의 디코딩/인코딩 방법 및 장치
USRE44680E1 (en) Processing multiview video
CN117063471A (zh) 用于运动矢量差的联合信令方法
US20220272386A1 (en) Method and device for signaling information relating to slice type in picture header in image/video coding system
KR20230117614A (ko) 움직임 벡터 차이 제한 방법 및 디바이스
CN117203965A (zh) 调色板预测值生成和信号通知
CN118044182A (en) Method, apparatus and medium for video processing
CN117256146A (zh) 用于jmvd的基于双边匹配的缩放因子推导
KR20080029788A (ko) 비디오 신호의 디코딩 방법 및 장치
KR20080023210A (ko) 비디오 신호 디코딩 방법 및 장치

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110124

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120918

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130411

R150 Certificate of patent or registration of utility model

Ref document number: 5249242

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160419

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250