JP2011509631A - ビデオおよび奥行きの符号化 - Google Patents

ビデオおよび奥行きの符号化 Download PDF

Info

Publication number
JP2011509631A
JP2011509631A JP2010542207A JP2010542207A JP2011509631A JP 2011509631 A JP2011509631 A JP 2011509631A JP 2010542207 A JP2010542207 A JP 2010542207A JP 2010542207 A JP2010542207 A JP 2010542207A JP 2011509631 A JP2011509631 A JP 2011509631A
Authority
JP
Japan
Prior art keywords
encoded
motion vector
video information
information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010542207A
Other languages
English (en)
Inventor
パンディット,パーヴィン,ビバス
イン,ペン
ティアン,ドン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2011509631A publication Critical patent/JP2011509631A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Abstract

様々なインプリメンテーションが開示されている。いくつかのインプリメンテーションは、ビデオ、および奥行きの符号化に関する。1つの方法は、画像に対するビデオ情報の成分を選択することを含む。動きベクトルは、画像に対する選択されたビデオ情報に対してまたは奥行き情報に対して特定される(1010、1040)。選択されたビデオ情報は、特定された動きベクトルに基づいて、符号化される(1015)。奥行き情報は、特定された動きベクトル(1035)に基づいて、符号化される。インジケータが生成され、選択されたビデオ情報、および奥行き情報が特定された動きベクトル(1030、1050)に基づいて、符号化されたことを示す。集合的に符号化されたビデオ情報、符号化された奥行き情報、および生成されたインジケータを含む一つ以上のデータ構造が生成される(1065、1070)。

Description

本明細書には、コード体系に関する実施例が記載されている。さまざまな特定の実施例は、ビデオおよび奥行きの符号化に関する。
[関連出願]
本出願は、2008年1月11日に出願の「ビデオおよび奥行きの符号化」と題する米国仮出願番号第61/010823号の利益を享受する。そして、全ての目的に対し、この内容の全部は、本願明細書に引用され組み込まれたものとする。
[背景]
マルチビュービデオ符号化(MVC)は、例えば、自由な視点、および三次元の(3D)ビデオ・アプリケーション(家庭用娯楽機器、および監視)を含む多種多様なアプリケーションに貢献するする主要技術であると広く認識されている。奥行きデータは、各々のビューに関連づけられてもよい。奥行きデータはビューの合成に役立つ。そして、これは付加的なビューの作成である。
マルチビューアプリケーションにおいて、ビデオの量、および関係する奥行きデータは、巨大となり得る。かくして、例えば、奥行きデータを使用する現在の・ビデオ符号化技術の符号化効率の精密化、そして、独立のビューの同時放送を実行するのを支援するフレームワークの構築が必要とされる。
[概要]
一般の態様によれば、画像に対するビデオ情報の成分が選択される。動きベクトルが、選択されたビデオ情報に対し、または画像に対する奥行き情報に対して特定される。選択されたビデオ情報は、特定された動きベクトルに基づいて符号化される。奥行き情報は、特定された動きベクトルに基づいて符号化される。選択されたビデオ情報および奥行き情報が、特定された動きベクトルに基づいて、各々符号化されたことを示す、インジケータが生成される。符号化されたビデオ情報、符号化された奥行き情報、および生成されたインジケータを含む一つ以上のデータ構造が集合的に生成される。
他の一般の態様によれば、信号は、データ構造を含むようフォーマットされる。データ構造は、画像に対する符号化されたビデオ情報、画像に対する符号化された奥行き情報、およびインジケータを含む。インジケータは、符号化されたビデオ情報、および符号化された奥行き情報が、ビデオ情報に対し、または奥行き情報に対して特定された動きベクトルに基づいて符号化されたことを示す。
他の一般の態様によれば、画像のビデオ成分に対する符号化されたビデオ情報、画像に対する符号化された奥行き情報、および、符号化されたビデオ情報と符号化された奥行き情報とが、ビデオ情報に対し、または奥行き情報に対して特定された動きベクトルに基づいて符号化されたかを示すインジケータ、を含むデータが受信される。動きベクトルは、符号化されたビデオ情報、および符号化された奥行き情報を復号化するときに使用するために生成される。符号化されたビデオ情報は、画像のための復号化されたビデオ情報を生成するために、生成された動きベクトルに基づいて復号化される。そして、符号化された奥行き情報は、画像に対する復号化された奥行き情報を生成するために、生成された動きベクトルに基づいて復号化される。
一つ以上のインプリメンテーションの詳細は、添付の図面、および下記の説明に記載する。あるインプリメンテーションが1つの特定の方法に記載されている場合であっても、さまざまな方法によって構成されてもよく、実施されてもよいことは明らかである。例えば、インプリメンテーションは、方法として実行されてもよく、または装置(例えば、一組のオペレーションを実行するように構成された装置または一組のオペレーションを実行するための命令を記憶している装置)として実施されてもよい。あるいは信号に表現されてもよい。他の態様、および特徴は、添付の図面、および請求項に基づいて記載された以下の詳細な説明から明らかになる。
8つのビューを備えるマルチビュービデオ符号化システムの符号化構造のインプリメンテーションの図である。 3つのビューを有する奥行きコード体系を加えたマルチビュービデオの符号化構造のインプリメンテーションの図である。 ビューiの奥行きデータの予測のインプリメンテーションのブロック図である。 マルチビュー・ビデオコンテンツ、および奥行きを符号化するための符号化器のインプリメンテーションのブロック図である。 マルチビュー・ビデオコンテンツ、および奥行きを復号化するための復号化器のインプリメンテーションのブロック図である。 ビデオ送信機のインプリメンテーションのブロック図である。 ビデオ受信器のインプリメンテーションのブロック図である。 ビュー、および奥行きデータの順序付けのインプリメンテーションの図である。 ビュー、および奥行きデータの順序付けの他のインプリメンテーションの図である。 符号化プロセスのインプリメンテーションのフローチャートである。 符号化プロセスの他のインプリメンテーションのフローチャートである。 符号化プロセスのさらにもう一つのインプリメンテーションのフローチャートである。 復号化方法のインプリメンテーションのフローチャートである。 符号化プロセスの他のインプリメンテーションのフローチャートである。 符号化器の他のインプリメンテーションのブロック図である。 復号化方法の他のインプリメンテーションのフローチャートである。 復号化器の他のインプリメンテーションのブロック図である。
[詳細な説明]
少なくとも一つのインプリメンテーションにおいて、出願人は、マルチビュービデオに加えて奥行きのデータを符号化するフレームワークを提案する。加えて、出願人は、ビデオ、および奥行きデータを符号化するために、符号化効率を向上させるいくつかの方法を提案する。さらに、出願人は、奥行き信号が、他の奥行き信号の符号化だけでなく、ビデオ信号の符号化の効率を向上させるために使用し得るアプローチを解説する。
解決すべき多くの課題のうちの1つは、マルチビュー・ビデオシーケンスの効果的な符号化である。マルチビュー・ビデオシーケンスは、異なるビューの場所から同じ場面を撮った2つ以上のビデオシーケンスの一組である。マルチビュー・コンテンツの各々のビューに奥行きデータが関連づけられるため、一部分のマルチビュービデオ符号化アプリケーションのビデオおよび奥行きデータでも、その量は膨大なものとなり得る。かくして、奥行きデータを使用し、または独立ビューの同時放送を実行する現在のビデオ符号化の技術の符号化効率の向上に寄与するフレームワークの必要性が存在する。
マルチビュー・ビデオソースは同じ場面のマルチビューを含むため、通常は、マルチビューイメージ間の高い相関関係が存在する。したがって、ビュー冗長性は、時間的冗長性に加えて利用されてもよく、かつ異なるビューの間でのビュー予測を実行することによって利用される。
1つの実際的なシナリオにおいては、異質なカメラまたは完全に変調されていないカメラを使用し、多数のカメラを有するマルチビュー・ビデオシステムが作られている。多くのカメラを使用することは、復号化器の必要メモリが増大し、かつ複雑度も増加しうる。加えて、特定のアプリケーションは、一組のビューからいくつかのビューだけを復号化することを必要とする。その結果、出力のために必要とされないビューを完全に再構築することは必要ではない。
加えて、一部のビューは、奥行き情報だけを持っていてもよい。そして、関連づけられた奥行きデータを使用し、復号化器で合成される。奥行きデータは、また、中間的仮想ビューを生成するために使用されてもよい。
現在のH.264/AVCのマルチビュービデオ符号化拡張(以下「MVC仕様」)は、ビデオデータだけに対する符号化を規定している。MVC仕様は、符号化効率を向上するために、時間的、およびビュー間(inter−view)依存を利用する。8つのビューを備えるマルチビュービデオ符号化システムに対し、MVC仕様でサポートされる例示的な符号化構造100が、図1に示されている。図1の矢印は、従属構造を示す。矢印は、参照用ピクチャから、参照用ピクチャに基づいて符号化される画像へポインティングしている。異なるビュー間の予測構造を示すために、高レベルの構文(syntax)が送られる。この構文は、表1に示されている。表1は、特に、インプリメンテーションに従って、MVC仕様に基づいて設定されたシーケンス・パラメータを示す。
Figure 2011509631
更なる符号化効率を精密化するために、照度補償(illumination compensation)、およびモーション・スキップ・モードのようないくつかのツールが提案される。モーション・スキップ・ツールを以下に簡潔に説明する。
[マルチビュービデオ符号化のためのモーション・スキップ・モード]
モーション・スキップ・モードは、マルチビュービデオ符号化に対して符号化効率を精密化するために提案される。モーション・スキップ・モードは、少なくとも、動きの類似性が2つの隣接したビューの間に存在するというコンセプトに基づく。
モーション・スキップ・モードは、同じ時間的瞬間(時刻)の隣接したビューの対応するマクロブロックから直接に、動き情報を推定する。すなわち、例えば、マクロブロックタイプ、動きベクトル、参照インデックス(reference indices)を推定する。この方法は、二つのステージに分けることができる。例えば、第1のステージで対応するマクロブロックを検索し、第2のステージで動き情報を取り出す。この実施例の第1の段階において、大域的視差ベクトル(GDV:Global Disparity Vector)が、隣接したビューの画像の対応する位置を示すために使用される。この方法は、大域的視差ベクトルによって隣接したビューの対応するマクロブロックを設置する。大域的視差ベクトルは現在の画像、および隣接したビューの画像の間でマクロブロック・サイズのユニットにおいて測定されたものである。その結果、GDVはマクロブロック・サイズのユニットの大まかな(coarse)位置を示しているベクトルである。大域的視差ベクトルは、たとえばアンカー画像毎に、周期的に推定され復号化されてもよい。その場合、非アンカー画像の大域的視差ベクトルは、アンカー画像による最近の大域的視差ベクトルを使用して補間されてもよい。例えば、現在の画像cのGDVは、GDVc =w1*GDV1+w2*GDV2である。ここで、w1およびw2は、現在の画像から、アンカー画像1および画像2までの、それぞれの距離の逆数に基づくものである。第二のステージにおいて、動き情報は隣接したビューの画像の対応するマクロブロックから得られる。そして、その動き情報は現在のマクロブロックに適用するために複製される。
モーション・スキップ・モードは、現在のマクロブロックが、ジョイントマルチビュー・ビデオ・モデル(JMVM)において定義された、ベース・ビューに位置し、またはアンカー画像の画像に位置している場合、好ましくは、ディスエーブルとされる。なぜなら、隣接ビューからの画像は、インター予測方法のための他の方法に提示するために使用されるからである。すなわち、モーション・スキップ・モードについては、その動作の目的は、参照ビューから符号化モード/インター予測情報を借用することである。しかし、ベース・ビューは参照ビューを有しない。また、アンカー画像は、イントラ符号化されている。したがって、インター予測がなされていない。このため、これらのケースに対してMSMをディスエーブルにすることが、好ましい。
なお、JMVMではGDVsが送信される点に注意すべきである。
復号化器にモーション・スキップ・モードを使用することを通知するために、新規なフラグmotion_skip_flagが、例えば、マルチビュービデオ符号化のためのマクロブロック・レイヤー構文のヘッダに含まれる。もし、motion_skip_flagが付与されている場合、現在のマクロブロックは、隣接したビューの対応するマクロブロックから、マクロブロックタイプ、動きベクトル、および参照インデックスを得る。
[ビデオデータとは別個に奥行きデータを符号化することについて]
ジョイントビデオチーム(JVT)による作業における現在のマルチビュービデオ符号化仕様は、ビデオデータの符号化だけを規定している。その結果、奥行きを使用した中間のビュー(例えば、フリーな視点によるテレビ(FTV)、没入型のメディア(イマーシブメディア:immersive media)、および3Dテレコンファレンス)を生成することを必要とするアプリケーションは、完全にはサポートされていない。このフレームワークにおいては、再構築されたビューは、ビューの時間的予測に加えて、インタービュー(ビュー間)の参照として利用される。図1は、本発明の原理によるインプリメンテーションに従って、8つのビューを備えるマルチビュービデオ符号化システムに関する例示的な符号化構造100を示す。
少なくとも一つのインプリメンテーションにおいて、マルチビュービデオ符号化フレームワークにおいて奥行きを付け加えることを提案する。奥行き信号のためのフレームワークは、各々のビュービデオ信号に対して使用されるフレームワークに類似したものを使用してもよい。これは、奥行きをビデオデータの他の一組として扱い、かつビデオデータに対して使用されたツールと同一のセットを使用することによって実行することができる。図2は、本発明の原理のインプリメンテーションに従った3つのビューを有するマルチビュービデオと奥行きの符号化システム200とを示す(上から下に、二つの行において、第1のビューのビデオおよび奥行き、次の二つの行で、第2のビューのビデオおよび奥行き、最後の二つの行で、第3のビューのビデオおよび奥行きが示されている)。
実施例のフレームワークにおいて、ビデオ符号化ではなく奥行き符号化は、モーション・スキップ、およびビュー間予測に対する奥行きデータからの情報を使用する。この特定のインプリメンテーションをする意図は、ビデオ信号からそれぞれに奥行きデータを符号化することである。しかしながら、モーション・スキップ、およびビュー間予測は、それらがビデオ信号に適用されるのと類似した方式で、奥行き信号に適用されてもよい。符号化された奥行きデータの符号化効率を向上するために、ビューiデータの奥行きは、例えば、他のビューjの奥行きデータのビュー間予測および動き情報(モーション・スキップ・モード)、ビュー合成情報などのようなサイド情報ばかりでなく、ビューiに対応する関連するビデオデータからのこれらのサイド情報を使用することを提案する。図3は、ビューiの奥行きデータの予測300を示す。T0、T1、およびT2は、異なる時刻に対応する。たとえば、ビューiのビデオデータおよびビューjの奥行きデータから、ビューiの奥行きを予測する場合、同じ時刻から予測されることになるが、これは、単なる例示に過ぎない。他のシステムでは、いかなる時刻のデータを選択し使用してもよい。加えて、他のシステムおよびインプリメンテーションでは、ビューiの奥行きデータを、さまざまなビューおよび時刻からの奥行きデータおよび/またはビデオデータからの情報を組み合わせて予測してもよい。
ビューiに対する奥行きデータが、ビューiからのビデオデータに関連する、動き、モードおよび他の予測情報を使用しているか、他のビューjからのものを使用しているかを示すため、同様に構文要素を使用することを提案する。構文要素は、例えば、マクロブロック・レベルで信号として送られてもよく、かつ奥行きデータに帰属している現在のネットワーク抽象レイヤー(NAL)ユニットで条件化される。もちろん、本発明の原理の精神を維持する限り、この種の送信は他のレベルでなされてもよい。
インプリメンテーションに従って、表2は、モーション・スキップ・モードのためのマクロブロック・レイヤーの構文要素を示す。
Figure 2011509631
インプリメンテーションにおいて、例えば、表2において、depth_dataの構文は、以下のセマンティック(semantic)を有する:
depth_dataが0であることは、現在のマクロブロックが、現在のマクロブロックの動き予測に対する現在の奥行きデータに対応するビデオデータを使用しなければならないことを示す。
depth_dataが1であることは、現在のマクロブロックが、動き予測のための従属構造(dependency structure)に示される他のビューの奥行きデータに対応する奥行きデータを使用しなければならないことを示す。
加えて、奥行きデータ、およびビデオデータは、異なる解像度を有してもよい。一部のビューはサブサンプリングされたビデオデータを有してもよく、他のビューは、サブサンプリングされたそれらの奥行きデータ、またはそれらの両方を有してもよい。この場合、depth_dataフラグの解釈は参照用ピクチャの解像度に依存する。解像度が異なる場合においては、動き情報の抽出のためにH.264/AVCスタンダードにスケーラブルビデオ符号化(SVC)の拡張を使用したのと同じ方法を使用してもよい。SVCにおいて、拡張レイヤーの解像度がベースレイヤの解像度の整数倍である場合、符号化器は、まず始めに、同じ解像度のアップサンプリングによって、動き、およびモードで、インター・レイヤー予測の実行を行うことを選択する。そして、動き補償をする。
参照用ピクチャ(奥行きまたはビデオ)が符号化されている現在の奥行き画像より低い解像度を有する場合、符号化器はその参照用ピクチャから、動き、およびモードを実行しないよう選択してもよい。
奥行き情報を復号化器に送信するための幾つかの方法がある。これらの方法のいくつかは、例示として以下説明する。なお、本発明の原理を維持する限り、奥行き情報を復号化器に送信することは、以下の方法に限られることはなく、他の方法を使用することができる。
図4は、本発明の原理のインプリメンテーションに従って、例示的なマルチビュービデオ符号化(MVC)の符号化器400を示す。符号化器400において、コンバイナ405の出力は変換器410の入力に信号接続されている。変換器410の出力は、量子化器415の入力に信号接続されている。量子化器415の出力は、エントロピー符号化器420の入力、および逆量子化器425の入力に信号接続されている。逆量子化器425の出力は、逆変換器430の入力に信号接続されている。逆変換器430の出力は、コンバイナ435の第1の非反転入力に信号接続されている。コンバイナ435の出力は、イントラ予測手段445の入力、およびデブロッキングフィルタ450の入力に信号接続されている。デブロッキングフィルタ450の出力は、(ビューiに対する)参照用ピクチャ記憶装置455に信号接続されている。参照用ピクチャ記憶装置455の出力は、動き補償器475の第一入力、およびモーション推定器480の第一入力に信号接続されている。モーション推定器480の出力は、動き補償器475の第2の入力に信号接続されている。(他のビューに対する)参照用ピクチャ記憶装置460の出力は、差異/照度推定器470の第一入力、および差違/照度補償器465に信号接続されている。差異/照度推定器470の出力は、差異/照度補償器465の第2の入力に信号接続されている。
エントロピー符号化器420の出力は、符号化器400の出力として使われる。コンバイナ405の非反転入力は、符号化器400の入力として使われ、かつ差異/照度推定器470の第2の入力、およびモーション推定器480の第2の入力に信号接続されている。スイッチ485の出力は、コンバイナ435の第2の非反転入力およびコンバイナ405の反転入力端子に信号接続されている。スイッチ485は、動き補償器475の出力に信号接続されている第一入力と、差異/照度補償器465の出力に信号接続されている第2の入力と、イントラ予測手段445の出力信号接続されている第3入力とを有する。
モード決定モジュール440は、どの入力がスイッチ485によって選択されるかを制御するためのスイッチ485に接続された出力を有する。
図5は、本発明の原理のインプリメンテーションに従った例示的なマルチビュービデオ符号化(MVC)復号化器を示す。復号化器500において、エントロピー復号化器505の出力は逆量子化器510の入力に信号接続されている。逆量子化器の出力は、逆変換器515の入力に信号接続されている。逆変換器515の出力は、コンバイナ520の第1の非反転入力に信号接続されている。コンバイナ520の出力は、デブロッキングフィルタ525の入力、およびイントラ予測手段530の入力に信号接続されている。デブロッキングフィルタ525の出力は、(ビューiに対する)参照用ピクチャ記憶装置540の入力に信号接続されている。参照用ピクチャ記憶装置540の出力は、動き補償器535の第一入力に信号接続されている。
(他のビューに対する)参照用ピクチャ記憶装置545の出力は、差異/照度補償器550の第一入力に信号接続されている。残差ビットストリームを受信するために、エントロピー複号器505の入力は、復号化器500への入力として使われる。さらに、モード・モジュール560の入力は、スイッチ555に入力されるコントロール構文の受信を選択制御するための復号化器500への入力として利用される。更に、動きベクトルを受信するために、動き補償器535の第2の入力は、復号化器500の入力として使われる。また、差異/照度補償器550の第2の入力は、差異(disparity)ベクトル、および照度補償の構文を受信するために、復号化器500への入力として使われる。
スイッチ555の出力は、コンバイナ520の第2の非反転入力に信号接続されている。スイッチ555の第一入力は、差異/照度補償器550の出力に信号接続されている。スイッチ555の第2の入力は、動き補償器535の出力に信号接続されている。スイッチ555の第3入力は、イントラ予測手段530の出力に信号接続されている。モード・モジュール560の出力は、どの入力がスイッチ555によって選択されるかを制御するためのスイッチ555に信号接続されている。デブロッキングフィルタ525の出力は、復号化器の出力として使われる。
図6は、本発明の原理のインプリメンテーションに従ったビデオ伝送システム600を示す。ビデオ伝送システム600は、例えば、種々のメディア(例えば、衛星、ケーブル、電話線路または地上波による放送)のいずれかを用いる信号を送るためのヘッドエンド(head−end)または伝送システムであってもよい。伝送は、インターネットまたはその他のネットワークを通じて提供されてもよい。
ビデオ伝送システム600は、ビデオ、および奥行き情報を含むビデオコンテンツを生成し、かつ配信することが可能である。これは、ビデオおよび奥行き情報を含む符号化信号を生成することによって達成される。ビデオ伝送システム600は、符号化器610、および符号化信号を送信することが可能な送信機620を有する。符号化器610は、ビデオ情報、および奥行き情報を受信し、かつこれらの信号から、符号化信号を生成する。符号化器610は、例えば、上述した符号化器300であってもよい。
送信機620は、例えば、符号化された画像および/または情報を表す一つ以上のビットストリームを有するプログラム信号を送るのに適している。送信機の典型的な機能としては、例えば、誤り訂正符号化、信号データのインターリーブ、信号のエネルギーのランダム化、および一つ以上のキャリアに対する信号の変調が含まれる。送信機は、アンテナまたは、アンテナとのインターフェースを含んでもよい(図示せず)。
図7は、ビデオ受信側システム700のインプリメンテーションの図を示す。ビデオ受信システム700は、種々のメディア(例えば衛星、ケーブル、電話線路または地上波の放送)の信号を受信するように構成されてもよい。信号は、インターネットまたは一部の他のネットワークを通じて受信されてもよい。
ビデオ受信側システム700は、例えば、携帯電話、コンピュータ、セットトップボックス、テレビまたは他のデバイスであって、符号化されたビデオを受信しかつ復号化されたビデオをユーザに対して表示し、または記憶するものであればよい。したがって、例えば、ビデオ受信側システム700は、テレビのスクリーン、コンピュータ・モニタ、コンピュータ(記憶装置、処理装置または表示装置に対して)または一部の他の記憶装置処理またはディスプレイ装置に、のその出力を提供してもよい。
ビデオ受信側システム700は、ビデオ、および奥行き情報を含むビデオコンテンツの受信および処理が可能である。これは、ビデオ、および奥行き情報を含む符号化信号を受信することによって達成される。
ビデオ受信側システム700は、符号化信号を受信することが可能な受信器710(例えば本出願のインプリメンテーションに記載されている信号、および受信信号を復号化することが可能な復号化器720)を含む。
受信器710は、例えば、符号化された画像を表す複数のビットストリームを有するプログラム信号を受信するのに適していてもよい。典型的な受信器は、例えば変調されたかつ符号化されたデータ信号を受信し、そして、一つ以上のキャリアからデータ信号を復調し、そして、信号のエネルギーをデランダマイズし、信号のデータをデインターリーブし、かつ信号の誤り訂正と復号化する一つ以上の機能を実行する。受信器710は、アンテナ(図示せず)または、アンテナとのインターフェースを有してもよい。
復号化器720は、ビデオ情報、および奥行き情報を含むビデオ信号を出力する。復号化器720は、例えば、上述した復号化器400であってもよい。
[実施例1]
奥行きは、ビューのビデオデータiの後に関連づけられた奥行きデータが続くような形でビデオデータとインターリーブされる。図8は、ビューおよび奥行きデータの順序付け800を示す。この場合、1つのアクセスユニットは、与えられた時刻での全てのビューに対してビデオおよび奥行きデータを含むこととなる。ネットワーク抽象レイヤー・ユニットに対してビデオおよび奥行きデータを区別するために、例えば高レベルで、構文要素を付け加えることを提案する。そして、これはスライスがビデオまたは奥行きデータのいずれに帰属するかを示す。この高水準構文は、ネットワーク抽象レイヤー・ユニット・ヘッダ、スライス・ヘッダ、シーケンス・パラメータ・セット(SPS)、画像パラメータセット(PPS)、補足的強調情報(SEI:supplemental enhancement information)メッセージ、その他に存在してもよい。ネットワーク抽象レイヤー・ユニット・ヘッダに、この構文を付け加える一実施例を表3に示す。特に、インプリメンテーションに従って、表3は、MVC仕様のためのネットワーク抽象レイヤー・ユニット・ヘッダを示す。
Figure 2011509631
実施例において例えば、表2に対応する構文要素depth_flagは、以下のセマンティックを有してもよい
depth_flagが0であることは、ネットワーク抽象レイヤー・ユニットがビデオデータを含むことを示す。
depth_flagが1であることは、NALユニットが奥行きデータを含むことを示す。
他のインプリメンテーションは、符号化に関する他の標準に、または標準以外に対して適用されてもよい。インプリメンテーションは、ビデオおよび奥行きデータを組み立ててもよく、したがって、コンテンツの与えられたユニットに対し、奥行きデータはビデオデータに続くか、またはその逆でもよい。コンテンツのユニットは、例えば、与えられたビューからの一連の画像、与えられたビューからの単一の画像または与えられたビューからの画像のサブ画像の部分(例えばスライス、マクロブロックまたは下位マクロブロック部分)であってもよい。コンテンツのユニットは、例えば、与えられた時刻の全ての利用できるビューからの画像であってもよい。
[実施例2]
奥行きは、ビデオ信号から独立していてもよい。図9は、ビューおよび奥行きデータの他の順序付け900を示す。表2の提案された高レベル構文変化は、この場合に適用されてもよい。他のインプリメンテーションでは、奥行きデータ、およびビデオデータを別に送るが、奥行きデータがビデオデータを有するビットストリームの一部として送られる点に留意する必要がある。インターリーブは、ビデオ、および奥行きが各々の時刻に対してインターリーブされるようなものであってもよい。
奥行きがビデオデータとともにビットストリームの一部として送信されるため、実施例1および2は、奥行きデータのバンド内の伝送と捉えることができる。実施例2は、システムまたはアプリケーション層で結合され得る2つのストリーム(1つのビデオ、および1つの奥行き)を生成する。したがって実施例2は、ビデオおよび奥行きデータに対して、種々の異なる構成の複合ストリームを可能とする。2つの別々のストリームは異なって処理されもよい。更に、(ビデオデータのためのエラー訂正と比較して)奥行きデータが重要であるアプリケーションにおいて、例えば付加的なエラー訂正を奥行きデータに提供する。
[実施例3]
奥行きデータは、奥行きを使う能力をサポートしない特定のアプリケーションに対しては必要ではない。そのような場合、奥行きデータは、アウトオブバンドとされてもよい。これは、ビデオ、および奥行きデータが分離され、かついずれかの媒体で別々のチャネルを経由して送られることを意味する。奥行きデータは、この奥行きデータを使用してビュー合成を実行するアプリケーションに対してのみ必要である。その結果、奥行きデータがこの種のアプリケーションに対して受信器に到着しない場合であっても、アプリケーションは通常に機能してもよい。
例えば、奥行きデータが使用されたケースにおいて(FTV、およびイマーシブ(immersive)テレコンファレンスに制限されないが)、アプリケーションがタイムリな方法で奥行きデータを使用し得るように奥行きのデータの受信が保証されてもよい(これは、アウトオブバンドで送信される)。
[ビデオデータ成分としての奥行きデータの符号化]
ビデオ信号は、ビデオ符号化器に対する入力として、輝度、およびクロマ・データから構成されると見なせる。
第1の方式と異なり、奥行きマップをビデオ信号の付加的な成分と扱うことを提案する。入力として輝度およびクロマ・データに加えて奥行きマップを264/AVCに適応させることを提案する。本発明の原理の精神を維持する限りにおいて、このアプローチは、他の標準、ビデオ符号化器および/またはビデオ復号化器に適用されてもよいことは言うまでもない。特定のインプリメンテーションにおいて、ビデオ、および奥行きは、同じNALユニットにおいて存在する。
[実施例4]
クロマ成分と同様に、奥行きは、輝度成分以外の位置でサンプリングされてもよい。一実施例では、奥行きは、4:2:0、4:2:2および4:4:4でサンプリングされてもよい。H.264/AVCの4:4:4のプロファイルと同様に、奥行き成分はルマ/クロマ成分によってそれぞれに符号化されてもよく(独立モード)、またはルマ/クロマ成分と結合して符号化されてもよい(結合モード)。特徴を理解しやすくするために、一組のパラメータのシーケンスの変更態様が表4に示されている。表4は、特に、インプリメンテーションに従って、奥行きサンプリング・フォーマットを示すことが可能な、修正されたシーケンス・パラメータを示す。
Figure 2011509631
depth_format_idc構文要素のセマンティックは、以下の通りである。
depth_format_idcは、クロマ・サンプリング位置として、ルマサンプリングと関連して奥行きサンプリングを特定する。depth_format_idcの値は0〜3(0および3を含む)の範囲である。depth_format_idcがないときは、これは0に等しい(奥行きマップが示されていない)と推定される。SubWidthD、およびSubHeightDの変数は奥行きサンプリング・フォーマットに従い表5で示される。そして、それはdepth_format_idcによって特定される。
Figure 2011509631
本実施例において、depth_format_idc、およびchroma_format_idcは同じ値でなければならず、かつ3に等しくない。したがって、奥行き復号化はクロマ成分を復号化することと類似している。予測モードを含む符号化モード、参照リスト・インデックス、参照インデックス、および動きベクトルは、全てクロマ成分から得られる。構文coded_block_patternは、奥行き変換係数がどのように符号化されるかを示すために拡張されなければならない。1つの例は、以下の式を使用することである。
Figure 2011509631
CodedBlockPatternDepthの値が0であることは、全ての奥行き変換係数レベルが0に等しいことを意味する。CodedBlockPatternDepthの値が1であることは、一つ以上の奥行きDC変換係数レベルが非ゼロの値であり、すべての奥行きAC変換係数レベルはゼロの値でなければならないことを意味する。CodedBlockPatternDepthの値が2であることは、0個以上の奥行きDC変換係数レベルが非ゼロであり、かつ一つ以上の奥行きAC変換係数レベルが非ゼロであることを意味する。奥行き残差は、表6のように符号化される。
Figure 2011509631
[実施例5]
本実施例において、depth_format_idcは3に等しい。すなわち、奥行きは輝度と同じ位置でサンプリングされる。符号化モードを含む予測モード、参照リスト・インデックス、参照インデックス、および動きベクトルは、全て輝度成分から得られる。構文coded_block_patternは、実施例4と同様に拡張されてもよい。
[実施例6]
実施例4、および5において、動きベクトルは、ルマ成分またはクロマ成分のどちらにでもセットできる。動きベクトルが奥行きデータに基づいて精密化されれば、符号化効率は精密化され得る。動き精密化ベクトルは、表7に示すように転送される。精密化は、公知の技術のいずれかを使用して実行され得る。
Figure 2011509631
提案された構文のためのセマンティックは、以下の通りである:
depth_motion_refine_flagは、動き精密化が現在のマクロブロックに対して使用可かどうかを示す。この値が1であることは、ルマ成分から複製した動きベクトルが精密化されることを意味する。他の場合は、動きベクトルの精密化は実行されない。
depth_motion_refineが現在のマクロブロックに設定された場合、motion_refinement_list0_x、motion_refinement_list0_yがある場合は、これらは、LIST1動きベクトルが、送信された精密化ブロックに付け加えられることを示す。
depth_motion_refineが現在のマクロブロックに設定された場合、motion_refinement_list1_x、motion_refinement_list1_yがある場合は、これらは、LIST1動きベクトルが。送信された精密化ブロックに付け加えられることを示す。
表の部分のうち、説明を加えた部分は、イタリック体で表中に書かれていることに留意すべきである。
図10は、本発明の原理のインプリメンテーションに従って、ビデオ、および奥行き情報を符号化する方法1000を示す。ステップS1005(S1005の「S」はステップでありオペレーションを表す。したがって、ステップ1005と読む)において、ルマおよび/またはクロマと関連する奥行きサンプリングが、選択される。例えば、選択された奥行きサンプリングは、ルマサンプリング位置と同じかまたは異なってもよい。S1010で、動きベクトルMVが、ビデオ情報に基づいて生成される。S1015で、ビデオ情報が、動きベクトルMVを使用して符号化される。S1020で、MVを使用して、奥行き符号化のレートひずみコストRDが算出される。
S1040で、動きベクトルMVが、ビデオ情報に基づいて生成される。S1045で、MVを使用して、奥行き符号化のレートひずみコストRDが算出される。
S1025で、RDがRDより小さいかどうかが判断される。その場合は、制御はS1030に移る。それ以外の場合は、S1050に移る。
S1030で、depth_dataが0にセットされ、かつMVがMVにセットされる。S1050で、depth_dataは1にセットされ、かつMVはMVにセットされる。
「depth_data」はフラグと称してもよい。そして、どんな動きベクトルが使用されるかを示す。depth_dataが0に等しいことは、ビデオデータから動きベクトルを使用しなければならないことを意味する。すなわち、現在の奥行きデータに対応するビデオデータが、現在のマクロブロックの動き予測のために使用される。
depth_dataが1に等しいことは、奥行きデータから動きベクトルを使用しなければならないことを意味する。すなわち、動き予測の従属構造(dependency structure)に示されているように、他のビューの奥行きデータが現在のマクロブロックの動き予測に対して使用される。
S1035で、奥行き情報が、MV(depth_dataは、ビットストリームにカプセル化されている)を使用して符号化される。S1055で、奥行きがインバンドで送信されることになっているか否かが判断される。その場合は、制御はS1060に移る。他の場合は、制御はS1075に移る。
S1060で、奥行きがビデオ成分として扱われることになっているかが判断される。その場合は、制御はS1065に移る。他の場合は、制御はS1070に移る。
S1065で、データ構造がビデオおよび奥行き情報を含むよう生成される。奥行き情報を(例えば第4の)ビデオ成分として扱い(例えば、ビデオおよび奥行き情報をインターリーブすることによってビューの中で奥行きデータiをビューiのビデオデータに続くようにする)、そして、depth_dataがデータ構造に含まれるようにする。ビデオ、および奥行きは、マクロブロック・レベルに符号化される。
S1070で、データ構造がビデオおよび奥行き情報を含むよう生成される。奥行き情報がビデオ成分として扱われないようにし(例えば、ビデオ、および奥行き情報が各々の時刻に対してインターリーブされるように、ビデオ、および奥行き情報をインターリーブし)、depth_dataがデータ構造に含まれるようにする。
S1075で、データ構造がビデオ情報を含むよう生成され、奥行き情報をデータ構造と分離して送るために奥行き情報は排除される。depth_dataは、データ構造に含まれてもよく、あるいは別個の奥行きデータであってもよい。データ構造と称するにせよ称さないにせよ、ビデオ情報は、フォーマット化されたデータの任意タイプに含まれてよい点に留意すべきである。更に、他のデータ構造が、奥行き情報を含むために生成されてもよい。奥行きデータは、アウトオブバンドで送られてもよい。depth_dataは、ビデオデータに(例えば、ビデオデータを含むデータ構造の中に)および/または奥行きデータに(例えば、奥行きデータを含むデータ構造の中に)含まれてもよい点に留意すべきである。
図11は、本発明の原理のインプリメンテーションに従って、動きベクトル精密化(motion vector refinement)を有するビデオおよび奥行き情報を符号化する方法を示す。S1110で、動きベクトルMVが、ビデオ情報に基づいて生成される。S1115で、ビデオ情報は、MVを使用して(例えば、ビデオ情報と参照用ピクチャのビデオ情報との間の残差を特定することによって)符号化される。S1120で、奥行きを良好に符号化するために、MVは、MVに精密化される。動きベクトルを精密化する1つの例は、動きベクトルによって示されている領域周辺で、ローカライズされたサーチを行い、良好なマッチが見つかるかどうか判断することによって行える。
S1125で、精密化インジケータが生成される。S1130で、精密化された動きベクトルMVが符号化される。例えば、MVとMVとの差が計算されてもよく、かつ符号化されてもよい。
一実施例では、精密化インジケータは、マクロブロック・レイヤーでセットされたフラグである。表7は、この種のフラグがどのように送信されるかを提供するために適用されてもよい。表7は、奥行きが四番目の次元として扱われたインプリメンテーションを示すために、既に述べたものである。しかしながら、表7は、これとは異なり、かつより幅広い対象に使用されてもよい。この場合、表7が使用されてもよく、構文に対して以下のセマンティックが(表7のために提案した構文に対するセマンティックに代えて)使用されてもよい。更に、表7の再利用のためのセマンティックで、depth_motion_refine_flagが1にセットされた場合、符号化されたMVは、ビデオ信号からコピーしたものに対する精密化ベクトルとして表される。
表7の再利用のための、提案された構文間のセマンティックは、以下の通りである:
depth_motion_refine_flagは、動き精密化が現在のマクロブロックに対してイネーブルかどうかを示す。この値が1であることは、ビデオ信号から複製した動きベクトルが精密化されることを意味する。他の場合は、動きベクトルの精密化は実行されない。
depth_motion_refineが現在のマクロブロックに対してセットされている場合、motion_refinement_list0_x、motion_refinement_list0_yは、それが有るときには、LIST0動きベクトルが、送信された精密化ベクトルに付け加えられることを示す。
depth_motion_refineが現在のマクロブロックに対してセットされている場合、motion_refinement_list1_x、motion_refinement_list1_yは、それが有るときには、LIST1動きベクトルが、送信された精密化ベクトルに付け加えられることを示す。
上述した表の部分は、イタリック体で表に示されている点に留意すべきである。
S1135で、奥行き残差は、MV2を使用して符号化される。これは、S1115でビデオを符号化することに類似している。S1140で、データ構造は、精密化インジケータ(ビデオ情報および任意に奥行き情報)を含むよう生成される。
図12は、本発明の原理のインプリメンテーションに従って、動きベクトル精密化、および差分を有するビデオ、および奥行き情報を符号化する方法を示す。S1210で、動きベクトルMVがビデオ情報に基づいて生成される。S1215で、ビデオ情報がMVを使用して符号化される。S1220で、適切に奥行きを符号化するために、MVがMVに精密化される。S1225で、MV1がMV2に等しいか否かが判断される。その場合は、制御はS1230に移る。他の場合は、制御はS1255に移る。
S1230で、精密化インジケータは、0(false)にセットされる。
S1235で、精密化インジケータが符号化される。S1240で、精密化インジケータが(S1255に基づき)trueに設定された場合、動きベクトルの差が符号化される(MV2−MV1)。S1245で、奥行き残差がMV2を使用して符号化される。S1250で、データ構造が精密化インジケータ(ビデオ情報および任意に奥行き情報)を含むよう生成される。
S1255で、精密化インジケータが1(true)に設定される。
図13は、本発明の原理のインプリメンテーションに従って、ビデオおよび奥行き情報に対する復号化の方法を示す。S1302で、画像、画像に対する符号化された奥行き情報、およびdepth_dataインジケータ(この信号は、動きベクトルがビデオ情報か奥行き情報によって計算される場合に送られる)のビデオ成分の符号化されたビデオ情報を含む一つ以上のビットストリームが受信される。S1305で、画像のビデオ成分に対する符号化されたビデオ情報が抽出される。S1310で、画像に対する符号化された奥行き情報が、ビットストリームから抽出される。S1315で、depth_dataインジケータが解析される。S1320で、depth_dataが0に等しいか否かが判断される。その場合は、制御はS1325に移る。他の場合は、制御はS1340に移る。
S1325で、動きベクトルMVがビデオ情報に基づいて生成される。
S1330で、動きベクトルMVを使用してビデオ信号が復号化される。S1335で、奥行き信号が動きベクトルMVを使用して復号化される。S1345で、ビデオ、および奥行き情報を含む画像が出力される。
S1340で、動きベクトルMVが奥行き情報に基づいて生成される。
精密化した動きベクトルが奥行き情報を符号化するために使用された場合、S1335の前に、精密化情報が抽出され、かつ精密化されたMVが生成される点に留意すべきである。それからS1335で、精密化したMVが利用され得る。
図14に、方法1400が示されている。方法1400は、画像のためのビデオ情報の成分を選択するステップ(1410)を含む。成分は、例えば、輝度、クロミナンス、赤、緑または青であってもよい。
方法1400は、選択されたビデオ情報のための動きベクトルまたは、画像のための奥行き情報を特定することを含む(1420)。オペレーション1420は、例えば、図10のオペレーション1010、および1040に示されるように実行されてもよい。
特定された動きベクトルに基づいて、方法1400は、選択されたビデオ情報(1430)、および奥行き情報(1440)を符号化することを含む。オペレーション1430、および1440は、例えば、それぞれ、図10のオペレーション1015、および1035に示されているように、実行されてもよい。
方法1400は、選択されたビデオ情報および奥行き情報が、特定された動きベクトルに基づいて符号化されたことを示すインジケータを生成することを含む(1450)。オペレーション1450は、例えば、図10のオペレーション1030、および1050に記載されているように実行されてもよい。
方法1400は、符号化されたビデオ情報(符号化された奥行き情報)と、生成されたインジケータ(1460)とを集合的に含む、一つ以上のデータ構造を生成するステップを有する。オペレーション1460は、例えば、図10のオペレーション1065、および1070に記載されているように実行されてもよい。
図15を参照すると、装置1500(例えばH.264符号化器)が示されている。装置1500の構造、およびオペレーションの実施例が示されている。装置1500は、符号化されたビデオを受信するセレクタ1510を含む。セレクタ1510は、画像のためのビデオ情報の成分を選択し、かつ動きベクトル発生器1530、および符号化器1540に選択されたビデオ情報1520を提供する。セレクタ1510は、方法1400のオペレーション1410を実行してもよい。
動きベクトル発生器1530は、また、画像に対する奥行き情報を受信し、かつ選択されたビデオ情報1520に対してまたは奥行き情報に対して動きベクトルを特定する。動きベクトル・ジェネレータ1530は、例えば、図4の動き予測ブロック480に類似した方法で作動してもよい。動きベクトル発生器1530は、方法1400のオペレーション1420を実行してもよい。この動きベクトル発生器1530は、符号化器1540に動きベクトル1550を提供する。
符号化器1540は、また、画像に対する奥行き情報を受信する。符号化器1540は、特定された動きベクトルに基づいて選択されたビデオ情報を符号化し、かつ特定された動きベクトルに基づいて奥行き情報を符号化する。符号化器1540は、生成器1580に符号化されたビデオ情報1560、および符号化された奥行き情報1570を提供する。符号化器1540は、例えば、図4のブロック410−435、450、455、および475に類似した方法で作動してもよい。他のインプリメンテーションは、例えば、ビデオ、および奥行きを符号化するために別々の符号化器を使用してもよい。符号化器1540は、方法1400のオペレーション1430、および1440を実行してもよい。
生成器1580は、選択されたビデオ情報、および奥行き情報が、特定された動きベクトルに基づいて符号化されたことを示すインジケータを生成する。生成器1580は、また、符号化されたビデオ情報、符号化された奥行き情報、および生成されたインジケータを集合的に含む一つ以上の(出力1590として示された)データ構造を生成する。生成器1580は、例えば、図4の符号化器400のための出力ビットストリームを生成するエントロピー符号化ブロック420に類似した方法で作動してもよい。他のインプリメンテーションは、例えば、インジケータおよびデータ構造を生成するために、別々の生成器を使用してもよい。更に、インジケータは、例えば、動きベクトル発生器1530または符号化器1540によって生成されてもよい。生成器1580は、方法1400のオペレーション1450、および1460を実行してもよい。
図16を参照すると、方法1600が示されている。方法1600は、データを受信するステップを含む(1610)。データは、画像のビデオ成分に対する符号化されたビデオ情報、画像に対する符号化された奥行き情報およびインジケータを含む。インジケータは、符号化されたビデオ情報および符号化された奥行き情報が、ビデオ情報に対して、または奥行き情報に対して特定された動きベクトルに基づいて符号化されたことを示す。インジケータは、動きベクトル・ソース・インジケータと称してもよい。例えば、ソースは、ビデオ情報か奥行き情報である。オペレーション1610は、例えば、図13のオペレーション1302に示したように実行されてもよい。
方法1600は、符号化されたビデオ情報、および符号化された奥行き情報を復号化するための動きベクトルを生成することを含む(1620)。オペレーション1620は、例えば、図13のオペレーション1325および1340に示したように実行されてもよい。
方法1600は、生成された動きベクトルに基づいて符号化されたビデオ情報を復号化することを含む(1330)。そして、画像のための復号化されたビデオ情報を生成する(1630)。また、方法1600は、生成された動きベクトルに基づいて符号化された奥行き情報を復号化することを含む(1335)。そして、画像のための復号化された奥行き情報を生成する(1640)。オペレーション1630、および1640は、例えば、それぞれ、図13のオペレーション1330、および1335として示されているように実行されてもよい。
図17を参照すると、例えばH.264復号化器の装置1700が示されている。装置1700の構造、およびオペレーションの実施例が提供される。装置1700は、バッファ1710を含む。バッファ1710は、(1)画像のビデオ成分に対する符号化されたビデオ情報、(2)画像に対する符号化された奥行き情報、(3)符号化されたビデオ情報および符号化された奥行き情報がビデオ情報に対してまたは奥行き情報に対して特定された動きベクトルに基づいて符号化されたことを示すインジケータを含むデータを受信するように構成されている。バッファ1710は、例えば、図5の符号化された情報を受信するエントロピー復号化ブロック505に類似した方法で作動してもよい。バッファ1710は、方法1600のオペレーション1610を実行してもよい。
バッファ1710は、符号化されたビデオ情報1730、符号化された奥行き情報1740、およびインジケータ1750を、装置1700に含まれる動きベクトル発生器1760に提供する。動きベクトル発生器1760は、符号化されたビデオ情報および符号化された奥行き情報を復号化するために、動きベクトル1770を生成する。動きベクトル発生器1760は、種々の方法動きベクトル1770を生成してもよい。たとえば、前に受信されたビデオおよび/または奥行きデータに基づいて、または前に受信されたビデオおよび/または奥行きデータに対してすでに生成された動きベクトルを複製することによって、動きベクトル1770を生成することを含んでもよい点に留意すべきである。動きベクトル発生器1760は、方法1600のオペレーション1620を実行してもよい。動きベクトル発生器1760は、復号化器1780に動きベクトル1770を提供する。
復号化器1780は、また、符号化されたビデオ情報1730、および符号化された奥行き情報1740を受信する。復号化器1780は、画像のための復号化されたビデオ情報を提供するために生成された動きベクトル1770に基づいて符号化されたビデオ情報1730を復号化するように構成される。復号化器1780は、画像のために復号化された奥行き情報を生成するべく生成された動きベクトル1770に基づいて、符号化された奥行き情報1740を復号化するように更に構成される。復号化されたビデオ、および奥行き情報は、図17の出力1790として示される。出力1790は、種々の方法、およびデータ構造でフォーマット化されてもよい。更に、復号化ビデオ、および奥行き情報は、出力として提供される必要はなく、他のフォーマット(例えばスクリーンの表示に適しているフォーマット)に変換されてもよい。復号化器1780は、例えば、受信されたデータを復号化する図5のブロック510−525、535、および540に類似した方法で作動してもよい。復号化器1780は、方法1600のオペレーション1630および1640を実行してもよい。
以上のように、様々なインプリメンテーションが提供される。例えば、(1)奥行きデータの符号化に対する、ビデオデータの符号化からの使用情報、(2)ビデオデータの符号化に対する、奥行きデータの符号化からの使用情報、(3)ビデオのY、U、およびVに加えて第4次元の(または付加的な)または成分としての符号化された奥行きデータ、および/または、(4)ビデオデータと別個の信号としての、奥行きデータの符号化、が挙げられる。加えて、この種のインプリメンテーションは、マルチビュービデオ符号化フレームワークの、他の標準の技術、または標準(例えば勧告、その他)を含まない技術に対して使用されてもよい。
したがって特定の特徴、および態様を有する一つ以上のインプリメンテーションを提供している。なお、記載されているインプリメンテーションの特徴、および態様は、また、他のインプリメンテーションに適していてもよい。インプリメンテーションにおいては、送信情報として、様々な技術が利用できる、たとえば、SEIメッセージ、他の高水準構文、非高水準構文、アウトオブバンドの情報、データストリームのデータ、および潜在的なシグナリングを含むが、これに限らず種々の技術を使用している信号情報が含まれる。したがって、本願明細書において記載されているインプリメンテーションが特定の実施例に付随して記載されていても、特徴、およびコンセプトをこの種のインプリメンテーションまたは実施例に制限するようにこの種の説明を理解してはならない。
加えて、多くのインプリメンテーションは、符号化器、および復号化器のいずれかまたは両方にインプリメントされてもよい。
本発明の原理に係る、「一実施例」または「実施例」または「1つのインプリメンテーション」または「インプリメンテーション」の用語は、本発明の、原理の少なくとも一つが実施例に含まれることを意味する。したがって、「実施例において」、「一つの実施例において」または「一つのインプリメンテーションにおいて」または「インプリメンテーションにおいて」という用語は、明細書の全体にわたるさまざまな場所に現れる全てが、同じ実施例に必ずしも関連しているというわけではない。
「/」、「および/または」「少なくとも1つの」、という用語、たとえば、「A/B」、「Aおよび/またはB」「AおよびDのうち少なくとも1つの」は、第1の選択肢A、第2の選択肢B、または、AおよびBの両方のいずれかを意味することは言うまでもない。更なる例としては、「A、Bおよび/またはC」という言葉の意味は、Aのみ、Bのみ、Cのみ、AおよびB、BおよびC、AおよびC、またはA、BおよびCのいずれかを意味する。これは、さらに、多くの選択肢を使用した表現に拡張できる。
例えば、本願明細書において記載されているインプリメンテーションは、方法、装置またはソフトウェアプログラムでインプリメントされてもよい。インプリメンテーションが、例えば、方法だけとして説明されている単一のカテゴリの文脈でされているだけの場合であっても、説明された特徴のインプリメンテーションは、また、他の形式、例えば装置またはプログラムでインプリメントされてもよい。例えば、装置は、適切なハードウェア、ソフトウェア、およびファームウェアによってインプリメントされてもよい。
方法は例えば装置(例えばプロセッサ)によってインプリメントされてもよい。そして、それは一般の処理デバイスに関連する。そして、例えば、コンピュータ、マイクロプロセッサ、集積回路またはプログラマブル・ロジック・デバイスを含む。プロセッサは、通信装置、例えばコンピュータ、携帯電話、ポータブル/パーソナル携帯情報機器(PDA)を有し、エンドユーザ間の情報の通信を容易にする他のデバイスを含む。
本願明細書において記載されているさまざまな方法、および特徴のインプリメンテーションは種々の異なる器材に表現されてもよい、または、アプリケーション、特に、例えば器材またはアプリケーションはデータの符号化、および復号化に関連する。装置の例としては、ビデオ・符号化器、ビデオ復号化器、ビデオ・コーデック、ウェブ・サーバ、セットトップボックス、ラップトップ、パソコン、携帯電話、PDA、その他の通信装置を含む。器材には、モバイル装置が含まれ、あるいはモバイル装置にインストールされてもよい。
加えて、方法はプロセッサによって実行される命令によってインプリメントされてもよい。そして、例えば、この種の命令(および/またはインプリメンテーションによって生成されたデータ値)は集積回路、ソフトウェア・キャリアまたは例えば他の記憶装置(例えばハードディスク、コンパクト・ディスケット、ランダムアクセスメモリ((RAM)または読取り専用メモリ(ROM))のようなプロセッサ可読な媒体に記憶されてもよい。命令は、プロセッサ可読な媒体に明白に記憶されたアプリケーションプログラムを形成してもよい。命令は、例えば、ハードウェア、ファームウェア、ソフトウェアまたはこれらの組合せであってもよい。例えば、命令は、オペレーティングシステム、個別のアプリケーションまたは両者の組合せであってもよい。例えば、プロセッサは、したがって、方法を実行するように構成されたデバイス、および方法を実行する命令を有するプロセッサ可読媒体を含むデバイスとして特徴付けられてもよい。
当業者に明らかなように、インプリメンテーションは、例えば、記憶されまたは送信されてもよい情報を伝送するためのフォーマット化された種々の信号を生成してもよい。情報は、例えば、方法を実行するための命令、または記載されているインプリメンテーションのうちの1つによって生成されたデータを含んでもよい。例えば、信号は、実施例の構文を書き込むかまたは読み込むことに対する規則のデータとしてフォーマット化されてもよく、あるいは、記載されている実施例によって書かれた実際の構文の値であってもよい。この種の信号は、例えば、(無線周波数の部分のスペクトルを使用する)電磁波として、またはベースバンド信号としてフォーマット化されてもよい。フォーマッティングは、例えば、データ列を符号化し、かつ符号化されたデータ列を有するキャリアを変調することを含んでもよい。信号が伝送する情報は、例えば、アナログまたはデジタル情報であってもよい。周知のように、信号は、有線あるいは無線の種々の異なるリンクを通じて送られてもよい。
多くのインプリメンテーションを述べた。もちろん、さまざまな修正がなされてもよいことが理解される。例えば、異なるインプリメンテーションの要素は、結合されてもよく、補充されてもよく、修正されてもよく、または、他のインプリメンテーションを生成するために取り除かれてもよい。加えて、当業者であれば、他の方法が開示されたそれらに対して代替されてもよいことを理解するであろう。この場合、少なくとも実質的に同じ方法で、結果として生じるインプリメンテーションは実質的に少なくとも同じ機能を実行し、インプリメンテーションが開示したように、実質的に少なくとも同じ結果を達成する。したがって、これら、および他のインプリメンテーションは、本出願によって考察され、かつ以下の請求項の範囲内である。

Claims (36)

  1. 画像に対するビデオ情報の成分を選択するステップと;
    前記画像に対する、前記選択されたビデオ情報の、または奥行き情報の動きベクトルを特定するステップと;
    前記特定された動きベクトルに基づいて、前記選択されたビデオ情報を符号化するステップと;
    前記特定された動きベクトルに基づいて、前記奥行き情報を符号化するステップと;
    前記選択されたビデオ情報、および前記奥行き情報が前記特定された動きベクトルに基づいて、符号化されたことを示すインジケータを生成するステップと;
    前記符号化されたビデオ情報、前記符号化された奥行き情報、および前記生成されたインジケータを集合的に含む一つ以上のデータ構造を生成するステップと;
    を有する方法。
  2. 前記特定された動きベクトルに基づいて、前記選択されたビデオ情報を符号化するステップは、前記選択されたビデオ情報と参照されたビデオ画像のビデオ情報との間の残差を特定するステップであって、前記参照ビデオ画像の前記ビデオ情報は、前記特定された動きベクトルによって示されているところのステップを有し、
    前記特定された動きベクトルに基づいて、前記奥行き情報を符号化するステップは、前記奥行き情報と参照奥行き画像の奥行き情報との間の残差を特定するステップであって、前記参照奥行き画像の奥行き情報は、前記特定された動きベクトルによって示されるところのステップを有する、
    請求項1記載の方法。
  3. 前記動きベクトルを特定するステップは、前記選択されたビデオ情報の前記動きベクトルを特定するステップを有し、
    前記特定された動きベクトルに基づいて、前記選択されたビデオ情報を符号化するステップは、前記選択されたビデオ情報と参照ビデオ画像のビデオ情報との間の残差を特定するステップであって、前記参照ビデオ画像の前記ビデオ情報は前記特定された動きベクトルによって示されるところのステップを有し、かつ
    前記特定された動きベクトルに基づいて、前記奥行き情報を符号化するステップは、
    精密化した動きベクトルを生成するために前記特定された動きベクトルを精密化するステップと;
    前記奥行き情報と参照奥行き画像の前記奥行き情報との間の残差を特定するステップであって、参照奥行き画像の前記奥行き情報は、前記精密化した動きベクトルによって示されているところのステップと;
    を含む、
    請求項1記載の方法。
  4. 前記特定された動きベクトルと前記精密化された動きベクトルとの差違を示す精密化インジケータを生成するステップと;
    前記精密化インジケータを前記生成されたデータ構造に含めるステップと;
    を更に有する請求項3記載の方法。
  5. 前記画像は、フレームのマクロブロックである、請求項1記載の方法。
  6. 前記画像の特定のスライスが前記選択されたビデオ情報または前記奥行き情報に帰属する指示を生成するステップを更に有し、
    前記データ構造は、前記特定のスライスに対する前記生成された指示を更に含む、
    請求項1記載の方法。
  7. 前記指示は、少なくとも一つの高水準構文を使用して提供される、請求項6記載の方法。
  8. 前記画像はマルチビュー・ビデオコンテンツに対応し、かつ前記画像の与えられたビューの前記奥行き情報が前記画像の前記与えられたビューの前記選択されたビデオ情報に続くように、前記データ構造は、前記画像の、前記奥行き情報および前記与えられたビューの前記選択されたビデオ情報をインターリーブすることによって生成される、請求項1記載の方法。
  9. 前記画像はマルチビュー・ビデオコンテンツに対応し、かつ前記データ構造は、前記画像の与えられた時刻での与えられたビューの、前記奥行き情報および前記選択されたビデオ情報をインターリーブすることによって生成され、前記画像の前記与えられた時刻での、インターリーブされた奥行き情報および前記与えられたビューの前記選択されたビデオ情報は、前記画像の前記与えられた時刻での他のビューの、インターリーブされた奥行き情報および選択されたビデオ情報に先行するようにされる、請求項1記載の方法。
  10. 前記画像はマルチビュー・ビデオコンテンツに対応し、かつ前記奥行き情報および前記選択されたビデオ情報が各々の時刻に対してビュー毎にインターリーブされるように、前記データ構造は、前記奥行き情報および前記選択されたビデオ情報をインターリーブすることによって生成される、請求項1記載の方法。
  11. 前記画像はマルチビュー・ビデオコンテンツに対応し、かつマルチビューに対する奥行き情報およびマルチビューに対する選択されたビデオ情報が各々の時刻に対してインターリーブされるように、前記データ構造は前記奥行き情報、および前記選択されたビデオ情報をインターリーブすることによって生成される、請求項1記載の方法。
  12. 前記データ構造は、前記選択されたビデオ情報の付加的な成分として前記奥行き情報を配置することによって生成され、前記選択されたビデオ情報が少なくとも一つのルマ成分、および少なくとも一つのクロマ成分を更に含む、請求項1記載の方法。
  13. 前記奥行き情報、およびビデオ情報の前記選択された成分に対して同じサンプリングが使用される、請求項1記載の方法。
  14. ビデオ情報の前記選択された成分は、輝度成分または色成分である、請求項13記載の方法。
  15. 当該方法は、符号化器によって実行される、請求項1記載の方法。
  16. 画像に対するビデオ情報の成分を選択するための手段と;
    前記画像に対する、前記選択されたビデオ情報の、または奥行き情報の、動きベクトルを特定するための手段と;
    前記特定された動きベクトルに基づいて、前記選択されたビデオ情報を符号化するための手段と;
    前記特定された動きベクトルに基づいて、前記奥行き情報を符号化するための手段と;
    前記特定された動きベクトルに基づいて、前記選択されたビデオ情報、および前記奥行き情報が符号化されたことを示すインジケータを生成する手段と;
    前記符号化されたビデオ情報、前記符号化された奥行き情報、および前記生成されたインジケータを集合的に含む一つ以上のデータ構造を生成するための手段と;
    を有する装置。
  17. 画像に対するビデオ情報の成分を選択するための手順と;
    前記画像に対する、前記選択されたビデオ情報の、または奥行き情報の、動きベクトルを特定するための手順と;
    前記特定された動きベクトルに基づいて、前記選択されたビデオ情報を符号化するための手順と;
    前記特定された動きベクトルに基づいて、前記奥行き情報を符号化するための手順と;
    前記特定された動きベクトルに基づいて、前記選択されたビデオ情報、および前記奥行き情報が符号化されたことを示すインジケータを生成する手順と;
    前記符号化されたビデオ情報、前記符号化された奥行き情報、および前記生成されたインジケータを集合的に含む一つ以上のデータ構造を生成するための手順と;
    を含む命令をコンピュータに実行させるプログラム。
  18. 画像に対するビデオ情報の成分を選択するための手順と;
    前記画像に対する、前記選択されたビデオ情報の、または奥行き情報の、動きベクトルを特定するための手順と;
    前記特定された動きベクトルに基づいて、前記選択されたビデオ情報を符号化するための手順と;
    前記特定された動きベクトルに基づいて、前記奥行き情報を符号化するための手順と;
    前記特定された動きベクトルに基づいて、前記選択されたビデオ情報、および前記奥行き情報が符号化されたことを示すインジケータを生成する手順と;
    前記符号化されたビデオ情報、前記符号化された奥行き情報、および前記生成されたインジケータを集合的に含む一つ以上のデータ構造を生成するための手順と;
    を少なくとも実行するように構成されたプロセッサを有する装置。
  19. 画像に対するビデオ情報の成分を選択するためのセレクタと;
    前記画像に対する、前記選択されたビデオ情報の、または奥行き情報の、動きベクトルを特定するための動きベクトル発生器と;
    前記特定された動きベクトルに基づいて、前記選択されたビデオ情報を符号化するための、および、前記特定された動きベクトルに基づいて、前記奥行き情報を符号化するための符号化器と;
    前記特定された動きベクトルに基づいて、前記選択されたビデオ情報、および前記奥行き情報が符号化されたことを示すインジケータを生成するための、並びに、前記符号化されたビデオ情報、前記符号化された奥行き情報、および前記生成されたインジケータを集合的に含む一つ以上のデータ構造を生成するための生成器と;
    を有する装置。
  20. 前記セレクタと、前記動きベクトル発生器と、前記符号化器と、前記生成器とを含む符号化器を有する、請求項19記載の装置。
  21. 画像に対する符号化されたビデオ情報と、前記画像に対する符号化された奥行き情報と、前記符号化されたビデオ情報および前記符号化された奥行き情報が前記ビデオ情報に対してまたは前記奥行き情報に対して特定された動きベクトルに基づいて符号化されていることを示すインジケータとを含むデータ構造を含むフォーマット化された信号。
  22. 画像に対する符号化されたビデオ情報と、前記画像に対する符号化された奥行き情報と、前記符号化されたビデオ情報および前記符号化された奥行き情報が前記ビデオ情報に対してまたは前記奥行き情報に対して特定された動きベクトルに基づいて符号化されていることを示すインジケータとを含むデータ構造を記憶した、プロセッサ読み取り可能な媒体。
  23. 画像に対する符号化されたビデオ情報と、前記画像に対する符号化された奥行き情報と、前記符号化されたビデオ情報および前記符号化された奥行き情報が前記ビデオ情報に対してまたは前記奥行き情報に対して特定された動きベクトルに基づいて符号化されていることを示すインジケータとを含むデータを受信するステップと;
    前記符号化されたビデオ情報、および前記符号化された奥行き情報を復号化するのに用いられる前記動きベクトルを生成するステップと;
    画像に対する復号化されたビデオ情報を生成するために、前記生成された動きベクトルに基づいて、前記符号化されたビデオ情報を復号化するステップと;
    画像に対する復号化された奥行き情報を生成するために、前記生成された動きベクトルに基づいて、前記符号化された奥行き情報を復号化するステップと;
    を有する方法。
  24. 前記復号化されたビデオ情報および前記復号化された奥行き情報を含むデータ構造を生成するステップと;
    少なくとも一つの復号化のために、前記データ構造を記憶するステップと;
    少なくとも一部の前記画像を表示するステップと;
    を更に有する請求項23記載の方法。
  25. 受信されたデータ構造内において、前記画像の特定のスライスが前記符号化されたビデオ情報または前記符号化された奥行き情報に帰属することを示す、指示を受信するステップ
    を更に有する請求項23記載の方法。
  26. 前記指示は、少なくとも一つの高水準構文を使用して提供される、請求項25記載の方法。
  27. 前記受信されたデータは、前記画像に付加されたビデオ成分として配置された前記符号化された奥行き情報と共に受信される、請求項23記載の方法。
  28. 当該方法は、復号化器によって実行される、請求項23記載の方法。
  29. 画像に対する符号化されたビデオ情報と、前記画像に対する符号化された奥行き情報と、前記符号化されたビデオ情報および前記符号化された奥行き情報が前記ビデオ情報に対してまたは前記奥行き情報に対して特定された動きベクトルに基づいて符号化されていることを示すインジケータとを含むデータを受信する手段と;
    前記符号化されたビデオ情報、および前記符号化された奥行き情報を復号化するのに用いられる前記動きベクトルを生成する手段と;
    画像に対する復号化されたビデオ情報を生成するために、前記生成された動きベクトルに基づいて、前記符号化されたビデオ情報を復号化する手段と;
    画像に対する復号化された奥行き情報を生成するために、前記生成された動きベクトルに基づいて、前記符号化された奥行き情報を復号化する手段と;
    を有する装置。
  30. 画像に対する符号化されたビデオ情報と、前記画像に対する符号化された奥行き情報と、前記符号化されたビデオ情報および前記符号化された奥行き情報が前記ビデオ情報に対してまたは前記奥行き情報に対して特定された動きベクトルに基づいて符号化されていることを示すインジケータとを含むデータを受信する手順と;
    前記符号化されたビデオ情報、および前記符号化された奥行き情報を復号化するのに用いられる前記動きベクトルを生成する手順と;
    画像に対する復号化されたビデオ情報を生成するために、前記生成された動きベクトルに基づいて、前記符号化されたビデオ情報を復号化する手順と;
    画像に対する復号化された奥行き情報を生成するために、前記生成された動きベクトルに基づいて、前記符号化された奥行き情報を復号化する手順と;
    をコンピュータに実行させるための命令を含むプログラム。
  31. 画像に対する符号化されたビデオ情報と、前記画像に対する符号化された奥行き情報と、前記符号化されたビデオ情報および前記符号化された奥行き情報が前記ビデオ情報に対してまたは前記奥行き情報に対して特定された動きベクトルに基づいて符号化されていることを示すインジケータとを含むデータ構造を受信する手順と;
    前記符号化されたビデオ情報、および前記符号化された奥行き情報を復号化するのに用いられる前記動きベクトルを生成する手順と;
    画像に対する復号化されたビデオ情報を生成するために、前記生成された動きベクトルに基づいて、前記符号化されたビデオ情報を復号化する手順と;
    画像に対する復号化された奥行き情報を生成するために、前記生成された動きベクトルに基づいて、前記符号化された奥行き情報を復号化する手順と;
    を少なくとも実行するために構成されたプロセッサを有する装置。
  32. 画像に対する符号化されたビデオ情報と、前記画像に対する符号化された奥行き情報と、前記符号化されたビデオ情報および前記符号化された奥行き情報が前記ビデオ情報に対してまたは前記奥行き情報に対して特定された動きベクトルに基づいて符号化されていることを示すインジケータとを含むデータを受信するためのバッファと;
    前記符号化されたビデオ情報、および前記符号化された奥行き情報を復号化するのに用いられる前記動きベクトルを生成するための動きベクトル生成器と;
    画像に対する復号化されたビデオ情報を生成するために、前記生成された動きベクトルに基づいて、前記符号化されたビデオ情報を復号化するための、および、画像に対する復号化された奥行き情報を生成するために、前記生成された動きベクトルに基づいて、前記符号化された奥行き情報を復号化するための、復号化器と;
    を有する装置。
  33. 前記復号化されたビデオ情報、および前記復号化された奥行き情報を含むデータ構造を生成するためのアセンブラ、を有する請求項32記載の装置。
  34. 前記バッファ、前記動きベクトル発生器、および前記復号化器を含む復号化器、を有する請求項32記載の装置。
  35. 画像に対する符号化されたビデオ情報と、前記画像に対する符号化された奥行き情報と、前記符号化されたビデオ情報および前記符号化された奥行き情報が前記ビデオ情報に対してまたは前記奥行き情報に対して特定された動きベクトルに基づいて符号化されていることを示すインジケータとを含む信号を受信しかつ復調するように構成された復調器と;
    復号化器であって:
    前記符号化されたビデオ情報、および前記符号化された奥行き情報の両者を復号化するために使用する前記動きベクトルを生成し;
    前記画像に対する復号化されたビデオ情報を生成するために、前記生成された動きベクトルに基づいて、前記符号化されたビデオ情報を復号化し;かつ
    復号化された奥行き情報を生成するために、前記生成された動きベクトルに基づいて、前記画像に対する前記符号化された奥行き情報を復号化する;
    ことを少なくとも実行するように構成された復号化器と;
    を有する装置。
  36. 符号化器であって:
    画像に対するビデオ情報の成分を選択し、
    前記画像に対する、前記選択されたビデオ情報の、または奥行き情報の、動きベクトルを特定し、
    前記特定された動きベクトルに基づいて、前記選択されたビデオ情報を符号化し、
    前記特定された動きベクトルに基づいて、前記奥行き情報を符号化し、
    前記選択されたビデオ情報および前記奥行き情報が、前記特定された動きベクトルに基づいて、符号化されたことを示すインジケータを生成し、かつ
    前記符号化されたビデオ情報、前記符号化された奥行き情報、および前記生成されたインジケータを集合的に含む、一つ以上のデータ構造を生成する、
    ことを実行する符号化器と;
    前記データ構造を変調し、かつ送信するように構成された変調器と;
    を有する装置。
JP2010542207A 2008-01-11 2008-12-18 ビデオおよび奥行きの符号化 Pending JP2011509631A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US1082308P 2008-01-11 2008-01-11
PCT/US2008/013822 WO2009091383A2 (en) 2008-01-11 2008-12-18 Video and depth coding

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013173023A Division JP2014003682A (ja) 2008-01-11 2013-08-23 ビデオおよび奥行きの符号化

Publications (1)

Publication Number Publication Date
JP2011509631A true JP2011509631A (ja) 2011-03-24

Family

ID=40756396

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2010542207A Pending JP2011509631A (ja) 2008-01-11 2008-12-18 ビデオおよび奥行きの符号化
JP2013173023A Pending JP2014003682A (ja) 2008-01-11 2013-08-23 ビデオおよび奥行きの符号化

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2013173023A Pending JP2014003682A (ja) 2008-01-11 2013-08-23 ビデオおよび奥行きの符号化

Country Status (7)

Country Link
US (1) US20100284466A1 (ja)
EP (1) EP2232875A2 (ja)
JP (2) JP2011509631A (ja)
KR (1) KR20100105877A (ja)
CN (1) CN101911700A (ja)
BR (1) BRPI0821500A2 (ja)
WO (1) WO2009091383A2 (ja)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012147621A1 (ja) * 2011-04-28 2012-11-01 ソニー株式会社 符号化装置および符号化方法、並びに、復号装置および復号方法
WO2012147622A1 (ja) * 2011-04-28 2012-11-01 ソニー株式会社 画像処理装置、及び、画像処理方法
JP2013528023A (ja) * 2010-04-13 2013-07-04 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン 平面間予測
WO2013157439A1 (ja) * 2012-04-17 2013-10-24 ソニー株式会社 復号装置および復号方法、並びに、符号化装置および符号化方法
JP2014524707A (ja) * 2011-08-11 2014-09-22 クゥアルコム・インコーポレイテッド 非対称な空間解像度を持つ3次元ビデオ
JP2014526194A (ja) * 2011-07-22 2014-10-02 クゥアルコム・インコーポレイテッド スライスヘッダ予測のためのスライスヘッダ三次元映像拡張
JP2014526193A (ja) * 2011-07-22 2014-10-02 クゥアルコム・インコーポレイテッド 内部ビュー動き予測(ivmp)モードをサポートするmvcベースの3dvcコーデック
JP2014195279A (ja) * 2014-05-07 2014-10-09 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandte Forschung E V 平面間予測
JP2015500589A (ja) * 2011-11-30 2015-01-05 クゥアルコム・インコーポレイテッドQualcomm Incorporated マルチビュービデオコード化(mvc)適合3次元ビデオコード化(3dvc)のためのパラメータセットのアクティブ化
JP2015509345A (ja) * 2012-02-01 2015-03-26 ノキア コーポレイション ビデオ符号化方法および装置
JP2015518338A (ja) * 2012-04-25 2015-06-25 ノキア コーポレイション ビデオコーディング方法および装置
JP2015180104A (ja) * 2010-08-11 2015-10-08 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン 多視点信号コーデック
JP2015537491A (ja) * 2012-12-14 2015-12-24 クゥアルコム・インコーポレイテッドQualcomm Incorporated 非対称空間解像度を有するテクスチャビューコンポーネントおよび深度ビューコンポーネントの中での内部ビュー動き予測
US9485503B2 (en) 2011-11-18 2016-11-01 Qualcomm Incorporated Inside view motion prediction among texture and depth view components
US9591335B2 (en) 2010-04-13 2017-03-07 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
JP2017147749A (ja) * 2017-04-20 2017-08-24 シャープ株式会社 画像符号化装置、画像復号装置、画像符号化方法、画像復号方法およびプログラム
US9807427B2 (en) 2010-04-13 2017-10-31 Ge Video Compression, Llc Inheritance in sample array multitree subdivision
US10248966B2 (en) 2010-04-13 2019-04-02 Ge Video Compression, Llc Region merging and coding parameter reuse via merging
JP2019169972A (ja) * 2011-11-11 2019-10-03 ジーイー ビデオ コンプレッション エルエルシー デプスマップの推定および更新を用いる効率的なマルチビュー符号化
US11184600B2 (en) 2011-11-18 2021-11-23 Ge Video Compression, Llc Multi-view coding with efficient residual handling
US11240478B2 (en) 2011-11-11 2022-02-01 Ge Video Compression, Llc Efficient multi-view coding using depth-map estimate for a dependent view
US11477467B2 (en) 2012-10-01 2022-10-18 Ge Video Compression, Llc Scalable video coding using derivation of subblock subdivision for prediction from base layer
US11496760B2 (en) 2011-07-22 2022-11-08 Qualcomm Incorporated Slice header prediction for depth maps in three-dimensional video codecs

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009131688A2 (en) * 2008-04-25 2009-10-29 Thomson Licensing Inter-view skip modes with depth
EP2338281A4 (en) 2008-10-17 2012-08-15 Nokia Corp SHARING THE MOTION VECTOR IN 3D VIDEO CODING
KR101158491B1 (ko) 2008-12-08 2012-06-20 한국전자통신연구원 다시점 영상 부호화, 복호화 방법 및 그 장치.
BRPI1007451A2 (pt) * 2009-01-30 2016-09-13 Thomson Licensing codificação de mapas de profundidade
US20110292044A1 (en) * 2009-02-13 2011-12-01 Kim Woo-Shik Depth map coding using video information
US20120050475A1 (en) * 2009-05-01 2012-03-01 Dong Tian Reference picture lists for 3dv
US9131279B2 (en) 2009-08-06 2015-09-08 Qualcomm Incorporated Preparing video data in accordance with a wireless display protocol
KR101624649B1 (ko) * 2009-08-14 2016-05-26 삼성전자주식회사 계층적인 부호화 블록 패턴 정보를 이용한 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
KR101636539B1 (ko) * 2009-09-10 2016-07-05 삼성전자주식회사 입체영상 압축 처리 방법 및 장치
KR101660312B1 (ko) 2009-09-22 2016-09-27 삼성전자주식회사 3차원 비디오의 움직임 탐색 장치 및 방법
US20110122225A1 (en) * 2009-11-23 2011-05-26 General Instrument Corporation Depth Coding as an Additional Channel to Video Sequence
KR101281961B1 (ko) * 2009-12-21 2013-07-03 한국전자통신연구원 깊이 영상 편집 방법 및 장치
CN102763421B (zh) 2010-02-15 2015-08-26 汤姆森许可贸易公司 处理视频内容的装置和方法
KR101628383B1 (ko) 2010-02-26 2016-06-21 연세대학교 산학협력단 영상 처리 장치 및 방법
CN101873494B (zh) * 2010-04-30 2012-07-04 南京邮电大学 基于切片级别的视频传输中动态交织的方法
EP2596635B1 (en) * 2010-07-19 2020-05-20 Dolby Laboratories Licensing Corporation Enhancement methods for sampled and multiplexed image and video data
WO2012036902A1 (en) 2010-09-14 2012-03-22 Thomson Licensing Compression methods and apparatus for occlusion data
EP3703373B1 (en) * 2010-10-08 2024-04-17 GE Video Compression, LLC Picture coding supporting block partitioning and block merging
SI2636218T1 (sl) 2010-11-04 2021-12-31 Ge Video Compression, Llc Kodiranje slike, ki podpira združevanje blokov in preskakovalni način
EP2636222A1 (en) * 2010-11-04 2013-09-11 Koninklijke Philips Electronics N.V. Generation of depth indication maps
WO2012070500A1 (ja) * 2010-11-22 2012-05-31 ソニー株式会社 符号化装置および符号化方法、並びに、復号装置および復号方法
HU1000640D0 (en) * 2010-11-29 2011-02-28 Holografika Hologrameloeallito Fejlesztoe Es Forgalmazo Kft Image coding and decoding method and apparatus for efficient encoding and decoding of 3d field content
US20120189060A1 (en) * 2011-01-20 2012-07-26 Industry-Academic Cooperation Foundation, Yonsei University Apparatus and method for encoding and decoding motion information and disparity information
EP2676446B1 (en) 2011-02-15 2018-07-04 Thomson Licensing DTV Apparatus and method for generating a disparity map in a receiving device
MX2013000093A (es) 2011-02-22 2013-02-27 Panasonic Corp Metodo de filtro, dispositivo de codificacion de imagen dinamica, dispositivo de decodificacion de imagen dinamica y dispositivo de codificacion y decodificacion de imagen dinamica.
EP2680582B1 (en) 2011-02-22 2019-01-02 Sun Patent Trust Image encoding method, image decoding method, image encoding device, image decoding device, and image encoding/decoding device
CN103404154A (zh) * 2011-03-08 2013-11-20 索尼公司 图像处理设备、图像处理方法以及程序
US9565449B2 (en) 2011-03-10 2017-02-07 Qualcomm Incorporated Coding multiview video plus depth content
AU2012232423A1 (en) 2011-03-18 2013-09-05 Sony Corporation Image processing device and image processing method
WO2012171477A1 (en) * 2011-06-15 2012-12-20 Mediatek Inc. Method and apparatus of texture image compression in 3d video coding
KR102129001B1 (ko) 2011-07-19 2020-07-02 타지반 투 엘엘씨 필터 방법, 복호 방법, 및 부호화 방법
US9363535B2 (en) * 2011-07-22 2016-06-07 Qualcomm Incorporated Coding motion depth maps with depth range variation
EP2744201A4 (en) * 2011-08-09 2016-03-23 Samsung Electronics Co Ltd METHOD AND DEVICE FOR CODING A DEPTH CARD OF VIDEO DATA WITH MULTIPLE VIEWPOINTS AND METHOD AND DEVICE FOR DECODING THE CODED DEPTH CARD
JP2014527350A (ja) * 2011-08-09 2014-10-09 サムスン エレクトロニクス カンパニー リミテッド 多視点ビデオデータの符号化方法及びその装置、該復号化方法及びその装置
RU2573213C2 (ru) * 2011-08-30 2016-01-20 Интел Корпорейшн Схемы многопланового видеокодирования
BR112014004062A2 (pt) 2011-08-31 2017-03-07 Sony Corp dispositivos e métodos de codificação e decodificação
EP2777256B1 (en) 2011-11-11 2017-03-29 GE Video Compression, LLC Multi-view coding with effective handling of renderable portions
WO2013068491A1 (en) 2011-11-11 2013-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multi-view coding with exploitation of renderable portions
KR20130079261A (ko) * 2011-12-30 2013-07-10 (주)휴맥스 3차원 영상 부호화 방법 및 장치, 및 복호화 방법 및 장치
KR102057194B1 (ko) * 2012-01-19 2019-12-19 삼성전자주식회사 시점 변환을 위한 다시점 비디오 예측 방법 및 그 장치, 시점 변환을 위한 다시점 비디오 예측 복원 방법 및 그 장치
US9602831B2 (en) 2012-03-07 2017-03-21 Lg Electronics Inc. Method and apparatus for processing video signals
US9584806B2 (en) 2012-04-19 2017-02-28 Futurewei Technologies, Inc. Using depth information to assist motion compensation-based video coding
KR20130119380A (ko) * 2012-04-23 2013-10-31 삼성전자주식회사 슬라이스 헤더를 이용하는 3차원 비디오 부호화 방법 및 그 장치, 다시점 비디오 복호화 방법 및 그 장치
US9307252B2 (en) 2012-06-04 2016-04-05 City University Of Hong Kong View synthesis distortion model for multiview depth video coding
RU2506712C1 (ru) * 2012-06-07 2014-02-10 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." Способ межкадрового прогнозирования для кодирования многоракурсной видеопоследовательности
US20130329800A1 (en) * 2012-06-07 2013-12-12 Samsung Electronics Co., Ltd. Method of performing prediction for multiview video processing
WO2014025294A1 (en) * 2012-08-08 2014-02-13 Telefonaktiebolaget L M Ericsson (Publ) Processing of texture and depth images
US9998727B2 (en) * 2012-09-19 2018-06-12 Qualcomm Incorporated Advanced inter-view residual prediction in multiview or 3-dimensional video coding
US9426462B2 (en) 2012-09-21 2016-08-23 Qualcomm Incorporated Indication and activation of parameter sets for video coding
EP2904795A4 (en) * 2012-10-03 2016-09-07 Mediatek Inc METHOD AND APPARATUS FOR THE HEREDITY OF MOTION INFORMATION IN THREE-DIMENSIONAL VIDEO CODING
KR20140048783A (ko) 2012-10-09 2014-04-24 한국전자통신연구원 깊이정보값을 공유하여 움직임 정보를 유도하는 방법 및 장치
KR20150079905A (ko) * 2012-12-27 2015-07-08 니폰 덴신 덴와 가부시끼가이샤 화상 부호화 방법, 화상 복호 방법, 화상 부호화 장치, 화상 복호 장치, 화상 부호화 프로그램, 화상 복호 프로그램 및 기록 매체
US9924197B2 (en) 2012-12-27 2018-03-20 Nippon Telegraph And Telephone Corporation Image encoding method, image decoding method, image encoding apparatus, image decoding apparatus, image encoding program, and image decoding program
CN103929650B (zh) * 2013-01-10 2017-04-12 乐金电子(中国)研究开发中心有限公司 一种深度编码单元编码方法、解码方法、编码器及解码器
US10080036B2 (en) 2013-05-16 2018-09-18 City University Of Hong Kong Method and apparatus for depth video coding using endurable view synthesis distortion
CN105393540A (zh) * 2013-07-18 2016-03-09 Lg电子株式会社 用于处理视频信号的方法和设备
US9906768B2 (en) * 2013-07-26 2018-02-27 Qualcomm Incorporated Use of a depth condition in 3DV codec
WO2015109598A1 (en) 2014-01-27 2015-07-30 Mediatek Singapore Pte. Ltd. Methods for motion parameter hole filling
CN103841405B (zh) * 2014-03-21 2016-07-06 华为技术有限公司 深度图像的编解码方法和编解码装置
US20160050440A1 (en) * 2014-08-15 2016-02-18 Ying Liu Low-complexity depth map encoder with quad-tree partitioned compressed sensing
EP3451665A1 (en) 2017-09-01 2019-03-06 Thomson Licensing Refinement of internal sub-blocks of a coding unit
CN117336505A (zh) 2019-02-14 2024-01-02 北京字节跳动网络技术有限公司 解码器侧细化工具的尺寸选择性应用
FR3124301A1 (fr) * 2021-06-25 2022-12-23 Orange Procédé de construction d’une image de profondeur d’une vidéo multi-vues, procédé de décodage d’un flux de données représentatif d’une vidéo multi-vues, procédé de codage, dispositifs, système, équipement terminal, signal et programmes d’ordinateur correspondants.

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006191357A (ja) * 2005-01-06 2006-07-20 Victor Co Of Japan Ltd 再生装置および再生プログラム
JP2007036800A (ja) * 2005-07-28 2007-02-08 Nippon Telegr & Teleph Corp <Ntt> 映像符号化方法、映像復号方法、映像符号化プログラム、映像復号プログラム及びそれらのプログラムを記録したコンピュータ読み取り可能な記録媒体
US20070030356A1 (en) * 2004-12-17 2007-02-08 Sehoon Yea Method and system for processing multiview videos for view synthesis using side information
WO2007126508A2 (en) * 2006-03-29 2007-11-08 Thomson Licensing Multi-view video coding method and device

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3104439B2 (ja) * 1992-11-13 2000-10-30 ソニー株式会社 高能率符号化及び/又は復号化装置
US5614952A (en) * 1994-10-11 1997-03-25 Hitachi America, Ltd. Digital video decoder for decoding digital high definition and/or digital standard definition television signals
US6188730B1 (en) * 1998-03-23 2001-02-13 Internatonal Business Machines Corporation Highly programmable chrominance filter for 4:2:2 to 4:2:0 conversion during MPEG2 video encoding
US6504872B1 (en) * 2000-07-28 2003-01-07 Zenith Electronics Corporation Down-conversion decoder for interlaced video
US6940538B2 (en) * 2001-08-29 2005-09-06 Sony Corporation Extracting a depth map from known camera and model tracking data
US20030198290A1 (en) * 2002-04-19 2003-10-23 Dynamic Digital Depth Pty.Ltd. Image encoding system
US7003136B1 (en) * 2002-04-26 2006-02-21 Hewlett-Packard Development Company, L.P. Plan-view projections of depth image data for object tracking
KR20060105409A (ko) * 2005-04-01 2006-10-11 엘지전자 주식회사 영상 신호의 스케일러블 인코딩 및 디코딩 방법
EP1671276B1 (en) * 2003-09-30 2007-09-05 Koninklijke Philips Electronics N.V. Image rendering with interactive motion parallax
US8670437B2 (en) * 2005-09-27 2014-03-11 Qualcomm Incorporated Methods and apparatus for service acquisition
JP4605715B2 (ja) * 2006-06-14 2011-01-05 Kddi株式会社 多視点画像圧縮符号化方法、装置及びプログラム
TWI344792B (en) * 2006-07-12 2011-07-01 Lg Electronics Inc A method and apparatus for processing a signal
CN101690220B (zh) * 2007-04-25 2013-09-25 Lg电子株式会社 用于解码/编码视频信号的方法和装置
WO2009131688A2 (en) * 2008-04-25 2009-10-29 Thomson Licensing Inter-view skip modes with depth
US20100188476A1 (en) * 2009-01-29 2010-07-29 Optical Fusion Inc. Image Quality of Video Conferences

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070030356A1 (en) * 2004-12-17 2007-02-08 Sehoon Yea Method and system for processing multiview videos for view synthesis using side information
JP2006191357A (ja) * 2005-01-06 2006-07-20 Victor Co Of Japan Ltd 再生装置および再生プログラム
JP2007036800A (ja) * 2005-07-28 2007-02-08 Nippon Telegr & Teleph Corp <Ntt> 映像符号化方法、映像復号方法、映像符号化プログラム、映像復号プログラム及びそれらのプログラムを記録したコンピュータ読み取り可能な記録媒体
WO2007126508A2 (en) * 2006-03-29 2007-11-08 Thomson Licensing Multi-view video coding method and device

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JPN6012059937; Han Oh and Yo-Sung Ho: 'H.264-Based Depth Map Sequence Coding UsingMotion Information of Corresponding Texture Video' PSIVT 2006, LNCS 4319 , 2006, pp.898-907, Springer-Verlag *
JPN6012059938; P. Merkle et al.: 'Efficient Compression of Multi-View Depth Data Based on MVC' 3DTV Conference pp.1-4, 200705, IEEE *
JPN6012059939; P. Merkle et al.: 'Multi-View Video Plus Depth Representation and Coding' International Conference on Image Processing (ICIP 2007) Vol.1, 200710, pp.I-201 - I-204, IEEE *

Cited By (110)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10687085B2 (en) 2010-04-13 2020-06-16 Ge Video Compression, Llc Inheritance in sample array multitree subdivision
US11087355B2 (en) 2010-04-13 2021-08-10 Ge Video Compression, Llc Region merging and coding parameter reuse via merging
JP2013528023A (ja) * 2010-04-13 2013-07-04 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン 平面間予測
US11910029B2 (en) 2010-04-13 2024-02-20 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division preliminary class
US11910030B2 (en) 2010-04-13 2024-02-20 Ge Video Compression, Llc Inheritance in sample array multitree subdivision
US11900415B2 (en) 2010-04-13 2024-02-13 Ge Video Compression, Llc Region merging and coding parameter reuse via merging
US11856240B1 (en) 2010-04-13 2023-12-26 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
US10687086B2 (en) 2010-04-13 2020-06-16 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
US11810019B2 (en) 2010-04-13 2023-11-07 Ge Video Compression, Llc Region merging and coding parameter reuse via merging
US11785264B2 (en) 2010-04-13 2023-10-10 Ge Video Compression, Llc Multitree subdivision and inheritance of coding parameters in a coding block
US11778241B2 (en) 2010-04-13 2023-10-03 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
US11765362B2 (en) 2010-04-13 2023-09-19 Ge Video Compression, Llc Inter-plane prediction
US11765363B2 (en) 2010-04-13 2023-09-19 Ge Video Compression, Llc Inter-plane reuse of coding parameters
US11736738B2 (en) 2010-04-13 2023-08-22 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using subdivision
US10694218B2 (en) 2010-04-13 2020-06-23 Ge Video Compression, Llc Inheritance in sample array multitree subdivision
US11734714B2 (en) 2010-04-13 2023-08-22 Ge Video Compression, Llc Region merging and coding parameter reuse via merging
US11611761B2 (en) 2010-04-13 2023-03-21 Ge Video Compression, Llc Inter-plane reuse of coding parameters
US11553212B2 (en) 2010-04-13 2023-01-10 Ge Video Compression, Llc Inheritance in sample array multitree subdivision
US11546641B2 (en) 2010-04-13 2023-01-03 Ge Video Compression, Llc Inheritance in sample array multitree subdivision
US11546642B2 (en) 2010-04-13 2023-01-03 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
US11102518B2 (en) 2010-04-13 2021-08-24 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
US20210211743A1 (en) 2010-04-13 2021-07-08 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
US9591335B2 (en) 2010-04-13 2017-03-07 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
US9596488B2 (en) 2010-04-13 2017-03-14 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
US11051047B2 (en) 2010-04-13 2021-06-29 Ge Video Compression, Llc Inheritance in sample array multitree subdivision
US20170134761A1 (en) 2010-04-13 2017-05-11 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
US11037194B2 (en) 2010-04-13 2021-06-15 Ge Video Compression, Llc Region merging and coding parameter reuse via merging
US9807427B2 (en) 2010-04-13 2017-10-31 Ge Video Compression, Llc Inheritance in sample array multitree subdivision
US10003828B2 (en) 2010-04-13 2018-06-19 Ge Video Compression, Llc Inheritance in sample array multitree division
US10038920B2 (en) 2010-04-13 2018-07-31 Ge Video Compression, Llc Multitree subdivision and inheritance of coding parameters in a coding block
US10051291B2 (en) 2010-04-13 2018-08-14 Ge Video Compression, Llc Inheritance in sample array multitree subdivision
US10893301B2 (en) 2010-04-13 2021-01-12 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
US20180324466A1 (en) 2010-04-13 2018-11-08 Ge Video Compression, Llc Inheritance in sample array multitree subdivision
US10880581B2 (en) 2010-04-13 2020-12-29 Ge Video Compression, Llc Inheritance in sample array multitree subdivision
US10880580B2 (en) 2010-04-13 2020-12-29 Ge Video Compression, Llc Inheritance in sample array multitree subdivision
US10873749B2 (en) 2010-04-13 2020-12-22 Ge Video Compression, Llc Inter-plane reuse of coding parameters
US20190089962A1 (en) 2010-04-13 2019-03-21 Ge Video Compression, Llc Inter-plane prediction
US10248966B2 (en) 2010-04-13 2019-04-02 Ge Video Compression, Llc Region merging and coding parameter reuse via merging
US10250913B2 (en) 2010-04-13 2019-04-02 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
US20190164188A1 (en) 2010-04-13 2019-05-30 Ge Video Compression, Llc Region merging and coding parameter reuse via merging
US20190174148A1 (en) 2010-04-13 2019-06-06 Ge Video Compression, Llc Inheritance in sample array multitree subdivision
US20190197579A1 (en) 2010-04-13 2019-06-27 Ge Video Compression, Llc Region merging and coding parameter reuse via merging
US10863208B2 (en) 2010-04-13 2020-12-08 Ge Video Compression, Llc Inheritance in sample array multitree subdivision
US10432980B2 (en) 2010-04-13 2019-10-01 Ge Video Compression, Llc Inheritance in sample array multitree subdivision
US10432979B2 (en) 2010-04-13 2019-10-01 Ge Video Compression Llc Inheritance in sample array multitree subdivision
US10432978B2 (en) 2010-04-13 2019-10-01 Ge Video Compression, Llc Inheritance in sample array multitree subdivision
US10855995B2 (en) 2010-04-13 2020-12-01 Ge Video Compression, Llc Inter-plane prediction
US10440400B2 (en) 2010-04-13 2019-10-08 Ge Video Compression, Llc Inheritance in sample array multitree subdivision
US10448060B2 (en) 2010-04-13 2019-10-15 Ge Video Compression, Llc Multitree subdivision and inheritance of coding parameters in a coding block
US10460344B2 (en) 2010-04-13 2019-10-29 Ge Video Compression, Llc Region merging and coding parameter reuse via merging
US10621614B2 (en) 2010-04-13 2020-04-14 Ge Video Compression, Llc Region merging and coding parameter reuse via merging
US10672028B2 (en) 2010-04-13 2020-06-02 Ge Video Compression, Llc Region merging and coding parameter reuse via merging
US10856013B2 (en) 2010-04-13 2020-12-01 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
US10681390B2 (en) 2010-04-13 2020-06-09 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
US10855990B2 (en) 2010-04-13 2020-12-01 Ge Video Compression, Llc Inter-plane prediction
US10855991B2 (en) 2010-04-13 2020-12-01 Ge Video Compression, Llc Inter-plane prediction
US10848767B2 (en) 2010-04-13 2020-11-24 Ge Video Compression, Llc Inter-plane prediction
US10708628B2 (en) 2010-04-13 2020-07-07 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
US10708629B2 (en) 2010-04-13 2020-07-07 Ge Video Compression, Llc Inheritance in sample array multitree subdivision
US10719850B2 (en) 2010-04-13 2020-07-21 Ge Video Compression, Llc Region merging and coding parameter reuse via merging
US10721496B2 (en) 2010-04-13 2020-07-21 Ge Video Compression, Llc Inheritance in sample array multitree subdivision
US10721495B2 (en) 2010-04-13 2020-07-21 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
US10748183B2 (en) 2010-04-13 2020-08-18 Ge Video Compression, Llc Region merging and coding parameter reuse via merging
US10764608B2 (en) 2010-04-13 2020-09-01 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
US10771822B2 (en) 2010-04-13 2020-09-08 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
US10803485B2 (en) 2010-04-13 2020-10-13 Ge Video Compression, Llc Region merging and coding parameter reuse via merging
US10803483B2 (en) 2010-04-13 2020-10-13 Ge Video Compression, Llc Region merging and coding parameter reuse via merging
US10805645B2 (en) 2010-04-13 2020-10-13 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
JP2015180104A (ja) * 2010-08-11 2015-10-08 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン 多視点信号コーデック
US10110903B2 (en) 2010-08-11 2018-10-23 Ge Video Compression, Llc Multi-view signal codec with reusing coding parameters
US10674134B2 (en) 2010-08-11 2020-06-02 Ge Video Compression, Llc Multi-view signal codec with reusing coding parameters
US11843757B2 (en) 2010-08-11 2023-12-12 Ge Video Compression, Llc Multi-view signal codec
US9648298B2 (en) 2010-08-11 2017-05-09 Ge Video Compression, Llc Multi-view signal codec
US11330242B2 (en) 2010-08-11 2022-05-10 Ge Video Compression, Llc Multi-view signal codec
JP2018186513A (ja) * 2010-08-11 2018-11-22 ジーイー ビデオ コンプレッション エルエルシー 多視点信号コーデック
WO2012147621A1 (ja) * 2011-04-28 2012-11-01 ソニー株式会社 符号化装置および符号化方法、並びに、復号装置および復号方法
WO2012147622A1 (ja) * 2011-04-28 2012-11-01 ソニー株式会社 画像処理装置、及び、画像処理方法
US9350972B2 (en) 2011-04-28 2016-05-24 Sony Corporation Encoding device and encoding method, and decoding device and decoding method
US9521418B2 (en) 2011-07-22 2016-12-13 Qualcomm Incorporated Slice header three-dimensional video extension for slice header prediction
JP2014526193A (ja) * 2011-07-22 2014-10-02 クゥアルコム・インコーポレイテッド 内部ビュー動き予測(ivmp)モードをサポートするmvcベースの3dvcコーデック
JP2016027714A (ja) * 2011-07-22 2016-02-18 クゥアルコム・インコーポレイテッドQualcomm Incorporated スライスヘッダ予測のためのスライスヘッダ三次元映像拡張
JP2014526194A (ja) * 2011-07-22 2014-10-02 クゥアルコム・インコーポレイテッド スライスヘッダ予測のためのスライスヘッダ三次元映像拡張
US11496760B2 (en) 2011-07-22 2022-11-08 Qualcomm Incorporated Slice header prediction for depth maps in three-dimensional video codecs
JP2014524707A (ja) * 2011-08-11 2014-09-22 クゥアルコム・インコーポレイテッド 非対称な空間解像度を持つ3次元ビデオ
US9288505B2 (en) 2011-08-11 2016-03-15 Qualcomm Incorporated Three-dimensional video with asymmetric spatial resolution
US10887575B2 (en) 2011-11-11 2021-01-05 Ge Video Compression, Llc Efficient multi-view coding using depth-map estimate and update
JP2021168479A (ja) * 2011-11-11 2021-10-21 ジーイー ビデオ コンプレッション エルエルシー デプスマップの推定および更新を用いる効率的なマルチビュー符号化
US11240478B2 (en) 2011-11-11 2022-02-01 Ge Video Compression, Llc Efficient multi-view coding using depth-map estimate for a dependent view
US11968348B2 (en) 2011-11-11 2024-04-23 Ge Video Compression, Llc Efficient multi-view coding using depth-map estimate for a dependent view
JP2019169972A (ja) * 2011-11-11 2019-10-03 ジーイー ビデオ コンプレッション エルエルシー デプスマップの推定および更新を用いる効率的なマルチビュー符号化
US11523098B2 (en) 2011-11-11 2022-12-06 Ge Video Compression, Llc Efficient multi-view coding using depth-map estimate and update
JP7248741B2 (ja) 2011-11-11 2023-03-29 ジーイー ビデオ コンプレッション エルエルシー デプスマップの推定および更新を用いる効率的なマルチビュー符号化
JP7210381B2 (ja) 2011-11-11 2023-01-23 ジーイー ビデオ コンプレッション エルエルシー デプスマップの推定および更新を用いる効率的なマルチビュー符号化
US11184600B2 (en) 2011-11-18 2021-11-23 Ge Video Compression, Llc Multi-view coding with efficient residual handling
US9485503B2 (en) 2011-11-18 2016-11-01 Qualcomm Incorporated Inside view motion prediction among texture and depth view components
US10158873B2 (en) 2011-11-30 2018-12-18 Qualcomm Incorporated Depth component removal for multiview video coding (MVC) compatible three-dimensional video coding (3DVC)
US9473752B2 (en) 2011-11-30 2016-10-18 Qualcomm Incorporated Activation of parameter sets for multiview video coding (MVC) compatible three-dimensional video coding (3DVC)
US10200708B2 (en) 2011-11-30 2019-02-05 Qualcomm Incorporated Sequence level information for multiview video coding (MVC) compatible three-dimensional video coding (3DVC)
JP2016197869A (ja) * 2011-11-30 2016-11-24 クゥアルコム・インコーポレイテッドQualcomm Incorporated マルチビュービデオコード化(mvc)適合3次元ビデオコード化(3dvc)のためのパラメータセットのアクティブ化
JP2015503286A (ja) * 2011-11-30 2015-01-29 クゥアルコム・インコーポレイテッドQualcomm Incorporated マルチビュービデオコード化(mvc)適合3次元ビデオコード化(3dvc)のためのパラメータセットのアクティブ化
JP2015500589A (ja) * 2011-11-30 2015-01-05 クゥアルコム・インコーポレイテッドQualcomm Incorporated マルチビュービデオコード化(mvc)適合3次元ビデオコード化(3dvc)のためのパラメータセットのアクティブ化
US9479775B2 (en) 2012-02-01 2016-10-25 Nokia Technologies Oy Method and apparatus for video coding
US10397610B2 (en) 2012-02-01 2019-08-27 Nokia Technologies Oy Method and apparatus for video coding
JP2015509345A (ja) * 2012-02-01 2015-03-26 ノキア コーポレイション ビデオ符号化方法および装置
WO2013157439A1 (ja) * 2012-04-17 2013-10-24 ソニー株式会社 復号装置および復号方法、並びに、符号化装置および符号化方法
JP2015518338A (ja) * 2012-04-25 2015-06-25 ノキア コーポレイション ビデオコーディング方法および装置
US11477467B2 (en) 2012-10-01 2022-10-18 Ge Video Compression, Llc Scalable video coding using derivation of subblock subdivision for prediction from base layer
JP2015537491A (ja) * 2012-12-14 2015-12-24 クゥアルコム・インコーポレイテッドQualcomm Incorporated 非対称空間解像度を有するテクスチャビューコンポーネントおよび深度ビューコンポーネントの中での内部ビュー動き予測
JP2014195279A (ja) * 2014-05-07 2014-10-09 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandte Forschung E V 平面間予測
JP2017147749A (ja) * 2017-04-20 2017-08-24 シャープ株式会社 画像符号化装置、画像復号装置、画像符号化方法、画像復号方法およびプログラム

Also Published As

Publication number Publication date
KR20100105877A (ko) 2010-09-30
US20100284466A1 (en) 2010-11-11
CN101911700A (zh) 2010-12-08
WO2009091383A2 (en) 2009-07-23
JP2014003682A (ja) 2014-01-09
WO2009091383A3 (en) 2009-09-11
EP2232875A2 (en) 2010-09-29
BRPI0821500A2 (pt) 2015-06-16

Similar Documents

Publication Publication Date Title
JP2014003682A (ja) ビデオおよび奥行きの符号化
US8532410B2 (en) Multi-view video coding with disparity estimation based on depth information
CN108293136B (zh) 编码360度全景视频的方法、装置和计算机可读存储介质
JP5614901B2 (ja) 3dvの参照ピクチャ・リスト
US9179153B2 (en) Refined depth map
KR102090344B1 (ko) 화상 처리 장치 및 방법, 및 기록 매체
KR101653724B1 (ko) 가상 레퍼런스 뷰
US20130343459A1 (en) Method and apparatus for video coding
CN105556965A (zh) 用于视频编码和解码的方法、装置和计算机程序产品
CN105325003A (zh) 用于视频编码和解码的装置、方法和计算机程序
CN114600466A (zh) 基于交叉分量滤波的图像编码设备和方法
JP2023162431A (ja) ラップアラウンド動き補償に基づく画像符号化/復号化方法及び装置、並びにビットストリームを保存した記録媒体
CN115699755A (zh) 基于卷绕运动补偿的图像编码/解码方法和装置及存储比特流的记录介质
CN116057931A (zh) 针对缩放性的基于子比特流提取的图像编码设备和方法
CN115088262A (zh) 用于发信号通知图像信息的方法和装置
CN117136544A (zh) 视频流式传输中的参数集指示的方法
CN115152237A (zh) 图像编码装置和方法
CN116057932A (zh) 基于层信息信令的图像编码设备和方法
CN115152214A (zh) 基于画面划分的图像编码装置和方法
CN115152238A (zh) 基于滤波的图像编码装置和方法
CN114982242A (zh) 发信号通知图片分割信息的方法和设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121120

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130219

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130226

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130318

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130423

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20141202

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20141209