JP2014528190A - カメラおよび/または深度パラメータのシグナリング - Google Patents

カメラおよび/または深度パラメータのシグナリング Download PDF

Info

Publication number
JP2014528190A
JP2014528190A JP2014524967A JP2014524967A JP2014528190A JP 2014528190 A JP2014528190 A JP 2014528190A JP 2014524967 A JP2014524967 A JP 2014524967A JP 2014524967 A JP2014524967 A JP 2014524967A JP 2014528190 A JP2014528190 A JP 2014528190A
Authority
JP
Japan
Prior art keywords
parameter
camera
depth
parameters
decoder
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2014524967A
Other languages
English (en)
Inventor
アンドレイ ノルキン,
アンドレイ ノルキン,
トーマス ラサート,
トーマス ラサート,
チワンフェイ ウー,
チワンフェイ ウー,
Original Assignee
テレフオンアクチーボラゲット エル エム エリクソン(パブル)
テレフオンアクチーボラゲット エル エム エリクソン(パブル)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テレフオンアクチーボラゲット エル エム エリクソン(パブル), テレフオンアクチーボラゲット エル エム エリクソン(パブル) filed Critical テレフオンアクチーボラゲット エル エム エリクソン(パブル)
Publication of JP2014528190A publication Critical patent/JP2014528190A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission

Abstract

カメラパラメータと深度パラメータとのうちの少なくとも1つである「パラメータ」に関連する更新メッセージを提供するためのエンコーダ(310)とエンコーダ(310)における方法、更新メッセージを復号するためのデコーダ(320)とデコーダ(320)における方法が提供され、第1のデバイス(800)は、エンコーダ(310)を備え、第2のデバイス(1000)は、デコーダ(320)を備える。パラメータは、デコーダ(320)に、第1のカメラ位置のための第1のビューを、第2のカメラ位置のための第2のビューと第2のビューのパラメータとに基づいて合成することを可能にさせる。エンコーダ(310)は、パラメータのうちのどちらが経時的に変化しているかを検出する。次に、エンコーダ(310)は、パラメータをそれぞれのモジュールへとモジュール化する。さらに、エンコーダ(310)は、各それぞれのモジュールを更新メッセージへと符号化し、更新メッセージをデコーダ(320)に送信する。次に、デコーダ(320)が、更新されるパラメータを得るために、更新メッセージの各それぞれのモジュールを復号する。

Description

本明細書における実施形態は、マルチビューディスプレイおよびビュー合成技術に関する。特に、カメラパラメータと深度パラメータとのうちの少なくとも1つに関連する更新メッセージを提供するためのエンコーダ、およびエンコーダにおける方法と、カメラパラメータと深度パラメータとのうちの少なくとも1つに関連する更新メッセージを復号するためのデコーダ、およびデコーダにおける方法が、開示される。
三次元(3D)映像および三次元テレビジョン(3DTV)の分野が勢いを増し、家庭用電化製品、モバイルデバイス、コンピュータ、および映画における次の論理的なステップと考えられている。二次元(2D)映像上の追加の次元は、コンテンツを表示する複数の異なる方向を提供し、視聴者とコンテンツ間のインタラクションに関する可能性を高める。
次世代のオートステレオスコピックディスプレイは、視聴者に眼鏡なしでの深度の知覚の経験を可能にさせる。これらのディスプレイは、例示的な表示方式を示す図1に示すように、わずかに異なるピクチャを異なる方向に投影する。したがって、視聴者がディスプレイの前の適切な位置に位置する場合、彼/彼女の左および右目は、同一のシーンのわずかに異なるピクチャを見、それは、深度の知覚を作り出すことを可能にする。ユーザが画面の前で動いたときに滑らかな視差と視点の変化を達成するために、典型的には7〜28個の多数のビューが生成される。ビューは、ある特定のカメラ位置から撮られたシーンのピクチャまたは映像である。
上述したアプローチを使用する場合、ビューの送信が高いビットレートを要求し得る、という問題があり得る。しかしながら、この問題は、たとえば1〜3個といった、より少ない数のキーとなるビューを送信し、送信されたキーとなるビューからいわゆるビュー合成処理により他のビューを生成することによって、解消されることができる。合成されたこれらのビューは、キーとなるビュー間に位置する(補間される)か、またはキーとなるビューによってカバーされた範囲外に位置する(外挿される)ことができる。
ビュー合成技法のうちの1つは、デプスイメージベースドレンダリング(DIBR)である。ビュー合成を容易にするために、DIBRは、キーとなるビュー(単数または複数)の深度マップ(単数または複数)(理論的には他のビューの深度マップでもあり得る)を使用する。深度マップは、ビューと同一の解像度を有するグレースケール画像、たとえば、映像フレームによって表現され得る。そして、深度マップの各ピクセルは、カメラからその画像/映像フレーム中の対応するピクセルに関する対象物までの距離を表現する。
ビュー合成において使用され得る多数のパラメータが存在する。これらのパラメータは、ビュー合成に関連するパラメータと呼ばれ得る。
DIBRビュー合成を容易にするために、多数のパラメータは、ビュー合成を実行するデバイスまたはプログラムモジュールのためにシグナリングされる必要がある。それらのパラメータの中にはまず、考慮中のフレームのための深度マップにおいて最も近いおよび最も遠い深度値を表現するz nearおよびz farがある。これらの値は、量子化された深度マップサンプルを、それらが表現する現実の深度値にマッピングするために必要とされる(以下の式の1つ)。上段の式は、空間の原点からの深度値がすべて正、またはすべて負の場合に使用される。そうでなければ下段の式が使用される。
Figure 2014528190
これらの式1、2は、量子化された深度値を現実の深度値に変換するために使用される。変数vは、グレースケールの深度画像における各ピクセルのための輝度値(8ビットの深度マップでは、0〜255の間)を表現する。Tzは、変換ベクトルのz成分(z座標)を表現する。
ビュー合成のために必要とされるパラメータの別のセットがカメラパラメータである。
3D映像のためのカメラパラメータは普通、2つの部分に分けられる。内部(内在)カメラパラメータと呼ばれる第1の部分は、画像を撮るカメラの光学特性、たとえば、焦点距離、画像主点の座標、および放射歪みを表現する。外部(外在)カメラパラメータは、それらの下でまた、選択された現実世界の座標において、カメラ位置とその光学軸の方向を表現する(ここでの重要な態様は、互いに対するカメラの位置と、シーンにおける対象物である)。外部パラメータ、すなわち、外部カメラパラメータは変換パラメータを含むことができ、変換パラメータは変換ベクトルに含まれ得る、ということにここで注意すべきである。内部および外部カメラパラメータの両方が、(DIBRのような)深度情報の使用に基づいたビュー合成処理において要求される。
上記DIBRソリューションの代わりに、レイヤードデプスビデオ(LDV)が利用され得る。LDVソリューションは、シーンの表現のために複数のレイヤを使用する。これらのレイヤは、近景のテクスチャ、近景の深度、背景のテクスチャ、および背景の深度であり得る。
カメラパラメータ等がシグナリングされる手法に対し、種々のデバイスをコンパチブルにするために、カメラパラメータをデコーダに送信する手法が標準化されている。
標準化されたこれらの手法のうちの1つは、マルチビュービデオコーディング(MVC)標準規格において定義され、それは、周知のアドバンストビデオコーディング(AVC)標準規格の、H.264としても知られている添付書類Hにおいて定義されている。MVCの範囲は、シーンをいくつかの視点から表現するステレオビューまたは複数のビューのジョイントコーディングをカバーする。この標準規格は最終的に、ビューを別個に圧縮することと比較してより良好な圧縮効率を達成するために、同一のシーンのこれらのビュー間の相関を活用する。MVC標準規格はまた、カメラパラメータ情報のデコーダへの送信をカバーする。カメラパラメータは、補足エンハンスメント情報(SEI)メッセージとして送信される。このSEIメッセージのシンタックスは、表0.1に示されている。
ムービングピクチャエクスパーツグループ(MPEG)標準化への寄与がまた、z_nearおよびz_far値をデコーダにシグナリングするように提案している。z_nearおよびz_farパラメータをシグナリングするための提案されたシンタックスは、表0.2に示されている。
カメラパラメータが浮動小数点表示で送信されることが、表0.1から理解され得る。浮動小数点表示は、パラメータのより高い動的な範囲をサポートすること、およびより高い精度でのカメラパラメータの送信を容易にすることを可能にする。カメラパラメータのより高い精度は、Vetro、他によって示されてきたビュー合成にとって重要である。
多くの映像コーディング標準規格/ソリューションでは、より高いコーディング効率を得て時間スケーラビリティをサポートするために、映像ピクチャがそれらの表示順序とは異なる順序でコーディングされることができる。そのようなコーディング構造の例の1つは、階層Bコーディングであり、それは、双方向ピクチャ予測を広範に使用する。
H.264/AVCでは、コーディング順序と表示順序の両方が、ネットワーク抽象化レイヤ(NAL)ユニットヘッダにおいてシグナリングされ、それぞれ、フレーム番号とピクチャ順序カウント(POC)によって表現される。デコーダは、シーケンスを復号するために昇順のフレーム番号に従う。ディスプレイは一方で、画面上に画像を描画するために、昇順のPOCに従う。図2は、異なるコーディング順序および表示順序の概念を示す。
たとえDIBRおよびLDVといった上述の方法がエンコーダとデコーダとの間のビットレートを減じても、要求されるビットレートをさらに減じることが所望されるだろう。
目的は、エンコーダとデコーダとの間で必要とされるビットレートを減じることである。
この目的は、変更されたSEIメッセージのような更新メッセージまたは他の手段を使用することによってカメラパラメータおよび/または深度パラメータを送信するための新しいシンタックスの導入によって解決される。そのような他の手段は、パラメータが、ビットストリームで送信され、変更されたSEIメッセージではない何らかの他の表現を使用すること、であり得る。
したがって、帯域幅効率のよい手法でカメラおよび/または深度パラメータを送信するためのエンコーダにおける方法が提供される。
したがって、この目的は、カメラパラメータと深度パラメータとのうちの少なくとも1つに関連する更新メッセージを提供するためのエンコーダにおける方法によって達成される。カメラパラメータと深度パラメータとのうちの少なくとも1つは、デコーダに、第1のカメラ位置のための第1のビューを、第2のカメラ位置のための第2のビューと、カメラパラメータと深度パラメータとのうちの上記少なくとも1つと、に基づいて合成することを可能にさせる。カメラパラメータと深度パラメータとのうちの少なくとも1つは、第2のビューに関連する。エンコーダは、カメラパラメータと深度パラメータとのうちの上記少なくとも1つのどちらが経時的に変化しているかを検出する。次に、エンコーダは、カメラパラメータと深度パラメータとのうちの検出された上記少なくとも1つをそれぞれのモジュールへとモジュール化する。そして、エンコーダは、各それぞれのモジュールを更新メッセージへと符号化し、更新メッセージをデコーダに送信する。
さらなる態様によると、この目的は、カメラパラメータと深度パラメータとのうちの少なくとも1つに関連する更新メッセージを提供するように構成されたエンコーダによって達成される。カメラパラメータと深度パラメータとのうちの少なくとも1つは、デコーダに、第1のカメラ位置のための第1のビューを、第2のカメラ位置のための第2のビューと、カメラパラメータと深度パラメータとのうちの上記少なくとも1つと、に基づいて合成することを可能にさせ、カメラパラメータと深度パラメータとのうちの上記少なくとも1つは、第2のビューに関連する。エンコーダは、
カメラパラメータと深度パラメータとのうちの上記少なくとも1つのどちらが経時的に変化しているかを検出し、
カメラパラメータと深度パラメータとのうちの上記少なくとも1つをそれぞれのモジュールへとモジュール化し、
各それぞれのモジュールを更新メッセージへと符号化し、
更新メッセージをデコーダに送信する
ように構成された処理回路を備える。
いくつかの実施形態によると、第1のデバイスはエンコーダを備える。第1のデバイスは、詳細な説明に例示される第1のユーザ機器、等であることができる。
さらに、カメラおよび/または深度パラメータを受信し、カメラのビューを合成するためにそのカメラおよび/または深度パラメータを使用する、デコーダにおける方法が提供される。
したがって、この目的は、カメラパラメータと深度パラメータとのうちの少なくとも1つに関連する更新メッセージを復号するためのデコーダにおける方法によって達成される。カメラパラメータと深度パラメータとのうちの少なくとも1つは、デコーダに、第1のカメラ位置のための第1のビューを、第2のカメラ位置のための第2のビューと、カメラパラメータと深度パラメータとのうちの上記少なくとも1つと、に基づいて合成することを可能にさせる。カメラパラメータと深度パラメータとのうちの少なくとも1つは、第2のビューに関連する。デコーダは、エンコーダから更新メッセージを受信し、更新メッセージは、カメラパラメータと深度パラメータとのうちの少なくとも1つのためのそれぞれのモジュールを備える。次に、デコーダは、更新されるカメラパラメータと深度パラメータとのうちの上記少なくとも1つを得るために、更新メッセージの各それぞれのモジュールを復号する。
さらなる別の態様によると、この目的は、カメラパラメータと深度パラメータとのうちの少なくとも1つに関連する更新メッセージを復号するように構成されたデコーダによって達成される。カメラパラメータと深度パラメータとのうちの少なくとも1つは、デコーダに、第1のカメラ位置のための第1のビューを、第2のカメラ位置のための第2のビューと、カメラパラメータと深度パラメータとのうちの上記少なくとも1つと、に基づいて合成することを可能にさせる。カメラパラメータと深度パラメータとのうちの少なくとも1つは、第2のビューに関連する。デコーダは、
エンコーダから更新メッセージを受信し、更新メッセージは、カメラパラメータと深度パラメータとのうちの少なくとも1つのためのそれぞれのモジュールを備え、
カメラパラメータと深度パラメータとのうちの上記少なくとも1つを得るために、更新メッセージの各それぞれのモジュールを復号する
ように構成された処理回路を備える。
いくつかの実施形態によると、第2のデバイスはデコーダを備える。第2のデバイスは、詳細な説明に例示される第2のユーザ機器、等であることができる。
本明細書における実施形態によると、カメラおよび/または深度パラメータは、論理ブロック、またはモジュールに分けられる。次に、以前のフレームと比較すると現在のフレームで変化しているカメラパラメータおよび/または最も近いおよび最も遠い深度値(z nearおよびz far)のみが、デコーダに送信される。これは、受信機に情報を送信するために要求されるビットレートを減じることができる。
パラメータのために要求されるビットレートをさらに減少させるために、いくつかの実施形態によると、カメラおよび/または深度パラメータに対する増分変化のシグナリングが実行され、それは、カメラおよび/または深度パラメータの予測に関連する。増分変化は、現実のカメラおよび/または深度パラメータと推定されたカメラおよび/または深度パラメータとの間の差分として送信される。
したがって、いくつかの実施形態では、予測子、たとえば、計算式もまた、カメラおよび/または深度パラメータをより効率的に送信するために使用されることができる。そして、パラメータの現実の値と予測された値との間の差分(すなわち、予測誤り)が、送信される。したがって、エンコーダとデコーダとの間で送信される情報の量は減少する。
さらなる実施形態によると、カメラおよび/または深度パラメータの増分変化は、インターピクチャ(インターフレーム)予測構造と、効率的に組み合わせられることもできる。インターピクチャ予測構造は、階層符号化に基づき得る。例として、インターピクチャ(インターフレーム)は、階層Bフレーム、Pフレーム、等であり得る。そして、カメラパラメータの更新は、フレームのコーディング順序で送信および計算される。これは、受信機に、カメラパラメータおよび/または深度パラメータの予測に影響を及ぼさずに、より高い階層のレイヤのための更新メッセージ、たとえば、変更されたSEIメッセージをドロップすることを可能にさせる。
ここで、およびさらに、本明細書において、「パラメータ」という用語は、外部および内部カメラパラメータの両方、現在のフレーム/カメラにおけるz_nearおよびz_farと呼ばれる最も近いおよび最も遠い深度値、また、ビュー合成に関連する他のメタデータ情報を想定する。本開示全体を通して、「カメラパラメータと深度パラメータとのうちの少なくとも1つ」は、「カメラパラメータおよび/または深度パラメータ」を意味するものと理解される。
本明細書における実施形態による利点は、パラメータのより効率的なシグナリングが可能になることである。より効率的なシグナリングは、たとえば、カメラパラメータおよび/またはz_near、z_far値のうちのいくつかが経時的に変化しているケースにおける、更新メッセージの使用、およびカメラパラメータおよびz_near、z_far値をシグナリングする他の手法の使用により、実現されることができる。本明細書における実施形態は、パラメータをシグナリングするために要求されるビットレートを減少させる。
特定の特徴および利点を含む、本明細書に開示される実施形態のさまざまな態様が、以下の詳細な説明と添付図面から容易に理解されるだろう。
図1は、オートステレオスコピックディスプレイの、異なる方向に向けられた多数のビューの概観図である。 図2は、コーディング順序および表示順序の説明図である。 図3は、実施形態が実現され得るシステムの概観図である。 図4は、図3のシステムにおいて実現される実施形態に係る例示的な方法を示す、模式的な、組み合わせられたシグナリングおよびフローチャートである。 図5aは、表示順序および符号化順序を示すブロック図である。 図5bは、表示順序および符号化順序を示すブロック図である。 図5cは、表示順序および符号化順序を示すブロック図である。 図5dは、表示順序および符号化順序を示すブロック図である。 図6は、3つのBフレームを用いた階層予測構造を示す概観図である。 図7は、エンコーダから見た場合の、図4の例示的な方法を示す模式的なフローチャートである。 図8は、図4および/または図7の方法を実行するように構成された例示的なエンコーダの模式的なブロック図である。 図9は、デコーダから見た場合の、図4の例示的な方法を示す模式的なフローチャートである。 図10は、図4および/または図9の方法を実行するように構成された例示的なデコーダの模式的なブロック図である。
上に提示した既存のソリューションに伴う1つの問題は、マルチビュー取得情報SEIメッセージがすべてのカメラパラメータを含むことである。これは、同一のカメラパラメータが映像シーケンス全体にわたって有効である場合、すなわち、パラメータが経時的に相対的に一定である場合には良好に作用するだろう。しかしながら、いくつかのマルチビューシーケンスは、一定のある特定のカメラパラメータ、および経時的に変化する他のカメラパラメータを有し得る。パラメータのうちのいくつか、たとえば、変換ベクトルならびにz_nearおよびz_farパラメータが、フレーム毎に変化し得る一方で、いくつかのパラメータは、フレームのシーケンス全体にわたって一定であり得る。最小および最大深度値z_nearおよびz_farがフレーム毎に変わることはまた、ある特定のタイプのコンテンツに極めてよくあることである。カメラパラメータおよびz_near、z_far値は浮動小数点表示を使用して送信されるので、カメラ毎および単一のフレーム毎にパラメータのセットをすべて再送するということは、いくらかの追加の量のビットが送信される必要があることを意味し得る。したがって、コーディングされた映像シーケンスにおいてカメラパラメータおよび/または深度パラメータを表現するために要求されるビットの数を減じることが所望される。
単一のSEIメッセージですべてのビューのためのカメラパラメータを搬送するメカニズムに伴う別の問題は、「ビュースケーラビリティ」が使用される場合、すなわち、N個のビューのシーケンスからN個より少ないM個のビューのサブセットが(ビットストリーム抽出によって)抽出される場合には、SEIメッセージが、新たなM個のビューの表現を反映させるために書き換えられなくてはならなくなること、すなわち、抽出されなかったビューのためのパラメータがメッセージから除去されなくてはならなくなることである。そのような書き換え処理は、所望されない複雑さと遅延をもたらし得る。
詳細な説明に進む前に、いくつかの用語を簡単に説明する。
「フレーム」という用語は、ピクチャのことを言う。すなわち、2つのフレームは、(時間的または位置的なアラインメントの制約は何もない)2つのピクチャであり得る。2つのフレームは、同一のまたは異なる時間インスタンス、または同一のまたは異なるビュー、すなわち、異なるカメラ位置に対応し得る。典型的には、2つのフレームが同一の時間インスタンスに対応する場合、その2つのフレームは異なるビューに関連する。また、2つのフレームが同一のビューに対応する場合、その2つのフレームが異なる時間インスタンスに関連することも典型的である。時間インスタンスは、連続的または非連続的であり得る。
述べたとおり、「ビュー」という用語は、ある特定のカメラ位置からのシーンから得られたフレーム、またはフレームのシーケンスである。
「インタービュー予測」という用語は、ピクチャ中の区画を、仮想または現実であり得る別のビュー、たとえば、カメラ位置、に関連する別のピクチャから予測することに関連する。
「時間予測」という用語は、ピクチャ中の区画を、同一のビューに属するが、異なる時間インスタンス、すなわち瞬間、に属する別のピクチャから予測することに関連する。
完全さのために、本明細書では使用されないが、スライスという用語は、H.264、MVC、高効率ビデオコーディング(HEVC)、および関連する標準規格の専門用語のことを言う。スライスは、一般的にはラスタ走査順序(HEVCにおいては必ずしもそうでない)における整数個のマクロブロック(または、CU)を備えるピクチャの一部である。したがって、スライスは、ピクチャの一部であり得る。スライスはまた、ピクチャ全体を備え得るが、常にではない。一般的に、H.264において、スライスは、インターまたはイントラ予測され得る。H.264およびMVCには、IDRスライスと呼ばれるスライスのタイプが存在する。スライスのうちの1つがIDRである場合には、同一のピクチャにおけるすべての他のスライスもまた、IDRスライスであるべきである。しかしながら、他のケースでは、ピクチャは、インターおよびイントラ予測されたスライスの両方を備え得る。
本明細書において、「イントラ予測された」ピクチャ(フレーム)という用語は、インター予測を使用しない(または使用することを許可されない)ピクチャのことを言うために使用される。「インター予測された」ピクチャ(フレーム)という用語は、インター予測を使用する(または使用することを許可された)ピクチャのことを言うために使用される。
さらに、本明細書において使用される場合、カメラおよび/または深度パラメータとともに使用される場合の「現実」という用語は、符号化の際にエンコーダにおいて利用可能なカメラおよび/または深度パラメータを言うことを意味する。利用可能なこれらのパラメータは、デコーダにおいて抽出または予測されたカメラおよび/または深度パラメータを考えると、現実である。
図3は、本明細書における実施形態が実現され得る、無線通信システム、マルチメディアシステム、等といった、通信システム100の概観図である。
通信システム100は、エンコーダ310およびデコーダ320を備える。
エンコーダ310は、処理回路311、たとえば、プロセッサを備える。処理回路311は、カメラおよび深度パラメータを構成および/または圧縮するように構成され得る。深度パラメータは、(例としてz_near、z_far値を有する)深度マップパラメータと呼ばれ得る。
さらに、エンコーダ310は、カメラ、カメラのアレイから、または、カメラパラメータおよび/または深度マップのためのz_near/z_farパラメータを決定する3D映像処理システムから、入力を受信するための入力部313を備える。z_nearおよびz_farパラメータは、深度パラメータとも呼ばれる。入力は一般的にいくつかのカメラからである。カメラが1つしかない場合、2D映像しか存在し得ない。そして、カメラパラメータは一般的に、2D映像を表示するのには必要とされない。
エンコーダ310はさらに、カメラおよび深度マップパラメータおよび他の情報のうちのいくらかを記憶するためのメモリ312、および、構成および/または圧縮されたカメラパラメータおよび/または深度パラメータを送信するための出力部314を備える。
デコーダ320は、エンコーダ310からカメラパラメータおよび/または深度パラメータを受信するための入力部324を備える。これらのカメラパラメータおよび/または深度パラメータは、処理回路321、たとえば、プロセッサによって処理され、ビューを合成するためにビュー合成器323によって使用される。デコーダ320はまた、たとえば、以前に受信されたカメラおよび深度パラメータを記憶するためのメモリ322を備える。
本明細書における実施形態によると、エンコーダ310は、図7に示す第1のデバイスに含まれることができ、デコーダ320は、図9に示す第2のデバイスに含まれることができる。
本明細書において使用される場合、「デバイス」という表現は、ユーザ機器、モバイルフォン、セルラーフォン、無線通信能力を備える携帯情報端末(PDA)、スマートフォン、内部または外部のモバイルブロードバンドモデムを備えるラップトップ、無線通信能力を備えるセンサーデバイス、ポータブル電子無線通信デバイス、等のことを言い得る。
前述したように、いくつかのカメラパラメータはフレームのシーケンスにわたって一定であり得るが、いくつかのパラメータはフレーム毎の頻度で変化し得る。これらのパラメータは、ビュー合成のために、受信機、すなわち、デコーダ320に送信される必要があり得る。
以下においては、異なる実施形態にしたがって、カメラパラメータおよび/または深度パラメータを送信するために必要とされるビットレートを減じるための方法が説明される。特に、送信のためのカメラパラメータおよび/または深度パラメータのエンコーダ310による予測、または受信されたカメラパラメータからのカメラパラメータおよび/または深度パラメータのデコーダ320による予測が説明される。
図4を参照すると、組み合わせられたシグナリングおよびフローチャートが、図3に係る通信システム100において実現される場合の例示的な方法を示している。エンコーダ310は、カメラパラメータと深度パラメータとのうちの少なくとも1つに関連する更新メッセージを提供するための方法を実行する。したがって、デコーダ320は、カメラパラメータと深度パラメータとのうちの少なくとも1つに関連する更新メッセージを復号するための方法を実行する。カメラパラメータと深度パラメータとのうちの少なくとも1つは、デコーダ320に、第1のカメラ位置のための第1のビューを、第2のカメラ位置のための第2のビューと、カメラパラメータと深度パラメータとのうちの上記少なくとも1つと、に基づいて合成することを可能にさせる。カメラパラメータと深度パラメータとのうちの少なくとも1つは、第2のビューに関連する。
更新メッセージは、SEIメッセージ、または何らかの他の表現であり得る。
更新メッセージは、第1のメッセージおよび第2のメッセージを備え得る。第1のメッセージは、カメラパラメータを備えることができ、第2のメッセージは、深度パラメータを備えることができる。以下の「カメラパラメータ更新メッセージ」および「実施形態7」のセクションを参照。
カメラパラメータは、回転行列を備えることができ、更新メッセージは、回転行列が単位行列であることを示すためのインジケーションを備えることができる。以下の「実施形態8」のセクションを参照。カメラパラメータは、内部パラメータ、外部パラメータを備えることができ、および/または、深度パラメータは、znearおよび/またはzfar値を備えることができる。
いくつかの実施形態によると、第1のビューは、第3のフレームまたは第4のフレームに関連する。いくつかの例では、第3のフレームは、第4のフレームと同一のフレームである。
「カメラ」という用語は、必ずしも物理的なカメラのことを言うとは限らず、ビューが合成されるカメラのための可能な位置のことを言うことが理解されるべきである。
以下の動作が、任意の適切な順序で実行され得る。
動作401
どのパラメータをデコーダ320にシグナリングするかを決定するために、エンコーダ310は、カメラパラメータと深度パラメータとのうちの上記少なくとも1つのどちらが経時的に変化しているかを検出する。経時的に変化しているパラメータのみのための更新を送信することが好まれ得る。したがって、経時的に変化するパラメータのうちの少なくともいくつかは、第1のビューと比較して第2のビューで異なる。
例として、第2のビューの第2のフレームと第1のビューの第1のフレームとの間で変化するカメラパラメータおよび/または深度パラメータが、デコーダ320に送信され得る。この例では、第1および第2のフレームは、異なる時間インスタンスに関連し得る。この例は、本明細書において説明される時間予測と組み合わせられることができる。
別の例として、第2のカメラ位置に対応する第2のビューと第1のカメラ位置に対応する第1のビューとの間で変化するカメラパラメータおよび/または深度パラメータが、デコーダ320に送信され得る。この例では、第1のビューおよび第2のビューは、同一の時間インスタンスに関連し得る。この例は、本明細書において説明されるインタービュー予測と組み合わせられることができる。
動作402
エンコーダ310が、どのパラメータが経時的に変化しているか、またはどのパラメータが第2のビューから第1のビューで変化しているかを認識すると、これらのパラメータは、モジュールへと編成され得る。したがって、エンコーダ310は、カメラパラメータと深度パラメータとのうちの検出された上記少なくとも1つをそれぞれのモジュールへとモジュール化する。エンコーダ310がカメラパラメータと深度パラメータとのうちの少なくとも1つをモジュール化する場合、カメラパラメータと深度パラメータとのうちの少なくとも1つは、異なるモジュールへと分割され、または分けられる。このように、カメラパラメータと深度パラメータとのうちの少なくとも1つは、経時的に変化しているパラメータのみがデコーダに送信されるように、ブロックまたはモジュールに入れられる。
それぞれのモジュールは、内部パラメータ、外部パラメータ、または深度パラメータに関連し得る。「実施形態1」のセクションを参照。
それぞれのモジュールは、変換パラメータとも呼ばれる変換ベクトルのx成分に関連し得る。「実施形態2」のセクションを参照。
予測に関連するさらなる実施形態では、各それぞれのモジュールは、予測されたカメラパラメータと現実のカメラパラメータとの間の差分、および/または、予測された深度パラメータと現実の深度パラメータとの間の差分を示す、それぞれの差分パラメータを含み得る。これは、動作403〜405のうちの1つ以上の後に実行され得る。「実施形態5」のセクションを参照。
モジュールへのパラメータの分割は、固定であり(予め決められている)、エンコーダとデコーダの両方にとって既知であり得るということにもまた、注意すべきである。このケースでは、エンコーダは、予め定義されたモジュールのうちのどれが送信されているかを、デコーダにシグナリングする必要があるのみである。
動作403
この動作は、時間予測に関連する。
エンコーダ310とデコーダ320との間で送信されるビットの数を減じるために、エンコーダ310およびデコーダ320は、予測アルゴリズムについて合意し得る。予測アルゴリズムは、符号化前の予測中にエンコーダ310によって、および、復号後の抽出中にデコーダ320によって、使用されるものである。
したがって、エンコーダ310は、第1のフレームおよび第2のフレームのためのカメラパラメータおよび/または深度パラメータに基づいて、第1および第2のフレームに近接する第3のフレームのためのカメラパラメータと深度パラメータとのうちの少なくとも1つを線形予測し得る。第1および第2のフレームに近接する、とは、時間に関し近接することを言い得る。第1および第2のフレームは、任意のフレームであり得る。第1および第2フレームは、第3のフレームが第1および第2のフレームを参照して予測されるので、参照フレームと呼ばれ得る。第3のフレームは、第3のフレームが現在符号化され得るので、現在のフレームと呼ばれ得る。以下の「実施形態4」のセクションを参照。
第3のフレームは、時間、すなわち、表示順序に関し、第1および第2のフレームの間に位置し得る。他の例では、第3のフレームは、第1および第2フレームの前または後に位置し得る。第1および第2のフレームは、互いに隣接し得る。第1および第2のフレームは、第3のフレームが第1および第2のフレームの間に位置する場合、時間に関し間隔をあけられることができる。第1および第2のフレームはまた、第3のフレームが第1および第2のフレームの前または後に位置する場合にも、間隔をあけられ得る。
動作402が予測に関連する場合、動作403は、動作402の前に実行され得る。同様に、上述のごとく動作402が予測に関連する場合、動作402は、動作403の後に実行され得る。
動作404
この動作は、インタービュー予測に関連する。
エンコーダ310は、カメラのための、たとえば、第1のカメラ位置における、カメラパラメータおよび/または深度パラメータを、さらなるカメラのための、たとえば、第2のカメラ位置における、さらなるカメラパラメータおよび/または深度パラメータに基づいて予測し得る。さらなるカメラパラメータおよび/または深度パラメータは、予測されたカメラパラメータおよび/または深度パラメータが有効である同一の時間インスタンスに関連し得る。「インタービュー予測」のセクションを参照。
動作402が予測に関連する場合、動作404は、動作402の前に実行され得る。同様に、上述のごとく動作402が予測に関連する場合、動作402は、動作404の後に実行され得る。
動作405
エンコーダ310は、第4のフレームのためのカメラパラメータおよび/または深度パラメータを、さらなるフレームのためのさらなるカメラパラメータおよび/またはさらなる深度パラメータに基づいて予測し得る。第4のフレームは、第1のビューに関連し得る。さらなるフレームは、第2のビューに関連し得る。第4のフレームおよびさらなるフレームは、異なる時間インスタンス、または同一の時間における異なるビューに関連し得る。ここで、第4のフレームは、それがこの動作において第3のフレームと同様に予測されるので、現在のフレームであることができる。さらなるカメラパラメータは、第3または第4のフレームのような今のフレームに(表示順序またはコーディング順序において)先行するフレームのためのコーディングされたパラメータであることができる。「SEI参照」のセクションを参照。異なる言い方をすると、第3または第4のフレームは、現在のまたは今のフレーム、すなわち、カメラおよび/または深度パラメータが有効なフレームであり得る。
動作402が予測に関連する場合、動作405は、動作402の前に実行され得る。同様に、上述のごとく動作402が予測に関連する場合、動作402は、動作405の後に実行され得る。しかしながら、いくつかの例では、モジュール化は、エンコーダとデコーダの両方にとって既知であることができる。そして、動作の順序は、ここに示されたものとは異なり得る。
動作403または404において説明された予測は、いくつかの実施形態に係るSEI参照の使用に関連して使用され得る。
動作406
エンコーダ310は、各それぞれのモジュールを更新メッセージへと符号化する。例として、エンコーダは、更新メッセージのための適切なフォーマット、たとえば、異なる実施形態に係る表1〜8に示すSEIメッセージのためのフォーマットを選択する。
各それぞれのモジュールの符号化は、カメラパラメータと深度パラメータとのうちの上記少なくとも1つの精度の符号化を除き得る。内部パラメータ、回転パラメータ、変換パラメータ(変換ベクトル)、またはz_near/z_farといった、パラメータのサブセットのための更新を符号化することもまた可能である。それらのパラメータモジュールの一部のみ、たとえば、変換ベクトルのx成分のみを送信することもまた可能である。パラメータの各セットを更新するための判定は、別個に行われ得る。「実施形態3」のセクションを参照。
各それぞれのモジュールの符号化は、予測された深度パラメータの符号化を除き得る。これは、予測された深度パラメータが経時的に変化しない場合、またはデコーダ320が更新メッセージから深度パラメータを予測し得る場合、有益であることができる。「実施形態6」のセクションを参照。
各それぞれのモジュールの符号化は、カメラパラメータおよび/または深度パラメータが関連するフレームのコーディング順序に従い得る。「時間スケーラビリティのサポート」のセクションを参照。他の例では、各それぞれのモジュールの符号化は、カメラパラメータおよび/または深度パラメータが関連するフレームの表示順序に従い得る。
動作407
エンコーダ310は、デコーダ320に更新メッセージを送信する。動作406において符号化される場合、更新メッセージは、カメラパラメータと深度パラメータとのうちの少なくとも1つのためのそれぞれのモジュールを備える。
このように、説明されたごとく、経時的に変化しているカメラパラメータと深度パラメータとのうちの少なくとも1つの中のパラメータのみが、SEIメッセージで送信される。結果として、動作401および402における検出およびモジュール化がない場合と比較すると、より少ない数のビットが送信されるだけでよい。
動作408
この動作において、デコーダ320は、動作406においてエンコーダ310によって符号化された更新メッセージの復号を実行する。したがって、デコーダ320は、更新されるカメラパラメータと深度パラメータとのうちの上記少なくとも1つを得るために、更新メッセージの各それぞれのモジュールを復号する。
各それぞれのモジュールの復号は、カメラパラメータと深度パラメータとのうちの上記少なくとも1つの精度の復号を除き得る。「実施形態3」のセクションを参照。
各それぞれのモジュールは、予測されたカメラパラメータと現実のカメラパラメータとの間の差分、および/または、予測された深度パラメータと現実の深度パラメータとの間の差分を示す、それぞれの差分パラメータを含み得る。それぞれの差分パラメータは、本明細書において、予測誤りと呼ばれ得る。「実施形態5」のセクションを参照。
各それぞれのモジュールの復号は、予測された深度パラメータの復号を除く。「実施形態6」のセクションを参照。
各それぞれのモジュールの復号は、カメラパラメータと深度パラメータとのうちの上記少なくとも1つが関連するフレームのコーディング順序に従い得る。「時間スケーラビリティのサポート」のセクションを参照。
動作409
デコーダ320は、動作408における復号の後、第1のフレームおよび第2のフレームのためのカメラパラメータおよび/または深度パラメータに基づいて、第1および第2のフレームに近接する第3のフレームのためのカメラパラメータと深度パラメータとのうちの少なくとも1つを抽出する。この動作において、デコーダ320は、動作403においてエンコーダ310によって予測されたカメラパラメータおよび/または深度パラメータを抽出する。動作409〜411のコンテキストにおいて、抽出は、エンコーダ310と同一のまたは対応するアルゴリズムを使用しながらの予測を備え得る。「実施形態4」のセクションを参照。
動作410
デコーダ320は、たとえば、第1のカメラ位置に位置するカメラのためのカメラパラメータを、さらなるカメラ、たとえば、さらなるカメラビューのためのさらなるカメラパラメータに基づいて抽出し得る。この動作において、デコーダ320は、動作404においてエンコーダ310によって予測されたカメラパラメータおよび/または深度パラメータを抽出する。「インタービュー予測」のセクションを参照。
動作411
デコーダ320は、第4のフレームのためのカメラパラメータおよび/または深度パラメータを、同一のカメラのさらなるフレームのためのさらなるカメラパラメータおよび/またはさらなる深度パラメータに基づいて抽出し得る。この動作において、デコーダ320は、動作405においてエンコーダ310によって予測されたカメラパラメータおよび/または深度パラメータを抽出する。「SEI参照」のセクションを参照。
本明細書における実施形態は、さらなる実施形態を作り出すために組み合わせられることができる。
パラメータの更新においてパラメータ表現の一部(精度および/または指数)を再利用すること
カメラパラメータをシグナリングする際に費やされるビット数のさらなる減少が、ビットストリームにおける値の一部のみを更新することによって達成されることができる。たとえば、値を表現するために使用される浮動小数点の精度は、シーケンス(またはシーケンスの一部)にわたって一定であり得る。したがって、精度は、シーケンス全体のために(または、イントラ(IDR)フレームから始まるピクチャのグループのために)シグナリングされ得る。これらのパラメータは、IDRピクチャに関連するSEI(または他のパラメータ表現)においてシグナリングされ得る。そして、仮数、符号、および指数のみが、GOP内でパラメータ値のために送信される。パラメータの「予測誤り」(パラメータの現実の値と予測された値との間の差分)のための仮数、符号、および指数の値を送信するための、よりいっそう有効なパラメータ表現があるだろう(予測についての「カメラパラメータおよびz near、z far値の予測」および「時間スケーラビリティのサポート」のセクションを参照)。
ビットを節約するための別の手法は、多数のフレームのために同一の指数を使用し、仮数部のみを更新することである。そして、パラメータの指数が更新された場合にビットシグナリングがSEIメッセージに追加される。
パラメータのモジュール化(実施形態1〜3、5〜8)
前述したように、いくつかのカメラパラメータのみ(たとえば、カメラパラメータにおける変換ベクトルのx成分のみ)が、ある特定のシナリオにおいて経時的に変化している。たとえば、1D(線形)カメラ配列では、外部カメラパラメータにおける変換ベクトルのx成分のみが変化している。たとえカメラのベースライン距離が経時的に変化していても、変換ベクトルのx座標のみが変化するだろう。
したがって、カメラパラメータ(およびz_near、z_far値)をモジュールに分け、各モジュールのために、そのようなモジュール毎の値が更新されるかどうかがシグナリングされることが有益であろう。どのモジュールも、そのまた下に他のモジュールを含み、それらのモジュールのためのパラメータが現在のフレームのために更新されるかどうかを示すシグナリングビットを含み得る。これらのモジュールにおけるパラメータのための値は、パラメータの新たな値、すなわち、予測誤り(パラメータの値とその予測値との間の差分)を送信することによって、更新され得る。パラメータの値が更新される形態は、送信機と受信機との間で合意される。パラメータの値をシグナリングする手法は、標準規格(またはシステム)のために一定であることができ、すなわち、それは、SEIメッセージまたは他の手段によって、特定の圧縮された映像シーケンス(またはシーケンスの一部)のためにシグナリングされ得る。
たとえば、外部カメラパラメータを考慮すると、カメラ回転行列が1つのモジュールに入れられ得る一方で、カメラ変換ベクトルは、別のモジュールに入れられる。これは、たとえば、MPEG三次元ビデオ(3DV)コーディングにおいてよく使用される1Dカメラ配列のケースで有益であろう。
カメラパラメータ更新メッセージ
IDRフレームのためのカメラパラメータを送信し、(GOPにおいて予測されたフレームのための)カメラパラメータの更新を送信するために、異なるSEIメッセージ(または異なる表現)を使用することが提案される。別のソリューションは、単に、現在のSEI(表現)がすべてのパラメータのために使用されるのかパラメータの更新のために使用されるのかを示すフラグを有する、同一のSEIメッセージのための異なる構造を使用することである。SEIメッセージ(またはその構造)のタイプは、SEIメッセージ(または表現)が属するアクセスユニットのタイプからも導出され得る。これは、上述した第1のメッセージが第2のメッセージとは異なる構造を有し得ることを意味する。
SEIメッセージ(表現)のタイプを区別することは、パラメータの更新を含むSEIメッセージ(表現)のために、よりモジュール化された構造を使用することを可能にするであろう。IDRフレームのためのSEIメッセージでは、モジュールにおいてパラメータが送信されている場合、そのようなモジュールにおいてパラメータのほとんど(または、それどころかパラメータのすべて)が送信されるので、モジュール化された構造は、シグナリングにおけるビットの浪費という結果をもたらすであろう。更新メッセージは対照的に、パラメータの一部のみが更新されるので、モジュール化された構造による利点を有するであろう。
カメラパラメータのインタービュー予測
カメラパラメータは、同一の(または異なる)瞬間に対応する別のカメラにおけるカメラパラメータから更新されることもできる。すると、更新SEIメッセージは、カメラパラメータSEI(またはカメラ)、または参照メッセージを搬送するサブビットストリームを参照する別の識別子(および、場合によっては参照フレームのPOC番号またはフレーム番号)を参照して、送信されるべきである。そして、別のカメラからのパラメータの値が、1つのカメラから別のカメラで変化しているカメラパラメータのうちのいくつかのための更新とともに使用され得る。内部カメラパラメータもまた、しばしばすべてのカメラにおいて同一である。たとえば、1D(線形)カメラ配列では、(MPEG 3DVにおけるように)外部カメラパラメータにおける変換ベクトルのx成分のみが変化している。このシナリオは、モジュール化されたカメラパラメータ構造を使用することによって大きな利点を有するだろう。
これらのモジュールにおけるパラメータのための値は、パラメータの新たな値、すなわち、予測誤り(パラメータの現在の値とその予測値との間の差分)を送信することによって更新され得る。カメラのための予測順序は合意され得る。マルチビュー映像が(たとえば、H.264/AVCの添付書類Hを使用して可能な)「メインビュー」および「従属ビュー」を使用してコーディングされる場合、コーディング構造においてメインビューのためのパラメータを送信し、従属ビューにおいてそれらを更新することが論理的である。パラメータのための予測構造はまた、明示的にシグナリングされることも、導出されることも、または固定であることもできる。
カメラパラメータのインタービュー予測は、カメラパラメータの時間予測と組み合わせられることができる。そのような組み合わせの例は、メインビューにおいて時間予測を、従属ビューにおいてインタービュー予測を、使用し得る。別の例は、IDRアクセスユニットにおいてインタービュー予測を、同一のカメラに属するGOP「内の」ピクチャ間で時間予測を、使用し得る。これらの構造の他の組み合わせもまた可能である。
SEI参照
カメラパラメータおよびz_near/z_far値の予測を改善するための別の手法は、「SEI参照」を導入することである。すると、(SEI)パラメータの更新は、現在のSEIのパラメータ値に近いパラメータ値を有する(SEI)メッセージに基づき得る。別のSEIの参照を可能にするために、「SEI参照」が導入されるだろう。SEIメッセージの参照の代わりに、フレーム番号(frame_num)の参照が使用され得る。すると、受信機は、たとえば、予測として使用されるパラメータがどこに位置するかを示すために、frame_num(またはビュー番号)を使用し得る。SEI参照は、インタービュー予測および/または時間予測において使用され得る。
実施形態1
この実施形態では、パラメータが、内部パラメータ、外部パラメータ、およびznear/zfar値、の3つの部分に分けられる。各部分は他の部分と別個にSEIメッセージに含まれることができ、それは、すべてのパラメータがフレーム毎に更新される必要のないケースにおいて、要求されるビットレートをより低くすることができる。
multiview acquisition_infoのための、例示的なSEIメッセージ、または他の表現が、以下の表に示される。いくつかの特定の変化に下線が引かれ、他の変化には下線が引かれていない。z_near_z_far flag、z_nearおよびz_farのシグナリングが、この実施形態において追加される。
実施形態1のための表1を参照。
実施形態2
第2の実施形態では、カメラパラメータおよびz_near/z_far値が、以下のSEIメッセージのmultiview_acquisition_update_info()を用いて更新される。更新メッセージにおけるパラメータは、少ないビット数を使用することにより更新され得る、ということが理解され得る。update_x_only_flagと呼ばれるフラグが付加的に追加される。これは、変換ベクトルのx成分を他の成分と別々に更新する可能性を有するために行われる。これは、変換ベクトルの成分xのみが変化している線形(1D)カメラ配列の一般的なシナリオをカバーする。multiview_acquisition_message()とは異なるフィールドが、以下の表で強調表示されている。これらの変化は多くの場合、以前のフレームと比較して変化したパラメータのみの更新を容易にするために、グループにおけるパラメータのモジュール化を含む。実施形態2のための表2を参照。
実施形態3
第3の実施形態では、カメラパラメータおよびz_near、z_far値が、以下のSEIメッセージのmultiview_acquisition_update_info()を用いて更新される。更新メッセージにおけるパラメータは、少ない数のビットを使用することによって更新され得る、ということが理解され得る。変換ベクトルにおけるパラメータが付加的に、update_x_only_flagというフラグによって2つの部分に分けられる。これは、変換ベクトルのx成分をyおよびz成分と別々にする可能性を有するために行われる。カメラパラメータおよびz_near、z_far値の精度は、IDRフレームのためのmultiview_acquisition_info()メッセージにおいてシグナリングされているので、シグナリングされない。
実施形態3のための表3を参照。
実施形態5
第5の実施形態では、z_near、z_farは深度マップの特性であり、カメラパラメータはカメラ位置の特性であるので、深度マップパラメータz_nearおよびz_farのシグナリングは、カメラパラメータのシグナリングとは別々にされる。更新メッセージは、他のフレームのために送信されたパラメータ値に対する更新として使用される。インタービューケースのためのカメラパラメータの送信に関し、パラメータは、メインビューのために送信され、従属ビューにおいて更新され得る。このケースにおいて、従属ビューのための内部カメラパラメータがメインビューにおけるパラメータと同一である場合、それらを再送する必要はない。
このケースにおけるカメラパラメータのための更新は、「カメラパラメータおよびz near、z far値の予測」および「時間スケーラビリティのサポート」のセクションに示すように、予測されたパラメータ値と現実のパラメータ値との間の差分として、送信されることができる。
実施形態5のための表5.1〜5.4を参照。
実施形態6
第6の実施形態では、z_nearおよびz_farは深度マップの特性であり、カメラパラメータはカメラ位置の特性であるので、パラメータz_nearおよびz_farのシグナリングは、カメラパラメータのシグナリングと別々にされる。更新メッセージは、他のフレームのために送信されたパラメータ値に対する更新として使用される。インタービュー予測のケースのためのカメラパラメータの送信に関し、パラメータは、メインビューのために送信され、従属ビューにおいて更新され得る。このケースにおいて、従属ビューのための内部カメラパラメータがメインビューにおけるパラメータと同一である場合、それらを再送する必要はない。
(z_nearおよびz_far値を含む)パラメータの更新が、このケースでは予測なしで送信される。しかしながら、仮数値のみを更新するオプションが存在する。これは、仮数はパラメータ値の符号および指数よりも頻繁に変化するので、ゆっくりと変化するパラメータ値をシグナリングする場合に有用であることができる。
実施形態6のための表6.1〜6.5を参照。表6.5に示すのは、表6.4と比較したz_nearおよびz_farの更新のための代替のシンタックスである。このケースでは、z_の値を送信することによりメッセージ全体が代わりに送信され得るので、符号および指数はまったくシグナリングされない。
実施形態7
第7の実施形態では、2つの異なるメッセージがそれぞれ、パラメータz_nearおよびz_farのシグナリングとカメラパラメータのシグナリングのために使用される。更新メッセージはこの例では使用されない。代わりに、1つのメッセージタイプが、z−値の初期化と更新の両方に使用され、別のメッセージタイプが、カメラパラメータの初期化と更新の両方に使用される。上述したように、初期化と更新のために別々のメッセージを有することは、たとえば、初期化メッセージにおいて(どのパラメータモジュールを更新するかを示すフラグを省略することにより)ビットを節約することを可能にすることができ、同様に、ビットは、更新メッセージにおいて(たとえば、初期化メッセージから精度パラメータを導出することにより)節約されることができる。しかしながら、初期化と更新のために別々のメッセージを有することには、異なるメッセージタイプ(SEIタイプ)のための値のスペースが限られ、1つのシグナリングタイプのために2つのタイプ(SEIタイプ)を費やすことは望ましくない、という欠点があり得る。たとえば、精度パラメータが省略された場合のパケット損失のケースにおける誤り伝搬に伴う問題も存在し得る。したがって、この例では、1つのパラメータタイプにつき1つのSEIタイプが使用される。
view_acquisition infoのために、3つの異なるモジュール、「intrinsic_param」、「rotation_param」、および「translation_param」が定義される。それらの各々のために、それぞれのパラメータが更新されるかどうかを示すフラグが送信される。「translation_param_flag」が設定されるケースでは、x成分のみを更新するための別のオプション(フラグ)が存在する。
パラメータモジュールが更新されないケースでは、参照ピクチャ(たとえば、POCまたはコーディング順序(フレーム番号)が最も近い以前のピクチャ)からのそれぞれの値が使用される。あるいは(例示ではなく)、時間参照フレームインジケータ(たとえば、POC番号)が、参照フレームを示すために使用され得る。以前のピクチャが利用可能であるとみなされないIDRピクチャのケースでは、別のビューからの予測が使用され得る。参照ビューは、マルチビュー映像予測のためにも使用される同一のビューであり得るか、またはそれは、ビュー識別子(ここでは例示ではない)によって別々にシグナリングされ得るか、のいずれかである。さらに、いくつかのビューが、マルチビュー予測のために使用され得る。
実施形態7のための表7.1〜7.2を参照。
それぞれのSEIメッセージのうちの1つは、パラメータのいずれかがそれぞれの参照パラメータに対し更新される場合にのみ送信される、ということがさらに示唆される。たとえば、カメラパラメータのシグナリングに関し、これは、view_acquisition_infoメッセージが送信されない場合には、intrinsic_param_flagも0、rotation_param_flagも0、translation_param_flagも0であることが暗に想定されることを意味する。したがって、それらの3つのフラグが0に設定されるケースは、さらなる最適化のために使用され得る、実際のview_acqusition_infoメッセージでは決して生じないであろう。これは、以下の例において説明される(いくつかの特定のパラメータに下線が引かれ、translation_param_flagは、(3つのフラグがすべてゼロに等しいケースは除かれるので)他の2つのフラグが0である場合、送信されない)。実施形態7のための表7.3を参照。
実施形態8
第8の実施形態では、カメラパラメータのある特定の特性が、パラメータの圧縮をさらに改善するために考慮される。たとえば、カメラパラメータの1D(線形)配列のケースでは、回転行列は単位行列に等しい。したがって、追加のビットレートの節約が、回転行列要素をシグナリングする代わりに回転行列が単位行列であることをシグナリングすることによって、達成されることができる。そのようなSEIメッセージのためのシンタックスは、表8において提供される。この実施形態、および応用可能なすべての他の実施形態は、単独で使用されることもできるし、または他の実施形態と組み合わせられることもできる。
実施形態8のための表8を参照すると、関数「set_identity_rotation_matrix()」は(浮動小数点フォーマットで)、回転行列の主対角線における要素を1と等しく設定し、すべての他の要素を0と等しく設定する。
カメラパラメータおよびz near、z far値の予測
カメラパラメータは、ディファレンシャルパルスコードモジュレーション(DPCM)の使用により、カメラパラメータの以前の値から予測されることができる。DPCMは、次回の値が以前の値に従うために、パラメータの次回の値が、現在のフレームのためのカメラパラメータに関する値またはz_nearおよびz_far値と、フレームコーディング順序において以前のフレームにおけるこのパラメータの値との間の差分として送信されることを意味する。
が、フレームiにおけるパラメータpの値を表すとする。すると、フレームi−1におけるパラメータpの値は、pi−1となるだろう。すると、現在のフレームにおけるパラメータpの値のための予測はp’=pi−1である。パラメータ値と予測されたパラメータ値との間の差分を送信する必要がある。したがって、差分の値、d=p−p’=p−pi−1が受信機に送信される。
カメラパラメータのための別の予測は、2つの以前の値からの線形予測である。このモデルは、パラメータ値が線形的に変化していることを想定する。すると、パラメータ値のための予測は、以前のパラメータ値に、以前のパラメータ値と以前のパラメータ値の前のパラメータ値との間の差分を加えたものであろう。残余値が次に符号化される。
パラメータのための線形予測の例が以下に示される。フレームi−2におけるパラメータpの値をpi−2とする。すると、現在のフレームにおけるパラメータpの値のための予測は、p’=Pi−1+(pi−1−pi−2)=2*pi−1−pi−2である。現実の値と予測された値との間の差分、d=p−p’=p−2*pi−1+pi−2が受信機に送信される。
残余値は元のパラメータ値に浮動小数点演算を使用することによって表現されるが、値が厳密に送信され得ることもまた、理解され得る。MVCフォーマットにおけるパラメータ値は、選択された精度を用いて表現されるので、フレーム毎に別個にパラメータを送信する場合と厳密に同一の値を送信することが可能である。したがって、予測に起因するパラメータ値のずれは生じない。
ビットストリームにランダムアクセス能力を提供する瞬間復号リフレッシュ(IDR)スライスを含むイントラフレームまたはフレームは、ビットストリームとの同調を可能にするために予測なしに送信されたカメラパラメータおよびz_near、z_far値を有するべきである。このケースにおいて、2つの以前の値を使用する線形予測が使用される場合、それは、最後のIDRフレームから始まる2つの以前のパラメータ値が利用可能である場合にのみ適用されるべきである。IDRフレームの後に続くフレームのためのパラメータの値は、IDRフレームのためのパラメータ値がpであり、(コーディングまたは表示順序が)次のフレームのためのパラメータ値がpである場合、IDRフレームに対応するパラメータの値、すなわち、p’=pとして予測されるべきである。
時間スケーラビリティのサポート
パラメータ値のコーディングは、フレームの表示順序(たとえば、ピクチャ順序カウント(POC))に従うように選択され得る。しかしながら、階層Bフレーム、階層Pフレーム、または時間スケーラビリティをサポートする任意の他のコーディング構造を使用する場合、カメラパラメータを予測する順序がフレームのコーディング順序(フレーム番号(frame_num))と同一であれば有益であり得る。すると、フレームの復号順序が表示順序と同一でない場合、カメラパラメータの予測は、復号順序(または時間スケーラビリティ順序)に従うべきである。
この状況でパラメータを予測する1つの手法は、最後にコーディングされたパラメータ値を反復することであろう(すなわち、予測は、同一のまたは低い階層レベルにおける最も近いPOCのパラメータの値を使用するであろう)。
別の、一般的により効率的な、パラメータ値を符号化する手法は、予測階層の同一のまたはより低いレベルにある、(表示順序が)最も近いフレームのパラメータの値を予測として使用することである。この方法は、映像予測順序における予測が、より大きいパラメータ差分、よって、より大きい予測誤り(差分)をもたらし得る(より大きいパラメータ差分は、予測がさほど効率的でないので、予測差分を符号化するためにより多くのビットを要求し得る)のに対し、隣接するフレームからのパラメータの予測を含意するので、よりビットレート効率がよい。
上述した予測順序が、図5a〜図5dに示される。表示順序に従うカメラパラメータの予測は、ビットレート効率を改善するが、時間スケーラビリティをサポートするにはあまりフレキシブルでない可能性がある。復号順序に従うカメラパラメータの予測は、時間スケーラビリティをサポートするが、より高いビットレートという結果をもたらし得る。なお、図面において、「復号順序」のアプローチと「復号順序(代替)」のアプローチとの相違は、前者のアプローチがパラメータの予測のために厳密な復号順序を使用するのに対し、後者のアプローチは、復号順序が考慮される際に利用可能な、復号のための利用可能な最も近いピクチャを使用する、という点である。
図5aは、階層B予測構造の例を示す。
図5bは、表示順序に従うパラメータ予測の例を示す。
図5cは、コーディング/復号順序に従うパラメータ予測の例を示し、(コーディング順序における)以前のフレームのパラメータ値が使用される。
図5dは、コーディング/復号順序に従う予測の代替例を示し、表示順序において現在のフレームに最も近い(先行する)フレームのパラメータ値が使用される。
これまでに2つの方法、映像復号順序でパラメータを予測すること、または映像表示順序でパラメータを予測すること、が示唆された。どちらの方法でも、予測順序が(映像復号順序または映像表示順序のいずれか、またはその変形に)予め決められていること、それぞれの予測の差分がフレーム毎にメッセージ(たとえば、SEI)において送信されること、が想定される。予め決められた予測順序のそれらの方法の代替例は、動的な予測順序を有することであり、それは、どのパラメータが予測のために使用されたかのインジケーションを(SEI)メッセージを用いて送信することを意味する。たとえば、SEIメッセージは、参照されたパラメータを搬送したピクチャのピクチャ順序カウントを示す「reference_poc」フィールドを搬送し得る。あるいは、それは、「reference_poc_delta」、すなわち、参照されたパラメータのPOCと現在のPOCとの差分を含むこともできる。別の代替例は、フレームの参照としてframe_numを使用することであろう。このケースでは、「reference_frame_num」または「reference_frame_num_delta」が、予測参照のためのインジケータとして送信され得る。
パラメータ値の線形予測は、予測階層が同一レベルのフレームにおける、パラメータ値間の線形補間を使用することである。たとえば、I−およびP−フレーム(または、最重要レベルである最下位階層レベルのB−フレーム)におけるパラメータが、予測なしに直接的に送信されるだけであることができ、または、パラメータは、最下位時間レイヤにおける以前のパラメータ値から予測されることができる。そして、表示順序が予測されたフレーム間であるフレームの予測値は、パラメータ値間の線形補間によって求められることができる。線形補間はまた、予測階層のより高い時間レイヤにおいて、以前の時間レイヤを使用することにより適用され得る。このケースでは、より低い時間レイヤにおける最も近い2つのフレームのパラメータ値間の線形補間が、別の時間レベルの予測を得るために使用されることができる。線形補間は、パラメータ予測のために使用されたフレームと現在の(予測された)フレームとの間の(表示順序における)距離に比例する重みを用いた、(コーディング順序における)以前の2つのフレームのパラメータ値の、重みづけされた平均として実現され得る。
実施形態4−階層B予測のケースにおけるz値の線形予測
第4の実施形態では、階層Bフレームのケースにおけるパラメータ値の線形予測の例が説明される。
図6は、3つのBフレームを有する階層予測構造を示す。3つの時間スケーラブルなレイヤを有する階層B予測構造が使用されるとする。I、B、Pは、参照され得る3つのフレームを表し、bおよびbは、2つの非参照フレーム(任意の他のフレームにより参照として使用されないフレーム)を表す。
p(I)と表されるフレームIのためのパラメータpが、multiview_acquisition_info()メッセージにおいて送信される。次に、予測された値、p’(P)が、p’(P)=p(I)として得られる。フレームBのためのパラメータpの予測された値は、p’(B)=0.5*p(I)+0.5*p’(P)として得られる。パラメータbおよびbの予測された値は、p’(b)=0.75*p(I)+0.25*p’(P)およびp’(b)=0.25*p(I)+0.75*p’(P)として得られる。パラメータの予測された値を得る代替の手法は、p’(b)=0.5*p(I)+0.5*p’(B)およびp’(b)=0.5*p(B)+0.5*p’(P)である。
パラメータpの予測された値は、multiview_acquisition_info()メッセージにおける対応するprec_pフィールドにおいて指定された精度を使用した計算により得られる。
パラメータpの残余値が、説明された実施形態のうちの1つによると、multiview_acquisition_update_info()メッセージにおいて送信され、受信機においてパラメータpの値を得るために予測された値p’に加算される。
図7は、エンコーダ310から見た場合の、図4の例示的な方法を示す。したがって、エンコーダ310は、カメラパラメータと深度パラメータとのうちの少なくとも1つに関連する更新メッセージを提供するための方法を実行する。説明したように、カメラパラメータと深度パラメータとのうちの上記少なくとも1つは、デコーダ320に、第1のカメラ位置のための第1のビューを、第2のカメラ位置のための第2のビューと、カメラパラメータと深度パラメータとのうちの上記少なくとも1つと、に基づいて合成することを可能にさせ、カメラパラメータと深度パラメータとのうちの上記少なくとも1つは、第2のビューに関連する。
上述したように、カメラパラメータは、内部パラメータ、外部パラメータを備えることができ、および/または、深度パラメータは、znearおよび/またはzfar値を備えることができる。
カメラパラメータは、回転行列を備えることができ、更新メッセージは、回転行列が単位行列であることを示すためのインジケーションを備える。
以下の動作が、任意の適切な順序で実行され得る。
動作701
エンコーダ310は、カメラパラメータと深度パラメータとのうちの上記少なくとも1つのどちらが経時的に変化しているかを検出する。この動作は、動作401と同様である。
動作702
エンコーダ310は、カメラパラメータと深度パラメータとのうちの検出された上記少なくとも1つをそれぞれのモジュールへとモジュール化する402。この動作は、動作402と同様である。
いくつかの実施形態において、それぞれのモジュールは、内部パラメータ、外部パラメータ、または深度パラメータに関連する。それぞれのモジュールは、変換パラメータ(変換ベクトル)のx成分に関連し得る。各それぞれのモジュールは、予測されたカメラパラメータと現実のカメラパラメータとの間の差分、および/または、予測された深度パラメータと現実の深度パラメータとの間の差分を示す、それぞれの差分パラメータを含み得る。
いくつかの実施形態において、いくつかのパラメータのモジュール化は、固定である(予め決められている)か、またはエンコーダとデコーダの両方にとって既知であることができる。すると、エンコーダは、現在のメッセージにおいてどのモジュールが送信され、どれが送信されないかを、デコーダにシグナリングするだけでよい。
動作703
この動作は、動作702の前に実行されることができる。エンコーダ310は、第1および第2のフレームのためのカメラパラメータおよび/または深度パラメータに基づいて、第1および第2のフレームに近接する第3のフレームのためのカメラパラメータおよび/または深度パラメータを線形予測する。この動作は、動作403と同様である。
動作704
エンコーダ310は、カメラのためのカメラパラメータおよび/または深度パラメータを、さらなるカメラのためのさらなるカメラパラメータおよび/またはさらなる深度パラメータに基づいて予測する。この動作は、動作404と同様である。
動作705
エンコーダ310は、第4のフレームのためのカメラパラメータおよび/または深度パラメータを、さらなるフレームのためのさらなるカメラパラメータおよび/またはさらなる深度パラメータに基づいて予測する。この動作は、動作405と同様である。
動作706
エンコーダ310は、各それぞれのモジュールを更新メッセージへと符号化する。各それぞれのモジュールの符号化は、カメラパラメータおよび/または深度パラメータ(予測されたカメラパラメータと現実のカメラパラメータとの間の差分、および/または、予測された深度パラメータと現実の深度パラメータとの間の差分を示す、それぞれの差分パラメータ)の精度の符号化を除き得る。各それぞれのモジュールの符号化は、深度パラメータ(または、予測された深度パラメータと現実の深度パラメータとの間の差分)の符号化を除き得る。各それぞれのモジュールの符号化は、カメラパラメータおよび/または深度パラメータが関連するフレームの、コーディング順序または表示順序に従い得る。
更新メッセージは、第1のメッセージおよび第2のメッセージを備えることができ、第1のメッセージは、カメラパラメータを備え、第2のメッセージは、深度パラメータを備える。
この動作は、動作406と同様である。
動作707
エンコーダ310は、デコーダ320に更新メッセージを送信する。この動作は、動作407と同様である。
図8は、図4および/または図6の方法を実行するように構成された例示的なエンコーダ310を示す。したがって、エンコーダ310は、カメラパラメータおよび/または深度パラメータに関連する更新メッセージを提供するように構成される。説明したように、カメラパラメータおよび/または深度パラメータは、デコーダ320に、第1のカメラ位置のための第1のビューを、第2のカメラ位置のための第2のビューと、カメラパラメータと深度パラメータとのうちの1つ以上と、に基づいて合成することを可能にさせる。カメラパラメータおよび/または深度パラメータは、第2のビューに関連する。
説明したように、カメラパラメータは、内部パラメータ、外部パラメータを備えることができ、および/または、深度パラメータは、znearおよび/またはzfar値を備えることができる。それぞれのモジュールは、内部パラメータ、外部パラメータ、または深度パラメータに関連し得る。それぞれのモジュールは、変換パラメータのx成分に関連し得る。説明したように、各それぞれのモジュールは、予測されたカメラパラメータと現実のカメラパラメータとの間の差分、および/または、予測された深度パラメータと現実の深度パラメータとの間の差分を示す、それぞれの差分パラメータを含み得る。
更新メッセージは、第1のメッセージおよび第2のメッセージを備えることができ、第1のメッセージは、カメラパラメータを備え、第2のメッセージは、深度パラメータを備える。
カメラパラメータは、回転行列を備えることができ、更新メッセージは、回転行列が単位行列であることを示すためのインジケーションを備えることができる。
いくつかの実施形態において、第1のデバイス800は、エンコーダ310を備え得る。
説明したように、エンコーダ310は、
カメラパラメータと深度パラメータとのうちの少なくとも1つをそれぞれのモジュールへとモジュール化し、
各それぞれのモジュールを更新メッセージへと符号化し、
更新メッセージをデコーダ320に送信する
ように構成されたプロセッサのような、処理回路311を備える。
処理回路311はさらに、各それぞれのモジュールを符号化する際に、カメラパラメータおよび/または深度パラメータの精度の符号化を除くように構成され得る。
処理回路311はさらに、
モジュール化する前に、第1および第2のフレームのためのカメラパラメータおよび/または深度パラメータに基づいて、第1および第2のフレームに近接する第3のフレームのためのカメラパラメータおよび/または深度パラメータを線形予測する
ように構成され得る。
処理回路311はさらに、各それぞれのモジュールを符号化する際に、予測された深度パラメータの符号化を除くように構成され得る。
処理回路311は、各それぞれのモジュールを符号化する際に、カメラパラメータおよび/または深度パラメータが関連するフレームのコーディング順序に従うように構成され得る。あるいは、処理回路311は、各それぞれのモジュールを符号化する際に、カメラパラメータおよび/または深度パラメータが関連するフレームの表示順序に従うように構成され得る。
処理回路311は、カメラのためのカメラパラメータを、さらなるカメラのためのさらなるカメラパラメータに基づいて予測するように構成され得る。
処理回路311は、第4のフレームのためのカメラパラメータおよび/または深度パラメータを、さらなるフレームのためのさらなるカメラパラメータおよび/またはさらなる深度パラメータに基づいて予測するように構成され得る。
エンコーダ310はさらに、たとえば、処理回路311によって実行されるソフトウェアを記憶するためのメモリ312を備える。ソフトウェアは、図4および/または図6に関連して上述されたエンコーダ310における方法の実行を処理回路に可能にさせるための命令を備え得る。
図9は、デコーダ320から見た場合の、図4の例示的な方法を示す。したがって、デコーダ320は、カメラパラメータおよび/または深度パラメータに関連する更新メッセージを復号するための方法を実行する。説明したように、カメラパラメータおよび/または深度パラメータは、デコーダ320に、第1のカメラ位置のための第1のビューを、第2のカメラ位置のための第2のビューと、カメラパラメータと深度パラメータとのうちの1つ以上と、に基づいて合成することを可能にさせる。カメラパラメータおよび/または深度パラメータは、第2のビューに関連する。
説明したように、カメラパラメータは、内部パラメータ、外部パラメータ、および/または変換パラメータを備えることができ、および/または、深度パラメータは、znearおよび/またはzfar値を備えることができる。カメラパラメータは、回転行列を備えることができ、更新メッセージは、回転行列が単位行列であることを示すためのインジケーションを備えることができる。
以下の動作が、任意の適切な順序で実行され得る。
動作901
デコーダ320は、エンコーダ310から更新メッセージを受信し、更新メッセージは、カメラパラメータと深度パラメータとのうちの少なくとも1つのためのそれぞれのモジュールを備える。この動作は、動作407と同様である。
説明したように、更新メッセージは、第1のメッセージおよび第2のメッセージを備えることができ、第1のメッセージは、カメラパラメータを備えることができ、第2のメッセージは、深度パラメータを備えることができる。
それぞれのモジュールは、内部パラメータ、外部パラメータ、または深度パラメータに関連し得る。それぞれのモジュールは、変換パラメータ(変換ベクトル)のx成分に関連し得る。各それぞれのモジュールは、予測されたカメラパラメータと現実のカメラパラメータとの間の差分、および/または、予測された深度パラメータと現実の深度パラメータとの間の差分を示す、それぞれの差分パラメータを含み得る。
動作902
デコーダ320は、更新されるカメラパラメータおよび/または深度パラメータを得るために、更新メッセージの各それぞれのモジュールを復号する。この動作は、動作408と同様である。
各それぞれのモジュールの復号は、カメラパラメータおよび/または深度パラメータの精度の復号を除き得る。各それぞれのモジュールの復号は、予測された深度パラメータの復号を除き得る。各それぞれのモジュールの復号は、カメラパラメータおよび/または深度パラメータが関連するフレームの、コーディング順序または表示順序に従い得る。
動作903
この動作は、動作902の後に実行されることが好ましい。デコーダ320は、第1および第2のフレームのためのカメラパラメータおよび/または深度パラメータに基づいて、第1および第2のフレームに近接する第3のフレームのためのカメラパラメータおよび/または深度パラメータを抽出し得る。
この動作は、動作409と同様である。
動作904
デコーダ320は、カメラのためのカメラパラメータおよび/または深度パラメータを、さらなるカメラのためのさらなるカメラパラメータおよび/またはさらなる深度パラメータに基づいて抽出し得る。この動作は、動作410と同様である。
動作905
デコーダ320は、第4のフレームのためのカメラパラメータおよび/または深度パラメータを、同一のカメラのさらなるフレームのためのさらなるカメラパラメータおよび/またはさらなる深度パラメータに基づいて抽出し得る。この動作は、動作411と同様である。
図10は、図4および/または図8の方法を実行するように構成された例示的なデコーダ320を示す。したがって、デコーダ320は、カメラパラメータおよび/または深度パラメータに関連する更新メッセージを復号するように構成される。説明したように、カメラパラメータおよび/または深度パラメータは、デコーダ320に、第1のカメラ位置のための第1のビューを、第2のカメラ位置のための第2のビューと、カメラパラメータと深度パラメータとのうちの1つ以上と、に基づいて合成することを可能にさせる。カメラパラメータおよび/または深度パラメータは、第2のビューに関連する。
いくつかの実施形態において、第2のデバイス1000は、デコーダ320を備える。
カメラパラメータは、内部パラメータ、外部パラメータを備えることができ、および/または、深度パラメータは、znearおよび/またはzfar値を備えることができる。カメラパラメータは、回転行列を備えることができ、更新メッセージは、回転行列が単位行列であることを示すためのインジケーションを備えることができる。
更新メッセージは、第1のメッセージおよび第2のメッセージを備えることができ、第1のメッセージは、カメラパラメータを備えることができ、第2のメッセージは、深度パラメータを備えることができる。
デコーダ320は、
エンコーダ310から更新メッセージを受信し、更新メッセージは、カメラパラメータと深度パラメータとのうちの少なくとも1つのためのそれぞれのモジュールを備え、
カメラパラメータおよび/または深度パラメータを得るために、更新メッセージの各それぞれのモジュールを復号する
ように構成されたプロセッサのような、処理回路321を備える。
説明したように、各それぞれのモジュールは、予測されたカメラパラメータと現実のカメラパラメータとの間の差分、および/または、予測された深度パラメータと現実の深度パラメータとの間の差分を示す、それぞれの差分パラメータを含む。それぞれのモジュールは、内部パラメータ、外部パラメータ、または深度パラメータに関連し得る。それぞれのモジュールは、変換パラメータのx成分に関連し得る。
処理回路321は、各それぞれのモジュールを復号する際にカメラパラメータおよび/または深度パラメータの精度の復号を除くように構成され得る。
処理回路321はさらに、復号の後、第1および第2のフレームのためのカメラパラメータおよび/または深度パラメータに基づいて、第1および第2のフレームに近接する第3のフレームのためのカメラパラメータおよび/または深度パラメータを抽出するように構成され得る。
処理回路321は、各それぞれのモジュールを復号する際に、予測された深度パラメータの復号を除くように構成され得る。
処理回路321はさらに、各それぞれのモジュールを復号する際に、カメラパラメータおよび/または深度パラメータが関連するフレームのコーディング順序に従うように構成され得る。
処理回路321はさらに、カメラのためのカメラパラメータを抽出するように構成されることができ、抽出は、さらなるカメラのためのさらなるカメラパラメータに基づく。
処理回路321はさらに、第4のフレームのためのカメラパラメータおよび/または深度パラメータを、さらなるフレームのためのさらなるカメラパラメータおよび/またはさらなる深度パラメータに基づいて抽出するように構成され得る。
デコーダ320はさらに、たとえば、処理回路によって実行されるソフトウェアを記憶するためのメモリ322を備える。ソフトウェアは、図4および/または図8に関連して上述されたデコーダ320における方法の実行を処理回路に可能にさせるための命令を備え得る。
本明細書において使用される場合、「処理回路」という用語は、処理ユニット、プロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、等のことを言い得る。例として、プロセッサ、ASIC、FPGA、等は、1つ以上のプロセッサカーネルを備え得る。
本明細書において使用される場合、「メモリ」という用語は、ハードディスク、磁気記憶媒体、ポータブルコンピュータディスケットまたはディスク、フラッシュメモリ、ランダムアクセスメモリ(RAM)、等のことを言い得る。さらに、メモリは、プロセッサの内部レジスタメモリであり得る。
いくつかの実施形態において、エンコーダ310またはデコーダ320は、有線またはワイヤレスインターフェースによる通信のために構成され得る。さらに、本明細書における実施形態は、DVDまたはブルーレイディスクといった多用途媒体を介した通信を備え得る。いくつかのそのような実施形態によると、エンコーダ310は、たとえばDVD/ブルーレイプレイヤーのような、メディアプレイヤーを備え得るか、またはそれらに接続可能であり得る。
たとえさまざまな態様の実施形態が説明されていたとしても、それらの多くの異なる変形、変更、等が、当業者に明らかとなるであろう。したがって、説明された実施形態は、本開示の範囲を限定することを意図したものではない。
Figure 2014528190

Figure 2014528190
Figure 2014528190
Figure 2014528190

Figure 2014528190
Figure 2014528190

Figure 2014528190

Figure 2014528190
Figure 2014528190

Figure 2014528190
Figure 2014528190

Figure 2014528190
Figure 2014528190
Figure 2014528190

Figure 2014528190
Figure 2014528190
Figure 2014528190

Figure 2014528190
Figure 2014528190
Figure 2014528190

Figure 2014528190
Figure 2014528190
Figure 2014528190
Figure 2014528190

Figure 2014528190
Figure 2014528190
Figure 2014528190
Figure 2014528190

Figure 2014528190

Claims (54)

  1. カメラパラメータと深度パラメータとのうちの少なくとも1つに関連する更新メッセージを提供するためのエンコーダ(310)における方法であって、前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つは、デコーダ(320)に、第1のカメラ位置のための第1のビューを、第2のカメラ位置のための第2のビューと、前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つと、に基づいて合成することを可能にさせ、前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つは、前記第2のビューに関連し、前記方法は、
    前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つのどちらが経時的に変化しているかを検出すること(401)と、
    前記カメラパラメータと前記深度パラメータとのうちの検出された前記少なくとも1つをそれぞれのモジュールへとモジュール化すること(402)と、
    各それぞれのモジュールを前記更新メッセージへと符号化すること(406)と、
    前記更新メッセージを前記デコーダ(320)に送信すること(407)と
    を備える、方法。
  2. 前記カメラパラメータが、内部パラメータ、外部パラメータを備え、および/または、前記深度パラメータが、znearおよび/またはzfar値を備える、請求項1に記載の方法。
  3. 前記それぞれのモジュールは、内部パラメータ、外部パラメータ、または深度パラメータに関連する、請求項1または2に記載の方法。
  4. 前記それぞれのモジュールは、変換パラメータのx成分に関連する、請求項1乃至3のいずれか一項に記載の方法。
  5. 各それぞれのモジュールの前記符号化は、前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つの精度の符号化を除く、請求項1乃至4のいずれか一項に記載の方法。
  6. 前記方法はさらに、前記モジュール化すること(402)の前に、
    第1のフレームおよび第2のフレームのためのカメラパラメータおよび/または深度パラメータに基づいて、前記第1および第2のフレームに近接する第3のフレームのための前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つを線形予測すること(403)
    を備える、請求項1乃至5のいずれか一項に記載の方法。
  7. 各それぞれのモジュールは、予測された前記カメラパラメータと現実のカメラパラメータとの間の差分、および/または、予測された前記深度パラメータと現実の深度パラメータとの間の差分を示す、それぞれの差分パラメータを含む、請求項6に記載の方法。
  8. 各それぞれのモジュールの前記符号化は、前記予測された深度パラメータの符号化を除く、請求項7に記載の方法。
  9. 前記更新メッセージは、第1のメッセージおよび第2のメッセージを備え、前記第1のメッセージは、前記カメラパラメータを備え、前記第2のメッセージは、前記深度パラメータを備える、請求項1または2に記載の方法。
  10. 前記カメラパラメータは、回転行列を備え、前記更新メッセージは、前記回転行列が単位行列であることを示すためのインジケーションを備える、請求項1乃至9のいずれか一項に記載の方法。
  11. 各それぞれのモジュールの前記符号化は、前記カメラパラメータおよび/または前記深度パラメータが関連するフレームのコーディング順序に従う、請求項1乃至10のいずれか一項に記載の方法。
  12. 前記方法はさらに、
    カメラのための前記カメラパラメータおよび/または前記深度パラメータを、さらなるカメラのためのさらなるカメラパラメータおよび/またはさらなる深度パラメータに基づいて予測すること(404)
    を備える、請求項1乃至11のいずれか一項に記載の方法。
  13. 前記方法はさらに、
    第4のフレームのための前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つを、さらなるフレームのためのさらなるカメラパラメータおよび/またはさらなる深度パラメータに基づいて予測すること(405)
    を備える、請求項1乃至12のいずれか一項に記載の方法。
  14. カメラパラメータと深度パラメータとのうちの少なくとも1つに関連する更新メッセージを復号するためのデコーダ(320)における方法であって、前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つは、前記デコーダに、第1のカメラ位置のための第1のビューを、第2のカメラ位置のための第2のビューと、前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つと、に基づいて合成することを可能にさせ、前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つは、前記第2のビューに関連し、前記方法は、
    エンコーダ(310)から前記更新メッセージを受信すること(407)であって、前記更新メッセージは、前記カメラパラメータと前記深度パラメータとのうちの少なくとも1つのためのそれぞれのモジュールを備えることと、
    更新される前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つを得るために、前記更新メッセージの各それぞれのモジュールを復号すること(408)と
    を備える、方法。
  15. 前記カメラパラメータが、内部パラメータ、外部パラメータ、および/または変換パラメータを備え、および/または、前記深度パラメータが、znearおよび/またはzfar値を備える、請求項14に記載の方法。
  16. 前記それぞれのモジュールは、内部パラメータ、外部パラメータ、または深度パラメータに関連する、請求項14または15に記載の方法。
  17. 前記それぞれのモジュールは、変換ベクトルのx成分に関連する、請求項14乃至16のいずれか一項に記載の方法。
  18. 各それぞれのモジュールの前記復号は、前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つの精度の復号を除く、請求項14乃至17のいずれか一項に記載の方法。
  19. 前記方法はさらに、前記復号すること(408)の後に、
    第1のフレームおよび第2のフレームのためのカメラパラメータおよび/または深度パラメータに基づいて、前記第1および第2のフレームに近接する第3のフレームのための前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つを抽出すること(409)
    を備える、請求項14乃至18のいずれか一項に記載の方法。
  20. 各それぞれのモジュールは、予測された前記カメラパラメータと現実のカメラパラメータとの間の差分、および/または、予測された前記深度パラメータと現実の深度パラメータとの間の差分を示す、それぞれの差分パラメータを含む、請求項19に記載の方法。
  21. 各それぞれのモジュールの前記復号は、前記予測された深度パラメータの復号を除く、請求項20に記載の方法。
  22. 前記更新メッセージは、第1のメッセージおよび第2のメッセージを備え、前記第1のメッセージは、前記カメラパラメータを備え、前記第2のメッセージは、前記深度パラメータを備える、請求項14または15に記載の方法。
  23. 前記カメラパラメータは、回転行列を備え、前記更新メッセージは、前記回転行列が単位行列であることを示すためのインジケーションを備える、請求項14乃至22のいずれか一項に記載の方法。
  24. 各それぞれのモジュールの前記復号は、前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つが関連するフレームのコーディング順序に従う、請求項14乃至23のいずれか一項に記載の方法。
  25. 前記方法はさらに、
    カメラのための前記カメラパラメータおよび/または前記深度パラメータを、さらなるカメラのためのさらなるカメラパラメータおよび/またはさらなる深度パラメータに基づいて抽出すること(410)
    を備える、請求項14乃至24のいずれか一項に記載の方法。
  26. 前記方法はさらに、
    第4のフレームのための前記カメラパラメータおよび/または前記深度パラメータを、同一のカメラのさらなるフレームのためのさらなるカメラパラメータおよび/またはさらなる深度パラメータに基づいて抽出すること(411)
    を備える、請求項14乃至25のいずれか一項に記載の方法。
  27. カメラパラメータと深度パラメータとのうちの少なくとも1つに関連する更新メッセージを提供するように構成されたエンコーダ(310)であって、前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つは、デコーダ(320)に、第1のカメラ位置のための第1のビューを、第2のカメラ位置のための第2のビューと、前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つと、に基づいて合成することを可能にさせ、前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つは、前記第2のビューに関連し、前記エンコーダ(310)は、
    前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つのどちらが経時的に変化しているかを検出し、
    前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つをそれぞれのモジュールへとモジュール化し、
    各それぞれのモジュールを前記更新メッセージへと符号化し、
    前記更新メッセージを前記デコーダ(320)に送信する
    ように構成された処理回路(311)を備える、エンコーダ(310)。
  28. 前記カメラパラメータが、内部パラメータ、外部パラメータを備え、および/または、前記深度パラメータが、znearおよび/またはzfar値を備える、請求項27に記載のエンコーダ(310)。
  29. 前記それぞれのモジュールは、内部パラメータ、外部パラメータ、または深度パラメータに関連する、請求項27または28に記載のエンコーダ(310)。
  30. 前記それぞれのモジュールは、変換パラメータのx成分に関連する、請求項27乃至29のいずれか一項に記載のエンコーダ(310)。
  31. 前記処理回路(311)は、各それぞれのモジュールを符号化する際に、前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つの精度の符号化を除くように構成される、請求27乃至30のいずれか一項に記載のエンコーダ(310)。
  32. 前記処理回路(311)はさらに、
    前記モジュール化する前に、第1のフレームおよび第2のフレームのためのカメラパラメータおよび/または深度パラメータに基づいて、前記第1および第2のフレームに近接する第3のフレームのための前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つを線形予測する
    ように構成される、請求項27乃至31のいずれか一項に記載のエンコーダ(310)。
  33. 各それぞれのモジュールは、予測された前記カメラパラメータと現実のカメラパラメータとの間の差分、および/または、予測された前記深度パラメータと現実の深度パラメータとの間の差分を示す、それぞれの差分パラメータを含む、請求項32に記載のエンコーダ(310)。
  34. 前記処理回路(311)はさらに、各それぞれのモジュールを符号化する際に、前記予測された深度パラメータの符号化を除くように構成される、請求項33に記載のエンコーダ(310)。
  35. 前記更新メッセージは、第1のメッセージおよび第2のメッセージを備え、前記第1のメッセージは、前記カメラパラメータを備え、前記第2のメッセージは、前記深度パラメータを備える、請求項27または28に記載のエンコーダ(310)。
  36. 前記カメラパラメータは、回転行列を備え、前記更新メッセージは、前記回転行列が単位行列であることを示すためのインジケーションを備える、請求項27乃至35のいずれか一項に記載のエンコーダ(310)。
  37. 前記処理回路(311)は、各それぞれのモジュールを符号化する際に、前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つが関連するフレームのコーディング順序に従うように構成される、請求項27乃至36のいずれか一項に記載のエンコーダ(310)。
  38. 前記処理回路(311)はさらに、カメラのための前記カメラパラメータおよび/または前記深度パラメータを、さらなるカメラのためのさらなるカメラパラメータおよび/またはさらなる深度パラメータに基づいて予測するように構成される、請求項27乃至37のいずれか一項に記載のエンコーダ(310)。
  39. 前記処理回路(311)はさらに、第4のフレームのための前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つを、さらなるフレームのためのさらなるカメラパラメータおよび/またはさらなる深度パラメータに基づいて予測するように構成される、請求項27乃至38のいずれか一項に記載のエンコーダ(310)。
  40. 請求項27乃至39のいずれか一項に記載のエンコーダ(310)を備える第1のデバイス(800)。
  41. カメラパラメータと深度パラメータとのうちの少なくとも1つに関連する更新メッセージを復号するように構成されたデコーダ(320)であって、前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つは、前記デコーダ(320)に、第1のカメラ位置のための第1のビューを、第2のカメラ位置のための第2のビューと、前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つと、に基づいて合成することを可能にさせ、前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つは、前記第2のビューに関連し、前記デコーダ(320)は、
    エンコーダ(310)から前記更新メッセージを受信し、前記更新メッセージは、前記カメラパラメータと前記深度パラメータとのうちの少なくとも1つのためのそれぞれのモジュールを備え、
    前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つを得るために、前記更新メッセージの各それぞれのモジュールを復号する
    ように構成された処理回路(321)を備える、デコーダ(320)。
  42. 前記カメラパラメータが、内部パラメータ、外部パラメータ、および/または変換パラメータを備え、および/または、前記深度パラメータが、znearおよび/またはzfar値を備える、請求項41に記載のデコーダ(320)。
  43. 前記それぞれのモジュールは、内部パラメータ、外部パラメータ、または深度パラメータに関連する、請求項41または42に記載のデコーダ(320)。
  44. 前記それぞれのモジュールは、変換パラメータのx成分に関連する、請求項41乃至43のいずれか一項に記載のデコーダ(320)。
  45. 前記処理回路(321)は、各それぞれのモジュールを復号する際に、前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つの精度の復号を除くように構成される、請求項41乃至44のいずれか一項に記載のデコーダ(320)。
  46. 前記処理回路(321)は、前記復号の後、第1のフレームおよび第2のフレームのためのカメラパラメータおよび/または深度パラメータに基づいて、前記第1および第2のフレームに近接する第3のフレームのための前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つを抽出するように構成される、請求項41乃至45のいずれか一項に記載のデコーダ(320)。
  47. 各それぞれのモジュールは、予測されたカメラパラメータと現実のカメラパラメータとの間の差分、および/または、予測された深度パラメータと現実の深度パラメータとの間の差分を示す、それぞれの差分パラメータを含む、請求項46に記載のデコーダ(320)。
  48. 前記処理回路(321)は、各それぞれのモジュールの前記復号の際に、前記予測された深度パラメータの復号を除くように構成される、請求項47に記載のデコーダ(320)。
  49. 前記更新メッセージは、第1のメッセージおよび第2のメッセージを備え、前記第1のメッセージは、前記カメラパラメータを備え、前記第2のメッセージは、前記深度パラメータを備える、請求項41または42に記載のデコーダ(320)。
  50. 前記カメラパラメータは、回転行列を備え、前記更新メッセージは、前記回転行列が単位行列であることを示すためのインジケーションを備える、請求項41乃至49のいずれか一項に記載のデコーダ(320)。
  51. 前記処理回路(321)はさらに、各それぞれのモジュールを復号する際に、前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つが関連するフレームのコーディング順序に従うように構成される、請求項41乃至50のいずれか一項に記載のデコーダ(320)。
  52. 前記処理回路(321)はさらに、カメラのための前記カメラパラメータおよび/または前記深度パラメータを抽出するように構成され、前記抽出は、さらなるカメラのためのさらなるカメラパラメータおよび/またはさらなる深度パラメータに基づく、請求項41乃至51のいずれか一項に記載のデコーダ(320)。
  53. 前記処理回路(321)はさらに、第4のフレームのための前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つを、さらなるフレームのためのさらなるカメラパラメータおよび/またはさらなる深度パラメータに基づいて抽出するように構成される、請求項41乃至52のいずれか一項に記載のデコーダ(320)。
  54. 請求項41乃至53のいずれか一項に記載のデコーダ(320)を備える第2のデバイス(1000)。
JP2014524967A 2011-08-12 2012-06-01 カメラおよび/または深度パラメータのシグナリング Withdrawn JP2014528190A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161522756P 2011-08-12 2011-08-12
US61/522,756 2011-08-12
PCT/SE2012/050587 WO2013025151A1 (en) 2011-08-12 2012-06-01 Signaling of camera and/or depth parameters

Publications (1)

Publication Number Publication Date
JP2014528190A true JP2014528190A (ja) 2014-10-23

Family

ID=46551836

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014524967A Withdrawn JP2014528190A (ja) 2011-08-12 2012-06-01 カメラおよび/または深度パラメータのシグナリング

Country Status (5)

Country Link
US (1) US9414047B2 (ja)
EP (1) EP2742688A1 (ja)
JP (1) JP2014528190A (ja)
CN (1) CN103875250A (ja)
WO (1) WO2013025151A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021524214A (ja) * 2018-05-03 2021-09-09 オランジュ マルチビュービデオのデコードの方法及び装置、並びに画像処理の方法及び装置

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106851239B (zh) * 2012-02-02 2020-04-03 太阳专利托管公司 用于使用视差信息的3d媒体数据产生、编码、解码和显示的方法和装置
CN103379333B (zh) * 2012-04-25 2018-12-04 浙江大学 编解码方法、视频序列码流的编解码方法及其对应的装置
US9584792B2 (en) 2013-01-04 2017-02-28 Qualcomm Incorporated Indication of current view dependency on reference view in multiview coding file format
KR20170069957A (ko) * 2014-10-08 2017-06-21 엘지전자 주식회사 3d 비디오 코딩에서 카메라 파라미터 처리 방법 및 장치
WO2016089093A1 (ko) * 2014-12-04 2016-06-09 엘지전자 주식회사 방송 신호 송수신 방법 및 장치
US10104415B2 (en) * 2015-01-21 2018-10-16 Microsoft Technology Licensing, Llc Shared scene mesh data synchronisation
US10477247B2 (en) * 2015-11-18 2019-11-12 Electronics And Telecommunications Research Institute Method for decoding video using in-loop filter, and device therefor
FR3046321B1 (fr) * 2015-12-29 2018-01-26 B<>Com Procede de codage d'une image numerique, procede de decodage, dispositifs, terminal d'utilisateur et programmes d'ordinateurs associes
CN106550230A (zh) * 2016-08-31 2017-03-29 深圳小辣椒虚拟现实技术有限责任公司 一种3d图像拍摄装置和方法
US10812818B2 (en) * 2018-12-14 2020-10-20 Tencent America LLC Network abstraction unit layer type classes in network abstraction layer unit header

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009512316A (ja) * 2005-10-11 2009-03-19 サムスン エレクトロニクス カンパニー リミテッド カメラパラメータを利用した多視点動画符号化及び復号化装置並びに方法と、これを行うためのプログラムの記録された記録媒体
US20100079598A1 (en) * 2008-09-03 2010-04-01 University Of South Carolina Robust Stereo Calibration System and Method for Accurate Digital Image Correlation Measurements

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10148858A (ja) * 1996-11-19 1998-06-02 Canon Inc 防振制御装置
JP4698831B2 (ja) * 1997-12-05 2011-06-08 ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド 画像変換および符号化技術
JP2002024084A (ja) * 2000-07-12 2002-01-25 Mitsubishi Electric Corp 半導体集積回路装置および電子システム
US20020122117A1 (en) * 2000-12-26 2002-09-05 Masamichi Nakagawa Camera device, camera system and image processing method
US7423666B2 (en) * 2001-05-25 2008-09-09 Minolta Co., Ltd. Image pickup system employing a three-dimensional reference object
US7295609B2 (en) * 2001-11-30 2007-11-13 Sony Corporation Method and apparatus for coding image information, method and apparatus for decoding image information, method and apparatus for coding and decoding image information, and system of coding and transmitting image information
US20060165315A1 (en) * 2003-01-06 2006-07-27 Ernst Fabian E Method and apparatus for depth ordering of digital images
US7577636B2 (en) * 2003-05-28 2009-08-18 Fernandez Dennis S Network-extensible reconfigurable media appliance
US7286689B2 (en) * 2003-06-07 2007-10-23 Hewlett-Packard Development Company, L.P. Motion estimation for compression of calibrated multi-view image sequences
EP1591963B1 (en) * 2004-04-29 2008-07-09 Mitsubishi Electric Information Technology Centre Europe B.V. Adaptive quantisation of a depth map
KR101199498B1 (ko) * 2005-03-31 2012-11-09 삼성전자주식회사 카메라 파라미터를 이용한 다시점 영상의 부호화 장치 및생성 장치, 그 방법과, 이를 수행하기 위한 프로그램이기록된 기록 매체
US7706478B2 (en) * 2005-05-19 2010-04-27 Signalspace, Inc. Method and apparatus of source separation
US8190425B2 (en) * 2006-01-20 2012-05-29 Microsoft Corporation Complex cross-correlation parameters for multi-channel audio
US7705970B2 (en) * 2006-06-05 2010-04-27 The Regents Of The University Of Colorado Method and system for optical imaging and ranging
CN101166282B (zh) * 2006-10-16 2010-12-08 华为技术有限公司 摄像机参数编码传输的方法
JP5060798B2 (ja) * 2007-02-23 2012-10-31 任天堂株式会社 情報処理プログラムおよび情報処理装置
KR101483660B1 (ko) * 2007-07-26 2015-01-16 코닌클리케 필립스 엔.브이. 깊이-관련 정보 전파를 위한 방법 및 장치
US8218855B2 (en) * 2007-10-04 2012-07-10 Samsung Electronics Co., Ltd. Method and apparatus for receiving multiview camera parameters for stereoscopic image, and method and apparatus for transmitting multiview camera parameters for stereoscopic image
EP2048599B1 (en) * 2007-10-11 2009-12-16 MVTec Software GmbH System and method for 3D object recognition
JP5163233B2 (ja) * 2008-03-31 2013-03-13 富士通株式会社 情報処理装置、プログラム、方法、処理回路及び通信システム
EP2269378A2 (en) * 2008-04-25 2011-01-05 Thomson Licensing Multi-view video coding with disparity estimation based on depth information
KR101490689B1 (ko) * 2008-05-27 2015-02-06 삼성전자주식회사 카메라 파라미터를 이용한 스테레오스코픽 영상데이터스트림 생성 방법 및 그 장치와 스테레오스코픽 영상복원 방법 및 그 장치
ATE494529T1 (de) * 2008-07-04 2011-01-15 Sick Ivp Ab Kalibrierung eines profilmesssystems
FR2937936B1 (fr) * 2008-11-03 2011-09-02 Valeo Vision Sas Procede d'assistance a la conduite pour vehicule automobile
KR101158491B1 (ko) * 2008-12-08 2012-06-20 한국전자통신연구원 다시점 영상 부호화, 복호화 방법 및 그 장치.
EP2360930A4 (en) * 2008-12-18 2015-03-25 Lg Electronics Inc METHOD FOR THREE-DIMENSIONAL IMAGE SIGNAL PROCESSING AND IMAGE DISPLAY SCREEN FOR PROCESS IMPLEMENTATION
US20110310982A1 (en) * 2009-01-12 2011-12-22 Lg Electronics Inc. Video signal processing method and apparatus using depth information
WO2010083259A2 (en) * 2009-01-13 2010-07-22 Meimadtek Ltd. Method and system for operating a self-propelled vehicle according to scene images
US9124874B2 (en) * 2009-06-05 2015-09-01 Qualcomm Incorporated Encoding of three-dimensional conversion information with two-dimensional video sequence
WO2010142929A1 (en) * 2009-06-11 2010-12-16 Toshiba Research Europe Limited 3d image generation
US20110150271A1 (en) * 2009-12-18 2011-06-23 Microsoft Corporation Motion detection using depth images
KR101623062B1 (ko) * 2010-02-23 2016-05-20 니폰덴신뎅와 가부시키가이샤 움직임 벡터 추정 방법, 다시점 영상 부호화 방법, 다시점 영상 복호 방법, 움직임 벡터 추정 장치, 다시점 영상 부호화 장치, 다시점 영상 복호 장치, 움직임 벡터 추정 프로그램, 다시점 영상 부호화 프로그램 및 다시점 영상 복호 프로그램
KR101717787B1 (ko) * 2010-04-29 2017-03-17 엘지전자 주식회사 디스플레이장치 및 그의 음성신호 출력 방법
CA2797434C (en) * 2010-05-12 2017-09-19 Shell Internationale Research Maatschappij B.V. Seismic p-wave modelling in an inhomogeneous transversely isotropic medium with a tilted symmetry axis
US8665321B2 (en) * 2010-06-08 2014-03-04 Lg Electronics Inc. Image display apparatus and method for operating the same
RU2010123652A (ru) * 2010-06-10 2011-12-20 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." (KR) Система и способ визуализации стереоизображений и многовидовых изображений для управления восприятием глубины стереоскопического изображения, создаваемого телевизионным приемником
KR20120000485A (ko) * 2010-06-25 2012-01-02 삼성전자주식회사 예측 모드를 이용한 깊이 영상 부호화 장치 및 방법
US8589318B2 (en) * 2011-07-15 2013-11-19 Microsoft Corporation Location determination using generalized fingerprinting

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009512316A (ja) * 2005-10-11 2009-03-19 サムスン エレクトロニクス カンパニー リミテッド カメラパラメータを利用した多視点動画符号化及び復号化装置並びに方法と、これを行うためのプログラムの記録された記録媒体
US20100079598A1 (en) * 2008-09-03 2010-04-01 University Of South Carolina Robust Stereo Calibration System and Method for Accurate Digital Image Correlation Measurements

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
JPN6013059495; 大久保榮監修: 「インプレス標準教科書シリーズ 改訂三版H.264/AVC教科書」 第1版, 20090101, 第306〜323頁, 株式会社インプレスR&D *
JPN6016011710; "ITU-T Recommendation H.264(03/2010)" , 201003, 第H.13.1.5節,第H.13.2.5節, [online], ITU-T *
JPN6016011711; Dong Tian, et.al.: '"On Spatially Interleaved Pictures SEI Message"' [online] Document: JVT-AD017, 20090129, Joint Video Team (JVT) of ISO/IEC MPEG & ITU-T VCE *
JPN6016011712; Taka Senoh, et.al.: '"Requirements for depth information"' [online] Document: JVT-Y031, 20071025, Joint Video Team (JVT) of ISO/IEC MPEG & ITU-T VCE *
JPN6016011713; Dave Marshall: "Differential Encoding" , 20010410, [online] *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021524214A (ja) * 2018-05-03 2021-09-09 オランジュ マルチビュービデオのデコードの方法及び装置、並びに画像処理の方法及び装置
JP7371090B2 (ja) 2018-05-03 2023-10-30 オランジュ マルチビュービデオのデコードの方法及び装置、並びに画像処理の方法及び装置
US11889115B2 (en) 2018-05-03 2024-01-30 Orange Method and device for multi-view video decoding and method and device for image processing
US11910015B2 (en) 2018-05-03 2024-02-20 Orange Method and device for multi-view video decoding and method and device for image processing
US11910016B2 (en) 2018-05-03 2024-02-20 Orange Method and device for multi-view video decoding and method and device for image processing

Also Published As

Publication number Publication date
US9414047B2 (en) 2016-08-09
WO2013025151A1 (en) 2013-02-21
US20140192165A1 (en) 2014-07-10
CN103875250A (zh) 2014-06-18
EP2742688A1 (en) 2014-06-18

Similar Documents

Publication Publication Date Title
US11240478B2 (en) Efficient multi-view coding using depth-map estimate for a dependent view
US9414047B2 (en) Signaling change of camera parameter and/or depth parameter using update message
RU2611240C2 (ru) Устройство, способ и компьютерная программа для трехмерного видеокодирования
US9743110B2 (en) Method of 3D or multi-view video coding including view synthesis prediction
US9191646B2 (en) Apparatus, a method and a computer program for video coding and decoding
EP3029939B1 (en) Prediction parameter inheritance for 3d video coding
KR101726534B1 (ko) 3d 비디오 코딩을 위한 조화된 인터-뷰 및 뷰 합성 예측
JP2021052440A (ja) ビデオ符号化及び復号化におけるタイリング
US10158838B2 (en) Methods and arrangements for supporting view synthesis
US20110298895A1 (en) 3d video formats
US20150172544A1 (en) Panorama based 3d video coding
US20110001792A1 (en) Virtual reference view
KR20110133532A (ko) 다시점 영상 부호화, 복호화 방법 및 그 장치.
KR20140120900A (ko) 심도를 갖는 3d 비디오 코딩에서의 멀티-가설 디스패리티 벡터 구성
US10477183B2 (en) Method and apparatus of camera parameter signaling in 3D video coding
JPWO2013031575A1 (ja) 画像処理装置および画像処理方法
WO2013159330A1 (en) An apparatus, a method and a computer program for video coding and decoding
WO2013022401A2 (en) Method and apparatus for creating a disocclusion map used for coding a three-dimensional video
Rusanovskyy et al. Depth-based coding of MVD data for 3D video extension of H. 264/AVC
Zhang et al. Block-based in-loop view synthesis for 3-D video coding
KR20160002194A (ko) 적응적 병합후보 선택방법 및 장치
KR20150043164A (ko) 2d 비디오 기반 3d 비디오 코딩을 위한 병합 움직임 후보 리스트를 구성하는 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150501

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160329

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160628

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20160912