JP2015534745A - 立体画像の生成、送信、及び受信方法、及び関連する装置 - Google Patents

立体画像の生成、送信、及び受信方法、及び関連する装置 Download PDF

Info

Publication number
JP2015534745A
JP2015534745A JP2015530521A JP2015530521A JP2015534745A JP 2015534745 A JP2015534745 A JP 2015534745A JP 2015530521 A JP2015530521 A JP 2015530521A JP 2015530521 A JP2015530521 A JP 2015530521A JP 2015534745 A JP2015534745 A JP 2015534745A
Authority
JP
Japan
Prior art keywords
image
depth
composite
images
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015530521A
Other languages
English (en)
Inventor
パオロ ダマート
パオロ ダマート
ジョバンニ バロッカ
ジョバンニ バロッカ
ヒョードル ブシュラノフ
ヒョードル ブシュラノフ
アレクセイ ポリアコフ
アレクセイ ポリアコフ
Original Assignee
エッセ.イ.エスヴィー.エアレ ソシアテ イタリアーナ ピエレ エレオ ヴィルプ デレレトロニカ エッセ.ピー.アー.
エッセ.イ.エスヴィー.エアレ ソシアテ イタリアーナ ピエレ エレオ ヴィルプ デレレトロニカ エッセ.ピー.アー.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エッセ.イ.エスヴィー.エアレ ソシアテ イタリアーナ ピエレ エレオ ヴィルプ デレレトロニカ エッセ.ピー.アー., エッセ.イ.エスヴィー.エアレ ソシアテ イタリアーナ ピエレ エレオ ヴィルプ デレレトロニカ エッセ.ピー.アー. filed Critical エッセ.イ.エスヴィー.エアレ ソシアテ イタリアーナ ピエレ エレオ ヴィルプ デレレトロニカ エッセ.ピー.アー.
Publication of JP2015534745A publication Critical patent/JP2015534745A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0077Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/005Aspects relating to the "3D+depth" image format

Abstract

本発明は、右画像(R)及び左画像(L)、並びに少なくとも1つの奥行きマップについての情報を含む複数の合成画像(C)を含む立体視ビデオストリーム(101)の生成方法に関する。方法に従って、複数のピクセルが右画像(R)及び左画像(L)から選択され、そして選択された複数のピクセルは立体視ビデオストリームの合成画像(C)へと入力される。方法は、右画像(R)の全てのピクセル、及び左画像(L)の全てのピクセルを、該2つの画像のうちの一方は変えないままとし、かつ他方は、複数のピクセルを含む複数の領域(R1、R2、R3)へ分割して、合成画像(C)へと入力する段階を与える。それから、(複数の)奥行きマップの複数のピクセルが、合成画像の、右画像及び左画像の複数のピクセルが占有しない領域へと入力される。本発明は、合成画像をもとにして右画像及び左画像を再構成する方法、並びに該方法の実施を可能にする複数の装置にも関する。

Description

本発明は、複数の立体視ビデオストリーム、すなわち、可視化装置において適切に処理された場合に、観察者が3次元であると認識する複数の画像シーケンスを生成する複数のビデオストリームの、生成、格納、送信、受信、及び再生に関する。
3次元の認識が、一方は観察者の右目用、他方は観察者の左目用である2つの画像を再生することによって得ることができることは公知である。
よって立体視ビデオストリームは、オブジェクトまたはシーンの右視点及び左視点に対応する2つの画像シーケンスについての情報を運ぶ。そのようなストリームは補足の情報も運ぶ。
WO2011/077343A1として2011年6月30日に公開された国際特許出願第PCT/IB2010/055918号には、水平方向の解像度と垂直方向の解像度との間のバランスの維持を可能にする、左/右画像の多重化方法及び逆多重化方法(関連する複数の装置も同様に)についての記載があり、これによって、「サイドバイサイド」及び「トップアンドボトム」等の複数の既知の技術に勝る複数の利点を提供する。
2つのいわゆる720p画像が1080pのコンテナフレームへ入力される場合を示している図1に示すように、該多重化方法に従って、第1の画像(例えば、左画像)の複数のピクセルは、変えられることなく合成画像へ入力され、一方で第2の画像は複数の領域へ分割され、これらの領域の複数のピクセルは合成画像の複数の自由なエリアに配置される。
受信の際、複数の領域に分割された画像は再構成され、そしてディスプレイへと送信される。例えば、いわゆる「フレームオルタネイト(frame alternate)」原理に従い動作する、すなわち、2つの画像L及び画像Rを時間的に連続して見せるディスプレイが複数知られている。立体視のために、いわゆる「アクティブ」眼鏡、すなわち、連続する画像L及び画像Rに同調して、目の一方の水晶体を陰にし、他方の水晶体を見える状態に保ち、それぞれの目がそれに対して向けられた画像のみを見ることができるようにする眼鏡、を着用しなくてはならない。
そのような複数のディスプレイを通した立体視は、見る人によっては不快感があることが分かっている。その人たちのために、複数の画像の奥行きを変更する(減らす)可能性を提供して、彼らの主観的な好み及びスクリーンのサイズに適合させることが望ましいであろう。そのためには、ディスプレイ内に、送信される複数の画像の間の複数の中間画像の合成を提供する必要があり、これらの中間画像は、実際に送信された複数の画像に変わって表示されるであろう。送信された複数の画像に関連付けられた1または複数の奥行きマップが利用可能な場合、複数の既知の技術を使用してそのような再構成が成され得る。
さらに、複数のいわゆる自己立体視ディスプレイが最近になって市場に出回るようになり、眼鏡を使用する必要がなくなった。また、複数のそのようなディスプレイは複数の未送信画像の合成を実行するので、そのような合成に必要な情報を提供する少なくとも1つの奥行きマップが必要である。
そのため、複数の立体ストリームの生成、搬送、及び再構成のための新たなフォーマットの導入が必要となってきた。このフォーマットは、複数の従来の2Dの受信再生装置及び現在の2視点立体3D受信再生装置(奥行き調整有りまたは無し)用に使用でき、2より多い視点を使用する、複数の将来の自己立体視装置用にも使用できて、一方でそれと同時に、現在使用される、ビデオストリームの生成及び配信の複数のインフラストラクチャ及び装置との最大のフォーマット互換性を保つ。
故に、本発明の目的は、上述の複数の要求事項を満たすことを目指した、複数の立体画像の生成、送信、及び受信方法、及び関連する装置の提案にある。
本発明は、単一合成フレーム内で、1または複数の奥行きマップと共に、右視点及び左視点(以後、右画像及び左画像という)に関する2つの画像を多重化する方法及び装置に関する。
本発明は、該合成画像を逆多重化する、すなわち、多重化装置が入力した右画像及び左画像、並びに(複数の)奥行きマップを抽出する、方法及び装置にも関する。
図1aに見ることができるように、上記の国際特許出願(いわゆる「タイルフォーマット」)に関して、合成画像には、水平方向及び垂直方向の両方において、寸法が、2つの画像、画像L及び画像Rの寸法の半分であるような未使用領域(C5)がある。本発明の一実施可能形態に従って、図1bに示すように、少なくとも1つの奥行きマップ(DM)が該未使用領域に入力され得る。
画像xに関する奥行きマップは、各ピクセルがピクセル自身の奥行き、すなわち座標「z」、に比例した輝度値を有するグレースケール画像として理解される。慣例として、値z=0はスクリーン上の位置に対応し、正の値のzはピクセルがスクリーンの後に配置されることに対応し、一方で、負の値はピクセルがスクリーンの前に配置されることに対応するとみなされる。合成画像の未使用領域は、画像L及び画像Rの寸法の半分である水平方向寸法及び垂直方向寸法を有するので、本発明の一実施形態において、対応する画像の半分に等しい、水平方向及び垂直方向の解像度を有する奥行きマップ(画像L及び画像Rの2つの画像のうちの1つに関する)をそのような領域に入力することが可能である。複数の奥行きマップが一般的に計算され得る、または測定され得る不正確さを考えると、複数のピクセル値の間で複数の補間をすることにより、複数のフル解像度マップに複数のアンダーサンプリング処理を施すことは、そのような処理はノイズ成分を低減することができ、より質の高い複数の再構成された画像をもたらすという点で好ましいので、解像度のそのような損失は害を及ぼさないことが認められている。
本発明の複数の他の実施形態に従って、2つの奥行きマップを該未使用領域(C5)に入力することが可能である。
上記の国際特許出願にはまた、奥行きマップを入力するために利用可能とされるスペースはより小さいので効果は劣るが、本発明の方法が同様に適用可能な、立体画像L及び画像Rの多重化及び逆多重化の複数の他の形態の記載もある。結果的に、該マップの解像度はさらに低下するであろう。本発明の複数の一般的原理に含まれる限りは、複数のそのような代替的実装は本明細書においては記載されないであろう。
本説明の不可欠な部分である添付の特許請求の範囲において提示するように、複数の立体画像を生成、送信、及び受信する方法、及び関連する装置を提供することが、本発明の具体的な目的である。
本発明の更なる複数の目的及び利点が、付属の複数の図面を参照して非限定的な例として供給される少数の実施形態の以下の説明より明らかとなるであろう。
従来技術のフォーマット(タイルフォーマット)における合成フレームを示す。 本発明による、合成フレームの一例を示す。 右画像、左画像、及び奥行きマップを合成画像へ多重化する装置のブロック図を示す。 図2の装置により実行される方法のフローチャートである。 合成画像へ入力される画像の分割の1つの可能な形態を示す。 左画像、右画像、及び奥行きマップを合成フレームから抽出する装置のブロック図を示す。 図5の装置により実行される方法のフローチャートである。
図2は、本発明の変形例による、少なくとも1つの奥行きマップを有する立体視ビデオストリーム101を生成する装置100のブロック図を示す。
図2において、装置100は2つの画像シーケンス102および103、例えば、それぞれ左目(L)及び右目(R)に対して向けられた2つのビデオストリームと、立体視ビデオストリームに関連付けられた3次元コンテンツに関する奥行きマップのシーケンス106とを受信する。
シーケンス106の奥行きマップは、それぞれシーケンス102および103に属する右画像及び左画像の2つの画像のうちの1つに関連付けられてよく、または、右画像及び左画像の複数の奥行きマップ間の補間として、すなわち、シーンの中間視点に関して生成されてよい。
以下に説明されるであろうこの第1の実施形態において、奥行きマップは当技術分野において既知の複数のアルゴリズムのうちの任意の1つによって生成される。この複数のアルゴリズムは、例えば右画像と左画像との間の比較に基づいており、マトリックス(すなわち、奥行きマップ)を返す。このマトリックスのサイズは2つの比較された画像のうちの1つの画像の複数のピクセル数に等しく、マトリックスの複数の要素は、該画像の各ピクセルの奥行きに比例する値を有する。別の奥行きマップ生成技術は、シーン中のオブジェクトの、シーンを撮影している一ペアのビデオカメラからの距離の測定に基づく。この距離はレーザによって容易に測定できる。複数の電子コンピュータの助けを借りて生成された複数の人工的なビデオストリームの場合、複数のビデオカメラは、それらが、コンピュータが人工的に生成する特定のシーンの2つの視点から成るという点で、仮想のものである。そのような場合、複数の奥行きマップはコンピュータが生成し、非常に正確なものである。
図2の例の代替として、シーケンス106の奥行きマップは装置100内で生成されてよい。この場合、外部から奥行きマップのシーケンスを受信する代わりに、装置100は、画像Lのシーケンス102及び画像Rのシーケンス103が入力され、それから複数の対応する奥行きマップを算出する適切なモジュール(図面には図示せず)を備える。
装置100により、2つのシーケンス102および103の2つの画像、及びシーケンス106の奥行きマップを多重化する方法の実装が可能になる。
装置100は、右画像及び左画像、並びに奥行きマップを多重化する方法を実装すべく、入力画像(図1bの例における右画像)を、各々が、受信した画像の一領域に対応する複数の副画像に分割するディスアセンブラモジュール104と、奥行きマップを処理するアンダーサンプリング及びフィルタリングモジュール107と、奥行きマップを含む複数の受信した画像の複数のピクセルを、自身の出力において提供される単一の合成画像に入力可能なアセンブラモジュール105と、を備える。シーケンス106の処理が必要でない場合、モジュール107は省かれてよい。これは、例えば、奥行きマップがレーザにより生成されたものであって、そもそも、画像Lおよび画像Rのものよりも低い解像度を有する場合であってよい。
装置100が実装する多重化方法の一例が図3を参照してこれより説明される。
方法はステップ200から開始する。続いて(ステップ201)、2つの入力画像(右または左)のうちの1つは、図4に示すように、複数の領域に分割される。図4の例において、分割された画像は、720pのビデオストリームのフレームR、すなわち、1280×720ピクセルの解像度を有するプログレッシブフォーマットである。
図4のフレームRは右目に向けられた複数の画像を搬送するビデオストリーム103に由来するものであり、R1、R2、及びR3の3つの領域に、好ましくは矩形状に、分割される。
画像Rの分割は、それを同じサイズの2つの部分に分割し、続いてこれらの部分のうちの1つを同じサイズの2つの部分に細分割することにより得られる。
領域R1は、640×720ピクセルのサイズを有し、各行の全ての最初の640ピクセルを取り出して得られる。領域R2は、640×360ピクセルのサイズを有し、最初の360行の641〜1280のピクセルを取り出して得られる。領域R3は、640×360ピクセルのサイズを有し、画像Rの残りのピクセル、すなわち最後の360行の641〜1280のピクセル、を取り出して得られる。
図2の例において、画像Rを分割するステップは、入力画像R(フレームRの場合)を受信し、3つの領域R1、R2、及びR3に対応する3つの副画像(すなわち3つのピクセル群)を出力するモジュール104によって実行される。
続いて(ステップ202、203および204)、合成画像Cが構成される。合成画像Cは、右画像及び左画像の両方、並びに受信された奥行きマップに関連する情報を含み、本明細書において説明される例においては、該合成画像Cは出力の立体視ビデオストリームのフレームなので、コンテナフレームとも呼ばれる。
まず(ステップ202)、装置100が受信し、装置100が分割しない入力画像(図2の例における左画像L)は、両方の入力画像の全ピクセルを含むようなサイズのコンテナフレームの未分割エリアに、変えられることなく入力される。例えば、入力画像が1280×720ピクセルのサイズを有する場合、両方を含むのに適したコンテナフレームは、1920×1080ピクセルのフレーム、例えば、1080pタイプのビデオストリームのフレームであろう(1920×1080ピクセルのプログレッシブフォーマット)。
図1の例において、左画像LはコンテナフレームCに入力され、左上隅に配置される。これは、画像Lの1280×720ピクセルを、コンテナフレームCの最初の720行の最初の1280ピクセルから成るエリアC1にコピーして得られる。
次のステップ203において、モジュール104によってステップ201において分割された画像はコンテナフレームに入力される。これは、モジュール105によって、分割された画像の複数のピクセルを、コンテナフレームC内の、画像Lによって占有されていない、すなわちエリアC1外の複数のエリアにコピーすることにより実現される。
圧縮を最適化し、及びビデオストリームを解凍するときの複数のアーチファクトの発生を低減させるべく、モジュール104が出力する複数の副画像の複数のピクセルは、それぞれの空間的関係性を保ちつつコピーされる。 言い換えると、領域R1、R2、及びR3は、いかなるデフォルメーションをも施すことなく、もっぱら並進処理によって、フレームCのそれぞれのエリアにコピーされる。
モジュール105が出力するコンテナフレームCの例を図1bに示す。
領域R1は、最初の720行の最後の640ピクセル(エリアC2)、すなわち、既にコピーされた画像Lの隣、にコピーされる。
領域R2及びR3は、エリアC1の下、すなわち、それぞれエリアC3及びエリアC4、にコピーされる。エリアC3及びエリアC4はそれぞれ、最後の360行の、最初の640ピクセル及びその次の640ピクセルを含む。
コンテナフレームに画像L及びRを入力する複数の処理は、水平方向の解像度と垂直方向の解像度との間のバランスに対するいかなる変更も示唆しない。
コンテナフレームCに画像L及びRを入力する上述の技術を、以下において、タイルフォーマットタイプと定義する。
フレームCの複数の自由なピクセルにおいて、すなわち、エリアC5において、モジュール105は、ステレオペアL及びRに関する奥行きマップ(DM)を画像の形態で入力する(ステップ204)。ステップ204の前に、モジュール107は奥行きマップDMに、アンダーサンプリング、フィルタリング、または更なる処理を施してよい。
奥行きマップは、グレースケール画像としてコード化されるのが好ましい。よってこのグレースケール画像の情報内容は輝度信号のみによって搬送され得る。クロミナンスは用いられず、例えば、0であってよい。これによりコンテナフレームCの効果的な圧縮を得ることが可能になる。
好適な実施形態においては、奥行きマップDMは640×360ピクセルの解像度を有し、これは1280×720ピクセルの解像度を有する元の奥行きマップの4対1のアンダーサンプリング(またはデシメーション)に対応し、画像L及びRの解像度に匹敵する。アンダーサンプリングされたマップDMの各ピクセルは元のマップの2×2ピクセルの領域に対応する。アンダーサンプリング処理は通常、当技術分野において公知である複数の手順を使用して実行される。
このようにして得られたフレームCは、続いて圧縮され、記憶媒体(例えば、DVD)に送信または保存される。この目的のために、画像またはビデオ信号の圧縮に適合した複数の圧縮手段が、圧縮された画像またはビデオ信号を記録及び/または送信する手段とともに提供される。
図5は、受信したコンテナフレームを解凍(圧縮されていた場合)し、右画像及び左画像の2つの画像を再構成し、3Dコンテンツを実現可能な可視化装置(例えば、テレビ受像機)によるそれらの利用を可能にするレシーバ1100のブロック図を示している。 レシーバ1100は、テレビ受像機内に組み込まれたセットトップボックスまたはレシーバであってよい。
レシーバ1100対して述べられる同様のことが、読み取り機が読み取るコンテナフレーム(おそらく圧縮された)に入力された右画像及び左画像に対応する一ペアのフレームを得るべく、コンテナフレーム(おそらく圧縮された)を読み取り、処理する保存された画像の読み取り機(例えば、DVD読み取り機)にも適用可能である。
図5に戻って、レシーバは圧縮された立体視ビデオストリーム1101を受信し(ケーブルまたはアンテナを用いて)、それを解凍モジュール1102によって解凍する。それにより、複数のフレームCに対応する一連のフレームC´を含むビデオストリームを得る。理想的なチャネルの場合、または複数のコンテナフレームが大容量メモリまたはデータ媒体(ブルーレイ、CD、DVD)から読み取られている場合、複数のフレームC´は、圧縮処理がもたらす全てのアーチファクトを除く、右画像及び左画像、並びに奥行きマップについての情報を搬送する複数のコンテナフレームCに対応する。
これらのフレームC´は、次に再構成モジュール1103に供給される。再構成モジュール1103は、図6を参照して以下で説明するように、画像の再構成及び奥行きマップ抽出方法を実行する。
ビデオストリームが圧縮されていない場合は、解凍モジュール1102を省いてよく、ビデオ信号は直接再構成モジュール1103に供給されてよいことは明らかである。
再構成処理は、解凍されたコンテナフレームC´が受信されるステップ1300から開始する。
再構成モジュール1103は、解凍されたフレームの最初の720×1080の連続するピクセルを、コンテナフレームより小さな新しいフレーム、例えば、720pのストリームのフレームにコピーすることによって、左画像Lを抽出する(ステップ1301)。 このようにして再構成された画像Lは、レシーバ1100の出力へ送信される(ステップ1302)。
「連続するピクセル」という用語は、フレームの未分割エリアに属する、変えられていない画像の複数のピクセルを指す。
続いて、この方法はコンテナフレームC´から右画像を抽出する。
右画像を抽出するステップ(図4も参照)は、フレームC´に存在するエリアR1をコピーすることにより(ステップ1303)開始する。より詳細には、R1の640列の複数のピクセルは、再構成された画像Routを表す新しいフレームの対応する最初の640列へとコピーされる。続いてR2が抽出される(ステップ1304)。解凍されたフレームC´(前述のように、図1bのフレームCに対応)から、エリアC3の複数のピクセル(元の領域R2に対応)が選択される。この時点で、複数のピクセルからなる640列は、R1からコピーされたばかりの列に隣接する自由な列へとコピーされる。
R3が関与する限り(ステップ1305)、エリアC4の複数のピクセルは、フレームC´から抽出され、再構成されたフレームの左下隅の最後の自由な列へとコピーされる。
この時点で、右画像Routは完全に再構成され、出力され得る(ステップ1306)。
最後に、再構成モジュール1103は、エリアC5に対応する、解凍されたコンテナフレームC´の最後の640×320ピクセルの複数の輝度値をメモリエリアへとコピーすることによって、奥行きマップを抽出する(ステップ1307)。該メモリエリアのコンテンツは、レシーバ1100に出力され(ステップ1308)、立体視ビデオストリームにおいては送信されない複数の補間画像を生成すべく、ディスプレイによって使用されるであろう。コンテナフレームC´に含まれる、右画像及び左画像、並びに奥行きマップを再構成する処理は、このようにして完了する(ステップ1309)。該処理は、レシーバ1100が受信するビデオストリームの各フレームについて繰り返されて、出力が、それぞれ右画像及び左画像に対する2つのビデオストリーム1104及び1105と、奥行きマップに対応する1つのビデオストリーム1106と、から成るようにする。
画像合成のための、右画像及び左画像、並びに奥行きマップを再構成する上述の処理は、どのようにしてコンテナフレームCが構築されたかをデマルチプレクサ1100が知っており、ゆえに、デマルチプレクサは右画像及び左画像、並びに合成奥行きマップを抽出し得る、という仮定に基づいている。
言うまでもなく、これは多重化方法が標準化されている場合に可能である。
添付の特許請求の範囲の主題である解決方法を使用する複数の方法のうちのいずれか1つに従ってコンテナフレームが生成され得るという事実を考慮に入れるべく、デマルチプレクサは好ましくは、メタデータの形態で合成画像の予め定義された領域、またはビデオストリームに含まれるシグナリング情報を用いる。シグナリング情報は、合成画像のコンテンツの展開方法と、右画像及び左画像、並びに補足の複数の立体画像の合成用の奥行きマップの再構成方法と、を知るべく生成されるビデオストリームのタイプを特定する。
シグナリングをデコードした後、デマルチプレクサは、変えられていない画像(例えば、上述の複数の例における左画像)の位置と共に、その他の画像が分割された(例えば、上述の複数の例における右画像)、複数の領域の位置、並びに奥行きマップの位置も知るであろう。
この情報によって、デマルチプレクサは変えられていない画像(例えば、左画像)及び奥行きマップを抽出でき、分割された画像(例えば、右画像)を再構成できる。
本発明は、幾つかの好適な及び有利な実施形態を参照してこれまで説明されてきたが、本発明がそのような複数の実施形態に限定されるものではないこと、及び、オブジェクトまたはシーンの2つの異なる視点(右及び左)に関する2つの画像、並びに関連付けられた奥行きマップを合成画像に組み合わせたい当業者が、多数の変更を成しうることは明らかである。
可能な変形例において、例えば、2つの画像のうちの1つに関する奥行きマップを合成フレームCに入力する代わりに、いわゆる「視差マップ」または「変位マップ」が入力される。適切な仮定(同一の光学系を備えたビデオカメラでの撮影)の下では、そのようなマップは、それが容易に関連付けられ得る奥行きマップから容易に導出され得る。右画像及び左画像の2つの画像が同じディスプレイ上に重ね合わせて表示され、それらを分離すべく眼鏡を用いない場合、一方の画像を他方の画像から得るためには、オブジェクトを特定の量だけ移動させる必要があることに気付き得る。 より正確には、左画像をもとにして右画像を得るためには、スクリーンの後ろに位置する複数のオブジェクトを、そのような複数のオブジェクトが配置される奥行きに応じて増加する量だけ右に移動させる必要がある。丁度スクリーン上に配置された複数のオブジェクトは、移動させる必要がない。一方でスクリーンの前に配置された複数のオブジェクトは、スクリーンからの距離に応じて増加する量だけ左に移動させる必要がある。
前述の複数の状況において、奥行きPと視差Dとの間に以下のタイプの関係が存在する。
D=I*P/(P+P0)
ここで、Iは眼間距離であり、P0は観察者のスクリーンからの距離である。Pが無限大に近ければ、DはほぼIになり、P=0(オブジェクトがスクリーン上に配置される)ならばDは0に等しくなることに留意すべきである。
言うまでもなく、左画像と右画像との間の中間画像を再構成すべく、上述した同じ手順を採用することが可能である。しかし、複数の視差値に、中間視点の基準画像(この場合左画像)の視点からの距離に応じた、0と1との間の係数cが乗算されなくてならないであろう。
上記説明に従って右画像が左画像をもとにして再構成される場合、または中間画像が再構成される場合、右画像に存在し左画像には存在しない複数のオブジェクトの複数のピクセルに対応する幾つかのエリアは、それらの前にある複数の他のオブジェクトの陰になっているので(いわゆる、「オクルージョン」)、カバーされないままであることに留意すべきである。
ゆえに、中間画像を完全に再構成するには、右画像及び左画像の両方、並びに奥行きまたは視差マップの両方も利用可能にする必要があるだろう。このようにして、実際、他の画像から複数の対応するピクセルを取り出すことによって、かつ、係数1−cが乗算された相対的な視差に等しい量だけそれらを移動させることによって、複数の欠けた(塞がれた)エリアが埋められる。
上記説明から理解できるように、本発明の別の可能な変形例は、1つではなく2つの奥行きまたは視差マップの入力を必要としてよい。そのようなマップは、それぞれ左画像及び右画像に関連しており、例えばサイドバイサイドまたはトップアンドボトムなどの既知のフレームパッキング技術を使用して先の場合において単一のマップが入力されたのと同じスペースに入力され得る。前者の場合では、両方のマップの水平方向の解像度がさらに半減し、一方で後者の場合においては垂直方向の解像度が半減する。上で「タイルフォーマット」と定義したフレームパッキング技術の更なる変形例も使用可能である。
生成側で2つのマップを入力する手順、及び受信側で2つのマップを抽出する手順は、当業者には周知の複数の明らかな変形形態と共に、単一マップの場合を参照して説明される複数の手順から容易に導出され得る。
言うまでもなく、ビデオストリームに存在するシグナリングは1または2つのマップの存在を知ることもできなくてはならない。結果、該シグナリングは以下に挙げる複数のタイプの合成フレームのうちの少なくとも2つを区別することを可能にすべく適合される情報を含まなくてはならない。
1)奥行きまたは視差マップを有さないタイルフォーマットタイプの合成フレーム(図1aの場合);
2)1つの奥行きまたは視差マップを有するタイルフォーマットタイプの合成フレーム(図1bの場合);
及び場合によっては、
3)トップアンドボトム構成で、2つの奥行きまたは視差マップを有するタイルフォーマットタイプの合成フレーム;
4)サイドバイサイド構成で、2つの奥行きまたは視差マップを有するタイルフォーマットタイプの合成フレーム;
5)タイルフォーマット構成で、2つの奥行きまたは視差マップを有するタイルフォーマットタイプの合成フレーム。
レシーバは、シグナリング情報に基づき、以下に挙げる複数の処理のうち1または複数を実行すべく適合された1または複数の処理ブロックを備えるのが好ましい。
−上述したように、3次元ビデオコンテンツの右画像及び左画像の2つの画像を適切に再構成する目的で、受信されるフレームのタイプを認識する;
−1または2つの奥行きまたは視差マップの存在、及びその構成タイプを認識する;
−2つの奥行きまたは視差マップがある場合にその2つのマップの各々を取得する;
−複数のマップの複数の寸法を、ビデオコンテンツの複数の画像の複数の寸法に等しい値にすべく適合された複数の処理を、複数の奥行きまたは視差マップに実行する;
これらの処理は、例えば複数の補間処理などのアンダーサンプリングとは、例えば逆のタイプであってよい。
複数の他の変形例が、本発明の物理的実装に関係しうる。例えば、複数の上述の装置を実装する複数の電子モジュール、具体的には装置100及びレシーバ1100、は、多様に細分割及び分散されてよく、さらに、それらは、複数のハードウェアモジュールの形態で、または、プロセッサ、具体的には複数の受信した入力フレームを一時的に格納する適切なメモリエリアを備えるビデオプロセッサ、が実装する複数のソフトウェアアルゴリズムとして、設けられてよい。ゆえに、これらのモジュールは、本発明による画像の多重化及び逆多重化方法の複数のビデオ処理ステップのうち1または複数をパラレルに、または連続して実行しうる。 複数の好適な実施形態は、2つの720pのビデオストリームの、1つの1080pのビデオストリームへの多重化を参照しているが、他のフォーマットも同様に使用してよいことは明らかである。
明らかに、図3および6に示す多重化及び逆多重化の複数の手順が実行される順序は単なる例示にすぎない。その方法の本質を変化させなければ、任意の理由による変更が可能である。
本発明は特定のタイプの合成画像の構成に限定されるものではない。なぜなら、合成画像の生成方法が異なれば、それぞれにおいて特定の利点及び/または欠点を提供しうるからである。
本発明は、その全ての変形例と共に、任意のタイプの現在または将来のディスプレイ上での3Dコンテンツの生成、搬送、及び、再生のためのユニバーサルフォーマットを提案する。
2D再生装置の場合は、再生装置のビデオプロセッサは、レシーバ1100の出力に存在しうる複数の画像R及び複数の奥行きマップ(DMまたはDM1及びDM2)はただ捨てるだけで、画像Lのシーケンスのみをスケーリングを施して、関連付けられた可視化装置に表示するであろう。
同様なことが、ユーザが2Dディスプレイモードを作動させた3D再生装置の場合に当てはまる。
3Dディスプレイモードを作動させた3D再生装置は、シーンの奥行きが調整(小さく)され得るか、調節され得ないかに応じて2つの異なる挙動を示す。前者の場合、ビデオプロセッサは画像L及び画像Rの2つのシーケンスを用いて3D効果を生み出すであろう。後者の場合、ビデオプロセッサは、立体画像R及び画像Lの各ペアに関連付けられた合成フレームC´に含まれる複数の奥行きマップ(1つまたは2つ)を用いて、LとRとの間の複数の中間像を生成し、それによって、L及びRから得られるものよりも低い可変奥行きを有する複数の3次元画像を得るであろう。
最後の場合は、複数の自己立体視プレーヤによって表される。これらの自己立体視プレーヤは、ディスプレイの前の空間における複数の異なる地点に位置する観察者らに対して3D効果を生み出すべく、非常に多くの(数十)像を必要とする。この場合、ビデオプロセッサは、合成フレームC´に含まれる複数の奥行きマップ(1つまたは2つ)を画像L及び画像R自身とともに用いて、一連の他の画像を合成するであろう。ディスプレイの前には、多数のレンズまたはバリアがあり、立体視が可能な空間における任意の地点において観察者は複数の該画像の一ペアだけを認識するであろう。
ゆえに、再生装置のビデオプロセッサは2つの画像シーケンスをディスプレイに送信すべく適合された手段を備えてよい。これらの画像シーケンスのうち少なくとも1つは、複数の送信された像のうち少なくとも1つと、少なくとも1つの奥行きマップと、をもとに合成された複数の画像から成る。この場合、それは、より多い又はより少ない近接視点に関する複数の画像シーケンスを観察者が選択できるようにして、奥行き感を変更すべく適合された手段も備えることが好ましい。
再生装置のビデオプロセッサは、複数の更なる像に対応する複数の更なる画像を生成して、空間の異なる地点に位置する観察者らが、関連付けられた自己立体視ディスプレイを通して複数の異なる画像シーケンスを見ることができるようにすべく適合された手段も備えてよい。
水平方向の解像度と垂直方向の解像度とのバランス、及び、複数の立体画像及び関連付けられた複数の奥行きマップへの適切な解像度の割り当てに関して非常に良好な再生品質を変わらず保証すると同時に、そのような柔軟性及び使用の幅広さを提供することは、現在までに提案されたフォーマットのなかでは1つもない。
上述の複数の再構成処理は、部分的にレシーバ装置において実行され、かつ部分的にディスプレイ装置において実行されてよい。
本発明は、上述の複数の方法の1または複数のステップを実施するコーディング手段を備える複数のコンピュータプログラムによって、コンピュータがそのような複数のプログラムを実行するとき、少なくとも部分的には有利に実現され得る。ゆえに、保護範囲は該複数のコンピュータプログラムまでにも、コンピュータが該プログラムを実行するとき、上述の複数の方法の1または複数のステップを実施するプログラムコーディング手段を備え、複数の録画メッセージを含む、コンピュータ可読手段までにも、広がることが理解されよう。 上述の実施形態の例は、当業者には既知の全ての等価な設計を含みながら、本発明の保護範囲から逸脱することなく複数の変形を受けうる。
様々な好適な実施形態に示した複数の要素及び複数の特徴は、しかしながら、本発明の保護範囲から逸脱することなく共に組み合わされうる。
上記の説明から、当業者は、これ以上の実装の詳細を導入することなく、本発明の目的を生み出すことが可能であろう。

Claims (31)

  1. 複数の合成画像を含む立体視ビデオストリームを生成する方法であって、前記複数の合成画像は3次元ビデオコンテンツの右画像及び左画像についての情報を含み、前記右画像の複数のピクセル及び前記左画像の複数のピクセルが選択され、前記選択された複数のピクセルは前記立体視ビデオストリームの合成画像へと入力され、
    前記方法は、前記右画像及び前記左画像のうちの一方の画像は変化させないままとし、他方の画像を、合計したエリアが前記他方の画像のエリアと等しい複数の領域へと分割し、かつ、前記複数の領域を前記合成画像へ入力することにより、前記右画像の全てのピクセル及び前記左画像の全てのピクセルを前記合成画像へと入力することを特徴とし、
    前記合成画像の複数の寸法は、前記左画像及び前記右画像の全てのピクセルを入力するために必要とされるものより大きく、
    前記入力のあとに残った、前記合成画像の複数のピクセルには、前記3次元ビデオコンテンツの複数のピクセルの奥行きまたは視差に関する少なくとも1つの奥行きまたは視差マップが入力され、複数の前記マップは、受信の際、前記立体視ビデオストリームにおいて送信されない複数の画像を再構成するためのものである
    方法。
  2. 前記少なくとも1つの奥行きまたは視差マップはグレースケール画像としてコード化される
    請求項1に記載の方法。
  3. 前記少なくとも1つの奥行きまたは視差マップのビデオ情報内容は、クロミナンス信号を使用することなく、単一の輝度信号によって搬送される
    請求項2に記載の方法。
  4. 前記少なくとも1つの奥行きまたは視差マップは、元のバージョンよりも低い解像度を有し、後者の解像度は、前記左画像及び前記右画像の解像度と等しい
    請求項1から3の何れか一項に記載の方法。
  5. 前記少なくとも1つの奥行きまたは視差マップは、前記元の奥行きマップに4対1のアンダーサンプリングを施すことにより得られる
    請求項4に記載の方法。
  6. 前記少なくとも1つの奥行きまたは視差マップは、右及び左の2つの画像のうちの1つに関連付けられた奥行きまたは視差マップ、または、前記左画像と前記右画像との間の中間視点に関連付けられた奥行きまたは視差マップである
    請求項1から5の何れか一項に記載の方法。
  7. 前記少なくとも1つの奥行きまたは視差マップは、右画像に関連付けられた奥行きまたは視差マップ、および、左画像に関連付けられた奥行きまたは視差マップを含む
    請求項1から6の何れか一項に記載の方法。
  8. 右画像及び左画像に関連付けられた複数の前記奥行きまたは視差マップは、フレームパッキング技術によって、前記合成画像の前記残りの複数のピクセルへと入力される
    請求項7に記載の方法。
  9. 前記複数の領域の数が3つである場合、前記複数の領域は、
    −前記他方の画像を、同じ水平方向寸法を有する2つの部分へと分割する段階と、
    −前記2つの部分のうちの1つを、同じ垂直方向寸法を有する2つの部分へと分割する段階と、の複数の段階を通して得られる
    請求項1から8の何れか一項に記載の方法。
  10. 生成されたビデオストリームのタイプを特定するシグナリング情報はメタデータとして前記合成画像または前記立体視ビデオストリームへと入力される
    請求項1から9の何れか一項に記載の方法。
  11. 前記シグナリング情報は、以下の複数のタイプの合成フレーム、
    −奥行きマップを有さないタイルフォーマットタイプの合成フレーム;
    −1つの奥行きマップを有するタイルフォーマットタイプの合成フレーム;
    −サイドバイサイド構成で2つの奥行きマップを有するタイルフォーマットタイプの合成フレーム;
    −トップアンドボトム構成で2つの奥行きマップを有するタイルフォーマットタイプの合成フレーム;
    −タイルフォーマット構成で2つの奥行きマップを有するタイルフォーマットタイプの合成フレーム;のうちの少なくとも2つの区別を可能にする
    請求項10に記載の方法。
  12. 複数の合成画像を含む立体視ビデオストリームを生成する装置であって、前記複数の合成画像は右画像、左画像についての情報を含み、請求項1から11の何れか一項に記載の前記方法の複数の段階を実施する手段を備える
    装置。
  13. 合成画像をもとにして立体視ビデオストリームの少なくとも1つのペアの画像を再構成する方法であって、前記合成画像は右画像、左画像についての情報を含み、前記方法は
    前記合成画像の第1の領域から複数の連続するピクセルからなる単一群をコピーして、前記右画像及び前記左画像のうちの第1の画像を生成する段階;
    前記合成画像の、前記第1の領域とは異なる別個の複数の領域から、複数の連続するピクセルからなる複数の他の群をコピーして、前記右画像及び前記左画像のうちの残りの画像を生成する段階;
    前記合成画像の、前記第1の領域及び前記別個の複数の領域とは異なる更なる領域から、複数の連続するピクセルからなる少なくとも1つの群をコピーして、少なくとも1つの奥行きまたは視差マップを生成する段階;を含む
    方法。
  14. 前記複数の領域の数が3つである場合、
    前記合成画像の前記複数の領域のうちの1つは、前記第1の領域と同じ垂直方向寸法、および前記第1の領域の半分の水平方向寸法を有し;
    前記合成画像の前記複数の領域のうちの残りの2つは、等しい水平方向寸法及び垂直方向寸法を有し、前記第1の領域の半分の垂直方向寸法を有する
    請求項13に記載の方法。
  15. 前記少なくとも1つの奥行きまたは視差マップは、前記更なる領域の前記複数の連続するピクセルに含まれた輝度信号から得られるグレースケール画像をもとに生成される
    請求項13に記載の方法。
  16. 前記少なくとも1つの奥行きまたは視差マップの水平方向寸法及び垂直方向寸法を、前記右画像及び前記左画像の寸法と等しくなるまで増大させる段階を含む
    請求項15に記載の方法。
  17. 前記合成画像から、または前記ビデオストリームから、生成されるビデオストリームのタイプを認識するシグナリング情報を取得する段階を含む
    請求項13に記載の方法。
  18. 前記シグナリング情報は、以下の複数のタイプの合成フレーム、
    −奥行きマップを有さないタイルフォーマットタイプの合成フレーム;
    −1つの奥行きマップを有するタイルフォーマットタイプの合成フレーム;
    −サイドバイサイド構成で、2つの奥行きマップを有するタイルフォーマットタイプの合成フレーム;
    −トップアンドボトム構成で、2つの奥行きマップを有するタイルフォーマットタイプの合成フレーム;
    −タイルフォーマット構成で、2つの奥行きマップを有するタイルフォーマットタイプの合成フレーム;のうちの少なくとも2つの区別を可能にする
    請求項17に記載の方法。
  19. 合成画像をもとにして立体視ビデオストリームの少なくとも1つのペアの画像を再構成する装置であって、前記合成画像は右画像、左画像についての情報を含み、前記装置は、
    前記合成画像の第1の領域から複数の連続するピクセルからなる単一群をコピーして、前記右画像及び前記左画像のうちの第1の画像を生成する手段;
    前記合成画像の、前記第1の領域とは異なる別個の複数の領域から、複数の連続するピクセルからなる複数の他の群をコピーして、前記右画像及び前記左画像のうちの残りの画像を生成する手段;
    前記合成画像の、前記第1の領域及び前記別個の複数の領域とは異なる更なる領域から、複数の連続するピクセルからなる少なくとも1つの群をコピーして、少なくとも1つの奥行きまたは視差マップを生成する手段;を含む
    装置。
  20. 前記複数の領域の数が3つである場合、
    −前記合成画像の前記複数の領域のうちの1つは、前記第1の領域と同じ垂直方向寸法、および前記第1の領域の半分の水平方向寸法を有し;
    −前記合成画像の前記複数の領域のうちの残りの2つは、等しい水平方向寸法及び垂直方向寸法、および前記第1の領域の半分の垂直方向寸法を有する
    請求項19に記載の装置。
  21. 少なくとも1つの奥行きまたは視差マップを生成する前記手段は、前記更なる領域の前記複数の連続するピクセルに含まれた輝度信号から得られるグレースケール画像を使用する
    請求項19に記載の装置。
  22. 前記少なくとも1つの奥行きまたは視差マップの水平方向寸法及び垂直方向寸法を、前記右画像及び前記左画像の寸法と等しくなるまで増大させる手段を含む
    請求項21に記載の装置。
  23. 受信されたビデオストリームのタイプを、前記合成画像、または前記ビデオストリームに含まれる、前記ビデオストリームのタイプを特定するシグナリング情報に基づき認識する手段を備える
    請求項19に記載の装置。
  24. 前記シグナリング情報は、以下の複数のタイプの合成フレーム、
    −奥行きマップを有さないタイルフォーマットタイプの合成フレーム;
    −1つの奥行きマップを有するタイルフォーマットタイプの合成フレーム;
    −サイドバイサイド構成で、2つの奥行きマップを有するタイルフォーマットタイプの合成フレーム;
    −トップアンドボトム構成で、2つの奥行きマップを有するタイルフォーマットタイプの合成フレーム;
    −タイルフォーマット構成で、2つの奥行きマップを有するタイルフォーマットタイプの合成フレーム;のうちの少なくとも2つの区別を可能にする
    請求項23に記載の装置。
  25. 合成フレームのタイプの区別に有用な前記情報に基づき、
    −前記右画像及び前記左画像のうちの前記第1の画像のみ;または
    −前記右画像及び前記左画像のうちの前記第1の画像及び第2の画像;または
    −前記右画像及び前記左画像のうちの前記第1の画像及び前記第2の画像、及び前記少なくとも1つの奥行きまたは視差マップ、を出力する手段を備える
    請求項24記載の装置。
  26. 前記シグナリング情報に基づき、以下の複数の処理、
    −3次元ビデオコンテンツの右画像及び左画像の2つの画像を適切に再構成する目的で、受信されたフレームのタイプを認識する処理;
    −1または2つの奥行きまたは視差マップの存在、及びその構成タイプを認識する処理;
    −2つの奥行きまたは視差マップがある場合、2つの前記マップの各々を取得する処理;
    −複数の前記マップの複数の寸法を、前記ビデオコンテンツの複数の画像の複数の寸法に等しい値にする複数の処理を、複数の前記奥行きまたは視差マップに実行する処理;のうち1または複数を実行する手段を備える
    請求項23に記載の装置。
  27. 前記右画像及び前記左画像をもとにして、かつ、複数の前記奥行きまたは視差マップを使用して、複数の更なる像に対応する複数の更なる画像を生成する手段を備える
    請求項19に記載の装置。
  28. 2つの画像シーケンスを表示する手段を備え、前記2つの画像シーケンスのうち少なくとも1つは、複数の送信された像のうち少なくとも1つと、少なくとも1つの奥行きマップと、をもとにして合成された複数の画像を含む
    請求項27に記載の装置。
  29. 奥行き感を変更すべく、より多い又はより少ない近接視点に関する複数の画像シーケンスを観察者が選択できるようにする手段を備える
    請求項28に記載の装置。
  30. 自己立体視ディスプレイを備え、かつ、空間における複数の異なる地点に位置する観察者らが複数の異なる画像シーケンスを見ることを可能にすべく、複数の更なる像に対応する前記複数の更なる画像を使用する手段を備える
    請求項27に記載の装置。
  31. 請求項1から11の何れか一項に記載の前記方法によって生成される、少なくとも1つの合成画像を備える
    立体視ビデオストリーム。
JP2015530521A 2012-09-06 2013-03-06 立体画像の生成、送信、及び受信方法、及び関連する装置 Pending JP2015534745A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
RU2012138174/08A RU2012138174A (ru) 2012-09-06 2012-09-06 Способ компоновки формата цифрового стереоскопического видеопотока 3dz tile format
RU2012138174 2012-09-06
PCT/IB2013/051782 WO2014037822A1 (en) 2012-09-06 2013-03-06 Method for generating, transmitting and receiving stereoscopic images and relating devices

Publications (1)

Publication Number Publication Date
JP2015534745A true JP2015534745A (ja) 2015-12-03

Family

ID=48182965

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015530521A Pending JP2015534745A (ja) 2012-09-06 2013-03-06 立体画像の生成、送信、及び受信方法、及び関連する装置

Country Status (16)

Country Link
US (1) US9723290B2 (ja)
JP (1) JP2015534745A (ja)
KR (1) KR20150053774A (ja)
CN (1) CN104604222B (ja)
AT (1) AT513369A3 (ja)
CH (1) CH706886A2 (ja)
DE (1) DE102013217826A1 (ja)
ES (1) ES2446165B1 (ja)
FR (2) FR2995165B1 (ja)
GB (1) GB2507844B (ja)
IT (1) ITTO20130679A1 (ja)
NL (1) NL2011349C2 (ja)
PL (1) PL405234A1 (ja)
RU (1) RU2012138174A (ja)
TW (1) TWI511525B (ja)
WO (1) WO2014037822A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11127115B2 (en) 2019-12-13 2021-09-21 NextVPU (Shanghai) Co., Ltd. Determination of disparity

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11277598B2 (en) * 2009-07-14 2022-03-15 Cable Television Laboratories, Inc. Systems and methods for network-based media processing
US9978341B2 (en) * 2014-12-23 2018-05-22 Mediatek Inc. Visual data processing method and visual data processing system which can perform a process operation according to a gazing point
EP3323105A4 (en) * 2015-07-15 2019-02-20 Blinxel Pty Ltd. SYSTEM AND METHOD FOR IMAGE PROCESSING
NZ752336A (en) * 2015-08-18 2023-06-30 Magic Leap Inc Virtual and augmented reality systems and methods
EP3744088A1 (en) * 2019-04-01 2020-12-02 Google LLC Techniques to capture and edit dynamic depth images

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010085361A2 (en) * 2009-01-26 2010-07-29 Thomson Licensing Frame packing for video coding
JP2011519227A (ja) * 2008-04-25 2011-06-30 トムソン ライセンシング 奥行き信号の符号化
WO2012014171A1 (en) * 2010-07-28 2012-02-02 Sisvel Technology S.R.L. Method for combining images relating to a three-dimensional content
WO2012067399A2 (ko) * 2010-11-15 2012-05-24 엘지전자 주식회사 프레임 포맷 전환 방법 및 이러한 방법을 사용하는 장치

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100693200B1 (ko) * 2002-04-25 2007-03-13 샤프 가부시키가이샤 화상 부호화 장치, 화상 복호 장치, 기록 매체 및 화상기록 장치
KR100768837B1 (ko) * 2003-04-17 2007-10-19 샤프 가부시키가이샤 3차원 화상 작성 장치, 3차원 화상 재생 장치, 3차원 화상 처리 장치, 3차원 화상 처리 프로그램을 기록한 기록 매체
US8487982B2 (en) * 2007-06-07 2013-07-16 Reald Inc. Stereoplexing for film and video applications
EP2235957A1 (en) * 2007-12-20 2010-10-06 Koninklijke Philips Electronics N.V. Image encoding method for stereoscopic rendering
KR100950046B1 (ko) * 2008-04-10 2010-03-29 포항공과대학교 산학협력단 무안경식 3차원 입체 tv를 위한 고속 다시점 3차원 입체영상 합성 장치 및 방법
CN101668219B (zh) * 2008-09-02 2012-05-23 华为终端有限公司 3d视频通信方法、发送设备和系统
EP2485497B1 (en) * 2009-10-02 2014-11-05 Panasonic Corporation Playback device that can play stereoscopic video, integrated circuit, playback method and program
IT1397591B1 (it) * 2009-12-21 2013-01-16 Sisvel Technology Srl Metodo per la generazione, trasmissione e ricezione di immagini stereoscopiche e relativi dispositivi.
US9571811B2 (en) * 2010-07-28 2017-02-14 S.I.Sv.El. Societa' Italiana Per Lo Sviluppo Dell'elettronica S.P.A. Method and device for multiplexing and demultiplexing composite images relating to a three-dimensional content
CN103098478A (zh) * 2010-08-16 2013-05-08 富士胶片株式会社 图像处理设备、图像处理方法、图像处理程序、以及记录介质
EP2426635A1 (en) * 2010-09-01 2012-03-07 Thomson Licensing Method for watermarking free view video with blind watermark detection
IT1402995B1 (it) * 2010-11-12 2013-09-27 Sisvel Technology Srl Metodo di elaborazione di un contenuto video tridimensionale e relativo apparato
IT1404059B1 (it) * 2011-02-14 2013-11-08 Sisvel Technology Srl Metodo per la generazione, trasmissione e ricezione di immagini stereoscopiche e relativi dispositivi.

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011519227A (ja) * 2008-04-25 2011-06-30 トムソン ライセンシング 奥行き信号の符号化
WO2010085361A2 (en) * 2009-01-26 2010-07-29 Thomson Licensing Frame packing for video coding
WO2012014171A1 (en) * 2010-07-28 2012-02-02 Sisvel Technology S.R.L. Method for combining images relating to a three-dimensional content
WO2012067399A2 (ko) * 2010-11-15 2012-05-24 엘지전자 주식회사 프레임 포맷 전환 방법 및 이러한 방법을 사용하는 장치

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11127115B2 (en) 2019-12-13 2021-09-21 NextVPU (Shanghai) Co., Ltd. Determination of disparity

Also Published As

Publication number Publication date
GB2507844A (en) 2014-05-14
ES2446165B1 (es) 2015-03-23
CN104604222B (zh) 2017-03-29
WO2014037822A1 (en) 2014-03-13
DE102013217826A1 (de) 2014-03-06
KR20150053774A (ko) 2015-05-18
FR3002104B1 (fr) 2017-06-16
ITTO20130679A1 (it) 2014-03-07
US20150215599A1 (en) 2015-07-30
FR2995165B1 (fr) 2017-12-29
PL405234A1 (pl) 2014-03-17
AT513369A2 (de) 2014-03-15
GB2507844B (en) 2017-07-19
RU2012138174A (ru) 2014-03-27
AT513369A3 (de) 2018-08-15
GB201314206D0 (en) 2013-09-25
CH706886A2 (it) 2014-03-14
ES2446165A2 (es) 2014-03-06
FR2995165A1 (fr) 2014-03-07
NL2011349C2 (en) 2014-05-08
NL2011349A (en) 2014-03-10
CN104604222A (zh) 2015-05-06
FR3002104A1 (fr) 2014-08-15
TW201415864A (zh) 2014-04-16
ES2446165R1 (es) 2014-07-11
TWI511525B (zh) 2015-12-01
US9723290B2 (en) 2017-08-01

Similar Documents

Publication Publication Date Title
US9083963B2 (en) Method and device for the creation of pseudo-holographic images
US8422801B2 (en) Image encoding method for stereoscopic rendering
EP2306729B1 (en) Video encoding device, video encoding method, video reproduction device, video recording medium, and video data stream
CN102474644B (zh) 立体图像显示系统、视差转换装置、视差转换方法
Muller et al. Reliability-based generation and view synthesis in layered depth video
JP6150277B2 (ja) 立体映像符号化装置、立体映像復号化装置、立体映像符号化方法、立体映像復号化方法、立体映像符号化プログラム及び立体映像復号化プログラム
JP5544361B2 (ja) 三次元ビデオ信号を符号化するための方法及びシステム、三次元ビデオ信号を符号化するための符号器、三次元ビデオ信号を復号するための方法及びシステム、三次元ビデオ信号を復号するための復号器、およびコンピュータ・プログラム
JP6644979B2 (ja) 3次元ビデオストリームに属する画像のカラーコンポーネントを用いることにより、深度マップを生成、格納、送信、受信および再生する方法およびデバイス
US9596446B2 (en) Method of encoding a video data signal for use with a multi-view stereoscopic display device
CN102047669B (zh) 具有深度信息的视频信号
JP2013539256A (ja) 3次元コンテンツに関する画像を合成する方法
CN103081476A (zh) 利用深度图信息转换三维图像的方法和设备
JP2015534745A (ja) 立体画像の生成、送信、及び受信方法、及び関連する装置
CN104838648A (zh) 用于创建和重建视频流的装置和方法
JP2020005202A (ja) 映像処理装置
EP2822279B1 (en) Autostereo tapestry representation
KR101289269B1 (ko) 영상 시스템에서 영상 디스플레이 장치 및 방법
JP2014132722A (ja) 立体映像符号化装置、立体映像復号化装置、立体映像符号化方法、立体映像復号化方法、立体映像符号化プログラム及び立体映像復号化プログラム
US8947507B2 (en) Method of processing 3D images, and corresponding system including the formulation of missing pixels using windows of details from first and second views
Zinger et al. iGLANCE project: free-viewpoint 3D video
EP2509328A2 (en) Method and apparatus for generating a 3d image from a 2d image
KR20090093734A (ko) 다시점 영상을 위한 부가 정보를 포함하는 데이터스트림부호화 방법 및 그 장치, 그리고 이를 이용한 데이터스트림복호화 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161115

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170213

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170515

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180307

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180315

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20180511