JP6644979B2 - 3次元ビデオストリームに属する画像のカラーコンポーネントを用いることにより、深度マップを生成、格納、送信、受信および再生する方法およびデバイス - Google Patents

3次元ビデオストリームに属する画像のカラーコンポーネントを用いることにより、深度マップを生成、格納、送信、受信および再生する方法およびデバイス Download PDF

Info

Publication number
JP6644979B2
JP6644979B2 JP2014116669A JP2014116669A JP6644979B2 JP 6644979 B2 JP6644979 B2 JP 6644979B2 JP 2014116669 A JP2014116669 A JP 2014116669A JP 2014116669 A JP2014116669 A JP 2014116669A JP 6644979 B2 JP6644979 B2 JP 6644979B2
Authority
JP
Japan
Prior art keywords
pixels
pixel
depth
group
color image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014116669A
Other languages
English (en)
Other versions
JP2015005978A (ja
Inventor
グランゲット マルコ
グランゲット マルコ
ルチェンテフォルテ マウリツィオ
ルチェンテフォルテ マウリツィオ
ダマト パオロ
ダマト パオロ
Original Assignee
シズベル テクノロジー エス.アール.エル.
シズベル テクノロジー エス.アール.エル.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=49035854&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP6644979(B2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by シズベル テクノロジー エス.アール.エル., シズベル テクノロジー エス.アール.エル. filed Critical シズベル テクノロジー エス.アール.エル.
Publication of JP2015005978A publication Critical patent/JP2015005978A/ja
Application granted granted Critical
Publication of JP6644979B2 publication Critical patent/JP6644979B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • H04N1/32149Methods relating to embedding, encoding, decoding, detection or retrieval operations
    • H04N1/32309Methods relating to embedding, encoding, decoding, detection or retrieval operations in colour image data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/64Systems for the transmission or the storage of the colour picture signal; Details therefor, e.g. coding or decoding means therefor
    • H04N1/642Adapting to different types of images, e.g. characters, graphs, black and white image portions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Description

本願発明は、3次元ビデオストリームに属する画像のカラーコンポーネントを用いることにより深度マップを生成、格納、送信、受信および再生する方法およびデバイスに関する。
立体ビデオアプリケーションの開発は、3次元ビデオ信号を表し、圧縮する効率的なフォーマットの利用可能性に大いに依存している。さらに、テレビ放送アプリケーション(3D−TV)において、既存の2Dシステムとの可能な限り高い程度の後方互換性を維持することが必要である。
配信(または送信)に関して、現在最も普及している技術的解決方法は、いわゆる「フレームコンパチブル配置」に基づいている。ここで、同じ時点に関する2つの立体ビューが再度拡大縮小させられ、既存のフォーマットと対応する単一の画像を形成するよう構成される。これらの解決方法のうち、トップアンドボトム、サイドバイサイド、およびタイルフォーマットが公知である。これらの解決方法は、既存のビデオ信号配信インフラストラクチャの全て(地上波、衛星、またはケーブル放送、またはIPネットワーク上でのストリーミング)を用いることを可能とし、ビデオストリームの圧縮のために新たな規格を要しない。加えて、現在のAVC/H.264コーディング規格(Advanced Video Coding)、および将来のHEVC規格(High Efficiency Video Coding)は既に、このタイプの組織に、受信機による適切な再構成および視覚化を可能とするよう示唆する可能性を含んでいる。
ディスプレイに関して、2つの現在最も普及している技術的解決方法は、「フレーム交互」方式(つまり、2つのビューが画面上で時間的に順に表示される)、および、「ライン交互」方式、つまり、2つのビューが画面上で交互の行に配置される(つまり、それらが「インターレース」される)ことの一方に基づいている。両方の場合において、それぞれの目が対応するビューを受け取るように、閲覧者は眼鏡を使用する必要がある。その眼鏡はフレーム交互の場合の「能動的」なもの、つまりシャッタ眼鏡と、ライン交互の場合の「受動的」なもの、つまり異なるように偏光させられたレンズとのうち一方であり得る。
3次元視覚化の将来は、受動的なものであれ、または能動的なものであれどのような眼鏡もユーザに装着することを要求ない新たなセルフ立体画面の普及によって決まるであろう。現在は依然としてプロトタイプの段階にあるこれらの3D表示デバイスは、閲覧者に、そのユーザが画面の周りを角度的に移動している際に各視点に関して2つの異なる立体ビューを知覚させ得るパララックスレンズまたはバリアの使用に基づいている。したがって、これらのデバイスは、3Dビジョン体験を向上させ得るが、それらは、多数(数十)のビューの生成を要する。
3Dビデオ表現に関して、多数のビューの生成および配信を管理することは非常に骨の折れる厄介な仕事である。近年、科学界は、いわゆるシーン深度マップを活用する、公知のDepth Image Based Rendering(DIBR)技術を用いることにより任意の多数の中間ビューを作成することの可能性を評価してきた。これらのフォーマットは、各ビューが密の深度マップを伴う「Video+Depth」(V+D)としても公知である。密の深度マップは、平面座標(x,y)、つまり列および行の各ピクセルが、各ビューにおける同座標のピクセルに対応する深度値(z)を表す画像である。深度マップの値は、立体ビデオカメラにより得られる2つのビューから開始することにより計算され得、または、適したセンサーにより測定され得る。そのような値は一般的に、標準的な技術を用いることにより圧縮された256グレースケールレベルの画像を用いて表される。Depth Image Based Rendering技術は、座標(x,y,z)、つまり深度平面内での位置、および各ピクセルに関連付けられた深度が与えられた場合、新たな視点に関する他の画像面へ同ピクセルを再投影することが可能であるという事実を活用している。最も普及しているアプリケーションコンテキストは、2つのビデオカメラが、2つの光学中心の間に距離bを置いて水平方向に位置付けられ、平行な光軸および同一平面にある画像面を有する立体ビデオカメラのシステムのものである。そのような構成において、1つのピクセルと関連付けられた深度zといわゆる視差d、つまり左(または右)のビデオカメラの画像面内の対応する位置を得るために右(または左)のビデオカメラの画像のピクセルに適用されなければならない水平方向の移動との間には単純な関係がある。視差は、対象となるビデオカメラに応じて正および負(左または右への移動)のいずれか一方であり得る。fが2つのビデオカメラの焦点距離を示すとすると、以下のような関係が深度zと視差dとの間には存在する。d=f b/z。
更なる詳細に関しては、論文Paradiso,V.;Lucenteforte,M.;Grangetto,M.,"A novel interpolation method for 3D view synthesis,"3DTV−Conference:The True Vision−Capture,Transmission and Display of 3D Video(3DTV−CON),2012,vol.,no.,pp.1,4,15−17 Oct.2012を参照されたい。
上述した仮説によると、視差は、深度の単純な関数であり、深度マップおよび視差マップは同じ情報を伝達し、したがって、交換可能である。加えて、MPEGの分野で深度マップと呼ばれる画像は、0〜255の範囲でマッピングされるzではなく、1/zの値を表すことが指摘されるべきである。以下において「深度マップ」という用語は、深度または視差の何らかの表現を示すためのみに用いられる。
(左および右の)画像ペアおよび各深度マップから構成されるビデオ信号も、将来の3Dコーディング規格において導入される技術を評価するためにMPEG標準化委員会による使用事例として選択されたことに留意するべきである。
このことにより、深度マップを含むテレビ信号の格納、送信、受信、および再生を効率的に制御することが必要となる。
したがって、本願発明の目的は、画像のカラーコンポーネントを用いることにより、当技術分野で公知の解決方法に内在する限界を克服し得る、深度マップを生成、格納、送信、受信および再生する方法およびデバイスを提供することである。
先述したように、深度マップは、グレースケールの、つまり、1つの位置(x,y)当たり単一の値で構成された画像を表現するのに適している。「ピクセル」という用語は以下において、画像の単一の要素(または点)を示すのに用いられる。各ピクセルは、その位置(x,y)と、使用する表現システムの関数として変化する色または明度などの値とにより特徴付けられる。テレビの分野において、輝度(Y)およびクロミナンス(U、V)として公知であるピクセル表現システムが一般的に採用される。一般的に深度マップは、Y成分のみを用いることによりデジタルビデオとして表される。
本願発明の基本的な考え方は、深度マップの値を表すためにUおよびVクロミナンス成分も活用し、これにより、より良好な画像圧縮を可能とする、いわゆる「ダミーカラー」画像を作成するということである。
ダミーのカラー画像(以下、簡潔にすべく、「カラー画像」と呼ぶ)はこの文脈において、クロミナンス成分が、色情報ではないが、この場合においては、Y成分から取り除かれたピクセルに関する輝度情報である有用な情報を伝達する画像である。
W×Hサイズのカラー画像のUおよびV成分に挿入されるべき深度マトリックスのピクセルの選択は、Y、U、V成分間、つまり、実際の輝度と、これらの追加の仮想的な成分との間の標準的なコーディングアルゴリズム、例えば、様々なピクセルの3つのY、U、V成分間に相関性の存在を想定するMPEGの処理の準拠を確保するために有用である空間相関を得るようなやり方で行われる。このことは、実際のカラー画像に採用される圧縮技術のための標準的なエンコーダおよびデコーダを用いることも可能とする。
空間相関とは、Y、U、V成分に配置される値が深度マップ内で空間的に近いピクセルに属することを意味する。
好ましい解決方法は、立体のペアの各ビデオ画像をそれぞれが参照する2つの深度マップを挿入するためにW×Hの長方形を用い、これにより、単一のカラー画像を得る。
他の好ましい解決方法は、深度マップに関し、4:2:0または4:2:2Y,U,Vとして公知であるテレビ画像に用いられているフォーマットを採用する。典型的には配信のために用いられる前者のフォーマットにおいて、偶数行(0、2、4など)では、偶数列(0、2、4など)のピクセルのみがクロミナンス情報を含み、奇数行の全てのピクセルは、輝度情報のみを含む。これにより、全体として、4つのうち1つのピクセルのみがクロミナンス情報を含むことになる。典型的には再生チェーンで採用される後者のフォーマットにおいて、全ての行に関し、偶数列のピクセルのみがクロミナンス情報を含む。これにより、全体として、2つのうち1つのピクセルがそのような情報を含むことになる。
典型的には、256レベルつまり8ビット/ピクセルで表される値を有する深度マップが参照される。
以下に説明される好ましい解決方法の第1の一連の例において、4:2:0YUVフォーマットが参照され、第2の一連の例において、4:2:2YUVフォーマットが参照される。
様々なフレームパッキングシステムのうち、(WO2011/077343−A1に説明される)タイルフォーマットは、2つのビューに関する画像から空間を減じることなく深度マップを挿入することを可能とする。
図1を参照すると、タイルフォーマットにおいて、立体画像L、Rのペアがより大きなビデオフレーム(C)へ挿入され、2つの画像のうち一方(例えばL)は、変更されずに再コピーされ、他方の画像(例えばR)は、3つの領域(R1、R2およびR3)に分割される。これらの領域は、コンポジットフレームCにおいて、第1の画像により利用可能のままとされるエリアに配置される。利用されないエリアは依然として残り、水平方向および垂直方向の解像度が半分にされた深度マップが挿入され得る。本願発明により提案される方法を用いることにより、1ではなく2つの深度マップが同じエリアに挿入され得る。
本願発明の考え方は、特定のフレームパッキング構成にどのようにも限定されず、W個の列およびH個の行を有する一般的な長方形の画像へ深度マップのペアを挿入することを可能とする。当然ながら、W×Hエリアは、フレームパッキングメカニズムを介して3Dビデオを転送するために用いられるより大きな画像の一部を表し得る。
代替的に、立体ビデオストリームは、例えば、1若しくは複数の画像またはそれらの深度マップの情報をそれぞれが伝達するいくつかのパケットタイプの多重送信に挿入されるデータストリームから成り得る。
本願発明の様々な態様を用いるテレビの再生、配信、および実現システムにおいて、深度マップを再構成する目的のために、受信に応じて実行される段階は、送信に応じて実行されるものの逆である。受信機において、入力カラー画像のY、U、およびV成分に割り当てられた深度マップの値は、最初の深度マップを形成するようなやり方で再位置決めされる。再構成手順は場合によっては、カラー画像を形成する際に、利用可能な空間が欠如していることに起因して破棄されたかもしれないオリジナルの深度値を推測するために、公知のフィルタリングおよび/または補間処理を利用し得る。
本願発明の一目的は、少なくとも1つの深度マップから開始して、複数の成分から構成されるカラー画像を生成する方法であり、前記少なくとも1つの深度マップの第1のピクセル群が前記カラー画像の輝度成分に挿入され、前記少なくとも1つの深度マップの第2のピクセル群および第3のピクセル群が前記カラー画像の2つのクロミナンス成分に挿入される、方法、およびその装置を提供することである。
本願発明の他の目的は、一連のカラー画像を含むビデオストリームを生成する方法、およびその装置を提供することである。フレームの少なくとも1つの部分は、先述したようなカラー画像を生成する方法を用いて得られるカラー画像を含む。
本願発明の他の目的は、複数の成分から構成されるカラー画像から開始して、少なくとも1つの深度マップを再構成する方法であり、前記カラー画像の輝度成分から取り出される第1のピクセル群と、一方のクロミナンス成分から取り出される第2のピクセル群と、前記他方のクロミナンス成分から取り出される第3のピクセル群とが、前記少なくとも1つの深度マップへ挿入される、方法、およびその装置を提供することである。
本願発明の他の目的は、立体ビデオストリームから開始して、2つの一連の深度マップを再構成する方法、およびその装置を提供することである。2つの一連の各マップの再構成の間、先述したような少なくとも1つの深度マップを再構成する方法がストリームの各フレームに適用される。
特に、本願発明の目的は、本説明の主要な部分である請求項に明記されるような、カラー画像のカラーコンポーネントを活用することにより、深度マップを生成、格納、送信、受信および再生する方法およびデバイスを提供することである。
本願発明の更なる目的および利点は、その実施形態のいくつかの例の以下の詳細な説明、および、非限定的な例としてのみ提供されている添付の図面より明らかとなる。
「タイルフォーマット」と呼ばれる立体動画像フォーマットを示す。 4:2:0サイドバイサイド法による2つの深度マップを含むカラー画像を得るやり方に関する本願発明の第1の変形例のグラフィック図を示す。 4:2:0サイドバイサイド法による2つの深度マップを含むカラー画像を得るやり方に関する本願発明の第1の変形例のグラフィック図を示す。 再構成された深度マップに足りない特定の値をカバーするための受信側に適用可能な補間技術の実装の一例を示す。 4:2:0サイドバイサイド法による2つの深度マップを含むカラー画像を得るやり方に関する、本願発明の第2の変形例を示す。 4:2:0サイドバイサイドモードにおいて2つの深度マップを互いに隣り合わせて配置することにより得られるカラー画像のY、U、V成分に対応する画像を示す。 4:2:0トップアンドボトム法による2つの深度マップを含むカラー画像を得るやり方に関する本願発明の変形例を示す。 4:2:0トップアンドボトムモードにおいて2つの深度マップを互いに隣り合わせて配置することにより得られるカラー画像のY、U、V成分に対応する画像を示す。 色成分の低下を用いる、4:2:0トップアンドボトム法による2つの深度マップを含むカラー画像を得るやり方に関する本願発明の変形例を示す。 色成分の低下を用いる4:2:0トップアンドボトムモードにおける2つの深度マップを互いに隣り合わせて配置することにより得られるカラー画像のY、U、V成分に対応する画像を示す。 平均値おび平均差を用いる4:2:0トップアンドボトム法による2つの深度マップを含むカラー画像を得るべく深度マップのサンプルを変換するやり方に関する本願発明の変形例を示す。 平均値おび平均差を用いる4:2:0トップアンドボトムモードにおいて2つの深度マップを互いに隣り合わせて配置することにより得られるカラー画像のY、U、V成分に対応する画像を示す。 サブバンド変換処理により前処理された2つの深度マップを互いに隣り合わせて配置することにより得られるカラー画像の第1の例のY、U、V成分に対応する画像を示す。 サブバンド変換処理により前処理された2つの深度マップを含むカラー画像を得るよう深度マップのサンプルを変換するやり方に関する本願発明の変形例を示す。 サブバンド変換処理により前処理された2つ深度マップを互いに隣り合わせて配置することにより得られるカラー画像の第2の例のY、U、V成分に対応する画像を示す。 4:2:2サイドバイサイド法による2つの深度マップを含むカラー画像を得るよう深度マップのサンプルを変換するやり方に関する本願発明の変形例を示す。 4:2:2トップアンドボトム法による2つの深度マップを含むカラー画像を得るよう深度マップのサンプルを変換するやり方に関する本願発明の変形例を示す。 色成分の低下を用いる4:2:2トップアンドボトムまたはサイドバイサイド法による2つの深度マップを含むカラー画像を得るよう深度マップのサンプルを変換するやり方に関する本願発明の変形例を示す。 4:2:2フォーマットのためのサブバンド変換処理により前処理された2つの深度マップを含むカラー画像を得るよう深度マップのサンプルを変換するやり方に関する本願発明の変形例を示す。 本願発明に係る、各々の深度マップにより立体ビデオシーケンスのペアを整理するためにタイルフォーマットとして知られるフレームパッキングフォーマットを用いる、3次元画像を再生成および再構成するための完全なシステムの実施形態の例のブロック図を示す。 本願発明に係る、各々の深度マップにより立体ビデオシーケンスのペアを整理するためにタイルフォーマットとして知られるフレームパッキングフォーマットを用いる、3次元画像を再生成および再生するための完全なシステムの実施形態の例のブロック図を示す。図面において、同じ参照符号および文字は、同じ要素またはコンポーネントを特定する。
以下に、(既に説明したように、同じ立体ビデオストリームに関する他の画像も含むより大きなコンポジットフレームにその後挿入され得る)W×Hピクセルのサイズを有する1つのカラー画像内における2つの深度マップの様々な可能な配置に関連した、本願発明の基本的な考え方の実装のいくつかの特定の変形例を説明する。
8ビット上の2×W×Hのサンプル、つまり2×W×Hのバイトに対応する、W×H解像度を有する2つの深度マップを検討する。このマップのペアは、W×H解像度を有する1つの4:2:0または4:2:2YUV「コンポジット」カラー画像へ挿入されることになる。
以下に説明される本願発明の様々な実施形態は、W×Hサイズの長方形に2つの深度マップを挿入するフレームパッキングフォーマットの利用に基づく。2つの深度マップは例えば、トップアンドボトムモードにおいて、それらの解像度をW×(H/2)へ減じ、Y成分のみの上部および下部へそれらを配置することにより、または、サイドバイサイドモードにおいて、(W/2)×Hへ解像度を減じ、Y成分のみの左部分および右部分へそれらをそれぞれ配置することにより構成され得る。その後、本願発明によると、破棄されたピクセルは回復させられ、UおよびV信号へ挿入される。
サイドバイサイド4:2:0解決方法。以下に、クロミナンス成分上のサンプルの位置付けが互いに異なる2つの技術を説明する。
少なくとも1つの深度マップから開始することによりカラー画像を得る第1の技術(以下においてAモードと呼ばれる)は図2aに示される。同図は、深度マップの行ペア(例えば、立体ビデオの左のビューに関する深度マップDM1)を参照し、いかに深度値を、半分にされた列数を有するコンポジットカラー画像のY、U、V成分と関連付けるかを示す。
表記D(j,i)が、深度マップDM1、DM2の行jおよび列iのピクセルを指すために用いられ、j=0,1,..,H−1であり、i=0,1,..,W−1である。図2aで説明される技術を用いることにより、深度マップは、3つの成分からなるカラー画像へと構成されなければならない。
Y(j,i)。j=0,…,H−1、およびi=0,…,W/2−1である。
U(j,i)およびV(j,i)。j=0,…,H−1、およびi=0,…,(W/2)−1である。4:2:0YUVアンダーサンプリングのために、指標jおよびiは偶数値のみとする。
これらの表記により、図2aに示されるピクセルの構成は、以下のルールを適用することにより得られる。
各ピクセルD(j,i)に関して: 1.iが偶数の場合:Y(j,i/2)=D(j,i) 2.jが偶数であり、iの4に対するモジュロが1に等しい場合:
Figure 0006644979
3.jが偶数であり、iの4に対するモジュロが3に等しい場合:
Figure 0006644979
4.それ以外の場合、D(i,j)は破棄される。
これらのルールを適用することにより、深度マップの偶数列のみを含むH×W/2解像度のY成分が得られる。V成分は偶数の行インデックスが列4k+1に対応する深度値を集め、kはゼロより大きい、またはゼロに等しい正整数であり、つまり、深度マップの列1、5、9、...は、カラーマップの列0、2、4、...におけるV成分に位置付けられる。最終的に、U成分は偶数の行インデックスが列4k+3に対応する深度値を集め、kはゼロより大きい、またはゼロに等しい正整数であり、つまり、深度マップの列3、7、11、...は、カラーマップの列0、2、4、...におけるU成分に位置付けられる。
これにより、奇数行および奇数列、つまり同図において十字または文字「X」で示される深度値は失われる。したがって、各深度マップに関し、Y、U、V成分間の高い空間相関を保ちつつ、サンプルがW/2×H解像度の新たな4:2:0YUVカラー画像へ空間的に整理され得る。つまり、Y、U、およびV成分により表される画像が、交互のアンダーサンプリングの同じ画像のバージョンを表す。このことは、MPEG圧縮アルゴリズムがUおよびV成分間の空間相関を想定しているので非常に重要である。したがって、そのような相関が存在しない場合、それらアルゴリズムはよく機能しない。
深度マップのペアから開始してこのように得られた2つの画像を(水平方向に)互いに隣り合わせに配置することにより、図5に示されるW×H解像度の画像が最終的に生成される。同図において色を用いることが出来ないので、3つのY、U、およびV成分は別々に表されている。
より明らかにするため、図2bは、DM1およびDM2で示されたW×Hサイズの2つの深度マップが依然としてAモードで4:2:0カラー画像(Y、U、V)に分配されるやり方の概略図を示す。ピクセルは、内接する幾何学的な図を含む小さな四角により表されている。図2aおよび上記の式により示される技術を用いて暗黙的に決定された深度マップDM1、DM2の2×2ピクセルブロックは、DM1に属するか、またはDM2に属するかに応じてアポストロフィなし(1、2、...N×M。N=W2であり、M=H/2)、およびアポストロフィあり(1'、2'、...N×M'。N=W2であり、M'=H/2)のいずれか一方で、行スキャンの順番で順に番号が付されている。等しい小さな四角は、最初のブロックの同じピクセルに対応する。破棄されたピクセルは十字でマーク付けされている。
深度マップDM1、DM2のピクセルを構成する場合、それらは2×2サイズの4ピクセルブロックへ分割される。DM1の各2×2ブロックの左列の2つのピクセル(1×2サイズの円を含む四角の2ピクセルブロック)は、深度マップの行スキャンに従って、ダミーのカラー画像の輝度成分Yにおいて互いに隣り合わせて配置される。このやり方でYの左半分は占められ、右半分を占めるよう同じことがDM2に対して行われる。
依然として同じ行スキャンを用いて、DM1の同2×2ブロックの左上のピクセル(内接する四角を含む1四角ブロック)は、色成分V(実線の四角形)およびU(中抜きの四角)の左上隅の第1の利用可能な位置に交互に配置される。このやり方で、UおよびVの左半分が占められる。右半分を占めるよう同じことがDM2の2×2ブロックに対して行われる。右下隅に位置付けられたDM1およびDM2の2×2ブロックの(図2bにおいて十字でマーク付けされた)ピクセルは破棄される。
Y、U、およびVのサイドバイサイド構成は、並びにこれらの成分と、本願発明の本実施形態を用いて実験で得られる成分との間の対応に注意されたい(図5)。
場合によってはコーディング、送信、受信、およびデコードの後、カラー画像が受信された場合、深度値は、図2aおよび2bに説明される段階を逆にすることにより再位置決めされ得る。
特に、図2bを参照すると、DM1およびDM2は、2×2ピクセルのW/2×H/2ブロックに分割される。依然として行スキャンに従い、ダミーのカラー画像の最初のW/2列のY成分の各2ピクセル1×2ブロックは、DM1のホモローグな2×2ブロックの左列へ再コピーされ、Yの残りのW/2列の1×2ブロックは、DM2のホモローグな2×2ブロックの左列へ再コピーされる(図2aおよび2bにおいて円を含む四角)。
色成分およびマップに対して行スキャンを行う場合、V(実線の四角形)およびU(中抜きの四角)の最初のW/4列のピクセルは交互に、それらをUおよびVの同じ行および列位置から取り出すことにより、DM1のホモローグなブロックの右上の位置に再コピーされる。同じことを、DM2の2×2ブロックを有するVおよびUの残りのW/4の右列のピクセルに対して行って、第2の深度マップも再構成する。本実施形態において両方が、ピクセル値が足りないW×H/4の位置を含む格子を示し、つまり、2つのうち1つの値は、深度マップの偶数行において足りない。そのような値は、深度マップを特徴付ける高い空間相関を活用することにより、本質的に公知の技術を通じて容易に補間され得る。
図3は、3×3マスクの単純な空間フィルタ(例えば、平均フィルタまたはメジアンフィルタ)を用いる補間技術の一例を示す。足りない値を中心とする3×3マスクを用いることにより、中心位置における深度値を推測するために、足りない値の周りで受信される8つの深度値を活用することが出来る。メジアンフィルタを用いて行われた実験では、MPEG委員会により提供される深度マップを用いた場合、W×H解像度の深度マップが、50dBのピーク信号対雑音比(PSNR)よりも高い忠実度で再構成され得ることが示された。
この補間による再構成技術は当然、本明細書に説明される全ての変形例において用いられ得る。
以下に、Bモードと呼ばれる、先述のサイドバイサイド法の変形例を紹介する。先述の解決方法のU、V成分の構成は、図4に示されるように、成分間の空間相関に関連して改善され得る。この結果は、以下の配置ルールを採用することにより達成される。
各ピクセルD(j,i)に関して: 1.iが偶数の場合:Y(j,i/2)=D(j,i) 2.jが偶数であり、iの4に対するモジュロが1に等しい場合:
Figure 0006644979
3.jが偶数であり、iの4に対するモジュロが3に等しい場合:
Figure 0006644979
4.それ以外の場合、D(i,j)は破棄される。
先述の解決方法と比較して、この解決方法は、U、VおよびY成分の割り当てられるピクセル間のより短い空間距離を確保する。特に、アルゴリズムの段階2および3で行われる割り当ては、成分間のより良好な配列を確保する。
これらのルールを適用することにより、深度マップの偶数列のみを含むH×W/2解像度のY成分が得られる。V成分は偶数の行インデックスが列4k+1に対応する深度値を集め、kはゼロより大きい、またはゼロに等しい正整数であり、つまり、オリジナルの深度マップの列1、5、9、...は、カラー画像の列0、2、4、...におけるV成分に位置付けられる。最終的に、U成分は偶数の行インデックスが列4k+3に対応する深度値を集め、kはゼロより大きい、またはゼロに等しい正整数であり、つまり、オリジナルの深度マップの列3、7、11、...は、カラーマップの列0、2、...におけるU成分に位置付けられる。
アルゴリズムの段階3において、列インデックス値
Figure 0006644979
は、深度マップの右端において得られ得る(例えば、図中のi=11の深度値は、カラー画像で表され得ない)ことに留意するべきである。再構成段階において、これらの値は、当技術分野で公知の技術を用いて補間され得る。
同様に、カラー画像の第1列のピクセルは、U成分に割り当てられた値を有さない(典型的に128であるデフォルト値が自由に割り当てられ得る)。
最終的に、カラー画像は提供され得ないので、図5は、上述した手順に従って得られる立体画像ペアに対応する2つの深度マップをサイドバイサイドモードで互いに隣り合わせて配置することにより得られるカラー画像の単一のY、U、V成分に対応する画像を示す。
トップアンドボトム4:2:0解決方法。
トップアンドボトム構成を得るために、W×H解像度の深度マップをW×H/2解像度のカラー画像に変換する必要がある。そのような結果は、上述した同じ方法を行の役割と列の役割とを入れ替えて適用することにより達成される。
例として、図6は、サイドバイサイド法のBモードと呼ばれる手法により行数を半分とすることにより、YUV成分上にいかに深度マップの列ペアを表すかを示す。4:2:0サイドバイサイド方法に関して説明されたAモードが、行の役割と列の役割とを入れ替えることにより全体的に同様のやり方で用いることができ、したがって、簡潔にするためにさらには説明されない。
このように得られるW×H/2解像度の2つの画像を(垂直方向に)重ね合わせることにより、図7に示されるように、トップアンドボトムモードの深度マップペアを表す、W×H解像度の画像が最終的に生成される。色を用いることが出来ないので、同図は、3つのY、U、およびV成分を別々に示す。
色成分の減少を用いるトップアンドボトム4:2:0解決方法。
先述の解決方法はY、U、およびV成分間の良好な空間的コヒーレンスを確保しつつ、深度マップのいくつかの値がカラー画像のクロミナンス成分として表されることを可能とする。(実際の色を有する)一般的な画像の場合、クロミナンス成分は、低いエネルギー容量、よって、低いエントロピーにより特徴付けられ、公知の技術を用いて容易に圧縮され得る。反対に、先述の解決方法のU、V成分は、輝度と同じエネルギー容量を有するピクセルから成る。
この課題を解決するために、クロミナンス成分へ挿入されるべき深度値を、Y成分に表された深度値を用いて予測(または補間)された値に対する差分値と入れ替えることが可能であり、言い換えると、予測誤差がクロミナンス成分へ挿入され得る。深度マップは多くの詳細を含まないので、予測は有効であり、予測誤差は、非常に低いエネルギー容量を有し、よって、クロミナンスとして表されるのに適している。
例として、Bモードのトップアンドボトム構成を示す図8において二重矢印は、UおよびV成分に配置される深度値を補間するのに用いることが可能である深度値ペアを特定する。
図8において、先述の再位置付けアルゴリズムの段階2および3に従って、UおよびV成分のための深度値の予測として用いられ得るY成分の深度サンプルが特定されている。先述のアルゴリズムの表記を用いることにより、実際に以下の予測誤差を計算することが出来る。
Figure 0006644979
ここでh、kは、VおよびU成分のそれぞれにおける配置の前に偶数列の対応する深度値に代入される、ゼロより大きい、またはゼロに等しい整数の指標である。予測誤差の小数値を格納することを避けるために、上の式において、予測値は四捨五入される(四捨五入の演算子が整数四捨五入演算を特定する)。この例において、考慮されるピクセルの上および下の行の2つの深度サンプル間の平均からなる単純な予測因子が用いられることを指摘しておくべきである。
予測誤差Dは、符号を有する値である。好ましくは、実際の実装において、そのような値に、範囲[0..255]内で得られる値の飽和に応じて符号なしの8ビットの値として表されるよう、128のオフセットが加算される。
これにより、符号なしの予測誤差がVおよびU成分に関して表される。
Figure 0006644979
単純にすべく、上の式において、0〜255の範囲の外側の値をクリッピングする、または飽和させる段階が省略されている。
受信に応じて、(図面において文字Xで特定される)足りないサンプルの補間の前に、例えば上述した技術に従って、予測される深度値は、先述の式を逆にすることにより再構成される。
Figure 0006644979
予測誤差の四捨五入の誤差により、標準的なエンコーダを用いて得られる数値化誤差と比較して無視できる程度の影響を受けた再構成誤差が引き起こされる。
図9は、上述したシステムにより得られるコンポジット画像の一例を示す。印刷による近似にも起因して、均一であるように見える画像を通じて表されるUおよびV成分の低いエネルギー容量が見られる。検討されている解決方法の利点は、実際にそれがクロミナンス成分の平均振幅の低減を可能とし、これにより従来のYUV信号の高いエネルギーの分布をより反映し、UおよびV成分と比較しエネルギー容量が殆どY成分に集中しているということである。UおよびV成分は「差異信号」(正確には、それらは色差異信号と呼ばれる)であり、よってそれらは、8ビットの表現において、値128がゼロに対応し、128より小さい値は負であるものと見なされ、128より大きい値は正であるとみなされるよう、ゼロの平均値を有することにも留意するべきである。MPEG圧縮アルゴリズムはUおよびV信号のそのような特性に基づいており、したがって、それらの信号が、先述の実施形態のように何らかの差異を表さない場合、MPEG圧縮アルゴリズムは有効性が低いこととなり得る。
上述した手法は、2つのサンプルのみを用いた補間手順の利用を通じたトップアンドボトムフォーマットの場合について例示したが、明らかに、ここまで説明した解決方法の全て、および他の補間方法に関して拡張され得る。
平均値おび平均差を用いたトップアンドボトム4:2:0解決方法。
UおよびV成分のエネルギー的寄与を低減することを可能とする更なる変形例によると、深度マップの値は、輝度とクロミナンス成分とによりそれぞれ表される平均値と平均差により置き換えられる。この変形例の利点は、この場合においても差異を表す信号がUおよびVに挿入される点で先述の解決方法の利点と同じである。
深度マップの各2×2ブロックのサンプルは、図10および以下に示されるように平均値おび平均差に変換される。ここで、a、b、c、dは、深度マップの2×2ブロックの深度値を表す。係数w0、w1は平均値であり、それらが符号なしの8ビットサンプルで表され得るように最も近い整数に四捨五入されるべきである(または、より小さい整数へ切り捨てられるべきである)。
差異係数w2、w3に関しても同じ処理が実行される。さらに、後者は符号を有するので、それらの絶対値は、それらの値が128のオフセットを加算することにより8ビットサンプルで表され得るように128へ飽和させられる。
また図10は、以下に引用されるように平均値おび平均差から深度サンプルをいかに再構成するかを示す。
Figure 0006644979
採用される四捨五入に起因して、深度値a、b、c、dの再構成は、誤差が+/−1より小さくなるほど正確となる。
例えば、トップアンドボトムの場合におけるW×H/2など次元数がより少ないカラー画像を得るために、4つのうち1つの係数を破棄する必要がある。選択される3つの係数はその後、上述した技術のうち1つに従ってY、U、V成分に配置され得る。
このことは、Y成分に挿入される2つの平均値w0、w1を維持し、差異wd=w2および差異wd=w3のいずれか一方を、以下の式に従って2つの値w2、w3のうちどちらが最小の再構成誤差を確保するかに応じてU、Vへ移動させることにより達成される。
w2およびw3のいずれか一方の選択により導入される再構成誤差は、以下のように評価され得る。
wd=w2の場合に得られる平均誤差e(wd=w2)およびwd=w3の場合に得られる平均誤差e(wd=w3)が計算され、その後送信のために選択される係数wdが以下のように誤差を最少化するものである。
Figure 0006644979
W×H/2解像度のカラー画像を得るために、既に説明された同じアルゴリズムに従われ得る。
各行インデックスj=0,2,4、および各列インデックスi=0,2,4に関して。
深度マップの位置j、iの2×2ブロックの係数w0、w1、w2、w3が計算される。
最も良好な平均差wdが判断される。
式Y(j/2,i)=w0およびY(j/2,i+1)=w1に従って平均値がY成分へ割り当てられる。
4によるインデックスjの残りの除算が0に等しい場合、式U(j/2,i)=wdに従って平均差が割り当てられる。
さもなくば(インデックスjが4の倍数でない場合)、V(j/2,i)=wd。
図11は、2つの深度マップに平均値おび平均差を挿入することにより得られる、上述したトップアンドボトム構成のシステムを用いることにより得られるカラー画像の一例を示す。この場合においても、値wdに関連する非常に低いダイナミクスが理由となり、クロミナンス成分は低いエネルギー容量を集める。
再構成に応じて、平均値おび平均差を用いる技術は、初期の値a、b、c、dを係数w0、w1およびwdから再構成することを可能とする逆公式を適用すれば十分であるので、3×3補間フィルタを必要としない。
Figure 0006644979
生じる再構成誤差は、平均差wdの選択、および、全ての係数の整数表現誤差に応じる。テストにより、50dBを超えるピーク信号対雑音比の基準深度マップにおいてはそのような誤差は無視できる程度であることが示された。
サブバンド変換を用いた解決方法。
深度値の平均および差異に基づく先述した技術は、サブバンド手法を採用することにより一般化され得る。例えば2×2DCTタイプの領域変換、つまり、ウォルシュ−アダマール変換、または文献において公知である1つのレベルのみのウェーブレット変換を用いることにより、深度マップDM1(およびDM2)により構成される画像は、行および列の両方に関して解像度が半分にされた、よってW/2×H/2解像度の4つのサブバンドへ分割される。そのようなサブバンドは一般的に、LL、LH、HL、およびHHサブバンドとして、左から右に、および上から下に示される。図12は、深度マップの行および列に別々にウォルシュ−アダマール変換を適用することにより得られるサブバンド変換の一例を示す。変換はビデオ信号のエネルギーの殆どをLLサブバンド(左上部分)に集中させていることを観察することが出来る。深度マップの場合のようにあまり詳細を含んでいない画像に関して、HHサブバンドは殆どエネルギーを集めない。HL、LH、およびHHサブバンドの係数は符号を有しており、128のオフセットを、先述の解決方法に関して説明された平均差の場合のように値0を表すために用いなければならないことにも気付くことが出来る。符号なしの8ビットサンプルで変換係数を表すことが所望される場合、用いられている変換のタイプに応じて変わり得る適切な四捨五入を行う必要もある。
変換される領域が存在する場合、深度マップの解像度を低減させなければならないので、いくつかの係数は取り除くことが出来る。最も良好な選択は、両方の深度マップのHHバンド全体を取り除き、これにより、再構成に応じて品質の損失を導入することである。再構成は当然ながら、逆変換を適用することにより達成され、ここで、取り除かれる係数はゼロであることが想定されている。
左の深度マップのLL'、LH'およびHL'サブバンド、および右の深度マップのLL"、LH"およびHL"サブバンドから開始することによりW×H解像度の単一のYUV画像を構築するために、図13の図に従う。ここで、DM1'およびDM2'は、2つの深度マップDM1およびDM2のアダマール変換を示す。同図は輝度成分Yの4つの象限でいかにLL'、LH'、LL"およびLH"サブバンドの係数を配置するかを示す。特に、Y成分の上半分を左の深度マップのLL'およびLH'サブバンドと関連付け、下半分を、右の深度マップのLL"およびLH"サブバンドと関連付けることが選択された。YUV画像の再構成を完了すべく、3つの成分の誤った配置に起因して誤ったエッジを作成することなく、UおよびV成分に、HL'およびHL"サブバンドの残りのW/2×H/2係数を再配置する必要がある。図13は所望される結果をいかに得るかを示す。図13に示されるように、左の深度マップのHL'サブバンドが、両方向に2の倍数でアンダーサンプリングされた4つのバージョンへとさらに分割される。実際には、各2×2ブロックの係数が、4つのアンダーサンプリングされた画像に配置される。これにより、W/4×H/4解像度の、HL'、HL'、HL'およびHL'で示されるHL'サブバンドの4つの画像が得られる。得られる最初の2つの画像は、U成分の上部で互いに隣り合わせて配置され、H/4×W/2サンプルと同等のエリアが占められる。HL'サブバンドの残りの2つの画像が、V成分の上部に(互いに隣り合わせて)コピーされる。同じ手順が最終的に、右の深度マップのHL"サブバンドに関して採用されるが、W/4×H/4画像が、UおよびV成分の下半分にコピーされる。この手法により、解像度が半分にされたY成分とU、V成分との間の空間的コヒーレンスを維持することが可能となる。
ウォルシュ−アダマール変換を用いることにより得られるカラー画像の一例が図14に示されている。この場合においても、UおよびV成分に関連するエネルギー的寄与は非常に低く、このことは、ビデオ信号の圧縮率の点で有益である。
テレビ再生チェーン(YUV4:2:2フォーマット)における2つの深度マップの合成。
テレビ再生チェーンにおいて、4:2:2YUVフォーマットが典型的に用いられる。4:2:0フォーマットの場合と比較して、2つのマップを単一のカラー画像にパックする解決方法は、クロミナンス情報(U、V)がピクセルの50%に存在する点でより単純である。したがって全体として、16ビット/ピクセル(Yに関して8、U、Vに関して8)が利用可能であり、これにより、情報の損失なしで、よって、受信に応じて足りないピクセルを補間する必要なしで2つのマップをカラー画像に挿入することが可能である。
第1の解決方法は、Yに対して一方のマップを、およびUおよびVに対して他方のマップを送信することから成り得る。しかし、実際のカラー画像の場合のように、ビデオ圧縮アルゴリズムは通常、輝度およびクロミナンスが互いに関連付けられているとの想定に基づいており、検討されている解決方法においてYは1つの画像に属し、U、Vが異なる画像に属するので、この解決方法は最適ではない。したがって、4:2:2の場合においても、4:2:0YUVの場合に関して採用されたものと同様のメカニズムを用いることにより、関連付けられたY、U、V成分を有する画像の構成を確保するようなやり方でサンプルを再配置することがより良好である。
サイドバイサイド4:2:2解決方法。
カラー画像の作成は、図15を検討することにより容易に理解され得る。第1のピクセル行において、オリジナルの深度マップの奇数列(1、3、5...)のピクセルが、図2aと全体的に同様のやり方でカラー画像の偶数列のピクセルのUおよびVへ移動させられる。4:2:0の場合とは異なり、カラー画像の偶数列(0、2、4...)のピクセルはクロミナンスを有するので、第1の行と同じことが第2ピクセル行に起こり、つまり、オリジナルの深度マップの奇数列のピクセルが、カラー画像の偶数列のピクセルのUおよびVに移動させられる。したがって、受信に応じて補間により再構成される足りないピクセル(図2aにおいて十字でマーク付けされたもの)はもはやない。
同じことがBモードに当てはまる。この場合にも、全ての行(偶数および奇数)において、ピクセル行0に関して図4に示されていることが起こり、よって、受信に応じて補間により再構成される足りないピクセルはもはやない。
トップアンドボトム4:2:2解決方法。
例として、カラー画像を作成する1つの可能なやり方が図16に示されている。破棄される奇数行のピクセルは、例えば矢印に示されるように、偶数行のピクセルのUおよびVに再割り当てされる。再割り当ては、簡潔にするために本明細書において説明されない他の実質的に同等のやり方でも実行され得る。
色成分の減少を用いるサイドバイサイドおよびトップアンドボトム法、4:2:2フォーマット。
先述の解決方法は、Y、U、およびV成分間の良好な空間的コヒーレンスを確保しつつ深度マップのいくつかの値がカラー画像のクロミナンス成分として表されることを可能とする。(実際の色を有する)一般的な画像の場合、クロミナンス成分は、低いエネルギー容量により、よって、低いエントロピーにより特徴付けられ、公知の技術を用いることにより容易に圧縮され得る。反対に、先述の解決方法のU、V成分は輝度と同じエネルギー容量を有するピクセルから成る。この課題を解決するために、クロミナンス成分に挿入されることになる深度値をY成分に表される深度値を用いることにより予測(または補間)された値に対する差分値で入れ替えることが可能である。言い換えると、予測誤差がクロミナンス成分に挿入され得る。深度マップはそれ程詳細ではないので、予測は有効であり、予測誤差は非常に低いエネルギー容量を有し、よって、クロミナンスとして表されるのに適している。
例として、図17において、二重矢印は、図16のトップアンドボトム構成のUおよびV成分に配置される深度値を補間するのに用いることが可能である2つの深度値を特定する。図16の図において、奇数行のサンプルは、その上および下の行のサンプルから開始することにより補間される。そのような値はY成分に位置付けられるので、カラー画像の受信に応じても利用可能である。この時点において、U、V成分の値として(図16の薄い矢印による示される構成に従って)、補間器により生成された予測誤差を計算および挿入することが可能である。そのような値は、既に説明された同じ技術を用いることにより符号なしの整数として表される。U、V成分により転送される予測誤差は最終的に、受信に応じて、対応する補正をY成分から補間された値に適用することにより、奇数行の深度値を再構成することを可能とする。
平均値おび平均差を用いるトップアンドボトム4:2:2解決方法。
4:2:2の場合においても、UおよびV成分のエネルギー的寄与を低減することを可能とする更なる変形例は、輝度およびクロミナンス成分のそれぞれを用いることにより表される平均値おび平均差で深度マップの値を置き換える段階を含む。この変形例の利点は、この場合においても差異を表す信号がUおよびVに挿入される点で、先述の解決方法の利点と同じである。深度マップの各2×2ブロックのサンプルは、図10に示されるように平均値おび平均差に変換され、ここで、a、b、c、dは、深度マップの2×2ブロックの深度値を表す。
4:2:0の場合との唯一の差異は、4:2:2解決方法において、両方の差異係数がUおよびVに挿入され得るので、4つのうち1つの係数を破棄する必要がもはやないということである。したがって受信に応じて、平均値おび平均差の符号なしの整数表現により引き起こされる+/−1の正確性の損失を除いて、誤差なしでマップが再構成される。
サブバンド変換を用いた解決方法、4:2:2フォーマット。
1つのレベルのみをサブバンド変換へ適用することにより、深度マップにより形成される画像が、行および列の両方で解像度が半分にされた、つまりW/2×H/2解像度の4つのサブバンドへ分割される。そのようなサブバンドは一般的に、LL、LH、HL、およびHHサブバンドとして右から左に、上から下に示される。4:2:2YUVフォーマットを用いる場合、図18に示される手順を用いることにより、2つの深度マップの変換を単一のカラー画像に表すことが出来、ここで、DM1'およびDM2'は、DM1およびDM2の2つの深度マップのサブバンド変換を示す。4:2:0YUVフォーマットに関して提案された同様の技術(図13を参照)とは異なり、この場合、DM1'およびDM2'の全ての4つのサブバンドを設定することが可能である。例として本明細書に提案される解決方法において、トップアンドボトムカラー画像が形成される。列ごとにアンダーサンプリングされるLHおよびHHサブバンドに挿入することにより、U、V成分は、Uの対応する画像との空間相関を維持するようなやり方で構成される。特に、偶数列がU成分に挿入され、奇数列は、V成分へ挿入される。
1つのマップのみを挿入。
本願発明は、1つのみの深度マップが存在する場合にも適用可能であることに留意するべきである。この場合、本明細書に提案される技術は、オリジナルの深度マップのものと比較して(行または列毎に)解像度が半分にされたカラー画像を構成することを可能とする。
完全な生成および再構成システム。
本明細書に提案される解決方法は、それぞれの深度マップと共に立体ビデオシーケンスのペアを可視化システムへ送信するために用いられ得、これにより、何らかの中間視点の合成を可能とする。
図19aおよび19bは、生成側が再構成および視覚化側と分離された、タイルフォーマットとして知られるフレームパッキングフォーマットを用いる完全な生成、再構成、および可視化システムの例を示す。
特に、提案されるシステムにおいて、図面において左の深度マップDL(Depth Left)および右の深度マップDR(Depth Right)として示される、W×H解像度の2つの深度マップ(場合によっては2W×2H寸法の2つのビューの2つの深度マップを4:1でアンダーサンプリングすることにより得られる)が、本明細書に提案される技術のうち1つを採用することにより、「深度マージャ」と呼ばれるデバイスによりW×H解像度の単一の4:2:0のYUVカラー画像へマージされる。その後、タイルフォーマットマルチプレクサデバイスが、2W×2H解像度の2つの立体画像、および、W×H解像度の深度マップのペアから開始することによりタイルフォーマットコンポジットフレームを構成する。深度マップのペアは、正確に、右下隅においてフレームパッキングフォーマットにより利用可能のままとされる空間を占める(図1を参照)。立体信号の全ての成分を転送出来る3W×3H解像度の単一の画像がこのように得られる。W=640およびH=360と想定した場合、1080pとして知られる高解像度のビデオフォーマットに対応可能な1920×1080解像度のタイルフォーマット画像が生成される。これによりタイルフォーマット画像により構成されるビデオ信号は、1920×1080ビデオ信号をコーディング、送信、または転送するためのインフラストラクチャに対応可能となる。
公知のエンコーダ(例えば、MPEG4またはHEVC)は効果的に、場合によっては他の処理(他のコンテンツとの多重化、変調などの後に)通信チャネルでの送信のために、タイルフォーマットマルチプレクサにより生成される立体ビデオストリームを圧縮できる。代替的に、コーディングされたストリームは、将来的な実現のために書き込みユニットにより何らかの格納手段(揮発性または不揮発性半導体メモリ、光電子媒体など)に格納され得る。
受信側(図19bを参照)で、通信チャネルから受信した、または格納媒体から読み取られた立体ビデオストリームは、デコードされ、タイルフォーマットデマルチプレクサへ送信され、タイルフォーマットデマルチプレクサは、2W×2H解像度の立体画像L、Rのペア、および深度マージャによる生成に応じて生成されるカラー画像を抽出する。深度分割器と呼ばれる分割ユニットは、当該画像から、W×H解像度のカラー深度マップDL、DRのペアを抽出し、それらは、深度アップサンプラーと呼ばれる単純な公知の補間デバイスによりそれらのオリジナルの2W×2Hサイズへ拡張され得る。ビュー合成デバイスが、セルフ立体デバイスを通じた視覚化のためにRとLとの間の中間ビューを計算する。
本願発明を深度マップに適用することにより得られる立体ビデオストリームの生成のための装置(1500)および再構成のための装置(1550)の説明には、多くの変形例が考えられ得ることに留意するべきである。例えば、深度マージャおよびタイルフォーマットマルチプレクサの機能は実際には、同一の物理的デバイスにより実行され得る。再構成側において、立体画像の合成および視覚化は、同一の装置または2つの別個の装置により実行され得る。
再構成処理。
本願発明にしたがって深度マップを再構成するために、上述した変形例に従ってカラー画像を生成するための処理とは逆の処理が実行される。
特に、複数の成分(Y、U、V)から構成されるカラー画像から開始して少なくとも1つの深度マップ(DM1、DM2)を再構成する方法は、カラー画像(Y、U、V)の輝度成分(Y)から取り出された第1のピクセル群、一方のクロミナンス成分(U)から取り出された第2のピクセル群、およびクロミナンス成分の他方(V)から取り出された第3のピクセル群を深度マップに挿入する段階を含む。
好ましくは、第1、第2、および第3のピクセル群を再コピーすることにより、当該少なくとも1つの深度マップの全てのピクセルが得られる。または、第1、第2、および第3のピクセル群を再コピーすることにより、深度マップのいくつかのピクセルが得られ、および再コピーされたピクセルに補間処理を行うことにより足りないピクセルが得られる。
いくつかの可能な変形例において、第2および第3の群(UおよびV)は、補間値に対して差異を含んでいるので、再構成に応じて、最初に、補間値を計算し、その後、UおよびVから得られる補正を適用する必要がある。
いくつかの可能な変形例において、方法は、カラー画像の第1、第2、および第3のピクセル群から取り出された値(w0、w1、wd)を、それらの合計および差異で置き換える段階を備え、このことにより、深度マップ(DM1、DM2)のピクセルブロックへコピーされる値(a、b、c、d)を再構成することが可能となる。
更なる可能な変形例において、方法は、カラー画像の成分(Y、U、V)のピクセル群を再コピーした後に当該深度マップ(DM1、DM2)を得るために、生成する段階において実行されたものと逆の領域変換を行うことを含む。
本発明に係る、Y、U、V成分から構成されるカラー画像から開始して少なくとも1つの深度マップ(DM1、DM2)を再構成する装置は、カラー画像(Y、U、V)の輝度成分(Y)から取り出された第1のピクセル群、一方のクロミナンス成分(U)から取り出された第2のピクセル群、およびクロミナンス成分の他方(V)から取り出された第3のピクセル群を少なくとも1つの深度または視差マップに挿入する手段を含む。
装置において好ましくは、第1、第2、および第3のピクセル群は、少なくとも1つの深度または視差マップの全てのピクセルを網羅する。
代替として、第1、第2、および第3のピクセル群は、少なくとも1つの深度または視差マップのいくつかのピクセルを網羅し、再コピーされたピクセルに対して補間処理を実行することにより得られるピクセルが残りのピクセルに挿入される。
装置は、同じW×Hサイズを有する2つの深度マップDM1、DM2を再構成することが出来、カラー画像Y、U、Vにおいて、輝度成分Yは2つの深度または視差マップDM1、DM2と同じW×Hサイズを有する。
好ましくは装置は、第2および第3の群のピクセルを得るために、予測または補間された参照値に対して、ピクセルの群から選択されるピクセルの値の合計または差異を得るための手段を備える。後者の値は第1の群に属するピクセルの値から得られる。
好ましくは装置は、少なくとも1つの深度マップDM1、DM2のピクセルブロックにコピーされる値a、b、c、dを再構成するべく、カラー画像の第1、第2、および第3のピクセル群から取り出された値w0、w1、wdを、それらの合計および差異で置き換える手段を備える。
好ましくは装置は、カラー画像の成分Y、U、Vのピクセル群を再コピーした後に当該少なくとも1つの深度マップDM1、DM2を得るために、生成する段階において実行されたものと逆の領域変換を行う手段を備える。
深度マップがタイルフォーマットコンポジットフレームに挿入される場合、上述した変形例の全てにおいて、全ての現在の、および将来のタイプのディスプレイ上で3Dコンテンツを生成、転送、および再生するための汎用的なフォーマットが得られる。
2D再生デバイスの場合、デバイスのビデオプロセッサは単に、デコードされたビデオフレームに存在し得る画像Rおよび深度マップDM1およびDM2を破棄し、拡大縮小をして、関連付けられた視覚化デバイス上に一連の画像Lのみを表示する。
同じことが、ユーザが2Dディスプレイモードをアクティブ化させた場合の3D再生デバイスに関して当てはまる。
3Dディスプレイモードがアクティブ化された3D再生デバイスは、ユーザによるシーンの深度の調整(低減)をプレーヤが可能とするか否かに応じて、2つの異なる挙動を示し得る。後者の場合、ビデオプロセッサは、2つの一連の画像L(Left)およびR(Right)を用いて、3次元効果を生成する。前者の場合、ビデオプロセッサは立体画像R、Lの各ペアに関連付けられたコンポジットフレームに含まれる(1つまたは2つの)深度マップを用いて、LとRとの間の中間ビューを生成し、これにより、LおよびRから取得可能なものよりも低い、可変の深度を有する3次元画像が得られる。
最後の適用例は、ディスプレイの前の空間の複数の異なる地点に位置する閲覧者のために3次元効果を生成するために非常に多数(数十)のビューを必要とするセルフ立体プレーヤにより表される。この場合、ビデオプロセッサは、画像L、R自体と併せてコンポジットフレームに含まれる(1つまたは2つの)深度マップを用いて、一連の他の画像を合成する。
結論として、再生デバイスのビデオプロセッサは、2つの一連の画像をディスプレイへ送信するよう適合させられた手段を備え得る。それら2つの一連の画像のうち少なくとも1つは、送信されるビューのうち少なくとも1つから、および少なくとも1つの深度マップから開始して合成される画像から成る。この場合、再生デバイスのビデオプロセッサは好ましくは、深度の知覚を変化させることが出来るようおよそ近い視点に関する複数の一連の画像を選択することを閲覧者に可能とするよう適合させられた手段も備える。
再生デバイスのビデオプロセッサは、空間中の異なる地点に位置する閲覧者が関連付けられたセルフ立体ディスプレイを通じて異なる複数の一連の画像を見ることが出来るよう、更なるビューに対応する更なる画像を生成するよう適合させられた手段も備え得る。
これまで提案されてきたフォーマットのいずれも、同時に水平方向および垂直方向の解像度のバランスの点で、並びに、立体画像および関連付けられた深度マップへの適切な解像度の割り当ての点で非常に良好な再生品質を依然として確保しつつ、そのような利用のフレキシブルさ、および幅広さを提供していない。
上述した再構成処理は、受信デバイスにより部分的に、および視覚化デバイス(プレーヤ)により部分的に実行され得る。本願発明は有利には、方法の1または複数の段階を実行するためのコーディング手段を備えるコンピュータプログラムを通じて実装され得る。したがって保護範囲は、コンピュータプログラム、および、記録されたメッセージを備えるコンピュータ可読手段までを含むことが理解される。コンピュータ可読手段は、プログラムがコンピュータにより実行された場合に方法の1または複数の段階を実装するためのプログラムコーディング手段を備える。
上述した実施形態の例は、当業者に公知の全ての同等の設計を含め本願発明の保護範囲から逸脱することなく変更が可能である。
本説明は、最も普及しているものである、カラー画像に関して採用されるサンプリングシステムが4:2:0または4:2:2である本願発明の実施形態を取り扱ってきた。それにも関わらず、例えば、初期のグレースケールレベルへ画像をアンダーサンプリングするための処理を必要に応じて実行することにより4:4:4、4:1:1、4:1:0など何らかの他のサンプリングシステムにも同様に適用可能である。
様々な好ましい実施形態において示された要素および特徴は共に組み合わせられ得、その場合であっても、本願発明の保護範囲から逸脱することはない。
上記の説明から、当業者は、更なる構成の詳細を導入することなく本願発明の目的を達成し得る。
[項目1]
少なくとも1つの深度または視差マップから開始して、複数の成分から構成されるカラー画像を生成する方法であり、
上記少なくとも1つの深度または視差マップの第1のピクセル群が上記カラー画像の輝度成分に挿入され、
上記少なくとも1つの深度または視差マップの第2のピクセル群および第3のピクセル群が上記カラー画像の2つのクロミナンス成分に挿入される、方法。
[項目2]
上記第1のピクセル群、上記第2のピクセル群、および上記第3のピクセル群のピクセルが上記輝度成分および上記2つのクロミナンス成分のどの位置に挿入されるかの選択は、上記カラー画像の上記輝度成分と上記2つのクロミナンス成分との間の空間相関を確保するようなやり方でなされる、項目1に記載の方法。
[項目3]
上記第1のピクセル群、上記第2のピクセル群、および上記第3のピクセル群は併せて、上記少なくとも1つの深度または視差マップの全てのピクセルを含む、項目1または2に記載の方法。
[項目4]
上記第1のピクセル群、上記第2のピクセル群、および上記第3のピクセル群は、上記少なくとも1つの深度または視差マップの全てのピクセルの一部のみを含む、項目1または2に記載の方法。
[項目5]
サイドバイサイドまたはトップアンドボトム技術を用いることにより、W×Hサイズの2つの深度または視差マップが、同じサイズのカラー画像へ挿入される、項目1から4のいずれか1項に記載の方法。
[項目6]
ピクセル群に属する上記第2のピクセル群および上記第3のピクセル群のピクセルは、予測値または補間値に対する差分値により置き換えられ、
上記補間値は、上記第1のピクセル群に属するピクセルの値から得られる、項目1から5のいずれか1項に記載の方法。
[項目7]
隣接するピクセル群の合計を上記輝度成分に配置し、上記隣接するピクセル群の差異のうち上記2つのクロミナンス成分に交互に配置される1つのみを選択することにより、上記隣接するピクセル群に属する上記少なくとも1つの深度または視差マップのピクセルを、上記合計または上記差異で置き換える段階を備える、項目1から4のいずれか1項に記載の方法。
[項目8]
隣接するピクセル群の合計を上記輝度成分に配置し、上記隣接するピクセル群の2つの差異のうち第1の差異を一方のクロミナンス成分に配置し、第2の差異を他方のクロミナンス成分に配置することにより、上記隣接するピクセル群に属する上記少なくとも1つの深度または視差マップのピクセルを、上記合計または上記2つの差異で置き換える段階を備える、項目1から4のいずれか1項に記載の方法。
[項目9]
上記第1のピクセル群、上記第2のピクセル群、および上記第3のピクセル群を上記カラー画像の上記複数の成分へ挿入する前に、上記少なくとも1つの深度または視差マップに領域変換を実行する段階を備える、項目1から8のいずれか1項に記載の方法。
[項目10]
項目1から9のいずれか1項に記載の方法を用いることにより得られる一連のカラー画像を含むビデオストリームを生成する方法。
[項目11]
タイルフォーマットのフレームパッキングフォーマットを用いてビデオストリームを生成する方法であり、
2つの立体ビューに関する複数の画像のピクセルを含まないフレーム部分にカラー画像が挿入される、項目1から9のいずれか1項に記載の方法。
[項目12]
項目1から11のいずれか1項に係る方法を用いることにより得られる一連のカラー画像を含むビデオストリームを生成する画像処理手段を備える装置。
[項目13]
複数の成分から構成されるカラー画像から開始して、少なくとも1つの深度または視差マップを再構成する方法であり、
上記カラー画像の輝度成分から開始して得られる第1のピクセル群と、一方のクロミナンス成分から開始して得られる第2のピクセル群と、他方のクロミナンス成分から開始して得られる第3のピクセル群とが、上記少なくとも1つの深度または視差マップへ挿入される、方法。
[項目14]
上記第1のピクセル群は上記カラー画像の上記輝度成分から取り出され、上記第2のピクセル群は一方のクロミナンス成分から取り出され、上記第3のピクセル群は上記他方のクロミナンス成分から取り出される、項目13に記載の方法。
[項目15]
上記第1のピクセル群は、上記輝度成分から取り出され、
上記第2のピクセル群または上記第3のピクセル群は、上記第1のピクセル群に属するピクセルの値からの補間により得られる参照値に対する差異を表す上記2つのクロミナンス成分のうち一方、またはそれぞれ他方から取り出されるピクセルの値と、上記参照値とを合計することにより得られる、項目13に記載の方法。
[項目16]
上記少なくとも1つの深度または視差マップの全てのピクセルは、上記第1のピクセル群、上記第2のピクセル群、および上記第3のピクセル群を得ることにより得られる、項目13から15のいずれか1項に記載の方法。
[項目17]
上記少なくとも1つの深度または視差マップのいくつかのピクセルは、上記第1のピクセル群、上記第2のピクセル群、および上記第3のピクセル群を得ることにより得られ、
足りない複数のピクセルは、再コピーされた複数のピクセルから補間処理を用いて得られる、項目13から15のいずれか1項に記載の方法。
[項目18]
上記第1のピクセル群、上記第2のピクセル群、および上記第3のピクセル群を得ることにより、上記カラー画像と同じサイズを有する2つの深度または視差マップが得られる、項目14から17のいずれか1項に記載の方法。
[項目19]
複数の成分から構成されるカラー画像から開始して少なくとも1つの深度または視差マップを再構成する方法であり、
上記少なくとも1つの深度または視差マップにコピーされることになる複数の値を再構成する目的で、複数の隣接する位置における、上記複数の成分から取り出される値を線形に組み合わせる段階を備える方法。
[項目20]
上記カラー画像の上記複数の成分から上記第1のピクセル群、上記第2のピクセル群、および上記第3のピクセル群を得た後に、上記少なくとも1つの深度または視差マップを得るために、生成する段階で実行されたものと逆の領域変換が実行される、項目13から18のいずれか1項に記載の方法。
[項目21]
タイルフォーマットと呼ばれるフレームパッキングフォーマットを用いてビデオストリームを再構成する方法であり、
2つの立体ビューに関する複数の画像のピクセルを含まないフレーム部分に存在するカラー画像から開始して、少なくとも1つの深度または視差マップを再構成する段階を備える、項目13から20のいずれか1項に記載の方法。
[項目22]
Y、U、V成分から構成されるカラー画像から開始して少なくとも1つの深度または視差マップを再構成する装置であり、
項目13から21のいずれか1項に記載の方法を実行する手段を備える装置。

Claims (20)

  1. 少なくとも1つの深度または視差マップから開始して、輝度成分および2つのクロミナンス成分から構成されるカラー画像を生成する方法であって、
    前記少なくとも1つの深度または視差マップの第1のピクセル群に属する複数のピクセルの値を前記カラー画像の前記輝度成分に挿入する段階、及び、前記少なくとも1つの深度または視差マップの第2のピクセル群及び第3のピクセル群に属する複数のピクセルの値を前記カラー画像の前記2つのクロミナンス成分に挿入する段階を備え、
    前記カラー画像の前記輝度成分及び前記2つのクロミナンス成分に、前記少なくとも1つの深度または視差マップに含まれる複数のピクセルの値のみが挿入され、
    前記輝度成分の前記複数のピクセルと前記2つのクロミナンス成分の前記複数のピクセルとの相関の存在を想定する、MPEGの標準的なビデオコーディングアルゴリズムの処理の準拠を確保するべく、前記カラー画像のそれぞれのピクセルの前記輝度成分および前記2つのクロミナンス成分を生成するために、前記少なくとも1つの深度または視差マップの前記複数のピクセルの値を用いることによって、空間相関が前記カラー画像において得られる、
    方法。
  2. 前記第1のピクセル群、前記第2のピクセル群、および前記第3のピクセル群に属する複数のピクセルの値を前記カラー画像の前記輝度成分および前記2つのクロミナンス成分へ挿入する前に、前記少なくとも1つの深度または視差マップに領域変換を実行する段階を備える、請求項1に記載の方法。
  3. 少なくとも1つの深度または視差マップから開始して、複数の成分から構成されるカラー画像を生成する方法であって、
    前記少なくとも1つの深度または視差マップの第1のピクセル群に属するピクセルの値が、前記カラー画像の輝度成分に挿入され、
    前記少なくとも1つの深度または視差マップの第2のピクセル群に属する1つの第2ピクセルの値と前記第1のピクセル群に属する2つの第1ピクセルの値から得られる補間値との差分値、及び、前記少なくとも1つの深度または視差マップの第3のピクセル群に属する1つの第3ピクセルの値と前記第1のピクセル群に属する2つの第1ピクセルの値から得られる補間値との差分値が、前記カラー画像の2つのクロミナンス成分に挿入される、方法。
  4. 前記第1のピクセル群、前記第2のピクセル群、および前記第3のピクセル群に属する複数のピクセルは併せて、前記少なくとも1つの深度または視差マップの全てのピクセルを含む、請求項1から3のいずれか一項に記載の方法。
  5. 前記第1のピクセル群、前記第2のピクセル群、および前記第3のピクセル群に属する複数のピクセルは、前記少なくとも1つの深度または視差マップの全てのピクセルの一部のみを含む、請求項1から3のいずれか一項に記載の方法。
  6. 少なくとも1つの深度または視差マップから開始して、複数の成分から構成されるカラー画像を生成する方法であって、
    前記少なくとも1つの深度または視差マップの2×2のピクセルで構成される複数のブロックのそれぞれは、第1ピクセル及び第2ピクセルを含む第1のピクセル群と、第3ピクセル及び第4ピクセルを含む第2のピクセル群とを有し、
    前記第1ピクセル及び前記第2ピクセルの平均値及び前記第3ピクセル及び前記第4ピクセルの平均値が、前記カラー画像の輝度成分に挿入され、
    前記第1ピクセル及び前記第2ピクセルの平均差または前記第3ピクセル及び前記第4ピクセルの平均差が、前記カラー画像の2つのクロミナンス成分のうちの一方のクロミナンス成分に挿入される、方法。
  7. 少なくとも1つの深度または視差マップから開始して、複数の成分から構成されるカラー画像を生成する方法であって、
    前記少なくとも1つの深度または視差マップの2×2のピクセルで構成されるブロックのそれぞれは、第1ピクセル及び第2ピクセルを含む第1のピクセル群と、第3ピクセル及び第4ピクセルを含む第2のピクセル群とを有し、
    前記第1ピクセル及び前記第2ピクセルの平均値及び前記第3ピクセル及び前記第4ピクセルの平均値が、前記カラー画像の輝度成分に挿入され、
    前記第1ピクセル及び前記第2ピクセルの平均差および前記第3ピクセル及び前記第4ピクセルの平均差のそれぞれが、前記カラー画像の2つのクロミナンス成分のそれぞれに挿入される、方法。
  8. サイドバイサイドまたはトップアンドボトム技術を用いることにより、前記少なくとも1つの深度または視差マップであるW×Hサイズの2つの深度または視差マップが、同じサイズの前記カラー画像へ挿入される、請求項1から7のいずれか1項に記載の方法。
  9. 請求項1から8のいずれか1項に記載の方法を用いることにより得られる一連の前記カラー画像を含むビデオストリームを生成する方法。
  10. タイルフォーマットのフレームパッキングフォーマットを用いてビデオストリームを生成する方法であって、
    請求項1から8のいずれか1項に記載の方法に従って、2つの立体ビューに関する複数の画像のピクセルを含まないフレーム部分に前記カラー画像が挿入される、方法。
  11. 請求項1から10のいずれか1項に係る方法を用いることにより得られる一連の前記カラー画像を含むビデオストリームを生成する画像処理手段を備える装置。
  12. 複数の成分から構成されるカラー画像から開始することにより、少なくとも1つの深度または視差マップを再構成する方法であって、
    前記少なくとも1つの深度または視差マップは、第1のピクセル群、第2のピクセル群、および第3のピクセル群を有し、
    前記カラー画像の輝度成分のピクセルの値が前記第1のピクセル群に挿入され、
    前記カラー画像の2つのクロミナンス成分のうちの一方のクロミナンス成分のピクセルの値が前記第2のピクセル群に挿入され、
    前記カラー画像の前記2つのクロミナンス成分のうちの他方のクロミナンス成分のピクセルの値が前記第3のピクセル群に挿入され、
    前記カラー画像の前記輝度成分及び前記2つのクロミナンス成分には、前記少なくとも1つの深度または視差マップに含まれる複数のピクセルの値のみが挿入されており、
    前記輝度成分の前記複数のピクセルと前記2つのクロミナンス成分の前記複数のピクセルとの相関の存在を想定する、MPEGの標準的なビデオデコーディングアルゴリズムの処理の準拠を確保するべく、前記カラー画像のそれぞれのピクセルの前記輝度成分および前記2つのクロミナンス成分を生成するために、前記少なくとも1つの深度または視差マップの前記複数のピクセルの値を用いることによって、空間相関が前記カラー画像に存在している、
    方法。
  13. 複数の成分から構成されるカラー画像から開始することにより、少なくとも1つの深度または視差マップを再構成する方法であって、
    前記少なくとも1つの深度または視差マップは、第1のピクセル群、第2のピクセル群、および第3のピクセル群を有し、
    前記カラー画像の輝度成分から取り出されるピクセルの値が前記第1のピクセル群に挿入され、
    前記輝度成分から取り出される2つのピクセルの値からの補間により得られる第1の補間値と、前記カラー画像の2つのクロミナンス成分のうちの一方のクロミナンス成分から取り出されるピクセルの値とを合計することにより得られる値が前記第2のピクセル群に挿入され、
    前記輝度成分から取り出される2つのピクセルの値からの補間により得られる第2の補間値と、前記カラー画像の前記2つのクロミナンス成分のうちの他方のクロミナンス成分から取り出されるピクセルの値とを合計することにより得られる値が前記第3のピクセル群に挿入される、方法。
  14. 前記第1のピクセル群、前記第2のピクセル群、および前記第3のピクセル群は併せて、前記少なくとも1つの深度または視差マップの全てのピクセルを含む、請求項12または13に記載の方法。
  15. 前記第1のピクセル群、前記第2のピクセル群、および前記第3のピクセル群は併せて、前記少なくとも1つの深度または視差マップのいくつかのピクセルを含み、
    前記少なくとも1つの深度または視差マップの足りない複数のピクセルの値は、前記カラー画像からの複数のピクセルの値から補間処理を用いて得られる、請求項12または13に記載の方法。
  16. 前記第1のピクセル群、前記第2のピクセル群、および前記第3のピクセル群に含まれる複数のピクセルの値を得ることにより、前記カラー画像と同じサイズを有する2つの深度または視差マップが得られる、請求項12から15のいずれか1項に記載の方法。
  17. 前記カラー画像の前記複数の成分から前記第1のピクセル群、前記第2のピクセル群、および前記第3のピクセル群に含まれる複数のピクセルの値を得るために、前記少なくとも1つの深度または視差マップから開始して、前記カラー画像を生成する段階で実行される領域変換と逆の領域変換が実行される、請求項12から16のいずれか1項に記載の方法。
  18. 複数の成分から構成されるカラー画像から開始して、少なくとも1つの深度または視差マップを再構成する方法であって、
    前記少なくとも1つの深度または視差マップの2×2のピクセルで構成される複数のブロックのそれぞれは、第1ピクセル及び第2ピクセルを含む第1のピクセル群と、第3ピクセル及び第4ピクセルを含む第2のピクセル群とを有し、
    前記カラー画像の輝度成分から、前記第1ピクセル及び前記第2ピクセルの平均値及び前記第3ピクセル及び前記第4ピクセルの平均値を取り出し、
    前記カラー画像の2つのクロミナンス成分のうちの一方のクロミナンス成分から、前記第1ピクセル及び前記第2ピクセルの平均差または前記第3ピクセル及び前記第4ピクセルの平均差を取り出し、
    前記平均値及び前記平均差に基づいて、前記少なくとも1つの深度または視差マップの複数のピクセルの値を再構成する、方法。
  19. タイルフォーマットと呼ばれるフレームパッキングフォーマットを用いてビデオストリームを再構成する方法であって、
    請求項12から18のいずれか1項に記載の方法に従って、2つの立体ビューに関する複数の画像のピクセルを含まないフレーム部分に存在する前記カラー画像から開始することにより、少なくとも1つの深度または視差マップを再構成する段階を備える、方法。
  20. Y、U、V成分から構成されるカラー画像から開始することにより、少なくとも1つの深度または視差マップを再構成する装置であって、
    請求項12から19のいずれか1項に記載の方法を実行する手段を備える装置。
JP2014116669A 2013-06-18 2014-06-05 3次元ビデオストリームに属する画像のカラーコンポーネントを用いることにより、深度マップを生成、格納、送信、受信および再生する方法およびデバイス Active JP6644979B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
IT000503A ITTO20130503A1 (it) 2013-06-18 2013-06-18 Metodo e dispositivo per la generazione, memorizzazione, trasmissione, ricezione e riproduzione di mappe di profondita¿ sfruttando le componenti di colore di un¿immagine facente parte di un flusso video tridimensionale
ITTO2013A000503 2013-06-18

Publications (2)

Publication Number Publication Date
JP2015005978A JP2015005978A (ja) 2015-01-08
JP6644979B2 true JP6644979B2 (ja) 2020-02-12

Family

ID=49035854

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014116669A Active JP6644979B2 (ja) 2013-06-18 2014-06-05 3次元ビデオストリームに属する画像のカラーコンポーネントを用いることにより、深度マップを生成、格納、送信、受信および再生する方法およびデバイス

Country Status (11)

Country Link
US (1) US10038890B2 (ja)
JP (1) JP6644979B2 (ja)
KR (1) KR20140147043A (ja)
CN (1) CN104243966B (ja)
DE (1) DE102014211612A1 (ja)
ES (1) ES2550128B1 (ja)
FR (2) FR3007234B1 (ja)
GB (1) GB2517038B (ja)
HK (1) HK1204737A1 (ja)
IT (1) ITTO20130503A1 (ja)
TW (1) TW201503663A (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9253482B2 (en) * 2011-11-08 2016-02-02 Texas Insturments Incorporated Method and apparatus for sample adaptive offset without sign coding
TWI630815B (zh) * 2012-06-14 2018-07-21 杜比實驗室特許公司 用於立體及自動立體顯示器之深度圖傳遞格式
US9355468B2 (en) * 2013-09-27 2016-05-31 Nvidia Corporation System, method, and computer program product for joint color and depth encoding
US9398312B2 (en) * 2013-11-04 2016-07-19 Samsung Display Co., Ltd. Adaptive inter-channel transform for wavelet color image compression
CN104851109B (zh) * 2015-06-10 2018-08-17 宁波盈芯信息科技有限公司 一种从三维深度感知设备输出高灰阶深度图像的方法
US10779005B2 (en) * 2015-07-15 2020-09-15 Blinxel Pty Ltd System and method for image processing
CN105069751B (zh) * 2015-07-17 2017-12-22 江西欧酷智能科技有限公司 一种深度图像缺失数据的插值方法
TWI673684B (zh) * 2018-04-12 2019-10-01 國立成功大學 應用於彩色景深圖框包裝及解包裝之選擇景深值指定為rgb次像素與rgb次像素還原選擇景深值的方法及電路
TWI753377B (zh) * 2019-03-12 2022-01-21 弗勞恩霍夫爾協會 用於影像及視訊寫碼之選擇性成分間變換(ict)技術
CN110111254B (zh) * 2019-04-24 2023-03-24 天津大学 一种基于多级递归引导和渐进监督的深度图超分辨率方法
US11202254B1 (en) * 2020-07-31 2021-12-14 At&T Intellectual Property I, L.P. Methods, systems, and devices for simulating voice and data traffic in a mobile network
CN114157850A (zh) * 2021-11-26 2022-03-08 珠海视熙科技有限公司 一种数据传输方法、装置及计算机可读存储介质
EP4254959A1 (en) * 2022-03-30 2023-10-04 Holo-Light GmbH Computer-implemented method for generating augmented image data, computer-implemented streaming method, image streaming system, and augmented image data stream

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4151149B2 (ja) * 1999-03-12 2008-09-17 富士ゼロックス株式会社 画像形成装置
JP4131933B2 (ja) * 2003-01-22 2008-08-13 日本電信電話株式会社 画像データへの立体情報埋め込み方法、装置、プログラム、および記録媒体
WO2005067319A1 (ja) * 2003-12-25 2005-07-21 Brother Kogyo Kabushiki Kaisha 画像表示装置および信号処理装置
WO2009011492A1 (en) * 2007-07-13 2009-01-22 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding stereoscopic image format including both information of base view image and information of additional view image
CN101610421B (zh) * 2008-06-17 2011-12-21 华为终端有限公司 视频通讯方法、装置及系统
US8537200B2 (en) * 2009-10-23 2013-09-17 Qualcomm Incorporated Depth map generation techniques for conversion of 2D video data to 3D video data
JP5338630B2 (ja) * 2009-11-18 2013-11-13 セイコーエプソン株式会社 画像処理方法およびプログラム、画像処理装置
IT1397591B1 (it) 2009-12-21 2013-01-16 Sisvel Technology Srl Metodo per la generazione, trasmissione e ricezione di immagini stereoscopiche e relativi dispositivi.
US8774267B2 (en) * 2010-07-07 2014-07-08 Spinella Ip Holdings, Inc. System and method for transmission, processing, and rendering of stereoscopic and multi-view images
JPWO2012070500A1 (ja) * 2010-11-22 2014-05-19 ソニー株式会社 符号化装置および符号化方法、並びに、復号装置および復号方法
KR101233398B1 (ko) * 2010-12-10 2013-02-15 광주과학기술원 깊이 지도 생성 방법 및 장치
US8902982B2 (en) * 2011-01-17 2014-12-02 Samsung Electronics Co., Ltd. Depth map coding and decoding apparatus and method
JP2012186781A (ja) * 2011-02-18 2012-09-27 Sony Corp 画像処理装置および画像処理方法
CN102972038B (zh) * 2011-07-01 2016-02-10 松下电器产业株式会社 图像处理装置、图像处理方法、程序、集成电路
KR102002165B1 (ko) * 2011-09-28 2019-07-25 포토내이션 리미티드 라이트 필드 이미지 파일의 인코딩 및 디코딩을 위한 시스템 및 방법
CN102438167B (zh) * 2011-10-21 2014-03-12 宁波大学 一种基于深度图像绘制的立体视频编码方法
TWI630815B (zh) * 2012-06-14 2018-07-21 杜比實驗室特許公司 用於立體及自動立體顯示器之深度圖傳遞格式
WO2014025294A1 (en) * 2012-08-08 2014-02-13 Telefonaktiebolaget L M Ericsson (Publ) Processing of texture and depth images

Also Published As

Publication number Publication date
US20140368610A1 (en) 2014-12-18
TW201503663A (zh) 2015-01-16
FR3017021A1 (fr) 2015-07-31
GB2517038B (en) 2017-11-29
KR20140147043A (ko) 2014-12-29
US10038890B2 (en) 2018-07-31
HK1204737A1 (en) 2015-11-27
ES2550128B1 (es) 2016-09-09
GB201409710D0 (en) 2014-07-16
ITTO20130503A1 (it) 2014-12-19
FR3017021B1 (fr) 2018-02-09
GB2517038A (en) 2015-02-11
JP2015005978A (ja) 2015-01-08
ES2550128A2 (es) 2015-11-04
CN104243966A (zh) 2014-12-24
CN104243966B (zh) 2019-10-18
FR3007234B1 (fr) 2017-11-24
FR3007234A1 (fr) 2014-12-19
ES2550128R1 (es) 2015-11-27
DE102014211612A1 (de) 2014-12-18

Similar Documents

Publication Publication Date Title
JP6644979B2 (ja) 3次元ビデオストリームに属する画像のカラーコンポーネントを用いることにより、深度マップを生成、格納、送信、受信および再生する方法およびデバイス
US10528004B2 (en) Methods and apparatus for full parallax light field display systems
US20190222821A1 (en) Methods for Full Parallax Compressed Light Field 3D Imaging Systems
US8482654B2 (en) Stereoscopic image format with depth information
US8471893B2 (en) Method and apparatus for generating stereoscopic image bitstream using block interleaved method
US9549163B2 (en) Method for combining images relating to a three-dimensional content
JP5544361B2 (ja) 三次元ビデオ信号を符号化するための方法及びシステム、三次元ビデオ信号を符号化するための符号器、三次元ビデオ信号を復号するための方法及びシステム、三次元ビデオ信号を復号するための復号器、およびコンピュータ・プログラム
US20080205791A1 (en) Methods and systems for use in 3d video generation, storage and compression
JP2011523743A (ja) 深さ情報を有するビデオ信号
TWI511525B (zh) 用於產生、傳送及接收立體影像之方法,以及其相關裝置
US20130229487A1 (en) Method and device for multiplexing and demultiplexing composite images relating to a three-dimensional content
KR20140044332A (ko) 스테레오스코픽 이미지들을 생성하고, 송신하고 수신하기 위한 방법, 및 관련 디바이스들
KR20120020627A (ko) 3d 영상 포맷을 이용한 영상 처리 장치 및 방법
Ruijters et al. IGLANCE: transmission to medical high definition autostereoscopic displays
KR20080114450A (ko) 블록 인터리브드 방식의 양안 영상 정보를 포함하는 양안식영상 비트스트림 생성 방법 및 장치
Faria et al. 3D Video Representation and Coding

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170516

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180731

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20181030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191217

R150 Certificate of patent or registration of utility model

Ref document number: 6644979

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250