JP2015515820A - 奥行きヘルパデータ - Google Patents

奥行きヘルパデータ Download PDF

Info

Publication number
JP2015515820A
JP2015515820A JP2015503982A JP2015503982A JP2015515820A JP 2015515820 A JP2015515820 A JP 2015515820A JP 2015503982 A JP2015503982 A JP 2015503982A JP 2015503982 A JP2015503982 A JP 2015503982A JP 2015515820 A JP2015515820 A JP 2015515820A
Authority
JP
Japan
Prior art keywords
depth
data
video signal
depth map
helper data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015503982A
Other languages
English (en)
Other versions
JP6242380B2 (ja
JP2015515820A5 (ja
Inventor
ウィルヘルムス ヘンドリクス アルフォンソ ブルース
ウィルヘルムス ヘンドリクス アルフォンソ ブルース
フィリップ スティーブン ニュートン
フィリップ スティーブン ニュートン
ヨハン コーネリス タルストラ
ヨハン コーネリス タルストラ
ハーン ウィーブ デ
ハーン ウィーブ デ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2015515820A publication Critical patent/JP2015515820A/ja
Publication of JP2015515820A5 publication Critical patent/JP2015515820A5/ja
Application granted granted Critical
Publication of JP6242380B2 publication Critical patent/JP6242380B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

種々のタイプの3D表示器に対する3Dデータの伝送のためのハイブリッド伝送/自動変換3Dフォーマット及び方式が記載されている。デコーダ20において、ステレオ/奥行き変換器24は奥行きマップを発生する。3Dビデオ信号において、奥行きヘルパデータ(DH-bitstr)と呼ばれる付加的奥行き情報が、時間的に(時間的な部分的奥行き)及び/又は空間的に(フレーム内の部分的奥行き)疎に伝送される。奥行き切換器25は、部分的奥行きを、これらが何時使用されるべきか又は該奥行きが何時ローカルに自動的に発生されねばならないかを示すための明示的又は暗示的メカニズムに基づいて選択する。有利にも、上記ステレオ/奥行き変換器による妨害的な奥行きエラーは、該奥行きヘルパデータにより低減される。

Description

本発明は、三次元(3D)宛先装置に伝達するための3Dビデオ信号を供給する3Dソース装置に関する。3Dビデオ信号は、3D表示器上の左眼ビューを表す第1ビデオ情報、及び該3D表示器上の右眼ビューを表す第2ビデオ情報を有している。3D宛先装置は、3Dビデオ信号を受信する受信器、並びに第1及び第2ビデオ情報に基づいて第1発生奥行きマップを発生するためのステレオ/奥行き変換器を有する。3Dソース装置は、3Dビデオ信号を発生すると共に該3Dビデオ信号を3D宛先装置に伝達するための出力ユニットを有している。
本発明は、更に、3D宛先装置に伝達するための3Dビデオ信号を供給する方法にも関する。
本発明は、例えば放送装置、インターネット・ウェブサーバ、オーサリングシステム及びブルーレイディスクの製造器等のソース装置において3Dビデオ信号を発生すると共に、該3Dビデオ信号を複数のビューをレンダリングするために奥行きマップを必要とする、例えばブルーレイディスクプレーヤ、3D TV受像機、3D表示器及び携帯計算装置等の3D宛先装置へ伝達する技術分野に関する。
文献“Working Draft on MVC extensions for inclusion of depth maps - ISO/IEC/JTC1/SC29/WG11/N12351, December 2011 by Teruhiko Suzuki, Miska M. Hannuksela, Ying Chen”は、MPEG符号化ビデオ伝達信号に3Dビデオ技術を追加するためのITU-T Rec. H.264|ISO/IEC 14496-10に対する新たな補正の提案である(以下、ISO提案と呼ぶ)。該ISO提案は、オーディオビジュアル・オブジェクトの符号化(コーディング)、特に、前記ISO規格パート10に対する補正、即ちビデオフォーマットへ奥行きマップ(depth map)を含めるためのマルチビューコーディング(MVC)の拡張に関する進んだビデオコーディングを記述している。該補正によれば、奥行きマップビデオコーディングを含めるためのMVC拡張が指定され、関係する複数の補足ビュー(即ち、奥行きマップビュー)により複数のビューを表すビットストリームの構築を可能にしている。マルチビュービデオコーディングと同様に、複数の補足ビューを表すビットストリームも、提案された仕様に準拠する副ビットストリームを更に含むことができる。
上記ISO提案によれば、奥行きマップは、3D表示器上の左眼ビューを表す第1ビデオ情報及び該3D表示器上の右眼ビューを表す第2ビデオ情報を有する3Dビデオデータストリームに追加することができる。デコーダ側における奥行きマップは、左及び右ビューに加えて、例えば自動立体表示のための更なるビューの発生を可能にする。
上記ISO提案はビデオ素材が奥行きマップを備えることを求めており、このことは、追加のデータ伝送容量を必要とする。更に、奥行きマップデータを有さない多数の既存の3Dビデオ素材が存在する。このような素材のために、宛先装置は、第1及び第2ビデオ情報に基づいて発生奥行きマップを発生するためのステレオ/奥行き変換器を有することができる。
本発明の目的は、3Dビデオレンダリングを向上させるために一層柔軟性のある奥行き情報を供給すると共に斯かる奥行き情報を伝達するシステムを提供することである。
この目的のために、本発明の第1態様によれば、冒頭の段落で述べたソース装置は、前記ビデオ情報に関するソース奥行きマップを供給するように構成され、該3Dソース装置は、前記第1及び第2ビデオ情報に基づいて第2発生奥行きマップを発生するソースステレオ/奥行き変換器と、前記ソース奥行きマップと前記第2発生奥行きマップとの間の差が所定の閾値を超える場合にのみ、前記ソース奥行きマップを表す奥行きヘルパデータを供給するように構成されたソース奥行きプロセッサとを有し、前記出力ユニットは前記奥行きヘルパデータを前記3Dビデオ信号に含めるように構成される。
前記3Dビデオ信号は、上記奥行きヘルパデータを有する。
前記3D宛先装置は、前記3Dビデオ信号において前記奥行きヘルパデータが利用可能でない場合には前記第1の発生奥行きマップに基づいて、前記3Dビデオ信号において前記奥行きヘルパデータが利用可能である場合には前記奥行きヘルパデータに基づいて宛先奥行きマップを発生するための奥行きプロセッサを有する。
上記対策は、宛先装置が、左及び右ビューを表す前記第1及び第2ビデオ情報からローカルに発生される奥行きマップに基づいて宛先奥行きマップを発生し、利用可能な時及び場合には、該ローカル発生奥行きマップを向上させるために前記奥行きヘルパデータを適用することを可能にされるという効果を有する。有利には、上記奥行きヘルパデータは、上記ローカル発生奥行きマップが前記ソース奥行きマップに対して大きな差を有する場合にのみ伝達される。かくして、誤って発生された奥行きマップに起因する視覚的に妨害的なエラーは低減される。
本発明は、以下の認識に基づくものでもある。発明者は、ローカルな奥行きマップの発生は、通常、左及び右ビューに基づく場合、非常に好ましい結果をもたらすことを理解した。しかしながら、幾つかの時点又は場所では妨害的なエラーが発生し得る。ソースにおいて斯様なエラーの発生を予測し、前記ヘルパデータを斯かる時点又は期間に対してのみ追加することにより、伝達されるべき追加の奥行きデータの量が制限される。更に、前記ソース奥行きマップに基づいてヘルパデータを伝達すると共に、宛先側において、誤ったローカル発生奥行きデータを使用することに代えて該ヘルパデータを選択することにより、複数のビューの奥行きに基づくレンダリングの大幅な改善が達成される。
オプションとして、前記3Dソース装置において前記出力ユニットは、前記差が前記閾値を超える補正期間においてのみ前記3Dビデオ信号に前記奥行きヘルパデータを含めるように構成される。その効果は、ヘルパデータは大きな奥行きエラーが発生する期間に対してのみ伝送されるということであり、これは実際には時間のうちの10%未満である。有利にも、伝達されるべきデータの量が低減される。
オプションとして、前記3Dソース装置において前記出力ユニットは、前記3D表示器より小さい補正領域に対してのみであって、該補正領域において前記差が前記閾値を超える場合に前記3Dビデオ信号に前記奥行きヘルパデータを含めるよう構成される。その効果は、ヘルパデータは大きな奥行きエラーが発生する位置に対してのみ伝送されるということであり、これは実際には斯様なエラーが発生するフレームの50%未満である。有利にも、伝達されるべきデータの量が低減される。
オプションとして、前記3Dソース装置において、前記奥行きプロセッサは前記補正領域に対して該補正領域が前記3Dビデオ信号における少なくとも1つのマクロブロックに整列されるようにして前記奥行きヘルパデータを発生するように構成され、前記マクロブロックは圧縮されたビデオデータの所定のブロックを表し、該マクロブロックに整列された補正領域は、前記ソース奥行きマップと前記第2発生奥行きマップとの間の差が前記所定の閾値を超えない場合の位置に対して他の奥行きデータを有する。その効果は、符号化はマクロブロックで編成されるので、上記補正領域が通常の符号化プロセッサにより効果的に符号化されるということである。対照的に、誤った奥行き値に対する補正を含む任意の形状のみを符号化することは、大きな符号化労力を要し、低い圧縮率となるであろう。このような補正領域は、前記第2発生奥行きマップ及びソース奥行きマップの奥行き値が小さく、前記閾値以下であるようなピクセルも含む。前記他の奥行きデータは、前記マクロブロックに整列された補正領域の外側境界における奥行きのジャンプを防止するために前記第2発生奥行きマップに基づくものとすることができる。有利にも、上記他の奥行き補正値を発生された値に等しくすることは、デコーダ側において、マクロブロックにわたる奥行きの差が見えるようになることを防止する。
オプションとして、前記3Dソース装置において、前記出力ユニットは、前記3Dビデオ信号に、前記奥行きヘルパデータの利用可能性を示す通知ヘルパデータを含めるように構成される。有利にも、デコーダは上記奥行きヘルパデータの有無を該通知ヘルパデータに基づいて容易に検出することができるようになる。該通知ヘルパデータは、例えば、
− 前記奥行きヘルパデータの存在を示すフラグ信号、
− 対応する位置に対する奥行きヘルパデータの不存在を示す、奥行きマップ内の所定の無奥行き値(no-depth value)、
− データ構造内の奥行きヘルパデータの量を示すヘルパ長データ、
− 前記奥行きヘルパデータが利用可能であるビューの数及び/又はタイプを示すビュー標識データ、
− 前記奥行きヘルパデータのために使用されるデータ構造を示すヘルパタイプデータ、
− 前記奥行きヘルパデータの解像度を示すヘルパ解像度データ、及び
− 前記奥行きヘルパデータの位置を示すヘルパ位置データ、
のうちの少なくとも1つを有することができる。有利には、斯様な通知ヘルパデータは奥行きヘルパデータの存在及び/又は量を示す。
オプションとして、前記3Dソース装置において、前記出力ユニットは、前記3Dビデオ信号に、前記3D表示器上の表示領域に対応する奥行きマップを含めるように構成され、該奥行きマップは、前記補正領域及び/又は前記補正期間のために前記奥行きヘルパデータを有すると共に、他の領域及び/又は期間に関しては、前記通知ヘルパデータとして、対応する位置に対する奥行きヘルパデータの不存在を示す所定の無奥行き値を有する。奥行きマップは、何らかの奥行きヘルパデータを有するフレームに対して当該信号に含められ得る。即ち、奥行きマップの存在は、奥行きヘルパデータが存在することを暗示的に示す。代わりに、奥行きマップは全てのフレームに含まれ得る。発明者は、現圧縮方式が、特にヘルパデータのローカルな不存在を示す無奥行き値が0又は255となるように選択された場合に、殆どの又は全体さえもの表示面上に単一の値を有する奥行きマップを非常に効果的に圧縮することに気が付いている。有利には、デコーダ側において、当該奥行きマップは、奥行き値が上記無奥行き値から逸脱する場合に何らかの補正値のみを用いて自動的に処理される。
オプションとして、前記奥行きマップは、前記左ビューに対応する奥行きデータ;前記右ビューに対応する奥行きデータ;中心ビューに対応する奥行きデータ;及び前記第1ビデオ情報又は前記第2ビデオ情報よりも低い解像度を持つ奥行きデータのうちの少なくとも1つを有する。有利にも、上記規準による1以上の奥行きマップを設けることにより、デコーダは必要に応じて適切な奥行きマップを使用することができる。
本発明による上記装置及び方法の他の好ましい実施態様は、添付請求項に示され、これら請求項の開示内容は参照により本明細書に組み込まれる。
本発明の上記及び他の態様は、例示として後述する実施態様及び添付図面から明らかとなり、斯かる実施態様及び図面を参照して解説される。
図1は、3Dビデオデータを処理し、該3Dビデオデータを表示するシステムを示す。 図2は、奥行きヘルパデータを用いる3Dデコーダを示す。 図3は、奥行きヘルパデータを供給する3Dエンコーダを示す。 図4は、自動立体表示装置及び複数のビューの発生を示す。 図5は、デュアルビュー立体表示装置及び強化ビューの発生を示す。 図6は、3Dビデオ信号における奥行きヘルパデータの存在を示す。
各図は純粋に概略的なもので、実寸通りには描かれていない。各図において、既に説明された構成要素に対応する構成要素は、同一の符号を有する。
本発明は静止画又は動画ビデオの何れかの如何なるタイプの3D画像データにも使用することができることに注意されたい。3D画像データは、電子的なデジタル的にエンコードされたデータとして利用可能であると仮定される。本発明は、斯様な画像データに関するもので、画像データをデジタルドメインで操作する。
3Dビデオ信号を、所謂3Dビデオフォーマットに従ってフォーマット化し、伝達することが可能な多数の異なる方法が存在する。幾つかのフォーマットは、立体情報も伝達するために2Dチャンネルを使用することに基づくものである。3Dビデオ信号において、当該画像はピクセルの二次元アレイにおける画像値により表される。例えば、左及び右ビューをインターレースすることができるか、又は隣り合わせで且つ上下に配置することもできる。また、奥行きマップも伝達することができ、恐らくは、更に隠蔽(オクルージョン)又は透明データ等の3Dデータも伝達することができる。この前後関係において、ディスパリティ(視差)マップも一種の奥行きマップと考えることができる。奥行きマップは異なる解像度を有し得るが、奥行きマップも当該画像に対応する二次元アレイにおける奥行き値を有する。3Dビデオデータは、例えばMPEG等の既知の圧縮方法に従って圧縮することができる。インターネット又はブルーレイディスク(BD)等の如何なる3Dビデオシステムも、当該提案される拡張から利益を得ることができる。
3D表示器は、相対的に小さなユニット(例えば、携帯電話)、シャッタメガネを必要とする大きな立体表示器(STD)、何らかの立体表示器(STD)、変化するベースラインを考慮に入れた先進STD、頭部追跡(ヘッドトラッキング)に基づいてL及びRビューを視聴者の目に向ける能動STD、又は自動立体マルチビュー表示器(ASD)等とすることができる。
伝統的に、種々のタイプの3D表示器を駆動するために必要とされる全ての成分が伝送され、このことは、例えばスイス国、ジュネーブ、2011年3月のMPEG文書N12036“Call for Proposals on 3D Video Coding Technology”に説明されているように、典型的に2以上のビュー(カメラ信号)及び該ビューに対応する奥行き情報の圧縮及び伝送を必要とする。このようなシステムの問題は、奥行き信号の利用可能性(作成することが困難且つ高価である)、可変ベースラインに関してASD及び先進STDを駆動するための限られた初期コンテンツの利用可能性、及び奥行き信号を伝送するための追加のビットレートである。デコーダにおける自動変換(奥行きがステレオ情報から自動的に導出される)自体は既知である(例えば、スイス国、ジュネーブ、2011年11月のMPEG文書N22668の“Description of 3D Video Coding Technology Proposal by Disney Research Zurich and Fraunhofer HHI”から)。しかしながら、全体の品質は保証され得ず、品質は特定の“困難な”シーン(例えば、シーンの5%)では限定される。立体ビデオデコーダの後に使用される自動変換の代替として、より大きな処理能力を利用することができるエンコーダ側にステレオ/奥行き変換器を配置することもできる。しかしながら、この構成は、伝達されるべきデータ量を低減するものではなく、合成された奥行きマップが信頼性のない幾つかの難しいシーンの不利益を被る。
図1は、3Dビデオデータを処理すると共に該3Dビデオデータを表示するシステムを示す。3Dソース装置と呼ばれる第1の3Dビデオ装置40は、3D宛先装置と称される他の3D画像処理装置50に、3Dビデオ信号41を供給及び伝達する。上記3D宛先装置50は3D表示信号56を伝達するための3D表示装置60に結合されている。上記ビデオ信号は、例えば、フレーム互換性完全解像度(例えば、ドルビにより提案されたFCFR)、マルチビュー符号化(MVC)又は1/2HDフレーム互換を用いた標準立体伝送等の3D TV放送信号であり得る。フレーム互換性ベースレイヤに基づいて、ドルビは完全解像度3D画像を再現するための拡張レイヤを開発した。この技術は、標準化のためにMPEGに提案されたもので、〜10%のビットレートの増加しか必要としない。伝統的な3Dビデオ信号は、以下に解説する奥行きヘルパデータにより強化される。
図1は、更に、上記3Dビデオ信号の記録担体としての記録担体54を示している。該記録担体は、ディスク状のもので、トラック及び中心孔を有している。物理的に検出可能なマークのパターンにより構成される上記トラックは、螺旋状又は同心状パターンの巻回に従って配置され、1以上の情報層上に実質的に平行なトラックを構成している。該記録担体は、光学的に読み取り可能とすることができ、光ディスク(例えば、DVD又はBD(ブルーレイディスク))と称される。情報は上記情報層上に、トラックに沿う光学的に検出可能なマーク(例えば、ピット及びランド)により具現化される。当該トラック構造は、通常は情報ブロックと称される情報の単位の位置を示すための位置情報(例えば、ヘッダ及びアドレス)も有している。記録担体54は、例えばMPEG2又はMPEG4符号化システムに従ってエンコードされた、ビデオ等のデジタル的に符号化された3D画像データを表す情報を、DVD又はBDフォーマット等の所定の記録フォーマットで担持している。
3Dソース装置は、入力ユニット47を介して入力された3Dビデオデータを処理するためのソース奥行きプロセッサ42を有している。入力される3Dビデオデータ43は、記憶システム、記録スタジオ、3Dカメラ等から利用可能であり得る。当該ソースシステムは3D画像データのために供給される奥行きマップを処理し、該奥行きマップは、該システムの入力端において元々存在し得るか、又は後述する高品質処理システムにより例えばステレオ(L+R)ビデオ信号における左/右フレームから若しくは2Dビデオから自動的に発生され得ると共に、恐らくは、更に、付随する2D画像データ又は左/右フレームに対応する奥行き値を正確に表すソース奥行きマップを供給するために更に処理若しくは補正され得る。
ソース奥行きプロセッサ42は、3Dビデオデータを有する3Dビデオ信号41を発生する。該3Dビデオ信号は、3D表示器上の左眼ビューを表す第1ビデオ情報と、3D表示器上の右眼ビューを表す第2ビデオ情報とを有する。当該ソース装置は、上記3Dビデオ信号をビデオプロセッサから出力ユニット46を介して他の3Dビデオ装置に伝達するように、又は例えば記録担体を介して分配するために3Dビデオ信号を供給するように構成することができる。該3Dビデオ信号は、入力された3Dビデオデータ43を、例えばエンコードすると共に該3Dビデオデータを所定のフォーマットに従ってフォーマットすることにより処理することに基づくものである。
当該3Dソース装置は、上記第1及び第2ビデオ情報に基づいてソース発生奥行きマップを発生するためのソースステレオ/奥行き変換器48と、奥行きヘルパデータを供給するためのソース奥行きプロセッサ42とを有している。
奥行きマップを発生するためのステレオ/奥行き変換器は、動作時に、3D効果を発生するために視聴者の各目に対して表示されるべき左ビュー及び右ビューを表す左フレームL及び右フレームRの時間系列を持つ立体3D信号(左右ビデオ信号とも呼ばれる)を入力する。該ユニットは、発生された奥行きマップ(発生奥行きマップ)を上記左ビュー及び右ビューの視差推定(disparity estimation)により生成すると共に、該左ビュー及び/又は右ビューに基づいて2D画像を更に供給することができる。上記視差推定は、L及びRフレームを比較するために使用される動き推定アルゴリズムに基づくものであり得る。オブジェクトのLビューとRビューとの間の大きな差は、該差の方向に依存して表示スクリーンの前又は背後の奥行き値に変換される。当該発生器ユニットの出力は、上記発生奥行きマップである。次いで、奥行きエラーが検出された場合に、即ち、前記ソース奥行きマップと上記の発生奥行きマップとの間の差が所定の閾値を超えた場合にのみ、奥行きヘルパデータが発生される。例えば、所定の奥行きの差が、上記閾値を構成することができる。該閾値は、奥行きエラーの視認性に影響を及ぼす更なる画像特性(例えば、ローカルな画像輝度若しくはコントラスト又はテクスチャ)に依存させることができる。該閾値は、上記の発生奥行きマップの品質レベルを下記のように検出することにより決定することもできる。上記発生奥行きマップは、所与の異なるビューに対応する向きを持つビューを歪めるために使用される。例えば、R’のビューは、元のL画像データと発生奥行きマップとに基づくものである。次いで、R’ビューと元のRビューとの間の差が、例えば良く知られたPSNR(ピーク信号対雑音比)関数により計算される。PSNRは、信号の最大の可能なパワーと、該信号の表現の忠実度に影響を及ぼす劣化させるノイズのパワーとの間の比である。多くの信号は非常に広いダイナミックレンジを有しているので、通常、PSNRは対数デジベル目盛りで表される。PSNRは、ここでは、発生奥行きマップの品質の尺度として使用することができる。この場合、上記信号は元のデータRであり、上記ノイズは、発生奥行きマップに基づいてR’を歪めることにより発生されたエラーである。更に、前記閾値は、更なる視認性評価基準に基づいて、又は発生奥行きマップに基づく結果をオーサリング又は見直すと共に、当該3Dビデオの何の部分及び/又は期間が奥行きヘルパデータにより増強されねばならないかを制御する編集者により判定することもできる。
上記奥行きヘルパデータは、前記ソース奥行きマップ、例えば該ソース奥行きマップの前記奥行きエラーの位置における奥行き値を表す。他の例として、奥行き差又は奥行き補正係数を、宛先装置に対して如何にしてソース奥行きマップの奥行き値に到達するかを示すために該奥行きヘルパデータに含めることもできる。出力ユニット46は、該奥行きヘルパデータを3Dビデオ信号に含めるように構成される。奥行きプロセッサ42、ステレオ/奥行き変換器48及び出力ユニット46の機能を有するプロセッサユニットは、3Dエンコーダと呼ぶことができる。
3Dソースは、サーバ、放送装置、記録装置、又はブルーレイディスク等の光記録担体を製造するためのオーサリング及び/又は製造システムであり得る。上記ブルーレイディスクは、コンテンツ創作者のためにビデオを分配するための対話的プラットフォームを提供する。ブルーレイディスクフォーマットに関する情報は、ブルーレイディスク協会のウェブサイトからオーディオビジュアル・アプリケーション・フォーマットに関する論文で利用可能である(例えば、http://www.bluraydisc.com/Assets/Downloadablefile/2b_bdrom_ audiovisualapplication_0305-12955-15269.pdf)。光記録担体の製造工程は、奥行きヘルパデータを含む3Dビデオ信号を具現化するマークの物理的パターンをトラックに設けるステップと、次いで該パターンに従って記録担体の材料を成形して、上記マークのトラックを少なくとも1つの記憶層上に設けるステップとを更に有する。
3D宛先装置50は、3Dビデオ信号41を受信するための入力ユニット51を有している。例えば、該装置は、DVD又はブルーレイディスク等の光記録担体54から3Dビデオ信号を取り込むために上記入力ユニットに結合された光ディスクユニット58を含むことができる。代わりに(又は加えて)、該装置はネットワーク45(例えば、インターネット又は放送ネットワーク)に結合するためのネットワークインターフェースユニット59を含むことができ、斯かるユニットはセットトップボックス、又は携帯電話若しくはタブレットコンピュータ等の携帯計算装置である。3Dビデオ信号は、遠隔のウェブサイト又は媒体サーバ(例えば、3Dソース装置40)から取り込むことができる。当該3D画像処理装置は、画像入力信号を所要の奥行き情報を持つ画像出力信号に変換する変換器であり得る。斯かる変換器は、特定のタイプの3D表示器のための異なる入力3Dビデオ信号(例えば、標準の3Dコンテンツ)を、特定のタイプ又は製造供給元の自動立体表示器に適したビデオ信号に変換するために使用することができる。実際には、該装置は、3D光ディスクプレーヤ、衛星受信器若しくはセットトップボックス、又は如何なるタイプのメディアプレーヤでもあり得る。
当該3D宛先装置は上記入力ユニットに結合された奥行きプロセッサ52を有し、該奥行きプロセッサは上記3D情報を処理して、出力インターフェースユニット55を介して表示装置に伝達されるべき3D表示信号56、例えばHDMI(登録商標)規格に従う表示信号(“High Definition Multimedia Interface; Specification Version 1.4a of March 4, 2010”参照。該文献の3D部分は、http://hdmi.org/manufacturer/specification.aspxでダウンロードのために公開されている)を発生する。
当該3D宛先装置は、宛先発生奥行きマップを前記第1及び第2ビデオ情報に基づいて発生するためのステレオ/奥行き変換器53を有している。該ステレオ/奥行き変換器の動作は、前述したソース装置におけるステレオ/奥行き変換器と同等である。両変換器が等しい場合、同一の奥行きエラーが発生し、該エラーは奥行きヘルパデータを介して補正可能である。該宛先ステレオ/奥行き変換器が更に改善される、即ち前記ソースステレオ/奥行き変換器と少なくとも同様に良好に動作する場合、最終的宛先奥行きマップは、ヘルパデータが利用可能でない場合に利益を得るであろう。宛先奥行きプロセッサ52、ステレオ/奥行き変換器53及び出力ユニット55の機能を有するユニットは、3Dデコーダと呼ぶことができる。
宛先奥行きプロセッサ52は、表示装置60上での表示のために上記3D表示信号56に含まれる画像データを発生するように構成されている。該奥行きプロセッサは、宛先奥行きマップを、当該3Dビデオ信号において奥行きヘルパデータが利用可能でない場合には前記宛先発生奥行きマップに基づいて、該3Dビデオ信号において奥行きヘルパデータが利用可能である場合には該奥行きヘルパデータに基づいて発生するように構成される。例えば、奥行き切換器が、宛先発生奥行きマップの奥行き値を、利用可能である場合は奥行きヘルパデータにより供給される奥行き値により置換することができる。奥行きヘルパデータの処理は後に更に説明する。
3D表示装置60は3D画像データを表示するためのものである。該装置は、3D宛先装置50から伝達された宛先奥行きマップ及び3Dビデオデータを含む3D表示信号56を入力するための入力インターフェースユニット61を有している。該装置は、3Dビデオデータの複数のビューを前記第1及び第2ビデオ情報に基づき前記宛先奥行きマップに依存して発生するビュープロセッサ62、及び該3Dビデオデータの複数のビューを表示するための3D表示器63を有している。伝達された3Dビデオデータは、処理ユニット62内で、例えばマルチビューLCD等の表示器63上で表示するために処理される。表示装置60は如何なるタイプの立体表示器(3D表示器とも称される)とすることもできる。
3D表示装置60内のビデオプロセッサ62は、前記3Dビデオデータを、複数のビューをレンダリングするための表示制御信号を発生するように処理するよう構成される。これらビューは、上記3D画像データから宛先奥行きマップを使用して発生される。他の例として、3Dプレーヤ装置における前記ビデオプロセッサ52を、該奥行きマップ処理を実行するように構成することもできる。特定の3D表示器のために発生された上記複数のビューは、3D画像信号と共に該3D表示器に伝達することができる。
他の実施態様において、前記宛先装置及び表示装置は単一の装置へと組み合わせることができる。奥行きプロセッサ52及び処理ユニット62の機能、並びに出力ユニット55及び入力ユニット61の残りの機能は、単一のビデオプロセッサユニットにより実行することができる。
図2は、奥行きヘルパデータを使用する3Dデコーダを示す。3Dデコーダ20は、BS3(ベース信号3D)と印された3Dビデオ信号のための入力端子を有するものとして図解的に示されている。入力デマルチプレクサ(DEMUX)21は、左及び右ビュー(LR-bitstr)並びに奥行きヘルパデータ(DH-bitstr)からビットストリームを取り出す。第1デコーダ(DEC)22は左及び右ビューを出力L及びRに復号し、これら出力は消費者タイプのステレオ/奥行き変換器(CE-S2D)に結合され、該変換器は左奥行きマップLD1及び右奥行きマップRD1(宛先発生奥行きマップと呼ぶ)を発生する。第2デコーダ23は、奥行きヘルパデータが利用可能な場合、DH-bitstrを復号して、左ヘルパ奥行きマップLD2及び右ヘルパ奥行きマップRD2を供給する。奥行き切換器DEPTH-SW25は、例えば奥行きヘルパデータの存在を示すフラグに基づいて、宛先発生奥行きマップ(LD1/LD2)、又は左ヘルパ奥行きマップLD2及び右ヘルパ奥行きマップRD2を選択する。
上記3Dデコーダは、消費者側のセットトップボックス(STB)の一部とすることができ、該デコーダは奥行きヘルパシステムに従うビットストリーム(BS3)を受信し、該ビットストリームは2つのストリーム、即ちL及びRビューを有する1つのビデオストリーム並びに奥行きヘルパ(DH)データを有する1つの奥行きストリームにデマルチプレクスされ、次いで、これらストリームは対応するデコーダ(例えば、MVC/H264)に送られる。ローカルなフラグが導出され、復号DH奥行き(LD2/RD2)とローカル発生(CE-S2Dによる)奥行き値(LD1/RD1)との間を切り換えるために使用される。次いで、該3Dデコーダの最終的出力(LD3/RD3)は、表示器のタイプに依存して図4又は図5により説明するビュー歪めブロックに伝達される。
図3は、奥行きヘルパデータを供給する3Dエンコーダを示す。3Dエンコーダ30は、3Dビデオ信号を入力するための入力端子(L,R)を有するものとして図解的に示されている。ステレオ/奥行き変換器31(例えば、高品質専門タイプHQ-S2D)は、左奥行きマップLD4及び右奥行きマップRD4(ソース発生奥行きマップと呼ぶ)を発生する。他の入力端子はソース奥行きマップ(LD-man、RD-manと印される)を入力し、該マップはオフラインで供給され得るか(例えば、手作業で編集又は改善される)、又は入力3Dビデオ信号と共に利用可能であり得る。奥行切換器ユニット32は、ソース発生奥行きマップLD4,RD4及びソース奥行きマップLD-man,RD-manを入力し、上記ソース奥行きマップと発生奥行きマップとの間の差が所定の閾値を超えるかを判断する。もし越えるなら、該奥行き切換器は奥行きヘルパデータLD5,RD5を発生する。該奥行き切換器は、上記奥行きマップのうちの一方を選択することができる。該選択は、斯様な差を示す外部信号(flagと印されている)に基づくものとすることもでき、該外部信号は、出力マルチプレクサ(MUX)35により、出力信号にヘルパ通知データとして含めることができる。上記出力マルチプレクサは第1エンコーダ33から符号化されたビデオデータ(BS1)入力すると共に、第2エンコーダ34から符号化された奥行きヘルパデータ(BS2)を入力し、BS3と印された3Dビデオ信号を発生する。
当該3Dエンコーダにおいて、上記出力ユニットは、補正期間内で前記差が前記閾値を越える場合に該補正期間の間においてのみ3Dビデオ信号に上記奥行きヘルパデータを含めるように構成することができる。更に、該出力ユニットは、当該3D表示器より小さい補正領域において前記差が前記閾値を超える場合に該補正領域に対してのみ3Dビデオ信号に上記奥行きヘルパデータを含めるように構成することができる。例えば、当該奥行きヘルパデータを供給する奥行きマップは(i)全フレームである、(ii)部分的に存在する、又は(iii)存在しない。また、奥行きマップは特定のフレーム又はGOPにのみ存在し得る。また、全フレーム奥行きマップが含まれ得るが、“奥行きヘルパデータ無し”を意味するために割り当てられた特定の輝度値(例えば、0x00又は0xFF)を有する。このようなマップは後方互換的な方法で符号化することができる。また、奥行きヘルパデータ及びそれらのフレーム位置は、ユーザデータ内で又は何らかの他のストリーム内で伝送されるテーブル又は他のデータ構造に記憶することができる。
当該エンコーダは以下のような効果を有する。奥行きヘルパデータと呼ばれる奥行き情報は、時間的に(時間的な部分的奥行き)及び/又は空間的に(フレーム内での部分的奥行き)部分的に伝送される。これらの部分的奥行きが何時使用されるべきか、又は奥行きが何時ローカルに自動的に発生されなければならないかを示すために含まれる明示的な又は暗示的なメカニズムが存在する。明示的なメカニズムは当該ビットストリームへのフラグの挿入を介するものとすることができ、暗示的なメカニズムは奥行きヘルパデータ自体の不存在がローカルな奥行きが発生されなければならないことを示すという約束事を介するものとすることができる。
一実施態様において、奥行きマップには、DH奥行きが伝送されないことを意味する特定の奥行きレベルLEV(黒レベル0又は白レベル255)を割り当てることができる。このような無奥行き値は、当該奥行き値の位置に物理的に存在し、これは、例えばビデオ及び奥行きを同期状態に維持する等の幾つかの実用的な利点を有する。
このような通知は、奥行きヘルパデータの“空間的”指示を、従って部分的に時間的のみならず部分的に空間的な、即ち、フレーム内の部分のみの指示も可能にする。例えば、奥行きエラーは、特定の場面(shot)のフレーム内のローカル発生奥行きマップの幾つかの部分に存在し得る。その場合、当該奥行きヘルパデータは、ローカル発生奥行きが不適切であったピクセルを除き、無奥行きレベルLEVに設定される。
奥行きエラーが発生し得る場所の一例は、場面境界にも跨がって当該コンテンツ内に常に存在するロゴである。通常、奥行きに対する視差のマッピングは各場面に対して相違するが、ロゴの視差は典型的に一定である。ローカル発生奥行きは、ロゴの奥行きが場面に跨がって時間的に変化するというように誤ったものとなり得る。ASDの性質により、この結果、人の目が非常に敏感な、幾らか変化するぼやけた効果さえ生じ得る。しかしながら、ロゴに対応する奥行きピクセルに対してのみ利用可能な奥行きヘルパデータ(即ち、非LEV値の)は、ロゴの奥行きを一定の適切なレベルに設定することを可能にする。従って、このような品質の問題は克服される。非LEVの奥行きマップ値はフラグとして解釈され、これらのピクセルに対して、奥行き出力(LD3/RD3)はローカル発生奥行きLD1/RD1から奥行きヘルパデータLD2/RD2に切り換えられる。
標準の利用可能な立体信号を1つ又は2つの対応する奥行き信号に変換するステレオ/奥行き変換器モジュールS2D(CE-S2D又はHQ-S2D)の挙動は、既知である(及び固定されている)。有利には、固有のステレオ/奥行き変換器が、標準の3Dフォーマットの一部となるように特別に選択される。この場合、デコーダ側のステレオ/奥行き変換器は、エンコーダ側のステレオ/奥行き変換器と等しくさせることができる。このことは、デコーダにおけるS2Dモジュール、CE-S2Dのエンコーダ側における品質制御を可能にする。例えば、所与の場面(新たなシーン又は“撮影(テーク)”の開始)に対してASD上でのレンダリングの後の品質が不十分である(典型的に、しばらくの間に1度だけ発生するような何か、例えば場面のうちの5%)であることが分かった場合、これらの場面に対してのみ、奥行きヘルパデータが生成され伝送される。このことは、全体の品質を保証するのみならず、コンテンツを作成する費用を制限することになる一方、同時に、伝送すべきビットも節約する。
奥行きヘルパデータの原理は、例えばスタジオ又は創作者と、強化された奥行きマップを消費者に送信するために更に符号化する放送者との間の、全ての3Dビデオ伝送ステップにおいて適用することができることに注意されたい。また、奥行きヘルパデータシステムは連続した伝送に対して実行することができ、例えば初期のバージョンに対して更に改善されたバージョンを、更に改善されたソース奥行きマップに基づく第2奥行きヘルパデータを含めることにより作成することができる。このことは、3D表示器上での達成可能な品質、奥行き情報の伝送に必要とされるビットレート、又は3Dコンテンツを作成するための費用の点で大きな柔軟性を与える。
一実施態様において、奥行きヘルパデータは下記の形態をとることができる。3Dビデオ信号は、3D表示器上の表示領域に対応する奥行きマップを含む。該奥行きマップは、補正領域及び/又は補正期間に対する奥行きヘルパデータを有する。更に、予め定められた非奥行き値は、他の領域及び/又は期間の対応する位置に関して奥行きヘルパデータの不存在を示す。
一実施態様において、奥行きマップは、左ビューに対応する奥行きデータ、右ビューに対応する奥行きデータ、及び中心ビューに対応する奥行きデータの少なくとも1つを含むことができる。また、奥行きデータは、前記第1ビデオ情報又は第2ビデオ情報よりも低い解像度を有することができる。
前記奥行きプロセッサは補正領域に対して奥行きヘルパデータを発生するように構成することができ、かくして、該補正領域が当該3Dビデオ信号における少なくとも1つのマクロブロックに整列されるようにする。マクロブロックは、圧縮されたビデオデータの(例えば、MPEG符号化ビデオ信号における)所定のブロックを表す。
マクロブロックに整列された補正領域は、前記ソース奥行きマップと前記第2発生奥行きマップとの間の差が前記所定の閾値を超えない場合の位置に対して他の奥行きデータを含むことができる。このような補正領域は、上記第2発生奥行きマップ及びソース奥行きマップの奥行き値が小さく且つ上記閾値より低いピクセルも含む。上記他の奥行きデータは、マクロブロックに整列された補正領域の外側境界における奥行きのジャンプを回避するために上記第2発生奥行きマップに基づくものとすることができる。該他の奥行き補正値を、発生された値と等しくさせることは、デコーダ側でマクロブロックにわたる奥行きの差が可視的となることを防止する。
一実施態様において、3Dビデオ信号は通知ヘルパデータを含んでいる。該通知ヘルパデータは、奥行きヘルパデータの利用可能性を示す。該通知ヘルパデータは、以下の少なくとも1つの形態をとることができる。フラグ信号は、奥行きヘルパデータの存在を示すことができる。奥行きマップ中の所定の無奥行き値は、対応する位置に対する奥行きヘルパデータの不存在を示すことができる。ヘルパ長データは、データ構造内の奥行きヘルパデータの量を示すことができる。ビュー標識データは、奥行きヘルパデータが利用可能なビューの数及び/又はタイプを示すことができる。ヘルパタイプデータは、当該奥行きヘルパデータのために使用されるデータ構造又はデータフォーマットを示すことができる。ヘルパ解像度データは、奥行きヘルパデータの解像度を示すことができる。ヘルパ位置データは、当該奥行きヘルパデータの位置を示すことができる。
奥行きヘルパデータは、自動発生奥行きマップのうちのレンダリング後において出力にエラーを生じ得る領域を支援/補正することを意図するものであることに注意されたい。奥行きマップの該不使用領域は、単一の輝度値により示すことができる。この値は、NoDHと称する。
奥行きヘルパデータのために伝達することができる他の通知パラメータ(種々の組み合わせを含み、1以上)は、以下の通りである:
1.奥行きデータ解釈
a.Zfar、znear(最も遠い及び最も近い奥行き値)、
b.znear_sign(如何にしてznaearvalue 0を正、1を負として解釈するかを示す)、
c.znear_exponent(一層高い忠実度の奥行き値への拡張のため)、
d.num_of_views(奥行き情報が存在するビューの数)、
2.奥行きヘルパデータから最良の結果を得る際にレンダリングを補助するための特定の処理の通知。該通知は定義されたテーブルで使用される通知に対応する数からなる:
a.DHデータで使用されるスケーリングのタイプ、スケーリングのために使用されるアルゴリズムの種類、双一次(bi-linear)、双三次(bicubic)等、
b.奥行き情報におけるエッジのタイプ。これは、奥行きヘルパデータから最大の結果を得る際にレンダラを補助するための特定のタイプのエッジを示すテーブルからなる。例えば、鮮鋭(Sharp)、ぼやけた(Fuzzy)、軟らかい(Soft)等。
c.奥行きヘルパデータを発生するために使用されるアルゴリズム。レンダリングシステムは、この値を解釈することができ、この値から奥行きヘルパデータをどの様にレンダリングするかを推定する。
手作業、焦点からの奥行き、透視図からの奥行き、動きからの奥行き、方法の組み合わせ等。
上述したテーブルエントリ値に加えて、以下の追加の実際の値:
d.0〜128の、奥行きデータにおいてオブジェクトの境界で使用される伸び(dilation)の量、
e.奥行きヘルパデータを含まない奥行き画像データにおける輝度値。0〜255の間の値としてのNoDH。エッジにおけるビットレートを最小にするために、これは、奥行きビデオストリームのマクロブロックの大きさに対応して、例えば8x8又は16x16でブロックに整列されなければならない。
奥行きデータの解釈情報(1)及びレンダリングのための固有の処理通知(2)の両者は、好ましくは、これらがビデオ信号に、即ちビデオエレメンタリストリームに含まれるように送信される。奥行きデータ解釈情報の送信のために、これは奥行き範囲更新と呼ばれるので、新たなnal単位タイプを定義することが提案される。
固有の処理通知に対して、奥行きヘルパデータを解釈する場合にデータが使用される必要があるので、該通知を、奥行きヘルパデータを伝達するビデオストリームの一部を形成するNAL単位内で伝達することを提案する。これらのために、奥行き範囲更新(depth_range_update)nal単位を、レンダリング奥行きヘルパ(Rendering_Depth_Helper)データとして定義するテーブルにより拡張することができる。代わりに、下記のテーブルをSEIメッセージで伝達することもできる(これらも、ビデオエレメンタリストリームで伝達されるからである)。
下記のものは、示されたデータを伴うnal単位の一部の一例を示すテーブルである。
一実施態様において、3Dビデオ信号は、符号化されたビデオデータストリームを含むようにフォーマッティングされると共に、例えばBD規格等の所定の規格に従う復号情報を伝達するように構成される。3Dビデオ信号における通知ヘルパデータは当該規格に従ってユーザデータメッセージ、通知エレメンタリストリーム情報(SEI)メッセージ、エントリポイントテーブル、及びXMLベース記述のうちの少なくとも1つに復号情報として含まれる。
図4は、自動立体表示装置及び複数のビューの発生を示す。自動立体表示器(ASD)403は奥行きプロセッサ400により発生された複数のビューを入力する。該奥行きプロセッサは、該図の下部に示されるように、全左ビューL及び宛先奥行きマップLD3から一連のビュー405を発生するためのビュー歪めユニット401を有している。表示入力インターフェース406は、RGB及び奥行き(RGBD HDMI(登録商標))を伝達するように拡張されたHDMI(登録商標)規格によるものとすることができ、全左ビューL及び奥行きヘルパデータHDに基づく宛先奥行きマップLD3を含むことができる。発生された上記ビューはインターリーブユニット402を介して表示器403に伝達される。上記宛先奥行きマップは、奥行きポストプロセッサZ−PP 404により更に処理することもできる。
図5は、デュアルビュー立体表示装置及び強化されたビューの発生を示す。デュアルビュー立体表示器(STD)503は、奥行きプロセッサ501により発生された2つの強化ビュー(new_L, new_R)を入力する。該奥行きプロセッサは、該図の下部に示されるように、オリジナルの全左ビューL及び全Rビュー並びに宛先奥行きマップから強化ビューを発生するためのビュー歪め機能を有している。表示入力インターフェース502は、ビュー情報IFを伝達するように拡張されたHDMI(登録商標)規格(HDMI(登録商標) IF)によるものとすることができる。新たなビューは、表示の間のベースライン(BL)を示すパラメータBLに対して歪められる。3Dビデオ素材のベースラインは、元々、L及びRカメラ位置の間の実効距離(光学系、ズーム係数等に関して補正された)である。素材を表示する場合、ベースラインは、サイズ、解像度、視聴距離又は視聴者嗜好設定等の表示構成により実効的に移動される。表示の間にベースラインを変化させるために、L及びRビューの位置は新たなビューを歪めることにより(new_L及びnew_Rと呼ばれる)シフトすることができ、オリジナルのベースラインより大きい(>100%)又は小さい(<100%)ものとなり得る新たなベースライン距離を形成する。新たなビューは、BL=100%におけるオリジナルの全L及びRビューに対して外側に又は内側にシフトされる。第3の例(0%<BL<50%)では、両方の新たなビューが単一のビュー(Full_L)に基づいて歪められている。全ビューに近い新たなビューの歪めは、歪めアーチファクトを防止することになる。図示された3つの例によれば、歪められた新たなビューとオリジナルのビューとの間の距離は25%より小さいが、0%<BL<150%の制御範囲を可能にする。
図6は、3Dビデオ信号における奥行きヘルパデータの存在を示す。該図において、上向きの矢印は、ビデオプログラムにおける新たな場面の開始時刻(t1,t2等)を示す。t3及びt6で開始する場面の間に、ハイとなるフラグ信号により示されるように、奥行きヘルパデータLD4及びRD4が発生される。該図は、補正期間の間に前記差が閾値を超える場合(即ち、ローカル発生奥行きマップにおける奥行きエラーが妨害的に見える場合)に該補正期間の間においてのみ3Dビデオ信号に奥行きヘルパデータを含めることを示している。
以上、本発明を消費者タイプの宛先装置を使用する実施態様によって主に説明したが、本発明は如何なる3Dビデオシステムにとっても適している。要約すると、3Dデータを種々のタイプの3D表示器に伝送するためのハイブリッドな伝送/自動変換3Dフォーマット及び方式が提案される。奥行き情報(“奥行き”)は、時間的(時間的な部分的奥行き)及び/又は空間的(フレーム内の部分的奥行き)の両方で部分的に伝送される。これらの部分的奥行きが何時使用されるべきか、又は奥行きが何時ローカルに自動的に発生されねばならないかを示すための明示的又は暗示的メカニズムが存在する。該ハイブリッド原理は、消費者側及び/又は放送者側の何れにも適用することができ、このことは、3D表示器上での達成可能な品質、奥行き情報の伝送に必要とされるビットレート、又は3Dコンテンツを作成するための費用の点で大きな柔軟性を提供する。
本発明は、プログラム可能な構成要素を用いて、ハードウェア及び/又はソフトウェアで実施化することができることに注意されたい。本発明を実施するための方法は、図1を参照して説明したシステムに関して定義された機能に対応するステップを有する。
明瞭化のための上記記載は本発明の実施態様を異なる機能的ユニット及びプロセッサを参照して説明したことが理解される。しかしながら、異なる機能ユニット又はプロセッサの間での機能の如何なる適切な分散も、本発明から逸脱することなく用いることができることは明らかであろう。例えば、別個のユニット、プロセッサ又はコントローラにより実行されるものとして解説された機能は、同一のプロセッサ又はコントローラにより実行することができる。従って、特定の機能的ユニットに対する言及は、厳格な論理的又は物理的構成又は編成を示すというよりも、記載された機能を提供するための適切な手段に対する参照としてのみ理解されるべきである。本発明は、ハードウェア、ソフトウェア、ファームウエア又はこれらの組み合わせの如何なる適切な形態でも実施化することができる。
尚、本明細書において、“有する”なる文言は掲載されたもの以外の他の構成要素又はステップの存在を排除するものではなく、単数形の構成要素は複数の斯様な構成要素の存在を排除するものでもないことに注意されたい。また、如何なる符号も請求項の範囲を限定するものではなく、本発明はハードウェア及びソフトウェアの両方により実施化することができ、幾つかの“手段”又は“ユニット”は同一の品目のハードウェア又はソフトウェアにより表すことができ、プロセッサは、恐らくはハードウェアエレメントとの組み合わせで1以上のユニットの機能を満たすことができることに注意されたい。更に、本発明は、実施態様に限定されるものではなく、上述した又は相互に異なる従属請求項に記載された各及び全ての新規なフィーチャ又はフィーチャの組み合わせに存するものである。

Claims (17)

  1. 三次元(3D)宛先装置に伝達するための3Dビデオ信号を供給する3Dソース装置であって、
    前記3Dビデオ信号は、
    − 3D表示器上の左眼ビューを表す第1ビデオ情報と、
    − 前記3D表示器上の右眼ビューを表す第2ビデオ情報と、
    を有し、
    前記3D宛先装置は、
    − 前記3Dビデオ信号を受信するための受信器と、
    − 前記第1及び第2ビデオ情報に基づいて第1発生奥行きマップを発生するステレオ/奥行き変換器と、
    を有し、
    前記3Dソース装置は、
    − 前記3Dビデオ信号を発生すると共に、該3Dビデオ信号を前記3D宛先装置に伝達するための出力ユニット、
    を有し、
    前記3Dソース装置は、
    − 前記ビデオ情報に関するソース奥行きマップを供給し、
    前記3Dソース装置は、
    − 前記第1及び第2ビデオ情報に基づいて第2発生奥行きマップを発生するソースステレオ/奥行き変換器と、
    − 前記ソース奥行きマップと前記第2発生奥行きマップとの間の差が所定の閾値を超える場合にのみ、前記ソース奥行きマップを表す奥行きヘルパデータを供給するソース奥行きプロセッサと、
    を有し、
    前記出力ユニットは前記奥行きヘルパデータを前記3Dビデオ信号に含め、
    前記3D宛先装置は、
    − 前記3Dビデオ信号において前記奥行きヘルパデータが利用可能でない場合には前記第1発生奥行きマップに基づいて、前記3Dビデオ信号において前記奥行きヘルパデータが利用可能である場合には該奥行きヘルパデータに基づいて宛先奥行きマップを発生するための、
    奥行きプロセッサを有する、
    3Dソース装置。
  2. 前記出力ユニットは、前記差が前記閾値を超える補正期間においてのみ前記3Dビデオ信号に前記奥行きヘルパデータを含める、請求項1に記載の3Dソース装置。
  3. 前記出力ユニットは、前記3D表示器より小さい補正領域であって、前記差が前記閾値を超える補正領域に対してのみ前記3Dビデオ信号に前記奥行きヘルパデータを含める、請求項1に記載の3Dソース装置。
  4. 前記奥行きプロセッサは前記補正領域に対して該補正領域が前記3Dビデオ信号における少なくとも1つのマクロブロックに整列されるようにして前記奥行きヘルパデータを発生し、前記マクロブロックは圧縮されたビデオデータの所定のブロックを表し、該マクロブロックに整列された補正領域は、前記ソース奥行きマップと前記第2発生奥行きマップとの間の差が前記所定の閾値を超えない位置に対して他の奥行きデータを有する、請求項3に記載の3Dソース装置。
  5. 前記他の奥行きデータは、前記マクロブロックに整列された補正領域の外側境界における奥行きのジャンプを防止するために前記第2発生奥行きマップに基づくものである、請求項4に記載の3Dソース装置。
  6. 前記出力ユニットは、前記3Dビデオ信号に、前記奥行きヘルパデータの利用可能性を示す通知ヘルパデータを含める、請求項1、2、3又は4に記載の3Dソース装置。
  7. 前記通知ヘルパデータが、
    − 前記奥行きヘルパデータの存在を示すフラグ信号、
    − 対応する位置に対する奥行きヘルパデータの不存在を示す、奥行きマップ内の所定の無奥行き値、
    − データ構造内の奥行きヘルパデータの量を示すヘルパ長データ、
    − 前記奥行きヘルパデータが利用可能であるビューの数及び/又はタイプを示すビュー標識データ、
    − 前記奥行きヘルパデータのために使用されるデータ構造を示すヘルパタイプデータ、
    − 前記奥行きヘルパデータの解像度を示すヘルパ解像度データ、及び
    − 前記奥行きヘルパデータの位置を示すヘルパ位置データ、
    のうちの少なくとも1つを有する、請求項6に記載の3Dソース装置。
  8. 前記出力ユニットは、前記3Dビデオ信号に、前記3D表示器上の表示領域に対応する奥行きマップを含め、該奥行きマップは、前記補正領域及び/又は前記補正期間のために前記奥行きヘルパデータを有すると共に、他の領域及び/又は期間に関しては、前記通知ヘルパデータとして、対応する位置に対する奥行きヘルパデータの不存在を示す所定の無奥行き値を有する、請求項6に記載の3Dソース装置。
  9. 前記奥行きマップが、
    − 前記左眼ビューに対応する奥行きデータ、
    − 前記右眼ビューに対応する奥行きデータ、
    − 中心ビューに対応する奥行きデータ、及び
    − 前記第1ビデオ情報又は前記第2ビデオ情報よりも低い解像度を持つ奥行きデータ、
    のうちの少なくとも1つを有する、請求項8に記載の3Dソース装置。
  10. 三次元(3D)ソース装置から3Dビデオ信号を入力する3D宛先装置であって、
    前記3Dビデオ信号は、
    − 3D表示器上の左眼ビューを表す第1ビデオ情報と、
    − 前記3D表示器上の右眼ビューを表す第2ビデオ情報と、
    を有し、
    当該3D宛先装置は、
    − 前記3Dビデオ信号を受信するための受信器と、
    − 前記第1及び第2ビデオ情報に基づいて第1発生奥行きマップを発生するステレオ/奥行き変換器と、
    を有し、
    前記3Dソース装置は、
    − 前記ビデオ情報に関するソース奥行きマップを供給し、
    前記3Dソース装置は、
    − 前記第1及び第2ビデオ情報に基づいて第2発生奥行きマップを発生するソースステレオ/奥行き変換器と、
    − 前記ソース奥行きマップと前記第2発生奥行きマップとの間の差が所定の閾値を超える場合にのみ、前記ソース奥行きマップを表す奥行きヘルパデータを供給するソース奥行きプロセッサと、
    − 前記奥行きヘルパデータを前記3Dビデオ信号に含める出力ユニットと、
    を有し、
    当該3D宛先装置は、
    − 前記3Dビデオ信号において前記奥行きヘルパデータが利用可能でない場合には前記第1発生奥行きマップに基づいて、前記3Dビデオ信号において前記奥行きヘルパデータが利用可能である場合には前記奥行きヘルパデータに基づいて宛先奥行きマップを発生するための、
    奥行きプロセッサを有する、
    3D宛先装置。
  11. 前記受信器が前記3Dビデオ信号を入力するために記録担体を読み取る読取ユニットを有する、請求項10に記載の3D宛先装置。
  12. 当該装置が、
    − 前記第1及び第2ビデオ情報に基づくと共に前記宛先奥行きマップに依存して3Dビデオデータの複数のビューを発生するビュープロセッサと、
    − 前記3Dビデオデータの複数のビューを表示するための3D表示器と、
    を有する、請求項10に記載の3D宛先装置。
  13. 三次元(3D)宛先装置に伝達するための3Dビデオ信号を供給する方法であって、
    前記3Dビデオ信号は、
    − 3D表示器上の左眼ビューを表す第1ビデオ情報と、
    − 前記3D表示器上の右眼ビューを表す第2ビデオ情報と、
    を有し、
    前記3D宛先装置は、
    − 前記3Dビデオ信号を受信するための受信器と、
    − 前記第1及び第2ビデオ情報に基づいて第1発生奥行きマップを発生するステレオ/奥行き変換器と、
    を有し、
    当該方法は、
    − 前記3Dビデオ信号を発生すると共に、該3Dビデオ信号を前記3D宛先装置に伝達するステップ、
    を有し、
    当該方法は、
    − 前記ビデオ情報に関するソース奥行きマップを供給するステップと、
    − 前記第1及び第2ビデオ情報に基づいて第2発生奥行きマップを発生するステップと、
    − 前記ソース奥行きマップと前記第2発生奥行きマップとの間の差が所定の閾値を超える場合にのみ、前記ソース奥行きマップを表す奥行きヘルパデータを供給するステップと、
    − 前記奥行きヘルパデータを前記3Dビデオ信号に含めるステップと、
    を有し、
    前記3D宛先装置が、
    − 前記3Dビデオ信号において前記奥行きヘルパデータが利用可能でない場合には前記第1発生奥行きマップに基づいて、前記3Dビデオ信号において前記奥行きヘルパデータが利用可能である場合には前記奥行きヘルパデータに基づいて宛先奥行きマップを発生するための、
    奥行きプロセッサを有する、
    方法。
  14. 当該方法が、前記3Dビデオ信号を表すマークのトラックが設けられた記録担体を製造するステップを有する、請求項13に記載の方法。
  15. 三次元(3D)ソース装置から3D宛先装置に3Dビデオデータを伝達するための3Dビデオ信号であって、
    当該3Dビデオ信号は、
    − 3D表示器上の左眼ビューを表す第1ビデオ情報と、
    − 前記3D表示器上の右眼ビューを表す第2ビデオ情報と、
    を有し、
    前記3D宛先装置は、
    − 前記3Dビデオ信号を受信するための受信器と、
    − 前記第1及び第2ビデオ情報に基づいて第1発生奥行きマップを発生するステレオ/奥行き変換器と、
    を有し、
    前記3Dソース装置は、
    − 前記3Dビデオ信号を発生すると共に、該3Dビデオ信号を前記3D宛先装置に伝達するための出力ユニット、
    を有し、
    前記3Dソース装置は、
    − 前記ビデオ情報に関するソース奥行きマップを供給し、
    前記3Dソース装置は、
    − 前記第1及び第2ビデオ情報に基づいて第2発生奥行きマップを発生するソースステレオ/奥行き変換器と、
    − 前記ソース奥行きマップと前記第2発生奥行きマップとの間の差が所定の閾値を超える場合にのみ、前記ソース奥行きマップを表す奥行きヘルパデータを供給するソース奥行きプロセッサと、
    を有し、
    当該3Dビデオ信号は前記奥行きヘルパデータを有し、
    前記3D宛先装置は、
    − 前記3Dビデオ信号において前記奥行きヘルパデータが利用可能でない場合には前記第1発生奥行きマップに基づいて、前記3Dビデオ信号において前記奥行きヘルパデータが利用可能である場合には前記奥行きヘルパデータに基づいて宛先奥行きマップを発生するための、
    奥行きプロセッサを有する、
    3Dビデオ信号。
  16. 請求項15に記載の三次元(3D)ビデオ信号を有する記録担体。
  17. 三次元(3D)宛先装置に伝達する3Dビデオ信号を供給するためのコンピュータプログラムであって、プロセッサに請求項13に記載の方法の各ステップを実行させる、コンピュータプログラム。
JP2015503982A 2012-04-05 2013-04-05 奥行きヘルパデータ Active JP6242380B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261620660P 2012-04-05 2012-04-05
US61/620,660 2012-04-05
PCT/IB2013/052725 WO2013150491A1 (en) 2012-04-05 2013-04-05 Depth helper data

Publications (3)

Publication Number Publication Date
JP2015515820A true JP2015515820A (ja) 2015-05-28
JP2015515820A5 JP2015515820A5 (ja) 2016-06-02
JP6242380B2 JP6242380B2 (ja) 2017-12-06

Family

ID=48576468

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015503982A Active JP6242380B2 (ja) 2012-04-05 2013-04-05 奥行きヘルパデータ

Country Status (10)

Country Link
US (1) US9584794B2 (ja)
EP (1) EP2834982B1 (ja)
JP (1) JP6242380B2 (ja)
KR (1) KR102086124B1 (ja)
CN (1) CN104205821B (ja)
BR (1) BR112014024410B1 (ja)
ES (1) ES2645639T3 (ja)
RU (1) RU2632426C2 (ja)
TW (1) TWI586143B (ja)
WO (1) WO2013150491A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021510251A (ja) * 2018-01-05 2021-04-15 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 画像データビットストリームを生成するための装置及び方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2632404C2 (ru) * 2012-04-13 2017-10-04 Конинклейке Филипс Н.В. Данные сигнализации глубины
EP2875636A1 (en) 2012-07-20 2015-05-27 Koninklijke Philips N.V. Metadata for depth filtering
CN106791776B (zh) * 2016-11-30 2019-04-30 努比亚技术有限公司 一种实现视频播放的方法和装置
CN106791764A (zh) * 2016-11-30 2017-05-31 努比亚技术有限公司 一种实现视频编解码的方法和装置
CN108449529B (zh) 2018-02-07 2020-12-18 深圳奥比中光科技有限公司 深度计算处理器及移动终端
KR102503743B1 (ko) * 2018-04-11 2023-02-28 삼성전자주식회사 이미지 처리 장치 및 방법
US20230107179A1 (en) * 2020-03-31 2023-04-06 Sony Group Corporation Information processing apparatus and method, as well as program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010508691A (ja) * 2006-10-30 2010-03-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ビデオ深度マップ調整
US20100310155A1 (en) * 2007-12-20 2010-12-09 Koninklijke Philips Electronics N.V. Image encoding method for stereoscopic rendering

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6765568B2 (en) * 2000-06-12 2004-07-20 Vrex, Inc. Electronic stereoscopic media delivery system
NZ505513A (en) * 2000-06-30 2002-05-31 Marc Dawson Anaglyphic 3-D colour imaging with selective colour filtering
KR100585966B1 (ko) * 2004-05-21 2006-06-01 한국전자통신연구원 3차원 입체 영상 부가 데이터를 이용한 3차원 입체 디지털방송 송/수신 장치 및 그 방법
CN101453662B (zh) 2007-12-03 2012-04-04 华为技术有限公司 立体视频通信终端、系统及方法
EP2184713A1 (en) * 2008-11-04 2010-05-12 Koninklijke Philips Electronics N.V. Method and device for generating a depth map
KR101574068B1 (ko) * 2008-12-26 2015-12-03 삼성전자주식회사 영상 처리 방법 및 장치
CN102473172A (zh) * 2009-07-24 2012-05-23 数字标记公司 改进的音频/视频方法和系统
US10021377B2 (en) * 2009-07-27 2018-07-10 Koninklijke Philips N.V. Combining 3D video and auxiliary data that is provided when not reveived
RU2423018C2 (ru) * 2009-08-04 2011-06-27 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." Способ и система для преобразования стереоконтента
KR101699920B1 (ko) * 2009-10-07 2017-01-25 삼성전자주식회사 깊이 조절 방법 및 장치
US20130107956A1 (en) 2010-07-06 2013-05-02 Koninklijke Philips Electronics N.V. Generation of high dynamic range images from low dynamic range images
US20120050491A1 (en) * 2010-08-27 2012-03-01 Nambi Seshadri Method and system for adjusting audio based on captured depth information

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010508691A (ja) * 2006-10-30 2010-03-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ビデオ深度マップ調整
US20100067864A1 (en) * 2006-10-30 2010-03-18 Koninklijke Philips Electronics N.V. Video depth map alignment
US20100310155A1 (en) * 2007-12-20 2010-12-09 Koninklijke Philips Electronics N.V. Image encoding method for stereoscopic rendering
JP2011508498A (ja) * 2007-12-20 2011-03-10 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 立体的なレンダリングのための画像エンコード方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021510251A (ja) * 2018-01-05 2021-04-15 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 画像データビットストリームを生成するための装置及び方法
JP7252238B2 (ja) 2018-01-05 2023-04-04 コーニンクレッカ フィリップス エヌ ヴェ 画像データビットストリームを生成するための装置及び方法

Also Published As

Publication number Publication date
KR102086124B1 (ko) 2020-04-16
TW201349842A (zh) 2013-12-01
JP6242380B2 (ja) 2017-12-06
BR112014024410B1 (pt) 2023-02-28
KR20150004823A (ko) 2015-01-13
ES2645639T3 (es) 2017-12-07
WO2013150491A1 (en) 2013-10-10
BR112014024410A2 (ja) 2017-06-20
TWI586143B (zh) 2017-06-01
RU2014144269A (ru) 2016-05-27
US20150085070A1 (en) 2015-03-26
CN104205821A (zh) 2014-12-10
CN104205821B (zh) 2017-03-29
US9584794B2 (en) 2017-02-28
EP2834982B1 (en) 2017-08-09
EP2834982A1 (en) 2015-02-11
RU2632426C2 (ru) 2017-10-04

Similar Documents

Publication Publication Date Title
US11277600B2 (en) Switching between 3D video and 2D video
JP6242380B2 (ja) 奥行きヘルパデータ
US10567728B2 (en) Versatile 3-D picture format
RU2554465C2 (ru) Комбинирование 3d видео и вспомогательных данных
EP2717254A1 (en) Content processing apparatus for processing high resolution content and content processing method thereof
US9654759B2 (en) Metadata for depth filtering
TWI624803B (zh) 深度信號資料
US20140072271A1 (en) Recording apparatus, recording method, reproduction apparatus, reproduction method, program, and recording reproduction apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160404

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160404

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171107

R150 Certificate of patent or registration of utility model

Ref document number: 6242380

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250